Sie sind auf Seite 1von 229

Mathematik 1 für Maschinenbauer

Tim Kröger

Winter 2022/2023, Version vom 28. September 2022


Ich danke Frau Manuela Mai für viele Verbesserungsvorschläge sowie das Aufspüren
zahlreicher Fehler.
Inhaltsverzeichnis
Über die Verwendung von Computersystemen in dieser Lehrveranstaltung 1

1 Funktionen 5
1.1 Allgemeines über Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Eigenschaften von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Periodizität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Beschränktheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4 Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 Symmetrieverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Umkehrfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Verkettung von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Polynomfunktionen (ganzrationale Funktionen) . . . . . . . . . . . . . . . 14
1.5.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Polynome vom Grad 0 . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.3 Polynome vom Grad 1 . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.4 Polynome vom Grad 2 . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.5 Polynome von höherem Grad . . . . . . . . . . . . . . . . . . . . . 16
1.6 Gebrochenrationale Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.2 Nullstellen und Definitionslücken . . . . . . . . . . . . . . . . . . . 20
1.6.3 Asymptotisches Verhalten im Unendlichen . . . . . . . . . . . . . . 22
1.7 Potenz- und Wurzelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7.1 Potenzfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7.2 Wurzelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7.3 Potenzfunktionen mit rationalen Exponenten . . . . . . . . . . . . 24
1.8 Exponential- und Logarithmus-Funktionen . . . . . . . . . . . . . . . . . . 25
1.9 Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.9.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.9.2 Umkehrung der trigonometrischen Funktionen . . . . . . . . . . . . 34
1.9.3 Bestimmung des Winkels bei bekanntem Sinus und Kosinus . . . . 34
1.9.4 Verallgemeinerte Sinusschwingung . . . . . . . . . . . . . . . . . . 36
1.10 Hyperbel- und Areafunktionen . . . . . . . . . . . . . . . . . . . . . . . . 39

2 Komplexe Zahlen 43
2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2 Die Menge der komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . 45

iii
Inhaltsverzeichnis

2.3 Grundrechenarten für komplexe Zahlen . . . . . . . . . . . . . . . . . . . . 46


2.4 Darstellungsarten komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . 48
2.4.1 Kartesische Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.4.2 Grafische Darstellung: Gaußsche Zahlenebene . . . . . . . . . . . . 49
2.4.3 Polarform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5 Umrechnung zwischen den Darstellungsformen . . . . . . . . . . . . . . . . 50
2.5.1 Polarform in kartesische Form . . . . . . . . . . . . . . . . . . . . . 50
2.5.2 Kartesische Form in Polarform . . . . . . . . . . . . . . . . . . . . 50
2.5.3 Anmerkung zur Berechnung des Betrags . . . . . . . . . . . . . . . 51
2.6 Rechnen in den verschiedenen Darstellungsformen . . . . . . . . . . . . . . 52
2.6.1 Polardarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.6.2 Grafische Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.7 Weitere Rechenarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.7.1 Potenzieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.7.2 Wurzelziehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.8 Verträglichkeit von Rechenoperationen mit dem Konjugieren . . . . . . . . 57
2.9 Nullstellen von Polynomen . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.9.1 Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . . . . . 60
2.9.2 Polynome vom Grad 2: Quadratische Gleichungen . . . . . . . . . 61
2.9.3 Polynome höheren Grades . . . . . . . . . . . . . . . . . . . . . . . 63
2.9.4 Komplexe Nullstellen von Polynomen mit reellen Koeffizienten . . . 63
2.10 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.10.1 Darstellung harmonischer Schwingungen im Zeigerdiagramm . . . . 66
2.10.2 Überlagerung gleichfrequenter Schwingungen . . . . . . . . . . . . 67

3 Lineare Gleichungssysteme und lineare Algebra 71


3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.2 Lineare Gleichungssysteme zum Ersten . . . . . . . . . . . . . . . . . . . . 72
3.3 Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.3.1 Begriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.3.2 Rechenoperationen für Vektoren . . . . . . . . . . . . . . . . . . . 76
3.3.3 Spezielle Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.3.4 Spezielle Rechenoperation für dreidimensionale Vektoren: Das Kreuz-
produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.4 Lineare Gleichungssysteme zum Zweiten . . . . . . . . . . . . . . . . . . . 79
3.5 Motivation für die Werkzeuge der linearen Algebra . . . . . . . . . . . . . 84
3.5.1 Universelle Lösungsformeln . . . . . . . . . . . . . . . . . . . . . . 85
3.5.2 Mehrere rechte Seiten . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.5.3 Eigenschaften von Lösungsmengen . . . . . . . . . . . . . . . . . . 87
3.5.4 Weitere Anwendungen der Linearen Algebra . . . . . . . . . . . . . 87
3.6 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.6.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.6.2 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.6.3 Rechenoperationen für Matrizen . . . . . . . . . . . . . . . . . . . 89

iv
Inhaltsverzeichnis

3.6.4 Transponieren von Matrizen . . . . . . . . . . . . . . . . . . . . . . 92


3.7 Lineare Gleichungssysteme zum Dritten . . . . . . . . . . . . . . . . . . . 93
3.7.1 Homogene lineare Gleichungssysteme – Rang und Dimension . . . 94
3.7.2 Inhomogene lineare Gleichungssysteme . . . . . . . . . . . . . . . . 98
3.7.3 Quadratische lineare Gleichungssysteme . . . . . . . . . . . . . . . 100
3.8 Inverse Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.8.1 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . 100
3.8.2 Berechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.9 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.9.1 Zweireihige Determinanten . . . . . . . . . . . . . . . . . . . . . . 104
3.9.2 n-reihige Determinanten . . . . . . . . . . . . . . . . . . . . . . . . 108
3.9.3 Anwendung von Determinanten . . . . . . . . . . . . . . . . . . . . 113
3.10 Lineare Koordinatentransformation . . . . . . . . . . . . . . . . . . . . . . 117
3.10.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.10.2 Berechnungsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.10.3 Spezialfall: Orthogonale Koordinatentransformation . . . . . . . . 122
3.11 Eigenwertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.11.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.11.2 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . 125
3.11.3 Berechnung von Eigenwerten und Eigenvektoren . . . . . . . . . . 126
3.11.4 Mehrfache Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.11.5 Komplexe Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . 134
3.11.6 Zusammenhang zwischen Determinante und Eigenwerten . . . . . . 135
3.11.7 Diagonalisierbare Matrizen . . . . . . . . . . . . . . . . . . . . . . 138
3.11.8 Diagonalisierbarkeit von symmetrischen Matrizen . . . . . . . . . . 141
3.11.9 Anwendung aus der Festigkeitslehre: Spannungsmatrix und Haupt-
spannungsrichtungen . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3.12 Anwendung: Wichtige geometrische Koordinatentransformationen in der
Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
3.12.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
3.12.2 Drehungen um den Nullpunkt . . . . . . . . . . . . . . . . . . . . . 147
3.12.3 Spiegelungen an Achsen durch den Nullpunkt . . . . . . . . . . . . 149
3.12.4 Größenänderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
3.12.5 Verschiebungen – Homogene Koordinaten . . . . . . . . . . . . . . 150

4 Differenzialrechnung 155
4.1 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.2 Differenzierbarkeit und Ableitung . . . . . . . . . . . . . . . . . . . . . . . 158
4.2.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.2.2 Berechnung von Ableitungen . . . . . . . . . . . . . . . . . . . . . 161
4.2.3 Linearisierung einer Funktion . . . . . . . . . . . . . . . . . . . . . 167
4.2.4 Monotonie, Extremstellen, Krümmungsverhalten . . . . . . . . . . 169

v
Inhaltsverzeichnis

5 Folgen, Reihen und Taylor-Entwicklung 175


5.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
5.2 Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
5.2.1 Begriff und Darstellungsarten . . . . . . . . . . . . . . . . . . . . . 176
5.2.2 Konvergenz, Grenzwerte . . . . . . . . . . . . . . . . . . . . . . . . 178
5.2.3 Rechenregeln für Grenzwerte . . . . . . . . . . . . . . . . . . . . . 180
5.2.4 Die Fakultät . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
5.3 Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
5.3.1 Begriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
5.3.2 Geometrische Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . 184
5.3.3 Konvergenz- und Divergenzkriterien . . . . . . . . . . . . . . . . . 185
5.4 Taylor-Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
5.4.1 Mac-Laurin-Polynome . . . . . . . . . . . . . . . . . . . . . . . . . 194
5.4.2 Taylor-Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
5.4.3 Potenzreihen und Konvergenzradius . . . . . . . . . . . . . . . . . 198
5.4.4 Zusammensetzen von Potenzreihen . . . . . . . . . . . . . . . . . . 203
5.4.5 Fehlerabschätzungen . . . . . . . . . . . . . . . . . . . . . . . . . . 207
5.4.6 Die binomische Reihe . . . . . . . . . . . . . . . . . . . . . . . . . 211
5.4.7 Spezialfall: Der binomische Lehrsatz . . . . . . . . . . . . . . . . . 213
5.4.8 Näherungspolynome elementarer Funktionen . . . . . . . . . . . . 216
5.4.9 Taylor-Reihen im Komplexen, komplexe e-Funktion . . . . . . . . . 218
5.5 Grenzwerte von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5.5.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5.5.2 Regel von de L’Hospital . . . . . . . . . . . . . . . . . . . . . . . . 219
5.5.3 Grenzwertberechnung mit Potenzreihen . . . . . . . . . . . . . . . 222

vi
Über die Verwendung von
Computersystemen in dieser
Lehrveranstaltung
Im Rahmen der Vorlesung werden bisweilen Beispiele am Computer demonstriert. Für die
Bearbeitung mathematischer Probleme am Computer existiert eine Vielzahl von Softwa-
repaketen. Dabei gibt es sowohl kommerzielle Software als auch kostenlose Open-Source-
Software. Gute kostenlose Software bietet dabei oftmals einen nahezu vergleichbaren
Funktionsumfang wie kommerzielle Software.
Thematisch lässt sich Mathematik-Software grob in zwei Bereiche unterteilen, nämlich
in Numerik-Software und Computer-Algebra. Computer-Algebra-Programme können gut
symbolisch rechnen, Numerik-Software kann mit Zahlen rechnen und benutzt dabei Nä-
herungsmethoden. Den Unterschied kann man sich gut an einem Beispiel klar machen:

Beispiel 0.1 Man möchte das Integral


Z 1
cos x · cos(sin x) dx
0

berechnen. Ein Computer-Algebra-Programm wird mit allerlei Tricks versuchen, eine


Stammfunktion des Integranden zu bestimmen und dann das Ergebnis in symbolischer
Form ausgeben. (In diesem Fall lautet die Stammfunktion sin(sin x), das Ergebnis also
sin(sin(1)).) Ein Numerik-Programm hingegen wendet Näherungsmethoden an, um den
Zahlenwert des Integrals möglichst genau zu bestimmen, ohne dabei jedoch den Anspruch
zu haben, exakt zu sein. //
Die meisten Programme sind auf einem dieser beiden Gebiete spezialisiert, haben je-
doch auch gewisse Fähigkeiten in dem jeweils anderen.
Die folgende Tabelle enthält einige bekannte Mathematikprogramme:

kommerziell kostenlos
Computer-Algebra Maple, Mathematica Maxima
Numerik Matlab, Mathematica Octave, Scilab

Die drei kostenlosen Programme sind für alle gängigen Betriebssysteme (Windows, Mac,
Linux) erhältlich.

Beispiel 0.2 In maxima löst man das obige Beispiel wie folgt:

1
Über die Verwendung von Computersystemen in dieser Lehrveranstaltung

integrate(cos(x)*cos(sin(x)),x);

Man erhält als Ergebnis die Stammfunktion

sin(sin(x))

Das bestimmte Integral in den angegebenen Grenzen erhält man mittels

integrate(cos(x)*cos(sin(x)),x,0,1);

Das Ergebnis ist

sin(sin(1))

Erst auf expliziten Wunsch

float(integrate(cos(x)*cos(sin(x)),x,0,1));

wird das Ergebnis als Kommazahl dargestellt:

0.74562414166556

Versucht man allerdings dasselbe mit dem Integranden sin x · cos(sin x), so findet maxima
keine Lösung.
In octave löst man dasselbe Beispiel wie folgt:

quad(@(x) cos(x)*cos(sin(x)),0,1)

Man erhält die Antwort

ans = 0.74562

Eine Stammfunktion sucht man vergebens; sie wird nicht gebildet. Jedoch kann octave
dafür auch problemlos mit dem abgeänderten Integranden sin x · cos(sin x) umgehen. //
Diese Lehrveranstaltung ist keine Einführung in eines der Systeme. Es besteht aber
die Möglichkeit, die in der Vorlesung am Computer demonstrierten Beispiele zu Hause
nachzuarbeiten und gegebenenfalls eigenständig zu erweitern. Um dies den Studieren-
den zu erleichtern, wird im Rahmen dieser Veranstaltung ausschließlich kostenlose Soft-
ware eingesetzt. Auf Grund des inhaltlichen Schwerpunkts der Veranstaltung wird das
Computer-Algebra-System maxima eingesetzt. Im Moodle-Kurs finden Sie einen Link,
unter dem Sie sich maxima herunterladen können.
In der Klausur ist die Benutzung von Computern weder notwendig noch zulässig.

2
Kästen
• In Kästen wie diesem werden die wichtigsten Ergebnisse zu einem Thema über-
sichtlich zusammengefasst.

• In einigen Fällen werden dabei Ergebnisse aus späteren Abschnitten vorwegge-


nommen.

• Die Kästen sollen dabei helfen, bei komplizierten Zusammenhängen die Über-
sicht zu behalten.

• Die Kästen ersetzen jedoch nicht die restliche Veranstaltung. Die Kästen alleine
decken nicht den Prüfungsstoff ab.

3
1 Funktionen

1.1 Allgemeines über Funktionen


Funktionen werden immer dann verwendet, wenn Abhängigkeiten zwischen physikalisch-
technischen Messgrößen beschrieben werden müssen.

Definition 1.1 Unter einer Funktion versteht man eine Vorschrift f , die jedem Element
x aus einer Menge D genau ein Element y aus einer Menge Z zuordnet.

Dabei gelten folgende Bezeichnungen:

• x: unabhängige Variable;

• y: abhängige Variable;

• D: Definitionsmenge;

• Z: Zielmenge.

Beispiel 1.2 Beispiele für Funktionen sind:

• Uhrzeit des Sonnenaufgangs als Funktion des Datums;

• Preis einer Banane als Funktion der Masse;

• Tageshöchsttemperatur als Funktion des Datums;

• Bremsweg eines Autos als Funktion der Geschwindigkeit;

• Preis eines U-Bahn-Tickets als Funktion der Anzahl der Haltestellen;

• Radioaktiver Zerfall (Intensität der Strahlung als Funktion der Zeit);

• Auslenkung einer Stahlfeder als Funktion der Belastung;

• Fallweg und Fallgeschwindigkeiten beim freien Fall als Funktionen der Zeit;

• Stromstärke in einem Stromkreis als Funktion der angelegten Spannung.

//

5
1 Funktionen

Schreibweisen für Funktionen (am Beispiel Parabel):

f : D → Z, x 7→ x2 (Definitions- und Zielmenge mit angegeben);


f : D → Z, f (x) = x2 (ähnlich);
2
f (x) = x (Definitions- und Zielmenge fehlen);
y = x2 (abhängige und unabhängige Variablen nicht klar).

Die Buchstaben können dabei im Prinzip auch beliebig anders sein.


Wenn Definitions- und Zielmenge nicht angegeben sind, müssen diese aus dem Zusam-
menhang ersichtlich sein.
Als Mengen D und Z treten häufig Intervalle auf, das sind Teilmengen von R der
folgenden Form:

[a, b] = {x ∈ R : a ≤ x ≤ b} (abgeschlossenes Intervall),


(a, b) = {x ∈ R : a < x < b} (offenes Intervall),
[a, b) = {x ∈ R : a ≤ x < b} (halboffenes Intervall),
(a, b] = {x ∈ R : a < x ≤ b} (halboffenes Intervall),
[a, ∞) = {x ∈ R : a ≤ x},
(a, ∞) = {x ∈ R : a < x},
(−∞, b] = {x ∈ R : x ≤ b},
(−∞, b) = {x ∈ R : x < b},
(−∞, ∞) = R.

Sofern D und Z Mengen reeller Zahlen sind, besteht eine grafische Darstellungsmög-
lichkeit darin, für jedes Punktepaar (x, y) mit y = f (x) einen Punkt mit Abszisse x
und Ordinate y in ein rechtwinkliges Koordinatensystem zu zeichnen. Es ergibt sich der
sogenannte Graph der Funktion (siehe Abbildung 1.1 für die Funktion f (x) = x2 ). Weil
eine Funktion jedem x nur ein y zuordnet, gilt: Jede Parallele zur y-Achse schneidet den
Graphen nur einmal. (Es ist zulässig, dass eine Parallele zur y-Achse den Graphen gar
nicht schneidet, wenn die Funktion an der entsprechenden Stelle eine Definitionslücke
hat.)
Neben der Zielmenge gibt es noch die Bildmenge, dies ist die Menge aller Werte, die
tatsächlich angenommen werden. Die Bildmenge ist eine Teilmenge der Zielmenge.

Beispiel 1.3 Die Funktion

f : R → R, f (x) = x2

hat Zielmenge R (weil in der Funktionsdefinition so angegeben). Die Bildmenge ist jedoch
[0, ∞), weil negative Werte nicht angenommen werden. //
Manche Autoren verwenden auch den Begriff „Wertemenge“, dessen Bedeutung jedoch
uneinheitlich ist.

6
1.2 Eigenschaften von Funktionen

y
5

1
x

−2 −1 1 2

Abbildung 1.1: Graph der Funktion f (x) = x2 .

1.2 Eigenschaften von Funktionen


1.2.1 Monotonie
Definition 1.4 Eine Funktion f : D → Z heißt
 
monoton wachsend, 
 
 f (x1 ) ≤ f (x2 )
streng monoton wachsend, falls für x1 , x2 ∈ D
 
f (x1 ) < f (x2 )
monoton fallend, 
 mit x1 < x2 stets 
 f (x1 ) ≥ f (x2 )
 
streng monoton fallend, f (x1 ) > f (x2 )

ist.

Anschaulich bedeutet das: Der Graph „geht nach oben“ (monoton wachsend) beziehungs-
weise „geht nach unten“ (monoton fallend). Falls das Attribut „streng“ nicht dabei steht,
darf der Graph darüber hinaus horizontale Abschnitte enthalten.
Manche Funktionen sind auf ihrer gesamten Definitionsmenge nicht monoton, jedoch
auf bestimmten Teilintervallen.

Beispiel 1.5 Die Normalparabel f : R → R, f (x) = x2 (siehe Abbildung 1.1) ist auf
ganz R nicht monoton, jedoch

• auf (−∞, 0] streng monoton fallend und

• auf [0, ∞) streng monoton wachsend.

//

7
1 Funktionen

y
1
x

−π/2 π/2 π 3π/2 2π 5π/2 3π 7π/2 4π 9π/2


−1

Abbildung 1.2: Graph der Sinus-Funktion.

1.2.2 Periodizität
Zahlreiche Vorgänge in Naturwissenschaft und Technik wiederholen sich in regelmäßigen
Abständen, zum Beispiel

• schwingende Saite;

• Wechselstrom;

• Kolben einer Dampfmaschine;

• Jahreszeiten.

Man spricht dann von Periodizität.

Definition 1.6 Eine Funktion f : D → Z heißt periodisch mit der Periode p (auch
Periodenlänge genannt), wenn für jedes x ∈ D auch x + p ∈ D und x − p ∈ D und

f (x + p) = f (x − p) = f (x)

ist.

Beispiel 1.7 Die Sinusfunktion f : R → R, f (x) = sin x ist periodisch mit Periodenlänge
p = 2π (Abbildung 1.2). //

Formal erfüllt aber zum Beispiel auch p = 4π oder p = −10π die Definition. Allgemein
gilt: Ist f periodisch mit Periodenlänge p, so auch mit Periodenlänge k·p für jede beliebige
ganze Zahl k. Die kleinste positive Periode einer periodischen Funktion nennt man daher
primitive Periode.

1.2.3 Beschränktheit
Definition 1.8 Eine Funktion f : D → Z heißt
 
nach unten beschränkt,   es ein A ∈ R gibt so, dass f (x) ≥ A für alle x ∈ D.
nach oben beschränkt, falls es ein B ∈ R gibt so, dass f (x) ≤ B für alle x ∈ D.
 
beschränkt, sie nach unten und nach oben beschränkt ist.

8
1.3 Umkehrfunktion

Funktionen
Zur Definition einer Funktion gehören: Wichtige Eigenschaften:

• Definitionsmenge, • Monotonie,

• Zielmenge, • Periodizität,

• Berechnungsvorschrift. • Beschränktheit,

• Nullstellen,

• Symmetrieverhalten.

1.2.4 Nullstellen
Definition 1.9 Ein x0 ∈ D heißt Nullstelle einer Funktion f : D → W , falls f (x0 ) = 0
ist.

1.2.5 Symmetrieverhalten
Definition 1.10 Eine Funktion f : D → Z mit symmetrischer Definitionsmenge heißt
 
gerade, f (−x) = f (x)
falls für jedes x ∈ D stets
ungerade, f (−x) = −f (x)

ist.
Der Graph einer geraden Funktion ist spiegelsymmetrisch zur y-Achse. Der Graph einer
ungeraden Funktion ist punktsymmetrisch zum Nullpunkt.

1.3 Umkehrfunktion
Eine Funktion f : D → Z ordnet jedem x ∈ D einen Wert y = f (x) ∈ Z zu. Häufig
stellt sich das umgekehrte Problem: Zu einem vorgegebenen Funktionswert y ∈ Z ist der
zugehörige x-Wert zu bestimmen. Dieses Problem ist allerdings nicht immer lösbar, aus
folgenden zwei Gründen:

1. Es kann passieren, dass es zu gegebenem y ∈ Z mehrere x-Werte gibt.

2. Es kann passieren, dass es zu gegebenem y ∈ Z gar keinen x-Wert gibt.

Wir nennen eine Funktion injektiv, falls das erste Problem nicht auftritt, das heißt also
falls eine Parallele zur x-Achse den Graphen höchstens einmal schneidet. Formal:

Definition 1.11 Eine Funktion f : D → Z heißt injektiv, falls für x1 , x2 ∈ D mit x1 6= x2


stets f (x1 ) 6= f (x2 ) gilt.

9
1 Funktionen

Typische Beispiele für injektive Funktionen sind solche, die auf ihrer gesamten Definiti-
onsmenge streng monoton wachsend oder streng monoton fallend sind.
Analog nennen wir eine Funktion surjektiv, falls das zweite Problem nicht auftritt,
das heißt also falls eine Parallele zur x-Achse den Graphen mindestens einmal schneidet.
Formal:

Definition 1.12 Eine Funktion f : D → Z heißt surjektiv, falls zu jedem y ∈ Z ein


x ∈ D existiert mit f (x) = y.

Definition 1.13 Eine Funktion heißt bijektiv (oder umkehrbar), falls sie injektiv und
surjektiv ist.
Ist eine Funktion f nicht injektiv und/oder nicht surjektiv, so lässt sie sich jedoch injektiv
und surjektiv machen, indem man Definitions- und Zielmenge geeignet einschränkt:
• Jede Funktion lässt sich surjektiv machen, indem man als Zielmenge die Bildmenge
wählt. Hierdurch wird die Zielmenge ggfs. verkleinert.

• Um die Funktion injektiv zu machen, muss man die Definitionsmenge D geeignet


einschränken. Hierfür gibt es jedoch meist mehrere Möglichkeiten1 . Das heißt, die
Einschränkung ist nicht eindeutig. Dementsprechend ist dann auch die Umkehr-
funktion, die man herausbekommt, nicht eindeutig.
Ist f : D → Z bijektiv, so ist das eingangs genannte Problem (theoretisch) lösbar.
Die Zuordnung eines Funktionswertes y ∈ Z zum dazugehörigen x-Wert x ∈ D ist dann
immer möglich und eindeutig, also wiederum eine Funktion. Diese Funktion nennen wir
die Umkehrfunktion von f und bezeichnen sie mit der symbolischen Schreibweise f −1 .
Die Definitionsmenge von f −1 ist gleich der Zielmenge von f und umgekehrt. Praktisch
geschieht die Bestimmung der Umkehrfunktion durch Auflösen der Gleichung y = f (x)
nach x. Häufig ist es sinnvoll, anschließend die Variablennamen x und y zu vertauschen.
Da das Bilden der Umkehrfunktion formal dem Vertauschen der abhängigen und un-
abhängigen Variablen entspricht, ergibt sie sich zeichnerisch durch eine Spiegelung an
der Hauptdiagonalen.

Beispiel 1.14 Wir betrachten die Normalparabel

f : R → R, f (x) = x2 .

Mit Definitionsmenge R und Zielmenge R ist die Funktion weder injektiv noch surjektiv.
Die Bildmenge ist nur [0, ∞) (siehe Beispiel 1.3), wir müssen diese Menge als Zielmenge
angeben, um die Funktion surjektiv zu machen. Um sie injektiv zu machen, können wir
sie beispielsweise auf die verkleinerte Definitionsmenge D = [0, ∞) einschränken (dort
ist sie streng monoton wachsend). Wir schreiben also

f : [0, ∞) → [0, ∞), f (x) = x2 .


1
Genauer: Hierfür gibt es immer mehrere Möglichkeiten, außer in dem Fall, dass die Funktion bereits
injektiv ist.

10
1.3 Umkehrfunktion

Berechnung Umkehrfunktion
1. Gegeben f : D → Z.

2. Sicherstellen, dass die Funktion surjektiv ist: Zielmenge durch Bildmenge er-
setzen.

3. Sicherstellen, dass die Funktion injektiv ist: Definitionsmenge D ggfs. so ver-


kleinern, dass jeder Wert in Z nur noch einmal angenommen wird. (Dieser
Schritt ist eventuell nicht eindeutig.)

4. Aufstellen der Funktionsgleichung y = f (x) und Auflösen nach x.

5. Vertauschen der Variablen x und y sowie der Mengen D und Z.

Formal müssten wir statt f eine andere Bezeichnung wählen, weil dies eine andere Funk-
tion als die ursprünglich gegebene ist: Die Zuordnungsvorschrift ist zwar gleich, aber
Definitions- und Zielmenge wurden geändert. Wir erlauben uns aber diese Ungenauig-
keit.
Die geänderte Funktion f ist jetzt jedenfalls bijektiv. Zur Bestimmung der Umkehr-
funktion müssen wir wie beschrieben auflösen:

y = x2

⇔ y=x (gültig wegen x, y ≥ 0).

Wir vertauschen noch die Variablennamen x und y und erhalten



y= x,

somit die Umkehrfunktion



f −1 : [0, ∞) → [0, ∞), x 7→ x,

siehe Abbildung 1.3 (links).


Die Einschränkung der Definitionsmenge auf [0, ∞) war nicht die einzige Möglichkeit.
Man hätte stattdessen auch (−∞, 0] wählen können. Dann wäre für die Umkehrfunktion
etwas anderes herausgekommen.
Das Beispiel zeigt auch, dass die Umkehrfunktion f −1 etwas ganz anderes ist als der
Kehrwert 1/f , denn jener wäre hier ja durch 1/x2 gegeben2 , siehe Abbildung 1.3 (rechts).
//

2
Manche Autoren schreiben daher zur Unterscheidung bei der Umkehrfunktion das „−1“ nicht als Index
−1
an den Funktionsnamen, sondern direkt darüber, also f .

11
1 Funktionen

y y
5 5

4 4
f
3 3

2 2
f −1
1/f
1 1
x x

1 2 3 4 5 1 2 3 4 5
Abbildung 1.3: Links: Normalparabel, eingeschränkt auf D = [0, ∞), und ihre Umkehr-
funktion (entspricht Spiegelung an der Hauptdiagonalen). Rechts: Kehr-
wert der Normalparabel.

Übung 1.15 Bestimmen Sie die Umkehrfunktion der Funktion

f : R → R, x 7→ 2x + 1.

1.4 Verkettung von Funktionen


Beispiel 1.16 Ein Auto fährt auf einer Gebirgsstraße. Es bezeichne f die Funktion, die
jedem Zeitpunkt die gefahrene Strecke (Ort auf der Straße) zuordnet. Ferner bezeichne
g die Funktion, die jedem Ort auf der Straße die Höhe über NN zuordnet. Will man zu
einem gegebenen Zeitpunkt x die Höhe des Autos über NN wissen, so muss man

1. x in f einsetzen, also den Ort y = f (x) des Autos zum gegebenen Zeitpunkt
bestimmen, und alsdann

2. y in g einsetzen, um so die Höhe z = g(y) an diesem Ort zu bestimmen.

Wir bezeichnen mit h die Funktion, die jedem Zeitpunkt die zugehörige Höhe des Autos
zuordnet, dann gilt offenbar

h(x) = g(f (x)).

Diese Form der Verknüpfung von zwei Funktionen bezeichnen wir als Verkettung von
Funktionen. //

12
1.4 Verkettung von Funktionen

Zu Übung 1.15:

Verkettung von Funktionen

(g ◦ f )(x) = g(f (x)).

Die Funktion, die näher am Argument steht, wird zuerst angewendet.

Definition 1.17 Seien f : Df → Zf und g : Dg → Zg zwei Funktionen. Die Verkettung


(auch Komposition oder Hintereinanderausführung) von f und g, notiert als

g ◦ f.

ist definiert, sofern Zf ⊂ Dg ist, und zwar vermöge

(g ◦ f )(x) = g(f (x)).

Die Reihenfolge ist dabei entscheidend: f ◦ g ist im Allgemeinen etwas anderes als g ◦ f ,
selbst wenn beide definiert sind.

Merke: Die Funktion, die näher am Argument steht, wird zuerst angewendet.

Beispiel 1.18 Seien

f : R → R, x 7→ x2 ,
g : R → R, x 7→ 2x + 3.

13
1 Funktionen

Dann ergibt sich

(g ◦ f )(x) = g(f (x)) = g(x2 ) = 2x2 + 3,

hingegen

(f ◦ g)(x) = f (g(x)) = f (2x + 3) = (2x + 3)2 = 4x2 + 12x + 9.

//

1.5 Polynomfunktionen (ganzrationale Funktionen)


1.5.1 Grundlegendes
Definition 1.19 Eine ganzrationale Funktion oder Polynomfunktion ist eine Funktion
vom Typ

f (x) = a0 + a1 x + a2 x2 + a3 x3 + . . . an xn

mit n ∈ N ∪ {0} und a0 , a1 , a2 , a3 , . . . , an ∈ R. Die aj heißen Koeffizienten des Polynoms.


Der höchste Index, dessen Koeffizient 6= 0 ist, heißt Grad des Polynoms (das ist n, sofern
an 6= 0).

Übung 1.20 Bestimmen Sie den Grad folgender Polynome:

f (x) = 4, f (x) = 5 + x3 − x, f (x) = 4x8 − x5 + 3x, f (x) = 0x3 + 2x2 + 6.

Gegenüber anderen Funktionen haben Polynomfunktionen insbesondere folgende Vortei-


le:
• Die Auswertung benötigt nur Grundrechenarten (ohne Division), ist daher einfach
und schnell.

• Das Differenzieren und Integrieren (Ableiten und Aufleiten) ist problemlos möglich.

• Sie habe keine Definitionslücken.


Komplizierte Funktionen lassen sich meistens in bestimmten Teilbereichen durch Poly-
nome annähern. Mehr dazu später im Rahmen der Taylor-Entwicklung (Kapitel 5).
Polynome vom Grad 0, 1 und 2 werden wir im Folgenden einzeln untersuchen.

1.5.2 Polynome vom Grad 0


Ein Polynom vom Grad 0 hat die Form

f (x) = a0 .

Der Wert ist also unabhängig von x, die Funktion ist konstant. Der Graph ist eine
Parallele zur x-Achse.

14
1.5 Polynomfunktionen (ganzrationale Funktionen)

1.5.3 Polynome vom Grad 1


Ein Polynom vom Grad 1 hat die Form

f (x) = a0 + a1 x oder y = mx + t.

Der Graph ist eine Gerade mit Steigung m und y-Achsenabschnitt t. Steigung m und
Steigungswinkel α sind gemäß m = tan α verknüpft.
Die Form y = mx + t heißt Normalform oder Hauptform der Geraden. Es gibt wei-
tere Formen, die für spezielle Zwecke nützlich sind und sich allesamt in die Normalform
umrechnen lassen:
• Die Punkt-Steigungs-Form ist eine Gleichung für die Gerade, die durch einen gege-
benen Punkt P1 = (x1 , y1 ) geht und die Steigung m hat. Sie lautet
y − y1
= m.
x − x1

• Die Zwei-Punkte-Form ist eine Gleichung für die Gerade, die durch zwei vorgege-
bene Punkte P1 = (x1 , y1 ) und P2 = (x2 , y2 ) geht. Sie lautet
y − y1 y2 − y1
= .
x − x1 x2 − x1

• Die Achsenabschnittsform ist eine Gleichung für eine Gerade mit vorgegebenen
Achsenabschnitten s und t. Sie lautet:
x y
+ = 1.
s t
Dabei können s und t positiv oder negativ sein, je nachdem auf welcher Seite die
Funktion die jeweilige Achse schneiden soll.
Das Polynom f (x) = mx + t hat eine Nullstelle, sie ist gegeben durch x0 = −t/m.

Beispiel 1.21 Gesucht seien Normalform und Nullstelle der Geraden durch die Punkte
P1 = (3, 10) und P2 = (5, 14). Wir schreiben die Gerade in Zwei-Punkte-Form und formen
dann schrittweise um bis zur Normalform:
y − 10 14 − 10
= =2
x−3 5−3
⇔ y − 10 = 2 · (x − 3) = 2x − 6
⇔ y = 2x + 4.

Die Nullstelle liegt bei x = −2. //


Es kann allerdings nicht jede Gerade in jeder Form dargestellt werden; so eignet sich die
Achsenabschnittsform nicht für Geraden durch den Nullpunkt, und die Punkt-Steigungs-
Form nicht für vertikal verlaufende Geraden. Die Zwei-Punkte-Form ist für jede Gerade
anwendbar.

15
1 Funktionen

1.5.4 Polynome vom Grad 2


Ein Polynom vom Grad 2 hat die Form

f (x) = a0 + a1 x + a2 x2 oder y = ax2 + bx + c.

Sofern a 6= 0 ist (andernfalls handelt es sich ja um eine Gerade), hat der Graph stets die
Form einer Parabel. Das Vorzeichen von a bestimmt die Öffnung der Parabel:
• Ist a > 0, so ist die Parabel nach oben geöffnet.

• Ist a < 0, so ist die Parabel nach unten geöffnet.


Die Nullstellen erhält man aus der bekannten „Mitternachtsformel“:

−b ± b2 − 4ac
x1,2 = .
2a
Für die Anzahl der Nullstellen gilt dann:
• b2 − 4ac > 0: zwei Nullstellen;

• b2 − 4ac = 0: eine (doppelte) Nullstelle;

• b2 − 4ac < 0: keine reelle Nullstelle.3

1.5.5 Polynome von höherem Grad


Es stellt sich die Frage, ob die Nullstellen von Polynomen von beliebigem Grad n mit
Lösungsformeln, analog zur Situation bei quadratischen Polynomen, berechnet werden
können. Für n = 3 und n = 4 gibt es solche Formeln, aber sie sind sehr kompliziert
und werden kaum benutzt. Ab n = 5 kann man beweisen, dass es keine allgemeinen
Lösungsformeln geben kann. Jedoch gibt es für bestimmte Spezialfälle Methoden, die
Nullstellen zu finden.

Beispiel 1.22 (Biquadratische Gleichung) Gesucht seien die Nullstellen der Funktion

f (x) = x4 − 5x2 + 4.

Das Polynom ist vom Grad 4 und hat nur gerade x-Potenzen, ein solches Polynom nennt
man biquadratisches Polynom. Ein Trick besteht darin, x2 durch eine neue Variable y zu
ersetzen, somit ergibt sich die Nullstellengleichung

y 2 − 5y + 4 = 0

und mit der Mitternachtsformel die Lösungen



5 ± 52 − 4 · 1 · 4 5±3
y1,2 = = ,
2 2
3
Es liegen dann jedoch zwei komplexe Nullstellen vor, siehe Kapitel 2.

16
1.5 Polynomfunktionen (ganzrationale Funktionen)


also y1 = 4 und y2 = 1. Wegen y = x2 folgt dann x = ± y, somit besitzt die Ausgangs-
funktion die vier Nullstellen

x1 = 1, x2 = −1, x3 = 2, x4 = −2.

(Die Reihenfolge der Nullstellen ist willkürlich.) //

Nach demselben Prinzip kann jede biquadratische Gleichung behandelt werden. Die An-
zahl der Nullstellen ist höchstens vier.

Beispiel 1.23 Die Funktion

f (x) = x4 + 1

hat gar keine (reelle) Nullstelle, weil x4 als Quadrat der reellen Zahl x2 niemals negativ
werden kann. //

Ist eine Nullstelle des Polynoms bekannt, so kann man die Frage nach den restlichen
Nullstellen vereinfachen, indem man einen sogenannten Linearfaktor abspaltet. Dieses
Vorgehen beruht auf der Tatsache, dass wenn x1 eine Nullstelle des Polynoms f vom
Grad n ist, eine Darstellung der Form

f (x) = (x − x1 ) · f1 (x)

existieren muss, wobei f1 ein Polynom vom Grad n − 1 ist. Der Faktor (x − x1 ) heißt
Linearfaktor. Da ein Produkt genau dann null wird, wenn einer der Faktoren null wird,
kann somit mit dieser Darstellung die Nullstellensuche vereinfacht werden: Der Linear-
faktor (x − x1 ) hat nur eine Nullstelle, nämlich x1 , daher müssen alle weiteren Nullstellen
von f die Nullstellen von f1 sein. Da f1 einen um eins geringeren Grad hat, ist die Suche
somit einfacher.
Zum Abspalten des Linearfaktors gibt es zwei verschiedene Rechenmethoden: Poly-
nomdivision und Horner-Schema. Wir stellen hier nur das Horner-Schema vor4 , und zwar
direkt an einem Beispiel.

Beispiel 1.24 (Horner-Schema) Gesucht seien die Nullstellen des Polynoms

f (x) = 2x4 − 8x2 − 2x + 4.

Durch Ausprobieren sei die Nullstelle x1 = −1 gefunden worden. (In manchen Fällen
kann man auch durch Zusatzwissen über das zu Grunde liegende Problem eine Nullstelle
bestimmen.) Mit dem Horner-Schema berechnet man:

2 0 −8 −2 4
−1 −2 2 6 −4
2 −2 −6 4 0
4
Polynomdivision wird in Abschnitt 1.6.3 behandelt.

17
1 Funktionen

Erläuterung:

• In der obersten Zeile stehen die Koeffizienten des Polynoms.

• Ganz links steht die Stelle x1 , die eingesetzt werden soll.

• Im Verfahren wird zunächst die erste Zahl von oben direkt nach unten übertragen,
anschließend immer abwechselnd
– die Zahl von unten mit der Zahl vorne multipliziert, das Ergebnis in die mitt-
lere Zeile, eine Stelle weiter rechts, eingetragen;
– die beiden übereinander stehenden Zahlen addiert, das Ergebnis darunter ein-
getragen.

• Die unterstrichene Zahl in der letzten Reihe ist der gesuchte Funktionswert.

Das Horner-Schema kann also zum Auswerten des Polynoms genutzt werden, somit zum
Ausprobieren von Nullstellenkandidaten. (In diesem Beispiel ergibt sich f (−1) = 0, also
ist −1 tatsächlich eine Nullstelle.)
Darüber hinaus sind die übrigen Ziffern der letzten Zeile die Koeffizienten des redu-
zierten Polynoms f1 , das somit lautet

f1 (x) = 2x3 − 2x2 − 6x + 4.

Wir müssen eine weitere Nullstelle durch Probieren finden. Nehmen wir mal x2 = 2. Wir
können dann das Horner-Schema direkt fortsetzen:
2 0 −8 −2 4
−1 −2 2 6 −4
2 −2 −6 4 0
2 4 4 −4
2 2 −2 0
Das weiter reduzierte Polynom lautet somit

f2 (x) = 2x2 + 2x − 2.

Die verbleibenden Nullstellen können wir mit der Mitternachtsformel bestimmen:


√ √ √
−2 ± 4 + 16 −2 ± 2 5 −1 ± 5
x3,4 = = = .
4 4 2
Das Polynom f hat also vier Nullstellen. //
Allgemein gilt: Ein Polynom vom Grad n hat höchstens n Nullstellen. Hat es n Null-
stellen und sind diese mit x1 , x2 , . . . , xn bezeichnet, so gilt die Produktdarstellung

a0 + a1 x + a2 x2 + · · · + an xn = an · (x − x1 )(x − x2 ) · · · (x − xn ).

Man spricht auch davon, das Polynom sei in Linearfaktoren zerlegt.

18
1.6 Gebrochenrationale Funktionen

Nullstellen von Polynomen


• Grad 1: Elementar.

• Grad 2: Mitternachtsformel.

• Grad 4, nur gerade Exponenten: Substitution x2 = y, dann Mitternachtsformel.

• Sonst: Eine Nullstelle raten, dann Abspalten mit Horner-Schema (oder Poly-
nomdivision).

• Linearfaktorzerlegung:

f (x) = an · (x − x1 )(x − x2 ) · · · (x − xn ),

wobei x1 , . . . , xn die Nullstellen sind und an der höchste Koeffizient.

Beispiel 1.25 Das Polynom aus Beispiel 1.24 hat die Produktdarstellung
 √   √ 
1+ 5 1− 5
f (x) = 2 · (x + 1) · (x − 2) · x + · x+ .
2 2
Achtung: Der konstante Faktor an (hier 2) wird häufig vergessen. //

Beispiel 1.26 Das Polynom


f (x) = x3 − x2 + x − 1
lässt sich nicht in Linearfaktoren zerlegen. Man findet nämlich durch Probieren eine
Nullstelle x1 = 1 und durch Abspalten des entsprechenden Linearfaktors (zum Beispiel
mit dem Horner-Schema) die Darstellung
f (x) = (x − 1)(x2 + 1).
Der zweite Faktor hat (in R) keine Nullstellen, daher ist eine weitere Zerlegung nicht
möglich. //

Übung 1.27 Zerlegen Sie das Polynom f (x) = 3x3 − 6x2 − 15x + 18 in Linearfaktoren.

1.6 Gebrochenrationale Funktionen


1.6.1 Grundlegendes
Definition 1.28 Eine gebrochenrationale Funktion ist eine Funktion, die als Quotient
zweier Polynome dargestellt ist:
g(x)
f (x) = ,
h(x)

19
1 Funktionen

Zu Übung 1.27:

wobei g und h Polynome sind.


Entsprechend der Situation bei Brüchen spricht man von einer echt gebrochenrationalen
Funktion, wenn der Grad des Zählerpolynoms kleiner ist als der Grad des Nennerpoly-
noms, andernfalls von einer unecht gebrochenrationalen Funktion.

Übung 1.29 Welche der folgenden Funktionen sind echt beziehungsweise unecht gebro-
chenrational?
4x 1 x2 − 1
f (x) = 4
, f (x) = , f (x) = ,
x −1 x2 x2 + 1
x2 − 3x + 2 4x4 − 2x + 5 x−1
f (x) = 3 , f (x) = 2 , f (x) = .
x − 4x + 1 x − 3x − 10 (x + 2)(x + 5)

1.6.2 Nullstellen und Definitionslücken


An den Nullstellen des Nennerpolynoms ist die gebrochenrationale Funktion nicht defi-
niert, es liegen dort Definitionslücken vor. Hat man eine Stelle, an der das Nennerpolynom
6= 0 ist, jedoch das Zählerpolynom = 0 ist, so ist dies eine Nullstelle der gebrochenratio-
nalen Funktion. Somit gilt:

Satz 1.30 Ist f (x) = g(x)/h(x), wobei g vom Grad n und h vom Grad m ist, so hat f
höchstens n Nullstellen und höchstens m Definitionslücken.

20
1.6 Gebrochenrationale Funktionen

Ist x0 Definitionslücke von f (also Nullstelle von h) und ist g(x0 ) 6= 0, so wird für
x-Werte in der Nähe von x0 der Wert |h(x)| beliebig klein, während der Wert |g(x)|
von null weg beschränkt bleibt. Daher wird der Quotient |g(x)/h(x)| = |f (x)| beliebig
groß. Die Funktionswerte in der Nähe der Definitionslücke gehen also gegen ∞ oder −∞
(wie von der Funktion f (x) = 1/x bekannt). Eine solche Definitionslücke wird Pol oder
Unendlichkeitsstelle genannt.
Eine Besonderheit tritt auf, wenn x0 gleichzeitig Nullstelle von g und h ist. In diesem
Fall kann man von beiden Polynomen den Linearfaktor (x − x0 ) abspalten und dann
herauskürzen. Danach kann eine der folgenden Situationen auftreten:
• Das neue Nennerpolynom hat bei x0 keine Nullstelle mehr; dann handelte es sich
um eine hebbare Lücke. Durch das Herauskürzen wurde sie gehoben.

• Das neue Nennerpolynom hat bei x0 immer noch eine Nullstelle; in diesem Fall muss
man abermals untersuchen, ob auch das neue Zählerpolynom bei x0 eine Nullstelle
hat. Gegebenenfalls wird das Abspalten und Herauskürzen von Linearfaktoren so
lange wiederholt, bis Zähler oder Nenner keine Nullstelle mehr bei x0 haben.
Es ist daher eine Konvention, dass man beim Bestimmen von Null- und Polstellen einer
gebrochenrationalen Funktion f zunächst alle Nullstellen von Zähler- und Nennerpoly-
nom bestimmt und dann alle etwaigen gleichen Nullstellen herauskürzt. Danach sind
die verbleibenden Nullstellen des Zählers die Nullstellen von f und die Nullstellen des
Nenners die Polstellen von f .

Beispiel 1.31 Es sollen die Nullstellen und Polstellen der Funktion


2x3 + 2x2 − 32x + 40
f (x) =
x3 + 2x2 − 13x + 10
bestimmt werden. Zerlegung in Linearfaktoren (jeweils einmal Raten, danach Mitter-
nachtsformel) ergibt:

2(x − 2)2 (x + 5)
f (x) = .
(x − 1)(x − 2)(x + 5)
Der Linearfaktor (x + 5) kann restlos herausgekürzt werden, somit liegt bei −5 eine
hebbare Lücke vor. Der Faktor (x − 2) kann einmal gekürzt werden und verbleibt dann
nur im Zähler, somit liegt bei 2 ebenfalls eine hebbare Lücke, die nach dem Heben sogar
eine Nullstelle ist. Der Faktor (x − 1) kann nicht gekürzt werden, somit liegt bei 1 ein
Pol vor. Nach dem Heben der Lücken lautet die Funktion
2(x − 2)
f (x) = .
x−1
Die maximale Definitionsmenge5 ist R \ {1}. Die einzige Nullstelle ist x0 = 2. //
5
Formal korrekt müsste man zwischen der gegebenen Funktion f und der Funktion mit behobenen
Lücken, f˜, unterscheiden. Die maximale Definitionsmenge von f ist R \ {−5, 1, 2}, während die maxi-
male Definitionsmenge von f˜ gleich R \ {1} ist. Auf R \ {−5, 1, 2} stimmen beide Funktionen überein.

21
1 Funktionen

1.6.3 Asymptotisches Verhalten im Unendlichen


In diesem Abschnitt wollen wir untersuchen, wie sich eine gebrochenrationale Funktion
f (x) = g(x)/h(x) für (betragsmäßig) große x-Werte verhält.
Bei einer echt gebrochenrationalen Funktion wachsen die Funktionswerte von h (auf
Grund des höheren Polynomgrades) schneller an als die von g, daher gehen die Werte
von f gegen null. Bei einer unecht gebrochenrationalen Funktion ist das nicht der Fall.
Es zeigt sich, dass die Werte sich in diesem Fall einem Polynom annähern. Hierzu führt
man zunächst eine sogenannte Polynomdivision durch. Wir demonstrieren das an einem
Beispiel:

Beispiel 1.32 (Polynomdivision) Gegeben sei die Funktion

x4 − 3x3 + 4x2 − 5x + 5
f (x) = .
x2 − 3x + 2
Man schreibt die Koeffizienten der Polynome nebeneinander und verfährt wie bei einer
schriftlichen Division mit Rest (von Zahlen), nur dass es keine Überträge zwischen den
Spalten gibt – im Prinzip also sogar einfacher:

1 −3 4 −5 5 : 1 −3 2 = 1 0 2 Rest 1 1
1 −3 2
0 2 −5
0 0 0
2 −5 5
2 −6 4
1 1

Es ist also
x+1 x+1
f (x) = x2 + 2 + = x2 + 2 + .
x2 − 3x + 2 (x − 1)(x − 2)

Wir haben somit – analog wie bei Brüchen von Zahlen – den unechten Bruch als Summe
aus einer ganzrationalen und einer echt gebrochenrationalen Funktion dargestellt. Im
Unendlichen geht die echt gebrochenrationale Funktion gegen null, die Gesamtfunktion
somit gegen das Polynom x2 + 2. Bei x = −1 schneidet die Kurve das Polynom, bei x = 1
und x = 2 liegen Pole vor. In maxima kann der Graph wie folgt gezeichnet werden:

plot2d([(x^4-3*x^3+4*x^2-5*x+5)/(x^2-3*x+2),x^2+2],[x,-10,10],[y,-20,20]);

maxima kann auch selbst die Polynomdivision durchführen:

divide(x^4-3*x^3+4*x^2-5*x+5,x^2-3*x+2,x);

//

22
1.6 Gebrochenrationale Funktionen

Allgemein hat man

g(x) r(x)
f (x) = = p(x) + ,
h(x) h(x)

wobei der Grad von r kleiner als der Grad von h ist. Die Kurve von f nähert sich
im Unendlichen der Kurve von p an. Man sagt, p ist die Asymptote von f . Nach dem
eventuellen Herauskürzen gemeinsamer Nullstellen von r und h (wie zuvor) liegen an den
Nullstellen von r Schnittpunkte mit p vor, die Nullstellen von h sind Pole.

Übung 1.33 Bestimmen Sie die Asymptote der Funktion

4x4 − 13x3 − 10x2 + 70x − 63


f (x) = .
x3 − 2x2 − 5x + 6

Zu Übung 1.33:

Anmerkung: Das Suchen und Herauskürzen gemeinsamer Nullstellen kann man vor oder
nach der Polynomdivision durchführen – das Ergebnis ist dasselbe. Nach der Division sind
die Nullstellen des Zählers leichter zu finden, weil er geringeren Grad hat. Findet man
aber dennoch vor der Division schon welche, sollte man sie ruhig frühzeitig herauskürzen,
weil dadurch ja die Division vereinfacht wird.

23
1 Funktionen

Gebrochenrationale Funktionen
• Nullstelle des Zählers: Nullstelle.

• Nullstelle des Nenners: Pol.

• Gemeinsame Nullstelle des Zählers und Nenners: Linearfaktor abspalten und


kürzen (evtl. hebbare Lücke). Danach weiter untersuchen.

• Berechnung der Asymptote durch Polynomdivision.

1.7 Potenz- und Wurzelfunktionen


1.7.1 Potenzfunktionen
Potenzfunktionen f (x) = xn mit einer Zahl n ∈ N0 sind Spezialfälle von Polynomfunk-
tionen. Falls n ungerade ist, ist f eine ungerade Funktion und auf ganz R streng monoton
wachsend. Ist n gerade, so ist f eine gerade Funktion und auf (−∞, 0] streng monoton
fallend und auf [0, ∞) streng monoton wachsend. Für n = 0 setzen wir f (x) = 1, das ist
ebenfalls gerade.
Für negative Exponenten hat man mit f (x) = x−n = 1/xn eine gebrochenrationale
Funktion. Sie hat einen Pol bei x = 0. Für ungerades n ist sie wiederum ungerade und
sowohl auf (−∞, 0) als auch auf (0, ∞) streng monoton fallend (jedoch nicht auf der
gesamten Definitionsmenge R \ {0}), und der Pol beinhaltet einen Vorzeichenwechsel.
Für gerades n findet kein Vorzeichenwechsel statt, die Funktion ist dann auf (−∞, 0)
streng monoton wachsend und auf (0, ∞) streng monoton fallend.

1.7.2 Wurzelfunktionen

Die Wurzelfunktion f (x) = n x ist die Umkehrfunktion der Potenzfunktion xn . Für
gerade n ist jedoch die Potenzfunktion auf ganz R nicht umkehrbar. Wir schränken daher
Definitions- und Zielmenge jeweils auf [0, ∞) ein. Die n-te Wurzel ist also für negative
Argumente nicht erklärt, und für positive Argumente ist sie stets positiv.
Für ungerade n könnte man die n-te Wurzel auch für negative Argumente erklären.
Tut man dies, so gelten jedoch einige übliche Potenzregeln nicht mehr wie gewohnt (siehe
Beispiel im folgenden Abschnitt). Es ist daher ratsam, ungerade Wurzeln aus negativen
Zahlen einfach als undefiniert anzusehen.
Für negative Exponenten gilt bezüglich der Umkehrfunktion im Prinzip dasselbe, nur
dass noch der Nullpunkt aus Definitions- und Zielmenge entfernt werden muss. Für n = 0
ist die Potenzfunktion konstant, eine Umkehrfunktion („0-te Wurzel“) existiert nicht.

1.7.3 Potenzfunktionen mit rationalen Exponenten



Statt n x schreibt man auch x1/n . Warum tut man das? Antwort: Weil es eine Verallge-
meinerung des Potenzierens darstellt, in der alle bekannten Rechenregeln gültig bleiben.

24
1.8 Exponential- und Logarithmus-Funktionen

Insbesondere kennt man die Regel


(xm )n = xm·n .
Setzt man hier m = 1/n ein, so steht da
(x1/n )n = xn/n = x1 = x,
und durch Ziehen der n-ten Wurzel erhält man

x1/n = n x.
Dies wirft allerdings die Frage auf nach Potenzen mit beliebigen Exponenten. Für ratio-
nale Exponenten n/m setzt man
√ n √
xn/m = m x = xn ,
m

weil hierbei wiederum alle Rechenregeln erhalten bleiben. Das gilt allerdings nur für
x ≥ 0. Für negative x ist Vorsicht geboten, wie das folgende Beispiel zeigt:

Beispiel 1.34 Wir wollen jetzt demonstrieren, wieso ungerade Wurzeln


√ aus negativen
Zahlen zu Problemen führen. Wir beginnen mit dem Ausdruck 3 −8 und formen in
beide Richtungen um:
√ p √
−2 = 3 −8 = (−8)1/3 = (−8)2/6 = ((−8)2 )1/6 = 6 (−8)2 = 64 = 2.
6

//

Merke: Ungerade Wurzeln aus negativen Zahlen kann man zulassen. In dem
Fall sind jedoch die gewohnten Potenzregeln nicht mehr uneingeschränkt gül-
tig.

Potenzfunktionen mit irrationalen Exponenten werden formal mit Hilfe der e-Funktion
definiert, siehe Ende Abschnitt 1.8.

1.8 Exponential- und Logarithmus-Funktionen


Wir betrachten jetzt Funktionen vom Typ
f : R → R, f (x) = ax ,
wobei a > 0 konstant ist. Der Unterschied zu Potenzfunktionen besteht darin, dass jetzt
die Basis fest ist und der Exponent variabel, anstatt umgekehrt.
Derartige Funktionen heißen Exponentialfunktionen. Außer für a = 1 sind sie injek-
tiv und haben Bildmenge (0, ∞). Durch Verkleinern der Zielmenge auf (0, ∞) wird ei-
ne solche Funktion also umkehrbar; die Umkehrfunktion heißt Logarithmus zur Basis a
(Schreibweise loga ) und hat Definitionsmenge (0, ∞). Es gilt also
loga (ax ) = x für alle x ∈ R, (1.1a)
aloga x = x für alle x > 0. (1.1b)

25
1 Funktionen

Potenzfunktionen
Exponent Definitionsmenge Bemerkung
> 0 und ganzzahlig R definiert durch mehrfache Multiplikation
=0 R konstant x0 = 1 (auch 00 = 1)
1
< 0 und ganzzahlig R \ {0} x−n =
xn
√ √ n
> 0 und rational [0, ∞) xn/m = m xn = m x
1 1
< 0 und rational (0, ∞) x−n/m = m √ = m
n
√ n
x x
irrational (0, ∞) α
x =e α ln x

Ferner gelten die (aus der Schule bekannten) Potenzregeln:

ax
ax+y = ax · ay , ax−y = , a0 = 1,
ay
 a x ax
a1 = a, ax·y = (ax )y , (a · b)x = ax · bx , = .
b bx
Analoge Rechenregeln für den Logarithmus erhält man, indem man in die ersten fünf
Gleichungen x = loga u und y = loga v einsetzt und dann beide Seiten logarithmiert. Sie
lauten:
u
loga u + loga v = loga (u · v), loga u − loga v = loga , 0 = loga 1,
v
1 = loga a, y loga u = loga (uy ).

Eine weitere Rechenregel ergibt sich wie folgt:

loga x · logb a logb (aloga x ) logb x


loga x = = = . (1.2)
logb a logb a logb a

Indem man in diese Regel x = b einsetzt, erhält man schließlich noch

1
loga b = .
logb a

Übung 1.35 Lösen Sie jeweils nach x auf:

2x = 7, x2 = 7, log2 x = 7, logx 2 = 7.

26
1.8 Exponential- und Logarithmus-Funktionen

Zu Übung 1.35:

Besonders wichtig ist die Exponentialfunktion

exp : R → R, x 7→ exp(x) = ex

zur Basis der Eulerschen Zahl

e = 2.71828 . . . .

Sie hat einige besondere Eigenschaften, auf die wir in späteren Kapiteln zurückkommen.6
Ihre Umkehrfunktion heißt natürlicher Logarithmus und wird mit ln bezeichnet. Analog
zu (1.1) gilt

ln(ex ) = x für alle x ∈ R,


ln x
e =x für alle x > 0.

Durch Ausnutzen von Rechenregeln lässt sich eine Exponentialfunktion zu beliebiger


Basis stets in eine verallgemeinerte e-Funktion umrechnen:
x)
ax = eln(a = ex ln(a) (1.3)

Formal sind Potenzen mit irrationalen Exponenten (also Exponentialfunktionen an irra-


tionalen Argumenten) noch immer nicht definiert (siehe Ende Abschnitt 1.7.3). In der
Tat ist Gleichung (1.3) der Schlüssel zur Lösung dieses Problems. Die e-Funktion lässt
6
Die wichtigste besondere Bedeutung der e-Funktion wird im Rahmen der Differenzialrechnung (Ab-
schnitt 4.2) klar. Eine formale Definition der e-Funktion und, im Zusammenhang damit, eine Mög-
lichkeit der Berechnung des Zahlenwerts von e ergibt sich im Rahmen der Taylor-Entwicklung, siehe
Abschnitt 5.4.

27
1 Funktionen

Logarithmus
• loga x ist die Umkehrfunktion zu ax , somit ist:

loga (ax ) = x, aloga x = x.

• Nach Definition ist

ln x = loge x.

• Wichtige Rechenregeln:

loga (uy ) = y loga u, loga 1 = 0, loga (u · v) = loga u + loga v,


logb x u
loga x = , loga a = 1, loga = loga u − loga v,
logb a v
1
loga b = .
logb a

sich beispielsweise formal über eine Potenzreihe definieren (siehe Abschnitt 5.4.3), und
über Gleichung (1.3) werden dann allgemeine Potenzen definiert.
Auch beliebige Logarithmen lassen sich auf den natürlichen Logarithmus umrechnen;
durch Einsetzen von b = e in (1.2) ergibt sich nämlich

ln x
loga x = .
ln a

1.9 Trigonometrische Funktionen


1.9.1 Grundlegendes
Sinus und Kosinus sind zunächst für Winkel zwischen 0 ° und 90 ° definiert, und zwar als
Seitenverhältnisse im rechtwinkligen Dreieck (die auf Grund des Strahlensatzes nur vom
Winkel abhängen):

Gegenkathete Ankathete
sin α = , cos α = ,
Hypotenuse Hypotenuse

siehe auch Abbildung 1.4. Dabei basiert die Winkelmessung in Altgrad auf der willkür-
lichen Unterteilung des rechten Winkels in 90 Teile (entsprechend des Vollwinkels in
360 Teile).7 Eine andere Winkelmessung ist das sogenannte Bogenmaß : Hier wird die
7
Der Grund für diese Wahl liegt allerdings darin, dass die Zahl 360 besonders viele Teiler hat, so dass
viele wichtige Winkel durch ganzzahlige Werte dargestellt werden.

28
1.9 Trigonometrische Funktionen

Ge
te

gen
kathe
An

kat
het
e
α
Hypothenuse

Abbildung 1.4: Rechtwinkliges Dreieck.

Größe eines Winkels durch die Länge des Kreisbogens des entsprechenden Kreissektors
mit Radius 1 ausgedrückt. Zwischen diesen Winkelmaßen gilt die Umrechnungsregel
Bogenmaß π
= .
Altgrad 180 °
In der Mathematik ist das Bogenmaß die gebräuchlichere Einheit. Welche Einheit gemeint
ist, erkennt man üblicherweise am Vorhandensein oder Nichtvorhandensein des Gradzei-
chens.8 Im Bogenmaß gemessen sind Sinus- und Kosinusfunktion somit einstweilen für
Argumente zwischen 0 und π/2 erklärt.
Diese Funktionen können wie folgt am Kreis dargestellt werden: In einem Koordinaten-
system zeichnen wir einen Strahl vom Nullpunkt aus im ersten Quadranten, der mit der
positiven x-Achse den gegebenen Winkel α einschließt. Die Ordinate und Abszisse dieses
Strahls mit dem Einheitskreis sind dann gleich sin α und cos α (siehe Abbildung 1.5). Die-
se Darstellung lässt sich nun auf beliebige Winkel verallgemeinern (siehe Abbildung 1.6):
Der Winkel α wird von der positiven x-Achse aus im Gegenuhrzeigersinn abgetragen.
Der Strahl kann dann in jedem Quadranten liegen. Bei einem vollen Umlauf auf dem
Einheitskreis durchläuft der Winkel alle Werte von 0 bis 2π. Danach wiederholen sich die
Funktionswerte. Sinus- und Kosinusfunktion sind also periodisch mit primitiver Periode
2π.
Negative Winkel trägt man dementsprechend in die Gegenrichtung ab. Offenbar ändert
sich dabei das Vorzeichen der Ordinate des Punktes P , nicht aber das der Abszisse. Somit
gilt:

sin(−α) = − sin α, cos(−α) = cos α.

Mit anderen Worten: Sinus ist eine ungerade Funktion, Kosinus eine gerade.
Ferner sind folgende Eigenschaften ebenfalls direkt aus dieser Konstruktion abzulesen:
• Die Nullstellen des Sinus liegen bei kπ, k ∈ Z; die Nullstellen des Kosinus liegen
bei (k + 1/2)π, k ∈ Z;

• Sinus und Kosinus sind gegeneinander phasenverschoben: cos α = sin(α + π/2);

• sin(α + π) = − sin α und analog cos(α + π) = − cos α;


8
Außerdem gibt es noch sogenannte Neugrad, bei denen der rechte Winkel in 100 Teile unterteilt wird.
Neugrad haben sich jedoch nicht durchgesetzt.

29
1 Funktionen

y y
1 1

cos α
sin α

sin α
α
cos α x α x

1 π/4 π/2

y y
1 1

cos α
sin α

sin α
α

cos α x α x

1 π/4 π/2

y y
1 1
sin α

sin α
α

cos α

cos α x α x

1 π/4 π/2

Abbildung 1.5: Zeichnerische Bestimmung von Sinus und Kosinus am Kreis. Man beach-
te, dass der Winkel α im Bogenmaß durch die Länge des Kreisbogens
(hellgrau markiert) gegeben ist.

30
1.9 Trigonometrische Funktionen

y y
1 α 1

sin α
sin α

cos α x α x

1 π/4 π/2

cos α
Abbildung 1.6: Erweiterung von sin und cos auf Winkel größer als π/2.

• sin2 α + cos2 α = 1 (Pythagoras).

Die Tangens- und Kotangensfunktion definieren wir durch

sin x cos x 1
tan x = , cot x = = .
cos x sin x tan x

Die Tangensfunktion hat Pole an den Stellen, wo cos Nullstellen hat, und Nullstellen, dort
wo sin Nullstellen hat. Beim Kotangens ist es gerade andersherum. Beide Funktionen sind
ungerade.
Beide Funktionen sind auch periodisch mit Periode 2π; dies ist jedoch nicht die primi-
tive Periode, denn es gilt

sin(x + π) − sin x sin x


tan(x + π) = = = = tan x
cos(x + π) − cos x cos x

und analog für Kotangens; die primitive Periode ist also π.


Für das Rechnen mit trigonometrischen Funktionen gibt es allerhand allgemeingültige
Rechenregeln, als Beispiel vermerken wir ohne Herleitung die Additionstheoreme

sin(x + y) = sin x cos y + cos x sin y, cos(x + y) = cos x cos y − sin x sin y.

Weitere Rechenregeln sind der Literatur zu entnehmen.


Für einige Winkel kann man die Werte der trigonometrischen Funktionen exakt be-
rechnen; diese sind in Tabelle 1.1 angegeben.

Übung 1.36 Bestimmen Sie mit Hilfe dieser Tabelle und mit Symmetrieüberlegungen
die Werte der vier Winkelfunktionen sin, cos, tan, cot für die Winkel 2π/3 und 5π/4.

31
1 Funktionen

Trigonometrische Funktionen
y sin x
1

−π − 12 π 1
2π π 3
2π 2π
−1
cos x

y
3

2 tan x

−π − 12 π 1
2π π 3
2π 2π
−1

−2 cot x

−3

Wichtigste Regeln:
Gegenkathete Ankathete
sin ϕ = , cos ϕ = ,
Hypothenuse Hypothenuse
sin ϕ cos ϕ 1
tan ϕ = , cot ϕ = = , sin2 ϕ + cos2 ϕ = 1.
cos ϕ sin ϕ tan ϕ
Mehr Regeln siehe Formelsammlung.

32
1.9 Trigonometrische Funktionen

Tabelle 1.1: Werte der trigonometrischen Funktionen für einige wichtige Winkel.

π π π π
0 6 4 3 2

1

sin 0 √1 1
3 1
2 2 2
1

cos 1 √1 1
2 3 2 2 0

tan 0 √1 1 3 ×
√3
cot × 3 1 √1 0
3

Zu Übung 1.36:

33
1 Funktionen

Umkehrung trigonometrischer Funktionen


Funktion eingeschränkte Definitionsmenge
sin [−π/2, π/2]
cos [0, π]
tan (−π/2, π/2)
cot (0, π)

Tabelle 1.2: Werte der arctan-Funktion für einige wichtige Argumente.


√ √
x − 3 −1 − √13 0 √1
3
1 3

arctan x − π3 − π4 − π6 0 π
6
π
4
π
3

1.9.2 Umkehrung der trigonometrischen Funktionen


Keine der trigonometrischen Funktionen ist umkehrbar: Auf Grund der Periodizität
schneidet jede Parallele zur x-Achse den Funktionsgraphen unendlich oft (oder gar nicht).
Wie bereits im Abschnitt über Umkehrfunktionen (Abschnitt 1.3) besprochen, besteht
ein Ausweg in der Einschränkung auf einen geeigneten (möglichst großen) Teil der De-
finitionsmenge. Wie erinnerlich ist die Wahl einer solchen Menge nicht eindeutig. Die
Folgenden Mengen sind jedoch allgemein üblich:
h π πi  π π
sin − , cos [0, π] tan − , cot (0, π)
2 2 2 2

Die Umkehrfunktionen werden als Arkusfunktionen bezeichnet und bilden somit zwischen
folgenden Mengen ab:
h π πi
arcsin : [−1, 1] → − , , arccos : [−1, 1] → [0, π],
 2π 2π 
arctan : R → − , , arccot : R → (0, π).
2 2
Für bestimmte Argumente lassen sich die Werte der Arkusfunktionen durch Rück-
wärtslesen der Tabelle 1.1 (Seite 33) zuzüglich entsprechender Symmetrieüberlegungen
ermitteln. Für die besonders häufig verwendete Funktion arctan vermerken wir wichtige
Werte in Tabelle 1.2.

1.9.3 Bestimmung des Winkels bei bekanntem Sinus und Kosinus


In vielen Anwendungen tritt das Problem auf, dass nur der Sinus und der Kosinus eines
gesuchten Winkels bekannt sind.

34
1.9 Trigonometrische Funktionen

Beispiel 1.37 Gesucht wird ϕ so, dass

1 1√
cos ϕ = x = − , sin ϕ = y = − 3.
2 2

Falscher Ansatz 1: ϕ = arcsin(y) = arcsin(−1/2 · 3) = −π/3 = −1.04720. Die Probe
liefert das falsche Vorzeichen für cos ϕ.

Falscher Ansatz 2: ϕ = arccos(x) = arccos(−1/2) = 2π/3 = 2.09440. Die Probe liefert


diesmal das falsche Vorzeichen für sin x.

Falscher Ansatz 3: tan ϕ = sin ϕ/cos ϕ = y/x, also ϕ = arctan(y/x) = arctan( 3) = π/3 =
1.04720. Die Probe liefert jetzt falsche Vorzeichen für sin ϕ und für cos ϕ.

//

Der Grund für dieses Problem liegt darin begründet, dass alle Arkusfunktionen als Bild-
mengen jeweils nur ein Intervall der Länge π haben; erforderlich wäre ein Intervall der
Länge 2π.
Eine übliche Lösung besteht darin, auf Grund der Vorzeichen der gegebenen Werte x
und y zunächst zu klären, in welchem Intervall der Winkel liegen muss, und dann nach
Anwendung der Arkusfunktion das Ergebnis entsprechend (unter Berücksichtigung der
Symmetrieeigenschaften der trigonometrischen Funktion) ggfs. transformiert.
Am einfachsten geht dies bei Verwendung der arctan-Funktion9,10 : Ihre Bildmenge ist
das Intervall (−π/2, π/2). Somit können Winkel im ersten und vierten Quadranten richtig
detektiert werden. Die entsprechenden Punkte im Koordinatensystem erkennt man dar-
an, dass ihre x-Koordinate positiv ist. Für Winkel im zweiten oder dritten Quadranten
hingegen ergibt die arctan-Funktion ein falsches Ergebnis; da der Tangens jedoch die pri-
mitive Periode π hat, besteht die erforderliche Transformation lediglich in einer Addition
von π zum berechneten Winkel. Es ergibt sich somit folgende Regel:

Satz 1.38 Sind

cos ϕ = x, sin ϕ = y

gegeben und ϕ gesucht, so gilt





arctan( xy ), x > 0,

arctan( y ) + π,
x x < 0,
ϕ= 1


 2 π, x = 0, y > 0,

− 1 π,
2 x = 0, y < 0.
9
Mit den anderen Arkusfunktionen sind ähnliche Überlegungen möglich, jedoch komplizierter.
10
Ein weiterer Vorteil der Berechnung über die arctan-Funktion besteht darin, dass diese sich in Be-
zug auf Rundungs- oder Messfehler vorteilhafter verhält. Diese Problematik wird jedoch hier nicht
behandelt.

35
1 Funktionen

Berechnung des Winkels ϕ zu gegebenen sin ϕ und cos ϕ


Zu

cos ϕ = x, sin ϕ = y

gilt:



arctan( xy ), x > 0,

arctan( y ) + π,
x x < 0,
ϕ= 1


 2 π, x = 0, y > 0,

− 1 π,
2 x = 0, y < 0.

Dabei ist ϕ nur bis auf Vielfache von 2π eindeutig.

Im Fall x = 0 liegt der Punkt auf der y-Achse, weswegen der Winkel offensichtlich ist. Das
Problem der Division durch 0, das in diesem Fall auftreten würde, kann also komplett
umgangen werden.

Beispiel 1.39 In der Situation aus Beispiel 1.37 ist x < 0, daher ergibt sich
y √ 4
ϕ = arctan + π = arctan( 3) + π = π.
x 3
//
Wir merken noch an, dass der Winkel natürlich nur bis auf Vielfache von 2π eindeutig
ist. Die obige Methode ergibt einen Winkel im Intervall [−π/2, 3π/2). Wird ein anderes
Intervall der Länge 2π gewünscht, so muss ggfs. 2π addiert oder subtrahiert werden.
Außerdem haben wir natürlich stillschweigend vorausgesetzt, dass x und y so vorgege-
ben sind, dass ein geeignetes ϕ überhaupt existiert.

1.9.4 Verallgemeinerte Sinusschwingung


Bei der Beschreibung von (mechanischen oder elektromagnetischen) Schwingungen be-
nötigt man Sinus- und Kosinusfunktionen in allgemeinerer Form. Grund: Schwingungen
können verschiedene Amplituden und verschieden Frequenzen haben sowie gegeneinander
phasenverschoben sein. Die allgemeine Form so einer Schwingungsfunktion lautet

f (x) = a · sin(bx + c). (1.4)

(Statt Sinus kann man auch Kosinus nehmen, aber wegen cos x = sin(x + π/2) kann man
jede allgemeine Kosinus- in eine allgemeine Sinusschwingung umrechnen.)
Um zu verstehen, welche Bedeutung dabei jeweils die Parameter a, b und c haben,
betrachten wir diese zunächst einzeln.

36
1.9 Trigonometrische Funktionen

• Der Parameter a wirkt als Multiplikator auf den Funktionswert. Dies entspricht
einer Streckung (a > 1) oder Stauchung (0 < a < 1) des Funktionsgraphen in
y-Richtung. Bei negativen Werten wird der Graph zusätzlich gespiegelt. a regelt
somit die Amplitude der Schwingung.

• Die Funktionsweise des Parameters b kann man sich gut klarmachen, indem man
sich überlegt, wo die Nullstellen der Funktion sin(bx) liegen. Liegen sie bei der
Original-Sinusfunktion bei 0, π, 2π, . . . , so liegen sie jetzt bei 0, π/b, 2π/b, . . . . Für
b > 1 liegen die Nullstellen jetzt also dichter beisammen. Dies entspricht einer
Stauchung des Funktionsgraphen. Analog bewirkt 0 < b < 1 eine Streckung. Bei
negativen Werten ergibt sich wiederum eine Spiegelung. b regelt somit die Frequenz
der Schwingung.

• Durch ähnliche Überlegung erkennt man, dass eine Änderung des Parameters c den
Funktionsgraphen in x-Richtung verschiebt, und zwar für c > 0 nach links und für
c < 0 nach rechts. Er regelt somit die Phasenverschiebung.

Bei gleichzeitigem Vorhandensein von b (horizontale Stauchung/Streckung) und c (Pha-


senverschiebung) in Formel (1.4) ist zu beachten, dass die Phasenverschiebung zuerst
durchzuführen ist.

Merke: Modifikationen im Argument einer Funktion wirken immer genau an-


dersherum, als man intuitiv vermutet. Dies gilt auch für die Reihenfolge zwi-
schen einer Streckung/Stauchung und einer Verschiebung.

Beispiel 1.40 Um den Graphen der Funktion


1 1 
f (x) = 3 sin ·x+ π
2 4
(siehe auch Abbildung 1.7, oben) zu erhalten, muss der Graph der Standard-Sinusfunktion
zuerst um π/4 nach links verschoben und danach horizontal um den Faktor 2 gestreckt
werden. Die vertikale Streckung um den Faktor 3 ist unabhängig davon, kann also vorher
oder hinterher erfolgen.
Hingegen bei der Funktion
  
1 1 
g(x) = 3 sin · x+ π
2 4

(Abbildung 1.7, unten) wird zuerst die horizontale Streckung und erst danach die Ver-
schiebung nach links durchgeführt. //
Dieselben Überlegungen gelten allgemein für beliebige Funktionen (siehe Kasten).

Einschätzungsfrage 1.41 Ein häufig auftretendes Problem in Anwendungen besteht da-


rin, dass zwei (oder mehr) verallgemeinerte Sinusschwingungen überlagert werden müs-
sen. Wird das Ergebnis wieder eine verallgemeinerte Sinusschwingung sein?

37
1 Funktionen

y sin(x)
3 sin(x + π/4)
2 sin(1/2 · x + π/4)
3 sin(1/2 · x + π/4)
1
x

−3π/2 −π −π/2 π/2 π 3π/2 2π 5π/2 3π 7π/2


−1

−2

−3

y sin(x)
3 sin( 21 · x)
2 sin(1/2 · (x + π/4))
3 sin(1/2 · (x + π/4))
1
x

−3π/2 −π −π/2 π/2 π 3π/2 2π 5π/2 3π 7π/2


−1

−2

−3

Abbildung 1.7: Schrittweise Konstruktion der Funktionsgraphen der Funktionen f (x) =


3 sin(1/2 · x + π/4) (oben) bzw. g(x) = 3 sin(1/2 · (x + π/4)) (unten).

Stauchungen/Streckungen und Verschiebungen von Funktionen


f (c · x) horizontale Stauchung (c > 1) bzw. Steckung (c < 1)
f (x + c) horizontale Verschiebung nach links (c > 0) bzw. nach rechts (c < 0)
c · f (x) vertikale Stauchung (c < 1) bzw. Streckung (c > 1)
f (x) + c vertikale Verschiebung nach unten (c < 0) bzw. nach oben (c > 0)

38
1.10 Hyperbel- und Areafunktionen

a) Ja, immer. b) Nein.

c) Nur dann, wenn:


Auflösung folgt. //

1.10 Hyperbel- und Areafunktionen


Der Funktionsgraph der Funktion f (x) = 1/x wird üblicherweise als Hyperbel bezeichnet.
Unter den sogenannten Hyperbelfunktionen versteht man jedoch andere Funktionen, die
mit dem Funktionsgraphen der Funktion f (x) = 1/x nur sehr indirekt zu tun haben. Die
Hyperbelfunktionen tauchen mitunter in Anwendungen auf. Zwei wichtige Beispiele sind:

• Ein Seil, das unter seinem Eigengewicht durchhängt, nimmt die Form der cosh-
Funktion an.

• Trägt man beim freien Fall mit Luftwiderstand die Geschwindigkeit gegen die Zeit
ab, so ergibt sich der Funktionsgraph der tanh-Funktion.

Die Hyperbelfunktionen setzten sich aus den Funktionen ex und e−x zusammen und
verhalten sich in gewissem Sinne ähnlich wie die trigonometrischen Funktionen. Sie sind
wie folgt definiert:

ex − e−x
sinh x = ,
2
ex + e−x
cosh x = ,
2
sinh x ex − e−x
tanh x = = x ,
cosh x e + e−x
cosh x ex + e−x 1
coth x = = x = .
sinh x e − e−x tanh x

Wie bei den trigonometrischen Funktionen sind sinh, tanh und coth ungerade Funktio-
nen, während cosh eine gerade Funktion ist. Im Gegensatz zu den trigonometrischen
Funktionen sind die Hyperbelfunktionen jedoch nicht periodisch.
coth hat in 0 einen Pol, die übrigen Funktionen sind auf ganz R definiert.
Die Bildmengen sind:

sinh R, cosh [1, ∞), tanh (−1, 1), coth (−∞, −1) ∪ (1, ∞).

sinh und tanh sind auf ganz R streng monoton wachsend, cosh ist auf (−∞, 0] streng
monoton fallend und auf [0, ∞) streng monoton wachsend, coth ist auf (−∞, 0) und
(0, ∞) jeweils streng monoton fallend (jedoch nicht auf ganz R \ {0}).

39
1 Funktionen

Hyperbelfunktionen
y
3

coth x

cosh x 2

tanh x
x

−3 −2 −1 1 2 3

−1

sinh x −2

coth x

−3

Wichtigste Regeln:

ex − e−x ex + e−x
sinh x = , cosh x = ,
2 2
sinh x cosh x 1
tanh x = , coth x = = , cosh2 x − sinh2 x = 1.
cosh x sinh x tanh x
Mehr Regeln siehe Formelsammlung.

40
1.10 Hyperbel- und Areafunktionen

Einige Rechenregeln sind ähnlich (aber nicht gleich) wie bei den trigonometrischen
Funktionen, zum Beispiel

cosh2 x − sinh2 x = 1,
sinh(x + y) = sinh x cosh y + cosh x sinh y,
cosh(x + y) = cosh x cosh y + sinh x sinh y.

Das lässt sich leicht durch Einsetzen der Definition überprüfen. Weitere Rechenregeln
findet man in der Literatur.
Die Umkehrfunktionen werden als Areafunktionen bezeichnet. Da cosh nicht injektiv
ist, muss diese Funktion zuvor auf eine geeignete Teildefinitionsmenge eingeschränkt wer-
den; üblicherweise ist das das Intervall [0, ∞). Die anderen drei Funktionen sind injektiv.
Die Umkehrfunktionen bilden somit wie folgt ab:

arsinh : R → R, arcosh : [1, ∞) → [0, ∞),


artanh : (−1, 1) → R, arcoth : (−∞, −1) ∪ (1, ∞) → R \ {0}.

Die Areafunktionen lassen sich mit Hilfe des natürlichen Logarithmus darstellen:
p p
arsinh x = ln(x + x2 + 1), arcosh x = ln(x + x2 − 1),
1 1 + x 1 x + 1
artanh x = ln , arcoth x = ln
2 1−x 2 x−1
Die Herleitung zeigen wir am Beispiel des arsinh:

Beispiel 1.42 Wie in Abschnitt 1.3 erklärt, beginnen wir mit sinh x = y, lösen dann nach
x auf und vertauschen am Ende die Variablen:

sinh x = y | Einsetzen Definition


ex − e−x
⇔ =y |·2
2
1
⇔ ex − x = 2y | Setze X = ex
e
⇔ X 2 − 2yX − 1 = 0 | Mitternachtsformel
p
⇔ X =y± y2 + 1 | Wegen X = ex > 0 fällt die „−“-Lösung weg
p
⇔ x = ln(y + y 2 + 1) | Vertauschen x und y
p
arsinh x = y = ln(x + x2 + 1).

//

41
2 Komplexe Zahlen

2.1 Einleitung
Komplexe Zahlen haben in den Ingenieurwissenschaften vielfältige Anwendungen. Mit
ihrer Hilfe ist die mathematische Beschreibung von allgemeinen harmonischen Schwin-
gungen (Abschnitt 1.9.4) besonders einfach. Insbesondere ergibt sich eine sehr einfache
Rechenmethode zur Überlagerung gleichfrequenter Schwingungen. Neben mechanischen
Schwingungsvorgängen spielt dies insbesondere in der Wechselstromrechnung eine große
Rolle. Das Berechnen der Amplitudenverhältnisse und Phasenverschiebung zwischen der
zeitlich periodisch schwingenden Wechselspannung u(t) und dem ebenfalls schwingenden
Wechselstrom i(t) in einem Schaltkreis mit ohmschen Widerständen, Kapazitäten und
Induktivitäten kann mit Hilfe der komplexen Zahlen praktisch analog zur Rechnung im
Gleichstromfall erfolgen. Ohne komplexe Zahlen muss man dafür hingegen vergleichsweise
komplizierte Differenzialgleichungen lösen.
Die Überlagerung gleichfrequenter Schwingungen werden wir am Schluss des Kapitels
behandeln. (Für die Anwendung in der Wechselstromrechnung wird auf die Vorlesung
Elektrotechnik verwiesen.) Zunächst müssen aber die komplexen Zahlen eingeführt und
das Rechnen mit ihnen eingeübt werden. Denn wie so häufig in der Mathematik erfolgte
die Entwicklung der komplexen Zahlen nicht mit dem Primärziel, die Wechselstromrech-
nung zu vereinfachen. Diese und andere Anwendungen wurden erst später entdeckt. Die
Motivation für die Erfindung der komplexen Zahlen war die Tatsache, dass bestimmte
Gleichungen im Bereich der reellen Zahlen keine Lösungen haben.
In diesem Sinne kann man auch die Einführung der reellen Zahlen auf das Fehlen von
Lösungen bestimmter Gleichungen zurückführen. Wir wollen zunächst mit den natürli-
chen Zahlen

N = {0, 1, 2, 3, . . . }

beginnen (die Zugehörigkeit der Null ist je nach Autor uneinheitlich). Mit ihnen kann
man rechnen: Man kann sie addieren, und man kann sie multiplizieren. Und man kann
Gleichungen formulieren, zum Beispiel

2 + x = 5.

Diese Gleichung hat offenbar die Lösung x = 3. Es gibt jedoch auch Gleichungen, die
keine Lösung haben, zum Beispiel

5 + x = 2.

43
2 Komplexe Zahlen

Der Wunsch, auch für solche Gleichungen Lösungen bereitstellen zu können, führte zur
Erfindung der negativen Zahlen. Heute ist es für uns selbstverständlich, dass obige Glei-
chung die Lösung x = −3 hat; früher jedoch wurde das zunächst als unheimlich empfun-
den, denn man kann sich „minus drei Äpfel“ nicht richtig vorstellen.
Nimmt man also die negativen Zahlen zu N hinzu, erhält man die Menge der ganzen
Zahlen

Z = {. . . , −3, −2, −1, 0, 1, 2, 3, . . . }.

Man fährt nun fort, Gleichungen zu bilden und ihre Lösungen zu suchen. Man kann zum
Beispiel die Gleichung

3 · x = 12

aufstellen, ihre Lösung ist x = 4. Jedoch hat die Gleichung

12 · x = 3

keine Lösung. Daher war es nötig, abermals neue Zahlen zu erfinden: die Brüche. Mit
ihnen findet man die Lösung x = 41 zu der obigen Gleichung. Die Menge der Brüche
(auch rationale Zahlen genannt) bezeichnen wir mit Q.
In Q kann man wiederum Gleichungen aufstellen, zum Beispiel

x · x = 25.

Diese Gleichung hat zwei Lösungen: x = 5 und x = −5. Hingegen hat die Gleichung

x·x=2

gar keine Lösung in Q. Dies motiviert die Einführung der irrationalen Zahlen, die mit den
rationalen Zahlen zusammen die reellen Zahlen bilden, diese werden √ mit R bezeichnet.

Die obige Gleichung hat in R wiederum zwei Lösungen, nämlich x = 2 und x = − 2.
Nun gibt es aber immer noch Gleichungen, die auch in R nicht lösbar sind. Zwei
Beispiele sind

0·x=1 und
x · x = −1.

Man fragt sich jeweils, was passiert, wenn man eine neue Zahl „erfindet“, die per Definition
Lösung einer dieser Gleichungen ist.
Um dies einschätzen zu können, müssen wir zunächst bemerken, dass die zuvor be-
sprochenen Zahlenbereichserweiterungen stets folgende Eigenschaften hatten:

• Der jeweils „neue“ Zahlenbereich enthält alle „alten“ Zahlen (es verschwinden also
keine Zahlen);

• die allermeisten bekannten Regeln im Umgang mit Zahlen bleiben erhalten;

44
2.2 Die Menge der komplexen Zahlen

• nur ein paar wenige Regeln werden ungültig.


Beispiele für Regeln, die durch die Zahlenbereichserweiterungen ungültig wurden:
• In N gibt es eine kleinste Zahl, in Z nicht mehr.
• In Z hat jede Zahl einen eindeutigen Nachfolger, in Q nicht mehr.
• In Q kann man zu je zwei Zahlen einen Hauptnenner finden, in R nicht mehr.
Nun stellt sich heraus, dass die Einführung einer Zahl, die die Gleichung 0 · x = 1 löst,
unweigerlich dazu führt, dass so viele Regeln ungültig werden, dass der sich ergebende
Zahlenbereich praktisch nutzlos ist. Aus diesem Grund verzichtet man darauf. Jedoch ist
es möglich, eine Zahl einzuführen, die die Gleichung x · x = −1 löst, und dabei wiederum
die allermeisten Regeln zu erhalten. Der Zahlenbereich, der sich dann ergibt, sind die
komplexen Zahlen, sie werden mit C bezeichnet. Eine wesentliche Regel, die bei dieser
Bereichserweiterung verloren geht, ist folgende:
• Die Zahlen in R sind angeordnet, das heißt, hat man zwei Zahlen a, b ∈ R mit a 6= b,
so ist eine von ihnen kleiner und die andere größer. In C gilt dies nicht.
Ansonsten bleiben jedoch die meisten Regeln erhalten.

2.2 Die Menge der komplexen Zahlen


Wir erfinden also eine Zahl, deren Quadrat −1 ist. Wir brauchen ein neues Symbol
für diese Zahl (so wie wir√von N zu Z das Symbol „−“, von Z zu Q den Bruchstrich,
von Q zu R das Symbol „ “ eingeführt haben). Wir einigen uns auf den Buchstaben
j. (Unter Mathematikern wird häufig stattdessen der Buchstabe i verwendet, aber weil
gerade in der Wechselstromrechnung, einer wichtigen Anwendung der komplexen Zahlen
in den Ingenieurwissenschaften, i bereits für die Stromstärke steht, wird dort j für die
imaginäre Einheit verwendet.) Wir haben nun also die Menge der Zahlen

R ∪ {j},

und wir wissen, dass für j die Regel gilt:

j2 = −1.

Gelten für diese Menge die üblichen Regeln? Kann man zum Beispiel zwei Zahlen aus
dieser Menge mit einander multiplizieren? Nein, das Produkt

3·j
√ √
zum Beispiel ist darin nicht erklärt. (Analog wäre ja in Q ∪ { 2} das Produkt
√ 3 · 2 auch
nicht erklärt.) Man muss den Wert 3j als eigenständige Zahl (analog zu 3 2) zulassen
und zum Zahlenbereich hinzufügen:

R ∪ {j, 3j}.

45
2 Komplexe Zahlen

Man erkennt schnell, dass man natürlich alle Vielfachen von j hinzufügen muss:
R ∪ {yj : y ∈ R}.
Die Zahlen yj werden imaginäre Zahlen genannt, die Zahl j heißt imaginäre Einheit.
In dieser Menge kann man nach Belieben multiplizieren:
4 · j = 4j, (−1) · j = −1j = −j, 2 · 3j = 6j,
j · j = −1, 2j · 5j = −10, 3j · (−j) = 3.
Jedoch das Addieren ist noch problematisch: 1 + j ist in dieser Menge nicht
√erklärt. Man
muss 1 + j wiederum als eigenständige Zahl hinzunehmen (analog zu 1 + 2):
R ∪ {yj : y ∈ R} ∪ {1 + j}.
Wiederum ist klar, dass das nicht reicht, man braucht allgemeiner
R ∪ {yj : y ∈ R} ∪ {x + yj : x, y ∈ R}.
Nun stellt man aber fest, dass, sofern die gültigen Rechenregeln erhalten bleiben sollen,
einige Zahlen in dieser Schreibweise mehrfach aufgeführt sind. Zum Beispiel ist
3 + 0j = 3 + 0 = 3,
die Zahl 3 ist also sowohl in R als auch in {x + yj : x, y ∈ R} enthalten. Dasselbe gilt
offenbar für alle Zahlen in R. Analog ist auch
0 + 3j = 3j,
so dass entsprechend alle Zahlen aus {yj : y ∈ R} auch in {x + yj : x, y ∈ R} enthalten
sind. Der neue Zahlenbereich ist also eigentlich nur
{x + yj : x, y ∈ R}.
Wie wir im Folgenden sehen werden, kann man in dieser Menge alle gewohnten Re-
chenoperationen ausführen. Wir sind also am Ziel angekommen nennen diese Menge die
Menge der komplexen Zahlen und bezeichnen sie mit
C.

2.3 Grundrechenarten für komplexe Zahlen


Addition, Subtraktion und Multiplikation erfolgen allein durch Anwenden bekannter Re-
geln unter Beachtung der neuen Regel j2 = −1. Beispiele:
(1 + 2j) + (4 − 3j) = 1 + 2j + 4 − 3j = (1 + 4) + (2 − 3)j = 5 − j,
(1 + 2j) − (4 − 3j) = 1 + 2j − 4 + 3j = (1 − 4) + (2 + 3)j = −3 + 5j,
(1 + 2j) · (4 − 3j) = 1 · 4 + 1 · (−3j) + 2j · 4 + 2j · (−3j) = 4 − 3j + 8j − 6j2
= 4 − 3j + 8j + 6 = (4 + 6) + (−3 + 8)j = 10 + 5j.

46
2.3 Grundrechenarten für komplexe Zahlen

Die allgemeinen Rechenregeln lauten also


(x1 + y1 j) + (x2 + y2 j) = (x1 + x2 ) + (y1 + y2 )j,
(x1 + y1 j) − (x2 + y2 j) = (x1 − x2 ) + (y1 − y2 )j,
(x1 + y1 j) · (x2 + y2 j) = (x1 x2 − y1 y2 ) + (x1 y2 + x2 y1 )j.
Bei einer komplexen Zahl z = x + yj nennen wir x den Realteil und y den Imaginärteil
der Zahl, in Symbolen
x = ℜz, y = ℑz.
Merke: Der Imaginärteil ist die Zahl vor dem j, aber ohne das j.

Beispiel 2.1 Sei z = 3 − 5j, dann ist ℜz = 3 und ℑz = −5, aber nicht −5j. //
Addition und Subtraktion werden also für Real- und Imaginärteil getrennt ausgeführt.
Die Multiplikationsregel ist schwieriger zu merken, aber man muss sie sich gar nicht
merken, sie folgt ja von alleine durch Ausmultiplizieren, Beachten von j2 = −1 und
Umsortieren.
Die Division allerdings stellt uns vor ein Problem. Es ist nicht auf Anhieb klar, wie
zum Beispiel
1 + 2j
4 − 3j
zu berechnen ist. Man könnte meinen, der Zahlenbereich sei noch nicht ausreichend, und
man müsste noch „Brüche von komplexen Zahlen“ hinzunehmen. Das ist aber nicht der
Fall, denn es gelingt mit einem Trick, solche Brüche auf die Form x + yj zurückzuführen.
Der Trick besteht in der Anwendung der dritten binomischen Formel nach folgendem
Muster:
1 + 2j (1 + 2j) · (4 + 3j) −2 + 11j 2 11
= = = − + j.
4 − 3j (4 − 3j) · (4 + 3j) 25 25 25
Dieser Trick funktioniert immer, außer wenn der Nenner gleich 0+0j (also 0) ist. Division
durch null ist nach wie vor nicht erklärt. Die allgemeine Divisionsregel lautet
x1 + y1 j x1 x2 + y1 y2 −x1 y2 + x2 y1
= + j.
x2 + y2 j x22 + y22 x22 + y22
Aber auch hier gilt: Merken ist nicht nötig, man muss nur den Trick kennen, nämlich
mit der sogenannten Konjugiert-komplexen des Nenners zu erweitern. Die Konjugiert-
komplexe einer Zahl z = x + yj ist per Definition die Zahl x − yj. Man bezeichnet sie mit
z oder z ∗ .

Übung 2.2 Berechnen Sie


j−8
.
2 + 3j

47
2 Komplexe Zahlen

Zu Übung 2.2:

Komplexe Zahlen
Eine allgemeine komplexe Zahl hat die Form

z = x + jy,

wobei x und y reelle Zahlen sind.


Es sind folgende spezielle Operationen definiert:
Operation Bedeutung Formel
Realteil Anteil, der kein j enthält. ℜz = x
Imaginärteil Anteil vor dem j, aber ohne das j. ℑz = y
konjugiert-komplex Ersetze j durch −j. z = x − jy

Sie können jetzt aus


Mit den jetzt erklärten Grundrechenarten gelten alle Regeln, die man aus R kennt, wie
der Probeklausur Som-
mer 2016 die Aufga- zum Beispiel Kommutativ-, Assoziativ- und Distributivgesetze. Das kann man formal
be 9 b bearbeiten. beweisen, wir verzichten jedoch darauf.

2.4 Darstellungsarten komplexer Zahlen

2.4.1 Kartesische Form

Die Darstellung einer komplexen Zahl in der Form z = x+yj, die wir bisher ausschließlich
verwendet haben, nennt man die kartesische Form oder auch algebraische Form. Neben
ihr gibt es weitere Darstellungsarten, die jeweils für bestimmte Zwecke sehr nützlich sind
und die wir daher im Folgenden behandeln wollen.

48
2.4 Darstellungsarten komplexer Zahlen

Grundrechenarten für komplexe Zahlen in kartesischer Form


Operation Rechenmethode
+, − Nichts zu beachten.
· Ausmultiplizieren, beachte j2 = −1.
: Erweitern mit dem Konjugiert-komplexen des Nenners, dann dritte
binomische Formel.

2.4.2 Grafische Darstellung: Gaußsche Zahlenebene


Zur grafischen Darstellung der reellen Zahlen nutzt man bekanntlich die Zahlengerade.
Analog stellt man komplexe Zahlen in einem zweidimensionalen Koordinatensystem, der
sogenannten Gaußschen Zahlenebene, dar, indem man den Realteil auf der x-Achse und
den Imaginärteil auf der y-Achse abträgt. Man spricht daher auch von der reellen Achse
und der imaginären Achse. So entspricht jeder Punkt in der Ebene einer komplexen
Sie können jetzt aus
Zahl und umgekehrt auch jede komplexe Zahl einem Punkt in der Ebene. In technischen der Probeklausur Som-
Anwendungen stellt man die Zahlen häufig durch Pfeile dar, die vom Ursprung zu der mer 2019 die Aufga-
jeweiligen Zahl zeigen. Man spricht dabei vom komplexen Zeigern. be 9 c bearbeiten.

2.4.3 Polarform
Die Lage eines komplexen Zeigers – und damit eine komplexe Zahl – kann auch angegeben
werden, indem man die Länge r des Zeigers sowie den Winkel ϕ, den dieser (im Gegen-
uhrzeigersinn) mit der positiven reellen Achse bildet, angibt. Anhand einer Zeichnung
macht man sich klar, dass die Zahl z dann den Wert
z = r cos ϕ + jr sin ϕ = r(cos ϕ + j sin ϕ) (2.1)
hat (siehe Abbildung 2.1). Man nennt diese Form daher trigonometrische Form.
Man nennt r dabei auch den Betrag von z (geschrieben r = |z|) analog wie den Betrag
einer reellen Zahl, und ϕ nennt man das Argument oder den Winkel oder die Phase von
z (geschrieben ϕ = arg z). Im Rahmen dieser Veranstaltung geben wir das Argument im
Bogenmaß an, aber prinzipiell können natürlich auch Altgrad verwendet werden.
Das Argument einer komplexen Zahl ist nicht eindeutig, denn jede weitere volle Umdre-
hung führt zum gleichen Bildpunkt. Es wird eindeutig, wenn man sich auf ein geeignetes
Intervall festlegt. In vielen Anwendungen ist dies entweder das Intervall [0, 2π) oder das
Intervall (−π, π].
Eine Vereinfachung in der Schreibweise ergibt sich durch Anwendung der sogenannten
Eulerschen Formel 1 :
ejϕ = cos ϕ + j sin ϕ,
1
Eine Begründung für diese Formel wird später im Semester im Zusammenhang mit Taylor-Reihen
gebracht. Einstweilen muss diese Formel einfach geglaubt werden beziehungsweise als abkürzende
Schreibweise verstanden werden. Es gelten jedoch in diesem Zusammenhang alle Potenzgesetze.

49
2 Komplexe Zahlen

ℑz

r sin ϕ

ϕ ℜz

r cos ϕ

Abbildung 2.1: Trigonometrische Form einer komplexen Zahl: z = r cos ϕ + jr sin ϕ.

die trigonometrische Form (2.1) vereinfacht sich damit zur sogenannten Exponentialform:

z = r · ejϕ .
Sie können jetzt aus
der Probeklausur Som-
mer 2016 die Aufga- Die trigonometrische Form und die Exponentialform sind somit eigentlich identisch, man
be 9 a bearbeiten. verwendet allgemein für beide auch den Begriff Polarform.

2.5 Umrechnung zwischen den Darstellungsformen


2.5.1 Polarform in kartesische Form
Gegeben ist also

z = rejϕ = r(cos ϕ + j sin ϕ),

und gesucht ist die Darstellung derselben Zahl in der Form

z = x + yj.

Durch Vergleich der beiden Darstellungsformen erhält man unmittelbar

x = r cos ϕ, y = r sin ϕ.

2.5.2 Kartesische Form in Polarform


Gegeben ist also

z = x + yj,

50
2.5 Umrechnung zwischen den Darstellungsformen

und gesucht ist die Darstellung derselben Zahl in der Form


z = rejϕ = r(cos ϕ + j sin ϕ).
Wieder ergeben sich die Gleichungen
x = r cos ϕ, y = r sin ϕ, (2.2)
aber diesmal sind x und y gegeben, während r und ϕ gesucht sind. Quadriert man beide
Gleichungen und addiert sie, so erhält man
x2 + y 2 = r2 cos2 ϕ + r2 sin2 ϕ = r2 (cos2 ϕ + sin2 ϕ) = r2 .
Weil der Betrag in seiner Eigenschaft als Länge niemals negativ sein kann, muss gelten
p
r = x2 + y 2 .
Dieselbe Gleichung erhält man aus einer Zeichnung mit dem Satz von Pythagoras.
Setzt man jetzt den ermittelten Wert r in (2.2) ein, so hat man Gleichungen für sin ϕ
und cos ϕ, so dass man den Winkel ϕ wie in Abschnitt 1.9.3 erläutert bestimmen kann.
Hierfür bietet es sich an, Satz 1.38 anzuwenden, weil bei der Division y/x der Faktor r
von alleine herausfällt, man also somit einen Schritt spart.

Beispiel 2.3 Gegeben ist z = −1 − j, also x = y = −1. Es ergibt sich


p √
r = (−1)2 + (−1)2 = 2,
 −1  1 5
ϕ = arctan + π = arctan(1) + π = π + π = π.
−1 4 4

Somit ist z = 2 · e5πj/4 . maxima berechnet mit
z:-1-%i;
polarform(z);

die ebenso richtige Darstellung z = 2 · e−3πj/4 .
//

Übung 2.4 Rechnen Sie z = 1 − j 3 in Polarform um.

2.5.3 Anmerkung zur Berechnung des Betrags


Der Betrag |z| einer komplexen Zahl z = x + yj spielt in vielen Situationen eine wichtige
Rolle, auch unabhängig von der Polarform. Neben der Berechnungsformel
p
|z| = x2 + y 2
gilt auch die alternative, beim Rechnen manchmal sehr nützliche, Darstellung
z · z = |z|2 .
Dies kann direkt durch Ausrechnen nachgeprüft werden:
z · z = (x + yj)(x − yj) = x2 − y 2 j2 = x2 + y 2 = |z|2 .

51
2 Komplexe Zahlen

Kartesische Form und Polarform

z = x + yj = rejϕ

Umrechnung kartesisch nach Polar:


p
r = x2 + y 2 , ϕ = wie in Kasten Seite 36.

Umrechnung Polar nach kartesisch:

Eulersche Formel: ejϕ = cos ϕ + j sin ϕ.

Zu Übung 2.4:

2.6 Rechnen in den verschiedenen Darstellungsformen


Wie die Grundrechenarten in der kartesischen Form durchzuführen sind, wissen wir schon
aus Abschnitt 2.3. Auch wissen wir schon, wie wir die konjugiert-komplexe Zahl z zu einer
Zahl z = x + yj berechnen, nämlich
z = x − yj.
Wir wollen jetzt untersuchen, wie diese Rechenoperationen in der Polardarstellung und
auch in der grafischen Darstellung durchgeführt werden.

2.6.1 Polardarstellung
Für die Addition und Subtraktion gibt es keine direkte Möglichkeit der Ausführung in der
Polardarstellung. Die Zahlen müssen zu diesem Zweck stets in die kartesische Darstellung
umgerechnet werden.
Wir betrachten jetzt die Multiplikation zweier Zahlen z1 = r1 ejϕ1 und z2 = r2 ejϕ2 .
Nach den Rechenregeln für Potenzen gilt
z1 · z2 = r1 ejϕ1 · r2 ejϕ2 = r1 r2 · ejϕ1 ejϕ2 = r1 r2 · ejϕ1 +jϕ2 = (r1 r2 )ej(ϕ1 +ϕ2 ) .
Für die Division gilt eine analoge Rechnung:
z1 r1 ejϕ1 r1 jϕ1 −jϕ2 r1 jϕ1 −jϕ2 r1
= jϕ
= ·e e = ·e = ej(ϕ1 −ϕ2 ) .
z2 r2 e 2 r2 r2 r2

52
2.7 Weitere Rechenarten

Ein Spezialfall der Division ist der Kehrwert einer Zahl z = rejϕ . Es ergibt sich hier
1 1 1
= jϕ = e−jϕ .
z re r
In allen Fällen muss man beachten, dass das Argument eventuell neu normalisiert werden
muss (durch Addition oder Subtraktion von 2π), sofern ein bestimmtes Intervall für das
Argument vorgegeben ist.
Für die Konjugiert-komplexe einer Zahl in Polarform erhält man

z = rejϕ = r cos ϕ + jr sin ϕ = r cos ϕ − jr sin ϕ = r cos(−ϕ) + jr sin(−ϕ) = re−jϕ .

Somit gilt auch hier die Regel, dass man die konjugiert-komplexe Zahl erhält, indem man
überall j durch −j ersetzt.

2.6.2 Grafische Darstellung


Die Summen- beziehungsweise Differenzbildung erfolgt bei komplexen Zahlen kompo-
nentenweise, das heißt nach den gleichen Regeln wie bei zweidimensionalen Vektoren.
Die beiden Vektorkomponenten entsprechen dabei Real- und Imaginärteil der komplexen
Zahl. Die Addition und Subtraktion komplexer Zahlen kann daher auch geometrisch nach
der aus der Vektorrechnung bekannten Parallelogrammregel erfolgen.
Für die Multiplikation liefert die Polardarstellung die bessere Anschauung: Die Winkel
werden addiert, die Beträge multipliziert. Geometrisch bedeutet das, wenn man z1 =
r1 ejϕ1 mit z2 = r2 ejϕ2 multipliziert, dass man den Zeiger z1 um den Winkel ϕ2 dreht
(im Gegenuhrzeigersinn) und um den Faktor r2 streckt (r2 > 1) oder staucht (r2 < 1).
Da die Multiplikation kommutativ ist (z1 z2 = z2 z1 ), funktioniert das analog, indem man
von z2 ausgeht und den Zeiger um ϕ1 dreht (im Gegenuhrzeigersinn) und um den Faktor
r1 streckt/staucht.
Sie können jetzt aus
Analog funktioniert die Division: Will man z1 = r1 ejϕ1 durch z2 = r2 ejϕ2 dividieren, der Probeklausur Som-
so ist z1 um den Winkel ϕ2 in die entgegengesetzte Richtung (also im Uhrzeigersinn) zu mer 2019 die Aufga-
drehen und um den Faktor 1/r2 zu strecken/stauchen. be 9 a bearbeiten.
Die konjugiert-komplexe Zahl ergibt sich, wie bekannt, durch Negieren des Arguments
unter Beibehaltung des Betrags. Dies bedeutet also, dass die Länge unverändert bleibt,
Sie können jetzt aus
der Winkel jedoch in die entgegengesetzte Richtung abgetragen wird. Durch eine Zeich- der Probeklausur Som-
nung überzeugt man sich davon, dass dies einer Spiegelung an der reellen Achse ent- mer 2019 die Aufga-
spricht. be 9 b bearbeiten.

2.7 Weitere Rechenarten


2.7.1 Potenzieren
Für eine komplexe Zahl

z = x + yj = rejϕ

53
2 Komplexe Zahlen

und eine natürliche Zahl n wollen wir die Potenz z n berechnen. Die Potenz ist bekanntlich
durch wiederholte Multiplikation erklärt:

z n = z| · z ·{z· · · · z} .
n Faktoren

Prinzipiell kann diese Operation in der kartesischen und in der Polarform gleichermaßen
durchgeführt werden. Für große Werte n ist dies in der kartesischen Form jedoch ein
relativ großer Aufwand. In der Polarform ist die Rechnung viel einfacher, denn es ergibt
sich

z n = z · z · · · · · z = (rejϕ ) · (rejϕ ) · · · · · (rejϕ ) = (r · r · · · · · r) · (ejϕ ) · (ejϕ ) · · · · · (ejϕ )
= (r · r · · · · · r) · (ej(ϕ+ϕ+···+ϕ) ) = rn ejnϕ .

Merke: Man potenziert eine komplexe Zahl in Polardarstellung, indem man


den Betrag mit dem Exponenten potenziert und den Winkel mit dem Expo-
nenten multipliziert.

In trigonometrischer Schreibweise ergibt das die sogenannte Formel von Moivre:


n
r(cos ϕ + j sin ϕ) = rn (cos nϕ + j sin nϕ).

Beispiel 2.5 Wir wollen

(−1 − j)17

berechnen. Aus Beispiel 2.3 wissen wir schon, dass


√ 5
−1 − j = 2 · e 4 πj

ist. Es ergibt sich also


√ 5 17 85 √ 5
(−1 − j)17 = ( 2 · e 4 πj )17 = 2 2 · e 4 πj = 28 2 · e 4 πj
    5 
√ 5 √  1 1 
= 256 2 · cos π + j sin π = 256 2 · − √ − √ j
4 4 2 2
= −256 − 256j.

//


Übung 2.6 Berechnen Sie ( 3 + j)5 mittels Rechnung über Polarform.

54
2.7 Weitere Rechenarten

Zu Übung 2.6:

Rechnen mit komplexen Zahlen in Polarform


Operation Beschreibung Formel
+, − Geht nicht.

· Winkel addieren, Beträge (r1 ejϕ1 ) · (r2 ejϕ2 ) = (r1 · r2 )ej(ϕ1 +ϕ2 )
multiplizieren.
r1 ejϕ1 r 
1
: Winkel subtrahieren, Beträ- = ej(ϕ1 −ϕ2 )
r2 ejϕ2 r2
ge dividieren.
1 1
Kehrwert Negativer Winkel, Kehrwert = e−jϕ
rejϕ r
des Betrags.

konj.-kompl. Ersetze j durch −j. rejϕ = re−jϕ

Potenzieren Betrag potenzieren, Winkel (rejϕ )n = rn enjϕ


mit Exponent multiplizie-
ren.

55
2 Komplexe Zahlen

2.7.2 Wurzelziehen
Für eine positive reelle Zahl a gilt: Es gibt genau zwei reelle Zahlen x, deren Quadrat
√ √
gleich a ist; nämlich x = a und x = − √ a. Am Beispiel a = 4 haben
√ wir die zwei
Lösungen x = 2 und x = −2. Trotzdem ist 4 = 2 und nicht etwa 4 = −2; warum?
Antwort: Das ist willkürlich so festgelegt. Genauer, von den zwei möglichen reellen Zahlen

x, deren Quadrat gleich a, wird die größere von beiden als a bezeichnet. Die andere ist

dann gleich − a.
Beim (Quadrat-) Wurzelziehen aus komplexen Zahlen ist die Situation insofern gleich,
als dass es stets (außer für z = 0) zwei Lösungen gibt. Da die komplexen Zahlen jedoch
nicht angeordnet sind, gibt es nicht so etwas wie „die größere von beiden“. Man hat daher
keine einfache Möglichkeit mehr, eine der beiden Lösungen vor der anderen auszuzeich-
nen, vielmehr sind stets beide Lösungen als gleichwertig zu betrachten. Die Schreibweise

mit dem Wurzelzeichen, also „x = a“, sollte daher für komplexe Zahlen nicht verwen-
det werden, da nicht klar ist, welche der zwei Lösungen in diesem Falle x sein soll. Bei
allgemeinen n-ten Wurzeln wird die Sache noch schlimmer, denn hier gibt es jeweils n
verschiedene Lösungen, wie wir gleich sehen werden.
Wurzelziehen ist die umgekehrte Operation des Potenzierens. Daher liegt es nahe, die
Regeln, nach denen potenziert wird, ebenfalls umzukehren. Demnach zieht man die n-te
Wurzel aus einer komplexen Zahl in Polardarstellung, indem man die (reelle, positive)
n-te Wurzel aus dem Betrag zieht und das Argument durch n teilt. Hierbei ist jedoch
besonderes Augenmerk auf die Tatsache zu legen, dass das Argument nur bis auf Vielfache
von 2π eindeutig festgelegt ist. Addiert man ein Vielfaches von 2π zum Argument, bevor
man dieses durch n teilt, so erhält man im Allgemeinen ein anderes Ergebnis. Als mögliche
Lösungen für die n-te Wurzel aus a = rejϕ erhält man somit
√ √ k
n
r · ej(ϕ+k·2π)/n = n r · ejϕ/n · e2πj/n , k ∈ Z.

Der Faktor e2πj/n heißt primitive n-te Einheitswurzel. Es gilt


n
e2πj/n = e2πj = 1,
daher genügt es, sich in der obigen Formel auf k = 0, 1, . . . , n − 1 zu beschränken, denn
danach wiederholen sich die Ergebnisse.
Anders formuliert: Hat man eine n-te Wurzel aus a gefunden, so gehen die anderen
daraus hervor, indem man wiederholt mit der n-ten Einheitswurzel e2πj/n multipliziert.
Dies entspricht, wie wir wissen, einer Drehung im Gegenuhrzeigersinn um den Winkel
2π/n. Nach n solchen Drehungen ist man wieder am Ausgangsort. Daher ergibt sich, dass
die n Lösungen der Gleichung z n = a in der Gaußschen Zahlenebene alle auf einem Kreis
um den Nullpunkt liegen und dort gleichmäßig verteilt sind.

Beispiel 2.7 Gesucht werden alle Zahlen z ∈ C mit


z 3 = −2 + 2j.

(Mit anderen Worten „z = 3
−2 + 2j“, aber das ist wie gesagt von der Schreibweise her
problematisch.)

56
2.8 Verträglichkeit von Rechenoperationen mit dem Konjugieren

Komplexes Wurzelziehen
• Grundaufgabe: Finde z so, dass

z n = rejϕ .

• Es gibt n verschiedene Lösungen. (Schreibweise „ n
· · ·“ ist daher formal falsch.)

• In der Gaußschen Zahlenebene liegen die Lösungen gleichmäßig verteilt auf


einem Kreis um den Nullpunkt.

• Berechnungsformel:

zk = n r · ej(ϕ+2kπ)/n , k = 0, 1, . . . , n − 1.

Wir rechnen zunächst die Zahl −2 + 2j in Polarform um:


p √
−2 + 2j = (−2)2 + 22 · e(arctan(−1)+π)j = 8 · e(−π/4+π)j = 23/2 · e3πj/4 .

Für die Wurzeln ergeben sich somit


  1 
p
3 πj/4
√ πj/4
√ 1 
z1 = 23/2
·e = 2·e = 2 · cos π + j sin π = 1 + j,
4 4
  11 
p
3 (π/4+2π/3)j
√ 11πj/12
√  11 
3/2
z2 = 2 · e = 2·e = 2 · cos π + j sin π ,
12 12
   19 
p
3 (π/4+4π/3)j
√ 19πj/12
√ 19 
3/2
z3 = 2 · e = 2·e = 2 · cos π + j sin π .
12 12
Die Berechnung dieser Wurzeln mit maxima geht so:
float(rectform(solve(z^3=-2+2*%i,z)));
Einzeichnen dieser Lösungen in die Gaußsche Zahlenebene geht ebenfalls mit maxima:
cart(z):=[realpart(z),imagpart(z)];
plot2d([discrete,map(cart,map(rhs,solve(z^3=-2+2*%i,z)))],\ Sie können jetzt aus
[style,points],same_xy); der Probeklausur 2021
√ die Aufgabe 1 bearbei-
Sie liegen auf einem Kreis mit Radius 2, siehe auch Abbildung 2.2. // ten.

2.8 Verträglichkeit von Rechenoperationen mit dem


Konjugieren
Beim Zusammenspiel mehrerer Rechenoperation ist es immer wichtig zu wissen, ob sich
diese vertauschen lassen oder nicht. Aus dem Bereich der reellen Zahlen kennen wir

57
2 Komplexe Zahlen

ℑz
1.5

1 b

b
0.5
ℜz

−1.5 −1 −0.5 0.5 1 1.5


−0.5

−1
b

−1.5

Abbildung 2.2: Alle dritten Wurzeln aus −2 + 2j liegen gleichmäßig verteilt auf einem

Kreis um den Nullpunkt mit Radius 2.

sowohl Beispiel für vertauschbare Operationen als auch Beispiele für nicht vertauschbare
Operationen. Vertauschbar sind beispielsweise Multiplikation und Wurzelziehen, denn es
gilt (für a, b ≥ 0):
√ √ √
a · b = a · b.

Hingegen sind Addition und Wurzelziehen nicht vertauschbar, denn im Allgemeinen ist:
√ √ √
a + b 6= a + b.

Im Zusammenhang mit komplexen Zahlen taucht die komplexe Konjugation als neue
Operation auf, und es ist nützlich zu wissen, mit welchen der bisherigen Rechenopera-
tionen diese vertauschbar ist. Wir untersuchen zunächst an einem Beispiel die Frage, ob
z1 · z2 = z1 · z2 ist:

Beispiel 2.8 Es seien

z1 = 1 + j, z2 = −1 + 3j.

Dann ist

z1 · z2 = (1 + j) · (−1 + 3j) = −4 + 2j = −4 − 2j

sowie

z1 · z2 = (1 − j) · (−1 − 3j) = −4 − 2j.

In diesem Beispiel gilt also z1 · z2 = z1 · z2 . //

58
2.8 Verträglichkeit von Rechenoperationen mit dem Konjugieren

−1 + 3j ℑz
3

−4 + 2j 2
1+j

ϕ
ϕ ℜz
−ϕ
−5 −4 −3 −2 −ϕ 2

1+j
−2
−4 + 2j

−3
−1 + 3j

Abbildung 2.3: Verträglichkeit der Multiplikation mit der komplexen Konjugation mit
den Zahlenwerten aus Beispiel 2.8.

Man kann beweisen, dass dies allgemein gilt und dass auch alle anderen behandelten
Rechenoperationen mit der komplexen Konjugation vertauschbar sind. Es gilt also:

z1 + z2 = z1 + z2 , z1 · z2 = z1 · z2 , zn = zn,
z1 z1 √
n
√n
z1 − z2 = z1 − z2 , = , z = z.
z2 z2

Für die Addition, Subtraktion, Multiplikation und Division kann man sich das zum Bei-
spiel an der grafischen Darstellung klarmachen (siehe Abbildung 2.3 für den Fall aus
Beispiel 2.8). Für das Potenzieren folgt es, weil dies nur eine mehrfache Multiplikation
ist, und für Wurzeln, weil sie die Umkehrung des Potenzierens sind.

Übung 2.9 Überprüfen Sie beispielhaft an den Zahlen

z1 = −2 + 11j, z2 = 2 − j

die Regel

z1 z1
= .
z2 z2

59
2 Komplexe Zahlen

Zu Übung 2.9:

2.9 Nullstellen von Polynomen


2.9.1 Fundamentalsatz der Algebra
Genau wie über den reellen Zahlen lassen sich auch über den komplexen Zahlen Polynome
definieren:
f (z) = a0 + a1 z + a2 z 2 + a3 z 3 + · · · + an z n .
Für das Argument haben wir jetzt z statt x geschrieben, um anzudeuten, dass es sich
um eine komplexe Zahl handeln darf. Man beachte, dass jedoch auch die Koeffizienten
a0 , . . . , an komplexe Zahlen sein dürfen.
Der Umgang mit Polynomen erfolgt im Komplexen im Wesentlichen wie im Reellen, nur
müssen eben alle Rechnungen entsprechend den Rechenmethoden für komplexe Zahlen
durchgeführt werden. Es gibt jedoch eine interessante Neuerung:

Satz 2.10 (Fundamentalsatz der Algebra) Über C ist jedes Polynom in Linearfaktoren
zerlegbar.

Beispiel 2.11 Das Polynom


f (z) = z 3 − z 2 + z − 1,
das wir schon aus Beispiel 1.26 kennen, ließ sich über R nicht in Linearfaktoren zerlegen.
Wir kamen nur bis
f (z) = (z − 1)(z 2 + 1).
Über C aber hat der Faktor z 2 + 1 die Nullstelle j, weil ja j2 = −1 ist. Wir spalten den
zugehörigen Linearfaktor (z − j) mit dem Horner-Schema ab:

60
2.9 Nullstellen von Polynomen

1 0 1
j j −1
1 j 0

Es verbleibt das Polynom (z + j), selbst ein Linearfaktor, also haben wir gefunden:

f (z) = (z − 1)(z − j)(z + j).

//

2.9.2 Polynome vom Grad 2: Quadratische Gleichungen


Wir betrachten nochmals quadratische Gleichungen der Form

az 2 + bz + c = 0,

also die Frage nach Nullstellen eines Polynoms vom Grad 2. Wir kennen aus dem Reellen
die „Mitternachtsformel“

−b ± b2 − 4ac
z1,2 = .
2a
Im Komplexen können jetzt folgende Fälle auftreten:

• a, b, c sind reell und b2 − 4ac > 0: Dies ist der bekannte Fall, in dem die Gleichung
zwei reelle Lösungen hat.

• a, b, c sind reell und b2 − 4ac = 0: Dies ist der bekannte Fall, in dem die Gleichung
nur eine reelle Lösung hat.

• a, b, c sind reell und b2 − 4ac < 0: In diesem


√ Fall hat die p
Gleichung keine reel-
le Lösung. Man muss dann den Term ± b2 − 4ac durch ±j |b2 − 4ac| ersetzen,
wodurch man zwei komplexe Lösungen erhält (siehe Beispiel 2.12).

• a, b, c sind komplex, dann ist b2 −4ac in der Regel ebenfalls komplex. In diesem Fall
gibt es auch stets zwei Lösungen (außer wenn b2 −4ac = 0 ist). Man erhält sie durch
komplexes Wurzelziehen wie in Abschnitt 2.7.2 erläutert. Dabei ist es egal, welche
der zwei möglichen Wurzeln man wählt, weil man durch das „±“-Zeichen am Ende
ja ohnehin zwei Lösungen der quadratischen Gleichung erhält (siehe Beispiel 2.13).

Beispiel 2.12 Wir suchen die Lösungen der reellen quadratischen Gleichung

z 2 − 4z + 13 = 0.

Nach der Lösungsformel erhalten wir


√ √
4± 16 − 52 4 ± −36
z1,2 = = .
2 2

61
2 Komplexe Zahlen

√ √
Der Ausdruck „ −36“ ist nicht erklärt, wir müssen ihn ersetzen durch j 36. Es ergibt
sich also

4 ± j 36 4 ± 6j
z1,2 = = = 2 ± 3j.
2 2
Die beiden Lösungen lauten also

z1 = 2 + 3j, z2 = 2 − 3j.

Die Lösung lässt sich auch wieder mit maxima berechnen:

solve(z^2-4*z+13=0,z);

Die Linearfaktorzerlegung lautet entsprechend


 
z − (2 + 3j) z − (2 − 3j) = (z − 2 − 3j)(z − 2 + 3j).

//

Beispiel 2.13 Wir suchen die Lösungen der komplexen quadratischen Gleichung

z 2 + (−6 − 2j)z + 8 + 14j = 0.

Wir setzen das in die Lösungsformel ein:


p √
6 + 2j ± (6 + 2j)2 − 4 · (8 + 14j) 6 + 2j ± 36 + 24j − 4 − 32 − 56j
z1,2 = =
2 √ 2
√ √ −πj/4
6 + 2j ± −32j 6 + 2j ± 32e −πj/2 6 + 2j ± 4 2e
= = =
2 2 2
6 + 2j ± (4 − 4j)
= .
2
Hierbei braucht man beim berechnen der komplexen Wurzel nur eine der zwei möglichen
Werte zu berücksichtigen, weil sich die jeweils andere automatisch durch das „±“-Zeichen
ergibt.
Für die beiden Lösungen ergibt sich:

z1 = 5 − j, z2 = 1 + 3j.

Die Linearfaktorzerlegung lautet somit

(z − 5 + j)(z − 1 − 3j).
Sie können jetzt aus
der Probeklausur Som-
mer 2019 die Aufga- Als Probe kann man diese Darstellung ausmultiplizieren, es muss sich dann das ursprüng-
be 10 e bearbeiten. liche Polynom ergeben. //

62
2.9 Nullstellen von Polynomen

2.9.3 Polynome höheren Grades


Zur Nullstellensuche gilt entsprechend alles in Abschnitt 1.5.5 Gesagte: Für n = 3 und
n = 4 gibt es Formeln zur Bestimmung der Nullstellen, die aber sehr kompliziert sind,
und ab n = 5 nicht mehr. Für biquadratische Gleichungen kann man den bekannten
Trick verwenden, und bekannte Nullstellen kann man mit dem Horner-Schema (oder mit
Polynomdivision) abspalten.

Übung 2.14 Das Polynom

f (z) = z 3 + (−1 − 3j)z 2 + (−3 + 10j)z + 9 − 7j

hat die Nullstelle z1 = 1 + j. Spalten Sie diese mit dem Horner-Schema ab.

Zu Übung 2.14:

2.9.4 Komplexe Nullstellen von Polynomen mit reellen Koeffizienten


Hat man ein reelles Polynom (also ein Polynom mit reellen Koeffizienten), so kann es
wie erwähnt passieren, dass dies über R nicht in Linearfaktoren zerfällt. Andererseits
kann man dieses Polynom ja problemlos als Polynom über C auffassen, und nach dem
Fundamentalsatz der Algebra muss es dort in Linearfaktoren zerfallen. Man hat also
komplexe Nullstellen eines reellen Polynoms. Sei also

f (z) = a0 + a1 z + a2 z 2 + a3 z 3 + . . . an z n ,

wobei a0 , a1 , a2 , . . . , an ∈ R sind, und sei z1 ∈ C eine Nullstelle, also f (z1 ) = 0. Wir


setzen jetzt die konjugiert-komplexe Zahl z1 in das Polynom ein und beachten, dass das

63
2 Komplexe Zahlen

Konjugieren mit allen Rechenoperationen verträglich ist und dass außerdem ak = ak ist,
weil die Koeffizienten ja reell sind:

f (z1 ) = a0 + a1 · z1 + a2 · z1 2 + a3 · z1 3 + · · · + an · z1 n
= a0 + a1 · z1 + a2 · z12 + a3 · z13 + · · · + an · z1n
= a0 + a1 · z1 + a2 · z12 + a3 · z13 + · · · + an · z1n
= a0 + a1 · z1 + a2 · z12 + a3 · z13 + · · · + an · z1n
= f (z1 ) = 0 = 0.

Es gilt also:

Satz 2.15 Ist z1 ∈ C eine komplexe Nullstelle eines Polynoms f mit reellen Koeffizienten,
so ist automatisch auch die konjugiert-komplexe Zahl z 1 Nullstelle von f .

Hat man ein reelles Polynom mit einer komplexen Nullstelle, so kennt man also auto-
matisch eine zweite Nullstelle. Auf der Suche nach weiteren Nullstellen kann man wie
gewohnt die Linearfaktoren zu den beiden bekannten Nullstellen abspalten. Die Vorge-
hensweise mit zweimal Horner-Schema erfordert allerdings relativ viel Arithmetik mit
komplexen Zahlen, die sich durch einen Trick vermeiden lässt. Der Trick besteht da-
rin, zuerst die beiden Linearfaktoren zusammenzufassen und anschließend ihr Produkt
mittels Polynomdivision vom gegebenen Polynom abzuspalten.

Beispiel 2.16 Vom Polynom

f (z) = z 4 − 6z 3 + 17z 2 − 38z − 10

sei die komplexe Nullstelle z1 = 1 + 3j bekannt. Wie erläutert ist dann auch z2 = z1 =
1 − 3j eine Nullstelle. Die übrigen Nullstellen sollen berechnet werden.
Rechenweg 1: Wir spalten nacheinander die beiden Nullstellen mit dem Horner-Schema
ab:
1 −6 17 −38 −10
1 + 3j 1 + 3j −14 − 12j 39 − 3j 10
1 −5 + 3j 3 − 12j 1 − 3j 0
1 − 3j 1 − 3j −4 + 12j −1 + 3j
1 −4 −1 0

Rechenweg 2: Wir fassen zunächst die beiden Linearfaktoren zusammen:

(z − z1 )(z − z2 ) = (z − 1 − 3j)(z − 1 + 3j) = ((z − 1) − 3j)((z − 1) + 3j)


= (z − 1)2 − (3j)2 = z 2 − 2z + 1 + 9 = z 2 − 2z + 10,

und alsdann wird das Produktpolynom mittels Polynomdivision vom ursprünglichen Po-
lynom abgespalten:

64
2.9 Nullstellen von Polynomen

Tabelle 2.1: Verschiedene Situationen bei Nullstellen von Polynomen.

Koeffi- gesuchte Grad Anzahl Nullstellen Besonderheit


zienten Nullstellen
reell reell gerade höchstens n eventuell gar keine
reell reell ungerade höchstens n mindestens eine
reell komplex egal genau n (einschließlich nicht-reelle Nullstellen
Vielfachheit) nur in konjugiert-
komplexen Paaren
komplex komplex egal genau n (einschließlich —
Vielfachheit)

1 −6 17 −38 −10 : 1 −2 10 = 1 −4 −1 Rest 0


1 −2 10
−4 7 −38
−4 8 −40
−1 2 −10
−1 2 −10
0

In beiden Fällen erhalten wir die Zerlegung

f (z) = (z − 1 − 3j)(z − 1 + 3j)(z 2 − 4z − 1),

und mit der Mitternachtsformel ergeben sich die beiden fehlenden Nullstellen gemäß
p √
4± 42 − 4 · 1 · (−1) 4 ± 20 √
z3,4 = = = 2 ± 5.
2 2
Sie können jetzt aus
der Probeklausur 2021
Der Vorteil der zweiten Rechenmethode besteht darin, dass das (vergleichsweise aufwän- die Aufgabe 2 bearbei-
dige) Rechnen mit komplexen Zahlen auf ein Minimum reduziert wird. // ten.

Satz 2.15 besagt insbesondere, dass nicht-reelle Nullstellen reeller Polynome stets in
Paaren auftreten. Falls der Polynomgrad n ungerade ist, muss am Ende zwangsläufig
(mindestens) eine reelle Nullstelle übrig bleiben:

Satz 2.17 Ein reelles Polynom von ungeradem Grad hat mindestens eine reelle Nullstelle.

Alle Situationen im Zusammenhang mit Nullstellen von Polynomen sind nochmals in


Tabelle 2.1 zusammengefasst.

65
2 Komplexe Zahlen

Nullstellen von Polynomen im Komplexen


Generelles Vorgehen wie im Reellen (Kasten Seite 19), mit folgenden Unterschieden:

• Jedes Polynom zerfällt in Linearfaktoren.

• Mitternachtsformel hat immer eine oder zwei Lösungen, ggfs. mit komplexer
Wurzel rechnen.

• Reelles Polynom mit komplexer Nullstelle: Zusätzlich konjugiert-komplexe


Nullstelle.

• Reelles Polynom, Grad ungerade: Mindestens eine reelle Nullstelle.

2.10 Anwendungen
2.10.1 Darstellung harmonischer Schwingungen im Zeigerdiagramm
Wir betrachten nochmals eine sich mit der Zeit t sinusförmig verändernde Größe (Schwin-
gung)

y(t) = A · sin(ωt + ϕ).

Wie erinnerlich haben die Größen A, ω und ϕ folgende Bedeutung:


A: Schwingungsamplitude (in der Regel A > 0);

ω: Kreisfrequenz (ω > 0), sie steht mit der Frequenz f im Zusammenhang ω = 2πf ;

ϕ: Phase.
Eine solche harmonische Schwingung lässt sich in einem sogenannten Zeigerdiagramm
durch einen mit der Winkelgeschwindigkeit ω im Gegenuhrzeigersinn um den Nullpunkt
rotierenden Zeiger der Länge A, der zum Zeitpunkt t = 0 mit der positiven x-Achse
den Winkel ϕ bildet, anschaulich darstellen. Der Richtungswinkel des Zeigers zur Zeit t
beträgt dabei ωt+ϕ. Somit lautet die y-Koordinate der Zeigerspitze zu diesem Zeitpunkt

A · sin(ωt + ϕ),

und das ist gerade der Funktionswert, siehe auch Abbildung 2.4.
Wir deuten nun die Ebene als die Gaußsche Zahlenebene und beschreiben die augen-
blickliche Lage des Zeigers durch die zeitabhängige komplexe Zahl

y(t) = A · cos(ωt + ϕ) + j sin(ωt + ϕ) = A · ej(ωt+ϕ) = |A {z
· ejϕ} · ejωt = A · ejωt ,
A

wobei hier, wie häufig in technischen Anwendungen, komplexe Werte der Übersicht halber
unterstrichen sind.

66
2.10 Anwendungen

Abbildung 2.4: Harmonische Schwingung f (t) = 3 sin(2t + π/4) als Zeigerdiagramm.

Der Term A = A · ejϕ ist zeitunabhängig, wir nennen ihn komplexe Amplitude. Der
zeitabhängige Faktor ejωt hingegen hängt nicht von der Amplitude oder der Phase ab,
nur von der Kreisfrequenz. Die komplexe Amplitude besitzt den Betrag |A| = A und das
Argument ϕ, legt also genau die Anfangsposition des Zeigers fest.

Übung 2.18 Bestimmen Sie die komplexe Amplitude der Schwingung


1 1 1 
y(t) = − sin t + π .
3 2 4

Zu Übung 2.18:

2.10.2 Überlagerung gleichfrequenter Schwingungen


Ein häufig auftretendes Problem in Anwendungen besteht darin, dass zwei (oder mehr)
harmonische Schwingungen überlagert werden müssen. Gegeben seien also zwei Schwin-
gungen:
y1 (t) = A1 · sin(ω1 t + ϕ1 ), y2 (t) = A2 · sin(ω2 t + ϕ2 ).

67
2 Komplexe Zahlen

Wir stellen diese als komplexe Zeiger dar, wie in Abschnitt 2.10.1 beschrieben:

y 1 (t) = A1 · ejω1 t , A1 = A1 ejϕ1 ,


y 2 (t) = A2 · ejω2 t , A2 = A2 ejϕ2 .

Für die Überlagerung ergibt sich jetzt:

y(t) = y 1 (t) + y 2 (t) = A1 · ejω1 t + A2 · ejω2 t .

Im Allgemeinen lässt sich dies nicht weiter vereinfachen. Falls allerdings beide Schwin-
gungen dieselbe Frequenz haben (sogenannte gleichfrequente Schwingungen), also ω1 =
ω2 = ω so ist der zeitabhängige Term derselbe und kann ausgeklammert werden:

y(t) = (A1 + A2 ) · ejωt = A · ejωt

mit

A = A1 + A2 .

Die komplexe Amplitude der Gesamtschwingung ergibt sich also einfach durch Addition
der beiden gegebenen komplexen Amplituden. Die reelle Gesamtschwingung entspricht
jetzt wieder dem Imaginärteil:

y(t) = ℑy(t) = ℑ(A · ejωt ) = A · sin(ωt + ϕ).

Es ergibt sich also wiederum eine harmonische Schwingung mit derselben Frequenz. Dies
ist somit die Auflösung zu Einschätzungsfrage 1.41.
Die Berechnung ist dabei denkbar einfach: Es werden die komplexen Amplituden der
Einzelschwingungen y1 und y2 , also ihre Anfangsposition, im Zeigerdiagramm dargestellt
und dann addiert. Dies kann ggfs. sogar zeichnerisch erfolgen. Der zeitabhängige Anteil
ejωt wird dabei überhaupt nicht benötigt.

Beispiel 2.19 Es sollen die Schwingungen


√   π
y1 (t) = sin(2t) und y2 (t) = 3 + 1 sin 2t +
3
überlagert werden.
Die komplexen Amplituden sind

A1 = 1 · e0j = 1,
√ √
√  πj/3 √  1 1√  3+1 3+ 3
A2 = 3+1 ·e = 3+1 · +j 3 = + j.
2 2 2 2
Die komplexe Gesamtamplitude ist somit
√ √
3+3 3+ 3
A = A1 + A2 = + j.
2 2

68
2.10 Anwendungen

ℑz

2
A
+
1
A
2
A
1

A1 ℜz

1 2

Abbildung 2.5: Geometrische Überlagerung der gleichfrequenten Schwingungen aus Bei-


spiel 2.19.

Diese Zahl muss in Polarform umgewandelt werden. Es ergibt sich


q

A = 6 + 3 3eπj/4 ,

somit hat die (reelle) Überlagerung die Darstellung


q
√  π  π
y(t) = 6 + 3 3 sin 2t + = 3.34607 sin 2t + .
4 4
Die geometrische Bestimmung der Überlagerung ist in Abbildung 2.5 gezeigt. //
Die Methode funktioniert genauso auch für drei oder mehr Schwingungen. Die Rück-
transformation muss auch dann nur ein einziges Mal durchgeführt werden.
Liegen die gegebenen Einzelschwingungen als Kosinusschwingungen vor, also

y1 (t) = A1 · cos(ωt + ϕ1 ), y2 (t) = A2 · cos(ωt + ϕ2 ),

so gibt es zwei mögliche Vorgehensweisen:

• Entweder man transformiert die beiden Schwingungen zunächst in Sinusschwingun-


gen, vermöge der Gleichung
 1 
cos(x) = sin x + π .
2

• Oder man belässt es bei Kosinusschwingungen, dann muss man allerdings bei der
Rücktransformation statt des Imaginärteils den Realteil bilden.

69
2 Komplexe Zahlen

Überlagerung gleichfrequenter Schwingungen

Gegeben: y1 (t) = A1 · sin(ωt + ϕ1 ), y2 (t) = A2 · sin(ωt + ϕ2 ).


Gesucht: y(t) = y1 (t) + y2 (t) = A · sin(ωt + ϕ).

Berechnung:

1. Berechnung der komplexen Amplituden:

A1 = A1 eϕ1 j , A2 = A2 eϕ2 j .

2. Überlagerung:

A = A1 + A2 .

3. Rücktransformation: Umrechnung von kartesischer Form in Polarform

A = Aeϕj .

4. Ergebnis:

y(t) = A · sin(ωt + ϕ)

mit den eben berechneten Werten A und ϕ.

70
3 Lineare Gleichungssysteme und lineare
Algebra

3.1 Einleitung
Das Lösen linearer Gleichungssysteme ist eine der Hauptaufgaben der Mathematik in
technischen Anwendungen. Folgende Fragestellungen führen beispielsweise auf lineare
Gleichungssysteme:

• Schnittmengenberechnung von Geraden und/oder Ebenen im Raum;

• Berechnen von Strömen und Spannungen in elektrischen Netzwerken mit „Querver-


bindungen“ wie dem folgenden:

R2 R5
R3
R1 R4

• Bestimmung von Auflagerkräften in einer Auflagerreaktion (siehe Beispiel 3.1 un-


ten).

Darüber hinaus führen viele numerische Verfahren zum Lösen von Differenzialgleichun-
gen auf (in der Regel sehr große) lineare Gleichungssysteme. Numerische Verfahren sind
erforderlich, wenn die Differenzialgleichungen zu kompliziert sind, um eine analytische
Lösung zuzulassen (zum Beispiel im Falle einer komplizierten Geometrie). Beispiele für
Fragestellungen, die auf Differenzialgleichungen führen, sind:

• Berechnung von Temperaturverteilungen in Bauteilen oder Hohlräumen;

• Berechnung von Flüssigkeits- oder Gasströmungen;

• Berechnung von Bewegungskurven (Wurfgeschosse, Planeten, . . . ).

Beispiel 3.1 Ein Bauteil mit einem Gelenk ist an vier Stellen mit sogenannten Loslagern
gelagert (siehe Abbildung 3.1). Am Gelenk wirkt eine Kraft F1 = 10 N. Es soll berechnet
werden, welche Lagerkräfte an den einzelnen Lagern auftreten.

71
3 Lineare Gleichungssysteme und lineare Algebra

B
F1

Abbildung 3.1: Ein Bauteil mit einem Gelenk, das mit vier Loslagern gelagert wird.

Eine Möglichkeit hierfür besteht daran, mit Hilfe der unbekannten Kräfte für jedes
Lager sowie beide Seiten des Gelenks die Bilanzgleichung des Drehmoments zu bilden.
Die unbekannten Kräfte, jeweils in Druck-Richtung orientiert, mögen mit FA , FB , FC
und FD bezeichnet werden, dann ergeben sich folgende Gleichungen:

Drehmoment in A: 2FB − 3FC − 3FD = −20,


Drehmoment in B: FA − FC − 2FD = −10,
Drehmoment in C: 4FA − FB + FD = 20,
Drehmoment in D: 3FA + 3FB − 4FC = 10,
Gelenk links: 2FA + FB = 0,
Gelenk rechts: −2FC − FD = 0.

Dies ist ein lineares Gleichungssystem mit sechs Gleichungen und vier Unbekannten. //

3.2 Lineare Gleichungssysteme zum Ersten

Ein lineares Gleichungssystem besteht aus einer Anzahl Gleichungen mit einer Anzahl
Unbekannten, wobei in jeder Gleichung die Unbekannten nur linear vorkommen, das
heißt die Gleichungen haben die Form

Zahl · Unbekannte + Zahl · Unbekannte + · · · = Zahl.

In vielen Anwendungen stimmt die Anzahl der Gleichungen mit der Anzahl der Un-
bekannten überein (sogenanntes quadratisches lineares Gleichungssystem), aber das ist
keineswegs erforderlich.

72
3.2 Lineare Gleichungssysteme zum Ersten

Die allgemeine Form eines linearen Gleichungssystems lautet somit wie folgt:

a11 x1 + a12 x2 + a13 x3 + · · · + a1n xn = b1 ,


a21 x1 + a22 x2 + a23 x3 + · · · + a2n xn = b2 ,
a31 x1 + a32 x2 + a33 x3 + · · · + a3n xn = b3
.. .. .. .. ..
. . . . .
am1 x1 + am2 x2 + am3 x3 + · · · + amn xn = bm .

Die aij heißen Koeffizienten, die xi Unbekannte, die bi Störterme oder rechte Seite. Übli-
cherweise sind die Koeffizienten und die Störterme reelle oder komplexe Zahlen, und man
sucht Lösungen ebenfalls in der Menge der reellen beziehungsweise komplexen Zahlen.
Für weite Teile dieses Kapitels beschränken wir uns auf den Fall reeller Zahlen. Linea-
re Gleichungssysteme mit komplexen Zahlen werden jedoch auf genau dieselbe Weise
behandelt, es sind halt dabei stets die Rechenregeln für komplexe Zahlen anzuwenden.
Sind alle Störterme null, so spricht man von einem homogenen linearen Gleichungssys-
tem, andernfalls von einem inhomogenen.

Einschätzungsfrage 3.2 Bei einem gegebenen linearen Gleichungssystem interessiert man


sich typischerweise für die Lösung, das heißt, man möchte die Unbekannten x1 , . . . , xn
so bestimmen, dass die Gleichungen alle zugleich erfüllt ist. Was schätzen Sie, welche
Situationen können dabei eintreten (Mehrfachauswahl)?
a) Unlösbar: Es gibt keine Möglichkeit, die Unbekannten so zu wählen, dass alle Glei-
chungen erfüllt sind.

b) Eindeutige Lösung: Jede der Unbekannten x1 , . . . , xn hat einen eindeutigen Zah-


lenwert.

c) Zwei Lösungen: Es gibt zwei Möglichkeiten, die Unbekannten so zu wählen, dass


alle Gleichungen erfüllt sind (ähnlich wie bei quadratischen Gleichungen).

d) Unendlich viele Lösungen.


Auflösung folgt. //

Beispiel 3.3 Wir lösen das lineare Gleichungssystem aus Beispiel 3.1 mit folgenden Um-
formungen:

2FB − 3FC − 3FD = −20


FA − FC − 2FD = −10
4FA − FB + FD = 20 |III − 4II
3FA + 3FB − 4FC = 10 |IV − 3II
2FA + FB =0 |V − 2II
−2FC − FD = 0

73
3 Lineare Gleichungssysteme und lineare Algebra

2FB − 3FC − 3FD = −20 |I − 2V


FA − FC − 2FD = −10
−FB + 4FC + 9FD = 60 |III + V
+3FB − FC + 6FD = 40 |IV − 3V
FB + 2FC + 4FD = 20
−2FC − FD = 0

−7FC − 11FD = −60 |I − 11VI


FA − FC − 2FD = −10 |II − 2VI
6FC + 13FD = 80 |III + 13VI
−7FC − 6FD = −20 |IV − 6VI
FB + 2FC + 4FD = 20 |V + 4VI
−2FC − FD = 0
1
15FC = −60 | · 15
FA + 3FC = −10
1
−20FC = 80 | · (− 20 )
1
5FC = −20 | · 5
FB − 6FC = 20
−2FC − FD = 0 | · (−1)

FC = −4
FA + 3FC = −10 |II − 3I
FC = −4 |III − I
FC = −4 |IV − I
FB − 6FC = 20 |V + 6I
2FC + FD = 0 |VI − 2I

FC = −4
FA =2
0 =0
0 =0
FB = −4
FD = 8

Dieselbe Lösung erhalten wir auch mit maxima:

linsolve([2*FB-3*FC-3*FD=-20,\
FA-FC-2*FD=-10,\
4*FA-FB+FD=20,\

74
3.3 Vektoren

3*FA+3*FB-4*FC=10,\
2*FA+FB=0,\
-2*FC-FD=0],\
[FA,FB,FC,FD]);
Wir stellen fest:
• Wir erhalten genau eine Lösung: FA = 2, FB = −4, FC = −4, FD = 8.
• Während des Lösungsvorgangs ist das Mitschreiben der Variablennamen und der
Gleichheitszeichen völlig unbedeutend, man könnte es genauso gut weglassen.
Außerdem würden wir beim Angeben der Lösung gerne alle Komponenten zusammen-
fassen und sagen, die Lösung sei
 
2
−4
F~ = 
−4 .

Dazu definieren wir den Begriff des Vektors. //

3.3 Vektoren
3.3.1 Begriff
Aus der Vektorrechnung in der Ebene und im Raum ist die Darstellung von Vektoren
als Zusammenfassung („Tupel“) von zwei beziehungsweise drei Zahlen, die typischerweise
als Spaltenvektoren geschrieben werden, bekannt. Wie gerade gesehen, kommen in vielen
Anwendungen auch mehr als drei Zahlen vor, die in irgendeiner Weise als eine „Einheit“
angesehen werden sollen. Es ist daher sinnvoll, den Begriff entsprechend zu erweitern:

Definition 3.4 Ein n-dimensionaler Vektor ist eine Zusammenfassung aus n reellen Zah-
len. Sie werden in der Regel als Spaltenvektor untereinander geschrieben und mit Klam-
mern gruppiert:
 
a1
 a2 
 
~a =  .  .
 .. 
an
Alternativ ist die Darstellung als Zeilenvektor möglich:

~a = (a1 , a2 , . . . , an ).

Die einzelnen Zahlen werden Komponenten des Vektors genannt. Die Menge aller n-
dimensionalen Vektoren wird als Rn (oder Cn , wenn komplexe Zahlen zugelassen sind)
bezeichnet.

75
3 Lineare Gleichungssysteme und lineare Algebra

Anmerkungen:
• Die Reihenfolge der Komponenten ist entscheidend: Die Vektoren
   
0 2
und
2 0
sind verschieden.

• Im Zusammenhang mit Matrizenrechnung ist es meistens sinnvoll, Zeilen- und Spal-


tenvektoren als etwas Verschiedenes anzusehen, so dass also etwa
 
0
und (0, 2)
2
nicht dasselbe sind. In ganz bestimmten Zusammenhängen allerdings ist es wieder-
um zweckmäßig, von dieser Unterscheidung abzusehen.

• Für n = 2 und n = 3 können wie gewohnt die Ebene und der Raum als Anschauung
dienen, für n ≥ 4 gibt es keine analoge Anschauung.

3.3.2 Rechenoperationen für Vektoren


Für Vektoren sind folgende Rechenoperationen erklärt:
• Zwei Vektoren gleicher Dimension können addiert oder subtrahiert werden, dies
erfolgt komponentenweise:
           
1 2 3 1 2 −1
 3   1  4 3 1 2
  +  =  ,  −   =  .
−2  6  4 −2  6  −8
7 −1 6 7 −1 8

• Ein Vektor kann mit einer Zahl multipliziert werden (skalare Multiplikation), dies
geschieht ebenfalls komponentenweise:
   
1 −2.5
 3   −7.5 
(−2.5) · 
−2 =  5  .
  

7 −17.5

• Aus zwei Vektoren gleicher Dimension kann man das Skalarprodukt bilden, indem
man die einander entsprechenden Komponenten miteinander multipliziert und dies
über alle Komponenten aufsummiert:
   
1 2
3 1
  ·   = 1 · 2 + 3 · 1 − 2 · 6 + 7 · (−1) = 2 + 3 − 12 − 7 = −14.
−2  6 
7 −1

76
3.3 Vektoren

• Der Betrag eines Vektors wird gebildet, indem die Komponenten quadriert und die
Quadrate addiert werden und aus dem Ergebnis die Wurzel gezogen wird:
 
1
3 p √ √
  = 12 + 32 + (−2)2 + 72 = 1 + 9 + 4 + 49 = 63.
−2
7

Somit gilt offenbar folgende Beziehung zwischen Betrag und Skalarprodukt:



|~a| = ~a · ~a.

Ein weiterer Zusammenhang bezieht den Winkel α zwischen zwei Vektoren ~a und
~b ein:

~a · ~b = |~a| · |~b| · cos α

Diese Regel lässt sich in praktischen Anwendungen zur Berechnung des Winkels
verwenden. Außerdem hat sie die Konsequenz, dass

~a · ~b = 0 genau dann, wenn ~a ⊥ ~b.

Übung 3.5 Für die Vektoren ~a = (−1, 2, −2) und ~b = (1, 4, −1) berechnen Sie bitte

~a + ~b, ~a − ~b, 3 · ~a, ~a · ~b, |~a|

sowie den Winkel zwischen ~a und ~b.


Zu Übung 3.5:

77
3 Lineare Gleichungssysteme und lineare Algebra

3.3.3 Spezielle Vektoren


Eine besondere Rolle spielt manchmal der Vektor, dessen Komponenten sämtlich Nullen
sind, er wird Nullvektor genannt:
 
0
0
~0 =  
 ..  .
.
0
Weitere Vektoren, die häufig benötigt werden, sind diejenigen, deren Komponenten eine
Eins und sonst Nullen sind. Sie heißen kanonische Einheitsvektoren 1 und werden mit
~e1 , ~e2 , . . . , ~en bezeichnet:
     
1 0 0
0 1 0
     
~e1 = 0 , ~e2 = 0 , ~en = 0 .
     
. . .,
 ..   ..   .. 
. . .
0 0 1
Jeder Vektor lässt sich in trivialer Weise als sogenannte Linearkombination der kanoni-
schen Einheitsvektoren darstellen:
 
1
3
  = 1~e1 + 3~e2 − 2~e3 + 7~e4 .
−2
7

3.3.4 Spezielle Rechenoperation für dreidimensionale Vektoren: Das


Kreuzprodukt
Nur im R3 existiert neben dem Skalarprodukt noch eine andere Art von Produkt, nämlich
das Vektorprodukt, auch Kreuzprodukt genannt. Es berechnet sich gemäß der Vorschrift
     
a1 b1 a 2 b3 − a 3 b2
~a × ~b = a2  × b2  = a3 b1 − a1 b3 
a3 b3 a 1 b2 − a 2 b1
und hat folgende Eigenschaften:
• |~a × ~b| ist der Flächeninhalt des von ~a und ~b aufgespannten Parallelogramms, was
in Formeln bedeutet

|~a × ~b| = |~a| · |~b| · sin α,

wobei α der Winkel zwischen ~a und ~b ist.


1
Manche Autoren sprechen auch einfach von Einheitsvektoren, was aber zu Missverständnissen führen
kann, weil hiermit bisweilen auch beliebige Vektoren mit Betrag 1 gemeint sein können.

78
3.4 Lineare Gleichungssysteme zum Zweiten

• ~a × ~b ist genau dann null, wenn ~a und ~b parallel verlaufen.

• ~a × ~b ist stets senkrecht zu ~a und ~b (also (~a × ~b) · ~a = 0 und (~a × ~b) · ~b = 0),
und die Vektoren ~a, ~b und ~a × ~b bilden (in dieser Reihenfolge) ein rechtshändiges
Koordinatensystem.

• Das Vektorprodukt ist antikommutativ, das heißt es gilt die Rechenregel

~a × ~b = −~b × ~a.

• Das Vektorprodukt ist nicht assoziativ, das heißt im Allgemeinen ist

(~a × ~b) × ~c 6= ~a × (~b × ~c),

obwohl hier natürlich, wie immer, für bestimmte Vektoren „zufällig“ Gleichheit
gelten kann.
Physikalische und technische Anwendungen des Vektorprodukts sind zum Beispiel das
Drehmoment, der Drehimpuls und die Lorentzkraft.

3.4 Lineare Gleichungssysteme zum Zweiten


Beispiel 3.6 Wir betrachten folgendes lineare Gleichungssystem:

x1 + 2x2 + 2x3 = 5,
−x1 − 3x2 + x3 = 1,
2x1 + 5x2 + x3 = 2.

Wir beginnen umzuformen, wobei wir jetzt die überflüssigen Symbole nicht mitschreiben:

1 2 2 5
−1 −3 1 1 |II + I
2 5 1 2 |III − 2I
1 2 2 5 |I − 2III
0 −1 3 6 |II + III
0 1 −3 −8
1 0 8 21
0 0 0 −2
0 1 −3 −8

An dieser Stelle kommen wir nicht weiter. Die (umgeformte) zweite Gleichung besagt
offenbar „0 = −2“, und das ist nicht lösbar. Wir stellen also fest:
• Es kann vorkommen, dass ein lineares Gleichungssystem nicht lösbar ist. Man er-
kennt das daran, dass in einer Zeile auf der linken Seite nur noch Nullen stehen,
die rechte Seite aber 6= 0 ist.

79
3 Lineare Gleichungssysteme und lineare Algebra

Auch hier erhält man dasselbe Ergebnis mit maxima:

linsolve([x1+2*x2+2*x3=5,-x1-3*x2+x3=1,2*x1+5*x2+x3=2],[x1,x2,x3]);

//

Beispiel 3.7 Wir betrachten folgendes lineare Gleichungssystem, das wir gleich zu lösen
versuchen:

1 2 −1 0 −3
2 5 3 1 2 |II − 2I
3 7 2 1 −1 |III − 3I
4 9 1 1 −4 |IV − 4I
1 2 −1 0 −3 |I − 2II
0 1 5 1 8
0 1 5 1 8 |III − II
0 1 5 1 8 |IV − II
1 0 −11 −2 −19
0 1 5 1 8
0 0 0 0 0
0 0 0 0 0

Die beiden letzten Gleichungen kann man komplett weglassen. In den übrigen Gleichun-
gen ist es nicht mehr möglich, weitere Nullen zu erzeugen, ohne bereits vorhandene Nullen
wieder zu zerstören. Man kann diese Gleichungen aber nach x1 und x2 auflösen, so dass
diese Komponenten jeweils in Abhängigkeit von x3 und x4 dargestellt werden können:

x1 = −19 + 11x3 + 2x4 , x2 = 8 − 5x3 − x4 .

Man hat also unendlich viele Lösungen, denn man kann x3 und x4 frei wählen und dann
jeweils x1 und x2 daraus bestimmen. Um das in der Notation deutlicher kenntlich zu
machen, ist es oftmals üblich, für die frei zu wählenden Komponenten griechische Buch-
staben, zum Beispiel λ und µ, einzusetzen. Die allgemeine Lösung unseres Gleichungs-
systems lautet somit
       
−19 + 11λ + 2µ −19 11 2
 8 − 5λ − µ   8  −5 −1
~x =  =
  0  + λ 1  + µ 0 .
     (3.1)
 λ
µ 0 0 1

Dasselbe Ergebnis liefert auch wieder maxima:

linsolve([x1+2*x2-x3=-3,2*x1-x2+3*x3+x4=6,3*x1+x2+2*x3+x4=3,\
4*x1+3*x2+x3+x4=0],[x1,x2,x3,x4]);

80
3.4 Lineare Gleichungssysteme zum Zweiten

Beispiele für Lösungen erhält man, indem man für λ und µ beliebige Werte einsetzt, zum
Beispiel
   
−4 13
1 −7
λ = 1, µ = 2, ~x = 
1
 oder λ = 2, µ = 5, ~x = 
 2 .

2 5

Wir betrachten jetzt nochmals dasselbe lineare Gleichungssystem, fangen beim Erzeu-
gen von Nullen aber an einer anderen Stelle an:

1 2 −1 0 −3
2 5 3 1 2
3 7 2 1 −1 |III − II
4 9 1 1 −4 |IV − II
1 2 −1 0 −3
2 5 3 1 2 |II + 3I
1 2 −1 0 −3 |III − I
2 4 −2 0 −6 |IV − 2I
1 2 −1 0 −3 | · (−1)
5 11 0 1 −7
0 0 0 0 0
0 0 0 0 0
−1 −2 1 0 3
5 11 0 1 −7

Wir erhalten hieraus eine andere Darstellung derselben Lösungsmenge. //

Übung 3.8 Stellen Sie diese Darstellung auf, und machen Sie sich durch Einsetzen ge-
eigneter Werte für die frei wählbaren Komponenten klar, dass Sie dieselben Beispiele für
Lösungen wie oben erhalten können.

Einschätzungsfrage 3.9 Im obigen Beispiel ergeben sich zwar verschiedene Lösungsdar-


stellungen. Beide enthalten jedoch jeweils zwei Freiheitsgrade. Was schätzen Sie:
a) Es kann passieren, dass sich bei einem anderen Rechenweg auch die Anzahl der
Freiheitsgrade ändert.

b) Die Anzahl der Freiheitsgrade ist immer unabhängig vom Rechenweg.


Auflösung folgt. //
Das in allen drei Beispielen benutzte Verfahren wird als Gauß-Jordan-Verfahren be-
zeichnet.2 Es ermöglicht stets die Bestimmung der Lösungsmenge eines linearen Glei-
chungssystems. Die erlaubten Umformungen sind von folgenden drei Typen:
2
Das sogenannte Gauß-Verfahren ist eine Variante davon.

81
3 Lineare Gleichungssysteme und lineare Algebra

Zu Übung 3.8:

82
3.4 Lineare Gleichungssysteme zum Zweiten

1. Addition eines Vielfachen einer Zeile zu einer anderen Zeile;

2. Multiplikation einer Zeile mit einer Zahl 6= 0;

3. Vertauschung von zwei Zeilen (in den Beispielen nicht benutzt, manchmal aus kos-
metischen Gründen nützlich).

Diese Umformungen werden auch unter dem Begriff elementare Zeilenumformungen zu-
sammengefasst. Es handelt sich dabei um Äquivalenzumformungen, was bedeuten soll,
dass durch diese Umformungen die Lösungsmenge nicht verändert wird; dass also keine
Lösungen verschwinden oder hinzukommen.
Die Durchführung des Gauß-Jordan-Verfahrens lässt sich wie folgt beschreiben:

1. Forme so lange um, bis in einer Spalte nur noch eine Zahl 6= 0 ist.

2. Teile die entsprechende Zeile durch diese Zahl, so dass die Zahl zu 1 wird.

3. Fahre fort, indem in einer anderen Spalte alle Zahlen außer einer zu null gemacht
werden. Dabei dürfen jedoch die zuvor erzeugten Nullen nicht zerstört werden, und
die übrig bleibende Zahl muss in einer anderen Zeile stehen als vorher.

4. Teile wiederum durch die übrig gebliebene Zahl, so dass sie zu 1 wird.

5. Wiederhole das mit immer weiteren Spalten so lange wie möglich.

Dabei können zwischendurch folgende Dinge passieren:

1. Eine Zeile hat auf der linken Seite plötzlich nur noch Nullen, die rechte Seite ist
aber 6= 0. Dann ist das Gleichungssystem unlösbar, und man braucht nicht weiter-
zurechnen.

2. Eine Zeile hat plötzlich nur noch Nullen, einschließlich der rechten Seite. Dann kann
man diese Gleichung streichen und mit dem übrigen System weiterrechnen.

Am Ende können folgende Ergebnisse vorliegen:

1. Alle Spalten wurden auf die beschriebene Form gebracht (und die Einsen stehen
auch alle in verschiedenen Zeilen). Dann existiert eine eindeutige Lösung, und sie
kann direkt abgelesen werden.

2. Eine oder mehrere Spalten sind übrig geblieben. Dann gibt es unendlich viele Lö-
sungen. Die Komponenten, die den übrig gebliebenen Spalten entsprechen, können
frei gewählt werden (zum Beispiel griechische Buchstaben λ, µ, . . . ), die Gleichun-
gen können dann nach den anderen Komponenten aufgelöst werden.3

3
Haben zwei oder mehr Spalten, die für sich genommen in Einheitsform sind, die Einsen in derselben
Zeile, so kann im Sinne dieser Rechenmethode nur eine dieser Spalten als „in Einheitsform“ gezählt
werden, während die den anderen dieser Spalten entsprechenden Komponenten wiederum frei gewählt
werden können.

83
3 Lineare Gleichungssysteme und lineare Algebra

Gauß-Jordan-Verfahren
1. So weit wie möglich Nullen erzeugen.

2. Ist eine Zeile komplett null, so wird sie weggestrichen.

3. Ist eine Zeile links komplett null, rechts aber nicht, so ist das System unlösbar.

4. Gauß-Endform quadratisch (alle Spalten in Einheitsform, jede Zeile und jede


Spalte eine Eins): Eindeutige Lösung kann direkt abgelesen werden.

5. Gauß-Endform nicht-quadratisch (einige Spalten in Einheitsform, innerhalb


dieses Spalten jede Zeile und jede Spalte eine Eins, weitere beliebige Spalten):
Unendlich viele Lösungen; diejenigen Unbekannten, die den Spalten in Nicht-
Einheitsform entsprechen, können frei gewählt werden (griechische Buchsta-
ben), nach den anderen wird aufgelöst.

Hiermit ist die Einschätzungsfrage 3.2 auch geklärt: Die Möglichkeit, dass es genau
zwei Lösungen gibt, besteht nicht.
Anmerkung: Eine Methode, etwaige Rechenfehler beim Durchführen des Verfahrens
frühzeitig zu erkennen, besteht darin, dem Gleichungssystem neben der rechten Seite
noch eine zusätzliche Spalte, die sogenannte Prüfspalte hinzuzufügen. Die Einträge dieser
Spalte sind jeweils die Summe aller Zahlen der entsprechenden Zeile, einschließlich rechter
Seite. Beim Umformen wird diese Spalte genau wie alle anderen mitgeführt. Nach jedem
Umformungsschritt überprüft man dann, ob die Einträge in der Prüfspalte noch mit den
Zeilensummen übereinstimmt. Wenn nicht, liegt ein Rechenfehler vor.

Übung 3.10 Bei einem linearen Gleichungssystem ergibt sich nach einigen Umformungen
die folgende Form:

3 0 1 −3 0 4
0 1 0 0 0 2
Sie können jetzt aus 1 0 0 2 1 −1
der Probeklausur Som-
mer 2016 die Aufga- Weitere Nullen lassen sich nicht erzeugen. Entscheiden Sie, welche Lösungskomponenten
be 3 bearbeiten. frei gewählt werden müssen, und geben Sie die allgemeine Lösung in Vektorform an.

3.5 Motivation für die Werkzeuge der linearen Algebra


Mit dem Gauß-Jordan-Verfahren ist das Problem, die Lösungsmenge eines gegebenen
linearen Gleichungssystems zu bestimmen, vollständig gelöst. Es tauchen im Zusammen-
hang mit linearen Gleichungssystemen jedoch weiterführende Fragestellungen auf, die
der Gauß-Jordan-Algorithmus nicht beantworten kann. Für die Untersuchung dieser Fra-
gestellungen ist es erforderlich, weitere Begriffe und Formalismen einzuführen. Wie sich

84
3.5 Motivation für die Werkzeuge der linearen Algebra

Zu Übung 3.10:

später zeigen wird, können diese Dinge dann auch in anderen Teilgebieten der Mathema-
tik sehr nützlich angewandt werden, so etwa bei der Differenzialrechnung von Funktio-
nen mehrerer Argumente oder im Zusammenhang mit Differenzialgleichungen. In diesem
Abschnitt sollen einige der Fragestellungen kurz dargestellt werden, um die folgenden
Abschnitte zu motivieren.

3.5.1 Universelle Lösungsformeln

Von großer praktischer Bedeutung sind lineare Gleichungssysteme, die eine eindeutige
Lösung haben. Es stellen sich daher folgende Fragen:

• Gibt es eine einfache Möglichkeit festzustellen, ob ein gegebenes Gleichungssystem


eindeutig lösbar ist?

• Wenn ja, gibt es eine universelle Formel für die Lösung?

Wir wollen dies hier an dem Fall eines 2 × 2-Systems untersuchen. Das allgemeine
2 × 2-System hat offenbar folgende Form:

ax1 + bx2 = e,
cx1 + dx2 = f.

85
3 Lineare Gleichungssysteme und lineare Algebra

Wir lassen wiederum die überflüssigen Symbole weg und formen um:
a b e
c d f |aII − cI
a b e
1
0 ad − bc af − ce |· ad−bc
a b e |I − bII
af −ce
0 1 ad−bc
abf −bce
a 0 e − ad−bc |zusammenfassen
af −ce
0 1 ad−bc
ade−abf 1
a 0 ad−bc |· a
af −ce
0 1 ad−bc
de−bf
1 0 ad−bc
af −ce
0 1 ad−bc

Wir haben zweimal dividiert und müssen jeweils für den Fall, dass der Nenner null wird,
eine Spezialbetrachtung durchführen. Für a = 0 kann man zeigen, dass dies auf anderem
Weg zum selben Ergebnis führt, wir sparen uns das. Für ad − bc = 0 sieht man, dass
schon nach dem ersten Schritt auf der linken Seite eine Zeile wegfällt. Wir erhalten:
• Ist ad − bc = 0, so gibt es entweder unendlich viele Lösungen oder keine;

• ist ad − bc 6= 0, so gibt es eine eindeutige Lösung, und diese lautet


de − bf af − ce
x1 = , x2 = .
ad − bc ad − bc

Es fragt sich somit, ob es vergleichbare Formeln auch für größere Systeme gibt und, wenn
ja, ob sie einer Systematik folgen.
Es wird sich herausstellen, dass sich diese Frage mit Hilfe von Determinanten beant-
worten lässt, siehe Abschnitt 3.9.

3.5.2 Mehrere rechte Seiten


Beispiel 3.11 Ein kompliziert geformter Hörsaal mit mehreren Fenstern soll mit einer
Klimaanlage gekühlt werden. Man möchte wissen, wie sich die Temperaturverteilung in
dem Hörsaal mit der Zeit entwickelt; dies hängt von der Sonneneinstrahlung durch die
einzelnen Fenster sowie von Einstellungen der Klimaanlage ab.
Das Problem führt auf eine sogenannte partielle Differenzialgleichung. Auf Grund der
komplizierten Geometrie ist es nicht möglich, eine analytische Lösung hierfür herzuleiten.
Man muss sich mit Näherungslösungen zufrieden geben. Standard-Näherungsmethoden
für partielle Differenzialgleichungen (zum Beispiel Methode der Finiten Elemente) über-
führen das Problem in ein riesiges lineares Gleichungssystem (Anzahl der Unbekannten
und Gleichungen ca. 10 000–1 000 000 oder mehr).

86
3.5 Motivation für die Werkzeuge der linearen Algebra

Ein solches Gleichungssystem zu lösen, erfordert selbst für einen Computer sehr viel
Zeit. Nun möchte man aber nicht nur ein solches Problem lösen, sondern sehr viele,
weil man verschiedene Konfigurationen der Sonneneinstrahlungen und Einstellungen der
Klimaanlage überprüfen möchte. Zu jeder Konfiguration ergibt sich ein anderes lineares
Gleichungssystem, allerdings unterscheiden sich diese Systeme alle nur in ihrer rechten
Seite. //

Dieses Beispiel führt zu folgender Frage: Gibt es eine Möglichkeit, mehrere lineare Glei-
chungssysteme, die sich nur in den rechten Seiten unterscheiden, effizienter zu lösen?
Kann man vielleicht eine (eventuell aufwändigere) Vorberechnung durchführen, die es im
Ergebnis ermöglicht, für jede beliebige rechte Seite in kurzer Zeit die Lösung zu bestim-
men?
In der Tat ist eine solche Vorberechnung möglich, nämlich die sogenannte inverse
Matrix, siehe Abschnitt 3.8.

3.5.3 Eigenschaften von Lösungsmengen


Wenn ein lineares Gleichungssystem unendlich viele Lösungen besitzt, so können wir zwar
eine Parameterdarstellung angeben, jedoch haben wir auch schon gesehen (Beispiel 3.7),
dass diese Darstellung nicht eindeutig ist. Offen ist noch die Frage, ob zumindest die
Anzahl der Freiheitsgrade in der Lösung unabhängig vom Lösungsweg ist (vgl. Einschät-
zungsfrage 3.9). Diese Fragestellung werden wir in Abschnitt 3.7 untersuchen.
In Zusammenhang mit der Fragestellung aus Abschnitt 3.5.2 wäre auch interessant, wie
sich die Anzahl der Lösungen (0, 1 oder ∞) beziehungsweise die Anzahl der Freiheitsgrade
verändern, wenn man bei einem gegebenen Gleichungssystem die rechte Seite ändert.
Auch dies werden wir herausfinden.

3.5.4 Weitere Anwendungen der Linearen Algebra


Über das Umfeld linearer Gleichungssysteme hinaus werden die im Laufe des Kapitels
besprochenen Methoden und Konzepte noch weitere Anwendungen finden, so etwa:

• Umrechnen von Koordinaten in gegeneinander verdrehten Koordinatensystemen


(Abschnitt 3.10) (mögliche Anwendung: Positionsberechnung von Roboterarmen
mit mehreren Gelenken);

• Berechnung von Eigenfrequenzen für gekoppelte Schwingungssysteme (Eigenwerte,


Abschnitt 3.11);

• Bestimmung von Hauptspannungsrichtungen in der Festigkeitslehre (siehe dazu Ab-


schnitt 3.11.9).

Weitere Anwendungen ergeben sich außerdem später in anderen Zusammenhängen.

87
3 Lineare Gleichungssysteme und lineare Algebra

3.6 Matrizen
3.6.1 Einleitung
Für theoretische Untersuchungen ist es zweckmäßig, zunächst die Notation von linearen
Gleichungssystemen so weit wie möglich zu vereinfachen. Dabei ist es sicherlich sinnvoll,
die drei wesentlichen Bestandteile eines linearen Gleichungssystems, nämlich

• die Unbekannten,

• die Koeffizienten,

• die Störterme (rechte Seiten)

jeweils formal in einem algebraischen Objekt zusammenzufassen. Bei den Unbekannten


und den Störtermen bietet sich jeweils ein Vektor an. Für die Koeffizienten führen wir
ein neues Objekt ein:

Definition 3.12 Eine Matrix ist ein rechteckiges Zahlenschema der Form
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
A= . .. .. ..  ,
 .. . . . 
am1 am2 · · · amn

wobei aij ∈ R (oder C) für alle i, j. Ist wie in diesem Fall n die Anzahl der Spalten und
m die Anzahl der Zeilen, so spricht man von einer m × n-Matrix oder einer Matrix vom
Typ m × n. Die aij heißen Einträge (oder Komponenten oder Elemente) der Matrix.
Eine Matrix heißt quadratisch, falls die Anzahl der Zeilen gleich der Anzahl der Spalten
ist.

3.6.2 Spezielle Matrizen


Von jedem Typ gibt es eine Nullmatrix
 
0 0 ··· 0
0 0 · · · 0
 
0 = . . . ..  .
.
. . . . . .
0 0 ··· 0

Eine m × 1-Matrix, also eine Matrix mit nur einer Spalte, hat die Form
 
a11
 a21 
 
 .. 
 . 
am1

88
3.6 Matrizen

und ist dasselbe wie ein Spaltenvektor aus dem Rm . Analog ist eine 1 × n-Matrix, also
eine Matrix mit nur einer Zeile,

(a11 , a12 , . . . , a1n )

dasselbe wie ein Zeilenvektor.


Eine Diagonalmatrix ist eine quadratische Matrix, bei der außerhalb der sogenannten
Diagonalen nur Nullen stehen. Sie hat also die Form
 
a11 0 0 ··· 0
 0 a22 0 · · · 0 
 
 0 0 a · · · 0 
 33 .
 .. .. .. .. .. 
 . . . . . 
0 0 0 · · · ann
Eine Einheitsmatrix ist eine Diagonalmatrix, in der sämtliche Diagonalkomponenten Ein-
sen sind. Sie wird mit En bezeichnet, wobei n die Anzahl der Zeilen (beziehungsweise
Spalten) angibt:
 
1 0 0 ··· 0
0 1 0 · · · 0
 
En = 0 0 1 · · · 0 .
 
 .. .. .. . . .. 
. . . . .
0 0 0 ··· 1
Eine obere Dreiecksmatrix ist eine quadratische Matrix, bei der unterhalb der Diagonalen
nur Nullen stehen, also von der Form
 
a11 a12 a13 · · · a1n
 0 a22 a23 · · · a2n 
 
 0 0 a · · · a 
 33 3n .
 .. .. .. . . .
. 
 . . . . . 
0 0 0 · · · ann
Sie wird auch rechte Dreiecksmatrix genannt. Analog ist eine untere oder linke Dreiecks-
matrix eine quadratische Matrix, bei der oberhalb der Diagonalen nur Nullen stehen.

3.6.3 Rechenoperationen für Matrizen


Zwei Matrizen vom selben Typ werden komponentenweise addiert oder subtrahiert, zum
Beispiel:
     
1 3 −1 2 −1 −2 3 2 −3
+ = ,
2 1 6 6 2 −3 8 3 3
     
1 3 −1 2 −1 −2 −1 4 1
− = .
2 1 6 6 2 −3 −4 −1 9

89
3 Lineare Gleichungssysteme und lineare Algebra

Matrixmultiplikation

C =A·B

 
b11 b12 b13 b14 b15
 

4
 

c1
 

=
 b21 b22 b23 b24 b25 

+ b14
·
 

1
 
a1

+ b24
 
 b31 b32 b33 b34 b35 

2 ·
a1
 

+ b34
 

3 ·
b41 b42 b43 b44 b45
a1

44
·b
4
a1
   
a11 a12 a13 a14 c11 c12 c13 c14 c15
   
   
   
 a21 a22 a23 a24   c21 c22 c23 c24 c25 
   
   
a31 a32 a33 a34 c31 c32 c33 c34 c35

Eine Matrix kann mit einer Zahl multipliziert werden; das erfolgt ebenfalls komponen-
tenweise, zum Beispiel:
   
1 3 −1 −3 −9 3
(−3) · = .
2 1 6 −6 −3 −18

Darüber hinaus ist für Matrizen eine Multiplikation erklärt, die jedoch anders funk-
tioniert, als man zunächst denken könnte. Damit zwei Matrizen überhaupt miteinander
multipliziert werden können, müssen sie in einem gewissen Sinne zueinander passen.
Während jedoch zum Beispiel für die Addition das Zueinander-Passen darin besteht,
dass beide Matrizen vom gleichen Typ sind, ist die Situation bei der Multiplikation et-
was komplizierter: Man kann das Produkt A · B bilden, wenn die Anzahl der Spalten von
A gleich der Anzahl der Zeilen von B ist. Das heißt also dass A eine m × n-Matrix und
B eine n × p-Matrix ist. Das Produkt A · B ist dann eine m × p-Matrix. Der Eintrag
(A · B)ik bestimmt sich durch die Summe

ai1 b1k + ai2 b2k + · · · + ain bnk .

Merke: Zeile mal Spalte.

90
3.6 Matrizen

Beispiel 3.13
 
  2 3 1 0  
1 3 −1  −6 −5 4 15
· −1 −2 0 3 = .
2 1 6 33 16 −16 −33
5 2 −3 −6

In diesem Fall ergibt sich zum Beispiel die 15 oben rechts durch Multiplikation der oberen
Zeile der ersten Matrix mit der rechten Spalte der zweiten Matrix:

1 · 0 + 3 · 3 + (−1) · (−6) = 15.

Diese Multiplikation ist offenbar auch nur deswegen in dieser Form durchführbar, weil
man jeweils drei Elemente hat – weil also die Anzahl der Spalten der ersten Matrix gleich
der Anzahl der Zeilen der zweiten ist. //

Übung 3.14 Berechnen Sie


   
1 2 3 −2 0 3
4 3 5 · 0 3 −1 .
5 −1 −2 −5 −4 3

Zu Übung 3.14:

Der wesentliche Sinn dieser eigenartigen Definition liegt darin, dass man lineare Glei-
chungssysteme elegant in Matrixschreibweise schreiben kann. Dies ist der Schlüssel zu
den weiteren Untersuchungen, die für die eingangs formulierten Fragen erforderlich sind.

91
3 Lineare Gleichungssysteme und lineare Algebra

Beispiel 3.15 Das lineare Gleichungssystem

x1 + x2 = 4,
2x1 − x2 = −1

schreibt sich als

A · ~x = ~b

mit
     
1 1 x1 ~b = 4
A= , ~x = , .
2 −1 x2 −1

//

Analog kann man jedes lineare Gleichungssystem in der Form

A · ~x = ~b

schreiben.
Für das Rechnen mit Matrizen gelten alle Rechenregeln, die man sich vorstellen kann
(Assoziativ- und Distributivgesetze. . . ), mit folgenden zwei Ausnahmen:

1. Division durch Matrizen ist nicht definiert.4

2. Matrixmultiplikation ist im Allgemeinen nicht kommutativ, das heißt:

A · B 6= B · A.

In der Tat, wenn A · B erklärt ist, kann es ja sogar sein, dass B · A noch lange nicht
erklärt ist. Selbst wenn beide Produkte erklärt sind, müssen sie nicht gleich sein.

Darüber hinaus erfüllt die Einheitsmatrix En die Funktion der Zahl 1: Es gilt

A · En = A und En · A = A,

sofern die Produkte jeweils definiert sind.

3.6.4 Transponieren von Matrizen


Definition 3.16 Ist A eine m × n-Matrix, so versteht man unter der transponierten
Matrix, geschrieben als AT , diejenige n × m-Matrix, die entsteht, wenn man A an der
Hauptdiagonalen spiegelt.
4
Später werden wir das Konzept der inversen Matrix kennen lernen, mit dem in bestimmten Situationen
eine ähnliche Operation wie die Division erklärt ist.

92
3.7 Lineare Gleichungssysteme zum Dritten

Beispiel 3.17
 
 T 1 2
1 3 −1
=  3 1 .
2 1 6
−1 6

//

Definition 3.18 Eine quadratische Matrix A heißt symmetrisch, falls gilt

AT = A.

Beispiel 3.19 Die Matrix


 
1 2 4
2 −2 3
4 3 0

ist symmetrisch. //
Durch Transponieren kann ein Zeilenvektor in einen Spaltenvektor verwandelt werden,
und umgekehrt. Dies lässt sich bisweilen ausnutzen, um beim Schreiben von Spaltenvek-
toren Platz zu sparen.
Für das Rechnen mit transponieren Matrizen gelten insbesondere folgende Rechenre-
geln:

(λ · A)T = λ · AT ,
(A + B)T = AT + B T ,
(A − B)T = AT − B T ,
(A · B)T = B T · AT .

Bei der letzten Regel muss das Umkehren der Reihenfolge beachtet werden. Dies kann
man sich damit merken, dass das Transponieren den Typ der Matrix ändert, so dass
eventuell das Produkt AT · B T gar nicht mehr definiert ist.
Merke: Die Transponierte eines Produkts ist das Produkt der Transponieren
in der umgekehrten Reihenfolge.

3.7 Lineare Gleichungssysteme zum Dritten


Wir wissen bereits, dass ein lineares Gleichungssystem entweder keine Lösung, genau eine
Lösung oder unendlich viele Lösungen haben kann. Im Falle unendlich vieler Lösungen
erhält man eine Lösungsdarstellung mit einem oder mehreren Freiheitsgraden, jedoch ist
die Lösungsdarstellung nicht eindeutig. Wir wollen jetzt die Frage klären, ob zumindest
die Anzahl der Freiheitsgrade eindeutig ist (Einschätzungsfrage 3.9). In diesem Zusam-
menhang werden sich noch weitere Erkenntnisse über die Lösungsmenge ergeben.

93
3 Lineare Gleichungssysteme und lineare Algebra

3.7.1 Homogene lineare Gleichungssysteme – Rang und Dimension


Wir betrachten zunächst nur homogene lineare Gleichungssysteme, also solche, bei denen
die rechte Seite komplett null ist. Wir stellen zunächst fest, dass der Nullvektor dann
immer eine Lösung ist, so dass also die Situation, dass es gar keine Lösung gibt, nicht
auftreten kann:

Satz 3.20 Ein homogenes lineares Gleichungssystem hat entweder genau eine Lösung
oder unendlich viele.
Zum Lösen eines homogenen linearen Gleichungssystems kann man freilich den Gauß-
Jordan-Algorithmus, wie in den Abschnitten 3.2 und 3.4 gezeigt, verwenden; beim Um-
formen fallen möglicherweise einige Zeilen weg. Wir untersuchen nun die Gauß-Endform
eines solchen Gleichungssystems, um daraus Schlüsse zu ziehen auf die Anzahl der Frei-
heitsgrade.
Bekanntlich kann man diejenigen Lösungskomponenten frei wählen, die den Spalten
entsprechen, die nicht auf Einheitsform gebracht wurden, somit gilt:

Anzahl Spalten in Nicht-Einheitsform = Anzahl der Freiheitsgrade in der Lösung.

Da sich aber durch die Spalten, die in Einheitsform sind, insgesamt je eine Eins in jeder
Zeile ergibt, gilt für ein Gleichungssystem in Gauß-Endform:

Anzahl Spalten in Einheitsform = Anzahl Zeilen,

woraus sich ergibt:

Satz 3.21 In der Gauß-Endform eines homogenen linearen Gleichungssystems gilt:

Anzahl der Freiheitsgrade in der Lösung = Anzahl Spalten − Anzahl Zeilen.

Im Verlauf des Lösungsvorgangs können Zeilen wegfallen, daher gilt obige Gleichung
eben nur in der Gauß-Endform. Allerdings können im Verlauf des Lösungsvorgangs keine
Zeilen hinzukommen, insofern folgt:

Satz 3.22 Ein homogenes lineares Gleichungssystem mit weniger Gleichungen als Unbe-
kannten hat stets unendlich viele Lösungen. Die Anzahl der Freiheitsgrade ist mindestens
so groß wie die Differenz aus der Anzahl der Unbekannten und der Anzahl der Gleichun-
gen.

Beispiel 3.23 Das homogene lineare Gleichungssystem

2 4 −1 3 −2 0
5 −2 1 −2 3 0
1 −10 3 −8 −1 0

hat 3 Gleichungen und 5 Unbekannte. Weil 5 > 3 ist, hat das System unendlich viele
Lösungen, und zwar mit mindestens 5 − 3 = 2 Freiheitsgraden. //

94
3.7 Lineare Gleichungssysteme zum Dritten

Wie wir schon wissen, kann man bei Systemen mit unendlich vielen Lösungen – je nach-
dem wie man beim Umformen vorgeht – auf verschiedene Lösungsdarstellungen kommen.
Es ist wichtig sich klarzumachen, dass es sich dabei nicht um verschiedene Lösungsmen-
gen handelt, sondern lediglich um verschiedene Darstellungen derselben Lösungsmenge.
Die Lösungsmenge ist ja schließlich etwas, das durch das ursprüngliche Gleichungssystem
bereits feststeht; die Umformungen sind ja gerade so gemacht, dass sie die Lösungsmenge
nicht ändern. Daraus ergibt sich insbesondere, dass die Anzahl der Lösungen (1 oder ∞)
nicht vom Lösungsweg abhängen kann:

Satz 3.24 Die Eigenschaft eines homogenen linearen Gleichungssystems, entweder genau
eine Lösung oder unendlich viele Lösungen zu haben, hängt nicht vom Lösungsweg ab.
Dennoch bleibt weiterhin die Frage, ob die Anzahl der Freiheitsgrade vom Rechenweg
abhängt oder nicht. Da die Anzahl der Spalten eines linearen Gleichungssystems sowie-
so im Verlauf des Lösungsvorgangs unverändert bleibt, ist die Frage gemäß Satz 3.21
gleichbedeutend damit, ob die Anzahl der Zeilen in der Gauß-Endform vom Lösungsweg
abhängen kann oder nicht. Um dies zu klären, machen wir ein Gedankenexperiment:

Gedankenexperiment 3.25 Angenommen, wir haben ein homogenes lineares Gleichungs-


system – nennen wir es G1 – mit sieben Unbekannten und irgendeiner Anzahl Gleichun-
gen:
∗ ∗ ∗ ∗ ∗ ∗ ∗ 0
∗ ∗ ∗ ∗ ∗ ∗ ∗ 0
.. .. .. .. .. .. .. .. (G1 )
. . . . . . . .
∗ ∗ ∗ ∗ ∗ ∗ ∗ 0
Weiter angenommen, bei einem bestimmten Lösungsweg – nennen wir ihn Lösungs-
weg A – ergibt es sich so, dass in der Gauß-Endform vier Zeilen übrigbleiben. Dann
müssen also auch vier der sieben Spalten auf Einheitsform sein, zum Beispiel so:
∗ 0 1 ∗ 0 ∗ 0 0
∗ 0 0 ∗ 1 ∗ 0 0
(G1 → A)
∗ 1 0 ∗ 0 ∗ 0 0
∗ 0 0 ∗ 0 ∗ 1 0
In diesem Fall wären x1 , x4 und x6 die drei frei wählbaren Lösungskomponenten.
Jetzt sei weiter angenommen, bei einem anderen Lösungsweg – sagen wir Lösungs-
weg B – fällt eine Zeile mehr weg, so dass die Gauß-Endform dann nur noch drei Zeilen
hat und entsprechend auch nur drei Spalten in Einheitsform sind, zum Beispiel so:
∗ 1 ∗ ∗ 0 0 ∗ 0
∗ 0 ∗ ∗ 0 1 ∗ 0 (G1 → B)
∗ 0 ∗ ∗ 1 0 ∗ 0
Jetzt der entscheidende Gedanke: Wir nehmen jetzt das ursprüngliche Gleichungssys-
tem her und ergänzen es um drei Zeilen, die wir genau so machen, dass sie diejenigen

95
3 Lineare Gleichungssysteme und lineare Algebra

Komponenten, die nach Lösungsweg A frei wählbar waren, auf null festlegen; das neue
Gleichungssystem nennen wir G2 :

∗ ∗ ∗ ∗ ∗ ∗ ∗ 0
∗ ∗ ∗ ∗ ∗ ∗ ∗ 0
.. .. .. .. .. .. .. ..
. . . . . . . .
∗ ∗ ∗ ∗ ∗ ∗ ∗ 0 (G2 )
1 0 0 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 1 0 0

Auf dieses Gleichungssystem wenden wir jetzt genau die Umformungen an, aus denen
die Lösungswege A und B bestehen, wobei wir die drei neu hinzugefügten Zeilen einfach
unverändert mitschleppen. Das ist offenbar möglich und führt bei Lösungsweg A zu der
Form

∗ 0 1 ∗ 0 ∗ 0 0
∗ 0 0 ∗ 1 ∗ 0 0
∗ 1 0 ∗ 0 ∗ 0 0
∗ 0 0 ∗ 0 ∗ 1 0 (G2 → A)
1 0 0 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 1 0 0

und bei Lösungsweg B zu der Form

∗ 1 ∗ ∗ 0 0 ∗ 0
∗ 0 ∗ ∗ 0 1 ∗ 0
∗ 0 ∗ ∗ 1 0 ∗ 0
(G2 → B)
1 0 0 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 1 0 0

Die zusätzlich eingefügten Zeilen sind gerade so gemacht, dass man in (G2 → A) durch
entsprechende zusätzliche Umformungen die verbliebenen „∗“-Einträge zu Nullen machen
kann und so eine eindeutige Lösung erhält. In (G2 → B) hingegen können wir so nicht
argumentieren, da die zusätzlichen Einsen zum Teil an der falschen Stelle stehen. Jedoch
fällt ja nach Voraussetzung in Lösungsweg B eine Zeile mehr weg als in Lösungsweg A,
deswegen hat (G2 → A) nur noch sechs Gleichungen für die sieben Unbekannten, weswe-
gen es nach Satz 3.22 unendlich viele Lösungen haben muss.
Wir haben es somit jetzt mit der Situation zu tun, dass das Gleichungssystem G2
bei Lösungsweg A eine eindeutige Lösung hat, bei Lösungsweg B aber unendlich viele
Lösungen. Dies ist ein Widerspruch zu Satz 3.24. Die ursprüngliche Annahme, dass bei
verschiedenen Lösungswegen verschieden viele Zeilen wegfallen können, muss also falsch
sein.

96
3.7 Lineare Gleichungssysteme zum Dritten

Rang und Dimension

Rang (einer Matrix) = Anzahl der Zeilen in der Gauß-Endform,


Dimension (der Lösungsmenge eines lin. Gl.-Syst.) = Anzahl Freiheitsgrade.

Dabei gilt für lineare Gleichungssysteme:

Rang der Matrix + Dimension der Lösungsmenge = Anzahl der Unbekannten,

außer wenn das System unlösbar ist.

Das Gedankenexperiment funktioniert analog für alle homogenen linearen Gleichungssys-


teme, egal wie viele Gleichungen und Unbekannte ursprünglich beteiligt sind. Es ergibt
sich allgemein:

Satz 3.26 Die Anzahl der Zeilen in der Gauß-Endform eines homogenen linearen Glei-
chungssystems ist unabhängig vom benutzen Lösungsweg.

Ein homogenes lineares Gleichungssystem wird komplett durch seine Koeffizientenmatrix


beschrieben. Die Anzahl der Zeilen einer Matrix, die in der Gauß-Endform übrigbleiben,
nennt man den Rang der Matrix:

Definition 3.27 Der Rang einer Matrix ist die Anzahl der Zeilen, die übrig bleibt, wenn
man die Matrix (ohne rechte Seite) mit elementaren Zeilenumformungen auf Gauß-
Endform bringt.

Die Sätze 3.21 und 3.26 ergeben zusammen:

Satz 3.28 Die Anzahl der Freiheitsgrade in der Lösungsmenge eines homogenen linearen
Gleichungssystems ist unabhängig vom benutzen Lösungsweg.

Diese Anzahl nennt man die Dimension der Lösungsmenge. Für ein beliebiges homogenes
lineares Gleichungssystem gilt somit:

Rang der Koeffizientenmatrix + Dimension der Lösungsmenge = Anzahl Unbekannte.

Übung 3.29 Bestimmen Sie den Rang der Matrix


 
1 1 −4 −1 0
2 −3 0 −2 5.
5 0 −12 −5 5

97
3 Lineare Gleichungssysteme und lineare Algebra

Bestimmen Sie anschließend, wie viele Freiheitsgrade somit die Lösungsmenge des linea-
ren Gleichungssystems

x1 + x2 − 4x3 − x4 = 0,
2x1 − 3x2 − 2x4 + 5x5 = 0,
5x1 − 12x3 − 5x4 + 5x5 = 0

hat.
Zu Übung 3.29:

3.7.2 Inhomogene lineare Gleichungssysteme


Wir betrachten jetzt ein inhomogenes System

A~x = ~b,

seine Lösungsmenge heiße Li . Zusammen mit diesem System betrachten wir das zugehö-
rige homogene System

A~x = ~0

und bezeichnen seine Lösungsmenge mit Lh . Sie kann möglicherweise auf verschiedene
Weisen dargestellt werden, aber die Anzahl der Freiheitsgrade ist, wie wir jetzt wissen,
fest. Diese Anzahl heiße r.
Hat man jetzt je eine Lösung ~xi ∈ Li des inhomogenen und ~xh ∈ Lh des homogenen
Systems, so gilt für ihre Summe:

A(~xi + ~xh ) = A~xi + A~xh = ~b + ~0 = ~b,

98
3.7 Lineare Gleichungssysteme zum Dritten

also ist ~xi + ~xh ∈ Li . Das heißt, hat man eine Lösung eines inhomogenen Systems ge-
funden, so erhält man weitere Lösungen, indem man beliebige Lösungen des homogenen
Systems dazuaddiert. Es fragt sich, ob man auf diese Weise alle Lösungen des inhomoge-
nen Systems findet. Um dies zu untersuchen, nehmen wir an, ~xi2 sei eine weitere Lösung
des inhomogenen Systems, und wir fragen uns ob es ein ~xh ∈ Lh gibt mit ~xi + ~xh = ~xi2 .
Dazu müsste offenbar ~xh = ~xi2 − ~xi sein; die Frage ist, ob das in Lh liegt. Nun denn, es
ist
A~xh = A(~xi2 − ~xi ) = A~xi2 − A~xi = ~b − ~b = ~0,
also lautet die Antwort ja. Es gilt also:

Satz 3.30 Die allgemeine Lösung eines inhomogenen linearen Gleichungssystems ergibt
sich durch Addition einer beliebigen (sogenannten partikulären) Lösung des Systems und
der allgemeinen Lösung des zugehörigen homogenen Systems.
Insbesondere folgt daraus, dass jede Darstellung von Li stets r Freiheitsgrade haben
muss. Wir haben gefunden:

Satz und Definition 3.31 Sofern ein System A~x = ~b überhaupt lösbar ist, ist die Anzahl
der Freiheitsgrade in der Lösung dieselbe wie bei dem homogenen System A~x = ~0. Diese
Anzahl hängt insbesondere nicht von der rechten Seite ab. Auch hier sprechen wir von
der Dimension der Lösungsmenge.
Damit ist Einschätzungsfrage 3.9 beantwortet.
Zur Berechnung der Lösungsmenge ist Satz 3.30 nicht von Nutzen, da wir ja schon ein
universelles Verfahren haben. Das Prinzip, das durch Satz 3.30 dargestellt wird, wird uns
aber später bei Differenzialgleichungen wieder begegnen, und dort wird es dann für die
Berechnung von fundamentaler Bedeutung sein.
Die Eigenschaft, dass ein homogenes System mit weniger Gleichungen als Unbekannten
keine eindeutige Lösung haben kann (siehe Satz 3.22) überträgt sich somit auch auf
inhomogene Systeme – mit dem Unterschied, dass diese natürlich auch unlösbar sein
können:

Satz 3.32 Ein lineares Gleichungssystem mit weniger Gleichungen als Unbekannten ist
entweder unlösbar oder hat unendlich viele Lösungen. Im letzteren Fall ist die Anzahl der
Freiheitsgrade mindestens so groß wie die Differenz aus der Anzahl der Unbekannten und
der Anzahl der Gleichungen.

Übung 3.33 Was können wir ohne Rechnung über die Lösungsmenge des Gleichungssys-
tems
x1 + x2 − 4x3 − x4 = 2,
2x1 − 3x2 − 2x4 + 5x5 = −2,
5x1 − 12x3 − 5x4 + 5x5 = 3
sagen?

99
3 Lineare Gleichungssysteme und lineare Algebra

3.7.3 Quadratische lineare Gleichungssysteme


In diesem Abschnitt betrachten wir quadratische lineare Gleichungssysteme, also solche
mit gleich vielen Gleichungen wie Unbekannten. Solche Systeme treten in Anwendungen
besonders häufig auf.
Sei n die Anzahl der Gleichungen und Unbekannten, so hat man also eine Matrix
A ∈ Rn×n und eine rechte Seite ~b ∈ Rn gegeben. In Abhängigkeit des Ranges von A gibt
es nun folgende zwei Möglichkeiten:

• Ist Rang(A) = n (man sagt, A hat vollen Rang), so fällt beim Lösen mit dem
Gauß-Jordan-Algorithmus keine Zeile weg. Man hat dann am Ende noch immer n
Zeilen und somit eine eindeutige Lösung.

• Ist Rang(A) < n, so fällt beim Lösen mindestens eine Zeile weg. Je nach rechter
Seite ~b kann es passieren, dass das Gleichungssystem unlösbar wird. Falls es lösbar
bleibt, gibt es aber auf jeden Fall unendlich viele Lösungen (siehe Satz 3.32).

Diese Erkenntnis kann man auch so formulieren:

Satz 3.34 Sei A ∈ Rn×n , also A eine quadratische Matrix. Dann gibt es zwei Fälle:
Entweder hat für jeden Vektor ~b ∈ Rn das lineare Gleichungssystem A~x = ~b eine ein-
deutige Lösung. Oder das lineare Gleichungssystem A~x = ~b hat für keinen Vektor ~b eine
eindeutige Lösung.

Die Frage, ob ein lineares Gleichungssystem eindeutig lösbar ist, hängt bei quadratischen
Systemen also nur von der Matrix ab, nicht von der rechten Seite.

3.8 Inverse Matrizen


3.8.1 Definition und Eigenschaften
Im Zusammenhang mit linearen Gleichungssystemen hat sich also soeben herausgestellt,
dass eine quadratische Matrix stets zu einem von zwei Typen gehört: Entweder sie hat
vollen Rang, dann lässt eine eindeutige Lösung zu jeder rechten Seite zu („gut“), oder sie
hat nicht vollen Rang, dann ist das Gleichungssystem, abhängig von der rechten Seite,
entweder unlösbar oder hat unendlich viele Lösungen („böse“). Wir wollen dafür Begriffe
einführen:

Definition 3.35 Eine quadratische (n × n-) Matrix A heißt regulär, falls das lineare
Gleichungssystem A~x = ~b für jedes ~b ∈ Rn eine eindeutige Lösung hat. Andernfalls heißt
A singulär.

Eine n × n-Matrix ist also genau dann regulär, wenn ihr Rang gleich n ist.
Wir betrachten jetzt ein Gleichungssystem

A~x = ~b, (3.8)

100
3.8 Inverse Matrizen

Eigenschaften linearer Gleichungssysteme


Typ Anzahl Lösungen
genau eine keine unendlich viele
beliebig möglich möglich möglich; Lösungsdarstellung
hängt vom Rechenweg ab,
Anzahl F aber nicht
homogen möglich nein möglich
G<U nein möglich möglich; in diesem Fall ist
F ≥U −G
G=U wenn Matrix keine oder unendlich viele, wenn Matrix singulär
regulär
G>U möglich, aber typisch möglich, aber selten
selten

Dabei bezeichnen:

F = Anzahl Freiheitsgrade, G = Anzahl Gleichungen, U = Anzahl Unbekannte.

wobei A eine reguläre n × n-Matrix sei. Wir wissen also, dass es eine eindeutige Lösung
~x gibt.
Weiterhin sei C irgendeine andere n × n-Matrix, und wir betrachten dann zusätzlich
zu (3.8) noch das lineare Gleichungssystem
(C · A) · ~x = C · ~b, (3.9)

also das System mit der Koeffizientenmatrix C · A und der rechten Seite C · ~b. Wenn C
gegeben ist, können diese Dinge offenbar berechnet werden, und der Aufwand dafür ist
geringer als der zum Lösen eines Gleichungssystems mit dem Gauß-Jordan-Verfahren.
Das System (3.9) entsteht als Gleichung aus (3.8) durch Multiplikation mit C von
links. Die eindeutige Lösung von (3.8) ist somit auch Lösung von (3.9). Umgekehrt gilt
das zunächst nicht, das heißt, das System (3.9) könnte mehr Lösungen als (3.8) haben.
Falls allerdings C ·A ebenfalls eine reguläre Matrix ist, dann hat (3.9) ebenfalls nur eine
Lösung, somit dann dieselbe Lösung wie (3.8). Interessant ist diese Feststellung, wenn
das System CA~x = C~b wesentlich einfacher zu lösen ist als das ursprüngliche System.
Dies ist insbesondere dann der Fall, wenn die Matrix C so gewählt ist, dass
C · A = En

ist (Einheitsmatrix), denn dann steht da En ~x = C~b, und das heißt


~x = C~b,

101
3 Lineare Gleichungssysteme und lineare Algebra

das heißt die Lösung kann direkt abgelesen werden.


Die Frage ist allerdings, ob eine solche Matrix C überhaupt existiert und, wenn ja, wie
man sie bestimmt. Die erste Frage lässt sich mit ja beantworten:

Satz und Definition 3.36 Zu jeder regulären Matrix A gibt es eine Matrix C so, dass
C · A = En ist. Sie ist eindeutig bestimmt, wird inverse Matrix zu A genannt und mit
A−1 bezeichnet. Es gilt also

A−1 · A = En .

Darüber hinaus gilt auch die umgekehrte Richtung, nämlich

A · A−1 = En .

Weil die inverse Matrix A−1 genau dann existiert, wenn A regulär ist, nennt man reguläre
Matrizen auch invertierbar.
Für die inverse Matrix gelten folgende Rechenregeln:

(A · B)−1 = B −1 · A−1 ,
1
(λ · A)−1 = · A−1 ,
λ
(AT )−1 = (A−1 )T , daher Schreibweise: A−T .

Diese Regeln sind so zu verstehen: Wenn die rechte Seite existiert, dann auch die linke,
und beide sind gleich.
Achtung: Eine allgemeine Formel für die Inverse einer Summe von Matrizen existiert
nicht! Die naheliegende Formel „(A + B)−1 = A−1 + B −1 “ ist falsch!
Wir haben also festgestellt: Wenn A eine reguläre Matrix ist, dann ist die (eindeutige)
Lösung des Systems A~x = ~b gegeben durch

~x = A−1~b.

Dies ist eine Antwort auf unsere Frage in Abschnitt 3.5.2: Will man mehrere lineare Glei-
chungssysteme mit derselben (regulären) Matrix A, aber verschiedenen rechten Seiten,
lösen, so kann man dies dadurch erreichen, dass man zunächst die inverse Matrix A−1
berechnet und alsdann für jede rechte Seite ~b die Lösung direkt via ~x = A−1~b bestimmt.

3.8.2 Berechnung
Weil die inverse Matrix auch von rechts invers ist, also

A · A−1 = En

erfüllt, kann die Frage nach ihrer Berechnung wiederum als ein lineares Gleichungssystem
mit den n rechten Seiten ~e1 , . . . , ~en angesehen werden. Genauso geht man auch praktisch
vor: Man schreibt rechts neben die Matrix A die Einheitsmatrix En und formt so lange
um, bis links die Einheitsmatrix steht, dann steht rechts die inverse Matrix A−1 .

102
3.8 Inverse Matrizen

Beispiel 3.37 Es soll die Inverse der Matrix


 
1 1 −1
A= 2 1 −4
−3 −1 2

bestimmt werden. Wie gehen wie folgt vor:

1 1 −1 1 0 0
2 1 −4 0 1 0 |II − 2I
−3 −1 2 0 0 1 |III + 3I
1 1 −1 1 0 0
0 −1 −2 −2 1 0 | · (−1)
0 2 −1 3 0 1
1 1 −1 1 0 0 |I − II
0 1 2 2 −1 0
0 2 −1 3 0 1 |III − 2II
1 0 −3 −1 1 0
0 1 2 2 −1 0
0 0 −5 −1 2 1 | · (−1/5)
1 0 −3 −1 1 0 |I + 3III
0 1 2 2 −1 0 |II − 2III
0 0 1 1/5 −2/5 −1/5

1 0 0 −2/5 −1/5 −3/5


0 1 0 8/5 −1/5 2/5
0 0 1 1/5 − /5 − /5
2 1

Somit ist
 
−2/5 −1/5 −3/5
A−1 =  8/5 −1/5 2/5  .
1/5 −2/5 −1/5

Will man nun zum Beispiel das Gleichungssystem


 
2
A~x =  3 
−4

lösen, so erhält man die Lösung durch eine einfache Matrix-Vektor-Multiplikation:


       
2 −2/5 −1/5 −3/5 2 1
~x = A−1 ·  3  =  8/5 −1/5 2/5  ·  3  = 1 .
−4 1/5 −2/5 −1/5 −4 0

Eine Probe bestätigt die Richtigkeit dieses Ergebnisses. //

103
3 Lineare Gleichungssysteme und lineare Algebra

Zu Übung 3.38:

Übung 3.38 Machen Sie in Beispiel 3.37 die Probe, sowohl für die inverse Matrix als
auch für die Lösung des linearen Gleichungssystems.

3.9 Determinanten
Wir behandeln nun die Frage aus Abschnitt 3.5.1, also die Frage, ob man bei einem qua-
dratischen linearen Gleichungssystem leicht erkennen kann, ob es eine eindeutige Lösung
gibt und, wenn ja, ob es für die Berechnung der Lösung eine allgemeine Formel gibt.

3.9.1 Zweireihige Determinanten


Wir haben schon gesehen (Abschnitt 3.5.1), dass das allgemeine lineare Gleichungssystem
vom Typ 2 × 2,

ax1 + bx2 = e,
cx1 + dx2 = f,

genau dann eine eindeutige Lösung hat (und somit die Koeffizientenmatrix regulär ist),
wenn die Zahl

ad − bc

104
3.9 Determinanten

Inverse und transponierte Matrix


inverse Matrix transponierte Matrix
Bezeichnung A−1 AT
existiert, wenn . . . wenn A quadratisch u. regulär immer
Bedeutung Ersatz für „Teilen durch A“ Tausch Zeilen/Spalten
Berechnung Gauß-Jordan matrixwertig Tausch Zeilen/Spalten
Rechenregel Summe (A + B)−1 = keine Regel (A + B)T = AT + B T
Rechenregel Produkt (A · B)−1 = B −1 · A−1 (A · B)T = B T · AT
1
Rechenregel Faktor (λ · A)−1 = · A−1 (λ · A)T = λ · AT
λ
1
Rechenregel Determ. det(A−1 ) = det(AT ) = det(A)
det(A)
gemeinsame Regel (A−1 )T = (AT )−1 (Schreibweise daher: A−T )
weitere Rechenregeln A · A−1 = En keine
A−1 · A = En

ungleich null ist. Wir nennen diese Zahl die Determinante der Matrix
 
a b
A= ,
c d
also
 
a b
det = ad − bc.
c d
Manche Autoren verwenden auch Betragsstriche für die Determinante, schreiben also
 
a b a b
det = ,
c d c d
was allerdings irreführend ist, weil es den Eindruck erweckt, die Determinante sei immer
≥ 0.
Bevor wir uns der Frage widmen, ob und wie man Determinanten von größeren Matri-
zen bestimmen kann, wollen wir ein paar Eigenschaften von zweireihigen Determinanten
zusammenstellen. Es wird sich später ergeben, dass die hier aufgeführten Regeln auch
für größere Matrizen gelten.
Wir wissen schon:

Satz 3.39 (Determinantenregel 0) Eine Matrix A ist genau dann regulär, wenn
det A 6= 0.

105
3 Lineare Gleichungssysteme und lineare Algebra

Als nächstes bemerken wir, dass das Transponieren einer Matrix nichts an der Determi-
nante ändert, denn
 T    
a b a c a b
det = det = ad − cb = ad − bc = det .
c d b d c d

Also:

Satz 3.40 (Determinantenregel 1)

det AT = det A.

Daraus folgt insbesondere, dass alle folgenden Regeln, die wir für Zeilen herleiten, auch
für Spalten gelten.
Wir wollen als nächstes untersuchen, wie sich der Wert einer zweireihigen Determinante
ändert, wenn man elementare Zeilenumformungen an der Matrix vornimmt. Wir beginnen
mit dem Vertauschen zweier Zeilen. Da die Matrix nur zwei Zeilen hat, gibt es da nicht
viel Wahl:
   
c d a b
det = cb − da = −(ad − bc) = − det ,
a b c d

also

Satz 3.41 (Determinantenregel 2) Vertauscht man zwei Zeilen (oder Spalten) einer Ma-
trix, so ändert die Determinante ihr Vorzeichen.

Als nächstes untersuchen wir, wie sich die Determinante ändert, wenn wir eine Zeile der
Matrix mit einer Zahl λ multiplizieren. Es genügt, wenn wir das zum Beispiel in der ersten
Zeile machen, denn für eine andere Zeile könnte man ja zuvor und hinterher die Zeile mit
der ersten Zeile tauschen, was, wie wir schon wissen, zwei sich gegenseitig aufhebende
Vorzeichenwechsel ergäbe.
   
λa λb a b
det = λad − λbc = λ(ad − bc) = λ det ,
c d c d

also

Satz 3.42 (Determinantenregel 3) Multipliziert man eine Zeile (oder Spalte) einer Ma-
trix mit einer Zahl λ, so multipliziert sich die Determinante ebenfalls mit λ.

Daraus ergibt sich insbesondere, dass die Determinante null ist, wenn eine Zeile (oder
Spalte) der Matrix nur aus Nullen besteht.
Achtung: Multipliziert man die ganze Matrix mit λ, so muss man den Faktor aus jeder
Zeile einzeln herausziehen und erhält dabei jedes Mal einen Faktor λ, also:

106
3.9 Determinanten

Merke: Für 2 × 2-Matrizen gilt

det(λA) = λ2 det A,

für n × n-Matrizen entsprechend

det(λA) = λn det A.

Für die Addition eines Vielfachen einer Zeile zu einer anderen können wir auch wieder
die Zeilen beliebig festlegen. Wir addieren das λ-fache der ersten Zeile zur zweiten:
 
a b
det = a(d + λb) − b(c + λa) = ad + λab − bc − λba = ad − bc
c + λa d + λb
 
a b
= det .
c d

Es ergibt sich also das überraschende Ergebnis:

Satz 3.43 (Determinantenregel 4) Durch die Addition eines Vielfachen einer Zeile (oder
Spalte) zu einer anderen Zeile (Spalte) ändert sich die Determinante nicht.
Dies scheint auf den ersten Blick im Widerspruch zur vorigen Regel zu stehen: Multipli-
ziert man eine Zeile mit einer Zahl, so multipliziert sich auch die Determinante mit der
Zahl; addiert man zusätzlich eine andere Zeile dazu, so entfällt aber diese Änderung der
Determinante: Wie ist das möglich? Die Antwort ist: Entscheidend ist, welche Zeile man
durch die Kombination ersetzt. Anders formuliert: Man bildet eine beliebige Linearkom-
bination zweier Zeilen und ersetzt dann eine Zeile durch diese Kombination, während die
andere Zeile unverändert in der Matrix steht. In dem Fall multipliziert sich die Determi-
nante mit dem Faktor, mit dem die ersetzte Zeile multipliziert wird – der andere Faktor
beeinflusst die Determinante nicht.

Übung 3.44 Wie ändert sich die Determinante bei den folgenden Umformungen?

3 4 3 4 |3II − 5I
beziehungsweise
5 −7 |3II − 5I 5 −7

Hat man eine Matrix, in der zwei Zeilen Vielfache voneinander (oder identisch) sind,
so kann man mit der obigen Regel eine davon zu null machen, ohne dass sich die Deter-
minante ändert, also ist die Determinante null. Wir fassen zusammen:

Satz 3.45 (Determinantenregel 5) Sei A eine Matrix, in der

• eine Zeile (oder Spalte) komplett null ist oder

• zwei Zeilen (oder Spalten) identisch sind oder

• zwei Zeilen (oder Spalten) Vielfache voneinander sind,

107
3 Lineare Gleichungssysteme und lineare Algebra

dann ist

det A = 0.

Eine spezielle Situation liegt vor, wenn wir mit einer (oberen oder unteren) Dreiecksma-
trix zu tun haben. Wir erhalten:
   
a b a 0
det = ad − b · 0 = ad, det = ad − 0 · c = ad,
0 d c d

was wir wie folgt zusammenfassen:

Satz 3.46 (Determinantenregel 6) Die Determinante einer oberen oder unteren Drei-
ecksmatrix ist gleich dem Produkt der Diagonaleinträge.
Selbstverständlich gilt dasselbe erst recht für eine Diagonalmatrix.
Ein weiteres überraschendes Resultat ergibt sich für die Determinante eines Produkts
zweier Matrizen. Die Berechnung von Hand ist – selbst für 2 × 2-Matrizen – recht kom-
pliziert, aber der Computer ist unser Freund:

A:matrix([a,b],[c,d]);
B:matrix([s,t],[u,v]);
determinant(A.B);
ratsimp(%);
determinant(A)*determinant(B);
ratsimp(%);

Es ergibt sich beide Male dasselbe Ergebnis, also:

Satz 3.47 (Determinantenregel 7)

det(A · B) = det A · det B.

3.9.2 n-reihige Determinanten


Man kann beweisen, dass es für beliebige quadratische Matrizen genau eine Möglichkeit
gibt, eine Determinante zu definieren, die ebenfalls alle vorgestellten Regeln (einschließ-
lich Regel 0) erfüllt. Anders formuliert: Die Determinante ist durch diese Regeln bereits
eindeutig festgelegt. (Für nicht-quadratische Matrizen ist jedoch keine Determinante er-
klärt.) Eine direkte Formel für eine beliebig große n × n-Matrix existiert, sie ist jedoch
sehr kompliziert.5 Sie ist aber auch gar nicht notwendig, denn die Determinantenregeln
5
Sie lautet:
X Y
n
det A = sgn σ ai,σ(i) .
σ∈Sn i=1

Wir verzichten jedoch darauf, die auftauchenden Symbole zu erklären.

108
3.9 Determinanten

Determinanten – Rechenregeln und Eigenschaften


falls det A = 0 Gl.-S. A~x = ~b unlösbar oder unendlich viele Lösungen
falls det A 6= 0 Gl.-S. A~x = ~b eindeutig lösbar (Lösung: ~x = A−1~b)
Regel transponierte Matrix det(AT ) = det(A)
1
Regel inverse Matrix det(A−1 ) =
det(A)
Regel Produkt det(A · B) = det(A) · det(B)
Regel Summe det(A + B) = keine Regel
Regel Faktor det(λ · A) = λn · det(A)
eine Zeile komplett null det A = 0
eine Spalte komplett null det A = 0
zwei Zeilen gleich det A = 0
zwei Spalten gleich det A = 0
zwei Zeilen Vielfache det A = 0
zwei Spalten Vielfache det A = 0
Tausch zweier Zeilen Faktor (−1)
Tausch zweier Spalten Faktor (−1)
eine Zeile · λ Faktor λ
eine Spalte · λ Faktor λ
Lin.-Komb. zweier Zeilen Faktor vor Zeile, die ersetzt wird
Lin.-Komb. zweier Spalten Faktor vor Spalte, die ersetzt wird

109
3 Lineare Gleichungssysteme und lineare Algebra

ermöglichen eine recht bequeme Berechnung: Man bringt einfach durch Zeilenumfor-
mungen die Matrix auf Dreiecksform und multipliziert dann die Diagonaleinträge. Man
muss dabei jedoch über die getätigten Umformungen Buch führen, um die entsprechen-
den Änderungen nachträglich anzuwenden. Übrigens darf man, wie erläutert, auch statt
Zeilenumformungen Spaltenumformungen benutzen; man darf sogar beide Sorten Um-
formungen nach Belieben mischen.

Beispiel 3.48 Gesucht ist die Determinante der Matrix

 
−2 −4 2 1
4 9 3 −8
A=
 7 14 0
.
5
1 2 −2 −1

Durch scharfes Hinsehen entdeckt man, dass die ersten zwei Spalten „fast Vielfache von-
einander“ sind. Es bietet sich daher an, in diesem Fall mit einer Spaltenumformung zu

110
3.9 Determinanten

beginnen:

−2 −4 2 1
4 9 3 −8
7 14 0 5
1 2 −2 −1

−2 |II − 2I
0 2 1 |I + IV
4 1 3 −8
7 0 0 5
1 0 −2 −1
−1 0 0 0
4 1 3 −8
7 0 0 5
1 0 −2 −1
| ↑ (3×)

0 0 0 −1 | ↓ (3×)
1 3 −8 4
0 0 5 7
0 −2 −1 1
1 3 −8 4
0 0 5 7 |↓
0 −2 −1 1
0 0 0 −1
1 3 −8 4
0 −2 −1 1
0 0 5 7
0 0 0 −1

Hier ist die Determinante 1 · (−2) · 5 · (−1) = 10. Wir müssen noch die Umformungen
berücksichtigen:
• Multiplikation einer Zeile (Spalte) mit einer Zahl: nicht durchgeführt.

• Addition eines Vielfachen einer Zeile (Spalte) zu einer anderen: egal, ändert den
Wert der Determinante nicht.

• Vertauschen von zwei Zeilen (Spalten): insgesamt siebenmal durchgeführt, ergibt


Faktor (−1)7 = −1.

111
3 Lineare Gleichungssysteme und lineare Algebra

Es gilt also: det A = −1 · 10 = −10. //


Zwei zusätzliche Hilfsmittel zum Berechnen von Determinanten wollen wir der Voll-
ständigkeit halber noch nennen:

Satz 3.49 (Regel von Sarrus, Jägerzaunregel) Die Determinante einer 3×3-Matrix er-
hält man, indem man die ersten zwei Spalten rechts neben die Matrix schreibt und in der
somit vorliegenden 3 × 5-Matrix die drei Hauptdiagonalen (jeweils das Produkt der drei
Komponenten) addiert und davon die drei Nebendiagonalen subtrahiert.

Merke: Die Regel von Sarrus gilt ausschließlich für 3 × 3-Matrizen.

Übung 3.50 Berechnen Sie die Determinante der Matrix


 
2 4 2
1 −2 −3.
0 5 −4

Zu Übung 3.50:

Satz 3.51 (Laplacescher Entwicklungssatz) Man kann die Determinante einer n × n-


Matrix A berechnen, indem man sie nach einer Zeile oder Spalte der Matrix entwickelt.
Dabei ergibt sich die Determinante als Summe aus n Summanden, die ihrerseits wiederum
das Produkt als folgenden drei Faktoren sind:
• jeweils eine der Zahlen in der Zeile (Spalte), nach der entwickelt wird;
• ein Vorzeichen, das sich aus der Position dieser Zahl in der Matrix ergibt, indem
man die Matrix mit schachbrettartigen „+“- und „−“-Zeichen versieht, wobei der
obere linke Eintrag ein „+“-Zeichen erhält;

112
3.9 Determinanten

• die Determinante derjenigen (n − 1) × (n − 1)-Matrix, die sich ergibt wenn man die
Zeile und Spalte, in der sich die Zahl befindet, streicht.
Diese Berechnungsmethode ist jedoch nicht immer vorteilhaft. Besonders günstig ist sie
dann, wenn eine der Zeilen oder Spalten sehr viele Nullen enthält.

Beispiel 3.52 Gesucht ist die Determinante der Matrix


 
2 −3 2 −4
0 0 −3 0 
A= 1
.
2 −1 6 
−2 3 −3 5
Es bietet sich eine Entwicklung nach der zweiten Zeile an, da diese nur einen Eintrag 6= 0
enthält:
   
−3 2 −4 2 2 −4
det A = 0 · (−1) · det  2 −1 6  + 0 · 1 · det  1 −1 6 
3 −3 5 −2 −3 5
   
2 −3 −4 2 −3 2
− 3 · (−1) · det  1 2 6  + 0 · 1 · det  1 2 −1
−2 3 5 −2 3 −3
 
2 −3 −4
= 3 det  1 2 6
−2 3 5
= 3 · (2 · 2 · 5 + (−3) · 6 · (−2) + (−4) · 1 · 3
− (−4) · 2 · (−2) − 2 · 6 · 3 − (−3) · 1 · 5)
= 3 · (20 + 36 − 12 − 16 − 36 + 15) = 3 · 7 = 21.

//
Eine oftmals nützliche Methode zur Berechnung besteht aus einer Kombination aller
bisher dargestellten Verfahren: Man formt die gegebene Matrix so weit um, bis eine Zeile
oder Spalte nur noch einen Eintrag 6= 0 hat. Dabei nutzt man etwaige bereits vorhandene
Nullen aus. Dann entwickelt man die Matrix nach dieser Zeile oder Spalte, was somit zu
Sie können jetzt aus
einer einzigen Determinante einer kleineren Matrix führt. Dies Verfahren führt man fort, der Probeklausur 2021
bis die Matrix die Größe 3 × 3 erreicht hat und man die Determinante folglich mit der die Aufgabe 5 bearbei-
Sarrus-Regel berechnen kann. ten.

3.9.3 Anwendung von Determinanten


Wir kennen bereits die Regel, dass eine quadratische Matrix genau dann invertierbar
(mithin also ein dazugehöriges lineares Gleichungssystem eindeutig lösbar) ist, wenn die
Determinante 6= 0 ist. Wir werden jetzt feststellen, dass es in dieser Situation auch
direkte Formeln für die Lösung eines Gleichungssystems und für die inverse Matrix gibt,
die ebenfalls auf Determinanten basieren.

113
3 Lineare Gleichungssysteme und lineare Algebra

Determinanten – Berechnungsmöglichkeiten
Typ Berechnung
nicht quadratisch Determinante existiert nicht
 
a b
2×2 det = ad − bc
c d
viele Nullen Laplacescher Entwicklungssatz
Dreiecksmatrix Produkt der Diagonaleinträge
Diagonalmatrix Produkt der Diagonaleinträge
3×3 Regel von Sarrus („Jägerzaunregel“)
beliebig n × n durch Umformungen Nullen erzeugen (Umformungen proto-
kollieren), dann Laplaceschen Entwicklungssatz anwenden

Sei ein quadratisches Gleichungssystem

A~x = ~b

mit regulärer Matrix A (also det A 6= 0) gegeben. Wir bezeichnen die Spalten der Matrix
A mit ~a1 , . . . , ~an . Die Gleichung A~x = ~b kann auch geschrieben werden als

~a1 x1 + ~a2 x2 + · · · + ~an xn = ~b.

Wir ersetzen jetzt die erste Spalte der Matrix A durch die rechte Seite ~b und berechnen
die Determinante der sich ergebenden Matrix. Nach den Rechenregeln für Determinanten
ergibt sich

det(~b, ~a2 , . . . , ~an ) = det(~a1 x1 + ~a2 x2 + · · · + ~an xn , ~a2 , . . . , ~an ) = det(~a1 x1 , ~a2 , . . . , ~an )
= x1 det(~a1 , ~a2 , . . . , ~an ) = x1 det A,

und wegen det A 6= 0 gilt somit

det(~b, ~a2 , . . . , ~an )


x1 = .
det A
Eine analoge Rechnung ist für alle anderen Spalten möglich. Es gibt sich:

Satz 3.53 (Cramersche Regel) Die i-te Komponente xi der Lösung eines quadratischen
linearen Gleichungssystems A~x = ~b mit regulärer Matrix A erhält man, indem man die
i-te Spalte von A durch die rechte Seite ~b ersetzt, von der sich ergebenden Matrix die
Determinante bildet und anschließend durch die Determinante von A dividiert.

114
3.9 Determinanten

Übung 3.54 Bestimmen Sie mit der Cramerschen Regel die Komponente x3 der Lösung
des Systems

x1 + 2x3 = −2,
3x2 + 2x3 = 5,
−x1 + x3 = −4.

Zu Übung 3.54:

Zum Bestimmen aller Komponenten von ~x müsste man somit n + 1 Determinanten von
n×n-Matrizen berechnen, was in der Regel wesentlich aufwändiger ist als die Berechnung
der Lösung mit dem Gauß-Jordan-Verfahren. Nützlich kann die Regel aber sein, wenn
man nur eine oder wenige Komponenten der Lösung eines großen Gleichungssystems
braucht und die Berechnung der Determinante auf Grund vieler Nullen sehr einfach
ist. Ein anderer Nutzen ergibt sich, wenn man für bestimmte, häufig durchzuführende
technische Berechnungen, die auf (kleine, vorzugsweise 2 × 2-) Gleichungssysteme führen,
eine geschlossene Lösungsformel haben möchte.

Beispiel 3.55 (Kräftezerlegung) Eine Kraft F , die in eine gegebene Richtung wirkt,
soll in zwei Kräfte F1 und F2 entlang vorgegebener Wirkungslinien zerlegt werden. Die
Richtungen der Kraft F sowie der Wirkungslinien 1 und 2 sind durch Winkel α, α1 , α2
mit der positiven x-Achse gegeben, vergleiche Abbildung 3.2.

115
3 Lineare Gleichungssysteme und lineare Algebra

WL 2
F
F2
1
WL
α2
α F1
α1 x

Abbildung 3.2: Eine Kraft F wird zerlegt in Teilkräfte entlang gegebener Wirkungslinien.

Betrachtet man die x- und y-Komponenten des zu erfüllenden Kräftegleichgewichts


einzeln, so ergibt sich das lineare Gleichungssystem

F1 cos α1 + F2 cos α2 = F cos α,


F1 sin α1 + F2 sin α2 = F sin α,

oder in Matrixschreibweise
    
cos α1 cos α2 F1 F cos α
= .
sin α1 sin α2 F2 F sin α
Dieses Gleichungssystem kann freilich mit den Methoden aus Abschnitt 3.2 gelöst werden.
Mit der Cramerschen Regel (Satz 3.53) erhält man jedoch eine geschlossene Formel für
die Lösung, nämlich
 
F cos α cos α2
det
F sin α sin α2 cos α sin α2 − sin α cos α2
F1 =   =F · ,
cos α1 cos α2 cos α1 sin α2 − sin α1 cos α2
det
sin α1 sin α2
 
cos α1 F cos α
det
sin α1 F sin α cos α1 sin α − sin α1 cos α
F2 =   =F · ,
cos α1 cos α2 cos α1 sin α2 − sin α1 cos α2
det
sin α1 sin α2
was zweifelsohne von Vorteil ist, wenn man derartige Berechnungen häufig durchführt.
//
Da sich die inverse Matrix über ein lineares Gleichungssystem mit matrixwertiger rech-
ter Seite berechnen lässt (siehe Abschnitt 3.8.2), kann man aus der Cramerschen Regel
auch eine Formel für die inverse Matrix konstruieren.

116
3.10 Lineare Koordinatentransformation

Auf die Details dazu gehen wir nicht weiter ein. Für den Fall einer 2 × 2-Matrix ergibt
sich die sehr nützliche Formel:
 −1  
a b 1 d −b
= · .
c d ad − bc −c a

Für größere Matrizen sind die Formeln hingegen so kompliziert, dass sich ihre Anwendung
nicht lohnt.
Sie können jetzt aus
Merke: Zum Invertieren einer 2 × 2-Matrix muss man lediglich die beiden der Probeklausur Som-
Diagonaleinträge vertauschen, die anderen beiden Elemente mit einem Mi- mer 2019 die Aufga-
nuszeichen versehen, und alles durch die Determinante teilen. be 1 bearbeiten.

3.10 Lineare Koordinatentransformation


3.10.1 Einleitung
In technischen Geräten kommen häufig gleichzeitig verschiedene Bezugssysteme vor.
Raumkoordinaten müssen dann zwischen diesen Bezugssystemen umgerechnet werden.
Beispiele für Gerätekomponenten, die ein Bezugssystem haben, sind:

• Greifarm eines Roboters;

• Basis des Roboters;

• Tisch;

• Kamera;

• ...

Bei der Umrechnung spricht man von einer Koordinatentransformation. Wir beschränken
uns hier auf sogenannte lineare Koordinatentransformationen, weil diese sich besonders
einfach berechnen lassen und thematisch an diese Stelle passen. Eine lineare Koordina-
tentransformation liegt vor, wenn folgende beiden Bedingungen erfüllt sind:

1. Beide beteiligten Koordinatensysteme sind geradlinig (eine Position im dreidimen-


sionalen Raum ist dann gekennzeichnet durch x-, y- und z Koordinaten);

2. Beide Koordinatensysteme haben den Nullpunkt an derselben Stelle.

Die beiden Koordinatensysteme sind dann zueinander verdreht, eventuell spiegelverkehrt.


Sie können auch verschieden skaliert sein, auch anisotrop (das heißt verschiedene Ska-
lierung in verschiedene Richtungen), und es sind auch Scherungen möglich. Unzulässig
hingegen sind beispielsweise Verschiebungen oder krummlinige Koordinaten.
Wir beschränken uns für unsere Betrachtungen auf den dreidimensionalen Fall (in
Beispielen wegen der besseren Zeichenbarkeit sogar auf zwei Dimensionen); gleichwohl
gelten alle Ergebnisse dieses Abschnitts auch allgemein in beliebigen Dimensionen.

117
3 Lineare Gleichungssysteme und lineare Algebra

3.10.2 Berechnungsmethode
Wir nehmen also jetzt an, wir haben zwei Koordinatensysteme, nennen wir sie V und W ,
die die oben genannten Bedingungen erfüllen. Weiterhin sei angenommen, ein Punkt P im
Raum sei bezüglich Koordinatensystem V durch einen bekannten Vektor ~x = (x1 , x2 , x3 )T
beschrieben, und wir wollen diesen Vektor in das Koordinatensystem W umrechnen.
Wir suchen also einen Vektor ~y = (y1 , y2 , y3 )T , der denselben Punkt in dem geänderten
Koordinatensystem beschreibt.
Damit man überhaupt eine Chance hat, die Umrechnung durchzuführen, muss natür-
lich irgendein Zusammenhang zwischen den Systemen bekannt sein. Wir gehen davon aus,
dass die Koordinaten der V -Einheitsvektoren im W -System bekannt sind; diese Vektoren
mögen ~s1 , ~s2 und ~s3 heißen.

Beispiel 3.56 Um die Sache an einer Zeichnung (Abbildung 3.3) veranschaulichen zu


können, wählen wir ein Beispiel in zwei Dimensionen – rechentechnisch ändert sich da-
durch nichts.
Der Punkt P habe im V -System die Koordinaten
 
2
~x = .
−1

Weiterhin sei bekannt, dass die Einheitsvektoren des V -Systems im W -System durch die
Koordinatenvektoren
   
1 0.5
~s1 = , ~s2 =
0.5 2

dargestellt sind. //
Für den Vektor ~x, der den Punkt P im V -System darstellt, gilt offenbar
       
x1 1 0 0
~x = x2 = x1 · 0 + x2 · 1 + x3 · 0 .
      
x3 0 0 1

Die Einheitsvektoren aus V werden im W -System aber durch die Vektoren ~s1 , . . . , ~s3
dargestellt, daher muss der gegebene Punkt im W -System durch den Vektor

~y = x1~s1 + x2~s2 + x3~s3

dargestellt werden.

Beispiel 3.57 In Beispiel 3.56 ergibt sich somit


     
1 0.5 1.5
~y = 2 · −1· = ,
0.5 2 −1

vergleiche nochmals Abbildung 3.3. //

118
3.10 Lineare Koordinatentransformation

Vy

Wy
  Vx
0.5
~s2 =
2

 
1 Wx
~s1 =
0.5

 
2
~x =
−1
 
1.5
~y =
−1

Abbildung 3.3: Beispiel zur Koordinatentransformation. (Dies ist eine zweidimensionale


Zeichnung mit „schiefen“ Koordinatensystemen; es handelt sich nicht um
eine perspektivische dreidimensionale Zeichnung.)

119
3 Lineare Gleichungssysteme und lineare Algebra

Schreiben wir
     
s11 s12 s13
~s1 = s21  , ~s2 = s22  , ~s3 = s23  ,
s31 s32 s33

so ergibt sich
     
s11 s12 s13
~y = x1~s1 + x2~s2 + x3~s3 = x1 s21  + x2 s22  + x3 s23 
s31 s32 s33
 
s11 x1 + s12 x2 + s13 x3
= s21 x1 + s22 x2 + s23 x3  = S~x
s31 x1 + s32 x2 + s33 x3

mit
 
s11 s12 s13
S = s21 s22 s23  = (~s1 , ~s2 , ~s3 ).
s31 s32 s33

Wir haben gefunden:

Satz 3.58 Eine lineare Koordinatentransformation erfolgt stets durch Multiplikation des
Koordinatenvektors mit einer bestimmten Matrix. Man bestimmt diese Matrix, indem
man die Einheitsvektoren des alten Koordinatensystems im neuen System darstellt und
diese Vektoren nebeneinanderschreibt.

Merke: In welche Richtung man die Einheitsvektoren umrechnet, gibt an, in


welche Richtung man dann weitere Vektoren umrechnen kann.

Nun kann es aber sein, dass man einen Punkt in die entgegengesetzte Richtung umrech-
nen möchte, das heißt, man kennt den Vektor ~y , der den Punkt im W -System darstellt,
und sucht den Vektor ~x, der denselben Punkt im V -System darstellt. Aus Symmetrie-
gründen muss man dann freilich die Einheitsvektoren des W -Systems im V -System dar-
stellen. Die entsprechenden Koordinatenvektoren mögen ~t1 , . . . , ~t3 heißen, dann schreibt
man diese nebeneinander in die Matrix

T = (~t1 , ~t2 , ~t3 )

und kann dann

~x = T ~y

berechnen. Nun ist aber trotzdem noch ~y = S~x, also

~x = T S~x,

120
3.10 Lineare Koordinatentransformation

Koordinatentransformation
• Rechne Einheitsvektoren von einem System ins andere um.

• Schreibe diese Vektoren nebeneinander in Matrix S.

• Umrechnung eines Vektors in dieselbe Richtung wie eben erfolgt durch Multi-
plikation mit S.

• Umrechnung eines Vektors in die andere Richtung erfolgt durch Multiplikation


mit S −1 .

• Umrechnung einer Matrix A (Satz 3.80, Seite 138) nach Formel SAS −1 .

und weil dies für alle Vektoren ~x gilt, muss T S = E3 sein, also

T = S −1 .

Mit anderen Worten: Kennt man die Matrix, die eine lineare Koordinatentransformation
in eine Richtung beschreibt, so wird die Transformation in die Gegenrichtung durch die
inverse Matrix beschrieben. Wir fassen zusammen:

Satz 3.59 Für eine lineare Koordinatentransformation muss man zunächst die Einheits-
vektoren des einen Systems (V ) in dem anderen System (W ) darstellen. Die entspre-
chenden Koordinatenvektoren schreibt man nebeneinander in eine Matrix S. Dann gilt:
• Zum Umrechnen eines Vektors von V nach W muss man ihn mit der Matrix S
multiplizieren.

• Zum Umrechnen eines Vektors von W nach V muss man ihn mit der inversen
Matrix S −1 multiplizieren.

Beispiel 3.60 In Beispiel 3.57 ergibt sich


 
1 1/2
S= 1 .
/2 2

Die Umrechnung von ~x nach ~y lässt sich also im Matrixkalkül so schreiben:


    
1 1/2 2 3/2
~y = S~x = 1 = .
/2 2 −1 −1

Für die Umrechnung in die andere Richtung ergibt sich (siehe auch Ende von Ab-
schnitt 3.9.3 für die einfache Berechnung der Inversen einer 2 × 2-Matrix)
   
−1 1 2 −1/2 8/7 −2/7
T =S = = ,
1 · 2 − 21 · 12 −1/2 1 −2/7 4/7

121
3 Lineare Gleichungssysteme und lineare Algebra

also
      
8/7 −2/7 3/2 14/7 2
~x = T ~y = = = .
−2/7 4/7 −1 −7/7 −1

//

Übung 3.61 Die Koordinatensysteme V und W seien weiterhin wie im Beispiel. Rechnen
Sie den Vektor (7, 21)T vom W - ins V -System um und den Vektor (6, 10) vom V - ins
W -System.

Zu Übung 3.61:

3.10.3 Spezialfall: Orthogonale Koordinatentransformation


Ein Spezialfall einer linearen Koordinatentransformation ist eine orthogonale Koordina-
tentransformation. Sie ist gekennzeichnet durch folgende zusätzlichen Bedingungen:

• In jedem einzelnen Koordinatensystem sind die Achsen paarweise senkrecht zuein-


ander.

• Alle Einheiten sind gleich lang.

Die Systeme können dann nur noch zueinander verdreht und/oder spiegelverkehrt sein.
Solche Transformationen kommen in technischen Anwendungen besonders häufig vor;
gleichzeitig ergibt sich dabei eine Rechenvereinfachung, daher lohnt es sich, sie gesondert
zu betrachten.
Es seien ~s1 , . . . , ~s3 wieder die W -Koordinatenvektoren der V -Einheitsvektoren. Aus
den zusätzlichen Bedingungen ergibt sich, dass jeder dieser Vektoren die Länge 1 hat

122
3.11 Eigenwertprobleme

Orthogonale Matrizen
• Definition: AT = A−1 .

• Bedeutung bei Koordinatentransformation: Nur Drehung und/oder Spiegelung.

• Überprüfen von Orthogonalität: Prüfe, ob AT · A = En ist.

• Nutzen: Statt A−1 kann AT verwendet werden (Rechenersparnis).

und dass je zwei dieser Vektoren senkrecht zueinander sind; für das Skalarprodukt gilt
also
(
0, i 6= k,
~si · ~sk =
1, i = k.

Ist jetzt S = (~s1 , ~s2 , ~s3 ) die entsprechende Transformationsmatrix, so gilt


 T    
~s1 ~s1 · ~s1 ~s1 · ~s2 ~s1 · ~s3 1 0 0
S T · S = ~sT
2
 (~s1 , ~s2 , ~s3 ) = ~s2 · ~s1 ~s2 · ~s2 ~s2 · ~s3  = 0 1 0 = E3 .
T
~s3 ~s3 · ~s1 ~s3 · ~s2 ~s3 · ~s3 0 0 1

Das bedeutet aber, dass die transponierte Matrix S T gleichzeitig die inverse Matrix ist:

S T = S −1 .

Eine Matrix S, die diese Eigenschaft hat, nennt man orthogonal, wie es nahe liegt, weil sie
ja eine orthogonale Koordinatentransformation beschreibt. Der Vorteil liegt jetzt darin,
dass man bei der Transformation in die entgegengesetzte Richtung gemäß Satz 3.59 in
diesem Fall auf die (vergleichsweise aufwändige) Berechnung der inversen Matrix verzich-
ten kann, weil man einfach die transponierte Matrix einsetzen kann.
Achtung: Um zu testen, ob eine gegebene Matrix S orthogonal ist, braucht man S −1
nicht zu berechnen. Vielmehr berechnet man

S · ST oder wahlweise ST · S

und überprüft, ob sich die Einheitsmatrix ergibt.

3.11 Eigenwertprobleme
3.11.1 Motivation
Beispiel 3.62 Wir betrachten ein mechanisches System aus zwei identischen Massen m,
die über eine Feder (Federkonstante k) verbunden sind und die darüber hinaus über je

123
3 Lineare Gleichungssysteme und lineare Algebra

m m

k k k

Abbildung 3.4: Mechanisches System aus zwei identischen Massen und drei identischen
Federn.

eine weitere Feder mit der Wand verbunden sind, siehe Abbildung 3.4. Das System wird
ohne Gravitation und ohne Reibung betrachtet.
Es bezeichnen x1 (t) und x2 (t) die Auslenkungen der linken, beziehungsweise rechten
Masse gegenüber der Ruhelage. Auslenkungen nach rechts werden jeweils positiv gezählt.
Die Kräfte, die zum Zeitpunkt t auf die linke, beziehungsweise rechte Masse wirken, sind
dann gegeben durch

F1 (t) = −kx1 (t) + k(x2 (t) − x1 (t)), F2 (t) = −k(x2 (t) − x1 (t)) − kx2 (t).

Die Kräfte erzeugen jeweils eine Beschleunigung der jeweiligen Masse:

mx′′1 (t) = F1 (t), mx′′2 (t) = F2 (t),

woraus sich somit die Bedingungen


 
mx′′1 (t) = k · −2x1 (t) + x2 (t) , mx′′2 (t) = k · x1 (t) − 2x2 (t)

ergeben. Es handelt sich hierbei um sogenannte Differenzialgleichungen, die wir ausführ-


lich erst im nächsten Semester behandeln werden. Einstweilen wollen wir uns damit be-
gnügen zu untersuchen, welche Möglichkeiten sich dem System für harmonische Schwin-
gungen, also verallgemeinerte Sinus-Schwingungen, bieten.6 Wir gehen dafür gleich zu
komplexen Schwingungen über und machen somit den Ansatz

x1 (t) = a1 · ejωt , x2 (t) = a2 · ejωt ,

wobei a1 und a2 die komplexen Amplituden sind, die, wie erinnerlich, sowohl die tatsäch-
liche (reelle) Amplitude als auch die Phase beinhalten.
Ableiten und Einsetzen in die Differenzialgleichung ergibt
 
−ma1 ω 2 ejωt = k · −2a1 ejωt + a2 ejωt , −ma2 ω 2 ejωt = k · a1 ejωt − 2a2 ejωt .

Der zeitabhängige Faktor ejωt kürzt sich heraus; wir teilen außerdem noch durch −k und
erhalten
ω2m ω2m
a1 · = 2a1 − a2 , a2 · = −a1 + 2a2 .
k k
6
In der Tat wird sich im nächsten Semester herausstellen, dass man mit analogen Rechenschritten auch
die allgemeinen Schwingungsvorgänge des Systems bestimmen kann.

124
3.11 Eigenwertprobleme

Wir fassen a1 und a2 zusammen zu einem (eventuell komplexen) Vektor


 
a1
~v = ,
a2

dann lässt sich das System als


 
ω2m 2 −1
~v = ~v
k −1 2

schreiben. Es hat die allgemeine Form

A~v = λ~v ,

mit
 
2 −1 ω2m
A= , λ= .
−1 2 k

Es ist also offenbar A gegeben, und es werden ~v und λ gesucht (aus λ ergibt sich dann
ω, da m und k gegeben sind). Dabei soll ~v 6= ~0 sein, denn die (triviale) Lösung ~v = ~0
entspricht der (uninteressanten) Situation, dass beide Massen in der Ruhelage stillstehen.
//

Einschätzungsfrage 3.63 Wie viele Lösungen (also wie viele wesentlich verschiedene
Möglichkeiten, das System so auszulenken, dass es harmonisch schwingt) gibt es im obi-
gen Beispiel?
a) Das geht gar nicht.

b) Es gibt genau eine Möglichkeit.

c) Es gibt mehrere Möglichkeiten. Anzahl:

d) Es gibt unendlich viele Möglichkeiten.


Auflösung folgt. //

3.11.2 Eigenwerte und Eigenvektoren


Definition 3.64 Sei A eine quadratische Matrix und λ eine Zahl. Falls es einen Vektor
~v 6= ~0 gibt mit

A~v = λ~v , (3.10)

so heißt λ Eigenwert von A, und alle Vektoren ~v , die (3.10) erfüllen, heißen Eigenvek-
toren von A zum Eigenwert λ.
Wie wir gesehen haben, haben Eigenwerte eine Anwendung in der Mechanik von schwin-
gungsfähigen Systemen. Andere Anwendungen sind beispielsweise:

125
3 Lineare Gleichungssysteme und lineare Algebra

• Klassifikation von Kegelschnittgleichungen;

• Berechnung der Hauptspannungen in der Festigkeitslehre (siehe Abschnitt 3.11.9);

• Bestimmung von lokalen Extremstellen für Funktionen von mehreren Argumenten


(siehe nächstes Semester);

• Lösung von Systemen von Differenzialgleichungen (siehe ebenfalls nächstes Semes-


ter).

In Beispiel 3.62 haben wir in der Herleitung des Eigenwertproblems komplexe Zahlen
verwendet, die Matrix A war aber reell. Dies macht einstweilen keine Probleme; im Zu-
sammenhang mit Eigenwertproblemen muss man, wie wir bald sehen werden, ohnehin
immer damit rechnen, dass komplexe Zahlen auftreten. Insbesondere lassen sich alle bis-
her besprochenen Konzepte der linearen Algebra relativ problemlos7 auf komplexe Zahlen
erweitern.

3.11.3 Berechnung von Eigenwerten und Eigenvektoren


Wir betrachten zunächst die vereinfachte Situation, dass λ schon bekannt ist und nur ~v
gesucht wird. Es ist dann zweckmäßig, Gleichung (3.10) umzuschreiben in

(A − λEn )~v = ~0, (3.11)

denn diese Schreibweise zeigt, dass es sich um ein homogenes lineares Gleichungssystem
handelt. Wie wir wissen, gibt es entweder genau eine Lösung oder unendlich viele, die von
einer Anzahl Freiheitsgrade abhängen. Wenn es genau eine Lösung gibt, so ist dieses aber
der Nullvektor ~v = ~0, den wir gerade in der Definition ausgeschlossen haben, weil er für
unsere Fragestellung nicht interessant ist. Wenn λ also ein Eigenwert ist, so muss (3.11)
unendlich viele Lösungen haben. Wir haben gefunden:

Satz 3.65 Zu einem gegebenen Eigenwert einer Matrix gibt es immer unendlich viele
Eigenvektoren, und diese hängen von einem oder mehreren Freiheitsgraden ab.

Insbesondere sind Eigenvektoren keineswegs eindeutig bestimmt. Das ist auch klar, denn
ist ~v ein gegebener Eigenvektor, so ist offenbar auch jedes Vielfache α~v ein Eigenvektor
zum selben Eigenwert.

Übung 3.66 Berechnen Sie die Eigenvektoren der Matrix


 
1 3
A=
0 2

zum Eigenwert λ = 2.
7
Im Zusammenhang mit orthogonalen Matrizen sind dafür ein paar kleinere Anpassungen nötig, auf
die wir aber nicht weiter eingehen.

126
3.11 Eigenwertprobleme

Zu Übung 3.66:

Wie wir zu gegebenem Eigenwert die Eigenvektoren bestimmen, wissen wir jetzt; es
verbleibt die Frage, wie wir überhaupt die Eigenwerte finden (beziehungsweise ob und
wann es überhaupt welche gibt und wenn ja wie viele). Definitionsgemäß ist λ Eigenwert,
wenn das lineare Gleichungssystem (3.11) außer dem Nullvektor noch weitere Lösungen
hat. Da es sich um ein quadratisches System handelt, können wir dies gemäß Abschnitt 3.9
mit Hilfe der Determinante überprüfen: λ ist genau dann Eigenvektor von A, wenn

det(A − λEn ) = 0

ist. Die Determinante von A − λEn berechnet man wie jede gewöhnliche Determinante,
nur dass eben die unbekannte Größe λ in einigen Koeffizienten der Matrix vorkommt.
Das generelle Prinzip zur Berechnung von Eigenwerten und -vektoren ist somit klar,
wir demonstrieren es an dem Problem aus Beispiel 3.62:

Beispiel 3.67 Wir hatten es mit der Matrix


 
2 −1
A=
−1 2

zu tun. Wir berechnen zunächst


 
2 − λ −1
det(A − λE2 ) = det = (2 − λ)2 − 1 = 4 − 4λ + λ2 − 1 = λ2 − 4λ + 3.
−1 2 − λ

127
3 Lineare Gleichungssysteme und lineare Algebra

Es ergibt sich offenbar ein Polynom vom Grad 2. Die gesuchten Eigenwerte sind die
Nullstellen dieses Polynoms, man findet sie leicht mit der Mitternachtsformel:
√ √
4 ± 16 − 12 4± 4
λ1,2 = = = 2 ± 1, also λ1 = 1, λ2 = 3.
2 2
Wir berechnen nun die zugehörigen Eigenvektoren. Zu λ1 = 1 ergibt sich folgendes lineare
Gleichungssystem:
1 −1
−1 1 |II + I
1 −1
0 0
Wir erhalten eine Lösungsmenge mit einem Freiheitsgrad, nämlich
   
α 1
~v = =α .
α 1
Man gibt in der Regel nicht die allgemeine Lösung, sondern einen einzigen Eigenvektor
an, zum Beispiel (1, 1)T . Man beachte aber, dass etwa (−1, −1)T oder (17, 17)T genauso
richtig wären.8 (Im Fall von mehr als einem Freiheitsgrad gibt man entsprechend mehrere
Eigenvektoren an.)
Analog folgt für den anderen Eigenwert:
−1 −1
−1 −1 |II − I
−1 −1
0 0

Der Eigenvektor ist also (zum Beispiel) (1, −1)T .


Eigenwerte und -vektoren lassen sich auch mit maxima berechnen:
A:matrix([2,-1],[-1,2]);
eigenvectors(A);
Wir übersetzen nun die Ergebnisse zurück in die mechanische Problemstellung: Es gibt
genau zwei Möglichkeiten für das System, harmonisch zu schwingen:
• ~v = α · (1, 1)T bedeutet, dass beide komplexen Amplituden (a1 und a2 ) gleich sind.
Dies entspricht also einer Schwingung, in der beide Massen parallel schwingen. Der
zugehörige Eigenwert ist λ = 1, woraus sich wegen λ = ω 2 m/k die Frequenz
r
ω 1 k
f= =
2π 2π m
ergibt.
8
In manchen technischen Anwendungen ist es üblich und sinnvoll, Eigenvektoren auf Länge 1 zu nor-
mieren. Aus mathematischer Sicht ist das egal, wir gehen darauf nicht weiter ein.

128
3.11 Eigenwertprobleme

Eigenwertprobleme
Problemstellung: A~v = λ~v , wobei A gegeben und λ (Eigenwert) sowie ~v (Eigenvek-
tor) gesucht.
Dabei gilt: ~v = ~0 ist formal immer Lösung, im Anwendungszusammenhang
jedoch nicht von Interesse.

Bestimmung der Eigenwerte: Berechne det(A − λEn ) (sog. charakteristisches Poly-


nom) und finde die Nullstellen. (Mehrfache Nullstellen entsprechen algebraisch
mehrfachen Eigenwerten.)

Bestimmung der Eigenvektoren (nachdem die Eigenwerte bekannt sind): Löse


lineares Gleichungssystem (A − λEn )~v = ~0. Lösungsdarstellung muss min-
destens einen Freiheitsgrad enthalten. (Anzahl Freiheitsgrade entspricht der
geometrischen Vielfachheit.)

• ~v = α · (1, −1)T bedeutet, dass die beiden komplexen Amplituden das Negative
voneinander sind. Dies entspricht also einer Schwingung, in der die beiden Massen
entgegengesetzt zueinander schwingen. Aus dem zugehörigen Eigenwert ist λ = 3
ergibt sich die Frequenz
r
ω 1 3k
f= = .
2π 2π m

Insbesondere ist die Frequenz bei entgegengesetzter Schwingung um den Faktor 3 größer
als die bei paralleler Schwingung. Damit ist auch Einschätzungsfrage 3.63 beantwortet.
//

Dass sich für det(A − λEn ) im Beispiel ein Polynom in λ ergibt, ist kein Zufall. Allge-
mein gilt:

Satz und Definition 3.68 Wenn A eine n × n-Matrix ist, so ist det(A − λEn ) ein Poly-
nom vom Grad n; man nennt es das charakteristische Polynom der Matrix A.

Ein Polynom vom Grad n hat bekanntlich höchstens n Nullstellen, es gilt also: Sie können jetzt aus
der Probeklausur 2021
Satz 3.69 Eine n × n-Matrix hat höchstens n Eigenwerte. die Aufgabe 6 bearbei-
ten.

3.11.4 Mehrfache Eigenwerte


Bekanntlich kann ein Polynom auch mehrfache Nullstellen haben, auf diese Weise ergibt
sich eine Möglichkeit, mehrfache Eigenwerte zu definieren. Wie sich gleich herausstellen
wird, ist die Sache aber etwas verzwickter, als man zunächst denken mag.

129
3 Lineare Gleichungssysteme und lineare Algebra

Beispiel 3.70 Gesucht sind Eigenwerte und Eigenvektoren der Matrix


 
−3 0 0
A =  4 −7 −4 .
−8 8 5

Wir bilden zunächst das charakteristische Polynom:


 
−3 − λ 0 0
det(A − λE3 ) = det  4 −7 − λ −4 
−8 8 5−λ
= (−3 − λ)(−7 − λ)(5 − λ) + 0 + 0 − 0 − 8 · (−4) · (−3 − λ) − 0
= (−3 − λ)(−35 + 7λ − 5λ + λ2 + 32) = (−3 − λ)(λ2 + 2λ − 3).

Da man den Faktor (−3 − λ) ausklammern konnte, hat man als erste Nullstelle λ1 = −3,
und die anderen beiden Nullstellen ergeben sich mit der Mitternachtsformel:
p
−2 ± 22 − 4 · 1 · (−3)
λ2,3 = = −1 ± 2,
2

also λ2 = 1, λ3 = −3. Naiv betrachtet ist 1 ein „einfacher“ und −3 ein „doppelter
Eigenwert“.
Der Eigenvektor zum Eigenwert 1 ergibt sich als Lösung des Systems (A − 1E3 )~v = ~0:

−4 0 0
4 −8 −4 |II + I
−8 8 4 |III − 2I
−4 0 0
0 −8 −4 |II + III
0 8 4
−4 0 0 | · (−1/4)
0 0 0
0 8 4 | · 1/4
1 0 0
0 2 1

Dies ergibt die Lösungsdarstellung


   
0 0
~v =  α  = α 1 .

−2α −2

130
3.11 Eigenwertprobleme

Zum Eigenwert −3 muss man analog das System (A + 3E3 )~v = ~0 lösen:

0 0 0
4 −4 −4
−8 8 8 |III + 2II
0 0 0
4 −4 −4 | · 1/4
0 0 0
1 −1 −1

In diesem Fall sind zwei Zeilen weggefallen, es ergibt sich somit auch eine Lösungsdar-
stellung mit zwei Freiheitsgraden:
     
α+β 1 1
~v =  α  = α 1 + β 0 .
β 0 1

Man könnte also (1, 1, 0)T und (1, 0, 1)T als Eigenvektoren angeben, aber wie wir wissen,
ist die Darstellung überhaupt nicht eindeutig. Man könnte beispielsweise auch
     
α 1 0
~v =  β  = α 0 + β  1 
α−β 1 −1

schreiben und hätte dann (1, 0, 1)T und (0, 1, −1)T als Eigenvektoren. //

Im Beispiel spiegelt sich die Eigenschaft des einen Eigenwertes, „doppelt“ zu sein, auch
darin wider, dass man bei der Berechnung des zugehörigen Eigenvektors eine Lösung mit
zwei Freiheitsgraden erhält. Die Frage, ob das immer so ist, muss aber leider verneint
werden, wie das folgende Beispiel zeigt.

Übung 3.71 Bestimmen Sie die Eigenwerte der Matrix aus dem folgenden Beispiel.

Beispiel 3.72 Gesucht sind Eigenwerte und Eigenvektoren der Matrix


 
4 −3 1
A = 0 1 1 .
4 −1 3

Es ergibt sich (Übung 3.71), dass A die beiden Eigenwerte 0 („einfach“) und 4 („doppelt“)
hat.

131
3 Lineare Gleichungssysteme und lineare Algebra

Zu Übung 3.71:

132
3.11 Eigenwertprobleme

Der Eigenvektor zum Eigenwert 0 ergibt sich als Lösung des linearen Gleichungssystems
(A − 0E3 )~v = ~0, also einfach A~v = ~0:
4 −3 1
0 1 1
4 −1 3 |III − I
4 −3 1 |I − II
0 1 1
0 2 2 |III − 2II
1
4 −4 0 |· 4
0 1 1
0 0 0
1 −1 0
0 1 1
Wir erhalten eine Lösungsdarstellung mit einem Freiheitsgrad, nämlich
   
α 1
~v =  α  = α 1 .

−α −1

Jetzt die Eigenvektoren zum Eigenwert 4: Dazu müssen wir das System (A − 4E3 )~v = ~0
lösen:
0 −3 1
0 −3 1 |II − I
4 −1 −1 |III + I
0 −3 1
0 0 0
1
4 −4 0 |· 4
0 −3 1
1 −1 0
Obwohl es sich also um einen „doppelten“ Eigenwert handelt, enthält die Lösung diesmal
trotzdem nur einen Freiheitsgrad; sie lautet
   
α 1
~v = α = α 1 .
  
3α 3
//
Das Beispiel zeigt, dass es in Wirklichkeit zwei Kriterien gibt, an denen man den
Begriff der Vielfachheit eines Eigenwerts festmachen könnte, und dass insbesondere diese
Kriterien nicht unbedingt übereinstimmen müssen. Da beide von Bedeutung sind, ist es
nützlich, verschiedene Namen für sie einzuführen:

133
3 Lineare Gleichungssysteme und lineare Algebra

Definition 3.73 Sei A eine quadratische Matrix und λ ein Eigenwert, somit λ Nullstelle
des charakteristischen Polynoms von A. Die Vielfachheit dieser Nullstelle heißt algebrai-
sche Vielfachheit des Eigenwerts; hingegen heißt die Anzahl der Freiheitsgrade in der
allgemeinen Darstellung des Eigenvektors geometrische Vielfachheit des Eigenwerts.
Man beachte, dass beide Vielfachheiten immer für jeden der Eigenwerte anzugeben sind.

Beispiel 3.74 Die Matrix aus Beispiel 3.67 hat die Eigenwerte

λ1 = 1 (algebraisch und geometrisch einfach),


λ2 = 3 (algebraisch und geometrisch einfach).

Die Matrix aus Beispiel 3.70 hat die Eigenwerte

λ1 = 1 (algebraisch und geometrisch einfach),


λ2 = −3 (algebraisch und geometrisch doppelt).

Die Matrix aus Beispiel 3.72 hat die Eigenwerte

λ1 = 0 (algebraisch und geometrisch einfach),


λ2 = 4 (algebraisch doppelt, aber geometrisch einfach).

//
Man kann beweisen, dass immerhin stets folgender Zusammenhang gilt:

Satz 3.75 Die geometrische Vielfachheit eines Eigenwerts ist immer ≤ der algebraischen
Vielfachheit.
Insbesondere wenn das charakteristische Polynom keine mehrfachen Nullstellen hat, also
alle Eigenwerte algebraisch einfach sind, dann müssen die Eigenwerte auch geometrisch
einfach sein, es kann dann also bei der Berechnung der Eigenvektoren nicht mehr als eine
Zeile wegfallen.

3.11.5 Komplexe Eigenwerte


Wir wissen, dass bei Verwendung von komplexen Zahlen jedes Polynom in Linearfakto-
ren zerfällt. In C hat also jede n × n-Matrix genau n Eigenwerte, wenn man mehrfache
Eigenwerte entsprechend ihrer algebraischen Vielfachheit zählt. Aus diesem Grund ist
es in bestimmten Zusammenhängen sinnvoll, bei Eigenwertproblemen von reellen Ma-
trizen komplexe Zahlen zuzulassen. Es können dann sowohl die Eigenwerte als auch die
Eigenvektoren komplex sein, wie das folgende Beispiel zeigt:

Beispiel 3.76 Sei


 
1 −2
A= .
2 1

134
3.11 Eigenwertprobleme

Das charakteristische Polynom lautet


 
1 − λ −2
det(A − λE2 ) = det = (1 − λ)2 + 4 = 1 − 2λ + λ2 + 4 = λ2 − 2λ + 5.
2 1−λ

Die Nullstellen sind



2± 22 − 4 · 1 · 5 2 ± 4j
λ1,2 = = = 1 ± 2j.
2 2
Wir bestimmen jetzt die Eigenvektoren. Bei vorsichtigem Umgang mit dem „±“-Zeichen
kann man beide Eigenvektoren gleichzeitig bestimmen. Man muss das Gleichungssystem
(A − (1 ± 2j)E2 )~v = ~0 lösen:

∓2j −2 |:2
2 ∓2j |:2
∓j −1 |I ± jII
1 ∓j
0 0
1 ∓j

Man erhält also jeweils Lösungsmengen mit einem Freiheitsgrad der Form
   
±jα ±j
~v = =α .
α 1

Je ein Eigenvektor zu jedem der Eigenwerte ist also


 
±j
.
1

//

Wenn man ohnehin komplexe Zahlen zulässt, kann man auch den Fall betrachten, dass
die Matrizen selbst komplexe Einträge haben. Dies verfolgen wir hier jedoch nicht weiter.

3.11.6 Zusammenhang zwischen Determinante und Eigenwerten


Wir wollen jetzt einen wichtigen Zusammenhang zwischen den Eigenwerten und der De-
terminante einer quadratischen Matrix herleiten. Dabei lassen wir komplexe Eigenwerte
ausdrücklich zu, so dass das charakteristische Polynom also in Linearfaktoren zerfällt
und wir genau n Eigenwerte haben, wobei mehrfache Eigenwerte stets entsprechend ih-
rer algebraischen Vielfachheit gezählt werden. Seien also λ1 , . . . , λn die Eigenwerte von
A, dann muss offenbar gelten

det(A − λEn ) = c(λ − λ1 )(λ − λ2 ) · · · (λ − λn ),

135
3 Lineare Gleichungssysteme und lineare Algebra

wobei c eine Konstante ist. Man kann nachrechnen, dass c = (−1)n ist (was im Wesent-
lichen daran liegt, dass det(−λEn ) = (−λ)n det(En ) = (−λ)n ist – siehe Determinanten-
regeln) –, also gilt anders geschrieben

det(A − λEn ) = (λ1 − λ)(λ2 − λ) · · · (λn − λ).

Durch Einsetzen von λ = 0 erhält man

det A = λ1 λ2 · · · λn ,

also:

Satz 3.77 Die Determinante einer beliebigen quadratischen Matrix ist gleich dem Pro-
dukt der (möglicherweise komplexen) Eigenwerte,

det A = λ1 λ2 · · · λn ,

wobei mehrfache Eigenwerte entsprechend ihrer algebraischen Vielfachheit zu zählen sind.

Ohne Herleitung vermerken wir noch das recht ähnliche Resultat:

Satz 3.78 Die Spur einer beliebigen quadratischen Matrix ist gleich der Summe der (mög-
licherweise komplexen) Eigenwerte,

tr A = λ1 + λ2 + · · · + λn ,

wobei mehrfache Eigenwerte entsprechend ihrer algebraischen Vielfachheit zu zählen sind.

Dabei ist die Spur (englisch: trace) einer quadratischen Matrix nach Definition die Summe
der Diagonaleinträge:

tr A = a11 + a22 + · · · + ann .

Übung 3.79 Benutzen Sie die Sätze 3.77 und 3.78, um die Matrix
 
2
A=
2

so zu ergänzen, dass sie die Eigenwerte 1 und 4 hat.

136
3.11 Eigenwertprobleme

Zu Übung 3.79:

Mehrfache Eigenwerte

Algebraische Vielfachheit = Vielfachheit der Nullstelle von det(A − λEn ),


Geometrische Vielfachheit = Anzahl der Freiheitsgrade bei Berechnung des EVs.

Es gilt immer:

Geometrische Vielfachheit ≤ Algebraische Vielfachheit.

Wenn man

• mehrfache Eigenwerte entsprechend ihrer algebraischen Vielfachheit zählt,

• komplexe Eigenwerte (falls vorhanden) mitzählt,

dann gelten folgende drei Regeln (wobei A eine n × n-Matrix ist):

Anzahl Eigenwerte = n,
Summe der Eigenwerte = tr A = Summe der Diagonaleinträge von A,
Produkt der Eigenwerte = det A.

137
3 Lineare Gleichungssysteme und lineare Algebra

3.11.7 Diagonalisierbare Matrizen


In vielen technischen Anwendungen tritt die Situation auf, dass verschiedene Vektoren
mit einer festen Matrix A multipliziert werden müssen. Formal kann man dann die Funk-
tion

f : Rn → Rn , f (~x) = A~x

definieren. Dies ist eine sogenannte lineare Abbildung.


Nun kann es sein, dass man im Raum nicht ein festes Koordinatensystem gegeben hat,
sondern vielleicht mehrere, zwischen denen umzurechnen ist. Wie wir aus Abschnitt 3.10
wissen, muss für die Umrechnung zwischen zwei verschiedenen Koordinatensystemen mit
einer Matrix S multipliziert werden. Es mögen also wieder V und W die beiden Koor-
dinatensysteme sein, und wenn ~x einen gegebenen Punkt im V -System darstellt, wird
durch

~y = S~x

derselbe Punkt im W -System beschrieben. Die Umrechnung in die andere Richtung er-
folgt dann mit S −1 .
Die lineare Abbildung f bildet den n-dimensionalen Raum auf sich selbst ab. Wir
nehmen an, dass die Beschreibung f (~x) = A~x bezüglich des V -Systems gilt, und die Frage
ist jetzt: Wie stellt sich dieselbe Abbildung bezüglich des W -Systems dar? Angenommen,
wir haben einen Vektor ~y , der einen gegebenen Punkt bezüglich des W -Systems darstellt,
und wir wollen feststellen, was die Abbildung mit ihm macht, dann können wir das
erreichen, indem wir folgende drei Schritte durchführen:

1. Der Vektor muss ins V -System umgerechnet werden.

2. Im V -System erfolgt die Abbildung durch Multiplikation mit A.

3. Das Ergebnis liegt dann ebenfalls im V -System vor und muss daher noch ins W -
System zurückumgerechnet werden.

Das Umrechnen zwischen den beiden Systemen erfolgt durch Multiplikation mit S −1 bzw.
mit S. Der Ergebnisvektor lautet also

SAS −1 y,

und das bedeutet, dass die Abbildung im W -System durch die Matrix

SAS −1

beschrieben wird. Wir haben gefunden:

Satz 3.80 („Koordinatentransformation von Matrizen“) Sei S die Matrix, mit der man
Vektoren zwischen zwei gegebenen Koordinatensystemen (V und W ) umrechnet. Eine

138
3.11 Eigenwertprobleme

lineare Abbildung, die bezüglich V durch eine Matrix A beschrieben wird, wird bezüglich
W dann durch

SAS −1

beschrieben.
Nun gibt es Situationen in der Technik (Beispielanwendung siehe Abschnitt 3.11.9), in
denen eine lineare Abbildung (oder Matrix) A gegeben ist und man für das umgebende
Koordinatensystem die freie Auswahl hat. In diesen Fällen besteht ein sinnvolles Ziel
darin, das Koordinatensystem so zu wählen, dass die Matrix SAS −1 möglichst einfach
wird. Unter „möglichst einfach“ versteht man in diesem Zusammenhang im Allgemeinen
eine Diagonalmatrix.

Definition 3.81 Eine quadratische Matrix A heißt diagonalisierbar, wenn sie durch Wech-
sel des Koordinatensystems in eine Diagonalmatrix transformiert werden kann, mit an-
deren Worten wenn es eine Matrix S gibt so, dass SAS −1 diagonal ist.

Einschätzungsfrage 3.82 Was schätzen Sie:


a) Jede (quadratische) Matrix ist diagonalisierbar.

b) „Die meisten“ (quadratischen) Matrizen sind diagonalisierbar. Es kommt nur relativ


selten vor, dass eine Matrix nicht diagonalisierbar ist.

c) Nur sehr spezielle Matrizen sind diagonalisierbar. „Die meisten“ Matrizen sind nicht
diagonalisierbar.
Auflösung folgt. //
Wir setzen D = SAS −1 und nehmen an, dass D eine Diagonalmatrix ist:
 
d1

 d2 

D= .. .
 . 
dn
Offenbar ist dann

S −1 D = AS −1 . (3.12)

In der Schreibweise von Abschnitt 3.10 wird S −1 als T bezeichnet; es ist die Matrix, mit
der man Vektoren vom W - ins V -System umrechnet. Die Spalten dieser Matrix heißen
~t1 , . . . , ~tn ; sie sind die W -Einheitsvektoren, dargestellt im V -System. Mit dieser Notation
bedeutet (3.12) gerade, dass
~ti di = A~ti

ist für alle i, und das heißt nichts anderes, als dass die di Eigenwerte von A sind und die
~ti die dazugehörigen Eigenvektoren. Das bedeutet also:

139
3 Lineare Gleichungssysteme und lineare Algebra

Satz 3.83 Man diagonalisiert eine Matrix, indem man ein Koordinatensystem wählt,
dessen Achsen in Richtung der Eigenvektoren der Matrix verlaufen, und die Matrix dann
auf dies neue Koordinatensystem transformiert. Die transformierte Matrix ist dann eine
Diagonalmatrix, und ihre Diagonaleinträge sind die zugehörigen Eigenwerte.

Insbesondere ist die Matrix diagonalisierbar, wenn es ausreichend Eigenvektoren gibt, die
ein Koordinatensystem aufspannen, nämlich n Stück. Das ist „meistens“ der Fall, aber
nicht immer:

Satz 3.84 Dass eine Matrix nicht diagonalisierbar ist, kommt nur in folgenden beiden
Fällen vor:

1. wenn das charakteristische Polynom nicht in Linearfaktoren zerfällt;

2. wenn bei einem mehrfachen Eigenwert die algebraische und geometrische Vielfach-
heit nicht übereinstimmen.

Der erste Fall kann nur auftreten, wenn komplexe Zahlen nicht zulässig sind (dies hängt
von der zu Grunde liegenden Anwendung ab). Der zweite Fall ist unabhängig davon, ob
reelle oder komplexe Zahlen benutzt werden, kann jedoch nur auftreten, wenn die Matrix
überhaupt mehrfache Eigenwerte hat. Einschätzungsfrage 3.82 ist damit beantwortet.
Wir erläutern den Begriff an allen bisher betrachteten Beispielen für Eigenwerte:

• In Beispiel 3.67 hatten wir eine 2×2-Matrix mit zwei einfachen reellen Eigenwerten.
Die Matrix ist somit diagonalisierbar.

• In Beispiel 3.70 hatten wir eine 3 × 3-Matrix mit nur zwei Eigenwerten. Der Ei-
genwert 1 war algebraisch einfach, so dass er keine Probleme machen kann. Der
Eigenwert −3 war jedoch algebraisch doppelt. Bei der weiteren Berechnung hat
sich herausgestellt, dass dabei die geometrische Vielfachheit ebenfalls 2 ist (nämlich
zwei Freiheitsgrade bei der Berechnung des Eigenvektors), somit sind algebraische
und geometrische Vielfachheit identisch, und die Matrix ist diagonalisierbar.

• In Beispiel 3.72 hatten wir eine wiederum eine 3 × 3-Matrix mit nur zwei Eigen-
werten. Der Eigenwert 4 war algebraisch doppelt, jedoch geometrisch nur einfach.
Die Matrix ist somit nicht diagonalisierbar.
Dies äußert sich auch darin, dass der Versuch, ein neues Koordinatensystem aus
den Richtungen der Eigenvektoren der Matrix aufzubauen, fehlschlägt, weil man
eben insgesamt nur zwei Eigenvektoren hat, was in drei Dimensionen natürlich zum
Aufspannen eines Koordinatensystems nicht ausreicht.

• In Beispiel 3.76 hatten wir eine 2 × 2-Matrix, die in den reellen Zahlen gar keine
Eigenwerte hatte. Im Komplexen jedoch hatte sie zwei verschiedene Eigenwerte.
Diese Matrix ist also im Reellen nicht diagonalisierbar, im Komplexen aber sehr
wohl.

140
3.11 Eigenwertprobleme

3.11.8 Diagonalisierbarkeit von symmetrischen Matrizen


In bestimmten Anwendungen treten grundsätzlich symmetrische Matrizen auf. Diese ha-
ben bezüglich der Diagonalisierbarkeit folgende besonders schöne Eigenschaft, die wir
allerdings ohne Herleitung angeben9 :

Satz 3.85 Sei A eine symmetrische, reelle Matrix, dann gilt:

• A ist diagonalisierbar.

• Alle Eigenwerte sind reell.

• Man kann die Eigenvektoren so wählen, dass sie jeweils senkrecht zueinander sind
und Länge 1 haben.

Dies sind wirklich drei eigenständige Besonderheiten, die man in anderen Worten auch
so ausdrücken kann:

1. Man findet immer ein Koordinatensystem, in dem die Matrix diagonal wird;

2. man braucht keine komplexen Zahlen dafür (die ja bei bestimmten Anwendungen
keine physikalische Entsprechung haben);

3. die Koordinatentransformation ist orthogonal.

Dies kann noch als Ergänzung zur Antwort auf die Einschätzungsfrage 3.82 gesehen
werden.
Der letzte Punkt ist aus Anwendungssicht besonders nützlich, denn nicht-orthogonale
Koordinatensysteme sind für viele Anwendungen kaum brauchbar. Dass wir mit einer
orthogonalen Koordinatentransformation auskommen, bedeutet wie erinnerlich (in drei
Dimensionen), dass wir das Koordinatensystem nur drehen und eventuell spiegeln müs-
sen. Da wir außerdem frei sind, die Nummerierung und Orientierung der Achsen beliebig
zu wählen, können wir auf Spiegelungen auch verzichten und erhalten:

Satz 3.86 Eine symmetrische reelle Matrix A ∈ R2×2 bzw. A ∈ R3×3 kann stets durch
Drehen des Koordinatensystems in eine Diagonalmatrix transformiert werden.

Die Achsen des neuen Koordinatensystems nennt man Hauptachsen der Matrix, die ent-
sprechende Koordinatentransformation heißt Hauptachsentransformation.
Wir erinnern auch daran, dass orthogonale Transformationen außerdem rechnerische
Vorteile bringen: Die entsprechende Transformationsmatrix S ist dann orthogonal, und
das bedeutet, dass S −1 = S T ist (siehe Abschnitt 3.10.3), weswegen man die transformier-
te Matrix SAS −1 wahlweise auch als SAS T schreiben kann. Dies wird unter anderem im
nächsten Semester im Rahmen der Bestimmung von Extremstellen bei Funktionen von
mehreren Argumenten eine große Rolle spielen.
9
Dies gilt allerdings nur, wenn die Einträge der Matrix reell sind. Eine Verallgemeinerung auf den
komplexen Fall bilden sogenannte hermitesche Matrizen.

141
3 Lineare Gleichungssysteme und lineare Algebra

Diagonalisierbare Matrizen
Bedeutung: Durch eine geeignete Koordinatentransformation kann die Matrix in
eine Diagonalmatrix transformiert werden.

Beschreibung in Formeln: Es existiert eine Matrix S so, dass SAS −1 diagonal ist.

Bedingungen für Diagonalisierbarkeit:


1. Charakteristisches Polynom zerfällt in Linearfaktoren. (Falls komplexe
Zahlen zulässig, ist dies automatisch erfüllt.)
2. Für alle mehrfachen Eigenwerte ist

algebraische Vielfachheit = geometrische Vielfachheit.

(Für alle einfachen Eigenwerte ist dies automatisch erfüllt.)

Berechnung der Transformationsmatrix S: Berechne alle Eigenvektoren, schreibe


sie nebeneinander in eine Matrix. Das ist S −1 . Somit ist S die inverse Matrix
davon.

Besonderheit falls A symmetrisch und reell:


• Dann ist A auf jeden Fall diagonalisierbar, auch ohne komplexe Zahlen.
• Die Transformationsmatrix S ist dann orthogonal.a
• Das bedeutet: Eine symmetrische reelle Matrix kann durch Drehen des
Koordinatensystems diagonalisiert werden.
a
Korrekt gilt: Man kann die Transformationsmatrix orthogonal wählen.

142
3.11 Eigenwertprobleme

3.11.9 Anwendung aus der Festigkeitslehre: Spannungsmatrix und


Hauptspannungsrichtungen
Wenn auf ein Werkstück Verformungskräfte wirken, entstehen sogenannte Spannungen,
die von der Art der Kräfte und von ihrer Stärke sowie von geometrischen Eigenschaften
des Werkstücks abhängen. Diese Spannungen muss man berechnen, wenn man sicherstel-
len möchte, dass sich das Werkstück nicht verformt, oder wenn man bestimmen möchte,
in welcher Weise es sich verformt.

Beispiel 3.87 Auf eine an einem Ende fest eingespannte Latte mit rechteckigem, aber
nicht quadratischem Querschnitt wirkt am anderen Ende eine Kraft, die zwar orthogonal
zur Längsachse der Latte orientiert ist, aber nicht in einer der Achsenrichtungen des
Querschnittsrechtecks verläuft. Die Kraft führt zu einer Verbiegung der Latte, deren
Richtung jedoch nicht mit der Richtung der Kraft übereinstimmt. Diese Richtung ergibt
sich aus einer Rechnung, in der die sogenannten Biegespannungen eine Rolle spielen, wir
gehen auf dieses Beispiel jedoch nicht weiter ein. //
Man betrachtet jeweils Spannungen an einer (gedachten) Schnittfläche in dem Werkstück.
Dabei unterscheidet man zwischen sogenannten Normalspannungen, welche orthogonal
zur Schnittfläche wirken, und Tangentialspannungen, die tangential zur Schnittfläche
wirken. Eine feinere Unterteilung ist:
• Zugspannung: eine Spannung, die das Werkstück auseinanderzieht (Normalspan-
nung);
• Druckspannung: eine Spannung, die das Werkstück zusammendrückt (ebenfalls
Normalspannung);
• Biegespannung: eine Spannung, die das Werkstück verbiegt (wird auch zu den Nor-
malspannungen gezählt);
• Schubspannung: eine Spannung, die zu einer Scherung des Werkstücks führt (Tan-
gentialspannung);
• Torsionsspannung: eine Spannung, die das Werkstück in sich verdreht (ebenfalls
Tangentialspannung).
Offenbar sind Zug- und Druckspannungen dasselbe, nur mit entgegengesetztem Vorzei-
chen. Wir betrachten im Folgenden exemplarisch den Fall, dass Zug-/Druckspannungen
kombiniert mit Schubspannungen auftreten (jedoch keine Biege- oder Torsionsspannun-
gen).
Betrachten wir die Spannung an der Ebene senkrecht zur x-Achse, so haben wir dort
die Zug-/Druckspannung σxx – sie wirkt in x-Richtung – sowie die zwei Schubspannungen
σxy und σxz – in y- beziehungsweise z-Richtung. Sie werden zusammengefasst in einem
Spannungsvektor
 
σxx
~σx = σxy  .

σxz

143
3 Lineare Gleichungssysteme und lineare Algebra

Um den Spannungszustand vollständig zu beschreiben, muss man aber nicht nur die
Spannungen an einer Schnittebene betrachten, sondern an drei zueinander senkrechten
Schnittebenen. Für die anderen beiden Schnittebenen erhält man auf diese Weise analog
die Spannungsvektoren ~σy und ~σz . Zur Beschreibung des gesamten Spannungszustands
gehören dann alle drei Vektoren; man fasst sie zu der Matrix
 
σxx σyx σzx
Σ = σxy σyy σzy  ,
σxz σyz σzz

der sogenannten Spannungsmatrix 10 , zusammen.


Indem man nun bestimmte Kräftegleichgewichte ausnutzt, kann man nachrechnen, dass
die sogenannten einander zugeordneten Schubspannungen jeweils gleich sind, das heißt:

σxy = σyx , σxz = σzx , σyz = σzy .

Hierdurch ergibt sich, dass die Spannungsmatrix symmetrisch ist.


Freilich hängt nun aber die Spannungsmatrix davon ab, wie das Koordinatensystem
orientiert ist, weil gegebenenfalls ja die Schnittebenen völlig anders verlaufen. Wenn
das Werkstück unregelmäßig geformt ist, gibt es zunächst auch keinen Grund, irgendein
bestimmtes Koordinatensystem zu bevorzugen.
Aus den in den vorigen Abschnitten behandelten Resultaten ergibt sich jetzt, dass es
stets möglich ist, das Koordinatensystem so zu wählen, dass die Spannungsmatrix ei-
ne Diagonalmatrix ist, was dann bedeutet, dass in jenem Koordinatensystem keinerlei
Schubspannungen mehr auftreten, also nur noch Zug-/Druckspannungen. Dabei sind die
Koordinatenrichtungen gegeben durch die Eigenvektoren der Spannungsmatrix, und die
Zug-/Druckspannungen in dem neuen Koordinatensystem sind die zugehörigen Eigen-
werte. Diese Koordinatenrichtungen nennt man Hauptspannungsrichtungen. Da Eigen-
vektoren immer nur bis auf einen skalaren Faktor eindeutig bestimmt sind, kann man
sie so skalieren, dass sie Länge 1 haben, so dass das neue Koordinatensystem also diesel-
ben Einheitenlängen hat wie das alte. Das neue Koordinatensystem ist außerdem auch
orthogonal, weil die Spannungsmatrix ja symmetrisch ist; es ist also gegenüber dem ur-
sprünglichen Koordinatensystem nur gedreht.

Beispiel 3.88 Auf ein Werkstück wirkt an der y-z-Ebene eine Schubspannung, die in
y-Richtung die Stärke 4 und in z-Richtung Stärke 3 hat11 . Weitere Spannungen wir-
ken nicht. Es sollen die Hauptspannungsrichtungen und die in ihre Richtung wirkenden
Zug-/Druckspannungen berechnet werden.
Die Spannungsmatrix lautet
 
0 4 3
Σ = 4 0 0 .
3 0 0
10
häufig auch als Spannungstensor bezeichnet
11
Einheit der Spannung ist Pascal [Pa = N/m2 ], wir lassen aber der Einfachheit halber die Einheiten weg.

144
3.11 Eigenwertprobleme

Wir müssen zunächst die Eigenwerte berechnen, also die Nullstellen von
 
−λ 4 3
det(Σ − λE3 ) = det  4 −λ 0  = −λ3 + 0 + 0 − 3 · (−λ) · 3 − 0 − (−λ) · 4 · 4
3 0 −λ
= −λ3 + 9λ + 16λ = −λ3 + 25λ.

Die Nullstellen sind offenbar

λ1 = 5, λ2 = 0, λ3 = −5;

sie sind gleich den gesuchten Zug-/Druckspannungen. (Die Reihenfolge ist mathematisch
gesehen egal, jedoch ist es in der Mechanik üblich, sie der Größe nach zu ordnen.)
Der Eigenvektor zu λ1 = 5 berechnet sich wie folgt:

−5 4 3 |I + 3/5III
4 −5 0
3 0 −5
−16/5 4 0 |I + 4/5II
4 −5 0
3 0 −5
0 0 0
4 −5 0 | · (−1/5)
3 0 −5 | · (−1/5)
−4/5 1 0
−3/5 0 1

Wir erhalten somit


 
1
~v1 = α 4/5 .
3/5

Nun ist es wie gesagt üblich, die Hauptspannungsrichtungen so zu skalieren, dass sie
Länge 1 haben. Wegen
r  4 2  3 2 √
12 + + = 2
5 5

muss man hierfür α = 1/ 2 wählen und erhält
   
1 5
1 4  1  
~v1 = √ /5 = √ 4 .
2 3/5 5 2 3

145
3 Lineare Gleichungssysteme und lineare Algebra

Die Berechnung der beiden anderen Eigenvektoren führen wir hier nicht aus, sie lauten

   
0 5
1 1
~v2 =  3  , ~v3 = √ −4 .
5 5 2 −3
−4

Die Vektoren ~v1 , ~v2 und ~v3 sind die Hauptspannungsrichtungen. Legt man das neue
Koordinatensystem so, dass die Achsen in diese drei Richtungen zeigen, so besteht der
Spannungszustand aus einer Zugspannung der Stärke 5 in Richtung ~v1 (wegen λ1 = 5)
und einer Druckspannung der Stärke 5 in Richtung ~v3 (wegen λ3 = −5). In Richtung
~v2 liegt keine Spannung vor (wegen λ2 = 0), man spricht daher von einem zweiachsigen
Spannungszustand. //

3.12 Anwendung: Wichtige geometrische


Koordinatentransformationen in der Ebene

3.12.1 Einleitung

Bereits in Abschnitt 3.10 haben wir uns mit linearen Koordinatentransformationen be-
schäftigt und festgestellt, dass diese sich stets durch eine Matrix darstellen lassen. In
diesem Abschnitt konkretisieren wir diese Überlegungen, indem wir konkret typische
Transformationen wie Drehungen oder Spiegelungen behandeln und für diese die entspre-
chenden Transformationsmatrizen aufstellen. Wir beschränken uns dabei aus Zeitgrün-
den auf Transformationen in der Ebene (also in zwei Dimensionen). Transformationen
im Raum (drei Dimensionen) funktionieren prinzipiell ähnlich.
Außer Drehungen und Spiegelungen sind in der Praxis auch Verschiebungen sehr wich-
tige Transformationen. Diese fallen jedoch nicht in die Klasse der in Abschnitt 3.10 be-
handelten Transformationen, weil sie den Nullpunkt nicht invariant lassen. Durch einen
Trick (die sogenannten homogenen Koordinaten) wird es jedoch möglich sein, auch Ver-
schiebungen durch Matrizen darzustellen.
In vielen Situationen hat man mehrere Transformationen hintereinander auszufüh-
ren. Dies ist zum Beispiel bei der Positionsberechnung eines Roboterarms mit mehreren
Gelenken der Fall: Dort müssen abwechselnd Drehungen (Gelenke) und Verschiebungen
(Armabschnitte) durchgeführt werden. (Dieselbe Situation tritt übrigens in der Compu-
tergrafik auf, wenn – z. B. bei der Programmierung von Ego-Shootern – eine virtuelle
dreidimensionale Landschaft von veränderlichen Positionen und Blickrichtungen darge-
stellt werden soll.) Ein wesentlicher Nutzen der Darstellung in Form von Matrizen besteht
in der Möglichkeit, eine Kombination von (beliebig vielen) Transformationen sehr einfach
in einer Transformation zusammenzufassen: Hierzu muss man nämlich einfach die Matri-
zen miteinander multiplizieren. Die Berechnungen vereinfachen sich dadurch wesentlich
(Ego-Shooter werden dadurch gewissermaßen überhaupt erst möglich).

146
3.12 Anwendung: Wichtige geometrische Koordinatentransformationen in der Ebene

1
cos ϕ

sin ϕ

ϕ
ϕ x

− sin ϕ cos ϕ 1

Abbildung 3.5: Die Einheitsvektoren (1, 0) und (0, 1) werden um einen Winkel ϕ gedreht.

3.12.2 Drehungen um den Nullpunkt


Wir beginnen mit Drehungen um den Nullpunkt; wir suchen also eine Vorschrift, nach
der man berechnen kann, auf welchen Punkt ein Punkt (x, y)T bei einer Drehung um
einen Winkel ϕ im Gegenuhrzeigersinn abgebildet wird. Gemäß unseren Erkenntnissen
aus Abschnitt 3.10 genügt es, sich zu überlegen, wie die Einheitsvektoren (1, 0) und (0, 1)
durch die Drehung transformiert werden. Die Ergebnisvektoren
   
cos ϕ − sin ϕ
und
sin ϕ cos ϕ

(siehe Abbildung 3.5)12 muss man dann nur noch nebeneinander in eine Matrix schreiben,
somit ergibt sich die Drehmatrix
 
cos ϕ − sin ϕ
.
sin ϕ cos ϕ

Übung 3.89 Wie sieht die Matrix aus, wenn man in die andere Richtung dreht?

12
In dieser Überlegung bleiben die Koordinatenachsen fest, und es wird der Punkt gedreht. Dies weicht
von dem Vorgehen in Abschnitt 3.10 ab, wo wir davon ausgegangen sind, dass der Punkt fest bleibt
und sich die Koordinatenachsen ändern. Man macht sich leicht klar, dass dieser Unterschied rechne-
risch einer Änderung der Drehrichtung entspricht. In der Praxis muss man daher genau aufpassen,
welche Drehrichtung korrekt ist. Dasselbe gilt analog für andere Transformationen.

147
3 Lineare Gleichungssysteme und lineare Algebra

Zu Übung 3.89:

y
2 S · ~x
b

1 b
~x
ϕ

1 2

Abbildung 3.6: Drehung des Punktes ~x = (2, 1) um den Winkel ϕ = π/6 im Gegenuhrzei-
gersinn, vgl. Beispiel 3.90.

Beispiel 3.90 Eine Drehung im Gegenuhrzeigersinn um den Winkel π/6 (bzw. 30 °) wird
durch die Matrix
  1√ 
cos(π/6) − sin(π/6) 2 3 −√21
S= = 1 1
sin(π/6) cos(π/6) 2 2 3

beschrieben. Transformieren wir den Punkt


 
2
~x =
1

mit dieser Matrix, so ergibt sich


1√    √   
2 3 −√12 2 3 −√21 1.23205
S · ~x = 1 1 · = = .
2 2 3
1 1 + 12 3 1.86603

Die Zeichnung in Abbildung 3.6 bestätigt die Korrektheit des Ergebnisses. //

148
3.12 Anwendung: Wichtige geometrische Koordinatentransformationen in der Ebene

3.12.3 Spiegelungen an Achsen durch den Nullpunkt


Wir betrachten zunächst eine Spiegelung in x-Richtung, was heißen soll, eine Spiegelung
an einer Achse, die senkrecht zur x-Richtung liegt, also eine Spiegelung an der y-Achse.
Es ist unmittelbar klar, dass diese den Vektor (x, y)T in den Vektor (−x, y)T überführt,
und man überzeugt sich leicht davon, dass dies durch Multiplikation mit der Matrix
 
−1 0
0 1

dargestellt wird.
Eine Spiegelung an einer beliebig schräg liegenden Achse scheint schwieriger zu berech-
nen zu sein, aber hier können wir bereits aus dem Vollen schöpfen: Will man an einer
Achse spiegeln, die um den Winkel ϕ (im Gegenuhrzeigersinn) gegenüber der y-Achse
verdreht ist, so lässt sich diese Transformation folgendermaßen zusammensetzen:

1. Man dreht die Bildszene um den Winkel −ϕ, so dass die gewünschte Spiegelachse
auf der y-Achse zu liegen kommt.

2. Man spiegelt an der y-Achse.

3. Man dreht wiederum um den Winkel ϕ, um die ursprüngliche Lage wiederherzu-


stellen.

Wir müssen also nur drei Matrizen multiplizieren. Dabei müssen wir beachten, dass die
zuerst auszuführende Operation rechts steht, weil die Matrizen ja von rechts nach links
auf den jeweiligen Vektor wirken. Die gewünschte Matrix lautet also
     2 
cos ϕ − sin ϕ −1 0 cos ϕ sin ϕ sin ϕ − cos2 ϕ −2 sin ϕ cos ϕ
=
sin ϕ cos ϕ 0 1 − sin ϕ cos ϕ −2 sin ϕ cos ϕ cos2 ϕ − sin2 ϕ
   
cos2 ϕ sin ϕ cos ϕ cos ϕ
= E2 − 2 = E2 − 2 (cos ϕ, sin ϕ)
sin ϕ cos ϕ sin2 ϕ sin ϕ
  T
cos ϕ cos ϕ
= E2 − 2
sin ϕ sin ϕ

Dabei ist (cos ϕ, sin ϕ)T offenbar ein Vektor der Länge 1, der senkrecht zur gewünschten
Spiegelachse steht. Es ergibt sich also folgende einfache Regel: Soll an einer zu einem ge-
gebenen Vektor ~a senkrechten Ursprungsgeraden gespiegelt werden, so lautet die Matrix

E2 − 2~a~aT ,

jedenfalls wenn |~a| = 1 ist. Hat ~a eine andere Länge als 1, so muss der Vektor zunächst
normiert werden, es ergibt sich dann die Matrix

2~a~aT
E2 − .
|~a|2

149
3 Lineare Gleichungssysteme und lineare Algebra

3.12.4 Größenänderungen
Will man Bildszenen maßstabgetreu vergrößern oder verkleinern, so muss man offenbar
alle Koordinaten mit dem entsprechenden Skalierungsfaktor α > 0 multiplizieren. Ein
Wert α > 1 entspricht einer Vergrößerung, ein Wert α < 1 einer Verkleinerung. Diese
Transformation kann auch mit einer Matrix ausgedrückt werden, nämlich der Matrix
 
α 0
αE2 = .
0 α

Das Skalierungszentrum ist dabei stets der Nullpunkt.

3.12.5 Verschiebungen – Homogene Koordinaten


Wie eingangs schon erwähnt, fallen Verschiebungen nicht in die Klasse der linearen Ko-
ordinatentransformationen, da sie den Nullpunkt nicht an derselben Stelle lassen. Ohne
Verschiebungen kommt man in der Praxis aber kaum aus. Man benötigt sie auch indirekt,
wenn beispielsweise Drehungen um einen anderen Punkt als den Nullpunkt zusammen-
gesetzt werden sollen.
Zum Glück gibt es einen Trick, mit dem auch Verschiebungen durch Matrizen darge-
stellt werden können. Man stellt hierzu einen Punkt in der Ebene nicht mehr durch den
zweidimensionalen Vektor (x, y)T dar, sondern durch einen dreidimensionalen Vektor,
nämlich
 
x
y  .
1

Man hängt also einfach an alle Vektoren eine zusätzliche Komponente an, die vereinba-
rungsgemäß immer gleich 1 ist. Diese Darstellung nennt man homogene Koordinaten.13
Wir haben jetzt zwei Fragen zu beantworten:

1. Wie müssen die bisher konstruierten Matrizen auf homogene Koordinaten erweitert
werden, damit sie noch dieselben Operationen beschreiben?

2. Wie hilft uns die zusätzliche Komponente dabei, Verschiebungen in Matrixform


darzustellen?

Zur ersten Frage: Angenommen, wir haben eine gegebene 2 × 2-Matrix


 
a b
A= ,
c d
13
In einer allgemeineren Form der homogenen Koordinaten kann die zusätzliche Komponente auch andere
Werte annehmen. Dadurch wird es möglich, auch perspektivische Abbildungen (Fluchtpunktperspek-
tive) durch Matrizen darzustellen. Die Anwendungen beschränken sich dann aber im Wesentlichen
auf die Computergrafik, weshalb wir das hier nicht weiter verfolgen. In der Literatur findet man unter
den Stichworten „Zentralprojektion“ und „projektive Abbildung“ weiterführende Informationen.

150
3.12 Anwendung: Wichtige geometrische Koordinatentransformationen in der Ebene

die eine Drehung, Spiegelung, Skalierung oder eine Kombination dieser Operationen dar-
stellt. Dann müssen wir eine 3 × 3-Matrix à finden, die einen Vektor der Form (x, y, 1)T
so transformiert, dass die ersten beiden Komponenten gerade mit A multipliziert werden
und die dritte Komponente unverändert 1 bleibt. Es muss also gelten:
   
x ax + by
à · y  = cx + dy  .
1 1

Dies wird durch die Matrix


 
a b 0
à =  c d 0
0 0 1

erreicht. Es gilt also: Um eine der bisher behandelten Transformationstypen auf einen
Vektor in homogenen Koordinaten anzuwenden, muss man die entsprechende Matrix um
eine Zeile und eine Spalte ergänzen, wobei der untere rechte Eintrag eine 1 und alle
anderen zusätzlichen Einträge Nullen sind.
Wir kommen jetzt zur zweiten Frage, also der Matrixdarstellung der Verschiebung.
Angenommen, wir sollen alle Punkte um den Vektor (u, v)T verschieben. Wir suchen
also eine Matrix B, für die gilt
   
x x+u
B · y  =  y + v 
1 1

für alle x, y. Man überzeugt sich leicht davon, dass dies durch
 
1 0 u
B = 0 1 v 
0 0 1

erreicht wird.

Beispiel 3.91 Mit maxima zeichnen wir die einfache Bildszene aus Abbildung 3.7 und
drehen diese um einen Winkel von 30 Grad.

bildszene1:matrix([0,1,1,2,3,3,4],[0,0,2,3,2,0,0],[1,1,1,1,1,1,1]);
zeich(m):=[discrete,m[1],m[2]];
dreh(p):=matrix([cos(p),-sin(p),0],[sin(p),cos(p),0],[0,0,1]);
plot2d([zeich(bildszene1),zeich(dreh(30*%pi/180).bildszene1)],same_xy);

In der Vorlesung wird dasselbe auch für die kompliziertere Bildszene aus Abbildung 3.8
gezeigt, und es werden auf Wunsch andere Transformationen demonstriert. //

151
3 Lineare Gleichungssysteme und lineare Algebra

Transformationen in der Ebene


Drehungen: In Gegenuhrzeigersinn um den Nullpunkt:
 
cos ϕ − sin ϕ
,
sin ϕ cos ϕ

dabei ist ϕ der Drehwinkel.


Gegenrichtung durch Tauschen der Vorzeichen vor den sin ϕ-Termen.

Spiegelungen: An einer Geraden durch den Nullpunkt:

2~a~aT
E2 − ,
|~a|2

dabei ist ~a Normalenvektor zur Spiegelgeraden.

Skalierungen: Mit Skalierungszentrum im Nullpunkt:

αE2 ,

dabei ist α > 0 der Skalierungsfaktor.

Verschiebungen: Um den Vektor (u, v)T :


 
1 0 u
0 1 v .
0 0 1

Dabei sind homogene Koordinaten zu verwenden, das heißt:


• Alle Vektoren werden in der Form
 

∗
1

ergänzt.
• Die Matrizen für alle anderen Transformationen werden in der Form
 
∗ ∗ 0
 ∗ ∗ 0
0 0 1

ergänzt.

152
3.12 Anwendung: Wichtige geometrische Koordinatentransformationen in der Ebene

Abbildung 3.7: Eine einfache Bildszene.

Abbildung 3.8: Eine kompliziertere Bildszene.

153
4 Differenzialrechnung
4.1 Stetigkeit
Die meisten in der Natur auftretenden Vorgänge sind kontinuierlich, haben also kei-
ne Sprünge. Beschreibt man solch einen Vorgang durch eine Funktion, so macht der
Funktionsgraph keine Sprünge. Anschaulich kann man sagen: Der Graph lässt sich ohne
Absetzen zeichnen. Aber wie kann man es formal beschreiben, dass eine Funktion einen
Sprung macht oder nicht?
Sei f eine Funktion mit Definitionsmenge D ⊂ R und Zielmenge Z ⊂ R. Wir wollen
überlegen, was es heißen sollte, dass f an einer Stelle x∗ einen Sprung macht. Nun, damit
f eine Chance hat, in x∗ zu springen, muss f (x∗ ) zunächst einmal überhaupt definiert
sein, also x∗ ∈ D. Das alleine reicht aber nicht aus; so ist etwa die Frage, ob die Funktion

f : {0, 1, 2, 3} → {1, 2, 3, 4}, 0 7→ 2, 1 7→ 4, 2 7→ 2, 3 7→ 2

an der Stelle 1 springt, sinnlos. Vielmehr muss die Funktion auf einem ganzen Intervall
definiert sein, das x∗ enthält.1 Häufig wird das Intervall zu beiden Seiten von x∗ liegen,
aber x∗ kann auch ein Randpunkt des Intervalls sein.
Dies sind die Grundvoraussetzungen dafür, dass es überhaupt Sinn ergibt, danach zu
fragen, ob f in x∗ springt oder nicht. Für die Beschreibung eines Sprunges ist es jetzt
erforderlich, den Funktionswert in x∗ mit den Funktionswerten in der Nähe von x∗ in
Zusammenhang zu bringen. Ein Sprung liegt offenbar vor, wenn sich die Funktionswerte
bei Annäherung an die Stelle x∗ nicht dem Wert f (x∗ ) annähern, also auf einem be-
stimmten Mindestabstand von f (x∗ ) bleiben. Wie groß dieser Mindestabstand ist, ist
dafür irrelevant. Wir legen also fest:

Definition 4.1 Sei f : D → Z, und sei x∗ in einem Intervall enthalten, das ganz in D
liegt. f macht in x∗ einen Sprung (oder auch: hat in x∗ eine Unstetigkeitsstelle), falls es
einen Mindestabstand ε > 0 gibt so, dass es in jeder Umgebung von x∗ noch eine Stelle
x gibt, an der |f (x) − f (x∗ )| > ε ist.
Hat f in x∗ keine Unstetigkeitsstelle, so sagt man, dass f in x∗ stetig ist, und durch
formales Umkehren der Bedingung ergibt sich:

Definition 4.2 Sei f : D → Z, und sei x∗ in einem Intervall enthalten, das ganz in D
liegt. f heißt stetig in x∗ , falls es zu jedem ε > 0 eine Umgebung von x∗ gibt, in der für
jedes x stets |f (x) − f (x∗ )| ≤ ε ist.
1
Formal genügt es, dass x∗ ein sogenannter Häufungspunkt der Definitionsmenge von f ist, aber auf
dieses Detail gehen wir hier nicht weiter ein.

155
4 Differenzialrechnung

Merke: Die Begriffe „Stetigkeit“ und „Unstetigkeitsstelle“ sind undefiniert,


wenn die entsprechende Stelle nicht zur Definitionsmenge der Funktion gehört
oder darin ein isolierter Punkt ist.

Eine Funktion heißt stetig auf einem Intervall I, wenn sie in jedem Punkt in I stetig ist,
dort also nirgends springt. Häufig sagt man auch nur, f sei stetig (ohne Angabe eines
Intervalls), wenn aus dem Zusammenhang klar ist, welches Intervall gemeint ist (zum
Beispiel die gesamte Definitionsmenge).
Alle der in Kapitel 1 behandelten Funktionen sind stetig auf ihren jeweiligen Definiti-
onsmengen:

• Ganzrationale Funktionen (Polynome) sind stetig auf ganz R.

• Gebrochenrationale Funktionen sind stetig, außer in den Definitionslücken.

• Potenzfunktionen sind stetig auf ihrer jeweiligen Definitionsmenge (der vom Expo-
nenten abhängt). Dasselbe gilt für Wurzelfunktionen, da sie Spezialfälle von Po-
tenzfunktionen sind.

• Exponentialfunktionen x 7→ ax mit a > 0 sind stetig auf ganz R. Logarithmusfunk-


tionen x 7→ loga x mit a > 0 und a 6= 1 sind stetig auf (0, ∞).

• sin und cos sind stetig auf ganz R, tan und cot sind stetig außerhalb ihrer Defini-
tionslücken.

• Die Hyperbel- und Areafunktionen sind ebenfalls stetig auf ihren Definitionsmen-
gen.

Es stellt sich die Frage, ob es überhaupt Funktionen mit Unstetigkeitsstellen gibt. Es


gibt sie, zum Beispiel:

• Die Heaviside-Funktion
(
1, x ≥ 0,
H : R → R, x 7→
0, x < 0

ist unstetig an der Stelle 0.

• Die Kippschwingungsfunktion

k : R → R, x 7→ x − ⌊x⌋

(wobei ⌊x⌋ die größte ganze Zahl bezeichnet, die nicht größer als x ist) ist an allen
ganzzahligen Stellen unstetig.

• Ein interessantes Beispiel ist auch die Funktion


1
f : R \ {0} → R, x 7→ sin ;
x

156
4.1 Stetigkeit

sie ist im Nullpunkt nicht definiert, aber sie hat dort keinen Pol, denn sie ist be-
schränkt. Lässt sie sich so in den Nullpunkt fortsetzen, dass sie dort stetig wird?
Nein, denn in jeder Umgebung des Nullpunkts nimmt die Funktion alle Werte in
Bereich [−1, 1] an. Ganz gleich, wie man f (0) also festlegen würde, zum Mindestab-
stand ε = 21 gäbe es stets immer noch Punkte in jeder Umgebung des Nullpunkts,
die nicht nahe genug an f (0) liegen. Zeichnungen mit maxima bestätigen das:
plot2d(sin(1/x),[x,-10,10],[y,-1.1,1.1]);
plot2d(sin(1/x),[x,-1,1],[y,-1.1,1.1]);
plot2d(sin(1/x),[x,-0.001,0.001],[y,-1.1,1.1]);
Stetige Funktionen haben einige schöne Eigenschaften, die zu kennen sich lohnt:

Satz 4.3 Eine stetige Funktion auf einem beschränkten, abgeschlossenen Intervall in R
(also f : [a, b] → R)
• ist beschränkt (nach oben und unten),
• nimmt ihr Minimum und ihr Maximum an,
• nimmt jeden Wert zwischen dem Minimum und dem Maximum an.
Aus der letzten Aussage ergibt sich insbesondere:

Satz 4.4 (Zwischenwertsatz) Ist f : [a, b] → R stetig und haben f (a) und f (b) verschie-
dene Vorzeichen, so hat f im Inneren des Intervalls eine Nullstelle.
Wir betonen nochmals: Dass f auf [a, b] stetig ist, heißt dass zwischen a und b weder
Definitionslücken noch Sprünge vorliegen.
Eine Anwendung dieser Tatsache ist das Bisektionsverfahren; es ist ein Verfahren zur
näherungsweisen Bestimmung einer Nullstelle einer gegebenen Funktion f . Man kann
es anwenden, wenn eine analytische Bestimmung der Nullstelle nicht möglich ist (zum
Beispiel Polynom vom Grad ≥ 5). Die Idee ist, die Länge des Intervalls wiederholt zu
halbieren: Man berechnet dafür jeweils den Funktionswert in der Intervallmitte und be-
schränkt sich alsdann – je nach Vorzeichen – auf die linke oder rechte Intervallhälfte.

Beispiel 4.5 Die Funktion


f (x) = x5 − x4 + 2x3 + 3x2 + 5x − 7
erfüllt
f (0) < 0, f (1) > 0,
hat also nach dem Zwischenwertsatz eine Nullstelle im Intervall [0, 1]. Weiter ist
f (0.5) < 0,
also liegt die Nullstelle in [0.5, 1]. Weiter ist
f (0.75) < 0,
also liegt die Nullstelle in [0.75, 1]. //

157
4 Differenzialrechnung

y
f (x∗ + h) b

f (x∗ ) b

x∗ x∗ + h
Abbildung 4.1: Links: Berechnung der Sekantensteigung über ein Steigungsdreieck.
Rechts: Mit h → 0 wird die Sekante zur Tangente.

Es gibt allerdings bessere Verfahren zur näherungsweisen Bestimmung von Nullstellen.


In der Praxis wird oft das sogenannte Newton-Verfahren (oder Varianten davon) verwen-
det. Es wird diesbezüglich auf die Lehrveranstaltung „Numerische Lösungsverfahren“ im
4. Semester verwiesen.

4.2 Differenzierbarkeit und Ableitung


4.2.1 Einführung
Neben der Stetigkeit – also der Eigenschaft, keine Sprünge zu haben – besteht ein weiteres
Merkmal vieler natürlicher Prozesse darin, keine Knicke zu haben. Hat f in x∗ weder
einen Sprung noch einen Knick, so hat der Graph von f in x∗ eine eindeutige Tangente;
das ist eine Gerade, die den Graphen von f in x∗ berührt und dort dieselbe Richtung hat.
Da sie eine Gerade ist, ist sie eindeutig durch einen Punkt und ihre Steigung gegeben;
ein Punkt ist aber klar, nämlich (x∗ , f (x∗ )), die entscheidende Information ist also die
Steigung.
Annähern kann man die Tangente durch eine Sekante; das ist eine Gerade, die den
Graphen von f in x∗ sowie einem zweiten, nahe gelegenen Punkt x∗ + h schneidet. Ihre
Steigung lässt sich leicht über ein Steigungsdreieck berechnen, sie lautet

f (x∗ + h) − f (x∗ )
,
h
siehe Abbildung 4.1 (links). Die Tangente kann als Grenzfall der Sekante im Fall h → 0
aufgefasst werden, siehe Abbildung 4.1 (rechts).
Die Steigung der Tangenten von f in x∗ wird (sofern sie existiert) mit f ′ (x∗ ) bezeichnet;
eine formale Definition in Form eines Grenzwertes folgt in Abschnitt 5.5. Man nennt f
in x∗ differenzierbar, falls f ′ (x∗ ) existiert, und den Wert f ′ (x∗ ) die (erste) Ableitung von
f in x∗ .

158
4.2 Differenzierbarkeit und Ableitung

Beispiel 4.6 Wir betrachten die Funktion f (x) = x2 . Für die Sekantensteigung ergibt
sich
f (x∗ + h) − f (x∗ ) (x∗ + h)2 − (x∗ )2 (x∗ )2 + 2hx∗ + h2 − (x∗ )2 2hx∗ + h2
= = =
h h h h
= 2x∗ + h.

Im Grenzwert h → 0 ergibt sich dann die Tangentensteigung

f ′ (x∗ ) = 2x∗ , bzw. f ′ (x) = 2x.

Es gibt jedoch Rechenmethoden, mit denen Ableitungen wesentlich einfacher berechnet


werden können, siehe Abschnitt 4.2.2. //
Zu den Situationen, in denen f in x∗ nicht differenzierbar ist, zählen insbesondere
folgende:
• f ist in x∗ nicht definiert.

Beispiel 4.7 f (x) = 1/x an der Stelle 0. //

• f ist in x∗ nicht stetig.

Beispiel 4.8 Die Heaviside-Funktion an der Stelle 0. //

• f hat in x∗ einen „klassischen Knick“, das heißt es gibt eine linksseitige und eine
rechtsseitige Tangente, aber diese stimmen nicht überein.

Beispiel 4.9 f (x) = |x| an der Stelle 0. //

• f ist in x∗ zwar stetig, hat dort aber überhaupt keine Tangente.

Beispiel 4.10
(
x · sin(1/x), x 6= 0,
f (x) =
0, x=0

an der Stelle 0. //

• f hat in x∗ zwar eine Tangente, aber diese verläuft parallel zur y-Achse; in diesem
Fall wäre die Tangentensteigung ∞, was wir nicht zulassen wollen.

Beispiel 4.11 Die Funktion f (x) = x an der Stelle 0. //

Ist f auf einem Intervall in jedem Punkt differenzierbar, das heißt, ist also etwa für
x ∈ [a, b] stets f ′ (x) definiert, so ist f ′ selbst wiederum eine Funktion, die Ableitung von
f . Die Ableitung von f ist also überall dort definiert, wo f differenzierbar ist, und sie ist
diejenige Funktion, die in jedem Punkt die Steigung der Tangente an f in diesem Punkt
angibt. Hieraus ergibt sich folgende Konsequenz:

159
4 Differenzialrechnung

Satz 4.12 Ist f in x∗ differenzierbar, so ist die Geradengleichung für die Tangente an f
in x∗ in Punkt-Steigungs-Form gegeben durch
y − f (x∗ )
= f ′ (x∗ ),
x − x∗
beziehungsweise in Hauptform
y = f (x∗ ) + f ′ (x∗ )(x − x∗ ) = f ′ (x∗ )x + f (x∗ ) − x∗ f ′ (x∗ ).

Übung 4.13 Stellen Sie die Tangentengleichung für die Funktion f (x) = x2 an der Stelle
x∗ = 3 in Hauptform auf.

Zu Übung 4.13:

Andere Schreibweisen für die Ableitung f ′ (x) sind:


d df
f (x), , Df (x).
dx dx
Will man die Ableitung an einer bestimmten Stelle x∗ benennen, so sind neben f ′ (x∗ )
die Schreibweisen
d df  df 
f (x∗ ), , , Df (x∗ )
dx dx x=x∗ dx x=x∗
üblich.
In physikalischen und technischen Prozessen ist die Ableitung ein Maß dafür, wie sich
eine gegebene Größe ändert. Beispiele sind:
• Ist s(t) bei einer mechanischen Bewegung die Strecke, die nach der Zeit t zurückge-
legt wurde, so ist s′ (t) die Momentangeschwindigkeit zum Zeitpunkt t. Die zeitliche
Änderung der Geschwindigkeit wiederum, also s′′ (t) ist die Beschleunigung.

160
4.2 Differenzierbarkeit und Ableitung

Tabelle 4.1: Ableitungen der wichtigsten Elementarfunktionen

f (x) f ′ (x) Bemerkung


konstant 0
xa a · xa−1 a ∈ R beliebig; falls a < 1, so ist f in 0 nicht differenzierbar.
Wurzelfunktionen sind vermöge a = 1/n in diesem Funktionstyp
enthalten.
sin x cos x Nur im Bogenmaß gültig.
cos x − sin x Nur im Bogenmaß gültig.
ex ex Dies ist das Besondere an der Eulerschen Zahl e. Keine andere
Funktion als die e-Funktion und ihre Vielfachen ist gleich ihrer
eigenen Ableitung.

• Ist Q(t) die Ladung eines elektrischen Bauteils zum Zeitpunkt t, so ist die zeitliche
Änderung Q′ (t) die Stromstärke.
• Ist W (x) die Arbeit, die benötigt wird, um einen Gegenstand an den Ort x zu
bringen, so ist die Ableitung W ′ (x) die Kraft, die man an der Stelle x zur Bewegung
des Gegenstands aufbringen muss.

4.2.2 Berechnung von Ableitungen


Glücklicherweise lassen sich Ableitungen von Funktionen, die aus Elementarfunktionen
kombiniert sind, stets geschlossen angeben2 . Dies ergibt sich aus der Tatsache, dass zum
einen die Ableitungen der Elementarfunktionen selbst geschlossen angebbar sind und es
zum anderen Regeln für die Berechnung der Ableitung von kombinierten Funktionen gibt.
All diese Regeln lassen sich dabei aus der formalen Beschreibung über die Tangentenstei-
gung, als Grenzwert der Sekantensteigung, zurückführen (analog wie im Beispiel 4.6).
Die Ableitungen der allerwichtigsten Elementarfunktionen sind in Tabelle 4.1 zusam-
mengefasst. Für alle anderen Elementarfunktionen können die Ableitungen mittels der im
Folgenden vorzustellenden Ableitungsregeln hierauf zurückgeführt werden – wir kommen
später darauf zurück.

Satz 4.14 (Faktorregel) Ein konstanter Faktor bleibt beim Differenzieren erhalten:
d
(c · f (x)) = c · f ′ (x).
dx
Beispiel 4.15 f (x) = 4 sin x, dann f ′ (x) = 4 cos x. //

Satz 4.16 (Summenregel) Eine Summe von Funktionen darf gliedweise differenziert wer-
den:
d 
f1 (x) + f2 (x) + · · · + fn (x) = f1′ (x) + f2′ (x) + · · · + fn′ (x).
dx
2
soweit sie freilich überhaupt existieren

161
4 Differenzialrechnung

Beispiel 4.17 f (x) = cos x + x5 + ex , dann f ′ (x) = − sin x + 5x4 + ex . //

Aus der Faktorregel und der Summenregel zusammen mit der Ableitung einer Potenz
ergibt sich bereits die Berechnungsvorschrift für die Ableitung eines beliebigen Polynoms.

Beispiel 4.18 f (x) = 2x4 − 4x3 + x2 − 5x + 2, dann f ′ (x) = 8x3 − 12x2 + 2x − 5. //

Die weiteren Ableitungsregeln sind komplizierter, aber genauso wichtig.

Satz 4.19 (Produktregel) Die Ableitung eines Produkts erfolgt nach der Regel

d 
f (x) · g(x) = f ′ (x)g(x) + f (x)g ′ (x).
dx

Beispiel 4.20 f (x) = x2 cos x, dann f ′ (x) = 2x cos x − x2 sin x. //

Bei drei Faktoren erhält man hieraus:


d   d 
f (x)g(x)h(x) = f ′ (x) g(x)h(x) + f (x) · g(x)h(x)
dx dx 
= f ′ (x)g(x)h(x) + f (x) g ′ (x)h(x) + g(x)h′ (x)
= f ′ (x)g(x)h(x) + f (x)g ′ (x)h(x) + f (x)g(x)h′ (x).

Analoge Regeln gelten für Produkte mit noch mehr Faktoren.

Satz 4.21 (Quotientenregel) Die Ableitung eines Quotienten erfolgt nach der Regel
 
d f (x) f ′ (x)g(x) − f (x)g ′ (x)
= .
dx g(x) g(x)2

Hiermit können wir zum Beispiel die Ableitung der Tangens- und Kotangens-Funktionen
berechnen:
d  sin x  sin′ x cos x − sin x cos′ x cos2 x + sin2 x
tan′ (x) = = =
dx cos x cos2 x cos2 x
1
= = 1 + tan2 x,
cos2 x
d  cos x  cos′ x sin x − cos x sin′ x − sin2 x − cos2 x
cot′ (x) = = =
dx sin x sin2 x sin2 x
1
= − 2 = −1 − cot2 x.
sin x

Übung 4.22 Berechnen Sie die Ableitung der Funktion


x+1
f (x) = .
x2 + 1

162
4.2 Differenzierbarkeit und Ableitung

Zu Übung 4.22:

Satz 4.23 (Kettenregel) Die Ableitung einer Verkettung zweier Funktionen erfolgt nach
der Regel

d 
f (g(x)) = f ′ (g(x)) · g ′ (x).
dx

Die Anwendung der Kettenregel braucht zunächst etwas Übung. Häufig hilft es, mit einer
Substitution zu arbeiten.

Beispiel 4.24 Sei f (x) = cos(x2 ). Wir schreiben

f = cos u, u = x2 ,

die Kettenregel lautet dann

df df du
= · ,
dx du dx
was überhaupt eine gut merkbare Schreibweise der Kettenregel ist, weil sie wie das Er-
weitern eines Bruches mit du aussieht. In diesem Fall ist
df du
= − sin u = − sin(x2 ), = 2x,
du dx
also

f ′ (x) = −2x sin(x2 ).

//

163
4 Differenzialrechnung

Wirkung von Konstanten beim Ableiten


Position Wirkung Beispiel
+ c außen fällt weg f (x) = sin(x) + 5, f ′ (x) = cos(x)
· c außen bleibt erhalten f (x) = 5 · sin(x), f ′ (x) = 5 · cos(x)
+ c innen bleibt erhalten f (x) = sin(x + 5), f ′ (x) = cos(x + 5)
· c innen zusätzlich nach außen f (x) = sin(5 · x), f ′ (x) = 5 · cos(5 · x)

Ein Spezialfall liegt vor, wenn die innere Funktion nur aus der Multiplikation mit einer
Konstanten besteht: f (x) = g(c·x). In diesem Fall wäre also u = cx und somit du/dx = c,
also:

Satz 4.25 (Multiplikative Konstante im Argument)

d 
g(cx) = c · g ′ (cx).
dx
Auf dieselbe Weise erhält man:

Satz 4.26 (Additive Konstante im Argument)

d 
g(x + c) = g ′ (x + c).
dx
Dies erlaubt uns jetzt, beispielsweise die Ableitungen der hyperbolischen Sinus- und
Kosinusfunktionen zu bilden, wobei sich wiederum Ähnlichkeiten zu den trigonometri-
schen Funktionen herausstellen:
d  ex − e−x  1 d x 1 x
sinh′ (x) = = (e − e−x ) = (e − (−1) · e−x ) = cosh(x),
dx 2 2 dx 2
d  ex + e−x  1 d x 1 x
cosh′ (x) = = (e + e−x ) = (e + (−1) · e−x ) = sinh(x).
dx 2 2 dx 2
Die Ableitungen von tanh und coth erfolgen dann wiederum mit der Quotientenregel.
Ein weiteres Resultat der Kettenregel ist die Ableitung einer Exponentialfunktion mit
beliebiger Basis:

d x d ln(ax ) d x·ln a
(a ) = (e )= (e ) = (ln a) · ex·ln a = (ln a) · ax .
dx dx dx
In manchen Anwendungen treten häufig Funktionen vom Typ g(x) · eαx auf, für die
Ableitung ergibt sich mit Produkt- und Kettenregel:

d
(g(x) · eαx ) = g ′ (x) · eαx + g(x) · eαx · α = (g ′ (x) + αg(x)) · eαx .
dx

164
4.2 Differenzierbarkeit und Ableitung

∆x
f −1
∆y

∆y

∆x
x

Abbildung 4.2: Veranschaulichung der Umkehrregel: Beim Spiegeln an der Diagonalen


vertauschen sich im Steigungsdreieck gerade ∆x und ∆y.

Wir können nun schon allerhand Funktionen ableiten, aber zum Beispiel den Loga-
rithmus können wir noch nicht ableiten, obwohl er ja weder Sprünge noch Knicke hat,
also differenzierbar sein müsste. Auch die Umkehrungen der trigonometrischen und der
Hyperbelfunktionen können wir noch nicht ableiten. Hierfür benötigen wir die zunächst
letzte Ableitungsregel, die Umkehrregel. Sei f die Umkehrfunktion zu g, so dass also

g(f (x)) = x

ist für alle x. Wir können beide Seiten dieser Gleichung unter Benutzung der bekannten
Regeln ableiten, es ergibt sich

g ′ (f (x)) · f ′ (x) = 1.

Daraus folgt unmittelbar:

Satz 4.27 (Umkehrregel) Sei f die Umkehrfunktion zu g, dann ist

1
f ′ (x) = .
g ′ (f (x))

Diese Regel lässt sich übrigens auch gut veranschaulichen (vgl. Abbildung 4.2): Den Funk-
tionsgraphen der Umkehrfunktion bildet man bekanntlich, indem man den ursprünglichen
Funktionsgraphen an der Hauptdiagonalen spiegelt. Somit wird die Tangente ebenfalls
gespiegelt, wodurch sich bei der Berechnung der Steigung über das Steigungsdreieck gera-
de ∆x und ∆y vertauschen; die Steigung der gespiegelten Tangente ist also der Kehrwert
der ursprünglichen Steigung.

165
4 Differenzialrechnung

Dennoch muss man bei der Anwendung der Umkehrregel höllisch aufpassen, denn f ′
und g ′ werden an verschiedenen Stellen ausgewertet. Eine Beschreibung, anhand derer
das vielleicht besser zu verstehen ist, ist die folgende: Sei g die Umkehrfunktion zu f und
f (x) = y. Dann ist natürlich g(y) = x, und die Umkehrregel lautet in dieser Schreibweise

1
f ′ (x) = .
g ′ (y)

Oder noch anders: Wir schreiben nur noch x und y, dann ist f ′ = dy/dx und g ′ = dx/dy,
und es steht da
dy 1
= .
dx dx/dy

Wieder führt der intuitive Umgang wie mit Brüchen zum richtigen Ergebnis.

Beispiel 4.28 Wir wollen die Ableitung des natürlichen Logarithmus bestimmen; er ist
bekanntlich die Umkehrung der e-Funktion. Wir haben also

y = f (x) = ln x, x = g(y) = ey , g ′ (y) = ey .

Wie erhalten
1 1 1
ln′ (x) = f ′ (x) = = y
= .
g ′ (y) e x

//

Beispiel 4.29 Wir berechnen jetzt die Ableitung der arcsin-Funktion. Wir haben also

y = f (x) = arcsin x, x = g(y) = sin y, g ′ (y) = cos y,

wobei wir noch beachten müssen, dass


h π πi
y∈ − , (4.1)
2 2
ist, weil dies nach Definition die Bildmenge der arcsin-Funktion ist. (Zwecks Umkehrung
haben wir nämlich die Definitionsmenge der Sinusfunktion auf dieses Intervall einge-
schränkt, siehe Abschnitt 1.9.2.) Wir erhalten

1 1
f ′ (x) = = .
g ′ (y) cos y

Wir müssen dies aber in Abhängigkeit von x = sin y ausdrücken. Dies gelingt mit Hilfe
der bekannten Gleichung

sin2 y + cos2 y = 1,

166
4.2 Differenzierbarkeit und Ableitung

Ableitungsregeln
Regel f (x) f ′ (x)

Faktorregel c · g(x) c · g ′ (x)

Summenregel g1 (x) + · · · + gn (x) g1′ (x) + · · · + gn′ (x)

Produktregel g(x) · h(x) g ′ (x) · h(x) + g(x) · h′ (x)

g(x) g ′ (x) · h(x) − g(x) · h′ (x)


Quotientenregel
h(x) h(x)2

Kettenregel g(h(x)) g ′ (h(x)) · h′ (x)

1
Umkehrregel g −1 (x)
g ′ (g −1 (x))

denn aus ihr folgt


q
cos y = ± 1 − sin2 y.

Zur Entscheidung über das Vorzeichen kommt (4.1) ins Spiel, denn auf [−π/2, π/2] ist
cos ≥ 0, somit muss gelten
q p
cos y = 1 − sin2 y = 1 − x2 .

Also folgt schließlich


1
arcsin′ (x) = f ′ (x) = √ .
1 − x2
//
Auf ähnliche Weise erhält man auch die Ableitungen der anderen Arkusfunktionen sowie
der Areafunktionen.
Die Ableitungen weiterer Elementarfunktionen, die man mit den beschriebenen Regeln
aus den Ableitungen der Funktionen aus Tabelle 4.1 erhält, sind in Tabelle 4.2 zusam-
mengestellt.

4.2.3 Linearisierung einer Funktion


Die Tangente an eine Funktion f in einem Punkt x∗ , sofern sie existiert, stellt in einer
Umgebung von x∗ eine recht gute Näherung für f dar. Für viele Zwecke kann es sinnvoll

167
4 Differenzialrechnung

Tabelle 4.2: Ableitungen weiterer Elementarfunktionen

f (x) f ′ (x) Bemerkung


1
tan x = 1 + tan2 x
cos2 x
1
cot x − 2 = −1 − cot2 x
sin x
1
arcsin x √ In den Randpunkten nicht differenzierbar.
1 − x2
1
arccos x −√ In den Randpunkten nicht differenzierbar.
1 − x2
1
arctan x
1 + x2
1
arccot x −
1 + x2
ax ax ln a
1
loga x
x ln a
sinh x cosh x
cosh x sinh x
1
tanh x 2 = 1 − tanh2 x
cosh x
1
coth x − = 1 − coth2 x
sinh2 x
1
arsinh x √
2
x +1
1
arcosh x √ An der Stelle x = 1 nicht differenzierbar.
2
x −1
1
artanh x
1 − x2
1
arcoth x
1 − x2

168
4.2 Differenzierbarkeit und Ableitung

sein, statt mit der eigentlichen Funktion mit ihrer Tangente zu rechnen. Man spricht
dabei auch von Linearisierung einer Funktion:

ℓ(x) = f (x∗ ) + f ′ (x∗ )(x − x∗ )

(vergleiche auch Satz 4.12). Als Anwendung kann man zum Beispiel ein nichtlineares
Gleichungssystem auf diese Weise in ein lineares Gleichungssystem umwandeln, welches
man dann zum Beispiel mit den in Kapitel 3 behandelten Techniken lösen kann. Dies
ist jedoch nur dann sinnvoll, wenn der Punkt, um den man linearisiert, in der Nähe der
Lösung ist.

Beispiel 4.30 Ein Lichtstrahl trifft mit einem Normalenwinkel von ungefähr π/6 (also
30 °) auf die Oberfläche eines lichtdurchlässigen Mediums. Dabei wird der Lichtstrahl ge-
brochen. Zur Berechnung des Brechungswinkels benötigt man den Sinus des Normalen-
winkels. Um mit vielen verschiedenen Winkeln schnell Überschlagsrechnungen anstellen
zu können, kann es sinnvoll sein, die Sinus-Funktion um die Stelle π/6 zu linearisieren. Es
ist
π  1 π π  1√
sin = , sin′ = cos = 3.
6 2 6 6 2
Somit ergibt sich die Linearisierung
1 1√  π
ℓ(x) = + 3 x− .
2 2 6
Eine Zeichnung mit maxima bestätigt, dass ℓ(x)dies in der Nähe von x = π/6 eine gute
Näherung an sin(x) ist:

plot2d([sin(x),1/2+sqrt(3)/2*(x-%pi/6)],[x,%pi/6-0.1,%pi/6+0.1]);

//

Übung 4.31 Linearisieren Sie die Wurzelfunktion f (x) = x an der Stelle 1.

4.2.4 Monotonie, Extremstellen, Krümmungsverhalten


Mit Hilfe der Differenzialrechnung ist es möglich, wichtige Eigenschaften einer Funktion
durch einfache Rechnungen zu ermitteln. Die erste dieser Eigenschaften ist die Mono-
tonie: Ist f ′ (x) > 0, so ist die Tangentensteigung also positiv, somit die Tangente eine
streng monoton wachsende Funktion. Da die Tangente in der Nähe von x die Funktion
f approximiert, muss f in der Nähe von x ebenfalls streng monoton wachsend sein. Eine
analoge Aussage ergibt sich im Fall f ′ (x) < 0, also:

Satz 4.32 Ist f in einem Intervall (a, b) differenzierbar und ist x ∈ (a, b) und
 
f ′ (x) > 0, streng monoton wachsend,
so ist f in einer Umgebung von x
f ′ (x) < 0, streng monoton fallend.

169
4 Differenzialrechnung

Zu Übung 4.31:

Daraus ergibt sich unmittelbar:

Satz 4.33 Ist f in (a, b) differenzierbar und hat an x ∈ (a, b) ein lokales Extremum
(Minimum oder Maximum), so muss f ′ (x) = 0 sein.
Die Umkehrung ist aber falsch, wie das Beispiel f (x) = x3 zeigt: Diese Funktion hat
in x = 0 einen Terrassenpunkt; so nennt man einen Punkt, an dem die Ableitung ver-
schwindet, die Funktion aber trotzdem lokal streng monoton (wachsend oder fallend)
ist.3
Hat f in x∗ ein Maximum, so muss f links von x∗ streng monoton wachsend und rechts
von x∗ streng monoton fallend sein. Die Ableitung f ′ , sofern existent, muss also in einer
Umgebung von x∗ folgendes Verhalten haben:


> 0, x < x ,

f ′ (x) = 0, x = x∗ ,


< 0, x > x∗ .

Dies ist insbesondere dann der Fall, wenn f ′ in der Nähe von x∗ streng monoton fallend
ist (siehe Abbildung 4.3). Ist f ′ selbst auch differenzierbar, so ergibt sich mit Satz 4.32
sofort folgendes Kriterium, in dem die Ableitung der Ableitung, die sogenannte zweite
Ableitung auftaucht:

Satz 4.34 Ist f in (a, b) zweimal differenzierbar und f ′ (x) = 0 für ein x ∈ (a, b) und ist
 
f ′′ (x) < 0, lokales Maximum,
so hat f in x ein
′′
f (x) > 0, lokales Minimum.
Falls f ′ (x) = f ′′ (x) = 0, so kann ohne weitere Informationen keine Aussage über das Vor-
handensein eines Extremums gemacht werden. Mitunter ganz nützlich ist noch folgendes
Resultat:
3
Bisweilen wird auch die Bezeichnung Sattelpunkt verwendet, die jedoch später (nächstes Semester)
auch mit einer anderen Bedeutung verwendet wird.

170
4.2 Differenzierbarkeit und Ableitung

b
b
f (x)

b
x

x∗ b

f ′ (x)

Abbildung 4.3: f ′ (x) > 0 für x < x∗ , und f ′ (x) < 0 für x > x∗ , somit ist f ′ (x) monoton
fallend.

Satz 4.35 Ist f in (a, b) n-mal differenzierbar (n ≥ 2) und ist x ∈ (a, b) eine Stelle, an
der

f ′ (x) = f ′′ (x) = f ′′′ (x) = · · · = f (n−1) (x) = 0, f (n) (x) 6= 0,

so gilt folgende Regel:


 
Ist n ungerade,   einen Terrassenpunkt,
(n)
Ist n gerade und f (x) < 0, so hat f in x ein lokales Maximum, Sie können jetzt aus
  der Probeklausur 2021
Ist n gerade und f (n) (x) > 0, ein lokales Minimum. die Aufgabe 4 bearbei-
ten.
Eine andere Fragestellung ist das Krümmungsverhalten einer Funktion: Verläuft der
Graph einer Funktion nicht geradlinig, so krümmt er sich entweder nach links oder
nach rechts, man spricht demgemäß von linksgekrümmten (auch konvexen) und rechtsge-
krümmten (auch konkaven) Funktionen. Ist eine Funktion linksgekrümmt und zeichnet
man an verschiedenen Stellen eine Tangente ein, so werden die Steigungen von Tangenten
in weiter rechts befindlichen Punkten größer sein (vgl. Abbildung 4.4). Da die Tangenten-
steigung die Ableitung ist, gilt also, dass die Ableitung einer linksgekrümmten Funktion,
falls existent, streng monoton wachsend ist. Dann wiederum muss aber die zweite Ab-
leitung, falls existent, positiv sein. Alles gilt freilich auch wieder entgegengesetzt, also
insgesamt:

Satz 4.36 Ist f in einem Intervall (a, b) zweimal differenzierbar und ist x ∈ (a, b) und
 
f ′′ (x) > 0, linksgekrümmt,
so ist f in einer Umgebung von x
′′
f (x) < 0, rechtsgekrümmt.

Durch Anwendung aller weiteren Sätze von vorhin auf die Ableitung ergeben sich folgende
Resultate:

171
4 Differenzialrechnung

f (x)
b

b
b b
b

Abbildung 4.4: Die Ableitung einer linksgekrümmten Funktion ist monoton wachsend.

Satz 4.37 Ist f in (a, b) zweimal differenzierbar und hat an x ∈ (a, b) eine Wendestelle,
so muss f ′′ (x) = 0 sein.
Dabei ist eine Wendestelle eine Stelle, an der sich die Krümmungsrichtung ändert.

Satz 4.38 Ist f in (a, b) dreimal differenzierbar und f ′′ (x) = 0 für ein x ∈ (a, b) und ist
 
f ′′′ (x) > 0, Rechts-links-Wendestelle,
so hat f in x eine
f ′′′ (x) < 0, Links-rechts-Wendestelle.

Satz 4.39 Ist f in (a, b) n-mal differenzierbar (n ≥ 3) und ist x ∈ (a, b) eine Stelle, an
der

f ′′ (x) = f ′′′ (x) = f (4) (x) = · · · = f (n−1) (x) = 0, f (n) (x) 6= 0,

so gilt folgende Regel:


 
Ist n gerade,   keine Wendestelle,
(n)
Ist n ungerade und f (x) > 0, so hat f in x eine Rechts-links-Wendestelle,
 
Ist n ungerade und f (n) (x) < 0, eine Links-rechts-Wendestelle.

172
4.2 Differenzierbarkeit und Ableitung

Extrem- und Wendestellen


f ′ (x) f ′′ (x) erste Ableitung 6= 0 Bedeutung
=0 gerade >0 Minimum
=0 gerade <0 Maximum
=0 =0 ungerade >0 Terrassenpunkt, R-L-Wendestelle
=0 =0 ungerade <0 Terrassenpunkt, L-R-Wendestelle
6= 0 =0 ungerade >0 R-L-Wendestelle
6= 0 =0 ungerade <0 L-R-Wendestelle
6= 0 =0 gerade Nichts

173
5 Folgen, Reihen und
Taylor-Entwicklung
5.1 Einleitung
In vielen Situationen ist es erforderlich oder hilfreich, gegebene komplizierte Funktionen
durch einfachere Funktionen anzunähern. Mögliche Anwendungen sind:
• Näherungsformeln für Überschlagsrechnungen;
• Auswertung von Funktionen, über die nur unvollständige Informationen vorhanden
sind;
• bessere Vorstellung des Funktionsverlaufs;
• Lösen von Gleichungen;
• Berechnung von Integralen.
Wir haben schon die Methode der Linearisierung behandelt, aber für manche Anwendun-
gen mag die Linearisierung nicht genau genug sein. Eine allgemeinere Methode ist die
sogenannte Taylor-Entwicklung. Diese werden wir in Abschnitt 5.4 behandeln; bis dahin
behalten wir sie als Fernziel im Auge. Vorher müssen wir uns einiges Handwerkszeug
erarbeiten.
Eine wichtige Eigenschaft von Methoden zur Annäherung komplizierter durch einfa-
che Funktionen besteht in der Möglichkeit, die Genauigkeit zu kontrollieren. Konkret
bedeutet das zweierlei:
• Wir brauchen eine Information über die Größe des Fehlers.
• Wir brauchen eine Möglichkeit, den Fehler gegebenenfalls zu verkleinern (auf Kos-
ten eines höheren Rechenaufwands).
Mit anderen Worten: Ist y = f (x) der exakte Funktionswert, so reicht ein einzelner
Näherungswert ỹ im Allgemeinen nicht aus, sondern man braucht eine sogenannte Folge
von Näherungswerten,
y1 , y2 , y3 , . . . ,
mit folgenden Eigenschaften:
• Der Fehler |yn − y| wird mit zunehmendem n beliebig klein;
• mit zunehmendem n wird die Auswertung von yn aufwändiger.
Wir beginnen damit, die begrifflichen Grundlagen hierfür zu legen.

175
5 Folgen, Reihen und Taylor-Entwicklung

5.2 Folgen
5.2.1 Begriff und Darstellungsarten
Definition 5.1 Unter einer Folge versteht man eine unendliche Menge von Zahlen mit
einer festen Reihenfolge. Die symbolische Darstellung lautet:
(an )n∈N = (a1 , a2 , a3 , . . . ).
Die Zahlen a1 , a2 , a3 , . . . heißen Glieder der Folge.
Die Nummerierung muss nicht notwendig bei 1 beginnen, sie kann auch bei 0 oder bei
einem beliebigen anderen Index beginnen.

Beispiel 5.2 Wir können etwa diese Folgen betrachten:


1  1 2 3 
an = 1 − , (an ) = 0, , , , . . . ;
n 2 3 4
bn = n3 , (bn ) = (1, 8, 27, 64, . . . );
 3 n  3 9 27 81 
cn = , (cn ) = , , , ,... .
2 2 4 8 16
//
Die Beispiele oben sind jeweils durch ein explizites Bildungsgesetz gegeben. Das muss
aber nicht so sein. Andere Möglichkeiten wären:
• ein rekursives Bildungsgesetz, zum Beispiel
1
a1 = 1, an+1 = 3 − , (an ) = (1, 2, 2.5, 2.6, 2.61538, . . . );
an
• eine eindeutige Formulierung in Worten, zum Beispiel Folge der Primzahlen:
(an ) = (2, 3, 5, 7, 11, 13, 17, 19, 23, 29, . . . );

• eine Folge von Messwerten.

Übung 5.3 Die sogenannte Fibonacci-Folge ist durch


a1 = 1, a2 = 2, an+1 = an + an−1
definiert. Geben Sie die ersten Folgenglieder an.
Zur grafischen Darstellung von Folgen gibt es folgende zwei Möglichkeiten:
• Entweder man trägt einfach alle Folgenglieder auf der Zahlengeraden ab, dann muss
man aber die Nummerierung mit angeben.
• Oder man trägt die Werte gegen den Index in einem zweidimensionalen Koordina-
tensystem ab, man spricht dann in Analogie zu Funktionen vom Graph der Folge.

Beispiel 5.4 Für die Folge (an = 1 − 1/n) ergeben sich die Darstellungen in den Abbil-
dung 5.1 und 5.2. //

176
5.2 Folgen

Zu Übung 5.3:

a1 a2 a3 a4 a5 a7a9
b b b b b b b b b b

a6 a8 a10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Abbildung 5.1: Die Folge an = (1 − 1/n), an der Zahlengeraden abgetragen.

an
1
b b
b
b
b
0.8 b
b

0.6
b

0.4

0.2
b
n

1 2 3 4 5 6 7 8 9 10

Abbildung 5.2: Graph der Folge an = (1 − 1/n).

177
5 Folgen, Reihen und Taylor-Entwicklung

5.2.2 Konvergenz, Grenzwerte


An der Folge (1 − 1/n) fällt auf, dass die Folgenglieder immer näher an einen bestimmten
Zahlenwert, nämlich den Wert 1, heranrücken. Gemäß Einleitung ist dies ein Verhalten,
das für die Anwendung von großer Bedeutung ist. Es soll daher einen Namen bekommen:

Definition 5.5 Eine Zahl a∗ heißt Grenzwert einer Folge (an ), falls zu jedem ε > 0 ein
N ∈ N existiert so, dass

|an − a∗ | ≤ ε

für alle n ≥ N . Man sagt dann auch, (an ) konvergiert gegen a∗ , Schreibweise

lim an = a∗ .
n→∞

Falls (an ) keinen Grenzwert besitzt, sagt man die Folge divergiert.
In Worten: Zu jeder gegebenen Fehlerschranke gibt es einen Index, ab dem alle Folgen-
glieder sich höchstens um die gegebene Schranke von dem Wert a∗ unterscheiden.

Übung 5.6 Für die Folge an = 1 − 1/n ist zu ε = 0.1 das passende N gesucht.

Zu Übung 5.6:

Beachte in der Schreibweise limn→∞ an , dass n hier eine sogenannte gebundene Variable
ist. Das bedeutet, dass die Variable n einen beschränkten Gültigkeitsbereich hat. Dies
hat folgende drei wichtige Konsequenzen:
1. Eine gebundene Variable darf nicht außerhalb ihres Gültigkeitsbereichs vorkommen.
Beispielsweise ergibt der Ausdruck
 1
n + lim 1 −
n→∞ n
keinen Sinn, denn das vordere n liegt außerhalb des Gültigkeitsbereichs:
 1
n + lim 1 − .
n→∞
| {z n }
← undefiniert

Gültigkeitsbereich

178
5.2 Folgen

2. Es ergibt keinen Sinn, für n etwas einzusetzen.

3. Es ist zulässig, die Variable umzubenennen, sofern der neue Name zuvor noch nicht
anderweitig belegt war:

lim an = lim ak .
n→∞ k→∞

Das geht auch, wenn der neue Name zwar schon verwendet wird, sich die Gültig-
keitsbereiche aber nicht überschneiden:

lim an + lim bk = lim ak + lim bk .


n→∞ k→∞ k→∞ k→∞

Beispiele für Konvergenz und Divergenz:

• Die Folge (1 − 1/n) konvergiert gegen 1.

• Die Folge (2−n ) = (1/2, 1/4, 1/8, 1/16, . . . ) konvergiert gegen 0 (sogenannte Nullfolge).

• Die durch

1
a1 = 1, an+1 = 3 −
an

rekursiv definierte Folge kann in maxima wie folgt berechnet werden:


a[1]:1.0;
a[n]:=3-1/a[n-1];
makelist(a[i],i,1,50);
Allem Anschein nach konvergiert sie gegen eine Zahl in der Nähe von 2.61803. Die
exakte Berechnung derartiger Grenzwerte ist in manchen Fällen möglich, wird aber
aus Zeitgründen in dieser Veranstaltung nicht behandelt.

• Die Folge (n3 ) konvergiert nicht. Die Folgenglieder werden immer größer und sind
nicht beschränkt, man spricht hier von bestimmter Divergenz oder einem uneigent-
lichen Grenzwert und schreibt formal

lim n3 = ∞.
n→∞

• Die Folge ((−1)n ) = (−1, 1, −1, 1, . . . ) konvergiert nicht. Hier liegt auch kein unei-
gentlicher Grenzwert vor. Man spricht daher von unbestimmter Divergenz.

179
5 Folgen, Reihen und Taylor-Entwicklung

5.2.3 Rechenregeln für Grenzwerte


Bei manchen Folgen ist der Grenzwert leicht erkennbar. Kompliziertere Folgen können
häufig auf einfachere zurückgeführt werden, da es zahlreiche Rechenregeln gibt:

lim (c · an ) = c lim an (c konstant),


n→∞ n→∞
lim (an ± bn ) = lim an ± lim bn ,
n→∞ n→∞ n→∞
lim (an · bn ) = lim an · lim bn ,
n→∞ n→∞ n→∞
an limn→∞ an
lim = (sofern lim bn 6= 0),
n→∞ bn lim b n→∞
√ q n→∞ n
lim k an = k lim an (k > 0 konstant),
n→∞ n→∞
 k
lim akn = lim an (k konstant),
n→∞ n→∞
lim can = c limn→∞ an
(c > 0 konstant),
n→∞
 
lim (logc an ) = logc lim an (c > 0 konstant).
n→∞ n→∞

All diese Regeln sind so zu verstehen: Wenn die rechte Seite existiert, dann auch die
linke, und beide sind gleich. Es kann jedoch vorkommen, dass die linke Seite existiert,
die rechte jedoch nicht.

Beispiel 5.7
r r s
3n3 + 6n2 + 4 3n3 + 6n2 + 4 3 + n6 + n43
lim = lim = lim
n→∞ 4n3 + 9n + 2 n→∞ 4n3 + 9n + 2 n→∞ 4 + 92 + 23
n n
s
6 4
 r √
limn→∞ 3 + n + n3 3 3
= = = .
limn→∞ 4 + n92 + n23 4 2

//

Beispiel 5.8
 
lim 2−n · 4n/2+1/n = lim 2−n · (22 )n/2+1/n = lim (2−n · 2n+2/n ) = lim 22/n
n→∞ n→∞ n→∞ n→∞
limn→∞ (2/n) 0
=2 = 2 = 1.

//

Beispiel 5.9
 
 1 n  1  limn→∞ n
lim 1 + = lim 1 + =?
n→∞ n n→∞ n

180
5.2 Folgen

Der Grenzwert in der Basis ist 1, der Grenzwert im Exponenten existiert jedoch nicht.
Daher ist diese Umformung ungültig. Der fragliche Grenzwert kann auf diese Methode
nicht bestimmt werden. (In Wirklichkeit ist der Grenzwert gleich der Eulerschen Zahl e.)
//

Verbreitet ist die Taktik, einfach für n einen sehr großen Wert einzusetzen. Dies muss
jedoch nicht unbedingt zum korrekten Ergebnis führen:

Beispiel 5.10 Gesucht sei


p 
lim n − n2 + n + 1 .
n→∞

Direktes Anwenden der Rechenregeln führt zu „∞ −∞“, ist also erfolglos. Einsetzen eines
großen Wertes:

n:10^20;
n-sqrt(n^2+n+1);
float(%);

ergibt 0; das ist aber falsch und beruht auf Rundungsfehlern. Folgende Rechnung ist
korrekt:
√  √ 
p
2
 n − n2 + n + 1 n + n2 + n + 1
lim n − n + n + 1 = lim √
n→∞ n→∞ n + n2 + n + 1
−n − 1 −1 − n1 1
= lim √ = lim q =− .
n→∞ n + n2 + n + 1 n→∞
1 + 1 + n1 + n12 2

//

Übung 5.11 Wo ist der Fehler in dieser Rechnung?


 1    1  
1 = lim n · = lim n · lim = lim n · 0 = 0.
n→∞ n n→∞ n→∞ n n→∞

5.2.4 Die Fakultät


Eine besondere Folge ist die sogenannte Fakultät. Sie ist rekursiv definiert durch

a0 = 1, an+1 = an · (n + 1).

Für die Fakultät verwendet man die spezielle Schreibweise „n!“, gesprochen „n Fakultät“.
Die obige rekursive Definition lautet in dieser Schreibweise

0! = 1, (n + 1)! = n! · (n + 1).

181
5 Folgen, Reihen und Taylor-Entwicklung

Die ersten Folgenglieder sind:

0! = 1,
1! = 1 · 1 = 1,
2! = 1 · 2 = 2,
3! = 2 · 3 = 6,
4! = 6 · 4 = 24.

Anhand der Rekursionsformel stellt man schnell fest, dass allgemein

n! = 1 · 2 · 3 · · · · · n

gilt, was man als explizites Bildungsgesetz ansehen kann. Die Folgenglieder werden sehr
schnell sehr groß, die Folge der Fakultäten divergiert bestimmt gegen ∞.
Die Fakultät tritt sehr häufig im Zusammenhang mit der Taylor-Entwicklung (Ab-
schnitt 5.4) auf. Typisch sind Rechnungen, in denen verschiedene Fakultäten in Zähler
und Nenner eines Bruches gegeneinander gekürzt werden müssen.

Beispiel 5.12

(n + 1)! n! · (n + 1)
= = n + 1.
n! n!
//
Weitere Beispiele siehe Übungsblatt.

5.3 Reihen
5.3.1 Begriffe
Beispiel 5.13 Ein Ball wird aus 1 Meter Höhe fallen gelassen. Nach jedem Aufprall auf
dem Boden springt der Ball wieder hoch und erreicht dabei 80 % der vorherigen Höhe.
Welchen Weg legt der Ball insgesamt zurück?

Gesamt bis 1. Aufprall: b1 = 1,


Gesamt bis 2. Aufprall: b2 = 1 + 2 · 0.8,
Gesamt bis 3. Aufprall: b3 = 1 + 2 · (0.8 + 0.82 ),
Gesamt bis 4. Aufprall: b4 = 1 + 2 · (0.8 + 0.82 + 0.83 ),
Gesamt bis n. Aufprall: bn = 1 + 2 · (0.8 + 0.82 + 0.83 + · · · + 0.8n−1 )
n−1
X
=1+2· 0.8k .
k=1

//

182
5.3 Reihen

Das Summenzeichen ist ein weiteres Beispiel für ein Zeichen, das eine gebundene Variable
einführt. In dem Ausdruck
n−1
X
1+2· 0.8k
k=1
ist k eine gebundene Variable, jedoch ist n eine freie Variable. Für n kann man etwas
einsetzen, zum Beispiel 10:
9
X
b10 = 1 + 2 · 0.8k .
k=1
Für k kann man nichts einsetzen, jedoch kann man k durch einen beliebigen anderen
Buchstaben (außer n, weil das schon belegt ist) ersetzen:
n−1
X n−1
X
1+2· 0.8k = 1 + 2 · 0.8w
k=1 w=1

Einschätzungsfrage 5.14 Der Ball springt zwar immer wieder hoch, aber die Teilwege
werden dabei immer kürzer. Was passiert mit dem Gesamtweg, den der Ball zurücklegt?

a) Wird unendlich groß. b) Ist endlich und beträgt:

Auflösung folgt. //
In dem Beispiel mit dem Ball geht es offenbar um eine Folge, deren Glieder durch
sukzessives Addieren der Glieder einer anderen Folge entstehen. Solche Folgen spielen eine
große Rolle. Sie sollen daher einen eigenen Namen bekommen und gesondert behandelt
werden.

Definition 5.15 Sei (an ) eine Folge. Unter der n-ten Partialsumme von (an ) verstehen
wir die Summe
X n
ak .
k=1
Die Folge der Partialsummen einer Folge nennt man Reihe.
Wenn die Nummerierung der Folge (an ) nicht bei 1 sondern bei einer anderen Zahl
beginnt, so beginnt dabei auch die Summe bei dieser anderen Zahl. Dies ist in der Regel
aus dem Zusammenhang erkennbar.
Eine Reihe ist also ein Spezialfall einer Folge. Es stellt sich somit auch bei einer Reihe
die Frage, ob sie konvergiert und, wenn ja, gegen welchen Grenzwert. Man benutzt die
vereinfachte Schreibweise
X∞ Xn
an = lim ak
n→∞
n=1 k=1
und spricht auch vom Summenwert der Reihe.

183
5 Folgen, Reihen und Taylor-Entwicklung

Folgen, Reihen, Potenzreihen

Folge : (an ) = (a1 , a2 , a3 , . . . )



X
Reihe : an = a1 + a2 + a3 + · · ·
n=1

X
Potenzreihe : an (x − x∗ )n = a0 + a1 (x − x∗ ) + a2 (x − x∗ )2 + · · ·
n=0

Beispiel 5.16 In Beispiel 5.13 haben wir die Folge (an ) (Folge der Teilwege), die definiert
ist durch:

a1 = 1,
an = 2 · 0.8n−1 , n ≥ 2.

Für sie gilt

lim an = 0.
n→∞

Andererseits haben wir die Folge (bn ) (Folge der Gesamtwege bis zum n-ten Aufprall).
Sie entsteht durch sukzessives Aufsummieren der Glieder der Folge (an ),
n
X n−1
X
bn = ak = 1 + 2 · 0.8k ,
k=1 k=1

und ist somit eine Reihe. In diesem Sinne ist Einschätzungsfrage 5.14 die Frage nach der
Konvergenz und ggfs. dem Grenzwert dieser Reihe:

X ∞
X
lim bn = ak = 1 + 2 · 0.8k = ?
n→∞
k=1 k=1

Wir kennen jedoch bisher noch keine Möglichkeit, diese Frage zu entscheiden. //

5.3.2 Geometrische Reihe


Eine spezielle Form eine Reihe liegt vor, wenn die Summanden, ähnlich wie im Beispiel
mit dem Ball, Potenzen einer festen Zahl sind:

X
qn
n=0

184
5.3 Reihen

mit festem q ∈ R (oder auch q ∈ C). In diesem Fall kann man mit einem Trick eine al-
ternative Darstellung der Partialsummen finden und damit den Summenwert berechnen.
(Wir beginnen die Summe bei 0, weil das Ergebnis schöner ist. Derselbe Trick funktioniert
bei jedem beliebigen Startindex.) Für die n-te Partialsumme bn gilt:

bn = q 0 + q 1 + q 2 + · · · + q n | multipliziere mit q
q · bn = q 1 + q 2 + · · · + q n + q n+1 | subtrahiere von voriger Zeile
0 n+1
(1 − q) · bn = q −q | dividiere durch (1 − q)
1 − q n+1
bn =
1−q
Diese Rechnung ist immer zulässig außer für q = 1. In dem Spezialfall q = 1 ist
n
X
bn = 1 = n + 1.
k=0

Um jetzt den Grenzwert bilden zu können, ist eine weitere Fallunterscheidung notwendig.
Es ergibt sich:

X∞  1 , |q| < 1,
n
q = 1−q
konvergiert nicht, |q| ≥ 1.

n=0

Beispiel 5.17 In Beispiel 5.16 ergibt sich damit


∞ X ∞   
X
k k 1
lim an = 1 + 2 · 0.8 = 1 + 2 · 0.8 − 1 = 1 + 2 · −1 = 9,
n→∞ 1 − 0.8
k=1 k=0

der Ball legt also einen Gesamtweg von 9 m zurück. Damit ist Einschätzungsfrage 5.14
beantwortet. //

Übung 5.18 Ein anderer Ball wird aus 2 m Höhe fallen gelassen und erreicht nach jedem
Aufprall 60 % der vorherigen Höhe. Welchen Gesamtweg legt dieser Ball zurück?

5.3.3 Konvergenz- und Divergenzkriterien


In diesem Abschnitt werden Kriterien behandelt, mit Hilfe derer man in vielen Fällen
Konvergenz bzw. Divergenz einer Reihe nachweisen. Häufig ist es dabei so, dass man zwar
Konvergenz nachweisen kann, jedoch keine direkte Möglichkeit findet, den Grenzwert zu
bestimmen.
Wenn eine Folge (bn ) konvergiert, muss die Differenz zweier aufeinanderfolgender Glie-
der, |bn − bn−1 | mit wachsendem n beliebig klein werden. Ist (bn ) aber die Folge der
Partialsummen einer Folge (an ), so ist

|bn − bn−1 | = |an |.

185
5 Folgen, Reihen und Taylor-Entwicklung

Zu Übung 5.18:

Eine Reihe kann also nur konvergieren, wenn die Folge der Summanden beliebig nahe
an null kommt, also gegen 0 konvergiert (eine Nullfolge) ist. Die Kontraposition dieser
Aussage ist:

Satz 5.19 (Trivialkriterium) Sofern derP


Grenzwert limn→∞ an nicht existiert oder einen
anderen Wert als 0 hat, kann die Reihe ∞ n=0 an nicht konvergieren.

Beispiel 5.20 Die Reihe



X
(2 + 0.1n ) = 2.1 + 2.01 + 2.001 + 2.0001 + · · ·
n=1

konvergiert nicht, weil die Folge der Summanden gegen 2 (somit nicht gegen 0) konver-
giert. //

Beispiel 5.21 Die Reihe



X
(−1)n · n = −1 + 2 − 3 + 4 − 5 + 6 ∓ · · ·
n=1

konvergiert nicht, weil die Folge der Summanden nicht konvergiert. //

Achtung, das Trivialkriterium ist kein Konvergenzkriterium, nur ein Divergenzkriterium.


Das bedeutet, durch Anwendung des Trivialkriteriums kann man feststellen, dass eine
Reihe divergiert; man kann jedoch niemals mit diesem Kriterium sicher feststellen, dass
eine Reihe konvergiert.

186
5.3 Reihen

Beispiel 5.22 (Harmonische Reihe) Die Summanden der Reihe



X 1 1 1 1
= 1 + + + + ··· ,
n 2 3 4
n=1

der sogenannten harmonische Reihe, bilden eine Nullfolge. Trotzdem konvergiert die Rei-
he nicht, denn sie wächst über alle Grenzen:
1 1 1 1 1 1 1 1 1
1+ + + + +··· + + +··· + + +··· + +··· .
2 |3 {z 4} |5 {z 8} |9 {z 16
} | 17 {z 32
}
>2· 14 = 12 >4· 81 = 21 1
>8· 16 = 12 1
>16· 32 = 12

//
In einem Spezialfall gilt jedoch die Umkehrung des Trivialkriteriums (vergleiche Abbil-
dung 5.3):

Satz 5.23 (Leibniz-Kriterium) Ist (an ) eine Folge mit wechselndem Vorzeichen (also
abwechselnd positiv und negativ) und limn→∞ an = 0 sowie außerdem

|an+1 | ≤ |an | für alle n,

so konvergiert die Reihe



X
an .
n=0

Quasi als „Abfallprodukt“ erhält man noch eine sehr einfache Fehlerabschätzung ge-
schenkt:

Korollar 5.24 Unter den Voraussetzungen von Satz 5.23 gilt: Bricht man bei der Berech-
nung der Reihe

X
ak
k=0

nach irgendeinem Glied ab, so ist der Fehler, den man dadurch macht, höchstens so groß
wie der Betrag des nächsten Gliedes. In Formeln:
n
X ∞
X
ak − ak ≤ |an+1 |.
k=0 k=0

Beispiel 5.25 (Alternierende harmonische Reihe) Die Reihe



X 1 1 1 1
(−1)n+1 · = 1 − + − ± ···
n 2 3 4
n=1

konvergiert. Man kann beweisen, dass der Grenzwert gleich ln 2 ist. //

187
5 Folgen, Reihen und Taylor-Entwicklung

a1
a3
a5

a4
a2

Abbildung 5.3: Leibniz-Kriterium: Wenn die Summanden einer Reihe abwechselnd posi-
tiv und negativ sind und dem Betrage nach monoton gegen 0 gehen, ist
der Grenzwert der Reihe in immer kleiner werdenden Intervallen „gefan-
gen“.

Ein weiteres nützliches Kriterium ist das folgende:

Satz 5.26 (Majoranten-/Minorantenkriterium) Seien (an ) und (bn ) zwei Folgen mit

0 ≤ a n ≤ bn für alle n.
P P P∞ P∞
Falls dann ∞n=0 bn konvergiert,
P∞ so auch ∞n=0 an , und dann ist
P∞ n=0 an ≤ n=0 bn .
Oder andersherum: Falls n=0 an divergiert, so divergiert auch n=0 bn .

Das Kriterium bezieht sich also auf Reihen, bei denen alle Summanden ≥ 0 sind. Eine
solche Reihe ist, als Folge betrachten, monoton wachsend. Ist sie nach oben beschränkt,
so konvergiert sie nach dem Monotoniekriterium für Folgen. Ist sie unbeschränkt, so hat
sie keine andere Möglichkeit, als bestimmt gegen ∞ zu divergieren. Der Summenwert
einer solchen Reihe,

X
an ,
n=0

ist somit immer definiert, entweder eine Zahl oder das Symbol ∞. Das Majoranten-/
Minorantenkriterium besagt in diesem Sinne, dass man ein „≤“-Zeichen von den Sum-
manden auf die Reihe übertragen kann und die Reihe genau dann konvergiert, wenn ihr
Summenwert „kleiner als unendlich“ ist.

Beispiel 5.27 Untersucht werden soll die quadratische harmonische Reihe



X 1 1 1 1
=1+ + + + ··· .
n2 4 9 16
n=1

188
5.3 Reihen

Offenbar sind alle Summanden ≥ 0, so dass das Majoranten-/Minorantenkriterium an-


gewendet werden darf. In diesem Fall stellt sich heraus, dass es erfolgreich ist, die Sum-
manden gemäß
1 1
≤ 2
n2 n −n
abzuschätzen. Dies geht allerdings nur für n ≥ 2, denn für n = 1 bekäme man dadurch ei-
ne Null in den Nenner. Wir müssen daher den Summanden für n = 1 getrennt betrachten.
Es ergibt sich folgende Rechnung:
∞ ∞ ∞ ∞ ∞ 
X 1 X 1 (∗) X 1 X n − (n − 1) X 1 1
=1+ ≤1+ =1+ =1+ −
n2 n2 n2 − n n · (n − 1) n−1 n
n=1 n=2 n=2 n=2 n=2
n 
X 1 1  1
= 1 + lim − = 1 + lim 1 − = 1 + 1 = 2.
n→∞ k−1 k n→∞ n
k=2

Die Anwendung des Majoranten-/Minorantenkriteriums besteht hier also darin, an der


mit „(∗)“ markierten Stelle das „≤“ aus der Summe gezogen zu haben. Dass sich am Ende
ein endlicher Wert ergibt (nämlich 2), darf dementsprechend so interpretiert werden, dass
die gegebene Reihe konvergiert (und ihr Summenwert ≤ 2 ist). (Man kann beweisen, dass
der tatsächliche Grenzwert gleich π2/6 ist.) //

Anders formuliert besagt das Kriterium also, dass man mit dem Symbol „∞“ in gewissem
Sinne wie mit einer Zahl umgehen darf, zumindest dann, wenn die Summanden aller
betrachteten Reihen ≥ 0 sind. Dass sich Unendlichkeiten ansonsten nämlich durchaus
anders als Zahlen verhalten können, werden wir bald sehen (Abschnitt ??).
Es folgen weitere Beispiele zu diesem Kriterium:

Beispiel 5.28 Die Reihe



X 1
n3
n=1

konvergiert auch, denn


∞ ∞
X 1 X 1
3
≤ ≤ 2.
n n2
n=1 n=1

//

Beispiel 5.29 Die Reihe



X 1

n
n=1

189
5 Folgen, Reihen und Taylor-Entwicklung

divergiert, denn
∞ ∞
X 1 X 1
√ ≥ =∞
n n
n=1 n=1

(siehe Beispiel 5.22, harmonische Reihe). //


Die Idee aus den Beispielen 5.28 und 5.29 lässt sich verallgemeinern, und man erhält:

Satz 5.30 Die Reihe


∞   
X 1 divergiert α ≤ 1,
, α ∈ R, für alle
nα konvergiert α ≥ 2.
n=1

Einschätzungsfrage 5.31 Was ist für α zwischen 1 und 2? Mit anderen Worten, bei
welchem Wert von α ist genau die Grenze zwischen Konvergenz und Divergenz?
a) Konvergenz erst ab α = 2, Divergenz für alle α < 2.

b) Divergenz nur bis α = 1, Konvergenz für alle α > 1.

c) Divergenz für α < 1.5, Konvergenz für α > 1.5.

d) Grenze an anderer Stelle, nämlich:


Auflösung folgt (allerdings erst im zweiten Semester). //
Eine häufig nützliche Variante des Majoranten- und Minorantenkriteriums ist:

Satz 5.32 (Grenzwertkriterium) Seien



X ∞
X
an und bn
n=0 n=0

zwei Reihen mit positiven Gliedern. Falls der Grenzwert


an
lim
n→∞ bn
existiert und 6= 0 ist, so haben beide Reihen dasselbe Konvergenzverhalten.
P
Ist eine Reihe an gegeben, so muss manP zur Anwendung des Grenzwertkriteriums
zunächst eine geeignete Vergleichsreihe bn wählen. Häufig geht man dabei intuitiv
vor, indem mein Teilterme in an , die für große n bedeutungslos werden, weglässt.

Beispiel 5.33 Zu untersuchen sei die Reihe



X n 1 2 3 4
= + + + + ··· .
n2 + 1 2 5 10 17
n=1

190
5.3 Reihen

Spezielle Reihen
Name Formel Konvergenz Grenzwerta

X 1
geometrische Reihe qn wenn |q|<1
1−q
n=0

X 1
harmonische Reihe nein
n
n=1

X (−1)n
alternierende harmonische Reihe ja (ln 2)
n
n=1
∞  π2 
X 1
quadratische harmonische Reihe ja
n2 6
n=1

X 1
allgemeine harmonische Reiheb wenn α > 1

n=1

a
Eingeklammerte Grenzwerte sind nur der Vollständigkeit halber angegeben; sie verstehen sich
nicht als Bestandteil des Prüfungsstoffs.
b
Siehe auch nächstes Semester, in Zusammenhang mit uneigentlichen Integralen.

191
5 Folgen, Reihen und Taylor-Entwicklung

Für n → ∞ verliert das „+1“ im Nenner schnell an Bedeutung. Es bietet sich daher an,
die gegebene Reihe mit der Reihe
∞ ∞
X n X 1
=
n2 n
n=1 n=1

zu vergleichen. Dies ist die harmonische Reihe, die wir bereits aus Beispiel 5.22 kennen;
die divergiert. Gemäß Grenzwertkriterium berechnen wir
n
n2 +1 n2 1
lim 1 = lim = lim = 1.
n→∞ 2
n→∞ n + 1 n→∞ 1 + 12
n n

Das Kriterium greift also, somit divergiert auch die ursprünglich zu betrachtende Reihe.
//

Übung 5.34 Untersuchen sie nach demselben Prinzip die Reihe



X n
.
n3 + sin n
n=1

Zu Übung 5.34:

192
5.4 Taylor-Entwicklung

Satz 5.35 (Quotientenkriterium) Sei (an ) eine Folge, für die der Grenzwert

an+1
L := lim
n→∞ an

existiert. Dann gilt: Ist L < 1, so konvergiert die Reihe



X
an ,
n=0

und ist L > 1, so divergiert die Reihe.


Das Quotientenkriterium ist nützlich, weil es zugleich Konvergenz- und Divergenzkriteri-
um ist, unabhängig von der Vorzeichensituation gültig ist und auch keinerlei Vergleichs-
reihe benötigt. Aber Achtung: Falls L = 1 ist, weiß man nichts; und ebenso, falls der
Limes gar nicht existiert.

Beispiel 5.36 Zu untersuchen sei



X 1 1 1 1 1
= + + + +··· ,
(2n)! 2 24 720 40320
n=1

wobei das Symbol „!“ die Fakultät (siehe Abschnitt 5.2.4) bezeichnet.
Gemäß Quotientenkriterium betrachten wir
1
(2(n+1))! (2n)! 1 · 2 · 3 · · · · · (2n)
L = lim 1 = lim = lim
n→∞
(2n)!
n→∞ (2n + 2)! n→∞ 1 · 2 · 3 · · · · · (2n) · (2n + 1) · (2n + 2)

1
= lim = 0 < 1.
n→∞ |(2n + 1)(2n + 2)|

Also konvergiert die Reihe. //

5.4 Taylor-Entwicklung
Nachdem jetzt ein Teil der notwendigen Begrifflichkeit aufgebaut wurde, kehren wir zur
eingangs erwähnten Fragestellung zurück: der Annäherung einer gegebenen Funktion
durch einfachere Funktionen.

Einschätzungsfrage 5.37 Als Abfallprodukt ergibt sich gegen Ende des Abschnitts eine
einfache Berechnungsmethode für eine Fragestellung aus dem Alltag. Was könnte das
sein?

193
5 Folgen, Reihen und Taylor-Entwicklung

Zweckmäßige Reihenfolge zum Testen von Konvergenz-/Divergenzkriterien


1. Trivialkriterium

2. Leibniz-Kriterium

3. Quotientenkriterium

4. Integralkriterium (siehe nächstes Semester in Zusammenhang mit uneigentli-


chen Integralen)
oder
Grenzwertkriterium (vorher Vergleichsreihe konstruieren)

a) Datum von Ostern; c) Lebensdauer von Handy-Akkus;

b) Gewinnchancen im Lotto; d) eine einfache Wettervorhersage.

Auflösung folgt. //

5.4.1 Mac-Laurin-Polynome
Als Leitbeispiel in diesem Abschnitt betrachten wir die e-Funktion

f : R → R, x 7→ ex .

Zwar kann jeder Taschenrechner die e-Funktion an beliebiger Stelle auswerten, aber wie
macht er das? Man stelle sich vor, es soll ein Taschenrechner konstruiert werden; wie
implementiert man dann die Auswertung der e-Funktion?
Lediglich die Implementation der Grundrechenarten ist im Prinzip klar. Aus der Grund-
schule ist das Vorgehen bekannt; das nötige Know-How über den Bau elektronischer Ge-
räte vorausgesetzt, könnte man also einen Taschenrechner bauen, der die Operationen
„+“, „−“, „·“ und „:“ beherrscht.
Wir stellen jetzt zusammen, welche exakten Informationen wir über die e-Funktion
haben. Das ist eigentlich nicht viel:

• Der Wert im Nullpunkt ist f (0) = 1.

• Die Werte aller Ableitungen im Nullpunkt sind genauso: f (k) (0) = 1 für alle k.

Ein sinnvolles Ziel könnte also sein, nur unter Benutzung der Grundrechenarten Funk-
tionen zu konstruieren, die die e-Funktion in der Nähe des Nullpunkts gut annähern.
Wir verzichten sogar zunächst noch auf die „komplizierteste“ Grundrechenart, nämlich
die Division3 , und stellen fest, dass die mit den übrigen Rechenarten zusammensetzbaren
3
Es wird sich jedoch gleich herausstellen, dass die Division dennoch dabei benötigt wird, siehe (5.1).

194
5.4 Taylor-Entwicklung

Funktionen gerade die Polynome4 sind:


n
X
pn (x) = a0 + a1 x + a2 x2 + a3 x3 + · · · + an xn = ak xk .
k=0

Wir versuchen somit, die e-Funktion (oder später andere Funktionen) in der Nähe des
Nullpunktes durch Polynome anzunähern. Die Grundidee dabei besteht in der Konstruk-
tion von Polynomen, die den Funktionswert und möglichst viele Ableitungen einer gege-
benen Funktion f im Nullpunkt annehmen:

!
p(k)
n (0) = f
(k)
(0) für möglichst viele k.

Es ergibt sich:

pn (0) = a0 ⇒ a0 = f (0),
2 3 n−1
p′n (x) = a1 + 2a2 x + 3a3 x + 4a4 x + · · · + nan x ,
p′n (0) = a1 ⇒ a1 = f ′ (0),
p′′n (x) = 2a2 + 3 · 2a3 x + 4 · 3a4 x2 + 5 · 4a5 x3 + · · · + n · (n − 1)an xn−2 ,
1
p′′n (0) = 2a2 ⇒ a2 = f ′′ (0)
2

und somit allgemein


(
k · (k − 1) · (k − 2) · · · · · 1 · ak = k! · ak , k ≤ n,
p(k)
n (0) =
0, k > n.

(k)
Es gibt also genau ein Polynom pn vom Grad n, das die Bedingung pn (0) = f (k) (0) für
alle k ≤ n erfüllt, es ist gegeben durch die Koeffizienten

1 (k)
ak = f (0),
k!

hat also die Form


n
X 1 (k)
pn (x) = f (0)xk . (5.1)
k!
k=0

Dieses Polynom nennt man Taylor-Polynom zu f im Entwicklungspunkt 0 vom Grad n,


oder Mac-Laurin-Polynom zu f vom Grad n.
4
Geht man von einer periodischen Funktion aus, so bieten sich statt Polynomen eventuell Sinus- und
Kosinusfunktionen an. Analog zur Taylor-Entwicklung kommt man dann zur sogenannten Fourier-
Entwickelung.

195
5 Folgen, Reihen und Taylor-Entwicklung

Am Beispiel der e-Funktion, also f (k) (0) = 1 für alle k, ergibt sich:

a0 = 1, p0 (x) = 1,
a1 = 1, p1 (x) = 1 + x,
1 1
a2 = , p2 (x) = 1 + x + x2 ,
2 2
1 1 1 3
a3 = , p3 (x) = 1 + x + x2 + x ,
6 2 6
1 1 1 3 1 4
a4 = , p4 (x) = 1 + x + x2 + x + x ,
24 2 6 24
1 1 1 3 1 4 1 5
a5 = , p5 (x) = 1 + x + x2 + x + x + x ,
120 2 6 24 120
n
1 X 1 k
an = , pn (x) = x .
n! k!
k=0

Wir zeichnen exemplarisch den Funktionsgraphen von p1 (x) mit maxima:

plot2d([exp(x),1+x],[x,-2,2],[y,-1,8]);

Es stellen sich jetzt folgende Fragen:

• Wie geht das, wenn die gegebenen Werte nicht an der Stelle x = 0, sondern an einer
anderen Stelle vorliegen? Dieser Frage werden wir in Abschnitt 5.4.2 nachgehen.

• Funktioniert das immer, egal wie groß x ist? Dies wird in Abschnitt 5.4.3 untersucht
werden.

• Wie weit muss man entwickeln, um eine akzeptable Näherung zu bekommen? Um


diese Frage werden wir uns in Abschnitt 5.4.5 kümmern.

Einschätzungsfrage 5.38 Was passiert am Beispiel der e-Funktion immer weiter weg
vom Nullpunkt (also für immer größere x)?
a) Für zu große x lässt sich die Funktion nicht mehr durch Taylor-Polynome annähern;
und zwar ab x =

b) Wenn man den Grad n genügend groß macht, erhält man ein Polynom, das die
Funktion für alle x ∈ R hinreichend genau annähert; und zwar ab n =

c) Man kann die Funktion überall hinreichend genau annähern, aber je größer x ist,
desto größer muss man den Grad n wählen.
Auflösung folgt. //

5.4.2 Taylor-Polynome
Wir betrachten jetzt den Fall, dass der Funktionswert von f und von allen Ableitungen
statt im Nullpunkt an einer anderen Stelle x∗ gegeben sind. Es seien also f (k) (x∗ ) bekannt

196
5.4 Taylor-Entwicklung

Taylor-Polynome und Taylor-Reihe (Taylor-Formel)


• Taylor-Polynom von f vom Grad n im Entwicklungspunkt x∗ :
n
X 1 (k) ∗
pn (x) = f (x )(x − x∗ )k .
k!
k=0

• Taylor-Reihe von f im Entwicklungspunkt x∗ :



X 1 (k) ∗
f (x )(x − x∗ )k .
k!
k=0

für alle k und ein festes x∗ . Gesucht ist ein Polynom pn (x), das möglichst viele der
gegebenen Werte in x∗ annimmt. Eine einfache Berechnungsvorschrift erhält man durch
folgende Überlegung: Man verschiebt die gegebene Funktion f (x) in der Definitionsmenge
so, dass die feste Stelle x∗ in den Nullpunkt verschoben wird. Die verschobene Funktion
heiße g(x). In Formeln heißt das:

g(x) = f (x + x∗ ).

Für alle Ableitungen bedeutet das:

g (k) (0) = f (k) (x∗ ).

Zu g(x) kann man gemäß (5.1) das Taylor-Polynom (Mac-Laurin-Polynom) berechnen.


Wir nennen es qn (x), also
n n
X 1 (k) X 1 (k) ∗ k
qn (x) = g (0)xk = f (x )x .
k! k!
k=0 k=0

Damit dieses Polynom eine Näherung an f (x) darstellt, muss es jetzt nur noch zurück
verschoben werden. Daraus ergibt sich:
n
X 1 (k) ∗
pn (x) = f (x )(x − x∗ )k . (5.2)
k!
k=0

Dieses Polynom pn nennt man Taylor-Polynom von f im Entwicklungspunkt x∗ vom Grad


n. Die Formel (5.2) wird auch Taylor-Formel genannt.

Beispiel 5.39 Wir betrachten die Wurzelfunktion



f : [0, ∞) → R, f (x) = x.

197
5 Folgen, Reihen und Taylor-Entwicklung

Sie ist in der Stelle 0 nicht differenzierbar, wir wählen daher x∗ = 1. Es gilt:

f (x) = x1/2 , f (1) = 1,


1 1
f ′ (x) = x−1/2 , f ′ (1) = ,
2 2
1 · (−1) −3/2 1 · (−1) 1
f ′′ (x) = x , f ′′ (1) = =− ,
2·2 2·2 4
1 · (−1) · (−3) −5/2 1 · (−1) · (−3) 3
f ′′′ (x) = x , f ′′′ (1) = = ,
2·2·2 2·2·2 8
1 · (−1) · (−3) · (−5) −7/2 1 · (−1) · (−3) · (−5) 15
f (4) (x) = x , f (4) (1) = =− .
2·2·2·2 2·2·2·2 16
Eingesetzt in die Formel (5.2) für das Taylor-Polynom ergibt sich etwa für n = 4:
1 1 1 1  1 1 3
p4 (x) = · 1(x − 1)0 + · (x − 1)1 + · − (x − 1)2 + · (x − 1)3
1 1 2 2 4 6 8
1  15  4
+ · − (x − 1)
24 16
1 1 1 5
= 1 + (x − 1) − (x − 1)2 + (x − 1)3 − (x − 1)4 .
2 8 16 128
Für die allgemeine Ableitung ergibt sich
1 · (−1) · (−3) · · · · · (3 − 2k) (−1)k · (2k)!
f (k) (1) = k
= ,
2 (1 − 2k) · k! · 4k
also
n n
X 1 (k) X (−1)k · (2k)!
pn (x) = f (1)(x − 1)k = (x − 1)k .
k! (1 − 2k) · k!2 · 4k
k=0 k=0

Mit maxima können wir wieder eine Zeichnung machen:


p(n,x):=sum((-1)^k*(2*k)!/((1-2*k)*(k!)^2*4^k)*(x-1)^k,k,0,n);
plot2d([sqrt(x),p(1,x)],[x,0,3],[y,0,2]);
Die Zeichnungen mit maxima zeigen einen bemerkenswerten Effekt: Mit wachsendem Grad
stellen die Taylor-Polynome in diesem Fall nicht überall eine gute Näherung dar. Vielmehr
Sie können jetzt aus sieht es so aus, als ob die Taylor-Polynome nur auf dem Teilintervall [0, 2] brauchbar sind.
der Probeklausur 2021 Dies wird in den folgenden Abschnitten (Abschnitte 5.4.3 und 5.4.5) genauer untersucht.
die Aufgabe 3 bearbei- //
ten.

5.4.3 Potenzreihen und Konvergenzradius


Gegeben sind also eine Funktion f sowie Polynome
n
X
pn (x) = ak (x − x∗ )k ,
k=0

198
5.4 Taylor-Entwicklung

und die Frage ist, ob die pn für wachsendes n eine gute Näherung für f darstellen. Mit
anderen Worten, die Frage ist, ob

lim pn (x) = f (x)


n→∞

ist oder nicht. Es geht also um Konvergenz einer Folge. Allerdings hängen hier Folgen-
glieder und potenzieller Grenzwert von einer Variablen x ab; sie sind Funktionen. Dabei
kann es freilich sein, dass die Konvergenz nur für manche Werte von x gilt. Für Folgen
von Funktionen pn spricht man von punktweiser Konvergenz auf einer Menge M ⊂ R,
wenn die Folge der Werte pn (x) für jedes x ∈ M konvergiert. (Im Beispiel 5.39 sieht es
zum Beispiel so aus, als ob die Folge der Taylor-Polynome auf [0, 2] konvergiert, jedoch
nicht darüber hinaus.)
Formal ist
n
X ∞
X
lim pn (x) = lim ak (x − x∗ )k = ak (x − x∗ )k .
n→∞ n→∞
k=0 k=0

Es handelt sich in Wirklichkeit also um eine Reihe. Dabei sind die Summanden im We-
sentlichen Potenzen von (x−x∗ ). Man spricht daher von einer Potenzreihe. Speziell haben
wir es mit der Situation zu tun, dass die Koeffizienten ak die Koeffizienten der Taylor-
Polynome sind (ak = (1/k!)f (k) (x∗ )), in diesem Fall spricht man von der Taylor-Reihe
von f im Punkt x∗ . Falls x∗ = 0 ist, spricht man auch wieder von der Mac-Laurin-Reihe
von f .

Beispiel 5.40 Die Taylor-Reihe der e-Funktion im Nullpunkt (vgl. Einleitungsbeispiel


aus Abschnitt 5.4.1) lautet

X 1 n
x .
n!
n=0

//

Um die Konvergenz einer Potenzreihe zu prüfen, kann prinzipiell jedes Konvergenz-


kriterium für Reihen angewandt werden. Viele Kriterien gelten aber nur in speziellen
Situationen oder erfordern die Zuhilfenahme von Vergleichsreihen. Besonders nützlich
ist, weil es diese Nachteile nicht hat, das Quotientenkriterium. Wie wir in den folgenden
Beispielen sehen werden, ist der Konvergenzbereich stets ein Intervall. Mit dem Quoti-
entenkriterium erhält man die Intervallgrenzen, diese sind immer von der Form

x∗ − r und x∗ + r,

wobei x∗ der Entwicklungspunkt ist und r eine positive Zahl, der sogenannte Konver-
genzradius. Um festzustellen, ob das Intervall offen oder abgeschlossen (oder halboffen)
ist, müssen die Intervallgrenzen x∗ ± r in die Reihen eingesetzt und deren Konvergenz-
verhalten an dieser Stelle mit einem anderen Kriterium untersucht werden.

199
5 Folgen, Reihen und Taylor-Entwicklung

Beispiel 5.41 Wir untersuchen das Konvergenzverhalten der Potenzreihe



X (−1)n 1 1 1 1
· (x − 3)n = − (x − 3) + (x − 3)2 − (x − 3)3 + (x − 3)4 ∓ · · · .
n · 2n 2 8 24 64
n=1

Für die Größe L aus dem Quotientenkriterium ergibt sich:


(−1)n+1
(n+1)·2n+1
· (x − 3)n+1 (x − 3)n+1 · n · 2n (x − 3) · n
L= lim (−1)n
= lim = lim
n→∞ n n→∞ (n + 1) · 2n+1 · (x − 3)n n→∞ (n + 1) · 2
n·2n · (x − 3)
n 1
= |x − 3| · lim = |x − 3|.
n→∞ 2n + 2 2
Die Reihe konvergiert, wann immer L < 1 ist. Umstellen liefert die Konvergenzbedingung
|x − 3| < 2.
Somit hat der Konvergenzradius den Wert r = 2, und die Reihe konvergiert auf dem
Intervall (1, 5). Analog divergiert sie für L > 1, also außerhalb des Intervalls [1, 5].
Wie untersuchen jetzt die Konvergenz in den Randpunkten: Für x = 1 lautet die Reihe
∞ ∞
X (−2)n X 1
(−1)n · = .
n · 2n n
n=1 n=1

Das ist die harmonische Reihe (Beispiel 5.22), von der wir schon wissen, dass sie diver-
giert. Für x = 5 hingegen lautet die Reihe
∞ ∞
X 2n X (−1)n
(−1)n · = ,
n · 2n n
n=1 n=1

also die alternierende harmonische Reihe, die, wie erinnerlich, nach dem Leibniz-Kriterium
konvergiert.
Der Konvergenzbereich der untersuchten Potenzreihe ist also das halboffene Intervall
Sie können jetzt aus (1, 5].
der Probeklausur 2021
die Aufgabe 7 bearbei- //
ten.
Dieses Beispiel zeigt, dass das Verhalten in den Randpunkten uneinheitlich sein kann und
eine gesonderte Untersuchung unabdinglich ist, sofern diese Information überhaupt benö-
tigt wird. Häufig ist es jedoch für die Anwendung nicht relevant, ob in den Randpunkten
Konvergenz vorliegt oder nicht.
Wir fahren fort mit weiteren Beispielen zur Berechnung des Konvergenzradius.

Beispiel 5.42 Für die Wurzelfunktion f (x) = x im Entwicklungspunkt x∗ = 1 kennen
wir schon die Taylor-Reihe

X (−1)n · (2n)!
· (x − 1)n .
(1 − 2n) · (n!)2 · 4n
n=0

200
5.4 Taylor-Entwicklung

Das Quotientenkriterium liefert


(−1)n+1 ·(2(n+1))!
(1−2(n+1))·((n+1)!)2 ·4n+1
· (x − 1)n+1
L= lim (−1)n ·(2n)!
n→∞ · (x − 1)n
(1−2n)·(n!)2 ·4n

(2n + 2)! · (x − 1)n+1 · (1 − 2n) · (n!)2 · 4n


= lim
n→∞ (−1 − 2n) · ((n + 1)!)2 · 4n+1 · (2n)! · (x − 1)n

(2n + 1)(2n + 2)(x − 1)(1 − 2n) 2(x − 1)(1 − 2n)


= lim 2
= lim
n→∞ 4(−1 − 2n)(n + 1) n→∞ 4(n + 1)
1 − 2n
= |x − 1| · lim = |x − 1| · 1.
n→∞ 2n + 2

Die Reihe konvergiert für L < 1, also auf (0, 2), und sie divergiert für L > 1, also
außerhalb von [0, 2], was mit unserer Beobachtung übereinstimmt. Der Konvergenzradius
ist somit gleich 1. Die Untersuchung der Randpunkte sparen wir uns.
Dies Beispiel zeigt jedoch noch etwas anderes: Die Wurzelfunktion ist, wie wir wis-
sen, jenseits von x = 0 nicht definiert, daher ist es auch nicht verwunderlich, dass ihre
Taylor-Reihe dort nicht konvergiert. Durch die Singularität der Funktion ist dem Kon-
vergenzintervall also eine natürliche Grenze gesetzt. Da der Konvergenzradius stets in
beide Richtungen gleich groß ist, folgt daraus bereits zwangsläufig, dass die Reihe für
x > 2 ebenfalls nicht konvergieren kann. //

Beispiel 5.43 Für die e-Funktion f (x) = ex mit Entwicklungspunkt x∗ = 0 kennen wir
schon die Taylor-Reihe

X 1 n
x .
n!
n=0

Das Quotientenkriterium liefert


1 n+1
(n+1)! x n!xn+1 x 1
L= lim 1 n = lim n
= lim = |x| · lim = 0.
n→∞
n! x
n→∞ (n + 1)!x n→∞ n+1 n→∞ n+1

Unabhängig von x ist also immer L < 1, so dass die Reihe konvergiert. Man sagt in
diesem Fall, die Potenzreihe konvergiert beständig. Formal hat der Konvergenzradius
den Wert ∞. Dies ist eine Teil-Antwort auf die Einschätzungsfrage 5.38.
Außerdem ermöglicht uns dieses Resultat, eine Lücke im vorigen Stoff zu füllen: In
Abschnitt 1.8 ist nämlich die formale Definition der e-Funktion (und damit auch von
beliebigen Potenzen mit irrationalen Exponenten) offen geblieben. Die Taylor-Reihe stellt
in der Tat eine Möglichkeit dar, die e-Funktion formal zu definieren. //

Übung 5.44 Bestimmen Sie Konvergenzradius und Konvergenzintervall der Potenzreihe



X 2n
· xn ,
n
n=1

einschließlich Betrachtung der Randpunkte.

201
5 Folgen, Reihen und Taylor-Entwicklung

Zu Übung 5.44:

202
5.4 Taylor-Entwicklung

Beispiel 5.45 Wir wollen die Taylor-Reihe der Kosinusfunktion f (x) = cos x im Ent-
wicklungspunkt x∗ = 0 und ihren Konvergenzradius bestimmen. Die Ableitungen sind
zyklisch − sin x, − cos x, sin x und cos x. Für die Ableitungen in x∗ = 0 ergibt sich somit:

1,
 falls n durch 4 teilbar,
(n)
f (0) = −1, falls n durch 2, aber nicht durch 4 teilbar,


0, falls n ungerade.

Die Taylor-Reihe lautet somit


1 1 1 6 1
1 − x2 + x4 − x + x8 ∓ · · · ,
2 24 720 40320
oder in Summenform:

X (−1)n
x2n .
(2n)!
n=0

Es treten nur die geraden Potenzen auf. Dies korreliert mit der Tatsache, dass die Ko-
sinusfunktion eine gerade Funktion ist. Analog treten bei ungeraden Funktionen in der
Taylor-Reihe (im Nullpunkt) nur ungerade Potenzen auf.
Für die Berechnung des Konvergenzintervalls verwenden wir wieder das Quotienten-
kriterium:
(−1)n+1 x2n+2 (2n)! x2 1
L = lim n 2n
= lim = |x|2 · lim
n→∞ (2n + 2)!(−1) x n→∞ (2n + 1)(2n + 2) n→∞ (2n + 1)(2n + 2)
= 0. Sie können jetzt aus
der Probeklausur Som-
Wie bereits bei der e-Funktion liegt also auch hier beständige Konvergenz vor, der Kon- mer 2019 die Aufga-
vergenzradius ist ∞. // be 3 bearbeiten.

5.4.4 Zusammensetzen von Potenzreihen


Neben der Methode über die Berechnung von Ableitungen gibt es noch eine andere
Möglichkeit, die Taylor-Reihe (oder ein Taylor-Polynom) einer gegebenen Funktion zu
bestimmen, nämlich indem man Taylor-Reihen von bekannten Funktionen zusammen-
setzt. Dabei muss man lediglich aufpassen, dass man das Innere des Konvergenzbereichs
der beteiligten Potenzreihen nicht verlässt.
Auch (gliedweises) Ableiten und Integrieren von Potenzreihen ist zulässig; man kann
beweisen, dass der Konvergenzradius dabei unverändert bleibt.

Beispiel 5.46 Die geometrische Reihe ist selbst eine Potenzreihe, nämlich

X 1
xn =
1−x
n=0

203
5 Folgen, Reihen und Taylor-Entwicklung

Konvergenz von Potenzreihen


Konvergenzbereich: Die Menge aller x, für die die Potenzreihe konvergiert. Dies ist
(je nach Verhalten in den Randpunkten) ein Intervall der Form

(x∗ − r, x∗ + r), (x∗ − r, x∗ + r], [x∗ − r, x∗ + r), [x∗ − r, x∗ + r].

Dabei ist x∗ der Entwicklungspunkt und r der sogenannte Konvergenzradius.

Berechnung:
1. Anwenden des Quotientenkriteriums auf die komplette Potenzreihe ergibt
Intervallgrenzen (und somit indirekt den Konvergenzradius).
2. Falls nötig, muss das Konvergenzverhalten in den Randpunkten mit an-
deren Kriterien untersucht werden.

Beständige Konvergenz: Liegt vor, wenn die Potenzreihe auf ganz R konvergiert.
Formal ist der Konvergenzradius r = ∞.

Intuition für Konvergenzradius einer Taylor-Reihe: Abstand vom Entwicklungs-


punkt zur nächstgelegenen Singularität der zu Grunde liegenden Funktion.
(Gilt meistens, aber nicht immer.)

mit Konvergenzradius 1. Durch Einsetzen von −x2 in diese Reihe erhält man
∞ ∞
1 X X
2
= (−x2 )n = (−1)n x2n ,
1+x
n=0 n=0

was somit ebenfalls den Konvergenzradius 1 haben muss. Durch gliedweises Integrieren
erhält man somit

X (−1)n 2n+1
arctan x = x + c,
2n + 1
n=0

und dies muss auch Konvergenzradius 1 haben.


Den Wert der Konstanten c bestimmt man durch Einsetzen von x = 0. Die Gleichung
lautet dann nämlich:

0 = 0 + c.

Somit ist c = 0, und es gilt



X (−1)n 2n+1 1 1 1
arctan x = x = x − x3 + x5 − x7 ± · · · .
2n + 1 3 5 7
n=0

//

204
5.4 Taylor-Entwicklung

Häufig findet man zwar keine geschlossene Darstellung der kompletten Potenzreihe,
kann sie aber mit dieser Methode bis zu einer beliebigen, vorgegebenen Ordnung ent-
wickeln (das heißt, man kann das Taylor-Polynom eines gegebenen Grades bestimmen).
Hierbei ist die sogenannte Groß-O-Schreibweise sehr nützlich: Diese besteht darin, dass
man nach einigen Gliedern der Potenzreihe das Weglassen der übrigen nicht durch „· · · “
andeutet sondern durch einen Ausdruck der Form „O(xn )“, womit man meint, dass alle
weggelassenen Terme mindestens den Faktor xn enthalten.

Beispiel 5.47 Wir wollen die Funktion


1
f (x) =
cos x
in eine Potenzreihe um den Nullpunkt entwickeln, und zwar bis x7 . Zum Dividieren
verwenden wir die Potenzreihe von 1/(1−x) (siehe auch Beispiel 5.46):

1 X
= xn = 1 + x + x2 + x3 + x4 + x5 + x6 + x7 + O(x8 ).
1−x
n=0

Weiterhin kennen wir die Potenzreihe des Kosinus (siehe Beispiel 5.45):

X (−1)n 1 2 1 1
cos x = x2n = 1 − x + x4 − x6 + O(x8 ). (5.3)
(2n)! 2! 4! 6!
n=0

Nun ist
1 1
= ,
cos x 1 − (1 − cos x)
wir müssen also 1 − cos x in die Reihe für 1/(1−x) einsetzen. Aus (5.3) ergibt sich offenbar
1 1 1 6
1 − cos x = x2 − x4 + x + O(x8 ),
2 24 720
somit
1 1 1 1 6  1 1 1 6 2
=1+ x2 − x4 + x + O(x8 ) + x2 − x4 + x + O(x8 )
cos x 2 24 720 2 24 720
1 1 1 3
+ x2 − x4 + x6 + O(x8 ) + O((x2 )4 ).
2 24 720
Beim Ausmultiplizieren kann man dann alle Terme, die mindestens x8 enthalten, sofort
weglassen, weil sie nicht gefragt sind und in dem ohnehin enthaltenen „O(x8 )“ aufgehen.
Wie erhalten also:
1 1 1 1 6  1 2 1 1   1 2 3
= 1 + x2 − x4 + x + O(x8 ) + x2 − 2 · x2 · x4 + x
cos x 2 24 720 2 2 24 2
1 1 1 6 1 4 1 1
= 1 + x2 − x4 + x + x − x6 + x6 + O(x8 )
2 24 720 4 24 8
1 2 5 4 61 6 8
=1+ x + x + x + O(x ).
2 24 720

205
5 Folgen, Reihen und Taylor-Entwicklung

Das bedeutet also, dass


1 5 61 6
p7 (x) = 1 + x2 + x4 + x
2 24 720
das Taylor-Polynom von 1/cos x im Nullpunkt vom Grad 7 ist. (Dass die Potenz x7 gar
nicht vorkommt, ist „Zufall“ und spielt weiter keine Rolle.) Man kann das auch mit maxima
überprüfen:
taylor(1/cos(x),x,0,7);
Um den Konvergenzradius zu bestimmen, bemerken wir zunächst, dass die cos-Reihe
Konvergenzradius ∞ und die Reihe von 1/(1−x) Konvergenzradius 1 hat. Das erste ist
also keine Beschränkung, das zweite besagt, dass die Sache schief geht, sobald der Wert,
den wir in die Reihe von 1/(1−x) eingesetzt haben, betragsmäßig ≥ 1 ist. Der eingesetzte
Wert war 1 − cos x, und dies ist genau dann betragsmäßig ≥ 1, wenn cos x ≤ 0 ist (oder
cos x ≥ 2, was aber nicht auftritt). Die Sache geht also gut, solange wir an keine Nullstelle
des Kosinus gelangen. Die nächstgelegenen Nullstellen (vom Entwicklungspunkt x∗ = 0
aus gesehen) sind ±π/2, somit hat die Potenzreihe Konvergenzradius π/2, was auch hier
wieder mit dem Abstand zur nächstgelegenen Singularität übereinstimmt. //

Beispiel 5.48 Gesucht ist die Potenzreihe von f (x) = ex · x + 1 im Nullpunkt, entwi-
ckelt bis x3 . Wir wissen:
1 1
ex = 1 + x + x2 + x3 + O(x4 ),
2! 3!
√ 1 1 1
x = 1 + (x − 1) − (x − 1)2 + (x − 1)3 + O((x − 1)4 ).
2 8 16
In die letztere Reihe müssen wir zunächst x + 1 einsetzen:
√ 1 1 1
x + 1 = 1 + x − x2 + x3 + O(x4 ).
2 8 16
Danach multiplizieren wir die beiden Reihen:

f (x) = ex · x + 1
 1 1   1 1 1 
= 1 + x + x2 + x3 + O(x4 ) · 1 + x − x2 + x3 + O(x4 )
2 6 2 8 16
1 1 2 1 1 2 1 3 1 2 1 3 1 3
= 1 + x − x + x3 + O(x4 ) + x + x − x + x + x + x
2 8 16 2 8 2 4 6
3 7 2 17 3
= 1 + x + x + x + O(x4 ).
2 8 48
Der Konvergenzradius muss mindestens 1 sein (kleinster Definitionsbereich der beteiligten
Reihen). Andererseits kann der Konvergenzradius auch nicht größer als 1 sein, weil bei
x = −1 der Definitionsbereich von f (x) endet. Somit ist r = 1.
Wir können das Beispiel fortsetzen und auch die Potenzreihe der Funktion
Z x p
F (x) = eξ · ξ + 1 dξ
0

206
5.4 Taylor-Entwicklung

im Nullpunkt bestimmen. Dazu müssen wir die vorherige Potenzreihe lediglich gliedweise
integrieren und erhalten
Z x Z x 
ξ
p 3 7 17
F (x) = e · ξ + 1 dξ = 1 + ξ + ξ 2 + ξ 3 + O(ξ 4 ) dξ
0 0 2 8 48
 ξ=x
3 7 17 4
= ξ + ξ2 + ξ3 + ξ + O(ξ 5 )
4 24 192 ξ=0
3 7 17 4
= x + x2 + x3 + x + O(x5 ),
4 24 192
was somit ebenfalls Konvergenzradius 1 hat. //
Man beachte, dass man durch das Integrieren automatisch einen Polynomgrad gewinnt.

Übung 5.49 Entwickeln Sie auf dieselbe Weise die Funktion f (x) = cos(x) · sin(2x) im
Nullpunkt bis x3 .

5.4.5 Fehlerabschätzungen
Sei f eine Funktion und pn ihr Taylor-Polynom vom Grad n mit Entwicklungspunkt x∗ ,
und weiter sei r der Konvergenzradius der Taylor-Reihe. Für |x − x∗ | < r wissen wir
dann, dass der Grenzwert limn→∞ pn (x) existiert. Die Frage, wie groß aber für festes n
die Abweichung

|f (x) − pn (x)|

ist (also gewissermaßen der Fehler beim Annähern von f (x) durch das Taylor-Polynom),
können wir noch nicht beantworten. Gerade diese Frage ist aber für die Anwendung ent-
scheidend: Typischerweise hat man eine Vorgabe in der Form, dass man bei der Näherung
einen bestimmten Maximalfehler nicht überschreiten darf, und gefragt ist, bis zu welchem
Grad n man die Taylor-Reihe hierfür entwickeln muss.
Falls die Taylor-Reihe die Voraussetzungen des Leibniz-Kriteriums erfüllt, ist dadurch
automatisch eine Abschätzung des Restglieds gegeben:

Satz 5.50 Erfüllt die Taylor-Reihe, ausgewertet in x, die Voraussetzungen des Leibniz-
Kriteriums (Satz 5.23) (das heißt, die Summanden haben abwechselndes Vorzeichen, sind
dem Betrage nach monoton fallend und konvergieren gegen null), so kann der Fehler
|f (x) − pn (x)| abgeschätzt werden durch das nächste nicht-verschwindenden Glied in der
Taylor-Reihe.5 In Formeln:
1
|f (x) − pn (x)| ≤ |f (n+1) (x∗ )| · |x − x∗ |n+1 .
(n + 1)!
5
Es gibt allerdings Funktionen, deren Taylor-Reihe zwar konvergiert, jedoch nicht gegen das Richtige.
Für solche Funktionen ist die hier dargestellte Fehlerabschätzung falsch. In ingenieurwissenschaft-
lichen Anwendungen treten solche Funktionen jedoch praktisch nicht auf, weswegen wir auf diese
Problematik hier nicht weiter eingehen. Mit der Restglieddarstellung von Lagrange hingegen (siehe
Satz 5.51) ist man immer auf der sicheren Seite.

207
5 Folgen, Reihen und Taylor-Entwicklung

Dieser Satz ermöglicht eine sehr einfache Abschätzung, ist jedoch nur in bestimmten
Fällen anwendbar. Eine Alternative bildet die sogenannte Restglieddarstellung nach La-
grange:

Satz 5.51 (Restglieddarstellung nach Lagrange) Es gilt

1
f (x) − pn (x) = f (n+1) (ξ) · (x − x∗ )n+1 ,
(n + 1)!

wobei ξ ein Wert zwischen x∗ und x ist.

Zum besseren Verständnis betrachten wir den Fall n = 0, der auch für sich interessant
ist. p0 (x) ist die Konstante f (x∗ ), der Satz besagt dann also

f (x) − f (x∗ ) = f ′ (ξ) · (x − x∗ ).

Durch Umstellen der Formel und Ändern der Variablennamen erhält man:

Satz 5.52 (Mittelwertsatz der Differenzialrechnung) Sei f auf [a, b] differenzierbar, dann
existiert ein ξ ∈ (a, b) mit

f (b) − f (a)
f ′ (ξ) = .
b−a

Dieser Satz lässt sich gut geometrisch veranschaulichen: Die linke Seite, f ′ (ξ), ist (nach
Definition der Ableitung) die Tangentensteigung an f (x) an einer (unbekannten) Stelle
ξ, während die rechte Seite genau die Steigung der Sekante, die den Funktionsgraphen an
den Intervallenden a und b schneidet, beschreibt (siehe Abbildung 5.4). Der Satz besagt
also: Ist f auf [a, b] differenzierbar, so existiert irgendwo in dem Intervall eine Stelle, an
der die Tangente dieselbe Steigung hat wie die Sekante.6
Im Allgemeinen hat man in der Restglieddarstellung keine Möglichkeit, den Wert von
ξ genauer zu bestimmen. Für eine Abschätzung genügt es aber, einfach das Maximum
von |f n+1 (ξ)| über das gesamte in Frage kommende Intervall [x, x∗ ] zu bilden.
Wir fassen beide Fehlerabschätzungen wie folgt zusammen:

Satz 5.53 Für den Fehler eines Taylor-Polynoms gilt die Abschätzung

1 |f (n+1) (x∗ )|,
 falls die Taylor-Reihe nach
∗ n+1
|f (x) − pn (x)| ≤ |x − x | · Leibniz konvergiert,
(n + 1)! 
max ∗ |f (n+1) |, immer.
[x ,x]

Falls x < x∗ ist, muss das Intervall [x∗ , x] freilich durch [x, x∗ ] ersetzt werden.
6
Mathematisch korrekt geht man in umgekehrter Reihenfolge vor: Man beweist zuerst den Mittelwert-
satz (vorher noch einen Spezialfall, den sogenannten Satz von Rolle) und mit dessen Hilfe erst die
Lagrangesche Restglieddarstellung.

208
5.4 Taylor-Entwicklung

y
ente
Tang
f ( x)
f (b)

nte
Seka
f (a)

a ξ b

Abbildung 5.4: Mittelwertsatz der Differenzialrechnung: Im Intervall [a, b] existiert eine


Stelle ξ, an der die Tangente dieselbe Steigung hat wie die Sekante.

Restgliedabschätzung bei Taylor-Polynom





 |f (n+1) (x∗ )|, falls die Taylor-Reihe

1 nach Leibniz
|f (x) − pn (x)| ≤ |x − x∗ |n+1 ·
(n + 1)! 
 konvergiert,

max ∗ |f (n+1) |,
[x ,x] immer.

209
5 Folgen, Reihen und Taylor-Entwicklung

Beispiel 5.54 Wir können jetzt Einschätzungsfrage 5.38 vollständig beantworten. Im Fal-
le der e-Funktion sind alle Ableitungen gleich, also f (n+1) = f . Wenn x größer wird, wird
der Term max[x∗ ,x] |f (n+1) | größer, man kann aber durch Erhöhen von n gegensteuern,
weil dann ja der Term 1/(n+1)! kleiner wird. //

Beispiel 5.55 Wir wollen den Zahlenwert der Eulerschen Zahl e möglichst genau berech-
nen. Wir benutzen dafür die Taylor-Entwicklung der e-Funktion

f (x) = ex

im Nullpunkt. Das n-te Taylor-Polynom hat die Form


n
X 1 k
pn (x) = x ,
k!
k=0

es ergibt sich damit die Näherung


n
X 1
e = f (1) ≈ pn (1) = .
k!
k=0

Die Lagrangesche Restglieddarstellung besagt in diesem Fall

f (n+1) (ξ) n+1 eξ


f (x) − pn (x) = x = xn+1 .
(n + 1)! (n + 1)!
Für x = 1 ergibt sich insbesondere


e − pn (1) = f (1) − pn (1) = , ξ ∈ (0, 1),
(n + 1)!
und somit
e
0 ≤ e − pn (1) ≤ .
(n + 1)!

Addieren von pn (1) zu der gesamten Ungleichung ergibt für die gesuchte Zahl e die
Einschachtelung
e
pn (1) ≤ e ≤ pn (1) + . (5.4)
(n + 1)!
Jetzt haben wir ein Problem: Um die obere Schranke für den zu bestimmenden Wert e
zu berechnen, müssen wir den Wert von e bereits kennen; die Katze beißt sich also in
den Schwanz. Eine Möglichkeit, dieses Problem zu umgehen, besteht darin, den rechten
Teil der Ungleichung (5.4) nach e aufzulösen, indem man den Term e/(n+1)! abzieht und
dann links e ausklammert und durch die Klammer teilt. Man erhält dann
 1 −1
pn (1) ≤ e ≤ 1 − · pn (1),
(n + 1)!

210
5.4 Taylor-Entwicklung

beziehungsweise nach Einsetzen des Wertes von pn (1), schließlich


n  −1 Xn
X 1 1 1
≤e≤ 1− · .
k! (n + 1)! k!
k=0 k=0

Für n = 2 etwa erhält man die Abschätzungen


2
X 1 1 5
e≥ = 1 + 1 + = = 2.5,
k! 2 2
k=0
 
1 −1 5  1 −1 5 5/2
e≤ 1− · = 1− · = = 3.
3! 2 6 2 5/6

Je größer n, desto genauer sind die Abschätzungen, wobei trotzdem immer nur Grund-
rechenarten verwendet werden. Beispielsweise erhält man mit n = 11 den Wert von e
bereits garantiert auf sieben Nachkommastellen genau.
//

5.4.6 Die binomische Reihe


Wir kennen schon die Reihendarstellung der Wurzelfunktion um den Entwicklungspunkt
x∗ = 1, also eine Darstellung der Form
∞ ∞
√ X √ X
x= an (x − 1)n , bzw. x+1= an xn .
n=0 n=0

Nun ist aber auch x + 1 = (x + 1)1/2 , und wir wollen dies jetzt verallgemeinern, indem
wir die Taylor-Reihe der Funktion f (x) = (x + 1)α für einen beliebigen Wert α ∈ R
bestimmen. Den Ausdruck (x + 1)α nennt man ein Binom, die Koeffizienten der Taylor-
 heißen Binomialkoeffizienten. Für sie existiert eine spezielle Schreibweise, nämlich
Reihe
α
k (gesprochen: „α über k“), wobei α der Exponent ist und k die x-Potenz angibt. Mit
anderen Worten, es gilt nach Definition die Darstellung
∞  
α
X α k
(x + 1) = x .
k
k=0
α
Die Binomialkoeffizienten k können dabei, wie die Koeffizienten jeder Taylor-Reihe,
durch Ableitungen berechnet werden, nämlich
 
α 1
= f (k) (0), wobei f (x) = (x + 1)α .
k k!
Für die Ableitungen ergibt sich

f ′ (x) = α · (x + 1)α−1 ,
f ′′ (x) = α · (α − 1) · (x + 1)α−2 ,
f ′′′ (x) = α · (α − 1) · (α − 2) · (x + 1)α−3 ,

211
5 Folgen, Reihen und Taylor-Entwicklung

bzw. allgemein

f (k) (x) = α · (α − 1) · (α − 2) · · · · · (α − k + 1) · (x + 1)α−k , also


f (k) (0) = α · (α − 1) · (α − 2) · · · · · (α − k + 1),

und somit
 
α α · (α − 1) · (α − 2) · · · · · (α − k + 1)
= .
k k!

Es ergibt sich also die sogenannte binomische Reihe

α(α − 1) 2 α(α − 1)(α − 2) 3


(x + 1)α = 1 + αx + x + x + ··· .
2! 3!

Sie ist eine der wichtigsten Reihen.


Für negative oder nicht-ganzzahlige α hat die Funktion (x + 1)α bei x = −1 eine
Singularität, weswegen zu erwarten ist, dass die Reihe Konvergenzradius 1 hat. In der Tat
kommt man auch mit der Berechnungsmethode aus Abschnitt 5.4.3 auf dieses Ergebnis.

Übung 5.56 Berechnen Sie den Anfang der Taylor-Reihe von

1

3
= (x + 1)−1/3 .
x+1

Zu Übung 5.56:

212
5.4 Taylor-Entwicklung

5.4.7 Spezialfall: Der binomische Lehrsatz


Eine besondere Situation ergibt sich, wenn α eine natürliche Zahl (einschließlich 0) ist.
Diesen Fall wollen wir jetzt noch untersuchen, dabei schreiben wir fortan n statt α, was
für natürliche Zahlen intuitiver ist. In der (selbstverständlich weiterhin gültigen) Formel
 
n n · (n − 1) · (n − 2) · · · · · (n − k + 1)
=
k k!
taucht im Zähler irgendwann der Faktor 0 auf, nämlich ab k = n + 1. Wir erhalten also
 
n
=0 für k > n.
k
Die Potenzreihe bricht in diesem Falle also nach xn ab, es gilt somit
n  
X n k
(1 + x)n = x . (5.5)
k
k=0

Da es sich um eine endliche Summe handelt, stellt sich auch die Frage der Konvergenz
überhaupt nicht mehr. (Formal wäre der Konvergenzradius ∞.)
Weiterhin kann man das Produkt im Zähler der Binomialkoeffizienten vereinfacht
schreiben, nämlich
n!
n · (n − 1) · (n − 2) · · · · · (n − k + 1) = ,
(n − k)!
woraus sich die übersichtlichere Darstellung
 
n n!
= (5.6)
k k!(n − k)!
ergibt.

Beispiel 5.57 Für n = 2 erhalten wir


     
2 2 0 2 1 2 2 2! 0 2! 1 2! 2
(1 + x) = x + x + x = x + x + x = 1 + 2x + x2 ,
0 1 2 0! · 2! 1! · 1! 2! · 0!
was selbstverständlich nichts anderes als die altbekannte binomische Formel ist. //
Das Beispiel erinnert uns daran, dass man freilich (1 + x)n auch durch
 Ausmultiplizieren
berechnen kann. In dieser Interpretation gibt der Koeffizient nk an, wie häufig beim
Ausmultiplizieren von

(x + 1)n = (x + 1)(x + 1) · · · (x + 1)

der Term xk auftaucht, mit anderen Worten wie viele Möglichkeiten es gibt, genau k-mal
x auszuwählen. Indem man das Produkt zerlegt in

(x + 1)n = (x + 1)n−1 · (x + 1),

213
5 Folgen, Reihen und Taylor-Entwicklung

Tabelle 5.1: Pascalsches Dreieck.

k=0 k=1 k=2 k=3 k=4 k=5 k=6


n=0 1
n=1 1 1
n=2 1 2 1
n=3 1 3 3 1
n=4 1 4 6 4 1
n=5 1 5 10 10 5 1
n=6 1 6 15 20 15 6 1

erkennt man folgenden Zusammenhang: Um in (x + 1)n insgesamt k-mal x wählen, hat


man folgende zwei Möglichkeiten: Entweder man wählt bereits in (x + 1) n−1 schon k-mal
n−1

x, muss dann aber im zusätzlichen Faktor die 1 wählen (das sind k Möglichkeiten),
oder man wählt in (x+ 1)n−1 nur k − 1-mal x und dann noch einmal im zusätzlichen
Faktor (das sind n−1
k−1 Möglichkeiten). Somit ergibt sich folgende Formel:
     
n n−1 n−1
= + . (5.7)
k k k−1
Sie wird ergänzt durch die Formeln
   
n n
= 1, = 1, (5.8)
0 n
die sich unmittelbar aus (5.6) ergeben.
Man kann die Binomialkoeffizienten in einer Tabelle anordnen, die man das Pascal-
sche Dreieck nennt, siehe Tabelle 5.1. Aus den Formeln (5.7) und (5.8) ergibt sich eine
alternative Berechnungsvorschrift für das Pascalsche Dreieck: Die Werte an den Rändern
sind immer 1, die Werte im Inneren ergeben sich jeweils als Summe aus den zwei Zahlen
darüber.

Beispiel 5.58 Die Koeffizienten des Binoms (x + 1)5 findet man in der 5-ten Zeile des
Pascalschen Dreiecks. Es gilt also
(x + 1)5 = 1 + 5x + 10x2 + 10x3 + 5x4 + x5 .
Durch stures Ausmultiplizieren hätte man das auch erhalten, jedoch mit wesentlich mehr
Aufwand. //

Die beschriebene Rechenvorschrift ist allerdings rekursiv. Möchte man einen Wert nk
für ein großes n berechnen, so ist nach wie vor die Formel (5.6) zu bevorzugen.
Unter Benutzung von (5.5) erhält man mit einem Trick auch eine Darstellung von
(x + y)n , nämlich
   n x n n   n  
x X n k −k X n k n−k
(x + y)n = y · +1 = yn + 1 = yn x y = x y .
y y k k
k=0 k=0

214
5.4 Taylor-Entwicklung

Binomische Reihe, binomischer Lehrsatz


Binomische Reihe: Für α ∈ R beliebig gilt:
∞    
α
X α k α α · (α − 1) · (α − 2) · · · · · (α − k + 1)
(1 + x) = x , = .
k k k!
k=0

Potenzreihe mit Konvergenzradius: r = 1.

Binomischer Lehrsatz: Spezialfall α = n ∈ N ∪ {0}:


n  
n
X n
(1 + x) = xk .
k
k=0

Unterschiede zur binomischen Reihe:


• Endliche Summe (bis n statt bis ∞).
• Für alle x gültig (Konvergenzradius r = ∞).
• Koeffizienten können alternativ über das Pascalsche Dreieck berechnet
werden. (Obige Formel bleibt aber ebenfalls gültig.)
Verallgemeinerung:
n  
n
X n k n−k
(x + y) = x y .
k
k=0

Diese Formel ist als der binomische Lehrsatz bekannt und wird häufig benutzt.
Binomialkoeffizienten haben auch eine Anwendung in der Kombinatorik und Wahr-
scheinlichkeitsrechnung:

49
Beispiel 5.59 Der Wert 6 ist nach Definition der Koeffizient von x6 in dem Ausdruck

(x + 1)49 = (x + 1) · (x + 1) · (x + 1) · · · · · (x + 1) .
| {z }
49

Er bezeichnet somit die Anzahl der Möglichkeiten, beim Ausmultiplizieren von 49 Termen
vom Typ „(x + 1)“ genau 6-mal das „x“ zu wählen. Allgemein bezeichnet dieser Wert
also die Anzahl der Möglichkeiten, aus 49 Dingen genau 6 Stück auszuwählen, somit
insbesondere auch die Anzahl der möglichen Tipps im Lotto „6 aus 49“. Die Berechnung
über das Pascalsche Dreieck ist hierfür eher ungeeignet, weil man 49 Zeilen des Dreiecks
berechnen müsste, aber die Formel (5.6) ergibt
 
49 49! 49 · 48 · 47 · 46 · 45 · 44
= = = 13 983 816.
6 6! · 43! 1·2·3·4·5·6

215
5 Folgen, Reihen und Taylor-Entwicklung

Die Wahrscheinlichkeit, mit einem Tipp sechs Richtige zu erlangen, ist also
1
.
13 983 816
Seit Einführung der Superzahl im Jahr 1991 ist die Chance auf die höchste Gewinnklasse
nochmals um einen Faktor 10 geringer, liegt jetzt also bei
1
.
139 838 160
Damit ist auch Einschätzungsfrage 5.37 beantwortet. //

Übung 5.60 In Österreich ist das Lotto „6 aus 45“ üblich. Bestimmen Sie hierfür die
Anzahl der möglichen Tipps.

Zu Übung 5.60:

5.4.8 Näherungspolynome elementarer Funktionen


Aus der Restglieddarstellung von Lagrange ergibt sich insbesondere für |x − x∗ | ≤ ε die
Abschätzung
1
|f (x) − pn (x)| ≤ C · |x − x∗ |n+1 mit C= max |f (n+1) |.
(n + 1)! [x∗ −ε,x∗ +ε]

Sofern also f in einer Umgebung von x∗ hinreichend glatt (das heißt, genügend häufig
differenzierbar) ist, stellt ein Taylor-Polynom in einer genügend kleinen Umgebung des
Entwicklungspunkts stets eine gute Näherung der Funktion dar, denn für x → x∗ geht
der Faktor |x − x∗ |n+1 gegen null.7
Die Taylor-Polynome elementarer Funktionen werden in der Praxis häufig als Nähe-
rungsformeln herangezogen, zum Beispiel für Überschlagsrechnungen. Man spricht dabei
von der ersten, zweiten, n-ten Näherung, wenn die Taylor-Reihe nach dem ersten, zwei-
ten, n-ten nicht-verschwindenden Glied abgebrochen wird, wobei das konstante Glied
7
Im Unterschied zu den vorigen Betrachtungen ist hier nicht x fest und n → ∞ (in welchem Fall nicht
unbedingt Konvergenz vorliegen muss), sondern es ist n fest, und es wird der Fall x → x∗ betrachtet.
Die Aussage ist also: Für jedes n ist das n-te Taylor-Polynom auf einer genügend kleinen Umgebung
von x∗ eine gute Näherung der Funktion. Für n → ∞ kann es freilich passieren, dass diese Umgebung
beliebig klein wird.

216
5.4 Taylor-Entwicklung

Tabelle 5.2: Wichtige Taylor-Reihen


1 X
= (−1)n xn = 1 − x + x2 − x3 + x4 ∓ · · · , |x| < 1,
1+x
n=0

X 1 n 1 1 1
ex = x = 1 + x + x2 + x3 + x4 + · · · , x ∈ R,
n! 2 6 4!
n=0

X (−1)n 2n+1 1 1 1
sin x = x = x − x3 + x5 − x7 ± · · · , x ∈ R,
(2n + 1)! 6 5! 7!
n=0

X (−1)n 2n 1 1 1
cos x = x = 1 − x2 + x4 − x6 ± · · · , x ∈ R,
(2n)! 2 4! 6!
n=0

X (−1)n+1 n 1 1 1
ln(1 + x) = x = x − x2 + x3 − x4 ± · · · , |x| < 1,
n 2 3 4
n=1

√ X (−1)n (2n)! 1 1 1 5 4
1+x= xn = 1 + x − x2 + x3 − x ± · · · , |x| < 1,
(1 − 2n)(n!)2 4n 2 8 16 128
n=0
∞  
α
X α n α(α − 1) 2 α(α − 1)(α − 2) 3
(1 + x) = x = 1 + αx + x + x + · · · , |x| < 1.
n 2! 3!
n=0

In der letzten Formel ist α ∈ R beliebig. Im Spezialfall α ∈ N ∪ {0} bricht die Reihe ab
und entspricht dem binomischen Lehrsatz, der für alle x ∈ R gültig ist.

nicht mitgezählt wird. Zum Beispiel erhält man (vergleiche Beispiel 5.45) für x ≈ 0 die
folgenden Näherungen für die Kosinusfunktion:

1
1. Näherung: cos x ≈ 1 − x2 ,
2
1 1
2. Näherung: cos x ≈ 1 − x2 + x4 .
2 24

Entsprechende Näherungsformeln für die meisten elementaren Funktionen werden auf


dieselbe Weise entwickelt und können auch der Literatur entnommen werden. Die wich-
tigsten Taylor-Reihen sind in Tabelle 5.2 zusammengefasst.
Taylor-Näherungsformeln werden in Anwendungen insbesondere dann verwendet, wenn
es darum geht, bei einem formelmäßig komplizierten Zusammenhang ein „Gefühl“ für den
Einfluss einzelner Größen aufeinander zu bekommen. Beispiele werden in den Übungs-
aufgaben behandelt.

217
5 Folgen, Reihen und Taylor-Entwicklung

5.4.9 Taylor-Reihen im Komplexen, komplexe e-Funktion


Im Prinzip gilt alles hier gesagte auch für Funktionen, die auf C, oder Teilmengen da-
von, definiert sind. Der Konvergenzbereich ist dann immer ein Kreis in der Gaußschen
Zahlenebene, dessen Radius der uns schon bekannte Konvergenzradius ist. Über das Kon-
vergenzverhalten in den (unendlich vielen) Randpunkten des Kreises kann wie zuvor im
Allgemeinen nichts gesagt werden.
Im Übrigen kann die Taylor-Reihe auch benutzt werden, um Funktionen, die bisher nur
sinnvoll auf R definiert sind, auf C fortzusetzen. Insbesondere die e-Funktion, mit ihrem
Konvergenzradius ∞, wird auf C durch ihre Taylor-Reihe definiert. Durch Einsetzen und
Vergleichen mit anderen schon bekannten Taylor-Reihen stellt man dann fest:
∞ ∞ ∞ ∞

X 1 n
X 1 n n X 1 2k 2k X 1
e = (jϕ) = j ϕ = j ϕ + j2k+1 ϕ2k+1
n! n! (2k)! (2k + 1)!
n=0 n=0 k=0 k=0
∞ ∞
X (−1)k X (−1)k 2k+1
= ϕ2k + j ϕ = cos ϕ + j sin ϕ.
(2k)! (2k + 1)!
k=0 k=0

Dies ist die Eulersche Formel, die wir bereits in Abschnitt 2.4.3 benutzt haben. Ihre
Richtigkeit haben wir somit nachträglich begründet.

5.5 Grenzwerte von Funktionen


5.5.1 Einleitung
Analog zur Definition von Grenzwerten von Folgen kann man auch Grenzwerte von Funk-
tionen betrachten. So ist etwa
lim x2 = 9,
x→3

denn zu jedem ε > 0 existiert eine Umgebung von 3, in der die Werte der Funktion x2
im Bereich [9 − ε, 9 + ε] sind. Das ist freilich nicht überraschend, denn die Funktion x2
ist im Punkt 3 stetig (sie ist ja sogar überall stetig). In der Tat gilt:

Satz 5.61 Ist f stetig in x0 , so ist


lim f (x) = f (x0 ).
x→x0

Es gilt hier auch die Umkehrung, und man kann dies auch für die Definition der Stetigkeit
hernehmen.
Mit dem Begriff des Grenzwertes einer Funktion können wir jetzt endlich auch die
Ableitung einer Funktion formal definieren. Die anschaulichen Überlegungen aus Ab-
schnitt 4.2.1 führen zu der Formel
f (x + h) − f (x)
f ′ (x) = lim .
h→0 h
Darüber hinaus ist dieses Konzept auch in folgenden Fällen nützlich:

218
5.5 Grenzwerte von Funktionen

• für Funktionen mit „natürlichen“ Definitionslücken, etwa

x2 − 1
lim = 2;
x→1 x − 1

• für Funktionsgrenzwerte im Unendlichen, etwa

2x2 + 3x + 4
lim = 2.
x→∞ x2 − 5x − 9

Die beiden Beispiele sind gebrochenrationale Funktionen, mit denen wir uns in Ab-
schnitt 1.6 ausführlich beschäftigt haben, deswegen wissen wir, wie wir diese Grenzwerte
berechnen können. Wie können wir aber feststellen, ob etwa die Grenzwerte
sin x 1 − cos x  π
lim x , lim √ , lim x − tan x
x→0 e − 1 x→0 x x→π/2 2

existieren und welchen Wert sie haben?


Zunächst einmal gelten für Grenzwerte von Funktionen sinngemäß dieselben Rechen-
regeln wie für Grenzwerte von Folgen, also etwa

lim (f (x) + g(x)) = lim f (x) + lim g(x)


x→x0 x→x0 x→x0

und so weiter, sofern jeweils die rechte Seite existiert (vgl. Abschnitt 5.2.3). Das ist gut
zu wissen, hilft aber für die obigen Beispiele nicht wirklich weiter.

5.5.2 Regel von de L’Hospital


Wir betrachten zunächst allgemein die Situation, dass nach dem

f (x)
lim∗
x→x g(x)

gefragt ist, wobei f (x∗ ) = g(x∗ ) = 0 ist. Man spricht hier auch von einem Grenzwert
vom „Typ 0/0“. Angenommen, f und g sind genügend häufig differenzierbar, dann können
wir sie in eine Taylor-Reihe entwickeln, und es steht da

f (x) f (x∗ ) + f ′ (x∗ )(x − x∗ ) + 21 f ′′ (x∗ )(x − x∗ )2 + O((x − x∗ )3 )


lim∗ = lim∗
x→x g(x) x→x g(x∗ ) + g ′ (x∗ )(x − x∗ ) + 12 g ′′ (x∗ )(x − x∗ )2 + O((x − x∗ )3 )
f ′ (x∗ )(x − x∗ ) + 21 f ′′ (x∗ )(x − x∗ )2 + O((x − x∗ )3 )
= lim∗
x→x g ′ (x∗ )(x − x∗ ) + 21 g ′′ (x∗ )(x − x∗ )2 + O((x − x∗ )3 )
f ′ (x∗ ) + 12 f ′′ (x∗ )(x − x∗ ) + O((x − x∗ )2 ) f ′ (x∗ )
= lim∗ = ,
x→x g ′ (x∗ ) + 21 g ′′ (x∗ )(x − x∗ ) + O((x − x∗ )2 ) g ′ (x∗ )

falls dieses existiert. Dieselbe Regel gilt für Grenzwerte vom Typ ∞/∞ sowie auch für
limx→±∞ . Genau lautet die Regel:

219
5 Folgen, Reihen und Taylor-Entwicklung

Satz 5.62 (Regel von de L’Hospital8 ) Sei (a, b) ein Intervall, wobei b = ∞ zugelassen
ist, und seien f und g auf (a, b) differenzierbar, wobei g in (a, b) keine Nullstelle hat, und
sei

entweder lim f (x) = lim g(x) = 0 oder lim g(x) = ±∞,


x→b x→b x→b

dann gilt

f (x) f ′ (x)
lim = lim ′ ,
x→b g(x) x→b g (x)

falls die rechte Seite existiert.

Anmerkungen:

• Falls limx→b f ′ (x)/g ′ (x) nicht existiert, ist keine Aussage über limx→b f (x)/g(x)
möglich.

• Falls f ′ /g ′ im Punkt b wieder vom Typ 0/0 oder ∞/∞ ist, kann es erfolgreich sein,
die Regel ein zweites (gegebenenfalls drittes, . . . ) Mal anzuwenden.

• Grenzwerte von den Typen 0 · ∞, ∞ − ∞ und ähnliche können nicht direkt mit
dieser Regel behandelt werden, lassen sich jedoch manchmal bestimmen, indem
man sie mit elementaren Umformungen auf eine der Formen 0/0 oder ∞/∞ bringt.

• Falls g in der Nähe von b unendlich viele Nullstellen hat, gilt die Regel nicht. (Solche
Funktionen treten aber in der Praxis typischerweise nicht auf.)

Beispiel 5.63 Gesucht sei

sin x
lim .
x→0 ex − 1

Dies ist vom Typ 0/0, wir wenden die Regel an und erhalten

sin x cos x 1
lim x
= lim x = = 1.
x→0 e − 1 x→0 e 1

//

Übung 5.64 Berechnen Sie auf dieselbe Weise

1 − cos x
lim √ .
x→0 x

8
Die französische Originalschreibweise lautet „de L’Hôpital“, im Deutschen hat sich jedoch die Schreib-
weise „de L’Hospital“ durchgesetzt.

220
5.5 Grenzwerte von Funktionen

Zu Übung 5.64:

Beispiel 5.65 Gesucht sei

x4
lim .
x→∞ ex

Dies ist vom Typ ∞/∞, wir wenden die Regel an und erhalten

x4 4x3
lim = lim .
x→∞ ex x→∞ ex

Durch wiederholtes Anwenden erhalten wir


12x2 24x 24
· · · = lim = lim x = lim x = 0
x→∞ ex x→∞ e x→∞ e

//

Allgemein erhält man auf diese Weise:

Satz 5.66 Die e-Funktion wächst schneller als jedes Polynom.

Beispiel 5.67 Gesucht sei


1 1 
lim − .
x→0 x sin x
Dies ist vom Typ ∞ − ∞, wir formen es um und wenden dann die Regel zweimal an:
1 1  sin x − x cos x − 1 − sin x
lim − = lim = lim = lim
x→0 x sin x x→0 x sin x x→0 sin x + x cos x x→0 cos x + cos x − x sin x
0
= = 0.
2
//

221
5 Folgen, Reihen und Taylor-Entwicklung

Beispiel 5.68 Gesucht sei

x2 + sin x
lim .
x→∞ x2
Dies ist vom Typ ∞/∞, wir wenden die Regel zweimal an und erhalten

x2 + sin x 2x + cos x 2 − sin x


lim 2
= lim = lim .
x→∞ x x→∞ 2x x→∞ 2
Dieser Limes existiert nicht, daher versagt die Regel hier. Die Frage ist aber dennoch
lösbar, es gilt nämlich

x2 + sin x  sin x  sin x


lim 2
= lim 1 + 2
= 1 + lim = 1 + 0 = 1.
x→∞ x x→∞ x x→∞ x2
//

5.5.3 Grenzwertberechnung mit Potenzreihen


In manchen Fällen führt die Regel von de L’Hospital jedoch zu einem relativ großen
Rechenaufwand – nämlich dann, wenn man beim Ableiten Produkt-, Quotienten- oder
Kettenregel anwenden muss, oder besonders auch dann, wenn man die Regel mehrfach
anwenden muss. Setzen sich die beteiligten Ausdrücke aus Funktionen zusammen, deren
Potenzreihenentwicklungen bekannt sind, so lassen sich die Grenzwerte möglicherweise
direkt mit Potenzreihen viel bequemer berechnen. Hierbei bewährt sich auch wieder die
Groß-O-Schreibweise, die wir bereits in Abschnitt 5.4.4 eingeführt haben.

Beispiel 5.69 In Beispiel 5.67 musste beim Ableiten zweimal die Produktregel angewandt
werden. Die Entwicklung
1
sin x = x − x3 + O(x5 )
6
ermöglicht folgende, einfachere Rechnung:
1 1  sin x − x x − 16 x3 + O(x5 ) − x − 61 x3 + O(x5 )
lim − = lim = lim = lim 2 1 4
x→0 x sin x x→0 x sin x x→0 x(x − 1 x3 + O(x5 )) x→0 x − x + O(x6 )
6 6
− 61 x + O(x3 ) − 61 x + O(x3 ) 0
= lim 1 2 4
= lim 2
= lim = 0.
x→0 1 − x + O(x ) x→0 1 + O(x ) x→0 1
6

//

Beispiel 5.70 Ein komplizierteres Beispiel ist

sin x · (1 − cos x)
lim .
x→0 ln(x + 1) − x + 1 x2
2

222
5.5 Grenzwerte von Funktionen

Grenzwerte von Funktionen


ohne Singularität: Einfach einsetzen.

Typ 0/0: Regel von de L’Hospital oder über Potenzreihen. (Methode über Potenzrei-
hen kann wesentlich einfacher sein.)

Typ ∞/∞: Regel von de L’Hospital.

andere singuläre Typen: Zunächst durch Umformungen auf Typ 0/0 oder Typ ∞/∞
bringen.

Wir kennen folgende Potenzreihen:


1 1
sin x = x − x3 + O(x5 ), cos x = 1 − x2 + O(x4 ),
6 2
1 2 1 3
ln(x + 1) = x − x + x + O(x4 ),
2 3
und damit ergibt sich für den fraglichen Ausdruck

(x − 61 x3 + O(x5 ))(1 − 1 + 21 x2 + O(x4 ))


· · · = lim
x→0 x − 12 x2 + 13 x3 + O(x4 ) − x + 21 x2
(x − 16 x3 + O(x5 ))( 12 x2 + O(x4 ))
= lim 1 3 4
3 x + O(x )
x→0
1 3 1
2x + O(x5 ) 2
2 + O(x )
1/2 3
= lim = lim = = .
x→0 1 x3 + O(x4 ) x→0 1 1/3 2
3 3 + O(x)

maxima bestätigt das:

limit((sin(x)*(1-cos(x)))/(log(x+1)-x+1/2*x^2),x,0); Sie können jetzt aus


der Probeklausur Som-
Mit der Regel von de L’Hospital wäre das wesentlich mehr Aufwand gewesen; man hätte mer 2014 die Aufga-
nämlich die dritte Ableitung von Zähler und Nenner berechnen müssen. // be 1 bearbeiten.

223

Das könnte Ihnen auch gefallen