Beruflich Dokumente
Kultur Dokumente
Tim Kröger
1 Funktionen 5
1.1 Allgemeines über Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Eigenschaften von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Periodizität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Beschränktheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4 Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 Symmetrieverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Umkehrfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Verkettung von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Polynomfunktionen (ganzrationale Funktionen) . . . . . . . . . . . . . . . 14
1.5.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Polynome vom Grad 0 . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.3 Polynome vom Grad 1 . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.4 Polynome vom Grad 2 . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.5 Polynome von höherem Grad . . . . . . . . . . . . . . . . . . . . . 16
1.6 Gebrochenrationale Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.2 Nullstellen und Definitionslücken . . . . . . . . . . . . . . . . . . . 20
1.6.3 Asymptotisches Verhalten im Unendlichen . . . . . . . . . . . . . . 22
1.7 Potenz- und Wurzelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7.1 Potenzfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7.2 Wurzelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7.3 Potenzfunktionen mit rationalen Exponenten . . . . . . . . . . . . 24
1.8 Exponential- und Logarithmus-Funktionen . . . . . . . . . . . . . . . . . . 25
1.9 Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.9.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.9.2 Umkehrung der trigonometrischen Funktionen . . . . . . . . . . . . 34
1.9.3 Bestimmung des Winkels bei bekanntem Sinus und Kosinus . . . . 34
1.9.4 Verallgemeinerte Sinusschwingung . . . . . . . . . . . . . . . . . . 36
1.10 Hyperbel- und Areafunktionen . . . . . . . . . . . . . . . . . . . . . . . . 39
2 Komplexe Zahlen 43
2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2 Die Menge der komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . 45
iii
Inhaltsverzeichnis
iv
Inhaltsverzeichnis
4 Differenzialrechnung 155
4.1 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.2 Differenzierbarkeit und Ableitung . . . . . . . . . . . . . . . . . . . . . . . 158
4.2.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.2.2 Berechnung von Ableitungen . . . . . . . . . . . . . . . . . . . . . 161
4.2.3 Linearisierung einer Funktion . . . . . . . . . . . . . . . . . . . . . 167
4.2.4 Monotonie, Extremstellen, Krümmungsverhalten . . . . . . . . . . 169
v
Inhaltsverzeichnis
vi
Über die Verwendung von
Computersystemen in dieser
Lehrveranstaltung
Im Rahmen der Vorlesung werden bisweilen Beispiele am Computer demonstriert. Für die
Bearbeitung mathematischer Probleme am Computer existiert eine Vielzahl von Softwa-
repaketen. Dabei gibt es sowohl kommerzielle Software als auch kostenlose Open-Source-
Software. Gute kostenlose Software bietet dabei oftmals einen nahezu vergleichbaren
Funktionsumfang wie kommerzielle Software.
Thematisch lässt sich Mathematik-Software grob in zwei Bereiche unterteilen, nämlich
in Numerik-Software und Computer-Algebra. Computer-Algebra-Programme können gut
symbolisch rechnen, Numerik-Software kann mit Zahlen rechnen und benutzt dabei Nä-
herungsmethoden. Den Unterschied kann man sich gut an einem Beispiel klar machen:
kommerziell kostenlos
Computer-Algebra Maple, Mathematica Maxima
Numerik Matlab, Mathematica Octave, Scilab
Die drei kostenlosen Programme sind für alle gängigen Betriebssysteme (Windows, Mac,
Linux) erhältlich.
Beispiel 0.2 In maxima löst man das obige Beispiel wie folgt:
1
Über die Verwendung von Computersystemen in dieser Lehrveranstaltung
integrate(cos(x)*cos(sin(x)),x);
sin(sin(x))
integrate(cos(x)*cos(sin(x)),x,0,1);
sin(sin(1))
float(integrate(cos(x)*cos(sin(x)),x,0,1));
0.74562414166556
Versucht man allerdings dasselbe mit dem Integranden sin x · cos(sin x), so findet maxima
keine Lösung.
In octave löst man dasselbe Beispiel wie folgt:
quad(@(x) cos(x)*cos(sin(x)),0,1)
ans = 0.74562
Eine Stammfunktion sucht man vergebens; sie wird nicht gebildet. Jedoch kann octave
dafür auch problemlos mit dem abgeänderten Integranden sin x · cos(sin x) umgehen. //
Diese Lehrveranstaltung ist keine Einführung in eines der Systeme. Es besteht aber
die Möglichkeit, die in der Vorlesung am Computer demonstrierten Beispiele zu Hause
nachzuarbeiten und gegebenenfalls eigenständig zu erweitern. Um dies den Studieren-
den zu erleichtern, wird im Rahmen dieser Veranstaltung ausschließlich kostenlose Soft-
ware eingesetzt. Auf Grund des inhaltlichen Schwerpunkts der Veranstaltung wird das
Computer-Algebra-System maxima eingesetzt. Im Moodle-Kurs finden Sie einen Link,
unter dem Sie sich maxima herunterladen können.
In der Klausur ist die Benutzung von Computern weder notwendig noch zulässig.
2
Kästen
• In Kästen wie diesem werden die wichtigsten Ergebnisse zu einem Thema über-
sichtlich zusammengefasst.
• Die Kästen sollen dabei helfen, bei komplizierten Zusammenhängen die Über-
sicht zu behalten.
• Die Kästen ersetzen jedoch nicht die restliche Veranstaltung. Die Kästen alleine
decken nicht den Prüfungsstoff ab.
3
1 Funktionen
Definition 1.1 Unter einer Funktion versteht man eine Vorschrift f , die jedem Element
x aus einer Menge D genau ein Element y aus einer Menge Z zuordnet.
• x: unabhängige Variable;
• y: abhängige Variable;
• D: Definitionsmenge;
• Z: Zielmenge.
• Fallweg und Fallgeschwindigkeiten beim freien Fall als Funktionen der Zeit;
//
5
1 Funktionen
Sofern D und Z Mengen reeller Zahlen sind, besteht eine grafische Darstellungsmög-
lichkeit darin, für jedes Punktepaar (x, y) mit y = f (x) einen Punkt mit Abszisse x
und Ordinate y in ein rechtwinkliges Koordinatensystem zu zeichnen. Es ergibt sich der
sogenannte Graph der Funktion (siehe Abbildung 1.1 für die Funktion f (x) = x2 ). Weil
eine Funktion jedem x nur ein y zuordnet, gilt: Jede Parallele zur y-Achse schneidet den
Graphen nur einmal. (Es ist zulässig, dass eine Parallele zur y-Achse den Graphen gar
nicht schneidet, wenn die Funktion an der entsprechenden Stelle eine Definitionslücke
hat.)
Neben der Zielmenge gibt es noch die Bildmenge, dies ist die Menge aller Werte, die
tatsächlich angenommen werden. Die Bildmenge ist eine Teilmenge der Zielmenge.
f : R → R, f (x) = x2
hat Zielmenge R (weil in der Funktionsdefinition so angegeben). Die Bildmenge ist jedoch
[0, ∞), weil negative Werte nicht angenommen werden. //
Manche Autoren verwenden auch den Begriff „Wertemenge“, dessen Bedeutung jedoch
uneinheitlich ist.
6
1.2 Eigenschaften von Funktionen
y
5
1
x
−2 −1 1 2
ist.
Anschaulich bedeutet das: Der Graph „geht nach oben“ (monoton wachsend) beziehungs-
weise „geht nach unten“ (monoton fallend). Falls das Attribut „streng“ nicht dabei steht,
darf der Graph darüber hinaus horizontale Abschnitte enthalten.
Manche Funktionen sind auf ihrer gesamten Definitionsmenge nicht monoton, jedoch
auf bestimmten Teilintervallen.
Beispiel 1.5 Die Normalparabel f : R → R, f (x) = x2 (siehe Abbildung 1.1) ist auf
ganz R nicht monoton, jedoch
//
7
1 Funktionen
y
1
x
1.2.2 Periodizität
Zahlreiche Vorgänge in Naturwissenschaft und Technik wiederholen sich in regelmäßigen
Abständen, zum Beispiel
• schwingende Saite;
• Wechselstrom;
• Jahreszeiten.
Definition 1.6 Eine Funktion f : D → Z heißt periodisch mit der Periode p (auch
Periodenlänge genannt), wenn für jedes x ∈ D auch x + p ∈ D und x − p ∈ D und
f (x + p) = f (x − p) = f (x)
ist.
Beispiel 1.7 Die Sinusfunktion f : R → R, f (x) = sin x ist periodisch mit Periodenlänge
p = 2π (Abbildung 1.2). //
Formal erfüllt aber zum Beispiel auch p = 4π oder p = −10π die Definition. Allgemein
gilt: Ist f periodisch mit Periodenlänge p, so auch mit Periodenlänge k·p für jede beliebige
ganze Zahl k. Die kleinste positive Periode einer periodischen Funktion nennt man daher
primitive Periode.
1.2.3 Beschränktheit
Definition 1.8 Eine Funktion f : D → Z heißt
nach unten beschränkt, es ein A ∈ R gibt so, dass f (x) ≥ A für alle x ∈ D.
nach oben beschränkt, falls es ein B ∈ R gibt so, dass f (x) ≤ B für alle x ∈ D.
beschränkt, sie nach unten und nach oben beschränkt ist.
8
1.3 Umkehrfunktion
Funktionen
Zur Definition einer Funktion gehören: Wichtige Eigenschaften:
• Definitionsmenge, • Monotonie,
• Zielmenge, • Periodizität,
• Berechnungsvorschrift. • Beschränktheit,
• Nullstellen,
• Symmetrieverhalten.
1.2.4 Nullstellen
Definition 1.9 Ein x0 ∈ D heißt Nullstelle einer Funktion f : D → W , falls f (x0 ) = 0
ist.
1.2.5 Symmetrieverhalten
Definition 1.10 Eine Funktion f : D → Z mit symmetrischer Definitionsmenge heißt
gerade, f (−x) = f (x)
falls für jedes x ∈ D stets
ungerade, f (−x) = −f (x)
ist.
Der Graph einer geraden Funktion ist spiegelsymmetrisch zur y-Achse. Der Graph einer
ungeraden Funktion ist punktsymmetrisch zum Nullpunkt.
1.3 Umkehrfunktion
Eine Funktion f : D → Z ordnet jedem x ∈ D einen Wert y = f (x) ∈ Z zu. Häufig
stellt sich das umgekehrte Problem: Zu einem vorgegebenen Funktionswert y ∈ Z ist der
zugehörige x-Wert zu bestimmen. Dieses Problem ist allerdings nicht immer lösbar, aus
folgenden zwei Gründen:
Wir nennen eine Funktion injektiv, falls das erste Problem nicht auftritt, das heißt also
falls eine Parallele zur x-Achse den Graphen höchstens einmal schneidet. Formal:
9
1 Funktionen
Typische Beispiele für injektive Funktionen sind solche, die auf ihrer gesamten Definiti-
onsmenge streng monoton wachsend oder streng monoton fallend sind.
Analog nennen wir eine Funktion surjektiv, falls das zweite Problem nicht auftritt,
das heißt also falls eine Parallele zur x-Achse den Graphen mindestens einmal schneidet.
Formal:
Definition 1.13 Eine Funktion heißt bijektiv (oder umkehrbar), falls sie injektiv und
surjektiv ist.
Ist eine Funktion f nicht injektiv und/oder nicht surjektiv, so lässt sie sich jedoch injektiv
und surjektiv machen, indem man Definitions- und Zielmenge geeignet einschränkt:
• Jede Funktion lässt sich surjektiv machen, indem man als Zielmenge die Bildmenge
wählt. Hierdurch wird die Zielmenge ggfs. verkleinert.
f : R → R, f (x) = x2 .
Mit Definitionsmenge R und Zielmenge R ist die Funktion weder injektiv noch surjektiv.
Die Bildmenge ist nur [0, ∞) (siehe Beispiel 1.3), wir müssen diese Menge als Zielmenge
angeben, um die Funktion surjektiv zu machen. Um sie injektiv zu machen, können wir
sie beispielsweise auf die verkleinerte Definitionsmenge D = [0, ∞) einschränken (dort
ist sie streng monoton wachsend). Wir schreiben also
10
1.3 Umkehrfunktion
Berechnung Umkehrfunktion
1. Gegeben f : D → Z.
2. Sicherstellen, dass die Funktion surjektiv ist: Zielmenge durch Bildmenge er-
setzen.
Formal müssten wir statt f eine andere Bezeichnung wählen, weil dies eine andere Funk-
tion als die ursprünglich gegebene ist: Die Zuordnungsvorschrift ist zwar gleich, aber
Definitions- und Zielmenge wurden geändert. Wir erlauben uns aber diese Ungenauig-
keit.
Die geänderte Funktion f ist jetzt jedenfalls bijektiv. Zur Bestimmung der Umkehr-
funktion müssen wir wie beschrieben auflösen:
y = x2
√
⇔ y=x (gültig wegen x, y ≥ 0).
2
Manche Autoren schreiben daher zur Unterscheidung bei der Umkehrfunktion das „−1“ nicht als Index
−1
an den Funktionsnamen, sondern direkt darüber, also f .
11
1 Funktionen
y y
5 5
4 4
f
3 3
2 2
f −1
1/f
1 1
x x
1 2 3 4 5 1 2 3 4 5
Abbildung 1.3: Links: Normalparabel, eingeschränkt auf D = [0, ∞), und ihre Umkehr-
funktion (entspricht Spiegelung an der Hauptdiagonalen). Rechts: Kehr-
wert der Normalparabel.
f : R → R, x 7→ 2x + 1.
1. x in f einsetzen, also den Ort y = f (x) des Autos zum gegebenen Zeitpunkt
bestimmen, und alsdann
Wir bezeichnen mit h die Funktion, die jedem Zeitpunkt die zugehörige Höhe des Autos
zuordnet, dann gilt offenbar
Diese Form der Verknüpfung von zwei Funktionen bezeichnen wir als Verkettung von
Funktionen. //
12
1.4 Verkettung von Funktionen
Zu Übung 1.15:
g ◦ f.
Die Reihenfolge ist dabei entscheidend: f ◦ g ist im Allgemeinen etwas anderes als g ◦ f ,
selbst wenn beide definiert sind.
Merke: Die Funktion, die näher am Argument steht, wird zuerst angewendet.
f : R → R, x 7→ x2 ,
g : R → R, x 7→ 2x + 3.
13
1 Funktionen
hingegen
//
f (x) = a0 + a1 x + a2 x2 + a3 x3 + . . . an xn
• Das Differenzieren und Integrieren (Ableiten und Aufleiten) ist problemlos möglich.
f (x) = a0 .
Der Wert ist also unabhängig von x, die Funktion ist konstant. Der Graph ist eine
Parallele zur x-Achse.
14
1.5 Polynomfunktionen (ganzrationale Funktionen)
f (x) = a0 + a1 x oder y = mx + t.
Der Graph ist eine Gerade mit Steigung m und y-Achsenabschnitt t. Steigung m und
Steigungswinkel α sind gemäß m = tan α verknüpft.
Die Form y = mx + t heißt Normalform oder Hauptform der Geraden. Es gibt wei-
tere Formen, die für spezielle Zwecke nützlich sind und sich allesamt in die Normalform
umrechnen lassen:
• Die Punkt-Steigungs-Form ist eine Gleichung für die Gerade, die durch einen gege-
benen Punkt P1 = (x1 , y1 ) geht und die Steigung m hat. Sie lautet
y − y1
= m.
x − x1
• Die Zwei-Punkte-Form ist eine Gleichung für die Gerade, die durch zwei vorgege-
bene Punkte P1 = (x1 , y1 ) und P2 = (x2 , y2 ) geht. Sie lautet
y − y1 y2 − y1
= .
x − x1 x2 − x1
• Die Achsenabschnittsform ist eine Gleichung für eine Gerade mit vorgegebenen
Achsenabschnitten s und t. Sie lautet:
x y
+ = 1.
s t
Dabei können s und t positiv oder negativ sein, je nachdem auf welcher Seite die
Funktion die jeweilige Achse schneiden soll.
Das Polynom f (x) = mx + t hat eine Nullstelle, sie ist gegeben durch x0 = −t/m.
Beispiel 1.21 Gesucht seien Normalform und Nullstelle der Geraden durch die Punkte
P1 = (3, 10) und P2 = (5, 14). Wir schreiben die Gerade in Zwei-Punkte-Form und formen
dann schrittweise um bis zur Normalform:
y − 10 14 − 10
= =2
x−3 5−3
⇔ y − 10 = 2 · (x − 3) = 2x − 6
⇔ y = 2x + 4.
15
1 Funktionen
Sofern a 6= 0 ist (andernfalls handelt es sich ja um eine Gerade), hat der Graph stets die
Form einer Parabel. Das Vorzeichen von a bestimmt die Öffnung der Parabel:
• Ist a > 0, so ist die Parabel nach oben geöffnet.
Beispiel 1.22 (Biquadratische Gleichung) Gesucht seien die Nullstellen der Funktion
f (x) = x4 − 5x2 + 4.
Das Polynom ist vom Grad 4 und hat nur gerade x-Potenzen, ein solches Polynom nennt
man biquadratisches Polynom. Ein Trick besteht darin, x2 durch eine neue Variable y zu
ersetzen, somit ergibt sich die Nullstellengleichung
y 2 − 5y + 4 = 0
16
1.5 Polynomfunktionen (ganzrationale Funktionen)
√
also y1 = 4 und y2 = 1. Wegen y = x2 folgt dann x = ± y, somit besitzt die Ausgangs-
funktion die vier Nullstellen
x1 = 1, x2 = −1, x3 = 2, x4 = −2.
Nach demselben Prinzip kann jede biquadratische Gleichung behandelt werden. Die An-
zahl der Nullstellen ist höchstens vier.
f (x) = x4 + 1
hat gar keine (reelle) Nullstelle, weil x4 als Quadrat der reellen Zahl x2 niemals negativ
werden kann. //
Ist eine Nullstelle des Polynoms bekannt, so kann man die Frage nach den restlichen
Nullstellen vereinfachen, indem man einen sogenannten Linearfaktor abspaltet. Dieses
Vorgehen beruht auf der Tatsache, dass wenn x1 eine Nullstelle des Polynoms f vom
Grad n ist, eine Darstellung der Form
f (x) = (x − x1 ) · f1 (x)
existieren muss, wobei f1 ein Polynom vom Grad n − 1 ist. Der Faktor (x − x1 ) heißt
Linearfaktor. Da ein Produkt genau dann null wird, wenn einer der Faktoren null wird,
kann somit mit dieser Darstellung die Nullstellensuche vereinfacht werden: Der Linear-
faktor (x − x1 ) hat nur eine Nullstelle, nämlich x1 , daher müssen alle weiteren Nullstellen
von f die Nullstellen von f1 sein. Da f1 einen um eins geringeren Grad hat, ist die Suche
somit einfacher.
Zum Abspalten des Linearfaktors gibt es zwei verschiedene Rechenmethoden: Poly-
nomdivision und Horner-Schema. Wir stellen hier nur das Horner-Schema vor4 , und zwar
direkt an einem Beispiel.
Durch Ausprobieren sei die Nullstelle x1 = −1 gefunden worden. (In manchen Fällen
kann man auch durch Zusatzwissen über das zu Grunde liegende Problem eine Nullstelle
bestimmen.) Mit dem Horner-Schema berechnet man:
2 0 −8 −2 4
−1 −2 2 6 −4
2 −2 −6 4 0
4
Polynomdivision wird in Abschnitt 1.6.3 behandelt.
17
1 Funktionen
Erläuterung:
• Im Verfahren wird zunächst die erste Zahl von oben direkt nach unten übertragen,
anschließend immer abwechselnd
– die Zahl von unten mit der Zahl vorne multipliziert, das Ergebnis in die mitt-
lere Zeile, eine Stelle weiter rechts, eingetragen;
– die beiden übereinander stehenden Zahlen addiert, das Ergebnis darunter ein-
getragen.
• Die unterstrichene Zahl in der letzten Reihe ist der gesuchte Funktionswert.
Das Horner-Schema kann also zum Auswerten des Polynoms genutzt werden, somit zum
Ausprobieren von Nullstellenkandidaten. (In diesem Beispiel ergibt sich f (−1) = 0, also
ist −1 tatsächlich eine Nullstelle.)
Darüber hinaus sind die übrigen Ziffern der letzten Zeile die Koeffizienten des redu-
zierten Polynoms f1 , das somit lautet
Wir müssen eine weitere Nullstelle durch Probieren finden. Nehmen wir mal x2 = 2. Wir
können dann das Horner-Schema direkt fortsetzen:
2 0 −8 −2 4
−1 −2 2 6 −4
2 −2 −6 4 0
2 4 4 −4
2 2 −2 0
Das weiter reduzierte Polynom lautet somit
f2 (x) = 2x2 + 2x − 2.
a0 + a1 x + a2 x2 + · · · + an xn = an · (x − x1 )(x − x2 ) · · · (x − xn ).
18
1.6 Gebrochenrationale Funktionen
• Grad 2: Mitternachtsformel.
• Sonst: Eine Nullstelle raten, dann Abspalten mit Horner-Schema (oder Poly-
nomdivision).
• Linearfaktorzerlegung:
f (x) = an · (x − x1 )(x − x2 ) · · · (x − xn ),
Beispiel 1.25 Das Polynom aus Beispiel 1.24 hat die Produktdarstellung
√ √
1+ 5 1− 5
f (x) = 2 · (x + 1) · (x − 2) · x + · x+ .
2 2
Achtung: Der konstante Faktor an (hier 2) wird häufig vergessen. //
Übung 1.27 Zerlegen Sie das Polynom f (x) = 3x3 − 6x2 − 15x + 18 in Linearfaktoren.
19
1 Funktionen
Zu Übung 1.27:
Übung 1.29 Welche der folgenden Funktionen sind echt beziehungsweise unecht gebro-
chenrational?
4x 1 x2 − 1
f (x) = 4
, f (x) = , f (x) = ,
x −1 x2 x2 + 1
x2 − 3x + 2 4x4 − 2x + 5 x−1
f (x) = 3 , f (x) = 2 , f (x) = .
x − 4x + 1 x − 3x − 10 (x + 2)(x + 5)
Satz 1.30 Ist f (x) = g(x)/h(x), wobei g vom Grad n und h vom Grad m ist, so hat f
höchstens n Nullstellen und höchstens m Definitionslücken.
20
1.6 Gebrochenrationale Funktionen
Ist x0 Definitionslücke von f (also Nullstelle von h) und ist g(x0 ) 6= 0, so wird für
x-Werte in der Nähe von x0 der Wert |h(x)| beliebig klein, während der Wert |g(x)|
von null weg beschränkt bleibt. Daher wird der Quotient |g(x)/h(x)| = |f (x)| beliebig
groß. Die Funktionswerte in der Nähe der Definitionslücke gehen also gegen ∞ oder −∞
(wie von der Funktion f (x) = 1/x bekannt). Eine solche Definitionslücke wird Pol oder
Unendlichkeitsstelle genannt.
Eine Besonderheit tritt auf, wenn x0 gleichzeitig Nullstelle von g und h ist. In diesem
Fall kann man von beiden Polynomen den Linearfaktor (x − x0 ) abspalten und dann
herauskürzen. Danach kann eine der folgenden Situationen auftreten:
• Das neue Nennerpolynom hat bei x0 keine Nullstelle mehr; dann handelte es sich
um eine hebbare Lücke. Durch das Herauskürzen wurde sie gehoben.
• Das neue Nennerpolynom hat bei x0 immer noch eine Nullstelle; in diesem Fall muss
man abermals untersuchen, ob auch das neue Zählerpolynom bei x0 eine Nullstelle
hat. Gegebenenfalls wird das Abspalten und Herauskürzen von Linearfaktoren so
lange wiederholt, bis Zähler oder Nenner keine Nullstelle mehr bei x0 haben.
Es ist daher eine Konvention, dass man beim Bestimmen von Null- und Polstellen einer
gebrochenrationalen Funktion f zunächst alle Nullstellen von Zähler- und Nennerpoly-
nom bestimmt und dann alle etwaigen gleichen Nullstellen herauskürzt. Danach sind
die verbleibenden Nullstellen des Zählers die Nullstellen von f und die Nullstellen des
Nenners die Polstellen von f .
2(x − 2)2 (x + 5)
f (x) = .
(x − 1)(x − 2)(x + 5)
Der Linearfaktor (x + 5) kann restlos herausgekürzt werden, somit liegt bei −5 eine
hebbare Lücke vor. Der Faktor (x − 2) kann einmal gekürzt werden und verbleibt dann
nur im Zähler, somit liegt bei 2 ebenfalls eine hebbare Lücke, die nach dem Heben sogar
eine Nullstelle ist. Der Faktor (x − 1) kann nicht gekürzt werden, somit liegt bei 1 ein
Pol vor. Nach dem Heben der Lücken lautet die Funktion
2(x − 2)
f (x) = .
x−1
Die maximale Definitionsmenge5 ist R \ {1}. Die einzige Nullstelle ist x0 = 2. //
5
Formal korrekt müsste man zwischen der gegebenen Funktion f und der Funktion mit behobenen
Lücken, f˜, unterscheiden. Die maximale Definitionsmenge von f ist R \ {−5, 1, 2}, während die maxi-
male Definitionsmenge von f˜ gleich R \ {1} ist. Auf R \ {−5, 1, 2} stimmen beide Funktionen überein.
21
1 Funktionen
x4 − 3x3 + 4x2 − 5x + 5
f (x) = .
x2 − 3x + 2
Man schreibt die Koeffizienten der Polynome nebeneinander und verfährt wie bei einer
schriftlichen Division mit Rest (von Zahlen), nur dass es keine Überträge zwischen den
Spalten gibt – im Prinzip also sogar einfacher:
1 −3 4 −5 5 : 1 −3 2 = 1 0 2 Rest 1 1
1 −3 2
0 2 −5
0 0 0
2 −5 5
2 −6 4
1 1
Es ist also
x+1 x+1
f (x) = x2 + 2 + = x2 + 2 + .
x2 − 3x + 2 (x − 1)(x − 2)
Wir haben somit – analog wie bei Brüchen von Zahlen – den unechten Bruch als Summe
aus einer ganzrationalen und einer echt gebrochenrationalen Funktion dargestellt. Im
Unendlichen geht die echt gebrochenrationale Funktion gegen null, die Gesamtfunktion
somit gegen das Polynom x2 + 2. Bei x = −1 schneidet die Kurve das Polynom, bei x = 1
und x = 2 liegen Pole vor. In maxima kann der Graph wie folgt gezeichnet werden:
plot2d([(x^4-3*x^3+4*x^2-5*x+5)/(x^2-3*x+2),x^2+2],[x,-10,10],[y,-20,20]);
divide(x^4-3*x^3+4*x^2-5*x+5,x^2-3*x+2,x);
//
22
1.6 Gebrochenrationale Funktionen
g(x) r(x)
f (x) = = p(x) + ,
h(x) h(x)
wobei der Grad von r kleiner als der Grad von h ist. Die Kurve von f nähert sich
im Unendlichen der Kurve von p an. Man sagt, p ist die Asymptote von f . Nach dem
eventuellen Herauskürzen gemeinsamer Nullstellen von r und h (wie zuvor) liegen an den
Nullstellen von r Schnittpunkte mit p vor, die Nullstellen von h sind Pole.
Zu Übung 1.33:
Anmerkung: Das Suchen und Herauskürzen gemeinsamer Nullstellen kann man vor oder
nach der Polynomdivision durchführen – das Ergebnis ist dasselbe. Nach der Division sind
die Nullstellen des Zählers leichter zu finden, weil er geringeren Grad hat. Findet man
aber dennoch vor der Division schon welche, sollte man sie ruhig frühzeitig herauskürzen,
weil dadurch ja die Division vereinfacht wird.
23
1 Funktionen
Gebrochenrationale Funktionen
• Nullstelle des Zählers: Nullstelle.
1.7.2 Wurzelfunktionen
√
Die Wurzelfunktion f (x) = n x ist die Umkehrfunktion der Potenzfunktion xn . Für
gerade n ist jedoch die Potenzfunktion auf ganz R nicht umkehrbar. Wir schränken daher
Definitions- und Zielmenge jeweils auf [0, ∞) ein. Die n-te Wurzel ist also für negative
Argumente nicht erklärt, und für positive Argumente ist sie stets positiv.
Für ungerade n könnte man die n-te Wurzel auch für negative Argumente erklären.
Tut man dies, so gelten jedoch einige übliche Potenzregeln nicht mehr wie gewohnt (siehe
Beispiel im folgenden Abschnitt). Es ist daher ratsam, ungerade Wurzeln aus negativen
Zahlen einfach als undefiniert anzusehen.
Für negative Exponenten gilt bezüglich der Umkehrfunktion im Prinzip dasselbe, nur
dass noch der Nullpunkt aus Definitions- und Zielmenge entfernt werden muss. Für n = 0
ist die Potenzfunktion konstant, eine Umkehrfunktion („0-te Wurzel“) existiert nicht.
24
1.8 Exponential- und Logarithmus-Funktionen
weil hierbei wiederum alle Rechenregeln erhalten bleiben. Das gilt allerdings nur für
x ≥ 0. Für negative x ist Vorsicht geboten, wie das folgende Beispiel zeigt:
//
Merke: Ungerade Wurzeln aus negativen Zahlen kann man zulassen. In dem
Fall sind jedoch die gewohnten Potenzregeln nicht mehr uneingeschränkt gül-
tig.
Potenzfunktionen mit irrationalen Exponenten werden formal mit Hilfe der e-Funktion
definiert, siehe Ende Abschnitt 1.8.
25
1 Funktionen
Potenzfunktionen
Exponent Definitionsmenge Bemerkung
> 0 und ganzzahlig R definiert durch mehrfache Multiplikation
=0 R konstant x0 = 1 (auch 00 = 1)
1
< 0 und ganzzahlig R \ {0} x−n =
xn
√ √ n
> 0 und rational [0, ∞) xn/m = m xn = m x
1 1
< 0 und rational (0, ∞) x−n/m = m √ = m
n
√ n
x x
irrational (0, ∞) α
x =e α ln x
ax
ax+y = ax · ay , ax−y = , a0 = 1,
ay
a x ax
a1 = a, ax·y = (ax )y , (a · b)x = ax · bx , = .
b bx
Analoge Rechenregeln für den Logarithmus erhält man, indem man in die ersten fünf
Gleichungen x = loga u und y = loga v einsetzt und dann beide Seiten logarithmiert. Sie
lauten:
u
loga u + loga v = loga (u · v), loga u − loga v = loga , 0 = loga 1,
v
1 = loga a, y loga u = loga (uy ).
1
loga b = .
logb a
2x = 7, x2 = 7, log2 x = 7, logx 2 = 7.
26
1.8 Exponential- und Logarithmus-Funktionen
Zu Übung 1.35:
exp : R → R, x 7→ exp(x) = ex
e = 2.71828 . . . .
Sie hat einige besondere Eigenschaften, auf die wir in späteren Kapiteln zurückkommen.6
Ihre Umkehrfunktion heißt natürlicher Logarithmus und wird mit ln bezeichnet. Analog
zu (1.1) gilt
27
1 Funktionen
Logarithmus
• loga x ist die Umkehrfunktion zu ax , somit ist:
ln x = loge x.
• Wichtige Rechenregeln:
sich beispielsweise formal über eine Potenzreihe definieren (siehe Abschnitt 5.4.3), und
über Gleichung (1.3) werden dann allgemeine Potenzen definiert.
Auch beliebige Logarithmen lassen sich auf den natürlichen Logarithmus umrechnen;
durch Einsetzen von b = e in (1.2) ergibt sich nämlich
ln x
loga x = .
ln a
Gegenkathete Ankathete
sin α = , cos α = ,
Hypotenuse Hypotenuse
siehe auch Abbildung 1.4. Dabei basiert die Winkelmessung in Altgrad auf der willkür-
lichen Unterteilung des rechten Winkels in 90 Teile (entsprechend des Vollwinkels in
360 Teile).7 Eine andere Winkelmessung ist das sogenannte Bogenmaß : Hier wird die
7
Der Grund für diese Wahl liegt allerdings darin, dass die Zahl 360 besonders viele Teiler hat, so dass
viele wichtige Winkel durch ganzzahlige Werte dargestellt werden.
28
1.9 Trigonometrische Funktionen
Ge
te
gen
kathe
An
kat
het
e
α
Hypothenuse
Größe eines Winkels durch die Länge des Kreisbogens des entsprechenden Kreissektors
mit Radius 1 ausgedrückt. Zwischen diesen Winkelmaßen gilt die Umrechnungsregel
Bogenmaß π
= .
Altgrad 180 °
In der Mathematik ist das Bogenmaß die gebräuchlichere Einheit. Welche Einheit gemeint
ist, erkennt man üblicherweise am Vorhandensein oder Nichtvorhandensein des Gradzei-
chens.8 Im Bogenmaß gemessen sind Sinus- und Kosinusfunktion somit einstweilen für
Argumente zwischen 0 und π/2 erklärt.
Diese Funktionen können wie folgt am Kreis dargestellt werden: In einem Koordinaten-
system zeichnen wir einen Strahl vom Nullpunkt aus im ersten Quadranten, der mit der
positiven x-Achse den gegebenen Winkel α einschließt. Die Ordinate und Abszisse dieses
Strahls mit dem Einheitskreis sind dann gleich sin α und cos α (siehe Abbildung 1.5). Die-
se Darstellung lässt sich nun auf beliebige Winkel verallgemeinern (siehe Abbildung 1.6):
Der Winkel α wird von der positiven x-Achse aus im Gegenuhrzeigersinn abgetragen.
Der Strahl kann dann in jedem Quadranten liegen. Bei einem vollen Umlauf auf dem
Einheitskreis durchläuft der Winkel alle Werte von 0 bis 2π. Danach wiederholen sich die
Funktionswerte. Sinus- und Kosinusfunktion sind also periodisch mit primitiver Periode
2π.
Negative Winkel trägt man dementsprechend in die Gegenrichtung ab. Offenbar ändert
sich dabei das Vorzeichen der Ordinate des Punktes P , nicht aber das der Abszisse. Somit
gilt:
Mit anderen Worten: Sinus ist eine ungerade Funktion, Kosinus eine gerade.
Ferner sind folgende Eigenschaften ebenfalls direkt aus dieser Konstruktion abzulesen:
• Die Nullstellen des Sinus liegen bei kπ, k ∈ Z; die Nullstellen des Kosinus liegen
bei (k + 1/2)π, k ∈ Z;
29
1 Funktionen
y y
1 1
cos α
sin α
sin α
α
cos α x α x
1 π/4 π/2
y y
1 1
cos α
sin α
sin α
α
cos α x α x
1 π/4 π/2
y y
1 1
sin α
sin α
α
cos α
cos α x α x
1 π/4 π/2
Abbildung 1.5: Zeichnerische Bestimmung von Sinus und Kosinus am Kreis. Man beach-
te, dass der Winkel α im Bogenmaß durch die Länge des Kreisbogens
(hellgrau markiert) gegeben ist.
30
1.9 Trigonometrische Funktionen
y y
1 α 1
sin α
sin α
cos α x α x
1 π/4 π/2
cos α
Abbildung 1.6: Erweiterung von sin und cos auf Winkel größer als π/2.
sin x cos x 1
tan x = , cot x = = .
cos x sin x tan x
Die Tangensfunktion hat Pole an den Stellen, wo cos Nullstellen hat, und Nullstellen, dort
wo sin Nullstellen hat. Beim Kotangens ist es gerade andersherum. Beide Funktionen sind
ungerade.
Beide Funktionen sind auch periodisch mit Periode 2π; dies ist jedoch nicht die primi-
tive Periode, denn es gilt
sin(x + y) = sin x cos y + cos x sin y, cos(x + y) = cos x cos y − sin x sin y.
Übung 1.36 Bestimmen Sie mit Hilfe dieser Tabelle und mit Symmetrieüberlegungen
die Werte der vier Winkelfunktionen sin, cos, tan, cot für die Winkel 2π/3 und 5π/4.
31
1 Funktionen
Trigonometrische Funktionen
y sin x
1
−π − 12 π 1
2π π 3
2π 2π
−1
cos x
y
3
2 tan x
−π − 12 π 1
2π π 3
2π 2π
−1
−2 cot x
−3
Wichtigste Regeln:
Gegenkathete Ankathete
sin ϕ = , cos ϕ = ,
Hypothenuse Hypothenuse
sin ϕ cos ϕ 1
tan ϕ = , cot ϕ = = , sin2 ϕ + cos2 ϕ = 1.
cos ϕ sin ϕ tan ϕ
Mehr Regeln siehe Formelsammlung.
32
1.9 Trigonometrische Funktionen
Tabelle 1.1: Werte der trigonometrischen Funktionen für einige wichtige Winkel.
π π π π
0 6 4 3 2
1
√
sin 0 √1 1
3 1
2 2 2
1
√
cos 1 √1 1
2 3 2 2 0
√
tan 0 √1 1 3 ×
√3
cot × 3 1 √1 0
3
Zu Übung 1.36:
33
1 Funktionen
arctan x − π3 − π4 − π6 0 π
6
π
4
π
3
Die Umkehrfunktionen werden als Arkusfunktionen bezeichnet und bilden somit zwischen
folgenden Mengen ab:
h π πi
arcsin : [−1, 1] → − , , arccos : [−1, 1] → [0, π],
2π 2π
arctan : R → − , , arccot : R → (0, π).
2 2
Für bestimmte Argumente lassen sich die Werte der Arkusfunktionen durch Rück-
wärtslesen der Tabelle 1.1 (Seite 33) zuzüglich entsprechender Symmetrieüberlegungen
ermitteln. Für die besonders häufig verwendete Funktion arctan vermerken wir wichtige
Werte in Tabelle 1.2.
34
1.9 Trigonometrische Funktionen
1 1√
cos ϕ = x = − , sin ϕ = y = − 3.
2 2
√
Falscher Ansatz 1: ϕ = arcsin(y) = arcsin(−1/2 · 3) = −π/3 = −1.04720. Die Probe
liefert das falsche Vorzeichen für cos ϕ.
//
Der Grund für dieses Problem liegt darin begründet, dass alle Arkusfunktionen als Bild-
mengen jeweils nur ein Intervall der Länge π haben; erforderlich wäre ein Intervall der
Länge 2π.
Eine übliche Lösung besteht darin, auf Grund der Vorzeichen der gegebenen Werte x
und y zunächst zu klären, in welchem Intervall der Winkel liegen muss, und dann nach
Anwendung der Arkusfunktion das Ergebnis entsprechend (unter Berücksichtigung der
Symmetrieeigenschaften der trigonometrischen Funktion) ggfs. transformiert.
Am einfachsten geht dies bei Verwendung der arctan-Funktion9,10 : Ihre Bildmenge ist
das Intervall (−π/2, π/2). Somit können Winkel im ersten und vierten Quadranten richtig
detektiert werden. Die entsprechenden Punkte im Koordinatensystem erkennt man dar-
an, dass ihre x-Koordinate positiv ist. Für Winkel im zweiten oder dritten Quadranten
hingegen ergibt die arctan-Funktion ein falsches Ergebnis; da der Tangens jedoch die pri-
mitive Periode π hat, besteht die erforderliche Transformation lediglich in einer Addition
von π zum berechneten Winkel. Es ergibt sich somit folgende Regel:
cos ϕ = x, sin ϕ = y
35
1 Funktionen
cos ϕ = x, sin ϕ = y
gilt:
arctan( xy ), x > 0,
arctan( y ) + π,
x x < 0,
ϕ= 1
2 π, x = 0, y > 0,
− 1 π,
2 x = 0, y < 0.
Im Fall x = 0 liegt der Punkt auf der y-Achse, weswegen der Winkel offensichtlich ist. Das
Problem der Division durch 0, das in diesem Fall auftreten würde, kann also komplett
umgangen werden.
Beispiel 1.39 In der Situation aus Beispiel 1.37 ist x < 0, daher ergibt sich
y √ 4
ϕ = arctan + π = arctan( 3) + π = π.
x 3
//
Wir merken noch an, dass der Winkel natürlich nur bis auf Vielfache von 2π eindeutig
ist. Die obige Methode ergibt einen Winkel im Intervall [−π/2, 3π/2). Wird ein anderes
Intervall der Länge 2π gewünscht, so muss ggfs. 2π addiert oder subtrahiert werden.
Außerdem haben wir natürlich stillschweigend vorausgesetzt, dass x und y so vorgege-
ben sind, dass ein geeignetes ϕ überhaupt existiert.
(Statt Sinus kann man auch Kosinus nehmen, aber wegen cos x = sin(x + π/2) kann man
jede allgemeine Kosinus- in eine allgemeine Sinusschwingung umrechnen.)
Um zu verstehen, welche Bedeutung dabei jeweils die Parameter a, b und c haben,
betrachten wir diese zunächst einzeln.
36
1.9 Trigonometrische Funktionen
• Der Parameter a wirkt als Multiplikator auf den Funktionswert. Dies entspricht
einer Streckung (a > 1) oder Stauchung (0 < a < 1) des Funktionsgraphen in
y-Richtung. Bei negativen Werten wird der Graph zusätzlich gespiegelt. a regelt
somit die Amplitude der Schwingung.
• Die Funktionsweise des Parameters b kann man sich gut klarmachen, indem man
sich überlegt, wo die Nullstellen der Funktion sin(bx) liegen. Liegen sie bei der
Original-Sinusfunktion bei 0, π, 2π, . . . , so liegen sie jetzt bei 0, π/b, 2π/b, . . . . Für
b > 1 liegen die Nullstellen jetzt also dichter beisammen. Dies entspricht einer
Stauchung des Funktionsgraphen. Analog bewirkt 0 < b < 1 eine Streckung. Bei
negativen Werten ergibt sich wiederum eine Spiegelung. b regelt somit die Frequenz
der Schwingung.
• Durch ähnliche Überlegung erkennt man, dass eine Änderung des Parameters c den
Funktionsgraphen in x-Richtung verschiebt, und zwar für c > 0 nach links und für
c < 0 nach rechts. Er regelt somit die Phasenverschiebung.
(Abbildung 1.7, unten) wird zuerst die horizontale Streckung und erst danach die Ver-
schiebung nach links durchgeführt. //
Dieselben Überlegungen gelten allgemein für beliebige Funktionen (siehe Kasten).
37
1 Funktionen
y sin(x)
3 sin(x + π/4)
2 sin(1/2 · x + π/4)
3 sin(1/2 · x + π/4)
1
x
−2
−3
y sin(x)
3 sin( 21 · x)
2 sin(1/2 · (x + π/4))
3 sin(1/2 · (x + π/4))
1
x
−2
−3
38
1.10 Hyperbel- und Areafunktionen
• Ein Seil, das unter seinem Eigengewicht durchhängt, nimmt die Form der cosh-
Funktion an.
• Trägt man beim freien Fall mit Luftwiderstand die Geschwindigkeit gegen die Zeit
ab, so ergibt sich der Funktionsgraph der tanh-Funktion.
Die Hyperbelfunktionen setzten sich aus den Funktionen ex und e−x zusammen und
verhalten sich in gewissem Sinne ähnlich wie die trigonometrischen Funktionen. Sie sind
wie folgt definiert:
ex − e−x
sinh x = ,
2
ex + e−x
cosh x = ,
2
sinh x ex − e−x
tanh x = = x ,
cosh x e + e−x
cosh x ex + e−x 1
coth x = = x = .
sinh x e − e−x tanh x
Wie bei den trigonometrischen Funktionen sind sinh, tanh und coth ungerade Funktio-
nen, während cosh eine gerade Funktion ist. Im Gegensatz zu den trigonometrischen
Funktionen sind die Hyperbelfunktionen jedoch nicht periodisch.
coth hat in 0 einen Pol, die übrigen Funktionen sind auf ganz R definiert.
Die Bildmengen sind:
sinh R, cosh [1, ∞), tanh (−1, 1), coth (−∞, −1) ∪ (1, ∞).
sinh und tanh sind auf ganz R streng monoton wachsend, cosh ist auf (−∞, 0] streng
monoton fallend und auf [0, ∞) streng monoton wachsend, coth ist auf (−∞, 0) und
(0, ∞) jeweils streng monoton fallend (jedoch nicht auf ganz R \ {0}).
39
1 Funktionen
Hyperbelfunktionen
y
3
coth x
cosh x 2
tanh x
x
−3 −2 −1 1 2 3
−1
sinh x −2
coth x
−3
Wichtigste Regeln:
ex − e−x ex + e−x
sinh x = , cosh x = ,
2 2
sinh x cosh x 1
tanh x = , coth x = = , cosh2 x − sinh2 x = 1.
cosh x sinh x tanh x
Mehr Regeln siehe Formelsammlung.
40
1.10 Hyperbel- und Areafunktionen
Einige Rechenregeln sind ähnlich (aber nicht gleich) wie bei den trigonometrischen
Funktionen, zum Beispiel
cosh2 x − sinh2 x = 1,
sinh(x + y) = sinh x cosh y + cosh x sinh y,
cosh(x + y) = cosh x cosh y + sinh x sinh y.
Das lässt sich leicht durch Einsetzen der Definition überprüfen. Weitere Rechenregeln
findet man in der Literatur.
Die Umkehrfunktionen werden als Areafunktionen bezeichnet. Da cosh nicht injektiv
ist, muss diese Funktion zuvor auf eine geeignete Teildefinitionsmenge eingeschränkt wer-
den; üblicherweise ist das das Intervall [0, ∞). Die anderen drei Funktionen sind injektiv.
Die Umkehrfunktionen bilden somit wie folgt ab:
Die Areafunktionen lassen sich mit Hilfe des natürlichen Logarithmus darstellen:
p p
arsinh x = ln(x + x2 + 1), arcosh x = ln(x + x2 − 1),
1 1 + x 1 x + 1
artanh x = ln , arcoth x = ln
2 1−x 2 x−1
Die Herleitung zeigen wir am Beispiel des arsinh:
Beispiel 1.42 Wie in Abschnitt 1.3 erklärt, beginnen wir mit sinh x = y, lösen dann nach
x auf und vertauschen am Ende die Variablen:
//
41
2 Komplexe Zahlen
2.1 Einleitung
Komplexe Zahlen haben in den Ingenieurwissenschaften vielfältige Anwendungen. Mit
ihrer Hilfe ist die mathematische Beschreibung von allgemeinen harmonischen Schwin-
gungen (Abschnitt 1.9.4) besonders einfach. Insbesondere ergibt sich eine sehr einfache
Rechenmethode zur Überlagerung gleichfrequenter Schwingungen. Neben mechanischen
Schwingungsvorgängen spielt dies insbesondere in der Wechselstromrechnung eine große
Rolle. Das Berechnen der Amplitudenverhältnisse und Phasenverschiebung zwischen der
zeitlich periodisch schwingenden Wechselspannung u(t) und dem ebenfalls schwingenden
Wechselstrom i(t) in einem Schaltkreis mit ohmschen Widerständen, Kapazitäten und
Induktivitäten kann mit Hilfe der komplexen Zahlen praktisch analog zur Rechnung im
Gleichstromfall erfolgen. Ohne komplexe Zahlen muss man dafür hingegen vergleichsweise
komplizierte Differenzialgleichungen lösen.
Die Überlagerung gleichfrequenter Schwingungen werden wir am Schluss des Kapitels
behandeln. (Für die Anwendung in der Wechselstromrechnung wird auf die Vorlesung
Elektrotechnik verwiesen.) Zunächst müssen aber die komplexen Zahlen eingeführt und
das Rechnen mit ihnen eingeübt werden. Denn wie so häufig in der Mathematik erfolgte
die Entwicklung der komplexen Zahlen nicht mit dem Primärziel, die Wechselstromrech-
nung zu vereinfachen. Diese und andere Anwendungen wurden erst später entdeckt. Die
Motivation für die Erfindung der komplexen Zahlen war die Tatsache, dass bestimmte
Gleichungen im Bereich der reellen Zahlen keine Lösungen haben.
In diesem Sinne kann man auch die Einführung der reellen Zahlen auf das Fehlen von
Lösungen bestimmter Gleichungen zurückführen. Wir wollen zunächst mit den natürli-
chen Zahlen
N = {0, 1, 2, 3, . . . }
beginnen (die Zugehörigkeit der Null ist je nach Autor uneinheitlich). Mit ihnen kann
man rechnen: Man kann sie addieren, und man kann sie multiplizieren. Und man kann
Gleichungen formulieren, zum Beispiel
2 + x = 5.
Diese Gleichung hat offenbar die Lösung x = 3. Es gibt jedoch auch Gleichungen, die
keine Lösung haben, zum Beispiel
5 + x = 2.
43
2 Komplexe Zahlen
Der Wunsch, auch für solche Gleichungen Lösungen bereitstellen zu können, führte zur
Erfindung der negativen Zahlen. Heute ist es für uns selbstverständlich, dass obige Glei-
chung die Lösung x = −3 hat; früher jedoch wurde das zunächst als unheimlich empfun-
den, denn man kann sich „minus drei Äpfel“ nicht richtig vorstellen.
Nimmt man also die negativen Zahlen zu N hinzu, erhält man die Menge der ganzen
Zahlen
Man fährt nun fort, Gleichungen zu bilden und ihre Lösungen zu suchen. Man kann zum
Beispiel die Gleichung
3 · x = 12
12 · x = 3
keine Lösung. Daher war es nötig, abermals neue Zahlen zu erfinden: die Brüche. Mit
ihnen findet man die Lösung x = 41 zu der obigen Gleichung. Die Menge der Brüche
(auch rationale Zahlen genannt) bezeichnen wir mit Q.
In Q kann man wiederum Gleichungen aufstellen, zum Beispiel
x · x = 25.
Diese Gleichung hat zwei Lösungen: x = 5 und x = −5. Hingegen hat die Gleichung
x·x=2
gar keine Lösung in Q. Dies motiviert die Einführung der irrationalen Zahlen, die mit den
rationalen Zahlen zusammen die reellen Zahlen bilden, diese werden √ mit R bezeichnet.
√
Die obige Gleichung hat in R wiederum zwei Lösungen, nämlich x = 2 und x = − 2.
Nun gibt es aber immer noch Gleichungen, die auch in R nicht lösbar sind. Zwei
Beispiele sind
0·x=1 und
x · x = −1.
Man fragt sich jeweils, was passiert, wenn man eine neue Zahl „erfindet“, die per Definition
Lösung einer dieser Gleichungen ist.
Um dies einschätzen zu können, müssen wir zunächst bemerken, dass die zuvor be-
sprochenen Zahlenbereichserweiterungen stets folgende Eigenschaften hatten:
• Der jeweils „neue“ Zahlenbereich enthält alle „alten“ Zahlen (es verschwinden also
keine Zahlen);
44
2.2 Die Menge der komplexen Zahlen
R ∪ {j},
j2 = −1.
Gelten für diese Menge die üblichen Regeln? Kann man zum Beispiel zwei Zahlen aus
dieser Menge mit einander multiplizieren? Nein, das Produkt
3·j
√ √
zum Beispiel ist darin nicht erklärt. (Analog wäre ja in Q ∪ { 2} das Produkt
√ 3 · 2 auch
nicht erklärt.) Man muss den Wert 3j als eigenständige Zahl (analog zu 3 2) zulassen
und zum Zahlenbereich hinzufügen:
R ∪ {j, 3j}.
45
2 Komplexe Zahlen
Man erkennt schnell, dass man natürlich alle Vielfachen von j hinzufügen muss:
R ∪ {yj : y ∈ R}.
Die Zahlen yj werden imaginäre Zahlen genannt, die Zahl j heißt imaginäre Einheit.
In dieser Menge kann man nach Belieben multiplizieren:
4 · j = 4j, (−1) · j = −1j = −j, 2 · 3j = 6j,
j · j = −1, 2j · 5j = −10, 3j · (−j) = 3.
Jedoch das Addieren ist noch problematisch: 1 + j ist in dieser Menge nicht
√erklärt. Man
muss 1 + j wiederum als eigenständige Zahl hinzunehmen (analog zu 1 + 2):
R ∪ {yj : y ∈ R} ∪ {1 + j}.
Wiederum ist klar, dass das nicht reicht, man braucht allgemeiner
R ∪ {yj : y ∈ R} ∪ {x + yj : x, y ∈ R}.
Nun stellt man aber fest, dass, sofern die gültigen Rechenregeln erhalten bleiben sollen,
einige Zahlen in dieser Schreibweise mehrfach aufgeführt sind. Zum Beispiel ist
3 + 0j = 3 + 0 = 3,
die Zahl 3 ist also sowohl in R als auch in {x + yj : x, y ∈ R} enthalten. Dasselbe gilt
offenbar für alle Zahlen in R. Analog ist auch
0 + 3j = 3j,
so dass entsprechend alle Zahlen aus {yj : y ∈ R} auch in {x + yj : x, y ∈ R} enthalten
sind. Der neue Zahlenbereich ist also eigentlich nur
{x + yj : x, y ∈ R}.
Wie wir im Folgenden sehen werden, kann man in dieser Menge alle gewohnten Re-
chenoperationen ausführen. Wir sind also am Ziel angekommen nennen diese Menge die
Menge der komplexen Zahlen und bezeichnen sie mit
C.
46
2.3 Grundrechenarten für komplexe Zahlen
Beispiel 2.1 Sei z = 3 − 5j, dann ist ℜz = 3 und ℑz = −5, aber nicht −5j. //
Addition und Subtraktion werden also für Real- und Imaginärteil getrennt ausgeführt.
Die Multiplikationsregel ist schwieriger zu merken, aber man muss sie sich gar nicht
merken, sie folgt ja von alleine durch Ausmultiplizieren, Beachten von j2 = −1 und
Umsortieren.
Die Division allerdings stellt uns vor ein Problem. Es ist nicht auf Anhieb klar, wie
zum Beispiel
1 + 2j
4 − 3j
zu berechnen ist. Man könnte meinen, der Zahlenbereich sei noch nicht ausreichend, und
man müsste noch „Brüche von komplexen Zahlen“ hinzunehmen. Das ist aber nicht der
Fall, denn es gelingt mit einem Trick, solche Brüche auf die Form x + yj zurückzuführen.
Der Trick besteht in der Anwendung der dritten binomischen Formel nach folgendem
Muster:
1 + 2j (1 + 2j) · (4 + 3j) −2 + 11j 2 11
= = = − + j.
4 − 3j (4 − 3j) · (4 + 3j) 25 25 25
Dieser Trick funktioniert immer, außer wenn der Nenner gleich 0+0j (also 0) ist. Division
durch null ist nach wie vor nicht erklärt. Die allgemeine Divisionsregel lautet
x1 + y1 j x1 x2 + y1 y2 −x1 y2 + x2 y1
= + j.
x2 + y2 j x22 + y22 x22 + y22
Aber auch hier gilt: Merken ist nicht nötig, man muss nur den Trick kennen, nämlich
mit der sogenannten Konjugiert-komplexen des Nenners zu erweitern. Die Konjugiert-
komplexe einer Zahl z = x + yj ist per Definition die Zahl x − yj. Man bezeichnet sie mit
z oder z ∗ .
47
2 Komplexe Zahlen
Zu Übung 2.2:
Komplexe Zahlen
Eine allgemeine komplexe Zahl hat die Form
z = x + jy,
Die Darstellung einer komplexen Zahl in der Form z = x+yj, die wir bisher ausschließlich
verwendet haben, nennt man die kartesische Form oder auch algebraische Form. Neben
ihr gibt es weitere Darstellungsarten, die jeweils für bestimmte Zwecke sehr nützlich sind
und die wir daher im Folgenden behandeln wollen.
48
2.4 Darstellungsarten komplexer Zahlen
2.4.3 Polarform
Die Lage eines komplexen Zeigers – und damit eine komplexe Zahl – kann auch angegeben
werden, indem man die Länge r des Zeigers sowie den Winkel ϕ, den dieser (im Gegen-
uhrzeigersinn) mit der positiven reellen Achse bildet, angibt. Anhand einer Zeichnung
macht man sich klar, dass die Zahl z dann den Wert
z = r cos ϕ + jr sin ϕ = r(cos ϕ + j sin ϕ) (2.1)
hat (siehe Abbildung 2.1). Man nennt diese Form daher trigonometrische Form.
Man nennt r dabei auch den Betrag von z (geschrieben r = |z|) analog wie den Betrag
einer reellen Zahl, und ϕ nennt man das Argument oder den Winkel oder die Phase von
z (geschrieben ϕ = arg z). Im Rahmen dieser Veranstaltung geben wir das Argument im
Bogenmaß an, aber prinzipiell können natürlich auch Altgrad verwendet werden.
Das Argument einer komplexen Zahl ist nicht eindeutig, denn jede weitere volle Umdre-
hung führt zum gleichen Bildpunkt. Es wird eindeutig, wenn man sich auf ein geeignetes
Intervall festlegt. In vielen Anwendungen ist dies entweder das Intervall [0, 2π) oder das
Intervall (−π, π].
Eine Vereinfachung in der Schreibweise ergibt sich durch Anwendung der sogenannten
Eulerschen Formel 1 :
ejϕ = cos ϕ + j sin ϕ,
1
Eine Begründung für diese Formel wird später im Semester im Zusammenhang mit Taylor-Reihen
gebracht. Einstweilen muss diese Formel einfach geglaubt werden beziehungsweise als abkürzende
Schreibweise verstanden werden. Es gelten jedoch in diesem Zusammenhang alle Potenzgesetze.
49
2 Komplexe Zahlen
ℑz
r sin ϕ
ϕ ℜz
r cos ϕ
die trigonometrische Form (2.1) vereinfacht sich damit zur sogenannten Exponentialform:
z = r · ejϕ .
Sie können jetzt aus
der Probeklausur Som-
mer 2016 die Aufga- Die trigonometrische Form und die Exponentialform sind somit eigentlich identisch, man
be 9 a bearbeiten. verwendet allgemein für beide auch den Begriff Polarform.
z = x + yj.
x = r cos ϕ, y = r sin ϕ.
z = x + yj,
50
2.5 Umrechnung zwischen den Darstellungsformen
51
2 Komplexe Zahlen
z = x + yj = rejϕ
Zu Übung 2.4:
2.6.1 Polardarstellung
Für die Addition und Subtraktion gibt es keine direkte Möglichkeit der Ausführung in der
Polardarstellung. Die Zahlen müssen zu diesem Zweck stets in die kartesische Darstellung
umgerechnet werden.
Wir betrachten jetzt die Multiplikation zweier Zahlen z1 = r1 ejϕ1 und z2 = r2 ejϕ2 .
Nach den Rechenregeln für Potenzen gilt
z1 · z2 = r1 ejϕ1 · r2 ejϕ2 = r1 r2 · ejϕ1 ejϕ2 = r1 r2 · ejϕ1 +jϕ2 = (r1 r2 )ej(ϕ1 +ϕ2 ) .
Für die Division gilt eine analoge Rechnung:
z1 r1 ejϕ1 r1 jϕ1 −jϕ2 r1 jϕ1 −jϕ2 r1
= jϕ
= ·e e = ·e = ej(ϕ1 −ϕ2 ) .
z2 r2 e 2 r2 r2 r2
52
2.7 Weitere Rechenarten
Ein Spezialfall der Division ist der Kehrwert einer Zahl z = rejϕ . Es ergibt sich hier
1 1 1
= jϕ = e−jϕ .
z re r
In allen Fällen muss man beachten, dass das Argument eventuell neu normalisiert werden
muss (durch Addition oder Subtraktion von 2π), sofern ein bestimmtes Intervall für das
Argument vorgegeben ist.
Für die Konjugiert-komplexe einer Zahl in Polarform erhält man
Somit gilt auch hier die Regel, dass man die konjugiert-komplexe Zahl erhält, indem man
überall j durch −j ersetzt.
z = x + yj = rejϕ
53
2 Komplexe Zahlen
und eine natürliche Zahl n wollen wir die Potenz z n berechnen. Die Potenz ist bekanntlich
durch wiederholte Multiplikation erklärt:
z n = z| · z ·{z· · · · z} .
n Faktoren
Prinzipiell kann diese Operation in der kartesischen und in der Polarform gleichermaßen
durchgeführt werden. Für große Werte n ist dies in der kartesischen Form jedoch ein
relativ großer Aufwand. In der Polarform ist die Rechnung viel einfacher, denn es ergibt
sich
z n = z · z · · · · · z = (rejϕ ) · (rejϕ ) · · · · · (rejϕ ) = (r · r · · · · · r) · (ejϕ ) · (ejϕ ) · · · · · (ejϕ )
= (r · r · · · · · r) · (ej(ϕ+ϕ+···+ϕ) ) = rn ejnϕ .
(−1 − j)17
//
√
Übung 2.6 Berechnen Sie ( 3 + j)5 mittels Rechnung über Polarform.
54
2.7 Weitere Rechenarten
Zu Übung 2.6:
· Winkel addieren, Beträge (r1 ejϕ1 ) · (r2 ejϕ2 ) = (r1 · r2 )ej(ϕ1 +ϕ2 )
multiplizieren.
r1 ejϕ1 r
1
: Winkel subtrahieren, Beträ- = ej(ϕ1 −ϕ2 )
r2 ejϕ2 r2
ge dividieren.
1 1
Kehrwert Negativer Winkel, Kehrwert = e−jϕ
rejϕ r
des Betrags.
55
2 Komplexe Zahlen
2.7.2 Wurzelziehen
Für eine positive reelle Zahl a gilt: Es gibt genau zwei reelle Zahlen x, deren Quadrat
√ √
gleich a ist; nämlich x = a und x = − √ a. Am Beispiel a = 4 haben
√ wir die zwei
Lösungen x = 2 und x = −2. Trotzdem ist 4 = 2 und nicht etwa 4 = −2; warum?
Antwort: Das ist willkürlich so festgelegt. Genauer, von den zwei möglichen reellen Zahlen
√
x, deren Quadrat gleich a, wird die größere von beiden als a bezeichnet. Die andere ist
√
dann gleich − a.
Beim (Quadrat-) Wurzelziehen aus komplexen Zahlen ist die Situation insofern gleich,
als dass es stets (außer für z = 0) zwei Lösungen gibt. Da die komplexen Zahlen jedoch
nicht angeordnet sind, gibt es nicht so etwas wie „die größere von beiden“. Man hat daher
keine einfache Möglichkeit mehr, eine der beiden Lösungen vor der anderen auszuzeich-
nen, vielmehr sind stets beide Lösungen als gleichwertig zu betrachten. Die Schreibweise
√
mit dem Wurzelzeichen, also „x = a“, sollte daher für komplexe Zahlen nicht verwen-
det werden, da nicht klar ist, welche der zwei Lösungen in diesem Falle x sein soll. Bei
allgemeinen n-ten Wurzeln wird die Sache noch schlimmer, denn hier gibt es jeweils n
verschiedene Lösungen, wie wir gleich sehen werden.
Wurzelziehen ist die umgekehrte Operation des Potenzierens. Daher liegt es nahe, die
Regeln, nach denen potenziert wird, ebenfalls umzukehren. Demnach zieht man die n-te
Wurzel aus einer komplexen Zahl in Polardarstellung, indem man die (reelle, positive)
n-te Wurzel aus dem Betrag zieht und das Argument durch n teilt. Hierbei ist jedoch
besonderes Augenmerk auf die Tatsache zu legen, dass das Argument nur bis auf Vielfache
von 2π eindeutig festgelegt ist. Addiert man ein Vielfaches von 2π zum Argument, bevor
man dieses durch n teilt, so erhält man im Allgemeinen ein anderes Ergebnis. Als mögliche
Lösungen für die n-te Wurzel aus a = rejϕ erhält man somit
√ √ k
n
r · ej(ϕ+k·2π)/n = n r · ejϕ/n · e2πj/n , k ∈ Z.
56
2.8 Verträglichkeit von Rechenoperationen mit dem Konjugieren
Komplexes Wurzelziehen
• Grundaufgabe: Finde z so, dass
z n = rejϕ .
√
• Es gibt n verschiedene Lösungen. (Schreibweise „ n
· · ·“ ist daher formal falsch.)
• Berechnungsformel:
√
zk = n r · ej(ϕ+2kπ)/n , k = 0, 1, . . . , n − 1.
57
2 Komplexe Zahlen
ℑz
1.5
1 b
b
0.5
ℜz
−1
b
−1.5
Abbildung 2.2: Alle dritten Wurzeln aus −2 + 2j liegen gleichmäßig verteilt auf einem
√
Kreis um den Nullpunkt mit Radius 2.
sowohl Beispiel für vertauschbare Operationen als auch Beispiele für nicht vertauschbare
Operationen. Vertauschbar sind beispielsweise Multiplikation und Wurzelziehen, denn es
gilt (für a, b ≥ 0):
√ √ √
a · b = a · b.
Hingegen sind Addition und Wurzelziehen nicht vertauschbar, denn im Allgemeinen ist:
√ √ √
a + b 6= a + b.
Im Zusammenhang mit komplexen Zahlen taucht die komplexe Konjugation als neue
Operation auf, und es ist nützlich zu wissen, mit welchen der bisherigen Rechenopera-
tionen diese vertauschbar ist. Wir untersuchen zunächst an einem Beispiel die Frage, ob
z1 · z2 = z1 · z2 ist:
z1 = 1 + j, z2 = −1 + 3j.
Dann ist
z1 · z2 = (1 + j) · (−1 + 3j) = −4 + 2j = −4 − 2j
sowie
58
2.8 Verträglichkeit von Rechenoperationen mit dem Konjugieren
−1 + 3j ℑz
3
−4 + 2j 2
1+j
ϕ
ϕ ℜz
−ϕ
−5 −4 −3 −2 −ϕ 2
1+j
−2
−4 + 2j
−3
−1 + 3j
Abbildung 2.3: Verträglichkeit der Multiplikation mit der komplexen Konjugation mit
den Zahlenwerten aus Beispiel 2.8.
Man kann beweisen, dass dies allgemein gilt und dass auch alle anderen behandelten
Rechenoperationen mit der komplexen Konjugation vertauschbar sind. Es gilt also:
z1 + z2 = z1 + z2 , z1 · z2 = z1 · z2 , zn = zn,
z1 z1 √
n
√n
z1 − z2 = z1 − z2 , = , z = z.
z2 z2
Für die Addition, Subtraktion, Multiplikation und Division kann man sich das zum Bei-
spiel an der grafischen Darstellung klarmachen (siehe Abbildung 2.3 für den Fall aus
Beispiel 2.8). Für das Potenzieren folgt es, weil dies nur eine mehrfache Multiplikation
ist, und für Wurzeln, weil sie die Umkehrung des Potenzierens sind.
z1 = −2 + 11j, z2 = 2 − j
die Regel
z1 z1
= .
z2 z2
59
2 Komplexe Zahlen
Zu Übung 2.9:
Satz 2.10 (Fundamentalsatz der Algebra) Über C ist jedes Polynom in Linearfaktoren
zerlegbar.
60
2.9 Nullstellen von Polynomen
1 0 1
j j −1
1 j 0
Es verbleibt das Polynom (z + j), selbst ein Linearfaktor, also haben wir gefunden:
//
az 2 + bz + c = 0,
also die Frage nach Nullstellen eines Polynoms vom Grad 2. Wir kennen aus dem Reellen
die „Mitternachtsformel“
√
−b ± b2 − 4ac
z1,2 = .
2a
Im Komplexen können jetzt folgende Fälle auftreten:
• a, b, c sind reell und b2 − 4ac > 0: Dies ist der bekannte Fall, in dem die Gleichung
zwei reelle Lösungen hat.
• a, b, c sind reell und b2 − 4ac = 0: Dies ist der bekannte Fall, in dem die Gleichung
nur eine reelle Lösung hat.
• a, b, c sind komplex, dann ist b2 −4ac in der Regel ebenfalls komplex. In diesem Fall
gibt es auch stets zwei Lösungen (außer wenn b2 −4ac = 0 ist). Man erhält sie durch
komplexes Wurzelziehen wie in Abschnitt 2.7.2 erläutert. Dabei ist es egal, welche
der zwei möglichen Wurzeln man wählt, weil man durch das „±“-Zeichen am Ende
ja ohnehin zwei Lösungen der quadratischen Gleichung erhält (siehe Beispiel 2.13).
Beispiel 2.12 Wir suchen die Lösungen der reellen quadratischen Gleichung
z 2 − 4z + 13 = 0.
61
2 Komplexe Zahlen
√ √
Der Ausdruck „ −36“ ist nicht erklärt, wir müssen ihn ersetzen durch j 36. Es ergibt
sich also
√
4 ± j 36 4 ± 6j
z1,2 = = = 2 ± 3j.
2 2
Die beiden Lösungen lauten also
z1 = 2 + 3j, z2 = 2 − 3j.
solve(z^2-4*z+13=0,z);
//
Beispiel 2.13 Wir suchen die Lösungen der komplexen quadratischen Gleichung
z1 = 5 − j, z2 = 1 + 3j.
(z − 5 + j)(z − 1 − 3j).
Sie können jetzt aus
der Probeklausur Som-
mer 2019 die Aufga- Als Probe kann man diese Darstellung ausmultiplizieren, es muss sich dann das ursprüng-
be 10 e bearbeiten. liche Polynom ergeben. //
62
2.9 Nullstellen von Polynomen
hat die Nullstelle z1 = 1 + j. Spalten Sie diese mit dem Horner-Schema ab.
Zu Übung 2.14:
f (z) = a0 + a1 z + a2 z 2 + a3 z 3 + . . . an z n ,
63
2 Komplexe Zahlen
Konjugieren mit allen Rechenoperationen verträglich ist und dass außerdem ak = ak ist,
weil die Koeffizienten ja reell sind:
f (z1 ) = a0 + a1 · z1 + a2 · z1 2 + a3 · z1 3 + · · · + an · z1 n
= a0 + a1 · z1 + a2 · z12 + a3 · z13 + · · · + an · z1n
= a0 + a1 · z1 + a2 · z12 + a3 · z13 + · · · + an · z1n
= a0 + a1 · z1 + a2 · z12 + a3 · z13 + · · · + an · z1n
= f (z1 ) = 0 = 0.
Es gilt also:
Satz 2.15 Ist z1 ∈ C eine komplexe Nullstelle eines Polynoms f mit reellen Koeffizienten,
so ist automatisch auch die konjugiert-komplexe Zahl z 1 Nullstelle von f .
Hat man ein reelles Polynom mit einer komplexen Nullstelle, so kennt man also auto-
matisch eine zweite Nullstelle. Auf der Suche nach weiteren Nullstellen kann man wie
gewohnt die Linearfaktoren zu den beiden bekannten Nullstellen abspalten. Die Vorge-
hensweise mit zweimal Horner-Schema erfordert allerdings relativ viel Arithmetik mit
komplexen Zahlen, die sich durch einen Trick vermeiden lässt. Der Trick besteht da-
rin, zuerst die beiden Linearfaktoren zusammenzufassen und anschließend ihr Produkt
mittels Polynomdivision vom gegebenen Polynom abzuspalten.
sei die komplexe Nullstelle z1 = 1 + 3j bekannt. Wie erläutert ist dann auch z2 = z1 =
1 − 3j eine Nullstelle. Die übrigen Nullstellen sollen berechnet werden.
Rechenweg 1: Wir spalten nacheinander die beiden Nullstellen mit dem Horner-Schema
ab:
1 −6 17 −38 −10
1 + 3j 1 + 3j −14 − 12j 39 − 3j 10
1 −5 + 3j 3 − 12j 1 − 3j 0
1 − 3j 1 − 3j −4 + 12j −1 + 3j
1 −4 −1 0
und alsdann wird das Produktpolynom mittels Polynomdivision vom ursprünglichen Po-
lynom abgespalten:
64
2.9 Nullstellen von Polynomen
und mit der Mitternachtsformel ergeben sich die beiden fehlenden Nullstellen gemäß
p √
4± 42 − 4 · 1 · (−1) 4 ± 20 √
z3,4 = = = 2 ± 5.
2 2
Sie können jetzt aus
der Probeklausur 2021
Der Vorteil der zweiten Rechenmethode besteht darin, dass das (vergleichsweise aufwän- die Aufgabe 2 bearbei-
dige) Rechnen mit komplexen Zahlen auf ein Minimum reduziert wird. // ten.
Satz 2.15 besagt insbesondere, dass nicht-reelle Nullstellen reeller Polynome stets in
Paaren auftreten. Falls der Polynomgrad n ungerade ist, muss am Ende zwangsläufig
(mindestens) eine reelle Nullstelle übrig bleiben:
Satz 2.17 Ein reelles Polynom von ungeradem Grad hat mindestens eine reelle Nullstelle.
65
2 Komplexe Zahlen
• Mitternachtsformel hat immer eine oder zwei Lösungen, ggfs. mit komplexer
Wurzel rechnen.
2.10 Anwendungen
2.10.1 Darstellung harmonischer Schwingungen im Zeigerdiagramm
Wir betrachten nochmals eine sich mit der Zeit t sinusförmig verändernde Größe (Schwin-
gung)
ω: Kreisfrequenz (ω > 0), sie steht mit der Frequenz f im Zusammenhang ω = 2πf ;
ϕ: Phase.
Eine solche harmonische Schwingung lässt sich in einem sogenannten Zeigerdiagramm
durch einen mit der Winkelgeschwindigkeit ω im Gegenuhrzeigersinn um den Nullpunkt
rotierenden Zeiger der Länge A, der zum Zeitpunkt t = 0 mit der positiven x-Achse
den Winkel ϕ bildet, anschaulich darstellen. Der Richtungswinkel des Zeigers zur Zeit t
beträgt dabei ωt+ϕ. Somit lautet die y-Koordinate der Zeigerspitze zu diesem Zeitpunkt
A · sin(ωt + ϕ),
und das ist gerade der Funktionswert, siehe auch Abbildung 2.4.
Wir deuten nun die Ebene als die Gaußsche Zahlenebene und beschreiben die augen-
blickliche Lage des Zeigers durch die zeitabhängige komplexe Zahl
y(t) = A · cos(ωt + ϕ) + j sin(ωt + ϕ) = A · ej(ωt+ϕ) = |A {z
· ejϕ} · ejωt = A · ejωt ,
A
wobei hier, wie häufig in technischen Anwendungen, komplexe Werte der Übersicht halber
unterstrichen sind.
66
2.10 Anwendungen
Der Term A = A · ejϕ ist zeitunabhängig, wir nennen ihn komplexe Amplitude. Der
zeitabhängige Faktor ejωt hingegen hängt nicht von der Amplitude oder der Phase ab,
nur von der Kreisfrequenz. Die komplexe Amplitude besitzt den Betrag |A| = A und das
Argument ϕ, legt also genau die Anfangsposition des Zeigers fest.
Zu Übung 2.18:
67
2 Komplexe Zahlen
Wir stellen diese als komplexe Zeiger dar, wie in Abschnitt 2.10.1 beschrieben:
Im Allgemeinen lässt sich dies nicht weiter vereinfachen. Falls allerdings beide Schwin-
gungen dieselbe Frequenz haben (sogenannte gleichfrequente Schwingungen), also ω1 =
ω2 = ω so ist der zeitabhängige Term derselbe und kann ausgeklammert werden:
mit
A = A1 + A2 .
Die komplexe Amplitude der Gesamtschwingung ergibt sich also einfach durch Addition
der beiden gegebenen komplexen Amplituden. Die reelle Gesamtschwingung entspricht
jetzt wieder dem Imaginärteil:
Es ergibt sich also wiederum eine harmonische Schwingung mit derselben Frequenz. Dies
ist somit die Auflösung zu Einschätzungsfrage 1.41.
Die Berechnung ist dabei denkbar einfach: Es werden die komplexen Amplituden der
Einzelschwingungen y1 und y2 , also ihre Anfangsposition, im Zeigerdiagramm dargestellt
und dann addiert. Dies kann ggfs. sogar zeichnerisch erfolgen. Der zeitabhängige Anteil
ejωt wird dabei überhaupt nicht benötigt.
A1 = 1 · e0j = 1,
√ √
√ πj/3 √ 1 1√ 3+1 3+ 3
A2 = 3+1 ·e = 3+1 · +j 3 = + j.
2 2 2 2
Die komplexe Gesamtamplitude ist somit
√ √
3+3 3+ 3
A = A1 + A2 = + j.
2 2
68
2.10 Anwendungen
ℑz
2
A
+
1
A
2
A
1
A1 ℜz
1 2
• Oder man belässt es bei Kosinusschwingungen, dann muss man allerdings bei der
Rücktransformation statt des Imaginärteils den Realteil bilden.
69
2 Komplexe Zahlen
Berechnung:
A1 = A1 eϕ1 j , A2 = A2 eϕ2 j .
2. Überlagerung:
A = A1 + A2 .
A = Aeϕj .
4. Ergebnis:
y(t) = A · sin(ωt + ϕ)
70
3 Lineare Gleichungssysteme und lineare
Algebra
3.1 Einleitung
Das Lösen linearer Gleichungssysteme ist eine der Hauptaufgaben der Mathematik in
technischen Anwendungen. Folgende Fragestellungen führen beispielsweise auf lineare
Gleichungssysteme:
R2 R5
R3
R1 R4
Darüber hinaus führen viele numerische Verfahren zum Lösen von Differenzialgleichun-
gen auf (in der Regel sehr große) lineare Gleichungssysteme. Numerische Verfahren sind
erforderlich, wenn die Differenzialgleichungen zu kompliziert sind, um eine analytische
Lösung zuzulassen (zum Beispiel im Falle einer komplizierten Geometrie). Beispiele für
Fragestellungen, die auf Differenzialgleichungen führen, sind:
Beispiel 3.1 Ein Bauteil mit einem Gelenk ist an vier Stellen mit sogenannten Loslagern
gelagert (siehe Abbildung 3.1). Am Gelenk wirkt eine Kraft F1 = 10 N. Es soll berechnet
werden, welche Lagerkräfte an den einzelnen Lagern auftreten.
71
3 Lineare Gleichungssysteme und lineare Algebra
B
F1
Abbildung 3.1: Ein Bauteil mit einem Gelenk, das mit vier Loslagern gelagert wird.
Eine Möglichkeit hierfür besteht daran, mit Hilfe der unbekannten Kräfte für jedes
Lager sowie beide Seiten des Gelenks die Bilanzgleichung des Drehmoments zu bilden.
Die unbekannten Kräfte, jeweils in Druck-Richtung orientiert, mögen mit FA , FB , FC
und FD bezeichnet werden, dann ergeben sich folgende Gleichungen:
Dies ist ein lineares Gleichungssystem mit sechs Gleichungen und vier Unbekannten. //
Ein lineares Gleichungssystem besteht aus einer Anzahl Gleichungen mit einer Anzahl
Unbekannten, wobei in jeder Gleichung die Unbekannten nur linear vorkommen, das
heißt die Gleichungen haben die Form
In vielen Anwendungen stimmt die Anzahl der Gleichungen mit der Anzahl der Un-
bekannten überein (sogenanntes quadratisches lineares Gleichungssystem), aber das ist
keineswegs erforderlich.
72
3.2 Lineare Gleichungssysteme zum Ersten
Die allgemeine Form eines linearen Gleichungssystems lautet somit wie folgt:
Die aij heißen Koeffizienten, die xi Unbekannte, die bi Störterme oder rechte Seite. Übli-
cherweise sind die Koeffizienten und die Störterme reelle oder komplexe Zahlen, und man
sucht Lösungen ebenfalls in der Menge der reellen beziehungsweise komplexen Zahlen.
Für weite Teile dieses Kapitels beschränken wir uns auf den Fall reeller Zahlen. Linea-
re Gleichungssysteme mit komplexen Zahlen werden jedoch auf genau dieselbe Weise
behandelt, es sind halt dabei stets die Rechenregeln für komplexe Zahlen anzuwenden.
Sind alle Störterme null, so spricht man von einem homogenen linearen Gleichungssys-
tem, andernfalls von einem inhomogenen.
Beispiel 3.3 Wir lösen das lineare Gleichungssystem aus Beispiel 3.1 mit folgenden Um-
formungen:
73
3 Lineare Gleichungssysteme und lineare Algebra
FC = −4
FA + 3FC = −10 |II − 3I
FC = −4 |III − I
FC = −4 |IV − I
FB − 6FC = 20 |V + 6I
2FC + FD = 0 |VI − 2I
FC = −4
FA =2
0 =0
0 =0
FB = −4
FD = 8
linsolve([2*FB-3*FC-3*FD=-20,\
FA-FC-2*FD=-10,\
4*FA-FB+FD=20,\
74
3.3 Vektoren
3*FA+3*FB-4*FC=10,\
2*FA+FB=0,\
-2*FC-FD=0],\
[FA,FB,FC,FD]);
Wir stellen fest:
• Wir erhalten genau eine Lösung: FA = 2, FB = −4, FC = −4, FD = 8.
• Während des Lösungsvorgangs ist das Mitschreiben der Variablennamen und der
Gleichheitszeichen völlig unbedeutend, man könnte es genauso gut weglassen.
Außerdem würden wir beim Angeben der Lösung gerne alle Komponenten zusammen-
fassen und sagen, die Lösung sei
2
−4
F~ =
−4 .
3.3 Vektoren
3.3.1 Begriff
Aus der Vektorrechnung in der Ebene und im Raum ist die Darstellung von Vektoren
als Zusammenfassung („Tupel“) von zwei beziehungsweise drei Zahlen, die typischerweise
als Spaltenvektoren geschrieben werden, bekannt. Wie gerade gesehen, kommen in vielen
Anwendungen auch mehr als drei Zahlen vor, die in irgendeiner Weise als eine „Einheit“
angesehen werden sollen. Es ist daher sinnvoll, den Begriff entsprechend zu erweitern:
Definition 3.4 Ein n-dimensionaler Vektor ist eine Zusammenfassung aus n reellen Zah-
len. Sie werden in der Regel als Spaltenvektor untereinander geschrieben und mit Klam-
mern gruppiert:
a1
a2
~a = . .
..
an
Alternativ ist die Darstellung als Zeilenvektor möglich:
~a = (a1 , a2 , . . . , an ).
Die einzelnen Zahlen werden Komponenten des Vektors genannt. Die Menge aller n-
dimensionalen Vektoren wird als Rn (oder Cn , wenn komplexe Zahlen zugelassen sind)
bezeichnet.
75
3 Lineare Gleichungssysteme und lineare Algebra
Anmerkungen:
• Die Reihenfolge der Komponenten ist entscheidend: Die Vektoren
0 2
und
2 0
sind verschieden.
• Für n = 2 und n = 3 können wie gewohnt die Ebene und der Raum als Anschauung
dienen, für n ≥ 4 gibt es keine analoge Anschauung.
• Ein Vektor kann mit einer Zahl multipliziert werden (skalare Multiplikation), dies
geschieht ebenfalls komponentenweise:
1 −2.5
3 −7.5
(−2.5) ·
−2 = 5 .
7 −17.5
• Aus zwei Vektoren gleicher Dimension kann man das Skalarprodukt bilden, indem
man die einander entsprechenden Komponenten miteinander multipliziert und dies
über alle Komponenten aufsummiert:
1 2
3 1
· = 1 · 2 + 3 · 1 − 2 · 6 + 7 · (−1) = 2 + 3 − 12 − 7 = −14.
−2 6
7 −1
76
3.3 Vektoren
• Der Betrag eines Vektors wird gebildet, indem die Komponenten quadriert und die
Quadrate addiert werden und aus dem Ergebnis die Wurzel gezogen wird:
1
3 p √ √
= 12 + 32 + (−2)2 + 72 = 1 + 9 + 4 + 49 = 63.
−2
7
Ein weiterer Zusammenhang bezieht den Winkel α zwischen zwei Vektoren ~a und
~b ein:
Diese Regel lässt sich in praktischen Anwendungen zur Berechnung des Winkels
verwenden. Außerdem hat sie die Konsequenz, dass
Übung 3.5 Für die Vektoren ~a = (−1, 2, −2) und ~b = (1, 4, −1) berechnen Sie bitte
77
3 Lineare Gleichungssysteme und lineare Algebra
78
3.4 Lineare Gleichungssysteme zum Zweiten
• ~a × ~b ist stets senkrecht zu ~a und ~b (also (~a × ~b) · ~a = 0 und (~a × ~b) · ~b = 0),
und die Vektoren ~a, ~b und ~a × ~b bilden (in dieser Reihenfolge) ein rechtshändiges
Koordinatensystem.
~a × ~b = −~b × ~a.
obwohl hier natürlich, wie immer, für bestimmte Vektoren „zufällig“ Gleichheit
gelten kann.
Physikalische und technische Anwendungen des Vektorprodukts sind zum Beispiel das
Drehmoment, der Drehimpuls und die Lorentzkraft.
x1 + 2x2 + 2x3 = 5,
−x1 − 3x2 + x3 = 1,
2x1 + 5x2 + x3 = 2.
Wir beginnen umzuformen, wobei wir jetzt die überflüssigen Symbole nicht mitschreiben:
1 2 2 5
−1 −3 1 1 |II + I
2 5 1 2 |III − 2I
1 2 2 5 |I − 2III
0 −1 3 6 |II + III
0 1 −3 −8
1 0 8 21
0 0 0 −2
0 1 −3 −8
An dieser Stelle kommen wir nicht weiter. Die (umgeformte) zweite Gleichung besagt
offenbar „0 = −2“, und das ist nicht lösbar. Wir stellen also fest:
• Es kann vorkommen, dass ein lineares Gleichungssystem nicht lösbar ist. Man er-
kennt das daran, dass in einer Zeile auf der linken Seite nur noch Nullen stehen,
die rechte Seite aber 6= 0 ist.
79
3 Lineare Gleichungssysteme und lineare Algebra
linsolve([x1+2*x2+2*x3=5,-x1-3*x2+x3=1,2*x1+5*x2+x3=2],[x1,x2,x3]);
//
Beispiel 3.7 Wir betrachten folgendes lineare Gleichungssystem, das wir gleich zu lösen
versuchen:
1 2 −1 0 −3
2 5 3 1 2 |II − 2I
3 7 2 1 −1 |III − 3I
4 9 1 1 −4 |IV − 4I
1 2 −1 0 −3 |I − 2II
0 1 5 1 8
0 1 5 1 8 |III − II
0 1 5 1 8 |IV − II
1 0 −11 −2 −19
0 1 5 1 8
0 0 0 0 0
0 0 0 0 0
Die beiden letzten Gleichungen kann man komplett weglassen. In den übrigen Gleichun-
gen ist es nicht mehr möglich, weitere Nullen zu erzeugen, ohne bereits vorhandene Nullen
wieder zu zerstören. Man kann diese Gleichungen aber nach x1 und x2 auflösen, so dass
diese Komponenten jeweils in Abhängigkeit von x3 und x4 dargestellt werden können:
Man hat also unendlich viele Lösungen, denn man kann x3 und x4 frei wählen und dann
jeweils x1 und x2 daraus bestimmen. Um das in der Notation deutlicher kenntlich zu
machen, ist es oftmals üblich, für die frei zu wählenden Komponenten griechische Buch-
staben, zum Beispiel λ und µ, einzusetzen. Die allgemeine Lösung unseres Gleichungs-
systems lautet somit
−19 + 11λ + 2µ −19 11 2
8 − 5λ − µ 8 −5 −1
~x = =
0 + λ 1 + µ 0 .
(3.1)
λ
µ 0 0 1
linsolve([x1+2*x2-x3=-3,2*x1-x2+3*x3+x4=6,3*x1+x2+2*x3+x4=3,\
4*x1+3*x2+x3+x4=0],[x1,x2,x3,x4]);
80
3.4 Lineare Gleichungssysteme zum Zweiten
Beispiele für Lösungen erhält man, indem man für λ und µ beliebige Werte einsetzt, zum
Beispiel
−4 13
1 −7
λ = 1, µ = 2, ~x =
1
oder λ = 2, µ = 5, ~x =
2 .
2 5
Wir betrachten jetzt nochmals dasselbe lineare Gleichungssystem, fangen beim Erzeu-
gen von Nullen aber an einer anderen Stelle an:
1 2 −1 0 −3
2 5 3 1 2
3 7 2 1 −1 |III − II
4 9 1 1 −4 |IV − II
1 2 −1 0 −3
2 5 3 1 2 |II + 3I
1 2 −1 0 −3 |III − I
2 4 −2 0 −6 |IV − 2I
1 2 −1 0 −3 | · (−1)
5 11 0 1 −7
0 0 0 0 0
0 0 0 0 0
−1 −2 1 0 3
5 11 0 1 −7
Übung 3.8 Stellen Sie diese Darstellung auf, und machen Sie sich durch Einsetzen ge-
eigneter Werte für die frei wählbaren Komponenten klar, dass Sie dieselben Beispiele für
Lösungen wie oben erhalten können.
81
3 Lineare Gleichungssysteme und lineare Algebra
Zu Übung 3.8:
82
3.4 Lineare Gleichungssysteme zum Zweiten
3. Vertauschung von zwei Zeilen (in den Beispielen nicht benutzt, manchmal aus kos-
metischen Gründen nützlich).
Diese Umformungen werden auch unter dem Begriff elementare Zeilenumformungen zu-
sammengefasst. Es handelt sich dabei um Äquivalenzumformungen, was bedeuten soll,
dass durch diese Umformungen die Lösungsmenge nicht verändert wird; dass also keine
Lösungen verschwinden oder hinzukommen.
Die Durchführung des Gauß-Jordan-Verfahrens lässt sich wie folgt beschreiben:
1. Forme so lange um, bis in einer Spalte nur noch eine Zahl 6= 0 ist.
2. Teile die entsprechende Zeile durch diese Zahl, so dass die Zahl zu 1 wird.
3. Fahre fort, indem in einer anderen Spalte alle Zahlen außer einer zu null gemacht
werden. Dabei dürfen jedoch die zuvor erzeugten Nullen nicht zerstört werden, und
die übrig bleibende Zahl muss in einer anderen Zeile stehen als vorher.
4. Teile wiederum durch die übrig gebliebene Zahl, so dass sie zu 1 wird.
1. Eine Zeile hat auf der linken Seite plötzlich nur noch Nullen, die rechte Seite ist
aber 6= 0. Dann ist das Gleichungssystem unlösbar, und man braucht nicht weiter-
zurechnen.
2. Eine Zeile hat plötzlich nur noch Nullen, einschließlich der rechten Seite. Dann kann
man diese Gleichung streichen und mit dem übrigen System weiterrechnen.
1. Alle Spalten wurden auf die beschriebene Form gebracht (und die Einsen stehen
auch alle in verschiedenen Zeilen). Dann existiert eine eindeutige Lösung, und sie
kann direkt abgelesen werden.
2. Eine oder mehrere Spalten sind übrig geblieben. Dann gibt es unendlich viele Lö-
sungen. Die Komponenten, die den übrig gebliebenen Spalten entsprechen, können
frei gewählt werden (zum Beispiel griechische Buchstaben λ, µ, . . . ), die Gleichun-
gen können dann nach den anderen Komponenten aufgelöst werden.3
3
Haben zwei oder mehr Spalten, die für sich genommen in Einheitsform sind, die Einsen in derselben
Zeile, so kann im Sinne dieser Rechenmethode nur eine dieser Spalten als „in Einheitsform“ gezählt
werden, während die den anderen dieser Spalten entsprechenden Komponenten wiederum frei gewählt
werden können.
83
3 Lineare Gleichungssysteme und lineare Algebra
Gauß-Jordan-Verfahren
1. So weit wie möglich Nullen erzeugen.
3. Ist eine Zeile links komplett null, rechts aber nicht, so ist das System unlösbar.
Hiermit ist die Einschätzungsfrage 3.2 auch geklärt: Die Möglichkeit, dass es genau
zwei Lösungen gibt, besteht nicht.
Anmerkung: Eine Methode, etwaige Rechenfehler beim Durchführen des Verfahrens
frühzeitig zu erkennen, besteht darin, dem Gleichungssystem neben der rechten Seite
noch eine zusätzliche Spalte, die sogenannte Prüfspalte hinzuzufügen. Die Einträge dieser
Spalte sind jeweils die Summe aller Zahlen der entsprechenden Zeile, einschließlich rechter
Seite. Beim Umformen wird diese Spalte genau wie alle anderen mitgeführt. Nach jedem
Umformungsschritt überprüft man dann, ob die Einträge in der Prüfspalte noch mit den
Zeilensummen übereinstimmt. Wenn nicht, liegt ein Rechenfehler vor.
Übung 3.10 Bei einem linearen Gleichungssystem ergibt sich nach einigen Umformungen
die folgende Form:
3 0 1 −3 0 4
0 1 0 0 0 2
Sie können jetzt aus 1 0 0 2 1 −1
der Probeklausur Som-
mer 2016 die Aufga- Weitere Nullen lassen sich nicht erzeugen. Entscheiden Sie, welche Lösungskomponenten
be 3 bearbeiten. frei gewählt werden müssen, und geben Sie die allgemeine Lösung in Vektorform an.
84
3.5 Motivation für die Werkzeuge der linearen Algebra
Zu Übung 3.10:
später zeigen wird, können diese Dinge dann auch in anderen Teilgebieten der Mathema-
tik sehr nützlich angewandt werden, so etwa bei der Differenzialrechnung von Funktio-
nen mehrerer Argumente oder im Zusammenhang mit Differenzialgleichungen. In diesem
Abschnitt sollen einige der Fragestellungen kurz dargestellt werden, um die folgenden
Abschnitte zu motivieren.
Von großer praktischer Bedeutung sind lineare Gleichungssysteme, die eine eindeutige
Lösung haben. Es stellen sich daher folgende Fragen:
Wir wollen dies hier an dem Fall eines 2 × 2-Systems untersuchen. Das allgemeine
2 × 2-System hat offenbar folgende Form:
ax1 + bx2 = e,
cx1 + dx2 = f.
85
3 Lineare Gleichungssysteme und lineare Algebra
Wir lassen wiederum die überflüssigen Symbole weg und formen um:
a b e
c d f |aII − cI
a b e
1
0 ad − bc af − ce |· ad−bc
a b e |I − bII
af −ce
0 1 ad−bc
abf −bce
a 0 e − ad−bc |zusammenfassen
af −ce
0 1 ad−bc
ade−abf 1
a 0 ad−bc |· a
af −ce
0 1 ad−bc
de−bf
1 0 ad−bc
af −ce
0 1 ad−bc
Wir haben zweimal dividiert und müssen jeweils für den Fall, dass der Nenner null wird,
eine Spezialbetrachtung durchführen. Für a = 0 kann man zeigen, dass dies auf anderem
Weg zum selben Ergebnis führt, wir sparen uns das. Für ad − bc = 0 sieht man, dass
schon nach dem ersten Schritt auf der linken Seite eine Zeile wegfällt. Wir erhalten:
• Ist ad − bc = 0, so gibt es entweder unendlich viele Lösungen oder keine;
Es fragt sich somit, ob es vergleichbare Formeln auch für größere Systeme gibt und, wenn
ja, ob sie einer Systematik folgen.
Es wird sich herausstellen, dass sich diese Frage mit Hilfe von Determinanten beant-
worten lässt, siehe Abschnitt 3.9.
86
3.5 Motivation für die Werkzeuge der linearen Algebra
Ein solches Gleichungssystem zu lösen, erfordert selbst für einen Computer sehr viel
Zeit. Nun möchte man aber nicht nur ein solches Problem lösen, sondern sehr viele,
weil man verschiedene Konfigurationen der Sonneneinstrahlungen und Einstellungen der
Klimaanlage überprüfen möchte. Zu jeder Konfiguration ergibt sich ein anderes lineares
Gleichungssystem, allerdings unterscheiden sich diese Systeme alle nur in ihrer rechten
Seite. //
Dieses Beispiel führt zu folgender Frage: Gibt es eine Möglichkeit, mehrere lineare Glei-
chungssysteme, die sich nur in den rechten Seiten unterscheiden, effizienter zu lösen?
Kann man vielleicht eine (eventuell aufwändigere) Vorberechnung durchführen, die es im
Ergebnis ermöglicht, für jede beliebige rechte Seite in kurzer Zeit die Lösung zu bestim-
men?
In der Tat ist eine solche Vorberechnung möglich, nämlich die sogenannte inverse
Matrix, siehe Abschnitt 3.8.
87
3 Lineare Gleichungssysteme und lineare Algebra
3.6 Matrizen
3.6.1 Einleitung
Für theoretische Untersuchungen ist es zweckmäßig, zunächst die Notation von linearen
Gleichungssystemen so weit wie möglich zu vereinfachen. Dabei ist es sicherlich sinnvoll,
die drei wesentlichen Bestandteile eines linearen Gleichungssystems, nämlich
• die Unbekannten,
• die Koeffizienten,
Definition 3.12 Eine Matrix ist ein rechteckiges Zahlenschema der Form
a11 a12 · · · a1n
a21 a22 · · · a2n
A= . .. .. .. ,
.. . . .
am1 am2 · · · amn
wobei aij ∈ R (oder C) für alle i, j. Ist wie in diesem Fall n die Anzahl der Spalten und
m die Anzahl der Zeilen, so spricht man von einer m × n-Matrix oder einer Matrix vom
Typ m × n. Die aij heißen Einträge (oder Komponenten oder Elemente) der Matrix.
Eine Matrix heißt quadratisch, falls die Anzahl der Zeilen gleich der Anzahl der Spalten
ist.
Eine m × 1-Matrix, also eine Matrix mit nur einer Spalte, hat die Form
a11
a21
..
.
am1
88
3.6 Matrizen
und ist dasselbe wie ein Spaltenvektor aus dem Rm . Analog ist eine 1 × n-Matrix, also
eine Matrix mit nur einer Zeile,
89
3 Lineare Gleichungssysteme und lineare Algebra
Matrixmultiplikation
C =A·B
b11 b12 b13 b14 b15
4
c1
=
b21 b22 b23 b24 b25
+ b14
·
1
a1
+ b24
b31 b32 b33 b34 b35
2 ·
a1
+ b34
3 ·
b41 b42 b43 b44 b45
a1
44
·b
4
a1
a11 a12 a13 a14 c11 c12 c13 c14 c15
a21 a22 a23 a24 c21 c22 c23 c24 c25
a31 a32 a33 a34 c31 c32 c33 c34 c35
Eine Matrix kann mit einer Zahl multipliziert werden; das erfolgt ebenfalls komponen-
tenweise, zum Beispiel:
1 3 −1 −3 −9 3
(−3) · = .
2 1 6 −6 −3 −18
Darüber hinaus ist für Matrizen eine Multiplikation erklärt, die jedoch anders funk-
tioniert, als man zunächst denken könnte. Damit zwei Matrizen überhaupt miteinander
multipliziert werden können, müssen sie in einem gewissen Sinne zueinander passen.
Während jedoch zum Beispiel für die Addition das Zueinander-Passen darin besteht,
dass beide Matrizen vom gleichen Typ sind, ist die Situation bei der Multiplikation et-
was komplizierter: Man kann das Produkt A · B bilden, wenn die Anzahl der Spalten von
A gleich der Anzahl der Zeilen von B ist. Das heißt also dass A eine m × n-Matrix und
B eine n × p-Matrix ist. Das Produkt A · B ist dann eine m × p-Matrix. Der Eintrag
(A · B)ik bestimmt sich durch die Summe
90
3.6 Matrizen
Beispiel 3.13
2 3 1 0
1 3 −1 −6 −5 4 15
· −1 −2 0 3 = .
2 1 6 33 16 −16 −33
5 2 −3 −6
In diesem Fall ergibt sich zum Beispiel die 15 oben rechts durch Multiplikation der oberen
Zeile der ersten Matrix mit der rechten Spalte der zweiten Matrix:
Diese Multiplikation ist offenbar auch nur deswegen in dieser Form durchführbar, weil
man jeweils drei Elemente hat – weil also die Anzahl der Spalten der ersten Matrix gleich
der Anzahl der Zeilen der zweiten ist. //
Zu Übung 3.14:
Der wesentliche Sinn dieser eigenartigen Definition liegt darin, dass man lineare Glei-
chungssysteme elegant in Matrixschreibweise schreiben kann. Dies ist der Schlüssel zu
den weiteren Untersuchungen, die für die eingangs formulierten Fragen erforderlich sind.
91
3 Lineare Gleichungssysteme und lineare Algebra
x1 + x2 = 4,
2x1 − x2 = −1
A · ~x = ~b
mit
1 1 x1 ~b = 4
A= , ~x = , .
2 −1 x2 −1
//
A · ~x = ~b
schreiben.
Für das Rechnen mit Matrizen gelten alle Rechenregeln, die man sich vorstellen kann
(Assoziativ- und Distributivgesetze. . . ), mit folgenden zwei Ausnahmen:
A · B 6= B · A.
In der Tat, wenn A · B erklärt ist, kann es ja sogar sein, dass B · A noch lange nicht
erklärt ist. Selbst wenn beide Produkte erklärt sind, müssen sie nicht gleich sein.
Darüber hinaus erfüllt die Einheitsmatrix En die Funktion der Zahl 1: Es gilt
A · En = A und En · A = A,
92
3.7 Lineare Gleichungssysteme zum Dritten
Beispiel 3.17
T 1 2
1 3 −1
= 3 1 .
2 1 6
−1 6
//
AT = A.
ist symmetrisch. //
Durch Transponieren kann ein Zeilenvektor in einen Spaltenvektor verwandelt werden,
und umgekehrt. Dies lässt sich bisweilen ausnutzen, um beim Schreiben von Spaltenvek-
toren Platz zu sparen.
Für das Rechnen mit transponieren Matrizen gelten insbesondere folgende Rechenre-
geln:
(λ · A)T = λ · AT ,
(A + B)T = AT + B T ,
(A − B)T = AT − B T ,
(A · B)T = B T · AT .
Bei der letzten Regel muss das Umkehren der Reihenfolge beachtet werden. Dies kann
man sich damit merken, dass das Transponieren den Typ der Matrix ändert, so dass
eventuell das Produkt AT · B T gar nicht mehr definiert ist.
Merke: Die Transponierte eines Produkts ist das Produkt der Transponieren
in der umgekehrten Reihenfolge.
93
3 Lineare Gleichungssysteme und lineare Algebra
Satz 3.20 Ein homogenes lineares Gleichungssystem hat entweder genau eine Lösung
oder unendlich viele.
Zum Lösen eines homogenen linearen Gleichungssystems kann man freilich den Gauß-
Jordan-Algorithmus, wie in den Abschnitten 3.2 und 3.4 gezeigt, verwenden; beim Um-
formen fallen möglicherweise einige Zeilen weg. Wir untersuchen nun die Gauß-Endform
eines solchen Gleichungssystems, um daraus Schlüsse zu ziehen auf die Anzahl der Frei-
heitsgrade.
Bekanntlich kann man diejenigen Lösungskomponenten frei wählen, die den Spalten
entsprechen, die nicht auf Einheitsform gebracht wurden, somit gilt:
Da sich aber durch die Spalten, die in Einheitsform sind, insgesamt je eine Eins in jeder
Zeile ergibt, gilt für ein Gleichungssystem in Gauß-Endform:
Im Verlauf des Lösungsvorgangs können Zeilen wegfallen, daher gilt obige Gleichung
eben nur in der Gauß-Endform. Allerdings können im Verlauf des Lösungsvorgangs keine
Zeilen hinzukommen, insofern folgt:
Satz 3.22 Ein homogenes lineares Gleichungssystem mit weniger Gleichungen als Unbe-
kannten hat stets unendlich viele Lösungen. Die Anzahl der Freiheitsgrade ist mindestens
so groß wie die Differenz aus der Anzahl der Unbekannten und der Anzahl der Gleichun-
gen.
2 4 −1 3 −2 0
5 −2 1 −2 3 0
1 −10 3 −8 −1 0
hat 3 Gleichungen und 5 Unbekannte. Weil 5 > 3 ist, hat das System unendlich viele
Lösungen, und zwar mit mindestens 5 − 3 = 2 Freiheitsgraden. //
94
3.7 Lineare Gleichungssysteme zum Dritten
Wie wir schon wissen, kann man bei Systemen mit unendlich vielen Lösungen – je nach-
dem wie man beim Umformen vorgeht – auf verschiedene Lösungsdarstellungen kommen.
Es ist wichtig sich klarzumachen, dass es sich dabei nicht um verschiedene Lösungsmen-
gen handelt, sondern lediglich um verschiedene Darstellungen derselben Lösungsmenge.
Die Lösungsmenge ist ja schließlich etwas, das durch das ursprüngliche Gleichungssystem
bereits feststeht; die Umformungen sind ja gerade so gemacht, dass sie die Lösungsmenge
nicht ändern. Daraus ergibt sich insbesondere, dass die Anzahl der Lösungen (1 oder ∞)
nicht vom Lösungsweg abhängen kann:
Satz 3.24 Die Eigenschaft eines homogenen linearen Gleichungssystems, entweder genau
eine Lösung oder unendlich viele Lösungen zu haben, hängt nicht vom Lösungsweg ab.
Dennoch bleibt weiterhin die Frage, ob die Anzahl der Freiheitsgrade vom Rechenweg
abhängt oder nicht. Da die Anzahl der Spalten eines linearen Gleichungssystems sowie-
so im Verlauf des Lösungsvorgangs unverändert bleibt, ist die Frage gemäß Satz 3.21
gleichbedeutend damit, ob die Anzahl der Zeilen in der Gauß-Endform vom Lösungsweg
abhängen kann oder nicht. Um dies zu klären, machen wir ein Gedankenexperiment:
95
3 Lineare Gleichungssysteme und lineare Algebra
Komponenten, die nach Lösungsweg A frei wählbar waren, auf null festlegen; das neue
Gleichungssystem nennen wir G2 :
∗ ∗ ∗ ∗ ∗ ∗ ∗ 0
∗ ∗ ∗ ∗ ∗ ∗ ∗ 0
.. .. .. .. .. .. .. ..
. . . . . . . .
∗ ∗ ∗ ∗ ∗ ∗ ∗ 0 (G2 )
1 0 0 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 1 0 0
Auf dieses Gleichungssystem wenden wir jetzt genau die Umformungen an, aus denen
die Lösungswege A und B bestehen, wobei wir die drei neu hinzugefügten Zeilen einfach
unverändert mitschleppen. Das ist offenbar möglich und führt bei Lösungsweg A zu der
Form
∗ 0 1 ∗ 0 ∗ 0 0
∗ 0 0 ∗ 1 ∗ 0 0
∗ 1 0 ∗ 0 ∗ 0 0
∗ 0 0 ∗ 0 ∗ 1 0 (G2 → A)
1 0 0 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 1 0 0
∗ 1 ∗ ∗ 0 0 ∗ 0
∗ 0 ∗ ∗ 0 1 ∗ 0
∗ 0 ∗ ∗ 1 0 ∗ 0
(G2 → B)
1 0 0 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 1 0 0
Die zusätzlich eingefügten Zeilen sind gerade so gemacht, dass man in (G2 → A) durch
entsprechende zusätzliche Umformungen die verbliebenen „∗“-Einträge zu Nullen machen
kann und so eine eindeutige Lösung erhält. In (G2 → B) hingegen können wir so nicht
argumentieren, da die zusätzlichen Einsen zum Teil an der falschen Stelle stehen. Jedoch
fällt ja nach Voraussetzung in Lösungsweg B eine Zeile mehr weg als in Lösungsweg A,
deswegen hat (G2 → A) nur noch sechs Gleichungen für die sieben Unbekannten, weswe-
gen es nach Satz 3.22 unendlich viele Lösungen haben muss.
Wir haben es somit jetzt mit der Situation zu tun, dass das Gleichungssystem G2
bei Lösungsweg A eine eindeutige Lösung hat, bei Lösungsweg B aber unendlich viele
Lösungen. Dies ist ein Widerspruch zu Satz 3.24. Die ursprüngliche Annahme, dass bei
verschiedenen Lösungswegen verschieden viele Zeilen wegfallen können, muss also falsch
sein.
96
3.7 Lineare Gleichungssysteme zum Dritten
Satz 3.26 Die Anzahl der Zeilen in der Gauß-Endform eines homogenen linearen Glei-
chungssystems ist unabhängig vom benutzen Lösungsweg.
Definition 3.27 Der Rang einer Matrix ist die Anzahl der Zeilen, die übrig bleibt, wenn
man die Matrix (ohne rechte Seite) mit elementaren Zeilenumformungen auf Gauß-
Endform bringt.
Satz 3.28 Die Anzahl der Freiheitsgrade in der Lösungsmenge eines homogenen linearen
Gleichungssystems ist unabhängig vom benutzen Lösungsweg.
Diese Anzahl nennt man die Dimension der Lösungsmenge. Für ein beliebiges homogenes
lineares Gleichungssystem gilt somit:
97
3 Lineare Gleichungssysteme und lineare Algebra
Bestimmen Sie anschließend, wie viele Freiheitsgrade somit die Lösungsmenge des linea-
ren Gleichungssystems
x1 + x2 − 4x3 − x4 = 0,
2x1 − 3x2 − 2x4 + 5x5 = 0,
5x1 − 12x3 − 5x4 + 5x5 = 0
hat.
Zu Übung 3.29:
A~x = ~b,
seine Lösungsmenge heiße Li . Zusammen mit diesem System betrachten wir das zugehö-
rige homogene System
A~x = ~0
und bezeichnen seine Lösungsmenge mit Lh . Sie kann möglicherweise auf verschiedene
Weisen dargestellt werden, aber die Anzahl der Freiheitsgrade ist, wie wir jetzt wissen,
fest. Diese Anzahl heiße r.
Hat man jetzt je eine Lösung ~xi ∈ Li des inhomogenen und ~xh ∈ Lh des homogenen
Systems, so gilt für ihre Summe:
98
3.7 Lineare Gleichungssysteme zum Dritten
also ist ~xi + ~xh ∈ Li . Das heißt, hat man eine Lösung eines inhomogenen Systems ge-
funden, so erhält man weitere Lösungen, indem man beliebige Lösungen des homogenen
Systems dazuaddiert. Es fragt sich, ob man auf diese Weise alle Lösungen des inhomoge-
nen Systems findet. Um dies zu untersuchen, nehmen wir an, ~xi2 sei eine weitere Lösung
des inhomogenen Systems, und wir fragen uns ob es ein ~xh ∈ Lh gibt mit ~xi + ~xh = ~xi2 .
Dazu müsste offenbar ~xh = ~xi2 − ~xi sein; die Frage ist, ob das in Lh liegt. Nun denn, es
ist
A~xh = A(~xi2 − ~xi ) = A~xi2 − A~xi = ~b − ~b = ~0,
also lautet die Antwort ja. Es gilt also:
Satz 3.30 Die allgemeine Lösung eines inhomogenen linearen Gleichungssystems ergibt
sich durch Addition einer beliebigen (sogenannten partikulären) Lösung des Systems und
der allgemeinen Lösung des zugehörigen homogenen Systems.
Insbesondere folgt daraus, dass jede Darstellung von Li stets r Freiheitsgrade haben
muss. Wir haben gefunden:
Satz und Definition 3.31 Sofern ein System A~x = ~b überhaupt lösbar ist, ist die Anzahl
der Freiheitsgrade in der Lösung dieselbe wie bei dem homogenen System A~x = ~0. Diese
Anzahl hängt insbesondere nicht von der rechten Seite ab. Auch hier sprechen wir von
der Dimension der Lösungsmenge.
Damit ist Einschätzungsfrage 3.9 beantwortet.
Zur Berechnung der Lösungsmenge ist Satz 3.30 nicht von Nutzen, da wir ja schon ein
universelles Verfahren haben. Das Prinzip, das durch Satz 3.30 dargestellt wird, wird uns
aber später bei Differenzialgleichungen wieder begegnen, und dort wird es dann für die
Berechnung von fundamentaler Bedeutung sein.
Die Eigenschaft, dass ein homogenes System mit weniger Gleichungen als Unbekannten
keine eindeutige Lösung haben kann (siehe Satz 3.22) überträgt sich somit auch auf
inhomogene Systeme – mit dem Unterschied, dass diese natürlich auch unlösbar sein
können:
Satz 3.32 Ein lineares Gleichungssystem mit weniger Gleichungen als Unbekannten ist
entweder unlösbar oder hat unendlich viele Lösungen. Im letzteren Fall ist die Anzahl der
Freiheitsgrade mindestens so groß wie die Differenz aus der Anzahl der Unbekannten und
der Anzahl der Gleichungen.
Übung 3.33 Was können wir ohne Rechnung über die Lösungsmenge des Gleichungssys-
tems
x1 + x2 − 4x3 − x4 = 2,
2x1 − 3x2 − 2x4 + 5x5 = −2,
5x1 − 12x3 − 5x4 + 5x5 = 3
sagen?
99
3 Lineare Gleichungssysteme und lineare Algebra
• Ist Rang(A) = n (man sagt, A hat vollen Rang), so fällt beim Lösen mit dem
Gauß-Jordan-Algorithmus keine Zeile weg. Man hat dann am Ende noch immer n
Zeilen und somit eine eindeutige Lösung.
• Ist Rang(A) < n, so fällt beim Lösen mindestens eine Zeile weg. Je nach rechter
Seite ~b kann es passieren, dass das Gleichungssystem unlösbar wird. Falls es lösbar
bleibt, gibt es aber auf jeden Fall unendlich viele Lösungen (siehe Satz 3.32).
Satz 3.34 Sei A ∈ Rn×n , also A eine quadratische Matrix. Dann gibt es zwei Fälle:
Entweder hat für jeden Vektor ~b ∈ Rn das lineare Gleichungssystem A~x = ~b eine ein-
deutige Lösung. Oder das lineare Gleichungssystem A~x = ~b hat für keinen Vektor ~b eine
eindeutige Lösung.
Die Frage, ob ein lineares Gleichungssystem eindeutig lösbar ist, hängt bei quadratischen
Systemen also nur von der Matrix ab, nicht von der rechten Seite.
Definition 3.35 Eine quadratische (n × n-) Matrix A heißt regulär, falls das lineare
Gleichungssystem A~x = ~b für jedes ~b ∈ Rn eine eindeutige Lösung hat. Andernfalls heißt
A singulär.
Eine n × n-Matrix ist also genau dann regulär, wenn ihr Rang gleich n ist.
Wir betrachten jetzt ein Gleichungssystem
100
3.8 Inverse Matrizen
Dabei bezeichnen:
wobei A eine reguläre n × n-Matrix sei. Wir wissen also, dass es eine eindeutige Lösung
~x gibt.
Weiterhin sei C irgendeine andere n × n-Matrix, und wir betrachten dann zusätzlich
zu (3.8) noch das lineare Gleichungssystem
(C · A) · ~x = C · ~b, (3.9)
also das System mit der Koeffizientenmatrix C · A und der rechten Seite C · ~b. Wenn C
gegeben ist, können diese Dinge offenbar berechnet werden, und der Aufwand dafür ist
geringer als der zum Lösen eines Gleichungssystems mit dem Gauß-Jordan-Verfahren.
Das System (3.9) entsteht als Gleichung aus (3.8) durch Multiplikation mit C von
links. Die eindeutige Lösung von (3.8) ist somit auch Lösung von (3.9). Umgekehrt gilt
das zunächst nicht, das heißt, das System (3.9) könnte mehr Lösungen als (3.8) haben.
Falls allerdings C ·A ebenfalls eine reguläre Matrix ist, dann hat (3.9) ebenfalls nur eine
Lösung, somit dann dieselbe Lösung wie (3.8). Interessant ist diese Feststellung, wenn
das System CA~x = C~b wesentlich einfacher zu lösen ist als das ursprüngliche System.
Dies ist insbesondere dann der Fall, wenn die Matrix C so gewählt ist, dass
C · A = En
101
3 Lineare Gleichungssysteme und lineare Algebra
Satz und Definition 3.36 Zu jeder regulären Matrix A gibt es eine Matrix C so, dass
C · A = En ist. Sie ist eindeutig bestimmt, wird inverse Matrix zu A genannt und mit
A−1 bezeichnet. Es gilt also
A−1 · A = En .
A · A−1 = En .
Weil die inverse Matrix A−1 genau dann existiert, wenn A regulär ist, nennt man reguläre
Matrizen auch invertierbar.
Für die inverse Matrix gelten folgende Rechenregeln:
(A · B)−1 = B −1 · A−1 ,
1
(λ · A)−1 = · A−1 ,
λ
(AT )−1 = (A−1 )T , daher Schreibweise: A−T .
Diese Regeln sind so zu verstehen: Wenn die rechte Seite existiert, dann auch die linke,
und beide sind gleich.
Achtung: Eine allgemeine Formel für die Inverse einer Summe von Matrizen existiert
nicht! Die naheliegende Formel „(A + B)−1 = A−1 + B −1 “ ist falsch!
Wir haben also festgestellt: Wenn A eine reguläre Matrix ist, dann ist die (eindeutige)
Lösung des Systems A~x = ~b gegeben durch
~x = A−1~b.
Dies ist eine Antwort auf unsere Frage in Abschnitt 3.5.2: Will man mehrere lineare Glei-
chungssysteme mit derselben (regulären) Matrix A, aber verschiedenen rechten Seiten,
lösen, so kann man dies dadurch erreichen, dass man zunächst die inverse Matrix A−1
berechnet und alsdann für jede rechte Seite ~b die Lösung direkt via ~x = A−1~b bestimmt.
3.8.2 Berechnung
Weil die inverse Matrix auch von rechts invers ist, also
A · A−1 = En
erfüllt, kann die Frage nach ihrer Berechnung wiederum als ein lineares Gleichungssystem
mit den n rechten Seiten ~e1 , . . . , ~en angesehen werden. Genauso geht man auch praktisch
vor: Man schreibt rechts neben die Matrix A die Einheitsmatrix En und formt so lange
um, bis links die Einheitsmatrix steht, dann steht rechts die inverse Matrix A−1 .
102
3.8 Inverse Matrizen
1 1 −1 1 0 0
2 1 −4 0 1 0 |II − 2I
−3 −1 2 0 0 1 |III + 3I
1 1 −1 1 0 0
0 −1 −2 −2 1 0 | · (−1)
0 2 −1 3 0 1
1 1 −1 1 0 0 |I − II
0 1 2 2 −1 0
0 2 −1 3 0 1 |III − 2II
1 0 −3 −1 1 0
0 1 2 2 −1 0
0 0 −5 −1 2 1 | · (−1/5)
1 0 −3 −1 1 0 |I + 3III
0 1 2 2 −1 0 |II − 2III
0 0 1 1/5 −2/5 −1/5
Somit ist
−2/5 −1/5 −3/5
A−1 = 8/5 −1/5 2/5 .
1/5 −2/5 −1/5
103
3 Lineare Gleichungssysteme und lineare Algebra
Zu Übung 3.38:
Übung 3.38 Machen Sie in Beispiel 3.37 die Probe, sowohl für die inverse Matrix als
auch für die Lösung des linearen Gleichungssystems.
3.9 Determinanten
Wir behandeln nun die Frage aus Abschnitt 3.5.1, also die Frage, ob man bei einem qua-
dratischen linearen Gleichungssystem leicht erkennen kann, ob es eine eindeutige Lösung
gibt und, wenn ja, ob es für die Berechnung der Lösung eine allgemeine Formel gibt.
ax1 + bx2 = e,
cx1 + dx2 = f,
genau dann eine eindeutige Lösung hat (und somit die Koeffizientenmatrix regulär ist),
wenn die Zahl
ad − bc
104
3.9 Determinanten
ungleich null ist. Wir nennen diese Zahl die Determinante der Matrix
a b
A= ,
c d
also
a b
det = ad − bc.
c d
Manche Autoren verwenden auch Betragsstriche für die Determinante, schreiben also
a b a b
det = ,
c d c d
was allerdings irreführend ist, weil es den Eindruck erweckt, die Determinante sei immer
≥ 0.
Bevor wir uns der Frage widmen, ob und wie man Determinanten von größeren Matri-
zen bestimmen kann, wollen wir ein paar Eigenschaften von zweireihigen Determinanten
zusammenstellen. Es wird sich später ergeben, dass die hier aufgeführten Regeln auch
für größere Matrizen gelten.
Wir wissen schon:
Satz 3.39 (Determinantenregel 0) Eine Matrix A ist genau dann regulär, wenn
det A 6= 0.
105
3 Lineare Gleichungssysteme und lineare Algebra
Als nächstes bemerken wir, dass das Transponieren einer Matrix nichts an der Determi-
nante ändert, denn
T
a b a c a b
det = det = ad − cb = ad − bc = det .
c d b d c d
Also:
det AT = det A.
Daraus folgt insbesondere, dass alle folgenden Regeln, die wir für Zeilen herleiten, auch
für Spalten gelten.
Wir wollen als nächstes untersuchen, wie sich der Wert einer zweireihigen Determinante
ändert, wenn man elementare Zeilenumformungen an der Matrix vornimmt. Wir beginnen
mit dem Vertauschen zweier Zeilen. Da die Matrix nur zwei Zeilen hat, gibt es da nicht
viel Wahl:
c d a b
det = cb − da = −(ad − bc) = − det ,
a b c d
also
Satz 3.41 (Determinantenregel 2) Vertauscht man zwei Zeilen (oder Spalten) einer Ma-
trix, so ändert die Determinante ihr Vorzeichen.
Als nächstes untersuchen wir, wie sich die Determinante ändert, wenn wir eine Zeile der
Matrix mit einer Zahl λ multiplizieren. Es genügt, wenn wir das zum Beispiel in der ersten
Zeile machen, denn für eine andere Zeile könnte man ja zuvor und hinterher die Zeile mit
der ersten Zeile tauschen, was, wie wir schon wissen, zwei sich gegenseitig aufhebende
Vorzeichenwechsel ergäbe.
λa λb a b
det = λad − λbc = λ(ad − bc) = λ det ,
c d c d
also
Satz 3.42 (Determinantenregel 3) Multipliziert man eine Zeile (oder Spalte) einer Ma-
trix mit einer Zahl λ, so multipliziert sich die Determinante ebenfalls mit λ.
Daraus ergibt sich insbesondere, dass die Determinante null ist, wenn eine Zeile (oder
Spalte) der Matrix nur aus Nullen besteht.
Achtung: Multipliziert man die ganze Matrix mit λ, so muss man den Faktor aus jeder
Zeile einzeln herausziehen und erhält dabei jedes Mal einen Faktor λ, also:
106
3.9 Determinanten
det(λA) = λ2 det A,
det(λA) = λn det A.
Für die Addition eines Vielfachen einer Zeile zu einer anderen können wir auch wieder
die Zeilen beliebig festlegen. Wir addieren das λ-fache der ersten Zeile zur zweiten:
a b
det = a(d + λb) − b(c + λa) = ad + λab − bc − λba = ad − bc
c + λa d + λb
a b
= det .
c d
Satz 3.43 (Determinantenregel 4) Durch die Addition eines Vielfachen einer Zeile (oder
Spalte) zu einer anderen Zeile (Spalte) ändert sich die Determinante nicht.
Dies scheint auf den ersten Blick im Widerspruch zur vorigen Regel zu stehen: Multipli-
ziert man eine Zeile mit einer Zahl, so multipliziert sich auch die Determinante mit der
Zahl; addiert man zusätzlich eine andere Zeile dazu, so entfällt aber diese Änderung der
Determinante: Wie ist das möglich? Die Antwort ist: Entscheidend ist, welche Zeile man
durch die Kombination ersetzt. Anders formuliert: Man bildet eine beliebige Linearkom-
bination zweier Zeilen und ersetzt dann eine Zeile durch diese Kombination, während die
andere Zeile unverändert in der Matrix steht. In dem Fall multipliziert sich die Determi-
nante mit dem Faktor, mit dem die ersetzte Zeile multipliziert wird – der andere Faktor
beeinflusst die Determinante nicht.
Übung 3.44 Wie ändert sich die Determinante bei den folgenden Umformungen?
3 4 3 4 |3II − 5I
beziehungsweise
5 −7 |3II − 5I 5 −7
Hat man eine Matrix, in der zwei Zeilen Vielfache voneinander (oder identisch) sind,
so kann man mit der obigen Regel eine davon zu null machen, ohne dass sich die Deter-
minante ändert, also ist die Determinante null. Wir fassen zusammen:
107
3 Lineare Gleichungssysteme und lineare Algebra
dann ist
det A = 0.
Eine spezielle Situation liegt vor, wenn wir mit einer (oberen oder unteren) Dreiecksma-
trix zu tun haben. Wir erhalten:
a b a 0
det = ad − b · 0 = ad, det = ad − 0 · c = ad,
0 d c d
Satz 3.46 (Determinantenregel 6) Die Determinante einer oberen oder unteren Drei-
ecksmatrix ist gleich dem Produkt der Diagonaleinträge.
Selbstverständlich gilt dasselbe erst recht für eine Diagonalmatrix.
Ein weiteres überraschendes Resultat ergibt sich für die Determinante eines Produkts
zweier Matrizen. Die Berechnung von Hand ist – selbst für 2 × 2-Matrizen – recht kom-
pliziert, aber der Computer ist unser Freund:
A:matrix([a,b],[c,d]);
B:matrix([s,t],[u,v]);
determinant(A.B);
ratsimp(%);
determinant(A)*determinant(B);
ratsimp(%);
108
3.9 Determinanten
109
3 Lineare Gleichungssysteme und lineare Algebra
ermöglichen eine recht bequeme Berechnung: Man bringt einfach durch Zeilenumfor-
mungen die Matrix auf Dreiecksform und multipliziert dann die Diagonaleinträge. Man
muss dabei jedoch über die getätigten Umformungen Buch führen, um die entsprechen-
den Änderungen nachträglich anzuwenden. Übrigens darf man, wie erläutert, auch statt
Zeilenumformungen Spaltenumformungen benutzen; man darf sogar beide Sorten Um-
formungen nach Belieben mischen.
−2 −4 2 1
4 9 3 −8
A=
7 14 0
.
5
1 2 −2 −1
Durch scharfes Hinsehen entdeckt man, dass die ersten zwei Spalten „fast Vielfache von-
einander“ sind. Es bietet sich daher an, in diesem Fall mit einer Spaltenumformung zu
110
3.9 Determinanten
beginnen:
−2 −4 2 1
4 9 3 −8
7 14 0 5
1 2 −2 −1
−2 |II − 2I
0 2 1 |I + IV
4 1 3 −8
7 0 0 5
1 0 −2 −1
−1 0 0 0
4 1 3 −8
7 0 0 5
1 0 −2 −1
| ↑ (3×)
0 0 0 −1 | ↓ (3×)
1 3 −8 4
0 0 5 7
0 −2 −1 1
1 3 −8 4
0 0 5 7 |↓
0 −2 −1 1
0 0 0 −1
1 3 −8 4
0 −2 −1 1
0 0 5 7
0 0 0 −1
Hier ist die Determinante 1 · (−2) · 5 · (−1) = 10. Wir müssen noch die Umformungen
berücksichtigen:
• Multiplikation einer Zeile (Spalte) mit einer Zahl: nicht durchgeführt.
• Addition eines Vielfachen einer Zeile (Spalte) zu einer anderen: egal, ändert den
Wert der Determinante nicht.
111
3 Lineare Gleichungssysteme und lineare Algebra
Satz 3.49 (Regel von Sarrus, Jägerzaunregel) Die Determinante einer 3×3-Matrix er-
hält man, indem man die ersten zwei Spalten rechts neben die Matrix schreibt und in der
somit vorliegenden 3 × 5-Matrix die drei Hauptdiagonalen (jeweils das Produkt der drei
Komponenten) addiert und davon die drei Nebendiagonalen subtrahiert.
Zu Übung 3.50:
112
3.9 Determinanten
• die Determinante derjenigen (n − 1) × (n − 1)-Matrix, die sich ergibt wenn man die
Zeile und Spalte, in der sich die Zahl befindet, streicht.
Diese Berechnungsmethode ist jedoch nicht immer vorteilhaft. Besonders günstig ist sie
dann, wenn eine der Zeilen oder Spalten sehr viele Nullen enthält.
//
Eine oftmals nützliche Methode zur Berechnung besteht aus einer Kombination aller
bisher dargestellten Verfahren: Man formt die gegebene Matrix so weit um, bis eine Zeile
oder Spalte nur noch einen Eintrag 6= 0 hat. Dabei nutzt man etwaige bereits vorhandene
Nullen aus. Dann entwickelt man die Matrix nach dieser Zeile oder Spalte, was somit zu
Sie können jetzt aus
einer einzigen Determinante einer kleineren Matrix führt. Dies Verfahren führt man fort, der Probeklausur 2021
bis die Matrix die Größe 3 × 3 erreicht hat und man die Determinante folglich mit der die Aufgabe 5 bearbei-
Sarrus-Regel berechnen kann. ten.
113
3 Lineare Gleichungssysteme und lineare Algebra
Determinanten – Berechnungsmöglichkeiten
Typ Berechnung
nicht quadratisch Determinante existiert nicht
a b
2×2 det = ad − bc
c d
viele Nullen Laplacescher Entwicklungssatz
Dreiecksmatrix Produkt der Diagonaleinträge
Diagonalmatrix Produkt der Diagonaleinträge
3×3 Regel von Sarrus („Jägerzaunregel“)
beliebig n × n durch Umformungen Nullen erzeugen (Umformungen proto-
kollieren), dann Laplaceschen Entwicklungssatz anwenden
A~x = ~b
mit regulärer Matrix A (also det A 6= 0) gegeben. Wir bezeichnen die Spalten der Matrix
A mit ~a1 , . . . , ~an . Die Gleichung A~x = ~b kann auch geschrieben werden als
Wir ersetzen jetzt die erste Spalte der Matrix A durch die rechte Seite ~b und berechnen
die Determinante der sich ergebenden Matrix. Nach den Rechenregeln für Determinanten
ergibt sich
det(~b, ~a2 , . . . , ~an ) = det(~a1 x1 + ~a2 x2 + · · · + ~an xn , ~a2 , . . . , ~an ) = det(~a1 x1 , ~a2 , . . . , ~an )
= x1 det(~a1 , ~a2 , . . . , ~an ) = x1 det A,
Satz 3.53 (Cramersche Regel) Die i-te Komponente xi der Lösung eines quadratischen
linearen Gleichungssystems A~x = ~b mit regulärer Matrix A erhält man, indem man die
i-te Spalte von A durch die rechte Seite ~b ersetzt, von der sich ergebenden Matrix die
Determinante bildet und anschließend durch die Determinante von A dividiert.
114
3.9 Determinanten
Übung 3.54 Bestimmen Sie mit der Cramerschen Regel die Komponente x3 der Lösung
des Systems
x1 + 2x3 = −2,
3x2 + 2x3 = 5,
−x1 + x3 = −4.
Zu Übung 3.54:
Zum Bestimmen aller Komponenten von ~x müsste man somit n + 1 Determinanten von
n×n-Matrizen berechnen, was in der Regel wesentlich aufwändiger ist als die Berechnung
der Lösung mit dem Gauß-Jordan-Verfahren. Nützlich kann die Regel aber sein, wenn
man nur eine oder wenige Komponenten der Lösung eines großen Gleichungssystems
braucht und die Berechnung der Determinante auf Grund vieler Nullen sehr einfach
ist. Ein anderer Nutzen ergibt sich, wenn man für bestimmte, häufig durchzuführende
technische Berechnungen, die auf (kleine, vorzugsweise 2 × 2-) Gleichungssysteme führen,
eine geschlossene Lösungsformel haben möchte.
Beispiel 3.55 (Kräftezerlegung) Eine Kraft F , die in eine gegebene Richtung wirkt,
soll in zwei Kräfte F1 und F2 entlang vorgegebener Wirkungslinien zerlegt werden. Die
Richtungen der Kraft F sowie der Wirkungslinien 1 und 2 sind durch Winkel α, α1 , α2
mit der positiven x-Achse gegeben, vergleiche Abbildung 3.2.
115
3 Lineare Gleichungssysteme und lineare Algebra
WL 2
F
F2
1
WL
α2
α F1
α1 x
Abbildung 3.2: Eine Kraft F wird zerlegt in Teilkräfte entlang gegebener Wirkungslinien.
oder in Matrixschreibweise
cos α1 cos α2 F1 F cos α
= .
sin α1 sin α2 F2 F sin α
Dieses Gleichungssystem kann freilich mit den Methoden aus Abschnitt 3.2 gelöst werden.
Mit der Cramerschen Regel (Satz 3.53) erhält man jedoch eine geschlossene Formel für
die Lösung, nämlich
F cos α cos α2
det
F sin α sin α2 cos α sin α2 − sin α cos α2
F1 = =F · ,
cos α1 cos α2 cos α1 sin α2 − sin α1 cos α2
det
sin α1 sin α2
cos α1 F cos α
det
sin α1 F sin α cos α1 sin α − sin α1 cos α
F2 = =F · ,
cos α1 cos α2 cos α1 sin α2 − sin α1 cos α2
det
sin α1 sin α2
was zweifelsohne von Vorteil ist, wenn man derartige Berechnungen häufig durchführt.
//
Da sich die inverse Matrix über ein lineares Gleichungssystem mit matrixwertiger rech-
ter Seite berechnen lässt (siehe Abschnitt 3.8.2), kann man aus der Cramerschen Regel
auch eine Formel für die inverse Matrix konstruieren.
116
3.10 Lineare Koordinatentransformation
Auf die Details dazu gehen wir nicht weiter ein. Für den Fall einer 2 × 2-Matrix ergibt
sich die sehr nützliche Formel:
−1
a b 1 d −b
= · .
c d ad − bc −c a
Für größere Matrizen sind die Formeln hingegen so kompliziert, dass sich ihre Anwendung
nicht lohnt.
Sie können jetzt aus
Merke: Zum Invertieren einer 2 × 2-Matrix muss man lediglich die beiden der Probeklausur Som-
Diagonaleinträge vertauschen, die anderen beiden Elemente mit einem Mi- mer 2019 die Aufga-
nuszeichen versehen, und alles durch die Determinante teilen. be 1 bearbeiten.
• Tisch;
• Kamera;
• ...
Bei der Umrechnung spricht man von einer Koordinatentransformation. Wir beschränken
uns hier auf sogenannte lineare Koordinatentransformationen, weil diese sich besonders
einfach berechnen lassen und thematisch an diese Stelle passen. Eine lineare Koordina-
tentransformation liegt vor, wenn folgende beiden Bedingungen erfüllt sind:
117
3 Lineare Gleichungssysteme und lineare Algebra
3.10.2 Berechnungsmethode
Wir nehmen also jetzt an, wir haben zwei Koordinatensysteme, nennen wir sie V und W ,
die die oben genannten Bedingungen erfüllen. Weiterhin sei angenommen, ein Punkt P im
Raum sei bezüglich Koordinatensystem V durch einen bekannten Vektor ~x = (x1 , x2 , x3 )T
beschrieben, und wir wollen diesen Vektor in das Koordinatensystem W umrechnen.
Wir suchen also einen Vektor ~y = (y1 , y2 , y3 )T , der denselben Punkt in dem geänderten
Koordinatensystem beschreibt.
Damit man überhaupt eine Chance hat, die Umrechnung durchzuführen, muss natür-
lich irgendein Zusammenhang zwischen den Systemen bekannt sein. Wir gehen davon aus,
dass die Koordinaten der V -Einheitsvektoren im W -System bekannt sind; diese Vektoren
mögen ~s1 , ~s2 und ~s3 heißen.
Weiterhin sei bekannt, dass die Einheitsvektoren des V -Systems im W -System durch die
Koordinatenvektoren
1 0.5
~s1 = , ~s2 =
0.5 2
dargestellt sind. //
Für den Vektor ~x, der den Punkt P im V -System darstellt, gilt offenbar
x1 1 0 0
~x = x2 = x1 · 0 + x2 · 1 + x3 · 0 .
x3 0 0 1
Die Einheitsvektoren aus V werden im W -System aber durch die Vektoren ~s1 , . . . , ~s3
dargestellt, daher muss der gegebene Punkt im W -System durch den Vektor
dargestellt werden.
118
3.10 Lineare Koordinatentransformation
Vy
Wy
Vx
0.5
~s2 =
2
1 Wx
~s1 =
0.5
2
~x =
−1
1.5
~y =
−1
119
3 Lineare Gleichungssysteme und lineare Algebra
Schreiben wir
s11 s12 s13
~s1 = s21 , ~s2 = s22 , ~s3 = s23 ,
s31 s32 s33
so ergibt sich
s11 s12 s13
~y = x1~s1 + x2~s2 + x3~s3 = x1 s21 + x2 s22 + x3 s23
s31 s32 s33
s11 x1 + s12 x2 + s13 x3
= s21 x1 + s22 x2 + s23 x3 = S~x
s31 x1 + s32 x2 + s33 x3
mit
s11 s12 s13
S = s21 s22 s23 = (~s1 , ~s2 , ~s3 ).
s31 s32 s33
Satz 3.58 Eine lineare Koordinatentransformation erfolgt stets durch Multiplikation des
Koordinatenvektors mit einer bestimmten Matrix. Man bestimmt diese Matrix, indem
man die Einheitsvektoren des alten Koordinatensystems im neuen System darstellt und
diese Vektoren nebeneinanderschreibt.
Nun kann es aber sein, dass man einen Punkt in die entgegengesetzte Richtung umrech-
nen möchte, das heißt, man kennt den Vektor ~y , der den Punkt im W -System darstellt,
und sucht den Vektor ~x, der denselben Punkt im V -System darstellt. Aus Symmetrie-
gründen muss man dann freilich die Einheitsvektoren des W -Systems im V -System dar-
stellen. Die entsprechenden Koordinatenvektoren mögen ~t1 , . . . , ~t3 heißen, dann schreibt
man diese nebeneinander in die Matrix
~x = T ~y
~x = T S~x,
120
3.10 Lineare Koordinatentransformation
Koordinatentransformation
• Rechne Einheitsvektoren von einem System ins andere um.
• Umrechnung eines Vektors in dieselbe Richtung wie eben erfolgt durch Multi-
plikation mit S.
• Umrechnung einer Matrix A (Satz 3.80, Seite 138) nach Formel SAS −1 .
und weil dies für alle Vektoren ~x gilt, muss T S = E3 sein, also
T = S −1 .
Mit anderen Worten: Kennt man die Matrix, die eine lineare Koordinatentransformation
in eine Richtung beschreibt, so wird die Transformation in die Gegenrichtung durch die
inverse Matrix beschrieben. Wir fassen zusammen:
Satz 3.59 Für eine lineare Koordinatentransformation muss man zunächst die Einheits-
vektoren des einen Systems (V ) in dem anderen System (W ) darstellen. Die entspre-
chenden Koordinatenvektoren schreibt man nebeneinander in eine Matrix S. Dann gilt:
• Zum Umrechnen eines Vektors von V nach W muss man ihn mit der Matrix S
multiplizieren.
• Zum Umrechnen eines Vektors von W nach V muss man ihn mit der inversen
Matrix S −1 multiplizieren.
Für die Umrechnung in die andere Richtung ergibt sich (siehe auch Ende von Ab-
schnitt 3.9.3 für die einfache Berechnung der Inversen einer 2 × 2-Matrix)
−1 1 2 −1/2 8/7 −2/7
T =S = = ,
1 · 2 − 21 · 12 −1/2 1 −2/7 4/7
121
3 Lineare Gleichungssysteme und lineare Algebra
also
8/7 −2/7 3/2 14/7 2
~x = T ~y = = = .
−2/7 4/7 −1 −7/7 −1
//
Übung 3.61 Die Koordinatensysteme V und W seien weiterhin wie im Beispiel. Rechnen
Sie den Vektor (7, 21)T vom W - ins V -System um und den Vektor (6, 10) vom V - ins
W -System.
Zu Übung 3.61:
Die Systeme können dann nur noch zueinander verdreht und/oder spiegelverkehrt sein.
Solche Transformationen kommen in technischen Anwendungen besonders häufig vor;
gleichzeitig ergibt sich dabei eine Rechenvereinfachung, daher lohnt es sich, sie gesondert
zu betrachten.
Es seien ~s1 , . . . , ~s3 wieder die W -Koordinatenvektoren der V -Einheitsvektoren. Aus
den zusätzlichen Bedingungen ergibt sich, dass jeder dieser Vektoren die Länge 1 hat
122
3.11 Eigenwertprobleme
Orthogonale Matrizen
• Definition: AT = A−1 .
und dass je zwei dieser Vektoren senkrecht zueinander sind; für das Skalarprodukt gilt
also
(
0, i 6= k,
~si · ~sk =
1, i = k.
Das bedeutet aber, dass die transponierte Matrix S T gleichzeitig die inverse Matrix ist:
S T = S −1 .
Eine Matrix S, die diese Eigenschaft hat, nennt man orthogonal, wie es nahe liegt, weil sie
ja eine orthogonale Koordinatentransformation beschreibt. Der Vorteil liegt jetzt darin,
dass man bei der Transformation in die entgegengesetzte Richtung gemäß Satz 3.59 in
diesem Fall auf die (vergleichsweise aufwändige) Berechnung der inversen Matrix verzich-
ten kann, weil man einfach die transponierte Matrix einsetzen kann.
Achtung: Um zu testen, ob eine gegebene Matrix S orthogonal ist, braucht man S −1
nicht zu berechnen. Vielmehr berechnet man
S · ST oder wahlweise ST · S
3.11 Eigenwertprobleme
3.11.1 Motivation
Beispiel 3.62 Wir betrachten ein mechanisches System aus zwei identischen Massen m,
die über eine Feder (Federkonstante k) verbunden sind und die darüber hinaus über je
123
3 Lineare Gleichungssysteme und lineare Algebra
m m
k k k
Abbildung 3.4: Mechanisches System aus zwei identischen Massen und drei identischen
Federn.
eine weitere Feder mit der Wand verbunden sind, siehe Abbildung 3.4. Das System wird
ohne Gravitation und ohne Reibung betrachtet.
Es bezeichnen x1 (t) und x2 (t) die Auslenkungen der linken, beziehungsweise rechten
Masse gegenüber der Ruhelage. Auslenkungen nach rechts werden jeweils positiv gezählt.
Die Kräfte, die zum Zeitpunkt t auf die linke, beziehungsweise rechte Masse wirken, sind
dann gegeben durch
F1 (t) = −kx1 (t) + k(x2 (t) − x1 (t)), F2 (t) = −k(x2 (t) − x1 (t)) − kx2 (t).
wobei a1 und a2 die komplexen Amplituden sind, die, wie erinnerlich, sowohl die tatsäch-
liche (reelle) Amplitude als auch die Phase beinhalten.
Ableiten und Einsetzen in die Differenzialgleichung ergibt
−ma1 ω 2 ejωt = k · −2a1 ejωt + a2 ejωt , −ma2 ω 2 ejωt = k · a1 ejωt − 2a2 ejωt .
Der zeitabhängige Faktor ejωt kürzt sich heraus; wir teilen außerdem noch durch −k und
erhalten
ω2m ω2m
a1 · = 2a1 − a2 , a2 · = −a1 + 2a2 .
k k
6
In der Tat wird sich im nächsten Semester herausstellen, dass man mit analogen Rechenschritten auch
die allgemeinen Schwingungsvorgänge des Systems bestimmen kann.
124
3.11 Eigenwertprobleme
A~v = λ~v ,
mit
2 −1 ω2m
A= , λ= .
−1 2 k
Es ist also offenbar A gegeben, und es werden ~v und λ gesucht (aus λ ergibt sich dann
ω, da m und k gegeben sind). Dabei soll ~v 6= ~0 sein, denn die (triviale) Lösung ~v = ~0
entspricht der (uninteressanten) Situation, dass beide Massen in der Ruhelage stillstehen.
//
Einschätzungsfrage 3.63 Wie viele Lösungen (also wie viele wesentlich verschiedene
Möglichkeiten, das System so auszulenken, dass es harmonisch schwingt) gibt es im obi-
gen Beispiel?
a) Das geht gar nicht.
so heißt λ Eigenwert von A, und alle Vektoren ~v , die (3.10) erfüllen, heißen Eigenvek-
toren von A zum Eigenwert λ.
Wie wir gesehen haben, haben Eigenwerte eine Anwendung in der Mechanik von schwin-
gungsfähigen Systemen. Andere Anwendungen sind beispielsweise:
125
3 Lineare Gleichungssysteme und lineare Algebra
In Beispiel 3.62 haben wir in der Herleitung des Eigenwertproblems komplexe Zahlen
verwendet, die Matrix A war aber reell. Dies macht einstweilen keine Probleme; im Zu-
sammenhang mit Eigenwertproblemen muss man, wie wir bald sehen werden, ohnehin
immer damit rechnen, dass komplexe Zahlen auftreten. Insbesondere lassen sich alle bis-
her besprochenen Konzepte der linearen Algebra relativ problemlos7 auf komplexe Zahlen
erweitern.
denn diese Schreibweise zeigt, dass es sich um ein homogenes lineares Gleichungssystem
handelt. Wie wir wissen, gibt es entweder genau eine Lösung oder unendlich viele, die von
einer Anzahl Freiheitsgrade abhängen. Wenn es genau eine Lösung gibt, so ist dieses aber
der Nullvektor ~v = ~0, den wir gerade in der Definition ausgeschlossen haben, weil er für
unsere Fragestellung nicht interessant ist. Wenn λ also ein Eigenwert ist, so muss (3.11)
unendlich viele Lösungen haben. Wir haben gefunden:
Satz 3.65 Zu einem gegebenen Eigenwert einer Matrix gibt es immer unendlich viele
Eigenvektoren, und diese hängen von einem oder mehreren Freiheitsgraden ab.
Insbesondere sind Eigenvektoren keineswegs eindeutig bestimmt. Das ist auch klar, denn
ist ~v ein gegebener Eigenvektor, so ist offenbar auch jedes Vielfache α~v ein Eigenvektor
zum selben Eigenwert.
zum Eigenwert λ = 2.
7
Im Zusammenhang mit orthogonalen Matrizen sind dafür ein paar kleinere Anpassungen nötig, auf
die wir aber nicht weiter eingehen.
126
3.11 Eigenwertprobleme
Zu Übung 3.66:
Wie wir zu gegebenem Eigenwert die Eigenvektoren bestimmen, wissen wir jetzt; es
verbleibt die Frage, wie wir überhaupt die Eigenwerte finden (beziehungsweise ob und
wann es überhaupt welche gibt und wenn ja wie viele). Definitionsgemäß ist λ Eigenwert,
wenn das lineare Gleichungssystem (3.11) außer dem Nullvektor noch weitere Lösungen
hat. Da es sich um ein quadratisches System handelt, können wir dies gemäß Abschnitt 3.9
mit Hilfe der Determinante überprüfen: λ ist genau dann Eigenvektor von A, wenn
det(A − λEn ) = 0
ist. Die Determinante von A − λEn berechnet man wie jede gewöhnliche Determinante,
nur dass eben die unbekannte Größe λ in einigen Koeffizienten der Matrix vorkommt.
Das generelle Prinzip zur Berechnung von Eigenwerten und -vektoren ist somit klar,
wir demonstrieren es an dem Problem aus Beispiel 3.62:
127
3 Lineare Gleichungssysteme und lineare Algebra
Es ergibt sich offenbar ein Polynom vom Grad 2. Die gesuchten Eigenwerte sind die
Nullstellen dieses Polynoms, man findet sie leicht mit der Mitternachtsformel:
√ √
4 ± 16 − 12 4± 4
λ1,2 = = = 2 ± 1, also λ1 = 1, λ2 = 3.
2 2
Wir berechnen nun die zugehörigen Eigenvektoren. Zu λ1 = 1 ergibt sich folgendes lineare
Gleichungssystem:
1 −1
−1 1 |II + I
1 −1
0 0
Wir erhalten eine Lösungsmenge mit einem Freiheitsgrad, nämlich
α 1
~v = =α .
α 1
Man gibt in der Regel nicht die allgemeine Lösung, sondern einen einzigen Eigenvektor
an, zum Beispiel (1, 1)T . Man beachte aber, dass etwa (−1, −1)T oder (17, 17)T genauso
richtig wären.8 (Im Fall von mehr als einem Freiheitsgrad gibt man entsprechend mehrere
Eigenvektoren an.)
Analog folgt für den anderen Eigenwert:
−1 −1
−1 −1 |II − I
−1 −1
0 0
128
3.11 Eigenwertprobleme
Eigenwertprobleme
Problemstellung: A~v = λ~v , wobei A gegeben und λ (Eigenwert) sowie ~v (Eigenvek-
tor) gesucht.
Dabei gilt: ~v = ~0 ist formal immer Lösung, im Anwendungszusammenhang
jedoch nicht von Interesse.
• ~v = α · (1, −1)T bedeutet, dass die beiden komplexen Amplituden das Negative
voneinander sind. Dies entspricht also einer Schwingung, in der die beiden Massen
entgegengesetzt zueinander schwingen. Aus dem zugehörigen Eigenwert ist λ = 3
ergibt sich die Frequenz
r
ω 1 3k
f= = .
2π 2π m
√
Insbesondere ist die Frequenz bei entgegengesetzter Schwingung um den Faktor 3 größer
als die bei paralleler Schwingung. Damit ist auch Einschätzungsfrage 3.63 beantwortet.
//
Dass sich für det(A − λEn ) im Beispiel ein Polynom in λ ergibt, ist kein Zufall. Allge-
mein gilt:
Satz und Definition 3.68 Wenn A eine n × n-Matrix ist, so ist det(A − λEn ) ein Poly-
nom vom Grad n; man nennt es das charakteristische Polynom der Matrix A.
Ein Polynom vom Grad n hat bekanntlich höchstens n Nullstellen, es gilt also: Sie können jetzt aus
der Probeklausur 2021
Satz 3.69 Eine n × n-Matrix hat höchstens n Eigenwerte. die Aufgabe 6 bearbei-
ten.
129
3 Lineare Gleichungssysteme und lineare Algebra
Da man den Faktor (−3 − λ) ausklammern konnte, hat man als erste Nullstelle λ1 = −3,
und die anderen beiden Nullstellen ergeben sich mit der Mitternachtsformel:
p
−2 ± 22 − 4 · 1 · (−3)
λ2,3 = = −1 ± 2,
2
also λ2 = 1, λ3 = −3. Naiv betrachtet ist 1 ein „einfacher“ und −3 ein „doppelter
Eigenwert“.
Der Eigenvektor zum Eigenwert 1 ergibt sich als Lösung des Systems (A − 1E3 )~v = ~0:
−4 0 0
4 −8 −4 |II + I
−8 8 4 |III − 2I
−4 0 0
0 −8 −4 |II + III
0 8 4
−4 0 0 | · (−1/4)
0 0 0
0 8 4 | · 1/4
1 0 0
0 2 1
130
3.11 Eigenwertprobleme
Zum Eigenwert −3 muss man analog das System (A + 3E3 )~v = ~0 lösen:
0 0 0
4 −4 −4
−8 8 8 |III + 2II
0 0 0
4 −4 −4 | · 1/4
0 0 0
1 −1 −1
In diesem Fall sind zwei Zeilen weggefallen, es ergibt sich somit auch eine Lösungsdar-
stellung mit zwei Freiheitsgraden:
α+β 1 1
~v = α = α 1 + β 0 .
β 0 1
Man könnte also (1, 1, 0)T und (1, 0, 1)T als Eigenvektoren angeben, aber wie wir wissen,
ist die Darstellung überhaupt nicht eindeutig. Man könnte beispielsweise auch
α 1 0
~v = β = α 0 + β 1
α−β 1 −1
schreiben und hätte dann (1, 0, 1)T und (0, 1, −1)T als Eigenvektoren. //
Im Beispiel spiegelt sich die Eigenschaft des einen Eigenwertes, „doppelt“ zu sein, auch
darin wider, dass man bei der Berechnung des zugehörigen Eigenvektors eine Lösung mit
zwei Freiheitsgraden erhält. Die Frage, ob das immer so ist, muss aber leider verneint
werden, wie das folgende Beispiel zeigt.
Übung 3.71 Bestimmen Sie die Eigenwerte der Matrix aus dem folgenden Beispiel.
Es ergibt sich (Übung 3.71), dass A die beiden Eigenwerte 0 („einfach“) und 4 („doppelt“)
hat.
131
3 Lineare Gleichungssysteme und lineare Algebra
Zu Übung 3.71:
132
3.11 Eigenwertprobleme
Der Eigenvektor zum Eigenwert 0 ergibt sich als Lösung des linearen Gleichungssystems
(A − 0E3 )~v = ~0, also einfach A~v = ~0:
4 −3 1
0 1 1
4 −1 3 |III − I
4 −3 1 |I − II
0 1 1
0 2 2 |III − 2II
1
4 −4 0 |· 4
0 1 1
0 0 0
1 −1 0
0 1 1
Wir erhalten eine Lösungsdarstellung mit einem Freiheitsgrad, nämlich
α 1
~v = α = α 1 .
−α −1
Jetzt die Eigenvektoren zum Eigenwert 4: Dazu müssen wir das System (A − 4E3 )~v = ~0
lösen:
0 −3 1
0 −3 1 |II − I
4 −1 −1 |III + I
0 −3 1
0 0 0
1
4 −4 0 |· 4
0 −3 1
1 −1 0
Obwohl es sich also um einen „doppelten“ Eigenwert handelt, enthält die Lösung diesmal
trotzdem nur einen Freiheitsgrad; sie lautet
α 1
~v = α = α 1 .
3α 3
//
Das Beispiel zeigt, dass es in Wirklichkeit zwei Kriterien gibt, an denen man den
Begriff der Vielfachheit eines Eigenwerts festmachen könnte, und dass insbesondere diese
Kriterien nicht unbedingt übereinstimmen müssen. Da beide von Bedeutung sind, ist es
nützlich, verschiedene Namen für sie einzuführen:
133
3 Lineare Gleichungssysteme und lineare Algebra
Definition 3.73 Sei A eine quadratische Matrix und λ ein Eigenwert, somit λ Nullstelle
des charakteristischen Polynoms von A. Die Vielfachheit dieser Nullstelle heißt algebrai-
sche Vielfachheit des Eigenwerts; hingegen heißt die Anzahl der Freiheitsgrade in der
allgemeinen Darstellung des Eigenvektors geometrische Vielfachheit des Eigenwerts.
Man beachte, dass beide Vielfachheiten immer für jeden der Eigenwerte anzugeben sind.
Beispiel 3.74 Die Matrix aus Beispiel 3.67 hat die Eigenwerte
//
Man kann beweisen, dass immerhin stets folgender Zusammenhang gilt:
Satz 3.75 Die geometrische Vielfachheit eines Eigenwerts ist immer ≤ der algebraischen
Vielfachheit.
Insbesondere wenn das charakteristische Polynom keine mehrfachen Nullstellen hat, also
alle Eigenwerte algebraisch einfach sind, dann müssen die Eigenwerte auch geometrisch
einfach sein, es kann dann also bei der Berechnung der Eigenvektoren nicht mehr als eine
Zeile wegfallen.
134
3.11 Eigenwertprobleme
∓2j −2 |:2
2 ∓2j |:2
∓j −1 |I ± jII
1 ∓j
0 0
1 ∓j
Man erhält also jeweils Lösungsmengen mit einem Freiheitsgrad der Form
±jα ±j
~v = =α .
α 1
//
Wenn man ohnehin komplexe Zahlen zulässt, kann man auch den Fall betrachten, dass
die Matrizen selbst komplexe Einträge haben. Dies verfolgen wir hier jedoch nicht weiter.
135
3 Lineare Gleichungssysteme und lineare Algebra
wobei c eine Konstante ist. Man kann nachrechnen, dass c = (−1)n ist (was im Wesent-
lichen daran liegt, dass det(−λEn ) = (−λ)n det(En ) = (−λ)n ist – siehe Determinanten-
regeln) –, also gilt anders geschrieben
det A = λ1 λ2 · · · λn ,
also:
Satz 3.77 Die Determinante einer beliebigen quadratischen Matrix ist gleich dem Pro-
dukt der (möglicherweise komplexen) Eigenwerte,
det A = λ1 λ2 · · · λn ,
Satz 3.78 Die Spur einer beliebigen quadratischen Matrix ist gleich der Summe der (mög-
licherweise komplexen) Eigenwerte,
tr A = λ1 + λ2 + · · · + λn ,
Dabei ist die Spur (englisch: trace) einer quadratischen Matrix nach Definition die Summe
der Diagonaleinträge:
Übung 3.79 Benutzen Sie die Sätze 3.77 und 3.78, um die Matrix
2
A=
2
136
3.11 Eigenwertprobleme
Zu Übung 3.79:
Mehrfache Eigenwerte
Es gilt immer:
Wenn man
Anzahl Eigenwerte = n,
Summe der Eigenwerte = tr A = Summe der Diagonaleinträge von A,
Produkt der Eigenwerte = det A.
137
3 Lineare Gleichungssysteme und lineare Algebra
f : Rn → Rn , f (~x) = A~x
~y = S~x
derselbe Punkt im W -System beschrieben. Die Umrechnung in die andere Richtung er-
folgt dann mit S −1 .
Die lineare Abbildung f bildet den n-dimensionalen Raum auf sich selbst ab. Wir
nehmen an, dass die Beschreibung f (~x) = A~x bezüglich des V -Systems gilt, und die Frage
ist jetzt: Wie stellt sich dieselbe Abbildung bezüglich des W -Systems dar? Angenommen,
wir haben einen Vektor ~y , der einen gegebenen Punkt bezüglich des W -Systems darstellt,
und wir wollen feststellen, was die Abbildung mit ihm macht, dann können wir das
erreichen, indem wir folgende drei Schritte durchführen:
3. Das Ergebnis liegt dann ebenfalls im V -System vor und muss daher noch ins W -
System zurückumgerechnet werden.
Das Umrechnen zwischen den beiden Systemen erfolgt durch Multiplikation mit S −1 bzw.
mit S. Der Ergebnisvektor lautet also
SAS −1 y,
und das bedeutet, dass die Abbildung im W -System durch die Matrix
SAS −1
Satz 3.80 („Koordinatentransformation von Matrizen“) Sei S die Matrix, mit der man
Vektoren zwischen zwei gegebenen Koordinatensystemen (V und W ) umrechnet. Eine
138
3.11 Eigenwertprobleme
lineare Abbildung, die bezüglich V durch eine Matrix A beschrieben wird, wird bezüglich
W dann durch
SAS −1
beschrieben.
Nun gibt es Situationen in der Technik (Beispielanwendung siehe Abschnitt 3.11.9), in
denen eine lineare Abbildung (oder Matrix) A gegeben ist und man für das umgebende
Koordinatensystem die freie Auswahl hat. In diesen Fällen besteht ein sinnvolles Ziel
darin, das Koordinatensystem so zu wählen, dass die Matrix SAS −1 möglichst einfach
wird. Unter „möglichst einfach“ versteht man in diesem Zusammenhang im Allgemeinen
eine Diagonalmatrix.
Definition 3.81 Eine quadratische Matrix A heißt diagonalisierbar, wenn sie durch Wech-
sel des Koordinatensystems in eine Diagonalmatrix transformiert werden kann, mit an-
deren Worten wenn es eine Matrix S gibt so, dass SAS −1 diagonal ist.
c) Nur sehr spezielle Matrizen sind diagonalisierbar. „Die meisten“ Matrizen sind nicht
diagonalisierbar.
Auflösung folgt. //
Wir setzen D = SAS −1 und nehmen an, dass D eine Diagonalmatrix ist:
d1
d2
D= .. .
.
dn
Offenbar ist dann
S −1 D = AS −1 . (3.12)
In der Schreibweise von Abschnitt 3.10 wird S −1 als T bezeichnet; es ist die Matrix, mit
der man Vektoren vom W - ins V -System umrechnet. Die Spalten dieser Matrix heißen
~t1 , . . . , ~tn ; sie sind die W -Einheitsvektoren, dargestellt im V -System. Mit dieser Notation
bedeutet (3.12) gerade, dass
~ti di = A~ti
ist für alle i, und das heißt nichts anderes, als dass die di Eigenwerte von A sind und die
~ti die dazugehörigen Eigenvektoren. Das bedeutet also:
139
3 Lineare Gleichungssysteme und lineare Algebra
Satz 3.83 Man diagonalisiert eine Matrix, indem man ein Koordinatensystem wählt,
dessen Achsen in Richtung der Eigenvektoren der Matrix verlaufen, und die Matrix dann
auf dies neue Koordinatensystem transformiert. Die transformierte Matrix ist dann eine
Diagonalmatrix, und ihre Diagonaleinträge sind die zugehörigen Eigenwerte.
Insbesondere ist die Matrix diagonalisierbar, wenn es ausreichend Eigenvektoren gibt, die
ein Koordinatensystem aufspannen, nämlich n Stück. Das ist „meistens“ der Fall, aber
nicht immer:
Satz 3.84 Dass eine Matrix nicht diagonalisierbar ist, kommt nur in folgenden beiden
Fällen vor:
2. wenn bei einem mehrfachen Eigenwert die algebraische und geometrische Vielfach-
heit nicht übereinstimmen.
Der erste Fall kann nur auftreten, wenn komplexe Zahlen nicht zulässig sind (dies hängt
von der zu Grunde liegenden Anwendung ab). Der zweite Fall ist unabhängig davon, ob
reelle oder komplexe Zahlen benutzt werden, kann jedoch nur auftreten, wenn die Matrix
überhaupt mehrfache Eigenwerte hat. Einschätzungsfrage 3.82 ist damit beantwortet.
Wir erläutern den Begriff an allen bisher betrachteten Beispielen für Eigenwerte:
• In Beispiel 3.67 hatten wir eine 2×2-Matrix mit zwei einfachen reellen Eigenwerten.
Die Matrix ist somit diagonalisierbar.
• In Beispiel 3.70 hatten wir eine 3 × 3-Matrix mit nur zwei Eigenwerten. Der Ei-
genwert 1 war algebraisch einfach, so dass er keine Probleme machen kann. Der
Eigenwert −3 war jedoch algebraisch doppelt. Bei der weiteren Berechnung hat
sich herausgestellt, dass dabei die geometrische Vielfachheit ebenfalls 2 ist (nämlich
zwei Freiheitsgrade bei der Berechnung des Eigenvektors), somit sind algebraische
und geometrische Vielfachheit identisch, und die Matrix ist diagonalisierbar.
• In Beispiel 3.72 hatten wir eine wiederum eine 3 × 3-Matrix mit nur zwei Eigen-
werten. Der Eigenwert 4 war algebraisch doppelt, jedoch geometrisch nur einfach.
Die Matrix ist somit nicht diagonalisierbar.
Dies äußert sich auch darin, dass der Versuch, ein neues Koordinatensystem aus
den Richtungen der Eigenvektoren der Matrix aufzubauen, fehlschlägt, weil man
eben insgesamt nur zwei Eigenvektoren hat, was in drei Dimensionen natürlich zum
Aufspannen eines Koordinatensystems nicht ausreicht.
• In Beispiel 3.76 hatten wir eine 2 × 2-Matrix, die in den reellen Zahlen gar keine
Eigenwerte hatte. Im Komplexen jedoch hatte sie zwei verschiedene Eigenwerte.
Diese Matrix ist also im Reellen nicht diagonalisierbar, im Komplexen aber sehr
wohl.
140
3.11 Eigenwertprobleme
• A ist diagonalisierbar.
• Man kann die Eigenvektoren so wählen, dass sie jeweils senkrecht zueinander sind
und Länge 1 haben.
Dies sind wirklich drei eigenständige Besonderheiten, die man in anderen Worten auch
so ausdrücken kann:
1. Man findet immer ein Koordinatensystem, in dem die Matrix diagonal wird;
2. man braucht keine komplexen Zahlen dafür (die ja bei bestimmten Anwendungen
keine physikalische Entsprechung haben);
Dies kann noch als Ergänzung zur Antwort auf die Einschätzungsfrage 3.82 gesehen
werden.
Der letzte Punkt ist aus Anwendungssicht besonders nützlich, denn nicht-orthogonale
Koordinatensysteme sind für viele Anwendungen kaum brauchbar. Dass wir mit einer
orthogonalen Koordinatentransformation auskommen, bedeutet wie erinnerlich (in drei
Dimensionen), dass wir das Koordinatensystem nur drehen und eventuell spiegeln müs-
sen. Da wir außerdem frei sind, die Nummerierung und Orientierung der Achsen beliebig
zu wählen, können wir auf Spiegelungen auch verzichten und erhalten:
Satz 3.86 Eine symmetrische reelle Matrix A ∈ R2×2 bzw. A ∈ R3×3 kann stets durch
Drehen des Koordinatensystems in eine Diagonalmatrix transformiert werden.
Die Achsen des neuen Koordinatensystems nennt man Hauptachsen der Matrix, die ent-
sprechende Koordinatentransformation heißt Hauptachsentransformation.
Wir erinnern auch daran, dass orthogonale Transformationen außerdem rechnerische
Vorteile bringen: Die entsprechende Transformationsmatrix S ist dann orthogonal, und
das bedeutet, dass S −1 = S T ist (siehe Abschnitt 3.10.3), weswegen man die transformier-
te Matrix SAS −1 wahlweise auch als SAS T schreiben kann. Dies wird unter anderem im
nächsten Semester im Rahmen der Bestimmung von Extremstellen bei Funktionen von
mehreren Argumenten eine große Rolle spielen.
9
Dies gilt allerdings nur, wenn die Einträge der Matrix reell sind. Eine Verallgemeinerung auf den
komplexen Fall bilden sogenannte hermitesche Matrizen.
141
3 Lineare Gleichungssysteme und lineare Algebra
Diagonalisierbare Matrizen
Bedeutung: Durch eine geeignete Koordinatentransformation kann die Matrix in
eine Diagonalmatrix transformiert werden.
Beschreibung in Formeln: Es existiert eine Matrix S so, dass SAS −1 diagonal ist.
142
3.11 Eigenwertprobleme
Beispiel 3.87 Auf eine an einem Ende fest eingespannte Latte mit rechteckigem, aber
nicht quadratischem Querschnitt wirkt am anderen Ende eine Kraft, die zwar orthogonal
zur Längsachse der Latte orientiert ist, aber nicht in einer der Achsenrichtungen des
Querschnittsrechtecks verläuft. Die Kraft führt zu einer Verbiegung der Latte, deren
Richtung jedoch nicht mit der Richtung der Kraft übereinstimmt. Diese Richtung ergibt
sich aus einer Rechnung, in der die sogenannten Biegespannungen eine Rolle spielen, wir
gehen auf dieses Beispiel jedoch nicht weiter ein. //
Man betrachtet jeweils Spannungen an einer (gedachten) Schnittfläche in dem Werkstück.
Dabei unterscheidet man zwischen sogenannten Normalspannungen, welche orthogonal
zur Schnittfläche wirken, und Tangentialspannungen, die tangential zur Schnittfläche
wirken. Eine feinere Unterteilung ist:
• Zugspannung: eine Spannung, die das Werkstück auseinanderzieht (Normalspan-
nung);
• Druckspannung: eine Spannung, die das Werkstück zusammendrückt (ebenfalls
Normalspannung);
• Biegespannung: eine Spannung, die das Werkstück verbiegt (wird auch zu den Nor-
malspannungen gezählt);
• Schubspannung: eine Spannung, die zu einer Scherung des Werkstücks führt (Tan-
gentialspannung);
• Torsionsspannung: eine Spannung, die das Werkstück in sich verdreht (ebenfalls
Tangentialspannung).
Offenbar sind Zug- und Druckspannungen dasselbe, nur mit entgegengesetztem Vorzei-
chen. Wir betrachten im Folgenden exemplarisch den Fall, dass Zug-/Druckspannungen
kombiniert mit Schubspannungen auftreten (jedoch keine Biege- oder Torsionsspannun-
gen).
Betrachten wir die Spannung an der Ebene senkrecht zur x-Achse, so haben wir dort
die Zug-/Druckspannung σxx – sie wirkt in x-Richtung – sowie die zwei Schubspannungen
σxy und σxz – in y- beziehungsweise z-Richtung. Sie werden zusammengefasst in einem
Spannungsvektor
σxx
~σx = σxy .
σxz
143
3 Lineare Gleichungssysteme und lineare Algebra
Um den Spannungszustand vollständig zu beschreiben, muss man aber nicht nur die
Spannungen an einer Schnittebene betrachten, sondern an drei zueinander senkrechten
Schnittebenen. Für die anderen beiden Schnittebenen erhält man auf diese Weise analog
die Spannungsvektoren ~σy und ~σz . Zur Beschreibung des gesamten Spannungszustands
gehören dann alle drei Vektoren; man fasst sie zu der Matrix
σxx σyx σzx
Σ = σxy σyy σzy ,
σxz σyz σzz
Beispiel 3.88 Auf ein Werkstück wirkt an der y-z-Ebene eine Schubspannung, die in
y-Richtung die Stärke 4 und in z-Richtung Stärke 3 hat11 . Weitere Spannungen wir-
ken nicht. Es sollen die Hauptspannungsrichtungen und die in ihre Richtung wirkenden
Zug-/Druckspannungen berechnet werden.
Die Spannungsmatrix lautet
0 4 3
Σ = 4 0 0 .
3 0 0
10
häufig auch als Spannungstensor bezeichnet
11
Einheit der Spannung ist Pascal [Pa = N/m2 ], wir lassen aber der Einfachheit halber die Einheiten weg.
144
3.11 Eigenwertprobleme
Wir müssen zunächst die Eigenwerte berechnen, also die Nullstellen von
−λ 4 3
det(Σ − λE3 ) = det 4 −λ 0 = −λ3 + 0 + 0 − 3 · (−λ) · 3 − 0 − (−λ) · 4 · 4
3 0 −λ
= −λ3 + 9λ + 16λ = −λ3 + 25λ.
λ1 = 5, λ2 = 0, λ3 = −5;
sie sind gleich den gesuchten Zug-/Druckspannungen. (Die Reihenfolge ist mathematisch
gesehen egal, jedoch ist es in der Mechanik üblich, sie der Größe nach zu ordnen.)
Der Eigenvektor zu λ1 = 5 berechnet sich wie folgt:
−5 4 3 |I + 3/5III
4 −5 0
3 0 −5
−16/5 4 0 |I + 4/5II
4 −5 0
3 0 −5
0 0 0
4 −5 0 | · (−1/5)
3 0 −5 | · (−1/5)
−4/5 1 0
−3/5 0 1
Nun ist es wie gesagt üblich, die Hauptspannungsrichtungen so zu skalieren, dass sie
Länge 1 haben. Wegen
r 4 2 3 2 √
12 + + = 2
5 5
√
muss man hierfür α = 1/ 2 wählen und erhält
1 5
1 4 1
~v1 = √ /5 = √ 4 .
2 3/5 5 2 3
145
3 Lineare Gleichungssysteme und lineare Algebra
Die Berechnung der beiden anderen Eigenvektoren führen wir hier nicht aus, sie lauten
0 5
1 1
~v2 = 3 , ~v3 = √ −4 .
5 5 2 −3
−4
Die Vektoren ~v1 , ~v2 und ~v3 sind die Hauptspannungsrichtungen. Legt man das neue
Koordinatensystem so, dass die Achsen in diese drei Richtungen zeigen, so besteht der
Spannungszustand aus einer Zugspannung der Stärke 5 in Richtung ~v1 (wegen λ1 = 5)
und einer Druckspannung der Stärke 5 in Richtung ~v3 (wegen λ3 = −5). In Richtung
~v2 liegt keine Spannung vor (wegen λ2 = 0), man spricht daher von einem zweiachsigen
Spannungszustand. //
3.12.1 Einleitung
Bereits in Abschnitt 3.10 haben wir uns mit linearen Koordinatentransformationen be-
schäftigt und festgestellt, dass diese sich stets durch eine Matrix darstellen lassen. In
diesem Abschnitt konkretisieren wir diese Überlegungen, indem wir konkret typische
Transformationen wie Drehungen oder Spiegelungen behandeln und für diese die entspre-
chenden Transformationsmatrizen aufstellen. Wir beschränken uns dabei aus Zeitgrün-
den auf Transformationen in der Ebene (also in zwei Dimensionen). Transformationen
im Raum (drei Dimensionen) funktionieren prinzipiell ähnlich.
Außer Drehungen und Spiegelungen sind in der Praxis auch Verschiebungen sehr wich-
tige Transformationen. Diese fallen jedoch nicht in die Klasse der in Abschnitt 3.10 be-
handelten Transformationen, weil sie den Nullpunkt nicht invariant lassen. Durch einen
Trick (die sogenannten homogenen Koordinaten) wird es jedoch möglich sein, auch Ver-
schiebungen durch Matrizen darzustellen.
In vielen Situationen hat man mehrere Transformationen hintereinander auszufüh-
ren. Dies ist zum Beispiel bei der Positionsberechnung eines Roboterarms mit mehreren
Gelenken der Fall: Dort müssen abwechselnd Drehungen (Gelenke) und Verschiebungen
(Armabschnitte) durchgeführt werden. (Dieselbe Situation tritt übrigens in der Compu-
tergrafik auf, wenn – z. B. bei der Programmierung von Ego-Shootern – eine virtuelle
dreidimensionale Landschaft von veränderlichen Positionen und Blickrichtungen darge-
stellt werden soll.) Ein wesentlicher Nutzen der Darstellung in Form von Matrizen besteht
in der Möglichkeit, eine Kombination von (beliebig vielen) Transformationen sehr einfach
in einer Transformation zusammenzufassen: Hierzu muss man nämlich einfach die Matri-
zen miteinander multiplizieren. Die Berechnungen vereinfachen sich dadurch wesentlich
(Ego-Shooter werden dadurch gewissermaßen überhaupt erst möglich).
146
3.12 Anwendung: Wichtige geometrische Koordinatentransformationen in der Ebene
1
cos ϕ
sin ϕ
ϕ
ϕ x
− sin ϕ cos ϕ 1
Abbildung 3.5: Die Einheitsvektoren (1, 0) und (0, 1) werden um einen Winkel ϕ gedreht.
(siehe Abbildung 3.5)12 muss man dann nur noch nebeneinander in eine Matrix schreiben,
somit ergibt sich die Drehmatrix
cos ϕ − sin ϕ
.
sin ϕ cos ϕ
Übung 3.89 Wie sieht die Matrix aus, wenn man in die andere Richtung dreht?
12
In dieser Überlegung bleiben die Koordinatenachsen fest, und es wird der Punkt gedreht. Dies weicht
von dem Vorgehen in Abschnitt 3.10 ab, wo wir davon ausgegangen sind, dass der Punkt fest bleibt
und sich die Koordinatenachsen ändern. Man macht sich leicht klar, dass dieser Unterschied rechne-
risch einer Änderung der Drehrichtung entspricht. In der Praxis muss man daher genau aufpassen,
welche Drehrichtung korrekt ist. Dasselbe gilt analog für andere Transformationen.
147
3 Lineare Gleichungssysteme und lineare Algebra
Zu Übung 3.89:
y
2 S · ~x
b
1 b
~x
ϕ
1 2
Abbildung 3.6: Drehung des Punktes ~x = (2, 1) um den Winkel ϕ = π/6 im Gegenuhrzei-
gersinn, vgl. Beispiel 3.90.
Beispiel 3.90 Eine Drehung im Gegenuhrzeigersinn um den Winkel π/6 (bzw. 30 °) wird
durch die Matrix
1√
cos(π/6) − sin(π/6) 2 3 −√21
S= = 1 1
sin(π/6) cos(π/6) 2 2 3
148
3.12 Anwendung: Wichtige geometrische Koordinatentransformationen in der Ebene
dargestellt wird.
Eine Spiegelung an einer beliebig schräg liegenden Achse scheint schwieriger zu berech-
nen zu sein, aber hier können wir bereits aus dem Vollen schöpfen: Will man an einer
Achse spiegeln, die um den Winkel ϕ (im Gegenuhrzeigersinn) gegenüber der y-Achse
verdreht ist, so lässt sich diese Transformation folgendermaßen zusammensetzen:
1. Man dreht die Bildszene um den Winkel −ϕ, so dass die gewünschte Spiegelachse
auf der y-Achse zu liegen kommt.
Wir müssen also nur drei Matrizen multiplizieren. Dabei müssen wir beachten, dass die
zuerst auszuführende Operation rechts steht, weil die Matrizen ja von rechts nach links
auf den jeweiligen Vektor wirken. Die gewünschte Matrix lautet also
2
cos ϕ − sin ϕ −1 0 cos ϕ sin ϕ sin ϕ − cos2 ϕ −2 sin ϕ cos ϕ
=
sin ϕ cos ϕ 0 1 − sin ϕ cos ϕ −2 sin ϕ cos ϕ cos2 ϕ − sin2 ϕ
cos2 ϕ sin ϕ cos ϕ cos ϕ
= E2 − 2 = E2 − 2 (cos ϕ, sin ϕ)
sin ϕ cos ϕ sin2 ϕ sin ϕ
T
cos ϕ cos ϕ
= E2 − 2
sin ϕ sin ϕ
Dabei ist (cos ϕ, sin ϕ)T offenbar ein Vektor der Länge 1, der senkrecht zur gewünschten
Spiegelachse steht. Es ergibt sich also folgende einfache Regel: Soll an einer zu einem ge-
gebenen Vektor ~a senkrechten Ursprungsgeraden gespiegelt werden, so lautet die Matrix
E2 − 2~a~aT ,
jedenfalls wenn |~a| = 1 ist. Hat ~a eine andere Länge als 1, so muss der Vektor zunächst
normiert werden, es ergibt sich dann die Matrix
2~a~aT
E2 − .
|~a|2
149
3 Lineare Gleichungssysteme und lineare Algebra
3.12.4 Größenänderungen
Will man Bildszenen maßstabgetreu vergrößern oder verkleinern, so muss man offenbar
alle Koordinaten mit dem entsprechenden Skalierungsfaktor α > 0 multiplizieren. Ein
Wert α > 1 entspricht einer Vergrößerung, ein Wert α < 1 einer Verkleinerung. Diese
Transformation kann auch mit einer Matrix ausgedrückt werden, nämlich der Matrix
α 0
αE2 = .
0 α
Man hängt also einfach an alle Vektoren eine zusätzliche Komponente an, die vereinba-
rungsgemäß immer gleich 1 ist. Diese Darstellung nennt man homogene Koordinaten.13
Wir haben jetzt zwei Fragen zu beantworten:
1. Wie müssen die bisher konstruierten Matrizen auf homogene Koordinaten erweitert
werden, damit sie noch dieselben Operationen beschreiben?
150
3.12 Anwendung: Wichtige geometrische Koordinatentransformationen in der Ebene
die eine Drehung, Spiegelung, Skalierung oder eine Kombination dieser Operationen dar-
stellt. Dann müssen wir eine 3 × 3-Matrix à finden, die einen Vektor der Form (x, y, 1)T
so transformiert, dass die ersten beiden Komponenten gerade mit A multipliziert werden
und die dritte Komponente unverändert 1 bleibt. Es muss also gelten:
x ax + by
à · y = cx + dy .
1 1
erreicht. Es gilt also: Um eine der bisher behandelten Transformationstypen auf einen
Vektor in homogenen Koordinaten anzuwenden, muss man die entsprechende Matrix um
eine Zeile und eine Spalte ergänzen, wobei der untere rechte Eintrag eine 1 und alle
anderen zusätzlichen Einträge Nullen sind.
Wir kommen jetzt zur zweiten Frage, also der Matrixdarstellung der Verschiebung.
Angenommen, wir sollen alle Punkte um den Vektor (u, v)T verschieben. Wir suchen
also eine Matrix B, für die gilt
x x+u
B · y = y + v
1 1
für alle x, y. Man überzeugt sich leicht davon, dass dies durch
1 0 u
B = 0 1 v
0 0 1
erreicht wird.
Beispiel 3.91 Mit maxima zeichnen wir die einfache Bildszene aus Abbildung 3.7 und
drehen diese um einen Winkel von 30 Grad.
bildszene1:matrix([0,1,1,2,3,3,4],[0,0,2,3,2,0,0],[1,1,1,1,1,1,1]);
zeich(m):=[discrete,m[1],m[2]];
dreh(p):=matrix([cos(p),-sin(p),0],[sin(p),cos(p),0],[0,0,1]);
plot2d([zeich(bildszene1),zeich(dreh(30*%pi/180).bildszene1)],same_xy);
In der Vorlesung wird dasselbe auch für die kompliziertere Bildszene aus Abbildung 3.8
gezeigt, und es werden auf Wunsch andere Transformationen demonstriert. //
151
3 Lineare Gleichungssysteme und lineare Algebra
2~a~aT
E2 − ,
|~a|2
αE2 ,
ergänzt.
• Die Matrizen für alle anderen Transformationen werden in der Form
∗ ∗ 0
∗ ∗ 0
0 0 1
ergänzt.
152
3.12 Anwendung: Wichtige geometrische Koordinatentransformationen in der Ebene
153
4 Differenzialrechnung
4.1 Stetigkeit
Die meisten in der Natur auftretenden Vorgänge sind kontinuierlich, haben also kei-
ne Sprünge. Beschreibt man solch einen Vorgang durch eine Funktion, so macht der
Funktionsgraph keine Sprünge. Anschaulich kann man sagen: Der Graph lässt sich ohne
Absetzen zeichnen. Aber wie kann man es formal beschreiben, dass eine Funktion einen
Sprung macht oder nicht?
Sei f eine Funktion mit Definitionsmenge D ⊂ R und Zielmenge Z ⊂ R. Wir wollen
überlegen, was es heißen sollte, dass f an einer Stelle x∗ einen Sprung macht. Nun, damit
f eine Chance hat, in x∗ zu springen, muss f (x∗ ) zunächst einmal überhaupt definiert
sein, also x∗ ∈ D. Das alleine reicht aber nicht aus; so ist etwa die Frage, ob die Funktion
an der Stelle 1 springt, sinnlos. Vielmehr muss die Funktion auf einem ganzen Intervall
definiert sein, das x∗ enthält.1 Häufig wird das Intervall zu beiden Seiten von x∗ liegen,
aber x∗ kann auch ein Randpunkt des Intervalls sein.
Dies sind die Grundvoraussetzungen dafür, dass es überhaupt Sinn ergibt, danach zu
fragen, ob f in x∗ springt oder nicht. Für die Beschreibung eines Sprunges ist es jetzt
erforderlich, den Funktionswert in x∗ mit den Funktionswerten in der Nähe von x∗ in
Zusammenhang zu bringen. Ein Sprung liegt offenbar vor, wenn sich die Funktionswerte
bei Annäherung an die Stelle x∗ nicht dem Wert f (x∗ ) annähern, also auf einem be-
stimmten Mindestabstand von f (x∗ ) bleiben. Wie groß dieser Mindestabstand ist, ist
dafür irrelevant. Wir legen also fest:
Definition 4.1 Sei f : D → Z, und sei x∗ in einem Intervall enthalten, das ganz in D
liegt. f macht in x∗ einen Sprung (oder auch: hat in x∗ eine Unstetigkeitsstelle), falls es
einen Mindestabstand ε > 0 gibt so, dass es in jeder Umgebung von x∗ noch eine Stelle
x gibt, an der |f (x) − f (x∗ )| > ε ist.
Hat f in x∗ keine Unstetigkeitsstelle, so sagt man, dass f in x∗ stetig ist, und durch
formales Umkehren der Bedingung ergibt sich:
Definition 4.2 Sei f : D → Z, und sei x∗ in einem Intervall enthalten, das ganz in D
liegt. f heißt stetig in x∗ , falls es zu jedem ε > 0 eine Umgebung von x∗ gibt, in der für
jedes x stets |f (x) − f (x∗ )| ≤ ε ist.
1
Formal genügt es, dass x∗ ein sogenannter Häufungspunkt der Definitionsmenge von f ist, aber auf
dieses Detail gehen wir hier nicht weiter ein.
155
4 Differenzialrechnung
Eine Funktion heißt stetig auf einem Intervall I, wenn sie in jedem Punkt in I stetig ist,
dort also nirgends springt. Häufig sagt man auch nur, f sei stetig (ohne Angabe eines
Intervalls), wenn aus dem Zusammenhang klar ist, welches Intervall gemeint ist (zum
Beispiel die gesamte Definitionsmenge).
Alle der in Kapitel 1 behandelten Funktionen sind stetig auf ihren jeweiligen Definiti-
onsmengen:
• Potenzfunktionen sind stetig auf ihrer jeweiligen Definitionsmenge (der vom Expo-
nenten abhängt). Dasselbe gilt für Wurzelfunktionen, da sie Spezialfälle von Po-
tenzfunktionen sind.
• sin und cos sind stetig auf ganz R, tan und cot sind stetig außerhalb ihrer Defini-
tionslücken.
• Die Hyperbel- und Areafunktionen sind ebenfalls stetig auf ihren Definitionsmen-
gen.
• Die Heaviside-Funktion
(
1, x ≥ 0,
H : R → R, x 7→
0, x < 0
• Die Kippschwingungsfunktion
k : R → R, x 7→ x − ⌊x⌋
(wobei ⌊x⌋ die größte ganze Zahl bezeichnet, die nicht größer als x ist) ist an allen
ganzzahligen Stellen unstetig.
156
4.1 Stetigkeit
sie ist im Nullpunkt nicht definiert, aber sie hat dort keinen Pol, denn sie ist be-
schränkt. Lässt sie sich so in den Nullpunkt fortsetzen, dass sie dort stetig wird?
Nein, denn in jeder Umgebung des Nullpunkts nimmt die Funktion alle Werte in
Bereich [−1, 1] an. Ganz gleich, wie man f (0) also festlegen würde, zum Mindestab-
stand ε = 21 gäbe es stets immer noch Punkte in jeder Umgebung des Nullpunkts,
die nicht nahe genug an f (0) liegen. Zeichnungen mit maxima bestätigen das:
plot2d(sin(1/x),[x,-10,10],[y,-1.1,1.1]);
plot2d(sin(1/x),[x,-1,1],[y,-1.1,1.1]);
plot2d(sin(1/x),[x,-0.001,0.001],[y,-1.1,1.1]);
Stetige Funktionen haben einige schöne Eigenschaften, die zu kennen sich lohnt:
Satz 4.3 Eine stetige Funktion auf einem beschränkten, abgeschlossenen Intervall in R
(also f : [a, b] → R)
• ist beschränkt (nach oben und unten),
• nimmt ihr Minimum und ihr Maximum an,
• nimmt jeden Wert zwischen dem Minimum und dem Maximum an.
Aus der letzten Aussage ergibt sich insbesondere:
Satz 4.4 (Zwischenwertsatz) Ist f : [a, b] → R stetig und haben f (a) und f (b) verschie-
dene Vorzeichen, so hat f im Inneren des Intervalls eine Nullstelle.
Wir betonen nochmals: Dass f auf [a, b] stetig ist, heißt dass zwischen a und b weder
Definitionslücken noch Sprünge vorliegen.
Eine Anwendung dieser Tatsache ist das Bisektionsverfahren; es ist ein Verfahren zur
näherungsweisen Bestimmung einer Nullstelle einer gegebenen Funktion f . Man kann
es anwenden, wenn eine analytische Bestimmung der Nullstelle nicht möglich ist (zum
Beispiel Polynom vom Grad ≥ 5). Die Idee ist, die Länge des Intervalls wiederholt zu
halbieren: Man berechnet dafür jeweils den Funktionswert in der Intervallmitte und be-
schränkt sich alsdann – je nach Vorzeichen – auf die linke oder rechte Intervallhälfte.
157
4 Differenzialrechnung
y
f (x∗ + h) b
f (x∗ ) b
x∗ x∗ + h
Abbildung 4.1: Links: Berechnung der Sekantensteigung über ein Steigungsdreieck.
Rechts: Mit h → 0 wird die Sekante zur Tangente.
f (x∗ + h) − f (x∗ )
,
h
siehe Abbildung 4.1 (links). Die Tangente kann als Grenzfall der Sekante im Fall h → 0
aufgefasst werden, siehe Abbildung 4.1 (rechts).
Die Steigung der Tangenten von f in x∗ wird (sofern sie existiert) mit f ′ (x∗ ) bezeichnet;
eine formale Definition in Form eines Grenzwertes folgt in Abschnitt 5.5. Man nennt f
in x∗ differenzierbar, falls f ′ (x∗ ) existiert, und den Wert f ′ (x∗ ) die (erste) Ableitung von
f in x∗ .
158
4.2 Differenzierbarkeit und Ableitung
Beispiel 4.6 Wir betrachten die Funktion f (x) = x2 . Für die Sekantensteigung ergibt
sich
f (x∗ + h) − f (x∗ ) (x∗ + h)2 − (x∗ )2 (x∗ )2 + 2hx∗ + h2 − (x∗ )2 2hx∗ + h2
= = =
h h h h
= 2x∗ + h.
• f hat in x∗ einen „klassischen Knick“, das heißt es gibt eine linksseitige und eine
rechtsseitige Tangente, aber diese stimmen nicht überein.
Beispiel 4.10
(
x · sin(1/x), x 6= 0,
f (x) =
0, x=0
an der Stelle 0. //
• f hat in x∗ zwar eine Tangente, aber diese verläuft parallel zur y-Achse; in diesem
Fall wäre die Tangentensteigung ∞, was wir nicht zulassen wollen.
√
Beispiel 4.11 Die Funktion f (x) = x an der Stelle 0. //
Ist f auf einem Intervall in jedem Punkt differenzierbar, das heißt, ist also etwa für
x ∈ [a, b] stets f ′ (x) definiert, so ist f ′ selbst wiederum eine Funktion, die Ableitung von
f . Die Ableitung von f ist also überall dort definiert, wo f differenzierbar ist, und sie ist
diejenige Funktion, die in jedem Punkt die Steigung der Tangente an f in diesem Punkt
angibt. Hieraus ergibt sich folgende Konsequenz:
159
4 Differenzialrechnung
Satz 4.12 Ist f in x∗ differenzierbar, so ist die Geradengleichung für die Tangente an f
in x∗ in Punkt-Steigungs-Form gegeben durch
y − f (x∗ )
= f ′ (x∗ ),
x − x∗
beziehungsweise in Hauptform
y = f (x∗ ) + f ′ (x∗ )(x − x∗ ) = f ′ (x∗ )x + f (x∗ ) − x∗ f ′ (x∗ ).
Übung 4.13 Stellen Sie die Tangentengleichung für die Funktion f (x) = x2 an der Stelle
x∗ = 3 in Hauptform auf.
Zu Übung 4.13:
160
4.2 Differenzierbarkeit und Ableitung
• Ist Q(t) die Ladung eines elektrischen Bauteils zum Zeitpunkt t, so ist die zeitliche
Änderung Q′ (t) die Stromstärke.
• Ist W (x) die Arbeit, die benötigt wird, um einen Gegenstand an den Ort x zu
bringen, so ist die Ableitung W ′ (x) die Kraft, die man an der Stelle x zur Bewegung
des Gegenstands aufbringen muss.
Satz 4.14 (Faktorregel) Ein konstanter Faktor bleibt beim Differenzieren erhalten:
d
(c · f (x)) = c · f ′ (x).
dx
Beispiel 4.15 f (x) = 4 sin x, dann f ′ (x) = 4 cos x. //
Satz 4.16 (Summenregel) Eine Summe von Funktionen darf gliedweise differenziert wer-
den:
d
f1 (x) + f2 (x) + · · · + fn (x) = f1′ (x) + f2′ (x) + · · · + fn′ (x).
dx
2
soweit sie freilich überhaupt existieren
161
4 Differenzialrechnung
Aus der Faktorregel und der Summenregel zusammen mit der Ableitung einer Potenz
ergibt sich bereits die Berechnungsvorschrift für die Ableitung eines beliebigen Polynoms.
Satz 4.19 (Produktregel) Die Ableitung eines Produkts erfolgt nach der Regel
d
f (x) · g(x) = f ′ (x)g(x) + f (x)g ′ (x).
dx
Satz 4.21 (Quotientenregel) Die Ableitung eines Quotienten erfolgt nach der Regel
d f (x) f ′ (x)g(x) − f (x)g ′ (x)
= .
dx g(x) g(x)2
Hiermit können wir zum Beispiel die Ableitung der Tangens- und Kotangens-Funktionen
berechnen:
d sin x sin′ x cos x − sin x cos′ x cos2 x + sin2 x
tan′ (x) = = =
dx cos x cos2 x cos2 x
1
= = 1 + tan2 x,
cos2 x
d cos x cos′ x sin x − cos x sin′ x − sin2 x − cos2 x
cot′ (x) = = =
dx sin x sin2 x sin2 x
1
= − 2 = −1 − cot2 x.
sin x
162
4.2 Differenzierbarkeit und Ableitung
Zu Übung 4.22:
Satz 4.23 (Kettenregel) Die Ableitung einer Verkettung zweier Funktionen erfolgt nach
der Regel
d
f (g(x)) = f ′ (g(x)) · g ′ (x).
dx
Die Anwendung der Kettenregel braucht zunächst etwas Übung. Häufig hilft es, mit einer
Substitution zu arbeiten.
f = cos u, u = x2 ,
df df du
= · ,
dx du dx
was überhaupt eine gut merkbare Schreibweise der Kettenregel ist, weil sie wie das Er-
weitern eines Bruches mit du aussieht. In diesem Fall ist
df du
= − sin u = − sin(x2 ), = 2x,
du dx
also
//
163
4 Differenzialrechnung
Ein Spezialfall liegt vor, wenn die innere Funktion nur aus der Multiplikation mit einer
Konstanten besteht: f (x) = g(c·x). In diesem Fall wäre also u = cx und somit du/dx = c,
also:
d
g(cx) = c · g ′ (cx).
dx
Auf dieselbe Weise erhält man:
d
g(x + c) = g ′ (x + c).
dx
Dies erlaubt uns jetzt, beispielsweise die Ableitungen der hyperbolischen Sinus- und
Kosinusfunktionen zu bilden, wobei sich wiederum Ähnlichkeiten zu den trigonometri-
schen Funktionen herausstellen:
d ex − e−x 1 d x 1 x
sinh′ (x) = = (e − e−x ) = (e − (−1) · e−x ) = cosh(x),
dx 2 2 dx 2
d ex + e−x 1 d x 1 x
cosh′ (x) = = (e + e−x ) = (e + (−1) · e−x ) = sinh(x).
dx 2 2 dx 2
Die Ableitungen von tanh und coth erfolgen dann wiederum mit der Quotientenregel.
Ein weiteres Resultat der Kettenregel ist die Ableitung einer Exponentialfunktion mit
beliebiger Basis:
d x d ln(ax ) d x·ln a
(a ) = (e )= (e ) = (ln a) · ex·ln a = (ln a) · ax .
dx dx dx
In manchen Anwendungen treten häufig Funktionen vom Typ g(x) · eαx auf, für die
Ableitung ergibt sich mit Produkt- und Kettenregel:
d
(g(x) · eαx ) = g ′ (x) · eαx + g(x) · eαx · α = (g ′ (x) + αg(x)) · eαx .
dx
164
4.2 Differenzierbarkeit und Ableitung
∆x
f −1
∆y
∆y
∆x
x
Wir können nun schon allerhand Funktionen ableiten, aber zum Beispiel den Loga-
rithmus können wir noch nicht ableiten, obwohl er ja weder Sprünge noch Knicke hat,
also differenzierbar sein müsste. Auch die Umkehrungen der trigonometrischen und der
Hyperbelfunktionen können wir noch nicht ableiten. Hierfür benötigen wir die zunächst
letzte Ableitungsregel, die Umkehrregel. Sei f die Umkehrfunktion zu g, so dass also
g(f (x)) = x
ist für alle x. Wir können beide Seiten dieser Gleichung unter Benutzung der bekannten
Regeln ableiten, es ergibt sich
g ′ (f (x)) · f ′ (x) = 1.
1
f ′ (x) = .
g ′ (f (x))
Diese Regel lässt sich übrigens auch gut veranschaulichen (vgl. Abbildung 4.2): Den Funk-
tionsgraphen der Umkehrfunktion bildet man bekanntlich, indem man den ursprünglichen
Funktionsgraphen an der Hauptdiagonalen spiegelt. Somit wird die Tangente ebenfalls
gespiegelt, wodurch sich bei der Berechnung der Steigung über das Steigungsdreieck gera-
de ∆x und ∆y vertauschen; die Steigung der gespiegelten Tangente ist also der Kehrwert
der ursprünglichen Steigung.
165
4 Differenzialrechnung
Dennoch muss man bei der Anwendung der Umkehrregel höllisch aufpassen, denn f ′
und g ′ werden an verschiedenen Stellen ausgewertet. Eine Beschreibung, anhand derer
das vielleicht besser zu verstehen ist, ist die folgende: Sei g die Umkehrfunktion zu f und
f (x) = y. Dann ist natürlich g(y) = x, und die Umkehrregel lautet in dieser Schreibweise
1
f ′ (x) = .
g ′ (y)
Oder noch anders: Wir schreiben nur noch x und y, dann ist f ′ = dy/dx und g ′ = dx/dy,
und es steht da
dy 1
= .
dx dx/dy
Wieder führt der intuitive Umgang wie mit Brüchen zum richtigen Ergebnis.
Beispiel 4.28 Wir wollen die Ableitung des natürlichen Logarithmus bestimmen; er ist
bekanntlich die Umkehrung der e-Funktion. Wir haben also
Wie erhalten
1 1 1
ln′ (x) = f ′ (x) = = y
= .
g ′ (y) e x
//
Beispiel 4.29 Wir berechnen jetzt die Ableitung der arcsin-Funktion. Wir haben also
1 1
f ′ (x) = = .
g ′ (y) cos y
Wir müssen dies aber in Abhängigkeit von x = sin y ausdrücken. Dies gelingt mit Hilfe
der bekannten Gleichung
sin2 y + cos2 y = 1,
166
4.2 Differenzierbarkeit und Ableitung
Ableitungsregeln
Regel f (x) f ′ (x)
1
Umkehrregel g −1 (x)
g ′ (g −1 (x))
Zur Entscheidung über das Vorzeichen kommt (4.1) ins Spiel, denn auf [−π/2, π/2] ist
cos ≥ 0, somit muss gelten
q p
cos y = 1 − sin2 y = 1 − x2 .
167
4 Differenzialrechnung
168
4.2 Differenzierbarkeit und Ableitung
sein, statt mit der eigentlichen Funktion mit ihrer Tangente zu rechnen. Man spricht
dabei auch von Linearisierung einer Funktion:
(vergleiche auch Satz 4.12). Als Anwendung kann man zum Beispiel ein nichtlineares
Gleichungssystem auf diese Weise in ein lineares Gleichungssystem umwandeln, welches
man dann zum Beispiel mit den in Kapitel 3 behandelten Techniken lösen kann. Dies
ist jedoch nur dann sinnvoll, wenn der Punkt, um den man linearisiert, in der Nähe der
Lösung ist.
Beispiel 4.30 Ein Lichtstrahl trifft mit einem Normalenwinkel von ungefähr π/6 (also
30 °) auf die Oberfläche eines lichtdurchlässigen Mediums. Dabei wird der Lichtstrahl ge-
brochen. Zur Berechnung des Brechungswinkels benötigt man den Sinus des Normalen-
winkels. Um mit vielen verschiedenen Winkeln schnell Überschlagsrechnungen anstellen
zu können, kann es sinnvoll sein, die Sinus-Funktion um die Stelle π/6 zu linearisieren. Es
ist
π 1 π π 1√
sin = , sin′ = cos = 3.
6 2 6 6 2
Somit ergibt sich die Linearisierung
1 1√ π
ℓ(x) = + 3 x− .
2 2 6
Eine Zeichnung mit maxima bestätigt, dass ℓ(x)dies in der Nähe von x = π/6 eine gute
Näherung an sin(x) ist:
plot2d([sin(x),1/2+sqrt(3)/2*(x-%pi/6)],[x,%pi/6-0.1,%pi/6+0.1]);
//
√
Übung 4.31 Linearisieren Sie die Wurzelfunktion f (x) = x an der Stelle 1.
Satz 4.32 Ist f in einem Intervall (a, b) differenzierbar und ist x ∈ (a, b) und
f ′ (x) > 0, streng monoton wachsend,
so ist f in einer Umgebung von x
f ′ (x) < 0, streng monoton fallend.
169
4 Differenzialrechnung
Zu Übung 4.31:
Satz 4.33 Ist f in (a, b) differenzierbar und hat an x ∈ (a, b) ein lokales Extremum
(Minimum oder Maximum), so muss f ′ (x) = 0 sein.
Die Umkehrung ist aber falsch, wie das Beispiel f (x) = x3 zeigt: Diese Funktion hat
in x = 0 einen Terrassenpunkt; so nennt man einen Punkt, an dem die Ableitung ver-
schwindet, die Funktion aber trotzdem lokal streng monoton (wachsend oder fallend)
ist.3
Hat f in x∗ ein Maximum, so muss f links von x∗ streng monoton wachsend und rechts
von x∗ streng monoton fallend sein. Die Ableitung f ′ , sofern existent, muss also in einer
Umgebung von x∗ folgendes Verhalten haben:
∗
> 0, x < x ,
f ′ (x) = 0, x = x∗ ,
< 0, x > x∗ .
Dies ist insbesondere dann der Fall, wenn f ′ in der Nähe von x∗ streng monoton fallend
ist (siehe Abbildung 4.3). Ist f ′ selbst auch differenzierbar, so ergibt sich mit Satz 4.32
sofort folgendes Kriterium, in dem die Ableitung der Ableitung, die sogenannte zweite
Ableitung auftaucht:
Satz 4.34 Ist f in (a, b) zweimal differenzierbar und f ′ (x) = 0 für ein x ∈ (a, b) und ist
f ′′ (x) < 0, lokales Maximum,
so hat f in x ein
′′
f (x) > 0, lokales Minimum.
Falls f ′ (x) = f ′′ (x) = 0, so kann ohne weitere Informationen keine Aussage über das Vor-
handensein eines Extremums gemacht werden. Mitunter ganz nützlich ist noch folgendes
Resultat:
3
Bisweilen wird auch die Bezeichnung Sattelpunkt verwendet, die jedoch später (nächstes Semester)
auch mit einer anderen Bedeutung verwendet wird.
170
4.2 Differenzierbarkeit und Ableitung
b
b
f (x)
b
x
x∗ b
f ′ (x)
Abbildung 4.3: f ′ (x) > 0 für x < x∗ , und f ′ (x) < 0 für x > x∗ , somit ist f ′ (x) monoton
fallend.
Satz 4.35 Ist f in (a, b) n-mal differenzierbar (n ≥ 2) und ist x ∈ (a, b) eine Stelle, an
der
Satz 4.36 Ist f in einem Intervall (a, b) zweimal differenzierbar und ist x ∈ (a, b) und
f ′′ (x) > 0, linksgekrümmt,
so ist f in einer Umgebung von x
′′
f (x) < 0, rechtsgekrümmt.
Durch Anwendung aller weiteren Sätze von vorhin auf die Ableitung ergeben sich folgende
Resultate:
171
4 Differenzialrechnung
f (x)
b
b
b b
b
Abbildung 4.4: Die Ableitung einer linksgekrümmten Funktion ist monoton wachsend.
Satz 4.37 Ist f in (a, b) zweimal differenzierbar und hat an x ∈ (a, b) eine Wendestelle,
so muss f ′′ (x) = 0 sein.
Dabei ist eine Wendestelle eine Stelle, an der sich die Krümmungsrichtung ändert.
Satz 4.38 Ist f in (a, b) dreimal differenzierbar und f ′′ (x) = 0 für ein x ∈ (a, b) und ist
f ′′′ (x) > 0, Rechts-links-Wendestelle,
so hat f in x eine
f ′′′ (x) < 0, Links-rechts-Wendestelle.
Satz 4.39 Ist f in (a, b) n-mal differenzierbar (n ≥ 3) und ist x ∈ (a, b) eine Stelle, an
der
172
4.2 Differenzierbarkeit und Ableitung
173
5 Folgen, Reihen und
Taylor-Entwicklung
5.1 Einleitung
In vielen Situationen ist es erforderlich oder hilfreich, gegebene komplizierte Funktionen
durch einfachere Funktionen anzunähern. Mögliche Anwendungen sind:
• Näherungsformeln für Überschlagsrechnungen;
• Auswertung von Funktionen, über die nur unvollständige Informationen vorhanden
sind;
• bessere Vorstellung des Funktionsverlaufs;
• Lösen von Gleichungen;
• Berechnung von Integralen.
Wir haben schon die Methode der Linearisierung behandelt, aber für manche Anwendun-
gen mag die Linearisierung nicht genau genug sein. Eine allgemeinere Methode ist die
sogenannte Taylor-Entwicklung. Diese werden wir in Abschnitt 5.4 behandeln; bis dahin
behalten wir sie als Fernziel im Auge. Vorher müssen wir uns einiges Handwerkszeug
erarbeiten.
Eine wichtige Eigenschaft von Methoden zur Annäherung komplizierter durch einfa-
che Funktionen besteht in der Möglichkeit, die Genauigkeit zu kontrollieren. Konkret
bedeutet das zweierlei:
• Wir brauchen eine Information über die Größe des Fehlers.
• Wir brauchen eine Möglichkeit, den Fehler gegebenenfalls zu verkleinern (auf Kos-
ten eines höheren Rechenaufwands).
Mit anderen Worten: Ist y = f (x) der exakte Funktionswert, so reicht ein einzelner
Näherungswert ỹ im Allgemeinen nicht aus, sondern man braucht eine sogenannte Folge
von Näherungswerten,
y1 , y2 , y3 , . . . ,
mit folgenden Eigenschaften:
• Der Fehler |yn − y| wird mit zunehmendem n beliebig klein;
• mit zunehmendem n wird die Auswertung von yn aufwändiger.
Wir beginnen damit, die begrifflichen Grundlagen hierfür zu legen.
175
5 Folgen, Reihen und Taylor-Entwicklung
5.2 Folgen
5.2.1 Begriff und Darstellungsarten
Definition 5.1 Unter einer Folge versteht man eine unendliche Menge von Zahlen mit
einer festen Reihenfolge. Die symbolische Darstellung lautet:
(an )n∈N = (a1 , a2 , a3 , . . . ).
Die Zahlen a1 , a2 , a3 , . . . heißen Glieder der Folge.
Die Nummerierung muss nicht notwendig bei 1 beginnen, sie kann auch bei 0 oder bei
einem beliebigen anderen Index beginnen.
Beispiel 5.4 Für die Folge (an = 1 − 1/n) ergeben sich die Darstellungen in den Abbil-
dung 5.1 und 5.2. //
176
5.2 Folgen
Zu Übung 5.3:
a1 a2 a3 a4 a5 a7a9
b b b b b b b b b b
a6 a8 a10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
an
1
b b
b
b
b
0.8 b
b
0.6
b
0.4
0.2
b
n
1 2 3 4 5 6 7 8 9 10
177
5 Folgen, Reihen und Taylor-Entwicklung
Definition 5.5 Eine Zahl a∗ heißt Grenzwert einer Folge (an ), falls zu jedem ε > 0 ein
N ∈ N existiert so, dass
|an − a∗ | ≤ ε
für alle n ≥ N . Man sagt dann auch, (an ) konvergiert gegen a∗ , Schreibweise
lim an = a∗ .
n→∞
Falls (an ) keinen Grenzwert besitzt, sagt man die Folge divergiert.
In Worten: Zu jeder gegebenen Fehlerschranke gibt es einen Index, ab dem alle Folgen-
glieder sich höchstens um die gegebene Schranke von dem Wert a∗ unterscheiden.
Übung 5.6 Für die Folge an = 1 − 1/n ist zu ε = 0.1 das passende N gesucht.
Zu Übung 5.6:
Beachte in der Schreibweise limn→∞ an , dass n hier eine sogenannte gebundene Variable
ist. Das bedeutet, dass die Variable n einen beschränkten Gültigkeitsbereich hat. Dies
hat folgende drei wichtige Konsequenzen:
1. Eine gebundene Variable darf nicht außerhalb ihres Gültigkeitsbereichs vorkommen.
Beispielsweise ergibt der Ausdruck
1
n + lim 1 −
n→∞ n
keinen Sinn, denn das vordere n liegt außerhalb des Gültigkeitsbereichs:
1
n + lim 1 − .
n→∞
| {z n }
← undefiniert
Gültigkeitsbereich
178
5.2 Folgen
3. Es ist zulässig, die Variable umzubenennen, sofern der neue Name zuvor noch nicht
anderweitig belegt war:
lim an = lim ak .
n→∞ k→∞
Das geht auch, wenn der neue Name zwar schon verwendet wird, sich die Gültig-
keitsbereiche aber nicht überschneiden:
• Die Folge (2−n ) = (1/2, 1/4, 1/8, 1/16, . . . ) konvergiert gegen 0 (sogenannte Nullfolge).
• Die durch
1
a1 = 1, an+1 = 3 −
an
• Die Folge (n3 ) konvergiert nicht. Die Folgenglieder werden immer größer und sind
nicht beschränkt, man spricht hier von bestimmter Divergenz oder einem uneigent-
lichen Grenzwert und schreibt formal
lim n3 = ∞.
n→∞
• Die Folge ((−1)n ) = (−1, 1, −1, 1, . . . ) konvergiert nicht. Hier liegt auch kein unei-
gentlicher Grenzwert vor. Man spricht daher von unbestimmter Divergenz.
179
5 Folgen, Reihen und Taylor-Entwicklung
All diese Regeln sind so zu verstehen: Wenn die rechte Seite existiert, dann auch die
linke, und beide sind gleich. Es kann jedoch vorkommen, dass die linke Seite existiert,
die rechte jedoch nicht.
Beispiel 5.7
r r s
3n3 + 6n2 + 4 3n3 + 6n2 + 4 3 + n6 + n43
lim = lim = lim
n→∞ 4n3 + 9n + 2 n→∞ 4n3 + 9n + 2 n→∞ 4 + 92 + 23
n n
s
6 4
r √
limn→∞ 3 + n + n3 3 3
= = = .
limn→∞ 4 + n92 + n23 4 2
//
Beispiel 5.8
lim 2−n · 4n/2+1/n = lim 2−n · (22 )n/2+1/n = lim (2−n · 2n+2/n ) = lim 22/n
n→∞ n→∞ n→∞ n→∞
limn→∞ (2/n) 0
=2 = 2 = 1.
//
Beispiel 5.9
1 n 1 limn→∞ n
lim 1 + = lim 1 + =?
n→∞ n n→∞ n
180
5.2 Folgen
Der Grenzwert in der Basis ist 1, der Grenzwert im Exponenten existiert jedoch nicht.
Daher ist diese Umformung ungültig. Der fragliche Grenzwert kann auf diese Methode
nicht bestimmt werden. (In Wirklichkeit ist der Grenzwert gleich der Eulerschen Zahl e.)
//
Verbreitet ist die Taktik, einfach für n einen sehr großen Wert einzusetzen. Dies muss
jedoch nicht unbedingt zum korrekten Ergebnis führen:
Direktes Anwenden der Rechenregeln führt zu „∞ −∞“, ist also erfolglos. Einsetzen eines
großen Wertes:
n:10^20;
n-sqrt(n^2+n+1);
float(%);
ergibt 0; das ist aber falsch und beruht auf Rundungsfehlern. Folgende Rechnung ist
korrekt:
√ √
p
2
n − n2 + n + 1 n + n2 + n + 1
lim n − n + n + 1 = lim √
n→∞ n→∞ n + n2 + n + 1
−n − 1 −1 − n1 1
= lim √ = lim q =− .
n→∞ n + n2 + n + 1 n→∞
1 + 1 + n1 + n12 2
//
a0 = 1, an+1 = an · (n + 1).
Für die Fakultät verwendet man die spezielle Schreibweise „n!“, gesprochen „n Fakultät“.
Die obige rekursive Definition lautet in dieser Schreibweise
0! = 1, (n + 1)! = n! · (n + 1).
181
5 Folgen, Reihen und Taylor-Entwicklung
0! = 1,
1! = 1 · 1 = 1,
2! = 1 · 2 = 2,
3! = 2 · 3 = 6,
4! = 6 · 4 = 24.
n! = 1 · 2 · 3 · · · · · n
gilt, was man als explizites Bildungsgesetz ansehen kann. Die Folgenglieder werden sehr
schnell sehr groß, die Folge der Fakultäten divergiert bestimmt gegen ∞.
Die Fakultät tritt sehr häufig im Zusammenhang mit der Taylor-Entwicklung (Ab-
schnitt 5.4) auf. Typisch sind Rechnungen, in denen verschiedene Fakultäten in Zähler
und Nenner eines Bruches gegeneinander gekürzt werden müssen.
Beispiel 5.12
(n + 1)! n! · (n + 1)
= = n + 1.
n! n!
//
Weitere Beispiele siehe Übungsblatt.
5.3 Reihen
5.3.1 Begriffe
Beispiel 5.13 Ein Ball wird aus 1 Meter Höhe fallen gelassen. Nach jedem Aufprall auf
dem Boden springt der Ball wieder hoch und erreicht dabei 80 % der vorherigen Höhe.
Welchen Weg legt der Ball insgesamt zurück?
//
182
5.3 Reihen
Das Summenzeichen ist ein weiteres Beispiel für ein Zeichen, das eine gebundene Variable
einführt. In dem Ausdruck
n−1
X
1+2· 0.8k
k=1
ist k eine gebundene Variable, jedoch ist n eine freie Variable. Für n kann man etwas
einsetzen, zum Beispiel 10:
9
X
b10 = 1 + 2 · 0.8k .
k=1
Für k kann man nichts einsetzen, jedoch kann man k durch einen beliebigen anderen
Buchstaben (außer n, weil das schon belegt ist) ersetzen:
n−1
X n−1
X
1+2· 0.8k = 1 + 2 · 0.8w
k=1 w=1
Einschätzungsfrage 5.14 Der Ball springt zwar immer wieder hoch, aber die Teilwege
werden dabei immer kürzer. Was passiert mit dem Gesamtweg, den der Ball zurücklegt?
Auflösung folgt. //
In dem Beispiel mit dem Ball geht es offenbar um eine Folge, deren Glieder durch
sukzessives Addieren der Glieder einer anderen Folge entstehen. Solche Folgen spielen eine
große Rolle. Sie sollen daher einen eigenen Namen bekommen und gesondert behandelt
werden.
Definition 5.15 Sei (an ) eine Folge. Unter der n-ten Partialsumme von (an ) verstehen
wir die Summe
X n
ak .
k=1
Die Folge der Partialsummen einer Folge nennt man Reihe.
Wenn die Nummerierung der Folge (an ) nicht bei 1 sondern bei einer anderen Zahl
beginnt, so beginnt dabei auch die Summe bei dieser anderen Zahl. Dies ist in der Regel
aus dem Zusammenhang erkennbar.
Eine Reihe ist also ein Spezialfall einer Folge. Es stellt sich somit auch bei einer Reihe
die Frage, ob sie konvergiert und, wenn ja, gegen welchen Grenzwert. Man benutzt die
vereinfachte Schreibweise
X∞ Xn
an = lim ak
n→∞
n=1 k=1
und spricht auch vom Summenwert der Reihe.
183
5 Folgen, Reihen und Taylor-Entwicklung
Beispiel 5.16 In Beispiel 5.13 haben wir die Folge (an ) (Folge der Teilwege), die definiert
ist durch:
a1 = 1,
an = 2 · 0.8n−1 , n ≥ 2.
lim an = 0.
n→∞
Andererseits haben wir die Folge (bn ) (Folge der Gesamtwege bis zum n-ten Aufprall).
Sie entsteht durch sukzessives Aufsummieren der Glieder der Folge (an ),
n
X n−1
X
bn = ak = 1 + 2 · 0.8k ,
k=1 k=1
und ist somit eine Reihe. In diesem Sinne ist Einschätzungsfrage 5.14 die Frage nach der
Konvergenz und ggfs. dem Grenzwert dieser Reihe:
∞
X ∞
X
lim bn = ak = 1 + 2 · 0.8k = ?
n→∞
k=1 k=1
Wir kennen jedoch bisher noch keine Möglichkeit, diese Frage zu entscheiden. //
184
5.3 Reihen
mit festem q ∈ R (oder auch q ∈ C). In diesem Fall kann man mit einem Trick eine al-
ternative Darstellung der Partialsummen finden und damit den Summenwert berechnen.
(Wir beginnen die Summe bei 0, weil das Ergebnis schöner ist. Derselbe Trick funktioniert
bei jedem beliebigen Startindex.) Für die n-te Partialsumme bn gilt:
bn = q 0 + q 1 + q 2 + · · · + q n | multipliziere mit q
q · bn = q 1 + q 2 + · · · + q n + q n+1 | subtrahiere von voriger Zeile
0 n+1
(1 − q) · bn = q −q | dividiere durch (1 − q)
1 − q n+1
bn =
1−q
Diese Rechnung ist immer zulässig außer für q = 1. In dem Spezialfall q = 1 ist
n
X
bn = 1 = n + 1.
k=0
Um jetzt den Grenzwert bilden zu können, ist eine weitere Fallunterscheidung notwendig.
Es ergibt sich:
X∞ 1 , |q| < 1,
n
q = 1−q
konvergiert nicht, |q| ≥ 1.
n=0
der Ball legt also einen Gesamtweg von 9 m zurück. Damit ist Einschätzungsfrage 5.14
beantwortet. //
Übung 5.18 Ein anderer Ball wird aus 2 m Höhe fallen gelassen und erreicht nach jedem
Aufprall 60 % der vorherigen Höhe. Welchen Gesamtweg legt dieser Ball zurück?
185
5 Folgen, Reihen und Taylor-Entwicklung
Zu Übung 5.18:
Eine Reihe kann also nur konvergieren, wenn die Folge der Summanden beliebig nahe
an null kommt, also gegen 0 konvergiert (eine Nullfolge) ist. Die Kontraposition dieser
Aussage ist:
konvergiert nicht, weil die Folge der Summanden gegen 2 (somit nicht gegen 0) konver-
giert. //
186
5.3 Reihen
der sogenannten harmonische Reihe, bilden eine Nullfolge. Trotzdem konvergiert die Rei-
he nicht, denn sie wächst über alle Grenzen:
1 1 1 1 1 1 1 1 1
1+ + + + +··· + + +··· + + +··· + +··· .
2 |3 {z 4} |5 {z 8} |9 {z 16
} | 17 {z 32
}
>2· 14 = 12 >4· 81 = 21 1
>8· 16 = 12 1
>16· 32 = 12
//
In einem Spezialfall gilt jedoch die Umkehrung des Trivialkriteriums (vergleiche Abbil-
dung 5.3):
Satz 5.23 (Leibniz-Kriterium) Ist (an ) eine Folge mit wechselndem Vorzeichen (also
abwechselnd positiv und negativ) und limn→∞ an = 0 sowie außerdem
Quasi als „Abfallprodukt“ erhält man noch eine sehr einfache Fehlerabschätzung ge-
schenkt:
Korollar 5.24 Unter den Voraussetzungen von Satz 5.23 gilt: Bricht man bei der Berech-
nung der Reihe
∞
X
ak
k=0
nach irgendeinem Glied ab, so ist der Fehler, den man dadurch macht, höchstens so groß
wie der Betrag des nächsten Gliedes. In Formeln:
n
X ∞
X
ak − ak ≤ |an+1 |.
k=0 k=0
187
5 Folgen, Reihen und Taylor-Entwicklung
a1
a3
a5
a4
a2
Abbildung 5.3: Leibniz-Kriterium: Wenn die Summanden einer Reihe abwechselnd posi-
tiv und negativ sind und dem Betrage nach monoton gegen 0 gehen, ist
der Grenzwert der Reihe in immer kleiner werdenden Intervallen „gefan-
gen“.
Satz 5.26 (Majoranten-/Minorantenkriterium) Seien (an ) und (bn ) zwei Folgen mit
0 ≤ a n ≤ bn für alle n.
P P P∞ P∞
Falls dann ∞n=0 bn konvergiert,
P∞ so auch ∞n=0 an , und dann ist
P∞ n=0 an ≤ n=0 bn .
Oder andersherum: Falls n=0 an divergiert, so divergiert auch n=0 bn .
Das Kriterium bezieht sich also auf Reihen, bei denen alle Summanden ≥ 0 sind. Eine
solche Reihe ist, als Folge betrachten, monoton wachsend. Ist sie nach oben beschränkt,
so konvergiert sie nach dem Monotoniekriterium für Folgen. Ist sie unbeschränkt, so hat
sie keine andere Möglichkeit, als bestimmt gegen ∞ zu divergieren. Der Summenwert
einer solchen Reihe,
∞
X
an ,
n=0
ist somit immer definiert, entweder eine Zahl oder das Symbol ∞. Das Majoranten-/
Minorantenkriterium besagt in diesem Sinne, dass man ein „≤“-Zeichen von den Sum-
manden auf die Reihe übertragen kann und die Reihe genau dann konvergiert, wenn ihr
Summenwert „kleiner als unendlich“ ist.
188
5.3 Reihen
Anders formuliert besagt das Kriterium also, dass man mit dem Symbol „∞“ in gewissem
Sinne wie mit einer Zahl umgehen darf, zumindest dann, wenn die Summanden aller
betrachteten Reihen ≥ 0 sind. Dass sich Unendlichkeiten ansonsten nämlich durchaus
anders als Zahlen verhalten können, werden wir bald sehen (Abschnitt ??).
Es folgen weitere Beispiele zu diesem Kriterium:
//
189
5 Folgen, Reihen und Taylor-Entwicklung
divergiert, denn
∞ ∞
X 1 X 1
√ ≥ =∞
n n
n=1 n=1
Einschätzungsfrage 5.31 Was ist für α zwischen 1 und 2? Mit anderen Worten, bei
welchem Wert von α ist genau die Grenze zwischen Konvergenz und Divergenz?
a) Konvergenz erst ab α = 2, Divergenz für alle α < 2.
190
5.3 Reihen
Spezielle Reihen
Name Formel Konvergenz Grenzwerta
∞
X 1
geometrische Reihe qn wenn |q|<1
1−q
n=0
∞
X 1
harmonische Reihe nein
n
n=1
∞
X (−1)n
alternierende harmonische Reihe ja (ln 2)
n
n=1
∞ π2
X 1
quadratische harmonische Reihe ja
n2 6
n=1
∞
X 1
allgemeine harmonische Reiheb wenn α > 1
nα
n=1
a
Eingeklammerte Grenzwerte sind nur der Vollständigkeit halber angegeben; sie verstehen sich
nicht als Bestandteil des Prüfungsstoffs.
b
Siehe auch nächstes Semester, in Zusammenhang mit uneigentlichen Integralen.
191
5 Folgen, Reihen und Taylor-Entwicklung
Für n → ∞ verliert das „+1“ im Nenner schnell an Bedeutung. Es bietet sich daher an,
die gegebene Reihe mit der Reihe
∞ ∞
X n X 1
=
n2 n
n=1 n=1
zu vergleichen. Dies ist die harmonische Reihe, die wir bereits aus Beispiel 5.22 kennen;
die divergiert. Gemäß Grenzwertkriterium berechnen wir
n
n2 +1 n2 1
lim 1 = lim = lim = 1.
n→∞ 2
n→∞ n + 1 n→∞ 1 + 12
n n
Das Kriterium greift also, somit divergiert auch die ursprünglich zu betrachtende Reihe.
//
Zu Übung 5.34:
192
5.4 Taylor-Entwicklung
Satz 5.35 (Quotientenkriterium) Sei (an ) eine Folge, für die der Grenzwert
an+1
L := lim
n→∞ an
wobei das Symbol „!“ die Fakultät (siehe Abschnitt 5.2.4) bezeichnet.
Gemäß Quotientenkriterium betrachten wir
1
(2(n+1))! (2n)! 1 · 2 · 3 · · · · · (2n)
L = lim 1 = lim = lim
n→∞
(2n)!
n→∞ (2n + 2)! n→∞ 1 · 2 · 3 · · · · · (2n) · (2n + 1) · (2n + 2)
1
= lim = 0 < 1.
n→∞ |(2n + 1)(2n + 2)|
5.4 Taylor-Entwicklung
Nachdem jetzt ein Teil der notwendigen Begrifflichkeit aufgebaut wurde, kehren wir zur
eingangs erwähnten Fragestellung zurück: der Annäherung einer gegebenen Funktion
durch einfachere Funktionen.
Einschätzungsfrage 5.37 Als Abfallprodukt ergibt sich gegen Ende des Abschnitts eine
einfache Berechnungsmethode für eine Fragestellung aus dem Alltag. Was könnte das
sein?
193
5 Folgen, Reihen und Taylor-Entwicklung
2. Leibniz-Kriterium
3. Quotientenkriterium
Auflösung folgt. //
5.4.1 Mac-Laurin-Polynome
Als Leitbeispiel in diesem Abschnitt betrachten wir die e-Funktion
f : R → R, x 7→ ex .
Zwar kann jeder Taschenrechner die e-Funktion an beliebiger Stelle auswerten, aber wie
macht er das? Man stelle sich vor, es soll ein Taschenrechner konstruiert werden; wie
implementiert man dann die Auswertung der e-Funktion?
Lediglich die Implementation der Grundrechenarten ist im Prinzip klar. Aus der Grund-
schule ist das Vorgehen bekannt; das nötige Know-How über den Bau elektronischer Ge-
räte vorausgesetzt, könnte man also einen Taschenrechner bauen, der die Operationen
„+“, „−“, „·“ und „:“ beherrscht.
Wir stellen jetzt zusammen, welche exakten Informationen wir über die e-Funktion
haben. Das ist eigentlich nicht viel:
• Die Werte aller Ableitungen im Nullpunkt sind genauso: f (k) (0) = 1 für alle k.
Ein sinnvolles Ziel könnte also sein, nur unter Benutzung der Grundrechenarten Funk-
tionen zu konstruieren, die die e-Funktion in der Nähe des Nullpunkts gut annähern.
Wir verzichten sogar zunächst noch auf die „komplizierteste“ Grundrechenart, nämlich
die Division3 , und stellen fest, dass die mit den übrigen Rechenarten zusammensetzbaren
3
Es wird sich jedoch gleich herausstellen, dass die Division dennoch dabei benötigt wird, siehe (5.1).
194
5.4 Taylor-Entwicklung
Wir versuchen somit, die e-Funktion (oder später andere Funktionen) in der Nähe des
Nullpunktes durch Polynome anzunähern. Die Grundidee dabei besteht in der Konstruk-
tion von Polynomen, die den Funktionswert und möglichst viele Ableitungen einer gege-
benen Funktion f im Nullpunkt annehmen:
!
p(k)
n (0) = f
(k)
(0) für möglichst viele k.
Es ergibt sich:
pn (0) = a0 ⇒ a0 = f (0),
2 3 n−1
p′n (x) = a1 + 2a2 x + 3a3 x + 4a4 x + · · · + nan x ,
p′n (0) = a1 ⇒ a1 = f ′ (0),
p′′n (x) = 2a2 + 3 · 2a3 x + 4 · 3a4 x2 + 5 · 4a5 x3 + · · · + n · (n − 1)an xn−2 ,
1
p′′n (0) = 2a2 ⇒ a2 = f ′′ (0)
2
(k)
Es gibt also genau ein Polynom pn vom Grad n, das die Bedingung pn (0) = f (k) (0) für
alle k ≤ n erfüllt, es ist gegeben durch die Koeffizienten
1 (k)
ak = f (0),
k!
195
5 Folgen, Reihen und Taylor-Entwicklung
Am Beispiel der e-Funktion, also f (k) (0) = 1 für alle k, ergibt sich:
a0 = 1, p0 (x) = 1,
a1 = 1, p1 (x) = 1 + x,
1 1
a2 = , p2 (x) = 1 + x + x2 ,
2 2
1 1 1 3
a3 = , p3 (x) = 1 + x + x2 + x ,
6 2 6
1 1 1 3 1 4
a4 = , p4 (x) = 1 + x + x2 + x + x ,
24 2 6 24
1 1 1 3 1 4 1 5
a5 = , p5 (x) = 1 + x + x2 + x + x + x ,
120 2 6 24 120
n
1 X 1 k
an = , pn (x) = x .
n! k!
k=0
plot2d([exp(x),1+x],[x,-2,2],[y,-1,8]);
• Wie geht das, wenn die gegebenen Werte nicht an der Stelle x = 0, sondern an einer
anderen Stelle vorliegen? Dieser Frage werden wir in Abschnitt 5.4.2 nachgehen.
• Funktioniert das immer, egal wie groß x ist? Dies wird in Abschnitt 5.4.3 untersucht
werden.
Einschätzungsfrage 5.38 Was passiert am Beispiel der e-Funktion immer weiter weg
vom Nullpunkt (also für immer größere x)?
a) Für zu große x lässt sich die Funktion nicht mehr durch Taylor-Polynome annähern;
und zwar ab x =
b) Wenn man den Grad n genügend groß macht, erhält man ein Polynom, das die
Funktion für alle x ∈ R hinreichend genau annähert; und zwar ab n =
c) Man kann die Funktion überall hinreichend genau annähern, aber je größer x ist,
desto größer muss man den Grad n wählen.
Auflösung folgt. //
5.4.2 Taylor-Polynome
Wir betrachten jetzt den Fall, dass der Funktionswert von f und von allen Ableitungen
statt im Nullpunkt an einer anderen Stelle x∗ gegeben sind. Es seien also f (k) (x∗ ) bekannt
196
5.4 Taylor-Entwicklung
für alle k und ein festes x∗ . Gesucht ist ein Polynom pn (x), das möglichst viele der
gegebenen Werte in x∗ annimmt. Eine einfache Berechnungsvorschrift erhält man durch
folgende Überlegung: Man verschiebt die gegebene Funktion f (x) in der Definitionsmenge
so, dass die feste Stelle x∗ in den Nullpunkt verschoben wird. Die verschobene Funktion
heiße g(x). In Formeln heißt das:
g(x) = f (x + x∗ ).
Damit dieses Polynom eine Näherung an f (x) darstellt, muss es jetzt nur noch zurück
verschoben werden. Daraus ergibt sich:
n
X 1 (k) ∗
pn (x) = f (x )(x − x∗ )k . (5.2)
k!
k=0
197
5 Folgen, Reihen und Taylor-Entwicklung
Sie ist in der Stelle 0 nicht differenzierbar, wir wählen daher x∗ = 1. Es gilt:
198
5.4 Taylor-Entwicklung
und die Frage ist, ob die pn für wachsendes n eine gute Näherung für f darstellen. Mit
anderen Worten, die Frage ist, ob
ist oder nicht. Es geht also um Konvergenz einer Folge. Allerdings hängen hier Folgen-
glieder und potenzieller Grenzwert von einer Variablen x ab; sie sind Funktionen. Dabei
kann es freilich sein, dass die Konvergenz nur für manche Werte von x gilt. Für Folgen
von Funktionen pn spricht man von punktweiser Konvergenz auf einer Menge M ⊂ R,
wenn die Folge der Werte pn (x) für jedes x ∈ M konvergiert. (Im Beispiel 5.39 sieht es
zum Beispiel so aus, als ob die Folge der Taylor-Polynome auf [0, 2] konvergiert, jedoch
nicht darüber hinaus.)
Formal ist
n
X ∞
X
lim pn (x) = lim ak (x − x∗ )k = ak (x − x∗ )k .
n→∞ n→∞
k=0 k=0
Es handelt sich in Wirklichkeit also um eine Reihe. Dabei sind die Summanden im We-
sentlichen Potenzen von (x−x∗ ). Man spricht daher von einer Potenzreihe. Speziell haben
wir es mit der Situation zu tun, dass die Koeffizienten ak die Koeffizienten der Taylor-
Polynome sind (ak = (1/k!)f (k) (x∗ )), in diesem Fall spricht man von der Taylor-Reihe
von f im Punkt x∗ . Falls x∗ = 0 ist, spricht man auch wieder von der Mac-Laurin-Reihe
von f .
//
x∗ − r und x∗ + r,
wobei x∗ der Entwicklungspunkt ist und r eine positive Zahl, der sogenannte Konver-
genzradius. Um festzustellen, ob das Intervall offen oder abgeschlossen (oder halboffen)
ist, müssen die Intervallgrenzen x∗ ± r in die Reihen eingesetzt und deren Konvergenz-
verhalten an dieser Stelle mit einem anderen Kriterium untersucht werden.
199
5 Folgen, Reihen und Taylor-Entwicklung
Das ist die harmonische Reihe (Beispiel 5.22), von der wir schon wissen, dass sie diver-
giert. Für x = 5 hingegen lautet die Reihe
∞ ∞
X 2n X (−1)n
(−1)n · = ,
n · 2n n
n=1 n=1
also die alternierende harmonische Reihe, die, wie erinnerlich, nach dem Leibniz-Kriterium
konvergiert.
Der Konvergenzbereich der untersuchten Potenzreihe ist also das halboffene Intervall
Sie können jetzt aus (1, 5].
der Probeklausur 2021
die Aufgabe 7 bearbei- //
ten.
Dieses Beispiel zeigt, dass das Verhalten in den Randpunkten uneinheitlich sein kann und
eine gesonderte Untersuchung unabdinglich ist, sofern diese Information überhaupt benö-
tigt wird. Häufig ist es jedoch für die Anwendung nicht relevant, ob in den Randpunkten
Konvergenz vorliegt oder nicht.
Wir fahren fort mit weiteren Beispielen zur Berechnung des Konvergenzradius.
√
Beispiel 5.42 Für die Wurzelfunktion f (x) = x im Entwicklungspunkt x∗ = 1 kennen
wir schon die Taylor-Reihe
∞
X (−1)n · (2n)!
· (x − 1)n .
(1 − 2n) · (n!)2 · 4n
n=0
200
5.4 Taylor-Entwicklung
Die Reihe konvergiert für L < 1, also auf (0, 2), und sie divergiert für L > 1, also
außerhalb von [0, 2], was mit unserer Beobachtung übereinstimmt. Der Konvergenzradius
ist somit gleich 1. Die Untersuchung der Randpunkte sparen wir uns.
Dies Beispiel zeigt jedoch noch etwas anderes: Die Wurzelfunktion ist, wie wir wis-
sen, jenseits von x = 0 nicht definiert, daher ist es auch nicht verwunderlich, dass ihre
Taylor-Reihe dort nicht konvergiert. Durch die Singularität der Funktion ist dem Kon-
vergenzintervall also eine natürliche Grenze gesetzt. Da der Konvergenzradius stets in
beide Richtungen gleich groß ist, folgt daraus bereits zwangsläufig, dass die Reihe für
x > 2 ebenfalls nicht konvergieren kann. //
Beispiel 5.43 Für die e-Funktion f (x) = ex mit Entwicklungspunkt x∗ = 0 kennen wir
schon die Taylor-Reihe
∞
X 1 n
x .
n!
n=0
Unabhängig von x ist also immer L < 1, so dass die Reihe konvergiert. Man sagt in
diesem Fall, die Potenzreihe konvergiert beständig. Formal hat der Konvergenzradius
den Wert ∞. Dies ist eine Teil-Antwort auf die Einschätzungsfrage 5.38.
Außerdem ermöglicht uns dieses Resultat, eine Lücke im vorigen Stoff zu füllen: In
Abschnitt 1.8 ist nämlich die formale Definition der e-Funktion (und damit auch von
beliebigen Potenzen mit irrationalen Exponenten) offen geblieben. Die Taylor-Reihe stellt
in der Tat eine Möglichkeit dar, die e-Funktion formal zu definieren. //
201
5 Folgen, Reihen und Taylor-Entwicklung
Zu Übung 5.44:
202
5.4 Taylor-Entwicklung
Beispiel 5.45 Wir wollen die Taylor-Reihe der Kosinusfunktion f (x) = cos x im Ent-
wicklungspunkt x∗ = 0 und ihren Konvergenzradius bestimmen. Die Ableitungen sind
zyklisch − sin x, − cos x, sin x und cos x. Für die Ableitungen in x∗ = 0 ergibt sich somit:
1,
falls n durch 4 teilbar,
(n)
f (0) = −1, falls n durch 2, aber nicht durch 4 teilbar,
0, falls n ungerade.
Es treten nur die geraden Potenzen auf. Dies korreliert mit der Tatsache, dass die Ko-
sinusfunktion eine gerade Funktion ist. Analog treten bei ungeraden Funktionen in der
Taylor-Reihe (im Nullpunkt) nur ungerade Potenzen auf.
Für die Berechnung des Konvergenzintervalls verwenden wir wieder das Quotienten-
kriterium:
(−1)n+1 x2n+2 (2n)! x2 1
L = lim n 2n
= lim = |x|2 · lim
n→∞ (2n + 2)!(−1) x n→∞ (2n + 1)(2n + 2) n→∞ (2n + 1)(2n + 2)
= 0. Sie können jetzt aus
der Probeklausur Som-
Wie bereits bei der e-Funktion liegt also auch hier beständige Konvergenz vor, der Kon- mer 2019 die Aufga-
vergenzradius ist ∞. // be 3 bearbeiten.
Beispiel 5.46 Die geometrische Reihe ist selbst eine Potenzreihe, nämlich
∞
X 1
xn =
1−x
n=0
203
5 Folgen, Reihen und Taylor-Entwicklung
Berechnung:
1. Anwenden des Quotientenkriteriums auf die komplette Potenzreihe ergibt
Intervallgrenzen (und somit indirekt den Konvergenzradius).
2. Falls nötig, muss das Konvergenzverhalten in den Randpunkten mit an-
deren Kriterien untersucht werden.
Beständige Konvergenz: Liegt vor, wenn die Potenzreihe auf ganz R konvergiert.
Formal ist der Konvergenzradius r = ∞.
mit Konvergenzradius 1. Durch Einsetzen von −x2 in diese Reihe erhält man
∞ ∞
1 X X
2
= (−x2 )n = (−1)n x2n ,
1+x
n=0 n=0
was somit ebenfalls den Konvergenzradius 1 haben muss. Durch gliedweises Integrieren
erhält man somit
∞
X (−1)n 2n+1
arctan x = x + c,
2n + 1
n=0
0 = 0 + c.
//
204
5.4 Taylor-Entwicklung
Häufig findet man zwar keine geschlossene Darstellung der kompletten Potenzreihe,
kann sie aber mit dieser Methode bis zu einer beliebigen, vorgegebenen Ordnung ent-
wickeln (das heißt, man kann das Taylor-Polynom eines gegebenen Grades bestimmen).
Hierbei ist die sogenannte Groß-O-Schreibweise sehr nützlich: Diese besteht darin, dass
man nach einigen Gliedern der Potenzreihe das Weglassen der übrigen nicht durch „· · · “
andeutet sondern durch einen Ausdruck der Form „O(xn )“, womit man meint, dass alle
weggelassenen Terme mindestens den Faktor xn enthalten.
Weiterhin kennen wir die Potenzreihe des Kosinus (siehe Beispiel 5.45):
∞
X (−1)n 1 2 1 1
cos x = x2n = 1 − x + x4 − x6 + O(x8 ). (5.3)
(2n)! 2! 4! 6!
n=0
Nun ist
1 1
= ,
cos x 1 − (1 − cos x)
wir müssen also 1 − cos x in die Reihe für 1/(1−x) einsetzen. Aus (5.3) ergibt sich offenbar
1 1 1 6
1 − cos x = x2 − x4 + x + O(x8 ),
2 24 720
somit
1 1 1 1 6 1 1 1 6 2
=1+ x2 − x4 + x + O(x8 ) + x2 − x4 + x + O(x8 )
cos x 2 24 720 2 24 720
1 1 1 3
+ x2 − x4 + x6 + O(x8 ) + O((x2 )4 ).
2 24 720
Beim Ausmultiplizieren kann man dann alle Terme, die mindestens x8 enthalten, sofort
weglassen, weil sie nicht gefragt sind und in dem ohnehin enthaltenen „O(x8 )“ aufgehen.
Wie erhalten also:
1 1 1 1 6 1 2 1 1 1 2 3
= 1 + x2 − x4 + x + O(x8 ) + x2 − 2 · x2 · x4 + x
cos x 2 24 720 2 2 24 2
1 1 1 6 1 4 1 1
= 1 + x2 − x4 + x + x − x6 + x6 + O(x8 )
2 24 720 4 24 8
1 2 5 4 61 6 8
=1+ x + x + x + O(x ).
2 24 720
205
5 Folgen, Reihen und Taylor-Entwicklung
206
5.4 Taylor-Entwicklung
im Nullpunkt bestimmen. Dazu müssen wir die vorherige Potenzreihe lediglich gliedweise
integrieren und erhalten
Z x Z x
ξ
p 3 7 17
F (x) = e · ξ + 1 dξ = 1 + ξ + ξ 2 + ξ 3 + O(ξ 4 ) dξ
0 0 2 8 48
ξ=x
3 7 17 4
= ξ + ξ2 + ξ3 + ξ + O(ξ 5 )
4 24 192 ξ=0
3 7 17 4
= x + x2 + x3 + x + O(x5 ),
4 24 192
was somit ebenfalls Konvergenzradius 1 hat. //
Man beachte, dass man durch das Integrieren automatisch einen Polynomgrad gewinnt.
Übung 5.49 Entwickeln Sie auf dieselbe Weise die Funktion f (x) = cos(x) · sin(2x) im
Nullpunkt bis x3 .
5.4.5 Fehlerabschätzungen
Sei f eine Funktion und pn ihr Taylor-Polynom vom Grad n mit Entwicklungspunkt x∗ ,
und weiter sei r der Konvergenzradius der Taylor-Reihe. Für |x − x∗ | < r wissen wir
dann, dass der Grenzwert limn→∞ pn (x) existiert. Die Frage, wie groß aber für festes n
die Abweichung
|f (x) − pn (x)|
ist (also gewissermaßen der Fehler beim Annähern von f (x) durch das Taylor-Polynom),
können wir noch nicht beantworten. Gerade diese Frage ist aber für die Anwendung ent-
scheidend: Typischerweise hat man eine Vorgabe in der Form, dass man bei der Näherung
einen bestimmten Maximalfehler nicht überschreiten darf, und gefragt ist, bis zu welchem
Grad n man die Taylor-Reihe hierfür entwickeln muss.
Falls die Taylor-Reihe die Voraussetzungen des Leibniz-Kriteriums erfüllt, ist dadurch
automatisch eine Abschätzung des Restglieds gegeben:
Satz 5.50 Erfüllt die Taylor-Reihe, ausgewertet in x, die Voraussetzungen des Leibniz-
Kriteriums (Satz 5.23) (das heißt, die Summanden haben abwechselndes Vorzeichen, sind
dem Betrage nach monoton fallend und konvergieren gegen null), so kann der Fehler
|f (x) − pn (x)| abgeschätzt werden durch das nächste nicht-verschwindenden Glied in der
Taylor-Reihe.5 In Formeln:
1
|f (x) − pn (x)| ≤ |f (n+1) (x∗ )| · |x − x∗ |n+1 .
(n + 1)!
5
Es gibt allerdings Funktionen, deren Taylor-Reihe zwar konvergiert, jedoch nicht gegen das Richtige.
Für solche Funktionen ist die hier dargestellte Fehlerabschätzung falsch. In ingenieurwissenschaft-
lichen Anwendungen treten solche Funktionen jedoch praktisch nicht auf, weswegen wir auf diese
Problematik hier nicht weiter eingehen. Mit der Restglieddarstellung von Lagrange hingegen (siehe
Satz 5.51) ist man immer auf der sicheren Seite.
207
5 Folgen, Reihen und Taylor-Entwicklung
Dieser Satz ermöglicht eine sehr einfache Abschätzung, ist jedoch nur in bestimmten
Fällen anwendbar. Eine Alternative bildet die sogenannte Restglieddarstellung nach La-
grange:
1
f (x) − pn (x) = f (n+1) (ξ) · (x − x∗ )n+1 ,
(n + 1)!
Zum besseren Verständnis betrachten wir den Fall n = 0, der auch für sich interessant
ist. p0 (x) ist die Konstante f (x∗ ), der Satz besagt dann also
Durch Umstellen der Formel und Ändern der Variablennamen erhält man:
Satz 5.52 (Mittelwertsatz der Differenzialrechnung) Sei f auf [a, b] differenzierbar, dann
existiert ein ξ ∈ (a, b) mit
f (b) − f (a)
f ′ (ξ) = .
b−a
Dieser Satz lässt sich gut geometrisch veranschaulichen: Die linke Seite, f ′ (ξ), ist (nach
Definition der Ableitung) die Tangentensteigung an f (x) an einer (unbekannten) Stelle
ξ, während die rechte Seite genau die Steigung der Sekante, die den Funktionsgraphen an
den Intervallenden a und b schneidet, beschreibt (siehe Abbildung 5.4). Der Satz besagt
also: Ist f auf [a, b] differenzierbar, so existiert irgendwo in dem Intervall eine Stelle, an
der die Tangente dieselbe Steigung hat wie die Sekante.6
Im Allgemeinen hat man in der Restglieddarstellung keine Möglichkeit, den Wert von
ξ genauer zu bestimmen. Für eine Abschätzung genügt es aber, einfach das Maximum
von |f n+1 (ξ)| über das gesamte in Frage kommende Intervall [x, x∗ ] zu bilden.
Wir fassen beide Fehlerabschätzungen wie folgt zusammen:
Satz 5.53 Für den Fehler eines Taylor-Polynoms gilt die Abschätzung
1 |f (n+1) (x∗ )|,
falls die Taylor-Reihe nach
∗ n+1
|f (x) − pn (x)| ≤ |x − x | · Leibniz konvergiert,
(n + 1)!
max ∗ |f (n+1) |, immer.
[x ,x]
Falls x < x∗ ist, muss das Intervall [x∗ , x] freilich durch [x, x∗ ] ersetzt werden.
6
Mathematisch korrekt geht man in umgekehrter Reihenfolge vor: Man beweist zuerst den Mittelwert-
satz (vorher noch einen Spezialfall, den sogenannten Satz von Rolle) und mit dessen Hilfe erst die
Lagrangesche Restglieddarstellung.
208
5.4 Taylor-Entwicklung
y
ente
Tang
f ( x)
f (b)
nte
Seka
f (a)
a ξ b
209
5 Folgen, Reihen und Taylor-Entwicklung
Beispiel 5.54 Wir können jetzt Einschätzungsfrage 5.38 vollständig beantworten. Im Fal-
le der e-Funktion sind alle Ableitungen gleich, also f (n+1) = f . Wenn x größer wird, wird
der Term max[x∗ ,x] |f (n+1) | größer, man kann aber durch Erhöhen von n gegensteuern,
weil dann ja der Term 1/(n+1)! kleiner wird. //
Beispiel 5.55 Wir wollen den Zahlenwert der Eulerschen Zahl e möglichst genau berech-
nen. Wir benutzen dafür die Taylor-Entwicklung der e-Funktion
f (x) = ex
eξ
e − pn (1) = f (1) − pn (1) = , ξ ∈ (0, 1),
(n + 1)!
und somit
e
0 ≤ e − pn (1) ≤ .
(n + 1)!
Addieren von pn (1) zu der gesamten Ungleichung ergibt für die gesuchte Zahl e die
Einschachtelung
e
pn (1) ≤ e ≤ pn (1) + . (5.4)
(n + 1)!
Jetzt haben wir ein Problem: Um die obere Schranke für den zu bestimmenden Wert e
zu berechnen, müssen wir den Wert von e bereits kennen; die Katze beißt sich also in
den Schwanz. Eine Möglichkeit, dieses Problem zu umgehen, besteht darin, den rechten
Teil der Ungleichung (5.4) nach e aufzulösen, indem man den Term e/(n+1)! abzieht und
dann links e ausklammert und durch die Klammer teilt. Man erhält dann
1 −1
pn (1) ≤ e ≤ 1 − · pn (1),
(n + 1)!
210
5.4 Taylor-Entwicklung
Je größer n, desto genauer sind die Abschätzungen, wobei trotzdem immer nur Grund-
rechenarten verwendet werden. Beispielsweise erhält man mit n = 11 den Wert von e
bereits garantiert auf sieben Nachkommastellen genau.
//
f ′ (x) = α · (x + 1)α−1 ,
f ′′ (x) = α · (α − 1) · (x + 1)α−2 ,
f ′′′ (x) = α · (α − 1) · (α − 2) · (x + 1)α−3 ,
211
5 Folgen, Reihen und Taylor-Entwicklung
bzw. allgemein
und somit
α α · (α − 1) · (α − 2) · · · · · (α − k + 1)
= .
k k!
1
√
3
= (x + 1)−1/3 .
x+1
Zu Übung 5.56:
212
5.4 Taylor-Entwicklung
Da es sich um eine endliche Summe handelt, stellt sich auch die Frage der Konvergenz
überhaupt nicht mehr. (Formal wäre der Konvergenzradius ∞.)
Weiterhin kann man das Produkt im Zähler der Binomialkoeffizienten vereinfacht
schreiben, nämlich
n!
n · (n − 1) · (n − 2) · · · · · (n − k + 1) = ,
(n − k)!
woraus sich die übersichtlichere Darstellung
n n!
= (5.6)
k k!(n − k)!
ergibt.
(x + 1)n = (x + 1)(x + 1) · · · (x + 1)
der Term xk auftaucht, mit anderen Worten wie viele Möglichkeiten es gibt, genau k-mal
x auszuwählen. Indem man das Produkt zerlegt in
213
5 Folgen, Reihen und Taylor-Entwicklung
Beispiel 5.58 Die Koeffizienten des Binoms (x + 1)5 findet man in der 5-ten Zeile des
Pascalschen Dreiecks. Es gilt also
(x + 1)5 = 1 + 5x + 10x2 + 10x3 + 5x4 + x5 .
Durch stures Ausmultiplizieren hätte man das auch erhalten, jedoch mit wesentlich mehr
Aufwand. //
Die beschriebene Rechenvorschrift ist allerdings rekursiv. Möchte man einen Wert nk
für ein großes n berechnen, so ist nach wie vor die Formel (5.6) zu bevorzugen.
Unter Benutzung von (5.5) erhält man mit einem Trick auch eine Darstellung von
(x + y)n , nämlich
n x n n n
x X n k −k X n k n−k
(x + y)n = y · +1 = yn + 1 = yn x y = x y .
y y k k
k=0 k=0
214
5.4 Taylor-Entwicklung
Diese Formel ist als der binomische Lehrsatz bekannt und wird häufig benutzt.
Binomialkoeffizienten haben auch eine Anwendung in der Kombinatorik und Wahr-
scheinlichkeitsrechnung:
49
Beispiel 5.59 Der Wert 6 ist nach Definition der Koeffizient von x6 in dem Ausdruck
(x + 1)49 = (x + 1) · (x + 1) · (x + 1) · · · · · (x + 1) .
| {z }
49
Er bezeichnet somit die Anzahl der Möglichkeiten, beim Ausmultiplizieren von 49 Termen
vom Typ „(x + 1)“ genau 6-mal das „x“ zu wählen. Allgemein bezeichnet dieser Wert
also die Anzahl der Möglichkeiten, aus 49 Dingen genau 6 Stück auszuwählen, somit
insbesondere auch die Anzahl der möglichen Tipps im Lotto „6 aus 49“. Die Berechnung
über das Pascalsche Dreieck ist hierfür eher ungeeignet, weil man 49 Zeilen des Dreiecks
berechnen müsste, aber die Formel (5.6) ergibt
49 49! 49 · 48 · 47 · 46 · 45 · 44
= = = 13 983 816.
6 6! · 43! 1·2·3·4·5·6
215
5 Folgen, Reihen und Taylor-Entwicklung
Die Wahrscheinlichkeit, mit einem Tipp sechs Richtige zu erlangen, ist also
1
.
13 983 816
Seit Einführung der Superzahl im Jahr 1991 ist die Chance auf die höchste Gewinnklasse
nochmals um einen Faktor 10 geringer, liegt jetzt also bei
1
.
139 838 160
Damit ist auch Einschätzungsfrage 5.37 beantwortet. //
Übung 5.60 In Österreich ist das Lotto „6 aus 45“ üblich. Bestimmen Sie hierfür die
Anzahl der möglichen Tipps.
Zu Übung 5.60:
Sofern also f in einer Umgebung von x∗ hinreichend glatt (das heißt, genügend häufig
differenzierbar) ist, stellt ein Taylor-Polynom in einer genügend kleinen Umgebung des
Entwicklungspunkts stets eine gute Näherung der Funktion dar, denn für x → x∗ geht
der Faktor |x − x∗ |n+1 gegen null.7
Die Taylor-Polynome elementarer Funktionen werden in der Praxis häufig als Nähe-
rungsformeln herangezogen, zum Beispiel für Überschlagsrechnungen. Man spricht dabei
von der ersten, zweiten, n-ten Näherung, wenn die Taylor-Reihe nach dem ersten, zwei-
ten, n-ten nicht-verschwindenden Glied abgebrochen wird, wobei das konstante Glied
7
Im Unterschied zu den vorigen Betrachtungen ist hier nicht x fest und n → ∞ (in welchem Fall nicht
unbedingt Konvergenz vorliegen muss), sondern es ist n fest, und es wird der Fall x → x∗ betrachtet.
Die Aussage ist also: Für jedes n ist das n-te Taylor-Polynom auf einer genügend kleinen Umgebung
von x∗ eine gute Näherung der Funktion. Für n → ∞ kann es freilich passieren, dass diese Umgebung
beliebig klein wird.
216
5.4 Taylor-Entwicklung
∞
1 X
= (−1)n xn = 1 − x + x2 − x3 + x4 ∓ · · · , |x| < 1,
1+x
n=0
∞
X 1 n 1 1 1
ex = x = 1 + x + x2 + x3 + x4 + · · · , x ∈ R,
n! 2 6 4!
n=0
∞
X (−1)n 2n+1 1 1 1
sin x = x = x − x3 + x5 − x7 ± · · · , x ∈ R,
(2n + 1)! 6 5! 7!
n=0
∞
X (−1)n 2n 1 1 1
cos x = x = 1 − x2 + x4 − x6 ± · · · , x ∈ R,
(2n)! 2 4! 6!
n=0
∞
X (−1)n+1 n 1 1 1
ln(1 + x) = x = x − x2 + x3 − x4 ± · · · , |x| < 1,
n 2 3 4
n=1
∞
√ X (−1)n (2n)! 1 1 1 5 4
1+x= xn = 1 + x − x2 + x3 − x ± · · · , |x| < 1,
(1 − 2n)(n!)2 4n 2 8 16 128
n=0
∞
α
X α n α(α − 1) 2 α(α − 1)(α − 2) 3
(1 + x) = x = 1 + αx + x + x + · · · , |x| < 1.
n 2! 3!
n=0
In der letzten Formel ist α ∈ R beliebig. Im Spezialfall α ∈ N ∪ {0} bricht die Reihe ab
und entspricht dem binomischen Lehrsatz, der für alle x ∈ R gültig ist.
nicht mitgezählt wird. Zum Beispiel erhält man (vergleiche Beispiel 5.45) für x ≈ 0 die
folgenden Näherungen für die Kosinusfunktion:
1
1. Näherung: cos x ≈ 1 − x2 ,
2
1 1
2. Näherung: cos x ≈ 1 − x2 + x4 .
2 24
217
5 Folgen, Reihen und Taylor-Entwicklung
Dies ist die Eulersche Formel, die wir bereits in Abschnitt 2.4.3 benutzt haben. Ihre
Richtigkeit haben wir somit nachträglich begründet.
denn zu jedem ε > 0 existiert eine Umgebung von 3, in der die Werte der Funktion x2
im Bereich [9 − ε, 9 + ε] sind. Das ist freilich nicht überraschend, denn die Funktion x2
ist im Punkt 3 stetig (sie ist ja sogar überall stetig). In der Tat gilt:
Es gilt hier auch die Umkehrung, und man kann dies auch für die Definition der Stetigkeit
hernehmen.
Mit dem Begriff des Grenzwertes einer Funktion können wir jetzt endlich auch die
Ableitung einer Funktion formal definieren. Die anschaulichen Überlegungen aus Ab-
schnitt 4.2.1 führen zu der Formel
f (x + h) − f (x)
f ′ (x) = lim .
h→0 h
Darüber hinaus ist dieses Konzept auch in folgenden Fällen nützlich:
218
5.5 Grenzwerte von Funktionen
x2 − 1
lim = 2;
x→1 x − 1
2x2 + 3x + 4
lim = 2.
x→∞ x2 − 5x − 9
Die beiden Beispiele sind gebrochenrationale Funktionen, mit denen wir uns in Ab-
schnitt 1.6 ausführlich beschäftigt haben, deswegen wissen wir, wie wir diese Grenzwerte
berechnen können. Wie können wir aber feststellen, ob etwa die Grenzwerte
sin x 1 − cos x π
lim x , lim √ , lim x − tan x
x→0 e − 1 x→0 x x→π/2 2
und so weiter, sofern jeweils die rechte Seite existiert (vgl. Abschnitt 5.2.3). Das ist gut
zu wissen, hilft aber für die obigen Beispiele nicht wirklich weiter.
f (x)
lim∗
x→x g(x)
gefragt ist, wobei f (x∗ ) = g(x∗ ) = 0 ist. Man spricht hier auch von einem Grenzwert
vom „Typ 0/0“. Angenommen, f und g sind genügend häufig differenzierbar, dann können
wir sie in eine Taylor-Reihe entwickeln, und es steht da
falls dieses existiert. Dieselbe Regel gilt für Grenzwerte vom Typ ∞/∞ sowie auch für
limx→±∞ . Genau lautet die Regel:
219
5 Folgen, Reihen und Taylor-Entwicklung
Satz 5.62 (Regel von de L’Hospital8 ) Sei (a, b) ein Intervall, wobei b = ∞ zugelassen
ist, und seien f und g auf (a, b) differenzierbar, wobei g in (a, b) keine Nullstelle hat, und
sei
dann gilt
f (x) f ′ (x)
lim = lim ′ ,
x→b g(x) x→b g (x)
Anmerkungen:
• Falls limx→b f ′ (x)/g ′ (x) nicht existiert, ist keine Aussage über limx→b f (x)/g(x)
möglich.
• Falls f ′ /g ′ im Punkt b wieder vom Typ 0/0 oder ∞/∞ ist, kann es erfolgreich sein,
die Regel ein zweites (gegebenenfalls drittes, . . . ) Mal anzuwenden.
• Grenzwerte von den Typen 0 · ∞, ∞ − ∞ und ähnliche können nicht direkt mit
dieser Regel behandelt werden, lassen sich jedoch manchmal bestimmen, indem
man sie mit elementaren Umformungen auf eine der Formen 0/0 oder ∞/∞ bringt.
• Falls g in der Nähe von b unendlich viele Nullstellen hat, gilt die Regel nicht. (Solche
Funktionen treten aber in der Praxis typischerweise nicht auf.)
sin x
lim .
x→0 ex − 1
Dies ist vom Typ 0/0, wir wenden die Regel an und erhalten
sin x cos x 1
lim x
= lim x = = 1.
x→0 e − 1 x→0 e 1
//
1 − cos x
lim √ .
x→0 x
8
Die französische Originalschreibweise lautet „de L’Hôpital“, im Deutschen hat sich jedoch die Schreib-
weise „de L’Hospital“ durchgesetzt.
220
5.5 Grenzwerte von Funktionen
Zu Übung 5.64:
x4
lim .
x→∞ ex
Dies ist vom Typ ∞/∞, wir wenden die Regel an und erhalten
x4 4x3
lim = lim .
x→∞ ex x→∞ ex
//
221
5 Folgen, Reihen und Taylor-Entwicklung
x2 + sin x
lim .
x→∞ x2
Dies ist vom Typ ∞/∞, wir wenden die Regel zweimal an und erhalten
Beispiel 5.69 In Beispiel 5.67 musste beim Ableiten zweimal die Produktregel angewandt
werden. Die Entwicklung
1
sin x = x − x3 + O(x5 )
6
ermöglicht folgende, einfachere Rechnung:
1 1 sin x − x x − 16 x3 + O(x5 ) − x − 61 x3 + O(x5 )
lim − = lim = lim = lim 2 1 4
x→0 x sin x x→0 x sin x x→0 x(x − 1 x3 + O(x5 )) x→0 x − x + O(x6 )
6 6
− 61 x + O(x3 ) − 61 x + O(x3 ) 0
= lim 1 2 4
= lim 2
= lim = 0.
x→0 1 − x + O(x ) x→0 1 + O(x ) x→0 1
6
//
sin x · (1 − cos x)
lim .
x→0 ln(x + 1) − x + 1 x2
2
222
5.5 Grenzwerte von Funktionen
Typ 0/0: Regel von de L’Hospital oder über Potenzreihen. (Methode über Potenzrei-
hen kann wesentlich einfacher sein.)
andere singuläre Typen: Zunächst durch Umformungen auf Typ 0/0 oder Typ ∞/∞
bringen.
223