4. Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Die Gaußsche Zahlenebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Die geometrische Deutung der komplexen Multiplikation . . . . . 68
Die imaginäre Einheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
Realteil, Imaginärteil, Betrag und Konjugation . . . . . . . . . . . . . . 71
Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4 . A b s c h n i t t E b e n e u n d R a u m . . . . . . . . . . . . . . . . . . . . . . . . . . 119
3. (2 × 2)-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
Matrizen und ihre Einträge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
Addition und Skalierung von Matrizen . . . . . . . . . . . . . . . . . . . . . 163
Das Matrix-Vektor-Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Die Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Matrizen als lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . 170
Allgemeine Abbildungseigenschaften von Matrizen . . . . . . . . . . . 176
Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
7. (3 × 3)-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Matrizen als lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . 240
Invertierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
Der Invertierungsalgorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
Die Elementarmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
5 . A b s c h n i t t M e h r d i m e n s i o n a l e A n a l y s i s . . . . . . . . . . . . . . 253
1. Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Vektoren als Funktionswerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Parametrisierte Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
Tangentialvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
Die Länge einer Kurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
A n h ä n g e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
2. Notationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
3. Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
Bisher haben wir die reellen Zahlen als gegeben betrachtet und Begriffe wie
„Grenzwert“ und „Stetigkeit“ anschaulich verwendet. In diesem Abschnitt un-
tersuchen wir die reellen Zahlen und die Grundlagen der Analysis genauer. Da-
bei streben wir erneut keine vollständige Behandlung dieses Themas an, sondern
eine Art „Wissensvertiefung erster Stufe“. Wir beginnen mit der Isolierung einer
Eigenschaft, die die reellen Zahlen von den rationalen Zahlen unterscheidet.
Neben einem Modell des Zählens ist ein Modell eines Linearkontinuums von
grundlegender Bedeutung für die Mathematik. Ein solches Modell wird aus
Punkten gebildet. Je zwei verschiedene Punkte sind durch ein „kleiner“ bzw.
„größer“ miteinander vergleichbar (Linearität) und zwischen zwei Punkten liegt
immer ein weiterer Punkt (Dichtheit). Weiter kann mit den Punkten gerechnet
werden (arithmetisches Kontinuum). Alle diese Eigenschaften werden durch die
rationalen Zahlen
Q = { ± n/m | n P N, m ≥ 1 }
erfüllt. Dennoch sind die rationalen Zahlen kein geeignetes Modell für ein
Linearkontinuum. Warum nicht, zeigt der folgende Satz, der zum Grundbestand
des mathematischen Wissens gehört.
Beweis
Seien n, m P N. Wir betrachten die Primfaktorzerlegungen von n und m
und schreiben
n = 2a1 ⋅ 3a2 ⋅ 5a3 ⋅ …
m = 2b1 ⋅ 3b2 ⋅ 5b3 ⋅ …
mit Exponenten ak , bk ≥ 0. Nach den Potenzregeln gilt
n2 = 22 a1 ⋅ 32 a2 ⋅ 52 a3 ⋅ …
m2 = 22 b1 ⋅ 32 b2 ⋅ 52 b3 ⋅ …
2m2 = 22 b1 + 1 ⋅ 32 b2 ⋅ 52 b3 ⋅ …
Dann sind die 2-Exponenten von n2 und 2m2 verschieden, da der erste der
beiden Exponenten gerade, der zweite aber ungerade ist. Aufgrund der
Eindeutigkeit der Primfaktorzerlegung ist also n2 ≠ 2m2 und damit (n/m)2 ≠ 2.
Da (n/m)2 = 2 äquivalent zu 2n2 = m2 ist, lässt sich das Ergebnis auch so formu-
lieren:
In dieser Version ist nur noch von natürlichen Zahlen und der Multiplikation
die Rede. Es tauchen keine Wurzeln und Verhältnisse mehr auf.
Eine wichtige Folgerung für die Analysis ist:
Korollar
Die Funktion f : Q → Q mit f(q) = q2 − 2 für alle q P Q hat keine Nullstelle.
f(x)
-2 -1 1 2
-1
-2
Diese und verwandte Überlegungen zeigen, dass Q für die Analysis ungeeig-
net ist: Die rationalen Zahlen haben Lücken. Wie kann man den Unterschied
zwischen Q und R genau fassen? Eine Möglichkeit, die die Ordnungsstruktur
der reellen Zahlen an die Spitze stellt, werden wir nun kennenlernen. Anschau-
lich besagt sie, dass jede in den rationalen Zahlen auftretende Lücke durch eine
(irrationale) reelle Zahl geschlossen wird.
Zur Formulierung der „Lückenlosigkeit“ von R brauchen wir eine Reihe von
Ordnungsbegriffen. Die meisten von ihnen sind anschaulich und suggestiv in ih-
rer Namensgebung.
t inf(X) X sup(X) s
Eine Menge X reeller Zahlen mit unterer Schranke t und oberer Schranke s
Anschaulich erhalten wir das Infimum einer nach unten beschränkten nicht-
leeren Menge X reeller Zahlen, indem wir eine untere Schranke t von X betrach-
ten und diese Schranke soweit nach rechts verschieben, bis sie die Menge X in
folgendem Sinne berührt: Jede weitere Vergrößerung würde dazu führen, dass
keine untere Schranke mehr vorliegt. Analoges gilt für das Supremum.
Wir fassen die Definitionen in einer Tabelle zusammen.
Beispiele
(1) [ 0, 1 ] ≤ 1, [ 0, 1 ] ≤ 2, [ 0, 1 [ ≤ 1, [ 0, 1 [ ≤ 2.
(2) max([ 0, 1 ]) = 1, max([ 0, 1 [) existiert nicht.
(3) sup([ 0, 1 ]) = 1, sup([ 0, 1 [) = 1.
(4) N ⊆ R ist nach unten, aber nicht nach oben beschränkt. Damit ist N
unbeschränkt in R.
(5) max(N) und sup(N) existieren nicht, min(N) = inf(N) = 0.
(6) Sei X = { 1 − 1/n | n P N* } ⊆ Q. Dann gilt
max(X) existiert nicht, sup(X) = 1 P Q.
Die Menge X ⊆ Q hat also ein Supremum in Q.
(7) Sei X = { q P Q | q > 0 ∧ q2 ≤ 2 }. Dann ist X nach oben beschränkt
(zum Beispiel durch 2). Es gilt
max(X) existiert nicht, sup(X) = £2 ¸ Q.
Die Teilmenge X der rationalen Zahlen hat also kein Supremum in Q.
Anschaulich können wir dies so beschreiben: Ist s P Q eine obere
Schranke von X, so können wir s durch Verkleinerung von rechts an X
heranführen, wobei wir vereinbaren, jederzeit in der Menge der
rationalen Zahlen zu verbleiben. Durch diese Einschränkung erreichen
wir aufgrund der Irrationalität von £2 nie das Supremum von X. Wir
steuern auf einen Punkt zu, den es in Q nicht gibt. Jede rationale obere
Schranke von X lässt sich immer noch zu einer rationalen oberen
Schranke von X verkleinern.
Das Maximum und Minimum einer Menge ist immer ein Element der Menge.
Das Supremum einer Menge kann der Menge angehören oder auch nicht, und
das Gleiche gilt für das Infimum. Es gelten die folgenden Implikationen:
(i) Existiert max(X), so ist sup(X) = max(X).
(ii) Existiert min(X), so ist inf(X) = min(X).
(iii) Ist s = sup(X), so ist s = max(X ∪ { s }).
(iv) Ist s = inf(X), so ist s = min(X ∪ { s }).
Nach diesen Vorbereitungen können wir nun eine fundamentale Eigenschaft
der reellen Zahlen, die sie von Q und anderen Zahlbereichen unterscheidet,
axiomatisch fassen.
Das Vollständigkeitsaxiom
Wir bezeichnen die Aussage als Axiom, da wir die reellen Zahlen weiterhin als
gegeben voraussetzen. Konstruiert man die Menge der reellen Zahlen (mit Hilfe
der Axiome der Mengenlehre), so wird die Aussage zu einem beweisbaren Satz.
Die in den obigen Beispielen betrachtete Menge
X = { q P Q | q > 0 ∧ q2 ≤ 2 } ⊆ Q
zeigt, dass die rationalen Zahlen ein analog formuliertes Vollständigkeitsaxiom
verletzen: Die Menge X ist eine nichtleere und nach oben beschränkte Teil-
menge von Q, die innerhalb der rationalen Zahlen kein Supremum besitzt. Sie
markiert eine Lücke von Q, die in R durch £2 geschlossen wird.
Um Rechenregeln für Suprema und Infima möglichst allgemein und unkom-
pliziert formulieren zu können, ist es nützlich, auch leere und unbeschränkte
Mengen zuzulassen.
Konvention
Wir setzen:
sup(∅) = −∞
inf(∅) = ∞
sup(X) = ∞, für jede nach oben unbeschränkte Menge X ⊆ R,
inf(X) = −∞, für jede nach unten unbeschränkte Menge X ⊆ R.
Warnung
Nicht erklärt sind ∞ − ∞, −∞ + ∞, 0 ⋅ ∞, 0 ⋅ −∞, ±∞/∞, ∞/±∞.
Beweisskizze
Wir zeigen exemplarisch die erste Eigenschaft für nach oben beschränkte
und nichtleere Teilmengen X, Y von R. Seien also s = sup(X) und t = sup(Y).
Für alle x P X und y P Y gilt x ≤ s und y ≤ t, sodass x + y ≤ s + t. Damit ist
s + t eine obere Schranke von X + Y. Ist nun u P R beliebig mit u < s + t, so sei
ε = s + t − u.
Dann gilt ε > 0. Wegen s = sup(X) und t = sup(Y) gibt es x P X und y P Y
mit x > s − ε/2 und y > t − ε/2 (sonst wären s − ε/2 bzw. t − ε/2 obere
Schranken von X bzw. Y). Dann gilt
x + y > s − ε/2 + t − ε/2 = s + t − ε = u,
sodass u keine obere Schranke von X + Y ist. Dies zeigt, dass s + t die
kleinste obere Schranke von X + Y ist.
...
0.0 0.2 0.4 0.6 0.8 1.0
Bemerkung
Das Archimedische Axiom lässt sich aus dem Vollständigkeitsaxiom ableiten,
sodass es in einer axiomatischen Charakterisierung der reellen Zahlen nicht
explizit gefordert werden muss. Wir diskutieren dies in den Übungen.
Beweis
(1) impliziert (2) : Sei s = sup(X). Dann gilt X ≤ s. Sei also n ≥ 1 beliebig. Da
s die kleinste obere Schranke von X ist, ist s − 1/n keine obere Schranke
von X. Also gibt es ein x P X mit x > s − 1/n. Folglich ist x + 1/n > s.
(2) impliziert (1) : Es gelte (2). Dann ist s eine obere Schranke von X. Sei
nun t < s beliebig. Nach dem Archimedischen Axiom gibt es ein n ≥ 1
derart, dass 1/n < s − t. Sei nun x P X mit x + 1/n > s (ein solches x
existiert nach Voraussetzung). Dann ist aber
x > s − 1/n > t,
sodass t keine obere Schranke von X ist. Dies zeigt, dass s die kleinste
obere Schranke von X ist.
Dichte Mengen
Reelle Zahlen lassen sich durch rationale Zahlen beliebig genau approximie-
ren. Es gilt:
Beweis
Wir setzen ε = y − x. Dann ist ε > 0. Folglich existiert ein n ≥ 1 mit 1/n < ε.
Die ganzzahligen Vielfachen m ⋅ 1/n P Q, m P Z, von 1/n sind nach oben
und unten unbeschränkt in R und folgen aufeinander im Abstand 1/n, da
(m + 1) 1/n − m 1/n = (m + 1 − m) 1/n = 1/n für alle m P Z.
Wegen 1/n < y − x muss also eines dieser Vielfachen zwischen x und y
liegen. Speziell ist das maximale m P Z mit m/n < y geeignet.
Definition (dicht)
Eine Menge D reeller Zahlen heißt dicht in R, falls für alle x < y in R ein
z P D existiert mit x < z < y.
Die rationalen Zahlen sind das Paradebeispiel für eine in R dichte Menge.
Aber auch
D = { ± n/2m | n, m P N }
ist dicht in R. Und natürlich ist R selbst dicht in R.
Anwendungen
Als Erstes betrachten wir den Zusammenhang zwischen Grenzwert und Su-
premum/Infimum für einfache Folgen
x0 , x1 , x2 , …, xn , …
reeller Zahlen. Dabei verwenden wir den Grenzwertbegriff (und den Begriff ei-
ner Folge selbst) nach wie vor anschaulich. Eine genaue Definition geben wir im
nächsten Kapitel.
Um die Notation zu vereinfachen, schreiben wir
supn xn statt sup({ xn | n P N }), infn xn statt inf({ xn | n P N }).
Der vielleicht einfachste Zusammenhang zwischen dem Grenzwert einer
Folge und dem Supremum bzw. Infimum einer Menge ist:
Beispiele
(1) Die Folge x0 , x1 , x2 , … mit xn = n für alle n ist monoton steigend. Es
gilt limn xn = supn xn = ∞.
(2) Die Folge x0 , x1 , x2 , … mit xn = 1/2n für alle n ist monoton fallend. Es
gilt limn xn = infn xn = 0.
(3) Die Folge x0 , x1 , x2 , … mit xn = (−1)n für alle n ist nicht monoton. Es
gilt infn xn = −1 und supn xn = 1. Dagegen existiert limn xn nicht.
(4) Die Folge 9/10, 99/100, 999/1000, … (10n − 1)/10n , … ist monoton
steigend. Ihr Supremum (und damit ihr Grenzwert) ist gleich 1.
Definition (Pendelfolge)
Eine Folge x0 , x1 , …, xn , … reeller Zahlen heißt eine linksstartende
Pendelfolge, falls gilt:
x0 ≤ x2 ≤ … ≤ x2n ≤ … ≤ x2n + 1 ≤ … ≤ x3 ≤ x1 .
Analog sind rechtsstartende Pendelfolgen definiert durch die Eigenschaft
x1 ≤ x3 ≤ … ≤ x2n + 1 ≤ … ≤ x2n ≤ … ≤ x2 ≤ x0 .
Ist nämlich s = supn x2n und t = infn x2n + 1 , so gilt s ≤ t. Die Konvergenzbedin-
gung besagt, dass sich die geraden und ungeraden Glieder beliebig nahe kom-
men, sodass s = t. Genau dann ist s = t der Grenzwert der Folge. Die Folge
x1 − x0 , x3 − x2 , …, x2n + 1 − x2n , …
der Abstände der Paare einer linksstartenden Pendelfolge ist monoton fallend
und nach unten beschränkt durch 0. Sie konvergiert also immer gegen ihr Infi-
mum. Die Folge konvergiert genau dann, wenn dieses Infimum gleich Null ist.
Viele der Folgen, die uns in der Analysis begegnen, sind entweder monoton
oder pendelnd (zumindest ab einer bestimmten Stelle n0 ). Damit decken die bei-
den Folgentypen bereits zahlreiche Fälle ab. Noch allgemeinere konvergente
Folgen, die um ihren Grenzwert beliebig hin und her springen können, betrach-
ten wir nächsten Kapitel.
Beispiele
(1) Die Folge x0 , x1 , x2 , … mit xn = (−1)n /2n für alle n ist eine rechtsstar-
tende Pendelfolge mit 0 = limn xn = supn x2n + 1 = infn x2n .
(2) Die Folge x0 , x1 , x2 , … mit xn = (−1)n + 1 für alle n ist eine linksstartende
Pendelfolge, die die Konvergenzbedingung nicht erfüllt.
3. Intervallschachtelungen
Definition (Intervallschachtelung)
Eine Folge I0 , I1 , …, In , … von reellen Intervallen In heißt eine Intervall-
schachtelung, falls gilt
I0 ⊇ I1 ⊇ … ⊇ In ⊇ ….
Beweis
Die monotonen Folgen
a0 , a1 , … an , … und b0 , b1 , …, bn , …
der linken und rechten Intervallgrenzen sind aufgrund der Schachtelung
der Intervalle monoton steigend bzw. fallend und zudem beschränkt,
sodass sie gegen ihr Supremum a bzw. Infimum b konvergieren. Das
Intervall [ a, b ] ist ein Teilintervall jedes Intervalls In und somit im Durch-
schnitt I der Intervalle enthalten. Andererseits können wegen a = supn an
und b = infn bn keine weiteren Punkte in I enthalten sein, sodass I = [ a, b ].
Aus der Äquivalenz von limn (an − bn ) = 0 und a = b ergibt sich der Zusatz.
4. Die Dezimaldarstellung
d1 d2 dn
m, d1 … dn = m + + + … + . (endlicher Dezimalbruch)
10 100 10n
Lesen wir die Ziffernfolge d1 … dn als Dezimalzahl, so gilt
d1 …dn
m, d1 … dn = m + .
10n
Wir erinnern an:
Beispielsweise lassen sich also 1/5 und 3/20, nicht aber 1/7 oder 2/15 als endli-
cher Dezimalbruch schreiben.
Mit Hilfe des Supremumsbegriffs können wir unendliche Dezimalbrüche de-
finieren:
Statt „sup“ können wir auch „lim“ schreiben, da die Folge der endlichen Dezi-
malbrüche monoton steigend und nach oben beschränkt durch m + 1 ist.
Jeder unendliche Dezimalbruch definiert eine eindeutige reelle Zahl x ≥ 0. Die
Umkehrung ist im Allgemeinen nicht gültig. Dieses bedeutsame Phänomen lässt
sich mit Hilfe der Definition als Supremum sehr einfach erklären:
Beispiel: Neuner-Periode
Es gilt 1 = 1,000… = 0,999… Denn nach Definition ist
0,999… = supn 0,9…9 (mit n Stellen)
= supn (1 − 1/10n ) = 1 − infn 1/10n = 1 − 0 = 1.
Der Einwand, dass zu 1 in 0,999… immer noch „etwas fehlen“ würde, ist
damit entkräftet: 0,999… ist definiert als Supremum einer Menge (oder
gleichwertig als Grenzwert einer Folge), und ein Supremum muss einer
Menge nicht angehören (ein Grenzwert nicht von den Folgengliedern
angenommen werden).
Allgemein gilt:
Damit ist die Darstellung einer irrationalen Zahl stets eindeutig. Aber auch ra-
tionale Zahlen wie 1/3 oder 1/7 haben eine eindeutige unendliche Dezimaldar-
stellung. Welche rationalen Zahlen sich eindeutig darstellen lassen, ergibt sich
aus der obigen Charakterisierung der endlichen Dezimalbrüche.
Wir betrachten zwei Möglichkeiten der Veranschaulichung oder, wenn man
so will, Interpretation von Dezimalbrüchen:
5. b-adische Darstellungen
Beispiele
(1) In Dualdarstellung gilt
1 = 1,000… = 0,111… = supn (1/2 + 1/4 + 1/8 + … + 1/2n ).
(2) In 7-adischer Darstellung gilt
1 = 1,000… = 0,666… = supn (6/7 + 6/72 + 6/73 + … + 6/7n ).
1 1 1 1 3 3 1 1 5 5 3 3 7 7
[0, [ [ , [ [ , [ [ , [ [ , [ [ , [ [ , [ [ , 1[
8 8 4 4 8 8 2 2 8 8 4 4 8 8
1 1 1 1 3 3
[0, [ [ , [ [ , [ [ , 1[
4 4 2 2 4 4
1 1
[0, [ [ , 1[
2 2
[0, 1[
t0 t1 t2 t3 t4 t5
t0 t1 t2 t3 t4 t5
Die obere und untere Darboux-Summe einer Funktion für eine stützstellenfreie Partition
Die Funktion f wird bei der Bildung einer Darboux-Summe als beschränkt
vorausgesetzt, damit die gebildeten Suprema und Infima in R definiert sind.
Stützstellen und zugehörige Funktionswerte spielen keine Rolle. Wir setzen nun
S f = infp Sp f, (Oberintegral)
s f = supp sp f. (Unterintegral)
Das Infimum bzw. Supremum wird über alle Partitionen p des Intervalls [ a, b ]
gebildet (wobei man sich auf äquidistante Partitionen beschränken kann). Es gilt
stets s f ≤ S f. Man kann nun zeigen, dass f genau dann Riemann-integrierbar ist,
wenn s f = S f gilt, d. h. wenn Ober- und Unterintegral übereinstimmen. Dieser
Zugang zur Integration, oft auch Darboux-Integral genannt, ist also äquivalent
zum Zugang über Riemann-Summen. Er ist theoretisch aufgrund des eleganten
Kalküls mit Suprema und Infima ansprechend, aus numerischer Sicht aber weni-
ger geeignet, da die Darboux-Summen im Vergleich zu den Riemann-Summen
viel schwieriger zu berechnen sind. Wie so oft sind beide Wege wertvoll.
Übungen
Übung 1
Zeigen Sie in Analogie zum Beweis der Irrationalität von £2, dass £3
irrational ist. Warum scheitert der Beweis bei £4? Auf welche Zahlen lässt
sich das Argument allgemein anwenden?
Übung 2
Recherchieren Sie den Beweis der Irrationalität von £2, der sich in den
„Elementen“ des Euklid findet. Vergleichen Sie diesen Beweis mit unserem
Argument.
Übung 3
Bestimmen Sie die Infima und Suprema der folgenden Mengen:
(a) [ 0, 1 ] ∪ { 2 },
(b) ] 0, 1 [ ∪ ] 2, 3 [,
(c) { sin(x) | 0 ≤ x ≤ π/2 },
(d) { (−1)n /n | n ≥ 1 },
(e) { 3/10, 33/100, 333/1000, … },
(f ) { 1/2 + 1/4 + … + 1/2n | n ≥ 1 },
(g) { sup({ 1 + 1/k | k ≥ n }) | n ≥ 1 }.
Übung 4
Zeigen Sie, dass die Eigenschaft
sup(X + Y) = sup(X) + sup(Y)
unter den eingeführten Konventionen für alle nichtleeren (nicht notwendig
beschränkten) X, Y ⊆ R gültig ist. Kann man auch leere Teilmengen
zulassen?
Übung 5
Zeigen Sie, dass für alle nichtleeren X, Y ⊆ R gilt:
(1) sup(c X) = c sup(X) für alle c > 0,
(2) sup(X ⋅ Y) = sup(X) sup(Y), falls X, Y ⊆ R+ ,
(3) X ⊆ Y impliziert sup(X) ≤ sup(Y),
(4) inf(X) = −sup(−X), sup(X) = −inf(−X).
Gelten diese Eigenschafen auch für leere Mengen? Begründen Sie Ihre
Antworten.
Übung 6
Zeigen Sie ohne Verwendung des Vollständigkeitsaxioms, dass folgende
Aussagen äquivalent sind:
(a) Das Archimedische Axiom.
(b) N ist nach oben unbeschränkt in R.
Übung 7
Beweisen Sie das Archimedische Axiom mit Hilfe des Vollständigkeits-
axioms.
[ Es genügt nach der vorangehenden Übung zu zeigen, dass die Menge N
nach oben unbeschränkt in R ist. Annahme nicht. Dann existiert s = sup(N)
nach dem Vollständigkeitsaxiom. Zeigen Sie, dass ein n* P N existiert mit
s − 1 < n* und leiten Sie hieraus einen Widerspruch ab. ]
Übung 8
Nehmen Sie an, dass Q dicht in R ist und zeigen Sie mit Hilfe dieser
Voraussetzung das Archimedische Axiom.
Übung 9
Begründen Sie die Dichtheit der rationalen Zahlen in R mit Hilfe der
Dezimalbruchentwicklung.
Übung 10
Sei D = { ± n/2m | n, m P N } ⊆ Q. Geben Sie eine möglichst einfache
beschränkte nichtleere Teilmenge von D an, deren Supremum in Q − D
liegt. Stellen Sie eine Analogie zu £2 her.
Übung 11
Definieren Sie die Menge D der vorangehenden Übung mit Hilfe von
Dualdarstellung.
Übung 12
Sei b eine natürliche Zahl mit b ≥ 2.
(a) Geben Sie (ohne Begründung) alle möglichen b-adischen Darstel-
lung der folgenden reellen Zahlen an:
1 a 1
1, , für 1 ≤ a < b, .
b b−1 2
(b) Charakterisieren Sie (mit kurzer Begründung) alle reellen Zahlen
x > 0, die genau zwei b-adische Darstellungen besitzen. Geben Sie
einige Beispiele an.
Übung 13
Erstellen Sie Diagramme zu den im Text beschriebenen Visualisierungen
der Dezimaldarstellung für eine reelle Zahl x P [ 0, 1 ]:
(1) Approximation am Zahlenstrahl von links
(2) wiederholte Intervallteilung (Baumstruktur)
Erläutern Sie das Phänomen der Zweideutigkeit für beide Visualisierungen.
Verallgemeinern Sie zudem die Visualisierungen auf b-adische Darstellun-
gen und betrachten Sie speziell den Fall b = 2 für die Visualisierung (2).
Folgen
Notation (Folgennotation)
Wir notieren eine Folge f : N → M in einer Menge M oft als
f = (xn )n P N , mit xn = f(n) für alle n P N.
Einen Wert xn = f(n) nennen wir auch ein Glied der Folge und die Stelle n
einen Index. Anstelle von (xn )n P N schreiben wir auch
(x0 , x1 , x2 , …, xn , …) oder x0 , x1 , x2 , …, xn , …
Eine Folge wird üblicherweise nicht mit einem Funktionsnamen wie f,g,h ver-
sehen, sondern einfach in der Form (xn )n P N angegeben. Besonders nützlich ist
die Folgennotation, wenn die Funktionswerte durch Terme definiert sind. So ist
zum Beispiel (n2 )n P N die Funktion f auf N mit f(n) = n2 für alle n P N.
Folgen tauchen in vielen Varianten auf. Oft beginnt man mit dem Index 1 statt
0 und notiert eine solche Folge in der Form (xn )n ≥ 1 oder x1 , x2 , …, xn , … (n ≥ 1).
Da eine Folge eine Funktion (einer bestimmten Form) ist, stehen ohne weitere
Definitionen alle funktionalen Begriffe zur Verfügung:
Beispiele
(1) Die Folge (1)n P N ist die Folge (xn )n P N mit xn = 1 für alle n. In der
alternativen Notation lautet sie 1, 1, 1, …
(2) Die Folge (1/n)n ≥ 1 ist die Folge (xn )n ≥ 1 mit xn = 1/n für alle n ≥ 1. Wir
können sie auch notieren als 1, 1/2, 1/3, …, 1/n, …
(3) Eine Folge (xn )n P N ist injektiv, wenn alle Folgenglieder paarweise
verschieden sind, d. h. wenn xn ≠ xm für alle n ≠ m.
(4) Eine Folge (xn )n P N reeller Zahlen ist monoton steigend, wenn
xn ≤ xn + 1 für alle n gilt. Gilt stärker xn < xn + 1 für alle n, so ist sie streng
monoton steigend.
(5) Ist (xn )n P N eine Folge in R und (nk )k P N eine Folge in N, so ist
(xn )n P N + (nk )k P N = (xnk )k P N .
Der besseren Lesbarkeit halber können wir die Komposition auch in
der Form (xn(k) )k P N angeben. Ist (nk )k P N streng monoton steigend, so
heißt (xn(k) )k P N eine Teilfolge von (xn )n P N .
x2 n + 1 x2 n
-2 -1 0 1 2
1.0
0.5
1 2 3 4 5 6 7 8 9 10
-0.5
-1.0
1.0
0.5
1 2 3 4 5 6 7 8 9 10
-0.5
Typ II: Visualisierung der Folge (xn )n ≥ 1 mit xn = (−1)n + 1 /n für alle n ≥ 1
x+
x-
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Die Konvergenzbedingung besagt, dass für jedes (noch so kleine) ε > 0 ein
Index n0 existiert, sodass alle xn ab der Stelle n0 (d. h. für n ≥ n0 ) im Intervall
I(x, ε) = ] x − ε, x + ε [
liegen. Mit der Konvention
„fast alle“ = „alle bis auf höchstens endlich viele Ausnahmen“
können wir die Konvergenzbedingung so formulieren:
Limesnotation
Ist x P R der Grenzwert der Folge (xn )n P N , so schreiben wir
x = limn →∞ xn oder kurz x = limn xn .
Definition (Nullfolge)
Gilt limn xn = 0, so nennen wir (xn )n P N eine Nullfolge.
Definition (beschränkt)
Eine Folge (xn )n P N in R heißt beschränkt, falls { xn | n P N } beschränkt ist.
Analog sind die Begriffe nach unten bzw. nach oben beschränkt für Folgen
definiert.
Jede konvergente Folge ist beschränkt (Übung). Dagegen kann eine diver-
gente Folge beschränkt oder unbeschränkt sein: Die divergente Pendelfolge
1, −1, 1, −1, … ist beschränkt. Die divergente Folge 1, −1, 2, −2, 3, −3, … ist dage-
gen nach oben und nach unten unbeschränkt.
Wie für die Bildung von Supremum und Infimum ist es oft nützlich, auch die
symbolischen Werte ∞ und −∞ als Grenzwerte zuzulassen.
Die Bedingungen besagen anschaulich, dass fast alle Glieder der Folge größer-
gleich (bzw. kleinergleich) einer beliebigen vorgegebenen Schranke sind. Eine
uneigentlich konvergente Folge ist nach wie vor divergent im Sinne der (eigent-
lichen) Konvergenz einer Folge in R.
Beispiele
(1) Es gilt limn ≥ 1 1/n = 0. Die Folge (1/n)n ≥ 1 ist eine Nullfolge.
(2) Es gilt limn n = ∞. Die Folge (n)n P N ist uneigentlich konvergent.
(3) limn (−1)n existiert nicht. Die Folge ((−1)n )n P N ist beschränkt und
divergent. Auch limn (−1)n n existiert nicht. Die Folge ((−1)n n)n P N
konvergiert weder eigentlich noch uneigentlich.
(4) Es gilt limn xn = ∞ genau dann, wenn limn −xn = −∞.
Die Limesregeln
Satz (Limesregeln)
Seien (xn )n P N und (yn )n P N (x n )n P N konvergente Folgen in R. Dann gilt:
(a) lim n (x n + yn ) = lim n x n + lim n yn ,
(b) lim n (c x n ) = c lim n x n für alle c P R,
(c) lim n (x n − yn ) = lim n x n − lim n yn ,
(d) lim n (x n yn ) = lim n x n lim n yn .
(e)
xn lim n xn
lim n ( yn
) =
lim n yn
, falls yn ≠ 0 für alle n und limn yn ≠ 0.
Beispiele
(1) Es gelte lim n x n = x. Dann gilt
1
(
2 lim n ≥ 1
n
)3 + lim n ≥ 1 1 = 2 ⋅ 0 3 + 1 = 1.
Welche Folgen konvergieren und welche nicht? Für monotone Folgen und
Pendelfolgen haben wir bereits Konvergenzbedingungen angegeben. Wir kön-
nen sie nun mit Hilfe der Epsilontik beweisen.
Beweis
Sei (xn )n P N monoton steigend. Ist die Folge unbeschränkt, so ist sie
divergent. Sei also die Folge beschränkt, und sei x = supn xn . Wir zeigen die
Konvergenzbedingung für x, d. h. wir zeigen
∀ε > 0 ∃n0 ∀n ≥ n0 |x − xn | < ε.
Sei hierzu ε > 0 beliebig. Dann gibt es ein n0 derart, dass x − ε < xn0 (denn
andernfalls wäre x − ε < x eine obere Schranke der Folgenglieder, im
Widerspruch zur Definition von x). Da die Folge monoton steigend ist, gilt
x − ε < xn für alle n ≥ n0 . Nach Definition von x gilt xn ≤ x für alle n. Damit
erhalten wir
x − ε < xn ≤ x für alle n ≥ n0 .
Für jedes n ≥ n0 gilt also xn P ] x − ε, x ]. Dies zeigt, dass |x − xn | < ε für alle
n ≥ n0 . Damit ist die Konvergenzbedingung für x bewiesen.
Der Beweis für monoton fallende Folgen wird analog geführt.
Beweisskizze
Ist die Folge konvergent und x = limn xn , so gibt es für alle ε > 0 ein n0 mit
|x − xn | < ε/2 für alle n ≥ n0 . Dann gilt aufgrund der Dreiecksungleichung
|xn − xm | = |xn − x + x − xm | ≤ |xn − x| + |x − xm | < ε für alle n, m ≥ n0 .
Damit ist die Folge eine Cauchy-Folge. Sei also umgekehrt (xn )n P N eine
Cauchy-Folge. Dann ist die Folge beschränkt. Wir setzen
yn = infk ≥ n xk für alle n.
Für alle n gilt { xk | k ≥ n } ⊇ { xk | k ≥ n + 1 }, sodass yn ≤ yn + 1 . Damit ist
(yn )n P N monoton steigend und beschränkt, sodass y = supn yn < ∞ existiert.
Analog existiert z = infn zn für die Folge (zn )n P N mit zn = supk ≥ n xk für alle n.
Diese Konstruktion ist für alle beschränkten reellen Folgen (xn )n PN möglich
und es gilt stets y ≤ z. Aus der Cauchy-Bedingung folgt, dass y = z und weiter
y = limn xn .
Die Formeln (+) zeigen, dass der Grenzwert auch im allgemeinen Fall durch
eine Supremums- und Infimums-Bildung beschrieben werden kann. Die For-
meln sind deutlich komplizierter als die Formeln für monotone Folgen und Pen-
delfolgen, dafür aber für alle konvergenten Folgen anwendbar.
Unendliche Reihen
Notation
Neben ∑ n P N x n verwenden wir gleichwertig auch die Notationen
∞
∑ n = 0 x n , ∑ n ≥ 0 x n , ∑ n x n , x0 + x1 + x2 + … + xn + …
Das Summenzeichen hat eine Doppelbedeutung: Für jede Folge (xn )n P N ist
die unendliche Reihe ∑ n xn definiert als die Folge (sn )n P N der Partialsummen der
Folge. Konvergiert die Folge der Partialsummen, so bezeichnet ∑ n xn auch den
Grenzwert der Folge der Partialsummen. Die Bedeutung geht in der Regel aus
dem Kontext hervor:
Beispiele
1. Bedeutung: „Die Reihe ∑ n 1/2n konvergiert.“
2. Bedeutung: „Es gilt ∑ n 1/2n = 1 + 1/2 + 1/4 + … + 1/2n + … = 2.“
1. Bedeutung: „Die Reihe ∑ n (−1)n divergiert.“
2.0
1.5
1.0
0.5
0 1 2 3 4 5 6 7 8 9 10
0.5
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Sei q P R. Bei der Diskussion der Polynomdivision hatten wir bereits die geo-
metrische Summe
1 − qn + 1
q0 + … + qn = , falls q ≠ 1
1−q
betrachtet, die sich aus der (auch für q = 1 gültigen) Teleskop-Summe
(q0 + … + qn ) (1 − q) = q0 − q1 + q2 − q2 + … − qn + 1 = 1 − qn + 1
∑ n qn = q0 + … + qn + … (geometrische Reihe)
1
∑ n qn = .
1−q
Ist |q| ≥ 1, so divergiert die Reihe ∑ n qn .
1 − qn + 1 1
∑ n qn = limn sn = limn = ,
1−q 1−q
wobei wir verwenden, dass
limn qn + 1 = limn qn = 0 (da |q| < 1).
Ist dagegen |q| ≥ 1, so gilt |sn + 1 − sn | ≥ 1 für alle n, sodass die Folge (sn )n P N der
Partialsummen divergent ist.
Nützlich ist:
1.0
0.8
0.6
0.4
0.2
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
1.0
0.8
0.6
0.4
0.2
0 5 10 15 20 25 30 35 40 45 50
1 1 1 1
∑n ≥ 1 = 1 + + + + …
n 2 3 4
Die Partialsummen sn dieser Reihe sind aufgrund der positiven Summanden
streng monoton steigend. Das Wachstum ist jedoch sehr langsam. Durch fol-
gende geistreiche Zusammenfassung von Summanden können wir sehen, dass
die harmonische Reihe divergiert:
1 1 1
1 + + + + …
2 3 4
1 1 1 1 1 1 1
= 1 +
2
+ ( 3
+
4
)+( 5
+…+
8
)+( 9
+…+
16
)+…
1 1 1
≥ + + + … = ∞.
2 2 2
2 log(x)
log(x) +
5 10 15 20 25
-1
1 1 1 1
∑n ≥ 1 = 1 + + + + …
n2 4 9 16
konvergiert. Euler zeigte, dass π2 /6 der Wert dieser Reihe ist.
s
1.5
0.5
0 5 10 15 20 25
1 1 1
∑n ≥ 1 = 1 + + + …
nk 2k 3k
für jedes k ≥ 2. Die Werte dieser Reihen konnten für gerade Exponenten k be-
rechnet werden. So gilt zum Beispiel
1 π4 1 π6
∑n ≥ 1 = , ∑n ≥ 1 = .
n4 90 n6 945
Für ungerade Exponenten k ist dagegen nur wenig bekannt. Ein einfacher Zu-
sammenhang zwischen ∑ n ≥ 1 1/n3 und π3 scheint nicht zu bestehen.
Eine unendliche Reihe, die noch langsamer divergiert als die harmonische
Reihe, ist die Reihe der rezikroken Primzahlen. Es gilt
1 1 1 1 1 1
∑ p prim = + + + + + … = ∞.
p 2 3 5 7 11
Die Divergenz kann sowohl analytisch als auch kombinatorisch gezeigt wer-
den. Das Wachstum entspricht bis auf eine Konstante dem Wachstum von
log(log(x)). Die Konstante ist die mit γ verwandte Meissel-Mertens-Konstante
M = 0,2614972128… Ein bemerkenswertes Ergebnis einer wunderbaren
Theorie.
1.5
1.0
log(log(x))
log(log(x)) + M
0.5
10 20 30 40 50
Wir betrachten drei klassische Kriterien, mit denen sich in vielen Fällen die
Konvergenz einer Reihe feststellen lässt.
∑ n (−1)n xn = x0 − x1 + x2 − x3 + …
Beispiele
Die unendlichen Reihen
(−1)n − 1 1 1 1
∑n≥1 = 1 − + − + … (alternierende harm. Reihe)
n 2 3 4
(−1)n − 1 1 1 1
∑n≥1 = 1 − + − + … (Leibniz-Reihe)
2n − 1 3 5 7
konvergieren nach dem Leibniz-Kriterium. Weitaus schwieriger als die
Feststellung der Konvergenz ist die Berechnung der Grenzwerte. Man
kann zeigen, dass die alternierende harmonische Reihe gegen log(2) und die
Leibniz-Reihe gegen π/4 konvergiert; der Leser vergleiche hierzu die
Taylor-Entwicklungen des Logarithmus und Arkustangens in Abschnitt 2.
Satz (Majoranten-Kriterium)
Sei ∑ n yn eine konvergente Reihe positiver reeller Zahlen. Weiter sei
(xn )n P N eine Folge in R mit |xn | ≤ yn für alle n. Dann konvergiert ∑ n xn .
Zum Beweis zeigt man, dass die Partialsummen der Folge (xn )n P N eine
Cauchy-Folge bilden. Gelten die Voraussetzungen des Satzes, so sagen wir auch,
dass die Reihe ∑ n xn durch die konvergente Reihe ∑ n yn majorisiert wird.
1.0 q
q2
q3
0.5
1 2 3 4 5 6 7 8 9 10 11 12
-0.5
-1.0
Satz (Quotienten-Kriterium)
Sei ∑ n xn eine unendliche Reihe mit xn ≠ 0 für alle n. Es gebe ein q P ] 0, 1 [
mit der Eigenschaft
xn + 1
| xn |≤q für alle n P N.
Dann konvergiert ∑ n xn .
Beweis
Sei q wie im Satz. Dann gilt
|x1 | ≤ q |x0 |, |x2 | ≤ q |x1 | ≤ q2 |x0 |, …
Induktiv ergibt sich
|xn | ≤ |x0 | qn für alle n P N.
Damit wird die Reihe ∑ n xn durch die (wegen q < 1 konvergente) skalierte
geometrische Reihe | x0 | ∑ n qn majorisiert.
Warnung
Im Quotientenkriterium ist es wichtig, dass die Schranke q der Quotienten
kleiner als 1 ist. Es genügt nicht, dass alle Quotienten kleiner als 1 sind.
Entsprechende Beispiele diskutieren wir in den Übungen.
erfüllt ist.
Ein Beispiel für eine derartige Abschätzung der Quotienten ab einer Stelle lie-
fert die folgende vielleicht wichtigste Anwendung des Quotientenkriteriums,
mit der wir eine Hypothek einlösen können:
xn x2 x3
∑n = 1 + x + + + …
n! 2 3!
Sei nun n0 eine natürliche Zahl mit n0 ≥ 2|x|. Dann gilt
Übungen
Übung 1
Zeichnen Sie Diagramme des Typs I und II zu einigen Folgen Ihrer Wahl.
Diskutieren Sie die Unterschiede der beiden Typen und die Frage, ob sich
sich für gewisse Folgen ein Typ besser eignet als der andere.
Übung 2
Erläutern Sie die Konvergenz und Divergenz von Folgen mit Hilfe der
Folgendiagramme von Typ I und II. Betrachten Sie dabei zunächst einen
anschaulichen Grenzwertbegriff und in einer zweiten Stufe die ε-Defini-
tion.
Übung 3
Zeigen Sie mit Hilfe der Epsilontik, dass ein Grenzwert einer konvergenten
Folge (xn )n P N eindeutig bestimmt ist. Zeichnen Sie ein Diagramm, das die
Beweisidee erläutert.
Übung 4
Sei (xn )n P N eine konvergente Folge in R. Zeigen Sie mit Hilfe der
Epsilontik, dass (xn )n P N beschränkt ist.
Übung 5
Seien (xn )n P N und (yn )n P N gegen x bzw. y konvergente Folgen in R. Zeigen
Sie, dass limn (xn + yn ) = x + y. Erstellen Sie ein Diagramm zur Illustration
Ihrer Argumentation.
Übung 6
Beweisen Sie die restlichen Limesregeln für Folgen.
[ Zum Beweis der Regel für das Produkt zweier Folgen: Betrachten Sie ein s
mit der Eigenschaft
|x|, |y|, |xn |, |yn | < s für alle n.
Wählen Sie nun für ein gegebenes ε > 0 den Index n0 derart, dass
|x − xn |, |y − yn | < ε/(2s) für alle n ≥ n0 .
Zeigen Sie, dass |xy − xn yn | < ε für alle n ≥ n0 . ]
Übung 7
Beweisen Sie das Konvergenzkriterium für Pendelfolgen.
[ Zerlegen Sie eine Pendelfolge in zwei monotone Folgen und verwenden
Sie das Konvergenzkriterium für monotone Folgen. ]
Übung 8
Führen Sie die Beweisskizze zur Charakterisierung der konvergenten
Folgen durch Cauchy-Folgen im Detail aus.
Übung 9
Beweisen Sie das Majoranten-Kriterium.
Übung 10
Erstellen Sie ein Diagramm des Typs II für die Partialsummen der
alternierenden harmonischen Reihe.
Übung 11
(a) Bestimmen Sie die Partialsummen sn und den Wert der Reihe
1 1 1 1
∑n ≥ 1 = + + + …
n(n + 1) 1⋅2 2⋅3 3⋅4
(b) Zeigen Sie mit Hilfe von (a), dass die Reihe ∑ n ≥ 1 1/n2 konvergiert.
Übung 12
Untersuchen Sie die folgende unendliche Reihe auf Konvergenz:
n2
∑n ≥ 1
2n
Übung 13
Visualisieren Sie die folgenden geometrischen Reihen:
1 1 1 1 2
∑n ≥ 1 = 1, ∑ n ≥ 1 = , ∑ n ≥ 1 (− )n = .
2n 4n 3 2 3
Übung 14
Wir betrachten die unendliche Reihe
n 1 2 3 4 5
∑n ≥ 1 = + + + + + …
2n 2 4 8 16 32
(a) Berechnen Sie einige Partialsummen sn und vermuten Sie, welchen
Wert die Reihe besitzt.
(b) Ordnen Sie die Summanden in der aufgespalteten Form
1 1 1 1 1 1
, , , , , , …
2 4 4 8 8 8
so an, dass Sie den Wert der Reihe bestimmen können.
Übung 15
Sei ∑ n xn eine unendliche Reihe wie im Leibniz-Kriterium. Zeigen Sie,
dass die Partialsummen der Reihe eine konvergente Pendelfolge bilden.
Erstellen Sie ein Diagramm zur Illustration.
Übung 16
Recherchieren Sie nach weiteren Beweisen für die Divergenz der harmoni-
schen Reihe. Vergleichen Sie einen der Beweise mit dem hier geführten
Beweis durch Klammerung.
Übung 17
Recherchieren Sie, was über die unendlichen Reihen der Form ∑ n ≥ 1 1/nk
mit k P N* bekannt und nicht bekannt ist.
In diesem Kapitel präzisieren wir mit Hilfe der Epsilontik die Begriffe „Grenz-
wert“ und „Stetigkeit“ für Funktionen. Wir wählen einen anschaulichen Zu-
gang, bei dem der Verlauf eines Funktionsgraphen innerhalb gewisser Rechtecke
betont wird.
Vereinbarung
Wir nehmen im Folgenden an, dass für alle ε > 0 das Intervall ] p − ε, p + ε [
mindestens ein Element des Definitionsbereichs P von f enthält.
Dies ist insbesondere dann erfüllt, wenn die Stelle p ein Element von P ist oder
wenn P ein Intervall und p eine Intervallgrenze von P ist (die nicht notwendig zu
P gehören muss).
Nach diesen Vorbereitungen definieren wir:
Anschaulich besagt die Bedingung, dass der Graph der Funktion f im Inter-
vall ] p − δ, p + δ [ ganz innerhalb des Rechtecks R mit Mittelpunkt (p, a) und
Seitenlängen 2δ und 2ε verläuft, d. h.
Graph(f ) ∩ (Iδ (p) × R) ⊆ R = Iδ (P) × Iε (a),
wobei
Iδ (p) = ] p − δ, p + δ [, Iε (a) = ] a − ε, a + ε [.
Im Folgenden ist stets ε mit der y-Achse und δ mit der x-Achse assoziiert.
Statt „an der Stelle“ sagen wir gleichwertig auch „im Punkt“ oder „bei“. Dies
gilt, wo immer anwendbar, auch bei den folgenden Begriffsbildungen.
Beispiel
Der Sinus cardinalis si : R* → R ist definiert durch
sin(x)
si(x) = für alle x P R*.
x
Die Funktion ist im Nullpunkt nicht definiert. Wir setzen p = 0 und a = 1
und fragen nach dem Verlauf von si in ε-δ-Rechtecken bei (p, a) = (0, 1).
1.0
0.5
si(x)
-10 -5 5 10
1.0
0.5
si(x)
-10 -5 5 10
Der Sinus cardinalis verläuft im ε-δ-Rechteck bei (0, 1) für ε = 3/10 und δ = 1,
aber nicht im ε-δ-Rechteck bei (0, 1) für ε = 3/10 und δ = 2.
Ist ε > 0 vorgegeben, so verläuft f im ε-δ-Rechteck bei (0, 1), wenn δ > 0 hin-
reichend klein gewählt wird. Damit gilt
limx →0 si(x) = 1.
Diesen Grenzwert kennen wir bereits von der Diskussion der Ableitung des
Sinus:
sin(x) sin(x) − 0
limx →0 = limx →0 = sin′(0) = 1.
x x−0
Stetigkeit
Bemerkung
(1) Eine Aussage „f ist stetig/unstetig bei p“ beinhaltet immer, dass p ein
Element des Definitionsbereichs P von f ist. Die Funktion 1/x ist stetig
(ergänze: überall auf ihrem Definitionsbereich R*). Es ergibt keinen
Sinn zu sagen, dass 1/x unstetig im Nullpunkt ist, weil die Funktion
dort nicht definiert ist.
(2) Da p ein Element des Definitionsbereichs von f ist, liegt f(p) in allen
betrachteten Rechtecken. Damit ist die Bedingung limx → p f(x) = f(p)
äquivalent zur Existenz des Grenzwerts limx → p f(x). Wenn dieser
Grenzwert existiert, muss er gleich f(p) sein.
Gleichwertig:
∀ε > 0 ∃δ > 0 ∀x P P ∩ ] p − δ, p + δ [ |f(x) − f(p)| < ε
Für die Stetigkeit von f (an allen Stellen) kommt noch ein weiterer Allquantor
„∀p P P“ davor. Die Reihenfolge der Quantoren ist genau zu beachten.
p+
f(p) 2
f(p) -
2
p- p p+
f(x)
p+
f(p) 2
f(p) -
2
f(x)
1 f
1
2
1
3
1 1 1
1
8 4 2
1.5
1.5
1.0 f1
1.0 f2
0.5
0.5
-0.5
-0.5
-1.0
-1.0
-1.5
-1.5
2 2
1 f4 1 f8
-1 -1
-2 -2
Zum Beweis dieses Satzes wird zuerst nachgewiesen, dass alle Grundfunktio-
nen, aus denen die elementaren Funktionen aufgebaut werden (Polynome, Ex-
ponentialfunktionen, trigonometrische Funktionen) stetig sind. Weiter zeigt
man, dass die Operationen der Addition, Subtraktion, Multiplikation, Division,
Verknüpfung und Umkehrung stetige Funktionen ergeben, wenn sie auf stetige
Funktionen angewendet werden. Damit ist der Satz bewiesen, denn die elemen-
taren Funktionen werden aus den Grundfunktionen mit Hilfe dieser Operatio-
nen aufgebaut.
Vieles ist also stetig, aber nicht alles:
1.0
sgn(x)
0.5
-0.5
-1.0
Die sgn-Funktion ist unstetig an der Stelle p = 0: Für ε = 1/2 verläuft sgn nicht im
ε-δ-Rechteck bei (0, 0) = (0, sgn(0)), wie klein δ > 0 auch gewählt wird.
1.0
0.5
-0.5
-1.0
Die Funktion f mit f(x) = sin(1/x) für x ≠ 0 und f(0) = 0 ist an der Stelle 0 unstetig.
0.75
0.5
0.25
Oft möchte man „x strebt gegen p“ auf die linke oder rechte Seite der betrach-
teten Stelle p beschränken. Unsere Grenzwertdefinition kann leicht in dieser
Hinsicht angepasst werden:
Von der Stelle p wird bei einem linksseitigen Grenzwert immer vorausgesetzt,
dass p ein linksseitiger Häufungspunkt von P ist, d. h. es gilt
∀δ > 0 P ∩ ] p − δ, p [ ≠ 0.
Analog betrachten wir rechtsseitige Grenzwerte naturgemäß nur dann, wenn p
ein rechtsseitiger Häufungspunkt von P ist. Eine Annäherung an p von links bzw.
rechts ist andernfalls innerhalb des Definitionsbereichs P von f gar nicht mög-
lich.
Die einseitigen Grenzwerte erlauben die folgende Charakterisierung der Ste-
tigkeit:
Dabei ist in (b) ein einseitiger Grenzwert zu streichen, wenn p kein entsprechen-
der Häufungspunkt von P ist. Ist also zum Beispiel P = [0, 1] und p = 1, so verein-
facht sich die Bedingung zu
limx ↑1 f(x) = f(1).
Die Aussage (b) können wir etwas salopp, aber dafür griffig, so formulieren:
Linksseitiger Grenzwert gleich Funktionswert gleich rechtsseitiger Grenzwert.
Beispiele
(1) Für die Vorzeichenfunktion sgn gilt
limx ↑0 sgn(x) = −1, limx ↓0 sgn(x) = 1, sgn(0) = 0.
(2) Sei f : R → R mit f(x) = 0 für alle x ≠ 0 und f(0) = 1. Dann gilt
limx ↑0 f(x) = limx ↓0 f(x) = 0, f(0) = 1.
Dass sowohl der linksseitige als auch der rechtsseitige Grenzwert gleich a ist,
können wir durch
limx → p, x ≠ p f(x) = a
zum Ausdruck bringen.
Bemerkung
Nach unserer Definition wird in
limx →p f(x) = a
der Punkt p bei der „Annäherung an p“ zugelassen, sofern er sich im
Definitionsbereich von f befindet. Die Literatur ist hier nicht einheitlich,
manchmal wird der Punkt p explizit ausgeschlossen, sodass „x → p“ nach
unserer Lesart bedeutet, dass „x → p, x ≠ p“.
Uneigentliche Grenzwerte
Auch bei Grenzwerten für Funktionen können wir für p und a die symboli-
schen Werte ∞ und −∞ zulassen. Hierzu setzen wir:
In „x → ∞“ nehmen wir immer an, dass P nach oben unbeschränkt ist. Grenz-
werte, die den symbolischen Wert −∞ enthalten, werden analog definiert. Einen
Grenzwert, der einen symbolischen Wert ∞ oder −∞ involviert, nennen wir auch
einen uneigentlichen Grenzwert.
Der Leser möge sich uneigentliche Grenzwerte für Funktionen wieder mit
Hilfe von Rechtecken veranschaulichen. Die Rechtecke sind nun unbeschränkte
Teilmengen der Ebene. Die Idee bleibt gleich.
Die Folgenstetigkeit
Grenzwerte für Folgen und Grenzwerte für Funktionen hängen eng zusam-
men:
Einige Vorbemerkungen zum Beweis: Die Implikation von (a) nach (b) können
wir durch Einsetzen der Definitionen zeigen. Etwas schwieriger ist dagegen die
Implikation von (b) nach (a). Wir führen den Beweis indirekt, d. h. wir nehmen
non(a) an und zeigen non(b). Die Annahme non(a) liefert uns ein ε > 0 derart,
dass f aus allen ε-δ-Rechtecken bei (p, a) ausbricht, wie klein δ auch gewählt wird.
Zeugen für derartige Ausbrüche entlang einer Nullfolge positiver δn ergeben
eine Folge (xn )n P N in P, die gegen p konvergiert, deren f-Werte aber nicht gegen
a konvergieren, da sie alle mindestens den Abstand ε von a haben.
Beweis
(a) impliziert (b):
Es gelte limx → p f(x) = a. Sei (xn )n P N eine Folge in P mit limn xn = p.
Wir zeigen:
(+) lim n f(x n ) = a.
Sei hierzu ε > 0. Dann gibt es ein δ > 0 mit:
(++) |x − p| < δ → |f(x) − a| < ε für alle x P P.
Wegen limn xn = p gibt es ein n0 mit |x n − p| < δ für alle n ≥ n0 . Nach
(++) gilt also |f(x n ) − a| < ε für alle n ≥ n0 . Dies zeigt, dass limn f(xn ) = a.
non(a) impliziert non(b):
Es gelte also non(limx → p f(x) = a). Dann gibt es ein ε > 0 derart, dass für
alle δ > 0 ein x P P existiert mit
Dann ist (xn )n P N eine gegen p konvergente Folge in P mit der Eigen-
schaft non(limn f(xn ) = a).
Hieraus ergibt sich eine sehr bedeutsame Formulierung der Stetigkeit einer
Funktion mit Hilfe von Folgen. Wir definieren hierzu:
Definition (Folgenstetigkeit)
Sei f : P → R, und sei p P P. Dann heißt f folgenstetig an der Stelle p, falls
gilt:
Für alle Folgen (xn )n P N in P mit limn xn = p gilt limn f(xn ) = f(p).
Weiter heißt die Funktion f folgenstetig, falls f folgenstetig an allen Stellen
p P P ist.
f(x2 )
f(p) f(p)
f(x1 )
f(x0 )
x0 x1 x2 p
f(x)
Nach dem obigen Satz sind die beiden Stetigkeitsbegriffe äquivalent. Wir
halten dieses Ergebnis explizit fest:
0 x2 x1 x0
sgn(x)
Zur Folgen-Unstetigkeit von sgn an der Stelle 0: Die Folge 1, 1/2, 1/4, … konvergiert
gegen 0, aber die zugehörigen Funktionswerte konvergieren nicht gegen sgn(0) = 0.
Alternativ können wir in (b) zum Beispiel auch die Funktion g : P → R mit
P = { 1/n | n ≥ 1 } und
g(1/n) = xn für alle n ≥ 1
verwenden und limx → 0 g(x) = a fordern. Dadurch lassen sich uneigentliche
Grenzwerte vermeiden.
Übungen
Übung 1
Erläutern Sie den Verlauf einer Funktion in einem ε-δ-Rechteck und die
ε-δ-Stetigkeit durch Diagramme. Achten Sie bei der Stetigkeit besonders
auf die Abhängigkeitsverhältnisse zwischen ε und δ.
Übung 2
Betrachten Sie zwei waagrechte Achsen (Kopien des reellen Zahlenstrahls).
Eine Funktion f : R → R können wir als Abbildung der Punkte der ersten
Achse auf Punkte der zweiten Achse auffassen.
(a) Illustrieren Sie diese Interpretation einer Funktion durch Dia-
gramme anhand einfacher Beispiele.
(b) Erläutern Sie die ε-δ-Stetigkeit einer beliebigen Funktion f : R → R
an einer Stelle p anhand dieser Interpretation.
Übung 3
Die Stetigkeit hatten wir anschaulich formuliert durch:
Die Funktionswerte ändern sich wenig,
wenn sich die Stelle hinreichend wenig ändert.
Erläutern Sie die Bedeutung des Wortes „hinreichend“ in dieser Formulie-
rung.
Übung 4
Sei f : P → R, und sei p P P. Die ε-δ-Stetigkeit von f an der Stelle p lautet:
∀ε > 0 ∃δ > 0 ∀x P P (|x − p| < δ → |f(x) − f(p)| < ε).
(a) Welche Bedeutung hat die Aussage
∃δ > 0 ∀ε > 0 ∀x P P (|x − p| < δ → |f(x) − f(p)| < ε),
bei der die Quantoren über ε und δ vertauscht sind?
(b) Welche Bedeutung hat die Aussage
∃ε > 0 ∀δ > 0 ∀x P P (|x − p| < δ → |f(x) − f(p)| < ε),
bei der die Quantoren über ε und δ verwechselt sind?
(c) Welche Bedeutung hat die Aussage
∀ε > 0 ∃δ > 0 ∃x P P (|x − p| < δ → |f(x) − f(p)| < ε),
bei der der letzte Allquantor zu einem Existenzquantor geworden
ist?
Übung 5
Sei f : R → R mit f(x) = x2 für alle x P R. Zeigen Sie sowohl mit Hilfe der
ε-δ-Stetigkeit als auch mit Hilfe der Folgenstetigkeit, dass f stetig ist.
Übung 6
Weisen Sie sowohl mit Hilfe der ε-δ-Stetigkeit als auch mit Hilfe der
Folgenstetigkeit nach, dass die Vorzeichenfunktion sgn : R → R unstetig
im Nullpunkt ist. Zeichnen Sie Diagramme zur Illustration Ihrer Beweise.
Übung 7
Wir betrachten die Funktion f : R → R mit
x≠0
f(x) =
{ sin(1/x)
0
falls
sonst.
Übung 8
Zeigen Sie mit Hilfe der Folgenstetigkeit und der Limesregeln für Folgen,
dass f + g, c f für c P R, f ⋅ g und f/g stetige Funktionen sind, wenn f und g
stetig sind. Folgern Sie hieraus die Stetigkeit aller Polynome und rationalen
Funktionen unter Verwendung der Stetigkeit der Identität.
Übung 9
Zeigen Sie, dass die Verknüpfung g + f zweier stetiger und miteinander
verknüpfbarer Funktionen f und g stetig ist.
Übung 10
Sei f : P → R differenzierbar an der Stelle p P P. Zeigen Sie, dass f stetig an
der Stelle p ist.
Wir erweitern die reellen Zahlen R zu den komplexen Zahlen C, sodass unser
Zahlsystem die Form
N ⊆ Z ⊆ Q ⊆ R ⊆ C
annimmt. Die komplexen Zahlen sind gegenüber den reellen Zahlen durch die
uneingeschränkte Lösbarkeit von algebraischen Gleichungen ausgezeichnet.
Dies wird durch die Hinzunahme einer neuen Zahl i, der sog. imaginären Ein-
heit, erreicht, die die Eigenschaft i2 = −1 erfüllt. Überraschenderweise lässt sich
der neue Zahlkörper C der komplexen Zahlen einfach als die Euklidische Ebene
R2 auffassen − und speziell i als der Punkt (0, 1) −, sodass die Zahlen von ihrem
„imaginären Charakter“ befreit werden: Wir rechnen mit Punkten der Ebene, so
wie wir mit Punkten einer Linie rechnen.
Motivation
Zahl, deren Quadrat −1 ergibt. Das ist ungewöhnlich, aber nicht offensichtlich
widersprüchlich, da ja nicht behauptet wird, dass i eine reelle Zahl ist und dass die
neuen Zahlen in allen Aspekten mit den reellen Zahlen übereinstimmen. Der
Wunsch nach einer Präzisierung entsteht, um „vermutlich nicht widersprüch-
lich“ zu „nicht widersprüchlich“ zu verbessern. Da nun eine Zahl x + iy vollkom-
men durch die beiden beteiligten reellen Zahlen x, y bestimmt ist, kann man auf
die Idee kommen, eine Zahl x + iy mit dem Punkt (oder Vektor) (x, y) P R2 der
Ebene zu identifizieren. Diese Idee wird auch dadurch nahegelegt, dass die For-
mel für die Addition an eine Vektoraddition erinnert und die Formel für die Mul-
tiplikation zumindest den Kenner an die Drehformel für Vektoren der Ebene
denken lässt. Fassen wir Größen x + i y als Punkte (x, y) der Ebene auf, so werden
die Zahlen x + iy = (x, y) P R2 anschaulich und dem Reich des Imaginären ent-
rückt. Wegen i = 0 + i 1 ist speziell
i = (0, 1)
der kanonische Einheitsvektor auf der y-Achse. Weiter lässt sich wie üblich die
Menge R der reellen Zahlen als Teilmenge von R2 auffassen, indem eine reelle
Zahl x mit dem Punkt (x, 0) identifiziert wird.
(x, y) = x + iy
iy = (0, y)
i = (0, 1)
1 = (1,0) x = (x, 0)
Damit haben wir eine Erweiterung der reellen Zahlen gefunden, die dem Zah-
lenstrahl keine neuen Punkte mehr hinzufügt, sondern eine zweite Dimension.
Der entscheidende Unterschied zur Vektorrechnung der Ebene ist die eigenar-
tige Multiplikation, die sich aber zum Glück geometrisch mit Hilfe von Drehun-
gen anschaulich deuten lässt.
Für eine beliebige Dimension n ≥ 1 können wir zwei Vektoren des reellen
Raumes Rn = { (x1 , …, xn ) | x1 , …, xn P R } durch Addition ihrer Komponen-
ten addieren. Für den Fall n = 2 gilt für alle (x1 , y1 ), (x2 , y2 ) P R2 :
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ). (komponentenweise Addition)
Diese Addition teilt mit der reellen Addition alle wesentlichen Eigenschaften.
Beispielsweise gelten das Assoziativ- und Kommutativgesetz. Folgende Frage ist
damit nur natürlich:
Lassen sich Vektoren der Ebene (oder allgemeiner des Rn ) nicht nur addieren,
sondern auch so multiplizieren, dass die üblichen Rechenregeln gelten?
Die Aufgabe lautet also: Finde eine „gute Multiplikation“ für die Ebene. Der er-
ste Ansatz ist
(x1 , y1 ) ⋅ (x2 , y2 ) = (x1 x2 , y1 y2 ). (komponentenweise Multiplikation)
Für diese Multiplikation gilt aber zum Beispiel
(1, 0) ⋅ (0, 1) = (1 ⋅ 0, 0 ⋅ 1) = (0, 0),
was im Vergleich zu R keine „gute“ Eigenschaft ist. Auch das Euklidische Skalar-
produkt (x1 , y1 ) ⋅ (x2 , y2 ) = x1 x2 + y1 y2 ist als Analogon zur reellen Multiplikation
nicht überzeugend, da als Werte nur reelle Zahlen auftreten und erneut
(1, 0) ⋅ (0, 1) = 1 ⋅ 0 + 0 ⋅ 1 = 0
gilt. Wir brauchen also einen neuen Ansatz. Betrachten wir hierzu einen Punkt
z = (x, y) auf dem Einheitskreis. Für den Punkt z soll das Inverse 1/z P R2 exi-
stieren und es soll z ⋅ 1/z = 1 = (1, 0) gelten, wenn 1 = (1, 0) die Rolle der 1 über-
nimmt. Bei der Betrachtung dieser Inversenbildung kann man auf die Idee
kommen, den mit der x-Achse eingeschlossenen Winkel von z zu betrachten:
Spiegeln wir den Vektor z P R2 an der x-Achse zu w P R2 , so ist w das Inverse
von z, wenn die Multiplikation über die Addition von Winkeln erklärt wird.
Eine genauere Überlegung zeigt, dass folgende Multiplikationsregel nicht nur
für Punkte des Einheitskreises sondern für alle z P R2 „gut“ ist:
Multipliziere die Längen und addiere die Winkel der beiden beteiligten Vektoren.
Eine geometrische Analyse wie bei der Findung der Drehformel zeigt, dass diese
Multiplikation in kartesischen Koordinaten durch
(x1 , y1 ) ⋅ (x2 , y2 ) = (x1 x2 − y1 y2 , x1 y2 + y1 x2 )
definiert wird. Damit ist eine gute Multiplikation für die Ebene gefunden.
Wie sieht es mit den anderen Dimensionen Rn , n ≥ 3, aus? Die Antwort hierauf
ist viel schwieriger zu finden. Das überraschende Ergebnis lautet: Es gibt noch
„einigermaßen gute“ Multiplikation im R4 und R8 , in den anderen Dimensionen
jedoch nicht. Wir verweisen den Leser hierzu auf die Literatur.
Wir identifizieren eine reelle Zahl x mit der komplexen Zahl (x, 0). Dadurch
erreichen wir R ⊆ C, sodass die komplexen Zahlen die reellen Zahlen erweitern.
Für alle c P R und z = (x, y) P C gilt
c z = c (x, y) = (c, 0) (x, y) = (c x − 0 y, c y + 0 x) = (cx, c y),
sodass die Multiplikation mit einem reellen ersten Faktor der üblichen Skalar-
multiplikation von Vektoren entspricht.
Unsere bevorzugten Zeichen für komplexe Zahlen sind z,w,u. Je nach Kontext
nennen wir ein z P C eine Zahl, einen Punkt oder einen Vektor der Ebene.
z1 +z2
z1 z2
z2
z1
cu
Die Addition komplexer Zahlen ist die vertraute Vektoraddition. Weiter hat
sich die Multiplikation einer reellen Zahl mit einer komplexen Zahl als die übli-
che Skalierung eines Vektors herausgestellt. Eine anschauliche Bedeutung des
Produkts zweier beliebiger komplexer Zahlen liegt dagegen noch nicht vor. Um
eine solche zu finden, erinnern wir uns an die Drehformel: Bei unserer Diskus-
sion der Additionstheoreme für den Kosinus und Sinus hatten wir für zwei
Punkte
P1 = (x1 , y1 ) = (cos α, sin α), P2 = (x2 , y2 ) = (cos β, sin β)
des Einheitskreises gezeigt, dass
Q = (x1 x2 − y1 y2 , x1 y2 + y1 x2 ).
der Punkt auf dem Einheitskreis mit dem Winkel α + β (modulo 2π) ist. Das ist
genau die Form der komplexen Multiplikation. Damit erhalten wir:
Durch Skalierung gewinnen wir hieraus eine allgemeine Version: Sind (x1 , y1 ),
(x2 , y2 ) P C* und r1 , r2 > 0 die Euklidischen Längen der Vektoren, so gilt
1 1
(x1 , y1 ) ⋅ (x2 , y2 ) = r1 r2 ( r1
(x1 , y1 ) ⋅
r2
)
(x2 , y2 ) .
Die mit 1/r1 und 1/r2 skalierten Vektoren auf der rechten Seite sind die Projek-
tionen der beiden Vektoren auf den Einheitskreis. Da der Winkel eines Vektors
bei Projektion auf den Einheitskreis unverändert bleibt, erhalten wir mit Hilfe
der speziellen Regel:
Geometrische Multiplikationsregel
Zwei komplexe Zahlen werden multipliziert, indem ihre Längen multipli-
ziert und ihre (mit der positiven x-Achse eingeschlossenen und gegen den
Uhrzeigersinn gemessenen) Winkel addiert werden.
Hier und im Folgenden ordnen wir dem Nullvektor 0 = (0, 0) zur Vereinfachung
der Sprechweise den Winkel 0 zu, wo immer dies nützlich ist. Dann gilt die Regel
auch dann, wenn eine der komplexen Zahlen gleich 0 ist.
Die Multiplikation komplexer Zahlen lässt sich mit Hilfe von Polarkoordina-
ten bestechend einfach formulieren:
z1 z1
z1 z2 z2
1 1
z2
-1 1 -1 1
-1 -1
z1 z2
7 5
2
2 12 12
3 3
3
4 4
5
6 6
11
12 12
z1
0
1 2 3 4 5 6 7
13 23
12 z2 12
7 11
6 6
5 7
4 z1 z2 4
4 5
3 17 19 3
3
12 12
2
Drehungen um π/2
Die Multiplikation einer komplexen Zahl z mit i dreht z um π/2 gegen den
Uhrzeigersinn. Die Multiplikation von z mit (−i) dreht z um π/2 im
Uhrzeigersinn.
Beweis
Sei z = (x, y) P C. Dann gilt
z = (x, 0) + (0, y) = x + i (y, 0) = x + i y.
Zu beachten ist, dass auch der Imaginärteil stets eine reelle Zahl ist. Die imagi-
näre Einheit hat zum Beispiel den Realteil 0 und den Imaginärteil 1.
Die Standarddarstellung einer komplexen Zahl liest sich nun in der Form
z = Re(z) + i Im(z).
Der Betrag einer komplexen Zahl z = (x, y) ist die Euklidische Länge des Vek-
tors (x, y). Die Eigenschaften des komplexen Betrags entsprechen den aus dem
Reellen bekannten Eigenschaften:
Den Beweis durch Nachrechnen überlassen wir dem Leser als Übung. Geo-
metrisch lässt sich die Formel für die Inversenbildung leicht einsehen (und mer-
ken). Denn die komplexe Zahl w auf der rechten Seite hat die Länge |z|−1 und
den negativen Winkel von z. Damit hat z ⋅ w die Länge |z||z|−1 = 1 und den
Winkel 0. Das Inverse von z entsteht also durch Spiegelung an der x-Achse und
Skalierung um das Inverse des Betragsquadrats von z.
1
z z
Im(z)
|z| |z|
zw
Re(z) 1
|z| -1
w
z
-1
Übungen
Übung 1
Zeigen Sie sowohl in kartesischen Koordinaten als auch in Polarkoordina-
ten, dass die komplexe Multiplikation kommutativ und assoziativ ist, d. h.
dass
z w = w z, z (w u) = (z w) u für alle z, w, u P C.
Übung 2
Zeigen Sie, dass die komplexen Zahlen das Distributivgesetz erfüllen:
z(w + u) = z w + z u für alle z, w, u P C.
Begründen Sie das Distributivgesetz zudem geometrisch mit Hilfe eines
Diagramms und der geometrischen Multiplikationsregel.
Übung 3
Zeigen Sie, dass für alle z, w P C gilt:
(a) |z| = 0 genau dann, wenn z = 0,
(b) |z + w| ≤ |z| + |w|, (Dreiecksungleichung)
(c) |z w| = |z| |w|. (Produktregel)
Übung 4
Zeigen Sie (wahlweise in kartesischen Koordinaten oder in Polarkoordina-
ten), dass für alle z P C gilt:
z + z
(a) Re(z) = ,
2
z − z
(b) Im(z) = ,
2i
(c) |z|2 = z z,
z
(d) z− 1 = , falls z ≠ 0.
|z|2
Die komplexen Zahlen zeichnen sich vor den reellen Zahlen durch die univer-
selle Lösbarkeit von algebraischen Gleichungen aus. Äquivalent formuliert: Je-
des komplexe Polynom zerfällt in Linearfaktoren. Das Paradebeispiel ist
x2 + 1 = (x − i) (x + i).
Diese fundamentale Eigenschaft ist das Thema dieses Kapitels. Wir betrachten
zunächst einige Spezialfälle und geben dann zwei anschauliche Beweise für den
allgemeinen Fall.
Komplexe Polynome
Im ersten Abschnitt hatten wir reelle Polynome betrachtet. Polynome und alle
zugehörigen Begriffe wie Grad, Normiertheit, Nullstelle, algebraische Vielfach-
heit usw. lassen sich in analoger Weise auch für die komplexen Zahlen betrach-
ten. Der Vollständigkeit halber definieren wir explizit:
Genau wie für R wird der Grad deg(f) eines komplexen Polynoms erklärt.
Auch die Definitionen der Begriffe Leitkoeffizient, normiert, Nullpolynom, konstan-
tes Polynom, Nullstelle können übernommen werden.
Ein komplexes Polynom lässt sich visualisieren, indem wir in ein Diagramm
für einige z Pfeile von z nach f(z) eintragen. In den folgenden Diagrammen be-
trachten wir die Abbildungsdynamik zweier einfacher Polynome auf dem Ein-
heitskreis.
1.0
0.5
-0.5
-1.0
-1 1 2 3
-1
-2
-1
-2
-3
-3 -2 -1 0 1 2 3
-1
-2
-3
-3 -2 -1 0 1 2 3
-1
-2
-2 -1 0 1 2
-1
-2
-2 -1 0 1 2
-1
-2
-2 -1 0 1 2
Radiales Gitter: 1, 2, 4, 8, 16
-1
-2
-2 -1 0 1 2
Die Sätze über den Koeffizientenvergleich, die Polynomdivision und das Ab-
spalten von Linearfaktoren bleiben samt ihren Beweisen für komplexe Polynome
gültig. Insbesondere kann ein Polynom n-ten Grades höchstens n Nullstellen
besitzen. Der Fundamentalsatz der Algebra besagt nun, dass tatsächlich n in ih-
rer Vielfachheit gezählte Nullstellen existieren. Es gibt viele Möglichkeiten, die-
ses Ergebnis zu formulieren. Eine davon ist:
Kurz: Jedes komplexe Polynom zerfällt in Linearfaktoren. Oder: Jedes komplexe Poly-
nom ist das Produkt von komplexen Geraden. Ist das Polynom normiert, so lässt es
sich als Produkt von Geraden der Steigung 1 schreiben. Alternativ können wir
den Fundamentalsatz auch (scheinbar schwächer) so formulieren:
Jedes komplexe Polynom vom Grad größergleich 1 besitzt mindestens eine Nullstelle.
Weiß man dies, so gewinnt man durch wiederholtes Abspalten von Linearfakto-
ren den Satz in der obigen Version. Schließlich können wir anstelle eines Poly-
noms auch eine algebraische Gleichung an zn + an − 1 zn − 1 + … + a0 = 0 mit kom-
plexen Koeffizienten ak betrachten und den Fundamentalsatz so zum Ausdruck
bringen: Jede algebraische Gleichung vom Grad n ≥ 1 hat eine komplexe Lösung. In
Analogie zu obiger Version für Polynome formulieren wir:
Komplexe Quadratwurzeln
Wir definieren:
Beispiele
(1) −1 hat die komplexen Quadratwurzeln i und −i.
(2) i hat die komplexen Quadratwurzeln
(cos π/4, sin π/4) = c (1, 1) und − c (1, 1), wobei c = 1/£2.
Die komplexen Wurzeln von u sind die Nullstellen des Polynoms f mit
f(z) = z2 − u für alle z P C.
Diese Nullstellen können wir mit Hilfe der Multiplikationsregel sofort angeben:
2
z
-2 -1 1 2
-w
-1
-2
Wir ziehen also die reelle Wurzel aus der Länge und halbieren den Winkel der
Zahl u. Zusammen mit der am Nullpunkt gespiegelten komplexen Zahl haben
wir dann die beiden komplexen Wurzeln von u vorliegen.
Wir geben die Wurzeln noch in kartesischen Koordinaten an. Kartesisch ist
w = £r (cos ϕ/2, sinϕ/2).
Nach den Halbwinkelformeln für den Kosinus und Sinus ist
r + r cos ϕ r − r cos ϕ
r cos2 (ϕ/2) = , r sin2 (ϕ/2) = .
2 2
Wegen r cos ϕ = Re(u) erhalten wir
r + Re(u) r − Re(u)
Re(w)2 = r cos2 (ϕ/2) = , Im(w)2 = r sin2 (ϕ/2) = .
2 2
Die Werte cos(ϕ/2) und sin(ϕ/2) haben genau dann verschiedene Vorzeichen,
wenn ϕ einem der Intervalle
…, ] −π, 0 [, ] π, 2π [, ] 3π, 4π [, …
angehört, d. h. wenn Im(u) < 0. Aus w = (Re(w), Im(w)) erhalten wir also:
falls Im(u) ≥ 0,
σ =
{ 1
−1 falls Im(u) < 0.
Dann sind
s s
r − Re(u)
w1/2 = ± ( r + Re(u)
2
, σ
2 )
die komplexen Quadratwurzeln von u.
−b ± £b2 − 4ac
w1,2 = , (Mitternachtsformel für C)
2a
wobei wir unter der Wurzel irgendeine der beiden komplexen Quadratwurzeln
von u = b2 − 4ac verstehen (da ± vor der Wurzel steht, spielt die Wahl nur für
die Nummerierung der Lösungen eine Rolle). Eine solche Wurzel können wir
mit den obigen Sätzen berechnen. In den komplexen Zahlen entfällt die Beach-
tung des Vorzeichens der Diskriminante u. In C führt jede Diskriminante zu Lö-
sungen.
Beispiel
Wir betrachten die Funktion f : C → C mit
f(z) = z2 /2 − z − i.
Nach der Mitternachtsformel sind genau die komplexen Zahlen
−b ± £b2 − 4ac
w1,2 = = 1 ± £1 + 2i
2a
die Nullstellen von f. Nach der Formel des Satzes ist
s s
£5 + 1 £5 − 1
w = ( 2
,
2 )
eine der beiden komplexen Quadratwurzeln von u = 1 + 2i (mit σ = 1,
Re(u) = 1, r = £5). In kartesischen Koordinaten lauten die Nullstellen also
s s
£5 + 1 £5 − 1
w1,2 = 1 ± w = 1 ± ( 2
, ±
2
. )
Auf drei Nachkommastellen gerundet ist
w1 = (2,272; 0,786), w2 = (0,272; − 0,786).
Die n-ten Einheitswurzeln sind nach Definition genau die Nullstellen des
Polynoms f : C → C mit
f(z) = zn − 1 für alle z P C.
Für eine n-te Einheitswurzel w gilt wn = 1, sodass w eine n-te Wurzel der 1 ist. Im
algebraischen Jargon wird die 1 auch als (multiplikative) Einheit bezeichnet, was
die Namensgebung als Einheitswurzel motiviert.
Mit der geometrischen Deutung der Multiplikation können wir die n-ten Ein-
heitswurzeln leicht angeben, wodurch der Fundamentalsatz der Algebra für
wichtige Spezialfälle bereits bewiesen ist. Schreiben wir eine komplexe Zahl w in
Polarkoordinaten (r, ϕ), so gilt wn = (rn , nϕ). Damit gilt wn = (1, 0) genau dann,
wenn eine ganze Zahl k existiert mit
(rn , nϕ) = (1, k 2π).
Damit sind genau die komplexen Zahlen
wk = (1, k2π/n) für alle k P Z
n-te Einheitswurzeln. Beschränken wir k auf 0, …, n − 1, so erhalten wir alle
paarweise verschiedenen Wurzeln. Damit haben wir gezeigt:
k 2π k 2π
(
ζ nk = cos (
n
), sin (
n
)) für alle n ≥ 1 und k P Z.
Ist n fest, schreiben wir nur ζk . Bei festem n gilt für alle k, m P Z:
1 = ζ 0 = ζ kn , ζ k ζ m = ζ k + m , (ζ1 )k = ζk , (ζk )m = ζ m k .
3
1 2
0
-1 1
10
-1 9
8
i 0
1
i 1 i 10
i 2 i 9
-1 1
i 3 i 8
i 4 i 7
-1
i 5 i 6
Die Multiplikation der Einheitswurzeln mit i bewirkt eine Drehung der Figur um π/2.
1 − z5
(+) 1 + z + z2 + z3 + z4 = = 0,
1−z
wobei wir beim ersten Gleichheitszeichen die auch in C gültige Formel für die
geometrische Summe bzw. konkret
(1 − z) (1 + z + z2 + z3 + z4 ) = 1 − z5
verwenden und beim zweiten Gleichheitszeichen beobachten, dass z5 = z0 = 1.
Wir setzen nun
w = z + z4 .
Dann ist w reell und weiter positiv, da
w = z + z4 = z + z−1 = z + z = 2 Re(z) = 2 cos(2π/5) > 0.
Weiter gilt
w2 + w − 1 = z2 + 2zz4 + z8 + z + z4 − 1 = 1 + z + z2 + z3 + z4 = 0.
Die Mitternachtsformel liefert wegen w > 0, dass
£5 − 1
w = ,
2
d.h. w ist das Inverse des goldenen Schnitts (1 + £5)/2. Wegen w = 2 Re(z) erhal-
ten wir den Wert
£5 − 1
cos(2π/5) = .
4
Da sich der Punkt P = ((£5 − 1)/4, 0) und damit ζ1 geometrisch mit Zirkel und
Lineal konstruieren lässt (Übung), haben wir unter Verwendung komplexer
Zahlen gezeigt, dass Re(z) und damit z und in der Folge auch das ganze regelmä-
ßige Pentagon mit Zirkel und Lineal konstruierbar ist. Dies ist keineswegs klar.
Ein regelmäßiges Siebeneck kann zum Beispiel nicht mehr mit Hilfe von Zirkel
und Lineal konstruiert werden. Der Wert cos(2π/7) lässt sich im Gegensatz zu
cos(2π/5) nicht mehr als Wurzelausdruck schreiben.
1 1
-1
4
1.5
1.0
0.5
Farbplot des Polynoms
f(z) = z5 − 1
0.0
Radiales Gitter: 1, 2, 4, 8, 16, 32
-0.5
-1.0
-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
Wir haben den Fundamentalsatz der Algebra für komplexe Polynome zweiten
Grades und weiter für die Polynome zn − 1 mit einem beliebigen Grad n ≥ 1 be-
wiesen. Ein vollständiger Beweis des Fundamentalsatzes ist nicht Ziel dieses Tex-
tes. Wir können aber mit einer durch Felix Klein verbreiteten Argumentation die
Gültigkeit des Fundamentalsatzes in voller Allgemeinheit anschaulich einsehen.
Sei also f : C → C,
f(z) = zn + an − 1 zn − 1 + … + a1 z + a0 für alle z P C,
ein ohne Einschränkung normiertes Polynom n-ten Grades mit komplexen Ko-
effizienten (die Nullstellen eines Polynoms ändern sich bei der Division durch
seinen Leitkoeffizienten nicht).
Eine Nullstelle z des Polynoms f ist charakterisiert durch die Eigenschaft
(+) Re(f(z)) = 0 und Im(f(z)) = 0.
Die Nullstellen von f sind also genau die gemeinsamen Nullstellen der reellwer-
tigen Funktionen Re(f(z)) und Im(f(z)) mit Definitionsbereich C. Wir setzen nun
An = { z P C | Re(zn ) = 0 },
Bn = { z P C | Im(zn ) = 0 }.
Diese Mengen können wir mit Hilfe der geometrischen Multiplikationsregel
visualisieren. Sie sind regelmäßige Sterne, die aus n Geraden durch den Null-
punkt bestehen und so 2n unendliche Kreissektoren mit dem Winkel π/n
definieren. Der Menge Bn gehört die x-Achse an, An entsteht aus Bn (und um-
gekehrt Bn aus An ) durch eine Drehung um den halben Winkel π/(2n) eines
Sektors. Die Geraden, aus denen An und Bn bestehen, wechseln sich ab.
Für komplexe Zahlen z mit einem sehr großen Betrag r = |z| ist f(z) ungefähr
gleich zn , da der Leitterm zn das Polynom dominiert. Damit haben die Mengen
Af = { z P C | Re(f(z)) = 0 },
Bf = { z P C | Im(f(z)) = 0 }
außerhalb eines Kreises K mit dem Mittelpunkt 0 und einem hinreichend großen
Radius r recht genau die sternförmige Gestalt der Mengen An und Bn . Innerhalb
des Kreises K verlaufen die Linien von Af und Bf nicht mehr geradlinig wie in An
und Bn , aber ein Schnittpunkt von Af und K wird aus Stetigkeitsgründen mit ei-
nem weiteren solchen Schnittpunkt verbunden. Gleiches gilt für Bf . Da sich nun
die Schnittpunkte von Af und K mit den Schnittpunkten von Bf und K abwech-
seln, müssen sich die betrachteten Verbindungslinien innerhalb von K schnei-
den. Jeder solche Schnittpunkt ist aber nach (+) und den Definitionen von Af und
Bf eine Nullstelle von f. Da es je 2n Schnittpunkte für Af und Bf mit K gibt, erhal-
ten wir genau n (nicht notwendig paarweise verschiedene) Nullstellen von f.
10 10
5 5
0 0
-5 -5
-10 -10
-10 -5 0 5 10 -10 -5 0 5 10
10 10
5 5
0 0
-5 -5
-10 -10
-10 -5 0 5 10 -10 -5 0 5 10
10 10
5 5
0 0
-5 -5
-10 -10
-10 -5 0 5 10 -10 -5 0 5 10
2 3
Af und Bf für f(z) = (z − i + 3) (z + i − 2) (links) und ein Polynom vom Grad 6 (rechts)
Die Struktur der Mengen An und Bn lässt sich auch mit Hilfe von 3D-Plots vi-
sualisieren. Hierzu verwenden wir die Funktionen re*, im* : C → C mit
re*(z) = 2/π arctan(Re(z)2 ), im*(z) = 2/π arctan(Im(z)2 ) für alle z P C.
Der Wertebereich der beiden Funktionen ist das Intervall [ 0, 1 ]. Die Arkustan-
gens-Funktion bildet alle Funktionswerte in das Intervall [ 0, π/2 ] ab, der Fak-
tor 2/π führt zu Werten in [ 0, 1 ]. Diese Transformation dient der Übersicht-
lichkeit der Darstellung. Für jedes Polynom f : C → C sind die Mengen Af und
Bf genau die Nullstellen von re* + f und im* + f. Im Plot erscheinen diese Men-
gen als Canyons, die in einem hinreichend großen Abstand vom Ursprung eine
sternförmige Gestalt annehmen.
Die Funktionen re*(f(z)) (oben) und im*(f(z)) (unten) samt den Mengen
Af bzw. Bf (als Linien eingezeichnet) für das Polynom f(z) = z5
Einen weiteren sehr anschaulichen Beweis erhalten wir, wenn wir die Bilder
f [ Kr ] = { f(z) | z P Kr } von zentrischen Kreisen Kr = { z P C | |z| = r } unter ei-
nem komplexen Polynom f untersuchen. Konkret betrachten wir f : C → R mit
f(z) = z5 + i z4 − 2z3 + z2 − (1 + i)z + 2 + i für alle z P C.
Das Bild f [ K0 ] ist die einelementige Menge { 2 + i }. Ist dagegen R sehr groß und
z P KR , so ist f(z) ungefähr gleich z5 . Das Bild von KR unter dem Polynom z5 ist
der (fünfmal durchlaufene) Kreis KR5 . Da sich f [ KR ] an KR5 annähert, liegt der
Nullpunkt im Inneren von f [ KR ]. Der Übergang von r = 0 zu r = R ist stetig, so-
dass es ein r* P [ 0, R ] und ein z* P Kr* geben muss mit f(z*) = 0. Die folgenden
Abbildungen visualisieren diese stetige Verformung.
2
2
1
1
-3 -2 -1 1 2 3 -3 -2 -1 1 2 3
-1
-1
-2
-2
-3
-3
50
4
-6 -4 -2 2 4 6 -50 50
-2
-4
-50
-6
1500 40 000
1000
20 000
500
-1500 -1000 -500 500 1000 1500 -40 000 -20 000 20 000 40 000
-500
-20 000
-1000
Die Bilder f [ Kr ] der in fünf Farben aufgeteilten Kreise Kr für r = 1/4, 1/2, 1, 2, 4, 8.
Die rote Linie im dritten Diagramm trifft den Ursprung: Es gilt f(−i) = 0 für − i P K1 .
Die Mengen f [ Kr ] streben gegen fünf überlagerte Kreise Kr5 , wenn r gegen unendlich
strebt. Für das fünfte Diagramm mit r = 8 gilt 85 = 32786.
4
5
-6 -4 -2 2 4 6 -5 5
-2
-5
-4
-6
15
40
10
20
5
-5
-20
-10
-40
-15
Die vier anderen Nullstellen von f . Die gerundeten Radien sind 0.909 (gelb),
1.005 (blau), 1.352 (violett), 1.809 (grün).
1.0 1.0
0.5 0.5
-0.5 -0.5
-1.0 -1.0
Komplexe Wurzelfunktionen
Wir hatten unter £z irgendeine der beiden komplexen Wurzeln von z ver-
standen. Wenn wir eine komplexe Wurzelfunktion sqrt : C → C definieren wol-
len, müssen wir uns auf eine der beiden Wurzeln festlegen, da Funktionswerte
eindeutig sind. Wir arbeiten in Polarkoordinaten mit Winkeln in [ 0, 2π [ (Vari-
ante 1) bzw. ] −π, π ] (Variante 2). Die Wurzeln einer komplexen Zahl z = (r, ϕ)
sind w = (£r, ϕ/2) und −w. Wir wählen w und setzen also
sqrt(z) = (£r, ϕ/2) für alle z = (r, ϕ) P C (polar).
10
-5
-10
-10 -5 0 5 10
10
-5
-10
-10 -5 0 5 10
Bei Variante 1 erhalten wir Winkel in [0, π[, bei Variante 2 Winkel in ]−π/2, π/2].
In ersten Fall ist sqrt unstetig auf der positiven x-Achse, im zweiten unstetig auf
der negativen x-Achse. Obige Farbplots veranschaulichen den beschränkten
Wertebereich und die Unstetigkeits-Strahlen. In der Funktionentheorie wird die
Variante 2 bevorzugt. Dort wählt man das Winkelintervall ] −π, π ] als Standard.
Analoge Überlegungen gelten für dritte und höhere Wurzeln und viele andere
Funktionen. Eine dritte Wurzelfunktion root3 : C → C kann beispielsweise
durch
root3 (z) = (r1/3 , ϕ/3) für alle z = (r, ϕ) P C (polar).
definiert werden. Bei Variante 2 ergeben sich Winkel in ]−π/3, π/3]. Erneut ist
die Funktion unstetig auf der negativen x-Achse.
Übungen
Übung 1
Eine komplexe Funktion f : C → C lässt sich wie beschrieben mit der
Farbkreismethode visualisieren, indem wir jedem Winkel ϕ P [ 0, 2π [ eine
Farbe und jedem r ≥ 0 eine Farbintensität (weiß für r = 0, dunkel für große r)
zuweisen. Jedes z = (r, ϕ) in Polarkoordinaten wird dann mit der Farbe f(z)
gefärbt. Diskutieren Sie qualitativ eine derartige Färbung für die Funktionen
(a) f(z) = z − c mit einer Konstanten c P C,
(b) f(z) = z,
(c) f(z) = 1/z für alle z ≠ 0,
(d) f(z) = z2 ,
(e) f(z) = z3 − 1.
Übung 2
Geben Sie die komplexen Lösungen der Gleichung
3z2 − 2z + 1 = 0
in kartesischen Koordinaten an.
Übung 3
Sei n ≥ 1. Zeigen Sie:
(a) Das Produkt zweier n-ter Einheitswurzeln ist eine n-te Einheitswur-
zel.
(b) Das multiplikative Inverse einer n-ten Einheitswurzel ist eine n-te
Einheitswurzel.
Übung 4
Seien n, m ≥ 1. In welchem Fall ist jede n-te Einheitswurzel auch eine m-te
Einheitswurzel?
Übung 5
Sei n ≥ 1. Geben Sie alle Nullstellen des Polynoms f : C → C mit
f(z) = zn + 1 für alle z P C
polar und kartesisch an. Zeichnen Sie die Nullstellen und beschreiben Sie
ihren Zusammenhang mit den komplexen Einheitswurzeln.
Übung 6
Seien n ≥ 1 und d P C. Geben Sie (in Verallgemeinerung der vorangehen-
den Übung) alle Nullstellen des Polynoms f : C → C mit
f(z) = zn − d für alle z P C
polar und kartesisch an und erstellen Sie ein erläuterndes Diagramm.
Übung 7
Konstruieren Sie mit Zirkel und Lineal den Punkt P = (x1 , 0) mit
£5 − 1
x1 = cos(2π/5) = .
4
Konstruieren Sie mit Hilfe von P ein regelmäßiges Pentagon.
Übung 8
Wie bei der Diskussion des regelmäßigen Fünfecks sei
z = ζ51 = (cos(2π/5), sin(2π/5)).
Wir setzen
a = |1 − z|, b = |1 − z2 |,
sodass a die Länge der Seite und b die Länge der Diagonalen des Pentagons
1, z, z2 , z3 , z4 ist. Erstellen Sie eine Skizze und zeigen Sie mit Hilfe
komplexer Zahlen, dass
s
5 − £5 b 1 + £5
a = , = (goldener Schnitt).
2 a 2
Zum Abschluss unserer Einführung in die Welt der komplexen Zahlen betrach-
ten wir die komplexe Exponentialfunktion, die manchmal als die wichtigste
Funktion der Mathematik bezeichnet wird. Dass die Exponentialfunktion als
Generator für viele Funktionen dienen kann, ist uns aus dem Reellen schon be-
kannt. Im Reellen ist aber kein Zusammenhang mit den trigonometrischen
Funktionen zu sehen. Dies ändert sich im Komplexen in einer wunderbaren Art
und Weise.
Mit den komplexen Zahlen können wir so arbeiten wie mit den reellen Zahlen.
Lediglich eine lineare Ordnung, mit der zwei Zahlen nach ihrer Größe vergli-
chen werden können, steht in der Zahlenebene C = R2 nicht mehr zur Verfü-
gung. Eine solche Ordnung wird aber für viele grundlegende Konzepte der Ana-
lysis nicht gebraucht. So können wir zum Beispiel den Limes
limn zn = z
einer Folge (zn )n P N komplexer Zahlen wie in R definieren durch
∀ε > 0 ∃n0 ∀n ≥ n0 |z − zn | < ε (mit ε P R wie bisher).
Die Konvergenz von (zn )n P N gegen z bedeutet, dass für jedes ε > 0 fast alle (alle
bis auf höchstens endlich viele) Folgenglieder in der offenen ε-Umgebung
Uε (z) = { w P C | |z − w| < ε }
von z liegen. Kurz: Jeder Kreis um z fängt die Folge schließlich ein.
z2 z1
z8
z7
z9 U (z)
z3
z0
1
z6
z4
z5
1 2
Alternativ lässt sich der Grenzwert einer Folge in C auch über reelle Grenzwerte
ausdrücken: Die Konvergenz von (zn )n P N gegen z ist gleichwertig mit der Kon-
vergenz der beiden reellen Folgen (Re(zn ))n P N und (Im(zn ))n P N gegen die reel-
len Zahlen Re(z) bzw. Im(z). Eine Folge komplexer Zahlen konvergiert also ge-
nau dann, wenn sie koordinatenweise konvergiert.
Aus dem Konvergenzbegriff für Folgen ergibt sich genau wie früher der Kon-
vergenzbegriff für unendliche Reihen in C: Im Fall der Existenz ist
∑ n zn = z0 + … + zn + … = limn sn , wobei sn = z0 + … + zn
wieder die n-te Partialsumme der Folge (zn )n P N in C ist.
Auch die Definition des Grenzwerts für Funktionen können wir übernehmen:
limz →p f(z) = a
ist für eine Funktion f : C → C, eine Stelle p P C und ein a P C definiert durch
∀ε > 0 ∃δ > 0 ∀w P C (|w − p| < δ → |f(w) − a| < ε) (mit ε,δ P R wie bisher).
Gilt limz →p f(z) = f(p), so nennen wir wieder f stetig an der Stelle p. Die ε-δ-Be-
dingung
der Stetigkeit von f an der Stelle p können wir mit Hilfe von Umgebungen auch
kompakt notieren als
Dabei ist f [ X ] = { f(x) | x P X } das Bild der Menge X unter f. Die Formulierung
(+) besagt also, dass für jedes vorgegebene ε > 0 ein geeignetes (von ε abhängiges)
δ > 0 gewählt werden kann, sodass das Bild der δ-Umgebung von p unter f eine
Teilmenge der ε-Umgebung von f(p) ist.
U (f(p))
f(p)
U (p)
Zur ε-δ-Stetigkeit von f an der Stelle p: Zu jedem ε > 0 gibt es ein δ > 0 derart,
dass f die δ-Umgebung Uδ (p) in die ε-Umgebung Uε (f(p)) abbildet.
1 − zn + 1
∑ k ≤ n zk = 1 + z + z2 + … + zn = für alle z ≠ 1,
1−z
sodass die komplexe geometrische Reihe im Inneren des Einheitskreises konver-
giert:
1
∑ n zn = 1 + z + z2 + … + zn + … = für alle z mit |z| < 1.
1−z
Beispiel
Wir setzen c = 19/20 ⋅ 1/£2 und q = c (1 + i). Die geometrische Reihe für q
konvergiert, da |q| = 19/20 < 1. Der Grenzwert berechnet sich zu
1 1
1−q
=
c2 + (1 − c)2
( 1 − c, c ) = ( 0,587…, 1,201… ).
Die Konvergenz ist aufgrund der Nähe von q zum Rand des Einheitskreises
recht langsam.
s4 s3
2
s12 s11
s5
s2
s13 s10
s14
s6 1
s9
s15 s1
s7 s8
s0
1 2
Beweis 1: Potenzreihenentwicklung
Sei x P R. Dann gilt unter Verwendung der Potenzreihenentwicklungen
des Kosinus und Sinus:
(ix)n x2 xn
eix = ∑ n = 1 + i x + i2 + … + in + …
n! 2 n!
x2 x3 x4 x5 x6 x7
= 1 + ix − − i + + i x − − i + …
2 3! 4! 5! 6! 7!
x2n x2n + 1
= ∑ n (−1)n + i ∑ n (−1)n
(2n)! (2n + 1)!
= cos x + i sin x.
Beweis 2: Ableiten
Wir wissen bereits, dass eix für alle x P R auf dem Einheitskreis liegt. Damit
gibt es für alle x P R ein ϕ(x) P R mit
(+) eix = (cos ϕ(x), sin ϕ(x)) = cos ϕ(x) + i sin ϕ(x).
Also gilt für alle x P R (unter Verwendung der auch in C gültigen elemen-
taren Ableitungsregeln):
d ix d
−sinϕ(x) + i cosϕ(x) = i eix = e = ( cos ϕ(x) + i sin(ϕ(x) )
dx dx
Damit ist ϕ′(x) = 1 für alle x P R. Folglich gibt es ein c P R mit ϕ(x) = x + c
für alle x P R. Speziell ist ϕ(0) = c. Nach (+) gilt für x = 0
1 = ei0 = cos c + i sin c,
sodass c ein ganzzahliges Vielfaches von 2π ist. Sei also k P Z mit c = k2π.
Dann gilt für alle x P R:
eix = cos ϕ(x) + i sin ϕ(x) = cos(x + k2π) + i sin(x + k2π) = cos x + i sin x.
exp
2
3
exp exp
4 4
exp( ) exp(0)
5 7
exp exp
4 4
3
exp
2
Korollar (Periodizität)
Für alle z P C und k P Z gilt exp(z + i k2π) = exp(z).
Beweis
Seien z P C und k P Z. Dann gilt
exp(z + i k 2π) = exp(z) exp(i k 2π) = exp(z) exp(i 2π)k = exp(z) 1k = exp(z).
10 10
5 5
-10 -5 5 10 -10 -5 5 10
-5 -5
-10 -10
n=8 n = 11 n = 15
n = 20 n = 25 n = 30
-3 -2 -1 1 2 3
-1
-2
-3
1.0
0.5
-0.5
-1.0
10
10
5 5
0 0
-5
-5
-10
-10
-10 -5 0 5 10 -10 -5 0 5 10
15
10
10
5
5
0 0
-5
-5
-10
-10
-15
20 20
10 10
0 0
-10 -10
-20 -20
-20 -10 0 10 20 -20 -10 0 10 20
Die Mengen Asn = { z | Re(sn (z)) = 0 } und Bsn = { z | Im(sn (z)) = 0 } für die Polynome
sn (z) = ∑ k ≤ n zk /k! mit n = 5, 10, 15, 20, 25.
(Der Leser vgl. den ersten anschaulichen Beweis des Fundamentalsatzes.) Im letzten
Diagramm sind Aexp = { z | Re(exp(z)) = 0 } und Bexp = { z | Im(exp(z)) = 0 } gezeigt.
Die waagrechten Linien verlaufen im Abstand π/2 voneinander.
exp(z) = ∑ n ≥ 0 zn /n!
0
Radiales Gitter:
exp(−3), exp(−2), …, exp(3)
-
-3 -2 -1 0 1 2 3
0
s3 (z) = 1 + z + z2 /2 + z3 /6
-2
-3
-3 -2 -1 0 1 2 3
0
s5 (z) = ∑ k ≤ 5 zk /k!
-2
-4
-4 -2 0 2 4
k 2π k 2π
ζ nk = ( cos ( n
), sin (
n
)) für k P Z,
Durch diese Darstellung wird das Rechnen mit den Einheitswurzeln vereinfacht.
So gilt zum Beispiel für alle ganzzahligen k und m
Die Ableitungen des Kosinus und Sinus lassen sich ebenfalls mit der Euler-
schen Formel reproduzieren (vgl. die Argumentation im zweiten Beweis):
d d ix
cos′ x + i sin′ x = ( cos x + i sin x ) = e = i eix =
dx dx
= i (cos x + i sin x) = − sin x + i cos x.
Vergleich von Real- und Imaginärteil ergibt cos′ = − sin und sin′ = cos. Das Argu-
ment ist die komplexe Version unserer dynamischen Ermittlung der Ableitungen
des Kosinus und Sinus über eine gleichmäßige Bewegung auf dem Einheitskreis.
Die Drehung des Koordinatenvektors (cos x, sin x) um π/2 zum Geschwindig-
keitsvektor (−sin x, cos x) entspricht der Multiplikation mit i bei der Ableitung
von eix .
Bemerkung
Es ist möglich, die komplexe Exponentialfunktion bei einem Aufbau der
Analysis an die Spitze zu stellen und die trigonometrischen Funktionen
durch
cos(x) = Re(eix ), sin(x) = Im(eix ) für alle x P R
zu definieren. Bei diesem Vorgehen lassen sich die Additionstheoreme, die
Reihenentwicklungen und die Ableitungen des Kosinus und Sinus mit
obigen Argumenten beweisen. Weiter ergibt sich eine analytische Defini-
tion von π, indem π/2 als die erste positive Nullstelle des Kosinus oder
alternativ 2π als die Periode von exp festlegt wird. Dann ist aber zu zeigen,
dass die analytische Größe π mit der geometrischen Größe π überein-
stimmt. Allgemeiner muss die Längentreue der Kreisaufwicklung nachge-
wiesen werden, die bei diesem Ansatz keineswegs klar ist.
25
20
0.3
15 0.2
0.1
10
-0.2 0.2 0.4 0.6 0.8 1.0
-0.1
-5 -4 -3 -2 -1
25
100
20
50
15
-100 -50 50 100 150
10
-50
5
-100
1 2 3 4 5
10
1
5
-5
-1
-10
-2
2
4
1
2
-2
-1
-4
-2
-6
6
2
5
1
4
3 -2 -1 1 2 3
-1
2
1 -2
-3
-1.0 -0.5 0.5 1.0
k /2
-1 -0.5 0.5 1
- k /2
1
1
-1 1 2 -2 -1 1 2 3
-1
-1
-2
-2
2 2
1 1
-2 -1 1 2 3 -2 -1 1 2 3
-1 -1
-2 -2
Übungen
Übung 1
Visualisieren Sie den Grenzwert limn zn = z einer Folge (zn )n P N in den
komplexen Zahlen, indem Sie Kreise mit Mittelpunkt z der Ebene C = R2
betrachten.
Übung 2
Visualisieren Sie die ε-δ-Stetigkeit einer Funktion f : C → C an der Stelle
p P C. Betrachten Sie hierzu Kreise der Ebene.
Übung 3
Überzeugen Sie sich davon, dass
d n
z = n zn − 1 für alle z P C
dz
genau wie im Reellen bewiesen werden kann.
Übung 4
Zeigen Sie, dass für alle n P N und x P R gilt:
(cos x + i sin x)n = cos(nx) + i sin(nx). (Formel von de Moivre)
Leiten Sie hieraus die Verdopplungsformeln für cos(2x) und sin(2x) ab.
Übung 5
Skizzieren Sie die Mengen
A = { exp(1 + ix) | x P [ −π/2, π/2 ] },
B = { exp(log x + ix) | x P ] 0, 2π ] }.
Übung 6
Skizzieren Sie die Mengen
A = { (x, y) P C | x P [ 0, 1 ], y P [ 0, π ] },
B = exp [ A ] = { exp(x + i y) | (x, y) P A }.
Übung 7
Wie für R gilt für alle z P C und alle gegen z konvergenten Folgen (zn )n PN in C:
zn
(+) exp(z) = limn 1 + ( n ) n.
Leiten Sie aus (+) das Additionstheorem für exp : C → C ab.
Reelle Vektoren
Notation
Wie notieren Vektoren ohne Pfeile oder Striche. Bevorzugt verwenden wir
die Zeichen v, w, u für Vektoren. Ein Index i bezeichnet, wenn nichts
anderes gesagt ist, die i-te Komponente eines Vektors. Damit gilt für eine
gegebene Dimension n zum Beispiel
v = (v1 , …, vn ), w = (w1 , …, wn ), u = (u1 , …, un ).
Vektoren des R2 und R3 notieren wir oft auch in der Form
v = (x, y) bzw. v = (x, y, z).
Den Raum R1 identifizieren wir mit R.
Die Index-Notation ist auch möglich, wenn mehrere Vektoren betrachtet wer-
den. Sind zum Beispiel v1 , v2 , v3 drei Vektoren des R3 , so ist v2, 3 die dritte Kom-
ponente des Vektors v2 . Wir schreiben auch kurz vij statt vi, j .
Die Vektoraddition
Definition (Vektoraddition)
Sei n ≥ 1. Dann setzen wir für alle v, w P Rn :
v + w = (v1 + w1 , …, vn + wn ) (Addition von v und w)
Die Bildung von −v lässt sich anschaulich durch die Spiegelung des Vektors v
am Nullpunkt darstellen. Die Differenz v − w können wir durch den Pfeil, der
von der Spitze von w zur Spitze von v zeigt, repräsentieren.
Wesentliche Eigenschaften der Vektoraddition sind:
Der Beweis kann dem Leser zur Übung überlassen bleiben. Insgesamt gelten
die vertrauten Gesetze der Addition reeller Zahlen, und wir übernehmen ent-
sprechende Konventionen. Aufgrund der Assoziativität können wir zum Beispiel
Klammern weglassen und aufgrund der Kommutativität Vektoren einer Summe
v1 + … + vn beliebig umordnen.
Beispiel
Im R5 gilt −(1, 1, 2, 0, −1) = (−1, −1, −2, 0, 1), −e2 = (0, −1, 0, 0, 0).
Die Skalarmultiplikation
Einen Vektor können wir um einen beliebigen reellen Faktor strecken oder
stauchen, wobei ein negatives Vorzeichen zusätzlich eine Spiegelung am Null-
punkt bewirkt. Dieser Vorgang wird als Skalierung oder Skalarmultiplikation be-
zeichnet und die beteiligten reellen Faktoren nennt man entsprechend Skalare.
Wir bezeichnen Skalare meistens mit griechischen Buchstaben, um sie von Vek-
toren zu unterscheiden. Da α, β, γ, δ oft für Winkel verwendet werden, bevorzu-
gen wir andere Buchstaben. Häufig verwendet werden vor allem λ und µ.
Definition (Skalarmultiplikation)
Sei n ≥ 1. Dann setzen wir für alle λ P R und alle v P Rn :
λ v = (λ v1 , …, λ vn ). (Multiplikation des Vektors v mit dem Skalar λ)
Weiter bemerken wir, dass − v = (−1) v für alle n ≥ 1 und alle v P Rn gilt. Allge-
mein lässt sich die Multiplikation eines Vektors mit einem negativen Skalar λ als
eine Skalierung um |λ| gefolgt von einer Spiegelung am Nullpunkt auffassen
oder umgekehrt als Spiegelung am Nullpunkt gefolgt von einer Skalierung um
|λ|.
Beispiele
(1) Im R2 gilt 2e1 = 2(1, 0) = (2, 0), −3v = (−3v1 , −3v2 ) für alle v P R2 .
(2) Für alle v = (v1 , v2 , v3 ) P R3 gilt
v = v1 (1, 0, 0) + v2 (0, 1, 0) + v3 (0, 0, 1) = v1 e1 + v2 e2 + v3 e3 .
(3) Allgemein gilt für alle n ≥ 1 und v P Rn
v = v1 e1 + … + vn en = ∑ 1 ≤ k ≤ n vk ek .
Wir setzen den Satz des Pythagoras als bekannt voraus. Die beiden folgenden
Diagramme illustrieren das zeitlose Ergebnis und zeigen Möglichkeiten auf, den
Satz mit Hilfe von Flächeninhalten bzw. Streckenverhältnissen zu beweisen.
c
b
a b
Die Fläche des großen Quadrats ist (a + b)2 und die Fläche der vier Dreiecke ist 2ab.
Damit ist c2 = (a + b)2 − 2ab = a2 + b2 .
c b
Q c a R c-a S
i v i = £v1 2 + … + vn 2 .
Die reelle Zahl i v i heißt die Euklidische Norm oder Länge des Vektors v.
v = (x, y)
y
i v i = £x + y
2 2
Beispiele
(1) Für die Dimension n = 2 gilt i (3, 4) i = £9 + 16 = £25 = 5.
(2) Für die Dimension n = 2 gilt i (1, 1) i = £2. Für die Dimension n = 3
gilt i (1, 1, 1) i = £3. Allgemein gilt im Rn , dass i (1, …, 1) i = £n.
(3) Für jede Dimension n und alle 1 ≤ k ≤ n gilt i ek i = 1.
Für n = 1 und n = 2 fällt die Euklidische Norm mit dem reellen bzw. komplexen
Betrag zusammen. Wir verwenden Betragsstriche, wenn der skalare Aspekt im
Vordergrund steht und Doppelstriche für die vektorielle Sicht.
Wir sagen auch kurz Norm oder Länge, weisen aber darauf hin, dass es auch
viele andere Möglichkeiten gibt, einen Vektor zu messen. Eine davon ist:
Beispiel
Die Maximumsnorm auf dem Rn ist definiert durch
Beim Rechnen mit der Euklidischen Norm führen die auftretenden Wurzeln
oft zu unübersichtlichen Termen. Es kann hilfreich sein, das Quadrat
i v i2 = v1 2 + … + vn 2
der Norm der Vektors zu berechnen und erst am Ende die Wurzel zu ziehen.
Vektoren der Länge Eins spielen an vielen Stellen eine besondere Rolle:
Beispiele
(1) Im Rn sind alle Einheitsvektoren e1 , …, en normiert.
(2) Für n = 2 ist ein Vektor v genau dann normiert, wenn er auf dem
Einheitskreis K liegt. Für alle α P R ist (cos α, sin α) normiert.
Für alle Vektoren v ≠ 0 ist der Vektor v̂ (gelesen: „v Hut“ oder „v Dach“) nor-
miert. Es gilt
(+) v = i v i v̂ für alle v P Rn .
v
v
w
w
Die Normierung lässt sich als Projektion eines Vektors auf den Einheitskreis K ansehen
Bei vielen Argumenten kann man sich darauf beschränken, die gewünschte Ei-
genschaft nur für normierte Vektoren zu zeigen. Für allgemeine Vektoren folgt
sie dann durch die Skalierung (+). Zudem vereinfacht die Verwendung von v̂ auch
viele Formeln, bei denen durch die Norm dividiert wird.
Die grundlegenden Eigenschaften der Euklidischen Norm sind:
(ii) i λ v i = |λ| i v i,
(iii) i v + w i ≤ i v i + i w i. (Dreiecksungleichung)
Die dritte Eigenschaft besagt anschaulich, dass der direkte Weg von 0 nach
v + w höchstens so lang ist wie der direkte Weg von 0 nach v gefolgt vom Weg
von v nach v + w.
v+w
v+w
Zur Dreiecksungleichung
Die anschaulich klare Aussage, dass der kürzeste Weg zwischen zwei Punkten
eine Gerade ist, ist keineswegs leicht zu beweisen. Im folgenden Beweis verwen-
den wir eine fundamentale Abschätzung, die sich aus der zweiten binomischen
Formel ergibt.
Beweis
Die Eigenschaften (i) und (ii) ergeben sich unschwer aus den Definitionen.
Zum Beweis der Dreiecksungleichung verwenden wir:
(+) 2 x y ≤ x2 + y2 für alle x, y P R.
Diese Ungleichung folgt aus 0 ≤ (x − y)2 = x2 − 2xy + y2 für alle x, y P R.
Seien nun v, w P Rn beliebig. Dann ergibt eine n-fache Anwendung von (+):
(
2 v̂1 ŵ1 + … + v̂n ŵn ) ≤ v̂1 2 + ŵ1 2 + … + v̂n 2 + ŵn 2
= i v̂ i 2 + i ŵ i 2 = 1 + 1 = 2.
Division durch 2 und Multiplikation mit den Normen von v und w liefert:
(♦) v1 w1 + … + vn wn ≤ i v i i w i.
iv + wi 2 = (v1 + w1 )2 + … + (vn + wn )2
(
= i v i 2 + i w i 2 + 2 v1 w1 + … + vn wn )
≤ ivi + iwi + 2 ivi iwi
2 2
≤ ( i v i + i w i ) 2.
Wurzelziehen erhält die Ungleichung (da die Wurzelfunktion monoton
steigt) und liefert die Behauptung.
Die Ungleichung (♦), aus der wir die Dreiecksungleichung gewinnen konn-
ten, leitet über zu unserem nächsten Zwischenabschnitt:
〈v, w〉 = v • w = v1 w1 + … + vn wn .
Die reelle Zahl 〈v, w〉 heißt das Euklidische Skalarprodukt der Vektoren v und w.
Direkt aus den Definitionen des Skalarprodukts und der Norm ergibt sich:
Beweis
Seien v, w P Rn . Dann gilt:
iv + wi 2 = 〈v + w, v + w〉
= 〈v, v + w〉 + 〈w, v + w〉
= i v i 2 + i w i 2 + 2 〈v, w〉.
|〈v, w〉| ≤ i v i i w i.
Beweis
Seien v, w P Rn . Wir wissen schon (nach (♦) oben), dass 〈v, w〉 ≤ i v i i w i.
Ist 〈v, w〉 < 0, so ist 〈−v, w〉 > 0 und
Wir geben noch einen zweiten Beweis, der nur die grundlegenden Eigenschaf-
ten des Skalarprodukts verwendet.
|〈v, w〉| ≤ 1 = 1 ⋅ 1 = i v i i w i.
v- w
v- w
v
Aus den Beweisen ergibt sich, dass die Ungleichung von Cauchy-Schwarz ge-
nau dann zu einer Gleichung wird, wenn die Vektoren auf einer Geraden des Rn
liegen. Wir diskutieren dies in den Übungen.
Übungen
Übung 1
Visualisieren Sie die Vektoraddition, Vektorsubtraktion und Skalarmultipli-
kation durch Diagramme für den Fall n = 2.
Übung 2
Sei n ≥ 1. Zeigen Sie, dass für alle v, w, u P Rn gilt:
v + (w + u) = (v + w) + u, (Assoziativität)
v + 0 = 0 + v = v, (Neutralität des Nullvektors)
v + (− v) = (− v) + v = 0, (Inversenbildung)
v + w = w + v. (Kommutativität)
Übung 3
Sei n ≥ 1. Zeigen Sie, dass für alle λ, µ P R und alle v, w P Rn gilt:
(i) 1 v = v,
(ii) λ (µ v) = (λ µ) v,
(iii) λ (v + w) = λ v + λ w,
(iv) (λ + µ) v = λ v + µ v.
Übung 4
Zeigen Sie die Dreiecksungleichung für die Maximumsnorm.
Übung 5
Die 1-Norm auf dem Rn ist definiert durch
Übung 6
(a) Welche allgemeinen Größenbeziehungen bestehen zwischen der
Euklidischen Norm, der Maximumsnorm und der 1-Norm im Rn ?
Formulieren Sie eine Hypothese und beweisen Sie sie.
(b) Welche Formen haben für n = 2 und n = 3 die Mengen
Kmax
n = { v P Rn mit i v i max = 1 } und K1n = { v P Rn mit i v i 1 = 1 }?
Übung 7
Sei n ≥ 1. Zeigen Sie, dass für alle λ P R und alle v P Rn gilt:
(i) i v i = 0 genau dann, wenn v = 0,
(ii) i λ v i = |λ| i v i.
Übung 8
Sei n ≥ 1. Beweisen Sie mit Hilfe der Dreiecksungleichung für die
Euklidische Norm, dass für alle v, w P Rn gilt:
(a) i v − w i ≤ i v i + i w i,
(b) i v i − i w i ≤ i v + w i,
(c) i v i − i w i ≤ i v − w i.
Übung 9
Sei n ≥ 1. Zeigen Sie, dass für alle λ P R und alle v, w, v′, w′ P Rn gilt:
(i) 〈v + λ v′, w〉 = 〈v, w〉 + λ 〈v′, w〉,
〈v, w + λ w′〉 = 〈v, w〉 + λ 〈v, w′〉, (Bilinearität)
(ii) 〈v, w〉 = 〈w, v〉, (Symmetrie)
(iii) 〈v, v〉 > 0 für alle v ≠ 0. (positive Definitheit)
Übung 10
Sei n ≥ 1. Zeigen Sie, dass für alle v P Rn gilt:
v = 〈e1 , v〉 e1 + … + 〈en , v〉 en
wobei e1 = (1, 0, …, 0), …, en = (0, …, 0, 1) die kanonischen Einheitsvekto-
ren des Rn sind.
Übung 11
Sei n ≥ 1. Formulieren und beweisen Sie eine dritte binomische Formel für
das Euklidische Skalarprodukt im Rn .
Übung 12
Sei n ≥ 1. Zeigen Sie, dass für alle v, w P Rn gilt:
4 〈v, w〉 = i v + w i 2 − i v − w i 2 . (Polarisation)
Übung 13
Sei n ≥ 1. Zeigen Sie, dass für alle v, w P Rn gilt:
(
iv + wi2 + iv − wi2 = 2 ivi2 + iwi2 . ) (Parallelogrammgleichung)
Erläutern Sie den Namen „Parallelogrammgleichung“ durch ein Dia-
gramm für den Fall n = 2.
Übung 14
Sei n ≥ 1. Wir setzen
d(v, w) = i v − w i für alle v, w P Rn .
Die reelle Zahl d(v, w) heißt der Euklidische Abstand der Vektoren v und w.
Zeigen Sie, dass für alle v, w, u P Rn gilt:
(i) d(v, w) = 0 genau dann, wenn v = w,
(ii) d(v, w) = d(w, v),
(iii) d(v, w) ≤ d(v, u) + d(u, w).
Übung 15
Sei n ≥ 1. Zeigen Sie, dass für alle v, w P Rn äquivalent sind:
(a) |〈v, w〉| = i v i i w i.
(b) w = 0 oder es gibt ein λ P R mit v = λw.
Übung 16
Seien v, w P R2 . Veranschaulichen Sie die Vektoren
v − λ w für λ P R
durch ein Diagramm. Motivieren Sie die Wahl von λ = 〈v, w〉 für normierte
Vektoren v, w im zweiten Beweis der Ungleichung von Cauchy-Schwarz.
Verwenden Sie hierzu, dass zwei Vektoren der Ebene aufeinander senkrecht
stehen, wenn ihr Skalarprodukt Null ist. Wie muss λ gewählt werden, wenn
v, w nicht notwendig normiert sind?
Übung 17
Sei n ≥ 1. Wir betrachten Vektoren z = (z1 , …, zn ) der Dimension n mit
komplexen Komponenten zn P C, also Elemente des Cn . Die Vektoraddi-
tion und Skalarmultiplikation (mit Skalaren λ P C) wird für Cn wie für Rn
definiert. Für die Norm verwenden wir den komplexen Betrag der
Komponenten, d. h. wir setzen
i z i = £|z1 |2 + … + |zn |2 für alle z P Cn .
Wir definieren nun für alle z, w P Cn :
〈z, w〉* = z1 w1 + … + zn wn ,
〈z, w〉 = z1 w1 + … + zn wn .
Untersuchen diese Versionen eines komplexen Skalarprodukts (die beide
für reelle Vektoren mit dem Euklidischen Skalarprodukt übereinstimmen).
Betrachten Sie hierzu insbesondere die elementaren Eigenschaften und den
Zusammenhang zur Norm. Was ändert sich, wenn man die komplexe
Konjugation auf die Komponenten von w anstelle von z anwendet?
Übung 18
Sei s : Rn × Rn → R eine Funktion mit den Eigenschaften:
s(ei , w) = wi für alle 1 ≤ i ≤ n und alle w P Rn ,
s(λ v + µ u, w) = λ s(v, w) + µ s(u, w) für alle v, u P Rn , λ, µ P R,
wobei wieder e1 = (1, 0, …, 0), …, en = (0, … 0, 1).
Zeigen Sie, dass s(v, w) = 〈v, w〉 für alle v, w P Rn .
Wir betrachten nun speziell die Ebene R2 , also die Dimension n = 2. Anhand
dieses Spezialfalls untersuchen wir Winkel zwischen Vektoren, Orthogonalität
und Kollinearität, Determinanten, Koordinatenvektoren und lineare Glei-
chungssysteme. Zum Abschluss des Kapitels werfen wir noch einen Blick auf
algebraische Kurven ersten und zweiten Grades.
Einen Vektor v der Ebene notieren wir oft auch in der durch das vertraute Ko-
ordinatensystem nahegelegten Form
v = (x, y).
Daneben gilt stets auch wieder
v = (v1 , v2 ), w = (w1 , w2 ), u = (u1 , u2 ).
Unsere erste Aufgabe ist die Ermittlung der geometrischen Bedeutung des
Euklidischen Skalarprodukts. Wir definieren hierzu:
Der Winkel ](v, w) hat keine Orientierung und liegt immer zwischen 0 und π.
Es gilt ](v, w) = ](w, v) und ](v, w) = ](v̂, ŵ). Der Winkel zwischen zwei Vekto-
ren ist nicht definiert, wenn einer der Vektoren der Nullvektor ist.
Von großer Bedeutung ist:
Satz (Winkelformel)
Seien v, w P R2 von 0 verschieden, und sei ϕ = ](v, w). Dann gilt:
〈v, w〉
cos ϕ = 〈v̂, ŵ〉 = , ϕ = arccos(〈v̂, ŵ〉). (Winkelformel)
iviiwi
v
v
w
w
cos( )
〈v, w〉 = cos(ϕ) i v i i w i.
Wir geben zwei Beweise für die Winkelformel. Der erste kombiniert den Ko-
sinussatz mit der zweiten binomischen Formel für das Skalarprodukt.
(i) a = i v − w i, b = i v i, c = i w i,
(ii) α = ](v, w) = ϕ.
Der Kosinussatz für dieses Dreieck liest sich nun in der Form
(1) i v − w i 2 = i v i 2 + iw i 2 − 2 cos(ϕ) iv i iw i.
Nach der zweiten binomischen Formel für das Skalarprodukt gilt aber
C v
b a v v-w
A B 0 w
c w
Der Kosinussatz lässt sich mit Hilfe des Satzes von Pythagoras beweisen (das
linke Diagramm enthält zwei rechtwinklige Dreiecke. Wir überlassen den Be-
weis dem Leser als Übung. Dabei sind neben spitzwinkligen auch stumpfwin-
klige Dreiecke zu betrachten. Der Kosinussatz ist für alle Dreiecke gültig.
cos ϕ = cos(ϕ2 − ϕ1 )
= cos ϕ2 cos ϕ1 − sin ϕ2 sin (−ϕ1 )
= cos ϕ1 cos ϕ2 + sin ϕ1 sin ϕ2
= x1 x2 + y1 y2
= 〈v̂, ŵ〉.
Aus der Winkelformel ergibt sich wegen cos ϕ P [ −1, 1 ] noch einmal die Un-
gleichung von Cauchy-Schwarz. Denn für v = 0 oder w = 0 ist die Ungleichung
klar und für v, w ≠ 0 ist
2. Der Kosinussatz
Ist die Winkelformel in irgendeiner Art und Weise einmal bewiesen, so ergibt
sich aus ihr der Kosinussatz. Denn mit den Bezeichnungen des obigen Beweises
gilt für ein Dreieck ABC mit den Ecken A = 0, B = w und C = v:
a2 = i v − w i 2
= i v i 2 + i w i 2 − 2 〈v, w〉.
= i v i 2 + i w i 2 − 2 cos(α) i v i iw i
= b2 + c2 − 2 cos(α) b c.
3. Orthogonalität
Die Orthogonalität ist auch für Nullvektoren erklärt. Der Nullvektor ist or-
thogonal zu jedem Vektor der Ebene. Für vom Nullvektor verschiedene Vekto-
ren v, w mit eingeschlossenem Winkel ϕ P [ 0, π ] ist die Orthogonalität nach der
Winkelformel äquivalent zu cos ϕ = 0 und damit zu ϕ = π/2.
4. Kollinearität
Die Ungleichung von Cauchy-Schwarz ist also genau für kollineare Vekto-
ren eine Gleichung. Für v, w ≠ 0 entsprechen die drei Begriffe „kollinear, paral-
lel, antiparallel“ nach der Winkelformel genau den eingeschlossenen Winkeln
ϕ P { 0, π }, ϕ = 0, ϕ = π.
Beispiele
(1) Der Nullvektor ist mit jedem v P R2 kollinear.
(2) Die Vektoren (1, 4) und (−2, −8) sind antiparallel und damit kollinear.
Für alle y ≠ 8 sind die Vektoren (1, 4) und (2, y) nicht kollinear.
Der folgende Satz, dessen Beweis wir dem Leser zur Übung überlassen, ver-
sammelt einige Äquivalenzen zur Kollinearität zweier Vektoren.
Sind v,w ≠ 0, so sind v,w genau kollinear, wenn G(v) = G(w). Da der Nullvektor
keine Gerade definiert, ist die Voraussetzung v, w ≠ 0 wichtig.
v1
u
1
pru (v1 )
pru (v2 )
2
v2
Die Vektoren u und pru (v) sind nach Definition kollinear. Die Bezeichnung als
orthogonale Projektion wird dadurch erklärt, dass pru (v) und w = v − pru (v) auf-
einander senkrecht stehen:
〈pru (v), w〉 = 〈pru (v), v〉 − 〈pru (v), pru (v)〉
= 〈〈û, v〉 û, v〉 − 〈〈û, v〉 û, 〈û, v〉 û〉
= 〈û, v〉 〈û, v〉 − 〈û, v〉 〈û, v〉 〈û, û〉
= 〈û, v〉2 − 〈û, v〉2 = 0.
Als Merkhilfe können wir verwenden:
Dies erklärt das Vorhandensein bzw. Fehlen der Normen bei u bzw. v.
Ist der Vektor u normiert, so gilt pru (v) = 〈u, v〉 u und damit
i pru (v) i = |〈u, v〉|.
Der Betrag des Skalarprodukts von u und v ist in diesem wichtigen Fall also die
Euklidische Länge der Projektion von v auf u. Allgemein gilt ipru (v)i = |〈û, v〉|.
Wir halten noch fest: Die Vektoren u und v sind genau dann orthogonal, wenn
pru (v) = prv (u) = 0,
und genau dann kollinear, wenn
pru (v) = v und prv (u) = u.
Determinanten
Natürlich ist P nur dann ein echtes Parallelogramm, wenn v und w nicht kolli-
near sind. Es schadet aber im Folgenden nicht, den kollinearen Fall zuzulassen.
v
P
Das von v und w aufgespannte Parallelogramm P und der Vektor u = 1/2 v + 2/3 w
Wir wollen nun eine Formel für die Fläche des von zwei Vektoren v und w auf-
gespannten Parallelogramms P in Abhängigkeit von den Koordinaten der Vekto-
ren entwickeln. Dabei tauchen in natürlicher Weise orientierte Flächen auf, die
ein der geometrischen Lage von v und w entsprechendes Vorzeichen tragen.
Hierzu definieren wir:
rot /2 (v)
w
A(P)
Nach diesen Vorbereitungen können wir die orientierte Fläche A = A(P) be-
stimmen, wobei das Vorzeichen von A der Orientierung von v, w entsprechen
soll. Wir betrachten s = i v i als Grundseite von P. Dann berechnet sich die si-
gnierte Höhe von P zu
h = cos ψ i w i, wobei ψ = ](v ⊥ , w) P [ 0, π ] mit v ⊥ = rotπ/2 (v) = (−v2 , v1 ).
Wegen i v ⊥ i = i v i ist
A = s h = i v i cos ψ i w i = 〈v ⊥ , w〉 = 〈(−v2 , v1 ), (w1 , w2 )〉 = v1 w2 − v2 w1 .
Alternativ können wir die Flächenformel auch ohne Verwendung von Win-
keln mit Hilfe der Projektion berechnen. Für den Höhenvektor w − prv (w) des
Parallelogramms gilt nach dem Satz des Pythagoras
Damit gilt
= (v1 w2 − v2 w1 )2 .
Definition (Determinante)
Seien v, w P R2 . Dann heißt die reelle Zahl
det(v, w) = v1 w2 − v2 w1
die Determinante des Vektorenpaars (v, w).
Notation
Wir notieren die Determinante auch in Matrix-Schreibweise in der Form
v1 v2
det statt det(v, w).
w1 w2
In Matrix-Notation halten wir noch eine weitere Eigenschaft fest, die sich
durch Ausrechnen sofort ergibt:
v1 v2 v1 w1
det = det .
w1 w2 v2 w2
In der rechten Matrix sind die Vektoren v und w als Spalten eingetragen.
Obige Diskussion zeigt:
Flächeninhalt
Die reelle Zahl det(v, w) ist die orientierte Fläche des von den Vektoren v
und w aufgespannten Parallelogramms. Weiter ist |det(v, w)|/2 die Fläche
des Dreiecks mit den Ecken 0, v, w.
Vorzeichen
Für alle v, w P R2 gilt:
> 0
{
falls (v, w) positiv orientiert
det(v, w) = 0 falls (v, w) kollinear
< 0 falls (v, w) negativ orientiert
Trigonometrische Funktionen
Ist ϕ = ](v, w), so gilt
〈v, w〉 = cos ϕ iv i i wi,
nicht kollinear R2 ≠0
kollinear, v ≠ 0 { λv | λ P R } 0
kollinear, w ≠ 0 { λw | λ P R } 0
kollinear, v = w = 0 {0} 0
Der linken Spalte entsprechend ist der Spann zweier Vektoren der Ebene also
die ganze Ebene, eine Gerade durch den Nullpunkt oder die Menge, die nur den
Nullpunkt als Element enthält. In jedem Fall ist der Nullpunkt ein Element des
Spanns (da 0 = 0 v + 0 w), sodass der Spann stets von der leeren Menge verschie-
den ist.
Von Interesse sind die Skalare λ,µ einer Linearkombination u = λ v + µw von v
und w. Wir definieren hierzu:
Die Koordinaten sind in der Tat eindeutig bestimmt (Übung), sodass es ge-
rechtfertigt ist, von den Koordinaten bzgl. v, w zu reden.
w
v
Der Vektor u = −2v + 3w hat den Koordinatenvektor (−2, 3) bzgl. der Basis (v, w)
Koordinatenvektoren lassen sich durch Vergleich mit der für jeden Vektor u
der Ebene gültigen Darstellung
u = u1 e1 + u2 e2 mit e1 = (1, 0), e2 = (0, 1)
illustrieren. Diese Darstellung zeigt, dass u = (u1 , u2 ) der Koordinatenvektor von
u bzgl. der Basis (e1 , e2 ) ist. Allgemein gibt ein Koordinatenvektor (λ,µ) die Posi-
tion von u an, wenn das übliche Basissystem (e1 , e2 ) durch ein beliebiges Basis-
system (v, w) ersetzt wird, das aus zwei nicht kollinearen Vektoren besteht:
u = λ v + µ w.
Bei Koordinaten ist die Reihenfolge der Basisvektoren zu beachten. Sind λ,µ die
Koordinaten von u bzgl. v, w, so sind µ, λ die Koordinaten von u bzgl. w, v.
Koordinatenvektoren sind nur für nicht kollineare Vektoren definiert. Zwei
Vektoren v, w P R2 sind nach obigen Ergebnissen genau dann nicht kollinear,
wenn det(v, w) ≠ 0. Dies werden wir im Folgenden häufig verwenden.
Lineare Gleichungssysteme
Ist L ≠ ∅, so heißt das System (+) lösbar. Andernfalls heißt es unlösbar. Besitzt die
Menge L genau ein Element, so heißt das System eindeutig lösbar.
Wir notieren im Folgenden Vektoren (v1 , v2 ) der Ebene oft als Spaltenvektoren:
v1
(v1 , v2 ) = .
v2
Damit können wir ein Gleichungssystem (+) schreiben als
a b u1
(++) x + y = = u.
c d u2
In dieser Form ist besonders schön zu sehen, dass auf der linken Seite Linear-
kombinationen der aus den Koeffizienten des Systems gebildeten Vektoren
a b
v = (a, c) = , w = (b, d) =
c d
stehen, also Elemente des Spanns dieser beiden Vektoren. Mit Hilfe unserer Er-
gebnisse über Determinanten und Koordinaten erhalten wir:
Die eindeutige Lösbarkeit des Systems ist also äquivalent dazu, dass die Deter-
minante der Koeffizienten-Matrix
a b
c d
des Systems von Null verschieden ist. Die folgenden Beispiele illustrieren den
Fall einer verschwindenden Determinante.
Beispiele
(1) Sei v = w = 0. Für u = 0 ist L = R2 . Für u ≠ 0 ist L = ∅.
(2) Seien v = (1, 1), w = (−1, −1), d. h. wir betrachten ein System der Form
x − y = u1 , x − y = u2
Für die rechte Seite u = (0, 0) ist L = { (x, x) | x P R } eine Gerade
durch 0. Für u = (−1, −1) ist L = { (x, x + 1) | x P R } eine Gerade durch
(0, 1). (Dieses Translationsphänomen untersuchen wir gleich noch
genauer.) Für alle u mit u1 ≠ u2 ist L = ∅.
Ein homogenes Gleichungssystem ist immer lösbar, nämlich durch den Null-
vektor. Umgekehrt ist ein System, das durch den Nullvektor gelöst wird, homo-
gen. Damit ist ein System genau dann homogen, wenn 0 P L. Jedem System
(1) a x + b y = u1
c x + d y = u2
können wir das homogene System
(2) ax + by = 0
cx + dy = 0
zuordnen. Ist L die Lösungsmenge von (1), v0 P L beliebig und L0 die Lösungs-
menge des zugeordneten homogenen Systems (2), so gilt (Übung):
L = v0 + L0 = { v0 + (x, y) | (x, y) P L0 }.
Wir drücken diese fundamentale Tatsache auch so aus:
In L = v0 + L0 steht links eine Menge und rechts die Summe eines Vektors und ei-
ner Menge. Genauer sollten wir also sagen:
5
L
4
w
2
L0
v
1
-5 -4 -3 -2 -1 1 2 3 4 5
-1
-2
w
1
1 2 3
Algebraische Kurven zweiten Grades sind uns schon oft begegnet. In der fol-
genden Tabelle geben wir definierende Gleichungen für die Kurven an.
10
x2 - x y - y 2 + 1 0
0
-x2 - x y - y 2 - 6 y 0
x2 + 5 x - 2 y 0
-5
-10
-10 -5 0 5 10
Man kann zeigen, dass die algebraischen Kurven zweiter Ordnung genau die
(beliebig skalierten, gedrehten und verschobenen) Ellipsen, Parabeln und Hy-
perbeln der Ebene sind, wobei noch einige Sonderfälle zu beachten sind (für
eine durch x2 + c = 0 definierte Kurve C ist zum Beispiel C die leere Menge,
falls c > 0, C die y-Achse, falls c = 0 und C ein Geradenpaar, falls c < 0). Aus
Sicht der klassischen Geometrie sind die algebraischen Kurven zweiten Grades
die Kegelschnitte, also die Figuren der Ebene, die wir durch den Schnitt eines
unendlichen Doppelkegels mit einer Ebene des Raumes erhalten. Dieser Klas-
sifikationssatz ist keineswegs leicht zu zeigen, und wir begnügen uns an dieser
Stelle mit den obigen Beispielen und der Schilderung der Ergebnisse.
Der Leser wird sich fragen, wie es weitergeht. Algebraische Kurven dritten
Grades werden durch Gleichungen der Form
a1 x3 + a2 y3 + a3 x2 y + a4 x y2 + a5 x2 + a6 y2 + a7 x y + a8 x + a9 y + a10 = 0
definiert, wobei einer der ersten vier Koeffizienten von Null verschieden sein
muss. Es ergibt sich eine sehr reichhaltige Kurvenwelt, zu der insbesondere das
repräsentative Gebiet der elliptischen Kurven gehört. Diese spezielleren Kurven
dritten Grades werden definiert durch Gleichungen der Form
y2 = x3 + ax + b.
x3 - x - y 2 0
0
x3 - x - y 2 + 1 0
x3 - 3 x - y 2 + 2 0
-2
-4
-4 -2 0 2 4
Übungen
Übung 1
Sei v P R2 . Zeigen Sie ohne Verwendung der Winkelformel, dass
〈v, rot± π/2 (v)〉 = 0.
Übung 2
In einem Dreieck ABC mit Seiten a, b, c und Winkeln α, β, γ gilt:
a2 = b2 + c2 − 2 cos(α) b c. (Kosinussatz)
Geben Sie einen trigonometrischen Beweis des Kosinussatzes mit Hilfe des
Satzes von Pythagoras.
Übung 3
Illustrieren Sie den Beweis der Winkelformel mit Hilfe des Kosinussatzes
durch Diagramme.
Übung 4
Seien v, w P R2 . Zeigen Sie, dass die folgenden Aussagen äquivalent sind:
(a) Die Vektoren v, w sind nicht kollinear.
(b) ∀λ, µ P R (λ v + µ w = 0 → λ = µ = 0).
Übung 5
Sei u P R2 . Für welche Vektoren v P R2 gilt pru (v) = u? Zeichnen Sie ein
erklärendes Diagramm.
Übung 6
Zeigen Sie, dass für alle u, v P R2 gilt:
(i) pru (u) = u,
(ii) pru (pru (v)) = pru (v),
(iii) 〈pru (v), u〉 = 〈v, u〉,
(iv) prv (pru (v)) = cos2 (ϕ) v, falls u, v ≠ 0 und ϕ = ](u, v).
Zeichnen Sie ein Diagramm zur Illustration von (iv) und ergänzen Sie es,
sodass die Größen cosn (ϕ) für n ≥ 1 sichtbar werden. Nehmen Sie dabei an,
dass u und v normiert sind.
Übung 7
Wie lässt sich mit Hilfe der Koordinaten dreier Punkte der Ebene
möglichst einfach feststellen, ob die drei Punkte auf einer gemeinsamen
Geraden (nicht notwendig durch 0) liegen?
Übung 8
Illustrieren Sie die positive bzw. negative Orientierung zweier Vektoren der
Ebene durch Diagramme.
Übung 9
Untersuchen Sie die Wirkung von Rotationen, Spiegelungen am Nullpunkt
und Spiegelungen an Geraden durch den Nullpunkt auf die Orientierung
zweier Vektoren der Ebene.
Übung 10
Zeigen Sie, dass für alle v, w, v1 , v2 , w1 , w2 P R2 und alle λ P R gilt:
(i) det(e1 , e2 ) = 1,
(ii) det(v, v) = 0,
(iii) det(v, w) = − det(w, v),
(iv) det(λ v, w) = det(v, λ w) = λ det(v, w),
(v) det(v1 + v2 , w) = det(v1 , w) + det(v2 , w),
det(v, w1 + w2 ) = det(v, w1 ) + det(v, w2 ).
Übung 11
Illustrieren Sie den Begriff des Koordinatenvektors (λ, µ) eines Vektors
u P R2 bzgl. einer Basis (v, w) durch Diagramme. Argumentieren Sie
anschaulich, warum jeder Vektor u der Ebene einen eindeutigen Koordina-
tenvektor bzgl. (v, w) besitzt und warum die Forderung „v, w sind nicht
kollinear“ notwendig ist.
Übung 12
Seien v, w P R2 nicht kollinear.
(a) Zeigen Sie, dass det(v, w) ≠ 0.
(b) Zeigen Sie, dass span(v, w) = R2 .
(c) Sei u P R2 . Beweisen Sie, dass u einen eindeutigen Koordinatenvek-
tor (λ, µ) bzgl. der Basis (v, w) besitzt.
Übung 13
Sei L die Lösungsmenge eines linearen Gleichungssystems der Form (+),
und sei L0 die Lösungsmenge des zugeordneten homogenen Systems.
Weiter sei (x*, y*) P L0 . Zeigen Sie:
L = (x*, y*) + L0 = { (x*, y*) + (x, y) | (x, y) P L0 }.
Übung 14
Zeigen Sie, dass für ein lineares Gleichungssystem der Form (+) die
folgenden Aussagen äquivalent sind:
(a) L = R2 ,
(b) a = b = c = d = u1 = u2 = 0.
Übung 15
(a) Sei (x*, y*) P R2 beliebig. Geben Sie ein lineares Gleichungssystem
an mit L = { (x*, y*) }.
(b) Sei G ⊆ R2 eine beliebige Gerade der Ebene (nicht notwendig
durch den Nullpunkt). Geben Sie ein lineares Gleichungssystem an
mit L = G.
(c) Geben Sie ein lineares Gleichungssystem an mit L = ∅ und L0 = R2 .
Alle Gleichungssysteme sollen hierbei die Form (+) haben, als aus zwei
Gleichungen mit zwei Unbekannten bestehen.
Übung 16
Sei u P R2 normiert, und sei G = G(u) = { λu | λ P R }. Weiter sei w P R2
orthogonal zu u, und es sei H = w + G die durch w und G definierte affine
Gerade. Schließlich sei s = 〈w, u ⊥ 〉 mit u ⊥ = rotπ/2 (u).
(a) Erklären Sie die Darstellung H = { v P R2 | 〈u ⊥ , v〉 = s } geometrisch
mit Hilfe der Winkelformel für das Skalarprodukt. Welche
Bedeutung haben die Länge und das Vorzeichen von s?
(b) Sei nun w′ P H beliebig und s′ = 〈u ⊥ , w′〉. Zeigen Sie, dass s = s′ und
illustrieren Sie die Situation durch ein Diagramm.
Übung 17
Welche algebraischen Kurven zweiten Grades werden durch Gleichungen
der folgenden Formen definiert?
(a) a x2 + b x2 = 0
(b) a x2 − b y2 = 0
(c) a x2 + c = 0
(d) b y2 + c = 0
Matrizen sind rechteckige Gebilde aus Zahlen (zumeist reell oder komplex). Wir
können sie als Erweiterung des Begriffs einer endlichen Folge (a1 , …, an ) ins
Zweidimensionale auffassen. Für alle natürlichen Zahlen m, n ≥ 1 hat eine reelle
(m × n)-Matrix die Form
Definition (2×2-Matrizen)
Eine doppelt indizierte Folge reeller Zahlen der Form (a1,1 , a1,2 , a2,1 , a2,2 )
heißt eine reelle 2 × 2-Matrix. Wir notieren eine Matrix A in den Formen
Die Elemente a11 , a12 , a21 , a22 heißen die Einträge der Matrix A. Weiter
heißen a11 und a22 die Diagonaleinträge, (a11 , a22 ) die (Haupt-) Diagonale und
a11 + a22 die Spur von A. Ist a12 = a21 = 0, so heißt A eine Diagonalmatrix.
Wir setzen
A(i, j) = aij für alle 1 ≤ i, j ≤ 2.
Die Vektoren (a11 , a12 ), (a21 , a22 ) P R2 heißen die Zeilenvektoren von A, die
Vektoren (a11 , a21 ), (a12 , a22 ) P R2 die Spaltenvektoren von A. Wir setzen
R2 × 2 = { A | A ist eine reelle 2 × 2-Matrix }.
a11 a12
A =
a21 a22
ist der erste Index immer ein Zeilenindex und der zweite Index immer ein
Spaltenindex. Der Eintrag A(i, j) = aij der Matrix A steht in der i-ten Zeile und der
j-ten Spalte von A. Da 2×2-Matrizen nur vier Einträge besitzen, geben wir sie oft
an in der Form
a b
A = .
c d
Es gilt dann automatisch A(1, 1) = a11 = a, …, A(2, 2) = a22 = d. Der Leser verglei-
che dies mit der Vektornotation v = (x, y) = (v1 , v2 ) P R2 .
Der Unterschied zwischen den Matrizen A = (v, w) und B = (v; w) lässt sich
durch folgende Operation beschreiben:
Beispiele
1 2
((1, 2), (3, 4)) = ((1, 3); (2, 4)) = ,
3 4
1 0 1 0
, sind Diagonalmatrizen,
0 1 0 2
0 1 0 1
, sind keine Diagonalmatrizen,
1 0 2 0
1 0 1 2
, sind symmetrisch,
0 2 2 4
0 1 2 1
, sind nicht symmetrisch.
2 0 4 2
0 0 1 0
0 = ((0, 0); (0, 0)) = , E2 = ((1, 0); (0, 1)) = .
0 0 0 1
Beide Matrizen sind symmetrisch, sodass wir die Strichpunkte in der Defini-
tion auch durch Kommata ersetzen könnten. Die Einträge der Nullmatrix sind
alle gleich 0. Bei der Einheitsmatrix sind die Diagonaleinträge gleich 1, die ande-
ren Einträge gleich 0. Die Zeilen und Spalten von E2 bestehen aus den kanoni-
schen Einheitsvektoren e1 = (1, 0) und e2 = (0, 1) der Ebene. Wir werden gleich
sehen, dass die Nullmatrix die additive Rolle der Null und die Einheitsmatrix die
multiplikative Rolle der Eins übernimmt.
Wir führen noch eine Notation ein, die nicht nur im Umgang mit Matrizen
nützlich ist:
Notation: Kronecker-Delta
Für zwei Indizes i, j ist das Kronecker-Delta δij definiert durch
δij =
{ 1
0
falls i = j
falls i ≠ j
Notation
Für alle d1 , d2 P R setzen wir
d1 0
diag(d1 , d2 ) = .
0 d2
−a11 −a12
−A = ,
−a21 −a22
A − B = A + (−B).
Die Matrix A − B P R2 × 2 heißt die Differenz der Matrizen A und B.
Die Matrix λ A P R2 × 2 heißt das Produkt der Matrix A mit dem Skalar λ.
Das Matrix-Vektor-Produkt
Als Nächstes führen wir ein Produkt einer Matrix A mit einem Vektor (x, y) der
Ebene ein. Wir vereinbaren hierzu:
Konvention
Einen Vektor (x, y) notieren wir bei einer Multiplikation mit einer Matrix in
Spaltenform. Anders formuliert: Wir fassen (x, y) als (2 × 1)-Matrix mit
zwei Zeilen und einer Spalte auf.
Definition (Matrix-Vektor-Produkt)
Seien A P R2 × 2 und v = (x, y) P R2 . Dann setzen wir
a b x ax + by
A v = A (x, y) = = P R2 .
c d y cx + dy
Beispiele
(a) 1 2 1 5 1 3 1 7
= , = .
3 4 2 11 2 4 2 10
(b) 1 2 1 1 1 2 0 2
= , = .
3 4 0 3 3 4 1 4
a b x u1
= = u.
c d y u2
Sei A P R2×2 . Für alle v = (x, y) P R2 ist Av eine Linearkombination der Spalten
von A, da
a b x ax + by a b
Av = = = x + y .
c d y cx + dy c d
Umgekehrt ist auch jede Linearkombination der Spalten von A von der Form Av.
Ist also A = ((a, c); (b, d)), so gilt
span((a, c), (b, d)) = { Av | v P R2 }.
Ist det(A) ≠ 0, so ist v der Koordinatenvektor von A v bzgl. der Basis (a, c), (b, d),
die aus den Spaltenvektoren von A gebildet ist.
Das Matrix-Vektor-Produkt Av mit v = (x, y) können wir mit Hilfe des Euklidi-
schen Skalarprodukts in der folgenden Form schreiben:
a b x ax + by 〈(a, b), v〉
Av = = = .
c d y cx + dy 〈(c, d), v〉
Wir lesen ab, dass A v genau dann gleich 0 ist, wenn v auf beiden Zeilenvektoren
von A senkrecht steht. Allgemeiner liegt Av auf der x-Achse (y-Achse), wenn v
auf der zweiten (ersten) Zeile von A senkrecht steht.
Eine weitere sehr wichtige Eigenschaft ist:
Die Matrizenmultiplikation
Mit Hilfe des Matrix-Vektor-Produkts führen wir nun eine Multiplikation für
Matrizen ein:
A ⋅ B = (A b1 ; A b2 ).
Wir erhalten also die Produktmatrix A ⋅ B, indem wir die beiden Matrix-Vek-
tor-Produkte Ab1 und Ab2 als Spalten in eine Matrix schreiben. In Langform no-
tiert ergibt sich
Die Berechnung lässt sich kompakt als Zeile mal Spalte zusammenfassen.
Notation
Wir schreiben auch kurz A B statt A ⋅ B.
Beispiele
(1) 1 2 1 3 5 11
=
3 4 2 4 11 25
(2) 1 0 0 0 0 0
= = 0
0 0 0 1 0 0
(3) 1 1 2 −1 1 0
= = E2
1 2 −1 1 0 1
(4) 0 1 0 1 1 0
= = E2
1 0 1 0 0 1
Das Matrizenprodukt lässt sich auch mit Hilfe der Summennotation elegant be-
schreiben. Für das Produkt C = AB zweier Matrizen A und B gilt nach Definition
cij = ∑ 1 ≤ k ≤ 2 aik bkj für alle 1 ≤ i, j ≤ 2.
Dabei durchläuft aik die i-te Zeile von A, während bkj die j-te Spalte von B durch-
läuft.
Die Matrizenmultiplikation lässt sich durch ein kombiniertes lineares Glei-
chungssystem illustrieren (Übung):
Beispiele
(1) 1 0 1 1 1 1
=
1 1 0 1 1 2
1 1 1 0 2 1
=
0 1 1 1 1 1
(2) a b 0 1 b a
= (Spaltentausch)
c d 1 0 d c
0 1 a b c d
= (Zeilentausch)
1 0 c d a b
Ist A = (v; w), so haben wir die Determinante von A definiert als det(A) = det(v,
w). Nachrechnen zeigt den folgenden wichtigen Satz:
Beispiel
Seien
1 1 1 2 3 1
A = , B = , C = AB =
−1 2 2 −1 3 −4
Beispiele
(1) Sei A = ((1, 0); (1, 1)). Dann gilt
1 1 1 1 1 2 1 3
A2 = = , A3 = , …
0 1 0 1 0 1 0 1
0 1
A =
1 0
0 1
A =
0 0
Wir verfolgen nun das Motiv, dass eine Matrix A vermöge „v wird abgebildet
auf Av“ eine Abbildung der Ebene in sich selbst definiert, genauer. Hierzu defi-
nieren wir den grundlegenden Begriff einer linearen Abbildung f : R2 → R2 und
zeigen, dass die linearen Abbildungen den durch die Matrizen definieren Abbil-
dungen entsprechen. Die Matrizenmultiplikation entspricht dabei der Komposi-
tion von Abbildungen. Wir erinnern an:
Ist die Determinante von A gleich 0, so sind die Spaltenvektoren von A kolli-
near. Wir können sie erneut in ein Diagramm einzeichnen, aber die beiden Vek-
toren erzeugen nun nur noch den Nullpunkt (im Fall A = 0) oder eine Gerade in
der Ebene (im Fall A ≠ 0).
Daneben stehen uns alle Visualisierungsmöglichkeiten zur Verfügung, die wir
für eine Funktion von C nach C diskutiert haben. Denn fA : R2 → R2 ist eine Ab-
bildung der Ebene in sich selbst. Beispielsweise können wir versuchen, die Wir-
kung von fA durch Pfeile von v nach Av für einige v zu veranschaulichen.
A(-2, 3)
Ae2
Ae1
A(-1, -3/2)
A(2, -4)
Eine Matrix A mit det(A) ≠ 0 verformt das kartesische Gitter zu einem neuen Gitter.
Mit Hilfe des neuen Gitters können wir die Vektoren fA (v) = A v bestimmen.
Beispiele
(1) Für die Nullmatrix 0 ist f0 (v) = 0 P R2 für alle v P R2 , d. h. f0 bildet
jeden Vektor der Ebene auf den Nullvektor der Ebene ab.
(2) Für die Einheitsmatrix E2 gilt fE2 (v) = v für alle v P R2 , sodass die
zugeordnete Abbildung die Identität auf R2 ist.
(3) Sei A = ((1, 0); (0, 0)). Dann gilt Av = (v1 , 0) für alle v P R2 . Die
Abbildung fA ist also die orthogonale Projektion eines Vektors v auf die
x-Achse, d. h. es gilt fA = pre1 .
Die Abbildung fA : R2 → R2 erlaubt eine neue Sicht auf ein lineares Glei-
chungssystem: Die Lösungsmenge eines linearen Gleichungssystems A v = u ist
das Urbild der Menge { u } unter der Abbildung fA . Genau diejenigen Vektoren
der Ebene, die durch fA auf u abgebildet werden, lösen das Gleichungssystem.
Die Urbildmenge einer einelementigen Menge ist auch als Faser der Abbildung
bekannt. Damit ist also L die Faser von u unter der Abbildung fA .
Der enge Zusammenhang zwischen A und fA wird weiter vertieft durch:
Der Beweis des Satzes sei dem Leser zur Übung empfohlen. Wichtig ist die Rei-
henfolge der Komposition: f A B = f A + f B , aber f B A = f B + f A .
Lineare Abbildungen
Beweis
zur Existenz:
Wir setzen A = (f(e1 ); f(e2 )), d. h. die Spalten von A sind die Bilder der
kanonischen Basisvektoren e1 und e2 unter f. Dann gilt A e1 = f(e1 ) und
A e2 = f(e2 ). Folglich gilt für alle v = (x, y) P R2 :
fA (v) = fA (x e1 + y e2 ) = x fA (e1 ) + y fA (e2 )
= x f(e1 ) + y f(e2 ) = f(x e1 + y e2 ) = f(v).
zur Eindeutigkeit:
Seien A, B P R2 × 2 mit fA = f = fB . Dann gilt
A e1 = fA (e1 ) = fB (e1 ) = B e1 ,
sodass die erste Spalte von A mit der ersten Spalte von B übereinstimmt.
Analog zeigt eine Multiplikation mit e2 , dass die zweiten Spalten der
Matrizen A und B übereinstimmen. Damit gilt A = B.
Mit Hilfe des Ergebnisses lässt sich die Assoziativität der Matrizenmultiplika-
tion elegant aus der Assoziativität der Komposition von Abbildungen folgern.
Für alle Matrizen A, B, C gilt
fA(BC) = fA + (fBC ) = fA + (fB + fC ) = (fA + fB ) + fC = fAB + fC = f(AB)C .
Aus der Eindeutigkeit der Darstellung folgt A(BC) = (AB)C. Damit wird der Be-
weis durch Nachrechnen durch ein Argument vom höheren Standpunkt ergänzt.
Aus dem Beweis ergibt sich:
Wir können die darstellende Matrix einer linearen Abbildung finden, indem wir
die Bilder der kanonischen Basisvektoren bestimmen und als Spalten in eine Ma-
trix schreiben.
Wir betrachten einige Beispiele hierzu.
Projektionsmatrizen
Sei u P R2 mit u ≠ 0. Dann ist die orthogonale Projektion pru : R2 → R2 ,
die einen Vektor v auf pru (v) = 〈û, v〉 û abbildet, linear. Wir nehmen zur
Vereinfachung der Notation an, dass u normiert ist. Dann gilt
pru (e1 ) = 〈u, e1 〉 u = u1 u = (u1 2 , u1 u2 ),
pru (e2 ) = 〈u, e2 〉 u = u2 u = (u1 u2 , u2 2 ).
Damit erhalten wir die symmetrische Matrix
u1 2 u1 u2
Au =
u1 u2 u2 2
u1 u1 2 u1 u2 v1
pru (v) = 〈u, v〉 u = (u1 v1 + u2 v2 ) = 2
.
u2 u1 u2 u2 v2
-3 -2 -1 1 2 3
-1
-2
-3
Die Projektion Au auf den Vektor u = (2, 2/3) visualisiert als Pfeildiagramm.
Mit λ = 1/10 gilt û = £λ(3, 1), Au e1 = λ (3, 9) und Au e2 = λ (3, 1).
Rotationsmatrizen
Sei ϕ P R. Die Abbildung rotϕ : R2 → R2 , die einen Vektor v P R2 um
einen Winkel ϕ gegen den Uhrzeigersinn dreht, ist linear. Es gilt
f(e1 ) = (cos ϕ, sin ϕ), f(e2 ) = rotπ/2 (f(e1 )) = (−sin ϕ, cos ϕ).
Für die darstellende Matrix Aϕ = Arotϕ gilt also
cosϕ −sinϕ
Aϕ = .
sinϕ cosϕ
Ae1
Ae2
e1
A(-2, -1)
0.5
-1 -0.5 0.5 1
-0.5
-1
Die Determinante einer Matrix A ist ein Maß für die von der linearen Abbil-
dung fA bewirkte Flächenverzerrung.
Diese Verzerrung kann durch die Skalierung der Basisvektoren, durch die Verän-
derung des eingeschlossenen rechten Winkels und durch die Umkehr der Orien-
tierung entstehen.
1.5
Ae2 det(A)
0.5
Ae1
0.5 1 1.5
Beispiele
(1) Eine Projektion erzeugt ein degeneriertes Parallelogramm. Die
Determinante einer Projektionsmatrix ist 0.
(2) Eine Rotation erhält sowohl die Fläche als auch die Orientierung. Die
Determinante einer Rotationsmatrix ist 1.
Wir haben gesehen, dass zwischen linearen Abbildungen und Matrizen eine
eindeutige Beziehung besteht. Im Folgenden identifizieren wir, wo immer es die
Sprechweise erleichtert, eine Matrix A P R2 × 2 mit der zugeordneten Abbildung
f A : R2 → R2 .
Um die Abbildungseigenschaften einer Matrix A weiter zu beschreiben, be-
trachten wir die Wirkung von A auf geometrische Figuren der Ebene: Ist P ⊆ R2 ,
so wird jeder Punkt v von P durch A auf Av abgebildet. Sammeln wir alle Punkte
Av, so erhalten wir ein neues geometrisches Gebilde:
Ein exemplarisches Ergebnis ist, dass eine Matrix eine affine Gerade in eine af-
fine Gerade überführt:
Beweis
A[ G ] = { A(w + λv) | λ P R } = { Aw + λAv | λ P R } = Aw + span(Av).
G
A[G]
w Aw
Av
A(1, 1)
3
Ae2
2
1 Ae1
-4 -3 -2 -1 1 2 3 4
E -1
A(1, -1)
-2
-3
Das Bild des Einheitskreises K und des umgebenden Quadrats unter A = ((3, 1); (1, 2)).
Die Halbachsenrichtungen und -längen der Ellipse E = A[ K ] sind nicht klar.
Übungen
Übung 1
Zeigen Sie, dass für alle A, B, C P R2 × 2 und λ, µ P R gilt:
(a) A + (B + C) = (A + B) + C,
(b) A + 0 = 0 + A = A,
(c) A + (− A) = (− A) + A = 0,
(d) A + B = B + A,
(e) 1 A = A, − A = (− 1) A,
(f ) λ (A + B) = λ A + λ B,
(g) λ (µ A) = (λ µ) A = µ (λ A).
Übung 2
Sei A P R2 × 2 . Zeigen Sie, dass für alle v, w P R2 und λ, µ P R gilt:
A(λ v + µ w) = λ A v + µ A w.
Übung 3
Sei A P R2 × 2 . Zeigen Sie, dass es eindeutig bestimmte λ P R und B P R2 × 2
gibt mit den Eigenschaften:
A = λ E2 + B, spur(B) = 0.
Übung 4
Sei A P R2 × 2 gegeben mit det(A) = 0. Geben Sie ein v P R2 an mit v ≠ 0
und A v = 0.
Übung 5
Sei A P R2 × 2 . Zeigen Sie, dass für alle v, w P R2 gilt:
(a) 〈v, Aw〉 = 〈At v, w〉, 〈Av, w〉 = 〈v, At w〉,
(b) i A v i 2 = 〈v, At Av〉, i At v i 2 = 〈v, A At v〉.
Übung 6
Zeigen Sie, dass für alle A, B, C P R2 × 2 und v P R2 gilt:
(a) A (Bv) = (AB) v,
(b) A (BC) = (A B) C,
(c) A E2 = E2 A = A,
(d) A (B + C) = A B + A C, (A + B) C = A C + B C.
Übung 7
Seien A, B P R2 × 2 . Zeigen Sie, dass det(AB) = det(A) det(B).
Übung 8
(a) Sei A P R2 × 2 . Zeigen Sie, dass A At symmetrisch ist.
(b) Gilt immer At A = A At ?
Übung 9
Seien A, B P R2 × 2 . Zeigen Sie, dass (AB)t = Bt At .
Übung 10
Seien A, B P R2 × 2 , u P R2 . Wir betrachten das Gleichungssystem
(+) B (x, y) = (x′, y′), A (x′, y′) = u
(a) Notieren Sie das System in Variablenform.
(b) Zeigen Sie (wahlweise in Matrizen- oder Variablenform), dass
(x, y) P R2 genau dann eine Lösung von (+) ist, wenn (A B) (x, y) = u.
Übung 11
Zeigen oder widerlegen Sie:
(a) Das Produkt zweier Diagonalmatrizen ist eine Diagonalmatrix.
(b) Das Produkt zweier symmetrischer Matrizen ist eine symmetrische
Matrix.
(c) Das Produkt zweier oberer (unterer) Dreiecksmatrizen ist eine obere
(untere) Dreiecksmatrix.
Dabei heißt eine Matrix A P R2 × 2 eine obere bzw. untere Dreiecksmatrix, falls
A(2, 1) = 0 bzw. A(1, 2) = 0.
Übung 12
Eine Matrix A P R2 × 2 heißt idempotent, falls A2 = A. Zeigen Sie:
(a) Jede Projektionsmatrix ist idempotent.
(b) Ist A idempotent und keine Diagonalmatrix, so ist spur(A) = 1.
Übung 13
(a) Geben Sie Beispiele für Matrizen A P R2 × 2 an mit A ≠ 0 und A2 = 0.
(b) Sei A P R2 × 2 mit A2 = 0. Zeigen Sie, dass spur(A) = 0.
(c) Sei A P R2 × 2 symmetrisch mit A ≠ 0. Zeigen Sie, dass A2 ≠ 0.
Übung 14
Seien A, B P R2 × 2 . Zeigen Sie, dass fA B = fA + fB .
Übung 15
Welche linearen Abbildungen werden durch Diagonalmatrizen, obere
Dreiecksmatrizen bzw. untere Dreiecksmatrizen beschrieben? Geben Sie
Beispiele und zeichnen Sie Diagramme zur Illustration.
Übung 16
Seien A, B P R2 × 2 Rotationsmatrizen. Dann gilt:
(+) A B = B A.
(a) Begründen Sie (+) anschaulich durch Betrachtung von Rotationen
der Ebene.
(b) Beweisen Sie (+) durch Berechnung der Produkte.
Übung 17
Seien ϕ, ψ P R und seien rotϕ , rotψ : R2 → R2 die Rotationen der Ebene
um die Winkel ϕ bzw. ψ. Nehmen Sie an, dass
rotϕ + rotψ = rotϕ + ψ ,
und leiten Sie hieraus mit Hilfe von Matrizen die Additionstheoreme für
den Kosinus und Sinus ab.
Übung 18
Sei f : R2 → R2 die Spiegelung am Nullpunkt. Bestimmen Sie die
darstellende Matrix A von f.
Übung 19
Sei u P R2 normiert und sei f : R2 → R2 die Spiegelung an der durch u
definierten Geraden durch den Nullpunkt. Bestimmen Sie die darstellende
Matrix A von f. Zeigen Sie zudem, dass A2 = E2 . Wie lässt sich diese
Eigenschaft anschaulich erklären?
Übung 20
Sei A P R2 × 2 . Zeigen Sie, dass die folgenden Aussagen äquivalent sind:
(a) Die Abbildung fA : R2 → R2 ist bijektiv, d. h. für alle u P R2 gibt es
genau v P R2 mit fA (v) = u.
(b) Die Abbildung fA : R2 → R2 ist surjektiv, d. h. für alle u P R2 gibt es
mindestens ein v P R2 mit fA (v) = u.
(c) Die Abbildung fA : R2 → R2 ist injektiv, d. h. für alle u P R2 gibt es
höchstens ein v P R2 mit fA (v) = u.
Eine inverse Matrix ist im Fall der Existenz eindeutig bestimmt, denn sind B
und C invers zu A, so gilt
C = CE2 = C(AB) = (CA)B = E2 B = B.
Wir können deswegen folgende Notation einführen:
Notation
Ist A P R2 × 2 invertierbar, so bezeichnen wir das eindeutige Inverse von A
mit A−1 .
Für invertierbare A gilt also A A−1 = A−1 A = E2 . Während man für reelle und
komplexe Zahlen x ≠ 0 neben x−1 auch 1/x schreibt, ist für Matrizen die Bruchno-
tation 1/A mangels Kommutativität nicht üblich: B/A = B ⋅ 1/A ist im Allgemei-
nen von 1/A ⋅ B verschieden, was zu Fehlern führen kann, wenn der Kalkül der
Bruchnotation verwendet wird.
Beim Rechnen mit inversen Matrizen sind unentbehrlich:
Satz (Inversenregeln)
Seien A,B P R2×2 invertierbar. Dann sind A−1 und AB invertierbar und es gilt
(A−1 )−1 = A, (A B)−1 = B−1 A−1 .
Beweis
Es gilt AA−1 = E2 = A−1 A, sodass nach Definition des Inversen A invers zu A−1
ist, d.h. (A−1 )−1 = A. Zur zweiten Regel berechnen wir
(B−1 A−1 ) (AB) = B−1 A−1 A B = B−1 E2 B = B−1 B = E2 .
Ebenso zeigt man, dass (AB)(B−1 A−1 ) = E2 . Damit ist B−1 A−1 invers zu AB.
Der Leser beachte, dass sich bei der Invertierung von AB die Reihenfolge um-
kehrt. Im Allgemeinen ist (AB)−1 ≠ A−1 B−1 .
Für Gleichungssysteme zeigt obige Überlegung:
Ist das System nicht eindeutig lösbar (d.h. det(A) = 0), so ist also A singulär. Im
eindeutig lösbaren Fall (d. h. det(A) ≠ 0) erweist sich umkehrt A als invertierbar,
sodass die eindeutige Lösbarkeit äquivalent zur Invertierbarkeit von A ist. Es gibt
verschiedene Möglichkeiten, dies zu zeigen. Eine davon verwendet:
Definition (Komplementärmatrix)
Sei A P R2 × 2 . Dann setzen wir
d −b a b
A# = , wobei A = .
−c a c d
Mit Hilfe der Komplementärmatrix können wir das Inverse einer Matrix im
Fall der Existenz leicht ermitteln und einen Zusammenhang zur Determinante
herstellen:
Beweis
Es gilt
a b d −b ad − bc ab − ab
A A# = = = det(A) E2 .
c d −c a cd − cd ad − bc
Analog ist A# A = det(A) E2 . Ist det(A) ≠ 0, so ist det(A)−1 A# das Inverse von
A nach (a). Ist det(A) = 0, so ist A nach obigen Überlegungen nicht
invertierbar. Dies zeigt (b).
Zum Beweis von (b) kann man auch den Multiplikationssatz für Determinan-
ten verwenden: Ist A invertierbar, so gilt
det(A) det(A−1 ) = det(AA−1 ) = det(E2 ) = 1,
sodass det(A) ≠ 0. Die Berechnung zeigt auch, dass det(A−1 ) = det(A)−1 .
1 1 1
A−1 = .
3 −1 2
Ae2 Ae1
Be2
Be1
3 −1
A−1 = A# = .
−2 1
1 3 −1 1 4
A−1 = = .
−1 −2 1 −1 −3
Ae2
3
Ae1
2
A-1 e2
1
-3 -2 -1 1 2 3 4 5
-1
A-1 e1
-2
-3
-4
Mit Hilfe von A−1 lässt sich das System (+) nun auch für beliebige andere
rechte Seiten ohne Neuberechnung lösen.
Beweis
Nach dem Multiplikationssatz für Determinanten gilt
1 = det(E2 ) = det(AB) = det(A) det(B),
sodass det(A) ≠ 0. Folglich ist A invertierbar. Weiter folgt aus der Voraus-
setzung AB = E2 , dass
B = E2 B = A−1 A B = A−1 E2 = A−1 .
Die Behauptung über linksseitige Inverse C wird analog bewiesen.
Orthogonale Matrizen
Gilt A = (a1 , a2 ) und B = (b1 ; b2 ), so können wir das durch „Zeile mal Spalte“ ge-
bildete Matrizenprodukt AB schreiben als
〈a1 , b1 〉 〈a1 , b2 〉
AB = = ( 〈ai, bj 〉 )1 ≤ i, j ≤ 2.
〈a2 , b1 〉 〈a2 , b2 〉
〈a1 , a1 〉 〈a1 , a2 〉
A At = .
〈a2 , a1 〉 〈a2 , a2 〉
Definition (orthogonal)
Eine Matrix A P R2 × 2 heißt orthogonal, wenn die Spaltenvektoren von A
orthogonal zueinander und normiert sind.
Eine Matrix A = (v1 , v2 ) ist also genau dann orthogonal, wenn 〈vi , vj 〉 = δij für
alle 1 ≤ i, j ≤ 2. Dabei ist δij wieder das Kronecker-Delta, also δij = 0 falls i ≠ j und
δij = 1, falls i = j.
Der folgende Satz gibt eine Reihe von Charakterisierungen der Orthogonali-
tät:
Beweis
Die Äquivalenz von (a) und (b) haben wir oben schon gezeigt. Damit ist At
genau dann orthogonal, wenn At und (At )t = A invers zueinander sind, d. h.
wenn A orthogonal ist. Dies zeigt die Äquivalenz von (a) und (c).
(b) impliziert (d): Es gelte A−1 = At . Dann gilt für alle v P R2 :
i Av i 2 = 〈Av, Av〉 = 〈v, At A v〉 = 〈v, E2 v〉 = 〈v, v〉 = i v i 2 .
(d) impliziert (e): Es gelte i A v i = i v i für alle v P R2 . Dann gilt für alle
v, w P R2 unter zweimaliger Verwendung der Polarisationsformel:
4 〈v, w〉 = i v + w i 2 − i v − w i 2 = i A(v + w) i 2 − i A(v − w) i 2
= i A v + A w i 2 − i A v − A w i 2 = 4 〈Av, Aw〉.
(e) impliziert (a): Gilt (e), so gilt 〈A ei , A ej 〉 = 〈ei , ej 〉 = δij für 1 ≤ i, j ≤ 2.
Damit sind die Spalten A e1 und A e2 von A orthogonal und normiert.
Die Orthogonalität einer Matrix ist nach dem Satz äquivalent dazu, dass das
Matrix-Vektor-Produkt das Skalarprodukt erhält. Daraus folgt, dass Längen und
Winkel erhalten bleiben. Während der Erhalt der Länge äquivalent zur Ortho-
gonalität ist, ist der Erhalt der Winkel nicht hinreichend für die Orthogonalität.
Ist zum Beispiel A = 2E2 , also Av die Streckung von v um den Faktor 2, so bleiben
Winkel erhalten, aber A ist nicht orthogonal.
Ist A = (v; w) orthogonal, so ist v normiert und folglich gibt es ein eindetuig be-
stimmtes ϕ P [ 0, 2π [ mit v = (cos ϕ, sin ϕ). Da w ebenfalls normiert ist und sen-
krecht auf v steht, gilt
w = rotπ/2 (v) oder w = rot−π/2 (v).
Damit ist
w = (−sin ϕ, cos ϕ) oder w = (sin ϕ, −cos ϕ).
Die Überlegung zeigt:
Ist A orthogonal und det(A) = 1, so ist A v für alle v P R2 der um den Winkel ϕ
gedrehte Vektor v. Im Fall det(A) = −1 ist A v für alle v P R2 der an der Geraden
durch 0 mit Winkel ϕ/2 gespiegelte Vektor v (Übung). Wir nennen die Matrix A
entsprechend eine Rotationsmatrix oder Spiegelungsmatrix. Spiegelungsmatrizen
sind nicht nur orthogonal, sondern auch symmetrisch. Eine Rotationsmatrix ist
nur dann symmetrisch, wenn ϕ = 0 oder ϕ = π.
e2
Ae1
/2
/2
e1
Ae2
cos ϕ sinϕ
A= bewirkt eine Spiegelung an der Geraden mit Winkel ϕ/2
sin ϕ −cosϕ
Die Spiegelung an der Geraden mit Winkel ϕ/2 lässt sich auch auffassen als
eine Spiegelung an der x-Achse gefolgt von der Rotation um den Winkel ϕ. Denn
die Spiegelung an der x-Achse wird dargestellt durch die Matrix (e1 ; −e2 ) und es
gilt
Nach dem Multiplikationssatz für Determinanten ist C eine Rotation, wenn so-
wohl A und B von gleichen Typ sind (beide Rotationen oder beide Spiegelun-
gen). Sind die Typen von A und B gemischt, so ist C eine Spiegelung. Mit Hilfe
der Additionstheoreme berechnet sich das Produkt zweier Spiegelungen zu
Wir zeigen nun so elementar wie möglich, dass das Bild des Einheitskreises
unter einer Matrix eine Ellipse ist.
Beweis
Es gilt
E = { Av | v P K } = { v | A−1 v P K } = { v | i A−1 v i = 1 }.
Wegen A−1 = det(A)−1 A# mit A# = ((d, −b), (−c, a)) gilt für alle v = (x, y) P R2 :
Im nächsten Kapitel werden wir einen zweiten Beweis kennenlernen, der Ke-
gelschnitte nicht heranzieht.
Die Ellipse E = A[ K ] ist genau dann achsenparallel, wenn die Zeilen der Ma-
trix senkrecht aufeinander stehen (was nicht notwendig die Orthogonalität der
Spalten nach sich zieht), und genau dann ein Kreis, wenn zusätzlich ihre Längen
übereinstimmen.
Die folgenden Berechnungen gelten auch für det(A) = 0, und wir bezeichnen
zur Vereinfachung die Menge A [ K ] stets als Ellipse. Die Darstellung (+) wird
nicht benötigt.
Die Halbachsen von E sind im Allgemeinen nicht durch Ae1 und Ae2 gege-
ben: Das Beispiel a = 2, b = −2, c = d = 1 zeigt, dass dies selbst für achsenparal-
lele Ellipsen nicht gelten muss:
Ae2 Ae1
1
-4 -3 -2 -1 1 2 3 4
E -1
-2 A[R]
Um die Lage von E zu bestimmen, durchlaufen wir den Einheitskreis K mit der
Funktion f : [ 0, 2π[ → K, f(t) = (cos t, sin t), und die Ellipse E = A[ K ] mit der
Funktion g : [ 0, 2π [ → E,
= a2 cos2 t + 2ab cos t sin t + b2 sin2 t + c2 cos2 t + 2cd cos t sin t + d2 sin2 t
a2 + c2 − b2 − d2 a2 + b2 + c2 + d2
(++) w1 = , w2 = ab + cd, τ = .
2 2
Damit können wir nun die Ableitung sehr einfach berechnen. Mit der Drehung
rot−π/2 (w) = (w2 , −w1 ) im Uhrzeigersinn ist
1 d
i g(t) i 2 = − w1 sin(2t) + w2 cos(2t) = 〈rot−π/2 (w), f(2t)〉.
2 dt
Im Fall w = 0 ist i g(t) i 2 konstant gleich τ und die Ellipse E ein Kreis mit Radius
£τ. Sei also w ≠ 0. Dann ist die berechnete Ableitung genau dann 0, wenn die
Vektoren rot−π/2 (w) und f(2t) orthogonal und damit w und f(2t) kollinear sind.
Seien also t1 , t2 derart, dass
f(2t1 ) = (cos(2t1 ), sin(2t1 )) = ŵ, f(2t2 ) = (cos(2t2 ), sin(2t2 )) = − ŵ.
Einsetzen in
i g(t) i 2 = τ + 〈w, f(2t)〉
zeigt, dass sich die Längen h1 und h2 der Halbachsen von E wie folgt berechnen
lassen:
Beispiel
Wir bestimmen die Ellipse E = A [ K ] der Matrix
4 1
A = .
1 2
s1 = π/8, s2 = s1 + π/2.
Ae2 = g( /2)
2
g(s2 ) g(s1 )
1 h1
Ae1 = g(0)
h2
-5 -4 -3 -2 -1 1 2 3 4 5
E -1
g(s3 ) g(s4 )
-2
-3
Verschiedene Matrizen können die gleiche Ellipse erzeugen. Die Ellipse E des
Beispiels können wir zum Beispiel auch erhalten, indem wir die achsenparallele
Ellipse mit den Halbachsenlängen h1 und h2 um das Argument ϕ von g(s1 ) gegen
den Uhrzeigersinn drehen. Damit ist E auch die Ellipse der Matrix
Übungen
Übung 1
Lösen Sie sowohl durch Elimination als auch durch Invertierung der
Koeffizientenmatrix das Gleichungssystem
4x + 2 y = 1
2 x + 3 y = −1
Übung 2
Sei A P R2 × 2 . Zeigen Sie, dass A genau dann invertierbar ist, wenn
fA : R2 → R2 eine Umkehrfunktion besitzt, und dass in diesem Fall
fA−1 = (fA )−1 .
Übung 3
Geben Sie möglichst einfache Kriterien dafür an, wann eine Diagonalma-
trix, eine obere Dreiecksmatrix bzw. eine untere Dreiecksmatrix invertier-
bar ist. Begründen Sie Ihre Antwort und geben Sie Formeln für die
Inversen an.
Dabei heißt eine Matrix A P R2 × 2 eine obere (untere) Dreiecksmatrix, falls
a21 = 0 (a12 = 0).
Übung 4
Zeigen oder widerlegen Sie, dass für alle A, B, C P R2 × 2 gilt:
(a) Sind A, B invertierbar und ist C = A + B, so ist C invertierbar.
(b) Sind A, B invertierbar und ist C = AB, so ist C invertierbar.
(c) Ist C = A + B und ist C invertierbar, so sind A und B invertierbar.
(d) Ist C = AB und ist C invertierbar, so sind A und B invertierbar.
Übung 5
Sei A P R2 × 2 invertierbar. Zeigen Sie, dass At invertierbar ist mit
(At )−1 = (A−1 )t .
Übung 6
Sei A P R2 × 2 eine symmetrische Matrix, deren Diagonaleinträge von Null
verschieden sind und unterschiedliche Vorzeichen haben. Zeigen Sie, dass
A invertierbar ist.
Übung 7
Sei A P R2 × 2 . Zeigen Sie, dass die folgenden Aussagen äquivalent sind:
(a) A ist invertierbar.
(b) Es gibt ein n ≥ 1 derart, dass An invertierbar ist.
(c) Für alle n ≥ 1 ist An invertierbar.
Übung 8
Sei A P R2 × 2 invertierbar. Zeigen Sie, dass die Spaltenvektoren von A
genau dann positiv orientiert sind, wenn dies für A−1 gilt. Zeigen Sie
zudem, dass diese Äquivalenz auch für die Zeilenvektoren gilt.
Übung 9
Bestimmen Sie alle invertierbaren Matrizen A P R2 × 2 mit A = A−1 .
Übung 10
Seien A, B P R2 × 2 mit A = 2B − E2 . Zeigen Sie, dass die folgenden Aussagen
äquivalent sind:
(a) A2 = A (d. h. A = A−1 ).
(b) B2 = B.
Übung 11
Geben Sie eine Matrix A P R2 × 2 an, die orthogonale Zeilen und nicht
orthogonale Spalten besitzt.
Übung 12
Sei A = ((a, b), (c, d)) P R2 × 2 orthogonal, und sei ϕ P [ 0, 2π [ mit
(a, c) = (cos ϕ, sin ϕ).
Zeigen Sie, dass für alle v P R2 gilt:
(a) Ist det(A) = 1, so ist A v der um den Winkel ϕ (gegen den Uhrzeiger-
sinn) gedrehte Vektor v.
(b) Ist det(A) = −1, so ist A v der an der Geraden durch 0 mit Winkel ϕ/2
gespiegelte Vektor v.
Übung 13
Sei A P R2 × 2 . Zeigen Sie, dass die folgenden Aussagen äquivalent sind:
(a) Die Spalten von A sind orthogonal und haben die gleiche Länge
λ>0.
(b) A ist winkeltreu, d. h. es gilt ](v, w) = ](Av, Aw) für alle v, w P R2
mit v, w ≠ 0.
Übung 14
Seien A und w wie bei der Analyse von E = A[ K ]. Zeigen Sie, dass
2 i w i 2 = ( (a + d)2 + (b − c)2 ) ( (a − d)2 + (b + c)2 ) .
Folgern Sie hieraus, dass die Längen der Halbachsen der zu A und At
gehörigen Ellipsen übereinstimmen.
Übung 15
Sei A = ((a, c); (b, d)) P R2 × 2 invertierbar, und sei E = A[ K ] das Bild des
Einheitskreises unter A. Zeigen Sie:
E = { (x, y) P R2 | i At rotπ/2 (x, y) i 2 = det(A)2 }.
Übung 16
Sei A P R2 ×2 , und sei g : [ 0, 2π [ → E die betrachtete Parametrisierung der
Ellipse E = A[ K ]. Weiter seien g1 , g2 : [ 0, 2π [ → R definiert durch
(g1 (t), g2 (t)) = g(t) = A (cos t, sin t) für alle t P [ 0, 2π [.
Berechnen Sie g′(t) = (g1 ′(t), g2 ′(t)) und zeigen Sie, dass der Vektor g′(t) zu
den Zeitpunkten 0, π/2, π und 3π/2 in Richtung der Seiten des E umschlie-
ßenden Parallelogramms A[ R ] zeigt. Dabei ist R wieder das K umschlie-
ßende achsenparallele Quadrat.
Sei A P R2×2 . Für jeden Vektor v der Ebene ist Av wieder ein Vektor der Ebene
und zudem eine Linearkombination der Spaltenvektoren von A. Für manche
Vektoren v kann ein besonders einfacher Zusammenhang zwischen v und Av be-
stehen. Beispiele sind:
Av = v Fixpunkt
Av = −v Spiegelung am Nullpunkt
Av = rotπ/2 (v) = (−v2 , v1 ) Drehung um π/2 gegen den Uhrzeigersinn
Für die Theorie der Matrizen ist der Fall einer Skalierung, d. h.
A v = λv für ein λ P R,
von großer Bedeutung. Wir definieren:
Ein Eigenwert kann der Skalar 0 sein, ein Eigenvektor ist nach Definition da-
gegen immer vom Nullvektor verschieden. Der Grund für diese Einschränkung
ist, dass A 0 = 0 = λ 0 für alle λ P R gilt, sodass jeder Skalar ein Eigenwert von A
wäre, wenn wir den Nullvektor als Eigenvektor zulassen würden.
Ist v ein Eigenvektor von A zum Eigenwert λ, so gilt
A(µv) = µ A v = µ λ v = λ (µ v) für alle µ P R,
sodass für µ ≠ 0 auch µv ein Eigenvektor von A zum Eigenwert λ ist. Insbeson-
dere ist der normierte Vektor v̂ ein Eigenvektor von A zum Eigenwert λ.
3
w Av = 2v
2
v
1
-5 -4 -3 -2 -1 1 2 3 4 5
-1
-2
Aw = -w
-3
Beispiele
(1) Für die Einheitsmatrix E2 ist jeder Vektor v ≠ 0 ein Eigenvektor zum
Eigenwert 1.
(2) Für eine Diagonalmatrix A = ((a, 0), (0, d) ist e1 ein Eigenvektor zum
Eigenwert a und e2 ein Eigenvektor zum Eigenwert d.
(3) Ist A eine Rotationsmatrix um den Winkel ϕ P ] 0, 2π [ mit ϕ ≠ π, so
hat A keine Eigenwerte und Eigenvektoren.
(4) Beschreibt A die Spiegelung an einer Geraden G(v) = span(v), so ist v
ein Eigenvektor von A zum Eigenwert 1 und rotπ/2 (v) = (−v2 , v1 ) ein
Eigenvektor von A zum Eigenwert −1.
(5) Ist Av = 0 und v ≠ 0, so ist v ein Eigenvektor zum Eigenwert 0. Damit
ist 0 genau dann ein Eigenwert von A, wenn A singulär ist.
Sei nun A = ((a, b), (c, d)) P R2 × 2 . Wie stellt man fest, ob A Eigenwerte besitzt
und wie berechnet man Eigenwerte und Eigenvektoren im Fall der Existenz?
Wir beobachten hierzu, dass für alle λ P R und alle v P R2 gilt:
Av = λv genau dann, wenn (A − λE2 ) v = 0.
Setzen wir also
a b λ 0 a−λ b
A λ = A − λ E2 = − = für alle λ P R,
c d 0 λ c d−λ
so ist λ genau dann ein Eigenwert von A, wenn das homogene Gleichungssystem
Aλ v = 0
eine vom Nullvektor verschiedene Lösung v besitzt, also nicht eindeutig lösbar
ist. Dies ist äquivalent dazu, dass det(A λ ) = 0. Für alle λ P R gilt:
det(A λ ) = (a − λ)(d − λ) − bc = λ2 − (a + d) λ + ad − bc
= λ2 − spur(A) λ + det(A).
Diese Überlegung motiviert:
Die Eigenwerte von A sind genau die reellen Nullstellen des charakteristi-
schen Polynoms von A. Die Lösungsformel für quadratische Gleichungen und
die Formeln von Vieta liefern:
−£2 1 £2 1
Aλ1 v = v = 0, Aλ2 v = v = 0
2 −£2 2 £2
sind v1 = (1, £2) und v2 = (1 , −£2). Damit sind (λ1 , v1 ) und (λ2 , v2 )
Eigenpaare von A.
4 pA ( )
2 1
-3 -2 -1 1 2 3 4 5
-2
Der Spektralsatz
Aus der Form (+) der Diskriminante D des obigen Satzes lesen wir ab, dass
Eigenwerte existieren, falls det(A) ≤ 0 oder bc ≥ 0. Letztere Bedingung ist für
jede symmetrische Matrix erfüllt, da dann bc = b2 ≥ 0. Damit besitzt jede sym-
metrische Matrix A P R2 × 2 reelle Eigenwerte λ1 und λ2 . Diese Eigenwerte sind
genau dann gleich, wenn D = (a − d)2 + b2 = 0, d. h. wenn a = d und b = 0 (sodass
A ein skalares Vielfaches von E2 ist). Damit können wir den folgenden funda-
mentalen Satz beweisen:
Satz (Spektralsatz)
Sei A P R2 × 2 . Dann sind äquivalent:
(a) A ist symmetrisch.
(b) Es gibt zueinander orthogonale Eigenvektoren v und w von A.
Beweis
(a) impliziert (b): Sei A symmetrisch. Nach obigen Überlegungen besitzt A
reelle Eigenwerte λ1 und λ2 .
Gilt λ1 = λ2 = λ, so gilt A = λ E2 und v = e1 = (1, 0) und w = e2 = (0, 1)
sind orthogonale Eigenvektoren von A.
Es gelte also λ1 ≠ λ2 . Seien v und w Eigenvektoren von A zu λ1 bzw. λ2 .
Da A symmetrisch ist, gilt At = A. Damit erhalten wir
λ1 〈v, w〉 = 〈λ1 v, w〉 = 〈Av, w〉 = 〈v, At w〉 = 〈v, Aw〉 = 〈v, λ2 w〉 = λ2 〈v, w〉.
Folglich ist
(λ1 − λ2 ) 〈v, w〉 = λ1 〈v, w〉 − λ2 〈v, w〉 = 0.
Wegen λ1 ≠ λ2 gilt also 〈v, w〉 = 0, sodass v und w orthogonal sind.
(b) impliziert (a): Seien v und w orthogonale und ohne Einschränkung
normierte Eigenvektoren von A zu den Eigenwerten λ1 bzw. λ2 . Seien
(α, β), (γ , δ) die Koordinatenvektoren von e1 , e2 bzgl. der Basis (v, w), d. h.
e1 = αv + βw, e2 = γ v + δw.
Dann gilt wegen 〈v, w〉 = 〈w, v〉 = 0, dass
a12 = 〈e1 , Ae2 〉 = 〈e1 , A(γ v + δw)〉 = 〈αv + βw, λ1 γ v + λ2 δ w〉
= λ1 α γ 〈v, v〉 + λ2 β δ 〈w, w〉 = λ1 αγ + λ2 βδ,
a21 = 〈Ae1 , e2 〉 = 〈A(αv + βw), e2 〉 = 〈λ1 α v + λ2 β w, γ v + δw〉
= λ1 α γ 〈v, v〉 + λ2 β δ 〈w, w〉 = λ1 α γ + λ2 β δ.
Dies zeigt, dass a12 = a21 . Folglich ist A symmetrisch.
a b 4 2
A = = .
b d 2 1
−1 2 4 2
Aλ1 v = v = 0, Aλ2 w = w = 0
2 −4 2 1
sind v = (2, 1) und w = (−1, 2). Damit sind (λ1 , v) und (λ2 , w) Eigenpaare der
Matrix A. Es gilt
〈v, w〉 = 〈(2, 1), (−1, 2)〉 = 0,
sodass v und w orthogonal sind, wie es nach dem Spektralsatz sein muss.
Diese Ergebnisse lassen sich auch anders gewinnen: Wegen det(A) = 0 ist A
singulär und 0 ein Eigenwert von A. Für das homogene Gleichungssystem
Aw = 0 können wir w = (−1, 2) als eine nichttriviale Lösung ablesen. Nach
dem Spektralsatz muss der zu v orthogonale Vektor v = rot−π/2 (w) = (2, 1)
ein weiterer Eigenvektor von A sein. Wegen Av = (10, 5) = 5v ist 5 der
zweite Eigenwert von A.
Der Spektralsatz besagt, dass sich jede symmetrische Matrix hinsichtlich ge-
wisser orthogonaler und normierter Vektoren so verhält wie eine Diagonalma-
trix hinsichtlich der kanonischen Basisvektoren. Um dies zu präzisieren, betrach-
ten wir eine symmetrische Matrix A mit Eigenwerten λ1 und λ2 und zugehörigen
normierten Eigenvektoren v und w. Wir setzen
λ1 0 v1 v2
D = diag(λ1 , λ2 ) = , S = (v, w) = .
0 λ2 w1 w2
Dann ist S orthogonal, sodass S−1 = St = (v; w). Durch einen Austausch von w
durch −w können wir das Vorzeichen von det(S) nach Wunsch einstellen. Es gilt
A S−1 = A (v; w) = (Av; Aw) = (λ1 v; λ2 w), sodass
λ1 〈v, v〉 λ2 〈v, w〉 λ1 0
S A S−1 = (v, w) (λ1 v; λ2 w) = = = D.
λ1 〈w, v〉 λ2 〈w, w〉 0 λ2
Durch Multiplikation mit S−1 von links und S von rechts erhalten wir
A = S−1 D S = St D S.
Diese Zerlegung können wir anschaulich interpretieren: Da S orthogonal ist, ist
S je nach Vorzeichen von det(S) eine Drehung um einen Winkel ϕ oder eine
Spiegelung an einer Geraden G. Im Fall einer Drehung können wir die Wirkung
von A = S−1 DS auf einen beliebigen Vektor v der Ebene so beschreiben:
(1) Der Vektor v wird um den Winkel ϕ gegen den Uhrzeigersinn gedreht.
(2) Der gedrehte Vektor wird in x-Richtung um den Faktor λ1 und in y-Richtung
um den Faktor λ2 skaliert.
(3) Der so erhaltene Vektor wird um den Winkel ϕ zurückgedreht.
Ist S eine Spiegelung, so gilt eine analoge Dreiteilung. Da für eine Spiegelung
S = S−1 gilt, ist die Rückspiegelung identisch mit der ersten Spiegelung.
Wir fassen zusammen:
Sicht der Basis (v, w) bewirkt A also eine Streckung um λ1 entlang der Achse von
v und λ2 entlang der Achse von w. Der Spektralsatz besagt damit, dass jede sym-
metrische Matrix von der sympathischen Schlichtheit einer Diagonalmatrix ist,
wenn wir ein geeignetes Koordinatensystem aus orthogonalen und normierten
Basisvektoren wählen.
a b 4 2
A = = .
b d 2 1
λ1 0 5 0 2 1
D = = , S = (v, w) = α , S−1 = St .
0 λ2 0 0 −1 2
Der Leser rechne nach, dass A = S−1 DS und D = SAS−1 . Der Vektor
u = α (−3, 7/2) hat bzgl. (v, w) die Koordinaten Su = (−1/2, 2). Damit hat
Au = (−2, −1) = £5 (−1, −1/2) bzgl. (v, w) die Koordinaten DSu = (−5/2, 0),
wie nach „Projektion auf v und Streckung um 5“ auch sein muss.
2
u
w 1
-3 -2 -1 1 2 3
Au
-1
-2
a b 3 1
A = = .
b d 1 1
2 Au
Av
1
w
Aw
v
-2 -1 1 2 3 4
-1
Mit Hilfe der Diagonalisierung können wir die Eigenvektoren und Eigenwerte
einer invertierbaren symmetrischen Matrix geometrisch als Richtungen und Län-
gen der Halbachsen der von A erzeugten Ellipse interpretieren und damit zwei
Welten zusammenbringen. Im Folgenden seien
EA = A [ K ] = { Av | i v i = 1 }
das Bild des Einheitskreises K unter einer Matrix A und
Ea, b = { (x, y) P R2 | (x/a)2 + (y/b)2 = 1 }
die achsenparallele Ellipse mit Halbachsen a, b > 0. Wir erhalten:
Wenn wir die Matrix S als Drehung annehmen und A = S−1 D S als Abfolge
der Drehung S, x-y-Skalierung D und Rückdrehung S−1 um den gleichen
Drehwinkel auffassen, wird das Ergebnis sehr anschaulich: Durch S = (v, w)
werden die orthogonalen und normierten Eigenvektoren v und w von A auf e1
und e2 abgebildet. Der Kreis K bleibt invariant. Anwendung von D verformt K
zur achsenparallelen Ellipse E|λ1 |, |λ2 | . Die Anwendung von S−1 dreht diese
Ellipse zur Ellipse EA ; die Halbachsenlängen |λ1 | und |λ2 | bleiben dabei
gleich, die Achsenrichtungen e1 und e2 werden zu den Eigenvektoren v = S−1 e1
und w = S−1 e2 von A. Die Vektoren v und w sind damit Halbachsenrichtungen
von EA . Analoges gilt, wenn S eine Spiegelung ist.
Beispiel
Für die oben untersuchte symmetrische Matrix
a b 2 1
A = = .
b d 1 1
1v
Ae2
1
Ae1
2w
-3 -2 -1 1 2 3
EA
-1
Beweis
Da mit A auch At invertierbar ist, gilt
〈v, A At v〉 = 〈At v, At v〉 = i At v i 2 > 0 für alle v ≠ 0.
Dies zeigt, dass die Eigenwerte λ1 , λ2 der symmetrischen Matrix A At positiv
sind. Der Rest des Beweises verläuft analog zum obigen Beweis (Ausfüh-
rung des Arguments als Übung).
Wir bemerken schließlich, dass wir den spezielleren Satz für eine symmetri-
sche Matrix A aus dem allgemeinen Satz gewinnen können, indem wir
AAt = A A = A2
diagonalisieren. Denn die Matrix A2 hat die gleichen Eigenvektoren wie A und
die Eigenwerte von A2 sind die Quadrate der Eigenwerte von A.
Die Singulärwertzerlegung
Satz (Singulärwertzerlegung)
Sei A P R2 × 2 invertierbar. Weiter sei AAt = S−1 DS mit S orthogonal und
D = diag(λ1 , λ2 ). Weiter sei
T = D1/2 SA−t , wobei A−t = (A−1 )t , D1/2 = diag(σ1 , σ2 ) = diag(£λ1 , £λ2 ).
Dann ist T orthogonal und es gilt
A = S−1 D1/2 T. (Singulärwertzerlegung von A)
Wir können dieses sehr bedeutsame Ergebnis als Version des Spektralsatzes
für nichtsymmetrische Matrizen ansehen.
Beweis
Die Matrix T ist orthogonal, da
T t T = A−1 S−1 D1/2 D1/2 S A−t = A−1 A At A−t = E2 E2 = E2 .
Weiter ist
A = S−1 DSA−t = S−1 D1/2 D1/2 SA−t = S−1 D1/2 T.
Die Zerlegung A = S−1 D1/2 T ist als Singulärwertzerlegung von A bekannt und
die Diagonaleinträge σ1 , σ2 von D1/2 heißen die Singulärwerte von A. Die Matrix
A wird in drei Teile wie bei der Diagonalisierung zerlegt, wobei die äußeren Ma-
trizen immer noch orthogonal, aber im Allgemeinen nicht mehr invers zueinan-
der sind. Mehr können wir nicht erreichen, da wir A nicht als symmetrisch vor-
aussetzen.
Dass das Bild des Einheitskreises unter A eine Ellipse ist, lässt sich mit Hilfe
der Singulärwertzerlegung A = S−1 D1/2 T wie oben bei der Diagonalisierung so
einsehen: Wir nehmen an, dass S und T Drehungen sind. Dann wird der Ein-
heitskreis zunächst mit T gedreht. Seine Form bleibt dabei unverändert. Nun
wird der gedrehte Kreis durch Anwendung von D1/2 in x- und y-Richtung um
die positiven Skalare σ1 bzw. σ2 gestreckt und damit zur achsenparallelen El-
lipse Eσ1, σ2 . Schließlich wird diese Ellipse mit S−1 zur Ellipse E = A[ K ] gedreht.
Die Spaltenvektoren von S−1 sind damit Halbachsenrichtungen und die Singu-
lärwerte von A die Längen der Halbachsen von E. Die Ellipse E ist damit voll-
ständig durch die Matrizen S−1 und D bestimmt. Da die orthogonale Matrix
S−1 wiederum durch ihre erste Spalte bestimmt ist, legen die vier Parameter
S−1 (1, 1), S−1 (2, 1), σ1 , σ2 die zentrische Ellipse E fest. Die Rolle der vorge-
Beispiel
Seien σ1 = 2, σ2 = 1, ϕ = π/3, ψ = π/8, D = diag(σ1 , σ2 ), S−1 = rotψ , T = rotϕ .
Wir setzen
A = S−1 D T (Drehung um ψ, Skalierung mit D, Drehung um ϕ).
Die Anwendung von T gefolgt von D ergibt zunächst:
-2 -1 1 1 2
E 1, 2
K
-1
Ae1
2 S-1 e 2
1
-1 e
1S 1
1
Ae2
-2 -1 1 2
EA
-1
Analoge Überlegungen gelten, wenn S oder T eine Spiegelung ist. Die Deter-
minante von S oder von T kann dabei frei als 1 oder −1 gewählt werden: Multipli-
zieren wir die zweiten Spalten von S und T mit −1, so erhalten wir eine Singulär-
wertzerlegung von A, bei der die Determinanten der beiden äußeren Matrizen ihr
Vorzeichen gewechselt haben. Ist S eine Drehung, so entspricht das Vorzeichen
von det(T) wegen
det(A) = det(S−1 ) det(D1/2 ) det(T) = σ1 σ2 det(T) mit σ1 , σ2 > 0
der Orientierung der Spalten von A, also der Bilder von e1 und e2 unter A. Ist die
Determinante von A negativ, so durchläuft Af(t)) mit obiger Parametrisierung
f(t) von K die Ellipse E im Uhrzeigersinn.
Subtile Beziehungen bestehen zwischen den zu A und At gehörigen Ellipsen
E = A[ K ] und Et = At [ K ]. Wegen At = T −1 D1/2 S haben A und At die gleichen
Singulärwerte, sodass die Ellipsen E und Et die gleichen Halbachsenlängen σ1
und σ2 aufweisen. Ist vi = S−1 ei , i = 1,2, ein normierter Halbachsenvektor von
E, so ist
At vi = T −1 D1/2 SS−1 ei = T −1 D1/2 ei = σi T −1 ei
ein Halbachsenvektor von Et .
-3 -2 -1 1 2 3
-1
-2
Et
-3
Übungen
Übung 1
Illustrieren Sie die Begriffe Eigenwert und Eigenvektor durch Diagramme.
Übung 2
Sei A P R2 × 2 , und seien v, w Eigenvektoren von A zum gleichen Eigenwert
λ. Weiter sei u P span(v, w) mit u ≠ 0. Zeigen Sie, dass u ein Eigenvektor
von A zum Eigenwert λ ist.
Übung 3
Was lässt sich über die Existenz von Eigenwerten (immer, manchmal, nie)
einer Matrix A unter den folgenden Bedingungen sagen? Begründen Sie
Ihre Antworten.
(a) det(A) = 0.
(b) det(A) > 0.
(c) det(A) < 0.
(d) spur(A) = 0.
(e) A ist eine Diagonalmatrix.
(f ) Die Einträge von A außerhalb der Hauptdiagonalen haben das
gleiche Vorzeichen.
(g) Die Einträge von A außerhalb der Hauptdiagonalen haben verschie-
dene Vorzeichen.
Übung 4
Bestimmen Sie alle symmetrischen Matrizen A = ((a, b), (b, d)), für die (1, 1)
ein Eigenvektor zum Eigenwert 1 ist.
Übung 5
Sei A = rotϕ P R2 × 2 eine Rotationsmatrix um einen Winkel ϕ P [ 0, 2π [.
Zeigen Sie, dass A genau dann Eigenwerte besitzt, wenn ϕ = 0 oder ϕ = π.
Übung 6
Sei u P R2 mit u ≠ 0, und sei A die Spiegelung an der Geraden G(u) =
span(u). Bestimmen Sie die Eigenwerte und Eigenvektoren von A sowohl
durch anschauliche Argumentation als auch durch Berechnung. Zeichnen
Sie ein Diagramm zur Illustration.
Übung 7
Sei u P R2 mit u ≠ 0, und sei A = Apru die Projektionsmatrix bzgl. u.
Bestimmen Sie die Eigenwerte und Eigenvektoren von A sowohl durch
anschauliche Argumentation als auch durch Berechnung. Zeichnen Sie ein
Diagramm zur Illustration.
Übung 8
Sei A P R2 × 2 invertierbar. Welche Beziehungen bestehen im Fall der
Existenz zwischen den Eigenvektoren und zugehörigen Eigenwerten von A
und A−1 ? Beweisen Sie Ihre Behauptungen.
Übung 9
Beweisen oder widerlegen Sie die folgenden Aussagen:
(a) Für alle A P R2 × 2 gilt: Besitzt A einen Eigenwert, so auch A2 .
(b) Für alle A P R2 × 2 gilt: Besitzt A2 einen Eigenwert, so auch A.
(c) Für alle A P R2 × 2 gilt: Besitzt A2 einen Eigenwert, so auch A3 .
Übung 10
Sei A P R2 × 2 eine obere oder untere Dreiecksmatrix mit voneinander
verschiedenen Diagonaleinträgen. Zeigen Sie, dass A keine Eigenwerte
besitzt.
Übung 11
Sei B = ((s, b), (b, −s)) P R2 × 2 , B ≠ 0, eine spurfreie Matrix, und sei
(s, b) = λ (cos(ϕ, sinϕ)) mit λ = i (s, b) i, ϕ P R.
Zeigen Sie unter Verwendung der Additionstheoreme für den Kosinus und
Sinus, dass
v = (cos(ϕ/2), sin(ϕ/2)) und w = (−sin(ϕ/2), cos(ϕ/2)).
Eigenvektoren von B zu den Eigenwerten λ und −λ sind. Illustrieren Sie das
Ergebnis durch eine Skizze.
Übung 12
Sei A P R2 × 2 symmetrisch, und sei A = S−1 DS, D = SAS−1 mit einer
orthogonalen Matrix S und einer Diagonalmatrix D. Zeigen Sie, dass die
Zeilenvektoren von S (und damit die Spaltenvektoren von S−1 ) orthogonale
und normierte Eigenvektoren von A mit den zugehörigen Eigenwerten
λ1 = d11 und λ2 = d22 sind.
Übung 13
Sei A P R2 × 2 symmetrisch.
(a) Illustrieren Sie die Aussage, dass A eine Diagonalmatrix D bzgl.
eines Koordinatensystems bestehend aus orthogonalen und
normierten Eigenvektoren v, w von A ist, durch Diagramme.
(b) Betrachten Sie nun eine konkrete symmetrische nichtdiagonale
Matrix A ihrer Wahl, und führen Sie das Umrechnen von (x,y)-
Koordinaten im System e1 , e2 und (x′, y′)-Koordinaten im System
v,w für einige Vektoren v = xe1 + ye2 = x′v + y′w der Ebene durch.
Übung 14
Seien Ea, b eine achsenparallele Ellipse und S orthogonal. Zeigen Sie, dass
die Ellipse E = S[ Ea, b ] auch im Fall det(S) = −1 durch eine Drehung aus Ea, b
hervorgeht. Wie lässt sich der Drehwinkel aus S gewinnen? Illustrieren Sie
Ihre Argumentation durch eine Skizze.
Übung 15
Führen Sie den Beweis des allgemeinen Ellipsensatzes vollständig aus (in
Analogie zum Beweis des Ellipsensatzes für symmetrische Matrizen).
Übung 16
Sei (v1 ; v2 ) diag(σ1 , σ2 ) (w1 , w2 ) eine Singulärwertzerlegung von A P R2 × 2 .
(a) Zeigen Sie, dass auch
(±v1 ; ±v2 ) diag(σ1 , σ2 ) (±w1 , ±w2 ),
(±v2 ; ±v1 ) diag(σ2 , σ1 ) (±w2 , ±w1 )
Singulärwertzerlegungen von A sind (mit beliebiger Vorzeichenkom-
bination bei den Vektoren).
(b) Zeigen Sie, dass jede Singulärwertzerlegung von A eine der
Zerlegungen in (a) ist.
Grundlegendes
v + w = (v1 + w1 , v2 + w2 , v3 + w3 ) P R3 , (Vektoraddition)
λ v = (λ v1 , λ v2 , λ v3 ) P R3 , (Skalarmultiplikation)
Unsere Beweise der Winkelformel bleiben gültig, da sie nur allgemeine Ei-
genschaften des Skalarprodukts und geometrische Größen eines Dreiecks ver-
wenden, die von der räumlichen Lage unabhängig sind. Damit gilt für alle Vekto-
ren v,w P R3 mit v, w ≠ 0:
〈v, w 〉
cos ϕ = 〈v̂, ŵ〉 = mit ϕ = ](v, w) P [ 0, π ]. (Winkelformel)
ivi iwi
Wie in der Ebene definieren wir die Orthogonalität und die Kollinearität zweier
Vektoren: Zwei Vektoren v, w P R3 sind orthogonal, falls 〈v, w〉 = 0 und kollinear,
falls |〈v, w〉| = i v i i w i. Der Nullvektor ist kollinear mit jedem Vektor des R3 .
Sind v,w P R3 mit v ≠ 0, so sind v,w genau dann kollinear, wenn es ein λ P R gibt
mit w = λv.
Geraden und Ebenen des Raumes, denen der Nullpunkt angehört, können wir
über den Spann von Vektoren einführen:
Definition (Gerade)
Sei v P R3 mit v ≠ 0. Dann setzen wir
G(v) = span(v) = { λ v | λ P R }.
Die Menge G(v) ⊆ R3 heißt die von v aufgespannte oder erzeugte Gerade des
R3 . Eine Teilmenge G ⊆ R3 heißt eine Gerade (durch 0), falls es ein v P R3
gibt mit G = G(v).
Definition (Ebene)
Seien v, w P R3 nicht kollinear. Dann setzen wir
E(v, w) = span(v, w) = { λ v + µ w | λ, µ P R }.
Die Menge E(v, w) ⊆ R3 heißt die von v, w aufgespannte oder erzeugte Ebene
des R3 . Eine Teilmenge E ⊆ R3 heißt eine Ebene (durch 0), falls es v, w P R3
gibt mit E = E(v, w).
Definition (Translation)
Seien P ⊆ R3 und u P R3 . Dann setzen wir
P + u = { v + u | v P P }.
Die Menge P + u heißt die Translation oder Verschiebung von P um den
Vektor u.
Lineare Unabhängigkeit
Drei Vektoren des R3 liegen genau dann in einer gemeinsamen Ebene E, wenn
einer der drei Vektoren im Spann der beiden anderen Vektoren liegt. (Wir disku-
tieren diese anschaulich klare Aussage in den Übungen.) Eine weitere äquiva-
lente Bedingung gibt der folgende Satz.
Beweis
(a) impliziert (b): Es gelte also
v P span(u, w) oder w P span(v, u) oder u P span(v, w).
Ist v P span(w, u), so gibt es λ2 , λ3 P R mit
v = λ2 w + λ3 u.
Dann ist aber
1 v + (−λ2 ) w + (−λ3 ) u = 0
eine Darstellung des Nullvektors, deren Koeffizienten nicht alle gleich
Null sind. Analoges gilt, falls w P span(v, u) oder u P span(v, w).
(b) impliziert (a): Seien also λ1 , λ2 , λ3 P R nicht alle gleich 0 derart, dass
λ1 v + λ2 w + λ3 u = 0.
Ist λ1 ≠ 0, so gilt
−1 −λ2 −λ3
v = ( λ2 w + λ3 u ) = w + u P span(w, u).
λ1 λ1 λ1
Die beiden anderen Fälle λ2 ≠ 0 und λ3 ≠ 0 sind analog.
Die Negation der Aussage (b) besagt, dass sich der Nullvektor nur trivial in der
Form
0 = 0v + 0w + 0u (triviale Nulldarstellung)
mit Hilfe der drei Vektoren v, w, u kombinieren lässt. Diese Form wird in der Li-
nearen Algebra heute bevorzugt verwendet, um zum Ausdruck zu bringen, dass
zwischen Vektoren keine linearen Abhängigkeitsverhältnisse bestehen. Wir defi-
nieren allgemein:
Genauer sollten wir sagen: „Das k-Tupel (v1 , …, vk ) ist linear unabhängig.“
Denn die lineare Unabhängigkeit kommt den Vektoren v1 , …, vk als Ganzes zu
und nicht jedem einzelnen Vektor. Die Sprechweise „Die Vektoren v1 , …, vk sind
linear unabhängig“ ist also etwas ungenau, aber sprachlich einfacher.
Ist E eine Ebene des R3 , so gibt es nach Definition linear unabhängige Vekto-
ren v und w des R3 , die die Ebene aufspannen:
Spanndarstellung
E = E(v, w) = span(v, w) = { λ v + µ w | λ, µ P R }.
Anschaulich ist klar, dass wir eine Ebene E auch als Menge aller Vektoren dar-
stellen können, die senkrecht auf einem Vektor s P R3 , s ≠ 0, stehen („s“ steht hier
für „senkrecht“). Eine solche Menge hat die Form:
Orthogonaldarstellung
E = Es = { v P R3 | v und s sind orthogonal }
= { v P R3 | 〈v, s〉 = 0 }
= { v P R3 | v1 s1 + v2 s2 + v3 s3 = 0 }.
Das homogene System (+) in den Unbestimmten a, b, c lässt sich mit Hilfe von
(2 × 2)-Matrizen und unserer Lösungstheorie für (2 × 2)-Systeme lösen, ohne
dass dabei unangenehme Fallunterscheidungen nach x1 ≠ 0, x2 ≠ 0, … auftreten
würden. Wir formen das System hierzu äquivalent um:
Ein Vektor s = (a, b, c) ist genau dann eine Lösung von (+), wenn gilt:
y1 z1 b x1
(I) = −a ,
y2 z2 c x2
x1 z1 a y1
(II) = −b ,
x2 z2 c y2
x1 y1 a z1
(III) = −c .
x2 y2 b z2
Wir bezeichnen die (2 × 2)-Matrizen von (I), (II) und (III) mit A1 , A2 bzw. A3 und
setzen
d1 = det(A1 ) = y1 z2 − z1 y2 ,
d2 = det(A2 ) = x1 z2 − z1 x2 ,
d3 = det(A3 ) = x1 y2 − y1 x2 .
Für alle Matrizen A P R2 × 2 und alle v P R2 gilt
det(A) v = A# A v.
Sei nun (a, b, c) eine Lösung von (I), (II), (III). Dann gilt:
b b b x1
d1 = det(A1 ) = A1 # A1 = − a A1 #
c c c x2
z2 −z1 x1 −d2
= −a = a .
−y2 y1 x2 d3
a y1 z2 −z1 y1 d1
d2 = − b A2 # = −b = −b ,
c y2 −x2 x1 y2 d3
a z1 y2 −y1 z1 d1
d3 = − c A3 # = −c = c .
b z2 −x2 x1 z2 −d2
Definition (Kreuzprodukt)
Für alle v, w P R3 setzen wir
x1 x2 d1 y 1 z2 − y 2 z1
v × w = y1 × y2 = − d2 = x2 z1 − x1 z2 .
z1 z2 d3 x1 y2 − x2 y1
Das Kreuzprodukt ist also weder kommutativ noch assoziativ. Die Grass-
mann-Identität ist aus mnemotechnischen Gründen auch als bac-cab−Regel be-
kannt: Schreiben wir a, b, c statt v, w, u, so gilt
a × (b × c) = 〈a, c〉 b − 〈a, b〉 c = b 〈a, c〉 − c 〈a, b〉
mit ungewöhnlichen rechtsseitigen Skalaren an den Vektoren b und c. In der
Jacobi-Identität werden die Vektoren v, w, u zyklisch vertauscht, was ebenfalls
helfen kann, sich diese Formel zu merken. Explizit bemerken wir, dass die
Lagrange-Identität die Ungleichung von Cauchy-Schwarz (für den R3 ) impli-
ziert.
Für Liebhaber des Kreuzprodukts halten wir noch fest (Beweis als Übung):
〈v1 , v2 〉 〈v1 , w2 〉
= det .
〈w1 , v2 〉 〈w1 , w2 〉
Beweis
Gilt v = 0 oder w = 0, so ist v × w der Nullvektor mit Länge 0, und die
Fläche von P ist ebenfalls gleich 0. Seien also v, w ≠ 0 und ϕ = ](v, w),
sodass sin ϕ ≥ 0. Nach der Lagrange-Identität gilt
iv × wi 2 = i v i 2 i w i 2 − 〈v, w〉2
= iv i 2 iw i 2 − cos2 ϕ i v i 2 iw i 2
= i v i 2 i w i 2 (1 − cos2 ϕ)
Als Merkregel kann man verwenden, dass die zyklische bzw. azyklische An-
ordnung der Indizes zu einem positiven bzw. negativen Vorzeichen führt. Das
Ergebnis ei × ej lässt sich damit ablesen an der Aufzählung:
e1 , e2 , e3 , e1 , e2
Sind v, w linear unabhängig, so gilt allgemeiner, dass die räumliche Lage der
drei Vektoren v, w, v × w stets der Lage von e1 , e2 , e3 entspricht (und nicht etwa
der Lage von e1 , e3 , e2 ); bei diesem Lagebegriff wird von den Längen und dem
eingeschlossenen Winkel der Vektoren v und w abgesehen. Anschaulich lässt sich
dies wie folgt formulieren:
Die Regel kann in dieser anschaulichen Form nicht bewiesen werden, da wir
in mathematischen Beweisen nicht von einer rechten Hand reden können. Um
sie mathematisch zu formulieren, betrachten wir drei linear unabhängige Vek-
toren a, b, c des Raumes derart, dass a auf der positiven x-Achse und b in der
x-y-Ebene liegt (c muss nicht notwendig senkrecht auf a und b stehen). Dann
bildet anschaulich a, b, c genau dann ein System, das wir mit der rechten Hand
(bei sehr beweglichen Fingern) richtungsmäßig nachbilden können, wenn das
Vorzeichen der y-Komponente von b mit dem Vorzeichen der z-Komponente
von c übereinstimmt. Zwei Beispiele sind
(2, 0, 0), (1, 1, 0), (−1, −1, 2),
(1, 0, 0), (0, −1, 0), (−1, 0, −1).
Allgemeine Vektoren u, v, w P R3 erlauben diese Nachbildung mit der rechten
Hand, wenn sie durch eine Rotation um den Nullpunkt in ein derartiges System
a, b, c übergeführt werden können.
Definition (Rechtssystem)
Seien v, w, u P R3 linear unabhängig. Dann ist (v, w, u) ein Rechtssystem, falls
es eine Rotation f : R3 → R3 um den Nullpunkt gibt, sodass für die
Vektoren a = f(v), b = f(w), c = f(u) gilt:
(i) a = (a1 , 0, 0), b = (b1 , b2 , 0), c = (c1 , c2 , c3 ),
(ii) a1 > 0, sgn(b2 ) = sgn(c3 ).
Analog ist ein Linkssystem definiert, wobei in (ii) nun sgn(b2 ) ≠ sgn(c3 )
gefordert wird.
Damit können wir nun eine formale Version der Rechte-Hand-Regel bewei-
sen. Hierzu verwenden wir, dass eine Rotation f : R3 → R3 um den Nullpunkt
das Kreuzprodukt respektiert, d. h. dass f(u × v) = f(u) × f(v) für alle u, v P R3
gilt. Um dies streng zu beweisen, müssten wir Rotationen genauer untersu-
chen. Die Aussage ist aber plausibel, da eine Rotation eine stetige Abbildung ist
und wir das Kreuzprodukt bereits bis auf ein Vorzeichen in Länge und Rich-
tung festgelegt haben. Und dieses Vorzeichen kann bei einer stetigen Abbil-
dung nicht wechseln.
Beweis
Sei a1 = i v i. Sei f : R3 → R3 eine Rotation um den Nullpunkt, die v auf
a = (a1 , 0, 0) und w auf einen Vektor b der x-y-Ebene abbildet, sodass
f(w) = b = (b1 , b2 , 0).
Weiter sei c = f(u). Dann gilt
a1 b1 0
c = f(v × w) = f(v) × f(w) = 0 × b2 = 0 ,
0 0 a1 b2
Aus dieser Argumentation ergibt sich noch einmal, dass die Länge von v × w
die Fläche des von v und w aufgespannten Parallelogramms ist. Denn diese Flä-
che bleibt bei Rotationen unverändert, und die Fläche des von a und b aufge-
spannten Parallelogramms ist
Determinanten
Wir führen nun Determinanten in Analogie zur Ebene ein. Das dreidimensio-
nale Analogon zu dem von zwei Vektoren der Ebene aufgespannten Parallelo-
gramm ist:
Wir bestimmen nun das orientierte Volumen V(P) des von v, w, u aufgespann-
ten Parallelepipeds P. Das Vorzeichen von V(P) soll dabei wieder der Orientie-
rung der drei Vektoren entsprechen, die wir in Analogie zur Ebene so erklären
können:
Definition (Orientierung im R3 )
Seien v, w, u P R3 linear unabhängig, und sei ψ = ](v × w, u). Dann heißt
(v, w, u) positiv orientiert, wenn ψ P [ 0, π/2 [, und negativ orientiert, wenn
ψ P ] π/2, π ].
Die positive Orientierung von (v, w, u) besagt anschaulich, dass die Vektoren
u und v × w im gleichen durch die Ebene span(v, w) definierten Halbraum des
Definition (Determinante)
Seien v, w, u P R3 . Dann heißt die reelle Zahl
det(v, w, u) = 〈v × w, u〉
die Determinante von (v, w, u).
Die Determinante ist also normiert im Hinblick auf die kanonischen Einheits-
vektoren und gleich 0, wenn zwei der drei Vektoren gleich sind. Sie ändert das
Vorzeichen, wenn wir zwei Vektoren vertauschen. Weiter ist sie linear in allen
drei Komponenten.
Notation
Wir notieren Determinanten auch wieder in Matrix-Schreibweise:
x1 x2 x3
det y1 y2 y3 statt det((x1 , y1 , z1 ), (x2 , y2 , z2 ), (x3 , y3 , z3 )).
z1 z2 z3
x1 x2 x3 x1 y1 z1
det y1 y2 y3 = det x2 y2 z2 .
z1 z2 z3 x3 y3 z3
Diese keineswegs offensichtliche Eigenschaft lässt sich zum Beispiel mit der fol-
genden Regel einsehen, die allgemein für die Berechnung von Determinanten
nützlich ist:
det(v, w, u) = x1 y2 z3 + x2 y3 z1 + x3 y1 z2 − x3 y2 z1 − x1 y3 z2 − x2 y1 z3
x1 x2 x3 x1 x2
y1 y2 y3 y1 y2
z1 z2 z3 z1 z2
Zur Regel von Sarrus: Bestimmung der Vorzeichen der sechs Summanden
Beweis
Mit den in der Motivation des Kreuzprodukts verwendeten (2 × 2)-
Determinanten d1 , d2 , d3 gilt
det(v, w, u) = 〈v × w, u〉 = 〈(d1 , −d2 , d3 ), (x3 , y3 , z3 )〉.
Ausrechnen und Umordnen liefert die sechs Summanden, wobei jede
Determinante ein positives und ein negatives Vorzeichen beiträgt.
Beispiele
(1) Für v = (1, 2, 3), w = (1, 0, −1), u = (0, 1, 2) gilt
1 1 0
det(v, w, u) = det 2 0 1 = 0 + 3 + 0 − 0 − 4 + 1 = 0.
3 −1 2
1 0 1
det 0 1 1 = 0 + 0 + 0 − 1 − 0 − 1 = −2.
1 1 0
Der Spann dreier Vektoren kann { 0 }, eine Gerade, eine Ebene oder der ganze
Raum R3 sein. In jedem Fall enthält der Spann den Nullvektor als Element.
Die Eindeutigkeit des Koordinatenvektors ergibt sich elegant aus der eindeu-
tigen Nulldarstellung bei linearer Unabhängigkeit: Gilt
s = λ1 v + λ2 w + λ3 u = µ1 v + µ2 w + µ3 u,
so ist
0 = (λ1 − µ1 ) v + (λ2 − µ2 ) w + (λ3 − µ3 ) u.
Da die Vektoren v, w, u linear unabhängig sind, gilt λi − µi = 0 und also λi = µi
für alle i = 1, 2, 3.
Lineare Gleichungssysteme
Ist L ≠ ∅, so heißt das System lösbar. Andernfalls heißt es unlösbar. Besitzt L genau
ein Element, so heißt das System eindeutig lösbar.
Notieren wir Vektoren des Raumes als Spaltenvektoren, so schreibt sich das
System (+) in der Form
a1 b1 c1 u1
(++) x a + y b + z c = x a2 + y b2 + z c2 = u2 = u.
a3 b3 c3 u3
Auf der linken Seite stehen Linearkombinationen der aus den Koeffizienten
des Systems gebildeten Vektoren a, b, c. Diese Vektoren sind genau dann linear
unabhängig, wenn det(a, b, c) ≠ 0.
Ein Gleichungssystem ist genau dann homogen, wenn es durch den Nullvek-
tor gelöst wird. Im Gegensatz zu einem inhomogenen System ist also ein homo-
genes System immer lösbar. Jedem System können wir ein homogenes System
durch Nullsetzen der rechten Seite zuordnen. Ist das System lösbar, L seine Lö-
sungsmenge, (x*, y*, z*) P L beliebig und L0 die Lösungsmenge des zugeordne-
ten homogenen Systems, so gilt erneut
L = (x*, y*, z*) + L0 = { (x*, y*, z*) + (x, y, z) | (x, y, z) P L0 }.
Im Fall der Lösbarkeit gilt also wie im zweidimensionalen Fall:
Lösung = spezielle Lösung + homogene Lösung
Übungen
Übung 1
Sei s P R3 , s ≠ 0, und sei E = { v P R3 | 〈v, s〉 = 0 }. Diskutieren Sie, wie Sie
mit Hilfe der Komponenten von s eine Spanndarstellung von E erhalten
können. Führen Sie Ihre Konstruktion an konkreten Beispielen durch.
Übung 2
Seien E ⊆ R3 eine Ebene und u,vP E nicht kollinear. Zeigen Sie: E = E(u, v).
Übung 3
Seien v, w, u P R3 . Zeigen Sie, dass die folgenden Aussagen äquivalent sind:
(a) Die drei Vektoren liegen in einer gemeinsamen Ebene E ⊆ R3 .
(b) v P span(u, w) oder w P G(u) oder u P G(w).
(c) v P span(u, w) oder w P span(v, u) oder u P span(v, w).
[ zu (a) impliziert (b): Seien a, b P R3 mit E = E(a, b), und seien αi , βi P R mit
u = α1 a + β1 b, w = α2 a + β2 b, v = α3 a + β3 b.
Wir fragen nach der Existenz von λ1 , λ2 mit
α3 a + β3 b = v = λ1 u + λ2 w = (α1 λ1 + α2 λ2 )a + (β1 λ1 + β2 λ2 )b.
Hierzu betrachten wir das Gleichungssystem
α3 = α1 λ1 + α2 λ2 , β3 = β1 λ1 + β2 λ2
in den Unbestimmten λ1 , λ2 . Hat die Koeffizientenmatrix des Systems die
Determinante 0, so gilt w P G(u) oder u P G(w). Andernfalls ist das System
(eindeutig) lösbar, sodass v P span(u, w). ]
Übung 4
Zeigen Sie, dass für alle v, w, u P R3 und λ P R gilt:
(i) 〈v × w, v〉 = 〈v × w, w〉 = 0, (Orthogonalität)
(ii) v × w = − (w × v), (Antikommutativität)
(iii) (λv) × w = λ (v × w), (v + u) × w = v × w + u × w,
v × (λw) = λ (v × w), v × (w + u) = v × w + v × u, (Bilinearität)
(iv) v × v = 0, (Alternation)
(v) v × (w × u) = 〈v, u〉 w − 〈v, w〉 u, (Grassmann-Identität)
(vi) v × (w × u) + u × (v × w) + w × (u × v) = 0, (Jacobi-Identität)
(vii) i v × w i 2 = i v i 2 i w i 2 − 〈v, w〉2 . (Lagrange-Identität)
Übung 5
Zeigen Sie, dass für alle v, w, u, s P R3 gilt:
(v × w) × (u × s) = det(v, w, s) u − det(v, w, u) s.
Übung 6
Seien E1 und E2 zwei Ebenen des R3 mit E1 ≠ E2 . Zeigen Sie mit Hilfe des
Kreuzprodukts, dass es einen Vektor u gibt mit G(u) = E1 ∩ E2 .
Übung 7
Zeigen Sie, dass für alle v1 , v2 , w1 , w2 P R3 gilt:
〈v1 × v2 , w1 × w2 〉 = 〈v1 , v2 〉 〈w1 , w2 〉 − 〈v1 , w2 〉 〈w1 , v2 〉.
Übung 8
Illustrieren Sie den von v, w, u P R3 aufgespannten Spat P und die Formel
V(P) = f h = i v × w i cos(ψ) i u i = 〈v × w, u〉
für das orientierte Volumen von P durch ein Diagramm.
Übung 9
Zeigen Sie, dass für alle v, w, v1 ,v2 , w1 , w2 , u1 , u2 P R3 und alle λ P R gilt:
(i) det(e1 , e2 , e3 ) = 1,
(ii) det(v, w, u) = 0, falls v = w oder v = u oder w = u,
(iii) det(v, w, u) = − det(w, v, u) = − det(u, w, v) = − det(v, u, w),
(iv) det(λ v, w, u) = det(v, λ w, u) = det(v, w, λ u) = λ det(v, w, u),
det(v1 + v2 , w, u) = det(v1 , w, u) + det(v2 , w, u),
det(v, w1 + w2 , u) = det(v, w1 , u) + det(v, w2 , u),
det(v, w, u1 + u2 ) = det(v, w, u1 ) + det(v, w, u2 ).
Übung 10
Seien G1 = u1 + { λ v1 | λ P R } und G2 = u2 + { λ v2 | λ P R } affine Geraden
im R3 mit linear unabhängigen Vektoren v1 , v2 . Geben Sie mit Hilfe des
Skalar- und Kreuzprodukts eine Bedingung an, die genau dann zutrifft,
wenn sich G1 und G2 schneiden.
Übung 11
Sei T das räumliche Tetraeder mit den Ecken 0, v, w, u P R3 . Geben Sie mit
Hilfe des Skalar- und Kreuzprodukts eine Formel für das Volumen von T
an (unter Verwendung der Volumenformel „1/3 Grundfläche mal Höhe“).
Übung 12
Seien v0 P R3 , G eine affine Gerade und E eine affine Ebene des R3 . Geben
Sie drei lineare Gleichungssysteme an, die { v0 }, G bzw. E als Lösungs-
menge besitzen.
Übung 13
Sei K : R3 × R3 → R3 eine Funktion mit den Eigenschaften:
(a) K(e1 , e2 ) = e3 , K(e2 , e3 ) = e1 , K(e3 , e1 ) = e2 .
(b) K(v, w) = − K(w, v) für alle v, w P R3 .
(c) K ist bilinear, d. h. für alle v, w, u P R3 und λ P R gilt
K(λ v, w) = K(v, λ w) = λ K(v, w),
K(v + u, w) = K(v, w) + K(u, w), K(v, w + u) = K(v, w) + K(v, u).
Zeigen Sie, dass K(v, w) = v × w für alle v, w P R3 gilt.
Grundlegendes
mit reellen Zahlen A(i, j) = aij , den Einträgen der Matrix. Formal können wir A
wieder als eine Funktion von { 1, 2, 3 } × { 1, 2, 3 } nach R ansehen.
Viele Begriffsbildungen, Notationen und Konventionen lassen sich von
2 × 2-Matrizen auf 3 × 3-Matrizen in natürlicher Weise übertragen. So ist zum
Beispiel der Vektor (a11 , a22 , a33 ) P R3 die (Haupt-) Diagonale und der Skalar
a11 + a22 + a33 die Spur von A. Sind alle Einträge außerhalb der Hauptdiagona-
len gleich 0, so heißt die Matrix A eine Diagonalmatrix. Die Diagonalmatrix
mit der Diagonale (a, b, c) bezeichnen wir wieder mit diag(a, b, c). Die Vekto-
ren
(a11 , a12 , a13 ), (a21 , a22 , a23 ), (a31 , a32 , a33 ) P R3
heißen die Zeilenvektoren von A, die Vektoren
(a11 , a21 , a31 ), (a12 , a22 , a32 ), (a13 , a23 , a33 ) P R3
die Spaltenvektoren von A. Wir verwenden wieder ein Komma bzw. einen Strich-
punkt zur Unterscheidung von Zeilen und Spalten. Für drei Vektoren u, v, w des
R3 ist also A = (v, w, u) die Matrix mit den Zeilen v, w, u, während B = (v; w; u) die
Matrix mit den Spalten v, w, u ist.
Ist A = (v, w, u), so heißt At = (v; w; u) die zu A transponierte Matrix. Es gilt also
At (i, j) = A(j, i) für alle 1 ≤ i, j ≤ 3.
Gilt A = At , so heißt A symmetrisch.
Matrix-Operationen
Wir setzen
3×3
R = { A | A ist eine reelle 3 × 3-Matrix }.
Sind A, B P R3 × 3 , v P R3 und λ P R, so setzen wir
A + B = (aij + bij )1 ≤ i,j ≤ 3 , (Matrizenaddition)
λA = (λaij )1 ≤ i,j ≤ 3 , (Skalarmultiplikation)
A v = (ai1 v1 + ai2 v2 + ai3 v3 )1 ≤ i ≤ 3 , (Matrix-Vektor-Produkt)
AB = (ai1 b1j + ai2 b2j + ai3 b3j )1 ≤ i,j ≤ 3 . (Matrizenprodukt)
Beispiele
(1)
0 0 0 1 0 0
0 = 0 0 0 , E3 = diag(1, 1, 1) = 0 1 0
0 0 0 0 0 1
(2)
0 1 1 1 0 1 1 1 2
0 0 1 + 0 1 0 = 0 1 1
0 0 0 1 0 1 1 0 1
(3)
1 0 1 1 3
1 0 0 1 = 1
2 1 1 2 5
(4)
1 0 1 1 0 1 2 1 0
1 0 0 −1 1 0 = 1 0 1
2 1 1 1 1 −1 2 2 1
(5)
1 2 3 1 4 7
t
Ist A = 4 5 6 , so gilt A = 2 5 8 .
7 8 9 3 6 9
Jede Abbildung fA : R3 → R3 ist linear und umgekehrt lässt sich jede lineare
Abbildung f : R3 → R3 eindeutig durch eine Matrix A darstellen, d. h., es gibt
genau ein A P R3 × 3 mit f = fA . Der für die Ebene geführte Beweis kann über-
nommen werden. Die darstellende Matrix A einer linearen Abbildung f erhal-
ten wir, indem wir die Bilder der kanonischen Basisvektoren unter f bestimmen
und als Spalten in eine Matrix schreiben:
A = (f(e1 ); f(e2 ); f(e3 )).
Wir betrachten wieder Projektionen und Rotationen als Beispiele.
Projektionsmatrizen
Im dreidimensionalen Raum können wir einen Vektor v orthogonal auf eine
Gerade G oder eine Ebene E projizieren. Wie in der Ebene ist das
Euklidische Skalarprodukt das entscheidende Hilfsmittel.
1. Die Projektion auf eine Gerade
Sei G = G(u) die von einen normierten Vektor u P R3 aufgespannte
Gerade. Dann ist die orthogonale Projektion prG : R3 → R3 auf die
Gerade G definiert durch
prG (v) = 〈u, v〉 u für alle v P R3 .
Es gilt prG (v) P G und 〈u, v − prG (v)〉 = 0, sodass der Vektor v − prG (v)
senkrecht auf u steht. Die darstellende Matrix AG von prG hat die
Spalten
prG (ei ) = 〈u, ei 〉 u = ui u für i = 1, 2, 3,
sodass
u1 u1 u2 u1 u3 u1 u1 2 u1 u2 u1 u3
2
AG = u1 u2 u2 u2 u3 u2 = u1 u2 u2 u2 u3 .
u1 u3 u2 u3 u3 u3 u1 u3 u2 u3 u3 2
u1 u1 + w1 w1 u2 u1 + w2 w1 u3 u1 + w3 w1
AE = AG(u) + AG(w) = u1 u2 + w1 w2 u2 u2 + w2 w2 u3 u2 + w3 w2 .
u1 u3 + w1 w3 u2 u3 + w2 w3 u3 u3 + w3 w3
Die Projektion von v auf die von u und w erzeugte Ebene lässt sich als Summe
der Projektionen auf die erzeugten Geraden G(u) und G(w) auffassen.
Rotationsmatrizen
Sei ϕ P R. Dann stellt die Matrix
1 0 0
Aϕ = 0 cosϕ −sinϕ
0 sinϕ cosϕ
Die Rotation f(v) von v um die Drehachse G und den Winkel ϕ = π/4
Die darstellende Matrix A = (f(e1 ); f(e2 ); f(e3 )) der Rotation f berechnet sich
mit w(ϕ) = 1 − cos ϕ zu
Invertierbarkeit
Eine inverse Matrix ist im Fall der Existenz erneut eindeutig bestimmt, sodass
wir das Inverse einer invertierbaren Matrix A mit A−1 bezeichnen können. Für
alle invertierbaren Matrizen A, B P R3 × 3 gelten die Invertierungsregeln
(A−1 )−1 = A, (A B)−1 = B−1 A−1 .
Die für 2 × 2-Matrizen geführten Beweise können übernommen werden.
Beispiel
Hat A eine Nullzeile, so ist A singulär. Denn aus „Zeile mal Spalte“ folgt,
dass für jede Matrix B auch A B eine Nullzeile besitzt, sodass AB ≠ E3 .
Analog ist A singulär, wenn A eine Nullspalte besitzt.
Ein Gleichungssystem
(+) a1 x + b1 y + c1 z = u1
a2 x + b2 y + c2 z = u2
a3 x + b3 y + c3 z = u3
können wir wieder kompakt in der Form
A (x, y, z) = u
notieren, mit der Koeffizientenmatrix A = (a; b; c) P R3 × 3 des Systems. Wie frü-
her gilt:
Der Invertierungsalgorithmus
Wir beschreiben zunächst den Algorithmus und illustrieren ihn durch Bei-
spiele. Anschließend zeigen wir, dass der Algorithmus korrekt ist.
Invertierungsalgorithmus
Gegeben ist eine beliebige Matrix A P R3 × 3 . Wir versuchen, A durch
schrittweise elementare Zeilenoperationen in die Einheitsmatrix E3 zu
überführen. Dadurch entsteht eine endliche Folge A = A0 , …, Ak von
3 × 3-Matrizen. An Zeilenoperationen sind dabei erlaubt:
(a) Multiplikation einer Zeile mit λ ≠ 0.
(b) Addition des λ-fachen einer Zeile zu einer anderen Zeile.
Parallel hierzu führen wir die Zeilenoperationen an der Einheitsmatrix E3
durch, sodass eine zweite endliche Folge von 3 × 3-Matrizen E3 = B0 , …, Bk
entsteht. Wird beim Versuch, A in E3 zu überführen eine Nullzeile oder
Nullspalte produziert, so stoppen wir das Verfahren mit dem Ergebnis „A
ist singulär“. Andernfalls geben wir die Matrix Bk als Ergebnis aus.
Die Zeilenoperationen werden mit dem Ziel durchgeführt, die Matrix unter-
halb und oberhalb der Diagonalen auszuräumen (Nulleinträge zu erzeugen) und
die Diagonaleinträge gleich 1 zu setzen.
1 1 0 1 0 0
A1 = 0 −1 1 B1 = −1 1 0
0 2 −2 0 0 1
1 1 0 1 0 0
A2 = 0 −1 1 B2 = −1 1 0
0 0 0 −2 2 1
Im ersten Schritt addieren wir das (−1)-Fache der ersten Zeile zur zweiten,
d. h. wir subtrahieren die erste Zeile von der zweiten. Im zweiten Schritt
addieren wir das 2-Fache der zweite Zeile zur dritten. Da A3 eine Nullzeile
besitzt, ist das Ergebnis der Berechnung „nicht invertierbar“.
1 1 0 1 0 0
A1 = 0 −1 1 B1 = −1 1 0
1 −1 1 0 0 1
1 1 0 1 0 0
A2 = 0 −1 1 B2 = −1 1 0
0 −2 1 −1 0 1
1 1 0 1 0 0
A3 = 0 −1 1 B3 = −1 1 0
0 0 −1 1 −2 1
1 1 0 1 0 0
A4 = 0 −1 0 B4 = 0 −1 1
0 0 −1 1 −2 1
1 0 0 1 −1 1
A5 = 0 −1 0 B5 = 0 −1 1
0 0 −1 1 −2 1
1 0 0 1 −1 1
A6 = 0 1 0 B6 = 0 1 −1
0 0 −1 1 −2 1
1 0 0 1 −1 1
A7 = 0 1 0 B7 = 0 1 −1
0 0 1 −1 2 −1
Die Elementarmatrizen
Wir zeigen nun, dass der Invertierungsalgorithmus korrekt ist: Er eignet sich
als Test auf Invertierbarkeit und er produziert im invertierbaren Fall das Inverse
der Ausgangsmatrix. Hierzu führen wir spezielle Matrizen ein, mit deren Hilfe
wir die elementaren Zeilenoperationen als Matrizenmultiplikation von links dar-
stellen können.
Die Matrix Wij (λ) entsteht, indem wir den Eintrag der Einheitsmatrix an der
Stelle (i, j) mit dem Skalar λ überschreiben. Befindet sich der neue Eintrag außer-
halb der Hauptdiagonalen, so erhalten wir einen Additionstyp. Wird eine Eins
der Diagonalen durch λ ≠ 0 ersetzt, so erhalten wir einen Multiplikationstyp. Die
Namensgebung wird erklärt durch:
(1) Ist A P R3 × 3 und W = Wij (λ) ein Additionstyp, so ist WA die Matrix, die
entsteht, wenn wir das λ-Fache der j-ten Zeile zur i-ten Zeile von A
addieren.
(2) Ist A P R3 × 3 und W = Wii (λ) ein Multiplikationstyp, so ist WA die Matrix,
die entsteht, wenn wir die i-te Zeile von A mit λ multiplizieren.
Beispiel
1 0 0 1 1 2 1 1 2
W23 (5) = 0 1 5 , W23 (5) 0 −2 −1 = 5 8 4
0 0 1 1 2 1 1 2 1
1 0 0 1 1 2 1 1 2
W32 (5) = 0 1 0 , W32 (5) 0 −2 −1 = 0 −2 1
0 5 1 1 2 1 1 −8 −4
Eine Elementarmatrix ist invertierbar und ihr Inverses ist wieder eine Elemen-
tarmatrix:
(1) Das Inverse eines Additionstyps Wij (λ) ist Wij (−λ).
(2) Das Inverse eines Multiplikationstyps Wii (λ) ist Wii (1/λ).
Den Invertierungsalgorithmus können wir nun so beschreiben: Gegeben A,
versuchen wir, Elementarmatrizen L1 , …, L k zu finden, sodass
(+) L k … L1 A = E3 .
Gelingt dies, so ist
B = L k … L1 = A−1 ,
da B A = Lk … L1 A = E3 nach (+). Wegen
B = B E3 = L k … L1 E3
erzeugt unser Algorithmus im invertierbaren Fall also das Inverse von A in der
parallel ausgeführten Zeilenmanipulation von E3 . Mit obigen Notationen gilt
A0 = A, A1 = L1 A0 , A2 = L2 A1 = L2 L1 A, …
B0 = E3 , B1 = L1 B0 = L1 , B2 = L2 B1 = L2 L1 , …
Wird eine Nullzeile oder Nullspalte erzeugt, so ist die Matrix
Ak = Lk … L1 A
nicht invertierbar. Da alle Li invertierbar sind, ist notwendig A singulär. Damit
ist die Korrektheit des Algorithmus vollständig bewiesen.
Unsere Überlegungen zeigen (angewendet auf B = A−1 ), dass jede invertierbare
Matrix A als ein Produkt von Elementarmatrizen dargestellt werden kann:
Die Eigenwerte von A sind genau die reellen Nullstellen von pλ . Eine Berech-
nung der Determinante von Aλ zeigt, dass
pA (λ) = −λ3 + spur(A) λ2 − (det(A′11 ) + det(A′22 ) + det(A′33 )) λ + det(A)
für alle λ P R, wobei A′ij die (2 × 2)-Matrix ist, die aus A durch Streichen der i-ten
Zeile und j-ten Spalte hervorgeht.
Beispiel
Für die obere Dreiecksmatrix A = ((1, 2, 3), (0, 1, 1), (0, 0, 1)) gilt
1 1 1 3 1 2
A′11 = , A′22 = , A′33 = ,
0 1 0 1 0 1
Das charakteristische Polynom einer (3 × 3)-Matrix hat stets den Grad 3. Da ein
reelles Polynom ungeraden Grades eine reelle Nullstelle besitzt, erhalten wir:
Satz (Spektralsatz)
Sei A P R3 × 3 . Dann sind äquivalent:
(a) A ist symmetrisch.
(b) Es gibt paarweise zueinander orthogonale Eigenvektoren v,w,u von A.
Beispiel
Seien B die Rotationsmatrix der Drehung um die x-Achse um ϕ = π/4 und
D = diag(3, 2, 1). Dann gilt cos ϕ = sin ϕ = 1/£2 und
1 0 0 3 0 0
A = BD = 0 cosϕ −sinϕ D = 0 £2 −1/£2
0 sinϕ cosϕ 0 £2 1/£2
beschreibt die Achsenskalierung gemäß D gefolgt von der Drehung B. Die
Einheitssphäre wird zu einem Ellipsoid mit den Halbachsen 3, 2, 1.
Übungen
Übung 1
Seien G = span(u) und E = span(u, w) mit normierten und orthogonalen
Vektoren u, w P R3 . Zeigen Sie, dass für alle v P R3 gilt:
(a) prG (prG (v)) = prG (prE (v)) = prE (prG (v)) = prG (v),
(b) prE (prE (v)) = prE (v).
Was bedeuten diese Eigenschaften für die darstellenden Matrizen?
Übung 2
Sei G = span(u) für einen normierten Vektor u P R3 . Weiter sei v P R3 .
Zeigen Sie, dass der Vektor prG (v) P G den kleinsten Euklidischen Abstand
zu v unter allen Vektoren von G besitzt.
Übung 3
Formulieren und beweisen Sie eine zur vorangehenden Übung analoge
Aussage für die orthogonale Projektion auf eine Ebene.
Übung 4
Seien Aϕ , Bψ die Rotationsmatrizen für Drehungen um die x- bzw. y-Achse.
Berechnen Sie Aϕ Bψ − Bψ Aϕ . Was lässt sich für im Betrag kleine Winkel ϕ
und ψ feststellen? Betrachten Sie hierzu eine Taylor-Entwicklung der
Einträge.
Übung 5
Sei f : R3 → R3 die Rotation um den Winkel ϕ (gegen den Uhrzeigersinn)
um eine durch einen normierten Vektor s P R3 gegebene Achse.
(a) Begründen Sie die Formel
f(v) = 〈s, v〉 s + cos ϕ (s × v) × s + sin ϕ (s × v) für alle v P R3
geometrisch.
(b) Berechnen Sie mit Hilfe von (a) die darstellende Matrix von f.
Übung 6
Was lässt sich über die Determinante einer Rotationsmatrix und einer
Projektionsmatrix sagen?
Übung 7
Lösen Sie für eine beliebige rechte Seite u P R3 das Gleichungssystem
x + 2y + 3z = u1
x + y + z = u2
2x + 2y + z = u3
durch Invertierung der Koeffizientenmatrix A. Verwenden Sie dabei den
Invertierungsalgorithmus zur Berechnung von A−1 .
Übung 8
Wie lässt sich die Vertauschung zweier Zeilen einer Matrix durch Links-
multiplikation mit Elementarmatrizen gewinnen?
Übung 9
Sei A P R3 × 3 invertierbar. Zeigen Sie, dass es Additionstypen L1 , …, Lk gibt
derart, dass Lk … L1 A eine Diagonalmatrix ist.
Mehrdimensionale Analysis
Definition (Grenzwerte im Rm )
Seien m ≥ 1, (xn )n P N eine Folge im Rm und y P Rm . Dann heißt y
Grenzwert von (xn )n P N , falls gilt
∀ε > 0 ∃n0 ∀n ≥ n0 i y − xn i < ε.
Für die Dimension m = 2 besagt die ε-δ-Stetigkeit von f an der Stelle p, dass für
jedes (noch so kleine) ε > 0 ein δ > 0 existiert derart, dass die Menge
] p − δ, p + δ [ ∩ P ⊆ R
durch die Funktion f in die offene Kreisscheibe
Uε (f(p)) = { (x, y) P R2 | i (x, y) − f(p) i < ε } ⊆ R2
mit Mittelpunkt f(p) und Radius ε abgebildet wird. Erneut ist ε mit dem Werte-
bereich und δ mit dem Definitionsbereich von f assoziiert.
Die beiden Stetigkeitsbegriffe erweisen sich wie im eindimensionalen Fall als
äquivalent, sodass wir auch kurz von Stetigkeit ohne Zusatz sprechen können.
So wie wir eine Folge im Rm in m reelle Folgen aufspalten können, so können
wir eine Funktion f : P → Rm in m reelle Funktionen zerlegen:
Definition (Komponentenfunktionen)
Seien m ≥ 1, P ⊆ R und f : P → Rm . Dann heißen die reellen Funktionen
f1 , …, fm : P → R mit
f(x) = (f1 (x), …, fm (x)) für alle x P P
die Komponenten- oder Koordinatenfunktionen von f.
Beispiele
(1) Sei m = 2 und f : P → R2 . Dann können wir f als komplexwertige
Funktion auffassen. Es gilt
f1 (x) = Re(f(x)), f2 (x) = Im(f(x)) für alle x P P.
(2) Sei m = 3 und f : R → R3 mit f(x) = (x, ex , sin x) für alle x P R. Dann
ist f1 die Identität, f2 die Exponentialfunktion und f3 die Sinusfunk-
tion auf R.
Bemerkung
Anstelle von „komponentenweiser Konvergenz/Stetigkeit“ und „Komponen-
tenfunktionen“ sprechen wir gleichwertig auch von „koordinatenweiser
Konvergenz/Stetigkeit“ bzw. „Koordinatenfunktionen“.
Parametrisierte Kurven
Wir bevorzugen hier die Variable t anstelle von x, um die in vielen Fällen
nützliche dynamische Interpretation einer Kurve zu unterstützen. Dabei wird t als
Zeitvariable und f(t) als der Ort eines sich in der Zeit t P [ a, b ] bewegenden
Punktes interpretiert. Wir betonen, dass es sich um eine für die Dimensionen
m = 2 und m = 3 anschauliche Interpretation handelt, die rein mathematisch
nicht relevant ist. Wir können als Variable zum Beispiel auch x, y oder u ver-
wenden, wenn wir möchten.
Wichtig ist es, eine Kurve von ihrer Spur zu unterscheiden. Aus einer Kurve
ergibt sich die Spur, aber nicht umgekehrt. Beim Übergang von f zu spur(f ) geht
die Information verloren, wie die Spur durchlaufen wird: Durchlaufrichtung,
Geschwindigkeit und Wiederholungen sind nicht mehr erkennbar.
Oft liegt eine „linienartige“ Menge P ⊆ Rm vor, die man mit Hilfe einer
Kurve analytisch beschreiben möchte. Gesucht ist eine Parametrisierung von P,
d. h. eine Kurve f : [ a, b ] → Rm , deren Spur gleich P ist. Das Standardbeispiel
ist die Parametrisierung des Einheitskreises
K = { (x, y) P R2 | x2 + y2 = 1 }.
Der Kreis K wird durch die Kurve f : [ 0, 2π ] → R2 mit
f(t) = (cos t, sin t) für alle t P [ 0, 2π ]
parametrisiert. Aber auch g : [ 0, 2π ] → R2 mit
g(t) = (sin t, cos t) für alle t P [ 0, 2π ]
ist eine Parametrisierung von K.
Wir führen noch einige suggestive Sprechweisen ein.
Tangentialvektoren
Ist λ ≠ 0, d.h. t ein regulärer Parameter, so ist f ′(v)/λ die normierte Richtung der
Geschwindigkeit, und diese Richtung ist tangential zur Spur von f. Ist λ = 0, so
steht ein sich gemäß f(t) bewegender Punkt zum Zeitpunkt t still.
Beispiele
(1) Sei f : [ 0, 2π ] → R2 definiert durch
f(t) = ei t = (cos t, sin t) für alle t P [ 0, 2π ].
Dann ist f eine geschlossene Kurve, die die gleichmäßige Bewegung
eines Punktes auf dem Einheitskreis gegen den Uhrzeigersinn mit
Startpunkt 1 = (1, 0) beschreibt. Die Spur von f ist der Einheitskreis K.
Die Kurve ist stetig differenzierbar mit
f ′(t) = (cos′ t, sin′ t) = (−sin t, cos t) für alle t P [ 0, 2π].
Der Tangentialvektor f ′(t) hat für alle t P [ 0, 2π ] die Länge 1 und er
steht senkrecht auf dem Vektor f(t), da
〈f(t), f ′(t)〉 = 〈(cos t, sin ), (−sin t, cos t)〉 = 0.
1.5
f (1) f (2)
f (0)
1
f(2)
arctan(x)
1
f(1) x2 +1
0.5
f(0)
Der Graph von g ist die Spur von f. Die Ableitung von g
entspricht der y-Komponente der Tangentialvektoren von f.
Visualisierung
Sei f : [ 0, 2π ] → R2 mit
f(t) = (cos t, sin t) + 1/4 (cos(4t), sin(4t)) für alle t P [ 0, 2π ].
Die Kurve f ist geschlossen und differenzierbar mit
f ′(t) = (−sin t, cos t) + (− sin(4t), cos(4t)) für alle t P [ 0, 2π ].
f(t4 )
f(t3 )
1
f(t1 )
f(t2 )
0.5
f(t5 )
-1 -0.5 0.5 1
f(t7 )
-0.5
f(t10 )
f(t11 )
-1
f(t9 )
f(t8 )
Die Spur von f und die Werte f(tk ) für die Parameter tk = k π/6, k = 0, …, 12
0.5
f1 (t)
2 4 5
2 f2 (t)
3 3 3 3
-0.5
-1
-2 -1 1 2
-1
-2
Die Tangentialvektoren von f für obige Parameter. Drei der Vektoren sind 0.
g(0) = g(2 )
2
g(t3 ) g(t9 )
1
g(t1 )
g(t11 )
-2 -1 1 2
-1
g(t4 ) g(t8 )
g(t7 ) g(t5 )
-2
Die Ableitung g = f ′ als Kurve. Es gilt g(t2 ) = g(t6 ) = g(t10 ) = 0, sodass die Parameter
t2 , t6 und t10 singulär sind. Alle anderen Parameter sind regulär.
Ähnlich wie „Fläche zwischen Graph und x-Achse“ können wir „Länge einer
Kurve“ für Kurven mit hinreichend guten Eigenschaften definieren. Wie so oft
in der Analysis geschieht dies durch Approximation und Grenzwertbildung. Zur
Approximation verwenden wir Polygon-Züge:
Definition (Polygon-Approximation)
Sei f : [ a, b ] → Rm eine Kurve, und sei p = (tk )k ≤ n eine (stützstellenfreie)
Partition von [ a, b ]. Dann setzen wir
Lp f = ∑ k ≤ n i f(tk + 1 ) − f(tk ) i (wobei wieder tn + 1 = b).
Die reelle Zahl Lp f ist die Euklidische Länge des durch die Punkte
f(a) = f(t0 ), f(t1 ), f(t2 ), …, f(tn ), f(tn + 1 ) = f(b)
definierten Polygon-Zugs im Rm . Je feiner die Partition p ist, desto mehr nähert
sich Lp f anschaulich der Länge der Kurve f an.
f(t4 )
f(t3 )
1
f(t1 )
f(t2 )
0.5
f(t5 )
-1 -0.5 0.5 1
f(t7 )
-0.5
f(t10 )
f(t11 )
-1
f(t9 )
f(t8 )
Der Grenzwert
c = limδ(p) →0 Lp f
bedeutet, dass für jede Folge (pn )n P N von Partitionen von [ a, b ], deren Feinhei-
ten gegen Null konvergieren, die Folge (Lpn f )n P N der Längen der zugehörigen
Polygon-Approximationen gegen den gleichen reellen Wert c konvergiert. Der
Leser vergleiche dies mit der Definition des Riemann-Integrals.
Der Hauptsatz zur Längenberechnung einer Kurve lautet:
Der Beweis wird in der Analysis geführt. Wir begnügen uns hier mit einem dy-
namischen Argument, durch das die Formel plausibel wird: Nach der Formel
„Weg ist Geschwindigkeit mal Zeit“ können wir i f ′(t) i dt als den infinitesimal
zurückgelegten Weg auffassen. Im Integral werden diese infinitesimalen Wege
zur Gesamtlänge des zurückgelegten Weges aufsummiert.
Beispiel 1: Kreisumfang
Seien r > 0 und [ a, b ] ein reelles Intervall. Wir definieren die stetig
differenzierbare Kurve f : [ a, b ] → R2 durch
f(t) = r eit = r (cos t, sin t) für alle t P [ a, b ].
Dann gilt i f ′(t) i = r für alle t P [ a, b ]. Damit ist
b b
L(f ) = * i f ′(t) i dt = * r dt = r (b − a).
a a
Für [ a, b ] = [ 0, 2π ] ergibt sich der Umfang r2π eines Kreises mit Radius r.
Die Längenberechnung berücksichtigt allgemeiner aber auch teilweise und
mehrfache Durchläufe des Kreises. So ergibt sich zum Beispiel die Länge
2kr π für Intervalle der Form [ 0, 2kπ ].
Beispiel 2: Parabelbogen
Wir berechnen die Länge eines Parabelbogens. Sei hierzu [ a, b ] ein reelles
Intervall, und sei f : [ a, b ] → R2 definiert durch
f(t) = (t, t2 ) für alle t P [ a, b ].
Die stetig differenzierbare Kurve f durchläuft den durch das Intervall [ a, b ]
definierten Bogen der Einheitsparabel. Es gilt
f ′(t) = (1, 2t), i f ′(t) i 2 = 1 + 4t2 für alle t P [ a, b ].
Zur Berechnung der Länge von f verwenden wir, dass
1
* £c2 + t2 dt =
2
( t £c2 + t2 + c2 log( t + £c2 + t2 ) ) für alle c P R.
£5 1 £5 1 1
L(f ) = + log( 1 + ) − log( )
2 4 2 4 2
£5 1
= + log( 2 + £5 ) = 1,4789…
2 4
Zum Vergleich: Die Länge der Diagonalen des Einheitsquadrats ist gleich
£2 = 1,4142… Wir machen also keinen allzu großen Umweg, wenn wir
anstelle der Diagonalen auf dem Parabelbogen von (0, 0) nach (1, 1) laufen.
gesetzt haben. Man kann zeigen, dass für ε ≠ 0 keine elementare Stamm-
funktion des Integranden
£1 − ε2 sin2 t
existiert. Der Versuch, die Länge der Bögen einer Ellipse Ea, b mit den
Halbachsen a ≠ b zu berechnen, gibt also Anlass zur Einführung einer
neuen nichtelementaren Funktion. Für ε P [ 0, 1 [ und ϕ P R ist das
elliptische Integral zweiter Art definiert durch
ϕ
E(ϕ, ε) = * £1 − ε2 sin2 t dt.
0
Der Umfang der Ellipse Ea, b berechnet sich zu a E(2π, ε). Im Gegensatz zur
Flächenberechnung ist das Problem der Umfangsberechnung einer Ellipse
also deutlich schwieriger. Es sprengt den Rahmen der elementaren
Funktionen.
E( , 0)
E( , 2/3)
E( , 0.9)
E( , 0.999)
Übungen
Übung 1
Seien a, ϕ > 0. Wir definieren die Archimedische Spirale f : [ 0, ϕ ] → R2 durch
f(t) = a t (cos t, sin t) für alle t P [ 0, ϕ ].
(a) Skizzieren Sie spur(f) für a = 1 und ϕ = 2π.
(b) Beschreiben Sie qualitativ die Bedeutung der Parameter a und ϕ für
die Kurve f.
(c) Berechnen Sie L(f ) in Abhängigkeit von a und ϕ.
Übung 2
Wir definieren die Zykloide f : [ 0, 2π ] → R2 durch
f(t) = (t − sin(t), 1 − cos(t)) für alle t P [ 0, 2π ].
(a) Begründen Sie, dass die Zykloide die Bewegung des Punktes
p = (0, 0) auf dem Kreis
K = { (x, y) P R2 | x2 + (y − 1)2 = 1 }
mit Radius 1 und Mittelpunkt (0, 1) beschreibt, wenn K auf der
x-Achse im vollen Umfang abrollt ohne zu rutschen. Erstellen Sie
eine Skizze, die Ihre Argumentation erläutert.
(b) Skizzieren Sie die Spur von f und markieren Sie einige Werte f(t).
(c) Berechnen Sie L(f ) mit Hilfe der Integrationsregeln. (Dabei kann
die Halbwinkelformel 2 sin2 (x/2) = 1 − cos x nützlich sein.)
Übung 3
Seien a ≥ b > 0, und sei
Ea, b = { (x, y) P R2 | (x/a)2 + (y/b)2 = 1 }
die achsenparallele Ellipse mit den Halbachsen a und b. Wir definieren
f : [ 0, 2π ] → R2 durch
f(t) = (a cos t, b sin t) für alle t P [ 0, 2π ].
Zeigen Sie, dass Ea, b = spur(f ).
Übung 4
Seien a ≥ b > 0, und sei
Ea, b = { (x, y) P R2 | (x/a)2 + (y/b)2 = 1 }.
Wir setzen
p = £a2 − b2 , F1 = (p, 0), F2 = (−p, 0),
E = { (x, y) P R2 | i (x, y) − F1 i + i (x, y) − F2 i = 2a }.
Zeigen Sie, dass Ea, b = E.
Übung 5
Sei a > 0. Wir definieren die Lemniskate von Bernoulli (zum Parameter a)
f : [ 0, 2π ] → R2 durch
a cos t
f(t) = (1, sin t) für alle t P [ 0, 2π ].
1 + sin2 t
π/2 1
L(f ) = c * dt.
0 £1 + ε2 sin2 t
(Der Integrand besitzt keine elementare Stammfunktion.)
Mehrdimensionale Definitionsbereiche
Eine Alternative, die sich zumindest für einfache Funktion auch zur Visuali-
sierung per Hand eignet, besteht darin, einen sog. Kontur-Plot der Funktion
zu erstellen. Hierzu definieren wir allgemein für jede Dimension n:
Für viele Funktionen sind die Niveaumengen in der Tat Linien, sodass sich ein
Bild ergibt, das an klassische Landkarten mit Höhenlinien und eingetragenen
Höhen erinnert.
Beispiele
(1) Sei f : R2 → R definiert durch
f(x, y) = x2 + y2 für alle (x, y) P R2 .
Visualisiert als 3-D-Plot ist f ein Paraboloid. Für alle c P R gilt
nivf (c) = { (x, y) P R2 | x2 + y2 = c } = { (x, y) P R2 | i(x, y) i 2 = c }.
Im Fall c < 0 ist nivf (c) die leere Menge. Für c = 0 ist nivf (c) die
einpunktige Menge { 0 }. Ist c > 0, so ist nivf (c) ein Kreis mit Mittel-
punkt 0 und Radius £c.
Sei w P Rn ein normierter Vektor. Wir fassen w als Richtungsvektor auf und
fragen, für einen gegebenen Punkt p P P, nach der Steigung von f : P → R an der
Stelle p in Richtung w. Ist n = 2 und f visualisiert als 3-D-Plot, so ist dies die Stei-
gung der durch f erzeugten Höhenlandschaft, die wir sehen, wenn wir von f(p)
aus in Richtung w blicken. Allgemein definieren wir:
Definition (Richtungsableitung)
Sei f : P → R. Weiter sei w P Rn mit i w i = 1. Für jedes p P P heißt, im Fall
der Existenz, die reelle Zahl
f(p + hw) − f(p)
∂w f (p) = limh →0
h
die Ableitung von f an der Stelle p in Richtung w. Existiert ∂w f (p), so heißt f an
der Stelle p in Richtung w differenzierbar.
Oft ist es nützlich, eine partielle Ableitung nicht durch eine Koordinate, son-
dern durch eine Variable anzugeben:
Notation
Ist f(x) = f(x1 , …, xn ) so schreiben wir auch
∂f(x) ∂
∂xj f(x), oder f (x) anstelle von ∂j f (x).
∂xj ∂xj
Ist f(x) = f(x1 , …, xn ) durch einen Term definiert, so können wir f partiell nach
einer Variable xj ableiten, indem wir alle anderen Variablen wie Konstanten be-
handeln und die üblichen eindimensionalen Ableitungsregeln auf die betrachtete
Variable anwenden.
Beispiele
(1) Sei f : R2 → R mit
f(x, y) = y e2x für alle (x, y) P R2 .
Dann gilt für alle (x, y) P R2 :
∂
∂1 f (x, y) = ∂x f (x, y) = ( y e2x ) = 2 y e2x ,
∂x
∂
∂2 f (x, y) = ∂y f (x, y) = ( y e2x ) = e2x .
∂y
1 x
∂x f (x, y, z) = 1 + 2y + , ∂y f (x, y, z) = 2x, ∂z f (x, y, z) = − 2 .
z z
Der Leser überzeuge sich anhand der obigen Beispiele, dass die zweifachen
partiellen Ableitungen nach x,y bzw. z immer die gleiche Funktion ergeben, egal,
in welcher Reihenfolge sie durchgeführt werden. Für Beispiel 1 ist etwa
∂x ∂y f (x, y) = 2e2x = ∂y ∂x f (x, y) für alle (x, y) P R2 .
Gradienten
Definition (Gradient)
Seien n ≥ 1, P ⊆ Rn und f : P → R partiell differenzierbar an der Stelle
p P P. Dann heißt der Vektor
grad f (p) = (∂1 f (p), …, ∂n f (p)) P Rn
der Gradient von f an der Stelle p.
Beispiel
Sei f : R2 → R definiert durch f(x, y) = x2 + y2 für alle (x, y) P R2 . Dann gilt
grad f (x, y) = (2x, 2y) = 2(x, y) für alle (x, y) P R2 .
Definition (Tangentialebene)
Seien P ⊆ R2 und f : P → R partiell differenzierbar an der Stelle
p = (x0 , y0 ) P P. Dann heißt die Funktion g : R2 → R mit
g(x, y) = f(p) + ∂1 f (p) (x − x0 ) + ∂2 f (p) (y − y0 ) für alle (x, y) P R2
die Tangentialebene von f an der Stelle p.
Beispiel
Sei f : R2 → R mit f(x, y) = −3(x2 + y2 ). Weiter sei p = (0, 1). Dann berechnet
sich die Tangentialebene g von f an der Stelle p zu
g(x, y) = −3 − 0(x − 0) − 6(y − 1) = −6y + 3 für alle (x, y) P R2 .
Die Tangentialebene können wir mit Hilfe des Skalarprodukts in der Form
g(x, y) = f(p) + ∂1 f(p) (x − x0 ) + ∂2 f(p) (y − y0 )
= f(p) + 〈grad f (p), (x, y) − (x0 , y0 )〉 = f(p) + 〈grad f (p), (x, y) − p〉
schreiben. Aus den geometrischen Eigenschaften des Euklidischen Skalarpro-
dukts ergibt sich:
Wir können uns den Gradienten als „Steigungskompass“ vorstellen. Dabei ist
der Gradient im Fall n = 2 ein Vektor der Ebene, nicht des dreidimensionalen
Raumes. Er zeigt in der Ebene (im Definitionsbereich von f ) in Richtung des
stärksten Anstiegs (des Graphen) von f. Analoge Überlegungen gelten für andere
Dimensionen, sodass die geometrische Bedeutung für alle n ≥ 1 gültig bleibt.
Mit Hilfe des Gradienten können wir die Richtungsableitung einer Funktion
in einfacher Weise berechnen. Es gilt der folgende Satz:
Das Ergebnis erweitert die klassische notwendige Bedingung f ′(p) = 0 für lo-
kale Extrema einer reellen Funktion. Das Verschwinden des Gradienten ist
keine hinreichende Bedingung: Das eindimensionale Beispiel f : R → R mit
f(x) = x3 und f ′(0) = 0 wird im Mehrdimensionalen ergänzt durch die Sattelflä-
che f : R2 → R mit f(x, y) = x2 − y2 . Hier gilt gradf (0) = 0, aber die Funktion besitzt
im Nullpunkt weder ein lokales Maximum noch ein lokales Minimum.
Ein hinreichendes Kriterium für ein striktes lokales Minimum einer reellen
Funktion an einer kritischen Stelle p (d. h. f ′(p) = 0) ist, dass f ″(p) > 0. Um ein
mehrdimensionales Analogon dieses Kriteriums formulieren zu können, brau-
chen wir eine mehrdimensionale Version einer „zweiten Ableitung“:
Definition (Hesse-Matrix)
Sei f : P → R zweimal partiell differenzierbar, und sei p P P. Dann ist die
Hesse-Matrix H f (p) von f an der Stelle p definiert durch
H f (p) = ( ∂i ∂j f (p) )1 ≤ i, j ≤ n.
Die Hesse-Matrix Hf (p) ist eine reelle (n × n)-Matrix, deren Einträge aus allen
zweiten partiellen Ableitungen von f an der Stelle p bestehen. Ist f zweimal stetig
differenzierbar, so ist die Hesse-Matrix symmetrisch nach dem Satz von
Schwarz. In der Analysis zeigt man den folgenden Satz:
An die Stelle von f ″(p) > 0 tritt also positive Definitheit der Hesse-Matrix
H = Hf (p). Um letztere festzustellen, stehen verschiedene Möglichkeiten zur
Verfügung. Für den Fall n = 2 sind zum Beispiel äquivalent:
(a) H ist positiv definit, d. h. 〈(x, y), H(x, y)〉 > 0 für alle (x, y) ≠ 0.
(b) H(1, 1) = ∂11 f (p) > 0 und det(H) = ∂11 f(p) ∂22 f(p) − (∂12 f(p))2 > 0.
(c) Alle Eigenwerte von H sind positiv.
Beispiel
Sei f : R2 → R mit f(x, y) = x2 + y2 − 2x + 2y + 2. Dann gilt
grad f (x, y) = (2x − 2, 2y + 2).
Damit hat f höchstens im Punkt p = (1, −1) ein lokales Extremum. Die
Hesse-Matrix Hf (p) = ((2, 0); (0, 2)) ist positiv definit, sodass p eine strikte
lokale Minimalstelle von f ist. Dies lässt sich auch geometrisch einsehen, da
f(x, y) = (x − 1)2 + (y + 1)2 ein nach oben geöffnetes Paraboloid ist.
In der ε-δ-Stetigkeit wird auf der linken Seite der Implikation die Euklidische
Norm im Rn verwendet, auf der rechten Seite die Euklidische Norm im Rm . Im
Fall n = m = 2 stimmt die Definition mit der Stetigkeit einer komplexen Funktion
überein, da der komplexe Betrag über die Euklidische Norm erklärt ist. Wir
sprechen wieder kurz von Stetigkeit, da beide Definitionen äquivalent sind.
Wie bei einer Kurve können wir eine Funktion f : P → Rm , P ⊆ Rn , in die reell-
wertigen Komponenten f1 , …, fm : P → R zerlegen, sodass
f(x) = f(x1 , …, xn ) = (f1 (x1 , …, xn ), …, fm (x1 , …, xn )) P Rm für alle x P P.
Die Funktion f ist genau dann stetig in p, wenn alle Komponentenfunktionen
f1 , …, fm stetig in p sind. Im Fall der Existenz können wir für alle Komponenten-
funktionen die n-dimensionalen Gradienten bilden:
grad f1 (p) = (∂1 f1 (p), …, ∂n f1 (p))
grad f2 (p) = (∂1 f2 (p), …, ∂n f2 (p))
…
grad fm (p) = (∂1 fm (p), …, ∂n fm (p))
Alle Gradienten sind Vektoren des Rn . Schreiben wir die Gradienten als Zeilen in
eine Matrix mit m Zeilen und n Spalten, so erhalten wir die sog. Jacobi-Matrix
Statt „stetig partiell differenzierbar“ sagen wir auch kurz „stetig differenzier-
bar“. Für eine stetig differenzierbare Funktion lässt sich das folgende Analogon
zum Linearen Approximationssatz der eindimensionalen Differentialrechnung
beweisen:
(+) f(x) = f(p) + Jf (p) (x − p) + o(i x − p i) für x → p,
wobei o(i x − p i) für eine Funktion r : P → Rm steht mit
i r(x) i
limx →p = 0.
ix − pi
Das Ergebnis unterstützt noch einmal die Stellung der Jacobi-Matrix als Verall-
gemeinerung des eindimensionalen Ableitungsbegriffs.
Bemerkung
Es stellt sich heraus, dass die Gültigkeit von (+) etwas stärker als die
partielle Differenzierbarkeit, aber auch etwas schwächer als die stetige
partielle Differenzierbarkeit von f an der Stelle p ist. In der Analysis wird
deswegen ein weiterer Differenzierbarkeitsbegriff eingeführt, die sog. totale
Differenzierbarkeit einer Funktion f : P → Rm an einer Stelle p. Sie bedeutet
genau, dass sich f in der Form (+) schreiben lässt.
Definition (Vektorfeld)
Seien n ≥ 1 und P ⊆ Rn . Dann heißt eine Funktion f : P → Rn ein
n-dimensionales (reelles) Vektorfeld.
-1
-2
-2 -1 0 1 2
Definition (Gradientenfeld)
Seien n ≥ 1, P ⊆ Rn und f : P → R differenzierbar. Dann heißt das
n-dimensionale Vektorfeld grad f : P → Rn mit
grad f (x) = ( ∂1 f (x), … , ∂n f (x) ) für alle x = (x1 , …, xn ) P P
das Gradientenfeld von f.
Wir stellen nun noch einige wichtige Operatoren für skalar- und vektorwer-
tige Funktionen im Überblick vor. Diese Operatoren sind vor allem in der Physik
von Bedeutung und werden dort genauer diskutiert.
Die Gradientenbildung erzeugt ein Vektorfeld aus einer skalarwertigen Funk-
tion. Die folgende Operation liefert umgekehrt eine skalarwertige Funktion aus
einem Vektorfeld:
Definition (Divergenz)
Sei g : P → Rn ein differenzierbares Vektorfeld. Dann definieren wir die
Divergenz div g : P → R des Vektorfeldes g durch
div g (x) = ∑ 1 ≤ j ≤ n ∂j gj (x) = ∂1 g1 (x) + … + ∂n gn (x) für alle x P P.
Ist p P P und gilt div g (p) > 0 bzw. div g (p) < 0, so heißt p eine Quelle bzw.
Senke von g. Gilt div(g)(p) = 0, so heißt g quellfrei an der Stelle p.
Ein Beispiel für eine Operation, die ein Vektorfeld in ein Vektorfeld über-
führt, ist:
Definition (Rotation)
Sei P ⊆ R3 und g : P → R3 ein dreidimensionales differenzierbares
Vektorfeld. Dann definieren wir die Rotation oder das Wirbelfeld
rot g : P → R3 von g durch
für alle x P P. Ist p P P mit rot g (p) = 0, so heißt g wirbelfrei an der Stelle p.
Der Nabla-Operator
Das Rechnen mit Gradient, Divergenz und Rotation wird oft übersichtlicher,
wenn wir, für eine gegebene Dimension n ≥ 1, den sog. n-dimensionalen Nabla-
Operator
= = ( ∂1, …, ∂n ) = ( ∂x∂ 1
, …,
∂
∂xn )
verwenden. Wir setzen
= f = (∂1 f, …, ∂n f ) = grad f,
Definition (Laplace-Operator)
Seien n ≥ 1, P ⊆ Rn und f : P → R zweimal differenzierbar. Dann ist der
Laplace-Operator (angewendet auf f ) definiert durch
D f = =2 f = div grad f = 〈=, = f 〉.
Übungen
Übung 1
Visualisieren Sie die folgenden Funktionen f : R2 → R durch Höhenlinien-
diagramme (Kontur-Plots):
(a) f(x, y) = x + y,
(b) f(x, y) = i (x, y) i,
(c) f(x, y) = max(x, y),
(d) f(x, y) = x y.
Übung 2
Sei f : R2 → R mit
f(x, y) = x2 + y2 für alle (x, y) P R2 .
Weiter seien w P R2 normiert und p P R2 . Berechnen Sie die Richtungsab-
leitung ∂w f (p)
(a) durch Berechnung des Differentialquotienten wie in der Definition
der Richtungsableitung,
(b) durch Anwendung der Formel ∂w f (p) = 〈grad f (p), w〉.
Übung 3
Zeigen Sie unter der Voraussetzung der Definiertheit:
(a) grad(f g) = f grad g + g grad f für f, g : Rn → R,
(b) div(f g) = 〈grad f, g〉 + f div g für f : Rn → R, g : Rn → Rn .
Übung 4
Skizzieren Sie das Gradientenfeld der Funktion f : R2 − { 0 } → R2 mit
f(x, y) = i (x, y) i für alle (x, y) P R2 − { 0 }.
Übung 5
Sei f : R2 → R mit
f(x, y) = x2 − y2 für alle (x, y) P R2 .
Skizzieren Sie das Gradientenfeld von f und berechnen Sie
D f = div grad f.
Übung 6
Sei f : R2 → R definiert durch
2xy/(x2 + y2 ) (x, y) ≠ 0
f(x, y) =
{ 0
falls
sonst.
Übung 7
Sei f : R3 → R3 zweimal stetig differenzierbar. Zeigen Sie:
div rot f = 0.
Mehrdimensionale Integrale
Ist y P [c, d], so erhalten wir die reelle Funktion fy : [a, b] → R, indem wir den
dreidimensionalen Graphen von f mit der Ebene Ey = R × { y } × R schneiden und
diesen Schnitt als Funktion auf [ a, b ] lesen. Analoges gilt für die Schnitte fx .
Man kann zeigen, dass jede stetige Funktion schnittweise integrierbar ist.
Weiter gilt:
Für den Fall n = 2 erlaubt der Satz die Berechnung von I(f ) durch die Berech-
nung zweier eindimensionaler Integrale. Dabei können wir frei wählen, ob wir
zuerst nach der ersten oder zweiten Variablen integrieren. Abhängig vom Inte-
granden kann die eine Variante einfacher sein als die andere.
0.8
0.6
g
0.4
0.2
-0.2
Dann gilt
2 1 2 x=1 2
I(f) = ** 3x2 y dx dy = * x3 y
x=0
dy = * y dy = 2.
0 0 0 0
1 2 1 y=2 1
I(f) = ** 3x2 y dy dx = * 3x2 y2 /2
y=0
dx = * 6x2 dx = 2.
0 0 0 0
Interessanter ist:
Beispiel 2: Kugelvolumen
Sei r ≥ 0, und sei
K = { (x, y, z) P R3 | x2 + y2 + z2 ≤ r2 } ⊆ R3
die Vollkugel im R3 mit Radius r und Mittelpunkt 0. Zur Berechnung des
Volumens V(K) von K betrachten wir die Funktion f : [ −r, r ]2 → R mit
Der Graph der Funktion f besteht aus der Nullfortsetzung der oberen
Hälfte der Kugeloberfläche auf das Quadrat [ −r, r ]2 . Es gilt V(K) = 2I(f).
Für jedes y P [ −r, r ] ist das Integral über den Schnitt f y : [ −r, r ] → R der
Flächeninhalt eines Halbkreises mit dem von y abhängigen Radius
ry = £r2 − y2 .
Damit gilt
r r 1 2
* fy (x) dx = * f(x, y) dx =
2
(r − y2 ) π für alle y P [ −r, r ].
−r −r
Die obere Hälfte der Oberfläche der Kugel mit dem Radius r = 1 wird dargestellt durch
rx = £r2 − x2
und Flächeninhalt (r2 − x2 ) π . Integrieren wir diese Flächeninhalte von −r bis r,
so erhalten wir
r 2 r3 4 3
*
−r
(r2 − x2 ) π dx = ( 2 r3 −
3
)π =
3
r π,
also das Volumen V(K) der Kugel K. Der Leser vergleiche die Methode mit obi-
gem Beispiel. Eine funktionale Darstellung der Kugeloberfläche entfällt.
Man kann zeigen, dass dieses „Aufintegrieren von Flächeninhalten“ ein kor-
rektes Verfahren zur Berechnung von Volumina darstellt. Eine wichtige Folge-
rung ist:
Cavalierisches Prinzip
Seien A, B Teilmengen des R3 mit den Volumina V(A) bzw. V(B). Für alle
x P R gelte, dass die x-Schnitte von A und B denselben Flächeninhalt
besitzen. Dann gilt V(A) = V(B). Eine analoge Aussage gilt, wenn die
Flächeninhalte aller y- bzw. z-Schnitte übereinstimmen.
in Übereinstimmung mit der Formel „1/3 mal Grundfläche mal Höhe“ der
Elementargeometrie.
Der Rotationskörper A für f : [ −3, 3 ] → R mit f(x) = arctan(x) für alle x P [ −3, 3 ].
Eine numerische Berechnung des nichtelementaren Integrals ergibt das Volumen
V(A) = 16,36…
der Torus mit den Radien R ≥ r > 0. Der Torus T entsteht, wenn wir den
in der x-z-Ebene liegenden Kreis mit Mittelpunkt (R, 0, 0) und Radius r um
die z-Achse rotieren. Zur Berechnung des Volumens verwenden wir die
z-Schnitte S3 (T, z) von T. Für alle z P [ −r, r ] ist S3 (T, z) ein Kreisring mit
dem Flächeninhalt
wobei wir verwenden, dass das Integral von −r bis r über £r2 − z2 in der
Variablen z den halben Flächeninhalt eines Kreises mit Radius r ergibt.
Der Torus T für R = 2 und r = 1. Der Schnitt mit der x-y-Ebene ergibt einen
Kreisring mit innerem Radius R − r = 1 und äußerem Radius R + r = 3. Verschieben
wir die Schnittebene entlang der z-Achse, erhalten wir einen Kreisring mit den in
der Formel (+) verwendeten Radien (vgl. die folgende Abbildung).
Zur Formel (+): Der innere Radius des Schnitts ist R − rz , der äußere R + rz , wobei
rz = £r2 − z2 .
Integration in Polarkoordinaten
Beispiel 1: Kreisfläche
Sei R > 0, und sei f : KR → R konstant gleich 1 auf KR . Dann ist das
Integral I(f) die Fläche eines Kreises mit Radius R. Eine polare Berechnung
des Integrals ergibt
R 2π R r=R
I(f) = * * 1 r dϕ dr = * 2π r dr = π r2
r=0
= R2 π.
0 0 0
1.0 g
0.8
0.6
0.4
0.2
-4 -2 2 4
)( * −∞
2
e− y /2 dy ) = * (*
−∞ −∞
2
) 2
e− x /2 dx e−y /2 dy
∞ ∞ 2 2 ∞ ∞ 2
+ y2 )/2
= * * e− x /2 e−y /2 dx dy = * * e− (x dx dy
−∞ −∞ −∞ −∞
∞ 2π 2 R 2
= * * e−r /2 r dϕ dr = 2π limR →∞ * e−r /2 r dr
0 0 0
2 r=R
= 2π limR → ∞ −e−r /2 = 2π ⋅ 1 = 2π.
r=0
Räumliche Polarkoordinaten
Das Integral einer auf einer Kugel KR ⊆ R3 mit Radius R und Mittelpunkt 0
definierten Funktion lässt sich mit räumlichen Polarkoordinaten wie folgt be-
rechnen:
Bei festem Radius r und festem Winkel θ durchläuft der durch die räumli-
chen Polarkoordinaten (r, θ, ϕ) spezifizierte Punkt des Raumes im Winkel ϕ
den durch θ definierten Breitenkreis der Kugel Kr . Variiert nun θ von 0 bis π,
so überstreichen diese Breitenkreise die gesamte Oberfläche von Kr . Variieren
wir nun den Radius r von 0 bis R, so schöpfen wir die Vollkugel mit Radius R
vollständig durch Kugeloberflächen aus. Der erste Korrekturfaktor r2 ent-
spricht der Tatsache, dass die Oberfläche einer Kugel quadratisch in ihrem Ra-
dius wächst. Analog ist der zweite Korrekturfaktor sin(θ) darauf zurückzufüh-
ren, dass in die Umfänge der durch θ definierten Breitenkreise der Sinus des
Winkels θ einfließt.
Die Berechnung des Kugelvolumens ist nun besonders einfach:
R π 2π
V(K) = * * * 1 ⋅ r2 sin θ dϕ dθ dr
0 0 0
R π
= * * 2π r2 sin θ dθ dr
0 0
R π R 4 3
= 2π * r2 − cos θ dr = * 4 π r2 dr = R π.
0 3
0 0
Zum Abschluss diskutieren wir noch eine Formel für den Flächeninhalt einer
dreidimensionalen Rotationsfläche. Eine solche Fläche erhalten wir, indem wir
die Spur einer in einer Ebene verlaufenden Kurve um eine Achse rotieren. Wir
beschränken uns im Folgenden auf Kurven, die in der rechten Hälfte der x-z-
Ebene verlaufen und um die z-Achse rotiert werden. Der Leser denke an das
Töpfern zur Visualisierung der entstehenden Rotationsflächen.
Rotationsfläche der Kurve f : [ 0, 2π] → R3 mit f(t) = (t, 0, cos t + 1/4 cos(4t) + 5/4)
Unser Ziel ist die Berechnung der Oberfläche (genauer: des Oberflächenin-
halts) Ar(ρ(f )) der Fläche ρ(f ).
Warnung
Ein naives Aufintegrieren von Kreisumfängen führt in der Regel zu falschen
Ergebnissen. Integrieren wir zum Beispiel die Umfänge der Breitenkreise
einer Kugel K mit Radius r und Mittelpunkt 0, so erhalten wir
r
* 2π £r2 − z2 dz = 2π r2 π/2 = π2 r2 ,
−r
also nicht den korrekten Wert 4r2 π.
Die Größe s ist dabei die Länge einer Mantellinie des Kegelstumpfes.
Bemerkung
Die Formel (+) liefert im degenerierten Fall h = 0 die Fläche
π (r1 + r2 ) s = π (r1 + r2 )|r1 − r2 | = π max(r1 , r2 )2 − π min(r1 , r2 )2
eines Kreisrings mit den Radien r1 und r2 .
Ist nun p = (tk )k ≤ n eine stützstellenfreie Partition von [ a, b ], so ist nach (+)
eine Approximation an Ar(ρ(f )). Ist p sehr fein, so ist π (f1 (tk + 1 ) + f1 (tk )) für alle
t P [ tk , k + 1 ] ungefähr gleich 2π f1 (t). Fügen wir 1/∆k ⋅ ∆k mit ∆k = tk + 1 − tk an
die Norm an, so wird folgendes Ergebnis plausibel:
Ist die Kurve f durch einen Graphen auf der z-Achse definiert, d.h. gibt es eine
Funktion g : [ a, b ] → [ 0, ∞ [ mit
f(t) = (g(t), 0, t) für alle t P [ a, b ],
so erhalten wir die speziellere Formel
b
Ar(ρ(f )) = * 2 π g(t) £1 + g′(t)2 dt.
a
Der Leser vergleiche die Formeln mit den entsprechenden Ergebnissen für die
Längen von Kurven.
Beispiel 1: Kugeloberfläche
Sei r > 0 und f : [ 0, π ] → R3 definiert durch
f(t) = r (sin t, 0, cos t) für alle t P [ 0, π ].
Dann ist ρ(f) die Oberfläche einer Kugel K mit Radius r. Die Norm der
Ableitung der Kurve f ist konstant gleich r, sodass
π t=π
Ar(ρ(f )) = * 2 π r sin(t) r dt = − 2 r2 π cos t
t=0
= 4 r2 π.
0
Die Spur von f ist ein Kreis in der rechten Hälfte der x-z-Ebene mit Radius
r und Mittelpunkt (R, 0, 0). Die Norm der Ableitung von f ist erneut
konstant gleich r. Der durch Rotation der Kurve um die z-Achse entste-
hende Torus T = ρ(f ) hat damit die Oberfläche
2π
Ar(ρ(f )) = * 2 π (r cos(t) + R) r dt
0
t=2π
= 2 π r r sin(t) + Rt = 2π r 2 π R = 4 π2 r R.
t=0
in n gleichlange Intervalle der Länge δ auf. Nun betrachten wir die n Kegel-
stümpfe der Höhe δ, deren Radien durch die Funktion g : [ −1, 1 ] → R mit
g(z) = £1 − z2 für alle z P [ −1, 1 ]
definiert sind. Sei also rk = g(tk ) für alle k ≤ n. Dann ist
n An 4π − An
4 11,51049 1,0559
6 12,06174 0,50463
8 12,26840 0,29797
10 12,36866 0,19771
20 12,51150 0,054871
50 12,55644 0,0099308
100 12,56367 0,0027004
Übungen
Übung 1
Berechnen Sie das Volumen eines Kegels der Höhe h und Grundfläche
F = r2 π mit Hilfe des Cavalierischen Prinzips.
Übung 2
Begründen Sie die Additivität I(f + g) = I(f) + I(g) des Riemann-Integrals mit
Hilfe des Cavalierischen Prinzips.
Übung 3
Seien a, b, c > 0, und sei
E = { (x, y, z) P R | ( xa ) + ( by ) + ( zc )
3
2 2 2
≤ 1 }
das achsenparallele Ellipsoid mit den Halbachsen a, b, c. Berechnen Sie das
Volumen von E mit Hilfe des Cavalierischen Prinzips.
Übung 4
Einen Torus T mit Radien R ≥ r ≥ 0 erhalten wir, indem wir einen Kreis der
x-z-Ebene mit Radius r und Mittelpunkt (R, 0, 0) um die z-Achse rotieren.
Jeder Drehwinkel ϕ P [ 0, 2π ] erzeugt dabei einen Kreis mit der Fläche r2 π.
Integrieren wir alle diese Flächen auf, so erhalten wir 2πr2 π = 4π2 r2 .
Begründen Sie, warum diese Argumentation nicht das Torusvolumen
liefert.
Übung 5
Sei f : [ a, b ] → R3 eine Rotationskurve. Erklären Sie die Definition
ρ(f ) = { (x, y, f3(t)) P R3 | t P [ a, b ], x2 + y2 = f1 (t) 2 } .
der durch f erzeugten Rotationsfläche mit Hilfe einer Skizze.
Übung 6
Begründen Sie die Formel für die Mantelfläche eines Kegelstumpfes
elementargeometrisch.
Übung 7
Berechnen Sie die Oberfläche eines Kegels der Höhe h und Grundfläche
F = r2 π mit Hilfe der Oberflächenformel für Rotationsflächen.
Die folgenden Aufgaben können nach der Lektüre des Buches als zusätzliche
Übungen bearbeitet werden. Darüber hinaus eignen sie sich als Muster bzw.
Grundlage für eine schriftliche kompetenzorientierte Prüfung. Wir betrachten
hier die folgenden Kompetenzen:
(1) Grundwissen Definitionen und Sätze: Fachsprachlich exakte Definition
von Begriffen, Objekten und Notationen sowie vollständige Formulierung
von Sätzen und Axiomen.
(2) Kalkül: Berechnungen, Umformungen, Durchführung von Algorithmen
zur Ergebnisfindung.
(3) Anschauliche mathematische Sprache: Erstellen von beschrifteten
Diagrammen zur Visualisierung von mathematischen Objekten, Zusam-
menhängen, Argumenten und Ergebnissen.
(4) Formale mathematische Sprache: Elementare Beweisführung mit genauer
Beachtung der Konventionen der Fachkultur.
(5) Schulwissen vom höheren Standpunkt: Anwendung und Diskussion von
im Vergleich zur Schule erweiterten und transformierten Inhalten,
Methoden und Sichtweisen.
Für eine schriftliche Prüfung kann zum Beispiel je eine Aufgabe pro Kompetenz
erstellt werden.
Mathematische Kompetenzen überschneiden sich häufig und es lassen sich
viele weitere Kompetenzen formulieren. Wir können zum Beispiel eine eigene
Kompetenz „Diskussion von Beispielen und Gegenbeispielen“ betrachten oder
die Kompetenz (1) entsprechend erweitern. Wichtige Kompetenzen im zentra-
len Themenfeld „Beweisen“ sind:
(6) Wiedergabe bekannter Beweise: Detaillierte Reproduktion von Argumen-
ten, Zusammenfassen von Beweisen, Formulierung von Beweisideen.
(7) Eigenständiges Beweisen: Übertragung von bekannten Argumentations-
mustern auf neue Fragestellungen, Problemlösen durch Anwendung von
Lösungsstrategien.
Im zweiten Teil des Buches diskutieren wir weitere Aufgaben, die den Kompe-
tenzen (1), (2), (3), (6) und (7) zugeordnet sind. Dadurch ergeben sich Prüfungen
mit anderer Gewichtung.
Aufgabe 1
(1) Definieren Sie:
(a) Taylor-Reihe einer Funktion f : R → R an der Stelle 1
(b) ε-δ-Stetigkeit einer Funktion g : [ 0, ∞ [ → R an der Stelle 0
(c) Matrix-Vektor-Produkt im R2
(d) Ebene im R3
(2) Formulieren Sie die folgenden Sätze:
(a) Polynomdivision mit Rest
(b) Klassifikation der orthogonalen reellen (2 x 2)-Matrizen
Aufgabe 2
(1) Definieren Sie:
(a) Reelle Arkustangens-Funktion
(b) ∑ n ≥ 0 xn = a (für eine Folge (xn )n P N in R und a P R)
(c) Kreis in der Ebene R2 (mit beliebigem Radius und Mittelpunkt)
(d) Affine Gerade im R3
(2) Formulieren Sie die folgenden Sätze:
(a) Quotientenkriterium für Reihen in R
(b) Äquivalenzen zur Invertierbarkeit einer Matrix A P R2 × 2 (vier
Aussagen Ihrer Wahl)
Aufgabe 3
(1) Definieren Sie:
(a) Limesstetigkeit einer Funktion g : [ 0, 1 ] → R an der Stelle 1
(b) limn →∞ xn = ∞ für eine Folge (xn )n P N reeller Zahlen
(c) Komplexe Exponentialreihe
(d) Grad eines reellen Polynoms
(2) Formulieren Sie den Hauptsatz der Integral- und Differentialrech-
nung in beiden Versionen.
Aufgabe 4
(1) Definieren Sie:
(a) Differenzierbarkeit einer reellen Funktion g : [ a, b ] → R
(b) Reelle geometrische Reihe
(c) s = sup(X) (für s P R und X ⊆ R)
(d) Taylor-Polynom der Ordnung 3 einer dreimal differenzierbaren
Funktion f : R → R an der Stelle 1
(2) Formulieren Sie die folgenden Sätze:
(a) Ungleichung von Cauchy-Schwarz
(b) Äquivalenzen zur Orthogonalität einer reellen (2 × 2)-Matrix A
(vier Aussagen Ihrer Wahl)
Aufgabe 5
(1) Definieren Sie:
(a) Parabel in R (als Funktion)
(b) Unendliche Reihe in R
(c) 0,999…
(d) reelle Exponentialfunktion (mit Hilfe der Ableitung)
(2) Formulieren Sie die folgenden Sätze:
(a) Konvergenz der geometrischen Reihe in C
(b) Approximationssatz der Differentialrechnung
Aufgabe 6
(1) Definieren Sie:
(a) allgemeine Exponentialfunktionen expa : R → R
(b) Schmiegeparabel von f : R → R im Punkt p P R
(c) Projektion des Vektors w P R2 auf den Vektor v P R2
(d) Von v, w P R2 aufgespanntes Parallelogramm
(2) Formulieren Sie die folgenden Sätze:
(a) Vollständigkeit von R
(b) Hauptsatz der Differential- und Integralrechnung (eine Version
Ihrer Wahl)
Kalkül
Aufgabe 1
Bestimmen Sie mit Hilfe der Integrationsregeln:
Aufgabe 2
Bestimmen Sie mit Hilfe der Integrationsregeln:
(1) * cot x dx.
(2) * £1 + £x dx.
Aufgabe 3
Bestimmen Sie mit Hilfe der Integrationsregeln:
2x − 1
(1) * x2 − 1
dx.
Aufgabe 4
(1) Bestimmen Sie mit Hilfe der Integrationsregeln:
* x2 arcsin x dx.
Dabei dürfen Sie arcsin′(x) = 1/£1 − x2 verwenden.
(2) Bestimmen Sie die Eigenwerte und zugehörige Eigenvektoren der
reellen Matrix
4 2
A = .
2 1
Aufgabe 5
(1) Zeigen Sie, dass d/dx arccos x = − 1/£1 − x2 .
π
(2) Zeigen Sie, dass * £1 − cos(x) dx = 2 £2.
0
Aufgabe 6
(1) Berechnen Sie die Ableitung von arcsin : [ −1, 1 ] → R mit Hilfe der
Ableitungsregeln. Illustrieren Sie die verwendete trigonometrische
Identität durch eine Skizze.
(2) Skizzieren Sie die Kurve f : [ 0, 2π ] → R2 mit
f(t) = (cos3 (t), sin3 (t)) für alle t P [ 0, 2π ]
und berechnen Sie die Länge L(f ).
(3) Seien u1 , u2 , u3 P R. Lösen Sie das Gleichungssystem
x + y + z = u1
x − 2y = u2
x + y − z = u3
in den Unbestimmten x, y, z durch Invertierung seiner Koeffizienten-
matrix.
Aufgabe 1
Geben Sie den maximalen Definitionsbereich der durch den Term
1/(1 − log(x2 )) definierten reellen Funktion an. Skizzieren Sie den Graphen
der Funktion qualitativ möglichst genau.
Aufgabe 2
Veranschaulichen Sie die Abbildungseigenschaften der reellen (2 × 2)-
Matrizen A und B mit
1 1 −1 1 2
A = , B =
£2 1 1 3 −1
Aufgabe 3
Sei f : R → R definiert durch
x≥0
f(x) =
{ x+1
x
falls
falls x<0
Aufgabe 4
Für alle c P R sei Lc die Lösungsmenge der Gleichung
−x + 2y = £5 c
in den reellen Unbestimmten x, y.
Visualisieren Sie L0 und allgemein Lc in Abhängigkeit von c P R durch ein
beschriftetes Diagramm. Achten Sie darauf, dass die geometrische
Bedeutung der Koeffizienten der Gleichung, des Parameters c und der
Konstanten £5 deutlich wird. Ergänzen Sie Ihr Diagramm durch kurze
Erklärungen, die die mathematischen Zusammenhänge aufzeigen.
Aufgabe 5
Illustrieren Sie mit Hilfe von beschrifteten Diagrammen:
(a) die Ableitungsregel für die Umkehrfunktion
(b) die Aussage: „Ein Vorzeichenwechsel der Ableitung ist keine
notwendige Bedingung für ein lokales Extremum.“
(c) den Zusammenhang zwischen den Funktionen log 2 : ] 0, ∞ [ → R
und log 8 : ] 0, ∞ [ → R
Aufgabe 6
Die Fibonacci-Zahlen F0 , F1 , F2 , … sind rekursiv definiert durch:
F0 = F1 = 1, Fn + 2 = Fn + Fn + 1 für alle n ≥ 0.
Es gilt:
Visualisieren Sie die Aussage (#), indem Sie ein Quadrat mit der Seiten-
länge Fn + 1 geeignet zerlegen.
Aufgabe 1
Sei x ≥ − 1. Zeigen Sie mit Hilfe vollständiger Induktion:
(1 + x)n ≥ 1 + nx für alle n P N.
Achten Sie dabei auf Genauigkeit, Lesbarkeit und Struktur der Argumenta-
tion.
Aufgabe 2
Wir betrachten eine beliebige Menge A, eine Funktion f : A → A und die
Verknüpfung g : A → A von f mit sich selbst, d. h. g = f + f . Zeigen oder
widerlegen Sie:
(a) Ist f injektiv, so ist g injektiv.
(b) Ist g injektiv, so ist f injektiv.
(c) Ist g die Identität auf A, so ist f die Identität auf A.
Aufgabe 3
(1) Zeigen Sie durch vollständige Induktion:
∑ 1 ≤ k ≤ n k (3k + 1) = n (n + 1)2.
(2) Beweisen Sie die Formel in (1) alternativ unter Verwendung der
Summenformeln
n(n + 1) n(n + 1)(2n + 1)
∑1 ≤ k ≤ n k = , ∑ 1 ≤ k ≤ n k2 = .
2 6
Aufgabe 4
Seien f, g : R → R differenzierbar an der Stelle p P R. Weiter sei h = f g.
Zeigen Sie mit Hilfe des linearen Approximationssatzes und der Landau-
Notation, dass die Funktion h an der Stelle p differenzierbar ist mit
h′(p) = f ′(p) g(p) + f(p) g′(p).
Aufgabe 5
(1) Zeigen Sie unter Verwendung von exp′ = exp mit Hilfe der Ableitungs-
regel für die Umkehrfunktion, dass d/dx log(x) = 1/x für alle x > 0.
(2) Für alle n ≥ 1 bezeichne log(n) die n-te Ableitung der Logarithmus-
funktion log. Zeigen Sie durch vollständige Induktion nach n ≥ 1:
1
log(n) (x) = (−1)n − 1 (n − 1)! für alle x > 0.
xn
Aufgabe 6
(1) Zeigen Sie durch vollständige Induktion:
∑ 0 ≤ k ≤ n (6k + 1) = (n + 1) (3n + 1) für alle natürlichen Zahlen n ≥ 0.
(2) Zeigen Sie unter Verwendung der Linearität des Euklidischen
Skalarprodukts:
∀n ≥ 1 ∀v, w P Rn 4 〈v, w〉 = i v + w i 2 − i v − w i 2 .
Aufgabe 1
(1) Beweisen Sie die Additionstheoreme des Kosinus und Sinus mit Hilfe
des Additionstheorems der komplexen Exponentialfunktion und der
Eulerschen Formel.
(2) Leiten Sie Potenzreihendarstellung der reellen Sinusfunktion aus der
komplexen Exponentialreihe und der Eulerschen Formel her.
Aufgabe 2
Sei D das durch die komplexen dritten Einheitswurzeln z0 , z1 , z2 definierte
Dreieck (mit z0 = 1).
(a) Skizzieren Sie D und geben Sie in Ihrer Skizze die Ecken z0 , z1 , z2
von D mit Hilfe der komplexen Exponentialfunktion an.
(b) Zeigen Sie mit Hilfe komplexer Argumentation, dass D gleichseitig
ist.
(c) Bestimmen Sie z1 + z2 .
(d) Zeigen Sie mit Hilfe von (a) − (c), dass cos(2π/3) = − 1/2.
Aufgabe 3
(a) Beweisen Sie die Ableitungsregeln der reellen Kosinus- und
Sinusfunktion mit Hilfe der Eulerschen Formel und der Ableitungs-
regel d/dx exp(ix) = i exp(ix). Begründen Sie die wichtigsten
Argumentationsschritte explizit.
(b) Zeigen Sie mit Hilfe der Reihendarstellung des Sinus:
limx →0 sin(x)/x = 1.
(c) Begründen Sie den Grenzwert in (b) geometrisch mit Hilfe eines
beschrifteten Diagramms (anschaulich, ohne vollständigen Beweis).
(d) Wo spielt der Grenzwert in (b) eine wichtige Rolle?
Aufgabe 4
Betrachten Sie folgende Aussage:
„Eine Parabel lässt sich eindeutig als Produkt zweier Geraden schreiben.“
Diskutieren Sie diese Aussage umfassend und mit Begründungen im
Hinblick auf die Zahlbereiche R und C.
Aufgabe 5
Sei E die achsenparallele Ellipse mit Mittelpunkt 0, großer Halbachse 1
und kleiner Halbachse 1/2.
(1) Definieren Sie E als Teilmenge der Ebene mit Hilfe einer algebrai-
schen Gleichung. Visualisieren Sie die Definition durch eine Skizze.
(2) Definieren Sie E als Teilmenge der Ebene mit Hilfe von Brennpunk-
ten. Visualisieren Sie die Definition durch eine Skizze.
(3) Parametrisieren Sie E in der Zeit t. Erstellen Sie eine weitere Skizze,
die die geometrische Bedeutung des Parameters t veranschaulicht und
fassen Sie diese Bedeutung in einem Satz zusammen.
Aufgabe 6
(1) Geben Sie einen geometrischen Beweis des Thalessatzes, der nur
elementare Eigenschaften von Winkeln in Dreiecken verwendet.
(2) Beweisen Sie den Thalessatz mit Hilfe von Vektoren der reellen Ebene
und einem Orthogonalitätsargument. Erstellen Sie ein Diagramm zur
Illustration Ihrer Argumentation.
B E
bac-cab−Regel 223 Ebene 217
b-adische Darstellung 21 Eigenpaar 198
Bahn 258 Eigenvektor 198 , 249
Basis 21 Eigenwert 198 , 249
Basisvektoren 122 eindeutig lösbar 149 , 231
beschränkt 9 , 31 Einheitshyperbel 153
Betrag 71 Einheitskreis 153
Bild 176 Einheitsmatrix 162 , 239
Bilinearität 130 , 133 , 223 , 233 Einheitsparabel 153
Binet-Cauchy-Identität 223 Einheitssphäre 304
binomische Formeln 130 Einheitsvektoren 122
Einheitswurzel 84
C Einträge 160
Cauchy-Bedingung 34 Einträgen 238
Cauchy-Folge 34 Elementarmatrix 247
Cavalierisches Prinzip 294 Ellipse 153
charakteristische Polynom 199 , 249 elliptische Integral 266
elliptischen Kurve 154
D endlicher Dezimalbruch 19
Darboux-Integral 23 Endpunkt 258
Darboux-Summe 22 Erhalt der Länge 187
G K
Gaußsche Glockenkurve 298 Kegelschnitt 154
Gaußsche Zahlenebene 67 kleinste obere Schranke 10
geometrische Reihe 37 , 103 Koeffizienten 76 , 148 , 231
geometrische Summe 103 Koeffizienten-Matrix 149
Gerade 217 kollinear 141 , 216
geschlossen 258 Kommutativität 123 , 132
Glied 28 Komplementärmatrix 183
Glockenkurve 298 komplexe Exponentialfunktion 102
goldener Schnitt 97 komplexe Exponentialreihe 103
Gradient 276 komplexe Quadratwurzel 81
Gradientenfeld 284 komplexe Zahl 67
Grassmann-Identität 223 , 233 Komponenten 122 , 257 , 281
Grenzwert 30 , 48 , 101 , 256 komponentenweise Addition 66
größte untere Schranke 10 komponentenweise Konvergenz 256
Grundfläche mal Höhe 295 komponentenweise Multiplikation 66
komponentenweise Stetigkeit 257
H Konjugation 71
harmonische Reihe 39 Konjugierte 71
Häufungspunkt 55 konstantes Polynom 76
Hauptlage 273 Kontur-Plot 271
Hesse-Matrix 280 konvergent 31
Höhenlandschaften 270 Konvergenzbedingung 30
Höhenlinie 271 Konvergenzbedingung für Pendelfolgen
Höhenliniendiagramme 271 17
homogen 150 , 232 Konvergenzkriterienf, 41
Hyperbel 153 , 273 Koordinaten 147
Koordinatenfunktionen 257
unendliche Reihe 35
unendlicher Dezimalbruch 19
unlösbar 149 , 231
unstetig 50
untere Schranke 9
Unterintegral 23
V
Vektoraddition 216
Vektorfeld 283
Vektorprodukt 215 , 222
Verlauf in einem Rechteck 48
Verschiebung 217
Vertauschung der Integrationsreihenfolge
292
von links 55
von unten 55
W
Weierstraß-Funktion 52
Wert 35
Winkelformel 138 , 216
winkeltreu 195
Wirbelfeld 284
wirbelfrei 284
Z
Zeile mal Spalte 167
Zeilenextraktion 164
Zeilentausch 168
Zeilenvektoren 160 , 238
zugeordnete Abbildung 170 , 240
Zykloide 267