Beruflich Dokumente
Kultur Dokumente
Michael Dreher
Fachbereich f ur Mathematik und Statistik
Universitat Konstanz
Studienjahr 2008/09
2
Etwas Juristisches:
Dieses Werk ist unter einem Creative Commons AttributionNonCommercialNoDerivs
3.0 Unported Lizenzvertrag lizenziert. Um die Lizenz anzusehen, gehen Sie bitte zu
http://creativecommons.org/licenses/by-nc-nd/3.0/de/ oder schicken Sie einen Brief an Crea-
tive Commons, 171 Second Street, Suite 300, San Francisco, California 94105, USA.
Wer aus den B uchern nicht mehr lernt, als was in den B uchern steht,
der hat die B ucher nicht halb genutzt.
Gotthold Ephraim Lessing, 17291781
4
Inhaltsverzeichnis
1 Grundlagen 11
1.1 Wiederholung aus der Schulanalysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1 Reelle Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2 Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1 Zur Einstimmung: Die Cardanische Formel . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.2 Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.3 Funktionen komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.4 Ausblick: Elektrotechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.5 Ausblick: Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3 Die Ebene und der R
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.1 Allgemeine Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.2 Drehungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 Gruppentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.1 Einf uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.2 Ausblick: Gruppen in der Physik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4.3 Ausblick: Mobilfunk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.5 Der Raum und der R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.5.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.5.2 Vektorprodukt und Spatprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.5.3 Drehungen im R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.5.4 Der ane Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.6 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2 Vektorraume 45
2.1 Allgemeine Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Linearkombinationen, Erzeugendensysteme usw. . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.1 Linearkombinationen und Unterraume . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.2 Lineare Unabhangigkeit und Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.3 Dimension eines Vektorraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3 Vektorraume mit Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.3.1 Skalarprodukte, Normen, Orthogonalsysteme . . . . . . . . . . . . . . . . . . . . . . 53
2.3.2 Approximationsprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.4 Ausblick: Vektorraume in der Physik 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.5 Ausblick: die HelmholtzProjektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.6 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5
6 INHALTSVERZEICHNIS
3 Matrizen 61
3.1 Operationen mit Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4 Homomorphismen 69
4.1 Allgemeine Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2 Geometrische Aspekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3 Lineare Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.4 Basistransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.5 Dierentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.6 Ausblick: Lineare Abbildungen in der Physik . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.7 Ausblick: Vektorraume in der Physik 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.8 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5 Normierte Raume, Reelle Zahlen, Folgen, Reihen 89
5.1 Folgen im R
d
und C
d
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 Folgen und Reihen in normierten Raumen . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2.1 Vollstandigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.2 Reihen in normierten Raumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2.3 Konvergenzkriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.3 Folgen und Reihen reeller Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.3.1 Schranken und Grenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.3.2 Beispiele f ur konvergente Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.3.3 Nichtabsolute Konvergenz und Umordnungen . . . . . . . . . . . . . . . . . . . . . . 101
5.4 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.5 Beispiel: Die Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.6 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6 Funktionen 109
6.1 Grenzwerte von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.3 Dierenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.4 Mittelwertsatz und Taylorscher Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
6.5 Elementare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.5.1 Der geometrische Zugang zu den Winkelfunktionen . . . . . . . . . . . . . . . . . . . 129
6.5.2 Der analytische Zugang zu den Winkelfunktionen . . . . . . . . . . . . . . . . . . . . 132
6.5.3 Die Hyperbelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.5.4 Wurzeln aus komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.6 Verfahren zur numerischen Losung nichtlinearer Gleichungen . . . . . . . . . . . . . . . . . 138
6.6.1 Das Halbierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6.6.2 Funktionaliteration und der Banachsche Fixpunktsatz . . . . . . . . . . . . . . . . 139
6.6.3 Das Newtonverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
6.7 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
A Algebraische Strukturen 143
Einleitung
Herzlich willkommen im Physikstudium !
Zu jedem Physikstudium gehort ein Mathematikkurs, und dieser Versuch eines Vorworts soll beschreiben,
welche Ziele wir mit diesem Mathematikkurs anpeilen. Im Schnelldurchlauf: es sind etwas andere Ziele als
im gymnasialen Mathematikunterricht (wobei hier nicht erortert werden soll, ob der schulische Mathema-
tikunterricht sinnvoll konzipiert ist und ob er seine Ziele uberhaupt erreicht).
Bekanntlich ist die Physik eine Wissenschaft. Das Gegenteil davon ist die Unwissenschaft, wie sie vertre-
ten wird von W unschelrutengangern, Schamanen, Esoterikern und sonstigen verwirrten Personlichkeiten.
Zwischen Wissenschaftlern und Nichtwissenschaftlern besteht der ausschlaggebende Unterschied, da die
Wissenschaftler ihre Arbeitsmethoden prazise begr unden und ihre erzielten Ergebnisse rechtfertigen konnen,
und zwar (z.B.) auf folgenden Wegen:
Experiment: die Voraussagen einer Theorie werden gepr uft (Arbeitsweise in der Experimentalphysik),
Theorie: eine Aussagen wird logisch prazise aus elementaren Prinzipien hergeleitet, die man als wahr
voraussetzt (Arbeitsweise in der theoretischen Physik und der Mathematik),
numerische Simulationen: das sind Rechenexperimente auf dem Computer, z.B. um eine Theorie zu
testen.
Da wir nun als Wissenschaftler wahrgenommen werden wollen, kommen wir nicht drumherum, diese An-
spr uche an wissenschaftliches Arbeiten auch gegen uns gelten zu lassen, woraus sich ein erster Unterschied
zum Schulunterricht ergibt:
Die schultypische Frage nach dem Wie (Wie verlauft der Rechenweg ?) wird ersetzt durch die Frage nach
dem Warum: Warum glaube ich eigentlich, da mein Rechenweg mich uberhaupt zum Rechenziel f uhrt ?
Gelegentlich artet die Abiturvorbereitung aus in ein Antrainieren halbverstandener Rechenrituale; diese
Phase soll im Physikstudium nicht wiederkehren.
Was ist eigentlich Mathematik ?
Wie eben schon angedeutet, geht es in der Mathematik nicht um das Abspulen von immergleichen Rechen-
schemata, ganz im Gegenteil:
(a) Mathematik ist die Kunst, stumpfsinniges Rechnen zu vermeiden. Es gibt keinen Platz f ur haliche
Mathematik, genauso wie es keinen Platz gibt f ur haliche Physik.
(b) Mathematik ist eine Wissenschaft, die Strukturen erforscht und durchschaubar macht.
Dabei strebt die Mathematik zuallererst nach Erkenntnis und versucht zu erklaren, warum die (von ihr
betrachtete Facette der hochst vielfaltigen) Wirklichkeit so ist, wie sie ist; und genau dasselbe gilt nat urlich
f ur jede andere Wissenschaft. Ein besonderes Merkmal einer jeden Naturwissenschaft ist es, da ein For-
scher
1
sich zwar ein bestimmtes Forschungsziel stellen kann, aber es ist zunachst nicht klar, ob das Problem
uberhaupt
2
losbar ist, ob man es selber schat (oder ob jemand anders schneller ist), oder ob der gewahlte
Weg nicht vielleicht eine Sackgasse ist und man am Ende der m uhseligen Plackerei mit leeren Handen
1
aus Gr unden der sprachlichen
Ubersichtlichkeit sind nur die maskulinen Personenbezeichnungen angef uhrt . . .
2
Ausnahme: Spielzeugprobleme, bei denen jeder ahnt, was herauskommt, und die nur Wenige interessieren
7
8 EINLEITUNG
dasteht. In der Schule ist das bekanntlich anders, denn dort bekommt man nur Aufgaben, die garantiert
mit dem vorher vermittelten Wissen losbar sind.
Kreative und phantasievolle Menschen sind klar im Vorteil, und es lohnt sich,
hierbei betrachten wir nur Punktmassen. Bei Vektoren kann es zum Beispiel sein, da ihre Pfeil-Gestalt
wichtig ist (wenn man z.B. die Krafte auf einen Korper untersucht, dann ist die Veranschaulichung der
Krafte als Pfeile vollig nat urlich). Man kann die Eigenschaft eines Vektors, ein
. Fleiiges
Ausmultiplizieren samtlicher Klammern und die Regel (
u
v
)
=
u
vuv
v
2
f uhren auf
f
(x) =
3x
2
14x 16
x
4
+ 8x
3
+ 24x
2
+ 32x + 16
,
f
(x) =
6x
5
+ 66x
4
+ 288x
3
+ 624x
2
+ 672x + 288
x
8
+ 16x
7
+ 112x
6
+ 448x
5
+ 1120x
4
+ 1792x
3
+ 1792x
2
+ 1024x + 256
,
und nun stecken wir fest, denn die Gleichung f
(x
4
+8x
3
+24x
2
+32x+16) (3x
2
14x16) (x
4
+8x
3
+24x
2
+32x+16)
(x) =
3x 8
(x + 2)
3
, f
(x) =
6x + 18
(x + 2)
4
.
Weitere Tips:
Nutzen Sie bei Zwischenergebnissen, wann immer es sich anbietet, die Moglichkeit zur Zwischenprobe, und
zwar auf einem anderen Wege. Wenn Sie solche anderen Zugange gezielt suchen, trainieren Sie gleichzeitig
Ihren Durchblick durch die Mathematik, und auf den kommt es ja an.
Gewohnen Sie sich
Uberschlagsrechnungen im Kopf an; Sie werden schneller sein als der Taschenrechner.
Formulieren Sie mit Worten, was Sie tun wollen, und schreiben Sie das dann auch hin. Es sollen keine
Romane sein, eine Anmerkung der Form
(x
0
).
Etwas exakter formuliert, ist die Funktion f in x
0
dierenzierbar genau dann, wenn der Grenzwert des
Dierenzenquotienten vorhanden ist, das heit
lim
xx0
f(x) f(x
0
)
x x
0
existiert.
1.2. DIE KOMPLEXEN ZAHLEN 13
Der Wert dieses Grenzwertes ist dann gleich A.
Jede dierenzierbare Funktion ist stetig.
Die meisten aus der Schule bekannten Funktionen (Polynome, gebrochen rationale Funktionen, Winkelfunk-
tionen, Exponentialfunktionen, Logarithmusfunktionen) sind uberall dort, wo man sie sinnvoll denieren
kann, dierenzierbar. Die Wurzelfunktionen und die Betragsfunktion f = f(x) = [x[ sind im Nullpunkt
nicht dierenzierbar.
Die Rechenregeln f ur die Ableitung (Produktregel, Kettenregel usw.) sowie die Formeln f ur die Ableitungen
der elementaren Funktionen wollen wir als bekannt voraussetzen.
Wenn die Ableitung f
einer Funktion f stetig ist, dann heit f stetig dierenzierbar. Wenn diese stetige
Ableitung f
wiederum dierenzierbar ist, dann nennt man f zweimal dierenzierbar, und die Ableitung
von f
wird mit f
q
2
+
108. Dies ist eine irrationale Zahl, aber wenn wir daraus
dann x
1
berechnen, dann heben sich die Irrationalitaten mysterioserweise heraus und wir nden
x
1
=
2
3
,
was auch tatsachlich eine Losung der kubischen Gleichung ist, wie man durch eine Probe feststellt. Abdivi-
dieren des Linearfaktors (x
2
3
) f uhrt uns zum quadratischen Polynom x
2
+
2
3
x +
10
9
, welches keine reellen
Nullstellen hat.
Als weiteres Beispiel betrachten wir
x
3
63x + 162 = 0. (1.2)
Dann ist p = 63, q = 162, und f ur w erhalten wir
w =
3
_
81 +
2700.
Und hier ergeben sich mindestens zwei Probleme:
was soll
2700 sein,
wenn wir eine Deutung von
2700 gefunden haben sollten, was ist dann die dritte Wurzel aus
81 +
2700 ?
Wir konnten uns jetzt auf den Standpunkt stellen, da diese Formeln keinen Sinn haben, und die Gleichung
(1.2) eben keine einzige Losung hat. Aber verwirrenderweise gibt es Losungen, und zwar gleich drei, namlich
die reellen Zahlen 3, 6 und 9, wie man leicht nachrechnet.
Cardano und viele seiner Kollegen in den nachfolgenden Jahrhunderten gewannen den Eindruck, da es
n utzlich sein kann, mit solchen Ausdr ucken zu rechnen. Allerdings gelang es lange nicht, Terme der Form
_
+
_
+
z +w
?
z +w
= z +w
(z, w)
?
(z, w)
z w
?
z w
= z w
Das Fragezeichen ist dabei als Platzhalter zum Einsetzen zu lesen. Wir bezeichnen ein Diagramm als
kommutativ, wenn jeder Pfad von der Ecke links oben zur Ecke rechts unten das gleiche Ergebnis liefert.
Die letzte Regel in Satz 1.11 bedeutet, da das Produkt aus einer komplexen Zahl und ihrer Konjugierten
stets reell ist.
Satz 1.12. Die Betragsfunktion erfullt die Eigenschaften einer Norm (siehe Bemerkung 1.3). Das heit:
[z[ 0; [z[ = 0 genau dann, wenn z = (0, 0),
[z w[ = [z[ [w[,
[z +w[ [z[ +[w[.
Beweis.
Ubungsaufgabe.
Die erste und die letzte dieser Eigenschaften sind geometrisch unmittelbar einsichtig, wenn man sich die
komplexen Zahlen (die ja geordnete Paare reeller Zahlen sind) als Vektoren in der Ebene vorstellt. Der
Betrag einer komplexen Zahl ist nichts anderes als die geometrische Lange des zugeordneten Vektors.
Nun zur Division. Gegeben sind zwei komplexe Zahlen w = u + iv und r = p + iq, und gesucht ist deren
Quotient z = x + iy, also soll gelten
r z = w.
Wir multiplizieren mit r:
r w = r (r z) = (r r) z = [r[
2
z = [r[
2
(x + iy) = [r[
2
x + i([r[
2
y).
Jetzt nutzen wir aus, da wir auf der linken Seite eine bekannte komplexe Zahl stehen haben:
r w = (p iq) (u + iv) = (pu +qv) + i(pv qu).
Wir vergleichen Real und Imaginarteil:
x =
pu +qv
[r[
2
, y =
pv qu
[r[
2
.
Das Ganze wird vielleicht etwas einsichtiger in folgender Schreibweise:
z =
w
r
=
u + iv
p + iq
=
(u + iv)(p iq)
(p + iq)(p iq)
=
(pu +qv) + i(pv qu)
p
2
+q
2
=
pu +qv
p
2
+q
2
+ i
pv qu
p
2
+q
2
.
Damit haben wir gezeigt, da die Menge der komplexen Zahlen, zusammen mit der Addition und der
Multiplikation einen Korper bildet, was nichts anderes heit, da wir mit den 4 Grundrechenarten umgehen
konnen, wie wir es gewohnt sind.
1.2. DIE KOMPLEXEN ZAHLEN 17
Leider ist es nicht moglich, auf C eine Ordnungsrelation zu denieren, die sich mit den Rechenoperationen
vertragt (warum ?).
Wir wenden uns nun nochmal der geometrischen Veranschaulichung der komplexen Zahlen als Vektoren
(bzw. Punkte) der zweidimensionalen Ebene zu. Wir bezeichnen die horizontale Achse als reelle Achse, und
die vertikale Achse als imaginare Achse. Durch Hinschauen stellen wir dann fest, da f ur jede komplexe
Zahl z ,= 0 gilt:
'z = [z[ cos , z = [z[ sin.
Hierbei bezeichnet den Winkel zwischen dem positiven Teil der reellen Achse und dem Vektor, der zu z
gehort. (Ab jetzt wollen wir meistens nicht mehr unterscheiden zwischen einer komplexen Zahl und dem
Vektor, der diese komplexe Zahl geometrisch veranschaulicht.) Dieser Winkel wird auch als Argument
von z bezeichnet.
Was passiert bei Addition und Multiplikation ?
Man sieht schnell, da die Addition komplexer Zahlen der gewohnlichen Vektoraddition entspricht.
F ur die Multiplikation betrachten wir zwei komplexe Zahlen
z = x + iy = [z[(cos + i sin ), w = u + iv = [w[(cos + i sin ),
und erhalten:
z w = [z[(cos + i sin ) [w[(cos + i sin )
= [z[ [w[((cos cos sin sin ) + i(cos sin + sincos ))
= [z[ [w[(cos( +) + i sin( +)).
Das Produkt von z und w ist also eine komplexe Zahl, deren Betrag gleich dem Produkt der Betrage von
z und w ist; und das Argument von z w ist gleich der Summe der Argumente von z und w.
Die Multiplikation komplexer Zahlen entspricht einer Drehstreckung.
Interessant ist noch der Fall z = w, dann haben wir
z
2
= [z[
2
(cos(2) + i sin(2)), wenn z = [z[(cos + i sin ).
Mittels vollstandiger Induktion bekommen wir die sogenannte Formel von Moivre (Abraham de Moivre,
16671754):
z
n
= [z[
n
(cos(n) + i sin(n)), wenn z = [z[(cos + i sin ) und n N.
1.2.3 Funktionen komplexer Zahlen
Genauso wie man Funktionen von reellen Variablen denieren und untersuchen kann, kann man dies auch
mit Funktionen von komplexen Zahlen tun.
Einfache Beispiele f ur solche Funktionen sind Polynome,
P(z) = a
n
z
n
+a
n1
z
n1
+ +a
1
z +a
0
, n N,
mit Koezienten a
j
C und Denitionsbereich C.
Ein anderes und sehr wichtiges Beispiel ist die komplexe Exponentialfunktion. Bekanntlich erf ullt die
herkommliche Exponentialfunktion die Beziehungen
e
x1+x2
= e
x1
e
x2
, e
x1
=
1
e
x1
, e
0
= 1
f ur beliebige reelle x
1
, x
2
R.
Denition 1.13. Sei z = x + iy C eine komplexe Zahl. Dann denieren wir
e
z
= e
x+iy
:= e
x
(cos y + i siny).
Diese komplexwertige Funktion mit Denitionsbereich C heit komplexe Exponentialfunktion.
18 KAPITEL 1. GRUNDLAGEN
Spater werden wir eine andere Denition bevorzugen.
Satz 1.14. Die komplexe Exponentialfunktion hat die folgenden Eigenschaften:
e
0
= 1,
e
z+w
= e
z
e
w
, z, w C,
e
z
=
1
e
z
, z C.
Beweis. Wir haben e
0
= e
0+i0
= e
0
(cos 0 + i sin 0) = 1(1 + 0) = 1.
Seien nun z = x + iy und w = u + iv. Dann ist einerseits
e
z+w
= e
(x+u)+i(y+v)
= e
x+u
(cos(y +v) + i sin(y +v)),
andererseits, wegen der Additionstheoreme f ur die Sinus- und Kosinusfunktionen,
e
z
e
w
= e
x
(cos y + i siny)e
u
(cos v + i sin v)
= e
x+u
((cos y cos v sin y sinv) + i(cos y sin v + siny cos v))
= e
x+u
(cos(y +v) + i sin(y +v)).
Also ist e
z+w
= e
z
e
w
.
Und die dritte Beziehung beweist sich jetzt fast von selbst:
1 = e
0
= e
z+(z)
= e
z
e
z
.
Wenn wir annehmen, da z den Realteil Null hat (also eine sogenannte rein imaginare Zahl ist), dann folgt
die Beziehung
e
iy
= cos y + i sin y.
Falls wir hier y = setzen, entsteht die ber uhmte Gleichung
e
i
+ 1 = 0,
die samtliche f unf f ur den Physiker unverzichtbaren Zahlen in einer Zeile vereinigt.
Und wenn z den Imaginarteil Null hat (also reell ist), dann erhalten wir aus cos 0 = 1 und sin 0 = 0, da
e
z
= e
x
.
Also stimmt die neu denierte komplexe Exponentialfunktion mit der herkommlichen reellen Exponential-
funktion uberein, wenn das Argument der komplexen Exponentialfunktion zufalligerweise reell ist.
F ur eine komplexe Zahl z = x + iy mit Betrag [z[ und Argument haben wir jetzt drei aquivalente
Schreibweisen
z = x + iy,
z = [z[(cos + i sin ),
z = [z[e
i
,
die wir im Folgenden gleichberechtigt verwenden werden.
Nun zu den Winkelfunktionen. Wir konnen die Winkelfunktionen im Reellen mittels der Exponentialfunk-
tion ausdr ucken:
Satz 1.15. Sei R. Dann gilt
cos =
1
2
(e
i
+e
i
), sin =
1
2i
(e
i
e
i
).
1.2. DIE KOMPLEXEN ZAHLEN 19
Beweis. Wir haben
e
i
= cos + i sin , e
i
= cos() + i sin() = cos i sin,
denn die Kosinusfunktion ist gerade, und die Sinusfunktion ist ungerade. Jetzt brauchen wir diese beiden
Gleichungen blo zueinander addieren bzw. voneinander abziehen, und der Beweis ist vollendet.
Damit konnen wir jetzt auch Winkelfunktionen f ur komplexe Zahlen erklaren:
Denition 1.16. Fur z C denieren wir sinz und cos z durch
sin z =
1
2i
(e
iz
e
iz
), cos z =
1
2
(e
iz
+e
iz
).
Falls z in dieser Denition reell sein sollte, erhalten wir genau die herkommlichen Winkelfunktionen. Wir
haben also diese Winkelfunktionen von der Menge der reellen Zahlen in die Menge der komplexen Zahlen
fortgesetzt. Wir konnten noch weitere Funktionen von den reellen Zahlen in die komplexen Zahlen fortsetzen,
verschieben das aber auf ein spateres Kapitel. Stattdessen wollen wir uns uberlegen, welche Eigenschaften
Funktionen haben konnten.
Zum Beispiel konnte eine Funktion w : C C stetig sein. Was heit das ? Wir konnen die Stetigkeit
genauso denieren wie bei Funktionen w : R R. In Worten ausgedr uckt, ist die Stetigkeit der Funktion
w : C C im Punkte z
0
C folgendermaen deniert:
Wir konnen erzwingen, da der Wert [w(z) w(z
0
)[ beliebig klein wird, wenn wir nur daf ur sorgen, da
[z z
0
[ klein genug ist.
Hierbei bedeuten die Betragsstriche nat urlich den komplexen Betrag.
Die bisher betrachteten Funktionen (Polynome, komplexe Exponentialfunktion, komplexe Winkelfunktio-
nen) sind allesamt in ganz C stetig.
Eine weitere interessante Eigenschaft einer Funktion ist die Dierenzierbarkeit. Hierbei m ussen wir aller-
dings etwas aufpassen und zwei Falle unterscheiden.
Funktionen w : R C,
Funktionen w : C C.
Im ersten Fall konnen wir uns vorstellen, da die Funktion w auf einem Intervall [a, b] R deniert ist, wir
konnen also schreiben
w = w(t) = u(t) + iv(t), t [a, b].
Naheliegenderweise wird man die Ableitung w
(t) := u
(t) + iv
(z
0
) gleich diesem Grenzwert. Wir verlangen dabei, da z auf beliebigem Wege gegen z
0
laufen darf
(z.B. entlang einer heftig verknoteten Kurve); und jedesmal soll der Grenzwert des Dierenzenquotienten
denselben Wert haben.
20 KAPITEL 1. GRUNDLAGEN
Warnung 1.17. Die Ableitung ist jetzt eine komplexe Zahl, und es ist nur schwer moglich, den Wert der
Ableitung in gewohnter Form als
(z) = w
(z) +r
(z), z C,
(cw)
(z) = c w
(z), z C, c C,
(w r)
(z) = w
(z), z C,
_
w
r
_
(z) =
w
(z)
r(z)
2
, z C, r(z) ,= 0,
w(r(z))
= w
(r(z)) r
(z), z C.
Die Beweise dieser Formeln verlaufen genauso wie im reellen Fall. Dies ist deshalb moglich, weil die reellen
Zahlen genauso wie die komplexen Zahlen einen Korper bilden; mit anderen Worten, da die Grundrechen-
arten denselben Regeln gen ugen.
Genauso wie im reellen Fall kann man nachweisen, da jede dierenzierbare Funktion w : C C stetig ist.
Auerdem sind die oben vorgestellten Funktionen dierenzierbar, und es ist
(z
n
)
= nz
n1
, z C, n N = 1, 2, . . . ,
(e
z
)
= e
z
, z C,
sin
(z) = cos(z), z C,
cos
(z) = sin(z), z C.
Warnung 1.19. Leider gibt es Funktionen, die wunderbar harmlos ausschauen, aber nicht dierenzierbar
sind. Ein Beispiel einer solchen Funktion ist w = w(z) = [z[
2
. Diese Funktion ist lediglich im Ursprung
dierenzierbar, und sonst nirgendwo. Sei z.B. z
0
= 1 +2i. Wenn wir z einmal horizontal gegen z
0
schicken
und einmal vertikal, bekommen wir fur den Grenzwert des Dierenzenquotienten zwei verschiedene Werte,
wie man schnell nachrechnet. Deshalb ist w im Punkte z
0
= 1 + 2i nicht dierenzierbar. Wir mussen eine
genauere Betrachtung der komplexen Dierentialrechnung auf spater verschieben.
1.2.4 Ausblick: Elektrotechnik
Hier ergibt sich ein kleines Problem mit den Schreibweisen: in der Elektrotechnik bezeichnet man die
Stromstarke mit i bzw. I, weshalb wir f ur die imaginare Einheit in diesem Abschnitt j schreiben, j
2
= 1.
Einen elektrischen Wechselstrom mit Amplitude i
m
, Kreisfrequenz = 2f und Phasenverschiebung
i
konnen wir ausdr ucken als
i(t) = i
m
cos(t +
i
), i
m
> 0, > 0,
i
R, t R.
Wenn wir f ur den sogenannten Eektivwert der Stromstarke I schreiben, I = i
m
/
2Ie
ji
e
jt
_
.
Der Ausdruck Ie
ji
ist eine komplexe Zahl, die nicht von der Zeit t abhangt. Um die Schreibweise zu
vereinfachen, f uhren wir den komplexen Eektivwert ein:
I = Ie
ji
und es folgt
i(t) =
2'
_
Ie
jt
_
.
Genauso verfahren wir mit der Spannung:
u(t) = u
m
cos(t +
u
), u
m
> 0, > 0,
u
R, t R,
U = u
m
/
2, U = Ue
ju
,
u(t) =
2'
_
Ue
jt
_
.
1.2. DIE KOMPLEXEN ZAHLEN 21
Die komplexen Zahlen Ie
jt
und Ue
jt
drehen sich in der komplexen Ebene im Gegenuhrzeigersinn, wenn
t wachst; und die Radien der Kreisbahnen sind I bzw. U. F ur einen Umlauf brauchen diese Vektoren die
Zeit 1/f, so wie man es erwartet.
Der Winkel zwischen den Vektoren Ie
jt
und Ue
jt
ist immer gleich, namlich
i
u
. Dies ist genau die
Phasenverschiebung zwischen Stromstarke und Spannung.
Spannung und Stromstarke stehen zueinander in Beziehung uber den Widerstand. Wir haben die folgenden
3 Falle:
Ohmscher Widerstand: U = RI, R R,
Spule (induktiver Widerstand): U = jLI, L R,
Kondensator (kapazitiver Widerstand): U = j
1
C
I, C R.
Nun f uhren wir den komplexen Scheinwiderstand ein:
Z =
U
I
.
Mit diesem Scheinwiderstand konnen wir genauso rechnen wie mit ohmschen Widerstanden: bei einer Rei-
henschaltung addieren sich die Scheinwiderstande, bei einer Parallelschaltung addieren sich die Reziproken
der Widerstande.
F ur die Schaltung in Abbildung 1.1 haben wir zum Beispiel
Z =
1
1
R1j/(C1)
+
1
R2+jL
j
1
C
2
.
Wenn man den Scheinwiderstand Z in der Form
Z = R + jX, R, X R,
schreibt, dann heit R = 'Z der Wirkwiderstand und X = Z der Blindwiderstand der Schaltung.
R_1 C_1
C_2
L R_2
Abbildung 1.1: Elektrische Schaltung
1.2.5 Ausblick: Mechanik
Eine ebene Welle, die sich im Ortsraum R
3
ausbreitet, wird haug modelliert mittels Funktionen der Form
(t, x) e
i(kxt)
.
Hierbei benennen t R und x R
3
die Variablen f ur Zeit und Ort, ihre Einheiten sind nat urlich Sekunde
und Meter. Weiterhin ist k = (k
1
, k
2
, k
3
) ein Vektor, der senkrecht auf den Wellenfronten steht und in der
Physik Wellenzahlvektor genannt wird. Seine Einheit ist
1
Meter
. Das Produkt kx ist zu verstehen als k
1
x
1
+
k
2
x
2
+k
3
x
3
. Und (omega) heit oft Kreisfrequenz mit der Einheit
1
Sekunde
. Schlielich ist nat urlich i
2
= 1.
Der Zusammenhang zwischen allen diesen Parametern ist c =
|k|
, wobei c die Ausbreitungsgeschwindigkeit
der Welle ist.
Man uberlege sich, warum dies tatsachlich eine Beschreibung von ebenen Wellen im R
3
liefert !
22 KAPITEL 1. GRUNDLAGEN
1.3 Die Ebene und der R
2
1.3.1 Allgemeine Eigenschaften
Wir starten mit einigen Begrien, die bekannt sein sollten:
Ebene: genauer gesagt, die Menge der Ortsvektoren der (zweidimensionalen) Ebene. Achtung: dies ist
nicht dasselbe wie der R
2
!
R
2
: die Menge aller geordneten Paare (x, y) mit x, y R.
Ortsvektor: ein Vektor (
0 = x
Subtraktion: Jede Gleichung a+x = b (mit gegebenem a, b V ) ist losbar, die Losung x wird geschrieben
als x = b a.
Assoziativitat der Multiplikation: ( ) x = ( x)
1 ist neutrales Element der Multiplikation: 1 x = x
Zwei Distributivgesetze: Addition und Multiplikation sind verzahnt gema der Regeln ( + ) x =
x + x und (x +y) = x + y.
Bemerkung 1.21. Wir sagen auch, da (V, +, ) einen Vektorraum
7
uber R bildet.
Es gibt einen Zusammenhang zwischen der zweidimensionalen Ebene und dem R
2
, der durch ein Koordina-
tensystem vermittelt wird: Bekanntlich kann man jeden Ortsvektor der Ebene als Linearkombination der
Basisvektoren des Koordinatensystems darstellen. Die Koezienten dieser Linearkombination sind reelle
Zahlen, bilden also gerade ein geordnetes Paar, also ein Element aus dem R
2
.
Allerdings haben wir einige Freiheiten bei der Wahl des Koordinatensystems. Es ist zwar ublich, da die
eine Koordinatenachse
2
_
:
i
R
_
.
Das Paar
_
0
0
_
wird mit 0 bezeichnet; auerdem setzen wir e
1
=
_
1
0
_
und e
2
=
_
0
1
_
. Dann denieren wir 2
Operationen:
+ : R
2
R
2
R
2
,
_
2
_
+
_
2
_
:=
_
1
+
1
2
+
2
_
,
: R R
2
R
2
,
_
2
_
:=
_
2
_
.
Wir stellen schnell fest:
Satz 1.23. Der R
2
hat zusammen mit den Operationen + und die Eigenschaften aus Satz 1.20, ist also
ein Vektorraum uber R.
Ab jetzt werden wir den geometrisch denierten Vektorraum der Ortsvektoren in der Ebene einerseits
und den R
2
andererseits synonym gebrauchen, wobei wir im Hinterkopf behalten, da diejenige Abbildung
zwischen V und R
2
, die jedem Vektor seine Koordinaten zuordnet, von der gewahlten Basis in V abhangt.
Geometrisch ist klar, da es zwischen 2 Ortsvektoren einen Winkel gibt (es sei denn, einer der Vektoren
ware der Nullvektor), und da jeder Ortsvektor eine Lange hat. Wenn ein Ortsvektor x gegeben wird durch
x =
1
e
1
+
2
e
2
, dann betragt seine Lange
[x[ =
_
2
1
+
2
2
.
Wenn wir den Winkel zwischen dem Vektor x und der e
1
Achse taufen, dann ist
1
= [x[ cos ,
2
= [x[ sin .
Nun betrachten wir noch einen weiteren Vektor y mit Koordinaten
_
1
2
_
und Winkel zur e
1
Achse. Der
Winkel (x, y) ist dann gerade = , und aus dem Additionstheorem f ur den Cosinus erhalten wir
cos = cos( ) = cos cos + sin sin =
1
[x[
1
[y[
+
2
[x[
2
[y[
.
In den Zahlern der Br uche rechts entdecken wir das bekannte Skalarprodukt im R
2
:
Denition 1.24. Fur x =
_
1
2
_
R
2
und y =
_
1
2
_
R
2
denieren wir das Skalarprodukt x y R als
x y =
1
1
+
2
2
.
Dafur schreiben wir in Zukunft auch x, y).
24 KAPITEL 1. GRUNDLAGEN
Damit haben wir dann
cos (x, y) =
x, y)
[x[ [y[
,
falls keiner der Vektoren x, y gleich dem Nullvektor ist (ansonsten w urden wir durch Null dividieren). Wenn
aber einer der Vektoren x, y gleich 0 ware, dann gabe es auch keinen Winkel zwischen x und y.
Bemerkung 1.25. In die Berechnung des Skalarprodukts x, y) und der Langen [x[, [y[ gehen die Koor-
dinaten
1
,
2
,
1
,
2
ein. Diese Koordinaten hangen vom gewahlten Koordinatensystem ab, also von der
gewahlten Basis (e
1
, e
2
). Wenn wir eine andere Basis gewahlt hatten, zum Beispiel (e
1
, e
2
), dann hatten
wir andere Koordinaten
1
,
2
,
1
,
2
bekommen. Obwohl dies andere Koordinaten sind, bekommen wir fur
cos (x, y) am Ende denselben Wert ! Das ist geometrisch auch unmittelbar einsichtig. Hierbei haben wir
stillschweigend vorausgesetzt, da die Vektoren e
1
, e
2
aufeinander senkrecht stehen und jeweils die Lange 1
haben; und da entsprechendes auch fur e
1
, e
2
gilt.
Satz 1.26. Das Skalarprodukt
, ) : R
2
R
2
R
besitzt die folgenden Eigenschaften fur alle Vektoren x, y, z R
2
und Skalare R:
x, y) = y, x) ,
x, y +z) = x, y) +x, z) ,
x, y) = x, y) ,
x, x) 0 und x, x) = 0 genau dann, wenn x = 0.
Beweis. Beweis durch Nachrechnen aus Denition 1.24.
Weil das Skalarprodukt x, x) eines Vektors x mit sich selbst nie negativ ist, lat sich die Wurzel ziehen:
Denition 1.27. Fur x R
2
erklaren wir die Lange (Betrag, Norm) vermoge
[x[ :=
_
x, x).
Satz 1.28 (Ungleichung von CauchySchwarz
8
). Seien x, y R
2
zwei Vektoren. Dann gilt
[ x, y) [ [x[ [y[.
Das Gleichheitszeichen gilt genau dann, wenn die Vektoren x und y parallel sind.
Beweis. Geometrisch ist die Sache klar: wir haben 1 cos (x, y) 1, und deshalb [x[ [y[ x, y)
[x[[y[. Aber f ur spatere Zwecke ist es n utzlich, einen Beweis zu haben, der ohne Appelle an das geometrische
Vorstellungsvermogen auskommt und stattdessen nur Satz 1.26 ausnutzt.
Seien nun also x, y R
2
fest gewahlt, und sei weiterhin R beliebig. Dann haben wir
0 x +y, x +y) ,
was sich ausmultiplizieren lat wie folgt:
0 x +y, x) +x +y, y)
= x, x +y) +y, x +y) = x, x) +x, y) +y, x) +y, y)
= x, x) +y, x) +y, x) +y, y) = x, x) +y, x) +y, x) +y, y)
= x, x) + 2y, x) +
2
y, y) = [x[
2
+ 2x, y) +
2
[y[
2
.
Wir konnen annehmen, da y ,=
0 ist, weil ansonsten die Ungleichung trivialerweise gilt (wir bekamen
0 0). Dann ist aber [y[
2
,= 0, und wir d urfen dividieren:
0
[x[
2
[y[
2
+
2 x, y)
[y[
2
+
2
.
8
Augustin Louis Cauchy (17891857), Hermann Amandus Schwarz (18431921)
1.3. DIE EBENE UND DER R
2
25
Nun sind x und y fest, aber variabel. Die rechte Seite ist also eine quadratische Funktion in :
P() =
[x[
2
[y[
2
+
2 x, y)
[y[
2
+
2
,
von der wir wissen, da sie niemals negative Werte annehmen kann. Also ist die Diskriminante der zu-
gehorigen quadratischen Gleichung 0:
_
x, y)
[y[
2
_
2
[x[
2
[y[
2
0,
woraus die gew unschte Ungleichung sofort folgt.
Wenn in der CauchySchwarzUngleichung das Gleichheitszeichen eintritt, dann ist die Diskriminante gleich
0, also gibt es ein R mit x +y, x +y) = 0, also gilt f ur dieses die Beziehung x + y =
0. Dann
sind aber x und y parallel. Die Umkehrung dieser Aussage gilt auch, wie man schnell sieht.
Man beachte, da wir nirgends benutzt hatten, da x und y Vektoren aus dem R
2
sind. Derselbe Beweis
gilt auch im R
3
oder R
n
.
Satz 1.29. Die Norm aus Denition 1.27 erfullt die folgenden drei Eigenschaften, fur alle Vektoren x, y
R
2
und alle Skalare R:
[x[ 0 und [x[ = 0 genau dann, wenn x = 0,
[x[ = [[ [x[,
[x +y[ [x[ +[y[.
Beweis. Wir benutzen nur die 4 Eigenschaften aus Satz 1.26, aber keinerlei geometrische Interpretation:
Wegen
0 ist [x[ 0. Wenn [x[ = 0 sein sollte, dann mu x, x) = 0 sein, und das geht nur f ur x = 0.
Weiterhin ist
[x[ =
_
x, x) =
_
x, x) =
_
x, x) =
_
x, x) = [[
_
x, x) = [[ [x[.
Und schlielich haben wir, wenn wir die Ungleichung von CauchySchwarz zitieren,
[x +y[
2
= x +y, x +y) = x +y, x) +x +y, y) = x, x +y) +y, x +y)
= x, x) +x, y) +y, x) +y, y) = [x[
2
+ 2 x, y) +[y[
2
[x[
2
+ 2[x[ [y[ +[y[
2
= ([x[ +[y[)
2
.
Nun ist [x +y[ nie negativ, also d urfen wir die Wurzel ziehen und erhalten [x + y[ [x[ +[y[.
Die folgenden Eigenschaften konnen auf ahnlichem Wege leicht gezeigt werden:
Satz 1.30. Seien x, y R
2
beliebige Vektoren. Dann gilt:
[x y[
2
= [x[
2
+[y[
2
2 x, y) ,
[x +y[
2
+[x y[
2
= 2
_
[x[
2
+[y[
2
_
,
x, y) = 0 [x +y[
2
= [x[
2
+[y[
2
.
Geometrische Interpretationen davon zu suchen ist eine lehrreiche
Ubungsaufgabe.
Bemerkung 1.31. Seien a R
2
und R gegeben. Wir suchen einen Vektor x R
2
mit a, x) = . Man
stellt schnell fest, da es keine eindeutige Losung geben kann: Denn ausgeschrieben haben wir a
1
x
1
+a
2
x
2
=
und somit zwei Unbekannte, aber lediglich eine Gleichung. Und tatsachlich konnen wir zu einer Losung
x einen beliebigen Vektor addieren, der auf a senkrecht steht und bekommen so eine weitere Losung.
Es gibt keine Division als Umkehroperation des Skalarprodukts.
26 KAPITEL 1. GRUNDLAGEN
1.3.2 Drehungen
Literatur: Greiner und M uller: Quantenmechanik. Symmetrien. Kapitel I.8: Rotationen und ihre Grup-
peneigenschaften
Wir stellen uns folgendes Problem:
In einer Ebene sei durch die Einheitsvektoren e
1
und e
2
ein kartesisches Koordinatensystem gegeben. Ein
Vektor x habe bez uglich dieses Koordinatensystems die Koordinaten
_
1
2
_
, also
x =
1
e
1
+
2
e
2
.
Wir wollen den Vektor x um den Ursprung drehen, und zwar um den Winkel im Gegenuhrzeigersinn.
Das Bild von x sei x
?
Oensichtlich konnen wir mit gesuchten
j
schreiben:
x
1
e
1
+
2
e
2
.
Um diese
j
zu bestimmen, gehen wir einen Umweg: Wir drehen die Vektoren e
1
und e
2
um den Ursprung,
mit dem Winkel . Die Bildvektoren seien e
1
und e
2
. Dann ist geometrisch glaubbar, da
x
=
1
e
1
+
2
e
2
,
das heit, der Bildvektor x
1
, e
2
) gerade die alten Koordinaten
_
1
2
_
.
Nun ist anhand einer Skizze plausibel, da
e
1
= cos e
1
+ sin e
2
, e
2
= sin e
1
+ cos e
2
.
Insgesamt ergibt sich damit
x
1
e
1
+
2
e
2
=
1
(cos e
1
+ sin e
2
) +
2
(sine
1
+ cos e
2
)
= (
1
cos
2
sin )e
1
+ (
1
sin +
2
cos )e
2
,
nach einem Koezientenvergleich (den wir spater rechtfertigen werden) also
1
= cos
1
sin
2
,
2
= sin
1
+ sin
2
.
Wir schreiben diese zwei Gleichungen als eine Vektorgleichung:
_
2
_
=
1
_
cos
sin
_
+
2
_
sin
cos
_
.
Um dies noch etwas anders zu schreiben, f uhren wir eine neue Notation ein: Ein Schema der Form
A =
_
a
11
a
12
a
21
a
22
_
, a
ij
R,
heit 2 2Matrix reeller Zahlen, f ur die wir eine Operation
Matrix mal Spaltenvektor ergibt Spaltenvektor
gema
_
a
11
a
12
a
21
a
22
__
2
_
:=
_
a
11
1
+a
12
2
a
21
1
+a
22
2
_
=
1
_
a
11
a
21
_
+
2
_
a
12
a
22
_
denieren. Damit konnen wir insgesamt schreiben:
x
=
_
2
_
=
_
cos sin
sin cos
__
2
_
= R()x.
1.3. DIE EBENE UND DER R
2
27
Denition 1.32. Die Matrix
R() =
_
cos sin
sin cos
_
, R,
heit Drehmatrix zum Winkel .
Was passiert, wenn wir f ur x einen der Basisvektoren e
1
=
_
1
0
_
, e
2
=
_
0
1
_
einsetzen ? Als Bildvektoren
erhalten wir dann
_
cos sin
sin cos
__
1
0
_
=
_
cos
sin
_
= e
1
beziehungsweise
_
cos sin
sin cos
__
0
1
_
=
_
sin
cos
_
= e
2
,
und das sind gerade die Spalten der Drehmatrix R().
Die Spalten der Drehmatrix sind die Koordinaten der Bilder der Basisvektoren.
Als Nachstes betrachten wir 2 Drehungen: zuerst drehen wir x um den Winkel und erhalten x
. Dann
drehen wir x
= R()x, x
= R()x
, (1.3)
und geometrisch ist auch klar, da
x
= R( +)x.
Die Additionstheoreme der Winkelfunktionen liefern uns
R( +) =
_
cos cos sin sin sincos cos sin
sin cos + cos sin cos cos sinsin
_
.
Andererseits konnen wir die beiden Gleichungen (1.3) auch ineinander einsetzen:
x
= R()x
= R()(R()x).
Man beachte die Reihenfolge der Multiplikationen auf der rechten Seite: erst wird die Matrix R() mit dem
Spaltenvektor x multipliziert, was wieder einen Spaltenvektor liefert. Dieser wird dann in einem zweiten
Schritt von links mit R() multipliziert, und wir erhalten x
.
Im Sinne eines Assoziativgesetzes wollen wir nun die Klammern umsetzen:
x
???
= (R()R())x.
Hierbei m uten wir aber noch erklaren, was das Produkt zweier Matrizen R() und R() sein soll.
Denition 1.33. Seien A und B zwei Matrizen des Formats 2 2,
A =
_
a
11
a
12
a
21
a
22
_
, B =
_
b
11
b
12
b
21
b
22
_
.
Dann denieren wir das Matrixprodukt AB gema
AB =
_
a
11
b
11
+a
12
b
21
a
11
b
12
+a
12
b
22
a
21
b
11
+a
22
b
21
a
21
b
12
+a
22
b
22
_
.
Das heit: vom linken Faktor nehmen wir jeweils eine Zeile, und vom rechten Faktor jeweils eine Spalte.
Das Skalarprodukt dieser 2 Vektoren schreiben wir dort hin, wo Zeile (vom linken Faktor) und Spalte (vom
rechten Faktor) sich kreuzen.
28 KAPITEL 1. GRUNDLAGEN
Bemerkung 1.34. Die Multiplikation ist nicht kommutativ. Das heit, meistens ist AB ,= BA.
Satz 1.35. Fur die Drehmatrizen gilt allerdings
R()R() = R( +) = R()R(), , R.
Von besonderer Bedeutung ist der Drehwinkel 0. Dann haben wir als Drehmatrix
R(0) =
_
1 0
0 1
_
,
und man rechnet schnell nach, da x
_()
1
_()
1
(b
1
, a
1
)
(a b)
1
= b
1
a
1
Der Punkt ist jeweils als Platzhalter zum Einsetzen zu verstehen.
Das Assoziativgesetz hat auch ein kommutatives Diagramm:
b
a
a b
c
_
c
b c
a
a b c
Entsprechendes gilt f ur Distributivgesetze bei Korpern und Vektorraumen.
1.4.2 Ausblick: Gruppen in der Physik
Wir listen einige Gruppen auf, die in der Physik ofters auftreten:
Symmetriegruppen eines Kristalls: gegeben sei ein Kristallgitter. Diese gibt es in verschiedenen Aus-
pragungen (kubisch, tetragonal, rhombisch, hexagonal, trigonal, monoklin, triklin, mit noch zusatz-
lichen Unterscheidungen, ob weitere Atome raumzentriert oder achenzentriert oder auf den Mittel-
punkten der Basisachen angebracht sind). Die Elemente der Symmetriegruppe dieses Gesamtgitters
bestehen aus allen Bewegungen, die das Gitter auf sich abbilden. Die Verkn upfung ist nat urlich die
Nacheinanderausf uhrung. Dazu zahlen alle Verschiebungen (sofern sie Gitterplatze aufeinander ab-
bilden) und ggf. noch diverse Spiegelungen an Symmetrieebenen oder einige Drehungen. Die das
Verhalten dieses Kristalls beschreibenden Dierentialgleichungen konnen sehr kompliziert sein, aber
wenn man die Symmetrien
orthogonal zueinander
18
.
Bei einem Spreizfaktor F gibt es genau F mogliche Spreizkodes, die paarweise aufeinander
orthogonal
stehen.
18
Zwei Spreizkodes a und
b aus {0, 1}
F
stehen
orthogonale Spreizkodes gibt mit der Lange F, braucht man ein neues
Verfahren, um Signale verschiedener Basisstationen voneinander abzugrenzen. Man nimmt dazu weitere
Kodes (scrambling codes), die
im wesentlichen orthogonal.
Das mit dem Spreizkode geXORte Signal wird jetzt mit dem passenden scrambling code ein weiteres Mal
geXORt. Anschlieend wird das Signal auf die Tragerfreqenz aufmoduliert und gesendet.
An der Empfangsantenne kommt dann ein Wellensalat an, aus dem durch XORen mit dem scrambling code
und Spreizkode das gew unschte Signal herausgeltert wird.
1.5 Der Raum und der R
3
1.5.1 Allgemeines
Die Begrie
Ortsvektor,
Kartesisches Koor-
dinatensystem denieren wir im Falle des dreidimensionalen Raumes analog wie im Falle der Ebene, blo
da jetzt noch eine weitere Dimension hinzukommt.
Die Menge der Ortsvektoren im dreidimensionalen Raum bildet, gemeinsam mit geometrisch denierter
Addition und Multiplikation, einen Vektorraum.
Denition 1.47. Der R
3
ist deniert als Menge geordneter Tripel reeller Zahlen:
R
3
=
_
_
_
_
_
3
_
_
:
i
R
_
_
_
.
Wir denieren 2 Operationen:
+ : R
3
R
3
R
3
,
_
_
3
_
_
+
_
_
3
_
_
:=
_
_
1
+
1
2
+
2
3
+
3
_
_
,
: R R
3
R
3
,
_
_
3
_
_
:=
_
_
3
_
_
Weiterhin schreiben wir 0 = (0, 0, 0)
, e
1
= (1, 0, 0)
, e
2
= (0, 1, 0)
, e
3
= (0, 0, 1)
.
Wir denieren das Skalarprodukt zweier Vektoren x und y als
x, y) =
1
1
+
2
2
+
3
3
,
und die Norm (den Betrag, die Lange) eines Vektors x R
3
als
[x[ :=
_
x, x).
Dann folgt schnell, da dieser R
3
mit diesen beiden Rechenoperationen einen Vektorraum bildet, und da
das Skalarprodukt die Eigenschaften aus Satz 1.26 besitzt. Dann gilt automatisch auch die Ungleichung
von CauchySchwarz, und die Betragsfunktion hat die Eigenschaften, die man von ihr erwartet.
1.5.2 Vektorprodukt und Spatprodukt
Der dreidimensionale Raum ist ein Sonderfall. Denn dort (und ausschlielich dort) konnen wir ein weiteres
Produkt von Vektoren denieren:
36 KAPITEL 1. GRUNDLAGEN
Denition 1.48 (Vektorprodukt oder Kreuzprodukt im R
3
). Seien x = (
1
,
2
,
3
)
und y =
(
1
,
2
,
3
)
2
_
_
.
Das sieht zunachst erst mal kompliziert aus; aber spater werden wir einfache geometrische Interpretationen
und schonere Formeln zur Berechnung nden.
Satz 1.49. Seien x, y, z, w R
3
und R. Dann gelten die folgenden Eigenschaften:
ist bilinear: Es ist (x) y = (x y) und (x + y) z = (x z) + (y z); analog fur den zweiten
Faktor.
ist antikommutativ: x y = y x
Entwicklungssatz: x (y z) = x, z) y x, y) z
ist nicht assoziativ: aber es gilt x (y z) +y (z x) +z (x y) =
0.
Identitat von Lagrange:
20
x y, z w) = x, z) y, w) x, w) y, z)
x y steht senkrecht auf x und y: x, x y) = y, x y) = 0.
Lange des Produktvektors: Wenn einen der beiden Winkel zwischen x und y bezeichnet, ist
[x y[
2
= [x[
2
[y[
2
x, y)
2
= [x[
2
[y[
2
sin
2
().
Multiplikationstafel: Wir haben folgende Tabelle:
e
1
e
2
e
3
e
1
0 e
3
e
2
e
2
e
3
0 e
1
e
3
e
2
e
1
0
(Erlauterung: e
1
e
2
= e
3
usw.)
Linear abhangige Vektoren: Es ist x y = 0 genau dann, wenn x und y linear abhangig sind.
Beweis. Die meisten Eigenschaften lassen sich simples Rechnen zeigen. Zum Beispiel ist
[x y[
2
= (
2
3
)
2
+ (
3
1
)
2
+ (
1
2
)
2
= (
2
3
)
2
+ (
2
3
)
2
+ (
3
1
)
2
+ (
3
1
)
2
+ (
1
2
)
2
+ (
1
2
)
2
2(
2
3
+
3
1
+
1
2
)
= (
2
1
+
2
2
+
2
3
)(
2
1
+
2
2
+
2
3
) (
1
1
+
2
2
+
3
3
)
2
= [x[
2
[y[
2
x, y)
2
= [x[
2
[y[
2
(1 (cos (x, y))
2
).
Daraus folgt sofort die letzte Eigenschaft: Denn wenn x y =
und b = (
1
,
2
,
3
)
gegeben, und x = (
1
,
2
,
3
)
3
_
_
= b = a x =
_
_
0
2
_
_
.
Wir bekommen
1
= 0 (was nichts anderes als a b bedeutet) sowie
2
=
3
und
3
=
2
. Und
oensichtlich konnen wir
1
nicht ermitteln. Es gibt mehrere Losungen: wenn x eine Losung ist, dann ist
auch x +a eine Losung, fur jedes R (naturlich nur wenn a b).
Es gibt keine Division als Umkehroperation des Kreuzproduktes.
Als Kombination von Skalarprodukt und Vektorprodukt bekommen wir (wie immer, nur im R
3
) das soge-
nannte Spatprodukt:
Denition 1.52 (Spatprodukt bzw. Determinante). Seien x, y, z R
3
. Dann heit der Wert
x, y z) Spatprodukt
21
oder Determinante
22
der Vektoren x, y, z. Eine andere Schreibweise ist det(x, y, z).
Der Namen ergibt sich daraus, da drei Vektoren im R
3
einen sogenannten Spat aufspannen; und das
Spatprodukt ist gerade das (orientierte) Volumen des Spats. Wenn die Vektoren x, y, z ein Rechtssystem
bilden, dann ist das Spatprodukt positiv, ansonsten negativ.
Seien nun x = (
1
,
2
,
3
)
, y = (
1
,
2
,
3
)
und z = (
1
,
2
,
3
)
3
+
1
3
+
1
3
,
die man sich wie folgt merken kann: Man schreibt die Vektoren x, y und z spaltenweise nebeneinander, und
anschlieend die Vektoren x und y noch einmal rechts daneben:
1
1
1
1
1
2
2
2
2
2
3
3
3
3
3
Anschlieend bildet man drei diagonale Produkte von links oben nach rechts unten; diese Produkte werden
positiv gezahlt. Und entsprechend bildet man drei diagonale Produkte von rechts oben nach links unten,
die negativ gezahlt werden.
Satz 1.53. Das Spatprodukt hat die folgenden Eigenschaften:
Es ist linear in jedem der drei Argumente (trilinear), das heit zum Beispiel fur das erste Argument
det(x +y, z, w) = det(x, z, w) + det(y, z, w), det(x, y, z) = det(x, y, z).
Wenn zwei der Vektoren x, y, z gleich sind, dann verschwindet das Spatprodukt: det(x, x, z) = 0 usw.
Fur die kanonischen Basisvektoren gilt det(e
1
, e
2
, e
3
) = 1.
21
parallelepipedial product, triple product
22
determinant
38 KAPITEL 1. GRUNDLAGEN
Beweis. Wir wissen von fr uher, da sowohl das Skalarprodukt als auch das Vektorprodukt bilinear sind.
Daraus ergibt sich sofort, da das Spatprodukt linear in jedem seiner Faktoren ist (Distributivgesetze).
Die zweite Aussage folgt daraus, da einerseits das Vektorprodukt senkrecht steht auf jedem seiner beiden
Faktoren, andererseits das Vektorprodukt zweier gleicher Vektoren gleich dem Nullvektor ist.
Und die dritte Aussage ergibt sich aus elementarem Rechnen.
Satz 1.54. Fur das Spatprodukt gelten die folgenden Rechenregeln:
Wenn man ein Vielfaches eines Vektors zu einem anderen Vektor addiert, bleibt das Spatprodukt
gleich: det(x +y, y, z) = det(x, y, z).
Wenn man zwei Vektoren im Spatprodukt tauscht, andert sich das Vorzeichen: det(y, x, z) =
det(x, y, z).
Die drei Vektoren im Spatprodukt konnen zyklisch getauscht werden: det(x, y, z) = det(y, z, x) =
det(z, x, y).
Beweis. Mit den Eigenschaften des vorigen Satzes haben wir
det(x +y, y, z) = det(x, y, z) + det(y, y, z) = det(x, y, z) +det(y, y, z) = det(x, y, z) + 0,
womit wir die zweite Aussage beweisen konnen:
det(y, x, z) = det(y, x +y, z) = det(y (x +y), x +y, z)
= det(x, x +y, z) = det(x, y, z) = det(x, y, z).
Und wenn wir dies zweimal anwenden, erhalten wir den dritten Teil:
det(x, y, z) = det(x, z, y) = +det(y, z, x).
Denition 1.55. Seien x
1
, x
2
, . . . , x
n
R
3
beliebige Vektoren.
Wenn es reelle Zahlen
1
, . . . ,
n
gibt, von denen wenigstens eine nicht 0 ist, soda
1
x
1
+ +
n
x
n
=
0
ist, dann heien die Vektoren x
1
, . . . , x
n
linear abhangig
23
.
Ansonsten (wenn es also nur eine einzige Moglichkeit gibt, den Nullvektor mit den Vektoren x
j
darzustellen:
namlich alle
j
gleich 0 zu wahlen) heien die Vektoren x
1
, . . . , x
n
linear unabhangig
24
.
Anders formuliert: Seien die Vektoren x
1
, . . . , x
n
linear unabhangig. Wenn dann eine Gleichung der Form
1
x
1
+ +
n
x
n
=
1
x
2
+ +
n
1
x
n
_
=
2
x
2
+ +
n
x
n
,
j
=
1
.
Wir konnen also (weil
1
,= 0 ist) x
1
als Linearkombination der anderen Vektoren schreiben. (Aber es kann
sein, da wir z.B. x
2
nicht mittels x
1
, x
3
, x
4
, . . . , x
n
darstellen konnen.)
Wenn eine Familie
25
von Vektoren linear abhangig ist, dann gibt es einen Vektor aus dieser Familie, den
man als Linearkombination der anderen ausdrucken kann.
Sobald eine Familie von Vektoren den Nullvektor enthalt, ist sie linear abhangig.
Satz 1.56. Seien x, y, z R
3
beliebige Vektoren.
23
linearly dependent
24
linearly independent
25
Wir reden von einer Familie von Vektoren, weil in einer Familie ein Vektor auch mehrfach vorkommen darf. Im Gegensatz
dazu darf eine Menge kein Element doppelt enthalten.
1.5. DER RAUM UND DER R
3
39
Folgende Aussagen sind aquivalent:
1. x y = 0,
2. x und y sind linear abhangig,
3. x und y sind parallel (oder antiparallel).
Folgende Aussagen sind aquivalent:
1. det(x, y, z) ,= 0,
2. x, y und z sind linear unabhangig,
3. jedes w R
3
kann auf eindeutige Weise geschrieben werden als w = x +y +z.
Je vier Vektoren im R
3
sind linear abhangig.
Beweisskizze. Der erste Teil wurde in Satz 1.49 bewiesen.
F ur den zweiten Teil beschranken wir uns auf einige anschauliche geometrische
Uberlegungen: Wenn die
Vektoren x, y, z linear unabhangig sind, dann liegen sie nicht in einer gemeinsamen Ebene. Also spannen
sie einen Spat auf, der ein Volumen hat, das nicht gleich 0 ist. Und umgekehrt, was die
Aquivalenz 1 2
zeigt. Wenn die Vektoren x, y, z linear unabhangig sind und w ein beliebiger Vektor, dann existiert genau ein
Spat, der die Strecke zwischen dem Ursprung 0 und w als Raumdiagonale hat und dessen Kanten parallel
zu den Vektoren x, y und z sind. Die Koordinaten , und kann man dann von den Kantenlangen
ablesen.
F ur den Beweis des dritten Teils fehlen uns im Moment die Mittel, soda wir ihn auf spater verschieben.
Denition 1.57. Wenn die Vektoren x
1
, x
2
, . . . , x
n
R
3
paarweise orthogonal aufeinander stehen,
x
i
, x
j
) = 0, i ,= j,
dann bilden diese Vektoren ein Orthogonalsystem
26
.
Wenn diese Vektoren auerdem noch jeweils die Lange 1 haben, also
x
i
, x
j
) =
ij
=
_
0 : i ,= j,
1 : i = j,
dann reden wir von einem Orthonormalsystem
27
. Der Ausdruck
ij
heit Kroneckersymbol (Leopold
Kronecker, 18231891).
Satz 1.58. Wenn die Vektoren x
1
, . . . , x
n
R
3
ein OGS bilden und jeweils nicht
0 sind, dann sind
sie linear unabhangig.
Wenn die Vektoren x
1
, x
2
, x
3
R
3
ein ONS bilden, dann ist ihre Determinante det(x
1
, x
2
, x
3
)
entweder +1 oder 1.
Beweis. Im Beweis des ersten Teils gehen wir indirekt vor: wir setzen voraus, da die Vektoren x
1
, . . . ,
x
n
jeweils nicht
0 sind, ein Orthogonalsystem bilden, aber linear abhangig sind. Dann konnen wir zumin-
dest einen Vektor als Linearkombination der anderen darstellen. Ohne Beschrankung der Allgemeinheit
(o.B.d.A.) sei dieser Vektor x
1
(ansonsten numerieren wir die Vektoren um). Dann ist also
x
1
=
2
x
2
+ +
n
x
n
.
Wir bilden das Skalarprodukt mit x
1
:
x
1
, x
1
) =
2
x
2
, x
1
) + +
n
x
n
, x
1
) .
Die linke Seite ist ungleich 0, denn x
1
,=
0).
Beweis. Man rechnet schnell nach, da det(e
1
, e
2
, e
3
) = 1 ist. Weiterhin ist
det(x, y, x y) = det(y, x y, x) = det(x y, x, y) = x y, x y) = [x y[
2
> 0.
Damit ist der Beweis von Satz 1.50 vervollstandigt.
Bemerkung 1.61. Ein anderer Zugang zum Kreuzprodukt fuhrt uber den LeviCivita
30
Tensor .
Dieser ist ein Tensor dritter Stufe (also ein wurfelformiges Zahlenschema, analog zu einer Matrix als
einem quadratischen Zahlenschema und einem Vektor als einem eindimensionalen Zahlenschema). Er ist
deniert als
jkl
=
_
_
1 : wenn (j, k, l) eine gerade Permutation von (1, 2, 3) ist,
1 : wenn (j, k, l) eine ungerade Permutation von (1, 2, 3) ist,
0 : sonst.
Dann ist a
b = ( a)
b. Hierbei ist das Produkt a (ergibt eine Matrix) deniert analog zum Produkt
von Matrix mal Vektor uber das Summieren benachbarter identischer Indizes:
( a)
jk
:=
3
l=1
jkl
a
l
.
1.5.3 Drehungen im R
3
Genauso wie im Falle des R
2
stellen wir uns folgende Frage:
Gegeben ist ein Vektor x R
3
und eine Drehachse durch den Ursprung. Wir wollen den Vektor x um diese
Achse drehen mit einem Drehwinkel . Wie konnen wir den Bildvektor x
bestimmen ?
Wir gehen in zwei Schritten vor: zuerst nehmen wir an, da die Drehachse mit derjenigen Koordinatenachse
ubereinstimmt, die durch den Basisvektor e
1
angegeben wird. In einem zweiten Schritt betrachten wir dann
den Fall einer allgemeinen Drehachse durch den Ursprung.
28
positively oriented
29
negatively oriented
30
Tullio LeviCivita (18731941)
1.5. DER RAUM UND DER R
3
41
Wir drehen also zunachst um die Achse entlang des Vektors e
1
mit dem Winkel . Es bietet sich an, den
Originalvektor x in zwei Teile zu zerlegen:
x =
1
e
1
+
2
e
2
+
3
e
3
= x
+x
,
wobei x
=
1
e
1
parallel zur Drehachse ist, und x
=
2
e
2
+
3
e
3
in einer Ebene lebt, die senkrecht auf der
Drehachse steht.
Nun uberlegt man sich leicht, da die Drehung eine lineare Abbildung beschreibt. Das heit: es ist egal,
ob man erst die beiden Teilvektoren x
und x
und x
und x
,
x
= x
+x
.
Nun konnen wir die Teilbildvektoren leicht berechnen: Es ist x
= x
3
_
=
_
cos sin
sin cos
__
3
_
.
Um die beiden Teilvektoren x
und x
3
_
_
=
_
_
a
11
1
+a
12
2
+a
13
3
a
21
1
+a
22
2
+a
23
3
a
31
1
+a
32
2
+a
33
3
_
_
=
1
_
_
a
11
a
21
a
31
_
_
+
2
_
_
a
12
a
22
a
32
_
_
+
3
_
_
a
13
a
23
a
33
_
_
,
mit der wir die Abbildungsgleichung schreiben konnen als
_
_
3
_
_
=
_
_
1 0 0
0 cos sin
0 sin cos
_
_
_
_
3
_
_
.
Damit wissen wir jetzt, wie wir einen Vektor um die erste Koordinatenachse drehen konnen.
Nun gehen wir uber zum zweiten Fall: die Drehachse r ist eine beliebige Gerade durch den Ursprung.
Wir brauchen daf ur ein neues Produkt, namlich
Matrix mal Matrix ergibt Matrix.
Wir uberlegen uns dazu, da man sich eine Matrix durch Nebeneinanderstellen von Spaltenvektoren vor-
stellen kann:
A =
_
_
a
1
a
2
a
3
_
_
, a
j
=
_
_
a
1j
a
2j
a
3j
_
_
, j = 1, 2, 3.
Wenn nun eine 3 3Matrix B entsteht aus 3 Spaltenvektoren b
1
, b
2
und b
3
, dann denieren wir
AB = A
_
_
b
1
b
2
b
3
_
_
=
_
_
Ab
1
Ab
2
Ab
3
_
_
.
Oder anders formuliert: Man nimmt eine Zeile von A und eine Spalte von B, bildet das Skalarprodukt
dieser beiden Vektoren, und das Ergebnis schreibt man dorthin, wo diese Zeile/Spalte sich kreuzen.
Auerdem benotigen wir noch den Begri der transponierten Matrix:
42 KAPITEL 1. GRUNDLAGEN
Denition 1.62. Sei A eine 3 3Matrix, und A
transponierte Matrix
31
zu A. Also:
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
, A
=
_
_
a
11
a
21
a
31
a
12
a
22
a
32
a
13
a
23
a
33
_
_
.
Satz 1.63. Seien A und B 3 3Matrizen. Dann ist
(AB)
= B
.
Beweis.
Ubungsaufgabe.
Man beachte die geanderte Reihenfolge der Faktoren !
Wenn die Spalten a
1
, a
2
, a
3
der Matrix A ein Orthonormalsystem bilden, dann ist A
A = I. Das bedeutet
zweierlei:
Die Matrix A ist invertierbar.
Die Inverse zu A ist in diesem Falle gleich A
.
Wie wir im Abschnitt uber Gruppentheorie gesehen haben, ist nicht blo A
A = I, sondern auch AA
= I.
Mit anderen Worten:
Wenn die Spalten von A ein Orthonormalsystem bilden, dann bilden die Zeilen von A ebenfalls ein Ortho-
normalsystem !
32
Nun sei ein Vektor x gegeben und eine Drehachse, die durch einen Vektor r
1
R
3
beschrieben wird. Wir
wollen x um die Achse durch r
1
mit einem Winkel drehen.
Wir konnen annehmen, da der Vektor r
1
die Lange 1 hat. Wir suchen uns zwei weitere Vektoren r
2
und r
3
,
die in der zu r
1
senkrechten Ebene liegen und gemeinsam mit r
1
ein ONS bilden (spater werden wir ein Ver-
fahren angeben, solche Vektoren r
2
, r
3
zu bestimmen (Orthogonalisierungsverfahren von GramSchmidt)).
Dabei ist zu beachten, da r
1
, r
2
und r
3
in dieser Reihenfolge ein Rechts-System bilden; anderenfalls mu
das Vorzeichen des Drehwinkels geandert werden. Diese 3 Spaltenvektoren stellen wir nebeneinander und
bekommen eine Matrix A:
A =
_
_
r
1
r
2
r
3
_
_
.
Wir konnen diese 3 Vektoren als Basis des R
3
ansehen und haben dann
x =
1
r
1
+
2
r
2
+
3
r
3
,
wobei die
j
zunachst unbekannt sind. Auerdem verf ugen wir uber die Darstellung
x =
1
e
1
+
2
e
2
+
3
e
3
,
wobei die Zahlen
j
gegeben sind, und die e
j
sind die kanonischen Basisvektoren: e
1
= (1, 0, 0)
usw.
Die Zahlen
j
konnen wir folgendermaen berechnen:
x, r
j
) =
1
r
1
+
2
r
2
+
3
r
3
, r
j
) =
j
r
j
, r
j
) =
j
[r
j
[
2
=
j
, j = 1, 2, 3,
denn die Vektoren r
1
, r
2
und r
3
bilden ein ONS. Etwas geschickter hingeschrieben, lauten diese Gleichungen:
_
_
3
_
_
=
_
_
r
1
r
2
r
3
_
_
_
_
x
_
_
,
31
transposed matrix
32
Wer nicht an die Kraft der Gruppentheorie (insbesondere Satz 1.43) glauben will, moge versuchen, dieses Ergebnis zu
Fu zu beweisen, d.h. zum Beispiel mit den Methoden der Vektorrechnung . . .
1.5. DER RAUM UND DER R
3
43
also
_
_
3
_
_
= A
x. (1.4)
Und im Koordinatensystem der Vektoren (r
1
, r
2
, r
3
) lat sich die Drehung einfach durchf uhren:
x
1
r
1
+
2
r
2
+
3
r
3
mit unbekannten Koordinaten
j
, die sich bestimmen gema
_
_
3
_
_
=
_
_
1 0 0
0 cos sin
0 sin cos
_
_
_
_
3
_
_
. (1.5)
Analog wie oben bekommen wir f ur die Koordinaten des Bildvektors
_
_
3
_
_
= A
. (1.6)
Jetzt setzen wir die Gleichungen (1.4), (1.5), (1.6) ineinander ein und benutzen dabei AA
= I:
x
= AA
= A
_
_
3
_
_
= A
_
_
1 0 0
0 cos sin
0 sin cos
_
_
_
_
3
_
_
= A
_
_
1 0 0
0 cos sin
0 sin cos
_
_
A
x.
Damit haben wir die Drehmatrix bestimmt:
Satz 1.64. Die Drehung um eine Drehachse durch den Vektor r
1
mit dem Winkel wird beschrieben durch
eine Drehmatrix R(r
1
, ), die gegeben wird durch das Produkt
R(r
1
, ) = A
_
_
1 0 0
0 cos sin
0 sin cos
_
_
A
.
Hierbei ist A eine 33Matrix, deren Spalten ein ONS bilden, und die erste Spalte ist gleich dem Vektor r
1
(ggf. normiert auf Lange 1). Die beiden weiteren Spalten r
2
und r
3
von A sind beliebig wahlbar, solange sie
gemeinsam mit der ersten Spalte ein ONS bilden. Es ergibt sich bei anderer Wahl dieser Spalten jedesmal
dieselbe Matrix R(r
1
, ).
Es ist am besten, dieses Dreierprodukt von Matrizen stehenzulassen und nicht auszumultiplizieren.
Satz 1.65. Die Spalten von R bilden ein Orthonormalsystem.
Beweis. Wir m ussen nur nachpr ufen, da R
R = (AR
0
A
(AR
0
A
) = ((A
0
A
)(AR
0
A
)
= AR
0
(A
A)R
0
A
= AR
0
R
0
A
= A(R
0
R
0
)A
= AA
= I.
44 KAPITEL 1. GRUNDLAGEN
Solche Matrizen tauchen in der Mathematik und Physik so haug auf, da sie eines eigenen Namens w urdig
sind:
Denition 1.66. Eine Matrix A mit A
aume
2.1 Allgemeine Eigenschaften
Wir haben bisher 4 Vektorraume naher untersucht: den geometrisch denierten Raum der Ortsvektoren
in der Ebene, den R
2
, den dreidimensionalen Raum der Ortsvektoren und den R
3
. Diese Raume waren
geometrisch bzw. analytisch deniert. Es gibt noch viele andere wichtige Vektorraume. Da wir aber nicht
jeden einzeln behandeln konnen, untersuchen wir in diesem Kapitel Eigenschaften, die jeder Vektorraum
besitzt.
Sei K ab jetzt ein Korper. In praktisch samtlichen Fallen ist K = R oder K = C.
Denition 2.1. Wir sagen, da V einen Vektorraum uber K bildet, wenn zwei Operationen
+ : V V V,
: K V V
gegeben sind mit folgenden Eigenschaften:
(V, +) ist eine abelsche Gruppe mit neutralem Element 0 =
0 V,
Wir haben die beiden Distributivgesetze ( + ) u = u + u und (u + v) = u + v, fur
, K und u, v V,
Es gilt das
Assoziativgesetz be-
zeichnen zwei verschiedene Multiplikationen: einerseits die Multiplikation zweier Zahlen (Korperelemente),
andererseits die Multiplikation einer Zahl mit einem Vektor (und das spater betrachtete Skalarprodukt
zweier Vektoren wird ein dritter Typ von Multiplikation sein). Deshalb die
.
Entsprechend bezeichnet auch das Pluszeichen zwei verschiedene Additionen: von Korperelementen (also
Zahlen) bzw. Vektoren.
Auerdem sei darauf hingewiesen, da auch das Wort
AUME
C
n
als Vektorraum uber C,
C
n
als Vektorraum uber R,
M
nm
(R) der Vektorraum der Matrizen des Formats n m mit reellen Eintragen (uber dem
Korper R),
R[X] der Raum der Polynome in der Variablen X mit Koezienten aus R,
C([a, b] R) der Raum der auf dem Intervall [a, b] stetigen und reellwertigen Funktionen,
C
k
([a, b] R) der Raum der auf dem Intervall [a, b] kmal stetig dierenzierbaren reellwertigen
Funktionen.
Hierbei denieren wir die Addition zweier Funktionen auf naheliegende Weise: seien f und g zwei Funk-
tionen, dann wird die Summe (f + g) = (f + g)(x) deniert als f(x) + g(x). Analog deniert man die
Vervielfachung einer Funktion gema (f) = (f)(x) = (f(x)). Der
0,
2.
0 =
0,
3. (1) u = u.
Hierbei bezeichnet (u) denjenigen Vektor aus V , der zu u addiert den Nullvektor ergibt: (u) +u =
0.
Beweis. Wie benutzen nichts weiter als die Eigenschaften aus Denition 2.1:
1. Es ist u = 1 u = (1 + 0) u = 1 u + 0 u = u + 0 u. Weil (V, +) eine additive Gruppe ist und
in additiven Gruppen subtrahiert werden darf, mu 0 u gleich dem neutralen Element der Addition
sein, also gleich dem Nullvektor.
2. Nach demselben Muster wie eben ist u = (u +
0) = u +
0, und
0 mu gleich dem
Nullvektor sein.
3. Wir benutzen das erste Ergebnis:
1
, . . . ,
n
K Zahlen. Dann heit der Vektor
1
u
1
+ +
n
u
n
V
Linearkombination
1
der Vektoren u
1
,. . . ,u
n
. Wenn wir die u
j
festhalten und die
j
durch ganz K laufen
lassen, erhalten wir den Span der Vektoren u
1
, . . . , u
n
:
span(u
1
, . . . , u
n
) :=
_
_
_
n
j=1
j
u
j
:
1
, . . . ,
n
K
_
_
_
.
1
linear combination
2.2. LINEARKOMBINATIONEN, ERZEUGENDENSYSTEME USW. 47
Diese Menge wird auch der von den u
j
aufgespannte Unterraum oder lineare H ulle
2
der u
j
genannt. Wir
sagen auch, da die Vektoren u
1
, . . . , u
n
die Menge span(u
1
, . . . , u
n
) erzeugen. Diese Vektoren bilden ein
sogenanntes Erzeugendensystem.
Als Sonderfall legen wir fest, da die leere Menge denjenigen Raum aufspannt, der nur aus dem Nullvektor
besteht:
span() :=
0.
Sei U V eine Menge unendlich vieler Vektoren aus V . Dann denieren wir span(U) als
span(U) = alle Linearkombinationen aus endlich vielen Elementen aus U .
Man beachte, da U auch uberabzahlbar viele Elemente enthalten darf.
Sei V ein Vektorraum. Wenn es endlich viele Elemente u
1
, . . . , u
n
V gibt mit V = span(u
1
, . . . , u
n
),
dann heit V endlich erzeugt.
Denition 2.5 (Unterraum). Sei V ein Vektorraum uber dem Korper K, und sei U eine Teilmenge von
V . Wenn U den Nullvektor von V enthalt und wenn U gemeinsam mit den von V auf U eingeschrankten
3
Operationen
+ und
wieder einen Vektorraum uber dem Korper K bildet, dann heit U Untervektor-
raum von V
4
. Man sagt auch Unterraum.
Wenn jetzt eine solche Teilmenge U V gegeben ist und wir wissen wollen, ob ein Unterraum vorliegt,
dann sind samtliche Eigenschaften aus Denition 2.1 nachzupr ufen. Zum Gl uck lat sich diese Rechnerei
abk urzen, denn wir haben den folgenden Satz:
Satz 2.6 (Untervektorraumkriterium). Sei V ein Vektorraum uber dem Korper K und U V mit
folgenden Eigenschaften:
1. U enthalt wenigstens ein Element,
2. wenn u U und v U, dann ist auch u +v U,
3. wenn u U und K, dann ist auch u U.
Dann ist U ein Unterraum von V .
Wir sagen auch, da U abgeschlossen unter den Operationen + und ist.
Beweis. Zunachst ist zu pr ufen, ob f ur die Operationen + und die Denitionsbereiche und Wertebereiche
passen: weil V ein Vektorraum ist, haben wir + und als Abbildungen +: V V V und : KV V .
Wenn wir diese Operationen einschranken, bekommen wir +: U U V und : K U V . Die
Voraussetzungen 2. und 3. besagen gerade, da sogar +: U U U und : K U U gelten.
Die ublichen Gesetze (Kommutativitat, Assoziativitat und Distributivitat) vererben sich von V auf U. Es
gilt auch 1 u = u f ur jedes u U, weil diese Beziehung sogar f ur jedes u V gilt, und U V .
Wir m ussen jetzt blo noch zeigen, da wir auch in U ein neutrales Element zur Addition haben, und da
es in U zu jedem Element auch ein additiv inverses Element gibt. Nach Voraussetzung hat U wenigstens
ein Element, nennen wir es u
= 0
V
, also ist 0
V
ein Element von U.
Sei nun u U gegeben und ein additiv inverses Element dazu in U gesucht. Dieses ist u V , aber nach
Satz 2.3 ist u = (1) u, was jedoch nach Voraussetzung 3. ein Element von U ist und nicht blo ein
Element von V .
Frage: Seien x
1
, x
2
R
3
beliebige Vektoren. Ist dann span(x
1
, x
2
) eine Ebene im R
3
durch den Ursprung ?
Satz 2.7. Sei V ein Vektorraum, u
1
, . . . , u
n
V , und sei U = span(u
1
, . . . , u
n
). Dann haben wir folgende
Regeln:
2
linear hull, span
3
im Sinne eines verkleinerten Denitionsbereiches
4
linear subspace of V
48 KAPITEL 2. VEKTORR
AUME
1. U ist ein Untervektorraum von V .
2. Wenn u V ein weiterer Vektor ist, dann ist U span(u
1
, . . . , u
n
, u).
3. Wenn u sogar in U liegt, dann ist U = span(u
1
, . . . , u
n
, u).
Beweis. 1. Man benutze das Untervektorraumkriterium.
2. Fast trivial: wenn man einen weiteren Vektor (namlich u) beim Bilden von Linearkombinationen
erlaubt, dann kann man mindestens die gleichen Vektoren erzeugen wie zuvor (indem man z.B. diesen
Vektor u mit dem Koezienten 0 K wichtet).
3. Wenn u span(u
1
, . . . , u
n
), dann haben wir Koezienten
j
K mit u =
n
j=1
j
u
j
. Dann konnen
wir jede Linearkombination von u
1
, . . . , u
n
, u als Linearkombination von u
1
, . . . , u
n
schreiben:
1
u
1
+ +
n
u
n
+u = (
1
+
1
)u
1
+ + (
n
+
n
)u
n
.
Das beweist span(u
1
, . . . , u
n
, u) span(u
1
, . . . , u
n
) = U. Andererseits haben wir aus 2., da
span(u
1
, . . . , u
n
, u) span(u
1
, . . . , u
n
) = U. Damit ist der Beweis beendet.
2.2.2 Lineare Unabhangigkeit und Basen
Denition 2.8 (Linear abhangig, linear unabhangig, frei, Basis). Sei V ein Vektorraum uber K,
und sei (u
1
, . . . , u
n
) eine Familie von Vektoren aus V .
1. Die Familie (u
1
, . . . , u
n
) heit linear abhangig
5
, wenn es Zahlen
1
, . . . ,
n
K gibt, von denen
wenigstens eine nicht 0 ist, mit
1
u
1
+ +
n
u
n
=
0.
2. Wenn die Familie (u
1
, . . . , u
n
) nicht linear abhangig ist, dann heit sie linear unabhangig
6
oder frei.
Das heit, die einzige Moglichkeit, Zahlen
1
, . . . ,
n
K zu wahlen, soda
1
u
1
+ +
n
u
n
=
0,
ist
1
= =
n
= 0.
3. Sei U eine Familie von unendlich vielen Vektoren aus V . Diese Familie heit linear unabhangig, wenn
jede endliche Teilmenge von U linear unabhangig ist. Wenn U nicht linear unabhangig ist, dann heit
U linear abhangig.
4. Sei U eine Familie von Vektoren aus V (endlich viele oder unendlich viele). Wenn U ein Erzeugen-
densystem von V ist und linear unabhangig ist, dann heit U Basis
7
von V .
Bemerkung 2.9. Wir vermerken zwei Spezialfalle:
Die Familie (
0), die nur den Nullvektor aus V enthalt, ist linear abhangig.
Die leere Familie, die nichts enthalt (nicht einmal den Nullvektor), ist linear unabhangig und spannt
den Nullvektorraum
=:
Sei (u
1
, . . . , u
n
) eine Basis, und sei u V ein beliebiger Vektor. Wegen der ersten Merkregel konnen wir
den Vektor u auf mindestens eine Weise als Linearkombination der u
j
darstellen:
u =
1
u
1
+ +
n
u
n
.
Wir m ussen noch zeigen, da dies die einzige Moglichkeit ist. Sei also auerdem noch u =
1
u
1
+ +
n
u
n
.
Wenn wir beide Darstellungen abziehen, bekommen wir
0 = (
1
1
)u
1
+ + (
n
n
)u
n
.
Weil nun allerdings die Vektoren u
1
, . . . , u
n
eine linear unabhangige Familie bilden, lat sich der Nullvektor
nur darstellen, wenn (
j
j
) = 0 ist f ur jedes j. Es ist also
j
=
j
.
=:
Wenn jeder Vektor genau eine Darstellung hat, dann hat er mindestens eine Darstellung. Wegen der ersten
Merkregel ist dann die Familie (u
1
, . . . , u
n
) also ein Erzeugendensystem. Und wegen der zweiten Merkregel
bilden die u
j
eine linear unabhangige Familie, und somit auch eine Basis.
Dieser Satz gilt auch dann, wenn diese Basis unendlich viele Elemente enthalten sollte; und auch der Beweis
ist im wesentlichen unverandert.
Lemma 2.11. Seien u
1
, . . . , u
n
V linear unabhangig, und sei v , span(u
1
, . . . , u
n
). Dann ist auch
(u
1
, . . . , u
n
, v) eine linear unabhangige Familie.
Frage: Was bedeutet dies geometrisch ?
Beweis. Um die lineare Unabhangigkeit zu zeigen, setzen wir
1
u
1
+ +
n
u
n
+v = 0
und m uten als nachstes zeigen, da
1
= =
n
= = 0 gilt.
Angenommen, ,= 0. Dann hatten wir
v =
_
_
u
1
+ +
_
_
u
n
,
also v span(u
1
, . . . , u
n
). Wir hatten aber gerade das Gegenteil vorausgesetzt. Also mu = 0 sein. Damit
bekommen wir
1
u
1
+ +
n
u
n
= 0. Weil die Vektoren u
j
aber eine linear unabhangige Familie bilden,
m ussen die
j
samtlich gleich Null sein.
Satz 2.12 (Basiserganzungssatz). Sei (v
1
, . . . , v
n
) ein Erzeugendensystem des Vektorraumes V , und sei
(u
1
, . . . , u
m
) eine linear unabhangige Familie in V .
Dann kann man die Familie (u
1
, . . . , u
m
) mit passend gewahlten Vektoren v
j
zu einer Basis von V
erganzen. Insbesondere existiert ein Index p N, soda (bei geschickter Numerierung der v
j
) die Familie
(u
1
, . . . , u
m
, v
p+1
, . . . , v
n
) eine Basis von V ist.
Beweis. Wenn die Familie (u
1
, . . . , u
m
) schon den Vektorraum V aufspannt, dann sind wir fertig. Wir
brauchen nichts erganzen und setzen p = n. Anderenfalls existiert ein Vektor v V , der nicht durch die
u
j
dargestellt werden kann. Dann mu ein v
k
aus dem Erzeugendensystem existieren, das nicht durch die
u
j
dargestellt werden kann (Begr undung bitte selbst nden). Mit diesem v
k
benutzen wir Lemma 2.11 und
erhalten eine linear unabhangige Familie (u
1
, . . . , u
m
, v
k
). Wir numerieren die v
j
so um, da v
k
jetzt v
n
heit. Mit dieser neuen Familie beginnen wir wieder von vorn. Nach n Schritten ist das Erzeugendensystem
(v
1
, . . . , v
n
) in die linear unabhangige Familie der u
j
eingef ugt worden, und der Beweis ist spatestens dann
fertig.
Eine Familie (u
1
) ist linear unabhangig, wenn u
1
,= 0. Auf diesem Wege erhalten wir:
50 KAPITEL 2. VEKTORR
AUME
Satz 2.13 (BasisSatz). Jeder endlich erzeugte Vektorraum besitzt eine Basis.
Die Voraussetzung
endlich erzeugt ist ubrigens nicht notig: Jeder Vektorraum hat eine Basis. Auf einen
Beweis m ussen wir verzichten, da die erforderlichen Hilfsmittel aus der Mengenlehre hier nicht bereitgestellt
werden konnen.
Weiterhin gilt:
Satz 2.14. Jedes Erzeugendensystem enthalt eine Basis.
Beweis. Man wende den Basiserganzungssatz geschickt an.
Frage: Im R
1077
seien drei linear unabhangige Vektoren gegeben. Man entscheide, ob diese drei Vektoren
den R
3
aufspannen.
2.2.3 Dimension eines Vektorraumes
Frage: Man gebe jeweils mehrere Basen an f ur
R
3
,
C
3
als Vektorraum uber C,
C
3
als Vektorraum uber R,
R[X].
Wir haben also f ur einen Vektorraum verschiedene Basen gefunden, die gleichviel Vektoren enthalten. Es
stellt sich die Frage, ob dies immer so ist. Denn nur wenn jede Basis eines Vektorraums gleichviel Elemente
enthalt, hat es uberhaupt Sinn, von einer Dimension (als Anzahl der Basisvektoren) zu reden.
Der Beweis dieser Aussage verteilt sich uber mehrere Satze und Lemmata. Wir beginnen:
Lemma 2.15 (Austauschlemma). Sei (v
1
, . . . , v
n
) eine Basis fur V , und sei u ein Vektor mit der
Darstellung u =
1
v
1
+ +
n
v
n
. Wenn fur ein k der Koezient
k
,= 0 ist, dann konnen wir den
Basisvektor v
k
gegen u austauschen und erhalten wieder eine Basis (v
1
, . . . , v
k1
, u, v
k+1
, . . . , v
n
).
Es gibt immer ein solches k, 1 k n, mit
k
,= 0; es sei denn u ist der Nullvektor.
Beweis. Wir konnen annehmen, da die Basisvektoren so numeriert sind, da k = 1. Zu zeigen sind zwei
Dinge:
(u, v
2
, . . . , v
n
) erzeugt V : Wir haben u =
1
v
1
+ +
n
v
n
mit
1
,= 0, also
v
1
=
1
1
u +
_
1
_
v
2
+ +
_
1
_
v
n
span(u, v
2
, . . . , v
n
).
Nun benutzen wir Satz 2.7 mehrfach:
V span(u, v
2
, . . . , v
n
) = span(u, v
1
, v
2
, . . . , v
n
) span(v
1
, v
2
, . . . , v
n
) = V.
Nach dem Sandwichprinzip ist dann V = span(u, v
2
, . . . , v
n
).
(u, v
2
, . . . , v
n
) ist linear unabhangig: Wegen
1
,= 0 ist u , span(v
2
, . . . , v
n
) (Begr undung bitte selbst
suchen !). Nun brauchen wir blo Lemma 2.11 anwenden, und der Beweis ist komplett.
Als nachsten Schritt auf dem Weg zur Denition der Dimension wollen wir nicht nur einen Vektor austau-
schen, sondern mehrere:
Satz 2.16 (Austauschsatz von Steinitz (Ernst Steinitz, 18711928)). Sei (v
1
, . . . , v
n
) eine Basis,
und sei (u
1
, . . . , u
k
) eine linear unabhangige Familie von V . Dann gilt:
2.2. LINEARKOMBINATIONEN, ERZEUGENDENSYSTEME USW. 51
k n,
bei geeigneter Numerierung der v
j
ist (u
1
, . . . , u
k
, v
k+1
, . . . , v
n
) eine Basis von V .
Wir entfernen also aus der Familie der v
j
k Elemente und f ugen stattdessen die u
j
ein. F ur k = 1 erhalten
wir gerade das Austauschlemma.
Beweis. Wir f uhren den Beweis mittels vollstandiger Induktion
8
uber k.
F ur den Induktionsanfang sei k = 0. Dann gibt es die Familie der u
j
gar nicht, und es ist auch nichts
auszutauschen.
Sei nun k > 0. Wir setzen voraus, da der Austauschsatz von Steinitz f ur k 1 schon bewiesen ist, und
jetzt wollen wir ihn f ur k zeigen. Wir wissen damit, da
k 1 n,
und da bei geeigneter Numerierung der v
j
die Familie (u
1
, . . . , u
k1
, v
k
, . . . , v
n
) eine Basis von V ist.
Wir zeigen als erstes, da k 1 = n nicht sein kann. Denn dann gabe es in der Familie
(u
1
, . . . , u
k1
, v
k
, . . . , v
n
) die vVektoren gar nicht, und die Vektoren (u
1
, . . . , u
k1
) w urden eine Basis
von V bilden. Dann konnte man u
k
als Linearkombination der Vektoren u
1
, . . . , u
k1
schreiben. Wir hatten
aber vorausgesetzt, da die Familie (u
1
, . . . , u
k
) linear unabhangig ist. Das ist ein Widerspruch, also ist
k 1 ,= n. Zusammen mit k 1 n ergibt das k n.
Um den zweiten zu beweisen, stellen wir u
k
in der neuen Basis dar:
u
k
=
1
u
1
+ +
k1
u
k1
+
k
v
k
+ +
n
v
n
.
Wenn jedes
j
= 0 ware, dann hatten wir u
k
als Linearkombination von u
1
, . . . , u
k1
dargestellt, was
nicht moglich ist, wie wir eben sahen. Also mu mindestens ein
j
,= 0 sein. Wir numerieren die v
i
so um, da
k
,= 0 ist (wir tauschen also j und k). Dann gibt uns das Austauschlemma die Moglich-
keit, in der Basis (u
1
, . . . , u
k1
, v
k
, . . . , v
n
) den Vektor v
k
gegen u
k
auszutauschen, was beweist, da
(u
1
, . . . , u
k1
, u
k
, v
k+1
, . . . , v
n
) eine Basis ist.
Nach dem Prinzip der vollstandigen Induktion ist somit der Beweis vollendet.
Daraus folgt fast sofort, da die Basen eines Vektorraumes gleichlang sind:
Satz 2.17. 1. Jeder endlich erzeugte Vektorraum hat eine Basis endlicher Lange.
2. Wenn ein Vektorraum eine endliche Basis besitzt, dann hat jede Basis dieses Vektorraumes dieselbe
Lange.
3. Wenn ein Vektorraum zu jedem n N eine linear unabhangige Familie mit n Elementen besitzt, dann
hat dieser Vektorraum keine endliche Basis.
Beweis. 1. Folgt aus dem Basissatz.
2. Seien (u
1
, . . . , u
k
) und (v
1
, . . . , v
n
) zwei Basen eines Vektorraumes V . Aus dem Austauschsatz von
Steinitz folgt dann k n. Wenn wir die Rollen der u
j
und v
i
vertauschen und den Satz von Steinitz
ein weiteres Mal anwenden, erhalten wir n k. Das ergibt k = n.
3. Folgt ebenfalls aus dem Satz von Steinitz.
8
Die vollstandige Induktion ist ein Beweisverfahren der Mathematik.
Das Ziel ist stets eine Aussage A(k) (zum Beispiel 1 + 2 + 3 + + k =
1
2
k(k + 1)), die f ur jedes k N bewiesen werden
soll. Der Weg zum Beweis f uhrt uber die Methode der vollstandigen Induktion, die aus zwei Schritten besteht.
In einem ersten Schritt (Induktionsanfang) beweist man die Aussage A(k) f ur k = 1: 1 =
1
2
1(1 + 1), was oensichtlich
stimmt.
Im zweiten Schritt (Induktionsschritt) zeigt man: Wenn A(k) wahr ist (Induktionsvoraussetzung), dann ist auch A(k + 1)
wahr (Induktionsbehauptung). Beim Beweis der I.B. darf dabei die I.V. benutzt werden. In unserem Beispiel setzen wir
1 + 2 + + k =
1
2
k(k + 1) voraus, und wollen 1 + 2 + + k + (k + 1) =
1
2
(k + 1)(k + 1 + 1) zeigen. Dies ist aber recht
einfach: 1 + 2 + +k + (k + 1) =
1
2
k(k + 1) + (k + 1) =
1
2
(k(k + 1) + 2(k + 1)) =
1
2
(k + 1)(k + 2).
Damit ist die Aussage A(k) f ur jedes k N bewiesen.
Ubrigens mu man den Induktionsanfang nicht unbedingt bei k = 1
wahlen.
52 KAPITEL 2. VEKTORR
AUME
Denition 2.18 (Dimension). Fur einen Vektorraum V denieren wir seine Dimension
9
als
dimV =
_
_
0 : V =
0,
n : V hat eine Basis (u
1
, . . . , u
n
),
: V enthalt beliebig groe linear unabhangige Familien.
Den folgenden Satz sollten Sie mittels Austauschsatz und Basiserganzungssatz beweisen:
Satz 2.19. Sei U Unterraum eines ndimensionalen Vektorraumes V .
1. Dann ist U endlich erzeugt und hat eine Dimension n.
2. Jede Basis (u
1
, . . . , u
m
) von U kann zu einer Basis (u
1
, . . . , u
m
, u
m+1
, . . . , u
n
) von V erganzt werden.
Beweis.
Ubungsaufgabe.
Wir brauchen noch einige Operationen mit Unterraumen.
Seien U und V Unterraume eines Vektorraumes W, so denieren wir
U V als Schnittmenge von U und V ,
U +V := w = u +v: u U, v V .
Dies sind wieder Unterraume von W, genannt
Durchschnitt und
Summe.
Frage: Wie kann man U +V beschreiben mithilfe von Basen f ur U und f ur V ?
Frage: Seien A und B Mengen mit jeweils endlich vielen Elementen (a und b St uck). Wieviele Elemente
hat A B ?
Satz 2.20 (Dimensionsformel). Seien U und V Untervektorraume eines endlichdimensionalen Raumes
W, dann gilt
dimU + dimV = dim(U V ) + dim(U +V ).
Beweis. Sei dimU = k, dimV = m, dim(U V ) = r. Dann m uten wir zeigen, da dim(U +V ) = k+mr.
Wir starten von einer Basis (d
1
, . . . , d
r
) von U V . Gema Satz 2.19 konnen wir diese Basis erganzen zu
einer Basis von U,
(d
1
, . . . , d
r
, u
r+1
, . . . , u
k
),
und zu einer Basis von V ,
(d
1
, . . . , d
r
, v
r+1
, . . . , v
m
).
Denn U V ist Unterraum von U, und Unterraum von V .
Wenn wir diese beiden Basen zusammenf ugen, erhalten wir die Familie von k +mr Vektoren
B = (d
1
, . . . , d
r
, u
r+1
, . . . , u
k
, v
r+1
, . . . , v
m
).
Es ist klar, da die Familie B die Summe U +V erzeugt.
Zu zeigen bleibt noch, da die Familie B linear unabhangig ist. Wenn wir das gezeigt hatten, dann ware B
eine Basis von U +V , und die Dimensionsformel ware bewiesen.
Sei nun also
r
j=1
j
d
j
+
k
j=r+1
j
u
j
+
m
j=r+1
j
v
j
=
0, (2.1)
und zu zeigen ist
j
= 0,
j
= 0,
j
= 0 f ur jedes j.
9
dimension
2.3. VEKTORR
j=r+1
(
j
u
j
) =
r
j=1
j
d
j
+
m
j=r+1
j
v
j
.
Die linke Summe enthalt nur Summanden aus U, also ist u U. Andererseits enthalten die rechten Summen
nur Summanden aus V , also ist u V , und somit mu u UV sein. Weil UV als Basis gerade (d
1
, . . . , d
r
)
hat, haben wir eine Darstellung
u =
r
j=1
j
d
j
.
Dieser Vektor gehort zu U V , insbesondere also zu V . F ur den Vektor u im Raum V haben wir also zwei
Darstellungen: einmal
j
j
d
j
, andererseits
j
j
d
j
+
j
j
v
j
. Gema Satz 2.10 darf es aber nur eine
solche Darstellung geben. Also mu zwangslaug
j
=
j
sein und
j
= 0 f ur jedes j. Mit
j
= 0 gehen wir
in (2.1) und erhalten
r
j=1
j
d
j
+
k
j=r+1
j
u
j
=
0.
Nun ist aber die Familie (d
1
, . . . , d
r
, u
r+1
, . . . , u
k
) eine Basis f ur U, weshalb die
j
= 0 und
j
= 0 sein
m ussen.
Damit ist bewiesen, da B eine linear unabhangige Familie ist.
Von besonderer Bedeutung ist der Fall, da U V = 0 ist. In diesem Fall kann man jeden Vektor
w U + V auf genau eine einzige Weise als Summe w = u + v mit u U und v V schreiben, was die
folgende Denition motiviert:
Denition 2.21. Seien U
1
, . . . , U
k
Untervektorraume eines Vektorraumes W mit der Eigenschaft, da
jedes Element w W auf genau eine Weise
w = u
1
+ +u
k
, u
i
U
i
, i,
dargestellt werden kann. Dann heit W die direkte Summe
10
der U
i
, und man schreibt
W = U
1
U
k
=
k
j=1
U
j
.
2.3 Vektorraume mit Skalarprodukt
Literatur: Greiner: Quantenmechanik. Einfuhrung. Kapitel XVII: Das formale Schema der Quantenme-
chanik.
2.3.1 Skalarprodukte, Normen, Orthogonalsysteme
Denition 2.22. Sei V ein Vektorraum uber K, wobei K = R oder K = C. Eine Abbildung , ) : V V
K heit Skalarprodukt, wenn die folgenden Eigenschaften gelten fur alle u, v, w V und alle K:
u, v) = v, u) (hermitesch
11
),
u, v +w) = u, v) +u, w),
u, v) = u, v),
u, u) 0, und u, u) = 0 genau dann wenn u = 0.
10
direct sum
11
Charles Hermite, 18221901
54 KAPITEL 2. VEKTORR
AUME
F ur K = R erhalten wir genau die Eigenschaften aus Satz 1.26.
Aus der ersten Bedingung folgt u, u) R f ur jedes u U, auch wenn K = C sein sollte. Deshalb ist die
vierte Bedingung sinnvoll.
Man beachte, da ein Skalar im zweiten Faktor nur in konjugierter Form herausgezogen werden kann:
u, v) = u, v) .
Standardbeispiele sind f ur die Falle von V = R
n
bzw. V = C
n
x, y) =
n
j=1
j
bzw. x, y) =
n
j=1
j
,
es gibt aber noch viele weitere Vektorraume und zugehorige Skalarprodukte.
Frage: Welchen Nutzen bringt uns der Konjugationsstrich uber dem zweiten Faktor
j
?
Denition 2.23. Ein Vektorraum uber R bzw. C mit Skalarprodukt heit euklidischer
12
Vektorraum
13
bzw. unitarer Vektorraum
14
.
Weil u, u) reell und nichtnegativ ist, konnen wir die Wurzel ziehen:
Denition 2.24. Sei V ein Vektorraum mit Skalarprodukt , ). Die Abbildung
[ [ : V R,
[ [ : u [u[ :=
_
u, u)
heit Norm von u. Manchmal schreibt man auch |u| oder |u|
V
anstelle von [u[.
Eine weitere Beziehung zwischen Norm und Skalarprodukt wird gegeben durch die Ungleichung von
CauchySchwarz:
Satz 2.25. Sei V ein unitarer oder euklidischer Vektorraum. Dann gilt fur alle u, v V die Ungleichung
[ u, v) [ [u[ [v[.
Der Beweis verlauft im Prinzip genauso wie im ersten Kapitel, lediglich im Falle eines unitaren Vektorraumes
sind einige kleinere
Anderungen erforderlich.
F ur euklidische und unitare Vektorraume gilt die Parallelogrammgleichung:
[u +v[
2
+[u v[
2
= 2([u[
2
+[v[
2
).
Satz 2.26. Die Normfunktion hat folgende Eigenschaften, fur alle u, v V und alle K:
1. Es ist [u[ 0, und [u[ = 0 genau dann wenn u = 0.
2. Es ist [u[ = [[ [u[.
3. Die Dreiecksungleichung
15
gilt: [u +v[ [u[ +[v[.
Beweis. 1. Folgt aus der vierten Eigenschaft des Skalarprodukts.
2. Folgt aus [u[ =
_
u, u) =
_
u, u) =
_
u, u) =
_
[[
2
u, u) = [[ [u[.
3. Ergibt sich aus der Ungleichung von CauchySchwarz auf demselben Wege wie im ersten Kapitel.
Denition 2.27. Sei V ein reeller oder komplexer Vektorraum (nicht notwendig euklidisch oder unitar),
und sei [ [ : V R eine Abbildung, die den Bedingungen aus Satz 2.26 genugt. Dann heit [ [ eine Norm
auf V , und das Paar (V, [ [) heit normierter Raum
16
.
12
Euklid von Alexandria, 3. Jh. v. Chr.
13
euclidean (vector) space
14
unitary space
15
triangle inequality
16
normed space
2.3. VEKTORR
j=1
[
j
[, [x[ := max
j=1,...,n
[
j
[, wenn x = (
1
, . . . ,
n
) R
n
.
Frage: Wie sehen die
:= v V : v, u) = 0 u U
orthogonales Komplement von U.
5. Fur zwei Untervektorraume U
1
und U
2
von V bedeutet die Schreibweise U
1
U
2
, da jeder Vektor
aus U
1
auf jedem Vektor aus U
2
senkrecht steht.
Wegen U U
j=1
u, u
j
) u
j
,
und fur die Norm haben wir die Formel
[u[
2
=
n
j=1
[ u, u
j
) [
2
.
Beweis. Wegen u span(u
1
, . . . , u
n
) haben wir eine Darstellung u =
n
j=1
j
u
j
mit eindeutig bestimmten
j
K. Wenn wir das Skalarprodukt von u mit einem Basisvektor bilden, erhalten wir wegen der Linearitat
des Skalarprodukts und der Orthonormalitat
u, u
i
) =
_
n
j=1
j
u
j
, u
i
_
=
n
j=1
j
u
j
, u
i
) =
n
j=1
ji
=
i
.
Das beweist die erste Formel. Analog erhalten wir
[u[
2
= u, u) =
_
n
j=1
j
u
j
,
n
k=1
k
u
k
_
=
n
j=1
n
k=1
k
u
j
, u
k
) =
n
j=1
n
k=1
jk
=
n
j=1
[
j
[
2
.
Die gemischten Produkte fallen raus wegen der Orthogonalitat.
17
perpendicular to each other
56 KAPITEL 2. VEKTORR
AUME
Frage: Im R
1756
sei ein Untervektorraum U gegeben. Welche Dimension hat U
?
Frage: Im R
1517
sind zwei Vektoren u
1
und u
2
gegeben, und ein dritter Vektor ist gesucht, der senkrecht
auf u
1
und auf u
2
stehen soll. Kann man diesen dritten Vektor mittels Kreuzprodukt ermitteln ?
Der nachste Satz sagt uns, wie wir von einer gewohnlichen Basis ubergehen konnen zu einer Orthonormal-
basis:
Satz 2.30 (Orthonormalisierungsverfahren von GramSchmidt
18
). Sei V ein euklidischer oder
unitarer Raum, und sei (v
1
, v
2
, . . . ) eine endliche oder unendliche linear unabhangige Familie. Wir denie-
ren dann rekursiv
w
1
:= v
1
, u
1
:=
1
[w
1
[
w
1
,
w
n+1
:= v
n+1
j=1
v
n+1
, u
j
) u
j
, u
n+1
:=
1
[w
n+1
[
w
n+1
, n 1.
Dann gilt:
1. die Vektoren w
n+1
sind nie
0, also sind die u
n+1
deniert,
2. die Familie (u
1
, u
2
, . . . ) ist linear unabhangig und ein Orthonormalsystem,
3. span(v
1
, . . . , v
n
) = span(u
1
, . . . , u
n
) fur jedes n.
Beweis.
Ubungsaufgabe.
Frage: Warum ist kein w
n+1
= 0 ?
Frage: Warum ist u
n+1
, u
k
) = 0 f ur 1 k n ?
2.3.2 Approximationsprobleme
Literatur: Greiner: Klassische Elektrodynamik. Kapitel I.3.1: Entwicklung beliebiger Funktionen in
vollstandige Funktionssysteme
Nun wollen wir Lote fallen auf einen Unterraum. Genauer gesagt, geht es um folgendes Approximations-
problem:
Sei V ein euklidischer oder unitarer Raum, und sei U ein Unterraum von V . Gegeben sei ein v V . Gesucht
ist dasjenige u U, das von v den geringsten Abstand hat. Wenn es ein solches u U gibt, dann heit u
Projektion von v auf U oder auch Proximum.
Wenn U unendlichdimensional sein sollte (was hauger vorkommt als man glaubt), dann ist es keineswegs
selbstverstandlich, da so ein u uberhaupt existiert, es gibt sogar Gegenbeispiele. Deshalb beschranken wir
uns auf den Fall eines endlichdimensionalen U.
Satz 2.31. Sei V ein euklidischer oder unitarer Raum, und sei U = span(u
1
, . . . , u
n
) ein Unterraum von
V , mit Orthonormalbasis (u
1
, . . . , u
n
). Sei v V ein beliebiger Punkt auerhalb von U.
1. Dann existiert genau ein u U, soda v u senkrecht auf U steht.
2. Dieses u wird gegeben durch u =
n
j=1
v, u
j
) u
j
.
3. Fur jedes andere u
U gilt [v u
[ > [v u[.
4. Fur den Projektionsfehler [v u[ gilt [v u[
2
= [v[
2
[u[
2
.
Beweis. 1. F ur u machen wir den Ansatz u =
n
j=1
j
u
j
. Der Vektor v u steht senkrecht auf U genau
dann, wenn er senkrecht auf jedem Basisvektor u
j
steht. Nun ist
0
!
= v u, u
j
) = v, u
j
)
_
n
k=1
k
u
k
, u
j
_
= v, u
j
)
j
,
also gibt es genau ein solches u U.
18
Jrgan Pedersen Gram (18501916) und Erhard Schmidt (18761959)
2.3. VEKTORR
) = 0. Wegen u
[
2
= [(v u) + (u u
)[
2
= [v u[
2
+[u u
[
2
> [v u[
2
.
4. Wir konnen schreiben v = (v u) +u. Weil v u und u senkrecht aufeinander stehen (wegen 1.), gilt
aufgrund des Satzes von Pythagoras
[v[
2
= [v u[
2
+[u[
2
,
woraus die Behauptung sofort folgt.
Jetzt haben wir alle Werkzeuge beisammen, um den Beweis von V = U U
nachzuholen:
Satz 2.32. Sei V ein unitarer oder euklidischer Raum, und sei U ein endlichdimensionaler Unterraum
von V . Dann ist V = U U
.
Beweis. Sei v V beliebig. Dann gibt es wegen Satz 2.31 genau ein u U mit v u U. Wir konnen
also jeden Vektor v V in zwei Summanden v u U
.
Beispiel 2.33. Sei V = C([1, 1] R) der Raum der auf dem Intervall [1, 1] denierten stetigen und
reellwertigen Funktionen, ausgestattet mit dem Skalarprodukt
f, g) =
_
1
1
f(x)g(x)dx.
Dann ist [f[ =
_
_
1
1
[f(x)[
2
dx. Wir wollen eine cosFunktion durch eine quadratische Parabel annahern.
Sei also U = span(1, x
2
) und v = v(x) = cos(
2
x). Gesucht ist ein u U mit [v u[ min.
Losung: Wir ermitteln mithilfe des GramSchmidtVerfahrens eine Orthonormalbasis (u
1
, u
2
) f ur U:
v
1
= v
1
(x) = 1, v
2
= v
2
(x) = x
2
,
u
1
= u
1
(x) =
1
_
_
1
1
1
2
dx
1 =
1
2
,
w
2
= w
2
(x) = x
2
_
x
2
,
1
2
_
2
= x
2
1
3
,
[w
2
[ =
_
1
1
_
x
2
1
3
_
2
dx =
_
8
45
,
u
2
= u
2
(x) =
_
45
8
_
x
2
1
3
_
.
Dann ermittelt sich das Proximum u = u(x) nach der Formel
u = u(x) = v, u
1
) u
1
(x) +v, u
2
) u
2
(x),
und f ur die Norm haben wir die einfache Darstellung
[u[ =
_
[ v, u
1
) [
2
+[ v, u
2
) [
2
.
Die Koordinaten von u in Bezug auf die Basis (u
1
, u
2
) sind dann
v, u
1
) =
_
1
1
cos
_
2
x
_
2
dx =
2
58 KAPITEL 2. VEKTORR
AUME
und
v, u
2
) =
_
45
8
_
1
1
cos
_
2
x
_
_
x
2
1
3
_
dx.
Im Bronstein nden wir die Formel
_
x
2
cos(x)dx =
2x
2
cos(x) +
_
x
2
3
_
sin(x) +C,
mit deren Hilfe wir ausrechnen konnen, da
v, u
2
) =
10
+
_
45
2
_
2
_
3
_
_
2
_
2
2
_
.
Damit sind die Koordinaten von u bez uglich der Orthonormalbasis (u
1
, u
2
) von U bestimmt, und das
gesuchte quadratische Polynom ist gefunden.
Zur Berechnung des Projektionsfehlers [v u[ benutzen wir die Formel [v u[
2
= [v[
2
[u[
2
. Wir haben
[v[
2
=
_
1
1
_
cos
_
2
x
__
2
dx.
Aus dem Bronstein entnehmen wir die Formel
_
(cos(x))
2
dx =
x
2
+
1
4
sin(2x) +C,
die uns auf [v[
2
= 1 f uhrt. Schlielich ist nach einiger Rechnerei
[u[
2
= [ v, u
1
) [
2
+[ v, u
2
) [
2
= 0.810569468 + 0.18883446738 = 0.9994039,
woraus [vu[
2
= 0.000596 und [vu[ = 0.0244 folgen. Wir haben also einen relativen Approximationsfehler
|vu|
|v|
von weniger als 2.5%.
Bemerkung 2.34. Der Projektion v u gema u =
n
j=1
v, u
j
) u
j
werden wir im 2. Semester bei der
Fourierreihendarstellung von periodischen Funktionen wieder begegnen.
2.4 Ausblick: Vektorraume in der Physik 1
Wir bringen einige weitere Beispiele.
Raume f ur Ortsvariablen: das ist praktisch immer der R
3
, die Elemente davon beziehen sich auf Or-
te (oder sind Verbindungsvektoren zweier Orte). Die Maeinheit ist zu interpretieren als
Meter.
(Das Gegenst uck, die Wellenzahlvektoren, behandeln wir absichtlich hier nicht, sondern erst im
ubernachsten Kapitel.) Dieser Raum hat die Dimension 3.
Raume f ur Vektorfelder: an jeden Punkt x des R
3
heften wir einen Vektor u(x) an, den wir als Flu-
vektor interpretieren. Man denke z.B. an einen stromendes Fluid oder an das elektrische Feld (was
im Prinzip dasselbe ist). Die
Uberlagerung verschiedener Stromungen ergibt eine Addition in einem
Vektorraum. Wenn wir annehmen, da f ur [x[ die Stromung abklingt, dann ist es sinnvoll zu
verlangen, da
_
xR
3
[u(x)[
2
dx < ,
wobei [u(x)[
2
= (u
1
(x))
2
+(u
2
(x))
2
+(u
3
(x))
2
. Integrale dieses Typs konnen haug als Energie inter-
pretiert werden, womit sie f ur die Physik automatisch interessant sind. Den Vektorraum aller solcher
Vektorfelder schreiben wir als L
2
(R
3
R
3
), er hat die Dimension unendlich und ein Skalarprodukt
gema
u, v)
L
2
:=
_
xR
3
u
1
(x)v
1
(x) +u
2
(x)v
2
(x) +u
3
(x)v
3
(x)dx. (2.2)
2.5. AUSBLICK: DIE HELMHOLTZPROJEKTION 59
Vektorraume in der Quantenmechanik: wir betrachten ein einzelnes spinloses Teilchen in einem Po-
tential. Der Zustand dieses Teilchens wird quantenmechanisch beschrieben durch eine Wellenfunktion
= (x), die vom Ortsraum R
3
nach C abbildet. Wir interpretieren das Betragsquadrat [(x)[
2
als
Wahrscheinlichkeitsdichte, das Teilchen an Position x anzutreen. Sinnvollerweise ist
_
xR
3
[(x)[
2
dx < .
Alle solchen Wellenfunktionen bilden einen Vektorraum, namlich den L
2
(R
3
C). Dieser ist unend-
lichdimensional, und er hat folgendes Skalarprodukt:
, )
L
2 :=
_
xR
3
(x)(x)dx. (2.3)
F ur M Teilchen jeweils aus dem R
3
liegt die Ortsvariable x im R
3M
. Bei realistischen Werten von
M ist dies meist keine handhabbare Situation mehr, aber mittels Gruppentheorie (Vertauschungen
der Teilchen untereinander sind Elemente einer Permutationsgruppe !) kann man den Aufwand zur
Beschreibung des Systems um einiges reduzieren.
Literatur: Greiner und M uller: Quantenmechanik. Symmetrien. Kapitel IX: Darstellungen der Per-
mutationsgruppe und YoungTableaux.
2.5 Ausblick: die HelmholtzProjektion
Skalare Felder sind Funktionen von R
3
nach R.
Vektorfelder sind Funktionen u von R
3
nach R
3
.
Heute wird der R
3
jedesmal ausgestattet mit einem kartesischen Koordinatensystem (keine Polarkoordina-
ten oder ahnliches).
Der Gradient eines skalaren Feldes ist
(x) =
_
x
1
,
x
2
,
x
3
_
.
Die Divergenz eines Vektorfeldes u ist
div u(x) =
u
1
x
1
+
u
2
x
2
+
u
3
x
3
.
Ein ber uhmter Satz von Helmholtz
19
besagt: jedes Vektorfeld u L
2
(R
3
R
3
) kann auf eindeutige Weise
zerlegt werden als u = v + w, wobei v, w L
2
(R
3
R
3
) mit
divv(x) = 0, x R
3
,
w(x) = (x), x R
3
,
mit einem geeigneten Skalarfeld . Man sagt auch: v ist divergenzfrei bzw. quellenfrei, w ist ein Gradien-
tenfeld bzw. hat ein Potential. Wir haben also die HelmholtzZerlegung
L
2
(R
3
R
3
) = L
2
div
(R
3
R
3
) L
2
pot
(R
3
R
3
).
Es kommt noch schoner: beide Summanden auf der rechten Seite bilden nicht nur eine direkte Summe,
sondern sie stehen auch senkrecht aufeinander im Sinne des Skalarprodukts (2.2), wie wir im 2. Semester
erkennen werden.
Es ist L
2
div
(R
3
R
3
) ein (abgeschlossener) Untervektorraum des Vektorraums L
2
(R
3
R
3
). Wenn wir
von einem u L
2
(R
3
R
3
) das Lot fallen auf L
2
div
(R
3
R
3
), dann losen wir genau eine Approximations-
aufgabe im Sinne von Abschnitt 2.3.2. Diese Abbildung heit HelmholtzProjektion.
19
Hermann von Helmholtz (18211894), Mediziner und Physiker, Professor f ur Physiologie und Pathologie in Konigsberg,
spater Professor f ur Anatomie und Physiologie in Bonn. Formulierte den Energieerhaltungssatz, erfand den Augenspiegel, ma
die Fortpanzungsgeschwindigkeit von Nervenerregungen, lieferte wichtige Beitrage zur Hydrodynamik und Elektrodynamik,
begr undete die wissenschaftliche Meteorologie.
60 KAPITEL 2. VEKTORR
AUME
Anwendungen gibt es daf ur in der Elektrodynamik (denn elektrische und magnetische Felder
E,
B gehoren
gerade zu L
2
(R
3
R
3
)) und in der Festkorperphysik. Man stelle sich einen Festkorper vor, der elastische
Schwingungen ausf uhrt. Diese konnen longitudinal oder transversal verlaufen, und die dazugehorigen Ver-
schiebungsvektorfelder sind gerade Potentialfelder bzw. divergenzfreie Felder. Die HelmholtzProjektion
erlaubt es, diese beiden Schwingungstypen getrennt zu betrachten, und man erhalt z.B., da longitudinale
bzw. transversale Wellen unterschiedlich schnell laufen konnen.
2.6 Schl usselbegrie
Denition eines Vektorraumes,
Funktionenraume als Vektorraume,
lineare Unabhangigkeit, Basis, Dimension,
direkte Summe von Vektorraumen, Dimensionsformel,
Denition von Skalarprodukt (im euklidischen Fall und im unitaren Fall) und Norm,
Verfahren von GramSchmidt,
Losungsverfahren zu Approximationsproblemen auch im abstrakten Fall.
Kapitel 3
Matrizen
3.1 Operationen mit Matrizen
Wie immer, sei K auch jetzt ein Korper, zum Beispiel K = R oder K = C. Unter K
n
, K
m
usw. verstehen
wir den Vektorraum der Spaltenvektoren mit n bzw. m Eintragen. In diesem Kapitel soll es um Matrizen
gehen, also Zahlenschemata der Form
A =
_
_
_
_
_
a
11
a
12
. . . a
1m
a
21
a
22
. . . a
2m
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nm
_
_
_
_
_
, a
ij
K.
Die Menge aller solchen Matrizen bezeichnen wir mit K
nm
. F ur m = 1 erhalten wir die Spaltenvektoren
Denition 3.1. Fur Matrizen A, B K
nm
und Zahlen K denieren wir eine Addition zweier
Matrizen sowie eine Multiplikation einer Zahl mit einer Matrix gema
(A+B)
ij
= a
ij
+b
ij
, 1 i n, 1 j m,
(A)
ij
= a
ij
, 1 i n, 1 j m.
Die Menge der n mMatrizen bildet mit diesen beiden Operationen einen Vektorraum uber K.
Frage: Was ist das Nullelement dieses Vektorraumes ? Welche Dimension hat er ?
Genauso wie im ersten Kapitel denieren wir eine Multiplikation von Matrizen und Vektoren:
Denition 3.2. Fur eine Matrix A K
nm
und einen Vektor x = (
1
, . . . ,
m
)
K
m
denieren wir das
Produkt Ax K
n
durch
Ax =
_
_
_
a
11
. . . a
1m
.
.
.
.
.
.
a
n1
. . . a
nm
_
_
_
_
_
_
1
.
.
.
m
_
_
_ :=
_
_
_
m
j=1
a
1j
j
.
.
.
m
j=1
a
nj
j
_
_
_.
Der Vektor x mu genau so viele Komponenten haben wie A Spalten hat. Das Ergebnis Ax hat so viele
Komponenten wie A Zeilen hat.
Satz 3.3. Sei A K
nm
. Dann erzeugt A eine Abbildung f
A
,
f
A
: K
m
K
n
,
f
A
: x f
A
(x) = Ax.
Diese Abbildung ist linear (bzw. ein Homomorphismus), das heit:
f
A
(x +y) = f
A
(x) +f
A
(y), x, y K
m
,
f
A
(x) = f
A
(x), K, x K
m
.
61
62 KAPITEL 3. MATRIZEN
Beweis.
Ubungsaufgabe.
Spater werden wir sehen, da jede lineare Abbildung von K
m
auf K
n
in Form einer Matrixmultiplikation
dargestellt werden kann.
Wir stellen die Matrix als nebeneinandergestellte Spaltenvektoren dar:
A =
_
_
a
1
a
2
a
m
_
_
.
Dann sieht man schnell, da a
j
= Ae
j
, das heit,
die Spalten der Abbildungsmatrix sind die Koordinaten der Bilder der Einheitsvektoren.
Daraus ergibt sich f ur einen Vektor x = (
1
, . . . ,
m
)
m
j=1
j
e
j
aufgrund der Linearitat:
f
A
(x) = Ax = A
_
_
m
j=1
j
e
j
_
_
=
m
j=1
j
Ae
j
=
m
j=1
j
a
j
.
Das heit, Ax ist nichts anderes als eine Linearkombination der Spalten von A. Die Komponenten von x
sind gerade die Koezienten dieser Linearkombination.
Wir verallgemeinern die MatrixVektorMultiplikation zu einer MatrixMatrixMultiplikation:
Denition 3.4. Sei A K
nm
und B K
ml
. Dann denieren wir das Produkt AB K
nl
durch
(AB)
ij
=
m
k=1
a
ik
b
kj
, 1 i n, 1 j l.
Man beachte, da das Produkt nur dann deniert ist, wenn B soviele Zeilen hat wie A Spalten hat.
Wenn B nur eine Spalte hat (l = 1), dann erhalten wir die zuvor schon denierte MatrixVektor
Multiplikation.
Durch Hinschauen erkennen wir:
die kte Spalte von AB ist gleich A (kte Spalte von B)
Diese Multiplikation unterscheidet sich in mindestens zwei Punkten von der herkommlichen Multiplikation
reeller oder komplexer Zahlen: sie ist im Allgemeinen nicht kommutativ (also AB ,= BA); und Nullteiler
sind moglich. Das heit, ein Produkt kann gleich der Nullmatrix sein, obwohl keiner seiner Faktoren gleich
der Nullmatrix ist. Ein Beispiel daf ur ist
_
1 1
1 1
__
1 2
1 2
_
=
_
0 0
0 0
_
,
_
1 2
1 2
__
1 1
1 1
_
=
_
1 1
1 1
_
.
Satz 3.5. Seien A K
nm
, B K
ml
, und seien f
A
: K
m
K
n
sowie f
B
: K
l
K
m
die dazugehorigen
Abbildungen. Sei weiterhin f
AB
: K
l
K
n
die der Produktmatrix AB K
nl
zugeordnete Abbildung.
Dann ist
f
AB
= f
A
f
B
,
das heit f
AB
ist die Nacheinanderausfuhrung der Abbildungen f
B
und f
A
.
Beweis. Es seien b
1
, . . . , b
l
die Spalten von B; und sei x = (
1
, . . . ,
l
)
l
j=1
j
e
j
ein beliebiger Vektor.
Dann ist (wenn wir an die beiden obigen Merkregeln erinnern)
(f
A
f
B
)(x) = f
A
(f
B
(x)) = f
A
(Bx) = f
A
_
l
k=1
k
b
k
_
= A
_
l
k=1
k
b
k
_
=
l
k=1
k
Ab
k
=
l
k=1
k
(AB)e
k
= (AB)
l
k=1
k
e
k
= (AB)x = f
AB
(x).
Das ist genau die gew unschte Aussage.
3.2. GLEICHUNGSSYSTEME 63
Damit konnen wir jetzt zeigen, da die Matrixmultiplikation assoziativ ist:
Satz 3.6. Seien A K
nm
, B K
ml
und C K
lr
. Dann gilt (AB)C = A(BC).
Beweis. Wir betrachten zuerst den Spezialfall, da C eine Spalte ist. Seien also F und G Matrizen und x
ein beliebiger Spaltenvektor. Wir setzen voraus, da die Formate zusammenpassen, und wollen zeigen, da
(FG)x = F(Gx). Dies folgt aber aus dem vorigen Satz, denn
(FG)(x) = f
FG
(x)
und F(Gx) = f
F
(Gx) = f
F
(f
G
(x)) = (f
F
f
G
)(x).
Nun seien A, B, C wie in den Voraussetzungen, und sei x K
r
ein beliebiger Vektor. Wir zeigen, da
((AB)C)x = (A(BC))x
f ur jedes solche x gilt. Namlich,
((AB)C)x (setze F = AB, G = C)
= (AB)(Cx) (setze F = A, G = B, y = Cx)
= A(B(Cx))
und andererseits, mit ahnlicher Begr undung, (A(BC))x = A((BC)x) = A(B(Cx)).
Wir haben also ((AB)C)x = (A(BC))x f ur jeden Vektor x, oder
((AB)C A(BC)) x = 0.
Aus einer
Ubungsaufgabe folgt dann, da die Matrix auf der linken Seite gleich der Nullmatrix ist.
Ein anderer Beweis lauft so, da man den Eintrag an der Stelle (i, j) von (AB)C bzw. A(BC) direkt
ausrechnet. Beide Male sollte das gleiche herauskommen.
Denition 3.7. Sei A K
nm
eine Matrix mit Eintragen a
ij
. Dann denieren wir eine transponierte
Matrix
1
A
K
mn
und eine adjungierte Matrix
2
A
K
mn
durch
(A
)
ij
= a
ji
, (A
)
ij
= a
ji
.
Wenn K = R, dann sind beide Matrizen identisch.
Satz 3.8. Wenn die Formate der Matrizen A und B zueinander passen, dann ist
(AB)
= B
, (AB)
= B
.
Die Standardskalarprodukte konnen geschrieben werden als
x, y)
R
= x
y, x, y)
C
= x
y = y
x.
Beweis.
Ubungsaufgabe.
3.2 Gleichungssysteme
Wir versuchen jetzt, die MatrixMultiplikation umzukehren, also eine
1
+ +a
1m
m
=
1
,
.
.
.
a
n1
1
+ +a
nm
m
=
n
.
Dieses System wird noch etwas einfacher im Fall n = m:
Denition 3.9. Eine Matrix A K
nn
heit invertierbar
3
, wenn es eine Matrix B K
nn
gibt mit
AB = BA = I
n
,
wobei I
n
die n nEinheitsmatrix bezeichnet: Man schreibt B = A
1
, und nennt A
1
die zu A inverse
4
Matrix. Wenn A invertierbar bzw. nicht invertierbar ist, dann heit A auch regular
5
bzw. singular
6
.
Wenn A invertierbar ist, dann wird eine Losung x des Gleichungssystems Ax = b gegeben durch x = A
1
b.
Frage: Kann es sein, da das Gleichungssystem Ax = b bei invertierbarem A mehrere Losungen x hat ?
Begr undung ?
Satz 3.10. Es seien A, B K
nn
. Dann gilt:
1. Wenn A invertierbar ist, so gibt es genau eine inverse Matrix.
2. Wenn A invertierbar ist und AB = I, so ist B = A
1
.
3. Wenn A invertierbar ist, so ist auch A
1
invertierbar, und (A
1
)
1
= A.
4. Wenn A invertierbar ist, so ist auch A
invertierbar, und (A
)
1
= (A
1
)
.
5. Wenn A und B beide invertierbar sind, so ist auch AB invertierbar, und es ist (AB)
1
= B
1
A
1
.
Beweis. 1. Folgt direkt aus Satz 1.43.
2. Folgt aus 1.
3. Folgt aus Satz 1.43.
4. Wir haben AA
1
= I. Wenn wir darauf Satz 3.8 anwenden, haben wir (A
1
)
= I
= I, also ist
(A
1
)
die Inverse zu A
.
5. Folgt direkt aus Lemma 1.46.
Gleichungssysteme der Form AX = B behandeln wir, indem wir versuchen, die Matrix A auf eine einfachere
Form zu bringen. Dabei benutzen wir folgenden Satz.
Satz 3.11. Seien A K
nm
, B K
nl
, X K
ml
und C K
nn
, wobei C regular ist. Dann ist X eine
Losung von AX = B genau dann, wenn X eine Losung von CAX = CB ist.
Beweis. Sei AX = B. Dann ist auch CAX = CB.
Sei andererseits CAX = CB. Weil C invertierbar ist, existiert C
1
, und es ist C
1
CAX = C
1
CB, also
AX = B.
3
invertible
4
inverse
5
regular
6
singular
3.2. GLEICHUNGSSYSTEME 65
Wir wollen also eine Matrix C nden, soda CA einfacher zu behandeln ist als A. Wir wahlen C als Produkt
von sogenannten Eliminationsmatrizen und Permutationsmatrizen, und die angestrebte Form von CA ist
die sogenannte GauJordanForm bzw. Zeilenstufenform.
Es gibt zwei Sorten von Eliminationsmatrizen: allgemeine und spezielle.
Eine allgemeine Eliminationsmatrix hat die Form
L =
_
_
_
_
_
_
_
_
_
_
_
_
1
1j
.
.
.
.
.
.
1
j1,j
jj
j+1,j
1
.
.
.
.
.
.
nj
1
_
_
_
_
_
_
_
_
_
_
_
_
,
ij
K,
jj
,= 0.
Die Leerraume sind Nullen.
Eine spezielle Eliminationsmatrix hat eine der folgenden Formen:
L =
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
ij
.
.
.
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
,
L =
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
jj
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
,
jj
,= 0.
Frage: Wohin werden von den obigen drei Matrizen L die Einheitsbasisvektoren e
1
, . . . , e
n
abgebildet ?
Frage: Warum sind die speziellen Eliminationsmatrizen regular ? Wie sehen ihre Inversen aus ?
Sei L eine spezielle Eliminationsmatrix des ersten Typs, und A eine beliebige Matrix mit soviel Zeilen, wie
L Spalten hat. Dann ergibt sich das Produkt LA nach folgender Regel:
kte Zeile von LA =
_
kte Zeile von A : k ,= i,
ite Zeile von A+
ij
(jte Zeile von A) : k = i.
Frage: Warum soll bei den Eliminationmatrizen des zweiten Typs der Eintrag
jj
nicht Null sein ?
Frage: Wie sieht das Produkt LA aus, wenn L eine Eliminationsmatrix des zweiten Typs ist ?
Es seien nun zwei oder mehrere spezielle Eliminationsmatrizen gegeben, die ihre Eintrage in derselben
Spalte haben. Wenn wir diese Matrizen multiplizieren, dann erhalten wir eine allgemeine Eliminationsma-
trix.
Und weil die speziellen Eliminationsmatrizen regular sind, sind also auch die allgemeinen Eliminationsma-
trizen regular.
Wir werden solche Matrizen benutzen, um im Produkt CA viele Nullen zu erzeugen. Dazu sind lediglich
die
ij
passend zu wahlen. Diesen Proze bezeichnen wir auch als
Ausraumen.
66 KAPITEL 3. MATRIZEN
Permutationsmatrizen P = P
ij
haben die Form
P
ij
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
.
.
.
.
.
.
0 1
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
1 0
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Diese Matrix sieht fast wie eine Einheitsmatrix aus, lediglich die Zeilen i und j sind vertauscht worden.
Man uberzeugt sich schnell, da:
Die Multiplikation mit einer Permutationsmatrix P
ij
von links vertauscht die Zeilen i und j.
Die Multiplikation mit einer Permutationsmatrix P
ij
von rechts vertauscht die Spalten i und j.
Dann gilt also PP = I, also ist P invertierbar.
Das Rechenverfahren zur Behandlung von AX = B verlauft wie folgt:
Man schreibt zunachst die Matrizen A und B nebeneinander, getrennt durch einen senkrechten Strich. Das
ist moglich, weil A und B gleichviel Zeilen haben. Unter einer Langzeile verstehen wir eine Zeile, die A und
B umfat.
Folgende Zeilenoperationen sind zulassig:
Vertauschen zweier Langzeilen,
Multiplikation einer Langzeile mit einer Zahl ,= 0,
Addition des Vielfachen einer Langzeile zu einer anderen Langzeile.
Diese drei Operationen werden mithilfe von Permutationsmatrizen und Eliminationsmatrizen mathematisch
beschrieben.
Man wendet diese Operationen solange an, bis man die Matrix links vom Strich auf Zeilenstufenform
gebracht hat.
Sehr anschaulich formuliert, liegt die Zeilenstufenform vor, wenn folgendes gilt: In der Matrix gibt es eine
Treppe von links oben in Richtung nach rechts unten mit folgenden Eigenschaften:
Jede Stufe ist genau eine Zeile hoch.
Jede Stufe ist eine oder mehr als eine Spalte breit.
Im Stufenknick steht eine 1.
Unterhalb der Stufen und links von den Stufen stehen nur Nullen.
Oberhalb der Stufen oder rechts von den Stufen steht irgendetwas.
Beispiele daf ur sind die Einheitsmatrix oder die Nullmatrix. Ein weiteres Beispiel ist
_
_
_
_
_
_
_
_
_
_
0 1
0 0 0 1
0 0 0 0 0 0 1
0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
_
.
3.2. GLEICHUNGSSYSTEME 67
Hierbei stehen die f ur beliebige Eintrage.
Die Anzahl der Einsen in den Stufenknicken heit auch Rang der Matrix.
Exakt formuliert:
Denition 3.12. Eine Matrix D K
nm
ist in Zeilenstufenform, wenn es ein 0 r n und Zahlen
1 j
1
< j
2
< < j
r
m gibt mit folgenden Eigenschaften:
d
iji
= 1 fur 1 i r,
d
il
= 0 fur 1 l < j
i
,
d
il
K beliebig fur j
i
< l m,
d
kl
= 0 fur r < k n und 1 l m.
Im oben gezeichneten Beispiel ist r = 5 und (j
1
, j
2
, . . . , j
5
) = (2, 4, 7, 8, 9).
Die zweiten bis vierten Bedingungen der Denition bedeuten:
links von den Einsen, aber in derselben Zeile, stehen Nullen,
rechts von den Einsen, aber in derselben Zeile, stehen ,
ab der Zeile r + 1 stehen nur noch Nullen.
Das GauJordan
7
Verfahren verlauft wie folgt:
1. Man setze einen Spaltenzahler s und einen Zeilenzahler z jeweils auf 1.
2. Man suche in der Spalte s unterhalb des zten Eintrags von oben (einschlielich) nach einem Matri-
xeintrag ,= 0.
3. (a) Wenn es einen solchen nicht gibt, dann erhohe man den Spaltenzahler s um 1 und gehe zu
Schritt 2.
(b) Wenn es einen Matrixeintrag ,= 0 gibt
8
, dann tausche man die dazugehorige Langzeile mit der
zten Langzeile. Jetzt ist der Eintrag a
zs
,= 0.
4. Man dividiere die zte Langzeile durch a
zs
. Jetzt ist der Eintrag a
zs
= 1.
5. Man addiere geeignete Vielfache der zten Langzeile zu den tieferen Langzeilen, um die Eintrage
unterhalb von a
zs
zu annullieren (
_
_
3 1 1 1 0 0
0 8 2 1 3 0
0 2 8 1 0 3
_
_
.
Ausgehend von der 8 an der Position (2,2) raumen wir nach oben und unten aus:
_
_
24 8 8 8 0 0
0 8 2 1 3 0
0 8 32 4 0 12
_
_
_
_
24 0 6 9 3 0
0 8 2 1 3 0
0 0 30 3 3 12
_
_
Und jetzt starten wir von der 30 an der Position (3,3) und raumen nach oben aus:
_
_
120 0 30 45 15 0
0 120 30 15 45 0
0 0 30 3 3 12
_
_
_
_
120 0 0 48 12 12
0 120 0 12 48 12
0 0 30 3 3 12
_
_
.
Anschlieend k urzen wir die Langzeilen durch 120, 120 und 30:
_
_
1 0 0
48
120
12
120
12
120
0 1 0
12
120
48
120
12
120
0 0 1
3
30
3
30
12
30
_
_
=
_
_
1 0 0
2
5
1
10
1
10
0 1 0
1
10
2
5
1
10
0 0 1
1
10
1
10
2
5
_
_
.
Und rechts vom Strich steht die Inverse von A. Man rechnet leicht nach, da tatsachlich AX = I
3
gilt.
Frage: Warum ist das so ?
Falls man stattdessen das System
Ax =
_
_
0
7
0
_
_
hatte losen wollen, dann hatte man mit dem Schema
_
_
3 1 1 0
1 3 1 7
1 1 3 0
_
_
gestartet, und mit genau denselben Langzeilenumformungen wie oben ware man auf das Schema
_
_
1 0 0
7
10
0 1 0
14
5
0 0 1
7
10
_
_
gekommen, von dem man die Losung x = (
7
10
,
14
5
,
7
10
)
abliest.
3.3 Schl usselbegrie
Matrizen als zentrales Beispiel linearer Abbildungen,
Beziehung zwischen Matrixprodukt einerseits und Nacheinanderausf uhrung der zugeordneten linearen
Abbildungen andererseits,
GauJordanVerfahren.
Kapitel 4
Homomorphismen
4.1 Allgemeine Eigenschaften
Jede Matrix A K
nm
begr undet eine Abbildung f
A
: K
m
K
n
, gema der Vorschrift f
A
(x) = Ax.
Diese Abbildung gen ugt den Regeln
f
A
(x +y) = f
A
(x) +f
A
(y), x, y K
m
,
f
A
(x) = f
A
(x), K, x K
m
.
Wir benutzen dabei aber gar nicht, da der Ausgangsvektorraum der K
m
ist. Weil diese beiden Eigenschaf-
ten so wichtig sind, haben Abbildungen dieses Typs einen eigenen Namen bekommen:
Denition 4.1. Seien U und V Vektorraume uber K, und sei f : U V eine Abbildung mit den Eigen-
schaften
f(x +y) = f(x) +f(y), x, y U, (4.1)
f(x) = f(x), K, x U. (4.2)
Dann sagen wir, da f eine lineare Abbildung bzw. ein Homomorphismus
1
ist. Die Menge aller Homomor-
phismen von U nach V bezeichnen wir mit Hom(U V ) bzw. L(U V ). Wenn U = V , dann reden wir
auch von Endomorphismen
2
und schreiben L(U) anstatt von L(U U). Falls V = K ist, bezeichnet man
die Homomorphismen auch als lineare Funktionale
3
.
Anstelle von Homomorphismen ist auch die Bezeichnung lineare Operatoren
4
gebrauchlich. In der Literatur
sind die Schreibweisen L(U, V ) oder L(U; V ) weit verbreitet anstelle unserer Notation L(U V ), die
hoentlich besser erklart, wie hier eigentlich abgebildet wird.
Die beiden zentralen Eigenschaften (4.1) und (4.2) einer linearen Abbildung dr ucken wir wieder als kom-
mutative Diagramme aus:
(x, y)
f
(f(x), f(y))
+
_
(in U) +
_
(in V )
x +y
f
f(x) +f(y)
= f(x +y)
x
f
f(x)
_
(in U)
_
(in V )
x
f
f(x)
= f(x)
Einige Eigenschaften ergeben sich direkt aus der Denition:
Satz 4.2. Sei f L(U V ). Dann gilt
f(0) = 0,
1
homomorphism
2
endomorphism
3
linear functionals
4
linear operators
69
70 KAPITEL 4. HOMOMORPHISMEN
f(
n
j=1
j
x
j
) =
n
j=1
j
f(x
j
).
Beweis. Sollten Sie selber konnen.
Beispiel 4.3. 1. Sei A K
nm
, dann denieren wir eine Abbildung f : K
m
K
n
gema f(x) = Ax;
und es ist dann f Hom(K
m
K
n
).
2. Sei U = C
1
([0, 1] R) der Raum der auf [0, 1] einmal stetig dierenzierbaren Funktionen, und
entsprechend V = C([0, 1] R). Dann ist die Abbildung
d
dx
: U V eine lineare Abbildung.
3. Sei U = C
2
(R R), V = C(R R) und L L(U V ) der zur Schwingungsdierentialgleichung
gehorige Dierentialoperator L =
d
2
dt
2
+ k
d
dt
+
2
, wobei k und gewisse positive Konstanten sind.
Die aquivalente Sprechweise in der Physik lautet:
) folgt: x = x
.
f heit surjektiv
7
, wenn es zu jedem y B mindestens ein x A mit y = f(x) gibt.
f heit bijektiv
8
, wenn f injektiv und surjektiv ist.
Die identische Abbildung id
A
: A A wird deniert durch id
A
(x) = x fur jedes x A.
Wir betonen, da A und B einfach nur Mengen sind, sie brauchen keine Vektorraume zu sein.
Satz 4.6. Seien A, B, C Mengen, f eine Abbildung von A nach B, g eine Abbildung von B nach C. Dann
gilt:
1. Identische Abbildungen sind bijektiv.
2. Wenn g f surjektiv ist, dann auch g.
3. Wenn g f injektiv ist, dann auch f.
Beweis. Teil 1 ist einfach und soll deshalb eine
Ubungsaufgabe sein.
Zu Teil 2: Wenn g die Menge C nicht ausschopft, dann kann g f die Menge C erst recht nicht ausschopfen.
Zu Teil 3: Wenn f nicht injektiv ist, dann bildet f zwei verschiedene Elemente von A auf dasselbe Element
von B ab. Dann kann auch g f nicht injektiv sein.
Satz 4.7. Seien A, B Mengen, und sei f : A B eine Abbildung. Dann gilt:
f ist genau dann bijektiv, wenn es eine Abbildung g : B A gibt mit
f g = id
B
, g f = id
A
.
Beweis.
=:
Sei f bijektiv. Dann ist f surjektiv, also gibt es f ur jedes b B mindestens ein a A mit f(a) = b. Und
weil f auch injektiv ist, ist dieses Element a eindeutig. Die gesuchte Abbildung g ist gerade diejenige, die
b auf a sendet.
=:
Es ist id
B
= f g bijektiv, also ist f g surjektiv, also ist f surjektiv.
Es ist id
A
= g f bijektiv, also ist g f injektiv, also ist f injektiv.
Satz 4.8. Seien U, V , W Vektorraume uber einem Korper K, und sei f L(U V ), g L(V W).
1. Die identische Abbildung id
U
: u u ist ein bijektiver Homomorphismus id
U
L(U U).
2. Durch g f : u g(f(u)) wird ein Homomorphismus g f L(U W) deniert.
Beweis. Das Ergebnis 1. ist ziemlich leicht und deshalb dem Leser uberlassen.
Zum Beweis von 2. benutzen wir (4.1) und (4.2) f ur f und g:
(g f)(x +y) = g(f(x +y)) = g(f(x) +f(y)) = g(f(x)) +g(f(y)) = (g f)(x) + (g f)(y).
Analog
(g f)(x) = g(f(x)) = g(f(x)) = g(f(x)) = (g f)(x).
6
injective
7
surjective
8
bijective
72 KAPITEL 4. HOMOMORPHISMEN
Denition 4.9. Bijektive Homomorphismen zwischen Vektorraumen heien Isomorphismen
9
.
Wenn es zwischen zwei Vektorraumen U und V einen Isomorphismus gibt, dann nennt man beide Raume
zueinander isomorph
10
.
Satz 4.10. Seien A, B K
nn
Matrizen, und f
A
, f
B
L(K
n
) die zugehorigen linearen Abbildungen.
Dann ist die Komposition f
A
f
B
: K
n
K
n
gegeben durch (f
A
f
B
)(x) = ABx.
Zueinander inverse Isomorphismen f
A
und f
B
werden durch zueinander inverse Matrizen A und B be-
schrieben.
Beweis.
Ubungsaufgabe. Man nutze Satz 3.5.
4.2 Geometrische Aspekte
Wir brauchen noch einige weitere Begrie.
Denition 4.11. Sei f Hom(U V ). Dann heit
ker f := u U : f(u) = 0 der Nullraum bzw. Kern
11
von f,
img f := f(u) V : u U der Bildraum bzw. das Bild
12
von f.
Analog denieren wir fur eine Matrix A K
nm
ker A := x K
m
: Ax = 0,
img A := Ax K
n
: x K
m
.
Satz 4.12. Wenn f Hom(U V ), dann ist ker f ein Unterraum von U und img f ein Unterraum von
V .
Beweis. Es ist f(0) = 0, also ist 0 ker f und 0 img f. Wenn nun u
1
, u
2
ker f sind, dann ist
f(u
1
+ u
2
) = f(u
1
) + f(u
2
) = 0, also auch u
1
+ u
2
ker f. Analog beweist man u ker f, falls K
und u ker f. Gema Satz 2.6 ist dann ker f ein Unterraum von U.
Seien nun v
1
, v
2
img f. Dann gibt es u
1
, u
2
U mit f(u
1
) = v
1
, f(u
2
) = v
2
. Dann gilt f(u
1
+ u
2
) =
f(u
1
) +f(u
2
) = v
1
+v
2
, also ist v
1
+v
2
img f. Analog zeigt man v img f, wenn v img f und K.
Nun verwendet man nochmal den Satz 2.6, und der Beweis ist fertig.
Denition 4.13. Die Dimension des Bildes von f heit Rang
13
von f:
rang f := dimimg f.
Der Rang einer Matrix A wird deniert durch
rang A := dimimg A.
Die Dimension des Kernes von f heit Defekt
14
von f,
def f := dimker f.
Satz 4.14. Sei f Hom(U V ) und sei (u
1
, . . . , u
m
) eine Familie in U. Dann haben wir die Aussagen:
1. f injektiv ker f = 0,
2. f surjektiv img f = V ,
3. (f(u
1
), . . . , f(u
m
)) ist unabhangig in V = (u
1
, . . . , u
m
) sind unabhangig in U,
9
isomorphism
10
isomorph to each other
11
kernel
12
image
13
rank
14
defect
4.2. GEOMETRISCHE ASPEKTE 73
4. (u
1
, . . . , u
m
) sind unabhangig in U und f ist injektiv =(f(u
1
), . . . , f(u
m
)) sind in V unabhangig,
5. (u
1
, . . . , u
m
) erzeugen U =(f(u
1
), . . . , f(u
m
)) erzeugen img f,
6. (u
1
, . . . , u
m
) erzeugen U und f ist surjektiv =(f(u
1
), . . . , f(u
m
)) erzeugen V .
7. Folgende Aussagen sind aquivalent:
(a) f ist bijektiv,
(b) f bildet eine Basis (u
1
, u
2
, . . . , u
m
) von U auf eine Basis (f(u
1
), . . . , f(u
m
)) von V ab.
Beweis. 1. Wenn f injektiv ist, dann gibt es nur ein u U mit f(u) = 0, namlich u = 0. Also ist
ker f = 0.
Sei nun andererseits ker f = 0. Wenn f(u) = f(u
) = 0, also uu
ker f =
0, also u = u
.
2. So ist Surjektivitat deniert.
3. Sei
m
j=1
j
u
j
= 0. Zu zeigen ware
j
= 0 f ur jedes j. Wir haben 0 = f(0) = f(
m
j=1
j
u
j
) =
m
j=1
j
f(u
j
). Nun sind aber die f(u
j
) linear unabhangig, also sind alle
j
= 0.
4. Sei
m
j=1
j
f(u
j
) = 0, zu zeigen ware
j
= 0 f ur jedes j. Nun ist wegen der Linearitat f(
m
j=1
j
u
j
) =
0. Weil f injektiv ist, haben wir mit 1. ker f = 0, also mu
m
j=1
j
u
j
= 0 sein. Da nun die
(u
1
, . . . , u
m
) linear unabhangig sind, ist
j
= 0 f ur jedes j.
5. Sei v img f. Dann gibt es ein u U mit f(u) = v. Weil die u
j
den Originalraum U erzeugen, gibt
es Konstanten
1
, . . . ,
m
mit u =
m
j=1
j
u
j
. Dann ist v = f(u) = f(
j
j
u
j
) =
j
j
f(u
j
). Also
ist v als Linearkombination der (f(u
1
), . . . , f(u
m
)) dargestellt.
6. Folgt direkt aus 2. und 5.
7. Wir zeigen (a) = (b): Wenn f bijektiv ist, dann auch surjektiv und injektiv. Auerdem ist
(u
1
, . . . , u
m
) eine Basis von U. Also ist wegen 4. und 6. die Familie (f(u
1
), . . . , f(u
m
)) ein linear
unabhangiges Erzeugendensystem f ur V , mithin eine Basis.
Nun zeigen wir (b) = (a): Sei (f(u
1
), . . . , f(u
m
)) eine Basis von V . Laut Satz 4.4 gibt es genau
einen Homomorphismus g Hom(V, U) mit g(f(u
j
)) = u
j
f ur jedes j. F ur diesen Homomorphismus
g ist g f = id
U
, denn f ur die Basisvektoren u
j
von U haben wir
(g f)(u
j
) = g(f(u
j
)) = u
j
.
Also stimmt g f auf den Basisvektoren mit id
U uberein, nach Satz 4.4 also uberall in U.
Als nachstes zeigen wir f g = id
V
. Auf den Basisvektoren f(u
j
) des Raumes V haben wir
(f g)(f(u
j
)) = f(g(f(u
j
))) = f(u
j
).
Also stimmt f g auf den Basisvektoren mit id
V uberein, wegen Satz 4.4 also uberall in V .
Also ist f ein Isomorphismus, also bijektiv.
Ein Teilergebnis dieses Satzes ist so wichtig, da wir es nochmal hinschreiben sollten:
Folgerung 4.15. Sei f Hom(U V ) ein injektiver Homomorphismus. Dann gilt
(u
1
, . . . , u
m
) linear unabhangig in U (f(u
1
), . . . , f(u
m
)) linear unabhangig in V.
Die Injektivitat von f ist hierbei die entscheidende Voraussetzung !
Als weitere fast triviale Folgerung ergibt sich:
Satz 4.16. 1. Die Spalten einer Matrix sind ein Erzeugendensystem fur das Bild.
2. Der Rang einer Matrix ist die Maximalzahl linear unabhangiger Spalten dieser Matrix.
74 KAPITEL 4. HOMOMORPHISMEN
Rang und Defekt einer Abbildung sind nicht unabhangig voneinander:
Satz 4.17 (Dimensionsformel). Sei f Hom(U V ). Dann ist
def f + rang f = dimU.
Fur Matrizen A K
nm
bedeutet das
def A+ rang A = m.
Beweis. Sei (u
1
, . . . , u
s
) eine Basis f ur ker f. Nach dem Basiserganzungssatz konnen wir diese Basis
von ker f zu einer Basis von ganz U erganzen: (u
1
, . . . , u
s
, u
s+1
, . . . , u
m
). Dann erzeugen die Vektoren
(f(u
1
), . . . , f(u
m
)) den Raum img f, wegen Satz 4.14, Teil 5. Weil f(u
1
) = = f(u
s
) = 0, kann man diese
Vektoren im Erzeugendensystem weglassen, und kommt zu einem Erzeugendensystem (f(u
s+1
), . . . , f(u
m
))
f ur img f.
Als nachstes wollen wir zeigen, da diese Vektoren (f(u
s+1
), . . . , f(u
m
)) linear unabhangig sind.
Sei nun also
m
j=s+1
j
f(u
j
) = 0. Dann ist f(
m
j=s+1
j
u
j
) = 0, also ist
m
j=s+1
j
u
j
ker f. Aber ker f
hatte gerade die Basis (u
1
, . . . , u
s
), und die Vektoren (u
1
, . . . , u
s
, u
s+1
, . . . , u
m
) sind linear unabhangig. Das
kann nur sein, wenn alle
j
= 0 sind, f ur j = s + 1, . . . , m.
Damit ist (f(u
s+1
), . . . , f(u
m
)) eine Basis f ur img f.
Die Dimensionsformel ergibt sich nun durch Abzahlen.
Damit konnen wir nun die Abbildungseigenschaften der einer invertierbaren Matrix zugehorigen Abbildung
beschreiben:
Satz 4.18. Seien U, V Vektorraume uber K, und sei dimU = dimV . Sei f Hom(U V ). Dann sind
die folgenden Aussagen aquivalent:
1. f ist Isomorphismus,
2. f ist injektiv,
3. f ist surjektiv.
Beweis. 2 3:
Wir haben dimker f + dimimg f = dimU = dimV . Wenn f injektiv ist, dann ist ker f = 0, also
dimker f = 0, also dimimg f = dimV , also img f = V , also ist f surjektiv. Wenn f surjektiv ist, dann ist
img f = V , also dimimg f = dimV , also mu dimker f = 0 sein, also ist ker f = 0, also ist f injektiv.
1 2, 3:
Das ist genau Denition 4.9.
Wir ubertragen die Ergebnisse dieses Satzes auf Matrizen:
Satz 4.19. Sei A K
nn
und f Hom(K
n
K
n
) die von A erzeugte lineare Abbildung. Dann sind die
folgenden Aussagen aquivalent:
1. f ist Isomorphismus,
2. A ist invertierbar,
3. rang A = n,
4. def A = 0,
5. Die Spalten von A erzeugen den K
n
,
6. Die Spalten von A sind linear unabhangig,
7. Die Spalten von A sind eine Basis des K
n
.
4.3. LINEARE GLEICHUNGEN 75
Beweis. 1 2 :
Siehe Satz 4.10.
1 3 4 :
Die Aussage rang A = n ist gleichbedeutend mit img A = K
n
, also mit der Surjektivitat von f, gema
Satz 4.14. Und def A = 0 bedeutet ker A = 0, also die Injektivitat von f, ebenfalls wegen Satz 4.14.
Die
Aquivalenz von 1, 3 und 4 folgt nun aus Satz 4.18.
1 7 :
Die Spalten sind gerade die Bilder (f(e
1
), . . . , f(e
m
)) der Standardbasisvektoren (e
1
, . . . , e
m
). Die Behaup-
tung folgt aus Satz 4.14, Teil 7.
5 =7 :
Nach Satz 2.14 enthalt das System der n Spaltenvektoren eine Basis des K
n
. Wegen dimK
n
= n mu jede
Basis aber aus genau n Vektoren bestehen, also ist das System der n Spaltenvektoren schon eine Basis.
7 =5 und 7 =6 :
So sind Basen deniert !
6 =7 :
Nach dem Basiserganzungssatz kann man das linear unabhangige System der n Spaltenvektoren zu einer
Basis des K
n
erganzen. Diese hat aber genau n Vektoren, also m ussen die n Spaltenvektoren von A schon
eine Basis sein.
Folgerung 4.20. Sei A K
nm
und C K
nn
, wobei C invertierbar sei.
Dann haben A und CA denselben Rang.
Beweis. Das folgt aus Folgerung 4.15: wenn die Matrix A einige linear unabhangige Spalten enthalt, dann
sind die entsprechenden Spalten von CA auch linear unabhangig, und umgekehrt. Die Maximalzahl linear
unabhangiger Spalten ist aber gerade gleich dem Rang.
Satz 4.21. Sei A K
nm
, und sei
A eine GauJordanTransformierte von A. Das heit,
A ergibt
sich aus A durch Zeilenumformungen und hat Zeilenstufenform.
Dann haben A und
A denselben Rang, und A ist invertierbar genau dann, wenn n = m und
A die Gestalt
einer oberen Dreiecksmatrix hat.
Beweis. Wir erhalten
A als Produkt LA, wobei L eine regulare Matrix ist, die wir als Produkt von Elimi-
nationsmatrizen und Permutationsmatrizen schreiben konnen. Dann haben
A und A denselben Rang.
Wir wissen: wenn
A eine obere Dreiecksmatrix ist, dann konnen wir das GauJordanVerfahren wei-
terf uhren, indem wir noch nach oben ausraumen, solange bis eine Matrix
A = I
n
entsteht, also LA = I
n
.
Dann ist A invertierbar.
Andererseits, wenn nun
A auf Zeilenstufenform gebracht wurde, aber keine Dreiecksgestalt hat, dann ist
die unterste Zeile von
A eine Nullzeile. Die Spalten von
A spannen dann nicht den K
n
auf, also ist
A nicht
invertierbar. Dann ist rang
A < n, also auch rang A < n, also ist A nicht invertierbar.
12 Fragen: Sei U = R
7
und V = R
8
. Wieviele injektive (surjektive) (bijektive) (identische) Abbildungen
gibt es von U nach V ? Von V nach U ? Von V nach V ? (Alle Abbildungen seien linear.)
4.3 Lineare Gleichungen
Es geht um Gleichungen f(u) = v, wobei f Hom(U V ) eine lineare Abbildung zwischen zwei Vek-
torraumen U und V ist. Dieses f und ein Vektor v V sind gegeben, und u U ist gesucht. Folgende
Fragen ergeben sich naheliegenderweise:
Gibt es uberhaupt Losungen ?
Wenn ja, wieviele sind es ?
76 KAPITEL 4. HOMOMORPHISMEN
Manchmal gibt es f ur gewisse v V eine Losung u, f ur andere v V aber keine Losung u. Welche
Bedingungen mu v erf ullen, damit es (mindestens) eine Losung gibt ?
Wie ndet man die Losungen ?
Satz 4.22. Seien U und V Vektorraume uber K, f Hom(U V ) und v V gegeben.
Wenn u
1
, u
2
U Losungen von f(u) = v sind, dann ist u
1
u
2
eine Losung von f(u) = 0.
Wenn u
1
eine Losung von f(u) = v und u
2
eine Losung von f(u) = 0 sind, dann ist u
1
+ u
2
eine
Losung von f(u) = v.
Beweis. Das sollten Sie selber konnen.
Wir erhalten die folgende Merkregel:
Die allgemeine Losung des inhomogenen Problems
=
eine spezielle Losung des inhomogenen Problems + die allgemeine Losung des homogenen Problems.
Die allgemeine Losung des homogenen Problems wird gerade beschrieben durch den Kern von f. Demnach
besitzt die Gleichung f(u) = v also Losungen in einer linearen Mannigfaltigkeit mit der Dimension def f =
dimU rang f; aber nur, wenn sie uberhaupt eine Losung besitzt.
Satz 4.23. Seien U und V Vektorraume uber K, und zwar endlichdimensional. Sei f Hom(U V ).
Dann gilt:
1. Die Gleichung f(u) = v hat fur jedes v V mindestens eine Losung u U rang f = dimV .
2. Die Gleichung f(u) = v hat fur jedes v V maximal eine Losung u U rang f = dimU.
3. Die Gleichung f(u) = v hat fur jedes v V genau eine Losung u U rang f = dimU = dimV .
Beweis. 1. Trivial wegen img f = V .
2. Wenn es maximal eine Losung gibt, dann ist ker f = 0, also 0 = def f = dimU rang f und
umgekehrt.
3. Folgt sofort aus 1. und 2.
Wenn wir diesen Satz auf den speziellen Fall von Matrizen beziehen, erhalten wir:
Satz 4.24. Sei A K
nm
. Dann gilt fur Gleichungssysteme Ax = y mit gegebenem y K
n
und gesuchtem
x K
m
:
1. Das Gleichungssystem Ax = y ist losbar y img A rang A = rang(A[y), wobei (A[y)
die Matrix bezeichnet, die durch Nebeneinanderstellen von A und y entsteht. Es gibt dann def A =
mrang A linear unabhangige Losungen fur das homogene Problem Ax = 0.
2. Ax = y hat fur jedes y K
n
mindestens eine Losung x K
m
rang A = n die Spalten von
A erzeugen den K
n
.
3. Ax = y hat fur jedes y K
n
maximal eine Losung x K
m
rang A = m die Spalten von A
sind linear unabhangig.
4. Ax = y hat fur jedes y K
n
genau eine Losung x K
m
rang A = m = n die Spalten von
A sind eine Basis des K
n
.
Beweis. 1. Hinschauen. Die Spalten von A spannen img A auf.
2. Siehe 4.23, Teil 1.
3. Siehe 4.23, Teil 2. Der Rang von A ist die Anzahl der linear unabhangigen Spalten von A, aber A hat
genau m Spalten.
4. Folgt aus 2. und 3.
4.4. BASISTRANSFORMATIONEN 77
4.4 Basistransformationen
Problem: Gegeben sei U = K
m
mit 2 Basen: (b
1
, . . . , b
m
) und (b
1
, . . . , b
m
). F ur einen Vektor u U haben
wir dann zwei Darstellungen:
u =
m
j=1
j
b
j
=
m
j=1
j
b
j
,
mit Koezienten
j
,
j
K. Wir fassen diese Koezienten zu Spaltenvektoren zusammen:
x =
_
_
_
1
.
.
.
m
_
_
_
B
, x
=
_
_
_
1
.
.
.
m
_
_
_
B
.
Wie kann man x
aus x bestimmen ?
Losung: Weil die Basisvektoren aus dem K
m
stammen, kann man sie als Spaltenvektoren interpretieren.
Wenn man diese Spaltenvektoren nebeneinanderstellt, erhalt man quadratische Matrizen B und B
. Diese
sind regular, weil die Spaltenvektoren linear unabhangig sind. Dann lat sich die Darstellungsformel f ur u
gerade schreiben als
u = Bx = B
,
woraus wir sofort
x
= (B
)
1
Bx
erhalten.
Problem: Seien U = K
m
, V = K
n
und f Hom(U V ). Bezogen auf die Standardbasen (e
1
, . . . , e
m
)
und (e
1
, . . . , e
n
) von U bzw. V wird die lineare Abbildung f durch eine Matrix A K
nm
dargestellt:
f(u) = Au, wenn u als Spaltenvektor interpretiert wird.
Wir geben uns noch jeweils eine weitere Basis von U bzw. V vor: (b
U
1
, . . . , b
U
m
) f ur U und (b
V
1
, . . . , b
V
n
)
f ur V . Wenn wir diese Spaltenvektoren in der angegebenen Reihenfolge nebeneinanderstellen, erhalten wir
regulare Matrizen B
U
K
mm
und B
V
K
nn
. Sei nun v = f(u), also v = Au. Die Vektoren u und v
konnen wir auch in den neuen Basen darstellen:
u =
m
j=1
U
j
b
U
j
, v =
n
j=1
V
j
b
V
j
,
wobei
U
j
,
V
j
K. Diese Koezienten konnen wir wieder in Spaltenform anordnen:
x
U
=
_
_
_
U
1
.
.
.
U
m
_
_
_
BU
, x
V
=
_
_
_
V
1
.
.
.
V
n
_
_
_
BV
.
Wie sieht nun die Abbildungsmatrix bez uglich der neuen Basen aus ? Gesucht ist also eine Matrix
A
K
nm
mit
x
V
=
Ax
U
.
Und diese Beziehung soll nat urlich f ur jeden Koezientenvektor x
U
gelten, wenn x
V
den Koezientenvektor
des zugehorigen Bildvektors v darstellt.
Losung: Die Darstellung der Vektoren u und v als Linearkombinationen der Basisvektoren b
U
j
und b
V
j
kann
man auch schreiben als
u = B
U
x
U
, v = B
V
x
V
.
Zusammen mit v = Au erhalten wir damit
x
V
= B
1
V
v = B
1
V
Au = (B
1
V
AB
U
)x
U
=
Ax
U
.
Wir fassen die Ergebnisse zusammen:
78 KAPITEL 4. HOMOMORPHISMEN
Satz 4.25. Mit den obigen Bezeichnungen ist
A = B
1
V
AB
U
. Die Bilder der neuen Basisvektoren b
U
j
werden gegeben durch
f(b
U
j
) = Ab
U
j
=
n
k=1
a
kj
b
V
k
,
wobei a
kj
gerade die Eintrage der Matrix
A sind.
Beweis. Es ist lediglich der zweite Teil noch oen. Nun ist aber
f(b
U
j
) = Ab
U
j
= A (jte Spalte von B
U
) = jte Spalte von(AB
U
) = (AB
U
)e
j
= B
V
B
1
V
AB
U
e
j
= B
V
Ae
j
= B
V
(jte Spalte von
A)
=
n
k=1
a
kj
b
V
k
.
Im wichtigen Sonderfall U = V = K
n
haben wir die Freiheit, B
U
und B
V
unabhangig voneinander zu
wahlen, normalerweise nicht.
Denition 4.26. Zwei Matrizen A,
A K
nn
heien ahnlich
15
, wenn es eine invertierbare Matrix B
K
nn
gibt mit
A = B
1
AB.
Es stellt sich die Frage, wie man die Matrix B wahlen kann/soll, damit
A moglichst einfach oder moglichst
schon wird. Die Antwort darauf ist mit unseren jetzigen Kenntnissen noch nicht moglich und mu auf ein
spateres Kapitel vertagt werden.
Seien nun U und V wieder unabhangig voneinander, U = K
m
, V = K
n
.
Satz 4.27. 1. Zu jedem Homomorphismus f L(U V ) mit U = K
m
, V = K
n
gibt es Basen
(b
U
1
, . . . , b
U
m
), (b
V
1
, . . . , b
V
n
), bezuglich derer die Abbildung f die Matrixdarstellung
A =
_
I
r
0
0 0
_
K
nm
hat, wobei r = rang f, I
r
die r rEinheitsmatrix und 0 Nullblocke mit geeigneten Abmessungen
sind.
2. Zu jeder Matrix A K
nm
gibt es Matrizen B
U
, B
V
soda
B
1
V
AB
U
=
_
I
r
0
0 0
_
K
nm
mit r = rang A.
Beweis. Wir beweisen nur den ersten Teil, der zweite lat sich auf ahnliche Weise zeigen.
Wir haben wegen der Dimensionsformel
dimimg f + dimker f = dimU = m,
wobei dimimg f = rang f = r. Analog zum Beweis der Dimensionsformel wahlen wir Basisvektoren
b
U
1
, . . . , b
U
r
, b
U
r+1
, . . . , b
U
m
U
mit
img f = span(f(b
U
1
), . . . , f(b
U
r
)) V,
ker f = span(b
U
r+1
, . . . , b
U
m
) U.
15
similar
4.5. DIFFERENTIALGLEICHUNGEN 79
Wir setzen nun b
V
1
= f(b
U
1
), . . . , b
V
r
= f(b
U
r
), und wahlen b
V
r+1
,. . . , b
V
n
V so, da eine Basis (b
V
1
, . . . , b
V
n
)
f ur V entsteht. Die Matrizen B
U
und B
V
entstehen in gewohnter Weise durch Nebeneinanderstellen der neu-
gewonnenen Basisvektoren. Dann ist
A = B
1
V
AB
U
. Wir bestimmen nun
A; dabei benutzen wir Satz 4.25:
f(b
U
j
) =
n
k=1
a
kj
b
V
k
.
Wir haben
f(b
U
j
) =
_
b
V
j
: 1 j r,
0 : r + 1 j m.
Der Vergleich dieser beiden Darstellungen beendet den Beweis.
Die Spalten der Abbildungsmatrix sind die Koordinaten der Bilder der Basisvektoren !
Satz 4.28. Sei A K
nm
, B
U
K
mm
, B
V
K
nn
, wobei B
U
und B
V
invertierbar seien. Dann haben
A und
A = B
1
V
AB
U
denselben Rang.
Beweis. Wir denieren eine lineare Abbildung f Hom(K
m
K
n
) durch f(u) = Au. Dann ist rang A =
rang f = dimimg f. Nun beschreiben A und
A die gleiche Abbildung, lediglich in verschiedenen Basen. Da
der Rang einer Matrix sich interpretieren lat als Dimension des Bildraumes, m ussen die Range von A und
A gleich sein.
Der Rang einer Matrix ist gleich der Anzahl der linear unabhangigen Spalten, man redet auch vom Spal-
tenrang.
Denition 4.29. Der Zeilenrang einer Matrix ist gleich der Anzahl der linear unabhangigen Zeilen.
Satz 4.30. Fur jede Matrix stimmen Zeilenrang und Spaltenrang uberein.
Beweis. F ur den Zeilenrang bzw. Spaltenrang einer Matrix A schreiben wir Zeilenrang(A) bzw.
Spaltenrang(A). Sei A die fragliche Matrix mit Rang (Spaltenrang) r. Wir wahlen auf ublichem Wege
Matrizen B
U
und B
V
so, da
B
1
V
AB
U
=
A =
_
I
r
0
0 0
_
K
nm
.
Nun gilt f ur die beiden Rangtypen, durch zweimaliges Anwenden von Satz 4.28:
r = Spaltenrang(A) = Spaltenrang(
A) = Zeilenrang(
A) = Spaltenrang((
A)
)
= Spaltenrang(B
U
A
(B
1
V
)
) = Spaltenrang(B
U
A
(B
V
)
1
)
= Spaltenrang(A
)
= Zeilenrang(A).
4.5 Dierentialgleichungen
Ziel dieses einf uhrenden Abschnittes soll es sein, die Losungsmenge von Dierentialgleichungen mithilfe der
Homomorphismentheorie zu beschreiben. Dabei orientieren wir uns an 2 typischen Beispielen:
Beispiel 4.31. Eine Zerfalls/Wachstumsgleichung mit Zufuhr und Anfangsbedingung wird gegeben durch
u
(t) +ku
(t) +
2
u(t) = f(t), u(0) = u
(0)
, u
(0) = u
(1)
, k, > 0.
80 KAPITEL 4. HOMOMORPHISMEN
Denition 4.32. Sei U = C
1
(R R
n
) und V = C(R R
n
). Hierbei ist y U genau dann, wenn
y = y(t) = (y
1
(t), . . . , y
n
(t))
und jedes y
j
= y
j
(t) stetig dierenzierbar ist. Analog ist y V genau dann,
wenn y = y(t) = (y
1
(t), . . . , y
n
(t))
und jedes y
j
= y
j
(t) stetig.
Sei A K
nn
eine Matrix. Eine Abbildung
L: U V,
L: y Ly =
d
dt
y Ay
heit MatrixDierentialoperator.
Wenn b V , dann heit
Ly = b
also y
(t)
_
,
also n = 2, und stellen fest, da
y
(t) =
_
u
(t)
u
(t)
_
=
_
0 1
2
k
_
y(t) +
_
0
f(t)
_
.
Wir setzen also
A =
_
0 1
2
k
_
, b = b(t) =
_
0
f(t)
_
und bekommen (
d
dt
A)y = b. Die beiden Anfangsbedingungen u(0) = u
(0)
, u
(0) = u
(1)
werden zu
y(0) = y
0
=
_
y
0,1
y
0,2
_
=
_
u
(0)
u
(1)
_
.
Im allgemeinen Fall haben wir es mit einem Anfangswertproblem
Ly = y
Ay = b, y(0) = y
0
(4.3)
zu tun, wobei A, b, y
0
gegeben sind und y gesucht.
Satz 4.33. Wenn y
eine spezielle Losung des inhomogenen Problems Ly = b ist, dann liegen alle Losungen
zu Ly = b in der Menge
y
+ ker L := y U : y y
ker L.
Beweis. Siehe Abschnitt 4.3.
Satz 4.34. Es ist dimker L = n. Die Anfangswertabbildung, die einen Funktionenvektor auf seine Werte
zur Zeit 0 abbildet,
AWA: ker L R
n
,
AWA: y y(0)
ist bijektiv.
4.5. DIFFERENTIALGLEICHUNGEN 81
Der Beweis dazu verteilt sich auf mehrere Schritte. Leider konnen wir ihn mit unseren Kenntnissen nicht in
der hier behaupteten Allgemeinheit f uhren, soda wir uns stattdessen beim Beweis der Surjektivitat auf die
Schwingungsgleichung beschranken und den Beweis des allgemeinen Falls auf das dritte Semester vertagen.
Auf jeden Fall erhalten wir aus diesem Satz ein allgemeines Verfahren zur Bestimmung der Losung des
Anfangswertproblems (4.3):
1. Finde eine spezielle Losung y
= y
(0) +y
h
(0) = y
0
.
4. Setze y(t) = y
(t) +y
h
(t).
Aus Satz 4.34 ergibt sich, da es immer eine Losung y gibt, und da die so konstruierte Losung tatsachlich
die einzige Losung ist.
F ur den Beweis der Injektivitat der Anfangswertabbildung brauchen wir ein Hilfsresultat:
Lemma 4.35. Sei y C
1
(R R
n
) Losung zu (
d
dt
A)y = 0 mit der Anfangsbedingung y(t
0
) = 0. Dann
ist y(t) = 0 fur jedes t R.
Beweis. Wir haben y = y(t) = (y
1
, . . . , y
n
)
j
(t) =
n
k=1
a
jk
y
k
(t).
Sei t > t
0
. Wir integrieren die letzte Gleichung von t
0
bis t:
y
j
(t) y
j
(t
0
) =
_
t
t0
n
k=1
a
jk
y
k
() d.
Daraus bekommen wir nun eine Abschatzung f ur die Norm |y(t)|:
[y
j
(t)[ =
_
t
t0
n
k=1
a
jk
y
k
() d
_
t
t0
k=1
a
jk
y
k
()
d
_
t
t0
n
k=1
[a
jk
y
k
()[ d
|A|
_
t
t0
|y()| d,
|y(t)| n|A|
_
t
t0
|y()| d.
Wir denieren eine Zahl := n|A| und eine Funktion g = g(t) :=
_
t
t0
|y()| d. Dann konnen wir, wegen
des Hauptsatzes der Dierential und Integralrechnung, die letzte Ungleichung schreiben als
g
(t) g(t), t t
0
.
Ein freundlicher Geist erscheint uns im Traum und gibt uns den Hinweis, die Ableitung der Funktion
t g(t)e
t
zu untersuchen:
_
g(t)e
t
_
= g
(t)e
t
+g(t) ()e
t
g(t)e
t
g(t)e
t
= 0 0.
82 KAPITEL 4. HOMOMORPHISMEN
Also ist diese Funktion schwach monoton fallend, und somit ist, f ur t t
0
,
g(t)e
t
g(t
0
)e
t0
.
Nun ist allerdings g(t
0
) = 0, also auch g(t) 0. Weiterhin zeigt uns die Denition der Funktion g, da g
gar nicht negativ werden kann. Damit ist also g(t) = 0 f ur jedes t t
0
.
Das bedeutet, da die Norm |y(t)| = 0 sein mu, f ur t aus dem Intervall [t
0
, ), und somit y 0 rechts
von t
0
. Analog argumentiert man links von t
0
.
Damit ist die Injektivitat der Anfangswertabbildung fast schon gezeigt:
Satz 4.36. Die Abbildung
AWA: ker L R
n
,
AWA: y y(0)
ist injektiv und es ist dimker L n.
Beweis. Es seien y und y aus ker L mit y(0) = y(0). Sei z = y y. Dann ist z ker L und z(0) = 0. Nach
Lemma 4.35 haben wir z(t) = 0 f ur jedes t R, also y = y. Also ist die Anfangswertabbildung injektiv.
Die Dimensionsaussage folgt aus Satz 4.14, Teil 4, denn dimR
n
= n.
Unsere jetzigen Kenntnisse reichen nicht aus, um die Surjektivitat der Anfangswertabbildung im allgemeinen
Fall zu zeigen. Wir beschranken uns stattdessen auf den Spezialfall der Schwingungsgleichung bzw. des zur
Schwingungsgleichung aquivalenten Systems.
Satz 4.37. Sei U = C
1
(R R
2
), V = C(R R) und
A =
_
0 1
2
k
_
.
Dann ist die Abbildung
AWA: ker
_
d
dt
A
_
R
2
,
AWA: y y(0)
surjektiv.
Beweis. Wir zeigen dimker L = 2. Dann ist die Anfangswertabbildung eine injektive Abbildung von einem
zweidimensionalen Raum in einen zweidimensionalen Raum, nach Satz 4.18 also auch surjektiv.
Wir haben y = y(t) = (y
1
(t), y
2
(t))
(t) +ku
(t) +
2
u(t) = 0,
falls y ker L. Im Rest des Beweises konstruieren wir zwei linear unabhangige Losungen u
1
, u
2
C
2
(R; R).
Daraus bauen wir zwei Vektoren
_
u
1
u
1
_
,
_
u
2
u
2
_
,
die linear unabhangig sind und im Kern des Operators L liegen. Dann ist die Dimension von ker L also
mindestens gleich 2, nach Satz 4.36 also genau gleich 2.
Wir machen f ur die Funktion u den Ansatz
u(t) = e
t
, t R,
mit wahlbarem Parameter . Wenn wir diesen Ansatz in die homogene Gleichung einsetzen, bekommen wir
e
t
_
2
+k +
2
_
= 0.
4.6. AUSBLICK: LINEARE ABBILDUNGEN IN DER PHYSIK 83
Weil die Exponentialfunktion nie Null wird, m ute
2
+k +
2
= 0 sein, also
=
1,2
=
k
2
_
k
2
4
2
.
Fall 1:
k
2
4
2
> 0
Dann sind
1
,
2
R und verschieden, also sind die Funktionen e
1t
und e
2t
linear unabhangig. Wir haben
also zwei linear unabhangige Losungen u der homogenen Schwingungsgleichung gefunden.
Fall 2:
k
2
4
2
= 0
Dann ist
1
=
2
und die beiden Funktionen e
1t
und e
2t
sind linear abhangig.
Man rechnet aber schnell nach, da eine weitere Losung gegeben wird durch te
1t
. Damit sind erneut zwei
linear unabhangige Losungen der Schwingungsgleichung gefunden.
Fall 3:
k
2
4
2
< 0
In diesem Fall sind
1
und
2
nicht reell. Wir haben stattdessen
1,2
= i, =
k
2
, =
k
2
4
2
,
und dann gilt
e
1t
= e
t
(cos(t) + i sin(t)), e
2t
= e
t
(cos(t) i sin(t)).
Man sieht, da zwei linear unabhangige Losungen der Schwingungsgleichung gegeben werden durch
e
t
cos(t), e
t
sin(t).
In allen drei Fallen kamen wir auf dimker L 2, und der Beweis ist damit beendet.
4.6 Ausblick: Lineare Abbildungen in der Physik
Die ublichen Dierentialoperatoren sind typische Beispiele f ur lineare Abbildungen zwischen Funktionen-
vektorraumen:
Gradient: f ur ein Skalarfeld : R
3
R ist der Gradient deniert als
=
_
x
1
,
x
2
,
x
3
_
.
Die Abbildung ist linear. Wir haben z.B.
?
Hom
_
L
2
(R
3
R) L
2
(R
3
R
3
)
_
,
dabei sollten wir aber aufpassen wegen des Denitionsbereiches von : dieser Operator kann nur auf
solche Funktionen aus dem L
2
(R
3
R) angewandt werden, f ur die tatsachlich im Bildraum
L
2
(R
3
R
3
) liegt. (Welche Funktionen das sind, wollen wir hier nicht weiter erortern. Wir deuten
lediglich diesen Aspekt durch ein Fragezeichen an.) Mit den Bezeichnungen der HelmholtzZerlegung
haben wir dann
img = L
2
pot
(R
3
R
3
).
Divergenz: f ur ein Vektorfeld u: R
3
R
3
ist die Divergenz deniert als
div u =
u
1
x
1
+
u
2
x
2
+
u
3
x
3
.
Die Abbildung u div u ist linear. Wir haben z.B.
div
?
Hom
_
L
2
(R
3
R
3
) L
2
(R
3
R)
_
,
und auch hier sollten wir aufpassen wegen des Denitionsbereiches von div. Mit den Bezeichnungen
der HelmholtzZerlegung haben wir dann
ker div = L
2
div
(R
3
R
3
).
84 KAPITEL 4. HOMOMORPHISMEN
LaplaceOperator: Dieser ist deniert als = div . Aufgrund von Satz 4.8, Teil 2, ist er dann
automatisch linear.
Lineare Dierentialoperatoren haben die wunderschone physikalische Eigenschaft, da f ur ihre Losun-
gen das Superpositionsprinzip gilt.
P und Q: Wir betrachten ein einzelnes spinloses Teilchen. Sein quantenmechanischer Zustand wird be-
schrieben durch eine Wellenfunktion = (t, x): R
t
R
3
x
C. Diese liegt (f ur jede Zeit t) im
Vektorraum L
2
(R
3
C), der ausgestattet ist mit dem Skalarprodukt , )
L
2
wie in (2.3).
Wenn ein Teilchen einen Spin hat (mit Wert +
1
2
oder
1
2
), dann brauchen wir zwei Wellenfunk-
tionen zur Beschreibung dieses Teilchens, also haben wir = (
+
,
) (L
2
(R
3
C))
2
, und das
Skalarprodukt ist dann , ) :=
+
,
+
)
L
2
+
)
L
2
.
Bei M Teilchen (ohne Spin) nehmen wir als Vektorraum den L
2
(R
3M
C) mit naheliegendem
Skalarprodukt, und wenn diese Teilchen miteinander wechselwirken oder Spins haben konnen, dann
wird es richtig kompliziert.
Alle diese Vektorraume sind dem jeweiligen physikalischen System zugeordnet und heien Systemhil-
bertraume. Ihre Dimension ist praktisch immer gleich unendlich.
Nun schauen wir uns Megroen an, wie z.B. Ort, Impuls, Energie. Jeder solchen Megroe (Obser-
vable) entspricht eine lineare Abbildung, man sagt auch linearer Operator. Diese Operatoren bilden
den Systemhilbertraum H (bzw. einen Untervektorraum davon) in H ab (bzw. in den H H H,
denn wir leben ja in einer dreidimensionalen Welt).
Ortsoperator Q: Es ist Q: Q, wobei (Q)(x) = x(x). Wegen x = (x
1
, x
2
, x
3
)
R
3
zerlegen wir Q = (Q
1
, Q
2
, Q
3
) mit (Q
j
)(x) = x
j
(x).
Impulsoperator P: Es ist P : P, wobei
(P)(x) =
i
(x),
und =
h
2
ist das PlanckWirkungsquantum, mit h = 6.6260755 10
34
Js. Wir zerlegen analog
zu Q auch P als P = (P
1
, P
2
, P
3
).
Operator zur potentiellen Energie: Sei V = V (x) ein Potential (f ur das Wasserstoatom z.B.
das CoulombPotential), dann gehort dazu ein Multiplikationsoperator M
V
: M
V
, wobei
(M
V
)(x) = V (x)(x).
Operator zur Gesamtenergie: Wir ersetzen E durch i
t
.
Die Energiegleichung E = E
kin
+E
pot
=
p
2
2m
+V wird dann zu
i
t
(t, x) =
2
2m
(t, x) +V (x)(t, x),
was die ber uhmte Schrodingergleichung ist.
Die Wellenfunktion ist als solche metechnisch nicht aundbar. Messen kann man nur die ublichen
Groen f ur ein Teilchen: Aufenthaltsort, Impuls, Energie, Drehimpuls usw., und Quantenmechanisch
sind diese Mewerte dann Eigenwerte der entsprechenden Operatoren. F ur den Ortsoperator Q
1
ware ein solcher Eigenwert also eine Zahl x
1
R mit Q
1
= x
1
. Diese Eigenwerte zu Operatoren
entsprechen genau den Eigenwerten zu selbstadjungierten Matrizen, wie wir sie im zweiten Semester
behandeln werden.
Zum Abschlu erinnern wir daran, da die Matrizenmultiplikation nicht kommutativ ist. Etwas ahn-
liches beobachten wir auch hier: die Operatoren P und Q vertauschen nicht miteinander, denn es ist
P
j
Q
j
,= Q
j
P
j
, f ur j = 1, 2, 3. Die physikalische Konsequenz davon ist die Unscharfenrelation
von Heisenberg, die besagt, da man f ur ein Teilchen seinen Aufenthaltsort und seinen Impuls nicht
gleichzeitig beliebig genau messen kann.
Wir verlassen den Zoo der Dierentialoperatoren und schauen uns einige physikalische Groen an:
Warmeleitungstensor: Wir haben ein unbewegliches Medium, in dem Warme stromen kann, z.B. einen
Festkorper (aber kein Gas oder Fluid). Die Temperatur am Ort x nennen wir T(x), was ein skalares
Feld ergibt. Der Gradient davon, also T(x), ist ein Vektor, der am Punkt x angeheftet ist und in
4.6. AUSBLICK: LINEARE ABBILDUNGEN IN DER PHYSIK 85
Richtung des steilsten Temperaturanstiegs zeigt. Dieser Temperaturunterschied f uhrt normalerweise
zu einem Warmeu, der durch ein Vektorfeld beschrieben wird, das wir j nennen. Im Allgemeinen
gilt dann
j = T,
wobei meist eine Zahl ist, die die Warmeleitfahigkeit des Stoes beschreibt. Es ist aber auch moglich,
da der Sto in unterschiedlichen Richtungen die Warme unterschiedlich gut leitet. Zum Beispiel
ist es denkbar, da Holz die Warme besser parallel zur Faser leitet als quer dazu. Oder vielleicht
liegt ein Kristall vor, bei dem das Verhalten entlang der verschiedenen Achsen unterschiedlich ist.
Dann brauchen j und T nicht mehr parallel zueinander sein, und ist eine Matrix, die auch
Warmeleitfahigkeitstensor genannt wird. Wir stellen uns vor, da dieser Tensor die
Ursache T
auf die
Wirkung j abbildet. Der isotrope Fall (da alle Richtungen gleichberechtigt sind) ist mit
enthalten, wenn wir f ur ein Vielfaches der Einheitsmatrix erlauben.
Verzerrungstensor: Ein Festkorper wird irgendwie belastet und verformt sich ein wenig. Das kann man
sich so vorstellen, da das Teilchen, was im Ruhezustand an der Position x war, durch die Verformung
gewandert ist an die Stelle x + u(x). Der Vektor u(x) heit Verschiebungsvektor; wir stellen ihn uns
als kurz vor. Bei einer Verschiebung des gesamten Korpers ist u konstant, was uns nicht interessiert.
Bei einer Drehung des gesamten Korpers ist (nach einer geeigneten Wahl des Koordinatensystems)
u(x) = Ax, wobei A eine Drehmatrix aus der Gruppe SO(3) ist. Das interessiert uns auch nicht, denn
wir wollen nur die Verzerrungen beschreiben, weshalb wir voraussetzen, da unser Korper solche
Bewegungen nicht ausf uhrt. (Das typische Beispiel ist ein Stab, an dessen beiden Enden gezogen
wird, soda er langer wird, gleichzeitig aber d unner.) Unter dieser Voraussetzung bekommen wir,
da ein kurzer Verbindungsvektor z zweier Punkte abgebildet wird auf einen Vektor z, wobei der
sogenannte Verzerrungstensor ist, der den alten Verbindungsvektor vor der Deformation zum neuen
Verbindungsvektor nach der Deformation sendet.
Spannungstensor: Wir haben einen verformten Festkorper und wahlen in seinem Innern ein kleines
Flachenst uck, und auf einer Seite davon denken wir uns das Material gedanklich entfernt. Dieses
entfernte Material kann auf das ubrige Material eine Kraft aus uben, die uber das kleine Flachenst uck
vermittelt wird. Diese Kraft kann senkrecht zur Flache dr ucken (Druckspannung), oder senkrecht
zur Flache ziehen (Zugspannung) oder tangential zur Flache schieben (Schubspannung), oder alles
vermischt bewirken. Der Spannungstensor ist derjenige Tensor (also diejenige Matrix), der den
Auennormalenvektor des kleinen Flachenst ucks auf den Kraftvektor abbildet.
Elastizitatstensor: Wir stellen uns vor, da zwischen Verzerrung und Spannung ein linearer Zusammen-
hang besteht, der dann wie folgt aussieht:
= C.
Hierbei sind und die obigen Tensoren zweiter Stufe mit jeweils 3 3 = 9 Eintragen, also ist C ein
Tensor vierter Stufe mit 9 9 = 81 Eintragen, der Elastizitatstensor genannt wird. Aus Symmetrie-
gr unden sind viele von diesen Eintragen gleich, soda nur 21 Materialkonstanten ubrigbleiben. Und
f ur einen isotropen Festkorper sind es nur zwei Parameter, und es entsteht:
C
ijkl
= K
ij
kl
+G
_
ik
jl
+
il
jk
2
3
ij
kl
_
.
Wir nennen K den Kompressionsmodul und G den Schermodul.
Wenn dieser Festkorper jetzt beginnt zu schwingen, dann bekommen wir die Dierentialgleichung f ur
die Verschiebungsvektorfunktion u = u(t, x):
2
u
t
2
= Gu +
_
K +
G
3
_
div u,
wobei die Materialdichte bezeichnet.
Knobelaufgabe: Man zerlege mittels HelmholtzProjektion das Verschiebungsvektorfeld u in einen lon-
gitudinalen und einen transversalen Anteil. Man beobachte, wie diese Zerlegung die obige komplizierte
Dierentialgleichung erheblich vereinfacht. Man errate die Ausbreitungsgeschwindigkeiten der beiden Wel-
lentypen.
86 KAPITEL 4. HOMOMORPHISMEN
4.7 Ausblick: Vektorraume in der Physik 2
Sei U ein Vektorraum uber dem Korper K. Die Menge aller linearen Abbildungen von U in den Vektorraum
K
1
heit Dualraum von U. Dieser Dualraum ist seinerseits wiederum ein Vektorraum uber dem Korper K.
Man stelle sich vor, da ein Element des Dualraumes nichts anderes tut, als auf Vektoren aus U zu warten,
sie aufzufressen und Zahlen daraus zu machen.
Als Beispiel f ur U betrachten wir den R
3
, dann ist K = R. Die Elemente von U nennen wir x = (x
1
, x
2
, x
3
)
als Spaltenvektoren. Wir stellen uns diese Vektoren als Ortsvektoren vor, mit Maeinheit Meter. Der Dual-
raum dazu besteht aus Zeilenvektoren k = (k
1
, k
2
, k
3
) mit Maeinheit
1
Meter
. Jedes solche k R
3
k
erzeugt
eine Abbildung von R
3
x
in den einheitenlosen R gema kx = k
1
x
1
+ k
2
x
2
+ k
3
x
3
. Diese Vektoren k nennt
man gelegentlich Wellenzahlvektoren.
Als typisches Beispiel denken wir an einen triklinen Kristall. Dieser hat 3 Achsen, deren Winkel zueinander
keine rechten Winkel sind, und die charakteristischen Kantenlangen sind unterschiedlich lang. Auf diesem
Wege bekommen wir eine Gitterstruktur, und an jedem Gitterknotenpunkt sitzt eine Elementarzelle. Wir
f uhren ein Koordinatensystem ein, wobei die Basisvektoren entlang der Gitterlinien zeigen. Die Basisvek-
torenlange ist genau gleich dem Abstand zweier benachbarter Gitterpunkte entlang einer Gitterlinie.
Wir bekommen auf diesem Wege drei Basisvektoren b
1
, b
2
, b
3
, die keine ONB des R
3
bilden. Jeder Vektor x
kann dann geschrieben werden als x =
1
b
1
+
2
b
2
+
3
b
3
(hierbei hat es sich eingeb urgert, die Indizes an die
Koordinaten oben zu schreiben, nicht unten). Wenn wir noch einen weiteren Vektor y =
1
b
1
+
2
b
2
+
3
b
3
haben und uns f ur das Skalarprodukt x y interessieren, dann ist dieses leider nicht gleich
1
1
+
2
2
+
3
3
.
Stattdessen entstehen weitere
Argersummanden aus gemischten Produkten, eben weil keine ONB vorliegt.
Als Ausweg betrachten wir eine weitere Basis (b
1
, b
2
, b
3
), diesmal f ur den Dualraum, mit Indizes oben statt
unten. Wir verlangen, da f ur die Skalarprodukte mit den Elementen der alten Basis gilt:
b
j
b
k
=
j
k
, j, k = 1, 2, 3,
wobei rechts das Kroneckersymbol steht. Wenn wir jetzt y in der dualen Basis (man nennt sie auch
reziproke Basis) entwickeln, y =
1
b
1
+
2
b
2
+
2
b
2
, dann ist tatsachlich x y =
1
1
+
2
2
+
3
3
.
Die reziproke Basis erzeugt in nat urlicher Weise ein neues Gitter, das in Bezug auf das Kristallgitter das
reziproke Gitter genannt wird. F ur die Untersuchung von z.B. Gitterschwingungen spielt dieses reziproke
Gitter eine ganz wichtige Rolle.
Wir rechnen damit noch ein bichen. Als Hauptregeln halten wir dabei fest:
Punkte bezeichnen das Skalarprodukt von Vektoren,
Groen in lateinischen Buchstaben sind Vektoren (abgesehen von Indizes),
Groen in griechischen Buchstaben sind reelle Zahlen,
alle Summationen laufen von 1 bis 3 (wir verzichten auf die Summenkonvention von Einstein),
Groen mit unteren Indizes heien kovariant, mit oberen Indizes heien sie kontravariant (das ist
im allgemeinen Fall nicht ganz korrekt, in der hier vorliegenden Situation aber richtig. In Wirklich-
keit beziehen sich die Begrie
kovariant und
jk
:= b
j
b
k
,
jk
:= b
j
b
k
, j, k = 1, 2, 3.
Die kovarianten Metrik-Koezienten
jk
sind bekannt, die kontravarianten Metrik-Koezienten
jk
sind
es noch nicht.
Wir basteln uns einige Vektoren als Spielzeug, namlich c
j
:=
l
jl
b
l
. Dann ist
c
j
b
k
=
jl
b
l
b
k
=
jl
k
l
=
jk
= b
j
b
k
.
4.7. AUSBLICK: VEKTORR
jl
b
l
,
und jetzt brauchen wir die c
j
nicht mehr. Wenn es uns gelingt, die
jl
auszurechnen, dann haben wir die
gesuchte kontravariante Basis. Dazu beobachten wir, da
jl
lk
=
jl
b
l
b
k
= b
j
b
k
=
j
k
,
was nichts anderes bedeutet, als da die Matrix der
jl
und die Matrix der
jl
invers zueinander sind. Und
Matrizen invertieren konnen wir ja.
Als nachstes Projekt bestimmen wir die Komponenten eines Vektors. Sei x gegeben (die beiden Basen
nat urlich auch), und die Komponenten
j
und
j
gema x =
j
j
b
j
sowie x =
j
j
b
j
seien gesucht. Man
veriziert schnell, da die Losung gegeben wird durch folgende Formeln:
j
= x b
j
,
j
= x b
j
, j = 1, 2, 3.
Und als Schluprojekt betrachten wir Basistransformationen: sei mit (b
1
, b
2
, b
3
) eine weitere kovariante
Basis gegeben:
b
j
:=
k
j
b
k
, (4.4)
und wir wollen wissen, wie die Transformationsformeln f ur die anderen Groen sind. Die Unter- und Ober-
striche bedeuten keinerlei Konjugationen oder ahnliches, sondern sollen lediglich das Einf uhren weiterer
Buchstaben vermeiden.
Die umgekehrte Transformation ist dann
b
k
=
l
k
b
l
mit noch unbekannten
l
k
, die sich aber bestimmen lassen durch Einsetzen und Koezientenvergleich:
b
k
=
l,m
l
k
m
l
b
m
,
also mu
l
k
m
l
=
m
k
sein, und demnach sind die Matrizen der
l
k
und
l
k
invers zueinander. Dann mu
aber auch die Gleichung
l
l
k
m
l
=
m
k
gelten, denn aus AA
1
= I folgt A
1
A = I.
Nun suchen wir Formeln f ur die reziproke Basis (b
1
, b
2
, b
3
). Mit Phantasie, gest utzt durch Probieren anhand
echter Zahlen (oder durch einen Ansatz), kommt man zur Vermutung, da b
l
=
k
l
k
b
k
sein konnte. Wir
testen dies anhand folgender Rechnung:
b
j
l
k
b
k
=
_
m
j
b
m
_
l
k
b
k
_
=
m,k
m
j
l
k
b
m
b
k
=
m,k
m
j
l
k
k
m
=
m
j
l
m
=
l
j
,
also gilt tatsachlich
b
l
=
l
k
b
k
. (4.5)
F ur die Transformation von Komponenten eines Vektors x haben wir x =
l
b
l
mit
l
= x b
l
= x
l
k
b
k
,
woraus wir
l
=
l
k
k
(4.6)
88 KAPITEL 4. HOMOMORPHISMEN
bekommen. Und f ur die kovarianten Koordinaten von x haben wir x =
j
j
b
j
mit
j
= x b
j
= x
k
j
b
k
mit der Konsequenz
j
=
k
j
k
. (4.7)
Wir erkennen, da (4.4) und (4.7) sehr ahnlich aussehen: die Transformation erfolgt mittels der . Samtliche
Groen, die sich so transformieren, bezeichnet man als kovariante Tensoren.
Und wir erkennen weiterhin, da auch (4.5) und (4.6) einander sehr ahneln: die Transformation erfolgt
mittels der . Samtliche Groen, die sich nach diesem Schema transformieren bei Basiswechsel, nennt man
kontravariante Tensoren.
Das waren die Anfangsgr unde der Tensorrechnung, mehr Informationen ndet man z.B. in Klingbeil,
Tensorrechnung fur Ingenieure.
4.8 Schl usselbegrie
Denition linearer Abbildungen, Dierentialoperatoren als lineare Abbildungen,
Begrie injektiv, surjektiv, bijektiv, Isomorphismus,
Kern, Bild, Rang,
Dimensionsformel und Folgerungen daraus,
Struktur der Losungsmenge linearer Gleichungssysteme,
ahnliche Matrizen und deren Beziehung zu Basistransformationen,
Losungsalgorithmus f ur lineare gewohnliche Dierentialgleichungen mit konstanten Koezienten, an-
hand der Schwingungsdierentialgleichung.
Kapitel 5
Normierte R
|
K
d = 0.
Das ist mathematisch deniert als:
> 0 N
0
() : n N
0
() : |a
n
a
|
K
d < .
Zu verstehen ist diese Formelzeile wie folgt:
Wir konnen den Abstand von a
n
und a
|
K
d < )
und zwar beliebig klein ( > 0)
wenn wir nur vorher sicherstellen, da n genugend gro (N
0
(): n N
0
()) ist.
Dabei sind alle a
n
mit n N
0
() hochstens von a
ein N
0
gibt,
soda das Folgenendstuck ab N
0
in dieser Umgebung liegt.
Ein
Folgenendst uck ab N
0
sind alle Folgenglieder ab a
N0
.
1
convergent with limit a
89
90 KAPITEL 5. NORMIERTE R
und a
. Dann ist
> 0 N
0
() : n N
0
() : |a
n
a
|
K
d < ,
> 0 N
1
() : n N
1
() : |a
n
a
|
K
d < .
Nun wahlen wir =
1
3
|a
|
K
d = |a
a
n
+a
n
a
|
K
d |a
a
n
|
K
d +|a
n
a
|
K
d < + =
2
3
|a
|
K
d ,
was nicht moglich ist.
Denition 5.4. Sei (a
n
)
nN
eine Folge von Elementen einer Menge M, und sei (k(n))
nN
eine streng
monoton wachsende Folge naturlicher Zahlen. Dann heit die Folge
(a
k(n)
)
nN
Teilfolge
2
der Folge (a
n
)
nN
.
Satz 5.5. Wenn eine Folge gegen einen Grenzwert konvergiert, dann konvergiert auch jede ihrer Teilfolgen
gegen denselben Grenzwert.
Beweis.
Ubungsaufgabe.
Satz 5.6. Seien (a
n
)
nN
und (b
n
)
nN
zwei konvergente Folgen in K
d
mit Grenzwerten a
und b
, und
seien , K. Dann konvergiert auch die Folge (a
n
+b
n
)
nN
, und zwar gegen a
+b
.
Beweis. Folgt sofort aus
|(a
n
+b
n
) (a
+b
)|
K
d |(a
n
a
)|
K
d +|(b
n
b
)|
K
d = [[ |a
n
a
|
K
d +[[ |b
n
b
|
K
d .
Warnung 5.7. Die Regel
lim
n
(a
n
+b
n
) = lim
n
a
n
+ lim
n
b
n
gilt nur dann, wenn beide Grenzwerte auf der rechten Seite existieren !
Denition 5.8. Sei M K
d
. Ein Punkt a
K
d
heit Haufungspunkt von M
3
, wenn es eine Folge
(a
n
)
nN
M a
gibt mit a
= lim
n
a
n
.
Die folgende Vereinigungsmenge heit Abschlu
4
von M:
M = M alle Haufungspunkte von M.
Beispiele:
K
d
= R und M = (0, 1],
K
d
= R
2
und M = x: |x|
K
d
< R.
Denition 5.9. Eine Menge M ist abgeschlossen
5
, wenn jeder Haufungspunkt von M in M liegt.
Beispiele: F ur K
d
= R betrachte man M = [0, 1] bzw. M = [0, 1) bzw. M = [0, ).
2
sub-sequence
3
cluster point of M
4
closure
5
closed
5.2. FOLGEN UND REIHEN IN NORMIERTEN R
AUMEN 91
Denition 5.10. Sei x
0
K
d
und R
+
. Die Menge
B
(x
0
) = x K
d
: |x x
0
|
K
d
<
heit Umgebung
6
von x
0
K
d
oder auch Ball um x
0
.
Denition 5.11. Sei M K
d
eine Menge. Ein Punkt x
0
K
d
heit innerer Punkt
7
von M, wenn
es eine Umgebung B
(x
0
) M gibt. Ein Punkt x
0
K
d
heit Randpunkt
8
von M, wenn in jeder
Umgebung B
(x
0
) ein Punkt in M und ein Punkt in K
d
M liegen. Die Menge aller Randpunkte wird mit
M bezeichnet.
Denition 5.12. Eine Menge M K
d
ist oen
9
, wenn jeder Punkt von M ein innerer Punkt von M ist.
Satz 5.13. Eine Menge M ist abgeschlossen genau dann, wenn M M.
Eine Menge M K
d
ist oen genau dann, wenn K
d
M abgeschlossen ist.
Beweis. Das schaen Sie selbst.
Man sagt auch umgangssprachlich:
Bei einer abgeschlossenen Menge gehort der Rand dazu.
Bei einer oenen Menge gehort der Rand nicht dazu.
Als Sonderfalle haben wir M = und M = K
d
. Diese Mengen sind gleichzeitig oen und abgeschlossen.
Es gibt auch Mengen in R, die weder oen noch abgeschlossen sind, z.B. M = (0, 1].
Denition 5.14. Eine Menge M K
d
heit beschrankt
10
, wenn es eine Konstante C R gibt, soda
|x|
K
d C fur jedes x M gilt. Also
C R : x M : |x|
K
d C.
Das bedeutet anschaulich, da jede beschrankte Menge in einer passend gro gewahlten Kugel untergebracht
werden kann.
Frage: Sei M = Q R
1
die Menge der rationalen Zahlen im Vektorraum R
1
. Was sind die Randpunkte
von M ? die Haufungspunkte ? die inneren Punkte ?
5.2 Folgen und Reihen in normierten Raumen
Das charakteristische Merkmal der Vektorraume R
d
und C
d
ist, da sie endlichdimensional sind. In den
Betrachtungen des vorigen Abschnitts haben wir aber diese Endlichdimensionalitat nirgendwo benutzt.
Deshalb werden wir jetzt allgemeinere Vektorraume verwenden, die auch unendlichdimensional sein konnen.
Dabei lassen wir uns von den Anwendungen in der Physik leiten, denn der f ur die Quantenmechanik hochst
wichtige Vektorraum L
2
(R
3
C) ist ja unendlichdimensional.
Um Abstande in Vektorraumen messen zu konnen, ist es hilfreich, eine Norm zu haben, was uns dann zum
Konzept der normierten Raume f uhren wird. Insbesondere betrachten wir folgende normierten Raume:
R
d
, C
d
, K
pq
, C
k
(R R
d
), . . . .
Da ab jetzt U ein beliebiger Vektorraum sein wird, uber den nichts bekannt ist (abgesehen von den Ei-
genschaften, die in der Denition von abstrakten Vektorraumen gefordert werden), konnen wir auch den
Begri einer Norm nur abstrakt denieren:
Denition 5.15. Sei U ein Vektorraum uber einem Korper K, K = R oder K = C. Eine Abbildung
|| : U R,
|| : u |u|
heit Norm von U, wenn gilt:
6
neighbourhood
7
inner point
8
boundary point
9
open
10
bounded
92 KAPITEL 5. NORMIERTE R
:= max
j=1,...,d
[x
j
[.
Analog f ur U = C
d
. F ur Matrizen A K
pq
benutzt man unter anderem
|A| :=
i,j
[a
ij
[
2
, oder auch |A| := max
i,j
[a
ij
[.
F ur den Funktionenraum U = C([a, b] R) sind folgende Normen denkbar:
|f|
:= max
x[a,b]
[f(x)[,
|f|
2
:=
_
b
a
f(x)
2
dx,
|f|
1
:=
_
b
a
[f(x)[dx.
In Wirklichkeit ist die ||
Norm etwas anders deniert; die obige Formel ist aber nicht falsch, wenn die
Funktion f auf [a, b] stetig ist (wie wir es ja vorausgesetzt hatten).
Und f ur den Raum U = C
1
([a, b] R) verwendet man im Allgemeinen |f|
C
1 := |f|
+|f
.
Denition 5.16. Sei M eine Menge. Eine Abbildung
N M,
n a
n
heit Folge
12
von Elementen aus M.
Mit Hilfe der jetzt bereitgestellten Begrie
Norm und
Konvergenz,
Teilfolge,
Haufungspunkt,
Abschlu,
abgeschlossene Menge,
Umgebung,
in-
nerer Punkt,
Randpunkt,
oene Menge,
K
d
durch
U). Die Satze 5.3, 5.5, 5.6 und 5.13 gelten auch jetzt.
Beispiel 5.17. Sei U der Vektorraum der auf [0, 1]
(1) := 1.
fur jedes feste x [0, 1] ist lim
n
f
n
(x) = f
|
1
=
1
n+1
,
sei g = g(x) = 0 die Nullfunktion auf [0, 1], also g(x) = 0 insbesondere auch fur x = 1. Dann ist
lim
n
f
n
= g mit Konvergenz in der ||
1
Norm fur U, denn |f
n
g|
1
=
1
n+1
. (Nun ist aber
g ,= f
. Wie versohnen Sie das mit dem zweiten und mit Satz 5.3 ?)
gemessen in der ||
oder g,
denn |f
n
f
= |f
n
g|
= 1 fur alle n.
11
normed space
12
sequence
5.2. FOLGEN UND REIHEN IN NORMIERTEN R
AUMEN 93
5.2.1 Vollstandigkeit
Aus Beispiel 5.17 lernen wir, da wir im Falle eines unendlichdimensionalen Vektorraumes U bei der Wahl
der Norm von U Vorsicht walten lassen sollten. Ansonsten konnte es passieren, da der entstehende nor-
mierte Raum nicht vollstandig ist, was einige unangenehme Konsequenzen mit sich bringen w urde.
Denition 5.18. Eine Folge (a
n
)
nN
U heit CauchyFolge
13
genau dann, wenn:
> 0 N
0
() : n, m N
0
() : |a
n
a
m
|
U
< .
Denition 5.19. Ein normierter Raum (U, ||
U
) heit vollstandig
14
, wenn jede CauchyFolge (a
n
)
nN
U einen Grenzwert a
. Wir haben:
> 0 N
0
() : n N
0
() : |a
n
a
| < .
13
Cauchysequence
14
complete
15
Stefan Banach, 18921945, polnischer Mathematiker
16
David Hilbert, 18621943, deutscher Mathematiker
17
Henri Leon Lebesgue, 18751941
94 KAPITEL 5. NORMIERTE R
+a
a
m
| |a
n
a
| +|a
a
m
| <
2
+
2
= .
Also ist diese Folge eine CauchyFolge.
Die Umkehrung dieses Satzes gilt bekanntlich nicht.
Satz 5.23. CauchyFolgen sind beschrankt.
Beweis. Man wahle in der Denition der CauchyFolgen = 1, m = N
0
(1) und schaue genau hin.
Satz 5.24. Sei (a
n
)
nN
eine konvergente Folge in einem normierten Raum U. Dann gilt
_
_
_ lim
n
a
n
_
_
_
U
= lim
n
|a
n
|
U
.
Beweis. In jedem normierten Raum U gilt die Ungleichung
[|x|
U
|y|
U
[ |x y|
U
. (5.1)
Wir setzen x = lim
n
a
n
und y = a
n
, was den Beweis vollendet.
Frage: Warum gilt (5.1) ?
5.2.2 Reihen in normierten Raumen
Denition 5.25. Sei (U, ||) ein normierter Raum und (a
n
)
nN
eine Folge in U. Unter einer Reihe
18
n=0
a
n
verstehen wir zwei Dinge (gleichzeitig):
einerseits die Folge der Partialsummen (S
N
)
NN
, wobei S
N
=
N
n=0
a
n
,
andererseits den Grenzwert S = lim
N
S
N
, aber nur, falls dieser existiert.
Wenn die Folge der Partialsummen (S
N
)
NN
gegen S konvergiert, dann sagt man, da die Reihe
n=0
a
n
konvergiert und den Wert S hat. Ansonsten sagt man, da die Reihe
n=0
a
n
divergiert.
Denition 5.26. Sei
n=0
a
n
eine Reihe von Elementen aus einem normierten Raum U. Wenn die Reihe
von reellen Zahlen
n=0
|a
n
|
U
konvergiert, dann nennt man die Reihe
n=0
a
n
absolut konvergent
19
.
Beispiel 5.27. Sei U = R.
1. Die geometrische Reihe
k=0
q
k
konvergiert genau dann, wenn [q[ < 1. Dann ist ihr Grenzwert gleich
1
1q
(warum ?).
2. Die harmonische Reihe
k=1
1
k
divergiert (warum ?).
18
series
19
absolutely convergent
5.2. FOLGEN UND REIHEN IN NORMIERTEN R
AUMEN 95
3. Die Reihe
k=1
1
k
2
konvergiert (warum ?), und zwar gegen
1
6
2
(Beweis im 2. Semester mittels
Fourierreihen).
4. Die Reihe 1
1
2
+
1
3
1
4
+
1
5
. . . konvergiert (und zwar gegen ln 2, vgl. Satz 6.72), aber nicht absolut
(warum ?).
Beispiel 5.28 (Potenzreihe). Sei U = C([1, 1] R) oder U = C(B
1
(0) C), versehen mit der
||
k=0
1
k!
x
k
, [x[ 1,
konvergiert in U, und zwar gegen e
x
(Beweis folgt). Konvergenz gilt auch in der ||
1
bzw. ||
2
Norm.
Beispiel 5.29 (Fourierreihe). Sei U = L
2
([, ] R). Im 2. Semester werden wir erkennen: Die Reihe
4
_
sin(x) +
sin(3x)
3
+
sin(5x)
5
+
sin(7x)
7
+ . . .
_
konvergiert in der ||
2
Norm gegen die 2periodisch fortgesetzte Funktion
S(x) =
_
1 : 0 < x < ,
1 : < x < 0.
Frage: Warum konvergiert diese Reihe nicht in der ||
Norm ?
Satz 5.30. Sei
n=0
a
n
eine Reihe, die im normierten Raum U konvergiert. Dann ist lim
n
a
n
= 0.
Beweis. Die Folge (S
N
)
NN
der Partialsummen konvergiert, ist also eine CauchyFolge. Dann ist also
> 0 N
0
() : N, M N
0
() : |S
N
S
M
|
U
< .
Wir wahlen nun M = N + 1 und erhalten
> 0 N
0
() : N N
0
() : |a
N+1
|
U
< .
Also streben die a
N
gegen 0.
Warnung 5.31. Die Umkehrung dieses Satzes ist falsch (und ein beliebter Fehler).
Satz 5.32. Wenn die Reihe
n=0
a
n
in einem BanachRaum U absolut konvergiert, dann konvergiert sie
dort auch (im Sinne von Denition 5.25).
Beweis. Die Folge (|a
1
| , |a
1
| + |a
2
| , |a
1
| + |a
2
| + |a
3
| , . . . ) konvergiert, ist also eine CauchyFolge.
Das bedeutet:
> 0 N
0
() : m, n N
0
() (m n) : |a
n
| +|a
n+1
| + +|a
m
| < .
Sei nun (S
N
)
NN
die Partialsummenfolge der Reihe
n=0
a
n
. Dann ist f ur m > n
|S
m
S
n
| = |a
n+1
+a
n+2
+ +a
m
| |a
n+1
| +|a
n+2
| + +|a
m
| .
Also ist (S
N
)
NN
eine CauchyFolge und folglich konvergent, denn U ist ein Banachraum.
Eine Reihe in einem Banachraum konvergiert genau dann,
wenn beliebig lange Reihenendteilstucke beliebig klein werden.
Ein Reihenendst uck ware
n=N
a
n
, und ein Reihenendteilst uck ist
M
n=N
a
n
= S
M
S
N1
. Hierbei darf
die Anzahl der Summanden (also M N + 1) beliebig gro sein. Die Konvergenz der Reihe ist ja gerade
gleichbedeutend damit, da die Partialsummenfolge eine CauchyFolge ist.
Satz 5.33. Seien
n=0
a
n
und
n=0
b
n
zwei konvergente Reihen in einem normierten Raum mit Reihen-
werten s
a
und s
b
. Seien weiterhin , K. Dann konvergiert auch die Reihe
n=0
(a
n
+b
n
), und zwar
gegen den Wert s
a
+s
b
.
Beweis. Folgt sofort aus dem entsprechenden Satz f ur Folgen, also Satz 5.6.
96 KAPITEL 5. NORMIERTE R
n=0
a
n
eine Reihe in einem Banachraum U
(konvergent oder divergent). Wenn es eine Folge (
n
)
nN
reeller Zahlen gibt mit den zwei Eigenschaften:
es existiert ein N, soda |a
n
|
U
n
fur jedes n N,
die Reihe
n=0
n
konvergiert,
dann konvergiert auch die Reihe
n=0
a
n
, sogar absolut.
Beweis. Das Konvergenzverhalten einer Reihe (divergent/konvergent/absolut konvergent) andert sich nicht,
wenn man am Anfang einige a
n
weglat. Wir d urfen also annehmen, da die Reihe erst mit a
N
beginnt. Sei
nun (S
n
)
nN
die Partialsummenfolge zu
n=N
|a
n
|
U
, und (
n
)
nN
die Partialsummenfolge zu
n=N
n
.
Weil die Reihe uber die
n
konvergiert, wissen wir, da die
n
eine CauchyFolge bilden:
> 0 N
0
() : n, m N
0
() : [
n
m
[ < .
Nun ist (f ur n m)
[S
n
S
m
[ = |a
m+1
|
U
+ +|a
n
|
U
m+1
+ +
n
= [
n
m
[.
Also ist auch (S
n
)
nN
eine CauchyFolge in R.
Beispiel 5.35. Wir betrachten im Raum U = C((, ) R) die FourierReihe
sin(x) +
sin(2x)
4
+
sin(3x)
9
+
sin(4x)
16
+. . .
und fragen nach ihrer Konvergenz in der ||
n=1
1
n!
konvergiert wegen n! = 1 2 3 n 2
n1
.
Folgerung 5.37. Wir vergleichen eine beliebige Reihe mit der geometrischen Reihe:
Wenn es C > 0, N N und p < 1 gibt mit |a
n
|
U
Cp
n
fur alle n N, dann konvergiert
n=0
a
n
absolut in U,
Wenn es C > 0, N N und p > 1 gibt mit |a
n
|
U
Cp
n
fur alle n N, dann divergiert
n=0
a
n
.
Der erste Teil folgt aus Satz 5.34, der zweite folgt aus Satz 5.30.
Satz 5.38 (Wurzelkriterium). Sei
n=0
a
n
eine Reihe in einem Banachraum U. Sei q R deniert
durch
q = lim
n
n
_
|a
n
|
U
wobei wir voraussetzen, da dieser Limes existiert. Dann gilt:
q < 1: die Reihe
n=0
a
n
konvergiert absolut,
q > 1: die Reihe
n=0
a
n
divergiert,
q = 1: das Konvergenzverhalten ist unbekannt.
Beweis. Wir setzen p :=
1
2
(1 + q). F ur q < 1 haben wir ab einem N
0
die Ungleichung
n
_
|a
n
|
U
p < 1,
und f ur q > 1 haben wir ab einem N
0
die Ungleichung
n
_
|a
n
|
U
p > 1. Nun liften wir das in die n-te
Potenz und verwenden Folgerung 5.37.
5.3. FOLGEN UND REIHEN REELLER ZAHLEN 97
Das folgende Quotientenkriterium ist gelegentlich einfacher anzuwenden. Andererseits gibt es Beispiele, in
denen das Quotientenkriterium versagt, aber das Wurzelkriterium noch eine Aussage liefert.
Satz 5.39 (Quotientenkriterium). Sei
n=0
a
n
eine Reihe in einem Banachraum U, und keiner der
Summanden sei
0. Sei q R deniert durch
q = lim
n
|a
n+1
|
U
|a
n
|
U
,
wobei wir voraussetzen, da dieser Limes existiert. Dann gilt:
q < 1: die Reihe
n=0
a
n
konvergiert absolut,
q > 1: die Reihe
n=0
a
n
divergiert,
q = 1: das Konvergenzverhalten ist unbekannt.
Beweis. Sei q < 1. Wir setzen p :=
1
2
(1+q) < 1, also q < p < 1. Dann gibt es ein N
0
, soda f ur m N
0
die
Quotienten |a
m+1
|
U
/ |a
m
|
U
unterhalb von p liegen. Multiplikation passend vieler Ungleichungen diesen
Typs liefert
|a
N0+n
|
U
|a
N0
|
U
p
n
, n 0.
Wir benutzen nun Folgerung 5.37 mit C = |a
N0
|
U
, und die absolute Konvergenz der Reihe
n=0
a
n
folgt
sofort.
F ur den Fall q > 1 verwende man den zweiten Teil von Folgerung 5.37.
Beispiel 5.40. Sei U = R. Fur jedes x (0, ) betrachten wir die Reihe reeller Zahlen
k=0
1
k!
(2x)
k
und fragen, fur welche x Konvergenz vorliegt. Wir haben (fur xiertes x)
a
n
=
1
n!
(2x)
n
,
und bekommen
q = lim
n
1
(n+1)!
(2x)
n+1
1
n!
(2x)
n
= lim
n
2x
n + 1
= 0,
also Konvergenz. Damit konvergiert diese Potenzreihe fur jedes x (0, ) absolut.
5.3 Folgen und Reihen reeller Zahlen
Die Menge der reellen Zahlen bildet zusammen mit der ublichen Betragsfunktion einen vollstandigen nor-
mierten Raum. Das bedeutet, das alle Ergebnisse des vorigen Abschnitts auch auf Folgen und Reihen von
reellen Zahlen angewandt werden konnen.
Andererseits haben die reellen Zahlen auch Eigenschaften, die man in einem beliebigen normierten Raum
meist nicht zur Verf ugung hat. Insbesondere:
reelle Zahlen kann man ordnen,
reelle Zahlen kann man multiplizieren.
Aus diesem Grunde ist die Theorie der Folgen und Reihen reeller Zahlen etwas reichhaltiger.
Wir erinnern an ein einfaches Ergebnis, das zum Beispiel mittels vollstandiger Induktion gezeigt werden
kann (und ubrigens auch in C gilt):
98 KAPITEL 5. NORMIERTE R
k=0
_
n
k
_
a
k
b
nk
.
Hierbei steht
_
n
k
_
fur den Binomialkoezienten,
_
n
k
_
=
n!
k!(n k)!
=
n (n 1) . . . (n k + 1)
1 2 . . . k
, 0! = 1.
5.3.1 Schranken und Grenzen
In allgemeinen normierten Raumen hatten wir beschrankte Mengen deniert. Im R haben wir zusatzlich
noch einseitig beschrankte Mengen:
Denition 5.42. Sei M R eine Menge reeller Zahlen. Wenn es eine Zahl S R gibt mit der Eigenschaft,
da x S fur jedes x M, dann heit S obere Schranke
20
von M. In diesem Falle sagt man, da die
Menge M nach oben beschrankt
21
ist. Entsprechend deniert man untere Schranken
22
und den Begri
nach unten beschrankt
23
.
Jede Zahl, die groer ist als eine obere Schranke einer Menge, ist ebenfalls eine obere Schranke dieser
Menge.
Denition 5.43. Sei M eine Menge reeller Zahlen. Wenn es eine Zahl S R gibt, die gleichzeitig obere
Schranke von M und Element von M ist, dann heit S Maximum
24
von M. Analog deniert man das
Minimum
25
.
Eine Menge kann zwar unendlich viele verschiedene obere oder untere Schranken haben, aber hochstens ein
Maximum bzw. Minimum.
Beispiel 5.44. Die Menge M = x R: 0 < x < 1 =: (0, 1) hat weder Minimum noch Maximum. Sie ist
nach oben beschrankt durch S = 1 und nach unten beschrankt durch S = 0.
Denition 5.45. Sei M R eine nach oben beschrankte Menge. Eine Zahl S R heit Supremum bzw.
kleinste obere Schranke bzw. obere Grenze
26
wenn folgendes gilt:
1. S ist obere Schranke von M,
2. jede kleinere Zahl als S ist keine obere Schranke von M.
Entsprechend deniert man die Begrie Inmum bzw. grote untere Schranke bzw. untere Grenze
27
.
Beispiel 5.46. Die Menge M = (0, 1) hat Inmum 0 und Supremum 1.
Die Menge M = x Q: x
2
< 2 hat in den rationalen Zahlen weder Supremum noch Inmum, obwohl sie
nach oben und unten beschrankt ist.
Satz 5.47. Jede nichtleere nach oben beschrankte Menge reeller Zahlen hat genau ein Supremum in R.
Jede nichtleere nach unten beschrankte Menge reeller Zahlen hat genau ein Inmum in R.
Bevor wir zum Beweis dieses zentralen Satzes kommen, schieben wir ein n utzliches Ergebnis ein:
Satz 5.48. Sei (a
n
)
nN
eine monoton wachsende Folge reeller Zahlen, die nach oben beschrankt ist. Dann
hat diese Folge einen Grenzwert, und dieser Grenzwert ist gleich dem Supremum der Menge a
n
: n N.
20
upper bound
21
bounded from above
22
lower bounds
23
bounded from below
24
maximum
25
minimum
26
supremum, least upper bound
27
inmum, greatest lower bound
5.3. FOLGEN UND REIHEN REELLER ZAHLEN 99
Hierbei verstehen wir unter monoton wachsend
28
, da a
n
a
n+1
f ur jedes n gilt. Ein entsprechender Satz
gilt f ur monoton fallende Folgen, die nach unten beschrankt sind.
Beweis. Sei a
n
a
n+1
und a
n
S f ur jedes n N. Wir wollen zeigen, da die Folge (a
n
)
nN
eine
CauchyFolge ist, also
> 0 N
0
() : n, m N
0
() : [a
n
a
m
[ < .
Wir nehmen das Gegenteil an und suchen einen Widerspruch. Das Gegenteil ist
0
> 0 : N n = n(N), m = m(N) N : [a
n
a
m
[
0
.
Wir kommen auf diesem Wege zu einer steigenden Folge von Indizes
k
1
< k
2
< k
3
< k
4
< k
5
< k
6
. . .
mit lim
j
k
j
= , soda
[a
k2
a
k1
[
0
, [a
k4
a
k3
[
0
, [a
k6
a
k5
[
0
, . . . .
Andererseits ist a
k1
a
k2
a
k3
a
k4
. . . . Dann mu zwangslaug die Folge der a
n
die Schranke
S irgendwann uberschreiten. Das ist ein Widerspruch. Also ist die Folge (a
n
)
nN
eine CauchyFolge und
somit konvergent. Die Aussage uber das Supremum sieht man schnell.
Beweis des Satzes 5.47. Wir zeigen nur die Aussage uber das Supremum.
Man uberlegt sich schnell, da eine Menge keine zwei verschiedenen Suprema haben kann.
Die Menge hat mindestens ein Element und mindestens eine obere Schranke; wir nennen sie x
1
und S
1
. Es
gilt x
1
S
1
. Wenn x
1
= S
1
sein sollte, dann ist dies gerade das Supremum, und wir waren fertig. Sei also
jetzt x
1
< S
1
. Wir taufen das arithmetische Mittel dieser beiden Zahlen Z.
Es gibt 2 Falle:
Z ist obere Schranke von M: dann setzen wir x
2
= x
1
und S
2
= Z.
Z ist keine obere Schranke von M: dann gibt es ein Element von M, das zwischen Z und S
1
liegt.
Wir nennen dieses Element x
2
, und setzen S
2
:= S
1
.
Auf jeden Fall haben wir jetzt 2 Zahlen x
1
, x
2
, die Element von M sind, und zwei obere Schranken S
1
und
S
1
. Es gilt
x
1
x
2
S
2
S
1
, [x
2
S
2
[
1
2
[x
1
S
1
[.
Mit dem Intervall [x
2
, S
2
] konnen wir verfahren wie eben. Wir nden ein Element x
3
M und eine obere
Schranke S
3
, soda gilt
x
1
x
2
x
3
S
3
S
2
S
1
, [x
3
S
3
[
1
4
[x
1
S
1
[.
Induktiv setzen wir dieses Verfahren fort und erhalten eine monoton wachsende Folge (x
n
)
nN
und eine
monoton fallende Folge (S
n
)
nN
. Da die wachsende Folge (x
n
)
nN
nach oben beschrankt ist durch S
1
, hat
diese Folge einen Grenzwert x
.
Da aber zusatzlich die Folge der Dierenzen (x
n
S
n
)
nN
nach 0 strebt, mu x
= S
sein.
F ur jedes > 0 gilt dann:
im Intervall (x
, x
, x
eine obere Schranke von M; und nach der ersten Aussage ist dies die kleinste obere Schranke von M.
28
monotonically increasing
100 KAPITEL 5. NORMIERTE R
R.
Dann existiert auch der Grenzwert lim
n
b
n
; und er ist ebenfalls gleich g
.
Beweis. F ur jedes > 0 suchen wir ein N
0
(), soda [b
n
g
[ < ,
> 0 N
2
() : n N
2
() : [c
n
g
[ < .
Wir wahlen N
0
() = max(N
1
(), N
2
()). Dann haben wir f ur n N
0
():
g
< a
n
b
n
c
n
< g
+,
was den Beweis vollendet.
Als Anwendung des Sandwichprinzips haben wir folgendes Ergebnis:
Lemma 5.52. Es ist lim
n
n
n = 1.
29
Bernard Placidus Johann Nepomuk Bolzano, 17811848
30
Karl Theodor Wilhelm Weierstra, 18151897
31
compact
5.3. FOLGEN UND REIHEN REELLER ZAHLEN 101
Beweis. Oensichtlich ist
n
n = 1 + x
n
, x
n
0.
Wir wenden die binomische Formel an:
n = (1 +x
n
)
n
=
n
k=0
_
n
k
_
x
k
n
_
n
0
_
x
0
n
+
_
n
2
_
x
2
n
= 1 +
n(n 1)
2
x
2
n
.
Wenn wir dies nach x
n
umstellen, kommen wir auf
0 x
n
_
2
n
.
Damit sind die x
n
eingequetscht zwischen zwei Folgen, die beide nach Null streben. Also ist lim
n
x
n
= 0
und somit lim
n
n
n = 1.
Satz 5.53. Seien (a
n
)
nN
und (b
n
)
nN
zwei konvergente Folgen reeller Zahlen mit Grenzwerten a
und b
.
Dann konvergiert auch die Folge (a
n
b
n
)
nN
, und ihr Grenzwert ist a
.
Wenn zusatzlich noch b
n
,= 0 fur jedes n N und b
/b
.
Beweis. Wir beweisen nur die Aussage uber das Produkt, die zweite Aussage lat sich ahnlich zeigen. Wir
haben
[a
n
b
n
a
[ [(a
n
a
)b
[ +[a
n
(b
n
b
)[.
Nun sind die Folgen (a
n
)
nN
und (b
n
)
nN
beschrankt (wegen Satz 5.22 und Satz 5.23), also
[a
n
[ A, [b
n
[ B, n N.
Dieselbe Beschrankung gilt dann auch f ur die Grenzwerte. Wir haben somit
[a
n
b
n
a
[ B[a
n
a
[ +A[b
n
b
[,
woraus sich die Behauptung unmittelbar ergibt.
Beispiel 5.54. Seien k, x R. Die Folge (n
k
x
n
)
nN
konvergiert gegen 0 fur [x[ < 1 und divergiert fur
[x[ > 1.
5.3.3 Nichtabsolute Konvergenz und Umordnungen
Satz 5.55 (Leibniz
32
Kriterium). Sei
n=0
a
n
eine Reihe reeller Zahlen. Wenn die a
n
die folgenden
Bedingungen erfullen:
[a
n
[ strebt streng monoton nach Null,
a
n
a
n+1
< 0 fur jedes n N,
dann konvergiert die Reihe
n=0
a
n
.
Beweis. Die zweite Bedingung besagt, da die Summanden a
n
alternierende Vorzeichen haben. Zum Beweis
betrachten wir die Partialsummen s
n
. Seien die a
2n
positiv, und die a
2n+1
negativ. Dann haben wir
s
2n+2
s
2n
= a
2n+2
+a
2n+1
< 0,
also ist die Folge (s
0
, s
2
, s
4
, . . . ) streng monoton fallend. Analog zeigt man, da die Folge (s
1
, s
3
, s
5
, . . . )
streng monoton steigend ist. Weiterhin ist s
n+2
s
n+1
> 0, soda die fallende Folge (s
0
, s
2
, . . . ) nach
unten beschrankt ist durch s
1
. Also konvergiert sie. Analog ist die wachsende Folge (s
1
, s
3
, . . . ) nach oben
beschrankt durch s
0
, also konvergent. Beide Grenzwerte m ussen ubereinstimmen wegen a
n
0.
32
Gottfried Wilhelm von Leibniz, 16461716
102 KAPITEL 5. NORMIERTE R
n=0
a
n
, die sich durch Umsortieren
der Summanden der Reihe
n=1
(1)
n1 1
n
ergibt und den Reihenwert S hat.
Beweis. Die Teilreihen 1 +
1
3
+
1
5
+ . . . und
1
2
1
4
1
6
. . . der positiven und negativen Summanden
divergieren.
Dieses Phanomen kann nicht auftreten, wenn die Ausgangsreihe absolut konvergiert.
Satz 5.57. Sei
n=0
a
n
eine absolut konvergierende Reihe. Dann konvergiert auch jede Umordnung dieser
Reihe absolut und hat denselben Reihenwert. Es gilt auch die Umkehrung: wenn jede Umordnung der Reihe
denselben Reihenwert hat, dann ist die Ausgangsreihe absolut konvergent.
Beweis. Lassen wir weg.
Die Frage der Konvergenz von umgeordneten Reihen ist keinesfalls akademisch. Wenn man zum Beispiel
zwei Reihen
n=0
a
n
und
k=0
b
k
multiplizieren will, dann mochte man die einzelnen Produkte a
n
b
k
bilden, in eine geeignete Reihenfolge bringen, und in dieser Reihenfolge dann aufsummieren. Nun gibt es
aber keine Reihenfolge dieser Teilprodukte, die
n=0
a
n
und
k=0
b
k
zwei absolut konvergente Reihen. Dann konvergiert die
Reihe
n,k=0
a
n
b
k
bei beliebiger Anordnung der Summanden a
n
b
k
gegen denselben Wert, namlich
(
n=0
a
n
)(
k=0
b
k
).
Beweis. Lassen wir weg.
Es hat sich eine spezielle Anordnung eingeb urgert, die auf die sogenannte CauchyProduktreihe f uhrt.
Denition 5.59. Es seien
n=0
a
n
und
k=0
b
k
zwei absolut konvergente Reihen. Wir denieren eine
Folge (c
m
)
mN0
gema
c
m
=
k+n=m
a
n
b
k
= a
0
b
m
+a
1
b
m1
+ +a
m1
b
1
+a
m
b
0
, m N
0
.
Dann heit
m=0
c
m
die CauchyProduktreihe der beiden Reihen
n=0
a
n
und
k=0
b
k
.
5.4. POTENZREIHEN 103
5.4 Potenzreihen
Denition 5.60. Unter einer Potenzreihe
33
verstehen wir eine Reihe der Form
n=0
a
n
(z z
0
)
n
, a
n
, z, z
0
C.
Hierbei denken wir uns z
0
als xiert und z als variabel. F ur den Summanden mit n = 0 vereinbaren wir,
da 0
0
:= 1.
Ein Beispiel ist die geometrische Reihe
n=0
z
n
, z C.
Diese konvergiert genau f ur [z[ < 1, wie man zum Beispiel mithilfe des Wurzelkriteriums sieht. Das Kon-
vergenzgebiet ist in diesem Falle also eine Kreisscheibe um z
0
= 0.
Diese Potenzreihe kann man von 2 Standpunkten aus betrachten.
Einerseits kann man jeden Summanden z
n
als stetige Funktion ansehen, also zum Beispiel als Element
eines Vektorraumes U = C(B
R
(0) C) (wobei R eine passend gewahlte positive Zahl sei), diesen
Raum mit der ||
Norm ausstatten (wodurch er zu einem Banachraum wird), und dann nach der
Konvergenz der Reihe in diesem Banachraum fragen.
Andererseits konnte man z C festhalten. Dann erhalt man eine Reihe von komplexen Zahlen, die
konvergieren kann oder auch nicht.
Wir vermerken nur kurz, da die geometrische Reihe genau dann im Banachraum U = C(B
R
(0) C)
konvergiert, wenn R < 1, und werden uns ab jetzt auf den zweiten Aspekt konzentrieren.
Denition 5.61. Sei
n=0
a
n
(z z
0
)
n
eine Potenzreihe, und sei M C eine beliebige Menge. Wir sagen,
da die Potenzreihe auf der Menge M gleichmaig gegen P(z) konvergiert
34
, wenn gilt:
> 0 N
0
() : n N
0
(), z M :
k=0
a
k
(z z
0
)
k
P(z)
< .
Entscheidend ist dabei, da die Schranke N
0
() nicht von z M abhangt, sondern f ur alle solchen z
dasselbe N
0
() verwendet werden kann.
Die gleichmaige Konvergenz ist gleichbedeutend mit der Konvergenz in der ||
Norm.
Beispiel 5.62. Wir betrachten nochmal die geometrische Reihe
n=0
z
n
. Diese konvergiert auf der Menge
M
1
= z C: [z[ < 1, aber dort nicht gleichmaig. Die Konvergenz wird beliebig langsam, wenn z
nach 1 strebt. Wir haben aber gleichmaige Konvergenz, wenn wir die Kreisscheibe M
1
durch eine kleinere
Kreisscheibe M
r
= z C: [z[ < r mit r < 1 ersetzen (warum ?).
Satz 5.63. Sei
n=0
a
n
(z z
0
)
n
eine Potenzreihe. Sei t deniert durch
t = lim
n
n
_
[a
n
[,
wobei wir voraussetzen, da dieser Limes existiert oder da die Folge der
n
_
[a
n
[ gegen +divergiert. Dann
gilt:
1. die Potenzreihe konvergiert fur jedes z C mit [zz
0
[ <
1
t
absolut (aber nicht unbedingt gleichmaig),
2. die Potenzreihe konvergiert in jeder kleineren Kreisscheibe M
r
= z C: [z z
0
[ r (r <
1
t
)
gleichmaig,
33
power series
34
converges uniformly to P(z)
104 KAPITEL 5. NORMIERTE R
n=0
a
n
(z z
0
)
n
eine Potenzreihe mit Konvergenzradius R. Dann hat die durch termweise
Dierentiation entstehende Reihe
n=0
na
n
(z z
0
)
n1
denselben Konvergenzradius.
Beweis.
Ubungsaufgabe.
Wie multipliziert man zwei Potenzreihen ? Dies wird durch den folgenden Satz beschrieben:
Satz 5.65. Seien
n=0
a
n
(z z
0
)
n
und
k=0
b
k
(z z
0
)
k
zwei Potenzreihen mit Konvergenzradien r
a
und
r
b
. Wir denieren eine Folge (c
m
)
mN0
von Koezienten durch
c
m
=
n+k=m
a
n
b
k
und setzen r
c
= min(r
a
, r
b
). Dann konvergiert die Potenzreihe
m=0
c
m
(z z
0
)
m
fur [z z
0
[ < r
c
, und
dort gilt
m=0
c
m
(z z
0
)
m
=
_
n=0
a
n
(z z
0
)
n
__
k=0
b
m
(z z
0
)
k
_
.
Beweis. Die links stehende Reihe ist gerade die CauchyProduktreihe der beiden rechts stehenden Reihen,
aufgrund der speziellen Denition der c
m
.
5.5 Beispiel: Die Exponentialfunktion
Die wichtigste Funktion der Physikerinnen und Physiker hat folgende zentrale Eigenschaften:
exp(z) =
k=0
1
k!
z
k
, z C, (5.2)
exp(u +v) = exp(u) exp(v), u, v C, (5.3)
exp(z) = lim
n
_
1 +
z
n
_
n
, z C, (5.4)
wenn x =
p
q
Q
+
, p, q N
+
, dann exp(x) =
q
e
p
, wobei e = 2.718281828459 . . . , (5.5)
wenn z = x + iy C, x, y R, dann exp(z) = e
x
(cos y + i sin y), (5.6)
5.5. BEISPIEL: DIE EXPONENTIALFUNKTION 105
die wir jetzt zeigen werden. Gleichung (5.2) gilt, weil genau so die Exponentialfunktion deniert wird. Die
(absolute und auf Kompakta gleichmaige) Konvergenz der Reihe auf der rechten Seite ergibt sich schnell
aus dem Quotientenkriterium.
Gleichung (5.4) stellt die Beziehung her zur stetigen Verzinsung eines Kapitals (das ist der historisch tra-
ditionsreichste Zugang zur Exponentialfunktion), und der Beweis davon wird die Hauptarbeit in diesem
Abschnitt sein. Das Additionstheorem (5.3) zeigt man entweder durch banales Rechnen (Denition (5.2)
einsetzen, maximal mogliches Ausmultiplizieren aller Klammern, gleiche Terme wegstreichen bis zur Glei-
chung 0 = 0, Nachweis der
Aquivalenz der Umformungen), was aber eine lange Rechnung werden kann,
weshalb wir diesen Weg hier nicht verfolgen. Oder man beweist anstatt (5.4) gleich eine etwas allgemei-
nere Aussage, und dann folgt (5.3) innerhalb weniger Zeilen. Aus dem Additionstheorem folgt dann (5.5)
sofort. Und (5.6)
zeigen wir spater dadurch, da wir die Funktionen sin und cos genauso wie in (5.6)
denieren, und danach beweisen, da die so denierten analytischen Winkelfunktionen die schulbekannten
geometrischen Eigenschaften besitzen.
Wie angek undigt, beginnen wir mit einer BonustrackVersion von (5.4). Der Beweis der Originalglei-
chung (5.4) hatte ubrigens im Prinzip denselben Arbeitsaufwand erfordert.
Lemma 5.66. Sei (z
n
)
nN
eine Folge komplexer Zahlen mit Grenzwert z
C. Dann gilt
lim
n
_
1 +
z
n
n
_
n
=
k=0
1
k!
z
k
.
Beweis. Zur Vereinfachung der Schreibweisen setzen wir
a
n
:=
_
1 +
z
n
n
_
n
, a
:=
k=0
1
k!
z
k
,
und laut binomischer Formel ist
a
n
=
n
k=0
_
n
k
_
_
z
n
n
_
k
.
Hier w urden wir jetzt gern in jedem Summanden f ur sich zur Grenze n ubergehen wollen:
lim
n
_
n
k
_
_
z
n
n
_
k
= lim
n
n(n 1) . . . (n k + 1)
n
k
z
k
n
k!
=
_
lim
n
n(n 1) . . . (n k + 1)
n
k
__
lim
n
z
k
n
k!
_
= 1
z
k
k!
,
aber dann haben wir noch die Schwierigkeit zu bewaltigen, da die Summanden in der Summe
n
k=0
. . .
immer mehr werden f ur n .
F ur einen zweiten Beweisversuch gehen wir auf die Denition der Konvergenz zur uck: f ur jedes > 0 suchen
wir ein N
0
() mit
[a
a
n
[ < n N
0
().
Sei N N gro, und sei n > N. Dann haben wir die Zerlegung
[a
a
n
[
k=0
1
k!
z
k
k=0
_
n
k
_
_
z
n
n
_
k
k=N+1
1
k!
z
k
k=N+1
_
n
k
_
_
z
n
n
_
k
.
Nun ist
k=0
1
k!
z
k
k=N+1
. . . [
(also der mittlere Summand auf der rechten Seite) kleiner sein als
1
3
, wenn wir N gro genug wahlen.
Weiterhin konnen wir annehmen, da [z
n
[ [z
,
siehe auch Satz 5.23. Also ist
k=N+1
_
n
k
_
_
z
n
n
_
k
k=N+1
n(n 1) . . . (n k + 1)
n
k
[z
n
[
k
k!
n
k=N+1
([z
[ + 1)
k
k!
<
k=N+1
([z
[ + 1)
k
k!
3
,
106 KAPITEL 5. NORMIERTE R
k=0
1
k!
z
k
k=0
_
n
k
_
_
z
n
n
_
k
k=0
1
k!
z
k
_
n
k
_
_
z
n
n
_
k
,
und solche Dierenzen hatten wir schon bei unserem ersten Beweisversuch erforscht. Wir nden also ein
N
0
() N, soda f ur n N
0
() gilt:
N
k=0
1
k!
z
k
_
n
k
_
_
z
n
n
_
k
3
.
Damit ist der Beweis komplett.
Denition 5.67. Die Euler
35
sche Zahl e = 2.718281828459045 . . . wird deniert durch
e = lim
n
_
1 +
1
n
_
n
=
k=0
1
k!
.
Die Exponentialfunktion z exp(z) denieren wir (anders als im ersten Kapitel) durch
exp(z) =
k=0
1
k!
z
k
, z C.
Nun beweisen wir (5.3).
Satz 5.68 (Additionstheorem). Die Exponentialfunktion erfullt
exp(u +v) = exp(u) exp(v), u, v C.
Beweis. Es ist
exp(u) exp(v) =
_
lim
n
_
1 +
u
n
_
n
_
_
lim
n
_
1 +
v
n
_
n
_
= lim
n
__
1 +
u
n
_
n
_
1 +
v
n
_
n
_
= lim
n
_
1 +
u
n
+
v
n
+
uv
n
2
_
n
= lim
n
_
1 +
u +v +
uv
n
n
_
n
.
Wir setzen z
n
:= u +v +
uv
n
C. Dann ist lim
n
z
n
= z
k=0
1
k!
(u +v)
k
= exp(u +v),
was zu beweisen war.
Wir kommen jetzt zu (5.5).
Aus dem Additionstheorem haben wir zum Beispiel exp(2z) = exp(z) exp(z) = (exp(z))
2
, und nach dem
Prinzip der vollstandigen Induktion konnen wir zeigen, da
exp(mz) = (exp(z))
m
, z C, m N
+
. (5.7)
Wenn wir hierin z =
1
q
und m = q setzen, bekommen wir e = exp(1) = (exp(1/q))
q
, also
exp(1/q) =
q
e = e
1/q
, q N
+
.
Wenn wir (5.7) nocheinmal verwenden, mit m = p und z = 1/q, dann folgt
exp(p/q) = (exp(1/q))
p
= e
p
q
, p, q N
+
.
Wir haben also die Gleichung exp(x) = e
x
gezeigt f ur alle positiven rationalen Zahlen. Analog zeigt man
diese Gleichung f ur negative rationale Zahlen. Nun ist z exp(z) eine stetige Funktion (wie wir im Satz 5.63
vorhin noch nicht bewiesen haben), und man deniert x e
x
f ur irrationale x als Grenzwert der Folge
x
n
e
xn
, wobei die x
n
eine Folge rationaler Zahlen sind, die gegen x streben.
Damit haben wir gezeigt:
35
Leonhard Euler, 17071783
5.6. SCHL
USSELBEGRIFFE 107
Satz 5.69. Fur x R gilt:
e
x
=
n=0
1
n!
x
n
= lim
n
_
1 +
x
n
_
n
.
Wenn wir in Zukunft e
z
schreiben mit z C, dann meinen wir damit stets exp(z). Spater werden wir daf ur
sorgen, da
exp(i) = cos() + i sin(), R,
gilt. Diese Formel hatten wir bisher einige Male benutzt, aber noch nicht bewiesen.
5.6 Schl usselbegrie
Denition und Beispiele f ur Normen,
Begrie Konvergenz, Haufungspunkt, oene und abgeschlossene Mengen,
Denition CauchyFolge,
Denition Reihe, Summenformel f ur die geometrische Reihe,
Quotientenkriterium, Wurzelkriterium, Leibnizkriterium,
Supremum/Inmum im Gegensatz zu Maximum/Minimum,
Denition absolute und gleichmaige Konvergenz,
Konvergenzradius von Potenzreihen,
Denition der Exponentialfunktion.
108 KAPITEL 5. NORMIERTE R
9 = 3.
Die Mengen D
f
und V konnen ganz beliebige Mengen sein. In den meisten Fallen wird es sich in dieser
Vorlesung um Teilmengen von R oder C handeln, aber man kann auch beliebige Banachraume betrachten.
Beispiel 6.2. Eine eindeutige Abbildung von N nach R ist eine Funktion. Diese Abbildung konnte man
schreiben als n a
n
. Man sagt dazu auch
:
Ein Element a
ein N
0
gibt,
soda das Folgenendstuck ab N
0
in dieser Umgebung liegt.
Wir werden kreativ und vereinbaren die Sprechweise, da die Menge N
0
, N
0
+ 1, . . . von nat urlichen
Zahlen eine
Umgebung von ist. (Selbstverstandlich ist , N.) Weiterhin erinnern wir daran, da die
Folge beschrieben wird durch die Vorschrift n a
n
. Damit bekommen wir die Neuformulierung:
Ein Element a
abbildet.
1
function
2
domain
3
value
4
range
5
pre-image
109
110 KAPITEL 6. FUNKTIONEN
Und nun ersetzen wir sprachlich:
f
, Funktion Folge, z n, f a, z
,
und erhalten die Bedeutung der Schreibweise lim
zz
f(z) = f
:
Ein Element f
,
wenn es zu jeder Umgebung von f
gibt,
soda die Funktionsvorschrift z f(z) diese Umgebung von z
abbildet.
Um nun zur Formeldenition zu kommen, denken wir nur noch daran, da die genannte Umgebung von
f
ein Ball um f
wird ein
0
Ball um z
C
sein. Und um es ganz exakt zu machen, denken wir noch uber die Denitionsbereiche nach: oensichtlich
mu z D
f
sein, ansonsten gabe es f(z) gar nicht. Andererseits braucht z
nicht in D
f
liegen; aber
ein Haufungspunkt von D
f
mu z
konvergieren und
gleichzeitig im Denitionsbereich von f verbleiben.
Denition 6.3. Sei D
f
C eine Menge, und f : D
f
C eine Funktion. Sei z
C ein Haufungspunkt
von D
f
. Wir sagen, da die Funktion f im Punkt z
den Grenzwert
6
f
und [z z
[ <
0
() : [f(z) f
[ < .
Wir vergleichen diese Denition mit der des Grenzwerts einer Folge:
lim
n
a
n
= a
> 0 N
0
() > 0 : n mit n N
0
() : [a
n
a
[ < ,
lim
zz
f(z) = f
> 0
0
() > 0 : z D
f
z
mit [z z
[ <
0
() : [f(z) f
[ < .
Mit den oben angef uhrten Ersetzungen gehen diese beiden Denitionen ineinander uber. Die Menge z
D
f
: z ,= z
, [z z
[ <
0
() beschreibt eine (punktierte) Umgebung von z
[ < ,
soda in dieser Umgebung f(z) ,= 0 gilt.
Beweis. Man wahle =
1
2
[f
[.
Es gibt noch eine zweite Denition des Grenzwertes, aber wir werden hier nicht beweisen, da beide De-
nitionen aquivalent sind:
Satz 6.8. Die Funktion f hat in einem Haufungspunkt z
genau
dann, wenn gilt:
Fur jede Folge (z
n
)
nN
mit z
n
D
f
z
ist lim
n
f(z
n
) = f
.
Die folgenden Denitionen sogenannter uneigentlicher Grenzwerte und einseitiger Grenzwerte beziehen sich
nur auf reelle Funktionen.
6
limit
6.2. STETIGKEIT 111
Denition 6.9. Sei f : R R eine Funktion und f
strebt f ur x +,
lim
x+
f(x) = f
, wenn:
> 0 R
0
() > 0 : x R
0
() : [f(x) f
[ < .
Analog schreiben wir lim
x
f(x) = f
, wenn
> 0 R
0
() > 0 : x R
0
() : [f(x) f
[ < .
Unter rechtsseitigen bzw. linksseitigen Grenzwerten lim
xx
+
f(x) bzw. lim
xx
annahern darf.
Schlielich denieren wir noch die bestimmte Divergenz einer Funktion gegen + oder :
Denition 6.10. Sei f : D
f
R eine Funktion und x
, wenn gilt:
R > 0
0
(R) > 0 : x D
f
x
, [x x
[ <
0
(R) : f(x) > R.
Analog denieren wir bestimmte Divergenz gegen .
Sinngema deniert man einseitige bestimmte Divergenz.
Warnung 6.11. Die populare Redeweise
1/x
2
strebt/konvergiert nach + fur x 0 ist unsinnig.
Praziser ist:
1/x
2
divergiert (bestimmt) nach + fur x 0.
F ur das Rechnen mit Grenzwerten haben wir das folgende Ergebnis.
Satz 6.12. In jeder der folgenden Formeln steht lim uberall fur eines der Symbole lim
xx
, lim
xx
,
lim
xx
+
, lim
x
, lim
x+
im Sinne der obigen Denitionen, jedoch nicht Denition 6.10.
Wenn limf(x) und limg(x) existieren, dann existieren auch
1. lim(f(x) +g(x)) = limf(x) + limg(x),
2. lim(f(x)g(x)) = (limf(x))(limg(x)),
3. lim
f(x)
g(x)
=
limf(x)
limg(x)
, falls g(x) ,= 0.
Beweis. Wegen Satz 6.8 d urfen wir die entsprechenden Satze f ur Zahlenfolgen verwenden, also Satz 5.6 und
Satz 5.53.
F ur Limites im Sinne von Denition 6.10 nutzen wir spater die Regel von BernoullilHospital.
F ur komplexe Funktionen konnen einseitige Grenzwerte nicht deniert werden, weil Begrie wie
links von
z
keinen Sinn haben, denn die komplexen Zahlen kann man nicht ordnen. Weiterhin hat es keinen Sinn,
+ und zu unterscheiden (denn sie sind gleich).
Stattdessen deniert man die bestimmte Divergenz allgemein:
Denition 6.13. Sei f : D
f
C eine Funktion und z
, wenn gilt:
R > 0
0
(R) > 0 : z D
f
z
, [z z
[ <
0
(R) : [f(z)[ > R.
6.2 Stetigkeit
Ab jetzt betrachten wir bis auf weiteres komplexe Funktionen.
Denition 6.14. Sei f : D
f
C eine Funktion und z
stetig
7
ist, wenn folgendes gilt:
7
continuous at z
).
Wenn eine dieser beiden Bedingungen verletzt ist, heit die Funktion f unstetig an der Stelle z
8
.
Bemerkung 6.15. Die Forderung, da z
_
limn
z
f
f(lim
n
z
n
)
= lim
n
f(z
n
)
Beispiel 6.16. Die Funktion f = f(z) = 1/z, D
f
= C 0 ist im Punkt z
D
f
stetig ist, dann heit f stetig in D
f
9
. Den
Vektorraum aller in D stetigen Funktionen bezeichnen wir mit C(D), C(D C) oder C(D R).
Satz 6.18. Sei f : D
f
C, und sei z
D
f
ein Haufungspunkt von D
f
. Dann sind aquivalent:
1. f ist stetig in z
,
2. lim
zz
f(z) = f(z
),
3. lim
n
f(z
n
) = f(z
, die gegen z
konvergiert,
4. jedes > 0 hat ein
0
() > 0, soda fur jedes z D
f
mit [z z
[ <
0
() gilt: [f(z) f(z
)[ < .
Beweis. Ergibt sich aus Satz 6.8 und Denition 6.14.
Satz 6.19. Sei f : C C eine Funktion. Dann sind aquivalent:
1. f ist stetig auf C,
2. das Urbild jeder oenen Menge ist oen,
3. das Urbild jeder abgeschlossenen Menge ist abgeschlossen.
Beweis. Lassen wir weg.
Frage: Man gebe ein Beispiel einer stetigen Funktion von R nach R an, bei der das Bild einer oenen
Menge nicht unbedingt wieder eine oene Menge ist.
Man gebe ein weiteres Beispiel einer stetigen Funktion von R nach R an, bei der das Bild einer abgeschlos-
senen Menge nicht unbedingt wieder eine abgeschlossene Menge ist.
Bemerkung 6.20. Analog wie bei Bemerkung 6.5 halten wir auch hier fest, da man die punktweise
Stetigkeit im Sinne von Denition 6.14 auch fur Abbildungen f : U V zwischen Banachraumen denieren
kann. Man mu nur uberall die Betragsstriche [ [ passend durch Normstriche ||
U
und ||
V
ersetzen, vor
allem in Satz 6.18, Teil 4. Und die Stetigkeit in einem Gebiet im Sinne von Denition 6.17 lat sich auch
fur solche allgemeineren Abbildungen denieren. Satz 6.19 gilt dann ebenfalls.
Satz 6.21. Die folgenden Aussagen gelten sowohl fur
Stetigkeit
in einem Gebiet.
8
discontinuous at z
9
continuous in D
f
6.2. STETIGKEIT 113
Wenn f und g stetig sind, dann auch f +g fur jegliche , C.
Wenn f und g stetig sind, dann auch f g.
Wenn f und g stetig sind und zusatzlich noch g(x) ,= 0 gilt, dann ist auch
f
g
stetig.
Beweis. Folgt beinahe sofort aus Satz 6.12.
Satz 6.22. Seien f : D
f
W
f
und g : D
g
W
g
stetige Funktionen mit W
g
D
f
. Dann ist die zusam-
mengesetzte Funktion (Komposition
10
) f g : D
g
W
f
deniert und wieder stetig.
Beweis. Sei x
D
g
und y
= g(x
) D
f
. Die Stetigkeiten von g in x
und von f in y
bedeuten: wenn
(x
n
)
nN
und (y
n
)
nN
Folgen sind mit Grenzwert x
und y
, dann ist
lim
n
g(x
n
) = g( lim
n
x
n
) = g(x
),
lim
n
f(y
n
) = f( lim
n
y
n
) = f(y
).
Nun sei (x
n
)
nN
gewahlt, und sei y
n
:= g(x
n
). Dann hat diese Folge den Grenzwert y
, und es folgt
lim
n
(f g)(x
n
) = lim
n
(f(g(x
n
)) = lim
n
f(y
n
) = f
_
lim
n
y
n
_
= f
_
lim
n
g(x
n
)
_
= f
_
g
_
lim
n
x
n
__
= (f g)
_
lim
n
x
n
_
.
Also kommutiert f g mit lim, und das wollten wir haben.
Beispiel 6.23. Konstante Funktionen sind trivialerweise stetig.
Lineare Funktionen der Form x x sind stetig.
Polynome sind stetig (folgt aus den ersten beiden ).
Gebrochen rationale Funktionen sind dort stetig, wo der Nenner nicht Null wird.
Satz 6.24. Sei f eine stetige Funktion mit Denitionsbereich D
f
in einem Banachraum U und Wertebe-
reich W
f
in einem Banachraum V . Dann ist das Bild einer jeden kompakten Menge wieder kompakt.
Beweis. Sei M D
f
eine in U kompakte Menge. Wir wollen zeigen, da die Bildmenge f(M) in V kompakt
ist.
Sei also (v
n
)
nN
eine Folge in f(M). Gesucht ist eine Teilfolge davon, die einen Grenzwert in f(M) hat. Zu
jedem v
n
gibt es ein u
n
M mit f(u
n
) = v
n
. Die Folge (u
n
)
nN
ist eine Folge in M, und M ist kompakt.
Also gibt es eine Teilfolge (u
n
k
)
kN
, die gegen einen Grenzwert u
M konvergiert. Weil f in u
stetig ist,
mu lim
k
f(u
n
k
) = f(u
M ist f(u
, x
D
f
soda
f(x
) f(x) f(x
) x D
f
.
10
composed function
114 KAPITEL 6. FUNKTIONEN
Beweis. Der Wertebereich W
f
ist kompakt (wegen Satz 6.24) und nichtleer (wegen D
f
,= ). Er ist also
nach oben beschrankt, hat wegen Satz 5.47 demnach ein Supremum. Weil W
f
abgeschlossen ist (wegen
Folgerung 6.25), ist dieses Supremum von W
f
sogar ein Maximum, also besitzt W
f
ein grotes Element
f(x
= max
x[a,b]
[f(x)[
deniert. Dabei hatten wir den (denkbaren) Fall ignoriert, da es dieses Maximum gar nicht gabe: sei es,
weil [f[ auf [a, b] unbeschrankt ware, sei es, weil [f[ zwar beschrankt ware und ein Supremum hatte, aber
kein Maximum. Der Satz vom Maximum sagt uns jetzt, da das Maximum von [f[ immer existiert. Die
eigentlich korrekte Denition der Norm ist
|f|
= sup
x[a,b]
[f(x)[.
Reellwertige stetige Funktionen springen nicht das ist das Ergebnis des folgenden Satzes.
Satz 6.28 (Zwischenwertsatz
11
). Sei f : D
f
R stetig auf dem kompakten Intervall [a, b]. Dann nimmt
f auf [a, b] jeden Wert zwischen f(a) und f(b) an. Wenn insbesondere f(a) und f(b) verschiedenes Vor-
zeichen haben, dann gibt es eine Nullstelle zwischen a und b.
Beweis. Es reicht, die Aussage uber die Nullstelle zu beweisen (Warum ?)
Wir setzen a
0
= a und b
0
= b. OBdA sei f(a
0
) < 0 und f(b
0
) > 0. Nimm Z :=
1
2
(a
0
+ b
0
).
Fall 1: angenommen, da f(Z) = 0: Dann sind wir fertig.
Fall 2: angenommen, da f(Z) < 0: Dann setzen wir a
1
= Z und b
1
= b
0
.
Fall 3: angenommen, da f(Z) > 0: Dann setzen wir a
1
= a und b
1
= Z.
Das Ergebnis ist in Fall 2 und Fall 3 jeweils f(a
1
) < 0 < f(b
1
) und [a
1
b
1
[ =
1
2
[a
0
b
0
[.
In diesem Stil verfahren wir induktiv weiter und nden zwei Folgen (a
n
)
nN
, (b
n
)
nN
so da:
a
0
a
1
a
2
a
3
. . . ,
b
0
b
1
b
2
b
3
. . . ,
a
n
< b
n
n,
[b
n+1
a
n+1
[ =
1
2
[b
n
a
n
[ n,
f(a
n
) < 0 < f(b
n
) n.
Die Folgen (a
n
)
nN
und (b
n
)
nN
streben gegen einen gemeinsamen Grenzwert x
) = f( lim
n
a
n
) = lim
n
f(a
n
) 0,
analog zeigt man f(x
) = 0.
Frage: Kennen Sie ein Beispiel f ur eine stetige Funktion f : C C, f ur die dieser Satz falsch ist ?
Wir ubertragen die Begrie
injektiv und
x.
Man beachte, da die Wurzelfunktion lediglich fur nichtnegative reelle Zahlen deniert ist. Die manchmal
anzutreenden Aussagen der Form
3
8 = 2
sind verwegener Unsinn. Man meditiere zum Beispiel uber der Zeile
2 =
3
8 = (8)
1
3
= (8)
2
6
=
_
(8)
2
_1
6
= 64
1
6
=
6
64 = +2.
Satz 6.33. Die Funktion z exp(z) ist stetig auf C.
Beweis. Wir konnten auf das entsprechende Ergebnis aus Satz 5.63 verweisen, das allerdings immer noch
seines Beweises harrt.
Oder wir rechnen es schnell aus, wobei wir mit der Stetigkeit in z
0
= 0 anfangen. Wir wollen zeigen, da
lim
z0
[ exp(z) exp(0)[ = 0
ist, weshalb wir [z[ 1 voraussetzen konnen. Nun ist
0 [ exp(z) exp(0)[ =
k=0
z
k
k!
1
k=1
[z[
k
k!
= [z[
k=0
[z[
k
(k + 1)!
[z[
k=0
[z[
k
k!
= [z[ exp([z[)
[z[ exp(1);
und wenn wir jetzt das Sandwichprinzip anwenden, ist die Stetigkeit im Nullpunkt gezeigt.
15
inverse function
116 KAPITEL 6. FUNKTIONEN
Sei nun z
0
C beliebig, und wir wollen beweisen, da
lim
zz0
[ exp(z) exp(z
0
)[ = 0.
Nun ist aber
lim
zz0
[ exp(z) exp(z
0
)[ = lim
zz0
[ exp(z
0
)[ [ exp(z z
0
) exp(0)[ = [ exp(z
0
)[ lim
zz0
[ exp(z z
0
) 1[ = 0.
Also ist die Exponentialfunktion auch in z
0
C stetig.
Weil die Exponentialfunktion x e
x
f ur reelle x noch dazu streng monoton wachsend ist, konnen wir eine
Umkehrfunktion dazu betrachten:
Denition 6.34. Die Umkehrfunktion der Funktion
exp: R R
+
,
exp: x exp(x) = e
x
heit Logarithmus
16
(zur Basis e) und wird geschrieben als
ln: R
+
R,
ln: x ln(x).
Aus den Eigenschaften der Exponentialfunktion erhalten wir schnell die folgenden Eigenschaften der Loga-
rithmusfunktion:
Lemma 6.35. Die Logarithmusfunktion ist stetig und streng monoton auf R
+
. Fur x, y R
+
gilt dann
ln(x y) = ln(x) + ln(y),
ln(x/y) = ln(x) ln(y),
ln(1) = 0.
Wir wollen als nachstes beliebige Potenzen a
x
denieren, wobei a R
+
und x R ist.
Denition 6.36 (Allgemeine Potenz). Sei a R
+
und x R. Dann denieren wir
a
x
:= exp(xln a).
Diese Funktion ist stetig, denn sie ist eine Komposition von stetigen Funktionen.
Wenn jetzt x = n N, dann hat die Schreibweise a
x
zwei Denitionen: einerseits a
n
= a. . .a (n Faktoren),
andererseits a
n
= exp(nln a). Diese widersprechen sich nicht, denn es ist
exp(nln a) = exp(ln a + + ln a) = exp(ln a) . . . exp(ln a) = a . . . a.
Satz 6.37. Seien a, b R
+
und x, y R. Dann gilt
ln(a
x
) = xln a,
(a b)
x
= a
x
b
x
,
a
x+y
= a
x
a
y
,
a
x
=
1
a
x
,
(a
x
)
y
= a
(xy)
.
Beweis. Die erste Eigenschaft folgt sofort aus der Denition von a
x
, und die weiteren ergeben sich dann
unmittelbar.
F ur a
1/n
erhalten wir gerade die Wurzelfunktion
n
a, denn (a
1/n
)
n
= a
((1/n)n)
= a.
Warnung 6.38. Die obigen Regeln fur Exponentialfunktionen der Form x a
x
gelten nur fur reelle x
und positive a. Analog gelten die Regeln fur die Logarithmusfunktion nur fur positive Argumente von ln.
Gedankenlose Ausdehnung auf negative oder gar komplexe a fuhrt in den meisten Fallen zu schweren Feh-
lern. Auf dieselben Probleme wird man stoen, wenn man die Logarithmusfunktion fur negative oder kom-
plexe Zahlen denieren will.
16
logarithm
6.3. DIFFERENZIERBARKEIT 117
6.3 Dierenzierbarkeit
Denition 6.39. Sei f : D
f
W
f
eine Funktion, wobei D
f
, W
f
R oder D
f
, W
f
C.
Sei z
0
D
f
ein Punkt im Inneren von D
f
, d.h. nicht auf dem Rand D
f
. Wir sagen, da f im Punkte z
0
dierenzierbar
17
ist, wenn der Grenzwert
lim
zz0
f(z) f(z
0
)
z z
0
existiert. In diesem Falle nennen wir den Grenzwert Ableitung von f im Punkt z
0
18
und schreiben dafur
f
(z
0
) =
df
dz
(z
0
) =
d
dz
f(z
0
) =
d
dz
f(z)
z=z0
.
Sei G D
f
eine Menge. Wenn f in jedem (inneren) Punkt von G dierenzierbar ist, dann sagen wir, da
f dierenzierbar in G ist. In diesem Falle ist die Ableitung f
(x
0
) x = f
(x
0
) dx.
Der Ausdruck df heit Dierential von f
22
.
Die Dierenz f df beschreibt den Fehler, den man begeht, wenn man f in der Nahe des Punktes x
0
durch eine lineare Funktion annahert. Die Dierenzierbarkeit von f in x
0
bedeutet gerade, da dieser Fehler
von hoherer als erster Ordnung nach 0 konvergiert, wenn x nach 0 strebt.
Denition 6.41. Seien f und g zwei Funktionen, deniert nahe x = x
0
. Wir sagen, da
f(x) = O(g(x)), x x
0
,
17
dierentiable at z
0
18
derivative of f at z
0
19
continuously dierentiable in G
20
twice dierentiable
21
holomorph, analytic
22
Es gibt noch eine andere Bedeutung des Begries Dierential. Gelegentlich wird diejenige lineare Abbildung, die x auf
f
(x
0
)x abbildet, als Dierential bezeichnet. Der obige Dierentialbegri versteht unter df also den Ausdruck f
(x
0
)x, der
andere Dierentialbegri versteht unter df aber den Term f
(x
0
). An dieser Stelle ist es vielleicht interessant zu vermerken, da
mit der umgangssprachlichen Bezeichnung
Bronstein gelegentlich zwei verschiedene Werke gemeint sind: eine Ausgabe des
B.G.TeubnerVerlags, und eine Ausgabe des Verlags Harri Deutsch. Beide haben ihre Wurzeln in der sowjetischen Erstauage
von 1937, aber aus juristischen Gr unden darf nur die letztere
(x
0
) (x x
0
) +R(x; x
0
)
mit R(x; x
0
) = o([x x
0
[) fur x x
0
.
2. Wenn es eine Zahl A R gibt (die nicht von x abhangt) mit
f(x) = f(x
0
) +A (x x
0
) +o([x x
0
[), x x
0
,
dann ist f in x
0
dierenzierbar, und es ist f
(x
0
) = A.
Beweis. 1. Wir haben
R(x; x
0
)
x x
0
=
f(x) f(x
0
)
x x
0
f
(x
0
),
und die rechte Seite strebt nach 0 falls x x
0
.
23
Edmund Georg Hermann Landau, 18771938, nicht zu verwechseln mit Lev Davidovich Landau, 19081968, bekannt
f ur den gemeinsam mit Evgenni Mikhailovich Lifshitz geschriebenen Kurs zur Theoretischen Physik
6.3. DIFFERENZIERBARKEIT 119
2. Es ist
f(x) f(x
0
)
x x
0
= A+
o([x x
0
[)
x x
0
,
und die rechte Seite hat einen Limes f ur x x
0
, namlich A. Also ist f dierenzierbar in x
0
.
Spater werden wir sehen, da sogar R(x; x
0
) = O([xx
0
[
2
) gilt, wenn f in einer Umgebung von x
0
zweimal
stetig dierenzierbar ist.
Als Merkregel halten wir fest:
Wenn f(x) = f(x
0
) +A(x x
0
) +o(x x
0
) fur x x
0
,
dann mu f in x
0
dierenzierbar sein,
und f
(x
0
) mu gleich A sein.
Damit werden wir demnachst die Ableitungsformeln f ur Summen, Produkte, Verkettungen und Umkehr-
funktionen zeigen, wobei wir ausgiebigen Gebrauch von den Rechenregeln f ur die LandauSymbole machen
werden.
Satz 6.45. Dierenzierbare Funktionen sind stetig.
Beweis. Sieht man sofort aus Satz 6.44.
Beispiel 6.46. Die Ableitungen von f = f(x) = 1 und g = g(x) = x lauten f
= f
(x) = 0 und
g
= g
(x) = 1.
Satz 6.47. Die Exponentialfunktion z
0
exp(z
0
) ist fur komplexe z
0
dierenzierbar, und es ist exp
(z
0
) =
exp(z
0
).
Beweis. Wir zeigen zunachst, da exp
exp(z) 1 z
z 0
k=2
z
k
k!
z
k=1
[z[
k
(k + 1)!
= [z[
k=0
[z[
k
(k + 2)!
[z[
k=0
[z[
k
k!
= [z[ exp([z[)
und dies strebt nach 0 f ur z 0, denn die Exponentialfunktion ist stetig, siehe Satz 6.33.
Sei nun z
0
C beliebig. Wir wollen zeigen, da
exp(z) exp(z
0
) exp(z
0
) (z z
0
) = o([z z
0
[), z z
0
.
Oensichtlich ist nun wegen des Additionstheorems der Exponentialfunktion
exp(z) exp(z
0
) exp(z
0
) (z z
0
)
z z
0
= [ exp(z
0
)[
exp(z z
0
) 1 1 (z z
0
)
(z z
0
) 0
,
und die rechte Seite geht nach 0 f ur (z z
0
) 0, denn die Exponentialfunktion ist im Ursprung dieren-
zierbar.
Satz 6.48. Seien f und g in z
0
dierenzierbar, und , C. Dann ist auch f +g in z
0
dierenzierbar,
und es ist
(f +g)
(z
0
) = f
(z
0
) +g
(z
0
).
Beweis. Wir haben f ur z z
0
die Entwicklungen
f(z) = f(z
0
) +f
(z
0
) (z z
0
) +R
f
(z; z
0
),
g(z) = g(z
0
) +g
(z
0
) (z z
0
) +R
g
(z; z
0
).
Dann folgt sofort
(f +g)(z) = (f +g)(z
0
) + (f
(z
0
) +g
(z
0
)) (z z
0
) + (R
f
(z; z
0
) +R
g
(z; z
0
)).
120 KAPITEL 6. FUNKTIONEN
Also ist die Menge der auf einem Gebiet dierenzierbaren Funktionen ein Vektorraum.
Satz 6.49 (Produktregel). Seien f und g in z
0
dierenzierbar. Dann ist auch f g in z
0
dierenzierbar,
und es ist
(f g)
(z
0
) = f
(z
0
)g(z
0
) +f(z
0
)g
(z
0
).
Beweis. Wir haben
f(z) = f(z
0
) +f
(z
0
) (z z
0
) +R
f
(z; z
0
),
g(z) = g(z
0
) + g
(z
0
) (z z
0
) +R
g
(z; z
0
).
Dann liefert eine simple Multiplikation
(f g)(z) = (f(z
0
) +f
(z
0
) (z z
0
) +R
f
(z; z
0
)) (g(z
0
) +g
(z
0
) (z z
0
) +R
g
(z; z
0
))
= (f g)(z
0
) + (f
(z
0
)g(z
0
) +f(z
0
)g
(z
0
)) (z z
0
) +R
f
(z; z
0
) O(1) +O(1) R
g
(z; z
0
),
und der Beweis ist komplett.
Bevor wir jetzt zur Regel f ur die Division kommen, betrachten wir zuerst die Funktion w
1
w
und die
Kettenregel.
Lemma 6.50. Die Funktion w
0
1
w0
ist dierenzierbar fur w
0
,= 0, und die Ableitung ist
_
1
w
0
_
=
1
w
2
0
.
Beweis. Sei w nahe w
0
. Dann konnen wir deshalb w ,= 0 annehmen. Nun ist
1
w
=
1
w
0
+
_
1
w
1
w
0
_
=
1
w
0
+
w
0
w
w
0
w
=
1
w
0
+
w
0
w
w
2
0
+
_
w
0
w
w
0
w
w
0
w
w
2
0
_
=
1
w
0
1
w
2
0
(w w
0
) +
w
0
w
w
0
_
1
w
1
w
0
_
=
1
w
0
1
w
2
0
(w w
0
) +
w
0
w
w
0
w
0
w
ww
0
=
1
w
0
1
w
2
0
(w w
0
) +O([w w
0
[
2
).
Also mu der Wert der Ableitung an der Stelle w
0
gerade
1
w
2
0
sein.
Satz 6.51 (Kettenregel). Seien f und g zwei Funktionen mit W
g
D
f
. Sei g dierenzierbar in z
0
und
f dierenzierbar in w
0
= g(z
0
). Dann ist die Komposition f g dierenzierbar in z
0
, und es ist
(f g)
(z
0
) = f
(w
0
) g
(z
0
).
Beweis. Wir haben
g(z) = g(z
0
) + g
(z
0
) (z z
0
) +R
g
(z; z
0
),
f(w) = f(w
0
) +f
(w
0
) (w w
0
) +R
f
(w; w
0
).
Wir setzen die erste Gleichung in die zweite ein, und wahlen dabei w = g(z):
(f g)(z) = (f g)(z
0
) +f
(w
0
) (g
(z
0
) (z z
0
) +R
g
(z; z
0
)) +R
f
(w, w
0
)
= (f g)(z
0
) +f
(w
0
) g
(z
0
) (z z
0
) +O(1)R
g
(z; z
0
) +R
f
(w; w
0
).
Es bleibt noch zu zeigen, da R
f
(w; w
0
) = o([z z
0
[). Wenn w = w
0
sein sollte, dann ist R
f
(w; w
0
) = 0
und wir waren in diesem Falle fertig. Ansonsten d urfen wir durch w w
0
dividieren und haben
R
f
(w; w
0
)
z z
0
=
R
f
(w; w
0
)
w w
0
w w
0
z z
0
6.3. DIFFERENZIERBARKEIT 121
F ur z z
0
strebt w nach w
0
. Dann geht der erste Faktor nach 0 und der zweite strebt zu g
(z
0
), also
lim
zz0,
w(z)=w(z0)
R
f
(w; w
0
)
z z
0
= 0,
was den Beweis der Kettenregel vollendet.
Satz 6.52 (Divisionsregel). Seien die Funktionen f und g in z
0
dierenzierbar, und sei g ,= 0 in einer
Umgebung von z
0
. Dann ist auch die Funktion f/g in z
0
dierenzierbar, und es gilt
_
f
g
_
(z
0
) = f
(z
0
)
1
g(z
0
)
f(z
0
)
1
g(z
0
)
2
g
(z
0
).
Beweis. Folgt sofort aus der Produktregel, Lemma 6.50 und der Kettenregel.
Jetzt wollen wir Umkehrfunktionen ableiten. Sei eine dierenzierbare Funktion f gegeben. Angenommen,
eine gute Fee sagt uns, da f eine Umkehrfunktion g hat, und da g sogar dierenzierbar ist. Dann haben
wir f ur alle z in der Nahe von z
0
die Identitat
g(f(z)) = z,
und wenn wir das gema Kettenregel ableiten auf beiden Seiten, bekommen wir an der Stelle z
0
dann
g
(f(z
0
)) f
(z
0
) = 1.
Mit der Notation w
0
:= f(z
0
) schreibt sich das dann als g
(w
0
) =
1
f
(z0)
.
Nun stellen wir uns auf den Standpunkt, da uns heute noch keine gute Fee besucht hat:
Satz 6.53 (Existenz der Umkehrfunktion). Sei f : D
f
W
f
eine stetige Funktion, z
0
D
f
und
w
0
= f(z
0
). Wenn f in einer Umgebung von z
0
stetig dierenzierbar ist und f
(z
0
) ,= 0 ist, dann existiert
in der Nahe von w
0
eine Umkehrfunktion g = g(w) zur Funktion f.
Achtung: uber die Dierenzierbarkeit von g wird jetzt noch nichts behauptet (erst im Satz 6.54) !
Beweisskizze. Wir schauen uns zuerst die reelle Situation an, also x und x
0
anstatt z und z
0
. Nach Voraus-
setzung existiert f
nahe x
0
und ist stetig. Wegen dieser Stetigkeit, f
(x
0
) ,= 0 und Lemma 6.7 hat dann
die Ableitung f
(z
0
) ,= 0. Wir setzen auerdem voraus, da die Funktion f in
einer Umgebung von z
0
eine Umkehrfunktion g hat. Dann ist g in w
0
dierenzierbar, und es ist
g
(w
0
) =
1
f
(z
0
)
.
122 KAPITEL 6. FUNKTIONEN
Beweis. Wir wissen, da
f(z) = f(z
0
) +f
(z
0
) (z z
0
) +R
f
(z; z
0
) (6.1)
gilt, falls [z z
0
[ klein genug ist. Hierbei ist lim
zz0
R
f
(z;z0)
zz0
= 0. Das bedeutet: wenn z nahe genug an z
0
ist, dann ist der letzte Summand in (6.1) 1000 mal kleiner als der mittlere (es sei denn, der mittlere ware
identisch gleich Null; aber das ist unmoglich wegen f
(z
0
) ,= 0). Dann haben wir f ur solche z
0.999[f
(z
0
)[
[f(z) f(z
0
)[
[z z
0
[
1.001[f
(z
0
)[. (6.2)
Wir konnen also [f(z) f(z
0
)[ und [z z
0
[ gegeneinander vergleichen. Nun setzen wir w = f(z) und
w
0
= f(z
0
), also z = g(w) und z
0
= g(w
0
). Wenn w ,= w
0
, dann ist nach dieser Formel also auch z ,= z
0
.
Wir entwickeln g = g(w) in eine Reihe:
g(w) = z
= z
0
+ (z z
0
) = g(w
0
) + (z z
0
)
= g(w
0
) +
f(z) f(z
0
) R
f
(z; z
0
)
f
(z
0
)
= g(w
0
) +
w w
0
f
(z
0
)
R
f
(z; z
0
)
f
(z
0
)
.
Es bleibt zu zeigen, da der Restterm schneller als von erster Ordnung (in [w w
0
[) nach 0 strebt, wenn
w w
0
. Das ergibt sich aus
R
f
(z;z0)
f
(z0)
w w
0
=
1
f
(z
0
)
R
f
(z(w); z
0
)
z(w) z
0
z(w) z
0
w w
0
=
1
f
(z
0
)
z z
0
f(z) f(z
0
)
R
f
(z(w); z
0
)
z(w) z
0
.
Der erste Faktor ist beschrankt, der zweite wegen (6.2) auch, und der dritte strebt nach 0 f ur w w
0
.
Mit diesem Satz konnen wir die Ableitungen von Logarithmus und allgemeinen Potenzen bestimmen:
Satz 6.55. Fur x > 0 ist
(ln x)
=
1
x
.
Fur a R
+
und x R ist
d
dx
a
x
= (ln a)a
x
,
d
da
a
x
= xa
x1
.
Beweis. Sei y = ln x, dann ist x = exp(y) und schlielich
(ln x)
=
1
(exp(y))
=
1
exp(y)
=
1
x
.
Der zweite Teil ergibt sich aus a
x
= exp(xln a), der Kettenregel und den Regeln f ur die Ableitung der
Exponentialfunktion und Logarithmusfunktion.
6.4 Mittelwertsatz und Taylorscher Satz
Die Betrachtungen dieses Abschnitts setzen reelle Funktionen voraus, und die meisten Ergebnisse werden
falsch, wenn man stattdessen komplexe Funktionen betrachtet.
Denition 6.56. Sei f : I R eine Funktion, deniert auf einem Intervall I R. Sei x
0
I ein innerer
Punkt oder ein Randpunkt. Wir sagen, da f im Punkt x
0
ein lokales Maximum
24
hat, wenn in einer
Umgebung von x
0
die Ungleichung f(x) f(x
0
) gilt.
Analog deniert man ein lokales Minimum
25
.
Wenn f in einem inneren Punkt x
0
I ein lokales Maximum oder Minimum hat, dann redet man auch
von einem lokalen Extremum
26
.
24
local maximum
25
local minimum
26
local extremum
6.4. MITTELWERTSATZ UND TAYLORSCHER SATZ 123
Satz 6.57. Sei f : I R eine Funktion mit einem lokalen Extremum in einem inneren Punkt x
0
I.
Wenn f in x
0
dierenzierbar ist, dann ist f
(x
0
) = 0.
Warnung 6.58. Die Aussage des Satzes wird falsch, wenn x
0
ein Randpunkt des Intervalles sein darf !
Beweis. Sei das Extremum ein Maximum (der Fall des Minimums geht ahnlich). In der Nahe von x
0
gilt
dann f(x) f(x
0
), und somit gilt
f(x) f(x
0
)
x x
0
_
0 : x x
0
,
0 : x x
0
.
Wenn x x
0
, dann mu der Grenzwert des Dierenzenquotienten existieren. Der linksseitige Grenzwert
ist 0, der rechtsseitige ist 0. Also ist f
(x
0
) = 0.
Satz 6.59 (Satz von Rolle
27
). Die Funktion f : I R sei auf dem abgeschlossenen Intervall I = [a, b]
stetig und auf dem oenen Intervall (a, b) dierenzierbar. Sei weiterhin f(a) = f(b) = 0. Dann existiert
ein (a, b) mit f
() = 0.
Beweis. Wir unterscheiden drei Falle.
f hat in (a, b) wenigstens einen positiven Wert: Nach dem Satz vom Maximum nimmt dann f ir-
gendwo im Intervall (a, b) ein positives Maximum f() an. Nach dem vorigen Satz ist dann f
() = 0.
f hat in (a, b) keinen positiven, jedoch mindestens einen negativen Wert: Dann kann man ahn-
lich wie im ersten Fall argumentieren.
f ist identisch 0: Dann ist f
() = 0 gefunden.
Satz 6.60 (Verallgemeinerter Mittelwertsatz). Seien die Funktionen f, g : I R auf dem abgeschlos-
senen Intervall I = [a, b] stetig und auf dem oenen Intervall (a, b) dierenzierbar. Weiterhin sei g
(x) ,= 0
auf (a, b) und g(a) ,= g(b). Dann gibt es ein (a, b) mit
f(b) f(a)
g(b) g(a)
=
f
()
g
()
.
Beweis. Man setze
h(x) = f(x) f(a)
f(b) f(a)
g(b) g(a)
(g(x) g(a))
und wende den Satz von Rolle auf die Funktion h an.
Satz 6.61 (Mittelwertsatz
28
). Sei die Funktion f : I R auf dem abgeschlossenen Intervall I = [a, b]
stetig und auf dem oenen Intervall (a, b) dierenzierbar. Dann gibt es ein (a, b) mit
f(b) f(a)
b a
= f
().
Beweis. Man benutze den verallgemeinerten Mittelwertsatz mit g(x) = x.
Diese beiden unscheinbaren Mittelwertsatzchen haben viele wichtige und tiefgreifende Anwendungen. Die
ersten sind zusammengefat im folgenden Satz:
Satz 6.62. Sei f : I R stetig auf I = [a, b] und dierenzierbar auf (a, b).
27
Michel Rolle, 16521719
28
mean value theorem
124 KAPITEL 6. FUNKTIONEN
1. Wenn [f
(x) = 0 fur jedes x (a, b), dann ist f auf [a, b] konstant.
3. Wenn lim
xb
f
ist in b linksseitig
stetig. Analog fur a anstelle von b.
4. Die Funktion f ist monoton wachsend auf [a, b] genau dann, wenn f
(x) > 0 fur jedes x (a, b), dann ist f streng monoton wachsend auf [a, b].
Die Umkehrung der letzten Aussage ist falsch.
Beweis.
1. Wir haben f(x
1
) f(x
2
) = f
() (x
1
x
2
) f ur ein gewisses zwischen x
1
und x
2
.
2. Ergibt sich sofort aus 1. mit K = 0.
3. F ur x < b haben wir wegen des Mittelwertsatzes mit einem unbekannten (x, b)
f(x) f(b)
x b
= f
().
Wenn x von links nach b strebt, dann strebt auch = (x) nach b (Sandwichprinzip). Also existiert
der Grenzwert der rechten Seite (f ur x b), und somit existiert auch der Grenzwert der linken
Seite.
4. Wenn f monoton wachsend ist, dann hat die Dierenz f(x
1
) f(x
2
) dasselbe Vorzeichen wie x
1
x
2
.
Also ist der Quotient dieser beiden Dierenzen 0.
Ubergang zum Grenzwert liefert f
(x) 0.
Wenn nun f
de lHospital
31
:
Satz 6.63. Seien f, g : [a, b] R stetige Funktionen mit folgenden Eigenschaften:
1. lim
xb
f(x) = lim
xb
g(x) = 0,
2. g
(x)
g
(x)
existiert und hat den Wert S.
29
Solche Funktionen heien dehnungsbeschr ankt oder Lipschitzstetig, nach Rudolf Otto Sigismund Lipschitz, 1832
1903
30
Johann I Bernoulli, 16671748, nicht zu verwechseln mit seinem Sohn Johann II Bernoulli, 17101790, oder seinem
Enkel Johann III Bernoulli, 17441807, oder 5 weiteren ber uhmten Bernoullis
31
Guillaume Francois Antoine Marquis de LHospital, 16611704
6.4. MITTELWERTSATZ UND TAYLORSCHER SATZ 125
Dann existiert auch der Grenzwert
lim
xb
f(x)
g(x)
und hat ebenfalls den Wert S. Dies gilt auch fur bestimmte Divergenz gegen S = .
Eine entsprechende Aussage gilt nat urlich auch f ur rechtsseitige Grenzwerte oder beidseitige Grenzwerte.
Warnung 6.64. Die Voraussetzung 4. ist entscheidend. Es gibt Beispiele, in denen lim
xb
f(x)
g(x)
existiert,
aber lim
xb
f
(x)
g
(x)
gibt es nicht.
Beweis von Satz 6.63. Sei x < b. Dann gibt es ein (x, b) mit
f(x)
g(x)
=
f(x) f(b)
g(x) g(b)
=
f
()
g
()
.
Wenn x nach b strebt, dann strebt auch = (x) nach b. Die rechte Seite konvergiert nach Voraussetzung 4.,
also auch die linke Seite.
Frage: Welchen Wert hat
lim
x0
e
x
1
ln(1 +x)
?
Es gibt wichtige Variationen der Regel von Bernoullide lHospital:
Satz 6.65. Seien f, g : (a, b) R stetige Funktionen mit folgenden Eigenschaften:
1. lim
xb
f(x) = lim
xb
g(x) = ,
2. g
(x)
g
(x)
existiert und hat den Wert S.
Dann existiert auch der Grenzwert
lim
xb
f(x)
g(x)
und hat ebenfalls den Wert S. Dies gilt auch fur bestimmte Divergenz gegen S = .
Beweis. Lassen wir weg.
Die beiden letzten Satze gelten sinngema auch f ur b = +. Zum Beweis betrachtet man dann
lim
x+
f(x)
g(x)
= lim
t0+
f(t
1
)
g(t
1
)
und wendet die herkommliche Regel von Bernoullide lHospital an.
Und wir haben noch eine weitere Folgerung aus dem Verallgemeinerten Mittelwertsatz:
126 KAPITEL 6. FUNKTIONEN
Satz 6.66 (Taylor
32
scher Satz). Die Funktion f : I R sei auf dem abgeschlossenen Intervall I = [a, b]
stetig und auf dem oenen Intervall (a, b) n + 1mal dierenzierbar. Seien x, x
0
(a, b). Dann gibt es ein
zwischen x und x
0
soda
f(x) = f(x
0
) +f
(x
0
) (x x
0
) +
1
2!
f
(x
0
) (x x
0
)
2
+ +
1
n!
f
(n)
(x
0
) (x x
0
)
n
+R
n
(x; x
0
)
mit einem Restterm der Form
R
n
(x; x
0
) =
1
(n + 1)!
f
(n+1)
() (x x
0
)
n+1
.
Der Anteil f(x
0
) + +
1
n!
f
(n)
(x
0
)(x x
0
)
n
heit auch ntes TaylorPolynom von f an der Stelle x
0
33
.
Beweis. Seien x und x
0
xiert, und t (a, b) variabel. Wir basteln uns mit Phantasie zwei Funktionen:
F(t) = f(x) f(t) f
(t)(x t)
1
2!
f
(t)(x t)
2
1
n!
f
(n)
(t)(x t)
n
,
G(t) =
(x t)
n+1
(n + 1)!
.
Die Funktion G ist monoton im Intervall zwischen x und x
0
, also d urfen wir den verallgemeinerten Mittel-
wertsatz anwenden:
F(x) F(x
0
)
G(x) G(x
0
)
=
F
()
G
()
,
f ur ein gewisses unbekanntes zwischen x und x
0
.
Wir rechnen im Folgenden die einzelnen Terme aus. Zunachst ist F(x) = 0 und G(x) = 0. Weiterhin ist
d
dt
_
1
k!
f
(k)
(t)(x t)
k
_
=
1
k!
f
(k+1)
(t)(x t)
k
1
(k 1)!
f
(k)
(t)(x t)
k1
,
F
(t) =
1
n!
f
(n+1)
(t)(x t)
n
,
G
(t) =
(x t)
n
n!
.
Insgesamt ist dann
F(x
0
) =
F
()
G
()
G(x
0
) = f
(n+1)
()
(x x
0
)
n+1
(n + 1)!
,
woraus die Behauptung durch Umsortieren folgt.
Beispiel 6.67. Sei f = f(x) = (1 +x)
(x
0
) = , f
(x
0
) = ( 1),
und somit ergibt sich die nutzliche Naherung
(1 +x)
= 1 + x +
( 1)
2
x
2
+O([x[
3
), x 0.
An dieser Stelle konnen wir eine in der Physik ubliche Sprechweise betrachten: f ur eine gen ugend oft
dierenzierbare Funktion f und x nahe genug bei x
0
wollen wir f(x) annahern. Dabei stellen wir uns vor,
da f eine hochkomplizierte Funktion ist, insbesondere viel komplizierter als Polynome. F ur die gesuchten
Naherungen gibt es mehrere Varianten:
Nullte Naherung: f(x) f(x
0
)
Erste Naherung: f(x) f(x
0
) + f
(x
0
)(x x
0
)
32
Brook Taylor, 16851731
33
nth order Taylor polynomial of f at x
0
6.4. MITTELWERTSATZ UND TAYLORSCHER SATZ 127
Zweite Naherung: f(x) f(x
0
) +f
(x
0
)(x x
0
) +
1
2
f
(x
0
)(x x
0
)
2
,
und so weiter. Der Unterschied zwischen linker und rechter Seite ist jeweils gleich R
0
(x; x
0
), R
1
(x; x
0
) bzw.
R
2
(x; x
0
). Sinnvoll sind diese Naherungen, wenn dieser Fehler R
n
deutlich kleiner ist als der letzte noch
mitgenommene Summand; und w unschenswerterweise sollte die (k+1)te Naherung besser sein als die kte
Naherung. Manchmal tut uns aber die Natur diesen Gefallen nicht, z.B. dann nicht, wenn der Graph von
f
heftige Ausschlage aufweist, aber trotzdem noch oft genug dierenzierbar ist (dann kann f
(n+1)
() f ur
groe n riesig werden).
Als eine weitere Anwendung des Taylorschen Satzes haben wir zum Beispiel das folgende Kriterium f ur
das Vorliegen eines Extremums:
Satz 6.68. Sei die Funktion f auf dem Intervall I n + 1mal stetig dierenzierbar. In einem inneren
Punkte x
0
I sei
f
(x
0
) = f
(x
0
) = = f
(n)
(x
0
), f
(n+1)
(x
0
) ,= 0.
Dann gilt:
n ungerade und f
(n+1)
(x
0
) > 0: f hat in x
0
ein Minimum,
n ungerade und f
(n+1)
(x
0
) < 0: f hat in x
0
ein Maximum,
n gerade: f hat in x
0
kein Extremum, sondern die Funktion x f(x) f(x
0
) wechselt im Punkt x
0
das
Vorzeichen.
Beweis. Wir haben
f(x) = f(x
0
) +
1
(n + 1)!
f
(n+1)
()(x x
0
)
n+1
.
Weil f
(n+1)
stetig ist, haben f
(n+1)
() und f
(n+1)
(x
0
) das gleiche Vorzeichen, falls nahe genug bei x
0
ist,
siehe Lemma 6.7.
Wenn die Funktion f unendlich oft dierenzierbar ist, dann konnen wir einen Versuch wagen, in der
Taylorschen Formel den Grenz ubergang n zu vollziehen. Das klappt aber nur, wenn das Restglied
R
n
nach 0 strebt f ur n .
Satz 6.69. Die Funktion f sei auf dem Intervall I unendlich oft dierenzierbar. Wir setzen voraus, da
es einen inneren Punkt x
0
I und ein kleines positives gibt, soda
lim
n
_
max
|x0|
1
n!
f
(n)
()
n
_
= 0.
Dann gilt: fur x I mit [x x
0
[ konvergiert das Restglied R
n
(x; x
0
) fur n nach 0, und es ist
f(x) =
k=0
1
k!
f
(k)
(x
0
)(x x
0
)
k
,
wobei diese Reihe fur [x x
0
[ absolut konvergiert.
Diese Reihe heit auch Taylorreihe
34
.
Beweis. Wir haben f ur jedes n N die Zerlegung
f(x) = p
n
(x; x
0
) +R
n
(x; x
0
)
=
n
k=0
1
k!
f
(k)
(x
0
)(x x
0
)
k
+
1
(n + 1)!
f
(n+1)
()(x x
0
)
n+1
,
wobei das unbekannte von x und n abhangt. Falls [x x
0
[ , dann ist
lim
n
R
n
(x; x
0
) = 0,
also mu der Grenzwert lim
n
p
n
(x; x
0
) auch existieren und den Wert f(x) annehmen.
34
Taylor series
128 KAPITEL 6. FUNKTIONEN
Wir kehren noch einmal zur uck zur Funktion f = f(x) = (1 +x)
n
_
als
_
n
_
:=
( 1) . . . ( n + 1)
n!
.
Dann konnen wir die Funktion f(x) = (1 +x)
schreiben als
(1 +x)
= p
n
(x; 0) +R
n
(x; 0)
=
n
k=0
_
k
_
x
k
+
_
n + 1
_
(1 +)
(n+1)
x
n+1
, 1 < x < 1,
wobei das unbekannte zwischen 0 und x liegt und von x und n abhangt.
Wir hatten gerne, da
(1 +x)
?
=
n=0
_
n
_
x
n
, 1 < x < 1.
Um dies zu beweisen, reicht es aber nicht aus zu zeigen, da der Grenzwert lim
n
p
n
(x; 0) existiert (das
tut er f ur 1 < x < 1, wie man mit dem Quotientenkriterium schnell sieht).
Wir brauchen mehr. Namlich, da dieser Grenzwert nicht blo schnode existiert, sondern auch noch den
Wert f(x) = (1 +x)
[ ( 1) . . . ( n)[
(n + 1)!
_
[x[
1 [x[
_
n+1
=: S
n
(x),
wobei S
n
f ur
n=0
_
n
_
x
n
, R,
1
2
< x <
1
2
. (6.3)
Dies ist die ber uhmte binomische Reihe. Im dritten Semester werden wir starkere Werkzeuge kennenlernen,
die uns garantieren, da die Formel (6.3) auch f ur 1 < x < 1 gilt.
Warnung 6.71. Die Funktion
f(x) =
_
e
1/x
2
: x ,= 0,
0 : x = 0
35
Wenn wir etwas sorgfaltiger arbeiten und uns uberlegen, wo liegen kann, dann bekommen wir limn Rn(x; 0) = 0
sogar f ur
1
2
< x 1.
6.5. ELEMENTARE FUNKTIONEN 129
ist auf ganz R deniert, dort stetig und uberall unendlich oft dierenzierbar. Samtliche Ableitungen f
(n)
(0)
sind gleich 0. Die Folge der Werte der Taylorpolynome p
n
(x; 0) konvergiert fur n , namlich nach 0.
Aber oensichtlich ist
0 = lim
n
p
n
(x; 0) ,= f(x)
falls x ,= 0, denn fur solche x ist f(x) ,= 0.
Satz 6.72. Fur 1 < x 1 gilt
ln(1 +x) =
n=1
(1)
n1
x
n
n
.
Beweis. Man zeigt leicht, da lim
n
R
n
(x; 0) = 0 ist f ur
1
2
< x 1. Der Beweis f ur die restlichen x
kommt im zweiten Semester.
Insbesondere erhalten wir die fr uher schon benutzte Identitat
ln 2 = 1
1
2
+
1
3
1
4
+
1
5
. . . .
6.5 Elementare Funktionen
6.5.1 Der geometrische Zugang zu den Winkelfunktionen
Die Winkelfunktion sin, cos und tan
36
f ur Winkel zwischen 0 und
2
werden wie ublich am rechtwinkligen
Dreieck deniert:
sin =
Gegenkathete
Hypotenuse
, cos =
Ankathete
Hypotenuse
, tan =
sin
cos
=
Gegenkathete
Ankathete
.
Wenn nun R beliebig ist, dann deniert man sin und cos wie folgt:
In einem kartesischen Koordinatensystem startet man im Punkt (1, 0) und lauft auf dem Einheitskreis im
Gegenuhrzeigersinn den Winkel ab. Die kartesischen Koordinaten desjenigen Punktes, an dem man dann
ankommt, denieren die Zahlen cos (als xKoordinate) und sin (als yKoordinate). Falls cos ,= 0,
dann deniert man tan :=
sin
cos
. Die Lange des auf dem Einheitskreis zur uckgelegten Weges ist gerade
gleich .
Man sieht dann durch Hinschauen:
Satz 6.73. Die geometrisch denierten Winkelfunktionen sin und cos sind stetig und haben folgende Ei-
genschaften fur jedes R:
sin( + 2) = sin , cos( + 2) = cos ,
sin( +) = sin, cos( +) = cos ,
sin
_
2
_
= cos , cos
_
2
_
= sin ,
sin( ) = sin , cos( ) = cos ,
sin() = sin, cos() = cos ,
sowie
sin
_
+
2
_
= cos ,
sin
2
+ cos
2
= 1.
Die Funktionen sin und cos haben die Periodenlange 2, wahrend tan die halbe Periodenlange hat.
36
sine, cosine, tangent
130 KAPITEL 6. FUNKTIONEN
Satz 6.74 (Additionstheoreme). Fur , R gilt
sin( +) = sin cos + cos sin ,
cos( +) = cos cos sin sin ,
sin sin = 2 cos
_
+
2
_
sin
_
2
_
,
cos cos = 2 sin
_
+
2
_
sin
_
2
_
.
Beweis. Die letzten beiden Formeln folgen aus den ersten beiden (wie ?)
Abbildung 6.1: Zum Additionstheorem des Sinus
Wir beginnen mit dem Beweis des Additionstheorems f ur den Sinus im Falle von 0 < < /2 und
0 < < /2, vgl. Abbildung 6.1. Wir zeichnen ein Dreieck PRS mit Innenwinkel bei P und Innenwinkel
bei R. Wir nennen die Streckenlangen u := RS und v := SP. Dann drehen wir das Dreieck PRS
um den Mittelpunkt der Strecke PR um , wobei S auf einen Punkt Q abgebildet wird. Es entsteht ein
Parallelogramm PQRS mit Innenwinkel + bei P. Der Flacheninhalt dieses Parallelogramms ist
A = uv sin( +). (6.4)
Der Lotfupunkt von S auf PR sei getauft auf den Namen Z. F ur den Flacheninhalt des rechtwinkligen
Dreiecks PZS haben wir dann
A
PZS
=
1
2
PZ ZS =
1
2
(v cos ) (u sin) =
uv
2
cos sin .
F ur den Flacheninhalt des rechtwinkligen Dreiecks ZRS folgt analog
A
ZRS
=
1
2
ZR ZS =
1
2
(u cos ) (v sin ) =
uv
2
sin cos .
6.5. ELEMENTARE FUNKTIONEN 131
Der Gesamtacheninhalt des Parallelogramms ist dann
A = 2(A
PZS
+A
ZRS
) = uv (cos sin + sin cos ).
Wir vergleichen dies mit (6.4), und das gew unschte Additionstheorem f ur den Sinus steht da, zumindest
f ur den Fall 0 < , < /2. Weil Sinus/Cosinus ungerade/gerade Funktionen sind, bekommen wir das
Additionstheorem f ur den Sinus auch im Fall /2 < , < 0.
Abbildung 6.2: Zum Additionstheorem des Sinus
Als nachstes wollen wir das Additionstheorem des Sinus zeigen im Falle, da einer der beiden Winkel im
Intervall (0, /2) liegt, und der andere im Intervall (/2, 0). Mit ein wenig
Uberlegung erkennt man, da
es gen ugt zu zeigen:
sin( ) = sin cos cos sin , 0 < < < /2.
Dazu zeichnen wir ein rechtwinkliges Dreieck PQR mit rechtem Winkel bei Q und Winkel bei P, und
darin enthalten ein weiteres rechtwinkliges Dreieck PQT mit rechtem Winkel bei Q und Winkel bei P.
Wir taufen Streckenlangen: w := PR, v := PT, u := PQ. Siehe Abbildung 6.2. Dann haben wir
u = wcos , u = v cos = v = w
cos
cos
.
Der Flacheninhalt des Dreiecks PTR ist einerseits
A
PTR
=
1
2
wv sin( ) =
w
2
2
cos
cos
sin( ).
Andererseits haben wir PTR als
2
( +)
_
= sin
__
2
_
+ ()
_
= sin
_
2
_
cos() + cos
_
2
_
sin()
= cos cos sinsin,
wobei wir hier Satz 6.73 benutzt haben.
Aus den Additionstheoremen und einfachen geometrischen
Uberlegungen ergeben sich dann die Formeln
f ur die Ableitungen:
Satz 6.75. Fur alle R gilt
(sin )
= cos , (cos )
= sin .
Beweis. Geometrisch ist klar, da sin0 = 0 und cos 0 = 1.
Wir zeigen als erstes, da (sin
)(0) = 1.
Sei 0 < <
2
. Einfache Flacheninhalts uberlegungen am Kreis zeigen, da
sin < < tan 1 <
sin
<
tan
sin
=
1
cos
.
Das Sandwichprinzip liefert dann lim
0
sin
)(0) = 1.
Sei nun
0
R beliebig und ,=
0
. Aus Satz 6.74 erhalten wir dann
sin sin
0
0
= 2 cos
_
+
0
2
_
sin
_
0
2
_
0
= cos
_
+
0
2
_
sin
_
0
2
_
0
2
.
F ur
0
strebt die rechte Seite dann gegen cos
0
.
Die Ableitungsformel f ur den Cosinus ergibt sich aus der Ableitungsformel f ur den Sinus und cos =
sin(/2 ).
Weil (modulo Vorzeichen) eine Winkelfunktion die Ableitung der anderen ist und umgekehrt, sind die
Winkelfunktionen sin und cos unendlich oft dierenzierbar. Dann stellt sich naturgema die Frage nach
der Taylorreihe, und ob sie konvergiert, und wenn ja, gegen welchen Grenzwert. Diese Frage werden wir im
nachsten Abschnitt beantworten (obwohl wir es auch jetzt schon konnten).
Wir vermerken nur kurz zum Schlu, da die Sinusfunktion die (einzige) Losung des Anfangswertproblems
y
+ y = 0, y(0) = 0, y
(0) = 1
ist; und die Kosinusfunktion ist die (wiederum einzige) Losung des Anfangswertproblems
y
+ y = 0, y(0) = 1, y
(0) = 0.
6.5.2 Der analytische Zugang zu den Winkelfunktionen
Die Ausf uhrungen des vorigen Abschnitts haben einen gewissen Nachteil: sie sind unprazise und nicht exakt.
Wir haben beim Denieren der Winkelfunktionen und bei einigen Beweisen einige Begrie benutzt, von
denen wir gar nicht wissen, wie wir sie denieren sollen:
Winkel,
6.5. ELEMENTARE FUNKTIONEN 133
Lange eines Kreisbogens,
Flacheninhalt eines Dreiecks bzw. Kreissektors,
und sicherlich noch einige andere mehr.
Es hat sich deshalb in der Mathematik eingeb urgert, die Winkelfunktionen auf dem Wege der Analysis ein-
zuf uhren und, darauf aufbauend, die geometrischen Begrie hinterher zu denieren. Zum Beispiel deniert
man Flacheninhalte und Kurvenlangen als bestimmte Integrale.
Wir stellen uns jetzt auf den Standpunkt, von einer Zahl namens noch nie etwas gehort zu haben. Wir
werden ihr erst zum Schlu wiederbegegnen. Wir wissen auch gar nicht, was ein Kreis ist.
Wir beginnen mit einem kleinen Satz zur Exponentialfunktion.
Satz 6.76. Fur z C ist exp(z) = exp(z). Fur x R ist [ exp(ix)[ = 1.
Beweis. Die erste Behauptung erhalten wir aus
exp(z) =
k=0
z
k
k!
=
k=0
z
k
k!
=
k=0
(z)
k
k!
= exp(z).
Nun ist einerseits
exp(ix) exp(ix) = exp(ix ix) = exp(0) = 1,
andererseits nach der ersten Behauptung
exp(ix) = exp(ix) = exp(ix).
Insgesamt ergibt sich exp(ix)exp(ix) = 1, also [ exp(ix)[ = 1.
Denition 6.77. Fur x R denieren wir zwei Funktionen c = c(x) und s = s(x) durch
c(x) = 'exp(ix), s(x) = exp(ix).
Satz 6.78. Diese Funktionen haben die folgenden Eigenschaften fur beliebige x, y R:
c(x) =
1
2
(exp(ix) + exp(ix)), s(x) =
1
2i
(exp(ix) exp(ix)),
c(0) = 1, s(0) = 0,
c(x) = c(x), s(x) = s(x),
c
2
(x) +s
2
(x) = 1,
c(x +y) = c(x)c(y) s(x)s(y), s(x +y) = s(x)c(y) +s(y)c(x),
c
(x) = s(x), s
(x) = c(x).
Beweis. Die erste Zeile folgt aus exp(ix) = exp(ix).
Aus exp(0) = 1 folgt c(0) = 1 und s(0) = 0.
Die cFunktion ist gerade, denn wegen des Satzes 6.76 haben wir
c(x) = 'exp(ix) = 'exp(ix) = 'exp(ix) = c(x),
und analog argumentiert man f ur die sFunktion. Aus Satz 6.76 bekommt man auch c
2
(x) +s
2
(x) = 1.
Die Additionstheoreme f ur c und s folgen aus
c(x +y) + is(x +y) = exp(i(x +y)) = exp(ix) exp(iy)
= (c(x) + is(x)) (c(y) + is(y))
= (c(x)c(y) s(x)s(y)) + i(c(x)s(y) +s(x)c(y))
und Vergleich von Realteil und Imaginarteil auf beiden Seiten.
134 KAPITEL 6. FUNKTIONEN
Die Beziehung f ur die Ableitungen lat sich ahnlich zeigen. Wir starten mit den Formeln
c(x) = 'exp(ix) =
1
2
(exp(ix) + exp(ix)), s(x) = exp(ix) =
1
2i
(exp(ix) exp(ix)).
Die rechten Seiten sind dierenzierbare Funktionen, also m ussen auch die linken Seiten dierenzierbar sein.
Dann erhalten wir nach kurzer Rechnung c
k=0
(1)
k
x
2k
(2k)!
, s(x) =
k=0
(1)
k
x
2k+1
(2k + 1)!
.
Diese Reihen konvergieren fur jedes x R absolut.
Beweis. Wir haben c(x) =
1
2
(exp(ix) + exp(ix)) und s(x) =
1
2i
(exp(ix) exp(ix)) sowie
exp(ix) =
n=0
i
n
x
n
n!
, exp(ix) =
n=0
(1)
n
i
n
x
n
n!
.
Der Rest ist Arithmetik.
Als nachstes untersuchen wir die Funktionen c und s auf Monotonie. Wir haben f ur c die Potenzreihe
c(x) = 1
x
2
2!
+
x
4
4!
x
6
6!
+
x
8
8!
. . . ,
und es gilt die Abschatzung
c(x) 1
x
2
2!
+
x
4
4!
, wenn x
2
56,
denn f ur solche x ist der Reihenrest
1
6!
x
6
+
1
8!
x
8
eine Leibnizreihe, also nicht positiv.
Mit x
2
= 6 haben wir also c(
6)
1
2
. Andererseits ist die cFunktion stetig und c(0) = 1. Wegen des
Zwischenwertsatzes hat die Funktion c also mindestens eine Nullstelle zwischen x = 0 und x =
6. Eine
genauere Untersuchung enth ullt, da es in diesem Intervall genau eine Nullstelle gibt mit dem Wert
p
2
= 1.570796326794897 . . . .
Denition 6.80. Wir denieren
:= 2p
2
.
Das ist einfach nur eine Schreibweise, aber Assoziationen zu schulischen Bildungserlebnissen sind nicht
unbeabsichtigt.
Wegen c(p
2
) = 0 und c
2
(x) + s
2
(x) = 1 mu [s(p
2
)[ = 1 sein. Weil aber s
2
_
= i.
Potenzieren gibt exp(i) = 1 und exp(2i) = 1, also auch c() = 1, s() = 0, c(2) = 1, s(2) = 0.
Die Additionstheoreme f ur die Funktionen c und s liefern dann
c
_
x +
2
_
= c(x) 0 s(x) 1 = s(x),
c(x +) = c(x) (1) s(x) 0 = c(x),
c(x + 2) = c(x) 1 s(x) 0 = c(x),
s
_
x +
2
_
= s(x) 0 +c(x) 1 = c(x),
s(x +) = s(x) (1) +c(x) 0 = s(x),
s(x + 2) = s(x) 1 +c(x) 0 = s(x).
6.5. ELEMENTARE FUNKTIONEN 135
Satz 6.81. Fur jedes x R gilt c(x) = cos(x), s(x) = sin(x) sowie
exp(ix) = cos(x) + i sin(x). (6.5)
Hierbei sind cos und sin geometrisch deniert.
Beweis. Die Funktionen c und cos sind Losung des Anfangswertproblems
y
+y = 0, y(0) = 1, y
(0) = 0,
und die Funktionen s und sin sind Losung des Anfangswertproblems
y
+y = 0, y(0) = 0, y
(0) = 1.
Da es aber (wegen Lemma 4.35) nur jeweils eine einzige Losung geben kann, mu c(x) = cos(x) und
s(x) = sin(x) gelten. Die Gleichung (6.5) folgt dann aus der Denition von c und s.
Denition 6.82 (Komplexe Winkelfunktionen). Fur z C denieren wir die Winkelfunktionen
cos(z) =
1
2
(exp(iz) + exp(iz)), sin(z) =
1
2i
(exp(iz) exp(iz)).
Oensichtlich sind diese Funktionen in ganz C unendlich oft dierenzierbar, und Satz 6.74 sowie Satz 6.79
gelten auch f ur komplexe Argumente.
Frage: Man bestimme sup
zC
[ cos(z)[ und sup
zC
[ sin(z)[.
Satz 6.83. Die einzigen Nullstellen der komplexen Winkelfunktionen sind z
sin,n
= n fur den Sinus und
z
cos,n
=
2
+n fur den Cosinus, wobei n Z.
Wenn exp(iz) = 1, dann ist z = 2n fur ein geeignetes n Z.
Beweis. Sei z = x + iy mit x, y R. F ur den Cosinus haben wir zum Beispiel
'(cos z) =
1
2
'(exp(iz) + exp(iz)) =
1
2
'
_
e
ix
e
y
+e
ix
e
y
_
=
1
2
_
e
y
cos x +e
y
cos x
_
=
1
2
cos x
_
e
y
+e
y
_
.
Die Aussage uber die Nullstellen der Sinusfunktion bekommt man auf ahnlichem Wege.
Wenn nun exp(iz) = 1, dann ist auch exp(iz) = 1, und somit ist sin(z) = 0, also z = k f ur ein k Z.
Die ungeraden k kommen nicht in Frage (warum ?), also bleiben nur die z = 2n ubrig, und f ur diese gilt
exp(iz) = 1 tatsachlich.
Denition 6.84. Fur z C mit z ,
2
+Z denieren wir die Tangensfunktion als
tan z =
sinz
cos z
.
Satz 6.85. Die Tangensfunktion besitzt die folgenden Eigenschaften (uberall dort, wo sie deniert ist):
tan(z +) = tan z,
tan(z) = tanz,
tan(z +w) =
tan z + tan w
1 tanz tanw
,
tan
(z) = 1 + tan
2
z =
1
cos
2
z
.
Beweis. Diese Eigenschaften ergeben sich direkt aus den analogen Eigenschaften von sin und cos.
136 KAPITEL 6. FUNKTIONEN
Durch Division der Potenzreihen von sin und cos bekommt man die folgende Potenzreihe des Tangens im
Ursprung mit Konvergenzradius
2
. Weitere Terme der Potenzreihe ergeben sich durch Rechnen.
tan z =z +
1
3
z
3
+
2
15
z
5
+
17
315
z
7
+
62
2835
z
9
+
1382
155925
z
11
+
21844
6081075
z
13
+
929569
638512875
z
15
+
6404582
10854718875
z
17
+
443861162
1856156927625
z
19
+
18888466084
194896477400625
z
21
+
113927491862
2900518163668125
z
23
+
58870668456604
3698160658676859375
z
25
+
8374643517010684
1298054391195577640625
z
27
+
689005380505609448
263505041412702261046875
z
29
+
129848163681107301953
122529844256906551386796875
z
31
+
1736640792209901647222
4043484860477916195764296875
z
33
+
418781231495293038913922
2405873491984360136479756640625
z
35
+O(z
37
), z 0.
Satz 6.86 (Arcusfunktionen).
1. Die Sinusfunktion bildet das Intervall [
2
,
2
] bijektiv auf [1, 1] ab. Die Umkehrfunktion
arcsin: [1, 1]
_
2
,
2
_
heit Arcussinus und hat die Ableitung (arcsiny)
=
1
1y
2
.
2. Die Cosinusfunktion bildet das Intervall [0, ] bijektiv auf [1, 1] ab. Die Umkehrfunktion
arccos: [1, 1] [0, ]
heit Arcuscosinus und hat die Ableitung (arccos y)
=
1
1y
2
.
3. Die Tangensfunktion bildet das Intervall (
2
,
2
) bijektiv auf R ab. Die Umkehrfunktion
arctan: R
_
2
,
2
_
heit Arcustangens und hat die Ableitung (arctany)
=
1
1+y
2
.
Beweis. Das schaen Sie alleine.
Frage: Wie sehen die Potenzreihen f ur diese Umkehrfunktionen aus ? Wo konvergieren sie ? Was hat das
alles mit der binomischen Reihe zu tun ? Oder mit der geometrischen Reihe ?
6.5.3 Die Hyperbelfunktionen
Denition 6.87. Die Funktionen
sinh: C C, sinh: z sinh(z) =
1
2
(exp(z) exp(z)),
cosh: C C, cosh: z cosh(z) =
1
2
(exp(z) + exp(z)),
tanh: C
_
i
2
+iZ
_
C, tanh: z tanh(z) =
sinh(z)
cosh(z)
=
exp(z) exp(z)
exp(z) + exp(z)
,
heien Sinus hyperbolicus, Cosinus hyperbolicus, Tangens hyperbolicus
37
.
Der Name kommt von der Formel cosh
2
(x) sinh
2
(x) = 1 f ur x R, die besagt, da die Punkte der Form
(cosh x, sinh x) auf dem Ast einer Hyperbel liegen.
37
hyperbolic sine, hyperbolic cosine, hyperbolic tangent
6.5. ELEMENTARE FUNKTIONEN 137
Satz 6.88. Im Denitionsbereich dieser Funktionen gelten die folgenden Eigenschaften:
sinh(z +w) = sinh z coshw + coshz sinh w,
cosh(z +w) = coshz coshw + sinhz sinhw,
tanh(z +w) =
tanh z + tanh w
1 + tanh z tanh w
,
sinh(z) = sinh z, cosh(z) = coshz, tanh(z) = tanh z,
sinh
(z) =
1
cosh
2
(z)
,
sinh(z + 2i) = sinh z, cosh(z + 2i) = coshz, tanh(z +i) = tanhz,
sinh z = i sin(iz), cosh z = cos(iz), tanh z = i tan(iz),
sinh z =
k=0
z
2k+1
(2k + 1)!
, cosh z =
k=0
z
2k
(2k)!
.
Beweis. Eine wunderbare Gelegenheit, den Umgang mit elementaren Funktionen zu uben !
F ur den Tangens hyperbolicus bekommen wir auf bekanntem Wege die Reihendarstellung
tanh z =z
1
3
z
3
+
2
15
z
5
17
315
z
7
+
62
2835
z
9
1382
155925
z
11
+
21844
6081075
z
13
929569
638512875
z
15
+
6404582
10854718875
z
17
443861162
1856156927625
z
19
+
18888466084
194896477400625
z
21
113927491862
2900518163668125
z
23
+
58870668456604
3698160658676859375
z
25
8374643517010684
1298054391195577640625
z
27
+
689005380505609448
263505041412702261046875
z
29
129848163681107301953
122529844256906551386796875
z
31
+
1736640792209901647222
4043484860477916195764296875
z
33
418781231495293038913922
2405873491984360136479756640625
z
35
+O(z
37
), z 0.
Der Konvergenzradius ist
2
.
Satz 6.89 (Areafunktionen). Die Funktion y = sinh(x) bildet das Intervall R = (, ) bijektiv auf
sich ab und hat dort die Umkehrfunktion
x = Arsinh(y) = ln
_
y +
_
y
2
+ 1
_
.
Die Funktion y = cosh(x) bildet [0, ) bijektiv auf [1, ) ab und hat dort die Umkehrfunktion
x = Arcosh(y) = ln
_
y +
_
y
2
1
_
.
Die Funktion y = tanh(x) bildet R = (, ) bijektiv auf (1, 1) ab und hat dort die Umkehrfunktion
x = Artanh(y) =
1
2
ln
1 +y
1 y
.
Diese Funktionen heien Area sinus hyperbolicus, Area cosinus hyperbolicus, Area tangens hyperbolicus
38
.
Beweis.
Ubungsaufgabe.
6.5.4 Wurzeln aus komplexen Zahlen
In diesem Abschnitt ziehen wir Wurzeln aus komplexen Zahlen. Diese bilden allerdings keine Wurzel-
funktion, denn die Bedingung der Eindeutigkeit ist verletzt.
Satz 6.90. Sei n N.
38
Nicht Arcus . . .
138 KAPITEL 6. FUNKTIONEN
1. Dann gibt es genau n verschiedene komplexe Zahlen
0
, . . . ,
n1
als Losungen der Gleichung
z
n
= 1.
Dies sind die Zahlen
j
= exp
_
2i
j
n
_
, j = 0, 1, . . . , n 1.
2. Sei w = [w[ exp(i) C. Dann gibt es genau n verschiedene komplexe Zahlen z
0
, . . . , z
n1
als
Losungen der Gleichung
z
n
= w.
Diese werden gegeben durch z
j
= z
0
j
, j = 0, 1, . . . , n 1, wobei
z
0
=
n
_
[w[ exp
_
i
n
_
.
Hierbei bedeutet
n
_
[w[ die gewohnliche nichtnegative Wurzel aus einer nichtnegativen reellen Zahl.
Beweis. 1. Sei z
n
= 1. Wir konnen z schreiben als z = [z[ exp(i) mit R. Dann ist
1 = z
n
= [z[
n
exp(in),
also [z[ = 1 und somit exp(in) = 1.
Wir wissen aus Satz 6.83: wenn exp(i) = 1, dann ist = 2j f ur ein j Z. Die Relation n = 2j
f uhrt gerade auf die Darstellung der
j
.
2. Man rechnet nach, da diese z
j
tatsachlich Losungen sind. Sei nun z
z0
aber eine Losung von z
n
= 1. Und diese Gleichung hat lediglich die Losungen
0
, . . . ,
n1
. Also kann es auer den z
0
, . . . , z
n1
keine weiteren Losungen der Gleichung z
n
= w
geben.
Die Zahlen
0
, . . . ,
n1
heien n-te Einheitswurzeln, und die Zahl Eins wird auch gern als Einheit bezeich-
net.
6.6 Verfahren zur numerischen Losung nichtlinearer Gleichungen
Lineare Gleichungen und Systeme von linearen Gleichungen konnen mittels Standardmethoden gelost wer-
den (und zwar exakt ); und die Theorie der Matrizen stellt viele Hilfsmittel bereit, die Losungen naher zu
beschreiben.
Demgegen uber ist die Situation bei nichtlinearen Gleichungen viel schwieriger:
Man kann manchmal nur hoen, da es uberhaupt Losungen gibt.
Oft wei man nicht, wieviele Losungen es sind.
Es ist keineswegs einfach, diese Losungen dann auch noch zu nden.
Und schlielich kann man nur in wenigen Fallen die Losungen exakt ermitteln; meist mu man sich
mit Naherungswerten begn ugen.
Beispiel 6.91. Wir versuchen die Gleichungen
x = cos(x), y = e
y
2
zu losen, wobei x, y > 0. Wir erhalten die Wertetabellen
6.6. VERFAHREN ZUR NUMERISCHEN L
M ein Fixpunkt
39
von F ist, wenn F(x
) = x
.
39
xed point
140 KAPITEL 6. FUNKTIONEN
Satz 6.93 (Banachscher Fixpunktsatz
40
). Sei M U abgeschlossen, U ein Banachraum, und F : M
M mit |F(x) F(y)|
U
|x y|
U
fur alle x, y M, wobei < 1.
Dann hat F genau einen Fixpunkt in M, F(x
) = x
x
n
|
U
n
1
|x
1
x
0
|
U
. (6.6)
Beweis. Zunachst haben wir
|x
2
x
1
|
U
= |F(x
1
) F(x
0
)|
U
|x
1
x
0
|
U
,
|x
3
x
2
|
U
= |F(x
2
) F(x
1
)|
U
|x
2
x
1
|
U
2
|x
1
x
0
|
U
,
.
.
.
|x
n+1
x
n
|
U
n
|x
1
x
0
|
U
.
Sei nun n < m. Dann ergibt sich
|x
m
x
n
|
U
= |(x
m
x
m1
) + (x
m1
x
m2
) + + (x
n+1
x
n
)|
U
|x
m
x
m1
|
U
+|x
m1
x
m2
|
U
+ +|x
n+1
x
n
|
U
(
m1
+
m2
+ +
n
) |x
1
x
0
|
U
k=n
k
|x
1
x
0
|
U
=
n
1
|x
1
x
0
|
U
0,
falls n . Also ist (x
n
)
nN
eine Cauchyfolge. Weil der Raum U als Banachraum keine Locher hat, besitzt
diese Folge einen Grenzwert x
, lim
n
|x
n
x
|
U
= 0. Und weil M abgeschlossen ist, liegt x
in M.
Wenn wir in der eben gezeigten Ungleichung
|x
m
x
n
|
U
n
1
|x
1
x
0
|
U
, m > n,
den Index m nach Unendlich schicken und Satz 5.24 clever einsetzen, dann bekommen wir genau die
Fehlerschatzung (6.6).
Dieser Grenzwert x
= lim
n
x
n
= lim
n
x
n+1
= lim
n
F(x
n
) = F( lim
n
x
n
) = F(x
).
Hierbei haben wir im vorletzten Schritt die Stetigkeit von F (als kommutatives Diagramm) benutzt. Und die
Stetigkeit von F wiederum folgt aus Satz 6.18 (Teil 4) mit
0
() = /, in Verbindung mit Bemerkung 6.20.
Es kann keinen zweiten Fixpunkt geben, denn falls x
= F(x
), dann gilt
|x
|
U
= |F(x
) F(x
)|
U
|x
|
U
,
was nur f ur x
= x
moglich ist.
Damit ist der Banachsche Fixpunktsatz bewiesen.
Beispiel 6.94. Sei F : [a, b] [a, b], und [F
(x)[ < 1 auf [a, b]. Dann gibt es genau ein x [a, b] mit
F(x) = x.
Warum ist das so ?
Beispiel 6.95. Bezogen auf das Beispiel der Gleichung x = cos(x) heit das: [a, b] = [0.1, 1], F(x) = cos(x),
also [F
(x)[ = [ sin(x)[. Auf dem Intervall [0.1, 1] ist die Sinusfunktion echt kleiner als 1, also konnen
wir argumentieren wie eben. (Die Wahl der Intervallgrenzen 0.1 und 1 hat sich dabei nach Probieren als
zweckmaig herausgestellt.)
Frage: Warum kam es f ur die Iteration y
n+1
= exp(y
n
) 2 im obigen Beispiel zur Divergenz ?
40
Banach xed point theorem
6.6. VERFAHREN ZUR NUMERISCHEN L
konvergiert, wenn
|x
n+1
x
|
U
|x
n
x
|
U
gilt fur alle n, mit einem gewissen < 1, das nicht von n abhangt.
Wir sagen, da die Folge (x
n
)
nN
quadratisch konvergiert, wenn
|x
n+1
x
|
U
C |x
n
x
|
2
U
gilt, falls x
n
nahe bei x
ist. Hierbei ist C eine positive Konstante, die nicht von n abhangt, aber auch
groer als eins sein darf.
Das Newtonverfahren ist ein Beispiel f ur ein quadratisch konvergentes Iterationsverfahren.
Noch ein Wort zur Schreibweise: f ur Abbildungen mit gesuchtem Fixpunkt x
, und sei f
(x
) ,= 0. Dann ist
das Newtonverfahren wie folgt deniert:
x
0
nahe genug an x
,
x
n+1
= x
n
f(x
n
)
f
(x
n
)
, n = 0, 1, . . .
Wenn die Folge der x
n
konvergieren sollte gegen einen Grenzwert, dann strebt die Folge (x
n+1
x
n
)
nN
der Dierenzen benachbarter Folgenglieder nach 0, also geht die Folge (f(x
n
))
nN
ebenfalls nach 0.
Satz 6.97. Es gibt ein > 0, soda fur das Intervall M = [x
, x
+] gilt:
1. Die Iterationsvorschrift des Newtonverfahrens bildet M in sich ab.
2. Das Newtonverfahren konvergiert quadratisch gegen x
.
Beweis. Zunachst ist f
(x
(x)
, x M.
Eine Division durch Null kann f ur x M nicht eintreten. F ur diese Hilfsfunktion rechnet man schnell nach,
da
F(x
) = x
, F
(x) =
f(x)f
(x)
(f
(x))
2
, F
(x
) = 0.
Wir d urfen fordern, da so klein ist, da im Intervall M gilt: [F
(x)[
1
2
, wegen der Stetigkeit von F
.
Das Newtonverfahren wird nun beschrieben durch die Vorschrift x
n+1
= F(x
n
). Sei x
n
M, also [x
n
x
[
. Der Mittelwertsatz liefert dann, da [x
n+1
x
[
1
2
[x
n
x
[
1
2
, also x
n+1
M. Damit kann
das Banach-Fixpunkt-Verfahren f ur die Funktion F durchgef uhrt werden und wir bekommen sofort die
Konvergenz gegen lim
n
x
n
= x
) = f(x
n
+ (x
x
n
)) = f(x
n
) + f
(x
n
)(x
x
n
) +
1
2
f
(
n
)(x
x
n
)
2
.
142 KAPITEL 6. FUNKTIONEN
Hierbei liegt
n
zwischen x
n
und x
(x
n
) und
sortieren um:
0 =
f(x
n
)
f
(x
n
)
+x
x
n
+
f
(
n
)
2f
(x
n
)
(x
x
n
)
2
,
x
n+1
x
=
f
(
n
)
2f
(x
n
)
(x
x
n
)
2
.
Weil dieser Bruch beschrankt auf M ist, ist dies genau die gew unschte quadratische Konvergenz.
Beispiel 6.98 (Babylonisches Wurzelziehen). Wir wollen die Wurzel aus 2 ziehen. Sei also f(x) =
x
2
2, und x
0
= 1. Dann haben wir die Iterationsvorschrift
x
n+1
= x
n
x
2
n
2
2x
n
=
1
2
_
x
n
+
2
x
n
.
_
Diese Iterationsvorschrift war schon den alten Sumerern in Babylon bekannt, vor etwa 4000 Jahren. Eine
entsprechende Formel gibt es auch fur hohere Wurzeln; dann ist f(x) = x
n
a. Diese Formel geht auf
Heron
41
zuruck. Es ergibt sich folgende Tabelle. Man beobachte die Verdopplung der Anzahl korrekter
Dezimalstellen, worin sich die quadratische Konvergenz widerspiegelt.
n x
n
Anzahl richtiger Stellen
0 1 1
1 1.5 1
2 1.416666666666667 3
3 1.41421568627451 6
4 1.41421356237469 12
5 1.414213562373095 16
6 1.414213562373095 16
6.7 Schl usselbegrie
Denition Grenzwert und Stetigkeit einer Funktion,
Satz vom Maximum, Zwischenwertsatz,
Denition von Ableitung und LandauSymbolen,
Produktregel, Kettenregel, Ableitung der Umkehrfunktion,
Mittelwertsatz, Regel von Bernoulli und de lHospital,
Taylorsatz und seine Beziehung zu Extremwerten,
komplexe Winkelfunktionen, Arcusfunktionen, Hyperbelfunktionen, Areafunktionen,
Wurzeln aus komplexen Zahlen im Gegensatz zur Wurzelfunktion,
Banachscher Fixpunktsatz und Newtonverfahren.
41
Heron von Alexandria, lebte irgendwann zwischen 150 vor Christus und 250 nach Christus.
Anhang A
Algebraische Strukturen
Name Operationen Beispiele und Anmerkungen
Halbgruppe
Bsp: (N
0
, +)
Bsp: Evolutionsoperator eines Diusionsprozesses
Anm: braucht nicht kommutativ zu sein
Gruppe
= max[x
1
[, . . . , [x
n
[
Anm: Norm entstammt genau dann einem Skalar-
produkt, wenn die Parallelogrammgleichung gilt
euklidischer/
unitarer
Raum
wie Vektorraum U,
aber zusatzlich noch reelles /
komplexes Skalarprodukt , ),
und Norm |u|
U
:=
_
u, u)
Bsp: R
n
mit x, y) =
n
j=1
x
j
y
j
Bsp: C
n
mit x, y) =
n
j=1
x
j
y
j
Bsp: C([a, b] R) mit f, g) =
_
b
a
f(x)g(x)dx
Bsp: C([a, b] C) mit f, g) =
_
b
a
f(x)g(x)dx
Banachraum/
vollstand.
normierter
Raum
wie normierter Raum
Anm: jede Cauchyfolge konvergiert
Bsp: R
n
und C
n
mit jeder Norm
Bsp: L
2
([a, b] R)
Bsp: C([a, b] R) mit ||
Hilbertraum
wie euklidischer bzw.
unitarer Raum
Anm: jede Cauchyfolge konvergiert
Anm: per Denition ist jeder Hilbertraum gleichzei-
tig euklidisch/unitar und Banachraum
Bsp: L
2
([a, b] R)
143
144 ANHANG A. ALGEBRAISCHE STRUKTUREN
Es gibt noch weitere physikalisch relevante algebraische Strukturen, die im Skript zwar gelegentlich verwen-
det wurden, ohne aber deniert worden zu sein. Insbesondere sind Algebren interessant. Grob gesprochen,
ist eine (assoziative) Algebra ein Vektorraum, der gleichzeitig ein Ring ist. Das heit, zusatzlich zu den
beiden Vektorraumoperationen
Vektor mal Vektor = Vektor, die in jedem Faktor linear ist und teilweise noch weitere
Eigenschaften hat. F ur diese weitere Multiplikation verwenden wir das Symbol .
Name Operationen Beispiele und Anmerkungen
Algebra
wie Vektorraum,
und zusatzlich
Vektor Vektor = Vektor
Anm: braucht weder kommutativ noch assoziativ
sein, und ein neutrales Element braucht es auch nicht
geben
Bsp: R
3
mit Kreuzprodukt
assoziative
Algebra
wie Algebra
Anm: ist jetzt assoziativ
Bsp: Matrizen aus R
nn
mit = Matrizenmultipl.
Bsp: Hom(U U) mit = Nacheinanderausf uhrung
Bsp: L
1
(R R) mit = ,
und ist das Faltungsprodukt
(f g)(x) =
_
y=
f(x y)g(y)dy
LieAlgebra
wie Algebra,
schreibe [x, y] statt xy
Anm: per Denition ist
[x, [y, z]] + [y, [z, x]] + [z, [x, y]] = 0 und [x, x] = 0
Bsp: R
3
mit Kreuzprodukt
Bsp: Hom(U U) mit [A, B] := A B B A,
hierbei ist = Nacheinanderausf uhrung
Bsp: Drehimpulsoperatoren der Quantenmechanik
Ein Buch, das uber mehrere hundert Seiten hinweg LieAlgebren diskutiert, ist:
Literatur: Greiner und M uller: Quantenmechanik. Symmetrien, 2005
Index
Abbildung
lineare, 61, 69
Abel, 29
abgeschlossene Menge, 90, 92
Ableitung, 12, 117
Abschlu, 90, 92
absolut konvergent, 94
absolute Konvergenz, 102
Additionstheorem, 106, 129
adjungierte Matrix, 63
aner Raum, 44
ahnliche Matrizen, 78
allgemeine Potenz, 116
analytisch, 117
Anfangswertabbildung, 80
Approximationsproblem, 56
Arcusfunktionen, 136
Argument einer komplexen Zahl, 17
assoziativ, 28
Ausbreitungsgeschwindigkeit, 21
Austauschlemma, 50
Austauschsatz, 50
Banach, 93
Banach-scher Fixpunktsatz, 140
Banachraum, 93
Basis, 22, 48
duale, 86
reziproke, 86
Basiserganzungssatz, 49
Basissatz, 49
Basistransformation, 77
Bernoulli, 124
beschrankte Menge, 91, 92
bestimmte Divergenz, 111
bestimmtes Integral, 13
Betrag, 24
Betrag einer komplexen Zahl, 15
bijektiv, 71
Bild, 72, 109
Bildraum, 72
Binomialkoezient, 98, 128
binomische Reihe, 128
Blindwiderstand, 21
Bolzano, 100
C, 14
Cardano, 13
Cauchy, 24
Cauchy-Folge, 93
Cauchy-Produktreihe, 102, 104
cos, 135
cosh, 136
Defekt, 72
Denitionsbereich, 109
Delta-Distribution, 70
Determinante, 37
Dierential, 117
Dierentialgleichungssystem, 80
Dierentialoperator, 80
dierenzierbar, 12, 19, 117
stetig, 117
Dimension, 52
Dimensionsformel f ur Abbildungen, 74
Dimensionsformel f ur Unterraume, 52
Dirac, 70
direkte Summe, 53
Divergenz, 59
Divisionsregel, 121
Drehmatrix, 27, 43
Drehstreckung, 17
Dreiecksungleichung, 54
duale Basis, 86
Dualraum, 86
ebene Welle, 21
Eektivwert, 20
komplexer, 20
Einheitsmatrix, 28
einseitiger Grenzwert, 111
Element
inverses, 29
neutrales, 29
Eliminationsmatrix, 65
endlich erzeugt, 46
Umgebung, 91, 92
Erzeugendensystem, 46
Euklid, 54
euklidischer Raum, 54
Euler, 106
Euler-sche Zahl e, 106
Exponentialfunktion, 17, 106
Familie, 38
Folge, 92
konvergente, 89, 92
Fourierreihe, 95
frei, 48
Funktion, 12, 109
Grenzwert, 110
Konvergenz, 110
145
146 INDEX
Funktionale
lineare, 69
Gau, 14
Gau-Jordan-Form, 65
geometrische Reihe, 94, 103
gleichmaige Konvergenz, 103
Gleichungssystem, 63
Gradient, 59
Gram, 56
Grenze
obere, 98
untere, 98
Grenzwert
einseitiger, 111
uneigentlicher, 110
Grenzwert einer Folge, 89, 92
Grenzwert einer Funktion, 110
Gruppe, 29
lineare, 32
orthogonale, 32
spezielle lineare, 32
spezielle orthogonale, 32
Halbgruppe, 28
Hamilton, 14
harmonische Reihe, 94
Hauptsatz der Dierential- und Integralrechnung,
13
Heisenberggruppe, 32
HelmholtzProjektion, 59
Hermite, 53
Hilbertraum, 93
holomorph, 117
homogenes System, 80
Homomorphismus, 61, 69
de lHospital, 124
Hyperbelfunktionen, 136
Haufungspunkt, 90, 92
Imaginarteil, 14
Induktion, 51
Inmum, 98
inhomogenes System, 80
injektiv, 71, 114
innerer Punkt, 91, 92
Integral
bestimmtes, 13
unbestimmtes, 13
inverse Matrix, 64
invertierbare Matrix, 64
isomorph, 72
Isomorphismus, 72
Jordan
Camille, 67
Pascual, 67
Wilhelm, 67
Kern, 72
Kettenregel, 120
kommutatives Diagramm, 16
kompakte Menge, 100
Komplement
orthogonales, 55
Komplementmenge, 91
komplexe Winkelfunktionen, 135
komplexe Zahl, 14
Komposition, 113
konjugiert komplexe Zahl, 15
kontravariant, 86
konvergent, 89, 92
Konvergenz
absolute, 94, 102
einer Reihe, 94
gleichmaige, 103
Konvergenz einer Funktion, 110
Konvergenzradius, 104
Koordinatensystem
kartesisches, 22
kovariant, 86
Kreisfrequenz, 21
Kreuzprodukt, 36
Kristall, 31
Kronecker, 39
Korper, 11, 16
L
2
, 93
Lagrange, 36
Landau-Symbole, 117
Lebesgue, 93
Leibniz, 101
Leibniz-Kriterium, 101
Levi-Civita-Tensor, 40
Limes, 89, 92
linear abhangig, 36, 38, 48
linear unabhangig, 38, 48
lineare Abbildung, 61, 69
lineare Funktionale, 69
lineare Gruppe, 32
lineare H ulle, 46
lineare Operatoren, 69
Linearkombination, 46
Linkssystem, 40
Logarithmus, 116, 129
Lorentz-Gruppe, 32
Lange, 24
Majorantenkriterium, 96
Matrix, 26
adjungierte, 63
inverse, 28, 64
invertierbare, 28, 64
regulare, 64
singulare, 64
transponierte, 42, 63
Matrix-Dierentialoperator, 80
Matrixprodukt, 27, 41, 62
Matrizen
INDEX 147
ahnliche, 78
Maximum, 98
lokales, 122
Menge
abgeschlossene, 90, 92
beschrankt, 91, 92
kompakte, 100
oene, 91, 92
Metrik-Koezienten, 86
Minimum, 98
lokales, 122
MinkowskiRaum, 32
Mittelwertsatz, 123
Verallgemeinerter, 123
Moivre, 17
monoton wachsend, 99, 114
Newtonverfahren, 140
Norm, 12, 16, 24, 54, 91
normierter Raum, 54, 91
Nullraum, 72
obere Grenze, 98
obere Schranke, 98
oene Menge, 91, 92
Operatoren
lineare, 69
Ordnungsrelation, 11
Orientierung, 40
negative, 40
positive, 40
orthogonal, 55
orthogonale Gruppe, 32
Orthogonalisierungsverfahren
von Gram-Schmidt, 56
Orthogonalsystem, 39
Orthonormalbasis, 55
Orthonormalsystem, 39, 43, 55
Ortsvektor, 22
Parallelogrammgleichung, 54
Partialsumme, 94
Permutationsmatrix, 66
, 134
Pivotelement, 67
Potenz
allgemeine, 116
Potenzreihe, 95, 103
der Logarithmusfunktion, 129
der Winkelfunktionen, 134
Produkt zweier P., 104
Produktregel, 120
Proximum, 56
Punkt
innerer, 91, 92
Quotientenkriterium, 97
Randpunkt, 91, 92
Rang, 72
Raum
aner, 44
euklidischer, 54
normierter, 54, 91
unitarer, 54
vollstandiger normierter, 93
Realteil, 14
Rechtssystem, 40
reelle Zahlen, 93
regulare Matrix, 64
Reihe, 94
binomische, 128
geometrische, 94, 103
harmonische, 94
Umordnung, 102
reziproke Basis, 86
Sandwichprinzip, 100
Satz vom Maximum, 113
Satz von BolzanoWeierstra, 100
Satz von Rolle, 123
Scheinwiderstand
komplexer, 21
Schmidt, 56
Schranke
obere, 98
untere, 98
Schwarz, 24
Schwingungsgleichung, 82
sin, 135
singulare Matrix, 64
sinh, 136
Skalarprodukt, 23, 35, 53
Spaltenrang, 79
Span, 46
Spatprodukt, 37
spezielle lineare Gruppe, 32
spezielle orthogonale Gruppe, 32
Stammfunktion, 13
Steinitz, 50
stetig, 12, 19, 111
stetig dierenzierbar, 13
streng monoton wachsend, 114
Summe von Vektorraumen, 52
Supremum, 98
surjektiv, 71
Symmetriegruppe, 31
System
homogenes, 80
inhomogenes, 80
tan, 135
tanh, 136
Taylor, 125
Teilfolge, 90, 92
Teilsumme, 94
transponierte Matrix, 42, 63
Umgebung, 91, 92
Umkehrfunktion, 115, 121
148 INDEX
der Hyperbelfunktionen, 137
der Winkelfunktionen, 136
unbestimmtes Integral, 13
uneigentlicher Grenzwert, 110
Ungleichung von Cauchy-Schwarz, 24, 54
unitarer Raum, 54
untere Grenze, 98
untere Schranke, 98
Unterraum, 46, 47
Untervektorraum, 47
Urbild, 109
Vektorprodukt, 36
Vektorraum, 22, 45
euklidischer, 54
unitarer, 54
Vergleichskriterium, 96
Verkn upfungstafel, 29
Verschiebungsgruppe, 32
vollstandige Induktion, 51
vollstandiger normierter Raum, 93
Weierstra, 100
Wellenfront, 21
Wellenzahlvektor, 21, 86
Wert einer Reihe, 94
Wertebereich, 109
Widerstand
induktiver, 21
kapazitiver, 21
Ohmscher, 21
Winkelfunktionen, 19, 129, 132
komplexe, 135
Wirkwiderstand, 21
Wurzel
aus komplexer Zahl, 137
Wurzelfunktion, 115
Wurzelkriterium, 96
Zahlen
reelle, 93
Zeilenrang, 79
Zeilenstufenform, 65, 67
Zwischenwertsatz, 114
Literaturhinweise
Die im Folgenden genannten B ucher sind mehrheitlich in der Lehrbuchsammlung der Bibliothek vorhanden.
Die empfohlene Einteilung in Lesergruppen ist rein subjektiv vorgenommen worden, was Sie aber keineswegs
davon abhalten soll, mit dem Buch zu arbeiten, mit dem Sie am Besten zurecht kommen.
Eher f ur Ingenieure
Papula, Mathematik fur Ingenieure 1, 2
de Boer, Vektor und Tensorrechnung fur Ingenieure
Burg, Haf, Wille, Hohere Mathematik fur Ingenieure 1, 2, 3, 4, 5
Eher f ur Physiker
Fischer, Kaul, Mathematik fur Physiker 1, 2, 3
Janich, Mathematik 1, 2. Geschrieben fur Physiker, (Sehr zu empfehlen)
Janich, Analysis fur Physiker und Ingenieure, (Sehr zu empfehlen)
Kuscer, Kodre, Mathematik in Physik und Technik
Fischer, Lineare Algebra
Barner, Flohr, Analysis 1, 2
Endl, Luh, Analysis 1, 2, 3
Madelung, Die mathematischen Hilfsmittel des Physikers, (Eher historisch interessant)
Eher f ur Mathematiker
Heuser, Analysis 1, 2
Walter, Analysis 1, 2
Konigsberger, Analysis 1, 2
Hildebrandt, Analysis 1, 2
Blatter, Analysis 1, 2, 3
Koecher, Lineare Algebra und Analytische Geometrie
Courant, Vorlesungen uber Dierential und Integralrechnung, (Traditioneller Zugang)
149