Sie sind auf Seite 1von 149

Mathematik f ur Physiker I

Michael Dreher
Fachbereich f ur Mathematik und Statistik
Universitat Konstanz
Studienjahr 2008/09
2
Etwas Juristisches:
Dieses Werk ist unter einem Creative Commons AttributionNonCommercialNoDerivs
3.0 Unported Lizenzvertrag lizenziert. Um die Lizenz anzusehen, gehen Sie bitte zu
http://creativecommons.org/licenses/by-nc-nd/3.0/de/ oder schicken Sie einen Brief an Crea-
tive Commons, 171 Second Street, Suite 300, San Francisco, California 94105, USA.
Wer aus den B uchern nicht mehr lernt, als was in den B uchern steht,
der hat die B ucher nicht halb genutzt.
Gotthold Ephraim Lessing, 17291781
4
Inhaltsverzeichnis
1 Grundlagen 11
1.1 Wiederholung aus der Schulanalysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1 Reelle Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2 Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1 Zur Einstimmung: Die Cardanische Formel . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.2 Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.3 Funktionen komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.4 Ausblick: Elektrotechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.5 Ausblick: Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3 Die Ebene und der R
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.1 Allgemeine Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.2 Drehungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 Gruppentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.1 Einf uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.2 Ausblick: Gruppen in der Physik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4.3 Ausblick: Mobilfunk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.5 Der Raum und der R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.5.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.5.2 Vektorprodukt und Spatprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.5.3 Drehungen im R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.5.4 Der ane Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.6 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2 Vektorraume 45
2.1 Allgemeine Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Linearkombinationen, Erzeugendensysteme usw. . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.1 Linearkombinationen und Unterraume . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.2 Lineare Unabhangigkeit und Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.3 Dimension eines Vektorraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3 Vektorraume mit Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.3.1 Skalarprodukte, Normen, Orthogonalsysteme . . . . . . . . . . . . . . . . . . . . . . 53
2.3.2 Approximationsprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.4 Ausblick: Vektorraume in der Physik 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.5 Ausblick: die HelmholtzProjektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.6 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5
6 INHALTSVERZEICHNIS
3 Matrizen 61
3.1 Operationen mit Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4 Homomorphismen 69
4.1 Allgemeine Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2 Geometrische Aspekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3 Lineare Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.4 Basistransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.5 Dierentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.6 Ausblick: Lineare Abbildungen in der Physik . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.7 Ausblick: Vektorraume in der Physik 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.8 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5 Normierte Raume, Reelle Zahlen, Folgen, Reihen 89
5.1 Folgen im R
d
und C
d
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 Folgen und Reihen in normierten Raumen . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2.1 Vollstandigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.2 Reihen in normierten Raumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2.3 Konvergenzkriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.3 Folgen und Reihen reeller Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.3.1 Schranken und Grenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.3.2 Beispiele f ur konvergente Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.3.3 Nichtabsolute Konvergenz und Umordnungen . . . . . . . . . . . . . . . . . . . . . . 101
5.4 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.5 Beispiel: Die Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.6 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6 Funktionen 109
6.1 Grenzwerte von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.3 Dierenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.4 Mittelwertsatz und Taylorscher Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
6.5 Elementare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.5.1 Der geometrische Zugang zu den Winkelfunktionen . . . . . . . . . . . . . . . . . . . 129
6.5.2 Der analytische Zugang zu den Winkelfunktionen . . . . . . . . . . . . . . . . . . . . 132
6.5.3 Die Hyperbelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.5.4 Wurzeln aus komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.6 Verfahren zur numerischen Losung nichtlinearer Gleichungen . . . . . . . . . . . . . . . . . 138
6.6.1 Das Halbierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6.6.2 Funktionaliteration und der Banachsche Fixpunktsatz . . . . . . . . . . . . . . . . 139
6.6.3 Das Newtonverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
6.7 Schl usselbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
A Algebraische Strukturen 143
Einleitung
Herzlich willkommen im Physikstudium !
Zu jedem Physikstudium gehort ein Mathematikkurs, und dieser Versuch eines Vorworts soll beschreiben,
welche Ziele wir mit diesem Mathematikkurs anpeilen. Im Schnelldurchlauf: es sind etwas andere Ziele als
im gymnasialen Mathematikunterricht (wobei hier nicht erortert werden soll, ob der schulische Mathema-
tikunterricht sinnvoll konzipiert ist und ob er seine Ziele uberhaupt erreicht).
Bekanntlich ist die Physik eine Wissenschaft. Das Gegenteil davon ist die Unwissenschaft, wie sie vertre-
ten wird von W unschelrutengangern, Schamanen, Esoterikern und sonstigen verwirrten Personlichkeiten.
Zwischen Wissenschaftlern und Nichtwissenschaftlern besteht der ausschlaggebende Unterschied, da die
Wissenschaftler ihre Arbeitsmethoden prazise begr unden und ihre erzielten Ergebnisse rechtfertigen konnen,
und zwar (z.B.) auf folgenden Wegen:
Experiment: die Voraussagen einer Theorie werden gepr uft (Arbeitsweise in der Experimentalphysik),
Theorie: eine Aussagen wird logisch prazise aus elementaren Prinzipien hergeleitet, die man als wahr
voraussetzt (Arbeitsweise in der theoretischen Physik und der Mathematik),
numerische Simulationen: das sind Rechenexperimente auf dem Computer, z.B. um eine Theorie zu
testen.
Da wir nun als Wissenschaftler wahrgenommen werden wollen, kommen wir nicht drumherum, diese An-
spr uche an wissenschaftliches Arbeiten auch gegen uns gelten zu lassen, woraus sich ein erster Unterschied
zum Schulunterricht ergibt:
Die schultypische Frage nach dem Wie (Wie verlauft der Rechenweg ?) wird ersetzt durch die Frage nach
dem Warum: Warum glaube ich eigentlich, da mein Rechenweg mich uberhaupt zum Rechenziel f uhrt ?
Gelegentlich artet die Abiturvorbereitung aus in ein Antrainieren halbverstandener Rechenrituale; diese
Phase soll im Physikstudium nicht wiederkehren.
Was ist eigentlich Mathematik ?
Wie eben schon angedeutet, geht es in der Mathematik nicht um das Abspulen von immergleichen Rechen-
schemata, ganz im Gegenteil:
(a) Mathematik ist die Kunst, stumpfsinniges Rechnen zu vermeiden. Es gibt keinen Platz f ur haliche
Mathematik, genauso wie es keinen Platz gibt f ur haliche Physik.
(b) Mathematik ist eine Wissenschaft, die Strukturen erforscht und durchschaubar macht.
Dabei strebt die Mathematik zuallererst nach Erkenntnis und versucht zu erklaren, warum die (von ihr
betrachtete Facette der hochst vielfaltigen) Wirklichkeit so ist, wie sie ist; und genau dasselbe gilt nat urlich
f ur jede andere Wissenschaft. Ein besonderes Merkmal einer jeden Naturwissenschaft ist es, da ein For-
scher
1
sich zwar ein bestimmtes Forschungsziel stellen kann, aber es ist zunachst nicht klar, ob das Problem
uberhaupt
2
losbar ist, ob man es selber schat (oder ob jemand anders schneller ist), oder ob der gewahlte
Weg nicht vielleicht eine Sackgasse ist und man am Ende der m uhseligen Plackerei mit leeren Handen
1
aus Gr unden der sprachlichen

Ubersichtlichkeit sind nur die maskulinen Personenbezeichnungen angef uhrt . . .
2
Ausnahme: Spielzeugprobleme, bei denen jeder ahnt, was herauskommt, und die nur Wenige interessieren
7
8 EINLEITUNG
dasteht. In der Schule ist das bekanntlich anders, denn dort bekommt man nur Aufgaben, die garantiert
mit dem vorher vermittelten Wissen losbar sind.
Kreative und phantasievolle Menschen sind klar im Vorteil, und es lohnt sich,

um die Ecke zu denken!


Ein weiteres wichtiges Kennzeichen mathematischer Arbeit ist die Abstraktion. Das bedeutet, da man
bei einer Situation die Eigenschaften von allen beteiligten Objekten entsprechend der Kategorien wichtig
/ unwichtig sortiert, die unwichtigen wegwirft, damit die wichtigen klarer zu sehen sind (und damit das
Problem uberhaupt erst einmal handhabbar wird). Ein Physiker macht genau das gleiche, wenn er sagt

hierbei betrachten wir nur Punktmassen. Bei Vektoren kann es zum Beispiel sein, da ihre Pfeil-Gestalt
wichtig ist (wenn man z.B. die Krafte auf einen Korper untersucht, dann ist die Veranschaulichung der
Krafte als Pfeile vollig nat urlich). Man kann die Eigenschaft eines Vektors, ein

Pfeil zu sein, aber auch


wegwerfen, und lediglich die beiden Eigenschaften ubrigbehalten, da man Vektoren addieren kann, und
da man Vektoren mit einer Zahl multiplizieren kann (sowie einiger Rechenregeln f ur diese Operationen).
Genau dasselbe trit aber auch auf Funktionen zu, denn diese lassen sich auch zueinander addieren bzw.
mit einer Zahl multiplizieren.
Wir d urfen also Funktionen als Vektoren ansehen !
Das ist ein Beispiel f ur einen Abstraktionsschritt. Und weil wir spatestens in der Quantenmechanik sowieso
dazu gezwungen sein werden, diesen Abstraktionsschritt (Funktionen als Vektoren anzusehen) zu vollziehen,
wollen wir den Gedanken Vektor = Pfeil gar nicht weiter verfestigen (dann m uten wir spater umlernen)
und arbeiten in diesem Kurs fast von Anfang an mit abstrakten Vektoren (ab Kapitel 2).
Wir schauen uns noch ein Beispiel an f ur

Funktionen als Vektoren:


Wir betrachten eine Funktion, die aus einer reellen Zahl eine reelle Zahl macht. Bekanntlich kann
man von einer solchen Funktion Minima suchen, indem man die Ableitung gleich Null setzt.
Jetzt betrachten wir eine Funktion, die aus einer Funktion eine reelle Zahl macht. Aus Gr unden der
sprachlichen Klarheit redet man besser von einem Funktional, und das wichtigste Beispiel ist vielleicht
das Wirkungsfunktional aus der Theoretischen Mechanik. Viele Bewegungsgesetze der Mechanik (z.B.
alles vomTyp F = ma) folgen aus dem Prinzip der kleinsten Wirkung. Und wie sucht man nun Minima
des Wirkungsfunktionals ? Durch Nullsetzen der Ableitung (was auch immer das ist), wobei die
eingesetzten Argumente des Wirkungsfunktionals jetzt keine Zahlen x R sind, sondern Funktionen
aus einem unendlichdimensionalen Funktionenvektorraum.
Ein wenig hochtrabend formuliert, benutzt die Theoretische Mechanik also die Dierentialrechnung in
unendlichdimensionalen Funktionenvektorraumen, und daf ur wollen wir mit diesem Mathematikkurs die
Grundlagen zu legen versuchen.
Mit etwas Gl uck kann es dann auf dem Wege der Abstraktion gelingen, Gemeinsamkeiten zwischen Dingen
zu entdecken, die weit entfernt voneinander scheinen, und schon hat man ein wenig besser erkannt, wie die
Welt aussieht und was deren Zusammenhange sind.
Methodische Konsequenzen
Es ist praktisch nicht durchf uhrbar, sich im Studium auf jede Eventualitat des spateren Berufslebens
vorzubereiten und sich f ur jede auftretbare Situation ein pagenau zugeschnittenes Rechenschema zurecht-
zulegen. Daf ur ist die uns umgebende Welt einfach zu vielgestaltig. Auerdem ist das Gedachtnis gar nicht
in der Lage, mehrere hundert isolierte Einzelinformationen abzuspeichern, wenn diese nicht untereinander
vernetzt sind. Viel wichtiger ist es, inhaltliche Zusammenhange zu erkennen, auch damit der Lernsto ein
assoziatives Netz bildet, das sich erheblich einfacher einpragen wird. Die im Skript aufgef uhrten Beweise
sind anhand des Kriteriums ausgewahlt worden, ob sie inhaltliche Zusammenhange beleuchten und somit
ein tieferes Verstandnis ermoglichen (und eine akzeptable Lange aufweisen).
Bei den Hausaufgaben treten also Rechenaufgaben mit Zahlen in den Hintergrund. Kreativitat und Phan-
tasie sind gew unscht, weshalb bei einigen Hausaufgaben nicht sofort ersichtlich ist, wie der Losungsweg
aussieht; noch dazu kann es mehrere Wege zur Losung geben. Wenn man sich ungl ucklicherweise verirrt,
kann die Losung womoglich lang und etwas halich sein (aber das merkt man nat urlich).
EINLEITUNG 9
Garantie: Die 4 Aufgaben eines Hausaufgabenblattes sind auf etwa 6 Seiten losbar.
Das hangt nat urlich von der Schriftgroe ab, aber wenn Sie mehr als 8 Seiten brauchen, machen Sie sicherlich
etwas falsch, und wenn Sie weniger als 4 Seiten benotigen, machen Sie eventuell etwas falsch.
Am Ende eines jeden Kapitels sind Schl usselbegrie aufgelistet. Diese heien deshalb so, weil sie eine
Schl usselbedeutung haben f ur das Verstandnis des Skriptinhalts. Demnach sollten Sie diese Begrie ver-
standen haben, also: Denition wiedergeben konnen, Eigenschaften beschreiben und Querverbindungen zu
anderen Begrien benennen. Mit diesen Begrien sollten Sie so vertraut sein, da Sie die kurzen Bewei-
se verstehen und bei den langeren Beweisen (es sind eher wenige) auf jeden Fall die zentralen Gedanken
angeben konnen.
Wie lost man Hausaufgaben ?
Weil das Wichtigste am Studium nicht etwa die Vorlesungen sind, sondern die eigenstandige Auseinander-
setzung mit dem Lernsto, kommen hier noch einige Anmerkungen zu den Hausaufgaben.
Lassen Sie sich von Ihrem Unterbewutsein helfen. Dieses braucht allerdings seine Aufwarmzeit, und es
mu wissen, wobei es eigentlich helfen soll, und es ist auch nicht zuverlassiger als die Eisenbahn.
Sie sollten also so schnell wie moglich die Aufgabe verstehen. Dazu besorgen Sie sich von allen vorkommen-
den mathematischen Fachbegrien die exakte Bedeutung, also die Denition. Diese nden Sie im Skript
und in B uchern (meistens mit einem Index ausgestattet); nur eingeschrankt empfehlenswert ist Wikipe-
dia. Tragen Sie alle Eigenschaften dieser Begrie zusammen, die Sie nden. Stellen Sie sicher, da Sie die
zusammengetragenen Dinge auch verstanden haben (hierbei sind ggf. Skizzen oder evtl. Zahlenbeispiele
brauchbar).
Nun m uten Sie ein solides Verstandnis dessen haben, worum es in der Aufgabe eigentlich geht. Wenn es sich
um eine Rechenaufgabe handelt, ist jetzt nicht mehr allzuviel zu tun (die abiturtypischen Rechentechniken
setzen wir als gefestigt voraus).
Falls es um einen Beweis geht: dr ucken Sie Voraussetzungen und Behauptung mit Ihren herausgeschriebenen
Denitionen aus (formulieren Sie also um). Da Sie die Aufgabenstellung jetzt verinnerlicht haben, konnen
Sie also beim Schlangestehen im Supermarkt dr uber nachdenken oder bei jeder anderen Gelegenheit. Echte
Zahlenbeispiele konnen hilfreich sein zur Ideenndung, Taschenrechnerexperimente ebenfalls. Werden Sie
kreativ (ab dieser Stelle gibt es kein Kochrezept mehr, wie auch ? Es geht ja schlielich um Phantasie, und
wenn es daf ur ein Schema zum Abspulen gabe, dann w urden wir wahrscheinlich in einer langweiligen Welt
leben).
Diese Suche nach einer Stelle, wo man ansetzen kann, ist vielleicht m uhselig, aber f ur den Lerneekt
unverzichtbar. Eine abgeschriebene Losung haben Sie binnen 10 Tagen vergessen, aber Sie werden sich
monatelang an den Moment erinnern, als nach langerer Anstrengung endlich der Groschen el. Der Schwung
dieses Erfolgs wird Sie durch das ganze Semester tragen. Es lohnt sich ! Eine selbstgefundene Losung ist
soviel wert wie 10 abgeschriebene. Wer abpinselt, tut sich selbst keinen Gefallen und studiert einfach nur
inezient.
Nach einiger Zeit haben Sie also eine mutmaliche Losung erhalten. Womoglich ist der Gedankengang
etwas zickzackig (das geht den professionellen Mathematikern und Physikern genauso), eventuell ndet Ihr
Unterbewutsein dann am nachsten Tag
3
eine Idee, wie man ihn begradigen kann.
Wenn Sie schon im Team arbeiten, konnen Sie ja so vorgehen, da jeder einzeln f ur sich die Losung sucht
und danach beide Varianten verglichen werden. Vielleicht kann man beide Wege zu einem zusammenf ugen,
der schoner ist. Oder Sie lesen bei Ihrem Kommilitonen Korrektur (es hinterlat einen schiefen Eindruck,
wenn in einer Woche auf einmal 7 Physikstudenten der Meinung sind, da
1
4
+
1
4
=
1
8
!). Falls Sie im
Team auf gemeinsamem Blatt abgeben, seien Sie nicht uberrascht, wenn die

Ubungsleiter dann strengere
Bewertungsmastabe anlegen, als wenn Sie alleine abgegeben hatten.
Achten Sie auf die auere Form Ihrer Losung. Die Losung soll so klar dargestellt werden, da auch ein Le-
ser, der weder Aufgabe noch einen korrekten Losungsweg kennt, erkennen kann, was eigentlich hier los ist.
Korrektoren sind dankbar, wenn sie nicht gedrangt sind, irgendwelche hingekritzelten Gedankenfragmen-
te m uhsam zusammenzupuzzlen, sondern wenn die Losung ein richtiger Text ist mit syntaktisch korrekten
3
im

Ubrigen werden die meisten Texte besser, wenn man sie mit einigem zeitlichen Abstand noch mal neu schreibt
10 EINLEITUNG
Satzen der deutschen Sprache. Die Kunst, sich im ganzen Satz gut auszudr ucken, ist bemerkenswert schwie-
rig, soda man fr uhestmoglich mit dem

Uben anfangen sollte. Es ist durchaus wahrscheinlich, da Sie Ihre
Hausaufgabenzettel spater noch ein mal benotigen werden, und daf ur ware es dann nutzvoll, die Losungen
so klar und einleuchtend aufgeschrieben zu haben, da Sie diese auch nach einem halben Jahr noch z ugig
verstehen.
Rechentechnische Hinweise
Jede Rechnung dient einem bestimmten Zweck.
Oft mochte man mit der Rechnung irgendwelche Ergebnisse ermitteln und diese dann woanders weiter-
verwerten. In einem solchen Fall ist es ein nat urlicher Wunsch, die Rechnerei nicht langer zu haben als
angemessen.
Es kann aber auch sein, da der Rechenweg selbst aufschlureich ist und einige Zusammenhange beleuchten
kann. Das funktioniert nat urlich nur, wenn man beim Rechnen kein unentwirrbares Gleichungsspaghetti
fabriziert hat.
In beiden Fallen lohnt es sich, okonomisch zu rechnen.
Generell gilt dabei: wenn eine Gleichungsumformung keinen benennbaren Nutzen hat weglassen oder
zumindest so weit wie moglich hinauszogern. Spezieller heit das zum Beispiel: Unterdr ucken Sie den Reex

Ich multipliziere erst mal alles aus.


Als instruktives Beispiel suchen wir Wendepunkte von f = f(x) =
3x+7
(x+2)
2
durch Nullsetzen von f

. Fleiiges
Ausmultiplizieren samtlicher Klammern und die Regel (
u
v
)

=
u

vuv

v
2
f uhren auf
f

(x) =
3x
2
14x 16
x
4
+ 8x
3
+ 24x
2
+ 32x + 16
,
f

(x) =
6x
5
+ 66x
4
+ 288x
3
+ 624x
2
+ 672x + 288
x
8
+ 16x
7
+ 112x
6
+ 448x
5
+ 1120x
4
+ 1792x
3
+ 1792x
2
+ 1024x + 256
,
und nun stecken wir fest, denn die Gleichung f

(x) = 0 bekommen wir nicht gelost.


Das ist einfach keine Mathematik mehr, denn der Versto gegen Prinzip (a) ist oensichtlich (kein Mathe-
matiker oder Physiker mit asthetischem Gesp ur rechnet freudvoll einen Monsterterm wie (3x
2
14x
16)

(x
4
+8x
3
+24x
2
+32x+16) (3x
2
14x16) (x
4
+8x
3
+24x
2
+32x+16)

aus. Abgesehen davon


ist die Wahrscheinlichkeit von Rechenfehlern viel zu hoch.).
Es liegt aber auch ein Versto gegen Prinzip (b) vor, denn der Bruch f ur f

(x) enthalt eine verborgene


Struktur, die jedoch aufgrund der milungenen Darstellung unsichtbar ist. Oder ist Ihnen etwa aufgefallen,
da man diesen Bruch k urzen kann durch x
4
+ 8x
3
+ 24x
2
+ 32x + 16 ?!
Wenn man stattdessen das komplett uber ussige Ausmultiplizieren des Nenners sein lat und jede Gele-
genheit zum K urzen sofort nutzt, bekommt man auf wesentlich schnellerem Wege
f

(x) =
3x 8
(x + 2)
3
, f

(x) =
6x + 18
(x + 2)
4
.
Weitere Tips:
Nutzen Sie bei Zwischenergebnissen, wann immer es sich anbietet, die Moglichkeit zur Zwischenprobe, und
zwar auf einem anderen Wege. Wenn Sie solche anderen Zugange gezielt suchen, trainieren Sie gleichzeitig
Ihren Durchblick durch die Mathematik, und auf den kommt es ja an.
Gewohnen Sie sich

Uberschlagsrechnungen im Kopf an; Sie werden schneller sein als der Taschenrechner.
Formulieren Sie mit Worten, was Sie tun wollen, und schreiben Sie das dann auch hin. Es sollen keine
Romane sein, eine Anmerkung der Form

Setze Gleichung () in () ein und lose nach y auf reicht vollig,


tut Wunder und begl uckt den Leser, weil die Struktur Ihrer Arbeit sichtbar wird.
Viel Erfolg !
Kapitel 1
Grundlagen
1.1 Wiederholung aus der Schulanalysis
1.1.1 Reelle Zahlen
Wir listen einige bekannte Eigenschaften der reellen Zahlen auf:
Seien a, b, c, d R beliebig. Dann haben wir:
Kommutativitat der Addition: a +b = b +a
Assoziativitat der Addition: (a +b) +c = a + (b +c)
0 ist neutrales Element f ur die Addition: 0 +a = a + 0 = a
Subtraktion: Jede Gleichung a + x = b (mit gegebenem a, b) ist losbar, die Losung x wird geschrieben
als x = b a.
Kommutativitat der Multiplikation: a b = b a
Assoziativitat der Multiplikation: (a b) c = a (b c)
1 ist neutrales Element f ur die Multiplikation: 1 a = a 1 = a
Division: Jede Gleichung a x = b (mit gegebenem a, b; jedoch a ,= 0) ist losbar, die Losung x wird
geschrieben als x = b/a.
Distributivgesetz: Addition und Multiplikation sind verzahnt gema der Regel (a +b) c = a c +b c.
Bemerkung 1.1. Man sagt auch, da die Menge der reellen Zahlen, gemeinsam mit den Operationen
(+, ), einen Korper bildet. Weitere Beispiele fur Korper sind die rationalen Zahlen oder die gebrochen-
rationalen Funktionen (also Funktionen der Form f = f(x) =
p(x)
q(x)
, wobei p und q Polynome sind).
Auerdem haben wir noch eine Ordnungsrelation , mit folgenden Eigenschaften:
Reexivitat: Es ist a a.
Antisymmetrie: Wenn a b und b a, dann ist a = b.
Transitivitat: Wenn a b und b c, dann auch a c.
Und diese Ordnungsstruktur ist verzahnt mit der Korperstruktur auf folgende Weise:
Addition von Ungleichungen: Wenn a b und c d, dann ist auch a +c b +d.
Multiplikation von Ungleichungen mit nichtnegativen Zahlen: Wenn a b und 0 c, dann ist
ac bc.
11
12 KAPITEL 1. GRUNDLAGEN
Warnung 1.2. Man darf zwar 2 Ungleichungen addieren, aber nicht voneinander abziehen oder durchein-
ander dividieren, oder mit negativen Zahlen multiplizieren.
Bekanntlich kann man die reellen Zahlen als Punkte auf der Zahlengeraden darstellen, und in dieser Form
wird der Abstand zweier reeller Zahlen a, b auf der Zahlengeraden gegeben durch [ab[. Insbesondere stellt
[a[ den Abstand des Punktes a vom Ursprung dar. Der Betrag hat folgende 3 Eigenschaften:
Es ist stets [a[ 0; und [a[ = 0 genau dann, wenn a = 0.
Es ist [a b[ = [a[ [b[.
Wir haben die Dreiecksungleichung: [a +b[ [a[ +[b[.
Bemerkung 1.3. Diese 3 Eigenschaften werden uns spater in anderen Zusammenhangen noch ofters
begegnen; wir werden dann sagen, da eine Norm vorliegt.
1.1.2 Funktionen
Zu einer Funktion f gehoren zwei Dinge:
ein Denitionsbereich D
f
R. Wenn man den Denitionsbereich verandert (zum Beispiel verkleinert),
dann erhalt man eine andere Funktion.
eine Vorschrift, wie die x aus dem Denitionsbereich in den Wertebereich abgebildet werden.
Beispiele f ur Funktionen sind:
Polynome; der Denitionsbereich ist ganz R,
gebrochen rationale Funktionen f = f(x) = g(x)/h(x) mit Polynomen g und h; der Denitionsbereich
ist R Nullstellen von h,
die Winkelfunktionen sin und cos,
die Logarithmusfunktionen (deniert auf R
+
).
Eine wichtige Eigenschaft von Funktionen ist die Stetigkeit. Wenn wir sagen, da eine Funktion f im Punkte
x
0
stetig ist, dann meinen wir im wesentlichen folgendes:
Wir konnen den Abstand von f(x) und f(x
0
), das heit den Wert [f(x) f(x
0
)[, beliebig klein bekommen,
wenn wir daf ur sorgen, da der Abstand von x und x
0
, also [x x
0
[, nur klein genug ist (eine genauere
Denition kommt spater).
Die oben genannten Funktionen sind stetig uberall dort, wo sie deniert sind.
Beispiele f ur Unstetigkeiten sind Sprungstellen oder Polstellen. Es gibt aber noch weitere Typen von Un-
stetigkeiten.
Eine weitere wichtige Eigenschaft einer Funktion ist die Dierenzierbarkeit. Anschaulich gesprochen, ist eine
Funktion f im Punkte x
0
D
f
dierenzierbar, wenn der Graph der Funktion in (x
0
[f(x
0
)) eine Tangente
hat, die nicht vertikal verlauft. Dann kann diese Tangente als Graph einer linearen Funktion
t = t(x) = f(x
0
) +A(x x
0
), x R,
interpretiert werden. Der Anstieg A dieser linearen Funktion heit Ableitung von f in x
0
und wird geschrie-
ben als
A =
df
dx
(x
0
) oder A = f

(x
0
).
Etwas exakter formuliert, ist die Funktion f in x
0
dierenzierbar genau dann, wenn der Grenzwert des
Dierenzenquotienten vorhanden ist, das heit
lim
xx0
f(x) f(x
0
)
x x
0
existiert.
1.2. DIE KOMPLEXEN ZAHLEN 13
Der Wert dieses Grenzwertes ist dann gleich A.
Jede dierenzierbare Funktion ist stetig.
Die meisten aus der Schule bekannten Funktionen (Polynome, gebrochen rationale Funktionen, Winkelfunk-
tionen, Exponentialfunktionen, Logarithmusfunktionen) sind uberall dort, wo man sie sinnvoll denieren
kann, dierenzierbar. Die Wurzelfunktionen und die Betragsfunktion f = f(x) = [x[ sind im Nullpunkt
nicht dierenzierbar.
Die Rechenregeln f ur die Ableitung (Produktregel, Kettenregel usw.) sowie die Formeln f ur die Ableitungen
der elementaren Funktionen wollen wir als bekannt voraussetzen.
Wenn die Ableitung f

einer Funktion f stetig ist, dann heit f stetig dierenzierbar. Wenn diese stetige
Ableitung f

wiederum dierenzierbar ist, dann nennt man f zweimal dierenzierbar, und die Ableitung
von f

wird mit f

bezeichnet. Wenn diese zweite Ableitung f

stetig sein sollte, dann nennen wir f zweimal


stetig dierenzierbar, und so weiter. Wenn samtliche Ableitungen existieren und stetig sind, dann heit f
unendlich oft dierenzierbar.
Jede stetige Funktion ist auch integrierbar, das heit, man kann bestimmte und unbestimmte Integrale
bilden. Darunter verstehen wir das folgende:
Sei das Intervall [a, b] im Denitionsbereich der stetigen Funktion f enthalten. Dann wird der Flacheninhalt
derjenigen Flache, die von der xAchse, dem Graphen der Funktion f und den Geraden x = a und x = b
eingegrenzt wird, als bestimmtes Integral von f uber dem Intervall [a, b] bezeichnet:
A =
_
b
a
f(x)dx.
Dies ist lediglich eine anschauliche Beschreibung, die f ur die ersten Zwecke jedoch ausreicht. Spater werden
wir eine exakte Denition nachreichen.
Das unbestimmte Integral
_
f(x)dx bezeichnet die Menge aller derjenigen Funktionen F = F(x), deren
Ableitung F

(x) gleich f(x) ist. Solche Funktionen F heien Stammfunktionen.


Die Beziehung zwischen Dierenzieren und Integrieren wird durch den folgenden Satz hergestellt, der besagt,
da jedes bestimmte Integral mit variabler oberer Grenze eine Stammfunktion ist.
Satz 1.4 (Hauptsatz der Dierential und Integralrechnung). Sei f eine stetige Funktion und
[a, b] D
f
. Sei F = F(x) die Funktion, die auf [a, b] deniert ist und durch
F(x) =
_
x
a
f(t) dt
gegeben wird. Dann ist F dierenzierbar, und es ist F

(x) = f(x) fur jedes x [a, b].


1.2 Die komplexen Zahlen
1.2.1 Zur Einstimmung: Die Cardanische Formel
Wir schauen uns die Gleichung
x
3
+px +q = 0 (1.1)
an. Hierbei sind p und q gegebene reelle Zahlen, und wir suchen reelle Losungen x. F ur solche kubischen
Gleichungen gibt es ein Losungsverfahren, das nach Geronimo Cardano (15011576) benannt ist:
Sei D = (
p
3
)
3
+ (
q
2
)
2
und w =
3
_

q
2
+

D. Dann wird eine Losung gegeben durch


x
1
= w
p
3w
.
Durch naivunbek ummertes Einsetzen kann man nachrechnen, da diese Zahl x
1
tatsachlich eine Losung
von (1.1) ist.
Wenn man diese Losung abdividiert, also die Polynomdivision (x
3
+px +q) : (x x
1
) durchf uhrt, kommt
man zu einem quadratischen Polynom mit bis zu zwei Nullstellen x
2
und x
3
. Insgesamt hat die Gleichung
(1.1) dann maximal 3 Losungen x
1
, x
2
und x
3
.
14 KAPITEL 1. GRUNDLAGEN
Wir probieren dieses Verfahren mal an einem Beispiel aus:
x
3
+
2
3
x
20
27
= 0.
Wir kommen auf D =
108
729
und w =
1
3
3
_
10 +

108. Dies ist eine irrationale Zahl, aber wenn wir daraus
dann x
1
berechnen, dann heben sich die Irrationalitaten mysterioserweise heraus und wir nden
x
1
=
2
3
,
was auch tatsachlich eine Losung der kubischen Gleichung ist, wie man durch eine Probe feststellt. Abdivi-
dieren des Linearfaktors (x
2
3
) f uhrt uns zum quadratischen Polynom x
2
+
2
3
x +
10
9
, welches keine reellen
Nullstellen hat.
Als weiteres Beispiel betrachten wir
x
3
63x + 162 = 0. (1.2)
Dann ist p = 63, q = 162, und f ur w erhalten wir
w =
3
_
81 +

2700.
Und hier ergeben sich mindestens zwei Probleme:
was soll

2700 sein,
wenn wir eine Deutung von

2700 gefunden haben sollten, was ist dann die dritte Wurzel aus
81 +

2700 ?
Wir konnten uns jetzt auf den Standpunkt stellen, da diese Formeln keinen Sinn haben, und die Gleichung
(1.2) eben keine einzige Losung hat. Aber verwirrenderweise gibt es Losungen, und zwar gleich drei, namlich
die reellen Zahlen 3, 6 und 9, wie man leicht nachrechnet.
Cardano und viele seiner Kollegen in den nachfolgenden Jahrhunderten gewannen den Eindruck, da es
n utzlich sein kann, mit solchen Ausdr ucken zu rechnen. Allerdings gelang es lange nicht, Terme der Form

2700 zu interpretieren. Man meinte, da Quadratwurzeln aus negativen Zahlen

nur in der Einbildung


existieren, und bezeichnete solche Zahlen demzufolge als imaginare Zahlen, im Gegensatz zu reellen Zahlen,
die eine Entsprechung in der Wirklichkeit haben.
Drei Jahrhunderte spater, 1831 durch Carl Friedrich Gau (17771855) und 1837 durch William R.
Hamilton (18051865), gelang es endlich, diese imaginaren Zahlen exakt und logisch sauber einzuf uhren.
Das sollten wir jetzt auch tun.
1.2.2 Die komplexen Zahlen
Denition 1.5. Unter einer komplexen Zahl
1
z verstehen wir ein geordnetes Paar (x, y) R
2
. Wir be-
zeichnen x als Realteil
2
und y als Imaginarteil
3
der komplexen Zahl z = (x, y); dafur schreiben wir:
x = 'z, y = z.
Die Menge aller komplexen Zahlen wird mit C bezeichnet.
Wir sagen, da zwei komplexe Zahlen z = (x, y) und w = (u, v) gleich sind, wenn sie in ihren Realteilen
bzw. Imaginarteilen ubereinstimmen, das heit x = u und y = v.
Komplexe Zahlen kann man addieren und multiplizieren, und zwar wie folgt:
Denition 1.6. Seien z = (x, y) und w = (u, v) komplexe Zahlen. Dann denieren wir die Summe z +w
und das Produkt z w als
z +w = (x +u, y +v), z w = (xu yv, xv +yu).
1
auf Englisch: complex number
2
real part
3
imaginary part
1.2. DIE KOMPLEXEN ZAHLEN 15
Wir vermerken kurz, da (0, 1) (0, 1) = (1, 0).
Lemma 1.7. Addition und Multiplikation komplexer Zahlen sind kommutativ und assoziativ. Auerdem
gilt das Distributivgesetz. Die komplexe Zahl (0, 0) ist neutrales Element fur die Addition, und die komplexe
Zahl (1, 0) ist neutrales Element fur die Multiplikation.
Beweis als

Ubungsaufgabe.
Es ist klar, wie man die Subtraktion als Umkehroperation zur Addition deniert: namlich komponenten-
weise.
Es fehlt uns blo noch die Division, um zu zeigen, da die komplexen Zahlen ebenfalls einen Korper bilden,
siehe auch Bemerkung 1.1. Wir verschieben die Denition der Division f ur einen Moment. Zunachst schauen
wir uns diejenigen komplexen Zahlen etwas genauer an, deren zweite Komponente Null ist:
Lemma 1.8. Es ist
(x, 0) + (u, 0) = (x +u, 0) und (x, 0) (u, 0) = (x u, 0).
Beweis als

Ubungsaufgabe.
Wir beobachten, da die komplexen Zahlen mit verschwindender zweiter Komponente sich wie reelle Zahlen
verhalten. Anstelle von (x, 0) konnten wir in Zukunft einfach x schreiben.
Jede reelle Zahl kann als komplexe Zahl interpretiert werden.
Wir denieren:
Denition 1.9. Die komplexe Zahl (0, 1) wird als imaginare Einheit
4
i bezeichnet,
i := (0, 1).
Dann rechnet man nach, da
z = (x, y) = (x, 0) + (0, y) = (x, 0) + (0, 1) (y, 0).
In unserer neuen Schreibweise lautet das z = x + i y.
Die Formel (0, 1) (0, 1) = (1, 0) kann man also auch schreiben als
i i = 1.
Und, allgemeiner, die Formeln f ur die Addition und Multiplikation lauten in der neuen Schreibweise:
z +w = (x + iy) + (u + iv) = (x +u) + i(y +v),
z w = (x + iy) (u + iv) = (xu yv) + i(xv +yu).
Wir rechnen also wie gewohnt, und beachten dabei lediglich die Sonderregel i
2
= 1.
Bevor wir zur Division kommen, brauchen wir noch 2 Begrie:
Denition 1.10. Sei z = (x, y) C eine komplexe Zahl. Dann heit
z = (x, y) = x iy
die komplex konjugierte Zahl
5
zu z, und
[z[ =
_
x
2
+y
2
heit Betrag
6
von z.
Man zeigt schnell, da die folgenden Rechenregeln gelten:
4
imaginary unit
5
complex conjugate
6
absolute value
16 KAPITEL 1. GRUNDLAGEN
Satz 1.11. Seien z = (x, y) und w = (u, v) komplexe Zahlen. Dann gilt:
z +w = z +w,
z w = z w,
z = z,
z z = ([z[
2
, 0).
In Worten zusammengefat: es ist egal, ob wir zuerst konjugieren und dann addieren (multiplizieren), oder
umgekehrt. Diese beiden Regeln konnen wir auch als kommutative Diagramme veranschaulichen:
(z, w)
?
(z, w)

_
+

_
+
z +w
?
z +w
= z +w
(z, w)
?
(z, w)

z w
?
z w
= z w
Das Fragezeichen ist dabei als Platzhalter zum Einsetzen zu lesen. Wir bezeichnen ein Diagramm als
kommutativ, wenn jeder Pfad von der Ecke links oben zur Ecke rechts unten das gleiche Ergebnis liefert.
Die letzte Regel in Satz 1.11 bedeutet, da das Produkt aus einer komplexen Zahl und ihrer Konjugierten
stets reell ist.
Satz 1.12. Die Betragsfunktion erfullt die Eigenschaften einer Norm (siehe Bemerkung 1.3). Das heit:
[z[ 0; [z[ = 0 genau dann, wenn z = (0, 0),
[z w[ = [z[ [w[,
[z +w[ [z[ +[w[.
Beweis.

Ubungsaufgabe.
Die erste und die letzte dieser Eigenschaften sind geometrisch unmittelbar einsichtig, wenn man sich die
komplexen Zahlen (die ja geordnete Paare reeller Zahlen sind) als Vektoren in der Ebene vorstellt. Der
Betrag einer komplexen Zahl ist nichts anderes als die geometrische Lange des zugeordneten Vektors.
Nun zur Division. Gegeben sind zwei komplexe Zahlen w = u + iv und r = p + iq, und gesucht ist deren
Quotient z = x + iy, also soll gelten
r z = w.
Wir multiplizieren mit r:
r w = r (r z) = (r r) z = [r[
2
z = [r[
2
(x + iy) = [r[
2
x + i([r[
2
y).
Jetzt nutzen wir aus, da wir auf der linken Seite eine bekannte komplexe Zahl stehen haben:
r w = (p iq) (u + iv) = (pu +qv) + i(pv qu).
Wir vergleichen Real und Imaginarteil:
x =
pu +qv
[r[
2
, y =
pv qu
[r[
2
.
Das Ganze wird vielleicht etwas einsichtiger in folgender Schreibweise:
z =
w
r
=
u + iv
p + iq
=
(u + iv)(p iq)
(p + iq)(p iq)
=
(pu +qv) + i(pv qu)
p
2
+q
2
=
pu +qv
p
2
+q
2
+ i
pv qu
p
2
+q
2
.
Damit haben wir gezeigt, da die Menge der komplexen Zahlen, zusammen mit der Addition und der
Multiplikation einen Korper bildet, was nichts anderes heit, da wir mit den 4 Grundrechenarten umgehen
konnen, wie wir es gewohnt sind.
1.2. DIE KOMPLEXEN ZAHLEN 17
Leider ist es nicht moglich, auf C eine Ordnungsrelation zu denieren, die sich mit den Rechenoperationen
vertragt (warum ?).
Wir wenden uns nun nochmal der geometrischen Veranschaulichung der komplexen Zahlen als Vektoren
(bzw. Punkte) der zweidimensionalen Ebene zu. Wir bezeichnen die horizontale Achse als reelle Achse, und
die vertikale Achse als imaginare Achse. Durch Hinschauen stellen wir dann fest, da f ur jede komplexe
Zahl z ,= 0 gilt:
'z = [z[ cos , z = [z[ sin.
Hierbei bezeichnet den Winkel zwischen dem positiven Teil der reellen Achse und dem Vektor, der zu z
gehort. (Ab jetzt wollen wir meistens nicht mehr unterscheiden zwischen einer komplexen Zahl und dem
Vektor, der diese komplexe Zahl geometrisch veranschaulicht.) Dieser Winkel wird auch als Argument
von z bezeichnet.
Was passiert bei Addition und Multiplikation ?
Man sieht schnell, da die Addition komplexer Zahlen der gewohnlichen Vektoraddition entspricht.
F ur die Multiplikation betrachten wir zwei komplexe Zahlen
z = x + iy = [z[(cos + i sin ), w = u + iv = [w[(cos + i sin ),
und erhalten:
z w = [z[(cos + i sin ) [w[(cos + i sin )
= [z[ [w[((cos cos sin sin ) + i(cos sin + sincos ))
= [z[ [w[(cos( +) + i sin( +)).
Das Produkt von z und w ist also eine komplexe Zahl, deren Betrag gleich dem Produkt der Betrage von
z und w ist; und das Argument von z w ist gleich der Summe der Argumente von z und w.
Die Multiplikation komplexer Zahlen entspricht einer Drehstreckung.
Interessant ist noch der Fall z = w, dann haben wir
z
2
= [z[
2
(cos(2) + i sin(2)), wenn z = [z[(cos + i sin ).
Mittels vollstandiger Induktion bekommen wir die sogenannte Formel von Moivre (Abraham de Moivre,
16671754):
z
n
= [z[
n
(cos(n) + i sin(n)), wenn z = [z[(cos + i sin ) und n N.
1.2.3 Funktionen komplexer Zahlen
Genauso wie man Funktionen von reellen Variablen denieren und untersuchen kann, kann man dies auch
mit Funktionen von komplexen Zahlen tun.
Einfache Beispiele f ur solche Funktionen sind Polynome,
P(z) = a
n
z
n
+a
n1
z
n1
+ +a
1
z +a
0
, n N,
mit Koezienten a
j
C und Denitionsbereich C.
Ein anderes und sehr wichtiges Beispiel ist die komplexe Exponentialfunktion. Bekanntlich erf ullt die
herkommliche Exponentialfunktion die Beziehungen
e
x1+x2
= e
x1
e
x2
, e
x1
=
1
e
x1
, e
0
= 1
f ur beliebige reelle x
1
, x
2
R.
Denition 1.13. Sei z = x + iy C eine komplexe Zahl. Dann denieren wir
e
z
= e
x+iy
:= e
x
(cos y + i siny).
Diese komplexwertige Funktion mit Denitionsbereich C heit komplexe Exponentialfunktion.
18 KAPITEL 1. GRUNDLAGEN
Spater werden wir eine andere Denition bevorzugen.
Satz 1.14. Die komplexe Exponentialfunktion hat die folgenden Eigenschaften:
e
0
= 1,
e
z+w
= e
z
e
w
, z, w C,
e
z
=
1
e
z
, z C.
Beweis. Wir haben e
0
= e
0+i0
= e
0
(cos 0 + i sin 0) = 1(1 + 0) = 1.
Seien nun z = x + iy und w = u + iv. Dann ist einerseits
e
z+w
= e
(x+u)+i(y+v)
= e
x+u
(cos(y +v) + i sin(y +v)),
andererseits, wegen der Additionstheoreme f ur die Sinus- und Kosinusfunktionen,
e
z
e
w
= e
x
(cos y + i siny)e
u
(cos v + i sin v)
= e
x+u
((cos y cos v sin y sinv) + i(cos y sin v + siny cos v))
= e
x+u
(cos(y +v) + i sin(y +v)).
Also ist e
z+w
= e
z
e
w
.
Und die dritte Beziehung beweist sich jetzt fast von selbst:
1 = e
0
= e
z+(z)
= e
z
e
z
.
Wenn wir annehmen, da z den Realteil Null hat (also eine sogenannte rein imaginare Zahl ist), dann folgt
die Beziehung
e
iy
= cos y + i sin y.
Falls wir hier y = setzen, entsteht die ber uhmte Gleichung
e
i
+ 1 = 0,
die samtliche f unf f ur den Physiker unverzichtbaren Zahlen in einer Zeile vereinigt.
Und wenn z den Imaginarteil Null hat (also reell ist), dann erhalten wir aus cos 0 = 1 und sin 0 = 0, da
e
z
= e
x
.
Also stimmt die neu denierte komplexe Exponentialfunktion mit der herkommlichen reellen Exponential-
funktion uberein, wenn das Argument der komplexen Exponentialfunktion zufalligerweise reell ist.
F ur eine komplexe Zahl z = x + iy mit Betrag [z[ und Argument haben wir jetzt drei aquivalente
Schreibweisen
z = x + iy,
z = [z[(cos + i sin ),
z = [z[e
i
,
die wir im Folgenden gleichberechtigt verwenden werden.
Nun zu den Winkelfunktionen. Wir konnen die Winkelfunktionen im Reellen mittels der Exponentialfunk-
tion ausdr ucken:
Satz 1.15. Sei R. Dann gilt
cos =
1
2
(e
i
+e
i
), sin =
1
2i
(e
i
e
i
).
1.2. DIE KOMPLEXEN ZAHLEN 19
Beweis. Wir haben
e
i
= cos + i sin , e
i
= cos() + i sin() = cos i sin,
denn die Kosinusfunktion ist gerade, und die Sinusfunktion ist ungerade. Jetzt brauchen wir diese beiden
Gleichungen blo zueinander addieren bzw. voneinander abziehen, und der Beweis ist vollendet.
Damit konnen wir jetzt auch Winkelfunktionen f ur komplexe Zahlen erklaren:
Denition 1.16. Fur z C denieren wir sinz und cos z durch
sin z =
1
2i
(e
iz
e
iz
), cos z =
1
2
(e
iz
+e
iz
).
Falls z in dieser Denition reell sein sollte, erhalten wir genau die herkommlichen Winkelfunktionen. Wir
haben also diese Winkelfunktionen von der Menge der reellen Zahlen in die Menge der komplexen Zahlen
fortgesetzt. Wir konnten noch weitere Funktionen von den reellen Zahlen in die komplexen Zahlen fortsetzen,
verschieben das aber auf ein spateres Kapitel. Stattdessen wollen wir uns uberlegen, welche Eigenschaften
Funktionen haben konnten.
Zum Beispiel konnte eine Funktion w : C C stetig sein. Was heit das ? Wir konnen die Stetigkeit
genauso denieren wie bei Funktionen w : R R. In Worten ausgedr uckt, ist die Stetigkeit der Funktion
w : C C im Punkte z
0
C folgendermaen deniert:
Wir konnen erzwingen, da der Wert [w(z) w(z
0
)[ beliebig klein wird, wenn wir nur daf ur sorgen, da
[z z
0
[ klein genug ist.
Hierbei bedeuten die Betragsstriche nat urlich den komplexen Betrag.
Die bisher betrachteten Funktionen (Polynome, komplexe Exponentialfunktion, komplexe Winkelfunktio-
nen) sind allesamt in ganz C stetig.
Eine weitere interessante Eigenschaft einer Funktion ist die Dierenzierbarkeit. Hierbei m ussen wir aller-
dings etwas aufpassen und zwei Falle unterscheiden.
Funktionen w : R C,
Funktionen w : C C.
Im ersten Fall konnen wir uns vorstellen, da die Funktion w auf einem Intervall [a, b] R deniert ist, wir
konnen also schreiben
w = w(t) = u(t) + iv(t), t [a, b].
Naheliegenderweise wird man die Ableitung w

(t) komponentenweise denieren wollen:


w

(t) := u

(t) + iv

(t), t [a, b].


Hierbei haben wir stillschweigend angenommen, da die reellwertigen Funktion u, v : [a, b] R im
herkommlichen Sinne dierenzierbar sind.
Im zweiten Fall haben wir es mit einer Funktion w = w(z) zu tun, wobei jetzt z aus ganz C stammen darf.
Wenn wir w = u + iv und z = x + iy schreiben, haben wir
w(z) = u(x + iy) + iv(x + iy), x + iy C,
und wir denieren die Ableitung als

Grenzwert der Dierenzenquotienten. Und zwar:


Wenn der Grenzwert
lim
zz0
w(z) w(z
0
)
z z
0
, z C,
existiert, dann sagen wir, da die Funktion w : C C im Punkte z
0
C dierenzierbar ist, und setzen
w

(z
0
) gleich diesem Grenzwert. Wir verlangen dabei, da z auf beliebigem Wege gegen z
0
laufen darf
(z.B. entlang einer heftig verknoteten Kurve); und jedesmal soll der Grenzwert des Dierenzenquotienten
denselben Wert haben.
20 KAPITEL 1. GRUNDLAGEN
Warnung 1.17. Die Ableitung ist jetzt eine komplexe Zahl, und es ist nur schwer moglich, den Wert der
Ableitung in gewohnter Form als

Anstieg der Tangente zu interpretieren.


Diese Ableitung hat genau die gleichen Eigenschaften wie die herkommliche Ableitung reellwertiger Funk-
tionen:
Satz 1.18. Seien w = w(z) und r = r(z) dierenzierbare Funktionen von C nach C. Dann gilt:
(w +r)

(z) = w

(z) +r

(z), z C,
(cw)

(z) = c w

(z), z C, c C,
(w r)

(z) = w

(z) r(z) +w(z) r

(z), z C,
_
w
r
_

(z) =
w

(z) r(z) w(z) r

(z)
r(z)
2
, z C, r(z) ,= 0,
w(r(z))

= w

(r(z)) r

(z), z C.
Die Beweise dieser Formeln verlaufen genauso wie im reellen Fall. Dies ist deshalb moglich, weil die reellen
Zahlen genauso wie die komplexen Zahlen einen Korper bilden; mit anderen Worten, da die Grundrechen-
arten denselben Regeln gen ugen.
Genauso wie im reellen Fall kann man nachweisen, da jede dierenzierbare Funktion w : C C stetig ist.
Auerdem sind die oben vorgestellten Funktionen dierenzierbar, und es ist
(z
n
)

= nz
n1
, z C, n N = 1, 2, . . . ,
(e
z
)

= e
z
, z C,
sin

(z) = cos(z), z C,
cos

(z) = sin(z), z C.
Warnung 1.19. Leider gibt es Funktionen, die wunderbar harmlos ausschauen, aber nicht dierenzierbar
sind. Ein Beispiel einer solchen Funktion ist w = w(z) = [z[
2
. Diese Funktion ist lediglich im Ursprung
dierenzierbar, und sonst nirgendwo. Sei z.B. z
0
= 1 +2i. Wenn wir z einmal horizontal gegen z
0
schicken
und einmal vertikal, bekommen wir fur den Grenzwert des Dierenzenquotienten zwei verschiedene Werte,
wie man schnell nachrechnet. Deshalb ist w im Punkte z
0
= 1 + 2i nicht dierenzierbar. Wir mussen eine
genauere Betrachtung der komplexen Dierentialrechnung auf spater verschieben.
1.2.4 Ausblick: Elektrotechnik
Hier ergibt sich ein kleines Problem mit den Schreibweisen: in der Elektrotechnik bezeichnet man die
Stromstarke mit i bzw. I, weshalb wir f ur die imaginare Einheit in diesem Abschnitt j schreiben, j
2
= 1.
Einen elektrischen Wechselstrom mit Amplitude i
m
, Kreisfrequenz = 2f und Phasenverschiebung
i
konnen wir ausdr ucken als
i(t) = i
m
cos(t +
i
), i
m
> 0, > 0,
i
R, t R.
Wenn wir f ur den sogenannten Eektivwert der Stromstarke I schreiben, I = i
m
/

2, dann erhalten wir


i(t) = '
_

2Ie
ji
e
jt
_
.
Der Ausdruck Ie
ji
ist eine komplexe Zahl, die nicht von der Zeit t abhangt. Um die Schreibweise zu
vereinfachen, f uhren wir den komplexen Eektivwert ein:
I = Ie
ji
und es folgt
i(t) =

2'
_
Ie
jt
_
.
Genauso verfahren wir mit der Spannung:
u(t) = u
m
cos(t +
u
), u
m
> 0, > 0,
u
R, t R,
U = u
m
/

2, U = Ue
ju
,
u(t) =

2'
_
Ue
jt
_
.
1.2. DIE KOMPLEXEN ZAHLEN 21
Die komplexen Zahlen Ie
jt
und Ue
jt
drehen sich in der komplexen Ebene im Gegenuhrzeigersinn, wenn
t wachst; und die Radien der Kreisbahnen sind I bzw. U. F ur einen Umlauf brauchen diese Vektoren die
Zeit 1/f, so wie man es erwartet.
Der Winkel zwischen den Vektoren Ie
jt
und Ue
jt
ist immer gleich, namlich
i

u
. Dies ist genau die
Phasenverschiebung zwischen Stromstarke und Spannung.
Spannung und Stromstarke stehen zueinander in Beziehung uber den Widerstand. Wir haben die folgenden
3 Falle:
Ohmscher Widerstand: U = RI, R R,
Spule (induktiver Widerstand): U = jLI, L R,
Kondensator (kapazitiver Widerstand): U = j
1
C
I, C R.
Nun f uhren wir den komplexen Scheinwiderstand ein:
Z =
U
I
.
Mit diesem Scheinwiderstand konnen wir genauso rechnen wie mit ohmschen Widerstanden: bei einer Rei-
henschaltung addieren sich die Scheinwiderstande, bei einer Parallelschaltung addieren sich die Reziproken
der Widerstande.
F ur die Schaltung in Abbildung 1.1 haben wir zum Beispiel
Z =
1
1
R1j/(C1)
+
1
R2+jL
j
1
C
2
.
Wenn man den Scheinwiderstand Z in der Form
Z = R + jX, R, X R,
schreibt, dann heit R = 'Z der Wirkwiderstand und X = Z der Blindwiderstand der Schaltung.
R_1 C_1
C_2
L R_2
Abbildung 1.1: Elektrische Schaltung
1.2.5 Ausblick: Mechanik
Eine ebene Welle, die sich im Ortsraum R
3
ausbreitet, wird haug modelliert mittels Funktionen der Form
(t, x) e
i(kxt)
.
Hierbei benennen t R und x R
3
die Variablen f ur Zeit und Ort, ihre Einheiten sind nat urlich Sekunde
und Meter. Weiterhin ist k = (k
1
, k
2
, k
3
) ein Vektor, der senkrecht auf den Wellenfronten steht und in der
Physik Wellenzahlvektor genannt wird. Seine Einheit ist
1
Meter
. Das Produkt kx ist zu verstehen als k
1
x
1
+
k
2
x
2
+k
3
x
3
. Und (omega) heit oft Kreisfrequenz mit der Einheit
1
Sekunde
. Schlielich ist nat urlich i
2
= 1.
Der Zusammenhang zwischen allen diesen Parametern ist c =

|k|
, wobei c die Ausbreitungsgeschwindigkeit
der Welle ist.
Man uberlege sich, warum dies tatsachlich eine Beschreibung von ebenen Wellen im R
3
liefert !
22 KAPITEL 1. GRUNDLAGEN
1.3 Die Ebene und der R
2
1.3.1 Allgemeine Eigenschaften
Wir starten mit einigen Begrien, die bekannt sein sollten:
Ebene: genauer gesagt, die Menge der Ortsvektoren der (zweidimensionalen) Ebene. Achtung: dies ist
nicht dasselbe wie der R
2
!
R
2
: die Menge aller geordneten Paare (x, y) mit x, y R.
Ortsvektor: ein Vektor (

Pfeil), der im Ursprung anfangt.


Addition von Ortsvektoren: ergibt wieder einen Ortsvektor.
Multiplikation eines Ortsvektors mit einer reellen Zahl: ergibt wieder einen Ortsvektor.
Kartesisches Koordinatensystem: besteht aus zwei Koordinatenachsen, die sich im Ursprung schnei-
den (und zwar rechtwinklig), und je einem Einheitsvektor pro Achse. Diese beiden Einheitsvektoren
sind gleichlang.
Wichtig ist, sich folgendes klar zu machen:
Die Addition zweier Vektoren und die Multiplikation eines Vektors mit einer reellen Zahl kann man rein
geometrisch denieren, vollig ohne den Begri eines Koordinatensystems !
Der folgende Satz ist dann schnell beweisbar:
Satz 1.20. Sei V die Menge der Ortsvektoren der Ebene. Weiterhin seien
+ : V V V,
: R V V
die geometrisch denierten Operationen

Addition zweier Vektoren und

Multiplikation eines Vektors mit


einer reellen Zahl. Dann haben wir die folgenden Eigenschaften fur alle Vektoren x, y, z V und alle
reellen Zahlen , R:
Kommutativitat der Addition: x +y = y +x
Assoziativitat der Addition: (x +y) +z = x + (y +z)

0 ist neutrales Element der Addition:



0 +x = x +

0 = x
Subtraktion: Jede Gleichung a+x = b (mit gegebenem a, b V ) ist losbar, die Losung x wird geschrieben
als x = b a.
Assoziativitat der Multiplikation: ( ) x = ( x)
1 ist neutrales Element der Multiplikation: 1 x = x
Zwei Distributivgesetze: Addition und Multiplikation sind verzahnt gema der Regeln ( + ) x =
x + x und (x +y) = x + y.
Bemerkung 1.21. Wir sagen auch, da (V, +, ) einen Vektorraum
7
uber R bildet.
Es gibt einen Zusammenhang zwischen der zweidimensionalen Ebene und dem R
2
, der durch ein Koordina-
tensystem vermittelt wird: Bekanntlich kann man jeden Ortsvektor der Ebene als Linearkombination der
Basisvektoren des Koordinatensystems darstellen. Die Koezienten dieser Linearkombination sind reelle
Zahlen, bilden also gerade ein geordnetes Paar, also ein Element aus dem R
2
.
Allerdings haben wir einige Freiheiten bei der Wahl des Koordinatensystems. Es ist zwar ublich, da die
eine Koordinatenachse

nach rechts zeigt und die andere

nach oben, aber das ist keineswegs zwingend.


Die Koordinatenachsen konnten auch gespiegelt sein oder

schief liegen. Und wenn das Koordinatensy-


stem (oder, praziser, die Menge der Basisvektoren) anders gewahlt werden, dann andern sich auch die
Koezienten eines Vektors bez uglich des jeweiligen Koordinatensystems.
7
vector space
1.3. DIE EBENE UND DER R
2
23
Die Koezienten eines Vektors hangen von der gewahlten Basis ab !
Im Folgenden haben wir uns f ur ein Koordinatensystem (also eine Basis) entschieden, das wir vorerst nicht
mehr andern, und dessen Basisvektoren e
1
V und e
2
V seien. Dann konnen wir jeden Vektor x V
schreiben als
x =
1
e
1
+
2
e
2
,
i
R.
Auf diesem Wege bekommen wir eine Abbildung von V in den R
2
, die jedes x V abbildet auf seine
Koordinaten
_
1
2
_
R
2
. (Wenn wir eine andere Basis (e
1
, e
2
)) gewahlt hatten, dann sahe diese Abbildung
anders aus.) Die Koordinaten von e
1
bez uglich der Basis (e
1
, e
2
) sind zum Beispiel
_
1
0
_
, die Koordinaten
von e
2
sind
_
0
1
_
.
Wenn wir die geometrisch denierten Rechenoperationen auf den R
2
ubertragen, kommen wir zur folgenden
Denition:
Denition 1.22. Der R
2
ist deniert als Menge geordneter Paare reeller Zahlen:
R
2
=
__

2
_
:
i
R
_
.
Das Paar
_
0
0
_
wird mit 0 bezeichnet; auerdem setzen wir e
1
=
_
1
0
_
und e
2
=
_
0
1
_
. Dann denieren wir 2
Operationen:
+ : R
2
R
2
R
2
,
_

2
_
+
_

2
_
:=
_

1
+
1

2
+
2
_
,
: R R
2
R
2
,
_

2
_
:=
_

2
_
.
Wir stellen schnell fest:
Satz 1.23. Der R
2
hat zusammen mit den Operationen + und die Eigenschaften aus Satz 1.20, ist also
ein Vektorraum uber R.
Ab jetzt werden wir den geometrisch denierten Vektorraum der Ortsvektoren in der Ebene einerseits
und den R
2
andererseits synonym gebrauchen, wobei wir im Hinterkopf behalten, da diejenige Abbildung
zwischen V und R
2
, die jedem Vektor seine Koordinaten zuordnet, von der gewahlten Basis in V abhangt.
Geometrisch ist klar, da es zwischen 2 Ortsvektoren einen Winkel gibt (es sei denn, einer der Vektoren
ware der Nullvektor), und da jeder Ortsvektor eine Lange hat. Wenn ein Ortsvektor x gegeben wird durch
x =
1
e
1
+
2
e
2
, dann betragt seine Lange
[x[ =
_

2
1
+
2
2
.
Wenn wir den Winkel zwischen dem Vektor x und der e
1
Achse taufen, dann ist

1
= [x[ cos ,
2
= [x[ sin .
Nun betrachten wir noch einen weiteren Vektor y mit Koordinaten
_
1
2
_
und Winkel zur e
1
Achse. Der
Winkel (x, y) ist dann gerade = , und aus dem Additionstheorem f ur den Cosinus erhalten wir
cos = cos( ) = cos cos + sin sin =

1
[x[


1
[y[
+

2
[x[


2
[y[
.
In den Zahlern der Br uche rechts entdecken wir das bekannte Skalarprodukt im R
2
:
Denition 1.24. Fur x =
_
1
2
_
R
2
und y =
_
1
2
_
R
2
denieren wir das Skalarprodukt x y R als
x y =
1

1
+
2

2
.
Dafur schreiben wir in Zukunft auch x, y).
24 KAPITEL 1. GRUNDLAGEN
Damit haben wir dann
cos (x, y) =
x, y)
[x[ [y[
,
falls keiner der Vektoren x, y gleich dem Nullvektor ist (ansonsten w urden wir durch Null dividieren). Wenn
aber einer der Vektoren x, y gleich 0 ware, dann gabe es auch keinen Winkel zwischen x und y.
Bemerkung 1.25. In die Berechnung des Skalarprodukts x, y) und der Langen [x[, [y[ gehen die Koor-
dinaten
1
,
2
,
1
,
2
ein. Diese Koordinaten hangen vom gewahlten Koordinatensystem ab, also von der
gewahlten Basis (e
1
, e
2
). Wenn wir eine andere Basis gewahlt hatten, zum Beispiel (e

1
, e

2
), dann hatten
wir andere Koordinaten

1
,

2
,

1
,

2
bekommen. Obwohl dies andere Koordinaten sind, bekommen wir fur
cos (x, y) am Ende denselben Wert ! Das ist geometrisch auch unmittelbar einsichtig. Hierbei haben wir
stillschweigend vorausgesetzt, da die Vektoren e
1
, e
2
aufeinander senkrecht stehen und jeweils die Lange 1
haben; und da entsprechendes auch fur e

1
, e

2
gilt.
Satz 1.26. Das Skalarprodukt
, ) : R
2
R
2
R
besitzt die folgenden Eigenschaften fur alle Vektoren x, y, z R
2
und Skalare R:
x, y) = y, x) ,
x, y +z) = x, y) +x, z) ,
x, y) = x, y) ,
x, x) 0 und x, x) = 0 genau dann, wenn x = 0.
Beweis. Beweis durch Nachrechnen aus Denition 1.24.
Weil das Skalarprodukt x, x) eines Vektors x mit sich selbst nie negativ ist, lat sich die Wurzel ziehen:
Denition 1.27. Fur x R
2
erklaren wir die Lange (Betrag, Norm) vermoge
[x[ :=
_
x, x).
Satz 1.28 (Ungleichung von CauchySchwarz
8
). Seien x, y R
2
zwei Vektoren. Dann gilt
[ x, y) [ [x[ [y[.
Das Gleichheitszeichen gilt genau dann, wenn die Vektoren x und y parallel sind.
Beweis. Geometrisch ist die Sache klar: wir haben 1 cos (x, y) 1, und deshalb [x[ [y[ x, y)
[x[[y[. Aber f ur spatere Zwecke ist es n utzlich, einen Beweis zu haben, der ohne Appelle an das geometrische
Vorstellungsvermogen auskommt und stattdessen nur Satz 1.26 ausnutzt.
Seien nun also x, y R
2
fest gewahlt, und sei weiterhin R beliebig. Dann haben wir
0 x +y, x +y) ,
was sich ausmultiplizieren lat wie folgt:
0 x +y, x) +x +y, y)
= x, x +y) +y, x +y) = x, x) +x, y) +y, x) +y, y)
= x, x) +y, x) +y, x) +y, y) = x, x) +y, x) +y, x) +y, y)
= x, x) + 2y, x) +
2
y, y) = [x[
2
+ 2x, y) +
2
[y[
2
.
Wir konnen annehmen, da y ,=

0 ist, weil ansonsten die Ungleichung trivialerweise gilt (wir bekamen
0 0). Dann ist aber [y[
2
,= 0, und wir d urfen dividieren:
0
[x[
2
[y[
2
+
2 x, y)
[y[
2
+
2
.
8
Augustin Louis Cauchy (17891857), Hermann Amandus Schwarz (18431921)
1.3. DIE EBENE UND DER R
2
25
Nun sind x und y fest, aber variabel. Die rechte Seite ist also eine quadratische Funktion in :
P() =
[x[
2
[y[
2
+
2 x, y)
[y[
2
+
2
,
von der wir wissen, da sie niemals negative Werte annehmen kann. Also ist die Diskriminante der zu-
gehorigen quadratischen Gleichung 0:
_
x, y)
[y[
2
_
2

[x[
2
[y[
2
0,
woraus die gew unschte Ungleichung sofort folgt.
Wenn in der CauchySchwarzUngleichung das Gleichheitszeichen eintritt, dann ist die Diskriminante gleich
0, also gibt es ein R mit x +y, x +y) = 0, also gilt f ur dieses die Beziehung x + y =

0. Dann
sind aber x und y parallel. Die Umkehrung dieser Aussage gilt auch, wie man schnell sieht.
Man beachte, da wir nirgends benutzt hatten, da x und y Vektoren aus dem R
2
sind. Derselbe Beweis
gilt auch im R
3
oder R
n
.
Satz 1.29. Die Norm aus Denition 1.27 erfullt die folgenden drei Eigenschaften, fur alle Vektoren x, y
R
2
und alle Skalare R:
[x[ 0 und [x[ = 0 genau dann, wenn x = 0,
[x[ = [[ [x[,
[x +y[ [x[ +[y[.
Beweis. Wir benutzen nur die 4 Eigenschaften aus Satz 1.26, aber keinerlei geometrische Interpretation:
Wegen

0 ist [x[ 0. Wenn [x[ = 0 sein sollte, dann mu x, x) = 0 sein, und das geht nur f ur x = 0.
Weiterhin ist
[x[ =
_
x, x) =
_
x, x) =
_
x, x) =
_
x, x) = [[
_
x, x) = [[ [x[.
Und schlielich haben wir, wenn wir die Ungleichung von CauchySchwarz zitieren,
[x +y[
2
= x +y, x +y) = x +y, x) +x +y, y) = x, x +y) +y, x +y)
= x, x) +x, y) +y, x) +y, y) = [x[
2
+ 2 x, y) +[y[
2
[x[
2
+ 2[x[ [y[ +[y[
2
= ([x[ +[y[)
2
.
Nun ist [x +y[ nie negativ, also d urfen wir die Wurzel ziehen und erhalten [x + y[ [x[ +[y[.
Die folgenden Eigenschaften konnen auf ahnlichem Wege leicht gezeigt werden:
Satz 1.30. Seien x, y R
2
beliebige Vektoren. Dann gilt:
[x y[
2
= [x[
2
+[y[
2
2 x, y) ,
[x +y[
2
+[x y[
2
= 2
_
[x[
2
+[y[
2
_
,
x, y) = 0 [x +y[
2
= [x[
2
+[y[
2
.
Geometrische Interpretationen davon zu suchen ist eine lehrreiche

Ubungsaufgabe.
Bemerkung 1.31. Seien a R
2
und R gegeben. Wir suchen einen Vektor x R
2
mit a, x) = . Man
stellt schnell fest, da es keine eindeutige Losung geben kann: Denn ausgeschrieben haben wir a
1
x
1
+a
2
x
2
=
und somit zwei Unbekannte, aber lediglich eine Gleichung. Und tatsachlich konnen wir zu einer Losung
x einen beliebigen Vektor addieren, der auf a senkrecht steht und bekommen so eine weitere Losung.
Es gibt keine Division als Umkehroperation des Skalarprodukts.
26 KAPITEL 1. GRUNDLAGEN
1.3.2 Drehungen
Literatur: Greiner und M uller: Quantenmechanik. Symmetrien. Kapitel I.8: Rotationen und ihre Grup-
peneigenschaften
Wir stellen uns folgendes Problem:
In einer Ebene sei durch die Einheitsvektoren e
1
und e
2
ein kartesisches Koordinatensystem gegeben. Ein
Vektor x habe bez uglich dieses Koordinatensystems die Koordinaten
_
1
2
_
, also
x =
1
e
1
+
2
e
2
.
Wir wollen den Vektor x um den Ursprung drehen, und zwar um den Winkel im Gegenuhrzeigersinn.
Das Bild von x sei x

; was sind die Koordinaten von x

?
Oensichtlich konnen wir mit gesuchten

j
schreiben:
x

1
e
1
+

2
e
2
.
Um diese

j
zu bestimmen, gehen wir einen Umweg: Wir drehen die Vektoren e
1
und e
2
um den Ursprung,
mit dem Winkel . Die Bildvektoren seien e

1
und e

2
. Dann ist geometrisch glaubbar, da
x

=
1
e

1
+
2
e

2
,
das heit, der Bildvektor x

hat in der gedrehten Basis (e

1
, e

2
) gerade die alten Koordinaten
_
1
2
_
.
Nun ist anhand einer Skizze plausibel, da
e

1
= cos e
1
+ sin e
2
, e

2
= sin e
1
+ cos e
2
.
Insgesamt ergibt sich damit
x

1
e
1
+

2
e
2
=
1
(cos e
1
+ sin e
2
) +
2
(sine
1
+ cos e
2
)
= (
1
cos
2
sin )e
1
+ (
1
sin +
2
cos )e
2
,
nach einem Koezientenvergleich (den wir spater rechtfertigen werden) also

1
= cos
1
sin
2
,

2
= sin
1
+ sin
2
.
Wir schreiben diese zwei Gleichungen als eine Vektorgleichung:
_

2
_
=
1
_
cos
sin
_
+
2
_
sin
cos
_
.
Um dies noch etwas anders zu schreiben, f uhren wir eine neue Notation ein: Ein Schema der Form
A =
_
a
11
a
12
a
21
a
22
_
, a
ij
R,
heit 2 2Matrix reeller Zahlen, f ur die wir eine Operation
Matrix mal Spaltenvektor ergibt Spaltenvektor
gema
_
a
11
a
12
a
21
a
22
__

2
_
:=
_
a
11

1
+a
12

2
a
21

1
+a
22

2
_
=
1
_
a
11
a
21
_
+
2
_
a
12
a
22
_
denieren. Damit konnen wir insgesamt schreiben:
x

=
_

2
_
=
_
cos sin
sin cos
__

2
_
= R()x.
1.3. DIE EBENE UND DER R
2
27
Denition 1.32. Die Matrix
R() =
_
cos sin
sin cos
_
, R,
heit Drehmatrix zum Winkel .
Was passiert, wenn wir f ur x einen der Basisvektoren e
1
=
_
1
0
_
, e
2
=
_
0
1
_
einsetzen ? Als Bildvektoren
erhalten wir dann
_
cos sin
sin cos
__
1
0
_
=
_
cos
sin
_
= e

1
beziehungsweise
_
cos sin
sin cos
__
0
1
_
=
_
sin
cos
_
= e

2
,
und das sind gerade die Spalten der Drehmatrix R().
Die Spalten der Drehmatrix sind die Koordinaten der Bilder der Basisvektoren.
Als Nachstes betrachten wir 2 Drehungen: zuerst drehen wir x um den Winkel und erhalten x

. Dann
drehen wir x

um den Winkel und erhalten x

. Wie konnen wir x

direkt aus x bestimmen ?


Wir haben also
x

= R()x, x

= R()x

, (1.3)
und geometrisch ist auch klar, da
x

= R( +)x.
Die Additionstheoreme der Winkelfunktionen liefern uns
R( +) =
_
cos cos sin sin sincos cos sin
sin cos + cos sin cos cos sinsin
_
.
Andererseits konnen wir die beiden Gleichungen (1.3) auch ineinander einsetzen:
x

= R()x

= R()(R()x).
Man beachte die Reihenfolge der Multiplikationen auf der rechten Seite: erst wird die Matrix R() mit dem
Spaltenvektor x multipliziert, was wieder einen Spaltenvektor liefert. Dieser wird dann in einem zweiten
Schritt von links mit R() multipliziert, und wir erhalten x

.
Im Sinne eines Assoziativgesetzes wollen wir nun die Klammern umsetzen:
x

???
= (R()R())x.
Hierbei m uten wir aber noch erklaren, was das Produkt zweier Matrizen R() und R() sein soll.
Denition 1.33. Seien A und B zwei Matrizen des Formats 2 2,
A =
_
a
11
a
12
a
21
a
22
_
, B =
_
b
11
b
12
b
21
b
22
_
.
Dann denieren wir das Matrixprodukt AB gema
AB =
_
a
11
b
11
+a
12
b
21
a
11
b
12
+a
12
b
22
a
21
b
11
+a
22
b
21
a
21
b
12
+a
22
b
22
_
.
Das heit: vom linken Faktor nehmen wir jeweils eine Zeile, und vom rechten Faktor jeweils eine Spalte.
Das Skalarprodukt dieser 2 Vektoren schreiben wir dort hin, wo Zeile (vom linken Faktor) und Spalte (vom
rechten Faktor) sich kreuzen.
28 KAPITEL 1. GRUNDLAGEN
Bemerkung 1.34. Die Multiplikation ist nicht kommutativ. Das heit, meistens ist AB ,= BA.
Satz 1.35. Fur die Drehmatrizen gilt allerdings
R()R() = R( +) = R()R(), , R.
Von besonderer Bedeutung ist der Drehwinkel 0. Dann haben wir als Drehmatrix
R(0) =
_
1 0
0 1
_
,
und man rechnet schnell nach, da x

= R(0)x gleich dem Ausgangsvektor x ist.


Denition 1.36. Die 2 2 Einheitsmatrix
9
ist
I
2
:=
_
1 0
0 1
_
.
Der Name erklart sich daraus, da Multiplikationen mit dieser Matrix den Ausgangsvektor unverandert
lassen; genauso wie Multiplikationen mit der reellen Zahl 1 eine reelle Zahl nicht andern.
Klar ist auch: wenn wir einen Vektor x erst um nach links drehen, und anschlieend um nach links
drehen, erhalten wir wieder den Ausgangsvektor x. Es ist also
R()R() = I
2
.
Denition 1.37. Sei A eine Matrix vom Format 2 2. Wenn es eine Matrix B gibt, mit
BA = I
2
,
dann heit die Matrix A invertierbar
10
, und die Matrix B heit inverse Matrix
11
zu A. Wir schreiben auch
B = A
1
.
Bemerkung 1.38. Die Multiplikation ist zwar nicht kommutativ. Aber wenn BA = I
2
ist, dann ist auch
AB = I
2
, wie wir im nachsten Abschnitt beweisen werden. Wenn dem nicht so ware, dann mute man
zwischen linksinversen und rechtsinversen Matrizen unterscheiden, was uns zum Gluck erspart bleibt.
Oensichtlich ist dann:
Satz 1.39. Jede Drehmatrix R() ist invertierbar, und ihre Inverse lautet
R()
1
= R() =
_
cos() sin()
sin() cos()
_
=
_
cos sin
sin cos
_
.
1.4 Gruppentheorie
Literatur: Greiner und M uller: Quantenmechanik. Symmetrien. Kapitel I.7: Denition einer Gruppe
1.4.1 Einf uhrung
Wenn wir mit einigem Abstand auf die reellen Zahlen, komplexen Zahlen, Vektoren und Matrizen schauen,
dann entdecken wir einige Gemeinsamkeiten, die uns zu den folgenden Denitionen f uhren:
Denition 1.40. Sei G eine beliebige (nichtleere) Menge. Sei weiterhin eine Operation mit 2 Argumenten
auf G:
: GG G,
: (x, y) x y.
Wenn diese Operation auf ganz GG deniert ist und die folgenden Bedingungen erfullt, dann heit (G, )
eine Halbgruppe
12
.
9
identity matrix
10
invertible
11
inverse matrix
12
semi-group
1.4. GRUPPENTHEORIE 29
ist assoziativ: (x y) z = x (y z) fur jegliche x, y, z G,
neutrales Element: Es gibt genau ein e G, soda fur jedes x G gilt: e x = x e = x.
Denition 1.41. Sei (G, ) eine Halbgruppe, die auerdem noch folgende Bedingung erfullt:
inverse Elemente: Zu jedem x G gibt es genau ein y G mit x y = y x = e.
Dann nennen wir (G, ) eine Gruppe
13
.
Denition 1.42. Sei (G, ) eine Halbgruppe bzw. Gruppe. Wenn die Operation kommutativ ist, also
x y = y x fur jegliche x, y G gilt, dann nennen wir die Halbgruppe/Gruppe abelsch
14
, nach Niels
Henrik Abel (18021829).
F ur Halbgruppen haben wir die folgenden Beispiele:
1. (N
0
, +)
2. (N
0
, )
3. (Z, )
4. (M
2
, ), wobei M
2
die Menge der 2 2Matrizen bezeichnet.
Die ersten drei Halbgruppen sind abelsch. F ur abelsche Gruppen kennen wir unter anderem die folgenden
Beispiele:
1. (Z, +)
2. (3Z, +) die Menge der durch 3 teilbaren ganzen Zahlen
3. (Z/3Z, +) die Menge der Reste bei Division durch 3
4. (Q, +)
5. (C, +)
6. (R
2
, +)
7. (R 0, )
8. (C 0, )
9. (R(): R, ) die Gruppe der Drehmatrizen.
Und nichtabelsche Gruppe sind zum Beispiel
1. (A M
2
: A invertierbar, )
2. die Menge aller Abbildungen, die ein Quadrat auf sich abbilden (Ecke auf Ecke), mit der Nacheinan-
derausf uhrung als Operation.
Wir sollten das Beispiel der Reste bei Division durch 3 noch erklaren: Bei Division einer ganzen Zahl durch
3 konnen genau die Reste 0, 1 und 2 auftreten. Die Menge G = 0, 1, 2 dieser Reste ergibt mit der Addition
gema Tabelle 1.1 eine Gruppe.
Wir klassizieren die Gruppen:
Die Operation kann zum Beispiel sein die
Addition: von Zahlen, Vektoren, Pfeilen, Matrizen, . . . ,
13
group
14
abelian
30 KAPITEL 1. GRUNDLAGEN
+ 0 1 2
0 0 1 2
1 1 2 0
2 2 0 1
Tabelle 1.1: Verkn upfungstafel von (Z/3Z, +)
Multiplikation: von Zahlen oder Matrizen,
Nacheinanderausf uhrung: von umkehrbaren Abbildungen einer Menge auf sich.
Das neutrale Element e ist dann in diesen drei Fallen die
Null: Null als Zahl, Null als Nullvektor, Null als Nullmatrix, . . .
Eins: Eins als Zahl oder Einheitsmatrix,
identische Abbildung: bildet jedes Objekt auf sich selbst ab.
Das inverse Element a
1
zu einem Element a der Gruppe ist dann in diesen drei Fallen
das entgegengesetzte Element: beispielsweise zu 5 R also 5,
das

reziproke Element: beispielsweise zu 5 R also 0.2; oder die inverse Matrix,


die Umkehrabbildung: diejenige Abbildung, die die Abbildung a r uckgangig macht.
Frage: Eine Gruppe G habe genau 1492 Elemente. Wieviele neutrale Elemente hat sie ? Wieviele inverse
Elemente ?
Denition 1.41 ist ubermaig streng. Man kann einiges weglassen und hat trotzdem den selben Inhalt:
Satz 1.43. Sei G eine nichtleere Menge und eine assoziative Operation mit 2 Argumenten, die auf ganz
GG deniert ist, mit Werten in G. Wir setzen weiterhin voraus:
Es gibt mindestens ein linksneutrales Element e G, das heit e x = x fur jedes x G.
Zu jedem x G gibt es mindestens ein linksinverses Element x G, das heit x x = e.
Dann ist (G, ) eine Gruppe.
Beweis.

Ubungsaufgabe.
Eine Folgerung aus diesem Satz ist: Die Matrix I
2
ist das einzige neutrale Element f ur die Matrizenmul-
tiplikation. Sei die Matrix A invertierbar. Dann gibt es also (mindestens) eine Matrix B mit BA = I
2
.
Laut dem vorigen Satz ist dieses B dann die einzige linksinverse Matrix. Und obendrein ist dieses B auch
noch rechtsinvers, d.h. AB = I
2
. Und dies, obwohl die Multiplikation von Matrizen im Allgemeinen nicht
kommutativ ist.
Man kann Gruppen auch anders denieren: anstatt zu fordern, da zu jedem Element ein inverses existiert,
kann man auch verlangen, da jede Gleichung losbar ist:
Satz 1.44. Sei (G, ) eine Gruppe und a, b G beliebig. Dann gibt es genau ein x G bzw. y G mit
a x = b, y a = b.
Beweis. Wir probieren mit x = a
1
b:
a x = a (a
1
b) = (a a
1
) b = e b = b.
Also ist dieses x eine Losung. Um zu zeigen, da es keine weitere Losung gibt, nehmen wir das Gegenteil
an. Sei also
a x = b, a z = b.
Dann haben wir ax = az. Wir setzen von links ein a
1
dran und erhalten a
1
ax = a
1
az, woraus
x = z folgt. Die Aussagen uber y lassen sich genauso beweisen.
1.4. GRUPPENTHEORIE 31
Warnung 1.45. Es ist zwar jedes linksinverse Element auch rechtsinvers, aber die Losungen x und y zu
a x = b und y a = b sind im Allgemeinen verschieden.
Dieser Satz wirkt sich auf die Verkn upfungstafeln aus wie folgt:
In jeder Zeile einer Gruppentafel taucht jedes Element genau einmal auf. Analog fur jede Spalte.
Wenn dies einmal nicht der Fall sein sollte, hat man sich entweder verrechnet, oder es ist keine Gruppe.
Jetzt, wo wir uber den Begri der Gruppe verf ugen, konnen wir die Denition des Korpers k urzer formu-
lieren. Am Beispiel von (R, +, ) w urde die aquivalente Denition lauten:
(R, +) ist eine abelsche Gruppe mit neutralem Element 0,
(R, ) ist eine abelsche Halbgruppe mit neutralem Element 1,
(R 0, ) ist eine Gruppe,
Addition und Multiplikation sind verzahnt uber das Distributivgesetz.
Lemma 1.46. Seien a und b Elemente einer Gruppe, und a
1
, b
1
ihre inversen Elemente. Dann wird
das inverse Element zu a b gegeben durch
(a b)
1
= b
1
a
1
.
Beweis. Beweis durch Einsetzen.
Man beachte die geanderte Reihenfolge !
Wenn zum Beispiel die Matrizen A und B invertierbar sind, dann ist auch ihr Produkt AB invertierbar,
und die inverse Matrix des Produkts ist (AB)
1
= B
1
A
1
.
Die Formel (a b)
1
= b
1
a
1
kann man sich auch als kommutatives Diagramm veranschaulichen:
(a, b)

a b
Tausch

_()
1

_()
1
(b
1
, a
1
)

(a b)
1
= b
1
a
1
Der Punkt ist jeweils als Platzhalter zum Einsetzen zu verstehen.
Das Assoziativgesetz hat auch ein kommutatives Diagramm:
b
a
a b
c

_
c
b c
a
a b c
Entsprechendes gilt f ur Distributivgesetze bei Korpern und Vektorraumen.
1.4.2 Ausblick: Gruppen in der Physik
Wir listen einige Gruppen auf, die in der Physik ofters auftreten:
Symmetriegruppen eines Kristalls: gegeben sei ein Kristallgitter. Diese gibt es in verschiedenen Aus-
pragungen (kubisch, tetragonal, rhombisch, hexagonal, trigonal, monoklin, triklin, mit noch zusatz-
lichen Unterscheidungen, ob weitere Atome raumzentriert oder achenzentriert oder auf den Mittel-
punkten der Basisachen angebracht sind). Die Elemente der Symmetriegruppe dieses Gesamtgitters
bestehen aus allen Bewegungen, die das Gitter auf sich abbilden. Die Verkn upfung ist nat urlich die
Nacheinanderausf uhrung. Dazu zahlen alle Verschiebungen (sofern sie Gitterplatze aufeinander ab-
bilden) und ggf. noch diverse Spiegelungen an Symmetrieebenen oder einige Drehungen. Die das
Verhalten dieses Kristalls beschreibenden Dierentialgleichungen konnen sehr kompliziert sein, aber
wenn man die Symmetrien

herausfaktorisiert, wird es ein wenig einfacher.


32 KAPITEL 1. GRUNDLAGEN
Verschiebungsgruppen im R
n
: das sind alle Verschiebungen, die den R
n
auf sich abbilden. Die Ver-
kn upfung ist wieder die Nacheinanderausf uhrung (das schreiben wir in Zukunft nicht mehr mit).
Orthogonale Gruppe im R
3
: das sind alle langentreuen Abbildungen im R
3
, die den Ursprung un-
verandert lassen, also Drehungen, Spiegelungen, Drehspiegelungen. Diese Gruppe hat unendlich viele
Elemente, man nennt sie O(3).
Spezielle orthogonale Gruppe im R
3
: das sind alle langentreuen Abbildungen imR
3
, die den Ursprung
und die Orientierung unverandert lassen, also alle Drehungen. Schreibweise: SO(3).
Lineare Gruppe des R
3
: das sind alle linearen Abbildungen des R
3
auf sich, die invertiert werden
konnen. Spate werden auf Spate abgebildet. Schreibweise: GL(3).
Spezielle lineare Gruppe des R
3
: das sind alle Elemente der GL(3), die die Orientierung des R
3
erhal-
ten und Spate auf Spate mit gleichem Volumen abbilden.
Heisenberggruppe: die obigen Gruppen bestanden aus Abbildungen (und die Verkn upfung war jeweils
die Nacheinanderausf uhrung), die Punkte im R
3
auf Punkte im R
3
abbildeten. Im Gegensatz dazu
besteht die Heisenberggruppe
15
aus Abbildungen, die Elemente eines gewissen Zustandsraums auf
Elemente dieses Zustandsraums abbilden. Dieser Zustandsraum wiederum besteht aus allen Funktio-
nen von R
3
nach C, deren Betragsquadrat noch dazu integrierbar ist auf dem R
3
. Sei ein solches
Element des Zustandsraums, also eine Funktion
= (x): R
3
C.
Elemente der Heisenberggruppe wirken auf wie folgt:
Verschiebung um p R
3
: = (x) wird abgebildet auf
p
=
p
(x) = (x +p)
Phasenfaktor: = (x) wird abgebildet auf
q
=
q
(x) = e
iqx
(x)
Drehung in C: = (x) wird abgebildet auf
t
=
t
(x) = e
it
(x).
Auerdem nat urlich noch alle Kompositionen dieser Operationen.
Lorentzgruppe:
16
diese ist in der speziellen Relativitatstheorie ganz wichtig. Sie bildet den R
1+3
in sich
ab, und zwar so, da Eigenzeitabstande gleich bleiben. Der Raum R
1+3
verwaltet die Variablen f ur
Zeit und Ort. Er heit Minkowski
17
Raum und hat anstelle des gewohnlichen Skalarprodukts ein
Pseudoskalarprodukt:
(t, x
1
, x
2
, x
3
) (s, y
1
, y
2
, y
3
) = ts +x
1
y
1
+x
2
y
2
+x
3
y
3
.
Man beachte das Minus vor dem Produkt der Zeiten. Das Pseudoskalarprodukt eines Zeit-Raum-
Vektors mit sich selbst kann also negativ werden, und ein Zeit-Raum-Vektor gehort zum Lichtkegel,
wenn dieses Pseudoskalarprodukt dieses Vektors mit sich selbst gleich null ist. Die Eigenzeitabstande
werden uber dieses Pseudoskalarprodukt bestimmt.
Die LorentzGruppe hat unendliche viele Elemente, man schreibt (f ur die Gruppe) auch O(3, 1).
Von diesen Gruppen gibt es noch einen weiteren Zusammenhang zur klassischen Mechanik: typischerweise
wird die zeitliche Entwicklung eines physikalischen Systems beschrieben durch ein System von Dierenti-
algleichungen. Diese Dierentialgleichungen enthalten Ableitungen bez uglich der Orts und Zeitvariablen
(und eventuell noch bez uglich weiterer Variablen). Nun haben wir:
Wenn dieses Gleichungssystem sich nicht andert unter einer Verschiebung aus der Verschiebungsgruppe des
Ortsraumes R
3
, dann gilt f ur dieses physikalische System der Impulserhaltungssatz.
Wenn dieses Gleichungssystem sich nicht andert unter einer Drehung aus der SO(3) des Ortsraumes R
3
,
dann gilt f ur dieses physikalische System der Drehimpulserhaltungssatz.
Wenn dieses Gleichungssystem sich nicht andert unter einer Verschiebung aus der Verschiebungsgruppe des
Zeitraumes R
1
, dann gilt f ur dieses physikalische System der Energieerhaltungssatz.
Es versteht sich also von selbst, da es n utzlich ist, nach weiteren Gruppen zu suchen, deren Elemente das
Gleichungssystem nicht andern !
Literatur: Greiner und M uller: Quantenmechanik. Symmetrien. Kapitel VII: Die SU(3)-Symmetrie. Ka-
pitel VIII: Quarks und die Gruppe SU(3). Kapitel XI: Charm und SU(4).
15
Werner Karl Heisenberg (19011976), Nobelpreis f ur Physik 1932
16
Hendrik Antoon Lorentz (18531928), Namensgeber f ur die LorentzKraft und die LorentzTransformation, Nobelpreis
f ur Physik 1902
17
Hermann Minkowski (18641909)
1.4. GRUPPENTHEORIE 33
1.4.3 Ausblick: Mobilfunk
Beim Mobiltelefonieren uberlagern sich die Funkwellen der einzelnen Teilnehmer eben weil die Kommu-
nikation nicht entlang von Drahten erfolgt. Da nun auf einer Antenne (am Mobiltelefon oder Funkmast)
verschiedene Signale auftreen, stellt sich die Frage, wie man diese Signale voneinander trennt.
Die naheliegendste Moglichkeit ware, jedem Teilnehmer eine eigene Frequenz (bzw. ein Frequenzband) zu
geben. Allerdings scheitert dies daran, da es nicht genug Frequenzbander gibt.
Im GSM-Verfahren wird daher das Zeitschlitzverfahren eingesetzt: jedes Frequenzband mit einer Breite von
200kHz wird zeitlich auf 8 Teilnehmer aufgeteilt. Das heit, jedes Mobiltelefon auf diesem Band innerhalb
einer Funkzelle bekommt einen von 8 Zeitschlitzen. Wahrend eines solchen Zeitschlitzes kommunizieren
Mobiltelefon und Basisstation miteinander, wahrend der anderen 7 Zeitschlitze ist die Sende und Emp-
fangselektronik des Mobiltelefons abgeschaltet und die anderen Teilnehmer sind an der Reihe.
Aus verschiedenen Gr unden ist man bei UMTS vom Zeitschlitzverfahren abgegangen. Stattdessen funken
jetzt mehrere Telefone innerhalb einer Funkzelle gleichzeitig auf demselben Frequenzband ihre Signale zur
Basisstation. Das Frequenzband ist jetzt breiter, namlich 5MHz, und die Funksignale eines Telefons sind
uber die gesamte Breite von 5MHz verschmiert, was eine hohere Sicherheit gegen uber schmalbandigen
Storungen erlaubt. Andererseits funken jetzt viel mehr Teilnehmer gleichzeitig auf diesem Band, soda
diese Signale irgendwie getrennt werden m ussen.
Es gibt noch ein weiteres Problem: die Funkwellen, die z.B. ein Mobiltelefon an seine Basisstation sendet,
horen ja nicht an der Grenze der Funkzelle plotzlich auf. Stattdessen strahlen sie auch in benachbarte
Funkzellen hinein. Deshalb braucht man noch einen Mechanismus, um die Signale von/zu verschiedenen
Basisstationen zu unterscheiden.
Aus diesem Grunde werden 2 Verfahren gleichzeitig verwendet:
orthogonale variable Spreizfaktoren: diese OVSF haben die Aufgabe, das schmalbandige Signal auf
die gesamte Breite des Frequenzbandes zu spreizen; und zwar auf eine solche Art und Weise, da man
die Teilnehmer einer Funkzelle unterscheiden kann.
scrambling codes: diese trennen verschiedene Basisstationen (Funkmasten) voneinander.
Der Ablauf vom Mikrofon bis zur Sendeantenne ist in etwa wie folgt:
Die Sprachsignale werden digitalisiert (also abgetastet) und liegen danach als Folge von Nullen und
Einsen vor.
Anschlieend werden uber ussige Informationen weggeschnitten, das Signal wird komprimiert. Die
Bandbreite des Signales ist jetzt etwa 12kHz.
Das komprimierte Signal wird jetzt kanalkodiert, es wird also Redundanz hinzugef ugt. Die sich erge-
bende Bandbreite ist (3.84/Spreizfaktor)MHz.
Das Signal wird gespreizt. Dabei hat jeder Teilnehmer innerhalb einer Basisstation seinen eigenen
Spreizkode. Die Bandbreite ist jetzt 3.84MHz.
Der Scrambling Code wird angewandt, um Signale unterscheiden zu konnen, die zu verschiedenen
Basisstationen gehoren. (Bandbreite bleibt gleich).
Das Signal wird auf eine Tragerfrequenz von 2GHz aufmoduliert (Phasenmodulation). Die Bandbreite
ist jetzt 5MHz, da man an den Bandgrenzen nicht exakt abschneiden kann.
Zu den Spreizfaktoren/Spreizkodes:
Ein Spreizfaktor F ist eine der Zahlen 4, 8, 16, . . . , 128, 256. Ein Spreizkode ist eine Folge von F Zahlen,
jede Zahl ist 0 oder 1. Der Spreizfaktor hangt davon ab, wieviele Teilnehmer in einer Zelle sind. Je mehr
Teilnehmer, umso hoher mu der Spreizfaktor sein. Jeder Teilnehmer bekommt von seiner Basisstation
einen Spreizkode zugewiesen. Spreizkodes von verschiedenen Teilnehmern sind

orthogonal zueinander
18
.
Bei einem Spreizfaktor F gibt es genau F mogliche Spreizkodes, die paarweise aufeinander

orthogonal
stehen.
18
Zwei Spreizkodes a und

b aus {0, 1}
F
stehen

orthogonal aufeinander, wenn das Produkt


P
F
j=1
(2a
j
1)(2b
j
1) gleich
null ist. Dieses Produkt verhalt sich nicht wie ein Skalarprodukt, deshalb jedesmal die Gansef uchen.
34 KAPITEL 1. GRUNDLAGEN
Die Spreizung verlauft so: sei z.B. F = 4, und der Spreizkode eines Teilnehmers sei z.B. (0, 1, 1, 0). Die
Sprachsignale dieses Teilnehmers seien z.B.
0, 1, 0, 1, 1, . . . .
In einem ersten Schritt werden diese Signale mit dem Faktor F verlangert:
0, 0, 0, 0, 1, 1, 1, 1, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, . . .
Da diese viermal so lange Bitfolge in derselben Zeit gesendet wird, hat sich die Bandbreite vervierfacht.
Anschlieend wird diese Folge mit dem Spreizkode (0, 1, 1, 0) geXORt:
0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, . . .
Wenn man jetzt noch mal mit dem Spreizkode XORen w urde, kame man wieder zum Ausgangssignal.
Auf der Antenne der Basisstation kommt nun ein ganzes Gemisch von Signalen an. Wenn die Basisstation
das Signal eines bestimmten Teilnehmers herausltern soll, dann wird dieses Signalgemisch mit dem Spreiz-
kode geXORt. Weil Spreizkodes verschiedener Teilnehmer aber

orthogonal aufeinander stehen, f uhrt dies


zu einer Abschwachung der Signale der anderen Teilnehmer, und das gew unschte Signal ist also das starkste.
Nun kommen die Scrambling Codes ins Spiel:
Da es lediglich F paarweise

orthogonale Spreizkodes gibt mit der Lange F, braucht man ein neues
Verfahren, um Signale verschiedener Basisstationen voneinander abzugrenzen. Man nimmt dazu weitere
Kodes (scrambling codes), die

beinahe orthogonal aufeinander stehen. Diese Kodes werden auf folgendem


Wege konstruiert:
Sei F
2
= Z/2Z der Korper der Reste bei Division durch 2. Dieser Korper besteht nur aus den Elementen 0
und 1, und es gelten die Regeln 0 + 0 = 0, 0 + 1 = 1, 1 + 1 = 0 sowie 0 0 = 0 1 = 0, 1 1 = 1.
Sei F
2
[X] die Menge aller Polynome in der Variablen X mit Koezienten aus F
2
. Man kann solche Polynome
addieren, subtrahieren und miteinander multiplizieren (aber nicht durcheinander dividieren !) und erhalt
jedesmal wieder ein Ergebnis in F
2
[X]. Es gelten die ublichen Gesetze (Kommutativitat, Assoziativitat,
Distributivitat, 2 neutrale Elemente). Wir sagen auch, da (F
2
[X], +, ) einen Ring bildet.
Nun sei p F
2
[X] ein festes Polynom aus diesem Ring mit dem Grade N. Dieses Polynom ist f ur die
Festlegung der scrambling codes entscheidend. Genauer gesagt, gibt es zwei solche Polynome p: eines f ur
die Kommunikation vom Mobiltelefon zur Basisstation, und ein anderes f ur die andere Richtung. Die
Grade diese Polynome sind 24 und 18; und diese beiden Polynome sind im UMTS-Standard festgelegt, also
europaweit einheitlich (in Amerika und Asien gibt es verschiedene Abweichungen).
Dieses Polynom p ist ein ganz besonderes Polynom: denn es mu irreduzibel sein. Das bedeutet, da man
es nicht in Faktoren aus F
2
[X] zerlegen kann.
Nun nimmt man sich alle diejenigen Polynome aus F
2
[X] her, die p als Faktor enthalten. Diese bilden ein
sogenanntes Ideal, man schreibt f ur dieses Ideal auch (p).
Dann faktorisiert man F
2
[X] nach diesem Ideal und bekommt F
2
[X]/(p). Dies ist genau die Menge aller
Restpolynome, die bei Division mit Rest eines Polynoms aus F
2
[X] durch p entstehen konnen, also diejenigen
Polynome aus F
2
[X] mit Grad N 1. Jedes Element g von F
2
[X]/(p) hat die Form
g(X) a
N1
X
N1
+ +a
1
X +a
0
mod p, a
j
0, 1.
Diese Restklassen bilden einen Ring, wie man leicht nachpr uft. Weil jedoch das Polynom p irreduzibel ist,
bilden diese Restklassen nicht blo einen Ring, sondern etwas viel Besseres: namlich einen Korper. Mit
anderen Worten, man hat sogar noch die Division. Das heit, zu jedem Polynom g = g(X) aus F
2
[X]/(p)
gibt es genau ein Polynom h = h(X) aus F
2
[X]/(p) mit
g(X) h(X) 1 mod p.
Nun deniert man sich eine Folge g
0
(X), g
1
(X),. . . von Polynomen aus F
2
[X]/(p) gema der Vorschrift
g
k
(X) X
k
mod p, k = 0, 1, 2, . . . .
Es ist also g
k
nichts anderes als der Rest von X
k
bei Division durch p(X).
1.5. DER RAUM UND DER R
3
35
Jedes dieser Polynome wird gegeben durch seine Koezienten a
N1
, a
N2
, . . . , a
1
, a
0
, wobei a
N1
0, 1
der Koezient der hochsten XPotenz ist und a
0
das Absolutglied.
Wir schauen uns jetzt die Folge der Absolutglieder der g
k
an:
(a
0
(g
0
), a
0
(g
1
), a
0
(g
2
), . . . ).
Dies ist eine unendlich lange Folge von Nullen und Einsen; sie ist periodisch mit der Periodenlange 2
N
1.
Die Periodenlange ist deshalb so hoch, weil p irreduzibel ist.
Und in dieser Folge stecken die scrambling codes: jede Basisstation in Europa bekommt einen Startin-
dex zugewiesen, und die Folgenelemente ab diesem Startindex bilden gerade den scrambling code dieser
Basisstation. Verschiedene scrambling codes sind dabei

im wesentlichen orthogonal.
Das mit dem Spreizkode geXORte Signal wird jetzt mit dem passenden scrambling code ein weiteres Mal
geXORt. Anschlieend wird das Signal auf die Tragerfreqenz aufmoduliert und gesendet.
An der Empfangsantenne kommt dann ein Wellensalat an, aus dem durch XORen mit dem scrambling code
und Spreizkode das gew unschte Signal herausgeltert wird.
1.5 Der Raum und der R
3
1.5.1 Allgemeines
Die Begrie

Ortsvektor,

Addition von Vektoren,

Vervielfachung von Vektoren,

Kartesisches Koor-
dinatensystem denieren wir im Falle des dreidimensionalen Raumes analog wie im Falle der Ebene, blo
da jetzt noch eine weitere Dimension hinzukommt.
Die Menge der Ortsvektoren im dreidimensionalen Raum bildet, gemeinsam mit geometrisch denierter
Addition und Multiplikation, einen Vektorraum.
Denition 1.47. Der R
3
ist deniert als Menge geordneter Tripel reeller Zahlen:
R
3
=
_
_
_
_
_

3
_
_
:
i
R
_
_
_
.
Wir denieren 2 Operationen:
+ : R
3
R
3
R
3
,
_
_

3
_
_
+
_
_

3
_
_
:=
_
_

1
+
1

2
+
2

3
+
3
_
_
,
: R R
3
R
3
,
_
_

3
_
_
:=
_
_

3
_
_
Weiterhin schreiben wir 0 = (0, 0, 0)

, e
1
= (1, 0, 0)

, e
2
= (0, 1, 0)

, e
3
= (0, 0, 1)

.
Wir denieren das Skalarprodukt zweier Vektoren x und y als
x, y) =
1

1
+
2

2
+
3

3
,
und die Norm (den Betrag, die Lange) eines Vektors x R
3
als
[x[ :=
_
x, x).
Dann folgt schnell, da dieser R
3
mit diesen beiden Rechenoperationen einen Vektorraum bildet, und da
das Skalarprodukt die Eigenschaften aus Satz 1.26 besitzt. Dann gilt automatisch auch die Ungleichung
von CauchySchwarz, und die Betragsfunktion hat die Eigenschaften, die man von ihr erwartet.
1.5.2 Vektorprodukt und Spatprodukt
Der dreidimensionale Raum ist ein Sonderfall. Denn dort (und ausschlielich dort) konnen wir ein weiteres
Produkt von Vektoren denieren:
36 KAPITEL 1. GRUNDLAGEN
Denition 1.48 (Vektorprodukt oder Kreuzprodukt im R
3
). Seien x = (
1
,
2
,
3
)

und y =
(
1
,
2
,
3
)

zwei Vektoren. Dann wird das Vektorprodukt bzw. Kreuzprodukt


19
gegeben durch
x y =
_
_

2
_
_
.
Das sieht zunachst erst mal kompliziert aus; aber spater werden wir einfache geometrische Interpretationen
und schonere Formeln zur Berechnung nden.
Satz 1.49. Seien x, y, z, w R
3
und R. Dann gelten die folgenden Eigenschaften:
ist bilinear: Es ist (x) y = (x y) und (x + y) z = (x z) + (y z); analog fur den zweiten
Faktor.
ist antikommutativ: x y = y x
Entwicklungssatz: x (y z) = x, z) y x, y) z
ist nicht assoziativ: aber es gilt x (y z) +y (z x) +z (x y) =

0.
Identitat von Lagrange:
20
x y, z w) = x, z) y, w) x, w) y, z)
x y steht senkrecht auf x und y: x, x y) = y, x y) = 0.
Lange des Produktvektors: Wenn einen der beiden Winkel zwischen x und y bezeichnet, ist
[x y[
2
= [x[
2
[y[
2
x, y)
2
= [x[
2
[y[
2
sin
2
().
Multiplikationstafel: Wir haben folgende Tabelle:
e
1
e
2
e
3
e
1
0 e
3
e
2
e
2
e
3
0 e
1
e
3
e
2
e
1
0
(Erlauterung: e
1
e
2
= e
3
usw.)
Linear abhangige Vektoren: Es ist x y = 0 genau dann, wenn x und y linear abhangig sind.
Beweis. Die meisten Eigenschaften lassen sich simples Rechnen zeigen. Zum Beispiel ist
[x y[
2
= (
2

3
)
2
+ (
3

1
)
2
+ (
1

2
)
2
= (
2

3
)
2
+ (
2

3
)
2
+ (
3

1
)
2
+ (
3

1
)
2
+ (
1

2
)
2
+ (
1

2
)
2
2(
2

3
+
3

1
+
1

2
)
= (
2
1
+
2
2
+
2
3
)(
2
1
+
2
2
+
2
3
) (
1

1
+
2

2
+
3

3
)
2
= [x[
2
[y[
2
x, y)
2
= [x[
2
[y[
2
(1 (cos (x, y))
2
).
Daraus folgt sofort die letzte Eigenschaft: Denn wenn x y =

0 ist, dann hat entweder einer der Vektoren


x, y die Lange 0, oder die beiden Vektoren sind parallel oder antiparallel; also sind x und y linear abhangig.
Und umgekehrt.
F ur die geometrische Interpretation nehmen wir an, da e
1
, e
2
, e
3
ein Rechtssystem sind, also im Raum
liegen wie Daumen, Zeigenger, Mittelnger einer gesunden rechten Hand. Dann gilt:
Satz 1.50. Seien x, y R
3
, und z = x y. Dann gilt:
1. z steht senkrecht auf x und auf y.
2. Die Lange [z[ ist gleich der Flache des Parallelogramms, das von x und y aufgespannt wird.
19
cross product, vector product, outer product
20
Joseph Louis Lagrange, 17361813
1.5. DER RAUM UND DER R
3
37
3. x, y und z bilden in dieser Reihenfolge ein Rechtssystem.
Die ersten beiden Aussagen sind schon bewiesen, den Beweis der letzten Aussage m ussen wir aufschieben
(siehe Satz 1.60).
Bemerkung 1.51. Gegeben seien zwei Vektoren a und b. Gesucht sei ein Vektor x mit a x = b. Aus
dem vorigen Satz ergibt sich, da a und b aufeinander senkrecht stehen mussen. Ansonsten kann es eine
Losung x gar nicht geben.
Aber selbst wenn a und b aufeinander senkrecht stehen sollten, ist die Losung x immer noch nicht eindeutig
bestimmt (auch wenn wir jetzt drei Gleichungen fur drei Unbekannte haben).
Seien zum Beispiel a = (1, 0, 0)

und b = (
1
,
2
,
3
)

gegeben, und x = (
1
,
2
,
3
)

gesucht. Dann ist


_
_

3
_
_
= b = a x =
_
_
0

2
_
_
.
Wir bekommen
1
= 0 (was nichts anderes als a b bedeutet) sowie
2
=
3
und
3
=
2
. Und
oensichtlich konnen wir
1
nicht ermitteln. Es gibt mehrere Losungen: wenn x eine Losung ist, dann ist
auch x +a eine Losung, fur jedes R (naturlich nur wenn a b).
Es gibt keine Division als Umkehroperation des Kreuzproduktes.
Als Kombination von Skalarprodukt und Vektorprodukt bekommen wir (wie immer, nur im R
3
) das soge-
nannte Spatprodukt:
Denition 1.52 (Spatprodukt bzw. Determinante). Seien x, y, z R
3
. Dann heit der Wert
x, y z) Spatprodukt
21
oder Determinante
22
der Vektoren x, y, z. Eine andere Schreibweise ist det(x, y, z).
Der Namen ergibt sich daraus, da drei Vektoren im R
3
einen sogenannten Spat aufspannen; und das
Spatprodukt ist gerade das (orientierte) Volumen des Spats. Wenn die Vektoren x, y, z ein Rechtssystem
bilden, dann ist das Spatprodukt positiv, ansonsten negativ.
Seien nun x = (
1
,
2
,
3
)

, y = (
1
,
2
,
3
)

und z = (
1
,
2
,
3
)

. Dann erhalten wir nach Einsetzen und


Ausrechnen die Formel
det(x, y, z) =
1

3
+
1

3
+
1

3
,
die man sich wie folgt merken kann: Man schreibt die Vektoren x, y und z spaltenweise nebeneinander, und
anschlieend die Vektoren x und y noch einmal rechts daneben:

1

1

1

1

1

2

2

2

2

2

3

3

3

3

3
Anschlieend bildet man drei diagonale Produkte von links oben nach rechts unten; diese Produkte werden
positiv gezahlt. Und entsprechend bildet man drei diagonale Produkte von rechts oben nach links unten,
die negativ gezahlt werden.
Satz 1.53. Das Spatprodukt hat die folgenden Eigenschaften:
Es ist linear in jedem der drei Argumente (trilinear), das heit zum Beispiel fur das erste Argument
det(x +y, z, w) = det(x, z, w) + det(y, z, w), det(x, y, z) = det(x, y, z).
Wenn zwei der Vektoren x, y, z gleich sind, dann verschwindet das Spatprodukt: det(x, x, z) = 0 usw.
Fur die kanonischen Basisvektoren gilt det(e
1
, e
2
, e
3
) = 1.
21
parallelepipedial product, triple product
22
determinant
38 KAPITEL 1. GRUNDLAGEN
Beweis. Wir wissen von fr uher, da sowohl das Skalarprodukt als auch das Vektorprodukt bilinear sind.
Daraus ergibt sich sofort, da das Spatprodukt linear in jedem seiner Faktoren ist (Distributivgesetze).
Die zweite Aussage folgt daraus, da einerseits das Vektorprodukt senkrecht steht auf jedem seiner beiden
Faktoren, andererseits das Vektorprodukt zweier gleicher Vektoren gleich dem Nullvektor ist.
Und die dritte Aussage ergibt sich aus elementarem Rechnen.
Satz 1.54. Fur das Spatprodukt gelten die folgenden Rechenregeln:
Wenn man ein Vielfaches eines Vektors zu einem anderen Vektor addiert, bleibt das Spatprodukt
gleich: det(x +y, y, z) = det(x, y, z).
Wenn man zwei Vektoren im Spatprodukt tauscht, andert sich das Vorzeichen: det(y, x, z) =
det(x, y, z).
Die drei Vektoren im Spatprodukt konnen zyklisch getauscht werden: det(x, y, z) = det(y, z, x) =
det(z, x, y).
Beweis. Mit den Eigenschaften des vorigen Satzes haben wir
det(x +y, y, z) = det(x, y, z) + det(y, y, z) = det(x, y, z) +det(y, y, z) = det(x, y, z) + 0,
womit wir die zweite Aussage beweisen konnen:
det(y, x, z) = det(y, x +y, z) = det(y (x +y), x +y, z)
= det(x, x +y, z) = det(x, y, z) = det(x, y, z).
Und wenn wir dies zweimal anwenden, erhalten wir den dritten Teil:
det(x, y, z) = det(x, z, y) = +det(y, z, x).
Denition 1.55. Seien x
1
, x
2
, . . . , x
n
R
3
beliebige Vektoren.
Wenn es reelle Zahlen
1
, . . . ,
n
gibt, von denen wenigstens eine nicht 0 ist, soda
1
x
1
+ +
n
x
n
=

0
ist, dann heien die Vektoren x
1
, . . . , x
n
linear abhangig
23
.
Ansonsten (wenn es also nur eine einzige Moglichkeit gibt, den Nullvektor mit den Vektoren x
j
darzustellen:
namlich alle
j
gleich 0 zu wahlen) heien die Vektoren x
1
, . . . , x
n
linear unabhangig
24
.
Anders formuliert: Seien die Vektoren x
1
, . . . , x
n
linear unabhangig. Wenn dann eine Gleichung der Form

1
x
1
+ +
n
x
n
=

0 wahr ist, dann mussen samtliche


j
= 0 sein.
Wenn die Vektoren x
1
, . . . , x
n
hingegen linear abhangig sind, dann kann man reelle Zahlen
1
, . . . ,
n
nden mit
1
x
1
+ +
n
x
n
=

0, soda wenigstens ein
j
,= 0 ist. Zum Beispiel sei
1
,= 0. Dann d urfen
wir durch
1
dividieren, und bekommen
x
1
=
_

1
x
2
+ +

n

1
x
n
_
=
2
x
2
+ +
n
x
n
,
j
=

1
.
Wir konnen also (weil
1
,= 0 ist) x
1
als Linearkombination der anderen Vektoren schreiben. (Aber es kann
sein, da wir z.B. x
2
nicht mittels x
1
, x
3
, x
4
, . . . , x
n
darstellen konnen.)
Wenn eine Familie
25
von Vektoren linear abhangig ist, dann gibt es einen Vektor aus dieser Familie, den
man als Linearkombination der anderen ausdrucken kann.
Sobald eine Familie von Vektoren den Nullvektor enthalt, ist sie linear abhangig.
Satz 1.56. Seien x, y, z R
3
beliebige Vektoren.
23
linearly dependent
24
linearly independent
25
Wir reden von einer Familie von Vektoren, weil in einer Familie ein Vektor auch mehrfach vorkommen darf. Im Gegensatz
dazu darf eine Menge kein Element doppelt enthalten.
1.5. DER RAUM UND DER R
3
39
Folgende Aussagen sind aquivalent:
1. x y = 0,
2. x und y sind linear abhangig,
3. x und y sind parallel (oder antiparallel).
Folgende Aussagen sind aquivalent:
1. det(x, y, z) ,= 0,
2. x, y und z sind linear unabhangig,
3. jedes w R
3
kann auf eindeutige Weise geschrieben werden als w = x +y +z.
Je vier Vektoren im R
3
sind linear abhangig.
Beweisskizze. Der erste Teil wurde in Satz 1.49 bewiesen.
F ur den zweiten Teil beschranken wir uns auf einige anschauliche geometrische

Uberlegungen: Wenn die
Vektoren x, y, z linear unabhangig sind, dann liegen sie nicht in einer gemeinsamen Ebene. Also spannen
sie einen Spat auf, der ein Volumen hat, das nicht gleich 0 ist. Und umgekehrt, was die

Aquivalenz 1 2
zeigt. Wenn die Vektoren x, y, z linear unabhangig sind und w ein beliebiger Vektor, dann existiert genau ein
Spat, der die Strecke zwischen dem Ursprung 0 und w als Raumdiagonale hat und dessen Kanten parallel
zu den Vektoren x, y und z sind. Die Koordinaten , und kann man dann von den Kantenlangen
ablesen.
F ur den Beweis des dritten Teils fehlen uns im Moment die Mittel, soda wir ihn auf spater verschieben.
Denition 1.57. Wenn die Vektoren x
1
, x
2
, . . . , x
n
R
3
paarweise orthogonal aufeinander stehen,
x
i
, x
j
) = 0, i ,= j,
dann bilden diese Vektoren ein Orthogonalsystem
26
.
Wenn diese Vektoren auerdem noch jeweils die Lange 1 haben, also
x
i
, x
j
) =
ij
=
_
0 : i ,= j,
1 : i = j,
dann reden wir von einem Orthonormalsystem
27
. Der Ausdruck
ij
heit Kroneckersymbol (Leopold
Kronecker, 18231891).
Satz 1.58. Wenn die Vektoren x
1
, . . . , x
n
R
3
ein OGS bilden und jeweils nicht

0 sind, dann sind
sie linear unabhangig.
Wenn die Vektoren x
1
, x
2
, x
3
R
3
ein ONS bilden, dann ist ihre Determinante det(x
1
, x
2
, x
3
)
entweder +1 oder 1.
Beweis. Im Beweis des ersten Teils gehen wir indirekt vor: wir setzen voraus, da die Vektoren x
1
, . . . ,
x
n
jeweils nicht

0 sind, ein Orthogonalsystem bilden, aber linear abhangig sind. Dann konnen wir zumin-
dest einen Vektor als Linearkombination der anderen darstellen. Ohne Beschrankung der Allgemeinheit
(o.B.d.A.) sei dieser Vektor x
1
(ansonsten numerieren wir die Vektoren um). Dann ist also
x
1
=
2
x
2
+ +
n
x
n
.
Wir bilden das Skalarprodukt mit x
1
:
x
1
, x
1
) =
2
x
2
, x
1
) + +
n
x
n
, x
1
) .
Die linke Seite ist ungleich 0, denn x
1
,=

0. Aber die rechte Seite verschwindet, denn es ist x


j
, x
1
) = 0 f ur
j 2. Das ist ein Widerspruch. Also m ussen die Vektoren linear unabhangig sein.
Zum zweiten Teil: da jeder der drei Vektoren die Lange 1 hat, ist keiner gleich dem Nullvektor. Also konnen
wir das Ergebnis des ersten Teils anwenden und erhalten die lineare Unabhangigkeit von x
1
, x
2
, x
3
. Nach
26
orthogonal system
27
orthonormal system
40 KAPITEL 1. GRUNDLAGEN
Satz 1.56 spannen diese drei Vektoren also den gesamten R
3
auf, weshalb wir x
2
x
3
als Linearkombination
von x
1
, x
2
, x
3
schreiben konnen:
x
2
x
3
=
1
x
1
+
2
x
2
+
3
x
3
.
Wenn wir das Skalarprodukt mit x
2
oder x
3
bilden, verschwindet die linke Seite, und auf der rechten Seite
entsteht
2
oder
3
. Diese beiden Koezienten sind also 0. Dann haben wir
x
2
x
3
=
1
x
1
.
Die Lange [x
2
x
3
[ ist gleich dem Produkt aus [x
2
[, [x
3
[ und dem Sinus des eingeschlossenen Winkels, also
ist [x
2
x
3
[ = 1. Wegen [x
1
[ = 1 ist also auch [
1
[ = 1, also
1
= 1. Nun ist
det(x
1
, x
2
, x
3
) = x
1
, x
2
x
3
) = x
1
,
1
x
1
) =
1
[x
1
[
2
=
1
= 1,
was den Beweis komplettiert.
Denition 1.59. Ein Orthonormalsystem mit Determinante +1 bzw. 1 heit positiv orientiert
28
bzw.
negativ orientiert
29
.
Ein geordnetes Tripel (x
1
, x
2
, x
3
) von Vektoren heit Rechtssystem bzw. Linkssystem, wenn seine Deter-
minante det(x
1
, x
2
, x
3
) positiv bzw. negativ ist.
Satz 1.60. Die Tripel (e
1
, e
2
, e
3
) und (x, y, x y) sind Rechtssysteme (wenn x y ,=

0).
Beweis. Man rechnet schnell nach, da det(e
1
, e
2
, e
3
) = 1 ist. Weiterhin ist
det(x, y, x y) = det(y, x y, x) = det(x y, x, y) = x y, x y) = [x y[
2
> 0.
Damit ist der Beweis von Satz 1.50 vervollstandigt.
Bemerkung 1.61. Ein anderer Zugang zum Kreuzprodukt fuhrt uber den LeviCivita
30
Tensor .
Dieser ist ein Tensor dritter Stufe (also ein wurfelformiges Zahlenschema, analog zu einer Matrix als
einem quadratischen Zahlenschema und einem Vektor als einem eindimensionalen Zahlenschema). Er ist
deniert als

jkl
=
_

_
1 : wenn (j, k, l) eine gerade Permutation von (1, 2, 3) ist,
1 : wenn (j, k, l) eine ungerade Permutation von (1, 2, 3) ist,
0 : sonst.
Dann ist a

b = ( a)

b. Hierbei ist das Produkt a (ergibt eine Matrix) deniert analog zum Produkt
von Matrix mal Vektor uber das Summieren benachbarter identischer Indizes:
( a)
jk
:=
3

l=1

jkl
a
l
.
1.5.3 Drehungen im R
3
Genauso wie im Falle des R
2
stellen wir uns folgende Frage:
Gegeben ist ein Vektor x R
3
und eine Drehachse durch den Ursprung. Wir wollen den Vektor x um diese
Achse drehen mit einem Drehwinkel . Wie konnen wir den Bildvektor x

bestimmen ?
Wir gehen in zwei Schritten vor: zuerst nehmen wir an, da die Drehachse mit derjenigen Koordinatenachse
ubereinstimmt, die durch den Basisvektor e
1
angegeben wird. In einem zweiten Schritt betrachten wir dann
den Fall einer allgemeinen Drehachse durch den Ursprung.
28
positively oriented
29
negatively oriented
30
Tullio LeviCivita (18731941)
1.5. DER RAUM UND DER R
3
41
Wir drehen also zunachst um die Achse entlang des Vektors e
1
mit dem Winkel . Es bietet sich an, den
Originalvektor x in zwei Teile zu zerlegen:
x =
1
e
1
+
2
e
2
+
3
e
3
= x

+x

,
wobei x

=
1
e
1
parallel zur Drehachse ist, und x

=
2
e
2
+
3
e
3
in einer Ebene lebt, die senkrecht auf der
Drehachse steht.
Nun uberlegt man sich leicht, da die Drehung eine lineare Abbildung beschreibt. Das heit: es ist egal,
ob man erst die beiden Teilvektoren x

und x

zu dem Gesamtvektor x addiert und diesen anschlieend


dreht; oder ob man zuerst die Teilvektoren x

und x

dreht und anschlieend die Bildvektoren x

und x

addiert: auf beiden Wegen kommt man zum Bildvektor x

,
x

= x

+x

.
Nun konnen wir die Teilbildvektoren leicht berechnen: Es ist x

= x

, denn dieser Vektor liegt genau auf


der Drehachse, und der Vektor x

ergibt sich durch eine Drehung in der Ebene:


_

3
_
=
_
cos sin
sin cos
__

3
_
.
Um die beiden Teilvektoren x

und x

einheitlich zu behandeln, f uhren wir 3 3Matrizen ein:


A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
, a
ij
R.
Auerdem denieren wir eine Operation
Matrix mal Spaltenvektor ergibt Spaltenvektor
gema
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
_
_

3
_
_
=
_
_
a
11

1
+a
12

2
+a
13

3
a
21

1
+a
22

2
+a
23

3
a
31

1
+a
32

2
+a
33

3
_
_
=
1
_
_
a
11
a
21
a
31
_
_
+
2
_
_
a
12
a
22
a
32
_
_
+
3
_
_
a
13
a
23
a
33
_
_
,
mit der wir die Abbildungsgleichung schreiben konnen als
_
_

3
_
_
=
_
_
1 0 0
0 cos sin
0 sin cos
_
_
_
_

3
_
_
.
Damit wissen wir jetzt, wie wir einen Vektor um die erste Koordinatenachse drehen konnen.
Nun gehen wir uber zum zweiten Fall: die Drehachse r ist eine beliebige Gerade durch den Ursprung.
Wir brauchen daf ur ein neues Produkt, namlich
Matrix mal Matrix ergibt Matrix.
Wir uberlegen uns dazu, da man sich eine Matrix durch Nebeneinanderstellen von Spaltenvektoren vor-
stellen kann:
A =
_
_
a
1
a
2
a
3
_
_
, a
j
=
_
_
a
1j
a
2j
a
3j
_
_
, j = 1, 2, 3.
Wenn nun eine 3 3Matrix B entsteht aus 3 Spaltenvektoren b
1
, b
2
und b
3
, dann denieren wir
AB = A
_
_
b
1
b
2
b
3
_
_
=
_
_
Ab
1
Ab
2
Ab
3
_
_
.
Oder anders formuliert: Man nimmt eine Zeile von A und eine Spalte von B, bildet das Skalarprodukt
dieser beiden Vektoren, und das Ergebnis schreibt man dorthin, wo diese Zeile/Spalte sich kreuzen.
Auerdem benotigen wir noch den Begri der transponierten Matrix:
42 KAPITEL 1. GRUNDLAGEN
Denition 1.62. Sei A eine 3 3Matrix, und A

diejenige Matrix, die durch Spiegelung der Matrixein-


trage an der Hauptdiagonalen entsteht. Dann heit A

transponierte Matrix
31
zu A. Also:
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
, A

=
_
_
a
11
a
21
a
31
a
12
a
22
a
32
a
13
a
23
a
33
_
_
.
Satz 1.63. Seien A und B 3 3Matrizen. Dann ist
(AB)

= B

.
Beweis.

Ubungsaufgabe.
Man beachte die geanderte Reihenfolge der Faktoren !
Wenn die Spalten a
1
, a
2
, a
3
der Matrix A ein Orthonormalsystem bilden, dann ist A

A = I. Das bedeutet
zweierlei:
Die Matrix A ist invertierbar.
Die Inverse zu A ist in diesem Falle gleich A

.
Wie wir im Abschnitt uber Gruppentheorie gesehen haben, ist nicht blo A

A = I, sondern auch AA

= I.
Mit anderen Worten:
Wenn die Spalten von A ein Orthonormalsystem bilden, dann bilden die Zeilen von A ebenfalls ein Ortho-
normalsystem !
32
Nun sei ein Vektor x gegeben und eine Drehachse, die durch einen Vektor r
1
R
3
beschrieben wird. Wir
wollen x um die Achse durch r
1
mit einem Winkel drehen.
Wir konnen annehmen, da der Vektor r
1
die Lange 1 hat. Wir suchen uns zwei weitere Vektoren r
2
und r
3
,
die in der zu r
1
senkrechten Ebene liegen und gemeinsam mit r
1
ein ONS bilden (spater werden wir ein Ver-
fahren angeben, solche Vektoren r
2
, r
3
zu bestimmen (Orthogonalisierungsverfahren von GramSchmidt)).
Dabei ist zu beachten, da r
1
, r
2
und r
3
in dieser Reihenfolge ein Rechts-System bilden; anderenfalls mu
das Vorzeichen des Drehwinkels geandert werden. Diese 3 Spaltenvektoren stellen wir nebeneinander und
bekommen eine Matrix A:
A =
_
_
r
1
r
2
r
3
_
_
.
Wir konnen diese 3 Vektoren als Basis des R
3
ansehen und haben dann
x =
1
r
1
+
2
r
2
+
3
r
3
,
wobei die
j
zunachst unbekannt sind. Auerdem verf ugen wir uber die Darstellung
x =
1
e
1
+
2
e
2
+
3
e
3
,
wobei die Zahlen
j
gegeben sind, und die e
j
sind die kanonischen Basisvektoren: e
1
= (1, 0, 0)

usw.
Die Zahlen
j
konnen wir folgendermaen berechnen:
x, r
j
) =
1
r
1
+
2
r
2
+
3
r
3
, r
j
) =
j
r
j
, r
j
) =
j
[r
j
[
2
=
j
, j = 1, 2, 3,
denn die Vektoren r
1
, r
2
und r
3
bilden ein ONS. Etwas geschickter hingeschrieben, lauten diese Gleichungen:
_
_

3
_
_
=
_
_
r

1

r

2

r

3

_
_
_
_
x
_
_
,
31
transposed matrix
32
Wer nicht an die Kraft der Gruppentheorie (insbesondere Satz 1.43) glauben will, moge versuchen, dieses Ergebnis zu
Fu zu beweisen, d.h. zum Beispiel mit den Methoden der Vektorrechnung . . .
1.5. DER RAUM UND DER R
3
43
also
_
_

3
_
_
= A

x. (1.4)
Und im Koordinatensystem der Vektoren (r
1
, r
2
, r
3
) lat sich die Drehung einfach durchf uhren:
x

1
r
1
+

2
r
2
+

3
r
3
mit unbekannten Koordinaten

j
, die sich bestimmen gema
_
_

3
_
_
=
_
_
1 0 0
0 cos sin
0 sin cos
_
_
_
_

3
_
_
. (1.5)
Analog wie oben bekommen wir f ur die Koordinaten des Bildvektors
_
_

3
_
_
= A

. (1.6)
Jetzt setzen wir die Gleichungen (1.4), (1.5), (1.6) ineinander ein und benutzen dabei AA

= I:
x

= AA

= A
_
_

3
_
_
= A
_
_
1 0 0
0 cos sin
0 sin cos
_
_
_
_

3
_
_
= A
_
_
1 0 0
0 cos sin
0 sin cos
_
_
A

x.
Damit haben wir die Drehmatrix bestimmt:
Satz 1.64. Die Drehung um eine Drehachse durch den Vektor r
1
mit dem Winkel wird beschrieben durch
eine Drehmatrix R(r
1
, ), die gegeben wird durch das Produkt
R(r
1
, ) = A
_
_
1 0 0
0 cos sin
0 sin cos
_
_
A

.
Hierbei ist A eine 33Matrix, deren Spalten ein ONS bilden, und die erste Spalte ist gleich dem Vektor r
1
(ggf. normiert auf Lange 1). Die beiden weiteren Spalten r
2
und r
3
von A sind beliebig wahlbar, solange sie
gemeinsam mit der ersten Spalte ein ONS bilden. Es ergibt sich bei anderer Wahl dieser Spalten jedesmal
dieselbe Matrix R(r
1
, ).
Es ist am besten, dieses Dreierprodukt von Matrizen stehenzulassen und nicht auszumultiplizieren.
Satz 1.65. Die Spalten von R bilden ein Orthonormalsystem.
Beweis. Wir m ussen nur nachpr ufen, da R

R = I gilt. Zur Abk urzung sei die mittlere Matrix R


0
getauft,
also R = AR
0
A

. Dann haben wir wegen Satz 1.63


R

R = (AR
0
A

(AR
0
A

) = ((A

0
A

)(AR
0
A

)
= AR

0
(A

A)R
0
A

= AR

0
R
0
A

= A(R

0
R
0
)A

= AA

= I.
44 KAPITEL 1. GRUNDLAGEN
Solche Matrizen tauchen in der Mathematik und Physik so haug auf, da sie eines eigenen Namens w urdig
sind:
Denition 1.66. Eine Matrix A mit A

A = I heit orthogonale Matrix


33
.
Die Bedeutung der orthogonalen Matrizen liegt darin, da sie die Langen von Vektoren nicht andern: wenn
x ein beliebiger Vektor ist und A eine orthogonale Matrix, dann haben x und Ax dieselbe Lange. Die
Umkehrung gilt auch: wenn eine Matrix die Lange von Vektoren nicht andert, dann ist sie eine orthogonale
Matrix.
Jede Bewegung des Raumes, die den Ursprung festhalt (also Drehungen, Spiegelungen und jede Nach-
einanderausf uhrung davon, aber keine Verschiebung) kann durch eine orthogonale Matrix beschrieben
werden.
1.5.4 Der ane Raum
Wir sollten unbedingt zwei Typen von Vektoren unterscheiden:
Ortsvektoren,
Vektoren im engeren Sinne.
Ortsvektoren bezeichnen einen Ort, also einen Punkt im Raum. Ein Ortsvektor startet stets im Ursprung.
Ein Beispiel ware ein Vektor, der zum aktuellen Aufenthaltsort eines Teilchens zeigt.
Die Vektoren im engeren Sinne beschreiben alles weitere: Geschwindigkeiten, Beschleunigungen, Krafte,
Stromungen, elektrische Felder, magnetische Felder usw.
Wenn Ortsvektoren benutzt werden, um einen

geographischen Ort anzuzeigen, dann kann man sie nicht


addieren: die

Summe zweier Punkte ist in einer solchen Situation sinnlos.


Aber man kann einen Vektor (i.e.S.) an einen Ortsvektor anhangen, um zum Beispiel auszudr ucken, wo
das Teilchen nach dem Verstreichen eines Zeitintervalles t ware, wenn es seine jetzige Geschwindigkeit
beibehielte. In diesem Sinne hatte man einen Ortsvektor und einen Vektor i.e.S. addiert.
Mathematisch dr uckt man dies durch den Begri des anen Raums aus. Grob gesprochen besteht der
ane Raum aus zwei Dingen:
einer Menge von Punkten,
und einer Menge von Vektoren.
Die Vektoren bilden einen Vektorraum wie schon fr uher deniert.
Zwischen beiden Mengen gelten dabei die folgenden Regeln:
wenn man an einen Punkt einen Vektor anhangt, landet man wieder bei einem Punkt,
die gerichtete Verbindungsstrecke zwischen zwei Punkten ergibt einen Vektor.
1.6 Schl usselbegrie
algebraische Grundkonzepte: Gruppe, Korper, Vektorraum,
R und C als Korper, Denition von C, geometrische Interpretation der Rechenoperationen in C,
zwei Sichtweisen auf den Raum der Ortsvektoren in der Ebene: geometrisch und analytisch,
Produkte Matrix Vektor und Matrix Matrix,
Drehungen im R
2
und R
3
,
Vektorprodukt, Spatprodukt, Determinante,
aner Raum im Gegensatz zum Vektorraum.
33
orthogonal matrix
Kapitel 2
Vektorr

aume
2.1 Allgemeine Eigenschaften
Wir haben bisher 4 Vektorraume naher untersucht: den geometrisch denierten Raum der Ortsvektoren
in der Ebene, den R
2
, den dreidimensionalen Raum der Ortsvektoren und den R
3
. Diese Raume waren
geometrisch bzw. analytisch deniert. Es gibt noch viele andere wichtige Vektorraume. Da wir aber nicht
jeden einzeln behandeln konnen, untersuchen wir in diesem Kapitel Eigenschaften, die jeder Vektorraum
besitzt.
Sei K ab jetzt ein Korper. In praktisch samtlichen Fallen ist K = R oder K = C.
Denition 2.1. Wir sagen, da V einen Vektorraum uber K bildet, wenn zwei Operationen
+ : V V V,
: K V V
gegeben sind mit folgenden Eigenschaften:
(V, +) ist eine abelsche Gruppe mit neutralem Element 0 =

0 V,
Wir haben die beiden Distributivgesetze ( + ) u = u + u und (u + v) = u + v, fur
, K und u, v V,
Es gilt das

Assoziativgesetz ( ) u = ( u) fur , K und u V,


Die Zahl 1 ist auch neutrales Element fur die zweite Multiplikation: 1 u = u fur u V.
Ab jetzt werden wir mit 0 sowohl die reelle/komplexe Zahl 0 bezeichnen als auch den Nullvektor in V . Die
Schreibweise

0 werden wir nur noch in Notfallen anwenden, wenn Miverstandnisse drohen.
Die Multiplikationspunkte (auf die wir im Folgenden auch verzichten wollen) im

Assoziativgesetz be-
zeichnen zwei verschiedene Multiplikationen: einerseits die Multiplikation zweier Zahlen (Korperelemente),
andererseits die Multiplikation einer Zahl mit einem Vektor (und das spater betrachtete Skalarprodukt
zweier Vektoren wird ein dritter Typ von Multiplikation sein). Deshalb die

.
Entsprechend bezeichnet auch das Pluszeichen zwei verschiedene Additionen: von Korperelementen (also
Zahlen) bzw. Vektoren.
Auerdem sei darauf hingewiesen, da auch das Wort

Vektor mindestens zwei verschiedene Bedeutungen


besitzt: einerseits ein konkretes geometrisches Objekt, welches man sich ublicherweise als Pfeil in der Ebene
oder im 3D vorstellt; andererseits ein abstraktes mathematisches Objekt, uber dessen Beschaenheit nichts
gesagt wird (solange die Menge der Vektoren nur die Bedingungen aus Denition 2.1 erf ullt).
Zur Notation: Ab jetzt bezeichnen lateinische Grobuchstaben (meistens) Vektorraume, lateinische Klein-
buchstaben e, f, g, h, u, v, w, . . . Vektoren, und griechische Buchstaben Elemente des Korpers K.
Beispiel 2.2.
R
n
als Vektorraum uber dem Korper R,
45
46 KAPITEL 2. VEKTORR

AUME
C
n
als Vektorraum uber C,
C
n
als Vektorraum uber R,
M
nm
(R) der Vektorraum der Matrizen des Formats n m mit reellen Eintragen (uber dem
Korper R),
R[X] der Raum der Polynome in der Variablen X mit Koezienten aus R,
C([a, b] R) der Raum der auf dem Intervall [a, b] stetigen und reellwertigen Funktionen,
C
k
([a, b] R) der Raum der auf dem Intervall [a, b] kmal stetig dierenzierbaren reellwertigen
Funktionen.
Hierbei denieren wir die Addition zweier Funktionen auf naheliegende Weise: seien f und g zwei Funk-
tionen, dann wird die Summe (f + g) = (f + g)(x) deniert als f(x) + g(x). Analog deniert man die
Vervielfachung einer Funktion gema (f) = (f)(x) = (f(x)). Der

Nullvektor 0 V ist diejenige


Funktion, die auf dem gesamten Intervall uberall den Wert 0 R hat.
Frage: Warum kann man nicht R
n
als Vektorraum uber dem Korper C betrachten ?
Wie man sieht, kann alles mogliche einen Vektor darstellen. Deshalb ist es gar nicht so selbstverstandlich,
da die Aussagen des nachsten Satzes stimmen, auch wenn sie oensichtlich erscheinen:
Satz 2.3. Fur beliebige Vektoren u, v V und eine beliebige Zahl K gelten die Regeln
1. 0 u =

0,
2.

0 =

0,
3. (1) u = u.
Hierbei bezeichnet (u) denjenigen Vektor aus V , der zu u addiert den Nullvektor ergibt: (u) +u =

0.
Beweis. Wie benutzen nichts weiter als die Eigenschaften aus Denition 2.1:
1. Es ist u = 1 u = (1 + 0) u = 1 u + 0 u = u + 0 u. Weil (V, +) eine additive Gruppe ist und
in additiven Gruppen subtrahiert werden darf, mu 0 u gleich dem neutralen Element der Addition
sein, also gleich dem Nullvektor.
2. Nach demselben Muster wie eben ist u = (u +

0) = u +

0, und

0 mu gleich dem
Nullvektor sein.
3. Wir benutzen das erste Ergebnis:

0 = 0 u = (1+(1)) u = 1 u+(1) u = u+(1) u. Andererseits


ist

0 = u + (u), und es mu also (1) u = u sein.
2.2 Linearkombinationen, Erzeugendensysteme,
Lineare Unabhangigkeit, Basen und Dimensionen
2.2.1 Linearkombinationen und Unterraume
Denition 2.4 (Linearkombination, Span, endlich erzeugt). Seien u
1
, . . . , u
n
V Vektoren und

1
, . . . ,
n
K Zahlen. Dann heit der Vektor

1
u
1
+ +
n
u
n
V
Linearkombination
1
der Vektoren u
1
,. . . ,u
n
. Wenn wir die u
j
festhalten und die
j
durch ganz K laufen
lassen, erhalten wir den Span der Vektoren u
1
, . . . , u
n
:
span(u
1
, . . . , u
n
) :=
_
_
_
n

j=1

j
u
j
:
1
, . . . ,
n
K
_
_
_
.
1
linear combination
2.2. LINEARKOMBINATIONEN, ERZEUGENDENSYSTEME USW. 47
Diese Menge wird auch der von den u
j
aufgespannte Unterraum oder lineare H ulle
2
der u
j
genannt. Wir
sagen auch, da die Vektoren u
1
, . . . , u
n
die Menge span(u
1
, . . . , u
n
) erzeugen. Diese Vektoren bilden ein
sogenanntes Erzeugendensystem.
Als Sonderfall legen wir fest, da die leere Menge denjenigen Raum aufspannt, der nur aus dem Nullvektor
besteht:
span() :=

0.
Sei U V eine Menge unendlich vieler Vektoren aus V . Dann denieren wir span(U) als
span(U) = alle Linearkombinationen aus endlich vielen Elementen aus U .
Man beachte, da U auch uberabzahlbar viele Elemente enthalten darf.
Sei V ein Vektorraum. Wenn es endlich viele Elemente u
1
, . . . , u
n
V gibt mit V = span(u
1
, . . . , u
n
),
dann heit V endlich erzeugt.
Denition 2.5 (Unterraum). Sei V ein Vektorraum uber dem Korper K, und sei U eine Teilmenge von
V . Wenn U den Nullvektor von V enthalt und wenn U gemeinsam mit den von V auf U eingeschrankten
3
Operationen

+ und

wieder einen Vektorraum uber dem Korper K bildet, dann heit U Untervektor-
raum von V
4
. Man sagt auch Unterraum.
Wenn jetzt eine solche Teilmenge U V gegeben ist und wir wissen wollen, ob ein Unterraum vorliegt,
dann sind samtliche Eigenschaften aus Denition 2.1 nachzupr ufen. Zum Gl uck lat sich diese Rechnerei
abk urzen, denn wir haben den folgenden Satz:
Satz 2.6 (Untervektorraumkriterium). Sei V ein Vektorraum uber dem Korper K und U V mit
folgenden Eigenschaften:
1. U enthalt wenigstens ein Element,
2. wenn u U und v U, dann ist auch u +v U,
3. wenn u U und K, dann ist auch u U.
Dann ist U ein Unterraum von V .
Wir sagen auch, da U abgeschlossen unter den Operationen + und ist.
Beweis. Zunachst ist zu pr ufen, ob f ur die Operationen + und die Denitionsbereiche und Wertebereiche
passen: weil V ein Vektorraum ist, haben wir + und als Abbildungen +: V V V und : KV V .
Wenn wir diese Operationen einschranken, bekommen wir +: U U V und : K U V . Die
Voraussetzungen 2. und 3. besagen gerade, da sogar +: U U U und : K U U gelten.
Die ublichen Gesetze (Kommutativitat, Assoziativitat und Distributivitat) vererben sich von V auf U. Es
gilt auch 1 u = u f ur jedes u U, weil diese Beziehung sogar f ur jedes u V gilt, und U V .
Wir m ussen jetzt blo noch zeigen, da wir auch in U ein neutrales Element zur Addition haben, und da
es in U zu jedem Element auch ein additiv inverses Element gibt. Nach Voraussetzung hat U wenigstens
ein Element, nennen wir es u

. Nach Voraussetzung 3. ist dann auch 0


K
u

U. Aber nach Satz 2.3 ist


0
K
u

= 0
V
, also ist 0
V
ein Element von U.
Sei nun u U gegeben und ein additiv inverses Element dazu in U gesucht. Dieses ist u V , aber nach
Satz 2.3 ist u = (1) u, was jedoch nach Voraussetzung 3. ein Element von U ist und nicht blo ein
Element von V .
Frage: Seien x
1
, x
2
R
3
beliebige Vektoren. Ist dann span(x
1
, x
2
) eine Ebene im R
3
durch den Ursprung ?
Satz 2.7. Sei V ein Vektorraum, u
1
, . . . , u
n
V , und sei U = span(u
1
, . . . , u
n
). Dann haben wir folgende
Regeln:
2
linear hull, span
3
im Sinne eines verkleinerten Denitionsbereiches
4
linear subspace of V
48 KAPITEL 2. VEKTORR

AUME
1. U ist ein Untervektorraum von V .
2. Wenn u V ein weiterer Vektor ist, dann ist U span(u
1
, . . . , u
n
, u).
3. Wenn u sogar in U liegt, dann ist U = span(u
1
, . . . , u
n
, u).
Beweis. 1. Man benutze das Untervektorraumkriterium.
2. Fast trivial: wenn man einen weiteren Vektor (namlich u) beim Bilden von Linearkombinationen
erlaubt, dann kann man mindestens die gleichen Vektoren erzeugen wie zuvor (indem man z.B. diesen
Vektor u mit dem Koezienten 0 K wichtet).
3. Wenn u span(u
1
, . . . , u
n
), dann haben wir Koezienten
j
K mit u =

n
j=1

j
u
j
. Dann konnen
wir jede Linearkombination von u
1
, . . . , u
n
, u als Linearkombination von u
1
, . . . , u
n
schreiben:

1
u
1
+ +
n
u
n
+u = (
1
+
1
)u
1
+ + (
n
+
n
)u
n
.
Das beweist span(u
1
, . . . , u
n
, u) span(u
1
, . . . , u
n
) = U. Andererseits haben wir aus 2., da
span(u
1
, . . . , u
n
, u) span(u
1
, . . . , u
n
) = U. Damit ist der Beweis beendet.
2.2.2 Lineare Unabhangigkeit und Basen
Denition 2.8 (Linear abhangig, linear unabhangig, frei, Basis). Sei V ein Vektorraum uber K,
und sei (u
1
, . . . , u
n
) eine Familie von Vektoren aus V .
1. Die Familie (u
1
, . . . , u
n
) heit linear abhangig
5
, wenn es Zahlen
1
, . . . ,
n
K gibt, von denen
wenigstens eine nicht 0 ist, mit

1
u
1
+ +
n
u
n
=

0.
2. Wenn die Familie (u
1
, . . . , u
n
) nicht linear abhangig ist, dann heit sie linear unabhangig
6
oder frei.
Das heit, die einzige Moglichkeit, Zahlen
1
, . . . ,
n
K zu wahlen, soda
1
u
1
+ +
n
u
n
=

0,
ist
1
= =
n
= 0.
3. Sei U eine Familie von unendlich vielen Vektoren aus V . Diese Familie heit linear unabhangig, wenn
jede endliche Teilmenge von U linear unabhangig ist. Wenn U nicht linear unabhangig ist, dann heit
U linear abhangig.
4. Sei U eine Familie von Vektoren aus V (endlich viele oder unendlich viele). Wenn U ein Erzeugen-
densystem von V ist und linear unabhangig ist, dann heit U Basis
7
von V .
Bemerkung 2.9. Wir vermerken zwei Spezialfalle:
Die Familie (

0), die nur den Nullvektor aus V enthalt, ist linear abhangig.
Die leere Familie, die nichts enthalt (nicht einmal den Nullvektor), ist linear unabhangig und spannt
den Nullvektorraum

0 auf. Die leere Familie ist Basis des Nullvektorraums.


Diese Sprechweisen werden uns spater erlauben, Aussagen einfacher zu formulieren.
Frage: Was bedeutet die lineare Unabhangigkeit in Funktionenraumen ?
Frage: Sei V = R[X] und U = 1, x, x
2
, x
3
, . . . . Ist diese Familie linear abhangig ?
Als schnell beweisbare Merkregeln haben wir dann:
Eine Familie U ist Erzeugendensystem eines Vektorraums V genau dann,
wenn jeder Vektor aus V darstellbar ist als Linearkombination von Elementen aus U.
Eine Familie U ist linear unabhangig in V genau dann,
wenn der Nullvektor 0
V
genau auf eine einzige Weise dargestellt werden kann
als Linearkombination von Elementen aus U.
5
linearly dependent
6
linearly independent
7
basis
2.2. LINEARKOMBINATIONEN, ERZEUGENDENSYSTEME USW. 49
Satz 2.10. Eine Familie (u
1
, . . . , u
n
) ist eine Basis von V genau dann, wenn jeder Vektor u V auf genau
eine Art und Weise als Linearkombination der u
1
, . . . , u
n
dargestellt werden kann.
Beweis. Wir haben zwei Richtungen zu beweisen.

=:
Sei (u
1
, . . . , u
n
) eine Basis, und sei u V ein beliebiger Vektor. Wegen der ersten Merkregel konnen wir
den Vektor u auf mindestens eine Weise als Linearkombination der u
j
darstellen:
u =
1
u
1
+ +
n
u
n
.
Wir m ussen noch zeigen, da dies die einzige Moglichkeit ist. Sei also auerdem noch u =
1
u
1
+ +
n
u
n
.
Wenn wir beide Darstellungen abziehen, bekommen wir

0 = (
1

1
)u
1
+ + (
n

n
)u
n
.
Weil nun allerdings die Vektoren u
1
, . . . , u
n
eine linear unabhangige Familie bilden, lat sich der Nullvektor
nur darstellen, wenn (
j

j
) = 0 ist f ur jedes j. Es ist also
j
=
j
.

=:
Wenn jeder Vektor genau eine Darstellung hat, dann hat er mindestens eine Darstellung. Wegen der ersten
Merkregel ist dann die Familie (u
1
, . . . , u
n
) also ein Erzeugendensystem. Und wegen der zweiten Merkregel
bilden die u
j
eine linear unabhangige Familie, und somit auch eine Basis.
Dieser Satz gilt auch dann, wenn diese Basis unendlich viele Elemente enthalten sollte; und auch der Beweis
ist im wesentlichen unverandert.
Lemma 2.11. Seien u
1
, . . . , u
n
V linear unabhangig, und sei v , span(u
1
, . . . , u
n
). Dann ist auch
(u
1
, . . . , u
n
, v) eine linear unabhangige Familie.
Frage: Was bedeutet dies geometrisch ?
Beweis. Um die lineare Unabhangigkeit zu zeigen, setzen wir

1
u
1
+ +
n
u
n
+v = 0
und m uten als nachstes zeigen, da
1
= =
n
= = 0 gilt.
Angenommen, ,= 0. Dann hatten wir
v =
_

_
u
1
+ +
_

_
u
n
,
also v span(u
1
, . . . , u
n
). Wir hatten aber gerade das Gegenteil vorausgesetzt. Also mu = 0 sein. Damit
bekommen wir
1
u
1
+ +
n
u
n
= 0. Weil die Vektoren u
j
aber eine linear unabhangige Familie bilden,
m ussen die
j
samtlich gleich Null sein.
Satz 2.12 (Basiserganzungssatz). Sei (v
1
, . . . , v
n
) ein Erzeugendensystem des Vektorraumes V , und sei
(u
1
, . . . , u
m
) eine linear unabhangige Familie in V .
Dann kann man die Familie (u
1
, . . . , u
m
) mit passend gewahlten Vektoren v
j
zu einer Basis von V
erganzen. Insbesondere existiert ein Index p N, soda (bei geschickter Numerierung der v
j
) die Familie
(u
1
, . . . , u
m
, v
p+1
, . . . , v
n
) eine Basis von V ist.
Beweis. Wenn die Familie (u
1
, . . . , u
m
) schon den Vektorraum V aufspannt, dann sind wir fertig. Wir
brauchen nichts erganzen und setzen p = n. Anderenfalls existiert ein Vektor v V , der nicht durch die
u
j
dargestellt werden kann. Dann mu ein v
k
aus dem Erzeugendensystem existieren, das nicht durch die
u
j
dargestellt werden kann (Begr undung bitte selbst nden). Mit diesem v
k
benutzen wir Lemma 2.11 und
erhalten eine linear unabhangige Familie (u
1
, . . . , u
m
, v
k
). Wir numerieren die v
j
so um, da v
k
jetzt v
n
heit. Mit dieser neuen Familie beginnen wir wieder von vorn. Nach n Schritten ist das Erzeugendensystem
(v
1
, . . . , v
n
) in die linear unabhangige Familie der u
j
eingef ugt worden, und der Beweis ist spatestens dann
fertig.
Eine Familie (u
1
) ist linear unabhangig, wenn u
1
,= 0. Auf diesem Wege erhalten wir:
50 KAPITEL 2. VEKTORR

AUME
Satz 2.13 (BasisSatz). Jeder endlich erzeugte Vektorraum besitzt eine Basis.
Die Voraussetzung

endlich erzeugt ist ubrigens nicht notig: Jeder Vektorraum hat eine Basis. Auf einen
Beweis m ussen wir verzichten, da die erforderlichen Hilfsmittel aus der Mengenlehre hier nicht bereitgestellt
werden konnen.
Weiterhin gilt:
Satz 2.14. Jedes Erzeugendensystem enthalt eine Basis.
Beweis. Man wende den Basiserganzungssatz geschickt an.
Frage: Im R
1077
seien drei linear unabhangige Vektoren gegeben. Man entscheide, ob diese drei Vektoren
den R
3
aufspannen.
2.2.3 Dimension eines Vektorraumes
Frage: Man gebe jeweils mehrere Basen an f ur
R
3
,
C
3
als Vektorraum uber C,
C
3
als Vektorraum uber R,
R[X].
Wir haben also f ur einen Vektorraum verschiedene Basen gefunden, die gleichviel Vektoren enthalten. Es
stellt sich die Frage, ob dies immer so ist. Denn nur wenn jede Basis eines Vektorraums gleichviel Elemente
enthalt, hat es uberhaupt Sinn, von einer Dimension (als Anzahl der Basisvektoren) zu reden.
Der Beweis dieser Aussage verteilt sich uber mehrere Satze und Lemmata. Wir beginnen:
Lemma 2.15 (Austauschlemma). Sei (v
1
, . . . , v
n
) eine Basis fur V , und sei u ein Vektor mit der
Darstellung u =
1
v
1
+ +
n
v
n
. Wenn fur ein k der Koezient
k
,= 0 ist, dann konnen wir den
Basisvektor v
k
gegen u austauschen und erhalten wieder eine Basis (v
1
, . . . , v
k1
, u, v
k+1
, . . . , v
n
).
Es gibt immer ein solches k, 1 k n, mit
k
,= 0; es sei denn u ist der Nullvektor.
Beweis. Wir konnen annehmen, da die Basisvektoren so numeriert sind, da k = 1. Zu zeigen sind zwei
Dinge:
(u, v
2
, . . . , v
n
) erzeugt V : Wir haben u =
1
v
1
+ +
n
v
n
mit
1
,= 0, also
v
1
=
1

1
u +
_

1
_
v
2
+ +
_

1
_
v
n
span(u, v
2
, . . . , v
n
).
Nun benutzen wir Satz 2.7 mehrfach:
V span(u, v
2
, . . . , v
n
) = span(u, v
1
, v
2
, . . . , v
n
) span(v
1
, v
2
, . . . , v
n
) = V.
Nach dem Sandwichprinzip ist dann V = span(u, v
2
, . . . , v
n
).
(u, v
2
, . . . , v
n
) ist linear unabhangig: Wegen
1
,= 0 ist u , span(v
2
, . . . , v
n
) (Begr undung bitte selbst
suchen !). Nun brauchen wir blo Lemma 2.11 anwenden, und der Beweis ist komplett.
Als nachsten Schritt auf dem Weg zur Denition der Dimension wollen wir nicht nur einen Vektor austau-
schen, sondern mehrere:
Satz 2.16 (Austauschsatz von Steinitz (Ernst Steinitz, 18711928)). Sei (v
1
, . . . , v
n
) eine Basis,
und sei (u
1
, . . . , u
k
) eine linear unabhangige Familie von V . Dann gilt:
2.2. LINEARKOMBINATIONEN, ERZEUGENDENSYSTEME USW. 51
k n,
bei geeigneter Numerierung der v
j
ist (u
1
, . . . , u
k
, v
k+1
, . . . , v
n
) eine Basis von V .
Wir entfernen also aus der Familie der v
j
k Elemente und f ugen stattdessen die u
j
ein. F ur k = 1 erhalten
wir gerade das Austauschlemma.
Beweis. Wir f uhren den Beweis mittels vollstandiger Induktion
8
uber k.
F ur den Induktionsanfang sei k = 0. Dann gibt es die Familie der u
j
gar nicht, und es ist auch nichts
auszutauschen.
Sei nun k > 0. Wir setzen voraus, da der Austauschsatz von Steinitz f ur k 1 schon bewiesen ist, und
jetzt wollen wir ihn f ur k zeigen. Wir wissen damit, da
k 1 n,
und da bei geeigneter Numerierung der v
j
die Familie (u
1
, . . . , u
k1
, v
k
, . . . , v
n
) eine Basis von V ist.
Wir zeigen als erstes, da k 1 = n nicht sein kann. Denn dann gabe es in der Familie
(u
1
, . . . , u
k1
, v
k
, . . . , v
n
) die vVektoren gar nicht, und die Vektoren (u
1
, . . . , u
k1
) w urden eine Basis
von V bilden. Dann konnte man u
k
als Linearkombination der Vektoren u
1
, . . . , u
k1
schreiben. Wir hatten
aber vorausgesetzt, da die Familie (u
1
, . . . , u
k
) linear unabhangig ist. Das ist ein Widerspruch, also ist
k 1 ,= n. Zusammen mit k 1 n ergibt das k n.
Um den zweiten zu beweisen, stellen wir u
k
in der neuen Basis dar:
u
k
=
1
u
1
+ +
k1
u
k1
+
k
v
k
+ +
n
v
n
.
Wenn jedes
j
= 0 ware, dann hatten wir u
k
als Linearkombination von u
1
, . . . , u
k1
dargestellt, was
nicht moglich ist, wie wir eben sahen. Also mu mindestens ein
j
,= 0 sein. Wir numerieren die v
i
so um, da
k
,= 0 ist (wir tauschen also j und k). Dann gibt uns das Austauschlemma die Moglich-
keit, in der Basis (u
1
, . . . , u
k1
, v
k
, . . . , v
n
) den Vektor v
k
gegen u
k
auszutauschen, was beweist, da
(u
1
, . . . , u
k1
, u
k
, v
k+1
, . . . , v
n
) eine Basis ist.
Nach dem Prinzip der vollstandigen Induktion ist somit der Beweis vollendet.
Daraus folgt fast sofort, da die Basen eines Vektorraumes gleichlang sind:
Satz 2.17. 1. Jeder endlich erzeugte Vektorraum hat eine Basis endlicher Lange.
2. Wenn ein Vektorraum eine endliche Basis besitzt, dann hat jede Basis dieses Vektorraumes dieselbe
Lange.
3. Wenn ein Vektorraum zu jedem n N eine linear unabhangige Familie mit n Elementen besitzt, dann
hat dieser Vektorraum keine endliche Basis.
Beweis. 1. Folgt aus dem Basissatz.
2. Seien (u
1
, . . . , u
k
) und (v
1
, . . . , v
n
) zwei Basen eines Vektorraumes V . Aus dem Austauschsatz von
Steinitz folgt dann k n. Wenn wir die Rollen der u
j
und v
i
vertauschen und den Satz von Steinitz
ein weiteres Mal anwenden, erhalten wir n k. Das ergibt k = n.
3. Folgt ebenfalls aus dem Satz von Steinitz.
8
Die vollstandige Induktion ist ein Beweisverfahren der Mathematik.
Das Ziel ist stets eine Aussage A(k) (zum Beispiel 1 + 2 + 3 + + k =
1
2
k(k + 1)), die f ur jedes k N bewiesen werden
soll. Der Weg zum Beweis f uhrt uber die Methode der vollstandigen Induktion, die aus zwei Schritten besteht.
In einem ersten Schritt (Induktionsanfang) beweist man die Aussage A(k) f ur k = 1: 1 =
1
2
1(1 + 1), was oensichtlich
stimmt.
Im zweiten Schritt (Induktionsschritt) zeigt man: Wenn A(k) wahr ist (Induktionsvoraussetzung), dann ist auch A(k + 1)
wahr (Induktionsbehauptung). Beim Beweis der I.B. darf dabei die I.V. benutzt werden. In unserem Beispiel setzen wir
1 + 2 + + k =
1
2
k(k + 1) voraus, und wollen 1 + 2 + + k + (k + 1) =
1
2
(k + 1)(k + 1 + 1) zeigen. Dies ist aber recht
einfach: 1 + 2 + +k + (k + 1) =
1
2
k(k + 1) + (k + 1) =
1
2
(k(k + 1) + 2(k + 1)) =
1
2
(k + 1)(k + 2).
Damit ist die Aussage A(k) f ur jedes k N bewiesen.

Ubrigens mu man den Induktionsanfang nicht unbedingt bei k = 1
wahlen.
52 KAPITEL 2. VEKTORR

AUME
Denition 2.18 (Dimension). Fur einen Vektorraum V denieren wir seine Dimension
9
als
dimV =
_

_
0 : V =

0,
n : V hat eine Basis (u
1
, . . . , u
n
),
: V enthalt beliebig groe linear unabhangige Familien.
Den folgenden Satz sollten Sie mittels Austauschsatz und Basiserganzungssatz beweisen:
Satz 2.19. Sei U Unterraum eines ndimensionalen Vektorraumes V .
1. Dann ist U endlich erzeugt und hat eine Dimension n.
2. Jede Basis (u
1
, . . . , u
m
) von U kann zu einer Basis (u
1
, . . . , u
m
, u
m+1
, . . . , u
n
) von V erganzt werden.
Beweis.

Ubungsaufgabe.
Wir brauchen noch einige Operationen mit Unterraumen.
Seien U und V Unterraume eines Vektorraumes W, so denieren wir
U V als Schnittmenge von U und V ,
U +V := w = u +v: u U, v V .
Dies sind wieder Unterraume von W, genannt

Durchschnitt und

Summe.
Frage: Wie kann man U +V beschreiben mithilfe von Basen f ur U und f ur V ?
Frage: Seien A und B Mengen mit jeweils endlich vielen Elementen (a und b St uck). Wieviele Elemente
hat A B ?
Satz 2.20 (Dimensionsformel). Seien U und V Untervektorraume eines endlichdimensionalen Raumes
W, dann gilt
dimU + dimV = dim(U V ) + dim(U +V ).
Beweis. Sei dimU = k, dimV = m, dim(U V ) = r. Dann m uten wir zeigen, da dim(U +V ) = k+mr.
Wir starten von einer Basis (d
1
, . . . , d
r
) von U V . Gema Satz 2.19 konnen wir diese Basis erganzen zu
einer Basis von U,
(d
1
, . . . , d
r
, u
r+1
, . . . , u
k
),
und zu einer Basis von V ,
(d
1
, . . . , d
r
, v
r+1
, . . . , v
m
).
Denn U V ist Unterraum von U, und Unterraum von V .
Wenn wir diese beiden Basen zusammenf ugen, erhalten wir die Familie von k +mr Vektoren
B = (d
1
, . . . , d
r
, u
r+1
, . . . , u
k
, v
r+1
, . . . , v
m
).
Es ist klar, da die Familie B die Summe U +V erzeugt.
Zu zeigen bleibt noch, da die Familie B linear unabhangig ist. Wenn wir das gezeigt hatten, dann ware B
eine Basis von U +V , und die Dimensionsformel ware bewiesen.
Sei nun also
r

j=1

j
d
j
+
k

j=r+1

j
u
j
+
m

j=r+1

j
v
j
=

0, (2.1)
und zu zeigen ist
j
= 0,
j
= 0,
j
= 0 f ur jedes j.
9
dimension
2.3. VEKTORR

AUME MIT SKALARPRODUKT 53


Zu diesem Zwecke setzen wir
u :=
k

j=r+1
(
j
u
j
) =
r

j=1

j
d
j
+
m

j=r+1

j
v
j
.
Die linke Summe enthalt nur Summanden aus U, also ist u U. Andererseits enthalten die rechten Summen
nur Summanden aus V , also ist u V , und somit mu u UV sein. Weil UV als Basis gerade (d
1
, . . . , d
r
)
hat, haben wir eine Darstellung
u =
r

j=1

j
d
j
.
Dieser Vektor gehort zu U V , insbesondere also zu V . F ur den Vektor u im Raum V haben wir also zwei
Darstellungen: einmal

j

j
d
j
, andererseits

j

j
d
j
+

j

j
v
j
. Gema Satz 2.10 darf es aber nur eine
solche Darstellung geben. Also mu zwangslaug
j
=
j
sein und
j
= 0 f ur jedes j. Mit
j
= 0 gehen wir
in (2.1) und erhalten
r

j=1

j
d
j
+
k

j=r+1

j
u
j
=

0.
Nun ist aber die Familie (d
1
, . . . , d
r
, u
r+1
, . . . , u
k
) eine Basis f ur U, weshalb die
j
= 0 und
j
= 0 sein
m ussen.
Damit ist bewiesen, da B eine linear unabhangige Familie ist.
Von besonderer Bedeutung ist der Fall, da U V = 0 ist. In diesem Fall kann man jeden Vektor
w U + V auf genau eine einzige Weise als Summe w = u + v mit u U und v V schreiben, was die
folgende Denition motiviert:
Denition 2.21. Seien U
1
, . . . , U
k
Untervektorraume eines Vektorraumes W mit der Eigenschaft, da
jedes Element w W auf genau eine Weise
w = u
1
+ +u
k
, u
i
U
i
, i,
dargestellt werden kann. Dann heit W die direkte Summe
10
der U
i
, und man schreibt
W = U
1
U
k
=
k

j=1
U
j
.
2.3 Vektorraume mit Skalarprodukt
Literatur: Greiner: Quantenmechanik. Einfuhrung. Kapitel XVII: Das formale Schema der Quantenme-
chanik.
2.3.1 Skalarprodukte, Normen, Orthogonalsysteme
Denition 2.22. Sei V ein Vektorraum uber K, wobei K = R oder K = C. Eine Abbildung , ) : V V
K heit Skalarprodukt, wenn die folgenden Eigenschaften gelten fur alle u, v, w V und alle K:
u, v) = v, u) (hermitesch
11
),
u, v +w) = u, v) +u, w),
u, v) = u, v),
u, u) 0, und u, u) = 0 genau dann wenn u = 0.
10
direct sum
11
Charles Hermite, 18221901
54 KAPITEL 2. VEKTORR

AUME
F ur K = R erhalten wir genau die Eigenschaften aus Satz 1.26.
Aus der ersten Bedingung folgt u, u) R f ur jedes u U, auch wenn K = C sein sollte. Deshalb ist die
vierte Bedingung sinnvoll.
Man beachte, da ein Skalar im zweiten Faktor nur in konjugierter Form herausgezogen werden kann:
u, v) = u, v) .
Standardbeispiele sind f ur die Falle von V = R
n
bzw. V = C
n
x, y) =
n

j=1

j
bzw. x, y) =
n

j=1

j
,
es gibt aber noch viele weitere Vektorraume und zugehorige Skalarprodukte.
Frage: Welchen Nutzen bringt uns der Konjugationsstrich uber dem zweiten Faktor
j
?
Denition 2.23. Ein Vektorraum uber R bzw. C mit Skalarprodukt heit euklidischer
12
Vektorraum
13
bzw. unitarer Vektorraum
14
.
Weil u, u) reell und nichtnegativ ist, konnen wir die Wurzel ziehen:
Denition 2.24. Sei V ein Vektorraum mit Skalarprodukt , ). Die Abbildung
[ [ : V R,
[ [ : u [u[ :=
_
u, u)
heit Norm von u. Manchmal schreibt man auch |u| oder |u|
V
anstelle von [u[.
Eine weitere Beziehung zwischen Norm und Skalarprodukt wird gegeben durch die Ungleichung von
CauchySchwarz:
Satz 2.25. Sei V ein unitarer oder euklidischer Vektorraum. Dann gilt fur alle u, v V die Ungleichung
[ u, v) [ [u[ [v[.
Der Beweis verlauft im Prinzip genauso wie im ersten Kapitel, lediglich im Falle eines unitaren Vektorraumes
sind einige kleinere

Anderungen erforderlich.
F ur euklidische und unitare Vektorraume gilt die Parallelogrammgleichung:
[u +v[
2
+[u v[
2
= 2([u[
2
+[v[
2
).
Satz 2.26. Die Normfunktion hat folgende Eigenschaften, fur alle u, v V und alle K:
1. Es ist [u[ 0, und [u[ = 0 genau dann wenn u = 0.
2. Es ist [u[ = [[ [u[.
3. Die Dreiecksungleichung
15
gilt: [u +v[ [u[ +[v[.
Beweis. 1. Folgt aus der vierten Eigenschaft des Skalarprodukts.
2. Folgt aus [u[ =
_
u, u) =
_
u, u) =
_
u, u) =
_
[[
2
u, u) = [[ [u[.
3. Ergibt sich aus der Ungleichung von CauchySchwarz auf demselben Wege wie im ersten Kapitel.
Denition 2.27. Sei V ein reeller oder komplexer Vektorraum (nicht notwendig euklidisch oder unitar),
und sei [ [ : V R eine Abbildung, die den Bedingungen aus Satz 2.26 genugt. Dann heit [ [ eine Norm
auf V , und das Paar (V, [ [) heit normierter Raum
16
.
12
Euklid von Alexandria, 3. Jh. v. Chr.
13
euclidean (vector) space
14
unitary space
15
triangle inequality
16
normed space
2.3. VEKTORR

AUME MIT SKALARPRODUKT 55


Beispiele f ur Normen auf dem R
n
sind
[x[ :=
n

j=1
[
j
[, [x[ := max
j=1,...,n
[
j
[, wenn x = (
1
, . . . ,
n
) R
n
.
Frage: Wie sehen die

Einheitskreise zu diesen Normen aus ?


Denition 2.28. Sei V ein unitarer Raum.
1. Zwei Vektoren u, v V heien orthogonal zueinander bzw. aufeinander senkrecht
17
, u v, wenn
u, v) = 0.
2. Eine Familie (u
j
: j J) (mit endlich oder unendlich vielen Elementen) heit Orthonormalsystem
(ONS), wenn
u
i
, u
j
) =
ij
=
_
1 : i = j,
0 : i ,= j.
3. Eine Basis, die gleichzeitig ein ONS ist, heit Orthonormalbasis (ONB).
4. Sei U V ein Unterraum. Dann heit
U

:= v V : v, u) = 0 u U
orthogonales Komplement von U.
5. Fur zwei Untervektorraume U
1
und U
2
von V bedeutet die Schreibweise U
1
U
2
, da jeder Vektor
aus U
1
auf jedem Vektor aus U
2
senkrecht steht.
Wegen U U

= 0 haben wir in den meisten Fallen V = U U

. Ein Beweis dazu steht unten, falls der


Unterraum U endlichdimensional sein sollte.
Der groe Vorteil von Orthonormalbasen ist, da sie die Rechnungen vereinfachen (im Vergleich zu einer
herkommlichen Basis):
Satz 2.29. Sei V ein euklidischer oder unitarer Raum, und sei U = span(u
1
, . . . , u
n
), wobei die u
j
eine
ONB bilden. Dann hat jeder Vektor u U die Darstellung
u =
n

j=1
u, u
j
) u
j
,
und fur die Norm haben wir die Formel
[u[
2
=
n

j=1
[ u, u
j
) [
2
.
Beweis. Wegen u span(u
1
, . . . , u
n
) haben wir eine Darstellung u =

n
j=1

j
u
j
mit eindeutig bestimmten

j
K. Wenn wir das Skalarprodukt von u mit einem Basisvektor bilden, erhalten wir wegen der Linearitat
des Skalarprodukts und der Orthonormalitat
u, u
i
) =
_
n

j=1

j
u
j
, u
i
_
=
n

j=1

j
u
j
, u
i
) =
n

j=1

ji
=
i
.
Das beweist die erste Formel. Analog erhalten wir
[u[
2
= u, u) =
_
n

j=1

j
u
j
,
n

k=1

k
u
k
_
=
n

j=1
n

k=1

k
u
j
, u
k
) =
n

j=1
n

k=1

jk
=
n

j=1
[
j
[
2
.
Die gemischten Produkte fallen raus wegen der Orthogonalitat.
17
perpendicular to each other
56 KAPITEL 2. VEKTORR

AUME
Frage: Im R
1756
sei ein Untervektorraum U gegeben. Welche Dimension hat U

?
Frage: Im R
1517
sind zwei Vektoren u
1
und u
2
gegeben, und ein dritter Vektor ist gesucht, der senkrecht
auf u
1
und auf u
2
stehen soll. Kann man diesen dritten Vektor mittels Kreuzprodukt ermitteln ?
Der nachste Satz sagt uns, wie wir von einer gewohnlichen Basis ubergehen konnen zu einer Orthonormal-
basis:
Satz 2.30 (Orthonormalisierungsverfahren von GramSchmidt
18
). Sei V ein euklidischer oder
unitarer Raum, und sei (v
1
, v
2
, . . . ) eine endliche oder unendliche linear unabhangige Familie. Wir denie-
ren dann rekursiv
w
1
:= v
1
, u
1
:=
1
[w
1
[
w
1
,
w
n+1
:= v
n+1

j=1
v
n+1
, u
j
) u
j
, u
n+1
:=
1
[w
n+1
[
w
n+1
, n 1.
Dann gilt:
1. die Vektoren w
n+1
sind nie

0, also sind die u
n+1
deniert,
2. die Familie (u
1
, u
2
, . . . ) ist linear unabhangig und ein Orthonormalsystem,
3. span(v
1
, . . . , v
n
) = span(u
1
, . . . , u
n
) fur jedes n.
Beweis.

Ubungsaufgabe.
Frage: Warum ist kein w
n+1
= 0 ?
Frage: Warum ist u
n+1
, u
k
) = 0 f ur 1 k n ?
2.3.2 Approximationsprobleme
Literatur: Greiner: Klassische Elektrodynamik. Kapitel I.3.1: Entwicklung beliebiger Funktionen in
vollstandige Funktionssysteme
Nun wollen wir Lote fallen auf einen Unterraum. Genauer gesagt, geht es um folgendes Approximations-
problem:
Sei V ein euklidischer oder unitarer Raum, und sei U ein Unterraum von V . Gegeben sei ein v V . Gesucht
ist dasjenige u U, das von v den geringsten Abstand hat. Wenn es ein solches u U gibt, dann heit u
Projektion von v auf U oder auch Proximum.
Wenn U unendlichdimensional sein sollte (was hauger vorkommt als man glaubt), dann ist es keineswegs
selbstverstandlich, da so ein u uberhaupt existiert, es gibt sogar Gegenbeispiele. Deshalb beschranken wir
uns auf den Fall eines endlichdimensionalen U.
Satz 2.31. Sei V ein euklidischer oder unitarer Raum, und sei U = span(u
1
, . . . , u
n
) ein Unterraum von
V , mit Orthonormalbasis (u
1
, . . . , u
n
). Sei v V ein beliebiger Punkt auerhalb von U.
1. Dann existiert genau ein u U, soda v u senkrecht auf U steht.
2. Dieses u wird gegeben durch u =

n
j=1
v, u
j
) u
j
.
3. Fur jedes andere u

U gilt [v u

[ > [v u[.
4. Fur den Projektionsfehler [v u[ gilt [v u[
2
= [v[
2
[u[
2
.
Beweis. 1. F ur u machen wir den Ansatz u =

n
j=1

j
u
j
. Der Vektor v u steht senkrecht auf U genau
dann, wenn er senkrecht auf jedem Basisvektor u
j
steht. Nun ist
0
!
= v u, u
j
) = v, u
j
)
_
n

k=1

k
u
k
, u
j
_
= v, u
j
)
j
,
also gibt es genau ein solches u U.
18
Jrgan Pedersen Gram (18501916) und Erhard Schmidt (18761959)
2.3. VEKTORR

AUME MIT SKALARPRODUKT 57


2. Ist soeben bewiesen worden.
3. Wenn u

U, dann ist wegen u U auch u u

U. Nun steht v u senkrecht auf U, also ist


insbesondere v u, u u

) = 0. Wegen u

,= u und des Satzes von Pythagoras haben wir dann


[v u

[
2
= [(v u) + (u u

)[
2
= [v u[
2
+[u u

[
2
> [v u[
2
.
4. Wir konnen schreiben v = (v u) +u. Weil v u und u senkrecht aufeinander stehen (wegen 1.), gilt
aufgrund des Satzes von Pythagoras
[v[
2
= [v u[
2
+[u[
2
,
woraus die Behauptung sofort folgt.
Jetzt haben wir alle Werkzeuge beisammen, um den Beweis von V = U U

nachzuholen:
Satz 2.32. Sei V ein unitarer oder euklidischer Raum, und sei U ein endlichdimensionaler Unterraum
von V . Dann ist V = U U

.
Beweis. Sei v V beliebig. Dann gibt es wegen Satz 2.31 genau ein u U mit v u U. Wir konnen
also jeden Vektor v V in zwei Summanden v u U

und u U zerlegen, und es gibt nur diese eine


Zerlegung. Also ist V = U U

.
Beispiel 2.33. Sei V = C([1, 1] R) der Raum der auf dem Intervall [1, 1] denierten stetigen und
reellwertigen Funktionen, ausgestattet mit dem Skalarprodukt
f, g) =
_
1
1
f(x)g(x)dx.
Dann ist [f[ =
_
_
1
1
[f(x)[
2
dx. Wir wollen eine cosFunktion durch eine quadratische Parabel annahern.
Sei also U = span(1, x
2
) und v = v(x) = cos(

2
x). Gesucht ist ein u U mit [v u[ min.
Losung: Wir ermitteln mithilfe des GramSchmidtVerfahrens eine Orthonormalbasis (u
1
, u
2
) f ur U:
v
1
= v
1
(x) = 1, v
2
= v
2
(x) = x
2
,
u
1
= u
1
(x) =
1
_
_
1
1
1
2
dx
1 =
1

2
,
w
2
= w
2
(x) = x
2

_
x
2
,
1

2
_

2
= x
2

1
3
,
[w
2
[ =

_
1
1
_
x
2

1
3
_
2
dx =
_
8
45
,
u
2
= u
2
(x) =
_
45
8
_
x
2

1
3
_
.
Dann ermittelt sich das Proximum u = u(x) nach der Formel
u = u(x) = v, u
1
) u
1
(x) +v, u
2
) u
2
(x),
und f ur die Norm haben wir die einfache Darstellung
[u[ =
_
[ v, u
1
) [
2
+[ v, u
2
) [
2
.
Die Koordinaten von u in Bezug auf die Basis (u
1
, u
2
) sind dann
v, u
1
) =
_
1
1
cos
_

2
x
_

2
dx =
2

58 KAPITEL 2. VEKTORR

AUME
und
v, u
2
) =
_
45
8
_
1
1
cos
_

2
x
_

_
x
2

1
3
_
dx.
Im Bronstein nden wir die Formel
_
x
2
cos(x)dx =
2x

2
cos(x) +
_
x
2

3
_
sin(x) +C,
mit deren Hilfe wir ausrechnen konnen, da
v, u
2
) =

10

+
_
45
2
_
2

_
3
_
_

2
_
2
2
_
.
Damit sind die Koordinaten von u bez uglich der Orthonormalbasis (u
1
, u
2
) von U bestimmt, und das
gesuchte quadratische Polynom ist gefunden.
Zur Berechnung des Projektionsfehlers [v u[ benutzen wir die Formel [v u[
2
= [v[
2
[u[
2
. Wir haben
[v[
2
=
_
1
1
_
cos
_

2
x
__
2
dx.
Aus dem Bronstein entnehmen wir die Formel
_
(cos(x))
2
dx =
x
2
+
1
4
sin(2x) +C,
die uns auf [v[
2
= 1 f uhrt. Schlielich ist nach einiger Rechnerei
[u[
2
= [ v, u
1
) [
2
+[ v, u
2
) [
2
= 0.810569468 + 0.18883446738 = 0.9994039,
woraus [vu[
2
= 0.000596 und [vu[ = 0.0244 folgen. Wir haben also einen relativen Approximationsfehler
|vu|
|v|
von weniger als 2.5%.
Bemerkung 2.34. Der Projektion v u gema u =

n
j=1
v, u
j
) u
j
werden wir im 2. Semester bei der
Fourierreihendarstellung von periodischen Funktionen wieder begegnen.
2.4 Ausblick: Vektorraume in der Physik 1
Wir bringen einige weitere Beispiele.
Raume f ur Ortsvariablen: das ist praktisch immer der R
3
, die Elemente davon beziehen sich auf Or-
te (oder sind Verbindungsvektoren zweier Orte). Die Maeinheit ist zu interpretieren als

Meter.
(Das Gegenst uck, die Wellenzahlvektoren, behandeln wir absichtlich hier nicht, sondern erst im
ubernachsten Kapitel.) Dieser Raum hat die Dimension 3.
Raume f ur Vektorfelder: an jeden Punkt x des R
3
heften wir einen Vektor u(x) an, den wir als Flu-
vektor interpretieren. Man denke z.B. an einen stromendes Fluid oder an das elektrische Feld (was
im Prinzip dasselbe ist). Die

Uberlagerung verschiedener Stromungen ergibt eine Addition in einem
Vektorraum. Wenn wir annehmen, da f ur [x[ die Stromung abklingt, dann ist es sinnvoll zu
verlangen, da
_
xR
3
[u(x)[
2
dx < ,
wobei [u(x)[
2
= (u
1
(x))
2
+(u
2
(x))
2
+(u
3
(x))
2
. Integrale dieses Typs konnen haug als Energie inter-
pretiert werden, womit sie f ur die Physik automatisch interessant sind. Den Vektorraum aller solcher
Vektorfelder schreiben wir als L
2
(R
3
R
3
), er hat die Dimension unendlich und ein Skalarprodukt
gema
u, v)
L
2
:=
_
xR
3
u
1
(x)v
1
(x) +u
2
(x)v
2
(x) +u
3
(x)v
3
(x)dx. (2.2)
2.5. AUSBLICK: DIE HELMHOLTZPROJEKTION 59
Vektorraume in der Quantenmechanik: wir betrachten ein einzelnes spinloses Teilchen in einem Po-
tential. Der Zustand dieses Teilchens wird quantenmechanisch beschrieben durch eine Wellenfunktion
= (x), die vom Ortsraum R
3
nach C abbildet. Wir interpretieren das Betragsquadrat [(x)[
2
als
Wahrscheinlichkeitsdichte, das Teilchen an Position x anzutreen. Sinnvollerweise ist
_
xR
3
[(x)[
2
dx < .
Alle solchen Wellenfunktionen bilden einen Vektorraum, namlich den L
2
(R
3
C). Dieser ist unend-
lichdimensional, und er hat folgendes Skalarprodukt:
, )
L
2 :=
_
xR
3
(x)(x)dx. (2.3)
F ur M Teilchen jeweils aus dem R
3
liegt die Ortsvariable x im R
3M
. Bei realistischen Werten von
M ist dies meist keine handhabbare Situation mehr, aber mittels Gruppentheorie (Vertauschungen
der Teilchen untereinander sind Elemente einer Permutationsgruppe !) kann man den Aufwand zur
Beschreibung des Systems um einiges reduzieren.
Literatur: Greiner und M uller: Quantenmechanik. Symmetrien. Kapitel IX: Darstellungen der Per-
mutationsgruppe und YoungTableaux.
2.5 Ausblick: die HelmholtzProjektion
Skalare Felder sind Funktionen von R
3
nach R.
Vektorfelder sind Funktionen u von R
3
nach R
3
.
Heute wird der R
3
jedesmal ausgestattet mit einem kartesischen Koordinatensystem (keine Polarkoordina-
ten oder ahnliches).
Der Gradient eines skalaren Feldes ist
(x) =
_

x
1
,

x
2
,

x
3
_
.
Die Divergenz eines Vektorfeldes u ist
div u(x) =
u
1
x
1
+
u
2
x
2
+
u
3
x
3
.
Ein ber uhmter Satz von Helmholtz
19
besagt: jedes Vektorfeld u L
2
(R
3
R
3
) kann auf eindeutige Weise
zerlegt werden als u = v + w, wobei v, w L
2
(R
3
R
3
) mit
divv(x) = 0, x R
3
,
w(x) = (x), x R
3
,
mit einem geeigneten Skalarfeld . Man sagt auch: v ist divergenzfrei bzw. quellenfrei, w ist ein Gradien-
tenfeld bzw. hat ein Potential. Wir haben also die HelmholtzZerlegung
L
2
(R
3
R
3
) = L
2
div
(R
3
R
3
) L
2
pot
(R
3
R
3
).
Es kommt noch schoner: beide Summanden auf der rechten Seite bilden nicht nur eine direkte Summe,
sondern sie stehen auch senkrecht aufeinander im Sinne des Skalarprodukts (2.2), wie wir im 2. Semester
erkennen werden.
Es ist L
2
div
(R
3
R
3
) ein (abgeschlossener) Untervektorraum des Vektorraums L
2
(R
3
R
3
). Wenn wir
von einem u L
2
(R
3
R
3
) das Lot fallen auf L
2
div
(R
3
R
3
), dann losen wir genau eine Approximations-
aufgabe im Sinne von Abschnitt 2.3.2. Diese Abbildung heit HelmholtzProjektion.
19
Hermann von Helmholtz (18211894), Mediziner und Physiker, Professor f ur Physiologie und Pathologie in Konigsberg,
spater Professor f ur Anatomie und Physiologie in Bonn. Formulierte den Energieerhaltungssatz, erfand den Augenspiegel, ma
die Fortpanzungsgeschwindigkeit von Nervenerregungen, lieferte wichtige Beitrage zur Hydrodynamik und Elektrodynamik,
begr undete die wissenschaftliche Meteorologie.
60 KAPITEL 2. VEKTORR

AUME
Anwendungen gibt es daf ur in der Elektrodynamik (denn elektrische und magnetische Felder

E,

B gehoren
gerade zu L
2
(R
3
R
3
)) und in der Festkorperphysik. Man stelle sich einen Festkorper vor, der elastische
Schwingungen ausf uhrt. Diese konnen longitudinal oder transversal verlaufen, und die dazugehorigen Ver-
schiebungsvektorfelder sind gerade Potentialfelder bzw. divergenzfreie Felder. Die HelmholtzProjektion
erlaubt es, diese beiden Schwingungstypen getrennt zu betrachten, und man erhalt z.B., da longitudinale
bzw. transversale Wellen unterschiedlich schnell laufen konnen.
2.6 Schl usselbegrie
Denition eines Vektorraumes,
Funktionenraume als Vektorraume,
lineare Unabhangigkeit, Basis, Dimension,
direkte Summe von Vektorraumen, Dimensionsformel,
Denition von Skalarprodukt (im euklidischen Fall und im unitaren Fall) und Norm,
Verfahren von GramSchmidt,
Losungsverfahren zu Approximationsproblemen auch im abstrakten Fall.
Kapitel 3
Matrizen
3.1 Operationen mit Matrizen
Wie immer, sei K auch jetzt ein Korper, zum Beispiel K = R oder K = C. Unter K
n
, K
m
usw. verstehen
wir den Vektorraum der Spaltenvektoren mit n bzw. m Eintragen. In diesem Kapitel soll es um Matrizen
gehen, also Zahlenschemata der Form
A =
_
_
_
_
_
a
11
a
12
. . . a
1m
a
21
a
22
. . . a
2m
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nm
_
_
_
_
_
, a
ij
K.
Die Menge aller solchen Matrizen bezeichnen wir mit K
nm
. F ur m = 1 erhalten wir die Spaltenvektoren
Denition 3.1. Fur Matrizen A, B K
nm
und Zahlen K denieren wir eine Addition zweier
Matrizen sowie eine Multiplikation einer Zahl mit einer Matrix gema
(A+B)
ij
= a
ij
+b
ij
, 1 i n, 1 j m,
(A)
ij
= a
ij
, 1 i n, 1 j m.
Die Menge der n mMatrizen bildet mit diesen beiden Operationen einen Vektorraum uber K.
Frage: Was ist das Nullelement dieses Vektorraumes ? Welche Dimension hat er ?
Genauso wie im ersten Kapitel denieren wir eine Multiplikation von Matrizen und Vektoren:
Denition 3.2. Fur eine Matrix A K
nm
und einen Vektor x = (
1
, . . . ,
m
)

K
m
denieren wir das
Produkt Ax K
n
durch
Ax =
_
_
_
a
11
. . . a
1m
.
.
.
.
.
.
a
n1
. . . a
nm
_
_
_
_
_
_

1
.
.
.

m
_
_
_ :=
_
_
_

m
j=1
a
1j

j
.
.
.

m
j=1
a
nj

j
_
_
_.
Der Vektor x mu genau so viele Komponenten haben wie A Spalten hat. Das Ergebnis Ax hat so viele
Komponenten wie A Zeilen hat.
Satz 3.3. Sei A K
nm
. Dann erzeugt A eine Abbildung f
A
,
f
A
: K
m
K
n
,
f
A
: x f
A
(x) = Ax.
Diese Abbildung ist linear (bzw. ein Homomorphismus), das heit:
f
A
(x +y) = f
A
(x) +f
A
(y), x, y K
m
,
f
A
(x) = f
A
(x), K, x K
m
.
61
62 KAPITEL 3. MATRIZEN
Beweis.

Ubungsaufgabe.
Spater werden wir sehen, da jede lineare Abbildung von K
m
auf K
n
in Form einer Matrixmultiplikation
dargestellt werden kann.
Wir stellen die Matrix als nebeneinandergestellte Spaltenvektoren dar:
A =
_
_
a
1
a
2
a
m
_
_
.
Dann sieht man schnell, da a
j
= Ae
j
, das heit,
die Spalten der Abbildungsmatrix sind die Koordinaten der Bilder der Einheitsvektoren.
Daraus ergibt sich f ur einen Vektor x = (
1
, . . . ,
m
)

m
j=1

j
e
j
aufgrund der Linearitat:
f
A
(x) = Ax = A
_
_
m

j=1

j
e
j
_
_
=
m

j=1

j
Ae
j
=
m

j=1

j
a
j
.
Das heit, Ax ist nichts anderes als eine Linearkombination der Spalten von A. Die Komponenten von x
sind gerade die Koezienten dieser Linearkombination.
Wir verallgemeinern die MatrixVektorMultiplikation zu einer MatrixMatrixMultiplikation:
Denition 3.4. Sei A K
nm
und B K
ml
. Dann denieren wir das Produkt AB K
nl
durch
(AB)
ij
=
m

k=1
a
ik
b
kj
, 1 i n, 1 j l.
Man beachte, da das Produkt nur dann deniert ist, wenn B soviele Zeilen hat wie A Spalten hat.
Wenn B nur eine Spalte hat (l = 1), dann erhalten wir die zuvor schon denierte MatrixVektor
Multiplikation.
Durch Hinschauen erkennen wir:
die kte Spalte von AB ist gleich A (kte Spalte von B)
Diese Multiplikation unterscheidet sich in mindestens zwei Punkten von der herkommlichen Multiplikation
reeller oder komplexer Zahlen: sie ist im Allgemeinen nicht kommutativ (also AB ,= BA); und Nullteiler
sind moglich. Das heit, ein Produkt kann gleich der Nullmatrix sein, obwohl keiner seiner Faktoren gleich
der Nullmatrix ist. Ein Beispiel daf ur ist
_
1 1
1 1
__
1 2
1 2
_
=
_
0 0
0 0
_
,
_
1 2
1 2
__
1 1
1 1
_
=
_
1 1
1 1
_
.
Satz 3.5. Seien A K
nm
, B K
ml
, und seien f
A
: K
m
K
n
sowie f
B
: K
l
K
m
die dazugehorigen
Abbildungen. Sei weiterhin f
AB
: K
l
K
n
die der Produktmatrix AB K
nl
zugeordnete Abbildung.
Dann ist
f
AB
= f
A
f
B
,
das heit f
AB
ist die Nacheinanderausfuhrung der Abbildungen f
B
und f
A
.
Beweis. Es seien b
1
, . . . , b
l
die Spalten von B; und sei x = (
1
, . . . ,
l
)

l
j=1

j
e
j
ein beliebiger Vektor.
Dann ist (wenn wir an die beiden obigen Merkregeln erinnern)
(f
A
f
B
)(x) = f
A
(f
B
(x)) = f
A
(Bx) = f
A
_
l

k=1

k
b
k
_
= A
_
l

k=1

k
b
k
_
=
l

k=1

k
Ab
k
=
l

k=1

k
(AB)e
k
= (AB)
l

k=1

k
e
k
= (AB)x = f
AB
(x).
Das ist genau die gew unschte Aussage.
3.2. GLEICHUNGSSYSTEME 63
Damit konnen wir jetzt zeigen, da die Matrixmultiplikation assoziativ ist:
Satz 3.6. Seien A K
nm
, B K
ml
und C K
lr
. Dann gilt (AB)C = A(BC).
Beweis. Wir betrachten zuerst den Spezialfall, da C eine Spalte ist. Seien also F und G Matrizen und x
ein beliebiger Spaltenvektor. Wir setzen voraus, da die Formate zusammenpassen, und wollen zeigen, da
(FG)x = F(Gx). Dies folgt aber aus dem vorigen Satz, denn
(FG)(x) = f
FG
(x)
und F(Gx) = f
F
(Gx) = f
F
(f
G
(x)) = (f
F
f
G
)(x).
Nun seien A, B, C wie in den Voraussetzungen, und sei x K
r
ein beliebiger Vektor. Wir zeigen, da
((AB)C)x = (A(BC))x
f ur jedes solche x gilt. Namlich,
((AB)C)x (setze F = AB, G = C)
= (AB)(Cx) (setze F = A, G = B, y = Cx)
= A(B(Cx))
und andererseits, mit ahnlicher Begr undung, (A(BC))x = A((BC)x) = A(B(Cx)).
Wir haben also ((AB)C)x = (A(BC))x f ur jeden Vektor x, oder
((AB)C A(BC)) x = 0.
Aus einer

Ubungsaufgabe folgt dann, da die Matrix auf der linken Seite gleich der Nullmatrix ist.
Ein anderer Beweis lauft so, da man den Eintrag an der Stelle (i, j) von (AB)C bzw. A(BC) direkt
ausrechnet. Beide Male sollte das gleiche herauskommen.
Denition 3.7. Sei A K
nm
eine Matrix mit Eintragen a
ij
. Dann denieren wir eine transponierte
Matrix
1
A

K
mn
und eine adjungierte Matrix
2
A

K
mn
durch
(A

)
ij
= a
ji
, (A

)
ij
= a
ji
.
Wenn K = R, dann sind beide Matrizen identisch.
Satz 3.8. Wenn die Formate der Matrizen A und B zueinander passen, dann ist
(AB)

= B

, (AB)

= B

.
Die Standardskalarprodukte konnen geschrieben werden als
x, y)
R
= x

y, x, y)
C
= x

y = y

x.
Beweis.

Ubungsaufgabe.
3.2 Gleichungssysteme
Wir versuchen jetzt, die MatrixMultiplikation umzukehren, also eine

Division zu nden. Konkret geht


es um Folgendes:
Problem: Gegeben sind zwei Matrizen A K
nm
, B K
nl
. Gesucht ist eine Matrix X K
ml
mit
AX = B.
Es stellen sich dabei fast von selbst einige Fragen:
Gibt es uberhaupt Losungen X ?
1
transposed matrix
2
adjoint matrix
64 KAPITEL 3. MATRIZEN
Falls die Losbarkeit von A und B abhangen sollte: welche Bedingungen m ussen A und B erf ullen,
damit es Losungen X gibt ?
Wieviele Losungen X gibt es ?
Wie ndet man diese Losungen ?
Der Fall l = 1 ist noch am einfachsten: dann ist B ein Spaltenvektor B = b = (
1
, . . . ,
n
)

, und X ist ein


Spaltenvektor X = x = (
1
, . . . ,
m
)

. Wir erhalten in diesem Fall ein lineares Gleichungssystem


a
11

1
+ +a
1m

m
=
1
,
.
.
.
a
n1

1
+ +a
nm

m
=
n
.
Dieses System wird noch etwas einfacher im Fall n = m:
Denition 3.9. Eine Matrix A K
nn
heit invertierbar
3
, wenn es eine Matrix B K
nn
gibt mit
AB = BA = I
n
,
wobei I
n
die n nEinheitsmatrix bezeichnet: Man schreibt B = A
1
, und nennt A
1
die zu A inverse
4
Matrix. Wenn A invertierbar bzw. nicht invertierbar ist, dann heit A auch regular
5
bzw. singular
6
.
Wenn A invertierbar ist, dann wird eine Losung x des Gleichungssystems Ax = b gegeben durch x = A
1
b.
Frage: Kann es sein, da das Gleichungssystem Ax = b bei invertierbarem A mehrere Losungen x hat ?
Begr undung ?
Satz 3.10. Es seien A, B K
nn
. Dann gilt:
1. Wenn A invertierbar ist, so gibt es genau eine inverse Matrix.
2. Wenn A invertierbar ist und AB = I, so ist B = A
1
.
3. Wenn A invertierbar ist, so ist auch A
1
invertierbar, und (A
1
)
1
= A.
4. Wenn A invertierbar ist, so ist auch A

invertierbar, und (A

)
1
= (A
1
)

.
5. Wenn A und B beide invertierbar sind, so ist auch AB invertierbar, und es ist (AB)
1
= B
1
A
1
.
Beweis. 1. Folgt direkt aus Satz 1.43.
2. Folgt aus 1.
3. Folgt aus Satz 1.43.
4. Wir haben AA
1
= I. Wenn wir darauf Satz 3.8 anwenden, haben wir (A
1
)

= I

= I, also ist
(A
1
)

die Inverse zu A

.
5. Folgt direkt aus Lemma 1.46.
Gleichungssysteme der Form AX = B behandeln wir, indem wir versuchen, die Matrix A auf eine einfachere
Form zu bringen. Dabei benutzen wir folgenden Satz.
Satz 3.11. Seien A K
nm
, B K
nl
, X K
ml
und C K
nn
, wobei C regular ist. Dann ist X eine
Losung von AX = B genau dann, wenn X eine Losung von CAX = CB ist.
Beweis. Sei AX = B. Dann ist auch CAX = CB.
Sei andererseits CAX = CB. Weil C invertierbar ist, existiert C
1
, und es ist C
1
CAX = C
1
CB, also
AX = B.
3
invertible
4
inverse
5
regular
6
singular
3.2. GLEICHUNGSSYSTEME 65
Wir wollen also eine Matrix C nden, soda CA einfacher zu behandeln ist als A. Wir wahlen C als Produkt
von sogenannten Eliminationsmatrizen und Permutationsmatrizen, und die angestrebte Form von CA ist
die sogenannte GauJordanForm bzw. Zeilenstufenform.
Es gibt zwei Sorten von Eliminationsmatrizen: allgemeine und spezielle.
Eine allgemeine Eliminationsmatrix hat die Form
L =
_
_
_
_
_
_
_
_
_
_
_
_
1
1j
.
.
.
.
.
.
1
j1,j

jj

j+1,j
1
.
.
.
.
.
.

nj
1
_
_
_
_
_
_
_
_
_
_
_
_
,
ij
K,
jj
,= 0.
Die Leerraume sind Nullen.
Eine spezielle Eliminationsmatrix hat eine der folgenden Formen:
L =
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
ij
.
.
.
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
,
L =
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1

jj
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
,
jj
,= 0.
Frage: Wohin werden von den obigen drei Matrizen L die Einheitsbasisvektoren e
1
, . . . , e
n
abgebildet ?
Frage: Warum sind die speziellen Eliminationsmatrizen regular ? Wie sehen ihre Inversen aus ?
Sei L eine spezielle Eliminationsmatrix des ersten Typs, und A eine beliebige Matrix mit soviel Zeilen, wie
L Spalten hat. Dann ergibt sich das Produkt LA nach folgender Regel:
kte Zeile von LA =
_
kte Zeile von A : k ,= i,
ite Zeile von A+
ij
(jte Zeile von A) : k = i.
Frage: Warum soll bei den Eliminationmatrizen des zweiten Typs der Eintrag
jj
nicht Null sein ?
Frage: Wie sieht das Produkt LA aus, wenn L eine Eliminationsmatrix des zweiten Typs ist ?
Es seien nun zwei oder mehrere spezielle Eliminationsmatrizen gegeben, die ihre Eintrage in derselben
Spalte haben. Wenn wir diese Matrizen multiplizieren, dann erhalten wir eine allgemeine Eliminationsma-
trix.
Und weil die speziellen Eliminationsmatrizen regular sind, sind also auch die allgemeinen Eliminationsma-
trizen regular.
Wir werden solche Matrizen benutzen, um im Produkt CA viele Nullen zu erzeugen. Dazu sind lediglich
die
ij
passend zu wahlen. Diesen Proze bezeichnen wir auch als

Ausraumen.
66 KAPITEL 3. MATRIZEN
Permutationsmatrizen P = P
ij
haben die Form
P
ij
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
.
.
.
.
.
.
0 1
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
1 0
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Diese Matrix sieht fast wie eine Einheitsmatrix aus, lediglich die Zeilen i und j sind vertauscht worden.
Man uberzeugt sich schnell, da:
Die Multiplikation mit einer Permutationsmatrix P
ij
von links vertauscht die Zeilen i und j.
Die Multiplikation mit einer Permutationsmatrix P
ij
von rechts vertauscht die Spalten i und j.
Dann gilt also PP = I, also ist P invertierbar.
Das Rechenverfahren zur Behandlung von AX = B verlauft wie folgt:
Man schreibt zunachst die Matrizen A und B nebeneinander, getrennt durch einen senkrechten Strich. Das
ist moglich, weil A und B gleichviel Zeilen haben. Unter einer Langzeile verstehen wir eine Zeile, die A und
B umfat.
Folgende Zeilenoperationen sind zulassig:
Vertauschen zweier Langzeilen,
Multiplikation einer Langzeile mit einer Zahl ,= 0,
Addition des Vielfachen einer Langzeile zu einer anderen Langzeile.
Diese drei Operationen werden mithilfe von Permutationsmatrizen und Eliminationsmatrizen mathematisch
beschrieben.
Man wendet diese Operationen solange an, bis man die Matrix links vom Strich auf Zeilenstufenform
gebracht hat.
Sehr anschaulich formuliert, liegt die Zeilenstufenform vor, wenn folgendes gilt: In der Matrix gibt es eine
Treppe von links oben in Richtung nach rechts unten mit folgenden Eigenschaften:
Jede Stufe ist genau eine Zeile hoch.
Jede Stufe ist eine oder mehr als eine Spalte breit.
Im Stufenknick steht eine 1.
Unterhalb der Stufen und links von den Stufen stehen nur Nullen.
Oberhalb der Stufen oder rechts von den Stufen steht irgendetwas.
Beispiele daf ur sind die Einheitsmatrix oder die Nullmatrix. Ein weiteres Beispiel ist
_
_
_
_
_
_
_
_
_
_
0 1
0 0 0 1
0 0 0 0 0 0 1
0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
_
.
3.2. GLEICHUNGSSYSTEME 67
Hierbei stehen die f ur beliebige Eintrage.
Die Anzahl der Einsen in den Stufenknicken heit auch Rang der Matrix.
Exakt formuliert:
Denition 3.12. Eine Matrix D K
nm
ist in Zeilenstufenform, wenn es ein 0 r n und Zahlen
1 j
1
< j
2
< < j
r
m gibt mit folgenden Eigenschaften:
d
iji
= 1 fur 1 i r,
d
il
= 0 fur 1 l < j
i
,
d
il
K beliebig fur j
i
< l m,
d
kl
= 0 fur r < k n und 1 l m.
Im oben gezeichneten Beispiel ist r = 5 und (j
1
, j
2
, . . . , j
5
) = (2, 4, 7, 8, 9).
Die zweiten bis vierten Bedingungen der Denition bedeuten:
links von den Einsen, aber in derselben Zeile, stehen Nullen,
rechts von den Einsen, aber in derselben Zeile, stehen ,
ab der Zeile r + 1 stehen nur noch Nullen.
Das GauJordan
7
Verfahren verlauft wie folgt:
1. Man setze einen Spaltenzahler s und einen Zeilenzahler z jeweils auf 1.
2. Man suche in der Spalte s unterhalb des zten Eintrags von oben (einschlielich) nach einem Matri-
xeintrag ,= 0.
3. (a) Wenn es einen solchen nicht gibt, dann erhohe man den Spaltenzahler s um 1 und gehe zu
Schritt 2.
(b) Wenn es einen Matrixeintrag ,= 0 gibt
8
, dann tausche man die dazugehorige Langzeile mit der
zten Langzeile. Jetzt ist der Eintrag a
zs
,= 0.
4. Man dividiere die zte Langzeile durch a
zs
. Jetzt ist der Eintrag a
zs
= 1.
5. Man addiere geeignete Vielfache der zten Langzeile zu den tieferen Langzeilen, um die Eintrage
unterhalb von a
zs
zu annullieren (

Ausraumen). Schrag links unterhalb von a


zs
und links von a
zs
passiert nichts, weil dort sowieso nur Nullen stehen.
6. Wenn unterhalb von a
zs
die Nullen erzeugt worden sind, erhohe man z und s jeweils um 1.
7. (a) Wenn diese Indizes z und s den Bereich der Matrix A verlassen, ist das Verfahren beendet.
(b) Ansonsten gehe man zu Schritt 2.
Auf diesem Wege kommt man immer zu einer GauJordanForm. Man kann das Verfahren aber variieren.
Zum Beispiel kann man den Schritt 4 auch spater ausf uhren. Man kann auch oberhalb der a
zs
ausraumen.
Als Beispiel wollen wir die Inverse von
A =
_
_
3 1 1
1 3 1
1 1 3
_
_
bestimmen, also das System AX = I
3
losen. Wir starten also mit
_
_
3 1 1 1 0 0
1 3 1 0 1 0
1 1 3 0 0 1
_
_
.
7
Wilhelm Jordan (18421899), nicht zu verwechseln mit Marie Ennemond Camille Jordan (18381922), franzosischer
Mathematiker, dem Schopfer der Jordanschen Normalform. Und die JordanAlgebren der Physik stammen von Pascual
Jordan (19021980).
8
Man nennt ihn auch Pivotelement.
68 KAPITEL 3. MATRIZEN
Wir sehen, da wir unterhalb der 3 links oben ausraumen konnen. Weil wir Bruchrechnung vermeiden
wollen aus Bequemlichkeit, multiplizieren wir stattdessen die 2. und 3. Langzeile mit passenden Faktoren:
_
_
3 1 1 1 0 0
3 9 3 0 3 0
3 3 9 0 0 3
_
_

_
_
3 1 1 1 0 0
0 8 2 1 3 0
0 2 8 1 0 3
_
_
.
Ausgehend von der 8 an der Position (2,2) raumen wir nach oben und unten aus:
_
_
24 8 8 8 0 0
0 8 2 1 3 0
0 8 32 4 0 12
_
_

_
_
24 0 6 9 3 0
0 8 2 1 3 0
0 0 30 3 3 12
_
_
Und jetzt starten wir von der 30 an der Position (3,3) und raumen nach oben aus:
_
_
120 0 30 45 15 0
0 120 30 15 45 0
0 0 30 3 3 12
_
_

_
_
120 0 0 48 12 12
0 120 0 12 48 12
0 0 30 3 3 12
_
_
.
Anschlieend k urzen wir die Langzeilen durch 120, 120 und 30:
_
_
1 0 0
48
120

12
120

12
120
0 1 0
12
120
48
120

12
120
0 0 1
3
30

3
30
12
30
_
_
=
_
_
1 0 0
2
5

1
10

1
10
0 1 0
1
10
2
5

1
10
0 0 1
1
10

1
10
2
5
_
_
.
Und rechts vom Strich steht die Inverse von A. Man rechnet leicht nach, da tatsachlich AX = I
3
gilt.
Frage: Warum ist das so ?
Falls man stattdessen das System
Ax =
_
_
0
7
0
_
_
hatte losen wollen, dann hatte man mit dem Schema
_
_
3 1 1 0
1 3 1 7
1 1 3 0
_
_
gestartet, und mit genau denselben Langzeilenumformungen wie oben ware man auf das Schema
_
_
1 0 0
7
10
0 1 0
14
5
0 0 1
7
10
_
_
gekommen, von dem man die Losung x = (
7
10
,
14
5
,
7
10
)

abliest.
3.3 Schl usselbegrie
Matrizen als zentrales Beispiel linearer Abbildungen,
Beziehung zwischen Matrixprodukt einerseits und Nacheinanderausf uhrung der zugeordneten linearen
Abbildungen andererseits,
GauJordanVerfahren.
Kapitel 4
Homomorphismen
4.1 Allgemeine Eigenschaften
Jede Matrix A K
nm
begr undet eine Abbildung f
A
: K
m
K
n
, gema der Vorschrift f
A
(x) = Ax.
Diese Abbildung gen ugt den Regeln
f
A
(x +y) = f
A
(x) +f
A
(y), x, y K
m
,
f
A
(x) = f
A
(x), K, x K
m
.
Wir benutzen dabei aber gar nicht, da der Ausgangsvektorraum der K
m
ist. Weil diese beiden Eigenschaf-
ten so wichtig sind, haben Abbildungen dieses Typs einen eigenen Namen bekommen:
Denition 4.1. Seien U und V Vektorraume uber K, und sei f : U V eine Abbildung mit den Eigen-
schaften
f(x +y) = f(x) +f(y), x, y U, (4.1)
f(x) = f(x), K, x U. (4.2)
Dann sagen wir, da f eine lineare Abbildung bzw. ein Homomorphismus
1
ist. Die Menge aller Homomor-
phismen von U nach V bezeichnen wir mit Hom(U V ) bzw. L(U V ). Wenn U = V , dann reden wir
auch von Endomorphismen
2
und schreiben L(U) anstatt von L(U U). Falls V = K ist, bezeichnet man
die Homomorphismen auch als lineare Funktionale
3
.
Anstelle von Homomorphismen ist auch die Bezeichnung lineare Operatoren
4
gebrauchlich. In der Literatur
sind die Schreibweisen L(U, V ) oder L(U; V ) weit verbreitet anstelle unserer Notation L(U V ), die
hoentlich besser erklart, wie hier eigentlich abgebildet wird.
Die beiden zentralen Eigenschaften (4.1) und (4.2) einer linearen Abbildung dr ucken wir wieder als kom-
mutative Diagramme aus:
(x, y)
f
(f(x), f(y))
+

_
(in U) +

_
(in V )
x +y
f
f(x) +f(y)
= f(x +y)
x
f
f(x)

_
(in U)

_
(in V )
x
f
f(x)
= f(x)
Einige Eigenschaften ergeben sich direkt aus der Denition:
Satz 4.2. Sei f L(U V ). Dann gilt
f(0) = 0,
1
homomorphism
2
endomorphism
3
linear functionals
4
linear operators
69
70 KAPITEL 4. HOMOMORPHISMEN
f(

n
j=1

j
x
j
) =

n
j=1

j
f(x
j
).
Beweis. Sollten Sie selber konnen.
Beispiel 4.3. 1. Sei A K
nm
, dann denieren wir eine Abbildung f : K
m
K
n
gema f(x) = Ax;
und es ist dann f Hom(K
m
K
n
).
2. Sei U = C
1
([0, 1] R) der Raum der auf [0, 1] einmal stetig dierenzierbaren Funktionen, und
entsprechend V = C([0, 1] R). Dann ist die Abbildung
d
dx
: U V eine lineare Abbildung.
3. Sei U = C
2
(R R), V = C(R R) und L L(U V ) der zur Schwingungsdierentialgleichung
gehorige Dierentialoperator L =
d
2
dt
2
+ k
d
dt
+
2
, wobei k und gewisse positive Konstanten sind.
Die aquivalente Sprechweise in der Physik lautet:

fur die Schwingungsdierentialgleichung gilt das


Superpositionsprinzip.
4.

Ahnliches gilt fur die Partiellen Dierentialoperatoren und .
5. Sei U = C(R R) und V = C
1
(R R). Dann ist der Integrationsoperator, der jedem f U eine
Stammfunktion x
_
x
0
f(t)dt zuordnet, eine lineare Abbildung.
6. Sei U = C(R R), V = R, und : U V die Abbildung f f(0), die jeder Funktion ihren Wert
im Nullpunkt zuordnet. Diese sogenannte Diracsche
5
DeltaDistribution ist ein lineares Funktional,
das z.B. fur die Beschreibung von Punktmassen verwendet wird.
7. Sei U = R
3
der Raum der Ortsvariablen und V = R. Lineare Abbildungen k: U V werden in der
Physik haug als Wellenzahlvektoren bezeichnet.
Im Folgenden werden wir allgemeine Homomorphismen als Abbildungen zwischen zwei Vektorraumen U
und V studieren.
Satz 4.4. Es seien U und V zwei Vektorraume. Sei (b
1
, . . . , b
m
) eine Basis fur U, und sei (v
1
, . . . , v
m
)
eine beliebige Familie von Vektoren in V .
Dann gibt es genau einen Homomorphismus f L(U V ) mit f(b
j
) = v
j
fur jedes j. Dieser Homomor-
phismus wird gegeben durch die Formel
f(
1
b
1
+ +
m
b
m
) =
1
v
1
+ +
m
v
m
.
Beweis. Weil (b
1
, . . . , b
m
) eine Basis ist, gibt es zu jedem u U genau einen Satz von Koezienten
(
1
, . . . ,
m
) mit u =
1
b
1
+ +
m
b
m
. Die obige Formel beschreibt einen Homomorphismus (Beweis
selbst vervollstandigen !) und es ist f(b
j
) = v
j
, wie verlangt.
Es bleibt noch zu zeigen, da dieses f der einzige Homomorphismus mit f(b
j
) = v
j
ist. Sei nun g ein
weiterer Homomorphismus mit g(b
j
) = v
j
f ur jedes j. Dann ist wegen Satz 4.2
g(u) = g(
1
b
1
+ +
m
b
m
) =
1
g(b
1
) + +
m
g(b
m
) =
1
v
1
+ +
m
v
m
= f(u),
also ist g = f.
Damit konnen wir jetzt eine oengebliebene Frage des vorigen Kapitels beantworten. Damals wurde be-
hauptet, da jede lineare Abbildung f : K
m
K
n
in Form einer Matrix dargestellt werden kann.
Gegeben sei eine lineare Abbildung f L(K
m
K
n
).
Gesucht ist eine Matrix A K
nm
mit Ax = f(x) f ur jedes x K
m
.
Um eine solche Matrix zu nden, wahlen wir eine Basis in K
m
, zum Beispiel die Standardbasis (e
1
, . . . , e
m
).
Seien v
j
die Bilder der Einheitsvektoren, v
j
= f(e
j
), j = 1, . . . , m. Wenn wir diese Spaltenvektoren neben-
einanderstellen, erhalten wir eine Matrix A. Diese ist genau die gesuchte Matrix, denn gema der Regel
die Spalten sind die Koordinaten der Bilder der Basisvektoren
5
Paul Adrien Maurice Dirac (19021984), Nobelpreis 1933 zusammen mit Erwin Schrodinger
4.1. ALLGEMEINE EIGENSCHAFTEN 71
ist Ae
j
= v
j
, also f(e
j
) = v
j
. Und der vorige Satz sagt uns dann, da die Gleichung f(u) = Au nicht nur
f ur u e
1
, . . . , e
m
gilt, sondern f ur jeden Vektor u U.
Frage: Was ist der Unterschied zwischen den folgenden beiden Formulierungen:

f ist eine lineare Abbildungen von R


7
in den R
7

f ist eine lineare Abbildungen von R


7
auf den R
7
?
Denition 4.5. Seien A und B Mengen, und f : A B eine Abbildung.
f heit injektiv
6
, wenn aus f(x) = f(x

) folgt: x = x

.
f heit surjektiv
7
, wenn es zu jedem y B mindestens ein x A mit y = f(x) gibt.
f heit bijektiv
8
, wenn f injektiv und surjektiv ist.
Die identische Abbildung id
A
: A A wird deniert durch id
A
(x) = x fur jedes x A.
Wir betonen, da A und B einfach nur Mengen sind, sie brauchen keine Vektorraume zu sein.
Satz 4.6. Seien A, B, C Mengen, f eine Abbildung von A nach B, g eine Abbildung von B nach C. Dann
gilt:
1. Identische Abbildungen sind bijektiv.
2. Wenn g f surjektiv ist, dann auch g.
3. Wenn g f injektiv ist, dann auch f.
Beweis. Teil 1 ist einfach und soll deshalb eine

Ubungsaufgabe sein.
Zu Teil 2: Wenn g die Menge C nicht ausschopft, dann kann g f die Menge C erst recht nicht ausschopfen.
Zu Teil 3: Wenn f nicht injektiv ist, dann bildet f zwei verschiedene Elemente von A auf dasselbe Element
von B ab. Dann kann auch g f nicht injektiv sein.
Satz 4.7. Seien A, B Mengen, und sei f : A B eine Abbildung. Dann gilt:
f ist genau dann bijektiv, wenn es eine Abbildung g : B A gibt mit
f g = id
B
, g f = id
A
.
Beweis.

=:
Sei f bijektiv. Dann ist f surjektiv, also gibt es f ur jedes b B mindestens ein a A mit f(a) = b. Und
weil f auch injektiv ist, ist dieses Element a eindeutig. Die gesuchte Abbildung g ist gerade diejenige, die
b auf a sendet.

=:
Es ist id
B
= f g bijektiv, also ist f g surjektiv, also ist f surjektiv.
Es ist id
A
= g f bijektiv, also ist g f injektiv, also ist f injektiv.
Satz 4.8. Seien U, V , W Vektorraume uber einem Korper K, und sei f L(U V ), g L(V W).
1. Die identische Abbildung id
U
: u u ist ein bijektiver Homomorphismus id
U
L(U U).
2. Durch g f : u g(f(u)) wird ein Homomorphismus g f L(U W) deniert.
Beweis. Das Ergebnis 1. ist ziemlich leicht und deshalb dem Leser uberlassen.
Zum Beweis von 2. benutzen wir (4.1) und (4.2) f ur f und g:
(g f)(x +y) = g(f(x +y)) = g(f(x) +f(y)) = g(f(x)) +g(f(y)) = (g f)(x) + (g f)(y).
Analog
(g f)(x) = g(f(x)) = g(f(x)) = g(f(x)) = (g f)(x).
6
injective
7
surjective
8
bijective
72 KAPITEL 4. HOMOMORPHISMEN
Denition 4.9. Bijektive Homomorphismen zwischen Vektorraumen heien Isomorphismen
9
.
Wenn es zwischen zwei Vektorraumen U und V einen Isomorphismus gibt, dann nennt man beide Raume
zueinander isomorph
10
.
Satz 4.10. Seien A, B K
nn
Matrizen, und f
A
, f
B
L(K
n
) die zugehorigen linearen Abbildungen.
Dann ist die Komposition f
A
f
B
: K
n
K
n
gegeben durch (f
A
f
B
)(x) = ABx.
Zueinander inverse Isomorphismen f
A
und f
B
werden durch zueinander inverse Matrizen A und B be-
schrieben.
Beweis.

Ubungsaufgabe. Man nutze Satz 3.5.
4.2 Geometrische Aspekte
Wir brauchen noch einige weitere Begrie.
Denition 4.11. Sei f Hom(U V ). Dann heit
ker f := u U : f(u) = 0 der Nullraum bzw. Kern
11
von f,
img f := f(u) V : u U der Bildraum bzw. das Bild
12
von f.
Analog denieren wir fur eine Matrix A K
nm
ker A := x K
m
: Ax = 0,
img A := Ax K
n
: x K
m
.
Satz 4.12. Wenn f Hom(U V ), dann ist ker f ein Unterraum von U und img f ein Unterraum von
V .
Beweis. Es ist f(0) = 0, also ist 0 ker f und 0 img f. Wenn nun u
1
, u
2
ker f sind, dann ist
f(u
1
+ u
2
) = f(u
1
) + f(u
2
) = 0, also auch u
1
+ u
2
ker f. Analog beweist man u ker f, falls K
und u ker f. Gema Satz 2.6 ist dann ker f ein Unterraum von U.
Seien nun v
1
, v
2
img f. Dann gibt es u
1
, u
2
U mit f(u
1
) = v
1
, f(u
2
) = v
2
. Dann gilt f(u
1
+ u
2
) =
f(u
1
) +f(u
2
) = v
1
+v
2
, also ist v
1
+v
2
img f. Analog zeigt man v img f, wenn v img f und K.
Nun verwendet man nochmal den Satz 2.6, und der Beweis ist fertig.
Denition 4.13. Die Dimension des Bildes von f heit Rang
13
von f:
rang f := dimimg f.
Der Rang einer Matrix A wird deniert durch
rang A := dimimg A.
Die Dimension des Kernes von f heit Defekt
14
von f,
def f := dimker f.
Satz 4.14. Sei f Hom(U V ) und sei (u
1
, . . . , u
m
) eine Familie in U. Dann haben wir die Aussagen:
1. f injektiv ker f = 0,
2. f surjektiv img f = V ,
3. (f(u
1
), . . . , f(u
m
)) ist unabhangig in V = (u
1
, . . . , u
m
) sind unabhangig in U,
9
isomorphism
10
isomorph to each other
11
kernel
12
image
13
rank
14
defect
4.2. GEOMETRISCHE ASPEKTE 73
4. (u
1
, . . . , u
m
) sind unabhangig in U und f ist injektiv =(f(u
1
), . . . , f(u
m
)) sind in V unabhangig,
5. (u
1
, . . . , u
m
) erzeugen U =(f(u
1
), . . . , f(u
m
)) erzeugen img f,
6. (u
1
, . . . , u
m
) erzeugen U und f ist surjektiv =(f(u
1
), . . . , f(u
m
)) erzeugen V .
7. Folgende Aussagen sind aquivalent:
(a) f ist bijektiv,
(b) f bildet eine Basis (u
1
, u
2
, . . . , u
m
) von U auf eine Basis (f(u
1
), . . . , f(u
m
)) von V ab.
Beweis. 1. Wenn f injektiv ist, dann gibt es nur ein u U mit f(u) = 0, namlich u = 0. Also ist
ker f = 0.
Sei nun andererseits ker f = 0. Wenn f(u) = f(u

) ist, dann ist f(uu

) = 0, also uu

ker f =
0, also u = u

.
2. So ist Surjektivitat deniert.
3. Sei

m
j=1

j
u
j
= 0. Zu zeigen ware
j
= 0 f ur jedes j. Wir haben 0 = f(0) = f(

m
j=1

j
u
j
) =

m
j=1

j
f(u
j
). Nun sind aber die f(u
j
) linear unabhangig, also sind alle
j
= 0.
4. Sei

m
j=1

j
f(u
j
) = 0, zu zeigen ware
j
= 0 f ur jedes j. Nun ist wegen der Linearitat f(

m
j=1

j
u
j
) =
0. Weil f injektiv ist, haben wir mit 1. ker f = 0, also mu

m
j=1

j
u
j
= 0 sein. Da nun die
(u
1
, . . . , u
m
) linear unabhangig sind, ist
j
= 0 f ur jedes j.
5. Sei v img f. Dann gibt es ein u U mit f(u) = v. Weil die u
j
den Originalraum U erzeugen, gibt
es Konstanten
1
, . . . ,
m
mit u =

m
j=1

j
u
j
. Dann ist v = f(u) = f(

j

j
u
j
) =

j

j
f(u
j
). Also
ist v als Linearkombination der (f(u
1
), . . . , f(u
m
)) dargestellt.
6. Folgt direkt aus 2. und 5.
7. Wir zeigen (a) = (b): Wenn f bijektiv ist, dann auch surjektiv und injektiv. Auerdem ist
(u
1
, . . . , u
m
) eine Basis von U. Also ist wegen 4. und 6. die Familie (f(u
1
), . . . , f(u
m
)) ein linear
unabhangiges Erzeugendensystem f ur V , mithin eine Basis.
Nun zeigen wir (b) = (a): Sei (f(u
1
), . . . , f(u
m
)) eine Basis von V . Laut Satz 4.4 gibt es genau
einen Homomorphismus g Hom(V, U) mit g(f(u
j
)) = u
j
f ur jedes j. F ur diesen Homomorphismus
g ist g f = id
U
, denn f ur die Basisvektoren u
j
von U haben wir
(g f)(u
j
) = g(f(u
j
)) = u
j
.
Also stimmt g f auf den Basisvektoren mit id
U uberein, nach Satz 4.4 also uberall in U.
Als nachstes zeigen wir f g = id
V
. Auf den Basisvektoren f(u
j
) des Raumes V haben wir
(f g)(f(u
j
)) = f(g(f(u
j
))) = f(u
j
).
Also stimmt f g auf den Basisvektoren mit id
V uberein, wegen Satz 4.4 also uberall in V .
Also ist f ein Isomorphismus, also bijektiv.
Ein Teilergebnis dieses Satzes ist so wichtig, da wir es nochmal hinschreiben sollten:
Folgerung 4.15. Sei f Hom(U V ) ein injektiver Homomorphismus. Dann gilt
(u
1
, . . . , u
m
) linear unabhangig in U (f(u
1
), . . . , f(u
m
)) linear unabhangig in V.
Die Injektivitat von f ist hierbei die entscheidende Voraussetzung !
Als weitere fast triviale Folgerung ergibt sich:
Satz 4.16. 1. Die Spalten einer Matrix sind ein Erzeugendensystem fur das Bild.
2. Der Rang einer Matrix ist die Maximalzahl linear unabhangiger Spalten dieser Matrix.
74 KAPITEL 4. HOMOMORPHISMEN
Rang und Defekt einer Abbildung sind nicht unabhangig voneinander:
Satz 4.17 (Dimensionsformel). Sei f Hom(U V ). Dann ist
def f + rang f = dimU.
Fur Matrizen A K
nm
bedeutet das
def A+ rang A = m.
Beweis. Sei (u
1
, . . . , u
s
) eine Basis f ur ker f. Nach dem Basiserganzungssatz konnen wir diese Basis
von ker f zu einer Basis von ganz U erganzen: (u
1
, . . . , u
s
, u
s+1
, . . . , u
m
). Dann erzeugen die Vektoren
(f(u
1
), . . . , f(u
m
)) den Raum img f, wegen Satz 4.14, Teil 5. Weil f(u
1
) = = f(u
s
) = 0, kann man diese
Vektoren im Erzeugendensystem weglassen, und kommt zu einem Erzeugendensystem (f(u
s+1
), . . . , f(u
m
))
f ur img f.
Als nachstes wollen wir zeigen, da diese Vektoren (f(u
s+1
), . . . , f(u
m
)) linear unabhangig sind.
Sei nun also

m
j=s+1

j
f(u
j
) = 0. Dann ist f(

m
j=s+1

j
u
j
) = 0, also ist

m
j=s+1

j
u
j
ker f. Aber ker f
hatte gerade die Basis (u
1
, . . . , u
s
), und die Vektoren (u
1
, . . . , u
s
, u
s+1
, . . . , u
m
) sind linear unabhangig. Das
kann nur sein, wenn alle
j
= 0 sind, f ur j = s + 1, . . . , m.
Damit ist (f(u
s+1
), . . . , f(u
m
)) eine Basis f ur img f.
Die Dimensionsformel ergibt sich nun durch Abzahlen.
Damit konnen wir nun die Abbildungseigenschaften der einer invertierbaren Matrix zugehorigen Abbildung
beschreiben:
Satz 4.18. Seien U, V Vektorraume uber K, und sei dimU = dimV . Sei f Hom(U V ). Dann sind
die folgenden Aussagen aquivalent:
1. f ist Isomorphismus,
2. f ist injektiv,
3. f ist surjektiv.
Beweis. 2 3:
Wir haben dimker f + dimimg f = dimU = dimV . Wenn f injektiv ist, dann ist ker f = 0, also
dimker f = 0, also dimimg f = dimV , also img f = V , also ist f surjektiv. Wenn f surjektiv ist, dann ist
img f = V , also dimimg f = dimV , also mu dimker f = 0 sein, also ist ker f = 0, also ist f injektiv.
1 2, 3:
Das ist genau Denition 4.9.
Wir ubertragen die Ergebnisse dieses Satzes auf Matrizen:
Satz 4.19. Sei A K
nn
und f Hom(K
n
K
n
) die von A erzeugte lineare Abbildung. Dann sind die
folgenden Aussagen aquivalent:
1. f ist Isomorphismus,
2. A ist invertierbar,
3. rang A = n,
4. def A = 0,
5. Die Spalten von A erzeugen den K
n
,
6. Die Spalten von A sind linear unabhangig,
7. Die Spalten von A sind eine Basis des K
n
.
4.3. LINEARE GLEICHUNGEN 75
Beweis. 1 2 :
Siehe Satz 4.10.
1 3 4 :
Die Aussage rang A = n ist gleichbedeutend mit img A = K
n
, also mit der Surjektivitat von f, gema
Satz 4.14. Und def A = 0 bedeutet ker A = 0, also die Injektivitat von f, ebenfalls wegen Satz 4.14.
Die

Aquivalenz von 1, 3 und 4 folgt nun aus Satz 4.18.
1 7 :
Die Spalten sind gerade die Bilder (f(e
1
), . . . , f(e
m
)) der Standardbasisvektoren (e
1
, . . . , e
m
). Die Behaup-
tung folgt aus Satz 4.14, Teil 7.
5 =7 :
Nach Satz 2.14 enthalt das System der n Spaltenvektoren eine Basis des K
n
. Wegen dimK
n
= n mu jede
Basis aber aus genau n Vektoren bestehen, also ist das System der n Spaltenvektoren schon eine Basis.
7 =5 und 7 =6 :
So sind Basen deniert !
6 =7 :
Nach dem Basiserganzungssatz kann man das linear unabhangige System der n Spaltenvektoren zu einer
Basis des K
n
erganzen. Diese hat aber genau n Vektoren, also m ussen die n Spaltenvektoren von A schon
eine Basis sein.
Folgerung 4.20. Sei A K
nm
und C K
nn
, wobei C invertierbar sei.
Dann haben A und CA denselben Rang.
Beweis. Das folgt aus Folgerung 4.15: wenn die Matrix A einige linear unabhangige Spalten enthalt, dann
sind die entsprechenden Spalten von CA auch linear unabhangig, und umgekehrt. Die Maximalzahl linear
unabhangiger Spalten ist aber gerade gleich dem Rang.
Satz 4.21. Sei A K
nm
, und sei

A eine GauJordanTransformierte von A. Das heit,

A ergibt
sich aus A durch Zeilenumformungen und hat Zeilenstufenform.
Dann haben A und

A denselben Rang, und A ist invertierbar genau dann, wenn n = m und

A die Gestalt
einer oberen Dreiecksmatrix hat.
Beweis. Wir erhalten

A als Produkt LA, wobei L eine regulare Matrix ist, die wir als Produkt von Elimi-
nationsmatrizen und Permutationsmatrizen schreiben konnen. Dann haben

A und A denselben Rang.
Wir wissen: wenn

A eine obere Dreiecksmatrix ist, dann konnen wir das GauJordanVerfahren wei-
terf uhren, indem wir noch nach oben ausraumen, solange bis eine Matrix

A = I
n
entsteht, also LA = I
n
.
Dann ist A invertierbar.
Andererseits, wenn nun

A auf Zeilenstufenform gebracht wurde, aber keine Dreiecksgestalt hat, dann ist
die unterste Zeile von

A eine Nullzeile. Die Spalten von

A spannen dann nicht den K
n
auf, also ist

A nicht
invertierbar. Dann ist rang

A < n, also auch rang A < n, also ist A nicht invertierbar.
12 Fragen: Sei U = R
7
und V = R
8
. Wieviele injektive (surjektive) (bijektive) (identische) Abbildungen
gibt es von U nach V ? Von V nach U ? Von V nach V ? (Alle Abbildungen seien linear.)
4.3 Lineare Gleichungen
Es geht um Gleichungen f(u) = v, wobei f Hom(U V ) eine lineare Abbildung zwischen zwei Vek-
torraumen U und V ist. Dieses f und ein Vektor v V sind gegeben, und u U ist gesucht. Folgende
Fragen ergeben sich naheliegenderweise:
Gibt es uberhaupt Losungen ?
Wenn ja, wieviele sind es ?
76 KAPITEL 4. HOMOMORPHISMEN
Manchmal gibt es f ur gewisse v V eine Losung u, f ur andere v V aber keine Losung u. Welche
Bedingungen mu v erf ullen, damit es (mindestens) eine Losung gibt ?
Wie ndet man die Losungen ?
Satz 4.22. Seien U und V Vektorraume uber K, f Hom(U V ) und v V gegeben.
Wenn u
1
, u
2
U Losungen von f(u) = v sind, dann ist u
1
u
2
eine Losung von f(u) = 0.
Wenn u
1
eine Losung von f(u) = v und u
2
eine Losung von f(u) = 0 sind, dann ist u
1
+ u
2
eine
Losung von f(u) = v.
Beweis. Das sollten Sie selber konnen.
Wir erhalten die folgende Merkregel:
Die allgemeine Losung des inhomogenen Problems
=
eine spezielle Losung des inhomogenen Problems + die allgemeine Losung des homogenen Problems.
Die allgemeine Losung des homogenen Problems wird gerade beschrieben durch den Kern von f. Demnach
besitzt die Gleichung f(u) = v also Losungen in einer linearen Mannigfaltigkeit mit der Dimension def f =
dimU rang f; aber nur, wenn sie uberhaupt eine Losung besitzt.
Satz 4.23. Seien U und V Vektorraume uber K, und zwar endlichdimensional. Sei f Hom(U V ).
Dann gilt:
1. Die Gleichung f(u) = v hat fur jedes v V mindestens eine Losung u U rang f = dimV .
2. Die Gleichung f(u) = v hat fur jedes v V maximal eine Losung u U rang f = dimU.
3. Die Gleichung f(u) = v hat fur jedes v V genau eine Losung u U rang f = dimU = dimV .
Beweis. 1. Trivial wegen img f = V .
2. Wenn es maximal eine Losung gibt, dann ist ker f = 0, also 0 = def f = dimU rang f und
umgekehrt.
3. Folgt sofort aus 1. und 2.
Wenn wir diesen Satz auf den speziellen Fall von Matrizen beziehen, erhalten wir:
Satz 4.24. Sei A K
nm
. Dann gilt fur Gleichungssysteme Ax = y mit gegebenem y K
n
und gesuchtem
x K
m
:
1. Das Gleichungssystem Ax = y ist losbar y img A rang A = rang(A[y), wobei (A[y)
die Matrix bezeichnet, die durch Nebeneinanderstellen von A und y entsteht. Es gibt dann def A =
mrang A linear unabhangige Losungen fur das homogene Problem Ax = 0.
2. Ax = y hat fur jedes y K
n
mindestens eine Losung x K
m
rang A = n die Spalten von
A erzeugen den K
n
.
3. Ax = y hat fur jedes y K
n
maximal eine Losung x K
m
rang A = m die Spalten von A
sind linear unabhangig.
4. Ax = y hat fur jedes y K
n
genau eine Losung x K
m
rang A = m = n die Spalten von
A sind eine Basis des K
n
.
Beweis. 1. Hinschauen. Die Spalten von A spannen img A auf.
2. Siehe 4.23, Teil 1.
3. Siehe 4.23, Teil 2. Der Rang von A ist die Anzahl der linear unabhangigen Spalten von A, aber A hat
genau m Spalten.
4. Folgt aus 2. und 3.
4.4. BASISTRANSFORMATIONEN 77
4.4 Basistransformationen
Problem: Gegeben sei U = K
m
mit 2 Basen: (b
1
, . . . , b
m
) und (b

1
, . . . , b

m
). F ur einen Vektor u U haben
wir dann zwei Darstellungen:
u =
m

j=1

j
b
j
=
m

j=1

j
b

j
,
mit Koezienten
j
,

j
K. Wir fassen diese Koezienten zu Spaltenvektoren zusammen:
x =
_
_
_

1
.
.
.

m
_
_
_
B
, x

=
_
_
_

1
.
.
.

m
_
_
_
B

.
Wie kann man x

aus x bestimmen ?
Losung: Weil die Basisvektoren aus dem K
m
stammen, kann man sie als Spaltenvektoren interpretieren.
Wenn man diese Spaltenvektoren nebeneinanderstellt, erhalt man quadratische Matrizen B und B

. Diese
sind regular, weil die Spaltenvektoren linear unabhangig sind. Dann lat sich die Darstellungsformel f ur u
gerade schreiben als
u = Bx = B

,
woraus wir sofort
x

= (B

)
1
Bx
erhalten.
Problem: Seien U = K
m
, V = K
n
und f Hom(U V ). Bezogen auf die Standardbasen (e
1
, . . . , e
m
)
und (e
1
, . . . , e
n
) von U bzw. V wird die lineare Abbildung f durch eine Matrix A K
nm
dargestellt:
f(u) = Au, wenn u als Spaltenvektor interpretiert wird.
Wir geben uns noch jeweils eine weitere Basis von U bzw. V vor: (b
U
1
, . . . , b
U
m
) f ur U und (b
V
1
, . . . , b
V
n
)
f ur V . Wenn wir diese Spaltenvektoren in der angegebenen Reihenfolge nebeneinanderstellen, erhalten wir
regulare Matrizen B
U
K
mm
und B
V
K
nn
. Sei nun v = f(u), also v = Au. Die Vektoren u und v
konnen wir auch in den neuen Basen darstellen:
u =
m

j=1

U
j
b
U
j
, v =
n

j=1

V
j
b
V
j
,
wobei
U
j
,
V
j
K. Diese Koezienten konnen wir wieder in Spaltenform anordnen:
x
U
=
_
_
_

U
1
.
.
.

U
m
_
_
_
BU
, x
V
=
_
_
_

V
1
.
.
.

V
n
_
_
_
BV
.
Wie sieht nun die Abbildungsmatrix bez uglich der neuen Basen aus ? Gesucht ist also eine Matrix

A
K
nm
mit
x
V
=

Ax
U
.
Und diese Beziehung soll nat urlich f ur jeden Koezientenvektor x
U
gelten, wenn x
V
den Koezientenvektor
des zugehorigen Bildvektors v darstellt.
Losung: Die Darstellung der Vektoren u und v als Linearkombinationen der Basisvektoren b
U
j
und b
V
j
kann
man auch schreiben als
u = B
U
x
U
, v = B
V
x
V
.
Zusammen mit v = Au erhalten wir damit
x
V
= B
1
V
v = B
1
V
Au = (B
1
V
AB
U
)x
U
=

Ax
U
.
Wir fassen die Ergebnisse zusammen:
78 KAPITEL 4. HOMOMORPHISMEN
Satz 4.25. Mit den obigen Bezeichnungen ist

A = B
1
V
AB
U
. Die Bilder der neuen Basisvektoren b
U
j
werden gegeben durch
f(b
U
j
) = Ab
U
j
=
n

k=1
a
kj
b
V
k
,
wobei a
kj
gerade die Eintrage der Matrix

A sind.
Beweis. Es ist lediglich der zweite Teil noch oen. Nun ist aber
f(b
U
j
) = Ab
U
j
= A (jte Spalte von B
U
) = jte Spalte von(AB
U
) = (AB
U
)e
j
= B
V
B
1
V
AB
U
e
j
= B
V

Ae
j
= B
V
(jte Spalte von

A)
=
n

k=1
a
kj
b
V
k
.
Im wichtigen Sonderfall U = V = K
n
haben wir die Freiheit, B
U
und B
V
unabhangig voneinander zu
wahlen, normalerweise nicht.
Denition 4.26. Zwei Matrizen A,

A K
nn
heien ahnlich
15
, wenn es eine invertierbare Matrix B
K
nn
gibt mit

A = B
1
AB.
Es stellt sich die Frage, wie man die Matrix B wahlen kann/soll, damit

A moglichst einfach oder moglichst
schon wird. Die Antwort darauf ist mit unseren jetzigen Kenntnissen noch nicht moglich und mu auf ein
spateres Kapitel vertagt werden.
Seien nun U und V wieder unabhangig voneinander, U = K
m
, V = K
n
.
Satz 4.27. 1. Zu jedem Homomorphismus f L(U V ) mit U = K
m
, V = K
n
gibt es Basen
(b
U
1
, . . . , b
U
m
), (b
V
1
, . . . , b
V
n
), bezuglich derer die Abbildung f die Matrixdarstellung

A =
_
I
r
0
0 0
_
K
nm
hat, wobei r = rang f, I
r
die r rEinheitsmatrix und 0 Nullblocke mit geeigneten Abmessungen
sind.
2. Zu jeder Matrix A K
nm
gibt es Matrizen B
U
, B
V
soda
B
1
V
AB
U
=
_
I
r
0
0 0
_
K
nm
mit r = rang A.
Beweis. Wir beweisen nur den ersten Teil, der zweite lat sich auf ahnliche Weise zeigen.
Wir haben wegen der Dimensionsformel
dimimg f + dimker f = dimU = m,
wobei dimimg f = rang f = r. Analog zum Beweis der Dimensionsformel wahlen wir Basisvektoren
b
U
1
, . . . , b
U
r
, b
U
r+1
, . . . , b
U
m
U
mit
img f = span(f(b
U
1
), . . . , f(b
U
r
)) V,
ker f = span(b
U
r+1
, . . . , b
U
m
) U.
15
similar
4.5. DIFFERENTIALGLEICHUNGEN 79
Wir setzen nun b
V
1
= f(b
U
1
), . . . , b
V
r
= f(b
U
r
), und wahlen b
V
r+1
,. . . , b
V
n
V so, da eine Basis (b
V
1
, . . . , b
V
n
)
f ur V entsteht. Die Matrizen B
U
und B
V
entstehen in gewohnter Weise durch Nebeneinanderstellen der neu-
gewonnenen Basisvektoren. Dann ist

A = B
1
V
AB
U
. Wir bestimmen nun

A; dabei benutzen wir Satz 4.25:
f(b
U
j
) =
n

k=1
a
kj
b
V
k
.
Wir haben
f(b
U
j
) =
_
b
V
j
: 1 j r,
0 : r + 1 j m.
Der Vergleich dieser beiden Darstellungen beendet den Beweis.
Die Spalten der Abbildungsmatrix sind die Koordinaten der Bilder der Basisvektoren !
Satz 4.28. Sei A K
nm
, B
U
K
mm
, B
V
K
nn
, wobei B
U
und B
V
invertierbar seien. Dann haben
A und

A = B
1
V
AB
U
denselben Rang.
Beweis. Wir denieren eine lineare Abbildung f Hom(K
m
K
n
) durch f(u) = Au. Dann ist rang A =
rang f = dimimg f. Nun beschreiben A und

A die gleiche Abbildung, lediglich in verschiedenen Basen. Da
der Rang einer Matrix sich interpretieren lat als Dimension des Bildraumes, m ussen die Range von A und

A gleich sein.
Der Rang einer Matrix ist gleich der Anzahl der linear unabhangigen Spalten, man redet auch vom Spal-
tenrang.
Denition 4.29. Der Zeilenrang einer Matrix ist gleich der Anzahl der linear unabhangigen Zeilen.
Satz 4.30. Fur jede Matrix stimmen Zeilenrang und Spaltenrang uberein.
Beweis. F ur den Zeilenrang bzw. Spaltenrang einer Matrix A schreiben wir Zeilenrang(A) bzw.
Spaltenrang(A). Sei A die fragliche Matrix mit Rang (Spaltenrang) r. Wir wahlen auf ublichem Wege
Matrizen B
U
und B
V
so, da
B
1
V
AB
U
=

A =
_
I
r
0
0 0
_
K
nm
.
Nun gilt f ur die beiden Rangtypen, durch zweimaliges Anwenden von Satz 4.28:
r = Spaltenrang(A) = Spaltenrang(

A) = Zeilenrang(

A) = Spaltenrang((

A)

)
= Spaltenrang(B

U
A

(B
1
V
)

) = Spaltenrang(B

U
A

(B

V
)
1
)
= Spaltenrang(A

)
= Zeilenrang(A).
4.5 Dierentialgleichungen
Ziel dieses einf uhrenden Abschnittes soll es sein, die Losungsmenge von Dierentialgleichungen mithilfe der
Homomorphismentheorie zu beschreiben. Dabei orientieren wir uns an 2 typischen Beispielen:
Beispiel 4.31. Eine Zerfalls/Wachstumsgleichung mit Zufuhr und Anfangsbedingung wird gegeben durch
u

(t) +u(t) = f(t), u(0) = u


(0)
, R.
Eine Schwingungsgleichung mit Dampfung und Anregung und 2 Anfangsbedingungen ist zum Beispiel
u

(t) +ku

(t) +
2
u(t) = f(t), u(0) = u
(0)
, u

(0) = u
(1)
, k, > 0.
80 KAPITEL 4. HOMOMORPHISMEN
Denition 4.32. Sei U = C
1
(R R
n
) und V = C(R R
n
). Hierbei ist y U genau dann, wenn
y = y(t) = (y
1
(t), . . . , y
n
(t))

und jedes y
j
= y
j
(t) stetig dierenzierbar ist. Analog ist y V genau dann,
wenn y = y(t) = (y
1
(t), . . . , y
n
(t))

und jedes y
j
= y
j
(t) stetig.
Sei A K
nn
eine Matrix. Eine Abbildung
L: U V,
L: y Ly =
d
dt
y Ay
heit MatrixDierentialoperator.
Wenn b V , dann heit
Ly = b
also y

(t) = Ay(t)+b(t) fur jedes t R lineares Dierentialgleichungssystem mit konstanten Koezi-


enten. Falls b 0 (also b(t) = 0 fur jedes t R), dann reden wir von einem homogenen System, ansonsten
von einem inhomogenen System.
Frage: Was sind dimU und dimV ?
Im Falle der Wachstumsgleichung haben wir n = 1, U = C
1
(R R), V = C(R R), y = y(t) = (u(t)),
A = (); und die Anfangsbedingung u(0) = u
(0)
wird zu y(0) = y
0
= (u
(0)
).
Im Falle der Schwingungsgleichung haben wir es mit einer Dierentialgleichung zweiter Ordnung zu tun,
soda wir zu einem Kunstgri greifen: Wir setzen
y = y(t) =
_
u(t)
u

(t)
_
,
also n = 2, und stellen fest, da
y

(t) =
_
u

(t)
u

(t)
_
=
_
0 1

2
k
_
y(t) +
_
0
f(t)
_
.
Wir setzen also
A =
_
0 1

2
k
_
, b = b(t) =
_
0
f(t)
_
und bekommen (
d
dt
A)y = b. Die beiden Anfangsbedingungen u(0) = u
(0)
, u

(0) = u
(1)
werden zu
y(0) = y
0
=
_
y
0,1
y
0,2
_
=
_
u
(0)
u
(1)
_
.
Im allgemeinen Fall haben wir es mit einem Anfangswertproblem
Ly = y

Ay = b, y(0) = y
0
(4.3)
zu tun, wobei A, b, y
0
gegeben sind und y gesucht.
Satz 4.33. Wenn y

eine spezielle Losung des inhomogenen Problems Ly = b ist, dann liegen alle Losungen
zu Ly = b in der Menge
y

+ ker L := y U : y y

ker L.
Beweis. Siehe Abschnitt 4.3.
Satz 4.34. Es ist dimker L = n. Die Anfangswertabbildung, die einen Funktionenvektor auf seine Werte
zur Zeit 0 abbildet,
AWA: ker L R
n
,
AWA: y y(0)
ist bijektiv.
4.5. DIFFERENTIALGLEICHUNGEN 81
Der Beweis dazu verteilt sich auf mehrere Schritte. Leider konnen wir ihn mit unseren Kenntnissen nicht in
der hier behaupteten Allgemeinheit f uhren, soda wir uns stattdessen beim Beweis der Surjektivitat auf die
Schwingungsgleichung beschranken und den Beweis des allgemeinen Falls auf das dritte Semester vertagen.
Auf jeden Fall erhalten wir aus diesem Satz ein allgemeines Verfahren zur Bestimmung der Losung des
Anfangswertproblems (4.3):
1. Finde eine spezielle Losung y

= y

(t) zu Ly = b, zum Beispiel durch geschicktes Raten. Die An-


fangswerte f ur t = 0 sind im Moment egal.
2. Bestimme ker L.
3. Wahle aus ker L ein Element y
h
= y
h
(t) mit y

(0) +y
h
(0) = y
0
.
4. Setze y(t) = y

(t) +y
h
(t).
Aus Satz 4.34 ergibt sich, da es immer eine Losung y gibt, und da die so konstruierte Losung tatsachlich
die einzige Losung ist.
F ur den Beweis der Injektivitat der Anfangswertabbildung brauchen wir ein Hilfsresultat:
Lemma 4.35. Sei y C
1
(R R
n
) Losung zu (
d
dt
A)y = 0 mit der Anfangsbedingung y(t
0
) = 0. Dann
ist y(t) = 0 fur jedes t R.
Beweis. Wir haben y = y(t) = (y
1
, . . . , y
n
)

. F ur diesen Vektor denieren wir eine Norm,


|y(t)| = [y
1
(t)[ + +[y
n
(t)[.
Analog denieren wir eine Norm f ur die Matrix A:
|A| = max
i,j=1,...,n
[a
ij
[.
Es gilt y

(t) = Ay(t), also


y

j
(t) =
n

k=1
a
jk
y
k
(t).
Sei t > t
0
. Wir integrieren die letzte Gleichung von t
0
bis t:
y
j
(t) y
j
(t
0
) =
_
t
t0
n

k=1
a
jk
y
k
() d.
Daraus bekommen wir nun eine Abschatzung f ur die Norm |y(t)|:
[y
j
(t)[ =

_
t
t0
n

k=1
a
jk
y
k
() d

_
t
t0

k=1
a
jk
y
k
()

d
_
t
t0
n

k=1
[a
jk
y
k
()[ d
|A|
_
t
t0
|y()| d,
|y(t)| n|A|
_
t
t0
|y()| d.
Wir denieren eine Zahl := n|A| und eine Funktion g = g(t) :=
_
t
t0
|y()| d. Dann konnen wir, wegen
des Hauptsatzes der Dierential und Integralrechnung, die letzte Ungleichung schreiben als
g

(t) g(t), t t
0
.
Ein freundlicher Geist erscheint uns im Traum und gibt uns den Hinweis, die Ableitung der Funktion
t g(t)e
t
zu untersuchen:
_
g(t)e
t
_

= g

(t)e
t
+g(t) ()e
t
g(t)e
t
g(t)e
t
= 0 0.
82 KAPITEL 4. HOMOMORPHISMEN
Also ist diese Funktion schwach monoton fallend, und somit ist, f ur t t
0
,
g(t)e
t
g(t
0
)e
t0
.
Nun ist allerdings g(t
0
) = 0, also auch g(t) 0. Weiterhin zeigt uns die Denition der Funktion g, da g
gar nicht negativ werden kann. Damit ist also g(t) = 0 f ur jedes t t
0
.
Das bedeutet, da die Norm |y(t)| = 0 sein mu, f ur t aus dem Intervall [t
0
, ), und somit y 0 rechts
von t
0
. Analog argumentiert man links von t
0
.
Damit ist die Injektivitat der Anfangswertabbildung fast schon gezeigt:
Satz 4.36. Die Abbildung
AWA: ker L R
n
,
AWA: y y(0)
ist injektiv und es ist dimker L n.
Beweis. Es seien y und y aus ker L mit y(0) = y(0). Sei z = y y. Dann ist z ker L und z(0) = 0. Nach
Lemma 4.35 haben wir z(t) = 0 f ur jedes t R, also y = y. Also ist die Anfangswertabbildung injektiv.
Die Dimensionsaussage folgt aus Satz 4.14, Teil 4, denn dimR
n
= n.
Unsere jetzigen Kenntnisse reichen nicht aus, um die Surjektivitat der Anfangswertabbildung im allgemeinen
Fall zu zeigen. Wir beschranken uns stattdessen auf den Spezialfall der Schwingungsgleichung bzw. des zur
Schwingungsgleichung aquivalenten Systems.
Satz 4.37. Sei U = C
1
(R R
2
), V = C(R R) und
A =
_
0 1

2
k
_
.
Dann ist die Abbildung
AWA: ker
_
d
dt
A
_
R
2
,
AWA: y y(0)
surjektiv.
Beweis. Wir zeigen dimker L = 2. Dann ist die Anfangswertabbildung eine injektive Abbildung von einem
zweidimensionalen Raum in einen zweidimensionalen Raum, nach Satz 4.18 also auch surjektiv.
Wir haben y = y(t) = (y
1
(t), y
2
(t))

und setzen u(t) = y


1
(t). Dann erf ullt u die Dierentialgleichung
u

(t) +ku

(t) +
2
u(t) = 0,
falls y ker L. Im Rest des Beweises konstruieren wir zwei linear unabhangige Losungen u
1
, u
2
C
2
(R; R).
Daraus bauen wir zwei Vektoren
_
u
1
u

1
_
,
_
u
2
u

2
_
,
die linear unabhangig sind und im Kern des Operators L liegen. Dann ist die Dimension von ker L also
mindestens gleich 2, nach Satz 4.36 also genau gleich 2.
Wir machen f ur die Funktion u den Ansatz
u(t) = e
t
, t R,
mit wahlbarem Parameter . Wenn wir diesen Ansatz in die homogene Gleichung einsetzen, bekommen wir
e
t
_

2
+k +
2
_
= 0.
4.6. AUSBLICK: LINEARE ABBILDUNGEN IN DER PHYSIK 83
Weil die Exponentialfunktion nie Null wird, m ute
2
+k +
2
= 0 sein, also
=
1,2
=
k
2

_
k
2
4

2
.
Fall 1:
k
2
4

2
> 0
Dann sind
1
,
2
R und verschieden, also sind die Funktionen e
1t
und e
2t
linear unabhangig. Wir haben
also zwei linear unabhangige Losungen u der homogenen Schwingungsgleichung gefunden.
Fall 2:
k
2
4

2
= 0
Dann ist
1
=
2
und die beiden Funktionen e
1t
und e
2t
sind linear abhangig.
Man rechnet aber schnell nach, da eine weitere Losung gegeben wird durch te
1t
. Damit sind erneut zwei
linear unabhangige Losungen der Schwingungsgleichung gefunden.
Fall 3:
k
2
4

2
< 0
In diesem Fall sind
1
und
2
nicht reell. Wir haben stattdessen

1,2
= i, =
k
2
, =

k
2
4

2

,
und dann gilt
e
1t
= e
t
(cos(t) + i sin(t)), e
2t
= e
t
(cos(t) i sin(t)).
Man sieht, da zwei linear unabhangige Losungen der Schwingungsgleichung gegeben werden durch
e
t
cos(t), e
t
sin(t).
In allen drei Fallen kamen wir auf dimker L 2, und der Beweis ist damit beendet.
4.6 Ausblick: Lineare Abbildungen in der Physik
Die ublichen Dierentialoperatoren sind typische Beispiele f ur lineare Abbildungen zwischen Funktionen-
vektorraumen:
Gradient: f ur ein Skalarfeld : R
3
R ist der Gradient deniert als
=
_

x
1
,

x
2
,

x
3
_
.
Die Abbildung ist linear. Wir haben z.B.

?
Hom
_
L
2
(R
3
R) L
2
(R
3
R
3
)
_
,
dabei sollten wir aber aufpassen wegen des Denitionsbereiches von : dieser Operator kann nur auf
solche Funktionen aus dem L
2
(R
3
R) angewandt werden, f ur die tatsachlich im Bildraum
L
2
(R
3
R
3
) liegt. (Welche Funktionen das sind, wollen wir hier nicht weiter erortern. Wir deuten
lediglich diesen Aspekt durch ein Fragezeichen an.) Mit den Bezeichnungen der HelmholtzZerlegung
haben wir dann
img = L
2
pot
(R
3
R
3
).
Divergenz: f ur ein Vektorfeld u: R
3
R
3
ist die Divergenz deniert als
div u =
u
1
x
1
+
u
2
x
2
+
u
3
x
3
.
Die Abbildung u div u ist linear. Wir haben z.B.
div
?
Hom
_
L
2
(R
3
R
3
) L
2
(R
3
R)
_
,
und auch hier sollten wir aufpassen wegen des Denitionsbereiches von div. Mit den Bezeichnungen
der HelmholtzZerlegung haben wir dann
ker div = L
2
div
(R
3
R
3
).
84 KAPITEL 4. HOMOMORPHISMEN
LaplaceOperator: Dieser ist deniert als = div . Aufgrund von Satz 4.8, Teil 2, ist er dann
automatisch linear.
Lineare Dierentialoperatoren haben die wunderschone physikalische Eigenschaft, da f ur ihre Losun-
gen das Superpositionsprinzip gilt.
P und Q: Wir betrachten ein einzelnes spinloses Teilchen. Sein quantenmechanischer Zustand wird be-
schrieben durch eine Wellenfunktion = (t, x): R
t
R
3
x
C. Diese liegt (f ur jede Zeit t) im
Vektorraum L
2
(R
3
C), der ausgestattet ist mit dem Skalarprodukt , )
L
2
wie in (2.3).
Wenn ein Teilchen einen Spin hat (mit Wert +
1
2
oder
1
2
), dann brauchen wir zwei Wellenfunk-
tionen zur Beschreibung dieses Teilchens, also haben wir = (
+
,

) (L
2
(R
3
C))
2
, und das
Skalarprodukt ist dann , ) :=
+
,
+
)
L
2
+

)
L
2
.
Bei M Teilchen (ohne Spin) nehmen wir als Vektorraum den L
2
(R
3M
C) mit naheliegendem
Skalarprodukt, und wenn diese Teilchen miteinander wechselwirken oder Spins haben konnen, dann
wird es richtig kompliziert.
Alle diese Vektorraume sind dem jeweiligen physikalischen System zugeordnet und heien Systemhil-
bertraume. Ihre Dimension ist praktisch immer gleich unendlich.
Nun schauen wir uns Megroen an, wie z.B. Ort, Impuls, Energie. Jeder solchen Megroe (Obser-
vable) entspricht eine lineare Abbildung, man sagt auch linearer Operator. Diese Operatoren bilden
den Systemhilbertraum H (bzw. einen Untervektorraum davon) in H ab (bzw. in den H H H,
denn wir leben ja in einer dreidimensionalen Welt).
Ortsoperator Q: Es ist Q: Q, wobei (Q)(x) = x(x). Wegen x = (x
1
, x
2
, x
3
)

R
3
zerlegen wir Q = (Q
1
, Q
2
, Q
3
) mit (Q
j
)(x) = x
j
(x).
Impulsoperator P: Es ist P : P, wobei
(P)(x) =

i
(x),
und =
h
2
ist das PlanckWirkungsquantum, mit h = 6.6260755 10
34
Js. Wir zerlegen analog
zu Q auch P als P = (P
1
, P
2
, P
3
).
Operator zur potentiellen Energie: Sei V = V (x) ein Potential (f ur das Wasserstoatom z.B.
das CoulombPotential), dann gehort dazu ein Multiplikationsoperator M
V
: M
V
, wobei
(M
V
)(x) = V (x)(x).
Operator zur Gesamtenergie: Wir ersetzen E durch i

t
.
Die Energiegleichung E = E
kin
+E
pot
=
p
2
2m
+V wird dann zu
i

t
(t, x) =

2
2m
(t, x) +V (x)(t, x),
was die ber uhmte Schrodingergleichung ist.
Die Wellenfunktion ist als solche metechnisch nicht aundbar. Messen kann man nur die ublichen
Groen f ur ein Teilchen: Aufenthaltsort, Impuls, Energie, Drehimpuls usw., und Quantenmechanisch
sind diese Mewerte dann Eigenwerte der entsprechenden Operatoren. F ur den Ortsoperator Q
1
ware ein solcher Eigenwert also eine Zahl x
1
R mit Q
1
= x
1
. Diese Eigenwerte zu Operatoren
entsprechen genau den Eigenwerten zu selbstadjungierten Matrizen, wie wir sie im zweiten Semester
behandeln werden.
Zum Abschlu erinnern wir daran, da die Matrizenmultiplikation nicht kommutativ ist. Etwas ahn-
liches beobachten wir auch hier: die Operatoren P und Q vertauschen nicht miteinander, denn es ist
P
j
Q
j
,= Q
j
P
j
, f ur j = 1, 2, 3. Die physikalische Konsequenz davon ist die Unscharfenrelation
von Heisenberg, die besagt, da man f ur ein Teilchen seinen Aufenthaltsort und seinen Impuls nicht
gleichzeitig beliebig genau messen kann.
Wir verlassen den Zoo der Dierentialoperatoren und schauen uns einige physikalische Groen an:
Warmeleitungstensor: Wir haben ein unbewegliches Medium, in dem Warme stromen kann, z.B. einen
Festkorper (aber kein Gas oder Fluid). Die Temperatur am Ort x nennen wir T(x), was ein skalares
Feld ergibt. Der Gradient davon, also T(x), ist ein Vektor, der am Punkt x angeheftet ist und in
4.6. AUSBLICK: LINEARE ABBILDUNGEN IN DER PHYSIK 85
Richtung des steilsten Temperaturanstiegs zeigt. Dieser Temperaturunterschied f uhrt normalerweise
zu einem Warmeu, der durch ein Vektorfeld beschrieben wird, das wir j nennen. Im Allgemeinen
gilt dann
j = T,
wobei meist eine Zahl ist, die die Warmeleitfahigkeit des Stoes beschreibt. Es ist aber auch moglich,
da der Sto in unterschiedlichen Richtungen die Warme unterschiedlich gut leitet. Zum Beispiel
ist es denkbar, da Holz die Warme besser parallel zur Faser leitet als quer dazu. Oder vielleicht
liegt ein Kristall vor, bei dem das Verhalten entlang der verschiedenen Achsen unterschiedlich ist.
Dann brauchen j und T nicht mehr parallel zueinander sein, und ist eine Matrix, die auch
Warmeleitfahigkeitstensor genannt wird. Wir stellen uns vor, da dieser Tensor die

Ursache T
auf die

Wirkung j abbildet. Der isotrope Fall (da alle Richtungen gleichberechtigt sind) ist mit
enthalten, wenn wir f ur ein Vielfaches der Einheitsmatrix erlauben.
Verzerrungstensor: Ein Festkorper wird irgendwie belastet und verformt sich ein wenig. Das kann man
sich so vorstellen, da das Teilchen, was im Ruhezustand an der Position x war, durch die Verformung
gewandert ist an die Stelle x + u(x). Der Vektor u(x) heit Verschiebungsvektor; wir stellen ihn uns
als kurz vor. Bei einer Verschiebung des gesamten Korpers ist u konstant, was uns nicht interessiert.
Bei einer Drehung des gesamten Korpers ist (nach einer geeigneten Wahl des Koordinatensystems)
u(x) = Ax, wobei A eine Drehmatrix aus der Gruppe SO(3) ist. Das interessiert uns auch nicht, denn
wir wollen nur die Verzerrungen beschreiben, weshalb wir voraussetzen, da unser Korper solche
Bewegungen nicht ausf uhrt. (Das typische Beispiel ist ein Stab, an dessen beiden Enden gezogen
wird, soda er langer wird, gleichzeitig aber d unner.) Unter dieser Voraussetzung bekommen wir,
da ein kurzer Verbindungsvektor z zweier Punkte abgebildet wird auf einen Vektor z, wobei der
sogenannte Verzerrungstensor ist, der den alten Verbindungsvektor vor der Deformation zum neuen
Verbindungsvektor nach der Deformation sendet.
Spannungstensor: Wir haben einen verformten Festkorper und wahlen in seinem Innern ein kleines
Flachenst uck, und auf einer Seite davon denken wir uns das Material gedanklich entfernt. Dieses
entfernte Material kann auf das ubrige Material eine Kraft aus uben, die uber das kleine Flachenst uck
vermittelt wird. Diese Kraft kann senkrecht zur Flache dr ucken (Druckspannung), oder senkrecht
zur Flache ziehen (Zugspannung) oder tangential zur Flache schieben (Schubspannung), oder alles
vermischt bewirken. Der Spannungstensor ist derjenige Tensor (also diejenige Matrix), der den
Auennormalenvektor des kleinen Flachenst ucks auf den Kraftvektor abbildet.
Elastizitatstensor: Wir stellen uns vor, da zwischen Verzerrung und Spannung ein linearer Zusammen-
hang besteht, der dann wie folgt aussieht:
= C.
Hierbei sind und die obigen Tensoren zweiter Stufe mit jeweils 3 3 = 9 Eintragen, also ist C ein
Tensor vierter Stufe mit 9 9 = 81 Eintragen, der Elastizitatstensor genannt wird. Aus Symmetrie-
gr unden sind viele von diesen Eintragen gleich, soda nur 21 Materialkonstanten ubrigbleiben. Und
f ur einen isotropen Festkorper sind es nur zwei Parameter, und es entsteht:
C
ijkl
= K
ij

kl
+G
_

ik

jl
+
il

jk

2
3

ij

kl
_
.
Wir nennen K den Kompressionsmodul und G den Schermodul.
Wenn dieser Festkorper jetzt beginnt zu schwingen, dann bekommen wir die Dierentialgleichung f ur
die Verschiebungsvektorfunktion u = u(t, x):

2
u
t
2
= Gu +
_
K +
G
3
_
div u,
wobei die Materialdichte bezeichnet.
Knobelaufgabe: Man zerlege mittels HelmholtzProjektion das Verschiebungsvektorfeld u in einen lon-
gitudinalen und einen transversalen Anteil. Man beobachte, wie diese Zerlegung die obige komplizierte
Dierentialgleichung erheblich vereinfacht. Man errate die Ausbreitungsgeschwindigkeiten der beiden Wel-
lentypen.
86 KAPITEL 4. HOMOMORPHISMEN
4.7 Ausblick: Vektorraume in der Physik 2
Sei U ein Vektorraum uber dem Korper K. Die Menge aller linearen Abbildungen von U in den Vektorraum
K
1
heit Dualraum von U. Dieser Dualraum ist seinerseits wiederum ein Vektorraum uber dem Korper K.
Man stelle sich vor, da ein Element des Dualraumes nichts anderes tut, als auf Vektoren aus U zu warten,
sie aufzufressen und Zahlen daraus zu machen.
Als Beispiel f ur U betrachten wir den R
3
, dann ist K = R. Die Elemente von U nennen wir x = (x
1
, x
2
, x
3
)

als Spaltenvektoren. Wir stellen uns diese Vektoren als Ortsvektoren vor, mit Maeinheit Meter. Der Dual-
raum dazu besteht aus Zeilenvektoren k = (k
1
, k
2
, k
3
) mit Maeinheit
1
Meter
. Jedes solche k R
3
k
erzeugt
eine Abbildung von R
3
x
in den einheitenlosen R gema kx = k
1
x
1
+ k
2
x
2
+ k
3
x
3
. Diese Vektoren k nennt
man gelegentlich Wellenzahlvektoren.
Als typisches Beispiel denken wir an einen triklinen Kristall. Dieser hat 3 Achsen, deren Winkel zueinander
keine rechten Winkel sind, und die charakteristischen Kantenlangen sind unterschiedlich lang. Auf diesem
Wege bekommen wir eine Gitterstruktur, und an jedem Gitterknotenpunkt sitzt eine Elementarzelle. Wir
f uhren ein Koordinatensystem ein, wobei die Basisvektoren entlang der Gitterlinien zeigen. Die Basisvek-
torenlange ist genau gleich dem Abstand zweier benachbarter Gitterpunkte entlang einer Gitterlinie.
Wir bekommen auf diesem Wege drei Basisvektoren b
1
, b
2
, b
3
, die keine ONB des R
3
bilden. Jeder Vektor x
kann dann geschrieben werden als x =
1
b
1
+
2
b
2
+
3
b
3
(hierbei hat es sich eingeb urgert, die Indizes an die
Koordinaten oben zu schreiben, nicht unten). Wenn wir noch einen weiteren Vektor y =
1
b
1
+
2
b
2
+
3
b
3
haben und uns f ur das Skalarprodukt x y interessieren, dann ist dieses leider nicht gleich
1

1
+
2

2
+
3

3
.
Stattdessen entstehen weitere

Argersummanden aus gemischten Produkten, eben weil keine ONB vorliegt.
Als Ausweg betrachten wir eine weitere Basis (b
1
, b
2
, b
3
), diesmal f ur den Dualraum, mit Indizes oben statt
unten. Wir verlangen, da f ur die Skalarprodukte mit den Elementen der alten Basis gilt:
b
j
b
k
=
j
k
, j, k = 1, 2, 3,
wobei rechts das Kroneckersymbol steht. Wenn wir jetzt y in der dualen Basis (man nennt sie auch
reziproke Basis) entwickeln, y =
1
b
1
+
2
b
2
+
2
b
2
, dann ist tatsachlich x y =
1

1
+
2

2
+
3

3
.
Die reziproke Basis erzeugt in nat urlicher Weise ein neues Gitter, das in Bezug auf das Kristallgitter das
reziproke Gitter genannt wird. F ur die Untersuchung von z.B. Gitterschwingungen spielt dieses reziproke
Gitter eine ganz wichtige Rolle.
Wir rechnen damit noch ein bichen. Als Hauptregeln halten wir dabei fest:
Punkte bezeichnen das Skalarprodukt von Vektoren,
Groen in lateinischen Buchstaben sind Vektoren (abgesehen von Indizes),
Groen in griechischen Buchstaben sind reelle Zahlen,
alle Summationen laufen von 1 bis 3 (wir verzichten auf die Summenkonvention von Einstein),
Groen mit unteren Indizes heien kovariant, mit oberen Indizes heien sie kontravariant (das ist
im allgemeinen Fall nicht ganz korrekt, in der hier vorliegenden Situation aber richtig. In Wirklich-
keit beziehen sich die Begrie

kovariant und

kontravariant darauf, nach welcher Formel sich die


betreenden Groen transformieren bei einem Basiswechsel).
Gegeben sei jetzt eine kovariante Basis (b
1
, b
2
, b
3
) f ur den R
3
, und wir suchen die dazugehorige kontravari-
ante Basis (b
1
, b
2
, b
3
). Das denierende Gleichungssystem ist eindeutig losbar, soda wir schon wissen, da
es diese kontravariante Basis tatsachlich gibt, es fehlt blo noch der Rechenweg. Wir setzen

jk
:= b
j
b
k
,
jk
:= b
j
b
k
, j, k = 1, 2, 3.
Die kovarianten Metrik-Koezienten
jk
sind bekannt, die kontravarianten Metrik-Koezienten
jk
sind
es noch nicht.
Wir basteln uns einige Vektoren als Spielzeug, namlich c
j
:=

l

jl
b
l
. Dann ist
c
j
b
k
=

jl
b
l
b
k
=

jl

k
l
=
jk
= b
j
b
k
.
4.7. AUSBLICK: VEKTORR

AUME IN DER PHYSIK 2 87


Wir haben also (c
j
b
j
) b
k
f ur jedes k, demnach mu c
j
= b
j
sein. Das bedeutet
b
j
=

jl
b
l
,
und jetzt brauchen wir die c
j
nicht mehr. Wenn es uns gelingt, die
jl
auszurechnen, dann haben wir die
gesuchte kontravariante Basis. Dazu beobachten wir, da

jl

lk
=

jl
b
l
b
k
= b
j
b
k
=
j
k
,
was nichts anderes bedeutet, als da die Matrix der
jl
und die Matrix der
jl
invers zueinander sind. Und
Matrizen invertieren konnen wir ja.
Als nachstes Projekt bestimmen wir die Komponenten eines Vektors. Sei x gegeben (die beiden Basen
nat urlich auch), und die Komponenten
j
und
j
gema x =

j

j
b
j
sowie x =

j

j
b
j
seien gesucht. Man
veriziert schnell, da die Losung gegeben wird durch folgende Formeln:

j
= x b
j
,
j
= x b
j
, j = 1, 2, 3.
Und als Schluprojekt betrachten wir Basistransformationen: sei mit (b
1
, b
2
, b
3
) eine weitere kovariante
Basis gegeben:
b
j
:=

k
j
b
k
, (4.4)
und wir wollen wissen, wie die Transformationsformeln f ur die anderen Groen sind. Die Unter- und Ober-
striche bedeuten keinerlei Konjugationen oder ahnliches, sondern sollen lediglich das Einf uhren weiterer
Buchstaben vermeiden.
Die umgekehrte Transformation ist dann
b
k
=

l
k
b
l
mit noch unbekannten
l
k
, die sich aber bestimmen lassen durch Einsetzen und Koezientenvergleich:
b
k
=

l,m

l
k

m
l
b
m
,
also mu

l
k

m
l
=
m
k
sein, und demnach sind die Matrizen der
l
k
und
l
k
invers zueinander. Dann mu
aber auch die Gleichung

l

l
k

m
l
=
m
k
gelten, denn aus AA
1
= I folgt A
1
A = I.
Nun suchen wir Formeln f ur die reziproke Basis (b
1
, b
2
, b
3
). Mit Phantasie, gest utzt durch Probieren anhand
echter Zahlen (oder durch einen Ansatz), kommt man zur Vermutung, da b
l
=

k

l
k
b
k
sein konnte. Wir
testen dies anhand folgender Rechnung:
b
j

l
k
b
k
=
_

m
j
b
m
_

l
k
b
k
_
=

m,k

m
j

l
k
b
m
b
k
=

m,k

m
j

l
k

k
m
=

m
j

l
m
=
l
j
,
also gilt tatsachlich
b
l
=

l
k
b
k
. (4.5)
F ur die Transformation von Komponenten eines Vektors x haben wir x =

l
b
l
mit

l
= x b
l
= x

l
k
b
k
,
woraus wir

l
=

l
k

k
(4.6)
88 KAPITEL 4. HOMOMORPHISMEN
bekommen. Und f ur die kovarianten Koordinaten von x haben wir x =

j

j
b
j
mit

j
= x b
j
= x

k
j
b
k
mit der Konsequenz

j
=

k
j

k
. (4.7)
Wir erkennen, da (4.4) und (4.7) sehr ahnlich aussehen: die Transformation erfolgt mittels der . Samtliche
Groen, die sich so transformieren, bezeichnet man als kovariante Tensoren.
Und wir erkennen weiterhin, da auch (4.5) und (4.6) einander sehr ahneln: die Transformation erfolgt
mittels der . Samtliche Groen, die sich nach diesem Schema transformieren bei Basiswechsel, nennt man
kontravariante Tensoren.
Das waren die Anfangsgr unde der Tensorrechnung, mehr Informationen ndet man z.B. in Klingbeil,
Tensorrechnung fur Ingenieure.
4.8 Schl usselbegrie
Denition linearer Abbildungen, Dierentialoperatoren als lineare Abbildungen,
Begrie injektiv, surjektiv, bijektiv, Isomorphismus,
Kern, Bild, Rang,
Dimensionsformel und Folgerungen daraus,
Struktur der Losungsmenge linearer Gleichungssysteme,
ahnliche Matrizen und deren Beziehung zu Basistransformationen,
Losungsalgorithmus f ur lineare gewohnliche Dierentialgleichungen mit konstanten Koezienten, an-
hand der Schwingungsdierentialgleichung.
Kapitel 5
Normierte R

aume, Reelle Zahlen,


Folgen, Reihen
5.1 Folgen im R
d
und C
d
Aus der Schule ist (so ungefahr) bekannt, was darunter zu verstehen ist, wenn man sagt, da eine Folge
(a
1
, a
2
, . . . ) reeller Zahlen gegen einen Grenzwert a

konvergiert. Wir wollen den Konvergenzbegri auf die


Raume R
d
und C
d
ubertragen; und deshalb f uhren wir in diesen Raumen eine Norm ein, um Abstande
messen zu konnen.
Denition 5.1. Im R
d
und im C
d
denieren wir die pythagoraischen Normen ||
R
d und ||
C
d mittels
|x|
R
d :=
_
x
2
1
+. . . +x
2
d
, |z|
C
d :=
_
[z
1
[
2
+. . . +[z
d
[
2
.
Im Folgenden schreiben wir immer K
d
mit K = R oder K = C.
Diese Normen besitzen die gleichen Eigenschaften wie in Satz 2.26 beschrieben.
Unter einer Folge im Raum K
d
verstehen wir einen Ausdruck der Form (a
1
, a
2
, a
3
, . . . ) =: (a
n
)
nN
mit
a
n
K
d
. Mathematisch prazise werden wir den Begri dann in Denition 5.16 festlegen.
Denition 5.2. Eine Folge (a
n
)
nN
K
d
heit konvergent mit Grenzwert a
1
, wenn
lim
n
|a
n
a

|
K
d = 0.
Das ist mathematisch deniert als:
> 0 N
0
() : n N
0
() : |a
n
a

|
K
d < .
Zu verstehen ist diese Formelzeile wie folgt:
Wir konnen den Abstand von a
n
und a

beliebig klein bekommen (|a


n
a

|
K
d < )
und zwar beliebig klein ( > 0)
wenn wir nur vorher sicherstellen, da n genugend gro (N
0
(): n N
0
()) ist.
Dabei sind alle a
n
mit n N
0
() hochstens von a

entfernt, nicht blo einige a


n
(n N
0
()).
Eine Merkregel f ur den Konvergenzbegri ist:
Ein Element a

ist Grenzwert einer Folge (a


n
)
nN
,
wenn es zu jeder Umgebung von a

ein N
0
gibt,
soda das Folgenendstuck ab N
0
in dieser Umgebung liegt.
Ein

Folgenendst uck ab N
0
sind alle Folgenglieder ab a
N0
.
1
convergent with limit a

89
90 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


Satz 5.3. Konvergente Folgen haben genau einen Grenzwert.
Beweis. Sei (a
n
)
nN
eine konvergente Folge mit 2 verschiedenen Grenzwerten a

und a

. Dann ist
> 0 N
0
() : n N
0
() : |a
n
a

|
K
d < ,
> 0 N
1
() : n N
1
() : |a
n
a

|
K
d < .
Nun wahlen wir =
1
3
|a

| > 0. Sei nun n N


0
() und n N
1
(). Dann haben wir
|a

|
K
d = |a

a
n
+a
n
a

|
K
d |a

a
n
|
K
d +|a
n
a

|
K
d < + =
2
3
|a

|
K
d ,
was nicht moglich ist.
Denition 5.4. Sei (a
n
)
nN
eine Folge von Elementen einer Menge M, und sei (k(n))
nN
eine streng
monoton wachsende Folge naturlicher Zahlen. Dann heit die Folge
(a
k(n)
)
nN
Teilfolge
2
der Folge (a
n
)
nN
.
Satz 5.5. Wenn eine Folge gegen einen Grenzwert konvergiert, dann konvergiert auch jede ihrer Teilfolgen
gegen denselben Grenzwert.
Beweis.

Ubungsaufgabe.
Satz 5.6. Seien (a
n
)
nN
und (b
n
)
nN
zwei konvergente Folgen in K
d
mit Grenzwerten a

und b

, und
seien , K. Dann konvergiert auch die Folge (a
n
+b
n
)
nN
, und zwar gegen a

+b

.
Beweis. Folgt sofort aus
|(a
n
+b
n
) (a

+b

)|
K
d |(a
n
a

)|
K
d +|(b
n
b

)|
K
d = [[ |a
n
a

|
K
d +[[ |b
n
b

|
K
d .
Warnung 5.7. Die Regel
lim
n
(a
n
+b
n
) = lim
n
a
n
+ lim
n
b
n
gilt nur dann, wenn beide Grenzwerte auf der rechten Seite existieren !
Denition 5.8. Sei M K
d
. Ein Punkt a

K
d
heit Haufungspunkt von M
3
, wenn es eine Folge
(a
n
)
nN
M a

gibt mit a

= lim
n
a
n
.
Die folgende Vereinigungsmenge heit Abschlu
4
von M:
M = M alle Haufungspunkte von M.
Beispiele:
K
d
= R und M = (0, 1],
K
d
= R
2
und M = x: |x|
K
d
< R.
Denition 5.9. Eine Menge M ist abgeschlossen
5
, wenn jeder Haufungspunkt von M in M liegt.
Beispiele: F ur K
d
= R betrachte man M = [0, 1] bzw. M = [0, 1) bzw. M = [0, ).
2
sub-sequence
3
cluster point of M
4
closure
5
closed
5.2. FOLGEN UND REIHEN IN NORMIERTEN R

AUMEN 91
Denition 5.10. Sei x
0
K
d
und R
+
. Die Menge
B

(x
0
) = x K
d
: |x x
0
|
K
d
<
heit Umgebung
6
von x
0
K
d
oder auch Ball um x
0
.
Denition 5.11. Sei M K
d
eine Menge. Ein Punkt x
0
K
d
heit innerer Punkt
7
von M, wenn
es eine Umgebung B

(x
0
) M gibt. Ein Punkt x
0
K
d
heit Randpunkt
8
von M, wenn in jeder
Umgebung B

(x
0
) ein Punkt in M und ein Punkt in K
d
M liegen. Die Menge aller Randpunkte wird mit
M bezeichnet.
Denition 5.12. Eine Menge M K
d
ist oen
9
, wenn jeder Punkt von M ein innerer Punkt von M ist.
Satz 5.13. Eine Menge M ist abgeschlossen genau dann, wenn M M.
Eine Menge M K
d
ist oen genau dann, wenn K
d
M abgeschlossen ist.
Beweis. Das schaen Sie selbst.
Man sagt auch umgangssprachlich:
Bei einer abgeschlossenen Menge gehort der Rand dazu.
Bei einer oenen Menge gehort der Rand nicht dazu.
Als Sonderfalle haben wir M = und M = K
d
. Diese Mengen sind gleichzeitig oen und abgeschlossen.
Es gibt auch Mengen in R, die weder oen noch abgeschlossen sind, z.B. M = (0, 1].
Denition 5.14. Eine Menge M K
d
heit beschrankt
10
, wenn es eine Konstante C R gibt, soda
|x|
K
d C fur jedes x M gilt. Also
C R : x M : |x|
K
d C.
Das bedeutet anschaulich, da jede beschrankte Menge in einer passend gro gewahlten Kugel untergebracht
werden kann.
Frage: Sei M = Q R
1
die Menge der rationalen Zahlen im Vektorraum R
1
. Was sind die Randpunkte
von M ? die Haufungspunkte ? die inneren Punkte ?
5.2 Folgen und Reihen in normierten Raumen
Das charakteristische Merkmal der Vektorraume R
d
und C
d
ist, da sie endlichdimensional sind. In den
Betrachtungen des vorigen Abschnitts haben wir aber diese Endlichdimensionalitat nirgendwo benutzt.
Deshalb werden wir jetzt allgemeinere Vektorraume verwenden, die auch unendlichdimensional sein konnen.
Dabei lassen wir uns von den Anwendungen in der Physik leiten, denn der f ur die Quantenmechanik hochst
wichtige Vektorraum L
2
(R
3
C) ist ja unendlichdimensional.
Um Abstande in Vektorraumen messen zu konnen, ist es hilfreich, eine Norm zu haben, was uns dann zum
Konzept der normierten Raume f uhren wird. Insbesondere betrachten wir folgende normierten Raume:
R
d
, C
d
, K
pq
, C
k
(R R
d
), . . . .
Da ab jetzt U ein beliebiger Vektorraum sein wird, uber den nichts bekannt ist (abgesehen von den Ei-
genschaften, die in der Denition von abstrakten Vektorraumen gefordert werden), konnen wir auch den
Begri einer Norm nur abstrakt denieren:
Denition 5.15. Sei U ein Vektorraum uber einem Korper K, K = R oder K = C. Eine Abbildung
|| : U R,
|| : u |u|
heit Norm von U, wenn gilt:
6
neighbourhood
7
inner point
8
boundary point
9
open
10
bounded
92 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


|u| 0 fur jedes u U; und |u| = 0 genau dann, wenn u = 0,
|u| = [[ |u|, fur jedes u U und jedes K,
|u +v| |u| +|v| fur jegliche u, v U.
Das Paar (U, ||) heit normierter Raum
11
.
Anschaulich bedeutet |u| die

Lange des Vektors u.


Beispiele: F ur U = R
d
sind folgende Normen gebrauchlich:
|x|
2
:=
_
x
2
1
+ +x
2
d
,
|x|
1
:= [x
1
[ + +[x
d
[,
|x|

:= max
j=1,...,d
[x
j
[.
Analog f ur U = C
d
. F ur Matrizen A K
pq
benutzt man unter anderem
|A| :=

i,j
[a
ij
[
2
, oder auch |A| := max
i,j
[a
ij
[.
F ur den Funktionenraum U = C([a, b] R) sind folgende Normen denkbar:
|f|

:= max
x[a,b]
[f(x)[,
|f|
2
:=

_
b
a
f(x)
2
dx,
|f|
1
:=
_
b
a
[f(x)[dx.
In Wirklichkeit ist die ||

Norm etwas anders deniert; die obige Formel ist aber nicht falsch, wenn die
Funktion f auf [a, b] stetig ist (wie wir es ja vorausgesetzt hatten).
Und f ur den Raum U = C
1
([a, b] R) verwendet man im Allgemeinen |f|
C
1 := |f|

+|f

.
Denition 5.16. Sei M eine Menge. Eine Abbildung
N M,
n a
n
heit Folge
12
von Elementen aus M.
Mit Hilfe der jetzt bereitgestellten Begrie

Norm und

Folge denieren wir anschlieend die Begrie

Konvergenz,

Teilfolge,

Haufungspunkt,

Abschlu,

abgeschlossene Menge,

Umgebung,

in-
nerer Punkt,

Randpunkt,

oene Menge,

beschrankte Menge genauso wie im vorigen Abschnitt (wir


ersetzen einfach uberall

K
d
durch

U). Die Satze 5.3, 5.5, 5.6 und 5.13 gelten auch jetzt.
Beispiel 5.17. Sei U der Vektorraum der auf [0, 1]

vernunftig integrierbaren Funktionen (diese ungenaue


Formulierung ist Absicht), sei f
n
= f
n
(x) = x
n
, und sei f

(x) := 0 fur 0 x < 1 sowie f

(1) := 1.
fur jedes feste x [0, 1] ist lim
n
f
n
(x) = f

(x), mit Konvergenz im normierten Raum R,


wir haben auch lim
n
f
n
= f

mit Konvergenz in der ||


1
Norm fur U, denn |f
n
f

|
1
=
1
n+1
,
sei g = g(x) = 0 die Nullfunktion auf [0, 1], also g(x) = 0 insbesondere auch fur x = 1. Dann ist
lim
n
f
n
= g mit Konvergenz in der ||
1
Norm fur U, denn |f
n
g|
1
=
1
n+1
. (Nun ist aber
g ,= f

. Wie versohnen Sie das mit dem zweiten und mit Satz 5.3 ?)
gemessen in der ||

Norm konvergiert die Folge der f


n
nirgendwohin, auch nicht nach f

oder g,
denn |f
n
f

= |f
n
g|

= 1 fur alle n.
11
normed space
12
sequence
5.2. FOLGEN UND REIHEN IN NORMIERTEN R

AUMEN 93
5.2.1 Vollstandigkeit
Aus Beispiel 5.17 lernen wir, da wir im Falle eines unendlichdimensionalen Vektorraumes U bei der Wahl
der Norm von U Vorsicht walten lassen sollten. Ansonsten konnte es passieren, da der entstehende nor-
mierte Raum nicht vollstandig ist, was einige unangenehme Konsequenzen mit sich bringen w urde.
Denition 5.18. Eine Folge (a
n
)
nN
U heit CauchyFolge
13
genau dann, wenn:
> 0 N
0
() : n, m N
0
() : |a
n
a
m
|
U
< .
Denition 5.19. Ein normierter Raum (U, ||
U
) heit vollstandig
14
, wenn jede CauchyFolge (a
n
)
nN

U einen Grenzwert a

U hat. Ein vollstandiger normierter Raum heit auch Banachraum


15
. Ein
vollstandiger euklidischer bzw. unitarer Raum heit Hilbertraum
16
.
Beispiel: Der Raum (Q, [ [) ist ein normierter Vektorraum uber dem Korper Q, aber nicht vollstandig.
Als Gegenbeispiel betrachten wir
(a
1
, a
2
, . . . ) = (3, 3.1, 3.14, 3.141, 3.1415, 3.14159, . . . ),
deniert als Folge der abgebrochenen Dezimalbr uche von . Der

Grenzwert dieser Folge ist , Q. Diese


Cauchyfolge hat also keinen Grenzwert in Q !
Satz 5.20. Der Raum (R, [ [) als normierter Raum uber dem Korper R ist vollstandig. Er ist sogar der
kleinste vollstandige Raum, der als Erweiterung von Q gewonnen werden kann.
Beweis. Wir konnen ihn hier nicht f uhren, da wir die reellen Zahlen nirgends deniert hatten. Stattdessen
begn ugen wir uns mit der Bemerkung, da R genau als Vervollstandigung von Q deniert wurde.
Die linearen Raume R
d
, C
d
sind mit jeder der Normen ||
1
, ||
2
und ||

vollstandig, genauso wie der


Raum der Matrizen mit jeder der obigen Normen. Dies folgt alles aus der Vollstandigkeit von R.
Satz 5.21. Der Raum der auf dem Intervall [a, b] stetigen Funktionen, C([a, b] R), versehen mit der
||

Norm, ist vollstandig.


Beweis. Kommt spater.
Frage: Man zeige durch ein Beispiel, da der Raum C([a, b] R), versehen mit der ||
1
Norm, nicht
vollstandig ist. Analog f ur die ||
2
Norm.
Die Unvollstandigkeit des Raumes der stetigen Funktionen unter der ||
1
bzw. ||
2
Norm ist unerw unscht.
Andererseits sind diese Normen so wichtig, da man nicht auf sie verzichten kann. Eine solche Funktion
konnte z.B. ein Geschwindigkeitsfeld sein, und eine physikalisch naheliegende Norm ware dann die kinetische
Energie (oder vielmehr die Wurzel daraus), die diesem Geschwindigkeitsfeld innewohnt. Das ist aber exakt
eine L
2
Norm. Der Ausweg ist, den Raum der stetigen Funktionen solange zu erganzen, bis ein vollstandiger
Raum entsteht. Diese Raume bezeichnet man dann als L
1
([a, b] R) bzw. L
2
([a, b] R); und sie bestehen
aus all jenen Funktionen, f ur die die Integrale (im Lebesgue
17
Sinne)
_
b
a
[f(x)[dx bzw.
_
b
a
[f(x)[
2
dx
endlich sind. Die Theorie des LebesgueIntegrales wollen wir hier nicht weiter vertiefen.
Satz 5.22. Konvergente Folgen sind CauchyFolgen.
Beweis. Sei (a
n
)
nN
eine konvergente Folge mit Grenzwert a

. Wir haben:
> 0 N
0
() : n N
0
() : |a
n
a

| < .
13
Cauchysequence
14
complete
15
Stefan Banach, 18921945, polnischer Mathematiker
16
David Hilbert, 18621943, deutscher Mathematiker
17
Henri Leon Lebesgue, 18751941
94 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


Wir wollen zeigen, da:
> 0 N
1
() : n, m N
1
() : |a
n
a
m
| < .
Gesucht ist ein N
1
(), soda die vorige Aussage gilt. Wir wahlen N
1
() = N
0
(/2). Seien nun n, m N
1
().
Dann haben wir
|a
n
a
m
| = |a
n
a

+a

a
m
| |a
n
a

| +|a

a
m
| <

2
+

2
= .
Also ist diese Folge eine CauchyFolge.
Die Umkehrung dieses Satzes gilt bekanntlich nicht.
Satz 5.23. CauchyFolgen sind beschrankt.
Beweis. Man wahle in der Denition der CauchyFolgen = 1, m = N
0
(1) und schaue genau hin.
Satz 5.24. Sei (a
n
)
nN
eine konvergente Folge in einem normierten Raum U. Dann gilt
_
_
_ lim
n
a
n
_
_
_
U
= lim
n
|a
n
|
U
.
Beweis. In jedem normierten Raum U gilt die Ungleichung
[|x|
U
|y|
U
[ |x y|
U
. (5.1)
Wir setzen x = lim
n
a
n
und y = a
n
, was den Beweis vollendet.
Frage: Warum gilt (5.1) ?
5.2.2 Reihen in normierten Raumen
Denition 5.25. Sei (U, ||) ein normierter Raum und (a
n
)
nN
eine Folge in U. Unter einer Reihe
18

n=0
a
n
verstehen wir zwei Dinge (gleichzeitig):
einerseits die Folge der Partialsummen (S
N
)
NN
, wobei S
N
=

N
n=0
a
n
,
andererseits den Grenzwert S = lim
N
S
N
, aber nur, falls dieser existiert.
Wenn die Folge der Partialsummen (S
N
)
NN
gegen S konvergiert, dann sagt man, da die Reihe

n=0
a
n
konvergiert und den Wert S hat. Ansonsten sagt man, da die Reihe

n=0
a
n
divergiert.
Denition 5.26. Sei

n=0
a
n
eine Reihe von Elementen aus einem normierten Raum U. Wenn die Reihe
von reellen Zahlen

n=0
|a
n
|
U
konvergiert, dann nennt man die Reihe

n=0
a
n
absolut konvergent
19
.
Beispiel 5.27. Sei U = R.
1. Die geometrische Reihe

k=0
q
k
konvergiert genau dann, wenn [q[ < 1. Dann ist ihr Grenzwert gleich
1
1q
(warum ?).
2. Die harmonische Reihe

k=1
1
k
divergiert (warum ?).
18
series
19
absolutely convergent
5.2. FOLGEN UND REIHEN IN NORMIERTEN R

AUMEN 95
3. Die Reihe

k=1
1
k
2
konvergiert (warum ?), und zwar gegen
1
6

2
(Beweis im 2. Semester mittels
Fourierreihen).
4. Die Reihe 1
1
2
+
1
3

1
4
+
1
5
. . . konvergiert (und zwar gegen ln 2, vgl. Satz 6.72), aber nicht absolut
(warum ?).
Beispiel 5.28 (Potenzreihe). Sei U = C([1, 1] R) oder U = C(B
1
(0) C), versehen mit der
||

Norm. Die Reihe

k=0
1
k!
x
k
, [x[ 1,
konvergiert in U, und zwar gegen e
x
(Beweis folgt). Konvergenz gilt auch in der ||
1
bzw. ||
2
Norm.
Beispiel 5.29 (Fourierreihe). Sei U = L
2
([, ] R). Im 2. Semester werden wir erkennen: Die Reihe
4

_
sin(x) +
sin(3x)
3
+
sin(5x)
5
+
sin(7x)
7
+ . . .
_
konvergiert in der ||
2
Norm gegen die 2periodisch fortgesetzte Funktion
S(x) =
_
1 : 0 < x < ,
1 : < x < 0.
Frage: Warum konvergiert diese Reihe nicht in der ||

Norm ?
Satz 5.30. Sei

n=0
a
n
eine Reihe, die im normierten Raum U konvergiert. Dann ist lim
n
a
n
= 0.
Beweis. Die Folge (S
N
)
NN
der Partialsummen konvergiert, ist also eine CauchyFolge. Dann ist also
> 0 N
0
() : N, M N
0
() : |S
N
S
M
|
U
< .
Wir wahlen nun M = N + 1 und erhalten
> 0 N
0
() : N N
0
() : |a
N+1
|
U
< .
Also streben die a
N
gegen 0.
Warnung 5.31. Die Umkehrung dieses Satzes ist falsch (und ein beliebter Fehler).
Satz 5.32. Wenn die Reihe

n=0
a
n
in einem BanachRaum U absolut konvergiert, dann konvergiert sie
dort auch (im Sinne von Denition 5.25).
Beweis. Die Folge (|a
1
| , |a
1
| + |a
2
| , |a
1
| + |a
2
| + |a
3
| , . . . ) konvergiert, ist also eine CauchyFolge.
Das bedeutet:
> 0 N
0
() : m, n N
0
() (m n) : |a
n
| +|a
n+1
| + +|a
m
| < .
Sei nun (S
N
)
NN
die Partialsummenfolge der Reihe

n=0
a
n
. Dann ist f ur m > n
|S
m
S
n
| = |a
n+1
+a
n+2
+ +a
m
| |a
n+1
| +|a
n+2
| + +|a
m
| .
Also ist (S
N
)
NN
eine CauchyFolge und folglich konvergent, denn U ist ein Banachraum.
Eine Reihe in einem Banachraum konvergiert genau dann,
wenn beliebig lange Reihenendteilstucke beliebig klein werden.
Ein Reihenendst uck ware

n=N
a
n
, und ein Reihenendteilst uck ist

M
n=N
a
n
= S
M
S
N1
. Hierbei darf
die Anzahl der Summanden (also M N + 1) beliebig gro sein. Die Konvergenz der Reihe ist ja gerade
gleichbedeutend damit, da die Partialsummenfolge eine CauchyFolge ist.
Satz 5.33. Seien

n=0
a
n
und

n=0
b
n
zwei konvergente Reihen in einem normierten Raum mit Reihen-
werten s
a
und s
b
. Seien weiterhin , K. Dann konvergiert auch die Reihe

n=0
(a
n
+b
n
), und zwar
gegen den Wert s
a
+s
b
.
Beweis. Folgt sofort aus dem entsprechenden Satz f ur Folgen, also Satz 5.6.
96 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


5.2.3 Konvergenzkriterien
Um zu entscheiden, ob Reihen konvergieren, benutzt man ublicherweise Vergleichskriterien:
Satz 5.34 (Allgemeines Majorantenkriterium). Sei

n=0
a
n
eine Reihe in einem Banachraum U
(konvergent oder divergent). Wenn es eine Folge (
n
)
nN
reeller Zahlen gibt mit den zwei Eigenschaften:
es existiert ein N, soda |a
n
|
U

n
fur jedes n N,
die Reihe

n=0

n
konvergiert,
dann konvergiert auch die Reihe

n=0
a
n
, sogar absolut.
Beweis. Das Konvergenzverhalten einer Reihe (divergent/konvergent/absolut konvergent) andert sich nicht,
wenn man am Anfang einige a
n
weglat. Wir d urfen also annehmen, da die Reihe erst mit a
N
beginnt. Sei
nun (S
n
)
nN
die Partialsummenfolge zu

n=N
|a
n
|
U
, und (
n
)
nN
die Partialsummenfolge zu

n=N

n
.
Weil die Reihe uber die
n
konvergiert, wissen wir, da die
n
eine CauchyFolge bilden:
> 0 N
0
() : n, m N
0
() : [
n

m
[ < .
Nun ist (f ur n m)
[S
n
S
m
[ = |a
m+1
|
U
+ +|a
n
|
U

m+1
+ +
n
= [
n

m
[.
Also ist auch (S
n
)
nN
eine CauchyFolge in R.
Beispiel 5.35. Wir betrachten im Raum U = C((, ) R) die FourierReihe
sin(x) +
sin(2x)
4
+
sin(3x)
9
+
sin(4x)
16
+. . .
und fragen nach ihrer Konvergenz in der ||

Norm. Wir haben


a
n
=
sin(nx)
n
2
und |a
n
|
U
=
1
n
2
. Wir konnen jetzt
n
=
1
n
2
wahlen, was eine konvergente Reihe ergibt. Also konvergiert
obige Fourierreihe.
Beispiel 5.36. Die Reihe

n=1
1
n!
konvergiert wegen n! = 1 2 3 n 2
n1
.
Folgerung 5.37. Wir vergleichen eine beliebige Reihe mit der geometrischen Reihe:
Wenn es C > 0, N N und p < 1 gibt mit |a
n
|
U
Cp
n
fur alle n N, dann konvergiert

n=0
a
n
absolut in U,
Wenn es C > 0, N N und p > 1 gibt mit |a
n
|
U
Cp
n
fur alle n N, dann divergiert

n=0
a
n
.
Der erste Teil folgt aus Satz 5.34, der zweite folgt aus Satz 5.30.
Satz 5.38 (Wurzelkriterium). Sei

n=0
a
n
eine Reihe in einem Banachraum U. Sei q R deniert
durch
q = lim
n
n
_
|a
n
|
U
wobei wir voraussetzen, da dieser Limes existiert. Dann gilt:
q < 1: die Reihe

n=0
a
n
konvergiert absolut,
q > 1: die Reihe

n=0
a
n
divergiert,
q = 1: das Konvergenzverhalten ist unbekannt.
Beweis. Wir setzen p :=
1
2
(1 + q). F ur q < 1 haben wir ab einem N
0
die Ungleichung
n
_
|a
n
|
U
p < 1,
und f ur q > 1 haben wir ab einem N
0
die Ungleichung
n
_
|a
n
|
U
p > 1. Nun liften wir das in die n-te
Potenz und verwenden Folgerung 5.37.
5.3. FOLGEN UND REIHEN REELLER ZAHLEN 97
Das folgende Quotientenkriterium ist gelegentlich einfacher anzuwenden. Andererseits gibt es Beispiele, in
denen das Quotientenkriterium versagt, aber das Wurzelkriterium noch eine Aussage liefert.
Satz 5.39 (Quotientenkriterium). Sei

n=0
a
n
eine Reihe in einem Banachraum U, und keiner der
Summanden sei

0. Sei q R deniert durch
q = lim
n
|a
n+1
|
U
|a
n
|
U
,
wobei wir voraussetzen, da dieser Limes existiert. Dann gilt:
q < 1: die Reihe

n=0
a
n
konvergiert absolut,
q > 1: die Reihe

n=0
a
n
divergiert,
q = 1: das Konvergenzverhalten ist unbekannt.
Beweis. Sei q < 1. Wir setzen p :=
1
2
(1+q) < 1, also q < p < 1. Dann gibt es ein N
0
, soda f ur m N
0
die
Quotienten |a
m+1
|
U
/ |a
m
|
U
unterhalb von p liegen. Multiplikation passend vieler Ungleichungen diesen
Typs liefert
|a
N0+n
|
U
|a
N0
|
U
p
n
, n 0.
Wir benutzen nun Folgerung 5.37 mit C = |a
N0
|
U
, und die absolute Konvergenz der Reihe

n=0
a
n
folgt
sofort.
F ur den Fall q > 1 verwende man den zweiten Teil von Folgerung 5.37.
Beispiel 5.40. Sei U = R. Fur jedes x (0, ) betrachten wir die Reihe reeller Zahlen

k=0
1
k!
(2x)
k
und fragen, fur welche x Konvergenz vorliegt. Wir haben (fur xiertes x)
a
n
=
1
n!
(2x)
n
,
und bekommen
q = lim
n
1
(n+1)!
(2x)
n+1
1
n!
(2x)
n
= lim
n
2x
n + 1
= 0,
also Konvergenz. Damit konvergiert diese Potenzreihe fur jedes x (0, ) absolut.
5.3 Folgen und Reihen reeller Zahlen
Die Menge der reellen Zahlen bildet zusammen mit der ublichen Betragsfunktion einen vollstandigen nor-
mierten Raum. Das bedeutet, das alle Ergebnisse des vorigen Abschnitts auch auf Folgen und Reihen von
reellen Zahlen angewandt werden konnen.
Andererseits haben die reellen Zahlen auch Eigenschaften, die man in einem beliebigen normierten Raum
meist nicht zur Verf ugung hat. Insbesondere:
reelle Zahlen kann man ordnen,
reelle Zahlen kann man multiplizieren.
Aus diesem Grunde ist die Theorie der Folgen und Reihen reeller Zahlen etwas reichhaltiger.
Wir erinnern an ein einfaches Ergebnis, das zum Beispiel mittels vollstandiger Induktion gezeigt werden
kann (und ubrigens auch in C gilt):
98 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


Satz 5.41 (Binomische Formel). Fur reelle Zahlen a, b und n N
0
gilt
(a +b)
n
=
n

k=0
_
n
k
_
a
k
b
nk
.
Hierbei steht
_
n
k
_
fur den Binomialkoezienten,
_
n
k
_
=
n!
k!(n k)!
=
n (n 1) . . . (n k + 1)
1 2 . . . k
, 0! = 1.
5.3.1 Schranken und Grenzen
In allgemeinen normierten Raumen hatten wir beschrankte Mengen deniert. Im R haben wir zusatzlich
noch einseitig beschrankte Mengen:
Denition 5.42. Sei M R eine Menge reeller Zahlen. Wenn es eine Zahl S R gibt mit der Eigenschaft,
da x S fur jedes x M, dann heit S obere Schranke
20
von M. In diesem Falle sagt man, da die
Menge M nach oben beschrankt
21
ist. Entsprechend deniert man untere Schranken
22
und den Begri
nach unten beschrankt
23
.
Jede Zahl, die groer ist als eine obere Schranke einer Menge, ist ebenfalls eine obere Schranke dieser
Menge.
Denition 5.43. Sei M eine Menge reeller Zahlen. Wenn es eine Zahl S R gibt, die gleichzeitig obere
Schranke von M und Element von M ist, dann heit S Maximum
24
von M. Analog deniert man das
Minimum
25
.
Eine Menge kann zwar unendlich viele verschiedene obere oder untere Schranken haben, aber hochstens ein
Maximum bzw. Minimum.
Beispiel 5.44. Die Menge M = x R: 0 < x < 1 =: (0, 1) hat weder Minimum noch Maximum. Sie ist
nach oben beschrankt durch S = 1 und nach unten beschrankt durch S = 0.
Denition 5.45. Sei M R eine nach oben beschrankte Menge. Eine Zahl S R heit Supremum bzw.
kleinste obere Schranke bzw. obere Grenze
26
wenn folgendes gilt:
1. S ist obere Schranke von M,
2. jede kleinere Zahl als S ist keine obere Schranke von M.
Entsprechend deniert man die Begrie Inmum bzw. grote untere Schranke bzw. untere Grenze
27
.
Beispiel 5.46. Die Menge M = (0, 1) hat Inmum 0 und Supremum 1.
Die Menge M = x Q: x
2
< 2 hat in den rationalen Zahlen weder Supremum noch Inmum, obwohl sie
nach oben und unten beschrankt ist.
Satz 5.47. Jede nichtleere nach oben beschrankte Menge reeller Zahlen hat genau ein Supremum in R.
Jede nichtleere nach unten beschrankte Menge reeller Zahlen hat genau ein Inmum in R.
Bevor wir zum Beweis dieses zentralen Satzes kommen, schieben wir ein n utzliches Ergebnis ein:
Satz 5.48. Sei (a
n
)
nN
eine monoton wachsende Folge reeller Zahlen, die nach oben beschrankt ist. Dann
hat diese Folge einen Grenzwert, und dieser Grenzwert ist gleich dem Supremum der Menge a
n
: n N.
20
upper bound
21
bounded from above
22
lower bounds
23
bounded from below
24
maximum
25
minimum
26
supremum, least upper bound
27
inmum, greatest lower bound
5.3. FOLGEN UND REIHEN REELLER ZAHLEN 99
Hierbei verstehen wir unter monoton wachsend
28
, da a
n
a
n+1
f ur jedes n gilt. Ein entsprechender Satz
gilt f ur monoton fallende Folgen, die nach unten beschrankt sind.
Beweis. Sei a
n
a
n+1
und a
n
S f ur jedes n N. Wir wollen zeigen, da die Folge (a
n
)
nN
eine
CauchyFolge ist, also
> 0 N
0
() : n, m N
0
() : [a
n
a
m
[ < .
Wir nehmen das Gegenteil an und suchen einen Widerspruch. Das Gegenteil ist

0
> 0 : N n = n(N), m = m(N) N : [a
n
a
m
[
0
.
Wir kommen auf diesem Wege zu einer steigenden Folge von Indizes
k
1
< k
2
< k
3
< k
4
< k
5
< k
6
. . .
mit lim
j
k
j
= , soda
[a
k2
a
k1
[
0
, [a
k4
a
k3
[
0
, [a
k6
a
k5
[
0
, . . . .
Andererseits ist a
k1
a
k2
a
k3
a
k4
. . . . Dann mu zwangslaug die Folge der a
n
die Schranke
S irgendwann uberschreiten. Das ist ein Widerspruch. Also ist die Folge (a
n
)
nN
eine CauchyFolge und
somit konvergent. Die Aussage uber das Supremum sieht man schnell.
Beweis des Satzes 5.47. Wir zeigen nur die Aussage uber das Supremum.
Man uberlegt sich schnell, da eine Menge keine zwei verschiedenen Suprema haben kann.
Die Menge hat mindestens ein Element und mindestens eine obere Schranke; wir nennen sie x
1
und S
1
. Es
gilt x
1
S
1
. Wenn x
1
= S
1
sein sollte, dann ist dies gerade das Supremum, und wir waren fertig. Sei also
jetzt x
1
< S
1
. Wir taufen das arithmetische Mittel dieser beiden Zahlen Z.
Es gibt 2 Falle:
Z ist obere Schranke von M: dann setzen wir x
2
= x
1
und S
2
= Z.
Z ist keine obere Schranke von M: dann gibt es ein Element von M, das zwischen Z und S
1
liegt.
Wir nennen dieses Element x
2
, und setzen S
2
:= S
1
.
Auf jeden Fall haben wir jetzt 2 Zahlen x
1
, x
2
, die Element von M sind, und zwei obere Schranken S
1
und
S
1
. Es gilt
x
1
x
2
S
2
S
1
, [x
2
S
2
[
1
2
[x
1
S
1
[.
Mit dem Intervall [x
2
, S
2
] konnen wir verfahren wie eben. Wir nden ein Element x
3
M und eine obere
Schranke S
3
, soda gilt
x
1
x
2
x
3
S
3
S
2
S
1
, [x
3
S
3
[
1
4
[x
1
S
1
[.
Induktiv setzen wir dieses Verfahren fort und erhalten eine monoton wachsende Folge (x
n
)
nN
und eine
monoton fallende Folge (S
n
)
nN
. Da die wachsende Folge (x
n
)
nN
nach oben beschrankt ist durch S
1
, hat
diese Folge einen Grenzwert x

. Analog hat die monoton fallende Folge (S


n
)
nN
einen Grenzwert S

.
Da aber zusatzlich die Folge der Dierenzen (x
n
S
n
)
nN
nach 0 strebt, mu x

= S

sein.
F ur jedes > 0 gilt dann:
im Intervall (x

, x

) ist mindestens ein Element von M,


im Intervall (x

, x

+) ist mindestens eine obere Schranke von M.


Die erste Aussage bedeutet, da eine Zahl unterhalb von x

keine obere Schranke von M sein kann. Die


zweite Aussage bedeutet, da oberhalb von x

kein Element von M sein kann. Insbesondere ist dann x

eine obere Schranke von M; und nach der ersten Aussage ist dies die kleinste obere Schranke von M.
28
monotonically increasing
100 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


Satz 5.49 (Bolzano
29
Weierstra
30
). Sei M R ein beschranktes und abgeschlossenes Intervall. Sei
(a
n
)
nN
eine Folge, die in M liegt; also a
n
M fur jedes n N. Dann besitzt diese Folge eine Teilfolge,
die gegen einen Grenzwert in M strebt.
Beweis. Wir teilen das Intervall M =: M
1
in zwei gleichgroe Teilintervalle. In einem davon liegen unendlich
viele Glieder der Folge (a
n
)
nN
. Dieses Teilintervall nennen wir M
2
. Nun teilen wir M
2
in zwei gleichgroe
Teilintervalle. In einem davon liegen unendlich viele Folgenglieder, dieses nennen wir M
3
. In diesem Stile
fahren wir fort und erhalten eine Folge von Intervallen
M
1
M
2
M
3
,
von denen jedes halb so lang ist wie das vorhergehende. In jedem dieser Intervalle liegen unendlich viele
Elemente der Folge.
Aus M
1
wahlen wir ein Element a
k1
der Folge. Aus M
2
wahlen wir ein weiteres Element a
k2
der Folge,
das von a
k1
verschieden sein soll. Aus M
3
wahlen wir ein Folgenglied a
k3
, das von den beiden vorigen
verschieden sein soll. Wir bekommen auf diesem Wege eine Teilfolge (a
kj
)
jN
. Weil alle Glieder dieser
Teilfolge ab j = N
0
im Teilintervall M
N0
enthalten sind, ist diese Folge oensichtlich eine CauchyFolge.
Diese hat einen reellen Grenzwert, der nach Konstruktion ein Haufungspunkt des Intervalles ist. Weil das
Intervall abgeschlossen ist, liegt der Grenzwert im Intervall.
Dieser Satz kann verallgemeinert werden. Es reicht, da M R
k
eine beschrankte und abgeschlossene
Menge ist, damit jede Folge in M eine in M konvergente Teilfolge enthalt.
Denition 5.50. Sei U ein Banachraum. Eine Menge M U heit kompakt
31
, wenn jede Folge in M
eine Teilfolge enthalt, die einen Grenzwert in M hat.
Jede kompakte Menge ist beschrankt und abgeschlossen. Die Umkehrung gilt nur in endlichdimensionalen
Raumen.
5.3.2 Beispiele f ur konvergente Folgen
Satz 5.51 (Sandwichprinzip). Es seien (a
n
)
nN
, (b
n
)
nN
, (c
n
)
nN
Folgen reeller Zahlen mit den Eigen-
schaften, da
a
n
b
n
c
n
fur jedes n N,
die Limites lim
n
a
n
und lim
n
c
n
existieren und sind beide gleich g

R.
Dann existiert auch der Grenzwert lim
n
b
n
; und er ist ebenfalls gleich g

.
Beweis. F ur jedes > 0 suchen wir ein N
0
(), soda [b
n
g

[ < gilt f ur jedes n N


0
().
Wir wissen aus der Voraussetzung, da
> 0 N
1
() : n N
1
() : [a
n
g

[ < ,
> 0 N
2
() : n N
2
() : [c
n
g

[ < .
Wir wahlen N
0
() = max(N
1
(), N
2
()). Dann haben wir f ur n N
0
():
g

< a
n
b
n
c
n
< g

+,
was den Beweis vollendet.
Als Anwendung des Sandwichprinzips haben wir folgendes Ergebnis:
Lemma 5.52. Es ist lim
n
n

n = 1.
29
Bernard Placidus Johann Nepomuk Bolzano, 17811848
30
Karl Theodor Wilhelm Weierstra, 18151897
31
compact
5.3. FOLGEN UND REIHEN REELLER ZAHLEN 101
Beweis. Oensichtlich ist
n

n 1 f ur n 17. Also konnen wir f ur solche n schreiben:


n

n = 1 + x
n
, x
n
0.
Wir wenden die binomische Formel an:
n = (1 +x
n
)
n
=
n

k=0
_
n
k
_
x
k
n

_
n
0
_
x
0
n
+
_
n
2
_
x
2
n
= 1 +
n(n 1)
2
x
2
n
.
Wenn wir dies nach x
n
umstellen, kommen wir auf
0 x
n

_
2
n
.
Damit sind die x
n
eingequetscht zwischen zwei Folgen, die beide nach Null streben. Also ist lim
n
x
n
= 0
und somit lim
n
n

n = 1.
Satz 5.53. Seien (a
n
)
nN
und (b
n
)
nN
zwei konvergente Folgen reeller Zahlen mit Grenzwerten a

und b

.
Dann konvergiert auch die Folge (a
n
b
n
)
nN
, und ihr Grenzwert ist a

.
Wenn zusatzlich noch b
n
,= 0 fur jedes n N und b

,= 0, dann konvergiert auch die Folge (a


n
/b
n
)
nN
, und
ihr Grenzwert ist a

/b

.
Beweis. Wir beweisen nur die Aussage uber das Produkt, die zweite Aussage lat sich ahnlich zeigen. Wir
haben
[a
n
b
n
a

[ [(a
n
a

)b

[ +[a
n
(b
n
b

)[.
Nun sind die Folgen (a
n
)
nN
und (b
n
)
nN
beschrankt (wegen Satz 5.22 und Satz 5.23), also
[a
n
[ A, [b
n
[ B, n N.
Dieselbe Beschrankung gilt dann auch f ur die Grenzwerte. Wir haben somit
[a
n
b
n
a

[ B[a
n
a

[ +A[b
n
b

[,
woraus sich die Behauptung unmittelbar ergibt.
Beispiel 5.54. Seien k, x R. Die Folge (n
k
x
n
)
nN
konvergiert gegen 0 fur [x[ < 1 und divergiert fur
[x[ > 1.
5.3.3 Nichtabsolute Konvergenz und Umordnungen
Satz 5.55 (Leibniz
32
Kriterium). Sei

n=0
a
n
eine Reihe reeller Zahlen. Wenn die a
n
die folgenden
Bedingungen erfullen:
[a
n
[ strebt streng monoton nach Null,
a
n
a
n+1
< 0 fur jedes n N,
dann konvergiert die Reihe

n=0
a
n
.
Beweis. Die zweite Bedingung besagt, da die Summanden a
n
alternierende Vorzeichen haben. Zum Beweis
betrachten wir die Partialsummen s
n
. Seien die a
2n
positiv, und die a
2n+1
negativ. Dann haben wir
s
2n+2
s
2n
= a
2n+2
+a
2n+1
< 0,
also ist die Folge (s
0
, s
2
, s
4
, . . . ) streng monoton fallend. Analog zeigt man, da die Folge (s
1
, s
3
, s
5
, . . . )
streng monoton steigend ist. Weiterhin ist s
n+2
s
n+1
> 0, soda die fallende Folge (s
0
, s
2
, . . . ) nach
unten beschrankt ist durch s
1
. Also konvergiert sie. Analog ist die wachsende Folge (s
1
, s
3
, . . . ) nach oben
beschrankt durch s
0
, also konvergent. Beide Grenzwerte m ussen ubereinstimmen wegen a
n
0.
32
Gottfried Wilhelm von Leibniz, 16461716
102 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


Wir bleiben noch etwas bei solchen Reihen mit Summanden wechselnden Vorzeichens. Es gilt (wie wir
spater sehen werden)
ln 2 = 1
1
2
+
1
3

1
4
+
1
5

1
6
+
1
7

1
8
+
1
9

1
10
. . . .
Durch Verdoppelung ist dann
2 ln2 = 2
2
2
+
2
3

2
4
+
2
5

2
6
+
2
7

2
8
+
2
9

2
10
. . .
= 2 1 +
2
3

1
2
+
2
5

1
3
+
2
7

1
4
+
2
9

1
5
. . .
Wenn man die Br uche mit gleichem Nenner zusammenfat, folgt
2 ln2 = 1
1
2
+
1
3

1
4
+
1
5

1
6
+
1
7

1
8
+
1
9

1
10
= ln 2.
Wo steckt der Fehler ?
Satz 5.56. Sei S eine beliebige reelle Zahl. Dann gibt es eine Reihe

n=0
a
n
, die sich durch Umsortieren
der Summanden der Reihe

n=1
(1)
n1 1
n
ergibt und den Reihenwert S hat.
Beweis. Die Teilreihen 1 +
1
3
+
1
5
+ . . . und
1
2

1
4

1
6
. . . der positiven und negativen Summanden
divergieren.
Dieses Phanomen kann nicht auftreten, wenn die Ausgangsreihe absolut konvergiert.
Satz 5.57. Sei

n=0
a
n
eine absolut konvergierende Reihe. Dann konvergiert auch jede Umordnung dieser
Reihe absolut und hat denselben Reihenwert. Es gilt auch die Umkehrung: wenn jede Umordnung der Reihe
denselben Reihenwert hat, dann ist die Ausgangsreihe absolut konvergent.
Beweis. Lassen wir weg.
Die Frage der Konvergenz von umgeordneten Reihen ist keinesfalls akademisch. Wenn man zum Beispiel
zwei Reihen

n=0
a
n
und

k=0
b
k
multiplizieren will, dann mochte man die einzelnen Produkte a
n
b
k
bilden, in eine geeignete Reihenfolge bringen, und in dieser Reihenfolge dann aufsummieren. Nun gibt es
aber keine Reihenfolge dieser Teilprodukte, die

richtiger ware als eine andere Reihenfolge. Falls bei einer


anderen Anordnung der Teilprodukte sich ein anderer Reihenwert ergabe, ware dies nat urlich schlecht.
Satz 5.58. Es seien

n=0
a
n
und

k=0
b
k
zwei absolut konvergente Reihen. Dann konvergiert die

Reihe

n,k=0
a
n
b
k
bei beliebiger Anordnung der Summanden a
n
b
k
gegen denselben Wert, namlich
(

n=0
a
n
)(

k=0
b
k
).
Beweis. Lassen wir weg.
Es hat sich eine spezielle Anordnung eingeb urgert, die auf die sogenannte CauchyProduktreihe f uhrt.
Denition 5.59. Es seien

n=0
a
n
und

k=0
b
k
zwei absolut konvergente Reihen. Wir denieren eine
Folge (c
m
)
mN0
gema
c
m
=

k+n=m
a
n
b
k
= a
0
b
m
+a
1
b
m1
+ +a
m1
b
1
+a
m
b
0
, m N
0
.
Dann heit

m=0
c
m
die CauchyProduktreihe der beiden Reihen

n=0
a
n
und

k=0
b
k
.
5.4. POTENZREIHEN 103
5.4 Potenzreihen
Denition 5.60. Unter einer Potenzreihe
33
verstehen wir eine Reihe der Form

n=0
a
n
(z z
0
)
n
, a
n
, z, z
0
C.
Hierbei denken wir uns z
0
als xiert und z als variabel. F ur den Summanden mit n = 0 vereinbaren wir,
da 0
0
:= 1.
Ein Beispiel ist die geometrische Reihe

n=0
z
n
, z C.
Diese konvergiert genau f ur [z[ < 1, wie man zum Beispiel mithilfe des Wurzelkriteriums sieht. Das Kon-
vergenzgebiet ist in diesem Falle also eine Kreisscheibe um z
0
= 0.
Diese Potenzreihe kann man von 2 Standpunkten aus betrachten.
Einerseits kann man jeden Summanden z
n
als stetige Funktion ansehen, also zum Beispiel als Element
eines Vektorraumes U = C(B
R
(0) C) (wobei R eine passend gewahlte positive Zahl sei), diesen
Raum mit der ||

Norm ausstatten (wodurch er zu einem Banachraum wird), und dann nach der
Konvergenz der Reihe in diesem Banachraum fragen.
Andererseits konnte man z C festhalten. Dann erhalt man eine Reihe von komplexen Zahlen, die
konvergieren kann oder auch nicht.
Wir vermerken nur kurz, da die geometrische Reihe genau dann im Banachraum U = C(B
R
(0) C)
konvergiert, wenn R < 1, und werden uns ab jetzt auf den zweiten Aspekt konzentrieren.
Denition 5.61. Sei

n=0
a
n
(z z
0
)
n
eine Potenzreihe, und sei M C eine beliebige Menge. Wir sagen,
da die Potenzreihe auf der Menge M gleichmaig gegen P(z) konvergiert
34
, wenn gilt:
> 0 N
0
() : n N
0
(), z M :

k=0
a
k
(z z
0
)
k
P(z)

< .
Entscheidend ist dabei, da die Schranke N
0
() nicht von z M abhangt, sondern f ur alle solchen z
dasselbe N
0
() verwendet werden kann.
Die gleichmaige Konvergenz ist gleichbedeutend mit der Konvergenz in der ||

Norm.
Beispiel 5.62. Wir betrachten nochmal die geometrische Reihe

n=0
z
n
. Diese konvergiert auf der Menge
M
1
= z C: [z[ < 1, aber dort nicht gleichmaig. Die Konvergenz wird beliebig langsam, wenn z
nach 1 strebt. Wir haben aber gleichmaige Konvergenz, wenn wir die Kreisscheibe M
1
durch eine kleinere
Kreisscheibe M
r
= z C: [z[ < r mit r < 1 ersetzen (warum ?).
Satz 5.63. Sei

n=0
a
n
(z z
0
)
n
eine Potenzreihe. Sei t deniert durch
t = lim
n
n
_
[a
n
[,
wobei wir voraussetzen, da dieser Limes existiert oder da die Folge der
n
_
[a
n
[ gegen +divergiert. Dann
gilt:
1. die Potenzreihe konvergiert fur jedes z C mit [zz
0
[ <
1
t
absolut (aber nicht unbedingt gleichmaig),
2. die Potenzreihe konvergiert in jeder kleineren Kreisscheibe M
r
= z C: [z z
0
[ r (r <
1
t
)
gleichmaig,
33
power series
34
converges uniformly to P(z)
104 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


3. die Potenzreihe divergiert fur jedes z C mit [z z
0
[ >
1
t
,
4. wenn t = 0 ist, dann konvergiert die Potenzreihe absolut in ganz C, und auf jeder kompakten Teilmenge
von C konvergiert sie gleichmaig,
5. wenn t = , dann konvergiert die Potenzmenge nur fur z = z
0
,
6. im Konvergenzgebiet stellt die Potenzreihe eine stetige Funktion dar.
Man braucht nicht voraussetzen, da die Folge
n
_
[a
n
[ einen Grenzwert hat. Es reicht, t als groten Haufungs-
punkt der Menge
n
_
[a
n
[ : n N zu denieren, und die restlichen Aussagen des Satzes gelten nach wie
vor.
Wenn jeder Koezient a
n
,= 0 ist, dann kann man die Zahl t auch uber die Formel
t = lim
n
[a
n+1
[
[a
n
[
bestimmen. Falls dieser Limes existieren sollte, dann existiert auch der Grenzwert lim
n
n
_
[a
n
[ und beide
sind gleich.
Die Zahl
1
t
heit auch Konvergenzradius.
Beweis. F ur die Punkte 1 bis 5 benutzt man das Wurzelkriterium bzw. Quotientenkriterium. Punkt 6 wird
spater bewiesen, siehe auch Satz 5.21.
Satz 5.64. Sei

n=0
a
n
(z z
0
)
n
eine Potenzreihe mit Konvergenzradius R. Dann hat die durch termweise
Dierentiation entstehende Reihe

n=0
na
n
(z z
0
)
n1
denselben Konvergenzradius.
Beweis.

Ubungsaufgabe.
Wie multipliziert man zwei Potenzreihen ? Dies wird durch den folgenden Satz beschrieben:
Satz 5.65. Seien

n=0
a
n
(z z
0
)
n
und

k=0
b
k
(z z
0
)
k
zwei Potenzreihen mit Konvergenzradien r
a
und
r
b
. Wir denieren eine Folge (c
m
)
mN0
von Koezienten durch
c
m
=

n+k=m
a
n
b
k
und setzen r
c
= min(r
a
, r
b
). Dann konvergiert die Potenzreihe

m=0
c
m
(z z
0
)
m
fur [z z
0
[ < r
c
, und
dort gilt

m=0
c
m
(z z
0
)
m
=
_

n=0
a
n
(z z
0
)
n
__

k=0
b
m
(z z
0
)
k
_
.
Beweis. Die links stehende Reihe ist gerade die CauchyProduktreihe der beiden rechts stehenden Reihen,
aufgrund der speziellen Denition der c
m
.
5.5 Beispiel: Die Exponentialfunktion
Die wichtigste Funktion der Physikerinnen und Physiker hat folgende zentrale Eigenschaften:
exp(z) =

k=0
1
k!
z
k
, z C, (5.2)
exp(u +v) = exp(u) exp(v), u, v C, (5.3)
exp(z) = lim
n
_
1 +
z
n
_
n
, z C, (5.4)
wenn x =
p
q
Q
+
, p, q N
+
, dann exp(x) =
q

e
p
, wobei e = 2.718281828459 . . . , (5.5)
wenn z = x + iy C, x, y R, dann exp(z) = e
x
(cos y + i sin y), (5.6)
5.5. BEISPIEL: DIE EXPONENTIALFUNKTION 105
die wir jetzt zeigen werden. Gleichung (5.2) gilt, weil genau so die Exponentialfunktion deniert wird. Die
(absolute und auf Kompakta gleichmaige) Konvergenz der Reihe auf der rechten Seite ergibt sich schnell
aus dem Quotientenkriterium.
Gleichung (5.4) stellt die Beziehung her zur stetigen Verzinsung eines Kapitals (das ist der historisch tra-
ditionsreichste Zugang zur Exponentialfunktion), und der Beweis davon wird die Hauptarbeit in diesem
Abschnitt sein. Das Additionstheorem (5.3) zeigt man entweder durch banales Rechnen (Denition (5.2)
einsetzen, maximal mogliches Ausmultiplizieren aller Klammern, gleiche Terme wegstreichen bis zur Glei-
chung 0 = 0, Nachweis der

Aquivalenz der Umformungen), was aber eine lange Rechnung werden kann,
weshalb wir diesen Weg hier nicht verfolgen. Oder man beweist anstatt (5.4) gleich eine etwas allgemei-
nere Aussage, und dann folgt (5.3) innerhalb weniger Zeilen. Aus dem Additionstheorem folgt dann (5.5)
sofort. Und (5.6)

zeigen wir spater dadurch, da wir die Funktionen sin und cos genauso wie in (5.6)
denieren, und danach beweisen, da die so denierten analytischen Winkelfunktionen die schulbekannten
geometrischen Eigenschaften besitzen.
Wie angek undigt, beginnen wir mit einer BonustrackVersion von (5.4). Der Beweis der Originalglei-
chung (5.4) hatte ubrigens im Prinzip denselben Arbeitsaufwand erfordert.
Lemma 5.66. Sei (z
n
)
nN
eine Folge komplexer Zahlen mit Grenzwert z

C. Dann gilt
lim
n
_
1 +
z
n
n
_
n
=

k=0
1
k!
z
k

.
Beweis. Zur Vereinfachung der Schreibweisen setzen wir
a
n
:=
_
1 +
z
n
n
_
n
, a

:=

k=0
1
k!
z
k

,
und laut binomischer Formel ist
a
n
=
n

k=0
_
n
k
_
_
z
n
n
_
k
.
Hier w urden wir jetzt gern in jedem Summanden f ur sich zur Grenze n ubergehen wollen:
lim
n
_
n
k
_
_
z
n
n
_
k
= lim
n
n(n 1) . . . (n k + 1)
n
k

z
k
n
k!
=
_
lim
n
n(n 1) . . . (n k + 1)
n
k
__
lim
n
z
k
n
k!
_
= 1
z
k

k!
,
aber dann haben wir noch die Schwierigkeit zu bewaltigen, da die Summanden in der Summe

n
k=0
. . .
immer mehr werden f ur n .
F ur einen zweiten Beweisversuch gehen wir auf die Denition der Konvergenz zur uck: f ur jedes > 0 suchen
wir ein N
0
() mit
[a

a
n
[ < n N
0
().
Sei N N gro, und sei n > N. Dann haben wir die Zerlegung
[a

a
n
[

k=0
1
k!
z
k

k=0
_
n
k
_
_
z
n
n
_
k

k=N+1
1
k!
z
k

k=N+1
_
n
k
_
_
z
n
n
_
k

.
Nun ist

k=0
1
k!
z
k

konvergent, wie schon eingangs geschrieben. Also mu das Reihenendst uck [

k=N+1
. . . [
(also der mittlere Summand auf der rechten Seite) kleiner sein als
1
3
, wenn wir N gro genug wahlen.
Weiterhin konnen wir annehmen, da [z
n
[ [z

[ +1 f ur n > N, denn die Folge der z


n
konvergiert nach z

,
siehe auch Satz 5.23. Also ist

k=N+1
_
n
k
_
_
z
n
n
_
k

k=N+1
n(n 1) . . . (n k + 1)
n
k

[z
n
[
k
k!

n

k=N+1
([z

[ + 1)
k
k!
<

k=N+1
([z

[ + 1)
k
k!


3
,
106 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


wenn N gro ist. Nun halten wir und N fest und k ummern uns um den ersten Summanden:

k=0
1
k!
z
k

k=0
_
n
k
_
_
z
n
n
_
k

k=0

1
k!
z
k


_
n
k
_
_
z
n
n
_
k

,
und solche Dierenzen hatten wir schon bei unserem ersten Beweisversuch erforscht. Wir nden also ein
N
0
() N, soda f ur n N
0
() gilt:
N

k=0

1
k!
z
k


_
n
k
_
_
z
n
n
_
k


3
.
Damit ist der Beweis komplett.
Denition 5.67. Die Euler
35
sche Zahl e = 2.718281828459045 . . . wird deniert durch
e = lim
n
_
1 +
1
n
_
n
=

k=0
1
k!
.
Die Exponentialfunktion z exp(z) denieren wir (anders als im ersten Kapitel) durch
exp(z) =

k=0
1
k!
z
k
, z C.
Nun beweisen wir (5.3).
Satz 5.68 (Additionstheorem). Die Exponentialfunktion erfullt
exp(u +v) = exp(u) exp(v), u, v C.
Beweis. Es ist
exp(u) exp(v) =
_
lim
n
_
1 +
u
n
_
n
_

_
lim
n
_
1 +
v
n
_
n
_
= lim
n
__
1 +
u
n
_
n
_
1 +
v
n
_
n
_
= lim
n
_
1 +
u
n
+
v
n
+
uv
n
2
_
n
= lim
n
_
1 +
u +v +
uv
n
n
_
n
.
Wir setzen z
n
:= u +v +
uv
n
C. Dann ist lim
n
z
n
= z

:= u +v, und nach Lemma 5.66 haben wir


lim
n
_
1 +
u +v +
uv
n
n
_
n
=

k=0
1
k!
(u +v)
k
= exp(u +v),
was zu beweisen war.
Wir kommen jetzt zu (5.5).
Aus dem Additionstheorem haben wir zum Beispiel exp(2z) = exp(z) exp(z) = (exp(z))
2
, und nach dem
Prinzip der vollstandigen Induktion konnen wir zeigen, da
exp(mz) = (exp(z))
m
, z C, m N
+
. (5.7)
Wenn wir hierin z =
1
q
und m = q setzen, bekommen wir e = exp(1) = (exp(1/q))
q
, also
exp(1/q) =
q

e = e
1/q
, q N
+
.
Wenn wir (5.7) nocheinmal verwenden, mit m = p und z = 1/q, dann folgt
exp(p/q) = (exp(1/q))
p
= e
p
q
, p, q N
+
.
Wir haben also die Gleichung exp(x) = e
x
gezeigt f ur alle positiven rationalen Zahlen. Analog zeigt man
diese Gleichung f ur negative rationale Zahlen. Nun ist z exp(z) eine stetige Funktion (wie wir im Satz 5.63
vorhin noch nicht bewiesen haben), und man deniert x e
x
f ur irrationale x als Grenzwert der Folge
x
n
e
xn
, wobei die x
n
eine Folge rationaler Zahlen sind, die gegen x streben.
Damit haben wir gezeigt:
35
Leonhard Euler, 17071783
5.6. SCHL

USSELBEGRIFFE 107
Satz 5.69. Fur x R gilt:
e
x
=

n=0
1
n!
x
n
= lim
n
_
1 +
x
n
_
n
.
Wenn wir in Zukunft e
z
schreiben mit z C, dann meinen wir damit stets exp(z). Spater werden wir daf ur
sorgen, da
exp(i) = cos() + i sin(), R,
gilt. Diese Formel hatten wir bisher einige Male benutzt, aber noch nicht bewiesen.
5.6 Schl usselbegrie
Denition und Beispiele f ur Normen,
Begrie Konvergenz, Haufungspunkt, oene und abgeschlossene Mengen,
Denition CauchyFolge,
Denition Reihe, Summenformel f ur die geometrische Reihe,
Quotientenkriterium, Wurzelkriterium, Leibnizkriterium,
Supremum/Inmum im Gegensatz zu Maximum/Minimum,
Denition absolute und gleichmaige Konvergenz,
Konvergenzradius von Potenzreihen,
Denition der Exponentialfunktion.
108 KAPITEL 5. NORMIERTE R

AUME, REELLE ZAHLEN, FOLGEN, REIHEN


Kapitel 6
Funktionen
Denition 6.1. Eine eindeutige Abbildung f von einer Menge D
f
in eine Menge V heit Funktion
1
. Die
Menge D
f
heit Denitionsbereich
2
von f. Wenn f ein x D
f
auf y V abbildet, dann heit y der Wert
3
der Funktion f an der Stelle x. Der Wert y heit auch Bild von x.
Die Menge W
f
V samtlicher angenommener Funktionswerte heit Wertebereich
4
von f.
Sei W V eine beliebige Menge. Die Menge aller x D
f
mit f(x) W heit Urbild
5
von W.
Hierbei verstehen wir unter eindeutig, da jedem x D
f
genau ein Wert y = f(x) zugeordnet wird. Der
popularen Schreibweise

9 = 3 wollen wir uns hier nicht anschlieen. In diesem Skript ist

9 = 3.
Die Mengen D
f
und V konnen ganz beliebige Mengen sein. In den meisten Fallen wird es sich in dieser
Vorlesung um Teilmengen von R oder C handeln, aber man kann auch beliebige Banachraume betrachten.
Beispiel 6.2. Eine eindeutige Abbildung von N nach R ist eine Funktion. Diese Abbildung konnte man
schreiben als n a
n
. Man sagt dazu auch

Folge reeller Zahlen.


Ab jetzt bezeichnen wir mit z und w stets komplexe Zahlen und mit x, y, u, v stets reelle Zahlen.
6.1 Grenzwerte von Funktionen
Wie eben schon dargelegt, konnen wir mit ein wenig Phantasie Folgen als Funktionen interpretieren. Und
dann liegt es nahe, die Denition des Grenzwertes einer Folge (Denition 5.2) als Anleitung zu benutzen,
um eine Denition des Grenzwertes einer Funktion zu gewinnen. Wir gehen erst sprachlich vor, und dann
wird die formelhafte Denition uns fast entgegenfallen.
Zuerst erinnern wir an die Bedeutung der Schreibweise lim
n
a
n
= a

:
Ein Element a

ist Grenzwert einer Folge (a


n
)
nN
,
wenn es zu jeder Umgebung von a

ein N
0
gibt,
soda das Folgenendstuck ab N
0
in dieser Umgebung liegt.
Wir werden kreativ und vereinbaren die Sprechweise, da die Menge N
0
, N
0
+ 1, . . . von nat urlichen
Zahlen eine

Umgebung von ist. (Selbstverstandlich ist , N.) Weiterhin erinnern wir daran, da die
Folge beschrieben wird durch die Vorschrift n a
n
. Damit bekommen wir die Neuformulierung:
Ein Element a

ist Grenzwert einer Folge (a


n
)
nN
,
wenn es zu jeder Umgebung von a

eine Umgebung von gibt,


soda die Folgenvorschrift n a
n
diese Umgebung von in jene Umgebung von a

abbildet.
1
function
2
domain
3
value
4
range
5
pre-image
109
110 KAPITEL 6. FUNKTIONEN
Und nun ersetzen wir sprachlich:
f

, Funktion Folge, z n, f a, z

,
und erhalten die Bedeutung der Schreibweise lim
zz
f(z) = f

:
Ein Element f

ist Grenzwert einer Funktion f im Punkt z

,
wenn es zu jeder Umgebung von f

eine Umgebung von z

gibt,
soda die Funktionsvorschrift z f(z) diese Umgebung von z

in jene Umgebung von f

abbildet.
Um nun zur Formeldenition zu kommen, denken wir nur noch daran, da die genannte Umgebung von
f

ein Ball um f

C sein kann, und die genannte Umgebung von z

wird ein
0
Ball um z

C
sein. Und um es ganz exakt zu machen, denken wir noch uber die Denitionsbereiche nach: oensichtlich
mu z D
f
sein, ansonsten gabe es f(z) gar nicht. Andererseits braucht z

nicht in D
f
liegen; aber
ein Haufungspunkt von D
f
mu z

schon sein, ansonsten konnen die z nicht gegen z

konvergieren und
gleichzeitig im Denitionsbereich von f verbleiben.
Denition 6.3. Sei D
f
C eine Menge, und f : D
f
C eine Funktion. Sei z

C ein Haufungspunkt
von D
f
. Wir sagen, da die Funktion f im Punkt z

den Grenzwert
6
f

C hat, wenn gilt:


> 0
0
() > 0 : z D
f
mit z ,= z

und [z z

[ <
0
() : [f(z) f

[ < .
Wir vergleichen diese Denition mit der des Grenzwerts einer Folge:
lim
n
a
n
= a

> 0 N
0
() > 0 : n mit n N
0
() : [a
n
a

[ < ,
lim
zz

f(z) = f

> 0
0
() > 0 : z D
f
z

mit [z z

[ <
0
() : [f(z) f

[ < .
Mit den oben angef uhrten Ersetzungen gehen diese beiden Denitionen ineinander uber. Die Menge z
D
f
: z ,= z

, [z z

[ <
0
() beschreibt eine (punktierte) Umgebung von z

, wahrend die Menge n: n


N
0
() eine Umgebung von beschreibt.
Bemerkung 6.4. Weil isolierte Punkte (auch Einsiedlerpunkte genannt) keine Haufungspunkte des De-
nitionsbereiches sind, ist ein Grenzwert dort nicht deniert (und auch nicht sinnvoll denierbar).
Bemerkung 6.5. Die Denition eines Grenzwertes einer Funktion lat sich direkt auf Abbildungen zwi-
schen zwei Banachraumen U und V ubertragen. Man mu nur die Betragsstriche [ [ durch Normstriche
||
U
und ||
V
ersetzen.
Den folgenden Satz beweist man genauso wie den entsprechenden Satz f ur Folgen (Satz 5.3).
Satz 6.6. Wenn eine Funktion in einem Punkt einen Grenzwert hat, dann ist dieser eindeutig.
Das folgende Ergebnis ist n utzlich, wenn man durch Funktionen dividieren will:
Lemma 6.7. Es sei lim
zz
f(z) = f

,= 0. Dann gibt es eine Umgebung z : z D


f
, 0 < [z z

[ < ,
soda in dieser Umgebung f(z) ,= 0 gilt.
Beweis. Man wahle =
1
2
[f

[.
Es gibt noch eine zweite Denition des Grenzwertes, aber wir werden hier nicht beweisen, da beide De-
nitionen aquivalent sind:
Satz 6.8. Die Funktion f hat in einem Haufungspunkt z

des Denitionsgebietes den Grenzwert f

genau
dann, wenn gilt:
Fur jede Folge (z
n
)
nN
mit z
n
D
f
z

(fur jedes n) und lim


n
z
n
= z

ist lim
n
f(z
n
) = f

.
Die folgenden Denitionen sogenannter uneigentlicher Grenzwerte und einseitiger Grenzwerte beziehen sich
nur auf reelle Funktionen.
6
limit
6.2. STETIGKEIT 111
Denition 6.9. Sei f : R R eine Funktion und f

R. Wir sagen, da f gegen f

strebt f ur x +,
lim
x+
f(x) = f

, wenn:
> 0 R
0
() > 0 : x R
0
() : [f(x) f

[ < .
Analog schreiben wir lim
x
f(x) = f

, wenn
> 0 R
0
() > 0 : x R
0
() : [f(x) f

[ < .
Unter rechtsseitigen bzw. linksseitigen Grenzwerten lim
xx

+
f(x) bzw. lim
xx

f(x) verstehen wir die


ublichen Grenzwerte einer Funktion an einer Stelle x

, wobei die Laufvariable sich nur von rechts bzw. nur


von links an x

annahern darf.
Schlielich denieren wir noch die bestimmte Divergenz einer Funktion gegen + oder :
Denition 6.10. Sei f : D
f
R eine Funktion und x

ein Haufungspunkt von D


f
. Wir sagen, da f
bestimmt gegen + divergiert f ur x x

, wenn gilt:
R > 0
0
(R) > 0 : x D
f
x

, [x x

[ <
0
(R) : f(x) > R.
Analog denieren wir bestimmte Divergenz gegen .
Sinngema deniert man einseitige bestimmte Divergenz.
Warnung 6.11. Die populare Redeweise

1/x
2
strebt/konvergiert nach + fur x 0 ist unsinnig.
Praziser ist:

1/x
2
divergiert (bestimmt) nach + fur x 0.
F ur das Rechnen mit Grenzwerten haben wir das folgende Ergebnis.
Satz 6.12. In jeder der folgenden Formeln steht lim uberall fur eines der Symbole lim
xx
, lim
xx

,
lim
xx

+
, lim
x
, lim
x+
im Sinne der obigen Denitionen, jedoch nicht Denition 6.10.
Wenn limf(x) und limg(x) existieren, dann existieren auch
1. lim(f(x) +g(x)) = limf(x) + limg(x),
2. lim(f(x)g(x)) = (limf(x))(limg(x)),
3. lim
f(x)
g(x)
=
limf(x)
limg(x)
, falls g(x) ,= 0.
Beweis. Wegen Satz 6.8 d urfen wir die entsprechenden Satze f ur Zahlenfolgen verwenden, also Satz 5.6 und
Satz 5.53.
F ur Limites im Sinne von Denition 6.10 nutzen wir spater die Regel von BernoullilHospital.
F ur komplexe Funktionen konnen einseitige Grenzwerte nicht deniert werden, weil Begrie wie

links von
z

keinen Sinn haben, denn die komplexen Zahlen kann man nicht ordnen. Weiterhin hat es keinen Sinn,
+ und zu unterscheiden (denn sie sind gleich).
Stattdessen deniert man die bestimmte Divergenz allgemein:
Denition 6.13. Sei f : D
f
C eine Funktion und z

C ein Haufungspunkt von D


f
. Wir sagen, da
f bestimmt gegen divergiert f ur z z

, wenn gilt:
R > 0
0
(R) > 0 : z D
f
z

, [z z

[ <
0
(R) : [f(z)[ > R.
6.2 Stetigkeit
Ab jetzt betrachten wir bis auf weiteres komplexe Funktionen.
Denition 6.14. Sei f : D
f
C eine Funktion und z

C nicht nur ein Haufungspunkt des Denitions-


bereiches D
f
, sondern zusatzlich noch ein Element von D
f
. Wir sagen, da die Funktion f an der Stelle
z

stetig
7
ist, wenn folgendes gilt:
7
continuous at z

112 KAPITEL 6. FUNKTIONEN


lim
zz
f(z) existiert,
und lim
zz
f(z) = f(z

).
Wenn eine dieser beiden Bedingungen verletzt ist, heit die Funktion f unstetig an der Stelle z
8
.
Bemerkung 6.15. Die Forderung, da z

ein Element von D


f
und ein Haufungspunkt von D
f
sein soll,
klingt zunachst doppelt gemoppelt; sie ist es aber nicht: der Punkt z

konnte ja ein Einsiedlerpunkt von D


f
sein, und dann wird der Stetigkeitsbegri sinnlos.
Wir konnen die Stetigkeit von f an der Stelle z

auch als kommutatives Diagramm ausdr ucken, im Sinne


von lim
n
f(z
n
) = f(lim
n
z
n
):
(z
1
, z
2
, . . . )
f
(f(z
1
), f(z
2
), . . . )
limn

_
limn
z

f
f(lim
n
z
n
)
= lim
n
f(z
n
)
Beispiel 6.16. Die Funktion f = f(z) = 1/z, D
f
= C 0 ist im Punkt z

= 0 undeniert und unstetig.


Die Funktion g = g(x) = ln x mit D
g
= R
+
ist fur negative Zahlen undeniert, und es hat auch nicht viel
Sinn, dort nach Stetigkeit/Unstetigkeit zu fragen.
Denition 6.17. Wenn f : D
f
C in jedem Punkt z

D
f
stetig ist, dann heit f stetig in D
f
9
. Den
Vektorraum aller in D stetigen Funktionen bezeichnen wir mit C(D), C(D C) oder C(D R).
Satz 6.18. Sei f : D
f
C, und sei z

D
f
ein Haufungspunkt von D
f
. Dann sind aquivalent:
1. f ist stetig in z

,
2. lim
zz
f(z) = f(z

),
3. lim
n
f(z
n
) = f(z

) fur jede Folge (z


n
)
nN
D
f
z

, die gegen z

konvergiert,
4. jedes > 0 hat ein
0
() > 0, soda fur jedes z D
f
mit [z z

[ <
0
() gilt: [f(z) f(z

)[ < .
Beweis. Ergibt sich aus Satz 6.8 und Denition 6.14.
Satz 6.19. Sei f : C C eine Funktion. Dann sind aquivalent:
1. f ist stetig auf C,
2. das Urbild jeder oenen Menge ist oen,
3. das Urbild jeder abgeschlossenen Menge ist abgeschlossen.
Beweis. Lassen wir weg.
Frage: Man gebe ein Beispiel einer stetigen Funktion von R nach R an, bei der das Bild einer oenen
Menge nicht unbedingt wieder eine oene Menge ist.
Man gebe ein weiteres Beispiel einer stetigen Funktion von R nach R an, bei der das Bild einer abgeschlos-
senen Menge nicht unbedingt wieder eine abgeschlossene Menge ist.
Bemerkung 6.20. Analog wie bei Bemerkung 6.5 halten wir auch hier fest, da man die punktweise
Stetigkeit im Sinne von Denition 6.14 auch fur Abbildungen f : U V zwischen Banachraumen denieren
kann. Man mu nur uberall die Betragsstriche [ [ passend durch Normstriche ||
U
und ||
V
ersetzen, vor
allem in Satz 6.18, Teil 4. Und die Stetigkeit in einem Gebiet im Sinne von Denition 6.17 lat sich auch
fur solche allgemeineren Abbildungen denieren. Satz 6.19 gilt dann ebenfalls.
Satz 6.21. Die folgenden Aussagen gelten sowohl fur

Stetigkeit in einem Punkt als auch fur

Stetigkeit
in einem Gebiet.
8
discontinuous at z

9
continuous in D
f
6.2. STETIGKEIT 113
Wenn f und g stetig sind, dann auch f +g fur jegliche , C.
Wenn f und g stetig sind, dann auch f g.
Wenn f und g stetig sind und zusatzlich noch g(x) ,= 0 gilt, dann ist auch
f
g
stetig.
Beweis. Folgt beinahe sofort aus Satz 6.12.
Satz 6.22. Seien f : D
f
W
f
und g : D
g
W
g
stetige Funktionen mit W
g
D
f
. Dann ist die zusam-
mengesetzte Funktion (Komposition
10
) f g : D
g
W
f
deniert und wieder stetig.
Beweis. Sei x

D
g
und y

= g(x

) D
f
. Die Stetigkeiten von g in x

und von f in y

bedeuten: wenn
(x
n
)
nN
und (y
n
)
nN
Folgen sind mit Grenzwert x

und y

, dann ist
lim
n
g(x
n
) = g( lim
n
x
n
) = g(x

),
lim
n
f(y
n
) = f( lim
n
y
n
) = f(y

).
Nun sei (x
n
)
nN
gewahlt, und sei y
n
:= g(x
n
). Dann hat diese Folge den Grenzwert y

, und es folgt
lim
n
(f g)(x
n
) = lim
n
(f(g(x
n
)) = lim
n
f(y
n
) = f
_
lim
n
y
n
_
= f
_
lim
n
g(x
n
)
_
= f
_
g
_
lim
n
x
n
__
= (f g)
_
lim
n
x
n
_
.
Also kommutiert f g mit lim, und das wollten wir haben.
Beispiel 6.23. Konstante Funktionen sind trivialerweise stetig.
Lineare Funktionen der Form x x sind stetig.
Polynome sind stetig (folgt aus den ersten beiden ).
Gebrochen rationale Funktionen sind dort stetig, wo der Nenner nicht Null wird.
Satz 6.24. Sei f eine stetige Funktion mit Denitionsbereich D
f
in einem Banachraum U und Wertebe-
reich W
f
in einem Banachraum V . Dann ist das Bild einer jeden kompakten Menge wieder kompakt.
Beweis. Sei M D
f
eine in U kompakte Menge. Wir wollen zeigen, da die Bildmenge f(M) in V kompakt
ist.
Sei also (v
n
)
nN
eine Folge in f(M). Gesucht ist eine Teilfolge davon, die einen Grenzwert in f(M) hat. Zu
jedem v
n
gibt es ein u
n
M mit f(u
n
) = v
n
. Die Folge (u
n
)
nN
ist eine Folge in M, und M ist kompakt.
Also gibt es eine Teilfolge (u
n
k
)
kN
, die gegen einen Grenzwert u

M konvergiert. Weil f in u

stetig ist,
mu lim
k
f(u
n
k
) = f(u

) sein. Nun ist aber f(u


n
k
) = v
n
k
, und diese v
n
k
bilden eine Teilfolge der Folge
(v
n
)
nN
. Wegen u

M ist f(u

) f(M). Also strebt die Teilfolge (v


n
k
)
kN
gegen ein Element aus f(M).
Folglich ist f(M) kompakt.
Folgerung 6.25. Jede auf einer kompakten Menge stetige Funktion ist dort beschrankt.
Das Bild einer kompakten Menge unter einer stetigen Funktion ist abgeschlossen.
Beweis. Hinter Denition 5.50 hatten wir vermerkt: Kompakte Mengen sind beschrankt. Kompakte Mengen
sind abgeschlossen. Fertig.
Damit bekommen wir den wichtigen Satz vom Maximum:
Satz 6.26 (Satz vom Maximum). Sei f : D
f
R eine stetige Funktion, und sei D
f
,= kompakt. Dann
nimmt f auf D
f
sein Supremum und sein Inmum an. Das heit, es gibt x

, x

D
f
soda
f(x

) f(x) f(x

) x D
f
.
10
composed function
114 KAPITEL 6. FUNKTIONEN
Beweis. Der Wertebereich W
f
ist kompakt (wegen Satz 6.24) und nichtleer (wegen D
f
,= ). Er ist also
nach oben beschrankt, hat wegen Satz 5.47 demnach ein Supremum. Weil W
f
abgeschlossen ist (wegen
Folgerung 6.25), ist dieses Supremum von W
f
sogar ein Maximum, also besitzt W
f
ein grotes Element
f(x

). Analog argumentiert man f ur die Aussage uber das Minimum.


Bemerkung 6.27. Sei U = C([a, b] R) der Raum der auf [a, b] stetigen und reellwertigen Funktionen.
Wir hatten die ||

Norm bisher als


|f|

= max
x[a,b]
[f(x)[
deniert. Dabei hatten wir den (denkbaren) Fall ignoriert, da es dieses Maximum gar nicht gabe: sei es,
weil [f[ auf [a, b] unbeschrankt ware, sei es, weil [f[ zwar beschrankt ware und ein Supremum hatte, aber
kein Maximum. Der Satz vom Maximum sagt uns jetzt, da das Maximum von [f[ immer existiert. Die
eigentlich korrekte Denition der Norm ist
|f|

= sup
x[a,b]
[f(x)[.
Reellwertige stetige Funktionen springen nicht das ist das Ergebnis des folgenden Satzes.
Satz 6.28 (Zwischenwertsatz
11
). Sei f : D
f
R stetig auf dem kompakten Intervall [a, b]. Dann nimmt
f auf [a, b] jeden Wert zwischen f(a) und f(b) an. Wenn insbesondere f(a) und f(b) verschiedenes Vor-
zeichen haben, dann gibt es eine Nullstelle zwischen a und b.
Beweis. Es reicht, die Aussage uber die Nullstelle zu beweisen (Warum ?)
Wir setzen a
0
= a und b
0
= b. OBdA sei f(a
0
) < 0 und f(b
0
) > 0. Nimm Z :=
1
2
(a
0
+ b
0
).
Fall 1: angenommen, da f(Z) = 0: Dann sind wir fertig.
Fall 2: angenommen, da f(Z) < 0: Dann setzen wir a
1
= Z und b
1
= b
0
.
Fall 3: angenommen, da f(Z) > 0: Dann setzen wir a
1
= a und b
1
= Z.
Das Ergebnis ist in Fall 2 und Fall 3 jeweils f(a
1
) < 0 < f(b
1
) und [a
1
b
1
[ =
1
2
[a
0
b
0
[.
In diesem Stil verfahren wir induktiv weiter und nden zwei Folgen (a
n
)
nN
, (b
n
)
nN
so da:
a
0
a
1
a
2
a
3
. . . ,
b
0
b
1
b
2
b
3
. . . ,
a
n
< b
n
n,
[b
n+1
a
n+1
[ =
1
2
[b
n
a
n
[ n,
f(a
n
) < 0 < f(b
n
) n.
Die Folgen (a
n
)
nN
und (b
n
)
nN
streben gegen einen gemeinsamen Grenzwert x

, siehe Satz 5.48. Wegen


f(a
n
) < 0 und der Stetigkeit (in der Interpretation als kommutatives Diagramm) ist
f(x

) = f( lim
n
a
n
) = lim
n
f(a
n
) 0,
analog zeigt man f(x

) 0. Also ist f(x

) = 0.
Frage: Kennen Sie ein Beispiel f ur eine stetige Funktion f : C C, f ur die dieser Satz falsch ist ?
Wir ubertragen die Begrie

injektiv und

monoton auf Funktionen:


Denition 6.29. Eine Funktion f : D
f
W
f
heit injektiv
12
, wenn aus y
1
= f(x
1
), y
2
= f(x
2
) W
f
und y
1
= y
2
immer x
1
= x
2
folgt.
Sei I R ein Intervall. Eine Funktion f : I R heit monoton wachsend
13
, wenn aus x
1
x
2
stets
f(x
1
) f(x
2
) folgt.
Eine Funktion f : I R heit streng monoton wachsend
14
, wenn aus x
1
< x
2
stets f(x
1
) < f(x
2
) folgt.
Analog werden (streng) monoton fallende Funktionen deniert.
11
intermediate value theorem
12
injective
13
monotonically increasing
14
strictly monotonically increasing
6.2. STETIGKEIT 115
Satz 6.30. Sei f : D
f
W
f
eine Funktion, wobei D
f
, W
f
Intervalle aus R seien.
1. Die Funktion f ist surjektiv auf W
f
. Wenn f injektiv ist, dann existiert eine Umkehrfunktion g : W
f

D
f
mit g f = id
D
f
und f g = id
W
f
.
2. Wenn f streng monoton ist, dann ist f injektiv. Die Umkehrfunktion ist wieder streng monoton.
3. Wenn f streng monoton und stetig ist, dann ist auch g stetig.
Beweis. 1. und 2. sind sehr leicht, siehe auch Satz 4.7.
Bei 3. nehmen wir oBdA an, da f wachst. Sei y
0
= f(x
0
) W
f
. Zu zeigen ware, da die Umkehrfunktion
g in y
0
stetig ist. Angenommen, y
0
sei kein Randpunkt von W
f
. Dann ist auch x
0
kein Randpunkt von D
f
,
und f ur kleines > 0 ist [x
0
, x
0
+] D
f
. Wir suchen zu diesem ein
0
(), soda aus [y y
0
[ <
0
()
die Ungleichung [g(y) g(y
0
)[ < folgt.
Nun ist das Bild des Intervalles [x
0
, x
0
+ ] unter der Abbildung f aber gerade gleich dem Intervall
[f(x
0
), f(x
0
+)]. Wir wahlen
0
() = min(f(x
0
) f(x
0
), f(x
0
+) f(x
0
)) und sind fertig.
Ein anderer Beweis zu 3. beruht darauf zu begr unden, da man bei dem kommutativen Diagramm f ur die
Denition der Stetigkeit von f die fPfeile umdrehen darf (es ist nicht so trivial wie es aussieht).
Denition 6.31. Die Umkehrfunktion
15
einer injektiven Funktion f bezeichnet man mit f
1
.
Diese Bezeichnung ist miverstandlich, aber trotzdem allgemein gebrauchlich.
Beispiel 6.32. Wir setzen D
f
= x R: x 0 = R
0
und f = f(x) = x
n
mit n N. Dann ist
W
f
= R
0
. Die Funktion x x ist oensichtlich stetig, nichtnegativ-wertig und streng monoton wachsend,
also ist auch die Funktion f stetig und streng monoton wachsend, denn sie ist das mehrfache Produkt der
Funktion x x mit sich selbst. Nach Satz 6.30 hat dann f eine Umkehrfunktion g, die wir Wurzelfunktion
nennen und es ist
g : R
0
R
0
,
g : x
n

x.
Man beachte, da die Wurzelfunktion lediglich fur nichtnegative reelle Zahlen deniert ist. Die manchmal
anzutreenden Aussagen der Form
3

8 = 2
sind verwegener Unsinn. Man meditiere zum Beispiel uber der Zeile
2 =
3

8 = (8)
1
3
= (8)
2
6
=
_
(8)
2
_1
6
= 64
1
6
=
6

64 = +2.
Satz 6.33. Die Funktion z exp(z) ist stetig auf C.
Beweis. Wir konnten auf das entsprechende Ergebnis aus Satz 5.63 verweisen, das allerdings immer noch
seines Beweises harrt.
Oder wir rechnen es schnell aus, wobei wir mit der Stetigkeit in z
0
= 0 anfangen. Wir wollen zeigen, da
lim
z0
[ exp(z) exp(0)[ = 0
ist, weshalb wir [z[ 1 voraussetzen konnen. Nun ist
0 [ exp(z) exp(0)[ =

k=0
z
k
k!
1

k=1
[z[
k
k!
= [z[

k=0
[z[
k
(k + 1)!
[z[

k=0
[z[
k
k!
= [z[ exp([z[)
[z[ exp(1);
und wenn wir jetzt das Sandwichprinzip anwenden, ist die Stetigkeit im Nullpunkt gezeigt.
15
inverse function
116 KAPITEL 6. FUNKTIONEN
Sei nun z
0
C beliebig, und wir wollen beweisen, da
lim
zz0
[ exp(z) exp(z
0
)[ = 0.
Nun ist aber
lim
zz0
[ exp(z) exp(z
0
)[ = lim
zz0
[ exp(z
0
)[ [ exp(z z
0
) exp(0)[ = [ exp(z
0
)[ lim
zz0
[ exp(z z
0
) 1[ = 0.
Also ist die Exponentialfunktion auch in z
0
C stetig.
Weil die Exponentialfunktion x e
x
f ur reelle x noch dazu streng monoton wachsend ist, konnen wir eine
Umkehrfunktion dazu betrachten:
Denition 6.34. Die Umkehrfunktion der Funktion
exp: R R
+
,
exp: x exp(x) = e
x
heit Logarithmus
16
(zur Basis e) und wird geschrieben als
ln: R
+
R,
ln: x ln(x).
Aus den Eigenschaften der Exponentialfunktion erhalten wir schnell die folgenden Eigenschaften der Loga-
rithmusfunktion:
Lemma 6.35. Die Logarithmusfunktion ist stetig und streng monoton auf R
+
. Fur x, y R
+
gilt dann
ln(x y) = ln(x) + ln(y),
ln(x/y) = ln(x) ln(y),
ln(1) = 0.
Wir wollen als nachstes beliebige Potenzen a
x
denieren, wobei a R
+
und x R ist.
Denition 6.36 (Allgemeine Potenz). Sei a R
+
und x R. Dann denieren wir
a
x
:= exp(xln a).
Diese Funktion ist stetig, denn sie ist eine Komposition von stetigen Funktionen.
Wenn jetzt x = n N, dann hat die Schreibweise a
x
zwei Denitionen: einerseits a
n
= a. . .a (n Faktoren),
andererseits a
n
= exp(nln a). Diese widersprechen sich nicht, denn es ist
exp(nln a) = exp(ln a + + ln a) = exp(ln a) . . . exp(ln a) = a . . . a.
Satz 6.37. Seien a, b R
+
und x, y R. Dann gilt
ln(a
x
) = xln a,
(a b)
x
= a
x
b
x
,
a
x+y
= a
x
a
y
,
a
x
=
1
a
x
,
(a
x
)
y
= a
(xy)
.
Beweis. Die erste Eigenschaft folgt sofort aus der Denition von a
x
, und die weiteren ergeben sich dann
unmittelbar.
F ur a
1/n
erhalten wir gerade die Wurzelfunktion
n

a, denn (a
1/n
)
n
= a
((1/n)n)
= a.
Warnung 6.38. Die obigen Regeln fur Exponentialfunktionen der Form x a
x
gelten nur fur reelle x
und positive a. Analog gelten die Regeln fur die Logarithmusfunktion nur fur positive Argumente von ln.
Gedankenlose Ausdehnung auf negative oder gar komplexe a fuhrt in den meisten Fallen zu schweren Feh-
lern. Auf dieselben Probleme wird man stoen, wenn man die Logarithmusfunktion fur negative oder kom-
plexe Zahlen denieren will.
16
logarithm
6.3. DIFFERENZIERBARKEIT 117
6.3 Dierenzierbarkeit
Denition 6.39. Sei f : D
f
W
f
eine Funktion, wobei D
f
, W
f
R oder D
f
, W
f
C.
Sei z
0
D
f
ein Punkt im Inneren von D
f
, d.h. nicht auf dem Rand D
f
. Wir sagen, da f im Punkte z
0
dierenzierbar
17
ist, wenn der Grenzwert
lim
zz0
f(z) f(z
0
)
z z
0
existiert. In diesem Falle nennen wir den Grenzwert Ableitung von f im Punkt z
0
18
und schreiben dafur
f

(z
0
) =
df
dz
(z
0
) =
d
dz
f(z
0
) =
d
dz
f(z)

z=z0
.
Sei G D
f
eine Menge. Wenn f in jedem (inneren) Punkt von G dierenzierbar ist, dann sagen wir, da
f dierenzierbar in G ist. In diesem Falle ist die Ableitung f

eine Funktion, die in G deniert ist. Wenn


diese Ableitung zusatzlich stetig sein sollte, dann nennt man f stetig in G dierenzierbar
19
.
Wenn f

wieder dierenzierbar sein sollte, dann heit f zweimal dierenzierbar


20
. Analog deniert man
hohere Ableitungen.
Fur die Menge der auf G kmal stetig dierenzierbaren Funktionen mit reellen Werten schreibt man
C
k
(G R).
Es gibt zwei verschiedene Theorien dierenzierbarer Funktionen. Einerseits diejenige, wo D
f
und W
f
Teil-
mengen von R sind, andererseits diejenige mit D
f
, W
f
C.
Diese zwei Theorien sind total verschieden voneinander. So ist zum Beispiel eine komplex dierenzierbare
Funktion automatisch unendlich oft dierenzierbar. Man redet in diesem Zusammenhang auch von holo-
morphen oder analytischen
21
Funktionen. Weiterhin gilt zum Beispiel: wenn eine komplex dierenzierbare
Funktion in einer kleinen Kreisscheibe uberall den Wert 0 hat, dann hat sie uberall in C den Wert 0. Dieses
Verhalten ndet man bei reell dierenzierbaren Funktionen bekanntlich nicht.
Auerdem ist zum Beispiel die Funktion z [z[
4
lediglich im Nullpunkt komplex dierenzierbar und sonst
nirgendwo.
Holomorphe Funktionen werden im 3. Semester eingehend studiert werden; ein groer Teil der jetzigen
Untersuchungen beschrankt sich deshalb auf reell dierenzierbare Funktionen.
Denition 6.40. Sei f : D
f
W
f
dierenzierbar in D
f
und x
0
D
f
. Sei x = dx R (bzw. C) eine
beliebige Zahl. Wir setzen voraus, da der Ball B
|x|
(x
0
) in D
f
enthalten ist. Dann denieren wir:
f = f(x
0
+ x) f(x
0
),
df = f

(x
0
) x = f

(x
0
) dx.
Der Ausdruck df heit Dierential von f
22
.
Die Dierenz f df beschreibt den Fehler, den man begeht, wenn man f in der Nahe des Punktes x
0
durch eine lineare Funktion annahert. Die Dierenzierbarkeit von f in x
0
bedeutet gerade, da dieser Fehler
von hoherer als erster Ordnung nach 0 konvergiert, wenn x nach 0 strebt.
Denition 6.41. Seien f und g zwei Funktionen, deniert nahe x = x
0
. Wir sagen, da
f(x) = O(g(x)), x x
0
,
17
dierentiable at z
0
18
derivative of f at z
0
19
continuously dierentiable in G
20
twice dierentiable
21
holomorph, analytic
22
Es gibt noch eine andere Bedeutung des Begries Dierential. Gelegentlich wird diejenige lineare Abbildung, die x auf
f

(x
0
)x abbildet, als Dierential bezeichnet. Der obige Dierentialbegri versteht unter df also den Ausdruck f

(x
0
)x, der
andere Dierentialbegri versteht unter df aber den Term f

(x
0
). An dieser Stelle ist es vielleicht interessant zu vermerken, da
mit der umgangssprachlichen Bezeichnung

Bronstein gelegentlich zwei verschiedene Werke gemeint sind: eine Ausgabe des
B.G.TeubnerVerlags, und eine Ausgabe des Verlags Harri Deutsch. Beide haben ihre Wurzeln in der sowjetischen Erstauage
von 1937, aber aus juristischen Gr unden darf nur die letztere

Bronstein genannt werden, und beide vertreten unterschiedliche


Auassungen, was ein Dierential denn nun eigentlich ist.
118 KAPITEL 6. FUNKTIONEN
wenn es eine Konstante C > 0 gibt, soda in einer Umgebung von x = x
0
gilt:
[f(x)[ C[g(x)[.
Wir sagen, da
f(x) = o(g(x)), x x
0
wenn f(x) = O(g(x)) fur x x
0
und wenn zusatzlich f in x
0
eine starkere Nullstelle hat als g, also
lim
xx0
f(x)
g(x)
= 0.
Diese Ausdrucke O und o heien Landau
23
Symbole. Sinngema genauso deniert man Landau-Symbole
fur den Fall x .
Wenn wir an einer Stelle O(g(x)) schreiben, und an einer anderen Stelle des Textes nochmal O(g(x))
schreiben, dann soll das nicht bedeuten, da beide Terme identisch sind, sondern nur, da sie sich gleich
verhalten. Das bedeutet, da der erste Term abgeschatzt werden kann als C
1
[g(x)[, und da der zweite
Term abgeschatzt werden kann als C
2
[g(x)[.
Beispiel 6.42. Es gilt
sin(x) = O(x), x 0,
sin(x) = x +O(x
3
), x 0,
cos(x) = 1 +O(x
2
) = 1 +o(x), x 0,
2x + 5
x + 1
= O(1), x +.
Lemma 6.43. Fur x x
0
haben wir die folgenden Rechenregeln:
wenn f in einer Umgebung von x
0
beschrankt ist, dann ist f(x) = O(1),
O(g(x)) +O(g(x)) = O(g(x)),
O(g
1
(x)) O(g
2
(x)) = O(g
1
(x) g
2
(x)),
O((x x
0
)
2
) = o(x x
0
).
Hierbei sind die letzten drei von links nach rechts zu lesen, sonst begibt man sich evtl. in die Schwierig-
keiten, die in Warnung 5.7 beschrieben wurden. Die Beweise dieser Regeln folgen schnell aus der Denition
der LandauSymbole.
Satz 6.44. Sei f eine Funktion, deniert in einer Umgebung von x
0
.
1. Sei f dierenzierbar in x
0
. Dann ist fur x in der Nahe von x
0
f(x) = f(x
0
) +f

(x
0
) (x x
0
) +R(x; x
0
)
mit R(x; x
0
) = o([x x
0
[) fur x x
0
.
2. Wenn es eine Zahl A R gibt (die nicht von x abhangt) mit
f(x) = f(x
0
) +A (x x
0
) +o([x x
0
[), x x
0
,
dann ist f in x
0
dierenzierbar, und es ist f

(x
0
) = A.
Beweis. 1. Wir haben
R(x; x
0
)
x x
0
=
f(x) f(x
0
)
x x
0
f

(x
0
),
und die rechte Seite strebt nach 0 falls x x
0
.
23
Edmund Georg Hermann Landau, 18771938, nicht zu verwechseln mit Lev Davidovich Landau, 19081968, bekannt
f ur den gemeinsam mit Evgenni Mikhailovich Lifshitz geschriebenen Kurs zur Theoretischen Physik
6.3. DIFFERENZIERBARKEIT 119
2. Es ist
f(x) f(x
0
)
x x
0
= A+
o([x x
0
[)
x x
0
,
und die rechte Seite hat einen Limes f ur x x
0
, namlich A. Also ist f dierenzierbar in x
0
.
Spater werden wir sehen, da sogar R(x; x
0
) = O([xx
0
[
2
) gilt, wenn f in einer Umgebung von x
0
zweimal
stetig dierenzierbar ist.
Als Merkregel halten wir fest:
Wenn f(x) = f(x
0
) +A(x x
0
) +o(x x
0
) fur x x
0
,
dann mu f in x
0
dierenzierbar sein,
und f

(x
0
) mu gleich A sein.
Damit werden wir demnachst die Ableitungsformeln f ur Summen, Produkte, Verkettungen und Umkehr-
funktionen zeigen, wobei wir ausgiebigen Gebrauch von den Rechenregeln f ur die LandauSymbole machen
werden.
Satz 6.45. Dierenzierbare Funktionen sind stetig.
Beweis. Sieht man sofort aus Satz 6.44.
Beispiel 6.46. Die Ableitungen von f = f(x) = 1 und g = g(x) = x lauten f

= f

(x) = 0 und
g

= g

(x) = 1.
Satz 6.47. Die Exponentialfunktion z
0
exp(z
0
) ist fur komplexe z
0
dierenzierbar, und es ist exp

(z
0
) =
exp(z
0
).
Beweis. Wir zeigen zunachst, da exp

(0) = 1. Dazu m ussen wir nur beweisen, da


exp(z) exp(0) 1 (z 0) = o([z 0[), z 0.
Nun ist aber

exp(z) 1 z
z 0

k=2
z
k
k!
z

k=1
[z[
k
(k + 1)!
= [z[

k=0
[z[
k
(k + 2)!
[z[

k=0
[z[
k
k!
= [z[ exp([z[)
und dies strebt nach 0 f ur z 0, denn die Exponentialfunktion ist stetig, siehe Satz 6.33.
Sei nun z
0
C beliebig. Wir wollen zeigen, da
exp(z) exp(z
0
) exp(z
0
) (z z
0
) = o([z z
0
[), z z
0
.
Oensichtlich ist nun wegen des Additionstheorems der Exponentialfunktion

exp(z) exp(z
0
) exp(z
0
) (z z
0
)
z z
0

= [ exp(z
0
)[

exp(z z
0
) 1 1 (z z
0
)
(z z
0
) 0

,
und die rechte Seite geht nach 0 f ur (z z
0
) 0, denn die Exponentialfunktion ist im Ursprung dieren-
zierbar.
Satz 6.48. Seien f und g in z
0
dierenzierbar, und , C. Dann ist auch f +g in z
0
dierenzierbar,
und es ist
(f +g)

(z
0
) = f

(z
0
) +g

(z
0
).
Beweis. Wir haben f ur z z
0
die Entwicklungen
f(z) = f(z
0
) +f

(z
0
) (z z
0
) +R
f
(z; z
0
),
g(z) = g(z
0
) +g

(z
0
) (z z
0
) +R
g
(z; z
0
).
Dann folgt sofort
(f +g)(z) = (f +g)(z
0
) + (f

(z
0
) +g

(z
0
)) (z z
0
) + (R
f
(z; z
0
) +R
g
(z; z
0
)).
120 KAPITEL 6. FUNKTIONEN
Also ist die Menge der auf einem Gebiet dierenzierbaren Funktionen ein Vektorraum.
Satz 6.49 (Produktregel). Seien f und g in z
0
dierenzierbar. Dann ist auch f g in z
0
dierenzierbar,
und es ist
(f g)

(z
0
) = f

(z
0
)g(z
0
) +f(z
0
)g

(z
0
).
Beweis. Wir haben
f(z) = f(z
0
) +f

(z
0
) (z z
0
) +R
f
(z; z
0
),
g(z) = g(z
0
) + g

(z
0
) (z z
0
) +R
g
(z; z
0
).
Dann liefert eine simple Multiplikation
(f g)(z) = (f(z
0
) +f

(z
0
) (z z
0
) +R
f
(z; z
0
)) (g(z
0
) +g

(z
0
) (z z
0
) +R
g
(z; z
0
))
= (f g)(z
0
) + (f

(z
0
)g(z
0
) +f(z
0
)g

(z
0
)) (z z
0
) +R
f
(z; z
0
) O(1) +O(1) R
g
(z; z
0
),
und der Beweis ist komplett.
Bevor wir jetzt zur Regel f ur die Division kommen, betrachten wir zuerst die Funktion w
1
w
und die
Kettenregel.
Lemma 6.50. Die Funktion w
0

1
w0
ist dierenzierbar fur w
0
,= 0, und die Ableitung ist
_
1
w
0
_

=
1
w
2
0
.
Beweis. Sei w nahe w
0
. Dann konnen wir deshalb w ,= 0 annehmen. Nun ist
1
w
=
1
w
0
+
_
1
w

1
w
0
_
=
1
w
0
+
w
0
w
w
0
w
=
1
w
0
+
w
0
w
w
2
0
+
_
w
0
w
w
0
w

w
0
w
w
2
0
_
=
1
w
0

1
w
2
0
(w w
0
) +
w
0
w
w
0
_
1
w

1
w
0
_
=
1
w
0

1
w
2
0
(w w
0
) +
w
0
w
w
0

w
0
w
ww
0
=
1
w
0

1
w
2
0
(w w
0
) +O([w w
0
[
2
).
Also mu der Wert der Ableitung an der Stelle w
0
gerade
1
w
2
0
sein.
Satz 6.51 (Kettenregel). Seien f und g zwei Funktionen mit W
g
D
f
. Sei g dierenzierbar in z
0
und
f dierenzierbar in w
0
= g(z
0
). Dann ist die Komposition f g dierenzierbar in z
0
, und es ist
(f g)

(z
0
) = f

(w
0
) g

(z
0
).
Beweis. Wir haben
g(z) = g(z
0
) + g

(z
0
) (z z
0
) +R
g
(z; z
0
),
f(w) = f(w
0
) +f

(w
0
) (w w
0
) +R
f
(w; w
0
).
Wir setzen die erste Gleichung in die zweite ein, und wahlen dabei w = g(z):
(f g)(z) = (f g)(z
0
) +f

(w
0
) (g

(z
0
) (z z
0
) +R
g
(z; z
0
)) +R
f
(w, w
0
)
= (f g)(z
0
) +f

(w
0
) g

(z
0
) (z z
0
) +O(1)R
g
(z; z
0
) +R
f
(w; w
0
).
Es bleibt noch zu zeigen, da R
f
(w; w
0
) = o([z z
0
[). Wenn w = w
0
sein sollte, dann ist R
f
(w; w
0
) = 0
und wir waren in diesem Falle fertig. Ansonsten d urfen wir durch w w
0
dividieren und haben
R
f
(w; w
0
)
z z
0
=
R
f
(w; w
0
)
w w
0

w w
0
z z
0
6.3. DIFFERENZIERBARKEIT 121
F ur z z
0
strebt w nach w
0
. Dann geht der erste Faktor nach 0 und der zweite strebt zu g

(z
0
), also
lim
zz0,
w(z)=w(z0)
R
f
(w; w
0
)
z z
0
= 0,
was den Beweis der Kettenregel vollendet.
Satz 6.52 (Divisionsregel). Seien die Funktionen f und g in z
0
dierenzierbar, und sei g ,= 0 in einer
Umgebung von z
0
. Dann ist auch die Funktion f/g in z
0
dierenzierbar, und es gilt
_
f
g
_

(z
0
) = f

(z
0
)
1
g(z
0
)
f(z
0
)
1
g(z
0
)
2
g

(z
0
).
Beweis. Folgt sofort aus der Produktregel, Lemma 6.50 und der Kettenregel.
Jetzt wollen wir Umkehrfunktionen ableiten. Sei eine dierenzierbare Funktion f gegeben. Angenommen,
eine gute Fee sagt uns, da f eine Umkehrfunktion g hat, und da g sogar dierenzierbar ist. Dann haben
wir f ur alle z in der Nahe von z
0
die Identitat
g(f(z)) = z,
und wenn wir das gema Kettenregel ableiten auf beiden Seiten, bekommen wir an der Stelle z
0
dann
g

(f(z
0
)) f

(z
0
) = 1.
Mit der Notation w
0
:= f(z
0
) schreibt sich das dann als g

(w
0
) =
1
f

(z0)
.
Nun stellen wir uns auf den Standpunkt, da uns heute noch keine gute Fee besucht hat:
Satz 6.53 (Existenz der Umkehrfunktion). Sei f : D
f
W
f
eine stetige Funktion, z
0
D
f
und
w
0
= f(z
0
). Wenn f in einer Umgebung von z
0
stetig dierenzierbar ist und f

(z
0
) ,= 0 ist, dann existiert
in der Nahe von w
0
eine Umkehrfunktion g = g(w) zur Funktion f.
Achtung: uber die Dierenzierbarkeit von g wird jetzt noch nichts behauptet (erst im Satz 6.54) !
Beweisskizze. Wir schauen uns zuerst die reelle Situation an, also x und x
0
anstatt z und z
0
. Nach Voraus-
setzung existiert f

nahe x
0
und ist stetig. Wegen dieser Stetigkeit, f

(x
0
) ,= 0 und Lemma 6.7 hat dann
die Ableitung f

in einer kompletten Umgebung von x


0
immer dasselbe Vorzeichen. Nun ist es irgendwie
einleuchtend (beweisen konnen wir es heute oziell noch nicht), da dann f in dieser kompletten Umge-
bung streng monoton sein mu. Dann konnen wir Satz 6.30 anwenden und erhalten, da es eine stetige und
streng monotone Umkehrfunktion g gibt.
In der komplexen Situation, also z, z
0
C, konnen wir mit Monotonie nicht argumentieren, weil man in C
keine Ordnung ndet. Ein Beweis kommt dann im zweiten Semester (Satz uber implizite Funktionen).
Wir vermerken noch, da man auf die geforderte Stetigkeit von f

nicht verzichten kann, wie das Beispiel


y = f(x) =
_
2 +x +x
2
sin(x
2
) : x ,= 0,
2 : x = 0
zeigt. Die Ableitung f

existiert auf ganz R; und es ist f

(0) = 1. Trotzdem gibt es keine Umkehrfunktion in


der Nahe von y = 2, denn die Funktion f = f(x) ist abwechselnd monoton wachsend und monoton fallend,
wenn x nach 0 strebt. Nahe x = 0 wechselt das Monotonieverhalten von f unendlich oft.
Satz 6.54 (Ableitung der Umkehrfunktion). Sei f : D
f
W
f
stetig, z
0
D
f
, w
0
= f(z
0
). Sei
weiterhin f in z
0
dierenzierbar, und sei f

(z
0
) ,= 0. Wir setzen auerdem voraus, da die Funktion f in
einer Umgebung von z
0
eine Umkehrfunktion g hat. Dann ist g in w
0
dierenzierbar, und es ist
g

(w
0
) =
1
f

(z
0
)
.
122 KAPITEL 6. FUNKTIONEN
Beweis. Wir wissen, da
f(z) = f(z
0
) +f

(z
0
) (z z
0
) +R
f
(z; z
0
) (6.1)
gilt, falls [z z
0
[ klein genug ist. Hierbei ist lim
zz0
R
f
(z;z0)
zz0
= 0. Das bedeutet: wenn z nahe genug an z
0
ist, dann ist der letzte Summand in (6.1) 1000 mal kleiner als der mittlere (es sei denn, der mittlere ware
identisch gleich Null; aber das ist unmoglich wegen f

(z
0
) ,= 0). Dann haben wir f ur solche z
0.999[f

(z
0
)[
[f(z) f(z
0
)[
[z z
0
[
1.001[f

(z
0
)[. (6.2)
Wir konnen also [f(z) f(z
0
)[ und [z z
0
[ gegeneinander vergleichen. Nun setzen wir w = f(z) und
w
0
= f(z
0
), also z = g(w) und z
0
= g(w
0
). Wenn w ,= w
0
, dann ist nach dieser Formel also auch z ,= z
0
.
Wir entwickeln g = g(w) in eine Reihe:
g(w) = z
= z
0
+ (z z
0
) = g(w
0
) + (z z
0
)
= g(w
0
) +
f(z) f(z
0
) R
f
(z; z
0
)
f

(z
0
)
= g(w
0
) +
w w
0
f

(z
0
)

R
f
(z; z
0
)
f

(z
0
)
.
Es bleibt zu zeigen, da der Restterm schneller als von erster Ordnung (in [w w
0
[) nach 0 strebt, wenn
w w
0
. Das ergibt sich aus
R
f
(z;z0)
f

(z0)
w w
0
=
1
f

(z
0
)

R
f
(z(w); z
0
)
z(w) z
0

z(w) z
0
w w
0
=
1
f

(z
0
)

z z
0
f(z) f(z
0
)

R
f
(z(w); z
0
)
z(w) z
0
.
Der erste Faktor ist beschrankt, der zweite wegen (6.2) auch, und der dritte strebt nach 0 f ur w w
0
.
Mit diesem Satz konnen wir die Ableitungen von Logarithmus und allgemeinen Potenzen bestimmen:
Satz 6.55. Fur x > 0 ist
(ln x)

=
1
x
.
Fur a R
+
und x R ist
d
dx
a
x
= (ln a)a
x
,
d
da
a
x
= xa
x1
.
Beweis. Sei y = ln x, dann ist x = exp(y) und schlielich
(ln x)

=
1
(exp(y))

=
1
exp(y)
=
1
x
.
Der zweite Teil ergibt sich aus a
x
= exp(xln a), der Kettenregel und den Regeln f ur die Ableitung der
Exponentialfunktion und Logarithmusfunktion.
6.4 Mittelwertsatz und Taylorscher Satz
Die Betrachtungen dieses Abschnitts setzen reelle Funktionen voraus, und die meisten Ergebnisse werden
falsch, wenn man stattdessen komplexe Funktionen betrachtet.
Denition 6.56. Sei f : I R eine Funktion, deniert auf einem Intervall I R. Sei x
0
I ein innerer
Punkt oder ein Randpunkt. Wir sagen, da f im Punkt x
0
ein lokales Maximum
24
hat, wenn in einer
Umgebung von x
0
die Ungleichung f(x) f(x
0
) gilt.
Analog deniert man ein lokales Minimum
25
.
Wenn f in einem inneren Punkt x
0
I ein lokales Maximum oder Minimum hat, dann redet man auch
von einem lokalen Extremum
26
.
24
local maximum
25
local minimum
26
local extremum
6.4. MITTELWERTSATZ UND TAYLORSCHER SATZ 123
Satz 6.57. Sei f : I R eine Funktion mit einem lokalen Extremum in einem inneren Punkt x
0
I.
Wenn f in x
0
dierenzierbar ist, dann ist f

(x
0
) = 0.
Warnung 6.58. Die Aussage des Satzes wird falsch, wenn x
0
ein Randpunkt des Intervalles sein darf !
Beweis. Sei das Extremum ein Maximum (der Fall des Minimums geht ahnlich). In der Nahe von x
0
gilt
dann f(x) f(x
0
), und somit gilt
f(x) f(x
0
)
x x
0
_
0 : x x
0
,
0 : x x
0
.
Wenn x x
0
, dann mu der Grenzwert des Dierenzenquotienten existieren. Der linksseitige Grenzwert
ist 0, der rechtsseitige ist 0. Also ist f

(x
0
) = 0.
Satz 6.59 (Satz von Rolle
27
). Die Funktion f : I R sei auf dem abgeschlossenen Intervall I = [a, b]
stetig und auf dem oenen Intervall (a, b) dierenzierbar. Sei weiterhin f(a) = f(b) = 0. Dann existiert
ein (a, b) mit f

() = 0.
Beweis. Wir unterscheiden drei Falle.
f hat in (a, b) wenigstens einen positiven Wert: Nach dem Satz vom Maximum nimmt dann f ir-
gendwo im Intervall (a, b) ein positives Maximum f() an. Nach dem vorigen Satz ist dann f

() = 0.
f hat in (a, b) keinen positiven, jedoch mindestens einen negativen Wert: Dann kann man ahn-
lich wie im ersten Fall argumentieren.
f ist identisch 0: Dann ist f

() = 0 f ur jedes (a, b).


In jedem der drei Falle haben wir ein im Intervallinneren mit der Eigenschaft f

() = 0 gefunden.
Satz 6.60 (Verallgemeinerter Mittelwertsatz). Seien die Funktionen f, g : I R auf dem abgeschlos-
senen Intervall I = [a, b] stetig und auf dem oenen Intervall (a, b) dierenzierbar. Weiterhin sei g

(x) ,= 0
auf (a, b) und g(a) ,= g(b). Dann gibt es ein (a, b) mit
f(b) f(a)
g(b) g(a)
=
f

()
g

()
.
Beweis. Man setze
h(x) = f(x) f(a)
f(b) f(a)
g(b) g(a)
(g(x) g(a))
und wende den Satz von Rolle auf die Funktion h an.
Satz 6.61 (Mittelwertsatz
28
). Sei die Funktion f : I R auf dem abgeschlossenen Intervall I = [a, b]
stetig und auf dem oenen Intervall (a, b) dierenzierbar. Dann gibt es ein (a, b) mit
f(b) f(a)
b a
= f

().
Beweis. Man benutze den verallgemeinerten Mittelwertsatz mit g(x) = x.
Diese beiden unscheinbaren Mittelwertsatzchen haben viele wichtige und tiefgreifende Anwendungen. Die
ersten sind zusammengefat im folgenden Satz:
Satz 6.62. Sei f : I R stetig auf I = [a, b] und dierenzierbar auf (a, b).
27
Michel Rolle, 16521719
28
mean value theorem
124 KAPITEL 6. FUNKTIONEN
1. Wenn [f

(x)[ K fur jedes x (a, b), dann ist [f(x


1
) f(x
2
)[ K[x
1
x
2
[ fur beliebige x
1
, x
2

[a, b].
29
2. Wenn f

(x) = 0 fur jedes x (a, b), dann ist f auf [a, b] konstant.
3. Wenn lim
xb
f

(x) existiert, dann ist f in x = b linksseitig dierenzierbar und f

ist in b linksseitig
stetig. Analog fur a anstelle von b.
4. Die Funktion f ist monoton wachsend auf [a, b] genau dann, wenn f

(x) 0 fur jedes x (a, b).


5. Wenn f

(x) > 0 fur jedes x (a, b), dann ist f streng monoton wachsend auf [a, b].
Die Umkehrung der letzten Aussage ist falsch.
Beweis.
1. Wir haben f(x
1
) f(x
2
) = f

() (x
1
x
2
) f ur ein gewisses zwischen x
1
und x
2
.
2. Ergibt sich sofort aus 1. mit K = 0.
3. F ur x < b haben wir wegen des Mittelwertsatzes mit einem unbekannten (x, b)
f(x) f(b)
x b
= f

().
Wenn x von links nach b strebt, dann strebt auch = (x) nach b (Sandwichprinzip). Also existiert
der Grenzwert der rechten Seite (f ur x b), und somit existiert auch der Grenzwert der linken
Seite.
4. Wenn f monoton wachsend ist, dann hat die Dierenz f(x
1
) f(x
2
) dasselbe Vorzeichen wie x
1
x
2
.
Also ist der Quotient dieser beiden Dierenzen 0.

Ubergang zum Grenzwert liefert f

(x) 0.
Wenn nun f

(x) 0 ist f ur jedes x (a, b) und x


1
> x
2
, so ist auch f(x
1
) f(x
2
) wegen des
Mittelwertsatzes.
5. Der Beweis verlauft analog zum Beweis von 4. Ein Gegenbeispiel f ur die Umkehrung ist z.B. [a, b] =
[1, 1] und f = f(x) = x
7
.
Eine weitere wichtige Anwendung des verallgemeinerten Mittelwertsatzes ist die Regel von Bernoulli
30

de lHospital
31
:
Satz 6.63. Seien f, g : [a, b] R stetige Funktionen mit folgenden Eigenschaften:
1. lim
xb
f(x) = lim
xb
g(x) = 0,
2. g

(x) ,= 0 fur x (a, b),


3. f und g sind dierenzierbar in (a, b),
4. der Grenzwert
lim
xb
f

(x)
g

(x)
existiert und hat den Wert S.
29
Solche Funktionen heien dehnungsbeschr ankt oder Lipschitzstetig, nach Rudolf Otto Sigismund Lipschitz, 1832
1903
30
Johann I Bernoulli, 16671748, nicht zu verwechseln mit seinem Sohn Johann II Bernoulli, 17101790, oder seinem
Enkel Johann III Bernoulli, 17441807, oder 5 weiteren ber uhmten Bernoullis
31
Guillaume Francois Antoine Marquis de LHospital, 16611704
6.4. MITTELWERTSATZ UND TAYLORSCHER SATZ 125
Dann existiert auch der Grenzwert
lim
xb
f(x)
g(x)
und hat ebenfalls den Wert S. Dies gilt auch fur bestimmte Divergenz gegen S = .
Eine entsprechende Aussage gilt nat urlich auch f ur rechtsseitige Grenzwerte oder beidseitige Grenzwerte.
Warnung 6.64. Die Voraussetzung 4. ist entscheidend. Es gibt Beispiele, in denen lim
xb
f(x)
g(x)
existiert,
aber lim
xb
f

(x)
g

(x)
gibt es nicht.
Beweis von Satz 6.63. Sei x < b. Dann gibt es ein (x, b) mit
f(x)
g(x)
=
f(x) f(b)
g(x) g(b)
=
f

()
g

()
.
Wenn x nach b strebt, dann strebt auch = (x) nach b. Die rechte Seite konvergiert nach Voraussetzung 4.,
also auch die linke Seite.
Frage: Welchen Wert hat
lim
x0
e
x
1
ln(1 +x)
?
Es gibt wichtige Variationen der Regel von Bernoullide lHospital:
Satz 6.65. Seien f, g : (a, b) R stetige Funktionen mit folgenden Eigenschaften:
1. lim
xb
f(x) = lim
xb
g(x) = ,
2. g

(x) ,= 0 fur x (a, b),


3. f und g sind dierenzierbar in (a, b),
4. der Grenzwert
lim
xb
f

(x)
g

(x)
existiert und hat den Wert S.
Dann existiert auch der Grenzwert
lim
xb
f(x)
g(x)
und hat ebenfalls den Wert S. Dies gilt auch fur bestimmte Divergenz gegen S = .
Beweis. Lassen wir weg.
Die beiden letzten Satze gelten sinngema auch f ur b = +. Zum Beweis betrachtet man dann
lim
x+
f(x)
g(x)
= lim
t0+
f(t
1
)
g(t
1
)
und wendet die herkommliche Regel von Bernoullide lHospital an.
Und wir haben noch eine weitere Folgerung aus dem Verallgemeinerten Mittelwertsatz:
126 KAPITEL 6. FUNKTIONEN
Satz 6.66 (Taylor
32
scher Satz). Die Funktion f : I R sei auf dem abgeschlossenen Intervall I = [a, b]
stetig und auf dem oenen Intervall (a, b) n + 1mal dierenzierbar. Seien x, x
0
(a, b). Dann gibt es ein
zwischen x und x
0
soda
f(x) = f(x
0
) +f

(x
0
) (x x
0
) +
1
2!
f

(x
0
) (x x
0
)
2
+ +
1
n!
f
(n)
(x
0
) (x x
0
)
n
+R
n
(x; x
0
)
mit einem Restterm der Form
R
n
(x; x
0
) =
1
(n + 1)!
f
(n+1)
() (x x
0
)
n+1
.
Der Anteil f(x
0
) + +
1
n!
f
(n)
(x
0
)(x x
0
)
n
heit auch ntes TaylorPolynom von f an der Stelle x
0
33
.
Beweis. Seien x und x
0
xiert, und t (a, b) variabel. Wir basteln uns mit Phantasie zwei Funktionen:
F(t) = f(x) f(t) f

(t)(x t)
1
2!
f

(t)(x t)
2

1
n!
f
(n)
(t)(x t)
n
,
G(t) =
(x t)
n+1
(n + 1)!
.
Die Funktion G ist monoton im Intervall zwischen x und x
0
, also d urfen wir den verallgemeinerten Mittel-
wertsatz anwenden:
F(x) F(x
0
)
G(x) G(x
0
)
=
F

()
G

()
,
f ur ein gewisses unbekanntes zwischen x und x
0
.
Wir rechnen im Folgenden die einzelnen Terme aus. Zunachst ist F(x) = 0 und G(x) = 0. Weiterhin ist
d
dt
_
1
k!
f
(k)
(t)(x t)
k
_
=
1
k!
f
(k+1)
(t)(x t)
k

1
(k 1)!
f
(k)
(t)(x t)
k1
,
F

(t) =
1
n!
f
(n+1)
(t)(x t)
n
,
G

(t) =
(x t)
n
n!
.
Insgesamt ist dann
F(x
0
) =
F

()
G

()
G(x
0
) = f
(n+1)
()
(x x
0
)
n+1
(n + 1)!
,
woraus die Behauptung durch Umsortieren folgt.
Beispiel 6.67. Sei f = f(x) = (1 +x)

mit x (1, 1) = I und R. Mit x


0
= 0 haben wir
f(x
0
) = 1, f

(x
0
) = , f

(x
0
) = ( 1),
und somit ergibt sich die nutzliche Naherung
(1 +x)

= 1 + x +
( 1)
2
x
2
+O([x[
3
), x 0.
An dieser Stelle konnen wir eine in der Physik ubliche Sprechweise betrachten: f ur eine gen ugend oft
dierenzierbare Funktion f und x nahe genug bei x
0
wollen wir f(x) annahern. Dabei stellen wir uns vor,
da f eine hochkomplizierte Funktion ist, insbesondere viel komplizierter als Polynome. F ur die gesuchten
Naherungen gibt es mehrere Varianten:
Nullte Naherung: f(x) f(x
0
)
Erste Naherung: f(x) f(x
0
) + f

(x
0
)(x x
0
)
32
Brook Taylor, 16851731
33
nth order Taylor polynomial of f at x
0
6.4. MITTELWERTSATZ UND TAYLORSCHER SATZ 127
Zweite Naherung: f(x) f(x
0
) +f

(x
0
)(x x
0
) +
1
2
f

(x
0
)(x x
0
)
2
,
und so weiter. Der Unterschied zwischen linker und rechter Seite ist jeweils gleich R
0
(x; x
0
), R
1
(x; x
0
) bzw.
R
2
(x; x
0
). Sinnvoll sind diese Naherungen, wenn dieser Fehler R
n
deutlich kleiner ist als der letzte noch
mitgenommene Summand; und w unschenswerterweise sollte die (k+1)te Naherung besser sein als die kte
Naherung. Manchmal tut uns aber die Natur diesen Gefallen nicht, z.B. dann nicht, wenn der Graph von
f

heftige Ausschlage aufweist, aber trotzdem noch oft genug dierenzierbar ist (dann kann f
(n+1)
() f ur
groe n riesig werden).
Als eine weitere Anwendung des Taylorschen Satzes haben wir zum Beispiel das folgende Kriterium f ur
das Vorliegen eines Extremums:
Satz 6.68. Sei die Funktion f auf dem Intervall I n + 1mal stetig dierenzierbar. In einem inneren
Punkte x
0
I sei
f

(x
0
) = f

(x
0
) = = f
(n)
(x
0
), f
(n+1)
(x
0
) ,= 0.
Dann gilt:
n ungerade und f
(n+1)
(x
0
) > 0: f hat in x
0
ein Minimum,
n ungerade und f
(n+1)
(x
0
) < 0: f hat in x
0
ein Maximum,
n gerade: f hat in x
0
kein Extremum, sondern die Funktion x f(x) f(x
0
) wechselt im Punkt x
0
das
Vorzeichen.
Beweis. Wir haben
f(x) = f(x
0
) +
1
(n + 1)!
f
(n+1)
()(x x
0
)
n+1
.
Weil f
(n+1)
stetig ist, haben f
(n+1)
() und f
(n+1)
(x
0
) das gleiche Vorzeichen, falls nahe genug bei x
0
ist,
siehe Lemma 6.7.
Wenn die Funktion f unendlich oft dierenzierbar ist, dann konnen wir einen Versuch wagen, in der
Taylorschen Formel den Grenz ubergang n zu vollziehen. Das klappt aber nur, wenn das Restglied
R
n
nach 0 strebt f ur n .
Satz 6.69. Die Funktion f sei auf dem Intervall I unendlich oft dierenzierbar. Wir setzen voraus, da
es einen inneren Punkt x
0
I und ein kleines positives gibt, soda
lim
n
_
max
|x0|
1
n!

f
(n)
()


n
_
= 0.
Dann gilt: fur x I mit [x x
0
[ konvergiert das Restglied R
n
(x; x
0
) fur n nach 0, und es ist
f(x) =

k=0
1
k!
f
(k)
(x
0
)(x x
0
)
k
,
wobei diese Reihe fur [x x
0
[ absolut konvergiert.
Diese Reihe heit auch Taylorreihe
34
.
Beweis. Wir haben f ur jedes n N die Zerlegung
f(x) = p
n
(x; x
0
) +R
n
(x; x
0
)
=
n

k=0
1
k!
f
(k)
(x
0
)(x x
0
)
k
+
1
(n + 1)!
f
(n+1)
()(x x
0
)
n+1
,
wobei das unbekannte von x und n abhangt. Falls [x x
0
[ , dann ist
lim
n
R
n
(x; x
0
) = 0,
also mu der Grenzwert lim
n
p
n
(x; x
0
) auch existieren und den Wert f(x) annehmen.
34
Taylor series
128 KAPITEL 6. FUNKTIONEN
Wir kehren noch einmal zur uck zur Funktion f = f(x) = (1 +x)

mit R und 1 < x < 1. Wir setzen


x
0
= 0 und haben
f
(n)
(x) = ( 1) . . . ( n + 1)(1 +x)
n
, 1 < x < 1.
Denition 6.70. Fur R und n N denieren wir den Binomialkoezienten
_

n
_
als
_

n
_
:=
( 1) . . . ( n + 1)
n!
.
Dann konnen wir die Funktion f(x) = (1 +x)

schreiben als
(1 +x)

= p
n
(x; 0) +R
n
(x; 0)
=
n

k=0
_

k
_
x
k
+
_

n + 1
_
(1 +)
(n+1)
x
n+1
, 1 < x < 1,
wobei das unbekannte zwischen 0 und x liegt und von x und n abhangt.
Wir hatten gerne, da
(1 +x)

?
=

n=0
_

n
_
x
n
, 1 < x < 1.
Um dies zu beweisen, reicht es aber nicht aus zu zeigen, da der Grenzwert lim
n
p
n
(x; 0) existiert (das
tut er f ur 1 < x < 1, wie man mit dem Quotientenkriterium schnell sieht).
Wir brauchen mehr. Namlich, da dieser Grenzwert nicht blo schnode existiert, sondern auch noch den
Wert f(x) = (1 +x)

hat. Dies ist aber gleichbedeutend mit


lim
n
R
n
(x; 0)
?
= 0.
Sei x (1, 1) xiert und n so gro, da n < 0. Dann ist
[R
n
(x; 0)[
[ ( 1) . . . ( n)[
(n + 1)!
(1 [x[)
(n+1)
[x[
n+1
= (1 [x[)

[ ( 1) . . . ( n)[
(n + 1)!
_
[x[
1 [x[
_
n+1
=: S
n
(x),
wobei S
n
f ur

Schranke steht. Der Quotient S


n+1
/S
n
strebt nach
|x|
1|x|
, und dies ist < 1 f ur [x[ <
1
2
.
Damit konnen wir zeigen
35
, da
lim
n
R
n
(x; 0) = 0 f ur [x[ <
1
2
.
Auf diesem Wege haben wir bewiesen, da
(1 +x)

n=0
_

n
_
x
n
, R,
1
2
< x <
1
2
. (6.3)
Dies ist die ber uhmte binomische Reihe. Im dritten Semester werden wir starkere Werkzeuge kennenlernen,
die uns garantieren, da die Formel (6.3) auch f ur 1 < x < 1 gilt.
Warnung 6.71. Die Funktion
f(x) =
_
e
1/x
2
: x ,= 0,
0 : x = 0
35
Wenn wir etwas sorgfaltiger arbeiten und uns uberlegen, wo liegen kann, dann bekommen wir limn Rn(x; 0) = 0
sogar f ur
1
2
< x 1.
6.5. ELEMENTARE FUNKTIONEN 129
ist auf ganz R deniert, dort stetig und uberall unendlich oft dierenzierbar. Samtliche Ableitungen f
(n)
(0)
sind gleich 0. Die Folge der Werte der Taylorpolynome p
n
(x; 0) konvergiert fur n , namlich nach 0.
Aber oensichtlich ist
0 = lim
n
p
n
(x; 0) ,= f(x)
falls x ,= 0, denn fur solche x ist f(x) ,= 0.
Satz 6.72. Fur 1 < x 1 gilt
ln(1 +x) =

n=1
(1)
n1
x
n
n
.
Beweis. Man zeigt leicht, da lim
n
R
n
(x; 0) = 0 ist f ur
1
2
< x 1. Der Beweis f ur die restlichen x
kommt im zweiten Semester.
Insbesondere erhalten wir die fr uher schon benutzte Identitat
ln 2 = 1
1
2
+
1
3

1
4
+
1
5
. . . .
6.5 Elementare Funktionen
6.5.1 Der geometrische Zugang zu den Winkelfunktionen
Die Winkelfunktion sin, cos und tan
36
f ur Winkel zwischen 0 und

2
werden wie ublich am rechtwinkligen
Dreieck deniert:
sin =
Gegenkathete
Hypotenuse
, cos =
Ankathete
Hypotenuse
, tan =
sin
cos
=
Gegenkathete
Ankathete
.
Wenn nun R beliebig ist, dann deniert man sin und cos wie folgt:
In einem kartesischen Koordinatensystem startet man im Punkt (1, 0) und lauft auf dem Einheitskreis im
Gegenuhrzeigersinn den Winkel ab. Die kartesischen Koordinaten desjenigen Punktes, an dem man dann
ankommt, denieren die Zahlen cos (als xKoordinate) und sin (als yKoordinate). Falls cos ,= 0,
dann deniert man tan :=
sin
cos
. Die Lange des auf dem Einheitskreis zur uckgelegten Weges ist gerade
gleich .
Man sieht dann durch Hinschauen:
Satz 6.73. Die geometrisch denierten Winkelfunktionen sin und cos sind stetig und haben folgende Ei-
genschaften fur jedes R:
sin( + 2) = sin , cos( + 2) = cos ,
sin( +) = sin, cos( +) = cos ,
sin
_

2

_
= cos , cos
_

2

_
= sin ,
sin( ) = sin , cos( ) = cos ,
sin() = sin, cos() = cos ,
sowie
sin
_
+

2
_
= cos ,
sin
2
+ cos
2
= 1.
Die Funktionen sin und cos haben die Periodenlange 2, wahrend tan die halbe Periodenlange hat.
36
sine, cosine, tangent
130 KAPITEL 6. FUNKTIONEN
Satz 6.74 (Additionstheoreme). Fur , R gilt
sin( +) = sin cos + cos sin ,
cos( +) = cos cos sin sin ,
sin sin = 2 cos
_
+
2
_
sin
_

2
_
,
cos cos = 2 sin
_
+
2
_
sin
_

2
_
.
Beweis. Die letzten beiden Formeln folgen aus den ersten beiden (wie ?)
Abbildung 6.1: Zum Additionstheorem des Sinus
Wir beginnen mit dem Beweis des Additionstheorems f ur den Sinus im Falle von 0 < < /2 und
0 < < /2, vgl. Abbildung 6.1. Wir zeichnen ein Dreieck PRS mit Innenwinkel bei P und Innenwinkel
bei R. Wir nennen die Streckenlangen u := RS und v := SP. Dann drehen wir das Dreieck PRS
um den Mittelpunkt der Strecke PR um , wobei S auf einen Punkt Q abgebildet wird. Es entsteht ein
Parallelogramm PQRS mit Innenwinkel + bei P. Der Flacheninhalt dieses Parallelogramms ist
A = uv sin( +). (6.4)
Der Lotfupunkt von S auf PR sei getauft auf den Namen Z. F ur den Flacheninhalt des rechtwinkligen
Dreiecks PZS haben wir dann
A
PZS
=
1
2
PZ ZS =
1
2
(v cos ) (u sin) =
uv
2
cos sin .
F ur den Flacheninhalt des rechtwinkligen Dreiecks ZRS folgt analog
A
ZRS
=
1
2
ZR ZS =
1
2
(u cos ) (v sin ) =
uv
2
sin cos .
6.5. ELEMENTARE FUNKTIONEN 131
Der Gesamtacheninhalt des Parallelogramms ist dann
A = 2(A
PZS
+A
ZRS
) = uv (cos sin + sin cos ).
Wir vergleichen dies mit (6.4), und das gew unschte Additionstheorem f ur den Sinus steht da, zumindest
f ur den Fall 0 < , < /2. Weil Sinus/Cosinus ungerade/gerade Funktionen sind, bekommen wir das
Additionstheorem f ur den Sinus auch im Fall /2 < , < 0.
Abbildung 6.2: Zum Additionstheorem des Sinus
Als nachstes wollen wir das Additionstheorem des Sinus zeigen im Falle, da einer der beiden Winkel im
Intervall (0, /2) liegt, und der andere im Intervall (/2, 0). Mit ein wenig

Uberlegung erkennt man, da
es gen ugt zu zeigen:
sin( ) = sin cos cos sin , 0 < < < /2.
Dazu zeichnen wir ein rechtwinkliges Dreieck PQR mit rechtem Winkel bei Q und Winkel bei P, und
darin enthalten ein weiteres rechtwinkliges Dreieck PQT mit rechtem Winkel bei Q und Winkel bei P.
Wir taufen Streckenlangen: w := PR, v := PT, u := PQ. Siehe Abbildung 6.2. Dann haben wir
u = wcos , u = v cos = v = w
cos
cos
.
Der Flacheninhalt des Dreiecks PTR ist einerseits
A
PTR
=
1
2
wv sin( ) =
w
2
2
cos
cos
sin( ).
Andererseits haben wir PTR als

Dierenzdreieck zweier rechtwinkliger Dreiecke, also


A
PTR
= A
PQR
A
PQT
=
1
2
uwsin
1
2
uv sin =
w
2
2
_
cos sin cos
cos
cos
sin
_
=
w
2
2
cos
cos
_
cos sin cos sin
_
.
132 KAPITEL 6. FUNKTIONEN
Das wollten wir zeigen. Also gilt das Additionstheorem des Sinus jetzt sogar im Falle von /2 ,
/2, denn diese Winkelfunktionen sind stetig, also konnen wir zum abgeschlossenen Intervall ubergehen.
Aufgrund von sin( +) = sin und cos( +) = cos haben wir das Additionstheorem dann endlich
f ur alle , R.
Und das Additionstheorem f ur den Cosinus ergibt sich dann sofort gema
cos( +) = sin
_

2
( +)
_
= sin
__

2

_
+ ()
_
= sin
_

2

_
cos() + cos
_

2

_
sin()
= cos cos sinsin,
wobei wir hier Satz 6.73 benutzt haben.
Aus den Additionstheoremen und einfachen geometrischen

Uberlegungen ergeben sich dann die Formeln
f ur die Ableitungen:
Satz 6.75. Fur alle R gilt
(sin )

= cos , (cos )

= sin .
Beweis. Geometrisch ist klar, da sin0 = 0 und cos 0 = 1.
Wir zeigen als erstes, da (sin

)(0) = 1.
Sei 0 < <

2
. Einfache Flacheninhalts uberlegungen am Kreis zeigen, da
sin < < tan 1 <

sin
<
tan
sin
=
1
cos
.
Das Sandwichprinzip liefert dann lim
0
sin

= 1. Wegen sin 0 = 0 ist das aber gerade die Formel f ur


(sin

)(0) = 1.
Sei nun
0
R beliebig und ,=
0
. Aus Satz 6.74 erhalten wir dann
sin sin
0

0
= 2 cos
_
+
0
2
_
sin
_
0
2
_

0
= cos
_
+
0
2
_
sin
_
0
2
_
0
2
.
F ur
0
strebt die rechte Seite dann gegen cos
0
.
Die Ableitungsformel f ur den Cosinus ergibt sich aus der Ableitungsformel f ur den Sinus und cos =
sin(/2 ).
Weil (modulo Vorzeichen) eine Winkelfunktion die Ableitung der anderen ist und umgekehrt, sind die
Winkelfunktionen sin und cos unendlich oft dierenzierbar. Dann stellt sich naturgema die Frage nach
der Taylorreihe, und ob sie konvergiert, und wenn ja, gegen welchen Grenzwert. Diese Frage werden wir im
nachsten Abschnitt beantworten (obwohl wir es auch jetzt schon konnten).
Wir vermerken nur kurz zum Schlu, da die Sinusfunktion die (einzige) Losung des Anfangswertproblems
y

+ y = 0, y(0) = 0, y

(0) = 1
ist; und die Kosinusfunktion ist die (wiederum einzige) Losung des Anfangswertproblems
y

+ y = 0, y(0) = 1, y

(0) = 0.
6.5.2 Der analytische Zugang zu den Winkelfunktionen
Die Ausf uhrungen des vorigen Abschnitts haben einen gewissen Nachteil: sie sind unprazise und nicht exakt.
Wir haben beim Denieren der Winkelfunktionen und bei einigen Beweisen einige Begrie benutzt, von
denen wir gar nicht wissen, wie wir sie denieren sollen:
Winkel,
6.5. ELEMENTARE FUNKTIONEN 133
Lange eines Kreisbogens,
Flacheninhalt eines Dreiecks bzw. Kreissektors,
und sicherlich noch einige andere mehr.
Es hat sich deshalb in der Mathematik eingeb urgert, die Winkelfunktionen auf dem Wege der Analysis ein-
zuf uhren und, darauf aufbauend, die geometrischen Begrie hinterher zu denieren. Zum Beispiel deniert
man Flacheninhalte und Kurvenlangen als bestimmte Integrale.
Wir stellen uns jetzt auf den Standpunkt, von einer Zahl namens noch nie etwas gehort zu haben. Wir
werden ihr erst zum Schlu wiederbegegnen. Wir wissen auch gar nicht, was ein Kreis ist.
Wir beginnen mit einem kleinen Satz zur Exponentialfunktion.
Satz 6.76. Fur z C ist exp(z) = exp(z). Fur x R ist [ exp(ix)[ = 1.
Beweis. Die erste Behauptung erhalten wir aus
exp(z) =

k=0
z
k
k!
=

k=0
z
k
k!
=

k=0
(z)
k
k!
= exp(z).
Nun ist einerseits
exp(ix) exp(ix) = exp(ix ix) = exp(0) = 1,
andererseits nach der ersten Behauptung
exp(ix) = exp(ix) = exp(ix).
Insgesamt ergibt sich exp(ix)exp(ix) = 1, also [ exp(ix)[ = 1.
Denition 6.77. Fur x R denieren wir zwei Funktionen c = c(x) und s = s(x) durch
c(x) = 'exp(ix), s(x) = exp(ix).
Satz 6.78. Diese Funktionen haben die folgenden Eigenschaften fur beliebige x, y R:
c(x) =
1
2
(exp(ix) + exp(ix)), s(x) =
1
2i
(exp(ix) exp(ix)),
c(0) = 1, s(0) = 0,
c(x) = c(x), s(x) = s(x),
c
2
(x) +s
2
(x) = 1,
c(x +y) = c(x)c(y) s(x)s(y), s(x +y) = s(x)c(y) +s(y)c(x),
c

(x) = s(x), s

(x) = c(x).
Beweis. Die erste Zeile folgt aus exp(ix) = exp(ix).
Aus exp(0) = 1 folgt c(0) = 1 und s(0) = 0.
Die cFunktion ist gerade, denn wegen des Satzes 6.76 haben wir
c(x) = 'exp(ix) = 'exp(ix) = 'exp(ix) = c(x),
und analog argumentiert man f ur die sFunktion. Aus Satz 6.76 bekommt man auch c
2
(x) +s
2
(x) = 1.
Die Additionstheoreme f ur c und s folgen aus
c(x +y) + is(x +y) = exp(i(x +y)) = exp(ix) exp(iy)
= (c(x) + is(x)) (c(y) + is(y))
= (c(x)c(y) s(x)s(y)) + i(c(x)s(y) +s(x)c(y))
und Vergleich von Realteil und Imaginarteil auf beiden Seiten.
134 KAPITEL 6. FUNKTIONEN
Die Beziehung f ur die Ableitungen lat sich ahnlich zeigen. Wir starten mit den Formeln
c(x) = 'exp(ix) =
1
2
(exp(ix) + exp(ix)), s(x) = exp(ix) =
1
2i
(exp(ix) exp(ix)).
Die rechten Seiten sind dierenzierbare Funktionen, also m ussen auch die linken Seiten dierenzierbar sein.
Dann erhalten wir nach kurzer Rechnung c

(x) = s(x) und s

(x) = c(x), was den Beweis komplettiert.


Satz 6.79. Fur jedes x R gilt
c(x) =

k=0
(1)
k
x
2k
(2k)!
, s(x) =

k=0
(1)
k
x
2k+1
(2k + 1)!
.
Diese Reihen konvergieren fur jedes x R absolut.
Beweis. Wir haben c(x) =
1
2
(exp(ix) + exp(ix)) und s(x) =
1
2i
(exp(ix) exp(ix)) sowie
exp(ix) =

n=0
i
n
x
n
n!
, exp(ix) =

n=0
(1)
n
i
n
x
n
n!
.
Der Rest ist Arithmetik.
Als nachstes untersuchen wir die Funktionen c und s auf Monotonie. Wir haben f ur c die Potenzreihe
c(x) = 1
x
2
2!
+
x
4
4!

x
6
6!
+
x
8
8!
. . . ,
und es gilt die Abschatzung
c(x) 1
x
2
2!
+
x
4
4!
, wenn x
2
56,
denn f ur solche x ist der Reihenrest
1
6!
x
6
+
1
8!
x
8
eine Leibnizreihe, also nicht positiv.
Mit x
2
= 6 haben wir also c(

6)
1
2
. Andererseits ist die cFunktion stetig und c(0) = 1. Wegen des
Zwischenwertsatzes hat die Funktion c also mindestens eine Nullstelle zwischen x = 0 und x =

6. Eine
genauere Untersuchung enth ullt, da es in diesem Intervall genau eine Nullstelle gibt mit dem Wert
p
2
= 1.570796326794897 . . . .
Denition 6.80. Wir denieren
:= 2p
2
.
Das ist einfach nur eine Schreibweise, aber Assoziationen zu schulischen Bildungserlebnissen sind nicht
unbeabsichtigt.
Wegen c(p
2
) = 0 und c
2
(x) + s
2
(x) = 1 mu [s(p
2
)[ = 1 sein. Weil aber s

(x) = c(x) und c > 0 auf dem


Intervall [0, p
2
), gilt demnach s(p
2
) = 1. Mit der neuen Schreibweise

2
= p
2
erhalten wir so
exp
_
i

2
_
= i.
Potenzieren gibt exp(i) = 1 und exp(2i) = 1, also auch c() = 1, s() = 0, c(2) = 1, s(2) = 0.
Die Additionstheoreme f ur die Funktionen c und s liefern dann
c
_
x +

2
_
= c(x) 0 s(x) 1 = s(x),
c(x +) = c(x) (1) s(x) 0 = c(x),
c(x + 2) = c(x) 1 s(x) 0 = c(x),
s
_
x +

2
_
= s(x) 0 +c(x) 1 = c(x),
s(x +) = s(x) (1) +c(x) 0 = s(x),
s(x + 2) = s(x) 1 +c(x) 0 = s(x).
6.5. ELEMENTARE FUNKTIONEN 135
Satz 6.81. Fur jedes x R gilt c(x) = cos(x), s(x) = sin(x) sowie
exp(ix) = cos(x) + i sin(x). (6.5)
Hierbei sind cos und sin geometrisch deniert.
Beweis. Die Funktionen c und cos sind Losung des Anfangswertproblems
y

+y = 0, y(0) = 1, y

(0) = 0,
und die Funktionen s und sin sind Losung des Anfangswertproblems
y

+y = 0, y(0) = 0, y

(0) = 1.
Da es aber (wegen Lemma 4.35) nur jeweils eine einzige Losung geben kann, mu c(x) = cos(x) und
s(x) = sin(x) gelten. Die Gleichung (6.5) folgt dann aus der Denition von c und s.
Denition 6.82 (Komplexe Winkelfunktionen). Fur z C denieren wir die Winkelfunktionen
cos(z) =
1
2
(exp(iz) + exp(iz)), sin(z) =
1
2i
(exp(iz) exp(iz)).
Oensichtlich sind diese Funktionen in ganz C unendlich oft dierenzierbar, und Satz 6.74 sowie Satz 6.79
gelten auch f ur komplexe Argumente.
Frage: Man bestimme sup
zC
[ cos(z)[ und sup
zC
[ sin(z)[.
Satz 6.83. Die einzigen Nullstellen der komplexen Winkelfunktionen sind z
sin,n
= n fur den Sinus und
z
cos,n
=

2
+n fur den Cosinus, wobei n Z.
Wenn exp(iz) = 1, dann ist z = 2n fur ein geeignetes n Z.
Beweis. Sei z = x + iy mit x, y R. F ur den Cosinus haben wir zum Beispiel
'(cos z) =
1
2
'(exp(iz) + exp(iz)) =
1
2
'
_
e
ix
e
y
+e
ix
e
y
_
=
1
2
_
e
y
cos x +e
y
cos x
_
=
1
2
cos x
_
e
y
+e
y
_
.
Die Aussage uber die Nullstellen der Sinusfunktion bekommt man auf ahnlichem Wege.
Wenn nun exp(iz) = 1, dann ist auch exp(iz) = 1, und somit ist sin(z) = 0, also z = k f ur ein k Z.
Die ungeraden k kommen nicht in Frage (warum ?), also bleiben nur die z = 2n ubrig, und f ur diese gilt
exp(iz) = 1 tatsachlich.
Denition 6.84. Fur z C mit z ,

2
+Z denieren wir die Tangensfunktion als
tan z =
sinz
cos z
.
Satz 6.85. Die Tangensfunktion besitzt die folgenden Eigenschaften (uberall dort, wo sie deniert ist):
tan(z +) = tan z,
tan(z) = tanz,
tan(z +w) =
tan z + tan w
1 tanz tanw
,
tan

(z) = 1 + tan
2
z =
1
cos
2
z
.
Beweis. Diese Eigenschaften ergeben sich direkt aus den analogen Eigenschaften von sin und cos.
136 KAPITEL 6. FUNKTIONEN
Durch Division der Potenzreihen von sin und cos bekommt man die folgende Potenzreihe des Tangens im
Ursprung mit Konvergenzradius

2
. Weitere Terme der Potenzreihe ergeben sich durch Rechnen.
tan z =z +
1
3
z
3
+
2
15
z
5
+
17
315
z
7
+
62
2835
z
9
+
1382
155925
z
11
+
21844
6081075
z
13
+
929569
638512875
z
15
+
6404582
10854718875
z
17
+
443861162
1856156927625
z
19
+
18888466084
194896477400625
z
21
+
113927491862
2900518163668125
z
23
+
58870668456604
3698160658676859375
z
25
+
8374643517010684
1298054391195577640625
z
27
+
689005380505609448
263505041412702261046875
z
29
+
129848163681107301953
122529844256906551386796875
z
31
+
1736640792209901647222
4043484860477916195764296875
z
33
+
418781231495293038913922
2405873491984360136479756640625
z
35
+O(z
37
), z 0.
Satz 6.86 (Arcusfunktionen).
1. Die Sinusfunktion bildet das Intervall [

2
,

2
] bijektiv auf [1, 1] ab. Die Umkehrfunktion
arcsin: [1, 1]
_

2
,

2
_
heit Arcussinus und hat die Ableitung (arcsiny)

=
1

1y
2
.
2. Die Cosinusfunktion bildet das Intervall [0, ] bijektiv auf [1, 1] ab. Die Umkehrfunktion
arccos: [1, 1] [0, ]
heit Arcuscosinus und hat die Ableitung (arccos y)

=
1

1y
2
.
3. Die Tangensfunktion bildet das Intervall (

2
,

2
) bijektiv auf R ab. Die Umkehrfunktion
arctan: R
_

2
,

2
_
heit Arcustangens und hat die Ableitung (arctany)

=
1
1+y
2
.
Beweis. Das schaen Sie alleine.
Frage: Wie sehen die Potenzreihen f ur diese Umkehrfunktionen aus ? Wo konvergieren sie ? Was hat das
alles mit der binomischen Reihe zu tun ? Oder mit der geometrischen Reihe ?
6.5.3 Die Hyperbelfunktionen
Denition 6.87. Die Funktionen
sinh: C C, sinh: z sinh(z) =
1
2
(exp(z) exp(z)),
cosh: C C, cosh: z cosh(z) =
1
2
(exp(z) + exp(z)),
tanh: C
_
i
2
+iZ
_
C, tanh: z tanh(z) =
sinh(z)
cosh(z)
=
exp(z) exp(z)
exp(z) + exp(z)
,
heien Sinus hyperbolicus, Cosinus hyperbolicus, Tangens hyperbolicus
37
.
Der Name kommt von der Formel cosh
2
(x) sinh
2
(x) = 1 f ur x R, die besagt, da die Punkte der Form
(cosh x, sinh x) auf dem Ast einer Hyperbel liegen.
37
hyperbolic sine, hyperbolic cosine, hyperbolic tangent
6.5. ELEMENTARE FUNKTIONEN 137
Satz 6.88. Im Denitionsbereich dieser Funktionen gelten die folgenden Eigenschaften:
sinh(z +w) = sinh z coshw + coshz sinh w,
cosh(z +w) = coshz coshw + sinhz sinhw,
tanh(z +w) =
tanh z + tanh w
1 + tanh z tanh w
,
sinh(z) = sinh z, cosh(z) = coshz, tanh(z) = tanh z,
sinh

(z) = coshz, cosh

(z) = sinh z, tanh

(z) =
1
cosh
2
(z)
,
sinh(z + 2i) = sinh z, cosh(z + 2i) = coshz, tanh(z +i) = tanhz,
sinh z = i sin(iz), cosh z = cos(iz), tanh z = i tan(iz),
sinh z =

k=0
z
2k+1
(2k + 1)!
, cosh z =

k=0
z
2k
(2k)!
.
Beweis. Eine wunderbare Gelegenheit, den Umgang mit elementaren Funktionen zu uben !
F ur den Tangens hyperbolicus bekommen wir auf bekanntem Wege die Reihendarstellung
tanh z =z
1
3
z
3
+
2
15
z
5

17
315
z
7
+
62
2835
z
9

1382
155925
z
11
+
21844
6081075
z
13

929569
638512875
z
15
+
6404582
10854718875
z
17

443861162
1856156927625
z
19
+
18888466084
194896477400625
z
21

113927491862
2900518163668125
z
23
+
58870668456604
3698160658676859375
z
25

8374643517010684
1298054391195577640625
z
27
+
689005380505609448
263505041412702261046875
z
29

129848163681107301953
122529844256906551386796875
z
31
+
1736640792209901647222
4043484860477916195764296875
z
33

418781231495293038913922
2405873491984360136479756640625
z
35
+O(z
37
), z 0.
Der Konvergenzradius ist

2
.
Satz 6.89 (Areafunktionen). Die Funktion y = sinh(x) bildet das Intervall R = (, ) bijektiv auf
sich ab und hat dort die Umkehrfunktion
x = Arsinh(y) = ln
_
y +
_
y
2
+ 1
_
.
Die Funktion y = cosh(x) bildet [0, ) bijektiv auf [1, ) ab und hat dort die Umkehrfunktion
x = Arcosh(y) = ln
_
y +
_
y
2
1
_
.
Die Funktion y = tanh(x) bildet R = (, ) bijektiv auf (1, 1) ab und hat dort die Umkehrfunktion
x = Artanh(y) =
1
2
ln
1 +y
1 y
.
Diese Funktionen heien Area sinus hyperbolicus, Area cosinus hyperbolicus, Area tangens hyperbolicus
38
.
Beweis.

Ubungsaufgabe.
6.5.4 Wurzeln aus komplexen Zahlen
In diesem Abschnitt ziehen wir Wurzeln aus komplexen Zahlen. Diese bilden allerdings keine Wurzel-
funktion, denn die Bedingung der Eindeutigkeit ist verletzt.
Satz 6.90. Sei n N.
38
Nicht Arcus . . .
138 KAPITEL 6. FUNKTIONEN
1. Dann gibt es genau n verschiedene komplexe Zahlen
0
, . . . ,
n1
als Losungen der Gleichung
z
n
= 1.
Dies sind die Zahlen

j
= exp
_
2i
j
n
_
, j = 0, 1, . . . , n 1.
2. Sei w = [w[ exp(i) C. Dann gibt es genau n verschiedene komplexe Zahlen z
0
, . . . , z
n1
als
Losungen der Gleichung
z
n
= w.
Diese werden gegeben durch z
j
= z
0

j
, j = 0, 1, . . . , n 1, wobei
z
0
=
n
_
[w[ exp
_
i

n
_
.
Hierbei bedeutet
n
_
[w[ die gewohnliche nichtnegative Wurzel aus einer nichtnegativen reellen Zahl.
Beweis. 1. Sei z
n
= 1. Wir konnen z schreiben als z = [z[ exp(i) mit R. Dann ist
1 = z
n
= [z[
n
exp(in),
also [z[ = 1 und somit exp(in) = 1.
Wir wissen aus Satz 6.83: wenn exp(i) = 1, dann ist = 2j f ur ein j Z. Die Relation n = 2j
f uhrt gerade auf die Darstellung der
j
.
2. Man rechnet nach, da diese z
j
tatsachlich Losungen sind. Sei nun z

eine weitere Losung von z


n
= w.
Dann ist der Quotient
z

z0
aber eine Losung von z
n
= 1. Und diese Gleichung hat lediglich die Losungen

0
, . . . ,
n1
. Also kann es auer den z
0
, . . . , z
n1
keine weiteren Losungen der Gleichung z
n
= w
geben.
Die Zahlen
0
, . . . ,
n1
heien n-te Einheitswurzeln, und die Zahl Eins wird auch gern als Einheit bezeich-
net.
6.6 Verfahren zur numerischen Losung nichtlinearer Gleichungen
Lineare Gleichungen und Systeme von linearen Gleichungen konnen mittels Standardmethoden gelost wer-
den (und zwar exakt ); und die Theorie der Matrizen stellt viele Hilfsmittel bereit, die Losungen naher zu
beschreiben.
Demgegen uber ist die Situation bei nichtlinearen Gleichungen viel schwieriger:
Man kann manchmal nur hoen, da es uberhaupt Losungen gibt.
Oft wei man nicht, wieviele Losungen es sind.
Es ist keineswegs einfach, diese Losungen dann auch noch zu nden.
Und schlielich kann man nur in wenigen Fallen die Losungen exakt ermitteln; meist mu man sich
mit Naherungswerten begn ugen.
Beispiel 6.91. Wir versuchen die Gleichungen
x = cos(x), y = e
y
2
zu losen, wobei x, y > 0. Wir erhalten die Wertetabellen
6.6. VERFAHREN ZUR NUMERISCHEN L

OSUNG NICHTLINEARER GLEICHUNGEN 139


x cos(x)
0 1
/2 0
y e
y
2
0 1
1 0.718
2 5.39
Das fuhrt uns auf die Idee einer Iteration,
x
0
= 0, x
n+1
= cos(x
n
), bzw. y
0
= 1.5, y
n+1
= exp(y
n
) 2.
Damit erhalten wir dann
n x
n
0 0
1 1
2 0.54
3 0.86
4 0.65
5 0.79
6 0.70
7 0.76
8 0.72
bzw.
n y
n
0 1.5
1 2.48
2 9.96
3 21191.5
4 E
Im ersten Fall strebt die Folge gegen 0.739085133, im zweiten Fall gegen . Wir unternehmen einen zweiten
Versuch fur den migluckten zweiten Fall: y + 2 = e
y
, also sei jetzt
y
0
= 1.5, y
n+1
= ln(y
n
+ 2).
Das fuhrt uns auf
n y
n
0 1.5
1 1.25
2 1.18
3 1.157
4 1.149
mit Grenzwert 1.146193. Dieser ist eine Losung zu y = e
y
2.
Warum versagt das eine Verfahren, aber das andere nicht ?
6.6.1 Das Halbierungsverfahren
Zunachst erinnern wir an ein einfaches Verfahren, das in solchen Situationen immer funktioniert. Wir
hatten es schon beim Beweis des Zwischenwertsatzes benutzt.
Wir suchen zum Beispiel die Nullstelle von f = f(y) = e
y
2y. Dazu starten wir von zwei Werten y
0
und
y
1
, f ur die f(y
0
) und f(y
1
) verschiedenes Vorzeichen haben. Dazwischen mu eine Nullstelle von f liegen,
denn f ist stetig. Als nachstes probieren wir y
2
=
1
2
(y
0
+y
1
), und so weiter:
n y
n
f(y
n
)
0 1 0.28
1 2 3.39
2 1.5 0.98
3 1.25 0.24
4 1.125 0.045
5 1.1875 . . .
Die Fehlerschranke f ur die Nullstelle verbessert sich mit jedem Schritt um den Faktor
1
2
. Das Verfahren
konvergiert langsam, daf ur aber auf jeden Fall.
6.6.2 Funktionaliteration und der Banachsche Fixpunktsatz
Denition 6.92. Sei F eine Abbildung einer Menge M in sich. Wir sagen, da x

M ein Fixpunkt
39
von F ist, wenn F(x

) = x

.
39
xed point
140 KAPITEL 6. FUNKTIONEN
Satz 6.93 (Banachscher Fixpunktsatz
40
). Sei M U abgeschlossen, U ein Banachraum, und F : M
M mit |F(x) F(y)|
U
|x y|
U
fur alle x, y M, wobei < 1.
Dann hat F genau einen Fixpunkt in M, F(x

) = x

, der gefunden werden kann durch den Algorithmus


x
0
M beliebig,
x
n+1
= F(x
n
), n N
0
.
Wir haben die Fehlerschatzung
|x

x
n
|
U


n
1
|x
1
x
0
|
U
. (6.6)
Beweis. Zunachst haben wir
|x
2
x
1
|
U
= |F(x
1
) F(x
0
)|
U
|x
1
x
0
|
U
,
|x
3
x
2
|
U
= |F(x
2
) F(x
1
)|
U
|x
2
x
1
|
U

2
|x
1
x
0
|
U
,
.
.
.
|x
n+1
x
n
|
U

n
|x
1
x
0
|
U
.
Sei nun n < m. Dann ergibt sich
|x
m
x
n
|
U
= |(x
m
x
m1
) + (x
m1
x
m2
) + + (x
n+1
x
n
)|
U
|x
m
x
m1
|
U
+|x
m1
x
m2
|
U
+ +|x
n+1
x
n
|
U
(
m1
+
m2
+ +
n
) |x
1
x
0
|
U

k=n

k
|x
1
x
0
|
U
=

n
1
|x
1
x
0
|
U
0,
falls n . Also ist (x
n
)
nN
eine Cauchyfolge. Weil der Raum U als Banachraum keine Locher hat, besitzt
diese Folge einen Grenzwert x

, lim
n
|x
n
x

|
U
= 0. Und weil M abgeschlossen ist, liegt x

in M.
Wenn wir in der eben gezeigten Ungleichung
|x
m
x
n
|
U


n
1
|x
1
x
0
|
U
, m > n,
den Index m nach Unendlich schicken und Satz 5.24 clever einsetzen, dann bekommen wir genau die
Fehlerschatzung (6.6).
Dieser Grenzwert x

ist Fixpunkt der Abbildung F, denn


x

= lim
n
x
n
= lim
n
x
n+1
= lim
n
F(x
n
) = F( lim
n
x
n
) = F(x

).
Hierbei haben wir im vorletzten Schritt die Stetigkeit von F (als kommutatives Diagramm) benutzt. Und die
Stetigkeit von F wiederum folgt aus Satz 6.18 (Teil 4) mit
0
() = /, in Verbindung mit Bemerkung 6.20.
Es kann keinen zweiten Fixpunkt geben, denn falls x

= F(x

), dann gilt
|x

|
U
= |F(x

) F(x

)|
U
|x

|
U
,
was nur f ur x

= x

moglich ist.
Damit ist der Banachsche Fixpunktsatz bewiesen.
Beispiel 6.94. Sei F : [a, b] [a, b], und [F

(x)[ < 1 auf [a, b]. Dann gibt es genau ein x [a, b] mit
F(x) = x.
Warum ist das so ?
Beispiel 6.95. Bezogen auf das Beispiel der Gleichung x = cos(x) heit das: [a, b] = [0.1, 1], F(x) = cos(x),
also [F

(x)[ = [ sin(x)[. Auf dem Intervall [0.1, 1] ist die Sinusfunktion echt kleiner als 1, also konnen
wir argumentieren wie eben. (Die Wahl der Intervallgrenzen 0.1 und 1 hat sich dabei nach Probieren als
zweckmaig herausgestellt.)
Frage: Warum kam es f ur die Iteration y
n+1
= exp(y
n
) 2 im obigen Beispiel zur Divergenz ?
40
Banach xed point theorem
6.6. VERFAHREN ZUR NUMERISCHEN L

OSUNG NICHTLINEARER GLEICHUNGEN 141


6.6.3 Das Newtonverfahren
Denition 6.96. Wir sagen, da eine Folge (x
n
)
nN
von Elementen eines Banachraums linear gegen einen
Grenzwert x

konvergiert, wenn
|x
n+1
x

|
U
|x
n
x

|
U
gilt fur alle n, mit einem gewissen < 1, das nicht von n abhangt.
Wir sagen, da die Folge (x
n
)
nN
quadratisch konvergiert, wenn
|x
n+1
x

|
U
C |x
n
x

|
2
U
gilt, falls x
n
nahe bei x

ist. Hierbei ist C eine positive Konstante, die nicht von n abhangt, aber auch
groer als eins sein darf.
Das Newtonverfahren ist ein Beispiel f ur ein quadratisch konvergentes Iterationsverfahren.
Noch ein Wort zur Schreibweise: f ur Abbildungen mit gesuchtem Fixpunkt x

schreiben wir Gro F, und


f ur Funktionen mit gesuchter Nullstelle x

schreiben wir klein f.


Das Newtonverfahren im R
1
Sei f : R R eine zweimal stetig dierenzierbare Funktion mit Nullstelle x

, und sei f

(x

) ,= 0. Dann ist
das Newtonverfahren wie folgt deniert:
x
0
nahe genug an x

,
x
n+1
= x
n

f(x
n
)
f

(x
n
)
, n = 0, 1, . . .
Wenn die Folge der x
n
konvergieren sollte gegen einen Grenzwert, dann strebt die Folge (x
n+1
x
n
)
nN
der Dierenzen benachbarter Folgenglieder nach 0, also geht die Folge (f(x
n
))
nN
ebenfalls nach 0.
Satz 6.97. Es gibt ein > 0, soda fur das Intervall M = [x

, x

+] gilt:
1. Die Iterationsvorschrift des Newtonverfahrens bildet M in sich ab.
2. Das Newtonverfahren konvergiert quadratisch gegen x

.
Beweis. Zunachst ist f

(x

) ,= 0. Wir wahlen nun so klein, da im Intervall M f

(x) ,= 0 ist. Das geht


wegen Lemma 6.7 und der Stetigkeit von f

. Als nachstes basteln wir uns eine Hilfsfunktion


F(x) = x
f(x)
f

(x)
, x M.
Eine Division durch Null kann f ur x M nicht eintreten. F ur diese Hilfsfunktion rechnet man schnell nach,
da
F(x

) = x

, F

(x) =
f(x)f

(x)
(f

(x))
2
, F

(x

) = 0.
Wir d urfen fordern, da so klein ist, da im Intervall M gilt: [F

(x)[
1
2
, wegen der Stetigkeit von F

.
Das Newtonverfahren wird nun beschrieben durch die Vorschrift x
n+1
= F(x
n
). Sei x
n
M, also [x
n
x

[
. Der Mittelwertsatz liefert dann, da [x
n+1
x

[
1
2
[x
n
x

[
1
2
, also x
n+1
M. Damit kann
das Banach-Fixpunkt-Verfahren f ur die Funktion F durchgef uhrt werden und wir bekommen sofort die
Konvergenz gegen lim
n
x
n
= x

sowie eine Fehlerschranke:


[x
n+1
x
n
[
1
2
n1
.
Diese Schranke konnen wir aber deutlich verbessern. Dazu gehen wir zur uck zur Funktion f, f ur die wir
eine Taylorentwicklung im Entwicklungspunkt x
n
veranstalten:
0 = f(x

) = f(x
n
+ (x

x
n
)) = f(x
n
) + f

(x
n
)(x

x
n
) +
1
2
f

(
n
)(x

x
n
)
2
.
142 KAPITEL 6. FUNKTIONEN
Hierbei liegt
n
zwischen x
n
und x

; mehr ist vom


n
nicht bekannt. Wir dividieren durch f

(x
n
) und
sortieren um:
0 =
f(x
n
)
f

(x
n
)
+x

x
n
+
f

(
n
)
2f

(x
n
)
(x

x
n
)
2
,
x
n+1
x

=
f

(
n
)
2f

(x
n
)
(x

x
n
)
2
.
Weil dieser Bruch beschrankt auf M ist, ist dies genau die gew unschte quadratische Konvergenz.
Beispiel 6.98 (Babylonisches Wurzelziehen). Wir wollen die Wurzel aus 2 ziehen. Sei also f(x) =
x
2
2, und x
0
= 1. Dann haben wir die Iterationsvorschrift
x
n+1
= x
n

x
2
n
2
2x
n
=
1
2
_
x
n
+
2
x
n
.
_
Diese Iterationsvorschrift war schon den alten Sumerern in Babylon bekannt, vor etwa 4000 Jahren. Eine
entsprechende Formel gibt es auch fur hohere Wurzeln; dann ist f(x) = x
n
a. Diese Formel geht auf
Heron
41
zuruck. Es ergibt sich folgende Tabelle. Man beobachte die Verdopplung der Anzahl korrekter
Dezimalstellen, worin sich die quadratische Konvergenz widerspiegelt.
n x
n
Anzahl richtiger Stellen
0 1 1
1 1.5 1
2 1.416666666666667 3
3 1.41421568627451 6
4 1.41421356237469 12
5 1.414213562373095 16
6 1.414213562373095 16
6.7 Schl usselbegrie
Denition Grenzwert und Stetigkeit einer Funktion,
Satz vom Maximum, Zwischenwertsatz,
Denition von Ableitung und LandauSymbolen,
Produktregel, Kettenregel, Ableitung der Umkehrfunktion,
Mittelwertsatz, Regel von Bernoulli und de lHospital,
Taylorsatz und seine Beziehung zu Extremwerten,
komplexe Winkelfunktionen, Arcusfunktionen, Hyperbelfunktionen, Areafunktionen,
Wurzeln aus komplexen Zahlen im Gegensatz zur Wurzelfunktion,
Banachscher Fixpunktsatz und Newtonverfahren.
41
Heron von Alexandria, lebte irgendwann zwischen 150 vor Christus und 250 nach Christus.
Anhang A
Algebraische Strukturen
Name Operationen Beispiele und Anmerkungen
Halbgruppe
Bsp: (N
0
, +)
Bsp: Evolutionsoperator eines Diusionsprozesses
Anm: braucht nicht kommutativ zu sein
Gruppe

jede Gleichung a x = b bzw.


y a = b ist losbar
Bsp: (Z, +)
Bsp: Verschiebungsgruppe
Bsp: Gruppe der Drehungen
Bsp: alle invertierbaren Matrizen des R
nn
Ring +, und
Bsp: (Z, +, )
Bsp: Restklassenring bei Division durch k Z
=0
Bsp: Polynomring
Bsp: Matrizenring R
nn
Anm: + ist kommutativ, aber nicht unbedingt
Korper +, , und /
Bsp: Q, R und C
Bsp: Restklassenring bei Division durch Primzahl
Bsp: gebrochen rationale Funktionen
Vektorraum
Vektor + Vektor = Vektor
Zahl Vektor = Vektor
Bsp: R
n
als Menge der Verschiebungspfeile
Bsp: R
n
als Zahlenspalten
Bsp: Funktionenraum L
2
([a, b] R)
Bsp: Matrizen R
nm
Bsp: Menge der linearen Abbildungen Hom(U V )
normierter
Raum
wie Vektorraum U,
aber zusatzlich noch
Norm || : U R
0
Bsp: R
n
mit |x|
1
= [x
1
[ + +[x
n
[
Bsp: R
n
mit |x|
2
= (x
2
1
+ +x
2
n
)
1/2
Bsp: R
n
mit |x|

= max[x
1
[, . . . , [x
n
[
Anm: Norm entstammt genau dann einem Skalar-
produkt, wenn die Parallelogrammgleichung gilt
euklidischer/
unitarer
Raum
wie Vektorraum U,
aber zusatzlich noch reelles /
komplexes Skalarprodukt , ),
und Norm |u|
U
:=
_
u, u)
Bsp: R
n
mit x, y) =

n
j=1
x
j
y
j
Bsp: C
n
mit x, y) =

n
j=1
x
j
y
j
Bsp: C([a, b] R) mit f, g) =
_
b
a
f(x)g(x)dx
Bsp: C([a, b] C) mit f, g) =
_
b
a
f(x)g(x)dx
Banachraum/
vollstand.
normierter
Raum
wie normierter Raum
Anm: jede Cauchyfolge konvergiert
Bsp: R
n
und C
n
mit jeder Norm
Bsp: L
2
([a, b] R)
Bsp: C([a, b] R) mit ||

Hilbertraum
wie euklidischer bzw.
unitarer Raum
Anm: jede Cauchyfolge konvergiert
Anm: per Denition ist jeder Hilbertraum gleichzei-
tig euklidisch/unitar und Banachraum
Bsp: L
2
([a, b] R)
143
144 ANHANG A. ALGEBRAISCHE STRUKTUREN
Es gibt noch weitere physikalisch relevante algebraische Strukturen, die im Skript zwar gelegentlich verwen-
det wurden, ohne aber deniert worden zu sein. Insbesondere sind Algebren interessant. Grob gesprochen,
ist eine (assoziative) Algebra ein Vektorraum, der gleichzeitig ein Ring ist. Das heit, zusatzlich zu den
beiden Vektorraumoperationen

Vektor + Vektor = Vektor und

Zahl Vektor = Vektor gibt es noch


eine Ringoperation

Vektor mal Vektor = Vektor, die in jedem Faktor linear ist und teilweise noch weitere
Eigenschaften hat. F ur diese weitere Multiplikation verwenden wir das Symbol .
Name Operationen Beispiele und Anmerkungen
Algebra
wie Vektorraum,
und zusatzlich
Vektor Vektor = Vektor
Anm: braucht weder kommutativ noch assoziativ
sein, und ein neutrales Element braucht es auch nicht
geben
Bsp: R
3
mit Kreuzprodukt
assoziative
Algebra
wie Algebra
Anm: ist jetzt assoziativ
Bsp: Matrizen aus R
nn
mit = Matrizenmultipl.
Bsp: Hom(U U) mit = Nacheinanderausf uhrung
Bsp: L
1
(R R) mit = ,
und ist das Faltungsprodukt
(f g)(x) =
_

y=
f(x y)g(y)dy
LieAlgebra
wie Algebra,
schreibe [x, y] statt xy
Anm: per Denition ist
[x, [y, z]] + [y, [z, x]] + [z, [x, y]] = 0 und [x, x] = 0
Bsp: R
3
mit Kreuzprodukt
Bsp: Hom(U U) mit [A, B] := A B B A,
hierbei ist = Nacheinanderausf uhrung
Bsp: Drehimpulsoperatoren der Quantenmechanik
Ein Buch, das uber mehrere hundert Seiten hinweg LieAlgebren diskutiert, ist:
Literatur: Greiner und M uller: Quantenmechanik. Symmetrien, 2005
Index
Abbildung
lineare, 61, 69
Abel, 29
abgeschlossene Menge, 90, 92
Ableitung, 12, 117
Abschlu, 90, 92
absolut konvergent, 94
absolute Konvergenz, 102
Additionstheorem, 106, 129
adjungierte Matrix, 63
aner Raum, 44
ahnliche Matrizen, 78
allgemeine Potenz, 116
analytisch, 117
Anfangswertabbildung, 80
Approximationsproblem, 56
Arcusfunktionen, 136
Argument einer komplexen Zahl, 17
assoziativ, 28
Ausbreitungsgeschwindigkeit, 21
Austauschlemma, 50
Austauschsatz, 50
Banach, 93
Banach-scher Fixpunktsatz, 140
Banachraum, 93
Basis, 22, 48
duale, 86
reziproke, 86
Basiserganzungssatz, 49
Basissatz, 49
Basistransformation, 77
Bernoulli, 124
beschrankte Menge, 91, 92
bestimmte Divergenz, 111
bestimmtes Integral, 13
Betrag, 24
Betrag einer komplexen Zahl, 15
bijektiv, 71
Bild, 72, 109
Bildraum, 72
Binomialkoezient, 98, 128
binomische Reihe, 128
Blindwiderstand, 21
Bolzano, 100
C, 14
Cardano, 13
Cauchy, 24
Cauchy-Folge, 93
Cauchy-Produktreihe, 102, 104
cos, 135
cosh, 136
Defekt, 72
Denitionsbereich, 109
Delta-Distribution, 70
Determinante, 37
Dierential, 117
Dierentialgleichungssystem, 80
Dierentialoperator, 80
dierenzierbar, 12, 19, 117
stetig, 117
Dimension, 52
Dimensionsformel f ur Abbildungen, 74
Dimensionsformel f ur Unterraume, 52
Dirac, 70
direkte Summe, 53
Divergenz, 59
Divisionsregel, 121
Drehmatrix, 27, 43
Drehstreckung, 17
Dreiecksungleichung, 54
duale Basis, 86
Dualraum, 86
ebene Welle, 21
Eektivwert, 20
komplexer, 20
Einheitsmatrix, 28
einseitiger Grenzwert, 111
Element
inverses, 29
neutrales, 29
Eliminationsmatrix, 65
endlich erzeugt, 46
Umgebung, 91, 92
Erzeugendensystem, 46
Euklid, 54
euklidischer Raum, 54
Euler, 106
Euler-sche Zahl e, 106
Exponentialfunktion, 17, 106
Familie, 38
Folge, 92
konvergente, 89, 92
Fourierreihe, 95
frei, 48
Funktion, 12, 109
Grenzwert, 110
Konvergenz, 110
145
146 INDEX
Funktionale
lineare, 69
Gau, 14
Gau-Jordan-Form, 65
geometrische Reihe, 94, 103
gleichmaige Konvergenz, 103
Gleichungssystem, 63
Gradient, 59
Gram, 56
Grenze
obere, 98
untere, 98
Grenzwert
einseitiger, 111
uneigentlicher, 110
Grenzwert einer Folge, 89, 92
Grenzwert einer Funktion, 110
Gruppe, 29
lineare, 32
orthogonale, 32
spezielle lineare, 32
spezielle orthogonale, 32
Halbgruppe, 28
Hamilton, 14
harmonische Reihe, 94
Hauptsatz der Dierential- und Integralrechnung,
13
Heisenberggruppe, 32
HelmholtzProjektion, 59
Hermite, 53
Hilbertraum, 93
holomorph, 117
homogenes System, 80
Homomorphismus, 61, 69
de lHospital, 124
Hyperbelfunktionen, 136
Haufungspunkt, 90, 92
Imaginarteil, 14
Induktion, 51
Inmum, 98
inhomogenes System, 80
injektiv, 71, 114
innerer Punkt, 91, 92
Integral
bestimmtes, 13
unbestimmtes, 13
inverse Matrix, 64
invertierbare Matrix, 64
isomorph, 72
Isomorphismus, 72
Jordan
Camille, 67
Pascual, 67
Wilhelm, 67
Kern, 72
Kettenregel, 120
kommutatives Diagramm, 16
kompakte Menge, 100
Komplement
orthogonales, 55
Komplementmenge, 91
komplexe Winkelfunktionen, 135
komplexe Zahl, 14
Komposition, 113
konjugiert komplexe Zahl, 15
kontravariant, 86
konvergent, 89, 92
Konvergenz
absolute, 94, 102
einer Reihe, 94
gleichmaige, 103
Konvergenz einer Funktion, 110
Konvergenzradius, 104
Koordinatensystem
kartesisches, 22
kovariant, 86
Kreisfrequenz, 21
Kreuzprodukt, 36
Kristall, 31
Kronecker, 39
Korper, 11, 16
L
2
, 93
Lagrange, 36
Landau-Symbole, 117
Lebesgue, 93
Leibniz, 101
Leibniz-Kriterium, 101
Levi-Civita-Tensor, 40
Limes, 89, 92
linear abhangig, 36, 38, 48
linear unabhangig, 38, 48
lineare Abbildung, 61, 69
lineare Funktionale, 69
lineare Gruppe, 32
lineare H ulle, 46
lineare Operatoren, 69
Linearkombination, 46
Linkssystem, 40
Logarithmus, 116, 129
Lorentz-Gruppe, 32
Lange, 24
Majorantenkriterium, 96
Matrix, 26
adjungierte, 63
inverse, 28, 64
invertierbare, 28, 64
regulare, 64
singulare, 64
transponierte, 42, 63
Matrix-Dierentialoperator, 80
Matrixprodukt, 27, 41, 62
Matrizen
INDEX 147
ahnliche, 78
Maximum, 98
lokales, 122
Menge
abgeschlossene, 90, 92
beschrankt, 91, 92
kompakte, 100
oene, 91, 92
Metrik-Koezienten, 86
Minimum, 98
lokales, 122
MinkowskiRaum, 32
Mittelwertsatz, 123
Verallgemeinerter, 123
Moivre, 17
monoton wachsend, 99, 114
Newtonverfahren, 140
Norm, 12, 16, 24, 54, 91
normierter Raum, 54, 91
Nullraum, 72
obere Grenze, 98
obere Schranke, 98
oene Menge, 91, 92
Operatoren
lineare, 69
Ordnungsrelation, 11
Orientierung, 40
negative, 40
positive, 40
orthogonal, 55
orthogonale Gruppe, 32
Orthogonalisierungsverfahren
von Gram-Schmidt, 56
Orthogonalsystem, 39
Orthonormalbasis, 55
Orthonormalsystem, 39, 43, 55
Ortsvektor, 22
Parallelogrammgleichung, 54
Partialsumme, 94
Permutationsmatrix, 66
, 134
Pivotelement, 67
Potenz
allgemeine, 116
Potenzreihe, 95, 103
der Logarithmusfunktion, 129
der Winkelfunktionen, 134
Produkt zweier P., 104
Produktregel, 120
Proximum, 56
Punkt
innerer, 91, 92
Quotientenkriterium, 97
Randpunkt, 91, 92
Rang, 72
Raum
aner, 44
euklidischer, 54
normierter, 54, 91
unitarer, 54
vollstandiger normierter, 93
Realteil, 14
Rechtssystem, 40
reelle Zahlen, 93
regulare Matrix, 64
Reihe, 94
binomische, 128
geometrische, 94, 103
harmonische, 94
Umordnung, 102
reziproke Basis, 86
Sandwichprinzip, 100
Satz vom Maximum, 113
Satz von BolzanoWeierstra, 100
Satz von Rolle, 123
Scheinwiderstand
komplexer, 21
Schmidt, 56
Schranke
obere, 98
untere, 98
Schwarz, 24
Schwingungsgleichung, 82
sin, 135
singulare Matrix, 64
sinh, 136
Skalarprodukt, 23, 35, 53
Spaltenrang, 79
Span, 46
Spatprodukt, 37
spezielle lineare Gruppe, 32
spezielle orthogonale Gruppe, 32
Stammfunktion, 13
Steinitz, 50
stetig, 12, 19, 111
stetig dierenzierbar, 13
streng monoton wachsend, 114
Summe von Vektorraumen, 52
Supremum, 98
surjektiv, 71
Symmetriegruppe, 31
System
homogenes, 80
inhomogenes, 80
tan, 135
tanh, 136
Taylor, 125
Teilfolge, 90, 92
Teilsumme, 94
transponierte Matrix, 42, 63
Umgebung, 91, 92
Umkehrfunktion, 115, 121
148 INDEX
der Hyperbelfunktionen, 137
der Winkelfunktionen, 136
unbestimmtes Integral, 13
uneigentlicher Grenzwert, 110
Ungleichung von Cauchy-Schwarz, 24, 54
unitarer Raum, 54
untere Grenze, 98
untere Schranke, 98
Unterraum, 46, 47
Untervektorraum, 47
Urbild, 109
Vektorprodukt, 36
Vektorraum, 22, 45
euklidischer, 54
unitarer, 54
Vergleichskriterium, 96
Verkn upfungstafel, 29
Verschiebungsgruppe, 32
vollstandige Induktion, 51
vollstandiger normierter Raum, 93
Weierstra, 100
Wellenfront, 21
Wellenzahlvektor, 21, 86
Wert einer Reihe, 94
Wertebereich, 109
Widerstand
induktiver, 21
kapazitiver, 21
Ohmscher, 21
Winkelfunktionen, 19, 129, 132
komplexe, 135
Wirkwiderstand, 21
Wurzel
aus komplexer Zahl, 137
Wurzelfunktion, 115
Wurzelkriterium, 96
Zahlen
reelle, 93
Zeilenrang, 79
Zeilenstufenform, 65, 67
Zwischenwertsatz, 114
Literaturhinweise
Die im Folgenden genannten B ucher sind mehrheitlich in der Lehrbuchsammlung der Bibliothek vorhanden.
Die empfohlene Einteilung in Lesergruppen ist rein subjektiv vorgenommen worden, was Sie aber keineswegs
davon abhalten soll, mit dem Buch zu arbeiten, mit dem Sie am Besten zurecht kommen.
Eher f ur Ingenieure
Papula, Mathematik fur Ingenieure 1, 2
de Boer, Vektor und Tensorrechnung fur Ingenieure
Burg, Haf, Wille, Hohere Mathematik fur Ingenieure 1, 2, 3, 4, 5
Eher f ur Physiker
Fischer, Kaul, Mathematik fur Physiker 1, 2, 3
Janich, Mathematik 1, 2. Geschrieben fur Physiker, (Sehr zu empfehlen)
Janich, Analysis fur Physiker und Ingenieure, (Sehr zu empfehlen)
Kuscer, Kodre, Mathematik in Physik und Technik
Fischer, Lineare Algebra
Barner, Flohr, Analysis 1, 2
Endl, Luh, Analysis 1, 2, 3
Madelung, Die mathematischen Hilfsmittel des Physikers, (Eher historisch interessant)
Eher f ur Mathematiker
Heuser, Analysis 1, 2
Walter, Analysis 1, 2
Konigsberger, Analysis 1, 2
Hildebrandt, Analysis 1, 2
Blatter, Analysis 1, 2, 3
Koecher, Lineare Algebra und Analytische Geometrie
Courant, Vorlesungen uber Dierential und Integralrechnung, (Traditioneller Zugang)
149

Das könnte Ihnen auch gefallen