Beruflich Dokumente
Kultur Dokumente
Lineare Algebra
und analytische
Geometrie
Lineare Algebra und analytische Geometrie
Christian Bär
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillier-
te bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Springer Spektrum
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich
vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere
für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verar-
beitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt
auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen-
und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem
Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder
die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler
oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in
veröffentlichten Karten und Institutionsadressen neutral.
Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und
ist ein Teil von Springer Nature.
Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
Vorwort
Die lineare Algebra gehört, neben der Analysis, seit vielen Jahrzehnten zum Standardstoff
des ersten Studienjahrs im Mathematikstudium. Das liegt einfach daran, dass die meisten
Teilgebiete der Mathematik und damit fast alle weiterführenden Vorlesungen auf ihr aufbauen.
Dementsprechend gibt es bereits zahlreiche Lehrbücher zur Thematik; eine kleine Auswahl
ohne jeden Anspruch auf Vollständigkeit findet sich im Literaturverzeichnis. Es stellt sich die
Frage, warum ein weiteres?
Ich habe die zweisemestrige Vorlesung zur linearen Algebra und analytischen Geometrie
häufiger an der Universität Potsdam gehalten und dabei beobachten können, wie sich die Her-
ausforderungen, mit denen die Studienanfängerinnen und -anfänger zu kämpfen haben, im
Laufe der Jahre verändert haben. Der Einstieg in das Mathematikstudium war immer schon
schwierig; er ist für die Studierenden aber nicht einfacher geworden, da aus dem Mathematik-
unterricht der Schule das intellektuelle Durchdringen des Stoffs, etwa in Form von Beweisen,
immer mehr zu verschwinden scheint. Verschärft wird das Problem dadurch, dass man an der
Schule meint, auf eine systematische mengentheoretische Notation verzichten zu können, so
dass mathematische Sachverhalte oft nicht mal mehr präzise formuliert werden (können).
Das alles gilt es zu bedenken, wenn man die Studierenden in eine wissenschaftliche Behand-
lung der Mathematik einführt. Im Laufe der Jahre hat sich so ein Vorlesungsskript entwickelt,
aus dem schließlich dieses Buch hervorgegangen ist. Ich habe dabei versucht, zunächst in
einem Grundlagenkapitel das Basishandswerkszeug für jedwede ernsthafte Beschäftigung mit
Mathematik zu vermitteln: präzises Formulieren, mengentheoretische Notation und mathema-
tische Beweise. Dieser Abschnitt soll in keiner Weise einer Vorlesung über Mengenlehre oder
mathematische Logik Konkurrenz machen, sondern lediglich das erforderliche mathematische
Grundhandwerkszeug bereitstellen.
Wirklich los geht es dann im zweiten Kapitel mit der Untersuchung linearer Gleichungssysteme.
Diese und der Gauß-Algorithmus zu ihrer Lösung treten in so vielen Anwendungen der Ma-
thematik auf wie wenige andere Konzepte der Mathematik. Während das zweite Kapitel noch
sehr konkret ist, wird es im dritten abstrakter, wenn z.B. allgemeine Körper und Vektorräume
eingeführt werden. Mathematiknovizen haben oft zunächst Schwierigkeiten im Umgang mit
abstrakten Konzepten. Lässt man sich aber darauf ein, stellt man rasch fest, dass Abstraktion die
Dinge auf das Wesentliche reduziert und dadurch übersichtlicher macht. Außerdem verringert
sie erheblich die mathematische Arbeit, weil man viele Untersuchungen einmal im allgemeinen
abstrakten Fall machen kann und sie dann nicht mehr in jedem Beispiel aufs Neue vornehmen
muss. Wenn das kein Argument ist!
Im ganzen Text habe ich mich um eine enge Verzahnung von Algebra und Geometrie bemüht.
Zum einen können algebraische Methoden sehr einfache Beweise für geometrische Sätze
liefern, die bei einer rein geometrischen Betrachtung sehr viel mühsamer zu erhalten wären.
Zum anderen liefert die Geometrie wichtige Anschauung für algebraische Konzepte.
vi
Ferner habe ich versucht, die Wichtigkeit der linearen Algebra durch einige ausgewählte An-
wendungsbeispiele zu verdeutlichen, und zwar Anwendungen innerhalb der Mathematik (z.B.
Volumenberechnungen und Differentialgleichungssysteme) als auch außerhalb (Codierungs-
theorie und Ranking von Webseiten). Diese Anwendungen finden sich in Anhang A. Außerdem
finden sich viele Beispiele im Text und in den Aufgaben.
Im Stoffaufbau habe ich mich ganz bewusst für eine gewisse Redundanz entschieden. So
kommen z.B. im zweiten Kapitel bereits Untervektorräume von Rn vor während allgemeine
(Unter-) Vektorräume erst im dritten Kapitel eingeführt werden. Das hat den Vorteil, dass in
einem einfachen Spezialfall die Anschauung bereits geschult wurde, bevor man sich mit dem
allgemeinen, abstrakten Konzept auseinandersetzen muss. Gerade am Anfang des Mathematik-
studiums, wenn die Studierenden noch keine Erfahrung mit einer abstrakten Herangehensweise
haben, hat sich das sehr bewährt. Der Nachteil ist natürlich, dass es Zeit kostet, nicht den „effi-
zientesten“ Weg zu gehen, indem man die abstrakten Betrachtungen ganz an den Anfang stellt,
und dadurch die Menge des behandelten Stoffs nicht maximiert wird. Dennoch ist die bessere
Zugänglichkeit diesen Preis wert.
Ohnehin muss eine Stoffauswahl getroffen werden. Der Text ist vom Umfang her auf eine
zweisemestrige vierstündige Vorlesung ausgelegt und erhebt keinerlei Anspruch auf enzyklo-
pädische Vollständigkeit. Steht weniger Zeit zur Verfügung, so muss der Stoff weiter reduziert
werden. Dabei kann folgendes Diagramm helfen, das die logische Abhängigkeit der verschie-
denen Kapitel illustriert:
1. Grundlagen
3. Algebr. Grundbegriffe
A.5 Differentialgleichungen
Die beiden gepunkteten Pfeile deuten an, dass die Beweise des Fundamentalsatzes der Algebra
vii
und des Satzes von der Jordan’schen Normalform in die beiden Anhänge B.2 bzw. B.4 ausge-
lagert wurden, dass man aber den Haupttext auch lesen kann ohne diese beiden Beweise zu
studieren indem man die beiden Sätze einfach akzeptiert.
Die Aufgaben am Ende jedes Kapitels sind integraler Bestandteil des Textes. Möchte man ein
guter Fußballspieler werden, so reicht es nicht, regelmäßig die Sportschau zu schauen, sondern
man muss schon selbst auf den Trainingsplatz gehen und üben, auch wenn oder gerade weil das
die Sache anstrengend macht. Genauso ist es mit der Mathematik; es reicht nicht, die Dinge
nur nachzuvollziehen. Man muss selbst aktiv werden, selbst Mathematik betreiben. Dafür sind
die Aufgaben da. Außerdem liefern einige von ihnen Beispiele für Anwendungen des Stoffs
des entsprechenden Kapitels.
Um eher „handwerkliche“ Fähigkeiten zu üben, gibt es interaktive Online-
Übungen, die mit dem nebenstehenden Symbol gekennzeichnet sind. Sie können
auf internetfähigen Computern oder Mobilgeräten mittels der angegebenen URL
Abb. 2 Üben1
oder des QR-Codes aufgerufen werden. Javascript muss im Browser aktiviert
sein, was meistens die Voreinstellung ist. Es wird dann eine Zufallsaufgabe zum betreffenden
Thema erzeugt, die die Leserin oder der Leser selbst lösen sollte. Anschließend kann man sich
das Ergebnis zur Kontrolle anzeigen lassen. Die ganze Sammlung der Online-Übungen findet
sich auf https://www.cbaer.eu im Pull-Down-Menü „Mathematik“. Dieses handwerkliche
Können wird oft nicht ausreichend gewürdigt. Es ist zwar richtig, dass die meisten Berech-
nungen, sagen wir die einer Determinante, von einem Computer schneller und zuverlässiger
durchgeführt werden können als von einem Menschen, aber wer sich bei solchen Rechnungen
selbst unsicher fühlt, wird nicht in der Lage sein, das Ergebnis einer Computerberechnung
kritisch zu bewerten. Außerdem sind diese Rechenaufgaben eine gute Kontrolle, ob man die
betreffenden mathematischen Konzepte richtig verstanden hat. Also üben!
An einigen Stellen gibt es auch interaktive Illustrationen, die den behandelten
Stoff erhellen sollen. Sie sind mit diesem Symbol gekennzeichnet. Ich hoffe, mit
dem vorliegenden Buch eine zeitgemäße Einführung in die lineare Algebra und Abb. 3 Illus-
analytische Geometrie beigesteuert zu haben, die die typischen Anfangsschwie- trationen2
rigkeiten berücksichtigt, die die mathematischen Konzepte unter anderem durch Anwendungen
motiviert und es dabei nicht an mathematischer Strenge und Klarheit fehlen lässt. So viel zur
Frage vom Anfang dieses Vorworts.
Das Manuskript zu diesem Buch ist über viele Jahre entstanden. Dabei haben zahlreiche
Menschen mitgewirkt und wertvolle Verbesserungshinweise gegeben, nicht zuletzt die Stu-
dierenden der Vorlesung. Besonders seien hier Christian Becker, Florian Hanisch, Martin
Naumann, Max Lewandowski und Ramona Ziese genannt. Ich bin ihnen allen zu großem Dank
verpflichtet. Alle verbleibenden Fehler hat natürlich alleine der Autor zu verantworten. Für
entsprechende Hinweise an linalgbuch@cbaer.eu wäre ich dankbar. Sehr angenehm und
freundschaftlich war immer auch die Zusammenarbeit mit dem Verlag, insbesondere mit Frau
Schmickler-Hirzebruch. Auch ihr an dieser Stelle ein großes Danke!
2. Matrixrechnung 43
2.1. Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2. Lineare Unabhängigkeit und Basen . . . . . . . . . . . . . . . . . . . . . . . 58
2.3. Der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.4. Geometrie der Ebene, Teil 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.5. Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.6. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5. Geometrie 235
5.1. Affine Unterräume und affine Abbildungen . . . . . . . . . . . . . . . . . . . 235
5.2. Volumina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
5.3. Geometrie der Ebene, Teil 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 250
5.4. Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
5.5. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
x Inhaltsverzeichnis
6. Eigenwertprobleme 271
6.1. Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
6.2. Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 281
6.3. Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
6.4. Invariante Untervektorräume und Trigonalisierbarkeit . . . . . . . . . . . . . 303
6.5. Algebren und das Minimalpolynom . . . . . . . . . . . . . . . . . . . . . . 312
6.6. Die Jordan’sche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . 323
6.7. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
A. Anwendungen 411
A.1. Graphentheorie - etwas Kombinatorik . . . . . . . . . . . . . . . . . . . . . 411
A.2. Codierungstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
A.3. Weitere Volumenberechnungen . . . . . . . . . . . . . . . . . . . . . . . . . 421
A.4. Ranking von Webseiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
A.5. Differentialgleichungssysteme mit konstanten Koeffizienten . . . . . . . . . . 438
Literatur 453
Index 455
1. Grundlagen
(Ludwig Wittgenstein
Tractatus logico-philosophicus)
Bevor wir uns mit linearer Algebra oder analytischer Geometrie befassen, behandeln wir
zunächst einige grundsätzliche Fragen, die korrektes Formulieren und Argumentieren in der
Mathematik und darüber hinaus betreffen.
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_1
2 1. Grundlagen
Ist z.B. A :⇔„8 ist eine gerade Zahl“, so ist ihre Verneinung ¬A ⇔„8 ist keine gerade
Zahl“. Für die Aussage B :⇔„Jede Quadratzahl ist gerade“ haben wir ¬B ⇔ „Nicht jede
Quadratzahl ist gerade“. Für letzteres könnten wir auch ¬B ⇔„Es gibt wenigstens eine
ungerade Quadratzahl“ schreiben. Für C :⇔„Hertha BSC war seit dem zweiten Weltkrieg
schon mal deutscher Fußball-Meister“ ist ¬C ⇔„Hertha BSC war seit dem zweiten Weltkrieg
noch nie deutscher Fußball-Meister“. Die Aussage ¬C ist wahr.
Wir können den Effekt der Negation (Verneinung) einer Aussage in folgender Wertetafel
zusammenfassen:
Negation (nicht)
A ¬A
falsch wahr
wahr falsch
Tab. 1 Wahrheitstabelle Negation
Offensichtlich ist die Verneinung der Verneinung einer mathematischen Aussage A wieder
äquivalent zur ursprünglichen Aussage: ¬(¬A) ⇔ A.
Aus zwei Aussagen A und B können neue Aussagen gebildet werden: die Aussage „A und B“,
in Symbolen A ∧ B, sowie die Aussage „A oder B“, in Symbolen A ∨ B. Die Aussage A ∧ B
ist wahr, wenn sowohl A als auch B wahr sind; ansonsten ist sie falsch. Man spricht dann auch
von der Konjunktion der Aussagen A und B.
Die Aussage A ∨ B ist wahr, wenn A oder B oder beide wahr sind. Nur wenn A und B beide
falsch sind, ist auch A ∨ B falsch. Man spricht hier von der Disjunktion der Aussagen A und B.
Die Aussagen A ∧ B und A ∨ B besitzen also folgende Wertetafeln:
Für die Aussagen A :⇔„8 ist gerade“ (wahr) und B :⇔„3 ist gerade“ (falsch) ergibt sich zum
Beispiel A∧ B ⇔„8 und 3 sind gerade“, d.h. eine falsche Aussage. Andererseits ist A∨ B ⇔„8
oder 3 ist gerade“ eine wahre Aussage.
Auch die Aussage „2 oder 4 ist gerade“ ist wahr. Dieses Beispiel verdeutlicht noch einmal, dass
das mathematische oder nicht im Sinne von entweder oder zu verstehen ist (ein so genanntes
exklusives oder). Auch wenn sowohl A als auch B wahr sind, ist A ∨ B wahr.
Die Verneinung von A ∧ B ist äquivalent zu ¬A ∨ ¬B, da es für die Aussage ¬(A ∧ B) bereits
genügt, dass nur eine der Teilaussagen nicht gilt. Umgekehrt ist ¬(A∨B) äquivalent zu ¬A∧¬B.
1.1. Präzision ist gefragt: mathematisches Formulieren 3
Beim Verneinen vertauschen sich also und und oder. Das wird von Anfängern oft übersehen.
Seien z.B. n und m ganze Zahlen. Was ist die Verneinung der Aussage A ⇔„n und m sind
gerade“? Der mathematisch Ungeübte ist versucht zu sagen B ⇔„n und m sind ungerade“.
Das ist aber nicht richtig, denn wenn beispielsweise n = 2 und m = 3 ist, dann sind beide
Aussagen A und B falsch. Daher kann B nicht äquivalent zur Verneinung von A sein. Die
korrekte Verneinung wäre ¬A ⇔„n oder m ist ungerade“.
Konjunktion und Disjunktion kann man auch für mehr als zwei Aussagen bilden, sogar für
unendlich viele Aussagen. Die Konjunktion einer Serie von Aussagen ist wahr, falls alle
Einzelaussagen wahr sind, und falsch andernfalls. Entsprechend ist die Disjunktion einer
Serie von Aussagen wahr, wenn wenigstens eine der Einzelaussagen wahr ist. Falsch ist die
Disjunktion nur, wenn alle Einzelaussagen falsch sind. Betrachten wir z.B. die Aussagen
wobei n irgendeine positive ganze Zahl sein darf. Offensichtlich ist dann A(1) falsch, A(2)
wahr, A(3) falsch usw. Dann ist die Konjunktion A(1) ∧ A(2) ∧ A(3) ∧ · · · falsch, da ja z.B. A(1)
falsch ist. In der Tat besagt diese Konjunktion „alle positiven ganzen Zahlen sind gerade“,
was falsch ist. Die Disjunktion A(1) ∨ A(2) ∨ A(3) ∨ · · · besagt, dass wenigstens eine positive
ganze Zahle gerade ist, was wahr ist.
Für Konjunktion und Disjunktion mehrerer Aussagen verwendet man oft eine andere Nota-
tion, die so genannten Quantoren: den All-Quantor ∀ und den Existenz-Quantor ∃. Statt
A(1) ∧ A(2) ∧ A(3) ∧ · · · schreibt man dann
∀n : A(n),
gesprochen: „für alle n gilt A(n)“ oder „für jedes n gilt A(n)“. Statt A(1) ∨ A(2) ∨ A(3) ∨ · · ·
schreibt man
∃n : A(n),
gesprochen: „für ein n gilt A(n)“ oder „für wenigstens ein n gilt A(n)“ oder „es gibt ein n, so
dass A(n) gilt“ oder auch „für manches n gilt A(n)“.
Bemerkung 1.1. Anders als im umgangssprachlichen Gebrauch üblich, bedeutet in der Ma-
thematik „es gibt ein. . . “ (was durch den Quantor ∃ zum Ausdruck gebracht wird) stets „es
gibt mindestens ein. . . “. Möchte man dagegen ausdrücken, dass es ein und nur ein n gibt, für
das A(n) wahr ist, so notiert man ∃!n : A(n), gesprochen: „ es gibt genau ein n, für das A(n)
gilt“ oder „ es gibt ein eindeutiges n, so dass A(n) wahr ist“.
Beispiel 1.2. Wir verdeutlichen den Einsatz von ∃ und ∃! an unterschiedlichen Quantifizie-
rungen der Aussageform n2 = 25 :
Beispiel 1.3. Ist die Aussage „Alle runden Dreiecke sind blau“ wahr oder falsch? Die spontane
Reaktion der allermeisten Menschen1 lautet: falsch, denn es gibt ja überhaupt keine runden
Dreiecke. Doch seien wir vorsichtig und formalisieren wir die Aussage zunächst:
Aussage (1.2) besagt, dass es wenigstens ein rundes Dreieck gibt, das nicht blau ist. Da es aber
überhaupt keine runden Dreiecke gibt, muss Aussage (1.2) falsch sein. Da (1.2) die Verneinung
von (1.1) ist, ist Aussage (1.1) wahr!
Oft treten Quantifizierungen geschachtelt auf. Betrachten wir für n > m einmal alle Möglich-
keiten der Quantifizierung, also eine Verschachtelung mit zwei Quantoren:
Die Reihenfolge der Quantoren ist wichtig! Vertauschen wir etwa in der zweiten dieser vier
Aussagen die Reihenfolge der Quantoren, so erhalten wir
1Testen Sie doch mal Ihren Lieblingsmathematiklehrer mit dieser Frage.
1.2. Beweise 5
Generell erfolgt die Verneinung verschachtelter Quantifikationen durch das Vertauschen aller
auftretenden Quantoren und die Verneinung der Aussageform.
Beispiel 1.4. Wir wollen die Aussage „In so manchem Land haben alle Städte weniger als
1 Million Einwohner“ verneinen. Dazu schreiben wir die Aussage mit Quantoren hin:
Dies bedeutet aber wiederum umgangssprachlich: „In jedem Land gibt es (mindestens) eine
Stadt mit mindestens 1 Million Einwohnern“.
1.2. Beweise
Nun, da wir wissen, wie wir mathematische Sachverhalte formulieren, wollen wir auch ihren
Wahrheitsgehalt sicherstellen können. Dazu müssen wir schlussfolgern können. Wir sagen, die
Aussage A impliziert die Aussage B oder aus A folgt B, in Symbolen A ⇒ B, wenn im Fall,
dass A wahr ist, auch B wahr ist.
Wenn A die Aussage B impliziert und A falsch ist, dann wissen wir nichts über B; B kann dann
wahr oder falsch sein. In anderen Worten, falsche Aussagen können auch wahre implizieren.
Beispiel 1.5. Seien n und m ganze Zahlen. Aus n = m folgt sicherlich stets n2 = m2 . Für n = 1
und m = −1 ist die erste Aussage falsch, die zweite ist dann aber trotzdem wahr.
Dass zwei Aussagen äquivalent sind, heißt nichts anderes, als dass sie auseinander folgen. In
anderen Worten, A ⇔ B bedeutet A ⇒ B und B ⇒ A.
Genau genommen, sind zu zwei Aussagen A und B auch A ⇔ B und A ⇒ B wieder Aussagen,
ähnlich wie das bei Konjunktion und Disjunktion war, und zwar mit folgenden Wertetabellen:
6 1. Grundlagen
Mathematische Beweise sind dazu da, sicherzustellen, dass eine mathematische Aussage wahr
ist. Im einfachsten Fall hat ein mathematischer Beweis folgende Struktur: Wir wollen sicher
feststellen, dass die Aussage A wahr ist; d.h. wir wollen die Aussage A beweisen. Wir finden eine
Aussage A(1), von der wir wissen, dass sie wahr ist, und eine endliche Kette von Implikationen,
in der die letzte auftretende Aussage gerade die zu beweisende Aussage A ist,
A(1) ⇒ A(2) ⇒ A(3) ⇒ · · · ⇒ A(N) ⇒ A.
Da die erste Aussage A(1) wahr ist, ist auch A(2) wahr. Daher ist auch A(3) wahr usw. Schließlich
muss auch die letzte Aussage, d.h. A, wahr sein.
Beispiel 1.6 (Lösen quadratischer Gleichungen). Seien b und c reelle Zahlen, so dass b2 ≥
4c. Wir wollen beweisen, dass
b b2
x=− + −c
2 4
die Gleichung
x 2 + bx + c = 0
erfüllt.
Bevor wir mit dem eigentlichen Beweis beginnen, stellen wir fest, dass wegen der Vorausset-
zung b2 ≥ 4c der Term unter der Wurzel positiv oder 0 ist, so dass wir die Wurzel auch ziehen
können. Nun führen wir den Beweis ganz pingelig durch:
b b2
x=− + −c (1.3)
2 4
2
b b2 b b2
⇒ x = − +
2
−c ∧ x=− + −c (1.4)
2 4 2 4
b2 b2 b2 b b2
⇒ x =
2
−b −c+ −c ∧ x =− + −c (1.5)
4 4 4 2 4
b2 b2 b2 b2 b2
⇒ x2 = −b −c+ − c ∧ bx = − + b −c (1.6)
4 4 4 2 4
b2 b2 b2 b2 b2
⇒ x 2 + bx = −b −c+ −c− +b −c (1.7)
4 4 4 2 4
1.2. Beweise 7
⇒ x 2 + bx = −c (1.8)
⇒ x + bx + c = 0
2
(1.9)
Zur Erläuterung: Wir beginnen mit Aussage (1.3), die nach Voraussetzung wahr ist. Aussage
(1.4) ist eine Konjunktion zweier Teilaussagen. Damit diese wahr ist, müssen beide Teilaussagen
wahr sein. Tatsächlich folgen beide Teilaussagen von (1.4) aus (1.3), denn die zweite Teilaussage
von (1.4) ist nichts anderes als die Aussage (1.3); die erste Teilaussage von (1.4) folgt aus (1.3)
durch Quadrieren beider Seiten. Aussage (1.5) folgt aus (1.4), denn in der ersten Teilaussage
wird lediglich die rechte Seite ausmultipliziert während die zweite Teilaussage unverändert
bleibt. Aussage (1.6) folgt aus (1.5), denn die erste Teilaussage bleibt unverändert während
in der zweiten Teilaussage beide Seiten mit b multipliziert werden. Aussage (1.7) folgt aus
(1.6), denn die beiden Gleichungen aus (1.6) werden addiert. Nun haben wir nur noch eine
Teilaussage. Aussage (1.8) folgt aus (1.7), da sich die beiden Wurzelterme und die b2 -Terme
auf der rechten Seite wegheben. Aussage (1.9) folgt aus (1.8) durch Addition beider Seiten mit
c. Damit ist der Beweis beendet.
Bemerkung 1.7. Auf ähnliche Weise kann man beweisen, dass unter denselben Vorausset-
zungen auch
b b2
x=− − −c
2 4
die Gleichung
x 2 + bx + c = 0
erfüllt. Dies überlassen wir als kleine Übung. Sobald wir das bewiesen haben, wissen wir also,
dass sowohl
b b2 b b2
x=− + − c als auch x = − − −c
2 4 2 4
die Gleichung
x 2 + bx + c = 0
erfüllen. Dies ist dann wieder eine Konjunktion zweier Einzelaussagen.
Bemerkung 1.8. Seien wieder b und c reelle Zahlen, so dass b2 ≥ 4c. Tatsächlich sind
b b2 b b2
x=− + − c und x = − − −c
2 4 2 4
die einzigen Lösungen der Gleichung
x 2 + bx + c = 0.
2 2
Warum? Dazu definieren2 wir x1 := − 2b + b4 − c und x2 := − 2b − b4 − c. Durch Ausmulti-
plizieren sieht man dann leicht, dass die Aussage
∀ reelle Zahlen x : (x − x1 )(x − x2 ) = x 2 + bx + c
2Ähnlich wie bei der Äquivalenz von Aussagen wird für mathematische Größen durch das Symbol := die linke
Seite durch die rechte definiert.
8 1. Grundlagen
Bemerkung 1.9. Fassen wir die Diskussion über die Lösungen quadratischer Gleichungen
kurz zusammen. Seien b und c reelle Zahlen, so dass b2 ≥ 4c. Dann besitzt die Gleichung
x 2 + bx + c = 0
die beiden Lösungen
b b2 b b2
x=− + − c und x = − − − c.
2 4 2 4
Weitere Lösungen gibt es nicht. Sobald wir die komplexen Zahlen kennen gelernt haben,
werden wir auf die Voraussetzung b2 ≥ 4c auch noch verzichten können.
Warnung. Wir haben jetzt den direkten Beweis kennen gelernt. Leider wird dieser, gerade an
Schulen, oft falsch eingesetzt. Anstatt die zu beweisende Aussage A aus einer wahren Aussage
herzuleiten, wird eine Kette von Implikationen von Aussagen angegeben, die mit A beginnt
(statt mit A zu enden, wie es richtig wäre),
A ⇒ A(2) ⇒ A(3) ⇒ · · · ⇒ A(N).
Dann wird gesagt, wenn die letzte Aussage A(N) in der Kette wahr ist, ist A bewiesen. Das ist
aber kein gültiger Beweis, da auch falsche Aussagen wahre Aussagen implizieren können, wie
wir schon gesehen haben.
Beispiel 1.10. Seien x und y positive reelle Zahlen. Wir „beweisen“ die Aussage
x + y = x 2 + 2xy + y 2 (1.14)
wie folgt:
x+y= x 2 + 2xy + y 2
⇒ (x + y)2 = x 2 + 2xy + y 2
⇒ x 2 + 2xy + y 2 = x 2 + 2xy + y 2 .
Dass die erste Implikation gilt, sieht man durch Quadrieren beider Seiten, bei der zweiten durch
Ausmultiplizieren der linken Seite. Die letzte Aussage ist wahr. Daher meinen nicht wenige,
die Aussage (1.14) sei hierdurch bewiesen.
1.2. Beweise 9
Wäre das ein gültiger Beweis, dann könnten wir auch folgende falsche Aussage beweisen:
1 = −1.
„Beweis“.
1 = −1 (1.15)
⇒ 1 = (−1)
2 2
(1.16)
⇒ 1 = 1. (1.17)
Daher hat eine solche Argumentation auch bei wahren Aussagen keine Beweiskraft. Dieser Un-
fug ist nicht zu verwechseln mit einer anderen, korrekten und sehr wichtigen Beweismethode,
dem indirekten Beweis.
Der indirekte Beweis beruht auf folgender Beobachtung: Nehmen wir an, wir haben zwei
Aussagen A und B. Wenn A die Aussage B impliziert, dann impliziert auch ¬B die Aussage
¬A. Denn, nehmen wir an B ist falsch und A ist wahr, dann ist wegen A ⇒ B auch B wahr, was
wir gerade ausgeschlossen hatten. Man kann sich das auch anhand der Wertetabellen überlegen:
A⇒B A B ¬B ¬A ¬B ⇒ ¬A
wahr falsch falsch wahr wahr wahr
wahr falsch wahr falsch wahr wahr
falsch wahr falsch wahr falsch falsch
wahr wahr wahr falsch falsch wahr
Tab. 6 Wahrheitstabelle für Widerspruchsbeweis
Die Implikation A ⇒ B ist logisch äquivalent zur Implikation ¬B ⇒ ¬A. Der indirekte Beweis
oder Widerspruchsbeweis funktioniert nun so: Wir wollen die Aussage A beweisen. Finde dazu
eine endliche Kette von Implikationen von Aussagen, die mit ¬A beginnt und mit einer Aussage
endet, von der wir wissen, dass sie falsch ist,
Wie wir uns gerade überlegt haben, ist diese Kette von Implikationen gleichbedeutend mit
Da A(N) falsch ist, ist ¬A(N) wahr. Wegen der Implikationskette ist auch ¬(¬A) wahr, somit
ist A wahr, was wir beweisen wollten.
Einen solchen Widerspruchsbeweis formuliert man in der Regel so: Wir wollen A beweisen.
Angenommen, A wäre falsch. Dann würde A(2) folgen. Daraus würde A(3) folgen usw. bis
10 1. Grundlagen
schließlich A(N) folgt. Nun ist aber A(N) falsch, also haben wir einen Widerspruch hergeleitet.
Daher kann A nicht falsch sein, sondern muss wahr sein. Das Erreichen des Widerspruchs, d.h.
der falschen Aussage A(N), kennzeichnet man häufig mit einem Blitz .
Wir führen beispielhaft einen Widerspruchsbeweis, um zu zeigen, dass es unendlich viele
Primzahlen gibt. Zunächst die Definition von Primzahlen:
Definition 1.11. Eine ganze Zahl heißt Primzahl, falls sie größer als 1 und nur durch sich
selbst und 1 teilbar ist.
Proposition 1.12. Jede ganze Zahl n ≥ 2 kann als Produkt von Primzahlen geschrieben
werden.
Zum Beispiel stellt 6 = 2 · 3 die Zahl 6 als Produkt von Primzahlen dar. Auch 3935743 =
7 · 71 · 7919 ist eine Darstellung als Produkt von Primzahlen.
Beweis von Proposition 1.12. Ist n selbst eine Primzahl, so ist n = n selbst die Primzahlpro-
duktdarstellung von n (mit nur einem Faktor). Andernfalls können wir n durch eine ganze Zahl
m1 teilen, die zwischen 1 und n liegt. In anderen Worten, wir können n = m1 · m2 schreiben,
wobei m1 und m2 ganze Zahlen zwischen 1 und n sind. Nun wiederholen wir dieses Vorgehen
mit m1 und m2 statt n und fahren solange mit den neu auftretenden Faktoren fort, bis alle Fak-
toren Primzahlen sind. Das muss nach endlich vielen Schritten der Fall sein, da die Faktoren
bei jeder Zerlegung kleiner werden, aber stets größer als 1 bleiben müssen.
Das Schöne an diesem Beweis ist, dass er nicht nur sicherstellt, dass Proposition 1.12 richtig
ist, sondern uns auch ein Verfahren liefert, wie wir konkret eine Zahl in Primfaktoren zerlegen
können. Führen wir dies am Beispiel der Zahl n = 37700 durch. Im ersten Schritt zerlegen wir
n = 377 · 100. Im zweiten Schritt zerlegen wir 377 = 13 · 29 und 100 = 10 · 10. Damit haben
wir n = 13 · 29 · 10 · 10. Nun sind 13 und 29 bereits Primzahlen. Aber wir können 10 im dritten
Schritt weiter zerlegen, 10 = 2 · 5. Dies liefert n = 13 · 29 · 2 · 5 · 2 · 5. Nun sind alle Faktoren
Primzahlen und die Zerlegung ist abgeschlossen.
Wir werden diesen Beweis später nochmal mittels vollständiger Induktion etwas strenger
formulieren, siehe Beispiel 1.71. Jetzt aber zum eigentlichen Satz über Primzahlen.
Beweis. Wir gehen von der Widerspruchsannahme aus, dass es nur endlich viele Primzahlen
gäbe. Sei dann N die Anzahl der Primzahlen und seien
p1 = 2, p2 = 3, p3 = 5, . . ., p N
k := p1 · p2 · . . . · p N + 1.
Bei Division der Zahl k durch irgendeine der Primzahlen bleibt stets der Rest 1. Daher ist die
positive ganze Zahl k durch keine Primzahl teilbar.
Das muss aber falsch sein, denn k kann gemäß Proposition 1.12 als Produkt von Primzahlen
geschrieben werden und muss daher durch die Primzahlen teilbar sein, die in diesem Produkt
auftreten. Wir haben also einen Widerspruch hergeleitet. Somit ist die Annahme nur endlich
vieler Primzahlen falsch.
1.3. Mengen
Mathematische Aussagen werden heutzutage in der Regel in der Sprache
der Mengenlehre formuliert. Die Mengenlehre wurde vom deutschen Ma-
thematiker Georg Cantor Ende des 19. Jahrhunderts begründet. Er gab
1895 folgende Definition einer Menge:
Unter einer „Menge“ verstehen wir jede Zusammenfassung M von be-
stimmten wohlunterschiedenen Objekten m unserer Anschauung oder un-
seres Denkens (welche die „Elemente“ von M genannt werden) zu einem
Ganzen.
Dies ist keine strenge mathematische Definition, da sie andere Begriffe
Abb. 6 Georg Cantor
verwendet, wie „Zusammenfassung“, die selbst wieder einer Definition (1845–1918) 4
3Fotograf: Mark A. Wilson, Quelle: http://de.wikipedia.org/wiki/Euklid
4Fotograf unbekannt, Quelle: http://www.math.uni-hamburg.de/home/grothkopf/fotos/math-ges/,
aus einem Fotoalbum der Mathematischen Gesellschaft Hamburg
12 1. Grundlagen
bedürften. Wir wollen uns hier aber nicht mit der logischen Begründung der Mengenlehre
aufhalten, sondern werden diese intuitive Definition akzeptieren. Wir betrachten die Mengen-
notation hauptsächlich als Hilfsmittel, mathematische Aussagen prägnant zu formulieren.
Mengen können auf unterschiedliche Weise angegeben werden. Hat die Menge nur endlich
viele Elemente, können wir sie aufzählen.
Beispiele 1.14. 1. Die Menge M := {1, 2, 3, 4, 5} hat also genau die Zahlen 1, 2, 3, 4 und 5
als Elemente.
2. Die einfachste Menge ist die leere Menge {}. Sie wird auch mit dem Symbol ∅ = {}
geschrieben. Sie hat überhaupt keine Elemente.
Die Elemente einer Menge haben keine ausgezeichnete Reihenfolge. Es gilt also z.B.:
{1, 2, 3, 4, 5} = {5, 4, 3, 2, 1} = {2, 3, 4, 5, 1}.
Das Wort „wohlunterschieden“ in Cantors Definition deutet darauf hin, dass jedes Element
nur einmal in einer Menge vorkommen kann. Wir dürfen zwar bei der Angabe einer Menge
dasselbe Element mehrfach auflisten, es gilt aber immer nur als ein Element. Wir haben somit
z.B.:
{1, 2, 3, 4, 5} = {1, 1, 1, 2, 3, 3, 4, 5}
Die Elemente einer Menge können selbst Mengen sein. So hat z.B. die Menge {1, ∅, {1}} drei
Elemente, nämlich 1, ∅ und {1}. Man beachte, dass 1 nicht dasselbe ist wie {1}. Daher sind
dies zwei verschiedene Elemente dieser Menge.
Beispiel 1.15. Die Menge {∅} ist nicht die leere Menge, denn sie hat ein Element, nämlich die
leere Menge!
Mitunter kann man auch Mengen mit unendlich vielen Elementen durch Aufzählung angeben.
Um auszudrücken, dass ein Objekt m Element einer Menge M ist, schreibt man
m ∈ M.
Falls m nicht Element von M ist, schreibt man
m M.
Wir haben z.B. 0 ∅ und 0 N, aber 0 ∈ N0 und 0 ∈ Z.
Für die Anzahl der Elemente einer Menge M schreibt man #M.
1.3. Mengen 13
Beispiele 1.17. 1. #∅ = 0.
2. #{∅} = 1.
3. #{∅, {}, {∅}} = 2, denn ∅ = {}.
4. #N = #N0 = #Z = ∞.
Definition 1.18. Seien M und N Mengen. Dann heißt M Teilmenge von N, falls jedes
Element von M auch Element von N ist. Wir schreiben dafür:
M ⊂ N :⇔ ∀m ∈ M : m ∈ N .
N ⊃ M :⇔ M ⊂ N .
Beispiele 1.19. 1. Die leere Menge ist Teilmenge einer jeden beliebigen Menge M,
∅ ⊂ M.
2. Offensichtlich gilt
N ⊂ N0 ⊂ Z.
3. Für M = {♦, ♥, ♠, ♣} ist ♦ ∈ M und damit {♦} ⊂ M. Ebenso kann für ♥, ♣ ∈ M auch
{♥, ♣} ⊂ M geschrieben werden.
Bemerkung 1.20. Zwei Mengen M und N sind genau dann gleich, wenn jedes Element von
M auch Element von N ist und umgekehrt, d.h.:
M =N ⇔ M ⊂ N∧N ⊂ M
Beispiele 1.22. 1. Die Menge M der geraden Zahlen ist gegeben durch
M = {m ∈ Z | m ist durch 2 teilbar}
oder auch
M = {m ∈ Z | ∃n ∈ Z : m = 2 · n}.
14 1. Grundlagen
3. Sei R die Menge aller reellen Zahlen. Eine reelle Zahl heißt rational, wenn sie sich als Bruch
zweier ganzer Zahlen schreiben lässt. Die Menge der rationalen Zahlen ist somit gegeben
durch
Q := {x ∈ R | ∃ n, m ∈ Z : m 0 ∧ x = n/m}.
An dieser Stelle kann man sich fragen, ob womöglich alle reellen Zahlen rational sind. Gibt es
überhaupt irrationale Zahlen? Ja, die gibt es:
Bevor wir den Satz beweisen, leiten wir folgende Hilfsaussage her:
Beweis von Lemma 1.24. Es ist die Äquivalenz zweier Aussagen zu beweisen. Dies bedeutet,
dass zwei Implikationen zu beweisen sind, nämlich
Dies gilt, da das Produkt ungerader Zahlen stets wieder ungerade ist.5
5Warum eigentlich?
1.3. Mengen 15
Nun aber zum Beweis von Satz 1.23, was eine schöne Gelegenheit darstellt, Widerspruchs-
beweise zu üben.
√
Beweis von Satz 1.23. Nehmen wir an, 2 wäre rational. Dann gäbe es m, n ∈ Z mit m 0
und √ n
2= . (1.18)
m
√
Da 2 positiv ist, müssen m und n entweder beide positiv oder beide negativ sein. Im letzteren
Fall können wir m und n durch −m bzw. −n ersetzen. Also können m und n auf jeden Fall
positiv gewählt werden, was wir von jetzt an auch annehmen.
Sind n und m beide gerade, so kürzen wir den Faktor 2 im Bruch solange bis n oder m ungerade
geworden ist. Wir können also in (1.18) n und m aus N wählen und zwar so, dass sie nicht
beide gerade sind.
Nachdem wir n und m so gewählt haben, quadrieren wir beide Seiten in (1.18) und erhalten
n2
2= (1.19)
m2
und daher
2m2 = n2 . (1.20)
Daraus folgt, dass n2 gerade ist. Gemäß Lemma 1.24 ist dann auch n gerade. Es gibt also ein
k ∈ Z, so dass n = 2k. Wir setzen dies in (1.20) ein und erhalten
2m2 = (2k)2 = 4k 2
und daher
m2 = 2k 2 .
Daher ist m2 gerade. Gemäß Lemma 1.24 ist dann auch m gerade. Wir haben hergeleitet, dass
n und m gerade sind, was aber falsch ist, da wir n und m so gewählt hatten, dass genau das
nicht der Fall ist. Wir haben somit einen Widerspruch
√ √ hergeleitet zu der Annahme, dass sich
2 wie in (1.18) schreiben lässt. Daher kann 2 nicht rational sein.
Doch nun weiter mit der Mengenlehre. Aus zwei Mengen M und N können wir uns auf drei
Weisen eine neue Menge verschaffen:
16 1. Grundlagen
M N M N M N
Abb. 8 Mengenoperationen
Satz 1.25 (de Morgan’sche Gesetze). Seien M, N1 und N2 Mengen. Dann gilt:
(i) M ∩ (N1 ∪ N2 ) = (M ∩ N1 ) ∪ (M ∩ N2 ).
(ii) M ∪ (N1 ∩ N2 ) = (M ∪ N1 ) ∩ (M ∪ N2 ).
(iii) M \ (N1 ∪ N2 ) = (M \ N1 ) ∩ (M \ N2 ).
(iv) M \ (N1 ∩ N2 ) = (M \ N1 ) ∪ (M \ N2 ).
Beweis. Wir beweisen hier nur das erste Gesetz. Die Beweise der anderen sind ganz ähnlich
und werden der Übung überlassen. Aussage (i) besagt eine Gleichheit von zwei Mengen. Um
diese zu beweisen, zeigen wir, dass die Menge auf der linken Seite in der Menge auf der rechten
Seite enthalten ist, und umgekehrt.
a) Wir beweisen M ∩ (N1 ∪ N2 ) ⊂ (M ∩ N1 ) ∪ (M ∩ N2 ).
Dazu müssen wir zeigen, dass jedes Element von M ∩ (N1 ∪ N2 ) auch Element von (M ∩ N1 ) ∪
(M ∩ N2 ) ist. Sei also x ∈ M ∩ (N1 ∪ N2 ). Dann ist x ∈ M und x ∈ N1 ∪ N2 . Die zweite
Bedingung sagt, dass x ∈ N1 oder x ∈ N2 .
1. Fall: x ∈ N1 .
Dann ist x ∈ M∩N1 . Wegen M∩N1 ⊂ (M∩N1 )∪(M∩N2 ) ist dann auch x ∈ (M∩N1 )∪(M∩N2 ).
2. Fall: x ∈ N2 .
Dann ist x ∈ M ∩ N2 . Wegen M ∩ N2 ⊂ (M ∩ N1 ) ∪ (M ∩ N2 ) gilt auch dann x ∈ (M ∩ N1 ) ∪
(M ∩ N2 ).
In beiden Fällen ist x ∈ (M ∩ N1 ) ∪ (M ∩ N2 ), was zu zeigen war.
b) Nun beweisen wir M ∩ (N1 ∪ N2 ) ⊃ (M ∩ N1 ) ∪ (M ∩ N2 ).
Sei also x ∈ (M ∩ N1 ) ∪ (M ∩ N2 ). Dann ist x ∈ M ∩ N1 oder x ∈ M ∩ N2 .
1. Fall: x ∈ M ∩ N1 .
Dann ist x ∈ M und x ∈ N1 . Wegen N1 ⊂ N1 ∪ N2 ist dann auch x ∈ N1 ∪ N2 und daher
x ∈ M ∩ (N1 ∪ N2 ).
1.3. Mengen 17
2. Fall: x ∈ M ∩ N2 .
Dann ist x ∈ M und x ∈ N2 . Wegen N2 ⊂ N1 ∪ N2 ist dann auch x ∈ N1 ∪ N2 und daher
wiederum x ∈ M ∩ (N1 ∪ N2 ).
In beiden Fällen ist x ∈ M ∩ (N1 ∪ N2 ), was zu zeigen war.
Definition 1.26. Zwei Mengen M und N heißen disjunkt, falls M ∩ N = ∅, d.h. falls sie
keine gemeinsamen Elemente haben.
Beispiel 1.27. Die Mengen {1, 2} und {3} sind disjunkt, die Mengen {1, 2} und {2, 3} dagegen
nicht, da {1, 2} ∩ {2, 3} = {2} .
Zu einer gegebenen Menge kann man alle möglichen Teilmengen betrachten und diese dann
als Elemente einer neuen Menge betrachten.
Definition 1.28. Sei M eine Menge. Dann ist die Potenzmenge P(M) die Menge aller
Teilmengen von M, d.h.
P(M) := {T | T ⊂ M}.
Die Potenzmenge einer Menge M kann niemals leer sein, denn es ist stets ∅ ⊂ M und daher
∅ ∈ P(M).
Beispiele 1.29. 1. Die leere Menge ∅ hat genau eine Teilmenge, nämlich die leere Menge
selbst. Die Potenzmenge der leeren Menge hat daher genau ein Element, nämlich die leere
Menge. Somit ist P(∅) = {∅}.
2. Nehmen wir einmal M = {♥, ♠, ♣} her. Dann ist
P(M) = {∅, {♥} , {♠} , {♣} , {♠, ♣}, {♥, ♣}, {♥, ♠}, M } .
Die Bildung von Potenzmengen kann jetzt hier geübt werden. Also los:
http://ueben.cbaer.eu/11.html
Man beachte, dass die Reihenfolge der Elemente wichtig ist. Ist z.B. n = 2 und M1 = M2 = Z,
18 1. Grundlagen
so sind (1, 2) und (2, 1) zwei verschiedene geordnete 2-Tupel (oder geordnete Paare, wie man
im Fall n = 2 auch sagt).
Definition 1.31. Seien M1, . . ., Mn Mengen. Dann ist das kartesische Produkt M1 ×. . .×Mn
die Menge aller geordneten n-Tupel mit Elementen aus M1 bis Mn . In Formeln:
M1 × . . . × Mn := {(x1, . . ., xn ) | x1 ∈ M1 ∧ . . . ∧ xn ∈ Mn }.
Am besten kann man sich das kartesische Produkt vorstellen, wenn n = 2 ist und die beiden
Mengen M1 und M2 endlich sind. Dann entsprechen die Elemente von M1 × M2 den Kästchen
einer Tabelle, in der die Elemente von M1 horizontal und die von M2 vertikal aufgelistet sind.
Beispiel 1.32. Ist M1 = {♦, ♥, ♠, ♣} und M2 = {7, 8, 9, 10, B, D, K, A}, dann tritt jedes Element
von M1 × M2 an genau einer Stelle folgender Tabelle auf:
♦ ♥ ♠ ♣
7 (♦, 7) (♥, 7) (♠, 7) (♣, 7)
8 (♦, 8) (♥, 8) (♠, 8) (♣, 8)
9 (♦, 9) (♥, 9) (♠, 9) (♣, 9)
10 (♦, 10) (♥, 10) (♠, 10) (♣, 10)
B (♦, B) (♥, B) (♠, B) (♣, B)
D (♦, D) (♥, D) (♠, D) (♣, D)
K (♦, K) (♥, K) (♠, K) (♣, K) Abb. 9 Spielkarten
A (♦, A) (♥, A) (♠, A) (♣, A)
Tab. 7 Elemente von M1 × M2
Bemerkung 1.33. Man schreibt das n-fache kartesische Produkt einer Menge M mit sich
selbst auch als M n , d.h.:
M × . . . × M ⇔: M n
Häufig schreibt man n-Tupel auch als Spalten statt als Zeilen, d.h.:
⎧
⎪ ⎫
⎪
⎪
⎪
x 1
⎪
⎪
⎨
⎪
.. ∀i ∈ {1, . . . , n} : x ⎬
⎪
M = .
n
i ∈ M .
⎪
⎪ ⎪
⎪
⎪
⎪ xn ⎪
⎪
⎩ ⎭
1.4. Abbildungen 19
1.4. Abbildungen
Mengen werden durch Abbildungen zueinander in Bezug gesetzt.
Definition 1.34. Seien M und N Mengen. Eine Abbildung f : M → N ist eine Vorschrift,
die jedem Element x ∈ M genau ein Element f (x) ∈ N zuordnet. Hierbei heißt dann M
Definitionsbereich und N Wertebereich von f .
M f N
Abb. 10 Abbildung
Abbildungen können alles Mögliche beschreiben. Zum Beispiel könnte in einem physikalischen
Experiment der Definitionsbereich die Menge aller Einstellungen des Experiments sein, der
Wertebereich R und die Abbildung liefert den Messwert des Experiments, den man bei jeder
Einstellung erhält.
Oder der Definitionsbereich könnte die Menge aller Produkte eines Supermarkts sein, der
Wertebereich Q und die Abbildung liefert den Preis eines jeden Produkts in Euro.
Nehmen wir die Menge M := M1 × M2 aus Beispiel 1.32, deren Elemente den Spielkarten im
Skat entsprechen, als Definitionsbereich und N0 als Wertebereich, so könnten wir jedem Ele-
ment von M den Punktewert der entsprechenden Karte im Skat zuordnet, also z.B. f (♦, 9) = 0
und f (♠, K) = 4.
Um die Funktionsvorschrift einer Abbildung f : M → N anzugeben, schreibt man häufig
x → f (x).
2. f : R × R → R, (x, y) → x + y.
1 falls x ∈ Q
3. f : R → N, x →
0 falls x Q
Definition 1.36. Sei f : M → N eine Abbildung und M ⊂ M eine Teilmenge. Dann heißt
f (M ) := { f (x ) | x ∈ M } ⊂ N
M f N
f (M )
M
Abb. 11 Bild
Bemerkung 1.37. Im Fall M = M, also wenn M der gesamte Definitionsbereich ist, nennt
man f (M) auch einfach das Bild von f . Dafür verwendet man auch die Notation im( f ) := f (M),
wobei „im“ für das englische Wort „image“ für Bild steht.
Definition 1.38. Sei f : M → N eine Abbildung und N ⊂ N eine Teilmenge. Dann heißt
f −1 (N ) := {x ∈ M | f (x) ∈ N } ⊂ M
M f N
N
f −1 (N )
Abb. 12 Urbild
f (M ) = { f (0, y) | y ∈ R} = {0 + y | y ∈ R} = R.
1.4. Abbildungen 21
f −1 (N ) = {(x, y) ∈ R × R | f (x, y) ∈ N }
= {(x, y) ∈ R × R | x + y ∈ {0}}
= {(x, y) ∈ R × R | x + y = 0}
= {(x, y) ∈ R × R | y = −x}
= {(x, −x) | x ∈ R} .
In diesem Beispiel hatte die Menge N nur ein Element. Dennoch hat das Urbild f −1 (N )
unendlich viele Elemente.
Bemerkung 1.40. Ist f : M → N eine Abbildung und möchte man das Urbild einer Teilmenge
N ⊂ N betrachten, das genau ein Element hat, d.h. N = {y} für ein y ∈ N, dann schreibt man
statt f −1 ({y}) auch einfacher f −1 (y). Das Urbild der Menge {y} und das Urbild des Elements
y sind also per Konvention dasselbe.
Beispiel 1.41. Nehmen wir M = M1 × M2 aus Beispiel 1.32, also die Menge der Skatkarten,
und f : M → N0 die Abbildung, die jeder Karte ihren Punktwert zuordnet. Dann ist das Bild
von f die Menge der möglichen Punktwerte, also
f −1 (0) = {(♦, 7), (♥, 7), (♠, 7), (♣, 7), (♦, 8), (♥, 8), (♠, 8), (♣, 8), (♦, 9), (♥, 9), (♠, 9), (♣, 9)}.
Ein Skatspieler würde f −1 (0) als die Menge der Luschen bezeichnen.
Beispiel 1.42. Schachstellungen können wir wie folgt durch Abbildungen beschreiben: Zu-
nächst setzen wir
8 0Z0Z0Z0Z
Die Elemente der Menge Schachbrett entspre- 7 Z0Z0Z0Z0
6 0Z0Z0Z0Z
chen den Feldern des Schachbretts, (a, 1) z.B. 5 Z0Z0Z0Z0
4 0Z0Z0Z0Z
dem Feld ganz links unten. Nun betrachten 3 Z0Z0Z0Z0
wir die Menge der möglichen Spielfiguren im 2 0Z0Z0Z0Z
1 Z0Z0Z0Z0
Schach, a b c d e f g h
Abb. 13 Schachbrett
Figuren := K, Q, R, B, N, P, k, q, r, b, n, p .
22 1. Grundlagen
Die erste Idee ist nun, eine Schachstellung durch eine Abbildung zu beschreiben, die jeder
Figur das Feld zuordnet, auf dem sie steht. Das wäre eine Abbildung
Dabei haben wir aber das Problem, dass Figuren mehrfach vorkommen können und dass
manche Figuren möglicherweise auch überhaupt nicht vorkommen, weil sie im Laufe der
Schachpartie bereits geschlagen wurden. Richtig ist es daher, jeder Figur die Menge der Felder
zuzuordnen, auf denen sie vorkommt. Diese Menge kann auch leer sein. Wir bekommen
daher eine Abbildung, deren Wertebereich nicht Schachbrett, sondern die Potenzmenge von
Schachbrett,
Schachstellung : Figuren → P(Schachbrett).
So würde die Abbildung Schachstellung zur folgenden Position aus der Partie Fischer-Tal (Mar
del Plata 1959)6 erfüllen
8
0s0l0ZkZ
7
Z0Z0apZp Schachstellung K = {(g, 2)},
6
0ZRZnZpZ Schachstellung Q = {(g, 4)},
5
Z0Z0o0O0 Schachstellung (R) = {(c, 6)},
4
BZpZPZQZ Schachstellung (B) = {(a, 4), (e, 3)},
3
Z0O0A0O0 Schachstellung (N) = ∅,
2
0Z0Z0OKZ
Schachstellung (P) = {(c, 3), (e, 4), ( f , 2), (g, 3), (g, 5)}
1
Z0Z0Z0Z0
a b c d e f g h
Abb. 14 Fischer-Tal 1959 usw.
Wenn wir zwei Abbildungen haben, für die der Wertebereich der einen mit dem Definitions-
bereich der anderen übereinstimmt, dann können wir diese beiden Abbildungen zu einer neuen
zusammensetzen.
Bemerkung 1.44. In diesem Beispiel gilt f ◦ g = g ◦ f . Das ist allerdings Zufall. Ist X Z, so
ist g ◦ f überhaupt nicht definiert. Aber selbst wenn X = Z ist, gilt in den allermeisten Fällen
f ◦g g ◦ f.
( f ◦ g)(x) = f (g(x)) = f (x 2 ) = x 2 + 1
während
(g ◦ f )(x) = g( f (x)) = g(x + 1) = (x + 1)2 = x 2 + 2x + 1
ist. Für alle x 0 ist somit ( f ◦ g)(x) (g ◦ f )(x), also ist f ◦ g g ◦ f .
( f ◦ g) ◦ h = f ◦ (g ◦ h).
Warum? Durch viermaliges Anwenden der Definition der Verkettung finden wir für alle a ∈ A :
Wir brauchen uns bei der Verkettung von Abbildungen keine Gedanken um die Klammerung
zu machen. Daher können wir einfach
f ◦ g ◦ h := ( f ◦ g) ◦ h = f ◦ (g ◦ h)
schreiben.
Als Nächstes besprechen wir drei der wichtigsten Eigenschaften, die Abbildungen haben kön-
nen.
∀y ∈ N ∃x ∈ M : f (x) = y.
In anderen Worten, das Bild von f stimmt mit dem Wertebereich überein, f (M) = N.
Jedes Element des Wertebereichs N wird also bei einer surjektiven Abbildung von mindestens
einem Element des Definitionsbereichs getroffen.
24 1. Grundlagen
M f N
2. Die Abbildung f : Z → Z, n → |n|, ist nicht surjektiv, da die negativen Zahlen nicht im
Bild von f liegen.
3. Sei Q+ die Menge der positiven rationalen Zahlen, Q+ := {x ∈ Q | x > 0}. Dann ist die
Abbildung f : N × N → Q+ , (n, m) → mn , surjektiv, da jede positive rationale Zahl als
Quotient natürlicher Zahlen geschrieben werden kann.
Beispiel 1.49. Sei P die Menge der ungeraden Primzahlen, P = {p ∈ N | p ist Primzahl ∧ p ≥
3}. Da die Summe zweier ungerader Zahlen stets gerade ist, erhalten wir eine Abbildung
7Quelle: http://de.wikipedia.org/wiki/Christian_Goldbach
1.4. Abbildungen 25
Wie wir natürlich sofort erkennen, ist ∀x1, x2 ∈ M : x1 x2 ⇒ f (x1 ) f (x2 ) dazu
äquivalent.
Bei einer injektiven Abbildung werden verschiedene Elemente von M stets auf verschiedene
Elemente von N abgebildet. In anderen Worten, auf jedes Element von N wird höchstens
einmal abgebildet.
M f N
Definition 1.52. Eine Abbildung f : M → N heißt bijektiv :⇔ f ist injektiv und surjektiv.
In anderen Worten: ∀y ∈ N ∃!x ∈ M : f (x) = y.
Bei einer bijektiven Abbildung wird auf jedes Element in N genau einmal abgebildet.
M f N
Beispiele 1.53. 1. Sei M eine beliebige Menge. Dann ist die Abbildung idM : M → M
bijektiv.
26 1. Grundlagen
3. Die Abbildung f : Z → Z, x → x 3 , ist zwar injektiv, nicht aber surjektiv, also auch nicht
bijektiv. Die dritte Wurzel aus einer ganzen Zahl ist im Allgemeinen nicht ganz.
Notation 1.54. Sind M und N zwei Mengen, so schreiben wir für die Menge aller Abbil-
dungen von M nach N künftig Abb(M, N).
Satz 1.55. Seien M und N nicht leere Mengen. Sei f ∈ Abb(M, N). Dann gilt:
Definition 1.56. Im ersten Fall nennt man g eine rechtsinverse Abbildung von f , im zweiten
Fall eine linksinverse Abbildung und im dritten Fall einfach inverse Abbildung oder auch
Umkehrabbildung von f .
Zu „⇒“:
Sei nun f als surjektiv vorausgesetzt. Für beliebiges y ∈ N konstruieren wir g wie folgt: Da f
surjektiv ist, existiert mindestens ein (von y abhängiges) Element x y ∈ M mit f (x y ) = y. Dann
setzen wir einfach g(y) := x y, d.h. die Abbildung wählt zu jedem vorgegebenen y ein Urbild
x y aus.
1.4. Abbildungen 27
M f N
g
Abb. 19 Rechtsinverse einer surjektiven Abbildung
also
f ◦ g = id N .
Zu (ii):
Zu „⇐“:
Sei g ∈ Abb(N, M), so dass g ◦ f = id M gilt. Wir zeigen, dass f dann injektiv ist. Seien dazu
x1, x2 ∈ M mit f (x1 ) = f (x2 ). Wir müssen zeigen, dass x1 = x2 ist. Wir wenden die Abbildung
g auf das Element f (x1 ) = f (x2 ) an und erhalten
g( f (x1 )) = g( f (x2 ))
⇒ (g ◦ f )(x1 ) = (g ◦ f )(x2 )
⇒ id M (x1 ) = id M (x2 )
⇒ x1 = x2 .
Zu „⇒“:
Sei nun f als injektiv vorausgesetzt. An dieser Stelle geht ein, dass M nicht leer ist. Demnach
existiert wenigstens ein Element in M. Wir wählen eines aus und nennen es x0 ∈ M. Wir
definieren g : N → M wie folgt:
eindeutiges x ∈ M mit f (x) = y , falls y ∈ f (M),
g(y) :=
x0 , sonst.
M f N
x0
g
Abb. 20 Linksinverse einer injektiven Abbildung
28 1. Grundlagen
Bemerkung 1.57. Der Schluss des Beweises des Satzes zeigt auch, dass die Umkehrabbildung
einer bijektiven Abbildung eindeutig ist. Wir schreiben sie üblicherweise als f −1 . Rechts- und
Linksinverse sind im Allgemeinen aber nicht eindeutig.
Zwei endliche Mengen M und N haben genau dann gleich viele Elemente, wenn es eine
bijektive Abbildung f : M → N zwischen ihnen gibt. Jedes Element von M entspricht genau
einem Element von N unter der bijektiven Abbildung f . Allgemein machen wir folgende auch
für unendliche Mengen gültige Definition:
Definition 1.58. Zwei Mengen M und N heißen gleichmächtig, wenn es eine bijektive
Abbildung f : M → N gibt.
x 0 1 2 3 4 5 6 7 8 ...
f (x) 0 −1 1 −2 2 −3 3 −4 4 ...
Tab. 8 Bijektive Abbildung f : N0 → Z
Ein komplexeres Beispiel, welches „verschiedenene Typen“ der Unendlichkeit illustriert, ist
bekannt unter dem Namen Hilberts Hotel.8
In einem Hotel mit endlich vielen Zimmern können bekannt-
lich keine Gäste mehr aufgenommen werden, sobald alle Zim-
mer belegt sind. Stellen wir uns nun ein Hotel mit unendlich
vielen Zimmern vor, durchnummeriert, beginnend bei 1 und
mit nur einem möglichen Gast pro Zimmer. Man könnte an-
nehmen, dass dasselbe Problem auch hier auftritt. Die naive
Vermutung hierzu wäre: Wenn unendlich viele Gäste im Hotel
sind, kann kein weiterer Gast aufgenommen werden. Sehen Abb. 21 Hilberts Hotel
wir uns einmal an, welche Erlebnisse eine Arbeitswoche in Hilberts Hotel bereithält:
Montag: Alle Zimmer sind belegt und ein neuer Gast reist an.
Der Hoteldirektor bittet den Gast im Zimmer 1 nach Zimmer 2 umzuziehen, den Gast im
Zimmer 2 nach Zimmer 3 umzuziehen, usw. Auf diese Weise ziehen alle „alten“ Gäste in
das Zimmer mit der nächsthöheren Zimmernummer um. Dadurch wird Zimmer 1 frei und
der neue Gast kann einziehen. Mathematisch steckt folgende injektive und nicht surjektive
„Umzieh-Abbildung“ hinter diesem Prinzip:
f : N → N, n → n + 1.
Die Injektivität stellt dabei sicher, dass niemals zwei Gäste in einem Zimmer einquartiert
werden. Andererseits ist f nicht surjektiv, denn offenbar wird 1 ∈ N nicht als Bild von f
angenommen, d.h. es gilt
also 1 f (N). Das heißt gerade, dass Zimmer 1 für den neuen Gast frei geworden ist.
Dienstag: Alle Zimmer sind belegt und ein Bus mit k neuen Gästen trifft ein (k ∈ N).
Wieder hat der clevere Hoteldirektor eine Lösung parat: Jeder „alte“ Gast zieht in das Zimmer,
dessen Nummer um k größer ist als das bisherige. Dadurch werden die Zimmer 1, . . ., k frei.
Diesmal liegt die injektive aber nicht surjektive Abbildung
f : N → N, n → n + k,
8benannt nach dem deutschen Mathematiker David Hilbert (1862–1943), siehe http://de.wikipedia.org/
wiki/David_Hilbert
30 1. Grundlagen
Mittwoch: Alle Zimmer sind belegt und ein Bus mit ∞ vielen Gästen trifft ein, deren Sitzplätze
mit 1, 2, 3, . . . durchnummeriert sind.
Selbst hier weiß sich der Hoteldirektor zu helfen: Die „alten“ Gäste ziehen in das Zimmer mit der
doppelten Zimmernummer und die neuen Gäste belegen dann die frei gewordenen ungeraden
Zimmernummern. Hier ist unsere injektive und nicht surjektive „Umzieh-Abbildung“ durch
f : N → N, n → 2n,
gegeben. Das Bild der Abbildung lautet
f (N) = {2n | n ∈ N} .
Für die neu eingetroffenenen Gäste nehmen wir die „Neubelegungs-Abbildung“:
g : N → N, n → 2n − 1.
Hierbei ist g injektiv und es gilt
g(N) = {2n − 1 | n ∈ N}
und damit f (N) ∩ g(N) = ∅. Die „neuen“ und die „alten“ Gäste kommen sich also nicht in die
Quere.
Donnerstag: Alle Zimmer sind belegt und ∞ viele Busse mit jeweils ∞ vielen Gästen treffen
ein, wobei Busse und Sitzplätze jeweils mit 1, 2, 3, . . . durchnummeriert sind.
Donnerstag ist ein sehr stressiger Tag in Hilberts Hotel. Die „alten“ Gäste müssen zunächst
wie am Mittwoch in die Zimmer mit den doppelten Zimmernummern umziehen. Natürlich
sind diese Zimmernummern dann gerade. Die „neuen“ Gäste quartieren wir wieder in den
Zimmern mit ungeraden Nummern ein. Sein Faible für Euklid bringt den Hoteldirektor auf
folgende Idee: Er ordnet als erstes jedem Bus eine ungerade Primzahl zu, d.h.
p1 = 3, p2 = 5, p3 = 7, p4 = 11, . . .
Als mathematisch gebildeter Mensch weiß der Hoteldirektor, dass es unendlich viele Primzah-
len gibt, von denen nur eine gerade ist. Daher kann der Hoteldirektor jeden Bus mit je einer
eigenen ungeraden Primzahl versorgen. Die Fahrgäste aus Bus 1 belegen nun nach und nach
die Zimmer 31, 32, 33, . . .. Die Fahrgäste aus Bus 2 belegen dann sukzessive die Zimmer 51,
52, 53, . . ., die aus Bus 3 belegen 71, 72, 73, . . . usw. Damit hat es der Direktor mal wieder
geschafft!
Nun legen wir uns diese Angelegenheit noch einmal mathematisch zurecht, behalten dazu un-
sere „Mittwochs-Umzieh-Abbildung“ f : N → N mit f (n) = 2n bei und definieren schließlich
die „Neubelegungs-Abbildung“
g : N × N → N, (m, n) → pnm .
Dabei beschreibt m die Busnummer und n die Sitzplatznummer. Überlegen wir also, dass
g injektiv ist: Für alle (m, n) und (m, n) folgt aus g(m, n) = g(m, n), dass pnm = pnm , also
pm = pm ∧ n = n , d.h. m = m ∧ n = n . Nun ist
f (N) ∩ g(N) ⊂ {n ∈ N | n gerade} ∩ {n ∈ N | n ungerade} = ∅
1.4. Abbildungen 31
Freitag: Alle Zimmer sind frei und ein neuer Bus mit ∞ vielen Gästen trifft ein, wobei die
Sitzplätze mit√ den reellen Zahlen des Intervalls (0, 1) durchnummeriert sind, also unter anderem
π
auch mit 15 , 22 oder etwa 10 .
Heute muss der Hoteldirektor allerdings passen und kann zu seinem Bedauern nicht allen
angereisten Gästen ein Zimmer anbieten. Wie man nun richtig vermutet, unterscheidet sich die
Anzahl ∞ der Sitzplätze im Bus zur Anzahl ∞ der Hotelzimmer. Exakt begründen wir diesen
Sachverhalt mit
Beweis. Wir machen die Widerspruchsannahme, dass es doch eine injektive Abbildung
g : (0, 1) → N gibt. Das Bild von g ist eine Teilmenge von N. Nennen wir das kleinste Element
dieser Teilmenge y1 . Da y1 im Bild von g liegt, gibt es ein x1 ∈ (0, 1) mit g(x1 ) = y1 . Da g injek-
tiv ist, ist dieses x1 eindeutig. Nun betrachten wir das zweitkleinste Element y2 ∈ g((0, 1)) ⊂ N
und das zugehörige x2 ∈ (0, 1) mit g(x2 ) = y2 . So fahren wir fort; allgemein sei xi ∈ (0, 1)
das Element, für das g(xi ) das i-te Element im Bild g((0, 1)) ⊂ N ist. Damit haben wir eine
Auflistung der Elemente von (0, 1) erhalten,
Nun nutzen wir das so genannte Cantor’sche Diagonalverfahren, um einen Widerspruch her-
zuleiten. Wir schreiben die Elemente xi ∈ (0, 1) in Dezimalbruchentwicklung hin:
Dabei ist ai j ∈ {0, . . ., 9} die j-te Ziffer in der Dezimalentwicklung der i-ten Zahl xi . Wir
konstruieren nun eine neue reelle Zahl y = 0, b1 b2 b3 . . . mit b j ∈ {0, . . ., 9}, wobei
3, falls a j j 3
b j :=
4, falls a j j = 3.
Dann erhalten wir in der Tat eine reelle Zahl y ∈ (0, 1) mit der Nachkommaunterscheidung
b j a j j , so dass für alle j ∈ N gilt: y x j . Also ist y ∈ (0, 1) eine neue reelle Zahl, die noch
nicht in unserer Liste auftaucht. Dies widerspricht (1.21), wonach alle Zahlen aus (0, 1) in der
Liste x1, x2, x3, . . . vorkommen.
32 1. Grundlagen
Wir haben zwei unendliche Mengen gefunden, die nicht gleichmächtig sind, nämlich N und
(0, 1). Tatsächlich hat (0, 1) mehr Elemente als N. Es gibt also verschiedene „Unendlichs“.
1 2 3 4 ···
1 1
1
2
1
3
1
4
1 ···
2 1
2
2
2
3
2
4
2 ···
3 1
3
2
3
3
3
4
3 ···
4 1
4
2
4
3
4
4
4 ···
.. .. .. .. .. ..
. . . . . .
Tab. 10 Positive rationale Zahlen
Da jede positive rationale Zahl sich als Quotient zweier natürlicher Zahlen schreiben lässt,
kommt jedes x ∈ Q+ in der Tabelle vor. Allerdings kommt es mehrfach vor, da z.B. 11 = 22 =
3 = · · · . Um nun f anzugeben, klappern wir die Elemente in der Tabelle „diagonalweise“ ab,
3
wobei wir jede Zahl, die schon mal erreicht wurde, auslassen.
···
···
···
···
.. .. .. .. ..
. . . . .
Abb. 22 Auflistung der Tabelleneinträge
Beweis. Sei f : N → Q+ die bijektive Abbildung aus obigem Beweis. Wir erhalten eine
bijektive Abbildung F : Z → Q durch
⎧
⎪ f (n), falls n > 0,
⎪
⎨
⎪
n → 0, falls n = 0,
⎪
⎪
⎪ − f (−n), falls n < 0.
⎩
Definition 1.65. Eine Menge M heißt abzählbar unendlich, falls M und N gleichmächtig
sind. Ist M unendlich, aber nicht zu N gleichmächtig, dann heißt M überabzählbar.
Diese Sprechweise rührt daher, dass man falls M abzählbar unendlich ist, eine bijektive Ab-
bildung f : N → M finden kann und daher die Menge M schreiben kann als
Man kann die Elemente einer abzählbar unendlichen Menge M auflisten. Für überabzählbare
Mengen ist dies nicht möglich.
Beispiel 1.66. Wir haben gesehen, dass die Mengen N, N0 , Z, Q+ und Q abzählbar unendlich
sind. Hingegen ist das reelle Intervall (0, 1) überabzählbar.
Definition 1.67. Seien M und N Mengen und M ⊂ M eine Teilmenge. Sei f ∈ Abb(M, N)
eine Abbildung. Die Einschränkung von f auf M ist die Abbildung f | M ∈ Abb(M , N),
die durch
∀x ∈ M : f | M (x ) := f (x )
gegeben ist.
Beispiel 1.68. Wir überlegen uns, dass R überabzählbar sein muss. Wäre nämlich R abzählbar
unendlich, so gäbe es eine bijektive Abbildung f : R → N. Die Einschränkung einer injektiven
Abbildung ist stets wieder injektiv. Also wäre die Einschränkung von f auf das Intervall (0, 1)
wiederum eine injektive Abbildung f |(0,1) : (0, 1) → N. Dies widerspricht aber Satz 1.61.
34 1. Grundlagen
n(n + 1)
1+2+···+n = .
2
für alle n ∈ N gilt.
Das Prinzip der vollständigen Induktion besagt, dass es reicht, statt A(1), A(2), A(3), . . . die
Aussagen B(1), B(2), B(3), . . . zu beweisen, wobei
B(1) :⇔ A(1)
und für n ≥ 2
B(n) :⇔ (A(1) ∧ A(2) ∧ · · · ∧ A(n − 1) ⇒ A(n))
ist. Zunächst mal fragen wir uns, warum das eine Erleichterung darstellt. Für den Beweis der
ersten Aussage A(1) ändert sich nichts; die müssen wir beweisen. Für n ≥ 2 ist B(n), d.h. die
Folgerung A(1) ∧ A(2) ∧ · · · ∧ A(n − 1) ⇒ A(n) aber oft leichter zu zeigen, als direkt A(n),
weil wir die Gültigkeit von A(n) nur unter Annahme der Gültigkeit von A(1), . . ., A(n − 1) zu
zeigen haben. Mit anderen Worten, B(n) zu zeigen, bedeutet A(n) zu zeigen, aber wir dürfen
bei der Herleitung die vorangegangen Aussagen A(1), . . . , A(n − 1) benutzen!
Warum ist das Prinzip der vollständigen Induktion zulässig? Nehmen wir an, wir haben
B(1), B(2), B(3), . . . gezeigt. Dann gilt A(1), da es ja äquivalent zu B(1) ist. Wegen B(2)
folgt nun A(2) aus A(1) und ist daher auch gültig. Wegen B(3) folgt nun A(3) aus A(1) und
A(2) und ist daher ebenfalls gültig, usw.
Den Nachweis von B(1), d.h. von A(1) nennt man den Induktionsanfang. Den Nachweis von
B(2) ∧ B(3) ∧ · · · nennt man den Induktionsschritt. Beim Nachweis von A(n) in der Implikation
B(n) nennt man A(1)∧· · · ∧ A(n −1) die Induktionsvoraussetzung. Es ist ein häufig auftretender
Spezialfall, dass man von der Induktionsvoraussetzung nur die direkt vorangehende Aussage
A(n − 1) benutzt.
n(n + 1)
1+2+···+n = . (1.22)
2
für alle n ∈ N gilt.
Induktionsanfang: Dazu ist die Aussage für n = 1 zu beweisen. In der Tat ist
1(1 + 1)
1=
2
offensichtlich wahr und der Induktionsanfang ist abgeschlossen.
1.5. Vollständige Induktion 35
Induktionsschritt: Sei dazu n ≥ 2. Wir zeigen die Aussage (1.22) für dieses n und dürfen dabei
die Aussage für 1, . . . , n − 1 verwenden. In diesem Beispiel reicht es aus, die Induktionsvor-
aussetzung mit n − 1 zu benutzen. Nach Induktionsannahme gilt also
(n − 1)((n − 1) + 1)
1 + 2 + · · · + (n − 1) = .
2
Wir addieren auf beiden Seiten n und berechnen
(n − 1)((n − 1) + 1) n(n + 1)
1 + 2 + · · · + (n − 1) + n = +n = .
2 2
Damit ist der Beweis abgeschlossen.
Beispiel 1.70. Wir zeigen mittels vollständiger Induktion: Für jede endliche Menge M gilt
Zunächst müssen wir überlegen, wie die Aussagen A(n) hier überhaupt lauten sollen. Es bietet
sich an, hier folgende Aussagen zu zeigen:
Der Kenner würde sagen, wir machen vollständige Induktion über die Zahl der Elemente
von M.
Induktionsanfang: n = 1. Es ist also zu zeigen:
Hat M genau ein Element, dann hat P(M) genau zwei Elemente.
Dies ist wahr, denn falls M genau ein Element hat, dann ist P(M) = {∅, M}. Da M ∅, hat
P(M) genau zwei Elemente. Der Induktionsanfang ist abgeschlossen.
9Künstler: Gottlieb Biermann, Fotograf: A. Wittmann, Quelle: Sternwarte der Universität Göttingen,
https://de.wikipedia.org/wiki/Carl_Friedrich_Gau%C3%9F#/media/File:Carl_Friedrich_
Gauss.jpg
36 1. Grundlagen
Induktionsschritt: Sei n ≥ 2. Wir zeigen A(n), wobei wir A(1), . . ., A(n − 1) benutzen dürfen.
Auch in diesem Beispiel benötigen wir nur A(n − 1). Schreiben wir M erst mal hin:
M = {x1, x2, . . ., xn }.
Dabei sind die xi die paarweise verschiedenen Elemente von M. Wir setzen
M := {x1, . . ., xn−1 }.
Wir haben also ein Element weggelassen. Die Menge M hat genau n − 1 Elemente. Daher gilt
nach A(n − 1) (der Induktionsvoraussetzung), dass
#P(M ) = 2n−1 . (1.24)
Nun teilen wir P(M) in zwei disjunkte Teilmengen auf:
X := {T ∈ P(M) | xn ∈ T },
Y := {T ∈ P(M) | xn T }.
Wegen P(M) = X ∪ Y und X ∩ Y = ∅ ist
#P(M) = #X + #Y . (1.25)
Die Teilmengen von M, die xn nicht enthalten, sind genau die Teilmengen von M , also
Y = P(M ) und wegen (1.24) somit
#Y = 2n−1 . (1.26)
Fügen wir zu den Teilmengen von M das Element xn hinzu, so erhalten wir gerade die
Teilmengen von M, die xn enthalten. In anderen Worten, die Abbildung
Hinzufügen : P(M ) → X, T → T ∪ {xn },
ist bijektiv. Daher haben X und P(M ) gleich viele Elemente. Wiederum wegen (1.24) ist
#X = #P(M ) = 2n−1 . (1.27)
Wir setzen (1.26) und (1.27) in (1.25) ein und erhalten
#P(M) = 2n−1 + 2n−1 = 2 · 2n−1 = 2n,
was zu beweisen war.
Damit ist die vollständige Induktion abgeschlossen. Wir haben gezeigt, für jede Menge mit
genau n Elementen, wobei n ∈ N, hat die Potenzmenge genau 2n Elemente. Dabei haben wir
einen Fall übersehen, die leere Menge. Sie hat 0 Elemente, die Potenzmenge genau eines,
nämlich die leere Menge. Also ist die Behauptung auch in diesem Fall wahr, es gilt ja 20 = 1.
Tatsächlich wäre es geschickter gewesen, den Induktionsanfang mit der leeren Menge zu
beginnen. Dazu hätten wir die Aussagen A(n) wie folgt wählen können:
A(n) :⇔ Hat M genau n − 1 Elemente, dann hat P(M) genau 2n−1 Elemente.
Alternativ kann man die Aussagen auch lassen, wie sie waren und dafür auch die Aussa-
ge A(0) mit berücksichtigen. Dann ist der Beweis von A(0) der Induktionsanfang und der
Induktionsschritt zeigt dann für n ≥ 1, dass aus A(0), . . . , A(n − 1) die Aussage A(n) folgt.
1.5. Vollständige Induktion 37
Von jetzt an werden wir auch die Schreibweise mit dem Summenzeichen und dem Produktzei-
10
chen verwenden. Wir schreiben also statt x1 +. . .+ x10 auch j=1 x j . Der Summationsindex j
kann natürlich auch anders genannt werden. Analog ist x1 · · · x10 = 10k=1 x k .
Beispiel 1.71. Wir beweisen Proposition 1.12 nochmals, diesmal mittels vollständiger Induk-
tion. Wir erinnern uns an die Aussage: Für alle n ∈ N, n ≥ 2, gilt
Dieses Mal ist der Induktionsanfang bei n = 2 durchzuführen. In der Tat ist 2 selbst eine
Primzahl, so dass die Gleichung
2=2
die gewünschte Primzahlzerlegung darstellt (ein Produkt mit nur einem Faktor). Der Indukti-
onsanfang ist abgeschlossen.
Induktionsschritt: Sei n ≥ 3. Ist n selbst eine Primzahl, so ist wiederum n = n die gewünschte
Primzahlzerlegung und wir sind fertig. Falls nicht, so können wir n = m1 · m2 schreiben,
wobei m1, m2 ∈ {2, . . ., n − 1}. Nach Induktionsvoraussetzung besitzen m1 und m2 Primzahl-
zerlegungen,
k
m1 = pi und m2 = q j,
i=1 j=1
k
n= pi · qj
i=1 j=1
Schließlich wollen wir vollständige Induktion noch verwenden, um folgende sehr nützliche
Aussage zu zeigen.
Lemma 1.72 (Hotelzimmerlemma). Seien X und Y endliche Mengen mit gleich vielen
Elementen. Sei f : X → Y eine Abbildung. Dann sind äquivalent:
Dieses Lemma ist sehr plausibel, denn stellen wir uns vor, X ist eine Menge von Hotelgästen
und Y eine Menge von Hotelzimmern. Wir haben vorausgesetzt, dass es gleich viele Hotelgäste
38 1. Grundlagen
wie Hotelzimmer gibt. Die Abbildung f ordnet nun jedem Hotelgast ein Hotelzimmer zu. Nun
bedeutet z.B. dass f injektiv ist, dass jeder Hotelgast sein eigenes Hotelzimmer bekommt, das
er mit niemandem teilen muss. Da wir gleich viele Hotelzimmer wie Hotelgäste haben, sind
dann alle Zimmer belegt, d.h. f ist auch surjektiv und damit bijektiv. Setzen wir umgekehrt
voraus, dass f surjektiv ist, so sind alle Zimmer belegt. Da wir gleich viele Gäste wie Zimmer
haben, kann kein Zimmer mehrfach belegt sein, also muss f auch injektiv sein.
Wenn X und Y verschieden viele Elemente haben oder wenn X und Y unendlich viele Elemente
haben dürfen, dann gilt das Lemma nicht mehr, wie die Diskussion um Hilberts Hotel gezeigt
hat.
Beweis von Lemma 1.72. Wir beweisen die Aussage mittels vollständiger Induktion über die
Anzahl n der Elemente von X und Y.
Induktionsanfang: n = 0. Hier gilt X = Y = ∅ und die einzige Abbildung f : ∅ → ∅ ist die
leere Abbildung, die überhaupt nichts abbildet. Diese Abbildung ist injektiv und surjektiv, also
bijektiv. Aussagen (1)–(3) sind daher im Fall n = 0 stets wahr und damit äquivalent.
Induktionsschritt: Sei n ≥ 1. Wir müssen zeigen, dass aus der Injektivität von f die Surjektivität
folgt und umgekehrt.
Sei f zunächst als injektiv vorausgesetzt. Wir wählen ein Element x0 ∈ X und setzen y0 :=
f (x0 ) ∈ Y . Dann haben X := X \ {x0 } und Y := Y \ {y0 } jeweils n − 1 viele Elemente. Da f
injektiv ist, wird kein Element aus X auf y0 abgebildet. Also können wir f zu einer Abbildung
fX : X → Y einschränken. Da die Einschränkung einer injektiven Abbildung stets wieder
injektiv ist, ist fX : X → Y eine injektive Abbildung zwischen zwei Mengen mit je n − 1
Elementen. Nach Induktionsannahme ist fX : X → Y dann auch surjektiv. Somit liegt jedes
Element von Y im Bild von f . Für y0 gilt dies sowieso. Also liegt jedes Element von Y im
Bild von f , d.h. f ist surjektiv.
Sei nun umgekehrt f als surjektiv vorausgesetzt. Angenommen, f wäre nicht injektiv. Dann
gäbe es x1, x2 ∈ X mit x1 x2 , so dass f (x1 ) = f (x2 ). Wir setzen X := X \ {x1 }. Dann wäre
fX : X → Y immer noch surjektiv. Nun aber hätte X nur n − 1 Elemente, daher kann auch
das Bild f (X ) höchstens n − 1 Elemente haben. Da Y aber n Elemente hat, kann fX : X → Y
nicht surjektiv sein, Widerspruch.
1.6. Aufgaben
1.1. Begründen Sie, warum die Regel „Keine Regel ohne Ausnahmen“ in sich widersprüchlich
ist.
1.2. In einem Dorf rasiert ein Barbier genau diejenigen Männer, die sich nicht selbst rasieren.
Rasiert der Barbier sich selbst?
Sie werden bei dieser Frage auf ein Problem stoßen. Erläutern Sie, wodurch dieses Problem
entsteht.
1.3. a) Ein Rätsel von Lewis Carroll, dem Autor von „Alice im Wunderland“. Wir wissen
Folgendes:
1.6. Aufgaben 39
1.4. Vervollständigen Sie den Beweis der Morgan’schen Gesetze, d.h. zeigen Sie für alle
Mengen M, N1, N2 :
a) M ∪ (N1 ∩ N2 ) = (M ∪ N1 ) ∩ (M ∪ N2 );
b) M \ (N1 ∪ N2 ) = (M \ N1 ) ∩ (M \ N2 );
c) M \ (N1 ∩ N2 ) = (M \ N1 ) ∪ (M \ N2 ).
1.6. Seien X und Y zwei Mengen. Finden Sie heraus, wie viele Abbildungen von X nach Y es
gibt, wie viele davon injektiv, surjektiv bzw. bijektiv sind, und zwar falls
a) #X = 2 und #Y = 3;
b) #X = 3 und #Y = 2;
c) #X = #Y = 3.
1.7. Seien M, N und P Mengen. Beweisen Sie folgende Aussagen zur Mächtigkeit:
Eine nachträgliche Bemerkung: Die Punkte (a) bis (c) besagen, dass die Eigenschaft, gleich-
mächtig zu sein, eine sogenannte Äquivalenzrelation definiert. Eigenschaft (a) wird dabei
auch als Reflexivität, (b) als Symmetrie und (c) als Transitivität bezeichnet.
1.9. Zeigen Sie mittels vollständiger Induktion: Für alle n ∈ N ist 3n+1 − 9 durch 18 teilbar.
1.10. Beweisen Sie mittels vollständiger Induktion: Für alle n ∈ N mit n ≥ 2 ist 2n > n + 1.
1.12. Im Land Methylien sind die Bewohner dem Trauben- und Gerstensaft nicht abgeneigt
und das hat natürlich Konsequenzen für die Verkehrssicherheit. Um den armen Meythylianern
das Leben zu erleichtern, beschließt die Regierung, alle Städte direkt mit Straßen untereinander
zu verbinden, so dass es also stets eine direkte Verbindung von Stadt A nach Stadt B gibt. Diese
Straßen kreuzen sich nicht, sondern werden mit Brücken und Tunneln aneinander vorbeigeführt.
1.6. Aufgaben 41
Leider liefert das immer noch keine befriedigende Lösung des Verkehrsproblems, denn der
lästige Gegenverkehr bereitet den angeheiterten Meythylianern Probleme. Deshalb ergreift die
Regierung eine drastische Maßnahme und erklärt alle Straßen des Landes zu Einbahnstraßen.
Wie nicht anders zu erwarten, sind aber auch die Arbeiter, die die entsprechende Beschilderung
vornehmen, während ihrer Tätigkeit nicht ganz nüchtern, so dass die erlaubten Fahrtrichtungen
völlig willkürlich festgelegt werden. Nachdem das Kind nun in den Brunnen gefallen ist, stellt
sich der Regierung die Frage, ob sie überhaupt noch alle Städte von einer Hauptstadt aus
erreichen kann.
Beruhigen Sie die Regierung von Methylien indem Sie durch vollständige Induktion (nach der
Anzahl der Städte) zeigen:
Es gibt eine Stadt in Methylien, die sich als Hauptstadt eignet, weil sich von ihr aus alle
anderen Städte so durch korrektes Befahren von Einbahnstraßen erreichen lassen, dass man
einen Umweg über höchstens eine andere Stadt fahren muss.
Hinweis: Für den Induktionsschritt ist es hilfreich, eine kleine Karte mit den Städten und
Einbahnstraßen von Methylien zu zeichnen und sich zu überlegen, welche verschiedenen Fälle
bei Hinzunahme einer weiteren Stadt eigentlich auftreten können.
1.13. Wir „beweisen“ jetzt, dass alle Musiker dasselbe Instrument spielen. Dazu zeigen wir
mittels vollständiger Induktion für alle n ∈ N die Aussage
A(n) : In jeder Menge bestehend aus genau n Musikern spielen alle Musiker dasselbe
Instrument.
Induktionsanfang: Die Aussage A(1) ist wahr, denn in jeder Menge bestehend aus genau einem
Musiker spielen alle Musiker (ist ja nur einer) dasselbe Instrument.
Induktionsschritt: Sei n ≥ 2. Wir zeigen A(n). Sei dazu M eine n-elementige Menge von
Musikern. Wir entfernen einen Musiker a ∈ M und erhalten eine (n − 1)-elementige Menge
M1 := M \ {a} von Musikern. Nach Induktionsannahme ist A(n − 1) wahr und somit spielen
alle Musiker in M1 dasselbe Instrument. Da n ≥ 2 ist können wir auch einen anderen Musiker
b ∈ M, b a, entfernen und erhalten eine weitere Menge M2 := M \ {b} von Musikern. Nach
Induktionsannahme spielen auch alle Musiker in M2 dasselbe Instrument. Da a ∈ M2 ist, spielt
a ebenfalls dasselbe Instrument wie alle anderen Musiker in M. Also spielen alle Musiker in
M dasselbe Instrument.
Wo ist der Fehler in diesem „Beweis“?
2. Matrixrechnung
Matrizen erlauben eine übersichtliche Schreibweise für lineare Gleichungssysteme. Man kann
mit Matrizen in vielerlei Hinsicht ähnlich rechnen wie mit Zahlen. Sie dienen auch der Be-
schreibung linearer Abbildungen, z.B. in geometrischen Anwendungen.
Beispiel 2.1. Wir wollen das Gewicht zweier Obstsorten, Apfelsinen und Bananen, durch zwei
Wägungen mit einem 2kg-Gewicht bestimmen.
40cm 50cm
50cm 25cm
15cm 25cm
Abb. 24 Obstwägung
In den beiden bildlich dargestellten Konfigurationen sei die Waage im Gleichgewicht. Daraus
wollen wir das Gewicht A der Apfelsinen (in kg) und das der Bananen B (ebenfalls in kg)
bestimmen. Wir erhalten
A · 15 + B · 40 = 2 · 50,
A · 25 = 2 · 25 + B · 50. (2.1)
Wir bringen die Terme mit den Unbekannten A und B auf die linke Seite und kürzen die
Vorfaktoren soweit möglich:
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_2
44 2. Matrixrechnung
3 · A + 8 · B = 20,
A − 2B = 2.
Ziehen wir von der ersten Zeile das 3-fache der zweiten Zeile ab, so erhalten wir
14 · B = 14 ⇒ B = 1.
A = 2 + 2B = 4.
Bisher ist damit gezeigt: Wenn das LGS (2.1) eine Lösung (A, B) besitzt, so muss A = 4
und B = 1 gelten. Durch Einsetzen sieht man auch umgekehrt, dass A = 4 und B = 1 die
Gleichungen (2.1) tatsächlich löst.
Insgesamt ist dann (2.1) erfüllt ⇔ A = 4 ∧ B = 1. Wir drücken das auch so aus, dass die
Lösungsmenge die Menge
{(4, 1)}
ist. Die beiden Wägungen haben das Gewicht der beiden Obstsorten also eindeutig bestimmt,
das Gewicht der Apfelsinen beträgt 4 kg, das der Bananen 1 kg.
Beispiel 2.2. Nun zu einem explosiven Beispiel aus der Chemie.1 Betrachtet werden die Sub-
stanzen Toluol C7 H8 , Salpetersäure HNO3, Wasser H2 O sowie Trinitrotoluol C7 H5O6 N3 ,
besser bekannt unter der Abkürzung TNT. Die zugehörige Reaktionsgleichung lautet:
Wir benötigen zur Herstellung von TNT somit Toluol und Salpetersäure und erhalten als Ne-
benprodukt Wasser. Wie viel mol2 Toluol und Salpetersäure benötigen wir nun zur Herstellung
von z mol TNT und wie viel Wasser wird dabei erzeugt?
Bekanntlich bleiben chemische Elemente bei (chemischen) Reaktion erhalten. Aus (2.2) erhal-
ten wir dann folgendes LGS mit vier Gleichungen in vier Unbekannten für:
Kohlenstoff C : 7 · x + 0 · y = 7 · z + 0 · w,
Wasserstoff H : 8 · x + 1 · y = 5 · z + 2 · w,
Stickstoff N : 0·x+1· y = 3 · z + 0 · w,
Sauerstoff O : 0·x+3· y = 6 · z + 1 · w.
1Dieses Beispiel dient der Illustration linearer Gleichungssysteme. Von einer tatsächlichen Durchführung des
Experiments wird aus medizinischen und juristischen Gründen dringend abgeraten.
2Ein Mol ist eine Einheit für die Stoffmenge bei chemischen Reaktionen. Ein Mol enthält ungefähr 6 · 1023
Teilchen.
2.1. Lineare Gleichungssysteme 45
x = z,
8x + y = 5z + 2w,
y = 3z,
3y = 6z + w.
Die zweite Gleichung folgt aus der ersten, dritten und vierten. Wir erhalten sie, indem wir
von achtmal der ersten fünfmal die dritte abziehen und zweimal die vierte hinzuzählen. Daher
können wir die zweite Gleichung weglassen. Das System ist äquivalent zu
x = z,
y = 3z,
w = 3z.
Beispiel 2.3. In einem Land, in dem der Jahreshaushalt aufzustellen ist, gibt es drei Ministe-
rien: das Ministerium für Bildung und Soziales, dasjenige für Protz und Prunk sowie das für
Angriff und Verteidigung. Der Angriffsminister verlangt für sein Ministerium so viel Geld wie
die beiden anderen Ministerien zusammen haben. Der Protzminister wiederum beharrt darauf,
dass er ein Drittel des Budgets des Angriffsministers bekommt, abzüglich des Budgets des
Bildungsministers. Wie muss das Gesamtbudget auf die Ministerien aufgeteilt werden?
Nennen wir das Budget des Ministeriums für Bildung und Soziales x, das des Protzministers y
und das des Angriffsministers z, jeweils in Prozent des Gesamtbudgets. Dann muss natürlich
x + y + z = 100
z=x+y
x + y + z = 100,
x + y − z = 0,
1
x + y − z = 0.
3
Ziehen wir die zweite Gleichung von der ersten ab, so sehen wir 2z = 100, also z = 50. Wegen
der zweiten Gleichung gilt auch x + y = 50. Setzen wir diese Werte in die dritte Gleichung
ein, so erhalten 50 − 13 · 50 = 0, was nicht stimmt.
Die Lösungsmenge des LGS ist in diesem Fall leer, die Forderungen der Minister sind nicht
erfüllbar.
Problematisierung. Die Beispiele zeigen, dass es keine, genau eine und unendlich viele
Lösungen geben kann.
Aber sind dies bereits alle Möglichkeiten? Oder gibt es vielleicht auch LGS mit genau zwei
Lösungen? Führen mehr als eine Lösung stets zur Existenz unendlich vieler Lösungen? Und
unter welchen Bedingungen entstehen welche qualitativen Typen von Lösungsmengen?
Um Antworten auf diese Fragen zu erhalten, studieren wir lineare Gleichungssysteme nun
systematisch und beginnen mit der folgenden formalen Definition:
Definition 2.4. Ein lineares Gleichungssystem (LGS) ist ein Gleichungssystem der Form
Hierbei ist n die Anzahl der Unbekannten und m die Anzahl der Gleichungen. Man beachte,
dass m und n im Allgemeinen nicht übereinzustimmen brauchen.
Die Koeffizienten Ai j sowie die bi ∈ R sind vorgegeben. Die Unbekannten x1, . . ., xn dagegen
sind gesucht.
Gilt b1 = . . . = bm = 0, so heißt das LGS homogen und ansonsten inhomogen.
So lagen etwa dem Obstkorb-Beispiel ebenso wie Beispiel 2.3 inhomogene LGS zu Grunde.
Das LGS im Falle des Sprengstoff-Beispiels war homogen.
Bemerkung 2.5. Im Falle eines homogenen LGS kann die Lösungsmenge niemals leer sein,
da dann x1 = · · · = xn = 0 stets eine Lösung ist.
Definition 2.6. Eine m × n-Matrix reeller Zahlen ist ein rechteckiges Schema der Form
A11 · · · A1n
.. .. ..
.
. . ,
Am1 · · · Amn
1 4 1
So ist zum Beispiel (0 0) eine 1 ×2-Matrix, 2 5 eine 3 ×2-Matrix und 2 eine 3 ×1-Matrix.
3 6 3
Wir werden nachfolgend die Menge aller reellen m × n-Matrizen mit Mat(m × n, R) bezeichnen.
1 4
Für uns ist dann also zum Beispiel 2 5 ∈ Mat(3 × 2, R).
3 6
Definition 2.7. Eine 1 × n-Matrix nennen wir Zeilenvektor und eine m × 1-Matrix Spal-
tenvektor.
A11 · · · Am1
. .. ..
A = ..
. .
A1n · · · Amn
1 4
1 2 3
2 5 = .
4 5 6
3 6
48 2. Matrixrechnung
3. Transponiert man zweimal, so ergibt sich wieder die ursprüngliche Matrix, d.h. für alle
Matrizen A gilt
(A ) = A.
Nachfolgend werden wir die Konvention verwenden, dass die Elemente aus Rn stets Spalten-
vektoren, d.h. n × 1-Matrizen sind. Folglich gilt:
⎧
⎪ ⎫
⎪
⎪
⎪
x1
⎪
⎪
⎨
⎪ .. ⎪
⎬
R = Mat(n × 1, R) = . x1, . . . , xn ∈ R = {(x1, . . ., xn ) | x1, . . ., xn ∈ R}.
n
⎪
⎪ ⎪
⎪
⎪
⎪ xn ⎪
⎪
⎩ ⎭
Bemerkung 2.10. Als Konvention für die Einträge von Matrizen A bzw. B aus Mat(m × n, R)
nutzen wir der Definition entsprechend Ai j bzw. Bi j also
A11 · · · A1n
B11 · · · B1n
. .. .. . .. ..
A = .. . . bzw. B = .. . . .
Am1 · · · Amn Bm1 · · · Bmn
Der erste Index i ist der Zeilenindex, der zweite Index j der Spaltenindex.
Sehen wir uns einmal an, welche Rechenoperationen mit Matrizen möglich sind.
Addition von Matrizen. Seien A, B ∈ Mat(m × n, R) mit der Darstellung wie oben. Die
Matrizen stimmen also in Höhe und Breite überein. Dann können die beiden Matrizen addiert
werden. Dabei hat A + B definitionsgemäß die Einträge
(A + B)i j = Ai j + Bi j .
Man spricht auch davon, dass die Addition komponentenweise erklärt ist, etwa im Fall
1 4 7 10 1 + 7 4 + 10 8 14
2 5 + 8 11 = 2 + 8 5 + 11 = 10 16
3 6 9 12 3 + 9 6 + 12 12 18
oder im Spezialfall der Vektoraddition
1 −2 1−2 −1
0 + 1 = 0+1 = 1 .
−1 3 −1 + 3 2
Für die prägnante Unterscheidung zwischen Matrizen reeller Zahlen und reellen Zahlen selbst
bezeichnet man letztere auch häufig als Skalare.
2.1. Lineare Gleichungssysteme 49
Multiplikation von Matrizen mit Skalaren. Sei A ∈ Mat(m × n, R) mit Einträgen wie oben
und λ ∈ R. Dann hat λ · A ∈ Mat(m × n, R) die Einträge
(λ · A)i j = λ · Ai j ,
z.B.
1 4 2·1 2·4 2 8
2 · 2 5 = 2 · 2 2 · 5 = 4 10
3 6 2 · 3 2 · 6 6 12
oder
1 2·1 2
2 · 0 = 2 · 0 = 0 .
Multiplikation zweier Matrizen. Sei A ∈ Mat(m × n, R) und B ∈ Mat(n × k, R). Die Breite
der ersten Matrix muss also mit der Höhe der zweiten Matrix übereinstimmen. Das Resultat
der Matrix-Multiplikation von A mit B wird eine m × k-Matrix sein, A · B ∈ Mat(m × k, R).
Die Formel für die Matrix-Multiplikation kann man sich mit Hilfe des so genannten Falk-
Schemas merken. Kürzen wir dazu das Produkt als C ab, d.h. C := A · B, dann sieht das
Falk-Schema folgendermaßen aus:
B B12 B13
11
B21 B22 B23
B B31 B32 B33
bzw.
A C A A12 A13 C C12 C13
11
11
A21 A22 A23 C21 C22 C23
A31 A32 A33 C31 C32 C33
Tab. 11 Falk-Schema
Zur Berechnung, etwa von C23 , geht man nun simultan die 2. Zeile von A und die 3. Spalte von
B durch, multipliziert in jedem Schritt die entsprechenden Einträge und addiert schließlich die
Produkte auf:
(A · B)23 = C23 = A21 · B13 + A22 · B23 + A23 · B33 .
Ganz allgemein ist der Eintrag der i-ten Zeile und der j-ten Spalte des Produkts gegeben durch:
n
(A · B)i j := Ai1 · B1 j + Ai2 · B2 j + . . . + Ain · Bn j = Ail · Bl j . (2.3)
l=1
50 2. Matrixrechnung
1 5
1 · 1 + 5 · 0 1·1+5·1 1 · 2 + 5 · 3
1 6 17
2
6 1 1 2 2 · 1 + 6 · 0
2·1+6·1 2 · 2 + 6 · 3 2 8 22
· = = .
3
7 0 1 3 3 · 1 + 7 · 0
3·1+7·1 3 · 2 + 7 · 3 3 10 27
4 8 4 · 1 + 8 · 0 4·1+8·1 4 · 2 + 8 · 3 4 12 32
Das Multiplizieren von Matrizen muss man beherrschen ohne groß darüber
nachzudenken. Es wird empfohlen, es hier zu üben bis es sitzt:
http://ueben.cbaer.eu/08.html
Bemerkung 2.11. Fassen wir die drei Rechenoperationen noch einmal in Gestalt von Abbil-
dungen zusammen und halten fest, auf welchen Mengen diese arbeiten:
A+ B = B + A.
(A + B) + C = A + (B + C) .
λ · (A + B) = λ · A + λ · B .
(λ + μ) · A = λ · A + μ · A .
(v) Für alle λ, μ ∈ R, für alle A ∈ Mat(m × n, R) und für alle B ∈ Mat(n × k, R) gilt:
(λ · μ) · (A · B) = (λ · A) · (μ · B) .
2.1. Lineare Gleichungssysteme 51
(vi) Für alle A ∈ Mat(m × n, R), für alle B ∈ Mat(n × k, R) und für alle C ∈ Mat(k × l, R)
gilt:
(A · B) · C = A · (B · C) .
(A + B) · C = A · C + B · C .
A · (B + C) = A · B + A · C .
Hier wurde die übliche Konvention „Punkt vor Strich“ verwendet, d.h. A · C + B · C ist als
(A · C) + (B · C) zu verstehen.
Beweis. Wir zeigen alle Teile außer den Aussagen (iv), (v) und (viii). Diese verbleiben als
Übungsaufgabe 2.3.
Zu (i):
Seien A, B ∈ Mat(m × n, R). Dann gilt für alle i ∈ {1, . . ., m} und j ∈ {1, . . ., n} :
(A + B)i j = Ai j + Bi j = Bi j + Ai j = (B + A)i j .
Also gilt A + B = B + A.
Zu (ii):
Seien A, B, C ∈ Mat(m × n, R). Dann gilt für jedes i ∈ {1, . . . , m} und jedes j ∈ {1, . . ., n}:
Zu (iii):
Seien λ ∈ R und A, B ∈ Mat(m × n, R). Dann gilt für jedes i ∈ {1, . . . , m} und jedes j ∈
{1, . . ., n}:
(λ · (A + B))i j = λ · (A + B)i j
= λ · (Ai j + Bi j )
= λ · Ai j + λ · Bi j
52 2. Matrixrechnung
= (λ · A)i j + (λ · B)i j
= (λ · A + λ · B)i j .
Es folgt λ · (A + B) = λ · A + λ · B.
Zu (vi):
Sei A ∈ Mat(m × n, R), sei B ∈ Mat(n × k, R) und sei C ∈ Mat(k × l, R). Dann gilt für alle
i ∈ {1, . . . , m} und j ∈ {1, . . . , l} :
k
((A · B) · C)i j = (A · B)is · Cs j
s=1
k
n
= Air · Brs · Cs j
s=1 r=1
k n
= Air · Brs · Cs j
s=1 r=1
n
k
= Air · Brs · Cs j
r=1 s=1
n
k
= Air · Brs · Cs j
r=1 s=1
n
= Air · (B · C)r j
r=1
= (A · (B · C))i j .
Es folgt (A · B) · C = A · (B · C).
Zu (vii):
Seien A, B ∈ Mat(m × n, R) und sei C ∈ Mat(n × k, R). Dann gilt für alle i ∈ {1, . . . , m} und
jedes j ∈ {1, . . . , k} :
n
((A + B) · C)i j = (A + B)il · Cl j
l=1
n
= (Ail + Bil ) · Cl j
l=1
n
= (Ail · Cl j + Bil · Cl j )
l=1
n
n
= Ail · Cl j + Bil · Cl j
l=1 l=1
= (A · C)i j + (B · C)i j
= (A · C + B · C)i j .
2.1. Lineare Gleichungssysteme 53
Dies zeigt (A + B) · C = A · C + B · C.
Bemerkung 2.13. Diese Rechenregeln versetzen uns in die Lage, mit Matrizen fast so wie mit
reellen Zahlen zu rechnen. Allerdings müssen wir beachten, dass für die Matrix-Multiplikation
A · B = B · A im Allgemeinen nicht gilt. Sei etwa A ∈ Mat(m × n, R) und B ∈ Mat(n × m, R).
Wie wir wissen, ist dann A · B ∈ Mat(m × m, R) und B · A ∈ Mat(n × n, R). Ist nun m n,
so besitzen die beiden Produkte offenbar verschiedene Abmaße und insbesondere gilt somit
A · B B · A. Falls m = n, so kann sowohl
Fall A · B
der = B· A als auch der Fall A · B B · A
1 0 1 3
eintreten. Etwa für die Matrizen A = und B = erhalten wir einerseits:
0 1 2 4
1 3
A·B = = B · A.
2 4
1 0 1 3
Mit A = und B = ergibt sich jedoch:
1 1 2 4
1 3 4 3
A·B = = B · A.
3 7 6 4
Die Reihenfolge der Faktoren ist bei der Multiplikation daher wesentlich.
Warum haben wir die Matrix-Multiplikation eigentlich so definiert, wie wir es getan haben,
und nicht etwa komponentenweise so wie bei der Addition? Dies versteht man, wenn man die
Beziehung zwischen LGS und Matrizen kennt. Sei hierfür A ∈ Mat(m × n, R) sowie speziell
x ∈ Mat(n × 1, R) = Rn . Es gilt:
A11 · · · A1n
x1
A11 · x1 + A12 · x2 + . . . + A1n · xn
. .. .. .. ..
A · x = .. . . · . = . .
Am1 · · · Amn xn Am1 · x1 + Am2 · x2 + . . . + Amn · xn
Das LGS
⎧
⎪ A · x + . . . + A1n · xn = b1
⎪
⎨ 11 1
⎪ ..
⎪ . (2.4)
⎪
⎪ A · x +...+ A · x = b
⎩ m1 1 mn n m
A11 · · · A1n
x1
. .. .. .
wobei A = .. . . die Koeffizientenmatrix des LGS (2.4) ist und x = .. sowie
Am1 · · · Amn xn
54 2. Matrixrechnung
b1
.
b = .. .
bm
Das funktioniert nur für unsere etwas kompliziertere Definition der Matrix-Multiplikation. Die
Rechenregeln für Matrizen erleichtern uns den Umgang mit LGS erheblich, wie sich bereits im
Beweis des nächsten Satzes zeigen wird. Zunächst jedoch führen wir noch einen Bezeichner
für die Menge aller Lösungen eines LGS ein.
Lös(A, b) := {x ∈ Rn | A · x = b}
0 · · · 0
. ..
0 := .. . ∈ Mat(m × n, R).
0 · · · 0
0
.
Speziell haben wir Nullspaltenvektoren 0 = .. und Nullzeilenvektoren 0 = (0, . . ., 0).
0
Diese Notation ist etwas ungenau, da die Abmessungen der Matrix, d.h. die Zahl der Spalten
und Zeilen, nicht mit aufgeführt werden. Sie werden jedoch stets aus dem Kontext klar sein.
0
.
Untersuchen wir zunächst homogene LGS, also den Spezialfall b = 0 = .. .
0
Satz 2.17. Die Lösungsmenge des homogenen LGS A · x = 0 hat folgende Eigenschaften:
Beweis. Zu (i):
Sicherlich gilt A · 0 = 0 und daher ist 0 ∈ Lös(A, 0).
Zu (ii):
Seien x, y ∈ Lös(A, 0), d.h. es gilt A · x = 0 und A · y = 0. Mit Satz 2.12 (vi) erhalten wir dann:
A · (x + y) = A · x + A · y = 0 + 0 = 0.
Zu (iii):
Sei schließlich x ∈ Lös(A, 0) und λ ∈ R. Nun nutzen wir die dritte Aussage von Satz 2.12 und
bekommen:
A · (λ · x) = λ · (A · x) = λ · 0 = 0.
Diese Eigenschaften der Lösungsmengen homogener LGS sind so wichtig, dass sie zu folgender
Definition führen.
1. Es ist 0 ∈ V.
Beispiele 2.19. 1. Der kleinste Untervektorraum von Rn ist der Nullvektorraum V = {0}.
2. Ist hingegen v ∈ Rn mit v 0, dann ist V = {v} kein Untervektorraum. Tatsächlich sind
sogar alle drei Bedingungen aus der Definition verletzt.
4. Sei v ∈ Rn . Dann bildet die Menge aller Vielfachen von v einen Untervektorraum V =
{t · v | t ∈ R}.
und nennen sie die lineare Hülle von v1, . . ., vk . Wir erlauben auch einen leeren Satz von
Vektoren und setzen
L() := {0}.
Bemerkung 2.21. Die lineare Hülle von Vektoren im Rn bildet stets einen Untervektorraum
des Rn . Seien dazu k Vektoren v1, . . . , vk ∈ Rn gegeben. Überlegen wir kurz, dass für V =
L(v1 . . ., vk ) die drei Bedingungen aus Definition 2.18 erfüllt sind. Es ist 0 ∈ V, da wir hierzu
nur t1 = · · · = t k = 0 setzen müssen.
Seien x, y ∈ V. Dann gibt es nach Definition von V zum einen Zahlen t1, . . ., t k mit x =
t1 · v1 + · · · + t k · vk und zum anderen Zahlen, nennen wir sie zur Unterscheidung s1, . . ., s k ∈ R
mit y = s1 · v1 + · · · + s k · vk . Dann ist x + y = (t1 + s1 ) · v1 + · · · + (t k + s k ) · vk , also auch
x + y ∈ V. Damit ist die zweite Bedingung verifiziert.
Ist schließlich x ∈ V , also von der Form x = t1 · v1 + · · · + t k · vk für gewisse Koeffizienten
t1, . . . , t k ∈ R, und ist λ ∈ R, so ist λ · x = (λ · t1 ) · v1 + · · · + (λ · t k ) · vk , also auch λ · x ∈ V.
Dies zeigt die dritte Bedingung.
Bemerkung 2.22. Stets sind v1, . . ., vk wieder Elemente ihrer linearen Hülle, d.h. es gilt
v1, . . ., vk ∈ L(v1, . . ., vk ). Um dies einzusehen, schreiben wir einfach
v1 = 1 · v1 + 0 · v2 + . . . + 0 · vk ∈ L(v1, . . ., vk )
und analog für die Vektoren v2, . . ., vk . Des Weiteren gilt allgemein:
L(v1, . . . , vk ) ⊂ L(v1, . . . , vk , vk+1, . . ., vm ) .
Denn:
t1 · v1 + . . . + t k · vk = t1 · v1 + . . . + t k · vk + 0 · vk+1 + . . . + 0 · vm .
Bemerkung 2.23. Der Nullvektor ist stets in der Lösungsmenge eines homogenen LGS ent-
halten. Hat das homogene LGS mehr Unbekannte als Gleichungen, so besitzt es auch Lösungen
0 (und damit unendlich viele Lösungen, da alle Vielfachen einer Lösung wieder Lösungen
sind). Warum gibt es dann eine Lösung 0?
Dies zeigen wir durch vollständige Induktion nach der Anzahl m der Gleichungen.
Induktionsanfang: Haben wir nur eine Gleichung
A11 · x1 + A12 · x2 + . . . + A1n · xn = 0,
2.1. Lineare Gleichungssysteme 57
aber n ≥ 2 Unbekannte, so ist z.B. x := (−A12, A11, 0, . . ., 0) eine Lösung. Ist A11 0, dann
ist x 0 wie gewünscht. Ist dagegen A11 = 0, dann ist x := (1, 0, . . . , 0) eine Lösung 0.
Induktionsschritt: Seien nun m ≥ 2 viele Gleichungen mit n > m vielen Unbekannten gegeben.
Sind alle Koeffizienten Ain von xn gleich 0, dann ist x := (0, . . ., 0, 1) eine Lösung 0. Ist
dagegen wenigstens einer dieser Koeffizienten Ain 0, dann können wir die i-te Gleichung
nach xn auflösen:
1
xn = − (Ai1 x1 + . . . + Ai,n−1 xn−1 ).
Ain
Setzen wir das in die übrigen Gleichungen ein, so erhalten wir ein homogenes LGS mit m − 1
Gleichungen und n − 1 Unbekannten. Da n − 1 > m − 1 ist, besitzt dieses kleinere LGS nach
Induktionsvoraussetzung eine Lösung (x1, . . ., xn−1 ) 0. Dann ist (x1, . . ., xn−1, − A1in (Ai1 x1 +
. . . + Ai,n−1 xn−1 )) 0 eine Lösung des ursprünglichen LGS.
Bemerkung 2.24. Für jede Matrix A gilt A · 0 = 0. Ist also 0 in der Lösungsmenge eines
linearen Gleichungssystems enthalten, so muss das LGS homogen sein. In anderen Worten,
die Lösungsmenge eines inhomogenen LGS ist niemals ein Untervektorraum.
Wohl aber lassen sich Lösungmengen inhomogener Systeme auf Lösungsmengen homogener
Systeme zurückführen.
Satz 2.25. Sei A ∈ Mat(m × n, R) und sei b ∈ Rn . Weiterhin sei Lös(A, b) ∅ und y ∈
Lös(A, b). Dann gilt:
Lös(A, b) = {x + y | x ∈ Lös(A, 0)} .
Beweis. Um die behauptete Gleichheit beider Mengen zu zeigen, beweisen wir Lös(A, b) ⊃
{x + y | x ∈ Lös(A, 0)} sowie Lös(A, b) ⊂ {x + y | x ∈ Lös(A, 0)}. Der Beweis wird übrigens
durch die Verwendung der sehr effizienten Matrixnotation und der entsprechenden Rechen-
regeln sehr übersichtlich und ziemlich einfach.
Zu „⊃“:
Sei x ∈ Lös(A, 0) und y ∈ Lös(A, b). Wir überprüfen, dass x + y das inhomogene System löst.
Es gilt
A · (x + y) = A · x + A · y = 0 + b = b
und somit x + y ∈ Lös(A, b).
Zu „⊂“:
Sei nun z ∈ Lös(A, b). Wir setzen x := z − y, denn dann gilt z = x + y. Nun ist zu zeigen, dass
tatsächlich x ∈ Lös(A, 0) gilt. Betrachte dazu:
A·x = A · (z − y)
= A · (z + (−1) · y)
= A · z + A · (−1) · y
= A · z + (−1) · A · y
58 2. Matrixrechnung
= b + (−1) · b
= 0.
Das heißt nun aber gerade x ∈ Lös(A, 0) und somit gilt z ∈ {x + y | x ∈ Lös(A, 0)}.
Die Lösungsmenge eines inhomogenen LGS kann man also dadurch bestimmen, dass man
eine Lösung y findet (sofern überhaupt eine existiert), dann das zugehörige homogene LGS
löst, das dadurch entsteht, dass man die „rechte Seite“ b durch 0 ersetzt, und dann zu allen
Lösungen des homogenen Systems y addiert.
Führen wir dies in folgendem sehr einfachen Beispiel mit nur einer Gleichung und zwei
Unbekannten einmal durch:
L(v1 )
v1 x3
x2
Abb. 25 Lineare Hülle von v1
Beispiel 2.28. Die lineare Hülle von v2 und v3 ist gegeben durch
⎧
⎪ ⎫
⎪ ⎧
⎪ ⎫
⎪
⎪ 0
⎨
⎪
0 ⎪
⎬
⎪ ⎪
⎨
⎪
0 ⎪
⎬
⎪
L(v2, v3 ) = {s · v2 + t · v3 | s, t ∈ R} = s + 0
s, t ∈ R = s s, t ∈ R .
⎪ ⎪ ⎪ ⎪
⎪
⎪
⎪ 0 ⎪ ⎪
⎪ ⎪ ⎪
⎩ t ⎭ ⎩ t ⎭
Geometrisch ist dies die x2 -x3 -Ebene:
x1
x3
L(v2, v3 )
v3
v2
x2
Beispiel 2.29. Nimmt man nun zu v2 und v3 noch den Vektor v4 hinzu, so erhält man
L(v2, v3, v4 ) = {λ · v2 + μ · v3 + η · v4 | λ, μ, η ∈ R}
⎧
⎪ 0 0 ⎫
⎪
⎪
⎨
⎪
0 ⎪
⎬
⎪
= λ + 0 + η λ, μ, η ∈ R
⎪
⎪ ⎪
⎪
⎪ 0 ⎪
⎩ μ η ⎭
60 2. Matrixrechnung
⎧
⎪ ⎫
⎪
⎪
⎨
⎪
0
⎪
⎬
⎪
= λ + η λ, μ, η ∈ R
⎪
⎪ ⎪
⎪
⎪ μ+η ⎪
⎩ ⎭
= L(v2, v3 ).
Die Hinzunahme von v4 hat die lineare Hülle nicht verändert. Dies liegt daran, dass v4 bereits
in der linearen Hülle von v2 und v3 liegt. Die Darstellung der x2 -x3 -Ebene als L(v2, v3, v4 ) ist
offenbar weniger effizient als die durch L(v2, v3 ).
x1
x3
L(v2, v3, v4 )
v3
v4 = v2 + v3
v2
x2
Beispiel 2.30. Bilden wir dagegen die lineare Hülle von v1, v2 und v3 , so erhalten wir
L(v1, v2, v3 ) = R3 .
Im Beispiel 2.29 erhielten wir für die lineare Hülle dreier Vektoren (nur) eine Ebene. Für einen
leicht abgeänderten Satz von Vektoren, wie im Beispiel 2.30, bekamen wir dagegen ganz R3 .
Unser nächstes Ziel ist es, die Systematik hinter diesem Phänomen zu verstehen. Der Schlüssel
hierfür ist folgendes Lemma:
Für Aussage (1) sagt man auch, dass sich 0 nichttrivial aus den Vektoren v1, . . ., vm linear-
kombinieren lässt. Aussage (2) besagt, dass einer der Vektoren bereits in der linearen Hülle
der anderen enthalten ist. Aussage (3) besagt, dass die Hinzunahme dieses Vektors die lineare
Hülle nicht vergrößert.
2.2. Lineare Unabhängigkeit und Basen 61
Beweis. Für die behauptete Äquivalenz der drei Aussagen genügt der Nachweis folgender
Implikationen: (1) ⇒ (2) und (2) ⇒ (3) sowie (3) ⇒ (1).
Zu „(1) ⇒ (2)“:
Seien λ1, . . ., λm ∈ R und davon wenigstens ein λl 0, so dass λ1 v1 + . . . + λm vm = 0. Indem
wir den l-ten Summanden auf die andere Seite bringen, erhalten wir:
−λl vl = λ1 v1 + . . . + λl−1 vl−1 + λl+1 vl+1 + . . . + λm vm .
Da λl 0 ist, dürfen wir durch −λl teilen und erhalten:
λ1 λl−1 λl+1 λm
vl = v1 + . . . + vl−1 + vl+1 + . . . + vm ∈ L(v1, . . ., vl−1, vl+1, . . ., vm ).
−λl −λl −λl −λl
Zu „(2) ⇒ (3)“:
Sei vl ∈ L(v1, . . . , vl−1, vl+1, . . ., vm ). Wir zeigen L(v1, . . . , vl−1, vl+1, . . ., vm ) = L(v1, . . ., vm ).
Nach Bemerkung 2.22 ist „⊂“ bereits klar. Wir zeigen noch L(v1, . . ., vl−1, vl+1, . . ., vm ) ⊃
L(v1, . . ., vm ).
Sei hierfür x ∈ L(v1, . . ., vm ). Dann existieren λ1, . . ., λm ∈ R, so dass
x = λ1 v1 + . . . + λm vm .
Da nach Voraussetzung vl ∈ L(v1, . . . , vl−1, vl+1, . . ., vm ) ist, können wir für geeignete Koeffi-
zienten μk ∈ R
vl = μ1 v1 + . . . + μl−1 vl−1 + μl+1 vl+1 + . . . + μm vm
schreiben. Diesen Ausdruck setzen wir in die Darstellung für x ein und sortieren geeignet:
x =λ1 v1 + . . . + λl−1 vl−1 + λl vl + λl+1 vl+1 + . . . + λm vm
=λ1 v1 + . . . + λl−1 vl−1 + λl (μ1 v1 + . . . + μl−1 vl−1 + μl+1 vl+1 + . . . + μm vm )
+ λl+1 vl+1 + . . . + λm vm
=(λ1 + λl μ1 )v1 + . . . + (λl−1 + λl μl−1 )vl−1
+ (λl+1 + λl μl+1 )vl+1 + . . . + (λm + λl μm )vm
∈L(v1, . . ., vl−1, vl+1, . . . , vm ).
Es folgt L(v1, . . . , vm ) ⊂ L(v1, . . ., vl−1, vl+1, . . ., vm ).
Zu „(3) ⇒ (1)“:
Sei L(v1, . . ., vl−1, vl+1, . . ., vm ) = L(v1, . . . , vm ). Wegen vl ∈ L(v1, . . . , vm ) =
L(v1, . . ., vl−1, vl+1, . . ., vm ) gibt es Zahlen μk ∈ R, k ∈ {1, . . ., l − 1, l + 1, . . . , m}, so dass
vl = μ1 v1 + . . . + μl−1 vl−1 + μl+1 vl+1 + . . . + μm vm .
Dann ist
μ1 v1 + . . . + μl−1 vl−1 + (−1)vl + μl+1 vl+1 + . . . + μm vm = 0
eine nichttriviale Linearkombination von 0 durch die Vektoren v1, . . ., vm .
62 2. Matrixrechnung
Definition 2.32. Gilt eine (und damit alle) der Aussagen aus dem Lemma, dann heißt der
Satz von Vektoren v1, . . ., vm linear abhängig, ansonsten linear unabhängig.
Möchte man einen Untervektorraum (z.B. die Lösungsmenge eines LGS) als lineare Hülle
L(v1, . . ., vm ) möglichst übersichtlich angeben, wird man keine „überflüssigen“ Vektoren ver-
wenden wollen. In anderen Worten, man wird die Vektoren v1, . . . , vm linear unabhängig haben
wollen.
Wie weist man nun nach, dass gegebene Vektoren v1, . . . , vm linear unabhängig sind? Verwendet
man das erste Kriterium aus Lemma 2.31, dann muss man für alle λ k ∈ R die Gültigkeit
folgender Implikation nachprüfen:
λ1 v1 + . . . + λm vm = 0 ⇒ λ1 = . . . = λm = 0.
Der Nullvektor darf sich also nur auf triviale Art aus den Vektoren linear kombinieren lassen.
Sehen wir uns einige Beispiele an.
Beispiel 2.33. In welchem Fall ist ein einziger Vektor v ∈ Rn linear (un-)abhängig?
1. Fall: Sei v = 0.
Dann ist λ · v = 0 für alle λ ∈ R, nicht nur für λ = 0. Also ist der Nullvektor v = 0 linear
abhängig.
2. Fall: Sei v 0.
Dann muss mindestens ein Eintrag in diesem Vektor 0 sein. Multiplizieren wir v mit
λ ∈ R \ {0}, dann ist der entsprechende Eintrag von λ · v ebenfalls 0 und damit ist λ · v 0.
Der Nullvektor lässt sich mithin nur auf triviale Weise aus v linear kombinieren, 0 · v = 0.
Somit ist jeder Vektor v ∈ Rn \ {0} linear unabhängig.
Wir fassen zusammen: Ein einzelner Vektor ist linear unabhängig genau dann, wenn er nicht
der Nullvektor ist.
Beispiel 2.34. Wann sind zwei Vektoren v1, v2 ∈ Rn linear abhängig? Laut Definition gilt unter
anderem:
Zwei Vektoren sind also genau dann linear abhängig, wenn einer sich als Vielfaches des anderen
schreiben lässt.
Ist v1 Vielfaches von v2 , d.h. v1 = t · v2 , dann ist meistens auch v2 Vielfaches von v1 , denn
v2 = 1t · v1 . Das funktioniert nur dann nicht, wenn t = 0. Dann ist v1 der Nullvektor und v2
irgendein Vektor. Diese beiden Vektoren sind linear abhängig, v1 ist Vielfaches von v2 , aber v2
ist nicht Vielfaches von v1 (es sei denn, v2 ist ebenfalls der Nullvektor).
2.2. Lineare Unabhängigkeit und Basen 63
2. L(v1, . . ., vm ) = V.
Eine Basis von V ist somit ein minimaler Satz von Vektoren, deren lineare Hülle gerade V
ergibt.
Bemerkung 2.36. Sei B = {v1, . . ., vm } eine Basis von V wie in Definition 2.35. Die zweite
Bedingung besagt, dass sich jedes Element v von V als Linearkombination von v1, . . ., vm
schreiben lässt,
m
v= tj · vj .
j=1
Die erste Bedingung sagt nun, dass diese Darstellung von v als Linearkombination von
v1, . . ., vm eindeutig ist. Gilt nämlich v = mj=1 t j · v j und v = mj=1 s j · v j , dann können
wir die beiden Gleichungen von einander subtrahieren und erhalten 0 = mj=1 (t j − s j ) · v j . Die
lineare Unabhängigkeit liefert nun für alle j ∈ {1, . . . , m}, dass t j − s j = 0, d.h. t j = s j .
Vektoren v1, . . . , vm ∈ V bilden also eine Basis von V genau dann, wenn sich jedes Element
von V auf eindeutige Weise als Linearkombination dieser Vektoren schreiben lässt.
Wir verwenden die Konvention, dass auch die leere Menge eine Basis ist und zwar eine Basis
des Nullvektorraums V = {0}. Man beachte, dass {0} keine Basis ist, da der Nullvektor linear
abhängig ist.
⎧
⎪ t ⎫
⎪ ⎧
⎪ 1 ⎫
⎪
⎪
⎨
⎪ ⎪
⎬
⎪ ⎨
⎪
⎪
⎪ ⎬
⎪
Beispiel 2.37. Für V = 0 t ∈ R ⊂ R ist z.B. B1 = 0 eine Basis, ebenso
3
⎪ ⎪
⎪ ⎪ ⎪
⎪
⎪ 0 ⎪ ⎪ 0 ⎪
⎪ ⎪
⎩ ⎭ ⎩ ⎭
⎧
⎪
⎪ 2 ⎫⎪
⎪
⎨
⎪
⎪ ⎬
B2 = 0 . Überhaupt liefert jede reelle Zahl ungleich 0 in der ersten Komponente eine
⎪ ⎪
⎪ 0 ⎪
⎪ ⎪
⎩ ⎭
Basis von V.
⎧
⎪ ⎫
⎪
⎪ 0
⎨
⎪ ⎪
⎬
⎪
Beispiel 2.38. Der Untervektorraum V = λ1 λ ,
1 2 λ ∈ R ⊂ R3 , d.h. die x2 -x3 -Ebene,
⎪
⎪ ⎪
⎪
⎪ λ2 ⎪
⎩ ⎭
64 2. Matrixrechnung
⎧
⎪ 0 0 ⎫ ⎪ ⎧
⎪ 0 ⎫⎪
⎨
⎪
⎪
⎪ ⎬
⎪ ⎨
⎪
⎪
⎪ ⎬
⎪
besitzt zum Beispiel die Basis X = 1 , 0 . Hingegen ist die Menge Y = 1 keine
⎪ ⎪ ⎪ ⎪
⎪ 0 1 ⎪
⎪ ⎪ ⎪ 1 ⎪
⎪ ⎪
⎩ ⎭ ⎩ ⎭
Basis von V, da die zweite definierende Eigenschaft einer Basis nicht erfüllt ist. Genauer gesagt
gilt einerseits
⎧
⎪ 0 ⎫
⎪
⎪
0
⎨
⎪ ⎪
⎬
⎪
L 1 = λ · 1 λ ∈ R ⊂ V,
⎪
⎪ ⎪
⎪
⎪ ⎪
1 ⎩ 1 ⎭
andererseits ist aber z.B.
0 0
1 ∈ V \ L 1 .
2
1
⎪
. ⎪
⎪
⎪
⎪ . ⎪
⎪
⎪ 0
⎨
⎪ 1 . ⎪
⎬
⎪
B = 0 , 0 , . . ., 0 .
⎪ . .
⎪ ⎪ ⎪
⎪ .. .. 0 ⎪
⎪
⎪
⎪ ⎪ ⎪
⎪
⎪ ⎪
⎪
⎪ 0 0 1 ⎪ ⎪
⎩ ⎭
Auch ihre Elemente bezeichnen wir künftig abkürzend mit e1, e2, . . ., en .
Das folgende Lemma sagt, dass ein Satz linear unabhängiger Vektoren nicht zu lang sein kann.
Lemma 2.42. Seien w1, . . ., wk ∈ Rn und v1, . . . , vm ∈ L(w1, . . . , wk ). Sind v1, . . . , vm linear
unabhängig, dann gilt
m ≤ k.
2.2. Lineare Unabhängigkeit und Basen 65
Beweis. a) Wir machen zunächst eine Vorüberlegung. Sind die w1, . . ., wk linear abhängig,
so können wir nach Lemma 2.31 ein Element entfernen, ohne die lineare Hülle zu ändern.
Dies wiederholen wir so oft wie möglich, d.h. wir entfernen nach und nach Elemente aus
{w1, . . . , wk } so lange das möglich ist, ohne die lineare Hülle zu ändern. Im letzten Schritt
erhalten wir eine linear unabhängige Teilmenge mit derselben linearen Hülle wie {w1, . . ., wk }.
Ist k die Anzahl der Elemente dieser Teilmenge, so gilt sicherlich k ≤ k. Wenn wir die Aussage
des Lemmas für diese linear unabhängige Menge von Vektoren zeigen können, haben wir sie
auch für die ursprüngliche Menge, denn dann gilt ja
m ≤ k ≤ k.
Aus diesem Grund reicht es, die Aussage nur für den Fall zu beweisen, dass auch die w1, . . . , wk
linear unabhängig sind. Man sagt dann, wir können ohne Beschränkung der Allgemeinheit
annehmen, dass die w1, . . ., wk linear unabhängig sind, was wir für den Rest des Beweises tun.
b) Jedes v j lässt sich als Linearkombination der w1, . . ., wk ausdrücken. Es gibt also Zahlen
α jl ∈ R, so dass für alle j = 1, . . . , m gilt:
k
vj = α jl wl . (2.5)
l=1
Wir untersuchen nun, für welche Zahlen t1, . . ., tm ∈ R die Gleichung
m
tjvj = 0 (2.6)
j=1
gilt. Wir setzen (2.5) in (2.6) ein und sehen, dass (2.6) äquivalent ist zu
k
m k
m
0= tj α jl wl = t j α jl wl . (2.7)
j=1 l=1 l=1 j=1
Da w1, . . . , wk linear unabhängig sind, ist (2.7) äquivalent dazu, dass
m
∀l = 1, . . ., k : t j α jl = 0. (2.8)
j=1
Somit gilt (2.5) genau dann, wenn die t j das homogene LGS (2.8) mit k Gleichungen lösen.
Wäre nun m > k, dann hätten wir mehr Unbekannte als Gleichungen, also gäbe es gemäß
Bemerkung 2.23 eine Lösung (t1, . . . , tm ) 0 von (2.6). Dies hieße aber, dass die v1, . . ., vm
linear abhängig sind, Widerspruch.
1
kein Vielfaches von v1 , also v2 ∈ V \ L(v1 ). Es ist:
⎧
⎪ −2 ⎫
⎪ ⎧
⎪ t − 2s ⎫
⎪
⎪
⎨
⎪
1
⎬ ⎪
⎪
⎪ ⎨
⎪
⎪
⎬
⎪
L(v1, v2 ) = t · −2 + s · 1 t, s ∈ R = −2t + s t, s ∈ R .
⎪ ⎪ ⎪ ⎪
⎪
⎪
⎪ 1 1 ⎪ ⎪
⎪ ⎪ t+s ⎪
⎩ ⎭ ⎩ ⎭
Sei nun x = (x1, x2, x3 ) ∈ V, d.h. x1 +x2 +x3 = 0. Setzt man t := 13 (x3 −x2 ) und s := 13 (x2 +2x3 )
so stellt man fest, dass
x t − 2s
1
x2 = −2t + s .
x
3 t + s
2.2. Lineare Unabhängigkeit und Basen 67
Also ist x ∈ L(v1, v2 ). Dies zeigt, dass V ⊂ L(v1, v2 ). Da die umgekehrte Inklusion sowieso
⎧
⎪ −2 ⎫⎪
⎨
⎪
⎪ 1
⎪ ⎬
⎪
gilt, haben wir V = L(v1, v2 ). Somit ist {v1, v2 } = −2 , 1 eine Basis von V .
⎪
⎪ ⎪
⎪
⎪ 1 ⎪
⎩ 1 ⎭
Basen gibt es also immer. Ein Untervektorraum des Rn hat allerdings im Allgemeinen sehr
viele verschiedene Basen. Immerhin gilt:
Satz 2.46. Sei V ⊂ Rn ein Untervektorraum. Sind B und B Basen von V, so haben sie gleich
viele Elemente
#B = #B .
Beweis. Setze m := #B und k := #B. Wenden wir Lemma 2.42 an, wobei die Elemente von
B die Rolle der v j und die von B die der wl spielen, so erhalten wir
m ≤ k.
Indem wir die Rollen von B und B vertauschen, so erhalten wir auch k ≤ m und damit
insgesamt m = k.
Definition 2.47. Sei V ⊂ Rn ein Untervektorraum und B eine Basis von V. Dann heißt die
Zahl dim(V ) := #B die Dimension von V.
Diese Definition ist nur auf Grund von Satz 2.46 sinnvoll. Überlegen wir auch hierzu einige
Beispiele.
Beispiel 2.48. Für V = Rn hat die Standardbasis B = {e1, . . ., en } die Länge n. Damit besitzen
alle Basen von V die Länge n und es gilt:
dim(Rn ) = #B = n.
Beispiel 2.49. Für den Nullvektorraum V = {0} haben wir ∅ als Basis festgelegt. Somit ist:
dim({0}) = #∅ = 0.
68 2. Matrixrechnung
Beispiel 2.50. Im Beispiel (2.44) ermittelten wir für V = x ∈ R3 | x1 + x2 + x3 = 0 eine
Basis der Länge 2. Folglich gilt auch:
dim(V ) = 2.
V = {x ∈ Rn | xm+1 = xm+2 = . . . = xn = 0}
1 0
.
.
. .
. .
0
, . . ., 1 ← m-te Komponente
0 0 ← (m + 1)-te Komponente
. .
.. ..
0 0
eine Basis von V. Daher gilt:
dim(V ) = m.
die räumlichen geometrischen Interpretationen der x1 -x2 -Ebene (im Fall von V ) bzw. der
x1 -Achse (im Fall von U). So überrascht es nicht, dass ihre Dimensionen durch
gegeben sind.
Ein Satz linear unabhängiger Vektoren in einem Untervektorraum lässt sich stets zu einer Basis
ergänzen.
2.3. Der Gauß-Algorithmus 69
Beweis. Wir können den Algorithmus zum Auffinden einer Basis von V mit v1, . . . , vm begin-
nen:
Ist L(v1, . . ., vm ) = V, so ist {v1, . . ., vm } eine Basis von V und wir sind fertig.
Ist L(v1, . . . , vm ) V, so wähle vm+1 ∈ V \ L(v1, . . ., vm ). Dann sind v1, . . . , vm+1 linear
unabhängig und es gilt L(v1, . . ., vm+1 ) ⊂ V. Ist L(v1, . . ., vm+1 ) = V, so ist {v1, . . . , vm+1 } eine
Basis von V und wir sind fertig.
Falls nicht, wähle vm+2 ∈ V \ L(v1, . . ., vm+1 ) usw. wie im Algorithmus.
Wegen Korollar 2.43 endet der Algorithmus spätestens, wenn wir n Vektoren v1, . . ., vn erhalten
haben.
Das folgende Korollar besagt, dass größere Räume auch die höhere Dimension haben.
Beweis. Beide Aussagen folgen daraus, dass wir eine Basis von U zu einer Basis von V
ergänzen können.
Beispiel 2.55. Für U = x ∈ R3 | x1 = 0 und V = x ∈ R3 | x2 = 0 gilt zwar dim(U) =
dim(V ) = 2, jedoch ist U V, da weder U ⊂ V noch V ⊂ U zutrifft.
Nachdem wir nun Untervektorräume besser verstehen, erinnern wir uns an den Ausgangspunkt:
Untervektorräume interessieren uns als Lösungsmengen linearer Gleichungssysteme. Im fol-
genden Abschnitt konzentrieren wir uns darauf, LGS in eine optimale Form zu transformieren.
direkt ablesen kann. Die folgenden drei Manipulationen an einem LGS ändern die Lösungs-
menge nicht:
◦ Multiplikation einer Gleichung mit λ ∈ R \ {0} :
Ai1 x1 + . . . + Ain xn = bi
λ0
⇔ λ(Ai1 x1 + . . . + Ain xn ) = λbi
⇔ (λAi1 )x1 + . . . + (λAin )xn = λbi
A11 · · · A1n b1
. .. .. ..
(A, b) := .. . . .
Am1 · · · Amn bm
Definition 2.56. Folgende Transformationen einer Matrix bezeichnet man als elementare
Zeilenumformungen:
Bemerkung 2.57. Die Lösungsmenge eines LGS bleibt bei Anwendung elementarer Zeile-
numformungen auf die erweiterte Koeffizientenmatrix unverändert.
Achtung: Spaltenumformungen (z.B. die Vertauschung zweier Spalten) dagegen ändern die
Lösungsmenge im Allgemeinen und sind daher nicht zulässig!
Das Wichtige ist nun, dass man elementare Zeilenumformungen nutzen kann, um die Koef-
fizientenmatrix eines LGS in eine Form zu bringen, bei der man die Lösungsmenge leichter
bestimmen kann. Dabei handelt es sich um die so genannte (spezielle) Zeilenstufenform.
Definition 2.58. Eine Matrix A ∈ Mat(m × n, R) hat genau dann Zeilenstufenform, wenn
für alle i ∈ {2, . . . , m} und alle k ∈ {2, . . ., n} gilt:
Sind die ersten (k − 1) Einträge der (i − 1)-ten Zeile = 0, so sind auch die ersten k Einträge
der i-ten Zeile = 0.
Ferner hat A spezielle Zeilenstufenform, falls zusätzlich für alle i ∈ {1, . . ., m} gilt: Sind
Ai1 = Ai2 = . . . = Ai j = 0, und ist Ai j+1 0, so ist Ai j+1 = 1.
In anderen Worten: Eine Matrix ist in Zeilenstufenform, wenn jede Zeile mindestens eine
führende 0 mehr hat als die darüberliegende (es sei denn die darüberliegende Zeile hat nur
Nullen, dann hat auch die nächste nur Nullen). Eine Matrix ist in spezieller Zeilenstufenform,
wenn zusätzlich in jeder Zeile der erste von 0 verschiedene Eintrag 1 ist.
Einige Beispiele dazu:
◦ Zeilenstufenform:
Jede Zeile der Matrix hat mindestens eine führende 0 mehr als die darüber liegende,
1 3 −7 5 1 3 −7 5
d.h. etwa für ∗ ∗ ∗ ∗ wird 0 ∗ ∗ ∗ gefordert.
∗ ∗ ∗ ∗ 0 0 ∗ ∗
1 3 −7 5 1 3 −7 5
Ebenso o.k. wäre aber z.B. auch 0 0 0 ∗ , nicht aber 0 0 0 ∗ .
0 0 0 0 0 2 0 0
◦ spezielle Zeilenstufenform:
1 3 −7 5 1 3 −7 5
Hier verschärft sich die Forderung zu 0 1 ∗ ∗ respektive 0 0 0 1 .
0 0 1 ∗ 0 0 0 0
1 2 0 1 0 0 0 1
0 1 0
Auch besitzt Zeilenstufenform, und 0 0 1 1 sowie 0 0 0 0 sind in spe-
0 0 5
0 0 0 1 0 0 0 0
zieller Zeilenstufenform.
72 2. Matrixrechnung
Mit Hilfe des folgenden Algorithmus können wir jede beliebige Matrix A ∈ Mat(m × n, R) in
spezielle Zeilenstufenform bringen.
1. Vertausche die Zeilen so, dass in der ersten Zeile der erste Eintrag 0 nicht weiter rechts
steht, als in allen anderen Zeilen.
2. Multipliziere die Zeilen mit geeigneten λ ∈ R \ {0} so, dass in den Zeilen, bei denen der
erste Eintrag 0 an der gleichen Stelle wie in der ersten Zeile steht, dieser Eintrag 1 wird.
(Dies schließt auch die erste Zeile ein!)
3. Subtrahiere die erste Zeile von allen anderen Zeilen, in denen der erste Eintrag 0 an
derselben Stelle steht wie in der 1. Zeile.
4. Die erste Zeile wird von jetzt an nicht mehr verändert. Wir starten den Algorithmus neu
mit Schritt 1., angewandt auf diejenige Teilmatrix, die durch Streichung der ersten Zeile
entsteht.
0 1 1
5 10 −20
2 8 4
durch und symbolisieren dabei die Transformationsschritte mit dem Pfeil „“:
0 1 1 5 10 −20 1 2 −4 1 2 −4
1.
2.
2.
5 10 −20 0 1 1 0 1 1 0 1 1
2 8 4 2 8 4 2 8 4 1 4 2
1 2 −4 1 2 −4 1 2 −4 1 2 −4
3.
4./2.
4./3.
4./2.
0 1
1 0 1 1 0 1 1 0 1 1 .
0 2 6 0 1 3 0 0 2 0 0 1
Nach so viel Matrixumgestaltung wollen wir nun endlich sehen, wie uns die Überführung von
Matrizen in Zeilenstufenform bei der Lösung von LGS hilft und welche Rolle sie letztlich für
den Gauß-Algorithmus spielt. Es fehlt uns noch eine effektive Entscheidungshilfe, wann ein
inhomogenes LGS A · x = b überhaupt lösbar ist:
Bemerkung 2.60. Ist (A, b) die erweiterte Koeffizientenmatrix eines LGS, und ist (A, b) in
Zeilenstufenform, so gilt genau dann Lös(A, b) = ∅, wenn es eine Zeile (sagen wir, die i-te)
gibt, in der alle Einträge von A nur aus Nullen bestehen, aber die rechte Seite bi 0 ist.
2.3. Der Gauß-Algorithmus 73
0 0 0 1
Aus der letzten Zeile der Matrix wird unmittelbar ersichtlich, dass A · x = b nicht lösbar ist,
d.h. Lös(A, b) = ∅.
Beispiel 2.62. Nun wandeln wir das Gleichungssystem ab, indem wir die 1 auf der rechten
Seite durch 0 ersetzen,
1 2 4 x1 4
0 0 1 x2 = 5 .
0 0 0 x3 0
In diesem Fall erhalten wir
1 2 4 4
(A, b) = 0 0 1 5 .
0 0 0 0
Sukzessives Auflösen von unten nach oben liefert:
Lös(A, b) = x ∈ R3 | 1 · x1 + 2 · x2 + 4 · x3 = 4 ∧ 1 · x3 = 5
= x ∈ R3 | x3 = 5 ∧ x1 + 2x2 + 4 · 5 = 4
= x ∈ R3 | x3 = 5 ∧ x1 = −2x2 − 16 ∧ x2 ∈ R beliebig
⎧
⎪ −2x2 − 16 ⎫
⎪
⎪
⎨
⎪
⎪
⎬
⎪
= x2
∈ R 3
x2 ∈ R beliebig .
⎪
⎪ ⎪
⎪
⎪ 5 ⎪
⎩ ⎭
Für die konkrete Ermittlung der Lösungsmenge lohnt sich offenbar die Überführung der
erweiterten Koeffizientenmatrix eines LGS in Zeilenstufenform. Die Lösungen lassen sich
dann, wie gesehen, nach und nach durch „Rückwärtseinsetzen“ ermitteln.
Fassen wir die bisherigen Ergebnisse dieses Abschnitts zusammen und formulieren den
74 2. Matrixrechnung
2. Überführe (A, b) durch elementare Zeilenumformungen in ( Ã, b̃) so, dass ( Ã, b̃) Zeilenstu-
fenform besitzt.3
4. Ist dagegen Lös( Ã, b̃) ∅, so löse Ãx = b̃ durch sukzessives Lösen der einzelnen Gleichun-
gen von unten nach oben.
Manchmal interessiert man sich nur für die Lösbarkeit eines inhomogenen LGS und nicht für
die Lösungsmenge selbst. Ein passendes Hilfsmittels hierfür ist der so genannte Rang einer
Matrix.
Bemerkung 2.64. Häufig ist es nützlich, den i-ten Spaltenvektor ai wie folgt auszudrücken.
Durch Einsetzen sieht man direkt, dass für jedes i ∈ {1, . . ., n} gilt
A · ei = ai,
wobei ei der uns bekannte i-te Einheitsvektor aus der Standardbasis von Rn ist.
Wie angekündigt, folgt nun die Charakterisierung der Lösbarkeit eines (inhomogenen) LGS
durch den Rangbegriff:
Satz 2.67. Sei A ∈ Mat(m × n, R) mit den Spalten a1, . . ., an und sei b ∈ Rm . Dann gilt:
Beweis. Da die Hinzunahme einer Spalte den Rang höchstens um eins erhöhen kann, gilt
entweder rg(A, b) = rg(A) oder rg(A, b) = rg(A) + 1. Der Satz ergibt sich aus folgenden
Äquivalenzen, wobei wir beim zweiten „⇔“ Korollar 2.54 (ii) benutzen:
rg(A, b) = rg(A)
⇔ dim(L(a1, . . ., an, b)) = dim(L(a1, . . . , an ))
⇔ L(a1, . . ., an, b) = L(a1, . . ., an )
⇔ b ∈ L(a1, . . ., an )
⇔ ∃t1, . . ., tn ∈ R : t1 a1 + . . . + tn an = b
t 1
.
⇔ ∃t1, . . ., tn ∈ R : A · .. = b
t n
76 2. Matrixrechnung
⇔ Lös(A, b) ∅.
Beschließen wir diesen Abschnitt mit einem Beispiel, in dem der Gauß-Algorithmus verwendet
wird, um eine Basis des Lösungsraumes eines homogenen LGS zu bestimmen.
Beispiel 2.68. Die TNT-Reaktionsgleichung (2.2) führte uns auf das homogene LGS A · x = 0
der konkreten Gestalt:
7 0 −7 0
x1
0
8
1 −5 −2 x2 0
= .
0
1 −3 0 x3 0
0 3 −6 −1 x4 0
Bekanntlich ist Lös(A, 0) ein Untervektorraum von R4 . Wir ermitteln eine Basis von Lös(A, 0).
Mit dem Gauß-Algorithmus überführen wir dazu A in Zeilenstufenform Ã, denn Lös(A, 0) =
Lös( Ã, 0). Es gilt:
7−7 0
0
1 0 −1 0
1 0 −1 0
8−5 −2 8
−5 −2 1 1
8 −8 −4
1 5
1 1
A =
0−3 0
1 0 1
−3 0 0 1 −3 0
0−6 −1
3 0 3 −6 −1 0 3 −6 −1
1 0 −1 0
1 0 −1 0
1 0 −1 0
0 1 3 − 1 3 −2 0 1 3 −2
4 0 1
8 8
0 1 −3 0
0
1 −3 0 0
0 −6 2
0 3 −6 −1 0 3 −6 −1 0 3 −6 −1
1 0 −1 0
1 0 −1 0
1 0 −1 0
0 1 3 −2 0 1 3 −2 0 1 3 −2
0 0 −6 2 0 0 −6 2 0 0 1 − 13
0 1 −2 − 1
3 0 0 −5 3
5
0 0 −5 53
1 0 −1 0
1 0 −1 0
0 1 3 −2 0 1 3 −2
=: Ã.
0 0 1 − 13 0 0 1 − 13
0 0 1 −31
0 0 0 0
Beginnend bei der untersten Zeile von à lösen wir das LGS nun sukzessive auf und bekommen:
⎧
⎪ ⎫
⎪
⎪
⎪
x1
⎪
⎪
⎪
⎪ x1 − x3 = 0 ⎪
⎪
⎨ x2
⎪
4
⎬
⎪
= ∈ R x2 + 3x3 − 2x4 = 0
⎪
⎪ x3 ⎪
⎪
⎪
⎪ x3 − 13 x4 = 0 ⎪
⎪
⎪
⎪ x4 ⎪
⎪
⎩ ⎭
⎧
⎪ ⎫
⎪
⎪
x1
⎪ ⎪
⎪
⎪
⎪ x1 − x3 = 0 ⎪
⎪
⎨ x2
⎪
4
⎬
⎪
= ∈ R x2 + 3x3 − 2x4 = 0
⎪
⎪ x3 ⎪
⎪
⎪
⎪ x4 = 3x3 ⎪
⎪
⎪
⎪ x4 ⎪
⎪
⎩ ⎭
⎧
⎪ ⎫
⎪
⎪
⎪
x1
⎪
⎪
⎪
⎪ ⎪
⎪
⎨ x2
⎪ 4 x1 − x 3 = 0 ⎬
⎪
= ∈R
⎪
⎪ x3 x2 = 3x3 ⎪ ⎪
⎪
⎪ ⎪
⎪
⎪
⎪ 3x3 ⎪
⎪
⎩ ⎭
⎧
⎪ ⎫
⎪
⎪
⎪
x1
⎪
⎪
⎪
⎪ ⎪
⎪
⎨ 3x3
⎪ 4
⎬
⎪
= ∈ R x1 = x3
⎪
⎪ x3 ⎪
⎪
⎪
⎪ ⎪
⎪
⎪
⎪ 3x3 ⎪
⎪
⎩ ⎭
⎧
⎪ x3 ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎪ ⎪
⎪
⎨ 3x3
⎪
⎬
⎪
= ∈ R x3 ∈ R
4
⎪
⎪ ⎪
⎪
⎪ x3
⎪ ⎪
⎪
⎪
⎪ 3x3 ⎪
⎪
⎩ ⎭
⎧
⎪ ⎫
⎪
⎪
⎪ 1
⎪
⎪
⎪
⎪ 3 ⎪
⎪
⎨
⎪ ⎬
⎪
= x3 · ∈ R x3 ∈ R
4
⎪
⎪ 1 ⎪
⎪
⎪
⎪ ⎪
⎪
⎪
⎪ 3 ⎪
⎪
⎩ ⎭
1
3
= L .
1
3
Da (1, 3, 1, 3) nicht der Nullvektor ist, ist er linear unabhängig. Also ist
X = {(1, 3, 1, 3) }
Nach den Punkten sind die Geraden die einfachsten geometrischen Objekte in der Ebene.
Definition 2.69. Eine Gerade in der Ebene ist eine Menge der Form
G a,v = {a + t · v | t ∈ R} ⊂ R2 .
Hierbei ist a ∈ R2 ein Aufpunkt und v ∈ R2 \ {0} ein Richtungsvektor der Geraden.
x2
x1
v G a,v
Abb. 28 Gerade
Wäre v = 0 zugelassen, so führte das zu einer Menge G a,0 = {a} , welche offenbar nur einen
Punkt enthält - nicht gerade das, was wir uns unter einer Gerade vorstellen. Daher verlangen
wir in der Definition, dass v 0. An den Aufpunkt gibt es keine Einschränkung.
2.4. Geometrie der Ebene, Teil 1 79
Wir zeigen nun, dass der Aufpunkt einer Geraden gegen jeden beliebigen Punkt der Gerade
austauschbar ist.
G a,v = G p,v .
q = p + t1 · v
q = p + t1 · v = a + t0 · v + t1 · v = a + (t0 + t1 ) · v ∈ G a,v .
Zu „G a,v ⊂ G p,v “:
Sei x ∈ G a,v . Wir zeigen, dass auch x ∈ G p,v gilt. Zunächst existiert wegen p ∈ G a,v ein t0 ∈ R,
so dass
p = a + t0 · v (2.10)
gilt. Wegen x ∈ G a,v gibt es ein t2 ∈ R, so dass
x = a + t2 · v
gilt. Umstellen von (2.10) nach a und Einsetzen führt schließlich auf:
x = a + t2 · v = p − t0 · v + t2 · v = p + (t2 − t0 ) · v ∈ G p,v .
Wir beweisen nun, dass der Richtungsvektor aus zwei verschiedenen Punkten der Gerade ge-
bildet werden kann. Insbesondere legen somit zwei verschiedene Punkte eine Gerade eindeutig
fest.
G = Ga,b−a .
80 2. Matrixrechnung
Beweis. Laut Definition gibt es für die Gerade G einen Aufpunkt p ∈ R2 und einen Richtungs-
vektor v ∈ R2 \ {0} , so dass
G = G p,v
gilt. Wegen Lemma 2.70 können wir p durch a ersetzen, d.h. es gilt auch
G = G a,v .
Ist nun b ∈ G a,v ein weiterer Punkt der Gerade, dann existiert ein t0 ∈ R, so dass
b = a + t0 · v (2.11)
Zu „G a,v ⊂ G a,b−a “:
Zu x ∈ G a,v existiert ein t1 ∈ R, so dass
x = a + t1 · v
gilt. Da t0 0 ist, kann die Gleichung (2.11) nach v umgestellt und das Resultat
1
v= · (b − a)
t0
eingesetzt werden:
1 t1
x = a + t1 · v = a + t1 · · (b − a) = a + · (b − a) ∈ G a,b−a .
t0 t0
Zu „G a,v ⊃ G a,b−a “:
Umgekehrt zieht y ∈ G a,b−a die Existenz eines t2 ∈ R nach sich, so dass
y = a + t2 · (b − a)
b − a = t0 · v
y = a + t2 · (b − a) = a + t2 · t0 · v = a + (t2 t0 ) · v ∈ G a,v .
Wir gehen nun der Frage nach, wie man eigentlich Abstände in der Ebene misst. Wie kann die
Länge eines Vektors berechnet werden? Ein wichtigstes Hilfsmittel hierfür und für Winkel-
berechnungen liefert
2.4. Geometrie der Ebene, Teil 1 81
x1 y1
Definition 2.72. Für x = ,y = ∈ R2 heißt
x2 y2
x, y := x1 · y1 + x2 · y2
·, · : R2 × R2 → R
(iv) x, x ≥ 0,
(v) x, x = 0 ⇔ x = 0.
x2 x
x
x1
Abb. 29 Norm
Die Norm eines Vektors ist eine andere Bezeichnung für seine Länge. Aus den Rechenregeln
(iv) und (v) für das Skalarprodukt ergibt sich für die Norm weiterhin
x ≥ 0 und x = 0 ⇔ x = 0
82 2. Matrixrechnung
für alle x ∈ R2 . Aus den Rechenregeln (ii) und (iii) finden wir für alle x ∈ R2 und jedes t ∈ R :
t · x = t · x, t · x
= t · x, t · x
= t · t · x, x
= t 2 · x, x
= t 2 · x, x
= |t | · x .
Der noch ausstehende, allgemeine Abstandsbegriff erfordert nun zunächst einen kleinen Ab-
stecher in die Analysis:
Definition 2.75. Sei I ⊂ R. Eine Abbildung f : I → R heißt monoton wachsend, falls für
alle t1, t2 ∈ I gilt:
t1 ≤ t2 ⇒ f (t1 ) ≤ f (t2 )
x1 y1
Beweis. Wir schreiben x = und y = und berechnen die Differenz der Quadrate
x2 y2
beider Seiten. Es gilt:
= (x1 y2 − x2 y1 )2
≥ 0.
Aufgrund der Monotonie der Wurzelfunktion bleibt die Ungleichung erhalten, wenn man auf
beiden Seiten die Wurzel zieht. Dies liefert x · y ≥ |x, y| .
x + y ≤ x + y
2
x + y 2 = x + y, x + y
= x + y, x + y
= x, x + y + y, x + y
= x + y, x + x + y, y
= x, x + y, x + x, y + y, y
= x, x + 2 x, y + y, y
= x 2 + 2 x, y + y 2
CSU
≤ x 2 + 2 x y + y 2
= (x + y)2 .
Dabei steht CSU nicht etwa für eine bekannte politische Partei, sondern für die Cauchy-
Schwarz-Ungleichung. Wieder führt das Anwenden der Wurzelfunktion auf beiden Seiten zum
gewünschten Resultat.
Anhand folgender Abbildung erklären wir, weshalb die eben bewiesene Ungleichung den
Namen „Dreiecksungleichung“ trägt:
84 2. Matrixrechnung
x2
x+y
x
y
x1
Abb. 30 Dreiecksungleichung
Offenbar ist der direkte Weg x + y stets höchstens so lang, wie der „Umweg“ x + y .
Passend angeordnet, bilden x, y und x + y ein Dreieck, welches nur dann konstruierbar ist,
wenn zwei Seiten zusammen mindestens so lang sind, wie die dritte Seite.
Nun können wir sinnvoll den Abstandsbegriff zweier Punkte in der Ebene definieren:
d(x, y) := x − y
Die Norm eines Vektors ist also nichts anderes als der euklidische Abstand vom Nullvektor,
x = x − 0 = d(x, 0).
Nicht nur für die Norm, auch für den euklidischen Abstand gibt es eine Dreiecksungleichung:
x2
z
x
y
x1
Abb. 31 Dreiecksungleichung
Beweis. Wir beginnen mit der linken Seite und rechnen los:
d(x, z) = x − z
= x − y + y − z
= (x − y) + (y − z)
Kor. 2.77
≤ x − y + y − z
= d(x, y) + d(y, z).
d(a, c) = d(b, c)
b
c
a
Abb. 32 Mittelpunkt
Beweis. Nach Lemma 2.71 wissen wir, dass G durch die auf ihr befindlichen Punkte a b
eindeutig festgelegt ist, d.h. es gilt:
G = G a,b−a = {a + t · (b − a) | t ∈ R} .
Sei nun q = a + t0 · (b − a) ∈ G für ein bestimmtes t0 ∈ R. Dann gilt
d(a, q) = a − q
86 2. Matrixrechnung
= a − (a + t0 · (b − a))
= (−t0 ) · (b − a)
= |t0 | · b − a
und analog
d(b, q) = b − q
= b − (a + t0 · (b − a))
= b − a − t0 · b + t0 · a
= (1 − t0 ) · (b − a)
= |1 − t0 | · b − a .
Damit erhalten wir ein Kriterium dafür, dass q von a und b denselben Abstand hat:
d(b, c) = d(a, c)
= d a, 12 (a + b)
! !
= !a − 12 (a + b)!
! !
= !a − 12 a − 12 b!
! !
= ! 1 (a − b)!
2
= 2 a − b
1
= 1
2 d(a, b).
Definition 2.83. Zwei Geraden G a,v und G b,w heißen genau dann parallel, wenn ihre Rich-
tungsvektoren v, w linear abhängig sind.
x2
b
x1
w
v
G a,v G b,w
Abb. 33 Parallele Geraden
G b,w = G b,v
und
G a,v = G a,w,
denn, da v und w linear abhängig sind, gilt w = αv für ein geeignetes α ∈ R \ {0} und somit:
G b,w = {b + tw | t ∈ R}
= {b + t(αv) | t ∈ R}
= {b + (tα)v) | t ∈ R}
= {b + t v | t ∈ R}
= G b,v .
Das folgende Lemma ist charakteristisch für die zweidimensionale Geometrie. In höheren
Dimensionen wird dies nicht mehr richtig sein.
Lemma 2.85. Zwei Geraden G und G in der Ebene sind genau dann parallel, wenn entweder
G = G oder G ∩ G = ∅ gilt.
Beweis. a) Seien G und G parallel. Wir zeigen, dass dann G = G oder G ∩ G = ∅ gilt.
Nehmen wir also an, dass G ∩ G ∅, denn sonst sind wir schon fertig. Dann gibt es ein
a ∈ G ∩ G. Wegen Lemma 2.70 können wir dann G = G a,v und G = G a,w für bestimmte
v, w, ∈ R2 \ {0} schreiben. Da G und G parallel sind, gilt wegen Bemerkung 2.84:
G a,w = G a,v,
88 2. Matrixrechnung
d.h.
G = G .
b) Sei nun umgekehrt G = G oder G ∩ G = ∅. Wir zeigen, dass dann G und G parallel sind.
Falls G = G gilt, so ist dies klar. Sei also G ∩ G = ∅. Untersuchen wir, was diese Bedingung
bedeutet. Ein Punkt x in G ∩ G lässt sich sowohl in der Form x = a + t1 v als auch in der Form
x = b + t2 w schreiben, wobei wir G = G a,v und G = G b,w geschrieben haben. Also gilt
G ∩ G ∅ ⇔ ∃t1, t2 ∈ R : a + t1 v = b + t2 w
t1
⇔ ∃t1, t2 ∈ R : (v, w) · = b−a
−t2
⇔ Lös((v, w), a − b) ∅
Da wir G∩G = ∅ vorausgesetzt hatten, heißt das also Lös((v, w), a−b) = ∅. Somit ist rg(v, w) <
rg(v, w, a − b). Wegen v, w, a − b ∈ R2 ist aufgrund von Korollar 2.43 rg(v, w, a − b) ≤ 2 und
somit rg(v, w) ≤ 1. Also sind v und w linear abhängig und somit G und G parallel.
In höheren Dimensionen gibt es „windschiefe“ Geraden, d.h. solche, die sich nicht schneiden
und trotzdem nicht parallel sind.
Definition 2.86. Ein Parallelogramm ist ein 4-Tupel (a, b, c, d) von paarweise verschie-
denen Punkten a, b, c, d ∈ R2, so dass G a,b−a parallel zu G c,d−c ist und G a,c−a parallel zu
G b,d−b .
Ferner heißt ein Parallelogramm (a, b, c, d) nicht entartet, falls keine drei Punkte auf einer
Geraden liegen.
G a,c−a G b,d−b
G c,d−c
c d
G a,b−a
a b
Abb. 34 Parallelogramm
Indem wir verlangen, dass ein Parallelogramm nicht entartet sein soll, schließt es stets eine
Fläche ein. Etwa für a = b und c = d ist dies nicht der Fall. Als entartet sehen wir insbesondere
den Fall an, bei dem alle vier Punkte auf einer Geraden liegen:
a c b d
Abb. 35 Entartetes Parallelogramm
2.4. Geometrie der Ebene, Teil 1 89
Bemerkung 2.87. Ist (a, b, c, d) ein nicht entartetes Parallelogramm, so sind die Geraden
Ga,b−a, G c,d−c, G a,c−a, G b,d−b paarweise verschieden und b − a, c − a sind linear unabhängig.
Beweis. Den Nachweis hierfür genehmigen wir uns als Übungsaufgabe 2.11.
Beweis. Betrachten wir hierfür die parallelen Geraden G a,c−a und G b,d−b . Dann gilt
c − a = λ(d − b) (2.12)
für ein λ ∈ R. Derselbe Ansatz für die Parallelen G a,b−a und G c,d−c liefert
b − a = μ(d − c) (2.13)
für ein μ ∈ R. Nun zeigen wir λ = μ = 1. Wir subtrahieren Gleichung (2.13) von (2.12) und
erhalten:
c − b =λ(d − b) − μ(d − c)
⇒ c − d + d − b=λ(d − b) − μ(d − c)
⇒ − (d − c) + (d − b) =λ(d − b) − μ(d − c)
⇒ (μ − 1)(d − c) + (1 − λ)(d − b) =0
Da das Parallelogramm nicht entartet ist, sind die Vektoren d − c und d − b linear unabhängig.
Somit gibt es nur die triviale Linearkombination des Nullvektors und es folgt μ − 1 = 0 sowie
1 − λ = 0, also insgesamt μ = λ = 1.
Zwei interessante Strecken in einem Parallelogramm sind die Diagonalen. Für sie gilt der
Satz 2.89 (Diagonalensatz). In einem nicht entarteten Parallelogramm halbieren sich die
Diagonalen gegenseitig.
c d
a b
Abb. 36 Diagonalensatz
90 2. Matrixrechnung
Beweis. Gemäß Lemma 2.81 ist 12 (a + d) der Mittelpunkt der Diagonalen durch a und d
sowie 21 (b + c) der Mittelpunkt der Diagonalen durch b und c. Wir zeigen nun die Gleichheit
2 (a + d) = 2 (b + c) mittels direkter Rechnung. Dazu subtrahieren wir die rechte Seite von der
1 1
1 1 1 1 Lemma 2.88
(a + d) − (b + c) = (a + d − b − c) = (−(c − a) + (d − b)) = 0.
2 2 2 2
Man beachte, dass der Diagonalensatz für allgemeine Vierecke falsch ist, wie folgende Abbil-
dung illustriert:
d
b
Abb. 37 Diagonalensatz scheitert
Nachfolgend sparen wir eine Ecke ein und wenden uns Dreiecken zu.
Definition 2.90. Ein Dreieck ist ein Tripel (a, b, c) von Punkten a, b, c ∈ R2 .
Ein Dreieck (a, b, c) heißt nicht entartet, falls a, b, c nicht auf einer Geraden liegen.
Im Zusammenhang mit Dreiecken gibt es eine Fülle interessanter Geraden bzw. Strecken, etwa
Seiten- und Winkelhalbierende, Mittelsenkrechte und Höhen.
Definition 2.91. Sei (a, b, c) ein nicht entartetes Dreieck. Eine Seitenhalbierende ist eine
Gerade durch eine der Ecken a, b, c des Dreiecks und den Mittelpunkt der gegenüberliegenden
Seite.
" #
◦ Seitenhalbierende durch b und 21 (a + c) : G b, 1 (a+c)−b = b + t 12 (a + c) − b | t ∈ R
2
" #
◦ Seitenhalbierende durch c und 12 (a + b) : G c, 1 (a+b)−c = c + t 12 (a + b) − c | t ∈ R
2
2.4. Geometrie der Ebene, Teil 1 91
Satz 2.92 (Schwerpunktsatz). In jedem nicht entarteten Dreieck (a, b, c) schneiden sich die
drei Seitenhalbierenden im Punkt 13 (a + b + c).
G b, 1 (a+c)−b
2
b
G c, 1 (a+b)−c
3 (a + b + c)
1 2
c
G a, 1 (b+c)−a
2 a
Abb. 38 Seitenhalbierende
a+ 2
3 2 (b +
1
c) − a = a + 13 (b + c) − 23 a = 1
3 (a + b + c) .
Also liegt 1
3 (a + b + c) auf der Seitenhalbierenden G a, 1 (b+c)−a . Analog sieht man, dass
2
1
3 (a + b + c) auch auf den anderen beiden Seitenhalbierenden liegt.
Definition 2.93. Der Punkt 13 (a + b + c) heißt Schwerpunkt des Dreiecks (a, b, c).
Tatsächlich entspricht dieser Schwerpunkt auch dem physikalischen Schwerpunkt des Dreiecks.
Bemerkung 2.94. Die Seitenhalbierenden dritteln sich, d.h. sie teilen sich im Verhältnis 2 : 1.
Genauer: Der Schwerpunkt liegt von jeder Ecke doppelt so weit entfernt wie vom Mittelpunkt
der gegenüberliegenden Seite. In Formeln:
d a, 31 (a + b + c) = 2 · d 12 (b + c), 13 (a + b + c) .
92 2. Matrixrechnung
2
c
a
Abb. 39 Seitenhalbierende dritteln sich
Zur Komplettierung dieses Abschnitts wollen wir noch das wichtige Konzept von Winkeln,
genauer, Winkelgrößen kennenlernen. Hierfür benötigen wir folgende zwei Beobachtungen.
Einerseits kann für x, y ∈ R2 \ {0} der Zähler des Quotienten
x, y |x, y|
x · y = x · y
1
x = cos(t)
−π − π2 π π t
2π
2
3 2π
−1
Abb. 40 Kosinus
t = arccos(x)
−1 1 x
Abb. 41 Arkus-Kosinus
Somit ist cos(t) = x ⇔ arccos(x) = t und wir können folgende Definition machen.
x x
0 0
Abb. 42 Innenwinkel
Der Kosinus des Innenwinkels von x und y ist also gerade der Quotient xx,y
· y . Insbesondere
wird der Innenwinkel demnach durch das Skalarprodukt definiert. Zu beachten ist, dass auch
wirklich stets der Innenwinkel genommen wird, d.h. derjenige Winkel kleiner oder gleich π.
So wie wir Winkel definiert haben, werden sie im so genannten Bogenmaß angegeben. Sehr
verbreitet ist auch die Angabe von Winkeln in Grad. Die Umrechung in das Gradmaß erfolgt
einfach mittels der Relation
π
1◦ := .
180
(x, x) = arccos(1) = 0 .
Folglich ist
y
Beispiel 2.98. Ist x, y = 0, so gilt
π
(x, y) = arccos(0) = = 90◦ .
2 x
0
π
Abb. 45 Innenwinkel = 2 = 90◦
Definition 2.99. Falls x, y = 0 gilt, so heißen x und y orthogonal zueinander. Wir sagen
auch, dass x und y aufeinander senkrecht stehen. Wir schreiben in diesem Fall x ⊥ y.
y
Beispiel 2.100. Ist x = (1, 0) und y = (1, 1) , so gilt:
x, y 1·1+0·1 1
=√ √ =√ .
x · y 12 + 02 · 12 + 12 2 x
0
π
Abb. 46 Innenwinkel = 4 = 45◦
Folglich ist $ %
1 π
(x, y) = arccos √ = = 45◦ .
2 4
√ y
Beispiel 2.101. Ist x = (1, 0) und y = (1, 3) , so gilt:
√
x, y 1·1+0· 3 1
=√ √ = .
x · y 1 +0 · 1 +3 2
2 2 2
Folglich ist
$ % x
1 π
(x, y) = arccos = = 60◦ . 0
π
2 3 Abb. 47 Innenwinkel = 3 = 60◦
Der folgende Satz erlaubt es z.B., aus vorgegebenen drei Seitenlängen eines nicht entarteten
euklidischen Dreiecks die Innenwinkel desselben zu berechnen. Sind dagegen zwei Seiten und
der durch diese Seiten eingeschlossene Winkel vorgegeben, so kann mit dem Satz die dem
Winkel gegenüberliegende Seite berechnet werden.
Satz 2.102 (Kosinussatz). Sei (a, b, c) ein nicht entartetes Dreieck und sei
α := (b − a, c − a) der Innenwinkel in der Ecke α. Dann gilt:
α
a
c
Abb. 48 Kosinussatz
Entsprechend gelten dann natürlich für β := (a − b, c − b) und γ := (a − c, b − c) die analogen
Aussagen
Korollar 2.103. Die Seitenlängen eines nicht entarteten Dreiecks legen die Innenwinkel
eindeutig fest.
Vorsicht: Umgekehrt legen die Innenwinkel die Seitenlängen nicht fest. Strecken wir näm-
lich ein Dreieck um einen positiven Faktor, dann werden die Seitenlängen um diesen Faktor
gestreckt, die Innenwinkel bleiben jedoch unverändert.
2.4. Geometrie der Ebene, Teil 1 97
Satz 2.105 (Rhombensatz). Die vier Seitenlängen eines nicht entarteten Parallelogramms
sind genau dann gleich, wenn die beiden Diagonalen sich senkrecht schneiden.
c d
a d
b a b
Rhombus kein Rhombus
Abb. 49 Rhombensatz
v := b − a = d − c und w := c − a = d − b.
d−a=v+w und c − b = v − w.
c d
a v b
Abb. 50 Rhombensatz
Nun stehen die beiden Diagonalen genau dann senkrecht aufeinander, wenn
d − a, c − b = 0.
Wir berechnen
v 2 − w 2 = 0,
Definition 2.106. Ein nicht entartetes Parallelogramm mit gleich langen Seiten heißt Rhom-
bus oder auch Raute.
C := R2 .
Die Menge der komplexen Zahlen C heißt daher auch Gauß’sche Zahlenebene. Nun müssen
wir mit den komplexen Zahlen rechnen können, insbesondere müssen wir sie addieren und
multiplizieren können. Die Addition komplexer Zahlen kennen wir schon, es ist die gewöhnliche
2.5. Die komplexen Zahlen 99
Die entscheidende Neuerung ist die Multiplikation zweier komplexer Zahlen. Für alle x, y ∈ C
definieren wir:
x1 y1 x1 · y1 − x2 · y2
· := . (2.14)
x2 y2 x1 · y2 + x2 · y1
Diese Definition wirkt zunächst recht willkürlich. Wir werden aber sehen, dass sie sich doch
ziemlich zwangsläufig ergibt. Zunächst verifizieren wir, dass die Multiplikation komplexer
Zahlen denselben Rechenregeln genügt wie die der reellen Zahlen:
Man beachte, dass wegen der Voraussetzung x 0 auch x12 + x22 > 0 gilt und wir daher
durch x12 + x22 dividieren können.
Schließlich gibt es ein weiteres Gesetz, das regelt, wie Addition und Multiplikation zusam-
menspielen. Es stellt sicher, dass man ausmultiplizieren bzw. ausklammern darf:
(ix) Distributivgesetz:
∀x, y, z ∈ C : x · (y + z) = x · y + x · z.
Zu (vi):
x1 y1 − x2 y2 y1 x1 − y2 x2 y1 x1 − y2 x2
x·y= = = = y · x.
x1 y2 + x2 y1 y2 x1 + y1 x2 y1 x2 + y2 x1
Zu (vii):
x1 1 x1 · 1 − x2 · 0 x1
x·1= · = = = x.
x2 0 x1 · 0 + x2 · 1 x2
Zu (viii):
x1 x12 −x22
−1 x1
x12 +x22
x 2 +x 2 − x 2 +x 2
1
x·x = · −x2 = 1−x 2 1 2
x
= = 1.
x2 2 +x 2 x1 x 2 +x 2 + x2 x 2 +x 2
2 1 0
1 2 1 2
x
1 2
2.5. Die komplexen Zahlen 101
Zu (ix):
x1 y1 + z1
x · (y + z) = ·
x2 y2 + z2
x1 · (y1 + z1 ) − x2 · (y2 + z2 )
=
x1 · (y2 + z2 ) + x2 · (y1 + z1 )
x1 y1 + x1 z1 − x2 y2 − x2 z2
=
x1 y2 + x1 z2 + x2 y1 + x2 z1
x1 y1 − x2 y2 + x1 z1 − x2 z2
=
x1 y2 + x2 y1 + x1 z2 + x2 z1
x1 y1 − x2 y2 x1 z1 − x2 z2
= +
x1 y2 + x2 y1 x1 z2 + x2 z1
= x · y + x · z.
Bislang war es bei der Einführung neuer Zahlen immer so, dass sie die bereits bekannten
Zahlen umfasst haben, N ⊂ N0 ⊂ Z ⊂ Q ⊂ R. Wir hätten also gerne, dass R ⊂ C, aber das ist
wegen C = R2 ja nicht richtig. Um das zu beheben, betten wir den reellen Zahlenstrahl in die
Gauß’sche Zahlenebene ein. Wir setzen
0
i := .
1
Dabei steht i für imaginär. Bei der Einführung der komplexen Zahlen war man der Ansicht, dass
die reellen Zahlen „wirklich“ sind, während die Vielfachen von i, die so genannten imaginären
x1
Zahlen, nur Vorstellungen sind. Jede komplexe Zahl x = ∈ C können wir aus reellen
x2
Vielfachen von 1 und i zusammensetzen:
x1 x1 0 1 0
x= = + = x1 · + x2 · = x1 · 1 + x2 · i.
x2 0 x2 0 1
Komplexe Zahlen sind allerdings genauso wirklich wie reelle und besitzen vielfältige An-
wendungen, etwa in der Physik. Sehen wir, was uns die Einführung von imaginären Zahlen
einbringt. Hierfür quadrieren wir:
0 0 0 · 0 − 1 · 1 −1 1
i2 = i · i = · = = =− = −1.
1 1 0·1+1·0 0 0
In den komplexen Zahlen können wir also die Wurzel aus −1 ziehen. Hiermit lässt sich die
komplexe Multiplikation leicht merken, denn für x, y ∈ C gilt:
x · y = (x1 · 1 + x2 · i) · (y1 · 1 + y2 · i)
102 2. Matrixrechnung
= x1 y1 · 1 + x1 y2 · i + x2 y1 · i + x2 y2 · i 2
= (x1 y1 − x2 y2 ) · 1 + (x1 y2 + x2 y1 ) · i.
Wenn man also den Ansatz macht, dass komplexe Zahlen von der Form x = x1 · 1 + x2 · i sein
sollen und i 2 = −1 gilt, dann ergibt sich die Definition der komplexen Multiplikation in (2.14)
zwangsläufig.
Von nun an identifizieren wir 0 ∈ C mit 0 ∈ R sowie 1 ∈ C mit 1 ∈ R und schreiben statt
x1
x= kurz
x2
x = x1 + x2 · i oder auch x = x1 + ix2 .
Dadurch wird jede reelle Zahl t mit der komplexen Zahl t = t + 0 · i identifiziert und somit gilt
R ⊂ C.
Oft werden z und w statt x und y als Platzhalter für komplexe Zahlen verwendet.
Definition 2.107. Für z = z1 + z2 · i ∈ C mit z1, z2 ∈ R heißt z1 =: Re(z) der Realteil und
z2 =: Im(z) der Imaginärteil von z.
imaginäre Achse
z2 z = Re(z) + i · Im(z)
1 z1 reelle Achse
√ √
Beispiel 2.108. Wir betrachten z = 1 + i 2 sowie w = 2 + i 3 und berechnen
√
z 1+i 2
= √
w 2+i 3
√ √
(1 + i 2) · (2 − i 3)
= √ √
(2 + i 3) · (2 − i 3)
√ √ √ √
2 − i 3 + i2 2 + 2 3
= √
4 − (i 3)2
√ √ √
2+ 6 +i 2 2− 3
=
4+3
2.5. Die komplexen Zahlen 103
√ √ √
2+ 6 2 2− 3
= +i .
7 7
Also gilt √ √ √
z 2+ 6 z 2 2− 3
Re = und Im = .
w 7 w 7
Wir haben bei der Berechnung des Bruchs den Trick verwendet, dass wir den Bruch wz mit
derjenigen komplexen Zahl erweitert haben, bei der der Imaginärteil das entgegengesetzte
Vorzeichen (des Imaginärteils von w) besitzt, der Realteil jedoch derselbe ist.
Definition 2.109. Für z = z1 + iz2 ∈ C heißt z̄ := z1 − iz2 die komplex konjugierte Zahl
zu z. Die Abbildung C → C, z → z̄, heißt komplexe Konjugation.
z2 z = z1 +iz2
−z2 z̄ = z1 −iz2
Geometrisch
ist die komplexe Konjugation die Spiegelung an der reellen Achse
x
R= x ∈ R . Insbesondere gilt für alle z = z1 + iz2 ∈ C:
0
(ii) Es ist z = z̄ ⇔ z ∈ R.
Der folgende Satz listet einige weitere Eigenschaften der komplexen Konjugation:
104 2. Matrixrechnung
(i) z + w = z̄ + w̄,
(ii) z · w = z̄ · w̄,
(iii) z · z̄ = |z| 2 , wobei |z| = z = Re(z)2 + Im(z)2 .
Zu (ii):
Für komplexe Zahlen z = z1 + iz2 und w = w1 + iw2 bekommen wir
Zu (iii):
Wir berechnen
Bemerkung 2.111. Im Beispiel 2.108 erweiterten wir den Bruch wz mit der komplexen Kon-
jugation w̄ des Nenners, mit der Absicht, einen reellen Nenner zu erhalten. Wie sich nun
herausstellt, geschah dies implizit mittels der Regel (3.), denn es gilt
z z · w̄ z · w̄
= = ,
w w · w̄ |w| 2
wobei |w| 2 ∈ R ist.
Sie sollten das Rechnen mit komplexen Zahlen nun hier üben bis Sie es sicher
beherrschen: http://ueben.cbaer.eu/01.html
Für die Operationen Addition und Konjugation kennen wir bereits geometrische Interpreta-
tionen. Für die Multiplikation komplexer Zahlen allerdings fehlt uns eine solche noch. Wir
benötigen hierzu eine weitere Darstellungsform komplexer Zahlen z, die durch den Betrag |z|
und folgenden Winkelbegriff festgelegt ist.
z
arg(z)
arg(z) = (1, z)
1 1
z (1, z)
Abb. 53 Argument
Jede komplexe Zahl z = Re(z) + i · Im(z) 0 lässt sich nun durch |z| und arg(z) ausdrücken:
Beweis. Zu (i):
Wegen der Definition von arg(z) haben wir zwei Fälle zu betrachten:
1. Fall: Für Im(z) ≥ 0 gilt:
Da z 0 in der Voraussetzung des Satzes steht, können wir nun durch |z| 2 0 dividieren und
bekommen
1 = cos(arg(z))2 + x 2 .
Der trigonometrische Pythagoras liefert uns andererseits:
1 = cos(arg(z))2 + sin(arg(z))2 .
Subtraktion dieser beiden Gleichungen führt auf
x 2 = sin(arg(z))2,
also
x = sin(arg(z)) oder x = − sin(arg(z)).
Nun wieder zu den beiden möglichen Fällen:
1. Fall: Für Im(z) ≥ 0 ist x = Im(z)
|z| ≥ 0. Ferner gilt
Im Ergebnis können wir nun komplexe Zahlen z = Re(z) + i · Im(z) auch in der Form
z = |z| · (cos(arg(z)) + i sin(arg(z)))
schreiben. In der Literatur wird oft abkürzend ϕ := arg(z) ∈ [0, 2π) gesetzt.
iR
Die Darstellung
Nun liefert uns folgender Satz eine geometrische Interpretation für die Multiplikation:
108 2. Matrixrechnung
Beweis. Zu (i):
Wegen Satz 2.110 gilt:
|z · w| 2 = (z · w) · (z · w)
= (z · w) · (z̄ · w̄)
= (z · z̄) · (w · w̄)
= |z| 2 · |w| 2
= (|z| · |w|)2 .
Da |z · w| , |z| · |w| ≥ 0 sind, folgt die Behauptung (i) durch Wurzelziehen.
Zu (ii):
Wir schreiben abkürzend ϕ := arg(z) und ψ := arg(w). Dann gilt
z = |z| · (cos(ϕ) + i sin(ϕ)) sowie
w = |w| · (cos(ψ) + i sin(ψ))
und wir erhalten
z · w = |z| · (cos(ϕ) + i sin(ϕ)) · |w| · (cos(ψ) + i sin(ψ))
= |z| · |w| · (cos(ϕ) + i sin(ϕ)) · (cos(ψ) + i sin(ψ))
= |z| · |w| · (cos(ϕ) cos(ψ) + i cos(ϕ) sin(ψ) + i sin(ϕ) cos(ψ) + i 2 sin(ϕ) sin(ψ))
= |z| · |w| · ((cos(ϕ) cos(ψ) − sin(ϕ) sin(ψ)) + i(cos(ϕ) sin(ψ) + sin(ϕ) cos(ψ)))
(i)
= |z · w| · (cos(ϕ + ψ) + i sin(ϕ + ψ)).
In die letzte Gleichung gehen die Additionstheoreme für Kosinus und Sinus ein. Wir werden
nochmal darauf zurückkommen.
und damit
arg(z · w) = ϕ + ψ − 2π ∈ [0, 2π).
Aus diesem Satz ergibt sich folgende geometrische Interpretation der Multiplikation in C:
◦ Die Argumente werden addiert (und von der Summe ggf. 2π subtrahiert).
Sehen wir uns die beiden Fälle arg(z) + arg(w) ∈ [0, 2π) und arg(z) + arg(w) ∈ [2π, 4π) in je
einem Beispiel an:
iR
z = 2 cos π3 + i sin π3
w= 3
2 cos 5π
6 + i sin 5π
6
1 R
z · w = 3 cos 7π
6 + i sin 6
7π
√
iR z · w = 10 cos 16 π + i sin 16 π
√
z = 2 cos 56 π + i sin 56 π
1 R
√
w = 5 cos 43 π + i sin 43 π
Wir überlegen uns nachfolgend eine Möglichkeit, die eben verwendeten Additionstheoreme
herzuleiten, schon damit wir sie uns besser merken können. Aus der Analysis ist uns die
e-Funktion R → R mit x → e x bekannt:
110 2. Matrixrechnung
R
x → e x
Abb. 56 e-Funktion
Im Kontext komplexer Zahlen erhebt sich nun die Frage, ob die e-Funktion zu einer komplexen
Funktion C → C fortsetzbar ist, so dass die Funktionalgleichung (2.15) für alle komplexen
Zahlen gültig ist. Ist dies der Fall, so muss für jedes z = x + iy mit x, y ∈ R gelten
ez = e x+iy = e x · eiy .
Überlegen wir, wie die e-Funktion auf der imaginären Achse definiert werden kann. Wir
benötigen also eine Funktion R → C mit y → eiy, so dass schließlich für alle y, y ∈ R gilt
ei(y+y ) = eiy+iy = eiy · eiy . (2.16)
Wir definieren
eiy := cos(y) + i sin(y). (2.17)
Dies liefert eine Variante der Polardarstellung komplexer Zahlen z = |z| · eiϕ , die so genannte
Euler’sche Darstellung komplexer Zahlen. Hierbei ist ϕ := arg(z).
iR
z = eiy
sin(y)
y
cos(y) R
Die Rechnung aus dem Beweis von Satz 2.114 zeigt, dass tatsächlich für alle y, y ∈ R die
Funktionalgleichung (2.16) gilt. Mittels (2.17) erhalten wir nun die gewünschte (komplexe)
Fortsetzung:
e x+iy = e x · (cos(y) + i sin(y)).
Bemerkung 2.115. Mit der komplexen e-Funktion lassen sich die Additionstheoreme für
Kosinus und Sinus, sollte man sie einmal vergessen haben, wie folgt leicht herleiten. Einerseits
gilt nach (2.17)
ei(y+y ) = cos(y + y) + i sin(y + y). (2.18)
Andererseits liefern die Funktionalgleichung (2.16) und (2.17)
ei(y+y ) = eiy · eiy
= (cos(y) + i sin(y)) · (cos(y) + i sin(y))
= cos(y) cos(y) − sin(y) sin(y) + i(sin(y) cos(y) + cos(y) sin(y)). (2.19)
Nun sind zwei komplexe Zahlen genau dann gleich, wenn ihre Real- und Imaginärteile überein-
stimmen. Der Vergleich eben dieser in (2.18) und (2.19) ergibt genau die Additionstheoreme
für alle y, y ∈ R :
eiπ = −1.
eiπ + 1 = 0
gilt unter manchen Mathematikern als die schönste Gleichung der Mathematik, da hier die
wichtigsten Zahlen 0, 1, i, π, e vorkommen.
Leonhard Euler gehört zu den bedeutendsten Mathematikern aller
Zeiten. Er war unglaublich produktiv und publizierte 866 Arbei-
ten, darunter grundlegende Werke über Differenzial- und Integral-
rechnung, Algebra, Zahlentheorie und vielerlei Anwendungen der
Mathematik. Viele heute gebräuchliche mathematische Schreib-
weisen gehen auf Euler zurück, z.B. das Summenzeichen , e, π
und i für die komplexe Wurzel aus −1.
Euler war Professor an der Universität von Sankt Petersburg, un-
terbrochen von 25 Jahren an der Königlich-Preußischen Akademie Abb. 58 Leonhard Euler
der Wissenschaften in Berlin. Euler und Friedrich der Große gingen (1707–1783) 4
allerdings im Streit auseinander. Euler hatte die Aufgabe bekommen, die Hydraulik zu kon-
struieren, die die Springbrunnen im Schlosspark von Sanssouci mit Wasser versorgen sollte.
Dass diese Hydraulik dann nicht funktionierte, verärgerte den König außerordentlich, wollte
er mit seinen Springbrunnen doch diejenigen von Versailles übertreffen.
Am Anfang dieses Abschnitts standen wir vor dem Problem, bestimmte Gleichungen nicht lösen
zu können. Nun haben wir z.B. für z 2 + 1 = 0 die Lösungen z1 = i und z2 = −i vorzuweisen.
Die Anzahl der Lösungen des Polynoms z → z 2 + 1 entspricht also genau seinem Grad. Für
komplexe Polynome ist dies immer der Fall. Insbesondere sind in C alle Polynomgleichungen
lösbar. Diese Aussage ist formalisiert im
an z n + an−1 z n−1 + . . . + a1 z + a0 = an · (z − z1 ) · . . . · (z − zn ).
Dabei ist die linke Seite ein komplexes Polynom vom Grade n ≥ 1. Die rechte Seite nennt man
Linearfaktorzerlegung des Polynoms mit Linearfaktoren (z − z j ). Insbesondere sind damit
z = z1, . . ., z = zn genau die Lösungen der Gleichung:
an z n + an−1 z n−1 + . . . + a1 z + a0 = 0.
In den komplexen Zahlen sind polynomiale Gleichungen also stets lösbar. Jedes komplexe
Polynom besitzt eine Linearfaktorzerlegung. Der Beweis des Fundamentalsatzes erfordert ein
wenig Analysis und die Polynomdivision, die wir später noch behandeln werden. Der Beweis
findet sich in Anhang B.2.
Man beachte, dass die z1, . . . , zn nicht verschieden zu sein brauchen, denn etwa für
(z − 1)2 = (z − 1)(z − 1) = z 2 − 2z + 1 = 0
erhalten wir die Lösungen z1 = z2 = 1.
Exakt ausgedrückt hat ein komplexes Polynom n-ten Grades also genau n (nicht notwendiger-
weise verschiedene) Nullstellen. Daher ist folgende Definition angebracht:
Definition 2.118. Für jede Nullstelle ζ von z → an z n + an−1 z n−1 + . . . + a1 z + a0 heißt die
Anzahl der Faktoren (z − ζ ) in der Linearfaktorzerlegung die Vielfachheit der Nullstelle ζ .
Zählt man die Anzahl der Nullstellen eines komplexen Polynoms vom Grad n inklusive aller
Vielfachheiten zusammen, so erhält man stets genau n.
Also sind z1 = i und z2 = −i die beiden Nullstellen, jeweils von der Vielfachheit 1.
Die Konstruktion der Zahlbereiche ist damit in der Tat abgeschlossen. Wir wollen nun noch das
komplexe Analogon zum reellen Wurzelziehen diskutieren und betrachten hierfür die komplexe
Gleichung
z n − 1 = 0.
Als Spezialfall haben wir etwa
z 4 − 1 = (z − 1)(z − i)(z − (−1))(z − (−i))
= (z − 1)(z − i)(z + 1)(z + i).
Löst z ∈ C die Gleichung, d.h. gilt z n = 1, so ist
1 = |1| = |z n | = |z| n
und damit |z| = 1. Alle Lösungen der Gleichung z n = 1 liegen somit auf dem Einheitskreis,
also dem Kreis um 0 mit Radius 1. Insbesondere ist damit z von der Form z = eiy für ein, noch
zu bestimmendes, y ∈ R. Die Funktionalgleichung (2.16) liefert
1 = z n = (eiy )n = einy = cos(ny) + i sin(ny),
also muss
cos(ny) = 1 sowie sin(ny) = 0
gelten. Die y ∈ R, welche diesen beiden Gleichungen genügen, erhalten wir durch Nullstellen-
betrachtung von Sinus und Kosinus. Da der Sinus genau die Vielfachen von π als Nullstellen
hat, existiert ein m ∈ Z, so dass ny = m · π. Den Wert 1 nimmt der Kosinus bei den geraden
Vielfachen von π an, −1 bei den ungeraden Vielfachen. Also ist m von der Form m = 2k für
ein k ∈ Z, so dass ny = 2k · π gilt. Wir erhalten folglich insgesamt, dass es ein k ∈ Z gibt, so
dass
2k · π
y=
n
und damit
2k π
z = ei n
gilt.
2k π
Nehmen wir umgekehrt z = ei n mit k ∈ Z her, so gilt
2k π n 2k π
z n = ei n = ei n n = ei2kπ = cos(2kπ) + i sin(2kπ) = 1,
2k π
d.h. die z ∈ C von der Form z = ei n sind Lösungen.
Insgesamt haben wir somit alle Lösungen der Gleichung z n − 1 = 0 auf dem Einheitskreis
identifiziert. Hier zwei Beispiele für n = 3 und n = 4:
114 2. Matrixrechnung
iR iR
2π
2π ei 4
ei 3
0π 0π
ei 3 ei 4
R ei
4π
4 R
4π
ei 3 6π
ei 4
Da die Nullstellen von z → z n − 1 den Einheitskreis stets in gleich große Segmente aufteilen,
nennt man dieses Polynom auch Kreisteilungspolynom.
ρ̄+ = ρ−,
1 + ρ+ + ρ− = 0.
Wir wissen nun wie viele Lösungen komplexe polynomiale Gleichungen n-ten Grades besitzen,
nicht jedoch, wie diese für eine gegebene Gleichung berechnet werden können. Betrachten wir
also allgemein eine Gleichung der Form
an z n + an−1 z n−1 + . . . + a1 z + a0 = 0
mit gegebenen a j ∈ C, an 0, und gesuchtem z.
a2 z 2 + a1 z + a0 = 0. (2.20)
a1
Dabei setzen wir natürlich wieder a2 0 voraus. Wir setzen p := 2a 2
und q := aa02 . Glei-
chung (2.20) ist äquivalent zu
a1 a0
z2 + z + = 0,
a2 a2
und damit zu
z 2 + 2pz + q = 0. (2.21)
√
Hierbei heißt D := p2 − q ∈ C Diskriminante von (2.21). Sei nun D ∈ C eine Wurzel von
D. Gemeint ist eine Lösung w der Gleichung
w2 = D.
Satz 2.123 ( p-q-Formel, Satz von Vieta für quadratische Gleichungen). Die Lösungen
von (2.21) sind gegeben durch
√ √
z1 = −p + D und z2 = −p − D.
Ferner gilt
Beweis. Wir überprüfen zunächst, dass (2.22) für unsere Wahl von z1 und z2 gilt. Es ist
√ √
z1 + z2 = −p + D + −p − D = −2p
und √ √
z1 · z2 = −p + D −p − D = p2 − D = q
sowie √
√ √ 2 2
(z1 − z2 )2 = −p + D − −p − D = 2 D = 4D.
Nun sehen wir, dass z1 und z2 tatsächlich die beiden Nullstellen des Polynoms sind, denn
(z − z1 )(z − z2 ) = z 2 − z1 z − z2 z + z1 z2
= z 2 − (z1 + z2 )z + z1 z2
116 2. Matrixrechnung
(2.22) 2
= z + 2pz + q.
Für die letzte Gleichheit haben wir die ersten beiden Formeln aus (2.22) benutzt.
= ei( 4 π+ 4 π) = ei 4 π · ei 4 π .
3π 3 3 3 3
−i = ei 2
Bemerkung 2.126. Für p, q ∈ R ist auch D ∈ R und wir erhalten folgende Fallunterscheidung:
In Beispiel 1.6 hatten wir nur die ersten beiden Fälle behandelt. Den dritten konnten wir
mangels komplexer Zahlen noch nicht besprechen.
2.5. Die komplexen Zahlen 117
a3 z 3 + a 2 z 2 + a 1 z + a 0 = 0 (2.23)
und damit
w3 + 3pw + 2q = 0. (2.24)
118 2. Matrixrechnung
Wenn wir (2.24) lösen können, dann liefert uns die Rücksubstitution
a2
z=w−
3a3
die Lösungen der ursprünglichen Gleichung (2.23). Die Substitutionen haben bewirkt, dass
der quadratische Term aus der Gleichung verschwunden ist. Im kubischen Fall ist die Dis-
kriminante von (2.24) nun definiert durch D := p3 + q 2 . Die Formeln für die allgemeinen
Lösungen kubischer Polynomialgleichungen heißen Cardanische Gleichungen. Wir fassen sie
in folgendem
√
−q ± D so gewählt, dass
3
Satz 2.127 (Cardano, Vieta). Seien die dritten Wurzeln u± :=
u+ u− = −p. Dann sind
w1 = u+ + u−,
w2 = ρ+ u+ + ρ− u−,
w3 = ρ− u+ + ρ+ u−
die Lösungen von (2.24). Dabei sind ρ+ und ρ− die dritten Einheitswurzeln wie in Bei-
spiel 2.122. Ferner gilt
w1 + w2 + w3 = 0, (2.25)
w1 w2 + w2 w3 + w1 w3 = 3p, (2.26)
w1 w2 w3 = −2q, (2.27)
(w1 − w2 )2 (w2 − w3 )2 (w1 − w3 )2 = −108D. (2.28)
Also kann man eine dritte Einheitswurzel ρ finden, so dass u+ u− ρ = −p. Ersetzt man nun u−
durch u− ρ, dann sind die dritten Wurzeln richtig gewählt.
Beweis von Satz 2.127. Unter Benutzung einer Formel aus Beispiel 2.122 rechnen wir (2.25)
nach
w1 + w2 + w3 = u+ + u− + ρ+ u+ + ρ− u− + ρ− u+ + ρ+ u−
= (1 + ρ+ + ρ− )u+ + (1 + ρ+ + ρ− )u−
= 0.
2.5. Die komplexen Zahlen 119
w1 w2 + w2 w3 + w1 w3 = w1 (w2 + w3 ) + w2 w3
= (ρ+ + ρ− )(u+ + u− )2 + u+2 + (ρ2+ + ρ2− )u+ u− + u−2
()*+ ()*+
=−1 =ρ− +ρ+ =−1
= −(u+2
+ 2u+ u− + u−2 ) + u+2 + −u+ u− + u−2
= −3u+ u−
= 3p,
sowie (2.27)
Damit können wir nachprüfen, dass w1 , w2 und w3 tatsächlich die drei Nullstellen des Polynoms
sind:
(w − w1 )(w − w2 )(w − w3 )
= w3 − (w1 + w2 + w3 ) w2 + (w1 w2 + w1 w3 + w2 w3 ) w − w1 w2 w3
= w3 + 3pw + 2q.
Für die letzte Gleichung haben wir die Formeln (2.25), (2.26) und (2.27) eingesetzt. Die noch
fehlende Formel (2.28) rechnet man auf ähnliche Weise nach.
Beispiel 2.128. Wir suchen die Lösungen der kubischen Gleichung mit reellen Koeffizienten:
z 3 − 6z 2 + 21z − 52 = 0. (2.29)
Hierbei ist a0 = −52, a1 = 21, a2 = −6 und a3 = 1. Zunächst eliminieren wir den quadratischen
Term mittels der Substitution
a2
w=z+ = z − 2.
3a3
Dann ist (2.29) äquivalent zu
w3 + 3pw + 2q = 0, (2.30)
wobei
a22 a1
3p = − + = 9, also p = 3,
3a32 a3
120 2. Matrixrechnung
und
2a23 a1 a2 a0
2q = − + = −26, also q = −13
27a33 3a32 a3
D = p3 + q 2 = 196.
und damit
√3 √3
u+ = 27 = 3 und u− = −1 = −1.
u+ · u− = 3 · (−1) = −3 = −p
erfüllt ist. Insbesondere bei kubischen Gleichungen mit komplexen Koeffizienten darf man
nicht vergessen zu überprüfen, dass man die
„richtigen“ dritten Wurzeln
gewählt hat.
√ √
Mit den dritten Einheitswurzeln ρ+ = − 2 1 − 3i und ρ− = − 2 1 + 3i können wir hier
1 1
w1 = u+ + u− = 3 − 1 = 2,
3 √ 1 √ √
w2 = ρ+ u+ + ρ− u− = − 1 − 3i + 1 + 3i = −1 + 2 3i,
2 2
3 √ 1 √ √
w3 = ρ− u+ + ρ+ u− = − 1 + 3i + 1 − 3i = −1 − 2 3i.
2 2
Die Rücksubstitution
a2
zi = wi − = wi + 2
3a3
liefert schließlich die Lösungen von (2.29) zu
√ √
z1 = 4 sowie z2 = 1 + 2 3i und z3 = 1 − 2 3i.
Hierbei sind z2 und z3 zueinander komplex konjugiert. Die Lösungsmenge ist symmetrisch,
da z3 aus z2 durch Konjugation, d.h. durch Spiegelung an der reellen Achse hervorgeht.
Polynomiale Gleichungen mit reellen Koeffizienten ai ∈ R für alle i ∈ {0, . . . , n} , n ≥ 1,
besitzen stets symmetrische Lösungsmengen.
2.6. Aufgaben 121
2.6. Aufgaben
2.1. Entscheiden Sie, ob die folgenden Mengen M Untervektorräume des Rn sind. Geben Sie
einen Beweis an, falls dies der Fall ist, und andernfalls ein Beispiel für eine Eigenschaft eines
Untervektorraums von Rn , die verletzt ist. Skizzieren Sie diese Mengen.
a) M = {(x, y) ∈ R2 | (x − y)(x + y) = 0} ⊂ R2 .
b) M = {(x, y, z) ∈ R3 | x 2 − z = 0} ∩ {(x, y, z) ∈ R3 | z ≤ 0}
c) M = {(x1, . . . , xn ) ∈ Rn | nk=1 (−1)k xk = 0} (Skizze für n = 3)
d) M = {(x1, . . . , xn ) ∈ Rn | nk=1 xk3 = 0} (Skizze für n = 2)
2.2. Sei V ⊂ Rn ein Untervektorraum und seien v1, . . ., vm ∈ V. Zeigen Sie durch vollständige
Induktion nach m, dass
L(v1, . . ., vm ) ⊂ V .
2.3. Zeigen Sie die verbleibenden Rechenregeln für Matrizen aus Satz 2.12.
(λ + μ) · A = λ · A + μ · A.
(λ · μ) · (A · B) = (λ · A) · (μ · B).
5Künstler: Johan Görbitz, Quelle: Institut für Mathematik der Universität Oslo, http://de.wikipedia.org/
wiki/Niels_Henrik_Abel
6Stand vom August 2018
122 2. Matrixrechnung
A · (B + C) = A · B + A · C.
x −2y +5z = 0
−3x +6y −4z = 0
−y +3z = 0
2x −3y −z = −1
5x −2y +14z = 3
−x −4z = −1
c) Bestimmen Sie die Lösungsmenge des folgenden linearen Gleichungssystems in den Va-
riablen x, y, z, w in Abhängigkeit von den Parametern s, t ∈ R (d.h. die Lösungsmenge ist
für jede Kombination von Parametern s, t ∈ R anzugeben):
x −2y −w = t−2
2x +4z +2w = 2t + 4
3x +y +2z +4w = 3 − 2t
2y −z +2w = s 2 − 3t
−2
−2
1
4
2 −3 2 0
w1 = , w2 = , w3 = , w4 =
0 5 −3 −6
−4 6 −4 1
und sei V := L(w1, . . ., w4 ). Bestimmen Sie eine Basis von V. Welche Dimension hat V?
−1 2 3
a1 = 1 ,
a2 = 3 ,
a3 = −3 .
6 −3 4
Zeigen Sie zunächst, dass a1, a2, a3 eine Basis von R3 bilden.
2.6. Aufgaben 123
c) Wir definieren nun eine Matrix A, indem wir die Vektoren a1, a2, a3 nebeneinander schrei-
ben, und geben eine weitere Matrix B vor:
−1 2 3 1 −1 1
A := 1 3 −3 , B := 0 0 1 .
6 −3 4 1 1 0
Finden Sie eine Matrix C ∈ Mat(3 × 3, R), so dass gilt :
A = B · C.
Hinweis: Sie können C dadurch erhalten, dass Sie die Gleichung A = B · C als LGS mit
den Einträgen von C als Unbekannte auffassen.
d) Ist die Matrix C eindeutig bestimmt? Begründen Sie Ihre Antwort kurz! Sie dürfen dabei
ohne Beweis verwenden, dass die Spalten von B eine Basis von R3 bilden.
A· x = b
0 4 −2 0 2
2
2 1 3 −1 2 −2
A = 3 0 2 5 −1 und b = 6 .
−1 2 1 −1 4 −3
1 2 1 −3 2 −3
Nutzen Sie dabei den Gauß-Algorithmus zur Bestimmung des Rangs einer Matrix.
b) Bestimmen Sie alle b = (b1, b2, b3 ) ∈ R3 , so dass das Gleichungssystem
2 −4 8 x b
1
1
−1 2 −4 · x2 = b2
1 −2 4 x 3 b 3
lösbar ist. Geben Sie für diese b die Lösungsmenge Lös(A, b) in Abhängigkeit von b an.
124 2. Matrixrechnung
2.9. Beweisen Sie die folgenden Aussagen, falls sie wahr sind, bzw. geben Sie ein Gegenbei-
spiel, falls sie falsch sind:
2.10. Sei v := (1, 2) ∈ R2 . Wir betrachten die Gerade G := G0,v ⊂ R2 und definieren eine
Abbildung
x − 35 54 x
SG : R → R ,
2 2
→ 4 3 · ,
y 5 5 y
die die Ebene R2 in sich abbildet. Geometrisch ist SG die Spiegelung an der Geraden G. Im
folgenden sollen einige Eigenschaften der Spiegelung verfiziert werden:
a) Berechnen Sie SG (p) für p1 = (2, 4) und p2 = (−1, 3) . Machen Sie eine Skizze von G,
den Punkten p1, p2 sowie deren Bildern unter SG .
b) Zeigen Sie, dass SG das Skalarprodukt erhält, d.h. zeigen Sie, dass für alle x, y ∈ R2 gilt:
d) Zeigen Sie, dass für alle Vektoren v ∈ R2 , die auf G senkrecht stehen, gilt: SG (v) = −v.
M1 = {z ∈ C | Im(z)/Re(z) ≤ 1},
M2 = {z ∈ C | 1 ≤ |z| ≤ 2 und |Re(z)/Im(z)| ≤ 1}.
2.6. Aufgaben 125
b) Sei a ∈ C \ {0}. Zeigen Sie, dass die Gleichung z 2 = a zwei Lösungen z hat. Eine davon ist
gegeben durch
|a| + Re(a) |a| − Re(a)
Re(z) = , Im(z) =
.
2 2
Dabei ist
+1, falls Im(a) ≥ 0,
=
−1, falls Im(a) < 0.
Die andere Lösung ist das Negative hiervon.
2.14. a) Zeigen Sie: Für alle z, w ∈ C = R2 gilt z, w = Re(zw). Folgern Sie daraus, dass z
und w genau dann orthogonal aufeinander stehen, wenn wz imaginär ist.
b) Seien a, b ∈ C \ {0}. Zeigen Sie, dass die Abbildungen R, S : C → C, definiert durch
R(z) := az und S(z) := bz, die Winkel erhalten, d.h. es gilt für alle z, w ∈ C \ {0}:
S(z),S(w) z,w
S(z)·S(w) = z·w (und analog für R).
Anleitung:
1. Überlegen Sie sich zunächst, dass nur a = T(1) in Frage kommt.
T (1)
2. Folgern Sie mit a): T (i) = i μ für ein μ ∈ R.
3. Nutzen Sie (ii) um zu zeigen, dass T die angegebene Form hat.
2.15. Keine Panik, die Aufgabe ist nicht halb so lang wie sie aussieht und sie erfordert auch
keine Kenntnisse der Elektrotechnik!
Zunächst zum Hintergrund: In der Elektrotechnik werden komplexe Zahlen zur Beschreibung
frequenzabhängiger Schaltungen verwendet. Eine Wechselspannung Uω : R → R, Uω (t) :=
U0 · cos(ωt), wird an eine Schaltung angelegt. Dabei heißen ω ∈ R+ die Frequenz und U0 ∈ R+
die Amplitude. Durch die Schaltung fließt dann ein Strom der Stärke Iω : R → R, der sich am
besten mit komplexen Zahlen beschreiben lässt. Dazu setzt man UωC (t) := U0 · eiωt . Aus den
Gesetzen der Physik folgt nun, dass sich die Stromstärke durch Iω (t) = Re(IωC (t)) berechnen
lässt, wobei die Größen UωC und IωC in der folgenden Beziehung stehen:
UωC (t) = Zω · IωC (t).
126 2. Matrixrechnung
Die komplexe Zahl Zω ∈ C heißt komplexe Impedanz der Schaltung. Sie hängt von ω, aber
nicht von t ab. Die Impedanzen von Widerständen, Kondensatoren und Induktivitäten (von
links nach rechts dargestellt) sind aus der Literatur bekannt:
Z R,ω = R ZC,ω = 1
iωC
Z L,ω = iωL
Z1
Z1 Z2
Z1
Zges = Z1 + Z2 −1 = Z −1 + Z −1
Zges 1 2
C R L
(1)
R
(3)
C L R C
(2)
Abb. 63 Bauteilkombinationen
c) Die Größe |IωC (t)| = | ZUω0 | hängt nur von ω und nicht von t ab. Sie beschreibt, wie gut
die Schaltung eine Signal der Frequenz ω „durchlässt“. Berechnen Sie |IωC | für die 3
Schaltungen aus Teil b) und skizzieren Sie sie in Abhängigkeit von ω. Für die Skizzen
können Sie U0 = R = 1, L = C = 3 sowie 0 < ω < 2 verwenden.
3. Algebraische Grundbegriffe
(Immanuel Kant
Anthropologie in pragmatischer
Hinsicht)
Wir haben bislang hauptsächlich konkret im Rn , oft speziell im R2 gerechnet. Rechnen bedeu-
tete dabei z.B. das Addieren von reellen oder komplexen Zahlen oder auch von Vektoren oder
Matrizen sowie das Multiplizieren von Zahlen oder Matrizen. Dabei haben wir festgestellt,
dass manche der von den reellen Zahlen gewohnten Rechenregeln sich übertragen, wie z.B.
das Assoziativgesetz für Addition und Multiplikation, andere jedoch gelegentlich nicht; so gilt
z.B. das Kommutativgesetz für die Matrixmultiplikation nicht. Aus den gültigen elementaren
Rechenregeln lassen sich weitere herleiten. Damit wir nun nicht in jedem Fall wieder erneut
überlegen müssen, welche Regeln denn nun gelten und welche nicht, abstrahieren wir das
Rechnen. Dies dient der Übersicht und der Arbeitsersparnis. Wir führen abstrakte Rechenope-
rationen ein, für die wir möglichst wenige Rechenregeln voraussetzen. Dann untersuchen wir,
welche anderen Regeln daraus folgen.
Definition 3.1. Eine Halbgruppe ist ein Paar (G, ∗), wobei G eine Menge ist und ∗ eine
Abbildung
∗ : G × G → G,
(g1, g2 ) → g1 ∗ g2,
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_3
128 3. Algebraische Grundbegriffe
Die Elemente von G sind die Objekte mit denen gerechnet wird (Zahlen, Vektoren, . . . )
und die Abbildung ∗ ist die Rechenoperation. Daher schreiben wir auch g1 ∗ g2 statt wie
sonst bei Abbildungen eher gewohnt ∗(g1, g2 ). Eine Halbgruppe zu haben, heißt also eine
Rechenoperation zu haben, für die das Assoziativgesetz gilt.
Beispiel 3.2. Wir kennen schon eine ganze Reihe von Beispielen:
G ∗
N +
N0 +
N ·
N0 ·
Z ·
Mat(n × n, R) · (Matrixmultiplikation)
Abb(X, X) ◦ (Verkettung)
Tatsächlich kennen wir bereits sehr viel mehr Halbgruppen, aber zu diesen anderen Beispielen
kommen wir gleich, da sie besser als Halbgruppen sind.
Definition 3.3. Sei (G, ∗) eine Halbgruppe. Ein Element e ∈ G heißt neutrales Element,
falls für alle g ∈ G gilt
g ∗ e = e ∗ g = g.
Beispiel 3.4. Alle bis auf eine der Halbgruppen aus Beispiel 3.2 besitzen ein neutrales Element.
G ∗ e
N + nicht vorhanden
N0 + 0
N · 1
N0 · 1
Z · 1
Mat(n × n, R) · 1n
Abb(X, X) ◦ id X
Hierbei ist
1
1n = . . .
1
Kann eine Halbgruppe auch mehr als ein neutrales Element haben? Die Antwort lautet „nein“!
Wir brauchen in den obigen Beispielen also gar nicht nach weiteren neutralen Elementen zu
suchen.
Proposition 3.5. Sei (G, ∗) eine Halbgruppe und seien e, e ∈ G neutrale Elemente. Dann
gilt
e = e .
Beweis. Wir benutzen, dass e und e neutrale Elemente sind, und erhalten
e = e ∗ e = e .
Oft möchte man eine Rechenoperation rückgängig machen, also umkehren. Bei der Addition
heißt das, man möchte subtrahieren, und bei der Multiplikation bedeutet es zu dividieren. Dies
führt auf das Konzept des inversen Elements zu einem gegebenen Element einer Halbgruppe.
Dazu müssen wir voraussetzen, dass die Halbgruppe ein neutrales Element besitzt.
130 3. Algebraische Grundbegriffe
Definition 3.6. Sei (G, ∗) eine Halbgruppe mit neutralem Element e und sei g ∈ G. Ein
Element h ∈ G heißt inverses Element zu g, falls gilt:
h ∗ g = g ∗ h = e.
Im Gegensatz zum neutralen Element, das durch die Halbgruppe eindeutig bestimmt ist, wenn
es denn existiert, hängt das inverse Element vom Element g ab. Dann ist es allerdings eindeutig:
Proposition 3.7. Sei (G, ∗) eine Halbgruppe mit neutralem Element e. Dann hat jedes g ∈ G
höchstens ein inverses Element.
h = h ∗ e = h ∗ (g ∗ h) = (h ∗ g) ∗ h = e ∗ h = h.
Da das inverse Element eines invertierbaren Elements g ∈ G eindeutig ist, schreiben wir oft
g −1 dafür, jedenfalls dann, wenn man die Rechenoperation ∗ multiplikativ schreibt, also etwa
· oder ◦. Schreibt man die Rechenoperation ∗ hingegen additiv, d.h. +, dann schreibt man für
das inverse Element −g. Wollen wir das nicht genauer spezifizieren, z.B. weil wir Aussagen
über allgemeine Halbgruppen machen, dann benutzen wir die multiplikative Variante g −1 .
Notation 3.8. Ist (G, ∗) eine Halbgruppe mit neutralem Element e, dann bezeichnen wir die
Menge der invertierbaren Elemente von G mit G× .
Beispiel 3.9. Hier einige Beispiele für die Menge der invertierbaren Elemente.
G ∗ e G×
N0 + 0 {0}
N · 1 {1}
N0 · 1 {1}
Z · 1 {−1, 1}
Abb(X, X) ◦ id X { f ∈ Abb(X, X) | f ist bijektiv}
Tab. 15 Beispiele für invertierbare Elemente in Halbgruppen
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 131
Proposition 3.10. Sei (G, ∗) eine Halbgruppe mit neutralem Element e. Dann gilt:
(i) Das neutrale Element ist invertierbar und sein eigenes Inverses, e ∈ G× und e−1 = e.
(ii) Sind g1, g2 ∈ G× , so ist auch g1 ∗ g2 ∈ G× und (g1 ∗ g2 )−1 = g2−1 ∗ g1−1 .
Zu (iii):
Da g −1 zu g invers ist, gilt
g ∗ g −1 = g −1 ∗ g = e.
Also ist g zu g −1 invers, d.h. g = (g −1 )−1 .
Man beachte, dass sich in der Formel für das inverse Element eines Produkts in (ii) die
Reihenfolge der Faktoren umkehrt.
Definition 3.11. Eine Gruppe ist eine Halbgruppe (G, ∗) mit neutralem Element, in der
jedes Element invertierbar ist, d.h. für die G = G× gilt.
Die Halbgruppen aus Beispiel 3.9 sind allesamt keine Gruppen, da G× stets eine echte Teilmen-
ge von G ist. Allerdings gibt es eine Ausnahme. Hat nämlich die Menge X nur ein Element, so
ist Abb(X, X) = {id X }. In diesem Fall besteht die Halbgruppe nur aus dem neutralen Element
und ist daher eine Gruppe, wenn auch keine sonderlich interessante. Eine Gruppe, die nur aus
dem neutralen Element besteht, nennen wir triviale Gruppe. Wir kennen aber durchaus auch
schon interessante Gruppen:
132 3. Algebraische Grundbegriffe
Bemerkung 3.13. Sei (G, ∗) eine Halbgruppe mit neutralem Element. Dann besagt Proposi-
tion 3.10 (ii), dass die Rechenoperation ∗ zu einer Abbildung G× × G× → G× eingeschränkt
werden kann, die wir wieder mit ∗ bezeichnen. Da das Assoziativgesetz natürlich gültig bleibt,
ist (G×, ∗) wieder eine Halbgruppe. Wegen Proposition 3.10 (i) enthält sie das neutrale Element
und wegen Proposition 3.10 (iii) ist jedes Element von G× auch in G× invertierbar. Also ist
(G×, ∗) stets eine Gruppe.
Beispiel 3.15. Sei X eine Menge. Dann bildet die Menge der bijektiven Abbildungen von X
nach X eine Gruppe bzgl. der Verkettung. Das neutrale Element ist id X . Im Fall X = Xn :=
{1, . . ., n} schreiben wir
Sn := { f : Xn → Xn | f ist bijektiv} = Abb(Xn, Xn )×
und nennen (Sn, ◦) die symmetrische Gruppe vom Grad n. Elemente von Sn , also bijektive
Abbildungen {1, . . ., n} → {1, . . ., n}, heißen Permutationen.
Für n = 1 ist S1 = {id X1 }, also die triviale Gruppe. Im Fall n = 2 gibt es genau zwei
Permutationen, die identische Abbildung und die Abbildung, die 1 und 2 vertauscht. Es gibt
zwei weitere Abbildungen {1, 2} → {1, 2}, nämlich die, die beide Elemente auf 1 bzw. beide
Elemente auf 2 abbildet, aber die sind nicht bijektiv. Daher hat S2 nur zwei Elemente.
Die Rechenoperation einer Gruppe (oder auch Halbgruppe) mit nur endlich vielen Elementen
kann man in der Verknüpfungstabelle festlegen. Dabei listet man alle Gruppenelemente,
meist beginnend mit dem neutralen Element, auf und trägt die Produkte in der Tabelle ein. Für
G = {g1, g2, . . ., gm } ergibt sich
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 133
G g1 ··· gm
g1 g1 ∗ g1 ··· g1 ∗ gm
.. .. .. ..
. . . .
gm gm ∗ g1 ··· gm ∗ gm
Tab. 17 Verknüpfungstabelle
Bezeichnen wir das nicht neutrale Element von S2 , also die Abbildung, die 1 und 2 vertauscht,
mit τ, so ergibt sich für S2 die Verknüpfungstabelle
S2 id τ
id id τ
τ τ id
Eine gebräuchliche Art, Permutationen vom Grad n anzugeben, besteht darin, die Elemente
von Xn in einer Zeile aufzulisten und die Bilder dieser Elemente unter der Permutation in der
Zeile darunter. So wäre z.B.
, -
1 2 3
id X3 =
1 2 3
während die Permutation τ1 , die 1 auf sich selbst abbildet und 2 und 3 vertauscht, gegeben ist
durch
, -
1 2 3
τ1 = .
1 3 2
, - , - , -
1 2 3 1 2 3 1 2 3
id X3 = , σ1 := , σ2 := ,
1 2 3 2 3 1 3 1 2
, - , - , -
1 2 3 1 2 3 1 2 3
τ1 := , τ2 := , τ3 := .
1 3 2 3 2 1 2 1 3
Dann sieht man leicht, dass z.B. σ1 ◦ σ1 = σ2 und τ1 ◦ τ2 = σ1 . Insgesamt ergibt sich folgende
Verknüpfungstabelle:
134 3. Algebraische Grundbegriffe
S3 id σ1 σ2 τ1 τ2 τ3
id id σ1 σ2 τ1 τ2 τ3
σ1 σ1 σ2 id τ3 τ1 τ2
σ2 σ2 id σ1 τ2 τ3 τ1
τ1 τ1 τ2 τ3 id σ1 σ2
τ2 τ2 τ3 τ1 σ2 id σ1
τ3 τ3 τ1 τ2 σ1 σ2 id
Tab. 19 Verknüpfungstabelle von S3
Definition 3.16. Sei (G, ∗) eine Gruppe und sei H ⊂ G eine Teilmenge mit folgenden
Eigenschaften:
Bemerkung 3.17. Ist H eine Untergruppe der Gruppe (G, ∗), dann kann ∗ zu einer Abbildung
H × H → H eingeschränkt werden, die wir wieder ∗ nennen. Dadurch wird (H, ∗) selbst zu
einer Gruppe.
Beispiel 3.18. Ist (G, ∗) = (S3, ◦), dann bilden z.B. H = {id, σ1, σ2 } und H = {id, τ1 } Unter-
gruppen. Dagegen ist H = {τ1 } keine Untergruppe, da id H und H̃ = {id, σ1 } ist keine
Untergruppe, da σ1 ◦ σ1 = σ2 H̃.
Beispiel 3.19. Ist (G, ∗) eine Gruppe mit neutralem Element e, dann ist H = G eine Unter-
gruppe und auch H = {e} ist eine Untergruppe. Dies sind die beiden Extremfälle, die größte
und die kleinste Untergruppe von G.
Vom Rechnen mit Zahlen kennen wir die Regel x· y = y· x, d.h. dass es nicht auf die Reihenfolge
der Faktoren ankommt. Bei Gruppen gilt dies im Allgemeinen nicht, wie wir schon bei der
Matrixmultiplikation gesehen haben. Gruppen, in denen diese Regel, das Kommutativgesetz,
gilt, verdienen einen besonderen Namen.
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 135
Definition 3.21. Eine Gruppe (G, ∗) heißt abelsch oder auch kommutativ, wenn für alle
g1, g2 ∈ G gilt:
g1 ∗ g2 = g2 ∗ g1 .
Beispiel 3.22. Alle in Beispiel 3.12 gelisteten Gruppen sind abelsch. Die symmetrische Gruppe
S3 ist nicht abelsch, da z.B. τ1 ∗ τ2 τ2 ∗ τ1 . Die Untergruppe {id, σ1, σ2 } von S3 dagegen ist
abelsch.
Bemerkung 3.23. Jede Untergruppe einer abelschen Untergruppe ist selbst wieder abelsch.
Daher ist z.B. die Gruppe der n-ten Einheitswurzeln Ωn abelsch.
Beispiel 3.24. Der (Rn, +) bildet eine abelsche Gruppe mit neutralem Element 0. Ist V ⊂ Rn
ein Untervektorraum, dann ist V eine Untergruppe, denn 0 ∈ V, mit x, y ∈ V ist auch x + y ∈ V
und auch −x = (−1) · x ∈ V.
Allerdings gibt es auch Untergruppen von (Rn, +), die keine Untervektorräume sind, z.B. Zn .
Satz 3.25 (Division mit Rest). Sei n ∈ N. Zu jedem k ∈ Z gibt es genau ein q ∈ Z und ein
r ∈ {0, 1, . . . , n − 1}, so dass gilt:
k = n · q + r.
Beweis. Wir zeigen zunächst die Eindeutigkeit von q und r. Seien dazu q, q ∈ Z und r, r ∈
{0, 1, . . ., n − 1} mit
k = n · q + r = n · q + r .
Dann folgt
n · (q − q) = r − r .
Nun ist die linke Seite durch n teilbar, die rechte Seite aber muss in {−(n − 1), . . . , 0, . . ., n − 1}
liegen. Die einzige durch n teilbare Zahl in dieser Menge ist 0. Also folgt n ·(q −q) = r −r = 0,
und daher r = r und q = q.
Nun zur Existenz von q und r. Gegeben k ∈ Z wählen wir für q die größte ganze Zahl, die
kleiner oder gleich nk ∈ Q ist. Nun setzen wir r := k − nq ∈ Z. Dann gilt schon mal die
gewünschte Gleichung in der Aussage des Satzes. Da q ≤ nk ist, gilt nq ≤ k und damit r ≥ 0.
Wäre r ≥ n, dann wäre nr ≥ 1 und somit
k −r k r k
q+1= +1= − +1 ≤ .
n n n n
Dann aber wäre q doch nicht die größte ganze Zahl ≤ nk , Widerspruch! Also muss r < n sein
und damit r ∈ {0, . . ., n − 1}.
die den Rest bei der Division durch n liefert. Die Abbildung ist also dadurch charakterisiert,
dass es für alle k ∈ Z genau ein q ∈ Z gibt mit
k = n · q + MODn (k).
Nun führen wir auf Z/n := {0, . . ., n − 1} (sprich: Z modulo n) folgende Addition ein:
x +n y := MODn (x + y).
Für n = 12 ist das genau das Rechnen mit Uhrzeiten, abgesehen davon, dass wir statt 12 Uhr
0 Uhr sagen.
Lemma 3.26. Sei n ∈ N. Dann ist (Z/n, +n ) eine abelsche Gruppe mit neutralem Element 0.
Beweis. Wir überprüfen zunächst das Assoziativgesetz. Seien dazu x, y, z ∈ Z/n. Wir setzen
zur Abkürzung w := y + z. Dann gilt
Nun ist w − MODn (w) durch n teilbar und daher ist MODn (x + y + z + (MODn (w) − w)) =
MODn (x + y + z). Also gilt:
x +n (y +n z) = MODn (x + y + z).
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 137
x +n y = MODn (x + y) = MODn (y + x) = y +n x.
Falls also (Z/n, +n ) eine Gruppe ist, so ist sie eine abelsche Gruppe.
Bleibt noch die Existenz inverser Elemente nachzuweisen. Zu x ∈ Z/n setze y := MODn (−x).
Dann ist x + y = x + MODn (−x) = MODn (−x) − (−x) durch n teilbar und daher gilt:
x +n y = MODn (x + y) = 0.
Wegen des bereits nachgewiesenen Kommutativgesetzes gilt auch y+n x = 0. Also ist y inverses
Element zu x.
Z/3 0 1 2 Z/4 0 1 2 3
Z/2 0 1
0 0 1 2 0 0 1 2 3
0 0 1 1 1 2 3 0
1 1 2 0
1 1 0 2 2 3 0 1
2 2 0 1
Tab. 20 Verknüpfungstabelle 3 3 0 1 2
von Z/2 Tab. 21 Verknüpfungstabelle von
Z/3 Tab. 22 Verknüpfungstabelle von Z/4
Neben den für Uhrzeiten wichtigen Fällen n = 12 und n = 24 gibt es weitere besonders
bedeutende Beispiele. Mit n = 10 erhalten wir die Regeln der Addition ganzer Zahlen an den
einzelnen Ziffern im Dezimalsystem. Jede Ziffer kann nur die Werte aus Z/10 = {0, 1, . . . , 9}
annehmen und die Addition ist in jeder Ziffer (bei Berücksichtigung des Übertrags aus der
vorherigen Ziffer) genau die Addition +10 . Computer rechnen intern nicht im Dezimalsystem,
sondern im Binärsystem, benutzen also +2, oder aber auch im Hexadezimalsystem und benutzen
dabei +16 .
Neben den Gruppen selbst sind auch Abbildungen zwischen zwei Gruppen wichtig, die die
Rechenoperation respektieren.
Definition 3.27. Seien (G, ∗) und (H, •) Gruppen. Wir nennen eine Abbildung f : G → H
einen Homomorphismus oder genauer einen Gruppenhomomorphismus, wenn für alle
g1, g2 ∈ G gilt:
f (g1 ∗ g2 ) = f (g1 ) • f (g2 ).
138 3. Algebraische Grundbegriffe
Beispiel 3.28. Sei (G, ∗) = (H, •) = (Z, +). Fixiere ein m ∈ Z und setze fm : Z → Z,
fm (k) := m · k. Dann gilt für alle k, l ∈ Z:
fm (k + l) = m · (k + l) = m · k + m · l = fm (k) + fm (l) .
Somit ist fm ein Gruppenhomomorphismus von (Z, +) nach (Z, +).
Beispiel 3.29. Seien (G, ∗) = (R, +) und (H, •) = (R+, ·). Hierbei ist R+ die Menge der positiven
reellen Zahlen. Für f (x) = e x gilt
f (x + y) = e x+y = e x · e y = f (x) · f (y).
Proposition 3.30. Seien (G, ∗) und (H, •) Gruppen mit neutralem Element eG bzw. eH . Sei
f : G → H ein Homomorphismus. Dann gilt:
(i) Das neutrale Element von G wird auf das von H abgebildet, f (eG ) = eH .
Beweis. Zu (i):
Zunächst einmal gilt
f (eG ) = f (eG ∗ eG ) = f (eG ) • f (eG ).
Nun multiplizieren wir die Gleichung von links mit dem inversen Element f (eG )−1 von f (eG )
und erhalten
eH = f (eG )−1 • f (eG ) = f (eG )−1 • ( f (eG ) • f (eG ))
= ( f (eG )−1 • f (eG )) • f (eG ) = eH • f (eG ) = f (eG ).
Zu (ii):
Wir berechnen
(i)
f (g −1 ) • f (g) = f (g −1 ∗ g) = f (eG ) = eH
und analog
(i)
f (g) • f (g −1 ) = f (g ∗ g −1 ) = f (eG ) = eH .
Daher ist f (g −1 ) das inverse Element zu f (g), d.h. f (g −1 ) = f (g)−1 .
Zu (iii):
Sei f bijektiv und seien h, h ∈ H. Da f ein Homomorphismus ist, gilt
f ( f −1 (h) ∗ f −1 (h)) = f ( f −1 (h)) • f ( f −1 (h)) = h • h.
Wenden wir f −1 auf die linke und die rechte Seite dieser Gleichung an, so erhalten wir
f −1 (h) ∗ f −1 (h) = f −1 (h • h) .
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 139
Beispiel 3.31. Für (G, ∗) = (R, +) und (H, •) = (R+, ·) und f (x) = e x die e-Funktion liefert
Proposition 3.30:
(i) e0 = 1,
(ii) e−x = 1
ex ,
Sind zwei Gruppen (G, ∗) und (H, •) isomorph, so schreiben wir hierfür (G, ∗) (H, •) oder
etwas ungenauer G H. In diesem Fall kann jede Rechnung in der einen Gruppe mit Hilfe
des Isomorphismus in eine entsprechende Rechnung in der anderen Gruppe übersetzt werden.
Die Gruppen (R, +) und (R+, ·) sind al-
so isomorph. Somit kann die Multipli-
kation positiver reeller Zahlen auf die
Addition reeller Zahlen zurückgeführt
werden. Das hat man sich vor dem Sie- Abb. 65 Rechenschieber
geszug der Computer auf Rechenschiebern zunutze gemacht. Sie haben eine logarithmische
Skala, mit deren Hilfe man Multiplikationen dadurch durchführen kann, indem man Strecken
aneinander legt (also eigentlich eine Addition vornimmt). Im Bild ist der mittlere, bewegliche
Schieber so platziert, dass an seiner unteren Kante eine Multiplikation mit 3 vorgenommen
wird, die Werte unterhalb der Unterkante sind die Dreifachen der Werte oberhalb der Unter-
kante.
Definition 3.33. Seien (G, ∗) und (H, •) Gruppen mit neutralem Element eG bzw. eH . Sei
f : G → H ein Gruppenhomomorphismus. Dann heißt
Wie für jede Abbildung heißt im( f ) = f (G) = { f (g) | g ∈ G} das Bild von f .
140 3. Algebraische Grundbegriffe
Beweis. Zu (i):
Nach Proposition 3.30 ist f (eG ) = eH , so dass schon mal eG ∈ ker( f ) gilt.
Seien nun g, g ∈ ker( f ), d.h. f (g) = f (g) = eH . Dann ist f (g·g) = f (g)· f (g) = eH ·eH = eH .
Folglich ist g · g ∈ ker( f ).
Sei nun g ∈ ker( f ). Nach den Propositionen 3.10 und 3.30 ist dann
Zu (ii):
Sei f : G → H injektiv. Nach Proposition 3.30 ist f (eG ) = eH , d.h. eG ∈ ker( f ). Sei nun
g ∈ ker( f ) beliebig. Dann ist f (g) = eH = f (eG ), und aus der Injektivität von f folgt g = eG .
Also ist ker( f ) = {eG }.
Nun setzen wir umgekehrt ker( f ) = {eG } voraus. Seien g, g ∈ G mit f (g) = f (g). Dann gilt:
Folglich ist g · g −1 ∈ ker( f ) = {eG }. Es ist also g · g −1 = eG , d.h. g = g. Somit ist f injektiv.
Zu (iii):
Zunächst ist eH = f (eG ) ∈ im( f ).
Seien nun h, h ∈ im( f ). Wähle g, g ∈ G mit f (g) = h und f (g) = h. Dann ist
Sei nun h ∈ im( f ). Wähle g ∈ G mit f (g) = h. Dann ist nach Proposition 3.30
Damit haben wir alle Eigenschaften einer Untergruppe für im( f ) nachgeprüft.
Aussage (iv) ist klar nach Definition.
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 141
Z für m = 0,
ker( fm ) = {k ∈ Z | m · k = 0} =
{0} für m 0.
im( fm ) = {m · k | k ∈ Z} =: mZ .
Offenbar ist mZ = {0} genau für m = 0 und mZ = Z für m = ±1. Für m 0 ist mZ die
Menge der durch m teilbaren ganzen Zahlen. Somit ist fm : Z → Z genau dann surjektiv, wenn
m = ±1.
Beispiel 3.36. Sei (G, ∗) = (Z/n, +n ) und (H, •) = (Ωn, ·). Wir betrachten die Abbildung
k
f : Z/n → Ωn gegeben durch f (k) = e2πi/n = e2πik/n . Wir überprüfen zunächst, dass f ein
Gruppenhomomorphismus ist. Für k, k ∈ Z/n unterscheiden sich k +n k und k + k allenfalls
durch ein Vielfaches von n, d.h. k +n k = k + k + nm für ein m ∈ Z. Nun gilt
Nun ist k ∈ ker( f ) genau dann, wenn f (k) = e2πik/n = 1, d.h. wenn k ein Vielfaches von n
ist. Das einzige Vielfache von n in Z/n ist 0. Also ist ker( f ) = {0}. Somit ist f injektiv nach
Proposition 3.34.
Da Z/n und Ωn gleich viele Elemente haben, nämlich n Stück, ist die injektive Abbildung f nach
dem Hotelzimmerlemma 1.72 sogar bijektiv. Wir sehen also, dass f ein Isomorphismus ist und
somit (Z/n, +n ) und (Ωn, ·) isomorph sind. Das Addieren modulo n ist daher im Wesentlichen
dasselbe wie das (komplexe) Multiplizieren von n-ten Einheitswurzeln.
142 3. Algebraische Grundbegriffe
iR
Untersuchen wir zum Abschluss dieses Abschnitts über Gruppen die symmetrischen Gruppen
noch etwas genauer, weil wir sie später noch einmal benötigen werden.
Eine Transposition vertauscht also zwei Elemente i und j und bildet alle anderen auf sich selbst
ab. Insbesondere erfüllt jede Transposition σ 2 = id. Jede Transposition ist ihr eigenes inverses
Element.
Die Transpositionen von S3 sind, in der auf Seite 133 verwendeten Notation, genau die Permu-
tationen τ1 , τ2 und τ3 .
Lemma 3.38. Sei n ∈ N. Jede Permutation σ ∈ Sn lässt sich als Verkettung von Transposi-
tionen schreiben.
Das Lemma besagt also, dass wir für jedes σ ∈ Sn Transpositionen τ1, . . ., τN ∈ Sn finden
können, so dass
σ = τ1 ◦ . . . ◦ τN .
2Künstler der linken Abbildung: gustavorezende, Quelle: https://openclipart.org/detail/182053
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 143
Dabei verwenden wir die Konvention, dass auch die Verkettung von N = 0 Transpositionen
erlaubt sein soll und als die Identität id definiert ist.
Beweis. Wir zeigen das Lemma durch Induktion nach dem Grad n.
Induktionsanfang: n = 1. Hier ist die Aussage trivial, da S1 = {id} und die Identität die
Verkettung von 0 Transpositionen ist.
Induktionsschritt: n ≥ 2. Sei σ ∈ Sn . Wir betrachten die beiden Fälle σ(n) = n und σ(n) n
separat.
1. Fall: σ(n) = n. Dann bildet die Einschränkung von σ auf Xn−1 die Menge Xn−1 wieder
auf Xn−1 ab. Es ist also σ| Xn−1 ∈ Sn−1 . Nach Induktionsannahme gibt es Transpositionen
τ1, . . . , τN ∈ Sn−1 so dass
σ| Xn−1 = τ1 ◦ . . . ◦ τN .
Wir setzen die Transpositionen τj von Xn−1 zu Transpositionen τj auf Xn fort, indem wir setzen
τ (k) für k ∈ Xn−1,
τj (k) := j
n für k = n.
Dann gilt σ = τ1 ◦ . . . ◦ τN , wie gewünscht.
2. Fall: σ(n) n. Sei τ0 die Transposition, die n und σ(n) vertauscht. Dann bildet die
Permutation τ0 ◦ σ das Element n auf sich ab. Nach dem ersten Fall, angewandt auf τ0 ◦ σ,
gibt es also Transpositionen τ1, . . ., τN , so dass
τ0 ◦ σ = τ1 ◦ . . . ◦ τN .
Wir verketten von links mit τ0 und erhalten unter Benutzung von τ02 = id, dass
σ = τ0 ◦ τ1 ◦ . . . ◦ τN .
Wieder haben wir σ als Verkettung von Transpositionen geschrieben.
Ist σ ∈ Sn eine Permutation und {i, j} ⊂ Xn eine 2-elementige Teilmenge, dann setzen wir
1, falls j − i und σ( j) − σ(i) dasselbe Vorzeichen haben,
ε(σ, i, j) :=
−1, falls j − i und σ( j) − σ(i) entgegengesetztes Vorzeichen haben.
Nach Definition gilt stets ε(σ, i, j) = ε(σ, j, i).
Definition 3.40. Für σ ∈ Sn bilden wir das Produkt der Epsilons über alle 2-elementigen
Teilmengen von Xn und nennen
sgn(σ) := ε(σ, i, j) ∈ {−1, 1} = Ω2
1≤i< j≤n
Die Bedingung i < j bei der Produktbildung stellt sicher, dass jede 2-elementige Teilmenge
von Xn nur einmal vorkommt.
Beweis. Seien σ, σ ∈ Sn . Man überlegt sich durch Fallunterscheidung leicht, dass für jede
2-elementige Teilmenge {i, j} ⊂ Xn gilt
Wir berechnen
sgn(σ1 ◦ σ2 ) = ε(σ1 ◦ σ2, i, j)
i< j
= (ε(σ1, σ2 (i), σ2 ( j)) · ε(σ2, i, j))
i< j
= ε(σ1, σ2 (i), σ2 ( j)) · ε(σ2, i, j). (3.1)
i< j i< j
Nun haben wir i< j ε(σ2, i, j) = sgn(σ2 ). Da σ2 bijektiv ist, wird im ersten Produkt
ebenfalls über alle 2-elementigen Teilmengen von Xn multipliziert. Es gilt also auch
3.2. Zwei Rechenarten im Zusammenspiel: Ringe und Körper 145
i< j ε(σ1, σ2 (i), σ2 ( j)) = k<l ε(σ1, k, l) = sgn(σ1 ). Setzen wir dies in (3.1) ein, erhalten
wir
sgn(σ1 ◦ σ2 ) = sgn(σ1 ) · sgn(σ2 ).
Aus Lemma 3.38 wissen wir, dass wir jede Permutation σ als Verkettung von Transpositionen
schreiben können, σ = τ1 ◦ . . . ◦ τN . Aufgabe 3.6 zusammen mit Lemma 3.42 liefert nun
sgn(σ) = sgn(τ1 ◦ . . . ◦ τN ) = sgn(τ1 ) · · · sgn(τN ) = (−1)N .
Das Signum einer Permutation ist also −1 hoch die Anzahl der Transposition, die man braucht,
um σ als ihre Verkettung zu schreiben. Diese Anzahl ist nicht eindeutig durch σ bestimmt. So
gilt ja z.B. id = τ2 = τ4 = . . . für jede Transposition τ. Für σ = id ist also N = 0, N = 2,
N = 4 usw. möglich. Dagegen ist ein ungerades N nicht möglich, weil sgn(id) = 1.
Wir können es also so ausdrücken: sgn(σ) ist +1, wenn sich σ als Verkettung von einer geraden
Anzahl von Transpositionen schreiben lässt, und sgn(σ) = −1, wenn sich σ als Verkettung von
ungerade vielen Transpositionen schreiben lässt.
Definition 3.44. Ein Ring ist ein Tripel (R, +, ·), so dass gilt:
1. (R, +) ist eine abelsche Gruppe.
2. (R, ·) ist eine Halbgruppe.
3. Es gelten die Distributivgesetze: für alle a, b, c ∈ R ist sowohl
a · (b + c) = a · b + a · c als auch (a + b) · c = a · c + b · c.
146 3. Algebraische Grundbegriffe
Bei der Formulierung der Distributivgesetze haben wir wieder die Punkt-vor-Strich-Konvention
benutzt; so ist z.B. mit a · b+a · c eigentlich (a · b)+(a · c) gemeint. Die Distributivgesetze regeln
das Zusammenspiel der beiden fundamentalen Rechenarten + und ·. Anschaulich gesprochen
besagen sie, dass wir stets ausmultiplizieren können.
In einem Ring können wir also addieren, subtrahieren und multiplizieren, im Allgemeinen aber
nicht dividieren, da (R, ·) nur eine Halbgruppe ist und daher die Existenz inverser Elemente
bzgl. · nicht gesichert ist.
Beispiel 3.45. Die ganzen Zahlen R = Z bilden mit der üblichen Addition und Multiplikation
einen Ring. Gleiches gilt für R = Q, R = R und R = C, nicht aber für R = N, weil (N, +) keine
Gruppe ist.
Beispiel 3.46. Sei X eine Menge und R = Abb(X, R). Für zwei Abbildungen f , g ∈ R definie-
ren wir die Addition und die Multiplikation punktweise, d.h. für alle x ∈ X setzen wir
Dann überprüft man leicht, dass R mit dieser punktweisen Addition und Multiplikation einen
Ring bildet. Das neutrale Element der Addition ist die Nullfunktion gegeben durch f (x) = 0
für alle x ∈ X, das additive Inverse zu g ∈ R ist −g, das gegeben ist durch (−g)(x) = −g(x).
Wenn man alle Ringeigenschaften für R = Abb(X, R) überprüft, stellt man fest, dass man für R
lediglich die Ringeigenschaften benutzt. Daher kann dieses Beispiel folgendermaßen verallge-
meinert werden: Ist X eine Menge und R ein Ring, dann ist R := Abb(X, R) mit punktweiser
Addition und Multiplikation wieder ein Ring. Insbesondere sind Abb(X, Z), Abb(X, Q) und
Abb(X, C) Ringe mit punktweiser Addition und Multiplikation.
Beispiel 3.47. Sei n ∈ N. Dann bildet R = Mat(n × n, R) einen Ring mit komponentenweiser
Addition und Matrixmultiplikation, siehe Satz 2.12.
Beispiel 3.48. Wir führen auf Z/n = {0, . . ., n − 1} eine Multiplikation ein, indem wir ähnlich
wie bei der Addition definieren
x ·n y = MODn (x · y).
Dann bildet (Z/n, +n, ·n ) einen Ring. Siehe Aufgabe 3.9 a) für die Einzelheiten.
Bislang hatten unsere Matrizen stets reelle Zahlen als Einträge. Tatsächlich haben wir beim
Rechnen mit Matrizen nie davon Gebrauch gemacht, dass wir speziell reelle Zahlen als Einträge
verwendet haben. Wir haben lediglich benutzt, wie man mit reellen Zahlen rechnet, genau
genommen mussten wir lediglich wissen, wie die Rechenregeln für Addition und Multiplikation
lauten. Diese machen aber gerade die Definition von Ringen aus. Daher ändert sich kaum etwas,
wenn wir von jetzt ab auch Matrizen zulassen, deren Einträge aus einem einmal festgelegten
Ring stammen und nicht notwendigerweise aus R.
3.2. Zwei Rechenarten im Zusammenspiel: Ringe und Körper 147
Definition 3.49. Sei (R, +, ·) ein Ring. Eine m × n-Matrix mit Einträgen in R ist ein rechte-
ckiges Schema der Form
A11 · · · A1n
.. .. ..
.
. . ,
Am1 · · · Amn
wobei Ai j ∈ R für alle i ∈ {1, . . . , m} und j ∈ {1, . . . , n} ist.
Die Menge aller m × n-Matrizen mit Einträgen in R wird als Mat(m × n, R) geschrieben.
Wieder nennen wir eine 1 × n-Matrix Zeilenvektor und eine m × 1-Matrix Spaltenvektor. Die
transponierte Matrix entsteht wie gehabt durch Vertauschung der Spalten- und Zeilenindizes.
Wir verwenden wieder die Konvention, dass die Elemente aus Rn stets Spaltenvektoren, d.h.
n × 1-Matrizen sind.
Die Rechenoperationen mit Matrizen sind wie im Fall reeller Einträge erklärt:
◦ Addition von Matrizen: Seien A, B ∈ Mat(m × n, R) Matrizen, die in Höhe und Breite
übereinstimmen. Dann ist die Addition komponentenweise definiert,
(A + B)i j = Ai j + Bi j .
◦ Multiplikation von Matrizen mit Skalaren: Die Skalare sind jetzt die Elemente aus dem
Ring R. Für A ∈ Mat(m × n, R) mit Einträgen wie oben und λ ∈ R ist λ · A ∈ Mat(m × n, R)
definiert durch
(λ · A)i j = λ · Ai j .
◦ Multiplikation zweier Matrizen: Sei A ∈ Mat(m × n, R) und B ∈ Mat(n × k, R). Dann ist
A · B ∈ Mat(m × k, R) definiert durch
n
(A · B)i j := Ai1 · B1 j + Ai2 · B2 j + . . . + Ain · Bn j = Ail · Bl j .
l=1
Bis auf eine Ausnahme bleiben alle Rechenregeln aus Satz 2.12 gültig:
Satz 3.50. Sei (R, +, ·) ein Ring. Matrizen mit Einträgen in R genügen den folgenden Re-
chenregeln:
(A + B) + C = A + (B + C) .
148 3. Algebraische Grundbegriffe
λ · (A + B) = λ · A + λ · B .
(λ + μ) · A = λ · A + μ · A .
(A · B) · C = A · (B · C) .
(A + B) · C = A · C + B · C .
A · (B + C) = A · B + A · C .
Der Beweis ist wörtlich derselbe wie der von Satz 2.12.
Korollar 3.51. Sei (R, +, ·) ein Ring und n ∈ N. Dann ist Mat(n × n, R) mit komponenten-
weiser Addition und Matrixmultiplikation wieder ein Ring.
Die einzige Regel aus Satz 2.12, die uns verlorengegangen ist, ist
∀λ, μ ∈ R ∀A ∈ Mat(m × n, R) ∀B ∈ Mat(n × k, R) : (λ · μ) · (A · B) = (λ · A) · (μ · B).
Für den Beweis dieser Regel haben wir nämlich die Kommutativität der Multiplikation reeller
Zahlen benutzt, aber die braucht in Ringen nicht zu gelten.
Abgesehen von dieser einen Regel können wir aber mit Matrizen mit Einträgen in einem Ring
so rechnen wie mit reellen Matrizen. Wir können also auch Matrizen mit Einträgen in Z, Q
oder C benutzen; selbst Matrizen, deren Einträge selbst wieder quadratische Matrizen sind,
wären möglich.
Definition 3.52. Ein Ring (R, +, ·) heißt kommutativ, falls auch die Multiplikation · kom-
mutativ ist, d.h. falls für alle a, b ∈ R gilt:
a · b = b · a.
3.2. Zwei Rechenarten im Zusammenspiel: Ringe und Körper 149
Ist der Ring R kommutativ, dann gilt für Matrizen mit Koeffizienten in R auch die Regel
Wir beachten allerdings, dass der Ring Mat(n × n, R) im Allgemeinen nicht kommutativ ist,
auch wenn R selbst kommutativ ist. Das hatten wir schon im Fall R = R gesehen.
Für jeden Ring (R, +, ·) bezeichnen wir das neutrale Element der Gruppe (R, +) mit 0. Sollte
die Halbgruppe (R, ·) ein neutrales Element haben, so bezeichnen wir es mit 1. In diesem Fall
sagt man, R ist ein Ring mit Eins oder auch ein unitärer Ring.
Beispiel 3.53. Mit der üblichen Addition und Multiplikation bilden R = Z, R = Q, R = R und
R = C kommutative unitäre Ringe. Dagegen ist (2Z, +, ·) zwar ein kommutativer Ring, hat aber
keine Eins.
Beispiel 3.54. Hat der Ring R eine Eins, so hat auch der Ring Mat(n × n, R) eine Eins, nämlich
die Einheitsmatrix.
Beispiel 3.55. Der Ring (Z/n, +n, ·n ) ist kommutativ und hat eine Eins. Es gilt nämlich für alle
x, y ∈ Z/n, dass x ·n y = MODn (x · y) = MODn (y · x) = y ·n x, also ist der Ring kommutativ.
Ferner haben wir für jedes x ∈ Z/n, dass x ·n 1 = MODn (x · 1) = MODn (x) = x, also ist 1
tatsächlich neutrales Element der Multiplikation.
(ii) Hat R eine Eins, dann gilt für alle x ∈ R, dass (−1) · x = −x.
Beweis. Zu (i):
Sei x ∈ R. Dann ist
0 · x = (0 + 0) · x = 0 · x + 0 · x.
Nun ziehen wir auf beiden Seiten 0 · x ab, d.h. wir addieren das additive Inverse −(0 · x) von
0 · x, und erhalten für die linke Seite 0 · x + (−(0 · x)) = 0 und für die rechte Seite
Zu (ii):
Zunächst ist −1 das additive Inverse der Eins in R. Sei x ∈ R. Es ist nun zu zeigen, dass (−1) · x
150 3. Algebraische Grundbegriffe
Wegen der Kommutativität von + gilt auch x + (−1) · x = 0, also ist (−1) · x das additive Inverse
von x, d.h. (−1) · x = −x.
Zu (iii):
Ist 1 = 0, so gilt für jedes x ∈ R:
x = 1 · x = 0 · x = 0.
Bemerkung 3.57. In der Schule haben wir gelernt, dass man auf keinen Fall durch 0 teilen
darf. Warum eigentlich nicht?
Um das zu verstehen, nehmen wir an, dass (R, +, ·) ein unitärer Ring ist und dass 0 ∈ R
multiplikativ invertierbar ist, d.h. wir können durch 0 dividieren. Dann folgt unter Verwendung
von Lemma 3.56:
1 = 0 · 0−1 = 0,
also R = {0}. Salopp formuliert: Wenn man in einem Zahlensystem, in dem die üblichen
Rechenregeln gelten, durch 0 teilen kann, dann besteht dieses Zahlensystem nur aus der 0 und
ist somit völlig uninteressant.
Definition 3.58. Sei (R, +, ·) ein Ring. Eine Teilmenge Q ⊂ R heißt Unterring, falls Q eine
Untergruppe von (R, +) ist und für alle x, y ∈ Q gilt x · y ∈ Q.
Genau wie bei Gruppen können wir die Rechenoperationen zu Abbildungen + : Q×Q → Q und
· : Q × Q → Q einschränken. Dann ist (Q, +, ·) selbst auch wieder ein Ring. Ist R kommutativ,
so auch Q.
Allerdings braucht Q nicht unitär zu sein, auch wenn R unitär ist. In anderen Worten, auch wenn
R eine Eins hat, braucht der Unterring diese Eins nicht zu enthalten. Ein einfaches Beispiel
hierfür ist R = Z und Q = 2Z, jeweils mit der üblichen Addition und Multiplikation.
Ähnlich wie bei Gruppen sind auch bei Ringen die Abbildungen, die die Rechenoperationen
erhalten, von besonderer Bedeutung.
Definition 3.59. Seien (R, +, ·) und (Q, , •) Ringe. Eine Abbildung f : R → Q heißt
Ringhomomorphismus, falls für alle x, y ∈ R gilt:
f (1) = 1.
Lemma 3.62. Seien (R, +, ·) und (Q, , •) Ringe und sei f : R → Q ein Ringhomomorphis-
mus.
(ii) Haben R und Q eine Eins und ist f surjektiv, dann ist f einserhaltend.
Beweis. Zu (i): Sei f bijektiv. Nach Proposition 3.30 ist f −1 ein Gruppenhomomorphismus
von (Q, ) nach (R, +). Bleibt zu zeigen, dass f −1 auch die Multiplikation respektiert. Seien
x, y ∈ Q. Dann gilt:
Zu (ii): Sei y ∈ Q. Da f surjektiv ist, gibt es ein x ∈ R mit f (x) = y. Wir berechnen
und analog y • f (1) = y. Somit ist f (1) neutrales Element der Halbgruppe (Q, •). Wegen der
Eindeutigkeit des neutralen Elements nach Proposition 3.5 gilt f (1) = 1.
152 3. Algebraische Grundbegriffe
In Ringen können wir addieren, subtrahieren und multiplizieren, aber in der Regel nicht
dividieren. Kann man das doch, liegt ein besonders guter Ring vor, ein so genannter Körper.
Definition 3.64. Ein kommutativer Ring (R, +, ·) heißt Körper, falls er eine Eins 1 0 hat
und alle Elemente 0 invertierbar bzgl. · sind, d.h. für die Halbgruppe (R, ·) gilt R× = R\{0}.
In einem Körper können wir durch alle Elemente 0 dividieren. In Bemerkung 3.57 haben
wir gesehen, warum wir die multiplikative Invertierbarkeit von 0 nicht fordern.
Beispiel 3.65. Die Ringe (Q, +, ·), (R, +, ·) und (C, +, ·) sind Körper. Dagegen ist (Z, +, ·) kein
Körper, da Z× = {−1, 1}.
Bemerkung 3.66. In Lemma 3.56 haben wir gesehen, dass in jedem Ring das Produkt zweier
Elemente null ist, wenn einer der beiden Faktoren null ist. Umgekehrt sind Körper stets
nullteilerfrei, d.h. ein Produkt x · y kann nur dann null sein, wenn wenigstens einer der beiden
Faktoren null ist. Sei nämlich x · y = 0 und x 0. Da wir in einem Körper sind, ist x invertierbar
und wir erhalten
y = 1 · y = (x −1 · x) · y = x −1 · (x · y) = x −1 · 0 = 0.
Ringe, die keine Körper sind, können, müssen aber nicht nullteilerfrei sein. So ist z.B. (Z, +, ·)
nullteilerfrei. Dagegen ist R = Mat(2 × 2, R) nicht nullteilerfrei, denn
1 0 0 0 0 0
· = .
0 0 0 1 0 0
Bemerkung 3.67. In einem nullteilerfreien Ring können wir die Multiplikation zu einer Ab-
bildung · : R \ {0} × R \ {0} → R \ {0} einschränken. Ist (R, +, ·) ein Körper, so bildet (R \ {0}, ·)
eine abelsche Gruppe mit neutralem Element 1.
Beweis. Es genügt, die Implikationen (1) ⇒ (2), (2) ⇒ (3) und (3) ⇒ (1) zu zeigen.
Zu „(1) ⇒ (2)“:
Da Körper stets nullteilerfrei sind, ist hier nichts zu zeigen.
Zu „(2) ⇒ (3)“:
Sei (Z/n, +n, ·n ) nullteilerfrei. Angenommen, n ist keine Primzahl. Dann können wir n als
Produkt n = p · q mit p, q ∈ {2, . . . , n − 1} ⊂ Z/n schreiben. Es gilt dann
aber p und q sind beide selbst nicht null. Also ist (Z/n, +n, ·n ) nicht nullteilerfrei, im Wider-
spruch zur Annahme.
Zu „(3) ⇒ (1)“:
Da wir bereits wissen, dass (Z/n, +n, ·n ) ein kommutativer Ring mit Eins ist, bleibt lediglich
zu zeigen, dass jedes Element von Z/n ungleich 0 ein multiplikatives Inverses hat.
Sei k ∈ (Z/n) \ {0} = {1, . . ., n − 1}. Wir wollen zeigen, dass k ein Inverses in (Z/n, ·n ) hat.
Dazu betrachten wir die Abbildung
Wir werden zeigen, dass fk injektiv ist. Wegen des Hotelzimmerlemmas 1.72 ist fk dann auch
surjektiv. Insbesondere liegt 1 im Bild von fk , d.h. es gibt ein l ∈ Z/n mit k ·n l = fk (l) = 1.
Wegen der Kommutativität von ·n gilt dann auch l ·n k = 1, d.h. l ist multiplikatives Inverses
von k wie gewünscht.
Bleibt also zu zeigen, dass fk injektiv ist. Seien l, l ∈ Z/n mit fk (l) = fk (l ). Wir haben zu
zeigen, dass l = l . Wir wissen k ·n l = k ·n l , d.h. MODn (k · l) = MODn (k · l ). Es folgt
MODn (k(l − l )) = MODn (kl − kl ) = 0. Also ist k(l − l ) durch n teilbar. Da k ∈ {1, . . . , n − 1},
ist k nicht durch n teilbar. Da n eine Primzahl ist, muss der andere Faktor l − l durch n teilbar
sein. Daher gilt
Definition 3.69. Ist n eine Primzahl, so schreibt man statt Z/n auch Fn und nennt (Fn, +n, ·n )
den Primkörper der Charakteristik n.
Das Rechnen in Primkörpern sollte nun hier geübt werden, bis es sicher
beherrscht wird: http://ueben.cbaer.eu/06.html
154 3. Algebraische Grundbegriffe
Definition 3.70. Sei (K, +, ·) ein Körper. Ist K ⊂ K ein Unterring, der selbst wieder ein
Körper ist, so heißt K Unterkörper von K.
Ein Unterring K eines Körpers K ist selbst wieder ein Körper genau dann, wenn 1 ∈ K und
für jedes λ ∈ K , λ 0, ist λ−1 ∈ K .
Beispiel 3.71. Die rationalen Zahlen Q bilden einen Unterkörper von R und R ist ein Unter-
körper von C. Dagegen bilden die ganzen Zahlen Z keinen Unterkörper von R, sondern nur
einen Unterring.
3.3. Vektorräume
Körper abstrahieren das Rechnen mit Zahlen. Nun abstrahieren wir noch das Rechnen mit
Vektoren. Dabei muss man zunächst festlegen, mit welchen Skalaren, d.h. mit Zahlen aus
welchem Körper man arbeiten will.
Definition 3.72. Sei (K, +, ·) ein Körper. Ein K -Vektorraum oder auch Vektorraum über
K ist ein Tripel (V, +, ·), wobei V eine Menge ist und + sowie · Verknüpfungen
+ : V × V → V, (v, w) → v + w,
· : K × V → V, (λ, v) → λ · v,
Das neutrale Element von (V, +) nennen wir den Nullvektor und schreiben dafür 0. Obwohl
wir dasselbe Symbol verwenden, dürfen wir die 0 ∈ K nicht mit der 0 ∈ V verwechseln. Für
v ∈ V schreiben wir für das inverse Element von v bzgl. + wieder −v.
Ist aus dem Kontext klar, welcher Körper K zugrunde gelegt ist, so spricht man auch einfach
von einem Vektorraum. Wir beachten, dass in der Liste der Forderungen unter 2. die Symbole
+ und · in mehrfacher Bedeutung vorkommen. So ist das + in λ + μ die Addition in K, das +
in λ · v + μ · v dagegen die Addition in V. Genauso ist das · in λ · μ die Multiplikation in K,
3.3. Vektorräume 155
Beispiel 3.73. Ist K ein beliebiger Körper und n ∈ N, dann bildet V = K n einen K-Vektorraum,
wobei wir die Addition in V und die Multiplikation mit Skalaren komponentenweise definieren:
v1
w1
v1 + w1
v1
λ · v1
.. .. .. . .
. + . := . sowie λ · .. := .. .
vn wn vn + wn vn λ · vn
0
.
Das neutrale Element der abelschen Gruppe (V, +) ist der Nullvektor 0 = .. . Allgemei-
0
ner bildet für n, m ∈ N sogar Mat(n × m, K) einen K-Vektorraum, wenn man Addition und
Multiplikation mit Skalaren wieder komponentenweise definiert. Man beachte, dass Matrix-
multiplikation an dieser Stelle nicht vorkommt und daher keine Rolle spielt.
Beispiel 3.74. Sei K ein Körper und X eine nichtleere Menge. Wir setzen V := Abb(X, K) und
definieren ähnlich wie in Beispiel 3.46 für zwei Abbildungen f , g ∈ V die Addition punktweise.
Auch die Multiplikation mit Skalaren λ ∈ K wird punktweise definiert. In anderen Worten,
wir setzen für alle x ∈ X:
Dann ist es nicht schwer zu überprüfen, dass (V, +, ·) ein K-Vektorraum ist.
Beispiel 3.75. Ein interessanter Spezialfall von Beispiel 3.74 ergibt sich für X = N. Dann ist
V = Abb(N, K) der K-Vektorraum der Folgen von Elementen von K.
Bemerkung 3.76. Genau genommen ist auch Beispiel 3.73 ein Spezialfall von Beispiel 3.74,
denn ein n-Tupel von Elementen aus K kann als Abbildung von {1, . . ., n} → K aufgefasst
werden. Die punktweise Addition und Multiplikation aus Beispiel 3.74 entspricht dabei der
komponentenweisen Addition und Multiplikation aus Beispiel 3.73.
Beispiel 3.77. Ist V ein K-Vektorraum und K ein Unterkörper von K, so kann man die
Multiplikation · : K × V → V einschränken zu einer Multiplikation · : K × V → V. Dadurch
wird V zu einem K -Vektorraum.
So ist z.B. V = R = R1 ein R-Vektorraum. Durch diese Einschränkungsprozedur wird R auch
zu einem Q-Vektorraum. Analog ist C ein R-Vektorraum. Diesen kennen wir allerdings schon,
denn als R-Vektorraum ist C nichts anderes als R2 .
156 3. Algebraische Grundbegriffe
Beispiel 3.78. Sei K ein Körper und seien V1, . . ., Vn Vektorräume über K. Dann erhalten wir
einen neuen K-Vektorraum V := V1 × . . . × Vn , wobei wir Addition in V und Multiplikation
mit Skalaren wie in Beispiel 3.73 komponentenweise definieren. Der einzige Unterschied zu
v1
.
Beispiel 3.73 besteht darin, dass die Komponenten v j eines Vektors v = .. nun nicht mehr
vn
Skalare aus K sind, sondern selbst Vektoren v j ∈ Vj .
Lemma 3.79. Sei (K, +, ·) ein Körper und (V, +, ·) ein K-Vektorraum. Dann gilt für alle
v ∈ V und λ ∈ K:
(i) 0 · v = 0.
(ii) λ · 0 = 0.
(iii) λ · v = 0 ⇒ λ = 0 ∨ v = 0.
Beweis. Zu (i):
Wir berechnen 0 · v = (0 + 0) · v = 0 · v + 0 · v und subtrahieren 0 · v auf beiden Seiten.
Zu (ii):
Wir berechnen λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0 und subtrahieren λ · 0 auf beiden Seiten.
Zu (iii):
Sei λ · v = 0 und λ 0. Dann folgt einerseits λ−1 · (λ · v) = (λ−1 · λ) · v = 1 · v = v und
andererseits nach (ii) λ−1 · (λ · v) = λ−1 · 0 = 0. Also ist v = 0.
(i)
Aussage (iv) folgt aus v + (−1) · v = 1 · v + (−1) · v = (1 + (−1)) · v = 0 · v = 0.
Beispiel 3.80. Sei K = F2 der Primkörper der Charakteristik 2. Der Nullvektorraum V = {0}
hat genau ein Element, den Nullvektor. Der Vektorraum V = F2 = F12 hat genau zwei Elemente,
0 und 1. Der Vektorraum V = F22 hat genau vier Elemente, V = {(0, 0), (0, 1), (1, 0), (1, 1) }.
Gibt es auch einen F2 -Vektorraum mit genau drei Elementen?
Die Antwort lautet nein. Nehmen wir an, V wäre ein F2 -Vektorraum mit genau drei Elementen.
Eines dieser Elemente ist der Nullvektor, also ist V = {0, v, w}, wobei v und w beide nicht der
Nullvektor sind und v w. Nun muss v + w auch wieder eins dieser drei Elemente sein. Es
kann v + w = v nicht gelten, da hieraus w = 0 folgen würde. Genauso kann v + w = w nicht
3.3. Vektorräume 157
gelten. Also müsste v + w = 0 sein. Addieren wir v auf beiden Seiten, so erhalten wir
v = v + 0 = v + (v + w) = (v + v) + w = (1 · v + 1 · v) + w = ((1 +2 1) · v) + w = 0 · v + w = w
im Widerspruch zu v w.
Wir verallgemeinern jetzt Definition 2.18, wo wir Untervektorräume von Rn definiert hatten.
Definition 3.81. Sei (K, +, ·) ein Körper und (V, +, ·) ein K-Vektorraum. Eine Teilmenge
W ⊂ V heißt Untervektorraum von V, wenn gilt:
1. Es ist 0 ∈ W.
Bemerkung 3.82. Ist W ein Untervektorraum von (V, +, ·), so ist W eine Untergruppe von
(V, +). Angesichts der ersten beiden Bedinungen in Definition 3.81 ist das einzige, was dazu
noch zu zeigen bleibt, dass mit v ∈ W auch −v ∈ W ist. Das folgt aus der dritten Bedingung
und Lemma 3.79 (iv).
Allerdings ist nicht jede Untergruppe von (V, +) auch ein Untervektorraum von (V, +, ·). So ist
etwa W = Zn eine Untergruppe von (Rn, +), aber kein Untervektorraum des R-Vektorraums
(Rn, +, ·). Z.B. das 21 -fache eines ganzzahligen Vektors ist im Allgemeinen nicht wieder ganz-
zahlig. Daher ist die dritte Bedingung aus Definition 3.81 verletzt.
Bemerkung 3.83. Ist W ein Untervektorraum eines K-Vektorraums (V, +, ·), dann kann man
+ und · zu Abbildungen + : W × W → W bzw. · : K × W → W einschränken. Mit dieser einge-
schränkten Addition bzw. Multiplikation wird dann W selbst auch wieder ein K-Vektorraum.
Beispiel 3.84. Für jeden K-Vektorraum V haben wir zwei extreme Untervektorräume. Der
Nullvektorraum W = {0} ist der kleinste Untervektorraum von V, da er in jedem Untervek-
torraum von V enthalten sein muss. Um zu sehen, dass der Nullvektorraum tatsächlich ein
Untervektorraum von V ist, braucht man übrigens Lemma 3.79 (ii). Andererseits ist W = V
ebenfalls ein Untervektorraum von V, sicherlich der größte.
Beispiel 3.85. Wir betrachten den R-Vektorraum V = Abb(X, R), wobei jetzt X ⊂ R ein
nichtdegeneriertes3 Intervall sein soll. In der Analysis lernt man, dass die Summe zweier
stetiger Funktionen wieder stetig ist, genauso das λ-fache einer stetigen Funktion, λ ∈ R. Die
2. und die 3. Bedingung aus Definition 3.81 sind also erfüllt für
Außerdem ist die Nullfunktion offensichtlich stetig. Somit ist W = C 0 (X, R) ein Untervektor-
raum von V = Abb(X, R).
Allgemeiner ist auch
Beispiel 3.86. Betrachten wir nun den R-Vektorraum der reellen Folgen V = Abb(N0, R) aus
Beispiel 3.75. Sei
die Menge der konvergenten Folgen. Dann lernt man wiederum in der Analysis, dass die Summe
zweier konvergenter Folgen wieder konvergiert, genauso das λ-fache einer konvergenten Folge.
Die Nullfolge ist offensichtlich konvergent. Also ist W = Konv(N0, R) ein Untervektorraum
von V = Abb(N0, R).
Beispiel 3.87. Sei (V, +, ·) ein K-Vektorraum und sei W eine möglicherweise unendliche, aber
auf jeden nicht leere Menge von Untervektorräumen von V. Dann ist der Durchschnitt
.
W= W
W ∈W
wieder ein Untervektorraum. Gehen wir rasch die drei Bedingungen aus Definition 3.81 durch.
Da jedes W ∈ W ein Untervektorraum ist, gilt 0 ∈ W für alle W ∈ W und damit 0 ∈
/
W ∈W W = W.
Seien nun v1, v2 ∈ W. Dann sind v1 und v2 in W für alle W ∈ W. Da jedes dieser W ein
/
Untervektorraum ist, ist v1 +v2 ∈ W für jedes dieser W und damit auch v1 +v2 ∈ W ∈W W =
W. Die dritte Bedingung überprüft man ähnlich.
Bemerkung 3.88. Die Vereinigung von Untervektorräumen eines Vektorraums ist im Allge-
meinen kein Untervektorraum. So sind z.B. W1 = {(x, 0) ∈ R2 | x ∈ R} und W2 = {(0, y) ∈
R2 | y ∈ R} Untervektorräume des R-Vektorraums R2 , aber W := W1 ∪ W2 ist kein Untervek-
torraum, da z.B. (1, 0) ∈ W1 ⊂ W und (0, 1) ∈ W2 ⊂ W, aber (1, 0) + (0, 1) = (1, 1) W.
Definition 3.89. Sei (V, +, ·) ein K-Vektorraum und seien W1, . . . , Wn ⊂ V Untervektor-
räume. Wir definieren die Summe durch
W1 + . . . + Wn := {v ∈ V | ∃w j ∈ W j so dass v = w1 + . . . + wn }.
Die Summe W := W1 + . . . + Wn von Untervektorräumen von V ist selbst wieder ein Untervek-
torraum von V , denn
3.3. Vektorräume 159
Kommen wir nun auf das Konzept der linearen Hülle zurück, das wir im Spezialfall des
R-Vektorraums Rn schon kennengelernt haben. Sei K ein Körper und V ein K-Vektorraum.
Sei X ⊂ V eine Teilmenge. Betrachten wir die Menge aller Untervektorräume von V , die X
enthalten,
W := {W ⊂ V | W ist Untervektorraum mit X ⊂ W }.
Diese Menge W von Untervektorräumen ist nicht leer, da V ∈ W. Dann wissen wir aus
Beispiel 3.87, dass .
L(X) := W
W ∈W
Die lineare Hülle ist also der „kleinste“ Untervektorraum von V, der X enthält.
Beispiel 3.92. Was ist die lineare Hülle der leeren Menge? In diesem Fall ist W die Menge
aller Untervektorräume von V . Insbesondere ist {0} ∈ W. Also gilt L(∅) = {0}.
Beispiel 3.93. Sei V ein K-Vektorraum und v ∈ V. Was ist L({v})? Ist v = 0, dann ist X ein
Untervektorraum, nämlich der Nullvektorraum und damit gilt gemäß Beispiel 3.91
L({0}) = {0}.
Sei nun v 0. Mit v muss jeder Untervektorraum auch alle Vielfachen von v enthalten, also
K · v ⊂ L({v}),
L({v}) = K · v.
160 3. Algebraische Grundbegriffe
Bemerkung 3.94. Ist V ein K-Vektorraum und sind X, Y ⊂ V Teilmengen mit X ⊂ Y, dann
gilt offensichtlich L(X) ⊂ L(Y ).
Das folgende Lemma besagt, dass die lineare Hülle einer Teilmenge eines Vektorraums V
genau die Vektoren aus V enthält, die sich aus den Elementen von X linear kombinieren lassen.
Lemma 3.95. Sei K ein Körper und V ein K-Vektorraum. Sei X ⊂ V eine Teilmenge, X ∅.
Dann gilt:
Beispiel 3.96. Sei K = R und V = Abb(R, R). Für jedes k ∈ N0 sei fk ∈ V gegeben durch
fk (x) = x k .
Die Elemente des Untervektorraums L(X) mit X = { fk | k ∈ N0 } nennt man Polynomfunk-
tionen. Betrachten wir nun die Funktionen gk, h k ∈ V gegeben durch
gk (x) = cos(k x) und h k (x) = sin(k x).
Dann nennt man die Elemente des Untervektorraums L(X) mit X = {gk | k ∈ N0 }∪{h k | k ∈ N}
trigonometrische Polynome.
Es gibt auch eine komplexe Version hiervon. Nehmen wir K = C und V = Abb(R, C) und
setzen wir für alle k ∈ Z
fk (x) = eik x,
dann heißen die Elemente des Untervektorraums L(X) mit X = { fk | k ∈ Z} komplexe
trigonometrische Polynome.
3.4. Basen
Als Nächstes wollen wir die Konzepte „lineare Unabhängigkeit“, „Erzeugendensystem“ und
„Basis“, die wir bislang nur für Untervektorräume des Rn kennen, auf allgemeine Vektorräume
übertragen.
3.4. Basen 161
Lemma 3.97. Sei K ein Körper und V ein K-Vektorraum. Sei X ⊂ V eine Teilmenge. Dann
sind äquivalent:
(1) Es gibt Skalare λ1, . . . , λn ∈ K, nicht alle gleich 0, sowie paarweise verschiedene
Vektoren v1, . . . , vn ∈ X mit
λ1 v1 + . . . + λn vn = 0.
λ1 · v1 + . . . + λn · vn = 0.
Ohne Einschränkung der Allgemeinheit können wir annehmen, dass λ1 0 (ansonsten num-
merieren wir um). Dann ist λ1 multiplikativ invertierbar. Multiplizieren wir in
v1 = (−λ1−1 · λ2 ) · v2 + . . . + (−λ1−1 · λn ) · vn .
Da die v j paarweise verschieden sind, liegen v2, . . ., vn ∈ X \ {v1 }. Also folgt v1 ∈ L(X \ {v1 }).
Zu „(2)⇒(3)“:
Sei v ∈ X mit v ∈ L(X \{v}). Offenbar gilt L(X \{v}) ⊂ L(X). Bleibt also L(X) ⊂ L(X \{v}) zu
162 3. Algebraische Grundbegriffe
zeigen. Sei w ∈ L(X). Gemäß Lemma 3.95 existieren dann v1, . . . , vn ∈ X und λ1, . . ., λn ∈ K
mit
w = λ1 v1 + . . . + λn vn . (3.3)
Stimmt keines der v j mit v überein, dann ist w ∈ L(X \ {v}) und wir sind fertig. Nehmen wir
also an, v stimmt mit einem der v j überein. Ohne Beschränkung der Allgemeinheit können
wir annehmen, dass v = v1 . Wegen v1 = v ∈ L(X \ {v}) gibt es wiederum nach Lemma 3.95
u1, . . ., um ∈ X \ {v} und Skalare μ1, . . ., μm ∈ K mit
v1 = μ1 u1 + . . . + μm um . (3.4)
Wir setzen (3.4) in (3.3) ein und erhalten
w = λ1 μ1 u1 + . . . + λ1 μm um + λ2 v2 + . . . + λn vn ∈ L(X \ {v}).
Zu „(3)⇒(1)“:
Sei v ∈ X mit L(X \ {v}) = L(X). Dann ist v ∈ L(X \ {v}). Also gibt es u1, . . ., um ∈ X \ {v}
und μ1, . . . , μm ∈ K mit
v = μ1 u1 + . . . + μm um .
Ohne Beschränkung der Allgemeinheit können wir annehmen, dass die Vektoren u1, . . ., um
paarweise verschieden sind (ansonsten entfernen wir bereits vorhandenes u j und addieren die
zugehörigen Koeffizienten). Dann haben wir durch
1 · v + (−μ1 )u1 + . . . + (−μm )um = 0
eine Linearkombination des Nullvektors gefunden, in der alle Vektoren paarweise verschieden
sind und nicht alle Koeffizienten gleich 0.
Bemerkung 3.98. Der Beweis zeigt auch, dass wenn v ∈ X die Bedingung (2) erfüllt, dass
dann dasselbe v auch die Bedingung (3) erfüllt und umgekehrt.
Definition 3.99. Sei K ein Körper und V ein K-Vektorraum. Eine Teilmenge X ⊂ V heißt
linear abhängig, wenn eine (und damit alle) Bedingung aus Lemma 3.97 gilt. Ansonsten
heißt X linear unabhängig.
Beispiel 3.101. Sei K = R und V = Abb(R, R). Sei X = { f , g, h}, wobei f (x) = 5, g(x) =
sin(x)2 und h(x) = cos(x)2 . Dann ist X linear abhängig, denn aus der bekannten Relation
sin(x)2 + cos(x)2 = 1
folgt
−1 · f + 5 · g + 5 · h = 0,
was eine nichttriviale Linearkombination der 0 ist.
3.4. Basen 163
λn · (kn )! · 1 = 0.
Also ist λn = 0 und wir erhalten die Gleichung λ1 fk1 + . . . + λn−1 fkn−1 = 0. Wir fahren induktiv
fort und sehen, dass alle Koeffizienten gleich 0 sein müssen.
Beispiel 3.103. Nun betrachten wir die komplexen trigonometrischen Polynome in Bei-
spiel 3.96. Sei also K = C, V = Abb(R, C) und fk (x) = eik x mit k ∈ Z. Dann ist
X = { fk | k ∈ Z} linear unabhängig. Um das einzusehen, machen wir zunächst folgende
Vorüberlegung. Wenn k = 0 ist, dann ist f0 konstant gleich 1 und wir erhalten für das Integral
∫2π
f0 (x)dx = 2π.
0
∫2π
1 ik·2π 1
fk (x)dx = [e − eik·0 ] = [1 − 1] = 0.
ik ik
0
wobei die k j paarweise verschieden sind. Für jedes j = 1, . . ., n können wir jetzt Folgendes
machen: Wir multiplizieren (3.5) mit e−ik j x und erhalten für alle x ∈ R:
λ1 ei(k1 −k j )x + . . . + λ j + . . . + λn ei(kn −k j )x = 0.
Definition 3.104. Sei K ein Körper und V ein K-Vektorraum. Eine Teilmenge X ⊂ V heißt
Erzeugendensystem von V, falls L(X) = V. Eine Teilmenge X ⊂ V heißt Basis von V, falls
X ein linear unabhängiges Erzeugendensystem von V ist.
4Komplexwertige Funktionen werden integriert, indem man Real- und Imaginärteil einzeln integriert. Der
Hauptsatz der Differential- und Integralrechnung bleibt gültig, da man ihn separat auf Real- und Imaginärteil
anwenden kann.
164 3. Algebraische Grundbegriffe
v = λ1 v1 + . . . + λn vn = μ1 v1 + . . . + μn vn,
dann ist
(λ1 − μ1 )v1 + . . . + (λn − μn )vn = 0
und wegen der linearen Unabhängigkeit ist λ j − μ j = 0 für alle j.
Beispiel 3.106. Sei K ein Körper und V = K n . Wie in Beispiel 2.40 definieren wir die Vektoren
e1, . . ., en ∈ K n . Dann ist X = {e1, . . ., en } die Standardbasis von K n . Jedes v ∈ K n kann
nämlich durch
v1
1
0
v 0 ..
2 .
v = . = v1 · . + . . . + vn ·
.. .. 0
vn 0 1
eindeutig durch die Standardbasisvektoren e1, . . ., en linearkombiniert werden.
Beispiel 3.107. Die komplexen Zahlen C betrachtet als R-Vektorraum haben die Basis {1, i}.
Jede komplexe Zahl kann ja auf eindeutige Weise aus 1 und i mit reellen Koeffizienten li-
nearkombiniert werden. Diese Koeffizienten sind der Real- und Imaginärteil der komplexen
Zahl.
Wenn wir dagegen C als C-Vektorraum betrachten, dann hat C die Basis {1}. Denn jede kom-
plexe Zahl kann eindeutig als komplexes Vielfaches von 1 geschrieben werden. Der Koeffizient
ist die komplexe Zahl selbst. In diesem Fall ist {1, i} linear abhängig und damit keine Basis.
Eine nichttriviale Linearkombination der 0 mit komplexen Koeffizienten wäre z.B.
1 · 1 + i · i = 0.
In einem solchen Fall sagen wir, {1, i} ist linear unabhängig über R, aber linear abhängig
über C.
Bemerkung 3.108. Ist K ein Körper, V ein K-Vektorraum und X ⊂ V linear unabhängig, dann
ist X eine Basis des Untervektorraums L(X).
Beispiel 3.109. Die Menge { fk | k ∈ N0 } mit fk (x) = x k bildet eine Basis des R-Vektorraums
der reellen Polynomfunktionen. Die Menge { fk | k ∈ Z} mit fk (x) = eik x bildet eine Basis des
C-Vektorraums der komplexen trigonometrischen Polynome.
3.4. Basen 165
Bemerkung 3.110. Sei X eine Teilmenge eines Vektorraums V über einem Körper K. Ist X
linear unabhängig, dann ist auch jede Teilmenge X ⊂ X linear unabhängig. Ist X ein Erzeu-
gendensystem von V, dann ist auch jede Menge X mit X ⊂ X ⊂ V ein Erzeugendensystem
von V.
Lemma 3.111. Sei V ein K-Vektorraum, sei X ⊂ V linear unabhängig und sei v ∈ V \ L(X).
Dann ist auch X ∪ {v} linear unabhängig.
Beweis. Angenommen, X ∪ {v} ist linear abhängig. Nach Kriterium (2) in Lemma 3.97 gibt
es dann ein v0 ∈ X ∪ {v} mit v0 ∈ L((X ∪ {v}) \ {v0 }). Daraus müssen wir eine Widerspruch
herleiten. Wir unterscheiden zwei Fälle, je nachdem, ob v = v0 oder nicht.
1. Fall: Sei v0 = v.
Dann ist v ∈ L((X ∪ {v}) \ {v}) = L(X), was der Voraussetzung im Lemma widerspricht.
2. Fall: Sei v0 v, d.h. v0 ∈ X.
Wegen v0 ∈ L((X ∪ {v}) \ {v0 }) finden wir Vektoren u1, . . . , un ∈ X \ {v0 } und Skalare
λ1, . . . , λn, μ ∈ K, so dass
v0 = λ1 u1 + . . . + λn un + μv. (3.6)
Ist nun μ = 0, dann ist v0 ∈ L(X \ {v0 }), was nach dem dritten Kriterium in Lemma 3.97 sagt,
dass X linear abhängig ist, im Widerspruch zur Annahme.
Ist dagegen μ 0, dann können wir (3.6) nach v auflösen und erhalten v als Linearkombination
der Vektoren v0, u1, . . ., un . Damit ist v ∈ L(X), ebenfalls im Widerspruch zur Annahme.
Satz 3.112. Sei K ein Körper, V {0} ein K-Vektorraum und X ⊂ V eine Teilmenge. Dann
sind äquivalent:
(2) X ist ein minimales Erzeugendensystem von V, d.h. X ist ein Erzeugendensystem von V
und für jedes v ∈ X ist X \ {v} kein Erzeugendensystem von V.
(3) X ist eine maximale linear unabhängige Teilmenge, d.h. X ist linear unabhängig und
für jedes v ∈ V \ X ist X ∪ {v} linear abhängig.
Beweis. Zu „(1)⇒(2)“:
Sei X eine Basis von V. Dann ist X insbesondere ein Erzeugendensystem von V. Zu zeigen
bleibt die Minimalität von X.
Angenommen, es existiert ein v ∈ X so dass X \ {v} noch ein Erzeugendensystem V ist. Dann
ist v ∈ V = L(X \ {v}). Nach Lemma 3.97 (2) ist X linear abhängig im Widerspruch dazu,
dass X eine Basis ist.
166 3. Algebraische Grundbegriffe
Zu „(2)⇒(1)“:
Sei X ein minimales Erzeugendensystem von V. Wegen der Minimalität gilt für jedes v ∈ V:
L(X \ {v}) V = L(X).
Nach Lemma 3.97 (3) ist X linear unabhängig und damit eine Basis.
Zu „(1)⇒(3)“:
Sei X eine Basis von V. Dann ist X insbesondere linear unabhängig. Für jedes v ∈ V ist
V = L(X) ⊂ L(X ∪ {v}) ⊂ V
also L(X) = L(X ∪ {v}). Ist nun v ∈ V \ X, dann folgt aus Lemma 3.97 (2), dass X ∪ {v} linear
abhängig ist.
Schließlich zeigen wir die Implikation „(3)⇒(1)“: Sei also X eine maximale linear unabhängige
Teilmenge von V. Zu zeigen bleibt, dass X ein Erzeugendensystem von V ist, d.h. dass L(X) = V.
Angenommen, es gibt ein v ∈ V \ L(X). Nach Lemma 3.111 ist dann X ∪ {v} auch linear
unabhängig, im Widerspruch zur Maximalität von X.
Definition 3.113. Ein K-Vektorraum V heißt endlich erzeugt, falls V ein endliches Er-
zeugendensystem besitzt, d.h. falls es eine endliche Menge X = {v1, . . ., vm } gibt, so dass
V = L(X).
Beispiel 3.114. In Korollar 2.45 haben wir festgestellt, dass jeder Untervektorraum von Rn
eine Basis hat, die wegen Korollar 2.43 höchstens n Elemente haben kann. Daher ist jeder
Untervektorraum endlich erzeugt.
Beispiel 3.115. Für jeden Körper K besitzt K n die Standardbasis, die genau n Elemente hat.
Also ist K n endlich erzeugt.
Beispiel 3.116. Wir haben bereits gesehen, dass C als R-Vektorraum die Basis {1, i} hat, also
insbesondere endlich erzeugt ist. Ist nun R als Q-Vektorraum endlich erzeugt? Die Antwort
lautet nein. Denn nehmen wir an, R wäre über Q endlich erzeugt. Dann gäbe es endlich viele
reelle Zahlen x1, . . . , xn , so dass sich jede reelle Zahl x in der Form
x = q1 x1 + . . . + qn xn
schreiben lässt, wobei q1, . . ., qn ∈ Q geeignete rationale Koeffizienten sind. Mit anderen
Worten, die Abbildung
Φ : Qn → R, (q1, . . ., qn ) → q1 x1 + . . . + qn xn,
wäre surjektiv. Mit Q ist auch Qn abzählbar, also gibt es eine bijektive Abbildung Ψ : N → Qn .
Also wäre Φ ◦ Ψ : N → R eine surjektive Abbildung und R müsste ebenfalls abzählbar sein.
Wir wissen aber bereits, dass R überabzählbar ist.
3.4. Basen 167
Bemerkung 3.118. Falls wir nur endliche viele solcher ineinander geschachtelter linear un-
abhängiger Mengen X1 ⊂ . . . ⊂ XN ⊂ V haben, ist die Aussage des Lemmas trivial, da dann
ja einfach X = XN gilt. Interessant ist das Lemma also nur im Fall, dass wir eine unendliche
Kette ineinander geschachtelter linear unabhängiger Teilmengen von V vorliegen haben.
Beweis von Lemma 3.117. Seien v1, . . . , vn ∈ X paarweise verschieden und seien λ1, . . ., λn ∈
K, so dass
λ1 v1 + . . . + λn vn = 0. (3.7)
Nach Definition von X gibt es zu jedem k ∈ {1, . . . , n} ein j k mit vk ∈ X jk . Sei N :=
max{ j1, . . ., jn }. Da die X j ineinander enthalten sind, gilt X jk ⊂ XN und damit vk ∈ XN für
alle k ∈ {1, . . ., n}. Da XN linear unabhängig ist, folgt aus (3.7), dass λ1 = . . . = λn = 0, was
zu zeigen war.
Lemma 3.119. Sei V ein K-Vektorraum, der nicht endlich erzeugt ist. Dann enthält V eine
unendliche linear unabhängige Teilmenge.
Satz 3.120 (Basisauswahlsatz). Sei V ein K-Vektorraum und X ⊂ V ein endliches Erzeu-
gendensystem. Dann gibt es eine Teilmenge B ⊂ X, die Basis von V ist.
Beweis. Sei X ein endliches Erzeugendensystem von V. Falls X linear unabhängig ist, so ist
bereits B = X eine Basis von V und wir sind fertig.
Sei also X linear abhängig. Dann gibt es nach Lemma 3.97 ein v ∈ X mit L(X\{v}) = L(X) = V.
Dann ist X := X \ {v} wieder ein endliches Erzeugendensystem von V mit einem Element
weniger als X. Wir setzen das Verfahren fort und entfernen solange Elemente bis wir ein
minimales Erzeugendensystem erhalten. Da X endlich ist, ist dies nach endlich vielen Schritten
168 3. Algebraische Grundbegriffe
der Fall. Das so erhaltene minimale Erzeugendensystem ist nach Satz 3.112 eine Basis von V.
Korollar 3.121. Jeder endlich erzeugte Vektorraum besitzt eine endliche Basis.
#X ≤ #Y .
Bemerkung 3.123. Bevor wir die Proposition beweisen, eine Bemerkung über lineare Glei-
chungssysteme über einem allgemeinen Körper K. Seien Ai j ∈ K mit i = 1, . . . , m und
j = 1, . . ., n. Dann hat das homogene lineare Gleichungssystem
sicherlich die triviale Lösung (x1, . . . , xn ) = (0, . . ., 0). Gilt nun n > m, d.h. haben wir weniger
Gleichungen als Variablen, dann besitzt das Gleichungssystem auch eine nichttriviale Lösung,
d.h. eine Lösung (x1, . . ., xn ) (0, . . . , 0). Im Fall K = R haben wir das in Bemerkung 2.23
bewiesen. Derselbe Beweis funktioniert auch für allgemeine Körper K; wir haben im Beweis
nirgendwo irgendwelche speziellen Eigenschaften der reellen Zahlen benutzt.
v j = A1 j w1 + . . . + Am j wm .
Nach Bemerkung 3.123 gibt es im Fall n > m eine Lösung (x1, . . . , xn ) (0, . . ., 0) des
Gleichungssystems (3.8). Dann folgt
Da v1, . . ., vn paarweise verschieden sind und nicht alle Koeffizienten x j = 0, ist dies eine
nichttriviale Linearkombination des Nullvektors. Dies widerspricht der linearen Unabhängig-
keit von X.
Als erste Folgerung halten wir die Umkehrung von Lemma 3.119 fest:
Korollar 3.124. Sei V ein K-Vektorraum. Enthält V eine unendliche linear unabhängige
Teilmenge, so ist V nicht endlich erzeugt.
Beispiel 3.125. Der R-Vektorraum V = Abb(R, R) besitzt unendliche linear unabhängige Teil-
mengen und ist daher nicht endlich erzeugt. Nach Beispiel 3.102 ist X = { f0, f1, f2, . . .} mit
fk (x) = x k linear unabhängig.
Genauso ist auch der C-Vektorraum V = Abb(R, C) nicht endlich erzeugt, da nach Bei-
spiel 3.103 die Menge X = { fk | k ∈ Z} mit fk (x) = eik x linear unabhängig ist.
Korollar 3.126. Sei V ein endlich erzeugter K-Vektorraum. Dann ist jede Basis von V
endlich und alle Basen von V haben gleich viele Elemente.
Beweis. Da V endlich erzeugt ist und jede Basis linear unabhängig ist, muss sie nach Korol-
lar 3.124 endlich sein.
Seien nun B und B zwei Basen von V. Wenden wir Proposition 3.122 mit X = B und Y = B
an, so erhalten wir #B ≤ #B. Wir können die Proposition aber auch mit X = B und Y = B
anwenden und erhalten #B ≤ #B. Beides zusammen ergibt #B = #B.
Definition 3.127. Sei V ein K-Vektorraum. Ist B eine endliche Basis von V , dann nennen
wir #B ∈ N0 die Dimension von V und schreiben dafür dim(V). Wegen Korollar 3.126 hängt
die Dimension nicht von der Wahl der Basis B, sondern nur von V ab.
Ist V nicht endlich erzeugt, so schreiben wir dim(V) = ∞.
Wir sagen ferner, der Vektorraum ist dim(V)-dimensional.
170 3. Algebraische Grundbegriffe
Beispiel 3.128. Da die Standardbasis von K n genau n Elemente hat, gilt dim(K n ) = n. Da
Abb(R, R) nicht endlich erzeugt ist, gilt dim(Abb(R, R)) = ∞.
Beispiel 3.129. Wir hatten C sowohl als reellen als auch als komplexen Vektorraum betrachtet.
Möchten man verdeutlichen, welcher Körper K einem Vektorraum V zugrunde gelegt wird,
so schreibt man auch dimK (V) statt dim(V). Für V = C hatten wir als Basis über K = R die
Menge {1, i} und als Basis über C die Menge {1}. Also ist
Der folgende Satz besagt, dass man (im endlich erzeugten Fall) aus einer linearen unabhän-
gigen Menge eine Basis machen kann, indem man endlich viele geeignete Elemente aus V
hinzunimmt.
Satz 3.130 (Basisergänzungssatz). Sei V ein endlich erzeugter K-Vektorraum und sei
X ⊂ V linear unabhängig.
Dann gibt es eine Basis B von V mit X ⊂ B.
Beweis. Wir setzen X0 := X und definieren linear unabhängige Mengen X j , die X enthalten,
induktiv wie folgt: Ist L(X j ) = V , dann ist X j eine Basis von V und der Satz ist mit B = X j
bewiesen. Ist hingegen L(X j ) V, dann wählen wir ein Element v j+1 ∈ V \ L(X j ) und setzen
X j+1 := X ∪ {v j+1 }. Wegen Lemma 3.111 ist X j+1 wiederum linear unabhängig und enthält X j
und damit auch X. Außerdem hat X j+1 ein Element mehr als X j . Da eine linear unabhängige
Teilmenge von V nicht mehr als dim(V) viele Elemente haben kann, bricht die Prozedur
irgendwann ab und der Satz ist bewiesen.
Korollar 3.131. Sei V ein K-Vektorraum und W ⊂ V ein Untervektorraum. Ist V endlich
erzeugt, so ist auch W endlich erzeugt und es gilt
dim(W) ≤ dim(V).
Beweis. Wäre W nicht endlich erzeugt, so enthielte W gemäß Lemma 3.119 eine unendliche
linear unabhängige Teilmenge X. Damit enthielte auch V diese unendliche linear unabhän-
gige Teilmenge X und wäre nach Korollar 3.124 nicht endlich erzeugt, im Widerspruch zur
Annahme. Also ist W endlich erzeugt.
3.4. Basen 171
Gemäß Korollar 3.121 besitzt W eine endliche Basis B ⊂ W. Nun ist B auch eine linear
unabhängige Teilmenge von V und kann gemäß Satz 3.130 zu einer Basis B von V ergänzt
werden. Insbesondere gilt
dim(W) = #B ≤ #B = dim(V).
Gilt nun ferner dim(W) = dim(V ), so muss B = B sein und damit W = L(B) = L(B) = V.
Grob gesprochen besagt der Basisauswahlsatz, dass man eine Basis bekommen kann, indem
man aus einem Erzeugendensystem überflüssige Elemente entfernt, und der Basisergänzungs-
satz, dass man eine Basis bekommen kann, indem man zu einer linear unabhängigen Teilmenge
geeignete Elemente hinzufügt.
Dass es überhaupt immer eine Basis gibt, haben wir nur für endlich erzeugte Vektorräume
bewiesen. Tatsächlich gilt
Satz 3.132. Sei K ein beliebiger Körper und V ein beliebiger K-Vektorraum. Dann besitzt
V eine Basis.
Versucht man, den Beweis des Basisauswahlsatzes 3.120 anzupassen, stößt auf das Problem,
dass das sukzessive Weglassen überflüssiger Elemente aus einem unendlichen Erzeugenden-
system niemals zu enden braucht. Diese Schwierigkeit kann aber mittels eines mengentheore-
tischen Hilfsmittels, dem so genannten „Lemma von Zorn“, behoben werden. Für die Einzel-
heiten hierzu und einen Beweis von Satz 3.132 siehe z.B. [11, Abschnitt 2.3].
In einer Menge gibt es für die Elemente keine vorgegebene Reihenfolge. Wenn wir später
lineare Abbildungen einführen und sie durch Matrizen beschreiben, brauchen wir aber eine
Reihenfolge der Basisvektoren. Daher machen wir die folgende Definition:
Definition 3.133. Sei V ein K-Vektorraum. Ein n-Tupel paarweise verschiedener Vektoren
(v1, . . . , vn ) aus V heißt geordnete Basis von V, wenn {v1, . . ., vn } eine Basis im herkömm-
lichen Sinn ist.
172 3. Algebraische Grundbegriffe
Beispiel 3.134. Für V = K n ist (e1, . . ., en ) die geordnete Standardbasis, wobei die
Vektoren e1, . . . , en so sind wie in Beispiel 2.40. Setzen wir n ≥ 2 voraus. Dann ist
(e2, e1, e3, . . ., en ) eine andere geordnete Basis von K n als die geordnete Standardbasis, wohin-
gegen {e2, e1, e3, . . . , en } = {e1, e2, e3, . . ., en } die Standardbasis ist.
3.5. Aufgaben
3.1. a) Zeigen Sie, dass in jeder Gruppe (G, ∗) die Kürzungsregel gilt:
Sind g, x, y ∈ G mit g ∗ x = g ∗ y, dann gilt x = y.
c) Sei (G, ∗) eine Gruppe mit neutralem Element e und seien g, h ∈ G. Zeigen Sie, dass aus
g ∗ h = e oder h ∗ g = e bereits folgt, dass h das zu g inverse Element ist.
Das können wir folgendermaßen ausdrücken: in Gruppen sind Linksinverse automatisch
auch Rechtsinverse und umgekehrt. Das ist praktisch, halbiert es doch den Rechenaufwand
beim Nachprüfen, dass ein Element das Inverse eines anderen Elements ist.
d) Zeigen Sie durch Gegenbeispiel, dass die Aussage c) in Halbgruppen im Allgemeinen nicht
richtig ist.
3.2. Zeigen Sie durch vollständige Induktion, dass die symmetrische Gruppe Sn genau n!
Elemente hat.
3.4. Sei (G, ∗) eine Gruppe und H ⊂ G eine Teilmenge, die das neutrale Element enthält.
Zeigen Sie, dass H genau dann eine Untergruppe ist, wenn für alle h1, h2 ∈ H gilt:
h1 ∗ (h2 )−1 ∈ H.
3.6. Zeigen Sie, dass für jede Transposition τ gilt: sgn(τ) = −1.
3.7. Eine deutsche IBAN (International Bank Account Number) setzt sich folgendermaßen
zusammen: Die Länderkennung DE wird gefolgt von zwei Prüfziffern, dann 8 Ziffern, die die
Bank festlegen (die ehemalige Bankleitzahl), und schließlich 10 Ziffern für die eigentliche
Kontonummer bei dieser Bank. Die Prüfziffern sollen für eine gewissen Redundanz sorgen
und z.B. verhindern, dass bei Schreibfehlern eine Überweisung auf dem falschen Konto landet.
Dabei sind die Prüfziffern so zu wählen, dass folgende Rechnung zum Ergebnis 1 führt:
3.5. Aufgaben 173
1. Bewege die Länderkennung und die beiden Prüfziffern vom Anfang an das Ende der IBAN.
Beispiel: DE68210501700012345678 ; 210501700012345678DE68
2. Ersetze die Buchstaben durch Ziffern, wobei A=10, B=11, . . . , Z=35 ist.
Beispiel: 210501700012345678DE68 ; 210501700012345678131468
3. Diese Ziffernfolge betrachten wir nun als (große) ganze Zahl und verlangen, dass der Rest
modulo 97 uns 1 liefert.
Beispiel: MOD97 (210501700012345678131468) = 1 gilt tatsächlich, also ist unsere IBAN
gültig und wird für eine Überweisung akzeptiert.
Bei einer Schweizer IBAN ist die Länderkennung CH und nach den beiden Prüfziffern folgen
nur 17 Stellen (statt 18), bei einer österreichischen kommen nach der Länderkennung AT und
den beiden Prüfziffern noch 16 Stellen.
Wie müssen in den folgenden Beispielen die Prüfziffern lauten, damit die IBANs gültig sind?
a) DE?? 1509 1704 0120 6889 79
b) AT?? 2011 1826 9136 0700
3.9. Sei n ∈ N, n ≥ 2. Wir definieren eine Multiplikation auf Z/n so ähnlich, wie wir es mit
der Addition gemacht haben, nämlich durch
Zeigen Sie:
a) (Z/n, +n, ·n ) ist ein Ring.
b) Die Abbildung f : k → MODn (k) ist ein einserhaltender Ringhomomorphismus von
(Z, +, ·) nach (Z/n, +n, ·n ).
3.10. Sei X eine Menge und R := P(X) ihre Potenzmenge. Für A, B ∈ R definieren wir die
symmetrische Differenz
AΔB := (A \ B) ∪ (B \ A).
3.11. Hier behandeln wir eine alternative Möglichkeit, die komplexen Zahlen einzuführen.
Sei dazu
x −y
R := x, y ∈ R ,
y x
versehen mit der komponentenweisen Addition “+” und der Matrixmultiplikation “·”. Zeigen
Sie:
b) (R, +, ·) ist isomorph zum Körper C der komplexen Zahlen (mit der üblichen Addition und
Multiplikation).
3.12. Sei R = Abb(X, R) der Ring der reellen Funktionen auf einer Menge X wie in Bei-
spiel 3.46.
Zeigen Sie: Hat X mehr als ein Element, so ist R nicht nullteilerfrei.
3.13. Sei R := {x + iy | x, y ∈ Z}. Man nennt die Elemente von R Gauß’sche Zahlen.
c) Zeigen Sie, dass für jedes multiplikativ invertierbare Element z ∈ R gilt |z| = 1.
c) Zeigen Sie, dass für jedes multiplikativ invertierbare Element z ∈ R gilt: |z| = 1.
3.15. Sei K ein Körper. Für a, b ∈ K mit b 0 führen wir die Bruchnotation ab := a · b−1 ∈ K
ein. Beweisen Sie die nachfolgenden Regeln der Bruchrechnung in K. Geben Sie bei jeder
Umformung an, welche Körper- oder Ringeigenschaft (z.B. aus Definition 3.44, 3.64 oder
Lemma 3.56) Sie dabei benutzen.
λa
a) Für alle a ∈ K und b, λ ∈ K × gilt: λb = a
b (Erweitern und Kürzen)
μ·a
b) Für alle a, μ ∈ K und b ∈ K × gilt: μ · a
b = b . (Produkt von Bruch mit Zahl)
c) Für alle a, c ∈ K und b, d ∈ K × gilt: a
b · c
d = a·c
b·d . (Produkt zweier Brüche)
3.17. Da 4 keine Primzahl ist, ist Z/4 kein Körper. Es gibt aber sehr wohl einen Körper mit 4
Elementen, wie diese Aufgabe zeigt.
Sei dazu K = {0, 1, α, β}. Wir definieren die Addition und die Multiplikation mittels folgender
Tabellen:
+ 0 1 α β · 0 1 α β
0 0 1 α β 0 0 0 0 0
1 1 0 β α 1 0 1 α β
α α β 0 1 α 0 α β 1
β β α 1 0 β 0 β 1 α
Tab. 23 Verknüfungstabellen von K
3.18. In Aufgabe 3.10 wurde gezeigt, dass (R, Δ, ∩) ein Ring ist, wobei X eine Menge ist,
R = P(X) und AΔB = (A \ B) ∪ (B \ A). Insbesondere ist also (R, Δ) eine abelsche Gruppe.
Wir definieren • : F2 × R → R durch 0 • A := ∅ und 1 • A := A.
Zeigen Sie, dass (R, Δ, •) ein F2 -Vektorraum ist.
3.19. Sei V ein K-Vektorraum und seien W1, . . . , Wn ⊂ V Untervektorräume. Wir setzen
V1 := (W1 + W2 ) ∩ W3 und V2 := (W1 ∩ W3 ) + (W2 ∩ W3 ).
176 3. Algebraische Grundbegriffe
3.20. Sei K = R und V = Abb(R, R). Zeigen Sie, dass X = {gk | k ∈ N0 } ∪ {h k | k ∈ N} linear
unabhängig ist, wobei gk und h k wie in Beispiel 3.96 sind.
3.21. Sei K ein Körper und K ⊂ K ein Unterkörper. Sei V ein K-Vektorraum. In Beispiel 3.77
wurde erläutert, dass V dann auch ein K -Vektorraum ist. Sei X ⊂ V. Zeigen Sie: Ist X linear
unabhängig über K, so auch über K .
4. Lineare Abbildungen
(Torsten Marold)
Nun kommen wir zum zentralen Gegenstand der linearen Algebra, den linearen Abbildungen
zwischen Vektorräumen.
Definition 4.1. Sei K ein Körper und seien V und W zwei K-Vektorräume. Eine Abbildung
ϕ : V → W heißt K-linear oder K-Vektorraumhomomorphismus, falls gilt:
1. Die Abbildung ϕ ist ein Gruppenhomomorphismus bzgl. der Addition, d.h. für alle
v, v ∈ V gilt
ϕ(v + v ) = ϕ(v) + ϕ(v ) .
ϕ(λ · v) = λ · ϕ(v) .
Bemerkung 4.2. Ist aus dem Kontext klar, welcher Körper zugrunde gelegt wird, so sagt man
auch einfach ϕ sei linear bzw. ein Vektorraumhomomorphismus.
Bemerkung 4.3. Die beiden Bedingungen aus Definition 4.1 lassen sich zu einer zusammen-
fassen:
Für alle v, v ∈ V und alle λ, λ ∈ K gilt:
Aus (4.1) folgt mit λ = λ = 1 die Bedingung 1 und mit λ = 0 die Bedingung 2. Umgekehrt
folgt aus 1 und 2 zusammen auch das Axiom (4.1), denn:
1 2
ϕ(λ · v + λ · v ) = ϕ(λ · v) + ϕ(λ · v ) = λ · ϕ(v) + λ · ϕ(v ) .
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_4
178 4. Lineare Abbildungen
Beispiel 4.4. Sei K ein beliebiger Körper und seien V und W beliebige K-Vektorräume. Dann
ist die Nullabbildung ϕ : V → W, die jeden Vektor aus V auf den Nullvektor aus W abbildet,
linear. Sind nämlich v, v ∈ V und λ, λ ∈ K, dann gilt:
Beispiel 4.5. Sei zunächst K = R, V = W = R und ϕ(x) = x 2 . Dann ist ϕ nicht linear, denn
wir haben z.B. ϕ(1 + 1) = (1 + 1)2 = 4, aber ϕ(1) + ϕ(1) = 12 + 12 = 2.
Ist aber K = F2 , V = W = F2 und ϕ(x) = x 2 , dann gilt ϕ(0) = 02 = 0 und ϕ(1) = 12 = 1. Also
ist ϕ = idF2 und somit linear.
Beispiel 4.6. Sei K ein Körper, V = K m und W = K n . Sei A ∈ Mat(n × m, K). Dann sagen uns
Satz 3.50 (vii) und Gleichung (3.2), dass die Abbildung
K m → K n, x → A · x,
linear ist. Wir werden sehen, dass jede lineare Abbildung K m → K n von dieser Form ist, d.h.
zu einer Matrix aus Mat(n × m, K) gehört.
Beispiel 4.7. Sei K = R, V = C 1 (R, R) der Vektorraum der stetig differenzierbaren reellen
Funktionen und W = C 0 (R, R) der Vektorraum der stetigen reellen Funktionen. Dann lernt
man in der Analysis, dass die Differentiationsabbildung
d df
: C 1 (R, R) → C 0 (R, R), f → = f ,
dx dx
linear ist.
Beispiel 4.8. Sei K = R, V = C 0 ([a, b], R) und W = R. Hier ist a < b vorausgesetzt. Wiederum
in der Analysis lernt man, dass die Integrationsabbildung
∫b
C ([a, b], R) → R,
0
f → f (x) dx,
a
linear ist.
Beispiel 4.9. Sei nun V = W = C. Ist die komplexe Konjugation ϕ : C → C, ϕ(z) = z̄, linear?
Das kommt darauf an, ob wir C als reellen oder als komplexen Vektorraum auffassen. Nach
Satz 2.110 ist die Additivität in Ordnung,
Satz 4.10. Seien V und W zwei K-Vektorräume und sei ϕ : V → W eine lineare Abbildung.
Dann gilt:
(iv) Ist V ⊂ V ein Untervektorraum von V, so ist ϕ(V ) ⊂ W ein Untervektorraum von W.
(vi) Ist Z ein weiterer K-Vektorraum und ψ : W → Z eine weitere lineare Abbildung, dann
ist auch ψ ◦ ϕ : V → Z linear.
Beweis. Aussagen (i) und (ii) folgen aus Proposition 3.30 und der Tatsache, dass ϕ ein Grup-
penhomomorphismus von (V, +) nach (W, +) ist.
Aussage (iii) zeigt man mittels vollständiger Induktion nach n. Für n = 1 ist die Aussage klar
aufgrund der Definition von Linearität. Sei nun n ≥ 2 und die Aussage für weniger als n
Summanden bewiesen. Dann berechnen wir:
Dabei haben wir bei der Umformung (4.3) die Induktionsannahme benutzt.
Zu (iv):
Wegen (i) ist 0 = ϕ(0) ∈ ϕ(V ). Sind w1, w2 ∈ ϕ(V ) und λ1, λ2 ∈ K, dann können wir v j ∈ V
wählen, so dass ϕ(v j ) = w j und wir berechen:
Zu (v):
Wegen (i) ist ϕ(0) = 0 ∈ W und damit 0 ∈ ϕ−1 (W ). Seien v1, v2 ∈ ϕ−1 (W ) und λ1, λ2 ∈ K.
Dann gilt
ϕ(λ1 v1 + λ2 v2 ) = λ1 ϕ(v1 ) + λ2 ϕ(v2 ) ∈ W ,
also λ1 v1 + λ2 v2 ∈ ϕ−1 (W ).
Zu (vi):
Für v1, v2 ∈ V und λ1, λ2 ∈ K rechnen wir nach:
(ψ ◦ ϕ)(λ1 · v1 + λ2 · v2 ) = ψ(ϕ(λ1 · v1 + λ2 · v2 ))
= ψ(λ1 · ϕ(v1 ) + λ2 · ϕ(v2 ))
= λ1 · ψ(ϕ(v1 )) + λ2 · ψ(ϕ(v2 ))
= λ1 · (ψ ◦ ϕ)(v1 ) + λ2 · (ψ ◦ ϕ)(v2 ).
Zu (vii):
Wegen Proposition 3.30 (iii) ist ϕ−1 auch additiv, d.h. erfüllt Bedingung 1 in Definition 4.1.
Sei nun w ∈ W und λ ∈ K. Setze v := ϕ−1 (w). Wenden wir ϕ−1 auf beide Seiten von
λ · ϕ(v) = ϕ(λ · v) an, so erhalten wir
Definition 4.11. Seien V und W zwei K-Vektorräume und sei ϕ : V → W linear. Dann heißt
Wie für jede Abbildung heißt im(ϕ) = ϕ(V) ⊂ W das Bild von ϕ.
Korollar 4.12. Seien V und W zwei K-Vektorräume und sei ϕ : V → W linear. Dann sind
ker(ϕ) ⊂ V und im(ϕ) ⊂ W Untervektorräume.
Beweis. Offensichtlich ist ker(ϕ) = ϕ−1 ({0}) und im(ϕ) = ϕ(V). Da nun {0} ⊂ W und V ⊂ V
Untervektorräume sind, folgt die Behauptung aus Satz 4.10.
Korollar 4.13. Seien V und W zwei K-Vektorräume und sei ϕ : V → W linear. Dann ist ϕ
surjektiv genau dann, wenn im(ϕ) = W und injektiv genau dann, wenn ker(ϕ) = {0}.
Beispiel 4.14. Sei K ein Körper und ϕ : K m → K n , ϕ(x) = A · x, wie in Beispiel 4.6 durch
Multiplikation mit der Matrix A gegeben. Dann ist der Kern von ϕ
ker(ϕ) = {x ∈ K m | A · x = 0} = Lös(A, 0)
Definition 4.16. Sei K ein Körper und seien V und W zwei K-Vektorräume. Eine lineare
Abbildung ϕ : V → W heißt
Ist aus dem Kontext klar, welcher Körper K zugrunde gelegt wird, so schreiben wir auch
Hom(V, W) statt HomK (V, W) und analog für EndK (V) sowie AutK (V ).
Bemerkung 4.17. Seien V und W zwei K-Vektorräume und sei ϕ : V → W linear. Ist X ⊂ V
ein Erzeugendensystem von V, so ist ϕ(X) ⊂ W ein Erzeugendensystem des Bildes ϕ(V). Denn
für jedes w ∈ ϕ(V) gibt es ein v ∈ V mit ϕ(v) = w. Da nun X ein Erzeugendensystem von V
n
ist, so gibt es λ1, . . . , λn ∈ K und v1, . . ., vn ∈ X mit v = i=1 λi vi . Damit ist
$n % n
w = ϕ(v) = ϕ λi vi = λi ϕ(vi ).
i=1 i=1
Insbesondere sehen wir: Ist V endlich-dimensional, dann ist auch das Bild ϕ(V) endlich-
dimensional. Ist X eine Basis von V , dann ist
Definition 4.18. Sei K ein Körper, seien V und W zwei K-Vektorräume und sei ϕ : V → W
linear. Dann heißt rg(ϕ) := dim(im(ϕ)) der Rang von ϕ.
Satz 4.19 (Dimensionsformel für lineare Abbildungen). Sei K ein Körper und seien V
und W zwei K-Vektorräume mit dim(V ) < ∞. Sei ferner ϕ : V → W eine lineare Abbildung.
Dann gilt
dim V = dim ker(ϕ) + rg(ϕ) . (4.4)
Beweis. Nach Voraussetzung ist V endlich-dimensional, also auch ker(ϕ) ⊂ V . Sei also
dim V =: n und dim ker(ϕ) =: k ≤ n. Zu beweisen ist dann: rg(ϕ) = n − k.
Wir wählen eine Basis {v1, . . ., vk } von ker(ϕ) und ergänzen diese gemäß Satz 3.130 zu einer
Basis {v1, . . ., vk , vk+1, . . ., vn } von V. Dann ist {v1, . . ., vn } insbesondere ein Erzeugendensys-
tem von V, und nach Bemerkung 4.17 ist {ϕ(v1 ), . . ., ϕ(vn )} ein Erzeugendensystem von ϕ(V).
Da aber v1, . . ., vk ∈ ker(ϕ), also ϕ(v1 ) = . . . = ϕ(vk ) = 0, ist bereits {ϕ(vk+1 ), . . ., ϕ(vn )} ein
Erzeugendensystem von ϕ(V).
Wir zeigen, dass {ϕ(vk+1 ), . . . , ϕ(vn )} linear unabhängig ist: Seien also λ k+1, . . ., λn ∈ K mit
λ k+1 ϕ(vk+1 ) + . . . + λn ϕ(vn ) = 0. Da ϕ linear ist, haben wir ϕ(λ k+1 vk+1 + . . . + λn vn ) = 0,
d.h. w := λ k+1 vk+1 + . . . + λn vn ∈ ker(ϕ). Es gibt also Koeffizienten μ1, . . ., μk , so dass
w = μ1 v1 + . . . + μk vk . Damit ist
Da aber {v1, . . ., vn } eine Basis von V, also insbesondere linear unabhängig ist, folgt μi = 0
für i = 1, . . ., k und λ j = 0 für j = k + 1, . . ., n. Folglich ist {ϕ(vk+1 ), . . ., ϕ(vn )} ein linear
unabhängiges Erzeugendensystem, d.h. eine Basis von ϕ(V).
Damit ist rg(ϕ) = dim ϕ(V) = n − k wie behauptet.
4.1. Grundlegende Definitionen 183
Wir erhalten nun ein Analogon zum Hotelzimmerlemma 1.72 für lineare Abbildungen. Im
Gegensatz zum Hotelzimmerlemma brauchen die Vektorräume V und W zwischen denen
die lineare Abbildung vermittelt, keine endlichen Mengen zu sein, sondern lediglich endlich-
dimensional.
Korollar 4.20. Seien V und W zwei K-Vektorräume mit dim V = dim W < ∞. Sei ϕ : V →
W eine lineare Abbildung. Dann sind folgende Aussagen äquivalent:
Beweis. Es genügt, die Äquivalenz der Aussagen (1) und (2) zu zeigen, denn (1) und (2)
zusammen sind offensichtlich äquivalent zu (3). Wir finden:
(1), d.h. ϕ ist injektiv ⇐⇒ ker(ϕ) = {0}
⇐⇒ dim ker(ϕ) = 0
(4.4)
⇐⇒ dim V = dim im(ϕ)
⇐⇒ dim W = dim im(ϕ)
⇐⇒ W = im(ϕ) nach Korollar 3.131
⇐⇒ (2), d.h. ϕ ist surjektiv.
Beispiel 4.22. Sei K = R und sei V = C 1 (R, R) sowie W = C 0 (R, R). Dann ist dim V =
dim W = ∞. Die Differentiationsabbildung dx d
: V → W aus Beispiel 4.7 ist nicht injektiv, wie
bereits in Beispiel 4.15 festgestellt. Sie ist aber surjektiv, denn jedes f ∈ C∫0 (R, R) besitzt eine
x
Stammfunktion F ∈ C 1 (R, R), die dx d
F = f erfüllt. Man kann z.B. F(x) = 0 f (t) dt nehmen.
Beispiel 4.23. Hier ein Beispiel eines Endomorphismus, der injektiv, aber nicht surjektiv ist.
Sei K ein beliebiger Körper und V = Abb(N, K) der K-Vektorraum der K-wertigen Folgen.
Man zeigt leicht, dass die Abbildung
ϕ : V → V, (a1, a2, a3, . . .) → (0, a1, a2, a3, . . .),
linear ist. Ist (a1, a2, a3, . . .) ∈ ker(ϕ), dann ist (0, a1, a2, a3, . . .) = (0, 0, 0, 0, . . .). Daher sind
alle a j = 0 und damit ist die ursprüngliche Folge die Nullfolge. Der Kern von ϕ ist also der
Nullvektorraum, d.h. ϕ ist injektiv.
Dagegen ist ϕ nicht surjektiv, da jede Folge, die nicht mit 0 beginnt, nicht im Bild von ϕ liegt.
184 4. Lineare Abbildungen
$ %
x1
m m
m
.
ϕ(x) = ϕ xj ej = xj ϕ ej = x j a j = (a1, . . ., am ) .. = A · x = ϕ A(x).
j=1 j=1 j=1
xm
Also ist ϕ = ϕ A. Wir sehen hier nicht nur, dass jede lineare Abbildung K m → K n von
einer Matrix herkommt, sondern auch wie wir diese Matrix zu einer gegebenen linearen
Abbildung finden. Wir müssen die Matrix nehmen, deren Spaltenvektoren die Bilder der
Standardbasisvektoren unter der linearen Abbildung sind. Dabei ist es wichtig, dass wir die
geordnete Standardbasis genommen haben, da die Reihenfolge der Spaltenvektoren der Matrix
von der Reihenfolge der Standardbasisvektoren abhängt. Fassen wir kurz zusammen:
Proposition 4.24. Sei K ein Körper. Dann ist die Zuordnung Mat(n×m, K) → Hom(K m, K n )
gegeben durch A → ϕ A bijektiv, wobei
ϕ A(x) = A · x.
Beispiel 4.26. Bestimmen wir die Matrix, die die Drehung (um den Ursprung, im mathema-
tisch positiven Sinn) um den Winkel θ in der Ebene beschreibt. Eine solche Drehung ist eine
4.2. Lineare Abbildungen und Matrizen 185
lineare Abbildung R2 → R2 über dem Körper K = R. Zur Bestimmung der Matrix müssen wir
lediglich die Bilder der beiden Standardbasisvektoren finden.
Drehen wir e1 = (1, 0) um den Winkel θ, so erhalten wir (cos θ, sin θ) . Drehen wir e2 =
(0, 1) , so ergibt sich (− sin θ, cos θ) .
0
1 cos θ
− sin θ sin θ
cos θ θ
θ
1
0
und somit
M(ψ ◦ ϕ) = M(ψ) · M(ϕ). (4.5)
Ist ϕ ein Automorphismus, ϕ ∈ AutK (K n ), dann gilt
und analog M(ϕ) · M(ϕ−1 ) = 1n . Also ist die Matrix M(ϕ) invertierbar mit M(ϕ)−1 = M(ϕ−1 ).
Ähnlich sieht man, dass umgekehrt ϕ ein Automorphismus ist, falls die darstellende Matrix
M(ϕ) invertierbar ist.
Definition 4.28. Wir nennen GL(n, K) := {A ∈ Mat(n × n, K) | A ist invertierbar} die allge-
meine lineare Gruppe.
Wir haben gesehen, dass lineare Abbildungen K m → K n den n × m-Matrizen entsprechen. Wie
sieht das bei linearen Abbildungen zwischen allgemeinen Vektorenräumen V → W aus? Wir
werden sehen, dass man lineare Abbildungen zwischen allgemeinen endlich-dimensionalen
Vektorräumen ebenfalls durch Matrizen beschreiben kann. Dazu benötigen wir allerdings
noch Basen der betreffenden Vektorräume.
Lemma 4.29. Sei K ein Körper und V ein K-Vektorraum. Sei B = (v1, . . . , vn ) ein n-Tupel
paarweise verschiedener Vektoren in V. Dann ist die Abbildung ΨB : K n → V gegeben durch
ΨB (x1, . . ., xn ) = x1 v1 + . . . + xn vn,
ein
(ii) Epimorphismus genau dann, wenn {v1, . . . , vn } ein Erzeugendensystem von V ist,
(iii) Isomorphismus genau dann, wenn B eine geordnete Basis von V ist.
Nun ist ΨB (x) = 0 genau dann, wenn x1 v1 + . . . + xn vn = 0. Also ist ΨB ein Monomorphismus
genau dann, wenn ker(ΨB ) = {0}, d.h. genau dann, wenn x1 v1 + . . . + xn vn = 0 nur mit x = 0
möglich ist. Dies ist gerade die Definition von linearer Unabhängigkeit. Somit ist (i) gezeigt.
Zu (ii): Aufgrund der Definition ist im(ΨB ) = L({v1, . . ., vn }). Insbesondere ist ΨB ein Epi-
morphismus genau dann, wenn L({v1, . . ., vn }) = V, d.h. genau dann, wenn {v1, . . . , vn } ein
Erzeugendensystem von V ist.
Aussage (iii) ist eine Kombination von (i) und (ii).
Korollar 4.30. Sei K ein Körper und V ein n-dimensionaler K-Vektorraum mit n ∈ N0 .
Dann ist
V Kn.
Beweis. Wähle eine Basis B = {v1, . . . , vn } von V. Dann liefert nach Lemma 4.29 einen
Isomorphismus ΨB : K n → V.
4.2. Lineare Abbildungen und Matrizen 187
Kn / Km
−1 ◦ϕ◦Ψ
ΨB A
Die darstellende Matrix von ϕ bzgl. der geordneten Basen A und B ist die m × n-Matrix
Die darstellende Matrix einer linearen Abbildung ϕ : K n → K m ist ein Spezialfall der Defini-
tion 4.31, indem wir als Basen von K n bzw. K m die geordneten Standardbasen nehmen. Für
die geordnete Standardbasis A = (e1, . . . , en ) von K n gilt nämlich Ψ A = idK n und analog für
die geordnete Standardbasis von K m . Also gilt dann
Bemerkung 4.32. Wir wollen nun die Einträge der darstellenden Matrix
c11 · · · c1n
. ..
MBA(ϕ) = .. .
cm1 · · · cmn
berechnen. Betrachten wir dazu das Bild des Basisvektors a j unter der Abbildung ϕ. Aus der
Definition des Isomorphismus Ψ A folgt unmittelbar Ψ A(e j ) = a j , wobei e j der j-te Standard-
basisvektor von K n ist. Somit ist
c1 j
.
= ΨB ..
cm j
m
= ΨB ci j ei
i=1
m
= ci j bi .
i=1
Wir können die Einträge ci j der darstellenden Matrix MBA(ϕ) also berechnen, indem wir die
Bilder ϕ(a j ) der Basisvektoren aus A unter der Abbildung ϕ als Linearkombination bezüglich
der geordneten Basis B ausdrücken. Die dabei auftretenden Koeffizienten sind die Einträge der
darstellenden Matrix MBA(ϕ).
Beispiel 4.33. Sei K = R und k ∈ N0 . Mit Rk [x] bezeichnen wir die Menge der reellen
Polynomfunktionen vom Grad ≤ k. In anderen Worten,
wobei f j (x) = x j . Nun ist Rk [x] ein Untervektorraum von C ∞ (R, R) mit geordneter Basis
( f0, . . . , fk ). Insbesondere ist dim(Rk [x]) = k + 1.
Sei V = Rk [x] und W = Rk−1 [x]. Sei
ϕ = d/dx : V → W , f → f ,
die Differentiationsabbildung aus Beispiel 4.7. Wähle A = ( f0, f1, . . ., fk ) als geordnete Basis
von V und B = ( f0, f1, . . . , fk−1 ) als geordnete Basis von W. Aus der Analysis wissen wir, dass
ϕ( f j ) = f j = j · f j−1 . Damit erhalten wir die darstellende Matrix
0 1 0··· 0 0
..
0 0 2 . 0
. .. . . . . .. ..
MB (d/dx) = ..
A
. . . . . .
..
0 0 . k − 1 0
0 0 0 ··· 0 k
Kn / Km / Kl
−1 ◦ϕ◦Ψ
ΨB −1 ◦ψ◦Ψ
ΨC
A B
Zur Definition der darstellenden Matrix MBA(ϕ) einer linearen Abbildung ϕ : V → W haben
wir geordnete Basen A von V und B von W verwendet. Wir untersuchen nun, wie sich die
darstellende Matrix ändert, wenn wir diese Basen wechseln.
Definition 4.35. Sei V ein n-dimensionaler K-Vektorraum, und seien A und A zwei geord-
nete Basen von V. Dann heißt die darstellende Matrix TAA := M(Ψ−1
A ◦ Ψ A ) ∈ GL(n, K) die
Transformationsmatrix des Basiswechsels von A nach A.
K n NN
NNN Ψ
NNNA
N NNN
N&
Ψ−1 ◦Ψ A 8V
A
pp
p
pppp
ppp
ppp Ψ A
Kn
Bemerkung 4.36. Für die Transformationsmatrix TAA des Basiswechsels von A nach A gilt:
TAA = M(Ψ−1
A ◦ idV ◦ Ψ A ) = M A (idV ) ,
A
d.h. TAA ist die darstellende Matrix der Identität idV bzgl. der geordneten Basen A (im Vektor-
raum V, wo die Abbildung idV startet) und A (im Zielraum V der Abbildung idV ). Insbesondere
sind die Einträge von TAA nach Bemerkung 4.32 die Koeffizienten ci j der Linearkombinationen
n
a j = i=1 ci j ai der Vektoren der Basis A (im Startraum) durch die Vektoren der Basis A (im
Zielraum). Ferner ist
(TAA )−1 = TAA , (4.8)
denn
(4.7)
TAA · TAA = M AA (idV ) · M AA (idV ) = M AA (idV ◦ idV ) = M AA (idV ) = 1n
190 4. Lineare Abbildungen
und analog TAA · TAA = 1n . Außerdem gilt für drei geordnete Basen A, A und A von V, dass
TAA · TAA = TAA , (4.9)
denn
TAA · TAA = M(Ψ−1 −1 −1 −1 −1
A ◦ Ψ A ) · M(Ψ A ◦ Ψ A ) = M(Ψ A ◦ Ψ A ◦ Ψ A ◦ Ψ A ) = M(Ψ A ◦ Ψ A ) = TA .
A
wobei T := TBB .
Beispiel 4.39. Sei K = R und V = R2 mit der geordneten Standardbasis B = (e1, e2 ). Sei ϕ die
Drehung um den Winkel θ wie in Beispiel 4.26. Dann ist
cos θ − sin θ
MB (ϕ) = M(ϕ) = .
sin θ cos θ
2 0
Wähle nun B= (b1, b2 ) = , als weitere geordnete Basis von R2 . Wir berechnen
0 1
die Einträge der Transformationsmatrix TBB wie in Bemerkung 4.36 angegeben, indem wir die
Vektoren von B in der Basis B darstellen:
4.2. Lineare Abbildungen und Matrizen 191
e1 = 12 · b1 + 0 · b2 ,
e2 = 0 · b1 + 1 · b2 .
Somit sind die Transformationsmatrix TBB und ihre Inverse gegeben durch:
1
0 2 0
TBB = 2 und (TBB )−1 = .
0 1 0 1
Bezüglich der Basis B hat somit die Drehung ϕ die darstellende Matrix
Auch eine Änderung der Reihenfolge der Basisvektoren ändert die darstellende Matrix. Sei
nämlich B = (e2, e1 ) die umgeordnete Standardbasis. Dann sind die Transformationsmatrix
TBB und ihre Inverse gegeben durch
0 1 0 1
TBB = und (TBB )−1 = .
1 0 1 0
Bezüglich der Basis B hat somit die Drehung ϕ die darstellende Matrix
Wir sehen also, dass wir tatsächlich geordnete Basen benötigen, um lineare Abbildungen durch
Matrizen zu beschreiben.
192 4. Lineare Abbildungen
1
Beispiel 4.40. Sei ϕ : R2→ R2
die Spiegelung an der Achse, die durch den Vektor
1
1 −1
aufgespannt wird. Setze b1 := und b2 := .
1 1
b2
1
= b1
0 1
Dann ist B := (b1, b2 ) eine geordnete Basis von R2 . Ferner ist ϕ(b1 ) = b1 und ϕ(b2 ) = −b2 , so
dass die darstellende Matrix von ϕ bzgl. der Basis B nach Bemerkung 4.32 gegeben ist durch:
1 0
MB (ϕ) = .
0 −1
Mittels der Transformationsformel (4.10) können wir die darstellende Matrix von ϕ bzgl. der
Standardbasis B = (e1, e2 ) berechnen: Die Vektoren b1 und b2 sind in der Basis B gegeben
durch b1 = 1 · e1 + 1 · e2 und b2 = −1 · e1 + 1 · e2 . Damit ist die Transformationsmatrix TBB und
ihre Inverse gegeben durch:
1 −1 B −1 1 1 1
TB =
B
und (TB ) = .
1 1 2 −1 1
Für die darstellende Matrix der Spiegelung ϕ bzgl. der Standardbasis erhalten wir daher:
(4.11) B B −1 1 −1 1 0 1 1 1
M(ϕ) = MB (ϕ) = TB · MB (ϕ) · TB = · · ·
1 1 0 −1 2 −1 1
1 1 1 1 1 1 0 2 0 1
= · = = .
2 1 −1 −1 1 2 2 0 1 0
Y = S · X · T −1 . (4.12)
4.2. Lineare Abbildungen und Matrizen 193
Mat(n × n, K) → Mat(n × n, K) ,
X → S · X · S −1 ,
Bemerkung 4.44. Sind zwei Matrizen ähnlich, so sind sie auch äquivalent (mit S = T),
aber die Umkehrung gilt im Allgemeinen nicht, denn äquivalente Matrizen müssen z.B. nicht
quadratisch sein.
Beispiel 4.45. Seien X = 1n und Y ∈ GL(n, K) mit Y 1n . Dann sind X und Y äquivalent,
denn mit S := Y und T := 1n ist
S · X · T = Y · 1n · 1n = Y .
Anderseits sind X und Y aber nicht ähnlich, denn für jedes T ∈ GL(n, K) ist
T · X · T −1 = T · 1n · T −1 = T · T −1 = 1n Y .
Die Einheitsmatrix 1n ist nur zu sich selbst ähnlich, aber zu jeder anderen invertierbaren
n × n-Matrix äquivalent.
Bemerkung 4.46. Die Transformationsformel (4.10) zeigt, dass die darstellenden Matrizen
eines Homomorphismus bzgl. verschiedener Basen der beteiligten Vektorräume zueinander
äquivalent sind.
Ist umgekehrt X = MBA(ϕ) die darstellende Matrix eines Homomorphismus ϕ ∈ HomK (V, W)
bzgl. geordneter Basen A = (a1, . . ., an ) von V und B = (b1, . . ., bm ) von W und ist Y zu X
194 4. Lineare Abbildungen
invertierbar ist mit der Inversen S −1 = Rθ = (vθ, wθ ), vgl. auch Aufgabe 4.3. Unter Benutzung
der Additionstheoreme für Sinus und Kosinus rechnet man zunächst nach, dass
cos(2θ) sin(2θ) cos(θ) − sin(θ) cos(θ) sin(θ)
· = .
sin(2θ) − cos(2θ) sin(θ) cos(θ) sin(θ) − cos(θ)
Damit erhalten wir
−1 cos(θ) sin(θ) cos(2θ) sin(2θ) cos(θ) − sin(θ)
S · Sθ · S = · ·
− sin(θ) cos(θ) sin(2θ) − cos(2θ) sin(θ) cos(θ)
cos(θ) sin(θ) cos(θ) sin(θ) 1 0
= · = .
− sin(θ) cos(θ) sin(θ) − cos(θ) 0 −1
1 0
Somit ist jede Spiegelungsmatrix Sθ ähnlich zu der Diagonalmatrix .
0 −1
4.2. Lineare Abbildungen und Matrizen 195
Beispiel 4.48. Alice und Bob wollen sich gegenseitig Bilder über das Internet zuschicken.
Der Einfachheit halber beschränken wir uns auf Schwarz-Weiß-Bilder, bei denen jedes Pixel
entweder weiß oder schwarz ist. Ein solches Bild mit n × m vielen Pixeln können wir mathema-
tisch durch eine Matrix X ∈ Mat(n × m, F2 ) beschreiben, wobei ein weißes Pixel durch einen
Eintrag von 0 an der entsprechenden Stelle der Matrix festgelegt wird, und ein schwarzes Pixel
durch 1.
Da im Internet Unbefugte leicht „mithören“ können, beschließen Alice und Bob zum Schutz
ihrer Privatsphäre die Bilder zu verschlüsseln. Dazu einigen sie sich auf einen Schlüssel, der
aus zwei Matrizen S ∈ GL(n, F2 ) und T ∈ GL(m, F2 ) besteht. Diesen Schlüssel halten Alice
und Bob geheim, er ist nur ihnen beiden bekannt. Möchte nun Alice Bob ein Bild zusenden, das
der Matrix X entspricht, so verschlüsselt sie es zunächst indem sie Y := S · X · T −1 berechnet
und Bob Y zusendet. Bob entschlüsselt das Bild dann, indem er X = S −1 · Y · T berechnet.
Wollen wir Bilder der mit 10 × 15 Pixeln verschicken, so könnten sich Alice und Bob auf
folgende Schlüssel einigen:
1 1 1 0 0 1 1 0 0 1
1 1 0 0 0 0 1 1 1 0
0 1 1 1 1 0 1 0 0 1
0 1 0 1 0 0 1 0 0 0
1 1 0 0 0 0 0 1 0 0
S= ∈ GL(10, F2 )
0 1 1 0 0 0 0 1 1 1
0 0 0 0 0 0 0 1 1 1
0 1 0 1 1 0 1 1 1 1
1 0 1 1 1 1 0 1 0 1
0 1 1 0 1 1 0 1 0 0
mit
1 1 0 1 1 0 0 1 0 1
0 1 0 1 0 0 1 0 1 1
0 1 0 1 0 1 0 0 1 1
1 1 1 1 1 1 0 0 1 0
0 0 0 1 0 0 1 1 0 0
S −1 =
1 0 0 1 0 1 1 0 1 1
1 0 1 1 1 1 1 0 0 1
1 0 0 0 0 0 1 1 1 0
1 1 1 1 0 1 1 0 0 1
0 1 1 1 0 1 1 1 1 1
196 4. Lineare Abbildungen
und
0 1 0 1 1 1 0 1 0 0 1 0 1 0 1
0 1 1 1 0 1 1 0 1 1 1 0 0 1 1
0 0 0 0 0 1 0 1 0 1 1 0 1 1 1
0 0 0 0 1 1 0 1 1 1 0 0 1 0 1
0 1 0 1 1 0 0 1 1 0 0 1 1 1 0
1 1 0 1 1 0 1 1 0 0 0 1 0 0 0
1 0 1 1 0 1 1 0 0 1 0 0 0 1 1
T = 1 1 1 1 0 0 1 0 1 0 1 1 1 0 1 ∈ GL(15, F2 )
0 1 0 0 0 0 1 1 0 1 0 0 0 0 0
1 0 1 1 1 0 0 1 1 1 0 1 0 0 1
0 1 1 1 1 1 1 1 0 1 1 0 0 1 1
0 0 1 1 1 0 1 0 0 0 1 0 1 0 1
0 1 0 1 1 1 0 1 0 1 0 0 1 1 1
0 0 0 0 1 1 1 0 1 0 0 1 1 0 1
0 0 0 1 1 1 0 0 1 0 0 0 1 1 1
mit
0 0 1 0 0 1 1 1 1 0 1 1 0 0 1
1 1 1 0 1 0 1 0 1 1 0 1 1 0 1
0 0 1 1 0 1 1 1 0 1 0 0 0 1 0
0 1 1 1 0 0 1 1 1 0 0 1 1 1 0
0 0 1 0 1 1 0 0 1 1 0 1 1 1 1
0 0 1 1 0 0 0 1 1 1 1 1 1 0 1
0 0 0 1 1 0 1 0 0 1 1 1 0 0 1
T −1 = 0 1 1 1 0 1 1 0 0 0 0 0 0 1 1 .
0 0 0 1 1 0 1 0 1 1 1 1 1 0 0
1 0 0 0 0 1 1 0 0 0 1 0 1 1 1
1 0 0 1 0 1 0 1 1 0 0 1 0 0 0
1 1 1 1 1 0 1 0 0 1 0 1 1 1 1
1 0 1 1 1 0 0 0 1 0 0 0 1 1 1
1 0 0 1 0 0 1 1 1 0 1 1 0 1 1
0 1 0 1 1 1 1 1 0 1 1 1 1 0 1
1 5 10 15
1 1
2 2
3 3
4 4
5 5
6 6
7 7
8 8
9 9
10 10
1 5 10 15
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 1 1 0 1 1 0 0 0 1 1 0 0
0 0 0 1 1 0 1 1 0 0 0 1 1 0 0
0 0 0 1 1 1 1 1 0 0 0 1 1 0 0
X =
0 0 0 1 1 1 1 1 0 0 0 1 1 0 0
0 0 0 1 1 0 1 1 0 0 0 1 1 0 0
0 0 0 1 1 0 1 1 0 0 0 1 1 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 1 0 0 0 0 0 0 0 0 0 1 1 1 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 1 1 0 0 0 1 1 1 1 1 1 0 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 1 1 1 0 0 0 1 1 1 1 0 0 1 1
Y =
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 1 1 1 0 0 0 1 1 1 1 0 0 1 1
0 0 1 1 0 0 0 1 1 1 1 1 1 0 1
0 1 1 1 0 0 0 1 1 1 1 0 0 1 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 5 10 15
1 1
2 2
3 3
4 4
5 5
6 6
7 7
8 8
9 9
10 10
1 5 10 15
enstpricht.
Dieses Verschlüsselungsverfahren wäre allerdings nicht wirklich praxistauglich. Zum einen
bräuchte man für jede Bildergröße eigene Schlüssel, zum anderen würden manche Bilder
nur schwach oder gar nicht verschlüsselt. Ein rein weißes Bild zum Beispiel entspricht der
Nullmatrix. Ist aber X die Nullmatrix, dann ist auch Y = S · X · T −1 die Nullmatrix. Dieses
Bild ginge also immer unverschlüsselt über das Internet.
Für reelle Matrizen haben wir in Definition 2.65 den Rang definiert. Für Matrizen mit Einträgen
in einem allgemeinen Körper ist die Definition dieselbe:
Bemerkung 4.50. Nun kennen wir den Rang von Matrizen und den Rang von linearen Abbil-
dungen. Diese beiden Konzepte von Rang vertragen sich gut in dem Sinne, dass der Rang einer
darstellenden Matrix eines Homomorphismus ϕ mit dem Rang von ϕ selbst übereinstimmt.
Genauer: Sind V und W endlich-dimensionale K-Vektorräume mit geordneten Basen A bzw.
B und ist ϕ ∈ Hom(V, W), dann gilt:
rg(MBA(ϕ)) = rg(ϕ).
rg(ϕ) = dim(im(ϕ))
= dim(L(ϕ(a1 ), . . ., ϕ(an )))
= dim(ψB−1 (L(ϕ(a1 ), . . ., ϕ(an ))))
= dim(L(ψB−1 ◦ ϕ(a1 ), . . . , ψB−1 ◦ ϕ(an ))))
4.2. Lineare Abbildungen und Matrizen 199
Satz 4.51. Sei K ein Körper, seien V und W endlich-dimensionale K-Vektorräume, und sei
ϕ : V → W eine lineare Abbildung mit Rang rg(ϕ) = r. Dann gibt es geordnete Basen A von
V und B von W, so dass die darstellende Matrix MBA(ϕ) die folgende Gestalt hat:
r
*+()
1 0 ··· ··· ··· 0
. . ..
0 .. .. .
. . .. ..
.. . . 1 . . 1r 0
MBA(ϕ) = . .. . . .. = .
.. . . . 0 0
0
. .. ..
.. . . 0
0 ··· ··· ··· 0 0
Beweis. a) Wir wählen eine geordnete Basis (b1, . . ., br ) von im(ϕ) und ergänzen diese zu einer
geordneten Basis B := (b1, . . . , br , br+1, . . ., bm ) von W. Für j = 1, . . ., r liegt b j ∈ im(ϕ) und
kann daher in der Form b j = ϕ(a j ) geschrieben werden, wobei a j ∈ V ein geeignetes Element
ist.
Wir setzen n := dim(V). Nach der Dimensionsformel (4.4) ist
dim ker(ϕ) = dim(V) − dim im(ϕ) = n − r .
Wähle also eine geordnete Basis (ar+1, . . ., an ) von ker(ϕ). Wir zeigen nun, dass
(a1, . . ., ar , ar+1, . . . , an ) eine geordnete Basis von V ist.
b) Dazu reicht es zu zeigen, dass (a1, . . . , ar , ar+1, . . ., an ) linear unabhängig ist, denn dann
ist wegen dim(V ) = n die Menge {a1, . . . , ar , ar+1, . . ., an } maximal linear unabhängig damit
nach Satz 3.112 eine Basis.
Sei also
λ 1 a1 + . . . + λ n an = 0 (4.14)
für λ1, . . . , λn ∈ K. Dann gilt
0 = ϕ(0)
= ϕ(λ1 a1 + . . . + λn an )
= λ1 ϕ(a1 ) + . . . + λr ϕ(ar ) + λr+1 ϕ(ar ) + . . . + λn ϕ(an )
= λ1 b1 + . . . + λr br ,
200 4. Lineare Abbildungen
λr+1 ar+1 + . . . + λn an = 0 .
Da (ar+1, . . ., an ) eine Basis von ker(ϕ) und damit insbesondere linear unabhängig ist, folgt
λr+1 = . . . = λn = 0. Damit ist gezeigt, dass A := (a1, . . ., ar , ar+1, . . . , an ) eine geordnete
Basis von V ist.
c) Wir haben jetzt eine geordnete Basis A von V und eine geordnete Basis B von W gefunden
und müssen nun noch zeigen, dass die darstellende Matrix MBA(ϕ) von ϕ bzgl. dieser Basen
die angegebene Form hat. Da für die Basisvektoren aus A gilt: ϕ(ai ) = bi für i = 1, . . ., r und
ϕ(ai ) = 0 für i = r + 1, . . ., n, so ist die darstellende Matrix gegeben durch:
Korollar
4.52. Jede Matrix X ∈ Mat(m × n, K) vom Rang r ist äquivalent zu der Matrix
1r 0
.
0 0
Korollar 4.53. Zwei Matrizen X, Y ∈ Mat(m × n, K) sind genau dann äquivalent, wenn sie
denselben Rang haben, d.h. rg(X) = rg(Y ).
Beweis. In Bemerkung 4.50 haben wir festgestellt, dass äquivalente Matrizen denselben Rang
haben. Gilt umgekehrt
rg(X) = rg(Y ) = r, dann sind nach Korollar 4.52 sowohl X als auch Y
1r 0
äquivalent zu , und damit auch zueinander äquivalent.
0 0
4.2. Lineare Abbildungen und Matrizen 201
Bemerkung 4.54. In Beispiel 4.45 haben wir gesehen, dass die Einheitsmatrix 1n nur zu sich
selbst ähnlich ist. Jede andere invertierbare Matrix X ∈ GL(n, K) hat aber ebenfalls Rang n. Die
Korollare 4.52 und 4.53 gelten also nicht, wenn man das Wort „äquivalent“ durch „ähnlich“
ersetzt.
Ein Endomorphismus ϕ ∈ EndK (V) kann im Allgemeinen
nur bzgl. verschiedener Basen A
1r 0
und B von V durch eine Matrix der Gestalt dargestellt werden.
0 0
Da sich der Rang einer Matrix auf ihre Spaltenvektoren bezieht, nennt man ihn auch den
Spaltenrang. Analog können wir auch den Zeilenrang einer Matrix definieren:
Definition 4.55. Sei K ein Körper und X ∈ Mat(m × n, K). Dann heißt
Von den reellen Matrizen kennen wir bereits das Konzept der transponierten Matrix, die wir
bekommen, indem wir Spalten und Zeilen vertauschen.
c11 · · · cm1
. ..
X := ..
. ∈ Mat(n × m, K) (4.15)
c1n · · · cmn
heißt Transposition.
202 4. Lineare Abbildungen
Satz 4.57. Sei K ein Körper, seien X, Y ∈ Mat(m × n, K), sei Z ∈ Mat(l × m, K), sei
S ∈ GL(m, K), und sei α ∈ K. Dann gilt:
(X + Y) = X + Y , (4.16)
(α · X) = α · X , (4.17)
(X ) = X, (4.18)
(Z · Y) = Y · Z , (4.19)
−1 −1
S = S , (4.20)
rg X = r3g(X), (4.21)
r3g X = rg(X). (4.22)
Beweis. Die Gleichungen (4.16), (4.17), (4.18), (4.21) und (4.22) erhält man unmittelbar aus
der Definition 4.56 der Transponierten sowie der Definition des Spalten- und Zeilenrangs. Die
Gleichung (4.19) erhält man durch eine einfache Rechnung:
m
m
(Z · Y )i j = (Z · Y) ji = Z j k · Yki = (Y )ik · (Z )k j = (Y · Z )i j .
k=1 k=1
Bemerkung 4.58. Wir haben schon gesehen, dass äquivalente Matrizen denselben (Spalten-)
Rang haben. Sie haben aber auch denselben Zeilenrang, d.h. sind X, Y ∈ Mat(m × n, K)
äquivalent, so gilt:
r3g(X) = r3g(Y ). (4.23)
Sind nämlich X und Y äquivalent, so gibt es Matrizen S ∈ GL(m, K) und T ∈ GL(n, K), so
dass Y = SXT −1 . Daraus erhalten wir durch Transposition:
(4.19) −1 (4.20) −1
Y = SXT −1 = T · X · S = T · X · S .
Somit sind X und Y ebenfalls äquivalent und wir erhalten
(4.21) (4.21)
r3g(X) = rg(X ) = rg(Y ) = r3g(Y ) .
Nun können wir feststellen, dass Spalten- und Zeilenrang einer Matrix stets übereinstimmen.
Daher brauchen wir nicht zwischen diesen beiden Konzepten von Rang zu unterscheiden und
werden wir künftig nur noch vom Rang der Matrix sprechen.
4.2. Lineare Abbildungen und Matrizen 203
Satz 4.59. Sei K ein Körper und X ∈ Mat(m × n, K). Dann gilt:
Beweis.
rg(X) = r. Dann ist nach Korollar 4.52 die Matrix X äquivalent zu der Matrix
Sei
1r 0
. Somit gilt:
0 0
1r 0 1r 0 1r 0
r3g(X) = r3g = rg = rg = r = rg(X).
0 0 0 0 0 0
Beispiel 4.60. Bei folgender Matrix sieht man sofort, dass die untere Zeile das Doppelte der
oberen ist. Daher gilt
1 2 3 4 1 2 3 4
rg = r3g = 1.
2 4 6 8 2 4 6 8
Zum Schluss dieses Abschnitts noch einige Bemerkungen über lineare Gleichungssysteme. In
Abschnitt 2.3 haben wir den Gauß-Algorithmus für reelle lineare Gleichungssysteme kennen-
gelernt. Ersetzen wir die reellen Zahlen durch einen beliebigen Körper, so ändert sich an der
Diskussion nichts. Auch Satz 2.67 bleibt gültig.
Führt man elementare Zeilentransformationen an einer Matrix A ∈ Mat(m × n, K) durch, so
ändert sich die Lösungsmenge des homogenen LGS A · x = 0 nicht, d.h. der Kern von A bleibt
unverändert. Aufgrund der Dimensionsformel ändert sich auch der Rang von A dabei nicht.
Haben wir A in Zeilenstufenform gebracht, so können wir den (Zeilen-) Rang leicht ablesen;
er ist dann die Anzahl der Zeilen, die nicht aus lauter Nullen bestehen.
7 0 −7 0
8 −5 −2
1
A=
0
1 −3 0
0 3 −6 −1
zu bestimmen, können wir sie durch elementare Zeilentransformationen in Zeilenstufenform
bringen, was wir in Beispiel 2.68 bereits getan haben. Wir erhielten die Matrix
1 0 −1 0
0 1 3 −2
=: Ã
0 0 1 − 13
0 0 0 0
204 4. Lineare Abbildungen
in Zeilenstufenform. Nun hat à drei Zeilen, die nicht nicht nur null sind, also ist rg( Ã) = 3 und
damit rg(A) = 3.
4.3. Determinanten
Als Nächstes führen wir Determinanten ein. Mit ihrer Hilfe kann man überprüfen, ob eine
quadratische Matrix invertierbar ist oder nicht. Sie sind aber auch geometrisch sehr nützlich
bei der Berechnung von Volumina.
Bevor wir zu einer Definition von Determinanten kommen, überlegen wir uns zunächst, was
sie tun sollen. Dann werden wir feststellen, dass es genau eine sinnvolle Definition gibt.
Da wir es bei Determinaten andauernd mit quadratischen Matrizen zu tun haben, wollen wir
die kürzere Notation
Mat(n, K) := Mat(n × n, K)
verwenden.
a1
a1
.. ..
. .
ai−1 ai−1
det λ · ai = λ · det ai
ai+1 ai+1
.. ..
. .
a n a n
und
a1
a1
a1
.. .. ..
. . .
ai−1 ai−1 ai−1
det ai + ai = det ai + det ai .
ai+1 ai+1 ai+1
.. .. ..
. . .
a n a n a n
4.3. Determinanten 205
(D2) Die Abbildung det ist alternierend, d.h. falls in einer Matrix A zwei Zeilen überein-
stimmen, so ist det(A) = 0.
Aus diesen drei Eigenschaften ergeben sich eine ganze Reihe weiterer Eigenschaften von
Determinatenabbildungen.
Satz 4.63. Sei K ein Körper und sei n ∈ N. Sei det : Mat(n, K) → K eine Determinanten-
abbildung. Dann gilt für alle A, B ∈ Mat(n, K) und alle λ ∈ K:
(D4)
det(λ · A) = λn · det(A) . (4.25)
(D6) Entsteht B aus A durch Vertauschung zweier Zeilen, so ist det(B) = − det(A).
(D7) Entsteht B aus A durch Addition des Vielfachen einer Zeile zu einer anderen, so ist
det(B) = det(A).
(D8) Ist A eine obere Dreiecksmatrix mit den Diagonaleneinträgen λ1, . . . , λn , d.h. hat A
die Gestalt
λ ∗ ··· ∗
1
0 . . . . . . ...
,
A= . .
.. . . . . . ∗
0 · · · 0 λn
so ist det(A) = λ1 · · · λn .
Beweis. Zu (D4):
Wir berechnen unter Benutzung von (D1):
λ · a1
a a
1
1
λ · a2 λ · a2 a2
det(λ · A) = det λ · a3 = λ · det λ · a3 = λ2 · det λ · a3
. . .
.. .. ..
λ · a λ · a λ · an
n
n
206 4. Lineare Abbildungen
a
1
a2
= . . . = λn · det a3 = λn · det(A) .
.
..
an
Zu (D5):
Wir berechnen unter Benutzung von (D1):
a1
a1
a1
.. .. ..
. . .
a a a
i−1 i−1 i−1
(D1)
det(A) = det 0 = det 0 · 0 = 0 · det 0 = 0 .
ai+1 ai+1 ai+1
.. .. ..
. . .
an an an
Zu (D6):
a1
Sei A = ... und es gehe B aus A durch Vertauschung der i-ten mit der j-ten Zeile hervor,
an
wobei wir i < j wählen. Dann erhalten wir aus (D2):
a1
a1
a1
.. .. ..
. . .
ai−1 ai−1 ai−1
ai + a j ai aj
ai+1 ai+1 ai+1
(D2) . . .
0 = det .. = det .. + det ..
a a a
j−1 j−1 j−1
ai + a j ai + a j ai + a j
a j+1 a j+1 a j+1
.. .. ..
. . .
an an an
4.3. Determinanten 207
a1
a1
a1
a1
.. .. .. ..
. . . .
ai−1 ai−1 ai−1 ai−1
ai ai aj aj
ai+1 ai+1 ai+1 ai+1
. . . .
= det .. + det .. + det .. + det ..
a a a a
j−1 j−1 j−1 j−1
ai aj ai aj
a j+1 a j+1 a j+1 a j+1
.. .. .. ..
. . . .
a n a n a n a n
(D2)
= 0 + det(A) + det(B) + 0 .
Wir haben also det(A) = − det(B).
Zu (D7):
a1
.
Sei A = .. und es gehe B aus A durch Addition des λ-fachen der j-ten Zeile zur i-ten Zeile
an
hervor, wobei j i. Dann erhalten wir aus (D2):
a1
a1
a1
.. .. ..
. . .
ai−1 ai−1 ai−1
ai + λ · a j ai aj
(D2)
det(B) = det ai+1 = det ai+1 + λ · det ai+1 = det(A) + λ · 0 = det(A) .
.. .. ..
. . .
aj aj
aj
.. . .
. .. ..
a n a
n a
n
Zu (D8):
a) Betrachten wir zunächst den Fall, dass λi 0 für alle i = 1, . . . , n. Dann lässt sich die Matrix
A durch Operationen wie in (D7) in eine Diagonalmatrix
λ 0 ... 0
1
0 . . . . . . ...
B=. .
.. . . . . . 0
0 . . . 0 λn
208 4. Lineare Abbildungen
λ 0 ... 0
1
0 . . . . . . ...
(D7) (D1)
det(A) = det . . = λ1 · · · λn · det(1n ) = λ1 · · · λn .
.. . . . . 0
.
0 . . . 0 λn
b) Sei nun λi = 0 für mindestens ein i ∈ {1, . . . , n}. Wir wählen das maximale solche i, so dass
also λi = 0 und λ j 0 für j = i + 1, . . . , n. Wie in a) lässt sich die Matrix A durch elementare
Zeilenumformungen wie in (D7) in eine Matrix
λ1 ∗ · · · · · · ··· ··· ∗
.. .. ..
. . .
λi−1 ∗ ··· · · · ∗
B = 0 ··· ··· 0 ··· ··· 0
λi+1
..
.
λn
(D7) (D5)
überführen.2 Damit ist det(A) = det(B) = 0 = λ1 · · · λn .
Satz 4.64. Sei K ein Körper und sei n ∈ N. Sei det : Mat(n, K) → K eine Determinanten-
abbildung. Dann ist für alle A ∈ Mat(n, K) äquivalent:
(1) det(A) 0.
(2) rg(A) = n.
Beweis. Zu „(1)⇔(2)“:
In Abschnitt 2.3 haben wir gelernt, dass sich eine Matrix durch Vertauschen von Zeilen und
Addition von Vielfachen von Zeilen zu anderen Zeilen in Zeilenstufenform bringen lässt. Im
1Ziehe zunächst geeignete Vielfache des 1/λn -fachen der letzten Zeile von den darüber liegenden Zeilen ab.
Dadurch werden alle bis auf den untersten Eintrag in der letzten Spalte = 0. Ziehe anschließend geeignete
Vielfache des 1/λn−1 -fachen der vorletzten Zeile von den darüber liegenden Zeilen ab. Dadurch werden alle
Einträge oberhalb der Diagonale in der vorletzten Spalte = 0, usw.
2Wir verfahren wie in a) und stoppen nachdem wir die i-te Zeile verarztet haben.
4.3. Determinanten 209
Fall einer quadratischen Matrix erhalten wir somit eine obere Dreiecksmatrix
λ ∗ ... ∗
1
0 . . . . . . ...
.
A = . .
.. . . . . . ∗
0 . . . 0 λn
Wegen (D6) und (D7) ändert die Determinante dabei allenfalls ihr Vorzeichen, det(A) =
± det(A). Auch der Rang einer Matrix ändert sich nicht bei Zeilenumformungen, rg(A) =
rg(A). Also haben wir:
det(A) 0 ⇐⇒ det(A) 0
(D8)
⇐⇒ λ1 · · · λn 0
⇐⇒ λ1 0 ∧ . . . ∧ λn 0
⇐⇒ rg(A) = n
⇐⇒ rg(A) = n .
Zu „(3)⇒(2)“:
Ist A invertierbar, so ist ϕ A : K n → K n , ϕ A(x) = A · x, bijektiv, insbesondere surjektiv. Also
ist im(ϕ A) = K n und damit rg(A) = rg(ϕ A) = dim(K n ) = n.
Zu „(2)⇒(3)“:
Sei rg(A) = n. Dann ist dim(im(ϕ A)) = rg(ϕ) = rg(A) = n. Also ist im(ϕ A) ein n-dimensionaler
Untervektorraum von K n und damit nach Korollar 3.131 im(ϕ A) = K n . Also ist ϕ A surjektiv.
Nach Korollar 4.20 ist ϕ A ein Isomorphismus und damit A invertierbar.
Determinantenabbildungen können uns also dabei helfen zu entscheiden, ob eine Matrix inver-
tierbar ist. Allerdings wissen wir noch gar nicht, ob es überhaupt Determinantenabbildungen
gibt.
Satz 4.65. Für jeden Körper K und jedes n ∈ N, n ≥ 1, gibt es genau eine Determinanten-
abbildung det : Mat(n, K) → K.
Sei dabei k die Anzahl der Zeilenvertauschungen. Aus den Eigenschaften (D6), (D7) und (D8)
erhalten wir dann:
det(A) = (−1)k det(A) = (−1)k · λ1 · . . . · λn
4 ) = (−1)k · λ1 · . . . · λn . Also ist det(A) = det(A).
und genauso det(A 4
a11 . . . a1 j . . . a1n
.. .. . ..
. . .. .
AiStr
j := ai1 . . . ai j . . . ain .
.. .. . . .
.
. . ..
an1 . . . an j . . . ann
Sei nun j ∈ {1, . . ., n} fest gewählt. Dann setzen wir:
n
det n (A) := (−1)i+ j · ai j · det n−1 (AiStr
j ). (4.26)
i=1
Wir müssen nun nachweisen, dass die so definierte Abbildung detn : Mat(n, K) → K tatsächlich
eine Determinantenabbildung ist, d.h. dass sie den Axiomen (D1), (D2) und (D3) genügt:
(D1) Es entstehe  aus A durch Multiplikation der k-ten Zeile mit λ. Dann ist ÂStr kj
= AStr
kj
,
denn die veränderte k-te Zeile wird ja gestrichen. Für i k entsteht Âi j aus Ai j Str Str
durch Multiplikation einer Zeile mit λ (nämlich der k-ten, falls i > k, der (k − 1)-
ten andernfalls). Nach Voraussetzung ist detn−1 eine Determinantenabbildung, so dass
detn−1 ( ÂiStr
j ) = λ · detn−1 (Ai j ). Wir erhalten also für die Determinantenabbildung detn :
Str
det n ( Â) = (−1)k+ j â k j · det n−1 ( ÂStr
kj ) + (−1)i+ j âi j · det n−1 ( ÂiStr
j )
()*+ ()*+ ik ()*+ ()*+
=λak j =ai j =λ det n−1 (AStr
=AStr
kj ij )
n
=λ· (−1)i+ j ai j · det n−1 (AiStr
j )
i=1
= λ · det n (A) .
Ganz analog zeigt man die Additivität.
4.3. Determinanten 211
(D2) Sei A ∈ Mat(n, K), und seien die k-te und l-te Zeile von A identisch, wobei o.B.d.A.
k < l. Falls l i k, so besitzt auch die Matrix AiStr
j zwei identische Zeilen, so dass
detn−1 (Ai j ) = 0 ist. In der Formel (4.26) bleiben also nur noch die folgenden beiden
Str
Summanden:
Da die k-te und l-te Zeile von A übereinstimmen, ist nun a k j = al j für jedes j ∈
{1, . . ., n}. Die Matrizen AStr
kj
und AStr
lj
sind aus A durch Streichung der j-ten Spalte und
jeweils einer der beiden übereinstimmenden Zeilen entstanden. Somit haben AStr kj
und
AStr
lj
bis auf die Reihenfolge identische Zeilen. Genauer geht A Str aus AStr hervor indem
kj lj
man die l-te Zeile mit allen Zeilen zwischen der k-ten und der l-ten vertauscht. Das
macht genau l − k − 1 Zeilenvertauschungen. Somit ist
und schließlich
det n (A) = (−1)k+ j+l−k−1 + (−1)l+ j ·al j · det n−1 (AStr lj ) = 0 .
()*+
=0
n
det n (A) = (−1)i+ j · ai j · det n−1 (AiStr
j )
i=1
= (−1) j+ j · 1 · det n−1 (AStr
jj ) + (−1)i+ j · 0 · det n−1 (AiStr
j )
i j
Bemerkung 4.66. Nachdem wir gezeigt haben, dass es für jedes n ∈ N genau eine Deter-
minantenabbildung det : Mat(n, K) → K gibt, bezeichnen wir diese Abbildung stets mit det,
ohne Kennzeichnung der Zahl n im Index. Die Formel (4.26) bezeichnen wir als Entwicklung
der Determinante nach der j-ten Spalte. Interessanterweise hat die Wahl von j keine Rolle
gespielt. Mit dem Beweis von Satz 4.65 haben wir auch schon den folgenden Entwicklungssatz
gleich mit bewiesen:
212 4. Lineare Abbildungen
Satz 4.67 (Spaltenentwicklungssatz von Laplace). Sei K ein Körper, sei n ≥ 2 und sei
A ∈ Mat(n, K) mit den Einträgen ai j und den Streichungsmatrizen AiStr
j . Dann gilt
n
det(A) = (−1)i+ j · ai j · det(AiStr
j ). (4.27)
i=1
Bemerkung 4.68. Die Vorzeichen (−1)i+ j in der Laplace-Entwicklung bilden ein Schachbrett-
muster:
+ − + − + −
− + − + − +
+ − + − + −
− + − + − +
+ − + − + −
− + − + − +
Tab. 24 Vorzeichen in der Laplace-Entwicklung
Für kleine Matrizen können wir relativ einfache Formeln für die Determinante angeben. Sei K
ein Körper und sei A ∈ Mat(n, K).
a) Für n = 1 haben wir einfach A = (a) und det(A) = a, vgl. den Beweis von Satz 4.65.
a b
b) Für n = 2 schreiben wir A = und entwickeln nach der ersten Spalte:
c d
a b c
c) Für n = 3 schreiben wir A = d e f . Entwicklung nach der ersten Spalte liefert:
g h i
e f b c b c
det(A) = a · det − d · det + g · det
h i h i e f
= a · (ei − h f ) − d · (bi − hc) + g · (b f − ec)
= aei + dhc + gb f − (ah f + dbi + gec).
Für diese Formel gibt es als Merkhilfe die Regel von Sarrus. Dazu schreibt man die
ersten beiden Spalten nochmal hinter die Matrix. Die Produkte mit positivem Vorzeichen
4.3. Determinanten 213
sind dann die Diagonalprodukte, die von links oben losgehen (blau), die mit negativem
Vorzeichen, diejenigen die links unten beginnen (rot).
a b c a b
d e f d e
g h i g h
0 1 i
A = 1 i 1 .
2 3 4
Wir können die Determinante berechnen, indem wir sie durch spezielle Zeilentransformationen
in obere Dreiecksform bringen:
2 3 4
2 3 4
2 3 4
−1
det(A) = − det 1 1 = − det 0 i − 2 −1 = − det 0 i − 2
3 3
i
0 1 i 0 1 i 0 0 i + i−13
$ % $ % $ % 2
3 1 3
= −2 · i − · i+ = −2 i − i − 2 = 3i .
2 i − 32 2
Wir können aber auch die Regel von Sarrus anwenden und erhalten ebenfalls
det(A) = 0 · i · 4 + 1 · 1 · 2 + i · 1 · 3 − 2 · i · i − 3 · 1 · 0 − 4 · 1 · 1 = 0 + 2 + 3i + 2 − 0 − 4 = 3i.
In diesem Beispiel ist die Regel von Sarrus weniger rechenaufwändig und daher eine bequeme
Möglichkeit, die Determinante zu berechnen. Wir vergessen aber nicht, dass die Regel von
Sarrus nur für 3×3-Matrizen gültig ist. Dagegen funktioniert die Überführung in Dreiecksform
durch Zeilentransformationen in allen Dimensionen.
Als Nächstes stellen wir fest, dass die Determinante nicht nur linear in jeder Zeile ist, sondern
auch in jeder Spalte.
Korollar 4.70. Sei K ein Körper und sein n ∈ N. Die Determinante ist linear in jeder Spalte,
d.h. sind a1, . . ., an, aj , aj ∈ K n Spaltenvektoren von Matrizen aus Mat(n, K) und ist λ ∈ K,
so gilt:
det a1 . . . λ · a j . . . an = λ · det a1 . . . a j . . . an ,
214 4. Lineare Abbildungen
det a1 . . . aj + aj . . . an
= det a1 . . . aj . . . an + det a1 . . . aj . . . an .
Satz 4.71. Sei K ein Körper und sei n ∈ N. Dann gilt für alle A ∈ Mat(n, K):
Wenn wir zeigen können, dass det 4 den Axiomen (D1), (D2) und (D3) genügt, also eine
4 = det und damit
Determinantenabbildung ist, so folgt wegen der Eindeutigkeit in Satz 4.65 det
die Behauptung. Also überprüfen wir die Axiome:
Zu (D1):
Die Determinante det ist nach der Korollar 4.70 linear in jeder Spalte. Damit ist die Abbildung
4 linear in jeder Zeile.
det
Zu (D2):
Hat A ∈ Mat(n, K) zwei identische Zeilen, so hat A zwei identische Spalten. Damit ist
4
rg(A ) < n und folglich det(A) = det(A ) = 0.
Zu (D3):
Offensichtlich gilt:
4 n ) = det(1n ) = det(1n ) = 1 .
det(1
4.3. Determinanten 215
Satz 4.72 (Zeilenentwicklungssatz von Laplace). Sei K ein Körper, sei n ∈ N, n ≥ 2, und
sei A ∈ Mat(n, K) mit den Einträgen ai j und den Streichungsmatrizen AiStr
j . Dann gilt für
jedes i ∈ {1, . . . , n}:
n
det(A) = (−1)i+ j · ai j · det(AiStr
j ). (4.29)
j=1
Beweis. Wir können det(A) = det(A ) mit der Formel (4.27) durch die Entwicklung nach der
i-ten Spalte von A berechnen. Das entspricht genau der Entwicklung nach der i-ten Zeile von
A in der Formel (4.29).
0 1 i
i 1 1 1 1 i
det 1 i 1 = 0 · det − 1 · det + i · det = −2 + i(3 − 2i) = 3i .
3 4 2 4 2 3
2 3 4
Korollar 4.74. Sei K ein Körper, sei n ∈ N und sei A ∈ Mat(n, K). Entsteht  aus A durch
Vertauschen zweier Spalten, so ist det( Â) = − det(A).
Beweis. Entsteht  entsteht A durch Vertauschen zweier Spalten, so entsteht  aus A durch
Vertauschen zweier Zeilen. Aus (D6) und Satz 4.71 erhalten wir dann
(D6)
det( Â) = det( Â ) = − det(A ) = − det(A).
Beweis. a) Wir betrachten zunächst den Fall det(B) = 0. Nach Satz 4.64 ist dann rg(B) < n.
Es gibt also ein x ∈ K n \ {0} mit B · x = 0. Damit ist auch A · B · x = 0, folglich rg(A · B) < n.
Wiederum nach Satz 4.64 ist dann det(A · B) = 0 und daher
det(A · B) = 0 = det(A) · 0 = det(A) · det(B) .
b) Sei nun det(B) 0. Wir fixieren B und setzen
4 : Mat(n, K) → K , 4 det(A · B)
det det(A) := .
det(B)
216 4. Lineare Abbildungen
Wir zeigen nun, dass det 4 den Axiomen (D1), (D2) und (D3) einer Determinantenabbildung
genügt. Wegen der Eindeutigkeit in Satz 4.65 ist dann det(A) 4 = det(A), und daraus folgt
unmittelbar die Behauptung.
Zu (D1):
Seien a1, . . ., an, ai, ai, b1, . . . , bn ∈ K n und λ, λ ∈ K. Wir schreiben A in Zeilenvektoren
a1 , . . . , an , und B in Spaltenvektoren b1, . . . , bn :
a1
.
A = .. , B = b 1 . . . bn .
an
Sei nun ai = λ · ai + λ · ai. Dann hat das Produkt A · B die folgenden Einträge:
a 1 · b 1 . . . a1 · b n
.. ..
. .
A · B = ai · b1 . . . ai · bn
.. ..
. .
an · b 1 . . . an · b n
a1 · b1 ...
a1 · bn
.. ..
. .
= (λ · ai + λ · ai ) · b1 . . . (λ · ai + λ · ai ) · bn
.. ..
. .
a n · b 1 . . . a n · b n
a1 · b1 ... a1 · b n
.. ..
. .
= λ · (ai ) · b1 + λ · (ai ) · b1 . . . λ · (ai ) · bn + λ · (ai ) · bn .
.. ..
. .
a n · b 1 . . . a n · b n
Seien nun A bzw. A die Matrizen, die aus A durch Ersetzen der i-ten Zeile ai durch (ai)
bzw. (ai) entstehen. Da die Abbildung det dem Axiom (D1) genügt, ist somit det(A · B) =
λ · det(A · B) + λ · det(A · B). Wir erhalten also:
Zu (D2):
Sei A ∈ Mat(n, K) mit zwei gleichen Zeilen. Dann ist rg(A) < n, also für jedes B ∈ Mat(n, K)
4
auch rg(A · B) < n. Somit ist det(A · B) = 0 und det(A) = 0.
4.3. Determinanten 217
Zu (D3):
Schließlich gilt:
4 n ) = det(1n · B) = det(B) = 1 .
det(1
det(B) det(B)
Korollar 4.76. Sei K ein Körper und sei n ∈ N. Ist A ∈ GL(n, K), so gilt:
1
det(A−1 ) = . (4.31)
det(A)
Determinanten helfen uns nicht nur festzustellen, ob eine Matrix invertierbar ist. Wir können
Sie auch verwenden, um die Inverse zu berechnen, falls sie existiert.
Satz 4.77. Sei K ein Körper und sei n ∈ N. Für A ∈ Mat(n, K) setzen wir B := bi j i, j=1,...,n
mit
bi j := (−1)i+ j · det(AStr
ji ) . (4.32)
Dann gilt:
A · B = B · A = det(A) · 1n .
Ist insbesondere A invertierbar, so gilt:
1
A−1 = ·B. (4.33)
det(A)
Beweis. Wir berechnen zunächst die Diagonaleinträge des Produkts A · B und benutzen dabei
die Formel (4.29) für die Entwicklung der Determinante nach der i-ten Zeile:
n
n
(4.29)
(A · B)ii = ai j · b ji = ai j · (−1)i+ j · det(AiStr
j ) = det(A) .
j=1 j=1
Nun berechnen wir die übrigen Einträge der i-ten Zeile von A · B. Sei k i und sei  diejenige
Matrix, die aus A entsteht, indem wir die k-Zeile durch die i-te ersetzen. Damit haben wir
n
(A · B)ik = ai j · b j k
j=1
218 4. Lineare Abbildungen
n
= ai j · (−1) j+k · det(AStr
kj )
j=1
n
= â k j · (−1) j+k · det( ÂStr
kj )
j=1
= det( Â) .
Da aber  zwei gleiche Zeilen – nämlich die k-te und die i-te – hat, ist det( Â) = 0. Somit ist
(A · B)ik = 0 für k i und damit A · B = det(A) · 1n . Analog berechnet man B · A mittels der
Formel (4.27) für die Entwicklung der Determinante nach der i-ten Spalte.
a b
Beispiel 4.78. Sei K ein beliebiger Köper und sei n = 2. Ist A = invertierbar, so ist
c d
nach Satz 4.77 die Inverse gegeben durch:
−1 1 d −c 1 d −b
A = = .
det(A) −b a ad − bc −c a
Die Transposition der Matrix beim zweiten Term war nötig, weil in (4.32) die Indizes i und j
auf den beiden Seiten in vertauschter Reihenfolge auftreten.
Hat ein inhomogenes lineares Gleichungssystem genau eine Lösung, dann kann diese mit Hilfe
von Determinanten berechnet werden.
Satz 4.80 (Cramer’sche Regel). Sei K ein Körper und sei n ∈ N. Seien a1, . . ., an, b ∈ K n ,
und sei A = (a1, . . ., an ) ∈ Mat(n, K) invertierbar.
Dann ist die eindeutige Lösung x ∈ K n des linearen Gleichungssystems Ax = b gegeben
durch:
det(a1, . . ., ai−1, b, ai+1, . . ., an )
xi = . (4.34)
det(A)
Beweis. Da A invertierbar ist, hat das lineare Gleichungssystem Ax = b genau eine Lösung,
nämlich x = A−1 · b. Nach Satz 4.77 ist der (i, j)-te Eintrag von A−1 gegeben durch
1
A−1 ij = · (−1)i+ j · det(AStr
ji ) .
det(A)
4.3. Determinanten 219
Wir berechnen det(a1, . . ., ai−1, b, ai+1, . . . , an ) indem wir nach der i-ten Spalte entwickeln.
Dabei beachten wir, dass die Streichungsmatrix dann dieselbe ist wie die von A.
n
det(a1, . . . , ai−1, b, ai+1, . . ., an ) = (−1)i+ j · b j · det(AStr
ji ) .
j=1
3 1 i
1
3(4i − 3)
x1 = det 0 i 1 = = 4 + 3i,
3i 3i
0 3 4
0 3 i
1
−6
x2 = det 1 0 1 = = 2i,
3i 3i
2 0 4
0 1 3
1
3(3 − 2i)
x3 = det 1 i 0 = = −2 − 3i .
3i 3i
2 3 0
Also ist die Lösung gegeben durch
4 + 3i
x = 2i .
−2 − 3i
Für lineare Gleichungssysteme mit wenigen Gleichungen und Unbekannten, so wie in diesem
Beispiel, kann die Cramer’sche Regel eine bequeme Möglichkeit sein, die Lösung zu berechnen.
Für sehr große Matrizen dagegen erfordert die Determinantenbestimmung einen gewaltigen
Rechenaufwand. Daher ist die Cramer’sche Regel dann meist nicht praktikabel. Der Gauß’sche
Algorithmus ist dann vorzuziehen, vergleiche Anhang B.3.
220 4. Lineare Abbildungen
Der folgende Satz liefert eine weitere Möglichkeit, die Determinante zu berechnen. Er besagt,
dass wir die Determinante bekommen, indem wir Produkte von Einträgen der Matrix bilden
und diese mit dem richtigen Vorzeichen aufsummieren. Die Produkte, die dabei vorkommen,
sind alle die, bei denen aus jeder Zeile und jeder Spalte genau ein Faktor auftritt. Dazu erinnern
wir uns daran, dass Sn die Gruppe der Permutationen von {1, . . ., n} bezeichnet und sgn(σ)
das Signum der Permutation σ.
Satz 4.82. Sei K ein Körper, sei n ∈ N und sei A ∈ Mat(n, K) mit den Einträgen Ai j . Dann
gilt:
det(A) = sgn(σ) · A1,σ(1) · · · An,σ(n) . (4.36)
σ∈Sn
Bemerkung 4.83. Bevor wir den Beweis durchführen, überlegen wir kurz, was dieser Satz für
kleine Matrizen besagt. Im Fall n = 1 haben wir S1 = {id} und daher
det(A) = A11 .
Im Fall n = 2 ist S2 = {id, τ}, wobei τ die Vertauschung von 1 und 2 ist. Transpositionen haben
Signum −1. Es folgt
vgl. Seite 133. Die ersten drei Permutationen haben positives Signum, die letzten drei negatives.
Also besagt Satz 4.82:
det(A) =A11 · A22 · A33 + A12 · A23 · A31 + A13 · A21 · A32
− A11 · A23 · A32 − A13 · A22 · A31 − A12 · A21 · A33 .
In allen Fällen erhalten wir wieder dieselben Formeln wie in Bemerkung 4.68.
Wir werden nun nachweisen, dass det4 eine Determinantenabbildung ist, so dass wir wegen der
4
Eindeutigkeitsaussage in Satz 4.65 folgern können, dass det(A) = det(A) für alle A ∈ Mat(n, K).
Damit ist der Satz dann bewiesen.
4.3. Determinanten 221
Zu (D1):
Entsteht A aus A durch Multiplikation der k-ten Zeile mit λ ∈ K, dann gilt
4 ) =
det(A sgn(σ) · A1,σ(1) · · · (λ · Ak,σ(k) ) · · · An,σ(n)
σ∈Sn
=λ· sgn(σ) · A1,σ(1) · · · Ak,σ(k) · · · An,σ(n)
σ∈Sn
4
= λ · det(A).
Zu (D2):
Seien die k-te und die l-te Zeile von A gleich, wobei k < l. In anderen Worten, es gilt Ak j = Al j
für alle j = 1, . . ., n.
Sei τ ∈ Sn die Transposition, die k und l vertauscht. Für eine Permutation σ ∈ Sn nennen
wir σ := σ ◦ τ den Partner von σ. Ist σ der Partner von σ, dann gilt wegen τ2 = id, dass
σ ◦ τ = σ ◦ τ ◦ τ = σ, d.h. dann ist σ auch der Partner von σ . Wegen τ id ist kein σ sein
eigener Partner.
Ist σ der Partner von σ, dann gilt Ak,σ(k) = Al,σ(k) = Al,σ ◦τ(k) = Al,σ (l) . Analog gilt
Al,σ(l) = Ak,σ (k) . Stimmt i weder mit k noch mit l überein, so gilt σ(i) = σ (i). Also stimmen
die beiden Produkte, die zu σ bzw. zu seinem Partner σ gehören, überein,
A1,σ(1) · · · Ak,σ(k) · · · Al,σ(l) · · · An,σ(n) = A1,σ (1) · · · Ak,σ (k) · · · Al,σ (l) · · · An,σ (n) .
da das Signum einer Transposition stets gleich −1 ist. Also hebt sich in der Summe in (4.36)
4
der Beitrag einer jeder Permutation mit dem Beitrag des Partners weg. Wir erhalten det(A) = 0.
Zu (D3):
Sei A = 1n . Die einzige Permutation, die einen Beitrag zur Summe in (4.36) liefert, ist σ = id,
denn bei jeder anderen Permutation kommen Nichtdiagonaleinträge im Produkt vor, die im
Fall A = 1n gleich 0 sind. Also ist
4
det(A) = sgn(id) · A11 · · · Ann = 1.
Bemerkung 4.84. Ähnliche Matrizen haben dieselbe Determinante, denn ist  ähnlich zu A,
d.h. Â = T · A·T −1 für ein T ∈ GL(n, K), so ist nach dem Determinatenmultiplikationssatz 4.75:
1
det  = det T · A · T −1 = det(T) · det(A) · det T −1 = det(T) · det(A) · = det(A).
det(T)
222 4. Lineare Abbildungen
Definition 4.85. Sei K ein Körper, sei V ein endlich-dimensionaler K-Vektorraum, sei B
eine Basis von V, und sei ϕ : V → V ein Endomorphismus. Dann heißt
det(ϕ) := det MBB (ϕ) (4.37)
Determinante von ϕ.
Beispiel 4.87. Wir berechnen die Determinante einer Drehung in der Ebene um den Winkel
θ. In der Standardbasis von R2 wird diese Drehung durch die Matrix
cos θ − sin θ
Rθ =
sin θ cos θ
Beispiel 4.88. Analog berechnen wir die Determinate einer Achsenspiegelung. Dabei wollen
wir an der Achse spiegeln, die durch den Ursprung geht und mit der e1 -Achse den Winkel θ
einschließt. In der Standardbasis hat diese Achsenspiegelung die darstellende Matrix
cos 2θ sin 2θ
Sθ = .
sin 2θ − cos 2θ
Beispiel 4.89. Sei V = R4 [x] der R-Vektorraum der Polynome vierten Grades mit reellen
Koeffizienten. Sei ϕ = dx d
: R4 [x] → R4 [x] der Endomorphismus, der durch die Ableitung
der Polynomfunktionen gegeben ist, d.h. ϕ(x k ) := k · x k−1 . In der geordneten Basis B =
(1, x, x 2, x 3, x 4 ) von R4 [x] hat ϕ dann die darstellende Matrix
0 1 0 0 0
0 0
0 2 0
MBB (ϕ) = 0 0 0 3 0 .
0
0 0 0 4
0 0 0 0 0
Somit ist det(ϕ) = det MBB (ϕ) = 0.
Beweis. Zu (i):
Sei B eine Basis von V und n = dim(V). Dann haben wir folgende Äquivalenzen:
Zu (ii):
−1
Wegen MBB (ϕ−1 ) = MBB (ϕ) folgt die Behauptung aus (4.31).
Zu (iii):
Die Behauptung folgt aus dem Determinantenmultiplikationssatz 4.75 und der Propositi-
on 4.34.
Die praktische Berechnung von Determinanten kann und sollte nun hier geübt
werden: http://ueben.cbaer.eu/03.html
4.4. Orientierungen
Determinanten sind von großer geometrischer Bedeutung. Wir werden sie in diesem Abschnitt
benutzen, um Orientierungen zu definieren. Später werden sie uns noch bei der Berechnung
von Volumina gute Dienste leisten.
224 4. Lineare Abbildungen
Lemma 4.92. Sei V {0} ein endlich-dimensionaler reeller Vektorraum. Die Bedingung
„gleich orientiert“ definiert eine Äquivalenzrelation auf der Menge aller geordneten Basen
von V, d.h.
(i) Jede geordnete Basis ist mit sich selbst gleich orientiert.
(ii) Sind B und B gleich orientiert, so sind auch B und B gleich orientiert.
(iii) Sind B und B gleich orientiert und B und B gleich orientiert, so sind auch B und B
gleich orientiert.
Beweis. Zu (i):
Jede Basis ist zu sich selbst gleich orientiert, denn es gilt:
Zu (ii):
Sind B und B orientierte Basen, so gilt nach Gleichung (4.8) in Bemerkung 4.36 für die
Transformationsmatrizen TBB = (TBB )−1 . Sind B und B gleich orientiert, so ist det(TBB ) > 0.
Damit ist nach Korollar 4.76
1
det TBB = det (TBB )−1 = > 0.
det(TBB )
Zu (iii):
Seien nun B, B und B geordnete Basen von V, wobei B und B sowie B und B jeweils
gleich orientiert seien. Wegen (4.9) gilt für die Transformationsmatrizen
TBB = TBB · TBB
Sei V ein endlich-dimensionaler reeller Vektorraum. Für jede geordnete Basis B von V sei
O(V, B) := {B | B ist geordnete Basis von V, die mit B gleich orientiert ist}.
Lemma 4.92 (i) besagt B ∈ O(V, B). Insbesondere ist O(V, B) ∅. Aussage (ii) besagt
Sind nun B und B zwei geordnete Basen von V , dann treten zwei Fälle auf.
1. Fall:B und B sind gleich orientiert.
Dann ist B ∈ O(V, B) und somit O(V, B) ⊂ O(V, B). Andererseits ist aber auch B ∈ O(V, B)
und somit O(V, B) ⊂ O(V, B). Also gilt dann
also wären B und B gleich orientiert, Widerspruch! Daher müssen O(V, B) und O(V, B) im
2. Fall disjunkt sein,
O(V, B) ∩ O(V, B) = ∅.
Diese Überlegungen haben lediglich Lemma 4.92 benutzt, also die Tatsache, dass „gleich
orientiert“ eine Äquivalenzrelation bildet.
226 4. Lineare Abbildungen
Definition 4.93. Sei V {0} ein endlich-dimensionaler R-Vektorraum. Dann heißen die
Mengen O(V, B) Orientierungen von V.
Lemma 4.94. Jeder endlich-dimensionale reelle Vektorraum V {0} besitzt genau zwei
Orientierungen.
Beweis. a) Wir zeigen zunächst, dass V mindestens zwei Orientierungen hat. Dazu set-
zen wir n := dim(V). Sei B = (b1, . . ., bn ) eine geordnete Basis von V. Wir setzen
B := (−b1, b2, . . ., bn ) und zeigen, dass B und B entgegengesetzt orientiert sind. Die Trans-
formationsmatrix zwischen den beiden Basen ist gegeben durch
−1 0 . . . . . . 0
0 1 0 . . . 0
. .. ..
TBB = .. 0 . . ,
.. . . . ...
.
0 . . . . . . 0 1
und daher ist det(TBB ) = −1 < 0. Somit sind die Basen B und B entgegengesetzt orientiert,
und daher ist O(V, B) O(V, B). Es gibt also mindestens zwei Orientierungen.
b) Nun bleibt zu zeigen, dass V höchstens zwei Orientierungen hat. Angenommen, es gäbe
mehr als zwei Orientierungen von V. Dann gibt es Basen B, B und B von V, die paarweise
verschieden orientiert sind; d.h. für die Transformationsmatrizen zwischen diesen Basen gilt:
det(TBB ) < 0, det(TBB ) < 0 und det(TBB ) < 0 .
Widerspruch!
Fassen wir zusammen: Durch das Konzept „gleich orientiert“ wird die Menge aller geordneten
Basen von V disjunkt in zwei Teilmengen zerlegt, die beiden Orientierungen von V. Wir haben
jetzt also zwei Sorten von geordneten Basen V. Wählen wir irgendeine geordnete Basis B von
V, dann besteht die erste Sorte von geordneten Basen genau aus denjenigen, die mit B gleich
orientiert sind, die zweite aus genau denjenigen, die zu B entgegengesetzt orientiert sind.
Bemerkung 4.95. Die allgemeinen Eigenschaften der Determinante liefern folgende Aussa-
gen:
4.4. Orientierungen 227
(ii) Ersetzung eines Basisvektors durch sein Negatives kehrt die Orientierung um.
(iii) Streckung eines Basisvektores um einen positiven Faktor erhält die Orientierung.
Verschaffen wir uns nun eine anschauliche Vorstellung von der Bedeutung des Konzepts der
Orientierung im Falle kleiner Dimensionen n = dim(V ):
Beispiel 4.96. Im eindimensionalen Fall, n = 1, besteht eine (geordnete) Basis aus einem
Vektor 0. Seien B = (b) und B = (b) zwei geordnete Basen von V. Dann ist b = t · b
für ein t ∈ R \ {0} und TBB = t . Also sind B und B genau dann gleich orientiert, wenn
t = det t > 0. Gleich orientiert zu sein, heißt im eindimensionalen Fall also, dass die
Basisvektoren in dieselbe Richtung zeigen.
b b
b
0 0 0
b b
b
gleich orientiert entgegengesetzt orientiert gleich orientiert
Abb. 71 Orientierung in einer Dimension
Beispiel 4.97. Im Fall n = 2 entspricht die Orientierung dem „Drehsinn“ der Basen:
b2 b1 b2 b2
b2 b1
b1 b1
gleich orientiert entgegengesetzt orientiert
Abb. 73 Orientierung in 2 Dimensionen
Wie kann man sich das vorstellen? Nehmen wir an, Sie sitzen im Auto und fahren auf einer
schnurgeraden Straße in Richtung b1 . Da b1 und b2 linear unabhängig sind, zeigt b2 nicht in
228 4. Lineare Abbildungen
Fahrtrichtung und auch nicht entgegengesetzt der Fahrtrichtung. Um b2 zu sehen, müssen Sie
also nach links oder nach rechts aus dem Auto sehen.
Zwei Basen sind nun genau dann gleich orientiert, wenn Sie in dieselbe Richtung aus dem Auto
(das in Richtung des ersten Basisvektors fährt) sehen müssen, um den zweiten Basisvektor zu
sehen. Ihr Kopf muss sich also in dieselbe Richtung drehen, wenn die Basen gleich orientiert
sind.
Warum stimmt das? Um das einzusehen, stellen wir zunächst fest, dass die Orientierung einer
Basis sich
nicht ändert, wenn man die Basis dreht. Dies liegt daran, dass die Drehmatrix
cos(θ) − sin(θ)
Rθ = positive Determinante cos(θ)2 + sin(θ)2 = 1 hat. Also können wir
sin(θ) cos(θ)
nach Drehung annehmen, dass die ersten Basisvektoren b1 und b1 kollinear sind und in dieselbe
Richtung zeigen, d.h. b1 = αb1 mit α > 0. Die Basistransformationsmatrix TBB hat also die
Form
B α β
TB = .
0 γ
Nun ist det(TBB ) = α · γ positiv genau dann, wenn γ > 0. Dies bedeutet gerade, dass b2 und b2
auf derselben Seite der „Straße“ R · b1 liegen.
b2
b2
β b1 b1
Abb. 74 Orientierung in 2 Dimensionen
Beispiel 4.98. Im Fall n = 3 entspricht die Orientierung der „Händigkeit“ der Basen, d.h.
die Basen sind gleich orientiert, wenn sie durch Daumen, Zeigefinger und Mittelfinger dersel-
ben Hand beschrieben werden können, und entgegengesetzt orientiert, wenn man dazu zwei
verschiedene Hände braucht.
b1 b1
b2 b2
b3 b3
Entgegengesetzt orientierte Basen
Definition 4.99. Hat man auf einem endlich-dimensionalen reellen Vektorraum eine Orien-
tierung O gewählt, so nennt man eine Basis B von V positiv orientiert (bzgl. O), falls B ∈ O,
und negativ orientiert andernfalls.
Bemerkung 4.101. Orientierungen sind sehr robust, d.h. bei kleinen Änderungen der Basis
bleibt die Orientierung erhalten. Genauer: Sind v1, . . ., vn : I → Rn stetige Abbildungen und
I ⊂ R ein Intervall, so dass (v1 (t), . . ., vn (t)) für jedes t ∈ I eine geordnete Basis ist, dann sind
alle (v1 (t), . . ., vn (t)) gleich orientiert.
Beweis. Die Funktion I → R mit t → det (v1 (t), . . ., vn (t)) ist stetig und verschwindet auf
ganz I nirgends. Also ist sie immer positiv oder immer negativ (vgl. Zwischenwertsatz aus der
Analysis). Damit sind entweder alle (v1 (t), . . . , vn (t)) gleich orientiert wie die Standardbasis
oder alle sind der Standardbasis entgegengesetzt orientiert.
Definition 4.102. Sei V {0} ein endlich-dimensionaler reeller Vektorraum. Ein Auto-
morphismus ϕ : V → V heißt orientierungserhaltend oder auch orientierungstreu, falls
det(ϕ) > 0, und orientierungsumkehrend, falls det(ϕ) < 0.
Beispiel 4.103. Nach Beispiel 4.87 sind in V = R2 die Drehungen, dargestellt durch die
Drehmatrizen Rθ , orientierungserhaltend. Die Achsenspiegelungen, gegeben durch die Spie-
gelungsmatrizen Sθ , sind dagegen gemäß Beispiel 4.88 orientierungsumkehrend.
Bemerkung 4.104. Ein Automorphismus ϕ von V ist orientierungstreu genau dann, wenn
für jede geordnete Basis B = (b1, . . . , bn ) gilt: Die geordneten Basen B und B :=
(ϕ(b1 ), . . ., ϕ(bn )) sind gleich orientiert.
Beweis. Für die Transformationsmatrix zwischen den Basen B und B gilt TBB = MBB (ϕ), und
somit det(TBB ) = det(ϕ).
Bemerkung 4.105. Direkt aus den Definitionen und den Eigenschaften der Determinante folgt
nun:
4.5. Aufgaben
4.1. Sei die lineare Abbildung ϕ A : R4 → R4 , v → A · v, durch die folgende Matrix gegeben:
−1 3 5 −2
1 −1 −1 1
A= .
−5 3 1 −4
2 −2 −2 2
a) Geben Sie jeweils eine Basis für ker(ϕ A) und im(ϕ A) sowie die Dimension dieser Unter-
vektorräume an.
b) Untersuchen Sie, ob die folgenden Vektoren im Kern oder im Bild von ϕ A liegen:
1
1
−4
2
v1 = , v2 = .
1 3
−4 4
ϕ A ◦ ϕ B = ϕ A·B .
4.3. Drehen wir in der Ebene erst um einen Winkel θ 1 und dann um θ 2 , so sollten wir insgesamt
eine Drehung um den Winkel θ 1 + θ 2 erhalten. Zeigen Sie, dass in der Tat gilt:
4.4. Sei V ein K-Vektorraum und seien U und W zwei endlichdimensionale Untervektorräume
von V.
a) Zeigen Sie:
dim(U + W) + dim(U ∩ W) = dim(U) + dim(W).
Hinweis: Starten Sie mit einer Basis für U ∩ W und nutzen Sie den Basisergänzungssatz.
b) Gilt die Aussage auch für unendlichdimensionale Untervektorräume, wenn wir für n ∈ Z
die Konventionen n + ∞ = ∞ und ∞ + ∞ = ∞ verwenden?
4.5. Aufgaben 231
4.5. Sei K ein Körper und V und W seien K-Vektorräume. Für ϕ, ψ ∈ Hom(V, W) definieren
wir die Summe durch (ϕ + ψ)(v) := ϕ(v) + ψ(v) für alle v ∈ V, wobei das zweite +-Zeichen die
Addition in W bezeichnet. Analog definieren wir das Produkt von λ ∈ K und ϕ ∈ Hom(V, W)
durch (λ · ϕ)(v) := λ · ϕ(v).
Zeigen Sie, dass damit Hom(V, W) zu einem K-Vektorraum wird.
4.6. Sei K ein Körper und V ein K-Vektorraum. Der Vektorraum V ∗ := Hom(V, K) heißt
Dualraum von V. Ist V endlich-dimensional mit geordneter Basis B = (b1, . . . , bn ), dann
können wir β1, . . ., βn ∈ V ∗ festlegen durch
β j (λ1 b1 + . . . + λn bn ) = λ j .
Zeigen Sie, dass (β1, . . ., βn ) eine geordnete Basis von V ∗ ist. Sie heißt die zu B duale Basis.
4.7. Sei K = F3 und V = (F3 )4 . Berechnen Sie die Transformationsmatrizen TAA , TAA , TAA ,
TAA , TAA und TAA für die geordneten Basen
1
0
1
0
0 2 1 1
A = (e1, e2, e3, e4 ), A = (e1, e3, e2, e4 ) und A = , , ,
1 0 0 0
0 1 2 0
von V.
4.8. Sei K = R und V = Abb(R, R). Sei ϕ : V → V die Abbildung, die eine Funktion
„um 1 verschiebt“, genauer, ϕ( f )(x) = f (x − 1). So würde z.B. die Polynomfunktion x 2 auf
(x − 1)2 = x 2 − 2x + 1 abgebildet.
b) Sei W ⊂ V der Untervektorraum der Polynomfunktionen vom Grad ≤ 3. Zeigen Sie, dass
A = (1, x, x 2, x 3 ) und A = (1 + x, 1 − x, x 2 · (1 + x), x 2 (1 − x)) Basen von W sind.
4.9. Sei K ein Körper und A ∈ Mat(n, K). Zeigen Sie, dass die beiden folgenden Aussagen
äquivalent sind:
Hinweis für die Richtung „(2)⇒(1)“: Zeigen Sie zunächst, dass die lineare Abbildung ϕ A :
K n → K n jeden Vektor auf ein Vielfaches von sich abbildet.
232 4. Lineare Abbildungen
b)
1 2 1
2 3 4 .
−1 1 2
c)
1 2 1 0
1 4
2 3
.
−1 1 2 1
1 1 1 0
z 1 1 1
1
z 1 1
det = (z + 3)(z − 1)3 .
1 1 z 1
1 1 1 z
2 3 a x 2
4 a −3 · y = 1
−2 1 2 z 0
a) Untersuchen Sie, für welche Werte von a ∈ R dieses Gleichungssystem keine, genau eine
bzw. unendlich viele Lösungen hat.
b) Bestimmen Sie in dem Fall, dass das Gleichungssystem genau eine Lösung hat, diese
Lösung mit Hilfe der Cramer’schen Regel.
4.5. Aufgaben 233
a) det(A) ∈ Z.
1 x1 · · · x1n−1
. . ..
det .. .. . = (x j − xi ).
1 xn · · ·
n−1 1≤i< j≤n
xn
Hinweis: Der Beweis erfolgt mit vollständiger Induktion nach n. Zeigen Sie im Induktionsschritt
mittels Spaltenumformungen, dass gilt:
1 0 0 ··· 0
1 x1 · · · x1n−1
1 (x2 − x1 ) · 1 (x2 − x1 ) · x2 · · · (x2 − x1 ) · x n−2
. . .. 2
det .. .. . = det .. .. .. .. .. .
. . . . .
1 xn · · ·
n−1
xn
1 (xn − x 1 ) · 1 (xn − x 1 ) · xn · · · (xn − x1 ) · x n−2
n
4.16. Sei K ein Körper mit unendlich vielen Elementen. Geben Sie eine unendliche Teilmenge
X ⊂ K n an, so dass jede n-elementige Teilmenge von X linear unabhängig ist.
Hinweis: Hier kann die Vandermonde-Determinante helfen.
4.17. Untersuchen Sie, ob die folgenden beiden geordneten Basen von R3 gleich orientiert
sind oder nicht:
4 −1 −3 1 5 1
B1 = −2 , 1 , 2 ,
B2 = 4 , 1 , 0 .
1 3 1 0 −4 5
4.18. Entscheiden Sie, für welche n ∈ N die lineare Abbildung −id : Rn → Rn orientierungs-
erhaltend ist.
4.19. Geben Sie zwei stetige Abbildungen v, w : [0, 1] → R3 an, so dass (v(t), w(t)) für jedes
t ∈ [0, 1] linear unabhängig sind, dass L(v(0), w(0)) = L(v(1), w(1)) =: V und dass (v(0), w(0))
und (v(1), w(1)) entgegengesetzt orientierte Basen von V bilden.
4.20. Sei B := (b1, . . ., bn ) eine geordnete Basis des Vektorraums V . Zu einer Permutation
σ ∈ Sn betrachten wir die geordnete Basis B := (bσ(1), . . ., bσ(n)). Zeigen Sie, dass B und B
genau dann gleich orientiert sind, wenn sgn(σ) = +1 gilt.
5. Geometrie
(Leonard Mlodinow
Das Fenster zum Universum. Eine
kleine Geschichte der Geometrie)
Bereits in Abschnitt 2.4 haben wir uns mit Geometrie, genauer mit der Geometrie der Ebene,
beschäftigt. Dies wollen wir nun fortsetzen, wobei wir uns nicht mehr auf zwei Dimensionen
beschränken.
Geometrisch beschreibt ein 1-dimensionaler Untervektorraum eine Gerade und ein 2-
dimensionaler eine Ebene. Da Untervektorräume stets den Nullvektor enthalten, erhalten wir
so nur Geraden und Ebenen, die den Ursprung enthalten. Um auch Geraden und Ebenen zu
beschreiben, die nicht durch den Ursprung gehen, müssen wir zunächst das Konzept von Un-
tervektorräumen verallgemeinern. Dies führt uns auf affine Unterräume. Analog dazu werden
lineare Abbildungen zu affinen Abbildungen verallgemeinert.
Sei K ein Körper und V ein K-Vektorraum. Wir verwenden von nun an folgende Notation: Für
jede Teilmenge A ⊂ V und jeden Vektor v ∈ V sei
A + v := v + A := {a + v | a ∈ A}
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_5
236 5. Geometrie
die Menge, die man erhält, indem man A um den Vektor v verschiebt.
A+v
a+v
a A
Für uns ist jetzt besonders der Fall interessant, in dem ein Untervektorraum verschoben wird.
Definition 5.1. Sei V ein K-Vektorraum. Eine Teilmenge von V der Form U = U0 + v ⊂ V
heißt affiner Unterraum, wenn v ∈ V ist und U0 ⊂ V ein Untervektorraum.
v+w
v
w
U
0
U0
Abb. 77 Affiner Unterraum
Da man für den Verschiebungsvektor insbesondere v = 0 wählen kann, ist jeder Untervektor-
raum auch ein affiner Unterraum. Es gibt jedoch im Allgemeinen mehr affine Unterräume als
Untervektorräume.
Lemma 5.2. Sei V ein K-Vektorraum und U0 ⊂ V ein Untervektorraum. Ist U = v + U0 ein
affiner Unterraum von V, so gilt:
U0 = {a − a | a, a ∈ U} . (5.1)
Insbesondere ist der Untervektorraum U0 durch den affinen Unterraum U eindeutig bestimmt.
5.1. Affine Unterräume und affine Abbildungen 237
Beweis. Wir zeigen zuerst: U0 ⊂ {a−a | a, a ∈ A}. Sei dazu w ∈ U0 beliebig. Setze a := v +w
und a := v + 0. Dann sind a, a ∈ v + U0 = U und a − a = w.
Für die umgekehrte Inklusion seien nun a, a ∈ A. Dann gibt es w, w ∈ U0 , so dass a = v + w
und a = v + w. Damit ist a − a = w − w ∈ U0 .
Definition 5.3. Sei U ein affiner Unterraum von V. Dann heißt der eindeutig bestimmte
Untervektorraum U0 ⊂ V mit U = v + U0 der zu U gehörige Untervektorraum von V.
Während der Untervektorraum U0 durch den affinen Unterraum U = v + U0 festgelegt ist, gilt
dies nicht für den Verschiebungsvektor v.
Lemma 5.4. Sei V ein K-Vektorraum, sei U0 ⊂ V ein Untervektorraum und seien v, v ∈ V.
Dann gilt:
v + U0 = v + U0 ⇐⇒ v − v ∈ U0 . (5.2)
Beweis. Zu „⇒“:
Sei v + U0 = v + U0 . Wegen v = v + 0 ∈ v + U0 = v + U0 gibt es ein w ∈ U0 mit v = v + w.
Somit ist v − v = w ∈ U0 .
Zu „⇐“:
Sei nun v − v ∈ U0 . Zu zeigen ist: v + U0 = v + U0 . Sei dazu v + w ∈ v + U0 beliebig. Dann
ist
v + w = v + w + (v − v) ∈ v + U0 .
()*+
∈U0
Somit ist v +U0 ⊂ v +U0 . Ganz analog zeigt man die umgekehrte Inklusion v +U0 ⊂ v +U0 .
Lemma 5.5. Sei V ein K-Vektorraum, sei U ⊂ V ein affiner Unterraum und U0 ⊂ V der
zugehörige Untervektorraum. Sei v ∈ V. Dann gilt:
U = v + U0 ⇐⇒ v ∈ U.
Beweis. Zu „⇒“:
Ist U = v + U0 , so gilt v = v + 0 ∈ v + U0 = U.
238 5. Geometrie
Zu „⇐“:
Sei v ∈ U. Wir schreiben U = v +U0 für ein v ∈ V. Dann ist nach dem ersten Teil auch v ∈ U
und daher nach Lemma 5.2 v − v ∈ U0 . Aus Lemma 5.4 folgt dann v + U0 = v + U0 = U.
Korollar 5.6. Sei V ein K-Vektorraum, sei U ⊂ V ein affiner Unterraum und U0 ⊂ V der
zugehörige Untervektorraum. Dann sind äquivalent:
(2) U = U0 .
(3) 0 ∈ U.
Beweis. Die Implikationen „(1)⇒(3)“ und „(2)⇒(1)“ sind klar. Die Implikationen „(3)⇒(2)“
folgt aus Lemma 5.5, denn mit 0 ∈ U ist U = 0 + U0 = U0 .
Definition 5.7. Sei V ein K-Vektorraum und U ⊂ V ein affiner Unterraum mit zugehörigem
Untervektorraum U0 . Dann heißt dim U := dim U0 die Dimension des affinen Unter-
raums U.
Beispiel 5.8. Sei K = R und V = R2 . Wir bestimmen die affinen Unterräume U von V:
a) Ist dim(U) = 0, so muss U0 = {0} sein. Somit ist jede einpunktige Menge U = v +{0} = {v}
mit v ∈ V ein 0-dimensionaler affiner Unterraum von V. Mit anderen Worten ist
{0-dimensionale affine Unterräume von V } = {{v} | v ∈ V } .
b) Ist dim(U) = 1, so ist U0 von der Form U0 = {λ · w | λ ∈ R} für ein w 0, also eine
Ursprungsgerade. Damit ist U = v + U0 = G v,w eine Gerade in V. Mit anderen Worten ist
{eindimensionale affine Unterräume von V } = {Geraden in V } .
Generell haben wir in niedrigen Dimensionen folgende affine Unterräume bzw. Untervektor-
räume eines K-Vektorraums V:
dim affine Unterräume Untervektorräume
0 Punkte Ursprung
1 Geraden Ursprungsgeraden
2 Ebenen Ursprungsebenen
Tab. 25 Affine Unterräume in niedrigen Dimensionen
5.1. Affine Unterräume und affine Abbildungen 239
Definition 5.9. Sei V ein n-dimensionaler K-Vektorraum. Die eindimensionalen affinen Un-
terräume nennen wir Geraden, die zweidimensionalen Ebenen und die (n−1)-dimensionalen
Hyperebenen.
Lemma 5.10. Sei V ein K-Vektorraum und sei I eine Menge. Seien Ai ⊂ V, i ∈ I, affine
Unterräume von V.
/
Dann ist i∈I Ai entweder leer oder selbst wieder ein affiner Unterraum.
/ /
Beweis. Sei i∈I Ai ∅, denn andernfalls ist nichts zu zeigen. Dann gibt es ein v ∈ i∈I Ai ,
d.h. v ∈ Ai für alle i ∈ I. Schreiben wir die affinen Unterräume Ai als Ai = v + Wi mit
zugehörigen Untervektorräumen Wi ⊂ V, so ist also
. . . .
Ai = (v + Wi ) = {v + w | w ∈ Wi ∀i ∈ I} = {v + w | w ∈ Wi } = v + Wi .
i∈I i∈I i∈I i∈I
/
Da der Schnitt W := i∈I Wi von Untervektorräumen stets wieder ein Untervektorraum ist, ist
/
i∈I Ai = v + W ein affiner Unterraum von V.
Beispiel 5.11. Sei K = R, und sei V = R3 . Seien A1 und A2 affine Unterräume von V der
Dimension 1 bzw. 2. Dann haben wir folgende drei Fälle für A1 ∩ A2 :
1. Fall: 2. Fall: 3. Fall:
A1 A1
A1 A2 A2 A2
A1 ∩ A2 = ∅ A1 ∩ A2 Punkt A1 ∩ A2 Gerade
Eine affine Abbildung F ist also gegeben durch eine lineare Abbildung ϕ und einen Verschie-
bungsvektor w. Beide sind durch F festgelegt, denn
F(0) = ϕ(0) + w = w
und
ϕ(v) = F(v) − w = F(v) − F(0).
Wir nennen ϕ den linearen Teil von F.
Ist der lineare Teil ϕ = id, d.h. ist F von der Form F(v) = v + w, dann nennt man F eine
Translation. Für die Translation mit dem Verschiebungsvektor w schreibt man oft Tw statt F.
Jede affine Abbildung ist die Verkettung einer linearen Abbildung mit einer Translation, denn
für F mit F(v) = ϕ(v) + w gilt F = Tw ◦ ϕ.
(ii) Ist A ⊂ V ein affiner Unterraum, so ist auch F(A) ⊂ W ein affiner Unterraum. Ist ϕ
der lineare Teil von F und U der zu A gehörige Untervektorraum, dann ist ϕ(U) der zu
F(A) gehörige Untervektorraum.
(iii) Ist B ⊂ W ein affiner Unterraum, so ist F −1 (B) entweder leer oder ein affiner Unter-
raum. Ist ϕ der lineare Teil von F und U der zu B gehörige Untervektorraum, dann ist
ϕ−1 (U) der zu F −1 (B) gehörige Untervektorraum.
(iv) Ist F(v) = ϕ(v) + w, wobei ϕ : V → W eine lineare Abbildung ist, so gilt:
Beweis. Zu (i):
Sei F(x) = ϕ(x)+w und G(y) = ψ(y)+z mit linearen Abbildungen ϕ : V → W und ψ : W → Z
und Vektoren w ∈ W und z ∈ Z. Dann gilt für jedes x ∈ V:
(G ◦ F)(x) = G(F(x))
= ψ(F(x)) + z
= ψ(ϕ(x) + w) + z
= ψ(ϕ(x)) + ψ(w) + z
= (ψ ◦ ϕ)(x) + ψ(w) + z .
Somit ist G ◦ F eine affine Abbildung mit dem linearen Teil ψ ◦ ϕ : V → Z und dem
Verschiebungsvektor ψ(w) + z ∈ Z.
5.1. Affine Unterräume und affine Abbildungen 241
Zu (ii):
Sei A = v + U für ein v ∈ V und einen Untervektorraum U ⊂ V. Sei F(x) = ϕ(x) + w mit
ϕ : V → W linear und w ∈ W. Dann ist
F(A) = ϕ(A) + w
= ϕ(v + U) + w
= ϕ(v) + ϕ(U) + w
= ϕ(v) + w + ϕ(U)
ein affiner Unterraum von W, denn nach Satz 4.10 ist ϕ(U) ⊂ W ein Untervektorraum.
Zu (iii):
Sei U ⊂ W der dem affinen Unterraum B ⊂ W zugehörige Untervektorraum. Sei ferner
F −1 (B) ∅ und sei v0 ∈ F −1 (B). Dann ist F(v0 ) ∈ B und daher B = F(v0 ) + U. Sei nun
F(v) = ϕ(v) + w mit linearer Abbildung ϕ : V → W. Damit ist
F −1 (B) = {v ∈ V | F(v) ∈ B}
= {v ∈ V | ϕ(v) + w ∈ F(v0 ) + U}
= {v ∈ V | ϕ(v) + w ∈ (ϕ(v0 ) + w) + U}
= {v ∈ V | ϕ(v) ∈ ϕ(v0 ) + U}
= {v ∈ V | ϕ(v) − ϕ(v0 ) ∈ U}
= {v ∈ V | ϕ(v − v0 ) ∈ U}
= {v ∈ V | v − v0 ∈ ϕ−1 (U)}
= v0 + ϕ−1 (U)
ein affiner Unterraum von W, denn nach Satz 4.10 ist ϕ−1 (U) ⊂ V ein Untervektorraum.
Zu (iv):
Sei F = Tw ◦ ϕ mit ϕ : V → W linear. Die Translation Tw ist bijektiv mit Umkehrabbildung
(Tw )−1 = T−w . Daraus folgt unmittelbar die Behauptung.
Korollar 5.14. Sei ϕ : V → W eine lineare Abbildung. Dann ist das Urbild ϕ−1 ({w}) eines
Punktes w ∈ W entweder leer oder ein affiner Unterraum von V.
Im letzteren Fall ist ϕ−1 ({w}) = v + ker(ϕ) für jedes v ∈ V mit ϕ(v) = w.
Beweis. Die erste Behauptung folgt aus Satz 5.13 (iii), denn {w} ist ein (0-dimensionaler)
affiner Unterraum von W. Der zu {w} gehörige Untervektorraum ist {0}. Also ist ϕ−1 (0) =
ker(ϕ) der zu ϕ−1 (w) gehörige Untervektorraum.
Bemerkung 5.15. Mit diesen Erkenntnissen über affine Abbildungen können wir lineare Glei-
chungssysteme nochmal neu betrachten. Beim Lösen inhomogener LGS tun wir nichts anderes,
242 5. Geometrie
als das Urbild eines Punktes unter einer linearen Abbildung zu bestimmen. Lautet das LGS
A · x = b, dann ist die lineare Abbildung einfach die, die durch Matrixmultiplikation mit
der m × n-Matrix A gegeben ist, d.h. ϕ : K n → K m , ϕ(x) = A · x. Die Lösungsmenge ist
Lös(A, b) = ϕ−1 (b). Gemäß Korollar 5.14 ist Lös(A, b) ein affiner Unterraum von K n oder
leer. Ist Lös(A, b) ein 0-dimensionaler affiner Unterraum, hat das LGS genau eine Lösung. Ist
Lös(A, b) ein -dimensionaler affiner Unterraum mit ≥ 1, dann hat das LGS genau so viele
Lösungen, wie K Elemente hat. Dies sind unendlich viele, wenn K unendlich viele Elemente
hat wie z.B. für K = R. Außerdem gilt für jedes x ∈ Lös(A, b):
Lös(A, b) = ϕ−1 (b) = x + ker(ϕ) = x + Lös(A, 0).
5.2. Volumina
In diesem Abschnitt verwenden wir Determinanten zur Volumenberechnung. Um unnötige
Wiederholungen und überflüssigen Arbeitsaufwand zu vermeiden, behandeln wir alle Dimen-
sionen auf einmal. Dabei haben wir uns unter einem eindimensionalen Volumen eine Länge,
einem zweidimensionalen Volumen einen Flächeninhalt und einem dreidimensionalen Volu-
men das anschauliche Volumen eines Körpers im dreidimensionalen Raum vorzustellen. Die
Theorie funktioniert aber auch für Volumina in Dimension ≥ 4.
Systematisch entwickelt man diese Theorie in der so genannten Maßtheorie, einer mathemati-
schen Disziplin, die eng mit der Analysis und der Wahrscheinlichkeitstheorie zusammenhängt.
Wir werden hier lediglich einige Eigenschaften der Volumenfunktion benutzen ohne uns um
die Einzelheiten ihrer Konstruktion zu kümmern.
Legen wir zunächst fest, von welchen Mengen wir das Volumen untersuchen werden. Sei Kn
die Menge der n-dimensionalen reellen Kompakta, also
voln : Kn → R
Die vierte Bedingung stellt sicher, dass sich das Volumen „richtig verhält“. Bei Translationen,
d.h. A = 1n , ändert sich das Volumen nicht. Strecken wir das Kompaktum in eine Richtung
mit dem Faktor r, so sollte sich das Volumen mit r multiplizieren.
F(X) F(X)
X
X
3 0
So erwarten wir z.B. für det = 3, dass sich das 2-dimensionale Volumen eines Rechtecks
0 1
verdreifacht (Streckung in e1 -Richtung mit dem Faktor 3). Für die Streckung in alle drei
2 0 0
Richtungen mit dem Faktor 2, d.h. für det 0 2 0 = 8, wird sich das dreidimensionale
0 0 2
Volumen verachtfachen, denn 2 = 8.
3
Für die nachfolgenden Volumenberechnungen brauchen wir überhaupt nicht zu wissen, wie
man das Volumen definiert. Wir kommen allein mit den Eigenschaften 1 bis 4 von voln aus.
Daher nehmen wir von jetzt ab an, dass voln ein n-dimensionales Volumen ist und überlassen
den Existenzbeweis der Maßtheorie.
X = {q + t1 b1 + . . . + tn bn | ti ∈ [0, 1]}
Beispiel 5.18. Für n = 2 erhalten wir ein Parallelogramm, im Falle n = 3 ein Parallelepiped.
244 5. Geometrie
b2 b3
q b1 b2
0 q b1
0
Abb. 80 Parallelogramm und Parallelepiped
Für die Berechnung des Volumens betrachten wir die affine Abbildung F : Rn → Rn , F(x) =
Ax + b, mit A = (b1, . . . , bn ) und b = q, wobei b1, . . ., bn das n-dimensionale Parallelotop X
aufspannen. Mittels der Definition von Wn sieht man leicht:
F(Wn ) = X .
Damit folgt:
4. 1.
voln (X) = voln (F(Wn )) = |det(A)| · voln (Wn ) = |det(A)| · 1 = |det(b1, . . ., bn )| .
Wir haben also gezeigt, dass das n-dimensionale Volumen eines Parallelotops X, das durch die
Vektoren b1, . . . , bn aufgespannt wird, gegeben ist durch
Man kann Formel (5.4) als eine Formel ansehen, die uns sagt, wie man mit Hilfe der Deter-
minante das Volumen von Parallelotopen bestimmt. Man kann sie umgekehrt aber auch als
eine mögliche geometrische Definition der Determinante betrachten. Die Determinante einer
reellen n × n-Matrix A ist 0, wenn die Matrix nicht maximalen Rang hat. Wenn sie maximalen
Rang hat, dann bilden die Spaltenvektoren eine Basis von Rn und die Determinante det(A) ist,
bis aufs Vorzeichen, das n-dimensionale Volumen des von den Spaltenvektoren aufgespannten
Parallelotops. Das Vorzeichen ist +1, wenn die geordnete Basis der Spaltenvektoren positiv
orientiert ist, und negativ, wenn sie negativ orientiert ist.
Das folgende Lemma verallgemeinert die Tatsache, dass eine Menge, die in einer Ebene
enthalten ist, dreidimensionales Volumen 0 haben muss, und eine Menge, die in einer Geraden
enthalten ist, Flächeninhalt 0.
Beweis. Mittels einer affinen Abbildung machen wir uns zunächst das Leben etwas leichter und
verschieben X in eine „günstige“ Lage. Da Translationen das Volumen nicht ändern, können
wir V so verschieben, dass V auf einen Untervektorraum abgebildet wird. Dabei wird X mit
verschoben, ohne dass das Volumen sich ändert. Daher können wir ohne Beschränkung der
Allgemeinheit annehmen, dass V ein Untervektorraum von Rn ist.
Sei (b1, . . ., bn−1 ) eine geordnete Basis von V . Wir ergänzen sie zu einer Basis B := (b1, . . . , bn )
von Rn . Sei nun P : Rn → Rn die lineare Abbildung, die bzgl. der Basis B die darstellende
Matrix
1n−1 0
MB (P) =
B
0 0
hat. In anderen Worten, P(bi ) = bi für i = 1, . . . , n − 1 und P(bn ) = 0. Für alle x ∈ V gilt dann
P(x) = x. Insbesondere gilt dies für alle x ∈ X und wir erhalten P(X) = X. Da rg(P) = n − 1
ist, ist det(P) = 0. Nun gilt
Dreiecke. Wir kommen nun zu zweidimensionalen Volumina vol2 (Δ) von Dreiecken Δ.
Durch Verdoppelung des Dreiecks längs der Hypotenuse erhalten wir ein Parallelogramm.
b2
q Δ
Δ
b1
Abb. 81 Flächenberechnung für Dreiecke
|det (b1, b2 )| = vol2 (Δ ∪ Δ) = vol2 (Δ) + vol2 (Δ) − vol2 (Δ ∩ Δ) = vol2 (Δ) + vol2 (Δ).
()*+
(5.19)
= 0
Nun ist aber vol2 (Δ) = vol2 (Δ), denn Δ geht aus Δ durch eine Drehung hervor. Drehungen
haben Determinante 1 und ändern daher nicht den Flächeninhalt. Also gilt:
1
vol2 (Δ) = |det (b1, b2 )| (5.5)
2
246 5. Geometrie
−1 1 2 −1
Beispiel 5.20. Habe Δ die Ecken , , . Wir nehmen q = und erhalten
0 1 −2 0
1 −1 2
b1 = − = sowie
1 0 1
2 −1 3
b2 = − = .
−2 0 −2
Damit ist
1 1 2 3 1 7
vol2 (Δ) = |det (b1, b2 )| = det = |−7| = .
2 2 1 −2 2 2
Die oben hergeleitete Formel eignet sich gut für Dreiecke, deren Ecken man explizit kennt.
Häufig kennt man jedoch nur Seitenlängen und Winkel. Was macht man dann? Betrachten wir
dazu das Dreieck Δ mit einem Innnenwinkel 0 < γ < π. Die beiden anliegenden Seiten sollen
die Länge a bzw. b haben.
b·cos γ
b·sin γ
b
γ
γ 0 a
e1
0 0
a
Abb. 82 Dreieck mit vorgegebenem Innenwinkel
Ohne den Flächeninhalt von Δ zu ändern erreichen wir durch Translation zunächst, dass eine
Ecke im Ursprung zu liegen kommt. Dann drehen wir, was wiederum den Flächeninhalt nicht
ändert, so dass die zweite Ecke auf der e1 -Achse zu liegen kommt. Da der Abstand von der
a
ersten zur zweiten Ecke a beträgt, ist die zweite Ecke gegeben durch . Die dritte Ecke hat
0
den Abstand b und schließt mit der e1 -Achse den Winkel γ ein. Daher ergibt sie
von der ersten
b
sich aus durch eine Drehung um den Winkel γ. Sie ist gegeben durch
0
b cos (γ) − sin (γ) b b · cos(γ)
Rγ · = = .
0 sin (γ) cos (γ) 0 b · sin(γ)
Wir setzen in die Flächenformel für Dreiecke ein und erhalten
1 a b cos(γ) 1
vol2 (Δ) = det = |ab sin(γ)| .
2 0 b sin(γ) 2
5.2. Volumina 247
Wir können daher den Flächeninhalt eines Dreiecks, von dem wir die zwei Seitenlängen a, b
und den eingeschlossenen Winkel γ ∈ (0, π) kennen, nach folgender Formel berechnen:
1
vol2 (Δ) = ab sin(γ) (5.6)
2
b
π
Im Spezialfall rechtwinkliger Dreiecke mit γ = 2 ergibt sich: a
h Δ Δ
Δ1 2
a1 a2
a = a1 + a2
Abb. 84 Dreieck, zusammengesetzt aus zwei rechtwinkligen
Regelmäßige n-Ecke.
E(r, n)
Δ
γ
Wir betrachten ein regelmäßiges n-Eck E(r, n), dessen Ecken vom Mittelpunkt den Abstand r
haben. Die Segmente dieses n-Ecks sind Dreiecke mit Innenwinkel 2πn und anliegenden Sei-
tenlängen r.
r
γ Δ γ= 2π
n
r
Abb. 86 Segment von E(r, n)
r2
Jedes Segment hat daher den Flächeninhalt 2 n ). Wir erhalten:
sin( 2π
$ %
nr 2 2π
vol2 (E(r, n)) = · sin (5.9)
2 n
Kreisscheiben. Wir approximieren den Flächeninhalt einer Kreisscheibe D(r) vom Radius r
von innen und von außen.
Dazu beschreiben wir zunächst der Kreis-
scheibe ein n-Eck E(r, n) ein und erhalten
eine untere Schranke für den Flächenin- r
halt.
Abb. 87 Einbeschriebenes n-Eck
Für das einbeschriebene n-Eck gilt E(r, n) ⊂ D(r) für alle n, also gilt nach der zweiten
Eigenschaft von Volumina
$ %
nr 2 2π
vol2 (D(r)) ≥ vol2 (E(r, n)) = · sin .
2 n
Da dies für jedes n gilt, können wir n gegen ∞ gehen lassen und erhalten mit der Substitution
x = 2π
n :
$ 2 $ %% $ %
nr 2π 2π r 2
vol2 (D(r)) ≥ lim · sin = lim · · sin (x)
n→∞ 2 n x→0 x 2
$ %
sin (x)
= πr 2 · lim = πr 2 .
x→0 x
()*+
=1
Die einbeschriebenen n-Ecke haben uns also die Abschätzung vol2 (D(r)) ≥ πr 2 geliefert. Als
Nächstes benutzen wir umschriebene n-Ecke, um die entgegengesetzte Ungleichung herzulei-
ten. Dann folgt vol2 (D(r)) = πr 2 .
5.2. Volumina 249
r
Für das umschriebene n-Eck E(rn, n) erhalten wir aus der γ
π
Beziehung cos n = rn die Gleichung rn = cosr π .
r
(n) rn
Ellipsen. Vom Flächeninhalt der Einheitskreisscheibe D(1) ausgehend, betrachten wir Ge-
biete E(a, b), welche von Ellipsen mit den halben Hauptachsenlängen a und b berandet werden.
Es gilt also
2 y2
x 2 x
E(a, b) = ∈R 2+ 2 ≤1 .
y a b
b
a
Abb. 89 Ellipse
250 5. Geometrie
a 0
Hierzu wird D(1) in e1 -Richtung um den Faktor a und in e2 -Richtung um b mittels A =
0 b
gestreckt. In anderen Worten, es gilt E(a, b) = A(D(1)). Wir erhalten
also:
vol2 (E(a, b)) = πab (5.11)
Weitere Beispiele für die Berechnung von Volumina, insbesondere in Dimension ≥ 3, finden
sich in Anhang A.3.
Definition 5.21. Die Gruppe SO(2) heißt spezielle orthogonale Gruppe von R2 .
Die Gruppe SO(2) ist, im Gegensatz zu GL(2, R), abelsch, denn für alle θ 1, θ 2 ∈ R gilt
Beweis. Zu (i):
Für v, w ∈ R2 und Rθ ∈ SO(2) berechnen wir
5$ % $ %6
cos θ · v1 − sin θ · v2 cos θ · w1 − sin θ · w2
Rθ (v), Rθ (w) = ,
sin θ · v1 + cos θ · v2 sin θ · w1 + cos θ · w2
= (cos θ)2 · v1 w1 − cos θ sin θ · (v1 w2 + v2 w1 ) + (sin θ)2 · v2 w2
+ (sin θ)2 · v1 w1 + cos θ sin θ · (v1 w2 + v2 w1 ) + (cos θ)2 · v2 w2
= v1 w1 + v2 w2
= v, w .
Gleichung (ii) ergibt sich aus (i), indem man v = w setzt und die Wurzel zieht.
Zu (iii):
5$ % $ %6
cos θ · v1 − sin θ · v2 v1
Rθ (v), w = ,
sin θ · v1 + cos θ · v2 v2
= cos θ · v1 v1 − sin θ · v2 · v1 + sin θ · v1 · v2 + cos θ · v2 v2
= cos θ · v, v
= cos θ · v 2 .
Für die letzte Aussage des Lemmas hat man im Fall v = 1 folgende geometrische Interpre-
tation:
Rθ (v)
θ
()*+ v
cos θ
Abb. 90
Die Menge O(2)− := {Sθ | θ ∈ R} der Spiegelungsmatrizen bildet keine Untergruppe von
GL(2, R), denn 12 O(2)− .
Beweis. Der Beweis ist ganz ähnlich wie der von Lemma 5.22.
Bemerkung 5.25. Identifiziert man R2 wie üblich mit C durch (x, y) = x + iy, dann ist
Matrixmultiplikation mit Rθ dasselbe wie komplexe Multiplikation mit eiθ und Matrixmulti-
plikation mit Sθ ist die Abbildung z → e2iθ · z̄. Hat man dies erkannt, so kann man Lemma 5.24
mit komplexen Zahlen recht einfach beweisen.
Beweis von Lemma 5.24. Beginnen wir mit Gleichung (5.14). In komplexer Schreibweise er-
halten wir für die Anwendung von Rθ1 · Sθ2 :
was nichts anderes als die Anwendung von Sθ2+θ1 /2 ist. Gleichung (5.13) folgt aus
Sθ · Rθ = Sθ/2 .
e2
wθ vθ
θ θ
e1
Abb. 91
dass
Sθ · vθ = Sθ · Rθ · e1 = Sθ/2 · e1 = vθ sowie
Sθ · wθ = Sθ · Rθ · e2 = Sθ/2 · e2 = −wθ .
Dies zeigt, dass Sθ die Achsenspiegelung an der von vθ aufgespannten Achse darstellt. Das
passt auch zu der Beobachtung, dass wegen (5.12)
Sθ · Sθ = R0 = 12
Definition 5.26. Die Menge O(2) := SO(2) ∪ O(2)− heißt die orthogonale Gruppe von R2 .
Beweis. Zunächst einmal stellen wir fest, dass 12 ∈ SO(2) ⊂ O(2). Dann zeigen die Glei-
chungen (5.12)-(5.14), dass Produkte von Elementen aus O(2) stets wieder in O(2) enthalten
sind. Schließlich sind die Inversen von Drehmatrizen wieder Drehmatrizen, und die von Spie-
gelungsmatrizen sind sogar gleich sich selbst, also wieder Spiegelungsmatrizen. In jedem Fall
sind die Inversen wieder in O(2).
Bemerkung 5.28. Im Gegensatz zu SO(2) ist O(2) allerdings nicht abelsch, denn z.B. ist
Nun charakterisieren wir Dreh- und Spiegelungsmatrizen mit Hilfe des Skalarprodukts.
Beweis. Die Inklusion „⊂“ folgt aus Lemma 5.22 (i) und Lemma 5.23 (i).
Zu „⊃“:
Sei T ∈ GL(2, R) mit T x, T y = x, y für alle x, y ∈ R2 . Speziell für x = y = e1 erhalten wir
Daher ist
$ % $ %
0 −1 cos θ − sin θ
T e2 = ±J(T e1 ) = ± =± .
1 0 sin θ cos θ
J(T e1 )
T e1
θ
e1
90o
−J(T e1 )
Abb. 92
− sin θ
Im Fall T e2 = cos θ ist
cos θ − sin θ
T = (T e1, T e2 ) = = Rθ ∈ SO(2) ⊂ O(2);
sin θ cos θ
5.3. Geometrie der Ebene, Teil 2 255
− sin θ
und im Fall T e2 = − cos θ ist
cos θ sin θ
T = (T e1, T e2 ) = = Sθ/2 ∈ O(2)− ⊂ O(2).
sin θ − cos θ
Eine affine Abbildung ist per Definition orientierungserhaltend, wenn ihr linearer Anteil dies
ist, d.h. wenn der lineare Anteil positive Determinante hat. Im Fall einer euklidischen Bewegung
bedeutet dies, dass der lineare Anteil aus SO(2) ist, denn für alle A ∈ SO(2) ist det(A) = 1
und alle A ∈ O(2)− gilt det(A) = −1. Die Menge der orientierungserhaltenden euklidischen
Bewegungen von R2 bezeichnen wir mit
Definition 5.31. Sei X eine Menge und ϕ : X → X eine Abbildung. Ein Fixpunkt von ϕ
ist ein Punkt p ∈ X mit ϕ(p) = p.
Für jede lineare Abbildung ist 0 ein Fixpunkt. Affine Abbildungen hingegen brauchen keine
Fixpunkte zu haben, wie man schon an den Translationen sieht. Die Drehungen, dargestellt
durch Rθ , haben nur den Ursprung 0 als Fixpunkt, es sei denn Rθ = 12 . Dann ist jeder Punkt in
R2 Fixpunkt. Diese Bemerkung hat folgende Verallgemeinerung für orientierungserhaltende
euklidische Bewegungen:
Satz 5.32. Ist F ∈ E+ (2), F(x) = Ax + b mit A 12 , dann hat F genau einen Fixpunkt.
Beweis. Setze H := F − idR2 . Offenbar ist x ∈ R2 ein Fixpunkt von F genau dann, wenn
H(x) = 0 gilt. Da F ∈ E+ (2) ist, ist A ∈ SO(2), d.h. A = Rθ für ein θ ∈ R. Wegen A 12 muss
θ k · 2π für alle k ∈ Z sein. Es genügt nun
det(A − 12 ) 0 (5.15)
256 5. Geometrie
zu zeigen. Denn dann ist die lineare Abbildung x → (A − 12 ) · x bijekiv und damit ist nach
Satz 5.13 (iv) auch H = F − idR2 bijektiv. Also gibt es dann genau ein x ∈ R2 mit H(x) = 0,
d.h. genau einen Fixpunkt von F.
Beweis von (5.15):
cos θ − 1 − sin θ
det(A − 12 ) = det
sin θ cos θ − 1
= (cos θ − 1)2 + sin2 θ
= cos2 θ − 2 cos θ + 1 + sin2 θ
= 2 − 2 cos θ
= 2(1 − cos θ).
(2) F ist abstandserhaltend, d.h. für alle x, y ∈ R2 gilt d(F(x), F(y)) = d(x, y).
Lemma 5.34. Seien v, w ∈ R2 \ {0}. Ist v, w = 0, dann sind v und w linear unabhängig.
Beweis von Lemma 5.34. Seien v, w ∈ R2 \{0} mit v, w = 0. Seien α, β ∈ R mit αv + βw = 0.
Zu zeigen ist: α = β = 0. Es gilt
F(x) = Ax + b.
Dabei haben wir Lemma 5.22 bzw. Lemma 5.23 benutzt, je nachdem ob A ∈ SO(2) oder
A ∈ O(2)− .
Zu „(2) ⇒ (1)“:
Sei F abstandserhaltend. Wir setzen b := F(0) und ϕ(x) := F(x) − b. Zu zeigen ist, dass ϕ
linear ist mit darstellender Matrix M(ϕ) ∈ O(2).
Schritt 1: Wir zeigen, dass ϕ(x), ϕ(y) = x, y gilt für alle x, y ∈ R2 .
Seien nämlich x, y ∈ R2 . Betrachte das Dreieck (0, x, y). Durch F wird es abgebildet auf
das Dreieck (b, F(x), F(y)). Da F abstandserhaltend ist, haben die beiden Dreiecke dieselben
Seitenlängen. Da Translationen abstandserhaltend sind, hat das Dreieck (0, ϕ(x), ϕ(y)) ebenfalls
dieselben Seitenlängen wie (0, x, y). Gemäß Korollar 2.103 haben die beiden Dreiecke (0, x, y)
und (0, ϕ(x), ϕ(y)) auch dieselben Innenwinkel. Inbesondere gilt (x, y) = (ϕ(x), ϕ(y)). Damit
können wir berechnen:
ϕ(x), ϕ(y) = cos (ϕ(x), ϕ(y)) · ϕ(x) · ϕ(y)
= cos((x, y)) · d(ϕ(x), 0) · d(ϕ(y), 0)
= cos((x, y)) · d(F(x), b) · d(F(y), b)
= cos((x, y)) · d(F(x), F(0)) · d(F(y), F(0))
= cos((x, y)) · d(x, 0) · d(y, 0)
= cos((x, y) · x · y
= x, y.
Nach Lemma 5.34 sind f1 und f2 linear unabhängig und bilden daher eine Basis von R2 .
258 5. Geometrie
Sei nun x ∈ R2 , x = xx12 . Wir schreiben ϕ(x) = α1 f1 + α2 f2 mit geeigneten Koeffizienten
αi ∈ R, i = 1, 2. Dann gilt einerseits, unter Benutzung des ersten Schritts,
und andererseits
Also ist αi = xi . Bezeichnet ( f1, f2 ) die reelle 2 × 2-Matrix mit den Spalten f1 und f2 , so gilt
$ %
x1
ϕ(x) = x1 f1 + x2 f2 = ( f1, f2 ) · .
x2
Beispiel 5.35. Die Drehungen, die durch die Matrizen Rθ dargestellt werden, haben alle den
Ursprung als Drehpunkt. Aber auch die Drehungen um einen beliebigen Drehpunkt p ∈ R2 um
einen Winkel θ sind orientierungserhaltende euklidische Bewegungen.
Denn wir können eine solche Drehung folgendermaßen als Verkettung schreiben: erst Verschie-
ben um −p, dann Drehen um θ, danach (zurück) verschieben um p. Damit hat die Abbildung
die Form
x → Rθ (x − p) + p = Rθ x + (p − Rθ p).
Bemerkung 5.36. Umgekehrt ist jedes F ∈ E+ (2) eine Drehung um einen Drehpunkt p ∈ R2
oder eine Translation, vgl. Aufgabe 5.9. Der Fixpunkt aus Satz 5.32 ist dann nichts anderes als
der Drehpunkt.
Satz 5.37 (Hesse’sche Normalform für Geraden in der Ebene). Sei v ∈ R2 \ {0} und
p ∈ R2 . Dann gilt für die Gerade G p,v :
Bemerkung 5.38. Wir erinnern uns, dass J = Rπ/2 . Der Vektor Jv heißt Normalenvektor an
G p,v .
5.3. Geometrie der Ebene, Teil 2 259
J·v
p
v
G p,v
Abb. 93 Normalenvektor
x, Jv = p + tv, Jv = p, Jv + t v, Jv = p, Jv.
()*+
=0
Zu „⊃“:
Die Vektoren v, Jv stehen senkrecht aufeinander und sind beide 0, denn v 0 nach Voraus-
setzung und J ist ein Automorphismus. Somit bildet (v, Jv) nach Lemma 5.34 eine Basis von
R2 .
Nehmen wir nun an, dass x die Gleichung x, Jv = p, Jv erfüllt. Wir schreiben x − p =
t · v + s · J · v mit s, t ∈ R. Dann ist
0 = x, Jv − p, Jv = x − p, Jv = tv + sJv, Jv = t v, Jv +s Jv, Jv = s Jv 2 .
()*+ ()*+
=0 0
Definition 5.39. Sei (a, b, c) ein nichtentartetes Dreieck in R2 . Die Höhe Ha ist diejenige
Gerade durch den Punkt a, die auf b − c senkrecht steht, d.h.
Satz 5.40 (Höhenschnittsatz). Sei (a, b, c) ein nicht entartetes Dreieck. Dann schneiden
sich die drei Höhen in einem Punkt.
260 5. Geometrie
c
Hb Ha
a b
Hc
Abb. 94 Höhenschnittsatz
Beweis. Die Höhen Ha und Hb sind nicht parallel, weil sonst die Seiten gegenüber a bzw. b par-
allel sein müssten. Dann wäre das Dreieck entartet. Also haben Ha und Hb einen Schnittpunkt
h ∈ Ha ∩ Hb . Bleibt zu zeigen, dass h auch auf der dritten Höhe liegt, h ∈ Hc .
Wegen h ∈ Ha gilt
h, b − c = a, b − c
und wegen h ∈ Hb haben wir
h, a − c = b, a − c.
Ziehen wir die erste von der zweiten Gleichung ab, so erhalten wir für die linke Seite
b, a − c − a, b − c = b, a − b, c − a, b + a, c = −b, c + a, c = c, a − b.
Kr (m) := {x ∈ R2 | d(x, m) = r }
Wir können die Formel für den Kreis auch leicht modifiziert so schreiben:
Kr (m) = {x ∈ R2 | x − m 2 = r 2 } = {x ∈ R2 | x − m, x − m = r 2 }.
Sei nun G a,v eine Gerade. Ohne Beschränkung der Allgemeinheit können wir v = 1 voraus-
setzen. Wir untersuchen nun die verschiedenen Möglichkeiten, wie die Gerade G a,v den Kreis
Kr (m) schneiden kann. Wir fragen also: Was ist G a,v ∩ Kr (m)?
Zu x = a + tv ∈ G a,v betrachte
x − m, x − m = a + tv − m, a + tv − m
= v 2 t 2 + 2a − m, vt + a − m 2
5.3. Geometrie der Ebene, Teil 2 261
= t 2 + 2a − m, vt + a − m 2 .
Das bedeutet:
Die Schnittpunkte von G a,v mit Kr (m) zu berechnen ist also gleichbedeutend damit, die qua-
dratische Gleichung (5.16) für die Unbekannte t zu lösen. Die quadratische Gleichung ist in
der Form (2.21) mit p = a − m, v und q = a − m 2 − r 2 . Die Diskriminante ergibt sich zu
D = p2 − q = a − m, v 2 − (a − m 2 − r 2 ).
Nach Bemerkung 2.126 gibt uns das Vorzeichen der Diskriminante Auskunft über die Anzahl
der reellen Lösungen von (5.16).
1. Fall: Es gibt keine reelle Lösung t.
Dies ist äquivalent zu D < 0 und damit zu
a − m, v 2 < a − m 2 − r 2 . a
Insbesondere hat G a,v keine Punkte im Inneren v G a,v
des Kreises, denn sonst könnte man einen sol-
m r
chen Punkt als Aufpunkt a der Gerade nehmen
und in der Ungleichung Kr (m)
Abb. 95
a − m, v 2 < a − m 2 − r 2
a − m, v 2 = a − m 2 − r 2 .
v a
Wählen wir als Aufpunkt a der Gerade den G a,v
a−m
Schnittpunkt mit dem Kreis, dann ist a − m = m
r und die Bedingung an die Diskriminante ist Kr (m)
äquivalent zu Abb. 96
a − m, v = 0,
Satz 5.42 (Zwei-Sehnen-Satz). Sei Kr (m) ein Kreis und a ∈ R2 . Dann ist für alle Sekanten
G von Kr (m) durch den Punkt a das Produkt der Sehnenabschnitte ζ1 · ζ2 dasselbe.
ζ1
a m
ζ2
Kr (m)
Abb. 98 Zwei-Sehnen-Satz
Beweis. Sei G a,v eine Sekante von Kr (m), wobei wir wieder ohne Beschränkung der Allge-
meinheit v = 1 voraussetzen. Nach Satz 2.123 gilt für das Produkt der Lösungen t1 und t2
von (5.16)
t1 · t2 = q = a − m 2 − r 2 .
Nun gilt für die Sehnenabschnitte
ζi = d(a, a + ti v) = ti v = |ti |v = |ti | .
Also ist
ζ1 · ζ2 = |t1 · t2 | = a − m 2 − r 2 ,
und damit unabhängig von v, d.h. nimmt für alle Sekanten von Kr (m) durch a denselben Wert
an.
Wir haben keine Einschränkung an die Lage von a gemacht. Der Punkt a darf auch außerhalb
des Kreises liegen. Falls a auf dem Kreis liegt, ist die Aussage des Satzes trivial, weil dann
5.4. Das Vektorprodukt 263
einer der beiden Sehnenabschnitte 0 ist und damit auch das Produkt 0 sein muss. Ganz genauso
wie den Zwei-Sehnen-Satz sieht man auch den
Satz 5.43 (Tangenten-Sehnen-Satz). Sei Kr (m) ein Kreis und a ein Punkt im Äußeren von
Kr (m), d.h. d(m, a) > r. Dann gilt für die Sehnenabschnitte ζ1 und ζ2 einer beliebigen
Sekante von Kr (m) durch den Punkt a und den Abstand I von a zu dem Schnittpunkt einer
Tangente von Kr (m) durch a, dass
I 2 = ζ1 · ζ2 .
I a
ζ2
ζ1
m
Abb. 99 Tangenten-Sehnen-Satz
Im Tangenten-Sehnen-Satz haben wir ausgeschlossen, dass a im Inneren des Kreises liegt, weil
es sonst überhaupt keine Tangenten durch a gibt.
Wie kann man sich diese scheinbar komplizierte Definition gut merken? Wir schreiben
v w1
1
v2 w2 , streichen die jeweils betrachtete Zeile, bilden die Determinante der entstehenden
v3 w3
2 × 2-Matrix und versehen sie mit dem Schachbrettmustervorzeichen:
+ det v2 w 2
v3 w3
v w
v × w = − det .
1 1
v3 w3
+ det v1 w1
v2 w2
Bevor wir nun das Vektorprodukt genauer untersuchen, verallgemeinern wir das Skalarprodukt
und die Norm von R2 auf beliebige Dimensionen, d.h. auf Rn .
x1
y1
.. .
Definition 5.45. Für x = . , y = .. ∈ Rn heißt
x
n yn
x, y := x1 · y1 + . . . + xn · yn
·, · : Rn × Rn → R,
· : Rn → R,
(iv) x, x ≥ 0;
(v) x, x = 0 ⇔ x = 0;
(vi) x ≥ 0 und x = 0 ⇔ x = 0;
(vii) t · x = |t | · x;
(viii) x = y ⇔ ∀z ∈ Rn : x, z = y, z.
Diese Regeln rechnet man wie im Fall n = 2 leicht nach. Überlegen wir uns nur kurz die
letzte Aussage: Für „⇒“ ist nichts zu zeigen. Für „⇐“ wählen wir speziell z = ek und sehen
xk = x, ek = y, ek = yk für alle k. Es folgt x = y.
(ii) v × w = − (w × v).
(v + ṽ) × w = (v × w) + (ṽ × w) ,
v × (w + w̃) = (v × w) + (v × w̃) ,
(λv) × w = λ · (v × w) = v × (λw) .
(v) v × w ⊥ v, w.
(vi) v × w = vol2 (P), wobei P das von v und w aufgespannte Parallelogramm ist.
(vii) Sind v und w linear unabhängig, so bildet (v, w, v × w) eine positiv orientierte Basis
von R3 .
Beweis. Zu (i):
Durch Entwicklung nach der 3. Spalte sehen wir:
v w1 z1
1
v w v w v w
det v2 w2 z2 = + det
2 2 1 1 1 1
· z1 − det · z2 + det · z3 = v × w, z .
v3 w3 v3 w3 v2 w2
v3 w3 z3
266 5. Geometrie
Zu (ii):
Für alle z ∈ R3 gilt:
(i)
v × w, z = det (v, w, z)
= − det (w, v, z)
(i)
= − w × v, z
= − (w × v) , z .
Nach Bemerkung 5.46 (viii) folgt v × w = − (w × v).
Zu (iii):
Für alle z ∈ R3 gilt:
(i)
(v + ṽ) × w, z = det (v + ṽ, w, z)
= det (v, w, z) + det (ṽ, w, z)
(i)
= v × w, z + ṽ × w, z
= (v × w) + (ṽ × w) , z .
Nach Bemerkung 5.46 (viii) ist somit (v + ṽ) × w = (v × w) + (ṽ × w). Die anderen beiden
Regeln folgen analog.
Zu (iv):
Es gilt:
v, w sind linear abhängig ⇔ rg(v, w) ≤ 1
⇔ rg(v, w, z) ≤ 2 für alle z ∈ R3
⇔ det (v, w, z) = 0 für alle z ∈ R3
⇔ v × w, z = 0 für alle z ∈ R3
⇔ v × w = 0.
Zu (v):
Wir berechnen
(i)
v × w, v = det (v, w, v) = 0.
Hieraus folgt v × w ⊥ v. Für v × w ⊥ w argumentiert man analog.
Zu (vi):
1. Fall: Sind v, w linear abhängig, so folgt nach (iv) sofort v × w = 0, also v × w = 0. Ferner
ist P dann auch in einer Geraden des R2 enthalten, also folgt vol2 (P) = 0.
2. Fall:
Sind v, w linear unabhängig, so gilt
(i)
v × w 2 = v × w, v × w = det (v, w, v × w) = vol3 (Q) , (5.17)
5.5. Aufgaben 267
Zu (vii):
Nach (iv) ist v × w 0. Nun gilt
(i)
det (v, w, v × w) = v × w, v × w = v × w 2 > 0.
Also bildet (v, w, v × w) eine positiv orientierte Basis von R3 .
Fassen wir zusammen: v × w ist der eindeutige Vektor im R3, der auf der Ebene, die von
v und w aufgespannt wird, senkrecht steht, dessen Länge gleich dem Flächeninhalt des
Parallelogramms ist, welches von v und w aufgespannt wird, so dass (v, w, v × w) rechtshändig
ist (d.h. eine positiv orientierte Basis des R3 bildet).
Die Berechnung von Skalar- und Vektorprodukten können Sie jetzt hier üben.
Das ist eine gute Kontrolle um zu prüfen, ob Sie alles richtig verstanden
haben: http://ueben.cbaer.eu/12.html
5.5. Aufgaben
5.1. Sei (e1, e2, e3 ) die Standardbasis von R3 . Wir betrachten die affine Ebene E := −e3 +
L(e1, e2 ). Desweiteren sei v ∈ R3 ein Vektor, so dass L(e1, e2, v) = R3 gilt. Zu jedem x ∈ R3
sei G(x) := x + L(v) die affine Gerade durch x in Richtung v.
a) Zeigen Sie, dass für jedes x ∈ R3 der Schnitt G(x) ∩ E aus genau einem Element besteht,
das wir mit p(x) bezeichnen.
b) Zeigen Sie, dass die Abbildung p : R3 → R3 , x → p(x), affin ist. Anmerkung: Geometrisch
handelt es sich bei p um die Parallelprojektion auf E mit Projektionsrichtung v.
c) Sei nun v = (−1, 0, 1) . Berechnen Sie die Bilder der Punkte A = (0, 2, 2) , B = (0, 1, 1) ,
C = (0, 3, 1) und D = (2, 2, 1) unter p und fertigen Sie eine Skizze an. Auf dieser sollte
der Körper mit den Eckpunkten A, B, C, D sowie dessen Bild unter p eingezeichnet sein.
268 5. Geometrie
5.2. Sei K ein Körper, n ∈ N und F : K n → K n eine affine Abbildung. Es gilt also F(x) =
ϕ(x) + a für eine lineare Abbildung ϕ : K n → K n und ein a ∈ K n . Wir definieren die
Abbildungen
b) Zeigen Sie, dass ΦF linear ist und folgende darstellende Matrix hat:
1 0 ··· 0
M(ΦF ) =
a M(ϕ)
5.3. Sei a > 0. Zeigen Sie: Unter allen Rauten (siehe Definition 2.106) mit der Seitenlänge a
hat das Quadrat den größten Flächeninhalt.
5.4. Der gesamte Trefferbereich einer Dartscheibe hat den Radius 17 cm, der des innersten
Trefferbereichs (Bull’s eye) 6,35 mm. Als ungeübte Dartspieler treffen wir zwar die Scheibe,
aber jeden Punkt mit gleicher Wahrscheinlichkeit. Das heißt, dass die Wahrscheinlichkeit eine
Region X im Trefferbereich zu treffen gegeben ist durch
vol2 (X)
.
vol2 (Trefferbereich)
a) Wie groß ist die Wahrscheinlichkeit das Bull’s eye zu treffen?
b) Wie groß ist diese Wahrscheinlichkeit bei einer n-dimensionalen Dartscheibe für n = 3,
n = 4 und n = 10?
a) E(2) eine Untergruppe der Gruppe aller bijektiven affinen Abbildungen R2 → R2 ist;
5.5. Aufgaben 269
5.6. Beweisen Sie mit Hilfe des Zwei-Sehnen-Satzes den nachfolgenden Höhensatz:
Sei durch a, b, c ∈ R2 ein rechtwinkliges euklidisches Dreieck mit rechtem Winkel bei c gegeben.
Sei d der Schnittpunk der Höhe Hc mit G a,b−a . Dann gilt:
a − d · b − d = c − d 2
5.9. a) Zeigen Sie, dass jedes F ∈ E+ (2) eine Translation oder eine Drehung um einen
Drehpunkt p ∈ R2 ist.
Hinweis: Der Fixpunkt aus Satz 5.32 ist gerade der Drehpunkt.
b) Hat jede euklidische Bewegung F ∈ E(2) \ E+ (2) einen Fixpunkt? (Beweis oder Gegen-
beispiel)
5.10. Sei durch a, b, c ∈ R2 ein nicht-ausgeartetes euklidisches Dreieck gegeben. Die Mittel-
senkrechte der Seite zwischen a und b ist gegeben durch Ma,b := G(a+b)/2,J(a−b) , die Mittel-
senkrechten Ma,c und Mb,c werden entsprechend definiert. Zeigen Sie:
a) Die Mittelsenkrechten Ma,b, Ma,c und Mb,c schneiden sich in einem Punkt.
b) Es gibt genau einen Kreis K, der durch die drei Punkte a, b und c geht.
c) (Jacobi-Identität) v × (w × z) + w × (z × v) + z × (v × w) = 0.
a) Formulieren und zeigen Sie Aussagen analog zu (ii)–(vii) aus Satz 5.47.
(Antoine de Rivarol)
Um zu verstehen, was ein gegebener Endomorphismus „geometrisch tut“, versuchen wir, eine
Basis des Vektorraums zu finden, bzgl. derer die darstellende Matrix möglichst einfach ist. Am
liebsten wäre uns eine Diagonalmatrix. Dies führt auf das Konzept der Diagonalisierbarkeit,
der Eigenwerte und Eigenvektoren. Vorher müssen wir allerdings Polynome mit Koeffizienten
in beliebigen Körpern verstehen. Es wird sich herausstellen, dass man Endomorphismen nicht
immer diagonalisieren kann, wohl aber trigonalisieren, zumindest über den komplexen Zahlen.
Schließlich werden wir das Minimalpolynom und die Jordan’sche Normalform besprechen.
6.1. Polynome
Bevor wir das Rechnen mit Matrizen weiter vertiefen, schieben wir eine systematische Unter-
suchung von Polynomen mit Koeffizienten in einem beliebigen Körper ein. Zunächst einmal,
was ist eigentlich ein Polynom?
Dazu erinnern wir uns an Beispiel 3.75. Für einen beliebigen Körper K bildet die Menge
Abb(N0, K) der Folgen in K einen K-Vektorraum. Dabei sind Addition und skalare Multiplika-
tion komponentenweise erklärt. Wir schreiben jetzt solche Folgen etwas anders hin. Sei dazu
x ein abstraktes Symbol. Statt der Folge (a0, a1, a2, . . .) schreiben wir nun
∞
aj · x j . (6.1)
j=0
Man beachte, dass x hier keine Zahl (aus K) ist, sondern tatsächlich nur ein Platzhalter. Das
gilt dann auch für x j . Statt x wird häufig auch ein anderer Buchstabe genommen, z.B. t oder
y, man könnte statt x im Prinzip auch Kunigunde oder Winnetou nehmen.
Definition 6.1. Sei K ein Körper und x ein abstraktes Symbol. Einen formalen Ausdruck wie
in (6.1) nennt man eine formale Potenzreihe mit Koeffizienten in K in der Veränderlichen
x. Die Menge aller solcher formaler Potenzreihen bezeichnet man mit Kx.
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_6
272 6. Eigenwertprobleme
Summanden, deren Koeffizient = 0 ist, lässt man in der Potenzreihenschreibweise in der Regel
weg.
Die komponentenweise Addition und skalare Multiplikation übersetzt sich dann in die Potenz-
reihenschreibweise wie folgt:
∞
∞
∞
aj · x j + bj · x j = (a j + b j ) · x j ,
j=0 j=0 j=0
∞ ∞
α· aj · x j = (α · a j ) · x j .
j=0 j=0
Wir haben also den K-Vektorraum Kx der formalen Potenzreihen, der isomorph ist zum
K-Vektorraum Abb(N0, K) der Folgen. Im Gegensatz zur Analysis spielt Konvergenz für uns
hier keine Rolle; sie wäre für allgemeine Körper K auch überhaupt nicht definiert.
heißt Polynom, wenn nur endlich viele der Koeffizienten a j 0 sind. Genauer sprechen
wir von einem Polynom in der Veränderlichen x mit Koeffizienten in K und bezeichnen die
Menge aller solcher mit K[x].
Wir beachten: Die Koeffizienten a j eines Polynoms sind Elemente aus dem Körper K, die
Veränderliche x und ihre Potenzen x j aber zunächst nicht. Diese sind lediglich abstrakte
Symbole. Wir werden dafür später auch Elemente aus K einsetzen, aber zunächst einmal
sind die x j nur Platzhalter. Polynome sind also nicht zu verwechseln mit den bisher von uns
n
betrachteten Polynomfunktionen, die Abbildungen K → K, x → a j · x j , sind.
j=0
Da man die Summanden, deren Koeffizienten a j = 0 sind, beim Aufschreiben des Polynoms
in der Regel weglässt, sind definitionsgemäß nur endlich viele Summanden anzugeben. Sind
alle Koeffizienten = 0, so bleibt die leere Summe übrig, für die wir einfach 0 schreiben.
6.1. Polynome 273
Beispiel 6.4. Sei K = F2 . Hier sind drei verschiedene Polynome mit Koeffizienten in F2 :
f = x 2 + x ∈ F2 [x],
g = 1 ∈ F2 [x],
h = 1 + y 2 + y 500 ∈ F2 [y].
Bemerkung 6.5. Die Menge der Polynome K[x] bildet einen Untervektorraum von Kx:
1. Es ist 0 = ∞j=0 0 · x in K[x] enthalten.
j
∞
2. Sind alle bis auf endlich viele der Koeffizienten von ∞ j=0 a j · x und
j
j=0 b j · x gleich 0,
j
∞
dann gilt das auch für die Summe j=0 (a j + b j ) · x j .
∞
3. Sind alle bis auf endlich viele der Koeffizienten von a j · x j gleich 0, dann gilt das auch
j=0
für Koeffizienten von ∞ j=0 (α · a j ) · x
j
Definition 6.6. Ist f = a j · x j ein Polynom, so heißt
−∞, falls f = 0
deg( f ) :=
max{ j | a j 0}, sonst
Beispiel 6.7. Sei K = F2 . Dann ist deg(x 2 + x) = 2, deg(1) = 0 , deg(1 + y 2 + y 500 ) = 500.
Definition 6.8. Ein Polynom, dessen Koeffizienten alle bis auf einen = 0 sind, und der eine
= 1 ist, heißt Monom. In anderen Worten, Monome sind Polynome der Form f = x j .
Beispiel 6.9. Sei K = F2 . Dann ist f = y 5 ∈ K[y] ein Monom, wohingegen g = x 2 +x 4 ∈ K[x]
kein Monom ist.
Bemerkung 6.10. Die Menge der Monome bildet eine Basis des Vektorraums K[x], da sich
jedes Polynom eindeutig als (endliche) Linearkombination von Monomen schreiben lässt.
Insbesondere ist dim(K[x]) = ∞. Damit muss auch dim(Kx) = ∞ gelten.
Wir können Kx auch zu einem Ring machen. Dazu müssen wir noch wissen, wir das Produkt
zweier formaler Potenzreihen definiert ist.
274 6. Eigenwertprobleme
∞ ∞
Definition 6.11. Für f = j=0 a j · x j und g = j=0 b j · x j ist f · g definiert durch
∞
k
f · g := a j · b k− j · x k .
k=0 j=0
Wir beachten, dass für jedes k der Koeffizient von x k in f · g eine endliche Summe von
Elementen aus K ist. Das Produkt f · g ist also definiert, ohne dass wir irgendwelche Konver-
genzannahmen an die formalen Potenzreihen f und g machen müssten.
∞ (−1) j ∞
Beispiel 6.12. Wir berechnen das Produkt von f = j=0 j! · x j und g = 1
j=0 j! · x j in
Qx:
∞
$ %
1
k ∞ k
(−1) j k
f ·g= · xk = (−1) j ·x k = 1.
k=0 j=0
j!(k − j)! k=0
k! j=0
j
()*+
=0 falls k≥1
Beim Produkt von formalen Potenzreihen zeigt sich die Stärke der Potenzreihenschreibweise.
Wir multiplizieren zwei Potenzreihen, indem wir wie gewohnt ausmultiplizieren als sei der
abstrakte Platzhalter x eine Zahl in K und dann sortieren wir das Ergebnis nach Potenzen
von x.
In der Folgenschreibweise sähe das Produkt so aus:
(a0, a1, a2, . . .) · (b0, b1, b2, . . .) = (a0 b0, a0 b1 + a1 b0, a0 b2 + a1 b1 + a2 b0, . . .),
was uns vielleicht nicht sofort als vernünftige Definition einleuchten würde.
In Aufgabe 6.1 wird gezeigt, dass K[x] ein kommutativer Ring mit Eins ist.
Lemma 6.14. Sei K ein Körper und seien f , g ∈ K[x]. Dann ist auch f · g ∈ K[x] und es
gilt
deg( f · g) = deg( f ) + deg(g).
Insbesondere ist K[x] ein Unterring von Kx und K[x] ist nullteilerfrei.
6.1. Polynome 275
Es ist eine berechtigte Frage, was die Formel bedeutet, wenn −∞ als Grad vorkommt. Hierfür
verwenden wir die Konvention
−∞ + n = n − ∞ = −∞
f )
deg(
deg(g)
f = aj · x j und g= bj · x j .
j=0 j=0
Die führenden Koeffizienten sind dann ungleich 0, d.h. adeg( f ) 0 und bdeg(g) 0. Dann ist
)+deg(g)
deg( f
k
f ·g= a j · b k− j · x k .
k=0 j=0
Im Koeffizienten der höchstmöglichen auftretenden Potenz x deg( f )+deg(g) trägt nur das Produkt
adeg( f ) · bdeg(g) bei, da für alle anderen Summanden einer der beiden Faktoren = 0 ist. Es gilt
daher
f · g = (adeg( f ) · bdeg(g) ) · x deg( f )+deg(g) + niedrigere Potenzen von x.
Also ist deg( f · g) = deg( f ) + deg(g).
c) Mit f und g ist auch f · g wieder ein Polynom. Gleiches gilt für die Summe. Also K[x] ein
Unterring von Kx.
Ist f · g = 0, dann ist deg( f · g) = −∞. Also muss deg( f ) = −∞ oder deg(g) = −∞ gelten,
d.h. f = 0 oder g = 0. Dies zeigt, dass K[x] nullteilerfrei ist.
Satz 6.15 (Polynomdivision). Sei K ein Körper und x ein abstraktes Symbol. Seien f , g ∈
K[x], g 0. Dann existieren eindeutig bestimmte Polynome q, r ∈ K[x] mit f = q · g + r,
wobei deg(r) < deg(g).
Beweis. a) Zeigen wir zunächst die Eindeutigkeit: Seien q, q̂, r, r̂ ∈ K[x] mit f = q · g + r =
q̂ · g + r̂ und deg(r), deg(r̂) < deg(g). Dann ist 0 = (q − q̂)g + (r − r̂), also r̂ − r = (q − q̂)g und
außerdem deg(r̂ − r) < deg(g). Wäre q q̂, so wäre andererseits nach Lemma 6.14
b) Zur Existenz: Ist n := deg( f ) < m := deg(g), so können wir einfach q = 0 und r = f
wählen. Wir nehmen daher n ≥ m ≥ 0 an und schreiben
f = an x n + . . . + a0,
g = bm x m + . . . + b0,
r := fn und q := q1 + . . . + qn .
Nun gilt:
f = f1 + q1 · g
= ( f2 + q2 · g) + q1 · g
= f2 + (q1 + q2 ) · g
..
.
= fn + (q1 + . . . + qn ) · g
= r + q · g,
wie gewünscht.
Das Schöne an diesem Beweis ist, dass er gleich ein konkretes Verfahren zur Durchführung
der Polynomdivision liefert.
Beispiel 6.16. Sei K = R. Wir dividieren das Polynom f = 3x 3 + 2x + 1 ∈ R[x] durch das
Polynom g = x 2 − 4x ∈ R[x]. Es ist deg(g) < deg( f ).
1. Schritt: Setze
3 3−2
q1 := x = 3x und
1
f1 := f − q1 g = 3x 3 + 2x + 1 − 3x(x 2 − 4x) = 12x 2 + 2x + 1.
2. Schritt: Setze
12 2−2
q2 := x = 12 und
1
f2 := f1 − q2 g = 12x 2 + 2x + 1 − 12(x 2 − 4x) = 50x + 1.
Nun ist deg(g) > deg( f2 ) und die Prozedur bricht ab.
Wir erhalten q = q1 + q2 = 3x + 12 und für den Rest r = f2 = 50x + 1. In der Tat gilt
Definition 6.17. Sei K ein Körper. Der Auswertehomomorphismus ist die Abbildung
K[x] → Abb(K, K), f → f˜, wobei f˜ die Abbildung ist, die man erhält, indem man für
n
das abstrakte Symbol x alle möglichen Zahlen aus K einsetzt. Genauer: ist f = aj x j,
j=0
n
dann ist f˜(λ) = a j λ j für alle λ ∈ K.
j=0
Wie in Aufgabe 6.3 gezeigt wird, ist der Auswertehomomorphismus tatsächlich ein Homo-
morphismus, und zwar sowohl ein Vektorraumhomomorphismus als auch ein Ringhomomor-
phismus. In anderen Worten, es gilt λ4f = λ f˜, 7
f + g = f˜ + g̃ und f8
· g = f˜ · g̃.
Beispiel 6.18. Sei K = F2 . Das Polynom f = x 2 + x ∈ F2 [x] ist nicht das Nullpolynom; es
hat Grad 2. Für die zugehörige Polynomfunktion berechnen wir
f˜(0) = 02 + 0 = 0 und
f˜(1) = 12 + 1 = 0.
Das folgende Lemma besagt, dass man zu Nullstellen der Polynomfunktion f˜ den entsprechen-
den Linearfaktor des Polynoms f abspalten kann.
278 6. Eigenwertprobleme
Lemma 6.19. Sei K ein Körper und sei f ∈ K[x]. Ist λ ∈ K eine Nullstelle von f˜, so
existiert genau ein Polynom g ∈ K[x] mit f = (x − λ) · g.
Ferner gilt deg(g) = deg( f ) − 1.
Beweis. Polynomdivision mit Rest von f durch (x − λ) ergibt Polynome g, r ∈ K[x], so dass
f = (x − λ) · g + r und
deg(r) < deg(x − λ) = 1.
Also deg(r) = 0 oder deg(r) = −∞. In jedem Fall ist der Rest r eine Konstante, r ∈ K, und wir
haben f˜ = ( x7
− λ) · g̃ + r̃. Da λ eine Nullstelle von f˜ ist, folgt direkt
0 = f8
(λ) = (λ7 8 + r̃(λ) = r
− λ) · g(λ)
Wenn wir künftig von Nullstellen eines Polynoms f sprechen, so sind damit die Nullstellen
der zugehörigen Polynomfunktion f˜ gemeint.
Korollar 6.20. Sei K ein Körper und sei f ∈ K[x], f 0. Hat f k paarweise verschiedene
Nullstellen, so ist
deg( f ) ≥ k.
Beweis. Seien λ1, . . ., λ k paarweise verschiedene Nullstellen von f˜. Indem wir Lemma 6.19
k-mal anwenden, erhalten wir
f = (x − λ1 ) · · · (x − λ k ) · g
für ein g ∈ K[x]. Es muss g 0 sein, weil sonst f = 0 wäre. Also ist deg(g) ≥ 0 und somit
Korollar 6.21. Ist K ein Körper mit unendlich vielen Elementen, so ist der Auswertehomo-
morphimus K[x] → Abb(K, K) injektiv.
6.1. Polynome 279
Beweis. Sei f ∈ K[x], so dass f˜ die Nullfunktion ist. Wir müssen zeigen, dass f das Null-
polynom ist. Jedes Element von K ist Nullstelle von f˜. Also hat f˜ unendlich viele Nullstellen.
Wäre f 0, dann erhielten wir einen Widerspruch zu Korollar 6.20.
Würden wir nur Körper mit unendlich vielen Elementen betrachten, wie Q, R oder C, dann
bräuchten wir also nicht so strikt zwischen Polynomen und Polynomfunktionen zu unterschei-
den, da wir nach diesem Korollar das Polynom f aus der Polynomfunktion f˜ zurückgewinnen
können. Bei endlichen Körpern ist das aber nicht so, wie wir gesehen haben.
Im Fall komplexer Polynome haben wir den Begriff der Vielfachheit von Nullstellen bereits
kennengelernt, vgl. Definition 2.118.
(ii) Die Vielfachheit μ(λ, f ) ist die eindeutige Zahl aus N0 , für die es ein g ∈ K[x] gibt, so
dass f = (x − λ) μ(λ, f ) · g und so dass λ keine Nullstelle von g̃ ist.
(iv) Sind λ1, . . . , λ k die paarweise verschiedenen Nullstellen von f˜ mit Vielfachheiten
r1, . . . , rk , so schreibt sich f = (x − λ1 )r1 · . . . · (x − λ k )rk · g, wobei g ∈ K[x] ein
Polynom ohne Nullstellen ist.
Dabei sind λ1, . . ., λ k, r1, . . ., rk und g bis auf Reihenfolge eindeutig bestimmt.
Beweis. Zu (i):
Ist f = (x − λ)r · g, so gilt nach Lemma 6.14 deg( f ) = r + deg(g), also r ≤ deg( f ).
Zu (ii):
Wäre λ eine Nullstelle von g̃, wobei f = (x −λ) μ(λ, f ) · g ist, dann könnten wir Lemma 6.19 auf g
anwenden und g in der Form g = (x−λ)·h schreiben, h ∈ K[x]. Damit wäre f = (x−λ) μ(λ, f )+1 ·h
im Widerspruch zur Maximalität von μ(λ, f ).
Sei umgekehrt r ∈ N0 so, dass es ein g ∈ K[x] gibt mit f = (x − λ)r · g. Dann ist r ≤ μ(λ, f ).
Wir schreiben f = (x − λ) μ(λ, f ) · g1 , wobei g1 ∈ K[x] so ist, dass λ keine Nullstelle von g̃1 ist.
280 6. Eigenwertprobleme
Also gilt
(x − λ) μ(λ, f ) · g1 = (x − λ)r · g,
und daher
(x − λ)r · (g − (x − λ) μ(λ, f )−r · g1 ) = 0.
Da (x − λ)r nicht das Nullpolynom ist, folgt wegen der Nullteilerfreiheit von K[x], dass
g − (x − λ) μ(λ, f )−r · g1 = 0.
Da λ keine Nullstelle von g̃1 ist, ist λ genau dann keine Nullstelle von g̃, wenn μ(λ, f ) = r ist.
Aussage (iii) folgt direkt aus (ii).
Zu (iv):
Wir wenden (ii) k-mal an: Wir schreiben f = (x − λ1 )r1 · g1 , wobei g̃1 nur noch die Nullstellen
λ2, . . ., λ k hat. Dann schreiben wir g1 = (x − λ1 )r2 · g2 , wobei g̃2 nur noch die Nullstellen
λ3, . . ., λ k hat, usw. Schließlich erhalten wir gk−1 = (x − λ1 )rk · gk , wobei g̃k keine Nullstellen
mehr hat. Setzen wir g := gk , so ergibt sich
f = (x − λ1 )r1 · . . . · (x − λ k )rk · g.
Wegen der Nullteilerfreiheit von K[x] ist g durch diese Gleichung eindeutig bestimmt.
Definition 6.26. Sei K ein Körper. Man sagt, ein Polynom f ∈ K[x] zerfällt in Linearfak-
toren, falls es sich in der Form
f = a · (x − λ1 )r1 · . . . · (x − λn )rn
mit a, λ1, . . ., λn ∈ K schreiben lässt. Eine solche Darstellung heißt dann Linearfaktorzer-
legung von f .
Bemerkung 6.27. Wir haben also genau dann eine Linearfaktorzerlegung von f vorliegen,
wenn in der Darstellung f = (x − λ1 )r1 · . . . · (x − λ k )rk · g aus Lemma 6.23 (iv) das Polynom
g vom Grad 0 ist. Somit zerfällt f genau dann in Linerfaktoren, wenn sich die Vielfachheiten
der Nullstellen zum Grad von f aufaddieren, r1 + . . . + rk = deg( f ).
Eine Zerlegung von f in Linearfaktoren ist, falls sie existiert, eindeutig bis auf die Reihenfolge
der Faktoren.
6.2. Eigenwerte und Eigenvektoren 281
Definition 6.28. Sei K ein Körper, V ein K-Vektorraum und ϕ ∈ End(V). Eine Zahl λ ∈ K
heißt genau dann Eigenwert von ϕ, wenn ein v ∈ V \ {0} existiert, so dass
ϕ(v) = λ · v (6.2)
Ließe man v = 0 zu, so würde die Eigenwert-Gleichung (6.2) mit v = 0 für jedes λ gelten.
Somit wäre jede Zahl λ Eigenwert und die Definition wäre unsinnig.
Die Gleichung (6.2) sagt aus, dass die lineare Abbildung ϕ den Vektor v um den Faktor λ
streckt.
Für Matrizen A sind Eigenwerte und Eigenvektoren ganz analog definiert, nämlich als die
Eigenwerte und Eigenvektoren der linearen Abbildung x → A · x. In anderen Worten:
Definition 6.29. Sei K ein Körper und sei A ∈ Mat(n, K). Eine Zahl λ ∈ K heißt genau dann
Eigenwert von A, wenn ein v ∈ K n \ {0} existiert, so dass
Beispiel 6.30. Für die uns aus Beispiel 4.47 bekannte Spiegelungsmatrix A = Sθ und den
Vektor v = vθ gilt wθ
A · v = Sθ · vθ vθ
= vθ
θ
= 1 · vθ .
Abb. 102
282 6. Eigenwertprobleme
A · v = Sθ · wθ = −wθ = (−1) · wθ .
Beispiel 6.31. Denken wir für K = R einen Moment über die Drehmatrix A = Rθ mit 0 < θ <
π nach. Offenbar bleibt die Länge eines beliebigen Vektors bei der Drehung unverändert, und
der Bildvektor ist gerade um den Winkel θ vom Original weggedreht, zeigt also in eine andere
Richtung. Damit kann er insbesondere kein Vielfaches des Originals sein. Wir erwarten also
aufgrund dieser geometrischen Überlegung, dass Rθ keine Eigenvektoren und Eigenwerte hat.
λ 0 ··· 0
1
0 . . . . . . ...
A = Δ(λ1, . . ., λn ) := . .
.. . . . . . 0
0 · · · 0 λn
beobachten wir
0
..
.
0
Δ(λ1, . . ., λn ) · ek = λ k = λ k · ek .
0
..
.
0
Somit ist ek Eigenvektor von Δ(λ1, . . ., λn ) zum Eigenwert λ k für k ∈ {1, . . ., n}.
Beispiel 6.33. Sei K = R und V = C ∞ (R, R) der Vektorraum aller unendlich oft differenzier-
baren reellen Funktionen. Zu λ ∈ R setzen wir vλ (t) := eλt . Dann ist vλ ∈ V und vλ 0.
Der „Ableitungsoperator“ dtd : V → V ist ein Endomorphismus. Wegen vλ (t) = λeλt = λvλ (t)
für alle t ∈ R ist
d
(vλ ) = λvλ .
dt
Also ist jedes λ ∈ R Eigenwert von d
dt .
Es kann also passieren, dass ein Endomorphismus überhaupt keine Eigenwerte hat, oder endlich
viele oder auch unendlich viele. Das wollen wir nun systematisch untersuchen und beginnen
mit folgendem
6.2. Eigenwerte und Eigenvektoren 283
Satz 6.34. Sei K ein Körper, V ein K-Vektorraum und ϕ ∈ End(V). Sind v1, . . . , vk Eigenvek-
toren von ϕ zu paarweise verschiedenen Eigenwerten λ1, . . ., λ k ∈ K, dann sind v1, . . ., vk
linear unabhängig.
Beweis. Wir führen eine vollständige Induktion nach der Anzahl k durch.
Induktionsanfang: Ist k = 1 und damit v1 Eigenvektor zu λ1, so ist v1 0 nach Definition, also
linear unabhängig.
Induktionsschritt: Gelte die Aussage wie oben für ein k ∈ N. Wir zeigen, dass die Aussage dann
auch für k + 1 gültig ist. Hierzu seinen v1, . . . , vk+1 Eigenvektoren zu paarweise verschiedenen
Eigenwerten λ1, . . . , λ k+1 . Wir überprüfen, dass nun v1, . . ., vk+1 linear unabhängig sind, also
dass aus
α1 v1 + . . . + αk+1 vk+1 = 0 (6.4)
dann
α1 = . . . = αk+1 = 0
folgt. Es gilt
(6.4)
0 = ϕ(0) = ϕ (α1 v1 + . . . αk+1 vk+1 )
= α1 · ϕ(v1 ) + . . . + αk+1 · ϕ(vk+1 )
(6.2)
= α1 · λ1 v1 + . . . + αk+1 · λ k+1 vk+1 . (6.5)
Ferner erhalten wir aus Gleichung (6.4) durch Multiplikation mit λ k+1, dass
wobei der letzte Summand αk+1 · (λ k+1 − λ k+1 ) · vk+1 gerade weggefallen ist.
Da nach Induktionsvoraussetzung v1, . . . , vk linear unabhängig sind, verschwinden in der Li-
nearkombination der Gleichung (6.7) alle Koeffizienten αi · (λi − λ k+1 ), d.h. es folgt
also α1 = . . . = αk = 0. Setzen wir diese Ergebnisse in (6.4) ein, so verbleibt αk+1 vk+1 = 0,
also ist αk+1 = 0, da der Eigenvektor vk+1 nach Definition nicht der Nullvektor ist.
Da ein Vektorraum nicht mehr linear unabhängige Vektoren enthalten kann als seine Dimension
angibt, folgt sofort:
284 6. Eigenwertprobleme
Korollar 6.35. Sei K ein Körper, V ein K-Vektorraum und ϕ ∈ End(V). Hat ϕ mindestens k
paarweise verschiedene Eigenwerte, k ∈ N ∪ {∞}, dann ist
dim(V) ≥ k.
Somit kann die Spiegelungsmatrix Sθ ∈ Mat(2, R) neben 1 und −1 keine weiteren Eigenwerte
haben.
Da es auf dem reellen Vektorraum V = C ∞ (R, R) einen Endomorphismus mit unendlich vielen
paarweise verschiedenen Eigenwerten gibt (nämlich dtd ), muss dim(C ∞ (R, R)) = ∞ gelten.
Definition 6.36. Sei K ein Körper, V ein K-Vektorraum, ϕ ∈ End(V) und λ ∈ K. Dann heißt
Proposition 6.37. Sei K ein Körper, V ein K-Vektorraum, λ, μ ∈ K und ϕ ∈ End(V ). Dann
gilt:
Beweis. Aussagen (i) und (ii) sind klar aufgrund der Definition. Aussage (iii) folgt direkt aus
(ii), da der Kern einer linearen Abbildung stets ein Untervektorraum ist.
Zu (iv):
Wäre 0 v ∈ Eig(ϕ, λ) ∩ Eig(ϕ, μ), so müssten v, v wegen Satz 6.34 linear unabhängig sein,
was natürlich Unsinn ist.
6.2. Eigenwerte und Eigenvektoren 285
Beispiel 6.38. Wir betrachten die Spiegelungsmatrix A = Sθ und benutzen die Notationen
aus Beispiel 4.47. Da vθ ein Eigenvektor von A zum Eigenwert 1 ist, muss Eig(Sθ, 1) den
eindimensionalen Untervektorraum R · vθ enthalten. Der Eigenraum kann nicht 2-dimensional
sein, da dann Eig(Sθ, 1) = R2 wäre, aber wθ ∈ R2 ist nicht Eigenvektor zum Eigenwert 1
(sondern zum Eigenwert −1). Also gilt
Eig(Sθ, 1) = R · vθ .
wθ Eig(Sθ, 1) = Rvθ
vθ
θ
x1
Eig(Sθ, −1) = Rwθ
Abb. 103 Eigenräume von Sθ
0 0 0
Eig(A, 1) = ker(A − 1 · 13 ) = ker 0 0 0 = {α · e1 + β · e2 | α, β ∈ R} ,
0 0 2
286 6. Eigenwertprobleme
−2 0 0
Eig(A, 3) = ker(A − 3 · 13 ) = ker 0 −2 0 = {α · e3 | α ∈ R} .
0 0 0
Andere Eigenwerte besitzt A nicht, denn für λ {1, 3} ist
1−λ 0 0
A − λ · 13 = 0 1−λ 0
0 0 3 − λ
eine Diagonalmatrix, deren Diagonaleinträge alle 0 sind, also invertierbar. Daher gilt dann
Die Matrix A hat tatsächlich nur die beiden Eigenwerte 1 und 3. Allerdings muss der Eigenwert 1
hier doppelt gezählt werden. Was bedeutet das genau?
Definition 6.40. Sei K ein Körper, V ein K-Vektorraum, λ ∈ K und ϕ ∈ End(V). Dann heißt
In Beispiel 6.39 hat der Eigenwert 1 die geometrische Vielfachheit 2, der Eigenwert 3 dagegen
die geometrische Vielfachheit 1. Dieses Beispiel lässt sich leicht folgendermaßen verallgemei-
nern:
μ1
..
A = Δ(μ1, . . . , μn ) := .
μn
Beispiel 6.42. Greifen wir Beispiel 6.33 nochmals auf. Hier war der Körper K = R, der
Vektorraum V = C ∞ (R, R) und der Endomorphismus ϕ = dtd . Wir hatten schon gesehen, dass
jedes λ ∈ R Eigenwert ist. Was sind die geometrischen Vielfachheiten der λ?
Dazu sind zu gegebenem λ ∈ R alle Funktionen v ∈ C ∞ (R, R) zu bestimmen, die ϕ(v) = λ · v,
d.h.
dv
(t) = λ · v(t) (6.8)
dt
für alle t ∈ R erfüllen. Eine solche Gleichung nennt man eine Differentialgleichung, da in ihr
die unbekannte Funktion v als auch ihre Ableitung auftritt. In der Analysis lernt man, dass die
Lösungen von (6.8) alle von der Form v(t) = c · eλt sind. In anderen Worten, Eig(λ, dtd ) = R · vλ .
Die geometrischen Vielfachheiten sind somit gleich 1.
Um ein konkretes Verfahren zur Berechnung von Eigenwerten zu finden, machen wir folgende
Überlegung. Ist A ∈ Mat(n, K), so gilt:
λ ist Eigenwert von A ⇔ ker(A − λ · 1n ) = Eig(A, λ) {0}
⇔ A − λ · 1n ist nicht invertierbar
⇔ det (A − λ · 1n ) = 0.
Da die Determinante ein Polynom in den Einträgen der Matrix ist (vgl. Satz 4.82), ist das
charakteristische Polynom tatsächlich ein Polynom in λ, und zwar vom Grad n.
Die obige Überlegung zeigt:
λ ist Eigenwert von A ⇔ χ̃A (λ) = 0.
Um die Eigenwerte von A zu finden, müssen wir also die Nullstellen des charakteristischen
Polynoms χA berechnen.
Tatsächlich sind die Nullstellen von χSθ die bekannten Eigenwerte λ1 = 1 und λ2 = −1.
μ1 0 · · · 0
1 0 · · · 0
.
0 . . . . . ...
0 . . . . . . ...
χΔ(μ1,...,μn ) (λ) = det . . − λ ·
.. . .
..
. 0
... . . . . . . 0
0 · · · 0 μn
0 · · · 0 1
μ − λ 0 ··· 0
1 ..
0 .. ..
. . .
= det . . .
.. .. .. 0
0 · · · 0 μn − λ
= (μ1 − λ) · . . . · (μn − λ).
Also ist χΔ(μ1,...,μn ) (λ) = 0 genau dann, wenn λ = μk für ein k ∈ {1, . . ., n} ist. Somit hat
Δ(μ1, . . . , μn ) genau die Eigenwerte μ1, . . ., μn .
Beispiel 6.46. Greifen wir noch einmal die in Beispiel 6.31 diskutierten Drehungen auf. Für
A = Rθ ist zunächst
cos(θ) − sin(θ) 1 0
χRθ (λ) = det −λ·
sin(θ) cos(θ) 0 1
cos(θ) − λ − sin(θ)
= det
sin(θ) cos(θ) − λ
= (cos(θ) − λ)2 + sin2 (θ)
= λ2 − 2 cos(θ) · λ + cos2 (θ) + sin2 (θ)
= λ2 − 2 cos(θ) · λ + 1.
Die Nullstellen von χ̃Rθ sind gegeben durch
λ1,2 = cos(θ) ± cos2 (θ) − 1 = cos(θ) ± − sin2 (θ) = cos(θ) ± i · sin(θ).
Ist nun θ kein ganzzahliges Vielfaches von π, so ist der Ausdruck sin(θ) 0 und somit sind
λ1 und λ2 nicht reell. Drehmatrizen haben dann also keine reellen (wohl aber komplexe)
Eigenwerte und Eigenvektoren.
Falls dagegen θ ein ganzzahliges Vielfaches von π ist, so ist Rθ = ±12 und Rθ hat den Eigenwert
±1 mit geometrischer Vielfachheit 2.
Bemerkung 6.47. Es ist wichtig festzuhalten, dass das charakteristische Polynom einer Matrix
ein Polynom definiert, nicht nur eine Polynomfunktion. Sei nämlich A ∈ Mat(n, K) und x ein
abstraktes Symbol. Dann berechnet man χA(x) = det(A − x · 1n ) z.B. mittels der Formel aus
Satz 4.82 und sortiert nach Potenzen von x.
Damit sind dann die algebraischen Vielfachheiten der Eigenwerte auch über beliebigen Körpern
definiert, nicht nur über K = C, nämlich als Nullstellenvielfachheiten des charakteristischen
Polynoms.
Beispiel 6.48. Betrachten wir den Körper K = F2 und die beiden Matrizen A, B ∈ Mat(3, F2 ),
gegeben durch
1 0 0 1 0 0
A = 0 1 0 und B = 0 0 0 .
0 0 0 0 0 0
Die charakteristischen Polynome ergeben sich zu
1−x 0 0
χA(x) = det 0 1 − x 0 = (1 − x)2 (−x) = x 3 + x,
0 0 −x
1−x 0 0
χB (x) = det 0 −x 0 = (1 − x)(−x)2 = x 3 + x 2 .
0 0 −x
Die charakteristischen Polynome von A und B sind also verschieden, obwohl die zugehörigen
Polynomfunktionen übereinstimmen,
χA χB, aber χ̃A = χ̃B = 0.
Bemerkung 6.49. Nach dem Fundamentalsatz 2.117 der Algebra besitzt jedes komplexe Poly-
nom vom Grad ≥ 1 Nullstellen und damit jede komplexe Matrix A ∈ Mat(n, C) Eigenwerte.
Wie die Drehmatrizen zeigen, gilt dies nicht für reelle Matrizen, es sei denn, wir fassen sie als
komplexe Matrizen auf (schließlich gilt ja R ⊂ C) und erlauben den Eigenwerten komplex zu
sein.
Die Wahl des Körpers K spielt also eine wichtige Rolle für Eigenwertprobleme.
Hier können Sie die Eigenwerte von Beispielmatrizen zur Übung berechnen:
http://ueben.cbaer.eu/05.html
Bemerkung 6.50. Die Transponierte einer Matrix A hat dasselbe charakteristische Polynom
wie A selbst, denn
χA (λ) = det(A − λ1) = det((A − λ1) ) = det(A − λ1) = χA(λ).
Damit haben A und A auch dieselben Eigenwerte.
290 6. Eigenwertprobleme
Bemerkung 6.51. Aus Aufgabe 6.10 folgt, dass ähnliche Matrizen dasselbe charakteristische
Polynom und damit dieselben Eigenwerte haben müssen, denn ähnliche Matrizen stellen den-
selben Endomorphismus bzgl. verschiedener Basen dar. Wir können dies aber auch noch einmal
direkt nachrechnen:
Seien A, B ∈ Mat(n, K) ähnlich, d.h. es gibt ein T ∈ GL(n, K), so dass
B = T · A · T −1 .
χB (λ) = det(B − λ · 1n )
= det(T AT −1 − λ · T1nT −1 )
= det(T(A − λ · 1n )T −1 )
= det(T) · χA(λ) · det(T −1 )
= χA (λ).
6.3. Diagonalisierbarkeit
Diagonalmatrizen sind besonders angenehm für Berechnungen. Alle zugeordneten Größen wie
die Determinante, das charakteristische Polynom, die Eigenwerte und die inverse Matrix (falls
sie exisiert) lassen sich sofort angeben. Für einen gegebenen Endomorphismus wäre es daher
sehr günstig, eine Basis aus Eigenvektoren zu finden und den Endomorphismus dann in dieser
Basis durch eine Diagonalmatrix darzustellen. Wann ist das möglich?
Satz 6.52. Sei V ein n-dimensionaler K-Vektorraum und ϕ ∈ End(V). Sei B = (b1, . . . , bn )
eine geordnete Basis von V. Dann sind äquivalent:
MB (ϕ) = Δ(μ1, . . . , μn ).
Beweis. Die Aussage ist klar aufgrund der Definitionen, denn dass die darstellende Matrix
MB (ϕ) = Δ(μ1, . . ., μn ) ist, heißt ja nichts anderes als ϕ(b j ) = μ j b j .
Definition 6.54. Sei V ein K-Vektorraum, ϕ ∈ End(V) und A ∈ Mat(n, K). Falls eine
Basis von V bzw. K n aus Eigenvektoren von ϕ bzw. A existiert, dann heißt ϕ bzw. A
diagonalisierbar.
Nehmen wir an, eine Matrix A ∈ Mat(n, K) ist diagonalisierbar, d.h. ähnlich zu einer Dia-
gonalmatrix Δ(μ1, . . . , μn ). Da ähnliche Matrizen dieselben Eigenwerte haben, müssen die
Diagonalterme μ1, . . ., μn der Diagonalmatrix genau die Eigenwerte von A sein, wobei jeder
Eigenwert so oft vorkommt, wie die geometrische Vielfachheit angibt.
Wie finden wir nun die Transformationsmatrix T ∈ GL(n, K), für die dann
T AT −1 = Δ(μ1, . . ., μn )
gilt? Nun, sei v j = T −1 e j der j-te Spaltenvektor von T −1 . Dann berechnen wir:
Av j = T −1 Δ(μ1, . . . , μn )T v j
= T −1 Δ(μ1, . . . , μn )e j
= T −1 μ j e j
= μ j T −1 e j
= μj vj .
Wir sehen, dass die Spaltenvektoren von T −1 genau die Eigenvektoren von A sind. Zusammen-
gefasst haben wir gesehen: Ist {v1, . . ., vn } eine Basis aus Eigenvevektoren von A, Av j = μ j v j ,
dann wird A durch
(v1, . . ., vn )−1 · A · (v1, . . ., vn ) = Δ(μ1, . . . , μn )
diagonalisiert.
Die Frage ist also, wie wir zu einer Basis aus Eigenvektoren kommen.
Satz 6.55. Sei V ein n-dimensionaler K-Vektorraum und ϕ ∈ End(V). Seien λ1, . . ., λ k die
paarweise verschiedenen Eigenwerte von ϕ. Dann gilt
μgeo (λ1 ) + . . . + μgeo (λ k ) ≤ n. (6.9)
Der Endomorphismus ϕ ist genau dann diagonalisierbar, wenn
μgeo (λ1 ) + . . . + μgeo (λ k ) = n. (6.10)
292 6. Eigenwertprobleme
Beweis. a) Wir wählen eine geordnete Basis (b1, . . . , b μgeo (λ1 ) ) von Eig(ϕ, λ1 ). Dann wählen
wir eine geordnete Basis (b μgeo (λ1 )+1, . . . , b μgeo (λ1 )+μgeo (λ2 ) ) von Eig(ϕ, λ2 ). So fahren wir fort bis
wir zuletzt eine geordnete Basis (b μgeo (λ1 )+···+μgeo (λk−1)+1, . . . , b μgeo (λ1 )+···+μgeo (λk−1)+μgeo (λk ) ) von
Eig(ϕ, λ k ) erhalten haben.
Wir überlegen uns nun zunächst, dass die Vektoren (b1, . . ., b μgeo (λ1 )+···+μgeo (λk ) ), die aus diesen
Basen zusammengesetzt sind, linear unabhängig sind. Seien also α j ∈ K, so dass
Die Summanden in dieser langen Summe, die aus demselben Eigenraum stammen, fassen wir
jeweils zusammen. Wir setzen
Dann gilt also v1 + · · · + vk = 0 und wegen Satz 6.34 müssen alle v j = 0 sein (die v j 0 wären
einerseits linear unabhängig und würden sich andererseits zu 0 aufaddieren, Widerspruch). Da
jedes v j als Linearkombination von Basisvektoren von Eig(ϕ, λ j ) geschrieben ist, müssen alle
Koeffizienten αi = 0 sein. Dies beweist die lineare Unabhängigkeit.
b) In jedem Vektorraum kann es nicht mehr linear unabhängige Vektoren geben als die Di-
mension angibt. Daher folgt (6.9).
c) Gilt (6.10), so ist (b1, . . ., b μgeo (λ1 )+···+μgeo (λk ) ) ein maximales System linear unabhängiger
Vektoren, also eine Basis. Wir haben somit eine Basis aus Eigenvektoren gefunden und ϕ ist
diagonalisierbar.
d) Ist umgekehrt ϕ diagonalisierbar, d.h. gibt es eine Basis aus Eigenvektoren, dann verteilen
sich diese Eigenvektoren auf die verschiedenen Eigenräume. Wegen der linearen Unabhängig-
keit können nicht mehr als μgeo (λ j ) viele der Basisvektoren aus Eig(ϕ, λ j ) stammen. Daher
gilt
μgeo (λ1 ) + . . . + μgeo (λ k ) ≥ n.
Zusammen mit (6.9) liefert dies (6.10).
Nun wissen wir, wie wir einen Endomorphismus oder eine Matrix diagonalisieren, sofern er
denn diagonalisierbar ist. Die Prozedur ist wie folgt:
4. Im diagonalisierbaren Fall setzen sich diese Basen zu einer Basis des gesamten Vektorraums
zusammen.
6.3. Diagonalisierbarkeit 293
Der erste Schritt ist im Wesentlichen die Berechnung einer Determinante. Das kann in hohen
Dimensionen mühsam sein, ist im Prinzip aber immer machbar.
Der zweite Schritt kann schon problematisch werden. Im Fall K = C haben wir Formeln
kennengelernt, die bis zum Grad 3 die Nullstellenberechnung erlauben. In hohen Dimensionen
kann die explizite Nullstellenberechnung scheitern.
Die Eigenraumbestimmung zum Eigenwert μ j ist die Berechnung des Kerns von ϕ − μ j · id.
Das läuft auf das Lösen eines linearen Gleichungssystems hinaus. Das können wir mittlerweile
gut.
Doch nun zu Beispielen:
Beispiel 6.56. Für K = R und A = Sθ gilt wegen Lemma 5.24 Rθ S0 R−θ = Sθ . Umstellen nach
der Spiegelung S0 an der e1 -Achse liefert dann
1 0 −1
Δ(1, −1) = = S0 = R−θ Sθ R−θ ,
0 −1
Beispiel 6.57. Für reelle Drehmatrizen Rθ wissen wir, dass diese keine reellen Eigenwerte
bzw. Eigenvektoren besitzen (jedenfalls wenn θ Z · π). Somit ist Rθ auch nicht (reell)
diagonalisierbar.
Die Situation ändert sich jedoch, wenn wir Rθ als komplexe Matrix betrachten, also K = C
nehmen. Aufgrund des Fundamentalsatzes der Algebra muss Rθ Eigenwerte haben. In der Tat,
in Beispiel 6.46 haben wir die Eigenwerte berechnet und
erhalten. Da wir zwei verschiedene Eigenwerte erhalten und jeder geometrische Vielfachheit
wenigstens 1 haben muss, addieren sich die geometrischen Vielfachheiten zu 2 auf. Gemäß
Satz 6.55 ist Rθ (komplex) diagonalisierbar.
Bestimmen wir eine Basis aus Eigenvektoren: Für den Eigenwert μ1 = cos(θ) + i · sin(θ) ist
$ %
−i sin(θ) − sin(θ) 1
Eig(Rθ, μ1 ) = ker(Rθ − μ1 12 ) = ker =C·
sin(θ) −i sin(θ) −i
Wir haben eine Basis von C2 aus Eigenvektoren von Rθ gefunden, nämlich
9$ % $ %:
1 1
, .
−i i
294 6. Eigenwertprobleme
Wir können nun noch die Probe machen und direkt nachrechnen, dass
−1 1 1 i cos(θ) − sin(θ) 1 1 cos(θ) + i sin(θ) 0
T Rθ T = =
2 1 −i sin(θ) cos(θ) −i i 0 cos(θ) − i sin(θ)
gilt.
Hier können und sollten Sie das Diagonalisieren von Matrizen nun selbst
üben: http://ueben.cbaer.eu/04.html
Komplexe Matrizen haben zwar immer Eigenwerte, sind deshalb aber noch lange nicht immer
diagonalisierbar wie folgendes Beispiel zeigt:
und damit nur den Eigenwert μ = 1 (auch keine weiteren komplexen Eigenwerte). Da die
Matrix
0 1
A − 1 · 12 =
0 0
den Rang 1 hat, ist der Kern eindimensional. In anderen Worten, es gilt μgeo (1) = 1. Nach
Satz 6.55 ist A nicht diagonalisierbar, auch nicht wenn wir sie als komplexe Matrix auffassen.
Die folgende Matrix sieht auf den ersten Blick ganz ähnlich ist, verhält sich aber ganz anders:
6.3. Diagonalisierbarkeit 295
1 1
Beispiel 6.59. Für A = ∈ Mat(2, R) ermitteln wir zunächst die Eigenwerte als Null-
1 0
stellen des charakteristischen Polynoms:
χA(λ) = det (A − λ · 1n )
1 1 1 0
= det −λ·
1 0 0 1
1−λ 1
= det
1 0−λ
= (1 − λ) · (−λ) − 1
= λ2 − λ − 1.
womit wir insbesondere x1 − λ1 x2 = 0 erhalten, d.h. x1 = λ1 x2 . Also ist x von der Gestalt
λ1 x2 λ1
x= = x2 ·
x2 1
und ermitteln
1 1 −λ2 1 1 −λ2 1 1 −λ2
T= = √ √ =√ .
λ1 − λ2 −1 λ1 1+ 5
− 1− 5 −1 λ1 5 −1 λ1
2 2
Bemerkung 6.60 (Potenzieren diagonalisierbarer Matrizen). Welche Dienste kann uns die
Diagonalisierung einer Matrix A erweisen? Man kann damit z.B. effizient hohe Matrixpotenzen
Ak berechnen. Dazu schreiben wir
A = T −1 · Δ · T,
−1
=T · (Δ(λ1, . . ., λn ))k · T
= T −1 · Δ(λ1k, . . ., λnk ) · T .
1 1
Beispiel 6.61. Im Beispiel 6.59 fanden wir für A = = T −1 · Δ · T die Matrizen
1 0
1 1 −λ2 −1 λ1 λ 2 λ1 0
T=√ , T = , Δ= .
5 −1 λ1 1 1 0 λ2
Demnach gilt
Ak = T −1 · Δk · T
6.3. Diagonalisierbarkeit 297
k
λ1 λ 2 λ1 0 1 1 −λ2
= · ·√
1 1 0 λ2 5 −1 λ1
1 λ1 λ2 λ1k 0 1 −λ2
=√
5 1 1 0 λ2k −1 λ1
1 λ1 λ2 λ1k −λ1k λ2
=√
5 1 1 −λ2k λ1 λ2k
1 λ1k+1 − λ2k+1 −λ1k+1 λ2 + λ1 λ2k+1
=√ .
5 λ1k − λ2k λ1 λ2k − λ1k λ2
In diesem Zusammenhang gibt es ein berühmtes Kaninchen-Populationsmodell, das auf Leo-
nardo da Pisa, bekannter unter dem Namen Fibonacci, einem der berühmtesten Mathematiker
des Mittelalters, zurückgeht. In seinem Modell gelten folgende Regeln:
◦ Im ersten Monat gibt es genau ein Paar geschlechtsreifer Kaninchen.
◦ Jedes geschlechtsreife Paar wirft pro Monat ein weiteres Paar.
◦ Jedes neugeborene Paar wird zwei Monate später geschlechtsreif.
◦ Es gibt keine Todesfälle.
Die Mathematisierung dieser Regeln liefert die Fibonacci-Zahlen fk , d.h. die Anzahl der
geschlechtsreifen Paare im k-ten Monat, z.B. f1 = 1, f2 = 1, f3 = 2, f4 = 3, . . . , f24 = 46.368,
. . . , f60 = 1.548.008.755.920, . . . Das rekursive Bildungsgesetz lautet
fk+2 = fk+1 + fk ,
sowie
fk+2 fk + fk+1 1 1 fk+1 1 1
wk+1 = = = = wk = Awk .
fk+1 fk+1 1 0 fk 1 0
Damit folgt
fk+1
= wk
fk
= A · wk−1 = A · A · wk−2 = . . . = Ak · w0
= Ak · e1
1 λ1k+1 − λ2k+1 −λ1k+1 λ2 + λ1 λ2k+1
=√ · e1
5 λ1k − λ2k λ1 λ2k − λ1k λ2
1 λ1k+1 − λ2k+1
=√ .
5 λ1k − λ2k
λ1k − λ2k
fk = √ ,
5
also
$ √ k √ k
%
fk = √1 1+ 5
2 − 1− 5
2
5
Dies ist bekannt als die Formel von Moivre-Binet. Erstaunlich ist die Tatsache, dass fk für
jedes k ∈ N ganzzahlig ist, obwohl λ1 und λ2 irrational sind.
Zurück zur allgemeinen Theorie. Die Eigenwerte einer Matrix A ∈ Mat(n, K) sind genau die
Nullstellen des charakteristischen Polynoms χA. Die Dimension des zugehörigen Eigenraums
ist die geometrische Vielfachheit des Eigenwerts. Für komplexe Polynome haben wir auch den
Begriff der Vielfachheit der Nullstellen kennengelernt, siehe Definition 2.118.
Definition 6.62. Sei A ∈ Mat(n, C). Die Nullstellenvielfachheit von λ ∈ C als Nullstelle des
Polynoms χA heißt algebraische Vielfachheit oder auch algebraische Multiplizität von λ.
Abkürzend schreiben wir für sie μalg (λ).
Dieselbe Definition können wir auch für Endomorphismen ϕ ∈ End(V) machen, wenn V
ein endlich-dimensionaler C-Vektorraum ist. Falls der Körper K = R ist, so betrachten wir
A ∈ Mat(n, R) als komplexe Matrix und haben so auch die algebraischen Vielfachheiten
definiert, insbesondere auch für die reellen Eigenwerte von A.
6.3. Diagonalisierbarkeit 299
Beispiel 6.63. In Beispiel 6.58 haben wir gesehen, dass die Matrix
1 1
A=
0 1
das charakteristische Polynom χA(λ) = (1 − λ)2 hat und damit nur den Eigenwert λ = 1.
Offenbar ist die algebraische Vielfachheit der Nullstelle λ = 1 in (1 − λ)2 gleich 2, also ist
μalg (1) = 2.
Für die geometrische Vielfachheit hatten wir μgeo (1) = 1 berechnet. Algebraische und geome-
trische Vielfachheit brauchen also nicht übereinzustimmen.
(ii) Seien λ1, . . . , λ k die paarweise verschiedenen Eigenwerte von ϕ. Dann gilt
(iii) Es ist ϕ genau dann diagonalisierbar, wenn für alle Eigenwerte λ ∈ C von A gilt
Beweis. Zu (i):
Sei λ ∈ C ein Eigenwert. Zur Abkürzung setzen wir k := μgeo (λ). Wir wählen eine Basis
(b1, . . ., b k ) von Eig(ϕ, λ). Wir ergänzen zur einer Basis von V , B := (b1, . . . , b k , b k+1, . . . , bn ).
Da für die ersten k Basisvektoren gilt ϕ(b j ) = λ · b j , hat die darstellende Matrix von ϕ bzgl.
B die Form
λ · 1k C
MB (ϕ) = ,
0 D
wobei C ∈ Mat(k × (n − k), C) und D ∈ Mat((n − k) × (n − k), C) Matrizen sind, deren Einträge
uns nicht weiter interessieren. Wir berechnen für das charakteristische Polynom von ϕ mittels
Entwicklung nach den ersten k Spalten:
Aussage (ii) folgt aus dem Fundamentalsatz der Algebra, der sicherstellt, dass das charakteris-
tische Polynom in Linearfaktoren zerfällt. Dann summieren sich die algebraischen Vielfach-
heiten, d.h. die Nullstellenvielfachheiten, zum Grad des Polynoms auf, d.h. zur Dimension von
n von V.
Zu (iii):
Nach Satz 6.55 ist ϕ genau dann diagonalisierbar, wenn sich die geometrischen Vielfachheiten
zu n aufsummieren. Wegen (6.11) und (6.12) ist das äquivalent zu (6.13).
aus Beispiel 6.58 hatten wir für den Eigenwert 1 die algebraische Vielfachheit μalg (1) = 2 und
die geometrische Vielfachheit μgeo (1) = 1 erhalten. Wegen μgeo (1) < μalg (1) kann A also nicht
diagonalisierbar sein.
Wir erinnern uns an die Summe von Untervektorräumen, siehe Definition 3.89. Ist V ein
K-Vektorraum und sind W1, . . ., W k ⊂ V Untervektorräume, dann ist W1 + . . . + W k ⊂ V
der Untervektorraum von V, der aus allen Elementen von V besteht, die sich als Summe von
Elementen der W j schreiben lassen,
W1 + . . . + W k = {v ∈ V | ∃w j ∈ W j : v = w1 + . . . + wk }.
Lemma 6.66. Sei V ein K-Vektorraum und seien W1, . . . , W k ⊂ V Untervektorräume. Dann
sind äquivalent:
(2) Jedes Element aus W1 +. . .+W k lässt sich auf eindeutige Weise als Summe von Elementen
der W j schreiben,
W1 + . . . + W k = {v ∈ V | ∃!w j ∈ W j : v = w1 + . . . + wk }.
6.3. Diagonalisierbarkeit 301
Beweis. Zu „(1)⇒(2)“:
Ist v = w1 + . . . + wk = w1 + . . . + wk , dann ist
Zu „(2)⇒(1)“:
Sei w1 + . . . + wk = 0 mit w j ∈ W j . Da 0 + . . . + 0 = 0 ebenfalls eine Darstellung von 0 als
Summe von Elementen der W j ist, folgt aus der Eindeutigkeit w j = 0 für alle j.
Definition 6.67. Gelten die Bedingungen (1) und (2) aus Lemma 6.66, dann nennt man den
Untervektorraum W1 + . . . + W k ⊂ V die direkte Summe von W1, . . . , W k .
In diesem Fall schreibt man statt W1 + . . . + W k meist
W1 ⊕ . . . ⊕ W k .
Lemma 6.68. Sei V ein K-Vektorraum und seien W1, . . . , W k ⊂ V nichttriviale Untervektor-
räume, d.h. alle W j {0}. Dann sind äquivalent:
Beweis. Zu „(1)⇒(2)“:
Seien w j ∈ W j \ {0} und sei α1 w1 + . . . + αk wk = 0 mit α j ∈ K. Wegen Charakterisierung
(1) aus Lemma 6.66 ist dann α j w j = 0 für jedes j. Wegen w j 0 folgt α j = 0 und damit die
lineare Unabhängigkeit.
Zu „(2)⇒(1)“:
Wir zeigen Charakterisierung (1) aus Lemma 6.66. Seien w j ∈ W j mit w1 + . . . + wk = 0. Falls
w j 0, so setzen wir wj := w j und α j := 1. Falls w j = 0, so wählen wir ein wj ∈ W j \ {0}
(dies ist möglich, da W j {0}) und setzen α j := 0. In jedem Fall gilt w j = α j wj . Da alle
wj 0 sind, sind die Vektoren w1 , . . ., wk nach Annahme linear unabhängig. Aus
α1 w1 + . . . + αk wk = w1 + . . . + wk = 0
Beispiel 6.69. Sei ϕ ∈ End(V) ein Endomorphismus und seien λ1, . . ., λ k paarweise verschie-
dene Eigenwerte von ϕ. Nach Satz 6.34 sind Eigenvektoren zu verschiedenen Eigenwerten
linear unabhängig. Also ist die Summe
Eig(ϕ, λ1 ) + . . . + Eig(ϕ, λ k ) ⊂ V
nach Lemma 6.68 direkt. Wir können also für die Summe
Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k ) ⊂ V
schreiben.
Beweis. Zur Abkürzung setzen wir n j := dim(W j ). Sei (b1,1, . . ., b1,n1 ) eine geordnete Basis
von W1 , usw. (b k,1, . . ., b k,nk ) eine geordnete Basis von W k . Wir haben zu zeigen, dass B :=
(b1,1, . . ., b1,n1, . . ., b k,1, . . . , b k,nk ) eine geordnete Basis der Summe ist.
Zur Erzeugendeneigenschaft: Jedes Element der W j lässt sich aus den Basisvektoren
b j,1, . . . , b j,n j linearkombinieren und jedes Element der Summe lässt sich aus Elementen der
W j linearkombinieren. Daher lässt sich jedes Element der Summe aus den Vektoren von B
linearkombinieren. Dieser Teil hat nicht benötigt, dass die Summe direkt ist.
Zur linearen Unabhängigkeit: Sei
k
nj
α j,i · b j,i = 0.
j=1 i=1
Wir fassen nun noch zusammen, was wir über die Diagonalisierbarkeit von Endomorphismen
wissen.
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 303
Satz 6.71. Sei V ein n-dimensionaler K-Vektorraum und ϕ ∈ End(V). Seien λ1, . . ., λ k die
paarweise verschiedenen Eigenwerte von ϕ. Dann sind äquivalent:
(3) Es gibt eine Basis von V, bzgl. derer die darstellende Matrix von ϕ eine Diagonalmatrix
ist.
Beweis. Die Äquivalenz „(1)⇔(2)⇔(3)“ ist die Aussage von Satz 6.52.
Die Äquivalenz „(4)⇔(5)“ folgt aus Lemma 6.70, denn dim(Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k )) =
dim(Eig(ϕ, λ1 )) + . . . + dim(Eig(ϕ, λ k )) = μgeo (λ1 ) + . . . + μgeo (λ k ). Der Untervektorraum
Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k ) ist gleich dem ganzen Vektorraum V genau dann, wenn seine
Dimension gleich der von V ist.
Die Äquivalenz „(1)⇔(4)“ findet sich in Satz 6.55.
Dass die Diagonalisierbarkeit im komplexen Fall zu (6) äquivalent ist, steht in Satz 6.64.
Ist W ⊂ V ein invarianter Untervektorraum für ϕ, dann können wir ϕ zu einem Endomorphis-
mus auf W einschränken, ϕ|W ∈ End(W).
304 6. Eigenwertprobleme
Beispiel 6.73. Es gibt stets zwei nicht sonderlich interessante invariante Untervektorräume für
ϕ, nämlich W = {0} und W = V. Auch jeder Untervektorraum W eines Eigenraums Eig(ϕ, λ)
ist invariant, denn ϕ|W = λ · idW .
Beweis. a) Zur Vorbereitung zeigen wir zunächst mittels vollständiger Induktion nach k:
Behauptung: Ist w ∈ W und w = v1 + . . . + vk , wobei v1, . . ., vk ∈ V Eigenvektoren von ϕ zu
k paarweise verschiedenen Eigenwerten sind, dann sind alle v j ∈ W.
Beweis: Für k = 1 ist die Aussage trivial und damit ist der Induktionsanfang vollzogen.
Sei nun k ≥ 2. Da W invariant ist, ist auch ϕ(w) ∈ W. Wir berechnen
und somit
W ! ϕ(w) − λ k · w = (λ1 − λ k )v1 + . . . + (λ k−1 − λ k )vk−1 .
Nach Induktionsannahme sind alle Summanden (λ j −λ k )v j aus W. Da die Eigenwerte paarweise
verschieden sind, ist der Koeffizient λ j − λ k 0 für j = 1, . . . , k − 1. Also können wir durch
die Koeffizienten dividieren und sehen, dass auch v1, . . ., vk−1 ∈ W. Damit ist dann auch
vk = w − (v1 + . . . + vk−1 ) ∈ W.
b) Um die Diagonalisierbarkeit von ϕ|W zu zeigen, überprüfen wir Kriterium (5) aus Satz 6.71.
Es besagt, dass sich jedes Element von W als Summe von Eigenvektoren schreiben lässt.
Sei also w ∈ W. Da ϕ auf V diagonalisierbar ist, können wir w = v1 + . . . + vk schreiben,
wobei v1, . . ., vk ∈ V Eigenvektoren von ϕ zu k paarweise verschiedenen Eigenwerten sind.
Nach Beweisteil a) sind die v j ∈ W. Damit haben wir w als Summe von Eigenvektoren von
ϕ|W geschrieben und das Kriterium überprüft.
Haben wir zwei Endomorphismen eines Vektorraums, die beide diagonalisierbar sind, dann
können wir zwar Basen finden, bzgl. derer jeweils einer der beiden Endomorphismen durch
eine Diagonalmatrix dargestellt wird, aber die Matrixdarstellung des jeweils anderen Endo-
morphismus kann beliebig kompliziert sein. Wünschenswert wäre also eine Basis, bzgl. derer
beide Endomorphismen gleichzeitig durch eine Diagonalmatrix dargestellt werden. Falls es ei-
ne solche Basis gibt, dann nennt man die beiden Endomorphismen simultan diagonalisierbar.
Die Frage ist nun, wann das der Fall ist.
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 305
Bevor wir den Satz beweisen, zeigen wir, dass die Eigenräume von ϕ nicht nur für ϕ invariante
Untervektorräume sind, sondern auch für ψ, vorausgesetzt, dass ϕ und ψ kommutieren. Wir
beachten, dass im folgenden Lemma nicht vorausgesetzt wird, dass ϕ und ψ diagonalisierbar
sind.
Beweis des Lemmas. Sei W = Eig(ϕ, λ) für einen Eigenwert λ von ϕ. Sei w ∈ W. Wir müssen
zeigen, dass dann auch ψ(w) ∈ W ist. Es gilt:
Zur Abkürzung setzen wir W j := Eig(ϕ, λ j ), j = 1, . . . , k. Nach Lemma 6.76 ist jedes W j
ein invarianter Untervektorraum für ψ. Wegen Lemma 6.74 ist ψ|W j diagonalisierbar. Wir
können somit eine Basis von W j aus Eigenvektoren von ψ finden. Natürlich sind diese auch
Eigenvektoren von ϕ. Wegen (6.14) setzen sich die Basen gemäß Lemma 6.70 zu einer Basis
von V zusammen. Damit haben wir eine Basis von V gefunden, die zugleich aus Eigenvektoren
von ϕ und ψ besteht.
306 6. Eigenwertprobleme
1 0
..
A= . .
0 n
Die Argumentation in diesem Beispiel funktioniert für jede Diagonalmatrix A, deren Eigen-
werte alle paarweise verschieden sind, so dass die Eigenräume eindimensional sind. Das andere
Extrem wäre, dass alle Eigenwerte gleich sind, wie im folgenden Beispiel:
Beispiel 6.78. Sei A = 1n ∈ Mat(n, R). Dann kommutiert jede Matrix B ∈ Mat(n, R) mit A,
denn B · 1n = B = 1n · B.
Ist B diagonalisierbar, dann ist jede Basis aus Eigenvektoren von B auch eine Basis aus
Eigenvektoren von A, da jeder Vektor in Rn \ {0} Eigenvektor von A = 1n ist.
Definition 6.79. Sei V ein n-dimensionaler K-Vektorraum. Eine Fahne in V ist eine Kette
von Untervektorräumen
{0} = V0 ⊂ V1 ⊂ . . . ⊂ Vn = V
mit dim(Vj ) = j für alle j = 0, . . ., n.
Sei ϕ ∈ End(V). Eine Fahne von V heißt ϕ-invariant, wenn jeder Untervektorraum Vj der
Fahne invariant für ϕ ist, d.h. ϕ(Vj ) ⊂ Vj .
Bemerkung 6.80. Jede geordnete Basis von V liefert eine Fahne von V. Ist nämlich (b1, . . ., bn )
eine geordnete Basis von V, so setzen wir Vj := L(b1, . . ., b j ). Es gilt dim(Vj ) = j und Vj ⊂ Vj+1
für alle j. Also haben wir eine Fahne in V gefunden.
Besteht die Basis aus Eigenvektoren eines Endomorphismus ϕ, dann ist die so konstruierte
Fahne ϕ-invariant, denn jede Linearkombination der ersten j-Eigenvektoren wird von ϕ wieder
auf eine Linearkombination dieser ersten j-Eigenvektoren abgebildet.
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 307
Satz 6.82. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈ End(V). Dann sind
äquivalent:
Beweis. Zu „(2)⇒(1)“:
Sei V0 = {0} ⊂ V1 ⊂ · · · ⊂ Vn = V eine ϕ-invariante Fahne in V . Wir wählen einen
Basisvektor b1 von V1 , ergänzen zu einer geordneten Basis (b1, b2 ) von V2 , ergänzen wiederum
zu einer geordneten Basis (b1, b2, b3 ) von V3 , usw. bis wir schließlich eine geordnete Basis
B := (b1, . . ., bn ) von Vn = V erhalten haben. Jeder Untervektorraum Vj hat dann die ersten j
Basisvektoren b1, . . ., b j als Basis.
Da V1 ϕ-invariant ist, gilt ϕ(b1 ) ∈ V1 , also ϕ(b1 ) = α11 · b1 für eine Konstante α11 ∈ K. Somit
ist die erste Spalte der darstellenden Matrix MB (ϕ) gegeben durch
α11
0
. .
..
0
Da V2 ϕ-invariant ist, ist ϕ(b2 ) ∈ V2 und somit eine Linearkombination von b1 und b2 , d.h.
ϕ(b2 ) = α12 · b1 + α22 · b2 . Also ist die zweite Spalte der darstellenden Matrix MB (ϕ) gegeben
durch
α
12
α22
0
.
.
..
0
Allgemein ist Vj ϕ-invariant und daher ϕ(b j ) eine Linearkombination der ersten j Basisvekto-
ren. Daher steht in der j-ten Spalte unterhalb des j-ten Eintrags nur Nullen. Insgesamt zeigt
dies, dass die darstellende Matrix eine obere Dreiecksmatrix ist.
308 6. Eigenwertprobleme
Zu „(1)⇒(3)“:
Sei ϕ trigonalisierbar. Dann wird ϕ durch eine obere Dreiecksmatrix A dargestellt. Das cha-
rakteristische Polynom der oberen Dreiecksmatrix A zerfällt in Linearfaktoren, denn A − λ · 1n
ist ebenfalls eine obere Dreiecksmatrix, so dass ihre Determinante durch das Produkt der
Diagonaleinträge A j j − λ gegeben ist,
χϕ (λ) = χA (λ) = det(A − λ · 1n ) = (A11 − λ) · · · (Ann − λ).
Zu „(3)⇒(2)“:
Wir zeigen diese Implikation durch vollständige Induktion nach der Dimension n = dim(V ).
Induktionsanfang: Für n = 1 ist {0} ⊂ V eine ϕ-invariante Fahne.
Induktionsschritt: Sei nun n ≥ 2. Das charakteristische Polynom von ϕ zerfalle in Linear-
faktoren,
χϕ (λ) = (λ1 − λ) · · · (λn − λ). (6.15)
Wir wählen einen Eigenvektor b1 zum Eigenwert λ1 von ϕ. Wir ergänzen zu einer geordneten
Basis B = (b1, b2, . . . , bn ) von V und setzen W := L(b2, . . ., bn ). Dann gilt V = K · b1 ⊕ W.
Sei w ∈ W. Dann lässt sich ϕ(w), wie jedes Element von V, auf eindeutige Weise als Summe
eines Vielfachen von b1 und einem Element aus W schreiben,
ϕ(w) = α(w)b1 + ψ(w).
Aus der Linearität von ϕ folgt, dass auch α : W → K und ψ : W → W linear sind. Sei
A ∈ Mat(n − 1, K) die darstellende Matrix von ψ bzgl. der Basis (b2, . . ., bn ). Dann gilt
λ1 α(b2 ) · · · α(bn )
MB (ϕ) = .
0 A
Entwicklung nach der ersten Spalte liefert
λ1 − λ α(b2 ) · · · α(bn )
χϕ (λ) = det
0 A − λ · 1n−1
= (λ1 − λ) · det(A − λ · 1n−1 )
= (λ1 − λ) · χA(λ)
= (λ1 − λ) · χψ (λ). (6.16)
Vergleichen wir (6.16) mit (6.15), so sehen wir
χψ (λ) = (λ2 − λ) · · · (λn − λ),
d.h. das charakteristische Polynom von ψ zerfällt ebenfalls in Linearfaktoren. Nach Indukti-
onsannahme gibt es eine ψ-invariante Fahne in W,
{0} = W0 ⊂ W1 ⊂ · · · ⊂ Wn−1 = W .
Wir setzen Vj := K · b1 ⊕ W j−1 und erhalten eine ϕ-invariante Fahne in V.
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 309
Beweis. Nach dem Fundamentalsatz der Algebra zerfällt das charakteristische Polynom von A
in Linearfaktoren. Daher ist A nach Satz 6.82 trigonalisierbar.
v11
.
1. Schritt: Berechne einen Eigenvektor v1 := .. ∈ K n von A zum Eigenwert λ1 . Wähle
v1n
ein i mit v1i 0. Wir betrachten die Matrix (v1, e1, . . ., êi, . . ., en ), wobei der Hut ˆ bedeutet,
dass diese Spalte wegzulassen ist. Die Matrix hat die Determinante det(v1, e1, . . ., êi, . . ., en ) =
± det(e1, . . . , v1, . . ., en ) = ±v1i 0 und ist daher invertierbar. Berechne
Dann gilt
S1 AS1−1 e1 = S1 Av1 = S1 λ1 v1 = λ1 S1 v1 = λ1 e1
und somit
λ1 ∗ . . . ∗
0
S1 AS1−1 = .. .
. A2
0
v22
.
2. Schritt: Berechne einen Eigenvektor ṽ2 = .. ∈ K n−1 von A2 zum Eigenwert λ2 . Setze
v2n
0
v22
v2 := . ∈ K n . Wähle ein j mit v2 j 0 und berechne
..
v2n
Dann gilt
und somit
λ1 ∗ ∗ . . . ∗
0 λ2 ∗ . . . ∗
S2 S1 AS1−1 S2−1 = 0 0 .
.. ..
. . A
3
0 0
So fahren wir fort. Insgesamt (n − 1) Schritte liefern S1, . . . , Sn−1 ∈ GL(n, K), so dass für
S := Sn−1 · . . . · S2 · S1 ∈ GL(n, K) die Matrix S AS −1 eine obere Dreiecksmatrix ist.
3 4 3
A = −1 0 −1 .
1 2 3
3−λ 4 3
χA (λ) = det −1 −λ −1
1 2 3 − λ
= (3 − λ)2 (−λ) − 4 − 6 + 3λ + 2(3 − λ) + 4(3 − λ)
= (2 − λ)3 .
0 1 4 3 v
11
0 = −1 −2 −1 · v12
0
1 2 1 v13
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 311
v
0 1 4 3
11
⇔ =
· v12
0 −1 −2 −1
v13
v11
0 1 4 3
⇔ = · v12
0 0 2 2
v13
Wir wählen nun v13 = 1 und lösen das Gleichungssystem von unten nach oben und erhalten
als Lösung
1
v1 = −1 .
1
Da v11 0 ist, können wir S1 durch
−1
1 0 0 1 0 0
S1 = −1 1 0 = 1 1 0
1 0 1 −1 0 1
wählen. Nun rechnen wir schnell nach, dass
2 4 3
= 0 4 2 .
S1 AS1−1
0 −2 0
4 2
2. Schritt: Berechnung eines Eigenvektors ṽ2 von zum Eigenwert 2:
−2 0
0 2 2 v22
= ⇔ v22 = −v23 .
0 −2 −2 v23
0
1
Somit ist ṽ2 = ein Eigenvektor. Wir setzen daher v2 := 1 . Da v22 0 ist, können wir
−1
−1
−1
1 0 0 1 0 0
S2 := 0 1 0 = 0 1 0
0 −1 1 0 1 1
wählen. Die Transformationsmatrix ist gegeben durch
1 0 0 1 0 0 1 0 0
S = S2 · S1 = 0 1 0 1 1 0 = 1 1 0
0 1 1 −1 0 1 0 1 1
312 6. Eigenwertprobleme
1 0 0 1 0 0 1 0 0
S −1 = S1−1 · S2−1 = −1 1 0 0 1 0 = −1 1 0 .
1 0 1 0 −1 1 1 −1 1
Die auf Dreiecksgestalt transformierte Matrix sieht also so aus:
1 0 0 3 4 3 1 0 0 1 0 0 2 1 3 2 1 3
S AS −1 = 1 1 0 −1 0 −1 −1 1 0 = 1 1 0 −2 1 −1 = 0 2 2 .
0 1 1 1 2 3 1 −1 1 0 1 1 2 −1 3 0 0 2
In Anhang A.5 wird erläutert, wie die Trigonalisierung komplexer Matrizen dabei hilft, so
genannte Differentialgleichungssysteme aus der Analysis zu lösen.
+ : A × A → A,
• : A × A → A,
· : K × A → A,
Abbildungen. Das Quadrupel (A, +, •, ·) heißt K-Algebra oder Algebra über K, falls gilt:
(α · x) • (β · y) = (αβ) · (x • y).
Die dritte Bedingung drückt die Verträglichkeit der Multiplikation • zweier Elemente aus A
mit der Multiplikation · eines Elements aus K und eines aus A aus. Man überprüft leicht,
dass (A3) für A = K[x] und A = Kx erfüllt ist. Die Menge der Polynome bzw. formalen
Potenzreihen bilden also Algebren.
6.5. Algebren und das Minimalpolynom 313
Definition 6.86. Sei (A, +, •, ·) eine K-Algebra. Hat der Ring (A, +, •) eine Eins, so nennen
wir (A, +, •, ·) eine Algebra mit Einselement. Ist der Ring (A, +, •) kommutativ, so nennen
wir (A, +, •, ·) eine kommutative Algebra.
Bemerkung 6.87. Da (A, +, •) ein Ring ist, ist die Multiplikation • assoziativ. Darauf wird
manchmal verzichtet; unsere Definition ist die einer „assoziativen K-Algebra“.
Ähnlich wie bei Ringen, Körpern und Vektorräumen spricht man oft auch etwas ungenau von
der Algebra A statt (A, +, •, ·).
Beispiele 6.88. 1. Sei K ein Körper und A = K. Sowohl • als auch · seien die Multiplikation
in K. Dann ist (K, +, •, ·) eine kommutative K-Algebra mit Einselement 1.
2. Sei K ein Körper und x ein formales Symbol. Die Algebren A = K[x] und A = Kx
der Polynome bzw. formalen Potenzreihen sind kommutativ. Sie haben als Einselement das
Polynom 1.
3. Sei K ein Körper und n ∈ N. Sei A = Mat(n, K), sei + die komponentenweise Addition, •
die Matrixmultiplikation und · die komponentenweise Multiplikation mit Elementen aus K.
Dann ist (Mat(n, K), +, •, ·) eine K-Algebra mit Einselement 1n . Sie ist nicht kommutativ,
falls n ≥ 2.
5. Sei X eine Menge und (A0, +, •, ·) eine K-Algebra. Dann wird A = Abb(X, A0 ) ebenfalls
zu einer K-Algebra, wenn wir die Rechenoperationen +, • und · punktweise definieren.
Da aus dem Kontext im Einzelfall meist klar ist, welche der beiden Multiplikation gemeint ist,
unterscheidet man sie in der Notation in der Regel nicht und schreibt statt • auch wieder ·.
Definition 6.89. Sei A eine K-Algebra. Ein Untervektorraum B ⊂ A, der gleichzeitig ein
Unterring ist, heißt Unteralgebra von A.
Wir können es auch so ausdrücken: Eine Teilmenge B ⊂ A ist genau dann eine Unteralgebra,
wenn für alle x, y ∈ A und alle α ∈ K gilt:
314 6. Eigenwertprobleme
1. 0 ∈ B;
Beispiele 6.90. Die Polynomalgebra K[x] ist eine Unteralgebra der Algebra Kx der formalen
Potenzreihen.
Die Menge der Polynome vom Grad ≤ 3, V = { f ∈ K[x] | deg( f ) ≤ 3}, ist ein Untervektor-
raum von K[x], aber kein Unterring, also auch keine Unteralgebra.
Ein weiterer Grund für die penible Unterscheidung zwischen Polynomen und Polynomfunk-
tionen besteht darin, dass man in ein Polynom f = an x n + . . . + a1 x + a0 ∈ K[x] nicht nur
Zahlen aus K einsetzen kann, sondern auch Elemente A aus einer beliebigen K-Algebra A mit
Eins. Der Ausdruck
f˜(A) := an · An + . . . + a1 · A + a0 · 1 ∈ A
ergibt Sinn. Hierbei steht An für das n-fache Produkt von A mit sich selbst in der Algebra A.
Bemerkung 6.92. Sei A eine K-Algebra mit Eins, A ∈ A und x ein abstraktes Symbol. Dann
kann man leicht überprüfen, dass die Abbildung
K[x] → A, f → f˜(A),
Definition 6.93. Sei K ein Körper und A eine K-Algebra mit Einselement. Sei A ∈ A.
Dann heißt
Ann(A) := { f ∈ K[x] | f˜(A) = 0}
der Annihilator von A.
f˜(A) = am · 0n · . . . · 0n + . . . + a1 · 0n + a0 · 1n = a0 · 1n .
6.5. Algebren und das Minimalpolynom 315
Also ist f ∈ Ann(0n ) genau dann, wenn a0 = 0. Anders ausgedrückt, das Polynom f lässt
sich ohne Rest durch das Monom x teilen,
f˜(A) = am · 1n · . . . · 1n + . . . + a1 1n + a0 · 1n
= (am + . . . + a1 + a0 ) · 1n .
Also gilt
"
m #
Ann(1n ) = f = am x m + . . . + a0 ∈ K[x] | aj = 0 .
j=0
0 1
3. Sei n = 2 und A = . Dann gilt A2 = A · A = 02 und damit Am = 02 für alle m ≥ 2.
0 0
Also ist
a 0 a 1
f˜(A) = am A + . . . + a2 A + a1 A + a0 12 = a1 A + a0 1n =
m 2
.
0 a0
In den drei Beispielen sind die Annihilatoren gegeben als eine Menge von Polynomen, die
durch ein bestimmtes Polynom ohne Rest teilbar sind. Im Fall A = 0n war dies das Polynom
x, im Fall A = 1n das Polynom x − 1 und im dritten Beispiel das Polynom x 2 . Tatsächlich ist
dies ein allgemeiner Sachverhalt.
Definition 6.95. Ein Polynom f ∈ K[x] heißt normiert, falls der führende Koeffizient = 1
ist, d.h. falls f von der Form f = x n + an−1 x n−1 + . . . + a1 x + a0 ist.
Proposition 6.96. Sei A eine K-Algebra mit Eins und A ∈ A ein Element. Dann ist entweder
Ann(A) = {0} oder es gibt genau ein normiertes Polynom h ∈ K[x], so dass
Beweis. a) Eindeutigkeit: Seien h1 und h2 zwei solche Polynome. Dann gibt es insbesondere
ein g ∈ K[x] mit
h1 = g · h 2
316 6. Eigenwertprobleme
und somit deg(h1 ) ≥ deg(h2 ). Analog sieht man deg(h2 ) ≥ deg(h1 ) und somit deg(h1 ) =
deg(h2 ). Daraus folgt deg(g) = 0, d.h. g ist eine Konstante. Da h1 und h2 normiert sind, muss
diese Konstante = 1 sein. Also ist h1 = h2 .
b) Existenz: Wir können annehmen, dass Ann(A) {0}. Sei h ein Polynom minimalen Grades
in Ann(A) \ {0}. Mit h ist auch jedes Vielfache von h in Ann(A). Also können wir o.B.d.A.
annehmen, dass h normiert ist. Bleibt zu zeigen:
Ann(A) = {g · h | g ∈ K[x]}.
Die Inklusion „⊃“ ist einfach: Für jedes Polynom der Form f = g · h gilt
f = g · h + r.
Also ist r ∈ Ann(A). Da r kleineren Grad als h hat und h minimalen Grad in Ann(A) \ {0} hat,
muss r = 0 sein. Also ist f = g · h wie gewünscht.
Beweis. Der Annihilator Ann(A) ist der Kern des Homomorphismus K[x] → A, f → f˜(A).
Da dim(K[x]) = ∞ und dim(A) < ∞, kann kein Homomorphismus K[x] → A injektiv sein.
Also ist Ann(A) {0}.
Definition 6.98. Sei A eine endlich-dimensionale K-Algebra mit Eins und A ∈ A. Dann
heißt das eindeutige normierte Polynom h ∈ K[x] mit Ann(A) = h · K[x] wie in Propositi-
on 6.96 das Minimalpolynom von A.
Wir schreiben dann statt h für das Minimalpolynom M A ∈ K[x].
6.5. Algebren und das Minimalpolynom 317
Beispiel 6.99. Aus Beispiel 6.94 und Aufgabe 6.5 wissen wir, dass für A = Mat(n, K) gilt:
M0n = x,
M1n = x − 1,
M = x2 .
0 1
0 0
Vergleichen wir die Minimalpolynome dieser Matrizen mit ihren charakteristischen Polynomen
χ0n = (−x)n,
χ1n = (1 − x)n,
χ = x 2,
0 1
0 0
so stellen wir fest, dass das Minimalpolynom in allen Fällen das charakteristische Polynom
teilt. In anderen Worten, in diesen Fällen ist χA ∈ Ann(A). Tatsächlich gilt das für alle
(quadratischen) Matrizen, wie der folgende Satz uns sagt.
χ̃A(A) = A2 − 2A + 12
1 5 1 5 1 5 1 0
= · −2· +
0 1 0 1 0 1 0 1
1 10 2 10 1 0
= − +
0 1 0 2 0 1
0 0
= .
0 0
318 6. Eigenwertprobleme
Bemerkung 6.102. Für Diagonalmatrizen kann man den Satz von Cayley-Hamilton sehr leicht
λ1 0
..
einsehen. Sei nämlich A = . eine Diagonalmatrix. Für beliebige Polynome f ∈
0 λ n
K[x] gilt
f (λ1 )
˜ 0
. ..
f˜(A) = .
0 f˜(λn )
Das liegt daran, dass man Matrixpotenzen von Diagonalmatrizen dadurch bekommt, dass man
die Diagonaleinträge potenziert. Insbesondere für f = χA gilt nun
χ̃A(λ1 ) 0
..
χ̃A(A) = . = 0n .
0 χ̃A(λn )
Auch für Matrizen, die zwar nicht Diagonalmatrizen, wohl aber diagonalisierbar sind, lässt
sich der Satz von Cayley-Hamilton leicht beweisen, vergleiche Aufgabe 6.24.
Sei m der größte Index, für den v1, . . . , vm noch linear unabhängig sind, d.h. v1, . . ., vm+1 sind
linear abhängig. Dann ist 1 ≤ m ≤ dim(V). Wir können dann vm+1 als Linearkombination der
vorhergehenden vi schreiben,
vm+1 = α1 v1 + . . . + αm vm, αi ∈ K.
Sei W ⊂ V der Untervektorraum, der von v1, . . ., vm aufgespannt wird. Dann ist B :=
(v1, . . . , vm ) eine geordnete Basis von W.
b) Behauptung: W ist ein ϕ-invarianter Untervektorraum und ϕ|W hat in der Basis B die
darstellende Matrix
0 α1
. ..
1 .. 0 .
.. .. ..
. . .
.. .. .. .
. . .
.. .
0 . 0 ..
1 αm
6.5. Algebren und das Minimalpolynom 319
Beweis der Behauptung: Da die Basisvektoren v1, . . ., vm von ϕ wieder auf Linearkombina-
tionen dieser Vektoren abgebildet werden, ist W ein ϕ-invarianter Untervektorraum. Wegen
ϕ(v1 ) = v2 muss die erste Spalte der darstellenden Matrix der Vektor e2 sein. Analog gilt
ϕ(vi ) = vi+1 für i ≤ m − 1 und damit ist die i-te Spalte der (i + 1)-te Standardvektor ei+1 . Die
letzte Spalte hat die angegebene Form, da
ϕ(vm ) = vm+1 = α1 v1 + . . . + αm vm .
−x α1
1 −x α2
0
. . ..
.. .. .
χϕ|W (x) = det .. .. ..
. . .
. . . −x αm−1
0
1 αm − x
entwickeln wir nach der ersten Zeile. Dabei treten nur zwei nichttriviale Terme auf. Der erste
ist nach Induktionsannahme
−x α2
..
..
1 . 0 .
. . ..
(−x) · det .. .. . = (−x) · (−1)m · (−x m−1 + αm x m−2 + . . . + α2 )
..
0 . −x αm−1
1 αm − x
= (−1)m+1 · (−x m + αm x m−1 + . . . + α2 x). (6.17)
1 −x
.. ..
. . 0
.. ..
(−1) m+1
· α1 · det . . = (−1)m+1 · α1 .
(6.18)
..
0 . −x
1
320 6. Eigenwertprobleme
wie behauptet.
d) Nach Lemma 6.103 unten existiert ein g ∈ K[x] mit
Daher ist
χ̃ϕ (ϕ) = g̃(ϕ) · χ̃ϕ| W (ϕ)
und somit
Lemma 6.103. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈ End(V). Ist W ein
ϕ-invarianter Untervektorraum von V, dann wird χϕ ∈ K[x] von χϕ|W ohne Rest geteilt.
Beweis. Sei (v1, . . ., vm ) eine geordnete Basis von W. Sei C die darstellende Matrix von ϕ|W
bzgl. dieser Basis. Wir ergänzen zu einer geordneten Basis B = (v1, . . ., vm, . . ., vn ) von V,
wobei n = dim(V). In dieser Basis hat ϕ die darstellende Matrix
C D
A= .
0 E
Dann ist
C − x1m D
χϕ (x) = det
0 E − x1n−m
= det(C − x1m ) · det(E − x1n−m )
= χϕ|W (x) · χE (x).
6.5. Algebren und das Minimalpolynom 321
Satz 6.104. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈ End(V ). Dann haben
χϕ und Mϕ dieselben Nullstellen.
Die Vielfachheiten der Nullstellen können beim Minimalpolynom kleiner sein, wie wir in
Beispiel 6.99 gesehen haben.
Beweis. a) Der Satz von Cayley-Hamilton liefert χϕ = g · Mϕ für ein Polynom g ∈ K[x]. Also
ist jede Nullstelle von Mϕ auch eine Nullstelle von χϕ .
b) Sei umgekehrt λ eine Nullstelle von χϕ . Wir haben M̃ϕ (λ) = 0 zu zeigen. Wir schreiben
Satz 6.105. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈ End(V ). Dann sind
äquivalent:
Beweis. Zu „(1)⇒(2)“:
Sei ϕ diagonalisierbar und seien λ1, . . ., λ k die paarweise verschiedenen Eigenwerte von ϕ.
Setze f := (x − λ1 ) · . . . · (x − λ k ) ∈ K[x]. Wir zeigen Mϕ = f , woraus insbesondere (2) folgt.
Die λ1, . . . , λ k sind die Nullstellen von χϕ , also nach Satz 6.104 auch die von Mϕ . Daher teilt
f das Polynom Mϕ ohne Rest. Sei v ∈ V. Da ϕ diagonalisierbar ist, haben wir die Zerlegung
V = Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k ). Wir können daher v = v1 + . . . + vk mit v j ∈ Eig(ϕ, λ j ) =
ker(ϕ − λ j id) schreiben. Dann gilt
Wegen
ist nun
f˜(ϕ)(vi ) = g̃i (ϕ) ◦ (ϕ − λi · id)(vi ) = g̃i (ϕ)(0) = 0.
Also ist f˜(ϕ)(v) = 0 für jedes v ∈ V und damit f˜(ϕ) = 0. In anderen Worten, f ∈ Ann(ϕ) und
daher wird f vom Minimalpolynom Mϕ ohne Rest geteilt.
Wir wissen nun, dass das Minimalpolynom Mϕ das Polynom f ohne Rest teilt und umgekehrt
genauso. Also gibt es ein α ∈ K \ {0} mit Mϕ = α f . Da Mϕ und f normiert sind, ist α = 1
und somit Mϕ = f .
Zu „(2)⇒(1)“:
Diese Implikation müssen wir für den Moment vertagen. Wir werden sie im nächsten Abschnitt
beweisen, siehe Korollar 6.116 auf Seite 328.
Wir können also folgendermaßen überprüfen, ob eine Matrix A ∈ Mat(n, K) (oder ein Endo-
morphismus auf einem n-dimensionalen Vektorraum) diagonalisierbar ist:
Berechne χA
Zerfällt χA in nein
A nicht diagonalisierbar
Linearfaktoren?
ja
Setze f (x) := (x − λ1 ) · · · (x − λk )
nein
Ist f˜(A) = 0n ? A nicht diagonalisierbar
ja
A ist diagonalisierbar
2 1
Beispiel 6.106. Sei A = . Dann zerfällt das charakteristische Polynom χA(x) =
0 2
2−x 1
det = (2 − x)2 in Linearfaktoren. Es gibt nur den Eigenwert λ1 = 2. Wir
0 2−x
6.6. Die Jordan’sche Normalform 323
Lemma 6.107. Sei K ein Körper, seien λ1, . . ., λ k ∈ K paarweise verschieden, α ∈ K \ {0}
und γ1, . . ., γ k ∈ N. Sei
Dann ist jedes Polynom g ∈ K[x], das das Polynom f teilt, von der Form
g(x) = β · (x − λ1 ) μ1 · · · (x − λ k ) μk
Beweis. Sei g ein Polynom, das f teilt. Dann existiert ein h ∈ K[x], so dass f = g · h. Da λ1
eine Nullstelle von f ist, ist es auch eine von g oder von h. Also gibt es nach Lemma 6.19 ein
g1 ∈ K[x] mit g(x) = (x − λ1 ) · g1 (x) oder ein h1 ∈ K[x] mit h(x) = (x − λ1 ) · h1 (x). Wir
dividieren beide Seiten der Gleichung f = g · h durch das Polynom x − λ1 und erhalten wegen
der Eindeutigkeit in der Polynomdivision (siehe Satz 6.15):
bzw.
α · (x − λ1 )γ1 −1 · (x − λ2 )γ2 · · · (x − λ k )γk = g(x) · h1 (x).
Wir wiederholen diese Prozedur insgesamt γ1 + γ2 + . . . + γ k = deg( f ) Male und erhalten
α = α · (x − λ1 )0 · · · (x − λ k )0 = ĝ(x) · ĥ(x),
324 6. Eigenwertprobleme
wobei g(x) = ĝ(x) · (x − λ1 ) μ1 · · · (x − λ k ) μk und h(x) = ĥ(x) · (x − λ1 )γ1 −μ1 · · · (x − λ k )γk −μk .
Insbesondere gilt deg(ĝ) = deg( ĥ) = 0 und daher β := ĝ ∈ K \ {0}. Also ist g(x) =
β · (x − λ1 ) μ1 · · · (x − λ k ) μk , was zu beweisen war.
Bemerkung 6.108. Aus Lemma 6.107 folgt, dass jedes Polynom, das ein Polynom teilt, wel-
ches in Linearfaktoren zerfällt, selbst auch in Linearfaktoren zerfällt. Insbesondere, wenn das
charakteristische Polynom eines Endomorphismus in Linearfaktoren zerfällt, so muss dies
auch für das Minimalpolynom gelten.
Bemerkung 6.109. Nehmen wir einmal an, dass das charakteristische Polynom χϕ eines
Endomorphismus ϕ in Linearfaktoren zerfällt, also von der Form
ist, wobei λ1, . . ., λ k die paarweise verschiedenen Eigenwerte sind. Dann muss das Minimal-
polynom von der Form
Mϕ (x) = (x − λ1 ) μ1 · · · (x − λ k ) μk
sein, wobei μ j ≤ μalg (λ j ). Da jede Nullstelle von χϕ auch eine von Mϕ ist, muss 1 ≤ μ j ≤
μalg (λ j ) für alle j = 1, . . ., k gelten. Der Koeffizient β aus Lemma 6.107 muss = 1 sein, da das
Minimalpolynom normiert ist.
Satz 6.105 besagt, dass ϕ genau dann diagonalisierbar ist, wenn μ1 = . . . = μk = 1 ist. Das ist
genau dann der Fall, wenn (x−λ1) · · · (x−λ k ) ∈ Ann(ϕ), d.h. wenn (ϕ−λ1 ·id) · · · (ϕ−λ k ·id) = 0.
Die zweite Vorbereitung über Polynome ist ein Spezialfall des so genannten erweiterten eukli-
dischen Algorithmus.
Lemma 6.110. Sei K ein Körper, seien λ1, . . ., λ k ∈ K paarweise verschieden, k ≥ 2 und
γ1, . . ., γ k ∈ N.
Dann gibt es Polynome h1, h2 ∈ K[x], so dass
f1 := (x − λ1 )γ1,
f2 := (x − λ2 )γ2 · · · (x − λ k )γk .
Wir nehmen nun an, dass deg( f2 ) ≤ deg( f1 ). Ansonsten vertauschen wir die Rollen von f1 und
f2 im folgenden Beweis.
Sukzessive Polynomdivision mit Rest (Satz 6.15) liefert:
6.6. Die Jordan’sche Normalform 325
Irgendwann muss deg( fn+2 ) < 0 sein, d.h. fn+2 = 0 und damit fn = qn · fn+1 . Daraus ergibt
sich:
fn+1 teilt fn
⇒ fn+1 teilt fn und fn−1
⇒ fn+1 teilt fn, fn−1 und fn−2
..
.
⇒ fn+1 teilt alle f j .
Insbesondere teilt fn+1 die Polynome f1 und f2 . Nach Lemma 6.107 muss fn+1 einer-
seits von der Form fn+1 = β · (x − λ1 ) μ1 sein und andererseits auch von der Form
fn+1 = β · (x − λ2 ) μ2 · · · (x − λ k ) μk . Das ist nur möglich, wenn fn+1 eine Konstante α ∈ K ist.
Da erst fn+2 das Nullpolynom ist, fn+1 aber noch nicht, gilt α 0.
Induktiv sehen wir, dass jedes f j von der Form f j = h1, j · f1 + h2, j · f2 ist. Insbesondere gilt:
Also ist
1 1
1= h1,n+1 · f1 + h2,n+1 · f2 .
α α
Mit h1 := α1 h1,n+1 und h2 := α1 h2,n+1 folgt die Behauptung.
Beweis. a) Ohne Beschränkung der Allgemeinheit können wir annehmen, dass α = 1 ist, denn
der Faktor α hat keinen Einfluss auf ker( f˜(ϕ)). Wir zeigen die Aussage nun durch vollständige
Induktion nach k.
b) Für k = 1 ist die Aussage offensichtlich. Damit ist der Induktionsanfang vollzogen.
326 6. Eigenwertprobleme
c) Für den Induktionsschritt sei k ≥ 2. Wir setzen f1 (x) := (x − λ1 )γ1 und f2 (x) :=
(x − λ2 )γ2 · · · (x − λ k )γk . Wir zeigen:
f1 (ϕ)) ⊕ ker( 3
ker( f˜(ϕ)) = ker( 3 f2 (ϕ)).
f1 (ϕ)) + ker( 3
ker( 3 f2 (ϕ)) ⊂ ker( f˜(ϕ)).
Beweis der Behauptung: Nach Lemma 6.110 gibt es Polynome h1, h2 ∈ K[x], so dass f1 · h1 +
f2 · h2 = 1. Hieraus folgt id = 3
f1 (ϕ) ◦ h31 (ϕ) + 3
f2 (ϕ) ◦ h32 (ϕ).
Sei nun v ∈ ker( f˜(ϕ)). Wir zerlegen v durch
Nun folgt
f2 (ϕ)(v2 ) = 3
3 f2 (ϕ) ◦ 3
f1 (ϕ) ◦ h31 (ϕ)(v) = f˜(ϕ) ◦ h31 (ϕ)(v) = h31 (ϕ) ◦ f˜(ϕ)(v) = 0.
f1 (ϕ)) ∩ ker( 3
ker( 3 f2 (ϕ)) = {0}.
f1 (ϕ)) ∩ ker( 3
Sei dazu v ∈ ker( 3 f2 (ϕ)). Dann ist
Wir erinnern uns daran, dass für diagonalisierbare Endomorphismen ϕ ∈ End(V ) das Mini-
malpolynom die Form Mϕ (x) = (x − λ1 ) · · · (x − λ k ) hat (Satz 6.105) und der Vektorraum V
wie folgt zerlegt werden kann (Satz 6.71 (5)):
Dabei sind wieder λ1, . . ., λ k die paarweise verschiedenen Eigenwerte von ϕ. Der folgende Satz
ist die Verallgemeinerung hiervon für Endomorphismen, die nicht notwendig diagonalisierbar
sind.
Beweis. Wir wenden Proposition 6.111 mit f = Mϕ an. Wegen M̃ϕ (ϕ) = 0 gilt
Definition 6.113. Sei V ein endlich-dimensionaler K-Vektorraum. Sei ϕ ∈ End(V ) ein En-
domorphismus, dessen Minimalpolynom in Linearfaktoren zerfällt. Sei λ ein Eigenwert von
ϕ und γ die algebraische Vielfachheit der Nullstelle λ im Minimalpolynom. Dann heißt der
Untervektorraum ker((ϕ − λ · idV )γ ) verallgemeinerter Eigenraum oder auch Hauptraum
von ϕ zum Eigenwert λ.
2 1 0
A = 0 2 0 ∈ Mat(3, R).
0 0 3
Für das Minimalpolynom gibt es nun gemäß Bemerkung 6.109 nur zwei Möglichkeiten; es
kann gleich (x − 2)2 · (x − 3) oder gleich (x − 2) · (x − 3) sein. Das können wir dadurch
328 6. Eigenwertprobleme
0 1 0 −1 1 0 0 −1 0
f˜(A) = (A − 2 · 13 ) · (A − 3 · 13 ) = 0 0 0 · 0 −1 0 = 0 0 0 03 .
0 0 1 0 0 0 0 0 0
Also ist f Ann(A) und das Minimalpolynom muss M A = (x − 2)2 · (x − 3) sein. Nun stellen
wir fest:
0 1 0
ker(A − 2 · 13 ) = ker 0 0 0 = R · e1,
0 0 1
0 0 0
ker (A − 2 · 13 )2 = ker 0 0 0 = R · e1 ⊕ R · e2,
0 0 1
−1 1 0
ker(A − 3 · 13 ) = ker 0 −1 0 = R · e3 .
0 0 0
In der Tat gilt
R3 = ker (A − 2 · 13 )2 ⊕ ker(A − 3 · 13 ) = R · e1 ⊕ R · e2 ⊕ R · e3,
nicht aber
R3 = ker(A − 2 · 13 ) ⊕ ker(A − 3 · 13 ) = R · e1 ⊕ R · e3 .
In diesem Beispiel stimmen Eigenraum und Hauptraum für den Eigenwert 3 überein, nicht
aber für den Eigenwert 2. Im letzteren Fall ist der Hauptraum echt größer als der Eigenraum.
Bemerkung
6.115. Verallgemeinerte
γ
von ϕ sind
Eigenräume
γ
stets ϕ-invariant. Ist nämlich
v ∈ ker (ϕ − λ · id) , dann ist auch ϕ(v) ∈ ker (ϕ − λ · id) , da
Nun können wir auch den Beweis von Satz 6.105 zu Ende bringen; die Beweisrichtung
„(2)⇒(1)“ stand ja noch aus.
Beweis. In diesem Fall können wir Satz 6.112 mit γ1 = . . . = γ k = 1 anwenden und erhalten
V = ker(ϕ − λ1 · idV ) ⊕ . . . ⊕ ker(ϕ − λ k · idV ). Die Behauptung folgt nun aus Satz 6.71.
6.6. Die Jordan’sche Normalform 329
λ 1 0
. . . . . .
..
. 1
0 λ
nennt man einen Jordanblock, wobei λ ∈ K.
Satz 6.118 (Jordan’sche Normalform). Sei K ein Körper, sei V ein endlich-dimensionaler
K-Vektorraum und sei ϕ ∈ End(V ) ein Endomorphismus, dessen Minimalpolynom in Linear-
faktoren zerfällt. Dann existiert eine geordnete Basis B von V, bzgl. derer die darstellende
Matrix von ϕ die Blockdiagonalform
J1
J2
MB (ϕ) = ..
.
J
hat. Dabei sind die Ji Jordanblöcke.
Diese Jordan’sche Normalform ist die einfachste Form, in die wir die darstellende Matrix
eines nicht diagonalisierbaren Endomorphismus bringen können. Der diagonalisierbare Fall
ist genau der Spezialfall der Jordan’schen Normalform, bei dem alle Jordanblöcke nur 1 × 1-
Matrizen sind, denn genau dann treten keine Einsen auf der Nebendiagonale auf. Ein Beweis
von Satz 6.118 findet sich in Anhang B.4.
Korollar 6.120. Jede quadratische komplexe Matrix besitzt eine Jordan’sche Normalform,
d.h. ist ähnlich zu einer Matrix wie in Satz 6.118.
Wie hängt die Jordan’sche Normalform eines Endomorphismus ϕ ∈ End(V) mit den verschie-
denen Größen zusammen, die wir Endomorphismen zugeordnet haben, also charakteristisches
Polynom, Minimalpolynom, algebraische und geometrische Vielfachheiten der Eigenwerte?
Nehmen wir an, das charakteristische Polynom zerfällt in Linearfaktoren mit den paarweise
verschiedenen Eigenwerten λ1, . . ., λ k . Wir betrachten die Darstellung von ϕ in Jordan’scher
Normalform:
λ1 1
.. ..
. .
..
. 1
λ1
r1 − mal
λ1 1
.. ..
. .
..
. 1
λ1
..
r2 − mal .
λ1
1
.. ..
. .
..
. 1
λ1
r − mal
λ2 1
..
.
Wir konzentrieren uns dabei auf die Jordanblöcke, die λ1 auf der Diagonale stehen haben,
hier die ersten Blöcke. Bilden wir das charakteristische Polynom, so erhalten wir χϕ (x) =
(λ1 − x)r1 · (λ1 − x)r2 · · · (λ1 − x)r × Linearfaktoren zu den anderen Eigenwerten. Also ist die
algebraische Vielfachheit von λ1 gegeben durch
μalg (λ1 ) = r1 + r2 + . . . + r .
6.6. Die Jordan’sche Normalform 331
In der darstellenden Matrix von ϕ − λ1 · id haben die ersten Diagonalblöcke die Form
0 1
. ..
. . .
.
.. (6.19)
.
1
0
Diese Matrizen haben einen eindimensionalen Kern, der dem ersten Spaltenvektor entspricht.
Jeder der ersten Blöcke liefert einen Basisvektor für den Kern von ϕ − λ1 · id, also ist er
insgesamt -dimensional. In anderen Worten, die geometrische Vielfachheit von λ1 ist gegeben
durch
μgeo (λ1 ) = .
In Satz 6.64 (iii) haben wir gelernt, dass ϕ genau dann diagonalisierbar ist, wenn die geo-
metrischen und die algebraischen Vielfachheiten der Eigenwerte übereinstimmen. In der Tat,
r1 + r2 + . . . + r = ist gleichbedeutend mit r1 = r2 = . . . = r = 1, d.h. damit dass die
Jordanblöcke 1 × 1-Blöcke sind. Wenn das für alle Eigenwerte gilt, heißt es genau, dass die
Jordan’sche Normalform eine Diagonalmatrix ist.
Mit den algebraischen Vielfachheiten der Eigenwerte kennen wir auch das charakteristische
Polynom. Wie können wir nun das Minimalpolynom aus der Jordan’schen Normalform able-
sen? Wir suchen die niedrigsten Exponenten γ1, . . ., γ k , für die (x − λ1 )γ1 · · · (x − λ k )γk im
Annihilator von ϕ ist.
Für jedes Polynom f ∈ K[x] und jede Matrix in Blockdiagonalform,
A1
..
A= .
Am
gilt
f (A1 )
˜
..
f˜(A) = . .
f˜(Am )
Wir müssen also nur überprüfen, für welche γ j das Polynom f (x) = (x − λ1 )γ1 · · · (x − λ k )γk
die Jordanblöcke zu Null macht. Setzen wir einen Jordanblock zu λ1 in einen Linearfaktor
(x − λ j ) zu einem anderen Eigenwert λ j ein, so erhalten wir
λ1 − λ j 1
0
.. ..
. .
.
..
. 1
0 λ1 − λ j
332 6. Eigenwertprobleme
Dies ist eine invertierbare Matrix, da sie obere Dreiecksgestalt hat und die Diagonalterme
ungleich Null sind. Die Multiplikation mit invertierbaren Matrizen hat keine Auswirkung
darauf, ob eine Matrix die Nullmatrix ist. Also müssen wir lediglich das kleinste γ1 suchen,
für das alle Jordanblöcke zu λ1 eingesetzt in (x − λ1 )γ1 die Nullmatrix ergibt.
Setzen wir einen Jordanblock zu λ1 in x − λ1 ein, so erhalten wir eine Matrix wie in (6.19).
Man kann nun leicht sehen, dass bei jedem Multiplizieren mit dieser Matrix die Einserneben-
diagonale um eins nach rechts oben rutscht,
0 ··· 0 1
k ... .. ..
. .
0 1
. . . . . . ..
.
..
. 1
=
.. .. .
. 1 . 0
. . ..
0 . .
0
Das kleinste k, für das wir die Nullmatrix erhalten, ist somit gerade durch die Größe der Matrix
gegeben. Es folgt für den Exponenten im Minimalpolynom Mϕ = (x − λ1 )γ1 . . . (x − λ k )γk :
γ1 = max{r1, . . ., r }.
Analog erhält man die Exponenten γ j im Minimalpolynom für die Linearfaktoren zu den
anderen Eigenwerten λ j .
Bemerkung 6.121. Die Jordan’sche Normalform ist im Allgemeinen nicht eindeutig. Hat man
eine Basis bezüglich derer die darstellende Matrix Jordan’sche Normalform hat, dann kann man
durch geeignetes Vertauschen der Basisvektoren auch die Jordanblöcke in der darstellenden
Matrix vertauschen.
Man kann allerdings beweisen, dass die Jordan’sche Normalform bis auf Vertauschung der
Jordanblöcke eindeutig ist. Mit anderen Worten, zwei Matrizen in Jordanform sind genau dann
ähnlich, wenn sie bis auf die Reihenfolge aus denselben Jordanblöcken zusammengesetzt sind.
Teilweise können wir das mit den bisherigen Überlegungen einsehen. Sind nämlich zwei
Matrizen ähnlich, dann haben sie dasselbe charakteristische Polynom und damit dieselben
Eigenwerte. Das sind die λ j auf der Diagonale in der Jordan’schen Normalform. Fixieren wir
einen Eigenwert λ und bezeichnen wie eben die Größen der Jordanblöcke zum Eigenwert λ
mit r1, . . ., r , dann müssen für ähnliche Jordanmatrizen , r1 + . . . + r und max{r1, . . . , r }
übereinstimmen. Ähnliche Jordanmatrizen haben also zu jeden Eigenwert dieselbe Anzahl von
Jordanblöcken, dieselbe Gesamtgröße und dieselbe Maximalgröße der Jordanblöcke.
Für einen Beweis der vollen Eindeutigkeitsaussage siehe z.B. [2, Abschnitt 6.5], [12, Satz 16.12]
oder [15, Abschnitt 6.7].
6.7. Aufgaben
6.1. Sei K ein Körper und x ein abstraktes Symbol. Zeigen Sie, dass (Kx, +, ·) ein kommu-
tativer Ring mit Eins 1 = 1 · x 0 + 0 · x 1 + 0 · x 2 + 0 · x 3 + . . . ist.
6.7. Aufgaben 333
6.3. Sei A eine K-Algebra mit Eins, A ∈ A und x ein abstraktes Symbol. Zeigen Sie, dass
der Auswertehomomorphimus K[x] → A, f → f˜(A), ein einserhaltender Algebrenhomo-
morphismus ist.
6.4. Sei A eine K-Algebra mit Eins und A ∈ A. Zeigen Sie, dass Ann(A) folgende beiden
Eigenschaften hat:
a) Ann(A) ist ein Untervektorraum von K[x];
b) Für alle p ∈ K[x] und a ∈ Ann(A) gilt p · a ∈ Ann(A).
Eine Teilmenge von K[x] mit diesen beiden Eigenschaften nennt man ein Ideal.
6.6. Sei A = K[x] die Algebra der Polynome und sei f ∈ A mit deg( f ) ≥ 1. Zeigen Sie:
a) { f k | k ∈ N0 } = {1, f , f 2, f 3, . . .} ist linear unabhängig;
b) Ann( f ) = {0}.
6.7. Wir fixieren reelle Zahlen x1 < x2 < · · · < xn . Zeigen Sie, dass es zu y1, . . . , yn ∈ R
genau eine reelle Polynomfunktion f vom Grad höchstens n − 1 gibt mit f (x j ) = y j .
Hinweis: Hier ist die Vandermonde-Determinante aus Aufgabe 4.15 nützlich.
6.8. Bestimmen Sie das charakteristische Polynom, die Eigenwerte und deren geometrische
Vielfachheit sowie die Eigenräume der Matrix
1 1
A := ∈ Mat(2, K),
1 1
6.9. Bestimmen Sie eine Matrix A ∈ Mat(3, R), so dass A den Eigenwert 1 zum Eigenvektor
(1, 2, 1) , den Eigenwert −1 zum Eigenvektor (1, 0, 1) und den Eigenwert 2 zum Eigenvektor
(−1, 1, 0) hat.
334 6. Eigenwertprobleme
6.10. Sei K ein Körper, V ein n-dimensionaler K-Vektorraum, λ ∈ K und ϕ ∈ End(V). Sei B
eine geordnete Basis von V und A = MB (ϕ) die darstellende Matrix von ϕ bzgl. B. Zeigen Sie:
b) dim(Eig(ϕ, λ)) = dim(Eig(A, λ)), d.h. die geometrische Vielfachheit von λ als Eigenwert
von ϕ ist dieselbe wie die als Eigenwert von A.
6.11. Entscheiden Sie, welche der folgenden Matrizen über R diagonalisierbar sind. Geben
Sie für die Matrizen jeweils Basen für die Eigenräume an. Geben Sie für die diagonalisierbaren
Matrizen ferner eine Matrix T ∈ Gl(3, R) an, s.d. T · Ai · T −1 eine Diagonalmatrix ist. All das
für
2 6 −1
a) A1 = −1 −2 1 ;
2 6 −1
3 0 0
b) A2 = 2 3 0 ;
1 2 3
cos( π7 ) 0 − sin( π7 )
c) A3 = 0 π
7 0 .
π π
sin( 7 ) 0 cos( 7 )
6.13. Sei K ein Körper, n ∈ N und M ∈ Mat(n, K). Wir sagen, dass W ∈ Mat(n, K) eine
Wurzel von M ist, falls W · W = M gilt.
Zeigen Sie, dass jede diagonalisierbare Matrix M ∈ Mat(n, C) eine Wurzel hat.
3 −3 2 0 0 −2
A = 0 4 0 und B = 0 2 0 .
−1 3 0 1 0 3
6.7. Aufgaben 335
Zeigen Sie, dass A und B simultan diagonalisierbar sind. Geben Sie eine gemeinsame Basis
aus Eigenvektoren für A und B an und geben zu jedem Basisvektor außerdem den Eigenwert
bzgl. A und bzgl. B an.
6.15. Sei V ein K-Vektorraum und seien W1, . . . , W k ⊂ V Untervektorräume. Beweisen Sie
oder widerlegen Sie durch Gegenbeispiel folgende Behauptung:
Gilt Wi ∩ W j = {0} für alle i j, dann ist die Summe W1 + . . . + W k direkt,
a) für k = 2;
b) für k = 3.
c) Sei nun V = Rn . Wir setzen W ⊥ := {v ∈ V | v, w = 0 für alle w ∈ W }. Zeigen Sie, dass
W ⊥ ein Untervektorraum von V mit V = W ⊕ W ⊥ ist.
6.17. Sei V ein K-Vektorraum und ϕ ∈ End(V). Seien W1, . . . , W k ⊂ V invariante Unter-
vektorräume für ϕ. Zeigen Sie, dass dann auch W1 ∩ . . . ∩ W k und W1 + . . . + W k invariante
Untervektorräume für ϕ sind.
−7 5 8
A = −5 4 5
−7 5 8
über dem Körper K = R. Bestimmen Sie dabei sowohl die resultierende obere Dreiecksmatrix
als auch die Transformationsmatrix.
2 1 0 0 0
0 0
2 1 0
A = 0 0 2 0 0 .
0 0 0 2 0
0 0 0 0 3
336 6. Eigenwertprobleme
6.21. Sei K ein Körper, V ein endlichdimensionaler K-Vektorraum und ϕ ∈ AutK (V). Zeigen
Sie: Es existiert ein Polynom p ∈ K[x] vom Grad ≤ dim(V) − 1, so dass gilt: ϕ−1 = p̃(ϕ).
6.22. Sei A ∈ Mat(n, K) eine nilpotente Matrix, d.h. es gibt ein k ∈ N, so dass Ak = 0n gilt.
Zeigen Sie:
a) 0 ist Eigenwert von A und A hat keine andere Eigenwerte.
b) Das Minimalpolynom ist gegeben durch M A = x k0 , wobei k0 die kleinste natürliche Zahl
ist, für die Ak0 = 0n gilt.
6.23. Wo liegt der Fehler in folgendem kurzen „Beweis“ des Satzes von Cayley-Hamilton:
χ̃A (A) = det(A − A · 1n ) = det(A − A) = det(0n ) = 0.
6.24. Benutzen Sie Bemerkung 6.102, um einen einfachen Beweis des Satzes von Cayley-
Hamilton für diagonalisierbare Matrizen zu geben.
0 1
6.25. Sei A = und f = x 20 − 10 x 19 + 35 x 18 − 30 x 17 − 105 x 16 + 228 x 15 + 90 x 14 −
1 1
540 x 13 + 45 x 12 + 770 x 11 − 131 x 10 − 770 x 9 + 45 x 8 + 540 x 7 + 90 x 6 − 228 x 5 − 105 x 4 +
30 x 3 + 35 x 2 + 10 x + 2. Berechnen Sie f˜(A).
Hinweis: Nicht stupide losrechnen! Der Satz von Cayley-Hamilton in Verbindung mit einer
geeigneten Polynomdivision vereinfacht die Aufgabe stark.
b) Benutzen Sie dies, um allgemeine Formeln für die Potenzen von Jordanblöcken herzuleiten.
c) Zeigen Sie durch Gegenbeispiel, dass die Formel aus a) im Allgemeinen nicht gilt, falls
AB B A.
6.7. Aufgaben 337
6.28. a) Seien A, B ∈ Mat(3, C). Zeigen Sie, dass A und B genau dann ähnlich sind, wenn
M A = MB und χA = χB gilt.
b) Stimmt die Behauptung aus Teil a) auch für A, B ∈ Mat(4, C)? (Beweis bzw. Gegenbeispiel)
7. Bilineare Algebra
(Hans-Georg Weigand)
Wir untersuchen jetzt bilineare Abbildungen. Diese haben, im Gegensatz zu linearen, nicht
einen, sondern zwei Vektoren als Argument und sind in jedem einzeln linear. Von besonderer
Bedeutung ist der Spezialfall, dass das Ergebnis nicht ein Vektor, sondern eine Zahl ist,
also ein Element des zugrundeliegenden Körpers. Wir sprechen dann von einer Bilinearform.
Symmetrische Bilinearformen sind geometrisch besonders wichtig. Wir klassifizieren mit
ihrer Hilfe die Quadriken und die Kegelschnitte. Wir führen ein abstraktes Konzept von
Skalarprodukt ein, was zu euklidischen bzw. unitären Vektorräumen führt. Dann kann man von
selbstadjungierten, orthogonalen und unitären Endomorphismen sprechen. Die orthogonalen
verallgemeinern die Drehungen und Spiegelungen, die uns schon aus dem zweidimensionalen
Fall vertraut sind. Zum Schluss studieren wir noch die schiefsymmetrischen Bilinearformen
und Endomorphismen.
Definition 7.1. Seien V, W und Z Vektorräume über dem Körper K. Eine Abbildung
β : V × W → Z heißt bilinear, wenn für alle α, α ∈ K, alle v, v ∈ V und alle w, w ∈ W
gilt:
Eine bilineare Abbildung bildet also je zwei Vektoren auf einen Vektor ab (bzw. auf eine Zahl
im Falle einer Bilinearform) und zwar so, dass wenn man einen Vektor festhält, die Abbildung
als Funktion des anderen Vektors linear ist.
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_7
340 7. Bilineare Algebra
β(v, w) = v × w
Beispiel 7.3. Sei K = R und V = Rn . Dann ist das euklidische Skalarprodukt eine Bilinear-
form:
β(v, w) = v, w = v1 w1 + . . . + vn wn .
Beispiel 7.4. Sei K beliebig und V = K 2 . Wir wissen, dass die Determinante von n×n-Matrizen
linear in jedem Spaltenvektor ist. Also ist
β(v, w) = det(v, w)
eine Bilinearform.
Beispiel 7.5. K = R und sei V = C 0 ([a, b], R) der Vektorraum der stetigen Funktionen auf
dem Intervall [a, b]. Dann ist durch
∫b
β( f , g) = f (t)g(t)dt
a
eine Bilinearform auf V definiert. Wir rechnen die Linearität im ersten Argument nach:
∫b
β(α1 · f1 + α2 · f2, g) = (α1 · f1 + α2 · f2 )(t) · g(t) dt
a
∫b
= (α1 · f1 (t) · g(t) + α2 · f2 (t) · g(t)) dt
a
∫b ∫b
= α1 · f1 (t) · g(t) dt + α2 · f2 (t) · g(t) dt
a a
= α1 · β( f1, g) + α2 · β( f2, g).
Die Linearität im zweiten Argument kann man genauso verifizieren; sie folgt jetzt aber auch
aus β( f , g) = β(g, f ).
βi j := β(bi, b j ).
7.1. Bilineare Abbildungen 341
Sind umgekehrt eine geordnete Basis B von V und Zahlen βi j ∈ K vorgegeben, dann definiert
n
β(v, w) := vi w j βi j
i, j=1
Ähnlich, wie wir lineare Abbildungen nach Basiswahl durch Matrizen darstellen können,
können wir das also auch für Bilinearformen tun. Sehen wir uns dazu unsere Beispiele an:
Beispiel 7.8. Wie in Beispiel 7.3 betrachten wir das euklidische Skalarprodukt und stellen es
bzgl. der Standardbasis B = (e1, . . ., en ) durch eine Matrix dar. Nun gilt
1, falls i = j,
β(ei, e j ) = ei, e j =
0, sonst.
Beispiel 7.9. Stellen wir nun die durch die Determinante gegebene Bilinearform aus Bei-
spiel 7.4 bzgl. der Standardbasis B = (e1, e2 ) von K 2 durch eine Matrix dar. Es gilt:
det(e1, e1 ) = det(e2, e2 ) = 0,
det(e1, e2 ) = det(12 ) = 1, und
det(e2, e1 ) = − det(e1, e2 ) = −1.
Beispiel 7.10. Der Vektorraum C 0 ([a, b], R) aus Beispiel 7.5 ist unendlich-dimensional. Da-
her kann die durch das Integral definierte Bilinearform nicht durch eine Matrix dargestellt
werden.1 Wir schränken daher die Bilinearform auf den 4-dimensionalen Untervektorraum
V = R3 [x] ⊂ C 0 ([0, 1], R) ein, der als Elemente alle Polynomfunktionen vom Grad ≤ 3 enthält.
Der Einfachheit halber betrachten wir nur den Fall a = 0 und b = 1. Eine geordnete Basis ist
durch B = ( f0, f1, f2, f3 ) gegeben, wobei fk (x) = x k . Wir berechnen:
∫1 ∫1 1
x i+ j+1 1
β( fi, f j ) = x · x dx =
i j
x i+ j
dx = = .
i + j + 1 x=0 i + j + 1
0 0
Ähnlich wie die darstellende Matrix einer linearen Abbildung hängt auch die darstellende
Matrix einer Bilinearform von der Wahl der Basis ab. Allerdings transformiert sich die Matrix
bei Basiswechsel bei Bilinearformen anders als bei linearen Abbildungen.
Um das zu sehen seien B = (b1, . . ., bn ) und B = (b1, . . . , bn ) zwei geordnete Basen des
K-Vektorraums V. Die Transformationsmatrix, die den Basiswechsel beschreibt, ist gegeben
durch
c11 . . . c1n
. .
TBB = .. . . . .. ,
cn1 . . . cnn
n
wobei bi = cki bk , vgl. Bemerkung 4.36. Wir berechnen
k=1
βi j = β(bi, b j )
n
n
=β cki · bk , cl j · bl
k=1 l=1
n
= cki · cl j · β(bk , bl )
k,l=1
n
= cki · βkl · cl j .
k,l=1
Also ist
MB (β) = (TBB ) · MB (β) · TBB .
Wir halten fest:
Proposition 4.37 sagt uns, dass die Transformation der darstellenden Matrix eines Endomor-
phismus ϕ gegeben ist durch:
MB (ϕ) = TBB · MB (ϕ) · (TBB )−1,
d.h., wenn wir nach MB (ϕ) auflösen, durch
MB (ϕ) = (TBB )−1 · MB (ϕ) · TBB .
Bei Bilinearformen tritt statt der Inversen der Transformationsmatrix ihre Transponierte auf.
Bemerkung 7.12. Im Fall V = K n kann man jede Bilinearform mittels ihrer darstellenden
Matrix bzgl. der Standardbasis B = (e1, . . ., en ) besonders leicht ausdrücken:
n
β(v, w) = vi · w j · β(ei, e j ) = v · MB (β) · w.
i, j=1
Die Bilinearformen in Beispiel 7.3 und 7.5 sind symmetrisch, die bilinearen Abbildungen in
Beispiel 7.2 und 7.4 sind hingegen schiefsymmetrisch.
Definition 7.14. Eine Matrix A ∈ Mat(n, K) heißt symmetrisch, falls A = A, und schief-
symmetrisch, falls A = −A.
(2) Es gibt eine geordnete Basis B von V bzgl. derer die darstellende Matrix MB (β) von β
symmetrisch ist.
(3) Für alle geordneten Basen B von V ist die darstellende Matrix MB (β) von β symmetrisch.
Beweis. Die Implikationen „(3)⇒(2)“ und „(1)⇒(3)“ sind trivial. Die fehlende Implikation
„(2)⇒(1)“ ist allerdings auch nicht schwer. Sei nämlich B = (b1, . . ., bn ) eine geordnete Basis
von V bzgl. derer MB (β) symmetrisch ist, d.h. β(bi, b j ) = β(b j , bi ) für alle i, j = 1, . . . , n. Seien
n n
v, w ∈ V. Wir schreiben v = vi · bi und w = w j · b j . Nun gilt:
i=1 j=1
n
n
β(v, w) = β vi · bi, wj · bj
i=1 j=1
n
= vi · w j · β(bi, b j )
i, j=1
n
= vi · w j · β(b j , bi )
i, j=1
n
= w j · vi · β(b j , bi )
i, j=1
n
n
=β w j · b j, vi · bi
i=1 j=1
= β(w, v).
Damit ist gezeigt, dass β symmetrisch ist.
Die entsprechende Aussage für schiefsymmetrische Bilinearformen bzw. Matrizen zeigt man
ganz genauso.
7.1. Bilineare Abbildungen 345
(2) Es gibt eine geordnete Basis B von V bzgl. derer die darstellende Matrix MB (β) von β
schiefsymmetrisch ist.
(3) Für alle geordneten Basen B von V ist die darstellende Matrix MB (β) von β schiefsym-
metrisch.
Zumindest für die allermeisten Körper genügt es, symmetrische und schiefsymmetrische Bili-
nearformen zu verstehen, denn es gilt:
Lemma 7.17. Sei K ein Körper, in dem 1 + 1 0 gilt, und V ein K-Vektorraum. Dann
gibt es zu jeder Bilinearform β : V × V → K eine eindeutige symmetrische Bilinearform
βs : V × V → K und eine eindeutige schiefsymmetrische Bilinearform βa : V × V → K, so
dass
β = β s + βa .
β = β s + βa .
Der symmetrische Anteil muss daher die Form βs (v, w) = 12 β(v, w)+ 12 β(w, v) haben, was seine
Eindeutigkeit zeigt. Genauso sieht man, dass der schiefsymmetrische Anteil durch βa (v, w) =
2 β(v, w) − 2 β(w, v) gegeben sein muss.
1 1
346 7. Bilineare Algebra
In einem Körper K, in dem 1 + 1 = 0 gilt, wie z.B. K = F2 , ist Lemma 7.17 falsch. We-
gen 1 = −1 sind dann symmetrische und schiefsymmetrische Bilinearformen dasselbe! Jede
nichtsymmetrische Matrix M ∈ Mat(n, F2 ) führt mittels
β(v, w) = v · M · w
auf eine Bilinearform β auf V = Fn2 , die keine Zerlegung wie in Lemma 7.17 zulässt.
Wir werden uns von nun an auf symmetrische Bilinearformen konzentrieren.
Beispiel 7.19. Die quadratische Form zum euklidischen Skalarprodukt auf V = Rn ist gegeben
durch
q(v) = v12 + . . . + vn2 = v 2 .
Proposition 7.20 (Polarisierung). Sei K ein Körper, in dem 1 + 1 0 gilt. Dann gilt für
jede symmetrische Bilinearform β auf einem K-Vektorraum V und alle v, w ∈ V :
β(v, w) = 12 q β (v + w) − q β (v) − q β (w) .
Die letzte Umformung hat benutzt, dass β symmetrsich ist. Da 2 0 ist, können wir durch 2
dividieren und erhalten die Aussage.
Beispiel 7.21. Im Fall K = F2 haben wir erwartungsgemäß auch bei der Polarisierung Proble-
me. Sei etwa V = F22 . Wir betrachten die symmetrische Bilinearform
β : V × V → K, β(v, w) = v1 · w2 + v2 · w1 .
Die Bilinearform β ist nicht identisch 0, denn β(e1, e2 ) = 1 0. Für die zugehörige quadratische
Form erhalten wir dagegen
7.1. Bilineare Abbildungen 347
für alle v ∈ V .
Satz 7.22 (Normalform für symmetrische Bilinearformen). Sei K ein Körper, in dem
1 + 1 0 gilt. Sei V ein endlich-dimensionaler K-Vektorraum und β eine symmetrische
Bilinearform auf V.
Dann existiert eine geordnete Basis B = (b1, . . ., bn ) von V, so dass die darstellende Matrix
MB (β) von β eine Diagonalmatrix ist. In anderen Worten, es gilt β(bi, b j ) = 0 für alle i j.
Beweis. Wir zeigen die Aussage durch vollständige Induktion nach der Dimension n = dim(V )
von V.
Induktionsanfang: Für n = 1 ist nichts zu zeigen.
Induktionsschritt: Sei n ≥ 2. Wir haben zwei Fälle zu unterscheiden.
1. Fall: q β (v) = 0 für alle v ∈ V.
Dann ist nach Proposition 7.20 die Bilinearform β identisch 0 und somit die darstellende
Matrix MB (β) = 0n bzgl. jeder Basis. In diesem Fall ist die Aussage somit klar.
2. Fall: Es gibt ein b1 ∈ V mit q β (b1 ) 0.
Wir betrachten die lineare Abbildung ϕ : V → K gegeben durch ϕ(v) = β(b1, v). Wegen
ϕ(b1 ) = β(b1, b1 ) = q β (b1 ) 0 ist ϕ nicht der Nullhomomorphismus. Also ist rg(ϕ) ≥ 1.
Da dim(K) = 1 ist, gilt aber auch rg(ϕ) ≤ 1. Also ist rg(ϕ) = 1. Aus der Dimensionsformel
(Satz 4.19) folgt
dim(ker(ϕ)) = dim V − rg(ϕ) = n − 1.
Nach Induktionsannahme gibt es eine geordnete Basis (b2, . . ., bn ) von ker(ϕ), so dass
β(bi, b j ) = 0
für alle i, j = 2, . . . n mit i j. Wegen b1 ker(ϕ) ist B := (b1, b2, . . ., bn ) eine geordnete
Basis von V. Für alle j = 2, . . . , n gilt
β(b1, b j ) = ϕ(b j ) = 0.
1. Schritt:
Wähle b1 ∈ V mit β(b1, b1 ) 0.
(Falls das nicht möglich ist, so ist β = 0. Dann tut es jede Basis.)
2. Schritt:
Berechne U1 := ker(ϕ1 ), wobei ϕ1 : V → K mit ϕ1 (v) = β(b1, v).
3. Schritt:
Wähle b2 ∈ U1 mit β(b2, b2 ) 0.
(Falls das nicht möglich ist, so ist β|U1 ×U1 = 0. Dann tut es jede Basis von U1 , ergänzt durch
b1 zu einer Basis von V.)
4. Schritt:
Berechne U2 := ker(ϕ2 ), wobei ϕ2 : U1 → K mit ϕ2 (v) = β(b2, v).
5. Schritt:
Wähle b3 ∈ U2 mit β(b3, b3 ) 0.
(Falls das nicht möglich ist, so ist β|U2 ×U2 = 0. Dann tut es jede Basis von U2 , ergänzt durch
b1, b2 zu einer Basis von V.)
. . . usw.
0 0 0
1
Schritt 1: Wir setzen b1 := e1 = 0. In der Tat gilt dann β(b1, b1 ) = 2 0.
0
Schritt 2: Wir berechnen
2 2 0 v
1
ϕ1 (v) = β(b1, v) = 1 0 0 · 2 1 0 · v2 = 2v1 + 2v2 .
0 0 0 v3
Also ist U1 = ker(ϕ1 ) = {v ∈ Q3 | v1 = −v2 }.
1
Schritt 3: Wir setzen b2 := −1 ∈ U1 . In der Tat gilt dann β(b2, b2 ) = −1 0.
0
Schritt 4: Wir berechnen
2 2 0 v
1
ϕ2 (v) = β(b2, v) = 1 −1 0 · 2 1 0 · v2 = v2 .
0 0 0 v3
Also ist
U2 = ker(ϕ2 ) = {v ∈ U1 | v2 = 0} = {v ∈ Q3 | v1 = v2 = 0} = Q · e3 .
7.1. Bilineare Abbildungen 349
Schritt 5: Nun ist β identisch 0 auf U2 × U2 . Wir ergänzen die Basis durch b3 := e3 und sind
fertig.
1 1 0
Die Basis B = (b1, b2, b3 ) = 0 , −1 , 0 diagonalisiert β. Es gilt:
0 0 1
2 0 0
MB (β) = 0 −1 0 .
0 0 0
Spaßeshalber überprüfen wir die Transformationsformel in diesem Beispiel. Die Bilinearform
β war uns ja gegeben durch ihre darstellende Matrix bzgl. der Standardbasis B = (e1, e2, e3 ):
2 2 0
M (β) = 2 1 0 .
B
0 0 0
Die Transformationsmatrix TBB enthält als Spaltenvektoren gerade die Vektoren der Basis B,
also
1 1 0
TB = 0 −1 0 .
B
0 0 1
Nun gilt in der Tat:
1 0 0 2 2 0 1 1 0
(TBB ) · MB (β) · TBB
= 1 −1 0 · 2 1 0 · 0 −1 0
0 0 1 0 0 0 0 0 1
1 0 0 2 0 0
= 1 −1 0 · 2 1 0
0 0 1 0 0 0
2 0 0
= 0 −1 0
0 0 0
= MB (β).
Aufgabe 7.6 zeigt, dass die Bedingung 1+1 0 an den Körper K in Satz 7.22 nicht weggelassen
werden kann.
Bemerkung 7.25. Zurück zum Fall 1 + 1 0. Hier gibt es im Allgemeinen viele diagonali-
sierende Basen zu einer symmetrischen Bilinearform β. Die Diagonalmatrix ist durch β nicht
festgelegt, auch nicht nur bis auf Reihenfolge der Diagonaleinträge.
350 7. Bilineare Algebra
Allerdings gilt wegen der Transformationsformel MB (β) = (TBB ) · MB (β) · TBB , dass
Sind insbesondere B und B beides diagonalisierende Basen, so haben MB (β) und MB (β)
gleich viele Nullen auf der Diagonale.
N(β) := {v ∈ V | β(v, w) = 0 ∀w ∈ V }
Beispiele werden wir uns gleich noch ansehen. Vorher folgende Beobachtung:
Lemma 7.28. Sei B = (b1, . . . , bn ) eine diagonalisierende Basis für die symmetrische Bili-
nearform β. Dann wird der Nullraum N(β) aufgespannt durch die Basisvektoren aus B mit
β(bi, bi ) = 0.
n
Beweis. a) Sei β(bi, bi ) = 0. Dann gilt für jedes w ∈ V, w = wj bj:
j=1
n
n
β(bi, w) = β bi, wj bj = w j β(bi, b j ) = 0.
j=1 j=1
Also ist bi ∈ N(β). Da N(β) ein Untervektorraum ist, ist dann auch die lineare Hülle der
Basisvektoren bi mit β(bi, bi ) = 0 in N(β) enthalten.
7.1. Bilineare Abbildungen 351
n
b) Sei umgekehrt v ∈ N(β), v = vi bi . Ist nun β(b k , b k ) 0, dann ist
i=1
n
n
0 = β(v, b k ) = β vi bi, b k = vi β(bi, b k ) = vk β(b k , b k ).
i=1 i=1
()*+
=0 für ik
Wegen β(b k , b k ) 0 folgt vk = 0. Also liegt v in der linearen Hülle der Basisvektoren aus B
mit β(bi, bi ) = 0.
Insbesondere ist die Dimension des Nullraums N(β) genau die Anzahl der Basisvektoren aus
B mit β(bi, bi ) = 0, d.h. genau die Anzahl der Nullen auf der Diagonalen der darstellenden
Diagonalmatrix MB (β). Gemäß der Dimensionsformel können wir das auch ausdrücken durch
Formel (7.1) ist auch richtig, wenn B nicht diagonalisierende Basis ist, da der Rang der
darstellenden Matrix MB (β) für alle Basen derselbe ist.
Definition 7.29. Eine symmetrische Bilinearform heißt ausgeartet (oder auch degeneriert
oder entartet), falls N(β) {0}.
Entsprechend Gleichung (7.1) ist β genau dann ausgeartet, wenn dim(V) > rg(MB (β)). In
anderen Worten: β ist genau dann nicht ausgeartet, wenn die darstellende Matrix bzgl. einer
(und damit bzgl. aller) geordneten Basis invertierbar ist.
Beispiel 7.30. Das euklidische Skalarprodukt auf V = Rn hat bzgl. der Standardbasis die
Einheitsmatrix als darstellende Matrix. Also ist dim(N(β)) = n − n = 0. Das euklidische
Skalarprodukt ist daher nicht ausgeartet.
Der Nullraum besteht in diesem Fall ja auch genau aus den Vektoren, die auf allen Vektoren
senkrecht stehen. Das tut nur der Nullvektor.
Beispiel 7.31. In Beispiel 7.10 haben wir den Vektorraum der Polynomfunktionen vom
Grad ≤ 3 auf dem Einheitsintervall [0, 1] zusammen mit einer durch ein Integral definierten
symmetrischen Bilinearform betrachtet. Wegen
1 1 1
1 2 3 4
1 1 1 1
5 1
det 21 3 4
1 = 0
3 1 1 6.048.000
4 5 6
1 1 1 1
4 5 6 7
ist die darstellende Matrix invertierbar und die Bilinearform somit nicht ausgeartet.
352 7. Bilineare Algebra
Beispiel 7.32. In Beispiel 7.24 haben wir die diagonalisierende Basis B = (b1, b2, b3 ) =
1 1 0
0 , −1 , 0 gefunden. Wir hatten auch gesehen, dass β(b1, b1 ) 0, β(b2, b2 ) 0 und
0 0 1
β(b3, b3 ) = 0. Also wird der Nullraum durch b3 = e3 aufgespannt, N(β) = Q · e3 .
Bemerkung 7.33. Ist B = (b1, . . . , bn ) eine diagonalisierende Basis für β auf V, d.h.
α1 0
. .
MB (β) = . ,
0 αn
so ist β genau dann nicht ausgeartet, wenn alle α j 0 sind.
Allgemein können wir definieren W := L({b j | α j 0}). Da N(β) von den anderen Basisvek-
toren aufgespannt wird, gilt nun V = W ⊕ N(β). Schränken wir β auf den Untervektorraum
W ein, so erhalten wir eine nicht ausgeartete Bilinearform, da die darstellende Matrix von
β|W×W : W × W → K die Diagonalmatrix ist, auf der nur die Diagonaleinträge α j 0
vorkommen.
Fazit: Wir können für eine beliebige symmetrische Bilinearform β den zugrundeliegenden
endlich-dimensionalen Vektorraum V in eine Summe V = W ⊕ N(β) zerlegen, so dass die
Einschränkung von β auf W nicht ausgeartet ist.
1
..
.
1
()*+
r+
−1
. ..
MB (β) = .
−1
()*+
r−
0
..
.
0
()*+
r0
Dabei sind r+, r− und r0 durch β eindeutig bestimmt.
7.1. Bilineare Abbildungen 353
Beweis. a) Sei B = (b1, . . ., bn ) eine diagonalisierende Basis für β von V, d.h.
α1 0
. .
M (β) =
B . .
0 αn
Durch Umsortieren der Basisvektoren können wir erreichen, dass zunächst die positiven Dia-
gonaleinträge kommen, dann die negativen und schließlich die Nullen, d.h. α1, . . . , αr+ > 0,
αr+ +1, . . . , αr+ +r− < 0 und αr+ +r− +1 = . . . = αn = 0. Wir setzen
⎧
⎪ √1 · b für 1 ≤ j ≤ r+,
⎪
⎪
⎨ α1j j
⎪
b j := √−α j · b j für r+ + 1 ≤ j ≤ r+ + r−,
⎪
⎪
⎪
⎪ bj für r+r− + 1 ≤ j ≤ n.
⎩
Damit erhalten wir eine neue geordnete Basis B = (b1, . . ., bn ) von V. Für i j folgt aus
β(bi, bj ) = 0 sofort, dass β(bi, b j ) = 0. Außerdem ist
⎧
⎪
⎪
⎪
1
β(bj , bj ) für 1 ≤ j ≤ r+,
⎨ αj
⎪
β(b j , b j ) = −1
α j β(b j , b j ) für r+ + 1 ≤ j ≤ r+ + r−,
⎪
⎪
⎪
⎪ β(b j , b j ) für r+r− + 1 ≤ j ≤ n,
⎩
⎧
⎪ für 1 ≤ j ≤ r+,
⎪
⎨
⎪
1
= −1 für r+ + 1 ≤ j ≤ r+ + r−,
⎪
⎪
⎪0 für r+r− + 1 ≤ j ≤ n.
⎩
Damit haben wir die gewünschte Matrixdarstellung erreicht.
b) Nun könnte es noch sein, dass es verschiedene Basen wie im Beweisteil a) gibt, die zu darstel-
lenden Diagonalmatrizen mit unterschiedlichen Werten für r+ , r− und r0 führen. Daher müssen
wir diese drei Zahlen noch allein durch β, ohne Bezugnahme auf eine Basis charakterisieren.
Wir wissen bereits, dass r0 = dim(N(β)). Also ist r0 durch β allein festgelegt. Bleibt zu zeigen,
dass r+ durch β festgelegt ist, denn dann ist es auch r− = dim(V) − r+ − r0 .
c) Zwischenbehauptung:
r+ = max dim(W) | W ⊂ V Untervektorraum, so dass q β (v) > 0 ∀v ∈ W \ {0} .
Bemerkung 7.35. Analog wie im Beweis kann man auch r− charakterisieren. Es gilt:
r− = max dim(W) | W ⊂ V Untervektorraum, so dass q β (v) < 0 ∀v ∈ W \ {0} .
Korollar 7.36. Sei A ∈ Mat(n, R) symmetrisch. Dann gibt es eine invertierbare Matrix
T ∈ GL(n, R), so dass T · A · T eine Diagonalmatrix ist, deren Diagonaleinträge nur die
Werte 1, −1 und 0 annimmt.
Beweis. Die Matrix A ist darstellende Matrix einer symmetrischen Bilinearform auf Rn bzgl.
der Standardbasis von Rn . Nach Satz 7.34 gibt es eine Basis von Rn bzgl. derer die darstellende
Matrix die gewünschte Diagonalform hat. Ist nun T die Transformationsmatrix für diese beiden
Basen, dann folgt die Behauptung aus Proposition 7.11.
◦ indefinit, falls es v1, v2 ∈ V gibt mit q β (v1 ) > 0 und q β (v2 ) < 0,
Bemerkung 7.38. Sei V ein endlich-dimensionaler reeller Vektorraum und β eine symme-
trische Bilinearform auf V. Wählen wir eine Basis B = (b1, . . ., bn ) wie in Satz 7.34. Wenn
wir die Vektoren v ∈ V in dieser Basis ausdrücken, v = nj=1 v j b j , dann erhalten wir für die
zugehörige quadratische Form
q β (v) = v12 + . . . + vr2+ − vr2+ +1 − . . . − vr2+ +r− .
7.1. Bilineare Abbildungen 355
Daher können wir die Bedingungen an β aus obiger Definition folgendermaßen an den Größen
r+ , r− und r0 ablesen:
ausgeartet r0 > 0
positiv definit r− = r0 = 0
negativ definit r+ = r0 = 0
indefinit r+ > 0 und r− > 0
positiv semidefinit r− = 0
negativ semidefinit r+ = 0
Tab. 26 Typen symmetrischer Bilinearformen
Beispiel 7.39. Für das euklidische Skalarprodukt auf Rn ist r+ = n und r− = r0 = 0. Es ist
daher positiv definit. Das bedeutet ja nichts anderes als die Tatsache, dass die Norm (oder
genauer, ihr Quadrat) eines Vektors v 0 stets positiv ist.
Die Berechnung von Skalar- und Minkowskiprodukten können Sie hier üben.
Achtung: in der Übung wird eine andere Konvention verwendet. Dort befindet
sich das Minuszeichen vor der ersten Komponente, nicht vor der letzten.
http://ueben.cbaer.eu/12.html
Zum Schluss dieses Abschnitts ein Kriterium, wie man einer symmetrischen Bilinearform
mittels Determinanten ansehen kann, ob sie positiv definit ist. Unter den Hauptminoren einer
quadratischen Matrix A versteht man dabei die Determinanten der quadratischen Teilmatrizen
von A, die „links oben“ in A sitzen. Genauer, ist
a11 . . . a1n
. .
A = .. . . . .. ,
a n1 . . . a nn
dann sind die Hauptminoren die Determinanten der Matrizen
a11 . . . a1 j
. .
A j := .. . . . .. ,
a j1 . . . a j j
mit j = 1, . . ., n.
356 7. Bilineare Algebra
1 2 3
1 2
det(1) = 1, det = −3 und det 4 5 6 = 0.
4 5
7 8 9
Natürlich kann man mit diesem Kriterium auch auf negative Definitheit testen, indem man es
auf −β anwendet. In anderen Worten, β ist negativ definit genau dann, wenn alle Hauptminoren
von −A positiv sind. Vorsicht: Das ist nicht dasselbe wie zu verlangen, dass die Hauptminoren
von A negativ sind!
und daher
det(A) = det(T · T) = det(T ) det(T) = det(T)2 > 0.
Die darstellende Matrix A selbst hat also schon mal positive Determinante. Sei nun j ∈
{1, . . ., n} und W ⊂ V der Untervektorraum, der von b1, . . ., b j aufgespannt wird. Dann ist
A j die darstellende Matrix der Einschränkung von β auf W × W. Da Einschränkungen positiv
definiter Bilinearformen stets wieder positiv definit sind, muss nach dem eben Bewiesenen
auch A j positive Determinante haben.
7.1. Bilineare Abbildungen 357
Zu „(2)⇒(1)“:
Die Hauptminoren von A seien positiv. Wir zeigen, dass β positiv definit ist, durch vollständige
Induktion nach der Dimension n von V.
Induktionsanfang: n = 1.
In diesem Fall ist V = R · b1 und A = (a11 ). Es gilt a11 = det(A) > 0. Für jeden Vektor v = tb1
ist dann
β(v, v) = t 2 β(b1, b1 ) = t 2 a11 ≥ 0
und „= 0“ nur dann, wenn t = 0, d.h. wenn v = 0. Also ist β positiv definit.
Induktionsschritt: Sei n > 1.
Sei W der (n−1)-dimensionale Untervektorraum von V , der von b1, . . . , bn−1 aufgespannt wird.
Dann hat die Einschränkung von β auf W die darstellende Matrix An−1 und somit positive
Hauptminoren. Nach Induktionsvoraussetzung ist β|W×W positiv definit. Nach dem Satz 7.34
von Sylvester gibt es eine Basis (b1, . . ., bn−1 ) von W, so dass M(b1 ,...,bn−1 ) (β|W×W ) = 1n−1 . Wir
n−1
setzen bn := bn − n−1
k=1 β(bn, b k )b k . Da die Summe k=1 β(bn, b k )b k in W liegt, bn aber nicht,
ist auch bn W. Damit ist B := (b1, . . ., bn ) eine Basis von V. Für j = 1, . . ., n − 1 gilt
n−1
β(bj , bn ) =β bj , bn − β(bn, bk )bk
k=1
n−1
= β bj , bn ) − β(bn, bk ) β(bj , bk )
k=1 ()*+
=0 für jk
= β bj , bn ) − β bj , bn )
= 0.
Also ist
1
..
.
MB (β) = mit c = β(bn, bn ).
1
c
Mit der Transformationsmatrix T = TBB ist
Bzgl. der Basis B := (b1, . . . , bn−1, √1c bn ) hat β die darstellende Matrix 1n . Also ist β positiv
definit.
Beispiel 7.43. In der Analysis lernt man, dass eine zweimal stetig differenzierbare Funktion
f : Rn → R in einem Punkt ein isoliertes lokales Minimum hat, wenn der Gradient der
Funktion dort verschwindet und die Hessematrix in diesem Punkt positiv definit ist. Wenden
358 7. Bilineare Algebra
wir dies auf die Funktion f : R2 → R, f (x, y) = 3x 2 − 2xy + 3y 2 , im Ursprung (0, 0) an. Für
den Gradienten erhalten wir
$ %
∂f ∂f
∇ f (x, y) = (x, y), (x, y) = (6x − 2y, −2x + 6y).
∂x ∂y
Der Gradient verschwindet für (x, y) = (0, 0). Für die Hessematrix der zweiten Ableitungen
erhalten wir ∂2 f
∂2 f
(x, y) ∂ y (x, y) 6 −2
Hesse f (x, y) = ∂∂2x f = .
2 x∂
∂2 f
∂ y∂ x (x, y) (x, y) −2 6
∂x 2
Um zu sehen, dass diese Matrix positiv definit ist, müssen wir nach Satz 7.42 lediglich
überprüfen, dass derEintrag links
oben, also 6, positiv ist, und dass die Determinante positiv
6 −2
ist. In der Tat ist det = 32 > 0. Also hat f in (0, 0) ein isoliertes lokales Minimum.
−2 6
Wir werden dabei verschiedene Fälle unterscheiden, je nachdem welche Werte die Zahlen r+ ,
r− und r0 aus Satz 7.34 annehmen. Da r+ +r− +r0 = 2 ist, gibt es nicht allzu viele Möglichkeiten.
q −1
β () = {v ∈ R | v, v = }
2
= {v ∈ R2 | v 2 = }
√
= {v ∈ R2 | v = },
√
also ein Kreis vom Radius .
Kreise sind also Beispiele für Ellipsen. Tatsächlich sind die Ellipsen gerade die Kurven, die
man durch Anwenden einer linearen Abbildung auf einen Kreis bekommt:
7.2. Quadriken und Kegelschnitte 359
Proposition 7.45. Sei K = {v ∈ R2 | v = 1} der Einheitskreis mit Mittelpunkt 0. Dann ist
E ⊂ R2 genau dann eine Ellipse, wenn es ein T ∈ GL(2, R) gibt mit E = T(K).
Beweis. Zu „⇐“:
Sei E = T(K) für ein T ∈ GL(2, R). Wir definieren
β(v, w) := T −1 v, T −1 w.
Dann ist β eine symmetrische Bilinearform auf R2. Wegen β(v, v) = T −1 v, T −1 v = T −1 v 2 ≥
0 ist β positiv semidefinit. Ist β(v, v) = 0, so ist T −1 v = 0, also T −1 v = 0 und damit v = 0.
Also ist β sogar positiv definit.
Nun ist
q β (v) = β(v, v) = 1 ⇔ T −1 v, T −1 v = 1 ⇔ T −1 v = 1 ⇔ T −1 v ∈ K ⇔ v ∈ T(K).
Dies zeigt T(K) = q −1
β (1) und damit ist T(K) eine Ellipse.
Zu „⇒“:
Sei nun β eine positiv definite symmetrische Bilinearform und E = q −1 β () mit > 0 eine
Ellipse. Gemäß Satz 7.34 finden wir eine geordnete Basis B = (b1, b2 ) von R2 , so dass die
darstellende Matrix von β gegeben ist durch
1 0
MB (β) = .
0 1
Bezüglich der Standardbasis B = (e1, e2 ) ergibt sich die darstellende Matrix gemäß der Trans-
formationsformel Proposition 7.11 als
MB (β) = (TBB ) · MB (β) · TBB = (TBB ) · TBB .
Nun ist
v ∈ E = q −1
β () ⇔ β(v, v) =
⇔ v · MB (β) · v =
⇔ v · (TBB ) · TBB · v =
⇔ (TBB · v) · (TBB · v) =
⇔ TBB v, TBB v =
√
⇔ TBB v =
1
⇔ √ TBB · v = 1
1 B
⇔ √ TB · v ∈ K .
−1
Also ist E = T(K) mit T = √1 T B
B
∈ GL(2, R).
360 7. Bilineare Algebra
a 0
Beispiel 7.46. Sei T = ∈ GL(2, R) mit a, b > 0 Dann ist also E = T(K) eine Ellipse.
0 b
Es gilt
v 2 v 2
v ∈ E ⇔ T −1 v ∈ K ⇔
1 2
+ = 1.
a b
q −1
β ()
b
−a a 0 = q −1
β (0)
−b
Abb. 107 Ellipsen
Man nennt dann a und b die Halbachsen der Ellipse. Der Spezialfall a = b entspricht gerade
dem, dass die Ellipse ein Kreis ist. Dann spricht man statt von Halbachsen vom Radius.
Bemerkung 7.47. Wir erinnern uns, dass der Einheitskreis K durch Kosinus und Sinus para-
metrisiert werden kann:
cos ϕ
K= ϕ∈R .
sin ϕ
Fall 2: r− = 2 und r+ = r0 = 0, d.h. β ist negativ definit. Dies liefert geometrisch nichts
Neues, denn dann ist −β ist eine positiv definite symmetrische Bilinearform. Daher ist dann
q −1 −1 −1
β () = ∅, wenn > 0, es ist q β (0) = {0} und q β () ist eine Ellipse, falls < 0.
Für 0 nennt man q −1 β () eine Hyperbel. Jede Hyperbel hat zwei Zweige. In obiger
Beschreibung sind die Zweige für > 0 gegeben durch
9 : 9 :
v ∈ R | v1 = + + v2
2 2 und v ∈ R | v1 = − + v2 .
2 2
1 0
Definition 7.48. Für β : R2 × R2 → R, β(v, w) = v · · w = v1 w1 − v2 w2 , heißt
0 −1
v
H := q −1
1
β (1) = ∈ R2 v12 − v22 = 1
v2
die Standardhyperbel.
Kann man Hyperbeln ähnlich wie Ellipsen parametrisieren? Man kann. Dazu muss man die
trigonometrischen Kosinus- und Sinusfunktionen durch ihre hyperbolischen Vettern ersetzen.
In Anhang B.5 findet man alles, was wir über diese Funktionen wissen müssen.
Bemerkung 7.49. Die beiden Zweige der Standardhyperbel werden wie folgt parametrisiert:
cosh ϕ − cosh ϕ
H= ϕ∈R ∪ ϕ∈R .
sinh ϕ sinh ϕ
362 7. Bilineare Algebra
cosh(ϕ)
sinh(ϕ)
|
ϕ |
−1 1
In Aufgabe 7.9 wird gezeigt, dass eine Menge H1 ⊂ R2 genau dann eine Hyperbel ist, wenn es
ein T ∈ GL(2, R) gibt mit H1 = T(H). Dabei ist H die Standardhyperbel. Insbesondere werden
die beiden Zweige von H1 also wie folgt parametrisiert:
cosh ϕ − cosh ϕ
H1 = T · ϕ∈R ∪ T· ϕ∈R .
sinh ϕ sinh ϕ
Fall 4: r+ = r0 = 1 und r− = 0, d.h. β ist positiv semidefinit, aber nicht positiv definit und
β 0. Dann können wir eine Basis b = (b1, b2 ) von R2 so wählen, dass
1 0
MB (β) = .
0 0
Also ist
q −1
β () = {v ∈ R | v = v1 b1 + v2 b2, 1 · v1 + 0 · v2 = }
2 2 2
= {v ∈ R2 | v = v1 b1 + v2 b2, v12 = }
q −1
β () = {v ∈ R | v = v1 b1 + v2 b2, v1 = 0}
2 2
= {v2 · b2 | v2 ∈ R}.
7.2. Quadriken und Kegelschnitte 363
√
q −1
β () = {v ∈ R | v = v1 b1 + v2 b2, v1 = ± }
2
√ √
= { · b1 + v2 · b2 | v2 ∈ R} ∪ {− · b1 + v2 · b2 | v2 ∈ R}.
q β ()
b2
b1
√ ·b 1
−b1
Fall 5: r− = r0 = 1 und r+ = 0, d.h. β ist negativ semidefinit, aber nicht negativ definit und
β 0. Dieser Fall liefert geometrisch nichts Neues, da er auf Fall 4 zurückgeführt werden kann,
indem man β durch −β ersetzt. Wir erhalten wieder die leere Menge, eine Ursprungsgerade
oder zwei parallele Geraden.
Damit haben wir alle Möglichkeiten für die Werte von r+ , r− und r0 abgehandelt. Wir fassen
die Ergebnisse in einer Tabelle zusammen.
364 7. Bilineare Algebra
r+ r− r0 β q −1
β ()
>0 Ellipse
2 0 0 positiv definit =0 {0}
<0 ∅
0 Hyperbel
1 1 0 indefinit
=0 Geradenkreuz
>0 zwei parallele Geraden
1 0 1 positiv semidefinit =0 Gerade
<0 ∅
0 ∅
0 0 2 =0
=0 R2
Tab. 27 Klassifikation der Quadriken
Die Fälle von negativ definitem β ((r+, r−, r0 ) = (0, 2, 0)) und von negativ semidefinitem
((r+, r−, r0 ) = (0, 1, 1)) haben wir in der Tabelle weggelassen, da sie auf dieselben Ergebnisse
führen wie positiv definites bzw. positiv semidefinites β. Dabei wechselt lediglich das
Vorzeichen.
Von einer Quadrik spricht man nur, wenn q −1 β () tatsächlich eine Kurve ist, d.h. im Fall einer
Ellipse, einer Hyperbel, eines Geradenkreuzes, zweier paralleler Geraden oder einer Geraden.
Dabei werden die Ellipsen und die Hyperbeln auch als nichtausgeartete Quadriken bezeichnet.
Eine Kurvenart, die meist auch den Quadriken zugeordnet wird, fehlt hier noch, nämlich die
Parabeln. Auf die kommen wir gleich zu sprechen.
Den Rest dieses Abschnitts widmen wir den Kegelschnitten. Zur Vorbereitung zeigen wir einen
Satz, der einen Zusammenhang zwischen Bilinearformen und linearen Abbildungen herstellt.
Die Abbildung L ist linear, da β im ersten Argument linear ist. Für den Kern von L berechnen
wir:
ker(L) = {v ∈ V | L(v) = 0}
7.2. Quadriken und Kegelschnitte 365
= {v ∈ V | lv (w) = 0 ∀w ∈ V }
= {v ∈ V | β(v, w) = 0 ∀w ∈ V }
= N(β)
= {0},
da β nicht ausgeartet ist. Also ist L injektiv. Nun ist
dim Hom(V, K) = dim Mat(1 × n, K) = n = dim V .
Nach Korollar 4.20 ist L ein Isomorphismus. Also gibt es zu l ∈ Hom(V, K) genau ein v ∈ V
mit L(v) = l.
Nun betrachten wir für V = R3 das Minkowski-Produkt ·, · aus Beispiel 7.40 und definieren
den Doppelkegel durch
C :={x ∈ R3 | x, x = 0} = {x ∈ R3 | x32 = x12 + x22 }.
x3
C
x2
x1
Die Frage ist nun: Wie sehen die Schnittmengen von C mit affinen Ebenen aus? Sei hierzu
E0 ⊂ R3 ein 2-dimensionaler Untervektorraum und E = E0 +p eine entsprechende affine Ebene,
wobei p ∈ R3 . Um C∩E zu verstehen, müssen wir verschiedene Fälle unterscheiden, je nachdem
von welchem Typus die symmetrische Bilinearform β ist, die wir durch Einschränkung des
Minkowski-Produkts auf E0 × E0 bekommen. Sei also β := ·, ·|E0 ×E0 .
Fall I: β ist nicht ausgeartet, d.h. r0 = 0.
Wir zeigen zunächst folgende Behauptung:
Behauptung: Man kann p ∈ E so wählen, dass x, p = 0 für alle x ∈ E0 .
Beweis. Sei p0 ∈ E zunächst beliebig gewählt. Dann ist die Abbildung
l : E0 → R mit l(x) = x, p0
366 7. Bilineare Algebra
linear. Da β nicht ausgeartet ist, gibt es nach Satz 7.50 ein y ∈ E0 , so dass
l(x) = β(x, y)
für alle x ∈ E0 ist. Daher gilt x, p0 = x, y und somit x, p0 − y = 0 für alle x ∈ E0 .
Wegen p0 ∈ E und y ∈ E0 ist auch p := p0 − y ∈ E.
Sei nun p ∈ E so gewählt, dass x, p = 0 für alle x ∈ E0 ist. Die Punkte aus E schreiben wir
in der Form x + p mit x ∈ E0 . Nun ist x + p ∈ C genau dann, wenn
0 = x + p, x + p = x, x + 2 x, p +p, p = q β (x) + p, p ,
()*+
=0
C ∩ E = q −1
β (−p, p) + p.
(1) E = E0 ;
(2) p = 0;
v, v = t 2 p, p + 2t p, x + x, x = t 2 p, p + β(x, x) ≥ 0.
()*+ ()*+ ()*+
≥0 >0 ≥0
Dann wäre das Minkowski-Produkt positiv semidefinit, ist es aber nicht. Somit muss p, p ≤ 0
gelten.
Fall IA/1: E = E0 .
Dann ist p = 0 und C ∩ E = q −1 −1
β (0) + 0 = q β (0) = {0}, also ein Punkt.
7.2. Quadriken und Kegelschnitte 367
Fall IA/2: E E0 .
Dann ist p, p < 0 und somit q −1
β (−p, p ) eine Ellipse.
()*+
>0
Fall IB/2: E E0 .
Dann ist p, p 0 und somit q −1
β (−p, p) eine Hyperbel.
würde erhalten, dass für das Minkowski-Produkt r− ≥ 2 gilt. Für das Minkowski-Produkt ist
aber r− = 1.
Fall II: β ist ausgeartet, d.h. r0 ≥ 1.
Fall IIA: β ist negativ semidefinit, d.h. r+ = 0 und r− = r0 = 1 oder r+ = r− = 0 und r0 = 2.
Dieser Fall tritt ebenfalls nicht auf, denn sonst wäre q·,· |E0 ≤ 0, andererseits ist jedoch
q·,· |E1 \{0} > 0, wobei E1 = {(x1, x2, 0) | x1, x2 ∈ R}. Nun ist
dim(E0 ∩ E1 ) = dim(E0 ) + dim(E1 ) − dim(E0 + E1 ) ≥ 1,
()*+ ()*+ ()*+
=2 =2 ≤3
also gäbe es ein v ∈ E0 ∩ E1 mit v 0. Dann wäre einerseits q·,· (v) ≤ 0 und andererseits
q·,· (v) > 0, Widerspruch!
Fall IIB: β ist positiv semidefinit und β 0, d.h. r+ = r0 = 1 und r− = 0.
Nun kann p leider im Allgemeinen nicht mehr so gewählt werden, dass x, p = 0 für alle
x ∈ E0 gilt, denn Satz 7.50 kann ja nicht mehr angewandt werden. Wir können aber dennoch
die Schnittmenge von p + E0 mit C wie gehabt durch
x + p ∈ C ⇔ 0 = x + p, x + p = q β (x) + l(x) + c
beschreiben, wobei l(x) = 2x, p und c = p, p ist.
Fall IIB/1: E = E0 .
Hier können wir p = 0 wählen. Dann ist l = 0 und c = 0 und damit C ∩ E = {x ∈ E0 | q β (x) =
0}. Das ist eine Gerade.
Fall IIB/2: E E0 .
Dann ist p E0 .
Behauptung: ker(l) ∩ N(β) = {0}.
Beweis. Sei x ∈ ker(l) ∩ N(β). Dann ist x, p = 0 und x, y = 0 für alle y ∈ E0 . Nun
spannen E0 und p ganz R3 auf, also ist x, z = 0 für alle z ∈ R3 . Da das Minkowski-Produkt
nicht ausgeartet ist, folgt x = 0.
Definition 7.51. Sei V ein 2-dimensionaler R-Vektorraum. Sei β eine symmetrische Biline-
arform auf V mit r+ = r0 = 1 und r− = 0. Sei l : V → R linear mit ker(l) ∩ N(β) = {0}. Sei
c ∈ R. Dann nennt man die Menge
{x ∈ V | q β (x) + l(x) + c = 0}
eine Parabel.
7.2. Quadriken und Kegelschnitte 369
Also ist im Fall IIB/2 der Kegelschnitt C ∩ E nach Definition eine Parabel.
Das folgende Lemma besagt, dass man eine Parabel in einer geeigneten Basis durch die
bekannte Parabelgleichung beschreiben kann. Dies rechtfertigt Definition 7.51.
Lemma 7.52. Sei V ein 2-dimensionaler R-Vektorraum und P ⊂ V eine Parabel. Dann gibt
es eine Basis B = (b1, b2 ) und Konstanten a, b, d ∈ R mit a 0, so dass
x2
d
|
−b x1
Beweis. Wähle gemäß Satz 7.34 eine Basis B = (b1, b2 ) so, dass
1 0
MB (β) = .
0 0
Für ν := l(b1 ) und μ := l(b2 ) gilt dann l(x1 b1 + x2 b2 ) = νx1 + μx2 für alle x1, x2 ∈ R. Da
N(β) = R · b2 , bedeutet ker(l) ∩ N(β) = {0} nichts anderes als β 0. Sei nun x = x1 b1 + x2 b2 .
Dann ist x ∈ P genau dann, wenn
ν 2 ν2
0 = q β (x) + l(x) + c = x12 + νx1 + μx2 + c = x1 + − + μx2 + c ,
2 4
370 7. Bilineare Algebra
Satz 7.53 (Kegelschnitte). Sei C ⊂ R3 der Doppelkegel und E ⊂ R3 eine affine Ebene
und E0 der zugehörige 2-dimensionale Untervektorraum. Dann gibt es genau die folgenden
Möglichkeiten:
r+ r− r0 β E C∩E
= E0 Punkt
2 0 0 positiv definit
E0 Ellipse
= E0 Geradenkreuz
1 1 0 indefinit
E0 Hyperbel
= E0 Gerade
1 0 1 positiv semidefinit
E0 Parabel
Tab. 28 Kegelschnitte
Hier können Sie die verschiedenen Typen von Kegelschnitten in einer inter-
aktiven 3D-Grafik erkunden:
http://ueben.cbaer.eu/Q06.html
Definition 7.54. Sei V ein R-Vektorraum. Eine positiv definite symmetrische Bilinearform
·, · nennt man ein euklidisches Skalarprodukt oder auch einfach ein Skalarprodukt
auf V . Das Paar (V, ·, ·) heißt dann euklidischer Vektorraum.
Beispiel 7.55. Neben dem (Standard-)Skalarprodukt auf dem Rn kennen wir bereits auch
ein Skalarprodukt auf einem unendlich-dimensionalen Vektorraum. Wir betrachten V =
7.3. Euklidische Vektorräume 371
∫b
β( f , g) = f (x)g(x) dx.
a
Bleibt zu überlegen, dass diese Bilinearform positiv definit ist. Für jedes f ∈ V gilt
∫b
β( f , f ) = f (x)2 dx ≥ 0.
a
Also ist die Bilinearform β schon mal positiv semidefinit. Wenn β( f , f ) = 0 ist, dann ist f 2
eine stetige, nichtnegative Funktion, die Integral 0 hat. Also muss f 2 identisch 0 sein und damit
auch f . Für alle f 0 gilt daher β( f , f ) > 0, d.h. β ist positiv definit.
Definition 7.56. Sei (V, ·, ·) ein euklidischer Vektorraum. Für x ∈ V heißt dann
x := x, x = q·,· (x)
Proposition 7.57 (Eigenschaften der Norm). Sei (V, ·, ·) ein euklidischer Vektorraum mit
zugehöriger Norm · . Dann gilt für alle x ∈ V und alle α ∈ R:
(i) x ≥ 0 .
(ii) x = 0 ⇔ x = 0.
Satz 7.58 (Cauchy-Schwarz-Ungleichung). Sei (V, ·, ·) ein euklidischer Vektorraum.
Dann gilt für alle x, y ∈ V:
|x, y| ≤ x · y.
Die Gleichheit gilt genau dann, wenn x und y linear abhängig sind.
In Satz 2.76 hatten wir die Cauchy-Schwarz-Ungleichung schon im Spezialfall des Standard-
skalarprodukts auf R2 bewiesen. Dabei hatten wir allerdings von der konkreten Definition
Gebrauch gemacht und mit den Komponenten der beteiligten Vektoren gerechnet. Das ist jetzt
nicht mehr möglich. Wir müssen nun einen Beweis finden, der lediglich benutzt, dass ·, · eine
positiv definite symmetrische Bilinearform ist.
Beweis von Satz 7.58. a) Ist x = 0 oder y = 0, so gilt die Aussage trivialerweise. Daher nehmen
wir von nun ab an, dass x 0 und y 0.
b) Ist x = y = 1, so gilt
0 ≤ x + y, x + y
= x, x + x, y + y, x + y, y
= x 2 + 2x, y + y 2
= 2 + 2x, y
und somit
−x, y ≤ 1.
Genauso sieht man
0 ≤ x − y, x − y = 2 − 2x, y
und daher
x, y ≤ 1.
Also ist
|x, y| ≤ 1 = x · y.
c) Seien nun x und y mit x 0, y 0 beliebig. Dann ist
! ! ! !
! x ! ! !
! ! = 1 und ! y ! = 1,
! x ! ! y !
x y
so dass wir Beweisteil b) auf x und y anwenden können. Es folgt
5 6
x y 1 1
1≥ , = · · |x, y|
x y x y
und daher
|x, y| ≤ x · y.
7.3. Euklidische Vektorräume 373
Also ist xx − yy = 0 und daher x = xy · y. Also sind x und y linear abhängig.
2. Fall: Es gilt −x, y = x · y.
Dann gilt −x, y = − x · y. Nach dem ersten Fall sind also −x und y linear abhängig und
somit auch x und y.
Korollar 7.59 (Dreiecksungleichung). Sei (V, ·, ·) ein euklidischer Vektorraum mit zuge-
höriger Norm · . Dann gilt für alle x ∈ V und alle α ∈ R:
x + y ≤ x + y.
Beweis. Der Beweis ist derselbe wie der von Korollar 2.77, aber der Bequemlichkeit halber
führen wir ihn an dieser Stelle nochmal an. Für alle x, y ∈ V gilt wegen der Cauchy-Schwarz-
Ungleichung:
x + y 2 = x 2 + 2 x, y + y 2 ≤ x 2 + 2 x y + y 2 = ( x + y)2 .
Definition 7.60. Sei (V, ·, ·) ein euklidischer Vektorraum. Für alle x, y ∈ V \ {0} heißt die
Zahl $ %
x, y
(x, y) := arccos ∈ [0, π]
x · y
der Innenwinkel von x und y.
Wir beachten, dass die Definition nur sinnvoll ist, weil die Cauchy-Schwarz-Ungleichung gilt,
denn dadurch ist sichergestellt, dass das Argument des Arkuskosinus in [−1, 1] liegt.
Wie in R2 sagen wir im Fall (x, y) = π2 , d.h. im Fall x, y = 0, dass x und y aufeinander
senkrecht stehen. In diesem Fall schreiben wir x ⊥ y.
∫π
Beispiel 7.61. Sei V = C 0 ([0, π], R) und f , g = 0
f (x)g(x) dx. Wir berechnen
∫π
1 π
sin, cos = sin(x) cos(x) dx = sin(x)2 x=0 = 0 − 0 = 0.
2
0
Beispiel 7.63. Die Einheitsmatrix 1n hat die Einträge δi j . Hierbei ist I = {1, . . . , n}.
Bemerkung 7.64. Der Satz von Sylvester besagt für endlich-dimensionale euklidische Vek-
torräume V: Es gibt eine geordnete Basis B = (b1, . . ., bn ) von V , so dass
MB (·, ·) = 1n,
d.h. bi, b j = δi j für alle i, j = 1, . . . n. Die Basisvektoren stehen also alle aufeinander
senkrecht und haben Norm 1.
Definition 7.65. Eine solche Basis heißt Orthonormalbasis von V. Allgemeiner heißt ein
Tupel (v1, . . . , vk ) von Vektoren aus V ein Orthonormalsystem, wenn für alle i und j gilt:
vi, v j = δi j .
7.3. Euklidische Vektorräume 375
Beispiel 7.66. Die Standardbasis (e1, . . ., en ) von Rn ist eine Orthonormalbasis bzgl. des eu-
klidischen Standardskalarprodukts ·, ·, gegeben durch x, y = nj=1 x j y j .
Wann immer wir eine Basis haben, können wir jeden Vektor des Vektorraumes eindeutig als
Linearkombination der Basisvektoren schreiben. Im Falle einer Orthonormalbasis lassen sich
die dabei auftretenden Koeffizienten leicht mit Hilfe des Skalarprodukts angeben.
Lemma 7.68. Sei V ein euklidischer Vektorraum und B = (b1, . . ., bn ) eine Orthonormal-
basis von V. Dann gilt für alle v ∈ V:
n
v= v, bi · bi .
i=1
n
Beweis. Seien αi ∈ R die Koeffizienten, für die v = αi bi gilt. Dann folgt für jedes j:
i=1
5
n 6 n
v, b j = αi bi, b j = αi bi, b j = α j .
i=1 i=1
Also gilt:
n
v= v, bi bi .
i=1
Definition 7.69. Sei V ein euklidischer Vektorraum und U ⊂ V ein Untervektorraum. Dann
heißt
U ⊥ := {v ∈ V | v ⊥ u ∀ u ∈ U}
orthogonales Komplement von U.
376 7. Bilineare Algebra
(ii) V = U ⊕ U ⊥ .
Beweis. Zu (i):
Sicherlich ist 0 ∈ U ⊥ , da 0 auf alle Vektoren senkrecht steht. Seien v1, v2 ∈ U ⊥ und α1, α2 ∈ R.
Dann gilt für alle u ∈ U:
Also ist α1 v1 + α2 v2 ∈ U ⊥ .
Zu (ii):
Zunächst zeigen wir V = U + U ⊥ . Sei B = (b1, . . . , br ) eine Orthonormalbasis von U. Sei
r
v ∈ V. Wir setzen u := v, bi bi ∈ U und w := v − u. Dann gilt v = u + w und es bleibt
i=1
w ∈ U ⊥ zu zeigen, d.h. w, x = 0 für alle x ∈ U.
r
Sei also x ∈ U beliebig. Wir schreiben x = αi bi . Dann ist
i=1
5
r 6
w, x = v − u, αi bi
i=1
5
r
r 6
= v− v, b j b j , αi bi
j=1 i=1
5 r 6 5
r
r 6
= v, αi bi − v, b j b j , αi bi
i=1 j=1 i=1
r
r
= αi v, bi − αi v, b j b j , bi
i=1 i, j=1 ()*+
=δi j
r
r
= αi v, bi − αi v, bi
i=1 i=1
= 0.
W W
U U
W = U⊥ W U⊥
Abb. 118 Orthogonales Komplement
n
r
n
v= v, b j b j = v, b j b j + v, b j b j .
j=1 j=1 j=r+1
()*+ ()*+
∈U ∈U ⊥
Also ist
r
PU (v) = v, b j b j .
j=1
k
vk+1 − vk+1, b j b j
vk+1 − PL(b1,...,bk ) (vk+1 ) j=1
b k+1 := = .
vk+1 − PL(b1,...,bk ) (vk+1 )
k
vk+1 − vk+1, b j b j
j=1
378 7. Bilineare Algebra
Zunächst einmal bemerken wir, dass wir getrost durch die Norm teilen dürfen. Wegen der
linearen Unabhängigkeit von (v1, . . . , vn ) ist nämlich vk+1 L(v1, . . ., vk ) = L(b1, . . . , b k ) und
daher vk+1 − PL(b1,...,bk ) (vk+1 ) 0.
Da wir durch die Norm geteilt haben, hat b k+1 die Norm 1. Außerdem ist vk+1 −PL(b1,...,bk ) (vk+1 )
nach Definition der Orthogonalprojektion aus L(b1, . . ., b k )⊥ . Daher bildet (b1, . . ., b k+1 ) eben-
falls ein Orthonormalsystem.
Ferner ist nach Definition b k+1 ∈ L(b1, . . ., b k , vk+1 ) = L(v1, . . ., vk, vk+1 ) und somit
L(b1, . . . , b k+1 ) ⊂ L(v1, . . . , vk+1 ). Wegen Lemma 7.67 ist (b1, . . ., b k+1 ) linear unabhängig.
Also haben sowohl L(b1, . . ., b k+1 ) als auch L(v1, . . ., vk+1 ) die Dimension k + 1 und stimmen
daher überein,
L(b1, . . ., b k+1 ) = L(v1, . . ., vk+1 ).
Beispiel 7.74. Sei V = R2 [x] = { f ∈ R[x] | deg( f ) ≤ 2}. Dann ist dim(V) = 3 und (v1, v2, v3 )
ist eine Basis von V , wobei v1 = 1, v2 = x und v3 = x 2 . Als euklidisches Skalarprodukt nehmen
∫1
wir f , g = f (x)g(x) dx.
0
v1
∫1
1. Schritt: b1 := v1 = 1
1 = 1, denn 1 2 = 1, 1 = 12 dx = 1.
0
2. Schritt:
$ %
v2 − v2, b1 b1 x − 12 √ 1 √
b2 := = =2 3 x− = 3(2x − 1),
v2 − v2, b1 b1 x − 2
1 2
∫1
denn v2, b1 = x · 1 dx = 1
2 und
0
! !2 ∫1 $ %2 ∫1 $ %
! 1 !! 1 1
!x − = x− dx = x −x+
2
dx
! 2! 2 4
0 0
x 3 x 2 x 1 1 1 1 1
= − + = − + =
3 2 4 x=0 3 2 4 12
und daher x − 12 = 1
√ .
2 3
v3 −v3,b1 b1 −v3,b2 b2
3. Schritt: b3 := v3 −v3,b1 b1 −v3,b2 b2 . Wir berechnen
∫1
1
v3, b1 = x 2 · 1 dx = ,
3
0
∫1 $ % √
√ ∫
1
√ √ x 4 x 3 1 3
v3, b2 = x · 3(2x − 1) dx = 3 · (2x − x ) dx = 3
2 3 2
− = .
2
3 x=0 6
0 0
7.4. Adjungierte Abbildungen und selbstadjungierte Endomorphismen 379
Also ist
√
1 3√ 1 1 1
v3 − v3, b1 b1 − v3, b2 b2 = x 2 − ·1− 3(2x − 1) = x 2 − − x + = x 2 − x + .
3 6 3 2 6
Ferner gilt
! ! ∫1 $ %2
! 2 1 !!2 1
!x − x + = x 2
− x + dx
! 6! 6
0
∫1 $ %
x2 1 1
= x − 2x +
4 3
− x+x +
2
dx
3 3 36
0
1 1 1 1 1 1
= − + − + +
5 2 9 6 3 36
1
=
180
und somit $ %
x2 − x + 1
6
√ 1
b3 = = 180 x − x +
2
.
1 6
180
Die orthonormalisierte Basis lautet also
$ $ %%
√ √ 1
1, 3(2x − 1), 180 x 2 − x + .
6
Lemma 7.75. Seien (V, ·, ·V ) und (W, ·, ·W ) endlich-dimensionale euklidische Vektorräu-
me und sei ϕ : V → W linear. Dann gibt es genau eine Abbildung ψ : W → V, so dass
= α1 ϕ(v), w1 W + α2 ϕ(v), w2 W
= α1 v, ψ(w1 )V + α2 v, ψ(w2 )V
= v, α1 ψ(w1 ) + α2 ψ(w2 )V .
Definition 7.76. Man schreibt für die Abbildung aus Lemma 7.75
ϕ : W → V
Proposition 7.77. Seien (V, ·, ·V ) und (W, ·, ·W ) endlich-dimensionale euklidische Vek-
torräume mit Orthonormalbasen B bzw. B. Sei ϕ : V → W linear. Dann gilt:
MBB (ϕ ) = MBB (ϕ) .
Beweis. Sei B = (b1, . . ., bn ) und B = (b1, . . ., bm ). Einerseits gilt für die darstellende Matrix
MBB (ϕ) immer
m
ϕ(b j ) = MBB (ϕ)i j · bi .
i=1
Für Orthonormalbasen gilt wegen Lemma 7.68 andererseits
m
; <
ϕ(b j ) = ϕ(b j ), bi W
· bi .
i=1
Es folgt
; < ; < ; <
MBB (ϕ ) ji = ϕ (bi ), b j V = b j, ϕ (bi ) V = ϕ(b j ), bi W = MBB (ϕ)i j .
Wir erinnern uns daran, dass eine Matrix A ∈ Mat(n, R) symmetrisch heißt, falls A = A.
Beweis. Nach Proposition 7.77 ist MB (ϕ ) = MB (ϕ) . Also ist ϕ = ϕ genau dann, wenn
MB (ϕ) = MB (ϕ).
Satz 7.80. Sei V ein endlich-dimensionaler euklidischer Vektorraum. Ist ϕ ∈ End(V ) selbst-
adjungiert, so besitzt V eine Orthonormalbasis bzgl. derer die darstellende Matrix von ϕ
eine Diagonalmatrix (mit reellen Diagonaleinträgen) ist.
Insbesondere ist ϕ diagonalisierbar.
Beweis. Wir führen eine vollständige Induktion nach der Dimension n von V. Für n = 1 ist
nichts zu zeigen. Damit ist der Induktionsanfang vollzogen.
Induktionsschritt: Sei n ≥ 2.
Zwischenbehauptung: ϕ hat einen reellen Eigenwert.
Beweis der Zwischenbehauptung: Wählen wir zunächst irgendeine Orthonormalbasis B von
V , dann ist die darstellende Matrix A := MB (ϕ) nach Korollar 7.79 symmetrisch. Da ϕ und A
dieselben Eigenwerte haben, müssen wir nun zeigen, dass die Matrix A einen reellen Eigenwert
hat. Jede komplexe Matrix, und damit auch A, hat wenigstens einen komplexen Eigenwert λ.
Wir zeigen, dass λ in unserem Fall, bei einer symmetrischen reellen Matrix, reell sein muss.
Sei z ∈ Cn \ {0} ein Eigenvektor von A zum Eigenwert λ. Wir schreiben z = v + iw mit
v, w ∈ Rn . Es gilt also
Wenn wir die Gleichung A · (v + iw) = λ · (v + iw) komplex konjugieren, erhalten wir, da A
reell ist, A · (v − iw) = λ̄ · (v − iw). Es folgt, da A symmetrisch ist,
(v − iw) · A · (v + iw) = (v − iw) · A · (v + iw) = (A · (v − iw)) · (v + iw)
= (λ̄(v − iw)) · (v + iw) = λ̄(v − iw) · (v + iw) = λ̄(v 2 + w 2 ).
(7.4)
Vergleichen wir (7.3) und (7.4), so erhalten wir λ = λ̄, d.h. λ ∈ R.
Nun können wir die Induktion zu Ende führen. Sei v1 ein Eigenvektor zum reellen Eigenwert
λ von ϕ mit v1 = 1. Dann ist das orthogonale Komplement von v1 ein ϕ-invarianter
Untervektorraum, denn ist v ⊥ v1 , so gilt
ϕ(v), v1 = v, ϕ(v1 ) = v, λv1 = λv, v1 = 0,
also ϕ(v) ⊥ v1 . Nach Induktionsannahme können wir daher eine Orthonormalbasis (v2, . . ., vn )
von (R · v1 )⊥ finden, die aus Eigenvektoren von ϕ|(R·v1 )⊥ besteht. Dann ist (v1, v2, . . ., vn ) eine
solche Orthonormalbasis aus Eigenvektoren für ϕ.
In Aufgabe 7.22 wird ein alternativer, analytischer Beweis der Zwischenbehauptung im obigen
Beweis vorgestellt.
Definition 7.81. Ein Endomorphismus ϕ ∈ End(V) heißt orthogonal, falls für alle v, w ∈ V
gilt:
ϕ(v), ϕ(w) = v, w.
Lemma 7.82. Seien ϕ, ψ ∈ End(V ) orthogonale Endomorphismen. Dann gilt für alle v, w ∈
V:
(i) ϕ(v) = v.
(ii) v ⊥ w ⇒ ϕ(v) ⊥ ϕ(w).
(iii) Falls v 0, w 0 ist, so gilt (ϕ(v), ϕ(w)) = (v, w) (orthogonale Endomorphismen
sind winkeltreu).
(iv) ϕ ist ein Isomorphismus und ϕ−1 ist ebenfalls orthogonal.
(v) ϕ ◦ ψ ist orthogonal.
(vi) Ist λ ∈ R ein Eigenwert von ϕ, so ist λ = ±1.
7.5. Orthogonale Endomorphismen 383
Da ϕ = id offenbar orthogonal ist, sagen uns (iv) und (v), dass die Menge der orthogonalen
Endomorphismen eine Untergruppe von Aut(V ) ist.
Beweis von Lemma 7.82. Aussage (i) folgt direkt aus der Definition mit v = w.
Aussage (ii) ist klar, denn v ⊥ w bedeutet v, w = 0. Also ist dann ϕ(v), ϕ(w) = 0, d.h.
ϕ(v) ⊥ ϕ(w).
Aussage (iii) folgt aus der Definition und aus (i):
$ %
ϕ(v), ϕ(w)
(ϕ(v), ϕ(w)) = arccos
ϕ(v) · ϕ(w)
$ %
(i) v, w
= arccos
v · w
= (v, w).
Zu (iv):
(i)
ϕ ist injektiv, denn für v ∈ ker(ϕ) gilt v = ϕ(v) = 0 = 0 und somit v = 0. Da V
endlich-dimensional ist, ist ϕ ein Isomorphismus.
Seien v, w ∈ V. Es gilt
ϕ−1 (v), ϕ−1 (w) = ϕ(ϕ−1 (v)), ϕ(ϕ−1 (w)) = v, w.
Also ist ϕ−1 ebenfalls orthogonal.
Zu (v):
Es gilt für alle v, w ∈ V :
; < ; <
(ϕ ◦ ψ)(v), (ϕ ◦ ψ)(w) = ϕ(ψ(v)), ϕ(ψ(w)) = ψ(v), ψ(w) = v, w.
Also ist ϕ ◦ ψ ebenfalls orthogonal.
Zu (vi):
Sei λ ein Eigenwert von ϕ und v 0 ein zugehöriger Eigenvektor. Dann gilt:
v = ϕ(v) = λv = |λ| · v.
Also ist |λ| = 1.
384 7. Bilineare Algebra
ϕ ◦ ϕ = id.
Beweis. Nach Definition ist ϕ genau dann orthogonal, wenn für alle v, w ∈ V gilt:
Da das Skalarprodukt nicht ausgeartet ist, ist das äquivalent zu ϕ (ϕ(v)) = v für alle v ∈ V,
d.h. zu ϕ ◦ ϕ = id.
Dabei folgt det(ϕ ) = det(ϕ) aus Proposition 7.77 und der Tatsache, dass sich die Determinante
einer Matrix durch Transponieren nicht ändert.
Lemma 7.84 sagt uns auch, wie man der darstellenden Matrix eines Endomorphismus ansieht,
ob er orthogonal ist. Ein Endomorphismus ϕ von V ist genau dann orthogonal, wenn für die
darstellende Matrix A bzgl. einer (oder äquivalent, jeder) Orthonormalbasis gilt:
A · A = 1 n .
Definition 7.86. Eine Matrix A ∈ Mat(n, R) heißt orthogonal, falls A · A = 1n . Hat die
Matrix A zusätzlich positive Determinante, so heißt sie speziell-orthogonal. Wir schreiben:
Wir haben gesehen: Ist B eine Orthonormalbasis, so ist ϕ ∈ O(V ) genau dann, wenn MB (ϕ) ∈
O(n) ist. Analoges gilt, wenn wir O durch SO ersetzen.
7.5. Orthogonale Endomorphismen 385
(3) Die Spalten von A bilden eine Orthonormalbasis von Rn bezüglich des Standardskalar-
produktes.
(4) Die Transponierten der Zeilen von A bilden eine Orthonormalbasis von Rn bezüglich
des Standardskalarproduktes.
Zu „(1) ⇔ (2) “:
Sei A orthogonal. Dann gilt A · A = 1n . Also ist A−1 = A . Wir schließen (A ) · A =
A · A = A · A−1 = 1n . Also ist auch A orthogonal.
Ist umgekehrt A orthogonal, dann folgt nach dem eben bewiesenen, dass auch A = (A )
orthogonal ist.
Zu „(1) ⇔ (4)“:
(1) ⇔ (3)
Wir haben folgende Äquivalenzen: A ist orthogonal ⇔ A ist orthogonal ⇐⇒ Die Spal-
tenvektoren von A bilden eine Orthonormalbasis von Rn ⇔ Die Transponierten der Zeilen-
vektoren von A bilden eine Orthonormalbasis von Rn .
Beispiel 7.89. In Dimension n = 2 haben wir die orthogonalen Matrizen bereits ausführlich
untersucht. Nach den Ergebnissen aus Abschnitt 5.3 sind die speziell-orthogonalen Endo-
morphismen genau die Drehungen (um den Ursprung) und bei den orthogonalen kommen
noch Spiegelungen (an Achsen, die durch den Ursprung gehen) hinzu:
SO(2) = {Rθ | θ ∈ R} und O(2) = SO(2) ∪ {Sθ | θ ∈ R}.
Lemma 7.90. Ist ϕ ∈ O(V) und ist W ⊂ V ein ϕ-invarianter Untervektorraum, dann ist W ⊥
ebenfalls ein ϕ-invarianter Untervektorraum.
Beweis. Sei W ein ϕ-invarianter Untervektorraum. Dann ist ϕ(W) ⊂ W. Da ϕ ein Isomorphis-
mus ist und W endliche Dimension hat, gilt ϕ(W) = W.
Sei nun v ∈ W ⊥ . Zu zeigen ist, dass ϕ(v) ∈ W ⊥ . Das bedeutet, ϕ(v), w = 0 für alle w ∈ W.
Sei also w ∈ W beliebig. Setze w := ϕ−1 (w). Wegen ϕ(W) = W ist w ∈ W. Nun ist
Also ist ψ selbstadjungiert. Nach Satz 7.80 gibt es dann eine Orthonormalbasis B = (b1, . . ., bn )
von V mit ψ(b j ) = λ j b j mit λ j ∈ R.
b) Setze W := span{b1, ϕ(b1 )}. Dann ist W eindimensional oder zweidimensional, je nachdem
ob ϕ(b1 ) ein Vielfaches von b1 ist oder nicht. Bleibt noch zu zeigen, dass W ϕ-invariant ist.
Wegen
ϕ(μb1 + νϕ(b1 )) = μϕ(b1 ) +νϕ2 (b1 )
()*+
∈W
Beweis. Wir führen den Beweis durch vollständige Induktion nach n = dim(V ). Für n = 1 oder
n = 2 ist nichts zu zeigen. Sei n ≥ 3.
Nach Lemma 7.91 besitzt V einen ϕ-invarianten Untervektorraum W1 der Dimension 1 oder 2.
Wegen Lemma 7.90 ist W1⊥ ebenfalls ϕ-invariant. Die Induktionsannahme für ϕ|W1⊥ : W1⊥ →
W1⊥ liefert eine orthogonale Zerlegung W1⊥ = W2 ⊕ . . . ⊕ Wm in ein- oder zweidimensionale
ϕ-invariante Untervektorräume. Dann haben wir mit V = W1 ⊕ W1⊥ = W1 ⊕ W2 ⊕ . . . ⊕ Wm die
gewünschte Zerlegung gefunden.
Satz 7.93. Sei V ein endlich-dimensionaler euklidischer Vektorraum. Ist ϕ ∈ O(V), so gibt
es eine Orthonormalbasis B von V bzgl. derer die darstellende Matrix von ϕ die Blockdia-
gonalform
1
..
.
1
−1
..
MB (ϕ) = .
−1
R
θ1
. ..
Rθ k
hat, wobei θ j ∈ R.
Beweis. Gemäß Korollar 7.92 zerlegen wir V in ϕ-invariante Untervektorräume der Dimension
1 oder 2, V = W1 ⊕ . . . ⊕ Wm . Für jede Basis von V, die aus Basen dieser Untervektorräume
zusammengesetzt ist, hat dann die darstellende Matrix dann Blockdiagonalform mit 1 × 1- und
2 × 2-Blöcken auf der Diagonale.
Wie wir in Beispiel 7.88 gesehen haben, müssen die 1×1-Blöcke eine 1 oder eine −1 enthalten.
Die 2 × 2-Blöcke enthalten nach Beispiel 7.89 entweder Drehmatrizen der Form Rθ oder
Spiegelungsmatrizen der Form Sθ .
Spiegelungsmatrizen sind nach Beispiel 4.47 diagonalisierbar mit einem Eigenwert 1 und einem
Eigenwert −1. Der zugehörige Untervektorraum W j lässt sich also in zwei eindimensionale
ϕ-invariante Untervektorräume zerlegen, die zu einer 1 und einer −1 auf der Diagonale führen.
Indem man die Reihenfolge der Summanden in der Zerlegung von V notfalls ändert, kann man
erreichen, dass die Blöcke in der angegebenen Reihenfolge auftreten, also zunächst die Einsen,
388 7. Bilineare Algebra
Umgekehrt erfüllen natürlich alle Matrizen der Form wie in Satz 7.93 die Bedingung A A = 1n ,
sind also Elemente von O(n).
b1
b2
θ
b3
Wir setzen
1 0 0 cos(θ) 0 − sin(θ)
R1 (θ) := 0 cos(θ) − sin(θ) und R2 (θ) := 0 1 0 .
0 sin(θ) cos(θ) sin(θ) 0 cos(θ)
7.5. Orthogonale Endomorphismen 389
Der folgende Satz besagt, dass jede orientierungserhaltende orthogonale Abbildung im R3 aus
diesen Drehungen um die e1 -Achse und um die e2 -Achse zusammengesetzt werden kann.
Beweis. Die Inklusion „⊃“ ist klar, denn R1 (α), R2 (β), R1 (γ) ∈ SO(3).
Zur Inklusion „⊂“: Sei A ∈ SO(3). Wir schreiben A = (a1, a2, a3 ). Wir drehen den ersten
Spaltenvektor a1 um die e1 -Achse so, dass er in der e1 -e3 -Ebene zu liegen kommt. In anderen
∗
Worten, wir wählen den Drehwinkel α ∈ R so, dass R1 (−α) · a1 von der Form R1 (−α) · a1 = 0
∗
∗ ∗ ∗
ist. Dann ist also R1 (−α) · A = 0 ∗ ∗ und somit
∗ ∗ ∗
∗ 0 ∗
∗ ∗ ∗ = R1 (−α) · A = A · R1 (−α) = A · R1 (α) =: (b1, b2, b3 ).
∗ ∗ ∗
Der zweite neue Spaltenvektor b2 ist ein Einheitsvektor (da die Spalten der Matrix eine
Orthonormalbasis bilden) und liegt in der e2 -e3 -Ebene. Er kann daher so um die e1 -Achse
gedreht werden, dass er auf e2 abgebildet wird. In anderen Worten, wir können den Drehwinkel
γ so wählen, dass R1 (γ)b2 = e2 . Dann ist
∗ 0 ∗
R1 (γ) · A · R1 (α) = ∗ 1 ∗ =: (c1, c2, c3 ).
∗ 0 ∗
∗
Da c1 ⊥ c2 = e2 gilt, muss c1 von der Form c1 = 0 sein; Gleiches gilt für c3 . Somit ergibt
∗
sich
∗ 0 ∗
R1 (γ) · A · R1 (α) = 0 1 0 .
∗ 0 ∗
Nun bildet (c1, c3 ) eine Orthonormalbasis der e1 -e3 -Ebene. Wir wählen β ∈ R so, dass
390 7. Bilineare Algebra
R2 (β)c1 = e1 . Dann muss R2 (β)c3 = ±e3 sein. Damit ist schon mal
1 0 0
R2 (β) · R1 (γ) · A · R1 (α) = 0 1 0 .
0 0 ±1
Da diese Matrix aus SO(3) ist und daher positive Determinante haben muss, gilt tatsächlich
1 0 0
R2 (β) · R1 (γ) · A · R1 (α) = 0 1 0 .
0 0 1
Es folgt
A−1 = A = R1 (γ)−1 · R2 (β)−1 · R1 (α)−1
und somit
A = R1 (α) · R2 (β) · R1 (γ).
Definition 7.96. Die Zahlen α, β, γ heißen Euler’sche Winkel von A = R1 (α)R2 (β)R1 (γ).
Bemerkung 7.97. Im Allgemeinen sind die Euler’schen Winkel nicht eindeutig durch A be-
stimmt. Im Fall β = 0 zum Beispiel können wir α und γ folgendermaßen abändern ohne die
Matrix zu ändern:
Korollar 7.98. Sei A ∈ O(n). Dann existiert ein T ∈ O(n), so dass T −1 · A · T die Blockdia-
gonalform wie in Satz 7.93 hat.
Beweis. Die Matrix A ist darstellende Matrix eines orthogonalen Endomorphismus bzgl.
der Standardbasis. Nach Satz 7.93 gibt es eine Orthonormalbasis von Rn , bzgl. derer die
darstellende die gewünschte Form hat. Die Transformationsmatrix T liegt wegen Lemma 7.87
in O(n).
7.6. Unitäre Vektorräume und Endomorphismen 391
Korollar 7.99. Sei A ∈ GL(n, R) symmetrisch. Dann existiert ein T ∈ O(n), so dass T −1 · A·T
eine Diagonalmatrix ist. Insbesondere ist A diagonalisierbar.
h :V ×V → C
heißt Sesquilinearform, falls für alle α, β ∈ C und für alle v, v1, v2, w, w1, w2 ∈ V gilt:
h(v, w) = h(w, v) .
Eine hermitesche Sequilinearform heißt positiv definit, falls für alle v ∈ V \ {0} gilt:
h(v, v) > 0 .
Insbesondere muss h(v, v) stets reell sein. Eine Sesquilinearform h ist zwar C-linear im zweiten
Argument, nicht aber im ersten, da hier Skalare konjugiert komplex vorgezogen werden. Man
sagt dann auch, dass h C-antilinear im ersten Argument ist.
n
h(v, w) = v̄i · wi
i=1
392 7. Bilineare Algebra
n
n
h(v, v) = v̄i · vi = |vi | 2 > 0 .
i=1 i=1
Somit ist h positiv definit. Man bezeichnet dieses h als die Standard-Sesquilinearform auf Cn .
Wie im euklidischen Fall können wir wegen der positiven Definitheit durch
v := h(v, v)
∫2π
h( f , g) = f (t) · g(t) dt .
0
Wie in Beispiel 7.55 sieht man, dass hierdurch ein hermitesches Skalarprodukt auf dem
unendlich-dimensionalen komplexen Vektorraum C 0 ([0, 2π], C) gegeben ist.
Unitäre Vektorräume haben ganz analoge Eigenschaften wie die euklidischen Vektorräume. In
der Tat brauchen wir das nicht nochmals neu zu beweisen, sondern werden den unitären Fall
auf den euklidischen zurückführen.
Jeden komplexen Vektorraum V können wir auch als reellen Vektorraum auffassen, indem
wir die Multiplikation von Skalaren mit Vektoren C × V → V einfach auf R × V → V
einschränken. Wollen wir verdeutlichen, dass wir V als reellen Vektorraum betrachten, d.h. nur
noch reelle Skalare zulassen, dann schreiben wir statt V auch VR . Man nennt dann VR auch die
Reellifizierung von V . Man beachte, dass V und VR als Mengen übereinstimmen.
Lemma 7.104. Sei (V, h) ein unitärer Vektorraum. Dann wird durch
Die R-Lineariät im zweiten Argument sieht man ähnlich. Die Symmetrie folgt aus
für v 0.
Wir nennen ·, · das von dem hermiteschen Skalarprodukt h induzierte euklidische Skalar-
produkt von VR .
Nun können wir die Eigenschaften euklidischer Vektorräume auf unitäre Vektorräume über-
tragen.
Proposition 7.105. Sei (V, h) ein unitärer Vektorraum. Dann gilt für alle v, w ∈ V und
α ∈ C:
(ii) α · v = |α| · v.
(iii) (Cauchy-Schwarz-Ungleichung)
und Gleichheit gilt genau dann, wenn v und w komplex-linear abhängig sind.
(iv) (Dreiecksungleichung)
v + w ≤ v + w.
Beweis. Da die Norm · von h dieselbe ist wie die des induzierten euklidischen Skalarpro-
dukts ·, ·, folgen (i) und (iv) direkt aus Proposition 7.57 (i) und (ii) bzw. aus Korollar 7.59.
394 7. Bilineare Algebra
Bleibt (iii) zu zeigen. Wir schreiben die komplexe Zahl h(v, w) in Euler’scher Darstellung,
h(v, w) = |h(v, w)| · eiϕ , wobei ϕ ∈ R ;das Argument
< ist. Also ist |h(v, w)| = e−iϕ h(v, w) =
h(e v, w) reell und somit h(e v, w) = e v, w . Es folgt unter Benutzung von Satz 7.58 und
iϕ iϕ iϕ
Teilaussage (ii):
; <
|h(v, w)| = eiϕ v, w ≤ eiϕ v · w = |eiϕ | · v · w = v · w .
Gilt Gleichheit, so muss w nach Satz 7.58 ein reelles Vielfaches von eiϕ v sein (oder umgekehrt).
Dann ist w ein komplexes Vielfaches von v (oder umgekehrt). Also sind v und w komplex-linear
abhängig.
Sind umgekehrt v und w komplex-linear abhängig, so rechnet man genau wie im reellen Fall
direkt nach, dass Gleichheit gilt.
Definition 7.106. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum. Eine Basis
B = (b1, . . . , bn ) von V (als komplexer Vektorraum) heißt Orthonormalbasis, falls für alle
j, k = 1, . . ., n gilt
h(b j, b k ) = δ j k .
Allgemeiner heißt ein Tupel (v1, . . . , vm ) von Vektoren aus V ein Orthonormalsystem, wenn
für alle j und k gilt: h(v j, vk ) = δ j k .
∫ 2π
Beispiel 7.107. Sei V = C 0 ([0, 2π], C) und h( f , g) = 0 f¯(t)g(t)dt wie in Beispiel 7.102. Für
j ∈ Z definieren wir
1
f j (t) := √ ei jt .
2π
Dann gilt für j k
∫2π ∫2π $ % 2π
1 −i jt ikt 1 1 ei(k− j)t
h( f j, fk ) = e e dt = e i(k− j)t
dt = =0
2π 2π 2π i(k − j) t=0
0 0
und
∫2π
1
h( f j, f j ) = ei·0·t dt = 1.
2π
0
Also bildet { f j | j ∈ Z} sogar ein unendliches Orthonormalsystem. In Definition 7.106 hatten
wir nur endlich-dimensionale Vektorräume und endliche Orthonormalsysteme zugelassen. Ist
V ein endlich-dimensionaler komplexer Untervektorraum von C 0 ([0, 2π], C), dann ist jedes
Tupel, das f j ’s enthält, die in V liegen, ein Orthonormalsystem im Sinne von Definition 7.106.
Dieses Beispiel ist in der Analysis im Zusammenhang mit Fourier-Reihen wichtig.
7.6. Unitäre Vektorräume und Endomorphismen 395
Definition 7.109. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum. Ein Endomor-
phismus ϕ ∈ End(V) heißt unitär, falls für alle v, w ∈ V gilt:
(iii) Falls v 0, w 0 ist, so gilt (ϕ(v), ϕ(w)) = (v, w) (unitäre Endomorphismen sind
winkeltreu).
(vii) |det(ϕ)| = 1.
Beweis. Aussage (i) erhält man, indem man in (7.5) Realteile nimmt und beachtet, dass C-
lineare Abbildungen insbesondere auch R-linear sind. Damit folgen (ii) und (iii) sofort aus
Lemma 7.82. Aus Lemma 7.82 wissen wir außerdem, dass ϕ bijektiv, d.h. ein Isomorphismus
ist. Dass ϕ−1 wieder unitär ist, folgt indem man (7.5) auf v = ϕ−1 (v ) und w = ϕ−1 (w)
für beliebige v , w ∈ V anwendet. Damit ist (iv) gezeigt. Aussage (v) folgt analog zum
orthogonalen Fall durch zweimaliges Anwenden von (7.5).
396 7. Bilineare Algebra
Sei schließlich λ ∈ C ein Eigenwert von ϕ und v ∈ V \ {0} ein zugehöriger Eigenvektor. Dann
gilt:
h(v, v) = h(ϕ(v), ϕ(v)) = h(λv, λv) = λ̄λh(v, v) = |λ| 2 h(v, v).
Wir dividieren durch die positive Zahl h(v, v) und erhalten |λ| = 1. Dies beweist (vi).
Da über C das charakteristische Polynom stets in Linearfaktoren zerfällt, ist die Determinante
von ϕ das Produkt der Eigenwerte. Also folgt (vii) aus (vi).
Da ϕ = id offenbar unitär ist, sagen uns (iv) und (v), dass die Menge der unitären Endomor-
phismen eine Untergruppe von Aut(V) ist.
Aufgrund des Determinantenmultiplikationssatzes 4.75 ist klar, dass SU(V ) eine Untergruppe
von U(V) ist.
Wie sieht man einer darstellenden Matrix MB (ϕ) von ϕ an, ob ϕ unitär ist?
Wieder müssen wir ϕ bzgl. einer Orthonormalbasis B von V darstellen. Dieselbe Überlegung
wie für orthogonale Abbildungen zeigt:
Ist A = MB (ϕ) die darstellende Matrix von ϕ bzgl. B, so ist ϕ genau dann unitär, wenn x̄ · Ā · A·
y = x̄ · y für alle x, y ∈ Cn gilt. Mit x̄ bzw. Ā ist gemeint, dass alle Einträge konjugiert-komplex
zu nehmen sind. Die Konjugation kommt daher, dass in einem hermiteschen Skalarprodukt
Skalare im ersten Argument konjugiert-komplex vorgezogen werden können.
Das ist äquivalent zu Ā · A = 1n .
Fazit: Ein Endomorphismus ϕ von V ist genau dann unitär, wenn für die darstellende Matrix
A bzgl. einer (oder äquivalent, jeder) Orthonormalbasis gilt:
Ā · A = 1n .
Definition 7.112. Eine Matrix A ∈ Mat(n, C) heißt unitär, falls Ā · A = 1n . Hat die Matrix
A zusätzlich Determinante = 1, so heißt sie speziell-unitär. Wir schreiben:
Es gilt also: Ist B eine Orthonormalbasis, so ist ϕ ∈ U(V) genau dann, wenn MB (ϕ) ∈ U(n) ist.
Analoges gilt, wenn wir U durch SU ersetzen.
Satz 7.114. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum und ϕ ∈ U(V). Dann
existiert eine Orthonormalbasis von V bestehend aus Eigenvektoren von ϕ. Insbesondere ist
ϕ diagonalisierbar.
Beweis. Wir zeigen die Aussage durch vollständige Induktion nach der Dimension n von
V . Für n = 1 sei b1 ∈ V ein beliebiger Vektor in V mit b1 = 1. Dann ist B = (b1 ) eine
Orthonormalbasis von V und da ϕ den Vektor b1 wieder nach V abbildet, also auf ein Vielfaches
von b1 , ist b1 auch ein Eigenvektor von ϕ. Damit ist der Induktionsanfang vollzogen.
Für den Induktionsschritt sei n > 1. Nach dem Fundamentalsatz der Algebra hat das charak-
teristische Polynom von ϕ Nullstellen, d.h. ϕ besitzt Eigenwerte. Sei b1 ein Eigenvektor von
ϕ. Indem wir notfalls durch b1 teilen können wir o.B.d.A. annehmen, dass b1 = 1. Wir
definieren W := (C · b1 )⊥ . Dann ist V = C · b1 ⊕ W und man überprüft leicht, dass W ein
ϕ-invarianter C-Untervektorraum von V ist. Mit ϕ ist auch ϕ|W unitär. Nach Induktionsannah-
me können wir eine Orthonormalbasis (b2, . . . , bn ) von W bestehend aus Eigenvektoren von
ϕ|W finden. Dann ist (b1, b2, . . ., bn ) eine Orthonormalbasis von V aus Eigenvektoren von ϕ.
Dieser Satz zusammen mit Lemma 7.110 (vi) besagt also, dass ein unitärer Endomorphismus
bzgl. einer geeigneten Orthonormalbasis durch eine Diagonalmatrix dargestellt wird, deren
Diagonaleinträge lauter komplexe Zahlen vom Betrag 1 sind. Umgekehrt erfüllen alle solchen
Matrizen natürlich Ā A = 1n , sind also Elemente von U(n).
Befassen wir uns noch kurz mit selbstadjungierten Endomorphismen eines unitären Vektor-
raums.
Lemma 7.115. Sei (V, h) ein unitärer Vektorraum und ϕ ∈ End(V). Sei ·, · das induzierte
euklidische Skalarprodukt auf VR . Dann sind äquivalent:
Es spielt für die Selbstadjungiertheitsbedingung also keine Rolle, ob wir sie bzgl. des hermi-
teschen Skalarprodukts h oder des euklidischen Skalarprodukts ·, · verlangen. Man beachte
398 7. Bilineare Algebra
Sei nun A = MB (ϕ) die darstellende Matrix eines (komplexen) Endomorphismus von V
bzgl. einer (komplexen) Orthonormalbasis B. Setze n := dim(V). Dann ist ϕ genau dann
selbstadjungiert, wenn für alle x, y ∈ Cn gilt x̄ · Ā · y = x̄ · A · y, d.h. genau dann, wenn
A = Ā .
Beweis. Sei λ ∈ C ein Eigenwert von ϕ und v ∈ V \ {0} ein zugehöriger Eigenvektor. Dann
gilt
λ̄h(v, v) = h(λv, v) = h(ϕ(v), v) = h(v, ϕ(v)) = h(v, λv) = λh(v, v) .
Wir dividieren durch die positive Zahl h(v, v) und erhalten λ̄ = λ, d.h. λ ist reell. Seien nun v
und w Eigenvektoren zu den Eigenwerten λ bzw. μ mit λ μ. Dann gilt
λh(v, w) = h(λv, w) = h(ϕ(v), w) = h(v, ϕ(w)) = h(v, μw) = μh(v, w).
Wegen λ μ folgt h(v, w) = 0.
Genau derselbe Beweis wie der von Satz 7.114 zeigt den folgenden Satz:
Satz 7.117. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum und ϕ ∈ End(V)
selbstadjungiert. Dann gibt es eine Orthonormalbasis von V bestehend aus Eigenvektoren
von ϕ. Insbesondere ist ϕ diagonalisierbar. 2
7.7. Schiefsymmetrische Endomorphismen 399
Definition 7.118. Sei (V, ·, ·) ein euklidischer Vektorraum und ϕ ∈ End(V ). Wir nennen ϕ
schiefsymmetrisch oder auch antisymmetrisch, falls für alle v, w ∈ V gilt:
Die Menge aller schiefsymmetrischen Endomorphismen von V bezeichnen wir mit o(V).
Beispiel 7.119. Sei V = R3 versehen mit dem Standardskalarprodukt. Wir fixieren einen
Vektor b ∈ R3 mit b = 1. Den Endomorphismus ϕ ∈ End(R3 ) definieren wir mit Hilfe des
Vektorprodukts:
ϕ(v) := b × v.
Wegen der Linearität des Vektorprodukts im zweiten Argument (Satz 5.47 (iii)) ist ϕ linear,
also ein Endomorphismus von R3 . Zweimalige Anwendung von Satz 5.47 (i) liefert für alle
v, w ∈ R3 :
Bemerkung 7.120. Man sieht sofort, dass o(V ) stets ein Untervektorraum von End(V) ist. So
ist nämlich der Nullendomorphismus sicherlich schiefsymmetrisch und die Bilinearität des
Skalarprodukts stellt sicher, dass mit ϕ1 und ϕ2 auch jede Linearkombination von ϕ1 und ϕ2
wieder schiefsymmetrisch ist.
Es gilt aber noch mehr: Mit ϕ, ψ ∈ o(V ) ist auch der Kommutator
[ϕ, ψ] := ϕ ◦ ψ − ψ ◦ ϕ
Untervektorräume von End(V ), die zusätzlich auch den Kommutator von je zwei ihrer Ele-
ment wieder enthalten, sind in der Mathematik als Liealgebren bekannt. Genauer sind sie
Lieunteralgebren von End(V). Die Menge o(V ) der schiefsymmetrischen Endomorphismen
eines euklidischen Vektorraums ist also eine Liealgebra. Für den Kommutator gilt die Jacobi-
Identität, siehe Aufgabe 7.28.
400 7. Bilineare Algebra
Bemerkung 7.121. Dieselben Überlegungen wie für selbstadjungierte, orthogonale und uni-
täre Endomorphismen zeigen uns auch, wie man der darstellenden Matrix von ϕ ansieht, ob ϕ
schiefsymmetrisch ist. Sei B eine Orthonormalbasis des endlich-dimensionalen euklidischen
Vektorraums V und A = MB (ϕ) die darstellende Matrix des Endomorphismus ϕ ∈ End(V)
bzgl. B, dann ist ϕ genau dann schiefsymmetrisch, wenn
A = −A,
d.h. wenn A schiefsymmetrisch ist. Daher verwendet man für die Menge der schiefsymmetri-
schen Endomorphismen auch die Notation
Beweis. Den Beweis führen wir wieder per vollständiger Induktion nach der Dimension n :=
dim(V).
a) Für den Induktionsanfang sei n = 1. Wir wählen b1 ∈ V mit b1 = 1. Dann ist B = (b1 )
eine Orthonormalbasis von V. Wir berechnen
Also ist ϕ(b1 ), b1 = 0, d.h. ϕ(b1 ) steht senkrecht auf dem Basisvektor b1. Da V eindimensional
ist, folgt ϕ(b1 ) = 0. Jeder Vektor in v ∈ V ist Vielfaches von b1 , also ist ϕ(v) = 0. Der
Endomorphismus ϕ ist also der Nullendomorphismus und hat somit die darstellende Matrix
MB (ϕ) = (0).
7.7. Schiefsymmetrische Endomorphismen 401
Nach Satz 7.80 ist ϕ2 diagonalisierbar (über R), hat also insbesondere reelle Eigenwerte. Sei b
ein Eigenvektor von ϕ2 zum Eigenwert μ ∈ R. O.B.d.A. sei b = 1. Wir unterscheiden zwei
Fälle.
Fall 1: ϕ(b) = 0.
Wir setzen b1 := b. Dann ist insbesondere W := R · b1 ein ϕ-invarianter Untervektorraum und
somit auch W ⊥ . Nach Induktionsvoraussetzung können wir eine Orthonormalbasis (b2, . . . , bn )
von W ⊥ finden bzgl. derer der schiefsymmetrische Endomorphismus ϕ|W ⊥ eine darstellende
Matrix A der gewünschten Form hat. Nun ist B := (b1, b2, . . . , bn ) eine Orthonormalbasis von
V und die darstellende Matrix von ϕ bzgl. B ist gegeben durch
0 0
MB (ϕ) = ,
0 A
Ist n = 2, so ist V = W und wir sind fertig. Ist n > 2, so ist W ⊥ ein (n − 2)-dimensionaler ϕ-
invarianter Untervektorraum. Nach Induktionsvoraussetzung finden wir eine Orthonormalbasis
402 7. Bilineare Algebra
(b1, . . . , bn−2 ) von W ⊥ bzgl. derer der schiefsymmetrische Endomorphismus ϕ|W ⊥ eine darstel-
lende Matrix A der gewünschten Form hat. Nun ist B := (b1, b2, . . . , bn ) eine Orthonormalbasis
von V und die darstellende Matrix von ϕ bzgl. B ist gegeben durch
A 0 0
MB (ϕ) = 0 0 λ ,
0 −λ 0
was auch wieder von der gewünschten Form ist.
Beispiel 7.123. Wie bekommen wir eine solche Orthonormalbasis im Falle des Bei-
spiels 7.119? Zunächst einmal setzen wir b1 := b. Dann gilt ϕ(b1 ) = b × b1 = b × b = 0. Nun
wählen wir einen beliebigen Einheitsvektor b2 aus dem orthogonalen Komplement von R · b.
Mit b3 := b1 × b2 bildet B := (b1, b2, b3 ) eine positiv orientierte Orthonormalbasis von R3 .
Nach Konstruktion gilt ϕ(b2 ) = b1 × b2 = b3 . Weil auch (b1, b3, −b2 ) eine positiv orientierte
Orthonormalbasis ist, gilt ϕ(b3 ) = b1 × b3 = −b2 . Somit gilt für die darstellende Matrix
0 0 0
MB (ϕ) = 0 0 −1 .
0 1 0
Dies ist von der Form wie in Satz 7.122 mit λ = −1. Wir könnten auch B := (b1, b2, −b3 )
nehmen. Dann erhalten wir
0 0 0
MB (ϕ) = 0 0 1 .
0 −1 0
Lemma 7.124. Sei (V, ·, ·) ein endlich-dimensionaler euklidischer Vektorraum. Dann ist
die Abbildung o(V) → {schiefsymmetrische Bilinearformen auf V }, ϕ → ωϕ , bijektiv.
Beweis. Sei B = (b1, . . . , bn ) eine Orthonormalbasis von V. Die darstellende Matrix der
Bilinearform ωϕ bzgl. B hat die Einträge
; <
ωϕ (bi, b j ) = ϕ(bi ), b j .
; <
Die darstellende Matrix des Endomorphismus ϕ bzgl. B hat ebenfalls die Einträge ϕ(bi ), b j ,
denn nach Lemma 7.68 gilt
n
; <
ϕ(bi ) = ϕ(bi ), b j b j .
j=1
{schiefsymmetrische
2
Bilinearformen auf V }
e
ϕ→ωϕeeeeeeeeee
ee
eeeeee ω→ MB (ω)
eeeeeeeeeee ϕ→ M (ϕ)
e B
o(V ) / {A ∈ Mat(n, R) | A = −A}.
Da der horizontale und der vertikale Pfeil bijektiv sind, ist die Abbildung ϕ → ωϕ Verkettung
bijektiver Abbildungen und damit selbst bijektiv.
Bemerkung 7.125. Tatsächlich zeigt der Beweis, dass die Abbildung ϕ → ωϕ sogar ein
Vektorraumisomorphismus ist.
Satz 7.126. Sei V ein endlich-dimensionaler reeller Vektorraum. Sei ω eine schiefsymmetri-
sche Bilinearform auf V. Dann gibt es eine Basis B von V, so dass die darstellende Matrix
von ω bzgl. B folgendermaßen aussieht:
0
..
.
0
MB (ϕ) =
J
..
.
J
hat, wobei
0 −1
J= .
1 0
404 7. Bilineare Algebra
Beweis. Wir wählen ein euklidisches Skalarprodukt ·, · auf V. Das können wir z.B. dadurch
tun, dass wir gemäß Korollar 4.30 einen Isomorphismus Ψ : V → Rn wählen und v, w :=
(Ψ(v)) · Ψ(w) setzen. Sei ϕ ∈ o(V ) gemäß Lemma 7.124 der Endomorphismus mit ω = ωϕ .
Dann gibt es eine Orthonormalbasis B̃ = (b̃1, . . . , b̃n ) bzgl. derer die darstellende Matrix
von ϕ die Form wie in Satz 7.122 hat. Sei 0 ≤ ≤ n die Anzahl der Nullen vor den
Zweierblöcken in dieser darstellenden Matrix. Dann ist ϕ(b̃ j ) = 0 für j = 1, . . ., . Dem j-ten
Zweierblock entspricht das Paar von Basisvektoren b̃+2 j−1 , b̃+2 j mit ϕ(b̃+2 j−1 ) = −λ j b̃+2 j
und ϕ(b̃+2 j ) = λ j b̃+2 j−1 . Wir setzen
⎧
⎪ b̃ , falls k ∈ {1, . . . , };
⎪
⎨ 1k
⎪
b k := −λ j b̃ k , falls k = + 2 j − 1;
⎪
⎪
⎪ b̃ k , falls k = + 2 j.
⎩
In anderen Worten, wir strecken den jeweils ersten Basisvektor zu jedem Zweierblock mit dem
Faktor −λ1 j . Ansonsten bleiben die Basisvektoren unverändert.
Nun bestimmen wir die darstellende Matrix von ω bzgl. B := (b1, . . ., bn ). Für j = 1, . . .,
und beliebiges k = 1, . . ., n gilt
; <
ω(b j , b k ) = ϕ(b̃ j ), b k = 0, b k = 0.
Die ersten Spalten der darstellenden Matrix sind also Nullspalten. Desweiteren gilt
5 $ % 6
1
ω(b2+2 j−1, b k ) = ϕ b̃2+2 j−1 , b k
−λ j
1 ; <
= ϕ(b̃2+2 j−1 ), b k
−λ j
1 ; <
= −λ j b̃2+2 j, b k
−λ j
; <
= b2+2 j, b k
1, falls k = 2 + 2 j,
=
0, sonst.
Dies zeigt, dass die jeweils erste Spalte, die zu jedem Zweierblock gehört, so ist, wie im Satz
behauptet. Für die jeweils zweite Spalte zu den Zweierblöcken überprüft man die Aussage
genauso.
Bemerkung 7.127. Im Beweis haben wir die Basis so gewonnen, dass wir mit einer Ortho-
normalbasis begonnen haben und dann manche Basisvektoren reskaliert haben. Die daraus
entstehende Basis ist dann immer noch eine Orthogonalbasis. Wir können also festhalten: für
jede schiefsymmetrische Bilinearform ω auf einem endlich-dimensionalen euklidischen Vek-
torraum können wir eine Orthogonalbasis finden, bzgl. derer die darstellende Matrix die Form
wie in Satz 7.126 aussieht.
7.9. Aufgaben 405
Eine Bilinearform auf einem endlich-dimensionalen R-Vektorraum ist genau dann nicht aus-
geartet, wenn ihre darstellende Matrix bzgl. einer beliebigen Basis invertierbar ist. In der Form
der darstellenden Matrix aus Satz 7.126 heißt das, dass keine Nullen, sondern nur Zweierblö-
cke auftreten. Das kann aber nur dann der Fall sein, wenn die Größe der darstellenden Matrix
gerade ist. Halten wir dies fest:
Korollar 7.128. Sei V ein ungerade-dimensionaler reeller Vektorraum. Dann ist jede schief-
symmetrische Bilinearform auf V ausgeartet.
7.9. Aufgaben
7.1. Sei β : R3 × R3 → R gegeben durch
b) Bestimmen Sie die darstellende Matrix von β bzgl. der Standardbasis von R3 .
c) Bestimmen Sie die darstellende Matrix von β bzgl. der Basis B = (b1, b2, b2 ), wobei
1
0 0
2
b1 = 2 ,
b2 = 0 ,
b3 = 0 .
0 −1 0
7.5. Sei K ein Körper mit 1 + 1 0. Sei V ein n-dimensionaler K-Vektorraum. Zeigen Sie:
7.6. Sei K = F2 und V = F22 . Zeigen Sie, dass es zur symmetrischen Bilinearform β(v, w) =
v1 w2 + v2 w1 keine diagonalisierende Basis gibt.
7.7. Sei S ∈ Mat(2, R) eine symmetrische Matrix und β(x, y) = x · S · y die zugehörige
symmetrische Bilinearform auf R2 . Zeigen Sie:
a) β ist genau dann positiv oder negativ definit, wenn det(S) > 0.
7.8. Sei V ⊂ C 0 ([0, 1], R) der Untervektorraum der Polynomfunktionen vom Grad ≤ 2. Auf
V betrachten wir die symmetrische Bilinearform
∫1
β( f , g) = f (t)g(t)dt.
0
7.9. Zeigen Sie: H1 ⊂ R2 ist eine Hyperbel genau dann, wenn es ein T ∈ GL(2, R) gibt mit
H1 = T(H). Dabei ist H die Standardhyperbel.
7.10. Sei A ∈ Mat(n, R) und ·, · das Standardskalarprodukt auf Rn . Wir definieren β :
Rn × Rn → R durch
β(x, y) := Ax, Ay .
Zeigen Sie:
a) Für jedes v ∈ V hat P(v) kleinsten Abstand von v unter allen Elementen von U.
b) P(v) ist das einzige Element von U mit minimalem Abstand von v.
7.13. Für eine quadratische Matrix A ∈ Mat(n, K) nennt man die Summe der Diagonaleinträge
die Spur der Matrix,
n
Spur(A) := Aj j .
j=1
7.14. Sei A ∈ Mat(n, C) und seien λ1, . . ., λn die Eigenwerte von A, wobei jeder Eigenwert
entsprechend seiner algebraischen Vielfachheit wiederholt wird. Zeigen Sie:
Spur(A) = λ1 + . . . + λn .
7.16. Wenden Sie bzgl. des Skalarprodukts aus Aufgabe 7.15 das Gram-Schmidt-Verfahren
auf die Basis (b1, b2, b3, b4 ) von Mat(2, R) an, wobei
1 0 1 0 1 0 1 1
b1 = , b2 = , b3 = , b4 = .
0 0 0 1 1 1 1 1
7.17. Sei U ⊂ R3 ein 2-dimensionaler Untervektorraum und sei B = (b1, b2 ) eine Basis von
U. Zeigen Sie, dass b1 × b2 ein Basisvektor für U ⊥ ist (bzgl. des Standardskalarprodukts auf
R3 ).
v + w 2 + v − w 2 = 2(v 2 + w 2 ).
c) Zeigen Sie, dass es kein Skalarprodukt auf Rn gibt, so dass die zugehörige Norm die
Maximumsnorm ist:
xmax = max |xi | .
i=1,...,n
408 7. Bilineare Algebra
7.19. Für v ∈ Rn mit v = 1 sei H(v) ∈ Mat(n, R) die Matrix mit den Einträgen
H(v)i j = δi j − 2vi v j .
Zeigen Sie, dass die Spaltenvektoren von H(v) eine Orthonormalbasis von Rn bilden (bzgl. des
Standardskalarprodukts). Eine Matrix der Form H(v) wird als Householdermatrix bezeichnet.
7.21. Sei V ein euklidischer Vektorraum und seien ϕ, ψ ∈ End(V) selbstadjungiert. Zeigen Sie,
dass ϕ◦ψ genau dann selbstadjungiert ist, wenn ϕ und ψ kommutieren, d.h. wenn ϕ◦ψ = ψ ◦ ϕ.
7.22. In dieser Aufgabe wird ein alternativer, analytischer Beweis der Zwischenbehauptung
im Beweis von Satz 7.80 gegeben. Sei A eine symmetrische reelle Matrix. Wir betrachten die
Funktion q : Rn → R, gegeben durch q(x) = A · x, x. Diese Funktion ist ein quadratisches
Polynom und daher beliebig oft differenzierbar. Da die Einheitssphäre S n−1 = {x ∈ Rn | x =
1} abgeschlossen und beschränkt, also kompakt ist, nimmt q auf S n−1 in einem Punkt x0 ∈ S n−1
das Maximum an.
sin(t)
a) Zeigen Sie: Für alle y ∈ Rn \ {0} mit y ⊥ x0 ist cos(t)x0 + y y ∈ S n−1 für alle t ∈ R.
b) Zeigen Sie: Ist y ⊥ x0 , dann ist auch y ⊥ Ax0 .
sin(t)
Hinweis: Leiten Sie die Funktion t → q cos(t)x0 + y y bei t = 0 ab.
c) Schließen Sie daraus, dass x0 ein Eigenvektor von A zu einem reellen Eigenwert ist.
7.23. Zeigen Sie: Jedes Orthonormalsystem eines unitären Vektorraums ist linear unabhängig
(über C).
7.24. Sei (V, h) ein unitärer Vektorraum und B = (b1, . . ., bn ) eine Orthonormalbasis von V.
Dann gilt für alle v ∈ V :
n
v= h(b j, v) · b j .
j=1
7.25. Sei A ∈ Mat(n, C). Zeigen Sie, dass folgende Aussagen äquivalent sind:
(1) A ist unitär.
(2) Die Spalten von A bilden eine Orthonormalbasis von Cn bzgl. der Standard-
Sesquilinearform.
7.26. Sei B = (b1, . . ., bn ) eine Orthonormalbasis des unitären Vektorraums (V, h). Zeigen
Sie, dass dann B = (b1, ib1, . . . , bn, ibn ) eine Orthonormalbasis des euklidischen Vektorraums
(VR, ·, ·) ist. Hierbei ist ·, · das von h induzierte euklidische Skalarprodukt.
7.9. Aufgaben 409
7.27. Sei (V, h) ein unitärer Vektorraum und U ⊂ V ein komplexer Untervektorraum. Sei ·, ·
das von h induzierte euklidische Skalarprodukt. Sei v ∈ V.
a) Zeigen Sie: h(v, u) = 0 für alle u ∈ U genau dann, wenn v, u = 0 für alle u ∈ U. Für die
Definition des orthogonalen Komplements U ⊥ spielt es also keine Rolle, ob man h oder
·, · verwendet.
c) Zeigen Sie: V = U ⊕ U ⊥ .
d) Zeigen Sie durch ein Beispiel, dass a) falsch wird, wenn U nur ein reeller Untervektorraum
ist.
7.28. Sei V ein Vektorraum und seien A, B, C ∈ End(V ). Zeigen Sie die Jacobi-Identität für
den Kommutator:
[[A, B], C] + [[B, C], A] + [[C, A], B] = 0.
7.29. Sei A ∈ U(n). Zeigen Sie, dass es ein T ∈ U(n) gibt, so dass T −1 ·A·T eine Diagonalmatrix
ist, deren Diagonaleinträge alle Betrag 1 haben.
7.30. Sei A ∈ Mat(n, C) mit Ā = A. Zeigen Sie, dass es ein T ∈ U(n) gibt, so dass T −1 · A · T
eine Diagonalmatrix ist.
a) Zeigen Sie, dass es ein T ∈ O(n) gibt, so dass T −1 · A · T eine Blockdiagonalform wie in
Satz 7.122 hat.
b) Zeigen Sie, dass es ein T ∈ GL(n) gibt, so dass T · A · T eine Blockdiagonalform wie in
Satz 7.126 hat.
A. Anwendungen
Die lineare Algebra hat zahllose Anwenungen innerhalb und außerhalb der Mathematik. Im
Folgenden wollen wir durch einige Beispiele einen ersten Eindruck davon bekommen.
Man kann Matrixrechnung verwenden und dies systematisch zu untersuchen. Wir kodieren
zunächst die wesentlichen Informationen in einem so genannten Graph. Ein Graph besteht
aus zwei Mengen, einer Menge von Knoten (Ecken) und einer Menge von Kanten. Eine Kante
ist dabei eine Verbindung zweier Knoten. Eine genaue Definition von Graphen benötigen wir
hier nicht und verzichten daher darauf.
1Bild basiert auf einer Grafik erstellt mit mapchart.net, Quelle: https://mapchart.net
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_8
412 A. Anwendungen
1 2 3 4
16 5
15 6
14 7
13 8
12 11 10 9
Offenbar kann ein Graph mit vielen Knoten sehr unübersichtlich werden. Mathematisch be-
schreiben wir daher einen Graph mit endlich vielen Knoten durch seine so genannte Adjazenz-
matrix A. Hierzu nummmerieren wir die Knoten durch und setzen
1, falls der i-te und der j-te Knoten durch eine Kante verbunden sind,
Ai j :=
0, sonst.
A.1. Graphentheorie - etwas Kombinatorik 413
0 1 0 0 0 0 1 0 0 0 1 0 0 0 0 0
1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 1
0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0
0 0 1 0 0 0 0 1 1 0 0 0 1 1 0 0
0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 0
1 1 0 0 0 0 0 0 1 1 1 0 0 0 0 1
0 0 0 1 0 0 0 0 1 0 0 0 0 0 1 0
A =
0 0 0 1 1 1 1 1 0 1 0 0 0 1 1 1
0 0 0 0 0 0 1 0 1 0 1 0 0 0 0 0
1 0 0 0 0 0 1 0 0 1 0 1 0 0 0 0
0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0
0 1 0 1 0 0 0 0 0 0 0 0 0 1 0 1
0 0 0 1 0 0 0 0 1 0 0 0 1 0 0 1
0 0 0 0 0 1 0 1 1 0 0 0 0 0 0 0
0 1 0 0 0 0 1 0 1 0 0 0 1 1 0 0
Stets ist A symmetrisch, d.h. für alle i, j gilt Ai j = A ji .
Definition A.1. Ein Weg der Länge m in einem Graphen ist ein (m + 1)-Tupel von Knoten
(k0, . . ., k m ), so dass für alle i ∈ {0, . . ., m − 1} gilt:
Im Bundesländer-Beispiel sind z.B. (1, 2, 7) und (5, 9, 5, 9, 6) Wege der Länge 2 bzw. 4, (1, 2, 3)
hingegen ist kein Weg, da 2 und 3 nicht miteinander verbunden sind (Bayern und Berlin haben
keine gemeinsame Landesgrenze).
Die Lösung der Fragestellung (A.1) ist somit durch die Anzahl der Wege der Länge m = 10
von Knoten 4 nach Knoten 11 bestimmt. Allgemein gilt folgender
Satz A.2. Ist A die Adjazenzmatrix eines endlichen Graphen (mit nummerierten Knoten), so
ist die Anzahl der Wege der Länge m vom i-ten zum j-ten Knoten genau der (i, j)-te Eintrag
der Matrix
Am := A · . . . · A.
()*+
m-mal
414 A. Anwendungen
Beweis. Sei α(i, j, m) die Anzahl der Wege der Länge m vom i-ten zum j-ten Knoten. Wir
zeigen:
1, falls die Knoten i und j verbunden sind,
Ai j = A 1
= α(i, j, 1) =
ij 0, falls die Knoten i und j nicht verbunden sind.
Sei für den Induktionsschritt die Aussage (A.2) für ein m ∈ N gültig. Wir zeigen, dass dann
auch
Am+1 = α(i, j, m + 1)
ij
gilt. Wir fixieren den Startknoten i und den Zielknoten j. Um in m + 1 Schritten nach von
i nach j zu gelangen, müssen wir zunächst in m Schritten von i zu irgendeinem Knoten k
gelangen und dann in einem Schritt von k nach j. Letzteres ist nur dann möglich, wenn k und
j verbunden sind, d.h. wenn Ak j = 1. Es gilt also
α(i, j, m + 1) = α(i, k, m) · Ak j .
k
α(i, j, m + 1) = α(i, k, m) · Ak j
k
IV
= (Am )ik · Ak j
k
= (Am · A)i j
= Am+1 .
ij
A.1. Graphentheorie - etwas Kombinatorik 415
Im Bundesländer-Beispiel multipliziert man die Matrix A mit sich selbst und erhält
3 1 0 0 0 0 2 0 1 2 1 1 1 0 0 2
1 4 0 1 0 0 2 0 2 1 2 0 1 2 0 2
0 0 1 0 0 0 0 1 1 0 0 0 1 1 0 0
0 1 0 5 1 1 1 1 2 1 0 0 1 2 2 3
0 0 0 1 1 1 1 1 0 1 0 0 0 1 1 1
0 0 0 1 1 2 1 2 1 1 0 0 0 1 1 1
2 2 0 1 1 1 6 1 2 2 2 1 2 2 1 2
0 0 1 1 1 2 1 3 2 1 0 0 1 2 1 1
A =
2
1 2 1 2 0 1 2 2 9 1 2 0 3 2 2 2
2 1 0 1 1 1 2 1 1 3 1 1 0 1 1 2
1 2 0 0 0 0 2 0 2 1 4 0 0 0 0 1
1 0 0 0 0 0 1 0 0 1 0 1 0 0 0 0
1 1 1 1 0 0 2 1 3 0 0 0 4 2 0 2
0 2 1 2 1 1 2 2 2 1 0 0 2 4 1 2
0 0 0 2 1 1 1 1 2 1 0 0 0 1 3 1
2 2 0 3 1 1 2 1 2 2 1 0 2 2 1 5
So ist zum Beispiel der 1-1-Eintrag gleich 3, was bedeutet, dass man auf genau 3 Weisen in
zwei Schritten von Land 1 zu sich selbst reisen kann. In der Tat hat Baden-Württemberg genau
3 Nachbarländer. Der 3-14-Eintrag ist gleich 1, denn man kann auf genau eine Weise in zwei
Schritten von Berlin nach Sachsen-Anhalt reisen (nämlich über Brandenburg). Schließlich ist
der 2-5-Eintrag gleich 0, da man nicht in zwei Schritten von Bayern nach Bremen kommt.
Um die Ausgangsfrage zu beantworten, müssen wir die 10-te Potenz von A berechnen. Wenn
man kühlen Kopf bewahrt und dies tut (oder einen Computer tun lässt), so erhält man
416 A. Anwendungen
Also ergibt sich die Anzahl der Wege der Länge 10 von Brandenburg (4) nach Rheinland-Pfalz
(11) zu
A10 = A10 = 191066.
4,11 11,4
Aufgabe:
A.1. Wie viele Möglichkeiten gibt es, in unten abgebildeter Wohnung aus der Küche in das
Mathe-Lern-Zimmer zu kommen und dabei nicht mehr als 8 Türen zu passieren?
A.2. Codierungstheorie 417
Bad Küche
Diele Schlafzimmer
Mathe-Lern-Zimmer
A.2. Codierungstheorie
Bei der Übertragung von Daten treten Übermittlungsfehler auf. Wir werden jetzt sehen, wie
man Daten so codieren kann, dass die Fehler bis zu einem gewissen Grad korrigiert werden
können. Solche Fehlerkorrekturen sind z.B. bei CD-Playern wichtig, da die auf CD gebrannten
Daten nie völlig fehlerfrei sind. Wir werden, wie im digitalen Zeitalter üblich, unsere Daten
im Binärformat vorliegen haben, d.h. als eine Folge von Nullen und Einsen.
Es liegt also nahe, den Primkörper K = F2 zu betrachen und darüber den n-dimensionalen
Vektorraum V = (F2 )n . Die Elemente von V sind Folgen der Länge n von Nullen und Einsen.
Das sind unsere zu übermittelnden Nachrichten.
dH (v, w) := #{ j ∈ {1, 2, . . ., n} | v j w j }
heißt Hamming-Abstand1.
Ist v die gesendete und w die empfangene Nachricht, dann gibt der Hamming-Abstand an, wie
viele Übertragungsfehler aufgetreten sind.
Beweis. Aussage (iii) folgt aus der Beobachtung: Ist u j w j , so ist u j v j oder w j v j . Die
anderen Aussagen sind trivial.
Die ersten drei Aussagen sind gerade die Axiome eines metrischen Raumes. Der Hamming-
Abstand ist also eine Metrik auf der Menge V.
dH (u, v) ≥ 2Λ + 1.
dH 0 , 1 = 3.
0 1
Also ist C ein 1-fehlerkorrigierender Code.
Der Code C ist die Menge der zugelassenen Wörter, aus denen die Nachrichten bestehen, die
übertragen werden sollen. Ist der Code nun Λ-fehlerkorrigierend für möglichst großes Λ, so
können kleine Fehler bei der Übertragung erkannt und korrigiert werden.
Es ist also gut, einen Λ-fehlerkorrigierenden Code mit möglichst großem Λ zu haben. Treten
bei der Übermittlung einer Nachricht höchstens Λ viele Fehler auf, dann kann die gesendete
Nachricht rekonstruiert werden.
Es gibt aber zwei Probleme: Zum einen muss der Code festgelegt und abgespeichert werden.
Große Codes brauchen viel Speicherplatz. Zum anderen erfordert die Decodierung viele Ver-
gleiche der empfangenen Nachricht mit den Elementen aus C und ist daher rechenaufwändig.
Um die Situation zu verbessern benutzen wir lineare Algebra.
Definition A.8. Ein Λ-fehlerkorrigierender Code C ⊂ (F2 )n heißt linear, falls C zusätzlich
ein Untervektorraum ist.
Warum ist es vorteilhaft, wenn C linear ist? Dann können wir C durch Angabe einer
Basis festlegen und brauchen nicht alle Elemente abzuspeichern. Hat C die Dimension
k, dann besteht jede Basis aus genau k Vektoren, aber C ist gemäß Korollar 4.30 iso-
morph zu (F2 )k und hat somit genau 2 k Elemente. So macht es z.B. für k = 100 einen
gewaltigen Unterschied, ob man nur die 100 Basisvektoren abspeichern muss oder alle
2100 = 1.267.650.600.228.229.401.496.703.205.376 Elemente.
Nun brauchen wir noch eine effiziente Decodierungsmethode. Dabei ist folgende allgemeine
Beobachtung nützlich:
Lemma A.9. Sei K ein Körper, V ein n-dimensionaler K-Vektorraum, W ein (n − k)-
dimensionaler K-Vektorraum und C ⊂ V ein k-dimensionaler Untervektorraum. Dann gibt
es eine surjektive lineare Abbildung ϕ : V → W mit ker(ϕ) = C.
Beweis. Ergänze eine geordnete Basis (b1, . . ., b k ) von C zu einer geordneten Basis
(b1, . . ., b k , b k+1, . . . , bn ) von V. Sei (w1, . . . , wn−k ) eine geordnete Basis von W. Wir legen
ϕ durch Vorgabe der Werte auf den Basisvektoren b j eindeutig fest, indem wir setzen
0, falls 1 ≤ j ≤ k,
ϕ(b j ) :=
w j−k , falls k + 1 ≤ j ≤ n.
Die hierdurch definierte lineare Abbildung ϕ : V → W hat als Kern die lineare Hülle von
b1, . . ., b k , also C. Jeder Basisvektor w j von W liegt im Bild von ϕ, damit auch alle Linear-
kombinationen dieser Basisvektoren, d.h. alle Vektoren in W. Somit ist ϕ surjektiv.
Sei von jetzt an C ⊂ (F2 )n stets ein linearer Λ-fehlerkorrigierender Code mit dim C = k.
Gemäß Lemma A.9 wählen wir eine surjektive lineare Abbildung ϕ : (F2 )n → (F2 )n−k mit
ker(ϕ) = C. Die darstellende Matrix M(ϕ) ∈ M((n − k) × n, F2 ) heißt Kontrollmatrix des
Codes.
420 A. Anwendungen
1 0 0 1 1 0 1
A := 0 1 0 1 0 1 1 .
0 0 1 0 1 1 1
Da die ersten drei Spaltenvektoren linear unabhängig sind, muss der Rang von A gleich 3 sein.
Nach der Dimensionsformel 4.19 hat der Kern C von A die Dimension k = 7 − 3 = 4. Da
die Matrix bereits in Zeilenstufenform vorliegt, können wir den Kern leicht bestimmen. Für
x = (x1, . . . , x7 ) ∈ (F2 )7 gilt
x4 + x5 + x7
x + x + x
4 6 7
⎧
⎪
⎪ x = x5 + x6 + x7 x5 + x6 + x7
⎨ 3
⎪
A · x = 0 ⇐⇒ x2 = x4 + x6 + x7 ⇐⇒ x = x4 .
⎪
⎪
⎪ x1 = x4 + x5 + x7 x5
⎩
x
6
x7
Wir wollen uns überlegen, dass dieser lineare Code C 1-fehlerkorrigierend ist. Das bedeutet,
dass wenn A · x = A · x = 0 und x x gilt, dann müssen sich x und x in wenigstens 3
Komponenten unterscheiden.
Nennen wir die drei ersten Komponenten die „oberen“ Komponenten und die vierte bis letzte
die „unteren“ Komponenten. Unterscheiden sich x und x in wenigstens drei unteren Kompo-
nenten, so ist nichts zu zeigen. Es verbleiben folgende drei Fälle:
a) Die unteren Komponenten von x und x stimmen überein. Dann stimmen auch die oberen
überein, im Widerspruch zu x x . Dieser Fall kann also nicht auftreten.
b) Die Vektoren x und x unterscheiden sich in genau einer unteren Komponente. Diese tritt
in wenigstens zweien der oberen Komponenten auf, die sich dann ebenfalls unterscheiden
müssen. Daher unterscheiden sich x und x in mindestens drei Komponenten.
c) Die Vektoren x und x unterscheiden sich in genau zwei unteren Komponenten. Dann gibt
es eine obere Komponente, in der die beiden unteren Komponenten auftreten, die für x und
x gleich sind. In dieser oberen Komponente unterscheiden sich x und x dann ebenfalls.
In jedem Fall unterscheiden sich x und x in wenigstens drei Komponenten. Also ist A die
Kontrollmatrix eines vierdimensionalen 1-fehlerkorrigierenden Codes.
Nun zurück zum allgemeinen Fall. Nenne y ∈ (F2 )n−k zulässig, falls ein x ∈ ϕ−1 (y) existiert
mit dH (x, 0) ≤ Λ. Es kann höchstens ein solches x geben, denn sind x, x ∈ ϕ−1 (y) mit
dH (x, 0) ≤ Λ und dH (x , 0) ≤ Λ, dann ist x − x ∈ ker(ϕ) = C und
Empfangene Nachricht
v ∈ (F2 )n
Berechne y = ϕ(v)
ja
Setze
w := v − x
für x ∈ ϕ−1 (y)
mit dH (x, 0) ≤ Λ
Wegen ϕ(w) = ϕ(v)−ϕ(x) = y−y = 0 ist w ∈ ker(ϕ) = C. Außerdem ist dH (w, v) = dH (x, 0) ≤
Λ. Nach Lemma A.7 ist w das eindeutige Element in C, das von v den Hamming-Abstand ≤ Λ
hat. Der Empfänger hat also guten Grund anzunehmen, dass w gesendete Nachricht ist.
Man kann x = v − w als den Fehlervektor ansehen, um den die empfangene Nachricht v von der
gesendeten w abweicht. Der Hamming-Abstand dH (x, 0) ist die Anzahl der Abweichungen in
den einzelnen Komponenten von v und w, also die Anzahl der bei der Übertragung entstandenen
Fehler. Ist diese Zahl kleiner als Λ, so kann man w aus v zurückgewinnen, was die Bezeichnung
„Λ-fehlerkorrigierender Code“ erklärt. Die Kontrollabbildung ϕ projiziert den fehlerhaften
Anteil x von v ∈ (F2 )n auf y ∈ (F2 )n−k . Ist dieser fehlerhafte Anteil zu groß, so ist seine
Projektion kein zulässiger Wert. In diesem Fall ist eine Fehlerkorrektur nicht möglich.
Verallgemeinerte Zylinder. Wir betrachten nun Zylinder, wobei wir allerdings gleich allge-
meine Dimensionen zulassen und auch nicht verlangen, dass die „Basisfläche“ eine bestimmte
Gestalt hat, z.B. dass sie eine Kreisscheibe ist.
Definition A.11. Sei X ⊂ Rn−1 , und sei h ≥ 0. Dann heißt die Menge
h Zh (X)
X Rn−1
Satz A.12. Sei voln : Kn → R ein n-dimensionales Volumen. Dann erfüllt die Abbildung
Kn−1 → R,
X → voln (Z1 (X)) ,
die für das (n − 1)-dimensionale Volumen geforderten Eigenschaften 1–4 aus Definition 5.16.
Beweis. Zu Eigenschaft 1:
Für den (n − 1)-dimensionalen Einheitswürfel W n−1 finden wir:
Zu Eigenschaft 2:
Seien X, Y ∈ Kn−1 mit X ⊂ Y. Dann ist offensichtlich Z1 (X) ⊂ Z1 (Y ), so dass gilt:
Zu Eigenschaft 3:
Seien X, Y ∈ Kn−1 . Offensichtlich gilt fïr die verallgemeinerten Zylinder:
Zu Eigenschaft 4:
Sei A ∈ Mat(n − 1, R), sei b ∈ Rn−1 , und sei F : Rn−1 → Rn−1 die affine Abbildung, gegeben
durch F(x) := A · x + b. Definiere  ∈ Mat(n, R) und b̂ ∈ Rn durch
A 0 b
 := , b̂ := .
0 1 0
Sei nun F̂ : R → R die affine Abbildung, gegeben durch F̂(x) := Â · x + b̂. Entwicklung nach
der letzten Spalte oder Zeile zeigt det  = ± det A. Außerdem ist Z1 (F(X)) = F̂(Z1 (X)) und
somit gilt:
voln (Z1 (F(X))) = voln (F̂(Z1 (X))) = | det Â| · voln (Z1 (X)) = | det A| · voln (Z1 (X)) .
Korollar A.13. In allen Beispielen, für die wir das (n − 1)-dimensionale Volumen einer
Menge X ∈ Kn−1 aus den Eigenschaften 1–4 berechnen konnten, erhalten wir
Beispiel A.14. Insbesondere erhalten wir für das dreidimensionale Volumen des Zylinders
Z1 (D(r)) der Höhe 1 über der Kreisscheibe D(r) die Formel:
h=1
Z1 D(r)
D(r)
Abb. 125 Zylinder über der Kreisscheibe
424 A. Anwendungen
Bemerkung A.15. Es gibt eine lineare Abbildung ϕ : Rn → Rn mit Zh (X) = ϕ Z1 (X) ,
1n−1 0
nämlich diejenige mit darstellender Matrix M(ϕ) = . Somit erhalten wir für das
0 h
Volumen des Zylinders über X der Höhe h:
voln (Zh (X)) = voln (ϕ(Z1 (X))) = | det(ϕ)| · voln (Z1 (X)) = h · voln (Z1 (X)) . (A.5)
Ist das (n − 1)-dimensionale Volumen von X ∈ Kn−1 durch die Bedingungen in Definition 5.16
bestimmt, so erhalten wir aus (A.5) und aus der Formel (A.4):
voln (Zh (X)) = h · voln−1 (X) (A.6)
Schiefe Zylinder. Ein Turm ist in der Regel ein verallgemeinerter Zylinder,
z.B. über einer Kreisscheibe oder über einem Rechteck. In Pisa kann man
allerdings sehen, dass so ein Turm auch schon mal schief in die Höhe wächst.
Abb. 126
Daher folgende Definition:
Schiefer Turm
von Pisa2
b1
..
b1
. n . Setze b̂ := .. ∈ Rn−1 . Dann
Definition A.16. Sei X ⊂ Rn−1 , und sei b = ∈ R .
bn−1
b
n−1
h
heißt die Menge
=
Z(X, b) := (X + t · b̂) × {t · h} ⊂ Rn−1 × R = Rn
t∈[0,1]
der schiefe Zylinder über X in Richtung b der Höhe h. Die Zahl h ∈ R heißt die Höhe
von Z(X, b).
Z(X, b) h
X Rn−1
Ein verallgemeinerter Zylinder ist also ein schiefer Zylinder mit Richtungsvektor b = 0 ∈ Rn−1 .
Bemerkung A.17. Es gibt eine lineare Abbildung ϕ : Rn → Rn mit Z(X, b) = ϕ(Zh (X)),
nämlich diejenige mit darstellender Matrix
b1
h
1 ..
n−1 .
M(ϕ) = .
bn−1
h
0···0 1
x1
x1 + h · b1
s
.. ..
. .
M(ϕ) · = .
xn−1 xn−1 + s · bn−1
h
s s
Nach der Substitution t = s/h liefert dies genau die Punkte aus Z(X, b) wie in Definition A.16.
Für das Volumen des schiefen Zylinders Z(X, b) erhalten wir daher:
Schiefe Zylinder haben also dasselbe Volumen wie gerade. Für X ∈ Kn−1 , dessen (n − 1)-
dimensionales Volumen durch die Bedingungen in Definition 5.16 bestimmt ist, so erhalten
wir daher wieder:
voln (Z(X, b)) = h · voln−1 (X) (A.8)
Kegel. Den verallgemeinerten Kegel über einer Basismenge X ⊂ Rn−1 und der Spitze b ∈ Rn
erhalten wir, indem wir alle Punkte aus der Basis mit der Spitze verbinden.
C(X, b) := {t · x + (1 − t) · b | 0 ≤ t ≤ 1, x ∈ X }
C(X, b)
X Rn−1
Bemerkung A.19. Ähnlich wie bei schiefen Zylindern ändert sich auch bei verallgemeinerten
Kegeln das Volumen nicht, wenn man die Spitze verschiebt, solange man die Höhe über der
b1
..
.
Basis dabei nicht verändert. Schreiben wir nämlich b = und betrachten wieder die
bn−1
h
lineare Abbildung ϕ : Rn → Rn mit darstellender Matrix
b1
h
1 ..
n−1 .
M(ϕ) = ,
bn−1
h
0···0 1
dann gilt
1
ϕ|Rn−1 ×{0} = idRn−1 ×{0} und ϕ(en ) = · b.
h
Da det(M(ϕ)) = 1, ist ϕ invertierbar mit ϕ−1 (b) = h · en . Für den Kegel C(X, b) über X mit
Spitze b ist daher ϕ−1 (C(X, b)) = C(X, h · en ). Wir erhalten damit für das Volumen von C(X, b)
die Formel:
voln (C(X, b)) = voln (C(X, h · en ) . (A.9)
Das Volumen von C(X, b) hängt also nur von der letzten Komponente h der Spitze b ab. Wir
bezeichnen h als die Höhe des Kegels C(X, b).
Beispiel A.20. Wir wollen das dreidimensionale Volumen eines Kegels über der Kreisscheibe
D(r) mit Höhe h berechnen. Nach Bemerkung A.19 können wir ohne Beschränkung der
Allgemeinheit b := h · e3 setzen.
A.3. Weitere Volumenberechnungen 427
D(r)
Abb. 129
Um das Volumen von C(D(r), h · e3 ) zu berechnen, approximieren wir den Kegel zunächst
durch m einbeschriebene Zylinder wie in folgender Skizze (für m = 4):
h · e3
←− Z h D( 34 r)
4
D(r)
Die m einbeschriebenen Zylinder haben jeweils die Höhe mh und haben die Radien 1 − mj · r
mit j = 1, . . . m. Da die Vereinigung aller dieser Zylinder in dem Kegel C(X, b) enthalten ist,
und da die einzelnen Zylinder
j h
Z h D( 1 − · r + ( j − 1) · · e3 , j = 1 . . ., m ,
m m m
einander nur in Ebenen schneiden, so erhalten wir für das dreidimensionale Volumen des
Kegels C(D(r), h · e3 ) die folgende untere Abschätzung:
m
= j h
vol3 (C(D(r), h · e3 )) ≥ vol3 Z h D( 1 − · r + ( j − 1) · · e3
m m m
j=1
m j h
= vol3 Z h D( 1 − · r + ( j − 1) · · e3
j=1
m m m
428 A. Anwendungen
m j
= vol3 Z h D( 1 − ·r
j=1
m m
(A.5)
m
h j 2 2
= ·π· 1− ·r
j=1
m m
h m − j 2
m
= · πr 2 ·
m j=1
m
h
m
= · π · r 2
· (m − j)2
m3 j=1
h
m−1
= · π · r 2
· k2 (mit k = m − j)
m3 k=0
h (m − 1) · m · 2m − 1
= · π · r2 ·
m3 6
(1 − 1
m ) · (2 − m1 )
= π · r2 · h · .
6
Im Grenzwert m → ∞ erhalten wir daraus die folgende untere Abschätzung für das drei-
dimensionale Volumen des Kegels C(X, b):
(1 − m1 ) · (2 − m1 ) π · r 2 · h
vol3 (C(D(r), h · e3 )) ≥ lim π · r 2 · h · = . (A.10)
m→∞ 6 3
Nun, da wir eine untere Abschätzung für das dreidimensionale Volumen des Kegels C(X, b)
bereits gewonnen haben, wollen wir auf analoge Weise das Volumen auch nach oben abschät-
zen. Dazu approximieren wir den Kegel C(X, b) durch m umbeschriebene Zylinder wie in
folgender Skizze (für m = 4):
Die m umbeschriebenen Zylinder haben jeweils die Höhe mh und haben die Radien 1 − j−1 m ·r
mit j = 1, . . . m. Da die Vereinigung aller dieser Zylinder in dem Kegel C(X, b) enthalten ist,
A.3. Weitere Volumenberechnungen 429
j − 1 h
Z h D( 1 − · r + ( j − 1) · · e3 , j = 1 . . ., m ,
m m m
einander nur in Ebenen schneiden, so erhalten wir für das dreidimensionale Volumen des
Kegels C(X, b) durch die analoge Rechnung wie oben die folgende obere Abschätzung:
m
= j − 1 h
vol3 (C(X, b)) ≤ vol3 Z h D( 1 − · r + ( j − 1) · · e3
m m m
j=1
m j − 1
= vol3 Z h D( 1 − ·r
j=1
m m
h
m
= 3
· π · r2 · k2 (mit k = m − j + 1)
m k=1
h m · (m + 1) · 2m + 1
= 3
· π · r2 ·
m 6
(1 + m ) · (2 + m1 )
1
= π · r2 · h · .
6
Im Grenzwert m → ∞ erhalten wir daraus die folgende obere Abschätzung für das drei-
dimensionale Volumen des Kegels C(X, b):
(1 + m1 ) · (2 + m1 ) π · r 2 · h
vol3 (C(D(r), h · e3 )) ≤ lim π · r 2 · h · = . (A.11)
m→∞ 6 3
Damit ergibt sich insgesamt
π · r2 · h
vol3 (C(D(r), b)) = (A.12)
3
Bemerkung A.21. In der Approximation des Kegels durch Zylinder haben wir (im Wesentli-
chen) nur die Formel für das dreidimensionale Volumen des Zylinders über einer Kreisscheibe
D(r) benutzt. Für eine beliebige Menge X ∈ K2 , deren Flächeninhalt durch die Bedingungen
aus Definition 5.16 bestimmt ist, können wir ganz analog den Kegel C(X, h · e3 ) durch verall-
gemeinerte Zylinder von innen und von außen approximieren. Wir erhalten daher auf dieselbe
Weise die folgende Formel für das dreidimensionale Volumen des Kegels C(X, h · e3 ) über X:
h · vol2 (X)
vol3 (C(X, h · e3 )) = (A.13)
3
430 A. Anwendungen
C(X, b)
Tetraeder und Oktaeder. Die platonischen Körper sind berühmte Objekte der Geometrie.
Bei ihnen handelt es sich um kompakte konvexe Teilmengen von R3 , die durch regelmäßige
n-Ecke begrenzt werden. Alle Kanten haben dieselbe Länge. Ein platonischer Körper ist uns
schon begegnet, nämlich der Würfel. Er wird durch 6 Quadrate begrenzt. Ein Würfel ist ein
spezielles Parallelepiped; sein dreidimensionales Volumen ist einfach die dritte Potenz der
Seitenlänge.
Wir berechnen nun die Volumina für zwei weitere platonische Körper, nämlich das Tetraeder
und das Oktaeder.
Definition A.22. Das Tetraeder (zu deutsch: Vierflach) ist ein platonischer Körper, der vier
Seiten hat, die jeweils gleichseitige Dreiecke sind.
a a
a
T(a)
a
a a
Wir bezeichnen mit T(a) ⊂ R3 das Tetraeder der Kantenlänge a. Wir wollen das drei-
dimensionale Volumen von T(a) berechnen. Sei Δ ⊂ R2 die Grundfläche und h die Höhe
von T(a). Dann ist T(a) = C(Δ, h · e3 ), sofern wir T(a) so verschieben, dass der Schwerpunkt
des Dreiecks Δ im Nullpunkt 0 ∈ R3 liegt. Aus der Formel (A.13) wissen wir nun, dass das
dreidimensionale Volumen von T(a) gegeben ist durch:
h · vol2 (Δ)
vol3 (T(a)) = . (A.14)
3
Es bleibt also noch die Höhe h und der Flächeninhalt der Grundfläche Δ zu berechnen.
A.3. Weitere Volumenberechnungen 431
a a
h1
a
Abb. 134 Höhe h1 des Basisdreiecks
a
h1 h
h1
Dazu zeichnen wir das Dreieck Δ mit der Höhe h über der Höhe h1 als Grundseite noch
einmal:
h1 h
a
x h1 − x
h1
Abb. 136
h12 = x 2 + h2 (A.17)
432 A. Anwendungen
also √
a2 (A.15) 3 a2 a
x = h1 − = a− √ = √ .
2h1 2 3a 2 3
Setzen wir dies und (A.15) in (A.17) ein, so erhalten wir
3a2 a2 2a2
h2 = h12 − x 2 = − = ,
4 12 3
und somit √
2
h = √ ·a. (A.18)
3
Für das dreidimensionale Volumen des Tetraeders T(a) der Seitenlänge a erhalten wir schließ-
lich die Formel:
√ √ √ √
(A.14) h · vol2 (Δ) (A.16),(A.18) a · 2/ 3 · a · 3/4
2 2 3
vol3 (T(a)) = = = ·a ,
3 3 12
also
√
2 3
vol3 (T(a)) = ·a (A.19)
12
Definition A.23. Das Oktaeder (zu deutsch: Achtflach) ist ein platonischer Körper, der
durch acht gleichseitige Dreiecke begrenzt wird.
a
h
h1
O(a)
Wir bezeichnen mit O(a) das Oktaeder der Kantenlänge a. Die obige Skizze zeigt, dass O(a)
sich in zwei Kegel über einem Quadrat Q mit Seitenlänge a zerlegen läßt. Der Flächeninhalt
von Q ist gegeben durch vol2 (Q) = a2 . Das dreidimensionale Volumen von O(a) ist dann nach
der Formel (A.13) gegeben durch:
2
vol3 (O(a)) = · h · a2 .
3
Es bleibt also noch die Höhe h zu berechnen.
Die Seitenflächen des Oktaeders O(a) sind gleichseitige Dreiecke der Kantenlänge a; wir
bezeichnen deren Höhe mit h1 . Um die Höhe h zu berechnen, zeichnen wir das Dreieck Δ noch
einmal, das den oberen Kegel des Oktaeders O(a) halbiert. Dieses Dreieck ist gleichschenklig
mit Schenkeln der Länge h1 , Höhe h und dritter Seite der Länge a:
h1 h h1
√
Die Höhe h1 der Seitenflächen von O(a) ist nach der Formel (A.18) gegeben durch h1 = 23 · a.
Die Höhe h des Kegels über Q berechnen wir mittels des Satzes von Pythagoras:
a 2 3 2 1 2 1
h = h12 − = ·a − ·a = √ ·a. (A.20)
2 4 4 2
Somit erhalten wir für das dreidimensionale Volumen des Oktaeders schließlich die Formel:
√
2 2 3
vol3 (O(a)) = · h · a =
2
·a ,
3 3
also √
2 3
vol3 (O(a)) = ·a (A.21)
3
Relevanz zu finden, um sie ganz am Anfang der Trefferliste zu platzieren. Wie eine solche
Sortierung nach Wichtigkeit funktioniert, wollen wir in den Grundzügen hier beschreiben.
Dabei haben wir uns an [5] orientiert.
Ausgangspunkt ist die Überlegung, dass eine Webseite umso wichtiger ist, je mehr andere
Webseiten auf sie verweisen. Also könnte man einfach die Anzahl der Webseiten, von denen
eine gegebene Seite verlinkt wurde, als ihre Wichtigkeit definieren und die Suchergebnisse
danach sortieren. Besteht unser Internet also aus n Webseiten, dann wäre die Wichtigkeit der
j-ten Webseite gegeben durch
n
wj = η ji, (A.22)
i=1
wobei η ji = 1 ist, wenn die i-te Webseite auf die j-te verweist, und = 0 falls nicht. Selbstver-
weise wollen wir Selbstreferenzen dabei nicht mitzählen und setzen stets η j j = 0.
Diese Vorgehensweise berücksichtigt allerdings nicht, dass Verweise von wichtigen Webseiten
ein höheres Gewicht haben sollten als die von unwichtigen. Daher ersetzen wir (A.22) durch
die Forderung
n
wj = η ji wi . (A.23)
i=1
Jetzt wird jeder Link von einer anderen Webseite mit der Wichtigkeit dieser verlinkenden
Seite gewichtet. Allerdings können sich auch unwichtige Seiten jetzt immer noch einen großen
Einfluss auf das Ranking dadurch verschaffen, dass sie viele Links auf andere Seiten setzen.
Der Einfluss auf die Anordnung jeder einzelnen Seite ist dann zwar immer noch gering, aber
der Gesamteinfluss auf die Ranking-Prozedur, wenn wir alle Seiten zusammennehmen, ist
ungebührlich groß.
Um das zu verhindern, normieren wir die Koeffizienten η ji so, dass ihre Gesamtsumme stets 1
ergibt. Wir ersetzen also η ji durch
η ji
a ji = n .
k=1 η ki
Hier müssen wir aufpassen, dass wir nicht durch 0 dividieren. Das würde dann passieren, wenn
für ein i gelten würde, dass ηki = 0 ist für alle k. Das bedeutet, dass die i-te Webseite auf
gar keine andere Webseite verweist. Um diese Komplikation zu vermeiden, wollen wir der
Einfachheit halber annehmen, dass unser Internet keine solchen „stummen“ Webseiten enthält.
Nun können wir (A.23) ersetzen durch die Forderung
n
wj = a ji wi . (A.24)
i=1
Wollen wir dies zur Berechnung der Wichtigkeit der Webseiten verwenden, scheint sich die
Katze in den Schwanz zu beißen, da in (A.24) die zu bestimmenden w j auf der rechten
Seite wieder vorkommen. Aber das ist kein Problem. Definieren wir nämlich die Matrix
A ∈ Mat(n, R) durch die Einträge a ji und den Vektor w ∈ Rn mit den Komponenten w j , dann
wird (A.24) zu
w = A · w. (A.25)
A.4. Ranking von Webseiten 435
In anderen Worten, der gesuchte Vektor w ist ein Eigenvektor von A zum Eigenwert 1. Damit
können wir arbeiten.
Unsere Matrix A ist spalten-stochastisch, d.h. alle Einträge liegen im Intervall [0, 1] und die
Summe aller Einträge einer Spalte ergibt stets 1, nj=1 a ji = 1 für jedes i. Solche Matrizen
haben tatsächlich den Eigenwert 1.
Erster Beweis. Da A spalten-stochastisch ist, liefert die Summe aller Einträge einer Zeile
der transponierten Matrix A stets den Wert 1. Daher gilt für den Vektor v = (1, . . ., 1)
offensichtlich A v = v. Somit hat A den Eigenwert 1 und damit nach Bemerkung 6.50 auch
A selbst.
Zweiter Beweis. Da A spalten-stochastisch ist, liefert die Summe aller Einträge einer Spalte
von A − 1 stets den Wert 0. Also summieren sich die Zeilenvektoren von A − 1 zum Nullvektor
und sind daher linear abhängig. Somit hat A − 1 nicht vollen Rang und es ist dim Eig(A, 1) =
dim ker(A-1) ≥ 1.
Dies zeigt, dass (A.24) tatsächlich eine Lösung w 0 besitzt. Es gibt allerdings immer noch
ein Problem. Betrachten wir als Beispiel ein Internet mit 4 Webseiten, in dem die ersten beiden
Seiten aufeinander verweisen und die dritte und vierte sollen ebenfalls aufeinander verweisen.
1 2
3 4
0 1 0 0
1 0
0 0
A= . (A.26)
0 0 0 1
0 0 1 0
In der Matrix
−1 1 0 0
1 −1 0 0
A − 14 = (A.27)
0 0 −1 1
0 0 1 −1
436 A. Anwendungen
sind die ersten beiden Spalten Negative von einander als auch die beiden letzten. Daher hat
die Matrix A − 14 Rang 2 und somit gemäß der Dimensionsformel (Satz 4.19) einen zwei-
dimensionalen Kern. In anderen Worten, die geometrische Vielfachheit des Eigenwertes 1 von
A ist 2. Es gibt also 2 linear unabhängige Eigenvektoren in (A.24) und damit grundsätzlich
verschiedene Rankings. Es ist nicht klar, welchen Eigenvektor w man nun zur Sortierung der
Suchmaschinentreffer nehmen sollte.
Um dieses Problem zu vermeiden, nehmen wir eine letzte Modifikation vor. Ein völlig „demo-
kratisches“ Internet, in dem jede Seite auf jede andere verweist, würde durch die Matrix
n · · ·
1 1
n
.. ..
D = . .
n · · ·
1 1
n
beschrieben, wobei wir ausnahmsweise Selbstverlinkungen erlaubt haben. Wir wählen nun
einen „Demokratiekoeffizienten“ ε ∈ (0, 1) und machen unsere Verlinkungsmatrix etwas de-
mokratischer, in dem wir setzen
B := (1 − ε)A + εD. (A.28)
Auch diese Matrix B ist spalten-stochastisch, wobei nun alle Einträge strikt positiv sind. Das
entscheidende Resultat ist der folgende Satz:
Satz A.25. Sei B ∈ Mat(n, R) eine spalten-stochastische Matrix, deren Einträge positiv sind.
Dann ist Eig(B, 1) eindimensional und jeder Eigenvektor von B zum Eigenwert 1 hat entweder
lauter positive oder lauter negative Komponenten.
Beweis. a) Wir zeigen zunächst, dass jeder Eigenvektor w von B zum Eigenwert 1 lauter nicht-
negative oder lauter nichtpositive Komponenten hat. Dazu machen wir zunächst die allgemeine
Beobachtung, dass die Dreiecksungleichung für Summen reeller Zahlen
n n
xi ≤ |xi |
i=1 i=1
strikt ist, falls in der Summe sowohl positive als auch negative Summanden vorkommen. Die
Eigenvektorgleichung w = Bw besagt, ausgedrückt in Komponenten,
n
wj = b ji wi . (A.29)
i=1
Falls nun sowohl positive als auch negative wi vorkommen, so gilt das auch für die Summanden
in (A.29), da alle b ji positiv sind. Also ist
n n n
|w j | = b ji wi < |b ji wi | = b ji |wi |. (A.30)
i=1 i=1 i=1
A.4. Ranking von Webseiten 437
n
n
n
n
n
n
|w j | < b ji |wi | = b ji |wi | = |wi |,
j=1 j=1 i=1 i=1 j=1 i=1
wobei wir bei der letzten Umformung benutzt haben, dass B spalten-stochastisch ist. Wir haben
einen Widerspruch erhalten; es können nicht sowohl positive als auch negative w j vorkommen.
b) Nun zeigen wir, dass die Komponenten eines Eigenvektors w von B zum Eigenwert 1 alle
strikt positiv oder alle strikt negativ sind. Nach a) können wir, indem wir w notfalls durch −w
ersetzen, annehmen, dass alle wi ≥ 0. Die Summanden auf der rechten Seite von (A.29) sind
dann ebenfalls alle ≥ 0. Da alle b ji > 0 und nicht alle wi = 0 sind, sind unter den Summanden
auch strikt positive. Also ist die Summe positiv, d.h. w j > 0.
c) Dass spalten-stochastische Matrizen den Eigenwert 1 haben, haben wir in Lemma A.24
schon gesehen. Bleibt nur noch zu zeigen, dass die geometrische Vielfachheit nicht größer als
1 ist.
Wir betrachten die Hyperebene H = {x ∈ Rn | x1 +. . .+ xn = 0} ⊂ Rn . Wäre dim Eig(B, 1) ≥ 2,
dann wäre dim(Eig(B, 1) ∩ H) ≥ 1. Es gäbe also Eigenvektoren w von B zum Eigenwert 1 mit
w1 + . . . + wn = 0. Das aber widerspricht der schon bewiesenen Tatsache, dass alle w j > 0
oder alle w j < 0 sind.
Es gibt eine Verallgemeinerung von Satz A.25, die als Frobenius-Perron-Theorem bekannt
ist, hier aber nicht benötigt wird. Satz A.25 liefert genau, was wir brauchen. Wir erhalten
einen Eigenvektor w von B zum Eigenwert 1. Indem wir gegebenenfalls w durch −w ersetzen,
stellen wir sicher, dass alle w j > 0 sind. Dann interpretieren wir w j als die Wichtigkeit der
j-ten Webseite und ordnen unsere Suchtrefferlisten danach. Dieses w ist zwar nur bis auf
Multiplikation mit einer positiven Zahl t > 0 eindeutig festgelegt, aber wenn wir w durch tw
ersetzen, d.h. alle w j durch tw j ersetzen, dann ändert das nichts an der Wichtigkeitsreihenfolge.
ε ε ε
0 1 0 0
4
1 1
4
1
4
1
4
4 1 − 3ε
4 4 4
1 1 1 1 1 1 − 3ε ε ε ε
0 0 0 4 4 .
B = (1 − ε) + ε 41 4 4
1 = ε 4 4
ε
4
ε 3ε
0 0 0 1 4 1 1 4 1 −
4 4 4 4 4 4
ε ε ε
0 0 1 0 4
1 1
4
1
4
1
4 4 4 1− 43ε
4
Hier können wir sofort einen Eigenvektor zum Eigenwert 1 erraten, nämlich w = (1, 1, 1, 1) .
Alle Webseiten sind also gleich wichtig.
Beispiel A.27. Betrachten wir ein Internet bestehend aus 4 Webseiten, die wie folgt verlinkt
sind:
438 A. Anwendungen
1 2
3 4
Dann ist
1
0 0 1 2
1 0 0 0
A = 21 1
2 2 0 12
1
0 2 0 0
und
ε ε
1
0 0 1 2
4
1 1
4
1
4
1
4
4 4 1− 3ε
4
1
2 − ε4
1 0 0 0 1 1 1 1 1 − ε ε ε ε
4 4 4 .
B = (1 − ε) 21 1 + ε 1 4 4
1 = 21 4
ε
4
ε
4
ε
2 2 0 12
4
1
4
1
4 4
2 −
4
1
2 − 4 4
1
2 − ε4
ε ε ε ε
1
0 2 0 0 4
1 1
4
1
4
1
4 4
1
2 − 4 4 4
Man rechnet leicht nach, dass
−ε + 8 ε − 19 ε + 16
3 2
−ε 3 + 4 ε 2 − 7 ε + 8
w= 3
−ε + 6 ε 2 − 15 ε + 14
ε −4ε +3ε +4
3 2
Eigenvektor von B zum Eigenwert 1 ist. Es gilt für alle ε ∈ [0, 1), dass w1 > w3 > w2 > w4 > 0
ist. Die erste Webseite ist also die wichtigste, gefolgt von den Seiten 3, 2 und 4, und das obwohl
mehr Links auf Seite 3 verweisen als auf die erste.
In diesen Beispielen ist das Ranking-Ergebnis unabhängig davon, wie wir den Koeffizienten ε
gewählt haben. Das braucht im Allgemeinen nicht so zu sein. Eine Suchmaschine wird daher
einen Wert für ε festlegen. Dieser wird viel näher bei 0 als bei 1 liegen, da die gleichmacherische
Matrix D das Ergebnis nicht dominieren soll. Google hat in der Anfangszeit, [5] zufolge, mit
einem Wert von ε = 0.15 gearbeitet.
mit konstanten Koeffizienten. Seien zunächst eine Konstante a ∈ C und eine stetige Funktion
f : R → C gegeben. Wir suchen alle stetig differenzierbaren Funktionen y : R → C, die
y# (t) = a · y(t) + f (t) (A.31)
erfüllen. Man nennt (A.31) eine Differentialgleichung, da in ihr sowohl die gesuchte Funktion
als auch ihre Ableitung vorkommt. Genauer handelt es sich bei (A.31) um eine gewöhnli-
che Differentialgleichung erster Ordnung mit konstanten Koeffizienten. Man kann nun leicht
nachrechnen, dass für jede Konstante c ∈ C die Funktion y : R → C gegeben durch
∫t
y(t) = e · e−as f (s)ds + c
at
(A.32)
0
eine Lösung von (A.31) ist. In der Analysis lernt man, dass tatsächlich alle Lösungen von
(A.31) von der Form (A.32) sind. So weit, so gut.
Nun möchten wir Systeme von Differentialgleichungen lösen. Gegeben seien Konstanten ai j ∈ C
und stetige Funktionen fi : R → C und wir suchen alle stetig differenzierbaren Funktionen
yi : R → C, so dass
n
y#1 (t) = a1 j · y j (t) + f1 (t)
j=1
..
.
n
y#n (t) = an j · y j (t) + fn (t) (A.33)
j=1
erfüllt ist. Wir schreiben dies kompakter, indem wir die Matrix A ∈ Mat(n, C) einführen,
deren Einträge die ai j sind, sowie die vektorwertigen Funktionen y : R → Cn , y(t) :=
(y1 (t), . . ., yn (t)) , und f : R → Cn , f (t) := ( f1 (t), . . ., fn (t)) . Dann schreibt sich (A.33)
einfach als
y# (t) = A · y(t) + f (t). (A.34)
Dies sieht fast wieder so aus wie (A.31), nur dass nun die Funktionen y und f vektorwertig
sind und wir eine Koeffizientenmatrix A haben statt eines skalaren Koeffizienten.
Wenn wir Glück haben und A eine obere Dreiecksmatrix ist, dann können wir das Differen-
tialgleichungssystem (A.34) von unten nach oben lösen. Die unterste Gleichung lautet dann
nämlich
y#n = ann yn (t) + fn (t).
Also ist
∫t
yn (t) = e · e−ann s fn (s)ds + cn
ann t
0
für eine Konstante cn ∈ C. Nun schauen wir uns die zweitunterste Gleichung an. Sie lautet
y#n−1 (t) = an−1,n−1 · yn−1 (t) + an−1,n · yn (t) + fn−1 (t).
440 A. Anwendungen
Aber yn haben wir bereits berechnet. Setzen wir f˜n−1 (t) := an−1,n · yn (t) + fn−1 (t), dann lautet
die zweitunterste Gleichung
Also ist
∫t
yn−1 (t) = e
an−1,n−1 t
· e−an−1,n−1 s f˜n−1 (s)ds + cn−1
0
für eine Konstante cn−1 ∈ C. So fahren wir von unten nach oben fort. Allgemein lautet die k-te
Gleichung
y# k (t) = a k k · yk (t) + a k,k+1 · yk+1 (t) + . . . + a kn · yn (t) + fk (t). (A.35)
Die Funktionen yk+1, . . . , yn kennen wir dann schon und setzen daher f˜k (t) := a k,k+1 · yk+1 (t) +
. . . + a kn · yn (t) + fk (t). Aus (A.35) wird
Also ist
∫t
yk (t) = e ak,k t
· e−ak,k s f˜k (s)ds + ck (A.36)
0
für eine Konstante ck ∈ C.
Bei jedem Schritt ist eine Konstante ck zu wählen. Was hat es damit auf sich? Setzen wir t = 0
in (A.36) ein, so erhalten wir
yk (0) = ck .
Durch Vorgabe der Funktionswerte von yk bei t = 0 wird die Lösung des Differentialglei-
chungssystems (A.33) also eindeutig festgelegt.
Was aber tun wir, wenn A keine obere Dreiecksmatrix ist? Da kommt uns die lineare Algebra
zur Hilfe. Gemäß Korollar 6.83 kann jede komplexe n × n-Matrix trigonalisiert werden, d.h.
es gibt eine invertierbare Matrix S ∈ GL(n, C), so dass
B := S AS −1
eine obere Dreicksmatrix ist. Wir multiplizieren nun (A.34) von links mit S und erhalten
Wenn wir also z(t) := Sy(t) und g(t) := S f (t) setzen, dann erhalten wir das Differentialglei-
chungssystem
z#(t) = Bz(t) + g(t),
das wir wie oben beschrieben lösen können. Anschließend lösen wir wieder mittels y(t) =
S −1 z(t) nach y auf und haben die Lösung des ursprünglichen Differentialgleichungssystems
(A.34).
A.5. Differentialgleichungssysteme mit konstanten Koeffizienten 441
Die Gleichung z#1 (t) = 2z1 (t) + z2 (t) + 3z3 (t) = 2z1 (t) + e2t · (2c3 t + c2 + 3c3 ) schließlich liefert
$ ∫t %
−2s 2s
z1 (t) = e ·
2t
e e (2c3 s + c2 + 3c3 )ds + c1 = e2t c3 t 2 + (c2 + 3c3 )t + c1 .
0
Nun machen wir die Substitution rückgängig und lösen nach y auf:
1 0 0 c t 2 + (c2 + 3c3 )t + c1
2t
3
−1
y(t) = S z(t) = −1 1 0 e 2c3 t + c2
1 −1 1 c 3
c3 t 2 + (c2 + 3c3 )t + c1
= e2t −c3 t 2 − (c2 + c3 )t − c1 + c2 .
c3 t + (c2 + c3 )t + c1 − c2 + c3
2
Damit haben wir die allgemeine Lösung des Differentialgleichungssystems (A.37) bestimmt.
B. Was sonst noch interessant ist
B.1. Das griechische Alphabet
In der folgenden Tabelle werden die griechischen Groß- und Kleinbuchstaben aufgelistet
zusammen mit ihrer Aussprache. Mitunter sind bei den Kleinbuchstaben mehrere Varianten
gebräuchlich.
Α α alpha
Β β beta
Γ γ gamma
Δ δ delta
Ε ε, epsilon
Ζ ζ zeta
Η η eta
Θ θ, θ theta
Ι ι jota
Κ κ kappa
Λ λ lambda
Μ μ mü
Ν ν nü
Ξ ξ xi
Ο ο omikron
Π π pi
Ρ ρ rho
Σ σ, ς sigma
Τ τ tau
Υ υ upsilon
Φ φ, φ phi
Χ χ chi
Ψ ψ psi
Ω ω omega
Tab. 29 Die griechischen Buchstaben
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_9
444 B. Was sonst noch interessant ist
Satz B.1 (Fundamentalsatz der Algebra). Ist f ∈ C[x] mit deg( f ) ≥ 1, so besitzt f˜ min-
destens eine Nullstelle.
Beweis des Korollars. Schreibe gemäß Lemma 6.23 (iv) das Polynom in der Form
f = (x − λ1 )r1 · · · (x − λn )rn · g, wobei g̃ keine Nullstellen hat. Nach dem Fundamentalsatz
ist deg(g) ≤ 0, also ist g eine Konstante.
Beweis von Satz B.1. Angenommen, f˜ hätte keine Nullstelle. Wir schreiben f = an x n +. . .+a0
mit n = deg( f ) ≥ 1 und an 0.
a) Behauptung: Die Funktion C → R, z −→ | f˜(z)|, nimmt auf C ihr Minimum an.
Beweis der Behauptung: Wähle R > 0 so groß, dass
|an−1 | |a0 | |an | 2|a0 |
+...+ n ≤ und Rn ≥ .
R R 2 |an |
Dann gilt für alle z mit |z| ≥ R:
| f˜(z)| = |an z n + . . . + a1 z + a0 |
$ %
n a1 a0
= z · an + . . . + n−1 + n
z z
n
a 1 a 0
= |z| an + . . . + n−1 + n
z z
$ %
a a1 a0
≥ |z| |an | −
n n−1
+ . . . + n−1 + n
z z z
$ $ %%
|a n−1 | |a 0 |
≥ |z| n |an | − +...+ n
|z| |z |
$ $ %%
|a n−1 | |a 0|
≥ R |an | −
n
+...+ n
R R
$ %
|a n |
≥ Rn |an | −
2
|a n |
= Rn ≥ |a0 |. (B.1)
2
B.3. Praktische Invertierung von Matrizen 445
Die Scheibe D R (0) = {z ∈ C | |z| ≤ R} ist kompakt und die Funktion | f˜| ist stetig. Nun benutzen
wir die Aussage aus der Analysis, dass stetige Funktionen auf kompakten Mengen stets ihr
Minimum annehmen. Also nimmt | f˜| auf D R (0) ihr Minimum an, d.h. es gibt ein z0 ∈ D R (0),
so dass | f˜(z0 )| ≤ | f˜(z)| für alle z ∈ D R (0) gilt. Insbesondere ist m := | f˜(z0 )| ≤ | f˜(0)| = |a0 |.
Wegen (B.1) gilt m ≤ | f˜(z)| für alle z ∈ C.
b) O.B.d.A. können nehmen wir an, dass z0 = 0, denn ansonsten betrachten wir statt f das
„verschobene“ Polynom g(z) = f (z + z0 ). Mit g̃ hat dann auch f˜ eine Nullstelle.
Nun ist m = | f˜(0)| = |a0 | und (nach Annahme, dass f˜ keine Nullstellen hat) a0 0. Da f˜ und
a0 · f dieselben Nullstellen haben, können wir o.B.d.A. a0 = 1 annehmen.
1 ˜
k|
Schreibe f = an x n + . . . + a k x k + 1 mit a k 0 (1 ≤ k ≤ n). Wegen −|a ak = 1 existiert ein
−|ak |
ϕ ∈ [0, 2π), so dass ak = eiϕ . Für alle z der Form z = reiϕ/k mit r > 0 gilt
| f˜(z)| = |an z n + . . . + a k z k + 1|
≤ |an z n + . . . + a k+1 z k+1 | + |a k z k + 1|
k an n−k a k+1
= |a k z | z +...+ z + | − |a k | · r k + 1|
ak ak
$ %
k an n−k
a k+1
≤ |a k |r r +...+ r + 1 − |a k |r k
a k a
k
1
≤ |a k |r k · + 1 − |a k |r k
2
1
= 1 − |a k |r k
2
<1
= min | f˜| .
erhält man so die Vektoren x1, . . ., xn ∈ K n , für die A · x j = e j gilt. Setzen wir dann die x j als
Spalten zu einer Matrix X = (x1, . . ., xn ) zusammen, dann gilt
A · X = A · (x1, . . ., xn ) = (A · x1, . . ., A · xn ) = (e1, . . ., en ) = 1n .
Also haben wir mit X die zu A inverse Matrix berechnet, X = A−1 . Nun muss man allerdings
den Gauß-Algorithmus nicht für jede Spalte x j von A−1 separat anwenden, sondern kann viel
Rechenarbeit sparen, indem man das gleichzeitig für alle Spalten macht. Dazu stellen wir die
n-fach erweiterte Koeffizientenmatrix (A, e1, . . . , en ) = (A, 1n ) auf und überführen sie durch
elementare Zeilenumformungen in die Form (1n, X). Dann ist X die zu A inverse Matrix.
1 0 1
Beispiel B.3. Wir berechnen die Inverse von A = 1 2 2 ∈ GL(3, R). Im ersten Schritt
2 1 1
ziehen wir die erste Zeile bzw. ihr Doppeltes von der zweiten bzw. dritten ab:
1 0 1 1 0 0 1 0 1 1 0 0
1 2 2 0 1 0 0 2 1 −1 1 0 .
2 1 1 0 0 1 0 1 −1 −2 0 1
1
Nun multiplizieren wir die zweite Zeile mit 2 und ziehen sie anschließend von der dritten ab:
1 0 1 1 0 0 1 0 1 1 0 0 1 0 1 1 0 0
0 2 1 −1 1 0 0 1 1 − 1 1 0 0 1 1 − 1 1 0 .
2 2 2 2 2 2
0 1 −1 −2 0 1 0 1 −1 −2 0 1 0 0 − 3
2 − 3
2 − 1
2 1
Wir multiplizieren die dritte Zeile mit − 23 und ziehen sie anschließend bzw. ihre Hälfte von
der ersten bzw. zweiten ab:
1 0 1 1 0 0 1 0 1 1 0 0 1 0 0 0 − 13 23
0 1 1 − 1 1 0 0 1 1 − 1 1 0 0 1 0 −1 1 1 .
2 2 2 2 2 2 3 3
0 0 −2 −2 −2 1 0 0 1 1 3 −3 − 23
3 3 1 1 2 1
0 0 1 1 3
Damit haben wir die linke Hälfte der erweiterten Koeffizientenmatrix in die Einheitsmatrix
überführt. Die rechte Hälfte ist nun die inverse Matrix,
0 − 13 32
A−1 = −1 13 1 .
3
1
1
3 − 23
Wir verwenden hier immer die Konvention, dass ψ 0 = id für jeden Endomorphismus ψ. In der
Notation von Definition B.4 gilt offensichtlich stets k ≤ γ.
Lemma B.5. Sei ψ : W → W nilpotent und w ∈ W \ {0} habe ψ-Periode k. Dann sind
w, ψ(w), ψ 2 (w), . . ., ψ k−1 (w) linear unabhängig.
Beweis. Sei α0 w + α1 ψ(w) + . . . + αk−1 ψ k−1 (w) = 0. Wir wenden ψ k−1 auf diese Gleichung
an und erhalten
0 = ψ k−1 (0)
= ψ k−1 α0 w + α1 ψ(w) + . . . + αk−1 ψ k−1 (w)
= α0 ψ k−1 (w) + α1 ψ k (w) + . . . + αk−1 ψ 2k−2 (w)
= α0 ψ k−1 (w),
Anwendung von ψ k−2 auf Gleichung (B.2) zeigt dann α1 = 0. Wir fahren induktiv fort und
erhalten schließlich α0 = α1 = . . . = αk−1 = 0.
Bemerkung B.6. Wir setzen Zψ (w) := L w, ψ, (w), . . ., ψ k−1 (w) . Aufgrund von Lemma B.5
ist Zψ (w) ein k-dimensionaler Untervektorraum von W. Wegen ψ k (w) = 0 ist er auch ψ-
invariant. Bezüglich der Basis (ψ k−1 (w), . . ., ψ(w), w) hat ψ| Zψ (w) die Matrixdarstellung
0 1
0 . . .
.
.. (B.3)
.
1
0
Diese Matrix hat lauter Nullen als Einträge bis auf die Einsen auf der ersten Nebendiagonalen.
Als Nächstes zeigen wir, dass es zu Zψ (w) ein ψ-invariantes Komplement gibt, vorausgesetzt
w hat größtmögliche ψ-Periode.
448 B. Was sonst noch interessant ist
W = Zψ (w) ⊕ U.
0 = ψ k (x)
= ψ k−1 α0 w + α1 ψ(w) + . . . + αk−1 ψ k−1 (w) + u
= α0 ψ k−1 (w) + α1 ψ k (w) + . . . + αk−1 ψ 2k−2 (w) + ψ k−1 (u)
= α0 ψ k−1 (w) + ψ k−1 (u) .
()*+ ()*+
∈Zψ (w) ∈U
und somit
α0 = 0 und ψ k−1 (u) = 0.
Wir schließen
ψ(x) = α1 ψ(w) + . . . + αk−1 ψ k−1 (w) + u.
Wir setzen y := x − (α1 w + . . . + αk−1 ψ k−2 (w)). Dann gilt ψ(y) = u ∈ U, aber y Zψ (w) ⊕ U,
denn sonst wäre auch x = y + α1 w + . . . + αk−1 ψ k−2 (w) ∈ Zψ (w) ⊕ U, was nicht der Fall ist.
Wir definieren jetzt U := U ⊕ K · y. Da y U gilt, ist dim(U ) = dim(U) + 1. Da U ψ-invariant
ist und ψ(y) ∈ U ⊂ U gilt, ist U ebenfalls ψ-invariant.
Schließlich gilt Zψ (w) ∩ U = {0}. Sei nämlich w ∈ Zψ (w) ∩ U . Zu zeigen ist w = 0. Wir
schreiben w = û + αy für ein û ∈ U und ein α ∈ K. Im Fall α = 0 ist dann w = û ∈ Zψ (w) ∩ U
B.4. Beweis des Satzes von der Jordan’schen Normalform 449
und damit wegen (B.4) w = 0. Im Fall α 0 wäre y = α1 (w − û) ∈ Zψ (w) ⊕ U, was wir oben
schon ausgeschlossen hatten.
Der Untervektorraum U ist also ebenfalls ψ-invariant und erfüllt (B.4), hat aber höhere
Dimension als U. Dies widerspricht der Maximalität von dim(U) unter all diesen Untervektor-
räumen.
Beweis. Wir führen den Beweis mit vollständiger Induktion über die Dimension von W: Ist
dim(W) = 1, dann wählen wir irgendein w ∈ W \ {0}. Wegen w ∈ Zψ (w) ist dim(Zψ (w)) ≥ 1
und wegen Zψ (w) ⊂ W folgt dann W = Zψ (w).
Ist dim(W) ≥ 2, dann wählen wir ein w1 ∈ W \ {0} mit maximaler ψ-Periode. Nach
dem Zerlegungslemma B.7 gibt es dann einen ψ-invarianten Untervektorraum U ⊂ W mit
W = Zψ (w1 ) ⊕ U. Da dim(U) < dim(W) ist, gibt es nach Induktionsvoraussetzung Vektoren
w2, . . . w ∈ U \ {0} mit U = Zψ (w2 ) ⊕ . . . ⊕ Zψ (w ) und (B.5) folgt.
c1
c2
MBB (ψ) = ..
.
c
hat, wobei die Blöcke c j von der Form wie in (B.3) in Bemerkung B.6 sind.
Beweis. Wir wählen w1, . . ., w ∈ W \ {0} so, dass wir eine Zerlegung wie in (B.5) in Satz B.8
erhalten. Da die Untervektorräume Zψ (w j ) ψ-invariant sind, hat die darstellende Matrix Block-
diagonalgestalt, wenn die Basis B aus Basen dieser Untervektorräume zusammengesetzt wird.
Wählen wir nun noch die Basen der Zψ (w j ) wie in Bemerkung B.6, dann haben die Blöcke
auch die Gestalt wie dort angegeben.
Nun haben wir alle Vorbereitungen beisammen, um den Satz 6.118 von der Jordan’schen
450 B. Was sonst noch interessant ist
Normalform zu beweisen.
Beweis von Satz 6.118. Nach Voraussetzung zerfällt das Minimalpolynom in Linearfaktoren;
wir können also Mϕ (x) = (x −λ1 )γ1 · · · (x −λ k )γk schreiben, wobei λ1, . . . , λ k die paarweise ver-
schiedenen Eigenwerte sind. Satz 6.112 liefert uns die verallgemeinerte Eigenraumzerlegung
von ϕ:
V = ker (ϕ − λ1 · idV )γ1 ⊕ . . . ⊕ ker (ϕ − λ k · idV )γk = W1 ⊕ . . . ⊕ W k ,
wobei wir W j := ker (ϕ − λ j · idV )γ j gesetzt haben. Wir definieren nun auf jedem Hauptraum
W j einen Endomorphismus ψ j durch ψ j := ϕ|W j − λ j · idW j . Da die Haupträume ϕ-invariant
γ
sind, bilden die ψ j tatsächlich W j wieder nach W j ab. Nach Konstruktion gilt ψ j j = 0.
Gemäß Korollar B.9 wählen wir für jedes W j eine Basis B j bezüglich derer
c
j,1
B ..
MBjj (ψ j )
= .
c j, j
wobei jeder Block c j,m so aussieht wie in (B.3). Bezüglich dieser Basis gilt dann
J j,1
B B ..
MBjj (ϕ|W j ) = MBjj (ψ j + λ j idW j ) = .
J j, j
mit
λ 1
j
..
λj .
J j,m = .
. . . 1
λj
Setzen wir diese Basen der W j zu einer von V zusammen, so ist die darstellende Matrix von ϕ
wie in Satz 6.118 behauptet.
(iv) cosh(t) ≥ 1.
Beweis. Die ersten beiden Aussagen rechnet man direkt mit Hilfe der Definition nach. Die
dritte ist klar.
Zu „(iv)“:
Aussage (i) entnehmen wir
cosh(t)2 = 1 + sinh(t)2 ≥ 1
und somit
| cosh(t)| ≥ 1 (B.6)
für alle t ∈ R. Ferner beobachten wir, dass cosh(0) = 1. Gäbe es nun ein t ∈ R mit cosh(t) ≤ −1,
dann gäbe es nach dem Zwischenwertsatz ein t ∈ R zwischen 0 und t mit cosh(t ) = 0 im
Widerspruch zu (B.6). Wir beachten dabei, dass cosh aufgrund seiner Definition eine stetige
Funktion ist, so dass der Zwischenwertsatz angewendet werden kann.
Also ist wegen (B.6) cosh(t) ≥ 1 für alle t ∈ R.
Zu „(v)“:
Wegen sinh(t) = cosh(t) ≥ 1 ist sinh ist streng monoton wachsend, und damit insbesondere
injektiv. Zum einen gilt für t → ∞:
1 t→∞
sinh(t) = ( et − e−t ) −−−−→ ∞
2 ()*+ ()*+
→∞ →0
und daher lim sinh(t) = ∞. Zum anderen sieht man analog lim sinh(t) = −∞. Ist nun s ∈ R
t→∞ t→−∞
gegeben, dann ist sinh(t1 ) > s für hinreichend großes t1 ∈ R und sinh(t2 ) < s für hinreichend
kleines t2 ∈ R. Nach dem Zwischenwertsatz gibt es ein t zwischen t1 und t2 mit sinh(t) = s.
Das zeigt die Surjektivität von sinh.
452 B. Was sonst noch interessant ist
f (t)
f = cosh
3
t
−3 −2 −1 1 2
−1
−2
−3
f = sinh
−4
Abb. 141 Hyperbolischer Sinus und Kosinus
Literaturverzeichnis
[1] Albrecht Beutelspacher, Lineare Algebra. Eine Einführung in die Wissenschaft der Vektoren, Abbildungen
und Matrizen, 8. Auflage, Heidelberg: Springer Spektrum, 2014.
[2] Siegfried Bosch, Lineare Algebra, 5. Auflage, Heidelberg: Springer Spektrum, 2014.
[3] Egbert Brieskorn, Lineare Algebra und analytische Geometrie. I. Noten zu einer Vorlesung mit historischen
Anmerkungen von Erhard Scholz, Braunschweig/Wiesbaden: Vieweg, 1983.
[4] Egbert Brieskorn, Lineare Algebra und analytische Geometrie. II. Noten zu einer Vorlesung mit historischen
Anmerkungen von Erhard Scholz, Braunschweig/Wiesbaden: Vieweg, 1985.
[5] Kurt Bryan und Tanya Leise, The $25,000,000,000 eigenvector: The linear algebra behind Google, SIAM
Rev. 48 (2006), 569–581, DOI 10.1137/050623280.
[6] Gerd Fischer, Lineare Algebra, 17. Auflage, Wiesbaden: Vieweg+Teubner, 2010.
[7] Gerd Fischer, Lernbuch Lineare Algebra und Analytische Geometrie, 3. Auflage, Wiesbaden: Springer
Spektrum, 2017.
[8] Hans Grauert und Hans-Christoph Grunau, Lineare Algebra und Analytische Geometrie, München: Olden-
bourg Verlag, 1999.
[9] Bertram Huppert und Wolfgang Willems, Lineare Algebra, 2. Auflage, Wiesbaden: Vieweg+Teubner, 2010.
[10] Klaus Jänich, Lineare Algebra, 11. Auflage, Berlin: Springer Verlag, 2008.
[11] Hans-Joachim Kowalsky und Gerhard O. Michler, Lineare Algebra, 12. Auflage, Berlin: Walter de Gruyter,
2003.
[12] Jörg Liesen und Volker Mehrmann, Lineare Algebra. Ein Lehrbuch über die Theorie mit Blick auf die Praxis,
2. Auflage, Heidelberg: Springer Spektrum, 2015.
[13] Reiner Staszewski, Karl Strambach und Helmut Völklein, Lineare Algebra, München: Oldenbourg Verlag,
2009.
[14] Hannes Stoppel und Birgit Griese, Übungsbuch zur Linearen Algebra. Aufgaben und Lösungen, 9. Auflage,
Heidelberg: Springer Spektrum, 2017.
[15] Stefan Waldmann, Lineare Algebra I. Die Grundlagen für Studierende der Mathematik und Physik, Heidel-
berg: Springer Spektrum, 2017.
[16] Stefan Waldmann, Lineare Algebra II. Anwendungen und Konzepte für Studierende der Mathematik und
Physik, Heidelberg: Springer Spektrum, 2017.
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6
Index
Symbole ∃, Existenz-Quantor . . . . . . . . . . . . . . . . . . . 3
∈, Element von . . . . . . . . . . . . . . . . . . . . . . 12
·, ·, Skalarprodukt . . . . . . . . . . . . . . . . . 370 , nicht Element von . . . . . . . . . . . . . . . . . 12
+n , Addition modulo n . . . . . . . . . . . . . . 136 E+ (2), Gruppe der
:=, Definition mathematischer Größen . . . 7 orientierungserhaltenden
:⇔, Definition von Aussagen . . . . . . . . . . . 1 euklidischen Bewegungen . . . . 255
#M, Anzahl der Elemente von M . . . . . . 12 E(2), euklidische Bewegungsgruppe . . 255
⇔, Äquivalenz von Aussagen . . . . . . . . . . 1 End(V ), Menge der Endomorphismen
⇒, Implikation . . . . . . . . . . . . . . . . . . . . . . . 5 von V . . . . . . . . . . . . . . . . . . . . . . 182
, isomorph . . . . . . . . . . . . . . . . . . . 139, 152 f | M , Einschränkung . . . . . . . . . . . . . . . . . 33
¬, Verneinung . . . . . . . . . . . . . . . . . . . . . . . . 1 f −1 , Umkehrabbildung . . . . . . . . . . . . . . . 28
⊂, Teilmenge . . . . . . . . . . . . . . . . . . . . . . . . 13 Fn , Primkörper der Charakteristik n . . . 153
⊃, Obermenge . . . . . . . . . . . . . . . . . . . . . . . 13 G× , Menge der invertierbaren Elemente
0, Nullmatrix . . . . . . . . . . . . . . . . . . . . . . . . 54 130
1n , Einheitsmatrix . . . . . . . . . . . . . . . . . . 129 GL(n, R), allgemeine lineare Gruppe . . 132
∀, All-Quantor . . . . . . . . . . . . . . . . . . . . . . . . 3 H, Standardhyperbel . . . . . . . . . . . . . . . . 361
A ∨ B, Disjunktion . . . . . . . . . . . . . . . . . . . . 2 Ha , Höhe eines Dreiecks . . . . . . . . . . . . . 259
A ∧ B, Konjunktion . . . . . . . . . . . . . . . . . . . 2 Hom(V, W), Menge der Homomor-
AΔB, symmetrische Differenz . . . . . . . . 173 phismen von V nach W . . . . . . . 182
Abb(M, N), Menge der Abbildungen von i, imaginäre Einheit . . . . . . . . . . . . . . . . . 101
M nach N . . . . . . . . . . . . . . . . . . . 26 id M , identische Abbildung von M . . . . . . 19
An , alternierende Gruppe . . . . . . . . . . . . 145 im, Bild einer Abbildung . . . . . . . . . . . . . . 20
Aut(V), Menge der Automorphismen im, Bild eines Gruppenhomomorphismus
von V . . . . . . . . . . . . . . . . . . . . . . 182 139
A + v, in Richtung v verschobene Menge A im, Bild eines
235 Vektorraumhomomorphismus 180
C, Doppelkegel . . . . . . . . . . . . . . . . . . . . . 365 Im(z), Imaginärteil von z . . . . . . . . . . . . 102
C, Menge der komplexen Zahlen . . . . . . . 98 J, Drehung um π/2 . . . . . . . . . . . . . . . . . 251
C(X, b), Kegel über X mit Spitze b . . . 425 ker, Kern eines Gruppenhomomorphismus
cosh, hyperbolischer Kosinus . . . . . . . . . 450 139
dH , Hamming-Abstand . . . . . . . . . . . . . . 417 ker, Kern eines
δi j , Kronecker’sches δ-Symbol . . . . . . . 374 Vektorraumhomomorphismus 180
det(A), Determinante einer Matrix . . . . 204 Kr (m), Kreis mit Mittelpunkt m und
det(ϕ), Determinante eines Radius r . . . . . . . . . . . . . . . . . . . . 260
Endomorphismus . . . . . . . . . . . . 222 K · v, von v aufgespannter 1-dim.
dim, Dimension . . . . . . . . . . . . . . . . . . . . . 169 Untervektorraum . . . . . . . . . . . . 159
456 Index
K[x], Menge der Polynome in der R+ , Menge der positiven reellen Zahlen138
Variablen x mit Koeffizienten in K Re(z), Realteil von z . . . . . . . . . . . . . . . . . 102
272 rg, Rang einer linearen Abbildung . . . . 182
Kx, Menge der formalen Potenzreihen r3g, Zeilenrang . . . . . . . . . . . . . . . . . . . . . . 201
in der Variablen x mit ρ± , dritte Einheitswurzeln . . . . . . . . . . . 114
Koeffizienten in K . . . . . . . . . . . 271 Rθ , Drehmatrix . . . . . . . . . . . . . . . . . . . . . 230
L(v1, . . ., vk ), lineare Hülle . . . . . . . . . . . . 56 SO(2), spezielle orthogonale Gruppe in
L(X), lineare Hülle von X . . . . . . . . . . . . 159 Dimension 2 . . . . . . . . . . . . . . . . 250
ln, natürlicher Logarithmus . . . . . . . . . . 139 SO(V), speziell-orthogonale Gruppe von V
M1 × . . . × Mn , kartesisches Produkt . . . 18 383
MBA(ϕ), darstellende Matrix . . . . . . . . . . 187 SO(n), Menge der speziell-orthogonalen
MB (β), darstellende Matrix einer n × n-Matrizen . . . . . . . . . . . . . . 384
Bilinearform . . . . . . . . . . . . . . . . 341 SU(V), speziell-unitäre Gruppe von V . 396
MODn , Restabbildung . . . . . . . . . . . . . . . 136 SU(n), Menge der speziell-unitären
mZ, Menge der durch m teilbaren ganzen n × n-Matrizen . . . . . . . . . . . . . . 396
Zahlen . . . . . . . . . . . . . . . . . . . . . 141 sgn(σ), Signum einer Permutation . . . . 144
Mat(m × n, R), Menge der m × n-Matrizen sinh, hyperbolischer Sinus . . . . . . . . . . . 450
mit Einträgen in einem Ring R 147 Sn , symmetrische Gruppe . . . . . . . . . . . . 132
Mat(m × n, R), Menge der reellen S , Spielgelungsmatrix . . . . . . . . . . . . . . 194
θ
m × n-Matrizen . . . . . . . . . . . . . . 47 , Summe . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Mat(n, K), Menge der n × n-Matrizen mit TAA , Transformationsmatrix . . . . . . . . . . 189
Einträgen in einem Körper K . 204 T(a), Tetraeder der Kantenlänge a . . . . 430
n
M , kartesisches Produkt . . . . . . . . . . . . . 18 Tw , Translation um w . . . . . . . . . . . . . . . . 240
μgeo (λ), geometrische Vielfachheit des U ⊥ ,orthogonales Komplement von U . 375
Eigenwerts λ . . . . . . . . . . . . . . . . 286 U(V ), unitäre Gruppe von V . . . . . . . . . . 396
N, Menge der natürlichen Zahlen . . . . . . 12 U(n), Menge der unitären n × n-Matrizen
N0 , Menge der natürlichen Zahlen inkl. 0 396
12 V W, Isomorphie der Vektorräume V
N(β), Nullraum von β . . . . . . . . . . . . . . . 350 und W . . . . . . . . . . . . . . . . . . . . . . 181
O(2), orthogonale Gruppe von R2 . . . . . 253 (x, y), Innenwinkel . . . . . . . . . . . . . . . . . 374
O(2)− , Menge der Spiegelungsmatrizen252 X , Transponierte . . . . . . . . . . . . . . . . . . . 201
O(V), orthogonale Gruppe von V . . . . . 383 Z, Menge der ganzen Zahlen . . . . . . . . . . 12
O(a), Oktaeder der Kantenlänge a . . . . 433 Z(X, b), schiefer Zylinder über X in
O(n), Menge der orthogonalen Richtung b . . . . . . . . . . . . . . . . . . 424
n × n-Matrizen . . . . . . . . . . . . . . 384 Zh (X), Zylinder über X der Höhe h . . . 422
Ωn , Menge der n-ten Einheitswurzeln . 134 Z/n, Restemenge bei Division durch n 136
P, Potenzmenge . . . . . . . . . . . . . . . . . . . . . 17 o(V ), Menge der schiefsymmetrischen
P , Orthogonalprojektion auf U . . . . . . 377 Endomorphismen . . . . . . . . . . . 399
U
, Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . 37 o(n), Menge der schiefsymmetrischen
Q, Menge der rationalen Zahlen . . . . . . . 14 Matrizen . . . . . . . . . . . . . . . . . . . 400
Q+ , Menge der positiven rationalen Zahlen [ϕ, ψ], Kommutator von ϕ und ψ . . . . . 399
24 ϕ , adjungierte Abbildung . . . . . . . . . . . 380
q β , quadratische Form zu β . . . . . . . . . . 346 ψ-Periode . . . . . . . . . . . . . . . . . . . . . . . . . . 447
R, Menge der reellen Zahlen . . . . . . . . . . 14 v, w, Minkowski-Produkt . . . . . . . . . 355
Index 457
K L