Sie sind auf Seite 1von 468

Christian Bär

Lineare Algebra
und analytische
Geometrie
Lineare Algebra und analytische Geometrie
Christian Bär

Lineare Algebra und


analytische Geometrie
Christian Bär
Institut für Mathematik
Universität Potsdam
Potsdam, Deutschland

ISBN 978-3-658-22619-0 ISBN 978-3-658-22620-6 (eBook)


https://doi.org/10.1007/978-3-658-22620-6

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillier-
te bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Springer Spektrum
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich
vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere
für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verar-
beitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt
auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen-
und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem
Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder
die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler
oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in
veröffentlichten Karten und Institutionsadressen neutral.

Verantwortlich im Verlag: Ulrike Schmickler-Hirzebruch

Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier

Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und
ist ein Teil von Springer Nature.
Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
Vorwort
Die lineare Algebra gehört, neben der Analysis, seit vielen Jahrzehnten zum Standardstoff
des ersten Studienjahrs im Mathematikstudium. Das liegt einfach daran, dass die meisten
Teilgebiete der Mathematik und damit fast alle weiterführenden Vorlesungen auf ihr aufbauen.
Dementsprechend gibt es bereits zahlreiche Lehrbücher zur Thematik; eine kleine Auswahl
ohne jeden Anspruch auf Vollständigkeit findet sich im Literaturverzeichnis. Es stellt sich die
Frage, warum ein weiteres?
Ich habe die zweisemestrige Vorlesung zur linearen Algebra und analytischen Geometrie
häufiger an der Universität Potsdam gehalten und dabei beobachten können, wie sich die Her-
ausforderungen, mit denen die Studienanfängerinnen und -anfänger zu kämpfen haben, im
Laufe der Jahre verändert haben. Der Einstieg in das Mathematikstudium war immer schon
schwierig; er ist für die Studierenden aber nicht einfacher geworden, da aus dem Mathematik-
unterricht der Schule das intellektuelle Durchdringen des Stoffs, etwa in Form von Beweisen,
immer mehr zu verschwinden scheint. Verschärft wird das Problem dadurch, dass man an der
Schule meint, auf eine systematische mengentheoretische Notation verzichten zu können, so
dass mathematische Sachverhalte oft nicht mal mehr präzise formuliert werden (können).
Das alles gilt es zu bedenken, wenn man die Studierenden in eine wissenschaftliche Behand-
lung der Mathematik einführt. Im Laufe der Jahre hat sich so ein Vorlesungsskript entwickelt,
aus dem schließlich dieses Buch hervorgegangen ist. Ich habe dabei versucht, zunächst in
einem Grundlagenkapitel das Basishandswerkszeug für jedwede ernsthafte Beschäftigung mit
Mathematik zu vermitteln: präzises Formulieren, mengentheoretische Notation und mathema-
tische Beweise. Dieser Abschnitt soll in keiner Weise einer Vorlesung über Mengenlehre oder
mathematische Logik Konkurrenz machen, sondern lediglich das erforderliche mathematische
Grundhandwerkszeug bereitstellen.
Wirklich los geht es dann im zweiten Kapitel mit der Untersuchung linearer Gleichungssysteme.
Diese und der Gauß-Algorithmus zu ihrer Lösung treten in so vielen Anwendungen der Ma-
thematik auf wie wenige andere Konzepte der Mathematik. Während das zweite Kapitel noch
sehr konkret ist, wird es im dritten abstrakter, wenn z.B. allgemeine Körper und Vektorräume
eingeführt werden. Mathematiknovizen haben oft zunächst Schwierigkeiten im Umgang mit
abstrakten Konzepten. Lässt man sich aber darauf ein, stellt man rasch fest, dass Abstraktion die
Dinge auf das Wesentliche reduziert und dadurch übersichtlicher macht. Außerdem verringert
sie erheblich die mathematische Arbeit, weil man viele Untersuchungen einmal im allgemeinen
abstrakten Fall machen kann und sie dann nicht mehr in jedem Beispiel aufs Neue vornehmen
muss. Wenn das kein Argument ist!
Im ganzen Text habe ich mich um eine enge Verzahnung von Algebra und Geometrie bemüht.
Zum einen können algebraische Methoden sehr einfache Beweise für geometrische Sätze
liefern, die bei einer rein geometrischen Betrachtung sehr viel mühsamer zu erhalten wären.
Zum anderen liefert die Geometrie wichtige Anschauung für algebraische Konzepte.
vi

Ferner habe ich versucht, die Wichtigkeit der linearen Algebra durch einige ausgewählte An-
wendungsbeispiele zu verdeutlichen, und zwar Anwendungen innerhalb der Mathematik (z.B.
Volumenberechnungen und Differentialgleichungssysteme) als auch außerhalb (Codierungs-
theorie und Ranking von Webseiten). Diese Anwendungen finden sich in Anhang A. Außerdem
finden sich viele Beispiele im Text und in den Aufgaben.
Im Stoffaufbau habe ich mich ganz bewusst für eine gewisse Redundanz entschieden. So
kommen z.B. im zweiten Kapitel bereits Untervektorräume von Rn vor während allgemeine
(Unter-) Vektorräume erst im dritten Kapitel eingeführt werden. Das hat den Vorteil, dass in
einem einfachen Spezialfall die Anschauung bereits geschult wurde, bevor man sich mit dem
allgemeinen, abstrakten Konzept auseinandersetzen muss. Gerade am Anfang des Mathematik-
studiums, wenn die Studierenden noch keine Erfahrung mit einer abstrakten Herangehensweise
haben, hat sich das sehr bewährt. Der Nachteil ist natürlich, dass es Zeit kostet, nicht den „effi-
zientesten“ Weg zu gehen, indem man die abstrakten Betrachtungen ganz an den Anfang stellt,
und dadurch die Menge des behandelten Stoffs nicht maximiert wird. Dennoch ist die bessere
Zugänglichkeit diesen Preis wert.
Ohnehin muss eine Stoffauswahl getroffen werden. Der Text ist vom Umfang her auf eine
zweisemestrige vierstündige Vorlesung ausgelegt und erhebt keinerlei Anspruch auf enzyklo-
pädische Vollständigkeit. Steht weniger Zeit zur Verfügung, so muss der Stoff weiter reduziert
werden. Dabei kann folgendes Diagramm helfen, das die logische Abhängigkeit der verschie-
denen Kapitel illustriert:

1. Grundlagen

B.1 Griechisches Alphabet A.1 Graphentheorie

B.2 Bew. d. Fundamentalsatzes 2. Matrixrechnung B.3 Matrixinvertierung

3. Algebr. Grundbegriffe

4. Lineare Abbildungen A.2 Codierungstheorie

5. Geometrie A.3 Volumenberechnungen

B.4 Bew. d. Jordan-Normalform 6. Eigenwertprobleme A.4 Ranking von Webseiten

A.5 Differentialgleichungen

B.5 Hyperbolische Funktionen 7. Bilineare Algebra

Abb. 1 Logische Abhängigkeiten im Textaufbau

Die beiden gepunkteten Pfeile deuten an, dass die Beweise des Fundamentalsatzes der Algebra
vii

und des Satzes von der Jordan’schen Normalform in die beiden Anhänge B.2 bzw. B.4 ausge-
lagert wurden, dass man aber den Haupttext auch lesen kann ohne diese beiden Beweise zu
studieren indem man die beiden Sätze einfach akzeptiert.
Die Aufgaben am Ende jedes Kapitels sind integraler Bestandteil des Textes. Möchte man ein
guter Fußballspieler werden, so reicht es nicht, regelmäßig die Sportschau zu schauen, sondern
man muss schon selbst auf den Trainingsplatz gehen und üben, auch wenn oder gerade weil das
die Sache anstrengend macht. Genauso ist es mit der Mathematik; es reicht nicht, die Dinge
nur nachzuvollziehen. Man muss selbst aktiv werden, selbst Mathematik betreiben. Dafür sind
die Aufgaben da. Außerdem liefern einige von ihnen Beispiele für Anwendungen des Stoffs
des entsprechenden Kapitels.
Um eher „handwerkliche“ Fähigkeiten zu üben, gibt es interaktive Online-
Übungen, die mit dem nebenstehenden Symbol gekennzeichnet sind. Sie können
auf internetfähigen Computern oder Mobilgeräten mittels der angegebenen URL
Abb. 2 Üben1
oder des QR-Codes aufgerufen werden. Javascript muss im Browser aktiviert
sein, was meistens die Voreinstellung ist. Es wird dann eine Zufallsaufgabe zum betreffenden
Thema erzeugt, die die Leserin oder der Leser selbst lösen sollte. Anschließend kann man sich
das Ergebnis zur Kontrolle anzeigen lassen. Die ganze Sammlung der Online-Übungen findet
sich auf https://www.cbaer.eu im Pull-Down-Menü „Mathematik“. Dieses handwerkliche
Können wird oft nicht ausreichend gewürdigt. Es ist zwar richtig, dass die meisten Berech-
nungen, sagen wir die einer Determinante, von einem Computer schneller und zuverlässiger
durchgeführt werden können als von einem Menschen, aber wer sich bei solchen Rechnungen
selbst unsicher fühlt, wird nicht in der Lage sein, das Ergebnis einer Computerberechnung
kritisch zu bewerten. Außerdem sind diese Rechenaufgaben eine gute Kontrolle, ob man die
betreffenden mathematischen Konzepte richtig verstanden hat. Also üben!
An einigen Stellen gibt es auch interaktive Illustrationen, die den behandelten
Stoff erhellen sollen. Sie sind mit diesem Symbol gekennzeichnet. Ich hoffe, mit
dem vorliegenden Buch eine zeitgemäße Einführung in die lineare Algebra und Abb. 3 Illus-
analytische Geometrie beigesteuert zu haben, die die typischen Anfangsschwie- trationen2
rigkeiten berücksichtigt, die die mathematischen Konzepte unter anderem durch Anwendungen
motiviert und es dabei nicht an mathematischer Strenge und Klarheit fehlen lässt. So viel zur
Frage vom Anfang dieses Vorworts.
Das Manuskript zu diesem Buch ist über viele Jahre entstanden. Dabei haben zahlreiche
Menschen mitgewirkt und wertvolle Verbesserungshinweise gegeben, nicht zuletzt die Stu-
dierenden der Vorlesung. Besonders seien hier Christian Becker, Florian Hanisch, Martin
Naumann, Max Lewandowski und Ramona Ziese genannt. Ich bin ihnen allen zu großem Dank
verpflichtet. Alle verbleibenden Fehler hat natürlich alleine der Autor zu verantworten. Für
entsprechende Hinweise an linalgbuch@cbaer.eu wäre ich dankbar. Sehr angenehm und
freundschaftlich war immer auch die Zusammenarbeit mit dem Verlag, insbesondere mit Frau
Schmickler-Hirzebruch. Auch ihr an dieser Stelle ein großes Danke!

Potsdam, im August 2018 Christian Bär

1Künstler: Gerald_G, Quelle: https://openclipart.org/detail/50431


2Künstler: GDJ, Quelle: https://openclipart.org/detail/269989
Für Gabriele
Inhaltsverzeichnis
1. Grundlagen 1
1.1. Präzision ist gefragt: mathematisches Formulieren . . . . . . . . . . . . . . . 1
1.2. Beweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4. Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5. Vollständige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.6. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2. Matrixrechnung 43
2.1. Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2. Lineare Unabhängigkeit und Basen . . . . . . . . . . . . . . . . . . . . . . . 58
2.3. Der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.4. Geometrie der Ebene, Teil 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.5. Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.6. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

3. Algebraische Grundbegriffe 127


3.1. Abstraktes Rechnen: Gruppen und Halbgruppen . . . . . . . . . . . . . . . . 127
3.2. Zwei Rechenarten im Zusammenspiel: Ringe und Körper . . . . . . . . . . . 145
3.3. Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
3.4. Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3.5. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

4. Lineare Abbildungen 177


4.1. Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
4.2. Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . . . 184
4.3. Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
4.4. Orientierungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
4.5. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230

5. Geometrie 235
5.1. Affine Unterräume und affine Abbildungen . . . . . . . . . . . . . . . . . . . 235
5.2. Volumina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
5.3. Geometrie der Ebene, Teil 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 250
5.4. Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
5.5. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
x Inhaltsverzeichnis

6. Eigenwertprobleme 271
6.1. Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
6.2. Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 281
6.3. Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
6.4. Invariante Untervektorräume und Trigonalisierbarkeit . . . . . . . . . . . . . 303
6.5. Algebren und das Minimalpolynom . . . . . . . . . . . . . . . . . . . . . . 312
6.6. Die Jordan’sche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . 323
6.7. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332

7. Bilineare Algebra 339


7.1. Bilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
7.2. Quadriken und Kegelschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . 358
7.3. Euklidische Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
7.4. Adjungierte Abbildungen und selbstadjungierte Endomorphismen . . . . . . 379
7.5. Orthogonale Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . 382
7.6. Unitäre Vektorräume und Endomorphismen . . . . . . . . . . . . . . . . . . 391
7.7. Schiefsymmetrische Endomorphismen . . . . . . . . . . . . . . . . . . . . . 399
7.8. Schiefsymmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . . . . 402
7.9. Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405

A. Anwendungen 411
A.1. Graphentheorie - etwas Kombinatorik . . . . . . . . . . . . . . . . . . . . . 411
A.2. Codierungstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
A.3. Weitere Volumenberechnungen . . . . . . . . . . . . . . . . . . . . . . . . . 421
A.4. Ranking von Webseiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
A.5. Differentialgleichungssysteme mit konstanten Koeffizienten . . . . . . . . . . 438

B. Was sonst noch interessant ist 443


B.1. Das griechische Alphabet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
B.2. Beweis des Fundamentalsatzes der Algebra . . . . . . . . . . . . . . . . . . 444
B.3. Praktische Invertierung von Matrizen . . . . . . . . . . . . . . . . . . . . . . 445
B.4. Beweis des Satzes von der Jordan’schen Normalform . . . . . . . . . . . . . 446
B.5. Hyperbolische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 450

Literatur 453

Index 455
1. Grundlagen

Was sich überhaupt sagen lässt,


lässt sich klar sagen; und wovon
man nicht reden kann, darüber
muss man schweigen.

(Ludwig Wittgenstein
Tractatus logico-philosophicus)

Bevor wir uns mit linearer Algebra oder analytischer Geometrie befassen, behandeln wir
zunächst einige grundsätzliche Fragen, die korrektes Formulieren und Argumentieren in der
Mathematik und darüber hinaus betreffen.

1.1. Präzision ist gefragt: mathematisches Formulieren


In der Mathematik befassen wir uns nur mit Aussagen, die objektiv entweder wahr oder
falsch sind, unabhängig von der Person, die die Aussage macht, oder deren Vorlieben. So
sind z.B. die Aussagen „8 ist eine gerade Zahl“ und „Jede Quadratzahl ist gerade“ beides
mathematische Aussagen. Die erste ist wahr, die zweite hingegen falsch, da wir ja z.B. mit 9
flugs eine ungerade Quadratzahl gefunden haben, also ein Gegenbeispiel zur zweiten Aussage.
Auch „Hertha BSC war seit dem zweiten Weltkrieg schon mal deutscher Fußball-Meister“
könnte man als eine mathematische Aussage betrachten, und zwar als eine falsche, da die letzte
deutsche Meisterschaft der Hertha in das Jahr 1931 zurückreicht.
Hingegen sind „Du hast die schönsten Augen auf dieser Welt“ oder „Leistung muss sich
wieder lohnen!“ keine mathematischen Aussagen. Der Wahrheitsgehalt dieser Aussagen wäre
sicherlich umstritten und nicht objektiv feststellbar. So etwas überlassen wir den Romantikern
und den Politikern.
Zwei Aussagen A und B nennen wir äquivalent, wenn entweder A und B beide wahr oder beide
falsch sind. In Symbolen schreiben wir dann A ⇔ B. Ein Beispiel für äquivalente Aussagen
sind „Die ganze Zahl n ist gerade“ ⇔ „Die ganze Zahl n ist durch 2 teilbar“.
Ein Doppelpunkt vor oder hinter dem Äquivalenzpfeil drückt aus, dass die Aussage auf der
Seite mit dem Doppelpunkt durch die andere definiert wird. So bedeutet z.B. A :⇔„8 ist eine
gerade Zahl“, dass A abkürzend für die Aussage „8 ist eine gerade Zahl“ steht. In diesem
Beispiel ist die Aussage A wahr.
Aussagen können verneint werden. Die Verneinung einer Aussage A ist wahr, wenn A selbst
falsch ist, und umgekehrt. In Symbolen schreibt man ¬A für die Verneinung der Aussage A.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_1
2 1. Grundlagen

Ist z.B. A :⇔„8 ist eine gerade Zahl“, so ist ihre Verneinung ¬A ⇔„8 ist keine gerade
Zahl“. Für die Aussage B :⇔„Jede Quadratzahl ist gerade“ haben wir ¬B ⇔ „Nicht jede
Quadratzahl ist gerade“. Für letzteres könnten wir auch ¬B ⇔„Es gibt wenigstens eine
ungerade Quadratzahl“ schreiben. Für C :⇔„Hertha BSC war seit dem zweiten Weltkrieg
schon mal deutscher Fußball-Meister“ ist ¬C ⇔„Hertha BSC war seit dem zweiten Weltkrieg
noch nie deutscher Fußball-Meister“. Die Aussage ¬C ist wahr.
Wir können den Effekt der Negation (Verneinung) einer Aussage in folgender Wertetafel
zusammenfassen:

Negation (nicht)
A ¬A
falsch wahr
wahr falsch
Tab. 1 Wahrheitstabelle Negation

Offensichtlich ist die Verneinung der Verneinung einer mathematischen Aussage A wieder
äquivalent zur ursprünglichen Aussage: ¬(¬A) ⇔ A.
Aus zwei Aussagen A und B können neue Aussagen gebildet werden: die Aussage „A und B“,
in Symbolen A ∧ B, sowie die Aussage „A oder B“, in Symbolen A ∨ B. Die Aussage A ∧ B
ist wahr, wenn sowohl A als auch B wahr sind; ansonsten ist sie falsch. Man spricht dann auch
von der Konjunktion der Aussagen A und B.
Die Aussage A ∨ B ist wahr, wenn A oder B oder beide wahr sind. Nur wenn A und B beide
falsch sind, ist auch A ∨ B falsch. Man spricht hier von der Disjunktion der Aussagen A und B.
Die Aussagen A ∧ B und A ∨ B besitzen also folgende Wertetafeln:

Konjunktion (und) Disjunktion (oder)


A B A∧B A B A∨B
falsch falsch falsch falsch falsch falsch
falsch wahr falsch falsch wahr wahr
wahr falsch falsch wahr falsch wahr
wahr wahr wahr wahr wahr wahr
Tab. 2 Wahrheitstabelle Konjunktion Tab. 3 Wahrheitstabelle Disjunktion

Für die Aussagen A :⇔„8 ist gerade“ (wahr) und B :⇔„3 ist gerade“ (falsch) ergibt sich zum
Beispiel A∧ B ⇔„8 und 3 sind gerade“, d.h. eine falsche Aussage. Andererseits ist A∨ B ⇔„8
oder 3 ist gerade“ eine wahre Aussage.
Auch die Aussage „2 oder 4 ist gerade“ ist wahr. Dieses Beispiel verdeutlicht noch einmal, dass
das mathematische oder nicht im Sinne von entweder oder zu verstehen ist (ein so genanntes
exklusives oder). Auch wenn sowohl A als auch B wahr sind, ist A ∨ B wahr.
Die Verneinung von A ∧ B ist äquivalent zu ¬A ∨ ¬B, da es für die Aussage ¬(A ∧ B) bereits
genügt, dass nur eine der Teilaussagen nicht gilt. Umgekehrt ist ¬(A∨B) äquivalent zu ¬A∧¬B.
1.1. Präzision ist gefragt: mathematisches Formulieren 3

Beim Verneinen vertauschen sich also und und oder. Das wird von Anfängern oft übersehen.
Seien z.B. n und m ganze Zahlen. Was ist die Verneinung der Aussage A ⇔„n und m sind
gerade“? Der mathematisch Ungeübte ist versucht zu sagen B ⇔„n und m sind ungerade“.
Das ist aber nicht richtig, denn wenn beispielsweise n = 2 und m = 3 ist, dann sind beide
Aussagen A und B falsch. Daher kann B nicht äquivalent zur Verneinung von A sein. Die
korrekte Verneinung wäre ¬A ⇔„n oder m ist ungerade“.
Konjunktion und Disjunktion kann man auch für mehr als zwei Aussagen bilden, sogar für
unendlich viele Aussagen. Die Konjunktion einer Serie von Aussagen ist wahr, falls alle
Einzelaussagen wahr sind, und falsch andernfalls. Entsprechend ist die Disjunktion einer
Serie von Aussagen wahr, wenn wenigstens eine der Einzelaussagen wahr ist. Falsch ist die
Disjunktion nur, wenn alle Einzelaussagen falsch sind. Betrachten wir z.B. die Aussagen

A(n) :⇔ „n ist eine gerade Zahl“,

wobei n irgendeine positive ganze Zahl sein darf. Offensichtlich ist dann A(1) falsch, A(2)
wahr, A(3) falsch usw. Dann ist die Konjunktion A(1) ∧ A(2) ∧ A(3) ∧ · · · falsch, da ja z.B. A(1)
falsch ist. In der Tat besagt diese Konjunktion „alle positiven ganzen Zahlen sind gerade“,
was falsch ist. Die Disjunktion A(1) ∨ A(2) ∨ A(3) ∨ · · · besagt, dass wenigstens eine positive
ganze Zahle gerade ist, was wahr ist.
Für Konjunktion und Disjunktion mehrerer Aussagen verwendet man oft eine andere Nota-
tion, die so genannten Quantoren: den All-Quantor ∀ und den Existenz-Quantor ∃. Statt
A(1) ∧ A(2) ∧ A(3) ∧ · · · schreibt man dann

∀n : A(n),

gesprochen: „für alle n gilt A(n)“ oder „für jedes n gilt A(n)“. Statt A(1) ∨ A(2) ∨ A(3) ∨ · · ·
schreibt man
∃n : A(n),
gesprochen: „für ein n gilt A(n)“ oder „für wenigstens ein n gilt A(n)“ oder „es gibt ein n, so
dass A(n) gilt“ oder auch „für manches n gilt A(n)“.

Bemerkung 1.1. Anders als im umgangssprachlichen Gebrauch üblich, bedeutet in der Ma-
thematik „es gibt ein. . . “ (was durch den Quantor ∃ zum Ausdruck gebracht wird) stets „es
gibt mindestens ein. . . “. Möchte man dagegen ausdrücken, dass es ein und nur ein n gibt, für
das A(n) wahr ist, so notiert man ∃!n : A(n), gesprochen: „ es gibt genau ein n, für das A(n)
gilt“ oder „ es gibt ein eindeutiges n, so dass A(n) wahr ist“.

Beispiel 1.2. Wir verdeutlichen den Einsatz von ∃ und ∃! an unterschiedlichen Quantifizie-
rungen der Aussageform n2 = 25 :

∃! positive und ganze Zahl n: n2 = 25 (wahr)


∃ positive und ganze Zahl n: n2 = 25 (wahr)
∃! ganze Zahl n: n2 = 25 (falsch)
∃ ganze Zahl n: n2 = 25 (wahr)
4 1. Grundlagen

Wie negiert man quantorenbehaftete Aussagen?


Das wissen wir schon, denn Quantoren drücken ja nur Konjunktion und Disjunktion aus.
Konjunktion und Disjunktion werden beim Verneinen ausgetauscht. In Formeln heißt das:

¬(∀n : A(n)) ⇔ ∃n : ¬A(n) sowie ¬(∃n : A(n)) ⇔ ∀n : ¬A(n).

Beispiel 1.3. Ist die Aussage „Alle runden Dreiecke sind blau“ wahr oder falsch? Die spontane
Reaktion der allermeisten Menschen1 lautet: falsch, denn es gibt ja überhaupt keine runden
Dreiecke. Doch seien wir vorsichtig und formalisieren wir die Aussage zunächst:

∀ runde Dreiecke K : K ist blau. (1.1)

Wir verneinen die Aussage und erhalten

∃ rundes Dreieck K : ¬(K ist blau). (1.2)

Aussage (1.2) besagt, dass es wenigstens ein rundes Dreieck gibt, das nicht blau ist. Da es aber
überhaupt keine runden Dreiecke gibt, muss Aussage (1.2) falsch sein. Da (1.2) die Verneinung
von (1.1) ist, ist Aussage (1.1) wahr!

Abb. 4 Runde Dreiecke

Oft treten Quantifizierungen geschachtelt auf. Betrachten wir für n > m einmal alle Möglich-
keiten der Quantifizierung, also eine Verschachtelung mit zwei Quantoren:

∀ ganze Zahl n: ∀ ganze Zahl m: n > m (falsch)


∃ ganze Zahl n: ∀ ganze Zahl m: n > m (falsch)
∀ ganze Zahl n: ∃ ganze Zahl m: n > m (wahr)
∃ ganze Zahl n: ∃ ganze Zahl m: n > m (wahr)

Die Reihenfolge der Quantoren ist wichtig! Vertauschen wir etwa in der zweiten dieser vier
Aussagen die Reihenfolge der Quantoren, so erhalten wir
1Testen Sie doch mal Ihren Lieblingsmathematiklehrer mit dieser Frage.
1.2. Beweise 5

∀ ganze Zahl m: ∃ ganze Zahl n: n > m

und diese Aussage ist wahr.


Gerade beim Verneinen komplizierter Aussagen, kann es sehr hilfreich sein, die Aussage
mittels Quantoren zu formalisieren. So gilt ja z.B.

¬(∀n : ∀m : A(n, m)) ⇔ ∃n : ¬(∀m : A(n, m))


⇔ ∃n : ∃m : ¬A(n, m).

Generell erfolgt die Verneinung verschachtelter Quantifikationen durch das Vertauschen aller
auftretenden Quantoren und die Verneinung der Aussageform.

Beispiel 1.4. Wir wollen die Aussage „In so manchem Land haben alle Städte weniger als
1 Million Einwohner“ verneinen. Dazu schreiben wir die Aussage mit Quantoren hin:

∃ Land L : ∀ Stadt S in L : Anzahl der Einwohner in S < 106 .

Wir vertauschen die Quantoren und verneinen die Aussageform:

∀ Land L : ∃ Stadt S in L : Anzahl der Einwohner in S ≥ 106 .

Dies bedeutet aber wiederum umgangssprachlich: „In jedem Land gibt es (mindestens) eine
Stadt mit mindestens 1 Million Einwohnern“.

1.2. Beweise
Nun, da wir wissen, wie wir mathematische Sachverhalte formulieren, wollen wir auch ihren
Wahrheitsgehalt sicherstellen können. Dazu müssen wir schlussfolgern können. Wir sagen, die
Aussage A impliziert die Aussage B oder aus A folgt B, in Symbolen A ⇒ B, wenn im Fall,
dass A wahr ist, auch B wahr ist.
Wenn A die Aussage B impliziert und A falsch ist, dann wissen wir nichts über B; B kann dann
wahr oder falsch sein. In anderen Worten, falsche Aussagen können auch wahre implizieren.

Beispiel 1.5. Seien n und m ganze Zahlen. Aus n = m folgt sicherlich stets n2 = m2 . Für n = 1
und m = −1 ist die erste Aussage falsch, die zweite ist dann aber trotzdem wahr.

Dass zwei Aussagen äquivalent sind, heißt nichts anderes, als dass sie auseinander folgen. In
anderen Worten, A ⇔ B bedeutet A ⇒ B und B ⇒ A.
Genau genommen, sind zu zwei Aussagen A und B auch A ⇔ B und A ⇒ B wieder Aussagen,
ähnlich wie das bei Konjunktion und Disjunktion war, und zwar mit folgenden Wertetabellen:
6 1. Grundlagen

Implikation (impliziert) Äquivalenz (äquivalent)


A B A⇒B A B A⇔B
falsch falsch wahr falsch falsch wahr
falsch wahr wahr falsch wahr falsch
wahr falsch falsch wahr falsch falsch
wahr wahr wahr wahr wahr wahr
Tab. 4 Wahrheitstabelle Implikation Tab. 5 Wahrheitstabelle Äquivalenz

Mathematische Beweise sind dazu da, sicherzustellen, dass eine mathematische Aussage wahr
ist. Im einfachsten Fall hat ein mathematischer Beweis folgende Struktur: Wir wollen sicher
feststellen, dass die Aussage A wahr ist; d.h. wir wollen die Aussage A beweisen. Wir finden eine
Aussage A(1), von der wir wissen, dass sie wahr ist, und eine endliche Kette von Implikationen,
in der die letzte auftretende Aussage gerade die zu beweisende Aussage A ist,
A(1) ⇒ A(2) ⇒ A(3) ⇒ · · · ⇒ A(N) ⇒ A.
Da die erste Aussage A(1) wahr ist, ist auch A(2) wahr. Daher ist auch A(3) wahr usw. Schließlich
muss auch die letzte Aussage, d.h. A, wahr sein.

Beispiel 1.6 (Lösen quadratischer Gleichungen). Seien b und c reelle Zahlen, so dass b2 ≥
4c. Wir wollen beweisen, dass 
b b2
x=− + −c
2 4
die Gleichung
x 2 + bx + c = 0
erfüllt.
Bevor wir mit dem eigentlichen Beweis beginnen, stellen wir fest, dass wegen der Vorausset-
zung b2 ≥ 4c der Term unter der Wurzel positiv oder 0 ist, so dass wir die Wurzel auch ziehen
können. Nun führen wir den Beweis ganz pingelig durch:

b b2
x=− + −c (1.3)
2 4
   2 
b b2 b b2
⇒ x = − +
2
−c ∧ x=− + −c (1.4)
2 4 2 4
 
b2 b2 b2 b b2
⇒ x =
2
−b −c+ −c ∧ x =− + −c (1.5)
4 4 4 2 4
b2 b2 b2 b2 b2
⇒ x2 = −b −c+ − c ∧ bx = − + b −c (1.6)
4 4 4 2 4
b2 b2 b2 b2 b2
⇒ x 2 + bx = −b −c+ −c− +b −c (1.7)
4 4 4 2 4
1.2. Beweise 7

⇒ x 2 + bx = −c (1.8)
⇒ x + bx + c = 0
2
(1.9)
Zur Erläuterung: Wir beginnen mit Aussage (1.3), die nach Voraussetzung wahr ist. Aussage
(1.4) ist eine Konjunktion zweier Teilaussagen. Damit diese wahr ist, müssen beide Teilaussagen
wahr sein. Tatsächlich folgen beide Teilaussagen von (1.4) aus (1.3), denn die zweite Teilaussage
von (1.4) ist nichts anderes als die Aussage (1.3); die erste Teilaussage von (1.4) folgt aus (1.3)
durch Quadrieren beider Seiten. Aussage (1.5) folgt aus (1.4), denn in der ersten Teilaussage
wird lediglich die rechte Seite ausmultipliziert während die zweite Teilaussage unverändert
bleibt. Aussage (1.6) folgt aus (1.5), denn die erste Teilaussage bleibt unverändert während
in der zweiten Teilaussage beide Seiten mit b multipliziert werden. Aussage (1.7) folgt aus
(1.6), denn die beiden Gleichungen aus (1.6) werden addiert. Nun haben wir nur noch eine
Teilaussage. Aussage (1.8) folgt aus (1.7), da sich die beiden Wurzelterme und die b2 -Terme
auf der rechten Seite wegheben. Aussage (1.9) folgt aus (1.8) durch Addition beider Seiten mit
c. Damit ist der Beweis beendet.

Bemerkung 1.7. Auf ähnliche Weise kann man beweisen, dass unter denselben Vorausset-
zungen auch 
b b2
x=− − −c
2 4
die Gleichung
x 2 + bx + c = 0
erfüllt. Dies überlassen wir als kleine Übung. Sobald wir das bewiesen haben, wissen wir also,
dass sowohl  
b b2 b b2
x=− + − c als auch x = − − −c
2 4 2 4
die Gleichung
x 2 + bx + c = 0
erfüllen. Dies ist dann wieder eine Konjunktion zweier Einzelaussagen.

Bemerkung 1.8. Seien wieder b und c reelle Zahlen, so dass b2 ≥ 4c. Tatsächlich sind
 
b b2 b b2
x=− + − c und x = − − −c
2 4 2 4
die einzigen Lösungen der Gleichung
x 2 + bx + c = 0.
 
2 2
Warum? Dazu definieren2 wir x1 := − 2b + b4 − c und x2 := − 2b − b4 − c. Durch Ausmulti-
plizieren sieht man dann leicht, dass die Aussage
∀ reelle Zahlen x : (x − x1 )(x − x2 ) = x 2 + bx + c
2Ähnlich wie bei der Äquivalenz von Aussagen wird für mathematische Größen durch das Symbol := die linke
Seite durch die rechte definiert.
8 1. Grundlagen

wahr ist. Sei nun x eine Lösung von x 2 + bx + c = 0. Wir schlussfolgern:


x 2 + bx + c = 0 (1.10)
⇒ (x − x1 )(x − x2 ) = 0 (1.11)
⇒ x − x1 = 0 ∨ x − x2 = 0 (1.12)
⇒ x = x1 ∨ x = x2 (1.13)
Also muss x eine der beiden Lösungen x1 oder x2 sein. Weitere Lösungen gibt es nicht. Aussage
(1.12) folgt aus (1.11), weil ein Produkt reeller Zahlen nur dann 0 ist, wenn wenigstens einer
der beiden Faktoren 0 ist.

Bemerkung 1.9. Fassen wir die Diskussion über die Lösungen quadratischer Gleichungen
kurz zusammen. Seien b und c reelle Zahlen, so dass b2 ≥ 4c. Dann besitzt die Gleichung
x 2 + bx + c = 0
die beiden Lösungen
 
b b2 b b2
x=− + − c und x = − − − c.
2 4 2 4
Weitere Lösungen gibt es nicht. Sobald wir die komplexen Zahlen kennen gelernt haben,
werden wir auf die Voraussetzung b2 ≥ 4c auch noch verzichten können.

Warnung. Wir haben jetzt den direkten Beweis kennen gelernt. Leider wird dieser, gerade an
Schulen, oft falsch eingesetzt. Anstatt die zu beweisende Aussage A aus einer wahren Aussage
herzuleiten, wird eine Kette von Implikationen von Aussagen angegeben, die mit A beginnt
(statt mit A zu enden, wie es richtig wäre),
A ⇒ A(2) ⇒ A(3) ⇒ · · · ⇒ A(N).
Dann wird gesagt, wenn die letzte Aussage A(N) in der Kette wahr ist, ist A bewiesen. Das ist
aber kein gültiger Beweis, da auch falsche Aussagen wahre Aussagen implizieren können, wie
wir schon gesehen haben.

Beispiel 1.10. Seien x und y positive reelle Zahlen. Wir „beweisen“ die Aussage

x + y = x 2 + 2xy + y 2 (1.14)
wie folgt:

x+y= x 2 + 2xy + y 2
⇒ (x + y)2 = x 2 + 2xy + y 2
⇒ x 2 + 2xy + y 2 = x 2 + 2xy + y 2 .
Dass die erste Implikation gilt, sieht man durch Quadrieren beider Seiten, bei der zweiten durch
Ausmultiplizieren der linken Seite. Die letzte Aussage ist wahr. Daher meinen nicht wenige,
die Aussage (1.14) sei hierdurch bewiesen.
1.2. Beweise 9

Wäre das ein gültiger Beweis, dann könnten wir auch folgende falsche Aussage beweisen:

1 = −1.

„Beweis“.

1 = −1 (1.15)
⇒ 1 = (−1)
2 2
(1.16)
⇒ 1 = 1. (1.17)

Da die letzte Aussage wahr ist, müsste auch 1 = −1 wahr sein. 

Daher hat eine solche Argumentation auch bei wahren Aussagen keine Beweiskraft. Dieser Un-
fug ist nicht zu verwechseln mit einer anderen, korrekten und sehr wichtigen Beweismethode,
dem indirekten Beweis.
Der indirekte Beweis beruht auf folgender Beobachtung: Nehmen wir an, wir haben zwei
Aussagen A und B. Wenn A die Aussage B impliziert, dann impliziert auch ¬B die Aussage
¬A. Denn, nehmen wir an B ist falsch und A ist wahr, dann ist wegen A ⇒ B auch B wahr, was
wir gerade ausgeschlossen hatten. Man kann sich das auch anhand der Wertetabellen überlegen:

A⇒B A B ¬B ¬A ¬B ⇒ ¬A
wahr falsch falsch wahr wahr wahr
wahr falsch wahr falsch wahr wahr
falsch wahr falsch wahr falsch falsch
wahr wahr wahr falsch falsch wahr
Tab. 6 Wahrheitstabelle für Widerspruchsbeweis

Die Implikation A ⇒ B ist logisch äquivalent zur Implikation ¬B ⇒ ¬A. Der indirekte Beweis
oder Widerspruchsbeweis funktioniert nun so: Wir wollen die Aussage A beweisen. Finde dazu
eine endliche Kette von Implikationen von Aussagen, die mit ¬A beginnt und mit einer Aussage
endet, von der wir wissen, dass sie falsch ist,

¬A ⇒ A(2) ⇒ A(3) ⇒ · · · ⇒ A(N).

Wie wir uns gerade überlegt haben, ist diese Kette von Implikationen gleichbedeutend mit

¬A(N) ⇒ ¬A(N − 1) ⇒ · · · ⇒ ¬A(3) ⇒ ¬A(2) ⇒ ¬(¬A).

Da A(N) falsch ist, ist ¬A(N) wahr. Wegen der Implikationskette ist auch ¬(¬A) wahr, somit
ist A wahr, was wir beweisen wollten.
Einen solchen Widerspruchsbeweis formuliert man in der Regel so: Wir wollen A beweisen.
Angenommen, A wäre falsch. Dann würde A(2) folgen. Daraus würde A(3) folgen usw. bis
10 1. Grundlagen

schließlich A(N) folgt. Nun ist aber A(N) falsch, also haben wir einen Widerspruch hergeleitet.
Daher kann A nicht falsch sein, sondern muss wahr sein. Das Erreichen des Widerspruchs, d.h.
der falschen Aussage A(N), kennzeichnet man häufig mit einem Blitz .
Wir führen beispielhaft einen Widerspruchsbeweis, um zu zeigen, dass es unendlich viele
Primzahlen gibt. Zunächst die Definition von Primzahlen:

Definition 1.11. Eine ganze Zahl heißt Primzahl, falls sie größer als 1 und nur durch sich
selbst und 1 teilbar ist.

Beispiele für Primzahlen sind 2, 3, 5, 7, etc. Dagegen ist 6 keine Primzahl, da 6 = 2 · 3.


Zur Vorbereitung des eigentlichen Satzes über unendlich viele Primzahlen beweisen wir zu-
nächst

Proposition 1.12. Jede ganze Zahl n ≥ 2 kann als Produkt von Primzahlen geschrieben
werden.

Zum Beispiel stellt 6 = 2 · 3 die Zahl 6 als Produkt von Primzahlen dar. Auch 3935743 =
7 · 71 · 7919 ist eine Darstellung als Produkt von Primzahlen.

Beweis von Proposition 1.12. Ist n selbst eine Primzahl, so ist n = n selbst die Primzahlpro-
duktdarstellung von n (mit nur einem Faktor). Andernfalls können wir n durch eine ganze Zahl
m1 teilen, die zwischen 1 und n liegt. In anderen Worten, wir können n = m1 · m2 schreiben,
wobei m1 und m2 ganze Zahlen zwischen 1 und n sind. Nun wiederholen wir dieses Vorgehen
mit m1 und m2 statt n und fahren solange mit den neu auftretenden Faktoren fort, bis alle Fak-
toren Primzahlen sind. Das muss nach endlich vielen Schritten der Fall sein, da die Faktoren
bei jeder Zerlegung kleiner werden, aber stets größer als 1 bleiben müssen. 

Das Schöne an diesem Beweis ist, dass er nicht nur sicherstellt, dass Proposition 1.12 richtig
ist, sondern uns auch ein Verfahren liefert, wie wir konkret eine Zahl in Primfaktoren zerlegen
können. Führen wir dies am Beispiel der Zahl n = 37700 durch. Im ersten Schritt zerlegen wir
n = 377 · 100. Im zweiten Schritt zerlegen wir 377 = 13 · 29 und 100 = 10 · 10. Damit haben
wir n = 13 · 29 · 10 · 10. Nun sind 13 und 29 bereits Primzahlen. Aber wir können 10 im dritten
Schritt weiter zerlegen, 10 = 2 · 5. Dies liefert n = 13 · 29 · 2 · 5 · 2 · 5. Nun sind alle Faktoren
Primzahlen und die Zerlegung ist abgeschlossen.
Wir werden diesen Beweis später nochmal mittels vollständiger Induktion etwas strenger
formulieren, siehe Beispiel 1.71. Jetzt aber zum eigentlichen Satz über Primzahlen.

Satz 1.13. Es gibt unendlich viele verschiedene Primzahlen.


1.3. Mengen 11

Beweis. Wir gehen von der Widerspruchsannahme aus, dass es nur endlich viele Primzahlen
gäbe. Sei dann N die Anzahl der Primzahlen und seien

p1 = 2, p2 = 3, p3 = 5, . . ., p N

die Primzahlen. Nun setzen wir

k := p1 · p2 · . . . · p N + 1.

Bei Division der Zahl k durch irgendeine der Primzahlen bleibt stets der Rest 1. Daher ist die
positive ganze Zahl k durch keine Primzahl teilbar.
Das muss aber falsch sein, denn k kann gemäß Proposition 1.12 als Produkt von Primzahlen
geschrieben werden und muss daher durch die Primzahlen teilbar sein, die in diesem Produkt
auftreten. Wir haben also einen Widerspruch hergeleitet. Somit ist die Annahme nur endlich
vieler Primzahlen falsch. 

Dieser Widerspruchsbeweis wird Euklid zugeschrieben und ist somit über


2000 Jahre alt. Euklid lebte ca. von 365 bis 300 v. Chr. und war einer
der bedeutendsten Mathematiker der Antike. Sein berühmtestes Werk, die
vielbändigen Elemente, fasst den damaligen Kenntnisstand in Geometrie
und Arithmetik zusammen. Wir zitieren die Wikipedia: Über Euklid er-
zählt man sich viele Anekdoten: Ein Schüler fragte, als er den ersten Satz
gelernt hatte: „Was kann ich verdienen, wenn ich diese Dinge lerne?“ Da
rief Euklid seinen Sklaven und sagte: „Gib ihm drei Obolen, denn der
arme Mann muss Geld verdienen mit dem, was er lernt.“
Abb. 5 Euklid 3
Es gibt eine weitere wichtige Beweismethode, die der vollständigen Induktion, auf die wir
später noch zurückkommen werden.

1.3. Mengen
Mathematische Aussagen werden heutzutage in der Regel in der Sprache
der Mengenlehre formuliert. Die Mengenlehre wurde vom deutschen Ma-
thematiker Georg Cantor Ende des 19. Jahrhunderts begründet. Er gab
1895 folgende Definition einer Menge:
Unter einer „Menge“ verstehen wir jede Zusammenfassung M von be-
stimmten wohlunterschiedenen Objekten m unserer Anschauung oder un-
seres Denkens (welche die „Elemente“ von M genannt werden) zu einem
Ganzen.
Dies ist keine strenge mathematische Definition, da sie andere Begriffe
Abb. 6 Georg Cantor
verwendet, wie „Zusammenfassung“, die selbst wieder einer Definition (1845–1918) 4
3Fotograf: Mark A. Wilson, Quelle: http://de.wikipedia.org/wiki/Euklid
4Fotograf unbekannt, Quelle: http://www.math.uni-hamburg.de/home/grothkopf/fotos/math-ges/,
aus einem Fotoalbum der Mathematischen Gesellschaft Hamburg
12 1. Grundlagen

bedürften. Wir wollen uns hier aber nicht mit der logischen Begründung der Mengenlehre
aufhalten, sondern werden diese intuitive Definition akzeptieren. Wir betrachten die Mengen-
notation hauptsächlich als Hilfsmittel, mathematische Aussagen prägnant zu formulieren.
Mengen können auf unterschiedliche Weise angegeben werden. Hat die Menge nur endlich
viele Elemente, können wir sie aufzählen.

Beispiele 1.14. 1. Die Menge M := {1, 2, 3, 4, 5} hat also genau die Zahlen 1, 2, 3, 4 und 5
als Elemente.
2. Die einfachste Menge ist die leere Menge {}. Sie wird auch mit dem Symbol ∅ = {}
geschrieben. Sie hat überhaupt keine Elemente.

Die Elemente einer Menge haben keine ausgezeichnete Reihenfolge. Es gilt also z.B.:
{1, 2, 3, 4, 5} = {5, 4, 3, 2, 1} = {2, 3, 4, 5, 1}.
Das Wort „wohlunterschieden“ in Cantors Definition deutet darauf hin, dass jedes Element
nur einmal in einer Menge vorkommen kann. Wir dürfen zwar bei der Angabe einer Menge
dasselbe Element mehrfach auflisten, es gilt aber immer nur als ein Element. Wir haben somit
z.B.:
{1, 2, 3, 4, 5} = {1, 1, 1, 2, 3, 3, 4, 5}
Die Elemente einer Menge können selbst Mengen sein. So hat z.B. die Menge {1, ∅, {1}} drei
Elemente, nämlich 1, ∅ und {1}. Man beachte, dass 1 nicht dasselbe ist wie {1}. Daher sind
dies zwei verschiedene Elemente dieser Menge.

Beispiel 1.15. Die Menge {∅} ist nicht die leere Menge, denn sie hat ein Element, nämlich die
leere Menge!

Mitunter kann man auch Mengen mit unendlich vielen Elementen durch Aufzählung angeben.

Beispiele 1.16. 1. Die Menge N = {1, 2, 3, . . .} der natürlichen Zahlen,


2. die Menge N0 = {0, 1, 2, 3, . . .} der natürlichen Zahlen inklusive der Null,
3. die Menge Z = {. . . , −3, −2, −1, 0, 1, 2, 3, . . .} der ganzen Zahlen.

Um auszudrücken, dass ein Objekt m Element einer Menge M ist, schreibt man
m ∈ M.
Falls m nicht Element von M ist, schreibt man
m  M.
Wir haben z.B. 0  ∅ und 0  N, aber 0 ∈ N0 und 0 ∈ Z.

Für die Anzahl der Elemente einer Menge M schreibt man #M.
1.3. Mengen 13

Beispiele 1.17. 1. #∅ = 0.
2. #{∅} = 1.
3. #{∅, {}, {∅}} = 2, denn ∅ = {}.
4. #N = #N0 = #Z = ∞.

Definition 1.18. Seien M und N Mengen. Dann heißt M Teilmenge von N, falls jedes
Element von M auch Element von N ist. Wir schreiben dafür:

M ⊂ N :⇔ ∀m ∈ M : m ∈ N .

Ist M Teilmenge von N, so heißt N Obermenge von M, symbolisch

N ⊃ M :⇔ M ⊂ N .

Beispiele 1.19. 1. Die leere Menge ist Teilmenge einer jeden beliebigen Menge M,
∅ ⊂ M.

2. Offensichtlich gilt
N ⊂ N0 ⊂ Z.

3. Für M = {♦, ♥, ♠, ♣} ist ♦ ∈ M und damit {♦} ⊂ M. Ebenso kann für ♥, ♣ ∈ M auch
{♥, ♣} ⊂ M geschrieben werden.

Bemerkung 1.20. Zwei Mengen M und N sind genau dann gleich, wenn jedes Element von
M auch Element von N ist und umgekehrt, d.h.:
M =N ⇔ M ⊂ N∧N ⊂ M

Bemerkung 1.21. Ist M ⊂ N, so gilt #M ≤ #N.

Um eine Teilmenge T einer Menge M anzugeben, schreibt man oft


T = {m ∈ M | Eigenschaft, die die Zugehörigkeit von m zu T charakterisiert}.

Beispiele 1.22. 1. Die Menge M der geraden Zahlen ist gegeben durch
M = {m ∈ Z | m ist durch 2 teilbar}
oder auch
M = {m ∈ Z | ∃n ∈ Z : m = 2 · n}.
14 1. Grundlagen

2. Satz 1.13 besagt


#{m ∈ N | m ist Primzahl} = ∞.

3. Sei R die Menge aller reellen Zahlen. Eine reelle Zahl heißt rational, wenn sie sich als Bruch
zweier ganzer Zahlen schreiben lässt. Die Menge der rationalen Zahlen ist somit gegeben
durch
Q := {x ∈ R | ∃ n, m ∈ Z : m  0 ∧ x = n/m}.

An dieser Stelle kann man sich fragen, ob womöglich alle reellen Zahlen rational sind. Gibt es
überhaupt irrationale Zahlen? Ja, die gibt es:

Satz 1.23. Die Wurzel aus 2 ist irrational, d.h.



2  Q.

Bevor wir den Satz beweisen, leiten wir folgende Hilfsaussage her:

Lemma 1.24. Sei n ∈ Z. Dann gilt:

n ist gerade ⇔ n2 ist gerade .

Beweis von Lemma 1.24. Es ist die Äquivalenz zweier Aussagen zu beweisen. Dies bedeutet,
dass zwei Implikationen zu beweisen sind, nämlich

n ist gerade ⇒ n2 ist gerade und n2 ist gerade ⇒ n ist gerade.

a) Wir beweisen zunächst


n ist gerade ⇒ n2 ist gerade.
Sei also n gerade. Dann ist n von der Form n = 2 · m für eine ganze Zahl m. Also ist
n2 = 4 · m2 = 2 · (2m2 ) ebenfalls gerade.
b) Nun beweisen wir
n2 ist gerade ⇒ n ist gerade.
Dies ist aber äquivalent zu

n ist ungerade ⇒ n2 ist ungerade.

Dies gilt, da das Produkt ungerader Zahlen stets wieder ungerade ist.5 
5Warum eigentlich?
1.3. Mengen 15

Nun aber zum Beweis von Satz 1.23, was eine schöne Gelegenheit darstellt, Widerspruchs-
beweise zu üben.

Beweis von Satz 1.23. Nehmen wir an, 2 wäre rational. Dann gäbe es m, n ∈ Z mit m  0
und √ n
2= . (1.18)
m

Da 2 positiv ist, müssen m und n entweder beide positiv oder beide negativ sein. Im letzteren
Fall können wir m und n durch −m bzw. −n ersetzen. Also können m und n auf jeden Fall
positiv gewählt werden, was wir von jetzt an auch annehmen.
Sind n und m beide gerade, so kürzen wir den Faktor 2 im Bruch solange bis n oder m ungerade
geworden ist. Wir können also in (1.18) n und m aus N wählen und zwar so, dass sie nicht
beide gerade sind.
Nachdem wir n und m so gewählt haben, quadrieren wir beide Seiten in (1.18) und erhalten

n2
2= (1.19)
m2
und daher
2m2 = n2 . (1.20)
Daraus folgt, dass n2 gerade ist. Gemäß Lemma 1.24 ist dann auch n gerade. Es gibt also ein
k ∈ Z, so dass n = 2k. Wir setzen dies in (1.20) ein und erhalten

2m2 = (2k)2 = 4k 2

und daher
m2 = 2k 2 .
Daher ist m2 gerade. Gemäß Lemma 1.24 ist dann auch m gerade. Wir haben hergeleitet, dass
n und m gerade sind, was aber falsch ist, da wir n und m so gewählt hatten, dass genau das
nicht der Fall ist. Wir haben somit einen Widerspruch
√ √ hergeleitet zu der Annahme, dass sich
2 wie in (1.18) schreiben lässt. Daher kann 2 nicht rational sein. 

Auch dieser Widerspruchsbeweis findet sich bereits in Euklids „Elemente“


und ist daher bereits über 2000 Jahre alt. Er stellte die antike griechische Ma-

thematik allerdings vor ein großes Problem. Die Griechen kannten nämlich 2
noch keine reellen Zahlen,√sondern nur rationale. Insofern besagte Satz 1.23 1
für die Griechen, dass es 2 nicht gibt. 1
Andererseits kannte man bereits den Satz von Pythagoras, der im Fall eines √
Abb. 7 2
rechtwinkligen
√ Dreiecks mit Kathetenlängen 1 besagt, dass die Hypotenuse
die Länge 2 haben muss. Hier hatte man ein Dreieck, dessen Hypotenusenlänge es nicht zu
geben schien. Da waren die Griechen schon verblüfft, zumindest die, die die Mathematik ihrer
Zeit kannten.

Doch nun weiter mit der Mengenlehre. Aus zwei Mengen M und N können wir uns auf drei
Weisen eine neue Menge verschaffen:
16 1. Grundlagen

Vereinigung M ∪ N = Schnittmenge M ∩ N = Mengendifferenz M \ N


{x | x ∈ M ∨ x ∈ N} {x | x ∈ M ∧ x ∈ N} = {x | x ∈ M ∧ x  N}

M N M N M N

Abb. 8 Mengenoperationen

Für diese Mengenoperationen gelten folgende Regeln:

Satz 1.25 (de Morgan’sche Gesetze). Seien M, N1 und N2 Mengen. Dann gilt:

(i) M ∩ (N1 ∪ N2 ) = (M ∩ N1 ) ∪ (M ∩ N2 ).

(ii) M ∪ (N1 ∩ N2 ) = (M ∪ N1 ) ∩ (M ∪ N2 ).

(iii) M \ (N1 ∪ N2 ) = (M \ N1 ) ∩ (M \ N2 ).

(iv) M \ (N1 ∩ N2 ) = (M \ N1 ) ∪ (M \ N2 ).

Beweis. Wir beweisen hier nur das erste Gesetz. Die Beweise der anderen sind ganz ähnlich
und werden der Übung überlassen. Aussage (i) besagt eine Gleichheit von zwei Mengen. Um
diese zu beweisen, zeigen wir, dass die Menge auf der linken Seite in der Menge auf der rechten
Seite enthalten ist, und umgekehrt.
a) Wir beweisen M ∩ (N1 ∪ N2 ) ⊂ (M ∩ N1 ) ∪ (M ∩ N2 ).
Dazu müssen wir zeigen, dass jedes Element von M ∩ (N1 ∪ N2 ) auch Element von (M ∩ N1 ) ∪
(M ∩ N2 ) ist. Sei also x ∈ M ∩ (N1 ∪ N2 ). Dann ist x ∈ M und x ∈ N1 ∪ N2 . Die zweite
Bedingung sagt, dass x ∈ N1 oder x ∈ N2 .
1. Fall: x ∈ N1 .
Dann ist x ∈ M∩N1 . Wegen M∩N1 ⊂ (M∩N1 )∪(M∩N2 ) ist dann auch x ∈ (M∩N1 )∪(M∩N2 ).
2. Fall: x ∈ N2 .
Dann ist x ∈ M ∩ N2 . Wegen M ∩ N2 ⊂ (M ∩ N1 ) ∪ (M ∩ N2 ) gilt auch dann x ∈ (M ∩ N1 ) ∪
(M ∩ N2 ).
In beiden Fällen ist x ∈ (M ∩ N1 ) ∪ (M ∩ N2 ), was zu zeigen war.
b) Nun beweisen wir M ∩ (N1 ∪ N2 ) ⊃ (M ∩ N1 ) ∪ (M ∩ N2 ).
Sei also x ∈ (M ∩ N1 ) ∪ (M ∩ N2 ). Dann ist x ∈ M ∩ N1 oder x ∈ M ∩ N2 .
1. Fall: x ∈ M ∩ N1 .
Dann ist x ∈ M und x ∈ N1 . Wegen N1 ⊂ N1 ∪ N2 ist dann auch x ∈ N1 ∪ N2 und daher
x ∈ M ∩ (N1 ∪ N2 ).
1.3. Mengen 17

2. Fall: x ∈ M ∩ N2 .
Dann ist x ∈ M und x ∈ N2 . Wegen N2 ⊂ N1 ∪ N2 ist dann auch x ∈ N1 ∪ N2 und daher
wiederum x ∈ M ∩ (N1 ∪ N2 ).
In beiden Fällen ist x ∈ M ∩ (N1 ∪ N2 ), was zu zeigen war. 

Die Bildung von Vereinigungsmenge, Schnittmenge und Mengendifferenz


kann hier geübt werden. Das sollten Sie tun bis Sie sicher sind, alles richtig
verstanden zu haben. http://ueben.cbaer.eu/10.html

Definition 1.26. Zwei Mengen M und N heißen disjunkt, falls M ∩ N = ∅, d.h. falls sie
keine gemeinsamen Elemente haben.

Beispiel 1.27. Die Mengen {1, 2} und {3} sind disjunkt, die Mengen {1, 2} und {2, 3} dagegen
nicht, da {1, 2} ∩ {2, 3} = {2} .

Zu einer gegebenen Menge kann man alle möglichen Teilmengen betrachten und diese dann
als Elemente einer neuen Menge betrachten.

Definition 1.28. Sei M eine Menge. Dann ist die Potenzmenge P(M) die Menge aller
Teilmengen von M, d.h.
P(M) := {T | T ⊂ M}.

Die Potenzmenge einer Menge M kann niemals leer sein, denn es ist stets ∅ ⊂ M und daher
∅ ∈ P(M).

Beispiele 1.29. 1. Die leere Menge ∅ hat genau eine Teilmenge, nämlich die leere Menge
selbst. Die Potenzmenge der leeren Menge hat daher genau ein Element, nämlich die leere
Menge. Somit ist P(∅) = {∅}.
2. Nehmen wir einmal M = {♥, ♠, ♣} her. Dann ist
P(M) = {∅, {♥} , {♠} , {♣} , {♠, ♣}, {♥, ♣}, {♥, ♠}, M } .

Die Bildung von Potenzmengen kann jetzt hier geübt werden. Also los:
http://ueben.cbaer.eu/11.html

Definition 1.30. Seien M1, . . ., Mn Mengen. Sind x1 ∈ M1, . . . , xn ∈ Mn Elemente dieser


Mengen, so bezeichnet man den Ausdruck (x1, . . . , xn ) als ein geordnetes n-Tupel.

Man beachte, dass die Reihenfolge der Elemente wichtig ist. Ist z.B. n = 2 und M1 = M2 = Z,
18 1. Grundlagen

so sind (1, 2) und (2, 1) zwei verschiedene geordnete 2-Tupel (oder geordnete Paare, wie man
im Fall n = 2 auch sagt).

Definition 1.31. Seien M1, . . ., Mn Mengen. Dann ist das kartesische Produkt M1 ×. . .×Mn
die Menge aller geordneten n-Tupel mit Elementen aus M1 bis Mn . In Formeln:

M1 × . . . × Mn := {(x1, . . ., xn ) | x1 ∈ M1 ∧ . . . ∧ xn ∈ Mn }.

Am besten kann man sich das kartesische Produkt vorstellen, wenn n = 2 ist und die beiden
Mengen M1 und M2 endlich sind. Dann entsprechen die Elemente von M1 × M2 den Kästchen
einer Tabelle, in der die Elemente von M1 horizontal und die von M2 vertikal aufgelistet sind.

Beispiel 1.32. Ist M1 = {♦, ♥, ♠, ♣} und M2 = {7, 8, 9, 10, B, D, K, A}, dann tritt jedes Element
von M1 × M2 an genau einer Stelle folgender Tabelle auf:

♦ ♥ ♠ ♣
7 (♦, 7) (♥, 7) (♠, 7) (♣, 7)
8 (♦, 8) (♥, 8) (♠, 8) (♣, 8)
9 (♦, 9) (♥, 9) (♠, 9) (♣, 9)
10 (♦, 10) (♥, 10) (♠, 10) (♣, 10)
B (♦, B) (♥, B) (♠, B) (♣, B)
D (♦, D) (♥, D) (♠, D) (♣, D)
K (♦, K) (♥, K) (♠, K) (♣, K) Abb. 9 Spielkarten
A (♦, A) (♥, A) (♠, A) (♣, A)
Tab. 7 Elemente von M1 × M2

In diesem Beispiel entspricht jedes Element von M1 × M2 einer Spielkarte im Skat.

Bemerkung 1.33. Man schreibt das n-fache kartesische Produkt einer Menge M mit sich
selbst auch als M n , d.h.:
M × . . . × M ⇔: M n
Häufig schreibt man n-Tupel auch als Spalten statt als Zeilen, d.h.:


⎪  ⎫



x 1  ⎪


⎪ 
..  ∀i ∈ {1, . . . , n} : x ⎬

M = . 
n
i ∈ M .

⎪   ⎪


⎪ xn  ⎪

⎩  ⎭
1.4. Abbildungen 19

1.4. Abbildungen
Mengen werden durch Abbildungen zueinander in Bezug gesetzt.

Definition 1.34. Seien M und N Mengen. Eine Abbildung f : M → N ist eine Vorschrift,
die jedem Element x ∈ M genau ein Element f (x) ∈ N zuordnet. Hierbei heißt dann M
Definitionsbereich und N Wertebereich von f .

M f N

Abb. 10 Abbildung

Abbildungen können alles Mögliche beschreiben. Zum Beispiel könnte in einem physikalischen
Experiment der Definitionsbereich die Menge aller Einstellungen des Experiments sein, der
Wertebereich R und die Abbildung liefert den Messwert des Experiments, den man bei jeder
Einstellung erhält.
Oder der Definitionsbereich könnte die Menge aller Produkte eines Supermarkts sein, der
Wertebereich Q und die Abbildung liefert den Preis eines jeden Produkts in Euro.
Nehmen wir die Menge M := M1 × M2 aus Beispiel 1.32, deren Elemente den Spielkarten im
Skat entsprechen, als Definitionsbereich und N0 als Wertebereich, so könnten wir jedem Ele-
ment von M den Punktewert der entsprechenden Karte im Skat zuordnet, also z.B. f (♦, 9) = 0
und f (♠, K) = 4.
Um die Funktionsvorschrift einer Abbildung f : M → N anzugeben, schreibt man häufig

x → f (x).

Beispiele 1.35. 1. f : Z → N0, x → x 2 .

2. f : R × R → R, (x, y) → x + y.

1 falls x ∈ Q
3. f : R → N, x →
0 falls x  Q

4. f = id M : M → M, x → x. Diese Abbildung heißt identische Abbildung von M oder


Identität von M.
20 1. Grundlagen

Definition 1.36. Sei f : M → N eine Abbildung und M  ⊂ M eine Teilmenge. Dann heißt

f (M ) := { f (x ) | x  ∈ M } ⊂ N

das Bild von M  unter f .

M f N

f (M )
M

Abb. 11 Bild

Bemerkung 1.37. Im Fall M  = M, also wenn M  der gesamte Definitionsbereich ist, nennt
man f (M) auch einfach das Bild von f . Dafür verwendet man auch die Notation im( f ) := f (M),
wobei „im“ für das englische Wort „image“ für Bild steht.

Definition 1.38. Sei f : M → N eine Abbildung und N  ⊂ N eine Teilmenge. Dann heißt

f −1 (N  ) := {x ∈ M | f (x) ∈ N  } ⊂ M

das Urbild von N  unter f .

M f N

N
f −1 (N  )

Abb. 12 Urbild

Beispiel 1.39. Wir nehmen M := R × R und N := R und die Abbildung f : R × R → R mit


f (x, y) = x + y.
Sei M  := {(0, y) ∈ R × R | y ∈ R}. Dann ist das Bild von M  unter f gegeben durch

f (M ) = { f (0, y) | y ∈ R} = {0 + y | y ∈ R} = R.
1.4. Abbildungen 21

Sei nun N  = {0}. Wir bestimmen das Urbild:

f −1 (N  ) = {(x, y) ∈ R × R | f (x, y) ∈ N  }
= {(x, y) ∈ R × R | x + y ∈ {0}}
= {(x, y) ∈ R × R | x + y = 0}
= {(x, y) ∈ R × R | y = −x}
= {(x, −x) | x ∈ R} .

In diesem Beispiel hatte die Menge N  nur ein Element. Dennoch hat das Urbild f −1 (N  )
unendlich viele Elemente.

Bemerkung 1.40. Ist f : M → N eine Abbildung und möchte man das Urbild einer Teilmenge
N  ⊂ N betrachten, das genau ein Element hat, d.h. N  = {y} für ein y ∈ N, dann schreibt man
statt f −1 ({y}) auch einfacher f −1 (y). Das Urbild der Menge {y} und das Urbild des Elements
y sind also per Konvention dasselbe.

Beispiel 1.41. Nehmen wir M = M1 × M2 aus Beispiel 1.32, also die Menge der Skatkarten,
und f : M → N0 die Abbildung, die jeder Karte ihren Punktwert zuordnet. Dann ist das Bild
von f die Menge der möglichen Punktwerte, also

f (M) = {0, 2, 3, 4, 10, 11}.

Das Urbild von {0} ist gegeben durch

f −1 (0) = {(♦, 7), (♥, 7), (♠, 7), (♣, 7), (♦, 8), (♥, 8), (♠, 8), (♣, 8), (♦, 9), (♥, 9), (♠, 9), (♣, 9)}.

Ein Skatspieler würde f −1 (0) als die Menge der Luschen bezeichnen.

Beispiel 1.42. Schachstellungen können wir wie folgt durch Abbildungen beschreiben: Zu-
nächst setzen wir

Schachbrett := {a, b, c, d, e, f , g, h} × {1, 2, 3, 4, 5, 6, 7, 8}.

8 0Z0Z0Z0Z
Die Elemente der Menge Schachbrett entspre- 7 Z0Z0Z0Z0
6 0Z0Z0Z0Z
chen den Feldern des Schachbretts, (a, 1) z.B. 5 Z0Z0Z0Z0
4 0Z0Z0Z0Z
dem Feld ganz links unten. Nun betrachten 3 Z0Z0Z0Z0
wir die Menge der möglichen Spielfiguren im 2 0Z0Z0Z0Z
1 Z0Z0Z0Z0
Schach, a b c d e f g h

Abb. 13 Schachbrett

 
Figuren := K, Q, R, B, N, P, k, q, r, b, n, p .
22 1. Grundlagen

Die erste Idee ist nun, eine Schachstellung durch eine Abbildung zu beschreiben, die jeder
Figur das Feld zuordnet, auf dem sie steht. Das wäre eine Abbildung

Schachstellung : Figuren → Schachbrett.

Dabei haben wir aber das Problem, dass Figuren mehrfach vorkommen können und dass
manche Figuren möglicherweise auch überhaupt nicht vorkommen, weil sie im Laufe der
Schachpartie bereits geschlagen wurden. Richtig ist es daher, jeder Figur die Menge der Felder
zuzuordnen, auf denen sie vorkommt. Diese Menge kann auch leer sein. Wir bekommen
daher eine Abbildung, deren Wertebereich nicht Schachbrett, sondern die Potenzmenge von
Schachbrett,
Schachstellung : Figuren → P(Schachbrett).

So würde die Abbildung Schachstellung zur folgenden Position aus der Partie Fischer-Tal (Mar
del Plata 1959)6 erfüllen

8
0s0l0ZkZ  
7
Z0Z0apZp Schachstellung K = {(g, 2)},
 
6
0ZRZnZpZ Schachstellung Q = {(g, 4)},
5
Z0Z0o0O0 Schachstellung (R) = {(c, 6)},
4
BZpZPZQZ Schachstellung (B) = {(a, 4), (e, 3)},
3
Z0O0A0O0 Schachstellung (N) = ∅,
2
0Z0Z0OKZ
Schachstellung (P) = {(c, 3), (e, 4), ( f , 2), (g, 3), (g, 5)}
1
Z0Z0Z0Z0
a b c d e f g h
Abb. 14 Fischer-Tal 1959 usw.

Wenn wir zwei Abbildungen haben, für die der Wertebereich der einen mit dem Definitions-
bereich der anderen übereinstimmt, dann können wir diese beiden Abbildungen zu einer neuen
zusammensetzen.

Definition 1.43. Seien g : X → Y und f : Y → Z zwei Abbildungen. Dann heißt

f ◦g: X → Z mit ( f ◦ g)(x) = f (g(x))

für alle x ∈ X die Komposition oder die Verkettung von f mit g.

Etwa ist für f : R → R, y → y 2 , und g : R → R, x → x 3 , die Verkettung von f mit g gegeben


durch
( f ◦ g)(x) = f (g(x)) = f (x 3 ) = (x 3 )2 = x 6 .
6Weiß am Zug gewinnt. Wie?
1.4. Abbildungen 23

Bemerkung 1.44. In diesem Beispiel gilt f ◦ g = g ◦ f . Das ist allerdings Zufall. Ist X  Z, so
ist g ◦ f überhaupt nicht definiert. Aber selbst wenn X = Z ist, gilt in den allermeisten Fällen
f ◦g  g ◦ f.

Beispiel 1.45. Für f : R → R, x → x + 1, und g : R → R, x → x 2 , ist

( f ◦ g)(x) = f (g(x)) = f (x 2 ) = x 2 + 1

während
(g ◦ f )(x) = g( f (x)) = g(x + 1) = (x + 1)2 = x 2 + 2x + 1
ist. Für alle x  0 ist somit ( f ◦ g)(x)  (g ◦ f )(x), also ist f ◦ g  g ◦ f .

Bemerkung 1.46. Liegen drei Abbildungen h : A → B, g : B → C und f : C → D vor,


so können wir zunächst g ◦ h bilden und schließlich f dahinterschalten. Dabei kommt dann
f ◦ (g ◦ h) heraus. Andererseits können wir auch erst ( f ◦ g) bilden und schließlich h von rechts
„herankringeln“. Dies liefert ( f ◦ g) ◦ h. Diese Unterscheidung macht uns glücklicherweise
keine Sorgen, denn in der Tat gilt stets:

( f ◦ g) ◦ h = f ◦ (g ◦ h).

Warum? Durch viermaliges Anwenden der Definition der Verkettung finden wir für alle a ∈ A :

(( f ◦ g) ◦ h)(a) = ( f ◦ g)(h(a)) = f (g(h(a))) = f ((g ◦ h)(a)) = ( f ◦ (g ◦ h))(a).

Wir brauchen uns bei der Verkettung von Abbildungen keine Gedanken um die Klammerung
zu machen. Daher können wir einfach

f ◦ g ◦ h := ( f ◦ g) ◦ h = f ◦ (g ◦ h)

schreiben.

Als Nächstes besprechen wir drei der wichtigsten Eigenschaften, die Abbildungen haben kön-
nen.

Definition 1.47. Eine Abbildung f : M → N heißt surjektiv :⇔

∀y ∈ N ∃x ∈ M : f (x) = y.

In anderen Worten, das Bild von f stimmt mit dem Wertebereich überein, f (M) = N.

Jedes Element des Wertebereichs N wird also bei einer surjektiven Abbildung von mindestens
einem Element des Definitionsbereichs getroffen.
24 1. Grundlagen

M f N

Abb. 15 Surjektive Abbildung

Beispiele 1.48. 1. Die Abbildung f : Z → N0 , n → |n|, ist surjektiv, da jedes y ∈ N0 im Bild


von f liegt. Setze für gegebenes y ∈ N0 z.B. x := y und bemerke, dass f (x) = f (y) = |y| =
y. Man könnte auch x := −y setzen.

2. Die Abbildung f : Z → Z, n → |n|, ist nicht surjektiv, da die negativen Zahlen nicht im
Bild von f liegen.

3. Sei Q+ die Menge der positiven rationalen Zahlen, Q+ := {x ∈ Q | x > 0}. Dann ist die
Abbildung f : N × N → Q+ , (n, m) → mn , surjektiv, da jede positive rationale Zahl als
Quotient natürlicher Zahlen geschrieben werden kann.

Beispiel 1.49. Sei P die Menge der ungeraden Primzahlen, P = {p ∈ N | p ist Primzahl ∧ p ≥
3}. Da die Summe zweier ungerader Zahlen stets gerade ist, erhalten wir eine Abbildung

G : P × P → {n ∈ N | n ist gerade ∧ n ≥ 6}, (p, q) → p + q.

Ist diese Abbildung surjektiv? Mit anderen Worten, lässt sich


jede gerade Zahl n mit n ≥ 6 als Summe zweier Primzahlen
schreiben? Testen wir dies an kleinen Zahlen n, so scheint es
zu stimmen: 6 = 3 + 3, 8 = 3 + 5, 10 = 5 + 5, 12 = 5 + 7,
14 = 7 + 7, 16 = 5 + 11, 18 = 7 + 11 = 5 + 13 usw.
Ob es allgemein stimmt, d.h. ob die Abbildung G surjektiv
ist, weiß man nicht. Es wird vermutet, dass dem so ist, da
man es mit Computern für sehr viele und hohe Zahlen n über-
prüft hat. Ein allgemeiner Beweis ist das natürlich nicht. Die
Frage geht auf den deutschen Gelehrten Christian Goldbach
(1690–1749) zurück und ist daher als Goldbach’sche Vermu- Abb. 16 Brief von Goldbach an
tung bekannt. Viele Mathematiker und Laien haben sich daran Euler 7
versucht, konnten bis heute aber keinen Beweis finden. Zwei
Verlage lobten im Jahr 2001 sogar ein Preisgeld von einer Million Dollar für den Beweis der
Surjektivität von G aus. Inzwischen wurde das Preisgeld wieder zurückgezogen. Die Vermu-
tung ist nach über 250 Jahren noch immer offen.

7Quelle: http://de.wikipedia.org/wiki/Christian_Goldbach
1.4. Abbildungen 25

Definition 1.50. Eine Abbildung f : M → N heißt injektiv :⇔

∀x1, x2 ∈ M : f (x1 ) = f (x2 ) ⇒ x1 = x2 .

Wie wir natürlich sofort erkennen, ist ∀x1, x2 ∈ M : x1  x2 ⇒ f (x1 )  f (x2 ) dazu
äquivalent.

Bei einer injektiven Abbildung werden verschiedene Elemente von M stets auf verschiedene
Elemente von N abgebildet. In anderen Worten, auf jedes Element von N wird höchstens
einmal abgebildet.

M f N

Abb. 17 Injektive Abbildung

Beispiele 1.51. 1. Die Abbildung f : N → N, x → x 2 , ist injektiv, da es zu jedem y ∈ N


höchstens eine positive ganze Quadratwurzel gibt.

2. Die Abbildung f : Z → Z, x → x 2 , ist nicht injektiv, da z.B. f (1) = f (−1).

Definition 1.52. Eine Abbildung f : M → N heißt bijektiv :⇔ f ist injektiv und surjektiv.
In anderen Worten: ∀y ∈ N ∃!x ∈ M : f (x) = y.

Bei einer bijektiven Abbildung wird auf jedes Element in N genau einmal abgebildet.

M f N

Abb. 18 Bijektive Abbildung

Beispiele 1.53. 1. Sei M eine beliebige Menge. Dann ist die Abbildung idM : M → M
bijektiv.
26 1. Grundlagen

2. Die Abbildung f : R → R, x → x 3 , ist bijektiv.

3. Die Abbildung f : Z → Z, x → x 3 , ist zwar injektiv, nicht aber surjektiv, also auch nicht
bijektiv. Die dritte Wurzel aus einer ganzen Zahl ist im Allgemeinen nicht ganz.

Notation 1.54. Sind M und N zwei Mengen, so schreiben wir für die Menge aller Abbil-
dungen von M nach N künftig Abb(M, N).

Satz 1.55. Seien M und N nicht leere Mengen. Sei f ∈ Abb(M, N). Dann gilt:

(i) f ist surjektiv ⇔ ∃g ∈ Abb(N, M) : f ◦ g = id N .

(ii) f ist injektiv ⇔ ∃g ∈ Abb(N, M) : g ◦ f = id M .

(iii) f ist bijektiv ⇔ ∃g ∈ Abb(N, M) : f ◦ g = id N ∧ g ◦ f = id M .

Definition 1.56. Im ersten Fall nennt man g eine rechtsinverse Abbildung von f , im zweiten
Fall eine linksinverse Abbildung und im dritten Fall einfach inverse Abbildung oder auch
Umkehrabbildung von f .

Beweis von Satz 1.55. Zu (i):


Für eine Äquivalenz müssen wir die beiden Beweisrichtungen „⇐“ und „⇒“ überprüfen.
Zu „⇐“:
Sei g ∈ Abb(N, M), so dass f ◦ g = id N gilt. Wir zeigen, dass f dann surjektiv ist. Es muss also
zu jedem y ∈ N ein Urbild unter f geben. Sei also y ∈ N beliebig. Wir setzen x := g(y) ∈ M.
Wir wenden auf dieses Element die Abbildung f an und nutzen schließlich die Voraussetzung
f ◦ g = id N . Es gilt:

f (x) = f (g(y)) = ( f ◦ g)(y) = id N (y) = y.

Zu „⇒“:
Sei nun f als surjektiv vorausgesetzt. Für beliebiges y ∈ N konstruieren wir g wie folgt: Da f
surjektiv ist, existiert mindestens ein (von y abhängiges) Element x y ∈ M mit f (x y ) = y. Dann
setzen wir einfach g(y) := x y, d.h. die Abbildung wählt zu jedem vorgegebenen y ein Urbild
x y aus.
1.4. Abbildungen 27

M f N

g
Abb. 19 Rechtsinverse einer surjektiven Abbildung

Dann gilt für alle y ∈ N:

( f ◦ g)(y) = f (g(y)) = f (x y ) = y = id N (y),

also
f ◦ g = id N .
Zu (ii):
Zu „⇐“:
Sei g ∈ Abb(N, M), so dass g ◦ f = id M gilt. Wir zeigen, dass f dann injektiv ist. Seien dazu
x1, x2 ∈ M mit f (x1 ) = f (x2 ). Wir müssen zeigen, dass x1 = x2 ist. Wir wenden die Abbildung
g auf das Element f (x1 ) = f (x2 ) an und erhalten

g( f (x1 )) = g( f (x2 ))
⇒ (g ◦ f )(x1 ) = (g ◦ f )(x2 )
⇒ id M (x1 ) = id M (x2 )
⇒ x1 = x2 .

Zu „⇒“:
Sei nun f als injektiv vorausgesetzt. An dieser Stelle geht ein, dass M nicht leer ist. Demnach
existiert wenigstens ein Element in M. Wir wählen eines aus und nennen es x0 ∈ M. Wir
definieren g : N → M wie folgt:

eindeutiges x ∈ M mit f (x) = y , falls y ∈ f (M),
g(y) :=
x0 , sonst.

M f N

x0

g
Abb. 20 Linksinverse einer injektiven Abbildung
28 1. Grundlagen

Dann gilt für alle x ∈ M :


(g ◦ f )(x) = g( f (x)) = x = id M (x).
Zu (iii):
Zu „⇐“:
Sei g ∈ Abb(N, M) so, dass f ◦ g = id N und g ◦ f = id M gilt. Dann folgt aus (i), dass f
surjektiv ist und aus (ii), dass f injektiv ist. Also ist f bijektiv.
Zu „⇒“:
Sei f nun bijektiv, also surjektiv und injektiv. Wegen (i) folgt die Existenz einer Abbildung
g1 ∈ Abb(N, M) mit f ◦ g1 = idN und wegen (ii) die einer Abbildung g2 ∈ Abb(N, M) mit
g2 ◦ f = id M .
A priori ist nicht klar, dass g1 = g2 gilt. Dies sehen wir aber wie folgt ein:
g1 = id M ◦ g1 = (g2 ◦ f ) ◦ g1 = g2 ◦ f ◦ g1 = g2 ◦ ( f ◦ g1 ) = g2 ◦ id N = g2 .
Somit hat g := g1 = g2 die verlangten Eigenschaften. 

Bemerkung 1.57. Der Schluss des Beweises des Satzes zeigt auch, dass die Umkehrabbildung
einer bijektiven Abbildung eindeutig ist. Wir schreiben sie üblicherweise als f −1 . Rechts- und
Linksinverse sind im Allgemeinen aber nicht eindeutig.

Zwei endliche Mengen M und N haben genau dann gleich viele Elemente, wenn es eine
bijektive Abbildung f : M → N zwischen ihnen gibt. Jedes Element von M entspricht genau
einem Element von N unter der bijektiven Abbildung f . Allgemein machen wir folgende auch
für unendliche Mengen gültige Definition:

Definition 1.58. Zwei Mengen M und N heißen gleichmächtig, wenn es eine bijektive
Abbildung f : M → N gibt.

Beispiel 1.59. Die Abbildung f : N0 → N, n → n + 1, ist bijektiv. Also sind N0 und N


gleichmächtig. Das ist bemerkenswert; obwohl N eine echte Teilmenge von N0 ist, hat N nicht
weniger Elemente als N0 ! Dass so etwas passieren kann, unterscheidet gerade die unendlichen
Mengen von den endlichen.

Beispiel 1.60. Auch N0 und Z sind gleichmächtig, da folgende Abbildung f : N0 → Z bijektiv


ist:

x 0 1 2 3 4 5 6 7 8 ...
f (x) 0 −1 1 −2 2 −3 3 −4 4 ...
Tab. 8 Bijektive Abbildung f : N0 → Z

Es gibt also nicht mehr ganze Zahlen als natürliche Zahlen!


1.4. Abbildungen 29

Ein komplexeres Beispiel, welches „verschiedenene Typen“ der Unendlichkeit illustriert, ist
bekannt unter dem Namen Hilberts Hotel.8
In einem Hotel mit endlich vielen Zimmern können bekannt-
lich keine Gäste mehr aufgenommen werden, sobald alle Zim-
mer belegt sind. Stellen wir uns nun ein Hotel mit unendlich
vielen Zimmern vor, durchnummeriert, beginnend bei 1 und
mit nur einem möglichen Gast pro Zimmer. Man könnte an-
nehmen, dass dasselbe Problem auch hier auftritt. Die naive
Vermutung hierzu wäre: Wenn unendlich viele Gäste im Hotel
sind, kann kein weiterer Gast aufgenommen werden. Sehen Abb. 21 Hilberts Hotel
wir uns einmal an, welche Erlebnisse eine Arbeitswoche in Hilberts Hotel bereithält:

Montag: Alle Zimmer sind belegt und ein neuer Gast reist an.
Der Hoteldirektor bittet den Gast im Zimmer 1 nach Zimmer 2 umzuziehen, den Gast im
Zimmer 2 nach Zimmer 3 umzuziehen, usw. Auf diese Weise ziehen alle „alten“ Gäste in
das Zimmer mit der nächsthöheren Zimmernummer um. Dadurch wird Zimmer 1 frei und
der neue Gast kann einziehen. Mathematisch steckt folgende injektive und nicht surjektive
„Umzieh-Abbildung“ hinter diesem Prinzip:

f : N → N, n → n + 1.

Die Injektivität stellt dabei sicher, dass niemals zwei Gäste in einem Zimmer einquartiert
werden. Andererseits ist f nicht surjektiv, denn offenbar wird 1 ∈ N nicht als Bild von f
angenommen, d.h. es gilt

f (N) = { f (n) | n ∈ N} = N \ {1} = {2, 3, 4, . . .} ,

also 1  f (N). Das heißt gerade, dass Zimmer 1 für den neuen Gast frei geworden ist.

Dienstag: Alle Zimmer sind belegt und ein Bus mit k neuen Gästen trifft ein (k ∈ N).
Wieder hat der clevere Hoteldirektor eine Lösung parat: Jeder „alte“ Gast zieht in das Zimmer,
dessen Nummer um k größer ist als das bisherige. Dadurch werden die Zimmer 1, . . ., k frei.
Diesmal liegt die injektive aber nicht surjektive Abbildung

f : N → N, n → n + k,

zu Grunde, für die


f (N) = N \ {1, . . . , k} = {k + 1, k + 2, . . .}
gilt. Daher ist {1, . . ., k} ∩ f (N) = ∅, die ersten k Zimmer sind für die neuen Gäste frei
geworden.

8benannt nach dem deutschen Mathematiker David Hilbert (1862–1943), siehe http://de.wikipedia.org/
wiki/David_Hilbert
30 1. Grundlagen

Mittwoch: Alle Zimmer sind belegt und ein Bus mit ∞ vielen Gästen trifft ein, deren Sitzplätze
mit 1, 2, 3, . . . durchnummeriert sind.
Selbst hier weiß sich der Hoteldirektor zu helfen: Die „alten“ Gäste ziehen in das Zimmer mit der
doppelten Zimmernummer und die neuen Gäste belegen dann die frei gewordenen ungeraden
Zimmernummern. Hier ist unsere injektive und nicht surjektive „Umzieh-Abbildung“ durch
f : N → N, n → 2n,
gegeben. Das Bild der Abbildung lautet
f (N) = {2n | n ∈ N} .
Für die neu eingetroffenenen Gäste nehmen wir die „Neubelegungs-Abbildung“:
g : N → N, n → 2n − 1.
Hierbei ist g injektiv und es gilt
g(N) = {2n − 1 | n ∈ N}
und damit f (N) ∩ g(N) = ∅. Die „neuen“ und die „alten“ Gäste kommen sich also nicht in die
Quere.

Donnerstag: Alle Zimmer sind belegt und ∞ viele Busse mit jeweils ∞ vielen Gästen treffen
ein, wobei Busse und Sitzplätze jeweils mit 1, 2, 3, . . . durchnummeriert sind.
Donnerstag ist ein sehr stressiger Tag in Hilberts Hotel. Die „alten“ Gäste müssen zunächst
wie am Mittwoch in die Zimmer mit den doppelten Zimmernummern umziehen. Natürlich
sind diese Zimmernummern dann gerade. Die „neuen“ Gäste quartieren wir wieder in den
Zimmern mit ungeraden Nummern ein. Sein Faible für Euklid bringt den Hoteldirektor auf
folgende Idee: Er ordnet als erstes jedem Bus eine ungerade Primzahl zu, d.h.
p1 = 3, p2 = 5, p3 = 7, p4 = 11, . . .
Als mathematisch gebildeter Mensch weiß der Hoteldirektor, dass es unendlich viele Primzah-
len gibt, von denen nur eine gerade ist. Daher kann der Hoteldirektor jeden Bus mit je einer
eigenen ungeraden Primzahl versorgen. Die Fahrgäste aus Bus 1 belegen nun nach und nach
die Zimmer 31, 32, 33, . . .. Die Fahrgäste aus Bus 2 belegen dann sukzessive die Zimmer 51,
52, 53, . . ., die aus Bus 3 belegen 71, 72, 73, . . . usw. Damit hat es der Direktor mal wieder
geschafft!
Nun legen wir uns diese Angelegenheit noch einmal mathematisch zurecht, behalten dazu un-
sere „Mittwochs-Umzieh-Abbildung“ f : N → N mit f (n) = 2n bei und definieren schließlich
die „Neubelegungs-Abbildung“
g : N × N → N, (m, n) → pnm .
Dabei beschreibt m die Busnummer und n die Sitzplatznummer. Überlegen wir also, dass

g injektiv ist: Für alle (m, n) und (m, n) folgt aus g(m, n) = g(m, n), dass pnm = pnm , also
  
pm = pm  ∧ n = n , d.h. m = m ∧ n = n . Nun ist
f (N) ∩ g(N) ⊂ {n ∈ N | n gerade} ∩ {n ∈ N | n ungerade} = ∅
1.4. Abbildungen 31

und daher f (N) ∩ g(N) = ∅.

Freitag: Alle Zimmer sind frei und ein neuer Bus mit ∞ vielen Gästen trifft ein, wobei die
Sitzplätze mit√ den reellen Zahlen des Intervalls (0, 1) durchnummeriert sind, also unter anderem
π
auch mit 15 , 22 oder etwa 10 .
Heute muss der Hoteldirektor allerdings passen und kann zu seinem Bedauern nicht allen
angereisten Gästen ein Zimmer anbieten. Wie man nun richtig vermutet, unterscheidet sich die
Anzahl ∞ der Sitzplätze im Bus zur Anzahl ∞ der Hotelzimmer. Exakt begründen wir diesen
Sachverhalt mit

Satz 1.61. Es gibt keine injektive Abbildung g : (0, 1) → N.

Beweis. Wir machen die Widerspruchsannahme, dass es doch eine injektive Abbildung
g : (0, 1) → N gibt. Das Bild von g ist eine Teilmenge von N. Nennen wir das kleinste Element
dieser Teilmenge y1 . Da y1 im Bild von g liegt, gibt es ein x1 ∈ (0, 1) mit g(x1 ) = y1 . Da g injek-
tiv ist, ist dieses x1 eindeutig. Nun betrachten wir das zweitkleinste Element y2 ∈ g((0, 1)) ⊂ N
und das zugehörige x2 ∈ (0, 1) mit g(x2 ) = y2 . So fahren wir fort; allgemein sei xi ∈ (0, 1)
das Element, für das g(xi ) das i-te Element im Bild g((0, 1)) ⊂ N ist. Damit haben wir eine
Auflistung der Elemente von (0, 1) erhalten,

(0, 1) = {x1, x2, x3, . . .}. (1.21)

Nun nutzen wir das so genannte Cantor’sche Diagonalverfahren, um einen Widerspruch her-
zuleiten. Wir schreiben die Elemente xi ∈ (0, 1) in Dezimalbruchentwicklung hin:

„Sitzplatz im Bus“ „zugeordnete Zimmernummer“


x1 = 0, a11 a12 a13 . . . g(x1 ) minimal
x2 = 0, a21 a22 a23 . . . g(x2 ) zweitkleinstes Element
x3 = 0, a31 a32 a33 . . . g(x3 ) drittkleinstes Element
.. ..
. .
Tab. 9 Cantors Diagonalverfahren

Dabei ist ai j ∈ {0, . . ., 9} die j-te Ziffer in der Dezimalentwicklung der i-ten Zahl xi . Wir
konstruieren nun eine neue reelle Zahl y = 0, b1 b2 b3 . . . mit b j ∈ {0, . . ., 9}, wobei

3, falls a j j  3
b j :=
4, falls a j j = 3.

Dann erhalten wir in der Tat eine reelle Zahl y ∈ (0, 1) mit der Nachkommaunterscheidung
b j  a j j , so dass für alle j ∈ N gilt: y  x j . Also ist y ∈ (0, 1) eine neue reelle Zahl, die noch
nicht in unserer Liste auftaucht. Dies widerspricht (1.21), wonach alle Zahlen aus (0, 1) in der
Liste x1, x2, x3, . . . vorkommen. 
32 1. Grundlagen

Wir haben zwei unendliche Mengen gefunden, die nicht gleichmächtig sind, nämlich N und
(0, 1). Tatsächlich hat (0, 1) mehr Elemente als N. Es gibt also verschiedene „Unendlichs“.

Satz 1.62. Die Mengen N und Q+ sind gleichmächtig.

Beweis. Um eine bijektive Abbildung f : N → Q+ zu konstruieren, schreiben wir die Elemente


von Q+ in folgender unendlicher Tabelle auf; horizontal tragen wir den Zähler auf, vertikal den
Nenner:

1 2 3 4 ···
1 1
1
2
1
3
1
4
1 ···
2 1
2
2
2
3
2
4
2 ···
3 1
3
2
3
3
3
4
3 ···
4 1
4
2
4
3
4
4
4 ···
.. .. .. .. .. ..
. . . . . .
Tab. 10 Positive rationale Zahlen

Da jede positive rationale Zahl sich als Quotient zweier natürlicher Zahlen schreiben lässt,
kommt jedes x ∈ Q+ in der Tabelle vor. Allerdings kommt es mehrfach vor, da z.B. 11 = 22 =
3 = · · · . Um nun f anzugeben, klappern wir die Elemente in der Tabelle „diagonalweise“ ab,
3

wobei wir jede Zahl, die schon mal erreicht wurde, auslassen.
   
···

    ···

    ···

  
···

.. .. .. .. ..
. . . . .
Abb. 22 Auflistung der Tabelleneinträge

Es ist also f (1) = 11 = 1, f (2) = 12 , f (3) = 21 = 2, f (4) = 13 , f (5) = 31 = 3 (und nicht


f (5) = 22 , denn 22 = 11 = f (1) hatten wir schon), f (6) = 14 , usw. Die so konstruierte Abbildung
ist surjektiv, da jede rationale Zahl irgendwann erreicht wird und daher im Bild von f liegt.
Wegen des Überspringens bereits erreichter Zahlen, ist f auch injektiv. 

Korollar 1.63. Die Mengen Z und Q sind gleichmächtig.


1.4. Abbildungen 33

Beweis. Sei f : N → Q+ die bijektive Abbildung aus obigem Beweis. Wir erhalten eine
bijektive Abbildung F : Z → Q durch


⎪ f (n), falls n > 0,



n → 0, falls n = 0,


⎪ − f (−n), falls n < 0.

Da N und Z ebenfalls gleichmächtig sind, erhalten wir auch

Korollar 1.64. Die Mengen N und Q sind gleichmächtig. 

Definition 1.65. Eine Menge M heißt abzählbar unendlich, falls M und N gleichmächtig
sind. Ist M unendlich, aber nicht zu N gleichmächtig, dann heißt M überabzählbar.

Diese Sprechweise rührt daher, dass man falls M abzählbar unendlich ist, eine bijektive Ab-
bildung f : N → M finden kann und daher die Menge M schreiben kann als

M = { f (1), f (2), f (3), . . .}.

Man kann die Elemente einer abzählbar unendlichen Menge M auflisten. Für überabzählbare
Mengen ist dies nicht möglich.

Beispiel 1.66. Wir haben gesehen, dass die Mengen N, N0 , Z, Q+ und Q abzählbar unendlich
sind. Hingegen ist das reelle Intervall (0, 1) überabzählbar.

Definition 1.67. Seien M und N Mengen und M  ⊂ M eine Teilmenge. Sei f ∈ Abb(M, N)
eine Abbildung. Die Einschränkung von f auf M  ist die Abbildung f | M  ∈ Abb(M , N),
die durch
∀x  ∈ M  : f | M  (x ) := f (x )
gegeben ist.

Beispiel 1.68. Wir überlegen uns, dass R überabzählbar sein muss. Wäre nämlich R abzählbar
unendlich, so gäbe es eine bijektive Abbildung f : R → N. Die Einschränkung einer injektiven
Abbildung ist stets wieder injektiv. Also wäre die Einschränkung von f auf das Intervall (0, 1)
wiederum eine injektive Abbildung f |(0,1) : (0, 1) → N. Dies widerspricht aber Satz 1.61.
34 1. Grundlagen

1.5. Vollständige Induktion


Als letzten Abschnitt im Kapitel über Grundlagen besprechen wir noch ein wichtiges Beweis-
prinzip, das wir in Abschnitt 1.2 zunächst noch zurückgestellt hatten, die vollständige Induktion.
Sie kommt häufig zum Einsatz, wenn eine ganze Serie von Aussagen A(1), A(2), A(3), . . . zu
beweisen ist. Zum Beispiel könnten wir beweisen wollen, dass

n(n + 1)
1+2+···+n = .
2
für alle n ∈ N gilt.
Das Prinzip der vollständigen Induktion besagt, dass es reicht, statt A(1), A(2), A(3), . . . die
Aussagen B(1), B(2), B(3), . . . zu beweisen, wobei

B(1) :⇔ A(1)

und für n ≥ 2
B(n) :⇔ (A(1) ∧ A(2) ∧ · · · ∧ A(n − 1) ⇒ A(n))
ist. Zunächst mal fragen wir uns, warum das eine Erleichterung darstellt. Für den Beweis der
ersten Aussage A(1) ändert sich nichts; die müssen wir beweisen. Für n ≥ 2 ist B(n), d.h. die
Folgerung A(1) ∧ A(2) ∧ · · · ∧ A(n − 1) ⇒ A(n) aber oft leichter zu zeigen, als direkt A(n),
weil wir die Gültigkeit von A(n) nur unter Annahme der Gültigkeit von A(1), . . ., A(n − 1) zu
zeigen haben. Mit anderen Worten, B(n) zu zeigen, bedeutet A(n) zu zeigen, aber wir dürfen
bei der Herleitung die vorangegangen Aussagen A(1), . . . , A(n − 1) benutzen!
Warum ist das Prinzip der vollständigen Induktion zulässig? Nehmen wir an, wir haben
B(1), B(2), B(3), . . . gezeigt. Dann gilt A(1), da es ja äquivalent zu B(1) ist. Wegen B(2)
folgt nun A(2) aus A(1) und ist daher auch gültig. Wegen B(3) folgt nun A(3) aus A(1) und
A(2) und ist daher ebenfalls gültig, usw.
Den Nachweis von B(1), d.h. von A(1) nennt man den Induktionsanfang. Den Nachweis von
B(2) ∧ B(3) ∧ · · · nennt man den Induktionsschritt. Beim Nachweis von A(n) in der Implikation
B(n) nennt man A(1)∧· · · ∧ A(n −1) die Induktionsvoraussetzung. Es ist ein häufig auftretender
Spezialfall, dass man von der Induktionsvoraussetzung nur die direkt vorangehende Aussage
A(n − 1) benutzt.

Beispiel 1.69. Genug der Vorrede. Zeigen wir, dass

n(n + 1)
1+2+···+n = . (1.22)
2
für alle n ∈ N gilt.
Induktionsanfang: Dazu ist die Aussage für n = 1 zu beweisen. In der Tat ist

1(1 + 1)
1=
2
offensichtlich wahr und der Induktionsanfang ist abgeschlossen.
1.5. Vollständige Induktion 35

Induktionsschritt: Sei dazu n ≥ 2. Wir zeigen die Aussage (1.22) für dieses n und dürfen dabei
die Aussage für 1, . . . , n − 1 verwenden. In diesem Beispiel reicht es aus, die Induktionsvor-
aussetzung mit n − 1 zu benutzen. Nach Induktionsannahme gilt also
(n − 1)((n − 1) + 1)
1 + 2 + · · · + (n − 1) = .
2
Wir addieren auf beiden Seiten n und berechnen
(n − 1)((n − 1) + 1) n(n + 1)
1 + 2 + · · · + (n − 1) + n = +n = .
2 2
Damit ist der Beweis abgeschlossen.

Zu dieser Formel gibt es eine nette Anekdote. Im Alter von sieben


Jahren kam Carl Friedrich Gauß (1777–1855), der später einer der
bedeutendsten Mathematiker aller Zeiten werden sollte, in die Volks-
schule. Dort stellte der Lehrer den Schülern die Aufgabe, die Zahlen
von 1 bis 100 zu addieren, um sie eine Weile zu beschäftigen. Anstatt
stumpfsinnig loszurechnen, überlegte sich Gauß die Formel (1.22) und
hatte das Ergebnis in kürzester Zeit gefunden,
100 · 101
1 + 2 + · · · + 100 = = 5050. Abb. 23 Carl Friedrich
2 Gauß (1777–1855) 9
Der Lehrer dürfte einigermaßen verblüfft gewesen sein.

Beispiel 1.70. Wir zeigen mittels vollständiger Induktion: Für jede endliche Menge M gilt

#P(M) = 2#M . (1.23)

Zunächst müssen wir überlegen, wie die Aussagen A(n) hier überhaupt lauten sollen. Es bietet
sich an, hier folgende Aussagen zu zeigen:

A(n) :⇔ Hat M genau n Elemente, dann hat P(M) genau 2n Elemente.

Der Kenner würde sagen, wir machen vollständige Induktion über die Zahl der Elemente
von M.
Induktionsanfang: n = 1. Es ist also zu zeigen:

Hat M genau ein Element, dann hat P(M) genau zwei Elemente.

Dies ist wahr, denn falls M genau ein Element hat, dann ist P(M) = {∅, M}. Da M  ∅, hat
P(M) genau zwei Elemente. Der Induktionsanfang ist abgeschlossen.
9Künstler: Gottlieb Biermann, Fotograf: A. Wittmann, Quelle: Sternwarte der Universität Göttingen,
https://de.wikipedia.org/wiki/Carl_Friedrich_Gau%C3%9F#/media/File:Carl_Friedrich_
Gauss.jpg
36 1. Grundlagen

Induktionsschritt: Sei n ≥ 2. Wir zeigen A(n), wobei wir A(1), . . ., A(n − 1) benutzen dürfen.
Auch in diesem Beispiel benötigen wir nur A(n − 1). Schreiben wir M erst mal hin:
M = {x1, x2, . . ., xn }.
Dabei sind die xi die paarweise verschiedenen Elemente von M. Wir setzen
M  := {x1, . . ., xn−1 }.
Wir haben also ein Element weggelassen. Die Menge M  hat genau n − 1 Elemente. Daher gilt
nach A(n − 1) (der Induktionsvoraussetzung), dass
#P(M ) = 2n−1 . (1.24)
Nun teilen wir P(M) in zwei disjunkte Teilmengen auf:
X := {T ∈ P(M) | xn ∈ T },
Y := {T ∈ P(M) | xn  T }.
Wegen P(M) = X ∪ Y und X ∩ Y = ∅ ist
#P(M) = #X + #Y . (1.25)
Die Teilmengen von M, die xn nicht enthalten, sind genau die Teilmengen von M , also
Y = P(M ) und wegen (1.24) somit
#Y = 2n−1 . (1.26)
Fügen wir zu den Teilmengen von M  das Element xn hinzu, so erhalten wir gerade die
Teilmengen von M, die xn enthalten. In anderen Worten, die Abbildung
Hinzufügen : P(M ) → X, T → T ∪ {xn },
ist bijektiv. Daher haben X und P(M ) gleich viele Elemente. Wiederum wegen (1.24) ist
#X = #P(M ) = 2n−1 . (1.27)
Wir setzen (1.26) und (1.27) in (1.25) ein und erhalten
#P(M) = 2n−1 + 2n−1 = 2 · 2n−1 = 2n,
was zu beweisen war.
Damit ist die vollständige Induktion abgeschlossen. Wir haben gezeigt, für jede Menge mit
genau n Elementen, wobei n ∈ N, hat die Potenzmenge genau 2n Elemente. Dabei haben wir
einen Fall übersehen, die leere Menge. Sie hat 0 Elemente, die Potenzmenge genau eines,
nämlich die leere Menge. Also ist die Behauptung auch in diesem Fall wahr, es gilt ja 20 = 1.
Tatsächlich wäre es geschickter gewesen, den Induktionsanfang mit der leeren Menge zu
beginnen. Dazu hätten wir die Aussagen A(n) wie folgt wählen können:
A(n) :⇔ Hat M genau n − 1 Elemente, dann hat P(M) genau 2n−1 Elemente.
Alternativ kann man die Aussagen auch lassen, wie sie waren und dafür auch die Aussa-
ge A(0) mit berücksichtigen. Dann ist der Beweis von A(0) der Induktionsanfang und der
Induktionsschritt zeigt dann für n ≥ 1, dass aus A(0), . . . , A(n − 1) die Aussage A(n) folgt.
1.5. Vollständige Induktion 37


Von jetzt an werden wir auch die Schreibweise mit dem Summenzeichen und dem Produktzei-
 10
chen verwenden. Wir schreiben also statt x1 +. . .+ x10 auch j=1 x j . Der Summationsindex j

kann natürlich auch anders genannt werden. Analog ist x1 · · · x10 = 10k=1 x k .

Beispiel 1.71. Wir beweisen Proposition 1.12 nochmals, diesmal mittels vollständiger Induk-
tion. Wir erinnern uns an die Aussage: Für alle n ∈ N, n ≥ 2, gilt

n lässt sich als Produkt von Primzahlen schreiben.

Dieses Mal ist der Induktionsanfang bei n = 2 durchzuführen. In der Tat ist 2 selbst eine
Primzahl, so dass die Gleichung
2=2
die gewünschte Primzahlzerlegung darstellt (ein Produkt mit nur einem Faktor). Der Indukti-
onsanfang ist abgeschlossen.
Induktionsschritt: Sei n ≥ 3. Ist n selbst eine Primzahl, so ist wiederum n = n die gewünschte
Primzahlzerlegung und wir sind fertig. Falls nicht, so können wir n = m1 · m2 schreiben,
wobei m1, m2 ∈ {2, . . ., n − 1}. Nach Induktionsvoraussetzung besitzen m1 und m2 Primzahl-
zerlegungen,
k 
m1 = pi und m2 = q j,
i=1 j=1

wobei die pi und die q j Primzahlen sind. Dann ist


k 

n= pi · qj
i=1 j=1

eine Primzahlzerlegung von n und der Induktionsschritt ist abgeschlossen.

Schließlich wollen wir vollständige Induktion noch verwenden, um folgende sehr nützliche
Aussage zu zeigen.

Lemma 1.72 (Hotelzimmerlemma). Seien X und Y endliche Mengen mit gleich vielen
Elementen. Sei f : X → Y eine Abbildung. Dann sind äquivalent:

(1) f ist injektiv.

(2) f ist surjektiv.

(3) f ist bijektiv.

Dieses Lemma ist sehr plausibel, denn stellen wir uns vor, X ist eine Menge von Hotelgästen
und Y eine Menge von Hotelzimmern. Wir haben vorausgesetzt, dass es gleich viele Hotelgäste
38 1. Grundlagen

wie Hotelzimmer gibt. Die Abbildung f ordnet nun jedem Hotelgast ein Hotelzimmer zu. Nun
bedeutet z.B. dass f injektiv ist, dass jeder Hotelgast sein eigenes Hotelzimmer bekommt, das
er mit niemandem teilen muss. Da wir gleich viele Hotelzimmer wie Hotelgäste haben, sind
dann alle Zimmer belegt, d.h. f ist auch surjektiv und damit bijektiv. Setzen wir umgekehrt
voraus, dass f surjektiv ist, so sind alle Zimmer belegt. Da wir gleich viele Gäste wie Zimmer
haben, kann kein Zimmer mehrfach belegt sein, also muss f auch injektiv sein.
Wenn X und Y verschieden viele Elemente haben oder wenn X und Y unendlich viele Elemente
haben dürfen, dann gilt das Lemma nicht mehr, wie die Diskussion um Hilberts Hotel gezeigt
hat.

Beweis von Lemma 1.72. Wir beweisen die Aussage mittels vollständiger Induktion über die
Anzahl n der Elemente von X und Y.
Induktionsanfang: n = 0. Hier gilt X = Y = ∅ und die einzige Abbildung f : ∅ → ∅ ist die
leere Abbildung, die überhaupt nichts abbildet. Diese Abbildung ist injektiv und surjektiv, also
bijektiv. Aussagen (1)–(3) sind daher im Fall n = 0 stets wahr und damit äquivalent.
Induktionsschritt: Sei n ≥ 1. Wir müssen zeigen, dass aus der Injektivität von f die Surjektivität
folgt und umgekehrt.
Sei f zunächst als injektiv vorausgesetzt. Wir wählen ein Element x0 ∈ X und setzen y0 :=
f (x0 ) ∈ Y . Dann haben X  := X \ {x0 } und Y  := Y \ {y0 } jeweils n − 1 viele Elemente. Da f
injektiv ist, wird kein Element aus X  auf y0 abgebildet. Also können wir f zu einer Abbildung
fX  : X  → Y  einschränken. Da die Einschränkung einer injektiven Abbildung stets wieder
injektiv ist, ist fX  : X  → Y  eine injektive Abbildung zwischen zwei Mengen mit je n − 1
Elementen. Nach Induktionsannahme ist fX  : X  → Y  dann auch surjektiv. Somit liegt jedes
Element von Y  im Bild von f . Für y0 gilt dies sowieso. Also liegt jedes Element von Y im
Bild von f , d.h. f ist surjektiv.
Sei nun umgekehrt f als surjektiv vorausgesetzt. Angenommen, f wäre nicht injektiv. Dann
gäbe es x1, x2 ∈ X mit x1  x2 , so dass f (x1 ) = f (x2 ). Wir setzen X  := X \ {x1 }. Dann wäre
fX  : X  → Y immer noch surjektiv. Nun aber hätte X  nur n − 1 Elemente, daher kann auch
das Bild f (X ) höchstens n − 1 Elemente haben. Da Y aber n Elemente hat, kann fX  : X  → Y
nicht surjektiv sein, Widerspruch. 

1.6. Aufgaben
1.1. Begründen Sie, warum die Regel „Keine Regel ohne Ausnahmen“ in sich widersprüchlich
ist.

1.2. In einem Dorf rasiert ein Barbier genau diejenigen Männer, die sich nicht selbst rasieren.
Rasiert der Barbier sich selbst?
Sie werden bei dieser Frage auf ein Problem stoßen. Erläutern Sie, wodurch dieses Problem
entsteht.

1.3. a) Ein Rätsel von Lewis Carroll, dem Autor von „Alice im Wunderland“. Wir wissen
Folgendes:
1.6. Aufgaben 39

(1) Die einzigen Tiere in diesem Haus sind Katzen.


(2) Jedes Tier, das gerne in den Mond starrt, ist als Schoßtier geeignet.
(3) Wenn ich ein Tier verabscheue, gehe ich ihm aus dem Weg.
(4) Es gibt keine fleischfressenden Tiere außer denen, die bei Nacht jagen.
(5) Es gibt keine Katze, die nicht Mäuse tötet.
(6) Kein Tier mag mich, außer denen im Haus.
(7) Kängurus sind nicht als Schoßtiere geeignet.
(8) Nur fleischfressende Tiere töten Mäuse.
(9) Ich verabscheue Tiere, die mich nicht mögen.
(10) Tiere, die bei Nacht jagen, starren gerne in den Mond.
Nun die Frage: Mag ich Kängurus?
Zur Beantwortung dieser Frage formalisieren Sie die Aussagen und verwenden Sie Aussa-
genlogik.

b) Ein weiteres Rätsel. Wir wissen Folgendes:


(1) Jeder unverheiratete Nichtraucher ist Briefmarkensammler.
(2) Jeder Briefmarkensammler aus Löbau ist ein Raucher, oder es gibt unter den briefmar-
kensammelnden Nichtrauchern keinen, der nicht in Löbau wohnt.
(3) Seitdem er sich auf Drängen seiner Frau das Rauchen abgewöhnt hat, ist das Briefmar-
kensammeln die größte Leidenschaft des Leipzigers Peter Schulze.
Frage: Ist jeder Löbauer Junggeselle Raucher?

1.4. Vervollständigen Sie den Beweis der Morgan’schen Gesetze, d.h. zeigen Sie für alle
Mengen M, N1, N2 :

a) M ∪ (N1 ∩ N2 ) = (M ∪ N1 ) ∩ (M ∪ N2 );

b) M \ (N1 ∪ N2 ) = (M \ N1 ) ∩ (M \ N2 );

c) M \ (N1 ∩ N2 ) = (M \ N1 ) ∪ (M \ N2 ).

1.5. Sei f : X → Y eine Abbildung und seien A ⊂ X, B ⊂ Y Teilmengen. Zeigen Sie:

a) Es gilt stets f −1 ( f (A)) ⊃ A;

b) f ist injektiv ⇔ ∀A ⊂ X : f −1 ( f (A)) = A;

c) Es gilt stets f ( f −1 (B)) ⊂ B;

d) f ist surjektiv ⇔ ∀B ⊂ Y : f ( f −1 (B)) = B.


40 1. Grundlagen

1.6. Seien X und Y zwei Mengen. Finden Sie heraus, wie viele Abbildungen von X nach Y es
gibt, wie viele davon injektiv, surjektiv bzw. bijektiv sind, und zwar falls

a) #X = 2 und #Y = 3;

b) #X = 3 und #Y = 2;

c) #X = #Y = 3.

1.7. Seien M, N und P Mengen. Beweisen Sie folgende Aussagen zur Mächtigkeit:

a) Jede Menge M ist gleichmächtig zu sich selbst.

b) Ist M zu N gleichmächtig, so ist auch N zu M gleichmächtig.

c) Ist sowohl M zu N gleichmächtig als auch N zu P gleichmächtig, so ist auch M zu P


gleichmächtig.

d) Die Mengen Z und R sind nicht gleichmächtig.

Eine nachträgliche Bemerkung: Die Punkte (a) bis (c) besagen, dass die Eigenschaft, gleich-
mächtig zu sein, eine sogenannte Äquivalenzrelation definiert. Eigenschaft (a) wird dabei
auch als Reflexivität, (b) als Symmetrie und (c) als Transitivität bezeichnet.

1.8. Zeigen Sie:

a) Die Menge aller endlichen Teilmengen von N ist abzählbar;

b) Die Menge P(N) aller Teilmengen von N ist nicht abzählbar.

1.9. Zeigen Sie mittels vollständiger Induktion: Für alle n ∈ N ist 3n+1 − 9 durch 18 teilbar.

1.10. Beweisen Sie mittels vollständiger Induktion: Für alle n ∈ N mit n ≥ 2 ist 2n > n + 1.

1.11. Die berühmten Fibonacci-Zahlen fn sind folgendermaßen definiert: Es gilt f1 = f2 = 1


und für jedes n ≥ 3 ist fn die Summe der beiden vorangehenden Fibonacci-Zahlen, fn =
fn−1 + fn−2 . Es gilt also f3 = f2 + f1 = 1+1 = 2, f4 = f3 + f2 = 2+1 = 3, f5 = f4 + f3 = 3+2 = 5
usw.
Beweisen Sie mittels vollständiger Induktion, dass für alle n ∈ N gilt:

f12 + f22 + . . . + fn2 = fn · fn+1 .

1.12. Im Land Methylien sind die Bewohner dem Trauben- und Gerstensaft nicht abgeneigt
und das hat natürlich Konsequenzen für die Verkehrssicherheit. Um den armen Meythylianern
das Leben zu erleichtern, beschließt die Regierung, alle Städte direkt mit Straßen untereinander
zu verbinden, so dass es also stets eine direkte Verbindung von Stadt A nach Stadt B gibt. Diese
Straßen kreuzen sich nicht, sondern werden mit Brücken und Tunneln aneinander vorbeigeführt.
1.6. Aufgaben 41

Leider liefert das immer noch keine befriedigende Lösung des Verkehrsproblems, denn der
lästige Gegenverkehr bereitet den angeheiterten Meythylianern Probleme. Deshalb ergreift die
Regierung eine drastische Maßnahme und erklärt alle Straßen des Landes zu Einbahnstraßen.
Wie nicht anders zu erwarten, sind aber auch die Arbeiter, die die entsprechende Beschilderung
vornehmen, während ihrer Tätigkeit nicht ganz nüchtern, so dass die erlaubten Fahrtrichtungen
völlig willkürlich festgelegt werden. Nachdem das Kind nun in den Brunnen gefallen ist, stellt
sich der Regierung die Frage, ob sie überhaupt noch alle Städte von einer Hauptstadt aus
erreichen kann.
Beruhigen Sie die Regierung von Methylien indem Sie durch vollständige Induktion (nach der
Anzahl der Städte) zeigen:
Es gibt eine Stadt in Methylien, die sich als Hauptstadt eignet, weil sich von ihr aus alle
anderen Städte so durch korrektes Befahren von Einbahnstraßen erreichen lassen, dass man
einen Umweg über höchstens eine andere Stadt fahren muss.
Hinweis: Für den Induktionsschritt ist es hilfreich, eine kleine Karte mit den Städten und
Einbahnstraßen von Methylien zu zeichnen und sich zu überlegen, welche verschiedenen Fälle
bei Hinzunahme einer weiteren Stadt eigentlich auftreten können.

1.13. Wir „beweisen“ jetzt, dass alle Musiker dasselbe Instrument spielen. Dazu zeigen wir
mittels vollständiger Induktion für alle n ∈ N die Aussage

A(n) : In jeder Menge bestehend aus genau n Musikern spielen alle Musiker dasselbe
Instrument.

Induktionsanfang: Die Aussage A(1) ist wahr, denn in jeder Menge bestehend aus genau einem
Musiker spielen alle Musiker (ist ja nur einer) dasselbe Instrument.
Induktionsschritt: Sei n ≥ 2. Wir zeigen A(n). Sei dazu M eine n-elementige Menge von
Musikern. Wir entfernen einen Musiker a ∈ M und erhalten eine (n − 1)-elementige Menge
M1 := M \ {a} von Musikern. Nach Induktionsannahme ist A(n − 1) wahr und somit spielen
alle Musiker in M1 dasselbe Instrument. Da n ≥ 2 ist können wir auch einen anderen Musiker
b ∈ M, b  a, entfernen und erhalten eine weitere Menge M2 := M \ {b} von Musikern. Nach
Induktionsannahme spielen auch alle Musiker in M2 dasselbe Instrument. Da a ∈ M2 ist, spielt
a ebenfalls dasselbe Instrument wie alle anderen Musiker in M. Also spielen alle Musiker in
M dasselbe Instrument.
Wo ist der Fehler in diesem „Beweis“?
2. Matrixrechnung

Wake up, Neo. The Matrix has


you. Follow the white rabbit.

(Larry und Andy Wachowski


The Matrix)

Matrizen erlauben eine übersichtliche Schreibweise für lineare Gleichungssysteme. Man kann
mit Matrizen in vielerlei Hinsicht ähnlich rechnen wie mit Zahlen. Sie dienen auch der Be-
schreibung linearer Abbildungen, z.B. in geometrischen Anwendungen.

2.1. Lineare Gleichungssysteme


Lineare Gleichungssysteme (LGS) treten in unzähligen Anwendungsproblemen auf. Begin-
nen wir mit einigen Beispielen.

Beispiel 2.1. Wir wollen das Gewicht zweier Obstsorten, Apfelsinen und Bananen, durch zwei
Wägungen mit einem 2kg-Gewicht bestimmen.

40cm 50cm
50cm 25cm
15cm 25cm
Abb. 24 Obstwägung

In den beiden bildlich dargestellten Konfigurationen sei die Waage im Gleichgewicht. Daraus
wollen wir das Gewicht A der Apfelsinen (in kg) und das der Bananen B (ebenfalls in kg)
bestimmen. Wir erhalten

A · 15 + B · 40 = 2 · 50,
A · 25 = 2 · 25 + B · 50. (2.1)

Wir bringen die Terme mit den Unbekannten A und B auf die linke Seite und kürzen die
Vorfaktoren soweit möglich:

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_2
44 2. Matrixrechnung

3 · A + 8 · B = 20,
A − 2B = 2.

Ziehen wir von der ersten Zeile das 3-fache der zweiten Zeile ab, so erhalten wir

14 · B = 14 ⇒ B = 1.

Setzen wir dies in die zweite Gleichung ein, so ergibt sich

A = 2 + 2B = 4.

Bisher ist damit gezeigt: Wenn das LGS (2.1) eine Lösung (A, B) besitzt, so muss A = 4
und B = 1 gelten. Durch Einsetzen sieht man auch umgekehrt, dass A = 4 und B = 1 die
Gleichungen (2.1) tatsächlich löst.
Insgesamt ist dann (2.1) erfüllt ⇔ A = 4 ∧ B = 1. Wir drücken das auch so aus, dass die
Lösungsmenge die Menge
{(4, 1)}
ist. Die beiden Wägungen haben das Gewicht der beiden Obstsorten also eindeutig bestimmt,
das Gewicht der Apfelsinen beträgt 4 kg, das der Bananen 1 kg.

Beispiel 2.2. Nun zu einem explosiven Beispiel aus der Chemie.1 Betrachtet werden die Sub-
stanzen Toluol C7 H8 , Salpetersäure HNO3, Wasser H2 O sowie Trinitrotoluol C7 H5O6 N3 ,
besser bekannt unter der Abkürzung TNT. Die zugehörige Reaktionsgleichung lautet:

x · C7 H8 + y · HNO3 → z · C7 H5O6 N3 + w · H2 O (2.2)

Wir benötigen zur Herstellung von TNT somit Toluol und Salpetersäure und erhalten als Ne-
benprodukt Wasser. Wie viel mol2 Toluol und Salpetersäure benötigen wir nun zur Herstellung
von z mol TNT und wie viel Wasser wird dabei erzeugt?
Bekanntlich bleiben chemische Elemente bei (chemischen) Reaktion erhalten. Aus (2.2) erhal-
ten wir dann folgendes LGS mit vier Gleichungen in vier Unbekannten für:

Kohlenstoff C : 7 · x + 0 · y = 7 · z + 0 · w,
Wasserstoff H : 8 · x + 1 · y = 5 · z + 2 · w,
Stickstoff N : 0·x+1· y = 3 · z + 0 · w,
Sauerstoff O : 0·x+3· y = 6 · z + 1 · w.

1Dieses Beispiel dient der Illustration linearer Gleichungssysteme. Von einer tatsächlichen Durchführung des
Experiments wird aus medizinischen und juristischen Gründen dringend abgeraten.
2Ein Mol ist eine Einheit für die Stoffmenge bei chemischen Reaktionen. Ein Mol enthält ungefähr 6 · 1023
Teilchen.
2.1. Lineare Gleichungssysteme 45

Dieses LGS ist äquivalent zu

x = z,
8x + y = 5z + 2w,
y = 3z,
3y = 6z + w.

Die zweite Gleichung folgt aus der ersten, dritten und vierten. Wir erhalten sie, indem wir
von achtmal der ersten fünfmal die dritte abziehen und zweimal die vierte hinzuzählen. Daher
können wir die zweite Gleichung weglassen. Das System ist äquivalent zu

x = z,
y = 3z,
w = 3z.

Die Lösungsmenge ist also


{(z, 3z, z, 3z) | z ∈ R} ⊂ R4 .
Im Gegensatz zum vorangegangen Beispiel erhalten wir eine unendliche Lösungsmenge, denn
jedes z ∈ R liefert eine andere Lösung. Dies war aus der Aufgabenstellung heraus zu erwarten,
denn wir haben die Menge z von TNT, die wir herstellen wollten, ja nicht festgelegt. Wir
haben herausgefunden, dass wir zur Herstellung von z mol TNT, z mol Toluol und 3z mol
Salpetersäure benötigen. Dabei erhalten wir 3z mol Wasser als Nebenprodukt.

Beispiel 2.3. In einem Land, in dem der Jahreshaushalt aufzustellen ist, gibt es drei Ministe-
rien: das Ministerium für Bildung und Soziales, dasjenige für Protz und Prunk sowie das für
Angriff und Verteidigung. Der Angriffsminister verlangt für sein Ministerium so viel Geld wie
die beiden anderen Ministerien zusammen haben. Der Protzminister wiederum beharrt darauf,
dass er ein Drittel des Budgets des Angriffsministers bekommt, abzüglich des Budgets des
Bildungsministers. Wie muss das Gesamtbudget auf die Ministerien aufgeteilt werden?
Nennen wir das Budget des Ministeriums für Bildung und Soziales x, das des Protzministers y
und das des Angriffsministers z, jeweils in Prozent des Gesamtbudgets. Dann muss natürlich

x + y + z = 100

gelten. Die Forderung des Angriffsministers lautet

z=x+y

und die des Protzministers


1
y= z − x.
3
Zusammengefasst ergibt sich das Gleichungssystem
46 2. Matrixrechnung

x + y + z = 100,
x + y − z = 0,
1
x + y − z = 0.
3
Ziehen wir die zweite Gleichung von der ersten ab, so sehen wir 2z = 100, also z = 50. Wegen
der zweiten Gleichung gilt auch x + y = 50. Setzen wir diese Werte in die dritte Gleichung
ein, so erhalten 50 − 13 · 50 = 0, was nicht stimmt.
Die Lösungsmenge des LGS ist in diesem Fall leer, die Forderungen der Minister sind nicht
erfüllbar.

Problematisierung. Die Beispiele zeigen, dass es keine, genau eine und unendlich viele
Lösungen geben kann.
Aber sind dies bereits alle Möglichkeiten? Oder gibt es vielleicht auch LGS mit genau zwei
Lösungen? Führen mehr als eine Lösung stets zur Existenz unendlich vieler Lösungen? Und
unter welchen Bedingungen entstehen welche qualitativen Typen von Lösungsmengen?
Um Antworten auf diese Fragen zu erhalten, studieren wir lineare Gleichungssysteme nun
systematisch und beginnen mit der folgenden formalen Definition:

Definition 2.4. Ein lineares Gleichungssystem (LGS) ist ein Gleichungssystem der Form

A11 · x1 + A12 · x2 + . . . + A1n · xn =b1,


..
.
Am1 · x1 + Am2 · x2 +. . . + Amn · xn =bm .

Hierbei ist n die Anzahl der Unbekannten und m die Anzahl der Gleichungen. Man beachte,
dass m und n im Allgemeinen nicht übereinzustimmen brauchen.
Die Koeffizienten Ai j sowie die bi ∈ R sind vorgegeben. Die Unbekannten x1, . . ., xn dagegen
sind gesucht.
Gilt b1 = . . . = bm = 0, so heißt das LGS homogen und ansonsten inhomogen.

So lagen etwa dem Obstkorb-Beispiel ebenso wie Beispiel 2.3 inhomogene LGS zu Grunde.
Das LGS im Falle des Sprengstoff-Beispiels war homogen.

Bemerkung 2.5. Im Falle eines homogenen LGS kann die Lösungsmenge niemals leer sein,
da dann x1 = · · · = xn = 0 stets eine Lösung ist.

Um lineare Gleichungssysteme übersichtlich aufzuschreiben, führen wir die Matrix-


Schreibweise ein:
2.1. Lineare Gleichungssysteme 47

Definition 2.6. Eine m × n-Matrix reeller Zahlen ist ein rechteckiges Schema der Form


A11 · · · A1n
.. .. .. 
.

. .  ,
Am1 · · · Amn 

wobei Ai j ∈ R für alle i ∈ {1, . . ., m} und j ∈ {1, . . . , n} ist.

1 4 1



So ist zum Beispiel (0 0) eine 1 ×2-Matrix, 2 5 eine 3 ×2-Matrix und 2 eine 3 ×1-Matrix.


3 6 3
Wir werden nachfolgend die Menge aller reellen m × n-Matrizen mit Mat(m × n, R) bezeichnen.
1 4


Für uns ist dann also zum Beispiel 2 5 ∈ Mat(3 × 2, R).
3 6

Definition 2.7. Eine 1 × n-Matrix nennen wir Zeilenvektor und eine m × 1-Matrix Spal-
tenvektor.

Definition 2.8. Ist



A11 · · · A1n
. .. .. 
A = .. . . 

Am1 · · · Amn 
eine m × n-Matrix, so heißt die n × m-Matrix


A11 · · · Am1
. .. .. 
A = ..

. . 

A1n · · · Amn 

die zu transponierte Matrix.

Beispiele 2.9. 1. Für die oben angeführte 3 × 2-Matrix ergibt sich


1 4  

1 2 3
2 5 = .
 4 5 6
3 6
48 2. Matrixrechnung

2. Die Transponierte eines Zeilenvektors ist ein Spaltenvektor und umgekehrt.

3. Transponiert man zweimal, so ergibt sich wieder die ursprüngliche Matrix, d.h. für alle
Matrizen A gilt
(A ) = A.

Nachfolgend werden wir die Konvention verwenden, dass die Elemente aus Rn stets Spalten-
vektoren, d.h. n × 1-Matrizen sind. Folglich gilt:

⎪  ⎫



x1  ⎪


⎪ ..   ⎪

R = Mat(n × 1, R) = .   x1, . . . , xn ∈ R = {(x1, . . ., xn ) | x1, . . ., xn ∈ R}.
n

⎪  ⎪


⎪ xn ⎪

⎩  ⎭

Bemerkung 2.10. Als Konvention für die Einträge von Matrizen A bzw. B aus Mat(m × n, R)
nutzen wir der Definition entsprechend Ai j bzw. Bi j also


A11 · · · A1n
B11 · · · B1n
. .. ..  . .. .. 
A = .. . .  bzw. B = .. . .  .

Am1 · · · Amn  Bm1 · · · Bmn 
Der erste Index i ist der Zeilenindex, der zweite Index j der Spaltenindex.

Sehen wir uns einmal an, welche Rechenoperationen mit Matrizen möglich sind.

Addition von Matrizen. Seien A, B ∈ Mat(m × n, R) mit der Darstellung wie oben. Die
Matrizen stimmen also in Höhe und Breite überein. Dann können die beiden Matrizen addiert
werden. Dabei hat A + B definitionsgemäß die Einträge

(A + B)i j = Ai j + Bi j .

Man spricht auch davon, dass die Addition komponentenweise erklärt ist, etwa im Fall

1 4 7 10 1 + 7 4 + 10 8 14





2 5 + 8 11 = 2 + 8 5 + 11 = 10 16
   
3 6 9 12 3 + 9 6 + 12 12 18
oder im Spezialfall der Vektoraddition

1 −2 1−2 −1





0 + 1  = 0+1  = 1 .
   
−1 3  −1 + 3 2 
Für die prägnante Unterscheidung zwischen Matrizen reeller Zahlen und reellen Zahlen selbst
bezeichnet man letztere auch häufig als Skalare.
2.1. Lineare Gleichungssysteme 49

Multiplikation von Matrizen mit Skalaren. Sei A ∈ Mat(m × n, R) mit Einträgen wie oben
und λ ∈ R. Dann hat λ · A ∈ Mat(m × n, R) die Einträge

(λ · A)i j = λ · Ai j ,

z.B.
1 4 2·1 2·4 2 8




2 · 2 5 = 2 · 2 2 · 5 = 4 10
3 6 2 · 3 2 · 6 6 12
oder
1 2·1 2





2 · 0  = 2 · 0  = 0  .
 

−1 2 · (−1) −2


Naiv könnte man nun auf die Idee kommen, auch die Multiplikation zweier Matrizen kompo-
nentenweise zu definieren. Wie sich herausstellen wird, ist dies wenig sinnvoll, wohl aber die
folgende Definition der

Multiplikation zweier Matrizen. Sei A ∈ Mat(m × n, R) und B ∈ Mat(n × k, R). Die Breite
der ersten Matrix muss also mit der Höhe der zweiten Matrix übereinstimmen. Das Resultat
der Matrix-Multiplikation von A mit B wird eine m × k-Matrix sein, A · B ∈ Mat(m × k, R).
Die Formel für die Matrix-Multiplikation kann man sich mit Hilfe des so genannten Falk-
Schemas merken. Kürzen wir dazu das Produkt als C ab, d.h. C := A · B, dann sieht das
Falk-Schema folgendermaßen aus:

B B12 B13

11
B21 B22 B23 

B B31 B32 B33 
bzw.
A C A A12 A13 C C12 C13

11
11
A21 A22 A23  C21 C22 C23 

A31 A32 A33  C31 C32 C33 
Tab. 11 Falk-Schema

Zur Berechnung, etwa von C23 , geht man nun simultan die 2. Zeile von A und die 3. Spalte von
B durch, multipliziert in jedem Schritt die entsprechenden Einträge und addiert schließlich die
Produkte auf:
(A · B)23 = C23 = A21 · B13 + A22 · B23 + A23 · B33 .
Ganz allgemein ist der Eintrag der i-ten Zeile und der j-ten Spalte des Produkts gegeben durch:

n
(A · B)i j := Ai1 · B1 j + Ai2 · B2 j + . . . + Ain · Bn j = Ail · Bl j . (2.3)
l=1
50 2. Matrixrechnung

Zum Beispiel gilt:


1 5  
1 · 1 + 5 · 0 1·1+5·1 1 · 2 + 5 · 3
1 6 17
2


6 1 1 2 2 · 1 + 6 · 0
2·1+6·1 2 · 2 + 6 · 3 2 8 22
· = = .
3
7 0 1 3 3 · 1 + 7 · 0
3·1+7·1 3 · 2 + 7 · 3 3 10 27
4 8 4 · 1 + 8 · 0 4·1+8·1 4 · 2 + 8 · 3 4 12 32

Das Multiplizieren von Matrizen muss man beherrschen ohne groß darüber
nachzudenken. Es wird empfohlen, es hier zu üben bis es sitzt:
http://ueben.cbaer.eu/08.html

Bemerkung 2.11. Fassen wir die drei Rechenoperationen noch einmal in Gestalt von Abbil-
dungen zusammen und halten fest, auf welchen Mengen diese arbeiten:

(A, B) → A + B auf Mat(m × n, R) × Mat(m × n, R) → Mat(m × n, R),


(λ, A) → λ · A auf R × Mat(m × n, R) → Mat(m × n, R),
(A, B) → A · B auf Mat(m × n, R) × Mat(n × k, R) → Mat(m × k, R).

Welche Rechenregeln gelten nun für Matrizen?

Satz 2.12. Reelle Matrizen genügen den folgenden Rechenregeln:


(i) Für alle A, B ∈ Mat(m × n, R) gilt:

A+ B = B + A.

(ii) Für alle A, B, C ∈ Mat(m × n, R) gilt:

(A + B) + C = A + (B + C) .

(iii) Für alle λ ∈ R und für alle A, B ∈ Mat(m × n, R) gilt:

λ · (A + B) = λ · A + λ · B .

(iv) Für alle λ, μ ∈ R und für alle A ∈ Mat(m × n, R) gilt:

(λ + μ) · A = λ · A + μ · A .

(v) Für alle λ, μ ∈ R, für alle A ∈ Mat(m × n, R) und für alle B ∈ Mat(n × k, R) gilt:

(λ · μ) · (A · B) = (λ · A) · (μ · B) .
2.1. Lineare Gleichungssysteme 51

(vi) Für alle A ∈ Mat(m × n, R), für alle B ∈ Mat(n × k, R) und für alle C ∈ Mat(k × l, R)
gilt:
(A · B) · C = A · (B · C) .

(vii) Für alle A, B ∈ Mat(m × n, R) und für alle C ∈ Mat(n × k, R) gilt:

(A + B) · C = A · C + B · C .

(viii) Für alle A ∈ Mat(m × n, R) und für alle B, C ∈ Mat(n × k, R) gilt:

A · (B + C) = A · B + A · C .

Hier wurde die übliche Konvention „Punkt vor Strich“ verwendet, d.h. A · C + B · C ist als
(A · C) + (B · C) zu verstehen.
Beweis. Wir zeigen alle Teile außer den Aussagen (iv), (v) und (viii). Diese verbleiben als
Übungsaufgabe 2.3.

Zu (i):
Seien A, B ∈ Mat(m × n, R). Dann gilt für alle i ∈ {1, . . ., m} und j ∈ {1, . . ., n} :

(A + B)i j = Ai j + Bi j = Bi j + Ai j = (B + A)i j .

Also gilt A + B = B + A.

Zu (ii):
Seien A, B, C ∈ Mat(m × n, R). Dann gilt für jedes i ∈ {1, . . . , m} und jedes j ∈ {1, . . ., n}:

((A + B) + C)i j = (A + B)i j + Ci j


= (Ai j + Bi j ) + Ci j
= Ai j + (Bi j + Ci j )
= Ai j + (B + C)i j
= (A + (B + C))i j

Aus der Gleichheit aller Komponenten folgt (A + B) + C = A + (B + C).

Zu (iii):
Seien λ ∈ R und A, B ∈ Mat(m × n, R). Dann gilt für jedes i ∈ {1, . . . , m} und jedes j ∈
{1, . . ., n}:

(λ · (A + B))i j = λ · (A + B)i j
= λ · (Ai j + Bi j )
= λ · Ai j + λ · Bi j
52 2. Matrixrechnung

= (λ · A)i j + (λ · B)i j
= (λ · A + λ · B)i j .
Es folgt λ · (A + B) = λ · A + λ · B.
Zu (vi):
Sei A ∈ Mat(m × n, R), sei B ∈ Mat(n × k, R) und sei C ∈ Mat(k × l, R). Dann gilt für alle
i ∈ {1, . . . , m} und j ∈ {1, . . . , l} :

k
((A · B) · C)i j = (A · B)is · Cs j
s=1
 
k 
n
= Air · Brs · Cs j
s=1 r=1
k n
 
= Air · Brs · Cs j
s=1 r=1

n 
k
 
= Air · Brs · Cs j
r=1 s=1

n 
k
 
= Air · Brs · Cs j
r=1 s=1

n
= Air · (B · C)r j
r=1
= (A · (B · C))i j .
Es folgt (A · B) · C = A · (B · C).
Zu (vii):
Seien A, B ∈ Mat(m × n, R) und sei C ∈ Mat(n × k, R). Dann gilt für alle i ∈ {1, . . . , m} und
jedes j ∈ {1, . . . , k} :

n
((A + B) · C)i j = (A + B)il · Cl j
l=1

n
= (Ail + Bil ) · Cl j
l=1
n
= (Ail · Cl j + Bil · Cl j )
l=1
n 
n
= Ail · Cl j + Bil · Cl j
l=1 l=1
= (A · C)i j + (B · C)i j
= (A · C + B · C)i j .
2.1. Lineare Gleichungssysteme 53

Dies zeigt (A + B) · C = A · C + B · C. 

Bemerkung 2.13. Diese Rechenregeln versetzen uns in die Lage, mit Matrizen fast so wie mit
reellen Zahlen zu rechnen. Allerdings müssen wir beachten, dass für die Matrix-Multiplikation
A · B = B · A im Allgemeinen nicht gilt. Sei etwa A ∈ Mat(m × n, R) und B ∈ Mat(n × m, R).
Wie wir wissen, ist dann A · B ∈ Mat(m × m, R) und B · A ∈ Mat(n × n, R). Ist nun m  n,
so besitzen die beiden Produkte offenbar verschiedene Abmaße und insbesondere gilt somit
A · B  B · A. Falls m = n, so kann sowohl
  Fall A · B
der  = B· A als auch der Fall A · B  B · A
1 0 1 3
eintreten. Etwa für die Matrizen A = und B = erhalten wir einerseits:
0 1 2 4

1 3
A·B = = B · A.
2 4
   
1 0 1 3
Mit A = und B = ergibt sich jedoch:
1 1 2 4
   
1 3 4 3
A·B =  = B · A.
3 7 6 4

Die Reihenfolge der Faktoren ist bei der Multiplikation daher wesentlich.

Warum haben wir die Matrix-Multiplikation eigentlich so definiert, wie wir es getan haben,
und nicht etwa komponentenweise so wie bei der Addition? Dies versteht man, wenn man die
Beziehung zwischen LGS und Matrizen kennt. Sei hierfür A ∈ Mat(m × n, R) sowie speziell
x ∈ Mat(n × 1, R) = Rn . Es gilt:


A11 · · · A1n
x1
A11 · x1 + A12 · x2 + . . . + A1n · xn
. .. ..  ..  .. 
A · x = .. . .  · .  = . .

Am1 · · · Amn  xn  Am1 · x1 + Am2 · x2 + . . . + Amn · xn 

Das LGS

⎪ A · x + . . . + A1n · xn = b1

⎨ 11 1
⎪ ..
⎪ . (2.4)

⎪ A · x +...+ A · x = b
⎩ m1 1 mn n m

ist äquivalent zur Matrix-Gleichung


A · x = b,


A11 · · · A1n
x1
. .. ..  .
wobei A = .. . .  die Koeffizientenmatrix des LGS (2.4) ist und x = ..  sowie

Am1 · · · Amn  xn 
54 2. Matrixrechnung


b1
. 
b = .. .

bm 
Das funktioniert nur für unsere etwas kompliziertere Definition der Matrix-Multiplikation. Die
Rechenregeln für Matrizen erleichtern uns den Umgang mit LGS erheblich, wie sich bereits im
Beweis des nächsten Satzes zeigen wird. Zunächst jedoch führen wir noch einen Bezeichner
für die Menge aller Lösungen eines LGS ein.

Definition 2.14. Sei A ∈ Mat(m × n, R) und b ∈ Rm . Dann heißt

Lös(A, b) := {x ∈ Rn | A · x = b}

die Lösungsmenge von (2.4).

Notation 2.15. Seien m, n ∈ N. Die Nullmatrix schreiben wir als


0 · · · 0
. .. 
0 := .. .  ∈ Mat(m × n, R).

0 · · · 0


0
.
Speziell haben wir Nullspaltenvektoren 0 = ..  und Nullzeilenvektoren 0 = (0, . . ., 0).

0

Diese Notation ist etwas ungenau, da die Abmessungen der Matrix, d.h. die Zahl der Spalten
und Zeilen, nicht mit aufgeführt werden. Sie werden jedoch stets aus dem Kontext klar sein.

Bemerkung 2.16. Offensichtlich gilt für jede Matrix A ∈ Mat(m × n, R)


A + 0 = 0 + A = A.


0
.
Untersuchen wir zunächst homogene LGS, also den Spezialfall b = 0 = .. .

0

Satz 2.17. Die Lösungsmenge des homogenen LGS A · x = 0 hat folgende Eigenschaften:

(i) Es ist 0 ∈ Lös(A, 0). Insbesondere ist Lös(A, 0)  ∅.


2.1. Lineare Gleichungssysteme 55

(ii) Sind x, y ∈ Lös(A, 0), so ist auch x + y ∈ Lös(A, 0).

(iii) Ist x ∈ Lös(A, 0) und λ ∈ R, so ist auch λ · x ∈ Lös(A, 0).

Beweis. Zu (i):
Sicherlich gilt A · 0 = 0 und daher ist 0 ∈ Lös(A, 0).

Zu (ii):
Seien x, y ∈ Lös(A, 0), d.h. es gilt A · x = 0 und A · y = 0. Mit Satz 2.12 (vi) erhalten wir dann:

A · (x + y) = A · x + A · y = 0 + 0 = 0.

Folglich ist auch x + y ∈ Lös(A, 0).

Zu (iii):
Sei schließlich x ∈ Lös(A, 0) und λ ∈ R. Nun nutzen wir die dritte Aussage von Satz 2.12 und
bekommen:

A · (λ · x) = λ · (A · x) = λ · 0 = 0.

Also gilt λ · x ∈ Lös(A, 0). 

Diese Eigenschaften der Lösungsmengen homogener LGS sind so wichtig, dass sie zu folgender
Definition führen.

Definition 2.18. Eine Teilmenge V ⊂ Rn heißt Untervektorraum, falls gilt:

1. Es ist 0 ∈ V.

2. Sind x, y ∈ V, so ist auch x + y ∈ V.

3. Ist x ∈ V und λ ∈ R, so ist auch λ · x ∈ V.

Nach Definition ist Lös(A, 0) somit stets ein Untervektorraum von Rn .

Beispiele 2.19. 1. Der kleinste Untervektorraum von Rn ist der Nullvektorraum V = {0}.

2. Ist hingegen v ∈ Rn mit v  0, dann ist V = {v} kein Untervektorraum. Tatsächlich sind
sogar alle drei Bedingungen aus der Definition verletzt.

3. Der größtmögliche Untervektorraum von Rn ist V = Rn selbst.


56 2. Matrixrechnung

4. Sei v ∈ Rn . Dann bildet die Menge aller Vielfachen von v einen Untervektorraum V =
{t · v | t ∈ R}.

Definition 2.20. Seien v1, . . . , vk ∈ Rn gegeben. Vektoren der Form t1 · v1 + · · · + t k · vk


nennt man Linearkombinationen von v1, . . ., vk . Die Menge aller Linearkombinationen von
v1, . . ., vk ∈ Rn bezeichnen wir mit

L(v1, . . ., vk ) := {t1 · v1 + · · · + t k · vk | t1, . . ., t k ∈ R}

und nennen sie die lineare Hülle von v1, . . ., vk . Wir erlauben auch einen leeren Satz von
Vektoren und setzen
L() := {0}.

Bemerkung 2.21. Die lineare Hülle von Vektoren im Rn bildet stets einen Untervektorraum
des Rn . Seien dazu k Vektoren v1, . . . , vk ∈ Rn gegeben. Überlegen wir kurz, dass für V =
L(v1 . . ., vk ) die drei Bedingungen aus Definition 2.18 erfüllt sind. Es ist 0 ∈ V, da wir hierzu
nur t1 = · · · = t k = 0 setzen müssen.
Seien x, y ∈ V. Dann gibt es nach Definition von V zum einen Zahlen t1, . . ., t k mit x =
t1 · v1 + · · · + t k · vk und zum anderen Zahlen, nennen wir sie zur Unterscheidung s1, . . ., s k ∈ R
mit y = s1 · v1 + · · · + s k · vk . Dann ist x + y = (t1 + s1 ) · v1 + · · · + (t k + s k ) · vk , also auch
x + y ∈ V. Damit ist die zweite Bedingung verifiziert.
Ist schließlich x ∈ V , also von der Form x = t1 · v1 + · · · + t k · vk für gewisse Koeffizienten
t1, . . . , t k ∈ R, und ist λ ∈ R, so ist λ · x = (λ · t1 ) · v1 + · · · + (λ · t k ) · vk , also auch λ · x ∈ V.
Dies zeigt die dritte Bedingung.

Bemerkung 2.22. Stets sind v1, . . ., vk wieder Elemente ihrer linearen Hülle, d.h. es gilt
v1, . . ., vk ∈ L(v1, . . ., vk ). Um dies einzusehen, schreiben wir einfach
v1 = 1 · v1 + 0 · v2 + . . . + 0 · vk ∈ L(v1, . . ., vk )
und analog für die Vektoren v2, . . ., vk . Des Weiteren gilt allgemein:
L(v1, . . . , vk ) ⊂ L(v1, . . . , vk , vk+1, . . ., vm ) .
Denn:
t1 · v1 + . . . + t k · vk = t1 · v1 + . . . + t k · vk + 0 · vk+1 + . . . + 0 · vm .

Bemerkung 2.23. Der Nullvektor ist stets in der Lösungsmenge eines homogenen LGS ent-
halten. Hat das homogene LGS mehr Unbekannte als Gleichungen, so besitzt es auch Lösungen
 0 (und damit unendlich viele Lösungen, da alle Vielfachen einer Lösung wieder Lösungen
sind). Warum gibt es dann eine Lösung  0?
Dies zeigen wir durch vollständige Induktion nach der Anzahl m der Gleichungen.
Induktionsanfang: Haben wir nur eine Gleichung
A11 · x1 + A12 · x2 + . . . + A1n · xn = 0,
2.1. Lineare Gleichungssysteme 57

aber n ≥ 2 Unbekannte, so ist z.B. x := (−A12, A11, 0, . . ., 0) eine Lösung. Ist A11  0, dann
ist x  0 wie gewünscht. Ist dagegen A11 = 0, dann ist x  := (1, 0, . . . , 0) eine Lösung  0.
Induktionsschritt: Seien nun m ≥ 2 viele Gleichungen mit n > m vielen Unbekannten gegeben.
Sind alle Koeffizienten Ain von xn gleich 0, dann ist x := (0, . . ., 0, 1) eine Lösung  0. Ist
dagegen wenigstens einer dieser Koeffizienten Ain  0, dann können wir die i-te Gleichung
nach xn auflösen:
1
xn = − (Ai1 x1 + . . . + Ai,n−1 xn−1 ).
Ain
Setzen wir das in die übrigen Gleichungen ein, so erhalten wir ein homogenes LGS mit m − 1
Gleichungen und n − 1 Unbekannten. Da n − 1 > m − 1 ist, besitzt dieses kleinere LGS nach
Induktionsvoraussetzung eine Lösung (x1, . . ., xn−1 )  0. Dann ist (x1, . . ., xn−1, − A1in (Ai1 x1 +
. . . + Ai,n−1 xn−1 ))  0 eine Lösung des ursprünglichen LGS.

Bemerkung 2.24. Für jede Matrix A gilt A · 0 = 0. Ist also 0 in der Lösungsmenge eines
linearen Gleichungssystems enthalten, so muss das LGS homogen sein. In anderen Worten,
die Lösungsmenge eines inhomogenen LGS ist niemals ein Untervektorraum.
Wohl aber lassen sich Lösungmengen inhomogener Systeme auf Lösungsmengen homogener
Systeme zurückführen.

Satz 2.25. Sei A ∈ Mat(m × n, R) und sei b ∈ Rn . Weiterhin sei Lös(A, b)  ∅ und y ∈
Lös(A, b). Dann gilt:
Lös(A, b) = {x + y | x ∈ Lös(A, 0)} .

Beweis. Um die behauptete Gleichheit beider Mengen zu zeigen, beweisen wir Lös(A, b) ⊃
{x + y | x ∈ Lös(A, 0)} sowie Lös(A, b) ⊂ {x + y | x ∈ Lös(A, 0)}. Der Beweis wird übrigens
durch die Verwendung der sehr effizienten Matrixnotation und der entsprechenden Rechen-
regeln sehr übersichtlich und ziemlich einfach.

Zu „⊃“:
Sei x ∈ Lös(A, 0) und y ∈ Lös(A, b). Wir überprüfen, dass x + y das inhomogene System löst.
Es gilt
A · (x + y) = A · x + A · y = 0 + b = b
und somit x + y ∈ Lös(A, b).

Zu „⊂“:
Sei nun z ∈ Lös(A, b). Wir setzen x := z − y, denn dann gilt z = x + y. Nun ist zu zeigen, dass
tatsächlich x ∈ Lös(A, 0) gilt. Betrachte dazu:

A·x = A · (z − y)
= A · (z + (−1) · y)
= A · z + A · (−1) · y
= A · z + (−1) · A · y
58 2. Matrixrechnung

= b + (−1) · b
= 0.
Das heißt nun aber gerade x ∈ Lös(A, 0) und somit gilt z ∈ {x + y | x ∈ Lös(A, 0)}. 

Die Lösungsmenge eines inhomogenen LGS kann man also dadurch bestimmen, dass man
eine Lösung y findet (sofern überhaupt eine existiert), dann das zugehörige homogene LGS
löst, das dadurch entsteht, dass man die „rechte Seite“ b durch 0 ersetzt, und dann zu allen
Lösungen des homogenen Systems y addiert.
Führen wir dies in folgendem sehr einfachen Beispiel mit nur einer Gleichung und zwei
Unbekannten einmal durch:

Beispiel 2.26. Für x1 + 3x


 2 = 7 haben wir die Koeffizientenmatrix (1 3) sowie b = (7). Wir
1
erraten die Lösung y = dieses inhomogenen LGS und brauchen nun dem Satz nach nur
2
noch das zugehörige homogene LGS x1 + 3x2 = 0 zu lösen. Es ist:
   

x1 
Lös(A, 0) = ∈ R2  x1 + 3x2 = 0
x2 
   
−3x2 
=  x2 ∈ R
x2 
    
−3 
= x2 ·  x2 ∈ R
1 
    
−3 
= t· t ∈ R .
1 
Weiter nach dem Satz genügt es dann, y hinzuzuzählen. Wir erhalten als Lösungsmenge:
          
−3 1  1 − 3t 
Lös(A, b) = t · + t ∈ R = t ∈ R .
1 2  2+t 

Im folgenden Abschnitt werden wir Konzepte entwickeln, die es erlauben, Untervektorräume


des Rn (und damit die Lösungsmengen homogener LGS) effektiv zu beschreiben.

2.2. Lineare Unabhängigkeit und Basen


Betrachten wir noch einmal einige Beispiele für lineare Hüllen in dem Spezialfall von Vektoren
im R3 . Es seien dazu
1 0 0 0





v1 := 0 , v2 := 1 , v3 := 0 , v4 := 1 .
0 0 1 1
2.2. Lineare Unabhängigkeit und Basen 59

Beispiel 2.27. Die lineare Hülle von v1 ist gegeben durch



⎪  ⎫ ⎧
⎪ ⎪ λ  ⎫




1

 ⎬ ⎪

⎪ ⎨

⎪  ⎪


 
L(v1 ) = λ · 0  λ ∈ R = 0 λ ∈ R .
⎪  ⎪ ⎪  ⎪


⎪ ⎪ ⎪
⎪ ⎪ ⎪
⎩ 0 ⎭ ⎩ 0 ⎭
Geometrisch ist L(v1 ) die Gerade durch den Ursprung 0, die der x1 -Achse entspricht:
x1

L(v1 )

v1 x3

x2
Abb. 25 Lineare Hülle von v1

Beispiel 2.28. Die lineare Hülle von v2 und v3 ist gegeben durch

⎪  ⎫
⎪ ⎧
⎪  ⎫

⎪ 0




0  ⎪

⎪ ⎪



0  ⎪


 
L(v2, v3 ) = {s · v2 + t · v3 | s, t ∈ R} = s  + 0
  s, t ∈ R = s   s, t ∈ R .
⎪  ⎪ ⎪  ⎪


⎪ 0 ⎪ ⎪
⎪ ⎪ ⎪
⎩  t  ⎭ ⎩ t  ⎭
Geometrisch ist dies die x2 -x3 -Ebene:
x1

x3
L(v2, v3 )
v3

v2
x2

Abb. 26 Lineare Hülle von v2 und v3

Beispiel 2.29. Nimmt man nun zu v2 und v3 noch den Vektor v4 hinzu, so erhält man

L(v2, v3, v4 ) = {λ · v2 + μ · v3 + η · v4 | λ, μ, η ∈ R}

⎪ 0 0  ⎫







0 ⎪


= λ + 0  + η   λ, μ, η ∈ R

⎪  ⎪

⎪ 0 ⎪
⎩  μ η  ⎭
60 2. Matrixrechnung


⎪  ⎫



0
 ⎪



= λ + η   λ, μ, η ∈ R

⎪  ⎪

⎪ μ+η ⎪
⎩  ⎭
= L(v2, v3 ).

Die Hinzunahme von v4 hat die lineare Hülle nicht verändert. Dies liegt daran, dass v4 bereits
in der linearen Hülle von v2 und v3 liegt. Die Darstellung der x2 -x3 -Ebene als L(v2, v3, v4 ) ist
offenbar weniger effizient als die durch L(v2, v3 ).
x1

x3
L(v2, v3, v4 )
v3
v4 = v2 + v3
v2
x2

Abb. 27 Lineare Hülle von v2 , v3 und v4

Beispiel 2.30. Bilden wir dagegen die lineare Hülle von v1, v2 und v3 , so erhalten wir

L(v1, v2, v3 ) = R3 .

Im Beispiel 2.29 erhielten wir für die lineare Hülle dreier Vektoren (nur) eine Ebene. Für einen
leicht abgeänderten Satz von Vektoren, wie im Beispiel 2.30, bekamen wir dagegen ganz R3 .
Unser nächstes Ziel ist es, die Systematik hinter diesem Phänomen zu verstehen. Der Schlüssel
hierfür ist folgendes Lemma:

Lemma 2.31. Seien v1, . . ., vm ∈ Rn . Dann sind folgende Aussagen äquivalent:

(1) ∃λ1, . . . , λm ∈ R, nicht alle gleich 0, so dass: λ1 v1 + . . . + λm vm = 0.

(2) ∃l ∈ {1, . . ., m} : vl ∈ L(v1, . . ., vl−1, vl+1, . . . , vm ).

(3) ∃l ∈ {1, . . ., m} : L(v1, . . ., vl−1, vl+1, . . . , vm ) = L(v1, . . ., vm ).

Für Aussage (1) sagt man auch, dass sich 0 nichttrivial aus den Vektoren v1, . . ., vm linear-
kombinieren lässt. Aussage (2) besagt, dass einer der Vektoren bereits in der linearen Hülle
der anderen enthalten ist. Aussage (3) besagt, dass die Hinzunahme dieses Vektors die lineare
Hülle nicht vergrößert.
2.2. Lineare Unabhängigkeit und Basen 61

Beweis. Für die behauptete Äquivalenz der drei Aussagen genügt der Nachweis folgender
Implikationen: (1) ⇒ (2) und (2) ⇒ (3) sowie (3) ⇒ (1).

Zu „(1) ⇒ (2)“:
Seien λ1, . . ., λm ∈ R und davon wenigstens ein λl  0, so dass λ1 v1 + . . . + λm vm = 0. Indem
wir den l-ten Summanden auf die andere Seite bringen, erhalten wir:
−λl vl = λ1 v1 + . . . + λl−1 vl−1 + λl+1 vl+1 + . . . + λm vm .
Da λl  0 ist, dürfen wir durch −λl teilen und erhalten:
λ1 λl−1 λl+1 λm
vl = v1 + . . . + vl−1 + vl+1 + . . . + vm ∈ L(v1, . . ., vl−1, vl+1, . . ., vm ).
−λl −λl −λl −λl

Zu „(2) ⇒ (3)“:
Sei vl ∈ L(v1, . . . , vl−1, vl+1, . . ., vm ). Wir zeigen L(v1, . . . , vl−1, vl+1, . . ., vm ) = L(v1, . . ., vm ).
Nach Bemerkung 2.22 ist „⊂“ bereits klar. Wir zeigen noch L(v1, . . ., vl−1, vl+1, . . ., vm ) ⊃
L(v1, . . ., vm ).
Sei hierfür x ∈ L(v1, . . ., vm ). Dann existieren λ1, . . ., λm ∈ R, so dass
x = λ1 v1 + . . . + λm vm .
Da nach Voraussetzung vl ∈ L(v1, . . . , vl−1, vl+1, . . ., vm ) ist, können wir für geeignete Koeffi-
zienten μk ∈ R
vl = μ1 v1 + . . . + μl−1 vl−1 + μl+1 vl+1 + . . . + μm vm
schreiben. Diesen Ausdruck setzen wir in die Darstellung für x ein und sortieren geeignet:
x =λ1 v1 + . . . + λl−1 vl−1 + λl vl + λl+1 vl+1 + . . . + λm vm
=λ1 v1 + . . . + λl−1 vl−1 + λl (μ1 v1 + . . . + μl−1 vl−1 + μl+1 vl+1 + . . . + μm vm )
+ λl+1 vl+1 + . . . + λm vm
=(λ1 + λl μ1 )v1 + . . . + (λl−1 + λl μl−1 )vl−1
+ (λl+1 + λl μl+1 )vl+1 + . . . + (λm + λl μm )vm
∈L(v1, . . ., vl−1, vl+1, . . . , vm ).
Es folgt L(v1, . . . , vm ) ⊂ L(v1, . . ., vl−1, vl+1, . . ., vm ).

Zu „(3) ⇒ (1)“:
Sei L(v1, . . ., vl−1, vl+1, . . ., vm ) = L(v1, . . . , vm ). Wegen vl ∈ L(v1, . . . , vm ) =
L(v1, . . ., vl−1, vl+1, . . ., vm ) gibt es Zahlen μk ∈ R, k ∈ {1, . . ., l − 1, l + 1, . . . , m}, so dass
vl = μ1 v1 + . . . + μl−1 vl−1 + μl+1 vl+1 + . . . + μm vm .
Dann ist
μ1 v1 + . . . + μl−1 vl−1 + (−1)vl + μl+1 vl+1 + . . . + μm vm = 0
eine nichttriviale Linearkombination von 0 durch die Vektoren v1, . . ., vm . 
62 2. Matrixrechnung

Definition 2.32. Gilt eine (und damit alle) der Aussagen aus dem Lemma, dann heißt der
Satz von Vektoren v1, . . ., vm linear abhängig, ansonsten linear unabhängig.

Möchte man einen Untervektorraum (z.B. die Lösungsmenge eines LGS) als lineare Hülle
L(v1, . . ., vm ) möglichst übersichtlich angeben, wird man keine „überflüssigen“ Vektoren ver-
wenden wollen. In anderen Worten, man wird die Vektoren v1, . . . , vm linear unabhängig haben
wollen.
Wie weist man nun nach, dass gegebene Vektoren v1, . . . , vm linear unabhängig sind? Verwendet
man das erste Kriterium aus Lemma 2.31, dann muss man für alle λ k ∈ R die Gültigkeit
folgender Implikation nachprüfen:

λ1 v1 + . . . + λm vm = 0 ⇒ λ1 = . . . = λm = 0.

Der Nullvektor darf sich also nur auf triviale Art aus den Vektoren linear kombinieren lassen.
Sehen wir uns einige Beispiele an.

Beispiel 2.33. In welchem Fall ist ein einziger Vektor v ∈ Rn linear (un-)abhängig?
1. Fall: Sei v = 0.
Dann ist λ · v = 0 für alle λ ∈ R, nicht nur für λ = 0. Also ist der Nullvektor v = 0 linear
abhängig.
2. Fall: Sei v  0.
Dann muss mindestens ein Eintrag in diesem Vektor  0 sein. Multiplizieren wir v mit
λ ∈ R \ {0}, dann ist der entsprechende Eintrag von λ · v ebenfalls  0 und damit ist λ · v  0.
Der Nullvektor lässt sich mithin nur auf triviale Weise aus v linear kombinieren, 0 · v = 0.
Somit ist jeder Vektor v ∈ Rn \ {0} linear unabhängig.
Wir fassen zusammen: Ein einzelner Vektor ist linear unabhängig genau dann, wenn er nicht
der Nullvektor ist.

Beispiel 2.34. Wann sind zwei Vektoren v1, v2 ∈ Rn linear abhängig? Laut Definition gilt unter
anderem:

v1, v2 sind linear abhängig ⇔ v1 ∈ L(v2 ) oder v2 ∈ L(v1 )


⇔ v1 ∈ {t · v2 | t ∈ R} oder v2 ∈ {s · v1 | s ∈ R}
⇔ ∃ t ∈ R : v1 = t · v2 oder v2 = t · v1 .

Zwei Vektoren sind also genau dann linear abhängig, wenn einer sich als Vielfaches des anderen
schreiben lässt.
Ist v1 Vielfaches von v2 , d.h. v1 = t · v2 , dann ist meistens auch v2 Vielfaches von v1 , denn
v2 = 1t · v1 . Das funktioniert nur dann nicht, wenn t = 0. Dann ist v1 der Nullvektor und v2
irgendein Vektor. Diese beiden Vektoren sind linear abhängig, v1 ist Vielfaches von v2 , aber v2
ist nicht Vielfaches von v1 (es sei denn, v2 ist ebenfalls der Nullvektor).
2.2. Lineare Unabhängigkeit und Basen 63

Definition 2.35. Sei V ⊂ Rn ein Untervektorraum und seien v1, . . ., vm ∈ V paarweise


verschieden. Dann heißt die Menge B = {v1, . . . , vm } dieser Vektoren Basis von V, falls
zugleich gilt:

1. v1, . . ., vm sind linear unabhängig.

2. L(v1, . . ., vm ) = V.

Eine Basis von V ist somit ein minimaler Satz von Vektoren, deren lineare Hülle gerade V
ergibt.

Bemerkung 2.36. Sei B = {v1, . . ., vm } eine Basis von V wie in Definition 2.35. Die zweite
Bedingung besagt, dass sich jedes Element v von V als Linearkombination von v1, . . ., vm
schreiben lässt,
m
v= tj · vj .
j=1

Die erste Bedingung sagt nun, dass diese Darstellung von v als Linearkombination von
 
v1, . . ., vm eindeutig ist. Gilt nämlich v = mj=1 t j · v j und v = mj=1 s j · v j , dann können

wir die beiden Gleichungen von einander subtrahieren und erhalten 0 = mj=1 (t j − s j ) · v j . Die
lineare Unabhängigkeit liefert nun für alle j ∈ {1, . . . , m}, dass t j − s j = 0, d.h. t j = s j .
Vektoren v1, . . . , vm ∈ V bilden also eine Basis von V genau dann, wenn sich jedes Element
von V auf eindeutige Weise als Linearkombination dieser Vektoren schreiben lässt.

Wir verwenden die Konvention, dass auch die leere Menge eine Basis ist und zwar eine Basis
des Nullvektorraums V = {0}. Man beachte, dass {0} keine Basis ist, da der Nullvektor linear
abhängig ist.


⎪ t  ⎫
⎪ ⎧
⎪ 1 ⎫




⎪ ⎪

⎪ ⎨


⎪ ⎬

Beispiel 2.37. Für V = 0  t ∈ R ⊂ R ist z.B. B1 = 0 eine Basis, ebenso
3
⎪  ⎪
⎪ ⎪ ⎪

⎪ 0 ⎪ ⎪ 0 ⎪
⎪ ⎪
⎩  ⎭ ⎩ ⎭


⎪ 2 ⎫⎪



⎪ ⎬

B2 = 0 . Überhaupt liefert jede reelle Zahl ungleich 0 in der ersten Komponente eine
⎪ ⎪
⎪ 0 ⎪
⎪ ⎪
⎩ ⎭
Basis von V.


⎪  ⎫

⎪ 0


⎪  ⎪



Beispiel 2.38. Der Untervektorraum V = λ1  λ ,
 1 2 λ ∈ R ⊂ R3 , d.h. die x2 -x3 -Ebene,

⎪  ⎪

⎪ λ2 ⎪
⎩  ⎭
64 2. Matrixrechnung


⎪ 0 0 ⎫ ⎪ ⎧
⎪ 0 ⎫⎪




⎪ ⎬
⎪ ⎨


⎪ ⎬

 
besitzt zum Beispiel die Basis X = 1 , 0 . Hingegen ist die Menge Y = 1 keine 
⎪ ⎪ ⎪ ⎪
⎪ 0 1 ⎪
⎪ ⎪ ⎪ 1 ⎪
⎪ ⎪
⎩  ⎭ ⎩ ⎭
Basis von V, da die zweite definierende Eigenschaft einer Basis nicht erfüllt ist. Genauer gesagt
gilt einerseits

⎪ 0  ⎫


0


⎪ ⎪


L 1 = λ · 1  λ ∈ R ⊂ V,

⎪  ⎪

⎪ ⎪
1 ⎩ 1 ⎭
andererseits ist aber z.B.
0 0


1 ∈ V \ L 1 .
 
2
 1

Beispiel 2.39. Der Anschauungsraum V = R3 besitzt z.B. die Basis



⎪ 1 0 0 ⎫ ⎪





⎪ ⎬

  
B = 0 , 1 , 0 .
⎪ ⎪
⎪ 0 0 1 ⎪
⎪ ⎪
⎩   ⎭
Diese Menge B wird auch als Standardbasis und die Basisvektoren mit e1, e2, e3 bezeichnet.

Beispiel 2.40. Allgemeiner ist die Standardbasis von V = Rn gegeben durch


⎧ ⎫


⎪ 1 0 0 ⎪⎪

⎪  

.  ⎪


⎪   .  ⎪

⎪ 0
⎨  
⎪ 1 .  ⎪


  
B = 0 , 0 , . . ., 0 .
⎪ .  . 
⎪ ⎪ ⎪
⎪ ..  ..  0 ⎪


⎪   ⎪ ⎪

⎪ ⎪

⎪ 0 0 1 ⎪ ⎪
⎩   ⎭
Auch ihre Elemente bezeichnen wir künftig abkürzend mit e1, e2, . . ., en .

Beispiel 2.41. V = R2 hat unter anderem die Basen


         
1 0 1 1
B1 = , und B2 = , .
0 1 −1 1

Das folgende Lemma sagt, dass ein Satz linear unabhängiger Vektoren nicht zu lang sein kann.

Lemma 2.42. Seien w1, . . ., wk ∈ Rn und v1, . . . , vm ∈ L(w1, . . . , wk ). Sind v1, . . . , vm linear
unabhängig, dann gilt
m ≤ k.
2.2. Lineare Unabhängigkeit und Basen 65

Beweis. a) Wir machen zunächst eine Vorüberlegung. Sind die w1, . . ., wk linear abhängig,
so können wir nach Lemma 2.31 ein Element entfernen, ohne die lineare Hülle zu ändern.
Dies wiederholen wir so oft wie möglich, d.h. wir entfernen nach und nach Elemente aus
{w1, . . . , wk } so lange das möglich ist, ohne die lineare Hülle zu ändern. Im letzten Schritt
erhalten wir eine linear unabhängige Teilmenge mit derselben linearen Hülle wie {w1, . . ., wk }.
Ist k  die Anzahl der Elemente dieser Teilmenge, so gilt sicherlich k  ≤ k. Wenn wir die Aussage
des Lemmas für diese linear unabhängige Menge von Vektoren zeigen können, haben wir sie
auch für die ursprüngliche Menge, denn dann gilt ja
m ≤ k  ≤ k.
Aus diesem Grund reicht es, die Aussage nur für den Fall zu beweisen, dass auch die w1, . . . , wk
linear unabhängig sind. Man sagt dann, wir können ohne Beschränkung der Allgemeinheit
annehmen, dass die w1, . . ., wk linear unabhängig sind, was wir für den Rest des Beweises tun.
b) Jedes v j lässt sich als Linearkombination der w1, . . ., wk ausdrücken. Es gibt also Zahlen
α jl ∈ R, so dass für alle j = 1, . . . , m gilt:

k
vj = α jl wl . (2.5)
l=1
Wir untersuchen nun, für welche Zahlen t1, . . ., tm ∈ R die Gleichung
 m
tjvj = 0 (2.6)
j=1

gilt. Wir setzen (2.5) in (2.6) ein und sehen, dass (2.6) äquivalent ist zu
 k 
 m   k


m

0= tj α jl wl = t j α jl  wl . (2.7)
j=1 l=1 l=1 j=1 
Da w1, . . . , wk linear unabhängig sind, ist (2.7) äquivalent dazu, dass

m
∀l = 1, . . ., k : t j α jl = 0. (2.8)
j=1

Somit gilt (2.5) genau dann, wenn die t j das homogene LGS (2.8) mit k Gleichungen lösen.
Wäre nun m > k, dann hätten wir mehr Unbekannte als Gleichungen, also gäbe es gemäß
Bemerkung 2.23 eine Lösung (t1, . . . , tm )  0 von (2.6). Dies hieße aber, dass die v1, . . ., vm
linear abhängig sind, Widerspruch. 

Korollar 2.43. Sind v1, . . ., vm ∈ Rn linear unabhängig, so gilt m ≤ n.

Beweis. Dies folgt direkt aus Lemma 2.42, da Rn = L(e1, . . ., en ). 

Wie verschafft man sich eine Basis eines Untervektorraums V ⊂ Rn ?


66 2. Matrixrechnung

Algorithmus zur Bestimmung einer Basis:


0. Ist V = {0}, so ist ∅ eine Basis und man ist fertig.
1. Ist V  {0}, so wähle v1 ∈ V \ {0} und bilde L(v1 ). Dann ist v1 linear unabhängig und
L(v1 ) ⊂ V. Ist L(v1 ) = V, so ist {v1 } eine Basis und das war’s.
2. Ist L(v1 )  V, so wähle v2 ∈ V \L(v1 ) und bilde L(v1, v2 ). Dann sind v1, v2 linear unabhängig
und es gilt L(v1, v2 ) ⊂ V. Ist L(v1, v2 ) = V, so ist {v1, v2 } eine Basis und die Suche ist beendet.
3. Ist L(v1, v2 )  V, so wähle v3 ∈ V \ L(v1, v2 ) und bilde L(v1, v2, v3 ).
...
Dass wir in jedem Schritt linear unabhängige Vektoren v1, . . ., vk erhalten, liegt an folgendem
Sachverhalt, der in Aufgabe 2.6 bewiesen wird:
Sind v1, . . ., vk−1 linear unabhängig und gilt vk  L(v1, . . . , vk−1 ), dann sind auch v1, . . ., vk
linear unabhängig.
Wegen Korollar 2.43 endet das Verfahren spätestens nach dem n-ten Schritt. Etwa im Fall
R3 endet der Algorithmus also nach maximal 3 Schritten. Betrachten wir hierzu ein Beispiel
und bestimmen wir einmal eine konkrete Basis zu einer vorgegebenen Lösungsmenge eines
homogenen LGS, d.h. eines Untervektorraums V ⊂ R3 .
 
Beispiel 2.44. Wir ermitteln eine Basis von V = x ∈ R3 | x1 + x2 + x3 = 0 .
1


Ist V = {0}? Nein, denn wähle z.B. v1 := −2 ∈ V \ {0}. Dann ist
1

⎪ 1  ⎫




⎪ ⎪



L(v1 ) = t · −2  t ∈ R .

⎪  ⎪

⎪ ⎪
⎩ 1 ⎭
−2


Ist V = L(v1 )? Nein, denn z.B. v2 := 1  löst die Gleichung ebenfalls, d.h. v2 ∈ V, aber v2 ist

1
kein Vielfaches von v1 , also v2 ∈ V \ L(v1 ). Es ist:

⎪ −2  ⎫
⎪ ⎧
⎪ t − 2s  ⎫





1

 ⎬ ⎪

⎪ ⎨

⎪  ⎪


  
L(v1, v2 ) = t · −2 + s · 1   t, s ∈ R = −2t + s  t, s ∈ R .
⎪  ⎪ ⎪  ⎪


⎪ 1 1 ⎪ ⎪
⎪ ⎪ t+s ⎪
⎩   ⎭ ⎩  ⎭
Sei nun x = (x1, x2, x3 ) ∈ V, d.h. x1 +x2 +x3 = 0. Setzt man t := 13 (x3 −x2 ) und s := 13 (x2 +2x3 )
so stellt man fest, dass
x t − 2s

1

x2  = −2t + s .
 
x
3 t + s 
2.2. Lineare Unabhängigkeit und Basen 67

Also ist x ∈ L(v1, v2 ). Dies zeigt, dass V ⊂ L(v1, v2 ). Da die umgekehrte Inklusion sowieso

⎪ −2 ⎫⎪



⎪ 1
⎪ ⎬

 
gilt, haben wir V = L(v1, v2 ). Somit ist {v1, v2 } = −2 , 1  eine Basis von V .

⎪ ⎪

⎪ 1 ⎪
⎩  1 ⎭

Als Folgerung können wir auch festhalten:

Korollar 2.45. Jeder Untervektorraum V ⊂ Rn besitzt (mindestens) eine Basis. 

Basen gibt es also immer. Ein Untervektorraum des Rn hat allerdings im Allgemeinen sehr
viele verschiedene Basen. Immerhin gilt:

Satz 2.46. Sei V ⊂ Rn ein Untervektorraum. Sind B und B Basen von V, so haben sie gleich
viele Elemente
#B = #B .

Beweis. Setze m := #B und k := #B. Wenden wir Lemma 2.42 an, wobei die Elemente von
B die Rolle der v j und die von B die der wl spielen, so erhalten wir

m ≤ k.

Indem wir die Rollen von B und B vertauschen, so erhalten wir auch k ≤ m und damit
insgesamt m = k. 

Definition 2.47. Sei V ⊂ Rn ein Untervektorraum und B eine Basis von V. Dann heißt die
Zahl dim(V ) := #B die Dimension von V.

Diese Definition ist nur auf Grund von Satz 2.46 sinnvoll. Überlegen wir auch hierzu einige
Beispiele.

Beispiel 2.48. Für V = Rn hat die Standardbasis B = {e1, . . ., en } die Länge n. Damit besitzen
alle Basen von V die Länge n und es gilt:

dim(Rn ) = #B = n.

Beispiel 2.49. Für den Nullvektorraum V = {0} haben wir ∅ als Basis festgelegt. Somit ist:

dim({0}) = #∅ = 0.
68 2. Matrixrechnung

 
Beispiel 2.50. Im Beispiel (2.44) ermittelten wir für V = x ∈ R3 | x1 + x2 + x3 = 0 eine
Basis der Länge 2. Folglich gilt auch:

dim(V ) = 2.

Beispiel 2.51. Betrachten wir den Untervektorraum:

V = {x ∈ Rn | xm+1 = xm+2 = . . . = xn = 0}

Dessen Elemente besitzen die Gestalt


x λ

.1
.1
.  . 
.  . 
 
x m  λ m 
x = = 
 
xm+1  0 
.  . 
..  .. 
 
x
n  0
mit λ1, . . . , λm ∈ R. Dann bilden die Vektoren e1, . . . , em ∈ V gegeben durch

1 0

.
.
. .
. .
 
0 
 , . . ., 1 ← m-te Komponente
0 0 ← (m + 1)-te Komponente
 
. .
..  .. 
 
0 0
eine Basis von V. Daher gilt:
dim(V ) = m.

Beispiel 2.52. Für den Spezialfall R3 ergeben die Untervektorräume


   
V = x ∈ R3 | x3 = 0 bzw. U = x ∈ R3 | x2 = x3 = 0

die räumlichen geometrischen Interpretationen der x1 -x2 -Ebene (im Fall von V ) bzw. der
x1 -Achse (im Fall von U). So überrascht es nicht, dass ihre Dimensionen durch

dim(V ) = 2 bzw. dim(U) = 1

gegeben sind.

Ein Satz linear unabhängiger Vektoren in einem Untervektorraum lässt sich stets zu einer Basis
ergänzen.
2.3. Der Gauß-Algorithmus 69

Satz 2.53 (Basisergänzungssatz). Ist V ⊂ Rn ein Untervektorraum und sind v1, . . ., vm ∈ V


linear unabhängig, so gibt es eine Basis B von V mit v1, . . ., vm ∈ B.

Beweis. Wir können den Algorithmus zum Auffinden einer Basis von V mit v1, . . . , vm begin-
nen:
Ist L(v1, . . ., vm ) = V, so ist {v1, . . ., vm } eine Basis von V und wir sind fertig.
Ist L(v1, . . . , vm )  V, so wähle vm+1 ∈ V \ L(v1, . . ., vm ). Dann sind v1, . . . , vm+1 linear
unabhängig und es gilt L(v1, . . ., vm+1 ) ⊂ V. Ist L(v1, . . ., vm+1 ) = V, so ist {v1, . . . , vm+1 } eine
Basis von V und wir sind fertig.
Falls nicht, wähle vm+2 ∈ V \ L(v1, . . ., vm+1 ) usw. wie im Algorithmus.
Wegen Korollar 2.43 endet der Algorithmus spätestens, wenn wir n Vektoren v1, . . ., vn erhalten
haben. 

Das folgende Korollar besagt, dass größere Räume auch die höhere Dimension haben.

Korollar 2.54. Seien U, V ⊂ Rn Untervektorräume. Dann gilt:

(i) Ist U ⊂ V, so ist


dim(U) ≤ dim(V ).

(ii) Ist U ⊂ V und U  V , so ist


dim(U) < dim(V).

Beweis. Beide Aussagen folgen daraus, dass wir eine Basis von U zu einer Basis von V
ergänzen können. 

   
Beispiel 2.55. Für U = x ∈ R3 | x1 = 0 und V = x ∈ R3 | x2 = 0 gilt zwar dim(U) =
dim(V ) = 2, jedoch ist U  V, da weder U ⊂ V noch V ⊂ U zutrifft.

Nachdem wir nun Untervektorräume besser verstehen, erinnern wir uns an den Ausgangspunkt:
Untervektorräume interessieren uns als Lösungsmengen linearer Gleichungssysteme. Im fol-
genden Abschnitt konzentrieren wir uns darauf, LGS in eine optimale Form zu transformieren.

2.3. Der Gauß-Algorithmus


Beim Gauß’schen Lösungsalgorithmus für LGS ändern wir das Gleichungssystem durch be-
stimmte Transformationen ab, ohne dabei die Lösungsmenge zu ändern. Ziel dieser Transfor-
mationen ist es, das Gleichungssystem in eine Form zu bringen, bei der man die Lösungsmenge
70 2. Matrixrechnung

direkt ablesen kann. Die folgenden drei Manipulationen an einem LGS ändern die Lösungs-
menge nicht:
◦ Multiplikation einer Gleichung mit λ ∈ R \ {0} :
Ai1 x1 + . . . + Ain xn = bi
λ0
⇔ λ(Ai1 x1 + . . . + Ain xn ) = λbi
⇔ (λAi1 )x1 + . . . + (λAin )xn = λbi

◦ Vertauschen zweier Gleichungen


◦ Addition des Vielfachen einer Gleichung zu einer anderen Gleichung:

Ai1 x1 + . . . + Ain xn = bi
A j1 x1 + . . . + A jn xn = b j

Ai1 x1 + . . . + Ain xn = bi

(A j1 + λAi1 )x1 + . . . + (A jn + λAin )xn = b j + λbi

Für ein LGS



⎪ A11 x1 + . . . + A1n xn = b1


⎪ ..
⎪ .

⎪ A x +...+ A x = b
⎩ m1 1 mn n m
haben wir die kompakte Matrix-Schreibweise
A·x = b
kennen gelernt, wobei wir A als Koeffizientenmatrix bezeichnen. Nun lassen sich auch A und
b in einer Matrix zusammenfassen. Das Resultat ist die so genannte erweiterte Koeffizienten-
matrix von A · x = b, nämlich:


A11 · · · A1n b1
. .. .. .. 
(A, b) := .. . . . 

Am1 · · · Amn bm 

Definition 2.56. Folgende Transformationen einer Matrix bezeichnet man als elementare
Zeilenumformungen:

◦ Multiplikation einer Zeile mit λ ∈ R \ {0},

◦ Vertauschen zweier Zeilen,

◦ Addition des Vielfachen einer Zeile zu einer anderen Zeile.


2.3. Der Gauß-Algorithmus 71

Bemerkung 2.57. Die Lösungsmenge eines LGS bleibt bei Anwendung elementarer Zeile-
numformungen auf die erweiterte Koeffizientenmatrix unverändert.
Achtung: Spaltenumformungen (z.B. die Vertauschung zweier Spalten) dagegen ändern die
Lösungsmenge im Allgemeinen und sind daher nicht zulässig!

Das Wichtige ist nun, dass man elementare Zeilenumformungen nutzen kann, um die Koef-
fizientenmatrix eines LGS in eine Form zu bringen, bei der man die Lösungsmenge leichter
bestimmen kann. Dabei handelt es sich um die so genannte (spezielle) Zeilenstufenform.

Definition 2.58. Eine Matrix A ∈ Mat(m × n, R) hat genau dann Zeilenstufenform, wenn
für alle i ∈ {2, . . . , m} und alle k ∈ {2, . . ., n} gilt:
Sind die ersten (k − 1) Einträge der (i − 1)-ten Zeile = 0, so sind auch die ersten k Einträge
der i-ten Zeile = 0.
Ferner hat A spezielle Zeilenstufenform, falls zusätzlich für alle i ∈ {1, . . ., m} gilt: Sind
Ai1 = Ai2 = . . . = Ai j = 0, und ist Ai j+1  0, so ist Ai j+1 = 1.

In anderen Worten: Eine Matrix ist in Zeilenstufenform, wenn jede Zeile mindestens eine
führende 0 mehr hat als die darüberliegende (es sei denn die darüberliegende Zeile hat nur
Nullen, dann hat auch die nächste nur Nullen). Eine Matrix ist in spezieller Zeilenstufenform,
wenn zusätzlich in jeder Zeile der erste von 0 verschiedene Eintrag 1 ist.
Einige Beispiele dazu:

◦ Zeilenstufenform:
Jede Zeile der Matrix hat mindestens eine führende 0 mehr als die darüber liegende,
1 3 −7 5 1 3 −7 5



d.h. etwa für ∗ ∗ ∗ ∗ wird 0 ∗ ∗ ∗ gefordert.
∗ ∗ ∗ ∗ 0 0 ∗ ∗ 
1 3 −7 5 1 3 −7 5



Ebenso o.k. wäre aber z.B. auch 0 0 0 ∗ , nicht aber 0 0 0 ∗ .
0 0 0 0 0 2 0 0
◦ spezielle Zeilenstufenform:
1 3 −7 5 1 3 −7 5




Hier verschärft sich die Forderung zu 0 1 ∗ ∗ respektive 0 0 0 1 .


0 0 1 ∗  0 0 0 0

  1 2 0 1 0 0 0 1
0 1 0


Auch besitzt Zeilenstufenform, und 0 0 1 1 sowie 0 0 0 0 sind in spe-
0 0 5
0 0 0 1 0 0 0 0
zieller Zeilenstufenform.
72 2. Matrixrechnung

Mit Hilfe des folgenden Algorithmus können wir jede beliebige Matrix A ∈ Mat(m × n, R) in
spezielle Zeilenstufenform bringen.

Algorithmus zur Transformation einer Matrix in spezielle Zeilenstufenform

1. Vertausche die Zeilen so, dass in der ersten Zeile der erste Eintrag  0 nicht weiter rechts
steht, als in allen anderen Zeilen.

2. Multipliziere die Zeilen mit geeigneten λ ∈ R \ {0} so, dass in den Zeilen, bei denen der
erste Eintrag  0 an der gleichen Stelle wie in der ersten Zeile steht, dieser Eintrag 1 wird.
(Dies schließt auch die erste Zeile ein!)

3. Subtrahiere die erste Zeile von allen anderen Zeilen, in denen der erste Eintrag  0 an
derselben Stelle steht wie in der 1. Zeile.

4. Die erste Zeile wird von jetzt an nicht mehr verändert. Wir starten den Algorithmus neu
mit Schritt 1., angewandt auf diejenige Teilmatrix, die durch Streichung der ersten Zeile
entsteht.

Beispiel 2.59. Wir führen den Algorithmus einmal an der Matrix

0 1 1


5 10 −20

2 8 4 
durch und symbolisieren dabei die Transformationsschritte mit dem Pfeil „“:

0 1 1 5 10 −20 1 2 −4 1 2 −4

1.
2.
2.

5 10 −20  0 1 1   0 1 1   0 1 1 

2 8 4  2 8 4  2 8 4  1 4 2
1 2 −4 1 2 −4 1 2 −4 1 2 −4
3.
4./2.
4./3.
4./2.


 0 1  
1   0 1 1   0 1 1   0  1 1  .
0 2 6 0 1 3  0 0 2  0 0 1

Nach so viel Matrixumgestaltung wollen wir nun endlich sehen, wie uns die Überführung von
Matrizen in Zeilenstufenform bei der Lösung von LGS hilft und welche Rolle sie letztlich für
den Gauß-Algorithmus spielt. Es fehlt uns noch eine effektive Entscheidungshilfe, wann ein
inhomogenes LGS A · x = b überhaupt lösbar ist:

Bemerkung 2.60. Ist (A, b) die erweiterte Koeffizientenmatrix eines LGS, und ist (A, b) in
Zeilenstufenform, so gilt genau dann Lös(A, b) = ∅, wenn es eine Zeile (sagen wir, die i-te)
gibt, in der alle Einträge von A nur aus Nullen bestehen, aber die rechte Seite bi  0 ist.
2.3. Der Gauß-Algorithmus 73

Denn dann lautet die i-te Gleichung 0 · x1 + 0 · x2 + . . . + 0 · xn = bi . Diese Gleichung (und


damit das gesamte LGS) besitzt keine Lösung, da die linke Seite 0 wäre, die rechte aber  0.
Bestehen dagegen alle Zeilen von A nur dann aus Nullen, wenn auch die entsprechende
Komponente der rechten Seite bi = 0 ist, dann finden wir Lösungen und die Lösungsmenge
lässt sich durch sukzessives Lösen der einzelnen Gleichungen von unten nach oben ermitteln.
Am besten, wir sehen uns die beiden Fälle einmal im Beispiel an:

Beispiel 2.61. Wir betrachten einerseits die erweiterte Koeffizientenmatrix von


1 2 4 x1 4




0 0 1 x2  = 5 ,
  
0 0 0  x3  1
d.h.
1 2 4 4


(A, b) = 0 0 1 5 .

0 0 0 1
Aus der letzten Zeile der Matrix wird unmittelbar ersichtlich, dass A · x = b nicht lösbar ist,
d.h. Lös(A, b) = ∅.

Beispiel 2.62. Nun wandeln wir das Gleichungssystem ab, indem wir die 1 auf der rechten
Seite durch 0 ersetzen,
1 2 4 x1 4




0 0 1 x2  = 5 .
  
0 0 0  x3  0
In diesem Fall erhalten wir
1 2 4 4


(A, b) = 0 0 1 5 .

0 0 0 0
Sukzessives Auflösen von unten nach oben liefert:
 
Lös(A, b) = x ∈ R3 | 1 · x1 + 2 · x2 + 4 · x3 = 4 ∧ 1 · x3 = 5
 
= x ∈ R3 | x3 = 5 ∧ x1 + 2x2 + 4 · 5 = 4
 
= x ∈ R3 | x3 = 5 ∧ x1 = −2x2 − 16 ∧ x2 ∈ R beliebig

⎪ −2x2 − 16  ⎫


⎪  ⎪


= x2 
 ∈ R 3 
 x2 ∈ R beliebig .

⎪ ⎪

⎪ 5 ⎪
⎩  ⎭

Für die konkrete Ermittlung der Lösungsmenge lohnt sich offenbar die Überführung der
erweiterten Koeffizientenmatrix eines LGS in Zeilenstufenform. Die Lösungen lassen sich
dann, wie gesehen, nach und nach durch „Rückwärtseinsetzen“ ermitteln.
Fassen wir die bisherigen Ergebnisse dieses Abschnitts zusammen und formulieren den
74 2. Matrixrechnung

Gauß-Algorithmus zum Lösen linearer Gleichungssysteme. Seien A ∈ Mat(m ×n, R) und


b ∈ Rm gegeben. Gesucht sind alle x ∈ Rn, für die A · x = b gilt.

1. Stelle die erweiterte Koeffizientenmatrix (A, b) auf.

2. Überführe (A, b) durch elementare Zeilenumformungen in ( Ã, b̃) so, dass ( Ã, b̃) Zeilenstu-
fenform besitzt.3

3. Prüfe, ob Lös( Ã, b̃) = ∅ gilt.

4. Ist dagegen Lös( Ã, b̃)  ∅, so löse Ãx = b̃ durch sukzessives Lösen der einzelnen Gleichun-
gen von unten nach oben.

Manchmal interessiert man sich nur für die Lösbarkeit eines inhomogenen LGS und nicht für
die Lösungsmenge selbst. Ein passendes Hilfsmittels hierfür ist der so genannte Rang einer
Matrix.

Definition 2.63. Für



A11 · · · A1i ··· A1n
A A2n 
21 A2i
A= . .. .. 
.. . . 

Am1 · · · Ami · · · Amn 
und i ∈ {1, . . . , n} heißt

A1i
A 
2i 
ai := .  ∈ Rm
.. 

Ami 
i-ter Spaltenvektor von A.

Damit setzt sich A aus den Spaltenvektoren a1, . . . , an zusammen.

Bemerkung 2.64. Häufig ist es nützlich, den i-ten Spaltenvektor ai wie folgt auszudrücken.
Durch Einsetzen sieht man direkt, dass für jedes i ∈ {1, . . ., n} gilt

A · ei = ai,

wobei ei der uns bekannte i-te Einheitsvektor aus der Standardbasis von Rn ist.

3Wir wissen, dass dann Lös(A, b) = Lös( Ã, b̃) gilt.


2.3. Der Gauß-Algorithmus 75

Definition 2.65. Für A ∈ Mat(m × n, R) heißt

rg(A) := maximale Anzahl linear unabhängiger Spaltenvektoren von A


= dim(L(a1, . . ., an ))

der Rang (bzw. Spaltenrang) von A.

Beispiel 2.66. Es gilt


0 1 0



rg 1 0 0 = 3
1 1 1
und
1 0 1 −1


rg 1 1 2 0  = 2.
0 1 1 1 

Wie angekündigt, folgt nun die Charakterisierung der Lösbarkeit eines (inhomogenen) LGS
durch den Rangbegriff:

Satz 2.67. Sei A ∈ Mat(m × n, R) mit den Spalten a1, . . ., an und sei b ∈ Rm . Dann gilt:

(i) Lös(A, b)  ∅ ⇔ b ∈ L(a1, . . ., an ) ⇔ rg(A, b) = rg(A).

(ii) Lös(A, b) = ∅ ⇔ b  L(a1, . . ., an ) ⇔ rg(A, b) = rg(A) + 1.

Beweis. Da die Hinzunahme einer Spalte den Rang höchstens um eins erhöhen kann, gilt
entweder rg(A, b) = rg(A) oder rg(A, b) = rg(A) + 1. Der Satz ergibt sich aus folgenden
Äquivalenzen, wobei wir beim zweiten „⇔“ Korollar 2.54 (ii) benutzen:

rg(A, b) = rg(A)
⇔ dim(L(a1, . . ., an, b)) = dim(L(a1, . . . , an ))
⇔ L(a1, . . ., an, b) = L(a1, . . ., an )
⇔ b ∈ L(a1, . . ., an )
⇔ ∃t1, . . ., tn ∈ R : t1 a1 + . . . + tn an = b


t 1
.
⇔ ∃t1, . . ., tn ∈ R : A · ..  = b

t n 
76 2. Matrixrechnung

⇔ Lös(A, b)  ∅. 

Beschließen wir diesen Abschnitt mit einem Beispiel, in dem der Gauß-Algorithmus verwendet
wird, um eine Basis des Lösungsraumes eines homogenen LGS zu bestimmen.

Beispiel 2.68. Die TNT-Reaktionsgleichung (2.2) führte uns auf das homogene LGS A · x = 0
der konkreten Gestalt:

7 0 −7 0
x1
0
8
1 −5 −2 x2  0
  = .
0
1 −3 0  x3  0
0 3 −6 −1 x4  0

Bekanntlich ist Lös(A, 0) ein Untervektorraum von R4 . Wir ermitteln eine Basis von Lös(A, 0).
Mit dem Gauß-Algorithmus überführen wir dazu A in Zeilenstufenform Ã, denn Lös(A, 0) =
Lös( Ã, 0). Es gilt:


7−7 0
0
1 0 −1 0
1 0 −1 0
8−5 −2  8 
−5 −2 1 1
8 −8 −4
1 5
1 1
A =   
0−3 0 
1  0 1 
−3 0  0 1 −3 0 

0−6 −1
3 0 3 −6 −1 0 3 −6 −1 


1 0 −1 0
1 0 −1 0
1 0 −1 0
0 1 3 − 1  3 −2 0 1 3 −2
4   0 1
 8 8    
0 1 −3 0 

0
1 −3 0  0
0 −6 2 
0 3 −6 −1  0 3 −6 −1 0 3 −6 −1


1 0 −1 0
1 0 −1 0
1 0 −1 0
0 1 3 −2  0 1 3 −2 0 1 3 −2 

   
0 0 −6 2  0 0 −6 2  0 0 1 − 13 

0 1 −2 − 1
3 0 0 −5 3 
5
0 0 −5 53 


1 0 −1 0
1 0 −1 0
0 1 3 −2  0 1 3 −2 

    =: Ã.
0 0 1 − 13  0 0 1 − 13 

0 0 1 −31
0 0 0 0

Beginnend bei der untersten Zeile von à lösen wir das LGS nun sukzessive auf und bekommen:

Lös(A, 0) = Lös( Ã, 0)


2.3. Der Gauß-Algorithmus 77


⎪ ⎫



x1  ⎪


⎪ x1 − x3 = 0 ⎪

⎨ x2 
⎪ 
4


=  ∈ R  x2 + 3x3 − 2x4 = 0

⎪ x3   ⎪


⎪  x3 − 13 x4 = 0 ⎪


⎪ x4 ⎪

⎩  ⎭

⎪ ⎫


x1
⎪  ⎪


⎪ x1 − x3 = 0 ⎪

⎨ x2 
⎪ 
4


=  ∈ R  x2 + 3x3 − 2x4 = 0

⎪ x3   ⎪


⎪  x4 = 3x3 ⎪


⎪ x4 ⎪

⎩  ⎭

⎪ ⎫



x1  ⎪


⎪   ⎪

⎨ x2 
⎪ 4 x1 − x 3 = 0 ⎬

= ∈R 

⎪ x3   x2 = 3x3 ⎪ ⎪

⎪  ⎪


⎪ 3x3 ⎪

⎩  ⎭

⎪ ⎫



x1  ⎪


⎪ ⎪

⎨ 3x3 
⎪ 4
 ⎬

=  ∈ R  x1 = x3

⎪ x3   ⎪


⎪  ⎪


⎪ 3x3 ⎪

⎩  ⎭

⎪ x3 ⎫



 ⎪


⎪ ⎪

⎨ 3x3 
⎪ 
 ⎬

=  ∈ R  x3 ∈ R
4

⎪   ⎪

⎪ x3 
⎪ ⎪


⎪ 3x3 ⎪

⎩  ⎭

⎪ ⎫


⎪ 1

 ⎪


⎪ 3  ⎪


⎪   ⎬

= x3 ·  ∈ R  x3 ∈ R
4

⎪ 1  ⎪


⎪  ⎪


⎪ 3 ⎪

⎩  ⎭
1


3

= L  .
1

3

Da (1, 3, 1, 3) nicht der Nullvektor ist, ist er linear unabhängig. Also ist

X = {(1, 3, 1, 3) }

eine Basis von Lös(A, 0).


78 2. Matrixrechnung

2.4. Geometrie der Ebene, Teil 1


Bislang haben wir algebraische Probleme untersucht, nämlich das Lösen von Gleichungs-
systemen. Nun wenden wir uns erstmals der Geometrie zu. Lineare Algebra und analytische
Geometrie ergänzen sich auf ideale Weise. Zum einen sind algebraische Hilfsmittel wie Vekto-
ren und Matrizen sehr nützlich für die Geometrie, z.B. um einfache Beweise für geometrische
Sätze zu finden, zum anderen liefert die Geometrie auch bei rein algebraischen Fragestellungen
oft eine anschauliche Interpretation, die dem Verständnis sehr zugute kommt.
Als mathematisches Modell für die Ebene verwenden wir R2 und fassen die Ebene als ein
unbegrenzt ausgedehntes, flaches, zweidimensionales Objekt auf. Dies bedeutet, dass wir die
Ebene koordinatisieren, d.h. wir identifizieren Punkte der Ebene anhand zwei reeller Zahlen,
ihren Koordinaten. Die Vorgehensweise, Vektorrechnung für geometrische Überlegungen zu
nutzen und Koordinaten in der Ebene einzuführen, geht auf den französischen Philosoph
René Descartes zurück. Man spricht daher auch von kartesischen Koordinaten, die gerade die
beiden Komponenten des entsprechenden Vektors in R2 sind. In Schulbüchern finden sich oft
Schreibweisen wie P(0|1) für einen Punkt P, der die Koordinaten 0 und 1 hat. Wir verwenden
diese Notation nicht und machen auch keinen Unterschied zwischen einem Punkt der Ebene
und seinem Ortsvektor. Wollen wir dem   Punkt mit den Koordinaten 0 und 1 den Namen P
0
geben, so schreiben wir einfach P := .
1

Nach den Punkten sind die Geraden die einfachsten geometrischen Objekte in der Ebene.

Definition 2.69. Eine Gerade in der Ebene ist eine Menge der Form

G a,v = {a + t · v | t ∈ R} ⊂ R2 .

Hierbei ist a ∈ R2 ein Aufpunkt und v ∈ R2 \ {0} ein Richtungsvektor der Geraden.

x2

x1
v G a,v
Abb. 28 Gerade

Wäre v = 0 zugelassen, so führte das zu einer Menge G a,0 = {a} , welche offenbar nur einen
Punkt enthält - nicht gerade das, was wir uns unter einer Gerade vorstellen. Daher verlangen
wir in der Definition, dass v  0. An den Aufpunkt gibt es keine Einschränkung.
2.4. Geometrie der Ebene, Teil 1 79

Wir zeigen nun, dass der Aufpunkt einer Geraden gegen jeden beliebigen Punkt der Gerade
austauschbar ist.

Lemma 2.70. Ist G a,v ⊂ R2 eine Gerade und p ∈ G a,v, so gilt:

G a,v = G p,v .

Beweis. Zu „G a,v ⊃ G p,v “:


Sei q ∈ G p,v gegeben. Wir müssen zeigen, dass nun auch q ∈ G a,v zutrifft. Wegen p ∈ G a,v
gibt es ein t0 ∈ R, so dass
p = a + t0 · v (2.9)
gilt. Da ferner q ∈ G p,v gilt, gibt es ein t1 ∈ R, so dass

q = p + t1 · v

gilt und wir (2.9) einsetzen können:

q = p + t1 · v = a + t0 · v + t1 · v = a + (t0 + t1 ) · v ∈ G a,v .

Zu „G a,v ⊂ G p,v “:
Sei x ∈ G a,v . Wir zeigen, dass auch x ∈ G p,v gilt. Zunächst existiert wegen p ∈ G a,v ein t0 ∈ R,
so dass
p = a + t0 · v (2.10)
gilt. Wegen x ∈ G a,v gibt es ein t2 ∈ R, so dass

x = a + t2 · v

gilt. Umstellen von (2.10) nach a und Einsetzen führt schließlich auf:

x = a + t2 · v = p − t0 · v + t2 · v = p + (t2 − t0 ) · v ∈ G p,v . 

Wir beweisen nun, dass der Richtungsvektor aus zwei verschiedenen Punkten der Gerade ge-
bildet werden kann. Insbesondere legen somit zwei verschiedene Punkte eine Gerade eindeutig
fest.

Lemma 2.71. Ist G ⊂ R2 eine Gerade und sind a, b ∈ G mit a  b, so gilt:

G = Ga,b−a .
80 2. Matrixrechnung

Beweis. Laut Definition gibt es für die Gerade G einen Aufpunkt p ∈ R2 und einen Richtungs-
vektor v ∈ R2 \ {0} , so dass
G = G p,v
gilt. Wegen Lemma 2.70 können wir p durch a ersetzen, d.h. es gilt auch

G = G a,v .

Ist nun b ∈ G a,v ein weiterer Punkt der Gerade, dann existiert ein t0 ∈ R, so dass

b = a + t0 · v (2.11)

und wegen a  b insbesondere t0  0 gilt. Nach diesen Vorüberlegungen zeigen wir


G a,v = G a,b−a .

Zu „G a,v ⊂ G a,b−a “:
Zu x ∈ G a,v existiert ein t1 ∈ R, so dass

x = a + t1 · v

gilt. Da t0  0 ist, kann die Gleichung (2.11) nach v umgestellt und das Resultat
1
v= · (b − a)
t0
eingesetzt werden:
1 t1
x = a + t1 · v = a + t1 · · (b − a) = a + · (b − a) ∈ G a,b−a .
t0 t0
Zu „G a,v ⊃ G a,b−a “:
Umgekehrt zieht y ∈ G a,b−a die Existenz eines t2 ∈ R nach sich, so dass

y = a + t2 · (b − a)

gilt. Auch lässt sich die Gleichung (2.11) nach

b − a = t0 · v

überführen und damit ist:

y = a + t2 · (b − a) = a + t2 · t0 · v = a + (t2 t0 ) · v ∈ G a,v . 

Wir gehen nun der Frage nach, wie man eigentlich Abstände in der Ebene misst. Wie kann die
Länge eines Vektors berechnet werden? Ein wichtigstes Hilfsmittel hierfür und für Winkel-
berechnungen liefert
2.4. Geometrie der Ebene, Teil 1 81

   
x1 y1
Definition 2.72. Für x = ,y = ∈ R2 heißt
x2 y2

x, y := x1 · y1 + x2 · y2

Skalarprodukt der Vektoren x und y.

Bemerkung 2.73. Offenbar ist das Skalarprodukt eine Abbildung:

·, · : R2 × R2 → R

Dabei gelten für alle x, x , y ∈ R2 und alle t ∈ R folgende Rechenregeln:

(i) x + x , y = x, y + x , y,

(ii) t · x, y = t · x, y,

(iii) x, y = y, x,

(iv) x, x ≥ 0,

(v) x, x = 0 ⇔ x = 0.

Definition 2.74. Zu x ∈ R2 heißt


 
 x := x, x = x12 + x22

die Norm von x.

x2 x
 x

x1

Abb. 29 Norm

Die Norm eines Vektors ist eine andere Bezeichnung für seine Länge. Aus den Rechenregeln
(iv) und (v) für das Skalarprodukt ergibt sich für die Norm weiterhin

 x ≥ 0 und  x = 0 ⇔ x = 0
82 2. Matrixrechnung

für alle x ∈ R2 . Aus den Rechenregeln (ii) und (iii) finden wir für alle x ∈ R2 und jedes t ∈ R :

t · x = t · x, t · x

= t · x, t · x

= t · t · x, x

= t 2 · x, x
 
= t 2 · x, x
= |t | ·  x .

Der noch ausstehende, allgemeine Abstandsbegriff erfordert nun zunächst einen kleinen Ab-
stecher in die Analysis:

Definition 2.75. Sei I ⊂ R. Eine Abbildung f : I → R heißt monoton wachsend, falls für
alle t1, t2 ∈ I gilt:
t1 ≤ t2 ⇒ f (t1 ) ≤ f (t2 )

So ist etwa die Funktion f : R → R, x → x, monoton wachsend, während g : R → R, x → x 2 ,


nicht monoton wachsend ist, da z.B. für −2 ≤ 0 gilt g(−2) = 4 > 0 = g(0). Schränken wir g
auf I := R+ := {t ∈ R | t > 0} ein, so ist diese
√ Einschränkung monoton wachsend. Ferner ist
+ +
auch h : R0 := {t ∈ R | t ≥ 0} → R0 , x → x, monoton wachsend. Diese Eigenschaft wird
sich im Beweis des folgenden Satzes und dessen Folgerung als hilfreich erweisen.

Satz 2.76 (Cauchy-Schwarz-Ungleichung). Für alle x, y ∈ R2 gilt:

|x, y| ≤  x · y .

   
x1 y1
Beweis. Wir schreiben x = und y = und berechnen die Differenz der Quadrate
x2 y2
beider Seiten. Es gilt:

( x ·  y)2 − (|x, y|)2 =  x 2 ·  y 2 − x, y 2


 2  2
= x, x · y, y − x, y 2
= x, x · y, y − x, y 2
= (x12 + x22 ) · (y12 + y22 ) − (x1 y1 + x2 y2 )2

= x12 y12 + x12 y22 + x22 y12 + x22 y22 − x12 y12 + 2x1 x2 y1 y2 + x22 y22
= x12 y22 − 2x1 y1 x2 y2 + x22 y12
2.4. Geometrie der Ebene, Teil 1 83

= (x1 y2 − x2 y1 )2
≥ 0.

Insgesamt haben wir also

( x ·  y)2 ≥ (|x, y|)2 .

Aufgrund der Monotonie der Wurzelfunktion bleibt die Ungleichung erhalten, wenn man auf
beiden Seiten die Wurzel zieht. Dies liefert  x ·  y ≥ |x, y| . 

Korollar 2.77 (Dreiecksungleichung für ·). Für alle x, y ∈ R2 gilt:

x + y ≤  x +  y

Beweis. Wir berechnen:

 2
 x + y 2 = x + y, x + y

= x + y, x + y
= x, x + y + y, x + y
= x + y, x + x + y, y
= x, x + y, x + x, y + y, y
= x, x + 2 x, y + y, y
=  x 2 + 2 x, y + y 2
CSU
≤  x 2 + 2 x  y + y 2
= (x +  y)2 .

Dabei steht CSU nicht etwa für eine bekannte politische Partei, sondern für die Cauchy-
Schwarz-Ungleichung. Wieder führt das Anwenden der Wurzelfunktion auf beiden Seiten zum
gewünschten Resultat. 

Anhand folgender Abbildung erklären wir, weshalb die eben bewiesene Ungleichung den
Namen „Dreiecksungleichung“ trägt:
84 2. Matrixrechnung

x2
x+y
x

y
x1

Abb. 30 Dreiecksungleichung

Offenbar ist der direkte Weg x + y stets höchstens so lang, wie der „Umweg“  x + y .
Passend angeordnet, bilden x, y und x + y ein Dreieck, welches nur dann konstruierbar ist,
wenn zwei Seiten zusammen mindestens so lang sind, wie die dritte Seite.
Nun können wir sinnvoll den Abstandsbegriff zweier Punkte in der Ebene definieren:

Definition 2.78. Zu x, y ∈ R2 heißt

d(x, y) :=  x − y

euklidischer Abstand von x und y.

Die Norm eines Vektors ist also nichts anderes als der euklidische Abstand vom Nullvektor,

 x =  x − 0 = d(x, 0).

Bemerkung 2.79. Sind x, y ∈ R2 , so gilt d(x, y) = d(y, x), denn

d(x, y) =  x − y = (−1) · (y − x) = |−1| ·  y − x = y − x = d(y, x).

Nicht nur für die Norm, auch für den euklidischen Abstand gibt es eine Dreiecksungleichung:

Korollar 2.80 (Dreiecksungleichung für d). Sind x, y, z ∈ R2, so gilt:

d(x, z) ≤ d(x, y) + d(y, z).


2.4. Geometrie der Ebene, Teil 1 85

x2
z
x

y
x1

Abb. 31 Dreiecksungleichung

Beweis. Wir beginnen mit der linken Seite und rechnen los:
d(x, z) = x − z
= x − y + y − z
= (x − y) + (y − z)
Kor. 2.77
≤  x − y +  y − z
= d(x, y) + d(y, z). 

Lemma 2.81 (Mittelpunkts-Lemma). Sei G ⊂ R2 eine Gerade und a, b ∈ G, a  b. Dann


existiert genau ein Punkt c ∈ G, so dass gilt:

d(a, c) = d(b, c)

Für diesen Punkt c gilt ferner:


1 1
c = (a + b) und d(a, c) = d(b, c) = d(a, b)
2 2

b
c
a

Abb. 32 Mittelpunkt

Beweis. Nach Lemma 2.71 wissen wir, dass G durch die auf ihr befindlichen Punkte a  b
eindeutig festgelegt ist, d.h. es gilt:
G = G a,b−a = {a + t · (b − a) | t ∈ R} .
Sei nun q = a + t0 · (b − a) ∈ G für ein bestimmtes t0 ∈ R. Dann gilt
d(a, q) = a − q
86 2. Matrixrechnung

= a − (a + t0 · (b − a))
= (−t0 ) · (b − a)
= |t0 | · b − a

und analog

d(b, q) = b − q
= b − (a + t0 · (b − a))
= b − a − t0 · b + t0 · a
= (1 − t0 ) · (b − a)
= |1 − t0 | · b − a .

Damit erhalten wir ein Kriterium dafür, dass q von a und b denselben Abstand hat:

d(a, q) = d(b, q) ⇔ |t0 | · b − a = |1 − t0 | · b − a


ab
⇔ |t0 | = |1 − t0 |
⇔ t02 = (1 − t0 )2
⇔ t02 = 1 − 2t0 + t02
1
⇔ t0 = .
2
Damit ist
1 1 1 1
c := a + (b − a) = a + b − a = (a + b)
2 2 2 2
der einzige Punkt auf G, der von a und b denselben Abstand hat. Dieser Abstand berechnet
sich dann zu

d(b, c) = d(a, c)

= d a, 12 (a + b)
! !
= !a − 12 (a + b)!
! !
= !a − 12 a − 12 b!
! !
= ! 1 (a − b)!
2
= 2 a − b
1

= 1
2 d(a, b). 

Definition 2.82. Der Punkt 12 (a + b) heißt Mittelpunkt von a und b.

Diese Definition ist auch im Fall a = b zulässig.


2.4. Geometrie der Ebene, Teil 1 87

Definition 2.83. Zwei Geraden G a,v und G b,w heißen genau dann parallel, wenn ihre Rich-
tungsvektoren v, w linear abhängig sind.

x2

b
x1
w
v
G a,v G b,w
Abb. 33 Parallele Geraden

Bemerkung 2.84. Für parallele Geraden G a,v und G b,w gilt:

G b,w = G b,v

und
G a,v = G a,w,
denn, da v und w linear abhängig sind, gilt w = αv für ein geeignetes α ∈ R \ {0} und somit:

G b,w = {b + tw | t ∈ R}
= {b + t(αv) | t ∈ R}
= {b + (tα)v) | t ∈ R}
= {b + t v | t  ∈ R}
= G b,v .

Mit G a,v = G a,w verfährt man analog.

Das folgende Lemma ist charakteristisch für die zweidimensionale Geometrie. In höheren
Dimensionen wird dies nicht mehr richtig sein.

Lemma 2.85. Zwei Geraden G und G in der Ebene sind genau dann parallel, wenn entweder
G = G oder G ∩ G = ∅ gilt.

Beweis. a) Seien G und G parallel. Wir zeigen, dass dann G = G oder G ∩ G = ∅ gilt.
Nehmen wir also an, dass G ∩ G  ∅, denn sonst sind wir schon fertig. Dann gibt es ein
a ∈ G ∩ G. Wegen Lemma 2.70 können wir dann G = G a,v und G = G a,w für bestimmte
v, w, ∈ R2 \ {0} schreiben. Da G und G parallel sind, gilt wegen Bemerkung 2.84:

G a,w = G a,v,
88 2. Matrixrechnung

d.h.
G = G .
b) Sei nun umgekehrt G = G oder G ∩ G = ∅. Wir zeigen, dass dann G und G parallel sind.
Falls G = G gilt, so ist dies klar. Sei also G ∩ G = ∅. Untersuchen wir, was diese Bedingung
bedeutet. Ein Punkt x in G ∩ G lässt sich sowohl in der Form x = a + t1 v als auch in der Form
x = b + t2 w schreiben, wobei wir G = G a,v und G = G b,w geschrieben haben. Also gilt
G ∩ G  ∅ ⇔ ∃t1, t2 ∈ R : a + t1 v = b + t2 w
 
t1
⇔ ∃t1, t2 ∈ R : (v, w) · = b−a
−t2
⇔ Lös((v, w), a − b)  ∅

Da wir G∩G = ∅ vorausgesetzt hatten, heißt das also Lös((v, w), a−b) = ∅. Somit ist rg(v, w) <
rg(v, w, a − b). Wegen v, w, a − b ∈ R2 ist aufgrund von Korollar 2.43 rg(v, w, a − b) ≤ 2 und
somit rg(v, w) ≤ 1. Also sind v und w linear abhängig und somit G und G parallel. 

In höheren Dimensionen gibt es „windschiefe“ Geraden, d.h. solche, die sich nicht schneiden
und trotzdem nicht parallel sind.

Definition 2.86. Ein Parallelogramm ist ein 4-Tupel (a, b, c, d) von paarweise verschie-
denen Punkten a, b, c, d ∈ R2, so dass G a,b−a parallel zu G c,d−c ist und G a,c−a parallel zu
G b,d−b .
Ferner heißt ein Parallelogramm (a, b, c, d) nicht entartet, falls keine drei Punkte auf einer
Geraden liegen.

G a,c−a G b,d−b

G c,d−c
c d

G a,b−a
a b

Abb. 34 Parallelogramm

Indem wir verlangen, dass ein Parallelogramm nicht entartet sein soll, schließt es stets eine
Fläche ein. Etwa für a = b und c = d ist dies nicht der Fall. Als entartet sehen wir insbesondere
den Fall an, bei dem alle vier Punkte auf einer Geraden liegen:

a c b d
Abb. 35 Entartetes Parallelogramm
2.4. Geometrie der Ebene, Teil 1 89

Bemerkung 2.87. Ist (a, b, c, d) ein nicht entartetes Parallelogramm, so sind die Geraden
Ga,b−a, G c,d−c, G a,c−a, G b,d−b paarweise verschieden und b − a, c − a sind linear unabhängig.

Beweis. Den Nachweis hierfür genehmigen wir uns als Übungsaufgabe 2.11. 

Lemma 2.88. Ist (a, b, c, d) ein nicht entartetes Parallelogramm, so gilt:

c−a = d−b und b − a = d − c.

Beweis. Betrachten wir hierfür die parallelen Geraden G a,c−a und G b,d−b . Dann gilt

c − a = λ(d − b) (2.12)

für ein λ ∈ R. Derselbe Ansatz für die Parallelen G a,b−a und G c,d−c liefert

b − a = μ(d − c) (2.13)

für ein μ ∈ R. Nun zeigen wir λ = μ = 1. Wir subtrahieren Gleichung (2.13) von (2.12) und
erhalten:

c − b =λ(d − b) − μ(d − c)
⇒ c − d + d − b=λ(d − b) − μ(d − c)
⇒ − (d − c) + (d − b) =λ(d − b) − μ(d − c)
⇒ (μ − 1)(d − c) + (1 − λ)(d − b) =0

Da das Parallelogramm nicht entartet ist, sind die Vektoren d − c und d − b linear unabhängig.
Somit gibt es nur die triviale Linearkombination des Nullvektors und es folgt μ − 1 = 0 sowie
1 − λ = 0, also insgesamt μ = λ = 1. 

Zwei interessante Strecken in einem Parallelogramm sind die Diagonalen. Für sie gilt der

Satz 2.89 (Diagonalensatz). In einem nicht entarteten Parallelogramm halbieren sich die
Diagonalen gegenseitig.

c d

a b
Abb. 36 Diagonalensatz
90 2. Matrixrechnung

Beweis. Gemäß Lemma 2.81 ist 12 (a + d) der Mittelpunkt der Diagonalen durch a und d
sowie 21 (b + c) der Mittelpunkt der Diagonalen durch b und c. Wir zeigen nun die Gleichheit
2 (a + d) = 2 (b + c) mittels direkter Rechnung. Dazu subtrahieren wir die rechte Seite von der
1 1

linken und erhalten den Nullvektor als Ergebnis:

1 1 1 1 Lemma 2.88
(a + d) − (b + c) = (a + d − b − c) = (−(c − a) + (d − b)) = 0. 
2 2 2 2

Man beachte, dass der Diagonalensatz für allgemeine Vierecke falsch ist, wie folgende Abbil-
dung illustriert:
d

b
Abb. 37 Diagonalensatz scheitert

Nachfolgend sparen wir eine Ecke ein und wenden uns Dreiecken zu.

Definition 2.90. Ein Dreieck ist ein Tripel (a, b, c) von Punkten a, b, c ∈ R2 .
Ein Dreieck (a, b, c) heißt nicht entartet, falls a, b, c nicht auf einer Geraden liegen.

Im Zusammenhang mit Dreiecken gibt es eine Fülle interessanter Geraden bzw. Strecken, etwa
Seiten- und Winkelhalbierende, Mittelsenkrechte und Höhen.

Definition 2.91. Sei (a, b, c) ein nicht entartetes Dreieck. Eine Seitenhalbierende ist eine
Gerade durch eine der Ecken a, b, c des Dreiecks und den Mittelpunkt der gegenüberliegenden
Seite.

Damit haben wir die:


"  #
◦ Seitenhalbierende durch a und 12 (b + c) : G a, 1 (b+c)−a = a + t 12 (b + c) − a | t ∈ R
2

"  #
◦ Seitenhalbierende durch b und 21 (a + c) : G b, 1 (a+c)−b = b + t 12 (a + c) − b | t ∈ R
2

"  #
◦ Seitenhalbierende durch c und 12 (a + b) : G c, 1 (a+b)−c = c + t 12 (a + b) − c | t ∈ R
2
2.4. Geometrie der Ebene, Teil 1 91

Bemerkenswerterweise treffen sich die drei Seitenhalbierenden in einem Punkt:

Satz 2.92 (Schwerpunktsatz). In jedem nicht entarteten Dreieck (a, b, c) schneiden sich die
drei Seitenhalbierenden im Punkt 13 (a + b + c).

G b, 1 (a+c)−b
2
b

G c, 1 (a+b)−c
3 (a + b + c)
1 2
c
G a, 1 (b+c)−a
2 a
Abb. 38 Seitenhalbierende

Beweis. Wir zeigen, dass 13 (a + b + c) auf allen Seitenhalbierenden liegt.


"  #
Für G a, 1 (b+c)−a = a + t 12 (b + c) − a | t ∈ R wählen wir t = 23 und berechnen:
2


a+ 2
3 2 (b +
1
c) − a = a + 13 (b + c) − 23 a = 1
3 (a + b + c) .

Also liegt 1
3 (a + b + c) auf der Seitenhalbierenden G a, 1 (b+c)−a . Analog sieht man, dass
2
1
3 (a + b + c) auch auf den anderen beiden Seitenhalbierenden liegt. 

Definition 2.93. Der Punkt 13 (a + b + c) heißt Schwerpunkt des Dreiecks (a, b, c).

Tatsächlich entspricht dieser Schwerpunkt auch dem physikalischen Schwerpunkt des Dreiecks.

Bemerkung 2.94. Die Seitenhalbierenden dritteln sich, d.h. sie teilen sich im Verhältnis 2 : 1.
Genauer: Der Schwerpunkt liegt von jeder Ecke doppelt so weit entfernt wie vom Mittelpunkt
der gegenüberliegenden Seite. In Formeln:

 
d a, 31 (a + b + c) = 2 · d 12 (b + c), 13 (a + b + c) .
92 2. Matrixrechnung

2
c

a
Abb. 39 Seitenhalbierende dritteln sich

Wir rechnen dies leicht nach. Zum einen gilt


 ! !
d a, 13 (a + b + c) = !a − 13 (a + b + c)!
! !
= ! 23 a − 13 b − 13 c!
= 1
3 2a − b − c
und zum anderen
 ! !
d 2 (b
1
+ c), 13 (a + b + c) = ! 12 (b + c) − 13 (a + b + c)!
! !
= ! 12 b + 12 c − 13 a − 13 b − 13 c!
! !
= !− 13 a + 16 b + 16 c!
! !
! !
= ! − 16 (2a − b − c)!
= 1
6 2a − b − c .

Zur Komplettierung dieses Abschnitts wollen wir noch das wichtige Konzept von Winkeln,
genauer, Winkelgrößen kennenlernen. Hierfür benötigen wir folgende zwei Beobachtungen.
Einerseits kann für x, y ∈ R2 \ {0} der Zähler des Quotienten
 
 x, y  |x, y|
 
 x ·  y  =  x ·  y

mittels der Cauchy-Schwarz-Ungleichung |x, y| ≤  x ·  y abgeschätzt werden, so dass


gilt:
|x, y| x ·  y
≤ = 1.
 x ·  y x ·  y
Also ist:
x, y
∈ [−1, 1] .
 x ·  y
Andererseits kennen wir aus der Schule oder der Analysis-Vorlesung die Kosinus-Funktion
cos : [0, π] → [−1, 1],
welche das Intervall [0, π] bijektiv auf das Intervall [−1, 1] abbildet.
2.4. Geometrie der Ebene, Teil 1 93

1
x = cos(t)

−π − π2 π π t

2
3 2π
−1

Abb. 40 Kosinus

Wie wir wissen, existiert daher eine Umkehrabbildung:

arccos : [−1, 1] → [0, π] .

t = arccos(x)

−1 1 x

Abb. 41 Arkus-Kosinus

Somit ist cos(t) = x ⇔ arccos(x) = t und wir können folgende Definition machen.

Definition 2.95. Die Zahl


$ %
x, y
(x, y) := arccos
 x ·  y

heißt Innenwinkel von x und y.


94 2. Matrixrechnung

x x
0 0

Abb. 42 Innenwinkel

Der Kosinus des Innenwinkels von x und y ist also gerade der Quotient  xx,y
· y . Insbesondere
wird der Innenwinkel demnach durch das Skalarprodukt definiert. Zu beachten ist, dass auch
wirklich stets der Innenwinkel genommen wird, d.h. derjenige Winkel kleiner oder gleich π.
So wie wir Winkel definiert haben, werden sie im so genannten Bogenmaß angegeben. Sehr
verbreitet ist auch die Angabe von Winkeln in Grad. Die Umrechung in das Gradmaß erfolgt
einfach mittels der Relation
π
1◦ := .
180

Sehen wir uns ein paar Beispiele an.

Beispiel 2.96. Für x = y gilt


x, y x, x  x 2 x=y
= = = 1. 0
 x · y  x ·  x  x 2
Abb. 43 Innenwinkel = 0
Folglich ist

(x, x) = arccos(1) = 0 .

Beispiel 2.97. Für x = −y gilt

x, y x, −x − x, x


= =
 x ·  y  x · −x  x ·  x −x x
−  x 2 0
= = −1. Abb. 44 Innenwinkel = π = 180◦
 x 2

Folglich ist

(x, −x) = arccos(−1) = π = 180◦ .


2.4. Geometrie der Ebene, Teil 1 95

y
Beispiel 2.98. Ist x, y = 0, so gilt
π
(x, y) = arccos(0) = = 90◦ .
2 x
0
π
Abb. 45 Innenwinkel = 2 = 90◦

Definition 2.99. Falls x, y = 0 gilt, so heißen x und y orthogonal zueinander. Wir sagen
auch, dass x und y aufeinander senkrecht stehen. Wir schreiben in diesem Fall x ⊥ y.

y
Beispiel 2.100. Ist x = (1, 0) und y = (1, 1) , so gilt:

x, y 1·1+0·1 1
=√ √ =√ .
 x · y 12 + 02 · 12 + 12 2 x
0
π
Abb. 46 Innenwinkel = 4 = 45◦
Folglich ist $ %
1 π
(x, y) = arccos √ = = 45◦ .
2 4

√ y
Beispiel 2.101. Ist x = (1, 0) und y = (1, 3) , so gilt:

x, y 1·1+0· 3 1
=√ √ = .
x ·  y 1 +0 · 1 +3 2
2 2 2

Folglich ist
$ % x
1 π
(x, y) = arccos = = 60◦ . 0
π
2 3 Abb. 47 Innenwinkel = 3 = 60◦

Der folgende Satz erlaubt es z.B., aus vorgegebenen drei Seitenlängen eines nicht entarteten
euklidischen Dreiecks die Innenwinkel desselben zu berechnen. Sind dagegen zwei Seiten und
der durch diese Seiten eingeschlossene Winkel vorgegeben, so kann mit dem Satz die dem
Winkel gegenüberliegende Seite berechnet werden.

Satz 2.102 (Kosinussatz). Sei (a, b, c) ein nicht entartetes Dreieck und sei
α := (b − a, c − a) der Innenwinkel in der Ecke α. Dann gilt:

d(b, c)2 = d(a, b)2 + d(a, c)2 − 2 · d(a, b) · d(a, c) · cos(α) .


96 2. Matrixrechnung

α
a
c
Abb. 48 Kosinussatz

Entsprechend gelten dann natürlich für β := (a − b, c − b) und γ := (a − c, b − c) die analogen
Aussagen

d(a, c)2 = d(b, a)2 + d(b, c)2 − 2 · d(b, a) · d(b, c) · cos(β),


d(a, b)2 = d(c, a)2 + d(c, b)2 − 2 · d(c, a) · d(c, b) · cos(γ).

Beweis. Wir weisen die umgestellte Version

d(b, c)2 − d(a, b)2 − d(a, c)2 = −2 · d(a, b) · d(a, c) · cos(α)

nach. In der Tat gilt:

d(b, c)2 − d(a, b)2 − d(a, c)2 = b − c 2 − a − b 2 − a − c 2


= b − c, b − c − a − b, a − b − a − c, a − c
= b, b − 2 b, c + c, c − (a, a − 2 a, b + b, b)
− (a, a − 2 a, c + c, c)
= −2 a, a − 2 b, c + 2 a, b + 2 a, c
= −2 · (c, b − a, b + a, a − c, a)
= −2 · c − a, b − a
c − a, b − a
= −2 · c − a b − a ·
c − a b − a
= −2 · d(a, c) · d(a, b) · cos(α) . 

Korollar 2.103. Die Seitenlängen eines nicht entarteten Dreiecks legen die Innenwinkel
eindeutig fest. 

Vorsicht: Umgekehrt legen die Innenwinkel die Seitenlängen nicht fest. Strecken wir näm-
lich ein Dreieck um einen positiven Faktor, dann werden die Seitenlängen um diesen Faktor
gestreckt, die Innenwinkel bleiben jedoch unverändert.
2.4. Geometrie der Ebene, Teil 1 97

Korollar 2.104 (Satz des Pythagoras). Ist α = π2 , so gilt

d(b, c)2 = d(a, b)2 + d(a, c)2 . 

Nun noch zu einem Satz über Parallelogramme.

Satz 2.105 (Rhombensatz). Die vier Seitenlängen eines nicht entarteten Parallelogramms
sind genau dann gleich, wenn die beiden Diagonalen sich senkrecht schneiden.

c d
a d

b a b
Rhombus kein Rhombus
Abb. 49 Rhombensatz

Beweis. Für ein nicht entartetes Parallelogramm (a, b, c, d) setze:

v := b − a = d − c und w := c − a = d − b.

Damit sind die Diagonalen des Parallelogramms gegeben durch

d−a=v+w und c − b = v − w.

c d

a v b
Abb. 50 Rhombensatz

Nun stehen die beiden Diagonalen genau dann senkrecht aufeinander, wenn

d − a, c − b = 0.

Wir berechnen

d − a, c − b = v + w, v − w = v, v − v, w + w, v − w, w = v 2 − w 2 .


98 2. Matrixrechnung

Also stehen die Diagonalen genau dann aufeinander senkrecht, wenn

v 2 − w 2 = 0,

d.h. genau dann wenn


v 2 = w 2,
d.h. genau dann wenn
v = w,
d.h. genau dann wenn die Seiten gleich lang sind. 

Definition 2.106. Ein nicht entartetes Parallelogramm mit gleich langen Seiten heißt Rhom-
bus oder auch Raute.

2.5. Die komplexen Zahlen


Die natürlichen Zahlen N entstanden durch das Zählen von Objekten. Die Einführung der Zahl 0
ermöglichte es, das Dezimalsystem zur Darstellung von Zahlen zu entwickeln. Dieses System
ist heute der internationale Standard. Wer einmal versucht hat, mit römischen Zahldarstellungen
elementare Rechenoperationen durchzuführen, lernt schnell die Dezimaldarstellung schätzen.
Ein Problem, welches beim Rechnen natürlichen Zahlen (inkl. 0) auftritt, besteht darin, dass
einfache Gleichungen wie z.B. x + 5 = 1 keine Lösungen in N0 besitzen. Die ganzen Zahlen
Z beseitigen diesen Mangel durch Einführen der negativen Zahlen.
Allerdings sind in Z einfache lineare Gleichungen, wie etwa 2x −1 = 0, nicht lösbar. Dies führt
uns zur Menge der rationalen Zahlen Q. Nun gibt es jedoch auch hier wiederum problematische
Gleichungen, z.B. die quadratische Gleichung x 2 − 2 = 0. Wir haben in Satz 1.23 gesehen, dass
diese Gleichung in Q nicht lösbar ist. Die Einführung der reellen Zahlen R schafft hier Abhilfe.
Aber auch in den reellen Zahlen gibt es sehr einfache nicht lösbare quadratische Gleichungen
wie etwa x 2 + 1 = 0.
Geht das nun immer so weiter? Wir erweitern ständig unser Repertoire an Zahlen, stoßen aber
sofort wieder auf neue einfache Gleichungen, die eine erneute Erweiterung notwendig machen.
Nein, es geht nicht immer so weiter. Wir müssen die reellen noch einmal zu den komplexen
Zahlen C erweitern. In C werden dann polynomiale Gleichungen, egal von welchem Grad,
immer lösbar sein. Insofern findet der Ausbau des Zahlensystems bei den komplexen Zahlen
einen natürlichen Abschluss. Was sind komplexe Zahlen? Wir setzen

C := R2 .
Die Menge der komplexen Zahlen C heißt daher auch Gauß’sche Zahlenebene. Nun müssen
wir mit den komplexen Zahlen rechnen können, insbesondere müssen wir sie addieren und
multiplizieren können. Die Addition komplexer Zahlen kennen wir schon, es ist die gewöhnliche
2.5. Die komplexen Zahlen 99

Vektoraddition. Es gilt also für alle x, y ∈ C:


     
x1 y1 x1 + y1
+ = .
x2 y2 x2 + y2

Ferner kennen wir aus der Vektorrechnung bereits die Rechenregeln:

(i) Assoziativgesetz der Addition:


∀x, y, z ∈ C : (x + y) + z = x + (y + z).

(ii) Kommutativgesetz der Addition:


∀x, y ∈ C : x + y = y + x.
(iii) Existenz des neutralen Elements der Addition:
 
0
∀x ∈ C : x + 0 = x, wobei 0 = ∈ C.
0

(iv) Existenz inverser Elemente der Addition:


∀x ∈ C ∃y ∈ C : x + y = 0, nämlich y = −x = (−1) · x.

Die entscheidende Neuerung ist die Multiplikation zweier komplexer Zahlen. Für alle x, y ∈ C
definieren wir:      
x1 y1 x1 · y1 − x2 · y2
· := . (2.14)
x2 y2 x1 · y2 + x2 · y1
Diese Definition wirkt zunächst recht willkürlich. Wir werden aber sehen, dass sie sich doch
ziemlich zwangsläufig ergibt. Zunächst verifizieren wir, dass die Multiplikation komplexer
Zahlen denselben Rechenregeln genügt wie die der reellen Zahlen:

(v) Assoziativgesetz der Multiplikation:


∀x, y, z ∈ C : (x · y) · z = x · (y · z).

(vi) Kommutativgesetz der Multiplikation:


∀x, y ∈ C : x · y = y · x.
(vii) Existenz des neutralen Elements der Multiplikation:
 
1
∀x ∈ C : x · 1 = x, wobei 1 := ∈ C.
0

(viii) Existenz inverser Elemente der Multiplikation:


∀x ∈ C \ {0} ∃y ∈ C : x · y = 1, nämlich
 
−1 1 x1
y=x := 2 · ∈ C.
x1 + x22 −x2
100 2. Matrixrechnung

Man beachte, dass wegen der Voraussetzung x  0 auch x12 + x22 > 0 gilt und wir daher
durch x12 + x22 dividieren können.

Schließlich gibt es ein weiteres Gesetz, das regelt, wie Addition und Multiplikation zusam-
menspielen. Es stellt sicher, dass man ausmultiplizieren bzw. ausklammern darf:

(ix) Distributivgesetz:
∀x, y, z ∈ C : x · (y + z) = x · y + x · z.

Beweis der Rechenregeln für die Multiplikation. Zu (v):


   
x1 y1 − x2 y2 z1
(x · y) · z = ·
x1 y2 + x2 y1 z2
 
(x1 y1 − x2 y2 )z1 − (x1 y2 + x2 y1 )z2
=
(x1 y1 − x2 y2 )z2 + (x1 y2 + x2 y1 )z1
 
x1 y1 z1 − x2 y2 z1 − x1 y2 z2 − x2 y1 z2
=
x1 y1 z2 − x2 y2 z2 + x1 y2 z1 + x2 y1 z1
 
x1 y1 z1 − x1 y2 z2 − x2 y1 z2 − x2 y2 z1
=
x1 y1 z2 + x1 y2 z1 + x2 y1 z1 − x2 y2 z2
 
x1 (y1 z1 − y2 z2 ) − x2 (y1 z2 + y2 z1 )
=
x1 (y1 z2 + y2 z1 ) + x2 (y1 z1 − y2 z2 )
   
x1 y1 z1 − y2 z2
= ·
x2 y1 z2 + y2 z1
= x · (y · z).

Zu (vi):
     
x1 y1 − x2 y2 y1 x1 − y2 x2 y1 x1 − y2 x2
x·y= = = = y · x.
x1 y2 + x2 y1 y2 x1 + y1 x2 y1 x2 + y2 x1

Zu (vii):
       
x1 1 x1 · 1 − x2 · 0 x1
x·1= · = = = x.
x2 0 x1 · 0 + x2 · 1 x2

Zu (viii):
  x1 x12 −x22  
−1 x1
x12 +x22
x 2 +x 2 − x 2 +x 2 1
x·x = · −x2  = 1−x 2 1 2
x
= = 1.
x2 2 +x 2 x1 x 2 +x 2 + x2 x 2 +x 2
2 1 0
1 2 1 2
x
1 2
2.5. Die komplexen Zahlen 101

Zu (ix):
   
x1 y1 + z1
x · (y + z) = ·
x2 y2 + z2
 
x1 · (y1 + z1 ) − x2 · (y2 + z2 )
=
x1 · (y2 + z2 ) + x2 · (y1 + z1 )
 
x1 y1 + x1 z1 − x2 y2 − x2 z2
=
x1 y2 + x1 z2 + x2 y1 + x2 z1
 
x1 y1 − x2 y2 + x1 z1 − x2 z2
=
x1 y2 + x2 y1 + x1 z2 + x2 z1
   
x1 y1 − x2 y2 x1 z1 − x2 z2
= +
x1 y2 + x2 y1 x1 z2 + x2 z1
= x · y + x · z. 

Bislang war es bei der Einführung neuer Zahlen immer so, dass sie die bereits bekannten
Zahlen umfasst haben, N ⊂ N0 ⊂ Z ⊂ Q ⊂ R. Wir hätten also gerne, dass R ⊂ C, aber das ist
wegen C = R2 ja nicht richtig. Um das zu beheben, betten wir den reellen Zahlenstrahl in die
Gauß’sche Zahlenebene ein. Wir setzen
 
0
i := .
1
Dabei steht i für imaginär. Bei der Einführung der komplexen Zahlen war man der Ansicht, dass
die reellen Zahlen „wirklich“ sind, während die Vielfachen von i, die so genannten imaginären
x1
Zahlen, nur Vorstellungen sind. Jede komplexe Zahl x = ∈ C können wir aus reellen
x2
Vielfachen von 1 und i zusammensetzen:
         
x1 x1 0 1 0
x= = + = x1 · + x2 · = x1 · 1 + x2 · i.
x2 0 x2 0 1
Komplexe Zahlen sind allerdings genauso wirklich wie reelle und besitzen vielfältige An-
wendungen, etwa in der Physik. Sehen wir, was uns die Einführung von imaginären Zahlen
einbringt. Hierfür quadrieren wir:
         
0 0 0 · 0 − 1 · 1 −1 1
i2 = i · i = · = = =− = −1.
1 1 0·1+1·0 0 0
In den komplexen Zahlen können wir also die Wurzel aus −1 ziehen. Hiermit lässt sich die
komplexe Multiplikation leicht merken, denn für x, y ∈ C gilt:
x · y = (x1 · 1 + x2 · i) · (y1 · 1 + y2 · i)
102 2. Matrixrechnung

= x1 y1 · 1 + x1 y2 · i + x2 y1 · i + x2 y2 · i 2
= (x1 y1 − x2 y2 ) · 1 + (x1 y2 + x2 y1 ) · i.
Wenn man also den Ansatz macht, dass komplexe Zahlen von der Form x = x1 · 1 + x2 · i sein
sollen und i 2 = −1 gilt, dann ergibt sich die Definition der komplexen Multiplikation in (2.14)
zwangsläufig.
Von nun an identifizieren wir 0 ∈ C mit 0 ∈ R sowie 1 ∈ C mit 1 ∈ R und schreiben statt
x1
x= kurz
x2
x = x1 + x2 · i oder auch x = x1 + ix2 .
Dadurch wird jede reelle Zahl t mit der komplexen Zahl t = t + 0 · i identifiziert und somit gilt
R ⊂ C.
Oft werden z und w statt x und y als Platzhalter für komplexe Zahlen verwendet.

Definition 2.107. Für z = z1 + z2 · i ∈ C mit z1, z2 ∈ R heißt z1 =: Re(z) der Realteil und
z2 =: Im(z) der Imaginärteil von z.

imaginäre Achse

z2 z = Re(z) + i · Im(z)

1 z1 reelle Achse

Abb. 51 Gauß’sche Zahlenebene

√ √
Beispiel 2.108. Wir betrachten z = 1 + i 2 sowie w = 2 + i 3 und berechnen

z 1+i 2
= √
w 2+i 3
√ √
(1 + i 2) · (2 − i 3)
= √ √
(2 + i 3) · (2 − i 3)
√ √ √ √
2 − i 3 + i2 2 + 2 3
= √
4 − (i 3)2
 √  √ √
2+ 6 +i 2 2− 3
=
4+3
2.5. Die komplexen Zahlen 103

√ √ √
2+ 6 2 2− 3
= +i .
7 7
Also gilt √ √ √
z 2+ 6 z 2 2− 3
Re = und Im = .
w 7 w 7

Wir haben bei der Berechnung des Bruchs den Trick verwendet, dass wir den Bruch wz mit
derjenigen komplexen Zahl erweitert haben, bei der der Imaginärteil das entgegengesetzte
Vorzeichen (des Imaginärteils von w) besitzt, der Realteil jedoch derselbe ist.

Definition 2.109. Für z = z1 + iz2 ∈ C heißt z̄ := z1 − iz2 die komplex konjugierte Zahl
zu z. Die Abbildung C → C, z → z̄, heißt komplexe Konjugation.

z2 z = z1 +iz2

−z2 z̄ = z1 −iz2

Abb. 52 Komplexe Konjugation

Geometrisch
   ist die komplexe Konjugation die Spiegelung an der reellen Achse
x  
R=  x ∈ R . Insbesondere gilt für alle z = z1 + iz2 ∈ C:
0 

(i) Die komplexe Konjugation ist selbstinvers, d.h. es gilt:



(z̄) = z1 + iz2 = (z1 − iz2 ) = z1 + iz2 = z.

(ii) Es ist z = z̄ ⇔ z ∈ R.

Der folgende Satz listet einige weitere Eigenschaften der komplexen Konjugation:
104 2. Matrixrechnung

Satz 2.110. Für alle z, w ∈ C gilt:

(i) z + w = z̄ + w̄,

(ii) z · w = z̄ · w̄,

(iii) z · z̄ = |z| 2 , wobei |z| = z = Re(z)2 + Im(z)2 .

Beweis. Zu (i): Es gilt


   
z1 w1
z+w= +
z2 w2
 
z1 + w1
=
z2 + w2
 
z1 + w1
=
−(z2 + w2 )
 
z1 + w1
=
−z2 − w2
   
z1 w1
= +
−z2 −w2
= z̄ + w̄.

Zu (ii):
Für komplexe Zahlen z = z1 + iz2 und w = w1 + iw2 bekommen wir

z · w = (z1 + iz2 ) · (w1 + iw2 )


= z1 w1 − z2 w2 + i(z1 w2 + z2 w1 )
= z1 w1 − z2 w2 − i(z1 w2 + z2 w1 )
= (z1 − iz2 ) · (w1 − iw2 )
= z̄ · w̄.

Zu (iii):
Wir berechnen

z · z̄ = (z1 + iz2 ) · (z1 − iz2 )


= z12 − (iz2 )2
= z12 − i 2 z22
= z12 + z22 = |z| 2 . 
2.5. Die komplexen Zahlen 105

Bemerkung 2.111. Im Beispiel 2.108 erweiterten wir den Bruch wz mit der komplexen Kon-
jugation w̄ des Nenners, mit der Absicht, einen reellen Nenner zu erhalten. Wie sich nun
herausstellt, geschah dies implizit mittels der Regel (3.), denn es gilt
z z · w̄ z · w̄
= = ,
w w · w̄ |w| 2
wobei |w| 2 ∈ R ist.

Sie sollten das Rechnen mit komplexen Zahlen nun hier üben bis Sie es sicher
beherrschen: http://ueben.cbaer.eu/01.html

Für die Operationen Addition und Konjugation kennen wir bereits geometrische Interpreta-
tionen. Für die Multiplikation komplexer Zahlen allerdings fehlt uns eine solche noch. Wir
benötigen hierzu eine weitere Darstellungsform komplexer Zahlen z, die durch den Betrag |z|
und folgenden Winkelbegriff festgelegt ist.

Definition 2.112. Sei z ∈ C \ {0}. Dann heißt



(1, z), falls Im(z) ≥ 0,
arg(z) :=
2π − (1, z), falls Im(z) < 0,

das Argument von z.

z
arg(z)
arg(z) = (1, z)
1 1
z (1, z)

Abb. 53 Argument

Jede komplexe Zahl z = Re(z) + i · Im(z)  0 lässt sich nun durch |z| und arg(z) ausdrücken:

Satz 2.113. Für jedes z ∈ C \ {0} gilt:

(i) Re(z) = |z| · cos(arg(z)),

(ii) Im(z) = |z| · sin(arg(z)).


106 2. Matrixrechnung

Beweis. Zu (i):
Wegen der Definition von arg(z) haben wir zwei Fälle zu betrachten:
1. Fall: Für Im(z) ≥ 0 gilt:

|z| · cos(arg(z)) = |z| · cos((1, z))


&    '


1 z1
, 
0 z2 
=
|z| · cos arccos   ! ! !   
!
!! 1 !! !! z1 !! 
! ! · ! ! 
! 0 ! ! z2 !
&    ' 
1 z1
,
0 z2
= |z| · !   ! !   !
! 1 ! ! z !
! ! ! 1 !
! !·! !
! 0 ! ! z2 !
&    '
1 z1
,
0 z2
= |z| ·
1 · |z|
&   '
1 z1
= ,
0 z2
= z1 = Re(z).
2. Fall: Für Im(z) < 0 gilt:
Da die Kosinus-Funktion 2π-periodisch und eine gerade Funktion ist, gilt
|z| · cos(arg(z)) = |z| · cos(2π − (1, z))
= |z| · cos(−(1, z))
= |z| · cos((1, z))
= Re(z).
Zu (ii): 
Im(z)
Setzen wir zunächst zur Abkürzung x := |z| . Wegen |z| = Re(z)2 + Im(z)2 gilt

|z| 2 = Re(z)2 + Im(z)2


Im(z)2
= Re(z)2 + |z| 2
|z| 2
= Re(z)2 + |z| 2 x 2
(i)
= (|z| cos(arg(z)))2 + |z| 2 x 2

= |z| 2 cos(arg(z))2 + x 2 .
2.5. Die komplexen Zahlen 107

Da z  0 in der Voraussetzung des Satzes steht, können wir nun durch |z| 2  0 dividieren und
bekommen
1 = cos(arg(z))2 + x 2 .
Der trigonometrische Pythagoras liefert uns andererseits:
1 = cos(arg(z))2 + sin(arg(z))2 .
Subtraktion dieser beiden Gleichungen führt auf
x 2 = sin(arg(z))2,
also
x = sin(arg(z)) oder x = − sin(arg(z)).
Nun wieder zu den beiden möglichen Fällen:
1. Fall: Für Im(z) ≥ 0 ist x = Im(z)
|z| ≥ 0. Ferner gilt

arg(z) = (1, z) ∈ [0, π]


und dem Verlauf der Sinus-Funktion nach damit sin(arg(z)) ≥ 0, also x = sin(arg(z)). Einsetzen
für x ergibt wie gewünscht
Im(z) = x · |z| = sin(arg(z)) · |z| .
Im(z)
2. Fall: Für Im(z) < 0 ist x = |z| < 0. Weiterhin gilt
arg(z) = 2π − (1, z) ∈ [π, 2π],
also dieses Mal sin(arg(z)) ≤ 0 und damit wie im 1. Fall x = sin(arg(z)). Also folgt wie oben:
Im(z) = |z| · sin(arg(z)). 

Im Ergebnis können wir nun komplexe Zahlen z = Re(z) + i · Im(z) auch in der Form
z = |z| · (cos(arg(z)) + i sin(arg(z)))
schreiben. In der Literatur wird oft abkürzend ϕ := arg(z) ∈ [0, 2π) gesetzt.
iR
Die Darstellung

z = |z| · (cos(ϕ) + i sin(ϕ)) z = |z| (cos(ϕ) + i sin(ϕ))


Im(z)
|z|
nennt man die Polardarstellung für komple-
xe Zahlen. Sie ist durch den Betrag |z| und ϕ
den Winkel ϕ (ggf. abzüglich k · 2π für ein Re(z) R
k ∈ Z) eindeutig bestimmt.
Abb. 54 Komplexe Polardarstellung

Nun liefert uns folgender Satz eine geometrische Interpretation für die Multiplikation:
108 2. Matrixrechnung

Satz 2.114. Für alle z, w ∈ C \ {0} gilt:

(i) |z · w| = |z| · |w|.



arg(z) + arg(w), falls arg(z) + arg(w) < 2π,
(ii) arg(z · w) =
arg(z) + arg(w) − 2π, sonst.

Beweis. Zu (i):
Wegen Satz 2.110 gilt:
|z · w| 2 = (z · w) · (z · w)
= (z · w) · (z̄ · w̄)
= (z · z̄) · (w · w̄)
= |z| 2 · |w| 2
= (|z| · |w|)2 .
Da |z · w| , |z| · |w| ≥ 0 sind, folgt die Behauptung (i) durch Wurzelziehen.

Zu (ii):
Wir schreiben abkürzend ϕ := arg(z) und ψ := arg(w). Dann gilt
z = |z| · (cos(ϕ) + i sin(ϕ)) sowie
w = |w| · (cos(ψ) + i sin(ψ))
und wir erhalten
z · w = |z| · (cos(ϕ) + i sin(ϕ)) · |w| · (cos(ψ) + i sin(ψ))
= |z| · |w| · (cos(ϕ) + i sin(ϕ)) · (cos(ψ) + i sin(ψ))
= |z| · |w| · (cos(ϕ) cos(ψ) + i cos(ϕ) sin(ψ) + i sin(ϕ) cos(ψ) + i 2 sin(ϕ) sin(ψ))
= |z| · |w| · ((cos(ϕ) cos(ψ) − sin(ϕ) sin(ψ)) + i(cos(ϕ) sin(ψ) + sin(ϕ) cos(ψ)))
(i)
= |z · w| · (cos(ϕ + ψ) + i sin(ϕ + ψ)).
In die letzte Gleichung gehen die Additionstheoreme für Kosinus und Sinus ein. Wir werden
nochmal darauf zurückkommen.

Falls nun ϕ + ψ ∈ [0, 2π) ist, so gilt


arg(z · w) = ϕ + ψ = arg(z) + arg(w).
Ist dagegen ϕ + ψ ≥ 2π, so gilt ϕ + ψ ∈ [2π, 4π). Wegen der 2π-Periodizität von Kosinus und
Sinus erhalten wir dann
z · w = |z · w| · (cos(ϕ + ψ) + i sin(ϕ + ψ))
2.5. Die komplexen Zahlen 109

= |z · w| · (cos(ϕ + ψ − 2π) + i sin(ϕ + ψ − 2π))

und damit
arg(z · w) = ϕ + ψ − 2π ∈ [0, 2π). 

Aus diesem Satz ergibt sich folgende geometrische Interpretation der Multiplikation in C:

◦ Die Beträge werden multipliziert: |z · w| = |z| · |w|.

◦ Die Argumente werden addiert (und von der Summe ggf. 2π subtrahiert).

Sehen wir uns die beiden Fälle arg(z) + arg(w) ∈ [0, 2π) und arg(z) + arg(w) ∈ [2π, 4π) in je
einem Beispiel an:

iR  
 z = 2 cos π3 + i sin π3
w= 3
2 cos 5π
6 + i sin 5π
6

1 R


z · w = 3 cos 7π
6 + i sin 6

√ 
iR z · w = 10 cos 16 π + i sin 16 π
√ 
z = 2 cos 56 π + i sin 56 π

1 R

√ 
w = 5 cos 43 π + i sin 43 π

Abb. 55 Komplexe Multiplikation

Wir überlegen uns nachfolgend eine Möglichkeit, die eben verwendeten Additionstheoreme
herzuleiten, schon damit wir sie uns besser merken können. Aus der Analysis ist uns die
e-Funktion R → R mit x → e x bekannt:
110 2. Matrixrechnung

R
x → e x

Abb. 56 e-Funktion

Für alle x, x  ∈ R genügt die e-Funktion der Funktionalgleichung:


 
e x+x = e x · e x . (2.15)

Im Kontext komplexer Zahlen erhebt sich nun die Frage, ob die e-Funktion zu einer komplexen
Funktion C → C fortsetzbar ist, so dass die Funktionalgleichung (2.15) für alle komplexen
Zahlen gültig ist. Ist dies der Fall, so muss für jedes z = x + iy mit x, y ∈ R gelten

ez = e x+iy = e x · eiy .

Überlegen wir, wie die e-Funktion auf der imaginären Achse definiert werden kann. Wir
benötigen also eine Funktion R → C mit y → eiy, so dass schließlich für alle y, y ∈ R gilt
  
ei(y+y ) = eiy+iy = eiy · eiy . (2.16)

Wir definieren
eiy := cos(y) + i sin(y). (2.17)
Dies liefert eine Variante der Polardarstellung komplexer Zahlen z = |z| · eiϕ , die so genannte
Euler’sche Darstellung komplexer Zahlen. Hierbei ist ϕ := arg(z).

iR

z = eiy
sin(y)

y
cos(y) R

Abb. 57 Eulerdarstellung komplexer Zahlen


2.5. Die komplexen Zahlen 111

Die Rechnung aus dem Beweis von Satz 2.114 zeigt, dass tatsächlich für alle y, y ∈ R die
Funktionalgleichung (2.16) gilt. Mittels (2.17) erhalten wir nun die gewünschte (komplexe)
Fortsetzung:
e x+iy = e x · (cos(y) + i sin(y)).

Bemerkung 2.115. Mit der komplexen e-Funktion lassen sich die Additionstheoreme für
Kosinus und Sinus, sollte man sie einmal vergessen haben, wie folgt leicht herleiten. Einerseits
gilt nach (2.17)

ei(y+y ) = cos(y + y) + i sin(y + y). (2.18)
Andererseits liefern die Funktionalgleichung (2.16) und (2.17)
 
ei(y+y ) = eiy · eiy
= (cos(y) + i sin(y)) · (cos(y) + i sin(y))
= cos(y) cos(y) − sin(y) sin(y) + i(sin(y) cos(y) + cos(y) sin(y)). (2.19)

Nun sind zwei komplexe Zahlen genau dann gleich, wenn ihre Real- und Imaginärteile überein-
stimmen. Der Vergleich eben dieser in (2.18) und (2.19) ergibt genau die Additionstheoreme
für alle y, y ∈ R :

cos(y + y) = cos(y) cos(y) − sin(y) sin(y) und


sin(y + y) = sin(y) cos(y) + cos(y) sin(y).

Bemerkung 2.116. Im Spezialfall haben wir:

eiπ = −1.

Dies nennt man auch die Euler’sche Formel. Deren Umstellung

eiπ + 1 = 0

gilt unter manchen Mathematikern als die schönste Gleichung der Mathematik, da hier die
wichtigsten Zahlen 0, 1, i, π, e vorkommen.
Leonhard Euler gehört zu den bedeutendsten Mathematikern aller
Zeiten. Er war unglaublich produktiv und publizierte 866 Arbei-
ten, darunter grundlegende Werke über Differenzial- und Integral-
rechnung, Algebra, Zahlentheorie und vielerlei Anwendungen der
Mathematik. Viele heute gebräuchliche mathematische Schreib-

weisen gehen auf Euler zurück, z.B. das Summenzeichen , e, π
und i für die komplexe Wurzel aus −1.
Euler war Professor an der Universität von Sankt Petersburg, un-
terbrochen von 25 Jahren an der Königlich-Preußischen Akademie Abb. 58 Leonhard Euler
der Wissenschaften in Berlin. Euler und Friedrich der Große gingen (1707–1783) 4

4Künstler: Emanuel Handmann, Quelle: Kunstmuseum Basel, http://sammlungonline.


kunstmuseumbasel.ch/eMuseumPlus?module=collection&objectId=1429
112 2. Matrixrechnung

allerdings im Streit auseinander. Euler hatte die Aufgabe bekommen, die Hydraulik zu kon-
struieren, die die Springbrunnen im Schlosspark von Sanssouci mit Wasser versorgen sollte.
Dass diese Hydraulik dann nicht funktionierte, verärgerte den König außerordentlich, wollte
er mit seinen Springbrunnen doch diejenigen von Versailles übertreffen.

Am Anfang dieses Abschnitts standen wir vor dem Problem, bestimmte Gleichungen nicht lösen
zu können. Nun haben wir z.B. für z 2 + 1 = 0 die Lösungen z1 = i und z2 = −i vorzuweisen.
Die Anzahl der Lösungen des Polynoms z → z 2 + 1 entspricht also genau seinem Grad. Für
komplexe Polynome ist dies immer der Fall. Insbesondere sind in C alle Polynomgleichungen
lösbar. Diese Aussage ist formalisiert im

Satz 2.117 (Fundamentalsatz der Algebra). Sei n ∈ N. Seien a0, . . ., an ∈ C mit an  0.


Dann existieren z1, . . . , zn ∈ C, so dass für alle z ∈ C gilt:

an z n + an−1 z n−1 + . . . + a1 z + a0 = an · (z − z1 ) · . . . · (z − zn ).

Dabei ist die linke Seite ein komplexes Polynom vom Grade n ≥ 1. Die rechte Seite nennt man
Linearfaktorzerlegung des Polynoms mit Linearfaktoren (z − z j ). Insbesondere sind damit
z = z1, . . ., z = zn genau die Lösungen der Gleichung:
an z n + an−1 z n−1 + . . . + a1 z + a0 = 0.
In den komplexen Zahlen sind polynomiale Gleichungen also stets lösbar. Jedes komplexe
Polynom besitzt eine Linearfaktorzerlegung. Der Beweis des Fundamentalsatzes erfordert ein
wenig Analysis und die Polynomdivision, die wir später noch behandeln werden. Der Beweis
findet sich in Anhang B.2.
Man beachte, dass die z1, . . . , zn nicht verschieden zu sein brauchen, denn etwa für
(z − 1)2 = (z − 1)(z − 1) = z 2 − 2z + 1 = 0
erhalten wir die Lösungen z1 = z2 = 1.
Exakt ausgedrückt hat ein komplexes Polynom n-ten Grades also genau n (nicht notwendiger-
weise verschiedene) Nullstellen. Daher ist folgende Definition angebracht:

Definition 2.118. Für jede Nullstelle ζ von z → an z n + an−1 z n−1 + . . . + a1 z + a0 heißt die
Anzahl der Faktoren (z − ζ ) in der Linearfaktorzerlegung die Vielfachheit der Nullstelle ζ .

Zählt man die Anzahl der Nullstellen eines komplexen Polynoms vom Grad n inklusive aller
Vielfachheiten zusammen, so erhält man stets genau n.

Beispiel 2.119. Wir haben die Linearfaktorzerlegung


z → z 2 + 1 = (z − i)(z − (−i)) = (z − i)(z + i).
2.5. Die komplexen Zahlen 113

Also sind z1 = i und z2 = −i die beiden Nullstellen, jeweils von der Vielfachheit 1.

Beispiel 2.120. Das Polynom


z → z 2 − 2z + 1 = (z − 1)(z − 1)
besitzt die Nullstelle z1 = 1 mit der Vielfachheit 2.

Die Konstruktion der Zahlbereiche ist damit in der Tat abgeschlossen. Wir wollen nun noch das
komplexe Analogon zum reellen Wurzelziehen diskutieren und betrachten hierfür die komplexe
Gleichung
z n − 1 = 0.
Als Spezialfall haben wir etwa
z 4 − 1 = (z − 1)(z − i)(z − (−1))(z − (−i))
= (z − 1)(z − i)(z + 1)(z + i).
Löst z ∈ C die Gleichung, d.h. gilt z n = 1, so ist
1 = |1| = |z n | = |z| n
und damit |z| = 1. Alle Lösungen der Gleichung z n = 1 liegen somit auf dem Einheitskreis,
also dem Kreis um 0 mit Radius 1. Insbesondere ist damit z von der Form z = eiy für ein, noch
zu bestimmendes, y ∈ R. Die Funktionalgleichung (2.16) liefert
1 = z n = (eiy )n = einy = cos(ny) + i sin(ny),
also muss
cos(ny) = 1 sowie sin(ny) = 0
gelten. Die y ∈ R, welche diesen beiden Gleichungen genügen, erhalten wir durch Nullstellen-
betrachtung von Sinus und Kosinus. Da der Sinus genau die Vielfachen von π als Nullstellen
hat, existiert ein m ∈ Z, so dass ny = m · π. Den Wert 1 nimmt der Kosinus bei den geraden
Vielfachen von π an, −1 bei den ungeraden Vielfachen. Also ist m von der Form m = 2k für
ein k ∈ Z, so dass ny = 2k · π gilt. Wir erhalten folglich insgesamt, dass es ein k ∈ Z gibt, so
dass
2k · π
y=
n
und damit
2k π
z = ei n
gilt.
2k π
Nehmen wir umgekehrt z = ei n mit k ∈ Z her, so gilt
 2k π n 2k π
z n = ei n = ei n n = ei2kπ = cos(2kπ) + i sin(2kπ) = 1,
2k π
d.h. die z ∈ C von der Form z = ei n sind Lösungen.
Insgesamt haben wir somit alle Lösungen der Gleichung z n − 1 = 0 auf dem Einheitskreis
identifiziert. Hier zwei Beispiele für n = 3 und n = 4:
114 2. Matrixrechnung

iR iR

2π ei 4
ei 3

0π 0π
ei 3 ei 4

R ei

4 R


ei 3 6π
ei 4

Abb. 59 Komplexe Einheitswurzeln

Da die Nullstellen von z → z n − 1 den Einheitskreis stets in gleich große Segmente aufteilen,
nennt man dieses Polynom auch Kreisteilungspolynom.

Definition 2.121. Die Lösungen der Gleichung z n − 1 = 0 heißen n-te Einheitswurzeln.

Beispiel 2.122. Für n = 3 ergeben sich die dritten Einheitswurzeln:


√ √
i 0π i 2π 1 3 i 4π 1 3
e = 1,
3 ρ+ := e = − +
3 i, ρ− := e = − −
3 i.
2 2 2 2
Sehen wir, was beim Quadrieren, Konjugieren und Aufaddieren passiert:
2π 4π
ρ2+ = ei2· 3 = ei 3 = ρ−,
i2· 4π i 8π
= ei( 3 π+ 3 π) = ei2π ei 3 π = 1 · ei 3 π = ρ+,
6 2 2 2
ρ2− = e 3 =e 3

ρ̄+ = ρ−,
1 + ρ+ + ρ− = 0.

Wir wissen nun wie viele Lösungen komplexe polynomiale Gleichungen n-ten Grades besitzen,
nicht jedoch, wie diese für eine gegebene Gleichung berechnet werden können. Betrachten wir
also allgemein eine Gleichung der Form
an z n + an−1 z n−1 + . . . + a1 z + a0 = 0
mit gegebenen a j ∈ C, an  0, und gesuchtem z.

Lineare Polynome ( n = 1): Hier gilt


a1 z + a 0 = 0
a0
⇔ z=− .
a1
2.5. Die komplexen Zahlen 115

Quadratische Polynome ( n = 2): Wir bestimmen die Lösungen der Gleichung

a2 z 2 + a1 z + a0 = 0. (2.20)
a1
Dabei setzen wir natürlich wieder a2  0 voraus. Wir setzen p := 2a 2
und q := aa02 . Glei-
chung (2.20) ist äquivalent zu
a1 a0
z2 + z + = 0,
a2 a2
und damit zu
z 2 + 2pz + q = 0. (2.21)

Hierbei heißt D := p2 − q ∈ C Diskriminante von (2.21). Sei nun D ∈ C eine Wurzel von
D. Gemeint ist eine Lösung w der Gleichung

w2 = D.

Aus dem Fundamentalsatz wissen


√ √ wir, dass es in diesem Fall genau zwei Wurzeln
√ gibt. Ist also
D die eine Wurzel, so ist − D die andere. Bei reellen Wurzeln legt man D als diejenige
Wurzel
√ fest, die nicht negativ ist. Das ergibt bei komplexen Zahlen keinen Sinn mehr. Daher
ist D nur bis auf das Vorzeichen definiert. Dies macht aber im Folgenden nichts.

Satz 2.123 ( p-q-Formel, Satz von Vieta für quadratische Gleichungen). Die Lösungen
von (2.21) sind gegeben durch
√ √
z1 = −p + D und z2 = −p − D.

Ferner gilt

z1 + z2 = −2p, z 1 · z2 = q sowie (z1 − z2 )2 = 4D. (2.22)

Beweis. Wir überprüfen zunächst, dass (2.22) für unsere Wahl von z1 und z2 gilt. Es ist
√  √
z1 + z2 = −p + D + −p − D = −2p

und  √  √
z1 · z2 = −p + D −p − D = p2 − D = q
sowie    √
√ √ 2 2
(z1 − z2 )2 = −p + D − −p − D = 2 D = 4D.
Nun sehen wir, dass z1 und z2 tatsächlich die beiden Nullstellen des Polynoms sind, denn

(z − z1 )(z − z2 ) = z 2 − z1 z − z2 z + z1 z2
= z 2 − (z1 + z2 )z + z1 z2
116 2. Matrixrechnung

(2.22) 2
= z + 2pz + q.
Für die letzte Gleichheit haben wir die ersten beiden Formeln aus (2.22) benutzt. 

Beispiel 2.124. Für z 2 − 2z − 3 = 0 haben wir p = −1, q = −3 und D = p2 − q = 1 − (−3) = 4.


Damit folgt nach dem Satz
√ √
z1 = −p + D = 1 + 4 = 3 und
√ √
z2 = −p − D = 1 − 4 = −1.
 2
Beispiel 2.125. Für z 2 − (1 + i)z + i = 0 ist p = − 1+i
2 , q = i und D = − 2
1+i
− i = 1+2i−1
4 −i =
√ √
−i

2 i − i = − 2 i. Damit ist D = 2 . Wir bestimmen −i durch Lösen der Gleichung w · w = −i.
1 1 √
Hierbei ist unser geometrisches Verständnis von der Multiplikation komplexer Zahlen überaus
hilfreich. Wegen |−i| = 1 und arg(−i) = 3π 2 ist

= ei( 4 π+ 4 π) = ei 4 π · ei 4 π .
3π 3 3 3 3
−i = ei 2

Wählen wir als eine Lösung also


$ % $ % √ √ √
√ i 3π 3π 3π 2 2 2
−i = e 4 = cos + i sin =− +i = (−1 + i) ,
4 4 2 2 2
so erhalten wir schließlich
√ √
√ −i
2
(−1 + i) 1
D= √ = 2 √ = (−1 + i) .
2 2 2
Folglich sind die beiden Nullstellen gegeben durch
√ 1+i 1
z1 = −p + D = + (1 + i) = i und
2 2
√ 1+i 1
z2 = −p − D = − (−1 + i) = 1.
2 2

Bemerkung 2.126. Für p, q ∈ R ist auch D ∈ R und wir erhalten folgende Fallunterscheidung:

reelle Diskriminante Anzahl der Lösungen


D>0 zwei verschiedene reelle Lösungen z1  z2 ∈ R
D=0 eine doppelte reelle Lösung z1 = z2 ∈ R
D<0 zwei verschiedene, zueinander z̄1 = z2 ∈ C \ R
komplex konjugierte Lösungen
Tab. 12 Lösungen quadratischer Gleichungen

In Beispiel 1.6 hatten wir nur die ersten beiden Fälle behandelt. Den dritten konnten wir
mangels komplexer Zahlen noch nicht besprechen.
2.5. Die komplexen Zahlen 117

Kubische Polynome ( n = 3): Nun wollen wir kubische Gleichungen

a3 z 3 + a 2 z 2 + a 1 z + a 0 = 0 (2.23)

lösen, wobei natürlich a3  0 vorausgesetzt ist. Wir substituieren


a2
w := z + .
3a3

Damit ist (2.23) äquivalent zu


$ %3 $ %2 $ %
a2 a2 a2
0 = a3 w− + a2 w− + a1 w − + a0
3a3 3a3 3a3
 $ %2 $ %3 
a2 a2 a2
= a3 w − 3 · w ·
3 2
+3·w· −
3a3 3a3 3a3
 $ %2  $ %
a2 a2 a2
+ a2 w 2 − 2 · w · + + a1 w − + a0
3a3 3a3 3a3
 
2 3
a 2 a a
= a3 w3 − w2 + 22 w − 23
a3 3a3 3a3
  $ %
a 2
2a2 a2
+ a2 w 2 − w + 22 + a1 w − + a0
3a3 3a3 3a3
 
2 a 3
a
= a3 w 3 − a 2 w 2 + 2 w − 2 2
3a3 27a
  $3 %
2 a 3
2a a1 a2
+ a2 w2 − 2 w + 22 + a1 w − + a0
3a3 9a3 3a3
 
a 2
2 2a 2
2
a3 a3 a1 a2
= a3 w 3 + − + a1 w − 2 2 + 22 − + a0
3a3 3a3 27a3 9a3 3a3
   
a22 2a23 a1 a2
= a3 w + −
3
+ a1 w + − + a0 .
3a3 27a32 3a3

Division durch a3 liefert


   
a22 a1 2a23 a1 a2 a0
w + − 2+
3
w+ − + =0
3a3 a3 27a33 3a32 a3
()*+ ()*+
=:3p =:2q

und damit
w3 + 3pw + 2q = 0. (2.24)
118 2. Matrixrechnung

Wenn wir (2.24) lösen können, dann liefert uns die Rücksubstitution
a2
z=w−
3a3

die Lösungen der ursprünglichen Gleichung (2.23). Die Substitutionen haben bewirkt, dass
der quadratische Term aus der Gleichung verschwunden ist. Im kubischen Fall ist die Dis-
kriminante von (2.24) nun definiert durch D := p3 + q 2 . Die Formeln für die allgemeinen
Lösungen kubischer Polynomialgleichungen heißen Cardanische Gleichungen. Wir fassen sie
in folgendem

 √
−q ± D so gewählt, dass
3
Satz 2.127 (Cardano, Vieta). Seien die dritten Wurzeln u± :=
u+ u− = −p. Dann sind

w1 = u+ + u−,
w2 = ρ+ u+ + ρ− u−,
w3 = ρ− u+ + ρ+ u−

die Lösungen von (2.24). Dabei sind ρ+ und ρ− die dritten Einheitswurzeln wie in Bei-
spiel 2.122. Ferner gilt

w1 + w2 + w3 = 0, (2.25)
w1 w2 + w2 w3 + w1 w3 = 3p, (2.26)
w1 w2 w3 = −2q, (2.27)
(w1 − w2 )2 (w2 − w3 )2 (w1 − w3 )2 = −108D. (2.28)

Wie wir die Wurzel von D in der Definition von u± wählen,


√ spielt keine Rolle, da sowieso beide
Wurzeln zu nehmen sind. Ersetzt man eine Wahl von D durch ihr Negatives, dann vertauschen
sich lediglich die Rollen von u+ und u− . Wichtig ist aber, dass man die dritten Wurzeln in der
Definition von u+ und u− richtig wählt. Wählt man zunächst irgendwelche dritten Wurzeln von
√ √  √
−q ± D, dann gilt auf jeden Fall (u+ u− ) = −q + D −q − D = q 2 − D = −p3 = (−p)3 .
3

Also kann man eine dritte Einheitswurzel ρ finden, so dass u+ u− ρ = −p. Ersetzt man nun u−
durch u− ρ, dann sind die dritten Wurzeln richtig gewählt.

Beweis von Satz 2.127. Unter Benutzung einer Formel aus Beispiel 2.122 rechnen wir (2.25)
nach

w1 + w2 + w3 = u+ + u− + ρ+ u+ + ρ− u− + ρ− u+ + ρ+ u−
= (1 + ρ+ + ρ− )u+ + (1 + ρ+ + ρ− )u−
= 0.
2.5. Die komplexen Zahlen 119

Ähnlich folgt (2.26)

w1 w2 + w2 w3 + w1 w3 = w1 (w2 + w3 ) + w2 w3
= (ρ+ + ρ− )(u+ + u− )2 + u+2 + (ρ2+ + ρ2− )u+ u− + u−2
()*+ ()*+
=−1 =ρ− +ρ+ =−1

= −(u+2
+ 2u+ u− + u−2 ) + u+2 + −u+ u− + u−2
= −3u+ u−
= 3p,

sowie (2.27)

w1 w2 w3 = (u+ + u− )(ρ+ u+ + ρ− u− )(ρ− u+ + ρ+ u− )


= ρ+ ρ− u+3 + (ρ2+ + ρ2− + ρ+ ρ− )u+2 u− + (ρ2+ + ρ2− + ρ+ ρ− )u+2 u− + ρ− ρ+ u+3
= u+3 + u−3
√ √
= −q + D + (−q − D)
= −2q.

Damit können wir nachprüfen, dass w1 , w2 und w3 tatsächlich die drei Nullstellen des Polynoms
sind:

(w − w1 )(w − w2 )(w − w3 )
= w3 − (w1 + w2 + w3 ) w2 + (w1 w2 + w1 w3 + w2 w3 ) w − w1 w2 w3
= w3 + 3pw + 2q.

Für die letzte Gleichung haben wir die Formeln (2.25), (2.26) und (2.27) eingesetzt. Die noch
fehlende Formel (2.28) rechnet man auf ähnliche Weise nach. 

Beispiel 2.128. Wir suchen die Lösungen der kubischen Gleichung mit reellen Koeffizienten:

z 3 − 6z 2 + 21z − 52 = 0. (2.29)

Hierbei ist a0 = −52, a1 = 21, a2 = −6 und a3 = 1. Zunächst eliminieren wir den quadratischen
Term mittels der Substitution
a2
w=z+ = z − 2.
3a3
Dann ist (2.29) äquivalent zu
w3 + 3pw + 2q = 0, (2.30)
wobei
a22 a1
3p = − + = 9, also p = 3,
3a32 a3
120 2. Matrixrechnung

und
2a23 a1 a2 a0
2q = − + = −26, also q = −13
27a33 3a32 a3

ist. Für die Diskriminante erhalten wir

D = p3 + q 2 = 196.

Nun können die Cardanischen Lösungsformeln angewendet werden. Es ist


 
3 √ 3 √
u± = −q ± D = 13 ± 196

und damit
√3 √3
u+ = 27 = 3 und u− = −1 = −1.

Man beachte, dass hierbei die Forderung

u+ · u− = 3 · (−1) = −3 = −p

erfüllt ist. Insbesondere bei kubischen Gleichungen mit komplexen Koeffizienten darf man
nicht vergessen zu überprüfen, dass man die
 „richtigen“ dritten Wurzeln
 gewählt hat.
√ √
Mit den dritten Einheitswurzeln ρ+ = − 2 1 − 3i und ρ− = − 2 1 + 3i können wir hier
1 1

direkt die Lösungen von (2.30) angeben:

w1 = u+ + u− = 3 − 1 = 2,
3 √ 1 √ √
w2 = ρ+ u+ + ρ− u− = − 1 − 3i + 1 + 3i = −1 + 2 3i,
2 2
3 √ 1 √ √
w3 = ρ− u+ + ρ+ u− = − 1 + 3i + 1 − 3i = −1 − 2 3i.
2 2

Die Rücksubstitution
a2
zi = wi − = wi + 2
3a3
liefert schließlich die Lösungen von (2.29) zu
√ √
z1 = 4 sowie z2 = 1 + 2 3i und z3 = 1 − 2 3i.

Hierbei sind z2 und z3 zueinander komplex konjugiert. Die Lösungsmenge ist symmetrisch,
da z3 aus z2 durch Konjugation, d.h. durch Spiegelung an der reellen Achse hervorgeht.
Polynomiale Gleichungen mit reellen Koeffizienten ai ∈ R für alle i ∈ {0, . . . , n} , n ≥ 1,
besitzen stets symmetrische Lösungsmengen.
2.6. Aufgaben 121

Auch für Polynome vom Grad 4 kann man vergleichbare Lösungs-


formeln herleiten. Für Grad 5 und größer hatte man lange nach ähn-
lichen Formeln gesucht, bis der norwegische Mathematiker Niels
Henrik Abel bewies, dass es solche geschlossenen Formeln dafür
nicht geben kann. Abel starb 1829 mit 26 Jahren an Lungentuberko-
lose. Aus seiner Schulzeit soll es einen Klassenbucheintrag seines
Lehrers Holmboe geben: „... dass er der größte Mathematiker der
Welt werden kann, wenn er lange genug lebt“. Anlässlich des 200.
Geburtstages von Abel richtete die norwegische Regierung im Jahr Abb. 60 Niels Henrik Abel
2002 eine Stiftung zur Verleihung eines Preises für außergewöhnli- (1802–1829) 5
che wissenschaftliche Arbeiten auf dem Gebiet der Mathematik ein.
Dieser Abelpreis wird seit 2003 jährlich durch die Norwegische Akademie der Wissenschaften
verliehen und ist mit 6 Millionen norwegischen Kronen (derzeit etwa 630.000 Euro)6 dotiert.
Er entspricht dem Nobelpreis in anderen wissenschaftlichen Disziplinen.

2.6. Aufgaben
2.1. Entscheiden Sie, ob die folgenden Mengen M Untervektorräume des Rn sind. Geben Sie
einen Beweis an, falls dies der Fall ist, und andernfalls ein Beispiel für eine Eigenschaft eines
Untervektorraums von Rn , die verletzt ist. Skizzieren Sie diese Mengen.

a) M = {(x, y) ∈ R2 | (x − y)(x + y) = 0} ⊂ R2 .

b) M = {(x, y, z) ∈ R3 | x 2 − z = 0} ∩ {(x, y, z) ∈ R3 | z ≤ 0}

c) M = {(x1, . . . , xn ) ∈ Rn | nk=1 (−1)k xk = 0} (Skizze für n = 3)

d) M = {(x1, . . . , xn ) ∈ Rn | nk=1 xk3 = 0} (Skizze für n = 2)

2.2. Sei V ⊂ Rn ein Untervektorraum und seien v1, . . ., vm ∈ V. Zeigen Sie durch vollständige
Induktion nach m, dass
L(v1, . . ., vm ) ⊂ V .

2.3. Zeigen Sie die verbleibenden Rechenregeln für Matrizen aus Satz 2.12.

a) Für alle λ, μ ∈ R und A ∈ Mat(m × n, R) gilt:

(λ + μ) · A = λ · A + μ · A.

b) Für alle λ, μ ∈ R und A ∈ Mat(m × n, R) sowie B ∈ Mat(n × k, R) gilt:

(λ · μ) · (A · B) = (λ · A) · (μ · B).
5Künstler: Johan Görbitz, Quelle: Institut für Mathematik der Universität Oslo, http://de.wikipedia.org/
wiki/Niels_Henrik_Abel
6Stand vom August 2018
122 2. Matrixrechnung

c) Für alle A ∈ Mat(m × n, R) und B, C ∈ Mat(n × k, R) gilt:

A · (B + C) = A · B + A · C.

2.4. a) Bestimmen Sie die Lösungsmenge des folgenden linearen Gleichungssystems:

x −2y +5z = 0
−3x +6y −4z = 0
−y +3z = 0

b) Bestimmen Sie die Lösungsmenge des folgenden linearen Gleichungssystems:

2x −3y −z = −1
5x −2y +14z = 3
−x −4z = −1

c) Bestimmen Sie die Lösungsmenge des folgenden linearen Gleichungssystems in den Va-
riablen x, y, z, w in Abhängigkeit von den Parametern s, t ∈ R (d.h. die Lösungsmenge ist
für jede Kombination von Parametern s, t ∈ R anzugeben):

x −2y −w = t−2
2x +4z +2w = 2t + 4
3x +y +2z +4w = 3 − 2t
2y −z +2w = s 2 − 3t

2.5. a) Gegeben seien die folgenden 4 Vektoren im R4 :


−2
−2
1
4
2  −3  2  0 
   
w1 = , w2 = , w3 = , w4 = 
0  5  −3  −6 
   
−4  6  −4  1 
und sei V := L(w1, . . ., w4 ). Bestimmen Sie eine Basis von V. Welche Dimension hat V?

b) Im R3 seien die folgenden 3 Vektoren gegeben:

−1 2 3




a1 = 1 ,


a2 = 3  ,
a3 = −3  .
6  −3  4 

Zeigen Sie zunächst, dass a1, a2, a3 eine Basis von R3 bilden.
2.6. Aufgaben 123

c) Wir definieren nun eine Matrix A, indem wir die Vektoren a1, a2, a3 nebeneinander schrei-
ben, und geben eine weitere Matrix B vor:

−1 2 3 1 −1 1



A := 1 3 −3  , B := 0 0 1  .

6 −3 4  1 1 0 
Finden Sie eine Matrix C ∈ Mat(3 × 3, R), so dass gilt :

A = B · C.

Hinweis: Sie können C dadurch erhalten, dass Sie die Gleichung A = B · C als LGS mit
den Einträgen von C als Unbekannte auffassen.
d) Ist die Matrix C eindeutig bestimmt? Begründen Sie Ihre Antwort kurz! Sie dürfen dabei
ohne Beweis verwenden, dass die Spalten von B eine Basis von R3 bilden.

2.6. Seien v1, ..., vk−1 ∈ Rn linear unabhängig. Zeigen Sie:


Es gilt vk  L(v1, ..., vk−1 ) genau dann, wenn v1, ..., vk ebenfalls linear unabhängig sind.

2.7. Sei A ∈ Mat(2 × 2, R) eine Matrix. Zeigen Sie:


 
a 0
∀ B ∈ Mat(2 × 2, R) : A · B = B · A ⇔ ∃a ∈ R : A = .
0 a

2.8. a) Bestimmen Sie mit Hilfe des Rangkriteriums, ob das Gleichungssystem

A· x = b

Lösungen x ∈ R5 hat, wobei


0 4 −2 0 2
2
2 1 3 −1 2  −2 
 
 
A = 3 0 2 5 −1  und b = 6 .
 
−1 2 1 −1 4  −3 
 
1 2 1 −3 2  −3 
Nutzen Sie dabei den Gauß-Algorithmus zur Bestimmung des Rangs einer Matrix.
b) Bestimmen Sie alle b = (b1, b2, b3 ) ∈ R3 , so dass das Gleichungssystem

2 −4 8 x b


1
1
−1 2 −4  · x2  = b2 
  
1 −2 4  x 3  b 3 
lösbar ist. Geben Sie für diese b die Lösungsmenge Lös(A, b) in Abhängigkeit von b an.
124 2. Matrixrechnung

2.9. Beweisen Sie die folgenden Aussagen, falls sie wahr sind, bzw. geben Sie ein Gegenbei-
spiel, falls sie falsch sind:

a) Für alle Untervektorräume V ⊂ Rn und W ⊂ Rn ist auch V ∩ W ein Untervektorraum von


Rn .

b) Für alle Untervektorräume V ⊂ Rn und W ⊂ Rn ist auch V ∪ W ein Untervektorraum von


Rn .

c) Für alle Untervektorräume V ⊂ Rn und W ⊂ Rn ist auch V \ W ein Untervektorraum von


Rn .

2.10. Sei v := (1, 2) ∈ R2 . Wir betrachten die Gerade G := G0,v ⊂ R2 und definieren eine
Abbildung      
x − 35 54 x
SG : R → R ,
2 2
→ 4 3 · ,
y 5 5 y

die die Ebene R2 in sich abbildet. Geometrisch ist SG die Spiegelung an der Geraden G. Im
folgenden sollen einige Eigenschaften der Spiegelung verfiziert werden:

a) Berechnen Sie SG (p) für p1 = (2, 4) und p2 = (−1, 3) . Machen Sie eine Skizze von G,
den Punkten p1, p2 sowie deren Bildern unter SG .

b) Zeigen Sie, dass SG das Skalarprodukt erhält, d.h. zeigen Sie, dass für alle x, y ∈ R2 gilt:

SG (x), SG (y) = x, y.

c) Zeigen Sie, dass für alle p ∈ G gilt : SG (p) = p.

d) Zeigen Sie, dass für alle Vektoren v ∈ R2 , die auf G senkrecht stehen, gilt: SG (v) = −v.

2.11. Beweisen Sie Bemerkung 2.87:


Ist (a, b, c, d) ein nicht entartetes Parallelogramm, so sind die Geraden
G a,b−a, G c,d−c, G a,c−a, G b,d−b paarweise verschieden und die Vektoren b − a, c − a sind
linear unabhängig.
√ √
2.12. a) Sei w := 1 + 3i und z := 12 ( 3)3 − 32 i. Geben Sie w und z in Polardarstellung
an. Berechnen Sie w + z, w − z, w1 , z, wz sowie wz und zeichnen Sie ein Diagramm der
Gauß’schen Zahlenebene mit allen diesen Zahlen.

b) Skizzieren Sie die folgenden beiden Teilmengen von C:

M1 = {z ∈ C | Im(z)/Re(z) ≤ 1},
M2 = {z ∈ C | 1 ≤ |z| ≤ 2 und |Re(z)/Im(z)| ≤ 1}.
2.6. Aufgaben 125

2.13. a) Zeigen Sie, dass für alle komplexen Zahlen z  0 gilt:


$ % $ %
1 1 1 1
Re = 2 Re(z) und Im = − 2 Im(z).
z |z| z |z|

b) Sei a ∈ C \ {0}. Zeigen Sie, dass die Gleichung z 2 = a zwei Lösungen z hat. Eine davon ist
gegeben durch
 
|a| + Re(a) |a| − Re(a)
Re(z) = , Im(z) = .
2 2
Dabei ist 
+1, falls Im(a) ≥ 0,
=
−1, falls Im(a) < 0.
Die andere Lösung ist das Negative hiervon.

2.14. a) Zeigen Sie: Für alle z, w ∈ C = R2 gilt z, w = Re(zw). Folgern Sie daraus, dass z
und w genau dann orthogonal aufeinander stehen, wenn wz imaginär ist.
b) Seien a, b ∈ C \ {0}. Zeigen Sie, dass die Abbildungen R, S : C → C, definiert durch
R(z) := az und S(z) := bz, die Winkel erhalten, d.h. es gilt für alle z, w ∈ C \ {0}:
S(z),S(w) z,w
S(z)·S(w) = z·w (und analog für R).

c) Sei nun T : C → C eine Abbildung mit den folgenden Eigenschaften:


(i) T erhält die Winkel;
(ii) Für alle z, w ∈ C und λ ∈ R gilt: T(z + w) = T(z) + T(w) und T(λz) = λT(z).
Zeigen Sie: Es gibt ein a ∈ C so dass für alle z ∈ C gilt: T(z) = az oder T(z) = az.

Anleitung:
1. Überlegen Sie sich zunächst, dass nur a = T(1) in Frage kommt.
T (1)
2. Folgern Sie mit a): T (i) = i μ für ein μ ∈ R.
3. Nutzen Sie (ii) um zu zeigen, dass T die angegebene Form hat.

2.15. Keine Panik, die Aufgabe ist nicht halb so lang wie sie aussieht und sie erfordert auch
keine Kenntnisse der Elektrotechnik!
Zunächst zum Hintergrund: In der Elektrotechnik werden komplexe Zahlen zur Beschreibung
frequenzabhängiger Schaltungen verwendet. Eine Wechselspannung Uω : R → R, Uω (t) :=
U0 · cos(ωt), wird an eine Schaltung angelegt. Dabei heißen ω ∈ R+ die Frequenz und U0 ∈ R+
die Amplitude. Durch die Schaltung fließt dann ein Strom der Stärke Iω : R → R, der sich am
besten mit komplexen Zahlen beschreiben lässt. Dazu setzt man UωC (t) := U0 · eiωt . Aus den
Gesetzen der Physik folgt nun, dass sich die Stromstärke durch Iω (t) = Re(IωC (t)) berechnen
lässt, wobei die Größen UωC und IωC in der folgenden Beziehung stehen:
UωC (t) = Zω · IωC (t).
126 2. Matrixrechnung

Die komplexe Zahl Zω ∈ C heißt komplexe Impedanz der Schaltung. Sie hängt von ω, aber
nicht von t ab. Die Impedanzen von Widerständen, Kondensatoren und Induktivitäten (von
links nach rechts dargestellt) sind aus der Literatur bekannt:

Z R,ω = R ZC,ω = 1
iωC
Z L,ω = iωL

Abb. 61 Widerstand, Kondensator, Induktivität

Dabei sind R, L, C ∈ R+ Konstanten, die charakteristisch für die Bauteile sind.

a) Berechnen Sie Iω (t) für Zω = Z R,ω, Zω = ZC,ω und Zω = Z L,ω .


b) Aus einfachen Elementen lassen sich komplexere Schaltungen bauen. Wir betrachten die
Reihen- bzw. Parallelschaltung von zwei beliebigen Bauelemente mit Impedanzen Z1, Z2 ,
wobei die Impedanz Zges der Kombination sich wie unter der Skizze angegeben aus den
Einzelimpedanzen ergibt:

Z1
Z1 Z2
Z1

Zges = Z1 + Z2 −1 = Z −1 + Z −1
Zges 1 2

Abb. 62 Reihen- und Parallelschaltung

Berechnen Sie die Impedanzen der folgenden 3 Bauteilkombinationen:

C R L
(1)
R
(3)
C L R C
(2)

Abb. 63 Bauteilkombinationen

c) Die Größe |IωC (t)| = | ZUω0 | hängt nur von ω und nicht von t ab. Sie beschreibt, wie gut
die Schaltung eine Signal der Frequenz ω „durchlässt“. Berechnen Sie |IωC | für die 3
Schaltungen aus Teil b) und skizzieren Sie sie in Abhängigkeit von ω. Für die Skizzen
können Sie U0 = R = 1, L = C = 3 sowie 0 < ω < 2 verwenden.
3. Algebraische Grundbegriffe

Viele Menschen sind unglücklich,


weil sie nicht abstrahieren
können.

(Immanuel Kant
Anthropologie in pragmatischer
Hinsicht)

Wir haben bislang hauptsächlich konkret im Rn , oft speziell im R2 gerechnet. Rechnen bedeu-
tete dabei z.B. das Addieren von reellen oder komplexen Zahlen oder auch von Vektoren oder
Matrizen sowie das Multiplizieren von Zahlen oder Matrizen. Dabei haben wir festgestellt,
dass manche der von den reellen Zahlen gewohnten Rechenregeln sich übertragen, wie z.B.
das Assoziativgesetz für Addition und Multiplikation, andere jedoch gelegentlich nicht; so gilt
z.B. das Kommutativgesetz für die Matrixmultiplikation nicht. Aus den gültigen elementaren
Rechenregeln lassen sich weitere herleiten. Damit wir nun nicht in jedem Fall wieder erneut
überlegen müssen, welche Regeln denn nun gelten und welche nicht, abstrahieren wir das
Rechnen. Dies dient der Übersicht und der Arbeitsersparnis. Wir führen abstrakte Rechenope-
rationen ein, für die wir möglichst wenige Rechenregeln voraussetzen. Dann untersuchen wir,
welche anderen Regeln daraus folgen.

3.1. Abstraktes Rechnen: Gruppen und Halbgruppen


Wir beginnen mit dem wohl allgemeinsten Konzept des Rechnens, das in der Definition der
Halbgruppe beschrieben wird.

Definition 3.1. Eine Halbgruppe ist ein Paar (G, ∗), wobei G eine Menge ist und ∗ eine
Abbildung

∗ : G × G → G,
(g1, g2 ) → g1 ∗ g2,

so dass das Assoziativgesetz gilt:

∀g1, g2, g3 ∈ G : g1 ∗ (g2 ∗ g3 ) = (g1 ∗ g2 ) ∗ g3 .

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_3
128 3. Algebraische Grundbegriffe

Die Elemente von G sind die Objekte mit denen gerechnet wird (Zahlen, Vektoren, . . . )
und die Abbildung ∗ ist die Rechenoperation. Daher schreiben wir auch g1 ∗ g2 statt wie
sonst bei Abbildungen eher gewohnt ∗(g1, g2 ). Eine Halbgruppe zu haben, heißt also eine
Rechenoperation zu haben, für die das Assoziativgesetz gilt.

Beispiel 3.2. Wir kennen schon eine ganze Reihe von Beispielen:

G ∗
N +
N0 +
N ·
N0 ·
Z ·
Mat(n × n, R) · (Matrixmultiplikation)
Abb(X, X) ◦ (Verkettung)

Tab. 13 Beispiele für Halbgruppen

Hierbei ist X eine beliebige Menge.

Tatsächlich kennen wir bereits sehr viel mehr Halbgruppen, aber zu diesen anderen Beispielen
kommen wir gleich, da sie besser als Halbgruppen sind.

Definition 3.3. Sei (G, ∗) eine Halbgruppe. Ein Element e ∈ G heißt neutrales Element,
falls für alle g ∈ G gilt
g ∗ e = e ∗ g = g.

Nicht alle Halbgruppen besitzen ein neutrales Element.


3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 129

Beispiel 3.4. Alle bis auf eine der Halbgruppen aus Beispiel 3.2 besitzen ein neutrales Element.

G ∗ e
N + nicht vorhanden
N0 + 0
N · 1
N0 · 1
Z · 1
Mat(n × n, R) · 1n
Abb(X, X) ◦ id X

Tab. 14 Beispiele für neutrales Element in Halbgruppen

Hierbei ist

1

1n = . . . 

1

die n-dimensionale Einheitsmatrix.

Kann eine Halbgruppe auch mehr als ein neutrales Element haben? Die Antwort lautet „nein“!
Wir brauchen in den obigen Beispielen also gar nicht nach weiteren neutralen Elementen zu
suchen.

Proposition 3.5. Sei (G, ∗) eine Halbgruppe und seien e, e ∈ G neutrale Elemente. Dann
gilt
e = e .

Beweis. Wir benutzen, dass e und e neutrale Elemente sind, und erhalten

e = e ∗ e = e . 

Oft möchte man eine Rechenoperation rückgängig machen, also umkehren. Bei der Addition
heißt das, man möchte subtrahieren, und bei der Multiplikation bedeutet es zu dividieren. Dies
führt auf das Konzept des inversen Elements zu einem gegebenen Element einer Halbgruppe.
Dazu müssen wir voraussetzen, dass die Halbgruppe ein neutrales Element besitzt.
130 3. Algebraische Grundbegriffe

Definition 3.6. Sei (G, ∗) eine Halbgruppe mit neutralem Element e und sei g ∈ G. Ein
Element h ∈ G heißt inverses Element zu g, falls gilt:

h ∗ g = g ∗ h = e.

Besitzt g ein inverses Element, so heißt es invertierbar.

Im Gegensatz zum neutralen Element, das durch die Halbgruppe eindeutig bestimmt ist, wenn
es denn existiert, hängt das inverse Element vom Element g ab. Dann ist es allerdings eindeutig:

Proposition 3.7. Sei (G, ∗) eine Halbgruppe mit neutralem Element e. Dann hat jedes g ∈ G
höchstens ein inverses Element.

Beweis. Sei g ∈ G invertierbar und seien h, h ∈ G inverse Elemente zu g. Dann gilt:

h = h ∗ e = h ∗ (g ∗ h) = (h ∗ g) ∗ h = e ∗ h = h.

Also ist h = h. 

Da das inverse Element eines invertierbaren Elements g ∈ G eindeutig ist, schreiben wir oft
g −1 dafür, jedenfalls dann, wenn man die Rechenoperation ∗ multiplikativ schreibt, also etwa
· oder ◦. Schreibt man die Rechenoperation ∗ hingegen additiv, d.h. +, dann schreibt man für
das inverse Element −g. Wollen wir das nicht genauer spezifizieren, z.B. weil wir Aussagen
über allgemeine Halbgruppen machen, dann benutzen wir die multiplikative Variante g −1 .

Notation 3.8. Ist (G, ∗) eine Halbgruppe mit neutralem Element e, dann bezeichnen wir die
Menge der invertierbaren Elemente von G mit G× .

Beispiel 3.9. Hier einige Beispiele für die Menge der invertierbaren Elemente.

G ∗ e G×
N0 + 0 {0}
N · 1 {1}
N0 · 1 {1}
Z · 1 {−1, 1}
Abb(X, X) ◦ id X { f ∈ Abb(X, X) | f ist bijektiv}
Tab. 15 Beispiele für invertierbare Elemente in Halbgruppen
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 131

Proposition 3.10. Sei (G, ∗) eine Halbgruppe mit neutralem Element e. Dann gilt:

(i) Das neutrale Element ist invertierbar und sein eigenes Inverses, e ∈ G× und e−1 = e.

(ii) Sind g1, g2 ∈ G× , so ist auch g1 ∗ g2 ∈ G× und (g1 ∗ g2 )−1 = g2−1 ∗ g1−1 .

(iii) Ist g ∈ G× , so ist auch g −1 ∈ G× und es gilt (g −1 )−1 = g.

Beweis. Aussage (i) gilt, weil


e ∗ e = e.
Zu (ii):
Wir überprüfen, dass g2−1 ∗ g1−1 inverses Element zu g1 ∗ g2 ist. Zum einen gilt

(g1 ∗ g2 ) ∗ (g2−1 ∗ g1−1 ) = g1 ∗ (g2 ∗ (g2−1 ∗ g1−1 ))


= g1 ∗ ((g2 ∗ g2−1 ) ∗ g1−1 )
= g1 ∗ (e ∗ g1−1 )
= g1 ∗ g1−1
=e

und ähnlich sieht man auch, dass

(g2−1 ∗ g1−1 ) ∗ (g1 ∗ g2 ) = e.

Zu (iii):
Da g −1 zu g invers ist, gilt
g ∗ g −1 = g −1 ∗ g = e.
Also ist g zu g −1 invers, d.h. g = (g −1 )−1 . 

Man beachte, dass sich in der Formel für das inverse Element eines Produkts in (ii) die
Reihenfolge der Faktoren umkehrt.

Definition 3.11. Eine Gruppe ist eine Halbgruppe (G, ∗) mit neutralem Element, in der
jedes Element invertierbar ist, d.h. für die G = G× gilt.

Die Halbgruppen aus Beispiel 3.9 sind allesamt keine Gruppen, da G× stets eine echte Teilmen-
ge von G ist. Allerdings gibt es eine Ausnahme. Hat nämlich die Menge X nur ein Element, so
ist Abb(X, X) = {id X }. In diesem Fall besteht die Halbgruppe nur aus dem neutralen Element
und ist daher eine Gruppe, wenn auch keine sonderlich interessante. Eine Gruppe, die nur aus
dem neutralen Element besteht, nennen wir triviale Gruppe. Wir kennen aber durchaus auch
schon interessante Gruppen:
132 3. Algebraische Grundbegriffe

Beispiel 3.12. Bei den folgenden Strukturen handelt es sich um Gruppen:

Gruppe (G, ∗) neutrales Element e inverses Element zu g


(Z, +) 0 −g
(Q, +) 0 −g
(Q \ {0} , ·) 1 1
g
(Q+, ·) 1 1
g
(C, +) 0 −g
(C \ {0} , ·) 1 1
g
(R, +) 0 −g
(R \ {0} , ·) 1 1
g
Tab. 16 Beispiele für Gruppen

Bemerkung 3.13. Sei (G, ∗) eine Halbgruppe mit neutralem Element. Dann besagt Proposi-
tion 3.10 (ii), dass die Rechenoperation ∗ zu einer Abbildung G× × G× → G× eingeschränkt
werden kann, die wir wieder mit ∗ bezeichnen. Da das Assoziativgesetz natürlich gültig bleibt,
ist (G×, ∗) wieder eine Halbgruppe. Wegen Proposition 3.10 (i) enthält sie das neutrale Element
und wegen Proposition 3.10 (iii) ist jedes Element von G× auch in G× invertierbar. Also ist
(G×, ∗) stets eine Gruppe.

Beispiel 3.14. Die Gruppe der (bzgl. Matrixmultiplikation) invertierbaren reellen n × n-


Matrizen
GL(n, R) := Mat(n × n, R)×
nennen wir die allgemeine lineare Gruppe.

Beispiel 3.15. Sei X eine Menge. Dann bildet die Menge der bijektiven Abbildungen von X
nach X eine Gruppe bzgl. der Verkettung. Das neutrale Element ist id X . Im Fall X = Xn :=
{1, . . ., n} schreiben wir
Sn := { f : Xn → Xn | f ist bijektiv} = Abb(Xn, Xn )×
und nennen (Sn, ◦) die symmetrische Gruppe vom Grad n. Elemente von Sn , also bijektive
Abbildungen {1, . . ., n} → {1, . . ., n}, heißen Permutationen.
Für n = 1 ist S1 = {id X1 }, also die triviale Gruppe. Im Fall n = 2 gibt es genau zwei
Permutationen, die identische Abbildung und die Abbildung, die 1 und 2 vertauscht. Es gibt
zwei weitere Abbildungen {1, 2} → {1, 2}, nämlich die, die beide Elemente auf 1 bzw. beide
Elemente auf 2 abbildet, aber die sind nicht bijektiv. Daher hat S2 nur zwei Elemente.

Die Rechenoperation einer Gruppe (oder auch Halbgruppe) mit nur endlich vielen Elementen
kann man in der Verknüpfungstabelle festlegen. Dabei listet man alle Gruppenelemente,
meist beginnend mit dem neutralen Element, auf und trägt die Produkte in der Tabelle ein. Für
G = {g1, g2, . . ., gm } ergibt sich
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 133

G g1 ··· gm
g1 g1 ∗ g1 ··· g1 ∗ gm
.. .. .. ..
. . . .
gm gm ∗ g1 ··· gm ∗ gm

Tab. 17 Verknüpfungstabelle

Bezeichnen wir das nicht neutrale Element von S2 , also die Abbildung, die 1 und 2 vertauscht,
mit τ, so ergibt sich für S2 die Verknüpfungstabelle

S2 id τ
id id τ
τ τ id

Tab. 18 Verknüpfungstabelle von S2

Eine gebräuchliche Art, Permutationen vom Grad n anzugeben, besteht darin, die Elemente
von Xn in einer Zeile aufzulisten und die Bilder dieser Elemente unter der Permutation in der
Zeile darunter. So wäre z.B.
, -
1 2 3
id X3 =
1 2 3

während die Permutation τ1 , die 1 auf sich selbst abbildet und 2 und 3 vertauscht, gegeben ist
durch
, -
1 2 3
τ1 = .
1 3 2

Insgesamt hat S3 folgende sechs Elemente:

, - , - , -
1 2 3 1 2 3 1 2 3
id X3 = , σ1 := , σ2 := ,
1 2 3 2 3 1 3 1 2
, - , - , -
1 2 3 1 2 3 1 2 3
τ1 := , τ2 := , τ3 := .
1 3 2 3 2 1 2 1 3

Dann sieht man leicht, dass z.B. σ1 ◦ σ1 = σ2 und τ1 ◦ τ2 = σ1 . Insgesamt ergibt sich folgende
Verknüpfungstabelle:
134 3. Algebraische Grundbegriffe

S3 id σ1 σ2 τ1 τ2 τ3
id id σ1 σ2 τ1 τ2 τ3
σ1 σ1 σ2 id τ3 τ1 τ2
σ2 σ2 id σ1 τ2 τ3 τ1
τ1 τ1 τ2 τ3 id σ1 σ2
τ2 τ2 τ3 τ1 σ2 id σ1
τ3 τ3 τ1 τ2 σ1 σ2 id
Tab. 19 Verknüpfungstabelle von S3

Definition 3.16. Sei (G, ∗) eine Gruppe und sei H ⊂ G eine Teilmenge mit folgenden
Eigenschaften:

1. Die Teilmenge H enthält das neutrale Element.

2. Sind h1, h2 ∈ H, so ist auch h1 ∗ h2 ∈ H.

3. Ist h ∈ H, so ist auch h−1 ∈ H.

Dann heißt H Untergruppe von G.

Bemerkung 3.17. Ist H eine Untergruppe der Gruppe (G, ∗), dann kann ∗ zu einer Abbildung
H × H → H eingeschränkt werden, die wir wieder ∗ nennen. Dadurch wird (H, ∗) selbst zu
einer Gruppe.

Beispiel 3.18. Ist (G, ∗) = (S3, ◦), dann bilden z.B. H = {id, σ1, σ2 } und H  = {id, τ1 } Unter-
gruppen. Dagegen ist H  = {τ1 } keine Untergruppe, da id  H  und H̃ = {id, σ1 } ist keine
Untergruppe, da σ1 ◦ σ1 = σ2  H̃.

Beispiel 3.19. Ist (G, ∗) eine Gruppe mit neutralem Element e, dann ist H = G eine Unter-
gruppe und auch H = {e} ist eine Untergruppe. Dies sind die beiden Extremfälle, die größte
und die kleinste Untergruppe von G.

Beispiel 3.20. Sei n ∈ N und Ωn := {z ∈ C | z n = 1} die Menge der n-ten Einheitswurzeln.


Dann ist Ωn eine Untergruppe von (C \ {0}, ·). Zunächst mal ist das neutrale Element 1 ∈ Ωn .
Sind z, w ∈ Ωn , so ist auch z · w ∈ Ωn , denn (z · w)n = z n · wn = 1 · 1 = 1. Ist schließlich z ∈ Ωn ,
so ist auch z −1 = 1/z ∈ Ωn , da (1/z)n = z1n = 11 = 1.

Vom Rechnen mit Zahlen kennen wir die Regel x· y = y· x, d.h. dass es nicht auf die Reihenfolge
der Faktoren ankommt. Bei Gruppen gilt dies im Allgemeinen nicht, wie wir schon bei der
Matrixmultiplikation gesehen haben. Gruppen, in denen diese Regel, das Kommutativgesetz,
gilt, verdienen einen besonderen Namen.
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 135

Definition 3.21. Eine Gruppe (G, ∗) heißt abelsch oder auch kommutativ, wenn für alle
g1, g2 ∈ G gilt:
g1 ∗ g2 = g2 ∗ g1 .

Beispiel 3.22. Alle in Beispiel 3.12 gelisteten Gruppen sind abelsch. Die symmetrische Gruppe
S3 ist nicht abelsch, da z.B. τ1 ∗ τ2  τ2 ∗ τ1 . Die Untergruppe {id, σ1, σ2 } von S3 dagegen ist
abelsch.

Bemerkung 3.23. Jede Untergruppe einer abelschen Untergruppe ist selbst wieder abelsch.
Daher ist z.B. die Gruppe der n-ten Einheitswurzeln Ωn abelsch.

Beispiel 3.24. Der (Rn, +) bildet eine abelsche Gruppe mit neutralem Element 0. Ist V ⊂ Rn
ein Untervektorraum, dann ist V eine Untergruppe, denn 0 ∈ V, mit x, y ∈ V ist auch x + y ∈ V
und auch −x = (−1) · x ∈ V.
Allerdings gibt es auch Untergruppen von (Rn, +), die keine Untervektorräume sind, z.B. Zn .

Rechnen modulo n . Wir lernen jetzt eine wichtige Form des


Rechnens kennen, das Rechnen modulo einer natürlichen Zahl n.
Für n = 12 kennen wir das schon vom Rechnen mit Uhrzeiten,
wobei wir hier 1 Uhr nachmittags als 1 Uhr bezeichnen und nicht
als 13 Uhr, ansonsten müssten wir halt modulo n = 24 rechnen.
Wie funktioniert nun das Rechnen mit Uhrzeiten? Wollen wir wis-
sen, wie spät es 4 Stunden nach 3 Uhr ist, so addieren wir 4 und 3
und erhalten als Antwort 7 Uhr. Wollen wir aber wissen, wie spät
es 5 Stunden nach 11 Uhr ist, so addieren wir zunächst, was uns 16
liefert. Das liegt außerhalb des auf der Uhr anzeigbaren Bereichs. Abb. 64 Rechnen modulo 121
Daher ziehen wir n = 12 ab und erhalten als Antwort 4 Uhr.
Wir addieren also nicht einfach nur, sondern wir nehmen von der Summe den Rest, der sich
bei Division durch n = 12 ergibt. Dem Ganzen liegt also die Division mit Rest zugrunde.

Satz 3.25 (Division mit Rest). Sei n ∈ N. Zu jedem k ∈ Z gibt es genau ein q ∈ Z und ein
r ∈ {0, 1, . . . , n − 1}, so dass gilt:
k = n · q + r.

Beweis. Wir zeigen zunächst die Eindeutigkeit von q und r. Seien dazu q, q ∈ Z und r, r  ∈
{0, 1, . . ., n − 1} mit
k = n · q + r = n · q + r  .

1Künstler: gustavorezende, Quelle: https://openclipart.org/detail/182053


136 3. Algebraische Grundbegriffe

Dann folgt
n · (q − q) = r  − r .
Nun ist die linke Seite durch n teilbar, die rechte Seite aber muss in {−(n − 1), . . . , 0, . . ., n − 1}
liegen. Die einzige durch n teilbare Zahl in dieser Menge ist 0. Also folgt n ·(q −q) = r  −r = 0,
und daher r = r  und q = q.
Nun zur Existenz von q und r. Gegeben k ∈ Z wählen wir für q die größte ganze Zahl, die
kleiner oder gleich nk ∈ Q ist. Nun setzen wir r := k − nq ∈ Z. Dann gilt schon mal die
gewünschte Gleichung in der Aussage des Satzes. Da q ≤ nk ist, gilt nq ≤ k und damit r ≥ 0.
Wäre r ≥ n, dann wäre nr ≥ 1 und somit

k −r k r k
q+1= +1= − +1 ≤ .
n n n n

Dann aber wäre q doch nicht die größte ganze Zahl ≤ nk , Widerspruch! Also muss r < n sein
und damit r ∈ {0, . . ., n − 1}. 

Wir definieren nun die „Restabbildung“

MODn : Z → {0, . . . , n − 1},

die den Rest bei der Division durch n liefert. Die Abbildung ist also dadurch charakterisiert,
dass es für alle k ∈ Z genau ein q ∈ Z gibt mit

k = n · q + MODn (k).

Nun führen wir auf Z/n := {0, . . ., n − 1} (sprich: Z modulo n) folgende Addition ein:

x +n y := MODn (x + y).

Für n = 12 ist das genau das Rechnen mit Uhrzeiten, abgesehen davon, dass wir statt 12 Uhr
0 Uhr sagen.

Lemma 3.26. Sei n ∈ N. Dann ist (Z/n, +n ) eine abelsche Gruppe mit neutralem Element 0.

Beweis. Wir überprüfen zunächst das Assoziativgesetz. Seien dazu x, y, z ∈ Z/n. Wir setzen
zur Abkürzung w := y + z. Dann gilt

x +n (y +n z) = MODn (x + MODn (y + z)) = MODn (x + y + z + (MODn (w) − w)).

Nun ist w − MODn (w) durch n teilbar und daher ist MODn (x + y + z + (MODn (w) − w)) =
MODn (x + y + z). Also gilt:

x +n (y +n z) = MODn (x + y + z).
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 137

Analog sieht man


(x +n y) +n z = MODn (x + y + z)
womit das Assoziativgesetz bewiesen ist. Also bildet (Z/n, +n ) schon mal eine Halbgruppe.
Da für jedes x ∈ Z/n gilt x +n 0 = MODn (x + 0) = MODn (x) = x, ist 0 neutrales Element.
Das Kommutativgesetz für (Z/n, +n ) folgt direkt aus dem für (Z, +):

x +n y = MODn (x + y) = MODn (y + x) = y +n x.

Falls also (Z/n, +n ) eine Gruppe ist, so ist sie eine abelsche Gruppe.
Bleibt noch die Existenz inverser Elemente nachzuweisen. Zu x ∈ Z/n setze y := MODn (−x).
Dann ist x + y = x + MODn (−x) = MODn (−x) − (−x) durch n teilbar und daher gilt:

x +n y = MODn (x + y) = 0.

Wegen des bereits nachgewiesenen Kommutativgesetzes gilt auch y+n x = 0. Also ist y inverses
Element zu x. 

Für n = 2, 3 und 4 erhalten wir die folgenden Verknüpfungstabellen:

Z/3 0 1 2 Z/4 0 1 2 3
Z/2 0 1
0 0 1 2 0 0 1 2 3
0 0 1 1 1 2 3 0
1 1 2 0
1 1 0 2 2 3 0 1
2 2 0 1
Tab. 20 Verknüpfungstabelle 3 3 0 1 2
von Z/2 Tab. 21 Verknüpfungstabelle von
Z/3 Tab. 22 Verknüpfungstabelle von Z/4

Neben den für Uhrzeiten wichtigen Fällen n = 12 und n = 24 gibt es weitere besonders
bedeutende Beispiele. Mit n = 10 erhalten wir die Regeln der Addition ganzer Zahlen an den
einzelnen Ziffern im Dezimalsystem. Jede Ziffer kann nur die Werte aus Z/10 = {0, 1, . . . , 9}
annehmen und die Addition ist in jeder Ziffer (bei Berücksichtigung des Übertrags aus der
vorherigen Ziffer) genau die Addition +10 . Computer rechnen intern nicht im Dezimalsystem,
sondern im Binärsystem, benutzen also +2, oder aber auch im Hexadezimalsystem und benutzen
dabei +16 .
Neben den Gruppen selbst sind auch Abbildungen zwischen zwei Gruppen wichtig, die die
Rechenoperation respektieren.

Definition 3.27. Seien (G, ∗) und (H, •) Gruppen. Wir nennen eine Abbildung f : G → H
einen Homomorphismus oder genauer einen Gruppenhomomorphismus, wenn für alle
g1, g2 ∈ G gilt:
f (g1 ∗ g2 ) = f (g1 ) • f (g2 ).
138 3. Algebraische Grundbegriffe

Beispiel 3.28. Sei (G, ∗) = (H, •) = (Z, +). Fixiere ein m ∈ Z und setze fm : Z → Z,
fm (k) := m · k. Dann gilt für alle k, l ∈ Z:
fm (k + l) = m · (k + l) = m · k + m · l = fm (k) + fm (l) .
Somit ist fm ein Gruppenhomomorphismus von (Z, +) nach (Z, +).

Beispiel 3.29. Seien (G, ∗) = (R, +) und (H, •) = (R+, ·). Hierbei ist R+ die Menge der positiven
reellen Zahlen. Für f (x) = e x gilt
f (x + y) = e x+y = e x · e y = f (x) · f (y).

Proposition 3.30. Seien (G, ∗) und (H, •) Gruppen mit neutralem Element eG bzw. eH . Sei
f : G → H ein Homomorphismus. Dann gilt:

(i) Das neutrale Element von G wird auf das von H abgebildet, f (eG ) = eH .

(ii) Für alle g ∈ G gilt f (g −1 ) = f (g)−1 .

(iii) Ist f bijektiv, dann ist auch f −1 : H → G ein Homomorphismus.

Beweis. Zu (i):
Zunächst einmal gilt
f (eG ) = f (eG ∗ eG ) = f (eG ) • f (eG ).
Nun multiplizieren wir die Gleichung von links mit dem inversen Element f (eG )−1 von f (eG )
und erhalten
eH = f (eG )−1 • f (eG ) = f (eG )−1 • ( f (eG ) • f (eG ))
= ( f (eG )−1 • f (eG )) • f (eG ) = eH • f (eG ) = f (eG ).
Zu (ii):
Wir berechnen
(i)
f (g −1 ) • f (g) = f (g −1 ∗ g) = f (eG ) = eH
und analog
(i)
f (g) • f (g −1 ) = f (g ∗ g −1 ) = f (eG ) = eH .
Daher ist f (g −1 ) das inverse Element zu f (g), d.h. f (g −1 ) = f (g)−1 .

Zu (iii):
Sei f bijektiv und seien h, h ∈ H. Da f ein Homomorphismus ist, gilt
f ( f −1 (h) ∗ f −1 (h)) = f ( f −1 (h)) • f ( f −1 (h)) = h • h.
Wenden wir f −1 auf die linke und die rechte Seite dieser Gleichung an, so erhalten wir
f −1 (h) ∗ f −1 (h) = f −1 (h • h) . 
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 139

Beispiel 3.31. Für (G, ∗) = (R, +) und (H, •) = (R+, ·) und f (x) = e x die e-Funktion liefert
Proposition 3.30:

(i) e0 = 1,

(ii) e−x = 1
ex ,

(iii) Die Umkehrabbildung ln : R+ → R, der natürliche Logarithmus, ist ein Gruppenho-


momorphismus von (R+, ·) nach (R, +), d.h. für alle x, y > 0 gilt:

ln(x · y) = ln(x) + ln(y).

Definition 3.32. Ein bijektiver Gruppenhomomorphismus heißt Gruppenisomorphismus


oder kurz Isomorphismus. Gibt es einen Gruppenisomorphismus, so nennt man die betref-
fenden Gruppen isomorph.

Sind zwei Gruppen (G, ∗) und (H, •) isomorph, so schreiben wir hierfür (G, ∗)  (H, •) oder
etwas ungenauer G  H. In diesem Fall kann jede Rechnung in der einen Gruppe mit Hilfe
des Isomorphismus in eine entsprechende Rechnung in der anderen Gruppe übersetzt werden.
Die Gruppen (R, +) und (R+, ·) sind al-
so isomorph. Somit kann die Multipli-
kation positiver reeller Zahlen auf die
Addition reeller Zahlen zurückgeführt
werden. Das hat man sich vor dem Sie- Abb. 65 Rechenschieber
geszug der Computer auf Rechenschiebern zunutze gemacht. Sie haben eine logarithmische
Skala, mit deren Hilfe man Multiplikationen dadurch durchführen kann, indem man Strecken
aneinander legt (also eigentlich eine Addition vornimmt). Im Bild ist der mittlere, bewegliche
Schieber so platziert, dass an seiner unteren Kante eine Multiplikation mit 3 vorgenommen
wird, die Werte unterhalb der Unterkante sind die Dreifachen der Werte oberhalb der Unter-
kante.

Definition 3.33. Seien (G, ∗) und (H, •) Gruppen mit neutralem Element eG bzw. eH . Sei
f : G → H ein Gruppenhomomorphismus. Dann heißt

ker( f ) := f −1 ({eH }) = {g ∈ G | f (g) = eH }

der Kern von f .

Wie für jede Abbildung heißt im( f ) = f (G) = { f (g) | g ∈ G} das Bild von f .
140 3. Algebraische Grundbegriffe

Proposition 3.34. Sei f : G → H ein Gruppenhomomorphismus. Dann gilt:

(i) Der Kern ker( f ) ⊂ G ist eine Untergruppe von G.

(ii) Es ist f injektiv genau dann, wenn ker( f ) = {eG }.

(iii) Das Bild im( f ) ⊂ H ist eine Untergruppe von H.

(iv) Es ist f genau dann surjektiv, wenn im( f ) = H.

Beweis. Zu (i):
Nach Proposition 3.30 ist f (eG ) = eH , so dass schon mal eG ∈ ker( f ) gilt.
Seien nun g, g ∈ ker( f ), d.h. f (g) = f (g) = eH . Dann ist f (g·g) = f (g)· f (g) = eH ·eH = eH .
Folglich ist g · g ∈ ker( f ).
Sei nun g ∈ ker( f ). Nach den Propositionen 3.10 und 3.30 ist dann

f (g −1 ) = f (g)−1 = (eH )−1 = eH ,

so dass g −1 ∈ ker( f ) erfüllt ist.

Zu (ii):
Sei f : G → H injektiv. Nach Proposition 3.30 ist f (eG ) = eH , d.h. eG ∈ ker( f ). Sei nun
g ∈ ker( f ) beliebig. Dann ist f (g) = eH = f (eG ), und aus der Injektivität von f folgt g = eG .
Also ist ker( f ) = {eG }.
Nun setzen wir umgekehrt ker( f ) = {eG } voraus. Seien g, g ∈ G mit f (g) = f (g). Dann gilt:

f (g · g −1 ) = f (g) · f (g −1 ) = f (g) · f (g)−1 = f (g) · f (g)−1 = eH .

Folglich ist g · g −1 ∈ ker( f ) = {eG }. Es ist also g · g −1 = eG , d.h. g = g. Somit ist f injektiv.

Zu (iii):
Zunächst ist eH = f (eG ) ∈ im( f ).
Seien nun h, h ∈ im( f ). Wähle g, g ∈ G mit f (g) = h und f (g) = h. Dann ist

h · h = f (g) · f (g) = f (g · g) ∈ im( f ) .

Sei nun h ∈ im( f ). Wähle g ∈ G mit f (g) = h. Dann ist nach Proposition 3.30

h−1 = f (g)−1 = f (g −1 ) ∈ im( f ) .

Damit haben wir alle Eigenschaften einer Untergruppe für im( f ) nachgeprüft.
Aussage (iv) ist klar nach Definition. 
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 141

Beispiel 3.35. Wir berechnen Kern und Bild der Gruppenhomomorphismen fm : Z → Z,


definiert durch fm (k) := m · k, aus Beispiel 3.28: Offensichtlich ist m · k = 0 genau dann, wenn
m = 0 oder k = 0. Somit ist der Kern von fm gegeben durch:


Z für m = 0,
ker( fm ) = {k ∈ Z | m · k = 0} =
{0} für m  0.

Somit ist fm : Z → Z injektiv genau dann, wenn m  0.


Das Bild von fm ist gegeben durch:

im( fm ) = {m · k | k ∈ Z} =: mZ .

Offenbar ist mZ = {0} genau für m = 0 und mZ = Z für m = ±1. Für m  0 ist mZ die
Menge der durch m teilbaren ganzen Zahlen. Somit ist fm : Z → Z genau dann surjektiv, wenn
m = ±1.

Beispiel 3.36. Sei (G, ∗) = (Z/n, +n ) und (H, •) = (Ωn, ·). Wir betrachten die Abbildung
 k
f : Z/n → Ωn gegeben durch f (k) = e2πi/n = e2πik/n . Wir überprüfen zunächst, dass f ein
Gruppenhomomorphismus ist. Für k, k  ∈ Z/n unterscheiden sich k +n k  und k + k  allenfalls
durch ein Vielfaches von n, d.h. k +n k  = k + k  + nm für ein m ∈ Z. Nun gilt

 k+n k   k+k  +nm


f (k +n k ) = e2πi/n = e2πi/n
 k  k  nm
= e2πi/n · e2πi/n · e2πi/n
 m
= f (k) · f (k ) · e2πi = f (k) · f (k ).
()*+
=1

Nun ist k ∈ ker( f ) genau dann, wenn f (k) = e2πik/n = 1, d.h. wenn k ein Vielfaches von n
ist. Das einzige Vielfache von n in Z/n ist 0. Also ist ker( f ) = {0}. Somit ist f injektiv nach
Proposition 3.34.
Da Z/n und Ωn gleich viele Elemente haben, nämlich n Stück, ist die injektive Abbildung f nach
dem Hotelzimmerlemma 1.72 sogar bijektiv. Wir sehen also, dass f ein Isomorphismus ist und
somit (Z/n, +n ) und (Ωn, ·) isomorph sind. Das Addieren modulo n ist daher im Wesentlichen
dasselbe wie das (komplexe) Multiplizieren von n-ten Einheitswurzeln.
142 3. Algebraische Grundbegriffe

iR

Abb. 66 Z/12  Ω12 2

Untersuchen wir zum Abschluss dieses Abschnitts über Gruppen die symmetrischen Gruppen
noch etwas genauer, weil wir sie später noch einmal benötigen werden.

Definition 3.37. Eine Permutation σ ∈ Sn heißt Transposition, wenn es i, j ∈ Xn =


{1, . . ., n} gibt mit i  j, so dass für alle k ∈ Xn gilt

⎪ für k = i,



j
σ(k) = i für k = j,


⎪k sonst.

Eine Transposition vertauscht also zwei Elemente i und j und bildet alle anderen auf sich selbst
ab. Insbesondere erfüllt jede Transposition σ 2 = id. Jede Transposition ist ihr eigenes inverses
Element.
Die Transpositionen von S3 sind, in der auf Seite 133 verwendeten Notation, genau die Permu-
tationen τ1 , τ2 und τ3 .

Lemma 3.38. Sei n ∈ N. Jede Permutation σ ∈ Sn lässt sich als Verkettung von Transposi-
tionen schreiben.

Das Lemma besagt also, dass wir für jedes σ ∈ Sn Transpositionen τ1, . . ., τN ∈ Sn finden
können, so dass
σ = τ1 ◦ . . . ◦ τN .
2Künstler der linken Abbildung: gustavorezende, Quelle: https://openclipart.org/detail/182053
3.1. Abstraktes Rechnen: Gruppen und Halbgruppen 143

Dabei verwenden wir die Konvention, dass auch die Verkettung von N = 0 Transpositionen
erlaubt sein soll und als die Identität id definiert ist.
Beweis. Wir zeigen das Lemma durch Induktion nach dem Grad n.
Induktionsanfang: n = 1. Hier ist die Aussage trivial, da S1 = {id} und die Identität die
Verkettung von 0 Transpositionen ist.
Induktionsschritt: n ≥ 2. Sei σ ∈ Sn . Wir betrachten die beiden Fälle σ(n) = n und σ(n)  n
separat.
1. Fall: σ(n) = n. Dann bildet die Einschränkung von σ auf Xn−1 die Menge Xn−1 wieder
auf Xn−1 ab. Es ist also σ| Xn−1 ∈ Sn−1 . Nach Induktionsannahme gibt es Transpositionen
τ1, . . . , τN ∈ Sn−1 so dass
σ| Xn−1 = τ1 ◦ . . . ◦ τN .
Wir setzen die Transpositionen τj von Xn−1 zu Transpositionen τj auf Xn fort, indem wir setzen

τ (k) für k ∈ Xn−1,
τj (k) := j
n für k = n.
Dann gilt σ = τ1 ◦ . . . ◦ τN , wie gewünscht.
2. Fall: σ(n)  n. Sei τ0 die Transposition, die n und σ(n) vertauscht. Dann bildet die
Permutation τ0 ◦ σ das Element n auf sich ab. Nach dem ersten Fall, angewandt auf τ0 ◦ σ,
gibt es also Transpositionen τ1, . . ., τN , so dass
τ0 ◦ σ = τ1 ◦ . . . ◦ τN .
Wir verketten von links mit τ0 und erhalten unter Benutzung von τ02 = id, dass
σ = τ0 ◦ τ1 ◦ . . . ◦ τN .
Wieder haben wir σ als Verkettung von Transpositionen geschrieben. 

Ist σ ∈ Sn eine Permutation und {i, j} ⊂ Xn eine 2-elementige Teilmenge, dann setzen wir

1, falls j − i und σ( j) − σ(i) dasselbe Vorzeichen haben,
ε(σ, i, j) :=
−1, falls j − i und σ( j) − σ(i) entgegengesetztes Vorzeichen haben.
Nach Definition gilt stets ε(σ, i, j) = ε(σ, j, i).

Beispiel 3.39. Ist σ ∈ S3 gegeben durch


, -
1 2 3
,
2 3 1
dann ist ε(σ, 1, 2) = 1, weil σ(2) − σ(1) = 3 − 2 = 1 und 2 − 1 = 1 beide positiv sind. Dagegen
ist ε(σ, 2, 3) = −1, weil σ(3) − σ(2) = 1 − 3 = −2 negativ ist während 3 − 2 = 1 positiv ist.
Genauso sieht man, dass ε(σ, 1, 3) = −1.
144 3. Algebraische Grundbegriffe

Definition 3.40. Für σ ∈ Sn bilden wir das Produkt der Epsilons über alle 2-elementigen
Teilmengen von Xn und nennen

sgn(σ) := ε(σ, i, j) ∈ {−1, 1} = Ω2
1≤i< j≤n

das Signum der Permutation.

Die Bedingung i < j bei der Produktbildung stellt sicher, dass jede 2-elementige Teilmenge
von Xn nur einmal vorkommt.

Beispiel 3.41. Für σ = id gilt


, für alle- i und j, dass ε(id, i, j) = 1, also sgn(id) = 1.
1 2 3
Für σ ∈ S3 gegeben durch ist ε(σ, 1, 2) = 1 und ε(σ, 2, 3) = ε(σ, 1, 3) = −1, also
2 3 1
gilt ebenfalls

sgn(σ) = ε(σ, 1, 2) · ε(σ, 2, 3) · ε(σ, 1, 3) = 1 · (−1) · (−1) = 1.


, -
1 2 3
Ist dagegen τ gegeben durch , dann ist ε(τ, 1, 2) = ε(τ, 1, 3) = 1 und ε(τ, 2, 3) = −1.
1 3 2
Also gilt
sgn(τ) = 1 · 1 · (−1) = −1.

Lemma 3.42. Sei n ∈ N. Die Abbildung sgn : Sn → Ω2 ist ein Gruppenhomomorphismus


von (Sn, ◦) nach (Ω2, ·).

Beweis. Seien σ, σ  ∈ Sn . Man überlegt sich durch Fallunterscheidung leicht, dass für jede
2-elementige Teilmenge {i, j} ⊂ Xn gilt

ε(σ1 ◦ σ2, i, j) = ε(σ1, σ2 (i), σ2 ( j)) · ε(σ2, i, j).

Wir berechnen

sgn(σ1 ◦ σ2 ) = ε(σ1 ◦ σ2, i, j)
i< j

= (ε(σ1, σ2 (i), σ2 ( j)) · ε(σ2, i, j))
i< j
 
= ε(σ1, σ2 (i), σ2 ( j)) · ε(σ2, i, j). (3.1)
i< j i< j

Nun haben wir i< j ε(σ2, i, j) = sgn(σ2 ). Da σ2 bijektiv ist, wird im ersten Produkt
ebenfalls über alle 2-elementigen Teilmengen von Xn multipliziert. Es gilt also auch
3.2. Zwei Rechenarten im Zusammenspiel: Ringe und Körper 145

 
i< j ε(σ1, σ2 (i), σ2 ( j)) = k<l ε(σ1, k, l) = sgn(σ1 ). Setzen wir dies in (3.1) ein, erhalten
wir
sgn(σ1 ◦ σ2 ) = sgn(σ1 ) · sgn(σ2 ). 

Aus Lemma 3.38 wissen wir, dass wir jede Permutation σ als Verkettung von Transpositionen
schreiben können, σ = τ1 ◦ . . . ◦ τN . Aufgabe 3.6 zusammen mit Lemma 3.42 liefert nun
sgn(σ) = sgn(τ1 ◦ . . . ◦ τN ) = sgn(τ1 ) · · · sgn(τN ) = (−1)N .
Das Signum einer Permutation ist also −1 hoch die Anzahl der Transposition, die man braucht,
um σ als ihre Verkettung zu schreiben. Diese Anzahl ist nicht eindeutig durch σ bestimmt. So
gilt ja z.B. id = τ2 = τ4 = . . . für jede Transposition τ. Für σ = id ist also N = 0, N = 2,
N = 4 usw. möglich. Dagegen ist ein ungerades N nicht möglich, weil sgn(id) = 1.
Wir können es also so ausdrücken: sgn(σ) ist +1, wenn sich σ als Verkettung von einer geraden
Anzahl von Transpositionen schreiben lässt, und sgn(σ) = −1, wenn sich σ als Verkettung von
ungerade vielen Transpositionen schreiben lässt.

Definition 3.43. Die Untergruppe An := ker(sgn) ⊂ Sn heißt alternierende Gruppe vom


Grad n.

3.2. Zwei Rechenarten im Zusammenspiel: Ringe und


Körper
Durch Halbgruppen und Gruppen wird das Rechnen mit einer Rechenart sehr allgemein und
abstrakt beschrieben. Diese Rechenart kann z.B. die Addition oder die Multiplikation von
Zahlen sein. In Gruppen haben wir stets inverse Elemente. Mit deren Hilfe kann man die
Rechenoperationen rückgängig machen. Man kann also im Fall der Addition auch subtrahieren
und im Fall der Multiplikation auch dividieren.
Vom Rechnen mit Zahlen sind wir es gewohnt, dass wir mit zwei fundamentalen Rechen-
operationen gleichzeitig umgehen, nämlich mit der Addition und der Multiplikation. Auch
n × n-Matrizen können wir sowohl addieren (komponentenweise) als auch multiplizieren.
Daher wollen wir als Nächstes ein abstraktes Konzept einführen, das dieses Zusammenspiel
zweier Rechenarten beschreibt.

Definition 3.44. Ein Ring ist ein Tripel (R, +, ·), so dass gilt:
1. (R, +) ist eine abelsche Gruppe.
2. (R, ·) ist eine Halbgruppe.
3. Es gelten die Distributivgesetze: für alle a, b, c ∈ R ist sowohl
a · (b + c) = a · b + a · c als auch (a + b) · c = a · c + b · c.
146 3. Algebraische Grundbegriffe

Bei der Formulierung der Distributivgesetze haben wir wieder die Punkt-vor-Strich-Konvention
benutzt; so ist z.B. mit a · b+a · c eigentlich (a · b)+(a · c) gemeint. Die Distributivgesetze regeln
das Zusammenspiel der beiden fundamentalen Rechenarten + und ·. Anschaulich gesprochen
besagen sie, dass wir stets ausmultiplizieren können.
In einem Ring können wir also addieren, subtrahieren und multiplizieren, im Allgemeinen aber
nicht dividieren, da (R, ·) nur eine Halbgruppe ist und daher die Existenz inverser Elemente
bzgl. · nicht gesichert ist.

Beispiel 3.45. Die ganzen Zahlen R = Z bilden mit der üblichen Addition und Multiplikation
einen Ring. Gleiches gilt für R = Q, R = R und R = C, nicht aber für R = N, weil (N, +) keine
Gruppe ist.

Beispiel 3.46. Sei X eine Menge und R = Abb(X, R). Für zwei Abbildungen f , g ∈ R definie-
ren wir die Addition und die Multiplikation punktweise, d.h. für alle x ∈ X setzen wir

( f + g)(x) := f (x) + g(x) und ( f · g)(x) := f (x) · g(x).

Dann überprüft man leicht, dass R mit dieser punktweisen Addition und Multiplikation einen
Ring bildet. Das neutrale Element der Addition ist die Nullfunktion gegeben durch f (x) = 0
für alle x ∈ X, das additive Inverse zu g ∈ R ist −g, das gegeben ist durch (−g)(x) = −g(x).
Wenn man alle Ringeigenschaften für R = Abb(X, R) überprüft, stellt man fest, dass man für R
lediglich die Ringeigenschaften benutzt. Daher kann dieses Beispiel folgendermaßen verallge-
meinert werden: Ist X eine Menge und R ein Ring, dann ist R := Abb(X, R) mit punktweiser
Addition und Multiplikation wieder ein Ring. Insbesondere sind Abb(X, Z), Abb(X, Q) und
Abb(X, C) Ringe mit punktweiser Addition und Multiplikation.

Beispiel 3.47. Sei n ∈ N. Dann bildet R = Mat(n × n, R) einen Ring mit komponentenweiser
Addition und Matrixmultiplikation, siehe Satz 2.12.

Beispiel 3.48. Wir führen auf Z/n = {0, . . ., n − 1} eine Multiplikation ein, indem wir ähnlich
wie bei der Addition definieren

x ·n y = MODn (x · y).

Dann bildet (Z/n, +n, ·n ) einen Ring. Siehe Aufgabe 3.9 a) für die Einzelheiten.

Bislang hatten unsere Matrizen stets reelle Zahlen als Einträge. Tatsächlich haben wir beim
Rechnen mit Matrizen nie davon Gebrauch gemacht, dass wir speziell reelle Zahlen als Einträge
verwendet haben. Wir haben lediglich benutzt, wie man mit reellen Zahlen rechnet, genau
genommen mussten wir lediglich wissen, wie die Rechenregeln für Addition und Multiplikation
lauten. Diese machen aber gerade die Definition von Ringen aus. Daher ändert sich kaum etwas,
wenn wir von jetzt ab auch Matrizen zulassen, deren Einträge aus einem einmal festgelegten
Ring stammen und nicht notwendigerweise aus R.
3.2. Zwei Rechenarten im Zusammenspiel: Ringe und Körper 147

Definition 3.49. Sei (R, +, ·) ein Ring. Eine m × n-Matrix mit Einträgen in R ist ein rechte-
ckiges Schema der Form

A11 · · · A1n
.. .. .. 
.

. .  ,
Am1 · · · Amn 
wobei Ai j ∈ R für alle i ∈ {1, . . . , m} und j ∈ {1, . . . , n} ist.

Die Menge aller m × n-Matrizen mit Einträgen in R wird als Mat(m × n, R) geschrieben.
Wieder nennen wir eine 1 × n-Matrix Zeilenvektor und eine m × 1-Matrix Spaltenvektor. Die
transponierte Matrix entsteht wie gehabt durch Vertauschung der Spalten- und Zeilenindizes.
Wir verwenden wieder die Konvention, dass die Elemente aus Rn stets Spaltenvektoren, d.h.
n × 1-Matrizen sind.
Die Rechenoperationen mit Matrizen sind wie im Fall reeller Einträge erklärt:
◦ Addition von Matrizen: Seien A, B ∈ Mat(m × n, R) Matrizen, die in Höhe und Breite
übereinstimmen. Dann ist die Addition komponentenweise definiert,
(A + B)i j = Ai j + Bi j .

◦ Multiplikation von Matrizen mit Skalaren: Die Skalare sind jetzt die Elemente aus dem
Ring R. Für A ∈ Mat(m × n, R) mit Einträgen wie oben und λ ∈ R ist λ · A ∈ Mat(m × n, R)
definiert durch
(λ · A)i j = λ · Ai j .
◦ Multiplikation zweier Matrizen: Sei A ∈ Mat(m × n, R) und B ∈ Mat(n × k, R). Dann ist
A · B ∈ Mat(m × k, R) definiert durch

n
(A · B)i j := Ai1 · B1 j + Ai2 · B2 j + . . . + Ain · Bn j = Ail · Bl j .
l=1

Bis auf eine Ausnahme bleiben alle Rechenregeln aus Satz 2.12 gültig:

Satz 3.50. Sei (R, +, ·) ein Ring. Matrizen mit Einträgen in R genügen den folgenden Re-
chenregeln:

(i) ∀A, B ∈ Mat(m × n, R) :


A+ B = B + A.

(ii) ∀A, B, C ∈ Mat(m × n, R) :

(A + B) + C = A + (B + C) .
148 3. Algebraische Grundbegriffe

(iii) ∀λ ∈ R ∀A, B ∈ Mat(m × n, R) :

λ · (A + B) = λ · A + λ · B .

(iv) ∀λ, μ ∈ R ∀A ∈ Mat(m × n, R) :

(λ + μ) · A = λ · A + μ · A .

(v) ∀A ∈ Mat(m × n, R) ∀B ∈ Mat(n × k, R) ∀C ∈ Mat(k × l, R) :

(A · B) · C = A · (B · C) .

(vi) ∀A, B ∈ Mat(m × n, R) ∀C ∈ Mat(n × k, R) :

(A + B) · C = A · C + B · C .

(vii) ∀A ∈ Mat(m × n, R) ∀B, C ∈ Mat(n × k, R) :

A · (B + C) = A · B + A · C .

Der Beweis ist wörtlich derselbe wie der von Satz 2.12.

Korollar 3.51. Sei (R, +, ·) ein Ring und n ∈ N. Dann ist Mat(n × n, R) mit komponenten-
weiser Addition und Matrixmultiplikation wieder ein Ring. 

Die einzige Regel aus Satz 2.12, die uns verlorengegangen ist, ist
∀λ, μ ∈ R ∀A ∈ Mat(m × n, R) ∀B ∈ Mat(n × k, R) : (λ · μ) · (A · B) = (λ · A) · (μ · B).
Für den Beweis dieser Regel haben wir nämlich die Kommutativität der Multiplikation reeller
Zahlen benutzt, aber die braucht in Ringen nicht zu gelten.
Abgesehen von dieser einen Regel können wir aber mit Matrizen mit Einträgen in einem Ring
so rechnen wie mit reellen Matrizen. Wir können also auch Matrizen mit Einträgen in Z, Q
oder C benutzen; selbst Matrizen, deren Einträge selbst wieder quadratische Matrizen sind,
wären möglich.

Definition 3.52. Ein Ring (R, +, ·) heißt kommutativ, falls auch die Multiplikation · kom-
mutativ ist, d.h. falls für alle a, b ∈ R gilt:

a · b = b · a.
3.2. Zwei Rechenarten im Zusammenspiel: Ringe und Körper 149

Ist der Ring R kommutativ, dann gilt für Matrizen mit Koeffizienten in R auch die Regel

∀λ, μ ∈ R ∀A ∈ Mat(m × n, R) ∀B ∈ Mat(n × k, R) :


(λ · μ) · (A · B) = (λ · A) · (μ · B). (3.2)

Wir beachten allerdings, dass der Ring Mat(n × n, R) im Allgemeinen nicht kommutativ ist,
auch wenn R selbst kommutativ ist. Das hatten wir schon im Fall R = R gesehen.

Für jeden Ring (R, +, ·) bezeichnen wir das neutrale Element der Gruppe (R, +) mit 0. Sollte
die Halbgruppe (R, ·) ein neutrales Element haben, so bezeichnen wir es mit 1. In diesem Fall
sagt man, R ist ein Ring mit Eins oder auch ein unitärer Ring.

Beispiel 3.53. Mit der üblichen Addition und Multiplikation bilden R = Z, R = Q, R = R und
R = C kommutative unitäre Ringe. Dagegen ist (2Z, +, ·) zwar ein kommutativer Ring, hat aber
keine Eins.

Beispiel 3.54. Hat der Ring R eine Eins, so hat auch der Ring Mat(n × n, R) eine Eins, nämlich
die Einheitsmatrix.

Beispiel 3.55. Der Ring (Z/n, +n, ·n ) ist kommutativ und hat eine Eins. Es gilt nämlich für alle
x, y ∈ Z/n, dass x ·n y = MODn (x · y) = MODn (y · x) = y ·n x, also ist der Ring kommutativ.
Ferner haben wir für jedes x ∈ Z/n, dass x ·n 1 = MODn (x · 1) = MODn (x) = x, also ist 1
tatsächlich neutrales Element der Multiplikation.

Lemma 3.56. Sei (R, +, ·) ein Ring. Dann gilt:

(i) Für alle x ∈ R ist 0 · x = x · 0 = 0.

(ii) Hat R eine Eins, dann gilt für alle x ∈ R, dass (−1) · x = −x.

(iii) Hat R eine Eins und ist 1 = 0, so ist R = {0}.

Beweis. Zu (i):
Sei x ∈ R. Dann ist
0 · x = (0 + 0) · x = 0 · x + 0 · x.
Nun ziehen wir auf beiden Seiten 0 · x ab, d.h. wir addieren das additive Inverse −(0 · x) von
0 · x, und erhalten für die linke Seite 0 · x + (−(0 · x)) = 0 und für die rechte Seite

(0 · x + 0 · x) + (−(0 · x)) = 0 · x + (0 · x + (−(0 · x))) = 0 · x + 0 = 0 · x.

Also ist 0 = 0 · x. Die Gleichung x · 0 = 0 sieht man genauso.

Zu (ii):
Zunächst ist −1 das additive Inverse der Eins in R. Sei x ∈ R. Es ist nun zu zeigen, dass (−1) · x
150 3. Algebraische Grundbegriffe

das additive Inverse von x ist. Es gilt


(i)
(−1) · x + x = (−1) · x + 1 · x = (−1 + 1) · x = 0 · x = 0.

Wegen der Kommutativität von + gilt auch x + (−1) · x = 0, also ist (−1) · x das additive Inverse
von x, d.h. (−1) · x = −x.

Zu (iii):
Ist 1 = 0, so gilt für jedes x ∈ R:

x = 1 · x = 0 · x = 0. 

Für alle interessanten Ringe mit Eins gilt also 1  0.

Bemerkung 3.57. In der Schule haben wir gelernt, dass man auf keinen Fall durch 0 teilen
darf. Warum eigentlich nicht?
Um das zu verstehen, nehmen wir an, dass (R, +, ·) ein unitärer Ring ist und dass 0 ∈ R
multiplikativ invertierbar ist, d.h. wir können durch 0 dividieren. Dann folgt unter Verwendung
von Lemma 3.56:
1 = 0 · 0−1 = 0,
also R = {0}. Salopp formuliert: Wenn man in einem Zahlensystem, in dem die üblichen
Rechenregeln gelten, durch 0 teilen kann, dann besteht dieses Zahlensystem nur aus der 0 und
ist somit völlig uninteressant.

Definition 3.58. Sei (R, +, ·) ein Ring. Eine Teilmenge Q ⊂ R heißt Unterring, falls Q eine
Untergruppe von (R, +) ist und für alle x, y ∈ Q gilt x · y ∈ Q.

Genau wie bei Gruppen können wir die Rechenoperationen zu Abbildungen + : Q×Q → Q und
· : Q × Q → Q einschränken. Dann ist (Q, +, ·) selbst auch wieder ein Ring. Ist R kommutativ,
so auch Q.
Allerdings braucht Q nicht unitär zu sein, auch wenn R unitär ist. In anderen Worten, auch wenn
R eine Eins hat, braucht der Unterring diese Eins nicht zu enthalten. Ein einfaches Beispiel
hierfür ist R = Z und Q = 2Z, jeweils mit der üblichen Addition und Multiplikation.
Ähnlich wie bei Gruppen sind auch bei Ringen die Abbildungen, die die Rechenoperationen
erhalten, von besonderer Bedeutung.

Definition 3.59. Seien (R, +, ·) und (Q, , •) Ringe. Eine Abbildung f : R → Q heißt
Ringhomomorphismus, falls für alle x, y ∈ R gilt:

f (x + y) = f (x) f (y) und f (x · y) = f (x) • f (y).


3.2. Zwei Rechenarten im Zusammenspiel: Ringe und Körper 151

Insbesondere ist ein Ringhomomorphismus also ein Gruppenhomomorphismus von (R, +)


nach (Q, ). Damit gilt nach Proposition 3.30 f (−x) = − f (x) für alle x ∈ R und f (0) = 0.


k 0
Beispiel 3.60. Die Abbildung f : k → ist ein Ringhomomorphismus von (Z, +, ·)
0 0
nach (Mat(2 × 2, Z), +, ·). Ein Ringhomomorphismus bildet also stets die 0 auf die 0 ab, nicht
aber notwendigerweise die 1 auf die 1, selbst wenn die beteiligten Ringe eine Eins haben. In
1 0
diesem Beispiel ist f (1) = , was nicht die Eins in (Mat(2 × 2, Z), +, ·) ist. Das wäre ja
0 0
 
1 0
die Einheitsmatrix . Da bei einem Ring (R, ·) keine Gruppe bildet, ist Proposition 3.30
0 1
hierauf nicht anwendbar.

Definition 3.61. Ein Ringhomomorphismus f heißt einserhaltend oder unitär, wenn

f (1) = 1.

Lemma 3.62. Seien (R, +, ·) und (Q, , •) Ringe und sei f : R → Q ein Ringhomomorphis-
mus.

(i) Ist f bijektiv, so ist auch f −1 : Q → R ein Ringhomomorphismus.

(ii) Haben R und Q eine Eins und ist f surjektiv, dann ist f einserhaltend.

Beweis. Zu (i): Sei f bijektiv. Nach Proposition 3.30 ist f −1 ein Gruppenhomomorphismus
von (Q, ) nach (R, +). Bleibt zu zeigen, dass f −1 auch die Multiplikation respektiert. Seien
x, y ∈ Q. Dann gilt:

f −1 (x • y) = f −1 ( f ( f −1 (x)) • f ( f −1 (y))) = f −1 ( f ( f −1 (x) · f −1 (y))) = f −1 (x) · f −1 (y).

Zu (ii): Sei y ∈ Q. Da f surjektiv ist, gibt es ein x ∈ R mit f (x) = y. Wir berechnen

f (1) • y = f (1) • f (x) = f (1 · x) = f (x) = y

und analog y • f (1) = y. Somit ist f (1) neutrales Element der Halbgruppe (Q, •). Wegen der
Eindeutigkeit des neutralen Elements nach Proposition 3.5 gilt f (1) = 1. 
152 3. Algebraische Grundbegriffe

Definition 3.63. Bijektive Ringhomomorphismen heißen Ringisomorphismen. Existiert


ein Ringisomorphismus von (R, +, ·) nach (Q, , •), dann heißen die beiden Ringe isomorph.
Wir schreiben dafür (R, +, ·)  (Q, , •) oder auch etwas laxer R  Q.

In Ringen können wir addieren, subtrahieren und multiplizieren, aber in der Regel nicht
dividieren. Kann man das doch, liegt ein besonders guter Ring vor, ein so genannter Körper.

Definition 3.64. Ein kommutativer Ring (R, +, ·) heißt Körper, falls er eine Eins 1  0 hat
und alle Elemente  0 invertierbar bzgl. · sind, d.h. für die Halbgruppe (R, ·) gilt R× = R\{0}.

In einem Körper können wir durch alle Elemente  0 dividieren. In Bemerkung 3.57 haben
wir gesehen, warum wir die multiplikative Invertierbarkeit von 0 nicht fordern.

Beispiel 3.65. Die Ringe (Q, +, ·), (R, +, ·) und (C, +, ·) sind Körper. Dagegen ist (Z, +, ·) kein
Körper, da Z× = {−1, 1}.

Bemerkung 3.66. In Lemma 3.56 haben wir gesehen, dass in jedem Ring das Produkt zweier
Elemente null ist, wenn einer der beiden Faktoren null ist. Umgekehrt sind Körper stets
nullteilerfrei, d.h. ein Produkt x · y kann nur dann null sein, wenn wenigstens einer der beiden
Faktoren null ist. Sei nämlich x · y = 0 und x  0. Da wir in einem Körper sind, ist x invertierbar
und wir erhalten
y = 1 · y = (x −1 · x) · y = x −1 · (x · y) = x −1 · 0 = 0.
Ringe, die keine Körper sind, können, müssen aber nicht nullteilerfrei sein. So ist z.B. (Z, +, ·)
nullteilerfrei. Dagegen ist R = Mat(2 × 2, R) nicht nullteilerfrei, denn
     
1 0 0 0 0 0
· = .
0 0 0 1 0 0

Bemerkung 3.67. In einem nullteilerfreien Ring können wir die Multiplikation zu einer Ab-
bildung · : R \ {0} × R \ {0} → R \ {0} einschränken. Ist (R, +, ·) ein Körper, so bildet (R \ {0}, ·)
eine abelsche Gruppe mit neutralem Element 1.

Proposition 3.68. Sei n ∈ N, n ≥ 2. Dann sind folgende Aussagen äquivalent:

(1) (Z/n, +n, ·n ) ist ein Körper.

(2) (Z/n, +n, ·n ) ist nullteilerfrei.

(3) n ist eine Primzahl.


3.2. Zwei Rechenarten im Zusammenspiel: Ringe und Körper 153

Beweis. Es genügt, die Implikationen (1) ⇒ (2), (2) ⇒ (3) und (3) ⇒ (1) zu zeigen.
Zu „(1) ⇒ (2)“:
Da Körper stets nullteilerfrei sind, ist hier nichts zu zeigen.

Zu „(2) ⇒ (3)“:
Sei (Z/n, +n, ·n ) nullteilerfrei. Angenommen, n ist keine Primzahl. Dann können wir n als
Produkt n = p · q mit p, q ∈ {2, . . . , n − 1} ⊂ Z/n schreiben. Es gilt dann

p ·n q = MODn (p · q) = MODn (n) = 0,

aber p und q sind beide selbst nicht null. Also ist (Z/n, +n, ·n ) nicht nullteilerfrei, im Wider-
spruch zur Annahme.

Zu „(3) ⇒ (1)“:
Da wir bereits wissen, dass (Z/n, +n, ·n ) ein kommutativer Ring mit Eins ist, bleibt lediglich
zu zeigen, dass jedes Element von Z/n ungleich 0 ein multiplikatives Inverses hat.
Sei k ∈ (Z/n) \ {0} = {1, . . ., n − 1}. Wir wollen zeigen, dass k ein Inverses in (Z/n, ·n ) hat.
Dazu betrachten wir die Abbildung

fk : Z/n → Z/n, fk (l) = k ·n l.

Wir werden zeigen, dass fk injektiv ist. Wegen des Hotelzimmerlemmas 1.72 ist fk dann auch
surjektiv. Insbesondere liegt 1 im Bild von fk , d.h. es gibt ein l ∈ Z/n mit k ·n l = fk (l) = 1.
Wegen der Kommutativität von ·n gilt dann auch l ·n k = 1, d.h. l ist multiplikatives Inverses
von k wie gewünscht.
Bleibt also zu zeigen, dass fk injektiv ist. Seien l, l  ∈ Z/n mit fk (l) = fk (l ). Wir haben zu
zeigen, dass l = l . Wir wissen k ·n l = k ·n l , d.h. MODn (k · l) = MODn (k · l ). Es folgt
MODn (k(l − l )) = MODn (kl − kl ) = 0. Also ist k(l − l ) durch n teilbar. Da k ∈ {1, . . . , n − 1},
ist k nicht durch n teilbar. Da n eine Primzahl ist, muss der andere Faktor l − l  durch n teilbar
sein. Daher gilt

l = MODn (l) = MODn (l ) = l  . 

Definition 3.69. Ist n eine Primzahl, so schreibt man statt Z/n auch Fn und nennt (Fn, +n, ·n )
den Primkörper der Charakteristik n.

Das Rechnen in Primkörpern sollte nun hier geübt werden, bis es sicher
beherrscht wird: http://ueben.cbaer.eu/06.html
154 3. Algebraische Grundbegriffe

Definition 3.70. Sei (K, +, ·) ein Körper. Ist K  ⊂ K ein Unterring, der selbst wieder ein
Körper ist, so heißt K  Unterkörper von K.

Ein Unterring K  eines Körpers K ist selbst wieder ein Körper genau dann, wenn 1 ∈ K  und
für jedes λ ∈ K , λ  0, ist λ−1 ∈ K .

Beispiel 3.71. Die rationalen Zahlen Q bilden einen Unterkörper von R und R ist ein Unter-
körper von C. Dagegen bilden die ganzen Zahlen Z keinen Unterkörper von R, sondern nur
einen Unterring.

3.3. Vektorräume
Körper abstrahieren das Rechnen mit Zahlen. Nun abstrahieren wir noch das Rechnen mit
Vektoren. Dabei muss man zunächst festlegen, mit welchen Skalaren, d.h. mit Zahlen aus
welchem Körper man arbeiten will.

Definition 3.72. Sei (K, +, ·) ein Körper. Ein K -Vektorraum oder auch Vektorraum über
K ist ein Tripel (V, +, ·), wobei V eine Menge ist und + sowie · Verknüpfungen

+ : V × V → V, (v, w) → v + w,
· : K × V → V, (λ, v) → λ · v,

sind, so dass gilt:

1. (V, +) ist eine abelsche Gruppe.

2. Für alle λ, μ ∈ K und für alle v, w ∈ V gilt:


a) (λ + μ) · v = λ · v + μ · v,
b) λ · (v + w) = λ · v + λ · w,
c) (λ · μ) · v = λ · (μ · v),
d) 1 · v = v.

Das neutrale Element von (V, +) nennen wir den Nullvektor und schreiben dafür 0. Obwohl
wir dasselbe Symbol verwenden, dürfen wir die 0 ∈ K nicht mit der 0 ∈ V verwechseln. Für
v ∈ V schreiben wir für das inverse Element von v bzgl. + wieder −v.
Ist aus dem Kontext klar, welcher Körper K zugrunde gelegt ist, so spricht man auch einfach
von einem Vektorraum. Wir beachten, dass in der Liste der Forderungen unter 2. die Symbole
+ und · in mehrfacher Bedeutung vorkommen. So ist das + in λ + μ die Addition in K, das +
in λ · v + μ · v dagegen die Addition in V. Genauso ist das · in λ · μ die Multiplikation in K,
3.3. Vektorräume 155

das · in μ · v hingegen die Verknüpfung · : K × V → V. Wäre man ganz penibel, so müsste


man eigentlich verschiedene Symbole für diese verschiedenen Inkarnationen der Addition und
Multiplikation verwenden. Da man an der Herkunft der Summanden bzw. Faktoren aber immer
erkennen kann, welche Addition bzw. Multiplikation gemeint ist, ist das nicht notwendig.

Beispiel 3.73. Ist K ein beliebiger Körper und n ∈ N, dann bildet V = K n einen K-Vektorraum,
wobei wir die Addition in V und die Multiplikation mit Skalaren komponentenweise definieren:


v1
w1
v1 + w1
v1
λ · v1
..  ..  ..  . . 
.  + .  := .  sowie λ · ..  := ..  .
    
vn  wn  vn + wn  vn  λ · vn 


0
.
Das neutrale Element der abelschen Gruppe (V, +) ist der Nullvektor 0 = .. . Allgemei-

0
ner bildet für n, m ∈ N sogar Mat(n × m, K) einen K-Vektorraum, wenn man Addition und
Multiplikation mit Skalaren wieder komponentenweise definiert. Man beachte, dass Matrix-
multiplikation an dieser Stelle nicht vorkommt und daher keine Rolle spielt.

Beispiel 3.74. Sei K ein Körper und X eine nichtleere Menge. Wir setzen V := Abb(X, K) und
definieren ähnlich wie in Beispiel 3.46 für zwei Abbildungen f , g ∈ V die Addition punktweise.
Auch die Multiplikation mit Skalaren λ ∈ K wird punktweise definiert. In anderen Worten,
wir setzen für alle x ∈ X:

( f + g)(x) := f (x) + g(x) und (λ · g)(x) := λ · g(x).

Dann ist es nicht schwer zu überprüfen, dass (V, +, ·) ein K-Vektorraum ist.

Beispiel 3.75. Ein interessanter Spezialfall von Beispiel 3.74 ergibt sich für X = N. Dann ist
V = Abb(N, K) der K-Vektorraum der Folgen von Elementen von K.

Bemerkung 3.76. Genau genommen ist auch Beispiel 3.73 ein Spezialfall von Beispiel 3.74,
denn ein n-Tupel von Elementen aus K kann als Abbildung von {1, . . ., n} → K aufgefasst
werden. Die punktweise Addition und Multiplikation aus Beispiel 3.74 entspricht dabei der
komponentenweisen Addition und Multiplikation aus Beispiel 3.73.

Beispiel 3.77. Ist V ein K-Vektorraum und K  ein Unterkörper von K, so kann man die
Multiplikation · : K × V → V einschränken zu einer Multiplikation · : K  × V → V. Dadurch
wird V zu einem K -Vektorraum.
So ist z.B. V = R = R1 ein R-Vektorraum. Durch diese Einschränkungsprozedur wird R auch
zu einem Q-Vektorraum. Analog ist C ein R-Vektorraum. Diesen kennen wir allerdings schon,
denn als R-Vektorraum ist C nichts anderes als R2 .
156 3. Algebraische Grundbegriffe

Beispiel 3.78. Sei K ein Körper und seien V1, . . ., Vn Vektorräume über K. Dann erhalten wir
einen neuen K-Vektorraum V := V1 × . . . × Vn , wobei wir Addition in V und Multiplikation
mit Skalaren wie in Beispiel 3.73 komponentenweise definieren. Der einzige Unterschied zu

v1
.
Beispiel 3.73 besteht darin, dass die Komponenten v j eines Vektors v = ..  nun nicht mehr

vn 
Skalare aus K sind, sondern selbst Vektoren v j ∈ Vj .

Ganz allgemein haben wir folgende Rechenregeln für Vektoren:

Lemma 3.79. Sei (K, +, ·) ein Körper und (V, +, ·) ein K-Vektorraum. Dann gilt für alle
v ∈ V und λ ∈ K:

(i) 0 · v = 0.

(ii) λ · 0 = 0.

(iii) λ · v = 0 ⇒ λ = 0 ∨ v = 0.

(iv) (−1) · v = −v.

Beweis. Zu (i):
Wir berechnen 0 · v = (0 + 0) · v = 0 · v + 0 · v und subtrahieren 0 · v auf beiden Seiten.

Zu (ii):
Wir berechnen λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0 und subtrahieren λ · 0 auf beiden Seiten.

Zu (iii):
Sei λ · v = 0 und λ  0. Dann folgt einerseits λ−1 · (λ · v) = (λ−1 · λ) · v = 1 · v = v und
andererseits nach (ii) λ−1 · (λ · v) = λ−1 · 0 = 0. Also ist v = 0.

(i)
Aussage (iv) folgt aus v + (−1) · v = 1 · v + (−1) · v = (1 + (−1)) · v = 0 · v = 0. 

Beispiel 3.80. Sei K = F2 der Primkörper der Charakteristik 2. Der Nullvektorraum V = {0}
hat genau ein Element, den Nullvektor. Der Vektorraum V = F2 = F12 hat genau zwei Elemente,
0 und 1. Der Vektorraum V = F22 hat genau vier Elemente, V = {(0, 0), (0, 1), (1, 0), (1, 1) }.
Gibt es auch einen F2 -Vektorraum mit genau drei Elementen?
Die Antwort lautet nein. Nehmen wir an, V wäre ein F2 -Vektorraum mit genau drei Elementen.
Eines dieser Elemente ist der Nullvektor, also ist V = {0, v, w}, wobei v und w beide nicht der
Nullvektor sind und v  w. Nun muss v + w auch wieder eins dieser drei Elemente sein. Es
kann v + w = v nicht gelten, da hieraus w = 0 folgen würde. Genauso kann v + w = w nicht
3.3. Vektorräume 157

gelten. Also müsste v + w = 0 sein. Addieren wir v auf beiden Seiten, so erhalten wir

v = v + 0 = v + (v + w) = (v + v) + w = (1 · v + 1 · v) + w = ((1 +2 1) · v) + w = 0 · v + w = w

im Widerspruch zu v  w.

Wir verallgemeinern jetzt Definition 2.18, wo wir Untervektorräume von Rn definiert hatten.

Definition 3.81. Sei (K, +, ·) ein Körper und (V, +, ·) ein K-Vektorraum. Eine Teilmenge
W ⊂ V heißt Untervektorraum von V, wenn gilt:

1. Es ist 0 ∈ W.

2. Sind v1, v2 ∈ W, so ist auch v1 + v2 ∈ W.

3. Sind v ∈ W und λ ∈ K, dann ist auch λ · v ∈ W.

Bemerkung 3.82. Ist W ein Untervektorraum von (V, +, ·), so ist W eine Untergruppe von
(V, +). Angesichts der ersten beiden Bedinungen in Definition 3.81 ist das einzige, was dazu
noch zu zeigen bleibt, dass mit v ∈ W auch −v ∈ W ist. Das folgt aus der dritten Bedingung
und Lemma 3.79 (iv).
Allerdings ist nicht jede Untergruppe von (V, +) auch ein Untervektorraum von (V, +, ·). So ist
etwa W = Zn eine Untergruppe von (Rn, +), aber kein Untervektorraum des R-Vektorraums
(Rn, +, ·). Z.B. das 21 -fache eines ganzzahligen Vektors ist im Allgemeinen nicht wieder ganz-
zahlig. Daher ist die dritte Bedingung aus Definition 3.81 verletzt.

Bemerkung 3.83. Ist W ein Untervektorraum eines K-Vektorraums (V, +, ·), dann kann man
+ und · zu Abbildungen + : W × W → W bzw. · : K × W → W einschränken. Mit dieser einge-
schränkten Addition bzw. Multiplikation wird dann W selbst auch wieder ein K-Vektorraum.

Beispiel 3.84. Für jeden K-Vektorraum V haben wir zwei extreme Untervektorräume. Der
Nullvektorraum W = {0} ist der kleinste Untervektorraum von V, da er in jedem Untervek-
torraum von V enthalten sein muss. Um zu sehen, dass der Nullvektorraum tatsächlich ein
Untervektorraum von V ist, braucht man übrigens Lemma 3.79 (ii). Andererseits ist W = V
ebenfalls ein Untervektorraum von V, sicherlich der größte.

Beispiel 3.85. Wir betrachten den R-Vektorraum V = Abb(X, R), wobei jetzt X ⊂ R ein
nichtdegeneriertes3 Intervall sein soll. In der Analysis lernt man, dass die Summe zweier
stetiger Funktionen wieder stetig ist, genauso das λ-fache einer stetigen Funktion, λ ∈ R. Die
2. und die 3. Bedingung aus Definition 3.81 sind also erfüllt für

W = C 0 (X, R) := { f ∈ Abb(X, R) | f ist stetig}.


3Ein Intervall heißt nichtdegeneriert, wenn es nicht leer ist und nicht nur einen Punkt enthält.
158 3. Algebraische Grundbegriffe

Außerdem ist die Nullfunktion offensichtlich stetig. Somit ist W = C 0 (X, R) ein Untervektor-
raum von V = Abb(X, R).
Allgemeiner ist auch

C k (X, R) := { f ∈ Abb(X, R) | f ist k-mal stetig differenzierbar}

ein Untervektorraum von V = Abb(X, R), wobei k ∈ N ∪ {∞}.

Beispiel 3.86. Betrachten wir nun den R-Vektorraum der reellen Folgen V = Abb(N0, R) aus
Beispiel 3.75. Sei

W = Konv(N0, R) := { f ∈ Abb(N0, R) | f konvergiert}

die Menge der konvergenten Folgen. Dann lernt man wiederum in der Analysis, dass die Summe
zweier konvergenter Folgen wieder konvergiert, genauso das λ-fache einer konvergenten Folge.
Die Nullfolge ist offensichtlich konvergent. Also ist W = Konv(N0, R) ein Untervektorraum
von V = Abb(N0, R).

Beispiel 3.87. Sei (V, +, ·) ein K-Vektorraum und sei W eine möglicherweise unendliche, aber
auf jeden nicht leere Menge von Untervektorräumen von V. Dann ist der Durchschnitt
.
W= W
W  ∈W

wieder ein Untervektorraum. Gehen wir rasch die drei Bedingungen aus Definition 3.81 durch.
Da jedes W  ∈ W ein Untervektorraum ist, gilt 0 ∈ W  für alle W  ∈ W und damit 0 ∈
/ 
W  ∈W W = W.
Seien nun v1, v2 ∈ W. Dann sind v1 und v2 in W  für alle W  ∈ W. Da jedes dieser W  ein
/
Untervektorraum ist, ist v1 +v2 ∈ W  für jedes dieser W  und damit auch v1 +v2 ∈ W ∈W W  =
W. Die dritte Bedingung überprüft man ähnlich.

Bemerkung 3.88. Die Vereinigung von Untervektorräumen eines Vektorraums ist im Allge-
meinen kein Untervektorraum. So sind z.B. W1 = {(x, 0) ∈ R2 | x ∈ R} und W2 = {(0, y) ∈
R2 | y ∈ R} Untervektorräume des R-Vektorraums R2 , aber W := W1 ∪ W2 ist kein Untervek-
torraum, da z.B. (1, 0) ∈ W1 ⊂ W und (0, 1) ∈ W2 ⊂ W, aber (1, 0) + (0, 1) = (1, 1)  W.

Definition 3.89. Sei (V, +, ·) ein K-Vektorraum und seien W1, . . . , Wn ⊂ V Untervektor-
räume. Wir definieren die Summe durch

W1 + . . . + Wn := {v ∈ V | ∃w j ∈ W j so dass v = w1 + . . . + wn }.

Die Summe W := W1 + . . . + Wn von Untervektorräumen von V ist selbst wieder ein Untervek-
torraum von V , denn
3.3. Vektorräume 159

1. Es ist 0 ∈ W, da 0 ∈ W j für alle j = 1, . . ., n und 0 = 0 + . . . + 0.

2. Seien v, v  ∈ W. Schreibe v = w1 + . . . + wn und v  = w1 + . . . + wn mit w j , wj ∈ W j . Dann


ist v + v  = (w1 + w1 ) + . . . + (wn + wn ). Da w j + wj ∈ W j ist, gilt v + v  ∈ W.

3. Sei λ ∈ K und v ∈ W. Schreibe v = w1 + . . . + wn mit w j ∈ W j . Dann ist λ · v =


(λ · w1 ) + . . . + (λ · wn ) und damit λ · v ∈ W.

Kommen wir nun auf das Konzept der linearen Hülle zurück, das wir im Spezialfall des
R-Vektorraums Rn schon kennengelernt haben. Sei K ein Körper und V ein K-Vektorraum.
Sei X ⊂ V eine Teilmenge. Betrachten wir die Menge aller Untervektorräume von V , die X
enthalten,
W := {W ⊂ V | W ist Untervektorraum mit X ⊂ W }.
Diese Menge W von Untervektorräumen ist nicht leer, da V ∈ W. Dann wissen wir aus
Beispiel 3.87, dass .
L(X) := W
W ∈W

ein Untervektorraum von V ist.

Definition 3.90. Wir nennen L(X) die lineare Hülle von X.

Die lineare Hülle ist also der „kleinste“ Untervektorraum von V, der X enthält.

Beispiel 3.91. Ist X ⊂ V selbst ein Untervektorraum, dann ist L(X) = X.

Beispiel 3.92. Was ist die lineare Hülle der leeren Menge? In diesem Fall ist W die Menge
aller Untervektorräume von V . Insbesondere ist {0} ∈ W. Also gilt L(∅) = {0}.

Beispiel 3.93. Sei V ein K-Vektorraum und v ∈ V. Was ist L({v})? Ist v = 0, dann ist X ein
Untervektorraum, nämlich der Nullvektorraum und damit gilt gemäß Beispiel 3.91

L({0}) = {0}.

Sei nun v  0. Mit v muss jeder Untervektorraum auch alle Vielfachen von v enthalten, also

K · v ⊂ L({v}),

wobei wir die Notation


K · v := {λ · v | λ ∈ K}
verwenden wollen. Da K · v selbst ein Untervektorraum von V ist, folgt

L({v}) = K · v.
160 3. Algebraische Grundbegriffe

Bemerkung 3.94. Ist V ein K-Vektorraum und sind X, Y ⊂ V Teilmengen mit X ⊂ Y, dann
gilt offensichtlich L(X) ⊂ L(Y ).

Das folgende Lemma besagt, dass die lineare Hülle einer Teilmenge eines Vektorraums V
genau die Vektoren aus V enthält, die sich aus den Elementen von X linear kombinieren lassen.

Lemma 3.95. Sei K ein Körper und V ein K-Vektorraum. Sei X ⊂ V eine Teilmenge, X  ∅.
Dann gilt:

L(X) = {v ∈ V | ∃v1, . . . , vn ∈ X ∃λ1, . . ., λn ∈ K : v = λ1 v1 + . . . + λn vn }.

Beweis. Wir setzen W := {v ∈ V | ∃v1, . . ., vn ∈ X ∃λ1, . . ., λn ∈ K : v = λ1 v1 + . . . + λn vn }


und haben zu zeigen, dass W = L(X).
Jeder Untervektorraum von V, der X enthält, muss auch alle Linearkombinationen der Elemente
aus X enthalten. Also gilt
W ⊂ L(X).
Andererseits ist W selbst ein Untervektorraum von V, der X enthält. Also gilt auch
L(X) ⊂ W . 

Beispiel 3.96. Sei K = R und V = Abb(R, R). Für jedes k ∈ N0 sei fk ∈ V gegeben durch
fk (x) = x k .
Die Elemente des Untervektorraums L(X) mit X = { fk | k ∈ N0 } nennt man Polynomfunk-
tionen. Betrachten wir nun die Funktionen gk, h k ∈ V gegeben durch
gk (x) = cos(k x) und h k (x) = sin(k x).
Dann nennt man die Elemente des Untervektorraums L(X) mit X = {gk | k ∈ N0 }∪{h k | k ∈ N}
trigonometrische Polynome.
Es gibt auch eine komplexe Version hiervon. Nehmen wir K = C und V = Abb(R, C) und
setzen wir für alle k ∈ Z
fk (x) = eik x,
dann heißen die Elemente des Untervektorraums L(X) mit X = { fk | k ∈ Z} komplexe
trigonometrische Polynome.

3.4. Basen
Als Nächstes wollen wir die Konzepte „lineare Unabhängigkeit“, „Erzeugendensystem“ und
„Basis“, die wir bislang nur für Untervektorräume des Rn kennen, auf allgemeine Vektorräume
übertragen.
3.4. Basen 161

Zunächst beweisen wir das Analogon zu Lemma 2.31.

Lemma 3.97. Sei K ein Körper und V ein K-Vektorraum. Sei X ⊂ V eine Teilmenge. Dann
sind äquivalent:

(1) Es gibt Skalare λ1, . . . , λn ∈ K, nicht alle gleich 0, sowie paarweise verschiedene
Vektoren v1, . . . , vn ∈ X mit
λ1 v1 + . . . + λn vn = 0.

(2) Es gibt ein v ∈ X mit v ∈ L(X \ {v}).

(3) Es gibt ein v ∈ X mit L(X \ {v}) = L(X).

Beweis. Es reicht die Implikationen „(1)⇒(2)“, „(2)⇒(3)“ sowie „(3)⇒(1)“ zu zeigen.


Zu „(1)⇒(2)“:
Seien λ1, . . . , λn ∈ K, nicht alle gleich 0, und v1, . . ., vn ∈ X paarweise verschieden, so dass

λ1 · v1 + . . . + λn · vn = 0.

Ohne Einschränkung der Allgemeinheit können wir annehmen, dass λ1  0 (ansonsten num-
merieren wir um). Dann ist λ1 multiplikativ invertierbar. Multiplizieren wir in

λ1 · v1 = −(λ2 · v2 + . . . + λn · vn ) = (−1) · (λ2 · v2 + . . . + λn · vn )

die linke Seite mit λ1−1 , dann erhalten wir

λ1−1 · (λ1 · v1 ) = (λ1−1 · λ1 ) · v1 = 1 · v1 = v1 .

Die rechte Seite ergibt

λ1−1 · ((−1) · (λ2 · v2 + . . . + λn · vn )) = (λ1−1 · (−1)) · (λ2 · v2 + . . . + λn · vn )


= (−λ1−1 ) · (λ2 · v2 + . . . + λn · vn )
= (−λ1−1 ) · (λ2 · v2 ) + . . . + (−λ1−1 ) · (λn · vn )
= (−λ1−1 · λ2 ) · v2 + . . . + (−λ1−1 · λn ) · vn .

Insgesamt ergibt sich

v1 = (−λ1−1 · λ2 ) · v2 + . . . + (−λ1−1 · λn ) · vn .

Da die v j paarweise verschieden sind, liegen v2, . . ., vn ∈ X \ {v1 }. Also folgt v1 ∈ L(X \ {v1 }).

Zu „(2)⇒(3)“:
Sei v ∈ X mit v ∈ L(X \{v}). Offenbar gilt L(X \{v}) ⊂ L(X). Bleibt also L(X) ⊂ L(X \{v}) zu
162 3. Algebraische Grundbegriffe

zeigen. Sei w ∈ L(X). Gemäß Lemma 3.95 existieren dann v1, . . . , vn ∈ X und λ1, . . ., λn ∈ K
mit
w = λ1 v1 + . . . + λn vn . (3.3)
Stimmt keines der v j mit v überein, dann ist w ∈ L(X \ {v}) und wir sind fertig. Nehmen wir
also an, v stimmt mit einem der v j überein. Ohne Beschränkung der Allgemeinheit können
wir annehmen, dass v = v1 . Wegen v1 = v ∈ L(X \ {v}) gibt es wiederum nach Lemma 3.95
u1, . . ., um ∈ X \ {v} und Skalare μ1, . . ., μm ∈ K mit
v1 = μ1 u1 + . . . + μm um . (3.4)
Wir setzen (3.4) in (3.3) ein und erhalten
w = λ1 μ1 u1 + . . . + λ1 μm um + λ2 v2 + . . . + λn vn ∈ L(X \ {v}).
Zu „(3)⇒(1)“:
Sei v ∈ X mit L(X \ {v}) = L(X). Dann ist v ∈ L(X \ {v}). Also gibt es u1, . . ., um ∈ X \ {v}
und μ1, . . . , μm ∈ K mit
v = μ1 u1 + . . . + μm um .
Ohne Beschränkung der Allgemeinheit können wir annehmen, dass die Vektoren u1, . . ., um
paarweise verschieden sind (ansonsten entfernen wir bereits vorhandenes u j und addieren die
zugehörigen Koeffizienten). Dann haben wir durch
1 · v + (−μ1 )u1 + . . . + (−μm )um = 0
eine Linearkombination des Nullvektors gefunden, in der alle Vektoren paarweise verschieden
sind und nicht alle Koeffizienten gleich 0. 

Bemerkung 3.98. Der Beweis zeigt auch, dass wenn v ∈ X die Bedingung (2) erfüllt, dass
dann dasselbe v auch die Bedingung (3) erfüllt und umgekehrt.

Definition 3.99. Sei K ein Körper und V ein K-Vektorraum. Eine Teilmenge X ⊂ V heißt
linear abhängig, wenn eine (und damit alle) Bedingung aus Lemma 3.97 gilt. Ansonsten
heißt X linear unabhängig.

Beispiel 3.100. Die leere Menge X = ∅ ist offenbar linear unabhängig.

Beispiel 3.101. Sei K = R und V = Abb(R, R). Sei X = { f , g, h}, wobei f (x) = 5, g(x) =
sin(x)2 und h(x) = cos(x)2 . Dann ist X linear abhängig, denn aus der bekannten Relation
sin(x)2 + cos(x)2 = 1
folgt
−1 · f + 5 · g + 5 · h = 0,
was eine nichttriviale Linearkombination der 0 ist.
3.4. Basen 163

Beispiel 3.102. Betrachten wir wie in Beispiel 3.96 K = R, V = Abb(R, R) und X = { fk | k ∈


N0 }, wobei fk (x) = x k . Dann ist X linear unabhängig. Sei nämlich λ1 fk1 + . . . + λn fkn = 0.
Wir können die Nummerierung so wählen, dass 0 ≤ k1 < . . . < kn . Da die Polynomfunktion
λ1 x k1 + . . . + λn x kn konstant 0 ist, gilt dies auch für die kn -te Ableitung, d.h.

λn · (kn )! · 1 = 0.

Also ist λn = 0 und wir erhalten die Gleichung λ1 fk1 + . . . + λn−1 fkn−1 = 0. Wir fahren induktiv
fort und sehen, dass alle Koeffizienten gleich 0 sein müssen.

Beispiel 3.103. Nun betrachten wir die komplexen trigonometrischen Polynome in Bei-
spiel 3.96. Sei also K = C, V = Abb(R, C) und fk (x) = eik x mit k ∈ Z. Dann ist
X = { fk | k ∈ Z} linear unabhängig. Um das einzusehen, machen wir zunächst folgende
Vorüberlegung. Wenn k = 0 ist, dann ist f0 konstant gleich 1 und wir erhalten für das Integral

∫2π
f0 (x)dx = 2π.
0

Ist dagegen k  0, dann ist 1 ik x


ik e eine Stammfunktion4 von fk und wir erhalten

∫2π
1 ik·2π 1
fk (x)dx = [e − eik·0 ] = [1 − 1] = 0.
ik ik
0

Soweit die Vorüberlegung. Sei nun

λ1 fk1 + . . . + λn fkn = 0, (3.5)

wobei die k j paarweise verschieden sind. Für jedes j = 1, . . ., n können wir jetzt Folgendes
machen: Wir multiplizieren (3.5) mit e−ik j x und erhalten für alle x ∈ R:

λ1 ei(k1 −k j )x + . . . + λ j + . . . + λn ei(kn −k j )x = 0.

Integration über das Intervall [0, 2π] liefert dann λ j · 2π = 0, also λ j = 0.

Definition 3.104. Sei K ein Körper und V ein K-Vektorraum. Eine Teilmenge X ⊂ V heißt
Erzeugendensystem von V, falls L(X) = V. Eine Teilmenge X ⊂ V heißt Basis von V, falls
X ein linear unabhängiges Erzeugendensystem von V ist.

4Komplexwertige Funktionen werden integriert, indem man Real- und Imaginärteil einzeln integriert. Der
Hauptsatz der Differential- und Integralrechnung bleibt gültig, da man ihn separat auf Real- und Imaginärteil
anwenden kann.
164 3. Algebraische Grundbegriffe

Bemerkung 3.105. Jeder Vektorraum besitzt ein Erzeugendensystem, z.B. X = V. Dass X


ein Erzeugendensystem von V ist, heißt dass jedes Element von V als Linearkombination von
Elementen von X dargestellt werden kann. Dass X eine Basis von V ist, heißt dass jedes
Element von V auf eindeutige Weise als Linearkombination von Elementen von X dargestellt
werden kann. Haben wir nämlich v ∈ V auf zwei Weisen als Linearkombination von paarweise
verschiedenen Elementen v1, . . ., vn ∈ X dargestellt,

v = λ1 v1 + . . . + λn vn = μ1 v1 + . . . + μn vn,

dann ist
(λ1 − μ1 )v1 + . . . + (λn − μn )vn = 0
und wegen der linearen Unabhängigkeit ist λ j − μ j = 0 für alle j.

Beispiel 3.106. Sei K ein Körper und V = K n . Wie in Beispiel 2.40 definieren wir die Vektoren
e1, . . ., en ∈ K n . Dann ist X = {e1, . . ., en } die Standardbasis von K n . Jedes v ∈ K n kann
nämlich durch

v1
1
0
v  0 .. 
2  .
v = .  = v1 · .  + . . . + vn · 
..  ..  0
  
vn  0 1
eindeutig durch die Standardbasisvektoren e1, . . ., en linearkombiniert werden.

Beispiel 3.107. Die komplexen Zahlen C betrachtet als R-Vektorraum haben die Basis {1, i}.
Jede komplexe Zahl kann ja auf eindeutige Weise aus 1 und i mit reellen Koeffizienten li-
nearkombiniert werden. Diese Koeffizienten sind der Real- und Imaginärteil der komplexen
Zahl.
Wenn wir dagegen C als C-Vektorraum betrachten, dann hat C die Basis {1}. Denn jede kom-
plexe Zahl kann eindeutig als komplexes Vielfaches von 1 geschrieben werden. Der Koeffizient
ist die komplexe Zahl selbst. In diesem Fall ist {1, i} linear abhängig und damit keine Basis.
Eine nichttriviale Linearkombination der 0 mit komplexen Koeffizienten wäre z.B.

1 · 1 + i · i = 0.

In einem solchen Fall sagen wir, {1, i} ist linear unabhängig über R, aber linear abhängig
über C.

Bemerkung 3.108. Ist K ein Körper, V ein K-Vektorraum und X ⊂ V linear unabhängig, dann
ist X eine Basis des Untervektorraums L(X).

Beispiel 3.109. Die Menge { fk | k ∈ N0 } mit fk (x) = x k bildet eine Basis des R-Vektorraums
der reellen Polynomfunktionen. Die Menge { fk | k ∈ Z} mit fk (x) = eik x bildet eine Basis des
C-Vektorraums der komplexen trigonometrischen Polynome.
3.4. Basen 165

Bemerkung 3.110. Sei X eine Teilmenge eines Vektorraums V über einem Körper K. Ist X
linear unabhängig, dann ist auch jede Teilmenge X  ⊂ X linear unabhängig. Ist X ein Erzeu-
gendensystem von V, dann ist auch jede Menge X  mit X ⊂ X  ⊂ V ein Erzeugendensystem
von V.

Lemma 3.111. Sei V ein K-Vektorraum, sei X ⊂ V linear unabhängig und sei v ∈ V \ L(X).
Dann ist auch X ∪ {v} linear unabhängig.

Beweis. Angenommen, X ∪ {v} ist linear abhängig. Nach Kriterium (2) in Lemma 3.97 gibt
es dann ein v0 ∈ X ∪ {v} mit v0 ∈ L((X ∪ {v}) \ {v0 }). Daraus müssen wir eine Widerspruch
herleiten. Wir unterscheiden zwei Fälle, je nachdem, ob v = v0 oder nicht.
1. Fall: Sei v0 = v.
Dann ist v ∈ L((X ∪ {v}) \ {v}) = L(X), was der Voraussetzung im Lemma widerspricht.
2. Fall: Sei v0  v, d.h. v0 ∈ X.
Wegen v0 ∈ L((X ∪ {v}) \ {v0 }) finden wir Vektoren u1, . . . , un ∈ X \ {v0 } und Skalare
λ1, . . . , λn, μ ∈ K, so dass
v0 = λ1 u1 + . . . + λn un + μv. (3.6)
Ist nun μ = 0, dann ist v0 ∈ L(X \ {v0 }), was nach dem dritten Kriterium in Lemma 3.97 sagt,
dass X linear abhängig ist, im Widerspruch zur Annahme.
Ist dagegen μ  0, dann können wir (3.6) nach v auflösen und erhalten v als Linearkombination
der Vektoren v0, u1, . . ., un . Damit ist v ∈ L(X), ebenfalls im Widerspruch zur Annahme. 

Satz 3.112. Sei K ein Körper, V  {0} ein K-Vektorraum und X ⊂ V eine Teilmenge. Dann
sind äquivalent:

(1) X ist eine Basis von V.

(2) X ist ein minimales Erzeugendensystem von V, d.h. X ist ein Erzeugendensystem von V
und für jedes v ∈ X ist X \ {v} kein Erzeugendensystem von V.

(3) X ist eine maximale linear unabhängige Teilmenge, d.h. X ist linear unabhängig und
für jedes v ∈ V \ X ist X ∪ {v} linear abhängig.

Beweis. Zu „(1)⇒(2)“:
Sei X eine Basis von V. Dann ist X insbesondere ein Erzeugendensystem von V. Zu zeigen
bleibt die Minimalität von X.
Angenommen, es existiert ein v ∈ X so dass X \ {v} noch ein Erzeugendensystem V ist. Dann
ist v ∈ V = L(X \ {v}). Nach Lemma 3.97 (2) ist X linear abhängig im Widerspruch dazu,
dass X eine Basis ist.
166 3. Algebraische Grundbegriffe

Zu „(2)⇒(1)“:
Sei X ein minimales Erzeugendensystem von V. Wegen der Minimalität gilt für jedes v ∈ V:
L(X \ {v})  V = L(X).
Nach Lemma 3.97 (3) ist X linear unabhängig und damit eine Basis.

Zu „(1)⇒(3)“:
Sei X eine Basis von V. Dann ist X insbesondere linear unabhängig. Für jedes v ∈ V ist
V = L(X) ⊂ L(X ∪ {v}) ⊂ V
also L(X) = L(X ∪ {v}). Ist nun v ∈ V \ X, dann folgt aus Lemma 3.97 (2), dass X ∪ {v} linear
abhängig ist.

Schließlich zeigen wir die Implikation „(3)⇒(1)“: Sei also X eine maximale linear unabhängige
Teilmenge von V. Zu zeigen bleibt, dass X ein Erzeugendensystem von V ist, d.h. dass L(X) = V.
Angenommen, es gibt ein v ∈ V \ L(X). Nach Lemma 3.111 ist dann X ∪ {v} auch linear
unabhängig, im Widerspruch zur Maximalität von X. 

Definition 3.113. Ein K-Vektorraum V heißt endlich erzeugt, falls V ein endliches Er-
zeugendensystem besitzt, d.h. falls es eine endliche Menge X = {v1, . . ., vm } gibt, so dass
V = L(X).

Beispiel 3.114. In Korollar 2.45 haben wir festgestellt, dass jeder Untervektorraum von Rn
eine Basis hat, die wegen Korollar 2.43 höchstens n Elemente haben kann. Daher ist jeder
Untervektorraum endlich erzeugt.

Beispiel 3.115. Für jeden Körper K besitzt K n die Standardbasis, die genau n Elemente hat.
Also ist K n endlich erzeugt.

Beispiel 3.116. Wir haben bereits gesehen, dass C als R-Vektorraum die Basis {1, i} hat, also
insbesondere endlich erzeugt ist. Ist nun R als Q-Vektorraum endlich erzeugt? Die Antwort
lautet nein. Denn nehmen wir an, R wäre über Q endlich erzeugt. Dann gäbe es endlich viele
reelle Zahlen x1, . . . , xn , so dass sich jede reelle Zahl x in der Form
x = q1 x1 + . . . + qn xn
schreiben lässt, wobei q1, . . ., qn ∈ Q geeignete rationale Koeffizienten sind. Mit anderen
Worten, die Abbildung
Φ : Qn → R, (q1, . . ., qn ) → q1 x1 + . . . + qn xn,
wäre surjektiv. Mit Q ist auch Qn abzählbar, also gibt es eine bijektive Abbildung Ψ : N → Qn .
Also wäre Φ ◦ Ψ : N → R eine surjektive Abbildung und R müsste ebenfalls abzählbar sein.
Wir wissen aber bereits, dass R überabzählbar ist.
3.4. Basen 167

Lemma 3.117. Sei V ein K-Vektorraum und seien X1 ⊂ X2 ⊂ · · · ⊂ V ineinander enthaltene


Teilmengen von V. Ist jedes X j linear unabhängig, so ist auch die Vereinigungsmenge X :=
X1 ∪ X2 ∪ · · · linear unabhängig.

Bemerkung 3.118. Falls wir nur endliche viele solcher ineinander geschachtelter linear un-
abhängiger Mengen X1 ⊂ . . . ⊂ XN ⊂ V haben, ist die Aussage des Lemmas trivial, da dann
ja einfach X = XN gilt. Interessant ist das Lemma also nur im Fall, dass wir eine unendliche
Kette ineinander geschachtelter linear unabhängiger Teilmengen von V vorliegen haben.

Beweis von Lemma 3.117. Seien v1, . . . , vn ∈ X paarweise verschieden und seien λ1, . . ., λn ∈
K, so dass
λ1 v1 + . . . + λn vn = 0. (3.7)
Nach Definition von X gibt es zu jedem k ∈ {1, . . . , n} ein j k mit vk ∈ X jk . Sei N :=
max{ j1, . . ., jn }. Da die X j ineinander enthalten sind, gilt X jk ⊂ XN und damit vk ∈ XN für
alle k ∈ {1, . . ., n}. Da XN linear unabhängig ist, folgt aus (3.7), dass λ1 = . . . = λn = 0, was
zu zeigen war. 

Lemma 3.119. Sei V ein K-Vektorraum, der nicht endlich erzeugt ist. Dann enthält V eine
unendliche linear unabhängige Teilmenge.

Beweis. Wir konstruieren induktiv für jedes j ∈ N0 linear unabhängige Teilmengen X j ⊂ V


mit #X j = j, die ineinander geschachtelt sind, d.h. X j ⊂ X j+1 . Nach Lemma 3.117 ist dann
1 1∞
X := ∞ j=0 X j = j=1 X j eine linear unabhängige Teilmenge von V mit unendlich vielen
Elementen.
Für j = 0 setzen wir X0 := ∅. Sei nun X j , eine linear unabhängige Teilmenge von V mit genau j
Elementen, bereits konstruiert. Da V nicht endlich erzeugt ist, kann X j kein Erzeugendensystem
von V sein. Also gibt es ein v ∈ V \ L(X j ). Wir setzen X j+1 := X j ∪ {v}. Wegen v  X j hat
X j+1 genau j + 1 viele Elemente. Wegen Lemma 3.111 ist X j+1 ebenfalls linear unabhängig.

Satz 3.120 (Basisauswahlsatz). Sei V ein K-Vektorraum und X ⊂ V ein endliches Erzeu-
gendensystem. Dann gibt es eine Teilmenge B ⊂ X, die Basis von V ist.

Beweis. Sei X ein endliches Erzeugendensystem von V. Falls X linear unabhängig ist, so ist
bereits B = X eine Basis von V und wir sind fertig.
Sei also X linear abhängig. Dann gibt es nach Lemma 3.97 ein v ∈ X mit L(X\{v}) = L(X) = V.
Dann ist X  := X \ {v} wieder ein endliches Erzeugendensystem von V mit einem Element
weniger als X. Wir setzen das Verfahren fort und entfernen solange Elemente bis wir ein
minimales Erzeugendensystem erhalten. Da X endlich ist, ist dies nach endlich vielen Schritten
168 3. Algebraische Grundbegriffe

der Fall. Das so erhaltene minimale Erzeugendensystem ist nach Satz 3.112 eine Basis von V.

Damit haben wir auch:

Korollar 3.121. Jeder endlich erzeugte Vektorraum besitzt eine endliche Basis. 

Proposition 3.122. Sei V ein K-Vektorraum. Seien X, Y ⊂ V endliche Teilmengen, so dass


X linear unabhängig ist und Y ein Erzeugendensystem. Dann gilt:

#X ≤ #Y .

Bemerkung 3.123. Bevor wir die Proposition beweisen, eine Bemerkung über lineare Glei-
chungssysteme über einem allgemeinen Körper K. Seien Ai j ∈ K mit i = 1, . . . , m und
j = 1, . . ., n. Dann hat das homogene lineare Gleichungssystem

A11 · x1 + A12 · x2 + . . . + A1n · xn =0


..
.
Am1 · x1 + Am2 · x2 +. . . + Amn · xn =0 (3.8)

sicherlich die triviale Lösung (x1, . . . , xn ) = (0, . . ., 0). Gilt nun n > m, d.h. haben wir weniger
Gleichungen als Variablen, dann besitzt das Gleichungssystem auch eine nichttriviale Lösung,
d.h. eine Lösung (x1, . . ., xn )  (0, . . . , 0). Im Fall K = R haben wir das in Bemerkung 2.23
bewiesen. Derselbe Beweis funktioniert auch für allgemeine Körper K; wir haben im Beweis
nirgendwo irgendwelche speziellen Eigenschaften der reellen Zahlen benutzt.

Beweis von Proposition 3.122. Sei #X = n und X = {v1, . . ., vn } sowie #Y = m und Y =


{w1, . . ., wm }. Wir führen die Annahme n > m zum Widerspruch.
Da Y ein Erzeugendensystem ist, lässt sich jedes v j aus den wi linearkombinieren, d.h. es gibt
Koeffizienten Ai j ∈ K, so dass für alle j = 1, . . ., n gilt

v j = A1 j w1 + . . . + Am j wm .

Nach Bemerkung 3.123 gibt es im Fall n > m eine Lösung (x1, . . . , xn )  (0, . . ., 0) des
Gleichungssystems (3.8). Dann folgt

x1 v1 + . . . + xn vn = x1 (A11 w1 + . . . + Am1 wm ) + . . . + xn (A1n w1 + . . . + Amn wm )


= (A11 x1 + . . . + A1n xn )w1 + . . . + (Am1 x1 + . . . + Amn xn )wm
= 0 · w1 + . . . + 0 · wm
= 0.
3.4. Basen 169

Da v1, . . ., vn paarweise verschieden sind und nicht alle Koeffizienten x j = 0, ist dies eine
nichttriviale Linearkombination des Nullvektors. Dies widerspricht der linearen Unabhängig-
keit von X. 

Als erste Folgerung halten wir die Umkehrung von Lemma 3.119 fest:

Korollar 3.124. Sei V ein K-Vektorraum. Enthält V eine unendliche linear unabhängige
Teilmenge, so ist V nicht endlich erzeugt.

Beweis. Angenommen, V besitzt ein endliches Erzeugendensystem Y und eine unendliche


linear unabhängige Teilmenge X. Wähle eine Teilmenge X  ⊂ X mit genau #Y + 1 vielen
Elementen. Als Teilmenge von X ist auch X  wieder linear unabhängig. Nun verletzen X  und
Y die Ungleichung aus Proposition 3.122. 

Beispiel 3.125. Der R-Vektorraum V = Abb(R, R) besitzt unendliche linear unabhängige Teil-
mengen und ist daher nicht endlich erzeugt. Nach Beispiel 3.102 ist X = { f0, f1, f2, . . .} mit
fk (x) = x k linear unabhängig.
Genauso ist auch der C-Vektorraum V = Abb(R, C) nicht endlich erzeugt, da nach Bei-
spiel 3.103 die Menge X = { fk | k ∈ Z} mit fk (x) = eik x linear unabhängig ist.

Als zweite Folgerung erhalten wir:

Korollar 3.126. Sei V ein endlich erzeugter K-Vektorraum. Dann ist jede Basis von V
endlich und alle Basen von V haben gleich viele Elemente.

Beweis. Da V endlich erzeugt ist und jede Basis linear unabhängig ist, muss sie nach Korol-
lar 3.124 endlich sein.
Seien nun B und B zwei Basen von V. Wenden wir Proposition 3.122 mit X = B und Y = B
an, so erhalten wir #B ≤ #B. Wir können die Proposition aber auch mit X = B und Y = B
anwenden und erhalten #B ≤ #B. Beides zusammen ergibt #B = #B. 

Definition 3.127. Sei V ein K-Vektorraum. Ist B eine endliche Basis von V , dann nennen
wir #B ∈ N0 die Dimension von V und schreiben dafür dim(V). Wegen Korollar 3.126 hängt
die Dimension nicht von der Wahl der Basis B, sondern nur von V ab.
Ist V nicht endlich erzeugt, so schreiben wir dim(V) = ∞.
Wir sagen ferner, der Vektorraum ist dim(V)-dimensional.
170 3. Algebraische Grundbegriffe

Beispiel 3.128. Da die Standardbasis von K n genau n Elemente hat, gilt dim(K n ) = n. Da
Abb(R, R) nicht endlich erzeugt ist, gilt dim(Abb(R, R)) = ∞.

Beispiel 3.129. Wir hatten C sowohl als reellen als auch als komplexen Vektorraum betrachtet.
Möchten man verdeutlichen, welcher Körper K einem Vektorraum V zugrunde gelegt wird,
so schreibt man auch dimK (V) statt dim(V). Für V = C hatten wir als Basis über K = R die
Menge {1, i} und als Basis über C die Menge {1}. Also ist

dimR (C) = 2 und dimC (C) = 1.

Da R als Q-Vektorraum nicht endlich erzeugt ist, haben wir sogar

dimQ (R) = ∞ und dimR (R) = 1.

Der folgende Satz besagt, dass man (im endlich erzeugten Fall) aus einer linearen unabhän-
gigen Menge eine Basis machen kann, indem man endlich viele geeignete Elemente aus V
hinzunimmt.

Satz 3.130 (Basisergänzungssatz). Sei V ein endlich erzeugter K-Vektorraum und sei
X ⊂ V linear unabhängig.
Dann gibt es eine Basis B von V mit X ⊂ B.

Beweis. Wir setzen X0 := X und definieren linear unabhängige Mengen X j , die X enthalten,
induktiv wie folgt: Ist L(X j ) = V , dann ist X j eine Basis von V und der Satz ist mit B = X j
bewiesen. Ist hingegen L(X j )  V, dann wählen wir ein Element v j+1 ∈ V \ L(X j ) und setzen
X j+1 := X ∪ {v j+1 }. Wegen Lemma 3.111 ist X j+1 wiederum linear unabhängig und enthält X j
und damit auch X. Außerdem hat X j+1 ein Element mehr als X j . Da eine linear unabhängige
Teilmenge von V nicht mehr als dim(V) viele Elemente haben kann, bricht die Prozedur
irgendwann ab und der Satz ist bewiesen. 

Korollar 3.131. Sei V ein K-Vektorraum und W ⊂ V ein Untervektorraum. Ist V endlich
erzeugt, so ist auch W endlich erzeugt und es gilt

dim(W) ≤ dim(V).

Gilt unter diesen Voraussetzungen ferner dim(W) = dim(V), so ist W = V.

Beweis. Wäre W nicht endlich erzeugt, so enthielte W gemäß Lemma 3.119 eine unendliche
linear unabhängige Teilmenge X. Damit enthielte auch V diese unendliche linear unabhän-
gige Teilmenge X und wäre nach Korollar 3.124 nicht endlich erzeugt, im Widerspruch zur
Annahme. Also ist W endlich erzeugt.
3.4. Basen 171

Gemäß Korollar 3.121 besitzt W eine endliche Basis B ⊂ W. Nun ist B auch eine linear
unabhängige Teilmenge von V und kann gemäß Satz 3.130 zu einer Basis B von V ergänzt
werden. Insbesondere gilt
dim(W) = #B ≤ #B = dim(V).
Gilt nun ferner dim(W) = dim(V ), so muss B = B sein und damit W = L(B) = L(B) = V. 

Grob gesprochen besagt der Basisauswahlsatz, dass man eine Basis bekommen kann, indem
man aus einem Erzeugendensystem überflüssige Elemente entfernt, und der Basisergänzungs-
satz, dass man eine Basis bekommen kann, indem man zu einer linear unabhängigen Teilmenge
geeignete Elemente hinzufügt.

Fassen wir kurz zusammen. Ist V ein K-Vektorraum, so sind äquivalent:

(1) V ist endlich erzeugt.

(2) V hat eine endliche Basis.

(3) dim(V ) < ∞.

(4) Alle linear unabhängigen Teilmengen sind endlich.

Dass es überhaupt immer eine Basis gibt, haben wir nur für endlich erzeugte Vektorräume
bewiesen. Tatsächlich gilt

Satz 3.132. Sei K ein beliebiger Körper und V ein beliebiger K-Vektorraum. Dann besitzt
V eine Basis.

Versucht man, den Beweis des Basisauswahlsatzes 3.120 anzupassen, stößt auf das Problem,
dass das sukzessive Weglassen überflüssiger Elemente aus einem unendlichen Erzeugenden-
system niemals zu enden braucht. Diese Schwierigkeit kann aber mittels eines mengentheore-
tischen Hilfsmittels, dem so genannten „Lemma von Zorn“, behoben werden. Für die Einzel-
heiten hierzu und einen Beweis von Satz 3.132 siehe z.B. [11, Abschnitt 2.3].

In einer Menge gibt es für die Elemente keine vorgegebene Reihenfolge. Wenn wir später
lineare Abbildungen einführen und sie durch Matrizen beschreiben, brauchen wir aber eine
Reihenfolge der Basisvektoren. Daher machen wir die folgende Definition:

Definition 3.133. Sei V ein K-Vektorraum. Ein n-Tupel paarweise verschiedener Vektoren
(v1, . . . , vn ) aus V heißt geordnete Basis von V, wenn {v1, . . ., vn } eine Basis im herkömm-
lichen Sinn ist.
172 3. Algebraische Grundbegriffe

Beispiel 3.134. Für V = K n ist (e1, . . ., en ) die geordnete Standardbasis, wobei die
Vektoren e1, . . . , en so sind wie in Beispiel 2.40. Setzen wir n ≥ 2 voraus. Dann ist
(e2, e1, e3, . . ., en ) eine andere geordnete Basis von K n als die geordnete Standardbasis, wohin-
gegen {e2, e1, e3, . . . , en } = {e1, e2, e3, . . ., en } die Standardbasis ist.

3.5. Aufgaben
3.1. a) Zeigen Sie, dass in jeder Gruppe (G, ∗) die Kürzungsregel gilt:
Sind g, x, y ∈ G mit g ∗ x = g ∗ y, dann gilt x = y.

b) Zeigen Sie durch Gegenbeispiel, dass die Kürzungsregel in Halbgruppen im Allgemeinen


nicht gilt.

c) Sei (G, ∗) eine Gruppe mit neutralem Element e und seien g, h ∈ G. Zeigen Sie, dass aus
g ∗ h = e oder h ∗ g = e bereits folgt, dass h das zu g inverse Element ist.
Das können wir folgendermaßen ausdrücken: in Gruppen sind Linksinverse automatisch
auch Rechtsinverse und umgekehrt. Das ist praktisch, halbiert es doch den Rechenaufwand
beim Nachprüfen, dass ein Element das Inverse eines anderen Elements ist.

d) Zeigen Sie durch Gegenbeispiel, dass die Aussage c) in Halbgruppen im Allgemeinen nicht
richtig ist.

3.2. Zeigen Sie durch vollständige Induktion, dass die symmetrische Gruppe Sn genau n!
Elemente hat.

3.3. Listen Sie alle Untergruppen von S3 auf.

3.4. Sei (G, ∗) eine Gruppe und H ⊂ G eine Teilmenge, die das neutrale Element enthält.
Zeigen Sie, dass H genau dann eine Untergruppe ist, wenn für alle h1, h2 ∈ H gilt:

h1 ∗ (h2 )−1 ∈ H.

3.5. Zeigen Sie, dass GL(n, R) für n ≥ 2 nicht abelsch ist.

3.6. Zeigen Sie, dass für jede Transposition τ gilt: sgn(τ) = −1.

3.7. Eine deutsche IBAN (International Bank Account Number) setzt sich folgendermaßen
zusammen: Die Länderkennung DE wird gefolgt von zwei Prüfziffern, dann 8 Ziffern, die die
Bank festlegen (die ehemalige Bankleitzahl), und schließlich 10 Ziffern für die eigentliche
Kontonummer bei dieser Bank. Die Prüfziffern sollen für eine gewissen Redundanz sorgen
und z.B. verhindern, dass bei Schreibfehlern eine Überweisung auf dem falschen Konto landet.
Dabei sind die Prüfziffern so zu wählen, dass folgende Rechnung zum Ergebnis 1 führt:
3.5. Aufgaben 173

1. Bewege die Länderkennung und die beiden Prüfziffern vom Anfang an das Ende der IBAN.
Beispiel: DE68210501700012345678 ; 210501700012345678DE68
2. Ersetze die Buchstaben durch Ziffern, wobei A=10, B=11, . . . , Z=35 ist.
Beispiel: 210501700012345678DE68 ; 210501700012345678131468
3. Diese Ziffernfolge betrachten wir nun als (große) ganze Zahl und verlangen, dass der Rest
modulo 97 uns 1 liefert.
Beispiel: MOD97 (210501700012345678131468) = 1 gilt tatsächlich, also ist unsere IBAN
gültig und wird für eine Überweisung akzeptiert.
Bei einer Schweizer IBAN ist die Länderkennung CH und nach den beiden Prüfziffern folgen
nur 17 Stellen (statt 18), bei einer österreichischen kommen nach der Länderkennung AT und
den beiden Prüfziffern noch 16 Stellen.
Wie müssen in den folgenden Beispielen die Prüfziffern lauten, damit die IBANs gültig sind?
a) DE?? 1509 1704 0120 6889 79
b) AT?? 2011 1826 9136 0700

3.8. Sei n ∈ N. Zeigen Sie:


a) Die Abbildung Z → Z/n, k → MODn (k), ist ein Gruppenhomomorphismus von (Z, +)
nach (Z/n, +n ).
b) Die Abbildung Z → Ωn , k → e2πik/n , ist ein Gruppenhomomorphismus von (Z, +) nach
(Ωn, ·).
c) In beiden Fällen ist der Kern des Homomorphismus nZ.

3.9. Sei n ∈ N, n ≥ 2. Wir definieren eine Multiplikation auf Z/n so ähnlich, wie wir es mit
der Addition gemacht haben, nämlich durch

k ·n l := MODn (k · l) für alle k, l ∈ Z/n = {0, 1, . . . , n − 1}.

Zeigen Sie:
a) (Z/n, +n, ·n ) ist ein Ring.
b) Die Abbildung f : k → MODn (k) ist ein einserhaltender Ringhomomorphismus von
(Z, +, ·) nach (Z/n, +n, ·n ).

3.10. Sei X eine Menge und R := P(X) ihre Potenzmenge. Für A, B ∈ R definieren wir die
symmetrische Differenz

AΔB := (A \ B) ∪ (B \ A).

Für A, B ∈ R sind AΔB und A ∩ B selbstverständlich wieder Elemente von R.


174 3. Algebraische Grundbegriffe

a) Zeigen Sie: (R, Δ, ∩) ist ein kommutativer Ring mit Eins.

b) Welche Elemente von R sind invertierbar bzgl. der „Multiplikation“ ∩?

c) Für welche Mengen X ist R ein Körper?

3.11. Hier behandeln wir eine alternative Möglichkeit, die komplexen Zahlen einzuführen.
Sei dazu
  
x −y 
R := x, y ∈ R ,
y x 

versehen mit der komponentenweisen Addition “+” und der Matrixmultiplikation “·”. Zeigen
Sie:

a) (R, +, ·) ist ein Unterring von (Mat(2 × 2, R), +, ·).

b) (R, +, ·) ist isomorph zum Körper C der komplexen Zahlen (mit der üblichen Addition und
Multiplikation).

3.12. Sei R = Abb(X, R) der Ring der reellen Funktionen auf einer Menge X wie in Bei-
spiel 3.46.
Zeigen Sie: Hat X mehr als ein Element, so ist R nicht nullteilerfrei.

3.13. Sei R := {x + iy | x, y ∈ Z}. Man nennt die Elemente von R Gauß’sche Zahlen.

a) Zeigen Sie, dass R ein Unterring von C ist.

b) Zeigen Sie, dass für jedes z ∈ R gilt |z| 2 ∈ Z.

c) Zeigen Sie, dass für jedes multiplikativ invertierbare Element z ∈ R gilt |z| = 1.

d) Bestimmen Sie alle multiplikativ invertierbaren Elemente von R.




3.14. Sei ρ+ = ei 3 = − 12 + 23 i die dritte Einheitswurzel, wie sie schon mehrfach vorkam.
Wir setzen R := {x + yρ+ | x, y ∈ Z}. Man nennt die Elemente von R Eisensteinzahlen.

a) Zeigen Sie, dass R ein Unterring von C ist.


Hinweis: Rechnen Sie nach, dass 1 + ρ+ + ρ2+ = 0.

b) Zeigen Sie, dass für jedes z ∈ R gilt: |z| 2 ∈ Z.

c) Zeigen Sie, dass für jedes multiplikativ invertierbare Element z ∈ R gilt: |z| = 1.

d) Bestimmen Sie alle multiplikativ invertierbaren Elemente von R.

e) Zeichnen Sie alle Eisensteinzahlen z mit |z| ≤ 2.


3.5. Aufgaben 175

3.15. Sei K ein Körper. Für a, b ∈ K mit b  0 führen wir die Bruchnotation ab := a · b−1 ∈ K
ein. Beweisen Sie die nachfolgenden Regeln der Bruchrechnung in K. Geben Sie bei jeder
Umformung an, welche Körper- oder Ringeigenschaft (z.B. aus Definition 3.44, 3.64 oder
Lemma 3.56) Sie dabei benutzen.
λa
a) Für alle a ∈ K und b, λ ∈ K × gilt: λb = a
b (Erweitern und Kürzen)
μ·a
b) Für alle a, μ ∈ K und b ∈ K × gilt: μ · a
b = b . (Produkt von Bruch mit Zahl)
c) Für alle a, c ∈ K und b, d ∈ K × gilt: a
b · c
d = a·c
b·d . (Produkt zweier Brüche)

d) Für alle a, c ∈ K und b, d ∈ K × gilt: ab + dc = a·d+b·c


b·d . (Summe zweier Brüche)
  −1 b
e) Für alle a, b ∈ K × gilt: ab = a . (Inverses eines Bruchs)
−a
f) Für alle a ∈ K und b ∈ K × gilt: − ab = b = a
−b . (Negatives eines Bruchs)

3.16. Zeigen Sie, dass


√ √
Q[ 2] := {x ∈ R | ∃q, p ∈ Q : x = q + p · 2}
ein Unterkörper von R ist.

3.17. Da 4 keine Primzahl ist, ist Z/4 kein Körper. Es gibt aber sehr wohl einen Körper mit 4
Elementen, wie diese Aufgabe zeigt.
Sei dazu K = {0, 1, α, β}. Wir definieren die Addition und die Multiplikation mittels folgender
Tabellen:

+ 0 1 α β · 0 1 α β
0 0 1 α β 0 0 0 0 0
1 1 0 β α 1 0 1 α β
α α β 0 1 α 0 α β 1
β β α 1 0 β 0 β 1 α
Tab. 23 Verknüfungstabellen von K

a) Zeigen Sie, dass (K, +, ·) ein Körper ist.


b) Zeigen Sie, dass es einen zu Z/2 isomorphen Unterkörper von K gibt.

3.18. In Aufgabe 3.10 wurde gezeigt, dass (R, Δ, ∩) ein Ring ist, wobei X eine Menge ist,
R = P(X) und AΔB = (A \ B) ∪ (B \ A). Insbesondere ist also (R, Δ) eine abelsche Gruppe.
Wir definieren • : F2 × R → R durch 0 • A := ∅ und 1 • A := A.
Zeigen Sie, dass (R, Δ, •) ein F2 -Vektorraum ist.

3.19. Sei V ein K-Vektorraum und seien W1, . . . , Wn ⊂ V Untervektorräume. Wir setzen
V1 := (W1 + W2 ) ∩ W3 und V2 := (W1 ∩ W3 ) + (W2 ∩ W3 ).
176 3. Algebraische Grundbegriffe

a) Zeigen Sie: L(W1 ∪ . . . ∪ Wn ) = W1 + . . . + Wn .

b) Beweisen Sie bzw. widerlegen Sie durch Gegenbeispiel: V1 ⊂ V2 .

c) Beweisen Sie bzw. widerlegen Sie durch Gegenbeispiel: V2 ⊂ V1 .

3.20. Sei K = R und V = Abb(R, R). Zeigen Sie, dass X = {gk | k ∈ N0 } ∪ {h k | k ∈ N} linear
unabhängig ist, wobei gk und h k wie in Beispiel 3.96 sind.

3.21. Sei K ein Körper und K  ⊂ K ein Unterkörper. Sei V ein K-Vektorraum. In Beispiel 3.77
wurde erläutert, dass V dann auch ein K -Vektorraum ist. Sei X ⊂ V. Zeigen Sie: Ist X linear
unabhängig über K, so auch über K .
4. Lineare Abbildungen

Das Leben ist dynamisch. Linear


ist Wunschdenken.

(Torsten Marold)

Nun kommen wir zum zentralen Gegenstand der linearen Algebra, den linearen Abbildungen
zwischen Vektorräumen.

4.1. Grundlegende Definitionen

Definition 4.1. Sei K ein Körper und seien V und W zwei K-Vektorräume. Eine Abbildung
ϕ : V → W heißt K-linear oder K-Vektorraumhomomorphismus, falls gilt:

1. Die Abbildung ϕ ist ein Gruppenhomomorphismus bzgl. der Addition, d.h. für alle
v, v  ∈ V gilt
ϕ(v + v ) = ϕ(v) + ϕ(v ) .

2. Für jedes v ∈ V und jedes λ ∈ K ist

ϕ(λ · v) = λ · ϕ(v) .

Bemerkung 4.2. Ist aus dem Kontext klar, welcher Körper zugrunde gelegt wird, so sagt man
auch einfach ϕ sei linear bzw. ein Vektorraumhomomorphismus.

Bemerkung 4.3. Die beiden Bedingungen aus Definition 4.1 lassen sich zu einer zusammen-
fassen:
Für alle v, v  ∈ V und alle λ, λ ∈ K gilt:

ϕ(λ · v + λ · v ) = λ · ϕ(v) + λ · ϕ(v ) . (4.1)

Aus (4.1) folgt mit λ = λ = 1 die Bedingung 1 und mit λ = 0 die Bedingung 2. Umgekehrt
folgt aus 1 und 2 zusammen auch das Axiom (4.1), denn:
1 2
ϕ(λ · v + λ · v ) = ϕ(λ · v) + ϕ(λ · v ) = λ · ϕ(v) + λ · ϕ(v ) .

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_4
178 4. Lineare Abbildungen

Beispiel 4.4. Sei K ein beliebiger Körper und seien V und W beliebige K-Vektorräume. Dann
ist die Nullabbildung ϕ : V → W, die jeden Vektor aus V auf den Nullvektor aus W abbildet,
linear. Sind nämlich v, v  ∈ V und λ, λ ∈ K, dann gilt:

ϕ(λ · v + λ · v ) = 0 = λ · 0 + λ · 0 = λ · ϕ(v) + λ · ϕ(v ).

Ist V = W, dann ist auch die Identität ψ = idV : V → V linear, denn

ψ(λ · v + λ · v ) = λ · v + λ · v  = λ · ψ(v) + λψ(v ).

Beispiel 4.5. Sei zunächst K = R, V = W = R und ϕ(x) = x 2 . Dann ist ϕ nicht linear, denn
wir haben z.B. ϕ(1 + 1) = (1 + 1)2 = 4, aber ϕ(1) + ϕ(1) = 12 + 12 = 2.
Ist aber K = F2 , V = W = F2 und ϕ(x) = x 2 , dann gilt ϕ(0) = 02 = 0 und ϕ(1) = 12 = 1. Also
ist ϕ = idF2 und somit linear.

Beispiel 4.6. Sei K ein Körper, V = K m und W = K n . Sei A ∈ Mat(n × m, K). Dann sagen uns
Satz 3.50 (vii) und Gleichung (3.2), dass die Abbildung

K m → K n, x → A · x,

linear ist. Wir werden sehen, dass jede lineare Abbildung K m → K n von dieser Form ist, d.h.
zu einer Matrix aus Mat(n × m, K) gehört.

Beispiel 4.7. Sei K = R, V = C 1 (R, R) der Vektorraum der stetig differenzierbaren reellen
Funktionen und W = C 0 (R, R) der Vektorraum der stetigen reellen Funktionen. Dann lernt
man in der Analysis, dass die Differentiationsabbildung
d df
: C 1 (R, R) → C 0 (R, R), f → = f ,
dx dx
linear ist.

Beispiel 4.8. Sei K = R, V = C 0 ([a, b], R) und W = R. Hier ist a < b vorausgesetzt. Wiederum
in der Analysis lernt man, dass die Integrationsabbildung

∫b
C ([a, b], R) → R,
0
f → f (x) dx,
a

linear ist.

Beispiel 4.9. Sei nun V = W = C. Ist die komplexe Konjugation ϕ : C → C, ϕ(z) = z̄, linear?
Das kommt darauf an, ob wir C als reellen oder als komplexen Vektorraum auffassen. Nach
Satz 2.110 ist die Additivität in Ordnung,

ϕ(z + z) = z + z = z̄ + z̄ = ϕ(z) + ϕ(z).


4.1. Grundlegende Definitionen 179

Sind λ, z ∈ C, dann gilt


ϕ(λ · z) = λ · z = λ̄ · z̄ = λ̄ · ϕ(z).
Für die Linearität brauchen wir jedoch ϕ(λ · z) = λ · ϕ(z). Für reelle λ ist das ok, denn dann ist
λ̄ = λ. Für nichtreelle komplexe λ ist λ̄  λ. Kurz: ϕ ist R-linear, aber nicht C-linear.

Satz 4.10. Seien V und W zwei K-Vektorräume und sei ϕ : V → W eine lineare Abbildung.
Dann gilt:

(i) Es ist ϕ(0) = 0.

(ii) Für alle v, v  ∈ V ist ϕ(v − v ) = ϕ(v) − ϕ(v ).

(iii) Für alle v1, . . ., vn ∈ V und für alle λ1, . . ., λn ∈ K ist

ϕ(λ1 v1 + . . . + λn vn ) = λ1 ϕ(v1 ) + . . . + λn ϕ(vn ) . (4.2)

(iv) Ist V  ⊂ V ein Untervektorraum von V, so ist ϕ(V ) ⊂ W ein Untervektorraum von W.

(v) Ist W  ⊂ W ein Untervektorraum von W, so ist ϕ−1 (W ) ⊂ V ein Untervektorraum


von V.

(vi) Ist Z ein weiterer K-Vektorraum und ψ : W → Z eine weitere lineare Abbildung, dann
ist auch ψ ◦ ϕ : V → Z linear.

(vii) Ist ϕ bijektiv, so ist die Umkehrabbildung ϕ−1 : W → V ebenfalls linear.

Beweis. Aussagen (i) und (ii) folgen aus Proposition 3.30 und der Tatsache, dass ϕ ein Grup-
penhomomorphismus von (V, +) nach (W, +) ist.

Aussage (iii) zeigt man mittels vollständiger Induktion nach n. Für n = 1 ist die Aussage klar
aufgrund der Definition von Linearität. Sei nun n ≥ 2 und die Aussage für weniger als n
Summanden bewiesen. Dann berechnen wir:

ϕ(λ1 v1 + . . . + λn vn ) = ϕ(λ1 v1 + . . . + λn−1 vn−1 ) + ϕ(λn vn )


= λ1 ϕ(v1 ) + . . . + λn−1 ϕ(vn−1 ) + λn ϕ(vn ). (4.3)

Dabei haben wir bei der Umformung (4.3) die Induktionsannahme benutzt.

Zu (iv):
Wegen (i) ist 0 = ϕ(0) ∈ ϕ(V ). Sind w1, w2 ∈ ϕ(V ) und λ1, λ2 ∈ K, dann können wir v j ∈ V
wählen, so dass ϕ(v j ) = w j und wir berechen:

λ1 w1 + λ2 w2 = λ1 ϕ(v1 ) + λ2 ϕ(v2 ) = ϕ(λ1 v1 + λ2 v2 ) ∈ ϕ(V ).


180 4. Lineare Abbildungen

Zu (v):
Wegen (i) ist ϕ(0) = 0 ∈ W  und damit 0 ∈ ϕ−1 (W ). Seien v1, v2 ∈ ϕ−1 (W ) und λ1, λ2 ∈ K.
Dann gilt
ϕ(λ1 v1 + λ2 v2 ) = λ1 ϕ(v1 ) + λ2 ϕ(v2 ) ∈ W ,
also λ1 v1 + λ2 v2 ∈ ϕ−1 (W ).

Zu (vi):
Für v1, v2 ∈ V und λ1, λ2 ∈ K rechnen wir nach:

(ψ ◦ ϕ)(λ1 · v1 + λ2 · v2 ) = ψ(ϕ(λ1 · v1 + λ2 · v2 ))
= ψ(λ1 · ϕ(v1 ) + λ2 · ϕ(v2 ))
= λ1 · ψ(ϕ(v1 )) + λ2 · ψ(ϕ(v2 ))
= λ1 · (ψ ◦ ϕ)(v1 ) + λ2 · (ψ ◦ ϕ)(v2 ).

Zu (vii):
Wegen Proposition 3.30 (iii) ist ϕ−1 auch additiv, d.h. erfüllt Bedingung 1 in Definition 4.1.
Sei nun w ∈ W und λ ∈ K. Setze v := ϕ−1 (w). Wenden wir ϕ−1 auf beide Seiten von
λ · ϕ(v) = ϕ(λ · v) an, so erhalten wir

ϕ−1 (λ · w) = ϕ−1 (λ · ϕ(v)) = ϕ−1 (ϕ(λ · v)) = λ · v = λ · ϕ−1 (w).

Damit erfüllt ϕ−1 auch Bedingung 2 aus Definition 4.1. 

Definition 4.11. Seien V und W zwei K-Vektorräume und sei ϕ : V → W linear. Dann heißt

ker(ϕ) := ϕ−1 ({0}) = {v ∈ V | ϕ(v) = 0}

der Kern von ϕ.

Wie für jede Abbildung heißt im(ϕ) = ϕ(V) ⊂ W das Bild von ϕ.

Korollar 4.12. Seien V und W zwei K-Vektorräume und sei ϕ : V → W linear. Dann sind
ker(ϕ) ⊂ V und im(ϕ) ⊂ W Untervektorräume.

Beweis. Offensichtlich ist ker(ϕ) = ϕ−1 ({0}) und im(ϕ) = ϕ(V). Da nun {0} ⊂ W und V ⊂ V
Untervektorräume sind, folgt die Behauptung aus Satz 4.10. 

Aus Proposition 3.34 (ii) und (iv) erhalten wir ferner:


4.1. Grundlegende Definitionen 181

Korollar 4.13. Seien V und W zwei K-Vektorräume und sei ϕ : V → W linear. Dann ist ϕ
surjektiv genau dann, wenn im(ϕ) = W und injektiv genau dann, wenn ker(ϕ) = {0}. 

Beispiel 4.14. Sei K ein Körper und ϕ : K m → K n , ϕ(x) = A · x, wie in Beispiel 4.6 durch
Multiplikation mit der Matrix A gegeben. Dann ist der Kern von ϕ

ker(ϕ) = {x ∈ K m | A · x = 0} = Lös(A, 0)

nichts anderes als die Lösungsmenge des homogenen linearen Gleichungssystems A · x = 0.


Somit stellt sich Satz 2.17, der für K = R besagt, dass Lös(A, 0) ein Untervektorraum von Rm
ist, als Spezialfall von Korollar 4.12 heraus.
Allgemeiner ist für b ∈ K n die Menge ϕ−1 ({b}) die Lösungsmenge des inhomogenen linearen
Gleichungssystems A · x = b.

Beispiel 4.15. Ist K = R und ϕ = dx


d
: C 1 (R, R) → C 0 (R, R) wie in Beispiel 4.7, dann enthält
der Kern von ϕ genau die C -Funktionen mit Ableitung 0. Das sind genau die konstanten
1

Funktionen. Also ist


ker(ϕ) = R · 1
ein eindimensionaler Untervektorraum des unendlich-dimensionalen Vektorraums C 1 (R, R).
Hierbei bezeichnet 1 die konstante Funktion mit 1(x) = 1 für alle x ∈ R. Insbesondere ist
ϕ = dx
d
nicht injektiv.

Definition 4.16. Sei K ein Körper und seien V und W zwei K-Vektorräume. Eine lineare
Abbildung ϕ : V → W heißt

(K-Vektorraum-) Monomorphismus, falls ϕ injektiv ist,


(K-Vektorraum-) Epimorphismus, falls ϕ surjektiv ist,
(K-Vektorraum-) Isomorphismus, falls ϕ bijektiv ist,
(K-Vektorraum-) Endomorphismus, falls V = W,
und (K-Vektorraum-) Automorphismus, falls V = W und ϕ bijektiv ist.

Zwei K-Vektorräume V und W heißen isomorph , falls es einen Vektorraumisomorphismus


ϕ : V → W gibt. Wir schreiben in diesem Fall V  W.

Wir verwenden folgende Notationen:

HomK (V, W) := {ϕ : V → W | ϕ ist K-linear} ,


EndK (V) := HomK (V, V) ,
AutK (V) := {ϕ ∈ EndK (V ) | ϕ ist bijektiv}.
182 4. Lineare Abbildungen

Ist aus dem Kontext klar, welcher Körper K zugrunde gelegt wird, so schreiben wir auch
Hom(V, W) statt HomK (V, W) und analog für EndK (V) sowie AutK (V ).

Bemerkung 4.17. Seien V und W zwei K-Vektorräume und sei ϕ : V → W linear. Ist X ⊂ V
ein Erzeugendensystem von V, so ist ϕ(X) ⊂ W ein Erzeugendensystem des Bildes ϕ(V). Denn
für jedes w ∈ ϕ(V) gibt es ein v ∈ V mit ϕ(v) = w. Da nun X ein Erzeugendensystem von V
n
ist, so gibt es λ1, . . . , λn ∈ K und v1, . . ., vn ∈ X mit v = i=1 λi vi . Damit ist
$n % n
w = ϕ(v) = ϕ λi vi = λi ϕ(vi ).
i=1 i=1

Insbesondere sehen wir: Ist V endlich-dimensional, dann ist auch das Bild ϕ(V) endlich-
dimensional. Ist X eine Basis von V , dann ist

dim(V ) = #X ≥ #ϕ(X) ≥ dim(ϕ(V)).

Definition 4.18. Sei K ein Körper, seien V und W zwei K-Vektorräume und sei ϕ : V → W
linear. Dann heißt rg(ϕ) := dim(im(ϕ)) der Rang von ϕ.

Satz 4.19 (Dimensionsformel für lineare Abbildungen). Sei K ein Körper und seien V
und W zwei K-Vektorräume mit dim(V ) < ∞. Sei ferner ϕ : V → W eine lineare Abbildung.
Dann gilt
dim V = dim ker(ϕ) + rg(ϕ) . (4.4)

Beweis. Nach Voraussetzung ist V endlich-dimensional, also auch ker(ϕ) ⊂ V . Sei also
dim V =: n und dim ker(ϕ) =: k ≤ n. Zu beweisen ist dann: rg(ϕ) = n − k.
Wir wählen eine Basis {v1, . . ., vk } von ker(ϕ) und ergänzen diese gemäß Satz 3.130 zu einer
Basis {v1, . . ., vk , vk+1, . . ., vn } von V. Dann ist {v1, . . ., vn } insbesondere ein Erzeugendensys-
tem von V, und nach Bemerkung 4.17 ist {ϕ(v1 ), . . ., ϕ(vn )} ein Erzeugendensystem von ϕ(V).
Da aber v1, . . ., vk ∈ ker(ϕ), also ϕ(v1 ) = . . . = ϕ(vk ) = 0, ist bereits {ϕ(vk+1 ), . . ., ϕ(vn )} ein
Erzeugendensystem von ϕ(V).
Wir zeigen, dass {ϕ(vk+1 ), . . . , ϕ(vn )} linear unabhängig ist: Seien also λ k+1, . . ., λn ∈ K mit
λ k+1 ϕ(vk+1 ) + . . . + λn ϕ(vn ) = 0. Da ϕ linear ist, haben wir ϕ(λ k+1 vk+1 + . . . + λn vn ) = 0,
d.h. w := λ k+1 vk+1 + . . . + λn vn ∈ ker(ϕ). Es gibt also Koeffizienten μ1, . . ., μk , so dass
w = μ1 v1 + . . . + μk vk . Damit ist

0 = w − w = μ1 v1 + . . . + μk vk + (−λ k+1 )vk+1 + . . . + (−λn )vn .

Da aber {v1, . . ., vn } eine Basis von V, also insbesondere linear unabhängig ist, folgt μi = 0
für i = 1, . . ., k und λ j = 0 für j = k + 1, . . ., n. Folglich ist {ϕ(vk+1 ), . . ., ϕ(vn )} ein linear
unabhängiges Erzeugendensystem, d.h. eine Basis von ϕ(V).
Damit ist rg(ϕ) = dim ϕ(V) = n − k wie behauptet. 
4.1. Grundlegende Definitionen 183

Wir erhalten nun ein Analogon zum Hotelzimmerlemma 1.72 für lineare Abbildungen. Im
Gegensatz zum Hotelzimmerlemma brauchen die Vektorräume V und W zwischen denen
die lineare Abbildung vermittelt, keine endlichen Mengen zu sein, sondern lediglich endlich-
dimensional.

Korollar 4.20. Seien V und W zwei K-Vektorräume mit dim V = dim W < ∞. Sei ϕ : V →
W eine lineare Abbildung. Dann sind folgende Aussagen äquivalent:

(1) Die Abbildung ϕ ist injektiv (d.h. ein Monomorphismus).

(2) Die Abbildung ϕ ist surjektiv (d.h. ein Epimorphismus).

(3) Die Abbildung ϕ ist bijektiv (d.h. ein Isomorphismus).

Beweis. Es genügt, die Äquivalenz der Aussagen (1) und (2) zu zeigen, denn (1) und (2)
zusammen sind offensichtlich äquivalent zu (3). Wir finden:
(1), d.h. ϕ ist injektiv ⇐⇒ ker(ϕ) = {0}
⇐⇒ dim ker(ϕ) = 0
(4.4)
⇐⇒ dim V = dim im(ϕ)
⇐⇒ dim W = dim im(ϕ)
⇐⇒ W = im(ϕ) nach Korollar 3.131
⇐⇒ (2), d.h. ϕ ist surjektiv. 

Bemerkung 4.21. Das Korollar gilt nicht für ∞-dimensionale Vektorräume V.

Beispiel 4.22. Sei K = R und sei V = C 1 (R, R) sowie W = C 0 (R, R). Dann ist dim V =
dim W = ∞. Die Differentiationsabbildung dx d
: V → W aus Beispiel 4.7 ist nicht injektiv, wie
bereits in Beispiel 4.15 festgestellt. Sie ist aber surjektiv, denn jedes f ∈ C∫0 (R, R) besitzt eine
x
Stammfunktion F ∈ C 1 (R, R), die dx d
F = f erfüllt. Man kann z.B. F(x) = 0 f (t) dt nehmen.

Beispiel 4.23. Hier ein Beispiel eines Endomorphismus, der injektiv, aber nicht surjektiv ist.
Sei K ein beliebiger Körper und V = Abb(N, K) der K-Vektorraum der K-wertigen Folgen.
Man zeigt leicht, dass die Abbildung
ϕ : V → V, (a1, a2, a3, . . .) → (0, a1, a2, a3, . . .),
linear ist. Ist (a1, a2, a3, . . .) ∈ ker(ϕ), dann ist (0, a1, a2, a3, . . .) = (0, 0, 0, 0, . . .). Daher sind
alle a j = 0 und damit ist die ursprüngliche Folge die Nullfolge. Der Kern von ϕ ist also der
Nullvektorraum, d.h. ϕ ist injektiv.
Dagegen ist ϕ nicht surjektiv, da jede Folge, die nicht mit 0 beginnt, nicht im Bild von ϕ liegt.
184 4. Lineare Abbildungen

4.2. Lineare Abbildungen und Matrizen


Wir wollen nun abklären, wie lineare Abbildungen mit Matrizen zusammenhängen. In Bei-
spiel 4.6 haben wir gesehen, wie eine Matrix A ∈ Mat(n × m, K) zu einer linearen Abbildung
ϕ A : K m → K n führt, nämlich durch die Definition ϕ A(x) = A · x. Jetzt wollen wir uns über-
legen, dass jede lineare Abbildung ϕ : K m → K n von dieser Form ist, d.h. von einer Matrix
herkommt.
Sei also ϕ : K m → K n eine lineare Abbildung. Sei (e1, . . . , em ) die geordnete Standardbasis
von K m . Wir definieren a j ∈ K n durch a j := ϕ(e j ). Sei nun A die n × m-Matrix mit den
Spaltenvektoren a1, . . ., am , d.h. A = (a1, . . ., am ) ∈ Mat(n × m, K). Wir überprüfen nun,
dass die durch diese Matrix gegebene lineare Abbildung ϕ A mit der ursprünglichen linearen
Abbildung ϕ übereinstimmt. Sei x ∈ K m . Dann gilt:

$ % 
x1
m m
   m
. 
ϕ(x) = ϕ xj ej = xj ϕ ej = x j a j = (a1, . . ., am ) ..  = A · x = ϕ A(x).

j=1 j=1 j=1
xm 
Also ist ϕ = ϕ A. Wir sehen hier nicht nur, dass jede lineare Abbildung K m → K n von
einer Matrix herkommt, sondern auch wie wir diese Matrix zu einer gegebenen linearen
Abbildung finden. Wir müssen die Matrix nehmen, deren Spaltenvektoren die Bilder der
Standardbasisvektoren unter der linearen Abbildung sind. Dabei ist es wichtig, dass wir die
geordnete Standardbasis genommen haben, da die Reihenfolge der Spaltenvektoren der Matrix
von der Reihenfolge der Standardbasisvektoren abhängt. Fassen wir kurz zusammen:

Proposition 4.24. Sei K ein Körper. Dann ist die Zuordnung Mat(n×m, K) → Hom(K m, K n )
gegeben durch A → ϕ A bijektiv, wobei

ϕ A(x) = A · x.

Die Umkehrabbildung Hom(K m, K n ) → Mat(n × m, K) ist gegeben durch

ϕ → (ϕ(e1 ), . . ., ϕ(em )). 

Definition 4.25. Für ϕ ∈ Hom(K m, K n ) schreiben wir

M(ϕ) := (ϕ(e1 ), . . ., ϕ(em )) ∈ Mat(n × m, K)

und nennen M(ϕ) die darstellende Matrix von ϕ.

Beispiel 4.26. Bestimmen wir die Matrix, die die Drehung (um den Ursprung, im mathema-
tisch positiven Sinn) um den Winkel θ in der Ebene beschreibt. Eine solche Drehung ist eine
4.2. Lineare Abbildungen und Matrizen 185

lineare Abbildung R2 → R2 über dem Körper K = R. Zur Bestimmung der Matrix müssen wir
lediglich die Bilder der beiden Standardbasisvektoren finden.
Drehen wir e1 = (1, 0) um den Winkel θ, so erhalten wir (cos θ, sin θ) . Drehen wir e2 =
(0, 1) , so ergibt sich (− sin θ, cos θ) .

0 
1 cos θ 
− sin θ  sin θ
cos θ θ
θ
1 
0

Abb. 67 Drehung um den Winkel θ

Somit wird die Drehung beschrieben durch die Drehmatrix


 
cos θ − sin θ
Rθ := .
sin θ cos θ

Bemerkung 4.27. Sind ϕ ∈ Hom(K m, K n ) und ψ ∈ Hom(K n, K l ), dann gilt wegen


Satz 3.50 (v) für alle x ∈ K m

M(ψ ◦ ϕ) · x = (ψ ◦ ϕ)(x) = ψ(ϕ(x)) = M(ψ) · ϕ(x)


= M(ψ) · (M(ϕ) · x) = (M(ψ) · M(ϕ)) · x

und somit
M(ψ ◦ ϕ) = M(ψ) · M(ϕ). (4.5)
Ist ϕ ein Automorphismus, ϕ ∈ AutK (K n ), dann gilt

M(ϕ−1 ) · M(ϕ) = M(ϕ−1 ◦ ϕ) = M(idK n ) = 1n

und analog M(ϕ) · M(ϕ−1 ) = 1n . Also ist die Matrix M(ϕ) invertierbar mit M(ϕ)−1 = M(ϕ−1 ).
Ähnlich sieht man, dass umgekehrt ϕ ein Automorphismus ist, falls die darstellende Matrix
M(ϕ) invertierbar ist.

Definition 4.28. Wir nennen GL(n, K) := {A ∈ Mat(n × n, K) | A ist invertierbar} die allge-
meine lineare Gruppe.

Also ist ϕ ∈ AutK (K n ) genau dann, wenn M(ϕ) ∈ GL(n, K).


186 4. Lineare Abbildungen

Wir haben gesehen, dass lineare Abbildungen K m → K n den n × m-Matrizen entsprechen. Wie
sieht das bei linearen Abbildungen zwischen allgemeinen Vektorenräumen V → W aus? Wir
werden sehen, dass man lineare Abbildungen zwischen allgemeinen endlich-dimensionalen
Vektorräumen ebenfalls durch Matrizen beschreiben kann. Dazu benötigen wir allerdings
noch Basen der betreffenden Vektorräume.

Lemma 4.29. Sei K ein Körper und V ein K-Vektorraum. Sei B = (v1, . . . , vn ) ein n-Tupel
paarweise verschiedener Vektoren in V. Dann ist die Abbildung ΨB : K n → V gegeben durch

ΨB (x1, . . ., xn ) = x1 v1 + . . . + xn vn,

ein

(i) Monomorphismus genau dann, wenn {v1, . . . , vn } linear unabhängig ist,

(ii) Epimorphismus genau dann, wenn {v1, . . . , vn } ein Erzeugendensystem von V ist,

(iii) Isomorphismus genau dann, wenn B eine geordnete Basis von V ist.

Beweis. Wir überprüfen zunächst die Linearität von ΨB . Seien x = (x1, . . ., xn ) , y =


(y1, . . ., yn ) ∈ K n und λ, μ ∈ K. Dann gilt:

ΨB (λx + μy) = ΨB (λx1 + μy1, . . ., λxn + μyn )


= (λx1 + μy1 )v1 + . . . + (λxn + μyn )vn
= λ(x1 v1 + . . . + xn vn ) + μ(y1 v1 + . . . + yn vn )
= λΨB (x) + μΨB (y).

Nun ist ΨB (x) = 0 genau dann, wenn x1 v1 + . . . + xn vn = 0. Also ist ΨB ein Monomorphismus
genau dann, wenn ker(ΨB ) = {0}, d.h. genau dann, wenn x1 v1 + . . . + xn vn = 0 nur mit x = 0
möglich ist. Dies ist gerade die Definition von linearer Unabhängigkeit. Somit ist (i) gezeigt.
Zu (ii): Aufgrund der Definition ist im(ΨB ) = L({v1, . . ., vn }). Insbesondere ist ΨB ein Epi-
morphismus genau dann, wenn L({v1, . . ., vn }) = V, d.h. genau dann, wenn {v1, . . . , vn } ein
Erzeugendensystem von V ist.
Aussage (iii) ist eine Kombination von (i) und (ii). 

Korollar 4.30. Sei K ein Körper und V ein n-dimensionaler K-Vektorraum mit n ∈ N0 .
Dann ist
V  Kn.

Beweis. Wähle eine Basis B = {v1, . . . , vn } von V. Dann liefert nach Lemma 4.29 einen
Isomorphismus ΨB : K n → V. 
4.2. Lineare Abbildungen und Matrizen 187

Nun können wir auch lineare Abbildungen zwischen beliebigen endlich-dimensionalen


K-Vektorräumen durch Matrizen darstellen.

Definition 4.31. Sei V ein n-dimensionaler K-Vektorraum mit geordneter Basis A =


(a1, . . . , an ) und W ein m-dimensionaler K-Vektorraum mit geordneter Basis B =
(b1, . . ., bm ). Sei ϕ : V → W eine lineare Abbildung. Dann haben wir zusammen mit
den Isomorphismen Ψ A : K n → V und ΨB : K m → W folgendes kommutative Diagramm:
ϕ
VO /W
O
ΨA ΨB

Kn / Km
−1 ◦ϕ◦Ψ
ΨB A

Die darstellende Matrix von ϕ bzgl. der geordneten Basen A und B ist die m × n-Matrix

MBA(ϕ) := M(ΨB−1 ◦ ϕ ◦ Ψ A) ∈ Mat(m × n, K) . (4.6)

Die darstellende Matrix einer linearen Abbildung ϕ : K n → K m ist ein Spezialfall der Defini-
tion 4.31, indem wir als Basen von K n bzw. K m die geordneten Standardbasen nehmen. Für
die geordnete Standardbasis A = (e1, . . . , en ) von K n gilt nämlich Ψ A = idK n und analog für
die geordnete Standardbasis von K m . Also gilt dann

MBA(ϕ) = M(ΨB−1 ◦ ϕ ◦ Ψ A) = M(id−1


K m ◦ ϕ ◦ idK n ) = M(ϕ).

Bemerkung 4.32. Wir wollen nun die Einträge der darstellenden Matrix


c11 · · · c1n
. .. 
MBA(ϕ) = .. . 

cm1 · · · cmn 

berechnen. Betrachten wir dazu das Bild des Basisvektors a j unter der Abbildung ϕ. Aus der
Definition des Isomorphismus Ψ A folgt unmittelbar Ψ A(e j ) = a j , wobei e j der j-te Standard-
basisvektor von K n ist. Somit ist

ϕ(a j ) = ϕ(Ψ A(e j ))


= ΨB ◦ (ΨB−1 ◦ ϕ ◦ Ψ A)(e j )
= ΨB (M(ΨB−1 ◦ ϕ ◦ Ψ A) · e j )
(4.6)
= ΨB (MBA(ϕ) · e j )
188 4. Lineare Abbildungen

c1 j
. 
= ΨB .. 

 cm j  
m
= ΨB ci j ei
i=1

m
= ci j bi .
i=1

Wir können die Einträge ci j der darstellenden Matrix MBA(ϕ) also berechnen, indem wir die
Bilder ϕ(a j ) der Basisvektoren aus A unter der Abbildung ϕ als Linearkombination bezüglich
der geordneten Basis B ausdrücken. Die dabei auftretenden Koeffizienten sind die Einträge der
darstellenden Matrix MBA(ϕ).

Beispiel 4.33. Sei K = R und k ∈ N0 . Mit Rk [x] bezeichnen wir die Menge der reellen
Polynomfunktionen vom Grad ≤ k. In anderen Worten,

Rk [x] = L( f0, f1, . . ., fk ),

wobei f j (x) = x j . Nun ist Rk [x] ein Untervektorraum von C ∞ (R, R) mit geordneter Basis
( f0, . . . , fk ). Insbesondere ist dim(Rk [x]) = k + 1.
Sei V = Rk [x] und W = Rk−1 [x]. Sei

ϕ = d/dx : V → W , f → f  ,

die Differentiationsabbildung aus Beispiel 4.7. Wähle A = ( f0, f1, . . ., fk ) als geordnete Basis
von V und B = ( f0, f1, . . . , fk−1 ) als geordnete Basis von W. Aus der Analysis wissen wir, dass
ϕ( f j ) = f j = j · f j−1 . Damit erhalten wir die darstellende Matrix

0 1 0··· 0 0


.. 
0 0 2 . 0
. .. . . . . .. .. 
MB (d/dx) = ..
A
. . . . . .
.. 
0 0 . k − 1 0 

0 0 0 ··· 0 k

Proposition 4.34. Sei K ein Körper und seien V, W und Z endlich-dimensionale K-


Vektorräume. Seien A, B und C geordnete Basen von V, W bzw. Z. Dann gilt für alle
linearen Abbildungen ϕ : V → W und ψ : W → Z:

MCA(ψ ◦ ϕ) = MCB (ψ) · MBA(ϕ) . (4.7)


4.2. Lineare Abbildungen und Matrizen 189

Beweis. Wir haben folgendes kommutatives Diagramm:


ϕ ψ
VO /W / ZO
O
ΨA ΨB ΨC

Kn / Km / Kl
−1 ◦ϕ◦Ψ
ΨB −1 ◦ψ◦Ψ
ΨC
A B

Damit erhalten wir für die darstellende Matrix der Verkettung:


MCA(ψ ◦ ϕ) = M(ΨC−1 ◦ (ψ ◦ ϕ) ◦ Ψ A)
 
= M (ΨC−1 ◦ ψ ◦ ΨB ) ◦ (ΨB−1 ◦ ϕ ◦ Ψ A)
(4.5)
= M(ΨC−1 ◦ ψ ◦ ΨB ) · M(ΨB−1 ◦ ϕ ◦ Ψ A)
= MCB (ψ) · MBA(ϕ) . 

Zur Definition der darstellenden Matrix MBA(ϕ) einer linearen Abbildung ϕ : V → W haben
wir geordnete Basen A von V und B von W verwendet. Wir untersuchen nun, wie sich die
darstellende Matrix ändert, wenn wir diese Basen wechseln.

Definition 4.35. Sei V ein n-dimensionaler K-Vektorraum, und seien A und A zwei geord-
nete Basen von V. Dann heißt die darstellende Matrix TAA := M(Ψ−1
A ◦ Ψ A ) ∈ GL(n, K) die
Transformationsmatrix des Basiswechsels von A nach A.

K n NN
NNN Ψ
NNNA
N NNN
N&
Ψ−1 ◦Ψ A  8V
A
pp
p
pppp
ppp
 ppp Ψ A
Kn

Bemerkung 4.36. Für die Transformationsmatrix TAA des Basiswechsels von A nach A gilt:

TAA = M(Ψ−1
A ◦ idV ◦ Ψ A ) = M A (idV ) ,
A

d.h. TAA ist die darstellende Matrix der Identität idV bzgl. der geordneten Basen A (im Vektor-
raum V, wo die Abbildung idV startet) und A (im Zielraum V der Abbildung idV ). Insbesondere
sind die Einträge von TAA nach Bemerkung 4.32 die Koeffizienten ci j der Linearkombinationen
n
a j = i=1 ci j ai der Vektoren der Basis A (im Startraum) durch die Vektoren der Basis A (im
Zielraum). Ferner ist

(TAA )−1 = TAA , (4.8)
denn
  (4.7)  
TAA · TAA = M AA (idV ) · M AA (idV ) = M AA (idV ◦ idV ) = M AA (idV ) = 1n
190 4. Lineare Abbildungen


und analog TAA · TAA = 1n . Außerdem gilt für drei geordnete Basen A, A und A von V, dass

TAA · TAA = TAA , (4.9)

denn

TAA · TAA = M(Ψ−1 −1 −1 −1 −1
A ◦ Ψ A ) · M(Ψ A ◦ Ψ A ) = M(Ψ A ◦ Ψ A ◦ Ψ A ◦ Ψ A ) = M(Ψ A ◦ Ψ A ) = TA .
A

Proposition 4.37 (Transformationsformel für lineare Abbildungen). Sei V ein endlich-


dimensionaler K-Vektorraum mit geordneten Basen A und A, sei W ein endlich-
dimensionaler K-Vektorraum mit geordneten Basen B und B, und sei ϕ : V → W eine
lineare Abbildung. Dann gilt für die darstellenden Matrizen von ϕ bzgl. der verschiedenen
Basen:   −1

MBA (ϕ) = TBB · MBA(ϕ) · TAA . (4.10)

Beweis. Wir berechnen:


 
MBA (ϕ) = MBA (idW ◦ ϕ ◦ idV )
(4.7) 
= MBB (idW ) · MBA(ϕ) · M AA (idV )
(4.8) 
= TBB · MBA(ϕ) · TAA . 

Bemerkung 4.38. Speziell für Endomorphismen ϕ : V → V und geordnete Basen B und B


von V ergibt sich für die darstellende Matrix MBB (ϕ) =: MB (ϕ) die Transformationsformel:

MB (ϕ) = T · MB (ϕ) · T −1 , (4.11)

wobei T := TBB .

Beispiel 4.39. Sei K = R und V = R2 mit der geordneten Standardbasis B = (e1, e2 ). Sei ϕ die
Drehung um den Winkel θ wie in Beispiel 4.26. Dann ist
 
cos θ − sin θ
MB (ϕ) = M(ϕ) = .
sin θ cos θ
   
2 0
Wähle nun B= (b1, b2 ) = , als weitere geordnete Basis von R2 . Wir berechnen
0 1
die Einträge der Transformationsmatrix TBB wie in Bemerkung 4.36 angegeben, indem wir die
Vektoren von B in der Basis B darstellen:
4.2. Lineare Abbildungen und Matrizen 191

e1 = 12 · b1 + 0 · b2 ,
e2 = 0 · b1 + 1 · b2 .

Somit sind die Transformationsmatrix TBB und ihre Inverse gegeben durch:
   
1
0 2 0
TBB = 2 und (TBB )−1 = .
0 1 0 1

Bezüglich der Basis B hat somit die Drehung ϕ die darstellende Matrix

MB (ϕ) = TBB · MB (ϕ) · (TBB )−1


     
1
0 cos θ − sin θ 2 0
= 2 · ·
0 1 sin θ cos θ 0 1
   
1
cos θ − 1
sin θ 2 0
= 2 2 ·
sin θ cos θ 0 1
 
cos θ − 12 sin θ
= .
2 sin θ cos θ

Auch eine Änderung der Reihenfolge der Basisvektoren ändert die darstellende Matrix. Sei
nämlich B = (e2, e1 ) die umgeordnete Standardbasis. Dann sind die Transformationsmatrix
TBB und ihre Inverse gegeben durch
   
0 1 0 1
TBB = und (TBB )−1 = .
1 0 1 0

Bezüglich der Basis B hat somit die Drehung ϕ die darstellende Matrix

MB (ϕ) = TBB · MB (ϕ) · (TBB )−1


     
0 1 cos θ − sin θ 0 1
= · ·
1 0 sin θ cos θ 1 0
   
sin θ cos θ 0 1
= ·
cos θ − sin θ 1 0
 
cos θ sin θ
= .
− sin θ cos θ

Wir sehen also, dass wir tatsächlich geordnete Basen benötigen, um lineare Abbildungen durch
Matrizen zu beschreiben.
192 4. Lineare Abbildungen

 
1
Beispiel 4.40. Sei ϕ : R2→ R2
die Spiegelung an der Achse, die durch den Vektor
1
   
1 −1
aufgespannt wird. Setze b1 := und b2 := .
1 1

b2  
1
= b1
0 1

Abb. 68 Spiegelung an Achse

Dann ist B := (b1, b2 ) eine geordnete Basis von R2 . Ferner ist ϕ(b1 ) = b1 und ϕ(b2 ) = −b2 , so
dass die darstellende Matrix von ϕ bzgl. der Basis B nach Bemerkung 4.32 gegeben ist durch:
 
1 0
MB (ϕ) = .
0 −1
Mittels der Transformationsformel (4.10) können wir die darstellende Matrix von ϕ bzgl. der
Standardbasis B = (e1, e2 ) berechnen: Die Vektoren b1 und b2 sind in der Basis B gegeben
durch b1 = 1 · e1 + 1 · e2 und b2 = −1 · e1 + 1 · e2 . Damit ist die Transformationsmatrix TBB und
ihre Inverse gegeben durch:
   
1 −1 B −1 1 1 1
TB =
B
und (TB ) = .
1 1 2 −1 1

Für die darstellende Matrix der Spiegelung ϕ bzgl. der Standardbasis erhalten wir daher:
     
(4.11) B  B  −1 1 −1 1 0 1 1 1
M(ϕ) = MB (ϕ) = TB · MB (ϕ) · TB = · · ·
1 1 0 −1 2 −1 1
       
1 1 1 1 1 1 0 2 0 1
= · = = .
2 1 −1 −1 1 2 2 0 1 0

Definition 4.41. Zwei Matrizen X, Y ∈ Mat(m × n, K) heißen äquivalent, falls es Matrizen


S ∈ GL(m, K) und T ∈ GL(n, K) gibt, so dass gilt:

Y = S · X · T −1 . (4.12)
4.2. Lineare Abbildungen und Matrizen 193

Zwei Matrizen X, Y ∈ Mat(m × m, K) heißen ähnlich, falls es eine Matrix T ∈ GL(m, K)


gibt, so dass gilt:
Y = T · X · T −1 . (4.13)

Bemerkung 4.42. Ist X zu Y äquivalent, so ist auch Y zu X äquivalent, denn aus Y = S · X ·T −1


folgt X = S −1 · Y · T = S −1 · Y · (T −1 )−1 . Jede Matrix X ist zu sich selbst äquivalent; wähle
S = 1m und T = 1n . Sind schließlich X und Y äquivalent und auch Y und Z äquivalent, so sind
auch X und Z äquivalent. Gilt nämlich Y = S · X · T −1 und Z = S̃ · Y · T̃ −1 , so gilt auch

Z = S̃ · S · X · T −1 · T̃ −1 = (S̃ · S) · X · (T̃ · T)−1 .

Analoge Bemerkungen gelten für ähnliche Matrizen.

Definition 4.43. Eine Abbildung der Form

Mat(n × n, K) → Mat(n × n, K) ,
X → S · X · S −1 ,

mit S ∈ GL(n, K) heißt Ähnlichkeitstransformation.

Bemerkung 4.44. Sind zwei Matrizen ähnlich, so sind sie auch äquivalent (mit S = T),
aber die Umkehrung gilt im Allgemeinen nicht, denn äquivalente Matrizen müssen z.B. nicht
quadratisch sein.

Beispiel 4.45. Seien X = 1n und Y ∈ GL(n, K) mit Y  1n . Dann sind X und Y äquivalent,
denn mit S := Y und T := 1n ist

S · X · T = Y · 1n · 1n = Y .

Anderseits sind X und Y aber nicht ähnlich, denn für jedes T ∈ GL(n, K) ist

T · X · T −1 = T · 1n · T −1 = T · T −1 = 1n  Y .

Die Einheitsmatrix 1n ist nur zu sich selbst ähnlich, aber zu jeder anderen invertierbaren
n × n-Matrix äquivalent.

Bemerkung 4.46. Die Transformationsformel (4.10) zeigt, dass die darstellenden Matrizen
eines Homomorphismus bzgl. verschiedener Basen der beteiligten Vektorräume zueinander
äquivalent sind.
Ist umgekehrt X = MBA(ϕ) die darstellende Matrix eines Homomorphismus ϕ ∈ HomK (V, W)
bzgl. geordneter Basen A = (a1, . . ., an ) von V und B = (b1, . . ., bm ) von W und ist Y zu X
194 4. Lineare Abbildungen

äquivalent, dann schreiben wir Y = S · X · T −1 . Entsprechend Bemerkung 4.36 definieren wir


neue geordnete Basen A = (a1 , . . ., an ) von V und B = (b1, . . ., bm ) von W durch

n 
m
aj := (T −1 )i j ai und bj := (S −1 )i j bi .
i=1 i=1

Dann ist T −1 die Transformationsmatrix des Basiswechsels von A nach A, d.h. T −1 = TAA und

damit T = TAA . Analog ist S = TBB . Nun sagt die Transformationsformel Y = MBA (ϕ).
Also sind zwei Matrizen genau dann äquivalent, wenn sie denselben Homomorphismus bzgl.
möglicherweise verschiedener Basen darstellen.
Genauso sieht man, dass zwei Matrizen X und Y genau dann ähnlich sind, wenn sie densel-
ben Endomorphismus bzgl. möglicherweise verschiedener Basen des Vektorraums darstellen,
d.h. genau dann, wenn X = MB (ϕ) und Y = MB (ϕ).

Beispiel 4.47. Zu θ ∈ R betrachte die Spiegelungsmatrix


 
cos(2θ) sin(2θ)
Sθ := .
sin(2θ) − cos(2θ)
Diese Matrix stellt die Spiegelung an der Achse durch den Ursprung dar, die mit der e1 -Achse
den Winkel θ einschließt. Wir setzen
   
cos(θ) − sin(θ)
vθ := und wθ := .
sin(θ) cos(θ)

Eine kurze Rechnung zeigt, dass die Drehmatrix


 
cos(θ) sin(θ)
S := R−θ =
− sin(θ) cos(θ)

invertierbar ist mit der Inversen S −1 = Rθ = (vθ, wθ ), vgl. auch Aufgabe 4.3. Unter Benutzung
der Additionstheoreme für Sinus und Kosinus rechnet man zunächst nach, dass
     
cos(2θ) sin(2θ) cos(θ) − sin(θ) cos(θ) sin(θ)
· = .
sin(2θ) − cos(2θ) sin(θ) cos(θ) sin(θ) − cos(θ)
Damit erhalten wir
     
−1 cos(θ) sin(θ) cos(2θ) sin(2θ) cos(θ) − sin(θ)
S · Sθ · S = · ·
− sin(θ) cos(θ) sin(2θ) − cos(2θ) sin(θ) cos(θ)
    
cos(θ) sin(θ) cos(θ) sin(θ) 1 0
= · = .
− sin(θ) cos(θ) sin(θ) − cos(θ) 0 −1
 
1 0
Somit ist jede Spiegelungsmatrix Sθ ähnlich zu der Diagonalmatrix .
0 −1
4.2. Lineare Abbildungen und Matrizen 195

Beispiel 4.48. Alice und Bob wollen sich gegenseitig Bilder über das Internet zuschicken.
Der Einfachheit halber beschränken wir uns auf Schwarz-Weiß-Bilder, bei denen jedes Pixel
entweder weiß oder schwarz ist. Ein solches Bild mit n × m vielen Pixeln können wir mathema-
tisch durch eine Matrix X ∈ Mat(n × m, F2 ) beschreiben, wobei ein weißes Pixel durch einen
Eintrag von 0 an der entsprechenden Stelle der Matrix festgelegt wird, und ein schwarzes Pixel
durch 1.
Da im Internet Unbefugte leicht „mithören“ können, beschließen Alice und Bob zum Schutz
ihrer Privatsphäre die Bilder zu verschlüsseln. Dazu einigen sie sich auf einen Schlüssel, der
aus zwei Matrizen S ∈ GL(n, F2 ) und T ∈ GL(m, F2 ) besteht. Diesen Schlüssel halten Alice
und Bob geheim, er ist nur ihnen beiden bekannt. Möchte nun Alice Bob ein Bild zusenden, das
der Matrix X entspricht, so verschlüsselt sie es zunächst indem sie Y := S · X · T −1 berechnet
und Bob Y zusendet. Bob entschlüsselt das Bild dann, indem er X = S −1 · Y · T berechnet.
Wollen wir Bilder der mit 10 × 15 Pixeln verschicken, so könnten sich Alice und Bob auf
folgende Schlüssel einigen:

1 1 1 0 0 1 1 0 0 1


1 1 0 0 0 0 1 1 1 0 


0 1 1 1 1 0 1 0 0 1 

0 1 0 1 0 0 1 0 0 0 


1 1 0 0 0 0 0 1 0 0 
S=  ∈ GL(10, F2 )
0 1 1 0 0 0 0 1 1 1 


0 0 0 0 0 0 0 1 1 1 

0 1 0 1 1 0 1 1 1 1 

1 0 1 1 1 1 0 1 0 1 

0 1 1 0 1 1 0 1 0 0 

mit

1 1 0 1 1 0 0 1 0 1


0 1 0 1 0 0 1 0 1 1 


0 1 0 1 0 1 0 0 1 1 

1 1 1 1 1 1 0 0 1 0 


0 0 0 1 0 0 1 1 0 0 
S −1 = 
1 0 0 1 0 1 1 0 1 1 


1 0 1 1 1 1 1 0 0 1 

1 0 0 0 0 0 1 1 1 0 

1 1 1 1 0 1 1 0 0 1 

0 1 1 1 0 1 1 1 1 1 
196 4. Lineare Abbildungen

und

0 1 0 1 1 1 0 1 0 0 1 0 1 0 1


0 1 1 1 0 1 1 0 1 1 1 0 0 1 1 


0 0 0 0 0 1 0 1 0 1 1 0 1 1 1 

0 0 0 0 1 1 0 1 1 1 0 0 1 0 1 


0 1 0 1 1 0 0 1 1 0 0 1 1 1 0 

1 1 0 1 1 0 1 1 0 0 0 1 0 0 0 


1 0 1 1 0 1 1 0 0 1 0 0 0 1 1 

T = 1 1 1 1 0 0 1 0 1 0 1 1 1 0 1  ∈ GL(15, F2 )

0 1 0 0 0 0 1 1 0 1 0 0 0 0 0 


1 0 1 1 1 0 0 1 1 1 0 1 0 0 1 

0 1 1 1 1 1 1 1 0 1 1 0 0 1 1 


0 0 1 1 1 0 1 0 0 0 1 0 1 0 1 

0 1 0 1 1 1 0 1 0 1 0 0 1 1 1 

0 0 0 0 1 1 1 0 1 0 0 1 1 0 1 

0 0 0 1 1 1 0 0 1 0 0 0 1 1 1 

mit

0 0 1 0 0 1 1 1 1 0 1 1 0 0 1


1 1 1 0 1 0 1 0 1 1 0 1 1 0 1 


0 0 1 1 0 1 1 1 0 1 0 0 0 1 0 

0 1 1 1 0 0 1 1 1 0 0 1 1 1 0 


0 0 1 0 1 1 0 0 1 1 0 1 1 1 1 

0 0 1 1 0 0 0 1 1 1 1 1 1 0 1 


0 0 0 1 1 0 1 0 0 1 1 1 0 0 1 

T −1 = 0 1 1 1 0 1 1 0 0 0 0 0 0 1 1 .

0 0 0 1 1 0 1 0 1 1 1 1 1 0 0 


1 0 0 0 0 1 1 0 0 0 1 0 1 1 1 

1 0 0 1 0 1 0 1 1 0 0 1 0 0 0 


1 1 1 1 1 0 1 0 0 1 0 1 1 1 1 

1 0 1 1 1 0 0 0 1 0 0 0 1 1 1 

1 0 0 1 0 0 1 1 1 0 1 1 0 1 1 

0 1 0 1 1 1 1 1 0 1 1 1 1 0 1 

Für das unverschlüsselte Bild,


4.2. Lineare Abbildungen und Matrizen 197

1 5 10 15

1 1

2 2

3 3

4 4

5 5

6 6

7 7

8 8

9 9

10 10

1 5 10 15

Abb. 69 Unverschlüsseltes Bild

das der Matrix

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0


0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 


0 0 0 1 1 0 1 1 0 0 0 1 1 0 0 

0 0 0 1 1 0 1 1 0 0 0 1 1 0 0 


0 0 0 1 1 1 1 1 0 0 0 1 1 0 0 
X = 
0 0 0 1 1 1 1 1 0 0 0 1 1 0 0 


0 0 0 1 1 0 1 1 0 0 0 1 1 0 0 

0 0 0 1 1 0 1 1 0 0 0 1 1 0 0 

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 

entspricht, ergibt die Rechnung Y = S · X · T −1 die verschlüsselte Matrix,

0 1 0 0 0 0 0 0 0 0 0 1 1 1 0


0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 


0 0 1 1 0 0 0 1 1 1 1 1 1 0 1 

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 


0 1 1 1 0 0 0 1 1 1 1 0 0 1 1 
Y = 
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 


0 1 1 1 0 0 0 1 1 1 1 0 0 1 1 

0 0 1 1 0 0 0 1 1 1 1 1 1 0 1 

0 1 1 1 0 0 0 1 1 1 1 0 0 1 1 

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 

die dem Bild


198 4. Lineare Abbildungen

1 5 10 15

1 1

2 2

3 3

4 4

5 5

6 6

7 7

8 8

9 9

10 10

1 5 10 15

Abb. 70 Verschlüsseltes Bild

enstpricht.
Dieses Verschlüsselungsverfahren wäre allerdings nicht wirklich praxistauglich. Zum einen
bräuchte man für jede Bildergröße eigene Schlüssel, zum anderen würden manche Bilder
nur schwach oder gar nicht verschlüsselt. Ein rein weißes Bild zum Beispiel entspricht der
Nullmatrix. Ist aber X die Nullmatrix, dann ist auch Y = S · X · T −1 die Nullmatrix. Dieses
Bild ginge also immer unverschlüsselt über das Internet.

Für reelle Matrizen haben wir in Definition 2.65 den Rang definiert. Für Matrizen mit Einträgen
in einem allgemeinen Körper ist die Definition dieselbe:

Definition 4.49. Sei K ein Körper. Für X ∈ Mat(m × n, K) heißt

rg(X) := maximale Anzahl linear unabhängiger Spaltenvektoren von X

der Rang (bzw. Spaltenrang) von X.


In anderen Worten: Sind v1, . . ., vn die Spaltenvektoren von X, dann ist

rg(X) = dim(L(v1, . . ., vn )).

Bemerkung 4.50. Nun kennen wir den Rang von Matrizen und den Rang von linearen Abbil-
dungen. Diese beiden Konzepte von Rang vertragen sich gut in dem Sinne, dass der Rang einer
darstellenden Matrix eines Homomorphismus ϕ mit dem Rang von ϕ selbst übereinstimmt.
Genauer: Sind V und W endlich-dimensionale K-Vektorräume mit geordneten Basen A bzw.
B und ist ϕ ∈ Hom(V, W), dann gilt:

rg(MBA(ϕ)) = rg(ϕ).

Ist nämlich A = (a1, . . ., an ), dann gilt:

rg(ϕ) = dim(im(ϕ))
= dim(L(ϕ(a1 ), . . ., ϕ(an )))
= dim(ψB−1 (L(ϕ(a1 ), . . ., ϕ(an ))))
= dim(L(ψB−1 ◦ ϕ(a1 ), . . . , ψB−1 ◦ ϕ(an ))))
4.2. Lineare Abbildungen und Matrizen 199

= dim(L(ψB−1 ◦ ϕ ◦ ψ A (e1 ), . . ., ψB−1 ◦ ϕ ◦ ψ A(en ))))


= dim(L(MBA(ϕ) · e1, . . ., MBA(ϕ) · en ))
= rg(MBA(ϕ)).
Da äquivalente Matrizen denselben Homomorphismus bzgl. verschiedener Basen darstellen,
folgt hieraus auch, dass äquivalente Matrizen denselben Rang haben.

Satz 4.51. Sei K ein Körper, seien V und W endlich-dimensionale K-Vektorräume, und sei
ϕ : V → W eine lineare Abbildung mit Rang rg(ϕ) = r. Dann gibt es geordnete Basen A von
V und B von W, so dass die darstellende Matrix MBA(ϕ) die folgende Gestalt hat:
r
*+()
1 0 ··· ··· ··· 0


. . .. 
0 .. .. . 
. . .. ..  
.. . . 1 . . 1r 0

MBA(ϕ) = . .. . . .. = .
.. . . .  0 0
0 
. .. .. 
.. . . 0 

0 ··· ··· ··· 0 0 

Beweis. a) Wir wählen eine geordnete Basis (b1, . . ., br ) von im(ϕ) und ergänzen diese zu einer
geordneten Basis B := (b1, . . . , br , br+1, . . ., bm ) von W. Für j = 1, . . ., r liegt b j ∈ im(ϕ) und
kann daher in der Form b j = ϕ(a j ) geschrieben werden, wobei a j ∈ V ein geeignetes Element
ist.
Wir setzen n := dim(V). Nach der Dimensionsformel (4.4) ist
dim ker(ϕ) = dim(V) − dim im(ϕ) = n − r .
Wähle also eine geordnete Basis (ar+1, . . ., an ) von ker(ϕ). Wir zeigen nun, dass
(a1, . . ., ar , ar+1, . . . , an ) eine geordnete Basis von V ist.
b) Dazu reicht es zu zeigen, dass (a1, . . . , ar , ar+1, . . ., an ) linear unabhängig ist, denn dann
ist wegen dim(V ) = n die Menge {a1, . . . , ar , ar+1, . . ., an } maximal linear unabhängig damit
nach Satz 3.112 eine Basis.
Sei also
λ 1 a1 + . . . + λ n an = 0 (4.14)
für λ1, . . . , λn ∈ K. Dann gilt
0 = ϕ(0)
= ϕ(λ1 a1 + . . . + λn an )
= λ1 ϕ(a1 ) + . . . + λr ϕ(ar ) + λr+1 ϕ(ar ) + . . . + λn ϕ(an )
= λ1 b1 + . . . + λr br ,
200 4. Lineare Abbildungen

denn nach Konstruktion ist ϕ(ai ) = bi für i = 1, . . ., r und ϕ(ai ) = 0 für i = r + 1, . . ., n.


Nun ist aber (b1, . . ., br ) eine Basis von im(ϕ), also insbesondere linear unabhängig. Somit ist
λ1 = . . . = λr = 0. Eingesetzt in Gleichung (4.14) erhalten wir

λr+1 ar+1 + . . . + λn an = 0 .

Da (ar+1, . . ., an ) eine Basis von ker(ϕ) und damit insbesondere linear unabhängig ist, folgt
λr+1 = . . . = λn = 0. Damit ist gezeigt, dass A := (a1, . . ., ar , ar+1, . . . , an ) eine geordnete
Basis von V ist.
c) Wir haben jetzt eine geordnete Basis A von V und eine geordnete Basis B von W gefunden
und müssen nun noch zeigen, dass die darstellende Matrix MBA(ϕ) von ϕ bzgl. dieser Basen
die angegebene Form hat. Da für die Basisvektoren aus A gilt: ϕ(ai ) = bi für i = 1, . . ., r und
ϕ(ai ) = 0 für i = r + 1, . . ., n, so ist die darstellende Matrix gegeben durch:

1 0 ··· ··· 0 0 ··· ··· 0



. .. .. .. 
0 1 .. . . .

. . . . . .. .. .. 
.. 0 . . . . .

.. .. . . . . .. .. 
. . . . 0 . .
MB (ϕ) = .
A
.. .. .. .. 
.. . . 1 . .

.. .. .. .. 
. . 0 . .
. .. .. .. .. 
.. . . . .

0 0 ··· ··· 0 0 ··· ··· 0
()*+ ()*+
r n−r

Damit ist Satz 4.51 bewiesen. 

Korollar
 4.52. Jede Matrix X ∈ Mat(m × n, K) vom Rang r ist äquivalent zu der Matrix
1r 0
. 
0 0

Korollar 4.53. Zwei Matrizen X, Y ∈ Mat(m × n, K) sind genau dann äquivalent, wenn sie
denselben Rang haben, d.h. rg(X) = rg(Y ).

Beweis. In Bemerkung 4.50 haben wir festgestellt, dass äquivalente Matrizen denselben Rang
haben. Gilt umgekehrt
 rg(X) = rg(Y ) = r, dann sind nach Korollar 4.52 sowohl X als auch Y
1r 0
äquivalent zu , und damit auch zueinander äquivalent. 
0 0
4.2. Lineare Abbildungen und Matrizen 201

Bemerkung 4.54. In Beispiel 4.45 haben wir gesehen, dass die Einheitsmatrix 1n nur zu sich
selbst ähnlich ist. Jede andere invertierbare Matrix X ∈ GL(n, K) hat aber ebenfalls Rang n. Die
Korollare 4.52 und 4.53 gelten also nicht, wenn man das Wort „äquivalent“ durch „ähnlich“
ersetzt.
Ein Endomorphismus ϕ ∈ EndK (V) kann im  Allgemeinen
 nur bzgl. verschiedener Basen A
1r 0
und B von V durch eine Matrix der Gestalt dargestellt werden.
0 0

Da sich der Rang einer Matrix auf ihre Spaltenvektoren bezieht, nennt man ihn auch den
Spaltenrang. Analog können wir auch den Zeilenrang einer Matrix definieren:

Definition 4.55. Sei K ein Körper und X ∈ Mat(m × n, K). Dann heißt

r3g(X) := maximale Anzahl linear unabhängiger Zeilenvektoren von X

der Zeilenrang von X.

Von den reellen Matrizen kennen wir bereits das Konzept der transponierten Matrix, die wir
bekommen, indem wir Spalten und Zeilen vertauschen.

Definition 4.56. Sei



c11 · · · c1n
. .. 
X = .. .  ∈ Mat(m × n, K) .

cm1 · · · cmn 
Dann heißt die Matrix


c11 · · · cm1
. .. 
X := ..

.  ∈ Mat(n × m, K) (4.15)

c1n · · · cmn 

die Transponierte von X. Die Abbildung

Mat(m × n, K) → Mat(n × m, K),


X → X  ,

heißt Transposition.
202 4. Lineare Abbildungen

Satz 4.57. Sei K ein Körper, seien X, Y ∈ Mat(m × n, K), sei Z ∈ Mat(l × m, K), sei
S ∈ GL(m, K), und sei α ∈ K. Dann gilt:

(X + Y) = X  + Y , (4.16)
(α · X) = α · X , (4.17)
(X  ) = X, (4.18)
(Z · Y) = Y  · Z , (4.19)
 −1     −1
S = S , (4.20)
 
rg X  = r3g(X), (4.21)
 
r3g X  = rg(X). (4.22)

Beweis. Die Gleichungen (4.16), (4.17), (4.18), (4.21) und (4.22) erhält man unmittelbar aus
der Definition 4.56 der Transponierten sowie der Definition des Spalten- und Zeilenrangs. Die
Gleichung (4.19) erhält man durch eine einfache Rechnung:

m 
m

(Z · Y )i j = (Z · Y) ji = Z j k · Yki = (Y  )ik · (Z  )k j = (Y  · Z  )i j .
k=1 k=1

Schließlich rechnen wir:


(4.19) 
(S −1 ) · S  = (S · S −1 ) = 1m = 1m
und analog S  · (S −1 ) = 1m . Somit ist (S −1 ) die Inverse von S  , wie in Gleichung (4.20)
behauptet. 

Bemerkung 4.58. Wir haben schon gesehen, dass äquivalente Matrizen denselben (Spalten-)
Rang haben. Sie haben aber auch denselben Zeilenrang, d.h. sind X, Y ∈ Mat(m × n, K)
äquivalent, so gilt:
r3g(X) = r3g(Y ). (4.23)
Sind nämlich X und Y äquivalent, so gibt es Matrizen S ∈ GL(m, K) und T ∈ GL(n, K), so
dass Y = SXT −1 . Daraus erhalten wir durch Transposition:
   (4.19)  −1   (4.20)   −1
Y  = SXT −1 = T · X  · S = T  · X  · S .
Somit sind X  und Y  ebenfalls äquivalent und wir erhalten
(4.21) (4.21)
r3g(X) = rg(X  ) = rg(Y  ) = r3g(Y ) .

Nun können wir feststellen, dass Spalten- und Zeilenrang einer Matrix stets übereinstimmen.
Daher brauchen wir nicht zwischen diesen beiden Konzepten von Rang zu unterscheiden und
werden wir künftig nur noch vom Rang der Matrix sprechen.
4.2. Lineare Abbildungen und Matrizen 203

Satz 4.59. Sei K ein Körper und X ∈ Mat(m × n, K). Dann gilt:

rg(X) = r3g(X) . (4.24)

Beweis.
  rg(X) = r. Dann ist nach Korollar 4.52 die Matrix X äquivalent zu der Matrix
Sei
1r 0
. Somit gilt:
0 0
     
1r 0 1r 0 1r 0
r3g(X) = r3g = rg = rg = r = rg(X). 
0 0 0 0 0 0

Beispiel 4.60. Bei folgender Matrix sieht man sofort, dass die untere Zeile das Doppelte der
oberen ist. Daher gilt    
1 2 3 4 1 2 3 4
rg = r3g = 1.
2 4 6 8 2 4 6 8

Zum Schluss dieses Abschnitts noch einige Bemerkungen über lineare Gleichungssysteme. In
Abschnitt 2.3 haben wir den Gauß-Algorithmus für reelle lineare Gleichungssysteme kennen-
gelernt. Ersetzen wir die reellen Zahlen durch einen beliebigen Körper, so ändert sich an der
Diskussion nichts. Auch Satz 2.67 bleibt gültig.
Führt man elementare Zeilentransformationen an einer Matrix A ∈ Mat(m × n, K) durch, so
ändert sich die Lösungsmenge des homogenen LGS A · x = 0 nicht, d.h. der Kern von A bleibt
unverändert. Aufgrund der Dimensionsformel ändert sich auch der Rang von A dabei nicht.
Haben wir A in Zeilenstufenform gebracht, so können wir den (Zeilen-) Rang leicht ablesen;
er ist dann die Anzahl der Zeilen, die nicht aus lauter Nullen bestehen.

Beispiel 4.61. Um den Rang der Matrix


7 0 −7 0
8 −5 −2
1
A= 
0
1 −3 0 
0 3 −6 −1
zu bestimmen, können wir sie durch elementare Zeilentransformationen in Zeilenstufenform
bringen, was wir in Beispiel 2.68 bereits getan haben. Wir erhielten die Matrix


1 0 −1 0
0 1 3 −2 

 =: Ã
0 0 1 − 13 

0 0 0 0
204 4. Lineare Abbildungen

in Zeilenstufenform. Nun hat à drei Zeilen, die nicht nicht nur null sind, also ist rg( Ã) = 3 und
damit rg(A) = 3.

4.3. Determinanten
Als Nächstes führen wir Determinanten ein. Mit ihrer Hilfe kann man überprüfen, ob eine
quadratische Matrix invertierbar ist oder nicht. Sie sind aber auch geometrisch sehr nützlich
bei der Berechnung von Volumina.
Bevor wir zu einer Definition von Determinanten kommen, überlegen wir uns zunächst, was
sie tun sollen. Dann werden wir feststellen, dass es genau eine sinnvolle Definition gibt.
Da wir es bei Determinaten andauernd mit quadratischen Matrizen zu tun haben, wollen wir
die kürzere Notation
Mat(n, K) := Mat(n × n, K)
verwenden.

Definition 4.62. Sei K ein Körper und sei n ∈ N. Eine Abbildung


det : Mat(n, K) → K ,
A → det(A) ,
heißt Determinantenabbildung, falls sie folgenden Axiomen genügt:
(D1) Die Abbildung det ist linear in jeder Zeile, d.h. für jede Matrix A ∈ Mat(n, K) mit
Zeilen a1, . . ., an gilt:


a1
a1
..  .. 
.  . 
 
ai−1  ai−1 
 
 
det λ · ai  = λ · det ai 
 
ai+1  ai+1 
 
..  .. 
.  . 
 
a n  a n 
und

a1
a1
a1
..  ..  .. 
.  .  . 
  
ai−1  ai−1  ai−1 
  
  
det ai + ai = det ai  + det ai  .
  
ai+1  ai+1  ai+1 
  
..  ..  .. 
.  .  . 
  
a n  a n  a n 
4.3. Determinanten 205

(D2) Die Abbildung det ist alternierend, d.h. falls in einer Matrix A zwei Zeilen überein-
stimmen, so ist det(A) = 0.

(D3) Die Abbildung det ist normiert, d.h. det(1n ) = 1.

Aus diesen drei Eigenschaften ergeben sich eine ganze Reihe weiterer Eigenschaften von
Determinatenabbildungen.

Satz 4.63. Sei K ein Körper und sei n ∈ N. Sei det : Mat(n, K) → K eine Determinanten-
abbildung. Dann gilt für alle A, B ∈ Mat(n, K) und alle λ ∈ K:

(D4)
det(λ · A) = λn · det(A) . (4.25)

(D5) Ist eine Zeile von A gleich 0, so ist det(A) = 0 .

(D6) Entsteht B aus A durch Vertauschung zweier Zeilen, so ist det(B) = − det(A).

(D7) Entsteht B aus A durch Addition des Vielfachen einer Zeile zu einer anderen, so ist
det(B) = det(A).

(D8) Ist A eine obere Dreiecksmatrix mit den Diagonaleneinträgen λ1, . . . , λn , d.h. hat A
die Gestalt
λ ∗ ··· ∗

1
0 . . . . . . ... 
,
A= . .
.. . . . . . ∗ 

0 · · · 0 λn 
so ist det(A) = λ1 · · · λn .

Beweis. Zu (D4):
Wir berechnen unter Benutzung von (D1):

λ · a1 a a


1 
1 
λ · a2  λ · a2  a2 
  

det(λ · A) = det λ · a3  = λ · det λ · a3  = λ2 · det λ · a3 
.  .  . 
..  ..  .. 
  
λ · a λ · a λ · an 
n
 n

206 4. Lineare Abbildungen

a

1 
a2 


= . . . = λn · det a3  = λn · det(A) .
.
.. 

an 

Zu (D5):
Wir berechnen unter Benutzung von (D1):


a1
a1
a1
..  ..  .. 
.  .  . 
  
a  a  a 
i−1  i−1  i−1 
  (D1) 
det(A) = det 0  = det 0 · 0 = 0 · det 0  = 0 .
  
ai+1  ai+1  ai+1 
  
..  ..  .. 
.  .  . 
  
an  an  an 

Zu (D6):


a1

Sei A = ...  und es gehe B aus A durch Vertauschung der i-ten mit der j-ten Zeile hervor,

an 
wobei wir i < j wählen. Dann erhalten wir aus (D2):


a1
a1
a1
..  ..  .. 
.  .  . 
  
ai−1  ai−1  ai−1 
  
  
ai + a j  ai  aj 
  
ai+1  ai+1  ai+1 
  
(D2) .  .  . 
0 = det ..  = det ..  + det .. 
  
a  a  a 
j−1  j−1  j−1 
  
ai + a j  ai + a j  ai + a j 
  
a j+1  a j+1  a j+1 
  
..  ..  .. 
.  .  . 
  
an  an  an 
4.3. Determinanten 207


a1
a1
a1
a1
..  ..  ..  .. 
.  .  .  . 
   
ai−1  ai−1  ai−1  ai−1 
   
   
ai  ai  aj  aj 
   
ai+1  ai+1  ai+1  ai+1 
   
.  .  .  . 
= det ..  + det ..  + det ..  + det .. 
   
a  a  a  a 
j−1  j−1  j−1  j−1 
   
ai  aj  ai  aj 
   
a j+1  a j+1  a j+1  a j+1 
   
..  ..  ..  .. 
.  .  .  . 
   
a n  a n  a n  a n 
(D2)
= 0 + det(A) + det(B) + 0 .
Wir haben also det(A) = − det(B).
Zu (D7):

a1
.
Sei A = ..  und es gehe B aus A durch Addition des λ-fachen der j-ten Zeile zur i-ten Zeile

an 
hervor, wobei j  i. Dann erhalten wir aus (D2):


a1
a1
a1
..  ..  .. 
.  .  . 
  
ai−1  ai−1  ai−1 
  
  
ai + λ · a j  ai  aj 
   (D2)
det(B) = det ai+1  = det ai+1  + λ · det ai+1  = det(A) + λ · 0 = det(A) .
..  ..  .. 
.  .  . 
  
aj   aj 
 aj  
..  .  . 
.  ..  .. 
  
a n  a
n a
n
Zu (D8):
a) Betrachten wir zunächst den Fall, dass λi  0 für alle i = 1, . . . , n. Dann lässt sich die Matrix
A durch Operationen wie in (D7) in eine Diagonalmatrix

λ 0 ... 0

1
0 . . . . . . ... 

B= . .
.. . . . . . 0 

0 . . . 0 λn 
208 4. Lineare Abbildungen

überführen.1 Mittels (D7) erhalten wir dann:

λ 0 ... 0

1
0 . . . . . . ... 
(D7)  (D1)
det(A) = det . . = λ1 · · · λn · det(1n ) = λ1 · · · λn .
.. . . . . 0 
.

0 . . . 0 λn 

b) Sei nun λi = 0 für mindestens ein i ∈ {1, . . . , n}. Wir wählen das maximale solche i, so dass
also λi = 0 und λ j  0 für j = i + 1, . . . , n. Wie in a) lässt sich die Matrix A durch elementare
Zeilenumformungen wie in (D7) in eine Matrix


λ1 ∗ · · · · · · ··· ··· ∗
.. .. .. 
. . .

λi−1 ∗ ··· · · · ∗ 


B = 0 ··· ··· 0 ··· ··· 0

λi+1 

.. 
. 

λn 

(D7) (D5)
überführen.2 Damit ist det(A) = det(B) = 0 = λ1 · · · λn . 

Satz 4.64. Sei K ein Körper und sei n ∈ N. Sei det : Mat(n, K) → K eine Determinanten-
abbildung. Dann ist für alle A ∈ Mat(n, K) äquivalent:

(1) det(A)  0.

(2) rg(A) = n.

(3) A ist invertierbar, d.h. A ∈ GL(n, K).

Beweis. Zu „(1)⇔(2)“:
In Abschnitt 2.3 haben wir gelernt, dass sich eine Matrix durch Vertauschen von Zeilen und
Addition von Vielfachen von Zeilen zu anderen Zeilen in Zeilenstufenform bringen lässt. Im

1Ziehe zunächst geeignete Vielfache des 1/λn -fachen der letzten Zeile von den darüber liegenden Zeilen ab.
Dadurch werden alle bis auf den untersten Eintrag in der letzten Spalte = 0. Ziehe anschließend geeignete
Vielfache des 1/λn−1 -fachen der vorletzten Zeile von den darüber liegenden Zeilen ab. Dadurch werden alle
Einträge oberhalb der Diagonale in der vorletzten Spalte = 0, usw.
2Wir verfahren wie in a) und stoppen nachdem wir die i-te Zeile verarztet haben.
4.3. Determinanten 209

Fall einer quadratischen Matrix erhalten wir somit eine obere Dreiecksmatrix
λ ∗ ... ∗

1
0 . . . . . . ... 
.
A = . .
.. . . . . . ∗ 

0 . . . 0 λn 
Wegen (D6) und (D7) ändert die Determinante dabei allenfalls ihr Vorzeichen, det(A) =
± det(A). Auch der Rang einer Matrix ändert sich nicht bei Zeilenumformungen, rg(A) =
rg(A). Also haben wir:
det(A)  0 ⇐⇒ det(A)  0
(D8)
⇐⇒ λ1 · · · λn  0
⇐⇒ λ1  0 ∧ . . . ∧ λn  0
⇐⇒ rg(A) = n
⇐⇒ rg(A) = n .
Zu „(3)⇒(2)“:
Ist A invertierbar, so ist ϕ A : K n → K n , ϕ A(x) = A · x, bijektiv, insbesondere surjektiv. Also
ist im(ϕ A) = K n und damit rg(A) = rg(ϕ A) = dim(K n ) = n.
Zu „(2)⇒(3)“:
Sei rg(A) = n. Dann ist dim(im(ϕ A)) = rg(ϕ) = rg(A) = n. Also ist im(ϕ A) ein n-dimensionaler
Untervektorraum von K n und damit nach Korollar 3.131 im(ϕ A) = K n . Also ist ϕ A surjektiv.
Nach Korollar 4.20 ist ϕ A ein Isomorphismus und damit A invertierbar. 

Determinantenabbildungen können uns also dabei helfen zu entscheiden, ob eine Matrix inver-
tierbar ist. Allerdings wissen wir noch gar nicht, ob es überhaupt Determinantenabbildungen
gibt.

Satz 4.65. Für jeden Körper K und jedes n ∈ N, n ≥ 1, gibt es genau eine Determinanten-
abbildung det : Mat(n, K) → K.

4 : Mat(n, K) → K zwei Determinantenabbildungen


Beweis. Eindeutigkeit: Seien det und det
und sei A ∈ Mat(n, K) eine Matrix. Wir überführen A mittels spezieller Zeilenumformungen
(Zeilenvertauschungen und Addition von Vielfachen von Zeilen zu anderen Zeilen) in eine
obere Dreiecksmatrix
λ ∗ ... ∗

1
0 . . . . . . ... 
.
A = . .
.. . . . . . ∗ 

0 . . . 0 λn 
210 4. Lineare Abbildungen

Sei dabei k die Anzahl der Zeilenvertauschungen. Aus den Eigenschaften (D6), (D7) und (D8)
erhalten wir dann:
det(A) = (−1)k det(A) = (−1)k · λ1 · . . . · λn
4 ) = (−1)k · λ1 · . . . · λn . Also ist det(A) = det(A).
und genauso det(A 4

Die Existenz zeigen wir mittels vollständiger Induktion nach n.  


Induktionsanfang: Für n = 1 definieren wir det1 : Mat(1, K) → K durch det1 (a) := a. Die
Axiome (D1), (D2) und (D3) sind dann offensichtlich erfüllt.
Induktionsschritt: Sei n ∈ N, n ≥ 2. Wir zeigen: Gibt es eine Determinantenabbildung
det n−1 : Mat(n − 1, K) → K ,
so gibt es auch eine Determinantenabbildung detn : Mat(n, K) → K. Hierzu konstruie-
ren wir detn aus detn−1 wie folgt: Sei A ∈ Mat(n, K). Für i, j ∈ {1, . . . , n} bezeichne
Ai,Strj ∈ Mat(n − 1, K) diejenige (n − 1) × (n − 1)-Matrix, die aus A durch Streichen der i-ten
Zeile und der j-ten Spalte entsteht:


a11 . . . a1 j . . . a1n
.. .. . .. 
. . .. . 

AiStr
j := ai1 . . . ai j . . . ain  .
.. .. . . . 
.
. . .. 
an1 . . . an j . . . ann 
Sei nun j ∈ {1, . . ., n} fest gewählt. Dann setzen wir:

n
det n (A) := (−1)i+ j · ai j · det n−1 (AiStr
j ). (4.26)
i=1

Wir müssen nun nachweisen, dass die so definierte Abbildung detn : Mat(n, K) → K tatsächlich
eine Determinantenabbildung ist, d.h. dass sie den Axiomen (D1), (D2) und (D3) genügt:
(D1) Es entstehe  aus A durch Multiplikation der k-ten Zeile mit λ. Dann ist ÂStr kj
= AStr
kj
,
denn die veränderte k-te Zeile wird ja gestrichen. Für i  k entsteht Âi j aus Ai j Str Str

durch Multiplikation einer Zeile mit λ (nämlich der k-ten, falls i > k, der (k − 1)-
ten andernfalls). Nach Voraussetzung ist detn−1 eine Determinantenabbildung, so dass
detn−1 ( ÂiStr
j ) = λ · detn−1 (Ai j ). Wir erhalten also für die Determinantenabbildung detn :
Str


det n ( Â) = (−1)k+ j â k j · det n−1 ( ÂStr
kj ) + (−1)i+ j âi j · det n−1 ( ÂiStr
j )
()*+ ()*+ ik ()*+ ()*+
=λak j =ai j =λ det n−1 (AStr
=AStr
kj ij )


n
=λ· (−1)i+ j ai j · det n−1 (AiStr
j )
i=1
= λ · det n (A) .
Ganz analog zeigt man die Additivität.
4.3. Determinanten 211

(D2) Sei A ∈ Mat(n, K), und seien die k-te und l-te Zeile von A identisch, wobei o.B.d.A.
k < l. Falls l  i  k, so besitzt auch die Matrix AiStr
j zwei identische Zeilen, so dass
detn−1 (Ai j ) = 0 ist. In der Formel (4.26) bleiben also nur noch die folgenden beiden
Str

Summanden:

det n (A) = (−1)k+ j · a k j · det n−1 (AStr


k j ) + (−1)
l+ j
· al j · det n−1 (AStr
lj ) .

Da die k-te und l-te Zeile von A übereinstimmen, ist nun a k j = al j für jedes j ∈
{1, . . ., n}. Die Matrizen AStr
kj
und AStr
lj
sind aus A durch Streichung der j-ten Spalte und
jeweils einer der beiden übereinstimmenden Zeilen entstanden. Somit haben AStr kj
und
AStr
lj
bis auf die Reihenfolge identische Zeilen. Genauer geht A Str aus AStr hervor indem
kj lj
man die l-te Zeile mit allen Zeilen zwischen der k-ten und der l-ten vertauscht. Das
macht genau l − k − 1 Zeilenvertauschungen. Somit ist

det n−1 (AStr


k j ) = (−1)
l−k−1
· det n−1 (AStr
lj ),

und schließlich
 
det n (A) = (−1)k+ j+l−k−1 + (−1)l+ j ·al j · det n−1 (AStr lj ) = 0 .
()*+
=0

(D3) Für A = 1n finden wir:


n
det n (A) = (−1)i+ j · ai j · det n−1 (AiStr
j )
i=1

= (−1) j+ j · 1 · det n−1 (AStr
jj ) + (−1)i+ j · 0 · det n−1 (AiStr
j )
i j

= det n−1 (AStr


jj )
= det n−1 (1n−1 )
= 1. 

Bemerkung 4.66. Nachdem wir gezeigt haben, dass es für jedes n ∈ N genau eine Deter-
minantenabbildung det : Mat(n, K) → K gibt, bezeichnen wir diese Abbildung stets mit det,
ohne Kennzeichnung der Zahl n im Index. Die Formel (4.26) bezeichnen wir als Entwicklung
der Determinante nach der j-ten Spalte. Interessanterweise hat die Wahl von j keine Rolle
gespielt. Mit dem Beweis von Satz 4.65 haben wir auch schon den folgenden Entwicklungssatz
gleich mit bewiesen:
212 4. Lineare Abbildungen

Satz 4.67 (Spaltenentwicklungssatz von Laplace). Sei K ein Körper, sei n ≥ 2 und sei
A ∈ Mat(n, K) mit den Einträgen ai j und den Streichungsmatrizen AiStr
j . Dann gilt


n
det(A) = (−1)i+ j · ai j · det(AiStr
j ). (4.27)
i=1

für jedes j ∈ {1, . . ., n}. 

Bemerkung 4.68. Die Vorzeichen (−1)i+ j in der Laplace-Entwicklung bilden ein Schachbrett-
muster:

+ − + − + −
− + − + − +
+ − + − + −
− + − + − +
+ − + − + −
− + − + − +
Tab. 24 Vorzeichen in der Laplace-Entwicklung

Für kleine Matrizen können wir relativ einfache Formeln für die Determinante angeben. Sei K
ein Körper und sei A ∈ Mat(n, K).

a) Für n = 1 haben wir einfach A = (a) und det(A) = a, vgl. den Beweis von Satz 4.65.
 
a b
b) Für n = 2 schreiben wir A = und entwickeln nach der ersten Spalte:
c d

det(A) = a · det((d)) − c · det((b)) = ad − bc.

a b c


c) Für n = 3 schreiben wir A = d e f . Entwicklung nach der ersten Spalte liefert:
g h i 
     
e f b c b c
det(A) = a · det − d · det + g · det
h i h i e f
= a · (ei − h f ) − d · (bi − hc) + g · (b f − ec)
= aei + dhc + gb f − (ah f + dbi + gec).

Für diese Formel gibt es als Merkhilfe die Regel von Sarrus. Dazu schreibt man die
ersten beiden Spalten nochmal hinter die Matrix. Die Produkte mit positivem Vorzeichen
4.3. Determinanten 213

sind dann die Diagonalprodukte, die von links oben losgehen (blau), die mit negativem
Vorzeichen, diejenigen die links unten beginnen (rot).

a b c a b


d e f  d e

g h i g h

Beispiel 4.69. Sei K = C und sei A ∈ Mat(3, C) die Matrix

0 1 i


A = 1 i 1 .
2 3 4
Wir können die Determinante berechnen, indem wir sie durch spezielle Zeilentransformationen
in obere Dreiecksform bringen:

2 3 4

2 3 4

2 3 4
−1 
det(A) = − det 1 1 = − det 0 i − 2 −1 = − det 0 i − 2
3 3
i

0 1 i 0 1 i  0 0 i + i−13
$ % $ % $ % 2

3 1 3
= −2 · i − · i+ = −2 i − i − 2 = 3i .
2 i − 32 2

Wir können aber auch die Regel von Sarrus anwenden und erhalten ebenfalls

det(A) = 0 · i · 4 + 1 · 1 · 2 + i · 1 · 3 − 2 · i · i − 3 · 1 · 0 − 4 · 1 · 1 = 0 + 2 + 3i + 2 − 0 − 4 = 3i.

In diesem Beispiel ist die Regel von Sarrus weniger rechenaufwändig und daher eine bequeme
Möglichkeit, die Determinante zu berechnen. Wir vergessen aber nicht, dass die Regel von
Sarrus nur für 3×3-Matrizen gültig ist. Dagegen funktioniert die Überführung in Dreiecksform
durch Zeilentransformationen in allen Dimensionen.

Als Nächstes stellen wir fest, dass die Determinante nicht nur linear in jeder Zeile ist, sondern
auch in jeder Spalte.

Korollar 4.70. Sei K ein Körper und sein n ∈ N. Die Determinante ist linear in jeder Spalte,
d.h. sind a1, . . ., an, aj , aj ∈ K n Spaltenvektoren von Matrizen aus Mat(n, K) und ist λ ∈ K,
so gilt:
 
det a1 . . . λ · a j . . . an = λ · det a1 . . . a j . . . an ,
214 4. Lineare Abbildungen


det a1 . . . aj + aj . . . an
 
= det a1 . . . aj . . . an + det a1 . . . aj . . . an .

Beweis. Die Entwicklung nach der j-ten Spalte liefert:


 
n
det a1 . . . λ · a j . . . an = (−1)i+ j λai j · det(AiStr
j )
i=1

n
=λ· (−1)i+ j ai j · det(AiStr
j )
i=1
= λ · det(A) .

Ganz analog zeigt man auch die Additivität. 

Transposition ändert die Determinante nicht:

Satz 4.71. Sei K ein Körper und sei n ∈ N. Dann gilt für alle A ∈ Mat(n, K):

det(A ) = det(A) . (4.28)

Beweis. Wir betrachten die Abbildung


4 : Mat(n, K) → K ,
det 4
det(A) := det(A ) .

Wenn wir zeigen können, dass det 4 den Axiomen (D1), (D2) und (D3) genügt, also eine
4 = det und damit
Determinantenabbildung ist, so folgt wegen der Eindeutigkeit in Satz 4.65 det
die Behauptung. Also überprüfen wir die Axiome:

Zu (D1):
Die Determinante det ist nach der Korollar 4.70 linear in jeder Spalte. Damit ist die Abbildung
4 linear in jeder Zeile.
det

Zu (D2):
Hat A ∈ Mat(n, K) zwei identische Zeilen, so hat A zwei identische Spalten. Damit ist
4
rg(A ) < n und folglich det(A) = det(A ) = 0.

Zu (D3):
Offensichtlich gilt:
4 n ) = det(1n ) = det(1n ) = 1 .
det(1 
4.3. Determinanten 215

Satz 4.72 (Zeilenentwicklungssatz von Laplace). Sei K ein Körper, sei n ∈ N, n ≥ 2, und
sei A ∈ Mat(n, K) mit den Einträgen ai j und den Streichungsmatrizen AiStr
j . Dann gilt für
jedes i ∈ {1, . . . , n}:
n
det(A) = (−1)i+ j · ai j · det(AiStr
j ). (4.29)
j=1

Beweis. Wir können det(A) = det(A ) mit der Formel (4.27) durch die Entwicklung nach der
i-ten Spalte von A berechnen. Das entspricht genau der Entwicklung nach der i-ten Zeile von
A in der Formel (4.29). 

Beispiel 4.73. Entwicklung nach der ersten Zeile liefert:

0 1 i      

i 1 1 1 1 i

det 1 i 1 = 0 · det − 1 · det + i · det = −2 + i(3 − 2i) = 3i .
3 4 2 4 2 3
2 3 4

Korollar 4.74. Sei K ein Körper, sei n ∈ N und sei A ∈ Mat(n, K). Entsteht  aus A durch
Vertauschen zweier Spalten, so ist det( Â) = − det(A).

Beweis. Entsteht  entsteht A durch Vertauschen zweier Spalten, so entsteht  aus A durch
Vertauschen zweier Zeilen. Aus (D6) und Satz 4.71 erhalten wir dann
(D6)
det( Â) = det( Â ) = − det(A ) = − det(A). 

Satz 4.75 (Determinantenmultiplikationssatz). Sei K ein Körper und n ∈ N. Dann gilt


für alle A, B ∈ Mat(n, K):
det(A · B) = det(A) · det(B) . (4.30)

Beweis. a) Wir betrachten zunächst den Fall det(B) = 0. Nach Satz 4.64 ist dann rg(B) < n.
Es gibt also ein x ∈ K n \ {0} mit B · x = 0. Damit ist auch A · B · x = 0, folglich rg(A · B) < n.
Wiederum nach Satz 4.64 ist dann det(A · B) = 0 und daher
det(A · B) = 0 = det(A) · 0 = det(A) · det(B) .
b) Sei nun det(B)  0. Wir fixieren B und setzen

4 : Mat(n, K) → K , 4 det(A · B)
det det(A) := .
det(B)
216 4. Lineare Abbildungen

Wir zeigen nun, dass det 4 den Axiomen (D1), (D2) und (D3) einer Determinantenabbildung
genügt. Wegen der Eindeutigkeit in Satz 4.65 ist dann det(A) 4 = det(A), und daraus folgt
unmittelbar die Behauptung.
Zu (D1):
Seien a1, . . ., an, ai, ai, b1, . . . , bn ∈ K n und λ, λ ∈ K. Wir schreiben A in Zeilenvektoren
 
a1 , . . . , an , und B in Spaltenvektoren b1, . . . , bn :



a1 
. 
A = ..  , B = b 1 . . . bn .

an 
Sei nun ai = λ · ai + λ · ai. Dann hat das Produkt A · B die folgenden Einträge:

 

a 1 · b 1 . . . a1 · b n
.. .. 
. . 
 
A · B = ai · b1 . . . ai · bn 
.. .. 
. . 

 
an · b 1 . . . an · b n 

a1 · b1 ...

a1 · bn
.. .. 
. . 


= (λ · ai + λ · ai ) · b1 . . . (λ · ai + λ · ai ) · bn 
         
.. .. 
. . 

 
a n · b 1 . . . a n · b n 
 

a1 · b1 ... a1 · b n
.. .. 
. . 


= λ · (ai ) · b1 + λ · (ai ) · b1 . . . λ · (ai ) · bn + λ · (ai ) · bn  .
           
.. .. 
. . 

 
a n · b 1 . . . a n · b n 

Seien nun A bzw. A die Matrizen, die aus A durch Ersetzen der i-ten Zeile ai durch (ai)
bzw. (ai) entstehen. Da die Abbildung det dem Axiom (D1) genügt, ist somit det(A · B) =
λ · det(A · B) + λ · det(A · B). Wir erhalten also:

4 det(A · B) λ · det(A · B) + λ · det(A · B) 4 ) + λ · det(A


4 ) .
det(A) = = = λ · det(A
det(B) det(B)

Zu (D2):
Sei A ∈ Mat(n, K) mit zwei gleichen Zeilen. Dann ist rg(A) < n, also für jedes B ∈ Mat(n, K)
4
auch rg(A · B) < n. Somit ist det(A · B) = 0 und det(A) = 0.
4.3. Determinanten 217

Zu (D3):
Schließlich gilt:
4 n ) = det(1n · B) = det(B) = 1 .
det(1 
det(B) det(B)

Korollar 4.76. Sei K ein Körper und sei n ∈ N. Ist A ∈ GL(n, K), so gilt:
1
det(A−1 ) = . (4.31)
det(A)

Beweis. Aus dem Determinantenmultiplikationssatz 4.75 erhalten wir:


1 = det(1n ) = det(A · A−1 ) = det(A) · det(A−1 ) .
Nach Division durch det(A) folgt die Behauptung. 

Determinanten helfen uns nicht nur festzustellen, ob eine Matrix invertierbar ist. Wir können
Sie auch verwenden, um die Inverse zu berechnen, falls sie existiert.

 
Satz 4.77. Sei K ein Körper und sei n ∈ N. Für A ∈ Mat(n, K) setzen wir B := bi j i, j=1,...,n
mit
bi j := (−1)i+ j · det(AStr
ji ) . (4.32)
Dann gilt:
A · B = B · A = det(A) · 1n .
Ist insbesondere A invertierbar, so gilt:
1
A−1 = ·B. (4.33)
det(A)

Beweis. Wir berechnen zunächst die Diagonaleinträge des Produkts A · B und benutzen dabei
die Formel (4.29) für die Entwicklung der Determinante nach der i-ten Zeile:
n 
n
(4.29)
(A · B)ii = ai j · b ji = ai j · (−1)i+ j · det(AiStr
j ) = det(A) .
j=1 j=1

Nun berechnen wir die übrigen Einträge der i-ten Zeile von A · B. Sei k  i und sei  diejenige
Matrix, die aus A entsteht, indem wir die k-Zeile durch die i-te ersetzen. Damit haben wir

n
(A · B)ik = ai j · b j k
j=1
218 4. Lineare Abbildungen


n
= ai j · (−1) j+k · det(AStr
kj )
j=1

n
= â k j · (−1) j+k · det( ÂStr
kj )
j=1

= det( Â) .

Da aber  zwei gleiche Zeilen – nämlich die k-te und die i-te – hat, ist det( Â) = 0. Somit ist
(A · B)ik = 0 für k  i und damit A · B = det(A) · 1n . Analog berechnet man B · A mittels der
Formel (4.27) für die Entwicklung der Determinante nach der i-ten Spalte. 

 
a b
Beispiel 4.78. Sei K ein beliebiger Köper und sei n = 2. Ist A = invertierbar, so ist
c d
nach Satz 4.77 die Inverse gegeben durch:
   
−1 1 d −c 1 d −b
A = = .
det(A) −b a ad − bc −c a

Die Transposition der Matrix beim zweiten Term war nötig, weil in (4.32) die Indizes i und j
auf den beiden Seiten in vertauschter Reihenfolge auftreten.

Beispiel 4.79. Sei K = C und n = 3. Dann ist nach Satz 4.77:


−1 
0 1 i 4i − 3 −2 3 − 2i 4i − 3 −4 + 31 2

1
1

1 i 1 = −4 + 3i −2i 2   = −2 −2i i  .
 3i 3i
2 3 4  2 i −1  3 − 2i 2 −1

Hat ein inhomogenes lineares Gleichungssystem genau eine Lösung, dann kann diese mit Hilfe
von Determinanten berechnet werden.

Satz 4.80 (Cramer’sche Regel). Sei K ein Körper und sei n ∈ N. Seien a1, . . ., an, b ∈ K n ,
und sei A = (a1, . . ., an ) ∈ Mat(n, K) invertierbar.
Dann ist die eindeutige Lösung x ∈ K n des linearen Gleichungssystems Ax = b gegeben
durch:
det(a1, . . ., ai−1, b, ai+1, . . ., an )
xi = . (4.34)
det(A)

Beweis. Da A invertierbar ist, hat das lineare Gleichungssystem Ax = b genau eine Lösung,
nämlich x = A−1 · b. Nach Satz 4.77 ist der (i, j)-te Eintrag von A−1 gegeben durch
  1
A−1 ij = · (−1)i+ j · det(AStr
ji ) .
det(A)
4.3. Determinanten 219

Daher ist die i-te Komponente des Lösungsvektors x gegeben durch



n
  1 
n
xi = A−1 ij · bj = (−1)i+ j · det(AStr
ji ) · b j . (4.35)
j=1
det(A) j=1

Wir berechnen det(a1, . . ., ai−1, b, ai+1, . . . , an ) indem wir nach der i-ten Spalte entwickeln.
Dabei beachten wir, dass die Streichungsmatrix dann dieselbe ist wie die von A.

n
det(a1, . . . , ai−1, b, ai+1, . . ., an ) = (−1)i+ j · b j · det(AStr
ji ) .
j=1

Wir setzen dies in (4.35) ein und erhalten die Behauptung. 

Beispiel 4.81. Sei K = C und betrachte das lineare Gleichungssystem Ax = b mit


0 1 i 3



A = 1 i 1 und b = 0. Nach Beispiel 4.69 ist det(A) = 3i  0, so dass die Matrix A nach
2 3 4 0
Satz 4.64 invertierbar ist. Wir berechnen die eindeutige Lösung x mittels der Cramer’schen
Regel:

3 1 i
1
3(4i − 3)
x1 = det 0 i 1 = = 4 + 3i,
3i 3i
0 3 4
0 3 i
1
−6
x2 = det 1 0 1 = = 2i,
3i 3i
2 0 4
0 1 3
1
3(3 − 2i)
x3 = det 1 i 0 = = −2 − 3i .
3i 3i
2 3 0
Also ist die Lösung gegeben durch

4 + 3i



x = 2i  .
−2 − 3i 

Für lineare Gleichungssysteme mit wenigen Gleichungen und Unbekannten, so wie in diesem
Beispiel, kann die Cramer’sche Regel eine bequeme Möglichkeit sein, die Lösung zu berechnen.
Für sehr große Matrizen dagegen erfordert die Determinantenbestimmung einen gewaltigen
Rechenaufwand. Daher ist die Cramer’sche Regel dann meist nicht praktikabel. Der Gauß’sche
Algorithmus ist dann vorzuziehen, vergleiche Anhang B.3.
220 4. Lineare Abbildungen

Der folgende Satz liefert eine weitere Möglichkeit, die Determinante zu berechnen. Er besagt,
dass wir die Determinante bekommen, indem wir Produkte von Einträgen der Matrix bilden
und diese mit dem richtigen Vorzeichen aufsummieren. Die Produkte, die dabei vorkommen,
sind alle die, bei denen aus jeder Zeile und jeder Spalte genau ein Faktor auftritt. Dazu erinnern
wir uns daran, dass Sn die Gruppe der Permutationen von {1, . . ., n} bezeichnet und sgn(σ)
das Signum der Permutation σ.

Satz 4.82. Sei K ein Körper, sei n ∈ N und sei A ∈ Mat(n, K) mit den Einträgen Ai j . Dann
gilt: 
det(A) = sgn(σ) · A1,σ(1) · · · An,σ(n) . (4.36)
σ∈Sn

Bemerkung 4.83. Bevor wir den Beweis durchführen, überlegen wir kurz, was dieser Satz für
kleine Matrizen besagt. Im Fall n = 1 haben wir S1 = {id} und daher

det(A) = A11 .

Im Fall n = 2 ist S2 = {id, τ}, wobei τ die Vertauschung von 1 und 2 ist. Transpositionen haben
Signum −1. Es folgt

det(A) = +A1,id(1) · A2,id(2) − A1,τ(1) · A2,τ(2) = A11 · A22 − A12 · A21 .

Für n = 3 erinnern wir uns daran, dass


, - , - , - , - , - , -
1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3
S3 = , , , , , ,
1 2 3 2 3 1 3 1 2 1 3 2 3 2 1 2 1 3

vgl. Seite 133. Die ersten drei Permutationen haben positives Signum, die letzten drei negatives.
Also besagt Satz 4.82:

det(A) =A11 · A22 · A33 + A12 · A23 · A31 + A13 · A21 · A32
− A11 · A23 · A32 − A13 · A22 · A31 − A12 · A21 · A33 .

In allen Fällen erhalten wir wieder dieselben Formeln wie in Bemerkung 4.68.

4 : Mat(n, K) → K durch die rechte


Beweis von Satz 4.82. Wir definieren die Abbildung det
Seite der Gleichung im Satz,

4
det(A) := sgn(σ) · A1,σ(1) · · · An,σ(n) .
σ∈Sn

Wir werden nun nachweisen, dass det4 eine Determinantenabbildung ist, so dass wir wegen der
4
Eindeutigkeitsaussage in Satz 4.65 folgern können, dass det(A) = det(A) für alle A ∈ Mat(n, K).
Damit ist der Satz dann bewiesen.
4.3. Determinanten 221

Zu (D1):
Entsteht A aus A durch Multiplikation der k-ten Zeile mit λ ∈ K, dann gilt

4 ) =
det(A sgn(σ) · A1,σ(1) · · · (λ · Ak,σ(k) ) · · · An,σ(n)
σ∈Sn

=λ· sgn(σ) · A1,σ(1) · · · Ak,σ(k) · · · An,σ(n)
σ∈Sn
4
= λ · det(A).

Die Additivität sieht man ähnlich.

Zu (D2):
Seien die k-te und die l-te Zeile von A gleich, wobei k < l. In anderen Worten, es gilt Ak j = Al j
für alle j = 1, . . ., n.
Sei τ ∈ Sn die Transposition, die k und l vertauscht. Für eine Permutation σ ∈ Sn nennen
wir σ  := σ ◦ τ den Partner von σ. Ist σ  der Partner von σ, dann gilt wegen τ2 = id, dass
σ  ◦ τ = σ ◦ τ ◦ τ = σ, d.h. dann ist σ auch der Partner von σ . Wegen τ  id ist kein σ sein
eigener Partner.
Ist σ  der Partner von σ, dann gilt Ak,σ(k) = Al,σ(k) = Al,σ ◦τ(k) = Al,σ (l) . Analog gilt
Al,σ(l) = Ak,σ (k) . Stimmt i weder mit k noch mit l überein, so gilt σ(i) = σ (i). Also stimmen
die beiden Produkte, die zu σ bzw. zu seinem Partner σ  gehören, überein,

A1,σ(1) · · · Ak,σ(k) · · · Al,σ(l) · · · An,σ(n) = A1,σ (1) · · · Ak,σ (k) · · · Al,σ (l) · · · An,σ (n) .

Die Vorzeichen, die zu σ bzw. zu σ  gehören, sind jedoch entgegengesetzt, denn

sgn(σ ) = sgn(σ ◦ τ) = sgn(σ) · sgn(τ) = −sgn(σ),

da das Signum einer Transposition stets gleich −1 ist. Also hebt sich in der Summe in (4.36)
4
der Beitrag einer jeder Permutation mit dem Beitrag des Partners weg. Wir erhalten det(A) = 0.

Zu (D3):
Sei A = 1n . Die einzige Permutation, die einen Beitrag zur Summe in (4.36) liefert, ist σ = id,
denn bei jeder anderen Permutation kommen Nichtdiagonaleinträge im Produkt vor, die im
Fall A = 1n gleich 0 sind. Also ist
4
det(A) = sgn(id) · A11 · · · Ann = 1. 

Bemerkung 4.84. Ähnliche Matrizen haben dieselbe Determinante, denn ist  ähnlich zu A,
d.h. Â = T · A·T −1 für ein T ∈ GL(n, K), so ist nach dem Determinatenmultiplikationssatz 4.75:
      1
det  = det T · A · T −1 = det(T) · det(A) · det T −1 = det(T) · det(A) · = det(A).
det(T)
222 4. Lineare Abbildungen

Definition 4.85. Sei K ein Körper, sei V ein endlich-dimensionaler K-Vektorraum, sei B
eine Basis von V, und sei ϕ : V → V ein Endomorphismus. Dann heißt
 
det(ϕ) := det MBB (ϕ) (4.37)

Determinante von ϕ.

Bemerkung 4.86. Die Determinante eines Endomorphismus ϕ : V → V ist wohldefiniert,


d.h. unabhängig von der Wahl der Basis B. Denn ist B eine weitere Basis von V , dann sind die

darstellenden Matrizen MBB (ϕ) und MBB (ϕ) ähnlich. Somit ist nach Bemerkung 4.84
    
det MBB (ϕ) = det MBB (ϕ) .

Beispiel 4.87. Wir berechnen die Determinante einer Drehung in der Ebene um den Winkel
θ. In der Standardbasis von R2 wird diese Drehung durch die Matrix
 
cos θ − sin θ
Rθ =
sin θ cos θ

dargestellt. Für die Determinante erhalten wir also:


 
  cos θ − sin θ
det Rθ = det = cos2 (θ) + sin2 (θ) = 1 .
sin θ cos θ

Beispiel 4.88. Analog berechnen wir die Determinate einer Achsenspiegelung. Dabei wollen
wir an der Achse spiegeln, die durch den Ursprung geht und mit der e1 -Achse den Winkel θ
einschließt. In der Standardbasis hat diese Achsenspiegelung die darstellende Matrix
 
cos 2θ sin 2θ
Sθ = .
sin 2θ − cos 2θ

Für die Determinate erhalten wir daher:


 
  cos 2θ sin 2θ
det Sθ = det = − cos2 (2θ) − sin2 (2θ) = −1 .
sin 2θ − cos 2θ

In Beispiel 4.47 haben wir gesehen, dass die Spiegelungsmatrix zu


 
1 0
0 −1

ähnlich ist. Damit ist offensichtlich det(Sθ ) = −1.


4.4. Orientierungen 223

Beispiel 4.89. Sei V = R4 [x] der R-Vektorraum der Polynome vierten Grades mit reellen
Koeffizienten. Sei ϕ = dx d
: R4 [x] → R4 [x] der Endomorphismus, der durch die Ableitung
der Polynomfunktionen gegeben ist, d.h. ϕ(x k ) := k · x k−1 . In der geordneten Basis B =
(1, x, x 2, x 3, x 4 ) von R4 [x] hat ϕ dann die darstellende Matrix


0 1 0 0 0

0 0
0 2 0

MBB (ϕ) = 0 0 0 3 0 .

0
0 0 0 4
0 0 0 0 0
 
Somit ist det(ϕ) = det MBB (ϕ) = 0.

Bemerkung 4.90. Seien ϕ, ψ ∈ End(V) Endomorphismen eines endlich-dimensionalen K-


Vektorraums V . Dann gilt:

(i) ϕ ist ein Automorphismus ⇔ det(ϕ)  0.


 
(ii) Ist ϕ ein Automorphismus, so ist det ϕ−1 = 1
det(ϕ) .

(iii) det(ϕ ◦ ψ) = det(ϕ) · det(ψ).

Beweis. Zu (i):
Sei B eine Basis von V und n = dim(V). Dann haben wir folgende Äquivalenzen:

ϕ ist Automorphismus ⇐⇒ MBB (ϕ) ist invertierbar ⇐⇒ det(MBB (ϕ))  0 ⇐⇒ det(ϕ)  0.

Zu (ii):
  −1
Wegen MBB (ϕ−1 ) = MBB (ϕ) folgt die Behauptung aus (4.31).

Zu (iii):
Die Behauptung folgt aus dem Determinantenmultiplikationssatz 4.75 und der Propositi-
on 4.34. 

Die praktische Berechnung von Determinanten kann und sollte nun hier geübt
werden: http://ueben.cbaer.eu/03.html

4.4. Orientierungen
Determinanten sind von großer geometrischer Bedeutung. Wir werden sie in diesem Abschnitt
benutzen, um Orientierungen zu definieren. Später werden sie uns noch bei der Berechnung
von Volumina gute Dienste leisten.
224 4. Lineare Abbildungen

Im Folgenden betrachten wir endlich-dimensionale Vektorräume und ihre geordneten Basen.


Dabei schließen wir den uninteressanten Fall des 0-dimensionalen Vektorraums V = {0} aus,
da es dann nur eine Basis, nämlich die leere Menge gibt. Sind B und B zwei geordnete Basen
eines endlich-dimensionalen K-Vektorraums, so ist die Transformationsmatrix TBB invertierbar,
d.h. die Determinante ist ungleich 0, det(TBB )  0. Wir schränken uns nun auf den Fall reeller
Vektorräume ein, also K = R. Dann gibt es die beiden Möglichkeiten det(TBB ) > 0 und
det(TBB ) < 0.

Definition 4.91. Sei V  {0} ein endlich-dimensionaler R-Vektorraum. Zwei geordnete


Basen B und B von V heißen gleich orientiert , falls
 
det TBB > 0

und entgegengesetzt orientiert oder auch verschieden orientiert, falls


 
det TBB < 0.

Lemma 4.92. Sei V  {0} ein endlich-dimensionaler reeller Vektorraum. Die Bedingung
„gleich orientiert“ definiert eine Äquivalenzrelation auf der Menge aller geordneten Basen
von V, d.h.

(i) Jede geordnete Basis ist mit sich selbst gleich orientiert.

(ii) Sind B und B gleich orientiert, so sind auch B und B gleich orientiert.

(iii) Sind B und B gleich orientiert und B und B gleich orientiert, so sind auch B und B
gleich orientiert.

Beweis. Zu (i):
Jede Basis ist zu sich selbst gleich orientiert, denn es gilt:

det(TBB ) = det(1n ) = 1 > 0 .

Zu (ii):
Sind B und B orientierte Basen, so gilt nach Gleichung (4.8) in Bemerkung 4.36 für die

Transformationsmatrizen TBB = (TBB )−1 . Sind B und B gleich orientiert, so ist det(TBB ) > 0.
Damit ist nach Korollar 4.76
    1
det TBB = det (TBB )−1 = > 0.
det(TBB )

Folglich sind auch B und B gleich orientiert.


4.4. Orientierungen 225

Zu (iii):
Seien nun B, B und B geordnete Basen von V, wobei B und B sowie B und B jeweils
gleich orientiert seien. Wegen (4.9) gilt für die Transformationsmatrizen

TBB = TBB · TBB

und damit nach dem Determinantenmultiplikationssatz 4.75


 
det(TBB ) = det(TBB · TBB ) = det(TBB ) · det(TBB ) > 0 .
()*+ ()*+
>0 >0

Somit sind auch B und B gleich orientiert. 

Sei V ein endlich-dimensionaler reeller Vektorraum. Für jede geordnete Basis B von V sei

O(V, B) := {B | B ist geordnete Basis von V, die mit B gleich orientiert ist}.

Lemma 4.92 (i) besagt B ∈ O(V, B). Insbesondere ist O(V, B)  ∅. Aussage (ii) besagt

B ∈ O(V, B) =⇒ B ∈ O(V, B).

Die dritte Aussage schließlich besagt

B ∈ O(V, B) =⇒ O(V, B) ⊂ O(V, B).

Sind nun B und B zwei geordnete Basen von V , dann treten zwei Fälle auf.
1. Fall:B und B sind gleich orientiert.
Dann ist B ∈ O(V, B) und somit O(V, B) ⊂ O(V, B). Andererseits ist aber auch B ∈ O(V, B)
und somit O(V, B) ⊂ O(V, B). Also gilt dann

O(V, B) = O(V, B).

2. Fall:B und B sind entgegengesetzt orientiert.


Gäbe es nun eine geordnete Basis B von V im Durchschnitt O(V, B) ∩ O(V, B), dann wäre

B ∈ O(V, B) ∧ B ∈ O(V, B)


=⇒ B ∈ O(V, B) ∧ B ∈ O(V, B)
=⇒ B ∈ O(V, B) ∧ O(V, B) ⊂ O(V, B)
=⇒ B ∈ O(V, B),

also wären B und B gleich orientiert, Widerspruch! Daher müssen O(V, B) und O(V, B) im
2. Fall disjunkt sein,
O(V, B) ∩ O(V, B) = ∅.
Diese Überlegungen haben lediglich Lemma 4.92 benutzt, also die Tatsache, dass „gleich
orientiert“ eine Äquivalenzrelation bildet.
226 4. Lineare Abbildungen

Definition 4.93. Sei V  {0} ein endlich-dimensionaler R-Vektorraum. Dann heißen die
Mengen O(V, B) Orientierungen von V.

Lemma 4.94. Jeder endlich-dimensionale reelle Vektorraum V  {0} besitzt genau zwei
Orientierungen.

Beweis. a) Wir zeigen zunächst, dass V mindestens zwei Orientierungen hat. Dazu set-
zen wir n := dim(V). Sei B = (b1, . . ., bn ) eine geordnete Basis von V. Wir setzen
B := (−b1, b2, . . ., bn ) und zeigen, dass B und B entgegengesetzt orientiert sind. Die Trans-
formationsmatrix zwischen den beiden Basen ist gegeben durch


−1 0 . . . . . . 0
0 1 0 . . . 0

. .. .. 
TBB = .. 0 . . ,
.. . . . ... 
.

0 . . . . . . 0 1 
und daher ist det(TBB ) = −1 < 0. Somit sind die Basen B und B entgegengesetzt orientiert,
und daher ist O(V, B)  O(V, B). Es gibt also mindestens zwei Orientierungen.
b) Nun bleibt zu zeigen, dass V höchstens zwei Orientierungen hat. Angenommen, es gäbe
mehr als zwei Orientierungen von V. Dann gibt es Basen B, B und B von V, die paarweise
verschieden orientiert sind; d.h. für die Transformationsmatrizen zwischen diesen Basen gilt:

det(TBB ) < 0, det(TBB ) < 0 und det(TBB ) < 0 .

Dann aber wäre


 
0 > det(TBB ) = det(TBB · TBB ) = det(TBB ) · det(TBB ) > 0,
()*+ ()*+
<0 <0

Widerspruch! 

Fassen wir zusammen: Durch das Konzept „gleich orientiert“ wird die Menge aller geordneten
Basen von V disjunkt in zwei Teilmengen zerlegt, die beiden Orientierungen von V. Wir haben
jetzt also zwei Sorten von geordneten Basen V. Wählen wir irgendeine geordnete Basis B von
V, dann besteht die erste Sorte von geordneten Basen genau aus denjenigen, die mit B gleich
orientiert sind, die zweite aus genau denjenigen, die zu B entgegengesetzt orientiert sind.

Bemerkung 4.95. Die allgemeinen Eigenschaften der Determinante liefern folgende Aussa-
gen:
4.4. Orientierungen 227

(i) Vertauschung zweier Basisvektoren kehrt die Orientierung um.

(ii) Ersetzung eines Basisvektors durch sein Negatives kehrt die Orientierung um.

(iii) Streckung eines Basisvektores um einen positiven Faktor erhält die Orientierung.

Verschaffen wir uns nun eine anschauliche Vorstellung von der Bedeutung des Konzepts der
Orientierung im Falle kleiner Dimensionen n = dim(V ):

Beispiel 4.96. Im eindimensionalen Fall, n = 1, besteht eine (geordnete) Basis aus einem
Vektor  0. Seien B = (b) und B = (b) zwei geordnete Basen von V. Dann ist b = t · b
für ein t  ∈ R \ {0} und TBB = t . Also sind B und B genau dann gleich orientiert, wenn
t = det t > 0. Gleich orientiert zu sein, heißt im eindimensionalen Fall also, dass die
Basisvektoren in dieselbe Richtung zeigen.

b b
b
0 0 0

b b
b
gleich orientiert entgegengesetzt orientiert gleich orientiert
Abb. 71 Orientierung in einer Dimension

Eine Orientierung entspricht im Fall n = 1 also einer Durchlaufrichtung.

Abb. 72 Die beiden Orientierungen eines eindimensionalen R-Vektorraums

Beispiel 4.97. Im Fall n = 2 entspricht die Orientierung dem „Drehsinn“ der Basen:

b2 b1 b2 b2
b2 b1

b1 b1
gleich orientiert entgegengesetzt orientiert
Abb. 73 Orientierung in 2 Dimensionen

Wie kann man sich das vorstellen? Nehmen wir an, Sie sitzen im Auto und fahren auf einer
schnurgeraden Straße in Richtung b1 . Da b1 und b2 linear unabhängig sind, zeigt b2 nicht in
228 4. Lineare Abbildungen

Fahrtrichtung und auch nicht entgegengesetzt der Fahrtrichtung. Um b2 zu sehen, müssen Sie
also nach links oder nach rechts aus dem Auto sehen.
Zwei Basen sind nun genau dann gleich orientiert, wenn Sie in dieselbe Richtung aus dem Auto
(das in Richtung des ersten Basisvektors fährt) sehen müssen, um den zweiten Basisvektor zu
sehen. Ihr Kopf muss sich also in dieselbe Richtung drehen, wenn die Basen gleich orientiert
sind.
Warum stimmt das? Um das einzusehen, stellen wir zunächst fest, dass die Orientierung einer
Basis sich
 nicht ändert, wenn man die Basis dreht. Dies liegt daran, dass die Drehmatrix
cos(θ) − sin(θ)
Rθ = positive Determinante cos(θ)2 + sin(θ)2 = 1 hat. Also können wir
sin(θ) cos(θ)
nach Drehung annehmen, dass die ersten Basisvektoren b1 und b1 kollinear sind und in dieselbe

Richtung zeigen, d.h. b1 = αb1 mit α > 0. Die Basistransformationsmatrix TBB hat also die
Form
 
B α β
TB = .
0 γ

Nun ist det(TBB ) = α · γ positiv genau dann, wenn γ > 0. Dies bedeutet gerade, dass b2 und b2
auf derselben Seite der „Straße“ R · b1 liegen.

b2
b2

β b1 b1
Abb. 74 Orientierung in 2 Dimensionen

Beispiel 4.98. Im Fall n = 3 entspricht die Orientierung der „Händigkeit“ der Basen, d.h.
die Basen sind gleich orientiert, wenn sie durch Daumen, Zeigefinger und Mittelfinger dersel-
ben Hand beschrieben werden können, und entgegengesetzt orientiert, wenn man dazu zwei
verschiedene Hände braucht.

b1 b1
b2 b2

b3 b3
Entgegengesetzt orientierte Basen

Abb. 75 Orientierung in 3 Dimensionen


4.4. Orientierungen 229

Definition 4.99. Hat man auf einem endlich-dimensionalen reellen Vektorraum eine Orien-
tierung O gewählt, so nennt man eine Basis B von V positiv orientiert (bzgl. O), falls B ∈ O,
und negativ orientiert andernfalls.

Definition 4.100. Der Vektorraum V = Rn , n ∈ N, besitzt die geordnete Standardbasis


(e1, . . ., en ) und damit auch die Standardorientierung O = O(Rn, (e1, . . . , en )).

Bemerkung 4.101. Orientierungen sind sehr robust, d.h. bei kleinen Änderungen der Basis
bleibt die Orientierung erhalten. Genauer: Sind v1, . . ., vn : I → Rn stetige Abbildungen und
I ⊂ R ein Intervall, so dass (v1 (t), . . ., vn (t)) für jedes t ∈ I eine geordnete Basis ist, dann sind
alle (v1 (t), . . ., vn (t)) gleich orientiert.

Beweis. Die Funktion I → R mit t → det (v1 (t), . . ., vn (t)) ist stetig und verschwindet auf
ganz I nirgends. Also ist sie immer positiv oder immer negativ (vgl. Zwischenwertsatz aus der
Analysis). Damit sind entweder alle (v1 (t), . . . , vn (t)) gleich orientiert wie die Standardbasis
oder alle sind der Standardbasis entgegengesetzt orientiert. 

Man kann also entgegengesetzt orientierte Basen nicht ineinander deformieren.

Definition 4.102. Sei V  {0} ein endlich-dimensionaler reeller Vektorraum. Ein Auto-
morphismus ϕ : V → V heißt orientierungserhaltend oder auch orientierungstreu, falls
det(ϕ) > 0, und orientierungsumkehrend, falls det(ϕ) < 0.

Beispiel 4.103. Nach Beispiel 4.87 sind in V = R2 die Drehungen, dargestellt durch die
Drehmatrizen Rθ , orientierungserhaltend. Die Achsenspiegelungen, gegeben durch die Spie-
gelungsmatrizen Sθ , sind dagegen gemäß Beispiel 4.88 orientierungsumkehrend.

Bemerkung 4.104. Ein Automorphismus ϕ von V ist orientierungstreu genau dann, wenn
für jede geordnete Basis B = (b1, . . . , bn ) gilt: Die geordneten Basen B und B :=
(ϕ(b1 ), . . ., ϕ(bn )) sind gleich orientiert.

Beweis. Für die Transformationsmatrix zwischen den Basen B und B gilt TBB = MBB (ϕ), und

somit det(TBB ) = det(ϕ). 

Bemerkung 4.105. Direkt aus den Definitionen und den Eigenschaften der Determinante folgt
nun:

(i) id ist orientierungserhaltend.


230 4. Lineare Abbildungen

(ii) Sind ϕ, ψ ∈ Aut(V) orientierungserhaltend, so ist auch ψ ◦ ϕ orientierungserhaltend.

(iii) Ist ϕ ∈ Aut(V) orientierungserhaltend, so ist auch ϕ−1 orientierungserhaltend.

4.5. Aufgaben
4.1. Sei die lineare Abbildung ϕ A : R4 → R4 , v → A · v, durch die folgende Matrix gegeben:


−1 3 5 −2
1 −1 −1 1 

A= .
−5 3 1 −4 

2 −2 −2 2 
a) Geben Sie jeweils eine Basis für ker(ϕ A) und im(ϕ A) sowie die Dimension dieser Unter-
vektorräume an.

b) Untersuchen Sie, ob die folgenden Vektoren im Kern oder im Bild von ϕ A liegen:


1
1
−4  
 2 
v1 = , v2 = .
1  3 
 
−4  4 

4.2. Sei A ∈ Mat(n × m, K) und B ∈ Mat(m × l, K). Sei ϕ A : K m → K n , ϕ A(x) = A · x, und


ähnlich für ϕ B : K l → K m .
Zeigen Sie, dass das Matrixprodukt der beiden Matrizen der Verkettung der zugehörigen
linearen Abbildungen entspricht, genauer:

ϕ A ◦ ϕ B = ϕ A·B .

4.3. Drehen wir in der Ebene erst um einen Winkel θ 1 und dann um θ 2 , so sollten wir insgesamt
eine Drehung um den Winkel θ 1 + θ 2 erhalten. Zeigen Sie, dass in der Tat gilt:

Rθ2 · Rθ1 = Rθ1 +θ2 .

4.4. Sei V ein K-Vektorraum und seien U und W zwei endlichdimensionale Untervektorräume
von V.
a) Zeigen Sie:
dim(U + W) + dim(U ∩ W) = dim(U) + dim(W).
Hinweis: Starten Sie mit einer Basis für U ∩ W und nutzen Sie den Basisergänzungssatz.

b) Gilt die Aussage auch für unendlichdimensionale Untervektorräume, wenn wir für n ∈ Z
die Konventionen n + ∞ = ∞ und ∞ + ∞ = ∞ verwenden?
4.5. Aufgaben 231

4.5. Sei K ein Körper und V und W seien K-Vektorräume. Für ϕ, ψ ∈ Hom(V, W) definieren
wir die Summe durch (ϕ + ψ)(v) := ϕ(v) + ψ(v) für alle v ∈ V, wobei das zweite +-Zeichen die
Addition in W bezeichnet. Analog definieren wir das Produkt von λ ∈ K und ϕ ∈ Hom(V, W)
durch (λ · ϕ)(v) := λ · ϕ(v).
Zeigen Sie, dass damit Hom(V, W) zu einem K-Vektorraum wird.

4.6. Sei K ein Körper und V ein K-Vektorraum. Der Vektorraum V ∗ := Hom(V, K) heißt
Dualraum von V. Ist V endlich-dimensional mit geordneter Basis B = (b1, . . . , bn ), dann
können wir β1, . . ., βn ∈ V ∗ festlegen durch

β j (λ1 b1 + . . . + λn bn ) = λ j .

Zeigen Sie, dass (β1, . . ., βn ) eine geordnete Basis von V ∗ ist. Sie heißt die zu B duale Basis.
 
4.7. Sei K = F3 und V = (F3 )4 . Berechnen Sie die Transformationsmatrizen TAA , TAA , TAA ,
 
TAA , TAA und TAA für die geordneten Basen

1
0
1
0
0 2 1 1
   
A = (e1, e2, e3, e4 ), A = (e1, e3, e2, e4 ) und A =  ,  ,  , 
1 0 0 0
   
0 1 2 0
von V.

4.8. Sei K = R und V = Abb(R, R). Sei ϕ : V → V die Abbildung, die eine Funktion
„um 1 verschiebt“, genauer, ϕ( f )(x) = f (x − 1). So würde z.B. die Polynomfunktion x 2 auf
(x − 1)2 = x 2 − 2x + 1 abgebildet.

a) Zeigen Sie, dass ϕ : V → V linear ist.

b) Sei W ⊂ V der Untervektorraum der Polynomfunktionen vom Grad ≤ 3. Zeigen Sie, dass
A = (1, x, x 2, x 3 ) und A = (1 + x, 1 − x, x 2 · (1 + x), x 2 (1 − x)) Basen von W sind.

c) Da ϕ(W) ⊂ W gilt, können wir ϕ zu einer Abbildung ψ : W → W einschränken. Berechnen


 
Sie die darstellenden Matrizen M AA(ψ), M AA (ψ), M AA (ψ) und M AA (ψ).

4.9. Sei K ein Körper und A ∈ Mat(n, K). Zeigen Sie, dass die beiden folgenden Aussagen
äquivalent sind:

(1) A ist Vielfaches der Identität, d.h. es gibt ein λ ∈ K mit A = λ · 1n .

(2) A ist nur zu sich selbst ähnlich.

Hinweis für die Richtung „(2)⇒(1)“: Zeigen Sie zunächst, dass die lineare Abbildung ϕ A :
K n → K n jeden Vektor auf ein Vielfaches von sich abbildet.
232 4. Lineare Abbildungen

4.10. Berechnen Sie die Determinante der Matrix


a)  
1 i
.
i −1

b)
1 2 1


2 3 4 .

−1 1 2
c)

1 2 1 0
1 4
2 3
.
−1 1 2 1

1 1 1 0

4.11. Zeigen Sie, dass für alle z ∈ C gilt:


z 1 1 1
1
z 1 1
det  = (z + 3)(z − 1)3 .
1 1 z 1

1 1 1 z

4.12. Bestimmen Sie die Determinante von


0 0 · · · 0 1


0 0 · · · 1 0

.. .. . . .. .. 
.
. . . .  ∈ Mat(n, R).
0 
1 · · · 0 0

1 0 ··· 0 0


4.13. Für a ∈ R sei das folgende lineare Gleichungssystem gegeben:

2 3 a x 2




4 a −3  · y  = 1 
  
−2 1 2  z  0 
a) Untersuchen Sie, für welche Werte von a ∈ R dieses Gleichungssystem keine, genau eine
bzw. unendlich viele Lösungen hat.
b) Bestimmen Sie in dem Fall, dass das Gleichungssystem genau eine Lösung hat, diese
Lösung mit Hilfe der Cramer’schen Regel.
4.5. Aufgaben 233

4.14. Sei A ∈ Mat(n, Z). Zeigen Sie, dass

a) det(A) ∈ Z.

b) A genau dann in Mat(n, Z) invertierbar ist, wenn det(A) = ±1.

4.15. Zeigen Sie, dass für die Vandermonde-Determinante gilt:


1 x1 · · · x1n−1

. . .. 
det .. .. .  = (x j − xi ).

1 xn · · ·
n−1 1≤i< j≤n
xn 

Hinweis: Der Beweis erfolgt mit vollständiger Induktion nach n. Zeigen Sie im Induktionsschritt
mittels Spaltenumformungen, dass gilt:


1 0 0 ··· 0

1 x1 · · · x1n−1 1 (x2 − x1 ) · 1 (x2 − x1 ) · x2 · · · (x2 − x1 ) · x n−2 
. . ..  2 
det .. .. .  = det .. .. .. .. .. .
. . . . . 

1 xn · · ·
n−1
xn 
1 (xn − x 1 ) · 1 (xn − x 1 ) · xn · · · (xn − x1 ) · x n−2
n 

4.16. Sei K ein Körper mit unendlich vielen Elementen. Geben Sie eine unendliche Teilmenge
X ⊂ K n an, so dass jede n-elementige Teilmenge von X linear unabhängig ist.
Hinweis: Hier kann die Vandermonde-Determinante helfen.

4.17. Untersuchen Sie, ob die folgenden beiden geordneten Basen von R3 gleich orientiert
sind oder nicht:

4 −1 −3 1 5 1




 
B1 = −2  , 1  , 2  ,
B2 = 4  , 1  , 0  .
 

1  3  1  0  −4  5 

4.18. Entscheiden Sie, für welche n ∈ N die lineare Abbildung −id : Rn → Rn orientierungs-
erhaltend ist.

4.19. Geben Sie zwei stetige Abbildungen v, w : [0, 1] → R3 an, so dass (v(t), w(t)) für jedes
t ∈ [0, 1] linear unabhängig sind, dass L(v(0), w(0)) = L(v(1), w(1)) =: V und dass (v(0), w(0))
und (v(1), w(1)) entgegengesetzt orientierte Basen von V bilden.

4.20. Sei B := (b1, . . ., bn ) eine geordnete Basis des Vektorraums V . Zu einer Permutation
σ ∈ Sn betrachten wir die geordnete Basis B := (bσ(1), . . ., bσ(n)). Zeigen Sie, dass B und B
genau dann gleich orientiert sind, wenn sgn(σ) = +1 gilt.
5. Geometrie

Der in der Schule übliche Einstieg


in die Geometrie ist dazu angetan,
das Hirn eines jungen Menschen
in Stein zu verwandeln.

(Leonard Mlodinow
Das Fenster zum Universum. Eine
kleine Geschichte der Geometrie)

Bereits in Abschnitt 2.4 haben wir uns mit Geometrie, genauer mit der Geometrie der Ebene,
beschäftigt. Dies wollen wir nun fortsetzen, wobei wir uns nicht mehr auf zwei Dimensionen
beschränken.
Geometrisch beschreibt ein 1-dimensionaler Untervektorraum eine Gerade und ein 2-
dimensionaler eine Ebene. Da Untervektorräume stets den Nullvektor enthalten, erhalten wir
so nur Geraden und Ebenen, die den Ursprung enthalten. Um auch Geraden und Ebenen zu
beschreiben, die nicht durch den Ursprung gehen, müssen wir zunächst das Konzept von Un-
tervektorräumen verallgemeinern. Dies führt uns auf affine Unterräume. Analog dazu werden
lineare Abbildungen zu affinen Abbildungen verallgemeinert.

5.1. Affine Unterräume und affine Abbildungen

Sei K ein Körper und V ein K-Vektorraum. Wir verwenden von nun an folgende Notation: Für
jede Teilmenge A ⊂ V und jeden Vektor v ∈ V sei

A + v := v + A := {a + v | a ∈ A}

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_5
236 5. Geometrie

die Menge, die man erhält, indem man A um den Vektor v verschiebt.

A+v

a+v
a A

Abb. 76 Um v verschobene Menge A

Für uns ist jetzt besonders der Fall interessant, in dem ein Untervektorraum verschoben wird.

Definition 5.1. Sei V ein K-Vektorraum. Eine Teilmenge von V der Form U = U0 + v ⊂ V
heißt affiner Unterraum, wenn v ∈ V ist und U0 ⊂ V ein Untervektorraum.

v+w

v
w
U
0
U0
Abb. 77 Affiner Unterraum

Da man für den Verschiebungsvektor insbesondere v = 0 wählen kann, ist jeder Untervektor-
raum auch ein affiner Unterraum. Es gibt jedoch im Allgemeinen mehr affine Unterräume als
Untervektorräume.

Lemma 5.2. Sei V ein K-Vektorraum und U0 ⊂ V ein Untervektorraum. Ist U = v + U0 ein
affiner Unterraum von V, so gilt:

U0 = {a − a | a, a ∈ U} . (5.1)

Insbesondere ist der Untervektorraum U0 durch den affinen Unterraum U eindeutig bestimmt.
5.1. Affine Unterräume und affine Abbildungen 237

Beweis. Wir zeigen zuerst: U0 ⊂ {a−a | a, a ∈ A}. Sei dazu w ∈ U0 beliebig. Setze a := v +w
und a := v + 0. Dann sind a, a ∈ v + U0 = U und a − a = w.
Für die umgekehrte Inklusion seien nun a, a ∈ A. Dann gibt es w, w ∈ U0 , so dass a = v + w
und a = v + w. Damit ist a − a = w − w ∈ U0 . 

Definition 5.3. Sei U ein affiner Unterraum von V. Dann heißt der eindeutig bestimmte
Untervektorraum U0 ⊂ V mit U = v + U0 der zu U gehörige Untervektorraum von V.

Während der Untervektorraum U0 durch den affinen Unterraum U = v + U0 festgelegt ist, gilt
dies nicht für den Verschiebungsvektor v.

Lemma 5.4. Sei V ein K-Vektorraum, sei U0 ⊂ V ein Untervektorraum und seien v, v  ∈ V.
Dann gilt:
v + U0 = v  + U0 ⇐⇒ v − v  ∈ U0 . (5.2)

Beweis. Zu „⇒“:
Sei v + U0 = v  + U0 . Wegen v = v + 0 ∈ v + U0 = v  + U0 gibt es ein w ∈ U0 mit v = v  + w.
Somit ist v − v  = w ∈ U0 .

Zu „⇐“:
Sei nun v − v  ∈ U0 . Zu zeigen ist: v + U0 = v  + U0 . Sei dazu v  + w ∈ v  + U0 beliebig. Dann
ist
v  + w = v + w + (v  − v) ∈ v + U0 .
()*+
∈U0

Somit ist v  +U0 ⊂ v +U0 . Ganz analog zeigt man die umgekehrte Inklusion v +U0 ⊂ v  +U0 .

Der Verschiebungsvektor v in der Darstellung U = v + U0 ist durch jeden beliebigen Vektor


v  ∈ U ersetzbar.

Lemma 5.5. Sei V ein K-Vektorraum, sei U ⊂ V ein affiner Unterraum und U0 ⊂ V der
zugehörige Untervektorraum. Sei v ∈ V. Dann gilt:

U = v + U0 ⇐⇒ v ∈ U.

Beweis. Zu „⇒“:
Ist U = v + U0 , so gilt v = v + 0 ∈ v + U0 = U.
238 5. Geometrie

Zu „⇐“:
Sei v ∈ U. Wir schreiben U = v  +U0 für ein v  ∈ V. Dann ist nach dem ersten Teil auch v  ∈ U
und daher nach Lemma 5.2 v − v  ∈ U0 . Aus Lemma 5.4 folgt dann v + U0 = v  + U0 = U. 

Korollar 5.6. Sei V ein K-Vektorraum, sei U ⊂ V ein affiner Unterraum und U0 ⊂ V der
zugehörige Untervektorraum. Dann sind äquivalent:

(1) U ist ein Untervektorraum.

(2) U = U0 .

(3) 0 ∈ U.

Beweis. Die Implikationen „(1)⇒(3)“ und „(2)⇒(1)“ sind klar. Die Implikationen „(3)⇒(2)“
folgt aus Lemma 5.5, denn mit 0 ∈ U ist U = 0 + U0 = U0 . 

Definition 5.7. Sei V ein K-Vektorraum und U ⊂ V ein affiner Unterraum mit zugehörigem
Untervektorraum U0 . Dann heißt dim U := dim U0 die Dimension des affinen Unter-
raums U.

Beispiel 5.8. Sei K = R und V = R2 . Wir bestimmen die affinen Unterräume U von V:
a) Ist dim(U) = 0, so muss U0 = {0} sein. Somit ist jede einpunktige Menge U = v +{0} = {v}
mit v ∈ V ein 0-dimensionaler affiner Unterraum von V. Mit anderen Worten ist
{0-dimensionale affine Unterräume von V } = {{v} | v ∈ V } .

b) Ist dim(U) = 1, so ist U0 von der Form U0 = {λ · w | λ ∈ R} für ein w  0, also eine
Ursprungsgerade. Damit ist U = v + U0 = G v,w eine Gerade in V. Mit anderen Worten ist
{eindimensionale affine Unterräume von V } = {Geraden in V } .

c) Ist dim = 2, so ist U0 = V . Damit ist U = v + U0 = V . Mit anderen Worten ist


{zweidimensionale affine Unterräume von V } = {V } .

Generell haben wir in niedrigen Dimensionen folgende affine Unterräume bzw. Untervektor-
räume eines K-Vektorraums V:
dim affine Unterräume Untervektorräume
0 Punkte Ursprung
1 Geraden Ursprungsgeraden
2 Ebenen Ursprungsebenen
Tab. 25 Affine Unterräume in niedrigen Dimensionen
5.1. Affine Unterräume und affine Abbildungen 239

Definition 5.9. Sei V ein n-dimensionaler K-Vektorraum. Die eindimensionalen affinen Un-
terräume nennen wir Geraden, die zweidimensionalen Ebenen und die (n−1)-dimensionalen
Hyperebenen.

Lemma 5.10. Sei V ein K-Vektorraum und sei I eine Menge. Seien Ai ⊂ V, i ∈ I, affine
Unterräume von V.
/
Dann ist i∈I Ai entweder leer oder selbst wieder ein affiner Unterraum.

/ /
Beweis. Sei i∈I Ai  ∅, denn andernfalls ist nichts zu zeigen. Dann gibt es ein v ∈ i∈I Ai ,
d.h. v ∈ Ai für alle i ∈ I. Schreiben wir die affinen Unterräume Ai als Ai = v + Wi mit
zugehörigen Untervektorräumen Wi ⊂ V, so ist also
. . . .
Ai = (v + Wi ) = {v + w | w ∈ Wi ∀i ∈ I} = {v + w | w ∈ Wi } = v + Wi .
i∈I i∈I i∈I i∈I
/
Da der Schnitt W := i∈I Wi von Untervektorräumen stets wieder ein Untervektorraum ist, ist
/
i∈I Ai = v + W ein affiner Unterraum von V. 

Beispiel 5.11. Sei K = R, und sei V = R3 . Seien A1 und A2 affine Unterräume von V der
Dimension 1 bzw. 2. Dann haben wir folgende drei Fälle für A1 ∩ A2 :
1. Fall: 2. Fall: 3. Fall:

A1 A1
A1 A2 A2 A2

A1 ∩ A2 = ∅ A1 ∩ A2 Punkt A1 ∩ A2 Gerade

Abb. 78 Schnittmenge affiner Unterräume


Nachdem wir nun Untervektorräume zu affinen Unterräumen verallgemeinert haben, führen
wir auch die entsprechende Verallgemeinerung linearer Abbildungen ein. Lineare Abbildun-
gen bilden stets den Ursprung (Nullvektor) auf sich ab. In der Geometrie sind jedoch auch
Abbildungen wichtig, die das nicht tun, z.B. Verschiebungen.

Definition 5.12. Seien V und W zwei K-Vektorräume. Eine Abbildung F : V → W heißt


affine Abbildung, falls es eine lineare Abbildung ϕ : V → W und ein w ∈ W gibt, so dass
F(v) = ϕ(v) + w (5.3)
für alle v ∈ V gilt.
240 5. Geometrie

Eine affine Abbildung F ist also gegeben durch eine lineare Abbildung ϕ und einen Verschie-
bungsvektor w. Beide sind durch F festgelegt, denn
F(0) = ϕ(0) + w = w
und
ϕ(v) = F(v) − w = F(v) − F(0).
Wir nennen ϕ den linearen Teil von F.
Ist der lineare Teil ϕ = id, d.h. ist F von der Form F(v) = v + w, dann nennt man F eine
Translation. Für die Translation mit dem Verschiebungsvektor w schreibt man oft Tw statt F.
Jede affine Abbildung ist die Verkettung einer linearen Abbildung mit einer Translation, denn
für F mit F(v) = ϕ(v) + w gilt F = Tw ◦ ϕ.

Satz 5.13. Seien V, W, Z drei K-Vektorräume, und seien F : V → W und G : W → Z zwei


affine Abbildungen. Dann gilt:

(i) Die Verkettung G ◦ F ist eine affine Abbildung.

(ii) Ist A ⊂ V ein affiner Unterraum, so ist auch F(A) ⊂ W ein affiner Unterraum. Ist ϕ
der lineare Teil von F und U der zu A gehörige Untervektorraum, dann ist ϕ(U) der zu
F(A) gehörige Untervektorraum.

(iii) Ist B ⊂ W ein affiner Unterraum, so ist F −1 (B) entweder leer oder ein affiner Unter-
raum. Ist ϕ der lineare Teil von F und U der zu B gehörige Untervektorraum, dann ist
ϕ−1 (U) der zu F −1 (B) gehörige Untervektorraum.

(iv) Ist F(v) = ϕ(v) + w, wobei ϕ : V → W eine lineare Abbildung ist, so gilt:

F ist injektiv ⇔ ϕ ist injektiv.


und F ist surjektiv ⇔ ϕ ist surjektiv.

Beweis. Zu (i):
Sei F(x) = ϕ(x)+w und G(y) = ψ(y)+z mit linearen Abbildungen ϕ : V → W und ψ : W → Z
und Vektoren w ∈ W und z ∈ Z. Dann gilt für jedes x ∈ V:
(G ◦ F)(x) = G(F(x))
= ψ(F(x)) + z
= ψ(ϕ(x) + w) + z
= ψ(ϕ(x)) + ψ(w) + z
 
= (ψ ◦ ϕ)(x) + ψ(w) + z .
Somit ist G ◦ F eine affine Abbildung mit dem linearen Teil ψ ◦ ϕ : V → Z und dem
Verschiebungsvektor ψ(w) + z ∈ Z.
5.1. Affine Unterräume und affine Abbildungen 241

Zu (ii):
Sei A = v + U für ein v ∈ V und einen Untervektorraum U ⊂ V. Sei F(x) = ϕ(x) + w mit
ϕ : V → W linear und w ∈ W. Dann ist

F(A) = ϕ(A) + w
= ϕ(v + U) + w
= ϕ(v) + ϕ(U) + w
 
= ϕ(v) + w + ϕ(U)

ein affiner Unterraum von W, denn nach Satz 4.10 ist ϕ(U) ⊂ W ein Untervektorraum.

Zu (iii):
Sei U ⊂ W der dem affinen Unterraum B ⊂ W zugehörige Untervektorraum. Sei ferner
F −1 (B)  ∅ und sei v0 ∈ F −1 (B). Dann ist F(v0 ) ∈ B und daher B = F(v0 ) + U. Sei nun
F(v) = ϕ(v) + w mit linearer Abbildung ϕ : V → W. Damit ist

F −1 (B) = {v ∈ V | F(v) ∈ B}
= {v ∈ V | ϕ(v) + w ∈ F(v0 ) + U}
= {v ∈ V | ϕ(v) + w ∈ (ϕ(v0 ) + w) + U}
= {v ∈ V | ϕ(v) ∈ ϕ(v0 ) + U}
= {v ∈ V | ϕ(v) − ϕ(v0 ) ∈ U}
= {v ∈ V | ϕ(v − v0 ) ∈ U}
= {v ∈ V | v − v0 ∈ ϕ−1 (U)}
= v0 + ϕ−1 (U)

ein affiner Unterraum von W, denn nach Satz 4.10 ist ϕ−1 (U) ⊂ V ein Untervektorraum.

Zu (iv):
Sei F = Tw ◦ ϕ mit ϕ : V → W linear. Die Translation Tw ist bijektiv mit Umkehrabbildung
(Tw )−1 = T−w . Daraus folgt unmittelbar die Behauptung. 

Korollar 5.14. Sei ϕ : V → W eine lineare Abbildung. Dann ist das Urbild ϕ−1 ({w}) eines
Punktes w ∈ W entweder leer oder ein affiner Unterraum von V.
Im letzteren Fall ist ϕ−1 ({w}) = v + ker(ϕ) für jedes v ∈ V mit ϕ(v) = w.

Beweis. Die erste Behauptung folgt aus Satz 5.13 (iii), denn {w} ist ein (0-dimensionaler)
affiner Unterraum von W. Der zu {w} gehörige Untervektorraum ist {0}. Also ist ϕ−1 (0) =
ker(ϕ) der zu ϕ−1 (w) gehörige Untervektorraum. 

Bemerkung 5.15. Mit diesen Erkenntnissen über affine Abbildungen können wir lineare Glei-
chungssysteme nochmal neu betrachten. Beim Lösen inhomogener LGS tun wir nichts anderes,
242 5. Geometrie

als das Urbild eines Punktes unter einer linearen Abbildung zu bestimmen. Lautet das LGS
A · x = b, dann ist die lineare Abbildung einfach die, die durch Matrixmultiplikation mit
der m × n-Matrix A gegeben ist, d.h. ϕ : K n → K m , ϕ(x) = A · x. Die Lösungsmenge ist
Lös(A, b) = ϕ−1 (b). Gemäß Korollar 5.14 ist Lös(A, b) ein affiner Unterraum von K n oder
leer. Ist Lös(A, b) ein 0-dimensionaler affiner Unterraum, hat das LGS genau eine Lösung. Ist
Lös(A, b) ein -dimensionaler affiner Unterraum mit  ≥ 1, dann hat das LGS genau so viele
Lösungen, wie K  Elemente hat. Dies sind unendlich viele, wenn K unendlich viele Elemente
hat wie z.B. für K = R. Außerdem gilt für jedes x ∈ Lös(A, b):
Lös(A, b) = ϕ−1 (b) = x + ker(ϕ) = x + Lös(A, 0).

5.2. Volumina
In diesem Abschnitt verwenden wir Determinanten zur Volumenberechnung. Um unnötige
Wiederholungen und überflüssigen Arbeitsaufwand zu vermeiden, behandeln wir alle Dimen-
sionen auf einmal. Dabei haben wir uns unter einem eindimensionalen Volumen eine Länge,
einem zweidimensionalen Volumen einen Flächeninhalt und einem dreidimensionalen Volu-
men das anschauliche Volumen eines Körpers im dreidimensionalen Raum vorzustellen. Die
Theorie funktioniert aber auch für Volumina in Dimension ≥ 4.
Systematisch entwickelt man diese Theorie in der so genannten Maßtheorie, einer mathemati-
schen Disziplin, die eng mit der Analysis und der Wahrscheinlichkeitstheorie zusammenhängt.
Wir werden hier lediglich einige Eigenschaften der Volumenfunktion benutzen ohne uns um
die Einzelheiten ihrer Konstruktion zu kümmern.
Legen wir zunächst fest, von welchen Mengen wir das Volumen untersuchen werden. Sei Kn
die Menge der n-dimensionalen reellen Kompakta, also

Kn := {X ⊂ Rn | X ist beschränkt und abgeschlossen} = {X ⊂ Rn | X kompakt} .


Hierbei bedeutet beschränkt, dass X sich nicht ins Unendliche erstreckt. Genauer heißt dies,
dass einen Radius R > 0 gibt mit
X ⊂ BR (0) := {x ∈ Rn |  x ≤ R} .
Eine Teilmenge X ⊂ Rn heißt abgeschlossen, wenn jeder Punkt x ∈ Rn , für den es Punkte
xi ∈ X mit lim xi = x gibt, selbst zu X gehören muss, x ∈ X.
i→∞

Definition 5.16. Das n-dimensionale Volumen ist eine Abbildung

voln : Kn → R

mit voln (X) ≥ 0 für alle X ∈ Kn , so dass gilt:

1. Für den n-dimensionalen Einheitswürfel Wn = [0, 1] × . . . × [0, 1] ⊂ Rn gilt voln (Wn ) = 1.


()*+
n-mal
5.2. Volumina 243

2. Ist X ⊂ Y, so gilt voln (X) ≤ voln (Y ).

3. Es gilt voln (X ∪ Y ) = voln (X) + voln (Y ) − voln (X ∩ Y) für alle X, Y ∈ Kn .

4. Ist F : Rn → Rn eine affine Abbildung, d.h. F(x) = Ax + b mit A ∈ Mat(n, R) und b ∈ Rn ,


dann gilt für alle X ∈ Kn :

voln (F(X)) = |det(A)| · voln (X).

Die vierte Bedingung stellt sicher, dass sich das Volumen „richtig verhält“. Bei Translationen,
d.h. A = 1n , ändert sich das Volumen nicht. Strecken wir das Kompaktum in eine Richtung
mit dem Faktor r, so sollte sich das Volumen mit r multiplizieren.

F(X) F(X)
X
X

Abb. 79 Volumenänderung bei Streckung

 
3 0
So erwarten wir z.B. für det = 3, dass sich das 2-dimensionale Volumen eines Rechtecks
0 1
verdreifacht (Streckung in e1 -Richtung mit dem Faktor 3). Für die Streckung in alle drei
2 0 0


Richtungen mit dem Faktor 2, d.h. für det 0 2 0 = 8, wird sich das dreidimensionale
0 0 2
Volumen verachtfachen, denn 2 = 8.
3

Für die nachfolgenden Volumenberechnungen brauchen wir überhaupt nicht zu wissen, wie
man das Volumen definiert. Wir kommen allein mit den Eigenschaften 1 bis 4 von voln aus.
Daher nehmen wir von jetzt ab an, dass voln ein n-dimensionales Volumen ist und überlassen
den Existenzbeweis der Maßtheorie.

Definition 5.17. Eine Teilmenge X ⊂ Rn der Form

X = {q + t1 b1 + . . . + tn bn | ti ∈ [0, 1]}

für eine Basis {b1, . . ., bn } von Rn und q ∈ Rn heißt n-dimensionales Parallelotop.

Beispiel 5.18. Für n = 2 erhalten wir ein Parallelogramm, im Falle n = 3 ein Parallelepiped.
244 5. Geometrie

b2 b3

q b1 b2

0 q b1
0
Abb. 80 Parallelogramm und Parallelepiped

Für die Berechnung des Volumens betrachten wir die affine Abbildung F : Rn → Rn , F(x) =
Ax + b, mit A = (b1, . . . , bn ) und b = q, wobei b1, . . ., bn das n-dimensionale Parallelotop X
aufspannen. Mittels der Definition von Wn sieht man leicht:

F(Wn ) = X .

Damit folgt:

4. 1.
voln (X) = voln (F(Wn )) = |det(A)| · voln (Wn ) = |det(A)| · 1 = |det(b1, . . ., bn )| .

Wir haben also gezeigt, dass das n-dimensionale Volumen eines Parallelotops X, das durch die
Vektoren b1, . . . , bn aufgespannt wird, gegeben ist durch

voln (X) = | det(b1, . . ., bn ) | (5.4)

Man kann Formel (5.4) als eine Formel ansehen, die uns sagt, wie man mit Hilfe der Deter-
minante das Volumen von Parallelotopen bestimmt. Man kann sie umgekehrt aber auch als
eine mögliche geometrische Definition der Determinante betrachten. Die Determinante einer
reellen n × n-Matrix A ist 0, wenn die Matrix nicht maximalen Rang hat. Wenn sie maximalen
Rang hat, dann bilden die Spaltenvektoren eine Basis von Rn und die Determinante det(A) ist,
bis aufs Vorzeichen, das n-dimensionale Volumen des von den Spaltenvektoren aufgespannten
Parallelotops. Das Vorzeichen ist +1, wenn die geordnete Basis der Spaltenvektoren positiv
orientiert ist, und negativ, wenn sie negativ orientiert ist.
Das folgende Lemma verallgemeinert die Tatsache, dass eine Menge, die in einer Ebene
enthalten ist, dreidimensionales Volumen 0 haben muss, und eine Menge, die in einer Geraden
enthalten ist, Flächeninhalt 0.

Lemma 5.19. Sei X ∈ Kn . Sei X ferner enthalten in einem (n − 1)-dimensionalen affinen


Unterraum V ⊂ Rn . Dann ist
voln (X) = 0.
5.2. Volumina 245

Beweis. Mittels einer affinen Abbildung machen wir uns zunächst das Leben etwas leichter und
verschieben X in eine „günstige“ Lage. Da Translationen das Volumen nicht ändern, können
wir V so verschieben, dass V auf einen Untervektorraum abgebildet wird. Dabei wird X mit
verschoben, ohne dass das Volumen sich ändert. Daher können wir ohne Beschränkung der
Allgemeinheit annehmen, dass V ein Untervektorraum von Rn ist.
Sei (b1, . . ., bn−1 ) eine geordnete Basis von V . Wir ergänzen sie zu einer Basis B := (b1, . . . , bn )
von Rn . Sei nun P : Rn → Rn die lineare Abbildung, die bzgl. der Basis B die darstellende
Matrix  
1n−1 0
MB (P) =
B
0 0

hat. In anderen Worten, P(bi ) = bi für i = 1, . . . , n − 1 und P(bn ) = 0. Für alle x ∈ V gilt dann
P(x) = x. Insbesondere gilt dies für alle x ∈ X und wir erhalten P(X) = X. Da rg(P) = n − 1
ist, ist det(P) = 0. Nun gilt

voln (X) = voln (P(X)) = | det(P)| · voln (X) = 0 · voln (X) = 0. 

Dreiecke. Wir kommen nun zu zweidimensionalen Volumina vol2 (Δ) von Dreiecken Δ.
Durch Verdoppelung des Dreiecks längs der Hypotenuse erhalten wir ein Parallelogramm.

b2

q Δ
Δ
b1
Abb. 81 Flächenberechnung für Dreiecke

Für das entstandene Parallelogramm bekommen wir

|det (b1, b2 )| = vol2 (Δ ∪ Δ) = vol2 (Δ) + vol2 (Δ) − vol2 (Δ ∩ Δ) = vol2 (Δ) + vol2 (Δ).
()*+
(5.19)
= 0

Nun ist aber vol2 (Δ) = vol2 (Δ), denn Δ geht aus Δ durch eine Drehung hervor. Drehungen
haben Determinante 1 und ändern daher nicht den Flächeninhalt. Also gilt:

1
vol2 (Δ) = |det (b1, b2 )| (5.5)
2
246 5. Geometrie


      
−1 1 2 −1
Beispiel 5.20. Habe Δ die Ecken , , . Wir nehmen q = und erhalten
0 1 −2 0
     
1 −1 2
b1 = − = sowie
1 0 1
     
2 −1 3
b2 = − = .
−2 0 −2
Damit ist   
1 1  2 3  1 7
vol2 (Δ) = |det (b1, b2 )| = det  = |−7| = .
2 2 1 −2  2 2

Die oben hergeleitete Formel eignet sich gut für Dreiecke, deren Ecken man explizit kennt.
Häufig kennt man jedoch nur Seitenlängen und Winkel. Was macht man dann? Betrachten wir
dazu das Dreieck Δ mit einem Innnenwinkel 0 < γ < π. Die beiden anliegenden Seiten sollen
die Länge a bzw. b haben.

 b·cos γ 
b·sin γ

b
γ
γ  0  a
e1
0 0
a
Abb. 82 Dreieck mit vorgegebenem Innenwinkel

Ohne den Flächeninhalt von Δ zu ändern erreichen wir durch Translation zunächst, dass eine
Ecke im Ursprung zu liegen kommt. Dann drehen wir, was wiederum den Flächeninhalt nicht
ändert, so dass die zweite Ecke auf der e1 -Achse zu liegen kommt. Da  der Abstand von der
a
ersten zur zweiten Ecke a beträgt, ist die zweite Ecke gegeben durch . Die dritte Ecke hat
0
  den Abstand b und schließt mit der e1 -Achse den Winkel γ ein. Daher ergibt sie
von der ersten
b
sich aus durch eine Drehung um den Winkel γ. Sie ist gegeben durch
0
      
b cos (γ) − sin (γ) b b · cos(γ)
Rγ · = = .
0 sin (γ) cos (γ) 0 b · sin(γ)
Wir setzen in die Flächenformel für Dreiecke ein und erhalten
  
1  a b cos(γ)  1
vol2 (Δ) = det  = |ab sin(γ)| .
2 0 b sin(γ)  2
5.2. Volumina 247

Wir können daher den Flächeninhalt eines Dreiecks, von dem wir die zwei Seitenlängen a, b
und den eingeschlossenen Winkel γ ∈ (0, π) kennen, nach folgender Formel berechnen:
1
vol2 (Δ) = ab sin(γ) (5.6)
2
b
π
Im Spezialfall rechtwinkliger Dreiecke mit γ = 2 ergibt sich: a

Abb. 83 Rechtwinkliges Dreieck


ab
vol2 (Δ) = (5.7)
2
Daraus erhält man für ein beliebiges Dreieck

h Δ Δ
Δ1 2
a1 a2
a = a1 + a2
Abb. 84 Dreieck, zusammengesetzt aus zwei rechtwinkligen

eine Flächenformel in Termen der Grundlänge und der Höhe:


vol2 (Δ) = vol2 (Δ1 ∪ Δ2 )
= vol2 (Δ1 ) + vol2 (Δ2 ) − vol2 (Δ1 ∩ Δ2 )
()*+
=0
a1 h a2 h
= +
2 2
ah
= ,
2
also:
1
vol2 (Δ) = ah (5.8)
2

Regelmäßige n-Ecke.

E(r, n)

Δ
γ

Abb. 85 Regelmäßiges n-Eck


248 5. Geometrie

Wir betrachten ein regelmäßiges n-Eck E(r, n), dessen Ecken vom Mittelpunkt den Abstand r
haben. Die Segmente dieses n-Ecks sind Dreiecke mit Innenwinkel 2πn und anliegenden Sei-
tenlängen r.

r
γ Δ γ= 2π
n
r
Abb. 86 Segment von E(r, n)

r2
Jedes Segment hat daher den Flächeninhalt 2 n ). Wir erhalten:
sin( 2π
$ %
nr 2 2π
vol2 (E(r, n)) = · sin (5.9)
2 n

Kreisscheiben. Wir approximieren den Flächeninhalt einer Kreisscheibe D(r) vom Radius r
von innen und von außen.
Dazu beschreiben wir zunächst der Kreis-
scheibe ein n-Eck E(r, n) ein und erhalten
eine untere Schranke für den Flächenin- r
halt.
Abb. 87 Einbeschriebenes n-Eck

Für das einbeschriebene n-Eck gilt E(r, n) ⊂ D(r) für alle n, also gilt nach der zweiten
Eigenschaft von Volumina
$ %
nr 2 2π
vol2 (D(r)) ≥ vol2 (E(r, n)) = · sin .
2 n
Da dies für jedes n gilt, können wir n gegen ∞ gehen lassen und erhalten mit der Substitution
x = 2π
n :
$ 2 $ %% $ %
nr 2π 2π r 2
vol2 (D(r)) ≥ lim · sin = lim · · sin (x)
n→∞ 2 n x→0 x 2
$ %
sin (x)
= πr 2 · lim = πr 2 .
x→0 x
()*+
=1

Die einbeschriebenen n-Ecke haben uns also die Abschätzung vol2 (D(r)) ≥ πr 2 geliefert. Als
Nächstes benutzen wir umschriebene n-Ecke, um die entgegengesetzte Ungleichung herzulei-
ten. Dann folgt vol2 (D(r)) = πr 2 .
5.2. Volumina 249

r
Für das umschriebene n-Eck E(rn, n) erhalten wir aus der γ
π
Beziehung cos n = rn die Gleichung rn = cosr π .
r
(n) rn

Abb. 88 Umschriebenes n-Eck


Wir bekommen
$ % $ %
nrn2 2π nr 2 2π
vol2 (E(rn, n)) = · sin =    · sin .
2 n π 2 n
2 · cos n
Aus E(rn, n) ⊃ D(r) folgt nun

nr 2 sin 2πn
vol2 (D(r)) ≤ vol2 (E(rn, n)) =   π  2,
2 · cos n

also, wiederum mit der Substitution x = 2π


n :

nr 2 sin 2π
x sin (x)

n
vol2 (D(r)) ≤ lim    = lim   
2 cos πn
n→∞ 2 x→0 2 cos x 2
2
sin (x) 1
= πr 2 · lim ·   x  2 = πr .
2
x→0 x cos
()*+ 2
→1
()*+
→1

Insgesamt haben wir gezeigt:


vol2 (D(r)) = πr 2 (5.10)

Ellipsen. Vom Flächeninhalt der Einheitskreisscheibe D(1) ausgehend, betrachten wir Ge-
biete E(a, b), welche von Ellipsen mit den halben Hauptachsenlängen a und b berandet werden.
Es gilt also    
 2 y2
x 2 x
E(a, b) = ∈R  2+ 2 ≤1 .
y a b

b
a

Abb. 89 Ellipse
250 5. Geometrie

 
a 0
Hierzu wird D(1) in e1 -Richtung um den Faktor a und in e2 -Richtung um b mittels A =
0 b
gestreckt. In anderen Worten, es gilt E(a, b) = A(D(1)). Wir erhalten

vol2 (E(a, b)) = |det(A)| · vol2 (D(1)) = ab · π,

also:
vol2 (E(a, b)) = πab (5.11)

Weitere Beispiele für die Berechnung von Volumina, insbesondere in Dimension ≥ 3, finden
sich in Anhang A.3.

5.3. Geometrie der Ebene, Teil 2


Wir wollen die Geometrie der Ebene noch ein wenig weiterführen. Dazu erinnern wir uns an
die Drehmatrizen  
cos θ − sin θ
Rθ = .
sin θ cos θ
Die Menge der Drehmatrizen
SO(2) := {Rθ | θ ∈ R}
bildet eine Untergruppe von GL(2, R), denn
1. das neutrale Element 12 = R0 ∈ SO(2);
2. mit Rθ1 und Rθ2 ∈ SO(2) ist auch das Produkt Rθ1 · Rθ2 = Rθ1 +θ2 ∈ SO(2);
3. mit Rθ ∈ SO(2) ist auch das Inverse Rθ−1 = R−θ ∈ SO(2).

Definition 5.21. Die Gruppe SO(2) heißt spezielle orthogonale Gruppe von R2 .

Die Gruppe SO(2) ist, im Gegensatz zu GL(2, R), abelsch, denn für alle θ 1, θ 2 ∈ R gilt

Rθ1 · Rθ2 = Rθ1 +θ2 = Rθ2 +θ1 = Rθ2 · Rθ1 .

Lemma 5.22. Für alle v, w ∈ R2 und alle Drehmatrizen Rθ ∈ SO(2) gilt:

(i) Rθ · v, Rθ · w = v, w.

(ii) Drehungen sind längenerhaltend, Rθ · v = v.

(iii) Rθ · v, v = cos θ · v, v.


5.3. Geometrie der Ebene, Teil 2 251

Beweis. Zu (i):
Für v, w ∈ R2 und Rθ ∈ SO(2) berechnen wir
5$ % $ %6
cos θ · v1 − sin θ · v2 cos θ · w1 − sin θ · w2
Rθ (v), Rθ (w) = ,
sin θ · v1 + cos θ · v2 sin θ · w1 + cos θ · w2
= (cos θ)2 · v1 w1 − cos θ sin θ · (v1 w2 + v2 w1 ) + (sin θ)2 · v2 w2
+ (sin θ)2 · v1 w1 + cos θ sin θ · (v1 w2 + v2 w1 ) + (cos θ)2 · v2 w2
= v1 w1 + v2 w2
= v, w .
Gleichung (ii) ergibt sich aus (i), indem man v = w setzt und die Wurzel zieht.

Zu (iii):
5$ % $ %6
cos θ · v1 − sin θ · v2 v1
Rθ (v), w = ,
sin θ · v1 + cos θ · v2 v2
= cos θ · v1 v1 − sin θ · v2 · v1 + sin θ · v1 · v2 + cos θ · v2 v2
= cos θ · v, v
= cos θ · v 2 . 

Für die letzte Aussage des Lemmas hat man im Fall v = 1 folgende geometrische Interpre-
tation:

Rθ (v)

θ
()*+ v
cos θ

Abb. 90

Speziell für θ = π/2 setzen wir


   
cos(π/2) − sin(π/2) 0 −1
J := Rπ/2 = = .
sin(π/2) cos(π/2) 1 0
Wir erinnern uns auch an die Spiegelungsmatrizen
 
cos(2θ) sin(2θ)
Sθ = .
sin(2θ) − cos(2θ)
252 5. Geometrie

Die Menge O(2)− := {Sθ | θ ∈ R} der Spiegelungsmatrizen bildet keine Untergruppe von
GL(2, R), denn 12  O(2)− .

Lemma 5.23. Für alle v, w ∈ R2 und alle Spiegelungsmatrizen Sθ ∈ O(2)− gilt

(i) Sθ · v, Sθ · w = v, w.

(ii) Spiegelungen sind längenerhaltend, Sθ · v = v.

Beweis. Der Beweis ist ganz ähnlich wie der von Lemma 5.22. 

Lemma 5.24. Für alle θ 1, θ 2 ∈ R gelten die folgenden Beziehungen:

Sθ1 · Sθ2 = R2(θ1 −θ2 ), (5.12)


Sθ1 · Rθ2 = Sθ1 −θ2 /2, (5.13)
Rθ1 · Sθ2 = Sθ2 +θ1 /2 . (5.14)

Bemerkung 5.25. Identifiziert man R2 wie üblich mit C durch (x, y) = x + iy, dann ist
Matrixmultiplikation mit Rθ dasselbe wie komplexe Multiplikation mit eiθ und Matrixmulti-
plikation mit Sθ ist die Abbildung z → e2iθ · z̄. Hat man dies erkannt, so kann man Lemma 5.24
mit komplexen Zahlen recht einfach beweisen.

Beweis von Lemma 5.24. Beginnen wir mit Gleichung (5.14). In komplexer Schreibweise er-
halten wir für die Anwendung von Rθ1 · Sθ2 :

eiθ1 · e2iθ2 · z̄ = e2i(θ2 +θ1 /2) · z̄,

was nichts anderes als die Anwendung von Sθ2+θ1 /2 ist. Gleichung (5.13) folgt aus

e2iθ1 · eiθ2 · z = e2iθ1 · eiθ2 · z̄ = e2i(θ1 −θ2 /2) · z̄

und (5.12) aus


e2iθ1 · e2iθ2 · z̄ = e2iθ1 · e2iθ2 · z = e2i(θ1 −θ2 ) · z. 

Betrachten wir nun den Spezialfall θ 1 = θ 2 = θ, dann sagt uns (5.13)

Sθ · Rθ = Sθ/2 .

Also gilt für $ % $ %


cos θ − sin θ
vθ := Rθ · e1 = und wθ := Rθ · e2 = ,
sin θ cos θ
5.3. Geometrie der Ebene, Teil 2 253

e2

wθ vθ
θ θ
e1

Abb. 91

dass

Sθ · vθ = Sθ · Rθ · e1 = Sθ/2 · e1 = vθ sowie
Sθ · wθ = Sθ · Rθ · e2 = Sθ/2 · e2 = −wθ .

Dies zeigt, dass Sθ die Achsenspiegelung an der von vθ aufgespannten Achse darstellt. Das
passt auch zu der Beobachtung, dass wegen (5.12)

Sθ · Sθ = R0 = 12

gilt, und damit Sθ ihr eigenes Inverses ist.

Definition 5.26. Die Menge O(2) := SO(2) ∪ O(2)− heißt die orthogonale Gruppe von R2 .

Satz 5.27. O(2) ist eine Untergruppe von GL(2, R).

Beweis. Zunächst einmal stellen wir fest, dass 12 ∈ SO(2) ⊂ O(2). Dann zeigen die Glei-
chungen (5.12)-(5.14), dass Produkte von Elementen aus O(2) stets wieder in O(2) enthalten
sind. Schließlich sind die Inversen von Drehmatrizen wieder Drehmatrizen, und die von Spie-
gelungsmatrizen sind sogar gleich sich selbst, also wieder Spiegelungsmatrizen. In jedem Fall
sind die Inversen wieder in O(2). 

Bemerkung 5.28. Im Gegensatz zu SO(2) ist O(2) allerdings nicht abelsch, denn z.B. ist

S0 · Rπ/2 = S−π/4, aber Rπ/2 · S0 = Sπ/4 .


254 5. Geometrie

Nun charakterisieren wir Dreh- und Spiegelungsmatrizen mit Hilfe des Skalarprodukts.

Satz 5.29. Es gilt:

O(2) = {T ∈ GL(2, R) | T x, T y = x, y ∀x, y ∈ R2 }.

Beweis. Die Inklusion „⊂“ folgt aus Lemma 5.22 (i) und Lemma 5.23 (i).

Zu „⊃“:
Sei T ∈ GL(2, R) mit T x, T y = x, y für alle x, y ∈ R2 . Speziell für x = y = e1 erhalten wir

T e1  2 = T e1, T e1  = e1, e1  = e1  2 = 1.

Also ist der Vektor T e1 von der Form


$ %
cos θ
T e1 =
sin θ

für ein θ ∈ R. Analog sieht man T e2  = 1 und außerdem gilt

T e1, T e2  = e1, e2  = 0, d.h. T e1 ⊥ T e2 .

Daher ist
 $ % $ %
0 −1 cos θ − sin θ
T e2 = ±J(T e1 ) = ± =± .
1 0 sin θ cos θ

J(T e1 )

T e1
θ
e1

90o
−J(T e1 )

Abb. 92

− sin θ 
Im Fall T e2 = cos θ ist
 
cos θ − sin θ
T = (T e1, T e2 ) = = Rθ ∈ SO(2) ⊂ O(2);
sin θ cos θ
5.3. Geometrie der Ebene, Teil 2 255

− sin θ 
und im Fall T e2 = − cos θ ist
 
cos θ sin θ
T = (T e1, T e2 ) = = Sθ/2 ∈ O(2)− ⊂ O(2). 
sin θ − cos θ

Definition 5.30. Eine affine Abbildung F : R2 → R2 , F(x) = Ax + b, deren linearer Anteil


orthogonal ist, d.h. A ∈ O(2), heißt euklidische Bewegung der Ebene. Wir definieren die
euklidische Bewegungsgruppe des R2 durch

E(2) := {euklidische Bewegungen von R2 }.

Eine affine Abbildung ist per Definition orientierungserhaltend, wenn ihr linearer Anteil dies
ist, d.h. wenn der lineare Anteil positive Determinante hat. Im Fall einer euklidischen Bewegung
bedeutet dies, dass der lineare Anteil aus SO(2) ist, denn für alle A ∈ SO(2) ist det(A) = 1
und alle A ∈ O(2)− gilt det(A) = −1. Die Menge der orientierungserhaltenden euklidischen
Bewegungen von R2 bezeichnen wir mit

E+ (2) := {orientierungserhaltende euklidischen Bewegungen von R2 }.

Definition 5.31. Sei X eine Menge und ϕ : X → X eine Abbildung. Ein Fixpunkt von ϕ
ist ein Punkt p ∈ X mit ϕ(p) = p.

Für jede lineare Abbildung ist 0 ein Fixpunkt. Affine Abbildungen hingegen brauchen keine
Fixpunkte zu haben, wie man schon an den Translationen sieht. Die Drehungen, dargestellt
durch Rθ , haben nur den Ursprung 0 als Fixpunkt, es sei denn Rθ = 12 . Dann ist jeder Punkt in
R2 Fixpunkt. Diese Bemerkung hat folgende Verallgemeinerung für orientierungserhaltende
euklidische Bewegungen:

Satz 5.32. Ist F ∈ E+ (2), F(x) = Ax + b mit A  12 , dann hat F genau einen Fixpunkt.

Beweis. Setze H := F − idR2 . Offenbar ist x ∈ R2 ein Fixpunkt von F genau dann, wenn
H(x) = 0 gilt. Da F ∈ E+ (2) ist, ist A ∈ SO(2), d.h. A = Rθ für ein θ ∈ R. Wegen A  12 muss
θ  k · 2π für alle k ∈ Z sein. Es genügt nun

det(A − 12 )  0 (5.15)
256 5. Geometrie

zu zeigen. Denn dann ist die lineare Abbildung x → (A − 12 ) · x bijekiv und damit ist nach
Satz 5.13 (iv) auch H = F − idR2 bijektiv. Also gibt es dann genau ein x ∈ R2 mit H(x) = 0,
d.h. genau einen Fixpunkt von F.
Beweis von (5.15):
 
cos θ − 1 − sin θ
det(A − 12 ) = det
sin θ cos θ − 1
= (cos θ − 1)2 + sin2 θ
= cos2 θ − 2 cos θ + 1 + sin2 θ
= 2 − 2 cos θ
= 2(1 − cos θ).

Da θ  2πk für k ∈ Z ist, ist cos θ  1. 

Wir können nun die euklidischen Bewegungen wie folgt charakterisieren:

Satz 5.33. Sei F : R2 → R2 eine beliebige Abbildung. Dann sind äquivalent:

(1) F ∈ E(2), d.h. F ist eine euklidische Bewegung.

(2) F ist abstandserhaltend, d.h. für alle x, y ∈ R2 gilt d(F(x), F(y)) = d(x, y).

Zur Vorbereitung des Beweises benötigen wir folgendes Lemma:

Lemma 5.34. Seien v, w ∈ R2 \ {0}. Ist v, w = 0, dann sind v und w linear unabhängig.

Beweis von Lemma 5.34. Seien v, w ∈ R2 \{0} mit v, w = 0. Seien α, β ∈ R mit αv + βw = 0.
Zu zeigen ist: α = β = 0. Es gilt

0 = 0, v = αv + βw, v = αv, v + βv, w = αv 2

und somit α = 0, da v  0 nach Voraussetzung. Analog sieht man β = 0. 

Beweis von Satz 5.33. Zu „(1) ⇒ (2)“:


Sei F ∈ E(2). Dann gibt es ein A ∈ O(2) und ein b ∈ R2 , so dass für alle x ∈ R2 gilt:

F(x) = Ax + b.

Wir haben dann für alle x, y ∈ R2 :


5.3. Geometrie der Ebene, Teil 2 257

d(F(x), F(y)) = F(x) − F(y)


=  Ax + b − (Ay + b)
=  Ax − Ay
=  A(x − y)
=  x − y
= d(x, y).

Dabei haben wir Lemma 5.22 bzw. Lemma 5.23 benutzt, je nachdem ob A ∈ SO(2) oder
A ∈ O(2)− .

Zu „(2) ⇒ (1)“:
Sei F abstandserhaltend. Wir setzen b := F(0) und ϕ(x) := F(x) − b. Zu zeigen ist, dass ϕ
linear ist mit darstellender Matrix M(ϕ) ∈ O(2).
Schritt 1: Wir zeigen, dass ϕ(x), ϕ(y) = x, y gilt für alle x, y ∈ R2 .
Seien nämlich x, y ∈ R2 . Betrachte das Dreieck (0, x, y). Durch F wird es abgebildet auf
das Dreieck (b, F(x), F(y)). Da F abstandserhaltend ist, haben die beiden Dreiecke dieselben
Seitenlängen. Da Translationen abstandserhaltend sind, hat das Dreieck (0, ϕ(x), ϕ(y)) ebenfalls
dieselben Seitenlängen wie (0, x, y). Gemäß Korollar 2.103 haben die beiden Dreiecke (0, x, y)
und (0, ϕ(x), ϕ(y)) auch dieselben Innenwinkel. Inbesondere gilt (x, y) = (ϕ(x), ϕ(y)). Damit
können wir berechnen:
 
ϕ(x), ϕ(y) = cos (ϕ(x), ϕ(y)) · ϕ(x) · ϕ(y)
= cos((x, y)) · d(ϕ(x), 0) · d(ϕ(y), 0)
= cos((x, y)) · d(F(x), b) · d(F(y), b)
= cos((x, y)) · d(F(x), F(0)) · d(F(y), F(0))
= cos((x, y)) · d(x, 0) · d(y, 0)
= cos((x, y) ·  x ·  y
= x, y.

Schritt 2: Nun zeigen wir, dass ϕ linear ist.


Sei dazu (e1, e2 ) die Standardbasis von R2 . Wir setzen f1 := ϕ(e1 ) und f2 := ϕ(e2 ). Für diese
Vektoren gilt zum einen

 fi  2 =  fi, fi  = ϕ(ei ), ϕ(ei ) = ei, ei  = 1.

Insbesondere sind sie nicht 0. Zum anderen haben wir

 f1, f2  = ϕ(e1 ), ϕ(e2 ) = e1, e2  = 0.

Nach Lemma 5.34 sind f1 und f2 linear unabhängig und bilden daher eine Basis von R2 .
258 5. Geometrie

 
Sei nun x ∈ R2 , x = xx12 . Wir schreiben ϕ(x) = α1 f1 + α2 f2 mit geeigneten Koeffizienten
αi ∈ R, i = 1, 2. Dann gilt einerseits, unter Benutzung des ersten Schritts,

ϕ(x), fi  = ϕ(x), ϕ(ei ) = x, ei  = xi

und andererseits

ϕ(x), fi  = α1 f1 + α2 f2, fi  = α1  f1, fi  + α2  f2, fi  = αi .

Also ist αi = xi . Bezeichnet ( f1, f2 ) die reelle 2 × 2-Matrix mit den Spalten f1 und f2 , so gilt
$ %
x1
ϕ(x) = x1 f1 + x2 f2 = ( f1, f2 ) · .
x2

Daher ist ϕ linear mit darstellender Matrix M(ϕ) = ( f1, f2 ).


Schritt 3: Die Aussage des ersten Schritts liefert nun zusammen mit Satz 5.29, dass M(ϕ) ∈
O(2). Somit ist F : R2 → R2 , F(x) = ϕ(x) + b, eine euklidische Bewegung. 

Beispiel 5.35. Die Drehungen, die durch die Matrizen Rθ dargestellt werden, haben alle den
Ursprung als Drehpunkt. Aber auch die Drehungen um einen beliebigen Drehpunkt p ∈ R2 um
einen Winkel θ sind orientierungserhaltende euklidische Bewegungen.
Denn wir können eine solche Drehung folgendermaßen als Verkettung schreiben: erst Verschie-
ben um −p, dann Drehen um θ, danach (zurück) verschieben um p. Damit hat die Abbildung
die Form
x → Rθ (x − p) + p = Rθ x + (p − Rθ p).

Bemerkung 5.36. Umgekehrt ist jedes F ∈ E+ (2) eine Drehung um einen Drehpunkt p ∈ R2
oder eine Translation, vgl. Aufgabe 5.9. Der Fixpunkt aus Satz 5.32 ist dann nichts anderes als
der Drehpunkt.

Satz 5.37 (Hesse’sche Normalform für Geraden in der Ebene). Sei v ∈ R2 \ {0} und
p ∈ R2 . Dann gilt für die Gerade G p,v :

G p,v = {x ∈ R2 | x, Jv = p, Jv}.

Bemerkung 5.38. Wir erinnern uns, dass J = Rπ/2 . Der Vektor Jv heißt Normalenvektor an
G p,v .
5.3. Geometrie der Ebene, Teil 2 259

J·v
p
v
G p,v

Abb. 93 Normalenvektor

Beweis von Satz 5.37. Zu „⊂“:


Sei x ∈ G p,v . Schreibe x = p + t · v für ein t ∈ R. Dann gilt

x, Jv = p + tv, Jv = p, Jv + t v, Jv = p, Jv.
()*+
=0

Zu „⊃“:
Die Vektoren v, Jv stehen senkrecht aufeinander und sind beide  0, denn v  0 nach Voraus-
setzung und J ist ein Automorphismus. Somit bildet (v, Jv) nach Lemma 5.34 eine Basis von
R2 .
Nehmen wir nun an, dass x die Gleichung x, Jv = p, Jv erfüllt. Wir schreiben x − p =
t · v + s · J · v mit s, t ∈ R. Dann ist

0 = x, Jv − p, Jv = x − p, Jv = tv + sJv, Jv = t v, Jv +s Jv, Jv = s  Jv 2 .
()*+ ()*+
=0 0

Also ist s = 0 und somit x − p = t · v. Es folgt x = p + t · v ∈ G p,v . 

Definition 5.39. Sei (a, b, c) ein nichtentartetes Dreieck in R2 . Die Höhe Ha ist diejenige
Gerade durch den Punkt a, die auf b − c senkrecht steht, d.h.

Ha = {x ∈ R2 | x, b − c = a, b − c}.

Analog definiert man die Höhe Hb durch b und Hc durch c.

Satz 5.40 (Höhenschnittsatz). Sei (a, b, c) ein nicht entartetes Dreieck. Dann schneiden
sich die drei Höhen in einem Punkt.
260 5. Geometrie

c
Hb Ha

a b
Hc
Abb. 94 Höhenschnittsatz

Beweis. Die Höhen Ha und Hb sind nicht parallel, weil sonst die Seiten gegenüber a bzw. b par-
allel sein müssten. Dann wäre das Dreieck entartet. Also haben Ha und Hb einen Schnittpunkt
h ∈ Ha ∩ Hb . Bleibt zu zeigen, dass h auch auf der dritten Höhe liegt, h ∈ Hc .
Wegen h ∈ Ha gilt
h, b − c = a, b − c
und wegen h ∈ Hb haben wir
h, a − c = b, a − c.
Ziehen wir die erste von der zweiten Gleichung ab, so erhalten wir für die linke Seite

h, a − c − h, b − c = h, a − c − (b − c) = h, a − b

und für die rechte

b, a − c − a, b − c = b, a − b, c − a, b + a, c = −b, c + a, c = c, a − b.

Also ist h, a − b = c, a − b, d.h. h ∈ Hc . 

Definition 5.41. Sei m ∈ R2 und r > 0. Dann heißt

Kr (m) := {x ∈ R2 | d(x, m) = r }

Kreis mit Mittelpunkt m und Radius r.

Wir können die Formel für den Kreis auch leicht modifiziert so schreiben:

Kr (m) = {x ∈ R2 |  x − m 2 = r 2 } = {x ∈ R2 | x − m, x − m = r 2 }.

Sei nun G a,v eine Gerade. Ohne Beschränkung der Allgemeinheit können wir v = 1 voraus-
setzen. Wir untersuchen nun die verschiedenen Möglichkeiten, wie die Gerade G a,v den Kreis
Kr (m) schneiden kann. Wir fragen also: Was ist G a,v ∩ Kr (m)?
Zu x = a + tv ∈ G a,v betrachte

x − m, x − m = a + tv − m, a + tv − m
= v 2 t 2 + 2a − m, vt + a − m 2
5.3. Geometrie der Ebene, Teil 2 261

= t 2 + 2a − m, vt + a − m 2 .

Das bedeutet:

x ∈ Kr (m) ⇔ t 2 + 2a − m, v · t + (a − m 2 − r 2 ) = 0. (5.16)

Die Schnittpunkte von G a,v mit Kr (m) zu berechnen ist also gleichbedeutend damit, die qua-
dratische Gleichung (5.16) für die Unbekannte t zu lösen. Die quadratische Gleichung ist in
der Form (2.21) mit p = a − m, v und q = a − m 2 − r 2 . Die Diskriminante ergibt sich zu

D = p2 − q = a − m, v 2 − (a − m 2 − r 2 ).

Nach Bemerkung 2.126 gibt uns das Vorzeichen der Diskriminante Auskunft über die Anzahl
der reellen Lösungen von (5.16).
1. Fall: Es gibt keine reelle Lösung t.
Dies ist äquivalent zu D < 0 und damit zu

a − m, v 2 < a − m 2 − r 2 . a
Insbesondere hat G a,v keine Punkte im Inneren v G a,v
des Kreises, denn sonst könnte man einen sol-
m r
chen Punkt als Aufpunkt a der Gerade nehmen
und in der Ungleichung Kr (m)
Abb. 95
a − m, v 2 < a − m 2 − r 2

wäre die rechte Seite negativ, die linke als ein


Quadrat aber ≥ 0, ein Widerspruch.

2. Fall: Es gibt genau eine Lösung t.


Dies ist äquivalent zu D = 0 und damit zu

a − m, v 2 = a − m 2 − r 2 .
v a
Wählen wir als Aufpunkt a der Gerade den G a,v
a−m
Schnittpunkt mit dem Kreis, dann ist a − m = m
r und die Bedingung an die Diskriminante ist Kr (m)
äquivalent zu Abb. 96

a − m, v = 0,

d.h. a − m steht senkrecht auf v.


In diesem Fall nennt man G a,v eine Tangente (Berührende) des Kreises Kr (m).
262 5. Geometrie

3.Fall: Es gibt zwei verschiedene reelle Lösun-


gen. Dies ist äquivalent zu D > 0 und damit
zu
a − m, v 2 > a − m 2 − r 2 . v a
G a,v
Wählt man a als einen der beiden Schnittpunk- m
te, so besagt die Bedingung an die Diskrimi- Kr (m)
nante Abb. 97
a − m, v  0,
also steht a − m in diesem Fall nicht auf v senk-
recht.
In diesem Fall nennt man G a,v eine Sekante (Schneidende) oder Sehne von Kr (m).

Satz 5.42 (Zwei-Sehnen-Satz). Sei Kr (m) ein Kreis und a ∈ R2 . Dann ist für alle Sekanten
G von Kr (m) durch den Punkt a das Produkt der Sehnenabschnitte ζ1 · ζ2 dasselbe.


ζ1

a m
ζ2
Kr (m)

Abb. 98 Zwei-Sehnen-Satz

Beweis. Sei G a,v eine Sekante von Kr (m), wobei wir wieder ohne Beschränkung der Allge-
meinheit v = 1 voraussetzen. Nach Satz 2.123 gilt für das Produkt der Lösungen t1 und t2
von (5.16)
t1 · t2 = q = a − m 2 − r 2 .
Nun gilt für die Sehnenabschnitte
ζi = d(a, a + ti v) = ti v = |ti |v = |ti | .
Also ist  
ζ1 · ζ2 = |t1 · t2 | =  a − m 2 − r 2  ,
und damit unabhängig von v, d.h. nimmt für alle Sekanten von Kr (m) durch a denselben Wert
an. 

Wir haben keine Einschränkung an die Lage von a gemacht. Der Punkt a darf auch außerhalb
des Kreises liegen. Falls a auf dem Kreis liegt, ist die Aussage des Satzes trivial, weil dann
5.4. Das Vektorprodukt 263

einer der beiden Sehnenabschnitte 0 ist und damit auch das Produkt 0 sein muss. Ganz genauso
wie den Zwei-Sehnen-Satz sieht man auch den

Satz 5.43 (Tangenten-Sehnen-Satz). Sei Kr (m) ein Kreis und a ein Punkt im Äußeren von
Kr (m), d.h. d(m, a) > r. Dann gilt für die Sehnenabschnitte ζ1 und ζ2 einer beliebigen
Sekante von Kr (m) durch den Punkt a und den Abstand I von a zu dem Schnittpunkt einer
Tangente von Kr (m) durch a, dass
I 2 = ζ1 · ζ2 . 

I a

ζ2
ζ1
m

Abb. 99 Tangenten-Sehnen-Satz

Im Tangenten-Sehnen-Satz haben wir ausgeschlossen, dass a im Inneren des Kreises liegt, weil
es sonst überhaupt keine Tangenten durch a gibt.

5.4. Das Vektorprodukt


Den Körper der komplexen Zahlen hatten wir aus R2 gewonnen, indem wir ein geeignetes
Produkt für Vektoren in R2 eingeführt haben. Kann man nun auch in höheren Dimensionen
n ≥ 3 auf Rn Produkte definieren, die Rn zu einem Körper machen? Die Antwort hierauf
lautet nein. Allerdings besitzt R3 ein interessantes Produkt, so dass R3 hierdurch zwar nicht
zu einem Körper wird, aber das Produkt doch für die dreidimensionale Geometrie nützliche
Eigenschaften hat.

Definition 5.44. Sind v, w ∈ R3 , so heißt


v w − v3 w2

2 3
v × w := v3 w1 − v1 w3  ∈ R3
v1 w2 − v2 w1 
das Vektorprodukt oder auch Kreuzprodukt von v und w.
264 5. Geometrie

Wie kann man sich diese scheinbar komplizierte Definition gut merken? Wir schreiben
v w1

1
v2 w2 , streichen die jeweils betrachtete Zeile, bilden die Determinante der entstehenden

v3 w3 
2 × 2-Matrix und versehen sie mit dem Schachbrettmustervorzeichen:
 

+ det v2 w 2
v3 w3 
 

v w 
v × w = − det .
1 1

v3 w3 
 

+ det v1 w1 
v2 w2 

Bevor wir nun das Vektorprodukt genauer untersuchen, verallgemeinern wir das Skalarprodukt
und die Norm von R2 auf beliebige Dimensionen, d.h. auf Rn .


x1
y1
..  .
Definition 5.45. Für x = .  , y = ..  ∈ Rn heißt
 
x
 n yn 
x, y := x1 · y1 + . . . + xn · yn

Skalarprodukt der Vektoren x und y. Ferner heißt



 x := x, x

die euklidische Norm von x.

Bemerkung 5.46. Das Skalarprodukt ist eine Abbildung

·, · : Rn × Rn → R,

und die euklidische Norm eine Abbildung

 ·  : Rn → R,

so dass für alle x, x , y ∈ Rn und alle t ∈ R gilt:

(i) x + x , y = x, y + x , y;

(ii) t · x, y = t · x, y;

(iii) x, y = y, x;


5.4. Das Vektorprodukt 265

(iv) x, x ≥ 0;
(v) x, x = 0 ⇔ x = 0;
(vi)  x ≥ 0 und x = 0 ⇔ x = 0;
(vii) t · x = |t | ·  x;
(viii) x = y ⇔ ∀z ∈ Rn : x, z = y, z.
Diese Regeln rechnet man wie im Fall n = 2 leicht nach. Überlegen wir uns nur kurz die
letzte Aussage: Für „⇒“ ist nichts zu zeigen. Für „⇐“ wählen wir speziell z = ek und sehen
xk = x, ek  = y, ek  = yk für alle k. Es folgt x = y.

Nun zurück zum Vektorprodukt, das eine Abbildung


R3 × R3 → R3
definiert. Es hat folgende Eigenschaften:

Satz 5.47. Für alle v, ṽ, w, w̃, z ∈ R3 und alle λ ∈ R gilt:

(i) v × w, z = det (v, w, z).

(ii) v × w = − (w × v).

(iii) Linearität in beiden Argumenten:

(v + ṽ) × w = (v × w) + (ṽ × w) ,
v × (w + w̃) = (v × w) + (v × w̃) ,
(λv) × w = λ · (v × w) = v × (λw) .

(iv) v × w = 0 ⇔ v, w sind linear abhängig.

(v) v × w ⊥ v, w.

(vi) v × w = vol2 (P), wobei P das von v und w aufgespannte Parallelogramm ist.

(vii) Sind v und w linear unabhängig, so bildet (v, w, v × w) eine positiv orientierte Basis
von R3 .

Beweis. Zu (i):
Durch Entwicklung nach der 3. Spalte sehen wir:
v w1 z1      

1 v w v w v w
det v2 w2 z2  = + det
2 2 1 1 1 1
· z1 − det · z2 + det · z3 = v × w, z .
v3 w3 v3 w3 v2 w2
v3 w3 z3 
266 5. Geometrie

Zu (ii):
Für alle z ∈ R3 gilt:
(i)
v × w, z = det (v, w, z)
= − det (w, v, z)
(i)
= − w × v, z
= − (w × v) , z .
Nach Bemerkung 5.46 (viii) folgt v × w = − (w × v).

Zu (iii):
Für alle z ∈ R3 gilt:
(i)
(v + ṽ) × w, z = det (v + ṽ, w, z)
= det (v, w, z) + det (ṽ, w, z)
(i)
= v × w, z + ṽ × w, z
= (v × w) + (ṽ × w) , z .
Nach Bemerkung 5.46 (viii) ist somit (v + ṽ) × w = (v × w) + (ṽ × w). Die anderen beiden
Regeln folgen analog.

Zu (iv):
Es gilt:
v, w sind linear abhängig ⇔ rg(v, w) ≤ 1
⇔ rg(v, w, z) ≤ 2 für alle z ∈ R3
⇔ det (v, w, z) = 0 für alle z ∈ R3
⇔ v × w, z = 0 für alle z ∈ R3
⇔ v × w = 0.
Zu (v):
Wir berechnen
(i)
v × w, v = det (v, w, v) = 0.
Hieraus folgt v × w ⊥ v. Für v × w ⊥ w argumentiert man analog.

Zu (vi):
1. Fall: Sind v, w linear abhängig, so folgt nach (iv) sofort v × w = 0, also v × w = 0. Ferner
ist P dann auch in einer Geraden des R2 enthalten, also folgt vol2 (P) = 0.
2. Fall:
Sind v, w linear unabhängig, so gilt
(i)
v × w 2 = v × w, v × w = det (v, w, v × w) = vol3 (Q) , (5.17)
5.5. Aufgaben 267

wobei Q das Parallelepiped ist, welches von v, w, v × w v × w


aufgespannt wird. Da nach e) v × w ⊥ v, w gilt, ist Q = Q
Zv×w (P). Wegen (A.6) haben wir w
P
vol3 (Q) = vol2 (P) · v × w . (5.18)
v
Abb. 100
Einsetzen von (5.18) in (5.17) liefert schließlich
v × w 2 = vol2 (P) · v × w ,
()*+
0 nach (iv)

also v × w = vol2 (P).

Zu (vii):
Nach (iv) ist v × w  0. Nun gilt
(i)
det (v, w, v × w) = v × w, v × w = v × w 2 > 0.
Also bildet (v, w, v × w) eine positiv orientierte Basis von R3 . 

Fassen wir zusammen: v × w ist der eindeutige Vektor im R3, der auf der Ebene, die von
v und w aufgespannt wird, senkrecht steht, dessen Länge gleich dem Flächeninhalt des
Parallelogramms ist, welches von v und w aufgespannt wird, so dass (v, w, v × w) rechtshändig
ist (d.h. eine positiv orientierte Basis des R3 bildet).
Die Berechnung von Skalar- und Vektorprodukten können Sie jetzt hier üben.
Das ist eine gute Kontrolle um zu prüfen, ob Sie alles richtig verstanden
haben: http://ueben.cbaer.eu/12.html

5.5. Aufgaben
5.1. Sei (e1, e2, e3 ) die Standardbasis von R3 . Wir betrachten die affine Ebene E := −e3 +
L(e1, e2 ). Desweiteren sei v ∈ R3 ein Vektor, so dass L(e1, e2, v) = R3 gilt. Zu jedem x ∈ R3
sei G(x) := x + L(v) die affine Gerade durch x in Richtung v.
a) Zeigen Sie, dass für jedes x ∈ R3 der Schnitt G(x) ∩ E aus genau einem Element besteht,
das wir mit p(x) bezeichnen.
b) Zeigen Sie, dass die Abbildung p : R3 → R3 , x → p(x), affin ist. Anmerkung: Geometrisch
handelt es sich bei p um die Parallelprojektion auf E mit Projektionsrichtung v.
c) Sei nun v = (−1, 0, 1) . Berechnen Sie die Bilder der Punkte A = (0, 2, 2) , B = (0, 1, 1) ,
C = (0, 3, 1) und D = (2, 2, 1) unter p und fertigen Sie eine Skizze an. Auf dieser sollte
der Körper mit den Eckpunkten A, B, C, D sowie dessen Bild unter p eingezeichnet sein.
268 5. Geometrie

5.2. Sei K ein Körper, n ∈ N und F : K n → K n eine affine Abbildung. Es gilt also F(x) =
ϕ(x) + a für eine lineare Abbildung ϕ : K n → K n und ein a ∈ K n . Wir definieren die
Abbildungen

ι : K n → K n+1, ι(x) := (1, x),


ΦF : K n+1
→K ,
n+1
ΦF ((x0, x)) := (x0, x0 · a + ϕ(x)).

Hierbei ist x ∈ K n , 1, x0 ∈ K und (1, x), (x0, x) ∈ K n+1 .

a) Zeigen Sie, dass ι affin und injektiv ist.

b) Zeigen Sie, dass ΦF linear ist und folgende darstellende Matrix hat:

1 0 ··· 0


M(ΦF ) = 
a M(ϕ) 

c) Zeigen Sie, dass


ΦF ◦ ι = ι ◦ F
gilt. Dies bedeutet, dass die Einschränkung von ΦF auf ι(K n ) gerade durch F gegeben ist,
wenn man K n mit ι(K n ) identifiziert.

d) Sei nun G : K n → K n eine weitere affine Abbildung. Zeigen Sie:

M(ΦG◦F ) = M(ΦG ) · M(ΦF )

5.3. Sei a > 0. Zeigen Sie: Unter allen Rauten (siehe Definition 2.106) mit der Seitenlänge a
hat das Quadrat den größten Flächeninhalt.

5.4. Der gesamte Trefferbereich einer Dartscheibe hat den Radius 17 cm, der des innersten
Trefferbereichs (Bull’s eye) 6,35 mm. Als ungeübte Dartspieler treffen wir zwar die Scheibe,
aber jeden Punkt mit gleicher Wahrscheinlichkeit. Das heißt, dass die Wahrscheinlichkeit eine
Region X im Trefferbereich zu treffen gegeben ist durch

vol2 (X)
.
vol2 (Trefferbereich)
a) Wie groß ist die Wahrscheinlichkeit das Bull’s eye zu treffen?

b) Wie groß ist diese Wahrscheinlichkeit bei einer n-dimensionalen Dartscheibe für n = 3,
n = 4 und n = 10?

5.5. Zeigen, Sie dass

a) E(2) eine Untergruppe der Gruppe aller bijektiven affinen Abbildungen R2 → R2 ist;
5.5. Aufgaben 269

b) E+ (2) eine Untergruppe von E(2) ist.

5.6. Beweisen Sie mit Hilfe des Zwei-Sehnen-Satzes den nachfolgenden Höhensatz:
Sei durch a, b, c ∈ R2 ein rechtwinkliges euklidisches Dreieck mit rechtem Winkel bei c gegeben.
Sei d der Schnittpunk der Höhe Hc mit G a,b−a . Dann gilt:

a − d  · b − d  = c − d  2

5.7. Zeigen Sie, dass


"  z + 1 #

K = z ∈ C  Re =2
z−1
einen Kreis in der komplexen Ebene definiert und bestimmen Sie Mittelpunkt und Radius
von K.

5.8. Eine Mathematik-Studentin fährt nach bestandener


Klausur in den wohlverdienten Urlaub. Dort geht sie an den
Strand und blickt auf das Meer. Ihre Augen befinden sich
dabei 1, 60 Meter über dem Meeresspiegel.
Benutzen Sie den Tangenten-Sehnen-Satz, um zu berechnen,
wie weit der Horizont entfernt ist. Abb. 101 Urlaub

5.9. a) Zeigen Sie, dass jedes F ∈ E+ (2) eine Translation oder eine Drehung um einen
Drehpunkt p ∈ R2 ist.
Hinweis: Der Fixpunkt aus Satz 5.32 ist gerade der Drehpunkt.
b) Hat jede euklidische Bewegung F ∈ E(2) \ E+ (2) einen Fixpunkt? (Beweis oder Gegen-
beispiel)

5.10. Sei durch a, b, c ∈ R2 ein nicht-ausgeartetes euklidisches Dreieck gegeben. Die Mittel-
senkrechte der Seite zwischen a und b ist gegeben durch Ma,b := G(a+b)/2,J(a−b) , die Mittel-
senkrechten Ma,c und Mb,c werden entsprechend definiert. Zeigen Sie:
a) Die Mittelsenkrechten Ma,b, Ma,c und Mb,c schneiden sich in einem Punkt.
b) Es gibt genau einen Kreis K, der durch die drei Punkte a, b und c geht.

5.11. Seien p, v, w ∈ R3 , wobei v, w linear unabhängig seien. Wir setzen N := v × w. Zeigen


Sie:
{p + tv + sw | s, t ∈ R} = {x ∈ R3 | x, N = p, N}
Hier wird die affine Ebene beschrieben, die durch p geht und deren zugehöriger Untervek-
torraum die Basis {v, w} hat. Die Darstellung dieser Ebene, die durch die rechte Seite der
Gleichung gegeben ist, nennt man die Hesse’sche Normalform der Ebene.
270 5. Geometrie

5.12. Seien v, w, z ∈ R3 . Zeigen bzw. beantworten Sie:

a) (Graßmann-Identität) v × (w × z) = v, z w − v, w z.

b) Ist das Vektorprodukt assoziativ?

c) (Jacobi-Identität) v × (w × z) + w × (z × v) + z × (v × w) = 0.

5.13. (Kreuzprodukt in n Dimensionen) Das Kreuzprodukt in n Dimensionen hat n − 1 statt


2 Faktoren und ist durch die Gleichung

v1 × . . . × vn−1, z = det(v1, . . . , vn−1, z)

charakterisiert, v1, . . ., vn−1, z ∈ Rn .

a) Formulieren und zeigen Sie Aussagen analog zu (ii)–(vii) aus Satz 5.47.

b) Was ist das Kreuzprodukt im Fall n = 2?


6. Eigenwertprobleme

Wörter sind wie Münzen: Sie


haben einen Eigenwert, ehe sie
alle möglichen Werte bezeichnen.

(Antoine de Rivarol)

Um zu verstehen, was ein gegebener Endomorphismus „geometrisch tut“, versuchen wir, eine
Basis des Vektorraums zu finden, bzgl. derer die darstellende Matrix möglichst einfach ist. Am
liebsten wäre uns eine Diagonalmatrix. Dies führt auf das Konzept der Diagonalisierbarkeit,
der Eigenwerte und Eigenvektoren. Vorher müssen wir allerdings Polynome mit Koeffizienten
in beliebigen Körpern verstehen. Es wird sich herausstellen, dass man Endomorphismen nicht
immer diagonalisieren kann, wohl aber trigonalisieren, zumindest über den komplexen Zahlen.
Schließlich werden wir das Minimalpolynom und die Jordan’sche Normalform besprechen.

6.1. Polynome
Bevor wir das Rechnen mit Matrizen weiter vertiefen, schieben wir eine systematische Unter-
suchung von Polynomen mit Koeffizienten in einem beliebigen Körper ein. Zunächst einmal,
was ist eigentlich ein Polynom?
Dazu erinnern wir uns an Beispiel 3.75. Für einen beliebigen Körper K bildet die Menge
Abb(N0, K) der Folgen in K einen K-Vektorraum. Dabei sind Addition und skalare Multiplika-
tion komponentenweise erklärt. Wir schreiben jetzt solche Folgen etwas anders hin. Sei dazu
x ein abstraktes Symbol. Statt der Folge (a0, a1, a2, . . .) schreiben wir nun


aj · x j . (6.1)
j=0

Man beachte, dass x hier keine Zahl (aus K) ist, sondern tatsächlich nur ein Platzhalter. Das
gilt dann auch für x j . Statt x wird häufig auch ein anderer Buchstabe genommen, z.B. t oder
y, man könnte statt x im Prinzip auch Kunigunde oder Winnetou nehmen.

Definition 6.1. Sei K ein Körper und x ein abstraktes Symbol. Einen formalen Ausdruck wie
in (6.1) nennt man eine formale Potenzreihe mit Koeffizienten in K in der Veränderlichen
x. Die Menge aller solcher formaler Potenzreihen bezeichnet man mit Kx.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_6
272 6. Eigenwertprobleme

Beispiel 6.2. Statt der Folge (1, 1, 12 , 16 , 24


1
, . . ., j!1 , . . .) in Q schreiben wir die formale Potenz-
reihe
 ∞
1
· xj
j=0
j!
und statt der Folge (1, 0, 1, 0, 1, 0, . . .) in F2 schreiben wir die formale Potenzreihe


x 2k .
k=0

Summanden, deren Koeffizient = 0 ist, lässt man in der Potenzreihenschreibweise in der Regel
weg.

Die komponentenweise Addition und skalare Multiplikation übersetzt sich dann in die Potenz-
reihenschreibweise wie folgt:

∞ 
∞ 

aj · x j + bj · x j = (a j + b j ) · x j ,
j=0 j=0 j=0
∞ ∞
α· aj · x j = (α · a j ) · x j .
j=0 j=0

Wir haben also den K-Vektorraum Kx der formalen Potenzreihen, der isomorph ist zum
K-Vektorraum Abb(N0, K) der Folgen. Im Gegensatz zur Analysis spielt Konvergenz für uns
hier keine Rolle; sie wäre für allgemeine Körper K auch überhaupt nicht definiert.

Definition 6.3. Eine formale Potenzreihe




aj · x j
j=0

heißt Polynom, wenn nur endlich viele der Koeffizienten a j  0 sind. Genauer sprechen
wir von einem Polynom in der Veränderlichen x mit Koeffizienten in K und bezeichnen die
Menge aller solcher mit K[x].

Wir beachten: Die Koeffizienten a j eines Polynoms sind Elemente aus dem Körper K, die
Veränderliche x und ihre Potenzen x j aber zunächst nicht. Diese sind lediglich abstrakte
Symbole. Wir werden dafür später auch Elemente aus K einsetzen, aber zunächst einmal
sind die x j nur Platzhalter. Polynome sind also nicht zu verwechseln mit den bisher von uns

n
betrachteten Polynomfunktionen, die Abbildungen K → K, x → a j · x j , sind.
j=0
Da man die Summanden, deren Koeffizienten a j = 0 sind, beim Aufschreiben des Polynoms
in der Regel weglässt, sind definitionsgemäß nur endlich viele Summanden anzugeben. Sind
alle Koeffizienten = 0, so bleibt die leere Summe übrig, für die wir einfach 0 schreiben.
6.1. Polynome 273

Beispiel 6.4. Sei K = F2 . Hier sind drei verschiedene Polynome mit Koeffizienten in F2 :

f = x 2 + x ∈ F2 [x],
g = 1 ∈ F2 [x],
h = 1 + y 2 + y 500 ∈ F2 [y].

Bemerkung 6.5. Die Menge der Polynome K[x] bildet einen Untervektorraum von Kx:

1. Es ist 0 = ∞j=0 0 · x in K[x] enthalten.
j

 ∞
2. Sind alle bis auf endlich viele der Koeffizienten von ∞ j=0 a j · x und
j
j=0 b j · x gleich 0,
j
∞
dann gilt das auch für die Summe j=0 (a j + b j ) · x j .
∞
3. Sind alle bis auf endlich viele der Koeffizienten von a j · x j gleich 0, dann gilt das auch
 j=0
für Koeffizienten von ∞ j=0 (α · a j ) · x
j

Insbesondere ist also K[x] auch selbst ein K-Vektorraum.


Definition 6.6. Ist f = a j · x j ein Polynom, so heißt

−∞, falls f = 0
deg( f ) :=
max{ j | a j  0}, sonst

der Grad von f .

Beispiel 6.7. Sei K = F2 . Dann ist deg(x 2 + x) = 2, deg(1) = 0 , deg(1 + y 2 + y 500 ) = 500.

Definition 6.8. Ein Polynom, dessen Koeffizienten alle bis auf einen = 0 sind, und der eine
= 1 ist, heißt Monom. In anderen Worten, Monome sind Polynome der Form f = x j .

Beispiel 6.9. Sei K = F2 . Dann ist f = y 5 ∈ K[y] ein Monom, wohingegen g = x 2 +x 4 ∈ K[x]
kein Monom ist.

Bemerkung 6.10. Die Menge der Monome bildet eine Basis des Vektorraums K[x], da sich
jedes Polynom eindeutig als (endliche) Linearkombination von Monomen schreiben lässt.
Insbesondere ist dim(K[x]) = ∞. Damit muss auch dim(Kx) = ∞ gelten.

Wir können Kx auch zu einem Ring machen. Dazu müssen wir noch wissen, wir das Produkt
zweier formaler Potenzreihen definiert ist.
274 6. Eigenwertprobleme

∞ ∞
Definition 6.11. Für f = j=0 a j · x j und g = j=0 b j · x j ist f · g definiert durch

∞ 
 k
f · g := a j · b k− j · x k .
k=0 j=0

Wir beachten, dass für jedes k der Koeffizient von x k in f · g eine endliche Summe von
Elementen aus K ist. Das Produkt f · g ist also definiert, ohne dass wir irgendwelche Konver-
genzannahmen an die formalen Potenzreihen f und g machen müssten.

∞ (−1) j ∞
Beispiel 6.12. Wir berechnen das Produkt von f = j=0 j! · x j und g = 1
j=0 j! · x j in
Qx:

∞ 
  $ %
1 
k ∞ k
(−1) j k
f ·g= · xk = (−1) j ·x k = 1.
k=0 j=0
j!(k − j)! k=0
k! j=0
j
()*+
=0 falls k≥1

Beispiel 6.13. Wir multiplizieren die formale Potenzreihe f = 1 + x + x 2 + x 3 + . . . in F2 x


mit sich selbst:
∞ 
 k 

f · f = 1 · 1 · xk = x 2 .
k=0 j=0 =0

Beim Produkt von formalen Potenzreihen zeigt sich die Stärke der Potenzreihenschreibweise.
Wir multiplizieren zwei Potenzreihen, indem wir wie gewohnt ausmultiplizieren als sei der
abstrakte Platzhalter x eine Zahl in K und dann sortieren wir das Ergebnis nach Potenzen
von x.
In der Folgenschreibweise sähe das Produkt so aus:

(a0, a1, a2, . . .) · (b0, b1, b2, . . .) = (a0 b0, a0 b1 + a1 b0, a0 b2 + a1 b1 + a2 b0, . . .),

was uns vielleicht nicht sofort als vernünftige Definition einleuchten würde.
In Aufgabe 6.1 wird gezeigt, dass K[x] ein kommutativer Ring mit Eins ist.

Lemma 6.14. Sei K ein Körper und seien f , g ∈ K[x]. Dann ist auch f · g ∈ K[x] und es
gilt
deg( f · g) = deg( f ) + deg(g).
Insbesondere ist K[x] ein Unterring von Kx und K[x] ist nullteilerfrei.
6.1. Polynome 275

Es ist eine berechtigte Frage, was die Formel bedeutet, wenn −∞ als Grad vorkommt. Hierfür
verwenden wir die Konvention

−∞ + n = n − ∞ = −∞

für alle n ∈ N0 ∪ {−∞}.


Beweis. a) Kommt −∞ auf der rechten Seite der Formel für den Grad vor, dann heißt das,
dass f = 0 oder g = 0. Dann ist auch f · g = 0, d.h. deg( f · g) = −∞, und die Formel gilt
konventionsgemäß.
b) Nehmen wir daher an, dass f und g beide nicht = 0 sind. Wir schreiben dann

f )
deg( 
deg(g)
f = aj · x j und g= bj · x j .
j=0 j=0

Die führenden Koeffizienten sind dann ungleich 0, d.h. adeg( f )  0 und bdeg(g)  0. Dann ist
)+deg(g)
deg( f 
k
f ·g= a j · b k− j · x k .
k=0 j=0

Im Koeffizienten der höchstmöglichen auftretenden Potenz x deg( f )+deg(g) trägt nur das Produkt
adeg( f ) · bdeg(g) bei, da für alle anderen Summanden einer der beiden Faktoren = 0 ist. Es gilt
daher
f · g = (adeg( f ) · bdeg(g) ) · x deg( f )+deg(g) + niedrigere Potenzen von x.
Also ist deg( f · g) = deg( f ) + deg(g).
c) Mit f und g ist auch f · g wieder ein Polynom. Gleiches gilt für die Summe. Also K[x] ein
Unterring von Kx.
Ist f · g = 0, dann ist deg( f · g) = −∞. Also muss deg( f ) = −∞ oder deg(g) = −∞ gelten,
d.h. f = 0 oder g = 0. Dies zeigt, dass K[x] nullteilerfrei ist. 

Satz 6.15 (Polynomdivision). Sei K ein Körper und x ein abstraktes Symbol. Seien f , g ∈
K[x], g  0. Dann existieren eindeutig bestimmte Polynome q, r ∈ K[x] mit f = q · g + r,
wobei deg(r) < deg(g).

Beweis. a) Zeigen wir zunächst die Eindeutigkeit: Seien q, q̂, r, r̂ ∈ K[x] mit f = q · g + r =
q̂ · g + r̂ und deg(r), deg(r̂) < deg(g). Dann ist 0 = (q − q̂)g + (r − r̂), also r̂ − r = (q − q̂)g und
außerdem deg(r̂ − r) < deg(g). Wäre q  q̂, so wäre andererseits nach Lemma 6.14

deg(r̂ − r) = deg((q − q̂)g) = deg(q − q̂) + deg(g) ≥ deg(g),


()*+
≥0, da q−q̂0

Widerspruch. Also ist q = q̂ und damit auch r = r̂.


276 6. Eigenwertprobleme

b) Zur Existenz: Ist n := deg( f ) < m := deg(g), so können wir einfach q = 0 und r = f
wählen. Wir nehmen daher n ≥ m ≥ 0 an und schreiben

f = an x n + . . . + a0,
g = bm x m + . . . + b0,

wobei an  0 und bm  0. Wir setzen


an n−m
q1 := x und f1 := f − q1 · g.
bm
Da sowohl f als auch q1 ·g mit an · x n beginnen, gilt deg( f1 ) < deg( f ). Ist nun deg( f1 ) < deg(g),
so setzen wir
q := q1 und r := f1
und beenden die Prozedur. Ist immer noch deg( f1 ) ≥ deg(g), so wiederholen wir diesen
Schritt mit f1 statt f und erhalten f2 und q2 . Wir wiederholen diesen Schritt so oft bis
schließlich deg( fn ) < deg(g). Das ist nach endlich vielen Schritten der Fall, da für alle j gilt
deg( f j+1 ) < deg( f j ). Dann setzen wir

r := fn und q := q1 + . . . + qn .

Nun gilt:

f = f1 + q1 · g
= ( f2 + q2 · g) + q1 · g
= f2 + (q1 + q2 ) · g
..
.
= fn + (q1 + . . . + qn ) · g
= r + q · g,

wie gewünscht. 

Das Schöne an diesem Beweis ist, dass er gleich ein konkretes Verfahren zur Durchführung
der Polynomdivision liefert.

Beispiel 6.16. Sei K = R. Wir dividieren das Polynom f = 3x 3 + 2x + 1 ∈ R[x] durch das
Polynom g = x 2 − 4x ∈ R[x]. Es ist deg(g) < deg( f ).
1. Schritt: Setze
3 3−2
q1 := x = 3x und
1
f1 := f − q1 g = 3x 3 + 2x + 1 − 3x(x 2 − 4x) = 12x 2 + 2x + 1.

Es gilt deg(g) = deg( f1 ).


6.1. Polynome 277

2. Schritt: Setze
12 2−2
q2 := x = 12 und
1
f2 := f1 − q2 g = 12x 2 + 2x + 1 − 12(x 2 − 4x) = 50x + 1.

Nun ist deg(g) > deg( f2 ) und die Prozedur bricht ab.
Wir erhalten q = q1 + q2 = 3x + 12 und für den Rest r = f2 = 50x + 1. In der Tat gilt

qg + r = (3x + 12)(x 2 − 4x) + 50x + 1 = 3x 3 − 12x 2 + 12x 2 − 48x + 50x + 1 = 3x 3 + 2x + 1 = f .

Hier können Sie die Polynomdivision üben:


http://ueben.cbaer.eu/09.html
Nun vergleichen wir die Polynome und die Polynomfunktionen.

Definition 6.17. Sei K ein Körper. Der Auswertehomomorphismus ist die Abbildung
K[x] → Abb(K, K), f →  f˜, wobei f˜ die Abbildung ist, die man erhält, indem man für

n
das abstrakte Symbol x alle möglichen Zahlen aus K einsetzt. Genauer: ist f = aj x j,
j=0

n
dann ist f˜(λ) = a j λ j für alle λ ∈ K.
j=0

Wie in Aufgabe 6.3 gezeigt wird, ist der Auswertehomomorphismus tatsächlich ein Homo-
morphismus, und zwar sowohl ein Vektorraumhomomorphismus als auch ein Ringhomomor-
phismus. In anderen Worten, es gilt λ4f = λ f˜, 7
f + g = f˜ + g̃ und f8
· g = f˜ · g̃.

Warum haben wir so pingelig zwischen Polynomen und Polynomfunktionen unterschieden?


Hier ist der Grund:
Hat der Körper nur endlich viele Elemente, d.h. ist #K < ∞, so ist auch #Abb(K, K) < ∞, aber
#K[x] = ∞, da K[x] unendlich-dimensional ist. Also kann der Auswertehomomorphismus in
diesem Fall nicht injektiv sein!
Verschiedene Polynome können daher zur selben Polynomfunktion führen.

Beispiel 6.18. Sei K = F2 . Das Polynom f = x 2 + x ∈ F2 [x] ist nicht das Nullpolynom; es
hat Grad 2. Für die zugehörige Polynomfunktion berechnen wir

f˜(0) = 02 + 0 = 0 und
f˜(1) = 12 + 1 = 0.

Also ist f˜ die Nullfunktion, obwohl f nicht das Nullpolynom ist.

Das folgende Lemma besagt, dass man zu Nullstellen der Polynomfunktion f˜ den entsprechen-
den Linearfaktor des Polynoms f abspalten kann.
278 6. Eigenwertprobleme

Lemma 6.19. Sei K ein Körper und sei f ∈ K[x]. Ist λ ∈ K eine Nullstelle von f˜, so
existiert genau ein Polynom g ∈ K[x] mit f = (x − λ) · g.
Ferner gilt deg(g) = deg( f ) − 1.

Beweis. Polynomdivision mit Rest von f durch (x − λ) ergibt Polynome g, r ∈ K[x], so dass

f = (x − λ) · g + r und
deg(r) < deg(x − λ) = 1.

Also deg(r) = 0 oder deg(r) = −∞. In jedem Fall ist der Rest r eine Konstante, r ∈ K, und wir
haben f˜ = ( x7
− λ) · g̃ + r̃. Da λ eine Nullstelle von f˜ ist, folgt direkt

0 = f8
(λ) = (λ7 8 + r̃(λ) = r
− λ) · g(λ)

und somit f = (x − λ) · g. Ferner ist

deg( f ) = deg(x − λ) + deg(g) = 1 + deg(g).

Die Eindeutigkeit von g folgt aus der Eindeutigkeit in der Polynomdivision. 

Wenn wir künftig von Nullstellen eines Polynoms f sprechen, so sind damit die Nullstellen
der zugehörigen Polynomfunktion f˜ gemeint.

Korollar 6.20. Sei K ein Körper und sei f ∈ K[x], f  0. Hat f k paarweise verschiedene
Nullstellen, so ist
deg( f ) ≥ k.

Beweis. Seien λ1, . . ., λ k paarweise verschiedene Nullstellen von f˜. Indem wir Lemma 6.19
k-mal anwenden, erhalten wir

f = (x − λ1 ) · · · (x − λ k ) · g

für ein g ∈ K[x]. Es muss g  0 sein, weil sonst f = 0 wäre. Also ist deg(g) ≥ 0 und somit

deg( f ) = deg(x − λ1 ) + . . . + deg(x − λ k ) + deg(g) ≥ k.

Korollar 6.21. Ist K ein Körper mit unendlich vielen Elementen, so ist der Auswertehomo-
morphimus K[x] → Abb(K, K) injektiv.
6.1. Polynome 279

Beweis. Sei f ∈ K[x], so dass f˜ die Nullfunktion ist. Wir müssen zeigen, dass f das Null-
polynom ist. Jedes Element von K ist Nullstelle von f˜. Also hat f˜ unendlich viele Nullstellen.
Wäre f  0, dann erhielten wir einen Widerspruch zu Korollar 6.20. 

Würden wir nur Körper mit unendlich vielen Elementen betrachten, wie Q, R oder C, dann
bräuchten wir also nicht so strikt zwischen Polynomen und Polynomfunktionen zu unterschei-
den, da wir nach diesem Korollar das Polynom f aus der Polynomfunktion f˜ zurückgewinnen
können. Bei endlichen Körpern ist das aber nicht so, wie wir gesehen haben.

Definition 6.22. Sei K ein Körper und f ∈ K[x], f  0. Für λ ∈ K heißt

μ(λ, f ) := sup{r ∈ N0 | ∃g ∈ K[x] mit f = (x − λ)r · g}

Vielfachheit der Nullstelle λ in f .

Im Fall komplexer Polynome haben wir den Begriff der Vielfachheit von Nullstellen bereits
kennengelernt, vgl. Definition 2.118.

Lemma 6.23. Sei K ein Körper, f ∈ K[x], f  0, und λ ∈ K. Dann gilt:

(i) 0 ≤ μ(λ, f ) ≤ deg( f ).

(ii) Die Vielfachheit μ(λ, f ) ist die eindeutige Zahl aus N0 , für die es ein g ∈ K[x] gibt, so
dass f = (x − λ) μ(λ, f ) · g und so dass λ keine Nullstelle von g̃ ist.

(iii) μ(λ, f ) = 0 ⇔ λ ist nicht Nullstelle von f˜.

(iv) Sind λ1, . . . , λ k die paarweise verschiedenen Nullstellen von f˜ mit Vielfachheiten
r1, . . . , rk , so schreibt sich f = (x − λ1 )r1 · . . . · (x − λ k )rk · g, wobei g ∈ K[x] ein
Polynom ohne Nullstellen ist.
Dabei sind λ1, . . ., λ k, r1, . . ., rk und g bis auf Reihenfolge eindeutig bestimmt.

Beweis. Zu (i):
Ist f = (x − λ)r · g, so gilt nach Lemma 6.14 deg( f ) = r + deg(g), also r ≤ deg( f ).

Zu (ii):
Wäre λ eine Nullstelle von g̃, wobei f = (x −λ) μ(λ, f ) · g ist, dann könnten wir Lemma 6.19 auf g
anwenden und g in der Form g = (x−λ)·h schreiben, h ∈ K[x]. Damit wäre f = (x−λ) μ(λ, f )+1 ·h
im Widerspruch zur Maximalität von μ(λ, f ).
Sei umgekehrt r ∈ N0 so, dass es ein g ∈ K[x] gibt mit f = (x − λ)r · g. Dann ist r ≤ μ(λ, f ).
Wir schreiben f = (x − λ) μ(λ, f ) · g1 , wobei g1 ∈ K[x] so ist, dass λ keine Nullstelle von g̃1 ist.
280 6. Eigenwertprobleme

Also gilt
(x − λ) μ(λ, f ) · g1 = (x − λ)r · g,
und daher
(x − λ)r · (g − (x − λ) μ(λ, f )−r · g1 ) = 0.
Da (x − λ)r nicht das Nullpolynom ist, folgt wegen der Nullteilerfreiheit von K[x], dass
g − (x − λ) μ(λ, f )−r · g1 = 0.
Da λ keine Nullstelle von g̃1 ist, ist λ genau dann keine Nullstelle von g̃, wenn μ(λ, f ) = r ist.
Aussage (iii) folgt direkt aus (ii).
Zu (iv):
Wir wenden (ii) k-mal an: Wir schreiben f = (x − λ1 )r1 · g1 , wobei g̃1 nur noch die Nullstellen
λ2, . . ., λ k hat. Dann schreiben wir g1 = (x − λ1 )r2 · g2 , wobei g̃2 nur noch die Nullstellen
λ3, . . ., λ k hat, usw. Schließlich erhalten wir gk−1 = (x − λ1 )rk · gk , wobei g̃k keine Nullstellen
mehr hat. Setzen wir g := gk , so ergibt sich
f = (x − λ1 )r1 · . . . · (x − λ k )rk · g.
Wegen der Nullteilerfreiheit von K[x] ist g durch diese Gleichung eindeutig bestimmt. 

Beispiel 6.24. Sei K = R und f = x 5 − x 4 + x 3 − x 2 ∈ R[x]. Dann gilt:


f = (x − 0)2 · (x − 1) · (x 2 + 1).
Hier ist λ1 = 0, r1 = 2, λ2 = 1, r2 = 1 und g = x 2 + 1.

Beispiel 6.25. Sei K = C und f = x 5 − x 4 + x 3 − x 2 ∈ C[x]. Dann gilt:


f = (x − 0)2 · (x − 1) · (x + i) · (x − i).
Hier ist λ1 = 0, r1 = 2, λ2 = 1, r2 = 1, λ3 = −i, r3 = 1, λ4 = i, r4 = 1 und g = 1.

Definition 6.26. Sei K ein Körper. Man sagt, ein Polynom f ∈ K[x] zerfällt in Linearfak-
toren, falls es sich in der Form

f = a · (x − λ1 )r1 · . . . · (x − λn )rn

mit a, λ1, . . ., λn ∈ K schreiben lässt. Eine solche Darstellung heißt dann Linearfaktorzer-
legung von f .

Bemerkung 6.27. Wir haben also genau dann eine Linearfaktorzerlegung von f vorliegen,
wenn in der Darstellung f = (x − λ1 )r1 · . . . · (x − λ k )rk · g aus Lemma 6.23 (iv) das Polynom
g vom Grad 0 ist. Somit zerfällt f genau dann in Linerfaktoren, wenn sich die Vielfachheiten
der Nullstellen zum Grad von f aufaddieren, r1 + . . . + rk = deg( f ).
Eine Zerlegung von f in Linearfaktoren ist, falls sie existiert, eindeutig bis auf die Reihenfolge
der Faktoren.
6.2. Eigenwerte und Eigenvektoren 281

6.2. Eigenwerte und Eigenvektoren


Meistens kann man einer Matrix nicht so ohne Weiteres ansehen, was sie geometrisch be-
schreibt. So sahen z.B. die Spiegelungsmatrizen Sθ auf den ersten Blick recht kompliziert aus,
obwohl die Achsenspiegelungen, die sie beschreiben, geometrisch einfache Abbildungen sind.
Es ist also wünschenswert, ein Verfahren zu entwickeln, das es uns erlaubt, gegebene Matrizen
besser zu „verstehen“. Dazu dienen Eigenwerte und Eigenvektoren.
Diese Konzepte gehören zu den bedeutendsten der linearen Algebra, da sie in zahlreichen
Anwendungsproblemen auftreten. In Anhang A.4 wird gezeigt, wie die Aufgabe Webseiten in
den Trefferlisten von Suchmaschinen nach Wichtigkeit anzuordnen, auf ein Eigenwertproblem
führt.

Definition 6.28. Sei K ein Körper, V ein K-Vektorraum und ϕ ∈ End(V). Eine Zahl λ ∈ K
heißt genau dann Eigenwert von ϕ, wenn ein v ∈ V \ {0} existiert, so dass

ϕ(v) = λ · v (6.2)

ist. Der Vektor v heißt dann Eigenvektor von ϕ zum Eigenwert λ.

Ließe man v = 0 zu, so würde die Eigenwert-Gleichung (6.2) mit v = 0 für jedes λ gelten.
Somit wäre jede Zahl λ Eigenwert und die Definition wäre unsinnig.
Die Gleichung (6.2) sagt aus, dass die lineare Abbildung ϕ den Vektor v um den Faktor λ
streckt.
Für Matrizen A sind Eigenwerte und Eigenvektoren ganz analog definiert, nämlich als die
Eigenwerte und Eigenvektoren der linearen Abbildung x → A · x. In anderen Worten:

Definition 6.29. Sei K ein Körper und sei A ∈ Mat(n, K). Eine Zahl λ ∈ K heißt genau dann
Eigenwert von A, wenn ein v ∈ K n \ {0} existiert, so dass

A·v = λ·v (6.3)

ist. Der Vektor v heißt dann Eigenvektor von A zum Eigenwert λ.

Beispiel 6.30. Für die uns aus Beispiel 4.47 bekannte Spiegelungsmatrix A = Sθ und den
Vektor v = vθ gilt wθ

A · v = Sθ · vθ vθ
= vθ
θ
= 1 · vθ .
Abb. 102
282 6. Eigenwertprobleme

Folglich ist vθ Eigenvektor von Sθ zum Eigenwert 1. Für v = wθ erhalten wir

A · v = Sθ · wθ = −wθ = (−1) · wθ .

Also ist wθ Eigenvektor von Sθ zum Eigenwert −1.

Beispiel 6.31. Denken wir für K = R einen Moment über die Drehmatrix A = Rθ mit 0 < θ <
π nach. Offenbar bleibt die Länge eines beliebigen Vektors bei der Drehung unverändert, und
der Bildvektor ist gerade um den Winkel θ vom Original weggedreht, zeigt also in eine andere
Richtung. Damit kann er insbesondere kein Vielfaches des Originals sein. Wir erwarten also
aufgrund dieser geometrischen Überlegung, dass Rθ keine Eigenvektoren und Eigenwerte hat.

Beispiel 6.32. Für eine Diagonalmatrix

λ 0 ··· 0

1
0 . . . . . . ... 

A = Δ(λ1, . . ., λn ) := . .
.. . . . . . 0 

0 · · · 0 λn 

beobachten wir

0
.. 
.

0


Δ(λ1, . . ., λn ) · ek = λ k  = λ k · ek .

0

.. 
.

0
Somit ist ek Eigenvektor von Δ(λ1, . . ., λn ) zum Eigenwert λ k für k ∈ {1, . . ., n}.

Beispiel 6.33. Sei K = R und V = C ∞ (R, R) der Vektorraum aller unendlich oft differenzier-
baren reellen Funktionen. Zu λ ∈ R setzen wir vλ (t) := eλt . Dann ist vλ ∈ V und vλ  0.
Der „Ableitungsoperator“ dtd : V → V ist ein Endomorphismus. Wegen vλ (t) = λeλt = λvλ (t)
für alle t ∈ R ist
d
(vλ ) = λvλ .
dt
Also ist jedes λ ∈ R Eigenwert von d
dt .

Es kann also passieren, dass ein Endomorphismus überhaupt keine Eigenwerte hat, oder endlich
viele oder auch unendlich viele. Das wollen wir nun systematisch untersuchen und beginnen
mit folgendem
6.2. Eigenwerte und Eigenvektoren 283

Satz 6.34. Sei K ein Körper, V ein K-Vektorraum und ϕ ∈ End(V). Sind v1, . . . , vk Eigenvek-
toren von ϕ zu paarweise verschiedenen Eigenwerten λ1, . . ., λ k ∈ K, dann sind v1, . . ., vk
linear unabhängig.

Beweis. Wir führen eine vollständige Induktion nach der Anzahl k durch.
Induktionsanfang: Ist k = 1 und damit v1 Eigenvektor zu λ1, so ist v1  0 nach Definition, also
linear unabhängig.
Induktionsschritt: Gelte die Aussage wie oben für ein k ∈ N. Wir zeigen, dass die Aussage dann
auch für k + 1 gültig ist. Hierzu seinen v1, . . . , vk+1 Eigenvektoren zu paarweise verschiedenen
Eigenwerten λ1, . . . , λ k+1 . Wir überprüfen, dass nun v1, . . ., vk+1 linear unabhängig sind, also
dass aus
α1 v1 + . . . + αk+1 vk+1 = 0 (6.4)
dann
α1 = . . . = αk+1 = 0
folgt. Es gilt
(6.4)
0 = ϕ(0) = ϕ (α1 v1 + . . . αk+1 vk+1 )
= α1 · ϕ(v1 ) + . . . + αk+1 · ϕ(vk+1 )
(6.2)
= α1 · λ1 v1 + . . . + αk+1 · λ k+1 vk+1 . (6.5)

Ferner erhalten wir aus Gleichung (6.4) durch Multiplikation mit λ k+1, dass

λ k+1 · α1 v1 + . . . + λ k+1 · αk+1 vk+1 = 0. (6.6)

Nun liefert Subtraktion der Gleichung (6.6) von (6.5)

0 = α1 · (λ1 − λ k+1 ) · v1 + . . . + αk · (λ k − λ k+1 ) · vk, (6.7)

wobei der letzte Summand αk+1 · (λ k+1 − λ k+1 ) · vk+1 gerade weggefallen ist.
Da nach Induktionsvoraussetzung v1, . . . , vk linear unabhängig sind, verschwinden in der Li-
nearkombination der Gleichung (6.7) alle Koeffizienten αi · (λi − λ k+1 ), d.h. es folgt

α1 · (λ1 − λ k+1 ) = . . . = αk · (λ k − λ k+1 ) = 0,


()*+ ()*+
0 0

also α1 = . . . = αk = 0. Setzen wir diese Ergebnisse in (6.4) ein, so verbleibt αk+1 vk+1 = 0,
also ist αk+1 = 0, da der Eigenvektor vk+1 nach Definition nicht der Nullvektor ist. 

Da ein Vektorraum nicht mehr linear unabhängige Vektoren enthalten kann als seine Dimension
angibt, folgt sofort:
284 6. Eigenwertprobleme

Korollar 6.35. Sei K ein Körper, V ein K-Vektorraum und ϕ ∈ End(V). Hat ϕ mindestens k
paarweise verschiedene Eigenwerte, k ∈ N ∪ {∞}, dann ist

dim(V) ≥ k. 

Somit kann die Spiegelungsmatrix Sθ ∈ Mat(2, R) neben 1 und −1 keine weiteren Eigenwerte
haben.
Da es auf dem reellen Vektorraum V = C ∞ (R, R) einen Endomorphismus mit unendlich vielen
paarweise verschiedenen Eigenwerten gibt (nämlich dtd ), muss dim(C ∞ (R, R)) = ∞ gelten.

Definition 6.36. Sei K ein Körper, V ein K-Vektorraum, ϕ ∈ End(V) und λ ∈ K. Dann heißt

Eig(ϕ, λ) := {v ∈ V | ϕ(v) = λv}

der Eigenraum von ϕ zum Eigenwert λ.


Analog definiert man für A ∈ Mat(n, K) und λ ∈ K den Eigenraum von A zum Eigenwert λ
durch
Eig(A, λ) := {v ∈ K n | Av = λv} .

Wir halten folgende Beobachtungen fest:

Proposition 6.37. Sei K ein Körper, V ein K-Vektorraum, λ, μ ∈ K und ϕ ∈ End(V ). Dann
gilt:

(i) Eig(ϕ, λ) \ {0} = {Eigenvektoren von ϕ zum Eigenwert λ}.

(ii) Eig(ϕ, λ) = {v ∈ V | (ϕ − λ · idV )(v) = 0} = ker(ϕ − λ · idV ).


()*+
∈End(V )

(iii) Eig(ϕ, λ) ⊂ V ist ein Untervektorraum.

(iv) Für λ  μ ist Eig(ϕ, λ) ∩ Eig(ϕ, μ) = {0}.

Beweis. Aussagen (i) und (ii) sind klar aufgrund der Definition. Aussage (iii) folgt direkt aus
(ii), da der Kern einer linearen Abbildung stets ein Untervektorraum ist.

Zu (iv):
Wäre 0  v ∈ Eig(ϕ, λ) ∩ Eig(ϕ, μ), so müssten v, v wegen Satz 6.34 linear unabhängig sein,
was natürlich Unsinn ist. 
6.2. Eigenwerte und Eigenvektoren 285

Wenden wir uns zwei konkreten Beispielen zu:

Beispiel 6.38. Wir betrachten die Spiegelungsmatrix A = Sθ und benutzen die Notationen
aus Beispiel 4.47. Da vθ ein Eigenvektor von A zum Eigenwert 1 ist, muss Eig(Sθ, 1) den
eindimensionalen Untervektorraum R · vθ enthalten. Der Eigenraum kann nicht 2-dimensional
sein, da dann Eig(Sθ, 1) = R2 wäre, aber wθ ∈ R2 ist nicht Eigenvektor zum Eigenwert 1
(sondern zum Eigenwert −1). Also gilt

Eig(Sθ, 1) = R · vθ .

Analog sehen wir


Eig(Sθ, −1) = R · wθ .
Wegen Korollar 6.35 hat A keine weiteren Eigenwerte. In anderen Worten, für λ  {1, −1},
gilt:
Eig(Sθ, λ) = {0} .
Deuten wir die beiden nichttrivialen Eigenräume einmal geometrisch: Der Eigenraum
Eig(Sθ, 1) = R · vθ ist die Spiegelungsachse, der Eigenraum Eig(Sθ, −1) = R · wθ die dazu
senkrechte Ursprungsgerade. Alle Vektoren, die nicht auf einer der beiden Geraden liegen,
sind keine Eigenvektoren von A.
x2

wθ Eig(Sθ, 1) = Rvθ


θ
x1
Eig(Sθ, −1) = Rwθ
Abb. 103 Eigenräume von Sθ

Beispiel 6.39. Die Matrix


1 0 0


A = 0 1 0
0 0 3
könnte theoretisch bis zu drei verschiedene Eigenwerte besitzen. Sofort sehen wir, dass λ1 = 1
und λ2 = 3 Eigenwerte sind. Sollten das schon alle Eigenwerte sein? Wir bekommen

0 0 0


Eig(A, 1) = ker(A − 1 · 13 ) = ker 0 0 0 = {α · e1 + β · e2 | α, β ∈ R} ,
0 0 2
286 6. Eigenwertprobleme

also einen 2-dimensionalen Eigenraum. Genauso sehen wir, dass

−2 0 0


Eig(A, 3) = ker(A − 3 · 13 ) = ker 0 −2 0 = {α · e3 | α ∈ R} .
0 0 0
Andere Eigenwerte besitzt A nicht, denn für λ  {1, 3} ist

1−λ 0 0



A − λ · 13 = 0 1−λ 0 
0 0 3 − λ

eine Diagonalmatrix, deren Diagonaleinträge alle  0 sind, also invertierbar. Daher gilt dann

Eig(A, λ) = ker(A − λ · 13 ) = {0}.

Die Matrix A hat tatsächlich nur die beiden Eigenwerte 1 und 3. Allerdings muss der Eigenwert 1
hier doppelt gezählt werden. Was bedeutet das genau?

Definition 6.40. Sei K ein Körper, V ein K-Vektorraum, λ ∈ K und ϕ ∈ End(V). Dann heißt

μgeo (λ) := dim (Eig(ϕ, λ))

die geometrische Vielfachheit oder geometrische Multiplizität des Eigenwerts λ von ϕ.

In Beispiel 6.39 hat der Eigenwert 1 die geometrische Vielfachheit 2, der Eigenwert 3 dagegen
die geometrische Vielfachheit 1. Dieses Beispiel lässt sich leicht folgendermaßen verallgemei-
nern:

Beispiel 6.41. Sei K ein Körper und sei


μ1
.. 
A = Δ(μ1, . . . , μn ) := . 

μn 

eine Diagonalmatrix mit Diagonaleinträgen μ1, . . ., μn ∈ K. Für beliebiges λ ∈ K ist dann


Δ(μ1, . . . , μn ) − λ · 1n = Δ(μ1 − λ, . . . , μn − λ) und somit invertierbar genau dann, wenn λ  μi
für alle i = 1, . . . , n. Also sind die Diagonaleinträge μ1, . . ., μn genau die Eigenwerte von
Δ(μ1, . . . , μn ).
Was sind die geometrischen Vielfachheiten? Der Eigenraum zu λ, also der Kern von Δ(μ1 −
λ, . . . , μn − λ) wird aufgespannt durch die Standardbasisvektoren ei , für die μi − λ = 0 gilt, d.h.
durch die ei mit μi = λ. Die geometrische Vielfachheit ist daher genau die Anzahl der Male,
in denen λ auf der Diagonale von A vorkommt.
6.2. Eigenwerte und Eigenvektoren 287

Beispiel 6.42. Greifen wir Beispiel 6.33 nochmals auf. Hier war der Körper K = R, der
Vektorraum V = C ∞ (R, R) und der Endomorphismus ϕ = dtd . Wir hatten schon gesehen, dass
jedes λ ∈ R Eigenwert ist. Was sind die geometrischen Vielfachheiten der λ?
Dazu sind zu gegebenem λ ∈ R alle Funktionen v ∈ C ∞ (R, R) zu bestimmen, die ϕ(v) = λ · v,
d.h.
dv
(t) = λ · v(t) (6.8)
dt
für alle t ∈ R erfüllen. Eine solche Gleichung nennt man eine Differentialgleichung, da in ihr
die unbekannte Funktion v als auch ihre Ableitung auftritt. In der Analysis lernt man, dass die
Lösungen von (6.8) alle von der Form v(t) = c · eλt sind. In anderen Worten, Eig(λ, dtd ) = R · vλ .
Die geometrischen Vielfachheiten sind somit gleich 1.

Um ein konkretes Verfahren zur Berechnung von Eigenwerten zu finden, machen wir folgende
Überlegung. Ist A ∈ Mat(n, K), so gilt:
λ ist Eigenwert von A ⇔ ker(A − λ · 1n ) = Eig(A, λ)  {0}
⇔ A − λ · 1n ist nicht invertierbar
⇔ det (A − λ · 1n ) = 0.

Definition 6.43. Das Polynom χA(λ) := det (A − λ · 1n ) heißt charakteristisches Polynom


von A.

Da die Determinante ein Polynom in den Einträgen der Matrix ist (vgl. Satz 4.82), ist das
charakteristische Polynom tatsächlich ein Polynom in λ, und zwar vom Grad n.
Die obige Überlegung zeigt:
λ ist Eigenwert von A ⇔ χ̃A (λ) = 0.
Um die Eigenwerte von A zu finden, müssen wir also die Nullstellen des charakteristischen
Polynoms χA berechnen.

Beispiel 6.44. Überprüfen wir unsere Eigenwerte für A = Sθ :


χSθ (λ) = det (Sθ − λ · 1n )
   
cos (2θ) sin (2θ) 1 0
= det −λ·
sin (2θ) − cos (2θ) 0 1
 
cos (2θ) − λ sin (2θ)
= det
sin (2θ) − cos (2θ) − λ
= (cos (2θ) − λ) (− cos (2θ) − λ) − sin2 (2θ)
= λ2 − cos2 (2θ) − sin2 (2θ)
= λ2 − 1
= (λ − 1)(λ + 1).
288 6. Eigenwertprobleme

Tatsächlich sind die Nullstellen von χSθ die bekannten Eigenwerte λ1 = 1 und λ2 = −1.

Beispiel 6.45. Für die Diagonalmatrix A = Δ(μ1, . . . , μn ) bekommen wir

μ1 0 · · · 0 1 0 · · · 0

.
 0 . . . . . ... 
0 . . . . . . ... 
χΔ(μ1,...,μn ) (λ) = det . .  − λ · 

.. . .
..
. 0
 ... . . . . . . 0
 
0 · · · 0 μn
 0 · · · 0 1
μ − λ 0 ··· 0

1 .. 
0 .. ..
. . . 
= det . . . 
.. .. .. 0 

0 · · · 0 μn − λ

= (μ1 − λ) · . . . · (μn − λ).
Also ist χΔ(μ1,...,μn ) (λ) = 0 genau dann, wenn λ = μk für ein k ∈ {1, . . ., n} ist. Somit hat
Δ(μ1, . . . , μn ) genau die Eigenwerte μ1, . . ., μn .

Beispiel 6.46. Greifen wir noch einmal die in Beispiel 6.31 diskutierten Drehungen auf. Für
A = Rθ ist zunächst
   
cos(θ) − sin(θ) 1 0
χRθ (λ) = det −λ·
sin(θ) cos(θ) 0 1
 
cos(θ) − λ − sin(θ)
= det
sin(θ) cos(θ) − λ
= (cos(θ) − λ)2 + sin2 (θ)
= λ2 − 2 cos(θ) · λ + cos2 (θ) + sin2 (θ)
= λ2 − 2 cos(θ) · λ + 1.
Die Nullstellen von χ̃Rθ sind gegeben durch
 
λ1,2 = cos(θ) ± cos2 (θ) − 1 = cos(θ) ± − sin2 (θ) = cos(θ) ± i · sin(θ).
Ist nun θ kein ganzzahliges Vielfaches von π, so ist der Ausdruck sin(θ)  0 und somit sind
λ1 und λ2 nicht reell. Drehmatrizen haben dann also keine reellen (wohl aber komplexe)
Eigenwerte und Eigenvektoren.
Falls dagegen θ ein ganzzahliges Vielfaches von π ist, so ist Rθ = ±12 und Rθ hat den Eigenwert
±1 mit geometrischer Vielfachheit 2.

Berechnen Sie nun hier Beispiele von charakteristischen Polynomen so lange


bis Sie es sicher beherrschen: http://ueben.cbaer.eu/02.html
6.2. Eigenwerte und Eigenvektoren 289

Bemerkung 6.47. Es ist wichtig festzuhalten, dass das charakteristische Polynom einer Matrix
ein Polynom definiert, nicht nur eine Polynomfunktion. Sei nämlich A ∈ Mat(n, K) und x ein
abstraktes Symbol. Dann berechnet man χA(x) = det(A − x · 1n ) z.B. mittels der Formel aus
Satz 4.82 und sortiert nach Potenzen von x.
Damit sind dann die algebraischen Vielfachheiten der Eigenwerte auch über beliebigen Körpern
definiert, nicht nur über K = C, nämlich als Nullstellenvielfachheiten des charakteristischen
Polynoms.

Beispiel 6.48. Betrachten wir den Körper K = F2 und die beiden Matrizen A, B ∈ Mat(3, F2 ),
gegeben durch
1 0 0 1 0 0



A = 0 1 0 und B = 0 0 0 .


0 0 0 0 0 0
Die charakteristischen Polynome ergeben sich zu
1−x 0 0


χA(x) = det 0 1 − x 0  = (1 − x)2 (−x) = x 3 + x,
0 0 −x 
1−x 0 0



χB (x) = det 0 −x 0  = (1 − x)(−x)2 = x 3 + x 2 .
0 0 −x 
Die charakteristischen Polynome von A und B sind also verschieden, obwohl die zugehörigen
Polynomfunktionen übereinstimmen,
χA  χB, aber χ̃A = χ̃B = 0.

Bemerkung 6.49. Nach dem Fundamentalsatz 2.117 der Algebra besitzt jedes komplexe Poly-
nom vom Grad ≥ 1 Nullstellen und damit jede komplexe Matrix A ∈ Mat(n, C) Eigenwerte.
Wie die Drehmatrizen zeigen, gilt dies nicht für reelle Matrizen, es sei denn, wir fassen sie als
komplexe Matrizen auf (schließlich gilt ja R ⊂ C) und erlauben den Eigenwerten komplex zu
sein.
Die Wahl des Körpers K spielt also eine wichtige Rolle für Eigenwertprobleme.

Hier können Sie die Eigenwerte von Beispielmatrizen zur Übung berechnen:
http://ueben.cbaer.eu/05.html

Bemerkung 6.50. Die Transponierte einer Matrix A hat dasselbe charakteristische Polynom
wie A selbst, denn
χA (λ) = det(A − λ1) = det((A − λ1) ) = det(A − λ1) = χA(λ).
Damit haben A und A auch dieselben Eigenwerte.
290 6. Eigenwertprobleme

Bemerkung 6.51. Aus Aufgabe 6.10 folgt, dass ähnliche Matrizen dasselbe charakteristische
Polynom und damit dieselben Eigenwerte haben müssen, denn ähnliche Matrizen stellen den-
selben Endomorphismus bzgl. verschiedener Basen dar. Wir können dies aber auch noch einmal
direkt nachrechnen:
Seien A, B ∈ Mat(n, K) ähnlich, d.h. es gibt ein T ∈ GL(n, K), so dass

B = T · A · T −1 .

Dann gilt für alle λ ∈ K:

χB (λ) = det(B − λ · 1n )
= det(T AT −1 − λ · T1nT −1 )
= det(T(A − λ · 1n )T −1 )
= det(T) · χA(λ) · det(T −1 )
= χA (λ).

6.3. Diagonalisierbarkeit
Diagonalmatrizen sind besonders angenehm für Berechnungen. Alle zugeordneten Größen wie
die Determinante, das charakteristische Polynom, die Eigenwerte und die inverse Matrix (falls
sie exisiert) lassen sich sofort angeben. Für einen gegebenen Endomorphismus wäre es daher
sehr günstig, eine Basis aus Eigenvektoren zu finden und den Endomorphismus dann in dieser
Basis durch eine Diagonalmatrix darzustellen. Wann ist das möglich?

Satz 6.52. Sei V ein n-dimensionaler K-Vektorraum und ϕ ∈ End(V). Sei B = (b1, . . . , bn )
eine geordnete Basis von V. Dann sind äquivalent:

(1) Die Basisvektoren sind Eigenvektoren von ϕ zu den Eigenwerten μ1, . . ., μn .

(2) Die darstellende Matrix von ϕ bzgl. B ist die Diagonalmatrix

MB (ϕ) = Δ(μ1, . . . , μn ).

Beweis. Die Aussage ist klar aufgrund der Definitionen, denn dass die darstellende Matrix
MB (ϕ) = Δ(μ1, . . ., μn ) ist, heißt ja nichts anderes als ϕ(b j ) = μ j b j . 

Als direkte Folgerung erhalten wir:


6.3. Diagonalisierbarkeit 291

Korollar 6.53. Sei A ∈ Mat(n, K). Dann sind äquivalent:

(1) A ist ähnlich zu einer Diagonalmatrix.

(2) Es gibt eine Basis von K n bestehend aus Eigenvektoren von A. 

Definition 6.54. Sei V ein K-Vektorraum, ϕ ∈ End(V) und A ∈ Mat(n, K). Falls eine
Basis von V bzw. K n aus Eigenvektoren von ϕ bzw. A existiert, dann heißt ϕ bzw. A
diagonalisierbar.

Nehmen wir an, eine Matrix A ∈ Mat(n, K) ist diagonalisierbar, d.h. ähnlich zu einer Dia-
gonalmatrix Δ(μ1, . . . , μn ). Da ähnliche Matrizen dieselben Eigenwerte haben, müssen die
Diagonalterme μ1, . . ., μn der Diagonalmatrix genau die Eigenwerte von A sein, wobei jeder
Eigenwert so oft vorkommt, wie die geometrische Vielfachheit angibt.
Wie finden wir nun die Transformationsmatrix T ∈ GL(n, K), für die dann
T AT −1 = Δ(μ1, . . ., μn )
gilt? Nun, sei v j = T −1 e j der j-te Spaltenvektor von T −1 . Dann berechnen wir:
Av j = T −1 Δ(μ1, . . . , μn )T v j
= T −1 Δ(μ1, . . . , μn )e j
= T −1 μ j e j
= μ j T −1 e j
= μj vj .
Wir sehen, dass die Spaltenvektoren von T −1 genau die Eigenvektoren von A sind. Zusammen-
gefasst haben wir gesehen: Ist {v1, . . ., vn } eine Basis aus Eigenvevektoren von A, Av j = μ j v j ,
dann wird A durch
(v1, . . ., vn )−1 · A · (v1, . . ., vn ) = Δ(μ1, . . . , μn )
diagonalisiert.
Die Frage ist also, wie wir zu einer Basis aus Eigenvektoren kommen.

Satz 6.55. Sei V ein n-dimensionaler K-Vektorraum und ϕ ∈ End(V). Seien λ1, . . ., λ k die
paarweise verschiedenen Eigenwerte von ϕ. Dann gilt
μgeo (λ1 ) + . . . + μgeo (λ k ) ≤ n. (6.9)
Der Endomorphismus ϕ ist genau dann diagonalisierbar, wenn
μgeo (λ1 ) + . . . + μgeo (λ k ) = n. (6.10)
292 6. Eigenwertprobleme

Beweis. a) Wir wählen eine geordnete Basis (b1, . . . , b μgeo (λ1 ) ) von Eig(ϕ, λ1 ). Dann wählen
wir eine geordnete Basis (b μgeo (λ1 )+1, . . . , b μgeo (λ1 )+μgeo (λ2 ) ) von Eig(ϕ, λ2 ). So fahren wir fort bis
wir zuletzt eine geordnete Basis (b μgeo (λ1 )+···+μgeo (λk−1)+1, . . . , b μgeo (λ1 )+···+μgeo (λk−1)+μgeo (λk ) ) von
Eig(ϕ, λ k ) erhalten haben.
Wir überlegen uns nun zunächst, dass die Vektoren (b1, . . ., b μgeo (λ1 )+···+μgeo (λk ) ), die aus diesen
Basen zusammengesetzt sind, linear unabhängig sind. Seien also α j ∈ K, so dass

α1 b1 + . . . + αμgeo (λ1 )+···+μgeo (λk ) b μgeo (λ1 )+···+μgeo (λk ) = 0.

Die Summanden in dieser langen Summe, die aus demselben Eigenraum stammen, fassen wir
jeweils zusammen. Wir setzen

v1 :=α1 b1 + . . . + α μgeo (λ1 ) b μgeo (λ1 ) ∈ Eig(ϕ, λ1 ),


...
vk :=αμgeo (λ1 )+···+μgeo (λk−1)+1 b μgeo (λ1 )+···+μgeo (λk−1)+1
+ . . . + αμgeo (λ1 )+···+μgeo (λk ) b μgeo (λ1 )+···+μgeo (λk ) ∈ Eig(ϕ, λ k ).

Dann gilt also v1 + · · · + vk = 0 und wegen Satz 6.34 müssen alle v j = 0 sein (die v j  0 wären
einerseits linear unabhängig und würden sich andererseits zu 0 aufaddieren, Widerspruch). Da
jedes v j als Linearkombination von Basisvektoren von Eig(ϕ, λ j ) geschrieben ist, müssen alle
Koeffizienten αi = 0 sein. Dies beweist die lineare Unabhängigkeit.
b) In jedem Vektorraum kann es nicht mehr linear unabhängige Vektoren geben als die Di-
mension angibt. Daher folgt (6.9).
c) Gilt (6.10), so ist (b1, . . ., b μgeo (λ1 )+···+μgeo (λk ) ) ein maximales System linear unabhängiger
Vektoren, also eine Basis. Wir haben somit eine Basis aus Eigenvektoren gefunden und ϕ ist
diagonalisierbar.
d) Ist umgekehrt ϕ diagonalisierbar, d.h. gibt es eine Basis aus Eigenvektoren, dann verteilen
sich diese Eigenvektoren auf die verschiedenen Eigenräume. Wegen der linearen Unabhängig-
keit können nicht mehr als μgeo (λ j ) viele der Basisvektoren aus Eig(ϕ, λ j ) stammen. Daher
gilt
μgeo (λ1 ) + . . . + μgeo (λ k ) ≥ n.
Zusammen mit (6.9) liefert dies (6.10). 

Nun wissen wir, wie wir einen Endomorphismus oder eine Matrix diagonalisieren, sofern er
denn diagonalisierbar ist. Die Prozedur ist wie folgt:

1. Berechne das charakteristische Polynom.

2. Berechne die Nullstellen des charakteristischen Polynoms, also die Eigenwerte.

3. Bestimme zu jedem Eigenwert eine Basis des zugehörigen Eigenraums.

4. Im diagonalisierbaren Fall setzen sich diese Basen zu einer Basis des gesamten Vektorraums
zusammen.
6.3. Diagonalisierbarkeit 293

Der erste Schritt ist im Wesentlichen die Berechnung einer Determinante. Das kann in hohen
Dimensionen mühsam sein, ist im Prinzip aber immer machbar.
Der zweite Schritt kann schon problematisch werden. Im Fall K = C haben wir Formeln
kennengelernt, die bis zum Grad 3 die Nullstellenberechnung erlauben. In hohen Dimensionen
kann die explizite Nullstellenberechnung scheitern.
Die Eigenraumbestimmung zum Eigenwert μ j ist die Berechnung des Kerns von ϕ − μ j · id.
Das läuft auf das Lösen eines linearen Gleichungssystems hinaus. Das können wir mittlerweile
gut.
Doch nun zu Beispielen:

Beispiel 6.56. Für K = R und A = Sθ gilt wegen Lemma 5.24 Rθ S0 R−θ = Sθ . Umstellen nach
der Spiegelung S0 an der e1 -Achse liefert dann
 
1 0 −1
Δ(1, −1) = = S0 = R−θ Sθ R−θ ,
0 −1

d.h. Sθ ist diagonalisierbar mit der Transformationsmatrix T = R−θ .

Beispiel 6.57. Für reelle Drehmatrizen Rθ wissen wir, dass diese keine reellen Eigenwerte
bzw. Eigenvektoren besitzen (jedenfalls wenn θ  Z · π). Somit ist Rθ auch nicht (reell)
diagonalisierbar.
Die Situation ändert sich jedoch, wenn wir Rθ als komplexe Matrix betrachten, also K = C
nehmen. Aufgrund des Fundamentalsatzes der Algebra muss Rθ Eigenwerte haben. In der Tat,
in Beispiel 6.46 haben wir die Eigenwerte berechnet und

μ1,2 = cos(θ) ± i · sin(θ)

erhalten. Da wir zwei verschiedene Eigenwerte erhalten und jeder geometrische Vielfachheit
wenigstens 1 haben muss, addieren sich die geometrischen Vielfachheiten zu 2 auf. Gemäß
Satz 6.55 ist Rθ (komplex) diagonalisierbar.
Bestimmen wir eine Basis aus Eigenvektoren: Für den Eigenwert μ1 = cos(θ) + i · sin(θ) ist
  $ %
−i sin(θ) − sin(θ) 1
Eig(Rθ, μ1 ) = ker(Rθ − μ1 12 ) = ker =C·
sin(θ) −i sin(θ) −i

und für μ2 = cos(θ) − i · sin(θ) ist


  $ %
i sin(θ) − sin(θ) 1
Eig(Rθ, μ2 ) = ker(Rθ − μ2 12 ) = ker =C· .
sin(θ) i sin(θ) i

Wir haben eine Basis von C2 aus Eigenvektoren von Rθ gefunden, nämlich
9$ % $ %:
1 1
, .
−i i
294 6. Eigenwertprobleme

Für die Transformationsmatrix T gilt somit


 
−1 1 1
T = .
−i i

Glücklicherweise sind 2 × 2-Matrizen leicht zu invertieren und wir berechnen sofort


 
1 1 i
T= .
2 1 −i

Wir können nun noch die Probe machen und direkt nachrechnen, dass
     
−1 1 1 i cos(θ) − sin(θ) 1 1 cos(θ) + i sin(θ) 0
T Rθ T = =
2 1 −i sin(θ) cos(θ) −i i 0 cos(θ) − i sin(θ)

gilt.

Hier können und sollten Sie das Diagonalisieren von Matrizen nun selbst
üben: http://ueben.cbaer.eu/04.html

Komplexe Matrizen haben zwar immer Eigenwerte, sind deshalb aber noch lange nicht immer
diagonalisierbar wie folgendes Beispiel zeigt:

Beispiel 6.58. Die Matrix


 
1 1
A=
0 1

hat das charakteristische Polynom


 
1−λ 1
χA(λ) = det = (1 − λ)2
0 1−λ

und damit nur den Eigenwert μ = 1 (auch keine weiteren komplexen Eigenwerte). Da die
Matrix  
0 1
A − 1 · 12 =
0 0

den Rang 1 hat, ist der Kern eindimensional. In anderen Worten, es gilt μgeo (1) = 1. Nach
Satz 6.55 ist A nicht diagonalisierbar, auch nicht wenn wir sie als komplexe Matrix auffassen.

Die folgende Matrix sieht auf den ersten Blick ganz ähnlich ist, verhält sich aber ganz anders:
6.3. Diagonalisierbarkeit 295

 
1 1
Beispiel 6.59. Für A = ∈ Mat(2, R) ermitteln wir zunächst die Eigenwerte als Null-
1 0
stellen des charakteristischen Polynoms:

χA(λ) = det (A − λ · 1n )
   
1 1 1 0
= det −λ·
1 0 0 1
 
1−λ 1
= det
1 0−λ
= (1 − λ) · (−λ) − 1
= λ2 − λ − 1.

Die Eigenwerte von A sind also gegeben durch



1 1
λ1,2 = ± + 1,
2 4
d.h. √ √
1+ 5 1− 5
λ1 = und λ2 = .
2 2

Die Zahl 1+ 5
2 ≈ 1, 618 heißt goldener Schnitt. Da A eine 2 × 2-Matrix ist und genau 2
verschiedene Eigenwerte hat, ist A diagonalisierbar. Die geometrischen Vielfachheiten sind
dim (Eig(A, λ1 )) = dim (Eig(A, λ2 )) = 1. Ist nun x ∈ Eig(A, λ1 ), so gilt
       
0 1 − λ1 1 x1 (1 − λ1 )x1 + x2
= (A − λ1 · 12 ) · x = · = ,
0 1 −λ1 x2 x1 − λ1 x2

womit wir insbesondere x1 − λ1 x2 = 0 erhalten, d.h. x1 = λ1 x2 . Also ist x von der Gestalt
   
λ1 x2 λ1
x= = x2 ·
x2 1

und damit muss der zu λ1 gehörige Eigenraum


   
λ1
Eig(A, λ1 ) ⊂ x2 · | x2 ∈ R
1
 
 
λ1
erfüllen. Wegen dim (Eig(A, λ1 )) = 1 = dim t · | t ∈ R folgt
1
   
λ1
Eig(A, λ1 ) = t · |t ∈ R .
1
296 6. Eigenwertprobleme

Analog bekommen wir   


λ2
Eig(A, λ2 ) = t · |t ∈ R .
1
   
λ1 λ2
Damit bilden und eine Basis von R2 aus Eigenvektoren. Wir setzen
1 1
 
−1 λ1 λ 2
T =
1 1

und ermitteln
     
1 1 −λ2 1 1 −λ2 1 1 −λ2
T= = √ √ =√ .
λ1 − λ2 −1 λ1 1+ 5
− 1− 5 −1 λ1 5 −1 λ1
2 2

Bemerkung 6.60 (Potenzieren diagonalisierbarer Matrizen). Welche Dienste kann uns die
Diagonalisierung einer Matrix A erweisen? Man kann damit z.B. effizient hohe Matrixpotenzen
Ak berechnen. Dazu schreiben wir

A = T −1 · Δ · T,

wobei Δ = Δ(λ1, . . . , λn ) ist, mit den Eigenwerten λ k von A. Dann ist


   
Ak = T −1 ΔT · T −1 ΔT · . . . · T −1 ΔT · T −1 ΔT
()*+
k Faktoren
= T −1 ΔT · T −1 ΔT · . . . · T −1 ΔT · T −1 ΔT
()*+ ()*+
=1n =1n
−1
=T ·Δ ·T k

−1
=T · (Δ(λ1, . . ., λn ))k · T
= T −1 · Δ(λ1k, . . ., λnk ) · T .
 
1 1
Beispiel 6.61. Im Beispiel 6.59 fanden wir für A = = T −1 · Δ · T die Matrizen
1 0
    
1 1 −λ2 −1 λ1 λ 2 λ1 0
T=√ , T = , Δ= .
5 −1 λ1 1 1 0 λ2

Demnach gilt

Ak = T −1 · Δk · T
6.3. Diagonalisierbarkeit 297

   k  
λ1 λ 2 λ1 0 1 1 −λ2
= · ·√
1 1 0 λ2 5 −1 λ1
   
1 λ1 λ2 λ1k 0 1 −λ2
=√
5 1 1 0 λ2k −1 λ1
  
1 λ1 λ2 λ1k −λ1k λ2
=√
5 1 1 −λ2k λ1 λ2k
 
1 λ1k+1 − λ2k+1 −λ1k+1 λ2 + λ1 λ2k+1
=√ .
5 λ1k − λ2k λ1 λ2k − λ1k λ2
In diesem Zusammenhang gibt es ein berühmtes Kaninchen-Populationsmodell, das auf Leo-
nardo da Pisa, bekannter unter dem Namen Fibonacci, einem der berühmtesten Mathematiker
des Mittelalters, zurückgeht. In seinem Modell gelten folgende Regeln:
◦ Im ersten Monat gibt es genau ein Paar geschlechtsreifer Kaninchen.
◦ Jedes geschlechtsreife Paar wirft pro Monat ein weiteres Paar.
◦ Jedes neugeborene Paar wird zwei Monate später geschlechtsreif.
◦ Es gibt keine Todesfälle.
Die Mathematisierung dieser Regeln liefert die Fibonacci-Zahlen fk , d.h. die Anzahl der
geschlechtsreifen Paare im k-ten Monat, z.B. f1 = 1, f2 = 1, f3 = 2, f4 = 3, . . . , f24 = 46.368,
. . . , f60 = 1.548.008.755.920, . . . Das rekursive Bildungsgesetz lautet
fk+2 = fk+1 + fk ,

denn im (k + 2)-ten Monat kommen zu den bereits im Vormonat vorhandenen geschlechtsrei-


fen Paaren ( fk+1 viele) noch die neu geschlechtsreif gewordenen
hinzu. Dies sind gerade so viele, wie zwei Monate vorher ge-
schlechtsreif waren ( fk viele). Die so definierte Folge heißt dann
Fibonacci-Folge. Um nun jedoch etwa die 24-te Fibonacci-Zahl
f24 zu erhalten, rechnen wir eine ganze Weile.
Wir leiten jetzt eine geschlossene Formel für die rekursiv de-
finierten Fibonacci-Zahlen her. Dabei ist die Matrixpotenz aus
Beispiel 6.61 außerordentlich praktisch. Abb. 105 Kaninchen2
Sei ( fk )k die Fibonacci-Folge mit f0 = 0 und f1 = f2 = 1 sowie fk+2 = fk+1 + fk .
fk+1
Wir definieren die Vektoren wk := ∈ R2 an und finden durch Einsetzen
fk
   
f1 1
w0 = = = e1
f0 0
2Künstler: bf5man, Quelle: https://openclipart.org/detail/192653
298 6. Eigenwertprobleme

sowie         
fk+2 fk + fk+1 1 1 fk+1 1 1
wk+1 = = = = wk = Awk .
fk+1 fk+1 1 0 fk 1 0
Damit folgt
 
fk+1
= wk
fk
= A · wk−1 = A · A · wk−2 = . . . = Ak · w0
= Ak · e1
 
1 λ1k+1 − λ2k+1 −λ1k+1 λ2 + λ1 λ2k+1
=√ · e1
5 λ1k − λ2k λ1 λ2k − λ1k λ2
 
1 λ1k+1 − λ2k+1
=√ .
5 λ1k − λ2k

Die zweite Komponente liefert nun

λ1k − λ2k
fk = √ ,
5
also
$ √ k  √ k
%
fk = √1 1+ 5
2 − 1− 5
2
5

Dies ist bekannt als die Formel von Moivre-Binet. Erstaunlich ist die Tatsache, dass fk für
jedes k ∈ N ganzzahlig ist, obwohl λ1 und λ2 irrational sind.
Zurück zur allgemeinen Theorie. Die Eigenwerte einer Matrix A ∈ Mat(n, K) sind genau die
Nullstellen des charakteristischen Polynoms χA. Die Dimension des zugehörigen Eigenraums
ist die geometrische Vielfachheit des Eigenwerts. Für komplexe Polynome haben wir auch den
Begriff der Vielfachheit der Nullstellen kennengelernt, siehe Definition 2.118.

Definition 6.62. Sei A ∈ Mat(n, C). Die Nullstellenvielfachheit von λ ∈ C als Nullstelle des
Polynoms χA heißt algebraische Vielfachheit oder auch algebraische Multiplizität von λ.
Abkürzend schreiben wir für sie μalg (λ).

Dieselbe Definition können wir auch für Endomorphismen ϕ ∈ End(V) machen, wenn V
ein endlich-dimensionaler C-Vektorraum ist. Falls der Körper K = R ist, so betrachten wir
A ∈ Mat(n, R) als komplexe Matrix und haben so auch die algebraischen Vielfachheiten
definiert, insbesondere auch für die reellen Eigenwerte von A.
6.3. Diagonalisierbarkeit 299

Beispiel 6.63. In Beispiel 6.58 haben wir gesehen, dass die Matrix
 
1 1
A=
0 1

das charakteristische Polynom χA(λ) = (1 − λ)2 hat und damit nur den Eigenwert λ = 1.
Offenbar ist die algebraische Vielfachheit der Nullstelle λ = 1 in (1 − λ)2 gleich 2, also ist

μalg (1) = 2.

Für die geometrische Vielfachheit hatten wir μgeo (1) = 1 berechnet. Algebraische und geome-
trische Vielfachheit brauchen also nicht übereinzustimmen.

Satz 6.64. Sei V ein n-dimensionaler C-Vektorraum und ϕ ∈ End(V ).

(i) Für alle Eigenwerte λ ∈ C von ϕ gilt

μgeo (λ) ≤ μalg (λ). (6.11)

(ii) Seien λ1, . . . , λ k die paarweise verschiedenen Eigenwerte von ϕ. Dann gilt

μalg (λ1 ) + . . . + μalg (λ k ) = n. (6.12)

(iii) Es ist ϕ genau dann diagonalisierbar, wenn für alle Eigenwerte λ ∈ C von A gilt

μgeo (λ) = μalg (λ). (6.13)

Beweis. Zu (i):
Sei λ ∈ C ein Eigenwert. Zur Abkürzung setzen wir k := μgeo (λ). Wir wählen eine Basis
(b1, . . ., b k ) von Eig(ϕ, λ). Wir ergänzen zur einer Basis von V , B := (b1, . . . , b k , b k+1, . . . , bn ).
Da für die ersten k Basisvektoren gilt ϕ(b j ) = λ · b j , hat die darstellende Matrix von ϕ bzgl.
B die Form  
λ · 1k C
MB (ϕ) = ,
0 D
wobei C ∈ Mat(k × (n − k), C) und D ∈ Mat((n − k) × (n − k), C) Matrizen sind, deren Einträge
uns nicht weiter interessieren. Wir berechnen für das charakteristische Polynom von ϕ mittels
Entwicklung nach den ersten k Spalten:

χϕ (μ) = χMB (ϕ) (μ)


 
(λ − μ) · 1 k C
= det
0 D − μ1n−k
300 6. Eigenwertprobleme

= (λ − μ)k · det(D − μ1n−k )


= (λ − μ)k · χD (μ).

Also kommt die Nullstelle λ mindestens k Mal in χϕ vor, d.h.

μalg (λ) ≥ k = μgeo (λ).

Aussage (ii) folgt aus dem Fundamentalsatz der Algebra, der sicherstellt, dass das charakteris-
tische Polynom in Linearfaktoren zerfällt. Dann summieren sich die algebraischen Vielfach-
heiten, d.h. die Nullstellenvielfachheiten, zum Grad des Polynoms auf, d.h. zur Dimension von
n von V.

Zu (iii):
Nach Satz 6.55 ist ϕ genau dann diagonalisierbar, wenn sich die geometrischen Vielfachheiten
zu n aufsummieren. Wegen (6.11) und (6.12) ist das äquivalent zu (6.13). 

Beispiel 6.65. Für die Matrix


 
1 1
A=
0 1

aus Beispiel 6.58 hatten wir für den Eigenwert 1 die algebraische Vielfachheit μalg (1) = 2 und
die geometrische Vielfachheit μgeo (1) = 1 erhalten. Wegen μgeo (1) < μalg (1) kann A also nicht
diagonalisierbar sein.

Wir erinnern uns an die Summe von Untervektorräumen, siehe Definition 3.89. Ist V ein
K-Vektorraum und sind W1, . . ., W k ⊂ V Untervektorräume, dann ist W1 + . . . + W k ⊂ V
der Untervektorraum von V, der aus allen Elementen von V besteht, die sich als Summe von
Elementen der W j schreiben lassen,

W1 + . . . + W k = {v ∈ V | ∃w j ∈ W j : v = w1 + . . . + wk }.

Lemma 6.66. Sei V ein K-Vektorraum und seien W1, . . . , W k ⊂ V Untervektorräume. Dann
sind äquivalent:

(1) Sind w j ∈ W j so, dass w1 + . . . + wk = 0, dann gilt w j = 0 für alle j = 1, . . . , k.

(2) Jedes Element aus W1 +. . .+W k lässt sich auf eindeutige Weise als Summe von Elementen
der W j schreiben,

W1 + . . . + W k = {v ∈ V | ∃!w j ∈ W j : v = w1 + . . . + wk }.
6.3. Diagonalisierbarkeit 301

Beweis. Zu „(1)⇒(2)“:
Ist v = w1 + . . . + wk = w1 + . . . + wk , dann ist

(w1 − w1 ) + . . . + (wk − wk ) = 0.


()*+ ()*+
∈W1 ∈Wk

Aus (1) folgt nun w j − wj = 0, d.h. w j = wj .

Zu „(2)⇒(1)“:
Sei w1 + . . . + wk = 0 mit w j ∈ W j . Da 0 + . . . + 0 = 0 ebenfalls eine Darstellung von 0 als
Summe von Elementen der W j ist, folgt aus der Eindeutigkeit w j = 0 für alle j. 

Definition 6.67. Gelten die Bedingungen (1) und (2) aus Lemma 6.66, dann nennt man den
Untervektorraum W1 + . . . + W k ⊂ V die direkte Summe von W1, . . . , W k .
In diesem Fall schreibt man statt W1 + . . . + W k meist

W1 ⊕ . . . ⊕ W k .

Lemma 6.68. Sei V ein K-Vektorraum und seien W1, . . . , W k ⊂ V nichttriviale Untervektor-
räume, d.h. alle W j  {0}. Dann sind äquivalent:

(1) Die Summe W1 + . . . + W k ist direkt.

(2) Sind w j ∈ W j \ {0}, so sind die Vektoren w1, . . ., wk linear unabhängig.

Beweis. Zu „(1)⇒(2)“:
Seien w j ∈ W j \ {0} und sei α1 w1 + . . . + αk wk = 0 mit α j ∈ K. Wegen Charakterisierung
(1) aus Lemma 6.66 ist dann α j w j = 0 für jedes j. Wegen w j  0 folgt α j = 0 und damit die
lineare Unabhängigkeit.

Zu „(2)⇒(1)“:
Wir zeigen Charakterisierung (1) aus Lemma 6.66. Seien w j ∈ W j mit w1 + . . . + wk = 0. Falls
w j  0, so setzen wir wj := w j und α j := 1. Falls w j = 0, so wählen wir ein wj ∈ W j \ {0}
(dies ist möglich, da W j  {0}) und setzen α j := 0. In jedem Fall gilt w j = α j wj . Da alle
wj  0 sind, sind die Vektoren w1 , . . ., wk nach Annahme linear unabhängig. Aus

α1 w1 + . . . + αk wk = w1 + . . . + wk = 0

folgt α1 = . . . = αk = 0. Also gilt w1 = . . . = wk = 0. 


302 6. Eigenwertprobleme

Beispiel 6.69. Sei ϕ ∈ End(V) ein Endomorphismus und seien λ1, . . ., λ k paarweise verschie-
dene Eigenwerte von ϕ. Nach Satz 6.34 sind Eigenvektoren zu verschiedenen Eigenwerten
linear unabhängig. Also ist die Summe

Eig(ϕ, λ1 ) + . . . + Eig(ϕ, λ k ) ⊂ V

nach Lemma 6.68 direkt. Wir können also für die Summe

Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k ) ⊂ V

schreiben.

Lemma 6.70. Seien W1, . . . , W k Untervektorräume von V, so dass die Summe W1 + . . . + Wk


direkt ist. Dann setzen sich Basen der W j zu einer Basis von W1 ⊕ . . . ⊕ W k zusammen.
Insbesondere gilt

dim(W1 ⊕ . . . ⊕ W k ) = dim(W1 ) + . . . + dim(W k ).

Beweis. Zur Abkürzung setzen wir n j := dim(W j ). Sei (b1,1, . . ., b1,n1 ) eine geordnete Basis
von W1 , usw. (b k,1, . . ., b k,nk ) eine geordnete Basis von W k . Wir haben zu zeigen, dass B :=
(b1,1, . . ., b1,n1, . . ., b k,1, . . . , b k,nk ) eine geordnete Basis der Summe ist.
Zur Erzeugendeneigenschaft: Jedes Element der W j lässt sich aus den Basisvektoren
b j,1, . . . , b j,n j linearkombinieren und jedes Element der Summe lässt sich aus Elementen der
W j linearkombinieren. Daher lässt sich jedes Element der Summe aus den Vektoren von B
linearkombinieren. Dieser Teil hat nicht benötigt, dass die Summe direkt ist.
Zur linearen Unabhängigkeit: Sei


k 
nj
α j,i · b j,i = 0.
j=1 i=1

Wir müssen zeigen, dass die Koeffizienten α j,i alle = 0 sind.


Da die Summe direkt ist, folgt
nj
α j,i · b j,i = 0
i=1
für alle j = 1, . . ., k. Da (b j,1, . . ., b j,n j ) eine Basis von W j und damit linear unabhängig ist,
folgt α j,i = 0 für alle i und alle j. 

Wir fassen nun noch zusammen, was wir über die Diagonalisierbarkeit von Endomorphismen
wissen.
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 303

Satz 6.71. Sei V ein n-dimensionaler K-Vektorraum und ϕ ∈ End(V). Seien λ1, . . ., λ k die
paarweise verschiedenen Eigenwerte von ϕ. Dann sind äquivalent:

(1) ϕ ist diagonalisierbar.

(2) Es gibt eine Basis von V aus Eigenvektoren von ϕ.

(3) Es gibt eine Basis von V, bzgl. derer die darstellende Matrix von ϕ eine Diagonalmatrix
ist.

(4) μgeo (λ1 ) + . . . + μgeo (λ k ) = n.

(5) Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k ) = V.

Im Fall K = C ist ferner äquivalent:

(6) μgeo (λ j ) = μalg (λ j ) für alle j = 1, . . . , k.

Beweis. Die Äquivalenz „(1)⇔(2)⇔(3)“ ist die Aussage von Satz 6.52.
Die Äquivalenz „(4)⇔(5)“ folgt aus Lemma 6.70, denn dim(Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k )) =
dim(Eig(ϕ, λ1 )) + . . . + dim(Eig(ϕ, λ k )) = μgeo (λ1 ) + . . . + μgeo (λ k ). Der Untervektorraum
Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k ) ist gleich dem ganzen Vektorraum V genau dann, wenn seine
Dimension gleich der von V ist.
Die Äquivalenz „(1)⇔(4)“ findet sich in Satz 6.55.
Dass die Diagonalisierbarkeit im komplexen Fall zu (6) äquivalent ist, steht in Satz 6.64. 

6.4. Invariante Untervektorräume und Trigonalisierbarkeit


Diagonalmatrizen sind sicherlich die am einfachsten zu handhabenden Matrizen. Daher ist
es sehr angenehm, wenn ein Endomorphismus durch eine Diagonalmatrix dargestellt werden
kann. Nur ist das leider nicht immer möglich. Daher werden wir das Konzept der Diagona-
lisierbarkeit zu einem neuen, immer noch nützlichen abschwächen, das immer zum Einsatz
kommen kann, zumindest wenn wir mit komplexen Matrizen arbeiten.
Dazu führen wir zunächst folgendes Konzept ein:

Definition 6.72. Sei V ein K-Vektorraum und ϕ ∈ End(V ). Ein Untervektorraum W ⊂ V


mit ϕ(W) ⊂ W heißt invarianter Untervektorraum für ϕ.

Ist W ⊂ V ein invarianter Untervektorraum für ϕ, dann können wir ϕ zu einem Endomorphis-
mus auf W einschränken, ϕ|W ∈ End(W).
304 6. Eigenwertprobleme

Beispiel 6.73. Es gibt stets zwei nicht sonderlich interessante invariante Untervektorräume für
ϕ, nämlich W = {0} und W = V. Auch jeder Untervektorraum W eines Eigenraums Eig(ϕ, λ)
ist invariant, denn ϕ|W = λ · idW .

Lemma 6.74. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈ End(V). Ist ϕ


diagonalisierbar und ist W ⊂ V ein invarianter Untervektorraum für ϕ, dann ist auch
ϕ|W ∈ End(W) diagonalisierbar.

Beweis. a) Zur Vorbereitung zeigen wir zunächst mittels vollständiger Induktion nach k:
Behauptung: Ist w ∈ W und w = v1 + . . . + vk , wobei v1, . . ., vk ∈ V Eigenvektoren von ϕ zu
k paarweise verschiedenen Eigenwerten sind, dann sind alle v j ∈ W.
Beweis: Für k = 1 ist die Aussage trivial und damit ist der Induktionsanfang vollzogen.
Sei nun k ≥ 2. Da W invariant ist, ist auch ϕ(w) ∈ W. Wir berechnen

ϕ(w) = ϕ(v1 ) + . . . + ϕ(vk ) = λ1 v1 + . . . + λ k vk

und somit
W ! ϕ(w) − λ k · w = (λ1 − λ k )v1 + . . . + (λ k−1 − λ k )vk−1 .
Nach Induktionsannahme sind alle Summanden (λ j −λ k )v j aus W. Da die Eigenwerte paarweise
verschieden sind, ist der Koeffizient λ j − λ k  0 für j = 1, . . . , k − 1. Also können wir durch
die Koeffizienten dividieren und sehen, dass auch v1, . . ., vk−1 ∈ W. Damit ist dann auch
vk = w − (v1 + . . . + vk−1 ) ∈ W. 
b) Um die Diagonalisierbarkeit von ϕ|W zu zeigen, überprüfen wir Kriterium (5) aus Satz 6.71.
Es besagt, dass sich jedes Element von W als Summe von Eigenvektoren schreiben lässt.
Sei also w ∈ W. Da ϕ auf V diagonalisierbar ist, können wir w = v1 + . . . + vk schreiben,
wobei v1, . . ., vk ∈ V Eigenvektoren von ϕ zu k paarweise verschiedenen Eigenwerten sind.
Nach Beweisteil a) sind die v j ∈ W. Damit haben wir w als Summe von Eigenvektoren von
ϕ|W geschrieben und das Kriterium überprüft. 

Haben wir zwei Endomorphismen eines Vektorraums, die beide diagonalisierbar sind, dann
können wir zwar Basen finden, bzgl. derer jeweils einer der beiden Endomorphismen durch
eine Diagonalmatrix dargestellt wird, aber die Matrixdarstellung des jeweils anderen Endo-
morphismus kann beliebig kompliziert sein. Wünschenswert wäre also eine Basis, bzgl. derer
beide Endomorphismen gleichzeitig durch eine Diagonalmatrix dargestellt werden. Falls es ei-
ne solche Basis gibt, dann nennt man die beiden Endomorphismen simultan diagonalisierbar.
Die Frage ist nun, wann das der Fall ist.
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 305

Satz 6.75. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ, ψ ∈ End(V) diagonali-


sierbare Endomorphismen. Dann sind äquivalent:

(1) ϕ und ψ sind simultan diagonalisierbar.

(2) ϕ und ψ kommutieren, d.h. ϕ ◦ ψ = ψ ◦ ϕ.

Bevor wir den Satz beweisen, zeigen wir, dass die Eigenräume von ϕ nicht nur für ϕ invariante
Untervektorräume sind, sondern auch für ψ, vorausgesetzt, dass ϕ und ψ kommutieren. Wir
beachten, dass im folgenden Lemma nicht vorausgesetzt wird, dass ϕ und ψ diagonalisierbar
sind.

Lemma 6.76. Sei V ein K-Vektorraum und ϕ, ψ ∈ End(V) mit ϕ ◦ ψ = ψ ◦ ϕ.


Dann sind die Eigenräume von ϕ auch invariante Untervektorräume für ψ.

Beweis des Lemmas. Sei W = Eig(ϕ, λ) für einen Eigenwert λ von ϕ. Sei w ∈ W. Wir müssen
zeigen, dass dann auch ψ(w) ∈ W ist. Es gilt:

ϕ(ψ(w)) = ψ(ϕ(w)) = ψ(λw) = λψ(w).

Also ist ψ(w) ∈ Eig(ϕ, λ) = W. 

Beweis von Satz 6.75. Zu „(1)⇒(2)“:


Seien ϕ und ψ simultan diagonalisierbar. Dann gibt es eine Basis B von V, so dass MB (ϕ) und
MB (ψ) Diagonalmatrizen sind. Da Diagonalmatrizen stets kommutieren, gilt MB (ϕ) · MB (ψ) =
MB (ψ) · MB (ϕ) und damit ϕ ◦ ψ = ψ ◦ ϕ.
Zu „(2)⇒(1)“:
Es gelte ϕ ◦ ψ = ψ ◦ ϕ. Da ϕ diagonalisierbar ist, gilt nach Satz 6.71 (5)

V = Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k ). (6.14)

Zur Abkürzung setzen wir W j := Eig(ϕ, λ j ), j = 1, . . . , k. Nach Lemma 6.76 ist jedes W j
ein invarianter Untervektorraum für ψ. Wegen Lemma 6.74 ist ψ|W j diagonalisierbar. Wir
können somit eine Basis von W j aus Eigenvektoren von ψ finden. Natürlich sind diese auch
Eigenvektoren von ϕ. Wegen (6.14) setzen sich die Basen gemäß Lemma 6.70 zu einer Basis
von V zusammen. Damit haben wir eine Basis von V gefunden, die zugleich aus Eigenvektoren
von ϕ und ψ besteht. 
306 6. Eigenwertprobleme

Beispiel 6.77. Sei A ∈ Mat(n, R) die Matrix


1 0
.. 
A= . .

0 n 

Welche Matrizen kommutieren mit A?


Da Diagonalmatrizen stets miteinander kommutieren, kommutieren diese sicherlich mit A.
Gibt es weitere Matrizen, die mit A kommutieren, aber selbst nicht Diagonalmatrizen sind?
Wir überlegen uns jetzt, dass das nicht der Fall ist.
Es gelte A · B = B · A. Da B mit A kommutiert, ist jeder Eigenraum von A ein invarianter
Untervektorraum von B. Die Standardbasis {e1, . . ., en } ist Basis aus Eigenvektoren von A. Die
Eigenräume von A sind von der Form R·ei und somit eindimensional. Da diese Eigenräume nach
Lemma 6.76 auch invariante Untervektorräume von B sind, muss B jeden Standardbasisvektor
auf ein Vielfaches von sich abbilden. Also sind die Standardbasisvektoren auch Eigenvektoren
für B, d.h. B ist eine Diagonalmatrix.

Die Argumentation in diesem Beispiel funktioniert für jede Diagonalmatrix A, deren Eigen-
werte alle paarweise verschieden sind, so dass die Eigenräume eindimensional sind. Das andere
Extrem wäre, dass alle Eigenwerte gleich sind, wie im folgenden Beispiel:

Beispiel 6.78. Sei A = 1n ∈ Mat(n, R). Dann kommutiert jede Matrix B ∈ Mat(n, R) mit A,
denn B · 1n = B = 1n · B.
Ist B diagonalisierbar, dann ist jede Basis aus Eigenvektoren von B auch eine Basis aus
Eigenvektoren von A, da jeder Vektor in Rn \ {0} Eigenvektor von A = 1n ist.

Definition 6.79. Sei V ein n-dimensionaler K-Vektorraum. Eine Fahne in V ist eine Kette
von Untervektorräumen
{0} = V0 ⊂ V1 ⊂ . . . ⊂ Vn = V
mit dim(Vj ) = j für alle j = 0, . . ., n.
Sei ϕ ∈ End(V). Eine Fahne von V heißt ϕ-invariant, wenn jeder Untervektorraum Vj der
Fahne invariant für ϕ ist, d.h. ϕ(Vj ) ⊂ Vj .

Bemerkung 6.80. Jede geordnete Basis von V liefert eine Fahne von V. Ist nämlich (b1, . . ., bn )
eine geordnete Basis von V, so setzen wir Vj := L(b1, . . ., b j ). Es gilt dim(Vj ) = j und Vj ⊂ Vj+1
für alle j. Also haben wir eine Fahne in V gefunden.
Besteht die Basis aus Eigenvektoren eines Endomorphismus ϕ, dann ist die so konstruierte
Fahne ϕ-invariant, denn jede Linearkombination der ersten j-Eigenvektoren wird von ϕ wieder
auf eine Linearkombination dieser ersten j-Eigenvektoren abgebildet.
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 307

Definition 6.81. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V ein Endo-


morphismus. Dann heißt ϕ trigonalisierbar, falls es eine geordnete Basis B von V gibt, so
dass MB (ϕ) eine obere Dreiecksmatrix ist. Entsprechend heißt eine Matrix A ∈ Mat(n, K)
trigonalisierbar, falls sie zu einer oberen Dreiecksmatrix ähnlich ist.

Satz 6.82. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈ End(V). Dann sind
äquivalent:

(1) Der Endomorphismus ϕ ist trigonalisierbar.

(2) Es existiert eine ϕ-invariante Fahne in V.

(3) Das charakteristische Polynom χϕ zerfällt in Linearfaktoren.

Beweis. Zu „(2)⇒(1)“:
Sei V0 = {0} ⊂ V1 ⊂ · · · ⊂ Vn = V eine ϕ-invariante Fahne in V . Wir wählen einen
Basisvektor b1 von V1 , ergänzen zu einer geordneten Basis (b1, b2 ) von V2 , ergänzen wiederum
zu einer geordneten Basis (b1, b2, b3 ) von V3 , usw. bis wir schließlich eine geordnete Basis
B := (b1, . . ., bn ) von Vn = V erhalten haben. Jeder Untervektorraum Vj hat dann die ersten j
Basisvektoren b1, . . ., b j als Basis.
Da V1 ϕ-invariant ist, gilt ϕ(b1 ) ∈ V1 , also ϕ(b1 ) = α11 · b1 für eine Konstante α11 ∈ K. Somit
ist die erste Spalte der darstellenden Matrix MB (ϕ) gegeben durch


α11
0 

. .
.. 

0 
Da V2 ϕ-invariant ist, ist ϕ(b2 ) ∈ V2 und somit eine Linearkombination von b1 und b2 , d.h.
ϕ(b2 ) = α12 · b1 + α22 · b2 . Also ist die zweite Spalte der darstellenden Matrix MB (ϕ) gegeben
durch
α

12 
α22 

0 
.
. 
.. 

0 
Allgemein ist Vj ϕ-invariant und daher ϕ(b j ) eine Linearkombination der ersten j Basisvekto-
ren. Daher steht in der j-ten Spalte unterhalb des j-ten Eintrags nur Nullen. Insgesamt zeigt
dies, dass die darstellende Matrix eine obere Dreiecksmatrix ist.
308 6. Eigenwertprobleme

Zu „(1)⇒(3)“:
Sei ϕ trigonalisierbar. Dann wird ϕ durch eine obere Dreiecksmatrix A dargestellt. Das cha-
rakteristische Polynom der oberen Dreiecksmatrix A zerfällt in Linearfaktoren, denn A − λ · 1n
ist ebenfalls eine obere Dreiecksmatrix, so dass ihre Determinante durch das Produkt der
Diagonaleinträge A j j − λ gegeben ist,
χϕ (λ) = χA (λ) = det(A − λ · 1n ) = (A11 − λ) · · · (Ann − λ).
Zu „(3)⇒(2)“:
Wir zeigen diese Implikation durch vollständige Induktion nach der Dimension n = dim(V ).
Induktionsanfang: Für n = 1 ist {0} ⊂ V eine ϕ-invariante Fahne.
Induktionsschritt: Sei nun n ≥ 2. Das charakteristische Polynom von ϕ zerfalle in Linear-
faktoren,
χϕ (λ) = (λ1 − λ) · · · (λn − λ). (6.15)
Wir wählen einen Eigenvektor b1 zum Eigenwert λ1 von ϕ. Wir ergänzen zu einer geordneten
Basis B = (b1, b2, . . . , bn ) von V und setzen W := L(b2, . . ., bn ). Dann gilt V = K · b1 ⊕ W.
Sei w ∈ W. Dann lässt sich ϕ(w), wie jedes Element von V, auf eindeutige Weise als Summe
eines Vielfachen von b1 und einem Element aus W schreiben,
ϕ(w) = α(w)b1 + ψ(w).
Aus der Linearität von ϕ folgt, dass auch α : W → K und ψ : W → W linear sind. Sei
A ∈ Mat(n − 1, K) die darstellende Matrix von ψ bzgl. der Basis (b2, . . ., bn ). Dann gilt
 
λ1 α(b2 ) · · · α(bn )
MB (ϕ) = .
0 A
Entwicklung nach der ersten Spalte liefert
 
λ1 − λ α(b2 ) · · · α(bn )
χϕ (λ) = det
0 A − λ · 1n−1
= (λ1 − λ) · det(A − λ · 1n−1 )
= (λ1 − λ) · χA(λ)
= (λ1 − λ) · χψ (λ). (6.16)
Vergleichen wir (6.16) mit (6.15), so sehen wir
χψ (λ) = (λ2 − λ) · · · (λn − λ),
d.h. das charakteristische Polynom von ψ zerfällt ebenfalls in Linearfaktoren. Nach Indukti-
onsannahme gibt es eine ψ-invariante Fahne in W,
{0} = W0 ⊂ W1 ⊂ · · · ⊂ Wn−1 = W .
Wir setzen Vj := K · b1 ⊕ W j−1 und erhalten eine ϕ-invariante Fahne in V. 
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 309

Korollar 6.83. Jede Matrix A ∈ Mat(n, C) ist trigonalisierbar.

Beweis. Nach dem Fundamentalsatz der Algebra zerfällt das charakteristische Polynom von A
in Linearfaktoren. Daher ist A nach Satz 6.82 trigonalisierbar. 

Wie führen wir die Trigonalisierung nun konkret durch?

Rechenverfahren zur Trigonalisierung gegebener Matrizen. Sei A ∈ Mat(n, K) eine Ma-


trix mit charakteristischem Polynom, das in Linearfaktoren zerfällt,

χA(λ) = (λ1 − λ) · · · (λn − λ).


v11
. 
1. Schritt: Berechne einen Eigenvektor v1 := ..  ∈ K n von A zum Eigenwert λ1 . Wähle

v1n 
ein i mit v1i  0. Wir betrachten die Matrix (v1, e1, . . ., êi, . . ., en ), wobei der Hut ˆ bedeutet,
dass diese Spalte wegzulassen ist. Die Matrix hat die Determinante det(v1, e1, . . ., êi, . . ., en ) =
± det(e1, . . . , v1, . . ., en ) = ±v1i  0 und ist daher invertierbar. Berechne

S1 := (v1, e1, . . ., êi, . . ., en )−1 ∈ GL(n, K).

Dann gilt
S1 AS1−1 e1 = S1 Av1 = S1 λ1 v1 = λ1 S1 v1 = λ1 e1
und somit
λ1 ∗ . . . ∗



0 
S1 AS1−1 = .. .
. A2 

0 


v22
. 
2. Schritt: Berechne einen Eigenvektor ṽ2 = ..  ∈ K n−1 von A2 zum Eigenwert λ2 . Setze

v2n 

0
v22 

v2 := .  ∈ K n . Wähle ein j mit v2 j  0 und berechne
.. 

v2n 

S2 := (e1, v2, e2, . . . , ê j , . . . , en )−1 ∈ GL(n, K).


310 6. Eigenwertprobleme

Dann gilt

S2 S1 AS1−1 S2−1 e1 = S2 S1 AS1−1 e1 = S2 λ1 e1 = λ1 S2 e1 = λ1 e1,





  λ2 
∗ 

S2 S1 AS1−1 S2−1 e2 = S2 S1 AS1−1 v2 = S2 = 0 
λ2 ṽ2 .
.. 

0

und somit

λ1 ∗ ∗ . . . ∗

0 λ2 ∗ . . . ∗ 

S2 S1 AS1−1 S2−1 = 0 0 .

.. .. 
. . A 
3 
0 0

So fahren wir fort. Insgesamt (n − 1) Schritte liefern S1, . . . , Sn−1 ∈ GL(n, K), so dass für
S := Sn−1 · . . . · S2 · S1 ∈ GL(n, K) die Matrix S AS −1 eine obere Dreiecksmatrix ist.

Beispiel 6.84. Sei K = Q, n = 3 und A ∈ Mat(3, Q) gegeben durch

3 4 3


A = −1 0 −1 .

1 2 3

Das charakteristische Polynom lautet

3−λ 4 3


χA (λ) = det −1 −λ −1 
1 2 3 − λ
= (3 − λ)2 (−λ) − 4 − 6 + 3λ + 2(3 − λ) + 4(3 − λ)
= (2 − λ)3 .

1. Schritt: Berechnung eines Eigenvektors v1 von A zum Eigenwert 2. Durch elementare


Zeilenumformungen bringen wir das homogene Gleichungssystem in Zeilenstufenform. Dabei
können wir die dritte Zeile weglassen, da sie das negative der zweiten ist.

0 1 4 3 v



11
0 = −1 −2 −1 · v12 
  
0
 1 2 1  v13 
6.4. Invariante Untervektorräume und Trigonalisierbarkeit 311

    v
0 1 4 3
11
⇔ =
· v12 
0 −1 −2 −1
v13 
    v11
0 1 4 3

⇔ = · v12
0 0 2 2 
v13 
Wir wählen nun v13 = 1 und lösen das Gleichungssystem von unten nach oben und erhalten
als Lösung
1



v1 = −1 .
1
Da v11  0 ist, können wir S1 durch
−1
1 0 0 1 0 0



S1 = −1 1 0 = 1 1 0
1 0 1 −1 0 1
wählen. Nun rechnen wir schnell nach, dass
2 4 3



= 0 4 2 .
S1 AS1−1
0 −2 0
 
4 2
2. Schritt: Berechnung eines Eigenvektors ṽ2 von zum Eigenwert 2:
−2 0
    
0 2 2 v22
= ⇔ v22 = −v23 .
0 −2 −2 v23
  0
1

Somit ist ṽ2 = ein Eigenvektor. Wir setzen daher v2 := 1 . Da v22  0 ist, können wir
−1
−1
−1
1 0 0 1 0 0




S2 := 0 1 0 = 0 1 0

0 −1 1 0 1 1
wählen. Die Transformationsmatrix ist gegeben durch
1 0 0 1 0 0 1 0 0




S = S2 · S1 = 0 1 0 1 1 0 = 1 1 0
0 1 1 −1 0 1 0 1 1
312 6. Eigenwertprobleme

und ihr Inverses durch

1 0 0 1 0 0 1 0 0




S −1 = S1−1 · S2−1 = −1 1 0 0 1 0 = −1 1 0 .
1 0 1 0 −1 1 1 −1 1
Die auf Dreiecksgestalt transformierte Matrix sieht also so aus:

1 0 0 3 4 3 1 0 0 1 0 0 2 1 3 2 1 3







S AS −1 = 1 1 0 −1 0 −1 −1 1 0 = 1 1 0 −2 1 −1 = 0 2 2 .
0 1 1 1 2 3  1 −1 1 0 1 1 2 −1 3  0 0 2

In Anhang A.5 wird erläutert, wie die Trigonalisierung komplexer Matrizen dabei hilft, so
genannte Differentialgleichungssysteme aus der Analysis zu lösen.

6.5. Algebren und das Minimalpolynom


Sei K ein Körper. Wir haben gesehen, dass sowohl die Menge der formalen Potenzreihen als
auch die Teilmenge der Polynome gleichzeitig K-Vektorräume als auch Ringe sind. Dies führt
auf folgende allgemeine Definition.

Definition 6.85. Sei K Körper und A eine Menge. Seien

+ : A × A → A,
• : A × A → A,
· : K × A → A,

Abbildungen. Das Quadrupel (A, +, •, ·) heißt K-Algebra oder Algebra über K, falls gilt:

(A1) (A, +, ·) ist ein K-Vektorraum.

(A2) (A, +, •) ist ein Ring.

(A3) Für alle x, y ∈ A und alle α, β ∈ K ist

(α · x) • (β · y) = (αβ) · (x • y).

Die dritte Bedingung drückt die Verträglichkeit der Multiplikation • zweier Elemente aus A
mit der Multiplikation · eines Elements aus K und eines aus A aus. Man überprüft leicht,
dass (A3) für A = K[x] und A = Kx erfüllt ist. Die Menge der Polynome bzw. formalen
Potenzreihen bilden also Algebren.
6.5. Algebren und das Minimalpolynom 313

Definition 6.86. Sei (A, +, •, ·) eine K-Algebra. Hat der Ring (A, +, •) eine Eins, so nennen
wir (A, +, •, ·) eine Algebra mit Einselement. Ist der Ring (A, +, •) kommutativ, so nennen
wir (A, +, •, ·) eine kommutative Algebra.

Bemerkung 6.87. Da (A, +, •) ein Ring ist, ist die Multiplikation • assoziativ. Darauf wird
manchmal verzichtet; unsere Definition ist die einer „assoziativen K-Algebra“.

Ähnlich wie bei Ringen, Körpern und Vektorräumen spricht man oft auch etwas ungenau von
der Algebra A statt (A, +, •, ·).

Beispiele 6.88. 1. Sei K ein Körper und A = K. Sowohl • als auch · seien die Multiplikation
in K. Dann ist (K, +, •, ·) eine kommutative K-Algebra mit Einselement 1.

2. Sei K ein Körper und x ein formales Symbol. Die Algebren A = K[x] und A = Kx
der Polynome bzw. formalen Potenzreihen sind kommutativ. Sie haben als Einselement das
Polynom 1.

3. Sei K ein Körper und n ∈ N. Sei A = Mat(n, K), sei + die komponentenweise Addition, •
die Matrixmultiplikation und · die komponentenweise Multiplikation mit Elementen aus K.
Dann ist (Mat(n, K), +, •, ·) eine K-Algebra mit Einselement 1n . Sie ist nicht kommutativ,
falls n ≥ 2.

4. Sei V ein (möglicherweise ∞-dimensionaler) K-Vektorraum und A = End(V). Die Addition


zweier Endomorphismen ϕ, ψ ∈ End(V) ist definiert durch (ϕ + ψ)(v) := ϕ(v) + ψ(v) für
alle v ∈ V. Für α ∈ K ist α · ϕ definiert durch (α · ϕ)(v) := α · ϕ(v). Die Multiplikation •
schließlich ist die Verkettung, • = ◦.
Dann ist (End(V ), +, ◦, ·) eine K-Algebra mit Einselement idV . Sie ist nicht kommutativ,
wenn dim(V) ≥ 2.

5. Sei X eine Menge und (A0, +, •, ·) eine K-Algebra. Dann wird A = Abb(X, A0 ) ebenfalls
zu einer K-Algebra, wenn wir die Rechenoperationen +, • und · punktweise definieren.

Da aus dem Kontext im Einzelfall meist klar ist, welche der beiden Multiplikation gemeint ist,
unterscheidet man sie in der Notation in der Regel nicht und schreibt statt • auch wieder ·.

Definition 6.89. Sei A eine K-Algebra. Ein Untervektorraum B ⊂ A, der gleichzeitig ein
Unterring ist, heißt Unteralgebra von A.

Wir können es auch so ausdrücken: Eine Teilmenge B ⊂ A ist genau dann eine Unteralgebra,
wenn für alle x, y ∈ A und alle α ∈ K gilt:
314 6. Eigenwertprobleme

1. 0 ∈ B;

2. Sind x, y, ∈ B, so ist auch x + y ∈ B;

3. Sind x, y, ∈ B, so ist auch x • y ∈ B;

4. Ist x ∈ B und α ∈ K, so ist auch α · x ∈ B.

Beispiele 6.90. Die Polynomalgebra K[x] ist eine Unteralgebra der Algebra Kx der formalen
Potenzreihen.
Die Menge der Polynome vom Grad ≤ 3, V = { f ∈ K[x] | deg( f ) ≤ 3}, ist ein Untervektor-
raum von K[x], aber kein Unterring, also auch keine Unteralgebra.

Definition 6.91. Seien A und B zwei K-Algebren. Ein K-Vektorraumhomomorphismus


ϕ : A → B, der zugleich ein Ringhomomorphismus ist, heißt K-Algebrenhomorphismus.
Haben A und B beide eine Eins und gilt ϕ(1A ) = 1B , dann nennt man ϕ einserhaltend oder
unitär.

Ein weiterer Grund für die penible Unterscheidung zwischen Polynomen und Polynomfunk-
tionen besteht darin, dass man in ein Polynom f = an x n + . . . + a1 x + a0 ∈ K[x] nicht nur
Zahlen aus K einsetzen kann, sondern auch Elemente A aus einer beliebigen K-Algebra A mit
Eins. Der Ausdruck
f˜(A) := an · An + . . . + a1 · A + a0 · 1 ∈ A
ergibt Sinn. Hierbei steht An für das n-fache Produkt von A mit sich selbst in der Algebra A.

Bemerkung 6.92. Sei A eine K-Algebra mit Eins, A ∈ A und x ein abstraktes Symbol. Dann
kann man leicht überprüfen, dass die Abbildung

K[x] → A, f → f˜(A),

ein einserhaltender Algebrenhomomorphismus ist, vergleiche Aufgabe 6.3.

Definition 6.93. Sei K ein Körper und A eine K-Algebra mit Einselement. Sei A ∈ A.
Dann heißt
Ann(A) := { f ∈ K[x] | f˜(A) = 0}
der Annihilator von A.

Beispiele 6.94. Sei A = Mat(n, K) und f = am x m + . . . + a1 x + a0 ∈ K[x].

1. Ist A = 0n die Nullmatrix, dann ist

f˜(A) = am · 0n · . . . · 0n + . . . + a1 · 0n + a0 · 1n = a0 · 1n .
6.5. Algebren und das Minimalpolynom 315

Also ist f ∈ Ann(0n ) genau dann, wenn a0 = 0. Anders ausgedrückt, das Polynom f lässt
sich ohne Rest durch das Monom x teilen,

Ann(0n ) = { f ∈ K[x] | ∃g ∈ K[x] mit f = g · x}.

2. Sei nun A = 1n . Dann ist

f˜(A) = am · 1n · . . . · 1n + . . . + a1 1n + a0 · 1n
= (am + . . . + a1 + a0 ) · 1n .

Also gilt
" 
m #
Ann(1n ) = f = am x m + . . . + a0 ∈ K[x] | aj = 0 .
j=0
 
0 1
3. Sei n = 2 und A = . Dann gilt A2 = A · A = 02 und damit Am = 02 für alle m ≥ 2.
0 0
Also ist
 
a 0 a 1
f˜(A) = am A + . . . + a2 A + a1 A + a0 12 = a1 A + a0 1n =
m 2
.
0 a0

Somit ist f˜(A) = 0 genau dann, wenn a0 = a1 = 0. Es folgt

Ann(A) = { f ∈ K[x] | ∃g ∈ K[x] mit f = g · x 2 }.

In den drei Beispielen sind die Annihilatoren gegeben als eine Menge von Polynomen, die
durch ein bestimmtes Polynom ohne Rest teilbar sind. Im Fall A = 0n war dies das Polynom
x, im Fall A = 1n das Polynom x − 1 und im dritten Beispiel das Polynom x 2 . Tatsächlich ist
dies ein allgemeiner Sachverhalt.

Definition 6.95. Ein Polynom f ∈ K[x] heißt normiert, falls der führende Koeffizient = 1
ist, d.h. falls f von der Form f = x n + an−1 x n−1 + . . . + a1 x + a0 ist.

Proposition 6.96. Sei A eine K-Algebra mit Eins und A ∈ A ein Element. Dann ist entweder
Ann(A) = {0} oder es gibt genau ein normiertes Polynom h ∈ K[x], so dass

Ann(A) = { f ∈ K[x] | ∃g ∈ K[x] mit f = g · h}.

Beweis. a) Eindeutigkeit: Seien h1 und h2 zwei solche Polynome. Dann gibt es insbesondere
ein g ∈ K[x] mit
h1 = g · h 2
316 6. Eigenwertprobleme

und somit deg(h1 ) ≥ deg(h2 ). Analog sieht man deg(h2 ) ≥ deg(h1 ) und somit deg(h1 ) =
deg(h2 ). Daraus folgt deg(g) = 0, d.h. g ist eine Konstante. Da h1 und h2 normiert sind, muss
diese Konstante = 1 sein. Also ist h1 = h2 .
b) Existenz: Wir können annehmen, dass Ann(A)  {0}. Sei h ein Polynom minimalen Grades
in Ann(A) \ {0}. Mit h ist auch jedes Vielfache von h in Ann(A). Also können wir o.B.d.A.
annehmen, dass h normiert ist. Bleibt zu zeigen:

Ann(A) = {g · h | g ∈ K[x]}.

Die Inklusion „⊃“ ist einfach: Für jedes Polynom der Form f = g · h gilt

f˜(A) = g̃(A) · h̃(A) = g̃(A) · 0 = 0

und somit g · h ∈ Ann(A).


Zu „⊂“ haben wir zu zeigen, dass h jedes Polynom in Ann(A) ohne Rest teilt. Sei f ∈ Ann(A),
f  0. Wegen deg( f ) ≥ deg(h) können wir Polynomdivision von f durch h vornehmen und
erhalten g, r ∈ K[x], so dass deg(r) < deg(h) und

f = g · h + r.

Wir setzen A ein und erhalten

0 = f˜(A) = g̃(A) · h̃(A) + r̃(A) = g̃(A) · 0 + r̃(A) = r̃(A).

Also ist r ∈ Ann(A). Da r kleineren Grad als h hat und h minimalen Grad in Ann(A) \ {0} hat,
muss r = 0 sein. Also ist f = g · h wie gewünscht. 

Lemma 6.97. Ist A eine endlich-dimensionale K-Algebra und A ∈ A, dann ist


Ann(A)  {0}.

Beweis. Der Annihilator Ann(A) ist der Kern des Homomorphismus K[x] → A, f → f˜(A).
Da dim(K[x]) = ∞ und dim(A) < ∞, kann kein Homomorphismus K[x] → A injektiv sein.
Also ist Ann(A)  {0}. 

Ein Beispiel mit Ann(A) = {0} findet sich in Aufgabe 6.6.

Definition 6.98. Sei A eine endlich-dimensionale K-Algebra mit Eins und A ∈ A. Dann
heißt das eindeutige normierte Polynom h ∈ K[x] mit Ann(A) = h · K[x] wie in Propositi-
on 6.96 das Minimalpolynom von A.
Wir schreiben dann statt h für das Minimalpolynom M A ∈ K[x].
6.5. Algebren und das Minimalpolynom 317

Beispiel 6.99. Aus Beispiel 6.94 und Aufgabe 6.5 wissen wir, dass für A = Mat(n, K) gilt:

M0n = x,
M1n = x − 1,
M = x2 .

0 1 



0 0

Vergleichen wir die Minimalpolynome dieser Matrizen mit ihren charakteristischen Polynomen

χ0n = (−x)n,
χ1n = (1 − x)n,
χ = x 2,

0 1 



0 0

so stellen wir fest, dass das Minimalpolynom in allen Fällen das charakteristische Polynom
teilt. In anderen Worten, in diesen Fällen ist χA ∈ Ann(A). Tatsächlich gilt das für alle
(quadratischen) Matrizen, wie der folgende Satz uns sagt.

Satz 6.100 (Cayley-Hamilton). Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈


End(V ). Dann ist χ̃ϕ (ϕ) = 0, in anderen Worten χϕ ∈ Ann(ϕ) und Mϕ teilt χϕ ohne Rest.

Bemerkung 6.101. Machen wir uns zunächst an einem


 Beispiel
 klar, was der Satz von Cayley-
1 5
Hamilton besagt. Betrachten wir die Matrix A = ∈ Mat(2, Q). Das charakteristische
0 1
Polynom ergibt sich zu
 
1−λ 5
χA(λ) = det = (1 − λ)2 = λ2 − 2λ + 1.
0 1−λ

Nun überprüfen wir den Satz von Cayley-Hamilton:

χ̃A(A) = A2 − 2A + 12
       
1 5 1 5 1 5 1 0
= · −2· +
0 1 0 1 0 1 0 1
     
1 10 2 10 1 0
= − +
0 1 0 2 0 1
 
0 0
= .
0 0
318 6. Eigenwertprobleme

Bemerkung 6.102. Für Diagonalmatrizen kann man den Satz von Cayley-Hamilton sehr leicht

λ1 0
.. 
einsehen. Sei nämlich A = .  eine Diagonalmatrix. Für beliebige Polynome f ∈

0 λ n 
K[x] gilt

f (λ1 )
˜ 0
. .. 
f˜(A) = .

0 f˜(λn )
Das liegt daran, dass man Matrixpotenzen von Diagonalmatrizen dadurch bekommt, dass man
die Diagonaleinträge potenziert. Insbesondere für f = χA gilt nun


χ̃A(λ1 ) 0
.. 
χ̃A(A) = .  = 0n .

0 χ̃A(λn )

Auch für Matrizen, die zwar nicht Diagonalmatrizen, wohl aber diagonalisierbar sind, lässt
sich der Satz von Cayley-Hamilton leicht beweisen, vergleiche Aufgabe 6.24.

Nun zum allgemeinen Fall:


Beweis von Satz 6.100. a) Wir müssen zeigen, dass für beliebiges v ∈ V gilt χ̃ϕ (ϕ)(v) = 0. Sei
also v ∈ V . Ohne Einschränkung sei v  0. Wir setzen
v1 := v, v2 := ϕ(v), ... , vi+1 := ϕ(vi ) = ϕ ◦ . . . ◦ ϕ(v).
()*+
i

Sei m der größte Index, für den v1, . . . , vm noch linear unabhängig sind, d.h. v1, . . ., vm+1 sind
linear abhängig. Dann ist 1 ≤ m ≤ dim(V). Wir können dann vm+1 als Linearkombination der
vorhergehenden vi schreiben,
vm+1 = α1 v1 + . . . + αm vm, αi ∈ K.
Sei W ⊂ V der Untervektorraum, der von v1, . . ., vm aufgespannt wird. Dann ist B :=
(v1, . . . , vm ) eine geordnete Basis von W.
b) Behauptung: W ist ein ϕ-invarianter Untervektorraum und ϕ|W hat in der Basis B die
darstellende Matrix
0 α1


. .. 
1 .. 0 . 
.. .. .. 
. . . 

.. .. .. .
. . . 

.. . 

0 . 0 .. 

1 αm 
6.5. Algebren und das Minimalpolynom 319

Beweis der Behauptung: Da die Basisvektoren v1, . . ., vm von ϕ wieder auf Linearkombina-
tionen dieser Vektoren abgebildet werden, ist W ein ϕ-invarianter Untervektorraum. Wegen
ϕ(v1 ) = v2 muss die erste Spalte der darstellenden Matrix der Vektor e2 sein. Analog gilt
ϕ(vi ) = vi+1 für i ≤ m − 1 und damit ist die i-te Spalte der (i + 1)-te Standardvektor ei+1 . Die
letzte Spalte hat die angegebene Form, da

ϕ(vm ) = vm+1 = α1 v1 + . . . + αm vm . 

c) Behauptung: χϕ|W (x) = (−1)m+1 · (−x m + αm x m−1 + αm−1 x m−2 + . . . + α1 ).


Beweis der Behauptung: Wir führen eine vollständige Induktion nach m durch.
Für m = 1 ist die darstellende Matrix (α1 ) und daher das charakteristische Polynom χϕ|W (x) =
α1 − x wie behauptet.
Für den Induktionsschritt nehmen wir an, dass die Behauptung für m − 1 bewiesen sei. Zur
Berechnung von


−x α1
1 −x α2 
0 
. . .. 
.. .. . 

χϕ|W (x) = det .. .. .. 
. . . 

. . . −x αm−1 
0 

1 αm − x 
entwickeln wir nach der ersten Zeile. Dabei treten nur zwei nichttriviale Terme auf. Der erste
ist nach Induktionsannahme

−x α2

..
.. 
1 . 0 . 
. . .. 
(−x) · det .. .. .  = (−x) · (−1)m · (−x m−1 + αm x m−2 + . . . + α2 )

.. 
0 . −x αm−1 

1 αm − x 
= (−1)m+1 · (−x m + αm x m−1 + . . . + α2 x). (6.17)

Der andere nichttriviale Term in der Zeilenentwicklung ist

1 −x


.. .. 
. . 0 
.. .. 
(−1) m+1
· α1 · det . .  = (−1)m+1 · α1 .
 (6.18)
.. 
0 . −x 

1 
320 6. Eigenwertprobleme

Addition von (6.17) und (6.18) liefert

χϕ|W (x) = (−1)m+1 · (−x m + αm x m−1 + . . . + α2 x) + (−1)m+1 · α1


= (−1)m+1 · (−x m + αm x m−1 + . . . + α2 x + α1 )

wie behauptet. 
d) Nach Lemma 6.103 unten existiert ein g ∈ K[x] mit

χϕ (x) = g(x) · χϕ| W (x).

Daher ist
χ̃ϕ (ϕ) = g̃(ϕ) · χ̃ϕ| W (ϕ)
und somit

χ̃ϕ (ϕ)(v) = g̃(ϕ) ◦ χ̃ϕ| W (ϕ)(v)


= (−1)m+1 g̃(ϕ)(−ϕm + αm ϕm−1 + . . . + α2 ϕ + α1 id)(v)
= (−1)m+1 g̃(ϕ)(−vm+1 + αm vm + . . . + α1 v1 )
= (−1)m+1 g̃(ϕ)(0)
= 0. 

Lemma 6.103. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈ End(V). Ist W ein
ϕ-invarianter Untervektorraum von V, dann wird χϕ ∈ K[x] von χϕ|W ohne Rest geteilt.

Beweis. Sei (v1, . . ., vm ) eine geordnete Basis von W. Sei C die darstellende Matrix von ϕ|W
bzgl. dieser Basis. Wir ergänzen zu einer geordneten Basis B = (v1, . . ., vm, . . ., vn ) von V,
wobei n = dim(V). In dieser Basis hat ϕ die darstellende Matrix
 
C D
A= .
0 E

Dann ist
 
C − x1m D
χϕ (x) = det
0 E − x1n−m
= det(C − x1m ) · det(E − x1n−m )
= χϕ|W (x) · χE (x). 
6.5. Algebren und das Minimalpolynom 321

Satz 6.104. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈ End(V ). Dann haben
χϕ und Mϕ dieselben Nullstellen.

Die Vielfachheiten der Nullstellen können beim Minimalpolynom kleiner sein, wie wir in
Beispiel 6.99 gesehen haben.

Beweis. a) Der Satz von Cayley-Hamilton liefert χϕ = g · Mϕ für ein Polynom g ∈ K[x]. Also
ist jede Nullstelle von Mϕ auch eine Nullstelle von χϕ .
b) Sei umgekehrt λ eine Nullstelle von χϕ . Wir haben M̃ϕ (λ) = 0 zu zeigen. Wir schreiben

Mϕ (x) = x m + αm−1 · x m−1 + . . . + α0 .

Wir wählen einen Eigenvektor v  0 von ϕ zum Eigenwert λ. Nun gilt

M̃ϕ (λ) · v = λ m · v + αm−1 · λ m−1 · v + . . . + α0 · v


= (ϕm + αm−1 · ϕm−1 + . . . + α0 · id)(v)
= M̃ϕ (ϕ)(v)
= 0.

Also ist M̃ϕ (λ) = 0, d.h. λ ist eine Nullstelle von Mϕ . 

Satz 6.105. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ ∈ End(V ). Dann sind
äquivalent:

(1) ϕ ist diagonalisierbar.

(2) Mϕ zerfällt in paarweise verschiedene Linearfaktoren.

Beweis. Zu „(1)⇒(2)“:
Sei ϕ diagonalisierbar und seien λ1, . . ., λ k die paarweise verschiedenen Eigenwerte von ϕ.
Setze f := (x − λ1 ) · . . . · (x − λ k ) ∈ K[x]. Wir zeigen Mϕ = f , woraus insbesondere (2) folgt.
Die λ1, . . . , λ k sind die Nullstellen von χϕ , also nach Satz 6.104 auch die von Mϕ . Daher teilt
f das Polynom Mϕ ohne Rest. Sei v ∈ V. Da ϕ diagonalisierbar ist, haben wir die Zerlegung
V = Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λ k ). Wir können daher v = v1 + . . . + vk mit v j ∈ Eig(ϕ, λ j ) =
ker(ϕ − λ j id) schreiben. Dann gilt

f˜(ϕ)(v) = f˜(ϕ)(v1 ) + . . . + f˜(ϕ)(vk ).

Wegen

f = (x − λ1 ) · · · (x − λi−1 )(x − λi+1 ) · · · (x − λn )(x − λi ) =: gi (x) · (x − λi )


322 6. Eigenwertprobleme

ist nun
f˜(ϕ)(vi ) = g̃i (ϕ) ◦ (ϕ − λi · id)(vi ) = g̃i (ϕ)(0) = 0.
Also ist f˜(ϕ)(v) = 0 für jedes v ∈ V und damit f˜(ϕ) = 0. In anderen Worten, f ∈ Ann(ϕ) und
daher wird f vom Minimalpolynom Mϕ ohne Rest geteilt.
Wir wissen nun, dass das Minimalpolynom Mϕ das Polynom f ohne Rest teilt und umgekehrt
genauso. Also gibt es ein α ∈ K \ {0} mit Mϕ = α f . Da Mϕ und f normiert sind, ist α = 1
und somit Mϕ = f .

Zu „(2)⇒(1)“:
Diese Implikation müssen wir für den Moment vertagen. Wir werden sie im nächsten Abschnitt
beweisen, siehe Korollar 6.116 auf Seite 328. 
Wir können also folgendermaßen überprüfen, ob eine Matrix A ∈ Mat(n, K) (oder ein Endo-
morphismus auf einem n-dimensionalen Vektorraum) diagonalisierbar ist:

Berechne χA

Berechne die paarweise verschiedenen


Nullstellen λ1, . . . , λk von χA

Zerfällt χA in nein
A nicht diagonalisierbar
Linearfaktoren?

ja

Setze f (x) := (x − λ1 ) · · · (x − λk )

nein
Ist f˜(A) = 0n ? A nicht diagonalisierbar

ja

A ist diagonalisierbar

Abb. 106 Prüfung auf Diagonalisierbarkeit

 
2 1
Beispiel 6.106. Sei A = . Dann zerfällt das charakteristische Polynom χA(x) =
0 2
 
2−x 1
det = (2 − x)2 in Linearfaktoren. Es gibt nur den Eigenwert λ1 = 2. Wir
0 2−x
6.6. Die Jordan’sche Normalform 323

setzen f (x) := x − 2. Dann ist



    
2 1 2 0 0 1
f˜(A) = A − 2 · 12 = − =  02
0 2 0 2 0 0

Also ist A nicht diagonalisierbar.

6.6. Die Jordan’sche Normalform


Die Frage nach der Diagonalisierbarkeit einer Matrix ist aufgetreten, weil wir Endomorphismen
durch möglichst einfache Matrizen darstellen wollten. Leider hat sich herausgestellt, dass nicht
alle Endomorphismen diagonalisierbar sind. Über dem Körper der komplexen Zahlen konnten
wir aber immerhin jede Matrix trigonalisieren. Die Frage ist nun, ob man, zumindest über
C, noch eine einfachere Form der darstellenden Matrix eines Endomorphismus finden kann.
Diese müsste im Allgemeinen einfacher als eine obere Dreiecksmatrix, aber komplizierter als
eine Diagonalmatrix sein. Dies ist tatsächlich möglich und heißt die Jordan’sche Normalform
des Endomorphismus.
Zunächst wieder zwei Vorbereitungen zu Polynomen.

Lemma 6.107. Sei K ein Körper, seien λ1, . . ., λ k ∈ K paarweise verschieden, α ∈ K \ {0}
und γ1, . . ., γ k ∈ N. Sei

f (x) = α · (x − λ1 )γ1 · · · (x − λ k )γk ∈ K[x].

Dann ist jedes Polynom g ∈ K[x], das das Polynom f teilt, von der Form

g(x) = β · (x − λ1 ) μ1 · · · (x − λ k ) μk

mit β ∈ K \ {0} und μ j ∈ {0, 1, . . ., γ j }.

Beweis. Sei g ein Polynom, das f teilt. Dann existiert ein h ∈ K[x], so dass f = g · h. Da λ1
eine Nullstelle von f ist, ist es auch eine von g oder von h. Also gibt es nach Lemma 6.19 ein
g1 ∈ K[x] mit g(x) = (x − λ1 ) · g1 (x) oder ein h1 ∈ K[x] mit h(x) = (x − λ1 ) · h1 (x). Wir
dividieren beide Seiten der Gleichung f = g · h durch das Polynom x − λ1 und erhalten wegen
der Eindeutigkeit in der Polynomdivision (siehe Satz 6.15):

α · (x − λ1 )γ1 −1 · (x − λ2 )γ2 · · · (x − λ k )γk = g1 (x) · h(x)

bzw.
α · (x − λ1 )γ1 −1 · (x − λ2 )γ2 · · · (x − λ k )γk = g(x) · h1 (x).
Wir wiederholen diese Prozedur insgesamt γ1 + γ2 + . . . + γ k = deg( f ) Male und erhalten

α = α · (x − λ1 )0 · · · (x − λ k )0 = ĝ(x) · ĥ(x),
324 6. Eigenwertprobleme

wobei g(x) = ĝ(x) · (x − λ1 ) μ1 · · · (x − λ k ) μk und h(x) = ĥ(x) · (x − λ1 )γ1 −μ1 · · · (x − λ k )γk −μk .
Insbesondere gilt deg(ĝ) = deg( ĥ) = 0 und daher β := ĝ ∈ K \ {0}. Also ist g(x) =
β · (x − λ1 ) μ1 · · · (x − λ k ) μk , was zu beweisen war. 

Bemerkung 6.108. Aus Lemma 6.107 folgt, dass jedes Polynom, das ein Polynom teilt, wel-
ches in Linearfaktoren zerfällt, selbst auch in Linearfaktoren zerfällt. Insbesondere, wenn das
charakteristische Polynom eines Endomorphismus in Linearfaktoren zerfällt, so muss dies
auch für das Minimalpolynom gelten.

Bemerkung 6.109. Nehmen wir einmal an, dass das charakteristische Polynom χϕ eines
Endomorphismus ϕ in Linearfaktoren zerfällt, also von der Form

χϕ (x) = (−1)n · (x − λ1 ) μalg (λ1 ) · · · (x − λ k ) μalg (λk )

ist, wobei λ1, . . ., λ k die paarweise verschiedenen Eigenwerte sind. Dann muss das Minimal-
polynom von der Form
Mϕ (x) = (x − λ1 ) μ1 · · · (x − λ k ) μk

sein, wobei μ j ≤ μalg (λ j ). Da jede Nullstelle von χϕ auch eine von Mϕ ist, muss 1 ≤ μ j ≤
μalg (λ j ) für alle j = 1, . . ., k gelten. Der Koeffizient β aus Lemma 6.107 muss = 1 sein, da das
Minimalpolynom normiert ist.
Satz 6.105 besagt, dass ϕ genau dann diagonalisierbar ist, wenn μ1 = . . . = μk = 1 ist. Das ist
genau dann der Fall, wenn (x−λ1) · · · (x−λ k ) ∈ Ann(ϕ), d.h. wenn (ϕ−λ1 ·id) · · · (ϕ−λ k ·id) = 0.

Die zweite Vorbereitung über Polynome ist ein Spezialfall des so genannten erweiterten eukli-
dischen Algorithmus.

Lemma 6.110. Sei K ein Körper, seien λ1, . . ., λ k ∈ K paarweise verschieden, k ≥ 2 und
γ1, . . ., γ k ∈ N.
Dann gibt es Polynome h1, h2 ∈ K[x], so dass

1 = h1 (x) · (x − λ1 )γ1 + h2 (x) · (x − λ2 )γ2 · · · (x − λ k )γk .

Beweis. Wir setzen

f1 := (x − λ1 )γ1,
f2 := (x − λ2 )γ2 · · · (x − λ k )γk .

Wir nehmen nun an, dass deg( f2 ) ≤ deg( f1 ). Ansonsten vertauschen wir die Rollen von f1 und
f2 im folgenden Beweis.
Sukzessive Polynomdivision mit Rest (Satz 6.15) liefert:
6.6. Die Jordan’sche Normalform 325

f1 = q1 · f2 + f3 , deg( f3 ) < deg( f2 ),


f2 = q2 · f3 + f4 , deg( f4 ) < deg( f3 ),
...
f j−1 = q j−1 · f j + f j+1 , deg( f j+1 ) < deg( f j ),
..
.

Irgendwann muss deg( fn+2 ) < 0 sein, d.h. fn+2 = 0 und damit fn = qn · fn+1 . Daraus ergibt
sich:

fn+1 teilt fn
⇒ fn+1 teilt fn und fn−1
⇒ fn+1 teilt fn, fn−1 und fn−2
..
.
⇒ fn+1 teilt alle f j .

Insbesondere teilt fn+1 die Polynome f1 und f2 . Nach Lemma 6.107 muss fn+1 einer-
seits von der Form fn+1 = β · (x − λ1 ) μ1 sein und andererseits auch von der Form
fn+1 = β · (x − λ2 ) μ2 · · · (x − λ k ) μk . Das ist nur möglich, wenn fn+1 eine Konstante α ∈ K ist.
Da erst fn+2 das Nullpolynom ist, fn+1 aber noch nicht, gilt α  0.
Induktiv sehen wir, dass jedes f j von der Form f j = h1, j · f1 + h2, j · f2 ist. Insbesondere gilt:

α = fn+1 = h1,n+1 · f1 + h2,n+1 · f2 .

Also ist
1 1
1= h1,n+1 · f1 + h2,n+1 · f2 .
α α
Mit h1 := α1 h1,n+1 und h2 := α1 h2,n+1 folgt die Behauptung. 

Proposition 6.111. Sei K ein Körper, seien λ1, . . ., λ k ∈ K paarweise verschieden, α ∈


K \ {0} und γ1, . . . , γ k ∈ N. Sei f = α · (x − λ1 )γ1 · · · (x − λ k )γk ∈ K[x]. Sei V ein endlich-
dimensionaler K-Vektorraum und ϕ ∈ End(V). Dann ist

ker( f˜(ϕ)) = ker((ϕ − λ1 · idV )γ1 ) ⊕ · · · ⊕ ker((ϕ − λ k · idV )γk ).

Beweis. a) Ohne Beschränkung der Allgemeinheit können wir annehmen, dass α = 1 ist, denn
der Faktor α hat keinen Einfluss auf ker( f˜(ϕ)). Wir zeigen die Aussage nun durch vollständige
Induktion nach k.
b) Für k = 1 ist die Aussage offensichtlich. Damit ist der Induktionsanfang vollzogen.
326 6. Eigenwertprobleme

c) Für den Induktionsschritt sei k ≥ 2. Wir setzen f1 (x) := (x − λ1 )γ1 und f2 (x) :=
(x − λ2 )γ2 · · · (x − λ k )γk . Wir zeigen:

f1 (ϕ)) ⊕ ker( 3
ker( f˜(ϕ)) = ker( 3 f2 (ϕ)).

Dann folgt die Aussage nach Induktionsannahme für ker( 3 f2 (ϕ)).


d) Behauptung: Es gilt
ker( 3
f1 (ϕ)) ⊂ ker( f˜(ϕ)).
Beweis der Behauptung: Ist v ∈ ker( 3
f1 (ϕ)), so ist
 
f˜(ϕ)(v) = ( f8 3 3
2 f1 )(ϕ)(v) = f2 (ϕ) ◦ f1 (ϕ) (v) = 0.
()*+
=0

Daraus folgt ker( 3


f1 (ϕ)) ⊂ ker( f˜(ϕ)). 
e) Analog sieht man ker( 3 f2 (ϕ)) ⊂ ker( f˜(ϕ)). Es folgt:

f1 (ϕ)) + ker( 3
ker( 3 f2 (ϕ)) ⊂ ker( f˜(ϕ)).

f) Behauptung: Es gilt umgekehrt auch

ker( f˜(ϕ)) ⊂ ker( 3


f1 (ϕ)) + ker( 3
f2 (ϕ)).

Beweis der Behauptung: Nach Lemma 6.110 gibt es Polynome h1, h2 ∈ K[x], so dass f1 · h1 +
f2 · h2 = 1. Hieraus folgt id = 3
f1 (ϕ) ◦ h31 (ϕ) + 3
f2 (ϕ) ◦ h32 (ϕ).
Sei nun v ∈ ker( f˜(ϕ)). Wir zerlegen v durch

f1 (ϕ) ◦ h31 (ϕ)(v) + 3


v = id(v) = 3 f2 (ϕ) ◦ h32 (ϕ)(v) = v2 + v1 .
()*+ ()*+
=:v2 =:v1

Nun folgt

f2 (ϕ)(v2 ) = 3
3 f2 (ϕ) ◦ 3
f1 (ϕ) ◦ h31 (ϕ)(v) = f˜(ϕ) ◦ h31 (ϕ)(v) = h31 (ϕ) ◦ f˜(ϕ)(v) = 0.

Also ist v2 ∈ ker( 3


f2 (ϕ)). Analog sieht man v1 ∈ ker( 3
f1 (ϕ)). 
g) Bleibt noch zu zeigen, dass die Summe direkt ist, d.h.

f1 (ϕ)) ∩ ker( 3
ker( 3 f2 (ϕ)) = {0}.

f1 (ϕ)) ∩ ker( 3
Sei dazu v ∈ ker( 3 f2 (ϕ)). Dann ist

v = id(v) = h31 (ϕ) ◦ 3


f1 (ϕ)(v) + h32 (ϕ) ◦ 3
f2 (ϕ)(v) = 0. 
()*+ ()*+
=0 =0
6.6. Die Jordan’sche Normalform 327

Wir erinnern uns daran, dass für diagonalisierbare Endomorphismen ϕ ∈ End(V ) das Mini-
malpolynom die Form Mϕ (x) = (x − λ1 ) · · · (x − λ k ) hat (Satz 6.105) und der Vektorraum V
wie folgt zerlegt werden kann (Satz 6.71 (5)):

V = ker(ϕ − λ1 · idV ) ⊕ . . . ⊕ ker(ϕ − λ k · idV ).

Dabei sind wieder λ1, . . ., λ k die paarweise verschiedenen Eigenwerte von ϕ. Der folgende Satz
ist die Verallgemeinerung hiervon für Endomorphismen, die nicht notwendig diagonalisierbar
sind.

Satz 6.112 (Zerlegung in verallgemeinerte Eigenräume). Sei V ein endlich-


dimensionaler K-Vektorraum. Sei ϕ ∈ End(V ) ein Endomorphismus, dessen Minimal-
polynom in Linearfaktoren zerfällt, Mϕ (x) = (x − λ1 )γ1 · · · (x − λ k )γk . Hierbei seien
λ1, . . ., λ k die paarweise verschiedenen Eigenwerte. Dann gilt:
   
V = ker (ϕ − λ1 · idV )γ1 ⊕ . . . ⊕ ker (ϕ − λ k · idV )γk .

Beweis. Wir wenden Proposition 6.111 mit f = Mϕ an. Wegen M̃ϕ (ϕ) = 0 gilt

V = ker( M̃ϕ (ϕ)) = ker((ϕ − λ1 · idV )γ1 ) ⊕ · · · ⊕ ker((ϕ − λ k · idV )γk ). 

Definition 6.113. Sei V ein endlich-dimensionaler K-Vektorraum. Sei ϕ ∈ End(V ) ein En-
domorphismus, dessen Minimalpolynom in Linearfaktoren zerfällt. Sei λ ein Eigenwert von
ϕ und γ die algebraische Vielfachheit der Nullstelle λ im Minimalpolynom. Dann heißt der
Untervektorraum ker((ϕ − λ · idV )γ ) verallgemeinerter Eigenraum oder auch Hauptraum
von ϕ zum Eigenwert λ.

Beispiel 6.114. Betrachten wir die Matrix

2 1 0


A = 0 2 0 ∈ Mat(3, R).
0 0 3

Das charakteristische Polynom berechnen wir flugs als

χA (x) = (2 − x)2 · (3 − x).

Für das Minimalpolynom gibt es nun gemäß Bemerkung 6.109 nur zwei Möglichkeiten; es
kann gleich (x − 2)2 · (x − 3) oder gleich (x − 2) · (x − 3) sein. Das können wir dadurch
328 6. Eigenwertprobleme

entscheiden, indem wir überprüfen, ob f := (x − 2) · (x − 3) ∈ Ann(A) ist:

0 1 0 −1 1 0 0 −1 0




f˜(A) = (A − 2 · 13 ) · (A − 3 · 13 ) = 0 0 0 · 0 −1 0 = 0 0 0  03 .
0 0 1  0 0 0 0 0 0
Also ist f  Ann(A) und das Minimalpolynom muss M A = (x − 2)2 · (x − 3) sein. Nun stellen
wir fest:
0 1 0


ker(A − 2 · 13 ) = ker 0 0 0 = R · e1,
0 0 1
 0 0 0


ker (A − 2 · 13 )2 = ker 0 0 0 = R · e1 ⊕ R · e2,
0 0 1
−1 1 0


ker(A − 3 · 13 ) = ker 0 −1 0 = R · e3 .
0 0 0
In der Tat gilt

R3 = ker (A − 2 · 13 )2 ⊕ ker(A − 3 · 13 ) = R · e1 ⊕ R · e2 ⊕ R · e3,

nicht aber
R3 = ker(A − 2 · 13 ) ⊕ ker(A − 3 · 13 ) = R · e1 ⊕ R · e3 .
In diesem Beispiel stimmen Eigenraum und Hauptraum für den Eigenwert 3 überein, nicht
aber für den Eigenwert 2. Im letzteren Fall ist der Hauptraum echt größer als der Eigenraum.

Bemerkung
 6.115. Verallgemeinerte
γ
  von ϕ sind
Eigenräume
γ
 stets ϕ-invariant. Ist nämlich
v ∈ ker (ϕ − λ · id) , dann ist auch ϕ(v) ∈ ker (ϕ − λ · id) , da

(ϕ − λ · id)γ (ϕ(v)) = ((ϕ − λ · id)γ ◦ ϕ)(v) = (ϕ ◦ (ϕ − λ · id)γ )(v) = ϕ(0) = 0.

Nun können wir auch den Beweis von Satz 6.105 zu Ende bringen; die Beweisrichtung
„(2)⇒(1)“ stand ja noch aus.

Korollar 6.116. Wenn das Minimalpolynom Mϕ eines Endomorphismus in paarweise ver-


schiedene Linearfaktoren zerfällt, dann ist ϕ diagonalisierbar.

Beweis. In diesem Fall können wir Satz 6.112 mit γ1 = . . . = γ k = 1 anwenden und erhalten
V = ker(ϕ − λ1 · idV ) ⊕ . . . ⊕ ker(ϕ − λ k · idV ). Die Behauptung folgt nun aus Satz 6.71. 
6.6. Die Jordan’sche Normalform 329

Definition 6.117. Sei K ein Körper. Eine Matrix der Form

λ 1 0

. . . . . . 

.. 
. 1

0 λ

nennt man einen Jordanblock, wobei λ ∈ K.

Satz 6.118 (Jordan’sche Normalform). Sei K ein Körper, sei V ein endlich-dimensionaler
K-Vektorraum und sei ϕ ∈ End(V ) ein Endomorphismus, dessen Minimalpolynom in Linear-
faktoren zerfällt. Dann existiert eine geordnete Basis B von V, bzgl. derer die darstellende
Matrix von ϕ die Blockdiagonalform


J1
J2 

MB (ϕ) = .. 
. 

J 
hat. Dabei sind die Ji Jordanblöcke.

Diese Jordan’sche Normalform ist die einfachste Form, in die wir die darstellende Matrix
eines nicht diagonalisierbaren Endomorphismus bringen können. Der diagonalisierbare Fall
ist genau der Spezialfall der Jordan’schen Normalform, bei dem alle Jordanblöcke nur 1 × 1-
Matrizen sind, denn genau dann treten keine Einsen auf der Nebendiagonale auf. Ein Beweis
von Satz 6.118 findet sich in Anhang B.4.

Beispiel 6.119. Die Matrix



2 1 0
0
0 0
2 0
A= 
0 0 0
3

0 0 0
3
ist in Jordan’scher Normalform mit den drei Jordanblöcken
 
2 1
J1 = , J2 = J3 = (3).
0 2

Aus Satz 6.118 und dem Fundamentalsatz der Algebra folgt:


330 6. Eigenwertprobleme

Korollar 6.120. Jede quadratische komplexe Matrix besitzt eine Jordan’sche Normalform,
d.h. ist ähnlich zu einer Matrix wie in Satz 6.118. 

Wie hängt die Jordan’sche Normalform eines Endomorphismus ϕ ∈ End(V) mit den verschie-
denen Größen zusammen, die wir Endomorphismen zugeordnet haben, also charakteristisches
Polynom, Minimalpolynom, algebraische und geometrische Vielfachheiten der Eigenwerte?
Nehmen wir an, das charakteristische Polynom zerfällt in Linearfaktoren mit den paarweise
verschiedenen Eigenwerten λ1, . . ., λ k . Wir betrachten die Darstellung von ϕ in Jordan’scher
Normalform:


λ1 1
.. .. 
. . 

.. 
. 1 

λ1 


r1 − mal 


λ1 1 

.. .. 
. . 

.. 
. 1 

λ1 


.. 
r2 − mal . 

λ1 
1 
.. .. 
. . 

.. 
. 1 


λ1 

r − mal 
 
 
 λ2 1 

 .. 
 .


Wir konzentrieren uns dabei auf die Jordanblöcke, die λ1 auf der Diagonale stehen haben,
hier die ersten  Blöcke. Bilden wir das charakteristische Polynom, so erhalten wir χϕ (x) =
(λ1 − x)r1 · (λ1 − x)r2 · · · (λ1 − x)r × Linearfaktoren zu den anderen Eigenwerten. Also ist die
algebraische Vielfachheit von λ1 gegeben durch

μalg (λ1 ) = r1 + r2 + . . . + r .
6.6. Die Jordan’sche Normalform 331

In der darstellenden Matrix von ϕ − λ1 · id haben die ersten  Diagonalblöcke die Form

0 1

. .. 
. . . 
.
..  (6.19)
. 
1

0

Diese Matrizen haben einen eindimensionalen Kern, der dem ersten Spaltenvektor entspricht.
Jeder der  ersten Blöcke liefert einen Basisvektor für den Kern von ϕ − λ1 · id, also ist er
insgesamt -dimensional. In anderen Worten, die geometrische Vielfachheit von λ1 ist gegeben
durch
μgeo (λ1 ) = .
In Satz 6.64 (iii) haben wir gelernt, dass ϕ genau dann diagonalisierbar ist, wenn die geo-
metrischen und die algebraischen Vielfachheiten der Eigenwerte übereinstimmen. In der Tat,
r1 + r2 + . . . + r =  ist gleichbedeutend mit r1 = r2 = . . . = r = 1, d.h. damit dass die
Jordanblöcke 1 × 1-Blöcke sind. Wenn das für alle Eigenwerte gilt, heißt es genau, dass die
Jordan’sche Normalform eine Diagonalmatrix ist.
Mit den algebraischen Vielfachheiten der Eigenwerte kennen wir auch das charakteristische
Polynom. Wie können wir nun das Minimalpolynom aus der Jordan’schen Normalform able-
sen? Wir suchen die niedrigsten Exponenten γ1, . . ., γ k , für die (x − λ1 )γ1 · · · (x − λ k )γk im
Annihilator von ϕ ist.
Für jedes Polynom f ∈ K[x] und jede Matrix in Blockdiagonalform,


A1
.. 
A= . 

Am 

gilt

f (A1 )
˜

.. 
f˜(A) = . .

f˜(Am ) 
Wir müssen also nur überprüfen, für welche γ j das Polynom f (x) = (x − λ1 )γ1 · · · (x − λ k )γk
die Jordanblöcke zu Null macht. Setzen wir einen Jordanblock zu λ1 in einen Linearfaktor
(x − λ j ) zu einem anderen Eigenwert λ j ein, so erhalten wir

λ1 − λ j 1 0


.. .. 
. .
.
.. 
. 1 

0 λ1 − λ j

332 6. Eigenwertprobleme

Dies ist eine invertierbare Matrix, da sie obere Dreiecksgestalt hat und die Diagonalterme
ungleich Null sind. Die Multiplikation mit invertierbaren Matrizen hat keine Auswirkung
darauf, ob eine Matrix die Nullmatrix ist. Also müssen wir lediglich das kleinste γ1 suchen,
für das alle Jordanblöcke zu λ1 eingesetzt in (x − λ1 )γ1 die Nullmatrix ergibt.
Setzen wir einen Jordanblock zu λ1 in x − λ1 ein, so erhalten wir eine Matrix wie in (6.19).
Man kann nun leicht sehen, dass bei jedem Multiplizieren mit dieser Matrix die Einserneben-
diagonale um eins nach rechts oben rutscht,
0 ··· 0 1


k ... .. ..
. . 
0 1 


. . . . . .  ..
.
..
. 1
 =
..  .. .
. 1 . 0

. . .. 
0 . .

0
Das kleinste k, für das wir die Nullmatrix erhalten, ist somit gerade durch die Größe der Matrix
gegeben. Es folgt für den Exponenten im Minimalpolynom Mϕ = (x − λ1 )γ1 . . . (x − λ k )γk :
γ1 = max{r1, . . ., r }.
Analog erhält man die Exponenten γ j im Minimalpolynom für die Linearfaktoren zu den
anderen Eigenwerten λ j .

Bemerkung 6.121. Die Jordan’sche Normalform ist im Allgemeinen nicht eindeutig. Hat man
eine Basis bezüglich derer die darstellende Matrix Jordan’sche Normalform hat, dann kann man
durch geeignetes Vertauschen der Basisvektoren auch die Jordanblöcke in der darstellenden
Matrix vertauschen.
Man kann allerdings beweisen, dass die Jordan’sche Normalform bis auf Vertauschung der
Jordanblöcke eindeutig ist. Mit anderen Worten, zwei Matrizen in Jordanform sind genau dann
ähnlich, wenn sie bis auf die Reihenfolge aus denselben Jordanblöcken zusammengesetzt sind.
Teilweise können wir das mit den bisherigen Überlegungen einsehen. Sind nämlich zwei
Matrizen ähnlich, dann haben sie dasselbe charakteristische Polynom und damit dieselben
Eigenwerte. Das sind die λ j auf der Diagonale in der Jordan’schen Normalform. Fixieren wir
einen Eigenwert λ und bezeichnen wie eben die Größen der Jordanblöcke zum Eigenwert λ
mit r1, . . ., r , dann müssen für ähnliche Jordanmatrizen , r1 + . . . + r und max{r1, . . . , r }
übereinstimmen. Ähnliche Jordanmatrizen haben also zu jeden Eigenwert dieselbe Anzahl von
Jordanblöcken, dieselbe Gesamtgröße und dieselbe Maximalgröße der Jordanblöcke.
Für einen Beweis der vollen Eindeutigkeitsaussage siehe z.B. [2, Abschnitt 6.5], [12, Satz 16.12]
oder [15, Abschnitt 6.7].

6.7. Aufgaben
6.1. Sei K ein Körper und x ein abstraktes Symbol. Zeigen Sie, dass (Kx, +, ·) ein kommu-
tativer Ring mit Eins 1 = 1 · x 0 + 0 · x 1 + 0 · x 2 + 0 · x 3 + . . . ist.
6.7. Aufgaben 333

6.2. Sei K ein Körper und x ein abstraktes Symbol.


a) Zeigen Sie, dass die Einheiten im Ring K[x] genau die Polynome vom Grad 0 sind.
b) Gilt das auch im Ring Kx?

6.3. Sei A eine K-Algebra mit Eins, A ∈ A und x ein abstraktes Symbol. Zeigen Sie, dass
der Auswertehomomorphimus K[x] → A, f → f˜(A), ein einserhaltender Algebrenhomo-
morphismus ist.

6.4. Sei A eine K-Algebra mit Eins und A ∈ A. Zeigen Sie, dass Ann(A) folgende beiden
Eigenschaften hat:
a) Ann(A) ist ein Untervektorraum von K[x];
b) Für alle p ∈ K[x] und a ∈ Ann(A) gilt p · a ∈ Ann(A).
Eine Teilmenge von K[x] mit diesen beiden Eigenschaften nennt man ein Ideal.

6.5. Sei A eine K-Algebra mit Eins. Zeigen Sie:


a) Ann(1) = {g · (x − 1) | g ∈ K[x]};
b) Ann(0) = {g · x | g ∈ K[x]}.

6.6. Sei A = K[x] die Algebra der Polynome und sei f ∈ A mit deg( f ) ≥ 1. Zeigen Sie:
a) { f k | k ∈ N0 } = {1, f , f 2, f 3, . . .} ist linear unabhängig;
b) Ann( f ) = {0}.

6.7. Wir fixieren reelle Zahlen x1 < x2 < · · · < xn . Zeigen Sie, dass es zu y1, . . . , yn ∈ R
genau eine reelle Polynomfunktion f vom Grad höchstens n − 1 gibt mit f (x j ) = y j .
Hinweis: Hier ist die Vandermonde-Determinante aus Aufgabe 4.15 nützlich.

6.8. Bestimmen Sie das charakteristische Polynom, die Eigenwerte und deren geometrische
Vielfachheit sowie die Eigenräume der Matrix
 
1 1
A := ∈ Mat(2, K),
1 1

und zwar für


a) K = R;
b) K = F2 .

6.9. Bestimmen Sie eine Matrix A ∈ Mat(3, R), so dass A den Eigenwert 1 zum Eigenvektor
(1, 2, 1) , den Eigenwert −1 zum Eigenvektor (1, 0, 1) und den Eigenwert 2 zum Eigenvektor
(−1, 1, 0) hat.
334 6. Eigenwertprobleme

6.10. Sei K ein Körper, V ein n-dimensionaler K-Vektorraum, λ ∈ K und ϕ ∈ End(V). Sei B
eine geordnete Basis von V und A = MB (ϕ) die darstellende Matrix von ϕ bzgl. B. Zeigen Sie:

a) λ ist Eigenwert von ϕ genau dann, wenn λ Eigenwert von A ist.

b) dim(Eig(ϕ, λ)) = dim(Eig(A, λ)), d.h. die geometrische Vielfachheit von λ als Eigenwert
von ϕ ist dieselbe wie die als Eigenwert von A.

c) ϕ und A haben dasselbe charakteristische Polynom.

6.11. Entscheiden Sie, welche der folgenden Matrizen über R diagonalisierbar sind. Geben
Sie für die Matrizen jeweils Basen für die Eigenräume an. Geben Sie für die diagonalisierbaren
Matrizen ferner eine Matrix T ∈ Gl(3, R) an, s.d. T · Ai · T −1 eine Diagonalmatrix ist. All das
für

2 6 −1


a) A1 = −1 −2 1  ;
2 6 −1

3 0 0


b) A2 = 2 3 0 ;

1 2 3

cos( π7 ) 0 − sin( π7 )


c) A3 = 0 π
7 0  .
π π
sin( 7 ) 0 cos( 7 ) 

6.12. Bestimmen Sie für die Matrix


 
1 2
A=
−1 −1

alle Potenzen Ak mit k ∈ N.

6.13. Sei K ein Körper, n ∈ N und M ∈ Mat(n, K). Wir sagen, dass W ∈ Mat(n, K) eine
Wurzel von M ist, falls W · W = M gilt.
Zeigen Sie, dass jede diagonalisierbare Matrix M ∈ Mat(n, C) eine Wurzel hat.

6.14. Gegeben seien die beiden Matrizen

3 −3 2 0 0 −2



A = 0 4 0 und B = 0 2 0  .
−1 3 0 1 0 3 
6.7. Aufgaben 335

Zeigen Sie, dass A und B simultan diagonalisierbar sind. Geben Sie eine gemeinsame Basis
aus Eigenvektoren für A und B an und geben zu jedem Basisvektor außerdem den Eigenwert
bzgl. A und bzgl. B an.

6.15. Sei V ein K-Vektorraum und seien W1, . . . , W k ⊂ V Untervektorräume. Beweisen Sie
oder widerlegen Sie durch Gegenbeispiel folgende Behauptung:
Gilt Wi ∩ W j = {0} für alle i  j, dann ist die Summe W1 + . . . + W k direkt,
a) für k = 2;
b) für k = 3.

6.16. a) Sei V ein endlichdimensionaler K-Vektorraum und W ⊂ V ein Untervektorraum.


Zeigen Sie, dass ein Untervektorraum U ⊂ V existiert, so dass V = W ⊕ U gilt.

b) Ist der Untervektorraum U in a) eindeutig bestimmt? (Beweis bzw. Gegenbeispiel)

c) Sei nun V = Rn . Wir setzen W ⊥ := {v ∈ V | v, w = 0 für alle w ∈ W }. Zeigen Sie, dass
W ⊥ ein Untervektorraum von V mit V = W ⊕ W ⊥ ist.

6.17. Sei V ein K-Vektorraum und ϕ ∈ End(V). Seien W1, . . . , W k ⊂ V invariante Unter-
vektorräume für ϕ. Zeigen Sie, dass dann auch W1 ∩ . . . ∩ W k und W1 + . . . + W k invariante
Untervektorräume für ϕ sind.

6.18. Trigonalisieren Sie die Matrix

−7 5 8


A = −5 4 5
−7 5 8
über dem Körper K = R. Bestimmen Sie dabei sowohl die resultierende obere Dreiecksmatrix
als auch die Transformationsmatrix.

6.19. Zeigen Sie, dass die Matrix  


1 1
A=
1 0
über dem Körper K = F2 nicht trigonalisierbar ist.

6.20. Wir betrachten die folgende Matrix:


2 1 0 0 0
0 0
2 1 0

A = 0 0 2 0 0 .

0 0 0 2 0

0 0 0 0 3
336 6. Eigenwertprobleme

a) Bestimmen Sie das charakteristische Polynom und das Minimalpolynom von A.


b) Untersuchen Sie, ob A diagonalisierbar ist.

6.21. Sei K ein Körper, V ein endlichdimensionaler K-Vektorraum und ϕ ∈ AutK (V). Zeigen
Sie: Es existiert ein Polynom p ∈ K[x] vom Grad ≤ dim(V) − 1, so dass gilt: ϕ−1 = p̃(ϕ).

6.22. Sei A ∈ Mat(n, K) eine nilpotente Matrix, d.h. es gibt ein k ∈ N, so dass Ak = 0n gilt.
Zeigen Sie:
a) 0 ist Eigenwert von A und A hat keine andere Eigenwerte.
b) Das Minimalpolynom ist gegeben durch M A = x k0 , wobei k0 die kleinste natürliche Zahl
ist, für die Ak0 = 0n gilt.

6.23. Wo liegt der Fehler in folgendem kurzen „Beweis“ des Satzes von Cayley-Hamilton:
χ̃A (A) = det(A − A · 1n ) = det(A − A) = det(0n ) = 0.

6.24. Benutzen Sie Bemerkung 6.102, um einen einfachen Beweis des Satzes von Cayley-
Hamilton für diagonalisierbare Matrizen zu geben.
 
0 1
6.25. Sei A = und f = x 20 − 10 x 19 + 35 x 18 − 30 x 17 − 105 x 16 + 228 x 15 + 90 x 14 −
1 1
540 x 13 + 45 x 12 + 770 x 11 − 131 x 10 − 770 x 9 + 45 x 8 + 540 x 7 + 90 x 6 − 228 x 5 − 105 x 4 +
30 x 3 + 35 x 2 + 10 x + 2. Berechnen Sie f˜(A).
Hinweis: Nicht stupide losrechnen! Der Satz von Cayley-Hamilton in Verbindung mit einer
geeigneten Polynomdivision vereinfacht die Aufgabe stark.

6.26. Sei V ein 6-dimensionaler R-Vektorraum und ϕ ∈ AutK (V). Sei


χϕ (x) = (x − 1)(x + 3)5 und M χ (x) = (x − 1)(x + 3)3 .
Bestimmen Sie alle Jordan’schen Normalformen, die für ϕ möglich sind.

6.27. Seien A, B ∈ Mat(n, K).


a) Beweisen Sie: Gilt AB = B A, so gilt für alle m ∈ N:
 
 m
m
(A + B) =m
· A j · B m− j .
j=0
j

b) Benutzen Sie dies, um allgemeine Formeln für die Potenzen von Jordanblöcken herzuleiten.
c) Zeigen Sie durch Gegenbeispiel, dass die Formel aus a) im Allgemeinen nicht gilt, falls
AB  B A.
6.7. Aufgaben 337

6.28. a) Seien A, B ∈ Mat(3, C). Zeigen Sie, dass A und B genau dann ähnlich sind, wenn
M A = MB und χA = χB gilt.

b) Stimmt die Behauptung aus Teil a) auch für A, B ∈ Mat(4, C)? (Beweis bzw. Gegenbeispiel)
7. Bilineare Algebra

Rettet die Kegelschnitte!

(Hans-Georg Weigand)

Wir untersuchen jetzt bilineare Abbildungen. Diese haben, im Gegensatz zu linearen, nicht
einen, sondern zwei Vektoren als Argument und sind in jedem einzeln linear. Von besonderer
Bedeutung ist der Spezialfall, dass das Ergebnis nicht ein Vektor, sondern eine Zahl ist,
also ein Element des zugrundeliegenden Körpers. Wir sprechen dann von einer Bilinearform.
Symmetrische Bilinearformen sind geometrisch besonders wichtig. Wir klassifizieren mit
ihrer Hilfe die Quadriken und die Kegelschnitte. Wir führen ein abstraktes Konzept von
Skalarprodukt ein, was zu euklidischen bzw. unitären Vektorräumen führt. Dann kann man von
selbstadjungierten, orthogonalen und unitären Endomorphismen sprechen. Die orthogonalen
verallgemeinern die Drehungen und Spiegelungen, die uns schon aus dem zweidimensionalen
Fall vertraut sind. Zum Schluss studieren wir noch die schiefsymmetrischen Bilinearformen
und Endomorphismen.

7.1. Bilineare Abbildungen


Beginnen wir gleich mit der zentralen Definition:

Definition 7.1. Seien V, W und Z Vektorräume über dem Körper K. Eine Abbildung
β : V × W → Z heißt bilinear, wenn für alle α, α ∈ K, alle v, v  ∈ V und alle w, w ∈ W
gilt:

β(α · v + α · v , w) = α · β(v, w) + α · β(v , w),


β(v, α · w + α · w) = α · β(v, w) + α · β(v, w).

Im Fall Z = K spricht man dann auch von einer Bilinearform.

Eine bilineare Abbildung bildet also je zwei Vektoren auf einen Vektor ab (bzw. auf eine Zahl
im Falle einer Bilinearform) und zwar so, dass wenn man einen Vektor festhält, die Abbildung
als Funktion des anderen Vektors linear ist.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_7
340 7. Bilineare Algebra

Beispiel 7.2. Sei K = R und V = W = Z = R3 . Dann ist das Vektorprodukt

β(v, w) = v × w

eine bilineare Abbildung.

Beispiel 7.3. Sei K = R und V = Rn . Dann ist das euklidische Skalarprodukt eine Bilinear-
form:
β(v, w) = v, w = v1 w1 + . . . + vn wn .

Beispiel 7.4. Sei K beliebig und V = K 2 . Wir wissen, dass die Determinante von n×n-Matrizen
linear in jedem Spaltenvektor ist. Also ist

β(v, w) = det(v, w)

eine Bilinearform.

Beispiel 7.5. K = R und sei V = C 0 ([a, b], R) der Vektorraum der stetigen Funktionen auf
dem Intervall [a, b]. Dann ist durch

∫b
β( f , g) = f (t)g(t)dt
a

eine Bilinearform auf V definiert. Wir rechnen die Linearität im ersten Argument nach:

∫b
β(α1 · f1 + α2 · f2, g) = (α1 · f1 + α2 · f2 )(t) · g(t) dt
a
∫b
= (α1 · f1 (t) · g(t) + α2 · f2 (t) · g(t)) dt
a
∫b ∫b
= α1 · f1 (t) · g(t) dt + α2 · f2 (t) · g(t) dt
a a
= α1 · β( f1, g) + α2 · β( f2, g).

Die Linearität im zweiten Argument kann man genauso verifizieren; sie folgt jetzt aber auch
aus β( f , g) = β(g, f ).

Bemerkung 7.6. Sei V ein endlich-dimensionaler K-Vektorraum und B = (b1, . . . , bn ) eine


geordnete Basis von V. Jede Bilinearform β : V × V → K ist durch ihre Werte auf den
Basisvektoren eindeutig bestimmt. Um das zu sehen, setzen wir

βi j := β(bi, b j ).
7.1. Bilineare Abbildungen 341

Beliebige Vektoren v, w ∈ V schreiben wir als Linearkombinationen dieser Basisvektoren,



n 
n
v= vi · bi und w= wj · bj ,
i=1 j=1

mit vi, wi ∈ K und erhalten



n 
n
β(v, w) = β vi · bi, wj · bj
i=1 j=1

n  n
= vi · β bi, wj · bj
i=1 j=1
n 
n
= vi · w j · β(bi, b j )
i=1 j=1
n
= vi · w j · βi j .
i, j=1

Sind umgekehrt eine geordnete Basis B von V und Zahlen βi j ∈ K vorgegeben, dann definiert

n
β(v, w) := vi w j βi j
i, j=1

eine Bilinearform auf V.

Definition 7.7. Sei V ein endlich-dimensionaler K-Vektorraum, B = (b1, . . ., bn ) eine ge-


ordnete Basis von V, und β : V × V → K eine Bilinearform. Dann heißt die Matrix

MB (β) := (βi j )i, j=1,...,n = (β(bi, b j ))i, j=1,...,n ∈ Mat(n, K)

darstellende Matrix von β bzgl. B.

Ähnlich, wie wir lineare Abbildungen nach Basiswahl durch Matrizen darstellen können,
können wir das also auch für Bilinearformen tun. Sehen wir uns dazu unsere Beispiele an:

Beispiel 7.8. Wie in Beispiel 7.3 betrachten wir das euklidische Skalarprodukt und stellen es
bzgl. der Standardbasis B = (e1, . . ., en ) durch eine Matrix dar. Nun gilt

1, falls i = j,
β(ei, e j ) = ei, e j  =
0, sonst.

Also ist die darstellende Matrix in diesem Fall die Einheitsmatrix,


MB (β) = 1n .
342 7. Bilineare Algebra

Beispiel 7.9. Stellen wir nun die durch die Determinante gegebene Bilinearform aus Bei-
spiel 7.4 bzgl. der Standardbasis B = (e1, e2 ) von K 2 durch eine Matrix dar. Es gilt:

det(e1, e1 ) = det(e2, e2 ) = 0,
det(e1, e2 ) = det(12 ) = 1, und
det(e2, e1 ) = − det(e1, e2 ) = −1.

Also ist die darstellende Matrix gegeben durch


 
0 1
MB (det) = .
−1 0

Beispiel 7.10. Der Vektorraum C 0 ([a, b], R) aus Beispiel 7.5 ist unendlich-dimensional. Da-
her kann die durch das Integral definierte Bilinearform nicht durch eine Matrix dargestellt
werden.1 Wir schränken daher die Bilinearform auf den 4-dimensionalen Untervektorraum
V = R3 [x] ⊂ C 0 ([0, 1], R) ein, der als Elemente alle Polynomfunktionen vom Grad ≤ 3 enthält.
Der Einfachheit halber betrachten wir nur den Fall a = 0 und b = 1. Eine geordnete Basis ist
durch B = ( f0, f1, f2, f3 ) gegeben, wobei fk (x) = x k . Wir berechnen:

∫1 ∫1 1
x i+ j+1  1
β( fi, f j ) = x · x dx =
i j
x i+ j
dx = = .
i + j + 1  x=0 i + j + 1
0 0

Somit ist die darstellende Matrix


1 1 1

1 2 3 4
1 1 1 1
5 .
MB (β) = 21 3 4
1
3 1 1 
4 5 6
1 1 1 1
4 5 6 7

Ähnlich wie die darstellende Matrix einer linearen Abbildung hängt auch die darstellende
Matrix einer Bilinearform von der Wahl der Basis ab. Allerdings transformiert sich die Matrix
bei Basiswechsel bei Bilinearformen anders als bei linearen Abbildungen.
Um das zu sehen seien B = (b1, . . ., bn ) und B = (b1, . . . , bn ) zwei geordnete Basen des
K-Vektorraums V. Die Transformationsmatrix, die den Basiswechsel beschreibt, ist gegeben
durch

c11 . . . c1n
. . 
TBB = .. . . . ..  ,

cn1 . . . cnn 

n
wobei bi = cki bk , vgl. Bemerkung 4.36. Wir berechnen
k=1

1Es sei denn, man würde unendlich große Matrizen erlauben.


7.1. Bilineare Abbildungen 343

βi j = β(bi, b j )
 n 
n
=β cki · bk , cl j · bl
k=1 l=1

n
= cki · cl j · β(bk , bl )
k,l=1
 n
= cki · βkl · cl j .
k,l=1

Also ist
MB (β) = (TBB ) · MB (β) · TBB .
Wir halten fest:

Proposition 7.11 (Transformationsformel für Bilinearformen). Ist β : V × V → K eine


Bilinearform und sind B und B geordnete Basen des endlich-dimensionalen K-Vektorraums
V, so gilt
MB (β) = (TBB ) · MB (β) · TBB . 

Proposition 4.37 sagt uns, dass die Transformation der darstellenden Matrix eines Endomor-
phismus ϕ gegeben ist durch:
MB (ϕ) = TBB · MB (ϕ) · (TBB )−1,
d.h., wenn wir nach MB (ϕ) auflösen, durch
MB (ϕ) = (TBB )−1 · MB (ϕ) · TBB .
Bei Bilinearformen tritt statt der Inversen der Transformationsmatrix ihre Transponierte auf.

Bemerkung 7.12. Im Fall V = K n kann man jede Bilinearform mittels ihrer darstellenden
Matrix bzgl. der Standardbasis B = (e1, . . ., en ) besonders leicht ausdrücken:
n
β(v, w) = vi · w j · β(ei, e j ) = v  · MB (β) · w.
i, j=1

Definition 7.13. Eine bilineare Abbildung β : V × V → Z heißt symmetrisch, falls


β(v, w) = β(w, v)
für alle v, w ∈ V gilt. Dagegen heißt β schiefsymmmetrisch, falls für alle v, w ∈ V gilt:
β(v, w) = −β(w, v).
344 7. Bilineare Algebra

Die Bilinearformen in Beispiel 7.3 und 7.5 sind symmetrisch, die bilinearen Abbildungen in
Beispiel 7.2 und 7.4 sind hingegen schiefsymmetrisch.

Definition 7.14. Eine Matrix A ∈ Mat(n, K) heißt symmetrisch, falls A = A, und schief-
symmetrisch, falls A = −A.

Lemma 7.15. Sei V ein endlich-dimensionaler K-Vektorraum und β : V × V → K eine


Bilinearform. Dann sind äquivalent:

(1) Die Bilinearform β ist symmetrisch.

(2) Es gibt eine geordnete Basis B von V bzgl. derer die darstellende Matrix MB (β) von β
symmetrisch ist.

(3) Für alle geordneten Basen B von V ist die darstellende Matrix MB (β) von β symmetrisch.

Beweis. Die Implikationen „(3)⇒(2)“ und „(1)⇒(3)“ sind trivial. Die fehlende Implikation
„(2)⇒(1)“ ist allerdings auch nicht schwer. Sei nämlich B = (b1, . . ., bn ) eine geordnete Basis
von V bzgl. derer MB (β) symmetrisch ist, d.h. β(bi, b j ) = β(b j , bi ) für alle i, j = 1, . . . , n. Seien

n n
v, w ∈ V. Wir schreiben v = vi · bi und w = w j · b j . Nun gilt:
i=1 j=1

n 
n
β(v, w) = β vi · bi, wj · bj
i=1 j=1

n
= vi · w j · β(bi, b j )
i, j=1
 n
= vi · w j · β(b j , bi )
i, j=1
 n
= w j · vi · β(b j , bi )
i, j=1

n 
n
=β w j · b j, vi · bi
i=1 j=1
= β(w, v).
Damit ist gezeigt, dass β symmetrisch ist. 

Die entsprechende Aussage für schiefsymmetrische Bilinearformen bzw. Matrizen zeigt man
ganz genauso.
7.1. Bilineare Abbildungen 345

Lemma 7.16. Sei V ein endlich-dimensionaler K-Vektorraum und β : V × V → K eine


Bilinearform. Dann sind äquivalent:

(1) Die Bilinearform β ist schiefsymmetrisch.

(2) Es gibt eine geordnete Basis B von V bzgl. derer die darstellende Matrix MB (β) von β
schiefsymmetrisch ist.

(3) Für alle geordneten Basen B von V ist die darstellende Matrix MB (β) von β schiefsym-
metrisch. 

Zumindest für die allermeisten Körper genügt es, symmetrische und schiefsymmetrische Bili-
nearformen zu verstehen, denn es gilt:

Lemma 7.17. Sei K ein Körper, in dem 1 + 1  0 gilt, und V ein K-Vektorraum. Dann
gibt es zu jeder Bilinearform β : V × V → K eine eindeutige symmetrische Bilinearform
βs : V × V → K und eine eindeutige schiefsymmetrische Bilinearform βa : V × V → K, so
dass
β = β s + βa .

Beweis. a) Existenz: Da 2 = 1 + 1  0 vorausgesetzt ist, können wir durch 2 dividieren und


setzen:
βs (v, w) := 12 β(v, w) + 12 β(w, v), βa (v, w) := 21 β(v, w) − 12 β(w, v).
Dann ist βs offensichtlich symmetrisch und βa schiefsymmetrisch und es gilt βs + βa = β.
b) Eindeutigkeit: Nehmen wir an, wir haben eine Zerlegungen von β in einen symmetrischen
und einen schiefsymmetrischen Anteil,

β = β s + βa .

Dann gilt für alle v, w ∈ V:

βs (v, w) = 12 βs (v, w) + 12 βs (w, v)


= 12 β(v, w) − 12 βa (v, w) + 12 β(w, v) − 12 βa (w, v)
= 12 β(v, w) − 12 βa (v, w) + 12 β(w, v) + 12 βa (v, w)
= 12 β(v, w) + 12 β(w, v).

Der symmetrische Anteil muss daher die Form βs (v, w) = 12 β(v, w)+ 12 β(w, v) haben, was seine
Eindeutigkeit zeigt. Genauso sieht man, dass der schiefsymmetrische Anteil durch βa (v, w) =
2 β(v, w) − 2 β(w, v) gegeben sein muss. 
1 1
346 7. Bilineare Algebra

In einem Körper K, in dem 1 + 1 = 0 gilt, wie z.B. K = F2 , ist Lemma 7.17 falsch. We-
gen 1 = −1 sind dann symmetrische und schiefsymmetrische Bilinearformen dasselbe! Jede
nichtsymmetrische Matrix M ∈ Mat(n, F2 ) führt mittels

β(v, w) = v  · M · w

auf eine Bilinearform β auf V = Fn2 , die keine Zerlegung wie in Lemma 7.17 zulässt.
Wir werden uns von nun an auf symmetrische Bilinearformen konzentrieren.

Definition 7.18. Sei β : V × V → K eine symmetrische Bilinearform. Dann heißt die


Abbildung q β : V → K, q β (v) = β(v, v), die quadratische Form zu β.

Beispiel 7.19. Die quadratische Form zum euklidischen Skalarprodukt auf V = Rn ist gegeben
durch
q(v) = v12 + . . . + vn2 = v 2 .

Aus der quadratischen Form können wir die Bilinearform zurückgewinnen:

Proposition 7.20 (Polarisierung). Sei K ein Körper, in dem 1 + 1  0 gilt. Dann gilt für
jede symmetrische Bilinearform β auf einem K-Vektorraum V und alle v, w ∈ V :
 
β(v, w) = 12 q β (v + w) − q β (v) − q β (w) .

Insbesondere bestimmen sich β und q β gegenseitig.

Beweis. Wir rechnen die Formel einfach nach:

q β (v + w) − q β (v) − q β (w) = β(v + w, v + w) − β(v, v) − β(w, w)


= β(v, v) + β(v, w) + β(w, v) + β(w, w) − β(v, v) − β(w, w)
= β(v, w) + β(w, v)
= 2β(v, w)

Die letzte Umformung hat benutzt, dass β symmetrsich ist. Da 2  0 ist, können wir durch 2
dividieren und erhalten die Aussage. 

Beispiel 7.21. Im Fall K = F2 haben wir erwartungsgemäß auch bei der Polarisierung Proble-
me. Sei etwa V = F22 . Wir betrachten die symmetrische Bilinearform

β : V × V → K, β(v, w) = v1 · w2 + v2 · w1 .

Die Bilinearform β ist nicht identisch 0, denn β(e1, e2 ) = 1  0. Für die zugehörige quadratische
Form erhalten wir dagegen
7.1. Bilineare Abbildungen 347

q β (v) = β(v, v) = v1 v2 + v2 v1 = 2v1 v2 = 0

für alle v ∈ V .

Satz 7.22 (Normalform für symmetrische Bilinearformen). Sei K ein Körper, in dem
1 + 1  0 gilt. Sei V ein endlich-dimensionaler K-Vektorraum und β eine symmetrische
Bilinearform auf V.
Dann existiert eine geordnete Basis B = (b1, . . ., bn ) von V, so dass die darstellende Matrix
MB (β) von β eine Diagonalmatrix ist. In anderen Worten, es gilt β(bi, b j ) = 0 für alle i  j.

Beweis. Wir zeigen die Aussage durch vollständige Induktion nach der Dimension n = dim(V )
von V.
Induktionsanfang: Für n = 1 ist nichts zu zeigen.
Induktionsschritt: Sei n ≥ 2. Wir haben zwei Fälle zu unterscheiden.
1. Fall: q β (v) = 0 für alle v ∈ V.
Dann ist nach Proposition 7.20 die Bilinearform β identisch 0 und somit die darstellende
Matrix MB (β) = 0n bzgl. jeder Basis. In diesem Fall ist die Aussage somit klar.
2. Fall: Es gibt ein b1 ∈ V mit q β (b1 )  0.
Wir betrachten die lineare Abbildung ϕ : V → K gegeben durch ϕ(v) = β(b1, v). Wegen
ϕ(b1 ) = β(b1, b1 ) = q β (b1 )  0 ist ϕ nicht der Nullhomomorphismus. Also ist rg(ϕ) ≥ 1.
Da dim(K) = 1 ist, gilt aber auch rg(ϕ) ≤ 1. Also ist rg(ϕ) = 1. Aus der Dimensionsformel
(Satz 4.19) folgt
dim(ker(ϕ)) = dim V − rg(ϕ) = n − 1.
Nach Induktionsannahme gibt es eine geordnete Basis (b2, . . ., bn ) von ker(ϕ), so dass

β(bi, b j ) = 0

für alle i, j = 2, . . . n mit i  j. Wegen b1  ker(ϕ) ist B := (b1, b2, . . ., bn ) eine geordnete
Basis von V. Für alle j = 2, . . . , n gilt

β(b1, b j ) = ϕ(b j ) = 0.

Damit hat B die geforderten Eigenschaften. 

Definition 7.23. Sei V ein endlich-dimensionaler K-Vektorraum und β : V × V → K eine


symmetrische Bilinearform. Eine geordnete Basis B von V bzgl. derer die darstellende Matrix
von β eine Diagonalmatrix ist, heißt eine diagonalisierende Basis oder, im Fall, dass β das
euklidische Skalarprodukt ist, eine Orthogonalbasis.

Konkret kann man eine diagonalisierende Basis wie folgt finden:


348 7. Bilineare Algebra

1. Schritt:
Wähle b1 ∈ V mit β(b1, b1 )  0.
(Falls das nicht möglich ist, so ist β = 0. Dann tut es jede Basis.)
2. Schritt:
Berechne U1 := ker(ϕ1 ), wobei ϕ1 : V → K mit ϕ1 (v) = β(b1, v).
3. Schritt:
Wähle b2 ∈ U1 mit β(b2, b2 )  0.
(Falls das nicht möglich ist, so ist β|U1 ×U1 = 0. Dann tut es jede Basis von U1 , ergänzt durch
b1 zu einer Basis von V.)
4. Schritt:
Berechne U2 := ker(ϕ2 ), wobei ϕ2 : U1 → K mit ϕ2 (v) = β(b2, v).
5. Schritt:
Wähle b3 ∈ U2 mit β(b3, b3 )  0.
(Falls das nicht möglich ist, so ist β|U2 ×U2 = 0. Dann tut es jede Basis von U2 , ergänzt durch
b1, b2 zu einer Basis von V.)
. . . usw.

Beispiel 7.24. Betrachten wir K = Q, V = Q3 und die Bilinearform gegeben durch


2 2 0



β(v, w) = v · 2 1 0 · w.


0 0 0
1



Schritt 1: Wir setzen b1 := e1 = 0. In der Tat gilt dann β(b1, b1 ) = 2  0.
0
Schritt 2: Wir berechnen

 2 2 0 v


1
ϕ1 (v) = β(b1, v) = 1 0 0 · 2 1 0 · v2  = 2v1 + 2v2 .
0 0 0 v3 
Also ist U1 = ker(ϕ1 ) = {v ∈ Q3 | v1 = −v2 }.
1


Schritt 3: Wir setzen b2 := −1 ∈ U1 . In der Tat gilt dann β(b2, b2 ) = −1  0.
0
Schritt 4: Wir berechnen

 2 2 0 v


1

ϕ2 (v) = β(b2, v) = 1 −1 0 · 2 1 0 · v2  = v2 .
0 0 0 v3 
Also ist
U2 = ker(ϕ2 ) = {v ∈ U1 | v2 = 0} = {v ∈ Q3 | v1 = v2 = 0} = Q · e3 .
7.1. Bilineare Abbildungen 349

Schritt 5: Nun ist β identisch 0 auf U2 × U2 . Wir ergänzen die Basis durch b3 := e3 und sind
fertig.
1 1 0





Die Basis B = (b1, b2, b3 ) = 0 , −1 , 0 diagonalisiert β. Es gilt:
 

0 0  1
2 0 0


MB (β) = 0 −1 0 .
0 0 0
Spaßeshalber überprüfen wir die Transformationsformel in diesem Beispiel. Die Bilinearform
β war uns ja gegeben durch ihre darstellende Matrix bzgl. der Standardbasis B = (e1, e2, e3 ):

2 2 0



M (β) = 2 1 0 .
B

0 0 0
Die Transformationsmatrix TBB enthält als Spaltenvektoren gerade die Vektoren der Basis B,
also
1 1 0



TB = 0 −1 0 .
B

0 0 1
Nun gilt in der Tat:

1 0 0 2 2 0 1 1 0




(TBB ) · MB (β) · TBB 
= 1 −1 0 · 2 1 0 · 0 −1 0


0 0 1 0 0 0 0 0 1
1 0 0 2 0 0




= 1 −1 0 · 2 1 0
0 0 1 0 0 0
2 0 0


= 0 −1 0
0 0 0
= MB (β).

Aufgabe 7.6 zeigt, dass die Bedingung 1+1  0 an den Körper K in Satz 7.22 nicht weggelassen
werden kann.

Bemerkung 7.25. Zurück zum Fall 1 + 1  0. Hier gibt es im Allgemeinen viele diagonali-
sierende Basen zu einer symmetrischen Bilinearform β. Die Diagonalmatrix ist durch β nicht
festgelegt, auch nicht nur bis auf Reihenfolge der Diagonaleinträge.
350 7. Bilineare Algebra

Allerdings gilt wegen der Transformationsformel MB (β) = (TBB ) · MB (β) · TBB , dass

rg(MB (β)) = rg(MB (β)).

Sind insbesondere B und B beides diagonalisierende Basen, so haben MB (β) und MB (β)
gleich viele Nullen auf der Diagonale.

Definition 7.26. Zu einer symmetrischen Bilinearform β : V × V → K heißt

N(β) := {v ∈ V | β(v, w) = 0 ∀w ∈ V }

der Nullraum von β.

Beispiele werden wir uns gleich noch ansehen. Vorher folgende Beobachtung:

Lemma 7.27. Der Nullraum einer symmetrischen Bilinearform β : V × V → K ist ein


Untervektorraum von V.

Beweis. a) Wegen β(0, w) = 0 für alle w ∈ V ist 0 ∈ N(β).


b) Seien α, α ∈ K und v, v  ∈ N(β). Dann gilt für alle w ∈ V:

β(α · v + α · v , w) = α · β(v, w) +α β(v , w) = 0.


()*+ ()*+
=0 =0

Also ist auch α · v + α · v  ∈ N(β). 

Lemma 7.28. Sei B = (b1, . . . , bn ) eine diagonalisierende Basis für die symmetrische Bili-
nearform β. Dann wird der Nullraum N(β) aufgespannt durch die Basisvektoren aus B mit
β(bi, bi ) = 0.


n
Beweis. a) Sei β(bi, bi ) = 0. Dann gilt für jedes w ∈ V, w = wj bj:
j=1

  n 
n
β(bi, w) = β bi, wj bj = w j β(bi, b j ) = 0.
j=1 j=1

Also ist bi ∈ N(β). Da N(β) ein Untervektorraum ist, ist dann auch die lineare Hülle der
Basisvektoren bi mit β(bi, bi ) = 0 in N(β) enthalten.
7.1. Bilineare Abbildungen 351


n
b) Sei umgekehrt v ∈ N(β), v = vi bi . Ist nun β(b k , b k )  0, dann ist
i=1


n 
n
0 = β(v, b k ) = β vi bi, b k = vi β(bi, b k ) = vk β(b k , b k ).
i=1 i=1
()*+
=0 für ik

Wegen β(b k , b k )  0 folgt vk = 0. Also liegt v in der linearen Hülle der Basisvektoren aus B
mit β(bi, bi ) = 0. 

Insbesondere ist die Dimension des Nullraums N(β) genau die Anzahl der Basisvektoren aus
B mit β(bi, bi ) = 0, d.h. genau die Anzahl der Nullen auf der Diagonalen der darstellenden
Diagonalmatrix MB (β). Gemäß der Dimensionsformel können wir das auch ausdrücken durch

dim(N(β)) = dim(V) − rg(MB (β)). (7.1)

Formel (7.1) ist auch richtig, wenn B nicht diagonalisierende Basis ist, da der Rang der
darstellenden Matrix MB (β) für alle Basen derselbe ist.

Definition 7.29. Eine symmetrische Bilinearform heißt ausgeartet (oder auch degeneriert
oder entartet), falls N(β)  {0}.

Entsprechend Gleichung (7.1) ist β genau dann ausgeartet, wenn dim(V) > rg(MB (β)). In
anderen Worten: β ist genau dann nicht ausgeartet, wenn die darstellende Matrix bzgl. einer
(und damit bzgl. aller) geordneten Basis invertierbar ist.

Beispiel 7.30. Das euklidische Skalarprodukt auf V = Rn hat bzgl. der Standardbasis die
Einheitsmatrix als darstellende Matrix. Also ist dim(N(β)) = n − n = 0. Das euklidische
Skalarprodukt ist daher nicht ausgeartet.
Der Nullraum besteht in diesem Fall ja auch genau aus den Vektoren, die auf allen Vektoren
senkrecht stehen. Das tut nur der Nullvektor.

Beispiel 7.31. In Beispiel 7.10 haben wir den Vektorraum der Polynomfunktionen vom
Grad ≤ 3 auf dem Einheitsintervall [0, 1] zusammen mit einer durch ein Integral definierten
symmetrischen Bilinearform betrachtet. Wegen

1 1 1

1 2 3 4
1 1 1 1
5 1
det 21 3 4
1 = 0
3 1 1  6.048.000
4 5 6
1 1 1 1
4 5 6 7

ist die darstellende Matrix invertierbar und die Bilinearform somit nicht ausgeartet.
352 7. Bilineare Algebra

Beispiel 7.32. In Beispiel 7.24 haben wir die diagonalisierende Basis B = (b1, b2, b3 ) =
1 1 0




0 , −1 , 0 gefunden. Wir hatten auch gesehen, dass β(b1, b1 )  0, β(b2, b2 )  0 und
  
0 0  1
β(b3, b3 ) = 0. Also wird der Nullraum durch b3 = e3 aufgespannt, N(β) = Q · e3 .

Bemerkung 7.33. Ist B = (b1, . . . , bn ) eine diagonalisierende Basis für β auf V, d.h.


α1 0
. . 
MB (β) = . ,

0 αn 
so ist β genau dann nicht ausgeartet, wenn alle α j  0 sind.
Allgemein können wir definieren W := L({b j | α j  0}). Da N(β) von den anderen Basisvek-
toren aufgespannt wird, gilt nun V = W ⊕ N(β). Schränken wir β auf den Untervektorraum
W ein, so erhalten wir eine nicht ausgeartete Bilinearform, da die darstellende Matrix von
β|W×W : W × W → K die Diagonalmatrix ist, auf der nur die Diagonaleinträge α j  0
vorkommen.
Fazit: Wir können für eine beliebige symmetrische Bilinearform β den zugrundeliegenden
endlich-dimensionalen Vektorraum V in eine Summe V = W ⊕ N(β) zerlegen, so dass die
Einschränkung von β auf W nicht ausgeartet ist.

Satz 7.34 (Sylvester). Sei V ein endlich-dimensionaler R-Vektorraum und β : V × V → R


eine symmetrische Bilinearform. Dann existiert eine geordnete Basis B von V, so dass


1
.. 
. 


1 

()*+ 

r+ 

−1 

. .. 

MB (β) = .

−1 
()*+ 


r− 

0 

.. 
. 

0 

()*+ 
r0 
Dabei sind r+, r− und r0 durch β eindeutig bestimmt.
7.1. Bilineare Abbildungen 353

Beweis. a) Sei B = (b1, . . ., bn ) eine diagonalisierende Basis für β von V, d.h.


α1 0
. . 
M (β) =
B . .

0 αn 
Durch Umsortieren der Basisvektoren können wir erreichen, dass zunächst die positiven Dia-
gonaleinträge kommen, dann die negativen und schließlich die Nullen, d.h. α1, . . . , αr+ > 0,
αr+ +1, . . . , αr+ +r− < 0 und αr+ +r− +1 = . . . = αn = 0. Wir setzen

⎪ √1 · b für 1 ≤ j ≤ r+,


⎨ α1j j


b j := √−α j · b j für r+ + 1 ≤ j ≤ r+ + r−,



⎪ bj für r+r− + 1 ≤ j ≤ n.

Damit erhalten wir eine neue geordnete Basis B = (b1, . . ., bn ) von V. Für i  j folgt aus
β(bi, bj ) = 0 sofort, dass β(bi, b j ) = 0. Außerdem ist




1
β(bj , bj ) für 1 ≤ j ≤ r+,
⎨ αj

β(b j , b j ) = −1  
α j β(b j , b j ) für r+ + 1 ≤ j ≤ r+ + r−,


⎪  
⎪ β(b j , b j ) für r+r− + 1 ≤ j ≤ n,


⎪ für 1 ≤ j ≤ r+,



1
= −1 für r+ + 1 ≤ j ≤ r+ + r−,


⎪0 für r+r− + 1 ≤ j ≤ n.

Damit haben wir die gewünschte Matrixdarstellung erreicht.
b) Nun könnte es noch sein, dass es verschiedene Basen wie im Beweisteil a) gibt, die zu darstel-
lenden Diagonalmatrizen mit unterschiedlichen Werten für r+ , r− und r0 führen. Daher müssen
wir diese drei Zahlen noch allein durch β, ohne Bezugnahme auf eine Basis charakterisieren.
Wir wissen bereits, dass r0 = dim(N(β)). Also ist r0 durch β allein festgelegt. Bleibt zu zeigen,
dass r+ durch β festgelegt ist, denn dann ist es auch r− = dim(V) − r+ − r0 .
c) Zwischenbehauptung:
 
r+ = max dim(W) | W ⊂ V Untervektorraum, so dass q β (v) > 0 ∀v ∈ W \ {0} .

 der Zwischenbehauptung: Wir geben dem fraglichen Maximum einen Namen, m :=


Beweis
max dim(W) | W ⊂ V Untervektorraum, so dass q β (v) > 0 ∀v ∈ W \ {0} .

r+
c1) Wir zeigen zunächst m ≥ r+ . Dazu setzen wir W0 := L(b1, . . ., br+ ). Für v = vj bj ∈
j=1
W0 \ {0} gilt nun

r+ 
r+ 
r+ 
r+
q β (v) = β(v, v) = β v j b j, vk bk = v j vk β(b j , b k ) = v 2j > 0.
j=1 k=1 j,k=1 ()*+ j=1
9
0, j  k
=
1, j = k
354 7. Bilineare Algebra

Also ist m ≥ dim(W0 ) = r+ .


c2) Bleibt noch zu zeigen, dass m ≤ r+ . Sei W ⊂ V ein Untervektorraum mit dim(W) > r+ .
Wir haben zu zeigen, dass ein v ∈ W \ {0} existiert mit q β (v) ≤ 0. Wegen
dim(W) + dim(L(br+ +1, . . ., bn )) > r+ + r− + r0 = dim(V)
muss dim(W ∩ L(br+ +1, . . ., bn )) ≥ 1 sein. Also gibt es ein v ∈ W ∩ L(br+ +1, . . . , bn ) mit v  0.
n n
Wir schreiben v = v j b j . Dann sehen wir q β (v) = v 2j β(b j , b j ) ≤ 0.
j=r+ +1 j=r+ +1 ()*+
≤0
Die Zwischenbehauptung und damit auch der Satz sind bewiesen. 

Bemerkung 7.35. Analog wie im Beweis kann man auch r− charakterisieren. Es gilt:
 
r− = max dim(W) | W ⊂ V Untervektorraum, so dass q β (v) < 0 ∀v ∈ W \ {0} .

Korollar 7.36. Sei A ∈ Mat(n, R) symmetrisch. Dann gibt es eine invertierbare Matrix
T ∈ GL(n, R), so dass T  · A · T eine Diagonalmatrix ist, deren Diagonaleinträge nur die
Werte 1, −1 und 0 annimmt.

Beweis. Die Matrix A ist darstellende Matrix einer symmetrischen Bilinearform auf Rn bzgl.
der Standardbasis von Rn . Nach Satz 7.34 gibt es eine Basis von Rn bzgl. derer die darstellende
Matrix die gewünschte Diagonalform hat. Ist nun T die Transformationsmatrix für diese beiden
Basen, dann folgt die Behauptung aus Proposition 7.11. 

Definition 7.37. Sei V ein reeller Vektorraum. Eine symmetrische Bilinearform


β : V × V → R heißt

◦ positiv definit, falls q β > 0 ist auf V \ {0},

◦ negativ definit, falls q β < 0 ist auf V \ {0},

◦ indefinit, falls es v1, v2 ∈ V gibt mit q β (v1 ) > 0 und q β (v2 ) < 0,

◦ positiv semidefinit, falls q β ≥ 0 ist auf V und

◦ negativ semidefinit, falls q β ≤ 0 ist auf V.

Bemerkung 7.38. Sei V ein endlich-dimensionaler reeller Vektorraum und β eine symme-
trische Bilinearform auf V. Wählen wir eine Basis B = (b1, . . ., bn ) wie in Satz 7.34. Wenn

wir die Vektoren v ∈ V in dieser Basis ausdrücken, v = nj=1 v j b j , dann erhalten wir für die
zugehörige quadratische Form
q β (v) = v12 + . . . + vr2+ − vr2+ +1 − . . . − vr2+ +r− .
7.1. Bilineare Abbildungen 355

Daher können wir die Bedingungen an β aus obiger Definition folgendermaßen an den Größen
r+ , r− und r0 ablesen:

ausgeartet r0 > 0
positiv definit r− = r0 = 0
negativ definit r+ = r0 = 0
indefinit r+ > 0 und r− > 0
positiv semidefinit r− = 0
negativ semidefinit r+ = 0
Tab. 26 Typen symmetrischer Bilinearformen

Beispiel 7.39. Für das euklidische Skalarprodukt auf Rn ist r+ = n und r− = r0 = 0. Es ist
daher positiv definit. Das bedeutet ja nichts anderes als die Tatsache, dass die Norm (oder
genauer, ihr Quadrat) eines Vektors v  0 stets positiv ist.

Beispiel 7.40. Das Minkowski-Produkt auf dem Rn ist definiert durch


v, w := v1 w1 + . . . + vn−1 wn−1 − vn wn .
Es wird uns noch im Zusammenhang mit der Geometrie von Kegelschnitten von Nutzen sein.
Es spielt aber auch eine zentrale Rolle in Einsteins spezieller Relativitätstheorie. Wir lesen
sofort ab, dass r+ = n − 1, r− = 1 und r0 = 0. Also ist das Minkowski-Produkt indefinit und
nicht ausgeartet.

Die Berechnung von Skalar- und Minkowskiprodukten können Sie hier üben.
Achtung: in der Übung wird eine andere Konvention verwendet. Dort befindet
sich das Minuszeichen vor der ersten Komponente, nicht vor der letzten.
http://ueben.cbaer.eu/12.html
Zum Schluss dieses Abschnitts ein Kriterium, wie man einer symmetrischen Bilinearform
mittels Determinanten ansehen kann, ob sie positiv definit ist. Unter den Hauptminoren einer
quadratischen Matrix A versteht man dabei die Determinanten der quadratischen Teilmatrizen
von A, die „links oben“ in A sitzen. Genauer, ist


a11 . . . a1n
. . 
A = .. . . . ..  ,

a n1 . . . a nn 
dann sind die Hauptminoren die Determinanten der Matrizen


a11 . . . a1 j
. . 
A j := .. . . . ..  ,

a j1 . . . a j j 
mit j = 1, . . ., n.
356 7. Bilineare Algebra

Beispiel 7.41. Die Matrix


1 2 3


A = 4 5 6
7 8 9
hat die Hauptminoren

  1 2 3
1 2

det(1) = 1, det = −3 und det 4 5 6 = 0.

4 5
7 8 9

Satz 7.42 (Hauptminorenkriterium für Definitheit). Sei V ein endlich-dimensionaler re-


eller Vektorraum und B = (b1, . . . , bn ) eine geordnete Basis von V . Sei β : V × V → R eine
symmetrische Bilinearform. Sei A = MB (β) die darstellende Matrix von β bzgl. B. Dann sind
äquivalent:

(1) Die Bilinearform β ist positiv definit.

(2) Die Hauptminoren von A sind alle positiv.

Natürlich kann man mit diesem Kriterium auch auf negative Definitheit testen, indem man es
auf −β anwendet. In anderen Worten, β ist negativ definit genau dann, wenn alle Hauptminoren
von −A positiv sind. Vorsicht: Das ist nicht dasselbe wie zu verlangen, dass die Hauptminoren
von A negativ sind!

Beweis von Satz 7.42. Zu „(1)⇒(2)“:


Sei β positiv definit. Nach dem Satz 7.34 von Sylvester können wir eine Basis B von V finden,
so dass
MB (β) = 1n
gilt. Ist T = TBB ∈ GL(n, R) die Transformationsmatrix für die Basen B und B, dann gilt wegen
Proposition 7.11

A = MB (β) = T  · MB (β) · T = T  · 1n · T = T  · T

und daher
det(A) = det(T  · T) = det(T  ) det(T) = det(T)2 > 0.
Die darstellende Matrix A selbst hat also schon mal positive Determinante. Sei nun j ∈
{1, . . ., n} und W ⊂ V der Untervektorraum, der von b1, . . ., b j aufgespannt wird. Dann ist
A j die darstellende Matrix der Einschränkung von β auf W × W. Da Einschränkungen positiv
definiter Bilinearformen stets wieder positiv definit sind, muss nach dem eben Bewiesenen
auch A j positive Determinante haben.
7.1. Bilineare Abbildungen 357

Zu „(2)⇒(1)“:
Die Hauptminoren von A seien positiv. Wir zeigen, dass β positiv definit ist, durch vollständige
Induktion nach der Dimension n von V.
Induktionsanfang: n = 1.
In diesem Fall ist V = R · b1 und A = (a11 ). Es gilt a11 = det(A) > 0. Für jeden Vektor v = tb1
ist dann
β(v, v) = t 2 β(b1, b1 ) = t 2 a11 ≥ 0
und „= 0“ nur dann, wenn t = 0, d.h. wenn v = 0. Also ist β positiv definit.
Induktionsschritt: Sei n > 1.
Sei W der (n−1)-dimensionale Untervektorraum von V , der von b1, . . . , bn−1 aufgespannt wird.
Dann hat die Einschränkung von β auf W die darstellende Matrix An−1 und somit positive
Hauptminoren. Nach Induktionsvoraussetzung ist β|W×W positiv definit. Nach dem Satz 7.34
von Sylvester gibt es eine Basis (b1, . . ., bn−1 ) von W, so dass M(b1 ,...,bn−1 ) (β|W×W ) = 1n−1 . Wir
 n−1
setzen bn := bn − n−1    
k=1 β(bn, b k )b k . Da die Summe k=1 β(bn, b k )b k in W liegt, bn aber nicht,
   
ist auch bn  W. Damit ist B := (b1, . . ., bn ) eine Basis von V. Für j = 1, . . ., n − 1 gilt

 
n−1

β(bj , bn ) =β bj , bn − β(bn, bk )bk
k=1

 
n−1
= β bj , bn ) − β(bn, bk ) β(bj , bk )
k=1 ()*+
=0 für jk
 
= β bj , bn ) − β bj , bn )
= 0.

Also ist

1
.. 
. 
MB (β) =  mit c = β(bn, bn ).
1 

c

Mit der Transformationsmatrix T = TBB ist

c = det(MB (β)) = det(T  · MB (β) · T) = det(T)2 · det(A) > 0.

Bzgl. der Basis B := (b1, . . . , bn−1, √1c bn ) hat β die darstellende Matrix 1n . Also ist β positiv
definit. 

Beispiel 7.43. In der Analysis lernt man, dass eine zweimal stetig differenzierbare Funktion
f : Rn → R in einem Punkt ein isoliertes lokales Minimum hat, wenn der Gradient der
Funktion dort verschwindet und die Hessematrix in diesem Punkt positiv definit ist. Wenden
358 7. Bilineare Algebra

wir dies auf die Funktion f : R2 → R, f (x, y) = 3x 2 − 2xy + 3y 2 , im Ursprung (0, 0) an. Für
den Gradienten erhalten wir
$ %
∂f ∂f
∇ f (x, y) = (x, y), (x, y) = (6x − 2y, −2x + 6y).
∂x ∂y

Der Gradient verschwindet für (x, y) = (0, 0). Für die Hessematrix der zweiten Ableitungen
erhalten wir  ∂2 f   
∂2 f
(x, y) ∂ y (x, y) 6 −2
Hesse f (x, y) = ∂∂2x f = .
2 x∂
∂2 f
∂ y∂ x (x, y) (x, y) −2 6
∂x 2

Um zu sehen, dass diese Matrix positiv definit ist, müssen wir nach Satz 7.42 lediglich
überprüfen, dass derEintrag links
 oben, also 6, positiv ist, und dass die Determinante positiv
6 −2
ist. In der Tat ist det = 32 > 0. Also hat f in (0, 0) ein isoliertes lokales Minimum.
−2 6

7.2. Quadriken und Kegelschnitte


Wir werden symmetrische Bilinearformen einsetzen, um die Geometrie bestimmter Kurven in
der Ebene zu untersuchen. Sei dazu β eine symmetrische Bilinearform auf R2 . Wie sieht dann
die Menge q −1β () = {v ∈ R | q β (v) = } aus? Kurven dieser Form nennt man Quadriken.
2

Wir werden dabei verschiedene Fälle unterscheiden, je nachdem welche Werte die Zahlen r+ ,
r− und r0 aus Satz 7.34 annehmen. Da r+ +r− +r0 = 2 ist, gibt es nicht allzu viele Möglichkeiten.

Fall 1: r+ = 2 und r− = r0 = 0, d.h. β ist positiv definit. Ist  negativ, so ist q −1


β () leer und
−1
für  = 0 ist q β (0) = {0}. Dies liegt daran, dass β positiv definit ist und daher q β ≥ 0 und
q β (v) = 0 nur für v = 0.
Interessant ist also nur der Fall, dass  > 0. Dann nennt man q −1
β () eine Ellipse.
Hier können Sie sich q −1
β () für positiv definites β und für die verschiedenen
Werte von  in einer interaktiven 3D-Grafik ansehen:
http://ueben.cbaer.eu/Q01.html

Beispiel 7.44. Sei β das euklidische Skalarprodukt auf R2 . Dann ist

q −1
β () = {v ∈ R | v, v = }
2

= {v ∈ R2 | v 2 = }

= {v ∈ R2 | v = },

also ein Kreis vom Radius .

Kreise sind also Beispiele für Ellipsen. Tatsächlich sind die Ellipsen gerade die Kurven, die
man durch Anwenden einer linearen Abbildung auf einen Kreis bekommt:
7.2. Quadriken und Kegelschnitte 359

Proposition 7.45. Sei K = {v ∈ R2 | v = 1} der Einheitskreis mit Mittelpunkt 0. Dann ist
E ⊂ R2 genau dann eine Ellipse, wenn es ein T ∈ GL(2, R) gibt mit E = T(K).

Beweis. Zu „⇐“:
Sei E = T(K) für ein T ∈ GL(2, R). Wir definieren
β(v, w) := T −1 v, T −1 w.
Dann ist β eine symmetrische Bilinearform auf R2. Wegen β(v, v) = T −1 v, T −1 v = T −1 v 2 ≥
0 ist β positiv semidefinit. Ist β(v, v) = 0, so ist T −1 v = 0, also T −1 v = 0 und damit v = 0.
Also ist β sogar positiv definit.
Nun ist
q β (v) = β(v, v) = 1 ⇔ T −1 v, T −1 v = 1 ⇔ T −1 v = 1 ⇔ T −1 v ∈ K ⇔ v ∈ T(K).
Dies zeigt T(K) = q −1
β (1) und damit ist T(K) eine Ellipse.

Zu „⇒“:
Sei nun β eine positiv definite symmetrische Bilinearform und E = q −1 β () mit  > 0 eine
Ellipse. Gemäß Satz 7.34 finden wir eine geordnete Basis B = (b1, b2 ) von R2 , so dass die
darstellende Matrix von β gegeben ist durch
 
1 0
MB (β) = .
0 1
Bezüglich der Standardbasis B = (e1, e2 ) ergibt sich die darstellende Matrix gemäß der Trans-
formationsformel Proposition 7.11 als
MB (β) = (TBB ) · MB (β) · TBB = (TBB ) · TBB .
Nun ist
v ∈ E = q −1
β () ⇔ β(v, v) = 
⇔ v  · MB (β) · v = 
⇔ v  · (TBB ) · TBB · v = 
⇔ (TBB · v) · (TBB · v) = 
⇔ TBB v, TBB v = 

⇔ TBB v = 
1
⇔  √ TBB · v = 1

1 B
⇔ √ TB · v ∈ K .

 −1
Also ist E = T(K) mit T = √1 T B
 B
∈ GL(2, R). 
360 7. Bilineare Algebra

 
a 0
Beispiel 7.46. Sei T = ∈ GL(2, R) mit a, b > 0 Dann ist also E = T(K) eine Ellipse.
0 b
Es gilt
v 2 v 2
v ∈ E ⇔ T −1 v ∈ K ⇔
1 2
+ = 1.
a b

q −1
β ()
b

−a a 0 = q −1
β (0)

−b
Abb. 107 Ellipsen

Man nennt dann a und b die Halbachsen der Ellipse. Der Spezialfall a = b entspricht gerade
dem, dass die Ellipse ein Kreis ist. Dann spricht man statt von Halbachsen vom Radius.

Bemerkung 7.47. Wir erinnern uns, dass der Einheitskreis K durch Kosinus und Sinus para-
metrisiert werden kann:   
cos ϕ 
K= ϕ∈R .
sin ϕ 

Also kann jede Ellipse E = T(K) parametrisiert werden durch


   
cos ϕ 

E= T· ϕ∈R .
sin ϕ 

Fall 2: r− = 2 und r+ = r0 = 0, d.h. β ist negativ definit. Dies liefert geometrisch nichts
Neues, denn dann ist −β ist eine positiv definite symmetrische Bilinearform. Daher ist dann
q −1 −1 −1
β () = ∅, wenn  > 0, es ist q β (0) = {0} und q β () ist eine Ellipse, falls  < 0.

Hier können Sie sich q −1


β () für negativ definites β und für die verschiedenen
Werte von  in einer interaktiven 3D-Grafik ansehen:
http://ueben.cbaer.eu/Q02.html
Fall 3: r+ = r− = 1 und r0 = 0, d.h. β ist indefinit. Gemäß Satz 7.34 wählen wir eine Basis
B = (b1, b2 ) von R2 mit
 
1 0
MB (β) = .
0 −1
7.2. Quadriken und Kegelschnitte 361

Wir berechnen für  = 0:


q −1
β (0) = {v ∈ R | v = v1 b1 + v2 b2, v1 − v2 = q β (v) = 0}
2 2 2

= {v ∈ R2 | v = v1 b1 + v2 b2, (v1 + v2 )(v1 − v2 ) = 0}


= {v ∈ R2 | v = v1 b1 + v2 b2, v1 = v2 } ∪ {v ∈ R2 | v = v1 b1 + v2 b2, v1 = −v2 }.
Wir erhalten also zwei sich im Ursprung schneidende Geraden, ein Geradenkreuz.
Für  > 0 erhalten wir
q −1
β () = {v ∈ R | v = v1 b1 + v2 b2, v1 − v2 = }
2 2 2
9  :
= v ∈ R2 | v = v1 b1 + v2 b2, v1 = ± v22 + 

und für  < 0 entsprechend


9  :
q −1
β () = v ∈ R2
| v = v b
1 1 + v b ,
2 2 2v = ± v1
2−  .

Für   0 nennt man q −1 β () eine Hyperbel. Jede Hyperbel hat zwei Zweige. In obiger
Beschreibung sind die Zweige für  > 0 gegeben durch
9  : 9  :
v ∈ R | v1 = +  + v2
2 2 und v ∈ R | v1 = −  + v2 .
2 2

Der Fall  < 0 ist analog.


Hier können Sie sich q −1
β () für indefinites β und für die verschiedenen Werte
von  in einer interaktiven 3D-Grafik ansehen:
http://ueben.cbaer.eu/Q03.html

 
1 0
Definition 7.48. Für β : R2 × R2 → R, β(v, w) = v · · w = v1 w1 − v2 w2 , heißt
0 −1
   
v 

H := q −1
1
β (1) = ∈ R2  v12 − v22 = 1

v2

die Standardhyperbel.

Kann man Hyperbeln ähnlich wie Ellipsen parametrisieren? Man kann. Dazu muss man die
trigonometrischen Kosinus- und Sinusfunktionen durch ihre hyperbolischen Vettern ersetzen.
In Anhang B.5 findet man alles, was wir über diese Funktionen wissen müssen.

Bemerkung 7.49. Die beiden Zweige der Standardhyperbel werden wie folgt parametrisiert:
     
cosh ϕ  − cosh ϕ 
H= ϕ∈R ∪ ϕ∈R .
sinh ϕ  sinh ϕ 
362 7. Bilineare Algebra

cosh(ϕ)

sinh(ϕ)
|
ϕ |
−1 1

Abb. 108 Parametrisierung der Standardhyperbel

Beweis der Bemerkung. Wegen Proposition B.11 (i) liegt


 tatsächlich jeder Punkt der Form
± cosh(ϕ)
auf H. Sei umgekehrt v ∈ H, d.h. v1 = ± 1 + v22 . Wir betrachten nur den Fall
sinh(ϕ)

v1 = + 1 + v22 , der andere ist analog. Nach Proposition B.11 (v) existiert ein ϕ ∈ R mit
 
sinh(ϕ) = v2 . Dann gilt für cosh(ϕ) = 1 + sinh(ϕ)2 = 1 + v22 = v1 und somit
 
cosh(ϕ)
v= . 
sinh(ϕ)

In Aufgabe 7.9 wird gezeigt, dass eine Menge H1 ⊂ R2 genau dann eine Hyperbel ist, wenn es
ein T ∈ GL(2, R) gibt mit H1 = T(H). Dabei ist H die Standardhyperbel. Insbesondere werden
die beiden Zweige von H1 also wie folgt parametrisiert:
       
cosh ϕ  − cosh ϕ 
H1 = T · ϕ∈R ∪ T· ϕ∈R .
sinh ϕ  sinh ϕ 

Fall 4: r+ = r0 = 1 und r− = 0, d.h. β ist positiv semidefinit, aber nicht positiv definit und
β  0. Dann können wir eine Basis b = (b1, b2 ) von R2 so wählen, dass
 
1 0
MB (β) = .
0 0

Also ist

q −1
β () = {v ∈ R | v = v1 b1 + v2 b2, 1 · v1 + 0 · v2 = }
2 2 2

= {v ∈ R2 | v = v1 b1 + v2 b2, v12 = }

Ist nun  < 0, so ist q −1


β () = ∅. Für  = 0 erhalten wir

q −1
β () = {v ∈ R | v = v1 b1 + v2 b2, v1 = 0}
2 2

= {v2 · b2 | v2 ∈ R}.
7.2. Quadriken und Kegelschnitte 363

Dies ist die Ursprungsgerade mit Richtungsvektor b2 . Ist  > 0, so ist


q −1
β () = {v ∈ R | v = v1 b1 + v2 b2, v1 = ± }
2
√ √
= {  · b1 + v2 · b2 | v2 ∈ R} ∪ {−  · b1 + v2 · b2 | v2 ∈ R}.

Dies ist die Vereinigung zweier paralleler Geraden.

q β ()
b2
b1
√ ·b 1
−b1

Abb. 109 Paar paralleler Geraden

Hier können Sie sich q −1


β () für positiv semidefinites β und für die verschie-
denen Werte von  in einer interaktiven 3D-Grafik ansehen:
http://ueben.cbaer.eu/Q04.html

Fall 5: r− = r0 = 1 und r+ = 0, d.h. β ist negativ semidefinit, aber nicht negativ definit und
β  0. Dieser Fall liefert geometrisch nichts Neues, da er auf Fall 4 zurückgeführt werden kann,
indem man β durch −β ersetzt. Wir erhalten wieder die leere Menge, eine Ursprungsgerade
oder zwei parallele Geraden.

Hier können Sie sich q −1


β () für negativ semidefinites β und für die verschie-
denen Werte von  in einer interaktiven 3D-Grafik ansehen:
http://ueben.cbaer.eu/Q05.html

Fall 6: r0 = 2 und r+ = r− = 0, d.h. β = 0. Dieser Fall ist uninteressant, weil q −1


β () entweder
leer ist (für   0) oder ganz R (für  = 0).
2

Damit haben wir alle Möglichkeiten für die Werte von r+ , r− und r0 abgehandelt. Wir fassen
die Ergebnisse in einer Tabelle zusammen.
364 7. Bilineare Algebra

r+ r− r0 β  q −1
β ()
>0 Ellipse
2 0 0 positiv definit =0 {0}
<0 ∅
0 Hyperbel
1 1 0 indefinit
=0 Geradenkreuz
>0 zwei parallele Geraden
1 0 1 positiv semidefinit =0 Gerade
<0 ∅
0 ∅
0 0 2 =0
=0 R2
Tab. 27 Klassifikation der Quadriken

Die Fälle von negativ definitem β ((r+, r−, r0 ) = (0, 2, 0)) und von negativ semidefinitem
((r+, r−, r0 ) = (0, 1, 1)) haben wir in der Tabelle weggelassen, da sie auf dieselben Ergebnisse
führen wie positiv definites bzw. positiv semidefinites β. Dabei wechselt lediglich  das
Vorzeichen.
Von einer Quadrik spricht man nur, wenn q −1 β () tatsächlich eine Kurve ist, d.h. im Fall einer
Ellipse, einer Hyperbel, eines Geradenkreuzes, zweier paralleler Geraden oder einer Geraden.
Dabei werden die Ellipsen und die Hyperbeln auch als nichtausgeartete Quadriken bezeichnet.
Eine Kurvenart, die meist auch den Quadriken zugeordnet wird, fehlt hier noch, nämlich die
Parabeln. Auf die kommen wir gleich zu sprechen.
Den Rest dieses Abschnitts widmen wir den Kegelschnitten. Zur Vorbereitung zeigen wir einen
Satz, der einen Zusammenhang zwischen Bilinearformen und linearen Abbildungen herstellt.

Satz 7.50. Sei V ein endlich-dimensionaler K-Vektorraum, sei β : V × V → K eine nicht


ausgeartete symmetrische Bilinearform. Sei l : V → K linear. Dann gibt es genau ein v ∈ V,
so dass
l(w) = β(v, w)
für alle w ∈ V gilt.

Beweis. Zu jedem v ∈ V ist lv : V → K mit lv (w) := β(v, w) linear, da β im zweiten Argument


linear ist. Wir haben also eine Abbildung

L : V → Hom(V, K) mit L(v) := lv .

Die Abbildung L ist linear, da β im ersten Argument linear ist. Für den Kern von L berechnen
wir:

ker(L) = {v ∈ V | L(v) = 0}
7.2. Quadriken und Kegelschnitte 365

= {v ∈ V | lv (w) = 0 ∀w ∈ V }
= {v ∈ V | β(v, w) = 0 ∀w ∈ V }
= N(β)
= {0},
da β nicht ausgeartet ist. Also ist L injektiv. Nun ist
dim Hom(V, K) = dim Mat(1 × n, K) = n = dim V .
Nach Korollar 4.20 ist L ein Isomorphismus. Also gibt es zu l ∈ Hom(V, K) genau ein v ∈ V
mit L(v) = l. 

Nun betrachten wir für V = R3 das Minkowski-Produkt ·, · aus Beispiel 7.40 und definieren
den Doppelkegel durch
C :={x ∈ R3 | x, x = 0} = {x ∈ R3 | x32 = x12 + x22 }.

x3
C
x2

x1

Abb. 110 Doppelkegel

Die Frage ist nun: Wie sehen die Schnittmengen von C mit affinen Ebenen aus? Sei hierzu
E0 ⊂ R3 ein 2-dimensionaler Untervektorraum und E = E0 +p eine entsprechende affine Ebene,
wobei p ∈ R3 . Um C∩E zu verstehen, müssen wir verschiedene Fälle unterscheiden, je nachdem
von welchem Typus die symmetrische Bilinearform β ist, die wir durch Einschränkung des
Minkowski-Produkts auf E0 × E0 bekommen. Sei also β := ·, ·|E0 ×E0 .
Fall I: β ist nicht ausgeartet, d.h. r0 = 0.
Wir zeigen zunächst folgende Behauptung:
Behauptung: Man kann p ∈ E so wählen, dass x, p = 0 für alle x ∈ E0 .
Beweis. Sei p0 ∈ E zunächst beliebig gewählt. Dann ist die Abbildung
l : E0 → R mit l(x) = x, p0 
366 7. Bilineare Algebra

linear. Da β nicht ausgeartet ist, gibt es nach Satz 7.50 ein y ∈ E0 , so dass

l(x) = β(x, y)

für alle x ∈ E0 ist. Daher gilt x, p0  = x, y und somit x, p0 − y = 0 für alle x ∈ E0 .
Wegen p0 ∈ E und y ∈ E0 ist auch p := p0 − y ∈ E. 

Sei nun p ∈ E so gewählt, dass x, p = 0 für alle x ∈ E0 ist. Die Punkte aus E schreiben wir
in der Form x + p mit x ∈ E0 . Nun ist x + p ∈ C genau dann, wenn

0 = x + p, x + p = x, x + 2 x, p +p, p = q β (x) + p, p ,
()*+
=0

d.h. genau dann, wenn x ∈ q −1


β (−p, p). Wir haben also gezeigt:

C ∩ E = q −1
β (−p, p) + p.

Behauptung: Es sind äquivalent:

(1) E = E0 ;

(2) p = 0;

(3) p, p = 0.

Beweis. Zu „(1) ⇒ (2)“:


Wegen E = E0 ist p ∈ E0 . Da β(p, x) = 0 für alle x ∈ E0 und β nicht ausgeartet ist, folgt p = 0.
Die Implikation „(2) ⇒ (3)“ ist trivial.
Zu „(3) ⇒ (1)“:
Sei p, p = 0. Wäre E  E0 , so wäre p  E0 . Dann würden E0 und p ganz R3 aufspannen.
Also wäre v, p = 0 für alle v ∈ R3 . Somit wäre p im Nullraum von ·, ·. Da das Minkowski-
Produkt nicht ausgeartet ist, wäre p = 0 und damit doch E = E0 . 

Fall IA: β ist positiv definit, d.h. r+ = 2, r− = 0 und r0 = 0.


Wäre p, p > 0, so wäre p  0 und damit p  E0 . Ein beliebiges v ∈ R3 ließe sich schreiben
als v = t · p + x mit t ∈ R und x ∈ E0 . Es gälte

v, v = t 2 p, p + 2t p, x + x, x = t 2 p, p + β(x, x) ≥ 0.
()*+ ()*+ ()*+
≥0 >0 ≥0

Dann wäre das Minkowski-Produkt positiv semidefinit, ist es aber nicht. Somit muss p, p ≤ 0
gelten.
Fall IA/1: E = E0 .
Dann ist p = 0 und C ∩ E = q −1 −1
β (0) + 0 = q β (0) = {0}, also ein Punkt.
7.2. Quadriken und Kegelschnitte 367

Abb. 111 Kegelschnitt ist ein Punkt

Fall IA/2: E  E0 .
Dann ist p, p < 0 und somit q −1
β (−p, p ) eine Ellipse.
()*+
>0

Abb. 112 Kegelschnitt ist eine Ellipse

Fall IB: β ist indefinit, d.h. r+ = r− = 1 und r0 = 0.


Fall IB/1: E = E0 .
Dann ist p = 0 und C ∩ E = q −1 β (0) ein Geradenkreuz.

Abb. 113 Kegelschnitt ist ein Geradenkreuz

Fall IB/2: E  E0 .
Dann ist p, p  0 und somit q −1
β (−p, p) eine Hyperbel.

Abb. 114 Kegelschnitt ist eine Hyperbel

Fall IC: β ist negativ definit, d.h. r− = 2 und r+ = r0 = 0.


Dieser Fall tritt nicht auf, denn sonst könnte man in Bemerkung 7.35 W = E0 nehmen und
368 7. Bilineare Algebra

würde erhalten, dass für das Minkowski-Produkt r− ≥ 2 gilt. Für das Minkowski-Produkt ist
aber r− = 1.
Fall II: β ist ausgeartet, d.h. r0 ≥ 1.
Fall IIA: β ist negativ semidefinit, d.h. r+ = 0 und r− = r0 = 1 oder r+ = r− = 0 und r0 = 2.
Dieser Fall tritt ebenfalls nicht auf, denn sonst wäre q·,· |E0 ≤ 0, andererseits ist jedoch
q·,· |E1 \{0} > 0, wobei E1 = {(x1, x2, 0) | x1, x2 ∈ R}. Nun ist
dim(E0 ∩ E1 ) = dim(E0 ) + dim(E1 ) − dim(E0 + E1 ) ≥ 1,
()*+ ()*+ ()*+
=2 =2 ≤3
also gäbe es ein v ∈ E0 ∩ E1 mit v  0. Dann wäre einerseits q·,· (v) ≤ 0 und andererseits
q·,· (v) > 0, Widerspruch!
Fall IIB: β ist positiv semidefinit und β  0, d.h. r+ = r0 = 1 und r− = 0.
Nun kann p leider im Allgemeinen nicht mehr so gewählt werden, dass x, p = 0 für alle
x ∈ E0 gilt, denn Satz 7.50 kann ja nicht mehr angewandt werden. Wir können aber dennoch
die Schnittmenge von p + E0 mit C wie gehabt durch
x + p ∈ C ⇔ 0 = x + p, x + p = q β (x) + l(x) + c
beschreiben, wobei l(x) = 2x, p und c = p, p ist.
Fall IIB/1: E = E0 .
Hier können wir p = 0 wählen. Dann ist l = 0 und c = 0 und damit C ∩ E = {x ∈ E0 | q β (x) =
0}. Das ist eine Gerade.

Abb. 115 Kegelschnitt ist eine Gerade

Fall IIB/2: E  E0 .
Dann ist p  E0 .
Behauptung: ker(l) ∩ N(β) = {0}.
Beweis. Sei x ∈ ker(l) ∩ N(β). Dann ist x, p = 0 und x, y = 0 für alle y ∈ E0 . Nun
spannen E0 und p ganz R3 auf, also ist x, z = 0 für alle z ∈ R3 . Da das Minkowski-Produkt
nicht ausgeartet ist, folgt x = 0. 

Definition 7.51. Sei V ein 2-dimensionaler R-Vektorraum. Sei β eine symmetrische Biline-
arform auf V mit r+ = r0 = 1 und r− = 0. Sei l : V → R linear mit ker(l) ∩ N(β) = {0}. Sei
c ∈ R. Dann nennt man die Menge

{x ∈ V | q β (x) + l(x) + c = 0}

eine Parabel.
7.2. Quadriken und Kegelschnitte 369

Also ist im Fall IIB/2 der Kegelschnitt C ∩ E nach Definition eine Parabel.

Abb. 116 Kegelschnitt ist eine Parabel

Das folgende Lemma besagt, dass man eine Parabel in einer geeigneten Basis durch die
bekannte Parabelgleichung beschreiben kann. Dies rechtfertigt Definition 7.51.

Lemma 7.52. Sei V ein 2-dimensionaler R-Vektorraum und P ⊂ V eine Parabel. Dann gibt
es eine Basis B = (b1, b2 ) und Konstanten a, b, d ∈ R mit a  0, so dass

P = {x1 b1 + x2 b2 | x2 = a(x1 + b)2 + d}.

x2

d
|

−b x1

Abb. 117 Parabel

Beweis. Wähle gemäß Satz 7.34 eine Basis B = (b1, b2 ) so, dass
 
1 0
MB (β) = .
0 0

Für ν := l(b1 ) und μ := l(b2 ) gilt dann l(x1 b1 + x2 b2 ) = νx1 + μx2 für alle x1, x2 ∈ R. Da
N(β) = R · b2 , bedeutet ker(l) ∩ N(β) = {0} nichts anderes als β  0. Sei nun x = x1 b1 + x2 b2 .
Dann ist x ∈ P genau dann, wenn
 ν 2 ν2
0 = q β (x) + l(x) + c = x12 + νx1 + μx2 + c = x1 + − + μx2 + c ,
2 4
370 7. Bilineare Algebra

also genau dann, wenn


1 ν 2 1  ν2
x2 = − x1 + + −c .
μ 2 μ 4
ν

1 ν2

Mit a := − 1μ , b := 2 und d := μ 4 − c folgt die Behauptung. 

Wir fassen zusammen:

Satz 7.53 (Kegelschnitte). Sei C ⊂ R3 der Doppelkegel und E ⊂ R3 eine affine Ebene
und E0 der zugehörige 2-dimensionale Untervektorraum. Dann gibt es genau die folgenden
Möglichkeiten:

r+ r− r0 β E C∩E
= E0 Punkt
2 0 0 positiv definit
 E0 Ellipse
= E0 Geradenkreuz
1 1 0 indefinit
 E0 Hyperbel
= E0 Gerade
1 0 1 positiv semidefinit
 E0 Parabel
Tab. 28 Kegelschnitte

Hierbei ist β = ·, ·|E0 ×E0 . 

Hier können Sie die verschiedenen Typen von Kegelschnitten in einer inter-
aktiven 3D-Grafik erkunden:
http://ueben.cbaer.eu/Q06.html

7.3. Euklidische Vektorräume


Wir kennen bereits das Skalarprodukt ·, · auf dem Rn . Es ist eine positiv definite symmetrische
Bilinearform. Wir abstrahieren nun wie folgt:

Definition 7.54. Sei V ein R-Vektorraum. Eine positiv definite symmetrische Bilinearform
·, · nennt man ein euklidisches Skalarprodukt oder auch einfach ein Skalarprodukt
auf V . Das Paar (V, ·, ·) heißt dann euklidischer Vektorraum.

Beispiel 7.55. Neben dem (Standard-)Skalarprodukt auf dem Rn kennen wir bereits auch
ein Skalarprodukt auf einem unendlich-dimensionalen Vektorraum. Wir betrachten V =
7.3. Euklidische Vektorräume 371

C 0 ([a, b], R) mit der durch Integration gegebenen symmetrischen Bilinearform

∫b
β( f , g) = f (x)g(x) dx.
a

Bleibt zu überlegen, dass diese Bilinearform positiv definit ist. Für jedes f ∈ V gilt

∫b
β( f , f ) = f (x)2 dx ≥ 0.
a

Also ist die Bilinearform β schon mal positiv semidefinit. Wenn β( f , f ) = 0 ist, dann ist f 2
eine stetige, nichtnegative Funktion, die Integral 0 hat. Also muss f 2 identisch 0 sein und damit
auch f . Für alle f  0 gilt daher β( f , f ) > 0, d.h. β ist positiv definit.

Ganz analog zum Standardskalarprodukt auf Rn definieren wir die Norm:

Definition 7.56. Sei (V, ·, ·) ein euklidischer Vektorraum. Für x ∈ V heißt dann
 
 x := x, x = q·,· (x)

die Norm von x.

Proposition 7.57 (Eigenschaften der Norm). Sei (V, ·, ·) ein euklidischer Vektorraum mit
zugehöriger Norm  · . Dann gilt für alle x ∈ V und alle α ∈ R:

(i)  x ≥ 0 .

(ii)  x = 0 ⇔ x = 0.

(iii) α · x = |α| ·  x.

Beweis. Aussage (i) ist trivial. Zu (ii):


Ist x = 0, so ist x, x = 0 und somit  x = 0. Gilt umgekehrt  x = 0, so ist x, x = 0.
Wegen der positiven Definitheit folgt x = 0.
Gleichung (iii) ist eine simple Rechnung:
 
αx = αx, αx = α2 ·  x 2 = |α| ·  x. 
372 7. Bilineare Algebra

Satz 7.58 (Cauchy-Schwarz-Ungleichung). Sei (V, ·, ·) ein euklidischer Vektorraum.
Dann gilt für alle x, y ∈ V:
|x, y| ≤  x ·  y.
Die Gleichheit gilt genau dann, wenn x und y linear abhängig sind.

In Satz 2.76 hatten wir die Cauchy-Schwarz-Ungleichung schon im Spezialfall des Standard-
skalarprodukts auf R2 bewiesen. Dabei hatten wir allerdings von der konkreten Definition
Gebrauch gemacht und mit den Komponenten der beteiligten Vektoren gerechnet. Das ist jetzt
nicht mehr möglich. Wir müssen nun einen Beweis finden, der lediglich benutzt, dass ·, · eine
positiv definite symmetrische Bilinearform ist.

Beweis von Satz 7.58. a) Ist x = 0 oder y = 0, so gilt die Aussage trivialerweise. Daher nehmen
wir von nun ab an, dass x  0 und y  0.
b) Ist  x =  y = 1, so gilt

0 ≤ x + y, x + y
= x, x + x, y + y, x + y, y
=  x 2 + 2x, y +  y 2
= 2 + 2x, y

und somit
−x, y ≤ 1.
Genauso sieht man
0 ≤ x − y, x − y = 2 − 2x, y
und daher
x, y ≤ 1.
Also ist
|x, y| ≤ 1 =  x ·  y.
c) Seien nun x und y mit  x  0,  y  0 beliebig. Dann ist
! ! ! !
! x ! ! !
! ! = 1 und ! y ! = 1,
!  x ! !  y !

x y
so dass wir Beweisteil b) auf x und  y anwenden können. Es folgt
5 6
 x y  1 1

1≥ , = · · |x, y|
 x  y   x  y

und daher
|x, y| ≤  x ·  y.
7.3. Euklidische Vektorräume 373

d) Die Cauchy-Schwarz-Ungleichung ist damit bewiesen. Bleibt der Gleichheitsfall zu disku-


tieren.
Betrachten wir den Fall, dass x und y linear abhängig sind. Dann ist einer der Vektoren ein
Vielfaches des anderen, also o.B.d.A. x = αy für ein α ∈ R. Insbesondere ist  x = |α| ·  y
und
|x, y| = |αy, y| = |α| ·  y 2 =  x ·  y.
Es gilt also Gleichheit in der Cauchy-Schwarz-Ungleichung.
e) Umgekehrt gelte |x, y| =  x ·  y. Wir müssen zeigen, dass dann x und y linear abhängig
sind. Ist x = 0 oder y = 0, so sind x und y sowieso linear abhängig und es ist nichts zu zeigen.
Daher können wir annehmen, dass  x  0 und  y  0.
1. Fall: Es gilt x, y =  x ·  y.
Wir berechnen
! !2 5 6
! x y !! x y x y
!
!  x −  y ! =  x −  y ,  x −  y
! ! 5 6 ! !2
! x !2 ! !
= !! ! −2 x , y +! y !
 x !  x  y !  y !
= 1 − 2 + 1 = 0.

Also ist  xx  −  yy = 0 und daher x =  xy · y. Also sind x und y linear abhängig.
2. Fall: Es gilt −x, y =  x ·  y.
Dann gilt −x, y =  − x ·  y. Nach dem ersten Fall sind also −x und y linear abhängig und
somit auch x und y. 

Korollar 7.59 (Dreiecksungleichung). Sei (V, ·, ·) ein euklidischer Vektorraum mit zuge-
höriger Norm  · . Dann gilt für alle x ∈ V und alle α ∈ R:

 x + y ≤  x +  y.

Beweis. Der Beweis ist derselbe wie der von Korollar 2.77, aber der Bequemlichkeit halber
führen wir ihn an dieser Stelle nochmal an. Für alle x, y ∈ V gilt wegen der Cauchy-Schwarz-
Ungleichung:

 x + y 2 =  x 2 + 2 x, y +  y 2 ≤  x 2 + 2 x  y +  y 2 = ( x +  y)2 .

Wurzelziehen liefert die Behauptung. 

Genau wie in Definition 2.95 können wir nun Innenwinkel definieren.


374 7. Bilineare Algebra

Definition 7.60. Sei (V, ·, ·) ein euklidischer Vektorraum. Für alle x, y ∈ V \ {0} heißt die
Zahl $ %
x, y
(x, y) := arccos ∈ [0, π]
 x ·  y
der Innenwinkel von x und y.

Wir beachten, dass die Definition nur sinnvoll ist, weil die Cauchy-Schwarz-Ungleichung gilt,
denn dadurch ist sichergestellt, dass das Argument des Arkuskosinus in [−1, 1] liegt.
Wie in R2 sagen wir im Fall (x, y) = π2 , d.h. im Fall x, y = 0, dass x und y aufeinander
senkrecht stehen. In diesem Fall schreiben wir x ⊥ y.
∫π
Beispiel 7.61. Sei V = C 0 ([0, π], R) und  f , g = 0
f (x)g(x) dx. Wir berechnen
∫π
1 π
sin, cos = sin(x) cos(x) dx = sin(x)2  x=0 = 0 − 0 = 0.
2
0

Also stehen Sinus und Kosinus aufeinander senkrecht.

Mitunter ist folgende Abkürzung bequem:

Definition 7.62. Ist I eine Menge, so schreibt man für i, j ∈ I:



1, i = j
δi j :=
0, i  j

Man nennt dann δi j das Kronecker’sche δ-Symbol.

Beispiel 7.63. Die Einheitsmatrix 1n hat die Einträge δi j . Hierbei ist I = {1, . . . , n}.

Bemerkung 7.64. Der Satz von Sylvester besagt für endlich-dimensionale euklidische Vek-
torräume V: Es gibt eine geordnete Basis B = (b1, . . ., bn ) von V , so dass
MB (·, ·) = 1n,
d.h. bi, b j  = δi j für alle i, j = 1, . . . n. Die Basisvektoren stehen also alle aufeinander
senkrecht und haben Norm 1.

Definition 7.65. Eine solche Basis heißt Orthonormalbasis von V. Allgemeiner heißt ein
Tupel (v1, . . . , vk ) von Vektoren aus V ein Orthonormalsystem, wenn für alle i und j gilt:
vi, v j  = δi j .
7.3. Euklidische Vektorräume 375

Beispiel 7.66. Die Standardbasis (e1, . . ., en ) von Rn ist eine Orthonormalbasis bzgl. des eu-

klidischen Standardskalarprodukts ·, ·, gegeben durch x, y = nj=1 x j y j .

Lemma 7.67. Jedes Orthonormalsystem ist linear unabhängig.

Beweis. Sei (v1, . . ., vk ) ein Orthonormalsystem. Seien α1, . . . , αk ∈ R, so dass


α1 v1 + · · · + αk vk = 0.
Für jedes i folgt dann:
0 = 0, vi  = α1 v1 + · · · + αk vk , vi  = α1 v1, vi  + · · · + αk vk , vi  = αi · 1,
also αi = 0. 

Wann immer wir eine Basis haben, können wir jeden Vektor des Vektorraumes eindeutig als
Linearkombination der Basisvektoren schreiben. Im Falle einer Orthonormalbasis lassen sich
die dabei auftretenden Koeffizienten leicht mit Hilfe des Skalarprodukts angeben.

Lemma 7.68. Sei V ein euklidischer Vektorraum und B = (b1, . . ., bn ) eine Orthonormal-
basis von V. Dann gilt für alle v ∈ V:

n
v= v, bi  · bi .
i=1


n
Beweis. Seien αi ∈ R die Koeffizienten, für die v = αi bi gilt. Dann folgt für jedes j:
i=1
5
n 6 n
v, b j  = αi bi, b j = αi bi, b j  = α j .
i=1 i=1

Also gilt:

n
v= v, bi bi . 
i=1

Definition 7.69. Sei V ein euklidischer Vektorraum und U ⊂ V ein Untervektorraum. Dann
heißt
U ⊥ := {v ∈ V | v ⊥ u ∀ u ∈ U}
orthogonales Komplement von U.
376 7. Bilineare Algebra

Lemma 7.70. Sei V ein endlich-dimensionaler euklidischer Vektorraum und U ⊂ V ein


Untervektorraum. Dann gilt:

(i) U ⊥ ist ebenfalls ein Untervektorraum von V.

(ii) V = U ⊕ U ⊥ .

Beweis. Zu (i):
Sicherlich ist 0 ∈ U ⊥ , da 0 auf alle Vektoren senkrecht steht. Seien v1, v2 ∈ U ⊥ und α1, α2 ∈ R.
Dann gilt für alle u ∈ U:

α1 v1 + α2 v2, u = α1 v1, u + α2 v2, u = α1 · 0 + α2 · 0 = 0.

Also ist α1 v1 + α2 v2 ∈ U ⊥ .

Zu (ii):
Zunächst zeigen wir V = U + U ⊥ . Sei B = (b1, . . . , br ) eine Orthonormalbasis von U. Sei
r
v ∈ V. Wir setzen u := v, bi bi ∈ U und w := v − u. Dann gilt v = u + w und es bleibt
i=1
w ∈ U ⊥ zu zeigen, d.h. w, x = 0 für alle x ∈ U.
r
Sei also x ∈ U beliebig. Wir schreiben x = αi bi . Dann ist
i=1
5 
r 6
w, x = v − u, αi bi
i=1
5 
r 
r 6
= v− v, b j b j , αi bi
j=1 i=1
5  r 6 5
r 
r 6
= v, αi bi − v, b j b j , αi bi
i=1 j=1 i=1

r 
r
= αi v, bi  − αi v, b j  b j , bi 
i=1 i, j=1 ()*+
=δi j

r 
r
= αi v, bi  − αi v, bi 
i=1 i=1
= 0.

Nun bleibt noch U ∩ U ⊥ = {0} zu zeigen:


Sei u ∈ U ∩ U ⊥ . Dann ist u 2 = u, u = 0, also u = 0. 

Beispiel 7.71. Sei V = R3 und U = R2 × {0}. In beiden skizzierten Fällen gilt V = U ⊕ W.


7.3. Euklidische Vektorräume 377

W W

U U

W = U⊥ W  U⊥
Abb. 118 Orthogonales Komplement

Definition 7.72. Sei V ein endlich-dimensionaler euklidischer Vektorraum und U ⊂ V ein


Untervektorraum. Dann heißt die lineare Abbildung PU : V → V mit PU |U = idU und
PU |U ⊥ = 0 Orthogonalprojektion auf U.

Bemerkung 7.73. Sei V ein endlich-dimensionaler euklidischer Vektorraum und U ⊂ V ein


Untervektorraum. Ist B1 = (b1, . . ., br ) eine Orthonormalbasis von U und B2 = (br+1, . . . , bn )
eine Orthonormalbasis von U ⊥ , dann ist B = (b1, . . ., bn ) eine Orthonormalbasis von V .
Für jedes v ∈ V ist die Aufspaltung gemäß V = U ⊕ U ⊥ gegeben durch


n 
r 
n
v= v, b j b j = v, b j b j + v, b j b j .
j=1 j=1 j=r+1
()*+ ()*+
∈U ∈U ⊥

Also ist

r
PU (v) = v, b j b j .
j=1

Wie bestimmt man eine Orthonormalbasis eines endlich-dimensionalen euklidischen


Vektorraums? Das Schmidt’sche Orthonormalisierungsverfahren oder Gram-Schmidt-
Verfahren macht aus einer beliebigen gegebenen geordneten Basis von V eine Ortho-
normalbasis und zwar so, dass für jedes k die ersten k Vektoren beider Basen dieselbe lineare
Hülle haben. Das Verfahren geht so:
Sei (v1, . . ., vn ) eine beliebige Basis von V .
1. Schritt: Setze b1 := vv11  .
(k + 1)-ter Schritt: Nehmen wir induktiv an, dass wir ein Orthonormalsystem (b1, . . ., b k ) mit
L(b1, . . ., b k ) = L(v1, . . ., vk ) gefunden haben. Wir setzen nun


k
vk+1 − vk+1, b j b j
vk+1 − PL(b1,...,bk ) (vk+1 ) j=1
b k+1 := = .
vk+1 − PL(b1,...,bk ) (vk+1 ) 
k
vk+1 − vk+1, b j b j 
j=1
378 7. Bilineare Algebra

Zunächst einmal bemerken wir, dass wir getrost durch die Norm teilen dürfen. Wegen der
linearen Unabhängigkeit von (v1, . . . , vn ) ist nämlich vk+1  L(v1, . . ., vk ) = L(b1, . . . , b k ) und
daher vk+1 − PL(b1,...,bk ) (vk+1 )  0.
Da wir durch die Norm geteilt haben, hat b k+1 die Norm 1. Außerdem ist vk+1 −PL(b1,...,bk ) (vk+1 )
nach Definition der Orthogonalprojektion aus L(b1, . . ., b k )⊥ . Daher bildet (b1, . . ., b k+1 ) eben-
falls ein Orthonormalsystem.
Ferner ist nach Definition b k+1 ∈ L(b1, . . ., b k , vk+1 ) = L(v1, . . ., vk, vk+1 ) und somit
L(b1, . . . , b k+1 ) ⊂ L(v1, . . . , vk+1 ). Wegen Lemma 7.67 ist (b1, . . ., b k+1 ) linear unabhängig.
Also haben sowohl L(b1, . . ., b k+1 ) als auch L(v1, . . ., vk+1 ) die Dimension k + 1 und stimmen
daher überein,
L(b1, . . ., b k+1 ) = L(v1, . . ., vk+1 ).

Beispiel 7.74. Sei V = R2 [x] = { f ∈ R[x] | deg( f ) ≤ 2}. Dann ist dim(V) = 3 und (v1, v2, v3 )
ist eine Basis von V , wobei v1 = 1, v2 = x und v3 = x 2 . Als euklidisches Skalarprodukt nehmen
∫1
wir  f , g = f (x)g(x) dx.
0
v1
∫1
1. Schritt: b1 := v1  = 1
1 = 1, denn 1 2 = 1, 1 = 12 dx = 1.
0
2. Schritt:
$ %
v2 − v2, b1 b1 x − 12 √ 1 √
b2 := = =2 3 x− = 3(2x − 1),
v2 − v2, b1 b1   x − 2 
1 2

∫1
denn v2, b1  = x · 1 dx = 1
2 und
0

! !2 ∫1 $ %2 ∫1 $ %
! 1 !! 1 1
!x − = x− dx = x −x+
2
dx
! 2! 2 4
0 0

x 3 x 2 x 1 1 1 1 1
= − +  = − + =
3 2 4 x=0 3 2 4 12

und daher  x − 12  = 1
√ .
2 3
v3 −v3,b1 b1 −v3,b2 b2
3. Schritt: b3 := v3 −v3,b1 b1 −v3,b2 b2  . Wir berechnen

∫1
1
v3, b1  = x 2 · 1 dx = ,
3
0
∫1 $ % √
√ ∫
1
√ √ x 4 x 3 1 3
v3, b2  = x · 3(2x − 1) dx = 3 · (2x − x ) dx = 3
2 3 2
−  = .
2 
3 x=0 6
0 0
7.4. Adjungierte Abbildungen und selbstadjungierte Endomorphismen 379

Also ist

1 3√ 1 1 1
v3 − v3, b1 b1 − v3, b2 b2 = x 2 − ·1− 3(2x − 1) = x 2 − − x + = x 2 − x + .
3 6 3 2 6
Ferner gilt
! ! ∫1 $ %2
! 2 1 !!2 1
!x − x + = x 2
− x + dx
! 6! 6
0
∫1 $ %
x2 1 1
= x − 2x +
4 3
− x+x +
2
dx
3 3 36
0
1 1 1 1 1 1
= − + − + +
5 2 9 6 3 36
1
=
180
und somit $ %
x2 − x + 1
6
√ 1
b3 =  = 180 x − x +
2
.
1 6
180
Die orthonormalisierte Basis lautet also
$ $ %%
√ √ 1
1, 3(2x − 1), 180 x 2 − x + .
6

7.4. Adjungierte Abbildungen und selbstadjungierte


Endomorphismen

Lemma 7.75. Seien (V, ·, ·V ) und (W, ·, ·W ) endlich-dimensionale euklidische Vektorräu-
me und sei ϕ : V → W linear. Dann gibt es genau eine Abbildung ψ : W → V, so dass

ϕ(v), wW = v, ψ(w) V (7.2)

für alle v ∈ V und w ∈ W. Diese Abbildung ist linear.

Beweis. a) Zur Existenz und Eindeutigkeit: Sei w ∈ W fest. Die Abbildung l : V → R,


l(v) = ϕ(v), wW ist linear, da ϕ linear ist und das Skalarprodukt im ersten Argument linear
ist. Nach Satz 7.50 gibt es genau ein Element z ∈ V mit l(v) = v, zV für alle v ∈ V. Also ist
ψ(w) := z die eindeutige Möglichkeit, ψ so zu definieren, dass (7.2) gilt.
b) Zur Linearität: Seien w1, w2 ∈ W und α1, α2 ∈ R. Dann gilt für alle v ∈ V:

v, ψ(α1 w1 + α2 w2 )V = ϕ(v), α1 w1 + α2 w2 W


380 7. Bilineare Algebra

= α1 ϕ(v), w1 W + α2 ϕ(v), w2 W
= α1 v, ψ(w1 )V + α2 v, ψ(w2 )V
= v, α1 ψ(w1 ) + α2 ψ(w2 )V .

Da ·, ·V nicht ausgeartet ist, folgt ψ(α1 w1 + α2 w2 ) = α1 ψ(w1 ) + α2 ψ(w2 ). 

Definition 7.76. Man schreibt für die Abbildung aus Lemma 7.75

ϕ : W → V

(statt ψ) und nennt sie die zu ϕ adjungierte Abbildung.

Die zu ϕ : V → W adjungierte Abbildung ϕ  : W → V ist also charakterisiert durch

ϕ(v), wW = v, ϕ  (w) V

für alle v ∈ V und alle w ∈ W.


Können wir die darstellenden Matrizen von ϕ  leicht aus denen von ϕ berechnen? Ja, das
können wir, jedenfalls bezüglich Orthonormalbasen: wir müssen lediglich die darstellende
Matrix transponieren.

Proposition 7.77. Seien (V, ·, ·V ) und (W, ·, ·W ) endlich-dimensionale euklidische Vek-
torräume mit Orthonormalbasen B bzw. B. Sei ϕ : V → W linear. Dann gilt:

MBB (ϕ  ) = MBB (ϕ) .

Beweis. Sei B = (b1, . . ., bn ) und B = (b1, . . ., bm ). Einerseits gilt für die darstellende Matrix
MBB (ϕ) immer
m
ϕ(b j ) = MBB (ϕ)i j · bi .
i=1
Für Orthonormalbasen gilt wegen Lemma 7.68 andererseits

m
; <
ϕ(b j ) = ϕ(b j ), bi W
· bi .
i=1

Also ist ; <


MBB (ϕ)i j = ϕ(b j ), bi W .
Analog ist ; <

MBB (ϕ  ) ji = ϕ  (bi ), b j V .
7.4. Adjungierte Abbildungen und selbstadjungierte Endomorphismen 381

Es folgt
 ; < ; < ; <
MBB (ϕ  ) ji = ϕ  (bi ), b j V = b j, ϕ  (bi ) V = ϕ(b j ), bi W = MBB (ϕ)i j . 

Definition 7.78. Sei V ein euklidischer Vektorraum. Ein Endomorphismus ϕ ∈ End(V )


heißt selbstadjungiert, wenn ϕ  = ϕ, d.h. falls für alle v, w ∈ V gilt:

ϕ(v), w = v, ϕ(w).

Wir erinnern uns daran, dass eine Matrix A ∈ Mat(n, R) symmetrisch heißt, falls A = A.

Korollar 7.79. Sei V ein endlich-dimensionaler euklidischer Vektorraum mit Orthonormal-


basis B. Ein Endomorphismus ϕ ∈ End(V) ist genau dann selbstadjungiert, wenn die dar-
stellende Matrix MB (ϕ) symmetrisch ist.

Beweis. Nach Proposition 7.77 ist MB (ϕ  ) = MB (ϕ) . Also ist ϕ  = ϕ genau dann, wenn
MB (ϕ) = MB (ϕ). 

Satz 7.80. Sei V ein endlich-dimensionaler euklidischer Vektorraum. Ist ϕ ∈ End(V ) selbst-
adjungiert, so besitzt V eine Orthonormalbasis bzgl. derer die darstellende Matrix von ϕ
eine Diagonalmatrix (mit reellen Diagonaleinträgen) ist.
Insbesondere ist ϕ diagonalisierbar.

Beweis. Wir führen eine vollständige Induktion nach der Dimension n von V. Für n = 1 ist
nichts zu zeigen. Damit ist der Induktionsanfang vollzogen.
Induktionsschritt: Sei n ≥ 2.
Zwischenbehauptung: ϕ hat einen reellen Eigenwert.
Beweis der Zwischenbehauptung: Wählen wir zunächst irgendeine Orthonormalbasis B von
V , dann ist die darstellende Matrix A := MB (ϕ) nach Korollar 7.79 symmetrisch. Da ϕ und A
dieselben Eigenwerte haben, müssen wir nun zeigen, dass die Matrix A einen reellen Eigenwert
hat. Jede komplexe Matrix, und damit auch A, hat wenigstens einen komplexen Eigenwert λ.
Wir zeigen, dass λ in unserem Fall, bei einer symmetrischen reellen Matrix, reell sein muss.
Sei z ∈ Cn \ {0} ein Eigenvektor von A zum Eigenwert λ. Wir schreiben z = v + iw mit
v, w ∈ Rn . Es gilt also

(v − iw) · A · (v + iw) = (v − iw) · λ · (v + iw) = λ · (v − iw) · (v + iw)


= λ(v 2 + i v, w − i w, v + w 2 ) = λ(v 2 + w 2 ). (7.3)
382 7. Bilineare Algebra

Wenn wir die Gleichung A · (v + iw) = λ · (v + iw) komplex konjugieren, erhalten wir, da A
reell ist, A · (v − iw) = λ̄ · (v − iw). Es folgt, da A symmetrisch ist,
(v − iw) · A · (v + iw) = (v − iw) · A · (v + iw) = (A · (v − iw)) · (v + iw)
= (λ̄(v − iw)) · (v + iw) = λ̄(v − iw) · (v + iw) = λ̄(v 2 + w 2 ).
(7.4)
Vergleichen wir (7.3) und (7.4), so erhalten wir λ = λ̄, d.h. λ ∈ R. 
Nun können wir die Induktion zu Ende führen. Sei v1 ein Eigenvektor zum reellen Eigenwert
λ von ϕ mit v1  = 1. Dann ist das orthogonale Komplement von v1 ein ϕ-invarianter
Untervektorraum, denn ist v ⊥ v1 , so gilt
ϕ(v), v1  = v, ϕ(v1 ) = v, λv1  = λv, v1  = 0,
also ϕ(v) ⊥ v1 . Nach Induktionsannahme können wir daher eine Orthonormalbasis (v2, . . ., vn )
von (R · v1 )⊥ finden, die aus Eigenvektoren von ϕ|(R·v1 )⊥ besteht. Dann ist (v1, v2, . . ., vn ) eine
solche Orthonormalbasis aus Eigenvektoren für ϕ. 

In Aufgabe 7.22 wird ein alternativer, analytischer Beweis der Zwischenbehauptung im obigen
Beweis vorgestellt.

7.5. Orthogonale Endomorphismen


In diesem Abschnitt sei V stets ein endlich-dimensionaler euklidischer Vektorraum.

Definition 7.81. Ein Endomorphismus ϕ ∈ End(V) heißt orthogonal, falls für alle v, w ∈ V
gilt:
ϕ(v), ϕ(w) = v, w.

Lemma 7.82. Seien ϕ, ψ ∈ End(V ) orthogonale Endomorphismen. Dann gilt für alle v, w ∈
V:
(i) ϕ(v) = v.
(ii) v ⊥ w ⇒ ϕ(v) ⊥ ϕ(w).
(iii) Falls v  0, w  0 ist, so gilt (ϕ(v), ϕ(w)) = (v, w) (orthogonale Endomorphismen
sind winkeltreu).
(iv) ϕ ist ein Isomorphismus und ϕ−1 ist ebenfalls orthogonal.
(v) ϕ ◦ ψ ist orthogonal.
(vi) Ist λ ∈ R ein Eigenwert von ϕ, so ist λ = ±1.
7.5. Orthogonale Endomorphismen 383

Da ϕ = id offenbar orthogonal ist, sagen uns (iv) und (v), dass die Menge der orthogonalen
Endomorphismen eine Untergruppe von Aut(V ) ist.

Definition 7.83. Die Menge der orthogonalen Endomorphismen

O(V) := {ϕ ∈ End(V) | ϕ ist orthogonal}

heißt orthogonale Gruppe von V.


Die Menge der orientierungserhaltenden orthogonalen Endomorphismen

SO(V) := {ϕ ∈ O(V) | det(ϕ) > 0}

heißt speziell-orthogonale Gruppe von V.

Beweis von Lemma 7.82. Aussage (i) folgt direkt aus der Definition mit v = w.
Aussage (ii) ist klar, denn v ⊥ w bedeutet v, w = 0. Also ist dann ϕ(v), ϕ(w) = 0, d.h.
ϕ(v) ⊥ ϕ(w).
Aussage (iii) folgt aus der Definition und aus (i):
$ %
ϕ(v), ϕ(w)
(ϕ(v), ϕ(w)) = arccos
ϕ(v) · ϕ(w)
$ %
(i) v, w
= arccos
v · w
= (v, w).
Zu (iv):
(i)
ϕ ist injektiv, denn für v ∈ ker(ϕ) gilt v = ϕ(v) = 0 = 0 und somit v = 0. Da V
endlich-dimensional ist, ist ϕ ein Isomorphismus.
Seien v, w ∈ V. Es gilt
ϕ−1 (v), ϕ−1 (w) = ϕ(ϕ−1 (v)), ϕ(ϕ−1 (w)) = v, w.
Also ist ϕ−1 ebenfalls orthogonal.
Zu (v):
Es gilt für alle v, w ∈ V :
; < ; <
(ϕ ◦ ψ)(v), (ϕ ◦ ψ)(w) = ϕ(ψ(v)), ϕ(ψ(w)) = ψ(v), ψ(w) = v, w.
Also ist ϕ ◦ ψ ebenfalls orthogonal.
Zu (vi):
Sei λ ein Eigenwert von ϕ und v  0 ein zugehöriger Eigenvektor. Dann gilt:
v = ϕ(v) = λv = |λ| · v.
Also ist |λ| = 1. 
384 7. Bilineare Algebra

Eine kleine Warnung: Die Orthogonalprojektion PU zu einem Untervektorraum U ⊂ V ist


kein orthogonaler Endomorphismus, denn ker(PU ) = U ⊥ , es sei denn U = V, denn dann ist
U ⊥ = {0} und PU = idV .

Lemma 7.84. Sei ϕ ∈ End(V). Es ist ϕ genau dann orthogonal, wenn

ϕ  ◦ ϕ = id.

Beweis. Nach Definition ist ϕ genau dann orthogonal, wenn für alle v, w ∈ V gilt:

v, w = ϕ(v), ϕ(w) = ϕ  (ϕ(v)), w .

Da das Skalarprodukt nicht ausgeartet ist, ist das äquivalent zu ϕ  (ϕ(v)) = v für alle v ∈ V,
d.h. zu ϕ  ◦ ϕ = id. 

Korollar 7.85. Sei ϕ ∈ O(V). Dann gilt det(ϕ) = ±1.

Beweis. Wir berechnen:

1 = det(id) = det(ϕ  ◦ ϕ) = det(ϕ  ) · det(ϕ) = det(ϕ)2 .

Dabei folgt det(ϕ  ) = det(ϕ) aus Proposition 7.77 und der Tatsache, dass sich die Determinante
einer Matrix durch Transponieren nicht ändert. 

Lemma 7.84 sagt uns auch, wie man der darstellenden Matrix eines Endomorphismus ansieht,
ob er orthogonal ist. Ein Endomorphismus ϕ von V ist genau dann orthogonal, wenn für die
darstellende Matrix A bzgl. einer (oder äquivalent, jeder) Orthonormalbasis gilt:

A · A = 1 n .

Definition 7.86. Eine Matrix A ∈ Mat(n, R) heißt orthogonal, falls A · A = 1n . Hat die
Matrix A zusätzlich positive Determinante, so heißt sie speziell-orthogonal. Wir schreiben:

O(n) := {A ∈ Mat(n, R) | A · A = 1n } und


SO(n) := {A ∈ O(n) | det(A) > 0}.

Wir haben gesehen: Ist B eine Orthonormalbasis, so ist ϕ ∈ O(V ) genau dann, wenn MB (ϕ) ∈
O(n) ist. Analoges gilt, wenn wir O durch SO ersetzen.
7.5. Orthogonale Endomorphismen 385

Lemma 7.87. Ist A ∈ Mat(n, R), so sind äquivalent:

(1) A ist orthogonal.

(2) A ist orthogonal.

(3) Die Spalten von A bilden eine Orthonormalbasis von Rn bezüglich des Standardskalar-
produktes.

(4) Die Transponierten der Zeilen von A bilden eine Orthonormalbasis von Rn bezüglich
des Standardskalarproduktes.

Beweis. Zu „(1) ⇔ (3) “:



Wir schreiben A = (b1, . . . , bn ). Der i- j-te Eintrag von A · A ist dann bi ·b j . Also ist A · A = 1n

genau dann, wenn für alle i und j gilt bi, b j  = bi · b j = δi j . Das heißt gerade, dass (b1, . . . , bn )
eine Orthonormalbasis ist.

Zu „(1) ⇔ (2) “:
Sei A orthogonal. Dann gilt A · A = 1n . Also ist A−1 = A . Wir schließen (A ) · A =
A · A = A · A−1 = 1n . Also ist auch A orthogonal.
Ist umgekehrt A orthogonal, dann folgt nach dem eben bewiesenen, dass auch A = (A )
orthogonal ist.

Zu „(1) ⇔ (4)“:
(1) ⇔ (3)
Wir haben folgende Äquivalenzen: A ist orthogonal ⇔ A ist orthogonal ⇐⇒ Die Spal-
tenvektoren von A bilden eine Orthonormalbasis von Rn ⇔ Die Transponierten der Zeilen-
vektoren von A bilden eine Orthonormalbasis von Rn . 

Beispiel 7.88. In Dimension n = 1 sind die orthogonalen Endomorphismen nicht sonderlich


interessant. Es gilt nämlich:
A = (a) ist orthogonal ⇔ (a2 ) = A · A = 11 = (1) ⇔ a2 = 1 ⇔ a = ±1.
Also ist O(1) = {(1), (−1)} und SO(1) = {(1)} die triviale Gruppe.

Beispiel 7.89. In Dimension n = 2 haben wir die orthogonalen Matrizen bereits ausführlich
untersucht. Nach den Ergebnissen aus Abschnitt 5.3 sind die speziell-orthogonalen Endo-
morphismen genau die Drehungen (um den Ursprung) und bei den orthogonalen kommen
noch Spiegelungen (an Achsen, die durch den Ursprung gehen) hinzu:
SO(2) = {Rθ | θ ∈ R} und O(2) = SO(2) ∪ {Sθ | θ ∈ R}.

Frage: Wie sehen die orthogonalen Matrizen in Dimension n ≥ 3 aus?


Zunächst einige allgemeine Überlegungen.
386 7. Bilineare Algebra

Lemma 7.90. Ist ϕ ∈ O(V) und ist W ⊂ V ein ϕ-invarianter Untervektorraum, dann ist W ⊥
ebenfalls ein ϕ-invarianter Untervektorraum.

Beweis. Sei W ein ϕ-invarianter Untervektorraum. Dann ist ϕ(W) ⊂ W. Da ϕ ein Isomorphis-
mus ist und W endliche Dimension hat, gilt ϕ(W) = W.
Sei nun v ∈ W ⊥ . Zu zeigen ist, dass ϕ(v) ∈ W ⊥ . Das bedeutet, ϕ(v), w = 0 für alle w ∈ W.
Sei also w ∈ W beliebig. Setze w := ϕ−1 (w). Wegen ϕ(W) = W ist w ∈ W. Nun ist

ϕ(v), w = ϕ(v), ϕ(w) =  v , w  = 0. 


()*+ ()*+
∈W ⊥ ∈W

Lemma 7.91. Ist ϕ ∈ O(V), so besitzt V einen ϕ-invarianten Untervektorraum W der


Dimension 1 oder 2.

Beweis. a) Setze ψ := ϕ + ϕ−1 ∈ End(V). Dann gilt für alle v, w ∈ V:

ψ(v), w = ϕ(v), w + ϕ−1 (v), w


= ϕ−1 (ϕ(v)), ϕ−1 (w) + ϕ(ϕ−1 (v)), ϕ(w)
= v, ϕ−1 (w) + v, ϕ(w)
= v, ψ(w).

Also ist ψ selbstadjungiert. Nach Satz 7.80 gibt es dann eine Orthonormalbasis B = (b1, . . ., bn )
von V mit ψ(b j ) = λ j b j mit λ j ∈ R.
b) Setze W := span{b1, ϕ(b1 )}. Dann ist W eindimensional oder zweidimensional, je nachdem
ob ϕ(b1 ) ein Vielfaches von b1 ist oder nicht. Bleibt noch zu zeigen, dass W ϕ-invariant ist.
Wegen
ϕ(μb1 + νϕ(b1 )) = μϕ(b1 ) +νϕ2 (b1 )
()*+
∈W

ist nur zu zeigen, dass ϕ2 (b 1) ∈ W. Nun gilt

ϕ2 (b1 ) = ϕ(ϕ(b1 ) + ϕ−1 (b1 ) − ϕ−1 (b1 ))


= ϕ(ψ(b1 )) − ϕ(ϕ−1 (b1 ))
= ϕ(λ1 b1 ) − b1
= λ1 ϕ(b1 ) − b1 ∈ W . 
7.5. Orthogonale Endomorphismen 387

Korollar 7.92. Ist ϕ ∈ O(V ), so besitzt V eine Zerlegung V = W1 ⊕ . . . ⊕ Wm , wobei alle Wi


ϕ-invariant sind und dim(Wi ) ∈ {1, 2} gilt. Alle Wi stehen aufeinander senkrecht.

Beweis. Wir führen den Beweis durch vollständige Induktion nach n = dim(V ). Für n = 1 oder
n = 2 ist nichts zu zeigen. Sei n ≥ 3.
Nach Lemma 7.91 besitzt V einen ϕ-invarianten Untervektorraum W1 der Dimension 1 oder 2.
Wegen Lemma 7.90 ist W1⊥ ebenfalls ϕ-invariant. Die Induktionsannahme für ϕ|W1⊥ : W1⊥ →
W1⊥ liefert eine orthogonale Zerlegung W1⊥ = W2 ⊕ . . . ⊕ Wm in ein- oder zweidimensionale
ϕ-invariante Untervektorräume. Dann haben wir mit V = W1 ⊕ W1⊥ = W1 ⊕ W2 ⊕ . . . ⊕ Wm die
gewünschte Zerlegung gefunden. 

Satz 7.93. Sei V ein endlich-dimensionaler euklidischer Vektorraum. Ist ϕ ∈ O(V), so gibt
es eine Orthonormalbasis B von V bzgl. derer die darstellende Matrix von ϕ die Blockdia-
gonalform
1


.. 
. 

1 

−1 

.. 

MB (ϕ) = . 


−1 

R 
θ1 
. .. 


Rθ k 
hat, wobei θ j ∈ R.

Beweis. Gemäß Korollar 7.92 zerlegen wir V in ϕ-invariante Untervektorräume der Dimension
1 oder 2, V = W1 ⊕ . . . ⊕ Wm . Für jede Basis von V, die aus Basen dieser Untervektorräume
zusammengesetzt ist, hat dann die darstellende Matrix dann Blockdiagonalform mit 1 × 1- und
2 × 2-Blöcken auf der Diagonale.
Wie wir in Beispiel 7.88 gesehen haben, müssen die 1×1-Blöcke eine 1 oder eine −1 enthalten.
Die 2 × 2-Blöcke enthalten nach Beispiel 7.89 entweder Drehmatrizen der Form Rθ oder
Spiegelungsmatrizen der Form Sθ .
Spiegelungsmatrizen sind nach Beispiel 4.47 diagonalisierbar mit einem Eigenwert 1 und einem
Eigenwert −1. Der zugehörige Untervektorraum W j lässt sich also in zwei eindimensionale
ϕ-invariante Untervektorräume zerlegen, die zu einer 1 und einer −1 auf der Diagonale führen.
Indem man die Reihenfolge der Summanden in der Zerlegung von V notfalls ändert, kann man
erreichen, dass die Blöcke in der angegebenen Reihenfolge auftreten, also zunächst die Einsen,
388 7. Bilineare Algebra

dann die −Einsen und schließlich die Drehblöcke. 

Umgekehrt erfüllen natürlich alle Matrizen der Form wie in Satz 7.93 die Bedingung A A = 1n ,
sind also Elemente von O(n).

Beispiel 7.94. In Dimension n = 3 haben wir:


1 0 0   1 0 0   −1 0 0  




0 1 0 = 1 0 , 0 −1 0  = 1 0 und 0 −1 0  = −1 0 .
 0 R0  0 Rπ  0 Rπ
0 0 1 0 0 −1 0 0 −1
1 0 0 −1 0 0  


−1 0
Ferner ist 0 1 0  ähnlich zu 0 1 0 = .
0 R0
0 0 −1  0 0 1 
Im Wesentlichen treten also nur die beiden Fälle auf:
   
1 0 −1 0
MB (ϕ) = oder MB (ϕ) = .
0 Rθ 0 Rθ
Der erste Fall liegt dann vor, wenn det(ϕ) = 1 ist, d.h. wenn ϕ orientierungserhaltend ist, der
zweite, wenn det(ϕ) = −1 ist, d.h. wenn ϕ orientierungsumkehrend ist.
Ist ϕ orientierungserhaltend
  und ist B = (b1, b2, b3 ) diejenige Orthonormalbasis von V, für die
1 0
MB (ϕ) = gilt, so heißt die Gerade R · b1 = Eig(ϕ, 1) Drehachse von ϕ. Der Winkel θ
0 Rθ
heißt Drehwinkel von ϕ.

b1

b2
θ
b3

Abb. 119 Orientierungserhaltende orthogonale Abbildung in 3 Dimensionen

Wir setzen
1 0 0 cos(θ) 0 − sin(θ)



R1 (θ) := 0 cos(θ) − sin(θ) und R2 (θ) := 0 1 0  .
0 sin(θ) cos(θ)  sin(θ) 0 cos(θ) 
7.5. Orthogonale Endomorphismen 389

Der folgende Satz besagt, dass jede orientierungserhaltende orthogonale Abbildung im R3 aus
diesen Drehungen um die e1 -Achse und um die e2 -Achse zusammengesetzt werden kann.

Satz 7.95. Es gilt:

SO(3) = {R1 (α) · R2 (β) · R1 (γ) | α, β, γ ∈ R}.

Beweis. Die Inklusion „⊃“ ist klar, denn R1 (α), R2 (β), R1 (γ) ∈ SO(3).
Zur Inklusion „⊂“: Sei A ∈ SO(3). Wir schreiben A = (a1, a2, a3 ). Wir drehen den ersten
Spaltenvektor a1 um die e1 -Achse so, dass er in der e1 -e3 -Ebene zu liegen kommt. In anderen



Worten, wir wählen den Drehwinkel α ∈ R so, dass R1 (−α) · a1 von der Form R1 (−α) · a1 = 0

∗
∗ ∗ ∗



ist. Dann ist also R1 (−α) · A = 0 ∗ ∗ und somit
∗ ∗ ∗

∗ 0 ∗


∗ ∗ ∗ = R1 (−α) · A  = A · R1 (−α) = A · R1 (α) =: (b1, b2, b3 ).

∗ ∗ ∗ 

Der zweite neue Spaltenvektor b2 ist ein Einheitsvektor (da die Spalten der Matrix eine
Orthonormalbasis bilden) und liegt in der e2 -e3 -Ebene. Er kann daher so um die e1 -Achse
gedreht werden, dass er auf e2 abgebildet wird. In anderen Worten, wir können den Drehwinkel
γ so wählen, dass R1 (γ)b2 = e2 . Dann ist

∗ 0 ∗


R1 (γ) · A · R1 (α) = ∗ 1 ∗ =: (c1, c2, c3 ).
∗ 0 ∗





Da c1 ⊥ c2 = e2 gilt, muss c1 von der Form c1 = 0 sein; Gleiches gilt für c3 . Somit ergibt
∗
sich
∗ 0 ∗


R1 (γ) · A · R1 (α) = 0 1 0 .
∗ 0 ∗
Nun bildet (c1, c3 ) eine Orthonormalbasis der e1 -e3 -Ebene. Wir wählen β ∈ R so, dass
390 7. Bilineare Algebra

R2 (β)c1 = e1 . Dann muss R2 (β)c3 = ±e3 sein. Damit ist schon mal

1 0 0



R2 (β) · R1 (γ) · A · R1 (α) = 0 1 0  .


0 0 ±1

Da diese Matrix aus SO(3) ist und daher positive Determinante haben muss, gilt tatsächlich

1 0 0


R2 (β) · R1 (γ) · A · R1 (α) = 0 1 0 .
0 0 1

Es folgt
A−1 = A = R1 (γ)−1 · R2 (β)−1 · R1 (α)−1
und somit
A = R1 (α) · R2 (β) · R1 (γ). 

Definition 7.96. Die Zahlen α, β, γ heißen Euler’sche Winkel von A = R1 (α)R2 (β)R1 (γ).

Bemerkung 7.97. Im Allgemeinen sind die Euler’schen Winkel nicht eindeutig durch A be-
stimmt. Im Fall β = 0 zum Beispiel können wir α und γ folgendermaßen abändern ohne die
Matrix zu ändern:

A= R1 (α)R2 (0)R1 (γ)


= R1 (α)R1 (γ)
= R1 (α + γ)
= R1 (α + δ − δ + γ)
= R1 (α + δ)R1 (γ − δ)
= R1 (α + δ)R2 (0)R1 (γ − δ).

Korollar 7.98. Sei A ∈ O(n). Dann existiert ein T ∈ O(n), so dass T −1 · A · T die Blockdia-
gonalform wie in Satz 7.93 hat.

Beweis. Die Matrix A ist darstellende Matrix eines orthogonalen Endomorphismus bzgl.
der Standardbasis. Nach Satz 7.93 gibt es eine Orthonormalbasis von Rn , bzgl. derer die
darstellende die gewünschte Form hat. Die Transformationsmatrix T liegt wegen Lemma 7.87
in O(n). 
7.6. Unitäre Vektorräume und Endomorphismen 391

Analog folgt aus Satz 7.80:

Korollar 7.99. Sei A ∈ GL(n, R) symmetrisch. Dann existiert ein T ∈ O(n), so dass T −1 · A·T
eine Diagonalmatrix ist. Insbesondere ist A diagonalisierbar. 

7.6. Unitäre Vektorräume und Endomorphismen


Euklidische Vektorräume und selbstadjungierte sowie orthogonale Abbildungen haben stets
R als zugrundeliegenden Körper erfordert. In diesem Abschnitt behandeln wir die analogen
Konzepte für komplexe Vektorräume. Widmen wir uns zunächst dem Skalarprodukt. Wir
können jetzt nicht mehr mit Bilinearformen arbeiten, weil wir dann nicht zu einer vernünftigen
Norm kämen. Der Grund ist im Wesentlichen der, dass für komplexe Zahlen z das Quadrat z 2
nicht reell, geschweige denn positiv zu sein braucht. Statt dessen ist aber z̄z = |z| 2 positiv für
alle z ∈ C \ {0}. Daher machen wir folgende Definition:

Definition 7.100. Sei V ein komplexer Vektorraum. Eine Abbildung

h :V ×V → C

heißt Sesquilinearform, falls für alle α, β ∈ C und für alle v, v1, v2, w, w1, w2 ∈ V gilt:

h(αv1 + βv2, w) = ᾱh(v1, w) + β̄h(v2, w),


h(v, αw1 + βw2 ) = αh(v, w1 ) + βh(v, w2 ) .

Eine Sesquilinearform heißt hermitesch, falls für alle v, w ∈ V gilt:

h(v, w) = h(w, v) .

Eine hermitesche Sequilinearform heißt positiv definit, falls für alle v ∈ V \ {0} gilt:

h(v, v) > 0 .

Insbesondere muss h(v, v) stets reell sein. Eine Sesquilinearform h ist zwar C-linear im zweiten
Argument, nicht aber im ersten, da hier Skalare konjugiert komplex vorgezogen werden. Man
sagt dann auch, dass h C-antilinear im ersten Argument ist.

Beispiel 7.101. Auf V = Cn definiert


n
h(v, w) = v̄i · wi
i=1
392 7. Bilineare Algebra

eine hermitesche Sesquilinearform. Es gilt für alle v  0:


n 
n
h(v, v) = v̄i · vi = |vi | 2 > 0 .
i=1 i=1

Somit ist h positiv definit. Man bezeichnet dieses h als die Standard-Sesquilinearform auf Cn .

Wie im euklidischen Fall können wir wegen der positiven Definitheit durch

v := h(v, v)

die Norm von v definieren.

Beispiel 7.102. Auf V = C 0 ([0, 2π], C) definieren wir

∫2π
h( f , g) = f (t) · g(t) dt .
0

Wie in Beispiel 7.55 sieht man, dass hierdurch ein hermitesches Skalarprodukt auf dem
unendlich-dimensionalen komplexen Vektorraum C 0 ([0, 2π], C) gegeben ist.

Definition 7.103. Eine positiv definite, hermitesche Sesquilinearform h auf einem C-


Vektorraum V heißt hermitesches Skalarprodukt. Ein Paar (V, h) bestehend aus einem
C-Vektorraum V und einem hermiteschen Skalarprodukt h auf V heißt unitärer Vektor-
raum.

Unitäre Vektorräume haben ganz analoge Eigenschaften wie die euklidischen Vektorräume. In
der Tat brauchen wir das nicht nochmals neu zu beweisen, sondern werden den unitären Fall
auf den euklidischen zurückführen.
Jeden komplexen Vektorraum V können wir auch als reellen Vektorraum auffassen, indem
wir die Multiplikation von Skalaren mit Vektoren C × V → V einfach auf R × V → V
einschränken. Wollen wir verdeutlichen, dass wir V als reellen Vektorraum betrachten, d.h. nur
noch reelle Skalare zulassen, dann schreiben wir statt V auch VR . Man nennt dann VR auch die
Reellifizierung von V . Man beachte, dass V und VR als Mengen übereinstimmen.

Lemma 7.104. Sei (V, h) ein unitärer Vektorraum. Dann wird durch

v, w := Re(h(v, w))

ein euklidisches Skalarprodukt auf VR definiert.


7.6. Unitäre Vektorräume und Endomorphismen 393

Beweis. Für v1, v2, w ∈ V und reelle(!) Skalare α, β gilt

αv1 + βv2, w = Re(h(αv1 + βv2, w))


= Re(ᾱh(v1, w) + β̄h(v2, w))
= Re( α h(v1, w)) + Re( β h(v2, w))
()*+ ()*+
∈R ∈R
= αRe(h(v1, w)) + βRe(h(v2, w))
= α v1, w + β h(v2, w .

Die R-Lineariät im zweiten Argument sieht man ähnlich. Die Symmetrie folgt aus

v, w = Re(h(v, w)) = Re(h(w, v)) = w, v

und die positive Definitheit aus

v, v = Re(h(v, v)) = h(v, v) > 0

für v  0. 

Wir nennen ·, · das von dem hermiteschen Skalarprodukt h induzierte euklidische Skalar-
produkt von VR .
Nun können wir die Eigenschaften euklidischer Vektorräume auf unitäre Vektorräume über-
tragen.

Proposition 7.105. Sei (V, h) ein unitärer Vektorraum. Dann gilt für alle v, w ∈ V und
α ∈ C:

(i) v ≥ 0 und v = 0 genau dann, wenn v = 0.

(ii) α · v = |α| · v.

(iii) (Cauchy-Schwarz-Ungleichung)

|h(v, w)| ≤ v · w

und Gleichheit gilt genau dann, wenn v und w komplex-linear abhängig sind.

(iv) (Dreiecksungleichung)
v + w ≤ v + w.

Beweis. Da die Norm  ·  von h dieselbe ist wie die des induzierten euklidischen Skalarpro-
dukts ·, ·, folgen (i) und (iv) direkt aus Proposition 7.57 (i) und (ii) bzw. aus Korollar 7.59.
394 7. Bilineare Algebra

Aussage (ii) rechnen wir wieder direkt nach:

α · v 2 = h(α · v, α · v) = ᾱαh(v, v) = |α| 2 · v 2 .

Bleibt (iii) zu zeigen. Wir schreiben die komplexe Zahl h(v, w) in Euler’scher Darstellung,
h(v, w) = |h(v, w)| · eiϕ , wobei ϕ ∈ R ;das Argument
< ist. Also ist |h(v, w)| = e−iϕ h(v, w) =
h(e v, w) reell und somit h(e v, w) = e v, w . Es folgt unter Benutzung von Satz 7.58 und
iϕ iϕ iϕ

Teilaussage (ii):
; <
|h(v, w)| = eiϕ v, w ≤ eiϕ v · w = |eiϕ | · v · w = v · w .

Gilt Gleichheit, so muss w nach Satz 7.58 ein reelles Vielfaches von eiϕ v sein (oder umgekehrt).
Dann ist w ein komplexes Vielfaches von v (oder umgekehrt). Also sind v und w komplex-linear
abhängig.
Sind umgekehrt v und w komplex-linear abhängig, so rechnet man genau wie im reellen Fall
direkt nach, dass Gleichheit gilt. 

Definition 7.106. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum. Eine Basis
B = (b1, . . . , bn ) von V (als komplexer Vektorraum) heißt Orthonormalbasis, falls für alle
j, k = 1, . . ., n gilt
h(b j, b k ) = δ j k .
Allgemeiner heißt ein Tupel (v1, . . . , vm ) von Vektoren aus V ein Orthonormalsystem, wenn
für alle j und k gilt: h(v j, vk ) = δ j k .

∫ 2π
Beispiel 7.107. Sei V = C 0 ([0, 2π], C) und h( f , g) = 0 f¯(t)g(t)dt wie in Beispiel 7.102. Für
j ∈ Z definieren wir
1
f j (t) := √ ei jt .

Dann gilt für j  k
∫2π ∫2π $ % 2π
1 −i jt ikt 1 1 ei(k− j)t 
h( f j, fk ) = e e dt = e i(k− j)t
dt = =0
2π 2π 2π i(k − j) t=0
0 0

und
∫2π
1
h( f j, f j ) = ei·0·t dt = 1.

0
Also bildet { f j | j ∈ Z} sogar ein unendliches Orthonormalsystem. In Definition 7.106 hatten
wir nur endlich-dimensionale Vektorräume und endliche Orthonormalsysteme zugelassen. Ist
V ein endlich-dimensionaler komplexer Untervektorraum von C 0 ([0, 2π], C), dann ist jedes
Tupel, das f j ’s enthält, die in V liegen, ein Orthonormalsystem im Sinne von Definition 7.106.
Dieses Beispiel ist in der Analysis im Zusammenhang mit Fourier-Reihen wichtig.
7.6. Unitäre Vektorräume und Endomorphismen 395

Bemerkung 7.108. Orthogonalprojektionen sind für komplexe Untervektorräume von uni-


tären Vektorräumen V genauso definiert wie im euklidischen Fall in Definition 7.72. Das
Gram-Schmidt-Verfahren funktioniert ebenfalls genauso: Ist (v1, . . . , vn ) eine komplexe Basis
von V, dann erhalten wir durch

k
vk+1 − h(b j, vk+1 )b j
v1 j=1
b1 := , b k+1 :=
v1  
k
vk+1 − h(b j, vk+1 )b j 
j=1

sukzessive eine Orthonormalbasis.

Das Analogon zu den orthogonalen Endomorphismen sind die unitären Endomorphismen.

Definition 7.109. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum. Ein Endomor-
phismus ϕ ∈ End(V) heißt unitär, falls für alle v, w ∈ V gilt:

h(ϕ(v), ϕ(w)) = h(v, w) . (7.5)

Lemma 7.110. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum. Seien ϕ, ψ ∈


End(V ) unitäre Endomorphismen. Dann gilt für alle v, w ∈ V:

(i) ϕ ist als Endomorphismus von (VR, ·, ·) orthogonal.

(ii) ϕ(v) = v.

(iii) Falls v  0, w  0 ist, so gilt (ϕ(v), ϕ(w)) = (v, w) (unitäre Endomorphismen sind
winkeltreu).

(iv) ϕ ist ein Isomorphismus und ϕ−1 ist ebenfalls unitär.

(v) ϕ ◦ ψ ist unitär.

(vi) Ist λ ∈ C ein Eigenwert von ϕ, so ist |λ| = 1.

(vii) |det(ϕ)| = 1.

Beweis. Aussage (i) erhält man, indem man in (7.5) Realteile nimmt und beachtet, dass C-
lineare Abbildungen insbesondere auch R-linear sind. Damit folgen (ii) und (iii) sofort aus
Lemma 7.82. Aus Lemma 7.82 wissen wir außerdem, dass ϕ bijektiv, d.h. ein Isomorphismus
ist. Dass ϕ−1 wieder unitär ist, folgt indem man (7.5) auf v = ϕ−1 (v ) und w = ϕ−1 (w)
für beliebige v , w ∈ V anwendet. Damit ist (iv) gezeigt. Aussage (v) folgt analog zum
orthogonalen Fall durch zweimaliges Anwenden von (7.5).
396 7. Bilineare Algebra

Sei schließlich λ ∈ C ein Eigenwert von ϕ und v ∈ V \ {0} ein zugehöriger Eigenvektor. Dann
gilt:
h(v, v) = h(ϕ(v), ϕ(v)) = h(λv, λv) = λ̄λh(v, v) = |λ| 2 h(v, v).
Wir dividieren durch die positive Zahl h(v, v) und erhalten |λ| = 1. Dies beweist (vi).
Da über C das charakteristische Polynom stets in Linearfaktoren zerfällt, ist die Determinante
von ϕ das Produkt der Eigenwerte. Also folgt (vii) aus (vi). 

Da ϕ = id offenbar unitär ist, sagen uns (iv) und (v), dass die Menge der unitären Endomor-
phismen eine Untergruppe von Aut(V) ist.

Definition 7.111. Die Menge der unitären Endomorphismen

U(V ) := {ϕ ∈ End(V) | ϕ ist unitär}

heißt unitäre Gruppe von V. Die Menge

SU(V) := {ϕ ∈ U(V ) | det(ϕ) = 1}

heißt speziell-unitäre Gruppe von V .

Aufgrund des Determinantenmultiplikationssatzes 4.75 ist klar, dass SU(V ) eine Untergruppe
von U(V) ist.
Wie sieht man einer darstellenden Matrix MB (ϕ) von ϕ an, ob ϕ unitär ist?
Wieder müssen wir ϕ bzgl. einer Orthonormalbasis B von V darstellen. Dieselbe Überlegung
wie für orthogonale Abbildungen zeigt:
Ist A = MB (ϕ) die darstellende Matrix von ϕ bzgl. B, so ist ϕ genau dann unitär, wenn x̄  · Ā · A·
y = x̄  · y für alle x, y ∈ Cn gilt. Mit x̄ bzw. Ā ist gemeint, dass alle Einträge konjugiert-komplex
zu nehmen sind. Die Konjugation kommt daher, dass in einem hermiteschen Skalarprodukt
Skalare im ersten Argument konjugiert-komplex vorgezogen werden können.
Das ist äquivalent zu Ā · A = 1n .
Fazit: Ein Endomorphismus ϕ von V ist genau dann unitär, wenn für die darstellende Matrix
A bzgl. einer (oder äquivalent, jeder) Orthonormalbasis gilt:

Ā · A = 1n .

Definition 7.112. Eine Matrix A ∈ Mat(n, C) heißt unitär, falls Ā · A = 1n . Hat die Matrix
A zusätzlich Determinante = 1, so heißt sie speziell-unitär. Wir schreiben:

U(n) := {A ∈ Mat(n, C) | Ā · A = 1n } und


SU(n) := {A ∈ U(n) | det(A) = 1}.
7.6. Unitäre Vektorräume und Endomorphismen 397

Es gilt also: Ist B eine Orthonormalbasis, so ist ϕ ∈ U(V) genau dann, wenn MB (ϕ) ∈ U(n) ist.
Analoges gilt, wenn wir U durch SU ersetzen.

Beispiel 7.113. Für n = 1 gilt:


U(1) = {A ∈ Mat(1, C) | Ā A = 11 } = {(a) | a ∈ C, āa = 1} = {(a) | a ∈ C, |a| = 1}
und
SU(1) = {11 } ist die triviale Gruppe.

Satz 7.114. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum und ϕ ∈ U(V). Dann
existiert eine Orthonormalbasis von V bestehend aus Eigenvektoren von ϕ. Insbesondere ist
ϕ diagonalisierbar.

Beweis. Wir zeigen die Aussage durch vollständige Induktion nach der Dimension n von
V . Für n = 1 sei b1 ∈ V ein beliebiger Vektor in V mit b1  = 1. Dann ist B = (b1 ) eine
Orthonormalbasis von V und da ϕ den Vektor b1 wieder nach V abbildet, also auf ein Vielfaches
von b1 , ist b1 auch ein Eigenvektor von ϕ. Damit ist der Induktionsanfang vollzogen.
Für den Induktionsschritt sei n > 1. Nach dem Fundamentalsatz der Algebra hat das charak-
teristische Polynom von ϕ Nullstellen, d.h. ϕ besitzt Eigenwerte. Sei b1 ein Eigenvektor von
ϕ. Indem wir notfalls durch b1  teilen können wir o.B.d.A. annehmen, dass b1  = 1. Wir
definieren W := (C · b1 )⊥ . Dann ist V = C · b1 ⊕ W und man überprüft leicht, dass W ein
ϕ-invarianter C-Untervektorraum von V ist. Mit ϕ ist auch ϕ|W unitär. Nach Induktionsannah-
me können wir eine Orthonormalbasis (b2, . . . , bn ) von W bestehend aus Eigenvektoren von
ϕ|W finden. Dann ist (b1, b2, . . ., bn ) eine Orthonormalbasis von V aus Eigenvektoren von ϕ.

Dieser Satz zusammen mit Lemma 7.110 (vi) besagt also, dass ein unitärer Endomorphismus
bzgl. einer geeigneten Orthonormalbasis durch eine Diagonalmatrix dargestellt wird, deren
Diagonaleinträge lauter komplexe Zahlen vom Betrag 1 sind. Umgekehrt erfüllen alle solchen
Matrizen natürlich Ā A = 1n , sind also Elemente von U(n).
Befassen wir uns noch kurz mit selbstadjungierten Endomorphismen eines unitären Vektor-
raums.

Lemma 7.115. Sei (V, h) ein unitärer Vektorraum und ϕ ∈ End(V). Sei ·, · das induzierte
euklidische Skalarprodukt auf VR . Dann sind äquivalent:

(1) h(ϕ(v), w) = h(v, ϕ(w)) für alle v, w ∈ V.

(2) ϕ(v), w = v, ϕ(w) für alle v, w ∈ V .

Es spielt für die Selbstadjungiertheitsbedingung also keine Rolle, ob wir sie bzgl. des hermi-
teschen Skalarprodukts h oder des euklidischen Skalarprodukts ·, · verlangen. Man beachte
398 7. Bilineare Algebra

allerdings, dass ϕ hier als Endomorphismus des komplexen Vektorraums V vorausgesetzt


wurde, also als komplex-linear.
Beweis. Die Implikation „(1)⇒(2)“ ist klar; wir nehmen einfach die Realteile in (1). Wir zeigen
„(2)⇒(1)“. Seien v, w ∈ V. Wir müssen noch Im(h(ϕ(v), w)) = Im(h(v, ϕ(w))) überprüfen.
Wir rechnen dies folgendermaßen nach:
Im(h(ϕ(v), w)) = Re((−i) · h(ϕ(v), w))
= Re(h(iϕ(v), w))
= Re(h(ϕ(iv), w))
= ϕ(iv), w
= iv, ϕ(w)
= Re(h(iv, ϕ(w)))
= Re((−i) · h(v, ϕ(w)))
= Im(h(v, ϕ(w))) . 

Sei nun A = MB (ϕ) die darstellende Matrix eines (komplexen) Endomorphismus von V
bzgl. einer (komplexen) Orthonormalbasis B. Setze n := dim(V). Dann ist ϕ genau dann
selbstadjungiert, wenn für alle x, y ∈ Cn gilt x̄  · Ā · y = x̄  · A · y, d.h. genau dann, wenn
A = Ā .

Proposition 7.116. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum und ϕ ∈


End(V) selbstadjungiert. Dann sind alle Eigenwerte von ϕ reell. Eigenvektoren zu ver-
schiedenen Eigenwerten stehen stets aufeinander senkrecht.

Beweis. Sei λ ∈ C ein Eigenwert von ϕ und v ∈ V \ {0} ein zugehöriger Eigenvektor. Dann
gilt
λ̄h(v, v) = h(λv, v) = h(ϕ(v), v) = h(v, ϕ(v)) = h(v, λv) = λh(v, v) .
Wir dividieren durch die positive Zahl h(v, v) und erhalten λ̄ = λ, d.h. λ ist reell. Seien nun v
und w Eigenvektoren zu den Eigenwerten λ bzw. μ mit λ  μ. Dann gilt
λh(v, w) = h(λv, w) = h(ϕ(v), w) = h(v, ϕ(w)) = h(v, μw) = μh(v, w).
Wegen λ  μ folgt h(v, w) = 0. 

Genau derselbe Beweis wie der von Satz 7.114 zeigt den folgenden Satz:

Satz 7.117. Sei (V, h) ein endlich-dimensionaler unitärer Vektorraum und ϕ ∈ End(V)
selbstadjungiert. Dann gibt es eine Orthonormalbasis von V bestehend aus Eigenvektoren
von ϕ. Insbesondere ist ϕ diagonalisierbar. 2
7.7. Schiefsymmetrische Endomorphismen 399

7.7. Schiefsymmetrische Endomorphismen

Definition 7.118. Sei (V, ·, ·) ein euklidischer Vektorraum und ϕ ∈ End(V ). Wir nennen ϕ
schiefsymmetrisch oder auch antisymmetrisch, falls für alle v, w ∈ V gilt:

ϕ(v), w = − v, ϕ(w) .

Die Menge aller schiefsymmetrischen Endomorphismen von V bezeichnen wir mit o(V).

Beispiel 7.119. Sei V = R3 versehen mit dem Standardskalarprodukt. Wir fixieren einen
Vektor b ∈ R3 mit b = 1. Den Endomorphismus ϕ ∈ End(R3 ) definieren wir mit Hilfe des
Vektorprodukts:
ϕ(v) := b × v.
Wegen der Linearität des Vektorprodukts im zweiten Argument (Satz 5.47 (iii)) ist ϕ linear,
also ein Endomorphismus von R3 . Zweimalige Anwendung von Satz 5.47 (i) liefert für alle
v, w ∈ R3 :

ϕ(v), w = b × v, w = det(b, v, w) = − det(b, w, v)


= − b × w, v = − v, b × w = − v, ϕ(w) .

Also ist ϕ schiefsymmetrisch.

Bemerkung 7.120. Man sieht sofort, dass o(V ) stets ein Untervektorraum von End(V) ist. So
ist nämlich der Nullendomorphismus sicherlich schiefsymmetrisch und die Bilinearität des
Skalarprodukts stellt sicher, dass mit ϕ1 und ϕ2 auch jede Linearkombination von ϕ1 und ϕ2
wieder schiefsymmetrisch ist.
Es gilt aber noch mehr: Mit ϕ, ψ ∈ o(V ) ist auch der Kommutator

[ϕ, ψ] := ϕ ◦ ψ − ψ ◦ ϕ

wieder in o(V ). Wir rechnen dies nach:

[ϕ, ψ](v), w = ϕ(ψ(v)), w − ψ(ϕ(v), w


= − ψ(v), ϕ(w) + ϕ(v), ψ(w)
= v, ψ(ϕ(w)) − v, ϕ(ψ(w))
= − v, [ϕ, ψ](w) .

Untervektorräume von End(V ), die zusätzlich auch den Kommutator von je zwei ihrer Ele-
ment wieder enthalten, sind in der Mathematik als Liealgebren bekannt. Genauer sind sie
Lieunteralgebren von End(V). Die Menge o(V ) der schiefsymmetrischen Endomorphismen
eines euklidischen Vektorraums ist also eine Liealgebra. Für den Kommutator gilt die Jacobi-
Identität, siehe Aufgabe 7.28.
400 7. Bilineare Algebra

Bemerkung 7.121. Dieselben Überlegungen wie für selbstadjungierte, orthogonale und uni-
täre Endomorphismen zeigen uns auch, wie man der darstellenden Matrix von ϕ ansieht, ob ϕ
schiefsymmetrisch ist. Sei B eine Orthonormalbasis des endlich-dimensionalen euklidischen
Vektorraums V und A = MB (ϕ) die darstellende Matrix des Endomorphismus ϕ ∈ End(V)
bzgl. B, dann ist ϕ genau dann schiefsymmetrisch, wenn

A = −A,

d.h. wenn A schiefsymmetrisch ist. Daher verwendet man für die Menge der schiefsymmetri-
schen Endomorphismen auch die Notation

o(n) = {A ∈ Mat(n, R) | A = −A } .

Satz 7.122. Sei V ein endlich-dimensionaler euklidischer Vektorraum. Ist ϕ ∈ o(V ), so


gibt es eine Orthonormalbasis B von V bzgl. derer die darstellende Matrix von ϕ die
Blockdiagonalform
0


... 


0 
MB (ϕ) = 

A1 
.. 
. 

A k 
hat, wobei  
0 λj
Aj =
−λ j 0
mit λ j ∈ R \ {0}.

Beweis. Den Beweis führen wir wieder per vollständiger Induktion nach der Dimension n :=
dim(V).
a) Für den Induktionsanfang sei n = 1. Wir wählen b1 ∈ V mit b1  = 1. Dann ist B = (b1 )
eine Orthonormalbasis von V. Wir berechnen

ϕ(b1 ), b1  = − b1, ϕ(b1 ) = − ϕ(b1 ), b1  .

Also ist ϕ(b1 ), b1  = 0, d.h. ϕ(b1 ) steht senkrecht auf dem Basisvektor b1. Da V eindimensional
ist, folgt ϕ(b1 ) = 0. Jeder Vektor in v ∈ V ist Vielfaches von b1 , also ist ϕ(v) = 0. Der
Endomorphismus ϕ ist also der Nullendomorphismus und hat somit die darstellende Matrix

MB (ϕ) = (0).
7.7. Schiefsymmetrische Endomorphismen 401

b) Bevor wir zum Induktionsschritt kommen, zeigen wir folgende Zwischenbehauptung:


Ist W ⊂ V ein ϕ-invarianter Untervektorraum, dann ist auch W ⊥ ein ϕ-invarianter Untervek-
torraum von V.
Sei dazu v ∈ W ⊥ . Dann gilt für alle w ∈ W:

ϕ(v), w = − v, ϕ(w) = 0,

da v ∈ W ⊥ und ϕ(w) ∈ W. Also ist ϕ(v) ∈ W ⊥ . 


c) Für den Induktionsschritt sei n > 1. Zunächst stellen wir fest, dass ϕ2 = ϕ ◦ ϕ symmetrisch
ist. Es gilt nämlich für alle v, w ∈ V:
; 2 < ; <
ϕ (v), w = − ϕ(v), ϕ(w) = v, ϕ2 (w) .

Nach Satz 7.80 ist ϕ2 diagonalisierbar (über R), hat also insbesondere reelle Eigenwerte. Sei b
ein Eigenvektor von ϕ2 zum Eigenwert μ ∈ R. O.B.d.A. sei b = 1. Wir unterscheiden zwei
Fälle.
Fall 1: ϕ(b) = 0.
Wir setzen b1 := b. Dann ist insbesondere W := R · b1 ein ϕ-invarianter Untervektorraum und
somit auch W ⊥ . Nach Induktionsvoraussetzung können wir eine Orthonormalbasis (b2, . . . , bn )
von W ⊥ finden bzgl. derer der schiefsymmetrische Endomorphismus ϕ|W ⊥ eine darstellende
Matrix A der gewünschten Form hat. Nun ist B := (b1, b2, . . . , bn ) eine Orthonormalbasis von
V und die darstellende Matrix von ϕ bzgl. B ist gegeben durch
 
0 0
MB (ϕ) = ,
0 A

was auch wieder von der gewünschten Form ist.


Fall 2: ϕ(b)  0.
ϕ(b)
Wir setzen bn−1 := b und bn := ϕ(b) . Wie in Teil a) sehen wir, dass ϕ(bn−1 ) und damit auch
bn auf bn−1 senkrecht steht. Also ist (bn−1, bn ) eine Orthonormalbasis von W := L(bn−1, bn ).
Die Ebene W ist ϕ-invariant, denn ϕ(bn−1 ) = ϕ(b)bn ∈ W und ϕ(bn ) = ϕ(b) 1
ϕ2 (bn−1 ) =
μ
ϕ(b) bn−1 ∈ W. Außerdem beobachten wir für die hier auftretenden Koeffizienten

ϕ(b) = ϕ(b)bn, bn  = ϕ(bn−1 ), bn  = − bn−1, ϕ(bn )


5 6
μ μ
= − bn−1, bn−1 = − .
ϕ(b) ϕ(b)
μ
Wenn wir also λ := ϕ(b) definieren, dann gilt ϕ(bn−1 ) = −λbn und ϕ(bn ) = λbn−1 . Somit hat
der Endomorphismus ϕ|W ∈ End(W) die darstellende Matrix
 
0 λ
M(bn−1,bn ) (ϕ|W ) = .
−λ 0

Ist n = 2, so ist V = W und wir sind fertig. Ist n > 2, so ist W ⊥ ein (n − 2)-dimensionaler ϕ-
invarianter Untervektorraum. Nach Induktionsvoraussetzung finden wir eine Orthonormalbasis
402 7. Bilineare Algebra

(b1, . . . , bn−2 ) von W ⊥ bzgl. derer der schiefsymmetrische Endomorphismus ϕ|W ⊥ eine darstel-
lende Matrix A der gewünschten Form hat. Nun ist B := (b1, b2, . . . , bn ) eine Orthonormalbasis
von V und die darstellende Matrix von ϕ bzgl. B ist gegeben durch
A 0 0



MB (ϕ) = 0 0 λ ,
0 −λ 0 
was auch wieder von der gewünschten Form ist. 

Beispiel 7.123. Wie bekommen wir eine solche Orthonormalbasis im Falle des Bei-
spiels 7.119? Zunächst einmal setzen wir b1 := b. Dann gilt ϕ(b1 ) = b × b1 = b × b = 0. Nun
wählen wir einen beliebigen Einheitsvektor b2 aus dem orthogonalen Komplement von R · b.
Mit b3 := b1 × b2 bildet B := (b1, b2, b3 ) eine positiv orientierte Orthonormalbasis von R3 .
Nach Konstruktion gilt ϕ(b2 ) = b1 × b2 = b3 . Weil auch (b1, b3, −b2 ) eine positiv orientierte
Orthonormalbasis ist, gilt ϕ(b3 ) = b1 × b3 = −b2 . Somit gilt für die darstellende Matrix
0 0 0


MB (ϕ) = 0 0 −1 .

0 1 0 
Dies ist von der Form wie in Satz 7.122 mit λ = −1. Wir könnten auch B := (b1, b2, −b3 )
nehmen. Dann erhalten wir
0 0 0



MB (ϕ) = 0 0 1 .
0 −1 0

7.8. Schiefsymmetrische Bilinearformen


Zum Abschluss dieses Kapitels wollen wir noch schiefsymmetrische Bilinearformen auf reellen
Vektorräumen etwas genauer unter die Lupe nehmen. Dabei wollen wir die Kenntnisse über
schiefsymmetrische Endomorphismen aus dem vorangegangenen Abschnitt benutzen. Aus
diesem Grund überlegen wir zunächst, wie man auf euklidischen Vektorräumen Bilinearformen
schiefsymmetrische Endomorphismen zuordnen kann und umgekehrt.
Sei also (V, ·, ·) ein euklidischer Vektorraum. Ist ϕ ∈ o(V ) ein schiefsymmetrischer Endo-
morphismus, so definiert
ωϕ : V × V → R, ωϕ (v, w) := ϕ(v), w , (7.6)
eine schiefsymmetrische Bilinearform, denn für alle v, w ∈ V gilt
ωϕ (v, w) = ϕ(v), w = − v, ϕ(w) = − ϕ(w), v = −ωϕ (w, v).
Das folgende Lemma sagt uns, dass es umgekehrt auch zu jeder schiefsymmetrischen Bilinear-
form ω genau ein ϕ ∈ o(V ) gibt, so dass die Beziehung (7.6) mit ω = ωϕ gilt. Auf diese Weise
können wir zwischen schiefsymmetrischen Bilinearformen und Endomorphismen wechseln.
7.8. Schiefsymmetrische Bilinearformen 403

Lemma 7.124. Sei (V, ·, ·) ein endlich-dimensionaler euklidischer Vektorraum. Dann ist
die Abbildung o(V) → {schiefsymmetrische Bilinearformen auf V }, ϕ → ωϕ , bijektiv.

Beweis. Sei B = (b1, . . . , bn ) eine Orthonormalbasis von V. Die darstellende Matrix der
Bilinearform ωϕ bzgl. B hat die Einträge
; <
ωϕ (bi, b j ) = ϕ(bi ), b j .
; <
Die darstellende Matrix des Endomorphismus ϕ bzgl. B hat ebenfalls die Einträge ϕ(bi ), b j ,
denn nach Lemma 7.68 gilt
 n
; <
ϕ(bi ) = ϕ(bi ), b j b j .
j=1

Also kommutiert das Diagramm

{schiefsymmetrische
2
Bilinearformen auf V }
e
ϕ→ωϕeeeeeeeeee
ee
eeeeee ω→ MB (ω)
eeeeeeeeeee ϕ→ M (ϕ) 
e B
o(V ) / {A ∈ Mat(n, R) | A = −A}.

Da der horizontale und der vertikale Pfeil bijektiv sind, ist die Abbildung ϕ → ωϕ Verkettung
bijektiver Abbildungen und damit selbst bijektiv. 

Bemerkung 7.125. Tatsächlich zeigt der Beweis, dass die Abbildung ϕ → ωϕ sogar ein
Vektorraumisomorphismus ist.

Satz 7.126. Sei V ein endlich-dimensionaler reeller Vektorraum. Sei ω eine schiefsymmetri-
sche Bilinearform auf V. Dann gibt es eine Basis B von V, so dass die darstellende Matrix
von ω bzgl. B folgendermaßen aussieht:

0


.. 
. 

0 
MB (ϕ) = 

J 
.. 
. 

J 

hat, wobei 
0 −1
J= .
1 0
404 7. Bilineare Algebra

Beweis. Wir wählen ein euklidisches Skalarprodukt ·, · auf V. Das können wir z.B. dadurch
tun, dass wir gemäß Korollar 4.30 einen Isomorphismus Ψ : V → Rn wählen und v, w :=
(Ψ(v)) · Ψ(w) setzen. Sei ϕ ∈ o(V ) gemäß Lemma 7.124 der Endomorphismus mit ω = ωϕ .
Dann gibt es eine Orthonormalbasis B̃ = (b̃1, . . . , b̃n ) bzgl. derer die darstellende Matrix
von ϕ die Form wie in Satz 7.122 hat. Sei 0 ≤  ≤ n die Anzahl der Nullen vor den
Zweierblöcken in dieser darstellenden Matrix. Dann ist ϕ(b̃ j ) = 0 für j = 1, . . ., . Dem j-ten
Zweierblock entspricht das Paar von Basisvektoren b̃+2 j−1 , b̃+2 j mit ϕ(b̃+2 j−1 ) = −λ j b̃+2 j
und ϕ(b̃+2 j ) = λ j b̃+2 j−1 . Wir setzen


⎪ b̃ , falls k ∈ {1, . . . , };

⎨ 1k

b k := −λ j b̃ k , falls k =  + 2 j − 1;


⎪ b̃ k , falls k =  + 2 j.

In anderen Worten, wir strecken den jeweils ersten Basisvektor zu jedem Zweierblock mit dem
Faktor −λ1 j . Ansonsten bleiben die Basisvektoren unverändert.
Nun bestimmen wir die darstellende Matrix von ω bzgl. B := (b1, . . ., bn ). Für j = 1, . . ., 
und beliebiges k = 1, . . ., n gilt
; <
ω(b j , b k ) = ϕ(b̃ j ), b k = 0, b k  = 0.

Die ersten  Spalten der darstellenden Matrix sind also Nullspalten. Desweiteren gilt
5 $ % 6
1
ω(b2+2 j−1, b k ) = ϕ b̃2+2 j−1 , b k
−λ j
1 ; <
= ϕ(b̃2+2 j−1 ), b k
−λ j
1 ; <
= −λ j b̃2+2 j, b k
−λ j
; <
= b2+2 j, b k

1, falls k = 2 + 2 j,
=
0, sonst.

Dies zeigt, dass die jeweils erste Spalte, die zu jedem Zweierblock gehört, so ist, wie im Satz
behauptet. Für die jeweils zweite Spalte zu den Zweierblöcken überprüft man die Aussage
genauso. 

Bemerkung 7.127. Im Beweis haben wir die Basis so gewonnen, dass wir mit einer Ortho-
normalbasis begonnen haben und dann manche Basisvektoren reskaliert haben. Die daraus
entstehende Basis ist dann immer noch eine Orthogonalbasis. Wir können also festhalten: für
jede schiefsymmetrische Bilinearform ω auf einem endlich-dimensionalen euklidischen Vek-
torraum können wir eine Orthogonalbasis finden, bzgl. derer die darstellende Matrix die Form
wie in Satz 7.126 aussieht.
7.9. Aufgaben 405

Eine Bilinearform auf einem endlich-dimensionalen R-Vektorraum ist genau dann nicht aus-
geartet, wenn ihre darstellende Matrix bzgl. einer beliebigen Basis invertierbar ist. In der Form
der darstellenden Matrix aus Satz 7.126 heißt das, dass keine Nullen, sondern nur Zweierblö-
cke auftreten. Das kann aber nur dann der Fall sein, wenn die Größe der darstellenden Matrix
gerade ist. Halten wir dies fest:

Korollar 7.128. Sei V ein ungerade-dimensionaler reeller Vektorraum. Dann ist jede schief-
symmetrische Bilinearform auf V ausgeartet. 

7.9. Aufgaben
7.1. Sei β : R3 × R3 → R gegeben durch

β(v, w) = v × w, (1, 1, 1) .

a) Zeigen Sie, dass β eine schiefsymmetrische Bilinearform auf R3 ist.

b) Bestimmen Sie die darstellende Matrix von β bzgl. der Standardbasis von R3 .

c) Bestimmen Sie die darstellende Matrix von β bzgl. der Basis B = (b1, b2, b2 ), wobei
1
0 0



2
b1 = 2 ,
b2 = 0  ,
b3 = 0  .
0 −1 0

7.2. Finden Sie die symmetrische Bilinearform β : R2 × R2 → R mit quadratischer Form

q β (x) = x12 + 4x1 x2 + x22 .

7.3. Sei A ∈ Mat(n, R) und q : Rn → R gegeben durch q(x) = x  · A · x. Zeigen Sie,


dass es genau eine symmetrische Matrix B ∈ Mat(n, R) und genau eine obere Dreiecksmatrix
C ∈ Mat(n, R) gibt mit
q(x) = x  · B · x = x  · C · x
für alle x ∈ Rn . Drücken Sie die Einträge von B und C durch die von A aus.

7.4. Sei β eine symmetrische Bilinearform auf einem endlich-dimensionalen Vektorraum V.


Zeigen Sie: Ist W ein Untervektorraum von V mit V = W ⊕ N(β), dann ist die Einschränkung
von β auf W × W nicht ausgeartet.

7.5. Sei K ein Körper mit 1 + 1  0. Sei V ein n-dimensionaler K-Vektorraum. Zeigen Sie:

a) Ist A ∈ Mat(n, K) schiefsymmetrisch und invertierbar, dann muss n gerade sein.


406 7. Bilineare Algebra

b) Ist β : V × V → K eine nicht ausgeartete, schiefsymmetrische Bilinearform, so muss n


gerade sein.

7.6. Sei K = F2 und V = F22 . Zeigen Sie, dass es zur symmetrischen Bilinearform β(v, w) =
v1 w2 + v2 w1 keine diagonalisierende Basis gibt.

7.7. Sei S ∈ Mat(2, R) eine symmetrische Matrix und β(x, y) = x  · S · y die zugehörige
symmetrische Bilinearform auf R2 . Zeigen Sie:

a) β ist genau dann positiv oder negativ definit, wenn det(S) > 0.

b) β ist genau dann indefinit, wenn det(S) < 0.

c) β ist genau dann ausgeartet, wenn det(S) = 0.

7.8. Sei V ⊂ C 0 ([0, 1], R) der Untervektorraum der Polynomfunktionen vom Grad ≤ 2. Auf
V betrachten wir die symmetrische Bilinearform

∫1
β( f , g) = f (t)g(t)dt.
0

a) Bestimmen Sie r+ , r− und r0 für dieses β.

b) Bestimmen Sie eine diagonalisierende Basis von V für dieses β.

7.9. Zeigen Sie: H1 ⊂ R2 ist eine Hyperbel genau dann, wenn es ein T ∈ GL(2, R) gibt mit
H1 = T(H). Dabei ist H die Standardhyperbel.

7.10. Sei A ∈ Mat(n, R) und ·, · das Standardskalarprodukt auf Rn . Wir definieren β :
Rn × Rn → R durch
β(x, y) := Ax, Ay .
Zeigen Sie:

a) β ist eine positiv semidefinite symmetrische Bilinearform auf Rn .

b) β ist genau dann positiv definit, wenn det(A)  0.

7.11. Sei V ein endlich-dimensionaler euklidischer Vektorraum, sei U ⊂ V ein Untervektor-


raum und sei P : V → U die Orthogonalprojektion. Zeigen Sie:

a) Für jedes v ∈ V hat P(v) kleinsten Abstand von v unter allen Elementen von U.

b) P(v) ist das einzige Element von U mit minimalem Abstand von v.

c) Erstellen Sie eine erläuternde Skizze.


7.9. Aufgaben 407

7.12. Sei U ein Untervektorraum eines endlich-dimensionalen euklidischen Vektorraums V.


Zeigen Sie:
(U ⊥ )⊥ = U.

7.13. Für eine quadratische Matrix A ∈ Mat(n, K) nennt man die Summe der Diagonaleinträge
die Spur der Matrix,
n
Spur(A) := Aj j .
j=1

Zeigen Sie, dass für alle A, B ∈ Mat(n, K) gilt:

Spur(AB) = Spur(B A).

7.14. Sei A ∈ Mat(n, C) und seien λ1, . . ., λn die Eigenwerte von A, wobei jeder Eigenwert
entsprechend seiner algebraischen Vielfachheit wiederholt wird. Zeigen Sie:

Spur(A) = λ1 + . . . + λn .

7.15. Zeigen Sie, dass durch


β(A, B) := Spur(A · B)
ein euklidisches Skalarprodukt auf Mat(n, R) definiert wird.

7.16. Wenden Sie bzgl. des Skalarprodukts aus Aufgabe 7.15 das Gram-Schmidt-Verfahren
auf die Basis (b1, b2, b3, b4 ) von Mat(2, R) an, wobei
       
1 0 1 0 1 0 1 1
b1 = , b2 = , b3 = , b4 = .
0 0 0 1 1 1 1 1

7.17. Sei U ⊂ R3 ein 2-dimensionaler Untervektorraum und sei B = (b1, b2 ) eine Basis von
U. Zeigen Sie, dass b1 × b2 ein Basisvektor für U ⊥ ist (bzgl. des Standardskalarprodukts auf
R3 ).

7.18. Sei V ein euklidischer Vektorraum mit zugehöriger Norm  · .

a) Zeigen Sie, dass für alle v, w ∈ V die Parallelogrammgleichung gilt:

v + w 2 + v − w 2 = 2(v 2 + w 2 ).

b) Erklären Sie die Bezeichnung „Parallelogrammgleichung“ anhand einer Skizze.

c) Zeigen Sie, dass es kein Skalarprodukt auf Rn gibt, so dass die zugehörige Norm die
Maximumsnorm ist:
 xmax = max |xi | .
i=1,...,n
408 7. Bilineare Algebra

7.19. Für v ∈ Rn mit v = 1 sei H(v) ∈ Mat(n, R) die Matrix mit den Einträgen
H(v)i j = δi j − 2vi v j .
Zeigen Sie, dass die Spaltenvektoren von H(v) eine Orthonormalbasis von Rn bilden (bzgl. des
Standardskalarprodukts). Eine Matrix der Form H(v) wird als Householdermatrix bezeichnet.

7.20. Seien V, W, Z euklidische Vektorräume und ϕ : V → W und ψ : W → Z lineare


Abbildungen. Zeigen Sie:
(ψ ◦ ϕ) = ϕ  ◦ ψ  .

7.21. Sei V ein euklidischer Vektorraum und seien ϕ, ψ ∈ End(V) selbstadjungiert. Zeigen Sie,
dass ϕ◦ψ genau dann selbstadjungiert ist, wenn ϕ und ψ kommutieren, d.h. wenn ϕ◦ψ = ψ ◦ ϕ.

7.22. In dieser Aufgabe wird ein alternativer, analytischer Beweis der Zwischenbehauptung
im Beweis von Satz 7.80 gegeben. Sei A eine symmetrische reelle Matrix. Wir betrachten die
Funktion q : Rn → R, gegeben durch q(x) = A · x, x. Diese Funktion ist ein quadratisches
Polynom und daher beliebig oft differenzierbar. Da die Einheitssphäre S n−1 = {x ∈ Rn |  x =
1} abgeschlossen und beschränkt, also kompakt ist, nimmt q auf S n−1 in einem Punkt x0 ∈ S n−1
das Maximum an.
sin(t)
a) Zeigen Sie: Für alle y ∈ Rn \ {0} mit y ⊥ x0 ist cos(t)x0 +  y y ∈ S n−1 für alle t ∈ R.
b) Zeigen Sie: Ist y ⊥ x0 , dann ist auch y ⊥ Ax0 .

sin(t)
Hinweis: Leiten Sie die Funktion t → q cos(t)x0 +  y y bei t = 0 ab.

c) Schließen Sie daraus, dass x0 ein Eigenvektor von A zu einem reellen Eigenwert ist.

7.23. Zeigen Sie: Jedes Orthonormalsystem eines unitären Vektorraums ist linear unabhängig
(über C).

7.24. Sei (V, h) ein unitärer Vektorraum und B = (b1, . . ., bn ) eine Orthonormalbasis von V.
Dann gilt für alle v ∈ V :
n
v= h(b j, v) · b j .
j=1

7.25. Sei A ∈ Mat(n, C). Zeigen Sie, dass folgende Aussagen äquivalent sind:
(1) A ist unitär.
(2) Die Spalten von A bilden eine Orthonormalbasis von Cn bzgl. der Standard-
Sesquilinearform.

7.26. Sei B = (b1, . . ., bn ) eine Orthonormalbasis des unitären Vektorraums (V, h). Zeigen
Sie, dass dann B = (b1, ib1, . . . , bn, ibn ) eine Orthonormalbasis des euklidischen Vektorraums
(VR, ·, ·) ist. Hierbei ist ·, · das von h induzierte euklidische Skalarprodukt.
7.9. Aufgaben 409

7.27. Sei (V, h) ein unitärer Vektorraum und U ⊂ V ein komplexer Untervektorraum. Sei ·, ·
das von h induzierte euklidische Skalarprodukt. Sei v ∈ V.

a) Zeigen Sie: h(v, u) = 0 für alle u ∈ U genau dann, wenn v, u = 0 für alle u ∈ U. Für die
Definition des orthogonalen Komplements U ⊥ spielt es also keine Rolle, ob man h oder
·, · verwendet.

b) Zeigen Sie: U ⊥ ist ein komplexer Untervektorraum von V.

c) Zeigen Sie: V = U ⊕ U ⊥ .

d) Zeigen Sie durch ein Beispiel, dass a) falsch wird, wenn U nur ein reeller Untervektorraum
ist.

7.28. Sei V ein Vektorraum und seien A, B, C ∈ End(V ). Zeigen Sie die Jacobi-Identität für
den Kommutator:
[[A, B], C] + [[B, C], A] + [[C, A], B] = 0.

7.29. Sei A ∈ U(n). Zeigen Sie, dass es ein T ∈ U(n) gibt, so dass T −1 ·A·T eine Diagonalmatrix
ist, deren Diagonaleinträge alle Betrag 1 haben.

7.30. Sei A ∈ Mat(n, C) mit Ā = A. Zeigen Sie, dass es ein T ∈ U(n) gibt, so dass T −1 · A · T
eine Diagonalmatrix ist.

7.31. Sei A ∈ o(n).

a) Zeigen Sie, dass es ein T ∈ O(n) gibt, so dass T −1 · A · T eine Blockdiagonalform wie in
Satz 7.122 hat.

b) Zeigen Sie, dass es ein T ∈ GL(n) gibt, so dass T  · A · T eine Blockdiagonalform wie in
Satz 7.126 hat.
A. Anwendungen
Die lineare Algebra hat zahllose Anwenungen innerhalb und außerhalb der Mathematik. Im
Folgenden wollen wir durch einige Beispiele einen ersten Eindruck davon bekommen.

A.1. Graphentheorie - etwas Kombinatorik


Wir betrachten folgende Landkarte Deutschlands mit seinen alphabetisch durchnummerierten
Bundesländern:

Abb. 120 Bundesländer1

Wir wollen jetzt Fragen wie die folgende untersuchen:

Wie viele Möglichkeiten gibt es, von Brandenburg nach Rheinland-Pfalz zu


reisen und dabei genau 10-mal eine Landesgrenze zu überschreiten? (A.1)

Man kann Matrixrechnung verwenden und dies systematisch zu untersuchen. Wir kodieren
zunächst die wesentlichen Informationen in einem so genannten Graph. Ein Graph besteht
aus zwei Mengen, einer Menge von Knoten (Ecken) und einer Menge von Kanten. Eine Kante
ist dabei eine Verbindung zweier Knoten. Eine genaue Definition von Graphen benötigen wir
hier nicht und verzichten daher darauf.
1Bild basiert auf einer Grafik erstellt mit mapchart.net, Quelle: https://mapchart.net

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_8
412 A. Anwendungen

Im Bundesländer-Beispiel haben wir für den Bundesländer-Graph die Menge {Knoten} =


{Bundesländer} und folgende Kanten: Zwei Länder werden genau dann durch eine Kante
verbunden, wenn sie aneinander grenzen. Dies liefert folgenden Graphen:

1 2 3 4

16 5

15 6

14 7

13 8

12 11 10 9

Abb. 121 Bundesländergraph

Offenbar kann ein Graph mit vielen Knoten sehr unübersichtlich werden. Mathematisch be-
schreiben wir daher einen Graph mit endlich vielen Knoten durch seine so genannte Adjazenz-
matrix A. Hierzu nummmerieren wir die Knoten durch und setzen


1, falls der i-te und der j-te Knoten durch eine Kante verbunden sind,
Ai j :=
0, sonst.
A.1. Graphentheorie - etwas Kombinatorik 413

Im Bundesländer-Beispiel erhalten wir folgende 16 × 16-Matrix:


0 1 0 0 0 0 1 0 0 0 1 0 0 0 0 0

1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 1 

0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 


0 0 1 0 0 0 0 1 1 0 0 0 1 1 0 0 

0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 

0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 0 


1 1 0 0 0 0 0 0 1 1 1 0 0 0 0 1 

0 0 0 1 0 0 0 0 1 0 0 0 0 0 1 0 
A = 

0 0 0 1 1 1 1 1 0 1 0 0 0 1 1 1 

0 0 0 0 0 0 1 0 1 0 1 0 0 0 0 0 

1 0 0 0 0 0 1 0 0 1 0 1 0 0 0 0 


0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 

0 1 0 1 0 0 0 0 0 0 0 0 0 1 0 1 


0 0 0 1 0 0 0 0 1 0 0 0 1 0 0 1 

0 0 0 0 0 1 0 1 1 0 0 0 0 0 0 0 

0 1 0 0 0 0 1 0 1 0 0 0 1 1 0 0 
Stets ist A symmetrisch, d.h. für alle i, j gilt Ai j = A ji .

Definition A.1. Ein Weg der Länge m in einem Graphen ist ein (m + 1)-Tupel von Knoten
(k0, . . ., k m ), so dass für alle i ∈ {0, . . ., m − 1} gilt:

ki und ki+1 sind durch eine Kante verbunden.

Im Bundesländer-Beispiel sind z.B. (1, 2, 7) und (5, 9, 5, 9, 6) Wege der Länge 2 bzw. 4, (1, 2, 3)
hingegen ist kein Weg, da 2 und 3 nicht miteinander verbunden sind (Bayern und Berlin haben
keine gemeinsame Landesgrenze).
Die Lösung der Fragestellung (A.1) ist somit durch die Anzahl der Wege der Länge m = 10
von Knoten 4 nach Knoten 11 bestimmt. Allgemein gilt folgender

Satz A.2. Ist A die Adjazenzmatrix eines endlichen Graphen (mit nummerierten Knoten), so
ist die Anzahl der Wege der Länge m vom i-ten zum j-ten Knoten genau der (i, j)-te Eintrag
der Matrix
Am := A · . . . · A.
()*+
m-mal
414 A. Anwendungen

Beweis. Sei α(i, j, m) die Anzahl der Wege der Länge m vom i-ten zum j-ten Knoten. Wir
zeigen:

(Am )i j = α(i, j, m) (A.2)

mittels vollständiger Induktion nach der Weglänge m.


Im Induktionsanfang erhalten wir für m = 1 per Definition


 1, falls die Knoten i und j verbunden sind,
Ai j = A 1
= α(i, j, 1) =
ij 0, falls die Knoten i und j nicht verbunden sind.

Sei für den Induktionsschritt die Aussage (A.2) für ein m ∈ N gültig. Wir zeigen, dass dann
auch

Am+1 = α(i, j, m + 1)
ij

gilt. Wir fixieren den Startknoten i und den Zielknoten j. Um in m + 1 Schritten nach von
i nach j zu gelangen, müssen wir zunächst in m Schritten von i zu irgendeinem Knoten k
gelangen und dann in einem Schritt von k nach j. Letzteres ist nur dann möglich, wenn k und
j verbunden sind, d.h. wenn Ak j = 1. Es gilt also


α(i, j, m + 1) = α(i, k, m) · Ak j .
k

Mittels der Induktionsvoraussetzung (IV) folgern wir nun:


α(i, j, m + 1) = α(i, k, m) · Ak j
k
IV

= (Am )ik · Ak j
k
= (Am · A)i j

= Am+1 . 
ij
A.1. Graphentheorie - etwas Kombinatorik 415

Im Bundesländer-Beispiel multipliziert man die Matrix A mit sich selbst und erhält

3 1 0 0 0 0 2 0 1 2 1 1 1 0 0 2




1 4 0 1 0 0 2 0 2 1 2 0 1 2 0 2 


0 0 1 0 0 0 0 1 1 0 0 0 1 1 0 0 


0 1 0 5 1 1 1 1 2 1 0 0 1 2 2 3 


0 0 0 1 1 1 1 1 0 1 0 0 0 1 1 1 



0 0 0 1 1 2 1 2 1 1 0 0 0 1 1 1 


2 2 0 1 1 1 6 1 2 2 2 1 2 2 1 2 


0 0 1 1 1 2 1 3 2 1 0 0 1 2 1 1 
A =
2 

1 2 1 2 0 1 2 2 9 1 2 0 3 2 2 2 



2 1 0 1 1 1 2 1 1 3 1 1 0 1 1 2 


1 2 0 0 0 0 2 0 2 1 4 0 0 0 0 1 


1 0 0 0 0 0 1 0 0 1 0 1 0 0 0 0 


1 1 1 1 0 0 2 1 3 0 0 0 4 2 0 2 



0 2 1 2 1 1 2 2 2 1 0 0 2 4 1 2 


0 0 0 2 1 1 1 1 2 1 0 0 0 1 3 1 

2 2 0 3 1 1 2 1 2 2 1 0 2 2 1 5 

So ist zum Beispiel der 1-1-Eintrag gleich 3, was bedeutet, dass man auf genau 3 Weisen in
zwei Schritten von Land 1 zu sich selbst reisen kann. In der Tat hat Baden-Württemberg genau
3 Nachbarländer. Der 3-14-Eintrag ist gleich 1, denn man kann auf genau eine Weise in zwei
Schritten von Berlin nach Sachsen-Anhalt reisen (nämlich über Brandenburg). Schließlich ist
der 2-5-Eintrag gleich 0, da man nicht in zwei Schritten von Bayern nach Bremen kommt.

Um die Ausgangsfrage zu beantworten, müssen wir die 10-te Potenz von A berechnen. Wenn
man kühlen Kopf bewahrt und dies tut (oder einen Computer tun lässt), so erhält man
416 A. Anwendungen

122133 175608 41206 191539 69876 95617 251161 136823 . . .





175608 256948 61837 283567 102476 141044 365281 202881 . . . 


... 
41206 61837 16181 70772 25306 35425 87950 51606 


191539 283567 70772 327963 118896 163586 405312 234358 . . . 


69876 102476 25306 118896 43734 59813 147740 85119 ... 


95617 141044 35425 163586 59813 82359 202852 117784 . . . 


147740 202852 522812 290802 . . . 
251161 365281 87950 405312 


136823 202881 51606 234358 85119 117784 290802 169390 . . . 
A10 = 

319249 473106 118896 532707 190956 265744 672308 384640 . . . 


152981 221828 53153 248598 91066 124615 318354 177768 . . . 


251872 136938 . . . 
122267 177363 41752 191066 69033 95186 


27621 38805 8757 41752 15557 21055 56168 29812 ... 


178571 263718 65943 296414 106589 147676 375339 213619 . . . 


204096 301686 75337 344079 124737 172005 431041 247342 . . . 


103242 254324 147932 . . . 
119833 177465 44690 205927 74788 

247727 362837 88468 409963 148901 204426 518378 292894 . . . 

Also ergibt sich die Anzahl der Wege der Länge 10 von Brandenburg (4) nach Rheinland-Pfalz
(11) zu
 
A10 = A10 = 191066.
4,11 11,4

Aufgabe:

A.1. Wie viele Möglichkeiten gibt es, in unten abgebildeter Wohnung aus der Küche in das
Mathe-Lern-Zimmer zu kommen und dabei nicht mehr als 8 Türen zu passieren?
A.2. Codierungstheorie 417

Bad Küche

Diele Schlafzimmer

Mathe-Lern-Zimmer

Abb. 122 Grundriss

A.2. Codierungstheorie
Bei der Übertragung von Daten treten Übermittlungsfehler auf. Wir werden jetzt sehen, wie
man Daten so codieren kann, dass die Fehler bis zu einem gewissen Grad korrigiert werden
können. Solche Fehlerkorrekturen sind z.B. bei CD-Playern wichtig, da die auf CD gebrannten
Daten nie völlig fehlerfrei sind. Wir werden, wie im digitalen Zeitalter üblich, unsere Daten
im Binärformat vorliegen haben, d.h. als eine Folge von Nullen und Einsen.
Es liegt also nahe, den Primkörper K = F2 zu betrachen und darüber den n-dimensionalen
Vektorraum V = (F2 )n . Die Elemente von V sind Folgen der Länge n von Nullen und Einsen.
Das sind unsere zu übermittelnden Nachrichten.

Definition A.3. Die Abbildung dH : V × V → N definiert durch

dH (v, w) := #{ j ∈ {1, 2, . . ., n} | v j  w j }

heißt Hamming-Abstand1.

Ist v die gesendete und w die empfangene Nachricht, dann gibt der Hamming-Abstand an, wie
viele Übertragungsfehler aufgetreten sind.

Lemma A.4. Der Hamming-Abstand erfüllt für alle u, v, w ∈ V:

(i) dH (v, w) ≥ 0 und dH (v, w) = 0 ⇔ v = w.

1Benannt nach dem amerikanischen Mathematiker Richard Wesley Hamming (1915–1998)


418 A. Anwendungen

(ii) dH (v, w) = dH (w, v).

(iii) dH (u, w) ≤ dH (u, v) + dH (v, w).

(iv) dH (v, w) = dH (v + u, w + u).

Beweis. Aussage (iii) folgt aus der Beobachtung: Ist u j  w j , so ist u j  v j oder w j  v j . Die
anderen Aussagen sind trivial. 

Die ersten drei Aussagen sind gerade die Axiome eines metrischen Raumes. Der Hamming-
Abstand ist also eine Metrik auf der Menge V.

Definition A.5. Sei Λ ∈ N. Eine Teilmenge C ⊂ (F2 )n heißt Λ-fehlerkorrigierender Code,


falls für alle u, v ∈ C mit u  v gilt:

dH (u, v) ≥ 2Λ + 1.

Beispiel A.6. Sei n = 3 und



⎪ 0 1 ⎫ ⎪




⎪ ⎬


C = 0 , 1 .
⎪ ⎪
⎪ 0 1 ⎪
⎪ ⎪
⎩  ⎭
Dann ist
0 1



dH 0 , 1 = 3.
0 1
Also ist C ein 1-fehlerkorrigierender Code.

Der Code C ist die Menge der zugelassenen Wörter, aus denen die Nachrichten bestehen, die
übertragen werden sollen. Ist der Code nun Λ-fehlerkorrigierend für möglichst großes Λ, so
können kleine Fehler bei der Übertragung erkannt und korrigiert werden.

Lemma A.7. Sei C ⊂ V ein Λ-fehlerkorrigierender Code. Dann gibt es zu jedem v ∈ V


höchstens ein w ∈ C mit dH (v, w) ≤ Λ.

Beweis. Seien w1, w2 ∈ C mit dH (v, wi ) ≤ Λ. Dann gilt

dH (w1, w2 ) ≤ dH (w1, v) + dH (v, w2 ) ≤ 2Λ.


A.2. Codierungstheorie 419

Da C nach Voraussetzung Λ-fehlerkorrigierend ist, folgt w1 = w2 . 

Es ist also gut, einen Λ-fehlerkorrigierenden Code mit möglichst großem Λ zu haben. Treten
bei der Übermittlung einer Nachricht höchstens Λ viele Fehler auf, dann kann die gesendete
Nachricht rekonstruiert werden.
Es gibt aber zwei Probleme: Zum einen muss der Code festgelegt und abgespeichert werden.
Große Codes brauchen viel Speicherplatz. Zum anderen erfordert die Decodierung viele Ver-
gleiche der empfangenen Nachricht mit den Elementen aus C und ist daher rechenaufwändig.
Um die Situation zu verbessern benutzen wir lineare Algebra.

Definition A.8. Ein Λ-fehlerkorrigierender Code C ⊂ (F2 )n heißt linear, falls C zusätzlich
ein Untervektorraum ist.

Warum ist es vorteilhaft, wenn C linear ist? Dann können wir C durch Angabe einer
Basis festlegen und brauchen nicht alle Elemente abzuspeichern. Hat C die Dimension
k, dann besteht jede Basis aus genau k Vektoren, aber C ist gemäß Korollar 4.30 iso-
morph zu (F2 )k und hat somit genau 2 k Elemente. So macht es z.B. für k = 100 einen
gewaltigen Unterschied, ob man nur die 100 Basisvektoren abspeichern muss oder alle
2100 = 1.267.650.600.228.229.401.496.703.205.376 Elemente.
Nun brauchen wir noch eine effiziente Decodierungsmethode. Dabei ist folgende allgemeine
Beobachtung nützlich:

Lemma A.9. Sei K ein Körper, V ein n-dimensionaler K-Vektorraum, W ein (n − k)-
dimensionaler K-Vektorraum und C ⊂ V ein k-dimensionaler Untervektorraum. Dann gibt
es eine surjektive lineare Abbildung ϕ : V → W mit ker(ϕ) = C.

Beweis. Ergänze eine geordnete Basis (b1, . . ., b k ) von C zu einer geordneten Basis
(b1, . . ., b k , b k+1, . . . , bn ) von V. Sei (w1, . . . , wn−k ) eine geordnete Basis von W. Wir legen
ϕ durch Vorgabe der Werte auf den Basisvektoren b j eindeutig fest, indem wir setzen

0, falls 1 ≤ j ≤ k,
ϕ(b j ) :=
w j−k , falls k + 1 ≤ j ≤ n.
Die hierdurch definierte lineare Abbildung ϕ : V → W hat als Kern die lineare Hülle von
b1, . . ., b k , also C. Jeder Basisvektor w j von W liegt im Bild von ϕ, damit auch alle Linear-
kombinationen dieser Basisvektoren, d.h. alle Vektoren in W. Somit ist ϕ surjektiv. 

Sei von jetzt an C ⊂ (F2 )n stets ein linearer Λ-fehlerkorrigierender Code mit dim C = k.
Gemäß Lemma A.9 wählen wir eine surjektive lineare Abbildung ϕ : (F2 )n → (F2 )n−k mit
ker(ϕ) = C. Die darstellende Matrix M(ϕ) ∈ M((n − k) × n, F2 ) heißt Kontrollmatrix des
Codes.
420 A. Anwendungen

Beispiel A.10. Sei n = 7. Betrachte die Matrix

1 0 0 1 1 0 1


A := 0 1 0 1 0 1 1 .
0 0 1 0 1 1 1
Da die ersten drei Spaltenvektoren linear unabhängig sind, muss der Rang von A gleich 3 sein.
Nach der Dimensionsformel 4.19 hat der Kern C von A die Dimension k = 7 − 3 = 4. Da
die Matrix bereits in Zeilenstufenform vorliegt, können wir den Kern leicht bestimmen. Für
x = (x1, . . . , x7 ) ∈ (F2 )7 gilt


x4 + x5 + x7
x + x + x 
4 6 7
⎧ 

⎪ x = x5 + x6 + x7 x5 + x6 + x7 
⎨ 3
⎪ 
A · x = 0 ⇐⇒ x2 = x4 + x6 + x7 ⇐⇒ x = x4 .


⎪ 
⎪ x1 = x4 + x5 + x7 x5 
⎩ 
x 
6 
x7 
Wir wollen uns überlegen, dass dieser lineare Code C 1-fehlerkorrigierend ist. Das bedeutet,
dass wenn A · x = A · x  = 0 und x  x  gilt, dann müssen sich x und x  in wenigstens 3
Komponenten unterscheiden.
Nennen wir die drei ersten Komponenten die „oberen“ Komponenten und die vierte bis letzte
die „unteren“ Komponenten. Unterscheiden sich x und x  in wenigstens drei unteren Kompo-
nenten, so ist nichts zu zeigen. Es verbleiben folgende drei Fälle:
a) Die unteren Komponenten von x und x  stimmen überein. Dann stimmen auch die oberen
überein, im Widerspruch zu x  x . Dieser Fall kann also nicht auftreten.

b) Die Vektoren x und x  unterscheiden sich in genau einer unteren Komponente. Diese tritt
in wenigstens zweien der oberen Komponenten auf, die sich dann ebenfalls unterscheiden
müssen. Daher unterscheiden sich x und x  in mindestens drei Komponenten.

c) Die Vektoren x und x  unterscheiden sich in genau zwei unteren Komponenten. Dann gibt
es eine obere Komponente, in der die beiden unteren Komponenten auftreten, die für x und
x  gleich sind. In dieser oberen Komponente unterscheiden sich x und x  dann ebenfalls.
In jedem Fall unterscheiden sich x und x  in wenigstens drei Komponenten. Also ist A die
Kontrollmatrix eines vierdimensionalen 1-fehlerkorrigierenden Codes.

Nun zurück zum allgemeinen Fall. Nenne y ∈ (F2 )n−k zulässig, falls ein x ∈ ϕ−1 (y) existiert
mit dH (x, 0) ≤ Λ. Es kann höchstens ein solches x geben, denn sind x, x  ∈ ϕ−1 (y) mit
dH (x, 0) ≤ Λ und dH (x , 0) ≤ Λ, dann ist x − x  ∈ ker(ϕ) = C und

dH (x − x , 0) = dH (x, x ) ≤ dH (x, 0) + dH (0, x ) ≤ 2Λ.


A.3. Weitere Volumenberechnungen 421

Da C aber Λ-fehlerkorrigierend ist, folgt x − x  = 0, d.h. x = x .


Der Empfänger speichert in einer Liste alle zulässigen y ∈ (F2 )n−k zusammen mit den zu-
gehörigen x ∈ ϕ−1 (y), für die dH (x, 0) ≤ Λ gilt. Eine empfangene Nachricht v ∈ (F2 )n , die
möglicherweise verfälscht worden ist, kann nun wie folgt decodiert werden:

Empfangene Nachricht
v ∈ (F2 )n

Berechne y = ϕ(v)

Ist y nein Fehlerkorrektur


zulässig? nicht möglich

ja

Setze
 w := v − x
für x ∈ ϕ−1 (y)
mit dH (x, 0) ≤ Λ

w ist gesendete Nachricht

Abb. 123 Decodierungsalgorithmus

Wegen ϕ(w) = ϕ(v)−ϕ(x) = y−y = 0 ist w ∈ ker(ϕ) = C. Außerdem ist dH (w, v) = dH (x, 0) ≤
Λ. Nach Lemma A.7 ist w das eindeutige Element in C, das von v den Hamming-Abstand ≤ Λ
hat. Der Empfänger hat also guten Grund anzunehmen, dass w gesendete Nachricht ist.
Man kann x = v − w als den Fehlervektor ansehen, um den die empfangene Nachricht v von der
gesendeten w abweicht. Der Hamming-Abstand dH (x, 0) ist die Anzahl der Abweichungen in
den einzelnen Komponenten von v und w, also die Anzahl der bei der Übertragung entstandenen
Fehler. Ist diese Zahl kleiner als Λ, so kann man w aus v zurückgewinnen, was die Bezeichnung
„Λ-fehlerkorrigierender Code“ erklärt. Die Kontrollabbildung ϕ projiziert den fehlerhaften
Anteil x von v ∈ (F2 )n auf y ∈ (F2 )n−k . Ist dieser fehlerhafte Anteil zu groß, so ist seine
Projektion kein zulässiger Wert. In diesem Fall ist eine Fehlerkorrektur nicht möglich.

A.3. Weitere Volumenberechnungen


Dieser Anhang schließt sich an Abschnitt 5.2 an. Wir berechnen die Volumina einiger wichtiger
geometrischer Körper.
422 A. Anwendungen

Verallgemeinerte Zylinder. Wir betrachten nun Zylinder, wobei wir allerdings gleich allge-
meine Dimensionen zulassen und auch nicht verlangen, dass die „Basisfläche“ eine bestimmte
Gestalt hat, z.B. dass sie eine Kreisscheibe ist.

Definition A.11. Sei X ⊂ Rn−1 , und sei h ≥ 0. Dann heißt die Menge

Zh (X) := X × [0, h] ⊂ Rn−1 × R = Rn

der verallgemeinerte Zylinder über X der Höhe h.

h Zh (X)

X Rn−1

Abb. 124 Verallgemeinerter Zylinder

Satz A.12. Sei voln : Kn → R ein n-dimensionales Volumen. Dann erfüllt die Abbildung

Kn−1 → R,
X → voln (Z1 (X)) ,

die für das (n − 1)-dimensionale Volumen geforderten Eigenschaften 1–4 aus Definition 5.16.

Beweis. Zu Eigenschaft 1:
Für den (n − 1)-dimensionalen Einheitswürfel W n−1 finden wir:

voln (Z1 (W n−1 )) = voln (W n ) = 1 .


()*+
=W n

Zu Eigenschaft 2:
Seien X, Y ∈ Kn−1 mit X ⊂ Y. Dann ist offensichtlich Z1 (X) ⊂ Z1 (Y ), so dass gilt:

voln (Z1 (X)) ≤ voln (Z1 (Y )) .


A.3. Weitere Volumenberechnungen 423

Zu Eigenschaft 3:
Seien X, Y ∈ Kn−1 . Offensichtlich gilt fïr die verallgemeinerten Zylinder:

Z1 (X ∪ Y ) = Z1 (X) ∪ Z1 (Y ) und Z1 (X ∩ Y ) = Z1 (X) ∩ Z1 (Y ) .

Für die Volumina finden wir also:

voln (Z1 (X ∪ Y )) = voln (Z1 (X) ∪ Z1 (Y ))


= voln (Z1 (X)) + voln (Z1 (Y)) − voln (Z1 (X) ∩ Z1 (Y))
= voln (Z1 (X)) + voln (Z1 (Y)) − voln (Z1 (X ∩ Y )) .

Zu Eigenschaft 4:
Sei A ∈ Mat(n − 1, R), sei b ∈ Rn−1 , und sei F : Rn−1 → Rn−1 die affine Abbildung, gegeben
durch F(x) := A · x + b. Definiere  ∈ Mat(n, R) und b̂ ∈ Rn durch
   
A 0 b
 := , b̂ := .
0 1 0

Sei nun F̂ : R → R die affine Abbildung, gegeben durch F̂(x) := Â · x + b̂. Entwicklung nach
der letzten Spalte oder Zeile zeigt det  = ± det A. Außerdem ist Z1 (F(X)) = F̂(Z1 (X)) und
somit gilt:

voln (Z1 (F(X))) = voln (F̂(Z1 (X))) = | det Â| · voln (Z1 (X)) = | det A| · voln (Z1 (X)) . 

Korollar A.13. In allen Beispielen, für die wir das (n − 1)-dimensionale Volumen einer
Menge X ∈ Kn−1 aus den Eigenschaften 1–4 berechnen konnten, erhalten wir

voln (Z1 (X)) = voln−1 (X) (A.3)

für das n-dimensionale Volumen des Zylinders Z1 (X). 

Beispiel A.14. Insbesondere erhalten wir für das dreidimensionale Volumen des Zylinders
Z1 (D(r)) der Höhe 1 über der Kreisscheibe D(r) die Formel:

vol3 (Z1 (D(r))) = vol2 (D(r)) = π · r 2 . (A.4)

 
h=1

Z1 D(r)
D(r)
Abb. 125 Zylinder über der Kreisscheibe
424 A. Anwendungen

 
Bemerkung A.15. Es gibt eine lineare Abbildung ϕ : Rn → Rn mit Zh (X) = ϕ Z1 (X) ,
1n−1 0
nämlich diejenige mit darstellender Matrix M(ϕ) = . Somit erhalten wir für das
0 h
Volumen des Zylinders über X der Höhe h:

voln (Zh (X)) = voln (ϕ(Z1 (X))) = | det(ϕ)| · voln (Z1 (X)) = h · voln (Z1 (X)) . (A.5)
Ist das (n − 1)-dimensionale Volumen von X ∈ Kn−1 durch die Bedingungen in Definition 5.16
bestimmt, so erhalten wir aus (A.5) und aus der Formel (A.4):
voln (Zh (X)) = h · voln−1 (X) (A.6)

Schiefe Zylinder. Ein Turm ist in der Regel ein verallgemeinerter Zylinder,
z.B. über einer Kreisscheibe oder über einem Rechteck. In Pisa kann man
allerdings sehen, dass so ein Turm auch schon mal schief in die Höhe wächst.
Abb. 126
Daher folgende Definition:
Schiefer Turm
von Pisa2


b1
.. 
b1
.  n . Setze b̂ := ..  ∈ Rn−1 . Dann
Definition A.16. Sei X ⊂ Rn−1 , und sei b =  ∈ R . 
bn−1  
 b
n−1 
h 
heißt die Menge
=  
Z(X, b) := (X + t · b̂) × {t · h} ⊂ Rn−1 × R = Rn
t∈[0,1]

der schiefe Zylinder über X in Richtung b der Höhe h. Die Zahl h ∈ R heißt die Höhe
von Z(X, b).

Z(X, b) h

X Rn−1

Abb. 127 Schiefer Zylinder

2Künstler: johnny_automatic, Quelle: https://openclipart.org/detail/1186


A.3. Weitere Volumenberechnungen 425

Ein verallgemeinerter Zylinder ist also ein schiefer Zylinder mit Richtungsvektor b = 0 ∈ Rn−1 .

Bemerkung A.17. Es gibt eine lineare Abbildung ϕ : Rn → Rn mit Z(X, b) = ϕ(Zh (X)),
nämlich diejenige mit darstellender Matrix

b1

h
1 .. 
n−1 . 
M(ϕ) = .
bn−1 
h 
0···0 1 

Denn damit finden wir:


x1
x1 + h · b1
s

..  .. 
.  . 
M(ϕ) · = .
xn−1  xn−1 + s · bn−1 
 h 
s  s 

Nach der Substitution t = s/h liefert dies genau die Punkte aus Z(X, b) wie in Definition A.16.
Für das Volumen des schiefen Zylinders Z(X, b) erhalten wir daher:

voln (Z(X, b)) = voln (ϕ(Zh (X)))


= | det(ϕ)| · voln (Zh (X))

= voln (Zh (X) . (A.7)

Schiefe Zylinder haben also dasselbe Volumen wie gerade. Für X ∈ Kn−1 , dessen (n − 1)-
dimensionales Volumen durch die Bedingungen in Definition 5.16 bestimmt ist, so erhalten
wir daher wieder:
voln (Z(X, b)) = h · voln−1 (X) (A.8)

Kegel. Den verallgemeinerten Kegel über einer Basismenge X ⊂ Rn−1 und der Spitze b ∈ Rn
erhalten wir, indem wir alle Punkte aus der Basis mit der Spitze verbinden.

Definition A.18. Sei X ⊂ Rn−1 und b ∈ Rn . Dann heißt die Menge

C(X, b) := {t · x + (1 − t) · b | 0 ≤ t ≤ 1, x ∈ X }

der verallgemeinerte Kegel über X mit Spitze b.


426 A. Anwendungen

C(X, b)

X Rn−1

Abb. 128 Verallgemeinerter Kegel

Bemerkung A.19. Ähnlich wie bei schiefen Zylindern ändert sich auch bei verallgemeinerten
Kegeln das Volumen nicht, wenn man die Spitze verschiebt, solange man die Höhe über der

b1
.. 
. 
Basis dabei nicht verändert. Schreiben wir nämlich b =  und betrachten wieder die
bn−1 

h 
lineare Abbildung ϕ : Rn → Rn mit darstellender Matrix

b1

h
1 .. 
n−1 . 
M(ϕ) = ,
bn−1 
h 
0···0 1 

dann gilt
1
ϕ|Rn−1 ×{0} = idRn−1 ×{0} und ϕ(en ) = · b.
h
Da det(M(ϕ)) = 1, ist ϕ invertierbar mit ϕ−1 (b) = h · en . Für den Kegel C(X, b) über X mit
Spitze b ist daher ϕ−1 (C(X, b)) = C(X, h · en ). Wir erhalten damit für das Volumen von C(X, b)
die Formel:
voln (C(X, b)) = voln (C(X, h · en ) . (A.9)

Das Volumen von C(X, b) hängt also nur von der letzten Komponente h der Spitze b ab. Wir
bezeichnen h als die Höhe des Kegels C(X, b).

Beispiel A.20. Wir wollen das dreidimensionale Volumen eines Kegels über der Kreisscheibe
D(r) mit Höhe h berechnen. Nach Bemerkung A.19 können wir ohne Beschränkung der
Allgemeinheit b := h · e3 setzen.
A.3. Weitere Volumenberechnungen 427

D(r)

Abb. 129

Um das Volumen von C(D(r), h · e3 ) zu berechnen, approximieren wir den Kegel zunächst
durch m einbeschriebene Zylinder wie in folgender Skizze (für m = 4):

h · e3

 
←− Z h D( 34 r)
4

D(r)

Abb. 130 Einbeschriebener Zylinder

 
Die m einbeschriebenen Zylinder haben jeweils die Höhe mh und haben die Radien 1 − mj · r
mit j = 1, . . . m. Da die Vereinigung aller dieser Zylinder in dem Kegel C(X, b) enthalten ist,
und da die einzelnen Zylinder
  j  h
Z h D( 1 − · r + ( j − 1) · · e3 , j = 1 . . ., m ,
m m m
einander nur in Ebenen schneiden, so erhalten wir für das dreidimensionale Volumen des
Kegels C(D(r), h · e3 ) die folgende untere Abschätzung:
m 

=   j  h
vol3 (C(D(r), h · e3 )) ≥ vol3 Z h D( 1 − · r + ( j − 1) · · e3 
m m m
j=1 
m    j  h
= vol3 Z h D( 1 − · r + ( j − 1) · · e3
j=1
m m m
428 A. Anwendungen


m    j 
= vol3 Z h D( 1 − ·r
j=1
m m

(A.5)
m
h  j 2 2
= ·π· 1− ·r
j=1
m m

h   m − j 2
m
= · πr 2 ·
m j=1
m

h 
m
= · π · r 2
· (m − j)2
m3 j=1

h 
m−1
= · π · r 2
· k2 (mit k = m − j)
m3 k=0
h (m − 1) · m · 2m − 1
= · π · r2 ·
m3 6
(1 − 1
m ) · (2 − m1 )
= π · r2 · h · .
6

Im Grenzwert m → ∞ erhalten wir daraus die folgende untere Abschätzung für das drei-
dimensionale Volumen des Kegels C(X, b):

(1 − m1 ) · (2 − m1 ) π · r 2 · h
vol3 (C(D(r), h · e3 )) ≥ lim π · r 2 · h · = . (A.10)
m→∞ 6 3

Nun, da wir eine untere Abschätzung für das dreidimensionale Volumen des Kegels C(X, b)
bereits gewonnen haben, wollen wir auf analoge Weise das Volumen auch nach oben abschät-
zen. Dazu approximieren wir den Kegel C(X, b) durch m umbeschriebene Zylinder wie in
folgender Skizze (für m = 4):

Abb. 131 Umschriebener Zylinder

 
Die m umbeschriebenen Zylinder haben jeweils die Höhe mh und haben die Radien 1 − j−1 m ·r
mit j = 1, . . . m. Da die Vereinigung aller dieser Zylinder in dem Kegel C(X, b) enthalten ist,
A.3. Weitere Volumenberechnungen 429

und da die einzelnen Zylinder

  j − 1  h
Z h D( 1 − · r + ( j − 1) · · e3 , j = 1 . . ., m ,
m m m
einander nur in Ebenen schneiden, so erhalten wir für das dreidimensionale Volumen des
Kegels C(X, b) durch die analoge Rechnung wie oben die folgende obere Abschätzung:

m 

=   j − 1  h
vol3 (C(X, b)) ≤ vol3 Z h D( 1 − · r + ( j − 1) · · e3 
m m m
j=1 
m    j − 1 
= vol3 Z h D( 1 − ·r
j=1
m m

h 
m
= 3
· π · r2 · k2 (mit k = m − j + 1)
m k=1
h m · (m + 1) · 2m + 1
= 3
· π · r2 ·
m 6
(1 + m ) · (2 + m1 )
1
= π · r2 · h · .
6
Im Grenzwert m → ∞ erhalten wir daraus die folgende obere Abschätzung für das drei-
dimensionale Volumen des Kegels C(X, b):

(1 + m1 ) · (2 + m1 ) π · r 2 · h
vol3 (C(D(r), h · e3 )) ≤ lim π · r 2 · h · = . (A.11)
m→∞ 6 3
Damit ergibt sich insgesamt

π · r2 · h
vol3 (C(D(r), b)) = (A.12)
3

Bemerkung A.21. In der Approximation des Kegels durch Zylinder haben wir (im Wesentli-
chen) nur die Formel für das dreidimensionale Volumen des Zylinders über einer Kreisscheibe
D(r) benutzt. Für eine beliebige Menge X ∈ K2 , deren Flächeninhalt durch die Bedingungen
aus Definition 5.16 bestimmt ist, können wir ganz analog den Kegel C(X, h · e3 ) durch verall-
gemeinerte Zylinder von innen und von außen approximieren. Wir erhalten daher auf dieselbe
Weise die folgende Formel für das dreidimensionale Volumen des Kegels C(X, h · e3 ) über X:

h · vol2 (X)
vol3 (C(X, h · e3 )) = (A.13)
3
430 A. Anwendungen

C(X, b)

Abb. 132 Kegel über allgemeinem X ∈ K2

Tetraeder und Oktaeder. Die platonischen Körper sind berühmte Objekte der Geometrie.
Bei ihnen handelt es sich um kompakte konvexe Teilmengen von R3 , die durch regelmäßige
n-Ecke begrenzt werden. Alle Kanten haben dieselbe Länge. Ein platonischer Körper ist uns
schon begegnet, nämlich der Würfel. Er wird durch 6 Quadrate begrenzt. Ein Würfel ist ein
spezielles Parallelepiped; sein dreidimensionales Volumen ist einfach die dritte Potenz der
Seitenlänge.
Wir berechnen nun die Volumina für zwei weitere platonische Körper, nämlich das Tetraeder
und das Oktaeder.

Definition A.22. Das Tetraeder (zu deutsch: Vierflach) ist ein platonischer Körper, der vier
Seiten hat, die jeweils gleichseitige Dreiecke sind.

a a
a
T(a)
a
a a

Abb. 133 Tetraeder

Wir bezeichnen mit T(a) ⊂ R3 das Tetraeder der Kantenlänge a. Wir wollen das drei-
dimensionale Volumen von T(a) berechnen. Sei Δ ⊂ R2 die Grundfläche und h die Höhe
von T(a). Dann ist T(a) = C(Δ, h · e3 ), sofern wir T(a) so verschieben, dass der Schwerpunkt
des Dreiecks Δ im Nullpunkt 0 ∈ R3 liegt. Aus der Formel (A.13) wissen wir nun, dass das
dreidimensionale Volumen von T(a) gegeben ist durch:
h · vol2 (Δ)
vol3 (T(a)) = . (A.14)
3
Es bleibt also noch die Höhe h und der Flächeninhalt der Grundfläche Δ zu berechnen.
A.3. Weitere Volumenberechnungen 431

Die Grundfläche Δ ist ein gleichseitiges Dreieck der Seitenlänge a.

a a
h1

a
Abb. 134 Höhe h1 des Basisdreiecks

Die Höhe h1 von Δ ist nach dem Satz des Pythagoras:


 √
a 2 3
h1 = a2 − = ·a. (A.15)
2 2
Aus der Formel (5.8) erhalten wir also für den Flächeninhalt von Δ:
√ √
1 3 3 2
vol2 (Δ) = · a · ·a= ·a . (A.16)
2 2 4
Es bleibt die Höhe h zu berechnen:

a
h1 h

h1

Abb. 135 Höhe h des Tetraeders

Dazu zeichnen wir das Dreieck Δ mit der Höhe h über der Höhe h1 als Grundseite noch
einmal:

h1 h
a
x h1 − x
h1
Abb. 136

Für das linke Teildreieck liefert der Satz von Pythagoras

h12 = x 2 + h2 (A.17)
432 A. Anwendungen

und für das rechte


(A.17)
a2 = (h1 − x)2 + h2 = h12 − 2xh1 + x 2 + h2 = 2h12 − 2xh1,

also √
a2 (A.15) 3 a2 a
x = h1 − = a− √ = √ .
2h1 2 3a 2 3
Setzen wir dies und (A.15) in (A.17) ein, so erhalten wir

3a2 a2 2a2
h2 = h12 − x 2 = − = ,
4 12 3
und somit √
2
h = √ ·a. (A.18)
3
Für das dreidimensionale Volumen des Tetraeders T(a) der Seitenlänge a erhalten wir schließ-
lich die Formel:
√ √ √ √
(A.14) h · vol2 (Δ) (A.16),(A.18) a · 2/ 3 · a · 3/4
2 2 3
vol3 (T(a)) = = = ·a ,
3 3 12
also

2 3
vol3 (T(a)) = ·a (A.19)
12

Definition A.23. Das Oktaeder (zu deutsch: Achtflach) ist ein platonischer Körper, der
durch acht gleichseitige Dreiecke begrenzt wird.

a
h
h1
O(a)

Abb. 137 Oktaeder


A.4. Ranking von Webseiten 433

Wir bezeichnen mit O(a) das Oktaeder der Kantenlänge a. Die obige Skizze zeigt, dass O(a)
sich in zwei Kegel über einem Quadrat Q mit Seitenlänge a zerlegen läßt. Der Flächeninhalt
von Q ist gegeben durch vol2 (Q) = a2 . Das dreidimensionale Volumen von O(a) ist dann nach
der Formel (A.13) gegeben durch:
2
vol3 (O(a)) = · h · a2 .
3
Es bleibt also noch die Höhe h zu berechnen.
Die Seitenflächen des Oktaeders O(a) sind gleichseitige Dreiecke der Kantenlänge a; wir
bezeichnen deren Höhe mit h1 . Um die Höhe h zu berechnen, zeichnen wir das Dreieck Δ noch
einmal, das den oberen Kegel des Oktaeders O(a) halbiert. Dieses Dreieck ist gleichschenklig
mit Schenkeln der Länge h1 , Höhe h und dritter Seite der Länge a:

h1 h h1

Abb. 138 Hilfsdreieck im Oktaeder


Die Höhe h1 der Seitenflächen von O(a) ist nach der Formel (A.18) gegeben durch h1 = 23 · a.
Die Höhe h des Kegels über Q berechnen wir mittels des Satzes von Pythagoras:
 
 a  2 3 2 1 2 1
h = h12 − = ·a − ·a = √ ·a. (A.20)
2 4 4 2
Somit erhalten wir für das dreidimensionale Volumen des Oktaeders schließlich die Formel:

2 2 3
vol3 (O(a)) = · h · a =
2
·a ,
3 3
also √
2 3
vol3 (O(a)) = ·a (A.21)
3

A.4. Ranking von Webseiten


Die Qualität einer Suchmaschine wie der von Google hängt nicht zuletzt von ihrer Fähigkeit
ab, unter zahllosen Webseiten, die einen Suchbegriff enthalten, diejenigen mit der höchsten
434 A. Anwendungen

Relevanz zu finden, um sie ganz am Anfang der Trefferliste zu platzieren. Wie eine solche
Sortierung nach Wichtigkeit funktioniert, wollen wir in den Grundzügen hier beschreiben.
Dabei haben wir uns an [5] orientiert.
Ausgangspunkt ist die Überlegung, dass eine Webseite umso wichtiger ist, je mehr andere
Webseiten auf sie verweisen. Also könnte man einfach die Anzahl der Webseiten, von denen
eine gegebene Seite verlinkt wurde, als ihre Wichtigkeit definieren und die Suchergebnisse
danach sortieren. Besteht unser Internet also aus n Webseiten, dann wäre die Wichtigkeit der
j-ten Webseite gegeben durch
n
wj = η ji, (A.22)
i=1
wobei η ji = 1 ist, wenn die i-te Webseite auf die j-te verweist, und = 0 falls nicht. Selbstver-
weise wollen wir Selbstreferenzen dabei nicht mitzählen und setzen stets η j j = 0.
Diese Vorgehensweise berücksichtigt allerdings nicht, dass Verweise von wichtigen Webseiten
ein höheres Gewicht haben sollten als die von unwichtigen. Daher ersetzen wir (A.22) durch
die Forderung
n
wj = η ji wi . (A.23)
i=1
Jetzt wird jeder Link von einer anderen Webseite mit der Wichtigkeit dieser verlinkenden
Seite gewichtet. Allerdings können sich auch unwichtige Seiten jetzt immer noch einen großen
Einfluss auf das Ranking dadurch verschaffen, dass sie viele Links auf andere Seiten setzen.
Der Einfluss auf die Anordnung jeder einzelnen Seite ist dann zwar immer noch gering, aber
der Gesamteinfluss auf die Ranking-Prozedur, wenn wir alle Seiten zusammennehmen, ist
ungebührlich groß.
Um das zu verhindern, normieren wir die Koeffizienten η ji so, dass ihre Gesamtsumme stets 1
ergibt. Wir ersetzen also η ji durch
η ji
a ji = n .
k=1 η ki

Hier müssen wir aufpassen, dass wir nicht durch 0 dividieren. Das würde dann passieren, wenn
für ein i gelten würde, dass ηki = 0 ist für alle k. Das bedeutet, dass die i-te Webseite auf
gar keine andere Webseite verweist. Um diese Komplikation zu vermeiden, wollen wir der
Einfachheit halber annehmen, dass unser Internet keine solchen „stummen“ Webseiten enthält.
Nun können wir (A.23) ersetzen durch die Forderung

n
wj = a ji wi . (A.24)
i=1

Wollen wir dies zur Berechnung der Wichtigkeit der Webseiten verwenden, scheint sich die
Katze in den Schwanz zu beißen, da in (A.24) die zu bestimmenden w j auf der rechten
Seite wieder vorkommen. Aber das ist kein Problem. Definieren wir nämlich die Matrix
A ∈ Mat(n, R) durch die Einträge a ji und den Vektor w ∈ Rn mit den Komponenten w j , dann
wird (A.24) zu
w = A · w. (A.25)
A.4. Ranking von Webseiten 435

In anderen Worten, der gesuchte Vektor w ist ein Eigenvektor von A zum Eigenwert 1. Damit
können wir arbeiten.
Unsere Matrix A ist spalten-stochastisch, d.h. alle Einträge liegen im Intervall [0, 1] und die

Summe aller Einträge einer Spalte ergibt stets 1, nj=1 a ji = 1 für jedes i. Solche Matrizen
haben tatsächlich den Eigenwert 1.

Lemma A.24. Jede spalten-stochastische Matrix hat 1 als Eigenwert.

Erster Beweis. Da A spalten-stochastisch ist, liefert die Summe aller Einträge einer Zeile
der transponierten Matrix A stets den Wert 1. Daher gilt für den Vektor v = (1, . . ., 1)
offensichtlich A v = v. Somit hat A den Eigenwert 1 und damit nach Bemerkung 6.50 auch
A selbst. 

Zweiter Beweis. Da A spalten-stochastisch ist, liefert die Summe aller Einträge einer Spalte
von A − 1 stets den Wert 0. Also summieren sich die Zeilenvektoren von A − 1 zum Nullvektor
und sind daher linear abhängig. Somit hat A − 1 nicht vollen Rang und es ist dim Eig(A, 1) =
dim ker(A-1) ≥ 1. 

Dies zeigt, dass (A.24) tatsächlich eine Lösung w  0 besitzt. Es gibt allerdings immer noch
ein Problem. Betrachten wir als Beispiel ein Internet mit 4 Webseiten, in dem die ersten beiden
Seiten aufeinander verweisen und die dritte und vierte sollen ebenfalls aufeinander verweisen.

1 2

3 4

Abb. 139 Einfaches Internet mit 4 Webseiten

Die Matrix A ist dann gegen durch


0 1 0 0
1 0
0 0
A= . (A.26)
0 0 0 1

0 0 1 0

In der Matrix

−1 1 0 0
1 −1 0 0 

A − 14 =  (A.27)
0 0 −1 1 

0 0 1 −1
436 A. Anwendungen

sind die ersten beiden Spalten Negative von einander als auch die beiden letzten. Daher hat
die Matrix A − 14 Rang 2 und somit gemäß der Dimensionsformel (Satz 4.19) einen zwei-
dimensionalen Kern. In anderen Worten, die geometrische Vielfachheit des Eigenwertes 1 von
A ist 2. Es gibt also 2 linear unabhängige Eigenvektoren in (A.24) und damit grundsätzlich
verschiedene Rankings. Es ist nicht klar, welchen Eigenvektor w man nun zur Sortierung der
Suchmaschinentreffer nehmen sollte.
Um dieses Problem zu vermeiden, nehmen wir eine letzte Modifikation vor. Ein völlig „demo-
kratisches“ Internet, in dem jede Seite auf jede andere verweist, würde durch die Matrix


n · · ·
1 1
n
.. .. 
D = . . 

n · · ·
1 1
n

beschrieben, wobei wir ausnahmsweise Selbstverlinkungen erlaubt haben. Wir wählen nun
einen „Demokratiekoeffizienten“ ε ∈ (0, 1) und machen unsere Verlinkungsmatrix etwas de-
mokratischer, in dem wir setzen
B := (1 − ε)A + εD. (A.28)
Auch diese Matrix B ist spalten-stochastisch, wobei nun alle Einträge strikt positiv sind. Das
entscheidende Resultat ist der folgende Satz:

Satz A.25. Sei B ∈ Mat(n, R) eine spalten-stochastische Matrix, deren Einträge positiv sind.
Dann ist Eig(B, 1) eindimensional und jeder Eigenvektor von B zum Eigenwert 1 hat entweder
lauter positive oder lauter negative Komponenten.

Beweis. a) Wir zeigen zunächst, dass jeder Eigenvektor w von B zum Eigenwert 1 lauter nicht-
negative oder lauter nichtpositive Komponenten hat. Dazu machen wir zunächst die allgemeine
Beobachtung, dass die Dreiecksungleichung für Summen reeller Zahlen
 
 n   n
 
xi  ≤ |xi |

i=1 i=1

strikt ist, falls in der Summe sowohl positive als auch negative Summanden vorkommen. Die
Eigenvektorgleichung w = Bw besagt, ausgedrückt in Komponenten,

n
wj = b ji wi . (A.29)
i=1

Falls nun sowohl positive als auch negative wi vorkommen, so gilt das auch für die Summanden
in (A.29), da alle b ji positiv sind. Also ist
   
 n  n n

|w j | =  b ji wi  < |b ji wi | = b ji |wi |. (A.30)
i=1 i=1 i=1
A.4. Ranking von Webseiten 437

Wir summieren (A.30) über j und erhalten


n 
n 
n 
n 
n 
n
|w j | < b ji |wi | = b ji |wi | = |wi |,
j=1 j=1 i=1 i=1 j=1 i=1

wobei wir bei der letzten Umformung benutzt haben, dass B spalten-stochastisch ist. Wir haben
einen Widerspruch erhalten; es können nicht sowohl positive als auch negative w j vorkommen.
b) Nun zeigen wir, dass die Komponenten eines Eigenvektors w von B zum Eigenwert 1 alle
strikt positiv oder alle strikt negativ sind. Nach a) können wir, indem wir w notfalls durch −w
ersetzen, annehmen, dass alle wi ≥ 0. Die Summanden auf der rechten Seite von (A.29) sind
dann ebenfalls alle ≥ 0. Da alle b ji > 0 und nicht alle wi = 0 sind, sind unter den Summanden
auch strikt positive. Also ist die Summe positiv, d.h. w j > 0.
c) Dass spalten-stochastische Matrizen den Eigenwert 1 haben, haben wir in Lemma A.24
schon gesehen. Bleibt nur noch zu zeigen, dass die geometrische Vielfachheit nicht größer als
1 ist.
Wir betrachten die Hyperebene H = {x ∈ Rn | x1 +. . .+ xn = 0} ⊂ Rn . Wäre dim Eig(B, 1) ≥ 2,
dann wäre dim(Eig(B, 1) ∩ H) ≥ 1. Es gäbe also Eigenvektoren w von B zum Eigenwert 1 mit
w1 + . . . + wn = 0. Das aber widerspricht der schon bewiesenen Tatsache, dass alle w j > 0
oder alle w j < 0 sind. 

Es gibt eine Verallgemeinerung von Satz A.25, die als Frobenius-Perron-Theorem bekannt
ist, hier aber nicht benötigt wird. Satz A.25 liefert genau, was wir brauchen. Wir erhalten
einen Eigenvektor w von B zum Eigenwert 1. Indem wir gegebenenfalls w durch −w ersetzen,
stellen wir sicher, dass alle w j > 0 sind. Dann interpretieren wir w j als die Wichtigkeit der
j-ten Webseite und ordnen unsere Suchtrefferlisten danach. Dieses w ist zwar nur bis auf
Multiplikation mit einer positiven Zahl t > 0 eindeutig festgelegt, aber wenn wir w durch tw
ersetzen, d.h. alle w j durch tw j ersetzen, dann ändert das nichts an der Wichtigkeitsreihenfolge.

Beispiel A.26. In dem Beispiel aus (A.26) ist

ε ε ε

0 1 0 0
4
1 1
4
1
4
1
4
4 1 − 3ε
4 4 4
1  1 1 1 1 1 − 3ε ε ε ε 
0 0 0 4 4 .
B = (1 − ε)  + ε 41 4 4
1 = ε 4 4
ε
4
ε 3ε 
0 0 0 1 4 1 1  4 1 − 
4 4 4 4 4 4 
ε ε ε
0 0 1 0 4
1 1
4
1
4
1
4 4 4 1− 43ε
4 

Hier können wir sofort einen Eigenvektor zum Eigenwert 1 erraten, nämlich w = (1, 1, 1, 1) .
Alle Webseiten sind also gleich wichtig.

Beispiel A.27. Betrachten wir ein Internet bestehend aus 4 Webseiten, die wie folgt verlinkt
sind:
438 A. Anwendungen

1 2

3 4

Abb. 140 Komplexeres Internet mit 4 Webseiten

Dann ist
1

0 0 1 2
1 0 0 0

A = 21 1 
2 2 0 12 

1
0 2 0 0
und
ε ε
1

0 0 1 2
4
1 1
4
1
4
1
4
4 4 1− 3ε
4
1
2 − ε4
1 0 0 0 1 1 1 1 1 − ε ε ε ε 
 4 4 4 .
B = (1 − ε) 21 1  + ε 1 4 4
1 = 21 4
ε
4
ε
4
ε 
2 2 0 12 

4

1
4
1
4 4
 2 −
4
1
2 − 4 4
1
2 − ε4 
ε ε ε ε
1
0 2 0 0 4
1 1
4
1
4
1
4 4
1
2 − 4 4 4 
Man rechnet leicht nach, dass


−ε + 8 ε − 19 ε + 16
3 2
−ε 3 + 4 ε 2 − 7 ε + 8 

w= 3 
−ε + 6 ε 2 − 15 ε + 14

ε −4ε +3ε +4 
3 2

Eigenvektor von B zum Eigenwert 1 ist. Es gilt für alle ε ∈ [0, 1), dass w1 > w3 > w2 > w4 > 0
ist. Die erste Webseite ist also die wichtigste, gefolgt von den Seiten 3, 2 und 4, und das obwohl
mehr Links auf Seite 3 verweisen als auf die erste.

In diesen Beispielen ist das Ranking-Ergebnis unabhängig davon, wie wir den Koeffizienten ε
gewählt haben. Das braucht im Allgemeinen nicht so zu sein. Eine Suchmaschine wird daher
einen Wert für ε festlegen. Dieser wird viel näher bei 0 als bei 1 liegen, da die gleichmacherische
Matrix D das Ergebnis nicht dominieren soll. Google hat in der Anfangszeit, [5] zufolge, mit
einem Wert von ε = 0.15 gearbeitet.

A.5. Differentialgleichungssysteme mit konstanten


Koeffizienten
In diesem Abschnitt illustrieren wir die Nützlichkeit der Triagonalisierbarkeit von Matrizen
für eine Anwendung in der Analysis, nämlich das Lösen von Differentialgleichungssystemen
A.5. Differentialgleichungssysteme mit konstanten Koeffizienten 439

mit konstanten Koeffizienten. Seien zunächst eine Konstante a ∈ C und eine stetige Funktion
f : R → C gegeben. Wir suchen alle stetig differenzierbaren Funktionen y : R → C, die
y# (t) = a · y(t) + f (t) (A.31)
erfüllen. Man nennt (A.31) eine Differentialgleichung, da in ihr sowohl die gesuchte Funktion
als auch ihre Ableitung vorkommt. Genauer handelt es sich bei (A.31) um eine gewöhnli-
che Differentialgleichung erster Ordnung mit konstanten Koeffizienten. Man kann nun leicht
nachrechnen, dass für jede Konstante c ∈ C die Funktion y : R → C gegeben durch
∫t


y(t) = e · e−as f (s)ds + c
at
(A.32)
0 
eine Lösung von (A.31) ist. In der Analysis lernt man, dass tatsächlich alle Lösungen von
(A.31) von der Form (A.32) sind. So weit, so gut.
Nun möchten wir Systeme von Differentialgleichungen lösen. Gegeben seien Konstanten ai j ∈ C
und stetige Funktionen fi : R → C und wir suchen alle stetig differenzierbaren Funktionen
yi : R → C, so dass

n
y#1 (t) = a1 j · y j (t) + f1 (t)
j=1
..
.

n
y#n (t) = an j · y j (t) + fn (t) (A.33)
j=1

erfüllt ist. Wir schreiben dies kompakter, indem wir die Matrix A ∈ Mat(n, C) einführen,
deren Einträge die ai j sind, sowie die vektorwertigen Funktionen y : R → Cn , y(t) :=
(y1 (t), . . ., yn (t)) , und f : R → Cn , f (t) := ( f1 (t), . . ., fn (t)) . Dann schreibt sich (A.33)
einfach als
y# (t) = A · y(t) + f (t). (A.34)
Dies sieht fast wieder so aus wie (A.31), nur dass nun die Funktionen y und f vektorwertig
sind und wir eine Koeffizientenmatrix A haben statt eines skalaren Koeffizienten.
Wenn wir Glück haben und A eine obere Dreiecksmatrix ist, dann können wir das Differen-
tialgleichungssystem (A.34) von unten nach oben lösen. Die unterste Gleichung lautet dann
nämlich
y#n = ann yn (t) + fn (t).
Also ist
∫t


yn (t) = e · e−ann s fn (s)ds + cn 
ann t

0 
für eine Konstante cn ∈ C. Nun schauen wir uns die zweitunterste Gleichung an. Sie lautet
y#n−1 (t) = an−1,n−1 · yn−1 (t) + an−1,n · yn (t) + fn−1 (t).
440 A. Anwendungen

Aber yn haben wir bereits berechnet. Setzen wir f˜n−1 (t) := an−1,n · yn (t) + fn−1 (t), dann lautet
die zweitunterste Gleichung

y#n−1 (t) = an−1,n−1 · yn−1 (t) + f˜n−1 (t).

Also ist
∫t


yn−1 (t) = e
an−1,n−1 t
· e−an−1,n−1 s f˜n−1 (s)ds + cn−1 
0 
für eine Konstante cn−1 ∈ C. So fahren wir von unten nach oben fort. Allgemein lautet die k-te
Gleichung
y# k (t) = a k k · yk (t) + a k,k+1 · yk+1 (t) + . . . + a kn · yn (t) + fk (t). (A.35)
Die Funktionen yk+1, . . . , yn kennen wir dann schon und setzen daher f˜k (t) := a k,k+1 · yk+1 (t) +
. . . + a kn · yn (t) + fk (t). Aus (A.35) wird

y# k (t) = a k k · yk (t) + f˜k (t).

Also ist
∫t


yk (t) = e ak,k t
· e−ak,k s f˜k (s)ds + ck  (A.36)
0 
für eine Konstante ck ∈ C.
Bei jedem Schritt ist eine Konstante ck zu wählen. Was hat es damit auf sich? Setzen wir t = 0
in (A.36) ein, so erhalten wir
yk (0) = ck .
Durch Vorgabe der Funktionswerte von yk bei t = 0 wird die Lösung des Differentialglei-
chungssystems (A.33) also eindeutig festgelegt.
Was aber tun wir, wenn A keine obere Dreiecksmatrix ist? Da kommt uns die lineare Algebra
zur Hilfe. Gemäß Korollar 6.83 kann jede komplexe n × n-Matrix trigonalisiert werden, d.h.
es gibt eine invertierbare Matrix S ∈ GL(n, C), so dass

B := S AS −1

eine obere Dreicksmatrix ist. Wir multiplizieren nun (A.34) von links mit S und erhalten

S y# (t) = S Ay(t) + S f (t) = BSy(t) + S f (t).

Wenn wir also z(t) := Sy(t) und g(t) := S f (t) setzen, dann erhalten wir das Differentialglei-
chungssystem
z#(t) = Bz(t) + g(t),
das wir wie oben beschrieben lösen können. Anschließend lösen wir wieder mittels y(t) =
S −1 z(t) nach y auf und haben die Lösung des ursprünglichen Differentialgleichungssystems
(A.34).
A.5. Differentialgleichungssysteme mit konstanten Koeffizienten 441

Beispiel A.28. Wir bestimmen die Lösungen des Differentialgleichungssystems


y#1 (t) = 3y1 (t) + 4y2 (t) + 3y3 (t),
y#2 (t) = −y1 (t) − y3 (t),
y#3 (t) = y1 (t) + 2y2 (t) + 3y3 (t).
In Matrixschreibweise heißt das:
3 4 3


y# (t) = −1 0 −1 y(t). (A.37)
1 2 3
In Beispiel 6.84 haben wir berechnet, dass
2 1 3 1 0 0 1 0 0




B = S AS −1 = 0 2 2 gilt, wobei S = 1 1 0 und S −1 = −1 1 0 .
0 0 2 0 1 0 1 −1 1
Die Substitution z(t) = Sy(t) liefert das Differentialgleichungssystem
z#1 (t) = 2z1 (t) + z2 (t) + 3z3 (t),
z#2 (t) = 2z2 (t) + 2z3 (t),
z#3 (t) = 2z3 (t).
Dieses System lösen wir von unten nach oben. Die Gleichung z#3 (t) = 2z3 (t) liefert
z3 (t) = c3 e2t .
Die Gleichung z#2 (t) = 2z2 (t) + 2z3 (t) = 2z2 (t) + 2c3 e2t liefert
$ ∫t %
−2s  
z2 (t) = e ·
2t
e · 2c3 e ds + c2 = e2t · 2c3 t + c2 .
2s

Die Gleichung z#1 (t) = 2z1 (t) + z2 (t) + 3z3 (t) = 2z1 (t) + e2t · (2c3 t + c2 + 3c3 ) schließlich liefert
$ ∫t %
−2s 2s  
z1 (t) = e ·
2t
e e (2c3 s + c2 + 3c3 )ds + c1 = e2t c3 t 2 + (c2 + 3c3 )t + c1 .
0
Nun machen wir die Substitution rückgängig und lösen nach y auf:
1 0 0 c t 2 + (c2 + 3c3 )t + c1

2t
3
−1
y(t) = S z(t) = −1 1 0 e  2c3 t + c2 

1 −1 1  c 3 
c3 t 2 + (c2 + 3c3 )t + c1


= e2t −c3 t 2 − (c2 + c3 )t − c1 + c2  .
c3 t + (c2 + c3 )t + c1 − c2 + c3 
2

Damit haben wir die allgemeine Lösung des Differentialgleichungssystems (A.37) bestimmt.
B. Was sonst noch interessant ist
B.1. Das griechische Alphabet
In der folgenden Tabelle werden die griechischen Groß- und Kleinbuchstaben aufgelistet
zusammen mit ihrer Aussprache. Mitunter sind bei den Kleinbuchstaben mehrere Varianten
gebräuchlich.

Α α alpha
Β β beta
Γ γ gamma
Δ δ delta
Ε ε,  epsilon
Ζ ζ zeta
Η η eta
Θ θ, θ theta
Ι ι jota
Κ κ kappa
Λ λ lambda
Μ μ mü
Ν ν nü
Ξ ξ xi
Ο ο omikron
Π π pi
Ρ ρ rho
Σ σ, ς sigma
Τ τ tau
Υ υ upsilon
Φ φ, φ phi
Χ χ chi
Ψ ψ psi
Ω ω omega
Tab. 29 Die griechischen Buchstaben

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6_9
444 B. Was sonst noch interessant ist

B.2. Beweis des Fundamentalsatzes der Algebra


In diesem Abschnitt beweisen wir den Fundamentalsatzes 2.117 der Algebra. Wir formulieren
ihn erst einmal so:

Satz B.1 (Fundamentalsatz der Algebra). Ist f ∈ C[x] mit deg( f ) ≥ 1, so besitzt f˜ min-
destens eine Nullstelle.

Daraus folgt dann die Formulierung aus Satz 2.117:

Korollar B.2. Jedes komplexe Polynom zerfällt in Linearfaktoren.

Beweis des Korollars. Schreibe gemäß Lemma 6.23 (iv) das Polynom in der Form
f = (x − λ1 )r1 · · · (x − λn )rn · g, wobei g̃ keine Nullstellen hat. Nach dem Fundamentalsatz
ist deg(g) ≤ 0, also ist g eine Konstante. 

Beweis von Satz B.1. Angenommen, f˜ hätte keine Nullstelle. Wir schreiben f = an x n +. . .+a0
mit n = deg( f ) ≥ 1 und an  0.
a) Behauptung: Die Funktion C → R, z −→ | f˜(z)|, nimmt auf C ihr Minimum an.
Beweis der Behauptung: Wähle R > 0 so groß, dass
|an−1 | |a0 | |an | 2|a0 |
+...+ n ≤ und Rn ≥ .
R R 2 |an |
Dann gilt für alle z mit |z| ≥ R:
| f˜(z)| = |an z n + . . . + a1 z + a0 |
 $ %
 n a1 a0 

= z · an + . . . + n−1 + n 
z z
 
n
 a 1 a 0 
= |z| an + . . . + n−1 + n 
z z
$  %
 a a1 a0 
≥ |z| |an | − 
n  n−1
+ . . . + n−1 + n 
z z z
$ $ %%
|a n−1 | |a 0 |
≥ |z| n |an | − +...+ n
|z| |z |
$ $ %%
|a n−1 | |a 0|
≥ R |an | −
n
+...+ n
R R
$ %
|a n |
≥ Rn |an | −
2
|a n |
= Rn ≥ |a0 |. (B.1)
2
B.3. Praktische Invertierung von Matrizen 445

Die Scheibe D R (0) = {z ∈ C | |z| ≤ R} ist kompakt und die Funktion | f˜| ist stetig. Nun benutzen
wir die Aussage aus der Analysis, dass stetige Funktionen auf kompakten Mengen stets ihr
Minimum annehmen. Also nimmt | f˜| auf D R (0) ihr Minimum an, d.h. es gibt ein z0 ∈ D R (0),
so dass | f˜(z0 )| ≤ | f˜(z)| für alle z ∈ D R (0) gilt. Insbesondere ist m := | f˜(z0 )| ≤ | f˜(0)| = |a0 |.
Wegen (B.1) gilt m ≤ | f˜(z)| für alle z ∈ C. 
b) O.B.d.A. können nehmen wir an, dass z0 = 0, denn ansonsten betrachten wir statt f das
„verschobene“ Polynom g(z) = f (z + z0 ). Mit g̃ hat dann auch f˜ eine Nullstelle.
Nun ist m = | f˜(0)| = |a0 | und (nach Annahme, dass f˜ keine Nullstellen hat) a0  0. Da f˜ und
a0 · f dieselben Nullstellen haben, können wir o.B.d.A. a0 = 1 annehmen.
1 ˜
 
 k|
Schreibe f = an x n + . . . + a k x k + 1 mit a k  0 (1 ≤ k ≤ n). Wegen  −|a ak  = 1 existiert ein
−|ak |
ϕ ∈ [0, 2π), so dass ak = eiϕ . Für alle z der Form z = reiϕ/k mit r > 0 gilt

a k z k = −|a k |e−iϕ · r k · eiϕ = −|a k | · r k < 0.

 z ∈ R. Wir wählen nun ein δ > 0 so klein, dass |a k | · δ < 1 sowie


Insbesondere sindsolche k
 
 an  n−k  ak+1 
 ak  · δ + . . . +  ak  δ < 2 gilt. Dann gilt für alle 0 ≤ r ≤ δ und z = re
1 iϕ/k

| f˜(z)| = |an z n + . . . + a k z k + 1|
≤ |an z n + . . . + a k+1 z k+1 | + |a k z k + 1|
 

k  an n−k a k+1 
= |a k z |  z +...+ z + | − |a k | · r k + 1|
ak ak 
$    %
 
k  an  n−k
 a k+1 
≤ |a k |r   r +...+   r + 1 − |a k |r k
a k a 
k
1
≤ |a k |r k · + 1 − |a k |r k
2
1
= 1 − |a k |r k
2
<1
= min | f˜| .

Dies ist jedoch ein Widerspruch! 

B.3. Praktische Invertierung von Matrizen


Hier fassen wir kurz zusammen, wie man mittels des Gauß-Algorithmus das Inverse einer
invertierbaren Matrix praktisch berechnet. Sei also K ein Körper, z.B. K = R. Sei A ∈ Mat(n, K)
invertierbar. Wir erinnern uns zunächst daran, dass man für b ∈ K n das inhomogene lineare
Gleichungssystem Ax = b dadurch lösen kann, dass man die erweiterte Koeffizientenmatrix
(A, b) durch elementare Zeilenumformungen in spezielle Zeilenstufenform bringt, vergleiche
Abschnitt 2.3. Tut man das speziell mit den Vektoren der Standardbasis, also b = e j , dann
446 B. Was sonst noch interessant ist

erhält man so die Vektoren x1, . . ., xn ∈ K n , für die A · x j = e j gilt. Setzen wir dann die x j als
Spalten zu einer Matrix X = (x1, . . ., xn ) zusammen, dann gilt
A · X = A · (x1, . . ., xn ) = (A · x1, . . ., A · xn ) = (e1, . . ., en ) = 1n .
Also haben wir mit X die zu A inverse Matrix berechnet, X = A−1 . Nun muss man allerdings
den Gauß-Algorithmus nicht für jede Spalte x j von A−1 separat anwenden, sondern kann viel
Rechenarbeit sparen, indem man das gleichzeitig für alle Spalten macht. Dazu stellen wir die
n-fach erweiterte Koeffizientenmatrix (A, e1, . . . , en ) = (A, 1n ) auf und überführen sie durch
elementare Zeilenumformungen in die Form (1n, X). Dann ist X die zu A inverse Matrix.

1 0 1


Beispiel B.3. Wir berechnen die Inverse von A = 1 2 2 ∈ GL(3, R). Im ersten Schritt
2 1 1
ziehen wir die erste Zeile bzw. ihr Doppeltes von der zweiten bzw. dritten ab:

1 0 1 1 0 0 1 0 1 1 0 0



1 2 2 0 1 0   0 2 1 −1 1 0  .
 
2 1 1 0 0 1  0 1 −1 −2 0 1 
1
Nun multiplizieren wir die zweite Zeile mit 2 und ziehen sie anschließend von der dritten ab:

1 0 1 1 0 0 1 0 1 1 0 0 1 0 1 1 0 0




0 2 1 −1 1 0   0 1 1 − 1 1 0   0 1 1 − 1 1 0  .
 2 2 2  2 2 2 
0 1 −1 −2 0 1  0 1 −1 −2 0 1  0 0 − 3
2 − 3
2 − 1
2 1 
Wir multiplizieren die dritte Zeile mit − 23 und ziehen sie anschließend bzw. ihre Hälfte von
der ersten bzw. zweiten ab:
1 0 1 1 0 0 1 0 1 1 0 0 1 0 0 0 − 13 23




0 1 1 − 1 1 0   0 1 1 − 1 1 0   0 1 0 −1 1 1 .
2 2 2  2 2 2  3 3 
0 0 −2 −2 −2 1  0 0 1 1 3 −3  − 23 
3 3 1 1 2 1
0 0 1 1 3

Damit haben wir die linke Hälfte der erweiterten Koeffizientenmatrix in die Einheitsmatrix
überführt. Die rechte Hälfte ist nun die inverse Matrix,
0 − 13 32


A−1 = −1 13 1 .
3 
1
1
3 − 23 

B.4. Beweis des Satzes von der Jordan’schen Normalform


Dieser Abschnitt ist dem Beweis von Satz 6.118 gewidmet. Dazu zunächst eine Definition:
B.4. Beweis des Satzes von der Jordan’schen Normalform 447

Definition B.4. Ein Endomorphismus ψ : W → W heißt nilpotent, falls es ein γ ∈ N gibt


mit ψ γ = 0 . Für w ∈ W \ {0} heißt eine Zahl k ∈ N die ψ-Periode von w, falls ψ k−1 (w)  0,
aber ψ k (w) = 0.

Wir verwenden hier immer die Konvention, dass ψ 0 = id für jeden Endomorphismus ψ. In der
Notation von Definition B.4 gilt offensichtlich stets k ≤ γ.

Lemma B.5. Sei ψ : W → W nilpotent und w ∈ W \ {0} habe ψ-Periode k. Dann sind
w, ψ(w), ψ 2 (w), . . ., ψ k−1 (w) linear unabhängig.

Beweis. Sei α0 w + α1 ψ(w) + . . . + αk−1 ψ k−1 (w) = 0. Wir wenden ψ k−1 auf diese Gleichung
an und erhalten

0 = ψ k−1 (0)
 
= ψ k−1 α0 w + α1 ψ(w) + . . . + αk−1 ψ k−1 (w)
= α0 ψ k−1 (w) + α1 ψ k (w) + . . . + αk−1 ψ 2k−2 (w)
= α0 ψ k−1 (w),

da ψ k (w) = . . . = ψ 2k−2 (w) = 0. Wegen ψ k−1 (w)  0 ist α0 = 0 und somit

α1 ψ(w) + . . . + αk−1 ψ k−1 (w) = 0. (B.2)

Anwendung von ψ k−2 auf Gleichung (B.2) zeigt dann α1 = 0. Wir fahren induktiv fort und
erhalten schließlich α0 = α1 = . . . = αk−1 = 0. 

 
Bemerkung B.6. Wir setzen Zψ (w) := L w, ψ, (w), . . ., ψ k−1 (w) . Aufgrund von Lemma B.5
ist Zψ (w) ein k-dimensionaler Untervektorraum von W. Wegen ψ k (w) = 0 ist er auch ψ-
invariant. Bezüglich der Basis (ψ k−1 (w), . . ., ψ(w), w) hat ψ| Zψ (w) die Matrixdarstellung

0 1

0 . . . 
.
..  (B.3)
. 
1

0

Diese Matrix hat lauter Nullen als Einträge bis auf die Einsen auf der ersten Nebendiagonalen.

Als Nächstes zeigen wir, dass es zu Zψ (w) ein ψ-invariantes Komplement gibt, vorausgesetzt
w hat größtmögliche ψ-Periode.
448 B. Was sonst noch interessant ist

Lemma B.7 (Zerlegungslemma für nilpotente Endomorphismen). Sei W ein endlich-


dimensionaler K-Vektorraum und sei ψ : W → W ein nilpotenter Endomorphismus. Das
Element w ∈ W \ {0} habe größtmögliche ψ-Periode. Dann existiert ein ψ-invarianter
Untervektorraum U von W, so dass

W = Zψ (w) ⊕ U.

Beweis. Wir wählen einen ψ-invarianten Untervektorraum U ⊂ W mit maximaler Dimension,


für den noch
Zψ (w) ∩ U = {0} (B.4)
gilt. Dann ist Zψ (w) ⊕ U ⊂ W eine direkte Summe. Es bleibt zu zeigen, dass Zψ (w) ⊕ U = W.
Angenommen, das wäre nicht der Fall, d.h. Zψ (w) ⊕ U  W. Dann gäbe es ein v ∈ W mit
v  Zψ (w) ⊕ U. Wir wählen nun j ∈ N so, dass ψ j−1 (v)  Zψ (w) ⊕ U, aber ψ j (v) ∈ Zψ (w) ⊕ U.
Ein solches j existiert, da ψ nilpotent ist. Wir setzen x := ψ j−1 (v). Dann gilt x  Zψ (w) ⊕ U,
aber ψ(x) ∈ Zψ (w) ⊕ U.
Wir schreiben ψ(x) = α0 w + . . . + αk−1 ψ k−1 (w) + u für ein geeignetes u ∈ U, wobei k die
ψ-Periode von w ist. Da k nach Voraussetzung die größtmögliche Ψ-Periode ist, ist die von x
höchstens k. Es folgt

0 = ψ k (x)
 
= ψ k−1 α0 w + α1 ψ(w) + . . . + αk−1 ψ k−1 (w) + u
= α0 ψ k−1 (w) + α1 ψ k (w) + . . . + αk−1 ψ 2k−2 (w) + ψ k−1 (u)
= α0 ψ k−1 (w) + ψ k−1 (u) .
()*+ ()*+
∈Zψ (w) ∈U

Da die Summe von Zψ (w) und U direkt ist, folgt

α0 ψ k−1 (w) = 0 und ψ k−1 (u) = 0

und somit
α0 = 0 und ψ k−1 (u) = 0.
Wir schließen
ψ(x) = α1 ψ(w) + . . . + αk−1 ψ k−1 (w) + u.
Wir setzen y := x − (α1 w + . . . + αk−1 ψ k−2 (w)). Dann gilt ψ(y) = u ∈ U, aber y  Zψ (w) ⊕ U,
denn sonst wäre auch x = y + α1 w + . . . + αk−1 ψ k−2 (w) ∈ Zψ (w) ⊕ U, was nicht der Fall ist.
Wir definieren jetzt U  := U ⊕ K · y. Da y  U gilt, ist dim(U ) = dim(U) + 1. Da U ψ-invariant
ist und ψ(y) ∈ U ⊂ U  gilt, ist U  ebenfalls ψ-invariant.
Schließlich gilt Zψ (w) ∩ U  = {0}. Sei nämlich w ∈ Zψ (w) ∩ U . Zu zeigen ist w = 0. Wir
schreiben w = û + αy für ein û ∈ U und ein α ∈ K. Im Fall α = 0 ist dann w = û ∈ Zψ (w) ∩ U
B.4. Beweis des Satzes von der Jordan’schen Normalform 449

und damit wegen (B.4) w = 0. Im Fall α  0 wäre y = α1 (w − û) ∈ Zψ (w) ⊕ U, was wir oben
schon ausgeschlossen hatten.
Der Untervektorraum U  ist also ebenfalls ψ-invariant und erfüllt (B.4), hat aber höhere
Dimension als U. Dies widerspricht der Maximalität von dim(U) unter all diesen Untervektor-
räumen. 

Satz B.8 (Zerlegungssatz für nilpotente Endomorphismen). Sei W ein endlich-dimen-


sionaler K-Vektorraum und sei ψ : W → W ein nilpotenter Endomorphismus. Dann existie-
ren w1, . . ., w ∈ W \ {0}, so dass

W = Zψ (w1 ) ⊕ . . . ⊕ Zψ (w ). (B.5)

Beweis. Wir führen den Beweis mit vollständiger Induktion über die Dimension von W: Ist
dim(W) = 1, dann wählen wir irgendein w ∈ W \ {0}. Wegen w ∈ Zψ (w) ist dim(Zψ (w)) ≥ 1
und wegen Zψ (w) ⊂ W folgt dann W = Zψ (w).
Ist dim(W) ≥ 2, dann wählen wir ein w1 ∈ W \ {0} mit maximaler ψ-Periode. Nach
dem Zerlegungslemma B.7 gibt es dann einen ψ-invarianten Untervektorraum U ⊂ W mit
W = Zψ (w1 ) ⊕ U. Da dim(U) < dim(W) ist, gibt es nach Induktionsvoraussetzung Vektoren
w2, . . . w ∈ U \ {0} mit U = Zψ (w2 ) ⊕ . . . ⊕ Zψ (w ) und (B.5) folgt. 

Korollar B.9. Sei W ein endlich-dimensionaler K-Vektorraum und sei ψ : W → W ein


nilpotenter Endomorphismus. Dann existiert eine Basis B von W bezüglich derer die dar-
stellende Matrix die Blockdiagonalgestalt


c1
c2 

MBB (ψ) = .. 
. 

c 

hat, wobei die Blöcke c j von der Form wie in (B.3) in Bemerkung B.6 sind.

Beweis. Wir wählen w1, . . ., w ∈ W \ {0} so, dass wir eine Zerlegung wie in (B.5) in Satz B.8
erhalten. Da die Untervektorräume Zψ (w j ) ψ-invariant sind, hat die darstellende Matrix Block-
diagonalgestalt, wenn die Basis B aus Basen dieser Untervektorräume zusammengesetzt wird.
Wählen wir nun noch die Basen der Zψ (w j ) wie in Bemerkung B.6, dann haben die Blöcke
auch die Gestalt wie dort angegeben. 

Nun haben wir alle Vorbereitungen beisammen, um den Satz 6.118 von der Jordan’schen
450 B. Was sonst noch interessant ist

Normalform zu beweisen.
Beweis von Satz 6.118. Nach Voraussetzung zerfällt das Minimalpolynom in Linearfaktoren;
wir können also Mϕ (x) = (x −λ1 )γ1 · · · (x −λ k )γk schreiben, wobei λ1, . . . , λ k die paarweise ver-
schiedenen Eigenwerte sind. Satz 6.112 liefert uns die verallgemeinerte Eigenraumzerlegung
von ϕ:
   
V = ker (ϕ − λ1 · idV )γ1 ⊕ . . . ⊕ ker (ϕ − λ k · idV )γk = W1 ⊕ . . . ⊕ W k ,
 
wobei wir W j := ker (ϕ − λ j · idV )γ j gesetzt haben. Wir definieren nun auf jedem Hauptraum
W j einen Endomorphismus ψ j durch ψ j := ϕ|W j − λ j · idW j . Da die Haupträume ϕ-invariant
γ
sind, bilden die ψ j tatsächlich W j wieder nach W j ab. Nach Konstruktion gilt ψ j j = 0.
Gemäß Korollar B.9 wählen wir für jedes W j eine Basis B j bezüglich derer
c

j,1
B .. 
MBjj (ψ j )
= . 

c j, j

wobei jeder Block c j,m so aussieht wie in (B.3). Bezüglich dieser Basis gilt dann
J j,1


B B .. 
MBjj (ϕ|W j ) = MBjj (ψ j + λ j idW j ) = . 

J j, j

mit
λ 1

j 
.. 
λj .
J j,m = .
. . . 1 

λj

Setzen wir diese Basen der W j zu einer von V zusammen, so ist die darstellende Matrix von ϕ
wie in Satz 6.118 behauptet. 

B.5. Hyperbolische Funktionen

Definition B.10. Die Funktion


1
cosh : R → R, cosh(t) = (et + e−t ),
2
heißt hyperbolischer Kosinus oder Cosinus hyperbolicus, die Funktion
1
sinh : R → R, sinh(t) = (et − e−t ),
2
heißt hyperbolischer Sinus oder Sinus hyperbolicus.
B.5. Hyperbolische Funktionen 451

Proposition B.11 (Eigenschaften der hyperbolischen Funktionen). Für alle t ∈ R gilt:

(i) cosh(t)2 − sinh(t)2 = 1.

(ii) sinh = cosh und cosh = sinh.

(iii) sinh(−t) = − sinh(t) und cosh(−t) = cosh(t).

(iv) cosh(t) ≥ 1.

(v) sinh : R → R ist bijektiv und streng monoton wachsend.

Beweis. Die ersten beiden Aussagen rechnet man direkt mit Hilfe der Definition nach. Die
dritte ist klar.
Zu „(iv)“:
Aussage (i) entnehmen wir

cosh(t)2 = 1 + sinh(t)2 ≥ 1

und somit

| cosh(t)| ≥ 1 (B.6)

für alle t ∈ R. Ferner beobachten wir, dass cosh(0) = 1. Gäbe es nun ein t ∈ R mit cosh(t) ≤ −1,
dann gäbe es nach dem Zwischenwertsatz ein t  ∈ R zwischen 0 und t mit cosh(t ) = 0 im
Widerspruch zu (B.6). Wir beachten dabei, dass cosh aufgrund seiner Definition eine stetige
Funktion ist, so dass der Zwischenwertsatz angewendet werden kann.
Also ist wegen (B.6) cosh(t) ≥ 1 für alle t ∈ R.
Zu „(v)“:
Wegen sinh(t) = cosh(t) ≥ 1 ist sinh ist streng monoton wachsend, und damit insbesondere
injektiv. Zum einen gilt für t → ∞:

1 t→∞
sinh(t) = ( et − e−t ) −−−−→ ∞
2 ()*+ ()*+
→∞ →0

und daher lim sinh(t) = ∞. Zum anderen sieht man analog lim sinh(t) = −∞. Ist nun s ∈ R
t→∞ t→−∞
gegeben, dann ist sinh(t1 ) > s für hinreichend großes t1 ∈ R und sinh(t2 ) < s für hinreichend
kleines t2 ∈ R. Nach dem Zwischenwertsatz gibt es ein t zwischen t1 und t2 mit sinh(t) = s.
Das zeigt die Surjektivität von sinh. 
452 B. Was sonst noch interessant ist

f (t)
f = cosh
3

t
−3 −2 −1 1 2
−1

−2

−3
f = sinh
−4
Abb. 141 Hyperbolischer Sinus und Kosinus
Literaturverzeichnis
[1] Albrecht Beutelspacher, Lineare Algebra. Eine Einführung in die Wissenschaft der Vektoren, Abbildungen
und Matrizen, 8. Auflage, Heidelberg: Springer Spektrum, 2014.
[2] Siegfried Bosch, Lineare Algebra, 5. Auflage, Heidelberg: Springer Spektrum, 2014.
[3] Egbert Brieskorn, Lineare Algebra und analytische Geometrie. I. Noten zu einer Vorlesung mit historischen
Anmerkungen von Erhard Scholz, Braunschweig/Wiesbaden: Vieweg, 1983.
[4] Egbert Brieskorn, Lineare Algebra und analytische Geometrie. II. Noten zu einer Vorlesung mit historischen
Anmerkungen von Erhard Scholz, Braunschweig/Wiesbaden: Vieweg, 1985.
[5] Kurt Bryan und Tanya Leise, The $25,000,000,000 eigenvector: The linear algebra behind Google, SIAM
Rev. 48 (2006), 569–581, DOI 10.1137/050623280.
[6] Gerd Fischer, Lineare Algebra, 17. Auflage, Wiesbaden: Vieweg+Teubner, 2010.
[7] Gerd Fischer, Lernbuch Lineare Algebra und Analytische Geometrie, 3. Auflage, Wiesbaden: Springer
Spektrum, 2017.
[8] Hans Grauert und Hans-Christoph Grunau, Lineare Algebra und Analytische Geometrie, München: Olden-
bourg Verlag, 1999.
[9] Bertram Huppert und Wolfgang Willems, Lineare Algebra, 2. Auflage, Wiesbaden: Vieweg+Teubner, 2010.
[10] Klaus Jänich, Lineare Algebra, 11. Auflage, Berlin: Springer Verlag, 2008.
[11] Hans-Joachim Kowalsky und Gerhard O. Michler, Lineare Algebra, 12. Auflage, Berlin: Walter de Gruyter,
2003.
[12] Jörg Liesen und Volker Mehrmann, Lineare Algebra. Ein Lehrbuch über die Theorie mit Blick auf die Praxis,
2. Auflage, Heidelberg: Springer Spektrum, 2015.
[13] Reiner Staszewski, Karl Strambach und Helmut Völklein, Lineare Algebra, München: Oldenbourg Verlag,
2009.
[14] Hannes Stoppel und Birgit Griese, Übungsbuch zur Linearen Algebra. Aufgaben und Lösungen, 9. Auflage,
Heidelberg: Springer Spektrum, 2017.
[15] Stefan Waldmann, Lineare Algebra I. Die Grundlagen für Studierende der Mathematik und Physik, Heidel-
berg: Springer Spektrum, 2017.
[16] Stefan Waldmann, Lineare Algebra II. Anwendungen und Konzepte für Studierende der Mathematik und
Physik, Heidelberg: Springer Spektrum, 2017.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
C. Bär, Lineare Algebra und analytische Geometrie, https://doi.org/10.1007/978-3-658-22620-6
Index

Symbole ∃, Existenz-Quantor . . . . . . . . . . . . . . . . . . . 3
∈, Element von . . . . . . . . . . . . . . . . . . . . . . 12
·, ·, Skalarprodukt . . . . . . . . . . . . . . . . . 370 , nicht Element von . . . . . . . . . . . . . . . . . 12
+n , Addition modulo n . . . . . . . . . . . . . . 136 E+ (2), Gruppe der
:=, Definition mathematischer Größen . . . 7 orientierungserhaltenden
:⇔, Definition von Aussagen . . . . . . . . . . . 1 euklidischen Bewegungen . . . . 255
#M, Anzahl der Elemente von M . . . . . . 12 E(2), euklidische Bewegungsgruppe . . 255
⇔, Äquivalenz von Aussagen . . . . . . . . . . 1 End(V ), Menge der Endomorphismen
⇒, Implikation . . . . . . . . . . . . . . . . . . . . . . . 5 von V . . . . . . . . . . . . . . . . . . . . . . 182
, isomorph . . . . . . . . . . . . . . . . . . . 139, 152 f | M  , Einschränkung . . . . . . . . . . . . . . . . . 33
¬, Verneinung . . . . . . . . . . . . . . . . . . . . . . . . 1 f −1 , Umkehrabbildung . . . . . . . . . . . . . . . 28
⊂, Teilmenge . . . . . . . . . . . . . . . . . . . . . . . . 13 Fn , Primkörper der Charakteristik n . . . 153
⊃, Obermenge . . . . . . . . . . . . . . . . . . . . . . . 13 G× , Menge der invertierbaren Elemente
0, Nullmatrix . . . . . . . . . . . . . . . . . . . . . . . . 54 130
1n , Einheitsmatrix . . . . . . . . . . . . . . . . . . 129 GL(n, R), allgemeine lineare Gruppe . . 132
∀, All-Quantor . . . . . . . . . . . . . . . . . . . . . . . . 3 H, Standardhyperbel . . . . . . . . . . . . . . . . 361
A ∨ B, Disjunktion . . . . . . . . . . . . . . . . . . . . 2 Ha , Höhe eines Dreiecks . . . . . . . . . . . . . 259
A ∧ B, Konjunktion . . . . . . . . . . . . . . . . . . . 2 Hom(V, W), Menge der Homomor-
AΔB, symmetrische Differenz . . . . . . . . 173 phismen von V nach W . . . . . . . 182
Abb(M, N), Menge der Abbildungen von i, imaginäre Einheit . . . . . . . . . . . . . . . . . 101
M nach N . . . . . . . . . . . . . . . . . . . 26 id M , identische Abbildung von M . . . . . . 19
An , alternierende Gruppe . . . . . . . . . . . . 145 im, Bild einer Abbildung . . . . . . . . . . . . . . 20
Aut(V), Menge der Automorphismen im, Bild eines Gruppenhomomorphismus
von V . . . . . . . . . . . . . . . . . . . . . . 182 139
A + v, in Richtung v verschobene Menge A im, Bild eines
235 Vektorraumhomomorphismus 180
C, Doppelkegel . . . . . . . . . . . . . . . . . . . . . 365 Im(z), Imaginärteil von z . . . . . . . . . . . . 102
C, Menge der komplexen Zahlen . . . . . . . 98 J, Drehung um π/2 . . . . . . . . . . . . . . . . . 251
C(X, b), Kegel über X mit Spitze b . . . 425 ker, Kern eines Gruppenhomomorphismus
cosh, hyperbolischer Kosinus . . . . . . . . . 450 139
dH , Hamming-Abstand . . . . . . . . . . . . . . 417 ker, Kern eines
δi j , Kronecker’sches δ-Symbol . . . . . . . 374 Vektorraumhomomorphismus 180
det(A), Determinante einer Matrix . . . . 204 Kr (m), Kreis mit Mittelpunkt m und
det(ϕ), Determinante eines Radius r . . . . . . . . . . . . . . . . . . . . 260
Endomorphismus . . . . . . . . . . . . 222 K · v, von v aufgespannter 1-dim.
dim, Dimension . . . . . . . . . . . . . . . . . . . . . 169 Untervektorraum . . . . . . . . . . . . 159
456 Index

K[x], Menge der Polynome in der R+ , Menge der positiven reellen Zahlen138
Variablen x mit Koeffizienten in K Re(z), Realteil von z . . . . . . . . . . . . . . . . . 102
272 rg, Rang einer linearen Abbildung . . . . 182
Kx, Menge der formalen Potenzreihen r3g, Zeilenrang . . . . . . . . . . . . . . . . . . . . . . 201
in der Variablen x mit ρ± , dritte Einheitswurzeln . . . . . . . . . . . 114
Koeffizienten in K . . . . . . . . . . . 271 Rθ , Drehmatrix . . . . . . . . . . . . . . . . . . . . . 230
L(v1, . . ., vk ), lineare Hülle . . . . . . . . . . . . 56 SO(2), spezielle orthogonale Gruppe in
L(X), lineare Hülle von X . . . . . . . . . . . . 159 Dimension 2 . . . . . . . . . . . . . . . . 250
ln, natürlicher Logarithmus . . . . . . . . . . 139 SO(V), speziell-orthogonale Gruppe von V
M1 × . . . × Mn , kartesisches Produkt . . . 18 383
MBA(ϕ), darstellende Matrix . . . . . . . . . . 187 SO(n), Menge der speziell-orthogonalen
MB (β), darstellende Matrix einer n × n-Matrizen . . . . . . . . . . . . . . 384
Bilinearform . . . . . . . . . . . . . . . . 341 SU(V), speziell-unitäre Gruppe von V . 396
MODn , Restabbildung . . . . . . . . . . . . . . . 136 SU(n), Menge der speziell-unitären
mZ, Menge der durch m teilbaren ganzen n × n-Matrizen . . . . . . . . . . . . . . 396
Zahlen . . . . . . . . . . . . . . . . . . . . . 141 sgn(σ), Signum einer Permutation . . . . 144
Mat(m × n, R), Menge der m × n-Matrizen sinh, hyperbolischer Sinus . . . . . . . . . . . 450
mit Einträgen in einem Ring R 147 Sn , symmetrische Gruppe . . . . . . . . . . . . 132
Mat(m × n, R), Menge der reellen S , Spielgelungsmatrix . . . . . . . . . . . . . . 194

m × n-Matrizen . . . . . . . . . . . . . . 47 , Summe . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Mat(n, K), Menge der n × n-Matrizen mit TAA , Transformationsmatrix . . . . . . . . . . 189
Einträgen in einem Körper K . 204 T(a), Tetraeder der Kantenlänge a . . . . 430
n
M , kartesisches Produkt . . . . . . . . . . . . . 18 Tw , Translation um w . . . . . . . . . . . . . . . . 240
μgeo (λ), geometrische Vielfachheit des U ⊥ ,orthogonales Komplement von U . 375
Eigenwerts λ . . . . . . . . . . . . . . . . 286 U(V ), unitäre Gruppe von V . . . . . . . . . . 396
N, Menge der natürlichen Zahlen . . . . . . 12 U(n), Menge der unitären n × n-Matrizen
N0 , Menge der natürlichen Zahlen inkl. 0 396
12 V  W, Isomorphie der Vektorräume V
N(β), Nullraum von β . . . . . . . . . . . . . . . 350 und W . . . . . . . . . . . . . . . . . . . . . . 181
O(2), orthogonale Gruppe von R2 . . . . . 253 (x, y), Innenwinkel . . . . . . . . . . . . . . . . . 374
O(2)− , Menge der Spiegelungsmatrizen252 X  , Transponierte . . . . . . . . . . . . . . . . . . . 201
O(V), orthogonale Gruppe von V . . . . . 383 Z, Menge der ganzen Zahlen . . . . . . . . . . 12
O(a), Oktaeder der Kantenlänge a . . . . 433 Z(X, b), schiefer Zylinder über X in
O(n), Menge der orthogonalen Richtung b . . . . . . . . . . . . . . . . . . 424
n × n-Matrizen . . . . . . . . . . . . . . 384 Zh (X), Zylinder über X der Höhe h . . . 422
Ωn , Menge der n-ten Einheitswurzeln . 134 Z/n, Restemenge bei Division durch n 136
P, Potenzmenge . . . . . . . . . . . . . . . . . . . . . 17 o(V ), Menge der schiefsymmetrischen
P , Orthogonalprojektion auf U . . . . . . 377 Endomorphismen . . . . . . . . . . . 399
U
, Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . 37 o(n), Menge der schiefsymmetrischen
Q, Menge der rationalen Zahlen . . . . . . . 14 Matrizen . . . . . . . . . . . . . . . . . . . 400
Q+ , Menge der positiven rationalen Zahlen [ϕ, ψ], Kommutator von ϕ und ψ . . . . . 399
24 ϕ  , adjungierte Abbildung . . . . . . . . . . . 380
q β , quadratische Form zu β . . . . . . . . . . 346 ψ-Periode . . . . . . . . . . . . . . . . . . . . . . . . . . 447
R, Menge der reellen Zahlen . . . . . . . . . . 14 v, w, Minkowski-Produkt . . . . . . . . . 355
Index 457

v, w, Skalarprodukt . . . . . . . . . . . . 81, 264 ausgeartete Bilinearform . . . . . . . . . . . . . 351


(x, y), Innenwinkel . . . . . . . . . . . . . . . . . . 93 Auswertehomomorphismus . . . . . . . . . . 277
Automorphismus . . . . . . . . . . . . . . . . . . . 181
A orientierungserhaltender . . . . . . . . . 229
orientierungstreuer . . . . . . . . . . . . . . 229
Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 orientierungsumkehrender . . . . . . . 229
K-lineare ∼ . . . . . . . . . . . . . . . . . . . . . 177
adjungierte . . . . . . . . . . . . . . . . . . . . . 380 B
affine . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Abel, Niels Henrik . . . . . . . . . . . . . . . . . . 121 Barbier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38
Abelpreis . . . . . . . . . . . . . . . . . . . . . . . . . . 121 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . 63, 163
abelsche Gruppe . . . . . . . . . . . . . . . . . . . . 135 entgegengesetzt orientiert . . . . . . . . 224
abgeschlossene Menge . . . . . . . . . . . . . . 242 geordnete ∼. . . . . . . . . . . . . . . . . . . . . 171
abzählbar unendlich . . . . . . . . . . . . . . . . . . 33 gleich orientiert . . . . . . . . . . . . . . . . . 224
Addition von Matrizen . . . . . . . . . . . . . . . . 48 verschieden orientiert . . . . . . . . . . . . 224
Adjazenzmatrix . . . . . . . . . . . . . . . . . . . . . 412 Basisauswahlsatz . . . . . . . . . . . . . . . . . . . 167
adjungierte Abbildung . . . . . . . . . . . . . . . 380 Basisergänzungssatz . . . . . . . . . . . . . 69, 170
ähnliche Matrizen . . . . . . . . . . . . . . . . . . . 193 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . 189
Ähnlichkeitstransformation . . . . . . . . . . 193 beschränkte Menge . . . . . . . . . . . . . . . . . . 242
äquivalente Matrizen . . . . . . . . . . . . . . . . 192 bijektiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
äquivalente Aussagen . . . . . . . . . . . . . . . . . . 1 Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Äquivalenzrelation . . . . . . . . . . . . . . . . . . . 40 einer Abbildung . . . . . . . . . . . . . . . . . . 20
affine Abbildung . . . . . . . . . . . . . . . . . . . . 239 eines Gruppenhomomorphismus . . 139
affiner Unterraum . . . . . . . . . . . . . . . . . . . 236 eines Vektorraumhomomorphismus
Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 180
Algebra mit Einselement . . . . . . . . . . . . . 313 bilinear . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
algebraische Multiplizität . . . . . . . . . . . . 298 Bilinearform . . . . . . . . . . . . . . . . . . . . . . . 339
algebraische Vielfachheit . . . . . . . . . . . . 298 ausgeartete . . . . . . . . . . . . . . . . . . . . . 351
Algebrenhomorphismus . . . . . . . . . . . . . 314 degenerierte . . . . . . . . . . . . . . . . . . . . 351
einserhaltender. . . . . . . . . . . . . . . . . . 314 entartete. . . . . . . . . . . . . . . . . . . . . . . . 351
unitärer . . . . . . . . . . . . . . . . . . . . . . . . 314 indefinite . . . . . . . . . . . . . . . . . . . . . . . 354
All-Quantor . . . . . . . . . . . . . . . . . . . . . . . . . . 3 negativ definite . . . . . . . . . . . . . . . . . 354
allgemeine lineare Gruppe . . . . . . . 132, 185 negativ semidefinite . . . . . . . . . . . . . 354
alternierend . . . . . . . . . . . . . . . . . . . . . . . . 205 positiv definite . . . . . . . . . . . . . . . . . . 354
alternierende Gruppe . . . . . . . . . . . . . . . . 145 positiv semidefinite. . . . . . . . . . . . . . 354
Binärsystem . . . . . . . . . . . . . . . . . . . . . . . . 137
Amplitude . . . . . . . . . . . . . . . . . . . . . . . . . 125
Bogenmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
Annihilator . . . . . . . . . . . . . . . . . . . . . . . . . 314
Bruchrechenregeln . . . . . . . . . . . . . . . . . . 175
antilinear . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
antisymmetrischer Endomorphismus . . 399 C
Argument . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Arkus-Kosinus . . . . . . . . . . . . . . . . . . . . . . . 93 Cantor’sches Diagonalverfahren . . . . . . . 31
Assoziativgesetz . . . . . . . . . . . . . . . . . . . . . 99 Cantor, Georg . . . . . . . . . . . . . . . . . . . . . . . 11
aufeinander senkrecht . . . . . . . . . . . . . . . . 95 Cardanische Gleichungen . . . . . . . . . . . . 118
Aufpunkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Cauchy-Schwarz-Ungleichung82, 372, 393
458 Index

Cayley-Hamilton nicht entartet . . . . . . . . . . . . . . . . . . . . . 90


Satz von . . . . . . . . . . . . . . . . . . . . . . . . 317 Dreiecksungleichung . . . . . . . . 83, 373, 393
charakteristisches Polynom . . . . . . . . . . 287 duale Basis . . . . . . . . . . . . . . . . . . . . . . . . . 231
Code Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . 231
fehlerkorrigierender . . . . . . . . . . . . . 418
linearer . . . . . . . . . . . . . . . . . . . . . . . . 419 E
Cosinus hyperbolicus . . . . . . . . . . . . . . . . 450
Cramer’sche Regel . . . . . . . . . . . . . . . . . . 218 Ebene. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Hesse’sche Normalform von . . . . . . 269
D Eigenraum . . . . . . . . . . . . . . . . . . . . . . . . . 284
verallgemeinerter . . . . . . . . . . . . . . . 327
darstellende Matrix . . . . . . . . . . . . . 184, 187 Eigenvektor . . . . . . . . . . . . . . . . . . . . . . . . 281
darstellende Matrix einer Bilinearform 341 Eigenwert . . . . . . . . . . . . . . . . . . . . . . . . . . 281
Definitionsbereich . . . . . . . . . . . . . . . . . . . . 19 Einheitswurzel . . . . . . . . . . . . . . . . . . . . . . 114
degenerierte Bilinearform . . . . . . . . . . . . 351 Einschränkung . . . . . . . . . . . . . . . . . . . . . . . 33
Descartes, René . . . . . . . . . . . . . . . . . . . . . . 78 einserhaltend . . . . . . . . . . . . . . . . . . . 151, 314
Determinante Eisensteinzahl . . . . . . . . . . . . . . . . . . . . . . 174
eines Endomorphismus . . . . . . . . . . 222 elementare Zeilenumformungen . . . . . . . 70
einer Matrix . . . . . . . . . . . . . . . . . . . . 204 Ellipse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
Determinantenabbildung . . . . . . . . . . . . . 204 Flächeninhalt von . . . . . . . . . . . . . . . 250
Determinantenmultiplikationssatz . . . . 215 endlich erzeugt . . . . . . . . . . . . . . . . . . . . . 166
Diagonalensatz . . . . . . . . . . . . . . . . . . . . . . 89 Endomorphismus
diagonalisierbar . . . . . . . . . . . . . . . . . . . . . 291 antisymmetrischer . . . . . . . . . . . . . . . 399
diagonalisierende Basis . . . . . . . . . . . . . . 347 orthogonaler . . . . . . . . . . . . . . . . . . . . 382
Differentialgleichung . . . . . . . . . . . . . . . . 439 schiefsymmetrischer . . . . . . . . . . . . . 399
Differentialgleichungssystem . . . . . . . . . 439 selbstadjungierter . . . . . . . . . . . . . . . 381
Dimension . . . . . . . . . . . . . . . . . . . . . . 67, 169 entartete Bilinearform . . . . . . . . . . . . . . . 351
eines affinen Unterraums . . . . . . . . . 238 entgegengesetzt orientierte Basen . . . . . 224
Dimensionsformel . . . . . . . . . . . . . . . . . . 182 Entwicklung der Determinante . . . . . . . 211
direkte Summe . . . . . . . . . . . . . . . . . . . . . 301 Epimorphismus . . . . . . . . . . . . . . . . . . . . . 181
disjunkte Mengen . . . . . . . . . . . . . . . . . . . . 17 erweiterte Koeffizientenmatrix. . . . . . . . . 70
Disjunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 erweiterter euklidischer Algorithmus . . 324
Diskriminante einer kubischen Gleichung Erzeugendensystem . . . . . . . . . . . . . . . . . 163
118 Euklid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Diskriminante einer quadratischen euklidische Bewegung . . . . . . . . . . . . . . . 255
Gleichung . . . . . . . . . . . . . . . . . . 115 euklidische Bewegungsgruppe . . . . . . . 255
Distributivgesetz . . . . . . . . . . . . . . . 100, 145 euklidische Norm . . . . . . . . . . . . . . . . . . . 264
Division mit Rest . . . . . . . . . . . . . . . . . . . 135 euklidischer Abstand . . . . . . . . . . . . . . . . . 84
Doppelkegel . . . . . . . . . . . . . . . . . . . . . . . . 365 euklidischer Vektorraum . . . . . . . . . . . . . 370
Drehachse . . . . . . . . . . . . . . . . . . . . . . . . . . 388 euklidisches Skalarprodukt. . . . . . . . . . . 370
Drehmatrix . . . . . . . . . . . . . . . . . . . . . . . . . 185 induziertes . . . . . . . . . . . . . . . . . . . . . 393
Drehwinkel . . . . . . . . . . . . . . . . . . . . . . . . . 388 Euler’sche Darstellung . . . . . . . . . . . . . . . 110
Dreieck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 Euler’sche Formel . . . . . . . . . . . . . . . . . . . 111
Flächeninhalt von . . . . . . . . . . . . . . . 245 Euler’sche Winkel . . . . . . . . . . . . . . . . . . 390
Index 459

Euler, Leonhard . . . . . . . . . . . . . . . . . . . . . 111 speziell-unitäre . . . . . . . . . . . . . . . . . 396


Existenz-Quantor . . . . . . . . . . . . . . . . . . . . . 3 unitäre . . . . . . . . . . . . . . . . . . . . . . . . . 396
Gruppenhomomorphismus . . . . . . . . . . . 137
F Gruppenisomorphismus . . . . . . . . . . . . . 139
Fahne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 H
Falk-Schema . . . . . . . . . . . . . . . . . . . . . . . . . 49
fehlerkorrigierender Code . . . . . . . . . . . . 418 Halbachse
Fibonacci . . . . . . . . . . . . . . . . . . . . . . . . . . 297 einer Ellipse . . . . . . . . . . . . . . . . . . . . 360
Fibonacci-Folge . . . . . . . . . . . . . . . . . . . . 297 Halbgruppe . . . . . . . . . . . . . . . . . . . . . . . . 127
Fibonacci-Zahlen . . . . . . . . . . . . . . . . 40, 297 Hamming, Richard Wesley . . . . . . . . . . . 417
Fixpunkt . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 Hamming-Abstand . . . . . . . . . . . . . . . . . . 417
formale Potenzreihe . . . . . . . . . . . . . . . . . 271 Hauptminor . . . . . . . . . . . . . . . . . . . . . . . . 355
Fourier-Reihen . . . . . . . . . . . . . . . . . . . . . 394 Hauptminorenkriterium . . . . . . . . . . . . . . 356
Frequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 Hauptraum . . . . . . . . . . . . . . . . . . . . . . . . . 327
Frobenius-Perron-Theorem. . . . . . . . . . . 437 hermitesch . . . . . . . . . . . . . . . . . . . . . . . . . 391
Fundamentalsatz der Algebra . . . . 112, 444 hermitesches Skalarprodukt . . . . . . . . . . 392
Hesse’sche Normalform . . . . . . . . . 258, 269
G Hexadezimalsystem . . . . . . . . . . . . . . . . . 137
Hilbert, David . . . . . . . . . . . . . . . . . . . . . . . 29
ganze Zahlen . . . . . . . . . . . . . . . . . . . . . . . . 12
Hilberts Hotel . . . . . . . . . . . . . . . . . . . . . . . 29
Gauß’sche Zahlenebene . . . . . . . . . . . . . . . 98
Höhe
Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . 69
eines Kegels . . . . . . . . . . . . . . . . . . . . 426
Gauß’sche Zahl . . . . . . . . . . . . . . . . . . . . . 174
eines schiefen Zylinders . . . . . . . . . . 424
Gauß, Carl Friedrich . . . . . . . . . . . . . . . . . 35
in einem Dreieck . . . . . . . . . . . . . . . . 259
geometrische Multiplizität . . . . . . . . . . . 286
Höhenschnittsatz . . . . . . . . . . . . . . . . . . . . 259
geometrische Vielfachheit . . . . . . . . . . . 286
Homomorphismus . . . . . . . . . . . . . . . . . . 137
geordnete Basis . . . . . . . . . . . . . . . . . . . . . 171
von K-Vektorräumen . . . . . . . . . . . . 177
geordnete Standardbasis . . . . . . . . . . . . . 172
Hotelzimmerlemma . . . . . . . . . . . . . . . . . . 37
Gerade . . . . . . . . . . . . . . . . . . . . . . . . . 78, 239
Householdermatrix . . . . . . . . . . . . . . . . . . 408
Hesse’sche Normalform von . . . . . . 258
Hyperbel . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
Geradenkreuz . . . . . . . . . . . . . . . . . . . . . . 361
hyperbolischer Kosinus . . . . . . . . . . . . . . 450
gleich orientierte Basen . . . . . . . . . . . . . . 224
hyperbolischer Sinus . . . . . . . . . . . . . . . . 450
gleichmächtig . . . . . . . . . . . . . . . . . . . . . . . . 28
Hyperebene . . . . . . . . . . . . . . . . . . . . . . . . 239
Goldbach’sche Vermutung . . . . . . . . . . . . 24
Goldbach, Christian . . . . . . . . . . . . . . . . . . 24 I
goldener Schnitt . . . . . . . . . . . . . . . . . . . . 295
Graßmann-Identität . . . . . . . . . . . . . . . . . 270 IBAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
Grad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Ideal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
Gradmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 identische Abbildung . . . . . . . . . . . . . . . . . 19
Gram-Schmidt-Verfahren . . . . . . . . . . . . 377 Identität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411 imaginäre Zahlen . . . . . . . . . . . . . . . . . . . 101
Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 Imaginärteil . . . . . . . . . . . . . . . . . . . . . . . . 102
orthogonale. . . . . . . . . . . . . . . . . . . . . 383 Impedanz . . . . . . . . . . . . . . . . . . . . . . . . . . 126
speziell-orthogonale . . . . . . . . . . . . . 383 Implikation . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
460 Index

indefinit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 kommutative Algebra. . . . . . . . . . . . . . . . 313


indirekter Beweis . . . . . . . . . . . . . . . . . . . . . . 9 kommutative Gruppe . . . . . . . . . . . . . . . . 135
Induktionsanfang . . . . . . . . . . . . . . . . . . . . 34 kommutativer Ring . . . . . . . . . . . . . . . . . . 148
Induktionsschritt . . . . . . . . . . . . . . . . . . . . . 34 Kommutativgesetz . . . . . . . . . . . . . . . . . . . 99
Induktionsvoraussetzung . . . . . . . . . . . . . . 34 Kommutator . . . . . . . . . . . . . . . . . . . . . . . . 399
Induktivität . . . . . . . . . . . . . . . . . . . . . . . . . 126 kompakte Menge . . . . . . . . . . . . . . . . . . . 242
injektiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 Komplement, orthogonales . . . . . . . . . . 375
Innenwinkel . . . . . . . . . . . . . . . . . . . . . 93, 374 komplex konjugierte Zahl . . . . . . . . . . . . 103
invariante Fahne . . . . . . . . . . . . . . . . . . . . 306 komplexe Konjugation . . . . . . . . . . . . . . . 103
invarianter Untervektorraum . . . . . . . . . 303 komplexe Zahl . . . . . . . . . . . . . . . . . . . . . . . 98
inverse Abbildung . . . . . . . . . . . . . . . . . . . . 26 komplexes trigonometrisches Polynom 160
inverses Element . . . . . . . . . . . . . . . . 99, 130 Komposition . . . . . . . . . . . . . . . . . . . . . . . . . 22
invertierbar . . . . . . . . . . . . . . . . . . . . . . . . . 130 Kondensator . . . . . . . . . . . . . . . . . . . . . . . . 126
isomorph . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Konjunktion . . . . . . . . . . . . . . . . . . . . . . . . . . 2
isomorphe Gruppen . . . . . . . . . . . . . . . . . 139 Kontrollmatrix . . . . . . . . . . . . . . . . . . . . . . 419
isomorphe Ringe . . . . . . . . . . . . . . . . . . . . 152 Kosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Isomorphismus . . . . . . . . . . . . . . . . . 139, 181 hyperbolischer . . . . . . . . . . . . . . . . . . 450
von K-Vektorräumen . . . . . . . . . . . . 181 Kreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
Kreisscheibe
J Flächeninhalt von . . . . . . . . . . . . . . . 249
Jacobi-Identität . . . . . . . . . . . . . . . . . 399, 409 Kreisteilungspolynom . . . . . . . . . . . . . . . 114
für Vektorprodukt . . . . . . . . . . . . . . . 270 Kreuzprodukt . . . . . . . . . . . . . . . . . . . . . . . 263
Jordan’sche Normalform . . . . . . . . . . . . . 329 Kronecker’sches δ-Symbol . . . . . . . . . . . 374
Jordanblock . . . . . . . . . . . . . . . . . . . . . . . . 329 kubische Gleichung . . . . . . . . . . . . . . . . . 117

K L

K-linear. . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 Laplace


K-Vektorraum . . . . . . . . . . . . . . . . . . . . . . 154 Spaltenentwicklungssatz . . . . . . . . . 212
K-Vektorraumhomomorphismus . . . . . . 177 Zeilenentwicklungssatz . . . . . . . . . . 215
Kaninchen . . . . . . . . . . . . . . . . . . . . . . . . . 297 leere Menge . . . . . . . . . . . . . . . . . . . . . . . . . 12
kartesische Koordinaten . . . . . . . . . . . . . . 78 Leonardo da Pisa . . . . . . . . . . . . . . . . . . . 297
kartesisches Produkt . . . . . . . . . . . . . . . . . . 18 Liealgebra. . . . . . . . . . . . . . . . . . . . . . . . . . 399
Kegel linear abhängig . . . . . . . . . . . . . . . . . . 62, 162
verallgemeinerter ∼ . . . . . . . . . . . . . 425 linear unabhängig . . . . . . . . . . . . . . . 62, 162
Volumen von . . . . . . . . . . . . . . . . . . . 429 lineare Abbildung . . . . . . . . . . . . . . . . . . . 177
Kegelschnitt . . . . . . . . . . . . . . . . . . . 364, 370 lineare Gleichungssysteme . . . . . . . . . . . . 43
Kern lineare Hülle . . . . . . . . . . . . . . . . . . . . 56, 159
eines Gruppenhomomorphismus . . 139 linearer Code . . . . . . . . . . . . . . . . . . . . . . . 419
eines Vektorraumhomomorphismus linearer Teil einer affinen Abbildung . . 240
180 lineares Gleichungssystem . . . . . . . . . . . . 46
Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . 46 homogenes . . . . . . . . . . . . . . . . . . . . . . 46
Koeffizientenmatrix . . . . . . . . . . . . . . . . . . 53 inhomogenes . . . . . . . . . . . . . . . . . . . . 46
Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 Linearfaktor . . . . . . . . . . . . . . . . . . . . . . . . 280
Index 461

Linearfaktorzerlegung . . . . . . . . . . 112, 280 negativ semidefinit . . . . . . . . . . . . . . . . . . 354


Linearkombination . . . . . . . . . . . . . . . . . . . 56 neutrales Element . . . . . . . . . . . . . . . 99, 128
linksinverse Abbildung . . . . . . . . . . . . . . . 26 nilpotent . . . . . . . . . . . . . . . . . . . . . . . 336, 447
Lösungsmenge . . . . . . . . . . . . . . . . . . . . . . . 54 Norm . . . . . . . . . . . . . . . . . . . . . . 81, 371, 392
Logarithmus Normalenvektor . . . . . . . . . . . . . . . . . . . . 258
natürlicher . . . . . . . . . . . . . . . . . . . . . . 139 Normalform für symmetrische
Luschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Bilinearformen . . . . . . . . . . . . . . 347
normiert . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
M normiertes Polynom . . . . . . . . . . . . . . . . . 315
Nullmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 47, 147
Nullraum . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
darstellende ∼ . . . . . . . . . . . . . . . . . . 187
nullteilerfrei . . . . . . . . . . . . . . . . . . . . . . . . 152
orthogonale. . . . . . . . . . . . . . . . . . . . . 384
schiefsymmetrische . . . . . . . . . . . . . 344 O
symmetrische . . . . . . . . . . . . . . 344, 381
unitäre . . . . . . . . . . . . . . . . . . . . . . . . . 396 Obermenge . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Maximumsnorm . . . . . . . . . . . . . . . . . . . . 407 Oktaeder . . . . . . . . . . . . . . . . . . . . . . . . . . . 432
Meer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 Volumen von . . . . . . . . . . . . . . . . . . . 433
Menge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Orientierung. . . . . . . . . . . . . . . . . . . . . . . . 226
Mengendifferenz . . . . . . . . . . . . . . . . . . . . . 16 orientierungserhaltend . . . . . . . . . . . . . . . 229
Methylien . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 orientierungstreu . . . . . . . . . . . . . . . . . . . . 229
Minimalpolynom . . . . . . . . . . . . . . . . . . . 316 orientierungsumkehrend . . . . . . . . . . . . . 229
Minkowski-Produkt . . . . . . . . . . . . . . . . . 355 orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Mittelpunkt . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Orthogonalbasis . . . . . . . . . . . . . . . . . . . . 347
Mittelpunkts-Lemma . . . . . . . . . . . . . . . . . 85 orthogonale Gruppe . . . . . . . . . . . . 253, 383
modulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 orthogonale Matrix . . . . . . . . . . . . . . . . . 384
Moivre-Binet orthogonaler Endomorphismus . . . . . . . 382
Formel von . . . . . . . . . . . . . . . . . . . . . 298 orthogonales Komplement . . . . . . . . . . . 375
mol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 Orthogonalprojektion . . . . . . . . . . . . . . . 377
Monom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Orthonormalbasis . . . . . . . . . . . . . . 374, 394
Monomorphismus . . . . . . . . . . . . . . . . . . 181 Orthonormalsystem . . . . . . . . . . . . . 374, 394
monoton wachsend . . . . . . . . . . . . . . . . . . . 82
Morgan’sche Gesetze . . . . . . . . . . . . . 16, 39 P
Multiplikation komplexer Zahlen . . . . . . 99
p-q-Formel . . . . . . . . . . . . . . . . . . . . . . . . . 115
Multiplikation von Matrizen . . . . . . . . . . 49
Parabel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368
Multiplizität eines Eigenwerts
parallel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .87
algebraische . . . . . . . . . . . . . . . . . . . . 298
Parallelepiped . . . . . . . . . . . . . . . . . . . . . . 243
geometrische . . . . . . . . . . . . . . . . . . . 286
Parallelogramm . . . . . . . . . . . . . . . . . . . . . . 88
N nicht entartet . . . . . . . . . . . . . . . . . . . . . 88
Parallelogrammgleichung . . . . . . . . . . . . 407
natürliche Zahlen . . . . . . . . . . . . . . . . . . . . 12 Parallelotop . . . . . . . . . . . . . . . . . . . . . . . . 243
Negation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Volumen von . . . . . . . . . . . . . . . . . . . 244
negativ definit . . . . . . . . . . . . . . . . . . . . . . 354 Parallelschaltung . . . . . . . . . . . . . . . . . . . . 126
negativ orientierte Basis . . . . . . . . . . . . . 229 Periode . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
462 Index

Permutation . . . . . . . . . . . . . . . . . . . . . . . . 132 regelmäßiges n-Eck


Pisa Flächeninhalt von . . . . . . . . . . . . . . . 248
schiefer Turm von . . . . . . . . . . . . . . . 424 Reihenschaltung . . . . . . . . . . . . . . . . . . . . 126
platonischer Körper . . . . . . . . . . . . . . . . . 430 Rhombensatz . . . . . . . . . . . . . . . . . . . . . . . . 97
Polardarstellung . . . . . . . . . . . . . . . . . . . . 107 Rhombus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Polarisierung . . . . . . . . . . . . . . . . . . . . . . . 346 Richtungsvektor . . . . . . . . . . . . . . . . . . . . . 78
Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 Ring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Polynomdivision . . . . . . . . . . . . . . . . . . . . 275 Ring mit Eins . . . . . . . . . . . . . . . . . . . . . . . 149
Polynomfunktion . . . . . . . . . . . . . . . . . . . 160 Ringhomomorphismus . . . . . . . . . . . . . . 150
positiv definit . . . . . . . . . . . . . . . . . . . . . . . 354 einserhaltender. . . . . . . . . . . . . . . . . . 151
positiv orientierte Basis. . . . . . . . . . . . . . 229 unitärer . . . . . . . . . . . . . . . . . . . . . . . . 151
positiv semidefinit . . . . . . . . . . . . . . . . . . 354 Ringisomorphismus . . . . . . . . . . . . . . . . . 152
Potenzmenge . . . . . . . . . . . . . . . . . . . . . . . . 17
Potenzreihe S
formale . . . . . . . . . . . . . . . . . . . . . . . . 271
Primkörper . . . . . . . . . . . . . . . . . . . . . . . . . 153 Salpetersäure . . . . . . . . . . . . . . . . . . . . . . . . 44
Primzahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Sarrus
Pythagoras, Satz des . . . . . . . . . . . . . . . . . . 97 Regel von . . . . . . . . . . . . . . . . . . . . . . 212
Satz des Pythagoras . . . . . . . . . . . . . . . . . . 97
Q Satz von Sylvester . . . . . . . . . . . . . . . . . . . 352
Satz von Vieta . . . . . . . . . . . . . . . . . . . . . . 115
quadratische Form . . . . . . . . . . . . . . . . . . 346 Schach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
quadratische Gleichung . . . . . . . . . . . . . . . . 6 schiefer Zylinder . . . . . . . . . . . . . . . . . . . . 424
Quadrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358 Volumen von . . . . . . . . . . . . . . . . . . . 425
Quadriken schiefsymmetrische bilineare Abbildung
Klassifikation . . . . . . . . . . . . . . . . . . . 364 343
Quantor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 schiefsymmetrische Matrix . . . . . . . . . . 344
R schiefsymmetrischer Endomorphismus 399
Schmidt’sche
Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . 75, 198 Orthonormalisierungsverfahren
einer linearen Abbildung . . . . . . . . . 182 377
Spaltenrang . . . . . . . . . . . . . . . . . 75, 198 Schnittmenge . . . . . . . . . . . . . . . . . . . . . . . . 16
Zeilenrang . . . . . . . . . . . . . . . . . . . . . . 201 Schwerpunkt . . . . . . . . . . . . . . . . . . . . . . . . 91
Ranking von Webseiten . . . . . . . . . . . . . . 433 Schwerpunktsatz . . . . . . . . . . . . . . . . . . . . . 91
rationale Zahl . . . . . . . . . . . . . . . . . . . . . . . . 14 Sehne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
Raute . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Seitenhalbierende . . . . . . . . . . . . . . . . . . . . 90
Realteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 Sekante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
Rechenschieber . . . . . . . . . . . . . . . . . . . . . 139 selbstadjungierter Endomorphismus . . 381
rechtsinverse Abbildung . . . . . . . . . . . . . . 26 Sesquilinearform . . . . . . . . . . . . . . . . . . . . 391
rechtwinkliges Dreieck positiv definite . . . . . . . . . . . . . . . . . . 391
Flächeninhalt von . . . . . . . . . . . . . . . 247 Signum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Reellifizierung . . . . . . . . . . . . . . . . . . . . . . 392 simultan diagonalisierbar . . . . . . . . . . . . 304
Reflexivität . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Sinus
Regel von Sarrus . . . . . . . . . . . . . . . . . . . . 212 hyperbolischer . . . . . . . . . . . . . . . . . . 450
Index 463

Sinus hyperbolicus . . . . . . . . . . . . . . . . . . 450 Transformationsmatrix . . . . . . . . . . . . . . 189


Skalar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Transitivität . . . . . . . . . . . . . . . . . . . . . . . . . 40
Skalarprodukt . . . . . . . . . . . . . . 81, 264, 370 Translation . . . . . . . . . . . . . . . . . . . . . . . . . 240
Skat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Transponierte . . . . . . . . . . . . . . . . . . . . . . . 201
spalten-stochastisch . . . . . . . . . . . . . . . . . 435 transponierte Matrix . . . . . . . . . . . . . . . . . . 47
Spaltenentwicklungssatz von Laplace . 212 Transposition . . . . . . . . . . . . . . . . . . 142, 201
Spaltenvektor . . . . . . . . . . . . . . . . . . . . 47, 74 trigonalisierbar . . . . . . . . . . . . . . . . . . . . . 307
speziell-orthogonale Gruppe . . . . . . . . . 383 trigonometrisches Polynom . . . . . . . . . . 160
speziell-orthogonale Matrix . . . . . . . . . . 384 Trinitrotoluol . . . . . . . . . . . . . . . . . . . . . . . . 44
speziell-unitäre Gruppe . . . . . . . . . . . . . . 396 triviale Gruppe . . . . . . . . . . . . . . . . . . . . . 131
speziell-unitäre Matrix . . . . . . . . . . . . . . 396 Tupel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
spezielle orthogonale Gruppe . . . . . . . . 250
spezielle Zeilenstufenform . . . . . . . . . . . . 71 U
Spiegelungsmatrix . . . . . . . . . . . . . . . . . . 194 überabzählbar . . . . . . . . . . . . . . . . . . . . . . . 33
Spur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407 Umkehrabbildung . . . . . . . . . . . . . . . . . . . . 26
Standard-Sesquilinearform . . . . . . . . . . . 392 Unbekannte . . . . . . . . . . . . . . . . . . . . . . . . . 46
Standardbasis . . . . . . . . . . . . . . . . . . . 64, 164 unitär . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
Standardhyperbel . . . . . . . . . . . . . . . . . . . 361 unitäre Gruppe . . . . . . . . . . . . . . . . . . . . . 396
Standardorientierung . . . . . . . . . . . . . . . . 229 unitärer Algebrenhomomorphismus . . . 314
Strand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 unitärer Ring . . . . . . . . . . . . . . . . . . . . . . . 149
Stromstärke . . . . . . . . . . . . . . . . . . . . . . . . 125 unitärer Ringhomomorphismus . . . . . . . 151
Suchmaschine . . . . . . . . . . . . . . . . . . . . . . 433 unitärer Vektorraum . . . . . . . . . . . . . . . . . 392
Summe von Untervektorräumen . . . . . . 158 unitäre Matrix . . . . . . . . . . . . . . . . . . . . . . 396
surjektiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Unteralgebra . . . . . . . . . . . . . . . . . . . . . . . 313
Sylvester Untergruppe . . . . . . . . . . . . . . . . . . . . . . . . 134
Satz von . . . . . . . . . . . . . . . . . . . . . . . . 352 Unterkörper . . . . . . . . . . . . . . . . . . . . . . . . 154
Symmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Unterring . . . . . . . . . . . . . . . . . . . . . . . . . . 150
symmetrische bilineare Abbildung . . . . 343 Untervektorraum . . . . . . . . . . . . . . . . 55, 157
symmetrische Differenz . . . . . . . . . . . . . 173 invarianter . . . . . . . . . . . . . . . . . . . . . . 303
symmetrische Gruppe . . . . . . . . . . . . . . . 132 Urbild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
symmetrische Matrix . . . . . . . . . . . . . . . . 344 Urlaub . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
T V

Tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 Vandermonde-Determinante . . . . . . . . . 233


Tangenten-Sehnen-Satz . . . . . . . . . . . . . . 263 Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . 263
Teilmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Vektorraum
Tetraeder . . . . . . . . . . . . . . . . . . . . . . . . . . . 430 euklidischer . . . . . . . . . . . . . . . . . . . . 370
Volumen von . . . . . . . . . . . . . . . . . . . 432 unitärer . . . . . . . . . . . . . . . . . . . . . . . . 392
TNT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 Vektorraum über K . . . . . . . . . . . . . . . . . 154
Toluol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 Vektorraumhomomorphismus . . . . . . . . 177
Transformationsformel verallgemeinerter Eigenraum . . . . . . . . . 327
für Bilinearformen . . . . . . . . . . . . . . 343 verallgemeinerter Kegel . . . . . . . . . . . . . 425
für lineare Abbildungen . . . . . . . . . . 190 Volumen von . . . . . . . . . . . . . . . . . . . 429
464 Index

verallgemeinerter Zylinder . . . . . . . . . . . 422 Widerspruchsbeweis . . . . . . . . . . . . . . . . . . . 9


Volumen von . . . . . . . . . . . . . . . . . . . 424 Widerstand
Vereinigung . . . . . . . . . . . . . . . . . . . . . . . . . 16 elektrischer . . . . . . . . . . . . . . . . . . . . . 126
Verkettung . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Verknüpfungstabelle . . . . . . . . . . . . . . . . 132 Z
verschieden orientierte Basen . . . . . . . . 224
Vielfachheit . . . . . . . . . . . . . . . . . . . . 112, 279 Zeilenentwicklungssatz von Laplace . . 215
Vielfachheit eines Eigenwerts Zeilenrang . . . . . . . . . . . . . . . . . . . . . . . . . 201
algebraische . . . . . . . . . . . . . . . . . . . . 298 Zeilenstufenform . . . . . . . . . . . . . . . . . . . . . 71
geometrische . . . . . . . . . . . . . . . . . . . 286 Zeilenvektor . . . . . . . . . . . . . . . . . . . . . . . . . 47
Vierflach . . . . . . . . . . . . . . . . . . . . . . . . . . . 430 Zerlegung in verallgemeinerte Eigenräume
vollständige Induktion . . . . . . . . . . . . . . . . 34 327
Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 zugehöriger Untervektorraum . . . . . . . . 237
Zwei-Sehnen-Satz . . . . . . . . . . . . . . . . . . 262
W
Zweig
Wasser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 einer Hyperbel . . . . . . . . . . . . . . . . . . 361
Weg der Länge m . . . . . . . . . . . . . . . . . . . 413 Zylinder
Wertebereich . . . . . . . . . . . . . . . . . . . . . . . . 19 verallgemeinerter . . . . . . . . . . . . . . . 422

Das könnte Ihnen auch gefallen