Sie sind auf Seite 1von 439

Christian Karpfinger

Hellmuth Stachel

Lineare Algebra
Lineare Algebra
Christian Karpfinger  Hellmuth Stachel

Lineare Algebra
Christian Karpfinger Hellmuth Stachel
Technische Universität München Technische Universität Wien
Garching b. München, Deutschland Wien, Österreich

ISBN 978-3-662-61339-9 ISBN 978-3-662-61340-5 (eBook)


https://doi.org/10.1007/978-3-662-61340-5

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte
bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Springer Spektrum
Die Inhalte dieses Buches basieren größtenteils auf dem Werk „Grundwissen Mathematikstudium – Analysis und
Lineare Algebra mit Querverbindungen“, ISBN: 978-3-8274-2308-5
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich
vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für
Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung
in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem
Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung
unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zei-
cheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem
Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder
die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder
Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröf-
fentlichten Karten und Institutionsadressen neutral.
Mit Beiträgen von Klaus Lichtenegger

Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von
Springer Nature.
Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
V

Vorwort

Das Mathematikstudium beginnt üblicherweise mit den beiden Vorlesungen Analysis und
Lineare Algebra. Die Lineare Algebra beinhaltet dabei im Wesentlichen die Theorie der
Vektorräume und den Matrizenkalkül. Meist findet zu Beginn der Vorlesung eine Einfüh-
rung statt, die, abhängig vom Dozenten, von einer bis sechs Wochen dauern kann. Hierbei
werden Konzepte der Logik, Mengentheorie und der Theorie von Abbildungen, d. h. Funk-
tionen, vorangestellt. Manchmal kommt auch die Vollständige Induktion und/oder auch eine
Einführung in die Welt der Zahlen nicht zu kurz. In Abhängigkeit vom Geschmack des Vor-
tragenden gibt es auch eine mehr oder weniger ausführliche Einführung in die Grundlagen
von algebraischen Strukturen, sprich Gruppen, Ringe, Körper.
Es ist also keineswegs festgelegt, ob Sie in der ersten oder der sechsten Woche des Se-
mesters mit der eigentlichen Linearen Algebra beginnen. Wir haben in dem vorliegenden
Buch zur Linearen Algebra einen Mittelweg gewählt. In den ersten beiden Kapiteln fin-
den Sie eine Zusammenstellung der für dieses Buch wichtigen Grundbegriffe wie Mengen,
Abbildungen, Relationen, Gruppen, Körper und Ringe. Wenn Sie allerdings einen zügigen
Einstieg in die Lineare Algebra vorziehen, so können Sie auch gleich mit dem 7 Kap. 3
beginnen und später, bei Bedarf, die zunächst übersprungenen Inhalte nachholen. Zudem
bieten wir in diesem Werk immer wieder klar gekennzeichnete Stellen zur Aufbereitung
und Vertiefung des Gelernten an. Natürlich können diese Teile gleichfalls bei der ersten
Durchsicht ausgelassen werden.
Das vorliegende Buch gibt – mit einigen Anpassungen – die Inhalte zur Linearen
Algebra aus dem Buch von T. Arens, R. Busam, F. Hettlich, Ch. Karpfinger, H. Sta-
chel: Grundwissen Mathematikstudium wieder. In diesem mit der gleichen didaktischen
Methodik abgefassten Werk, auf das wir unter der Kurzbezeichnung „Grundwissenbuch“
mehrfach verweisen werden, wird ja der Versuch unternommen, die Lineare Algebra und
die Analysis von Anfang an parallel zu entwickeln, um den Lesern die Gemeinsamkeiten
dieser wichtigen Bausteine der modernen Mathematik vor Augen zu führen. Wenn Sie sich
also darüber hinaus über Themen der mathematischen Gedankenwelt informieren wollen,
wie z. B. über die Induktion, über komplexe Zahlen oder das Auswahlaxiom, so empfehlen
wir dieses Buch von T. Arens, et al.
Wir bedanken uns für die fachkundige und stets umsichtige Zusammenarbeit mit Frau
Bianca Alton und für die höchst kompetente Projektleitung durch Herrn Dr. Andreas Rü-
dinger vom Springer-Verlag. Besonders danken möchten wir auch unserem Co-Autor zum
Lehrbuch Mathematik, Dr. Klaus Lichtenegger, dessen Material wir hier einfließen lassen
konnten.
Wir wünschen Ihnen viel Freude und Erfolg mit der Linearen Algebra.

Christian Karpfinger
Hellmuth Stachel
München, Wien
Januar 2020
VII

Inhaltsverzeichnis

1 Logik, Mengen, Abbildungen – die Sprache der Mathematik . . . . . . . . . . . . . . . . . 1


1.1 Junktoren und Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Grundbegriffe aus der Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Algebraische Strukturen – ein Blick hinter die Rechenregeln . . . . . . . . . . . . . . . . . 31


2.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

3 Lineare Gleichungssysteme – ein Tor zur linearen Algebra . . . . . . . . . . . . . . . . . . . . 65


3.1 Erste Lösungsversuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.2 Das Lösungsverfahren von Gauß und Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.3 Das Lösungskriterium und die Struktur der Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

4 Vektorräume – von Basen und Dimensionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87


4.1 Der Vektorraumbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.2 Beispiele von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.3 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.4 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.5 Summe und Durchschnitt von Untervektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

5 Analytische Geometrie – Rechnen statt Zeichnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121


5.1 Punkte und Vektoren im Anschauungsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.2 Das Skalarprodukt im Anschauungsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.3 Weitere Produkte von Vektoren im Anschauungsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
5.4 Abstände zwischen Punkten, Geraden und Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
5.5 Wechsel zwischen kartesischen Koordinatensystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen . . . . . 169


6.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
6.2 Verknüpfungen von linearen Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
6.3 Kern, Bild und die Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
6.4 Darstellungsmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
6.5 Verknüpfungen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
6.6 Das Invertieren von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
6.7 Elementarmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
6.8 Basistransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
6.9 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214

7 Determinanten – Kenngrößen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223


7.1 Die Definition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
7.2 Determinanten von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
7.3 Berechnung der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
7.4 Anwendungen der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

8 Normalformen – Diagonalisieren und Triangulieren . . . . . . . . . . . . . . . . . . . . . . . . . . . 247


8.1 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
8.2 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
8.3 Berechnung der Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
VIII Inhaltsverzeichnis

8.4 Algebraische und geometrische Vielfachheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261


8.5 Die Exponentialfunktion für Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
8.6 Das Triangulieren von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
8.7 Die Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
8.8 Die Berechnung einer Jordan-Normalform und Jordan-Basis . . . . . . . . . . . . . . . . . . . . . . . . . . 283
8.9 Das Minimalpolynom einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296

9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren . . . . . . 305


9.1 Euklidische Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
9.2 Norm, Winkel, Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
9.3 Orthonormalbasen und orthogonale Komplemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
9.4 Unitäre Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
9.5 Orthogonale und unitäre Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
9.6 Selbstadjungierte Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
9.7 Normale Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350

10 Quadriken – vielseitig nutzbare Punktmengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363


10.1 Symmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
10.2 Hermitesche Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
10.3 Quadriken und ihre Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
10.4 Die Singulärwertzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392
10.5 Die Pseudoinverse einer linearen Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395

Serviceteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
Hinweise zu den Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
Lösungen zu den Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
IX

Verzeichnis der Übersichten

Logik – Junktoren und Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5


Gruppen, Ringe und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Produkte von Vektoren im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
Homo-, Mono-, Epi-, Iso-, Endo-, Automorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
Die linearen Abbildungen 'A W v 7! A v mit einer Matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
Eigenschaften der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Diagonalisieren einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Bestimmung einer Jordan-Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
Die gemeinsamen Eigenschaften ähnlicher Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
Eigenschaften und Begriffe euklidischer bzw. unitärer Vektorräume . . . . . . . . . . . . . . . . . . . . . . . 334
Die verschiedenen Klassen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
Reell versus komplex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
Quadriken im A .R2 / . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
Quadriken in A .R3 / . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
Diagonalisieren von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
1 1

Logik, Mengen, Abbildungen


– die Sprache der Mathematik

Inhaltsverzeichnis

1.1 Junktoren und Quantoren – 2

1.2 Grundbegriffe aus der Mengenlehre – 5

1.3 Abbildungen – 12

1.4 Relationen – 20

Aufgaben – 28

Antworten zu den Selbstfragen – 29

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_1
2 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

n Sie finden unter anderem Antworten zu . . . Aussagen lassen sich mittels Junktoren
1 4 Wie lassen sich Mengen beschreiben? verbinden
4 Was ist eine Abbildung?
4 Wodurch ist eine Äquivalenzrelation gekennzeichnet?
Meist ist man nicht nur an einzelnen Aussagen interessiert,
Mathematik kann man als eine Sprache auffassen. Das sondern will diese verknüpfen. Das geschieht wie in der
Vokabular basiert auf der Mengenlehre, und die Logik über- Alltagssprache mit Bindewörtern wie nicht, und oder oder.
nimmt die Rolle der Grammatik. Die Begriffe und Symbole In der formalen Logik nennt man diese Bindewörter Junk-
der Mengenlehre und der Logik werden dabei als eine Art toren.
Stenografie verwendet um Definitionen, Sätze und Beweise Wir bezeichnen im Folgenden Aussagen mit einzelnen
prägnant und klar formulieren zu können. Großbuchstaben, etwa A, B, C . Dann notieren wir die Ne-
In diesem einführenden Kapitel stellen wir die für uns gation (NICHT-Verknüpfung) einer Aussage A durch :A.
wesentlichen Begriffe und Symbole der Logik und Men- In der Literatur finden sich auch die Notationen A oder A
genlehre zusammen. Da die präzise Einführung dieser Be- für die Negation.
griffe und Symbole für die lineare Algebra nebensächlich Wie man es erwartet, ist die Negation so definiert, dass
ist, können wir auf einen axiomatischen Aufbau verzich- :A dann falsch ist, wenn A wahr ist und umgekehrt. Mit-
ten. Wir benutzen einen intuitiven Zugang zur Logik und hilfe einer Wahrheitstafel lassen sich derartige Sachver-
Mengenlehre. Dieses Vorgehen, das auch bei Anfängervor- halte übersichtlich darstellen, in dem man alle möglichen
lesungen in der Mathematik üblich ist, hat sich bewährt. Kombinationen auflistet. WAHR und FALSCH werden wir
Man kann somit nach relativ kurzer Einführung schnell zu dabei durch w und f abkürzen. Für die Negation erhalten
den Inhalten der Analysis und linearen Algebra kommen. wir
Im Laufe seines Studiums aber sollte sich jeder Mathema-
A :A
tikstudent mit einigen wenigen Inhalten der axiomatischen
w f
Mengenlehre bzw. der mathematischen Logik vertraut ma-
f w
chen.
Zur Mengenlehre gehören Abbildungen zwischen Men- Beispiel Für eine reelle Zahl x ist etwa die Negation der
gen und Relationen auf Mengen. Bei der Einführung dieser Aussage „x < 5“ durch die Aussage „x  5“ gegeben. Die
Begriffe legen wir ein Augenmerk auf präzise Anwendun- Negation ist durch „x ist nicht kleiner 5“ gegeben und da
gen der Begriffe und Symbole der Logik und der bis dahin es für reelle Zahlen drei Möglichkeiten gibt, kleiner, gleich
entwickelten Mengenlehre. Das erscheint einem Neuling in oder größer, bedeutet die Verneinung der Aussage „x ist
der Mathematik schnell pedantisch oder unnötig abstrakt. größer oder gleich 5“. 9
Tatsächlich aber ist das korrekte und genaue Anwenden des
Formalismus eine unabdingbare Notwendigkeit, um den Neben der Negation haben wir noch die Konjunktion
Weg in die Gedankenwelt der Mathematik zu meistern. zweier Aussagen, die UND-Verknüpfung, die durch das
Symbol ^ ausgedrückt wird, und die Disjunktion, die
1.1 Junktoren und Quantoren ODER-Verknüpfung, mit dem Zeichen _. Eine Wahrheits-
tafel liefert uns die verschiedenen Werte für die beiden
Verknüpfungen:
In der Mathematik geht es darum, Aussagen auf ihren
Wahrheitsgehalt hin zu überprüfen. Eine Aussage fassen A B A^B A_B
wir dabei als einen feststellenden Satz auf, dem genau ei- w w w w
ner der Wahrheitswerte WAHR oder FALSCH zugeordnet w f f w
werden kann. Eine wahre Aussage wird in der Mathematik f w f w
oft als Satz bezeichnet. Den Nachweis der Wahrheit dieser f f f f
Aussage nennt man einen Beweis des Satzes. Bevor wir uns
aber an das Beweisen von Sätzen machen, befassen wir uns Beachten Sie, dass in der Logik die Disjunktion stets
mit einigen Grundbegriffen der Aussagenlogik. Dabei be- ein einschließendes ODER bezeichnet, im Gegensatz zur
treiben wir eine naive Logik, in der wir unterschwellig die Umgangssprache, in der oft nur aus dem Zusammenhang
sprachliche Vorstellung benutzen. Die mathematische Lo- deutlich wird, ob es sich nicht vielleicht um ein „entweder
gik funktioniert auf einem anderen formalen Niveau. . . . oder“ handelt. Formal können wir mit den gegebenen
Junktoren und Quantoren sind sogenannte Operatoren Symbolen auch ein ausschließendes ODER beschreiben
der Logik. Mit Junktoren werden Aussagen verbunden, durch
Quantoren hingegen binden Variable; dabei verstehen wir .A _ B/ ^ :.A ^ B/ :
unter einer Variablen vorläufig ein Zeichen, für das belie-
bige Ausdrücke einer bestimmten Art eingesetzt werden In der Literatur wird für diese Verknüpfung die Bezeich-
können. nung XOR mit der Notation AX B genutzt.
1.1  Junktoren und Quantoren
3 1

Implikationen sorgen für klare Beziehungen Beispiel Wir beweisen ein berühmtes Ergebnis, das von
Euklid stammt. Es handelt sich um die Aussage: „Es gibt
unendlich viele Primzahlen, also Zahlen, die nur durch eins
Eine weitere logische Verknüpfung ist die Implikation. und sich selbst teilbar sind.“
Diese WENN-DANN-Verknüpfung wird manchmal auch Den Beweis führen wir mittels Widerspruch. Man
als Subjunktion bezeichnet. Es geht um die Logik des ma- nimmt an, es gäbe nur endlich viele Primzahlen. Dann muss
thematischen Folgerns der Art „Wenn A wahr ist, so ist es eine größte geben, die wir mit p bezeichnen wollen. Nun
auch B wahr“ oder kurz gesagt „Aus A folgt B.“ bildet man das Produkt aller Primzahlen von zwei bis p und
Bei der Definition dieser Verknüpfung von Aussagen addiert eins:
geht man einen auf den ersten Blick recht seltsamen Weg.
Genauso wie oben bei der UND-Verknüpfung beschrieben, r D 2  3  5  7  11  : : :  p C 1
bezeichnet die Implikation weder einen zeitlichen noch
einen kausalen Zusammenhang zwischen den Aussagen, Diese neue Zahl r ist durch keine der Primzahlen von zwei
was uns aber umgangsprachlich durch die Formulierungen bis p teilbar, bei der Division bleibt immer ein Rest von
„wenn . . . dann“ bzw. „folgt“ suggeriert wird. Die Aussage eins. Es gibt also nur zwei Möglichkeiten: Entweder es gibt
„A impliziert B“, formal notiert durch A ) B, ist nur dann eine Primzahl, die größer ist als p und durch die r teilbar
falsch, wenn A wahr und B falsch ist. Ist also A von vorn- ist, oder r ist selbst eine Primzahl. In beiden Fällen erhal-
herein falsch, dann ist die Gesamtaussage A ) B immer ten wir einen Widerspruch zur Annahme, dass p die größte
wahr. Primzahl ist.
A B A)B Formal wurden in diesem Beweis die beiden Aussagen
w w w
w f f AW p ist eine Primzahl
f w w BW Es gibt eine Primzahl pQ mit pQ > p
f f w
betrachtet und die Implikation A ) B durch einen Wider-
Kommentar In der Aussagenlogik gilt das Prinzip ex fal- spruch gezeigt. 9
so quodlibet, – aus Falschem folgt Beliebiges. Mit einer
einzigen falschen Grundannahme kann man, zumindest
prinzipiell, jede beliebige Aussage beweisen. Äquivalenz heißt genau dann, wenn
Im Zusammenhang mit der Implikation werden zwei
Sprechweisen häufiger genutzt. Hat man eine wahre Impli- Die drei oben aufgeführten Möglichkeiten eine Implika-
kation A ) B vorliegen, so sagt man, „A ist hinreichend tion zu formulieren sind gleichwertig, die entsprechen-
für B“; denn, wenn die Implikation A ) B wahr ist, so den Spalten in der Wahrheitstafel liefern dieselben Werte.
folgt aus A wahr, dass auch B wahr ist. Oder die Situati- Aussagen, die diese Eigenschaft haben, nennt man äqui-
on wird aus anderem Blickwinkel beschrieben durch „B ist valent. Äquivalenz, die GENAU-DANN-WENN-Verknüp-
notwendig für A“, da wir die wahre Implikation auch so fung von Aussagen, ist der logische Gleichheitsbegriff für
lesen können, dass A nur wahr sein kann, wenn B gilt. Aussagen. Sie wird durch einen Doppelpfeil , zwischen
den Aussagen symbolisiert und wird gelesen als „es gilt ge-
? Selbstfrage 1.1 nau dann A, wenn B gilt“.
Für eine gegebene natürliche Zahl n stellen wir die drei Die Gesamtaussage A , B ist wahr, wenn A und B
Aussagen entweder beide wahr oder beide falsch sind. Ist eine der
beiden Aussagen wahr, die andere falsch, so ist auch A ,
AW n ist durch 12 teilbar
B falsch. Die zugehörige Wahrheitstabelle lautet:
BW n ist durch 3 teilbar
CW 2 n ist durch 6 teilbar A B A,B
w w w
gegenüber. Welche „notwendigen“ und „hinreichenden“
w f f
Beziehungen bestehen zwischen diesen Aussagen?
f w f
Mit der Implikation haben wir die wichtigste logische f f w
Verknüpfung von Aussagen für das Beweisen formuliert.
Letztendlich sind mathematische Sätze, Lemmata und Fol- Manchmal wird für die Äquivalenz zweier Aussagen auch
gerungen meistens in Form von wahren Implikationen die Formulierung verwendet, dass Aussage A „notwendig
formuliert, und Beweisen heißt, dass man begründet, war- und hinreichend“ für Aussage B ist.
um eine Implikation wahr ist. Dabei zerfallen die Beweise Wir haben schon gesehen, das Äquivalenz zwischen A
üblicherweise in einzelne kleine Beweisschritte, die für sich und B vorliegt, wenn der Spezialfall eintritt, dass die Im-
genommen wiederum wahre Implikationen sein müssen. plikation zweier Aussagen in beide Richtungen wahr ist.
4 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

Genauer bedeutet die Beobachtung, dass die beiden Aus- tigkeit von Aussagen quantifizieren sollen. Die beiden hier
1 sagen A , B und ..A ) B/ ^ .A ( B// äquivalent angesprochenen sind
sind. 4 Existenzquantor 9
Im Sinne einer Beweisführung heißt dies, dass wir „9 x W A.x/“ ist gleichbedeutend mit
Äquivalenz von zwei Aussagen zeigen können, indem wir „Es existiert ein x, für das A.x/ wahr ist“.
getrennt beweisen, dass die beiden Implikationen gelten. 4 Allquantor 8
Diesen Weg werden wir bei komplizierteren Äquivalenz- „8 x W A.x/“ ist gleichbedeutend mit
beweisen sehr häufig nutzen. Der Vorteil dabei liegt darin, „Für alle x ist A.x/ wahr“.
dass sich so unterschiedliche Beweistechniken nutzen las-
sen, etwa die eine Richtung durch einen direkten Beweis Hierbei bezeichnet jeweils A.x/ eine Aussageform.
und die andere Richtung durch einen Widerspruch.
i Eine Existenzaussage von der Form „Es gibt ein x, für das
? Selbstfrage 1.2
A gilt,“ bedeutet, dass zumindest ein derartiges x existiert.
Stellen Sie eine Wahrheitstafel auf, die die Äquivalenz von
A darf aber auch für mehrere oder sogar alle möglichen x
A , B und ..A ) B/ ^ .A ( B// belegt.
wahr sein. Meinen wir, dass es genau ein entsprechendes
Beispiel Wir machen uns das Vorgehen bei Äquivalenzbe- Objekt geben soll, also eines und nur eines, so müssen wir
weisen an einem einfachen Beispiel klar. Für eine reelle das dazusagen. Wie auch überall sonst in Mathematik und
positive Zahl x betrachten wir drei Aussagen Logik müssen wir die Sprache ernst nehmen und sauber
einsetzen.
AW x > 1; BW x 2 > 1; C W ln x 2 > 0 :
Fragen nach Existenz, „gibt es . . . ?“, und nach der Ein-
Um die Äquivalenz von A und B zu zeigen, könnten wir deutigkeit, „gibt es höchstens ein . . . ?“ sind zentral in der
folgendermaßen argumentieren. Zunächst zeigen wir A ) Mathematik und werden uns sehr oft begegnen.
B: Wenn x > 1 gilt, so folgt, indem wir die Ungleichung Quantoren, Variablen und Junktoren werden von nun
mit x multiplizieren, die Ungleichungskette x 2 D x  x > an miteinander zu vielfältigen Aussagen zusammengesetzt.
x > 1. Also ergibt sich x 2 > 1. Andererseits gilt B ) Sehr oft hat man es dabei auch mit Verschachtelungen zu
A. Dazu wählen wir einen indirekten Beweis; denn aus der tun, deren Abhängigkeiten unbedingt zu beachten sind.
Annahme x  1 folgt x 2  x und somit x 2  1. Also gilt:
x 2 > 1 impliziert x > 1. Beispiel Wir betrachten die Aussage „Zu jeder reellen
Nun könnten wir die Äquivalenz zwischen A und C zei- Zahl x gibt es eine natürliche Zahl n, die größer als x ist.“
gen. Damit hätten wir die Äquivalenz aller drei Aussagen Hier haben wir zunächst eine Allaussage, der eine Existenz-
bewiesen. Häufig bietet sich aber bei mehreren Äquivalen- aussage folgt, also formal
zen eine Kette von Implikationen an. Statt die Äquivalenzen
separat zu beweisen, zeigen wir 8x 2 R 9n 2 N W x < n:
A ) B; B)C und C ) A :
Die Gesamtaussage ist in diesem Fall wahr.
Die erste dieser drei Implikationen haben wir oben gezeigt. Würde man einfach naiv die Reihenfolge der Aussagen
Wir setzen nun voraus, dass wir bereits wissen, dass ln 1 D umstellen, so erhielte man „Es gibt eine natürliche Zahl n,
0 ist und dass der natürliche Logarithmus streng monoton die größer ist als jede reelle Zahl x.“ Das ist eine ganz
steigend ist. Damit folgt direkt B ) C . Als Letztes ergibt andere Aussage. In diesem Fall ist sie zudem falsch. Die
sich aus Reihenfolge der Quantoren spielt fast immer eine entschei-
dende Rolle. 9
0 < ln.x 2 / D 2 ln x ;
Existenz- und Allaussagen lassen sich natürlich auch negie-
dass ln x > 0 ist, und somit x > 1 gelten muss. Wir haben ren, dabei ändert sich ihr Charakter von Grund auf. Sagen
C ) A bewiesen und somit die Kette geschlossen. Wegen wir, eine Aussage A trifft nicht auf alle x zu, so muss es
dieser Beweisstruktur A ) B ) C ) A spricht man zumindest ein x geben, für das A nicht gilt. Umgekehrt ver-
auch von einem Ringschluss. 9 neinen wir, dass es ein x gibt, für das A gilt, so muss A für
alle x falsch sein.
Kurz, die Verneinung einer Allaussage ist eine Exis-
Quantoren erlauben knappes Hinschreiben
tenzaussage, die Verneinung einer Existenzaussage ist eine
von Existenz- und Allaussagen Allaussage. In formaler Notation liest sich das als

Für diese beiden Formen von Aussagen gibt es formale :.8 x W A.x// ist äquivalent zu 9 x W :A.x/;
Schreibweisen. Man nutzt dazu Quantoren, die die Gül- :.9 x W A.x// ist äquivalent zu 8 x W :A.x/:
1.2  Grundbegriffe aus der Mengenlehre
5 1

Übersicht: Logik – Junktoren und Quantoren

Wir fassen hier die wichtigsten Junktoren und Quantoren noch Einige wichtige logische Äquivalenzen
 
einmal kurz zusammen. .A , B/ , .A ) B/ ^ .B ) A/
.A ) B/ , :.A ^ :B/ (Widerspruchsbeweis)
Wichtige Junktoren
.A ) B/ , .:B ) :A/ (indirekter Beweis)
: Negation (NICHT)
.A _ B/ , :.:A ^ :B/
^ Konjunktion (UND)
.A ^ B/ , :.:A _ :B/
_ Disjunktion (ODER)
) Implikation (WENN-DANN) Quantoren
, Äquivalenz (GENAU-DANN-WENN) 9 Existenzquantor („es gibt ein . . . “)
8 Allquantor („für alle . . . “ )
A B :A A^B A_B A)B A,B
w w f w w w w
Verneinen von Quantoren
w f f f w f f
:.8x W A.x// ist äquivalent zu 9x W :A.x/
f w w f w w f
f f w f f w w :.9x W A.x// ist äquivalent zu 8x W :A.x/

Außerdem werden gelegentlich verwendet:

" (NAND) mit A " B , :.A ^ B/


X
(XOR) mit AX B , ..A _ B/ ^ :.A ^ B//

Abschließend weisen wir noch auf zwei weitere Beweis- Sätzen und Beweisen auseinandersetzen und dabei in den
techniken hin, die man leicht übersehen kann. Um eine tiefen Gründen der Mathematik graben. Dabei berühren wir
Existenzaussage zu zeigen, genügt es ein konkretes Bei- gleich ein Thema, das Komplikationen mit sich bringt – der
spiel anzugeben, bei dem die betreffende Aussageform Begriff der Menge. Georg Cantor, der Begründer der Men-
zur wahren Aussage wird. Genauso ist es ausreichend, ein genlehre, definierte diesen Begriff wie folgt:
Gegenbeispiel anzugeben, um eine Allaussage zu widerle-
gen. Natürlich gibt es kein Rezept, wie man im Einzelfall
ein Beispiel bzw. Gegenbeispiel findet. Ein erfolgreiches Der Mengenbegriff nach Cantor
Ausprobieren erfordert im Allgemeinen ein weitreichendes Unter einer Menge verstehen wir jede Zusammenfas-
Verständnis des betrachteten Problems. sung M von bestimmten, wohlunterschiedenen Objekten
x unserer Anschauung oder unseres Denkens zu einem
Beispiel Wir können die Aussage „Es gibt eine ganzzahlige Ganzen.
Lösung der Gleichung x 4  2x 3  11x 2 C 12x C 36 D 0,“
dadurch beweisen, dass wir eine Lösung, nämlich x D 3,
angeben.
Diese Definition ist so nicht sinnvoll, sprich keine Definiti-
Genauso lässt sich die Aussage „Für alle reellen Zahlen
x gilt x 2 C 32 x C 17 on: Der zu definierende Begriff Menge wird durch einen
32  0, “ dadurch widerlegen, indem
undefinierten Begriff Zusammenfassung erklärt. Und tat-
man x D  einsetzt. Man erhält dann nämlich den Wert
3
 3 2 3 3 4 17 sächlich kamen kurz nach Cantors Definition einer Menge
4
 2  4 C 32 D  321
. 9 die ersten Beispiele, die Cantors Mengenlehre zum Einsturz
brachten (man beachte die Box Die Russell’sche Antino-
mie in diesem Kapitel). Aber für unsere Zwecke innerhalb
1.2 Grundbegriffe aus der Mengenlehre
der linearen Algebra ist der intuitive Begriff einer Menge
im Sinne einer Zusammenfassung von wohlunterschiede-
Auch wenn wir schon erste (mathematische) Formeln be- nen Objekten zu einem Ganzen völlig ausreichend. Eine
trachtet haben, so haben wir bisher nur über Mathematik präzise Definition einer Menge ist möglich. Dies erfor-
gesprochen und eigentlich noch keine Mathematik gemacht dert aber einen erheblichen Aufwand, der üblicherweise in
– wir haben die Grammatik der Sprache Mathematik ge- Spezialvorlesungen zur Mengenlehre betrieben wird. Wir
schildert. Nun kommen wir zum Alphabet der Mathematik verzichten auf eine solche präzise Definition und beschrei-
– der Mengenlehre. Wir werden uns nun mit Definitionen, ben Mengen durch ihre Eigenschaften.
6 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

Mengen sind durch ihre Elemente gegeben 4 Z D f0; 1; 1; 2; 2; : : :g – die Menge aller ganzen
1 Zahlen,
4 Q D f mn j n 2 N; m 2 Zg – die Menge aller rationalen
Ist M eine Menge, so werden die wohlunterschiedenen Ob- Zahlen,
jekte x von M die Elemente von M genannt. 4 R – die Menge aller reellen Zahlen,
Der Grundbegriff der Mengenlehre ist die Elementbe- 4 C D fa C i b j a; b 2 Rg – die Menge aller komplexen
ziehung, wir schreiben Zahlen.
4 x 2 M , falls x ein Element der Menge M ist, und
4 x … M , falls x nicht Element der Menge M ist. Es ist auch sinnvoll, von einer Menge zu sprechen, die keine
Elemente enthält – die leere Menge ;. Auch die Schreib-
Dabei sind für x 2 M Sprechweisen wie „x ist Element weise fg ist für die leere Menge üblich. Wir können die leere
von M “ oder „x liegt in M “ üblich. Analog sagt man „x Menge des Weiteren durch Eigenschaften beschreiben:
ist nicht Element von M “ oder „x liegt nicht in M “ für
x … M. ; D fx 2 N j x < 1g :
Mengen lassen sich auf zwei verschiedene Arten ange- Die Mathematiker betrachten die Zahlenmengen nicht als
ben: Man kann die Elemente einer Menge explizit auflisten von Gott gegeben. Durch mathematische Prozesse können
oder man beschreibt die Elemente durch ihre Eigenschaf- aus N die Zahlenmengen Z, Q, R und C Schritt für Schritt
0
ten. Die explizite Angabe der Elemente ist vor allem bei gewonnen werden. Auch die Menge N kann durch einen
0
kleinen Mengen sinnvoll. mathematischen Prozess konstruiert werden. Dazu geht man
mengentheoretisch vor. Man erhält die natürlichen Zahlen
Beispiel
sukzessive aus der Null durch folgende Festlegungen:
4 Die Menge M aller Primzahlen, die kleiner als 10 sind,
ist 0 D ;; 1 D f;g; 2 D f;; f;gg;
3 D f;; f;g; f;; f;ggg; : : :
M D f2; 3; 5; 7g :
Man beachte, es ist z. B. 3 D f0; 1; 2g; : : : In diesem Sinne
4 Die (unendliche) Menge N der natürlichen Zahlen kann sind die natürlichen Zahlen Mengen, deren Elemente Men-
wie folgt beschrieben werden: gen sind.
N D f1; 2; 3; : : :g : 9 i Die Begriffe Element und Menge sind somit relativ. Bildet
man z. B. die Menge aller oben aufgeführten Mengen, also
Neben dieser expliziten Angabe der Elemente einer Menge
kann man die Elemente einer Menge auch durch ihre Ei- M D fN; N0 ; Z; Q; R; C; ;g ;
genschaften erklären: Ist E eine Eigenschaft, so ist
so ist etwa Z einerseits Menge (von ganzen Zahlen), zu-
M D fx j E .x/g gleich aber auch Element (nämlich der Menge M ).

die Menge aller Elemente x, die die Eigenschaft E haben. Kommentar Wir haben hier einen Sachverhalt angespro-
Dabei wird der senkrechte Strich j gesprochen als chen, dem man in der Mathematik wiederholt begegnet: Man
kann eine mathematische Struktur durch ein (widerspruch-
„für die gilt“ oder „mit der Eigenschaft“ : freies) Axiomensystem festlegen oder aus grundlegenderen
Strukturen konstruieren. Das Musterbeispiel hierfür ist die
Eine eventuelle Grundmenge, aus der die Elemente x sind, Menge der reellen Zahlen, die einerseits durch ein Axiomen-
wird oft vor dem Strich j festgehalten. system festgelegt werden kann, andererseits über Zwischen-
stufen aus der leeren Menge konstruiert werden kann.
Beispiel
4 M D fx 2 N j x > 2 ; x  9g D f3; 4; 5; 6; 7; 8; 9g.
4 M D fx j x ist eine gerade natürliche Zahlg D Zwei Mengen sind gleich, wenn sie
f2; 4; 6; : : :g D fx 2 N j 9 k 2 N mit x D 2 kg. 9 Teilmengen voneinander sind
Wir geben im Folgenden gesammelt die sogenannten Zah-
lenmengen an. Diese sind den meisten Lesern aus der Wir nennen eine Menge A eine Teilmenge einer Menge B,
Schulzeit gut vertraut. Wir werden diese Mengen immer falls jedes Element von A auch ein Element von B ist und
wieder in Beispielen zu allen möglichen Mengenopera- schreiben dafür A  B oder B  A, d. h.,
tionen heranziehen, die wir in den folgenden Abschnitten A  B , Für alle x 2 A gilt x 2 B :
behandeln werden.
4 N D f1; 2; 3; : : :g – die Menge aller natürlichen Zahlen, Die Teilmengenbeziehung  wird Inklusion genannt, und
4 N0 D f0; 1; 2; : : :g – die Menge aller natürlichen Zahlen man sagt auch „die Menge A ist in B enthalten“ oder „die
mit der Null, Menge B umfasst A“.
1.2  Grundbegriffe aus der Mengenlehre
7 1

Hintergrund und Ausblick: Die Russell’sche Antinomie

Cantors Mengenbegriff führt zu Widersprüchen. Folglich ist Was lässt sich daraus schließen? So naiv darf man Men-
seine Beschreibung einer Menge keine Definition im mathe- gen nicht bilden. Diese Konstruktion von Russell hat zu
matischen Sinne. Wir geben dazu ein Objekt an, das nach Beginn des 20. Jahrhunderts die von Cantor und anderen
Cantors Definition eine Menge sein müsste, aber sich nicht entwickelte Mengenlehre ad absurdum geführt und die Ent-
mit den Regeln der Mathematik vereinbaren lässt. wicklung axiomatischer Mengenlehren eingeleitet und mitbe-
stimmt.
Die Bildung von Mengen, die nur endlich viele Elemen- Der intuitive Hintergrund für den in der Antinomie
te enthalten, ist unproblematisch. Schwierigkeiten können (griech. Unvereinbarkeit von Gesetzen) auftretenden Wider-
aber auftreten bei der Bildung gewisser unendlicher Mengen. spruch ist der: Das oben definierte Gebilde M D fx j x … xg
Die Mengen N; Z; Q; R; C sind unendliche Mengen, aber ist riesengroß. Viel zu viele Objekte haben die Eigenschaft,
dennoch so klein, dass auch sie unproblematisch sind. Wir nicht Element von sich selbst zu sein. Also ist festzuhalten: Es
brauchen Zusammenfassungen, die noch viel größer sind. ist Vorsicht geboten bei der Bildung allzu großer (unendlicher)
Für Mengen A dürfte A … A wohl der Normalfall sein; Mengen. Für den Inhalt der Mathematik des ersten Studien-
Mengen, die sich selbst als Element enthalten, scheinen etwas jahres soll der Hinweis reichen, dass alle hier auftretenden
suspekt zu sein. Aber auch A 2 A ist vorstellbar, man denke Mengen und Mengenbildungen im Rahmen der gebräuchli-
etwa an einen Verein, der Mitglied bei sich selbst ist. chen Mengenlehre akzeptabel sind – aber mit etwas Mutwillen
Wir definieren eine Zusammenfassung, die nach Cantors kann man auch hier Schaden anrichten: Sprechen Sie nie von
Definition eine Menge ist: der Menge aller Vektorräume oder Gruppen oder Körper, . . .
– eine solche gibt es nicht.
M D fx j x … xg :
Die Antinomie von Russell hat eine berühmte Veran-
Nun fragen wir, ob M ein Element der Menge M ist, oder ob schaulichung, die wir nicht vorenthalten wollen:
das nicht der Fall ist. Es muss ja laut Logik gelten:
Der Barbier eines Ortes, der genau die Bewohner
Entweder ist M 2 M oder es ist M … M : des Ortes barbiert, die sich nicht selbst barbieren,
Genau eine der beiden Aussagen ist richtig, genau eine falsch. barbiert der sich selbst?
4 Angenommen, es ist M 2 M . Dann hat M die Eigen-
schaft M … M – ein Widerspruch. Im Rahmen der axiomatischen Mengenlehre werden allgemei-
4 Angenommen, es ist M … M . Dann hat M die Eigen- nere Objekte – die sogenannten Klassen – eingeführt. Mengen
schaft M 2 M – ein Widerspruch. sind dann spezielle Klassen. Die Vorstellung, dass Mengen
kleine Klassen sind, ist dabei äußerst nützlich.
Zusammen: Sowohl M 2 M als auch M … M sind falsch.
Mit diesem Beispiel von Russell brach die naive Mengenlehre 4 U. Friedrichsdorf, A. Prestel, Mengenlehre für den Mathe-
von Cantor zusammen. matiker, Vieweg, 1985

Dass B keine Teilmenge von A ist – wir schreiben dafür M mit ; 6 M , anders ausgedrückt: ;  M für jede Menge
B 6 A oder A 6 B – bedeutet, dass es in B ein Element M . Die Aussage M  M gilt aufgrund der Tatsache, dass
gibt, das nicht in A ist. für jedes Element m aus M offensichtlich m 2 M gilt. 
Wir halten nun unsere erste beweisdürftige Aussage
fest: Wenn A  B, aber B 6 A gilt, so heißt A echte Teilmenge
von B. Wir schreiben dafür A ¤ B oder B ¥ A. Dass A
eine echte Teilmenge von B ist, bedeutet: Jedes Element
Die leere Menge ist Teilmenge jeder Menge von A ist ein Element von B, in B aber gibt es mindestens
Für jede Menge M gilt: noch ein weiteres Element, das nicht in A ist.

;M und M M: i Man beachte, dass die Schreibweise A  B nicht falsch
ist, falls sogar A ¤ B gilt.

Beweis Die erste Inklusion begründen wir durch einen Wi- Beispiel Es gelten die folgenden (echten) Inklusionen bzw.
derspruchsbeweis. Dazu nehmen wir an, es existiert eine Negationen von Inklusionen:
Menge M , für die gilt ; 6 M . Hiernach gibt es in ; ein 4 f1g ¤ f1; 2g und f1g  f1; 2g und f1; 2g  f1; 2g.
Element, das nicht in M liegt. Dies ist ein Widerspruch. 4 f1; 2g 6 f1; 3g und f1; 2g 6 f11; 4g.
Somit stimmt die Annahme nicht: Es existiert keine Menge 4 N ¤ N0  Z ¤ Q  R ¤ C. 9
8 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

? Selbstfrage 1.3 . Abb. 1.1 Der Durchschnitt


1 Formulieren Sie A  B und A ¤ B mithilfe von Quanto- A \ B enthält alle Elemente, A B
die sowohl in A als auch in B
ren.
enthalten sind
Wir sagen, die zwei Mengen A und B sind gleich, wenn
sie die gleichen Elemente enthalten. Mithilfe der Inklusion . Abb. 1.2 Die Vereinigung
A [ B enthält alle Elemente, die in A B
können wir das wie folgt formal ausdrücken:
A oder B enthalten sind

Gleichheit von Mengen


. Abb. 1.3 Die Differenz A n B
Die Mengen A und B sind gleich, in Zeichen A D B, enthält alle Elemente von A, die A B
wenn jedes Element von A ein Element von B ist und je- kein Element von B sind
des Element von B eines von A ist, kurz:

A D B , ..A  B/ ^ .B  A// :
Die Menge

Um zu beweisen, dass zwei Mengen A und B gleich sind, A [ B D fx j x 2 A ODER x 2 Bg


geht man also wie folgt vor:
4 Wähle ein beliebiges Element x in A und zeige, dass x heißt die Vereinigung von A und B.
in B liegt. Das zeigt A  B. Und schließlich nennt man die Menge
4 Wähle ein beliebiges Element x in B und zeige, dass x
in A liegt. Das führt zur zweiten Inklusion B  A. A n B D fx j x 2 A UND x … Bg

Oftmals lassen sich beide Inklusionen in einem Schritt zei- die Differenz von A und B.
gen: Gilt A \ B D ;, so heißen A und B disjunkt oder auch
elementfremd.
A D B , ..x 2 A/ , .x 2 B// :
Für die Durchschnitts- und Vereinigungsbildung gelten
In der Analysis beweist man die Gleichheit zweier reeller Rechengesetze, die von den ganzen Zahlen her bekannt
Zahlen a und b manchmal ganz ähnlich: Man zeigt a  b sind.
und b  a.
Auf den folgenden Seiten folgen mehrere Beispiele, in
denen wir die Gleichheit von Mengen begründen.
Rechengesetze für Durchschnitts- und
Vereinigungsbildung
Kommentar Unsere Definition der Gleichheit von Men-
Für beliebige Mengen A, B und C gelten
gen ist extensional: Zwei Mengen sind gleich, wenn sie
4 die Assoziativgesetze:
dieselben Elemente enthalten. Der juristische Gleichheits-
begriff von Vereinen ist nicht extensional; zwei Vereine, die A \ .B \ C / D .A \ B/ \ C und
dieselben Mitglieder haben, sind nicht unbedingt gleich.
Der Sängerverein Frohsinn und der Schützenverein Bal- A [ .B [ C / D .A [ B/ [ C ;
lermann von Entenhausen sind verschieden, obwohl sie
4 die Kommutativgesetze:
dieselben Mitglieder haben, der eine Verein ist steuerbe-
günstigt, der andere nicht. Dass zwei gleiche Objekte auch A \ B D B \ A und A [ B D B [ A;
stets gleiche Eigenschaften besitzen, sagt das auf Leibniz
zurückgehende Ersetzbarkeitstheorem aus, dessen Gültig- 4 die Distributivgesetze:
keit wir axiomatisch voraussetzen.
A \ .B [ C / D .A \ B/ [ .A \ C / und
A [ .B \ C / D .A [ B/ \ .A [ C / :
Mengen kann man vereinigen, miteinander
schneiden, voneinander subtrahieren,
und manchmal kann man auch
das Komplement betrachten Beweis Es gilt:

A \ .B \ C / D A \ fx j x 2 B ^ x 2 C g
Für zwei Mengen A und B heißt die Menge D fx j x 2 A ^ x 2 B ^ x 2 C g
A \ B D fx j x 2 A UND x 2 Bg D fx j x 2 A ^ x 2 Bg \ C
der Durchschnitt von A und B. D .A \ B/ \ C
1.2  Grundbegriffe aus der Mengenlehre
9 1
. Abb. 1.4 Das Komplement Beweis Wir zeigen das erste Gesetz, das zweite beweist
CB .A/ enthält alle Elemente von man analog. Weil die Komplemente stets bezüglich der-
B, die nicht Element von A  B selben großen Menge M gebildet werden, verwenden wir
sind B A die Kurzschreibweise Ac , B c für die Komplemente. Die
Gleichheit der Mengen .A [ B/c und Ac \ B c ergibt sich
aus:

x 2 .A [ B/c , x 2 M n .A [ B/
und
, x 2 .M n A/ \ .M n B/
A \ B D fx j x 2 A ^ x 2 Bg , x 2 Ac \ B c :
D fx j x 2 B ^ x 2 Ag
Dabei liefert ) die Inklusion .A [ B/c  Ac \ B c und (
D B \ A:
die Inklusion Ac \ B c  .A [ B/c . Insgesamt folgt damit
Das Assoziativ- und Kommutativgesetz für die Vereinigung .A [ B/ D A \ B . 
c c c

begründet man analog. Zu begründen sind noch die Distri-


butivgesetze. Es gilt: Die Inklusion A  B lässt sich mit den eingeführten Men-
genoperationen kennzeichnen, offenbar gelten
x 2 A \ .B [ C / (i) mit der Vereinigung:
, x 2 A ^ .x 2 B _ x 2 C /
A  B , A[B D B;
, .x 2 A ^ x 2 B/ _ .x 2 A ^ x 2 C /
, x 2 A\B _ x 2A\C (ii) mit dem Durchschnitt:
, x 2 .A \ B/ [ .A \ C / :
A  B , A \B D A;
Somit sind die beiden Mengen A \ .B [ C / und .A \ B/ [
.A \ C / gleich, beachte hierzu die Bemerkung nach der (iii) mit der Differenz:
Definition der Gleichheit von Mengen. Um das zweite Dis-
tributivgesetz zu zeigen, geht man analog vor.  A  B , A n B D ;:

Ist A eine Teilmenge von B, A  B, so heißt die Menge ?Selbstfrage 1.4


Begründen Sie kurz diese Äquivalenzen.
CB .A/ D B n A

das Komplement von A bzgl. B.


Z. B. gilt
Das kartesische Produkt zweier Mengen A
und B ist die Menge aller geordneten Paare
CZ .N/ D f0; 1; 2; : : :g und CN .N/ D ; :
In einer euklidischen Ebene E lässt sich jeder Punkt p be-
i Auch die Schreibweise Ac ist für das Komplement der
züglich eines kartesischen Koordinatensystems durch zwei
Menge A üblich. Bei dieser Schreibweise muss aber klar
reelle Zahlen a und b beschreiben, und umgekehrt be-
sein, bezüglich welcher Menge das Komplement gebildet
stimmt jedes geordnete Paar .a; b/ zweier reeller Zahlen
wird. Beachte das obige Beispiel für N c .
a und b einen Punkt der Ebene. Wir können somit die eu-
Das Komplement einer Vereinigung ist der Schnitt der klidische Ebene E als die Menge aller geordneten Paare
Komplemente, und das Komplement eines Schnittes ist die auffassen (. Abb. 1.5):
Vereinigung der Komplemente, das besagen die Regeln von
De Morgan: R2 D R R D f.a; b/ j a; b 2 Rg :

Im Allgemeinen gilt .a; b/ ¤ .b; a/, z. B. ist


Die Regeln von De Morgan
Für beliebige Mengen A; B  M gelten die Regeln: .2; 1/ ¤ .1; 2/ :

CM .A [ B/ D CM .A/ \ CM .B/ ; Solche Mengen geordneter Paare kann man mit beliebigen
Mengen A, B bilden. Die Menge
CM .A \ B/ D CM .A/ [ CM .B/ :
A B D f.a; b/ j a 2 A; b 2 Bg
10 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

y
1

b p
A A B

. Abb. 1.6 Darstellung des kartesischen Produkts A B als Rechtecks-


a x fläche

. Abb. 1.5 Der Punkt p D .a; b/ hat die Koordinaten a und b


Die Menge

heißt kartesisches Produkt oder Produktmenge von A f.x; 0/ 2 R2 j x 2 Rg


und B. Dabei ist A D B erlaubt, für A A schreiben wir
kurz A2 . Für zwei Elemente .a; b/; .c; d / 2 A B gilt: ist die x-Achse und

.a; b/ D .c; d / , a D c ; b D d : f.0; y/ 2 R2 j y 2 Rg

D. h. zwei geordnete Paare sind genau dann gleich, wenn ist die y-Achse in der Ebene R2 . 9
sie komponentenweise gleich sind.
Zur Darstellung eines Punkts des dreidimensionalen eukli-
Kommentar Wir sind bei der Einführung der kartesischen dischen Raumes benötigt man drei reelle Zahlen. Weil bei
Produkts einer intuitiven Auffassung gefolgt und haben ei- vielen Problemstellungen, z. B. aus der Physik, auch drei
ne Definition des Begriffs geordnetes Paar vermieden. Sind Dimensionen nicht ausreichen, definieren wir allgemein für
A und B Mengen, so ist nach K. Kuratowski das geordne- endlich viele Mengen A1 ; A2 ; : : : ; An mit n 2 N
te Paar .a; b/ für a 2 A und b 2 B (mengentheoretisch)
Y n
definiert als Ai D A1    An
i D1 D f.a1 ; : : : ; an / j a1 2 A1 ; : : : ; an 2 An g
.a; b/ D ffag; fa; bgg :
das kartesische Produkt von A1 ; : : : ; An . Das Element
Es macht keine große Mühe nachzuweisen, dass die obige .a ; : : : ; a / heißt ein (geordnetes) n-Tupel. Für zwei
1 n
Gleichheit für geordnete Paare tatsächlich gilt. n-Tupel .a1 ; : : : ; an /; .b1 ; : : : ; bn / 2 A1    An gilt

Beispiel .a1 ; : : : ; an / D .b1 ; : : : ; bn / , a1 D b1 ; : : : ; an D bn :

fa; b; cg f1; 2g Falls alle Mengen gleich einer Menge A sind, d. h. A D


D f.a; 1/; .a; 2/; .b; 1/.b; 2/; .c; 1/; .c; 2/g A1 D    D An , so schreibt man kürzer An für A    A.
Im Fall A D R und n D 3 erhält man so den (dreidimen-
und sionalen) Anschauungsraum

A ; D ;: R3 D f.a1 ; a2 ; a3 / j a1 ; a2 ; a3 2 Rg :

Die (Anschauungs-)Ebene kann man als R2 D R R be-


schreiben. Sind A und B endliche Intervalle in R, so kann
Die Potenzmenge einer Menge M ist
man die Menge die Menge aller Teilmengen von M

A B D f.a; b/ j a 2 A ; b 2 Bg Ist M eine Menge, so heißt

als rechteckige Fläche zeichnen, siehe . Abb. 1.6. P .M / D fA j A  M g


1.2  Grundbegriffe aus der Mengenlehre
11 1
die Potenzmenge von M . Ihre Elemente sind sämtliche Vorstellung aus, dass eine endliche Menge M dadurch ge-
Teilmengen von M ; man beachte, dass für jede Menge M geben ist, dass M nur endlich viele Elemente enthält. Wir
die leere Menge ; und M Elemente von P .M / sind. Für nennen
die Potenzmenge von M ist auch die Schreibweise 2M ge- 8
bräuchlich. <n ; falls M endlich ist
jM j D und n Elemente enthält;
:1 ; falls M nicht endlich ist
Beispiel Für die Potenzmenge der leeren Menge M D ;
erhalten wir die Mächtigkeit oder Kardinalzahl von M , z. B. gilt:
P .M / D f;g :
jf2; 3; 5; 7gj D 4 ; j;j D 0 ; jf7; 7gj D 1 ; jRj D 1 :
Man beachte den Unterschied: ; ist eine Menge, die kein
Kommentar Neben jM j sind auch die Schreibweisen
Element enthält, aber f;g ist eine Menge, die genau ein Ele-
ment, nämlich die leere Menge ;, enthält; es gilt: card.M / und #M
;  ; und ; 2 f;g : für die Mächtigkeit von M üblich.
Die Potenzmenge der Menge M D f1g lautet:
i Einer vorgegebenen Menge ist zuweilen nicht anzusehen,
P .M / D f;; f1gg : ob sie endlich ist oder nicht. Es ist bis heute nicht bekannt,
ob die Mengen
Die Potenzmenge der Menge M D f1; 2g ist:
M D fn 2 N j 2n  1 ist Primzahlg und
P .M / D f;; f1g; f2g; f1; 2gg : F D fn 2 N j 2n C 1 ist Primzahlg
Und schließlich gilt für die Potenzmenge der Menge M D endlich oder unendlich sind.
f1; 2; 3g:
Wir formulieren einige Aussagen für die Mächtigkeiten
P .M / Df;; f1g; f2g; f3g; f1; 2g;
endlicher Mengen:
f2; 3g; f1; 3g; f1; 2; 3gg : 9

Man sieht, dass die Anzahl der Elemente der Potenzmenge


Mächtigkeiten und Mengenoperationen
von M mit der Anzahl der Elemente von M zunimmt. Im
Für endliche Mengen A, B und C gilt:
nächsten Abschnitt werden wir dies genauer erläutern. Tat-
(i) jA [ Bj C jA \ Bj D jAj C jBj.
sächlich enthält die Potenzmenge einer unendlichen Menge
(ii) jA Bj D jAj  jBj.
M auch mehr Elemente als die bereits (unendliche) Men-
(iii) jP .A/j D 2jAj .
ge M . Das ist zwar schwer vorstellbar, aber man kann es
beweisen (siehe 7 Abschn. 1.3).
Wir verallgemeinern Durchschnitt und Vereinigung auf
beliebige nichtleere Teilmengen X von P .M /. Für ; ¤ Beweis (i) Es ist jAj C jBj die Gesamtzahl der Elemente
X  P .M /, d. h. X ist eine nichtleere Menge von Teil- aus A und B. Elemente, die sowohl in A als auch in B auf-
mengen von M , ist tauchen – das sind genau die Elemente in A \ B – werden
in der Menge A [ B aber nur einmal gezählt. Daher ergibt
\ \
XD A D fx 2 M j 8 A 2 X W x 2 Ag sich die Formel in (i).
A2X (ii) Die Anzahl der Möglichkeiten geordnete Paare
.a; b/ mit a 2 A und b 2 B zu bilden ist genau jAj  jBj.
der Durchschnitt von X und (iii) Gilt A D ;, so erhalten wir P .A/ D f;g und somit
[ [ die gewünschte Formel
XD A D fx 2 M j 9 A 2 X W x 2 Ag
A2X
1 D jP .A/j D 2jAj D 20 :
die Vereinigung von X.
Wir bestimmen nun im Fall A ¤ ;, etwa A D fa1 ; : : : ; an g,
die Anzahl der Möglichkeiten, eine Teilmenge M von A
Die Mächtigkeit einer Menge M ist zu wählen. Das Element a1 kann in M liegen oder eben
die Anzahl der Elemente von M nicht, das sind zwei Möglichkeiten, das Element a2 kann
ebenfalls in M liegen oder eben nicht, das sind erneut zwei
Möglichkeiten. Das setzt man fort bis zum Element an und
Eine präzise Definition einer endlichen Menge werden wir erhält genau 2n D 2jAj Möglichkeiten, eine Teilmenge M
nachreichen. Für die nächsten Betrachtungen reicht die von A wählen zu können. 
12 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

Kommentar Wir haben jM j D 1 für jede unendliche menge X 0 ¤ X oder Y 0 ¤ Y


1 Menge M gesetzt. Tatsächlich ist das für viele Zwecke un-
genau. So gibt es z. B. mehr reelle Zahlen, als es natürliche g D .X 0 ; Y; Gg  X 0 Y / oder
Zahlen gibt, und noch größer als R ist die Potenzmenge h D .X; Y 0 ; Gh  X Y 0 /
P .R/. Diese quantitativen Unterschiede kann man mit ei-
ner feineren Definition von Kardinalzahlen erfassen, für die etwas anderes als
man auch eine Addition C und Multiplikation  in sinn-
voller Weise erklären kann. Es ist bemerkenswert, dass die f D .X; Y; Gf  X Y / ;
obigen drei Formeln auch für beliebige unendliche Kardi-
nalzahlen gelten. obwohl es durchaus sein kann, dass die Graphen Gf , Gg
und Gh jeweils die gleichen sind; man beachte das folgende
Beispiel.
1.3 Abbildungen
Beispiel Die drei Abbildungen
Oftmals wird der Begriff Abbildung von einer Menge X
in eine Menge Y als eine Vorschrift erklärt, die jedem x .1/ g D .R ; R ; f.x; x 2 / j x 2 Rg/ ;
in X genau ein y in Y zuordnet. Wir sind etwas genauer .2/ h D .R0 ; R ; f.x; x 2 / j x 2 R0 g/ ;
und vermeiden eine Definition durch einen nicht definierten
Begriff. .3/ k D .R ; R0 ; f.x; x 2 / j x 2 Rg/

sind verschieden, obwohl die Graphen Gg und Gk gleich


sind. Es gilt nämlich
Eine Abbildung f ist durch
Definitionsmenge, Wertemenge .1/ Gg D f.x; x 2 / j x 2 Rg  R R;
und Graph gegeben .2/ Gh D f.x; x / j x 2 R0 g  R0
2
R;
.3/ Gk D f.x; x / j x 2 Rg  R R0 : 9
2
Man beachte, dass bei der folgenden Definition X D Y und
auch X D ; oder Y D ; zugelassen sind. Wir werden für die Abbildung f D .X; Y; Gf / meist deut-
licher

Definition einer Abbildung f W X ! Y; x 7! f .x/


Gegeben seien zwei Mengen X und Y . Eine Abbildung
f von X in Y ist ein Tripel schreiben oder

X ! Y;
f D .X; Y; Gf / ; wobei Gf  X Y f W
x 7! f .x/:
die Eigenschaft hat, dass es zu jedem x 2 X genau ein
Man beachte die beiden verschiedenen Pfeile. Jener ohne
y 2 Y gibt mit .x; y/ 2 Gf .
Querstrich zeigt von der Definitionsmenge X zur Werte-
Für das durch x eindeutig bestimmte Element y
menge Y von f , jener mit Querstrich steht zwischen den
schreiben wir f .x/.
Elementen der Paare .x; f .x// 2 Gf .
Die Menge X heißt Definitionsmenge von f , Y heißt
Wertemenge von f und Gf der Graph von f .
i In der Definition einer Abbildung wird verlangt, dass je-
des x 2 X genau ein Bild y 2 Y besitzt. Es wird nicht
verlangt, dass jedes y 2 Y (genau) ein Urbild x 2 X
Bei der Definitionsmenge spricht man auch vom Definiti- besitzt (vgl. auch . Abb. 1.7).
onsbereich, und anstelle von Wertemenge sagt man auch Anstelle von „f ist eine Abbildung von X in Y “ sagt man
Wertebereich. Der Graph Gf  X Y ist meist nicht auch „f ist eine Abbildung von X nach Y “. Wir bevorzu-
explizit angegeben, sondern durch die Vorschrift, wie man gen in, da dies deutlicher macht, dass nicht jedes Element
f .x/ aus x gewinnt. in der Wertemenge auch Bild eines Elements aus der De-
Wir haben Abbildungen als ein Tripel .X; Y; Gf / von finitionsmenge zu sein braucht.
Mengen definiert, weil damit verständlich wird, dass zwei
Abbildungen nur dann gleich sind, wenn ihre Definiti- Sind X und Y endliche Mengen, so kann man sich
onsmengen, ihre Wertemengen und ebenso ihre Graphen Abbildungen auch mithilfe von Pfeilen veranschaulichen
übereinstimmen. So ist zum Beispiel für jede echte Teil- (. Abb. 1.7).
1.3  Abbildungen
13 1
4 Etwas allgemeiner als reelle Folgen sind Familien. Sind
I und X beliebige Mengen, so nennt man jede Abbil-
dung

I ! X;
xW
i 7! xi D x.i/

eine Familie von Elementen aus X. Für die Abbildung


x schreibt man kurz .xi /i 2I – die Definitionsmenge I
der Familie x dient also als Indexmenge. Die Bilder der
X Y
Indizes i sind die Elemente xi 2 X. Wir schreiben für
. Abb. 1.7 Von jedem x 2 X muss genau ein Pfeil ausgehen, und der die Familie x auch kurz
darf bei einem beliebigen y 2 Y enden
f.i; xi / j i 2 I g oder .xi /i 2I :

Beispiel
Im Fall I D N und X D R erhalten wir die reellen
4 Für jede Menge X ist Folgen zurück. Sind die Elemente xi von X wiederum
Mengen, so nennt man die Familie .xi /i 2I auch ein
 Mengensystem. 9
X ! X;
x 7! x ?Selbstfrage 1.5
Für die Menge aller Abbildungen f von X in Y ist auch
eine Abbildung von X in sich. Sie heißt die Identität die Schreibweise Y X üblich. Zeigen Sie, dass im Falle
auf X und wird mit idX oder IdX bezeichnet. jXj; jY j 2 N gilt:
4 Es ist
jY X j D jY jjX j :

R>0 ! R;
fW
x 7! x 2
Sowohl Elemente als auch Teilmengen
eine Abbildung von R>0 in R. Abbildungen von Teil-
mengen von Rn bzw. C n in Teilmengen von Rm bzw.
können Bilder und Urbilder haben
C nennt man auch Funktionen und wählt gerne die
m

Schreibweise Ist f W X ! Y eine Abbildung, so heißt y D f .x/ 2 Y


das Bild von x unter der Abbildung f – es ist y durch
f W R>0 ! R ; f .x/ D x 2 : f eindeutig bestimmt. Und das Element x 2 X heißt ein
Urbild des Elements y 2 Y – das Element x ist durch f
Nur dann, wenn aus dem Kontext die Wertmenge und und y nicht notwendig eindeutig bestimmt.
der Definitionsbereich einer Funktion klar erkennbar
sind, sprechen wir gelegentlich kurz von der Funktion y D f .x/
y D f .x/ oder f .x/ D x .
2 " "
4 Es ist das Bild von x ein Urbild von y
 Wir dehnen diese Begriffe auf naheliegende Art und Weise
P .N/ ! N0 [ f1g;
gW auf Teilmengen von X bzw. Y aus.
x 7! jxj
Ist f W X ! Y eine Abbildung, so heißt für jede Teil-
menge A  X und B  Y die Menge
eine Abbildung von der Potenzmenge von N in N0 [
f1g. Daher ist x eine Teilmenge von N und jxj ihre f .A/ D ff .a/ j a 2 Ag  Y
Mächtigkeit.
4 Eine Abbildung a von der Menge der natürlichen Zah- die Bildmenge von A unter f oder das Bild von A unter f
len N in R und die Menge
 f 1 .B/ D fx 2 X j f .x/ 2 Bg  X
N ! R;
aW
n 7! a.n/
die Urbildmenge von B unter f oder das Urbild von B
unter f . Im Fall einer einelementigen Menge Y , d. h. Y D
nennt man auch eine reelle Folge, anstelle von a.n/ fbg, gilt
schreibt man an und für die Abbildung a kurz .an /n2N .
Folgen spielen eine zentrale Rolle in der Mathematik. f 1 .fbg/ D fx 2 A j f .x/ D bg :
14 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

Beispiel Wir betrachten die Abbildung so folgt unmittelbar aus der Gleichheit von Mengen und
1  jener von geordneten Paaren:
P .N/ ! N0 [ f1g;
gW
x 7! jxj:
Gleichheit von Abbildungen
Die Bildmenge von A D f;; f2g; f56gg  P .M / ist Für zwei Abbildungen f; gW X ! Y gilt:
g.A/ D f0; 1g, und die Urbildmenge von f2g  N0 [ f1g
ist die Menge aller zweielementigen Teilmengen von N. 9 f D g , f .x/ D g.x/ 8 x 2 X :

i Bei einer einelementigen Menge B D fbg  Y schreibt


man gerne einfacher f 1 .b/ anstelle f 1 .fbg/, Beispiel Es seien f und g Abbildungen von N nach N0 ,
wobei
f 1 .b/ D fx 2 X j f .x/ D bg  X : f .x/ D kleinster nicht negativer Rest bei ganzzahliger
Division von x durch 3.
Diese Schreibweise ist aber mit Vorsicht zu genießen.
g.x/ D kleinster nicht negativer Rest bei ganzzahliger
Manche Abbildungen f haben eine sogenannte Umkehr-
Division von x 3 durch 3.
abbildung. Für diese Umkehrabbildung ist die Schreib-
Die beiden Abbildungsvorschriften sind verschieden,
weise f 1 üblich. Es ist dann f 1 .y/ das Bild von y unter
aber es gilt:
der Abbildung f 1 , insbesondere also ein Element der
Bildmenge der Abbildung f 1 . Bei obiger Schreibweise f .1/ D 1 D g.1/ ;
ist aber f 1 .y/ D f 1 .fyg/ eine Teilmenge der Definiti-
f .2/ D 2 D g.2/ ;
onsmenge von f . Wir werden die etwas umständlichere
Schreibweise f 1 .fyg/ bevorzugen, um solche Verwir- f .3/ D 0 D g.3/ :
rungen gar nicht aufkommen zu lassen.
Allgemein erhält man f .x/ D g.x/ für alle x 2 N. Das
liegt daran, dass n3  n D .n  1/ n .n C 1/ ein Vielfaches
Zwei Abbildungen sind gleich, wenn sie die von 3 ist. Die Abbildungen f und g sind somit gleich. 9
gleiche Definitions- und Wertemenge haben
und die Bilder jeweils gleich sind Die Restriktion einer Abbildung f ist
eine Teilmenge von f
Eine Abbildung f ist dann vollständig definiert, wenn ihre
Definitionsmenge X, ihre Wertemenge Y und ihr Graph Wir werden sowohl in der Analysis wie auch in der li-
nearen Algebra häufig Abbildungen einschränken, d. h. wir
Gf D f.x; f .x// j x 2 Xg X Y betrachten eine gegebene Abbildung f W X ! Y nur auf
einer Teilmenge A  X. Weil wir den Definitionsbereich
angegeben sind. In den folgenden Beispielen wird der ändern, betrachten wir eine neue Abbildung, für diese müs-
Graph Gf häufig implizit durch die Abbildungsvorschrift sen wir ein neues Symbol einführen.
x 7! f .x/ angegeben.

Beispiel Die Abbildungen Definition der Restriktion einer Abbildung


  Ist f W X ! Y eine Abbildung, so nennt man für jede
R ! R; N ! N;
f W und g W Teilmenge A  X die Abbildung
x 7! x 2 x 7! x 2
(
A ! Y;
haben identische Abbildungsvorschriften, nämlich x 7! f jA W
x 7! f .x/
x 2 ; man schreibt bei der expliziten Angabe der Vorschrift
auch f .x/ D x 2 . Aber die Abbildungen haben sehr ver-
die Restriktion oder Einschränkung von f auf A.
schiedene Eigenschaften: p p
4 y D 2 hat unter f die zwei Urbilder 2 und  2;
4 y D 2 hat unter g kein Urbild. 9
Man beachte, dass f jA D .A; Y; Gf jA / mit
Sind f und g zwei Abbildungen von X nach Y , etwa
Gf jA D f.x; f .x// j x 2 Ag  A Y
Gf D f.x; f .x// j x 2 Xg und natürlich wieder eine Abbildung ist. Im Fall A D X gilt
Gg D f.x; g.x// j x 2 Xg ; f jA D f .
1.3  Abbildungen
15 1
Beispiel Die Restriktion der Funktion injektiv, injektiv,
surjektiv nicht surjektiv

R ! R;
fW
x 7! x 3

auf N, das ist die Abbildung



N ! R;
f jN W ;
n 7! n3

ist die reelle Folge .n3 /n2N . 9 nicht injektiv, nicht injektiv,
surjektiv nicht surjektiv

? Selbstfrage 1.6
Geben Sie eine Funktion f W A ! B an, sodass f jA0
dasselbe Bild wie f hat, obwohl A0 eine echte Teilmenge
von A ist.

Kommentar In der Mathematik steht man oft vor dem


umgekehrten Problem, dem sogenannten Fortsetzungspro-
blem: Gegeben ist eine Abbildung f W A ! Y und eine A
. Abb. 1.8 Illustration der Eigenschaften injektiv und surjektiv. Nur die
umfassende Menge X, d. h. A  X. Das Problem lautet:
Gibt es eine Abbildung fQW X ! Y mit fQjA D f , die eine
Abbildung links oben ist sowohl injektiv als auch surjektiv, also bijektiv

gewisse geforderte Eigenschaft besitzt.


4 Eine Abbildung f W X ! Y ist genau dann surjektiv,
wenn f .X/ D Y gilt.
Injektiv plus surjektiv ist bijektiv 4 Eine Abbildung f W X ! Y ist genau dann surjek-
tiv, wenn zu jedem y 2 Y mindestens ein x 2 X mit
Bei einer Abbildung f W X ! Y ist jedem x 2 X genau f .x/ D y existiert.
ein y 2 Y zugeordnet. Wir geben den zusätzlichen Eigen- 4 Eine Abbildung f W X ! Y ist genau dann bijektiv,
schaften wenn zu jedem y 2 Y genau ein x 2 X mit f .x/ D y
4 Je zwei verschiedenen Elementen aus X sind auch zwei existiert.
verschiedene Elemente aus Y zugeordnet und Alle diese Kennzeichnungen sind wichtig, man sollte sich
4 jedes Element aus Y wird einem x zugeordnet, diese daher gut einprägen. Die bijektiven Abbildungen sind
gerade jene Abbildungen, die man umkehren kann, auf die-
die eine Abbildung haben kann, Namen: se Kennzeichnung kommen wir bald zu sprechen.
Für endliche Mengen kann man sich die Begriffe an ei-
ner Skizze veranschaulichen (. Abb. 1.8).
Definition von Injektivität, Surjektivität und Eine injektive bzw. surjektive bzw. bijektive Abbildung
Bijektivität nennt man oft auch kürzer Injektion bzw. Surjektion bzw.
Eine Abbildung f W X ! Y heißt Bijektion.
4 injektiv, falls aus f .x1 / D f .x2 / für x1 ; x2 2 X folgt
x1 D x2 , Beispiel
4 surjektiv, falls zu jedem y 2 Y ein x 2 X existiert 4 Ist M die Menge aller Menschen und bezeichnet
mit f .x/ D y, #KH.m/ die Anzahl der Kopfhaare von m 2 M , so
4 bijektiv, falls f injektiv und surjektiv ist. ist die Abbildung

M ! N0 ;
f W
m 7! #KH.m/
Wir können die Definitionen auch anders formulieren, es
gilt nämlich offenbar: weder injektiv noch surjektiv. Es gibt nämlich mindes-
4 Eine Abbildung f W X ! Y ist genau dann injektiv, tens zwei (verschiedene) Menschen m1 und m2 , die
wenn für x1 ¤ x2 aus X stets f .x1 / ¤ f .x2 / folgt. keine Kopfhaare haben, d. h. #KH.m1 / D #KH.m2 /,
4 Eine Abbildung f W X ! Y ist genau dann injektiv, sodass f nicht injektiv ist. Und es gibt sicherlich keinen
wenn zu jedem y 2 Y höchstens ein x 2 X mit f .x/ D Menschen, der 1010 2 N Kopfhaare hat. Folglich ist f
y existiert. auch nicht surjektiv.
16 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

4 Die Abbildung Zwei Mengen sind gleichmächtig, wenn es


1  eine Bijektion zwischen ihnen gibt
N ! N;
f W
n 7! n C 1
Wir werden nun Mengen nach ihrer Größe klassifizieren.
ist injektiv, da gilt:
Dabei werden uns injektive, surjektive und bijektive Abbil-
n C 1 D f .n/ D f .m/ D m C 1 impliziert n D m : dungen als Maßstab dienen.

Die Abbildung f ist nicht surjektiv, da das Element 1 2


N nicht als Bild auftritt: Gleichmächtige Mengen
Zwei Mengen A und B heißen gleichmächtig, wenn es
À n 2 N mit f .n/ D 1 :
eine bijektive Abbildung f W A ! B gibt. Wir schreiben
Da f nicht surjektiv ist, ist f auch nicht bijektiv. dann
4 Die Abbildung
 AB oder jAj D jBj :
N ! f˙1g;
f W
n 7! .1/n

ist surjektiv (f .1/ D 1 und f .2/ D 1), aber nicht Man schreibt weiterhin
injektiv (f .1/ D f .3/) und somit auch nicht bijektiv.
jAj  jBj ;
4 Für jede Menge X ist die Abbildung idX W X ! X,
idX .x/ D x eine Bijektion. wenn es eine injektive Abbildung von A in B gibt, und
4 Für die Abbildungen
  jAj < jBj
R ! R; R0 ! R;
f1 W f W
x 7! x 2 ; 2
x 7! x 2 ; für
 
R ! R0 ; R0 ! R0 ;
f3 W f4 W jAj  jBj ; jedoch jAj ¤ jBj I
x 7! x 2 ; x 7! x 2
d. h., es gibt eine injektive Abbildung von A in B, aber
gilt:
keine bijektive. In dieser Situation sagt man auch „A hat
– f1 ist weder surjektiv (1 … f .R/) noch injektiv
eine kleinere Mächtigkeit als B“ oder „B hat eine größere
(f .1/ D f .1/).
Mächtigkeit als A“.
– f2 ist nicht surjektiv (1 … f .R/) aber injektiv
Im Fall
(f .x/ D f .y/ ) x D y).
p
– f3 ist surjektiv (y 2 R0 ) f . y/ D y) aber nicht jAj D jf1; 2 : : : ; ngj ;
injektiv (f .1/ D f .1/).
– f4 ist sowohl surjektiv (siehe f3 ) als auch injektiv d. h., es gibt eine Bijektion von A in f1; 2 : : : ; ng, setzt man
(siehe f2 ). 9 jAj D n und nennt A endlich, wenn es ein n 2 N0 gibt mit
jAj D n.
? Selbstfrage 1.7 Bei Abbildungen zwischen endlichen und gleichmäch-
Ist die Abbildung
tigen Mengen folgt die Bijektivität aus der Injektivität bzw.
(
N ! N0 ; Surjektivität, es gilt nämlich:
f W
n 7! n  1
Lemma Für jede Abbildung f W A ! B zwischen end-
injektiv, surjektiv oder bijektiv? lichen und gleichmächtigen Mengen A und B, d. h. jAj D
jBj 2 N0 , sind äquivalent:
Kommentar Man kann zu jeder injektiven Abbildung f (i) f ist injektiv,
durch Einschränkung der Wertemenge auf das Bild von f (ii) f ist surjektiv,
eine bijektive Abbildung erklären: Ist (iii) f ist bijektiv.
f WX !Y
Beweis (i) ) (ii): Die Abbildung f W A ! B sei injektiv.
injektiv, so ist die Abbildung Dann gilt

Q X ! f .X/ jf .A/j D jAj D jBj :
f W
x 7! f .x/
Aus f .A/  B folgt damit f .A/ D B. Somit ist f surjek-
bijektiv. tiv.
1.3  Abbildungen
17 1
(ii) ) (iii): Die Abbildung f W A ! B sei surjektiv. Jede endliche Menge hat weniger Elemente als die unend-
Angenommen, es gibt a; a0 2 A mit a ¤ a0 und f .a/ D liche Menge N. Die unendliche Menge N hat wiederum
f .a0 /. Dann folgt: weniger Elemente als die unendliche Menge R. Wir zeigen
nun, dass sich diese Folge von größer werdenden Mengen
jf .A/j < jAj D jBj :
beliebig fortsetzen lässt. Die Potenzmenge einer Menge hat
Das ist ein Widerspruch zu f .A/ D B. Damit ist begrün- nämlich immer eine echt größere Mächtigkeit als die zu-
det, dass f injektiv und somit bijektiv ist. grunde liegende Menge. Folglich gibt es beliebig große
(iii) ) (i): Falls f bijektiv ist, so ist f auch injektiv.  Mengen.

Im Fall jAj D jNj heißt A abzählbar; es gibt dann eine bi-


jektive Abbildung i 7! xi von N auf A – man kann also die Die Mächtigkeit der Potenzmenge
Elemente von A abzählen: x1 ; x2 ; x3 : : : Die unendlichen Für jede Menge A gilt jAj < jP .A/j.
Mengen A kann man durch jNj  jAj charakterisieren,
d. h., eine Menge A ist genau dann unendlich, wenn es eine
injektive Abbildung von N in A gibt. In der Analysis zeigt
man, dass gilt: Beweis Die Abbildung  W A ! P .A/, a 7! fag ist in-
jektiv, sodass jAj  jP .A/j gilt. Wir begründen, dass keine
jNj D jQj < jRj : surjektive Abbildung von A auf P .A/ existiert.
Somit ist die nicht endliche Menge R nicht abzählbar. Eine Angenommen, es gibt eine surjektive Abbildung f W
nicht endliche Menge, die nicht abzählbar ist, nennt man A ! P .A/. Für jedes a 2 A ist dann f .a/  A. Wir
überabzählbar. Bei solchen Mengen kann man die Ele- betrachten die Menge B D fa 2 A j a … f .a/g 2 P .A/.
mente nicht mehr mit den natürlichen Zahlen durchnumme- Weil f surjektiv ist, gibt es ein a 2 A mit f .a/ D B.
rieren. Die Menge R ist ein Beispiel einer überabzählbaren 1. Fall: a 2 B. Dann ist a 2 A und a … f .a/ D B, ein
Menge. Widerspruch.
2. Fall: a … B. Dann ist a 2 A und a … B D f .a/, also
Beispiel doch a 2 B, ein Widerspruch.
4 Für jede natürliche Zahl n ist die Abbildung Da in beiden Fällen ein Widerspruch eintritt, muss die
 Annahme falsch sein. 
Z ! n Z;
f W
z 7! n z
Man kann Abbildungen hintereinander
injektiv (aus f .z1 / D f .z2 / folgt z1 D z2 ) und surjek-
tiv (das Element n z 2 n Z ist Bild von z 2 Z unter f ). ausführen, falls die Bildmenge der einen
Daher gilt für jedes n 2 N: im Definitionsbereich der anderen liegt
jZj D jn Zj :
Sind f eine Abbildung von X in Y und g eine Abbildung
4 Die Mengen N0 und Z sind gleichmächtig, jN0 j D jZj,
von Y in Z,
das folgt aus der Bijektivität der Abbildung

N0 ! Z; f W X ! Y und g W Y ! Z ;
f W
n 7! 14 .1  .1/n .2n C 1//:
so können wir die beiden Abbildungen hintereinander aus-
Es gilt f .0/ D 0. Für alle ungeraden n 2 N, n D 2 k1
führen, d. h., wir bilden aus den beiden Abbildungen f und
mit k 2 N gilt f .2 k  1/ D k, und für alle geraden
g das Produkt g ı f :
n 2 N, n D 2 k mit k 2 N gilt f .2 k/ D k. Folglich
ist f surjektiv. Die Abbildung f ist auch injektiv, denn
aus f .n/ D f .m/ folgt zunächst .1/n .2n C 1/ D
.1/m .2m C 1/. Aus Vorzeichengründen folgt weiter, Die Komposition von Abbildungen
dass n und m beide gerade oder beide ungerade sind. Es seien f W X ! Y und g W Y ! Z Abbildungen. Dann
Daraus wiederum folgt 2n C 1 D 2m C 1 und somit ist
n D m. Also ist f tatsächlich bijektiv. (
4 Das Intervall .1; 1/ D fx 2 R j  1 < x < 1g ist X ! Z;
gıf W
gleichmächtig zu R. Es ist nämlich x 7! g.f .x//

.1; 1/ ! R; eine Abbildung von X nach Z. Diese heißt die Kompo-
f W
x 7! 1xx
2 sition oder Hintereinanderausführung oder Verkettung
eine Bijektion. Den Nachweis hierfür haben wir als von f und g.
Übungsaufgabe gestellt. 9
18 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

g
Beispiel Gegeben sind die Abbildungen
1 Dg
 
R ! R; R ! R;
f f W und g W :
x 7! x 2 x 7! 2 x C 1
Wgıf
Df f .Df / Dann gilt:

g.f .x// D 2 x 2 C 1 und


Wf
f .g.x// D 4 x 2 C 4x C 1 :
gıf

Folglich gilt g ı f ¤ f ı g. 9
. Abb. 1.9 Eine Verkettung von Abbildungen ist nur dann möglich,
wenn der Bildbereich der ersten im Definitionsbereich der zweiten ent-
halten ist Aber – und das ist wichtig! – diese Multiplikation ist asso-
ziativ:

Das Bild .g ı f /.x/ von x unter der Abbildung g ı f


entsteht durch Anwenden von g auf das Bild f .x/ von x
unter f . Die Komposition ist assoziativ
Gegeben seien drei Abbildungen:
i Nicht immer können zwei Abbildungen f und g zu einer
Abbildung g ı f zusammengesetzt werden. Möglich ist f1 W X 1 ! X 2 ; f2 W X 2 ! X 3 ; f3 W X 3 ! X 4 :
das genau dann, wenn das Bild von f im Definitionsbe-
reich von g liegt (siehe . Abb. 1.9). Dann sind f3 ı .f2 ı f1 / und .f3 ı f2 / ı f1 Abbildungen
von X1 nach X4 , und es gilt:

Beispiel Die beiden Abbildungen


f3 ı .f2 ı f1 / D .f3 ı f2 / ı f1 :
 
N ! R; R0 ! R0 ;
f W und g W p
n 7! n1 x 7! x

können zu Beweis Sowohl f3 ı .f2 ı f1 / als auch .f3 ı f2 / ı f1 sind


( Abbildungen von X1 nach X4 . Zu zeigen ist daher nur, dass
N ! R0 ;
gıf W q für jedes x 2 X1 beide Abbildungen dasselbe Element in
n 7! n1 X4 liefern, und das sieht man ganz einfach durch Auswer-
ten der Abbildungen für ein (beliebiges) x 2 X1 :
verkettet werden. Hingegen ist das für
 
N ! R; R0 ! R0 ; .f3 ı .f2 ı f1 //.x/ D f3 ..f2 ı f1 /.x//
f W und g W p
n 7!  n
1
x 7! x D f3 .f2 .f1 .x/// ;
nicht möglich, weil Quadratwurzeln im Reellen nur für po- ..f3 ı f2 / ı f1 /.x/ D .f3 ı f2 /.f1 .x//
sitive Argumente definiert sind. 9 D f3 .f2 .f1 .x/// :

Der Fall X D Y D Z ist besonders interessant. Sind f und Somit sind die beiden Abbildungen gleich. 
g zwei Abbildungen von einer Menge X in sich,
Bei dieser Multiplikation von Abbildungen tauchen Ähn-
f W X ! X und g W X ! X ;
lichkeiten zu Zahlenmengen auf. Wir betrachten die Menge
so ist auch g ı f eine Abbildung von X in sich. Dadurch ist M aller Abbildungen f einer Menge X in sich mit der
eine Multiplikation auf der Menge aller Abbildungen von Multiplikation ı – man schreibt dafür .M; ı/. Wir verglei-
X nach X erklärt. Diese Multiplikation hat ein sogenanntes chen diese algebraische Struktur .M; ı/ z. B. mit .Z; C/.
Einselement, die identische Abbildung: In beiden Strukturen gilt das Assoziativgesetz und beide
enthalten ein Einselement, in .M; ı/ ist das idX , in .Z; C/
idX ı f D f und f ı idX D f : lautet es 0. Die Verknüpfung ı in M ist nicht kommutativ,
Man beachte, dass diese Multiplikation nicht kommutativ die Verknüpfung C in Z hingegen schon. Es ist ein we-
ist, im Allgemeinen gilt: sentlicher und notwendiger Abstraktionsschritt, sich daran
zu gewöhnen, dass man mit Abbildungen rechnen kann als
f ı g ¤ g ı f: wären es Zahlen.
1.3  Abbildungen
19 1
Genau die bijektiven Abbildungen Definitionsmenge von g bzw. f liegt. Wir werten nun diese
sind umkehrbar Abbildungen

gıf WX !X und f ı g W Y ! Y
Wir zeigen, dass sich die bijektiven Abbildungen umkehren
für x 2 X und y 2 Y aus:
lassen. Wir stellen diesem wichtigen Satz von der Umkehr-
abbildung ein Lemma voran. g ı f .x/ D g.f .x// D g.y/ D x D idX .x/ und
f ı g.y/ D f .g.y// D f .x/ D y D idY .y/ :
Lemma Für Abbildungen f W X ! Y und g W Y ! X
gelte: Mit dem Satz zur Gleichheit von Abbildungen folgt nun
g ı f D idX und f ı g D idY , wir halten fest:
f ı g D idY :

Dann sind f surjektiv und g injektiv. Satz von der Umkehrabbildung


Ist f W X ! Y eine bijektive Abbildung, so existiert
Beweis Wir zeigen zuerst, dass f surjektiv ist: Es sei genau eine Abbildung g W Y ! X mit
y 2 Y gegeben. Wegen f ı g D idY gilt:
g ı f D idX und f ı g D idY :
f .g.y// D y :
Man nennt g die Umkehrabbildung oder die zu f inver-
Somit ist y das Bild des Elements x D g.y/ 2 X unter f . se Abbildung. Man bezeichnet sie üblicherweise mit f 1 .
Nun begründen wir, dass g injektiv ist: Dazu sei Die Abbildung f 1 ist ebenfalls bijektiv und hat die Um-
g.y1 / D g.y2 / für y1 ; y2 2 Y angenommen. Nun wenden kehrabbildung
wir die Abbildung f an und erhalten
.f 1 /1 D f :
f .g.y1 // D f .g.y2 // :

Wegen der Voraussetzung folgt y1 D y2 .  BeweisDie Existenz der Umkehrabbildung haben wir
schon gezeigt. Wir begründen die Eindeutigkeit von g: Ist
Falls also g ı f D idX und f ı g D idY gilt, so besagt auch g 0 W Y ! X eine Abbildung mit
dieses Lemma, dass f und g injektiv und surjektiv sind.
f ı g 0 D idY und g 0 ı f D idX ;
Folgerung Sind f W X ! Y und g W Y ! X zwei Abbil-
dungen mit den Eigenschaften so folgt:

g 0 D idX ı g 0 D .g ı f / ı g 0
g ı f D idX und f ı g D idY ;
D g ı .f ı g 0 / D g ı idY D g :
so sind g und f bijektiv. Schließlich zeigt obige Folgerung, dass die Abbildung g,
d. h. f 1 , bijektiv ist. Und die beiden Gleichungen
Wir wollen diese Aussage nun umkehren, d. h., wir er-
klären zu einer bijektiven Abbildung f W X ! Y eine neue f ı f 1 D idY und f 1 ı f D idX
Abbildung g W Y ! X, sodass die beiden Gleichheiten
g ı f D idX und f ı g D idY erfüllt sind. zeigen wegen der bewiesenen Eindeutigkeit der Umkehrab-
1
Ist f W X ! Y eine bijektive Abbildung, so existiert zu bildung, dass f die Umkehrabbildung von f ist, d. h.
jedem y 2 Y genau ein x 2 X mit f .x/ D y, d. h.
f D .f 1 /1 : 
jf 1 .fyg/j D 1 für jedes y 2 Y : Existiert zu f eine Umkehrabbildung f 1 , so sagt man
auch kurz f ist umkehrbar oder f ist invertierbar.
Daher können wir zu jedem bijektiven f eine weitere Ab-
bildung g W Y ! X definieren: Wir setzen i Ist f W X ! Y bijektiv und B  Y , so hat das Zeichen
f 1 .B/ nun zwei Bedeutungen:
g.y/ D x für das (eindeutige) x mit f .x/ D y :
A1 D f 1 .B/ D fx 2 X j f .x/ 2 Bg
Die Abbildungen f W X ! Y und g W Y ! X können ist die Urbildmenge von B unter f , und
wir hintereinander ausführen, wir können sowohl f ı g wie
auch g ı f bilden, da die Bildmenge von f bzw. g in der A2 D f 1 .B/
20 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

ist die Bildmenge von B unter f 1 . Das macht aber Die Abbildung g ıf ist surjektiv: Zu jedem z 2 Z exis-
1 nichts, es gilt nämlich A1 D A2 . Das sieht man wie folgt: tiert wegen der Surjektivität von g ein y 2 Y mit g.y/ D z.
Zu diesem y 2 Y wiederum existiert wegen der Surjektivi-
x 2 A1 , f .x/ D b 2 B tät von f ein x 2 X mit f .x/ D y. Insgesamt erhalten wir
, x D f 1 .b/ 2 f 1 .B/ mit diesen x und y:
, x 2 A2 :
g ı f .x/ D g.f .x// D g.y/ D z ;
Man beachte auch die grundverschiedenen Bedeutungen sodass das Element z 2 Z ein Urbild x 2 X bezüglich der
von Abbildung g ı f hat. 
f 1 .x/ und .f .x//1 :
1.4 Relationen
Das Element .f .x//1 ist das Inverse von f .x/ aber
f 1 .x/ ist das Bild von x unter der Abbildung f 1 .
Wir können aus jeder injektiven Abbildung eine bijektive
Beispiel Abbildung machen. Dazu ist es nur notwendig, die Wer-
1 temenge einzuschränken. Ist es auch möglich, aus einer
4 Für jede Menge X ist idX D idX .
4 Die Abbildung surjektiven Abbildung eine bijektive zu machen? Die Ant-
wort ist ja, wir zeigen das in diesem Abschnitt. Wir werden

N ! N0 ; dazu den Begriff der Gleichheit vergröbern. Wir werden
f W
n 7! n  1 Elemente einer Menge als äquivalent bezeichnen, wenn
sie gewisse vorgebene gleiche Eigenschaften haben. Die-
ist bijektiv, ihre Umkehrabbildung lautet se zueinander äquivalenten Elemente fassen wir dann in
 Mengen zusammen und behandeln diese Mengen wieder
1 N0 ! N; als Elemente einer Menge. Das hat eine Ähnlichkeit mit
f W :
n 7! n C 1 Schubläden – zueinander äquivalente Elemente werden in
Schubläden gesteckt, und es wird dann mit den Schubläden
4 In der Analysis definiert man den Logarithmus anstelle der Elemente weitergearbeitet.
Wir betrachten also erneut Mengen, wobei nun Elemen-
ln W R>0 ! R ; y 7! ln y te einer Menge zueinander in einem Verhältnis stehen. Ein
solches Verhältnis, wir werden das als Relation bezeich-
als die Umkehrabbildung der (bijektiven) Exponential- nen, definieren wir zuerst sehr allgemein. Wir werden dann
abbildung Äquivalenzrelationen betrachten.
exp W R ! R>0 ; x 7! ex : 9
Eine Relation auf X ist eine Teilmenge
Die Hintereinanderausführung gıf zweier Abbildungen f
und g von einer Menge X in sich ist wieder eine Abbildung von X  X
von X in sich. Sind g und f bijektiv, so ist auch g ı f
bijektiv. Es seien X und Y beliebige Mengen. Jede Teilmenge  
X Y heißt (binäre bzw. zweistellige) Relation auf X Y .
Wir werden nur binäre Relationen betrachten und sprechen
Die Komposition von bijektiven Abbildungen ist von nun an kurz von Relationen. Der Graph Gf einer Ab-
bijektiv bildung f von X in Y ist eine Relation auf X Y mit der
Sind f W X ! Y und g W Y ! Z bijektiv, so ist auch zusätzlichen Eigenschaft, dass es zu jedem x aus X genau
g ı f W X ! Z bijektiv. ein y aus Y gibt.

?Selbstfrage 1.8
Beweis Die Abbildung g ı f ist injektiv: Aus Vornehm ausgedrückt spricht man beim Graph einer Ab-
bildung f von einer linkstotalen und rechtseindeutigen
g.f .x// D g.f .y// Relation auf X Y – warum wohl?
Weiter nennt man den Graph einer injektiven Abbil-
mit x; y 2 X folgt wegen der Injektivität von g dung auch linkseindeutig und den einer surjektiven auch
rechtstotal – warum wohl?
f .x/ D f .y/ :
Im Fall X D Y , das werden wir im weiteren stets voraus-
Aus der Injektivität von f folgt nun x D y. setzen, spricht man auch kurz von einer Relation auf X .
1.4  Relationen
21 1
Man beachte, dass eine Relation  auf X eine Menge
von geordneten Paaren aus X X ist. Durch die Teilmenge Reflexiv, symmetrisch, antisymmetrisch und
 werden ganz bestimmte Paare aus X X ausgezeichnet, transitiv
nämlich genau diejenigen, die zueinander in der Relation  Eine Relation  auf der Menge X heißt:
stehen. 4 reflexiv, wenn für alle x 2 X gilt x  x,
Anstelle von .x; y/ 2  schreibt man auch x  y und 4 symmetrisch, wenn für alle x; y 2 X mit x  y gilt
benutzt die Sprechweise „x steht in Relation zu y“, y  x,
x  y , .x; y/ 2  : 4 antisymmetrisch, wenn für alle x; y 2 X mit x  y
und y  x gilt x D y,
Beispiel 4 transitiv, wenn für alle x; y; z 2 X mit x  y und
4 Auf der Menge N ist die Teilbarkeit j eine Relation. y  z gilt x  z.
Dabei sagt man, eine natürliche Zahl a teilt eine natür-
liche Zahl b, wenn es ein c 2 N gibt mit a c D b. Als
Schreibweise verwendet man dafür a j b. Es gilt: Wir sehen uns erneut die letzten Beispiele an und erhalten:
j D f.a; b/ 2 N N j a j bg : Beispiel
Zum Beispiel gilt .3; 3/; .3; 9/; .12; 36/ 2 j. 4 Die Relation j auf N ist reflexiv, antisymmetrisch und
4 Auf der Menge X aller Geraden der Ebene ist die Par- transitiv.
allelität k eine Relation. Es gilt: 4 Die Relation k auf der Menge X aller Geraden einer
Ebene ist reflexiv, symmetrisch und transitiv.
k D f.g; h/ 2 X X j g k hg : 4 Die Relation  auf R ist reflexiv, antisymmetrisch und
transitiv.
4 Auf der Menge R der reellen Zahlen ist die Anordnung 4 Die Relation .mod n/ auf Z ist reflexiv, symmetrisch
 eine Relation. Es gilt: und transitiv. Wir weisen die Transitivität nach: Es gelte
 D f.a; b/ 2 R R j a  bg : a b .mod n/ und b c .mod n/. Folglich gilt n j
a  b und n j b  c. Hieraus erhalten wir
4 Wir definieren eine Relation  auf der Menge Z der gan-
zen Zahlen. Es seien n 2 N und a; b 2 Z. Wir sagen, a  b D r n und b  c D s n
a ist kongruent zu b modulo n, falls n die Zahl a  b
teilt, kurz: für ganze Zahlen r und s. Eine Addition dieser beiden
Gleichungen liefert
ab , n j a b:
a  c D .a  b/ C .b  c/ D .r  s/ n ;
Für n D 3 gilt z. B. .5; 2/; .2; 1/; .4; 4/ 2 . Für diese
Relation  schreibt man üblicherweise , genauer d. h. n j a  c. Damit ist gezeigt a c .mod n/.
.mod n/, d. h., 4 Die Gleichheit D auf X ist reflexiv, symmetrisch, anti-
a b .mod n/ , n j a  b : symmetrisch und transitiv.
4 Die Inklusion  auf P .X/ ist reflexiv, antisymmetrisch
4 Auf jeder Menge X ist die Gleichheit D eine Relation. und transitiv. 9
4 Auf der Potenzmenge P .X/ jeder Menge X ist die In-
klusion  eine Relation. 9 Kommentar Die Relation ist besser auf der Menge der
Gegenstände des täglichen Lebens ist sicherlich als eine
Kommentar Eigentlich ist eine Relation  auf X Y ein transitive Relation zu verstehen. Findet man etwa, dass
Tripel  D .X; Y; R /, wobei R  X Y . In diesem Sinne Schokolade besser ist als ein Apfel und dass ein Apfel
ist eine Abbildung eine spezielle Relation. besser ist als Spinat, so wird man sicher auch auch der Mei-
nung sein, dass Schokolade besser ist als Spinat.

Relationen können reflexiv, symmetrisch,


antisymmetrisch oder transitiv sein Eine Ordnungsrelation ist reflexiv,
antisymmetrisch und transitiv
Eine Relation  auf einer Menge X ist nichts weiter als
eine Menge von Paaren aus X X. Betrachten wir z. B. Wir sind es gewohnt, die natürlichen Zahlen anzuordnen,
die Menge X D R der reellen Zahlen. Hier haben wir die dabei betrachten wir für beliebige a; b; c 2 N die folgenden
bekannte Relation . Diese Relation  hat z. B. die Eigen- Regeln als selbstverständlich:
schaft x  x für jedes x 2 R. Wir fassen die für uns 4 a  a,
wichtigen Eigenschaften, die eine Relation haben kann, zu- 4 aus a  b und b  a folgt a D b,
sammen: 4 aus a  b und b  c folgt a  c.
22 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

Diese Regeln sind genau die Reflexivität, Antisymmetrie Ein maximales Element muss kein größtes
1 und Transitivität. Element sein

Ist  eine Ordnungsrelation auf einer Menge X, so können


Ordnungsrelation, geordnete Menge
wir die Elemente der Menge X größenmäßig erfassen. Bei
Eine Relation  auf einer Menge X heißt eine Ordnungs-
einer linearen Ordnungsrelation können wir sogar von je
relation auf X, wenn sie reflexiv, antisymmetrisch und
zwei Elementen a; b 2 X entscheiden, welches von beiden
transitiv ist. Man nennt dann .X; / eine geordnete
größer bzw. kleiner ist. Insbesondere kann man bei einer
Menge.
endlichen Menge sogar entscheiden, welches das größte
bzw. kleinste Element ist. Eventuell haben auch unendliche
Mengen ein größtes oder ein kleinstes Element, allgemein
Wir erhalten sofort einfache Beispiele: definiert man:
4 Ein Element a 2 X heißt größtes Element von X, falls
Beispiel für alle x 2 X gilt a  x.
4 Da  eine Ordnungsrelation auf der Menge R der reel- 4 Ein Element a 2 X heißt kleinstes Element von X, falls
len Zahlen ist, ist .R; / eine geordnete Menge. für alle x 2 X gilt x  a.
4 Da die Teilbarkeit j auf N eine Ordnungsrelation ist, ist
.N; j / eine geordnete Menge. Das kleinste und das größte Element ist, falls es denn exis-
4 Die Potenzmenge jeder Menge X ist mit der Ordnungs- tiert, eindeutig.
relation  eine geordnete Menge .P .X/; /. 9
Lemma Es sei .X; / eine geordnete Menge. Falls in X
ein größtes oder kleinstes Element existiert, so ist dieses
Man beachte, dass man bei einer Ordnungsrelation nicht
eindeutig bestimmt.
verlangt, dass jedes x zu jedem y in Relation steht, z. B.
kann man die Teilmengen f1; 2g und f3g von X D f1; 2; 3g
Beweis Sind a; b 2 X größte Elemente, so gilt
nicht miteinander vergleichen, es gilt:
a  b ; da a  x 8 x 2 X und
f1; 2g 6 f3g und f3g 6 f1; 2g :
b  a ; da b  x 8 x 2 X ;
Das ist beim Beispiel mit den reellen Zahlen ganz anders. folglich gilt a D b. Analog zeigt man die Behauptung für
Man kann für beliebige x und y aus R entscheiden, ob das kleinste Element. 

x  y oder y  x Beispiel
4 Die Menge N hat bezüglich der üblichen Ordnung das
gilt. Diese zusätzliche Eigenschaft einer Ordnungsrelation kleinste Element 1, aber kein größtes Element. Die
bekommt einen eigenen Namen: Mengen Z und R haben bezüglich der üblichen Ord-
Eine Ordnungsrelation  einer geordneten Menge nungen weder ein größtes noch ein kleinstes Element.
.X; / heißt lineare oder totale Ordnungsrelation, wenn für 4 Wir betrachten die Potenzmenge P .f1; 2g/ mit der Ord-
je zwei Elemente x; y 2 X gilt nungsrelation :

x  y oder y  x : P .f1; 2g/ D f;; f1g; f2g; f1; 2gg :

? Selbstfrage 1.9 Wegen f1g 6 f2g und f2g 6 f1g sind die Elemente
Ist die Ordnungsrelation j auf N linear?
f1g und f2g nicht miteinander vergleichbar, sodass die
Ordnungsrelation nicht linear ist.
Das Element f1; 2g ist das größte Element, das Element
Ist .X; / eine geordnete Menge und Y  X, so erhält man
; das kleinste.
durch Einschränkung von  auf Y eine Ordnung auf Y –
4 Nun betrachten wir die folgende Teilmenge X der Po-
die von X auf der Teilmenge Y induzierte Ordnung. Der
tenzmenge von M D f1; 2; 3g:
Einfachheit halber verwendet man oft für die neue Relati-
on, nämlich für die Einschränkung von , wieder dasselbe X D ff1g; f2g; f3g; f1; 2g; f2; 3g; f1; 3gg ;
Zeichen .
die aus allen ein- und zweielementigen Teilmengen von
Beispiel Die Ordnungsrelation  auf der Menge R der reel- M besteht. Die Menge X ist mit der Inklusion  nicht
len Zahlen induziert auf der Teilmenge Q  R die Ordnung linear geordnet. Es gibt weder ein größtes noch ein
.Q; /. 9 kleinstes Element. 9
1.4  Relationen
23 1

{1, 2} {1, 3} {2, 3} {1, 2}

{1} {2}
{1} {2} {3}

. Abb. 1.10 Die eingezeichneten Pfeile symbolisieren die Inklusion. Es


gibt maximale und minimale Elemente, aber kein größtes und kein kleins- ∅
tes Element
. Abb. 1.11 Die eingezeichneten Pfeile symbolisieren wieder die In-
klusion. Das maximale Element f1; 2g ist das eindeutig bestimmte größte
Endliche linear geordnete Mengen haben stets ein größtes Element
und ein kleinstes Element. Das letzte Beispiel zeigt, dass
dies für endliche nicht linear geordnete Mengen nicht rich-
tig sein muss. Und trotzdem gilt etwa Beweis Ist a 2 X ein größtes Element, so folgt aus a  x
für ein x 2 X sogleich a  x und somit a D x. Analog
f1g  f1; 3g ; zeigt man die Behauptung für das kleinste Element. 

sodass man doch auch wieder sagen kann, dass f1; 3g grö- Man beachte auch . Abb. 1.11.
ßer ist als f1g, und es gibt in X kein Element, das größer
ist als f1; 3g und auch keines, das kleiner ist als f1g. Dies Das Zorn’sche Lemma garantiert
erfasst man mit den Begriffen minimales und maximales
Element: Ist  eine Ordnungsrelation auf der Menge X,
die Existenz maximaler Elemente
so sagt man:
4 Ein Element a 2 X heißt maximales Element von X, Das Zorn’sche Lemma liefert eine ganz wesentliche Be-
falls für alle x 2 X gilt: Aus a  x folgt a D x. weismethode für die Existenz maximaler Elemente. Für
4 Ein Element a 2 X heißt minimales Element von X, eine knappe Formulierung dieses Lemmas führen wir wei-
falls für alle x 2 X gilt: Aus x  a folgt x D a. tere Begriffe ein.
Eine geordnete Menge .M; / heißt induktiv geord-
Ein Element ist also genau dann maximal, wenn es kein net, wenn jede linear geordnete Teilmenge X  M eine
Element gibt, das noch echt größer ist und minimal, wenn obere Schranke in .M; / besitzt, d. h., wenn ein s 2 M
es kein Element gibt, das noch echt kleiner ist. Wir greifen existiert mit x  s für alle x 2 X.
das letzte Beispiel noch einmal auf. Das Zorn’sche Lemma besagt:
Beispiel Die Menge
Lemma von Zorn
X D ff1g; f2g; f3g; f1; 2g; f2; 3g; f1; 3gg Jede induktiv geordnete nichtleere Menge .M; / besitzt
ein maximales Element.
versehen mit der Inklusion  ist geordnet, aber nicht linear
geordnet. Jedes der Elemente

f1g; f2g; f3g Das Lemma von Zorn ist ein Axiom der Mengenlehre. Wir
werden das Lemma von Zorn benutzen, um zu beweisen,
ist ein minimales Element, und jedes der Elemente dass jeder Vektorraum eine Basis besitzt.

f1; 2g; f2; 3g; f1; 3g


Eine Äquivalenzrelation ist reflexiv,
ist ein maximales Element (. Abb. 1.10). 9 symmetrisch und transitiv
Im Gegensatz zu größten und kleinsten Elementen sind
maximale und minimale Elemente im Allgemeinen keines- Wir betrachten sogenannte Äquivalenzrelationen näher.
wegs eindeutig bestimmt. Aber es gilt:

Lemma Jedes größte Element von .X; / ist ein maxima- Äquivalenzrelation
les Element. Eine Relation  auf einer Menge X heißt Äquivalenzre-
Jedes kleinste Element von .X; / ist ein minimales Ele- lation, wenn  reflexiv, symmetrisch und transitiv ist.
ment.
24 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

In unserem Sammelsurium aus Beispielen finden wir Äqui- 4 Bei der Äquivalenzrelation .mod n/, n 2 N, besteht
1 valenzrelationen: die Äquivalenzklasse Œa von a 2 Z aus all jenen gan-
zen Zahlen b, die zu a kongruent modulo n sind:
Beispiel
4 Die Parallelität k auf der Menge der Geraden X in der a b .mod n/ , n j a  b
Ebene ist eine Äquivalenzrelation. , a  b D n c für ein c 2 Z
4 Für jedes n 2 N ist die Relation .mod n/ eine Äqui-
, b 2 fa C n c j c 2 Zg D a C n Z :
valenzrelation auf der Menge Z. 9

Ist R eine Äquivalenzrelation auf einer Menge X, so Somit gilt:


schreibt man anstelle von .x; y/ 2 R oft x  y und spricht
dies als „x ist äquivalent zu y“ aus. In dieser Schreibweise Œa D a C n Z : 9
bedeuten die Axiome einer Äquivalenzrelation:
4 x  x für alle x 2 X ( ist reflexiv), ?Selbstfrage 1.10
4 aus x  y folgt y  x ( ist symmetrisch), Es ist sehr leicht, sich Beispiele für Äquivalenzrelationen
4 aus x  y; y  z folgt x  z ( ist transitiv). aus dem täglichen Leben zu konstruieren: Bezeichnet M
die Menge aller Menschen und #KH.m/ die Anzahl der
Ist  eine Äquivalenzrelation auf der Menge X, so nennt Kopfhaare von m 2 M , so erklären wir zwei Menschen
man für jedes x 2 X die Teilmenge als äquivalent, wenn sie gleich viele Kopfhaare haben,
d. h.,
Œx D fy 2 X j x  yg  X
m1  m2 , #KH.m1 / D #KH.m2 / :
die Äquivalenzklasse von x bezüglich . In der Äquiva-
lenzklasse Œx sind somit alle Elemente aus X enthalten, Begründen Sie, dass  eine Äquivalenzrelation auf M ist
die zu x äquivalent sind. und beschreiben Sie die Äquivalenzklassen von .

Beispiel Die Menge aller Äquivalenzklassen wird auch als Quoti-


4 Bei der Parallelität k auf der Menge X der Geraden entenmenge bezeichnet. Dabei ist das Symbol X=  für
einer Ebene E enthält die Äquivalenzklasse Œg von diese Menge üblich:
g 2 X die Menge aller zu g parallelen Geraden.
X=  D fŒx j x 2 Xg :

Die Elemente der Menge X=  sind die Äquivalenzklas-


sen bezüglich der Relation . Insofern sind also in X= 
die zueinander äquivalenten Elemente zu einem Element
Œx zusammengefasst. In dieser Sichtweise kann man die
Menge X=  als eine Vergröberung der Gleichheit auf X
betrachten – zueinander äquivalente Elemente in X werden
in X=  nicht mehr unterschieden.
In einem ausführlichen Beispiel vergröbern wir den
Definitionsbereich X einer Abbildung f zu X= . Die Ab-
bildung f , die auf dieser gröberen Menge X=  erklärt
werden kann, ist dann injektiv.

Eine Äquivalenzrelation zerlegt


die Menge X in nichtleere,
disjunkte Äquivalenzklassen

Die Bedeutung einer Äquivalenzrelation auf einer Menge


X liegt darin, dass man die Menge X mit der Äquivalenz-
relation in die disjunkten, nichtleeren Äquivalenzklassen
. Abb. 1.12 Die zueinander parallelen Geraden bilden eine Äquiva- zerlegen kann und ferner, dass Äquivalenz auf X, d. h.
lenzklasse – es gibt unendlich viele verschiedene Äquivalenzklassen mit x  y, zur Gleichheit in X= , d. h. Œx D Œy , führt. Es
jeweils unendlich vielen Elementen gilt nämlich:
1.4  Relationen
25 1
Man nennt R  X ein Repräsentanten- oder Vertreter-
Äquivalenzrelationen zerlegen die Grundmenge in system von , falls R aus jeder Äquivalenzklasse genau
ihre nichtleeren Äquivalenzklassen einen Repräsentanten enthält, d. h.
Ist X eine nichtleere Menge und  eine Äquivalenzrelati-
jR \ Œaj D 1 für jedes a 2 X :
on auf X, so gilt:
S
(a) X D x2X Œx .
Beispiel
(b) Œx ¤ ; für alle x 2 X.
4 Bezeichnen M die Menge aller Menschen und g.m/ 2
(c) Œx \ Œy ¤ ; , x  y , Œx D Œy .
fweibl., männl.g das Geschlecht von m 2 M , so er-
klären wir zwei Menschen als äquivalent, wenn sie das
gleiche Geschlecht haben, d. h., für m1 ; m2 2 M gilt:
Beweis (a), (b) Aufgrund der Reflexivität gilt x 2 Œx . So-
mit ist jede Äquivalenzklasse nichtleer. Außerdem ist jedes m1  m2 W, g.m1 / D g.m2 / :
Element von X in einer Äquivalenzklasse enthalten. Das
begründet bereits die ersten beiden Aussagen. Die Menschheit M zerfällt bezüglich dieser Äquiva-
Die Aussage in (c) beweisen wir durch einen Ring- lenzrelation in die zwei Äquivalenzklassen der männli-
schluss. chen und weiblichen Bevölkerungsgruppen, und es gilt:
(c) Es sei Œx \Œy ¤ ; vorausgesetzt. Für u 2 Œx \
Œy gilt x  u, y  u. Wegen der Symmetrie und der ŒAngela Merkel D ŒHillary Clinton sowie
Transitivität von  folgt x  y.
ŒNigel Kennedy D ŒBoris Becker :
Nun sei x  y vorausgesetzt. Wir wählen ein u 2 Œx .
Wegen x  u und x  y folgt mit der Symmetrie und Jedes Paar fa; bg mit einem weiblichen a 2 M und
Transitivität y  u, d. h. u 2 Œy bzw. Œx  Œy . Ana- männlichen b 2 M ist ein Repräsentantensystem die-
log zeigt man Œy  Œx, sodass Œx D Œy . ser Äquivalenzrelation .
Es gelte nun Œx D Œy . Wenn die Klassen gleich 4 Wir betrachten die Potenzmenge P .N/. Nennt man
sind, ist ihr Durchschnitt natürlich nichtleer. zwei Elemente A; B 2 P .N/ äquivalent, in Zeichen
Damit sind die drei Äquivalenzen in (c) bewiesen.  A  B, wenn sie gleich viele Elemente enthalten, so
ist  offenbar eine Äquivalenzrelation. Die Äquivalenz-
Nach diesem Satz liefern die Äquivalenzklassen von X eine klassen enthalten jene Teilmengen von N mit je gleich
Partition der Menge X, d. h., X ist disjunkte Vereinigung vielen Elementen, z. B.:
nichtleerer Teilmengen, nämlich ihrer Äquivalenzklassen. – Œ; D f;g.
Anstelle von einer Partition spricht man auch von einer – Œf1g D ff1g; f2g; : : :g – die einelementigen Teil-
Zerlegung. mengen von N.
Ist  eine Äquivalenzrelation auf einer Menge X, so – ŒN D fN; 2 N; 3 N C 1; : : :g – die unendlichen
nennt man jedes Element a 2 Œx einer Äquivalenzklasse Teilmengen von N. 9
einen Repräsentanten oder Vertreter der Äquivalenzklas-
se Œx , jeder Repräsentant vertritt nämlich seine Klasse, Wir betrachten ausführlich ein weiteres Beispiel, das nicht
denn es gilt nach obigem Satz: nur im ersten Studienjahr eine fundamentale Rolle spielt,
a 2 Œx , Œa D Œx : die Restklassen modulo n.

Die Restklassen modulo n zerlegen Z


in n Äquivalenzklassen

Wir kommen erneut auf das schon wiederholt betrachte-


te Beispiel der Äquivalenzrelation kongruent modulo n,
n 2 N, zurück. Für jedes n 2 N ist auf der Menge
der ganzen Zahlen Z eine Äquivalenzrelation: Zwei ganze
Zahlen a und b sind äquivalent, falls n die Differenz a  b
teilt:

a b .mod n/ , n j a  b :

. Abb. 1.13 Eine Partition der Menge X ist eine Zerlegung von X in Für jedes a 2 Z ist
disjunkte nichtleere Teilmengen – im Allgemeinen sind weder die Teil-
mengen noch die Anzahl der Teilmengen endlich Œa D a C n Z
26 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

Beispiel: Vergröberung des Definitionsbereiches einer Abbildung


1
Es seien X, Y Mengen und f W X ! Y eine Abbildung. Ist die Abbildung f injektiv, so ist jede Äquivalenzklasse
Begründen Sie: Durch einelementig, da im Falle der Injektivität aus f .x/ D f .y/
die Gleichheit x D y folgt.
x  y , f .x/ D f .y/ Ist die Abbildung f nicht injektiv, so gibt es (mindestens)
eine Äquivalenzklasse, die mehr als ein Element enthält.
wird eine Äquivalenzrelation auf X definiert. Für ein x 2 X Wir vergröbern die Abbildung f nun. Wir unterschei-
sei Œx 2 X= die Äquivalenzklasse von x bezüglich . den nicht mehr zwischen zueinander äquivalenten Elementen,
Zeigen Sie weiter, dass durch f W X= ! f .X/, sondern fassen diese zu einem Element zusammen, d. h., wir
Œx 7! f .x/ eine bijektive Abbildung erklärt wird. betrachten eine Abbildung, die auf den Äquivalenzklassen de-
finiert ist und jeder Äquivalenzklasse (als Ganzes) den Wert
Problemanalyse und Strategie zuordnet, die die Abbildung f jedem Element der Äquiva-
lenzklasse zuordnet:
Wir zeigen, dass die Relation  reflexiv, symmetrisch und
transitiv ist. Um zu zeigen, dass durch f eine Bijektion gege- (
X=  ! f .X/;
ben ist, ist erst einmal zu begründen, dass f tatsächlich eine f W
Œx 7! f .x/:
Abbildung ist, dann erst prüfen wir die Abbildung auf Bijek-
tivität.
Es ist zu erwarten, dass diese Abbildung nun injektiv ist, wir
haben ja gerade die Nichtinjektivität beseitigt. Bevor wir aber
Lösung dieses f auf Injektivität und Surjektivität überprüfen, müs-
Wegen f .x/ D f .x/ für jedes x 2 X gilt x  x für jedes sen wir uns überlegen, ob f überhaupt eine Abbildung von
x 2 X (Reflexivität). X=  in f .X/ ist, d. h., ob f  .X= / f .X/ mit der
Es gelte x  y mit x; y 2 X. Dann gilt f .x/ D f .y/, Eigenschaft, dass es zu jedem Element Œx genau ein Element
d. h. f .y/ D f .x/. Es folgt y  x (Symmetrie). aus f .X/ gibt.
Nun gelte x  y und y  z, x; y; z 2 X. Dann gilt Weil wir einer Äquivalenzmenge Œx einen Wert zuordnen,
f .x/ D f .y/ und f .y/ D f .z/, d. h. f .x/ D f .z/. Es folgt nämlich f .x/, der vom Repräsentanten x abhängt, müssen
x  z (Transitivität). wir sicherstellen, dass dieser Wert unabhängig von der Wahl
Damit ist bereits begründet, dass  eine Äquivalenzrelati- des Repräsentanten ist: Würde nämlich für ein y 2 X mit
on ist. Œx D Œy gelten f .x/ ¤ f .y/, so wäre durch f keine
In der Äquivalenzklasse Abbildung gegeben, da einem Element Œx D Œy der Defi-
nitionsmenge verschiedene Werte f .x/ ¤ f .y/ zugeordnet
Œx D fy 2 X j x  yg werden würden.
D fy 2 X j f .x/ D f .y/g Wir begründen, dass das bei unserer Abbildung f nicht
der Fall ist: Es sei y 2 X mit Œx D Œy gewählt. Es gilt dann
liegen alle Elemente aus X, die unter der Abbildung f den x  y. Nach der Definition besagt dies aber f .x/ D f .y/.
gleichen Wert in Y annehmen. Folglich ist f eine Abbildung. Man sagt, dass die Abbildung
Die folgende Abbildung deutet die Zerlegung von X in wohldefiniert ist.
die Äquivalenzklassen an. Die Abbildung f ist injektiv: Aus f .Œx/ D f .Œy/ folgt
f .x/ D f .y/ und damit x  y. Dies besagt gerade Œx D Œy.
Die Abbildung f ist surjektiv: Das Element f .x/ 2
X/ ∼ f .X/, x 2 X, ist Bild des Elements Œx 2 X=.
Damit ist gezeigt, dass die Abbildung f bijektiv ist.

Kommentar Ist die Abbildung f bereits injektiv, so be-


stehen die Äquivalenzklassen Œx aus genau einem Element,
Œx D fxg. Die Quotientenmenge X= D fŒx j x 2 Xg
ist dann eine Menge von einelementigen Teilmengen von X.
Strenggenommen muss man also schon noch zwischen f und
X Y f unterscheiden.
1.4  Relationen
27 1
die Äquivalenzklasse von a. Folglich zerfällt Z in disjunkte da wegen der obigen Größeneinschränkung von r1  r2 nur
Äquivalenzklassen. Um sämtliche Äquivalenzklassen kon- der Fall d D 0 möglich ist. Die zwei Zahlen a; b sind somit
kret und übersichtlich angeben zu können, führen wir eine genau dann kongruent mod n, wenn sie denselben Rest bei
andere Beschreibung der Äquivalenzrelation ein. Dazu be- Division durch n haben. 
nötigen wir die bekannte Division mit Rest.
Wegen der Charakterisierung der Kongruenz mit den Res-
ten nennt man die Äquivalenzklassen der Kongruenz mo-
Division mit Rest dulo n auch Restklassen modulo n.
Gegeben sei n 2 N. Zu jeder ganzen Zahl a 2 Z gibt es Wir erhalten nun eine sehr einfache Beschreibung der
genau ein Paar ganzer Zahlen q, r mit Restklassen modulo n. Für jedes a 2 Z gilt

a D qnCr und 0  r < n: Œa D a C n Z D r C n Z ;

Man nennt r den Rest von a bei Division mit Rest wobei r 2 f0; 1; : : : ; n  1g der Rest bei Division von a
durch n. durch n mit Rest ist.
Folglich liegt jedes a 2 Z in einer der Restklassen

Beispiel Wir teilen die ganze Zahl 21 durch 4 mit Rest: 0 C n Z ; 1 C n Z ; : : : ; .n  1/ C n Z :


21 D 5  4 C 1 :
Und da je zwei der hier angegebenen Restklassen verschie-
Die Zahl 21 hat somit den Rest 1 bei Division mit Rest den sind (die Differenz zweier Repräsentanten ist nicht
durch 4. 9 durch n teilbar), erhalten wir:

Nun können wir die Kongruenz modulo n mithilfe der Di-


vision mit Rest charakterisieren: Die Restklassen modulo n
Für jedes n 2 N sind

Charakterisierungen der Kongruenz modulo n 0 C n Z ; 1 C n Z ; : : : ; .n  1/ C n Z


Es sei n eine natürliche Zahl. Für zwei ganze Zahlen a und
b sind äquivalent: sämtliche verschiedene Restklassen modulo n. Es ist so-
4 a b .mod n/. mit R D f0; 1; : : : ; n  1g ein Repräsentantensystem –
4 n j a  b. dabei haben wir aus jeder Restklasse den kleinsten positi-
4 a C n Z D b C n Z. ven Repräsentanten gewählt.
4 a und b haben bei Division mit Rest durch n den glei-
chen Rest.

Anstelle von a C n Z schreibt man oft auch kurz a; manch-


Beweis Dass die ersten drei Aussagen gleichwertig sind, mal lässt man selbst den Querstrich weg und identifiziert
wurde bereits gezeigt. Wir zeigen die Gleichwertigkeit der die Restklasse a mit seinem Repräsentanten a.
dritten und vierten Aussage. Dazu teilen wir zwei ganze
Zahlen a und b mit Rest durch n: Beispiel
4 Im Fall n D 1 gibt es genau eine Restklasse
a D q1 n C r1 ; b D q2 n C r2 mit 0  r1 ; r2 < n :

Man beachte: 0 D 0C1Z D Z:

r1  r2 2 f.n  1/; : : : ; 1; 0; 1; : : : ; n  1g : Es sind je zwei ganze Zahlen äquivalent, da die Diffe-
renz beliebiger Zahlen stets von 1 geteilt wird.
Damit gilt: 4 Im Fall n D 2 gibt es genau zwei Restklassen

a C nZ D b CnZ
0 D 0 C 2 Z D f0; ˙2; ˙4; : : :g ;
, a  b D n c für ein c 2 Z
1 D 1 C 2 Z D f˙1; ˙3; ˙5; : : :g :
, .q1  q2 / n C .r1  r2 / D n c ; c 2 Z
, r1  r2 D n d für ein d 2 Z Die Menge Z wird aufgeteilt in die geraden und unge-
, r1 D r2 ; raden ganzen Zahlen.
28 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

4 Im Fall n D 6 gibt es genau sechs Restklassen Rechenaufgaben


1
0 D 0 C 6 Z D f: : : ; 12; 6; 0; 6; 12; : : :g ;
1.3  Beweisen Sie die Äquivalenzen:
1 D 1 C 6 Z D f: : : ; 11; 5; 1; 7; 13; : : :g ;
2 D 2 C 6 Z D f: : : ; 10; 4; 2; 8; 14; : : :g ; .A _ B/ , :.:A ^ :B/;
3 D 3 C 6 Z D f: : : ; 9; 3; 3; 9; 15; : : :g ; .A ^ B/ , :.:A _ :B/:
4 D 4 C 6 Z D f: : : ; 8; 2; 4; 10; 16; : : :g ;
1.4  Zeigen Sie die Transitivität der Implikation, also
5 D 5 C 6 Z D f: : : ; 7; 1; 5; 11; 17; : : :g : die Aussage

Es ist Z D 0 [ 1 [ 2 [ 3 [ 4 [ 5, und es ist R D ..A ) B/ ^ .B ) C // ) .A ) C / :


f0; 1; 2; 3; 4; 5g ein Repräsentantensystem. Ebenso gut
können wir natürlich auch R0 D f12; 5; 8; 9; 16; 5g
als Repräsentantensystem wählen. 9
Beweisaufgaben
Im nächsten Kapitel werden wir auf der Menge Zn D
f0; 1; : : : ; n  1g der Restklassen modulo n, n 2 N, eine Ad- 1.5 
p Zeigen Sie durch einen Widerspruchsbeweis,
dition und eine Multiplikation erklären. Es wird so möglich, dass 2 keine rationale Zahl ist. Formulieren Sie dazu zu-
mit den Äquivalenzklassen k umzugehen wie z. B. mit den nächst die beiden Aussagen,
ganzen Zahlen. Der Fall, dass n sogar eine Primzahl ist, wird
ein besonderes Augenmerk verdienen. In diesem Fall kann AW „x ist die positive Lösung der Gleichung x 2 D 2“
man jedes von 0 verschiedene Element sogar invertieren.
und

Aufgaben a
BW „x Es gibt keine Zahlen a; b 2 Z mit x D “
b
Gelegentlich enthalten die Aufgaben mehr Angaben, als für 1.6  Geheimrat Gelb, Frau Blau, Herr Grün und
die Lösung erforderlich sind. Bei einigen anderen dage- Oberst Schwarz werden eines Mordes verdächtigt. Genau
gen werden Daten aus dem Allgemeinwissen, aus anderen einer bzw. eine von ihnen hat den Mord begangen. Beim
Quellen oder sinnvolle Schätzungen benötigt. Verhör sagen sie Folgendes aus:
Geheimrat Gelb: Ich war es nicht. Der Mord ist im Sa-
einfache Aufgaben mit wenigen Rechenschritten
lon passiert.
mittelschwere Aufgaben, die etwas Denkarbeit und Frau Blau: Ich war es nicht. Ich war zur Tatzeit mit
unter Umständen die Kombination verschiedener Oberst Schwarz zusammen in einem Raum.
Konzepte erfordern Herr Grün: Ich war es nicht. Frau Blau, Geheimrat Gelb
anspruchsvolle Aufgaben, die fortgeschrittene Kon- und ich waren zur Tatzeit nicht im Salon.
zepte (unter Umständen auch aus späteren Kapiteln) Oberst Schwarz: Ich war es nicht. Aber Geheimrat Gelb
oder eigene mathematische Modellbildung benötigen war zur Tatzeit im Salon.
Unter der Annahme, dass die Unschuldigen die Wahr-
heit gesagt haben, finde man den Täter bzw. die Täterin.
Verständnisfragen
1.7  Es seien A eine Menge und F eine Menge von
Teilmengen von A. Beweisen Sie die folgenden (allgemei-
1.1  Welche der folgenden Aussagen sind richtig?
neren) Regeln von De Morgan:
Für alle x 2 R gilt:
(a) „x > 1 ist hinreichend für x 2 > 1.“ 0 1
(b) „x > 1 ist notwendig für x 2 > 1.“ \ [
An@ BA D .A n B/ und
(c) „x  1 ist hinreichend für x 2 > 1.“
B2F B2F
(d) „x  1 ist notwendig für x 2 > 1.“ 0 1
[ \
1.2  Wie viele unterschiedliche binäre, also zwei An@ BA D .A n B/ :
Aussagen verknüpfende Junktoren gibt es? B2F B2F
Antworten zu den Selbstfragen
29 1
1.8  Es seien A, B Mengen, M1 ; M2  A, ferner 1.16  Auf einer Menge A seien zwei Äquivalenzrela-
N1 ; N2  B und f W A ! B eine Abbildung. Zeigen Sie: tionen  und  gegeben. Dann heißt  eine Vergröberung
(a) f .M1 [ M2 / D f .M1 / [ f .M2 /, von , wenn für alle x; y 2 A mit x  y auch x  y gilt.
(b) f 1 .N1 [ N2 / D f 1 .N1 / [ f 1 .N2 /, (a) Es sei  eine Vergröberung von . Geben Sie eine sur-
(c) f 1 .N1 \ N2 / D f 1 .N1 / \ f 1 .N2 /. jektive Abbildung

Gilt im Allgemeinen auch f .M1 \M2 / D f .M1 /\f .M2 /? f W A= ! A=
an.
1.9  Es seien A, B nichtleere Mengen und f W
(b) Für m; n 2 N sind durch
A ! B eine Abbildung. Zeigen Sie:
(a) f ist genau dann injektiv, wenn eine Abbildung g W x  y ” m j .x  y/
B ! A mit g ı f D idA existiert.
(b) f ist genau dann surjektiv, wenn eine Abbildung g W und
B ! A mit f ı g D idB existiert.
x  y ” n j .x  y/
1.10  Es seien A, B, C Mengen und f W A ! B,
Äquivalenzrelationen auf Z definiert.
g W B ! C Abbildungen. Bestimmen Sie zu n 2 N die Menge aller m 2 N,
(a) Zeigen Sie: Ist g ı f injektiv, so ist auch f injektiv. sodass  eine Vergröberung von  ist.
(b) Zeigen Sie: Ist g ı f surjektiv, so ist auch g surjektiv. (c) Geben Sie die Abbildung f aus Teil (a) für m D 3 und
(c) Geben Sie ein Beispiel an, in dem g ı f bijektiv, aber n D 6 explizit an, indem Sie für sämtliche Elemente
weder g injektiv noch f surjektiv ist. von Z= das Bild unter f angeben.
1.11  Es seien A, B Mengen und f W A ! B eine Ab- 1.17  Es sei  eine reflexive und transitive Relation auf
bildung. Die Potenzmengen von A bzw. B seien A bzw. B. einer Menge A. Zeigen Sie:
Wir betrachten die Abbildung g W B ! A, B 0 7! f 1 .B 0 /. (a) Durch
Zeigen Sie:
(a) Es ist f genau dann injektiv, wenn g surjektiv ist. x  y ” ..x; y/ 2  und .y; x/ 2 /
(b) Es ist f genau dann surjektiv, wenn g injektiv ist.
wird eine Äquivalenzrelation auf A definiert.
1.12  Begründen Sie die Bijektivität der Abbildung (b) Für x 2 A sei Œx 2 A= die Äquivalenzklasse von x
 bezüglich  . Durch
.1; 1/ ! R;
f W Œx  Œy ” .x; y/ 2 
x 7! 1x
x
2:

1.13  Geben Sie für die folgenden Relationen auf Z wird eine Ordnungsrelation auf A= definiert.
jeweils an, ob sie reflexiv, symmetrisch oder transitiv sind.
Welche der Relationen sind Äquivalenzrelationen?
(a) 1 D f.m; n/ 2 Z Z j m  ng,
Antworten zu den Selbstfragen
(b) 2 D f.m; n/ 2 Z Z j m  n > 0g [ f.0; 0/g,
(c) 3 D f.m; n/ 2 Z Z j m D 2ng, vAntwort 1.1
(d) 4 D f.m; n/ 2 Z Z j m  n C 1g, Offensichtlich ist A hinreichend für B; denn, wenn die
(e) 5 D f.m; n/ 2 Z Z j m  n  1g, Zahl durch 12 teilbar ist, ist sie sicher auch durch 3 teil-
(f) 6 D f.m; n/ 2 Z Z j m D 2g. bar. Also ist die Implikation A ) B wahr. Das bedeutet
gleichzeitig, dass B eine notwendige Bedingung für A ist.
1.14  Wo steckt der Fehler in der folgenden Argumen- Genauso ist A hinreichend für C und somit C not-
tation? wendig für A. Bei der Beziehung zwischen B und C
Ist  eine symmetrische und transitive Relation auf ei- beobachten wir, dass B sowohl notwendig als auch hin-
ner Menge M , so folgt für a; b 2 M mit a  b wegen der reichend für C ist. Diese Beziehung zwischen Aussagen
Symmetrie auch b  a. Wegen der Transitivität folgt aus wird äquivalent genannt, wie wir noch sehen werden.
a  b und b  a auch a  a. Die Relation  ist also eine
Äquivalenzrelation. vAntwort 1.2
A B A,B A)B B)A .A ) B/
1.15  Zeigen Sie, dass die folgenden Relationen Äqui-
^ .B ) A/
valenzrelationen auf A sind. Bestimmen Sie jeweils die
w w w w w w
Äquivalenzklassen von .2; 2/ und .2; 2/.
w f f f w f
(a) A D R2 , .a; b/  .c; d / ” a2 C b 2 D c 2 C d 2 .
f w f w f f
(b) A D R2 , .a; b/  .c; d / ” a  b D c  d .
f f w w w w
(c) A D R2 n f.0; 0/g, .a; b/  .c; d / ” a  d D b  c.
30 Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

v Antwort 1.3 vAntwort 1.7


1 Es gilt Aus f .n/ D f .m/ folgt n  1 D m  1 und somit n D m.
Damit ist f injektiv. Ist n 2 N beliebig, so gilt mit nC1 2
A  B , 8x 2 A W x 2 B N offenbar f .n C 1/ D n. Damit ist f auch surjektiv.
Schließlich ist f bijektiv.
und
vAntwort 1.8
A ¤ B , .8 x 2 A W x 2 B/ ^ .9 y 2 B W y … A/ : Der Graph Gf einer Abbildung f ist eine linkstotale Re-
lation, da es zu jedem x 2 X ein y 2 Y mit .x; y/ 2 Gf
gibt – das x steht links. Der Graph ist rechtseindeutig, da
v Antwort 1.4
es zu jedem x 2 X genau ein y 2 Y mit .x; y/ 2 f gibt
Es sind jeweils die zwei Implikationen ) und ( zu zei-
– das y steht rechts.
gen. Beim Nachweis von ) wird die Aussage links davon
Bei einer injektiven Abbildung f ist für jedes y 2 Y
vorausgesetzt und die Aussage rechts davon begründet,
das x 2 X mit .x; y/ 2 Gf eindeutig bestimmt – das x
bei Nachweis von ( ist es genau umgekehrt:
steht links. Bei einer surjektiven Abbildung f gibt es zu
(i) ): A [ B D fx j x 2 A _ x 2 Bg D fx j x 2 Bg D B.
jedem y 2 Y ein x 2 X mit .x; y/ 2 Gf – das y steht
(: x 2 A ) x 2 B.
rechts.
(ii) ): A \ B D fx j x 2 A ^ x 2 Bg D fx j x 2 Ag D A.
(: x 2 A ) x 2 B.
vAntwort 1.9
(iii) ): A n B D fx j x 2 A ^ x … Bg D ;.
Nein, z. B. sind die beiden natürlichen Zahlen 3 und 7
(: x 2 A ) x 2 B.
nicht miteinander vergleichbar, es gilt weder 3 j 7 noch
7 j 3.
v Antwort 1.5
Ist X D fx1 ; : : : ; xn g, so gilt für jedes f 2 Y X vAntwort 1.10
Jeder Mensch hat genauso viele Kopfhaare wie er selbst,
f D f.x1 ; f .x1 // : : : ; .xn ; f .xn //g : d. h., m  m für jedes m 2 M . Und wenn m1 genau-
so viele Kopfhaare wie m2 hat, so hat m2 genauso viele
Für jedes f .xi / hat man jY j viele Möglichkeiten, damit wie m1 , d. h. m1  m2 ) m2  m1 . Analog begründet
gibt es genau jY jn verschiedene Abbildungen f von X man m1  m2 und m2  m3 impliziert m1  m3 . In der
in Y . Äquivalenzklasse

v Antwort 1.6 Œm D fn 2 M j m  ng


Z. B. f W R ! R, f .x/ D x 2 . Die Restriktion f jR 0
der Funktion f auf die nichtnegativen reellen Zahlen hat liegen all jene Menschen, die gleich viele Kopfhaare ha-
dasselbe Bild wie f . ben wie m.
31 2

Algebraische Strukturen – ein


Blick hinter die Rechenregeln

Inhaltsverzeichnis

2.1 Gruppen – 32

2.2 Homomorphismen – 39

2.3 Körper – 46

2.4 Ringe – 51

Aufgaben – 62

Antworten zu den Selbstfragen – 63

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_2
32 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

n Sie finden unter anderem Antworten zu . . . Addition und Subtraktion sind Beispiele
4 Was bedeuten Gruppen, Ringe und Körper in der Ma- einer Verknüpfung
thematik?
2 4 Was versteht man unter der Symmetriegruppe eines
Ornaments? Bei den ersten drei Beispielen wenden wir eine Rechen-
4 Was ist ein Polynom? operation, die Addition, Subtraktion oder Multiplikation,
auf zwei Ausdrücke an und erhalten einen eindeutigen Aus-
Die Tätigkeit, die umgangssprachlich mit „Rechnen“ be- druck derselben Art wie die Ausgangswerte. Im Sinne von
zeichnet wird, ist ein zielorientiertes Hantieren mit Sym- 7 Kap. 1 liegt eine Abbildung von Elementepaaren auf ein
bolen und mit Regeln, die man einfach weiß, ohne sie einzelnes Element vor. Die Division schieben wir vorerst
immer extra aufzulisten. Im Rahmen der Schulmathematik beiseite, denn das „Ergebnis“ ist schließlich ein Bruch, also
sind die Symbole Zahlen, Unbestimmte, aber auch Mengen von anderer Art als die Eingangselemente.
oder Funktionen. Auch die Rechenoperationen wie Additi- Wir verallgemeinern: Weil das Operationssymbol alles
on, Subtraktion, Multiplikation, Vereinigung, Durchschnitt, mögliche bedeuten kann, schreiben wir dafür , ohne zu er-
Differentiation und Integration werden durch Symbole aus- klären, was damit gemeint ist. Wir legen uns auch nicht fest,
gedrückt. worauf wir die Operation anwenden; wir sprechen in der
In diesem Kapitel wollen wir genauer klären, was man folgenden Definition lediglich von den Elementen a; b ei-
eigentlich klarstellen sollte, bevor man mit dem „Rechnen“ ner Menge. Bei dieser Allgemeinheit können wir natürlich
beginnt. Ganz im Sinne des Bestrebens der Mathematik, nichts über das Ergebnis der Operation sagen. Wir wissen
das Gemeinsame bei verschiedenartigen Problemstellun- nur, dass es eindeutig ist und bezeichnen es mit dem Sym-
gen aufzudecken und damit zu abstrahieren, werden wir bol a b.
gewisse Grundeigenschaften von Rechenoperationen ken-
nenlernen. Dabei unterscheiden wir diese nicht nach den
Objekten, auf welche diese Operationen anzuwenden sind, Definition einer Verknüpfung
sondern einzig nach den Regeln, welche für diese Ope- Ist M eine nichtleere Menge, so heißt eine Abbildung
rationen gelten. Nur so ist der Blick auf das Wesentliche (
möglich. M M ! M;
W
Zudem werden wir einzelne, häufig auftretende Grund- .a; b/ 7! a b
typen algebraischer Strukturen kennenlernen, in welchen
gewisse Regeln gleichzeitig erfüllt sein müssen. Dazu ge- Verknüpfung auf M .
hören jedenfalls die Gruppen, Ringe und Körper, aber noch
viele andere, die in diesem Rahmen außer Acht bleiben.
Wir bauen im Folgenden auf einfachen Kenntnissen der Beispiel
Schulmathematik auf und nutzen die Grundbegriffe und lo- 4 Die Addition zweier ganzer Zahlen a; b zu a C b sowie
gischen Schlussweisen aus 7 Kap. 1. Bei den reellen und deren Multiplikation zu a  b, aber auch die Subtraktion
komplexen Zahlen legen wir unser Hauptaugenmerk auf zu a  b sind Verknüpfungen auf Z.
deren algebraische Eigenschaften. Wir werden aber nicht 4 Ebenso stellen die Addition zweier reeller Zahlentripel
nur mit Zahlen „rechnen“, sondern auch Mengen oder Ab- gemäß
bildungen miteinander „multiplizieren“. Diese Stufe der
Abstraktion stellt für Studienanfänger eine klare Hürde dar, .a1 ; a2 ; a3 / C .b1 ; b2 ; b3 / D .a1 C b1 ; a2 C b2 ; a3 C b3 /
ist aber unumgänglich für ein tieferes mathematisches Ver-
oder auch die Bildung des Vektorprodukts
ständnis.
.a1 ; a2 ; a3 / .b1 ; b2 ; b3 /
2.1 Gruppen D .a2 b3  a3 b2 ; a3 b1  a1 b3 ; a1 b2  a2 b1 /

Verknüpfungen auf R3 dar.


Werden zwei Geldbeträge addiert, so ist das Ergebnis wohl- 4 Für je zwei Mengen M1 ; M2 sind die Mengen M1 \M2 ,
bestimmt und wieder ein Geldbetrag. Dasselbe gilt, wenn M1 [ M2 und M1 n M2 wohldefiniert. Handelt es sich
wir von dem ersten Geldbetrag den zweiten subtrahieren, bei M1 und M2 um Teilmengen einer Menge G, so sind
Wir können andererseits .a C b/ mit .a  b/ multiplizie- auch M1 \ M2 , M1 [ M2 und M1 n M2 Teilmengen von
ren und für das Produkt .a2  b 2 / schreiben. Dagegen steht G. Somit bedeuten \, [ und n Verknüpfungen auf der
uns für das Ergebnis der Division .a C b/ W .a  b/ kein Potenzmenge P .G/ (siehe 7 Kap. 1). 9
neuer Ausdruck zur Verfügung; wir können das Ergebnis
höchstens noch als Bruch aCb
ab
darstellen; aber „ausgerech- Das Ergebnis einer Verknüpfung auf M ist wiederum ein
net“ haben wir dabei eigentlich nichts. Element von M . Die Verknüpfung führt also nicht aus der
Was ist das Gemeinsame dieser verschiedenen Opera- Menge heraus. Wir sagen: M ist abgeschlossen gegenüber
tionen? der Verknüpfung .
2.1  Gruppen
33 2

? Selbstfrage 2.1 ?Selbstfrage 2.2


Welche der folgenden Operationen stellt eine Verknüp- Wir betrachten auf der Menge P .M / aller Teilmengen
fung auf der Menge N der natürlichen Zahlen dar: Ad- von M D f1; 2; 3g die Verknüpfungen \, [ und n. Wel-
dition, Subtraktion, Multiplikation, Division? che sind assoziativ? Für welche existiert ein linksneutrales
Element? Gibt es linksinverse Elemente?
In der obigen Definition einer Verknüpfung wird nicht
verlangt, dass das Ergebnis a b von der Reihenfolge un- Beispiel
abhängig ist – im Gegenteil, M M ist ja die Menge der 4 Offensichtlich ist .Z; C/ eine kommutative Gruppe.
geordneten Paare und daher .a; b/ ¤ .b; a/, sofern a ¤ b Dabei ist 0 linksneutral, denn 0 C a D a, und 0 ist das
ist. Die Subtraktion ganzer Zahlen ist offensichtlich ein einzige Element mit dieser Eigenschaft. Das zu a links-
Beispiel einer Verknüpfung, bei der die Reihenfolge we- inverse Element ist a, denn .a/Ca D 0. .N; C/ und
sentlich ist. Wir werden dies als Normalfall betrachten und .N0 ; C/ sind keine Gruppen, denn es fehlen die inver-
verstehen a b D b a als Zusatzbedingung. sen Elemente.
Ist eine Verknüpfung auf der Menge M , so gilt für 4 .Q; / ist keine Gruppe. Zwar gibt es das linksneutrale
a; b; c 2 M : Element 1, und etwa zu 2 gibt es das Linksinverse 12 ,
a D b H) a c D b c und c a D c b : (2.1) denn 12  2 D 1. Aber es gibt kein linksinverses Element
zu 0, also keine rationale Zahl a mit a  0 D 1. Jedoch
Beweis: a c bezeichnet das Bild des Paares .a; c/ unter ist .Q n f0g; / eine Gruppe, und ebenso ist .R n f0g; /
der Abbildung W .M M / ! M . Im Falle der Gleichheit eine kommutative Gruppe. 9
a D b gilt .a; c/ D .b; c/; also müssen auch deren Bil-
der übereinstimmen. Aus demselben Grund hat a D b die In den bisher vorgestellten Beispielen war das neutrale
Gleichheit der Paare .c; a/ D .c; b/ zur Folge und weiter Element eindeutig. Auch waren die Gruppen kommutativ,
c a D c b. und natürlich ist dann ein linksneutrales Element zugleich
Wir können (2.1) auf folgende Weise in Worte fassen: rechtsneutral, d. h., a e D a, und das linksinverse Element
Die in einer Gleichung ausgedrückte Übereinstimmung a0 zu a ist auch rechtsinvers, d. h., a a0 D e. Der folgen-
zwischen der linken und der rechten Seite bleibt bestehen, de Satz wird zeigen, dass dies nicht nur auf kommutative
wenn man beide Seiten von rechts mit demselben Element Gruppen beschränkt bleibt, sondern allgemein der Fall ist.
verknüpft. Dasselbe gilt für eine Verknüpfung von links. Man hätte demnach so wie in manchen Lehrbüchern im
Axiom (G2) gleich die Existenz eines einzigen neutralen
Elementes fordern können sowie in (G3) zu jedem Element
Gruppen sind durch drei Axiome a die Existenz eines links- und gleichzeitig rechtsinversen
gekennzeichnet Elements. Es ist aber das Bestreben in der Mathematik, in
den Definitionen möglichst wenig zu fordern. Deshalb wird
Je nach Art der Regeln, die für eine Menge M mit einer hier der Mehraufwand in Form des folgenden Satzes samt
Verknüpfung gelten, lassen sich verschiedene Begriffe de- zugehörigem Beweis in Kauf genommen.
finieren. Wir beginnen mit einem, der in unterschiedlichsten
Bereichen der Mathematik auftritt und dessen Rechenregeln
uns vom Rechnen mit Zahlen sehr vertraut sind. Satz vom neutralen und vom inversen Element
In jeder Gruppe .G; / gibt es genau ein neutrales Ele-
ment e mit e x D x e D x für alle x 2 G.
Definition einer Gruppe Ferner gibt es zu jedem a 2 G genau ein inverses
Die Menge G mit der Verknüpfung heißt Gruppe, wenn Element a1 mit der Eigenschaft
die folgenden Eigenschaften erfüllt sind:
(G1) Für alle a; b; c 2 G gilt: .a b/ c D a .b c/, a a1 D a1 a D e:
d. h., die Verknüpfung ist assoziativ.
(G2) Es existiert ein linksneutrales Element e 2 G mit Das inverse Element a1 ist somit gleichzeitig links- und
e a D a für alle a 2 G. rechtsinvers.
(G3) Zu jedem a 2 G existiert ein hinsichtlich e linksin-
verses Element a0 2 G mit a0 a D e.
Beweis Wir zeigen dies in vier Schritten, indem wir jeweils
Wir sprechen kurz von der Gruppe .G; /. ein wichtiges Zwischenergebnis formulieren und dann be-
Gilt stets a b D b a, so heißt die Gruppe kommuta- gründen:
tiv oder abelsch – nach dem norwegischen Mathematiker (i) In einer Gruppe ist das hinsichtlich e zu a links-
Niels H. Abel (1802–1829). inverse Element a0 zugleich rechtsinvers. Somit gilt auch
a a0 D e.
34 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Beweis: Nach der Definition einer Gruppe gibt es zu a ?Selbstfrage 2.3


ein a0 mit a0 a D e und ferner zu a0 ein a00 mit a00 a0 D e. Wie lässt sich die zweite Kürzungsregel beweisen?
Folglich gilt nach den einzelnen Punkten der Gruppendefi-
Mithilfe der Kürzungsregeln (2.2) erkennen wir z. B.
2 nition
.G3/ .G2/ .G3/ a b D a H) b D e sowie a b D b H) a D e:
e D a00 a0 D a00 .e a0 / D a00 ..a0 a/ a0 /
.G1/ .G3/ .G2/ ?Selbstfrage 2.4
D .a00 a0 / .a a0 / D e .a a0 / D a a0 : Warum gilt in einer Gruppe .G; / stets .y 1 /1 D y für
y 2 G?
(ii) Das linksneutrale Element e ist zugleich rechtsneu-
tral, daher stets auch a e D a. Die bisher vorgestellten Regeln für Gruppen wirken ver-
Beweis: Es ist traut; man kennt sie alle aus der Schulmathematik. Nur bei
der Reihenfolge muss man achtgeben; man darf die Reihen-
.G3/ .G1/ .i/ .G2/
a e D a .a0 a/ D .a a0 / a D e a D a: folge bei der Verknüpfung nicht ohne Weiteres vertauschen.
Dies gilt z. B. auch bei der folgenden, in allen Gruppen gül-
Nun fehlt noch der Nachweis der Eindeutigkeit sowohl von tigen Formel:
e als auch von a1 . .a b/1 D b 1 a1 : (2.3)
(iii) In einer Gruppe ist das neutrale Element e eindeutig
bestimmt. Der Hinweis „hinsichtlich e“ bei den inversen ?Selbstfrage 2.5
Elementen kann somit entfallen. Wie kann (2.3) bewiesen werden?
Beweis: Angenommen, e 0 ist ebenfalls ein neutrales
Element. Dann gilt: Gruppen sind in vielen Bereichen der Mathematik anzutref-
fen. Wir beginnen mit den geläufigen Beispielen:
.ii/ .G2/
eDe e0 D e0 : Beispiel
4 Es wurde bereits gezeigt, dass die ganzen Zahlen Z hin-
Somit ist e eindeutig bestimmt. sichtlich der Addition eine kommutative Gruppe bilden
(iv) In einer Gruppe ist das inverse Element a0 zu a 2 G mit 0 als neutralem Element und .x/ als inversem
eindeutig bestimmt. Element zu x. Dasselbe gilt für die Gruppen .Q; C/,
Beweis: Angenommen, a00 ist ebenfalls ein inverses Ele- .R; C/ und .C; C/.
ment zu a. Dann gilt: Die oben vorgestellte elementweise Addition reeller
Zahlentripel ergibt die Gruppe .R3 ; C/ mit dem neu-
0 .ii/ 0 .i/ 0 00 .G1/ 0 00 .G3/ 00
a D a e D a .a a / D .a a/ a D a : tralen Element .0; 0; 0/. Natürlich gibt es die analogen
Gruppen .Rn ; C/ und .C n ; C/, n 2 N.
0
Somit ist a eindeutig bestimmt. 4 Neben den additiven Gruppen gibt es die multiplikati-
Damit ist nun aber der oben aufgestellte Satz vom neu- ven .Q n f0g; /, .R n f0g; / und .C n f0g; /. Sie sind
tralen und inversen Element vollständig bewiesen.  ebenfalls kommutativ; das neutrale Element ist 1, und
1=x ist invers zu x. Wir schreiben statt x  y 1 einfa-
Wir bezeichnen von nun an das eindeutig bestimmte Inverse cher yx . Übrigens, in nicht kommutativen Gruppen wäre
1 diese Bruchdarstellung nicht sinnvoll, denn man könnte
von a mit a , sofern die Verknüpfung keine Addition ist.
Bei einer additiven Verknüpfung schreiben wir a für das nicht zwischen x y 1 und y 1 x unterscheiden.
zu a inverse Element. Wir halten weiterhin fest: 4 Die bereits erklärte Verknüpfung zweier Zahlentripel zu
dem Vektorprodukt ergibt hingegen keine Gruppe, denn
„ “ ist nicht assoziativ. Dies zeigt das folgende Beispiel
Die Kürzungsregeln
mit e 1 D .1; 0; 0/, e 2 D .0; 1; 0/ und e 3 D .0; 0; 1/:
In Gruppen gelten die beiden Kürzungsregeln: .e 1 e 1 / e 2 D .0; 0; 0/; hingegen
e 1 .e 1 e 2 / D e 1 e 3 D .0; 1; 0/:
a bDa c H) b D c;
(2.2)
b aDc a H) b D c: Hier gibt es übrigens auch kein neutrales Element, also
kein Tripel e mit e .x1 ; x2 ; x3 / D .x1 ; x2 ; x3 / für alle
.x1 ; x2 ; x3 / 2 R3 . 9

Beweis Wir verknüpfen beide Seiten der Gleichung a b D Handelt es sich bei der Gruppenverknüpfung nicht aus-
a c von links mit dem Inversen a1 von a. Dann folgt mit drücklich um eine Addition, so spricht man gerne neutral
(2.1) a1 .a b/ D a1 .a c/ und weiter wegen der von der Gruppenmultiplikation und nennt das Ergebnis
Assoziativität e b D e c, also b D c.  auch Produkt.
2.1  Gruppen
35 2
Die bijektiven Abbildungen einer Menge und die Spalte links vom Doppelstrich auch weggelassen
auf sich bilden eine Gruppe werden, nachdem die dort aufgelisteten Faktoren bei Multi-
plikation mit dem neutralen Element e erneut als Produkte
auftreten. Der verbleibende und hier gelb schattierte Teil
Eine neue Art von Verknüpfung tritt in dem folgenden der Tabelle rechts vom vertikalen und unter dem horizonta-
Beispiel auf, und diesmal handelt es sich um eine nicht len Doppelstrich heißt Gruppentafel von G.
kommutative Gruppe:
G sei die Menge der bijektiven Abbildungen einer Men- ı e f g h i j
ge M auf sich, also der Permutationen von M . Wie e e f g h i j
gewohnt, bezeichnet das Symbol ı die Hintereinanderaus-
f f e
führung. Damit ist ı eine Verknüpfung auf G, denn sind f
g g e h
und g zwei Bijektionen von M , so gilt
h h e
f g i i f j e
g ı f W x 7! f .x/ 7! g ı f .x/ D g .f .x// für x 2 M;
j j e i
und g ı f ist wieder bijektiv. Wir zeigen, dass .G; ı/ eine
Gruppe ist, die Permutationsgruppe von M . Absichtlich sind in dieser Gruppentafel noch einige Felder
4 Die Verknüpfung ı ist assoziativ, denn bei f; g; h 2 G frei gelassen worden, um Sie zu aktiver Mitarbeit anzure-
ist gen:
Jedes der 6 Elemente e; : : : ; j muss in jeder Spalte und
g ı f W x 7! g.f .x//; h ı .g ı f /W x 7! h.g.f .x///; in jeder Zeile der Gruppentafel genau einmal vorkommen,
h ı gW x 7! h.g.x//; .h ı g/ ı f W x 7! h.g.f .x///: denn aus den Kürzungsregeln (2.2) folgt

Dies gilt nicht nur für Bijektionen, sondern für alle hin- .a ı c D b ı c oder c ı a D c ı b/ H) a D b:
tereinander ausführbaren Abbildungen, wie bereits in
7 Kap. 1 festgestellt worden ist. Dass die Permuationsgruppe .G; ı/ von M nicht kommu-
4 Neutrales Element ist die identische Abbildung tativ ist, zeigt ein Vergleich der Produkte
idM W x 7! x für alle x 2 M .
4 Zu jeder Bijektion f von M existiert nach
g ı iW 1 7! 2; 2 7! 1; 3 7! 3; g ı i D h;
7 Abschn. 1.3 die Umkehrabbildung f 1 2 G mit also
1
f ı f D idM . i ı gW 1 !
7 1; 2 !
7 3; 3 !
7 2; i ı g D f:

Somit gilt:
Satz von der Permutationsgruppe
Die bijektiven Abbildungen einer nichtleeren Menge M g ı i ¤ i ı g:
auf sich bilden hinsichtlich der Hintereinanderausführung
ı eine Gruppe, die Permutationsgruppe von M . Die Bijektion i rückt jede Zahl zyklisch um 1 weiter; zy-
klisch heißt 1 7! 2 7! 3 7! 1. Damit wird klar, warum
i 1 D j ist, denn j macht dasselbe in der entgegengesetz-
ten Richtung.
Nun sei M D f1; 2; 3g: Dann umfasst die Permutations-
Die Gruppe der Permutationen einer Menge von n
gruppe G von M die folgenden Bijektionen:
Elementen heißt symmetrische Gruppe und wird üblicher-
eW 1 7! 1; 2 7! 2; 3 7! 3; weise mit Sn bezeichnet. Demnach behandeln wir in diesem
Beispiel die symmetrische Gruppe S3 .
fW 1 7! 1; 2 7! 3; 3 7! 2;
gW 1 7! 3; 2 7! 2; 3 7! 1; ?Selbstfrage 2.6
hW 1 7! 2; 2 7! 1; 3 7! 3; Ergänzen Sie in der obigen Gruppentafel die fehlenden
iW 1 7! 2; 2 7! 3; 3 7! 1; Elemente.
jW 1 7! 3; 2 7! 1; 3 7! 2:
Bei einer genaueren Analyse der obigen Gruppentafel kann
Offensichtlich ist e D idM . Jede der Bijektionen f; g; h bil- man feststellen, dass die Teilmenge fi; j; eg abgeschlossen
det genau ein Element von M auf sich ab, d. h. lässt dieses ist unter ı, denn die Produkte i ı i D j , i ı j D j ı i D e
fix. Es ist f .1/ D 1, g.2/ D 2 und h.3/ D 3. und j ı j D i wie auch alle jene mit e haben als Ergebnis
Wie die durch Hintereinanderausführung entstehenden wieder ein Element aus dieser Teilmenge. Diese Teilmenge
Produkte aussehen, zeigt in übersichtlicher Form die fol- von nur 3 Permutationen bildet für sich eine Gruppe. Dafür
gende Tabelle. Offensichtlich könnten die oberste Zeile gibt es ein Fachwort:
36 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Untergruppen sind Teilmengen einer Nun wenden wir uns einigen Beispielen von Untergruppen
Gruppe, die selbst wieder Gruppen sind zu:

2 Beispiel
Ist .G; / eine Gruppe, und hat eine Teilmenge H von G 4 Jede Gruppe .G; / mit neutralem Element e enthält die
die Eigenschaft, hinsichtlich der von G stammenden Ver- Untergruppen feg und G. Man nennt diese Untergrup-
knüpfung eine Gruppe zu sein, so heißt H Untergruppe pen die trivialen Untergruppen von G. Wenn wir von
von G. einer echten Untergruppe H sprechen, so meinen wir
Wir verwenden für die Verknüpfung auf H einfach- damit, dass H keine triviale Untergruppe von G ist. Da-
heitshalber dasselbe Symbol wie in G, sprechen also von mit ist H sicherlich eine echte Teilmenge von G.
der Gruppe .H; /, obwohl mit der „von G stammenden 4 Offensichtlich ist in der Folge der Gruppen .Z; C/,
Verknüpfung“ eigentlich die Abbildung 0 W H H ! H .Q; C/, .R; C/ und .C; C/ jede eine echte Untergruppe
mit .x; y/ 7! x 0 y D x y gemeint ist. der folgenden. Dasselbe trifft auf die Folge .Q n f0g; /,
Hat man festzustellen, ob eine gegebene Teilmenge H .R n f0g; / und .C n f0g; / zu. Da das Produkt zweier
eine Untergruppe der Gruppe .G; / ist, so müssen nicht positiver Zahlen und auch der Kehrwert einer positiven
alle Gruppenaxiome überprüft werden. Das folgende Krite- Zahl stets wieder positiv sind, ist .R>0 ; / eine echte Un-
rium zeigt, dass es ausreicht, in H die Abgeschlossenheit tergruppe von .R n f0g; /.
gegenüber und die Existenz der inversen Elemente nach- 4 Es sei .G; ı/ die Gruppe der Permutationen einer Men-
zuweisen. ge M und N  M eine Teilmenge von M . Mit H
bezeichnen wir die Menge derjenigen Bijektionen f 2
G, welche die Teilmenge N von M auf sich abbilden,
Untergruppenkriterium für die also f .N / D N gilt. Dann ist H eine Unter-
Sind .G; / eine Gruppe und H eine Teilmenge von G, so gruppe von G.
ist H dann und nur dann eine Untergruppe von G, wenn Beweis mithilfe des Untergruppenkriteriums:
gilt: Zu (U1): H ist nichtleer, weil die identische Abbildung
(U1) H ist nicht die leere Menge. idM jedenfalls N fix lässt, also zu H gehört.
(U2) Für alle x 2 H ist zugleich x 1 2 H . Zu (U2): Bildet die Bijektion f 2 G die Teilmenge
(U3) Aus x; y 2 H folgt stets .x y/ 2 H . N auf sich ab, ist also auch ihre Einschränkung auf N
bijektiv, so trifft dasselbe auf die Umkehrabbildung f 1
zu. Also liegt auch f 1 in H .
Beweis Die Formulierung „dann und nur dann“ erfordert, Zu (U3): Wenn schließlich neben f auch g die Teilmen-
dass wir zweierlei zeigen müssen: ge N auf sich abbildet, so tut dies auch g ı f .
(i) Ist H eine Untergruppe, so gelten die im Untergruppen- So können wir z. B. in dem oben bereits diskutierten
kriterium geforderten Aussagen (U1), (U2) und (U3). Sonderfall M D f1; 2; 3g anhand der dargestellten
(ii) Treffen umgekehrt diese drei Aussagen zu, so ist H eine Gruppentafel sofort erkennen, dass fe; f g eine Unter-
Untergruppe von G, also .H; / eine Gruppe. gruppe von .G; ı/ ist, denn e und f sind die einzigen
Permutationen von M , die das Element 1 fix lassen.
Zu (i): Nach (G2) muss H ein neutrales Element enthalten; Ebenso sind fe; gg und fe; hg Untergruppen. 9
also ist H nichtleer und damit (U1) bestätigt.
Als Gruppe enthält H gemäß (G3) mit jedem Element Weitere Beispiele von Untergruppen folgen in der Box zur
a auch das Inverse a1 . Somit ist auch (U2) erfüllt. Symmetriegruppe eines Ornaments. Dort geht es um bijek-
Nachdem .H; / eine Gruppe ist, muss nach der Defi- tive Selbstabbildungen unendlicher Punktmengen.
nition einer Verknüpfung mit x; y 2 H auch stets x y in Wir zeigen im Folgenden, dass jede Untergruppe H von
H liegen. Also gilt (U3).
.G; / Anlass für eine Äquivalenzrelation H auf der Men-
Zu (ii): Wegen (U3) ist H bezüglich der von G stam-
ge G ist. Wir definieren
menden Verknüpfung abgeschlossen. Also liegt eine
Verknüpfung auf H vor.
g2 H g1 ” g11 g2 2 H:
Die Verknüpfung auf H ist assoziativ, denn dies ist in
ganz G garantiert.
Wegen der Forderung H ¤ ; in (U1) gibt es mindes- Offensichtlich 1 ist g2 genau dann hinsichtlich H äquivalent
tens ein Element a 2 H . Nach (U2) liegt das Inverse a 1 zu g1 , wenn g1 g2 D h, also g2 D g1 h ist mit einem
1
in H und wegen (U3) auch das Produkt a a D e. Also h 2 H . Die Menge der zu g1 äquivalenten Elemente lautet
gibt es in H ein neutrales Element. also
Das letzte Gruppenaxiom (G3) ist schließlich mit der
Forderung (U2) identisch.  g1 H D f.g1 h/ j h 2 H g:
2.1  Gruppen
37 2
Dass die Relation H auf G tatsächlich reflexiv, symme- Wir wollen zunächst nur die Zahl 3 2 R herausgreifen
trisch und transitiv ist, ergibt sich nun einfach aus den und auf diese wiederholt und in beliebiger Reihenfolge die
Untergruppeneigenschaften von H . Damit sind die Men- beiden Operationen r und s anwenden. Es wird sich heraus-
gen g H für g 2 G Äquivalenzklassen. Wir nennen sie stellen, dass lediglich 6 verschiedene Werte als Ergebnisse
Linksnebenklassen von H . Auch H D e H gehört dazu. auftreten:
Alle Linksnebenklassen sind gleichmächtig, denn die Durch Anwendung von r entsteht aus 3 der Kehrwert
Abbildung r.3/ D 13 ; durch s geht 3 in s.3/ D 1  3 D 2 über. Wenn
wir auf die neuen Werte wiederum r oder s anwenden, so
H ! g H mit h 7! g h entstehen 1  13 D 23 und  12 , oder wir kehren zum Aus-
gangswert 3 zurück. Ferner ist r. 32 / D 32 , und ebenso ist
ist eine Bijektion. Nachdem die Linksnebenklassen als
s. 12 / D 32 . Weder r, noch s führen 32 in Werte über, die
Äquivalenzklassen zu einer Partition von G führen (sie-
bisher noch nicht aufgetreten sind. Also bleibt es bei der
he 7 Kap. 1), also jedes Element von G in genau einer
Menge der Bilder:
Linksnebenklasse vorkommt, erhalten wir im Falle endli-
cher Gruppen die Anzahl jGj der Elemente von G, wenn  
1 2 1 3
wir jH j mit der Anzahl der Linksnebenklassen von H in 3; ; 2; ;  ; :
3 3 2 2
G multiplizieren. Damit haben wir das folgende Resultat
hergeleitet. Wir werden erkennen, dass es auch für andere x 2 R nie
mehr als sechs verschiedene Bilder gibt. Hinter diesem Phä-
nomen steckt nämlich eine nur sechs Elemente umfassende
Satz von Lagrange: Untergruppe H , welche trotzdem alle möglichen Produkte
Ist H Untergruppe der endlichen Gruppe G, so ist die An- der Bijektionen r und s enthält.
zahl jH j der Elemente von H ein Teiler von jGj. Nach (U3) enthält H neben r und s auch

r 1 r 1
r ı rW x 7! 7! 1 D x;
Wenn wir unsere Relation abwandeln zu x x

g2 H g1 ” g2 g11 2 H; also r ı r D e mit e als identischer Abbildung, und ebenso


s s
so entsteht erneut eine Äquivalenzrelation. Diesmal fungie- s ı sW x 7! 1  x 7! 1  .1  x/ D x:
ren die Rechtsnebenklassen H g als Äquivalenzklassen.
Damit gilt r 1 D r und s 1 D s. Abbildungen, die die-
se Eigenschaft erfüllen und von der identischen Abbildung
Gruppen lassen sich oft aus gewissen verschieden sind, heißen übrigens selbstinvers oder involu-
Grundelementen erzeugen torisch.
Der Untergruppe H müssen aber auch die Produkte
Am Ende dieses Abschnitts wenden wir uns einem Beispiel 1 x 1 1
zu, das deshalb etwas schwerer zu verstehen ist, weil die s ı rW x 7! 1  D und r ı sW x 7!
x x 1x
Elemente der Gruppe Bijektionen einer unendlichen Men-
ge sind. Das Beispiel ist allerdings recht instruktiv, weil es angehören. Dabei ist nach (2.3)
künftige Begriffe wie Erzeugendensystem und Isomorphie
vorbereitet. .r ı s/1 D s 1 ı r 1 D s ı r:

Beispiel Ausgangspunkt ist die Gruppe .G; ı/ mit G als Nun fehlen noch r ı s ı r und s ı r ı s. Die beiden sind
Menge der Bijektionen von R n f0; 1g auf sich. Allerdings gleich, denn
beschränken wir uns auf diejenigen Bijektionen, welche aus
den folgenden zwei Abbildungen zusammensetzbar sind: sır x  1 r x
r ı .s ı r/W x 7! 7! ;
x x1
1 rıs 1 s 1 x
rW x 7! und sW x 7! 1  xI s ı .r ı s/W x 7! 7! 1  D :
x 1x 1x x1
r bedeutet den Übergang zum Reziprokwert; hier muss Auch r ı s ı r D s ı r ı s ist involutorisch, denn nach
x D 0 ausgeschlossen werden. s kann als Spiegelung an zweimaliger Anwendung von (2.3) folgt:
x D 12 bezeichnet werden; hier muss x D 1 ausgeschlos-
sen werden, weil dessen Bild x D 0 fehlt. .r ı s ı r/1 D r 1 ı s 1 ı r 1 D r ı s ı r:
38 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Hintergrund und Ausblick: Symmetriegruppe eines Ornaments aus der Alhambra

Welche Bewegungen bringen das unten links ausschnittsweise Betrachten wir nun einen größeren Ausschnitt F1 des Or-
gezeigte Ornament F mit sich zur Deckung? naments; nehmen wir zur quadratischen Figur F0 auch noch
2 Wir verzichten hier auf die genaue Definition des Begriffs die davon ausgehenden Linien dazu (siehe Abbildung rechts
Bewegung; diese folgt in 7 Kap. 5. Uns genügt die folgende unten). Für F1 sind die Spiegelungen keine Symmetrieopera-
anschauliche Vorstellung: Wir kopieren das Ornament F auf tionen mehr. Die Symmetriegruppe umfasst in diesem Fall nur
eine Folie und versuchen, diese auf verschiedene Arten derart mehr Drehungen. Wir sagen, die Quadratmitte ist ein vierzäh-
über das Original zu legen, dass die Kopie des Ornaments ge- liges Drehzentrum.
nau das darunterliegende Ornament F überdeckt. Ausgehend
von der randgetreuen Lage kann beispielsweise durch eine ge-
eignete Verschiebung der Kopie nach rechts eine neuerliche
Überdeckung der Ornamente erreicht werden. Übrigens darf
die Folie auch umgedreht werden.

Mit jeder deckungsgleichen Position ist eine Abbildung der


Punkte des Originals F auf die jeweils darüberliegenden
Punkte der Kopie verbunden. Wenn wir die Kopie als mit dem
Original identisch auffassen und deren Trägerebene als R2
interpretieren, so liegt jeweils eine bijektive Punktabbildung
R2 ! R2 vor, und diese nennen wir eine Deckbewegung des Nun kehren wir zurück zu dem kompletten Ornament F .
Ornaments F . Die vorhin als Beispiel erwähnte Verschiebung Offensichtlich bringen die Drehungen durch ganzzahlige Viel-
nach rechts ist eine derartige Deckbewegung. fache von 90ı um die Quadratmitten nicht nur die Teilfigur
Alle Deckbewegungen bilden eine Gruppe, die Symme- F1 mit sich zur Deckung, sondern das ganze Ornament.
triegruppe von F , denn offensichtlich sind alle drei Anfor- Dazu kommen nun noch alle Translationen, also Parallel-
derungen aus dem Untergruppenkriterium erfüllt. verschiebungen, welche ein Quadratzentrum in ein anderes
Bei allen Überlegungen müssen wir voraussetzen, dass überführen. Alle diese vierzähligen Zentren sind im Gesamt-
der gezeigte Ausschnitt soweit typisch ist für das unbegrenz- bild links durch kleine rote Quadrate markiert.
te Ornament F , dass eine Übereinstimmung der Kopie mit Die Symmetriegruppe von F wird damit unendlich groß.
dem Original innerhalb des Ausschnitts auch eine Überein- Sie umfasst auch die Drehungen durch ganzzahlige Vielfache
stimmung außerhalb garantiert. von 90ı um die zwischen den Quadratzentren liegenden Kreu-
zungspunkte, die in der Abbildung links blau markiert sind.
Schließlich gehören auch noch weitere Drehungen durch 180ı
dazu. Deren Zentren heißen zweizählig, und sie sind links
durch grüne Rauten gekennzeichnet.

Beginnen wir mit der rechts oben gezeigten quadratischen Es gibt übrigens 17 verschiedene ebene Symmetriegruppen,
Teilfigur F0 von F . Man kann die Figur F0 durch Drehun- welche Translationen in verschiedenen Richtungen enthal-
gen um das Zentrum durch 90ı , 180ı oder 270ı mit ihrer ten. Man nennt diese Gruppen auch ebene kristallografische
Ausgangslage zur Deckung bringen. Dasselbe trifft auf die Gruppen. Die dem obigen Beispiel zugrunde liegende Sym-
Spiegelungen an den unter 0ı , 45ı , 90ı oder 135ı geneig- metriegruppe wird üblicherweise mit p4 bezeichnet.
ten Quadratdurchmessern zu. So entsteht zusammen mit der
identischen Abbildung eine insgesamt 8 Elemente umfassende 4 E. Quaisser: Diskrete Geometrie. Spektrum Akademischer
Gruppe, die Symmetriegruppe dieser quadratischen Teilfigur. Verlag, Heidelberg 1994
2.2  Homomorphismen
39 2
Verknüpft man r ı s ı r D s ı r ı s rechts mit r oder s, so Hier sind die Elemente f und g involutorisch, denn f ı
ist die neue Abbildung gleich r ı s oder s ı r. f D g ı g D e. Aber auch h hat diese Eigenschaft.
Ebenso ist ein Produkt von mehr als vier r- und Die folgende Bijektion W H ! S3 bildet die Elemente
s-Abbildungen auf eines von höchstens 3 Abbildungen re- von H auf jene von S3 ab:
duzierbar: Wann immer nämlich in diesem Produkt zwei
gleiche Abbildungen aufeinanderfolgen, kann man diese W e 7! e; r 7! f; s 7! g;
weglassen. Hierauf kann man die Tripel r ı s ı r und r ı s 7! i; s ı r 7! j; r ı s ı r 7! h:
s ır ıs wegen deren Gleichheit gegeneinander austauschen,
Dabei hat eine besondere Eigenschaft, die sich erst bei
wodurch an den Anschlussstellen wiederum zwei gleiche
genauem Hinsehen offenbart. Es ist z. B.
aufeinanderfolgen können, die dann wegzulassen sind. Dies
geht so lange, bis nur mehr ein Produkt von höchstens drei .r ı s/ D i D f ı g D .r/ ı .s/;
Abbildungen vorliegt.
.s ı r/ D j D g ı f D .s/ ı .r/
Dies beweist: Führt man endlich oft die Bijektionen r
oder s hintereinander aus, so entstehen keine neuen Abbil- und
dungen gegenüber den bisherigen sechs. Die Menge
.r ı s ı r/ D h D f ı g ı f D .r/ ı .s/ ı .r/:
H D fe; r; s; r ı s; s ı r; r ı s ı rg
Tatsächlich bekommt man in allen Fällen das -Bild eines
in H gelegenen Produkts von r- und s-Abbildungen, indem
ist abgeschlossen unter ı, und zudem ist zu jeder Abbildung
man zunächst jeden einzelnen Faktor mittels abbildet und
auch die Inverse enthalten. Nach dem Untergruppenkriteri-
dann die Multiplikation nach der obigen Gruppentafel vor-
um ist H eine Untergruppe von G. Weil jedes Element aus
nimmt.
H ein Produkt von endlich vielen r- und s-Abbildungen
In diesem Abschnitt widmen wir uns generell derartigen
ist, sagen wir, diese Untergruppe wird von r und s erzeugt,
verknüpfungstreuen Abbildungen, denn sie ermöglichen es,
oder r und s bilden ein Erzeugendensystem von H .
bei verschiedenen Gruppen gemeinsame Strukturen zu er-
Wir werden im nächsten Abschnitt erkennen, dass sich
kennen. Dabei beschränken wir uns aber nicht nur auf
diese Gruppe .H; ı/ trotz ihrer etwas mühsamen Herleitung
bijektive Abbildungen.
eigentlich nicht von der gleichfalls 6 Elemente umfassen-
den symmetrischen Gruppe S3 aus dem obigen Beispiel
unterscheidet. 9
Bei einem Homomorphismus ist das Bild
eines Produkts stets gleich dem Produkt
2.2 Homomorphismen der Bilder

Wir beziehen uns zunächst auf das eben gezeigte Beispiel.


Die von r und s erzeugte Gruppe .H; ı/ umfasst die sechs
Definition eines Homomorphismus
Elemente
Eine Abbildung W G ! G 0 der Gruppe .G; / in die
Gruppe .G 0 ; 0 / heißt Homomorphismus, wenn für alle
H D fe; r; s; r ı s; s ı r; r ı s ı rg:
a; b 2 G die Eigenschaft
Dabei ist r ı r D s ı s D e. Aber auch das letzte Element 0
.a b/ D .a/ .b/
r ı s ı r ist involutorisch.
Zum Vergleich betrachten wir nochmals die Gruppenta- gilt. Ist bijektiv, so heißt Isomorphismus und insbe-
fel der symmetrischen Gruppe S3 (siehe . Abb. 2.1), wobei sondere bei G 0 D G Automorphismus.
diesmal die Farben verdeutlichen sollen, dass in jeder Zeile Zwei Gruppen heißen isomorph, wenn zwischen ih-
und in jeder Spalte alle 6 Elemente vorkommen: nen ein Isomorphismus existiert.

ı e f g h i j
Ist ein Homomorphismus, so kommt es nicht darauf an,
eı e f g h i j
ob zwei Elemente a; b 2 G zuerst verknüpft werden und
f ı f e i j g h dann deren Produkt durch abgebildet wird, oder ob die
gı g j e i h f Elemente zuerst einzeln durch abgebildet und dann deren
hı h i j e f g Bilder in G 0 verknüpft werden. Die Abbildung ist mit den
iı i h f g j e Verknüpfungen vertauschbar oder kurz:
j j g h f e i
Das Bild des Produkts ist gleich
. Abb. 2.1 Gruppentafel der symmetrischen Gruppe S3 D fe; : : : ; j g dem Produkt der Bilder.
40 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Die unterschiedlichen Verknüpfungssymbole und 0 sol- Beweis (i) Für alle a 2 G gilt a D a e, daher auch
len verdeutlichen, dass die Verknüpfungen in G und G 0 .a/ D .a/ 0 .e/ und somit .e/ D e 0 .
ganz unterschiedlich sein können. (ii) Aus a a1 D e folgt
2 Es folgen einige Beispiele:
.a a1 / D .a/ 0 .a1 / D .e/ D e 0
Beispiel
4 Hinter den Vorzeichenregeln für die Produkte positiver und somit .a1 / D Œ .a/1 .
oder negativer reeller Zahlen verbirgt sich ein Homo- (iii) Wir verwenden das Untergruppenkriterium: Es ist
morphismus: Die Abbildung .G/ ¤ ;, da e 0 unter den Bildelementen vorkommen
 muss. Die Abgeschlossenheit der Bildmenge gegenüber
1 für x > 0; der Multiplikation 0 ist gegeben, denn aus .a/; .b/ 2
W R n f0g ! f1; 1g; x 7! .x/ D
1 für x < 0 .G/ folgt
ist ein surjektiver Homomorphismus von .Rnf0g;  / auf .a/ 0
.b/ D .a b/ 2 .G/:
.f1; 1g;  /, denn stets ist
Schließlich ist für jedes .a/ 2 .G/ das inverse Ele-
.x  y/ D .x/  .y/ :
ment wegen (ii) gleich .a1 / und daher gleichfalls ein
4 Die Abbildung Bildelement. 

W Z ! Q >0 ; x 7! 2x ; Der folgende Satz, welcher Arthur Cayley (1821–1895)


zugeschrieben wird, unterstreicht die Wichtigkeit der Per-
also z. B. 0 7! 1, 1 7! 2, 2 7! 4, 1 7! 12 , 2 7! 14 , ist mutationsgruppen für die Theorie endlicher Gruppen.
ein injektiver Homomorphismus .Z; C/ ! .Q >0 ;  /,
denn
Der Satz von Cayley
.x C y/ D 2xCy D 2x  2y D .x/  .y/: Jede Gruppe .G; / mit n Elementen ist isomorph zu einer
Untergruppe der symmetrischen Gruppe Sn .
4 Die zu Beginn dieses Abschnitts gezeigte Bijektion
zwischen der Gruppe H und der Permutationsgruppe
S3 zeigt, dass .H; ı/ isomorph ist zur symmetrischen
Gruppe S3 . 9 Beweis Dieser Satz basiert auf einer Beobachtung, auf
die bereits bei . Abb. 2.1 hingewiesen wurde: In jeder
? Selbstfrage 2.7 Zeile der Gruppentafel von G muss jedes der n Ele-
Ist W x 7! 2x ein Homomorphismus der Gruppe .Z; C/ mente genau einmal vorkommen; nur die Reihenfolge
auf sich oder der Gruppe .R n f0g;  / auf sich? variiert. Genauer: Steht in der zum neutralen Element
g1 D e gehörigen Zeile von links nach rechts die Folge
Das Beispiel in der folgenden Box zeigt mithilfe eines .g1 ; g2 ; : : : ; gn /, so steht in der Zeile, die zu gi gehört die
Homomorphismus, dass man zwischen geraden und unge- Folge .gi ; gi g2 ; : : : ; gi gn /.
raden Permutationen unterscheiden kann. Wir ordnen nun dem Element gi 2 G diejenige Permu-
tation zu, welche .g1 ; g2 ; : : : ; gn / auf .gi ; gi g2 ; : : : ; gi
0 gn / abbildet. Dies führt zur Abbildung
Ein Homomorphismus G ! G weist
bestimmte Gesetzmäßigkeiten auf W G ! Sn ; gi 7! .gi / mit
.gi /
.g1 ; g2 ; : : : ; gn / 7! .gi ; gi
g2 ; : : : ; gi gn /:
Wir stellen nun einige Eigenschaften von Homomorphis-
men zusammen: Für die Permutation .gi / gilt also e D g1 7! gi D gi e,
g2 7! gi g2 , . . . , gn 7! gi gn , somit kurz:
Lemma
(i) Der Homomorphismus W G ! G 0 bildet das neutrale .gi /W gk 7! gi gk für k D 1; : : : ; n:
Element e von G auf das neutrale Element e 0 von G 0
ab. ist injektiv, denn .gi / D .gj / bedeutet
(ii) Der Homomorphismus W G ! G 0 bildet das inver-
se Element von a auf das inverse Element des Bildes .gi ; gi g2 ; : : : ; gi gn / D .gj ; gj g2 ; : : : ; gj gn /;
.a/ ab, also .a1 / D Π.a/1 .
(iii) Ist W G ! G 0 ein Homomorphismus, so ist die Bild- und schon die jeweils ersten Elemente zeigen, dass daraus
menge .G/ eine Untergruppe von G 0 . gi D gj folgt.
2.2  Homomorphismen
41 2

Beispiel: Signum einer Permutation

Eine Permutation  2 Sn der Zahlen 1; : : : ; n ändert deren ner überein. Allerdings führt jeder Fehlstand wegen .i/ >
Reihenfolge ab auf die Folge ..1/; .2/; : : : ; .n//. .j / zu einer negativen Differenz. Also liefert die Produkt-
Wir sprechen von einem Fehlstand von , wann immer in formel . / tatsächlich den geforderten Wert .1/f .
der Folge der Bildelemente eine größere Zahl vor einer klei-
neren steht, wenn also .i/ > .j / ist bei i < j . Beweis des obigen Satzes Aus der eben bewiesenen Formel

So weist z. B. die Permutation  2 S5 mit .1; 2; 3; 4; 5/ 7! folgt für das Produkt sgn.2 ı 1 / zweier Permutationen:
.3; 2; 4; 5; 1/ fünf Fehlstände auf, nämlich .3; 2/, .3; 1/, .2; 1/,
.4; 1/ und .5; 1/, denn rechts steht 3 vor 2 und 1, 2 vor 1, und Y 2 ı 1 .j /  2 ı 1 .i/
sgn.2 ı 1 / D :
ebenso befinden sich 4 und 5 vor 1. i<j
j i
Weist die Permutation  2 Sn genau f Fehlstände auf, so
heißt sgn  D .1/f Signum der Permutation . Die Permu- Wir erweitern nun Zähler und Nenner mit dem Produkt
Q
tation  heißt gerade, wenn sgn  D 1 ist, sonst ungerade. i<j .1 .j /  1 .i// und gruppieren um, indem der Zähler
Wir wollen den folgenden Satz beweisen, der später auch des linken Produkts mit dem Nenner des rechten kombiniert
noch bei den Determinanten im 7 Kap. 7 eine Rolle spielen wird und umgekehrt. Dies ergibt:
wird.
Y 2 ı 1 .j /  2 ı 1 .i/ Y 1 .j /  1 .i/
sgn.2 ı 1 / D 
Satz vom Signum einer Permutation Die Abbildung i<j
1 .j /  1 .i/ i<j
j i
sgnW Sn ! f1; 1g mit  7! sgn  D .1/f ist ein Homo-
morphismus .Sn ; ı/ ! .f1; 1g;  /, denn es gilt Das Produkt in der zweiten Zeile ist offensichtlich gleich
sgn 1 .
sgn.2 ı 1 / D sgn 2  sgn 1 : Wir zeigen, dass jenes in der ersten Zeile mit sgn 2 über-
einstimmt. Dazu ändern wir die Bezeichnung; wir setzen darin
Problemanalyse und Strategie i 0 D 1 .i/ und j 0 WD 1 .j /. Es entsteht:
Im Beweis verwenden wir für das Signum der Permutation 
die Formel Y 2 .j 0 /  2 .i 0 /
:
Y .j /  .i/ i<j
j 0  i0
sgn  D : ( )
i<j
j i
Dies stimmt aus folgenden Gründen mit sgn 2 überein:
Q Wenn .i; j / alle möglichen Paare verschiedener Zahlen
Dabei ist das Symbol für ein Produkt. Im konkreten Fall
aus f1; : : : ; ng durchläuft, so tut dies auch .i 0 ; j 0 /, denn 1 ist
wird über alle möglichen Paare .i; j / aus f1; : : : ; ng mit i < j
eine Bijektion. Wegen
multipliziert. Diese Formel ergibt etwa für das obige Beispiel,
nämlich für  2 S5 , den Ausdruck .j /  .i/ .i/  .j /
D
2343425352 j i i j
sgn  D
2131324142
5413121415 ist es in der obigen Formel für sgn  gleichgültig, ob das ein-
 D 1: zelne Paar .i; j / im Zähler und Nenner in der Reihenfolge
4351525354
.i; j / oder .j; i/ verwendet wird. Damit bleibt, wie behaup-
Lösung tet,
Zur Begründung dieser Produktformel beachten wir, dass in
den Faktoren des Nenners alle ungeordneten Paare .i; j / ver- sgn.2 ı 1 / D sgn 2  sgn 1 ;
schiedener Elemente vorkommen, die aus f1; : : : ; ng ausge-
wählt werden können. Dabei steht immer das größere Element und sgn ist als surjektiver Homomorphismus bestätigt. 
vor dem kleineren, weshalb das Produkt über alle Differenzen
im Nenner positiv ist. ?Selbstfrage 2.8
Im Zähler treten ebenfalls alle möglichen Paare auf, denn Warum ist das Produkt zweier ungerader Permutatio-
Permutationen sind bijektiv. Daher stimmt der Absolutbetrag nen aus Sn eine gerade Permutation? Warum hat  1
des im Zähler auftretenden Produkts mit jenem aus dem Nen- dasselbe Signum wie ?
42 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Wir beweisen als Nächstes, dass ein Homomorphis- Im Kern sind viele Informationen
mus ist: Die dem Produkt gi gj zugeordnete Permutation über den Homomorphismus enthalten
lautet:
2 Mit jedem Homomorphismus W G ! G 0 ist auch eine
.gi gj /W gk 7! .gi gj / gk D gi .gj gk /
Untergruppe von G verbunden.

für k D 1; : : : ; n. Dabei ist gj gk das Bild von gk unter


der Permutation .gj /, und dieses geht durch .gi / in gi
Der Kern eines Homomorphismus
.gj gk / über. Also gilt, wie behauptet:
Ist W G ! G 0 ein Homomorphimus, so heißt die Men-
ge der Urbilder des neutralen Elements e 0 von G 0 Kern
.gi gj / D .gi / ı .gj /: des Homomorphismus . Wir bezeichnen diese Menge
mit ker .
Nach dem obigen Lemma ist die Bildmenge .G/ eine Un- Demnach ist ker D fa 2 G j .a/ D e 0 g.
tergruppe der Permutationsgruppe Sn . Somit gibt es einen
injektiven Homomorphismus von G auf diese Untergruppe,
also einen Isomorphismus. Lemma Der Kern des Homomorphismus W G ! G 0 ist
Übrigens kann die injektive Abbildung W G ! Sn bei eine Untergruppe von G.
n > 2 niemals surjektiv sein. Dazu brauchen wir nur die
Anzahlen der Elemente zu vergleichen: Die Gruppe G ent- Beweis Das vorherige Lemma besagte unter (i), dass das
hält n Elemente. Die symmetrische Gruppe Sn umfasst neutrale Element e von G im Kern vorkommt. Also ist
ker ¤ ;.
nŠ D n  .n  1/ : : : 2  1 Aus a; b 2 ker folgt .a/ D .b/ D e 0 und somit
weiter
Permutationen  W .1; 2; : : : ; n/ 7! .k1 ; k2 ; : : : ; kn /, denn
.a b/ D .a/ 0 .b/ D e 0 0 e 0 D e 0 ;
für k1 2 f1; : : : ; ng gibt es n Möglichkeiten; für k2 2
f1; : : : ; ngnfk1 g bleiben n1, für k2 2 f1; : : : ; ngnfk1 ; k2 g also auch .a b/ 2 ker .
n  2 Möglichkeiten und so weiter. Schließlich folgt aus a 2 ker , also .a/ D e 0 :
Wegen nŠ > n bei n > 2 ist somit die Bildmenge .G/
eine echte Untergruppe von Sn .  .ii/ 1
.a1 / D Π.a/1 D e 0 D e 0 ;
Die . Abb. 2.2 zeigt als Beispiel zu dem Satz von Cayley, also a1 2 ker . Mithilfe des Untergruppenkriteriums ist
dass die symmetrische Gruppe S3 (siehe Gruppentafel in somit ker als eine Untergruppe von G nachgewiesen. 
. Abb. 2.1) isomorph ist zu einer Untergruppe von S6 . Da-
bei sind die zu permutierenden sechs Elemente diesmal als Beispiel Wir betrachten nochmals die obigen Beispiele von
Ecken eines regulären Sechsecks dargestellt, und die Pfeile Homomorphismen und bestimmen die jeweiligen Kerne.
zeigen, wie diese Ecken durch die Permutationen transfor- 4 Bei dem surjektiven Homomorphismus von R n f0g
miert werden. auf f1; 1g enthält der Kern genau alle positiven reellen
Sind zwei Gruppen isomorph, so ist man geneigt zu sa- Zahlen, also ker D R>0 .
gen, es handele sich um „dieselbe“ Gruppe, denn in beiden 4 Bei dem injektiven Homomorphismus W x 7! 2x ist
Gruppen bestehen dieselben Relationen zwischen den ein- ker D f0g, denn 0 ist neutrales Element von .Z; C/.
zelnen Elementen. Wie die Gruppenelemente aussehen, ist 4 Bei dem früheren Beispiel mit dem Isomorphismus der
aus struktureller Sicht nebensächlich. Üblicherweise sagt von r und s erzeugten Gruppe H zur symmetrischen
man auch zu zwei isomorphen Gruppen, dass sie bis auf Gruppe S3 enthält ker nur das neutrale Element, also
Isomorphie gleich sind. die identische Abbildung aus H .
4 Bei der in der Beispielbox behandelten homomorphen
Abbildung der Permutationen  2 Sn auf deren Signum
umfasst der Kern genau die geraden Permutationen von
Sn , also jene mit sgn. / D 1. Diese bilden nach obigem
Satz eine Untergruppe von .Sn ; ı/, die alternierende
e f g h i j
Gruppe An vom Grad n. So ist z. B. die Untergruppe
. Abb. 2.2 Darstellung der symmetrischen Gruppe S3 D fe; : : : ; j g
fe; i; j g der S3 (siehe . Abb. 2.1) gleich der alternie-
als Untergruppe der Permutationsgruppe S6 . Dabei sind die zu permu- renden Gruppe A3 , denn die Permutationen e, i und
tierenden 6 Elemente diesmal auf einem Kreis angeordnet. Die einzelnen j sind gerade, wie die Abzählung ihrer Fehlstände
Permutationen ergeben sich aus den Zeilen der Gruppentafel in . Abb. 2.1 zeigt. 9
2.2  Homomorphismen
43 2
x3 Man nennt sie Nebenklassen von ker . Im Sinn der oben
eine Faser von ' eingeführten Bezeichnung sind sie gleichzeitig Links- und
Rechtsnebenklassen des Kerns ker .
Die Gleichung a ker D ker a bedeutet nicht, dass
R3 G kommutativ ist, sondern nur, dass zu jedem u 2 ker ein
u 2 ker existiert mit a u D u a sowie ein u 2 ker
x mit u a D a u. Der Kern ist damit eine Untergruppe
von G mit der besonderen Eigenschaft, dass jede Links-
'
nebenklasse gleichzeitig eine Rechtsnebenklasse ist. Eine
derartige Untergruppe U von G heißt Normalteiler von G:
In diesem Fall gilt für alle a 2 G
' .R 3/
x2
x1 ' .x / a U DU a:

Folgerung Der Kern ker des Homomorphismus W G !


. Abb. 2.3 Die Fasern der Abbildung 'W R ! R mit .x1 ; x2 ; x3 / 7!
3 3 G 0 ist ein Normalteiler von G.
.x1 ; x2 ; 0/ sind Geraden parallel zur x3 -Achse
Man kann übrigens beweisen, dass sich diese Folgerung
auch umkehren lässt: Zu jedem Normalteiler U von G gibt
Bereits im 7 Kap. 1 wurde darauf hingewiesen, dass je- es einen Homomorphismus mit ker D U .
de Abbildung 'W M ! N in der Definitionsmenge M
eine Äquivalenzrelation festlegt, wenn Elemente mit dem- ?Selbstfrage 2.9
selben Bild als zueinander äquivalent definiert werden. Die Wir haben festgestellt, dass zu jedem u 2 ker ein u 2
zugehörigen Äquivalenzklassen sind die Fasern der Abbil- ker existiert mit u a D a u.
dung '. (1) Warum ist für ein fest gewähltes a 2 G die Abbildung
Dies gilt insbesondere für Homomorphismen W G! G 0.
Eine spezielle Faser ist dabei der Kern ker als Menge a W G ! G; u 7! u D a
1
u a
der Urbilder des neutralen Elements e 0 2 G 0 . Das folgende
Lemma führt auf eine einheitliche Darstellung aller Fasern. ein Isomorphismus von .G; / auf sich, also ein Auto-
morphismus? Man nennt a einen inneren Automor-
Lemma Ist W G ! G 0 ein Homomorphismus, so sind die phismus von G.
folgenden Aussagen zueinander äquivalent: (2) Warum bildet a jeden Normalteiler U von G auf sich
(1) Die Elemente a; b 2 G haben dasselbe Bild .a/ D ab?
.b/;
(2) Es gibt ein x 2 ker mit b D a x, also b 2 .a ker /; Beispiel Wir bestimmen für zwei Homomorphismen die
(3) Es gibt ein y 2 ker mit b D y a, also b 2 .ker a/. Nebenklassen des Kerns.
4 Bei dem oben vorgestellten surjektiven Homomorphis-
Beweis Die Aussage .a/ D .b/ ist äquivalent zu mus von .R n f0g;  / auf .f1; 1g;  /, der unmittelbar
Œ .a/1 0  .b/ D e 0 , also nach der Homomorphieeigen- mit dem Vorzeichen reeller Zahlen zusammenhängt, ist
schaft (ii) a1 b D e 0 , und genau dann ist x D a1 b ker D R>0 . Die zweite Nebenklasse, das Urbild von
im Kern enthalten und b D a x. Dafür schreiben wir kurz 1, lautet im Sinne von (2.4):
b 2 .a ker / D fa x j x 2 ker g:
R<0 D .1/  R>0 D R>0  .1/:
Auf analoge Weise lässt sich die Äquivalenz zwischen (1)
und (3) begründen: Die Aussage .a/ D .b/ ist auch 4 Bei der homomorphen Abbildung sgn der Permuta-
äquivalent zu .b/ 0 Œ .a/1 D e 0 , und dies gilt genau tionen auf deren Signum (siehe Beispielbox) umfasst
dann, wenn b D y a mit y 2 ker , also b 2 ker a.  ker sgn D An die geraden Permutationen von Sn . Nach-
dem das Produkt einer geraden und einer ungeraden
Permutation ungerade ist, kann die zweite Nebenklasse,
0 die Menge aller ungeraden Permutationen, mithilfe ei-
Jeder Homomorphismus von G nach G
ner beliebigen ungeraden Permutation  0 im Sinne von
bestimmt eine Zerlegung von G in Klassen
(2.4) als  0 ı An oder auch als An ı  0 geschrieben
von Elementen mit jeweils gleichem Bild werden. 9

Die Fasern des Homomorphismus haben die Form ?Selbstfrage 2.10


Warum ist die Menge der ungeraden Permutationen keine
a ker D ker a: (2.4) Untergruppe von .Sn ; ı/?
44 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Alle Nebenklassen des Kerns ker sind gleich groß, ge- Auch Nebenklassen können miteinander
nauer formuliert, sie sind mit dem Kern gleichmächtig. Es verknüpft werden
gibt nämlich die bijektive Abbildung
2 
Bei der Definition einer Verknüpfung ˇ auf der Menge
ker !a ker ;
fW
x 7! a x: G= ker der Nebenklassen von ker – sie stehen in der
linken Spalte der obigen Tabelle – halten wir uns an das
Produkt der jeweils in der rechten Spalte stehenden Ele-
? Selbstfrage 2.11
mente, indem wir fordern:
Warum ist diese Abbildung f bijektiv?
.a ker / ˇ .b ker / D .a b/ ker :
Der Kern eines Homomorphismus spielt nicht nur eine
Die Produkt-Nebenklasse steht in derjenigen Zeile der Ta-
Rolle bei der Beschreibung aller Fasern, sondern an ihm ist
belle, in welcher rechts das Produkt der Bilder steht.
auch die Injektivität von erkennbar.
G= ker .G/
 
 
Kennzeichnung eines injektiven a ker .a/
Homomorphismus ˇ b ker .b/
Der Homomorphismus W G ! G 0 ist genau dann injek- ! .a b/ ker .a/ 0 .b/ 
tiv, wenn ker D feg ist mit e als neutralem Element  
von G.
Wir können die Verknüpfung ˇ aber auch wie folgt be-
schreiben: Um das Produkt zweier Nebenklassen zu be-
Beweis Ist injektiv, so wird nach (i) lediglich das neu- kommen, wählen wir aus beiden Klassen je ein Element
trale Element e 2 G auf das neutrale Element e 0 von G 0 aus, also einen Repräsentanten a bzw. b. Anschließend ver-
abgebildet. Ist umgekehrt ker D feg, so umfassen alle knüpfen wir die beiden und erklären diejenige Nebenklasse
Nebenklassen jeweils nur ein Element. Dies bedeutet, zu zur Produkt-Nebenklasse, in welcher a b liegt.
jedem Bildelement in .G/ gibt es nur ein Urbild in G; Ist der Homomorphismus nicht injektiv, so ist der Re-
also ist injektiv.  präsentant einer Nebenklasse nicht eindeutig. Wir müssen
daher noch zeigen, dass ˇ tatsächlich eine Verknüpfung
Ein Beispiel für einen injektiven Homomorphismus ist auf G= ker ist. Dies erfordert den Nachweis, dass die
W .Z; C/ ! .Q >0 ;  / mit x 7! 2x . Wir haben oben be- Produkt-Nebenklasse unabhängig ist von der Wahl der Re-
reits festgestellt, dass hier der Kern nur ein Element enthält, präsentanten. Also ersetzen wir a durch a0 2 .a ker / und
nämlich ker D f0g. b durch b 0 2 .b ker /, d. h. a0 D a u und b 0 D b v
Als Fasern des Homomorphismus sind die Neben- mit u; v 2 ker , und wir prüfen nach, in welcher Klasse
klassen von ker gleichzeitig Äquivalenzklassen. Daher jetzt das Produkt liegt:
ermöglichen sie eine Partition von G. Jedes Element von a0 b 0 D .a u/ .b v/ D a .u b/ v:
G gehört genau einer Nebenklasse an. Die folgende Tabel-
le zeigt in der linken Spalte die Menge der Nebenklassen, Nun wissen wir wegen der Normalteiler-Eigenschaft des
die mit G= ker bezeichnet wird, und rechts die jeweiligen Kerns, dass zu u 2 ker ein u 2 ker existiert mit
Bildelemente. u b D b u. Daher folgt:
a0 b 0 D a .b u/ v D .a b/ .u v/;
G= ker .G/
ker e0 und dieses liegt in .a b/ ker , denn mit u; v 2 ker
gehört wegen der Untergruppeneigenschaft auch u v dem
a ker D ker a .a/
Kern an.
b ker D ker b .b/ Diese kurze Rechnung hat bestätigt: Die Produkt-
:: ::
: : Nebenklasse ist tatsächlich unabhängig von der Auswahl
der Repräsentanten.
Wir können uns die Nebenklassen als „Ablagefächer“ vor-
stellen, in die wir alle Elemente von G nach deren jeweili-
gem Bild einsortiert haben. So ist es weniger überraschend, Die Faktorgruppe G= ker
wenn wir demnächst auf der Menge der Nebenklassen eine Ist W G ! G 0 ein Homomorphismus, so ist
Verknüpfung definieren. Wir rechnen dann statt mit Zahlen .G= ker ; ˇ/ eine Gruppe. Man nennt .G= ker ; ˇ/ die
oder Abbildungen eben mit den Fächern, indem wir je zwei Faktorgruppe von G nach dem Kern von .
Fächern ein „Produktfach“ zuordnen.
2.2  Homomorphismen
45 2
Beweis Das oben definierte Produkt ˇ ist bereits als (b) Ist nicht surjektiv, so ist .G/ eine echte
Verknüpfung auf G= ker nachgewiesen worden. Die As- Untergruppe von G 0 . Statt zu sagen, die Faktorgruppe
soziativität ist gesichert, denn .G= ker ; ˇ/ ist isomorph zu . .G/; 0 /, hätten wir auch
sagen können, die Abbildung G= ker ! G 0 mit a
.a ker ˇ b ker / ˇ c ker
ker 7! .a/ ist ein injektiver Homomorphismus.
D .a b c/ ker
D a ker ˇ .b ker ˇ c Beweis des Homomorphiesatzes: Die Abbildung ' ist in-
ker /:
jektiv, weil der Kern von ', also die Urbildmenge von
Die Nebenklasse ker D e ker ist neutrales Element e 0 2 G 0 , lediglich die Nebenklasse e ker D ker um-
für diese Multiplikation, denn fasst.
.e ker / ˇ .a ker / D a ker : Die Verknüpfungstreue von ' folgt direkt aus der Defi-
nition von ˇ, denn
Schließlich ist .a1 ker / invers zu .a ker /, denn
 1  'W .a ker / ˇ .b ker / 7! .a/ 0 .b/;
a ker ˇ .a ker / D .a1 a/ ker
D ker :  wobei
Die obige Tabelle mit dem Verknüpfungszeichen ˇ auf der
.a/ D '.a ker / und .b/ D '.b ker /: 
linken und auf der rechten Seite deutet bereits an, dass
die Faktorgruppe aus der linken Spalte isomorph ist zu jener
der Bildelemente in der rechten Spalte. Dies ist die Aussage
Das Rechnen mit Restklassen erweist sich
des folgenden Satzes.
als ein Beispiel zum Homomorphiesatz

Homomorphiesatz Wir schließen ein wichtiges Beispiel an, in welchem mit


Ist W G ! G 0 ein Homomorphismus der Gruppe .G; / Nebenklassen gerechnet wird. Der zugrunde liegende Ho-
in die Gruppe .G 0 ; 0 /, so ist momorphismus zeigt sich hier erst nachträglich; deshalb
sprechen wir vorerst nur von Äquivalenzklassen.
'W G= ker ! .G/; a ker 7! .a/ Zwei ganze Zahlen x und y heißen kongruent mo-
dulo 5, wenn x  y durch 5 teilbar ist. Dies ergibt eine
ein Isomorphismus der Faktorgruppe .G= ker ; ˇ/ auf
Äquivalenzrelation auf der Menge Z, denn sie ist reflexiv,
die Gruppe . .G/; 0 /.
symmetrisch und transitiv, wie in 7 Kap. 1 gezeigt worden
ist. Die Äquivalenzklassen fassen alle diejenigen Zahlen
zusammen, die bei der ganzzahligen Division durch 5 den-
Kommentar (a) Die zwei Abbildungen im Homomorphie- selben Rest ergeben. So ist z. B. diejenige Klasse, welcher
satz sind streng auseinanderzuhalten: ist die Abbildung 1 angehört, nämlich
der Elemente von G in G 0 , während ' jene der Nebenklas-
sen, also der Elemente von G= ker , auf die Bildmenge 1 D f: : : ; 14; 9; 4; 1; 6; 11; 16; : : : g
.G/  G 0 ist.
die Klasse derjenigen ganzen Zahlen, die den Rest 1 haben.
Wir können diese Zahlen auch als z D 1 C 5 k mit k 2 Z
.G/ darstellen. Deshalb ist 1 D 1 C 5  Z.
a
Nachdem der Rest 0, 1, 2, 3 oder 4 sein kann, gibt es
a ker e0
b ker ker .a/ insgesamt die Klassen
b e
::
:

.b/
G 0 D 5  Z; 1 D 1 C 5  Z; : : : ; 4 D 4 C 5  Z:

Wir nennen sie die Restklassen modulo 5 und bezeichnen


' ihre Menge mit Z5 . Also ist Z5 D f0; 1; 2; 3; 4g.
Auf der Menge dieser Klassen erklären wir nun die Ver-
b ker
:
: G= ker knüpfung ˚ ganz ähnlich wie vorhin die Multiplikation ˇ
:
ker von Nebenklassen in der Faktorgruppe: Wir ordnen zwei
a ker
Restklassen diejenige Klasse als Summe zu, in welcher die
Summe der Repräsentanten liegt. Wieder zeigt sich die Un-
. Abb. 2.4 Illustration zum Homomorphiesatz: Der Homomorphismus abhängigkeit von der Wahl der Repräsentanten, denn
W G ! G 0 induziert einen Isomorphismus ' zwischen der Faktorgruppe
G= ker (unten) und der Bildmenge .G/ (rechts oben) .r C 5k/ C .s C 5l/ D .r C s/ C 5.k C l/:
46 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Die Summen-Restklasse hängt also nur von den Resten r; s .Z5 n f0g; ˇ/ ist eine Gruppe, denn in jeder Zeile und
der zwei gegebenen Restklassen ab. Dies ergibt die folgen- jeder Spalte der Produkt-Gruppentafel kommt das neutrale
de Verknüpfungstafel: Element 1 genau einmal vor.
2 ˚ 0 1 2 3 4
Die Abbildung der ganzen Zahlen auf die jeweilige
Restklasse, genauer
0 0 1 2 3 4
W Z n 0 ! Z5 n f0g; z D r C 5k 7! r; 1  r < 5;
1 1 2 3 4 0
2 2 3 4 0 1 ist ebenfalls ein surjektiver Homomorphismus
3 3 4 0 1 2 W .Z n 0;  / ! .Z5 n f0g; ˇ/;
4 4 0 1 2 3
und .Z5 n f0g; ˇ/ ist genau die Faktorgruppe dieses Homo-
So ist etwa 2 ˚ 4 D 1, was zumeist in der Form morphismus.
2C4 1 .mod 5/ ?Selbstfrage 2.12
1 1
geschrieben wird mit dem gewöhnlichen Additionszeichen. Wie lauten 2 und 3 in der multiplikativen Gruppe der
Diese Addition von Restklassen ist kommutativ und as- Restklassen modulo 5?
soziativ, weil dies auch auf die Addition ganzer Zahlen
zutrifft. .Z5 ; ˚/ ist eine Gruppe, denn 0 ist das neutrale 2.3 Körper
Element, und in jeder Spalte der obigen Verknüpfungsta-
fel kommt jede der 5 Restklassen genau einmal vor. Also
gibt es zu jedem rechten Summanden genau einen linken Die rationalen Zahlen bilden hinsichtlich der Addition eine
Summanden derart, dass deren Summe 0 ist. Gruppe, und sie enthalten auch eine multiplikative Gruppe.
Wenn wir jeder ganzen Zahl z ihre Restklasse zuordnen Ebenso stehen bei den reellen und bei den komplexen Zah-
durch die Abbildung len zwei Verknüpfungen zur Verfügung, die Addition und
die Multiplikation, und diese führen jeweils zu Gruppen.
CW Z ! Z5 ; z D r C 5k 7! r bei 0  r < 5; Dies ist der Anlass, eine neue wichtige algebraische Struk-
so entsteht ein surjektiver Homomorphismus tur einzuführen, welche Mengen mit zwei Verknüpfungen
betrifft.
CW .Z; C/ ! .Z5 ; ˚/:
Die Restklassen sind gleichzeitig die Fasern von C , also In Körpern gibt es zwei Verknüpfungen
die Nebenklassen des Kerns ker C D 0. Wir könnten da-
her statt Z5 auch Z= ker C D Z= 0 schreiben oder noch
und es gelten drei Axiome
komplizierter Z=.5  Z/. Die in der obigen Tafel dargestell-
te Gruppe .Z5 ; ˚/ ist genau die Faktorgruppe .Z= 0; ˚/.
Der im Homomorphiesatz auftretende Isomorphismus ' ist
Definition eines Körpers
die identische Abbildung.
Eine Menge K mit den zwei Verknüpfungen,
In ähnlicher Weise können wir auch eine Multiplikation
4 der Addition
ˇ von Restklassen erklären: Wir ordnen zwei Restklassen
diejenige Klasse als Produkt zu, in welcher das Produkt der
C W K K ! K; .x; y/ 7! x C y
Repräsentanten liegt. Wieder zeigt sich die Unabhängigkeit
von der Wahl der Repräsentanten, denn
4 und der Multiplikation
.r C 5k/  .s C 5l/ D r  s C 5.5kl C rl C ks/:
W K K ! K; .x; y/ 7! x  y;
Auch hier hängt die Produkt-Restklasse nur von den Resten
r; s der zwei gegebenen Restklassen ab. Dies ergibt nach
heißt Körper .K; C;  /, wenn die folgenden Eigenschaf-
Ausschluss von 0 die folgende Produkttafel:
ten erfüllt sind:
ˇ 1 2 3 4 (K1) .K; C/ ist eine Gruppe. Das neutrale Element 0 heißt
Nullelement; das zu a 2 K inverse Element wird
1 1 2 3 4
mit a bezeichnet.
2 2 4 1 3 (K2) Die Teilmenge K0 D K n f0g ist bezüglich der Ein-
3 3 1 4 2 schränkung 0 von  auf K0 K0 eine kommutative
Gruppe mit dem Einselement 1 als neutralem Ele-
4 4 3 2 1
ment.
So ist z. B. 3 ˇ 4 D 2, also 3  4 2 .mod 5/.
2.3  Körper
47 2
(i) Wegen 1 2 K0 D K n f0g gilt 1 ¤ 0.
(K3) Es gelten die beiden Distributivgesetze:
Ein Körper K enthält also mindestens zwei Elemente. Wir
a  .b C c/ D .a  b/ C .a  c/ und werden tatsächlich einen Körper mit nur zwei Elementen
.a C b/  c D .a  c/ C .b  c/ kennenlernen.
In Körpern gilt ferner:
für alle a; b; c 2 K.
.K3/ (2.2)
a  0 D a  .0 C 0/ D a  0 C a  0 H) 0 D a  0

Wird statt (K2) gefordert, dass .K0 ; 0 / eine nicht kommu- Auf ähnliche Weise folgt mithilfe der Kürzungsregel (2.2)
tative Gruppe ist, so heißt K Schiefkörper. und des zweiten Distributivgesetzes, dass auch 0  a D 0 ist,
Die Regel „Punktrechnung geht vor Strichrechnung“ also insgesamt:
macht die Klammern auf der rechten Seite der Distributiv- (ii) Für alle a 2 K ist a  0 D 0  a D 0.
gesetze entbehrlich. Häufig wird in Körpern der Punkt als
Multiplikationszeichen überhaupt weggelassen. Für das Rechnen mit 0 gelten also in beliebigen Körpern K
dieselben Regeln wie in Q oder R.
Beispiel Obwohl in (K2) das Assoziativgesetz für die Multi-
1. Offensichtlich sind .Q; C;  / und .R; C;  / Körper. Da- plikation nur in K n f0g gefordert ist, gilt es auch unter
gegen ist .Z; C;  / kein Körper, denn in Z gibt es z. B. Einschluss des Nullelements, denn es ist z.B. .a  b/  0 D
kein Element 21 mit 2  21 D 1. a  .b  0/ D 0.
2. In 7 Abschn. 2.2 haben wir uns bereits mit den Rest-
klassen modulo 5 befasst, also mit ?Selbstfrage 2.13
Warum muss das Nullelement bei der multiplikativen
Z5 D f0; 1; 2; 3; 4g; wobei
Gruppe von K ausgeschlossen werden?
0 WD f: : : ; 10; 5; 0; 5; 10; : : : g D 5  Z;
1 WD f: : : ; 9; 4; 1; 6; 11; : : : g D 5  Z C 1; Aus (ii) kann man folgern, dass die von Q und R her ver-
trauten Vorzeichenregeln in allen Körpern K gelten. So ist
2 WD f: : : ; 8; 3; 2; 7; 12; : : : g D 5  Z C 2 usw.
z. B.
Auch haben wir bereits eine Addition ˚ und eine
Multiplikation ˇ von Restklassen eingeführt mit der Ei- 0 D 0  b D .a C .a//  b D a  b C .a/  b
genschaft, dass die Abbildung H) .a  b/ D .a/  b:

z D r C 5k 7! r bei 0  r < 5 Dabei ist .a  b/ bezüglich der Addition invers zu .a  b/.
Analog gilt .a  b/ D a  .b/ sowie .a/  .b/ D a  b.
zu Homomorphismen bezüglich der Addition und der Statt a C .b/ schreiben wir ab jetzt kürzer a  b.
Multiplikation führt. Nun berechnen wir .1 C 1/  .a C b/ auf zwei Arten:
Wir erkennen, dass .Z5 ; ˚; ˇ/ ein Körper ist, denn
.Z5 ; ˚/ ist eine Gruppe und es gelten (K2) und (K3)
.1 C 1/  .a C b/
mit 0 als Nullelement und 1 als Einselement. .Z5 ; ˚; ˇ/ 
heißt Restklassenkörper modulo 5 . 1  .a C b/ C 1  .a C b/ D a C b C a C b
D
Wir werden demnächst erfahren, dass es nicht nur zu .1 C 1/  a C .1 C 1/  b D a C a C b C b
5, sondern zu jeder Primzahl p einen Restklassenkörper
Zp gibt. Hingegen liefert z. B. Z4 D f0; 1; 2; 3g kei- Mithilfe der Kürzungsregel (2.2) bezüglich der Addition er-
1
nen Körper. In Z4 fehlt nämlich ein 2 , denn für jedes gibt sich daraus die folgende Aussage.
ganzzahlige k ist das Produkt 2  k geradzahlig; es kann (iii) Für alle a; b 2 K gilt b C a D a C b, d. h. die Addition
demnach niemals bei ganzzahliger Division durch 4 den in Körpern ist stets kommutativ.
Rest 1 haben. 9
Angenommen, es gelten gleichzeitig a  b D 0 und a ¤ 0.
Wir wollen uns nun schrittweise einige Aussagen über Dann existiert a1 , und es ist
Körper erarbeiten, die ähnlich wie bei den Gruppen zum
Teil bereits in die Definition übernommen hätten werden b D .a1  a/  b D a1  .a  b/ D a1  0 D 0:
können – wie etwa die anschließend in (iii) bewiesene
Kommutativität der Addition. Aber wir bleiben dabei, in Das bedeutet:
die Definitionen nur das unbedingt Notwendige aufzuneh- (iv) In einem Körper folgt aus a  b D 0 stets a D 0 oder
men. b D 0.
48 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Man kann auch sagen: In Körpern gibt es keine Nullteiler, sein, weil r und s kleiner als p und daher nicht durch p teil-
also keine Elemente x; y 2 Knf0g mit x 0 y D 0. Dies folgt bar sind. Also ist ˇ eine Verknüpfung auf Zp n f0g. Sie ist
schon deshalb, weil „0 “ eine Verknüpfung in K0 D K n f0g assoziativ und kommutativ; es gibt das neutrale Element 1.
2 ist, also wegen der Abgeschlossenheit bei x; y 2 K0 auch Wir zeigen, dass zur Restklasse r bei 1 < r < p ein
x 0 y 2 K0 sein muss. x mit 1 < x < p existieren muss mit r ˇ x D 1. Dabei
Wir fassen die eben hergeleiteten Aussagen noch einmal verwenden wir die Abbildung
zusammen:

Zp n f0g ! Zp n f0g;
r W
x 7! r ˇ x;
Körpereigenschaften
Ein Körper enthält mindestens die zwei verschiedenen bei welcher jede Klasse links mit r multipliziert wird. Diese
Elemente 0 und 1. In einem Körper ist die Addition stets Abbildung ist injektiv, denn bei r ˇa D r ˇb unterscheiden
kommutativ. Ein Körper ist frei von Nullteilern. sich ra und rb durch ein Vielfaches von p, d. h., p teilt
r.a  b/. Wegen 1 < r < p muss p ein Teiler von a  b
sein und daher a D b.
Man könnte meinen, dass ebenso wie die Kommutativi- Also durchlaufen die p  1 Produkte r ˇ 1, r ˇ 2, : : : ,
tät der Addition auch jene der Multiplikation bereits aus r ˇ p  1 alle p  1 Restklassen aus Zp n f0g. Darunter
den übrigen Körpereigenschaften hergeleitet werden kann. muss unbedingt auch 1 vorkommen.
Dass dies nicht möglich ist, beweist das nach einigen Seiten Die notwendige Bedingung, dass p eine Primzahl ist,
gezeigte Beispiel der Quaternionen. erweist sich somit als hinreichend. Sie garantiert, dass
Vorerst folgen aber noch zwei weitere Beispiele von .Zp n f0g; ˇ/ eine Gruppe ist. Nachdem auch die distribu-
Körpern. tiven Gesetze gelten, weil sie ja in Z erfüllt sind und durch
den Homomorphismus .r Ckp/ 7! r nicht zerstört werden,
ist die folgende Aussage bewiesen:
Zu jeder Primzahl p > 1 gibt es
einen Restklassenkörper
Satz vom Restklassenkörper
Oben haben wir den Restklassenkörper modulo 5 betrach- Ist p eine Primzahl, so ist
tet. Wie sieht es aus, wenn wir, von Z ausgehend, 5 durch  
eine andere natürliche Zahl p > 1 ersetzen, also die Menge Zp D f0; 1; : : : ; p  1g; ˚; ˇ
der Restklassen
ein Körper, der Restklassenkörper modulo p.
Zp D f0; 1; : : : ; p  1g

betrachten? Führen die Addition und Multiplikation von


Restklassen aus Zp ebenfalls zu Gruppen? Der kleinste Körper ist Z2 D f0; 1g. In ihm ist 0 C 1 D 1
Die Summe und 1 C 1 D 0. Das „kleine Einmaleins“ besteht hier über-
haupt nur aus der trivialen Regel 1  1 D 1.
.r C kp/ C .s C lp/ D .r C s/ C .k C l/p; In Zukunft werden wir in Restklassenkörpern die Ad-
dition und Multiplikation wie gewohnt mit C und  be-
0  r; s < p;
zeichnen statt mit ˚ und ˇ, und auch die Querstriche zur
Kennzeichnung der Restklassen lassen wir meist weg. Statt
liegt bei r C s < p in der Restklasse r C s, andernfalls in
.a ˚ b/ ˇ c D d schreiben wir einfach .a C b/c D d .
r C s  p. Das Ergebnis hängt also nur von den Klassen r
und s ab. Somit ist ˚ eine Verknüpfung auf Zp , und wie bei
Z5 lässt sich begründen, dass .Zp ; ˚/ eine Gruppe ist. ?Selbstfrage 2.14
Bei der Multiplikation ist zu beachten, dass das Produkt Berechnen Sie im Restklassenkörper modulo 7 den Wert
x D .4  6/  .1  6/1 , den man auch als Bruch 46
16
.r C kp/  .s C lp/ D rs C .klp C ks C rl/p; schreiben könnte.

nicht unbedingt in einer der Restklassen 1; : : : ; p  1 vor- Die Restklassenkörper sind an sich interessant, weil sie
kommen muss. Sobald nämlich p D rs ist bei 1 < r; s < endliche Körper sind. Darüber hinaus spielen sie in der
p, liegt das Produkt rs in 0. Somit wären r und s Nullteiler Zahlentheorie, in der Kryptographie und in der Codierungs-
dieser Multiplikation. theorie eine wichtige Rolle. Letztlich gäbe es ohne den
Ist hingegen p eine Primzahl, besitzt p also nur 1 und kleinsten Körper Z2 keine Digitalisierung und keine Com-
p als Teiler, so kann rs kein ganzzahliges Vielfaches von p puter.
2.3  Körper
49 2
Der Körper der komplexen Zahlen bildet einen Körper .C; C;  / mit 0 D 0 C i 0 als Nullele-
ist eine echte Erweiterung des Körpers ment und 1 D 1 C i 0 als Einselement, den Körper der
der reellen Zahlen komplexen Zahlen.

Wir widmen uns den algebraischen Eigenschaften von C.


Im 7 Abschn. 2.1 wurde bereits die elementeweise Addi-
tion von reellen Zahlentripeln eingeführt und im Anschluss
daran gezeigt, dass .R3 ; C/ eine Gruppe ist. Dasselbe ist Die Konjugation ist ein Automorphismus
natürlich auch mit Zahlenpaaren .a; b/ 2 R2 möglich. Die Abbildung
Man kann aber auch eine Multiplikation von Zahlenpaaren
(
erklären, sodass nach Ausschluss von .0; 0/ eine Gruppe C ! C;
entsteht. W
z D a C i b 7! z D a  i b
Das ist zunächst überraschend, wird aber nach den
folgenden Betrachtungen gleich klar: Wir notieren das Zah- ist bijektiv und heißt Konjugation. Sie ist additiv und
lenpaar .a; b/ in der Form multiplikativ, d. h., es gilt:
z D a C ib
z1 C z2 D z1 C z2 und z1  z2 D z1  z2 :
und nennen jedes solche z eine komplexe Zahl. Dabei ist i
die imaginäre Einheit, welche der Regel i2 D 1 genügt.
Die reelle Zahl a heißt Realteil Re z und die reelle Zahl b Beweis Es seien z1 D a1 Ci b1 und z2 D a2 Ci b2 komplexe
Imaginärteil Im z. Statt z D a C i b schreiben wir auch Zahlen mit a1 ; a2 ; b1 ; b2 2 R. Dann gilt:
z D a C b i. Wir nennen die komplexen Zahlen mit Im z D
0 reell, jene mit Re z D 0 rein imaginär. z1 C z2 D .a1 C a2 / C i.b1 C b2 /
Wie bereits betont, wird die Summe der beiden komple-
D .a1 C a2 /  i.b1 C b2 / D z1 C z2 :
xen Zahlen z1 D a1 Ci b1 und z2 D a2 Ci b2 elementeweise
gebildet,
und
z1 C z2 D .a1 C a2 / C i.b1 C b2 /:
z1  z2 D .a1 a2  b1 b2 / C i .b1 a2 C a1 b2 /
Es werden also die Realteile addiert und ebenso die Imagi- D .a1 a2  b1 b2 /  i .b1 a2 C a1 b2 /
närteile. Beim Produkt gehen wir „distributiv“ vor, nutzen D .a1  i b1 / .a2  i b2 / D z1  z2 : 
die Gleichung i2 D 1 und setzen wie bei der Multi-
plikation reeller Zahlen mit i die Assoziativität und die Man nennt eine bijektive Abbildung von einem Körper
Kommutativität voraus: K auf sich mit der Eigenschaft
z1  z2 D .a1 C i b1 /.a2 C i b2 /
.a C b/ D .a/ C .b/ und .a b/ D .a/ .b/
D a1 a2 C i a1 b2 C i b1 a2 C i2 b1 b2
D .a1 a2  b1 b2 / C i .a1 b2 C a2 b1 / für alle a; b 2 K einen Körperautomorphismus. Offenbar
ist ein Körperautomorphismus ein Automorphismus von K
Damit ist die Multiplikation komplexer Zahlen kommutativ, bezüglich der Addition und ebenso ein Automorphismus
d. h., z1 z2 D z2 z1 . Zudem ist die Multiplikation assoziativ, von K n f0g bezüglich der Multiplikation.
d. h., .z1 z2 /z3 D z1 .z2 z3 /, wie man durch Nachrechnen Nach obigem Satz ist die Konjugation ein Körperauto-
bestätigen kann. Gibt es auch ein z 1 ? morphismus von C.
Die zu z D a C i b konjugiert komplexe Zahl ist z D
a  i b, und es gilt:
So wie Untergruppen gibt es
z  z D .a C i b/  .a  i b/ D a2 C b 2 2 R:
auch Unterkörper
Hieraus erhalten wir für das Inverse von z D a C i b bei
.a; b/ ¤ .0; 0/ Der Körper C ist eine Erweiterung des Körpers R. Man
a  ib 1 kann umgekehrt auch sagen, dass R ein Unterkörper von
z 1 D .a C i b/1 D 2 D z: C ist. Allgemeiner definiert man:
a C b2 zz
Ist .K; C;  / ein Körper und L eine Teilmenge von K,
Folgerung Die Menge wobei .L; C;  / hinsichtlich der von K stammenden Ver-
knüpfungen ebenfalls ein Körper ist, so heißt L Unterkör-
C D fz D a C i b j .a; b/ 2 R2 g per oder Teilkörper von K.
50 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Offensichtlich ist .Q; C;  / ein Unterkörper von ist definiert als


.R; C;  / und dieser Unterkörper von .C; C;  / und weiter
vom Schiefkörper .H; C;  /, der gleich genauer vorgestellt q1 C q2 D .a1 C a2 / C i.b1 C b2 /
2 wird. C j.c1 C c2 / C k.d1 C d2 /:
Bei den bisherigen Beispielen war die Multiplikation
stets kommutativ, d. h., es galt: Damit ist .H; C/ eine kommutative Gruppe mit dem Null-
element 0 D 0Ci 0Cj 0Ck 0. Offensichtlich ist die additive
a b D b a für alle a; b 2 K : Gruppe .H; C/ isomorph zu .R4 ; C/.
Bei dem Produkt der beiden Quaternionen q1 ; q2 gehen
Das folgende Beispiel beweist, dass es auch Schiefkörper wir analog zu C vor: Jeder Summand von q1 wird mit jedem
gibt. Der folgende Körper spielt auch in der analytischen Summanden von q2 multipliziert, wobei für die Produkte
Geometrie eine Rolle, wie das 7 Kap. 5 zeigen wird. der Quaternioneneinheiten die folgenden Regeln gelten:

i  i D j  j D k  k D 1
Die Quaternionen bilden einen Schiefkörper
und

Jede komplexe Zahl ist eine Zusammenfassung zweier re- i j D k; j  k D i; k  i D j;


eller Zahlen mithilfe der imaginären Einheit i. Bei den j  i D k ; k  j D i ; i  k D j :
Quaternionen sind es vier reelle Zahlen, und es gibt drei
Quaternioneneinheiten i, j, k. Die Quaternionen wurden Die erste Zeile zeigt, dass die Quadrate der Quaternionen-
1843 von Hamilton entdeckt (siehe . Abb. 2.5). Die Men- einheiten übereinstimmen mit dem Quadrat der imaginären
ge der Hamilton’schen Quaternionen lautet: Einheit. Die Formeln für die gemischten Produkte von i, j
oder k lassen sich wie folgt zusammenfassen:
H D f q D a C i b C j c C k d j .a; b; c; d / 2 R4 g: Folgen die zwei Faktoren in zyklischer Reihe aufeinan-
der (siehe Pfeilrichtung in . Abb. 2.6), so ist das Produkt
Eine Quaternion q mit c D d D 0 sieht wie eine kom- gleich der dritten Einheit. Andernfalls ist das Produkt
plexe Zahl aus, jene mit b D c D d D 0 wie eine reelle gleich dem Negativen der dritten Einheit.
Zahl. Somit gilt H  C  R, und die nachstehend defi- Das Produkt zweier Quaternionen lautet somit:
nierten Verknüpfungen in H enthalten die Addition und die
Multiplikation der reellen sowie der komplexen Zahlen als .a1 C i b1 C j c1 C k d1 /  .a2 C i b2 C j c2 C k d2 /
Sonderfälle. D .a1 a2  b1 b2  c1 c2  d1 d2 /
Die Summe der beiden Quaternionen C i .a1 b2 C b1 a2 C c1 d2  d1 c2 /
C j .a1 c2  b1 d2 C c1 a2 C d1 b2 /
q1 D a1 C i b1 C j c1 C k d1 ;
C k .a1 d2 C b1 c2  c1 b2 C d1 a2 /:
q2 D a2 C i b2 C j c2 C k d2
1 D 1 C i 0 C j 0 C k 0 ist ein Einselement. Analog zu C
heißt die Quaternion q WD a  i b  j c  k d konjugiert zu
q. Das Produkt q1  q2 bei a2 D a1 , b2 D b1 , c2 D c1
und d2 D d1 ergibt:

q  q D a2 C b 2 C c 2 C d 2 2 R:

Somit existiert bei q ¤ 0 die inverse Quaternion

1 1
q 1 D qD q
a2 C b2 Cc Cd
2 2 qq

mit q  q 1 D .q  q/=.q  q/ D 1.

. Abb. 2.6 Regel für die j


gemischten Produkte der Qua-
. Abb. 2.5 Gedenktafel für Sir Hamilton, den Entdecker der Quater-
ternioneneinheiten i, j und k
nionen, an der Brougham-Bridge in Dublin: „Here as he walked by on k
the 16th of October 1843 Sir William Rowan Hamilton in a flash of ge-
nius discovered the fundamental formula for quaternion multiplication
i2 D j2 D k2 D ijk D 1 & cut it on a stone of this bridge“ i
2.4  Ringe
51 2
Alle Produkte von je drei Quaternioneneinheiten sind auf welchen eine Ordnungsrelation definiert ist, die in ge-
assoziativ, wie man durch einzelnes Nachrechnen bestäti- wisser Weise mit den Körperverknüpfungen verträglich ist.
gen kann, z. B. Ein wichtiges Beispiel ist dazu R; wir können ja die Größen
von je zwei reelle Zahlen vergleichen. In der folgenden De-
.i  j/  k D k  k D 1 D i  .j  k/: finition werden gewisse Anordnungseigenschaften von R
als Axiome verwendet.
Damit ist aber auch die Multiplikation von Quaternionen Ein Körper K heißt angeordnet, wenn er einen Positi-
assoziativ. vitätsbereich enthält. Es ist dies eine Teilmenge P von K
Die Multiplikation ist allerdings nicht kommutativ, mit folgenden Eigenschaften:
denn z. B. i  j D j  i. Aber es gelten die beiden Distri- 1. P [ .P / D K,
butivgesetze, woraus folgt: 2. P \ .P / D f0g,
3. P C P  P ,
4. P  P  P .
Quaternionenschiefkörper
.H; C;  / ist ein Schiefkörper. Dabei bedeuten P D fx 2 K j x 2 P g und P C P  P
bzw. P  P  P , dass mit x; y 2 P stets auch die Summe
x C y bzw. das Produkt x  y in P liegen.
Nun folgen noch einige Begriffe, die beim Umgang mit Man nennt die Elemente aus P n f0g positiv und jene
Körpern eine Rolle spielen. aus P n f0g negativ.
Ist K ein angeordneter Körper mit dem Positivitätsbe-
reich P , so wird durch die Definition
Die Charakteristik eines Körpers ist null x  y ” y x 2 P
oder eine Primzahl
eine lineare Ordnungsrelation auf der Menge K erklärt.

Werden in einem Körper K der Reihe nach die Summen 1, ?Selbstfrage 2.15
1 C 1, 1 C 1 C 1, 1 C 1 C 1 C 1, . . . gebildet, so sind we- Begründen Sie das.
gen x C 1 ¤ x (Kürzungsregel) aufeinanderfolgende Werte
stets verschieden. Es ist aber möglich, dass in der Folge der Ist x 2 K positiv, d. h. x 2 P n f0g, so ist wegen x 2 D
Summen Wiederholungen auftreten, dass also etwa x  x 2 P auch x positiv. Und ist x negativ, d. h. x 2
2

P n f0g, so ist wegen x 2 P das Element x positiv


y C .1 C 1 C    C 1/ D y und damit wegen x 2 D .x/  .x/ 2 P auch x 2 positiv.
Da K D P [ .P / gilt, haben wir damit gezeigt, dass
ist, woraus .1 C 1 C    C 1/ D 0 folgt. In einem endlichen jedes von 02 verschiedene Quadrat in einem angeordneten
Körper muss das so sein, denn es stehen ja nur endlich viele Körper positiv ist. Insbesondere ist 1 D 1  1 positiv, 1 2 P
Werte als Summen zur Verfügung. Die kleinste Anzahl n > und damit 1 2 P negativ.
0 mit der Eigenschaft, dass die Summe von n Einsen null Der Körper R hat den Positivitätsbereich
ergibt, heißt Charakteristik char K des Körpers K. Gibt es
P D R0 D fx 2 R j x  0g
hingegen kein derartiges n, so wird char K D 0 definiert.
So ist z. B. die Charakteristik von Z2 D f0; 1g gleich 2, und ist damit ein angeordneter Körper. Der Körper C hin-
denn 1 C 1 D 2 2 0. Analog ist char Zp D p. Aber Zp gegen nicht, denn dann wäre das Quadrat 1 D i  i positiv,
ist nicht der einzige Körper mit dieser Charakteristik. An- daher 1 D .1/ negativ – im Widerspruch zur vorhin be-
dererseits ist char Q D char R D char C D 0. wiesenen Aussage.
Wir werden der Körpercharakteristik später vor allem
dann begegen, wenn bei Aussagen gewisse Werte der Cha- ?Selbstfrage 2.16
rakteristik ausgeschlossen werden müssen. So muss z. B. Begründen Sie, dass ein angeordneter Körper die Charak-
immer dann, wenn in einem Körper durch 2 dividiert wird, teristik null hat.
der Fall char K D 2 ausgeschlossen werden, weil dort
Neben den Gruppen und Körpern, die wir ausführlich be-
2 D 0, d. h. 1 D 1 ist und eine Division durch 0 wegen
1 handelt haben, spielen in der Algebra die im folgenden
des Fehlens von 0 nicht möglich ist.
Abschnitt behandelten Ringe eine wesentliche Rolle.

In manchen Körper kann man die Elemente 2.4 Ringe


in ihrer Größe unterscheiden
Die von Körpern geforderten Bedingungen lassen sich auf
Unter den verschiedenen Relationen wurden in 7 Kap. 1 verschiedene Weise abschwächen. So kann man ja auch
auch Ordnungsrelationen behandelt. Es gibt auch Körper, ganze Zahlen addieren und multiplizieren; .Z; C/ ist eine
52 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

kommutative Gruppe und es gibt 0 und 1. Aber es fehlen erfüllen. So gewinnt man die reellen Nullstellen der Funk-
inverse Elemente. tion f . Betrachten wir konkret das Polynom

f .x/ D x 2 C 1 :
2
Definition eines Ringes Das Polynom hat in R keine Nullstellen, da die Gleichung
Eine Menge R mit zwei Verknüpfungen C und  heißt x 2 C 1 D 0 in R nicht lösbar ist, denn in R sind Quadrate
Ring, wenn gilt: stets positiv. Analytisch ist man somit fertig, die Funktion
1. .R; C/ ist eine kommutative Gruppe. f hat in ihrem Definitionsbereich keine Nullstelle. Aber
2. Die Multiplikation  ist assoziativ. algebraisch ist die Auflösung der Gleichung noch längst
3. Es gelten die beiden Distributivgesetze .a C b/  c D nicht erledigt:
.a  c/ C .b  c/ und a  .b C c/ D .a  b/ C .a  c/. Es trifft zwar zu, dass es keine reellen Nullstellen gibt,
aber kann es nicht sein, dass es einen R umfassenden Kör-
per gibt, in dem eine Nullstelle von f liegt? Und tatsächlich
Hat ein Ring .R; C; / die zusätzlichen Eigenschaften: liegt in C © R die komplexe Zahl i mit i2 D 1; damit sind
4 die Multiplikation ist kommutativ, i und i zwei verschiedene Nullstellen von f , die für die
4 es existiert ein neutrales Element 1 ¤ 0 bezüglich der analytische Diskussion der Funktion f W R ! R ohne Be-
Multiplikation, lange sind, für algebraische Zwecke aber zur Auflösung der
4 in R gibt es keine Nullteiler, Gleichung führen.
Es hat sich für die Algebra als sehr zweckmäßig erwie-
so nennt man den Ring R einen Integritätsbereich. sen, Polynome in einem anderen Licht darzustellen, als dies
in der Analysis üblich ist. Wir betrachten in der Algebra das
Beispiel x nicht als eine reelle Zahl; wir fassen es als eine Unbe-
4 Jeder kommutative Körper ist ein Integritätsbereich. stimmte auf, in die wir z. B. Zahlen einsetzen können. Man
4 .Z; C; / ist ein Integritätsbereich. Es gibt nämlich keine verwendet in der Algebra sogar gerne ein anderes Symbol
Nullteiler. für die Unbestimmte als in der Analysis – wir werden X
4 Die Menge der Restklassen modulo 12 schreiben – und verwenden eigentlich genauer die Bezeich-
nungen
Z12 D f0; 1; : : : ; 11g 4 Polynom in der Algebra und
4 Polynomfunktion in der Analysis.
ergibt einen Ring .Z12 ; ˚; ˇ/. Dieser ist nicht nulltei-
lerfrei, denn wegen 3  4 D 12 ist 3 ˇ 4 D 0, obwohl 3 Diese Bezeichnungen werden aber keineswegs konsequent
und 4 von 0 verschieden sind. 9 benutzt. Auch wir werden in der Analysis oftmals wieder
von Polynomen sprechen, obwohl wir Polynomfunktionen
Wir vertiefen die Ringtheorie nicht weiter und behan- meinen.
deln nur ausführlich ein für uns wichtiges Beispiel eines Wir beginnen nun bei „Adam und Eva“ und erklären,
Rings, nämlich den Polynomring. was ein Polynom ist. Man tut gut daran, vorläufig zu ver-
Die klassische Algebra ist die Lehre von der Auflösung gessen, was es mit den oben erwähnten Polynomfunktionen
von Gleichungen der Form auf sich hat. Wir kommen auf diese nach der Einführung
der Polynome wieder zurück.
an x n C    C a1 x C a0 D 0 Weil wir in der Mathematik darauf achten, dass De-
finitionen sinnvoll sind, müssen wir erklären, was eine
mit Koeffizienten an ; : : : ; a0 aus einem Körper. Die linke Unbestimmte ist. Das ist gar nicht so einfach, es sind da-
Seite dieser Gleichung assoziiert man als Student des ers- zu einige Vorbetrachtungen nötig.
ten Semesters im Allgemeinen mit einem Polynom, also mit
einer reellen Funktion der Form
Folgen, die nur endlich viele Folgenglieder
f W R ! R ; f .x/ D an x n C    C a1 x C a0 ; ungleich 0 haben, sind fast überall 0

wobei die Koeffizienten a0 ; : : : ; an reelle Zahlen sind. Und Der Ausdruck a0 C a1 X C    C an X n ist durch seine Koef-
beim Element x hat man vielleicht im Hinterkopf, dass x fizienten a0 ; : : : ; an und 0 D anC1 D anC2 D    eindeutig
die reellen Zahlen durchläuft. Will man die Nullstellen des gegeben. Für jedes i 2 N0 gilt: Vor X i steht ai .
Polynoms f bestimmen, so steht man vor der Aufgabe, die Aber das ist nichts anderes als die folgende Abbildung
Zahlen x 2 R zu bestimmen, die die Gleichung 
N0 ! R;
aW mit ai D 0 für alle i > n :
f .x/ D an x n C    C a1 x C a0 D 0 i 7! ai
2.4  Ringe
53 2

Übersicht: Gruppen, Ringe und Körper

Wir stellen die Axiome für Gruppen, Ringe und Körper zu- (2) a C .b C c/ D .a C b/ C c.
sammen. Dabei ersetzen wir bei den Gruppen bewusst die (3) Es gibt ein Element 0 (Nullelement) in R mit 0 C a D a.
ursprünglich etwas schwächeren Forderungen nach einem (4) Zu jedem a 2 R gibt es a 2 R (inverses Element) mit
linksneutralen und linksinversen Element durch äquivalente, a C .a/ D 0.
aber übersichtlichere Bedingungen. Auch bei den Körpern (5) a .b c/ D .a b/ c.
gibt es geringfügige Abweichungen gegenüber früher: Wir (6) a .b C c/ D a b C a c und .a C b/ c D a c C b c.
schreiben alle Bedingungen aus, um sie leichter mit jenen bei
Ringen vergleichen zu können. Körper
Es sei K eine Menge mit den beiden Verknüpfungen C W
Gruppe .K K/ ! K und  W .K K/ ! K. Es heißt .K; C; /
Es sei G eine nichtleere Menge mit einer Verknüpfung W ein Körper, wenn für alle a; b; c 2 K gilt:
.G G/ ! G. Es heißt .G; / eine Gruppe, wenn für alle (1) a C b D b C a.
a; b; c 2 G gilt: (2) a C .b C c/ D .a C b/ C c.
(1) .a b/ c D a .b c/. (3) Es gibt ein Element 0 (Nullelement) in K mit 0 C a D a.
(2) Es existiert ein Element e 2 G mit e a D a D a e. (4) Zu jedem a 2 K gibt es a 2 K (inverses Element) mit
(3) Zu jedem a 2 G existiert ein a1 2 G mit a1 a D e D a C .a/ D 0.
a a1 . (5) a .b c/ D .a b/ c.
(6) Es gibt ein Element 1 ¤ 0 (Einselement) in K mit 1  a D
Ring a D a  1.
Es sei R eine Menge mit den beiden Verknüpfungen C W (7) Zu jedem a 2 K n f0g gibt es a1 2 K (inverses Element)
.R R/ ! R und  W .R R/ ! R. Es heißt .R; C; / mit a a1 D 1 D a1 a.
ein Ring, wenn für alle a; b; c 2 R gilt: (8) a b D b a.
(1) a C b D b C a. (9) a .b C c/ D a b C a c und .a C b/ c D a c C b c.

Wir haben hierbei ai anstelle von a.i/ geschrieben. Die mit 1 zu. Anstelle des Körpers R wählen wir ab jetzt ei-
Abbildung a wiederum können wir durch die endlichen vie- nen beliebigen kommutativen Ring R mit 1. Man gewinnt
len von null verschiedenen Bilder eindeutig festlegen. Man dadurch viel; und man kann sich für R stets einen der ver-
schreibt trauten Ringe Z oder R denken.
Vielleicht ist es auch sinnvoll, an dieser Stelle darauf
a D .a0 ; a1 ; : : : ; an ; 0; : : :/
hinzuweisen, dass, egal wie abstrakt das Folgende erschei-
und nennt die Abbildung a auch eine Folge mit den Fol- nen mag, wir doch wieder bei der vertrauten Darstellung
gengliedern ai (mehr über Folgen im Grundwissenbuch, a0 C a1 X C   C an X n für Polynome landen werden. Dann
Kapitel 8). Von den endlich vielen möglichen Ausnahmen wird aber X ein wohldefiniertes Objekt sein, an dem nichts
a0 ; : : : ; an abgesehen sind alle Folgenglieder null. Man be- „Unbestimmtes“ haften wird.
achte, dass es auch zugelassen ist, dass manche oder alle
der endlichen vielen Zahlen a0 ; : : : ; an ebenfalls null sind.
Weil die Anzahl der endlich vielen Elemente a0 ; : : : ; an Der Polynomring RŒX  besteht aus allen
mehr oder weniger nichts ist im Vergleich zu der Anzahl der Folgen mit der Eigenschaft, dass fast alle
Elemente von N, hat sich die folgende Sprechweise einge- Folgenglieder null sind
bürgert: Man sagt
ai D 0 für fast alle i 2 N0 Wir betrachten nun die Gesamtheit aller Abbildungen von
N0 nach R, die die Eigenschaft haben, dass fast alle Bilder
und meint damit, dass ai ¤ 0 auf nur endlich viele i 2 N0
den Wert null haben. Wir bezeichnen diese Gesamtheit mit
zutrifft.
dem Symbol RŒX:
? Selbstfrage 2.17
Können Sie eine Abbildung g W N0 ! R angeben, die
nicht für fast alle i 2 N0 und dennoch unendlich oft den Die Polynome über R
Wert 0 hat? Wir nennen jede Abbildung a W N0 ! R mit a.i/ D 0
für fast alle i 2 N0 ein Polynom. Die Menge
Wir erklären nun Polynome als Folgen, die fast überall RŒX D fa W N0 ! R j a.i/ D 0 für fast alle i 2 N0 g
den Wert 0 haben. Dabei wollen und müssen wir uns
keineswegs auf reelle Folgen festlegen. Wir lassen als Wer- ist die Menge aller Polynome über R.
temenge solcher Abbildungen einen beliebigen Ring R
54 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Ein Polynom ist eine Folge in R, die nur an endlichen Es seien a D .a0 ; a1 ; a2 ; : : :/ und b D .b0 ; b1 ; b2 ; : : :/
vielen Stellen aus N0 einen von null verschiedenen Wert Polynome aus RŒX mit ak D 0 für alle natürlichen k > n
annimmt. und bl D 0 für alle natürlichen l > m, d. h.,
2
Beispiel Es sind a D .a0 ; : : : ; an ; 0; : : :/; b D .b0 ; : : : ; bm ; 0; : : :/ :

Dann gilt für die Folgenglieder cr der Summe a C b und für


.1; 1; 1; 1; : : : ; 1; 0; 0; : : :/ und .0; : : : ; 0; 1; 0; 0; : : :/
die Folgenglieder ds des Produkts a b:
Polynome über jedem kommutativen Ring R mit 1. Dabei 4 cr D 0 für alle r > maxfm; ng,
stehen die ersten Auslassungspunkte : : : jeweils für endlich 4 ds D 0 für alle s > m C n.
viele ausgelassene Werte. 9
Beispiel Gegeben seien die reellen Polynome a D
.1; 2; 0; 3; 0; : : :/ und b D .0; 1; 1; 0; : : :/. Dann gilt:
Polynome werden komponentenweise
a C b D .1; 3; 1; 3; 0; : : :/;
addiert, die Multiplikation erfolgt
durch Summation über die Produkte a  b D .0; 1; 3; 2; 3; 3; 0; : : :/ : 9
mit gleicher Indexsumme
Die Menge der Polynome bildet
Wir erklären auf der Menge RŒX aller Polynome eine Ad- mit der Addition C und der Multiplikation 
dition und eine Multiplikation. Es seien einen kommutativen Ring .RŒX ; C; /
a D .a0 ; : : : ; an ; 0; : : :/ ; b D .b0 ; : : : ; bm ; 0; : : :/
Für die Menge RŒX der Polynome über R gilt mit den eben
zwei Polynome aus RŒX. Wir definieren nun die Addition definierten Verknüpfungen C und  :
und Multiplikation durch:

N0 ! R; Satz vom Polynomring
a C bW Für jeden kommutativen Ring R mit 1 ist .RŒX; C; / ein
k 7! ak C bk ;
 kommutativer Ring mit 1.
N0 ! R;
a  bW P
k 7! i Cj Dk ai bj :

Die Addition ist also komponentenweise erklärt, die Mul- Beweis Es sind: (i) .RŒX; C/ ist eine kommutative Grup-
tiplikation sieht etwas ungewohnt aus. Deshalb geben wir pe, (ii) die Multiplikation  ist assoziativ, (iii) die Multi-
explizit die ersten Folgenglieder an: plikation ist kommutativ, (iv) es gibt ein Einselement und
(v) es gilt das Distributivgesetz.
Es seien a D .a0 ; a1 ; a2 ; : : :/, b D .b0 ; b1 ; b2 ; : : :/ und
.a0 ; a1 ; a2 ; a3 ; : : :/ C .b0 ; b1 ; b2 ; b3 ; : : :/
c D .c0 ; c1 ; c2 ; : : :/ Polynome aus RŒX.
D .a0 C b0 ; a1 C b1 ; a2 C b2 ; a3 C b3 ; : : :/ (i) Dass C eine Verknüpfung auf RŒX ist, haben wir
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
Dc0 Dc1 Dc2 Dc3 schon festgestellt. Die Addition ist auch assoziativ, da die
Addition in R assoziativ ist:
und
.a C b/ C c
.a0 ; a1 ; a2 ; a3 ; : : :/  .b0 ; b1 ; b2 ; b3 ; : : :/ D .a0 C b0 C c0 ; a1 C b1 C c1 ; a2 C b2 C c2 ; : : :/
D . a 0 b0 ; a 0 b1 C a 1 b0 ; a 0 b2 C a 1 b1 C a 2 b0 ; D a C .b C c/ :
„ƒ‚… „ ƒ‚ … „ ƒ‚ …
Dd0 Dd1 Dd2

a0 b3 C a1 b2 C a2 b1 C a3 b0 ; : : :/ : Die Verknüpfung ist wegen


„ ƒ‚ …
Dd3
a C b D .a0 C b0 ; a1 C b1 ; a2 C b2 ; : : :/
Bei der Multiplikation beachte man, dass die Summe der D .b0 C a0 ; b1 C a1 ; b2 C a2 ; : : :/ D b C a
Indizes der Summanden des k-ten Folgenglieds stets k er-
gibt. auch kommutativ. Das neutrale Element ist die Nullfolge
Offenbar sind Summe und Produkt zweier Folgen, bei 0 D .0; 0; : : :/ 2 RŒX; es gilt nämlich
denen fast alle Folgenglieder null sind, erneut solche Fol-
gen. Genauer kann man sagen: 0 C a D .0 C a0 ; 0 C a1 ; 0 C a2 ; : : :/ D a :
2.4  Ringe
55 2
Und schließlich gibt es zu jedem Element ein Inverses in Der Ring R ist ein Teilring von RŒX 
RŒX, denn für a D .a0 ; a1 ; a2 ; : : :/ 2 RŒX gilt
offenbar a C .a/ D 0. Somit ist (i) gezeigt.
Völlig analog zu einem Teilkörper erklärt man den Begriff
(ii) Wir zeigen, dass das Assoziativgesetz der Multipli-
Teilring: Eine Teilmenge S eines Rings R heißt ein Teilring
kation gilt:
von R, wenn S mit den von R induzierten Verknüpfungen
.a b/ c D .d0 ; d1 ; d2 ; : : :/ mit selbst wieder einen Ring bildet. Die sogenannten trivialen
X  X  X Teilringe sind der Nullring f0g und der ganze Ring R. Wir
dl D ai bj ck D .ai bj / ck : zeigen nun, dass wir den Ring R stets als Teilring des Poly-
rCkDl i Cj Dr i;j;k2N0 nomrings RŒX auffassen können. Hierbei ist eine Feinheit
.i Cj /CkDl
zu berücksichtigen: Natürlich ist der Ring R selbst niemals
Nun klammern wir anders: Teilmenge von RŒX; die Menge RŒX ist eine Menge von
0 0 0 Folgen, deren Folgenglieder aus R sind. Die Elemente aus
a .b c/ D .d0 ; d1 ; d2 ; : : :/ mit
X  X  X R sind hingegen nicht von dieser Form und daher
0
dl D ai bj ck D ai .bj ck / :
i CsDl j CkDs i;j;k2N
R ª RŒX:
0
i C.j Ck/Dl
Somit hat es eigentlich keinen Sinn, bei R von einem Teil-
Da wegen des in R gültigen Assoziativgesetzes beide Male
ring von RŒX zu sprechen. Aber wir betten nun den Ring
dasselbe Element herauskommt, gilt das Assoziativgesetz
R in den Polynomring RŒX ein. Dabei meint man, dass
auch in RŒX.
man eine injektive, additive und multiplikative Abbildung
(iii) Die Multiplikation ist kommutativ, da sie in R kom-
angibt, die den Ring R in den Polynomring RŒX einbettet.
mutativ ist:
 X X X  Eine additive und multiplikative Abbildung zwischen Rin-
ab D ai bj ; ai bj ; ai bj ; : : : gen bezeichnet man auch als Ringhomomorphismus:
i Cj D0 i Cj D1 i Cj D2
 X X X 
D bj ai ; bj ai ; bj ai ; : : : D b a : Ringhomomorphismus
j Ci D0 j Ci D1 j Ci D2 Eine Abbildung ' W S ! S 0 zwischen Ringen S und S 0
nennt man einen Ringhomomorphismus oder kurz Ho-
(iv) Das Einselement ist die Folge 1 D .1; 0; 0; : : :/ 2
momorphismus, wenn für alle r; s 2 S gilt:
RŒX; es gilt nämlich für jedes a 2 RŒX:
4 '.r C s/ D '.r/ C '.s/,
1 a D .1; 0; : : :/.a0 ; a1 ; a2 ; : : :/ D .a0 ; a1 ; a2 ; : : :/ D a : 4 '.r s/ D '.r/ '.s/.

(v) Wir begründen das Distributivgesetz. Es gilt:


 X X
.a C b/ c D .ai C bi /cj ; .ai C bi /cj ; Wir können einen solchen Ringhomomorphismus von R in
i Cj D0 i Cj D1
RŒX angeben:
X  
R ! RŒX;
.ai C bi /cj ; : : : W
r 7! .r; 0; 0; : : :/:
i Cj D2
 X X Jedem Ringelement r 2 R wird die Folge a 2 RŒX mit
D ai cj C bi cj ; ai cj C bi cj ;
a0 D r und ai D 0 für i ¤ 0 zuordnet. Nun zeigen wir:
i Cj D0 i Cj D1
X 
ai cj C bi cj ; : : : : Lemma Für jeden kommutativen Ring R ist die Abbildung
i Cj D2 
R ! RŒX;
W
Und nun berechnen wir r 7! .r; 0; 0; : : :/
 X X X 
ac Cbc D ai cj ; ai cj ; ai cj ; : : : ein injektiver Ringhomomorphismus.
i Cj D0 i Cj D1 i Cj D2
 X X X  Beweis Für alle r; s 2 R gilt:
C bi cj ; bi cj ; bi cj ; : : :
i Cj D0 i Cj D1 i Cj D2 .r C s/ D .r C s; 0; 0; : : :/
 X X D .r; 0; 0; : : :/ C .s; 0; 0; : : :/ D .r/ C .s/ ;
D ai cj C bi cj ; ai cj C bi cj ;
i Cj D0 i Cj D1
.r s/ D .r s; 0; 0; : : :/
X  D .r; 0; 0; : : :/ .s; 0; 0; : : :/ D .r/ .s/ :
C ai cj C bi cj ; : : : : 
i Cj D2 Folglich ist  ein Ringhomomorphismus.
56 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Die Abbildung  ist zudem injektiv: Es gelte .r/ D .s/ wobei a an .n C 1/-ter Stelle steht. Für ein beliebiges P D
für r; s 2 R, d. h., .a0 ; a1 ; a2 ; : : : ; an ; 0; 0; : : :/ 2 RŒX finden wir mit unserer
Definition der Addition in RŒX;
.r; 0; 0; : : :/ D .s; 0; 0; : : :/ :
2
P D a0 X 0 C a1 X C a2 X 2 C    C an X n :
Hieraus folgt r D s. 

Wir schreiben kürzer


Nach diesem Lemma ist
X
n X
.R/ D f.r; 0; : : :/ j r 2 Rg  RŒX P D ai X i oder P D ai X i :
i D0 i 2N0
isomorph zu R; es ist nämlich die Abbildung
P
R ! .R/; r 7! .r; 0; : : :/ Man beachte, dass P D i
i 2N0 ai X nur eine andere
Schreibweise für die Abbildung P W N0 ! R mit P .i/ D
eine Bijektion. D. h., wir können die Elemente .r; 0; : : :/ 2 ai ist. Daher ist ein Koeffizientenvergleich möglich:
RŒX mit den Elementen r 2 R identifizieren. Hierbei er-
setzt man gewissermaßen die Elemente .r; 0; : : :/ in RŒX
durch die entsprechenden Elemente r aus R – daher auch
Der Koeffizientenvergleich
der Begriff einer Einbettung. Übrigens bezeichnet man P P
Zwei Polynome i2N0 ai X i und i2N0 bi X i sind genau
Einbettungen oft mit dem griechischen Buchstaben  (wie
dann gleich, wenn sie die gleichen Koeffizienten haben,
Injektion).
d. h.:
Wir unterscheiden von nun ab die Bilder .r/ 2 RŒX
und r 2 R nicht mehr und fassen R als einen Teilring von X X
ai X i D bi X i , ai D bi für alle i 2 N0 :
RŒX auf. Wir nennen die Elemente r 2 R auch die Kon- i2N0 i2N0
stanten von RŒX.
Nun führen wir eine neue Schreibweise ein und er-
halten dadurch für die Elemente aus P RŒX die bekannte
Darstellung als Polynome in der Form niD0 ai X i in einer ?Selbstfrage 2.18
Unbestimmten X, wobei X ein Element von RŒX ist. Wieso ist die folgende Aussage nicht ganz korrekt?

X
n X
m
ai X i D bi X i , n D m und ai D bi für alle i :
Das Polynom .0; 1; 0; : : :/ ist iD0 iD0
die Unbestimmte X
Addition und Multiplikation lauten mit dieser Schreibweise
wie folgt:
Unter der Vielzahl von Polynomen in RŒX wählen wir nun
ein ganz bestimmtes Polynom aus und geben diesem den X  X  X
Namen X. Die Abbildung ai X i C bi X i D .ai C bi /X i ;
8 i 2N0 i 2N0 i 2N0
<N0 ! R; X  X  X X 

XW 1; falls i D 1; ai X i  bj X j D ai bj X k :
: i 7!
0; falls i ¤ 1 i 2N0 j 2N0 k2N0 i Cj Dk

liegt in RŒX, es ist X.k/ D 0 für alle k  2. Ausgeschrie- Wir wiederholen das obige Beispiel zur Multiplikation
ben lautet das Element X 2 RŒX zweier Polynome in dieser neuen Schreibweise:
X D .0; 1; 0; 0; : : :/ : Beispiel Gegeben seien die reellen Polynome P D 1 C
Die mysteriöse Unbestimmte X ist damit eine wohlbe- 2 X C 3 X 3 und Q D X C X 2 . Dann gilt:
stimmte Abbildung von N0 nach R. Für die im Ring RŒX
definierten Potenzen X 0 D 1, X nC1 D X n X folgt: P C Q D 1 C 3 X C X 2 C 3 X 3;
P  Q D .1 C 2 X C 3 X 3 /  .X C X 2 /
X n D .0; 0; : : : ; 0; 1; 0; : : :/;
D X C 3 X 2 C 2 X 3 C 3 X 4 C 3 X 5: 9
wobei die 1 an .n C 1/-ter Stelle steht und sonst nur Nul-
len vorkommen. Für a 2 R erhalten wir nun wegen a D Die Multiplikation der Folgen ist genau so definiert, dass
.a; 0; 0; : : :/ D a X 0 : mit dieser neuen Schreibweise das bekannte distributive
Ausmultiplizieren der einzelnen Summanden von Polyno-
a X n D .0; : : : ; 0; a; 0 : : :/; men funktioniert.
2.4  Ringe
57 2
Mit den erklärten Verknüpfungen C und  in RŒX ha- werden in die Unbestimmte X z. B. Zahlen einsetzen. So
ben wir die Polynome in ihrer vertrauten Form und mit gewinnen wir dann die bekannten Polynomfunktionen zu-
vertrauten Rechenregeln gewonnen: rück. Aber die (algebraischen) Polynome sind universeller:
In späteren Kapiteln werden wir in Polynome noch ganz
andere Dinge einsetzen, z. B. kann man Polynome oder Ab-
Darstellungssatz für Polynome bildungen oder Matrizen für X einsetzen.
Es ist
X 
RŒX D ai X i j ai 2 R; ai D 0 für fast alle i 2 N0 Das Einsetzen in Polynome
i2N0 Es sei R ein kommutativer Teilring des Rings S. Für ein
Polynom P 2 RŒX,
ein kommutativer Ring mit Einselement 1. Für das Null-
polynom 0 gilt ai D 0 für alle i 2 N0 . X
n
P D ai X i D a0 C a1 X C    C an X n
iD0

Man nennt RŒX den Polynomring in der Unbestimmten und jedes Element c 2 S ist das Element
X über R.
X
n
P .c/ D ai c i D a0 C a1 c C    C an c n
Beispiel Für die Polynome P D 1 C 2X C 3X 2 und Q D iD0
X C 2X 2 2 RŒX gilt:
4 Im Fall R D Z oder R D R: ein Element aus S – man sagt, man setzt in P für X das
Element c 2 S ein.
P C Q D 1 C 3X C 5X 2 ;
P  Q D X C 4X 2 C 7X 3 C 6X 4 :
i Man beachte die grundverschiedenen Bedeutungen der
4 Im Fall R D Z6 : Addition und Multiplikation: Bei

P C Q D .1 C 2X C 3X 2 / C .X C 2X 2 / ai  X i C aiC1  X iC1

D 1 C .2 C 1/X C .3 C 2/X 2 sind C und  die Addition und Multiplikation von Polyno-
D 1 C 3X C 5X ; 2 men aus RŒX. Bei

P  Q D .1 C 2X C 3X 2 /  .X C 2X 2 / ai  c i C aiC1  c iC1
D X C .2 C 2/X C .2  2 C 3  1/X C 3  2X
2 3 4
sind C und  die Addition und Multiplikation von Ring-
D X C 4X 2 C X 3 : 9 elementen aus S.

Nun können wir alle möglichen Elemente von Ringen, die


Das Einsetzen in Polynome ist R umfassen, in Polynome über R einsetzen:
ein Homomorphismus
Beispiel
4 Wir können in das Polynom P D 1 C X 2 2 RŒX die
Wir haben Polynome als Folgen mit nur endlich vielen
komplexe Zahl i 2 C  R einsetzen:
von null verschiedenen Folgengliedern eingeführt. Durch
die Festlegung X D .0; 1; 0; : : :/ haben wir mithilfe der P .i/ D 1 C i2 D 0 2 C :
erklärten Addition und Multiplikation von Polynomen die
vertraute Gestalt In C hat das reelle Polynom eine Nullstelle, in R hinge-
X
n gen nicht.
ai X i D a0 C a1 X C    C an X n 4 Da der Polynomring RŒX den Ring R umfasst, können
i D0 wir Polynome in Polynome einsetzen. Für P D 1 C X
und Q D X C X 2 aus RŒX gilt:
zurückgewonnen. Aber immer noch sind die so gewon-
nenen Polynome für den Anfänger etwas Ungewohntes – P .Q/ D 1 C X C X 2 2 RŒX : 9
sie wirken abstrakt und haben scheinbar kaum etwas mit
den wohlbekannten Polynomfunktionen gemein. Dass dem Wir betrachten nun den Fall R D S. Hält man ein Polynom
ganz und gar nicht so ist, wollen wir als Nächstes begrün- P 2 RŒX fest und setzt in dieses Polynom alle Elemente
den. Wir werden jetzt in Polynome einsetzen, genauer: Wir x 2 R ein, so erhält man eine Abbildung von R nach R:
58 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

P P
Beweis Es seien ai X i und i 2N0 bi X i zwei Poly-
i 2N0
Die Polynomfunktion nome aus RŒX. Die Abbildung ˚c ist additiv, da
Für jedes P 2 RŒX nennt man die Abbildung X  X 
X
2 ( ˚c ai X C
i
bi X i
D ˚c .ai C bi /X i
R!R
PQ W i 2N0 i 2N0 i 2N0
x 7! P .x/ X X X
D .ai C bi / c i D ai c i C bi c i
die zu P gehörige Polynomfunktion. Ein Element c 2 R i 2N0 i 2N0 i 2N0
X  X 
heißt Nullstelle von P , falls P .c/ D 0.
D ˚c ai X i
C ˚c bi X : i

i 2N0 i 2N0

Beispiel Die Abbildung ˚c ist multiplikativ, da


4 Für P D X 2  X C 2 2 RŒX ist X 
X
 ˚c ai X i bi X i
R ! R;
PQ W i 2N0
X X
i 2N0
 
x 7! x 2  x C 2
D ˚c a k bl X i

die zu P gehörige Polynomfunktion. i 2N0 kClDi


4 Für P D X 2 C X 2 Z2 ŒX ist X X 
D a k bl c i
 i 2N0 kClDi
Z2 ! Z2 ;
PQ W
x 7! x 2 C x und
X  X 
wegen P .0/ D 0 D P .1/ die Nullfunktion, obwohl P
˚c ai X i ˚c bi X i
nicht das Nullpolynom ist.
i 2N0 i 2N0
4 Für P D X 2  1 2 Z8 ŒX hat die Polynomfunktion X X 
 D ai c i bi c i
Z8 ! Z8 ; i 2N0 i 2N0
PQ W
x 7! x 2  1 X X 
D a k bl c i : 
i 2N0 kClDi
wegen P .1/ D P .3/ D P .5/ D P .7/ D 0 die vier
Nullstellen 1, 3, 5 und 7. 9
Der Grad eines Polynoms ist der Index
Das Einsetzen von Elementen c 2 R für X erklärt eine
des höchsten von null verschiedenen
Abbildung: Für jedes c 2 R ist
Koeffizienten

RŒX ! R;
˚c W P
P 7! P .c/ Ist P D i 2N0 ai X i 2 RŒX ein Polynom, so nennt man

eine Abbildung vom Ring der Polynome in den Ring R. maxfi 2 N0 j ai ¤ 0g; wenn P ¤ 0;
deg P D
Wir zeigen nun den wichtigen Satz: 1; wenn P D 0;

den Grad von P und vereinbart für alle n 2 N0 :


Der Einsetzhomomorphismus
Für jedes c 2 R ist die Abbildung 1 < n;
( 1 C n D n C .1/ D .1/ C .1/ D 1 :
RŒX ! S
˚c W
P 7! P .c/ Es sei P D a0 Ca1 X C  Can X n mit an ¤ 0 ein Polynom
vom Grad n. Dann heißen
ein Ringhomomorphismus – der Einsetzhomomorphis- 4 a0 das konstante Glied von P ,
mus. 4 an der höchste Koeffizient von P , und es heißt
4 P normiert, wenn an D 1.
2.4  Ringe
59 2
Beispiel Es ist Mit Polynomen über Integritätsbereichen können wir eben-
so wie in Z eine Division mit Rest durchführen. Dabei
2 C 3 X 2 C X 5 2 ZŒX entspricht die Forderung b ¤ 0 der Forderung bn ist in-
vertierbar, wobei bn der höchste Koeffizient von Q ¤ 0
ein Polynom vom Grad 5 mit konstantem Glied 2 ist, und die Rolle des Betrags j  j übernimmt der Grad deg,
und höchstem Koeffizienten 1, das Polynom ist also genauer:
normiert. 9

Wir stellen fest: Division mit Rest


Es seien P; Q 2 RŒX mit Q ¤ 0. Wenn der höchste
Koeffizient von Q invertierbar ist in R, dann existieren
Die Gradformel Polynome S; T 2 RŒX mit
Für beliebige Polynome P; Q 2 RŒX gilt:
P D Q S C T und deg T < deg Q :
deg.P C Q/  maxfdeg.P /; deg.Q/g;
deg.P Q/  deg.P / C deg.Q/:
Beweis Die Menge M D fP  Q H j H 2 RŒXg ist nicht
Ist R ein Integritätsbereich, so gilt sogar: leer. Daher gibt es in M ein Polynom T D rn X n C    C
r1 X Cr0 mit minimalem Grad n. Es gilt somit T D P Q S
deg.P Q/ D deg.P / C deg.Q/: für ein S 2 RŒX.
Wäre n D deg T  m D deg Q bei Q D bm X m C  C
b1 X C b0 , so bilde das Polynom
Beweis Ist P oder Q das Nullpolynom, so gelten offenbar  
T 0 D T  Q r n bm 1
X nm 2 M:
alle Aussagen. Nun seien P und Q von null verschieden.
Es seien an der höchste Koeffizient von P und bm der von Dieses Polynom T 0 liegt in M , da es wegen T D P  Q S
Q. Da sich bei der Addition von Polynomen mit gleichem die Form P  Q H hat. Wir berechnen nun:
Grad die höchsten Koeffizienten zu null addieren können,
gilt auf jeden Fall die erste Ungleichung. T 0 D rn X n C rn1 X n1 C    C r0
 1

Ist R ein Integritätsbereich, so ist das Produkt an bm der  r n X n C r n bm bm1 X n1 C   
von null verschiedenen höchsten Koeffizienten an und bm  1

D rn1  rn bm bm1 X n1 C .   /X n2 C    :
wieder von null verschieden. Da an bm in diesem Fall der
höchste Koeffizient von P Q ist, gilt die letzte Gleichheit. Es ist also deg T 0 < deg T im Widerspruch zur Wahl von
Ist R kein Integritätsbereich, so kann durchaus der Fall T . Das zeigt die Existenz von S und T mit den geforderten
an bm D 0 eintreten. In diesem Fall gilt die Ungleichung Eigenschaften. 
deg.P Q/  deg.P / C deg.Q/. 
Dieser Beweis ist konstruktiv. Ein ausführliches Beispiel
Beispiel Im Fall R D Z6 gilt für die Polynome P D folgt in der Beispielbox.
2 X 2 C 1 und Q D 3 X C 1:

P Q D 2 X 2 C 3 X C 1; Ein Polynom hat höchstens n Nullstellen


insbesondere also deg.P Q/ < deg.P / C deg.Q/. 9
Nach dem Satz zur Division mit Rest können wir jedes Po-
? Selbstfrage 2.19 lynom P 2 RŒX durch das Polynom Q D X  a mit
Warum definiert man deg 0 D 1? a 2 R vom Grad 1 mit Rest teilen. Es existieren gemäß
dem Satz zu P 2 RŒX und a 2 R Polynome S; T 2 RŒX
mit
Bei der Division von P durch Q bleibt
ein Rest mit Grad kleiner als deg.Q/ P D .X  a/ S C T und deg T < deg.X  a/ D 1;

d. h., T 2 R ist eine Konstante. Nun setzen wir a für X ein


Im Ring Z lässt sich eine Division mit Rest wie folgt for- und erhalten:
mulieren: Zu je zwei ganzen Zahlen a; b 2 Z mit b ¤ 0
P .a/ D .a  a/ S.a/ C T D T:
existieren ganze Zahlen q; r mit
Ist nun a eine Nullstelle von P , d. h., P .a/ D 0, so folgt
a D q b C r und 0  r < jbj: T D 0. Damit ist gezeigt:
60 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Beispiel: Division von Polynomen mit Rest

Wir teilen das Polynom


2
P D 4 X 5 C 6 X 3 C X C 2 2 ZŒX durch Q D X 2 C X C 1 2 ZŒX und
P D X C X  4 X C X  X  2 2 ZŒX
5 4 3 2
durch Q D X  X  1 2 ZŒX
2

mit Rest.

Problemanalyse und Strategie


Wir benutzen die Methode aus dem Beweis des Satzes zur Division mit Rest.

Lösung
Die Anfangsterme der Polynome P und 4X 3  Q stimmen überein, den Rest müssen wir korrigieren; man erhält sukzessive:

.4 X 5 C 6 X3 C X C 2/ D .X 2 C X C 1/.4 X 3  4 X 2 C 6 X  2/
 .4 X X C 4 X X C 4 X 3 1
3 2 3
/
4 X 4 C 2 X3 C X C2
 .4 X X  4 X 2 X  4 X 2 1
2 2
/
6 X3 C 4 X2 C X C2
 .6 X X 2 C 6 X X C 6X 1 /
2 X 2  5X C 2
 .2 X 2  2 X  2/
3 X C 4

Damit ist

4 X 5 C 6 X 3 C X C 2 D .4 X 3  4 X 2 C 6 X  2/.X 2 C X C 1/  3 X C 4:

1 nm
In der Rechnung entspricht das Polynom in der zweiten Zeile dem Polynom an bm X Q, und das Polynom unter dem ersten
Strich entspricht T 0 . Das Weitere ist eine Wiederholung des Verfahrens.
Nun zum zweiten Beispiel:

.X 5 C X 4  4 X 3 C X 2  X  2/ D .X 2  X  1/.X 3 C 2 X 2  X C 2/
 .X 5  X 4  X 3/
2 X4  3 X3 C X2
 .2 X 4  2 X 3  2 X 2/
X 3 C 3 X 2  X
 .X 3 C X 2 C X/
2 X2  2 X  2
 .2 X 2  2 X  2/
0

Damit ist

X 5 C X 4  4 X 3 C X 2  X  2 D .X 2  X  1/ .X 3 C 2 X 2  X C 2/ :
2.4  Ringe
61 2
Folgerung Hat ein Polynom P 2 RŒX eine Nullstelle a 2 Kommentar Im Allgemeinen ist es außerordentlich
R, so existiert ein S 2 RŒX mit P D .X  a/ S. schwierig bis unmöglich, die Nullstellen von Polynomen
über R vom Grad 3 und höher zu bestimmen. Aus der Schu-
Wir können hieraus folgern: le ist man es gewohnt, dass man die Nullstellen von reellen
Polynomen höheren Grades erraten kann; sie sind bei den
Beispielen aus der Schule meist ganze Zahlen, die nahe der
Abspalten von Linearfaktoren Null liegen. Das Erraten der Nullstellen scheitert aber schon
Es seien R ein Integritätsbereich und P ¤ 0 ein Polynom beim Polynom P D X 3  0; 4 X 2 C 0; 04 X  1; 2 X 2 C
vom Grad n über R. 0; 48 X C 0; 048 2 RŒX. Tatsächlich ist die Situation wie
(a) Sind a1 : : : ; ak 2 R verschiedene Nullstellen von P , folgt:
so gilt: 4 Ein Polynom P D a 2 RŒXnf0g vom Grad 0 hat keine
Nullstelle in R.
P D .X  a1 /    .X  ak / Q 4 Ein Polynom P D a X C b 2 RŒX vom Grad 1 hat die
Nullstelle  ba in R.
für ein Q 2 RŒX. 4 Ein Polynom P D a X 2 C b X C c 2 RŒX vom Grad
(b) Es hat P höchstens n verschiedene Nullstellen in R. 2 hat im Fall D D b 2  4 a c  0 diepbeiden nicht
(c) Sind S; T Polynome vom Grad  n und gilt S.ai / D notwendig verschiedenen Nullstellen b˙ 2a
D
in R.
T .ai / für n C 1 verschiedene Elemente a1 : : : ; anC1 4 Im Allgemeinen sind alle bekannten Formeln zur (ex-
aus R, so gilt S D T . akten) Bestimmung der Nullstellen von reellen Polyno-
men vom Grad größer oder gleich 3 zu kompliziert, als
dass man sie tatsächlich zur Bestimmung benutzt. Man
Beweis (a) Für k D 1 steht dies in der obigen Folgerung. benutzt vielmehr numerische Verfahren, mit deren Hilfe
Es sei k  2, und die Behauptung sei richtig für k  1: man die Nullstellen näherungsweise ermittelt.
P D .X  a1 /    .X  ak1 / S
Genauere Aussagen zu den Nullstellen von Polynomen
für ein S 2 RŒX. Einsetzen von ak liefert mit dem Ein- vom Grad 3 und größer und zu den Tatsachen, die dahin-
setzhomomorphismus ter stecken, können wir an dieser Stelle noch nicht machen.
0 D P .ak / D .ak  a1 /    .ak  ak1 / S.ak / Üblicherweise lernt man die Hintergründe zu diesen recht
„verzwickten Sachverhalten“ in einer Vorlesung zur (nicht-
und damit S.ak / D 0, weil R nullteilerfrei ist. Mit der linearen) Algebra, die man meist erst ab dem zweiten
obigen Folgerung erhalten wir S D .X  ak / Q für ein Studienjahr besucht.
Q 2 RŒX, also P D .X  a1 /    .X  ak / Q.
(b) Hätte ein Polynom P vom Grad n mehr als n
Nullstellen, so könnten wir nach dem Teil (a) mehr als n Man sagt, ein Polynom zerfällt in
Linearfaktoren abspalten. Mit der Gradformel würde dann
Linearfaktoren, wenn es sich als Produkt
aber folgen, dass der Grad von P auch größer als n ist. Die-
ser Widerspruch liefert die Behauptung. von Polynomen vom Grad 1 schreiben lässt
(c) Wegen deg.S T /  n und .S T /.ai / D 0 für i D
1; : : : ; n C 1 folgt S  T D 0 nach der bereits bewiesenen Nach dem Satz von vorhin über das Abspalten von Linear-
Aussage in (b). Somit gilt S D T .  faktoren können wir jedes Polynom P 2 RŒX über einem
Integritätsbereich R mithilfe seiner Nullstellen in R zerle-
i Das Polynom X 2  1 2 Z8 ŒX vom Grad 2 hat die vier gen. Dazu führen wir eine neue Sprechweise ein. Man sagt,
verschiedenen Nullstellen 1; 3; 5; 7 2 Z8 . Der Ring Z8 ist eine Nullstelle a 2 R des Polynoms P 2 RŒX hat die
allerdings kein Integritätsbereich. Vielfachheit , wenn
Beispiel
4 Das Polynom P D X 4  6X 3 C 11X 2  6X 2 RŒX P D .X  a/ Q mit Q.a/ ¤ 0
hat wegen
gilt. Sind nun a1 ; : : : ; ar alle verschiedenen Nullstellen von
X 4  6X 3 C 11X 2  6X D X.X  1/.X  2/.X  3/ P in R der Vielfachheiten 1 ; : : : ; r , so gilt
die vier verschiedenen Nullstellen 0; 1; 2; 3.
4 Das Polynom P D X 5 2X 4 C2X 3 2X 2 CX 2 RŒX P D .X  a1 /1    .X  ar /r Q
hat wegen
mit einem Polynom Q, das in R keine Nullstelle mehr hat.
X 5  2X 4 C 2X 3  2X 2 C X D X.X  1/2 .X 2 C 1/
Liegen sämtliche Nullstellen von P in R, dann ist Q 2 R
die zwei verschiedenen Nullstellen 0 und 1. 9 eine Konstante. In diesem Fall sagt man, das Polynom P
62 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

zerfällt in Linearfaktoren, es ist dann nämlich ein Pro- einfache Aufgaben mit wenigen Rechenschritten
dukt einer Konstanten mit linearen Polynomen, d. h. von mittelschwere Aufgaben, die etwas Denkarbeit und
Polynomen vom Grad 1. Außerdem gilt in diesem Fall unter Umständen die Kombination verschiedener
2 1 C    C r D deg P:
Konzepte erfordern
anspruchsvolle Aufgaben, die fortgeschrittene Kon-
zepte (unter Umständen auch aus späteren Kapiteln)
? Selbstfrage 2.20 oder eigene mathematische Modellbildung benötigen
Was ist im Fall r D deg P los?

Beispiel
4 Das Polynom P D X 4  6X 3 C 11X 2  6X 2 RŒX Verständnisfragen
zerfällt wegen
2.1  Sudoku für Mathematiker. Es sei G D fa; b; c;
X 4  6X 3 C 11X 2  6X D X.X  1/.X  2/.X  3/ x; y; zg eine sechselementige Menge mit einer inneren
Verknüpfung  W G G ! G. Vervollständigen Sie die un-
über R in Linearfaktoren.
tenstehende Multiplikationstafel unter der Annahme, dass
4 Das Polynom P D X 5 2X 4 C2X 3 2X 2 CX 2 RŒX
.G; / eine Gruppe ist.
zerfällt wegen
 a b c x y z
X 5  2X 4 C 2X 3  2X 2 C X D X.X  1/2 .X 2 C 1/
a c b
über R nicht in Linearfaktoren, da X C 1 keine Null-
2 b x z
stelle in R hat. Wegen X 2 C1 D .X Ci/.X i/ 2 CŒX c y
zerfällt P aber sehr wohl über C in Linearfaktoren. 9 x x
y
Kommentar Der sogenannte Fundamentalsatz der Algebra z a x
(siehe Grundwissenbuch, Abschnitte 4.6 und 9.5) besagt,
dass jedes Polynom P 2 CŒX in Linearfaktoren zerfällt. 2.2  Zeigen Sie: In einer Gruppe sind die Gleichun-
gen x a D b und a y D b eindeutig nach x bzw. y
Wir haben in diesem Kapitel Gruppen, Ringe und Körper auflösbar.
so weit dargestellt, wie wir es für unsere Zwecke in der li-
nearen Algebra benötigen werden. Dabei haben wir nur an 2.3  Es sei K D f0; 1; a; bg eine Menge mit 4 ver-
der Oberfläche der Theorien dieser algebraischen Struktu- schiedenen Elementen. Füllen Sie die folgenden Tabellen
ren gekratzt. In einer Vorlesung zur (nichtlinearen) Algebra, unter der Annahme aus, daß .K; C; / ein Schiefkörper (mit
die man üblicherweise im zweiten Studienjahr hört, werden dem neutralen Element 0 bezüglich C und dem neutralen
Gruppen, Ringe und Körper ausführlicher behandelt. Aber Element 1 bezüglich ) ist. Begründen Sie Ihre Wahl.
auch in dieser Vorlesung werden nur grundlegende Resul-
C 0 1 a b  0 1 a b
tate erarbeitet, und zwar üblicherweise genauso viele wie
nötig sind, um die in einer Algebravorlesung behandelten 0 0
Fragen zur Auflösbarkeit von algebraischen Gleichungen 1 1
zu klären. Tatsächlich aber ist alleine die Gruppentheorie a a
eine der umfangreichsten mathematischen Theorien über- b b
haupt. Um nur eine vage Vorstellung davon zu bekommen,
erwähnen wir, dass es in der Gruppentheorie einen Satz 2.4  Kann ein Polynomring KŒX ein Körper sein?
gibt, dessen Beweis etwa 5000 Seiten umfasst; und dabei
2.5  In welchen Ringen gilt 1 D 0?
ist dieser sogenannte große Satz, der alle endlichen einfa-
chen Gruppen beschreibt, nur einer von vielen Sätzen. Für
das erste Studienjahr aber kommen wir mit unseren weni-
gen Resultaten zur Gruppen-, Ring- und Körpertheorie aus. Rechenaufgaben

2.6  Untersuchen Sie die folgenden inneren Verknüp-


Aufgaben fungen N N ! N auf Assoziativität, Kommutativität und
Existenz von neutralen Elementen.
Gelegentlich enthalten die Aufgaben mehr Angaben, als für (a) .m; n/ 7! mn .
die Lösung erforderlich sind. Bei einigen anderen dage- (b) .m; n/ 7! kgV.m; n/.
gen werden Daten aus dem Allgemeinwissen, aus anderen (c) .m; n/ 7! ggT.m; n/.
Quellen oder sinnvolle Schätzungen benötigt. (d) .m; n/ 7! m C n C m n.
Antworten zu den Selbstfragen
63 2
2.7  Untersuchen Sie die folgenden inneren Verknüp- 2.14  Es sei G eine Gruppe. Man zeige:
fungen R R ! R auf Assoziativität, Kommutativität und (a) Ist die Identität Id der einzige Automorphismus von G,
Existenz von neutralen
p Elementen. so ist G abelsch.
(a) .x; y/ 7! 3 x 3 C y 3 . (b) Ist a 7! a2 ein Homomorphismus von G, so ist G
(b) .x; y/ 7! x C y  x y. abelsch.
(c) .x; y/ 7! x  y. (c) Ist a 7! a1 ein Automorphismus von G, so ist G
abelsch.
2.8  Es seien die Abbildungen f1 ; : : : ; f6 W R n
2.15  Es sei R ein kommutativer Ring mit 1. Zeigen
f0; 1g ! R n f0; 1g definiert durch:
Sie, dass die Menge RŒŒX D fP j P W N0 ! Rg mit den
Verknüpfungen C und , die für P; Q 2 RŒŒX wie folgt
1 x 1
f1 .x/ D x ; f2 .x/ D
; f3 .x/ D ; erklärt sind:
1x x
1 x .P C Q/.m/ D P .m/ C Q.m/ ;
f4 .x/ D ; f5 .x/ D ; f6 .x/ D 1  x : X
x x1
.P Q/.m/ D P .i/ Q.j / ;
Zeigen Sie, dass die Menge F D ff1 ; f2 ; f3 ; f4 ; f5 ; f6 g mit i Cj Dm

der inneren Verknüpfung ı W .fi ; fj / 7! fi ı fj , wobei ein kommutativer Erweiterungsring mit 1 von RŒX ist –
fi ı fj .x/ D fi .fj .x//, eine Gruppe ist. Stellen Sie eine der Ring der formalen Potenzreihen oder kürzer Potenz-
Verknüpfungstafel für .F; ı/ auf. P
reihenring über R. Wir schreiben P D i 2N0 ai X i oder
P1
i D0 ai X (also P .i/ D ai ) für P 2 RŒŒX und nennen
i
2.9  Bestimmen Sie alle Untergruppen von .Z; C/. die Elemente aus RŒŒX Potenzreihen. Zeigen Sie außer-
dem:
2.10  Verifizieren Sie, dass G D fe; a; b; cg zusam- (a) RŒŒX ist genau dann ein Integritätsbereich, wenn R
men mit der durch die Tabelle ein Integritätsbereich ist.
P
(b) Eine Potenzreihe P D i 2N0 ai X i 2 RŒŒX ist genau
 e a b c dann invertierbar, wenn a0 in R invertierbar ist.
e e a b c (c) Bestimmen Sie in RŒŒX das Inverse von 1  X und
1  X 2.
a a e c b
b b c e a
c c b a e Antworten zu den Selbstfragen

definierten Verknüpfung  W G G ! G eine abelsche vAntwort 2.1


Gruppe ist, und geben Sie alle Untergruppen von G an. Addition und Multiplikation ja, denn Summe und Produkt
Man nennt .G; / die Klein’sche Vierergruppe. zweier natürlicher Zahlen liegen wieder in N. Hinge-
gen sind Subtraktion und Division keine Verknüpfungen
2.11  In QŒX dividiere man mit Rest: auf N, denn z. B. die Differenz 2  3 und der Quotient 2=3
(a) 2 X 4  3 X 3  4 X 2  5 X C 6 durch X 2  3 X C 1. sind keine natürlichen Zahlen mehr. Die Subtraktion wäre
(b) X 4  2 X 3 C 4 X 2  6 X C 8 durch X  1. eine Verknüpfung auf Z, die Division eine auf Q n f0g.

2.12  Bestimmen Sie ein Polynom P 2 ZŒX mit der vAntwort 2.2
p p \ und [ sind assoziativ, n nicht, wie das Beispiel
Nullstelle 2 C 2.
3

.f1; 2g n f1g/ n f2g D ;; f1; 2g n .f1g n f2g/ D f2g

zeigt. Linksneutral hinsichtlich \ ist die Gesamtmenge


Beweisaufgaben
f1; 2; 3g; hinsichtlich [ ist die leere Menge ; linksneutral.
Wegen .M1 \ M2 /  M2 gibt es nur zur Gesamtmen-
2.13  Es seien U1 und U2 Untergruppen einer Gruppe ge ein Linksinverses bezüglich \. Wegen .M1 [ M2 / 
G. Zeigen Sie: M2 gibt es nur zu ; ein Linksinverses bezüglich [. Die
(a) Es ist U1 [ U2 genau dann eine Untergruppe von G, Potenzmenge P .M / ist somit für keine der genannten Ver-
wenn U1  U2 oder U2  U1 gilt. knüpfungen eine Gruppe.
(b) Aus U1 ¤ G und U2 ¤ G folgt U1 [ U2 ¤ G.
(c) Geben sie ein Beispiel für eine Gruppe G und Unter- vAntwort 2.3
gruppen U1 , U2 an, sodass U1 [ U2 keine Untergruppe Beide Seiten der Gleichung b a D c a werden von
von G ist. rechts mit dem Inversen a1 von a multipliziert.
64 Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

v Antwort 2.4 Oder noch kürzer: Diese Menge enthält kein neutrales Ele-
Das inverse Element zu y ist eindeutig. Andererseits ist ment.
y 1 y D e. Somit ist y das Inverse zu y 1 .
vAntwort 2.11
2 Es gibt die inverse Abbildung f 1 W a ker ! ker
v Antwort 2.5
Das inverse Element zu .a b/ ist eindeutig, und mithilfe mit a x D y 7! a1 y D a1 a x D x.
des Axioms (G1) lässt sich .b 1 a1 / als eine Lösung
vAntwort 2.12
der Gleichung x .a b/ D e bestätigen. 1
2 D 3, denn 2 ˇ 3 D 1 oder einfach 2  3 1 mod 5.
1
Damit ist umgekehrt 3 D 2, also 2  3 1 mod 5.
v Antwort 2.6
vAntwort 2.13
ı e f g h i j Es gibt hinsichtlich der Multiplikation in K kein inverses
e e f g h i j Element zu 0, also kein x 2 K mit x  0 D 1, denn nach
f f e j i g h (ii) ist dieses Produkt stets 0.
g g i e j h f
vAntwort 2.14
h h j i e f g
Wir rechnen modulo 7. Es ist
i i h f g j e
j j g h f e i .4  6/  .1  6/1 5  21 54 6 .mod 7/;

nachdem 2  4 1 .mod 7/ ist.


v Antwort 2.7
Es ist .x C y/ D 2.x C y/ D 2x C 2y D .x/ C .y/. vAntwort 2.15
Daher ist ein Homomorphismus .Z; C/ ! .Z; C/. Da- Die Relation  ist
gegen ist .x  y/ D 2.x  y/ ¤ .2x/  .2y/ D 4xy. Daher 4 reflexiv, da für jedes x 2 K wegen x  x D 0 2 P
liegt kein Homomorphismus von .R n f0g;  / auf sich vor. folgt x  x,
4 antisymmetrisch, da aus x  y und y  x sogleich
v Antwort 2.8 y  x; x  y 2 P folgt, und wegen x  y D .y  x/
sgn.2 ı 1 / D .1/  .1/ D 1. Ferner ist sgn. 1 /  bedeutet dies y  x 2 P \ .P / D f0g, d. h., x D y,
sgn  D sgn e D 1, sofern mit e das neutrale Element von 4 transitiv, da aus x  y und y  z zum einen y 
Sn , also die identische Abbildung bezeichnet ist. x 2 P und zum anderen z  y 2 P folgt; wegen
P C P  P folgt nun .y  x/ C .z  y/ D z  x 2 P ,
v Antwort 2.9 d. h., x  z,
1
(1) Es gibt die Umkehrabbildung . a/ D a1 , und 4 linear, da für alle x; y 2 K wegen K D P [ .P / die
Differenz y  x in P oder in P liegt, d. h., es gilt
a .u v/ D a1 .u v/ a x  y oder y  x.
D a1 u .a a1 / v a
1 1
vAntwort 2.16
D .a u a/ .a v a/ Die Summe 1 C 1 C    C 1 kann in einem angeordneten
D a .u/ a .v/: Körper niemals null werden, da Summen von positiven
Elementen stets positiv sind.
Bei kommutativem G ist a für alle a 2 G gleich der
Identität, und jede Untergruppe von G ist ein Normal- vAntwort 2.17
teiler. Die Abbildung g, die jeder geraden natürlichen Zahl die 0
(2) Wegen a U D U a gibt es für alle u 2 U ein u 2 U und jeder ungeraden natürlichen Zahl die 1 zuordnet.
mit
vAntwort 2.18
Man betrachte etwa die zwei Polynome 1 C X und 1 C
a .u/ D a1 u a D a1 a u D u;
X C 0 X 2 . Diese Polynome sind gleich, obwohl m ¤ n.
und u 7! u ist eine Bijektion U ! U . Somit ist vAntwort 2.19
a .U / D U . Weil dann die Gradformel für alle Polynome stimmt.

v Antwort 2.10 vAntwort 2.20


Diese Menge ist nicht abgeschlossen gegenüber ı, denn Dann haben alle Nullstellen die Vielfachheit 1, d. h., das
das Produkt zweier ungerader Permutationen ist gerade. Polynom hat lauter verschiedene Nullstellen.
65 3

Lineare Gleichungssysteme –
ein Tor zur linearen Algebra

Inhaltsverzeichnis

3.1 Erste Lösungsversuche – 66

3.2 Das Lösungsverfahren von Gauß und Jordan – 72

3.3 Das Lösungskriterium und die Struktur der Lösung – 80

Aufgaben – 84

Antworten zu den Selbstfragen – 86

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_3
66 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

n Sie finden unter anderem Antworten zu . . . Zahlen sind, und wir auch die Lösungen unter den reel-
4 Worin unterscheiden sich homogene und inhomogene len Zahlen suchen. Es wird aber bald klar werden, dass
Gleichungssysteme? all die Manipulationen, die wir an den reellen linearen
4 Was versteht man unter einer algorithmischen Bestim- Gleichungssystemen vornehmen, um die Lösung zu finden,
mung der Lösung? auch bei beliebigen kommutativen Körpern funktionieren.
Die unbekannten Größen werden mit x1 ; x2 ; : : : ; xn
3 In vielen Bereichen der linearen Algebra stößt man auf bezeichnet, und ihre Koeffizienten werden immer links da-
Aufgaben, die auf lineare Gleichungssysteme zurückführ- vor gesetzt. Da nützen wir die Kommutativität aus. Auch
bar sind. Bereits einfache Fragestellungen nach Schnitt- schreiben wir die linearen Gleichungen immer so auf, dass
punkten von Geraden in der Ebene liefern solche Syste- auf der linken Seite der Gleichung genau diejenigen Sum-
me. Kompliziertere Aufgabenstellungen, wie etwa Eigen- manden stehen, welche Unbekannte enthalten. Damit bleibt
wertprobleme oder Fragen aus der linearen Optimierung, rechts jeweils nur eine Zahl, das Absolutglied der linearen
können in riesige Gleichungssysteme ausufern. Derartige Gleichung.
Systeme spielen auch in vielen anderen Teilgebieten der Das System
Mathematik sowie in anderen Wissenschaften eine Rolle,
etwa in der numerischen Mathematik, Statistik, Physik, Sta- x1 C x2 D 2
tik oder Elektrotechnik. x1  x2 D 0
Weil es für die meisten Themenkreise der linearen
Algebra unumgänglich ist, das Lösen von linearen Glei- ist ein reelles lineares Gleichungssystem. Die beiden fol-
chungssystemen zu beherrschen und über die Struktur von genden Gleichungen
Lösungsmengen Bescheid zu wissen, behandeln wir diese
Systeme gleich zu Beginn. Zur Bestimmung der Lösungs- sin.x1 / C x2 D 2
menge stellen wir ein systematisches Verfahren vor, wel- x1  x22 D 0
che auch den meisten Computeralgebrasystemen zugrunde
liegt. In diesem nach Gauß und Jordan benannten Verfahren beschreiben hingegen kein lineares Gleichungssystem
wird in einer ersten Phase geklärt, ob ein gegebenes lineares mehr; man spricht von einem nichtlinearen Gleichungssys-
Gleichungssystem überhaupt lösbar ist. Im Fall der Lösbar- tem.
keit wird dann in einer weiteren Phase die Lösungsmenge Unter einer Lösung eines reellen Gleichungssys-
auf eine effiziente Art und Weise bestimmt. tems mit n Unbekannten verstehen wir n reelle Zahlen
Dabei bieten sich in natürlicher Weise gewisse Schreib- l1 ; l2 ; : : : ; ln , die, anstelle der Unbekannten x1 ; x2 ; : : : ; xn
und Bezeichnungsweisen an, die uns mit Matrizen und Vek- eingesetzt, alle Gleichungen des Systems erfüllen. Das
toren, also mit Grundbegriffe der linearen Algebra vertraut Gleichungssystem zu lösen heißt, sämtliche Lösungen, also
machen. Die linearen Gleichungssysteme sind andererseits die Lösungsmenge L des Systems zu bestimmen.
ein erstes Beispiel dafür, dass die Lösung eines mathema-
tischen Problems nicht unbedingt aus einzelnen Formeln i Die reellen Zahlen l1 ; l2 ; : : : ; ln bilden nicht n Lösun-
bestehen muss. Hier betrachten wir das Problem als gelöst, gen, sie bilden eine Lösung des Gleichungssystems. Daher
wenn es ein exakt beschriebenes Verfahren, einen Algo- ist die Schreibweise .l1 ; l2 ; : : : ; ln / für diese eine Lösung
rithmus, gibt, der ausnahmslos funktioniert – und mag die besser, und wir werden von nun an Lösungen linearer
Anzahl der gegebenen Gleichungen und Unbekannten auch Gleichungssysteme stets in dieser Art angeben.
noch so groß sein.
Es wäre durchaus interessant, lineare Gleichungssyste-
3.1 Erste Lösungsversuche me allgemeiner über Integritätsbereichen oder Ringen
(7 Abschn. 2.4) zu betrachten. So kann man z. B. nur die
ganzzahligen Lösungen eines linearen Gleichungssystems
Wir beginnen dieses Kapitel mit der Behandlung reeller li- mit lauter ganzzahligen Koeffizienten suchen; derartige
nearer Gleichungssysteme und begnügen uns vorerst mit Gleichungen oder Gleichungssysteme heißen diophantisch.
einer etwas lockeren Beschreibung dessen, was man darun- Dies erfordert allerdings ganz andere Lösungsmethoden,
ter versteht. Die exakte Definition derartiger Systeme folgt und deshalb beschränken wir uns doch auf den Fall, in
im 7 Abschn. 3.2. dem die Koeffizienten der linearen Gleichungen und die
Der Begriff Gleichungssystem besagt, dass es sich um l1 ; : : : ; ln einem Körper angehören.
mehrere Gleichungen in mehreren Unbekannten handelt. Es ist nicht Aufgabe dieses Kapitels zu erklären, wie
Die Linearität eines solchen Systems bedeutet, dass die Un- man auf ein lineares Gleichungssystem kommt, sondern
bekannten in den Gleichungen des Systems nur in erster wie man dessen Lösungsmenge bestimmt. Zwischendurch
Potenz auftreten und nicht etwa in trigonometrischen Funk- wollen wir aber doch demonstrieren, welche Probleme
tionen eingebunden sind. Reell weist darauf hin, dass die auf ein lineares Gleichungssystem führen und auf diese
Koeffizienten der Unbekannten in den Gleichungen reelle Weise gelöst werden können. So folgt nun eine einfache
3.1  Erste Lösungsversuche
67 3
Kommentar Eine Pflasterung mittels kongruenter Sechs-
ecke ist nicht nur so wie bei Bienenwaben mit regulären
x2
Sechsecken möglich, sondern z. B. auch mit zentrisch sym-
metrischen. Bei diesen sind nämlich Gegenseiten jeweils
x1 parallel und gleich lang, und die einzelnen Sechsecke in
der Pflasterung gehen dann durch Parallelverschiebungen
auseinander hervor. Hat das Sechseck (ohne ausfüllende
Fünfecke) dann so wie in unserem Fall eine Symmetrie-
. Abb. 3.1 Ein fünfeckiger Baustein in Form einer stilisierten Krone
zum lückenlosen Ausfüllen der Ebene
achse, so kann man in der Sechseckpflasterung einzelne
Sechsecke auch spiegelbildlich darstellen, was schließlich
nach Füllung durch die kleinen Fünfecke das Ganze noch
geometrische Frage, die man vielleicht sogar im Kopf lö- verwirrender und unregelmäßiger macht.
sen könnte. Eine umfangreichere Anwendungsaufgabe zu
linearen Gleichungssystemen, nämlich eine Wählerstrom-
analyse, ist übrigens im Grundwissenbuch, Abschnitt 5.3, Ein reelles lineares Gleichungssystem
zu finden. hat entweder keine, genau eine
oder unendlich viele Lösungen
Beispiel Es geht um folgendes geometrisches Problem:
. Abb. 3.1 zeigt, wie sich die Ebene mit kongruenten
Lineare Gleichungssysteme müssen nicht immer eine Lö-
fünfeckigen Bausteinen, welche die Form einer stilisierten
sung besitzen. Betrachten wir etwa das System der zwei
Krone haben, lückenlos ausfüllen lässt. Man kann nämlich
Gleichungen
mit diesen Fünfecken zunächst ein einzelnes Sechseck fül-
len und dann mit Kopien dieses gefüllten Sechsecks die x1  x2 D 1
ganze Ebene pflastern. x1  x2 D 0
Die Seiten des kleinen fünfeckigen Bausteins sind al-
le gleich lang. Außerdem hat dieser eine Symmetrieachse. in den zwei Unbekannten x1 und x2 . Es gibt keine reellen
Unsere Aufgabe ist es, die genaue Form herauszufinden. Zahlen l1 ; l2 mit l1 D l2 und gleichzeitig l1 ¤ l2 . Dieses
Zur eindeutigen Festlegung der Gestalt dieses Fünfecks Gleichungssystem ist unlösbar, oder anders ausgedrückt,
genügen neben der Seitenlänge die Größen x1 und x2 zwei- die Lösungsmenge L ist die leere Menge.
er Winkel. Der spitze Winkel x1 tritt an den Spitzen der Die einfachste Gleichung, die in keinem Körper ei-
„Krone“ auf, der stumpfe Winkel x2 an der Basis. Der er- ne Lösung besitzen kann, ist ja 0 x1 D 1, denn das
habene Innenwinkel beträgt dann 540ı  2 x1  2 x2 . Nullelement und das Einselement eines Körpers sind stets
Nachdem an den Treffpunkten verschiedener Fünfecke verschieden.
im Inneren des Sechsecks als Winkelsumme stets 360ı Als Nächstes betrachten wir das lineare Gleichungssys-
auftreten muss und in den Seitenmitten des berandenden tem
Sechseckes stets 180ı , folgen zwei Gleichungen: x1 C x2 D 2
x1  x2 D 0
x1 C 2 x2 D 180ı
2 x1 C x2 D 180ı Die zweite Gleichung besagt x1 D x2 . Setzen wir dies in
die erste Gleichung ein, so erhalten wir 2 x1 D 2. Es ist also
l1 D 1, l2 D 1 die einzig mögliche Lösung des Systems,
Subtraktion der ersten Gleichung von der verdoppelten
wofür wir wie vereinbart .l1 ; l2 / D .1; 1/ schreiben.
zweiten ergibt
Gleich noch ein weiteres lineares Gleichungssystem:
5 x1 D 180ı 3 x1  6 x2 D 0
x1 C 2 x2 D 0
und damit x1 D 36ı . Nach Einsetzung dieses Werts in die
Die zweite Gleichung besagt x1 D 2 x2 . Setzt man dies in
zweite Gleichung erhalten wir x2 D 108ı . Dies zeigt, dass
die erste Gleichung ein, so erhält man 6 x2  6 x2 D 0.
der in . Abb. 3.1 blau schattierte Baustein entsteht, wenn
Die zweite Gleichung enthält damit keine Information, die
man bei einem regulären Fünfeck eine Ecke statt nach au-
nicht auch schon aus der ersten Gleichung folgt. Beim ge-
ßen nach innen stülpt, ohne die Seitenlängen zu ändern.
naueren Hinsehen erkennt man, dass die zweite Gleichung
Natürlich könnte man noch andere lineare Gleichun-
das .1=3/-Fache der ersten Gleichung ist. Man kann da-
gen aus dem Bild herauslesen, aber diese bringen keine
her die zweite Gleichung einfach weglassen; es bleibt das
neuen Informationen mehr. Der noch verbleibende erha-
nur eine Gleichung umfassende System
bene Innenwinkel in dem fünfeckigen Baustein ist übri-
gens 252ı . 9 3 x1  6 x2 D 0 ;
68 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

dessen Lösungsmenge wir nun bestimmen. Durch Probie- eine offensichtlich falsche Aussage. Anders ausge-
ren erkennt man, dass etwa .2; 1/ und .4; 2/ Lösungen des drückt: Keines der Paare .x1 ; x2 /, welches die erste
Systems sind. Setzt man für x2 eine beliebige reelle Zahl t Gleichung löst, kann auch die zweite Gleichung erfül-
ein, so muss x1 wegen 3 x1 D 6 t den Wert 2 t haben. len. Dies heißt
Damit haben wir alle Lösungen bestimmt: Für jedes
L D ;;
t 2 R ist .2 t; t/ eine Lösung, und weitere Lösungen gibt es
3 nicht. Die Lösungsmenge des Systems lautet also das Gleichungssystem ist unlösbar.
4 Der obige Widerspruch ist beseitigt in dem folgenden
L D f.2 t; t/ j t 2 Rg: System:
Diese umfasst unendlich viele Lösungen, weil R unendlich x1 C x2 D 1
viele Elemente besitzt. 4 x1 C 4 x2 D 4
? Selbstfrage 3.1 Dieselbe Substitution wie vorhin führt diesmal auf eine
Welche Lösungsmenge erhält man, wenn man für x1 eine tatsächliche Zahlengleichheit 4 D 4.
beliebige reelle Zahl t einsetzt und dann x2 bestimmt? Ein Blick auf das System zeigt: Jedes Zahlenpaar
.l1 ; l2 /, das die erste Gleichung erfüllt, erfüllt auch die
Will man dasselbe lineare Gleichungssystem im Körper Z7 zweite. Die zweite Gleichung ist also eine Folge der ers-
der Restklassen modulo 7 lösen, so umfasst die Lösungs- ten. Wir sprechen kurz von einer Folgegleichung.
menge L D f.2 t; t/ j t 2 Z7 g nur die sieben Paare .0; 0/, In R gibt es unendlich viele Lösungen, denn jedes
.1; 4/, .2; 1/, .3; 5/, .4; 2/, .5; 6/ und .6; 3/. l1 2 R löst zusammen mit l2 D 1l1 das obige System.
Die bisher gezeigten Beispiele von reellen linearen Wir führen statt l1 den Parameter t ein und erhalten die
Gleichungssystemen beweisen bereits: folgende Parameterdarstellung von L:

Folgerung Bei einem reellen linearen Gleichungssystem L D f.t; 1  t/ j t 2 Rg:


kann es keine oder genau eine oder unendlich viele Lösun- 4 Nun zu einer Erweiterung des Gleichungssystems aus
gen geben. dem ersten Beispiel:

In einer Serie weiterer Beispiele gehen wir etwas genauer x1 C x2 D 1


auf die Ursachen für diese verschiedenartigen Lösungs- 2 x1  x2 D 5
mengen ein: x1  4 x2 D 2

Beispiel Die aus den ersten beiden Gleichungen zu ermitteln-


4 Wie lautet die Lösungsmenge des folgenden Glei- de Lösung erfüllt auch die dritte Gleichung. Die dritte
chungssystems? ist nämlich eine Folgegleichung der ersten beiden; sie
entsteht, indem von der zweiten das Dreifache der ers-
x1 C x2 D 1 ten subtrahiert wird. Wie im ersten Beispiel folgt L D
2 x1  x2 D 5 f.2; 1/g. Obwohl hier mehr Gleichungen als Unbe-
stimmte vorliegen, gibt es eine eindeutige Lösung.
Die erste Gleichung besagt x1 D 1  x2 . Dieser Wert Wegen der ganzzahligen Koeffizienten hätten wir das-
wird in die zweite Gleichung eingesetzt, was auf die li- selbe Gleichungssystem auch als eines über dem Kör-
neare Gleichung 23 x2 D 5 für x2 führt. Die erhaltene per Q der rationalen Zahlen betrachten können. Die
Lösung für x2 wird dann im Ausdruck für x1 eingesetzt Lösung wäre dieselbe. Die Lösungsmenge wird auch
und liefert die in diesem Fall einzige Lösung nicht größer, wenn wir anstelle von R den Körper C
der komplexen Zahlen zugrunde legen.
.l1 ; l2 / D .2; 1/:
4 Bei der folgenden Erweiterung des Systems aus dem
Also ist L D f.2; 1/g die Lösungsmenge des betrach- ersten Beispiel
teten Systems. x1 C x2 D 1
4 Nun wenden wir dasselbe Substitutionsverfahren auf
2 x1  x2 D 5
das folgende System an:
3 x1 C x2 D 4
x1 C x2 D 1
erfüllt die eindeutige Lösung der ersten beiden Glei-
2 x1 C 2 x2 D 5 chungen die dritte Gleichung nicht mehr, denn
Die erste Gleichung besagt x1 D 1  x2 . Wir setzen dies .l1 ; l2 / D .2; 1/ ) 3 l1 C l2 D 5 ¤ 4 :
in die zweite Gleichung für x1 ein und erhalten
Dieses Gleichungssystem ist unlösbar, die Lösungs-
2  2 x2 C 2 x2 D 5 ; also 2 D 5 ; menge ist L D ;.
3.1  Erste Lösungsversuche
69 3
4 Abschließend ein System mit drei Unbekannten: Dieses Beispiel zeigt, wie wichtig es ist, bei der Frage
nach der Lösungsmenge immer auch anzugeben, wel-
x1 C 2 x2  2 x3 D 0 cher Körper zugrunde gelegt wird.
6 x1  3 x2  2 x3 D 0 Systeme von Kongruenzgleichungen, in denen der Rest-
klassenkörper von Gleichung zu Gleichung variiert,
2 x1 C x2  2 x3 D 6
gelten nicht als lineare Gleichungssysteme, denn sie er-
fordern ganz andere Lösungsmethoden. 9
Dieses System stellt sich ebenfalls als unlösbar her-
aus. Wenn wir nämlich zu dem Vierfachen der ersten
?Selbstfrage 3.2
Gleichung die zweite addieren, erhalten wir die Folge-
1) Hat ein reelles System mit mehr Unbekannten als
gleichung
Gleichungen stets unendlich viele Lösungen in R?
2) Ist ein System mit mehr Gleichungen als Unbekannten
10 x1 C 5 x2  10 x3 D 0 ;
immer unlösbar?

die zum 5-Fachen der dritten Gleichung des Systems im


Widerspruch steht, denn Reelle Gleichungssysteme mit zwei
oder drei Unbekannten lassen sich
10 x1 C 5 x2  10 x3 D 30 ¤ 0 :
geometrisch interpretieren
Also gilt auch in diesem Fall L D ;.
Wenn wir diesem Gleichungssystem mit lauter ganzzah- Eine geometrische Veranschaulichung der Gleichungssys-
ligen Koeffizienten anstelle des Körpers R den Körper teme wird die Ursache der in den bisherigen Beispielen
Z5 der Restklassen modulo 5 zugrunde legen, dann ist aufgetretenen Phänomene verdeutlichen.
es überraschenderweise doch lösbar. Wir interpretieren die Zahlenpaare .l1 ; l2 / bzw. Zahlen-
Um den Wechsel zu Z5 zu verdeutlichen, verwenden tripel .l1 ; l2 ; l3 / als Koordinaten von Punkten in der Ebene
wir nicht die Bezeichnungen 0; : : : ; 4 der Elemente von bzw. im Raum. Dann stellen die Lösungen einer einzelnen
Z5 , sondern wir schreiben jede Gleichung als Kongru- linearen Gleichung
enzgleichung modulo 5 :
a1 x1 C a2 x2 D b
x1 C 2 x2  2 x3 0 .mod 5/
6 x1  3 x2  2 x3 0 .mod 5/ mit reellen a1 ; a2 ; b die Punkte einer Geraden in der Ebene
dar, sofern nicht beide Koeffizienten a1 und a2 null sind.
2 x1 C x2  2 x3 6 .mod 5/
Analog bilden die Lösungen .l1 ; l2 ; l3 / einer linearen Glei-
Offensichtlich ist in Z5 die zweite Gleichung identisch chung der Form
mit der ersten, denn 6 1 .mod 5/ und 2 3
a1 x1 C a2 x2 C a3 x3 D b
.mod 5/. Damit bleiben nur zwei Kongruenzgleichun-
gen übrig, nämlich mit reellen a ; a ; a ; b die Punkte einer Ebene im Raum.
1 2 3
Auch hier dürfen nicht alle Koeffizienten a1 ; a2 ; a3 gleich-
x1 C 2 x2  2 x3 0 .mod 5/ zeitig null sein.
2 x1 C x2  2 x3 6 .mod 5/
?Selbstfrage 3.3
Die Differenz der beiden ergibt Was sind die Lösungsmengen, wenn die Koeffizienten
a1 ; a2 bzw. a1 ; a2 ; a3 alle zugleich null sind?
x1  x2 1 .mod 5/ :
Ein System von reellen linearen Gleichungen in zwei bzw.
Wir können deshalb x1 x2 C 1 .mod 5/ setzen und drei Unbekannten zu lösen bedeutet demnach bei dieser
damit aus einer der Gleichungen das x3 ermitteln: geometrischen Interpretation, den mengenmäßigen Durch-
schnitt der zugehörigen Geraden bzw. Ebenen zu bestim-
2 x3 x1 C 2 x2 3 x2 C 1 .mod 5/ : men.
Die zwei Gleichungen des Systems
Wegen 21 3 .mod 5/ (siehe 7 Abschn. 2.3) folgt
x3 3C4 x2 .mod 5/, wobei x2 beliebig aus Z5 wähl- x1 C x2 D 1 ., x2 D x1 C 1/
bar ist. Wir können somit die Lösungsmenge darstellen 2 x1  x2 D 5 ., x2 D 2 x1  5/
als
ergeben zwei einander schneidende Geraden (. Abb. 3.2).
L D f.1 C t ; t ; 3  t/ j t 2 Z5 g: Die Lösung entspricht dem Schnittpunkt.
70 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

x2 x2
g2
g1 g1

g2

3
x1 g3 x1
L L

. Abb. 3.2 Die einzige Lösung entspricht dem Schnittpunkt der beiden . Abb. 3.4 Die Lösungsmenge als Schnittpunkt dreier Geraden
Geraden

x3
x2

g2

x1 E3
E1
g1
E2

. Abb. 3.3 Sind die beiden Geraden parallel und verschieden, so ist die x2
Lösungsmenge leer x1

Im Beispiel . Abb. 3.5 Die Lösungsmenge ist leer; die Schnittgeraden zwischen je
zwei der drei Ebenen E1 ; E2 ; E3 sind parallel
x1 C x2 D 1 ., x2 D x1 C 1/
2 x1 C 2 x2 D 5 ., x2 D x1 C 5=2/ Das bisher benutzte Substitutionsverfahren, das natür-
lich auch bei mehr als zwei Unbekannten schrittweise
liegen zwei parallele Geraden vor (. Abb. 3.3). Daher ist
eingesetzt werden kann, erweist sich nicht immer als sinn-
die Lösungsmenge leer.
voll: Der Ablauf des Rechenverfahrens ist nicht klar genug
Die dritte Gleichung des Systems
geregelt; manchmal muss man am Ende wieder zu früheren
x1 C x2 D 1 ., x2 D x1 C 1/ Gleichungen zurückkehren, um zu einer Lösung zu kom-
men oder überhaupt die Lösbarkeit festzustellen. Und dann
2 x1  x2 D 5 ., x2 D 2 x1  5/ ist vielleicht nicht immer klar, welche Gleichung heranzu-
x1  4 x2 D 2 ., x2 D  14 x1  12 / ziehen ist.
Ähnlich ist es beim Verfahren des Gleichsetzens, wenn
ist eine Folgegleichung der ersten beiden Gleichungen und man aus zwei Gleichungen dieselbe Unbekannte ausrech-
stellt daher eine weitere Gerade durch den Schnittpunkt der net und diese Ausdrücke gleichsetzt. Letztlich bedeuten
ersten beiden Geraden dar (. Abb. 3.4). Substituierung und Gleichsetzen die Elimination einer Un-
Die gegebenen Gleichungen des Systems bekannten, zunächst einmal aus zwei Gleichungen. Wie
geht man vor, wenn noch weitere Gleichungen vorlie-
x1 C 2 x2  x3 D 0 gen?
6 x1  3 x2  x3 D 0 Wir wollen nun ein systematisches Verfahren vorstellen,
2 x1 C x2  x3 D 6 das uns auf sicherem Wege zeigt, ob ein gegebenes lineares
Gleichungssystem lösbar ist, und uns im Fall der Lösbarkeit
bestimmen drei Ebenen ohne gemeinsamen Punkt, denn die dann auch gleich die Lösungsmenge liefert. Um unser Vor-
Schnittgerade der ersten beiden Ebenen verläuft parallel zur gehen zu motivieren, betrachten wir im Folgenden einige
dritten Ebene. Die . Abb. 3.5 illustriert dies. spezielle lineare Gleichungssysteme.
3.1  Erste Lösungsversuche
71 3

Hintergrund und Ausblick: Näherungslösung für ein unlösbares lineares Gleichungssystem

Die Lösungsmenge des linearen Gleichungssystems sein. Also gibt es keinen Punkt .x1 ; x2 /, der durch f auf Z
abgebildet wird und damit auch keine Lösung des Systems.
x1 C x2 D 1 Nun ist folgender Weg zu einer Näherungslösung nahe-
2 x1  x2 D 5 liegend: Wir fragen zunächst nach einem Punkt innerhalb der
Bildebene f .R2 /, der dem vorgeschriebenen Zielpunkt Z am
3 x1 C x2 D 4
nächsten liegt. Das ist der Normalenfußpunkt F von Z (siehe
7 Abschn. 5.4), und das Urbild f 1 .F / dieses Fußpunkts ist
ist leer, wie wir vorhin feststellen konnten. Angenommen, die dann unsere Näherungslösung.
Absolutwerte auf der rechten Seite sind die Ergebnisse von
Messungen und daher fehlerbehaftet. Dann könnte man aus x3
dem Blickpunkt eines Anwenders fragen: Wenn es keine ex-
akte Lösung gibt, gibt es dann vielleicht doch eine, welche
alle Gleichungen wenigstens annähernd erfüllt? Gibt es eine,
bei welcher die Abweichungen von den auf den rechten Seiten
F
vorgegebenen Werten insgesamt minimal sind? Wie sich diese Z
Minimalitätsforderung exakt formulieren lässt, folgt später in
den 7 Kap. 9 und 10. f .R2 /

Um zur Näherungslösung zu gelangen, wählen wir für das


x1
Lösen von Gleichungssystemen eine andere geometrische In-
terpretation als bisher. Dabei spielt eine Abbildung f eine
x2
Rolle, die durch die linken Seiten der Gleichungen festgelegt
ist und zur Klasse der später im 7 Kap. 6 genauer untersuch-
. Abb. 3.6 Der Fußpunkt F als Näherung für den Zielpunkt Z
ten linearen Abbildungen gehört.
Welche Werte für x1 und x2 auch immer in die linken Sei-
ten der Gleichungen eingesetzt werden, es ergibt sich jeweils Methoden aus 7 Kap. 5 führen auf
ein Ergebnis, aber normalerweise nicht das auf der rechten
Seite vorgeschriebene. Trotzdem können wir eine Punktabbil- F D .23=38; 184=38; 161=38/
dung herauslesen, nämlich:
und damit zur Näherungslösung
f W R2 ! R3 ; .x1 ; x2 / 7! .x10 ; x20 ; x30 /
8 .lQ1 ; lQ2 / D .69=38; 46=38/:
0
<x1 D x1 C x2
ˆ
mit x20 D 2 x1  x2 Einsetzen dieser Lösung ergibt auf der rechten Seite Ab-
:̂x 0 D 3 x C x
3 1 2 weichungen von den vorgeschriebenen Absolutgliedern im
Ausmaß von rund
Weil drei Gleichungen mit zwei Unbekannten vorliegen, han-
delt es sich um eine Abbildung aus der Ebene in den Raum. 0;394 7; 0;157 9 bzw. 0;236 8 :
Die Bildpunkte .x10 ; x20 ; x30 / liegen allerdings alle in der
Ebene f .R2 / mit der Gleichung Dabei bezeichnen wir als Abweichung die Differenz Sollwert
minus Istwert. Der Fußpunkt F ist der dem Zielpunkt Z
5 x10 C 2 x20  3 x30 D 0 ; nächstgelegene Bildpunkt aus f .R2 /. Daher ist für die gezeig-
te Näherungslösung die Quadratsumme der Abweichungen
wie wir durch Einsetzen bestätigen können. Der durch die minimal, nämlich gleich dem Quadrat der Distanz der Punkte
rechte Seite des Gleichungssystems vorgeschriebene Ziel- Z und F .
punkt Z D .1; 5; 4/ gehört nicht dieser Ebene an, denn Eine genauere Betrachtung dieser Methode der kleinsten
5  1 C 2  5  3  4 D 3 ¤ 0. Er kann daher kein Bildpunkt Quadrate folgt in den 7 Abschn. 9.3 und 10.5.
72 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

Gleichungssysteme in Stufenform lassen menge nicht verändert wird. Daher beschränken wir uns
sich unmittelbar lösen strikt auf die im nächsten Abschnitt eingeführten elemen-
taren Zeilenumformungen.

Gewisse Bauformen linearer Gleichungssysteme machen


das Auffinden der Lösungen besonders einfach, wie die bei- 3.2 Das Lösungsverfahren
3 den folgenden Beispiele zeigen. Dabei spielt keine Rolle, von Gauß und Jordan
ob wir in R oder in einem anderen Körper K rechnen.
Wir haben schon einige reelle lineare Gleichungssysteme
Beispiel
angegeben und auch gelöst. Dabei haben wir noch gar nicht
4 Das Gleichungssystem
geklärt, was wir eigentlich genau unter einem solchen Sys-
x1 C x2  x3 D 0 tem verstehen. Wir wollen dies nun nachholen:
2 x2  x3 D 1
x3 D 3
Definition linearer Gleichungssysteme
hat Stufenform. Die Anzahl der auftretenden Unbe- Ein lineares Gleichungssystem über dem Körper K mit
kannten wird von Gleichung zu Gleichung kleiner. m Gleichungen in n Unbekannten x1 ; : : : ; xn lässt sich in
Wir lösen dieses System durch Rückwärtseinsetzen, folgender Form schreiben:
d. h., wir setzen den durch die letzte Gleichung be-
stimmten Wert 3 von x3 in der vorletzten Gleichung ein a11 x1 C a12 x2 C    C a1n xn D b1
und erhalten für x2 a21 x1 C a22 x2 C    C a2n xn D b2
:: :: :: ::
2 x2  3 D 1 ) x2 D 2 : : : :
am1 x1 C am2 x2 C    C amn xn D bm
und schließlich aus der ersten Gleichung für x1
x1 C 2  3 D 0 ) x1 D 1 : Dabei sind die Koeffizienten aij und die Absolutglieder bi
für 1  i  m und 1  j  n Elemente des Körpers K.
Damit lautet die Lösungsmenge L D f.1; 2; 3/g. Ein n-Tupel .l1 ; l2 ; : : : ; ln / 2 Kn heißt eine Lösung
4 Noch einfacher wird das Auffinden der Lösung bei ei- dieses Systems, wenn alle Gleichungen durch Einsetzen
nem System in reduzierter Stufenform. Hier treten die von l1 ; : : : ; ln anstelle von x1 ; : : : ; xn befriedigt werden.
ersten Unbekannten jeweils in nur einer Gleichung auf, Die Menge L aller Lösungen des Systems heißt Lö-
im folgenden Beispiel sogar mit dem Koeffizienten 1: sungsmenge. Ist L leer, so heißt das Gleichungssystem
x1 C x4  x5 D 4 unlösbar.
x2  2 x4 C 3 x5 D 6
x3 C 3 x4  2 x5 D 3 Wir setzen im Folgenden stets die Kommutativität des Kör-
Wir können x1 , x2 und x3 unmittelbar durch x4 und pers K voraus, ohne dies extra zu erwähnen.
x5 ausdrücken und damit alle Gleichungen befriedigen,
egal was für x4 und x5 eingesetzt wird. Daher können
wir zur Beschreibung der Lösungsmenge die Unbe- Mit elementaren Zeilenoperationen
kannten x4 und x5 durch Zahlen t1 bzw. t2 aus dem bringt man ein lineares Gleichungssystem
zugrunde liegenden Körper K ersetzen. Dies führt auf auf Stufenform
eine Parameterdarstellung der diesmal zweidimensiona-
len Lösungsmenge
Nun lernen wir eine Methode kennen, die auch vielen
L D f.4  t1 C t2 ; 6 C 2 t1  3 t2 ; 3  3 t1 C 2 t2 ; t1 ; t2 / computergestützten Verfahren zugrunde liegt und auf über-
j t1 ; t2 2 Kg: 9 sichtliche und effiziente Weise zur Lösungsmenge eines
linearen Gleichungssystems führt.
Wegen dieses recht einfachen Vorgehens beim Lösen von Die Strategie lässt sich wie folgt kurz beschreiben: Es
Gleichungssystemen in Stufen- bzw. reduzierter Stufen- wird wiederholt jeweils eine Gleichung des Systems durch
form ist es naheliegend, bei beliebigen linearen Glei- eine Folgegleichung ersetzt, bis schließlich das Gleichungs-
chungssystemen die folgende Strategie zu verfolgen: system Stufenform annimmt. Spätestens an der Stufenform
Wir bringen das System zunächst durch Umformungen kann die Frage nach der Lösbarkeit beantwortet werden.
auf Stufen- bzw. reduzierte Stufenform und lesen dann die Ist das System lösbar, so lässt sich die Lösungsmenge
Lösung fast unmittelbar ab. Wir müssen allerdings darauf durch Rückwärtseinsetzen bestimmen (Eliminationsverfah-
achten, dass bei den einzelnen Umformungen die Lösungs- ren von Gauß) oder nach einer weiteren Umformung des
3.2  Das Lösungsverfahren von Gauß und Jordan
73 3
Systems direkt von der reduzierten Stufenform ablesen Beweis Eine Lösung des Gleichungssystems erfüllt dieses
(Eliminationsverfahren von Gauß und Jordan). auch noch, nachdem eine elementare Zeilenumformung an-
Der Ersatz einer Gleichung durch eine Folgegleichung gewandt wurde. Dies lässt sich wie folgt begründen:
des bisherigen Systems muss allerdings wohlüberlegt er- (1) Die Vertauschung zweier Gleichungen ändert nicht die
folgen: Die Lösungsmenge muss unverändert bleiben, es gestellten Bedingungen, sondern nur deren Reihen-
darf keine Information verloren gehen. Wir erreichen dieses folge.
Ziel, indem wir die Umformungen, die zu Folgegleichun- (2) Die Gleichheit zwischen der linken und rechten Seite
gen führen, stark einschränken. einer Gleichung bleibt bestehen, wenn beide Seiten mit
demselben Faktor  2 K multipliziert werden.
(3) Werden zwei Gleichungen erfüllt, dann ist auch die
Definition der elementaren Zeilenumformungen Summe der beiden linken Seiten gleich der Summe der
Die folgenden, auf die einzelnen Gleichungen eines linea- beiden rechten.
ren Gleichungssystems anwendbaren Operationen heißen
elementare Zeilenumformungen: Somit ist die Lösungsmenge L des gegebenen Gleichungs-
1. Zwei Gleichungen werden vertauscht. systems eine Teilmenge der Lösungsmenge e L des umge-
2. Eine Gleichung wird mit einem Faktor  2 K n f0g formten Systems.
multipliziert, also vervielfacht. Es gilt aber auch die Umkehrung e L L, d. h.,
3. Zu einer Gleichung wird das -Fache einer anderen jede Lösung des umgeformten Systems löst auch das ur-
Gleichung addiert, wobei  2 K. sprüngliche. Als Begründung genügt es zu erkennen, dass
die Umkehroperation einer elementaren Zeilenumformung
wiederum eine von derselben Art ist:
Kommentar Bei der Vervielfachung in Typ 2 ist  D 0 (1) Bei der Zeilenvertauschung ist das trivial.
ausgeschlossen, denn sonst entstünde eine Nullzeile, d. h. (2) Anstelle der Multiplikation einer Gleichung mit  ¤ 0
eine Zeile, in welcher alle Koeffizienten und das Absolut- ist bei der Umkehrung mit 1= zu multiplizieren.
glied null sind. Da jedes n-Tupel aus Kn eine Nullzeile (3) Ist schließlich vorher das -Fache einer anderen Glei-
befriedigt, würde diese Vervielfachung die Lösungsmenge chung zur ausgewählten Gleichung addiert worden, so
einer ursprünglich von der Nullzeile verschiedenen Glei- muss umgekehrt vom Ergebnis das -Fache der in-
chung verändern. Hingegen ist  D 0 bei Typ 3 zugelassen, zwischen unverändert gebliebenen anderen Gleichung
aber das System bleibt dann unverändert. wieder subtrahiert werden, um zur Ausgangsgleichung
Die Zeilenvertauschung im Umformungstyp 1 ist übri- zurückzukehren.
gens auch durch geschicktes Anwenden der Typen 2 und
Somit sind die Lösungsmengen L und e L gleich gemäß der
3 erreichbar. Wir haben dies als Übungsaufgabe gestellt.
Definition der Mengengleichheit im 7 Abschn. 1.2. 
Demnach könnte man in der Definition bereits mit nur zwei
Typen auskommen.
i Das folgende Vorgehen ist nicht zulässig: Addiere zur
ersten Zeile die zweite Zeile und zur zweiten Zeile die
Mithilfe dieser elementaren Zeilenumformungen gelingt es
erste Zeile. Und addiere dann zur neuen zweiten Zeile das
nun, lineare Gleichungssysteme zu vereinfachen, indem
.1/-Fache der neuen ersten Zeile. Damit entsteht eine
einzelne Koeffizienten null werden, ohne dass sich die Lö-
Nullzeile, d. h. eine Zeile mit lauter Nullen.
sungsmenge des Systems ändert. Zwei Gleichungssysteme
Wenn z1 ; : : : ; zm die einzelnen Gleichungen des Sys-
mit derselben Lösungsmenge heißen übrigens zueinander
tems bezeichnen und 0 eine Nullzeile bedeutet, so könnte
äquivalent.
diese „verbotene“ Zeilenumformung folgendermaßen dar-
gestellt werden:
Elementare Zeilenumformungen ändern 0 1 0 1 0 1
z1 z1 C z2 z1 C z2
die Lösungsmenge nicht Bz C 1. Schritt Bz C z C 2. Schritt B 0 C
B 2 C ! B 2 1C B C
@:A @ : A ! @ : A
:: :: ::
Wir formulieren sogleich das zentrale Ergebnis dieses Ab-
schnitts. Offensichtlich ist bei diesen zwei Schritten Information
verloren gegangen. Anstelle der früher zwei Gleichungen
z1 und z2 gibt es jetzt nur mehr eine, und zwar die Summe
Äquivalente lineare Gleichungssysteme z1 C z2 .
Die Lösungsmenge eines linearen Gleichungssystems än- ?Selbstfrage 3.4
dert sich nicht, wenn an diesem System eine elementare Warum ist dieses eben geschilderte Vorgehen nicht zuläs-
Zeilenumformung vorgenommen wird. sig? Inwiefern hat man die Vorschriften für elementare
Umformungen verletzt?
74 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

In der folgenden Box zeigen wir anhand eines ersten Bei- sind nur die Koeffizienten in den Gleichungen wesentlich.
spiels in aller Ausführlichkeit, wie sich ein lineares Glei- Die xi bestimmen lediglich die Positionen der Koeffizien-
chungssystem durch elementare Zeilenumformungen auf ten in den Gleichungen. Fehlt in einer Gleichung das xi , so
reduzierte Stufenform bringen lässt. ist der zugehörige Koeffizient von xi natürlich null.
Beim schrittweisen Vorgehen in diesem Beispiel zur Wir sparen Schreibarbeit, wenn wir das angegebene
Auflösung des Gleichungssystems lineare Gleichungssystem in folgender Art und Weise no-
3 tieren:
x3 C 3 x4 C 3 x5 D 2 0 1
0 0 1 3 3 2
x1 C 2 x2 C x3 C 4 x4 C 3 x5 D 3 B1 2 1 4 3 3 C
B C
x1 C 2 x2 C 2 x3 C 7 x4 C 6 x5 D 5 @1 2 2 7 6 5 A
2 x1 C 4 x2 C x3 C 5 x4 C 3 x5 D 4 2 4 1 5 3 4

Beispiel: Rückführung auf reduzierte Stufenform

Gegeben ist ein System über dem Körper R bestehend aus vier (2) Wir ziehen die zweite Zeile auch von der dritten Zeile ab.
linearen Gleichungen mit fünf Unbekannten: (3) Schließlich addieren wir die zweite Zeile zur vierten Zeile:

x3 C 3 x4 C 3 x5 D2
x1 C 2 x2 C x3 C 4 x4 C 3 x5 D 3
x1 C 2 x2 C x3 C 4 x4 C 3 x5 D3
x3 C 3 x4 C 3 x5 D 2
x1 C 2 x2 C 2 x3 C 7 x4 C 6 x5 D5 !
x3 C 3 x4 C 3 x5 D 2
2 x1 C 4 x2 C x3 C 5 x4 C 3 x5 D4
x3 3 x4 3 x5 D 2

Problemanalyse und Strategie x1 C 2 x2 C x4 D1


Wir kümmern uns zuerst um x1 : Mit elementaren Zeilenum- x3 C 3 x4 C 3 x5 D 2
formungen sorgen wir dafür, dass x1 nur noch in einer, und 0D0
zwar der dann ersten Zeile auftaucht. Dies gelingt folgender- 0D0
maßen:
(1) Vertausche die erste mit der zweiten Zeile. Damit endet bereits das Verfahren, denn wir haben die redu-
(2) Addiere zur dritten Zeile das .1/-Fache der neuen ersten zierte Stufenform erreicht.
Zeile. Die letzten beiden Zeilen mit den Nullen auf der linken
(3) Addiere zur vierten Zeile das .2/-Fache der neuen ersten Seite sind besonders wichtig für die Entscheidung, ob unser
Zeile. Gleichungssystem lösbar ist oder nicht:
Fall a) Sind auch die jeweiligen Absolutglieder so wie hier
So verfahren wir nach und nach mit allen Variablen, um am gleich null, so können diese restlichen Gleichungen
Ende die gewünschte reduzierte Stufenform zu erreichen. weggelassen werden, denn sie schränken die Lösungs-
menge in keiner Weise ein.
Lösung Fall b) Verbliebe hingegen in einer derartigen Zeile rechts
Zu x1 : noch ein Absolutglied ¤ 0, so bestünde ein Wider-
x3 C 3 x4 C 3 x5 D2 spruch, der nicht beseitigbar wäre, was auch immer
x1 C 2 x2 C x3 C 4 x4 C 3 x5 D3 für x1 ; : : : ; x5 eingesetzt würde. Das Gleichungssys-
!
x1 C 2 x2 C 2 x3 C 7 x4 C 6 x5 D5 tem wäre unlösbar.
2 x1 C 4 x2 C x3 C 5 x4 C 3 x5 D4
x1 C 2 x2 C x3 C 4 x4 C 3 x5 D 3 Das zum Ausgangssystem äquivalente Gleichungssystem in
x3 C 3 x4 C 3 x5 D 2 reduzierter Stufenform lautet somit:
x3 C 3 x4 C 3 x5 D 2
x1 C 2 x2 C x4 D1
x3 3 x4 3 x5 D 2
x3 C 3 x4 C 3 x5 D 2
Zu x2 : Wir stellen fest, dass hier nichts weiter zu erledigen
ist, da x2 nur in der ersten Zeile auftaucht. Es ist lösbar. Zu jeder Wahl von x2 , x4 und x5 können wir x1
Zu x3 : und x3 derart angeben, dass beide Gleichungen erfüllt sind.
(1) Zur ersten Zeile addieren wir das .1/-Fache der zwei- Die Lösungsmenge lautet also:
ten Zeile; also, wir subtrahieren die zweite Zeile von der
ersten. L D f.1  2 t1  t2 ; t1 ; 2  3 t2  3 t3 ; t2 ; t3 / j t1 ; t2 ; t3 2 Rg:
3.2  Das Lösungsverfahren von Gauß und Jordan
75 3
Am Schnittpunkt der i-ten Zeile, i 2 f1; : : : ; mg, mit der Die erweiterte Koeffizientenmatrix ist eine
j -ten Spalte, j 2 f1; : : : ; ng, steht der Koeffizient aij von komfortable Darstellung des linearen
xj in der i-ten Gleichung. Diesen Schnittpunkt der (ho- Gleichungssystems
rizontalen) i-ten Zeile und der (vertikalen) j -ten Spalte
nennen wir auch die Stelle .i; j /.
Der vertikale Strich vor der letzten Spalte, der Absolut- Wir betrachten wieder ein allgemeines lineares Gleichungs-
spalte, soll uns an die dort befindlichen Gleichheitszeichen system:
erinnern. Rechts davon stehen nur mehr die Absolutglieder
des Systems. Nun ist auch klar, warum wir schon bisher a11 x1 C a12 x2 C    C a1n xn D b1
anstelle von Gleichungen auch oft von Zeilen und insbe- a21 x1 C a22 x2 C    C a2n xn D b2
sondere von Nullzeilen gesprochen haben. :: :: :: ::
Mit dieser Schreibweise lauten die in der Beispielbox : : : :
durchgeführten Umformungen wie folgt: am1 x1 C am2 x2 C    C amn xn D bm
0 1
0 0 1 3 3 2 mit aij und bi 2 K für 1  i  m und 1  j  n. Wir
B1 2 1 4 3 3C Typ 1 bzw. 3 sagen: Zu diesem linearen Gleichungssystem gehören die
B C
@1 2 2 7 6 5A  !
z1 $z2 Koeffizientenmatrix
z3 !z3 z2
2 4 1 5 3 4 z4 !z4 2 z2 0 1
0 1 a11 a12  a1n
1 2 1 4 3 3 B a21 a22  a2n C
B0 0 1 3 3 2C B C
B C  Typ 3
! A D B :: :: :: C
@0 0 1 3 3 2A z1 !z1 z2 @ : :  : A
z3 !z3 z2
0 0 1 3 3 2 z4 !z4 Cz2 am1 am2    amn
0 1
1 2 0 1 0 1
B0 0 1 3 3 2 C und die erweiterte Koeffizientenmatrix
B C
@0 0 0 0 0 0 A 0 1
a11 a12  a1n b1
0 0 0 0 0 0 B a21 a22  a2n b2 C
B C
.A j b/ D B :: :: :: :: C
Wenn wir das letzte Schema nach Weglassung der bei- @ : :  : : A
den Nullzeilen wieder in Gleichungsform ausdrücken, so am1 am2    amn bm
erhalten wir genau das letzte Gleichungssystem aus der
Beispielbox: Aus der erweiterten Koeffizientenmatrix erhalten wir ein-
x1 C 2 x2 C x4 D1 deutig das zugehörige Gleichungssystem wieder zurück.
Also ist jede Information über das Gleichungssystem in der
x3 C 3 x4 C 3 x5 D 2
zugehörigen erweiterten Koeffizientenmatrix enthalten.
Wir erläutern das prinzipielle Vorgehen noch einmal in Allgemein heißt jedes rechteckige Schema von Zahlen
Worten: aus einem Körper K eine Matrix. Umfasst diese ebenso
1. Schritt: Wir wählen aus der ersten Spalte die rot ge- wie die obige Koeffizientenmatrix m  1 Zeilen und n  1
druckte 1 aus und tauschen die zugehörige Gleichung in Spalten, so sprechen wir von einer m n-Matrix. Die Men-
die erste Zeile. Mithilfe dieser rot gedruckten 1 werden alle ge aller m n-Matrizen über K wird mit Km n bezeichnet.
anderen, von null verschiedenen Zahlen der ersten Spalte In diesem Sinn gehört die erweiterte Koeffizientenmatrix
zu null gemacht. Da diese Zahlen Koeffizienten von Unbe- .A j b/ zu K
m .nC1/
. Die Elemente einer Matrix heißen
kannten sind, die dann wegfallen, können wir auch sagen, auch Einträge.
wir eliminieren diese Unbekannten mittels elementarer Zei- Die nur eine Zeile oder eine Spalte umfassenden Matri-
lenumformungen. zen werden auch Zeilen- bzw. Spaltenvektoren genannt.
2. Schritt: Nachdem in der zweiten Spalte ab Zeile 2 Obwohl erst im 7 Kap. 4 anhand der Vektorraumaxio-
kein von null verschiedener Eintrag vorkommt, gehen wir me genau erklärt wird, was ein Vektor ist, wollen wir
zur dritten Spalte weiter. Wir wählen die rot gedruckte 1 diese Sprechweise doch schon jetzt benutzen und eine Lö-
an der Stelle .2; 3/ aus und eliminieren damit alle anderen sung .l 1 ; : : : ; l n / unseres Gleichungssystems auch einen
Einträge in dieser dritten Spalte durch elementare Zeilen- Lösungsvektor nennen. Wir verwenden dafür das fettge-
umformungen. An den ersten beiden Spalten hat sich durch druckte l als Symbol verwenden. Ebenso können wir x
diese Zeilenumformungen nichts mehr geändert. als Vektor der Unbekannten .x 1 ; : : : ; xn / einführen und
das gegebene lineare Gleichungssystem in der Kurzform
? Selbstfrage 3.5 A x D b schreiben.
Was hätten wir tun können, wenn wir an der Stelle .2; 3/ Hier sollte man sich allerdings x als Spaltenvektor vor-
keine 1 zur Verfügung gehabt hätten? stellen, denn hinter dieser Kurzschreibweise verbirgt sich
76 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

ein Sonderfall der im 7 Kap. 6 ausführlich erklärten Matri- Lösungsmenge das xj einen frei wählbaren Parameter dar-
zenmultiplikation: stellt.
0 10 1 Unterhalb der Stufen gibt es nur Nullzeilen. Wir nennen
a11 a12    a1n x1 die Anzahl r der Stufen, also die Anzahl der Nichtnullzei-
B a21 a22    a2n C Bx2 C len der Matrix in Zeilenstufenform, den Rang von A und
B CB C
A x D B :: :: :: C B :: C verwenden dafür das Zeichen rg A.
3 @ : :  : A@ : A
Im 7 Abschn. 4.4 werden wir erkennen, dass diese Zahl
am1 am2    amn xn
r durch A eindeutig bestimmt ist, nämlich als Dimension
0 1
a11 x1 C a12 x2 C    C a1n xn der Hülle der Zeilenvektoren von A. Egal, auf welchem
B a21 x1 C a22 x2 C    C a2n xn C Weg wir zur Zeilenstufenform der Matrix A gelangen, es
B C
DB :: C bleiben stets dieselbe Anzahl rg A von Nichtnullzeilen üb-
@ : A
rig. Diese Eindeutigkeit setzen wir im Folgenden bereits
am1 x1 C am2 x2 C    C amn xn voraus.
Wenn wir zwei gleichartige Matrizen A und C genau dann
als gleich erklären, wenn an jeder Stelle .i; j / die jewei- Das Verfahren von Gauß und Jordan ist
ligen Einträge aij und cij übereinstimmen, so fasst unsere ein zuverlässiger Weg zur Lösung
Matrizengleichung

Ax D b Wir unterscheiden zwei Eliminationsverfahren zur Lösung


linearer Gleichungssysteme: Das Verfahren von Gauß und
genau die m linearen Gleichungen in den n Unbekann- das Verfahren von Gauß und Jordan. Tatsächlich waren
ten zusammen: Der m-zeilige Vektor der Summen auf den diese Verfahren schon lange Zeit vor Gauß und Jordan be-
linken Seiten des linearen Gleichungssystems wird dem kannt, aber diese Bezeichnungen haben sich etabliert, und
Vektor b der Absolutglieder gleichgesetzt. auch wir wollen davon nicht abrücken.
Gemäß unserer Lösungsstrategie wenden wir uns der Beim Verfahren von Gauß wird die erweiterte Koeffi-
Aufgabe zu nachzuweisen, dass sich jede nicht nur aus Nul- zientenmatrix auf Zeilenstufenform gebracht, also auf die
len bestehende Koeffizientenmatrix A mithilfe elementarer Form
Zeilenumformungen auf Stufenform bringen lässt, genauer 0 1
auf Zeilenstufenform: f1
0 19 B f2 C
> B C
f1 > B C
B C> > B f3 C
B f2 C> >
> B
B
C
C
B f3 C >
> B C
B C>
B C> > B :: C
B C= B
B
0 : C
C
B C B fr C
B :: C> r B C
B 0 : C>
B C> > @ 0 A
B fr C > >
B C> >
@ 0 A> >
>
>
;
Die führenden Einträge f1 ; : : : ; fr sind von Null verschie-
den; davor und darunter gibt es nur Nullen. Darüber stehen
Dabei bezeichnen f1 ; : : : ; fr die in den Zeilen jeweils ers-
beliebige Einträge; diese sind durch markiert. Nullspalten
ten, von 0 verschiedenen Einträge, die führenden Einträge
sind bereits weggelassen worden.
oder Pivotelemente. Kennzeichnend für die Zeilenstufen-
form ist, dass beim Durchlaufen der Zeilen von oben nach
unten nach jeder Zeile der führende Eintrag um mindestens
eine Spalte nach rechts rückt. Gibt es Nullzeilen, so stehen Eliminationsverfahren von Gauß
diese ganz unten. Dieses Eliminationsverfahren zur Lösung des linearen
Liegt fi C1 um k Spalten rechts von fi bei k  1, so Gleichungssystems .A j b/ besteht aus
bildet fi zusammen mit den k  1 rechts anschließenden 1. der Umformung auf Zeilenstufenform,
Einträgen eine Stufe der Länge k. Die verstreuten Nullen in 2. der Lösbarkeitsentscheidung und
der obigen Matrix sollen andeuten, dass unter den Stufen, 3. dem Rückwärtseinsetzen zur Bestimmung der Lö-
also unter der markierten Linie, nur Nullen auftreten. Die sungsmenge des Systems.
durch markierten Einträge sind beliebig.
Wir haben eventuell vorhandene Nullspalten bereits
weggelassen. Sie bedeuten, dass eine Unbekannte xj über- Beim Verfahren von Gauß und Jordan wird die erwei-
haupt nicht in den Gleichungen erscheint und daher in der terte Koeffizientenmatrix auf reduzierte Zeilenstufenform
3.2  Das Lösungsverfahren von Gauß und Jordan
77 3
gebracht, also auf die Form Beim Verfahren von Gauß berechnet man nun die Lö-
0 1 sung durch Rückwärtseinsetzen. Wir erhalten für x2 den
f1 0 Wert 1=7 und dann durch Einsetzen in die erste Glei-
B f 0 C
B 2 C chung
B f 0 C
B 3 C
B C x1 C 4 .1=7/ D 2 ) x1 D 18=7 :
B C
B C
B :: C Also ist .l1 ; l2 / D .18=7; 1=7/ die einzige Lösung.
B 0 : C
B C
B fr C Beim Verfahren von Gauß und Jordan werden an der
B C
@ 0 A Matrix
 
1 4 2
0 7 1
Wie vorhin sind für i D 1; : : : ; r die führenden fi ¤ 0, und
davor und darunter gibt es nur Nullen. Diesmal werden aber in Zeilenstufenform noch zwei weitere Umformungen
auch über den Stufen mittels elementarer Zeilenumformun- durchgeführt: Die zweite Zeile wird mit 1=7 multi-
gen möglichst viele Nullen erzeugt, auf jeden Fall über den pliziert und dann zur ersten Zeile das .4/-Fache der
fi . Durch geeignete Multiplikation der Zeilen könnte auch neuen zweiten Zeile addiert, kurz:
f1 D    D fr D 1 erreicht werden.    
1 4 2 1 0 18=7
!
0 7 1 z1 !z1 C4=7 z2 0 1 1=7
Eliminationsverfahren von Gauß und Jordan
Wir geben wieder das zugehörige, zu (3.1) äquivalente
Dieses Eliminationsverfahren zur Lösung des linearen
Gleichungssystem explizit an:
Gleichungssystem .A j b/ besteht aus
1. der Umformung auf Zeilenstufenform, x1 D 18=7
2. der Lösbarkeitsentscheidung und x2 D 1=7
3. der Reduktion mittels weiterer elementarer Zeilenum-
formungen auf reduzierte Zeilenstufenform und dem Bei dieser reduzierten Zeilenstufenform ist die Lösung
Ablesen der Lösung. direkt ablesbar.
4 Wir bestimmen die Lösungsmenge des folgenden reel-
len linearen Gleichungssystems:
Bevor wir die uneingeschränkte Wirksamkeit dieser Verfah- 2 x1 C 4 x2 D 2
ren beweisen, üben wir sie an einigen einfachen linearen
3 x1 C 6 x2 D 3
Gleichungssystemen über dem Körper R ein.
5 x1 C 10 x2 D 5
Beispiel Die erweiterte Koeffizientenmatrix ist
4 Wir bestimmen die Lösungsmenge des folgenden reel- 0 1
len linearen Gleichungssystems: 2 4 2
@3 6 3 A
x1 C 4 x2 D 2 5 10 5
3 x1 C 5 x2 D 7 (3.1)
Wir multiplizieren die erste Zeile mit 1=2 und wählen
Die erweiterte Koeffizientenmatrix ist die an der Stelle .1; 1/ entstehende 1, um mit dem Ver-
  fahren von Gauß zu beginnen:
1 4 2
3 5 7 0 1 0 1
1 2 1 1 2 1
z2 !z2 3 z1
@3 6 3A ! @0 0 0A
Wir wählen in der ersten Spalte die 1 an der Stelle .1; 1/ z3 !z3 5 z1
5 10 5 0 0 0
und beginnen mit
    Die Matrix hat Zeilenstufenform, ihr Rang ist 1. Die
1 4 2 1 4 2
! beiden Eliminationsverfahren sind hier identisch, die
3 5 7 z2 !z2 3 z1 0 7 1
entstandene Matrix hat bereits reduzierte Zeilenstufen-
Die Matrix hat bereits Zeilenstufenform, der Rang der form. Das zugehörige Gleichungssystem lautet
Matrix ist also 2. Wir geben das zugehörige, zu (3.1)
x1 C 2 x2 D 1 :
äquivalente Gleichungssystem explizit an:
Für jedes reelle t, das wir für x2 einsetzen, nimmt x1
x1 C 4 x2 D 2
den Wert 1  2 t an. Also ist L D f.1  2 t; t/ j t 2 Rg
 7 x2 D 1 die Lösungsmenge.
78 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

4 Wir bestimmen für alle a 2 R die Lösungsmenge des haben das bisher ebenfalls gemacht, werden die aber in
folgenden linearen Gleichungssystems: Zukunft zunehmend meiden, weil ja in der erweiterten
Koeffizientenmatrix alle wesentlichen Informationen ent-
x1 C a  x2  x3 D 0 halten sind.
2 x1 C x2 D0 Das a in dem letzten Beispiel ist zwar anfangs nicht
x2 C x3 D 0 bekannt, aber keine Unbestimmte, sondern ein Parameter.
3 Das Gleichungssystem wäre andernfalls nicht mehr linear.
Die erweiterte Koeffizientenmatrix lautet
0 1 Wir diskutieren kurz den Fall einer erweiterten Koeffizi-
1 a 1 0
@2 1 0 0A entenmatrix, deren erste Spalte keine 1 aufweist. Dann
0 1 1 0 sind entweder alle Elemente der ersten Spalte null, oder es
gibt ein ai1 ¤ 0. Im ersten Fall braucht man der ersten
Wir wählen in der ersten Spalte die 1 an der Stelle .1; 1/ Spalte keine weitere Beachtung zu schenken; die Unbe-
und beginnen mit dem Verfahren von Gauß: stimmte x1 unterliegt keinerlei Einschränkung, man setze
x1 D t 2 R.
0 1 0 1 1
1 a 1 0 1 a 1 0 Im zweiten Fall multiplizieren wir die i-te Zeile mit ai1
@2 1 0 0A ! @0 .1  2 a/ 2 0A ! und erreichen damit eine 1 an der Stelle .i; 1/, mit welcher
0 1 1 0 0 1 1 0 die anderen Zahlen der ersten Spalte eliminiert werden kön-
0 1 0 1 nen. Dies führt aber häufig zu unhandlichen Brüchen in den
1 0 .1  a/ 0 1 0 .1  a/ 0
weiteren Zahlen dieser Zeile und schließlich in der ganzen
@0 0 .1 C 2 a/ 0A ! @0 1 1 0A Matrix. Dies lässt sich vermeiden, wenn man die neuen Zei-
0 1 1 0 0 0 .1 C 2 a/ 0 len wieder derart erweitert, dass die Nenner wegfallen. Bei
der folgenden Elimination erfolgen diese beide elementa-
Die Matrix hat damit Zeilenstufenform.
ren Zeilenumformungen gleichzeitig:
Der Rang der Matrix hängt nun von der reellen Zahl a
ab. Ist a D 1=2, so ist der Rang 2, im Fall a ¤ 1=2    
jedoch 3. 3 2 3 4 3 2 3 4
!
1. Fall: a ¤ 1=2. 2 5 6 10 z2 !3 z2 2 z1 0 11 12 22
Wegen 1 C 2 a ¤ 0 ist die dritte Gleichung nur für
x3 D 0 erfüllbar. Für x2 erhalten wir aus der zweiten Es wird nämlich vom 3-Fachen der zweiten Zeile das
Gleichung durch Einsetzen von x3 D 0 ebenfalls den 2-Fache der ersten Zeile subtrahiert.
Wert 0 und schließlich aus der ersten Gleichung x1 D 0.
Also ist .0; 0; 0/ die eindeutig bestimmte Lösung des Beispiel Als ausführlicheres Beispiel betrachten wir ein
Systems und L D f.0; 0; 0/g die Lösungsmenge. komplexes lineares Gleichungssystem, also mit K D C:
2. Fall: a D 1=2.
Die erweiterte Koeffizientenmatrix hat in diesem Fall
2 x1 C i x3 D i
die Gestalt
x1  3 x2  i x3 D 2 i
0 1
1 0 1=2 0 i x1 C x2 C x3 D 1 C i
@0 1 1 0A
0 0 0 0 Die erweiterte Koeffizientenmatrix ist

Für jedes reelle t, das wir für x3 einsetzen, hat x2 den 0 1


2 0 i i
Wert t, wie wir aus der zweiten Gleichung erkennen. @1 3 i 2i A
Die erste Gleichung führt auf x1 D 12 t. Damit lautet die i 1 1 1Ci
Lösungsmenge L D f. 21 t; t; t/ j t 2 Rg. 9
Wir wählen eine 1 und beginnen:
Kommentar Natürlich führen beide Eliminationsverfahren
zur gleichen Lösung. Tatsächlich aber schleichen sich umso 0 1 0 1
mehr Rechenfehler ein, je mehr elementare Zeilenumfor- 2 0 i i 1 3 i 2i
mungen durchgeführt werden. Die Erfahrung zeigt, dass @1 3 i 2 i A ! @0 6 3 i 3 i A
man am besten das Eliminationsverfahren von Gauß an- i 1 1 1Ci 0 1C3i 0 3 Ci
wendet und dann von Fall zu Fall entscheidet, ob man
oberhalb der Stufen noch die eine oder andere Null erzeugt. Nun könnten wir die zweite Zeile durch 6 dividieren, doch
Für den Anfänger ist es nützlich, nach Durchführung führt dies zu unbequemen Brüchen. Wir vermeiden diese,
des Verfahrens von Gauß das zugehörige äquivalente Glei- indem wir nur durch 3 dividieren und umgekehrt vom Dop-
chungssystem noch einmal explizit anzuschreiben. Wir pelten der dritten Zeile das .1C3 i/-Fache der zweiten Zeile
3.2  Das Lösungsverfahren von Gauß und Jordan
79 3

Beispiel: Lineare Gleichungssysteme mit Parameter I

Für welche a 2 R hat das reelle lineare Gleichungssystem Dies gilt wegen 12 a.a2/.23 a/ D 3 a2 10 aC3 D
.a 3/.3 a 1/ und 3.a 2/.a 6/ D .a2 8 a C15/ D
x1 C x2 C a x3 D 2 .a  3/.a  5/.
2 x1 C a x2  x3 D 1 Für a … f3; 13 g ist das Gleichungssystem also eindeutig
3 x1 C 4 x2 C 2 x3 D a lösbar.
Für a D 13 ist das Gleichungssystem aufgrund der letzten
keine, genau eine bzw. mehr als eine Lösung? Berechnen Sie Zeile unlösbar.
für a 2 f2; 3g alle Lösungen. Für a D 3 gibt es unendlich viele Lösungen.
Wir berechnen nun abschließend die Lösungen des Sys-
Problemanalyse und Strategie tems für die beiden Fälle a 2 f2; 3g.
Wir notieren die erweiterte Koeffizientenmatrix .A j b/ und a D 2: Wir setzen a D 2 in die Zeilenstufenform der
bringen diese mit elementaren Zeilenumformungen auf Stu- erweiterten Koeffizientenmatrix ein und erhalten
fenform. Dabei achten wir darauf, dass wir Fallunterscheidun- 0 1
1 1 2 2
gen so lange wie möglich hinausschieben, also nicht durch a B0
@ 1 4 4CA
oder einen a enthaltenden Ausdruck dividieren.
0 0 5 3
Lösung
also x3 D 35 , x2 D 4 C 4 x3 D  85 , x1 D 2  x2  2 x3 D 12
5 ,
Wir beginnen mit den Zeilenumformungen an der erweiterten
d. h.
Koeffizientenmatrix:
0 1
1 1 a 2 L D f.12=5; 8=5; 3=5/g:
B2 1 1C
z2 2z1
@ a A !
3 4 2 a
z3 3z1 a D 3: In diesem Fall erhalten wir aus der Zeilenstufen-
0 1 form der erweiterten Koeffizientenmatrix
1 1 a 2 0 1
B0 a2 1  2 a 3 C
z2 $z3 1 1 3 2
@ A ! B0
0 1 2  3a a6 @ 1 7 3CA
0 1 0 0 0 0
1 1 a 2
B0 2  3a a  6C
z3 .a2/z2
@ 1 A ! also x2 D 3 C 7 x3 , x1 D 2  x2  3 x3 D 5  10 x3 . Für je-
0 a2 1  2 a 3 de Wahl von x3 2 R liegt eine Lösung vor. Wir verdeutlichen
0 1 dies, indem wir x3 D t setzen. Damit lautet die Lösungsmen-
1 1 a 2
B0 C ge bei a D 3
@ 1 2  3a a6 A
0 0 3.a  3/.a  13 / .a  3/.a  5/
L D f.5  10 t; 3 C 7 t; t/ j t 2 Rg:

subtrahieren. d. h.,
0 1  
1 3 i 2i 1 1 1
@0 2 i i A ! LD .3 C i/; .3  4 i/; .3 C 6 i/
5 5 5
0 2C6i 0 6C2i
0 1 ist die Lösungsmenge. 9
1 3 i 2i
@0 2 i i A
0 0 3 i 3 C3i Hinter den Eliminationsverfahren steht
ein Algorithmus
Es gibt also eine eindeutige Lösung, und zwar

3 C3i 1 3 6 Egal, wie unbequem die Einträge einer Matrix auch sein
x3 D D .3 C 3 i/ .3 C i/ D C i
3i 10 5 5 mögen, letztlich gelingt es immer, eine Matrix mit ele-
i  i x3 3 4 mentaren Zeilenumformungen auf (reduzierte) Zeilenstu-
x2 D D  i
2 5 5 fenform zu bringen. Nach den vielen Beispielen soll die-
3 1 ses Ergebnis nochmals festgehalten und der algorithmi-
x1 D 2 i C 3 x2 C i x3 D C i
5 5 sche Charakter des Verfahrens hervorgehoben werden. Mit
80 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

Letzterem ist gemeint, dass ein und dieselben Prozedur so ersten Spalten bleiben davon sowieso unberührt. Nach die-
oft angewendet wird, bis die gewünschte Form erreicht ist. sen Umformungen steht der erste, von null verschiedene
Eintrag der zweiten Zeile – bezogen auf die Gesamtmatrix
– an der Stelle .2; k C l/:
Reduzierbarkeit auf Zeilenstufenform 0 1
0 ai k
3 Jedes lineare Gleichungssystem lässt sich durch elemen-
B 0  0 a1Cj kCl C
tare Zeilenumformungen in ein äquivalentes System über- B C
B 0  0 0 C
führen, das eine Zeilenstufenform oder reduzierte Zeilen- B C
B :: :: :: C
stufenform aufweist. @ : : : A2 A

Beweis Wir beschreiben das schrittweise Vorgehen, also Von nun an lassen wir die erste Zeile und die ersten l Spal-
den Eliminationsalgorithmus, bei dem aus m Gleichungen ten von A 1 außer Acht und wiederholen das Verfahren für
in n Unbekannten bestehenden Gleichungssystem .A j b/: die verbleibende Matrix A 2 , die nur mehr .m  2/ Zeilen
1. Schritt: Wir beginnen mit der ersten Spalte von A. und n  k  l Spalten aufweist; und so weiter. Gleichar-
Gibt es darin ein ai1 ¤ 0, so verwenden wir dieses, tige Schritte sind so lange zu wiederholen, bis alle Zeilen
um alle anderen Einträge aj1 , j ¤ i, in der ersten Spalte zu durchlaufen sind oder die Restmatrix nur mehr Nullen ent-
eliminieren, indem von der j -ten Zeile die mit aj1 =ai1 mul- hält. Nachdem die Größe der Restmatrix Schritt für Schritt
tiplizierte i-te Zeile subtrahiert wird. Dann tauschen wir die abnimmt, ist nach spätestens m Schritten die Zeilenstufen-
i-te Zeile mit der ersten Zeile. Alle Zeilenumformungen form hergestellt.
sind an der erweiterten Koeffizientenmatrix .A j b/ vorzu- Will man schließlich die reduzierte Zeilenstufenform
nehmen. erreichen, so verwendet man die führenden Einträge pro
Gibt es hingegen nur Nullen in der ersten Spalte, so Zeile, um die darüber stehenden Einträge zu eliminie-
gehen wir die Spalten der Reihe nach durch. Finden wir ren. Über den anderen Elementen derselben Stufe können
erstmals in der k-ten Spalte von A, 1 < k  n, ein von null durchaus von null verschiedene Zahlen stehen bleiben. 
verschiedenes Element ai k , so verfahren wir mit der k-ten
Spalte so wie vorhin mit der ersten.
Gibt es überhaupt nur Nullen in A, so sind wir bereits 3.3 Das Lösungskriterium und die Struktur
fertig mit der Elimination. der Lösung
2. Schritt: Die erste Zeile der Matrix beginnt nun ent-
weder mit ai1 ¤ 0, oder sie beginnt mit Nullen und erstmals
an der Stelle .1; k/, k > 1, steht ein ai k ¤ 0. Wir fassen Bringt man eine Koeffizientenmatrix A bzw. eine erwei-
beide Möglichkeiten zusammen, indem wir k  1 zulassen. terte Koeffizientenmatrix .A j b/ mithilfe von elementaren
Dann lassen wir im Weiteren die erste Zeile und die ers- Zeilenumformungen auf Zeilenstufenform, so heißt die An-
ten k Spalten der Koeffizientenmatrix A außer Acht und zahl der Zeilen, in denen nicht nur Nullen als Einträge
wenden uns der verbleibenden .m  1/ .n  k/-Matrix A 1 erscheinen, der Rang rg A bzw. rg.A j b/. Dieser bereits
zu: oben eingeführte Begriff spielt eine wesentliche Rolle bei
der Lösbarkeitsentscheidung.
0 1
0 ai k
B 0 0 C
B C
B :: :: C Mithilfe des Ranges lässt sich die Lösbarkeit
@ : : A1 A
eines linearen Gleichungssystems
entscheiden
Es ist zu beachten, dass die Restmatrix A 1 ebenso wie A
keine Absolutglieder enthält. Nur bei den Zeilenumformun- Wir formulieren gleich das wesentliche Ergebnis.
gen sind auch die Absolutglieder mit zu berücksichtigen.
Diesmal durchsuchen wir in A 1 die Spalten von vorne
weg, um ein Element aj l ¤ 0 zu entdecken. Gibt es keines,
Das Lösbarkeitskriterium
so sind wir fertig. Finden wir hingegen in der Restmatrix
Ein lineares Gleichungssystem mit der Koeffizientenma-
A 1 an der Stelle .j; l/, j  1, l  1, ein von null ver-
trix A und der erweiterten Koeffizientenmatrix .A j b/ ist
schiedenes Element a1Cj kCl , so eliminieren wir damit wie
genau dann lösbar, wenn
im ersten Schritt die Einträge der l-ten Spalte in A 1 und
tauschen dann die j -te Zeile mit der ersten von A 1 .
rg A D rg.A j b/ :
Wieder werden die Zeilenumformungen an der ge-
samten erweiterten Koeffizientenmatrix vorgenommen. Die
3.3  Das Lösungskriterium und die Struktur der Lösung
81 3
Kommentar Dieses Kriterium wird den im 19. Jahrhundert daran, dass bei allen elementaren Zeilenumformungen die
wirkenden Mathematikern Leopold Kronecker und Alfredo Nullen in der Absolutspalte bestehen bleiben und sich da-
Capelli zugeschrieben und deshalb oft Kriterium von Kron- her in der Zeilenstufenform kein Widerspruch zeigen kann.
ecker und Capelli genannt. Setzt man in einem beliebigen linearen Gleichungssys-
tem .A j b/ alle Absolutglieder gleich null, so entsteht das
Beweis Gilt rg A D rg.A j b/, so existiert ein zu .A j b/ zugehörige homogene lineare Gleichungssystem .A j 0/
äquivalentes lineares Gleichungssystem in Zeilenstufen- mit dem Nullvektor 0 als Spalte der Absolutglieder:
form, bei welchem rechts von den Nullzeilen von A nur
Nullen stehen. Deshalb ist die Lösungsmenge nicht leer. a11 x1 C a12 x2 C    C a1n xn D b1
Ist rg A ¤ rg.A j b/, so bleibt nur rg A < rg.A j b/, a21 x1 C a22 x2 C    C a2n xn D b2
da die Zeilen in .A j b/ jeweils ein Element mehr aufwei- :: :: :: ::
sen als jene in A. Dann enthält ein zu .A j b/ äquivalentes : : : :
lineares Gleichungssystem in Zeilenstufenform eine Zeile am1 x1 C am2 x2 C    C amn xn D bm
„ ƒ‚ …
der Art inhomogen ” b ¤0 für mindestens ein i
i

.0 0 : : : 0 j b/ mit b ¤ 0 : #
a11 x1 C a12 x2 C    C a1n xn D 0
Dies besagt aber, dass das gegebene Gleichungssystem a21 x1 C a22 x2 C    C a2n xn D 0
nicht lösbar ist.  :: :: :: ::
: : : :
Nicht lösbar sind also z. B. am1 x1 C am2 x2 C    C amn xn D 0
„ ƒ‚ …
0 1 0 1 zugehöriges homogenes System
2 b 1 0 1 1 2 3 2
@0 1 0 4A und @0 0 0 0 1A :
?Selbstfrage 3.7
0 0 0 2 0 0 0 1 1
Hat ein homogenes Gleichungssystem über einem Körper
K neben der trivialen Lösung noch eine weitere Lösung,
Hingegen sind lösbar
so hat es gleich unendlich viele Lösungen. Stimmt das?
0 1 0 1
2 b 1 0 1 1 2 3 2
@0 1 0 4A und @0 0 1 1 1 A :
0 0 0 0 0 0 0 1 5 Die Lösungsmengen von homogenen und
inhomogenen linearen Gleichungssystemen
Kommentar haben eine gewisse Struktur
4 Lineare Gleichungssysteme mit lauter Nullen als Abso-
lutglieder sind immer lösbar.
4 Beim Verfahren von Gauß und Jordan bedeutet es kei- Mithilfe von Begriffen und Ergebnissen aus dem kom-
nen zusätzlichen Aufwand, das obige Lösbarkeitskrite- menden 7 Kap. 4 werden wir eine bessere Einsicht in die
rium anzuwenden. Es ist eine Station auf dem Weg zur Struktur der Lösungsmengen gewinnen. Unsere derzeiti-
Lösungsfindung. gen Kenntnisse reichen aber bereits aus, um die folgenden
4 Ein Grund, warum das Lösbarkeitskriterium mithilfe Sachverhalte zu begründen.
der Ränge formuliert wird, liegt in der Bedeutung des
Ranges als eine wichtige Kenngröße einer Matrix. Vor-
weggreifend wollen wir nur bemerken, dass sich der Lösungen eines homogenen Systems
Rang auch auf andere Arten feststellen lässt. Man muss Sind .l1 ; : : : ; ln / und .m1 ; : : : ; mn / Lösungen eines homo-
hierzu nicht unbedingt die Zeilenumformungen durch- genen linearen Gleichungssystems über K in n Unbekann-
führen. ten, dann ist auch die Summe .l1 C m1 ; : : : ; ln C mn / eine
Lösung. Ferner ist für jedes  2 K auch das -Fache
? Selbstfrage 3.6 . l1 ; : : : ;  ln / eine Lösung.
Vergleichen Sie bei den sechs Gleichungssystemen im
Beispiel aus 7 Abschn. 3.1 die Ränge der Koeffizienten-
matrizen mit jenen der erweiterten Koeffizientenmatrizen.
Beweis Um zu zeigen, dass die Summe eine Lösung ist,
Ein lineares Gleichungssystem, in dessen Absolutspalte müssen wir nur verifizieren, dass alle Gleichungen beim
lauter Nullen stehen, heißt homogen und sonst inhomogen. Einsetzen dieser Summe erfüllt werden.
Ein homogenes System besitzt immer die triviale Lösung Wir setzen die Summe in die i-te Gleichung des ho-
.0; 0; : : : ; 0/ und ist daher immer lösbar. Das zeigt sich auch mogenen Systems ein. Mithilfe der in Körpern gültigen
82 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

Beispiel: Lineare Gleichungssysteme mit Parameter II

Wir untersuchen das reelle lineare Gleichungssystem Für a ¤ 1 können wir die zweite Zeile durch a C 1 und
die dritte durch a teilen. Wir erhalten so die Matrix
x1 C a x2 C b x3 D 2 a
0 1
x1  x2 D0 1 1 0 0
B0 1 0 2 a C
3 b x2 C a x3 D b @ aC1 A
0 0 1 0
in Abhängigkeit der beiden Parameter a; b 2 R auf Lösbarkeit
bzw. eindeutige Lösbarkeit und stellen die entsprechenden Be- mit einer eindeutig bestimmten Lösung.
reiche für .a; b/ 2 R2 grafisch dar. Damit haben wir den Fall b D 0 abgehandelt.
2. Fall b ¤ 0: Die zum Gleichungssystem gehörige Ma-
Problemanalyse und Strategie trix lautet, nachdem wir die dritte Zeile durch b geteilt haben:
Wir wenden die bekannten elementaren Zeilenumformungen 0 1
an, beachten aber jeweils, unter welchen Voraussetzungen an 1 1 0 0
B0 aC1 2 aC
a und b diese zulässig sind. @ b A
0 1 a=b 1
Lösung
Wir vertauschen die zweite und die dritte Zeile und addieren
Die erweiterte Koeffizientenmatrix .A j b/ des Systems lautet:
zur neuen dritten Zeile das .a C 1/-Fache der neuen zweiten
0 1
1 a b 2a Zeile:
B1 1 0 0C 0 1
@ A 1 1 0 0
0 b a b B0 1 1 C
@ a=b A
Damit die Parameter a und b nicht zu oft auftreten, bietet sich 0 0 b  .a C 1/ a=b a  1
ein Tausch der ersten beiden Zeilen an. Zur neuen zweiten Zei-
le addieren wir dann das .1/-Fache der dann neuen ersten Also gilt:
Zeile: 1) Das Gleichungssystem ist nicht lösbar für a ¤ 1 und
0 1 0 1 b 2 D .a C 1/ a.
1 1 0 0 1 1 0 0 2) Das Gleichungssystem ist eindeutig lösbar für b 2 ¤ .a C
B1 a b 2 aC B C
@ A ! @0 a C 1 b 2 a A 1/ a, wobei a beliebig ist.
0 b a b 0 b a b 3) Das Gleichungssystem hat unendlich viele Lösungen für
a D 1 und b 2 D 2.
Damit wir die letzte Zeile mit b 1 multiplizieren dürfen, be-
trachten wir b D 0 gesondert.
Die Menge der in 1) genannten Punkte .a; b/ 2 R2 mit
1. Fall b D 0: Die Matrix hat dann die Form:
b 2 D .a C 1/ a bildet eine Hyperbel:
0 1
1 1 0 0
B0 a C 1 0 2 aC a
@ A
0 0 a 0
1
Wir unterscheiden zwei Fälle: (a) a D 0 und (b) a ¤ 0:
(a) Ist a D 0, so erhalten wir
0 1
1 1 0 0 b
B0 1 0 0C
@ A
0 0 0 0

und damit unendlich viele Lösungen.


(b) Ist a ¤ 0, so müssen wir die beiden Fälle a D 1
und a ¤ 1 unterscheiden: Bei a D 1 gehört zu dem Glei-
chungssystem die Matrix:
0 1
1 1 0 0 Die blauen Bereiche geben diejenigen Paare .a; b/ 2 R2 an,
B0 0 0 2C für die das Gleichungssystem eindeutig lösbar ist. Für die
@ A
0 0 1 0 Punkte der rot eingezeichneten Hyperbel ist das Gleichungs-
system nicht lösbar – abgesehen von den drei grün markierten
Wegen rg A < rg.A j b/ ist das System nicht lösbar. Punkten, die jeweils unendlich viele Lösungen liefern.
3.3  Das Lösungskriterium und die Struktur der Lösung
83 3
distributiven Gesetze (7 Abschn. 2.3) folgt: Die erste Behauptung ergibt sich durch Einsetzen:

ai1 .l1 C m1 / C ai 2 .l2 C m2 / C    C ai n .ln C mn / A s D b und A l D 0


D ai1 l1 C ai1 m1 C ai 2 l2 C ai 2 m2 ) A.s C l / D A s C A l D b C 0 D b
C    C a i n ln C a i n mn
Ist m so wie s eine Lösung des inhomogenen Systems, so
D ai1 l1 C ai 2 l2 C    C ai n ln
„ ƒ‚ … gilt:
D0
C ai1 m1 C ai 2 m2 C    C ai n mn D 0 Am D As D b
„ ƒ‚ …
D0 ) A.m  s/ D A m  A s D b  b D 0

Das gilt für jedes i 2 f1; : : : ; mg. Also ist .l1 Cm1 ; : : : ; ln C Also löst der Differenzenvektor l D m  s das homogene
mn / eine Lösung. System, oder anders ausgedrückt: m D s C l . 
Ebenso gilt für jedes  2 K und für jeden Zeilenindex
i 2 f1; : : : ; mg wegen der Kommutativität von K Ist L die Lösungsmenge unseres inhomogenen Systems
und L0 jene des zugehörigen homogenen Systems, so be-
ai1 . l1 / C ai 2 . l2 / C    C ai n . ln / sagt das zweite Ergebnis
D  .ai1 l1 C ai 2 l2 C    C ai n ln / D   0 D 0 :
L D s C L0 D fs C l j l 2 L0 g: (3.2)
Somit ist wie behauptet auch . l1 ; : : : ;  ln / eine Lösung
unseres Gleichungssystems. ?Selbstfrage 3.8
Hier drängt sich die Vektorschreibweise geradezu auf. Sind Summen und Vielfache von Lösungen inhomogener
Wenn wir l und m als die beiden Lösungsvektoren des ho- Systeme stets wieder Lösungen des inhomogenen Sys-
mogenen Gleichungssystems A x D 0 voraussetzen, so tems?
besagt die obige Aussage, dass auch der Summenvektor
l C m eine Lösung ist. Dabei wird – die Vektoraddition
bereits vorwegnehmend – die Summe zweier n-Tupel kom- Nach einer Umreihung der Unbekannten
ponentenweise gebildet, analog zu der im 7 Abschn. 2.1 wird das Rückwärtseinsetzen besonders
vorgeführten Summe zweier Zahlentripel. Ebenso löst mit übersichtlich
l auch  l das homogene System, und natürlich bedeutet
 l das -Fache der Lösung l .
Wenn wir gleich auch noch die Matrizengleichung un- Abschließend noch ein genauer Blick auf das Rückwärts-
seres Systems verwenden und vorwegnehmen, dass die einsetzen:
Matrizenmultiplikation distributiv ist, was in voller Allge- Wir gehen aus von der reduzierten Zeilenstufenform.
meinheit erst im 7 Kap. 6 erklärt wird, so können wir den Nach geeigneter Multiplikation der Zeilen können alle füh-
obigen Beweis ganz kurz wie folgt führen: renden Einträge zu 1 gemacht werden. Wir wollen nun auch
noch Spaltenvertauschungen zulassen. Damit können wir
Al D Am D 0 nämlich erreichen, dass alle Stufen die Länge 1 erhalten,
) A.l C m/ D A l C A m D 0 C 0 D 0: weil die zwischen den führenden Einträgen gelegenen Spal-
ten zurückgereiht werden.
In 7 Kap. 4 werden wir eine Menge U von Vektoren einen Wenn wir die Spalten mit den Indizes i und j vertau-
Unterraum nennen, wenn dieser mit l und m auch l C m schen, so bedeutet dies, dass in der bisherigen Reihenfolge
sowie  l für alle  2 K enthält.  der Unbekannten x1 ; : : : ; xn die beiden Unbekannten xi
und xj die Plätze tauschen. Wir können also von einer
Umreihung der Unbekannten sprechen, oder aber auch von
Lösungsmenge eines inhomogenen Systems einer Umnummerierung, weil wir das bisherige xi als xj
Ist .s1 ; : : : ; sn / eine spezielle Lösung eines linearen Glei- bezeichnen können und umgekehrt.
chungssystems über K in n Unbekannten und .l1 ; : : : ; ln / Auf diese Weise kommen wir im lösbaren Fall auf die
eine Lösung des zugehörigen homogenen Systems, dann Form
ist auch die Summe .s1 C l1 ; : : : ; sn C ln / eine Lösung des 0 1
1 0 c1 rC1    c1n s1
inhomogenen Systems. Umgekehrt ist jede Lösung des in- B :: :: :: :: C
B : :C
homogenen Systems als eine derartige Summe darstellbar. B : : C
B0 1 cr rC1    crn sr C
B C;
B C
B0    0  0 0C
@: :: :: :: A
Beweis Wir verwenden hier gleich von Anfang an die Ma- :: : : :
trizengleichung A x D b des gegebenen Systems.
84 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

also ausgeschrieben, ohne Nullspalten und nach bereits er- Sicherheitshalber haben wir in einer Kopfzeile die Namen
folgter Umnummerierung der Unbekannten: der jeweiligen Unbekannten angeführt, denn nun reihen wir
um, so dass die Stufenlänge einheitlich 1 beträgt:
x1 C c1 rC1 xrC1 C    C c1n xn D s1
:: :: :: 0 1
:: x1 x3 x2 x4 x5
: : : :
@ 1 0 2 1 0 1A
3 xr C cr rC1 xrC1 C    C crn xn D sr
0 1 0 3 3 2
Nun ersetzen wir die letzten Unbekannten xrC1 ; : : : ; xn
durch frei wählbare Parameter t1 ; : : : ; tnr 2 K und brau- Dies ergibt für die neue Reihenfolge der Unbekannten als
chen die Lösung nur noch abzuschreiben: Parameterdarstellung der Lösungsmenge
0 1 0 1 0 1
x1 D s1  c1 rC1 t1      c1n tnr x1 1 2 1 0
0 1
:: :: :: :: Bx3 C B2C B 0 3 3 C t1
: : : : B C B C B C
Bx2 C D B0C C B 1 0 0 C @ A
xr D sr  cr rC1 t1      crn tnr B C B C B C t2 :
@x4 A @0A @ 0 1 0 A t3
xrC1 D t1 x5 0 0 0 1
:: ::
: :
xn D tnr Kommentar In der Sprache der Vektorräume, wie sie
im nächsten 7 Kap. 4 entwickelt wird, können wir sa-
In Form einer Matrizengleichung sieht dies vielleicht noch gen: Die Lösungsmenge eines homogenen Systems über
deutlicher aus: K in n Unbekannten und vom Rang r ist ein .n 
0 1 0 1 0 1 r/-dimensionaler Unterraum von Kn . Die Lösungsmenge
x1 s1 c1;rC1    c1n eines lösbaren inhomogenen Systems vom Rang r ist ein
B : C B:C B : :: C
B :: C B :: C B :: C 0 1 .n  r/-dimensionaler affiner Raum.
B C B C B : C t1
B x C Bs C B c C
B r C B r C B r;rC1    crn C B :: C
B CDB CCB C
BxrC1 C B 0 C B 1 0 C@ : A Aufgaben
B : C B:C B C tnr
B : C B:C B :: C
@ : A @:A @ : A
xn 0 0 1 Gelegentlich enthalten die Aufgaben mehr Angaben, als für
die Lösung erforderlich sind. Bei einigen anderen dage-
In den ersten r Zeilen scheinen Teilmatrizen der vorange- gen werden Daten aus dem Allgemeinwissen, aus anderen
gangenen erweiterten Koeffizientenmatrix auf. Bei den rot Quellen oder sinnvolle Schätzungen benötigt.
gedruckten Einträgen in der r .n  r/-Teilmatrix sind al-
lerdings alle Vorzeichen umgekehrt. einfache Aufgaben mit wenigen Rechenschritten
In Übereinstimmung mit (3.2) zeigt die obige Parame- mittelschwere Aufgaben, die etwas Denkarbeit und
terdarstellung in der ersten Spalte die spezielle Lösung des unter Umständen die Kombination verschiedener
inhomogenen Systems (erreichbar bei t1 D    D tnr D 0) Konzepte erfordern
und anschließend die allgemeine Lösung des zugehörigen anspruchsvolle Aufgaben, die fortgeschrittene Kon-
homogenen Gleichungssystems. zepte (unter Umständen auch aus späteren Kapiteln)
oder eigene mathematische Modellbildung benötigen

Freie Parameter in der Lösungsmenge


Ist .A j b/ ein lösbares lineares Gleichungssystem über K
mit n Unbekannten und hat die Koeffizientenmatrix A den
Verständnisfragen
Rang r, so treten in der Lösungsmenge n  r Parame-
ter t1 ; : : : ; tnr auf, deren Werte jeweils in K frei wählbar 3.1  Haben reelle lineare Gleichungssysteme mit
sind. zwei verschiedenen Lösungen stets unendlich viele Lösun-
gen?

Wir demonstrieren dies noch an dem Beispiel aus der 3.2  Gibt es ein lineares Gleichungssystem über ei-
Beispielbox im 7 Abschn. 3.2 mit der reduzierten Zeilen- nem Körper K mit weniger Gleichungen als Unbekannten,
stufenform welches eindeutig lösbar ist?
0 1
x1 x2 x3 x4 x5
3.3  Ist ein lineares Gleichungssystem A x D b mit
@ 1 2 0 1 0 1A :
n Unbekannten und n Gleichungen für ein b eindeutig lös-
0 0 1 3 3 2 bar, dann auch für jedes b . Stimmt das?
Aufgaben
85 3
3.4  Folgt aus rg A D rg.A j b/, dass das lineare mit b D a2  6 a C 9 keine, genau eine bzw. mehr als
Gleichungssystem .A j b/ eindeutig lösbar ist? eine Lösung? Für a D 0 und a D 2 berechne man alle
Lösungen.
3.5  Ein lineares Gleichungssystem mit lauter ganz-
zahligen Koeffizienten und Absolutgliedern ist auch als 3.10  Berechnen Sie die Lösungsmenge der komple-
Gleichungssystem über dem Restklassenkörper Zp aufzu- xen linearen Gleichungssysteme:
fassen. Angenommen, l D .l1 ; : : : ; ln / ist eine ganzzahlige a) x1 C i x2 C x3 D 1 C 4 i
Lösung dieses Systems. Warum ist dann l D .l 1 ; : : : ; l n / x1  x2 C i x3 D 1
mit l i li .mod p/ für i D 1; : : : ; n eine Lösung i x1  x2  x3 D  1  2 i
des gleichlautenden Gleichungssystems über Zp ? Ist jede b) 2 x C i x3 D i
1
Lösung zu letzterem aus einer ganzzahligen Lösung des x1  3 x2  i x3 D 2 i
Systems über Q oder R herleitbar? i x1 C x2 C x3 D 1 C i
3.6  Das folgende lineare Gleichungssystem mit c) .1 C i/ x1  i x2  x3 D 0
ganzzahligen Koeffizienten ist über R unlösbar. In welchen 2 x 1 C .2  3 i/ x2 C 2 i x3 D 0
Restklassenkörpern ist es lösbar, und wie lautet die jeweili-
3.11  Bestimmen Sie die Lösungsmenge L des folgen-
ge Lösung?
den reellen linearen Gleichungssystems in Abhängigkeit
2 x1 C x2  2 x3 D 1 von r 2 R:
x1  4 x2  19 x3 D 10 r x1 C x2 C x3 D 1
x2 C 4 x3 D 1 x1 C r x2 C x3 D 1
x1 C x2 C r x3 D 1
3.7  Es sind Zahlen a; b; c; d; r; s aus dem Körper K
vorgegeben. Begründen Sie, dass das lineare Gleichungs-
3.12  Untersuchen Sie das reelle lineare Gleichungs-
system
system
a x1 C b x2 D r
x1  x2 C x3  2 x4 D 2
c x1 C d x2 D s
2 x1 C 3 x2 C a x3 D4
im Fall a d  b c ¤ 0 eindeutig lösbar ist, und geben Sie x1 C x2  x3 C a x4 Da
die eindeutig bestimmte Lösung an. a x2 C b 2 x3  4 a x4 D1
Bestimmen Sie zusätzlich bei K D R für m 2 R die
in Abhängigkeit der beiden Parameter a; b 2 R auf Lös-
Lösungsmenge des folgenden linearen Gleichungssystems:
barkeit bzw. eindeutige Lösbarkeit und stellen Sie die
2 x1 C 3 x2 D 2 m entsprechenden Bereiche für .a; b/ 2 R2 grafisch dar.
x1  5 x2 D 11
3.13  Im Ursprung 0 D .0; 0; 0/ des R3 laufen die drei
Stäbe eines Stabwerks zusammen, die von den Punkten
Rechenaufgaben a D .2; 1; 5/; b D .2; 2; 4/; c D .1; 2; 3/
ausgehen.
3.8  Bestimmen Sie die Lösungsmengen L der fol-
Im Ursprung 0 wirkt die vektorielle Kraft F D
genden reellen linearen Gleichungssysteme und untersu-
.0; 0; 56/ in Newton. Welche Kräfte wirken auf die Stäbe
chen Sie deren geometrische Interpretationen:
(siehe . Abb. 3.7)?
a) 2 x1 C 3 x2 D 5
x1 C x2 D 2
3x1 C x2 D 1
Beweisaufgaben
b) 2x1  x2 C 2x3 D 1
x1  2x2 C 3x3 D 1
6x1 C 3x2  2x3 D 1 3.14  Beweisen Sie, dass bei jedem linearen Glei-
x1  5x2 C 7x3 D 2 chungssystem über dem Körper K mit den beiden Lösun-
gen l D .l1 ; : : : ; ln / und l D .l1 ; : : : ; ln / gleichzeitig
3.9  Für welche a 2 R hat das reelle lineare Glei- auch l C .1  /l , also .l1 C .1  /l1 ; : : : ; ln C .1 
chungssystem /ln / eine Lösung ist, und zwar für jedes  2 K.

.a C 1/ x1  b x2 C .a  2/ x3 D 1 3.15  Zeigen Sie, dass die elementare Zeilenumfor-


.a  2 a  3/ x1 C b x2 C
2
3 x3 D a  3 mung (1) auch durch mehrfaches Anwenden der Umfor-
.a C 1/ x1  b x2 C .a C 1/ x3 D 1 mungen vom Typ (2) und (3) erzielt werden kann.
86 Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

0 vAntwort 3.4
Die Zeilenumformung vom Typ 3 wurde beim ersten
Umformungspfeil nicht korrekt ausgeführt: Zeilenumfor-
mungen sind der Reihe nach durchzuführen. Wird im
ersten Schritt gemäß Typ 3 die zweite Gleichung zur
ersten addiert, so muss im zweiten Schritt zur zweiten
3 #F c Gleichung bereits die Summe z1 C z2 addiert werden und
c # nicht nur z1 allein. Hinter dem ersten Umformungspfeil
#F b
F verbergen sich bereits zwei Schritte, von denen der zweite
unzulässig ist.
b
#F a

a vAntwort 3.5
Steht an der Stelle .2; 3/ eine Zahl a23 ¤ 0, dann er-
1
. Abb. 3.7 Die Gewichtskraft F verteilt sich auf die Stäbe zeugen wir dort eine 1, wenn wir die 2. Zeile mit a23
multiplizieren. Bei a23 D 0 sehen wir nach, ob in der 3.
Spalte weiter unten ein von null verschiedenes Element
Antworten zu den Selbstfragen vorkommt. Wenn ja, vertauschen wir die zugehörige Zeile
mit der zweiten und verfahren wie vorhin. Wenn nein, ver-
v Antwort 3.1 fahren wir mit der 4. Spalte so wie vorhin mit der dritten,
Man erhält dann f.t; 1=2 t/ j t 2 Rg als Lösungsmenge. und so weiter. Gibt es von der zweiten Zeile an links vom
Dies ist aber natürlich die gleiche Menge. Trennstrich sowieso nur mehr Nullen, so liegt bereits eine
Stufenform vor.
v Antwort 3.2
1) Nein, denn die Gleichungen können einander wider- vAntwort 3.6
sprechen wie etwa x1 Cx2 Cx3 D 1 und x1 Cx2 Cx3 D Es gilt der Reihe nach rg A D 2 D rg.A j b/, rg A D 1 ¤
0, was zu L D ; führt. Ist das System jedoch lösbar, 2 D rg.A j b/ sowie rg A D 1 D rg.A j b/. Bei den drei
so kann man eine Unbekannte durch einen Parame- Gleichungen mit 4 Unbekannten im vierten Beispiel ist
ter t 2 R ersetzen und das System weiterhin lösen. rg A D 2 D rg.A j b/, bei dem fünften rg A D 2 ¤ 3 D
Wegen der freien Wahl von t gibt es unendlich viele rg.A j b/. Beim sechsten gilt über R rg A D 2 ¤ 3 D
Lösungen. rg.A j b/; hingegen gilt über Z5 rg A D 2 D rg.A j b/.
2) Nein, es ist z. B. x1 D 1, 2 x1 D 2 ein System von
zwei linearen Gleichungen in einer Unbekannten x1 vAntwort 3.7
und mit der eindeutig bestimmten Lösung x1 D 1. Es ist nur dann richtig, wenn K unendlich viele Elemente
hat, denn mit l ist auch jedes Vielfache  l mit  2 K eine
v Antwort 3.3 Lösung des homogenen Systems.
Im Fall b ¤ 0 ist die Lösungsmenge jeweils die leere
Menge. Im Fall b D 0 ist bei zwei Unbekannten die Lö- vAntwort 3.8
sungsmenge L D R2 , also die ganze Ebene, und bei drei Nein, denn aus As1 D As2 D b folgt A.s1 C s2 / D
Unbekannten der ganze Raum. 2 b ¤ b sowie A.s1 / D  b ¤ b, sofern  ¤ 1.
87 4

Vektorräume – von Basen


und Dimensionen

Inhaltsverzeichnis

4.1 Der Vektorraumbegriff – 88

4.2 Beispiele von Vektorräumen – 91

4.3 Untervektorräume – 94

4.4 Basis und Dimension – 97

4.5 Summe und Durchschnitt von Untervektorräumen – 112

Aufgaben – 118

Antworten zu den Selbstfragen – 119

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_4
88 Kapitel 4  Vektorräume – von Basen und Dimensionen

n Sie finden unter anderem Antworten zu . . .


4 Können Funktionen Vektoren sein? Definition eines K-Vektorraums
4 Enthält jedes Erzeugendensystem eine Basis? Es seien K ein Körper, .V; C/ eine abelsche Gruppe und
4 Welche Dimension hat KŒX über K? (
K V !V
W
Die lineare Algebra kann auch als Theorie der Vektor- .; v/ 7!   v
räume bezeichnet werden. Diese Theorie entstand durch
Verallgemeinerung der Rechenregeln von klassischen Vek- eine Abbildung. Falls für alle u; v; w 2 V und ;  2 K
4 toren im Sinne von Pfeilen in der Anschauungsebene. Der die Eigenschaften
wesentliche Nutzen liegt darin, dass unzählige, in fast al- (V1)   .v C w/ D   v C   w,
len Gebieten der Mathematik auftauchenden Mengen eben (V2) . C /  v D   v C   v,
diese gleichen Rechengesetze erfüllen. So war es nahe- (V3) . /  v D   .  v/,
liegend, jede Menge, in der jene Rechengesetze gelten, (V4) 1  v D v
allgemein als Vektorraum zu bezeichnen. Eine systema-
tische Behandlung eines allgemeinen Vektorraumes, d. h. gelten, nennt man V einen Vektorraum über K oder kurz
eine Entwicklung einer Theorie der Vektorräume, löst so- einen K-Vektorraum.
mit zahlreiche Probleme in den verschiedensten Gebieten
der Mathematik.
Auch wenn die Definition eines allgemeinen Vektor- Es ist hier angebracht, die Definition etwas zu erläutern.
raumes reichlich kompliziert wirken mag – letztlich kann Bei einem Vektorraum V werden zwei algebraische Struk-
man einen Vektorraum durch Angabe von oft sehr we- turen, nämlich die der abelschen Gruppe .V; C/ und die des
nigen Größen vollständig beschreiben. Jeder Vektorraum Körpers K, durch eine neue Verknüpfung  miteinander ver-
besitzt nämlich eine sogenannte Basis. In einer solchen Ba- bunden. Dass  eine Abbildung ist, bringt zum Ausdruck,
sis steckt jede Information zu dem Vektorraum. Und es dass diese Verbindung der beiden Strukturen durch eine
sind auch die Basen, die es möglich machen, von der Di- Multiplikation der Elemente aus V mit Elementen aus K
mension eines Vektorraumes zu sprechen. Dabei entspricht gegeben ist; das Ergebnis dieser Multiplikation ist ein Ele-
dieser Dimensionsbegriff den drei räumlichen Dimensio- ment in V . Die Eigenschaften (V1)–(V4) nennt man auch
nen des Anschauungsraumes. Aber dieser mathematische Vektorraumaxiome, sie beschreiben eine Verträglichkeit
Dimensionsbegriff ist viel allgemeiner. Es besteht für die der zwei gegebenen Verknüpfungen C und  des Vektorrau-
Mathematik keine Hürde, auch in Vektorräumen zu rech- mes V . In (V3) bezeichnet   das Produkt von  mit  in
nen, die sich der Anschauung völlig entziehen. K. Wir lassen für das Produkt in K – wie dies oft üblich ist
– den Punkt für die Multiplikation weg.

4.1 Der Vektorraumbegriff ?Selbstfrage 4.1


Hinter dem Begriff abelsche Gruppe .V; C/ verbergen
sich fünf Axiome. Können Sie diese angeben?
Wir führen den Begriff eines Vektorraums ein. Dieser er-
laubt uns, für viele verschiedene Bereiche, in welchen Die Elemente aus V heißen Vektoren und werden zu-
gleichartige Rechenverfahren auftreten, eine einheitliche nächst durch Fettdruck hervorgehoben. In späteren Ka-
Theorie zu entwickeln. piteln werden wir keinen Fettdruck mehr einsetzen, weil
sonst Formeln und Aussagen nicht konsistent werden. Es
ist unumgänglich, dass man sich über die Bedeutung der
Ein Vektorraum ist durch eine einzelnen Symbole in mathematischen Aussagen im Kla-
abelsche Gruppe, einen Körper, ren ist.
eine äußere Multiplikation und Die Elemente aus K heißen Skalare und werden häufig
vier Verträglichkeitsgesetze gegeben durch griechische Buchstaben gekennzeichnet. Das neu-
trale Element 0 bezüglich der Addition heißt Nullvektor.
Wir bezeichnen das zu v entgegengesetzte und eindeutig
Im Folgenden bezeichnen wir mit K einen Körper. Wenn bestimmte Element v0 mit v und schreiben anstelle von
nicht explizit auf einen besonderen Körper hingewiesen v C .w/ kurz v  w. Gelegentlich nennt man das ent-
wird, kann man sich anstelle von K stets den vertrauten gegengesetzte Element v zu v auch inverses Element.
Körper R denken, um ein konkretes Beispiel vor Augen zu Die (äußere) Multiplikation  nennen wir die Multiplika-
haben. tion mit Skalaren.
4.1  Der Vektorraumbegriff
89 4
Im Fall K D R nennen wir V auch einen reellen Wir tun das nicht, da die Schreibweise dadurch kompli-
Vektorraum und im Fall K D C einen komplexen Vek- ziert wird, und halten uns immer vor Augen, dass es sich
torraum. um verschiedene Additionen bzw. Multiplikationen han-
delt: 2-Tupel werden addiert (Addition in R2 ), indem man
Kommentar Alles, was als Element eines Vektorraumes ihre Koordinaten addiert (Addition in R); ein 2-Tupel wird
aufgefasst werden kann, ist also ein Vektor. Vektoren wer- mit einem  2 R multipliziert (äußere Multiplikation),
den nur durch ihre Eigenschaften definiert. Wir werden bald indem man jede seiner Koordinaten mit diesem Skalar mul-
verschiedene, zum Teil sehr vertraute mathematische Ob- tipliziert (Multiplikation in R).
jekte kennenlernen, die auch Vektoren sind. Ein Vektor ist Diese Addition und Multiplikation mit Skalaren haben
also nicht unbedingt wir übrigens bereits mit den Lösungen linearer Gleichungs-
4 ein Pfeil mit einer Länge und einer Richtung oder systeme eingeführt.
4 eine Klasse parallel verschobener Pfeile.
Lemma Die abelsche Gruppe R2 bildet mit der wie eben
erklärten komponentenweisen Multiplikation  einen R-
Die Anschauungsebene ist ein klassisches Vektorraum.
Beispiel eines reellen Vektorraumes
Beweis Die Vektorraumaxiome verifiziert man  durch
v1
Wir erklären auf dem kartesischen Produkt R2 D R R Nachrechnen. Wir wählen Elemente v D ;w D
v2
eine Addition und eine Multiplikation mit Skalaren und er-  
w1
halten so ein erstes (aus der Schulzeit bekanntes) Beispiel 2 R2 und ;  2 R:
w2
eines Vektorraumes. Es ist (V1) gilt, da
   
R2 D f.v1 ; v2 / j v1 ; v2 2 Rg v1 C w1  .v1 C w1 /
  .v C w/ D   D
v2 C w2  .v2 C w2 /
die Menge aller geordneten Paare .v1 ; v2 /. Dabei war es rei-      
 v1 C  w1  v1  w1
ne Willkür, die reellen Zahlen v1 und v2 nebeneinander zu D D C
schreiben. Wir können die Zahlen genauso gut übereinan-  v2 C  w2  v2  w2
   
der schreiben, d. h. v1 w1
D C D v C w:
   v2 w2
v1
R2 D j v1 ; v2 2 R :
v2 (V2) gilt, da
   
Wir werden diese aufrechte Schreibweise in diesem Kapi- v1 . C /  v1
. C /  v D . C /  D
tel für alle n-Tupel beibehalten. Der Vorteil liegt darin, dass v2 . C /  v2
die Darstellung übersichtlicher ist und Rechenregeln ein-      
  v1 C   v1   v1   v1
prägsamer werden. D D C
      v2 C   v2   v2   v2
Sind v D
v1
,wD
w1
Elemente aus R2 , so wird    
v2 w2 v1 v1
D  C 
R2 mit der komponentenweise erklärten Addition v2 v2

      D .  v/ C .  v/ :
v1 w1 v1 C w1
C D
v2 w2 v2 C w2 (V3) und (V4) begründet man analog. 

zu einer abelschen Gruppe .R2 ; C/. Wir erklären nun eine Das Beispiel lässt sich noch weiter verallgemeinern.
 R mit Beispiel Analog zu dem eben betrachteten Beispiel des R2
2
Multiplikation von Elementen der abelschen Gruppe
v1
Elementen aus dem Körper R. Für jedes v D 2 R2 ist für jeden Körper K und jede natürliche Zahl n die Menge
v2
und jedes  2 R setzen wir 80 1 9
ˆ v1 >
< =
    B :: C
v1  v1 V D K D @ : A j v1 ; : : : ; vn 2 K
n
 D : :̂ >
;
v2  v2 vn

Eigentlich sollte man für die Addition von Elementen aus mit komponentenweiser Addition und komponentenweiser
R2 und die Multiplikation von Elementen aus dem R2 mit Multiplikation mit Skalaren ein K-Vektorraum, Rn ein re-
reellen Zahlen neue Symbole, etwa ˚ und ˇ, einführen. eller, C n ein komplexer.
90 Kapitel 4  Vektorräume – von Basen und Dimensionen

Hintergrund und Ausblick: „Fastvektorräume“

Es gibt Beispiele von Mengen mit Verknüpfungen, bei denen (3) In K D C und V D C bezeichne C die übliche Addition
nur fast alle Vektorraumaxiome erfüllt sind. Wir führen vier komplexer Zahlen; als skalare Multiplikation definieren
Beispiele an, bei denen jeweils eines der sogenannten Verträg- wir für  2 C und v 2 V
lichkeitsaxiome (V1), (V2), (V3), (V4) zwischen der skalaren
Multiplikation und der Addition nicht erfüllt ist. Man beachte,   v D .Re / v :
dass wir im Folgenden bei der üblichen Multiplikation  in R
bzw. C keinen Multiplikationspunkt setzen. Die Multiplika- Das gemischte Assoziativgesetz (V3) gilt hier nicht: Z. B.
4 ist
tionspunkte sind für die definierten skalaren Multiplikationen
reserviert.
.i2 /  v D .1/  v D Re.1/ v D v ;
(1) In K D C und V D C 2 bezeichne C die komponenten-
aber
weise Addition; als skalare
! Multiplikation definieren wir
v1 i  .i  v/ D Re.i/ Re.i/ v D 0 ;
für  2 C und v D 2 V:
v2
8 ! d. h. .i2 /  v ¤ i  .i  v/, sofern v ¤ 0. Die anderen Vek-
ˆ
ˆ  v1 torraumaxiome sind erfüllt. Exemplarisch zeigen wir, dass
! ˆˆ falls v2 ¤ 0
v1 <  v2 ; (V2) erfüllt ist: Für alle ,  2 C und v 2 V gilt
 D !
v2 ˆ
ˆ
ˆ  v1 ; falls v2 D 0
:̂ 0 . C /  v D Re. C /  v D .Re  C Re / v
! !
1 1 D Re  v C Re  v D   v C   v :
Wir wählen  D i 2 C, v D ,wD 2 V und
1 1
rechnen nach, (4) In K D R und V D R2 bezeichne C die komponenten-
! !! ! ! weise Addition; als skalare
! Multiplikation definieren wir
1 1 2 2 i v1
  .v C w/ D i  C D i D für  2 R und v D 2V
1 1 0 0 v2
sowie ! ! ! !
1 1 v1  v1
vCwD i Ci  D :
1 1 v2 0
! ! !
i i 2i Für  D 1, v2 ¤ 0 ergibt sich
D C D :
i i 0
! ! !
v1 v1 v1
Also ist das Vektorraumaxiom (V1) verletzt. 1 D ¤ ;
v2 0 v2
Es gelten jedoch alle anderen Vektorraumaxiome. !Exem-
v1 also gilt hier das Axiom (V4) nicht. Alle anderen Axio-
plarisch weisen wir (V9) nach: Für alle v D 2 V
v2 me gelten. Exemplarisch weisen !
wir (V1) nach. Für alle
gilt: ! ! !
v1 1 v1 v1 w1
1v D1 D D v:  2 R und v D ;w D 2 V gilt:
v2 1 v2 v2 w2
! ! !
(2) In K D R und V D R bezeichne C die übliche Additi-  .v1 C w1 /  v1  w1
on reeller Zahlen; als skalare Multiplikation definieren wir   .v C w/ D D C
0 0 0
für  2 R und v 2 V
D   v C   w:
v D  v:
2

Kommentar Wir haben für jedes der vier Vektorraumaxiome


Das Axiom (V2) . C /  v D   v C   v ist verletzt: eine algebraische Struktur angegeben, in der dieses Axi-
Z. B. ist om verletzt und alle anderen Vektorraumaxiome erfüllt sind.
Demnach folgt keines der vier Axiome der Skalarmultipli-
.1 C 1/  v D 2  v D 4 v ¤ 2 v D v C v D 1  v C 1  v ;
kation aus den übrigen Axiomen. Man sagt: „Die Axio-
sofern v ¤ 0. Es sind jedoch alle anderen Vektor- me der Skalarmultiplikation sind voneinander unabhängig“.
raumaxiome erfüllt. Exemplarisch zeigen wir, dass (V3) Dies ist nicht so bei der Kommutativität der Addition: Die
erfüllt ist: Für alle ,  2 R und v 2 V gilt Kommutativität der Addition folgt tatsächlich aus den an-
deren Vektorraumaxiomen. Wir stellen diesen Nachweis als
. /  v D . /2  v D 2 .2  v/ D   .  v/ : Übungsaufgabe 4.15.
4.2  Beispiele von Vektorräumen
91 4
Wir prüfen dies für den Fall K D C und n D 1 explizit Beweis (i) gilt, da .V; C/ eine Gruppe ist.
nach: Es gilt hier V D C: V liefert die Vektoren, C die (ii) Aus  D 0 folgt 0 v D .0 C 0/ v D 0 v C 0 v;
Skalare. Die Addition in V ist hier die Addition in C und folglich gilt 0 v D 0 nach (i). Und ist v D 0, so folgt analog
die Multiplikation mit Skalaren ist die Multiplikation in C; aus  0 D  .0 C 0/ D  0 C  0 mit (i)  0 D 0.
Skalare stehen links, Vektoren rechts. Die Menge V D C Gilt umgekehrt  v D 0 und  ¤ 0, so können wir
ist mit der Addition C eine abelsche Gruppe, und C ist ein die Gleichung  v D 0 mit dem Skalar 1 multiplizieren
Körper. Die Axiome (V1)–(V3) sind das Distributiv- und und erhalten nach unserem ersten Teil des Beweises v D
das Assoziativgesetz in C, diese sind natürlich erfüllt, und 1 0 D 0. Folglich gilt  D 0 oder v D 0.
(V4) gilt ebenfalls in C. Also ist C ein C-Vektorraum. (iii) Wegen des Vektorraumaxioms (V2) und (ii) gilt
Dieselbe Überlegung zeigt, dass jeder Körper über je-  v C ./ v D . C .// v D 0 v D 0. Folg-
dem seiner Teilkörper ein Vektorraum ist, also ist R ein R- lich ist ./ v das zu  v entgegengesetzte Element, d. h.
und Q-Vektorraum, C ein C-, R- und Q-Vektorraum. ./ v D . v/.
Wir betrachten den Vektorraum Z32 über dem Körper Z2 (iv) Nach dem Vektorraumaxiom (V1) gilt mit  D 1:
mit zwei Elementen 0 und 1. Die Elemente von Z32 können
explizit angegeben werden: .1/ .v C w/ D .1/ v C .1/ w :
80 1 0 1 0 1 0 1 0 1 0 1 0 1 0 19
ˆ
< 0 1 0 0 1 0 1 1 >=
B CB CB CB CB CB CB CB C Nun wenden wir (iii) an, hiernach dürfen wir .1/
Z2 D @0A; @0A; @1A; @0A; @1A; @1A; @0A; @1A :
3
:̂ 0 > durch ein einfaches Minuszeichen ersetzen. Es folgt die
0 0 1 0 1 1 1 ; Behauptung. 
Da man für jede Komponente eines Vektors v 2 Z32 die Wir werden diese Regeln im Folgenden oftmals ohne Hin-
zwei Wahlmöglichkeiten 0 und 1 hat, gibt es genau 23 Ele- weis benutzen.
mente in Z32 . Allgemeiner hat für jedes n 2 N und jede
Primzahl p der Zp -Vektorraum Zpn genau p n Elemente. 9
4.2 Beispiele von Vektorräumen
Kommentar Wir lassen von nun an den Punkt  für die Mul-
tiplikation mit Skalaren weg, wir schreiben also kurz  v
anstelle von   v. Wir behandeln in diesem Abschnitt drei wichtige Klassen
von Beispielen für Vektorräumen. Es sind dies die Matri-
zen über einem Körper K, die Polynome über einem Körper
Vektoren gehorchen Rechenregeln, K und die Abbildungen von einer Menge in einen Kör-
die man von Zahlen her kennt per K.
Diesen drei Klassen von Beispielen werden wir in den
weiteren Kapiteln immer wieder begegnen. Oft wird der je-
Vektoren, also Elemente von Vektorräumen, können ganz
weilige Grundkörper K der Körper der reellen Zahlen sein.
unterschiedlicher Art sein. Es können Lösungen von linea-
Wir erhalten aber eine Vielfalt von Beispielen, wenn wir
ren Gleichungssystemen oder Polynome oder auch allge-
nur K anstelle von R schreiben, K kann dann einfach jeder
meiner Abbildungen oder auch Matrizen sein. Wir werden
mögliche Körper sein.
diese Beispiele im nächsten 7 Abschn. 4.2 behandeln. Hier
geben wir an, welchen Regeln sie gehorchen – egal, ob es
sich dabei um Lösungen von Differenzialgleichungen oder
um Punkte des R2 handelt. Matrizen über einem Körper bilden
einen Vektorraum

Rechenregeln für Vektoren


In dem Kapitel zu den linearen Gleichungssystemen haben
In einem K-Vektorraum V gelten für alle v; w; x 2 V
wir bereits mit Matrizen gearbeitet. Wir wollen uns nun
und  2 K:
überlegen, ob die Menge aller Matrizen mit m Zeilen und
(i) v C x D w , x D w  v,
n Spalten, deren Einträge einem Körper K angehören, mit
(ii)  v D 0 ,  D 0 oder v D 0,
geeignet definierten Verknüpfungen C und  einen K-Vek-
(iii) ./ v D . v/,
torraum bilden.
(iv) .v C w/ D v  w.
Es seien m und n natürliche Zahlen. Eine m  n-Matrix
A über dem Körper K ist eine Abbildung
Diese Regeln erscheinen einem ganz natürlich und selbst- 
f1; : : : ; mg f1; : : : ; ng ! K
verständlich. Das sollte nicht darüber hinwegtäuschen, dass AW :
diese Aussagen zu beweisen sind. .i; j / 7! aij
92 Kapitel 4  Vektorräume – von Basen und Dimensionen

Wir notieren eine solche Matrix A übersichtlich durch An- Kommentar Eigentlich müsste man auch hier neue Zei-
gabe aller Bilder a11 ; : : : ; amn in der Form chen für die Addition C und Multiplikation mit Skalaren
0 1  einführen. Um aber die Rechnung nicht mit Symbolen zu
a11 a12    a1n überladen und unübersichtlich zu gestalten, verwenden wir
B a21 a22    a2n C nur ein C-Zeichen und das Multiplikationszeichen  für die
B C
A D B :: :: :: C : Multiplikation mit Skalaren lassen wir, wie bereits verein-
@ : :  : A
bart, weg.
am1 am2    amn
4 Wir werden eine Matrix A oft auch kurz mit .aij /m;n oder
– wenn m; n festliegen – mit .aij / bezeichnen; hierbei ist Kmn ist ein K-Vektorraum
i der Zeilenindex und j der Spaltenindex. Die Körperele- Die Menge Km n aller m n-Matrizen über K bildet mit
mente aij 2 K, i D 1; : : : ; m, j D 1; : : : ; n nennt man die komponentenweiser Addition und Multiplikation mit Ska-
Komponenten oder die Einträge der Matrix A. Im Fall laren einen K-Vektorraum.
K D R bzw. K D C bezeichnet man A auch als reelle
Matrix bzw. komplexe Matrix. Unter der Stelle .r; s/ ei-
ner Matrix A D .aij /m;n versteht man den Schnittpunkt der Beweis Wir zeigen, dass Km n mit der erklärten Addition
r-ten Zeile mit der s-ten Spalte im obigen Schema – hierbei eine abelsche Gruppe ist. Gegeben sind A D .aij /, B D
sind r und s natürliche Zahlen mit r  m und s  n. .bij /, C D .cij / 2 Km n .
Die Verknüpfung C ist abgeschlossen: ACB D .aij /C
? Selbstfrage 4.2 .bij / D .aij C bij / 2 Km n .
Wann sind zwei Matrizen gleich? Die Verknüpfung C ist assoziativ: .A C B/ C C D
.aij Cbij /C.cij / D .aij Cbij Ccij / D .aij /C.bij Ccij / D
Die Menge aller m n-Matrizen über K bezeichnen wir mit
A C .B C C /.
Km n , also
Die Nullmatrix ist ein neutrales Element: A C 0 D
80 1 9 .a ij C 0/ D .aij / D A.
ˆ a    a1n >
< 11 = Jede Matrix hat ein Inverses: Es ist .aij / 2 Km n , und
B : :: C
Km n D @ :: j
: A ij a 2 K 8 i; j : es gilt .aij / C .aij / D 0.
:̂ >
;
am1    amn Die Verknüpfung C ist kommutativ: A C B D .aij C
bij / D .bij C aij / D B C A.
0 1
0  0 Damit ist bereits gezeigt, dass .Km n ; C/ eine abel-
B: :: C sche Gruppe ist. Die erklärte Multiplikation mit Skalaren
Die Matrix 0 D @ :: : A 2 K , deren Komponen- ist wegen  .a / D . a / 2 Km n eine Abbildung von
m n
ij ij
0  0 K Km n in Km n . Es sind also nur noch die vier Vektor-
ten alle 0 sind, heißt Nullmatrix. raumaxiome nachzuweisen.
Wir führen nun in Km n eine Addition C und eine Mul- Neben A D .aij / und B D .bij / aus Km n seien nun
tiplikation  mit Skalaren komponentenweise ein durch: auch ,  2 K gegeben.
0 1 0 1 (V1)  .A CB/ D  ..aij /C.bij // D . .aij Cbij // D
a11    a1n b11    b1n
. aij C  bij / D . aij / C . bij / D  A C  B.
B :: :: C B :: :: C
@ : : AC@ : : A (V2) . C / A D .. C / aij / D . aij C  aij / D
am1    amn bm1    bmn . a ij / C . aij / D  A C  B.
0 1 (V3) . / A D .  aij / D  . aij / D  . A/.
a11 C b11    a1n C b1n (V4) 1 A D 1 .aij / D .1 aij / D .aij / D A.
B :: :: C
D@ : : A Also bildet Km n mit den angegebenen Verknüpfungen
am1 C bm1    amn C bmn einen K-Vektorraum. 

und Jeder andere Nachweis dafür, dass eine Menge V mit


0 1 0 1 Verknüpfungen C und  einen Vektorraum bildet, verläuft
a11  a1n  a11   a1n prinzipiell nach demselben Verfahren.
B :: :: C B :: :: C
@ : : AD@ : : A:
am1    amn  am1     amn Kommentar Die Voraussetzung, dass K ein Körper ist, be-
nötigten wir nur für den Begriff „K-Vektorraum“ – wir
Mit der oben eingeführten Kurzschreibweise können wir haben Vektorräume nämlich nur über Körpern erklärt. Aber
das auch notieren als Matrizen kann man analog über Ringen .R; C; / erklären.
Auch die obige Addition C von Matrizen und die Multi-
.aij / C .bij / D .aij C bij / und   .aij / D . aij / : plikation  mit Elementen aus R kann definiert werden –
4.2  Beispiele von Vektorräumen
93 4
diese Verknüpfungen C und  werden auf die entsprechen- Beispiel Mit den Bezeichnungen aus dem obigen Beispiel
den Verknüpfungen C und  des Ringes R zurückgeführt. gilt etwa
Gelten die Axiome eines Vektorraumes für eine Gruppe V ,
wobei nur anstelle eines Körpers K ein Ring R zugrunde p5 C p6 D 1 C X 2 C X C X 2
liegt, so spricht man von einem R-Modul V . Folglich ist D 1 C X C .1 C 1/ X 2
m n
für jeden Ring R die Menge R aller m n-Matrizen ein
D1CX
R-Modul.
D p3
Matrizen können also durchaus auch Vektoren sein. Nun ist
und
es nicht mehr verwunderlich, dass noch wesentlich abstrak-
tere mathematische Objekte als Vektoren aufgefasst werden p i C p i D 0 für jedes i D 0; : : : ; 7 : 9
können.
Wir führen nun in naheliegender Weise auf der Menge
KŒX eine äußere Multiplikation von Polynomen mit Ele-
Polynome über einem Körper bilden menten aus K ein. Pn
einen Vektorraum Wir multiplizieren ein Polynom p D i
i D0 ai X aus
KŒX mit einem Element  aus K, indem wir alle Koeffizi-
enten von p mit  multiplizieren,
Polynome haben wir in 7 Abschn. 2.4 eingeführt. Ein Po-
lynom p über dem Körper K in der Unbestimmten X ist X n

eine Summe p D . ai / X i :
i D0
p D a0 C a1 X C    C an X n ;
Beispiel Für p D 2 X 3 CX 2 3 X, q D X 3 C 12 X 2 CX C1
dabei ist n 2 N0 , und die Koeffizienten a0 ; : : : ; an liegen aus RŒX gilt:
in K. Ist p nicht das Nullpolynom 0, so ist der Index n des p  .2 q/ D 5 X  2 : 9
höchsten von null verschiedenen Koeffizienten an der Grad
von p. Dem Nullpolynom ordnet man den Grad 1 zu, Der Beweis der folgenden Aussage verläuft analog zu dem
dabei gilt 1 < n für alle n 2 N0 . Beweis für den Vektorraum der m n-Matrizen.

Beispiel Die Menge aller Polynome über Z2 vom Grad


kleiner oder gleich 2 bilden die acht Polynome KŒX  ist ein K-Vektorraum
Die Menge KŒX aller Polynome über K mit koeffizien-
p0 D 0 ; p1 D 1 ; terweiser Addition und obiger Multiplikation mit Skalaren
p2 D X ; p3 D 1 C X ; bildet einen K-Vektorraum.

p4 D X ; 2
p5 D 1 C X 2 ;
p6 D X C X 2 ; p 7 D 1 C X C X 2 : 9
Die Abbildungen von einer Menge in einen
Die Menge aller Polynome über einem Körper K ist Körper bilden einen Vektorraum
( n )
X
KŒX D a i X i j n 2 N0 ; a 0 ; : : : ; a n 2 K :Bei einem Polynom p D a0 C a1 X C    C an X n 2 KŒX
i D0
kann man in die Unbestimmte X zum Beispiel Elemente
Diese Menge bildet mit der koeffizientenweisen Addition aus K einsetzen. Dadurch erhält man eine Abbildung, näm-
(wir nutzen eine vereinfachte, aber suggestive Schreibwei- lich die Polynomfunktion:
se) 
K!K
X X X Q
p W :
x 7! p.x/
ai X C
i
bi X D
i
.ai C bi / X i

Die Abbildung pQ ist ein Element aus KK , d. h. eine Abbil-


eine abelsche Gruppe;
P das neutrale Element ist hierbei das dung von K in K. Wir betrachten nun etwas allgemeiner
Nullpolynom 0 D 0 X i , dessen Koeffizienten allesamt 0 eine beliebige Menge M . Dann können wir für jeden Kör-
sind. per K die Menge KM aller Abbildungen f W M ! K
Die Möglichkeit, Polynome auch miteinander zu multi- erklären,
plizieren, lassen wir nun außer acht und betrachten nur die
Addition. KM D ff j f W M ! K ist eine Abbildungg :
94 Kapitel 4  Vektorräume – von Basen und Dimensionen

Diese Menge bildet mit sinnvoll gewählter Addition und Sind K und M endlich, so ist die Menge KM aller Abbil-
Multiplikation mit Skalaren einen K-Vektorraum. Wir defi- dungen von M in K ebenfalls endlich. Wir betrachten ein
nieren für f ; g 2 KM und  2 K: Beispiel eines solchen endlichen Vektorraums mit acht Ele-
 menten:
M !K
f Cg W und
x 7! f .x/ C g.x/ Beispiel Wir betrachten eine dreielementige Menge M D
 fx; y; zg und den Körper K D Z2 D f0; 1g mit zwei Ele-
M !K
f W menten. Es ist dann die Menge KM aller Abbildungen von
x 7!  f .x/
4 M nach K eine Menge mit 23 D 8 Elementen. Wir geben
die Elemente von KM explizit an:
Die Summe f C g und das skalare Vielfache  f liegen
wieder in KM . Die Summe ordnet jedem x 2 M die Sum-
f 1 W x 7! 0; y 7! 0; z 7! 0
me f .x/ C g.x/ der Bilder von x unter f und g zu. Und
das Bild von x unter  f ist das -Fache des Bildes von x f 2 W x 7! 0; y 7! 0; z 7! 1
unter f . Wir halten fest:
f 3 W x 7! 0; y 7! 1; z 7! 1
f 4 W x 7! 1; y 7! 1; z 7! 1
Der Vektorraum aller Abbildungen von einer
Menge in einen Körper f 5 W x 7! 1; y 7! 0; z 7! 0
Für jede Menge M und jeden Körper K ist die Menge KM
f 6 W x 7! 1; y 7! 1; z 7! 0
aller Abbildungen von M in K mit den Verknüpfungen C
und  ein K-Vektorraum. f 7 W x 7! 1; y 7! 0; z 7! 1
f 8 W x 7! 0; y 7! 1; z 7! 0
Beweis Die Addition ist offenbar assoziativ und kommu-
Der eindeutig bestimmte Nullvektor ist f 1 und jedes Ele-
tativ. Das neutrale Element ist die Abbildung 0, die jedem
ment ist zu sich selbst invers, da für jedes i 2 f1; : : : ; 8g
Element x 2 M das Nullelement 0 2 K zuordnet, und
jeweils f i Cf i D f 1 gilt. Wir bestimmen weiter die Sum-
das dem Vektor f entgegengesetzte Element ist die Abbil-
me f 2 C f 3 :
dung f W x 7! f .x/. Somit ist .KM ; C/ eine abelsche
Wegen
Gruppe.
Wegen  f 2 KM für jedes  2 K und f 2 KM ist die
.f 2 C f 3 /.x/ D f 2 .x/ C f 3 .x/ D 0 C 0 D 0 ;
Multiplikation eine Abbildung von K KM in KM . Da die
Vektorraumaxiome (V1)–(V4) offenbar gelten, ist KM ein .f 2 C f 3 /.y/ D f 2 .y/ C f 3 .y/ D 0 C 1 D 1 ;
K-Vektorraum. 
.f 2 C f 3 /.z/ D f 2 .z/ C f 3 .z/ D 1 C 1 D 0
i Man achte wieder auf die grundsätzlich verschiedenen Be-
deutungen der Additionen, die wir mit ein und demselben gilt also f 2 C f 3 D f 8 . 9
C-Zeichen versehen. Man unterscheide genau: f C g be-
zeichnet die Addition in KM und f .x/ C g.x/ jene in K. 4.3 Untervektorräume
? Selbstfrage 4.3
Was ist im Fall M D ; los? Der Anschauungsraum, den wir auch als die Menge R3
aller 3-Tupel interpretieren können, bildet mit komponen-
Beispiel Wir betrachten den Fall M D N0 . In der Analysis tenweiser Addition und Multiplikation mit Skalaren einen
werden Folgen über C definiert, es sind dies die Abbil- reellen Vektorraum. Die Anschauungsebene kann mit dem
dungen von N0 nach C. Also bildet die Menge C N0 der R2 identifiziert werden und ist ebenso ein reeller Vektor-
(komplexen) Folgen einen komplexen Vektorraum. Etwas raum. Der R bildet zwar keine Teilmenge des R , er kann
2 3

allgemeiner erhalten wir: aber als dessen x1 -x2 -Ebene aufgefasst werden, also als
Die Menge aller Folgen über einem Körper K 80 1 9
< v1 =
KN0 D f.an /n2N0 j an 2 Kg U D @v2 A j v1 ; v2 2 R
: ;
0
ist ein K-Vektorraum.
Und der Sonderfall M D R und K D R führt uns zum (. Abb. 4.1). Wir werden sagen: U ist ein Untervektorraum
reellen Vektorraum RR aller reellwertigen Funktionen. 9 des R3 .
4.3  Untervektorräume
95 4
x3 x2

vCw
w

x1 v

x2 x1

. Abb. 4.1 Der sich in alle Richtungen ausstreckende Vektorraum R2


aufgefasst als Untervektorraum des R3
. Abb. 4.2 Die begrenzte schattierte Fläche ist kein Untervektorraum
des R2 , da die Summe von v und w nicht in ihr enthalten ist. Das gilt für
Untervektorräume sind Teilmengen jede begrenzte Fläche im R2

von Vektorräumen, die selbst


wieder Vektorräume bilden Multiplikation mit Skalaren aus K abgeschlossen. Die Vek-
torraumaxiome (V1)–(V4) gelten für alle ;  2 K und
u; v 2 V . Insbesondere gelten diese Axiome auch für alle
Beliebige Teilmengen von Vektorräumen bilden im Allge- ;  2 K und v; u 2 U . Damit haben wir begründet:
meinen keine Vektorräume (. Abb. 4.2).
Ist aber eine Teilmenge eines Vektorraums V doch wie-
Lemma Ein Untervektorraum U eines K-Vektorraumes V
der ein Vektorraum mit der Addition und der skalaren
ist wieder ein K-Vektorraum.
Multiplikation von V , so spricht man von einem Untervek-
torraum.
Jeder Vektorraum V hat zwei Untervektorräume, nämlich
V selbst und die einelementige Menge f0g. Diese Untervek-
torräume nennt man die trivialen Untervektorräume eines
Definition eines Untervektorraums Vektorraums. Im Fall V ¤ f0g sind die trivialen Untervek-
Eine nichtleere Teilmenge U eines K-Vektorraums V torräume voneinander verschieden.
heißt Untervektorraum von V , wenn gilt:
(U1) u; w 2 U ) u C w 2 U , Beispiel Wir überlegen uns, welche Untervektorräume der
(U2)  2 K; u 2 U )  u 2 U . R2 mit komponentenweiser Addition und Mutiplikation mit
Skalaren besitzt.
Neben den trivialen Untervektorräumen R2 und f0g ist
für jeden Vektor v 2 R2 die (nichtleere) Menge U D
Man merkt sich das in der Form: Die nichtleere Teilmenge R v D f v j  2 Rg ein Untervektorraum (. Abb. 4.3).
U von V ist dann ein Untervektorraum, wenn die Summe Sind nämlich u; w 2 U , so gibt es u ; w 2 R mit
und skalare Vielfache von Vektoren aus U wieder in U lie-
gen; in diesem Zusammenhang ist auch die Sprechweise u D u v und w D w v :
„die Menge U ist gegenüber Addition und Multiplikation
mit Skalaren abgeschlossen“ üblich.
Ist U ein Untervektorraum eines K-Vektorraums V , so x2
liegt nach (U2) für jedes u 2 U auch das Inverse u in U .
Da U nicht leer ist, liegt wegen (U1) also der Nullvektor
0 D u  u in U . Eine Teilmenge U eines K-Vektorraums v
V , die den Nullvektor 0 2 V nicht enthält, kann somit kein
Untervektorraum von V sein.
Jeder Untervektorraum U eines K-Vektorraums V ent- x1
hält also zumindest den Nullvektor. Nach dem Untergrup-
penkriterium aus 7 Abschn. 2.1 ist ein Untervektorraum
U mit der Addition von V eine Untergruppe von V und
als solche eine Gruppe. Wegen (U2) ist U bezüglich der . Abb. 4.3 Der Untervektorraum R v des R2
96 Kapitel 4  Vektorräume – von Basen und Dimensionen

Folglich ist u C w D .u C w / v 2 R v D U . Ebenso gilt Die Lösungsmenge L eines homogenen Gleichungs-
für jedes  2 R:  u D  .u v/ D . u / v 2 R v D U . systems ist nicht leer, da die triviale Lösung 0 2 Kn
Tatsächlich besitzt der R2 neben den trivialen Untervek- dazugehört. Weiter haben wir in 7 Abschn. 3.3 gezeigt,
torräumen und den von v ¤ 0 erzeugten Geraden R v keine dass mit zwei Elementen u; w 2 L auch die Summe u C w
weiteren Untervektorräume. Dies wird mit dem Begriff der eine Lösung und ebenso  u für alle  2 K eine Lösung ist.
Dimension klar. Ferner gilt für v1 ; v2 2 R2 n f0g Damit ist bereits bewiesen:

R v1 D R v2 , v1 D  v2 für ein  2 R : 9 Lemma Die Lösungsmenge L eines homogenen linearen


4 Gleichungssystems über K in n Unbekannten ist ein Unter-
? Selbstfrage 4.4 vektorraum von Kn .
Geben Sie Untervektorräume des R3 an.
i Lösungsmengen L inhomogener Systeme über einem
Untervektorräume von Vektorräumen sind wieder Vek-
Körper K sind keine Untervektorräume, denn 0 … L. Die-
torräume. Mit diesem Ergebnis gelingt für zahlreiche Men-
se Mengen bilden sogenannte affine Teilräume.
gen ein sehr einfacher Nachweis dafür, dass sie einen
Vektorraum bilden. Hat man nämlich eine Menge U , von
Als weitere Klasse von Beispielen betrachten wir Untervek-
der man nachprüfen will, dass sie ein K-Vektorraum ist, so
torräume von KŒX.
suche man nach einem großen K-Vektorraum V , der die ge-
gebene Menge U umfasst und verifiziere für die Teilmenge
U von V die im Allgemeinen leicht nachprüfbaren drei Be-
dingungen: Polynome vom Grad kleiner gleich n bilden einen
4 U ¤ ;, Vektorraum
4 v; w 2 U ) v C w 2 U , Für jede natürliche Zahl n sowie für n D 0 und n D 1
4  2 K; u 2 U )  u 2 U . bildet die Menge
8 9
Es ist dann U ein Untervektorraum von V und somit ein < X =
K-Vektorraum. Es müssen also nicht alle Axiome eines K- KŒXn D pD ai X i 2 KŒX j deg.p/  n
: ;
i2N0
Vektorraums nachgeprüft werden. Man muss hierbei aber
auf eines aufpassen: Die Vektoraddition und die Multipli- aller Polynome mit einem Grad kleiner gleich n einen
kation mit Skalaren in U muss dabei die Einschränkung Vektorraum.
der Addition und Multiplikation in V sein.
Wir nutzen diesen kleinen Trick gleich an zwei Beispie-
len aus.
Beweis Das Nullpolynom liegt wegen deg.0/ D 1  n
in KŒXn , sodass KŒXn für keinesPder zu betrachtenden
r
Psleer ist. i Für Polynome p D i D0 ai X und q D
i
Lösungsmengen homogener linearer n
Gleichungssysteme und Polynome bis zu D0 bi X aus KŒXn , d. h. r; s  n, ist auch p C q D
Pimaxfr;sg
einem festen Grad bilden Vektorräume i D0 C bi / X i 2 KŒXn . Und für jedes  2 K ist
.ai P
auch  p D riD0  ai X i in KŒXn . 

Wir greifen einige Begriffe aus dem 7 Abschn. 3.2 zu Diese vorgestellte Vielfalt von Vektorräumen zeigt, wie
den linearen Gleichungssystemen wieder auf. Ein lineares allgemein dieser Begriff eines Vektorraums ist. Um so un-
Gleichungssystem über K in n Unbekannten und m Glei- gewöhnlicher ist es, dass man alle Vektorräume, die es gibt,
chungen lässt sich schreiben als allein durch Angabe des Grundkörpers K und einer zwei-
ten Größe, nämlich der Dimension, bis auf die Bezeichnung
a11 x1 C a12 x2 C    C a1n xn D b1 der Elemente charakterisieren kann. Wir werden dieses Er-
a21 x1 C a22 x2 C    C a2n xn D b2 gebnis in dieser Allgemeinheit nicht herleiten können, aber
:: wenigstens den endlichdimensionalen Fall können wir im
:
7 Kap. 6 behandeln. Zunächst führen wir den Begriff der
am1 x1 C am2 x2 C    C amn xn D bm
Dimension ein.
mit aij ; bi 2 K für 1  i  m, 1  j  n. Das System
heißt homogen, wenn bi D 0 für alle i gilt und sonst in- Kommentar Ein K-Vektorraum hat eine Vektoraddition C
0 1 und eine Multiplikation  mit Skalaren. Bei vielen Vek-
v1
B :: C torräumen kann man zusätzlich eine Multiplikation von
homogen. Jede Lösung v D @ : A ist ein Element des K- Vektoren erklären, wobei das Ergebnis wieder ein Vek-
vn tor ist. Beispiele sind etwa das bekannte Vektorprodukt
Vektorraumes Kn , also ein Vektor. im Vektorraum R3 oder die Multiplikation von Polynomen
4.4  Basis und Dimension
97 4

Beispiel: Magische Quadrate I

Eine quadratische Anordnung von Zahlen mit der Eigenschaft, mit der Eigenschaft, dass alle Zeilensummen, Spaltensummen
dass alle Zeilen-, Spalten- und Diagonalsummen denselben und Diagonalsummen von A gleich c sind.
S
Wert c annehmen, nennt man ein magisches Quadrat, die Zahl Dann ist M D c2R Mc die Menge aller magischen
c nennt man die magische Zahl. Das älteste bekannte magi- 3 3-Quadrate. Nun zeigen wir, dass M ein Untervektorraum
sche Quadrat ist ein 3 3-Quadrat und stammt aus China. des reellen Vektorraumes R3 3 ist.
S
Angeblich wurde es um 2200 v. Chr. vom chinesischen Kaiser Es ist M D c2R Mc nichtleer, weil 0 2 M0  M . Sind
Yü am Gelben Fluss auf dem Panzer einer Schildkröte ent- A; B 2 M , so gibt es c; c 0 2 R mit A 2 Mc und B 2 Mc 0 .
deckt. Wir drücken es mit arabischen Zahlen aus: Dann ist A C B 2 McCc 0  M . Und mit A 2 Mc und  2 R
ist  A 2 M c M . Somit ist M ein Untervektorraum von
4 9 2 R3 3 und damit ein reeller Vektorraum.
3 5 7 Wir erwähnen, dass Mc für c 2 R im Allgemeinen kein
8 1 6 Untervektorraum von M ist: Zwar liegt für jedes c 2 R
0c c c
1
Wir begründen hier, dass die magischen 3 3-Quadrate, auf- 3
Bc
3 3
c cC
gefasst als Matrizen, einen Vektorraum bilden. Mit Methoden AD @3 3 3A
c c c
des nächsten Abschnittes werden wir dann zeigen, wie man zu 3 3 3
einer vorgegebenen Zahl c alle möglichen magischen Quadra-
te mit c als magischer Zahl konstruieren kann. in Mc ; somit ist Mc also für kein c 2 R die leere Menge. Doch
folgt aus A; B 2 Mc bei c ¤ 0 stets A C B … Mc . Lediglich
Problemanalyse und Strategie M0 ist ein Untervektorraum, da 0 2 M0 , und mit A; B 2 M0
und  2 R auch A C B;  A 2 M0 gilt.
Es ist zu zeigen, dass die Menge aller magischen Quadrate
nicht leer ist. Sodann sind (U1) und (U2) nachzuprüfen.
Kommentar
4 Analog kann man die hier gemachten Behauptungen auch
Lösung
für magische n n-Quadrate mit n  2 begründen.
Für c 2 R bezeichne Mc die Menge aller reellen 3 4 Oftmals fordert man bei magischen n n-Quadraten, dass
3-Matrizen alle Ziffern von 1 bis n2 als Einträge im Quadrat vorkom-
0 1 men.
a11 a12 a13
Ba a23 C
A D @ 21 a22 A ?Selbstfrage 4.5
a31 a32 a33 Können Sie magische 2 2-Quadrate angeben?

in KŒX. Falls nun in einem K-Vektorraum V eine sol- Untervektorraum von V . Solche minimalen Erzeugenden-
che Multiplikation ˇ von Vektoren gegeben ist, mit der systeme von V werden wir Basen nennen. Die Dimension
Eigenschaft, dass für alle  2 K und v; w 2 V die Ver- eines Vektorraums ist die Anzahl der Elemente einer Basis.
träglichkeitsgesetze

 .v ˇ w/ D . v/ ˇ w D v ˇ . w/ Vektoren erzeugen durch Bildung von


Linearkombinationen Untervektorräume
gelten, so nennt man V eine K-Algebra. Der R3 mit dem
Vektorprodukt und KŒX mit der Multiplikation von Poly-
nomen sind somit K-Algebren. Wir betrachten eine nichtleere Teilmenge X von Vektoren
eines K-Vektorraums V – man beachte, dass X durchaus
4.4 Basis und Dimension auch unendlich sein kann. Für beliebige, endlich viele Vek-
toren v1 ; : : : ; vn 2 X und 1 ; : : : ; n 2 K heißt

Wir machen uns nun mit folgendem Sachverhalt vertraut: X n


Jede Teilmenge eines Vektorraums V erzeugt einen Un- i vi D 1 v1 C    C n vn
tervektorraum von V , und umgekehrt ist jeder Untervek- i D1
torraum von V das Erzeugnis einer Teilmenge von V .
Wir suchen letztlich minimale Teilmengen von V , die den eine Linearkombination von X oder von v1 ; : : : ; vn . Wir
ganzen Vektorraum V erzeugen – dieser ist ja auch ein nehmen stets vi ¤ vj für i ¤ j an.
98 Kapitel 4  Vektorräume – von Basen und Dimensionen

Für die Menge aller möglichen Linearkombinationen x2


von X schreiben wir hXi, d. h.
h 1
; 0
iDR 1
CR 0
X
n 0 1 0 1
1
hXi D i vi j n 2 N; i 2 K; 
i D1 vi 2 X; i D 1; : : : ; n ;

1 x1
und sagen, hXi ist das Erzeugnis oder die Hülle von X
4 oder hXi werde durch X erzeugt. Ist X D fv1 ; : : : ; vn g
eine endliche Menge, so schreiben wir einfacher

hv1 ; : : : ; vr i anstelle hfv1 ; : : : ; vn gi . Abb. 4.5 Die Ebene R2 wird von den zwei Vektoren e 1 und e 2 erzeugt

und erhalten für ein solches endliches X D fv1 ; : : : ; vn g:


Wir haben das Erzeugnis nur für nichtleere Mengen erklärt.
hXi D f1 v1 C    C n vn j 1 ; : : : ; n 2 Kg Der Vollständigkeit halber vereinbaren wir, dass die leere
D K v1 C    C K v n : Menge den trivialen Vektorraum erzeugt, h;i D f0g. Da-
mit können wir zeigen, dass für jede Teilmenge X eines
i Oftmals wird der Fehler gemacht, die Menge K in dieser Vektorraumes V das Erzeugnis von X, also hXi, ein Unter-
letzten Darstellung auszuklammern. Aber beispielsweise vektorraum von V ist.
gilt
! ! ! !! !
1 0 1 0 1 hX i ist der kleinste Untervektorraum, der X
R CR ¤R C DR :
0 1 0 1 1 umfasst
Für jede Menge X eines K-Vektorraums V gilt:
Kommentar Für hXi ist auch die Bezeichnung spanX üb- (a) hXi ist ein Untervektorraum von V ,
lich. Anstelle von der von X erzeugten Menge spricht man (b) X  hXi,
auch von der von X aufgespannten Menge. (c) hXi ist der Durchschnitt all derjenigen Untervektor-
räume von V , welche X umfassen.
Beispiel    
1 1
4 Es ist D R die x1 -Achse im R2
0 0 Beweis (a) Die Menge hXi ist nichtleer, da der Nullvektor
(. Abb. 4.4).
        stets in hXi liegt. Wir weisen die Eigenschaften (U1) und
1 0 1 0 (U2) (siehe Definition Untervektorraum) für hXi nach.
4 Die Menge ; DR CR hingegen
0 1 0 1 Zu (U1): Nehmen wir zwei Elemente
Pr aus hXi, also
ist die ganze Ebene R2 (. Abb. 4.5). zwei
Ps Linearkombinationen v D i D1 i v i und w D
4 Für das Erzeugnis der Polynome p1 D X 2 C 1; p 2 D i D1  i wi von X, so ist die Summe
X C 1 2 Z2 ŒX erhalten wir
X
r X
s

hp1 ; p 2 i D Z2 .X C 1/ C Z2 .X C 1/
2 vCw D i vi C i wi
i D1 i D1
D f0; X 2 C 1; X C 1; X 2 C Xg ;
dieser beiden Linearkombinationen wieder eine Linear-
beachte X 2 C 1 C X C 1 D X 2 C X in Z2 ŒX. 9 kombination von X.
Zu (U2): Ist v D 1 v1 C    C n vn 2 hXi und  2 K,
so gilt  v D . 1 / v1 C    C . n / vn 2 hXi.
x2 (b) Für jedes v 2 X gilt v D 1 v 2 hXi, d. h. X  hXi.
(c) Ist U irgendein Untervektorraum von V , der X ent-
hält, so ist, weil U die Eigenschaften (U1) und (U2) erfüllt,
h 1
iDR 1 auch jede Linearkombination von X in U , somit haben
wir hXi  U . Da dies für jeden Untervektorraum U mit
0 0

e1 x1 X  U gilt, erhalten wir hieraus


\
hXi  U:
X U
. Abb. 4.4 Die x1 -Achse wird von dem Vektor e 1 erzeugt U Untervektorraum von V
4.4  Basis und Dimension
99 4
Mit (a) und (b) folgt die Inklusion , da hXi einer der Un- Beispiel Wir betrachten für einen beliebigen Körper K
tervektorräume ist, über die der Durchschnitt gebildet wird. den Vektorraum KŒX der Polynome über K. Dieser Vek-
Damit ist die Gleichheit gezeigt: torraum hat das unendliche Erzeugendensystem fX k j k 2
\ N0 g, dabei setzen wir X 0 D 1. Wir begründen nun, dass
hXi D U: dieser Vektorraum nicht endlich erzeugbar ist.
X U
U Untervektorraum von V
Zuerst zeigen wir, dass die Menge M D fX k j k 2 N0 g
tatsächlich KŒX erzeugt. Ist p ein Polynom über K, so gibt
Das begründet die Aussage in (c).  es eine Zahl n 2 N0 und an ; : : : ; a1 ; a0 2 K mit

Ist X  V eine Menge von Vektoren von V mit der Ei- p D an X n C    C a1 X C a0 :


genschaft U D hXi für einen Untervektorraum U von V ,
d. h., ist jedes Element von U eine Linearkombination Daraus folgt, dass p eine Linearkombination von
von X  U , so sagt man X erzeugt U oder X ist ein fX 0 ; X 1 ; : : : ; X n g  M ist. Damit ist die erste Behauptung
Erzeugendensystem von U . Besitzt U ein endliches Er- gezeigt.
zeugendensystem, so heißt U endlich erzeugt. Die zweite Behauptung begründen wir durch einen
So ist zum Beispiel der R-Vektorraum R2 endlich er- Widerspruchsbeweis. Angenommen, es besitzt KŒX ein
zeugt, es gilt nämlich endliches Erzeugendensystem E  KŒX. Wir wählen in
    E ein Polynom maximalen Grades m 2 N0 . Das funktio-
1 0
R D2
; : niert, da die Menge E zum einen nicht leer ist, zum anderen
0 1
nur endlich viele Elemente enthält. Es lässt sich jedoch nun
Wir verallgemeinern dies und kehren zu unseren ersten Bei- das Polynom p D X
mC1
nicht als Linearkombination von
spielen von Vektorräumen zurück. E darstellen, da ja jedes Polynom aus E einen Grad kleiner
oder gleich m hat. Und das ist ein Widerspruch. Somit kann
Beispiel Im K-Vektorraum Kn betrachten wir für i D es kein endliches Erzeugendensystem für KŒX geben, d. h.,
1; : : : ; n die Vektoren KŒX ist nicht endlich erzeugt. 9
0 1
:: ?Selbstfrage 4.6
B:C
B0C Besitzt jeder Vektorraum ein Erzeugendensystem?
B C
B C
e i D B1C i-te Zeile ;
B C Gerade bei den Aufgaben trifft man oft auf die Frage, ob
B0C
@:A ein gegebener Vektor v im Erzeugnis einer Teilmenge X
:: eines K-Vektorraums V liegt, d. h., ob v 2 hXi gilt. Diese
Fragestellung führt meistens auf das Lösen eines linearen
die in der i-ten Zeile eine 1 und sonst nur Nullen als Gleichungssystems hinaus. Wir behandeln diese Problema-
Komponenten haben. Man nennt e 1 ; : : : ; e n die Standard- tik für den Fall von Spaltenvektoren in einem ausführlichen
Einheitsvektoren oder auch die Koordinaten-Einheits- Beispiel im aktuellen Abschnitt.
vektoren des Kn .
Für beliebige 1 ; : : : ; n ist
0 1 Lineare Unabhängigkeit bedeutet:
1
B:C
Mit weniger klappt es nicht!
1 e 1 C    C n e n D @ :: A :
n    
2 1
Im R2 seien die drei Vektoren u D ,v D und
0 1 0 2
1  
B:C 1
Folglich ist jeder Vektor @ :: A 2 Kn eine Linearkombina- w D 2 gegeben.
n Wir betrachten nun
tion der Standard-Einheitsvektoren, d. h.
U D hu; v; wi D R u C R v C R w :
Kn D he 1 ; : : : ; e n i :

Insbesondere ist der Kn endlich erzeugt. 9 Durch Lösen eines linearen Gleichungssystems (oder durch
Probieren) erhalten wir
Es folgt ein Beispiel eines nicht endlich erzeugbaren Vek-
torraumes. u D v  w; v D u C w; w D u C v :
100 Kapitel 4  Vektorräume – von Basen und Dimensionen

Beispiel: Darstellung von Vektoren als Linearkombination

Im R-Vektorraum R4 ist die Teilmenge Im Fall (1) erhalten wir rg.A j v/ D 3 D rg A, also die Lös-
80 1 0 1 0 1 0 19 barkeit des Systms. Im Fall (2) hingegen gilt rg.A j v/ D 4 >
ˆ
ˆ 1 2 0 1 >>
ˆ
<B 1 C B1C B1C B 2 C> = rg A, in diesem Fall ist das System unlösbar. Für die Vektoren
B C B C B C B C
X WD B C ; B C ; B C ; B C  R4 bedeutet dies
ˆ@1A @0A @ 2 A @1A>
ˆ >
>
:̂ 2 3 7 1 ; 0 1 0 1
6 1
B4C B3C
4 gegeben. Man entscheide für B C
B C 2 hXi und
B C
B C … hXi :
0 1 0 1 @2A @1A
6 1
B4C B3C 2 2
B C B C
.1/ v D B C 2 R4 und .2/ v D B C 2 R4 ;
@2A @1A 0 1
6
2 2 B4C
B C
ob v 2 hXi. Um B C als Linearkombination von X darzustellen, ist das
@2A
Falls dies so ist, gebe man eine Darstellung von v als Li- 2
nearkombination von X an. durch die erweiterte Koeffizientenmatrix
0 1
Problemanalyse und Strategie 1 2 0 1 6
B0 3 10C
Die Bedingung v 2 hXi besagt: Es gibt 1 ; : : : ; 4 2 R mit B 1 1 C
B C
@0 0 0 1 3A
1 v1 C    C 4 v4 D v ; ( )
0 0 0 0 0
wobei wir kurzerhand die vier Vektoren aus X (der Rei-
he nach) mit v1 ; : : : ; v4 bezeichnen. Wir fassen 1 ; : : : ; 4 gegebene lineare Gleichungssystem über R zu lösen. Das Eli-
als Unbekannte auf und überprüfen das (dann reelle) linea- minationsverfahren von Gauß und Jordan liefert
re Gleichungssystem . / für die beiden Fälle (1) und (2) 0 1
auf Lösbarkeit. Die Lösbarkeit von . / bedeutet, dass v als 1 0 2 0 1
B0 1C
Linearkombination von X darstellbar ist. Den Vektor v als B 1 1 0 C
B C:
Linearkombination von X darzustellen, bedeutet dabei, eine @0 0 0 1 3A
Lösung .1 ; : : : ; 4 / anzugeben. 0 0 0 0 0

Lösung Eine Lösung dieses linearen Gleichungssystems ist


Zu prüfen ist die Lösbarkeit des Gleichungssystems, gegeben .1; 1; 0; 3/, und in der Tat ist
durch die erweiterte Koeffizientenmatrix .A j v/, wobei die
01 0 1 0 1 0 1
Spalten der Matrix A die Vektoren v1 ; : : : ; v4 bilden. Wir no- 6 1 2 1
B4C B1C B1C B2C
tieren diese beiden erweiterten Koeffizientenmatrizen (für die B C B C B C B C
vDB CD1 B CC1 B C3 B C
beiden Fälle (1) und (2)) @2A @1A @0A @1A
0 1 2 2 3 1
1 2 0 1 6 1
B 1 1 1 2 4 3C
B C
B CI eine Darstellung von v als Linearkombination von X.
@1 0 2 1 2 1A
2 3 7 1 2 2
Kommentar Diese Darstellung ist nicht eindeutig. Für jede
wir haben hier beide Systeme in einer Matrix zusammengefasst
andere Lösung des Systems erhält man eine andere Darstel-
und lösen nun diese beiden Systeme zugleich. Das Eliminati-
lung. Die Menge aller Lösungen des Systems ist
onsverfahren von Gauß liefert nach einigen Schritten
0 1 80 1 9
1 2 0 1 6 1 ˆ
ˆ 1 C 2t >
>
B0 1 1 3 10 2C ˆ
<B 1  t C >
=
B C B C
B C: LD B C jt 2 R :
@0 0 0 1 3 1A ˆ
ˆ@ t A >
>
:̂ >
;
0 0 0 0 0 1 3
4.4  Basis und Dimension
101 4
x2 x2

w 2 v
v1

u
x1
1 1 2 x1
v2
1

. Abb. 4.6 Die drei Vektoren u; v; w im R3


v3

Wir können also jeden der drei Vektoren mithilfe der je- . Abb. 4.7 Die Vektoren v1 ; v2 ; v3 sind linear abhängig, die Vektoren
weils anderen beiden linear kombinieren, d. h. darstellen, v1 ; v2 linear unabhängig
sodass also

U D hu; v; wi D hu; vi D hu; wi D hv; wi 4 Wir betrachten die drei Vektoren


     
1 3 1
gilt. Ein Versuch, etwa das Erzeugendensystem fu; vg von v1 D ; v2 D ; v3 D 2 R2 :
2 1 3
U noch weiter zu verkürzen, scheitert. Durch Weglassen
eines der Elemente u oder v kann der Vektorraum U nicht
mehr erzeugt werden, da u kein Vielfaches von v ist. Eben- Die Menge fv1 ; v2 ; v3 g ist linear abhängig. Aus v3 D
so lassen sich die Erzeugendensysteme fu; wg und fv; wg 2 v1  v2 folgt nämlich hv1 ; v2 i D hv1 ; v2 ; v3 i, und es
von U nicht weiter verkürzen. Wir werden sagen u; v; w gilt fv1 ; v2 g ¨ fv1 ; v2 ; v3 g.
sind linear abhängig und u; v sind linear unabhängig. Dafür ist die Menge fv1 ; v2 g linear unabhängig, weil je-
de echte Teilmenge dieser Menge, also ; oder fv1 g oder
fv2 g, jeweils auch einen echt kleineren Vektorraum er-
zeugt (. Abb. 4.7). 9
Definition der linearen Unabhängigkeit
Verschiedene Vektoren v1 ; : : : ; vr 2 V heißen line-
Da die Definition der linearen Unabhängigkeit etwas un-
ar unabhängig, wenn für jede echte Teilmenge T von
handlich ist, wenn man für eine gegebene Menge von
fv1 ; : : : ; vr g gilt hT i ¨ hv1 ; : : : ; vr i.
Vektoren deren lineare Unabhängigkeit nachweisen will,
Eine Menge X  V heißt linear unabhängig, wenn
wäre es sehr nützlich, wenn wir ein leicht nachprüfbares
je endlich viele verschiedene Elemente aus X linear unab-
Kriterium für die lineare Unabhängigkeit zur Hand hätten.
hängig sind.
Und ein solches gibt es auch, wir leiten es nun her.
Eine nicht linear unabhängige Menge heißt linear ab-
hängig.
Die Vektoren v1 ; : : : ; vr sind genau dann
linear unabhängig, wenn sich der Nullvektor
? Selbstfrage 4.7 nur trivial linear kombinieren lässt
Sind Teilmengen linear unabhängiger Mengen linear un-
abhängig?
Verschiedene Vektoren v1 ; : : : ; vr sind genau dann linear
Linear unabhängige Mengen sind also unverkürzbare Men- abhängig, wenn sich einer der Vektoren, also etwa vj für ein
gen; weniger Vektoren erzeugen auch weniger Raum. j 2 f1; : : : ; rg als Linearkombination der anderen Vektoren
Hingegen enthält eine linear abhängige Menge einen fv1 ; : : : ; vr g n fvj g darstellen lässt, d. h.,
Vektor, der in der Hülle der anderen Vektoren liegt und
daher weggelassen werden kann, ohne die Hülle zu verklei- Xr

nern. i vi D vj für i 2 K :
i D1
i ¤j
Beispiel
4 Für jedes v 2 V ist ; die einzige echte Teilmenge von Wir bringen vj auf die linke Seite des Gleichheitszeichens
fvg. Im Fall v D 0 gilt: Der Nullvektor 0 ist linear ab- und erhalten eine Linearkombination von v1 ; : : : ; vr , die
hängig, da ; ¨ f0g und h;i D f0g D h0i gilt. Für v ¤ 0 den Nullvektor ergibt, ohne dass alle Koeffizienten, also
jedoch gilt: h;i ¨ hvi, sodass v linear unabhängig ist. die Skalare, gleich null sind, denn der Koeffizient von vj
102 Kapitel 4  Vektorräume – von Basen und Dimensionen

ist 1. Anders formuliert erhalten wir das folgende Krite- folgt
rium, das häufig auf das Lösen eines homogenen linearen
Gleichungssystems hinausläuft. 1 D    D n D 0 ;

da zwei Polynome genau dann gleich sind, wenn ihre


Koeffizienten zu den entsprechenden Potenzen gleich
Kriterium für lineare Unabhängigkeit
sind, und das Nullpolynom hat zu allen Potenzen die
Die Vektoren v1 ; : : : ; vr 2 V sind genau dann linear un-
Koeffizienten 0.
abhängig, wenn gilt:
4 4 Im R-Vektorraum RR aller reellen Funktionen sind die
X
r Funktionen f und g mit f .x/ D 2x 2x1
C1
und g.x/ D
Aus i vi D 0 folgt 1 D 2 D    D r D 0 : x  1 linear unabhängig. Sind nämlich 1 ; 2 2 R, so
2
iD1
folgt aus

1 f C 2 g D 0 ;
Mit diesem Kriterium erhalten wir nun leicht, dass f0g li-
near abhängig ist, weil 1 ¤ 0 und 1  0 D 0 gilt. Oder für wobei der Nullvektor hier die Nullabbildung ist,
v 2 V nf0g ist fvg linear unabhängig, da aus  v D 0 sofort
2x  1
 D 0 folgt. 1 C 2 .x 2  1/ D 0.x/ D 0 für alle x 2 R :
x2 C 1
( )
Beispiel
4 Zwei vom Nullvektor verschiedene Vektoren v und w Diese Gleichung gilt also insbesondere für x D 1, d. h.
eines K-Vektorraumes sind genau dann linear abhängig,
wenn es ein  2 K mit v D  w gibt. 1
4 Die Standard-Einheitsvektoren e 1 ; : : : ; e n 2 Kn sind li- 1 C 2 0 D 0 :
2
near unabhängig. Aus
Es folgt 1 D 0. Mit 1 D 0 wird aus der Gleichung ( )
0 1
0 die Gleichung
B :: C
1 e 1 C    C n e n D 0 D @ : A
2 .x 2  1/ D 0 für alle x 2 R : ( )
0
Diese Gleichung gilt insbesondere für z. B. x D 0, d. h.
folgt
2 .1/ D 0 :
0 1 0 1
1 0
B :: C B :: C Nun folgt 2 D 0. Gezeigt ist: Für 1 ; 2 2 R gilt
@ : A D @ : A ; d. h. i D 0 für i D 1; : : : ; n :
n 0 Aus 1 f C 2 g D 0 folgt 1 D 0 D 2 :
0 1 0 1 0 1
0 0 0 Somit sind f und g linear unabhängig.
4 Es sind v1 D @ 1A ; v2 D @ 1 A @
; v 3 D 0A 2 R3 Auf 2 D 0 hätten wir auch schneller schließen können.
0 1 1 Die Gleichung . / lautet 2 g D 0. Und da g nicht der
linear abhängig, denn Nullvektor in RR ist, folgt 2 D 0.
4 Die Matrizen . 20 11 /; . 11 12 /; . 21 40 / 2 Z25 2 sind wegen
.1/ v1 C 1 v2 C .1/ v3 D 0 : ! ! ! !
2 1 1 1 2 4 0 0
4 Es folgt ein Beispiel einer unendlichen linear unabhän- 1 C2 C3 D D0
0 1 1 2 1 0 0 0
gigen Menge. Im Vektorraum der Polynome über einem
Körper K ist die Menge B D fX k j k 2 N0 g linear un- linear abhängig. 9
abhängig.
Nachzuweisen ist, dass je endlich viele verschiedene
Vektoren aus B linear unabhängig sind. Wir wählen Ein linear unabhängiges
also endlich viele verschiedene Elemente X i1 ; : : : ; X in Erzeugendensystem nennt man Basis
aus B. Wir machen den Ansatz entsprechend dem Kri-
terium – man beachte, dass der Nullvektor rechts vom
Gleichheitszeichen das Nullpolynom ist: Aus Wir reduzieren Vektorräume auf Basen, weil wir Vektorräu-
me möglichst ökonomisch schreiben wollen – kennt man
1 X i1 C    C n X in D 0 die Basis, dann kennt man den Vektorraum.
4.4  Basis und Dimension
103 4
4 Im Vektorraum KŒX der Polynome über einem Körper
Teilmengen von V K bildet die Menge fX k j k 2 N0 g eine Basis, die Stan-
dardbasis oder 80kanonische
1 0 1 0Basis 19von KŒX.
< 0 0 0 =
4 Die Menge @1A ; @1A ; @0A ist keine Basis des
lin. unabh. Basen Erzeugenden-
Teilmengen von V systeme : ;
von V von V 0 1 1
R3 , da sie linear abhängig
80 1 0ist.19
< 0 0 =
4 Die Menge B D @ A @
1 ; 1A ist eine Basis von hBi,
: ;
0 1
. Abb. 4.8 Basen sind linear unabhängige Erzeugendensysteme aber nicht des R3 .
4 Für einen Körper K und Zahlen r 2 f1; : : : ; mg und
  s 2 f1; : : : ; ng definieren wir die m n sogenannten
v1 Standard-Einheitsmatrizen aus Km n ,
Jeder Vektor des R lässt sich als Linearkom-
2
v2
   
2 1 Ers D .aij / mit ars D 1 und aij D 0 sonst :
bination der beiden Vektoren v D und w D
0 2
darstellen, da das lineare Gleichungssystem Dann ist die Menge
 
2 1 v1
B D fErs j r 2 f1; : : : ; mg; s 2 f1; : : : ; ngg
0 2 v2

für alle v1 ; v2 2 R (eindeutig) lösbar ist. eine Basis des Km n , da für eine beliebige Matrix A D
Zudem sind v und w linear unabhängig, da das lineare .aij /i;j 2 Km n gilt
Gleichungssystem
X
m X
n
  A D .aij /i;j D ij Eij ;
2 1 0
i D1 j D1
0 2 0

nur die triviale Lösung .0; 0/ hat. sodass B ein Erzeugendensystem von Km n
ist. Zudem
Es ist also fv; wg ein linear unabhängiges Erzeugenden- folgt aus
system des R2 . 0 1
11  1n
X
m X
n
B ::
ij Eij D @ : ::: C
AD0
Definition einer Basis i D1 j D1 m1    mn
Eine Teilmenge B eines K-Vektorraums V heißt Basis
von V , wenn gilt: sofort ij D 0 für alle i und j , und damit, dass B li-
4 hBi D V , near unabhängig ist. Also ist B tatsächlich eine Basis
4 B ist linear unabhängig. von Km n . Auch diese nennt man Standardbasis oder
kanonische Basis des Km n . 9

Basen sind somit linear unabhängige Erzeugendensysteme ?Selbstfrage 4.9


(. Abb. 4.8). 1. Ist stets X eine Basis von hXi?
2. Ist jede linear unabhängige Menge auch Basis eines
? Selbstfrage 4.8
Vektorraums?
Kann es sein, dass ein Vektorraum genau eine Basis be-
sitzt?
Die Darstellung eines Vektors v als Linearkombination ei-
Beispiel ner Menge X ist im Allgemeinen nicht eindeutig, so gilt
4 Für jeden Körper K bildet die Menge z. B.
         
En D fe 1 ; : : : ; e n g 1 2 3 1 2
1 C1 D D C2 :
1 2 3 1 2
der Standard-Einheitsvektoren eine Basis des Kn , die
sogenannte Standardbasis oder kanonische Basis Ist aber X eine Basis, so ist jede Linearkombination ein-
des Kn . deutig, das besagt der Satz:
104 Kapitel 4  Vektorräume – von Basen und Dimensionen

Basen sind maximale


Eindeutige Darstellbarkeit von Vektoren durch linear unabhängige Mengen
Basen und minimale Erzeugendensysteme
Ist B eine Basis eines K-Vektorraums V , so lässt sich je-
des v 2 V bis auf die Reihenfolge der Summanden auf
genau eine Art und Weise in der Form Will man zeigen, dass eine Teilmenge B eines K-Vektor-
raums V eine Basis ist, so ist zu begründen, dass B ein
v D 1 b1 C    C n bn linear unabhänges Erzeugendensystem ist.
4 Unter gewissen Voraussetzungen reicht es aus, eine die-
mit 1 ; : : : ; n 2 K und b1 ; : : : ; bn 2 B darstellen. ser beiden Eigenschaften nachzuweisen. Kann man näm-
lich begründen, dass eine Teilmenge B
4 linear unabhängig ist, aber jede andere, B echt umfas-
sende Teilmenge von V linear abhängig ist
Beweis Weil eine Basis B von V insbesondere ein Er-
zeugendensystem von V ist, existieren zu jedem v 2 oder
V Vektoren b1 ; : : : ; br 2 B und von null verschiedene 4 ein Erzeugendensystem von V ist, aber jede echte Teil-
1 ; : : : ; r 2 K n f0g mit menge von B den Vektorraum V nicht mehr erzeugt,

so ist B bereits eine Basis, das besagt der folgende Satz.


v D 1 b1 C    C r br : (4.1)
Bevor wir den Satz formulieren, wiederholen wir eine
Sprechweise aus 7 Kap. 1: Die Potenzmenge
Es sei
P .V / D fX j X  V g ;
vD 01 b01 CC 0s b0s (4.2) das ist die Menge aller Teilmengen von V , ist mit der In-
klusion  eine geordnete Menge. Das gilt analog für jede
eine weitere Linearkombination mit b01 ; : : : ; b0s 2 B und Teilmenge M  P .V /, d. h. für jede Menge M von Teil-
01 ; : : : ; 0s 2 K n f0g. mengen von V . Ein Element B von M ist bezüglich der
Angenommen, es gibt ein j 2 f1; : : : ; sg mit bj0 ¤ bi Ordnung  ein
für alle i 2 f1; : : : ; rg. Dann gilt für die Differenz der Glei- 4 maximales Element, falls es in M kein Element C gibt
chungen (4.1) und (4.2) mit C © B, und
4 minimales Element, falls es in M kein Element C gibt
X r X s mit C ¨ B.
0D i bi  0i b0i
i D1 i D1 Man vergleiche hierzu den 7 Abschn. 1.4. Mithilfe dieser
X r X s Begriffe können wir nun die oben angedeuteten Kennzeich-
D i bi  0i b0i  j0 bj0 : nungen von Basen knapp formulieren.
i D1 i D1
i ¤j

Kennzeichnungen von Basen


Das ist ein Widerspruch zur linearen Unabhängigkeit von
Für eine Teilmenge B eines K-Vektorraums V sind äqui-
B. Somit gilt also r D s und nach evtl. Umnummerieren
valent:
bi D b0i für alle i 2 f1; : : : ; rg. Setzt man dies in (4.2) ein
(i) B ist eine Basis von V .
und betrachtet erneut die Differenz von (4.1) und (4.2), so
(ii) B ist ein maximale linear unabhängige Teilmenge
erhält man
von V , d. h. B ist linear unabhängig und für jedes
X
r X
r X
r v 2 V n B ist B [ fvg linear abhängig.
0D i bi  0i bi D .i  0i / bi : (iii) B ist ein minimales Erzeugendensystem von V , d. h.
i D1 i D1 i D1 B erzeugt V und für jedes v 2 B gilt B n fvg erzeugt
V nicht.
Nun folgt aus der linearen Abhängigkeit der Vektoren
b1 ; : : : ; br sogleich i  0i D 0, d. h. i D 0i für alle
i D 1; : : : ; r. Das zeigt die Eindeutigkeit der Darstellung Beweis (i) ) (ii): Es sei B eine Basis von V . Dann ist B
bezüglich der Basis B.  linear unabhängig. Wir wählen ein v 2 V n B. Da V D hBi
gilt, ist v eine Linearkombination von B. Somit existieren
? Selbstfrage 4.10 v1 ; : : : ; vn 2 B und 1 ; : : : ; n 2 K mit
Gilt auch die Umkehrung dieses Satzes? D. h., folgt aus X
n
der eindeutigen Darstellbarkeit jedes Vektors v 2 V als vD i vi :
Linearkombination von B, dass B eine Basis von V ist? i D1
4.4  Basis und Dimension
105 4
Durch Umstellen erhalten wir hieraus 4 Die Menge B D fX k j k 2 N0 g ist auch ein minimales
Xn Erzeugendensystem von KŒX, da für jedes k 2 N0 gilt
i vi C .1/ v D 0 :
i D1 X k … hB n fX k gi : 9
Dies besagt aber, dass v1 ; : : : ; vn ; v linear abhängig sind.
Somit ist auch B [ fvg linear abhängig.
(ii) ) (iii): Es sei B eine maximale linear unabhängige Jeder Vektorraum besitzt eine Basis
Teilmenge von V .
1. B ist ein Erzeugendensystem von V , d. h. V D hBi: Eine Basis eines Vektorraums V liefert insofern eine ideale
Dazu ist nur V  hBi zu zeigen. Wir wählen ein v 2 V Beschreibung von V , da mit ihrer Hilfe zum einen alle Ele-
beliebig. Im Fall v 2 B erhalten wir wie gewünscht v 2 mente des Vektorraums V darstellbar sind, d. h., V D hBi,
hBi. Daher nehmen wir nun an v … B. Nach Voraussetzung und zum anderen es keine kleinere Teilmenge von V gibt,
ist dann B [fvg linear abhängig. Somit gibt es v1 ; : : : ; vn 2 die dies möglich macht, da B ein minimales Erzeugenden-
B und ; 1 ; : : : ; n 2 K, die nicht alle gleich null sind, mit system ist.
X
n Daher wäre es sehr wünschenswert, wenn jeder Vektor-
v C i vi D 0 : raum auch eine Basis enthalten würde. Dass dem wirklich
i D1 so ist, folgern wir aus dem folgenden allgemeinen Satz.
Da die Vektoren v1 ; : : : ; vn linear unabhängig sind, muss
 ¤ 0 gelten. Nun stellen wir um:
X
n Basisergänzungssatz
1 Es sei V ein K-Vektorraum. Weiter seien S  V ein Er-
vD . i /vi 2 hBi :
i D1 zeugendensystem und A  S eine linear unabhängige
Teilmenge,
Da dies für alle v 2 V gilt, folgt V D hBi.
2. B ist ein minimales Erzeugendensystem von V : Wir
AS V :
wählen ein v 2 B und zeigen, dass hB n fvgi kein Erzeu-
gendensystem von V ist. Dazu zeigen wir, dass bereits der
Dann gibt es eine Basis B von V mit A  B  S.
Vektor v 2 V nicht in hB n fvgi liegt. Angenommen, es gilt
Man sagt: „Die linear unabhängige Menge A wird
v 2 hB n fvgi. Dann existieren v1 ; : : : ; vn 2 B n fvg und
durch Elemente des Erzeugendensystems S zu einer Basis
1 ; : : : ; n 2 K mit
B von V ergänzt.“
X
n
vD i vi :
i D1
Beweis Wir zeigen die Behauptung mit dem Zorn’schen
Durch Umstellen erhalten wir hieraus
Lemma (siehe 7 Abschn. 1.4).
Xn
Dazu betrachten wir die Menge
i vi C .1/ v D 0 :
i D1
M D fX j X ist linear unabhängig und A  X  Sg ;
Da bei dieser Linearkombination des Nullvektors nicht al-
le Koeffizienten null sind, sind die Vektoren v; v1 ; : : : ; vn die bezüglich der Inklusion geordnet ist. Wir zeigen, dass
linear abhängig. Das ist aber ein Widerspruch zur linearen .M; / eine nichtleere, induktiv geordnete Menge ist. Das
Unabhängigkeit der Menge B. Dieser Widerspruch belegt, Zorn’sche Lemma garantiert in diesem Fall die Existenz ei-
dass v … hB n fvgi liegt. Somit ist B ein minimales Erzeu- nes maximalen Elements.
gendensystem von V . Da die linear unabhängige Menge A natürlich A  A
(iii) ) (i): Es sei B ein minimales Erzeugendensystem erfüllt, gilt A 2 M , sodass M nichtleer ist. Es sei C 
von V . Dann ist B insbesondere ein Erzeugendensystem M eine nichtleere linear geordnete Teilmenge von M . Wir
von V . Da B per Definition linear unabhängig ist, folgt die betrachten die Vereinigung der Elemente aus C :
Behauptung. 
[
Y D X: (4.3)
Beispiel X 2C
4 Die Menge B D fX k j k 2 N0 g ist eine maximal linear
unabhängige Teilmenge von KŒX, da für jedes p D Offenbar ist Y eine obere Schranke von C . Es bleibt zu
a0 C a1 C    C an X n 2 KŒX n B gilt, dass zeigen, dass Y 2 M gilt. Da C nicht leer ist, gilt A 
Y  S. Die Menge Y ist linear unabhängig: Es seien dazu
fX ; : : : ; X ; pg  B [ fpg
0 n
v1 ; : : : ; vn 2 Y gewählt. Weil Y Vereinigung von Teilmen-
linear abhängig ist. gen X 2 C ist (siehe Gleichung (4.3)), gibt es Teilmengen
106 Kapitel 4  Vektorräume – von Basen und Dimensionen

X1 ; : : : ; Xn 2 C mit vi 2 Xi . Da die Menge C total ge- Beim obigen Beweis des Basisergänzungssatzes wurde das
ordnet ist, gibt es ein j 2 f1; : : : ; ng mit Xi  Xj für alle Zorn’sche Lemma benutzt. Will man das Zorn’sche Lem-
i D 1; : : : ; n. Es liegen damit alle v1 ; : : : ; vn in diesem Xj . ma vermeiden, so bleibt einem nur die deutlich schwächere
Da Xj linear unabhängig ist, sind auch v1 ; : : : ; vn 2 Xj li- Aussage:
near unabhängig. Folglich gilt Y 2 M . Die Menge .M; /
ist somit induktiv geordnet.
Nach dem Zorn’schen Lemma besitzt .M; / ein maxi- Existenz von Basen endlich erzeugter Vektorräume
males Element B. Da diese Teilmenge B von V in M liegt, Jeder endlich erzeugte Vektorraum V besitzt eine Basis.
4 ist B linear unabhängig. Um zu zeigen, dass B eine Basis
ist, reicht es aus zu begründen, dass B den Vektorraum V
erzeugt, hBi D V . Dies folgt aus S  hBi.
Ohne Einschränkung nehmen wir v … B an. Dann er- Beweis Es sei B  S ein Erzeugendensystem mit mi-
halten wir nimaler Elementzahl. Ein solches existiert, da S endlich
ist. Es ist B dann ein minimales Erzeugendensystem.
A  B ¨ B [ fvg  S : Nach den Kennzeichnungen von Basen ist B somit eine
Basis. 
Die Menge B [ fvg ist wegen der Maximalität von B
linear abhängig. Also existieren v1 ; : : : ; vn 2 B und Wir erörtern das Ergänzen und Verkürzen von Men-
; 1 ; : : : ; n 2 K, die nicht alle gleich null sind, mit gen zu Basen in einem ausführlichen Beispiel in diesem
X n Abschnitt.
v C i vi D 0 : Basen sind im Allgemeinen keineswegs eindeutig be-
i D1 stimmt. Ist etwa B D fv1 ; : : : ; vn g eine Basis eines K-
Vektorraums V , so ist für 1 ; : : : ; n 2 K n f0g auch
Da die Menge B linear unabhängig ist, muss  ¤ 0 gelten, B 0 D f v ; : : : ;  v g eine Basis. Aber je zwei Basen
1 1 n n
wir erhalten haben gleich viele Elemente. Das zeigen wir im nächsten
Xn Abschnitt.
v D 1 i vi :
i D1
Die Dimension ist die Mächtigkeit einer
Folglich gilt S  hBi. 
und damit jeder Basis
Wir betrachten nun für einen beliebigen Vektorraum V den
   
Sonderfall S D V und A D ;. Es ist S D V ein Erzeu- 2 1
gendensystem von V und A D ; eine linear unabhängige Im R2 gilt für die drei Vektoren u D ,vD und
0 2
Teilmenge von V . Außerdem gilt natürlich A  S  V .  
1
Der Basisergänzungssatz besagt nun, dass es in S D V wD
2
eine Basis gibt. Damit haben wir gezeigt, dass jeder Vek-
torraum eine Basis besitzt. Wir können sogar mehr zeigen:
R2 D hu; vi D hu; wi D hv; wi ;
Mit A D ; und einem Erzeugendensystem S von V besagt
der Basisergänzungssatz, dass jedes Erzeugendensystem ei-
ne Basis enthält. Und mit einer linear unabhängigen Menge sodass fu; vg; fu; wg; fv; wg drei verschiedene Basen des
A und dem Erzeugendensystem S D V besagt der Basis- R2 sind. Es ist kein Zufall, dass jede dieser Basen genau
ergänzungssatz, dass jede linear unabhängige Menge A zu zwei Elemente enthält. Tatsächlich ist es so, dass in jedem
einer Basis von V ergänzt werden kann, wir halten das fest: endlich erzeugten Vektorraum V jede Basis von V gleich
viel Elemente enthält. Dies ist keine Selbstverständlichkeit.
Diese Aussage folgt aus dem folgenden Satz:
Existenz von Basen
Jeder Vektorraum V besitzt eine Basis.
Genauer: Austauschsatz von Steinitz
4 Jedes Erzeugendensystem von V enthält eine Basis Ist S D fb1 ; : : : ; bs g ein endliches Erzeugendensystem
von V . des K-Vektorraums V , so gilt für jedes linear unabhän-
4 Jede linear unabhängige Teilmenge von V kann durch gige System A D fa1 ; : : : ; ar g:
Hinzunahme weiterer Vektoren zu einer Basis von V
ergänzt werden. jAj D r  s D jSj :
4.4  Basis und Dimension
107 4
Beweis Wir zeigen die Behauptung durch vollständige In- Nun vertauschen wir die Rollen von B1 und B2 und erhalten
duktion nach jS n Aj.
Induktionsanfang: Falls jS n Aj D 0, so gilt S  A. Da jB2 j  jB1 j :
A linear unabhängig ist, ist auch die Teilmenge S von A
linear unabhängig. Und da S ein Erzeugendensystem von Insgesamt ist damit jB1 j D jB2 j gezeigt. 
V ist, ist S eine Basis von V . Als Basis von V ist S eine
maximale linear unabhängige Teilmenge von V , daher gilt Da je zwei Basen endlich erzeugter Vektorräume gleich vie-
S D A, insbesondere jAj  jSj. le Elemente haben, ist die folgende Definition sinnvoll:
Induktionsvoraussetzung: Die Behauptung gelte für je-
des Erzeugendensystem S und jede linear unabhängige
Menge A mit jS n Aj D n. Die Dimension eines Vektorraums
Induktionsschritt: Es gelte jS n Aj D n C 1 für ein Er- Ist B eine Basis eines endlich erzeugten Vektorraums V ,
zeugendensystem S und eine linear unabhängige Menge A. so nennt man die Elementzahl einer und damit jeder Basis
Wir dürfen ohne Einschränkung annehmen, dass A 6 S. von V die Dimension von V . Wir schreiben dafür
Folglich existiert ein v 2 A n S. Und da V D hSi gibt es
v1 ; : : : ; v t 2 S n f0g und 1 ; : : : ;  t 2 K n f0g mit dim.V / D jBj :

1 v1 C    C  t v t D v : (4.4) Ist V nicht endlich erzeugt, so setzen wir


Angenommen, alle v1 ; : : : ; v t sind in A. Dann erhalten
dim.V / D 1 :
wir einen Widerspruch zur linearen Unabhängigkeit von A,
da in diesem Fall eine nichttriviale Linearkombination des
Im ersten Fall nennt man V endlichdimensional, im
Nullvektors gegeben wäre,
zweiten Fall unendlichdimensional.
1 v1 C    C  t v t  v D 0 :

Somit ist mindestens ein vi aus S n A. Nach eventuellem Beispiel


Umnummerieren können wir ohne Einschränkung v1 2 4 Es gilt dim.f0g/ D 0, da ; eine Basis von f0g ist und
S n A. Aus Gleichung (4.4) folgt j;j D 0 gilt.
! 4 Für jeden Körper K und jede natürliche Zahl n gilt
X t
dim.K n
/ D n, da En D fe 1 ; : : : ; e n g eine Basis ist und
1
v1 D 1 v  i vi 2 hv; v2 ; : : : ; v t i :
i D2
jE n j D n gilt.
4 Für jeden Körper K und alle natürlichen Zahlen m; n
Nun setzen wir S 0 D .S n fv1 g/ [ fvg und erhalten v1 2 gilt dim.Km n / D m n, da B D fEr;s j r 2
0 0 0
hS i. Es folgt S  hS i. Somit ist auch S ein Erzeugen- f1; : : : ; mg; s 2 f1; : : : ; ngg eine Basis ist und jBj D
densystem von V , d. h. hS 0 i D V . m n gilt.
Für das Erzeugendensystem S 0 gilt wegen v 2 S 0 und 4 Für jeden Körper K gilt dim.KŒX/ D 1, da fX k j k 2
v 2 A n S und v1 2 S n A N0 g eine nicht endliche Basis bildet.
4 Die Dimension des R-Vektorraums C ist 2, da f1; ig ei-
jS 0 n Aj D jS n Aj  1 D n : ne Basis bildet. Weiter ist f1g eine Basis von C über C,
sodass C als C-Vektorraum eindimensional ist.
Wegen der Induktionsvoraussetzung gilt jAj  jS 0 j. Aber 4 Die Lösungsmenge eines homogenen linearen Glei-
es gilt auch jS 0 j D jSj. Somit ist die Behauptung jAj  jSj chungssystems A x D 0 mit einer Matrix A 2 Km n
nachgewiesen.  ist ein Untervektorraum des Kn . Die Dimension dieses
Untervektorraumes L ist die Anzahl der frei wählbaren
Nun können wir das angekündigte Ergebnis folgern: Variablen, also
Folgerung Falls der K-Vektorraum V ein endliches Erzeu-
dim L D n  rg A : 9
gendensystem hat, so sind alle Basen endlich und haben
gleich viele Elemente.
Wie findet man Basen?
Beweis Sind B1 und B2 zwei Basen von V , so liefert der
obige Satz zuerst jB1 j; jB2 j 2 N0 , und dann mit B1 in der
Rolle von A und B2 in der Rolle von S: Eine Basis ist ein linear unabhängiges Erzeugendensystem.
Zum Nachweis dieser beiden Eigenschaften sind die fol-
jB1 j  jB2 j : genden Aussagen nützlich:
108 Kapitel 4  Vektorräume – von Basen und Dimensionen

Kennzeichnungen endlicher Basen (iii) Für jeden Untervektorraum U  V gilt dim.U / 


Es sei V ein K-Vektorraum der endlichen Dimension dim.V /.
n 2 N0 . (iv) Für einen Untervektorraum U  V mit dim.U / D
(i) Je n linear unabhängige Vektoren bilden eine dim.V / gilt U D V .
Basis. (v) Mehr als n Vektoren sind stets linear abhängig.
(ii) Jedes Erzeugendensystem mit n Elementen bildet (vi) Weniger als n Vektoren bilden kein Erzeugenden-
eine Basis. system.
4

Beispiel: Der Vektorraum aller Abbildungen mit endlich vielen von null verschiedenen Werten

Für einen Körper K und eine nichtleere Menge M definieren Setzt man nun in . / nacheinander (die verschiedenen)
wir y1 ; y2 ; : : : ; yn ein, so erhält man nacheinander 1 D 0,
2 D 0, . . . , n D 0; und damit ist die lineare Unabhängigkeit
V D ff 2 KM j nur für endlich viele x 2 M ist f .x/ ¤ 0g :
von B gezeigt.
Es ist V also eine Teilmenge von KM , dem Vektorraum aller Die Menge B ist ein Erzeugendensystem von V : Gege-
Abbildungen von M nach K. Wir zeigen: ben ist ein f 2 V . Dann gibt es endlich viele verschiedene
(a) V ist ein K-Vektorraum. x1 ; : : : ; xn 2 M mit
(b) Für jedes y 2 M betrachten wir die Abbildung ıy W
M ! K mit f .x1 / ¤ 0; : : : ; f .xn / ¤ 0 und
(
1 ; falls x D y f .x/ D 0 8x 2 M n fx1 ; : : : ; xn g:
ıy .x/ D
0 ; sonst
Nun setzen wir 1 D f .x1 /; : : : ; n D f .xn / und zeigen die
und zeigen, dass B D fıy j y 2 M g eine Basis von V ist. Gleichheit
Es gilt demzufolge dim V D jBj D jM j.
f D 1 ıx1 C : : : C n ıxn :
Problemanalyse und Strategie
Für jedes x 2 M n fx1 ; : : : ; xn g gilt
Für den Teil (a) zeigen wir, dass V ein Untervektorraum von
KM ist. Beim Teil (b) beachten wir, dass die Menge B durch- 0 D f .x/ D .1 ıx1 C    C n ıxn /.x/
aus unendlich sein kann. Somit ist es hier notwendig, die
D 1 ıx1 .x/ C    C n ıxn .x/
lineare Unabhängigkeit von B dadurch zu beweisen, dass man
die lineare Unabhängigkeit jeder endlichen Teilmenge von B D 0 C  C 0 D 0
beweist.
und für jedes xi 2 fx1 ; : : : ; xn g gilt
Lösung
i D f .xi / D .1 ıx1 C    C n ıxn /.xi /
(a) Es ist V eine nichtleere Teilmenge des Vektorraumes KM ,
D 1 ıx1 .xi / C    C n ıxn .xi / D i :
da die Nullabbildung in V enthalten ist. Denn diese nimmt für
kein x 2 M und damit für endlich viele x 2 M einen von Also stimmen die beiden Abbildungen f und 1 ıx1 C    C
null verschiedenen Wert an. Sind f und g zwei Abbildungen n ıxn für alle Werte aus M überein, d. h., sie sind gleich:
aus V , d. h., f und g nehmen nur an endlich vielen Stellen f D 1 ıx1 C    C n ıxn . Dies begründet, dass jedes beliebi-
einen von null verschiedenen Wert an, so auch deren Summe ge f aus V eine Linearkombination von Elementen aus B ist,
f C g W x 7! f .x/ C g.x/. Für jedes  2 K und f 2 V hat sodass B ein Erzeugendensystem von V liefert.
auch die Abbildung  f W x 7!  f .x/ die Eigenschaft, nur Insgesamt wurde gezeigt, dass B ein linear unabhängiges
endlich viele von null verschiedene Werte anzunehmen. Da- Erzeugendensystem von V , also eine Basis von V , ist.
mit ist begründet, dass V ein Untervektorraum von KM , also Die Dimension des Vektorraums V ist die Mächtigkeit von
ein K-Vektorraum ist. B, und wegen jBj D jM j haben wir somit einen Vektorraum
(b) Die Menge B ist linear unabhängig: Wir wählen ei- der Dimension
ne endliche Teilmenge E  B, etwa E D fıy1 ; : : : ; ıyn g für
verschiedene y1 ; : : : ; yn 2 M . Für 1 ; : : : ; n 2 K gelte dim V D jM j :
X
n
i ıyi D 0 ; ( ) Man beachte, dass die Dimension unabhängig vom Körper
iD1 K ist, in dem die Werte der Abbildungen f liegen. Im Fall
P
n M D R haben wir ein Beispiel eines Vektorraums mit der
d. h., für alle x 2 M gilt i ıyi .x/ D 0.
iD1 Dimension jRj, egal, welchen Körper K wir dazu wählen.
4.4  Basis und Dimension
109 4

Beispiel: Bestimmung von Basen

Wir lösen beispielhaft zwei typische Problemstellungen. Gleichungssystem


(1) Gegeben ist ein endliches Erzeugendensystem E eines 0 1
Vektorraums V . Man bestimme eine Basis B  E. 1 1 1 0 0
Beispiel: V D R4 und B1 0C
B 0 0 1 C
B C;
@0 1 0 1 0A
80 1 0 1 0 1 0 1 0 1 0 19
ˆ
ˆ 1 1 1 0 0 0 >
> 0 0 1 0 0
ˆ
<B1C B0C B0C B1C B1C B0C> =
B C B C B C B C B C B C
E WD B C ; B C ; B C ; B C ; B C ; B C :
ˆ
ˆ@0A @1A @0A @1A @0A @1A> > dessen einzige Lösung offenbar 1 D    D 4 D 0 ist. Al-
:̂ 0 >
0 1 0 1 1 ; so ist E 00 linear unabhängig. Folglich ist B D E 00  E eine
Basis von V ; insbesondere erzeugt E den R4 .
(2) Gegeben ist eine linear unabhängige Teilmenge E eines (2) Dass E tatsächlich linear unabhängig ist, wird sich
endlich erzeugten Vektorraumes V . Man bestimme eine wieder im Laufe der Rechnung zeigen. Wir benennen die drei
Basis B  E. Vektoren aus E der Reihe nach mit v1 ; v2 ; v3 .
Beispiel: V D R4 und Aber mit welchem Vektor sollte man nun E ergänzen,
um eine Basis zu erhalten? Die Entscheidung fällt gar nicht
80 1 0 1 0 19 so leicht. Man könnte es mit e 1 versuchen. Man muss aber
ˆ
ˆ 1 2 1 >
>
ˆ
<B2C B 3 C B 3 C>
= dann nachprüfen, ob v1 ; v2 ; v3 ; e 1 linear unabhängig sind.
B C B C B C
E D B C;B C;B C : Falls dies nicht so sein sollte, so hätte man dann den Versuch
ˆ@ 3 A @ 6 A @2A>
ˆ >
>
:̂ 4 11 6 ;
mit einem anders gewählten Vektor zu wiederholen. Das kann
reichlich aufwendig werden. Wir zeigen, wie sich das Problem
einfacher lösen lässt.
Problemanalyse und Strategie
Wir schreiben die Vektoren v1 ; v2 ; v3 als Zeilen einer
Bei (1) entferne man so lange Vektoren aus dem Erzeugen- Matrix und bringen die Matrix mittels elementarer Zeilenum-
densystem E, bis ein linear unabhängiges Erzeugendensystem formungen auf Zeilenstufenform:
verbleibt.
0 1 0 1
Bei (2) füge man zu der linear unabhängigen Menge E 1 2 3 4 1 2 3 4
so lange weitere, zu den Vektoren aus E linear unabhängige B 2 3 C B
11A ! @0 3C
@ 6 1 0 A
Elemente von V hinzu, bis ein linear unabhängiges Erzeu- 1 3 2 6 0 1 1 2
gendensystem entsteht. Dabei muss man sich nach jedem 0 1
Hinzufügen eines Vektors vergewissern, dass die dann größere 1 2 3 4
B 3C
Menge nach wie vor linear unabhängig ist. ! @0 1 0 A
0 0 1 5
Lösung
Nun bezeichnen wir die Zeilen der letzten Matrix der Reihe
(1) Dass E tatsächlich ein Erzeugendensystem ist, ergibt sich
nach mit w1 ; w2 ; w3 und machen uns mit folgendem Sachver-
im Laufe der Rechnung. Wir benennen die sechs Vektoren aus
halt vertraut:
E der Reihe nach mit v1 ; : : : ; v6 . Durch Probieren (oder Lö-
Es gilt hv 1 ; v2 ; v3 i D hw1 ; w2 ; w3 i.
sen eines Gleichungssystems) erkennt man, dass
Dies ist in der Tat so, da w1 ; w2 ; w3 Linearkombinatio-
nen von v1 ; v2 ; v3 sind. Diese Vektoren entstanden ja durch
v6 D v3 C v4  v1 :
Zeilenumformungen (d. h. Vektoraddition und skalare Multi-
plikation) der Zeilen v1 ; v2 ; v3 . Und somit gilt hw1 ; w2 ; w3 i 
Also gilt hv 1 ; : : : ; v6 i D hv1 ; : : : ; v5 i, sodass wir v6 aus dem hv1 ; v2 ; v3 i. Aber ebenso sind v1 ; v2 ; v3 Linearkombinationen
Erzeugendensystem entfernen können. Nun betrachten wir in von w1 ; w2 ; w3 , da diese Zeilenumformungen alle umkehrbar
dem Erzeugendensystem E 0 D fv1 ; : : : ; v5 g den Vektor v5 sind. Somit gilt auch hv 1 ; v2 ; v3 i  hw1 ; w2 ; w3 i, schließlich
und sehen, dass also die Gleichheit dieser beiden Vektorräume.
Aber wozu nun das? Die Antwort ist einfach: Den Vek-
v5 D v3 C v4  v2 : toren w1 ; w2 ; w3 ist es nun leicht anzusehen, dass sie linear
unabhängig sind – und somit sind dann auch v1 ; v2 ; v3 linear
Also gilt hv 1 ; : : : ; v5 i D hv1 ; : : : ; v4 i, sodass wir v5 aus dem unabhängig –, und es ist nun leicht, einen zu w1 ; w2 ; w3 line-
Erzeugendensystem entfernen können. Es verbleibt nun das ar unabhängigen Vektor anzugeben. Man ergänze E mit dem
Erzeugendensystem E 00 D fv 1 ; : : : ; v4 g. Weil sich keine wei- Element e 4 . Die obige Rechnung – beachte die letzte Matrix –
teren Kombinationen zu ergeben scheinen, prüfen wir das begründet, dass v1 ; v2 ; v3 ; e 4 linear unabhängig sind. Wegen
System E 00 auf lineare Unabhängigkeit. Es gelte 1 v1 C    C jE [fe 4 gj D 4 bildet somit E [fe 4 g eine Basis von V . Ebenso
4 v4 D 0 für 1 ; : : : ; 4 2 R. Dies führt zu dem linearen natürlich auch fw1 ; w2 ; w3 ; e 4 g.
110 Kapitel 4  Vektorräume – von Basen und Dimensionen

Beispiel: Die Anzahl der k-dimensionalen Untervektorräume von Zpn

Gegeben seien n 2 N0 sowie eine Primzahl p 2 N. Wir Wir überlegen uns, wieviele verschiedene Basen ein 2-dimen-
wollen die Anzahl der k-dimensionalen (verschiedenen) Un- sionaler Untervektorraum von Zpn haben kann. Jede Wahl
tervektorräume von Zpn bestimmen. eines vom Nullvektor verschiedenen Vektors b1 (das sind
p 2  1 Möglichkeiten) und eines von b1 linear unabhängigen
Problemanalyse und Strategie Vektors aus U n hb1 i (das sind p 2  p Möglichkeiten) liefert
Wir bestimmen in einem ersten Schritt für k  n die Anzahl eine Basis von U : Es gibt also .p 2  1/ .p 2  p/ verschiedene
4 der linear unabhängigen k-Tupel .a1 ; : : : ; ak /. In einem zwei- Basen in U . Folglich gibt es genau
ten Schritt überlegen wir uns, wieviele verschiedene solche
.p n  1/ .p n  p/
Tupel den gleichen Vektorraum erzeugen.
.p 2  1/ .p 2  p/
Lösung
verschiedene 2-dimensionale Untervektorräume von Zpn .
Wir betrachten den Zp -Vektorraum Zpn : Die Überlegungen wiederholen sich für die 3-dimensio-
80 1 9 nalen Untervektorräume. Und allgemein erhalten wir für die
ˆ
ˆ a1 >
>
<B C = Anzahl der k-dimensionalen Untervektorräume von Zpn die
:
Zp D B
n
@
:: C j a1 ; : : : ; an 2 Zp :
A
ˆ >
>
Formel: Es gibt genau
:̂ a ;
n
Y
k1
pn  pj .p n  1/.p n  p/    .p n  p k1 /
Für jede Komponente hat man p Möglichkeiten, ein Element D
pk  pj .p k  1/.p k  p/    .p k  p k1 /
aus Zp zu wählen, sodass also Zpn insgesamt p n Elemente ent- j D0
hält.
k-dimensionale Untervektorräume von Zpn .
Der triviale Untervektorraum f0g ist der einzige Untervek-
Als Beispiel bestimmen wir alle Untervektorräume
torraum der Dimension 0.
von Z32 : Es ist f0g der einzige Untervektorraum von Z32 der
Zur Anzahl der 1-dimensionalen Untervektorräume: Es 3 1
Dimenion 0. Die 221 D 7 verschiedenen 1-dimensionalen
gibt p n  1 Möglichkeiten, einen vom Nullvektor verschiede-
Untervektorräume von Z32 sind
nen Vektor zu wählen, und jeder solche Vektor erzeugt einen
1-dimensionalen Untervektorraum. Nun sind aber diese Un- 0 1 0 1 0 1 0 1
* 1 + * 0 + * 0 + * 1 +
tervektorräume nicht alle verschieden, so gilt im Z33 etwa B0C B C B C B C
0 1 0 1 @ A ; @1A ; @0A ; @1A ;
* 1 + * 2 + 0 0 1 0
B1C B C 0 1 0 1 0 1
@ A D @2A : * 1 + * 0 + * 1 +
0 0 B0C B C B C
@ A ; @1A ; @1A :
Wir überlegen uns, wieviele verschiedene Basen ein 1-dimen- 1 1 1
sionaler Untervektorraum von Zpn haben kann. Ist U ein
3 1/ .2 2/
3
1-dimensionaler Untervektorraum, so liefert jede Wahl eines Die .2
.22 1/ .22 2/
D 7 verschiedenen zweidimensionalen Un-
vom Nullvektor verschiedenen Vektors aus U (das sind p  1 tervektorräume von Z32 sind
Möglichkeiten) eine Basis für U . Also erzeugen je
0 1 0 1 0 1 0 1 0 1 0 1
* 1 0 + * 1 0 + * 0 0 +
p  1 D jZp n f0gj B0C B1C B0C B0C B1C B0C
@ A @ A
; ; @ A @ A
; ; @ A @ A ;
;
Elemente den gleichen Untervektorraum. Folglich gibt es ge- 0 0 0 1 0 1
nau 0 1 0 1 0 1 0 1 0 1 0 1
* 1 0 + * 0 1 + * 0 1 +
pn  1 B0C B1C B1C B0C B0C B1C
p1 @ A;@ A ; @ A;@ A ; @ A;@ A ;
0 1 0 1 1 0
verschiedene 1-dimensionale Untervektorräume von Zpn . 0 1 0 1
Zur Anzahl der 2-dimensionalen Untervektorräume: Es * 1 0 +
B1C B1C
gibt p n  1 Möglichkeiten, einen vom Nullvektor verschie- @ A;@ A :
denen Vektor a1 zu wählen und p n  p Möglichkeiten einen 0 1
zum Vektor a1 linear unabhängigen Vektor a2 2 Zpn n ha1 i
zu wählen. Jedes solche Paar von Vektoren a1 und a2 erzeugt Und schließlich ist Z32 der einzige dreidimensionale Untervek-
einen 2-dimensionalen Untervektorraum. Diese Untervektor- torraum von Z32 .
räume sind aber nicht alle verschieden. So gilt im Z33 etwa
0 1 0 1 0 10 1 Kommentar Im 7 Kap. 6 werden wir zeigen, dass je zwei
* 1 0 + * 2 0 +
B1C B2C B2C B2C k-dimensionale Vektorräume über ein und demselben Körper
@ A;@ A D @ A @ A : isomorph sind, d. h., sie unterscheiden sich nur in der Bezeich-
0 0 0 0
nung der Elemente.
4.4  Basis und Dimension
111 4

Beispiel: Magische Quadrate II


0 1
Für c 02 R sei Mc die 1 Menge aller magischen Quadrate 0 0 1
x11 x12 x13 B 4 1 2 C
A 3 WD @ 3 A
B C 3 3
A D @x21 x22 x23 A 2 R3 3 mit der Eigenschaft, dass 1
3
2
3
2
3
x31 x32 x33
alle Zeilen-, Spalten- und Diagonalsummen von A gleich c eine Basis von M : Jedes magische Quadrat ist eine Li-
S
sind. Und es sei M D c2R Mc die Menge der magischen nearkombination der magischen Quadrate A 1 ; A 2 ; A 3 , und
3 3-Quadrate. Unser Ziel: Wir wollen alle möglichen magi- offenbar sind A 1 ; A 2 ; A 3 linear unabhängig.
schen Quadrate zu einer vorgegebenen Zahl c 2 R bestimmen Man wähle also zu einer vorgegebenen Zahl c 2 R eine
und schließlich eine Basis des Untervektorraums M von R3 3 Zerlegung in eine Summe der drei Zahlen x11 ; x12 ; x13 , also
angeben. c D x11 C x12 C x13 , und setze

Problemanalyse und Strategie


A WD x11 A 1 C x12 A 2 C x13 A 3
Wir begründen, dass ein magisches Quadrat mit der magi-
schen Zahl c durch seine erste Zeile festgelegt ist. Es ist dann A ein magisches Quadrat mit der magischen
Zahl c, d. h., die restlichen Einträge der Matrix A D .aij /
Lösung
stimmen dann automatisch. Es ist etwa a33 D 1=3 x11 C
Wir geben uns eine reelle Zahl c vor, und es sei 2=3 x12 C 2=3 x13 , also wegen c D x11 C x12 C x13 weiter
0 1 a33 D 1=3 x11 C 2=3 .c  x11 / D 2=3 c  x11 .
x11 x12 x13
B C Wir wollen die Basis noch etwas verschönern. Durch Pro-
A D @x21 x22 x23 A 2 Mc :
bieren findet man
x31 x32 x33
0 1
1 1
0
Für i D 1; 2; 3 sei Zi die Summe der i-ten Zeile und Si B
die Summe der i-ten Spalte von A. Es seien ferner D1 WD B 1 D A 1  A 2 D @1 1C
0 A
x11 C x22 C x33 und D2 WD x13 C x22 C x31 die Diagonalsum- 0 1
1
men von A. Dann ist 0 1
0 1 1
B 1C
D1 C D2 C Z2 C S2 D Z1 C Z2 C Z3 C 3x22 ; B 2 D A 2  A 3 D @1 0 A
1 1 0
also 4 c D 3 c C 3 x22 und somit c D 3 x22 . Damit haben wir 0 1
1 1 1
x22 D c=3 bestimmt. Für c D 0 gilt also etwa x22 D 0. B C
Nun überlegen wir uns, dass das magische Quadrat A B 3 D A 1 C A 2 C A 3 D @1 1 1A
durch die erste Zeile, d. h. durch die Zerlegung von c in die 1 1 1
Summe c D x11 C x12 C x13 bereits eindeutig festgelegt ist.
Die erste Zeile von A 2 Mc sei .x11 ; x12 ; x13 /. Dann folgt Die magischen Quadrate B 1 ; B 2 ; B 3 haben nun eine schöne
0 1 Gestalt. Nun müssen wir uns aber natürlich noch davon über-
x11 x12 x13 zeugen, dass sie eine Basis bilden. Es ist nämlich keineswegs
B C
A D @ 3c  x11 C x13 c
3 3 C x11  x13 A
c
so, dass beliebige drei Linearkombinationen dreier Basisvek-
2
3
c  x13 2
3
c  x12 2
3
c  x11 toren wieder drei Basisvektoren bilden. So folgt etwa schon
bei nur zwei Basisvektoren a1 und a2 aus b1 D a1 C a2 und
Der Eintrag an der Stelle .2; 2/ ergibt sich unmittelbar aus obi- b2 D 2 a1 C 2 a2 die Gleichung 2 b1 D b2 .
gem; die Einträge in der letzten Zeile ergeben sich dann aus Wir müssen uns aber nur davon überzeugen, dass
den Bedingungen D1 D c, D2 D c und S2 D c; weiter erge- B 1 ; B 2 ; B 3 linear unabhängig sind. Wir machen den üblichen
ben sich die beiden noch fehlenden Einträge in der mittleren Ansatz. Für 1 ; 2 ; 3 2 R gelte
Zeile von A aus den Bedingungen S1 D c und S3 D c.
Nun können wir wegen c D x11 C x12 C x13 einfach eine 1 B 1 C 2 B 2 C 3 B 3 D 0 2 R3 3
:
Basis von M angeben, da jedes magische Quadrat durch seine
erste Zeile eindeutig bestimmt ist: Es ist fA 1 ; A 2 ; A 3 g mit Aus dem Eintrag an der Stelle .2; 2/ folgt 3 D 0. Nun be-
0 1 trachten wir die Stelle .1; 1/. Es ist dann auch 2 D 0. Und
1 0 0
B 2 1 4C schließlich folgt aus dem Eintrag an der Stelle .1; 3/ in der
A 1 WD @ 3 3 3A ;
2 2 1 letzten Zeile 2 D 0.
3 3 3
0 1 Damit ist gezeigt, dass B 1 , B 2 , B 3 linear unabhängig
0 1 0 sind. Es ist also fB 1 ; B 2 ; B 3 g eine Basis von M .
B 1C
A 2 WD @ 13 1
3 3A ; Wir merken noch an, dass M ein 3-dimensionaler Unter-
2 1 2
3 3 3 vektorraum des 9-dimensionalen R-Vektorraums R3 3 ist.
112 Kapitel 4  Vektorräume – von Basen und Dimensionen

Beweis (i) Nach dem Austauschsatz von Steinitz ist jede (c) K D Q: Wir zeigen, dass fp 0 ; p 1 ; p 2 ; p 3 g linear
Menge fv1 ; : : : ; vn g linear unabhängiger Vektoren von V unabhängig ist, sodass fp0 ; p 1 ; p 2 ; p 3 g eine Basis von U
eine maximale linear unabhängige Teilmenge von V und ist.
somit eine Basis. Es seien a0 ; a1 ; a2 ; a3 2 Q mit
(ii) Nach dem Austauschsatz von Steinitz ist jedes
Erzeugendensystem fv1 ; : : : ; vn g mit n Elementen ein mi- a0 p 0 C a1 p 1 C a2 p 2 C a3 p 3 D 0 2 KK ( )
nimales Erzeugendensystem von V und somit eine Basis.
(iii) Es sei BU eine Basis von U . Nach dem Basiser- gegeben, d. h.
4 gänzungssatz existiert eine Basis BV von V mit BU  BV .
Hieraus folgt jBU j  jBV j. a0 p 0 .x/ C a1 p 1 .x/ C a2 p 2 .x/ C a3 p 3 .x/ D 0
(iv) Dies folgt aus dem Beweis von (iii), da unter der
Voraussetzung dim.U / D dim.V / sogleich BU D BV und für alle x 2 Q. Einsetzen von x D 0 liefert
somit U D V folgt.
(v) Das folgt aus (iii). a0 1 C a1 0 C a2 0 C a3 0 D 0 ;
(vi) Das folgt aus (iv). 
sodass a0 D 0 gilt. Wir setzen a0 D 0 in ( ) ein und erhal-
Insbesondere ist nun auch klar, dass die Untervektorräume ten
der Dimension 1 bzw. 2 des R3 die Form R a mit a ¤ 0
bzw. R a C R b mit a; b ¤ 0 und R a ¤ R b, also mit a1 p 1 .x/ C a2 p 2 .x/ C a3 p 3 .x/ D 0
linear unabhängigen Vektoren a, b, haben. Außer diesen
und den trivialen Untervektorräumen f0g und R3 existieren für alle x 2 Q. Nun setzen wir x D 1, x D 1 und
keine weiteren Untervektorräume im R3 . x D 2 ein. Das liefert ein lineares Gleichungssystem für
die a1 ; a2 ; a3 :
? Selbstfrage 4.11
a1 1 C a2 1 C a3 1 D 0;
Welche reelle Zahlen bilden eine Basis des reellen Vektor-
raums R? a1 .1/ C a2 1 C a3 .1/ D 0 ;
a1 2 C a2 4 C a3 8 D 0:
Beispiel Wir betrachten den K-Vektorraum KK aller Ab-
bildungen von K nach K. Für i 2 N0 sei p i 2 KK die Die Koeffizientenmatrix dieses homogenen linearen Glei-
Polynomfunktion chungssystems lautet
0 1
 1 1 1
K!K
pi W : @1 1 1A :
x 7! x i
2 4 8
Wir bestimmen jeweils die Dimension des von
Mit dem Gauß-Algorithmus sieht man, dass dieses
fp 0 ; p 1 ; p 2 ; p 3 g aufgespannten Untervektorraums von KK
System nur die Lösung .0; 0; 0/ besitzt. Also ist
für die Fälle
fp0 ; p 1 ; p 2 ; p 3 g linear unabhängig, also eine Basis und so-
mit dim.U / D 4. 9
(a) K D Z2 ; (b) K D Z3 bzw. (c) K D Q :

Es sei U D hp 0 ; p 1 ; p 2 ; p 3 i. 4.5 Summe und Durchschnitt


(a) K D Z2 : Wegen p 1 .0/ N D p 2 .0/
N D p 3 .0/
N D 0N und von Untervektorräumen
N D p 2 .1/
p 1 .1/ N D p 3 .1/ N D 1N gilt

Durch Summen und Durchschnittbildung werden aus Un-


p1 D p2 D p3
tervektoräumen wieder Untervektorräume.
und somit hp 0 ; p 1 i D hp 0 ; p 1 ; p 2 ; p 3 i D U .
Wir zeigen nun noch, dass fp0 ; p 1 g linear unabhängig Die Summe von Untervektorräumen ist
ist. Es seien a0 ; a1 2 Z2 mit a0 p 0 C a1 p1 D 0 2 KK , ein Untervektorraum
also a0 p 0 .x/ C a1 p 1 .x/ D 0N für alle x 2 Z2 . Einsetzen
von x D 0N liefert a0 D 0N und dann Einsetzen von x D 1N
auch a1 D 0. N Also ist fp0 ; p 1 g linear unabhängig, also eine Für zwei Untervektorräume U und W eines K-Vektorrau-
Basis von U , also dim.U / D 2. mes V definiert man
(b) K D Z3 : Analog zu K D Z2 sieht man, dass
fp 0 ; p 1 ; p 2 g eine Basis von U ist, also dim.U / D 3. U C W D fu C w j u 2 U; w 2 W g  V
4.5  Summe und Durchschnitt von Untervektorräumen
113 4
und nennt U C W die Summe der Untervektorräume U Beispiel Wir bestimmen jeweils eine Basis von U , W und
und W . U C W für
Offenbar ist U CW wieder ein Untervektorraum von V . 0 1 0 1 0 1
1 0 1
B1C B1C B1C
? Selbstfrage 4.12 B C B C B C
U DRB B 0CC CR B
B 1CC CR B C
B 0 C und
Wieso ist U C W ein Untervektorraum? @0A @0A @0A
0 0 2
Gilt sogar V D U C W , so sagt man, der K-Vektorraum V 0 1 0 1 0 1
2 2 1
ist die Summe der Untervektorräume U und W .
B1C B1C B1C
Wir betrachten Erzeugendensysteme MU von U und B C B C B C
MW von W , d. h., W DRB C B C B C
B1C C R B 3 C C R B2C :
@2A @6A @4A
U D hM i und W D hM i : 0 8 6
U W

Wir bezeichnen die angegeben Vektoren aus U der Reihe


Gegeben seien u 2 U und w 2 W . Da hMU i aus allen nach mit u1 ; u2 ; u3 und jene aus W mit w1 ; w2 ; w3 .
Linearkombinationen von Elementen aus MU besteht, exis- Die Schreibweise U D R u1 C R u2 C R u3 bedeu-
r 2 N0 , u1 ; : : : ; ur 2 MU und
tierenP P 1 ; : : : ; r 2 K mit tet nichts anderes als U D hu1 ; u2 ; u3 i. Wir zeigen, dass
u D riD1 i ui . Ebenso ist w D siD1 i wi mit einem u1 ; u2 ; u3 linear unabhängig sind. Die Gleichung 1 u1 C
s 2 N0 , wi 2 MW und i 2 K für 1  i  s. Folglich ist 2 u2 C 3 u3 D 0 mit 1 ; 2 ; 3 2 R führt zu einem
linearen Gleichungssystem mit der erweiterten Koeffizien-
X r X s
tenmatrix
uCwD i ui C i wi
0 1
i D1 i D1 1 0 1 0
B1 1 1 0C
B C
eine Linearkombination von u1 ; : : : ; ur ; w1 ; : : : ; ws 2 B 0 1 0 0C ;
B C
MU [ MW . Es gilt also U CP W  hMU [ MW i. @0 0 0 0A
t
Nun sei umgekehrt v D i D1 i vi eine Linearkombi- 0 0 2 0
nation von Elementen vi 2 MU [ MW . Wir setzen
dessen einzige Lösung offenbar .0; 0; 0/ ist. Demnach ist
I D fi 2 f1; 2; : : : ; tg j vi 2 MU g und fu1 ; u2 ; u3 g ein linear unabhängiges Erzeugendensystem,
J D f1; 2; : : : ; tg n I : also eine Basis von U .
Nun untersuchen wir die Vektoren w1 ; w2 ; w3 auf linea-
re Unabhängigkeit. Offenbar sind w1 ; w2 linear unabhän-
Für i 2 J gilt vi … MU , d. h. vi 2 MW . Folglich ist
gig, denn aus 1 w1 C 2 w2 D 0 mit z. B. 2 ¤ 0 folgt
w2 D .1 =2 / w1 , d. h. w2 wäre skalares Vielfaches von
X t X X
uD i vi D i vi C i vi 2 U C W: w1 , was offensichtlich nicht der Fall ist. Wir müssen dann
i D1 i 2I i 2J
prüfen, ob w3 2 hw1 ; w2 i, d. h. w3 D 1 w1 C 2 w2 lösbar
„ ƒ‚ … „ ƒ‚ … ist. Ausgeschrieben liefert dies das lineare Gleichungssys-
2hMU i 2hMW i
tem mit der erweiterten Koeffizientenmatrix
0 1
Damit ist gezeigt: 2 2 1
B1 1 1C
B C
B1 3 2C
Lemma Sind U1 ; : : : ; Un Untervektorräume eines K-Vek- B C
@2 6 4A
torraums V mit den Erzeugendensystemen MU1 ; : : : ; MUn ,
so gilt 0 8 6

Dieses Gleichungssystem ist lösbar mit Lösung 1 D


U1 C    C Un D fu1 C    C un j u1 2 U1 ; : : : ; un 2 Un g 1=4,  D 3=4. Es folgt W D hw ; w i, und fw ; w g
2 1 2 1 2
D hMU1 [    [ MUn i : ist als linear unabhängiges Erzeugendensystem eine Basis
von W .
Insbesondere ist die Summe U1 C    C Un ein Untervek- Nun wissen wir, dass U C W D hfu1 ; u2 ; u3 ; w1 ; w2 gi.
torraum von V . Der Vektor w1 kann nicht Linearkombination von u1 ; u2 ; u3
sein – man beachte die vierten Komponenten. Also sind
? Selbstfrage 4.13 u1 ; u2 ; u3 ; w1 linear unabhängig. Wegen w2 D 4 u3  3 w1
Wenn MU und MW sogar Basen von U und W sind, ist gilt U CW D hu1 ; u2 ; u3 ; w1 i, d. h. fu1 ; u2 ; u3 ; w1 g ist eine
dann MU [ MW eine solche von U C W ? Basis von U C W . 9
114 Kapitel 4  Vektorräume – von Basen und Dimensionen

Durchschnitte von Untervektorräumen sind x3


wieder Untervektorräume

Für zwei Untervektorräume U und W eines K-Vektor-


raums V ist U \ W wieder ein Untervektorraum von V .
Der Nachweis ist sehr einfach: Weil der Nullvektor sowohl
in U als auch in W liegt, ist U \ W nichtleer. Weiterhin
4 ist mit jedem  2 K und v 2 U \ W auch  v ein Ele-
ment aus U und zugleich ein Element aus W , also wieder
x1 x2
ein Element aus U \ W . Und mit zwei Elementen v und v0
aus U \ W liegt auch deren Summe sowohl in U als auch
in W , also wieder in deren Durchschnitt. Diesen Nachweis
kann man leicht auf einen beliebigen Durchschnitt verall-
gemeinern:

Lemma Ist M eine nichtleere Menge von Untervektorräu- . Abb. 4.9 Der Schnitt der beiden Untervektorräume U und W ist eine
Gerade
men eines K-Vektorraums V , so ist
\
U0 D U Mittels elementarer Zeilenumformungen wird diese Matrix
U 2M überführt in
0 1
1 0 0 1 0
wieder ein Untervektorraum von V . @0 1 0 1 0A :
0 0 1 1 0
i Ist MU ein Erzeugendensystem von U und MW ein sol-
ches von W , so gilt im Allgemeinen Also gilt L D f.; ; ; / j  2 Rg und somit
8 0 1 0 1 9
< 1 0 =
U \ W D hMU i \ hMW i ¤ hMU \ MW i :
U \ W D  @0A C  @ 1 A j  2 R
: ;
1 1
Man wähle etwa MU D f1g und MW D f2g im eindimen- 8 0 1 9
sionalen R-Vektorraum R. < 1 =
D  @1A j  2 R :
: ;
Beispiel Im R-Vektorraum V D R3 seien zwei Untervek- 0
torräume U und W gegeben durch Also
*011+
0
* 1 1 0 1 0 1 0 1
0 + * 1 0 + U \ W D @1 A : 9
U D @0 A ; @ 1 A und W D @ 0 A ; @1A : 0
1 1 1 1
i Die Vereinigung von Untervektorräumen ist im Allge-
meinen kein Untervektorraum. Als Beispiel wähle man
0\
Wir bestimmen U 1W . 0 1
1 0 etwa zwei verschiedene eindimensionale Untervektorräu-
Für v D 1 @0A C 2 @ 1 A mit 1 ; 2 2 R gilt v 2 me des R2 (siehe . Abb. 4.10).
1 1 Man beachte den Unterschied zwischen der Summe und
U \ W genau dann, wenn es 1 ; 2 2 R gibt, so dass der Vereinigung von Untervektorräumen.

0 1 0 1 0 1 0 1
1 0 1 0 x2
U2
@ A
1 0 C 2 @ A
1 D 1 @ 0 C 2 1A
A @ 62 U1 [ U2
1 1 1 1

gilt. Wir bestimmen daher die Lösungsmenge L des homo-


genen linearen Gleichungssystems über R mit der folgen-
den erweiterten Koeffizientenmatrix: x1

0 1 U1
1 0 1 0 0
@0 1 0 1 0A :
. Abb. 4.10 Die Summe der zwei Vektoren aus U1 [U2 ist nicht Element
1 1 1 1 0 von U1 [ U2 , also ist U1 [ U2 kein Vektorraum
4.5  Summe und Durchschnitt von Untervektorräumen
115 4
Die Summe der Dimension von U und W Der Vektor links vom Gleichheitszeichen liegt in U , der
ist gleich der Summe der Dimensionen Vektor rechts davon in W , sodass
von U \ W und U C W X
r X
s
i bi C i ui 2 U \ W D hBi :
i D1 i D1
Die Summe U CW von Untervektorräumen U und W eines
K-Vektorraums V ist erneut ein Untervektorraum von V . Es folgt 1 D    D s D 0. Da BW linear unabhängig ist,
Doch welche Dimension hat der Vektorraum U C W ? Die erhalten wir nun aus ( ) weiterhin
naheliegende Formel dim.U C W / D dim U C dim W ist
1 D    D r D 0 D 1 D    D  t :
falsch, wie das Beispiel U D W D he 1 i  R2 zeigt, hier
gilt: Wegen

dim U C dim W D 2 ¤ 1 D dim.U C W / : jBj C jBU [ BW j D jBU j C jBW j

Korrekt hingegen ist die folgende Dimensionsformel: gilt die Dimensionsformel. 

Beispiel Wir betrachten erneut das Beispiel von oben: Für


Die Dimensionsformel für Untervektorräume
die Untervektorräume
Sind U und W endlichdimensionale Untervektorräume *011 0 0 1+ *0 1 1 001+
des K-Vektorraums V , so gilt: U D @0 A ; @ 1 A und W D @ 0 A ; @1A
1 1 1 1
dim.U \ W / C dim.U C W / D dim U C dim W :
gilt dim U D 2 und dim W D 2. Wegen U \ W D
he 1 C e 2 i gilt dim.U \W / D 1. Mit der Dimensionsformel
für Untervektorräume folgt nun
Man beachte die Ähnlichkeit zu der folgenden Formel aus
der elementaren Mengenlehre: dim.U C W / D dim U C dim W  dim.U \ W /
D 3: 9
jA \ Bj C jA [ Bj D jAj C jBj :

Beweis Es sei B D fb1 ; : : : ; br g eine Basis des Vektor-


raums U \ W  U; W . Wir ergänzen B zu einer Basis BU
Der triviale Durchschnitt kennzeichnet
von U und zu einer Basis BW von W , direkte Summen

BU D fb1 ; : : : ; br ; u1 ; : : : ; us g ; Ein K-Vektorraum V heißt direkte Summe der Untervek-


BW D fb1 ; : : : ; br ; w1 ; : : : ; w t g : torräume U und W , in Zeichen

Nun begründen wir, dass V DU ˚W ;

BU [ BW D fb1 ; : : : ; br ; u1 ; : : : ; us ; w1 ; : : : ; w t g falls
(i) V D U C W ,
eine Basis von U C W ist. (ii) U \ W D f0g.
(i) BU [ BW erzeugt U C W , da, wie oben gezeigt, gilt
Der Vektorraum V ist somit die Summe von U und W ,
wobei U und W einen trivialen Durchschnitt haben.
hBU [ BW i D U C W :

(ii) BU [ BW ist linear unabhängig: Sind 1 ; : : : ; r , Beispiel Der R ist die direkte Summe einer Ebene und
3

1 ; : : : ; s und 1 ; : : : ;  t aus K gegeben, und gilt einer Geraden:


*011 001+ *001+
X r Xs X t
R 3 D @1 A ; @1 A ˚ @0 A : 9
i bi C i ui C i wi D 0 ; ( )
0 1 1
i D1 i D1 i D1

Ist V D U C W , so kann man jeden Vektor v 2 V als


so erhalten wir
eine Summe v D u C w schreiben. Eine solche Darstellung
X
r X
s X
t ist aber im Allgemeinen nicht eindeutig, wie das einfache
i bi C i ui D  i wi : Beispiel v D e 1 im Fall U D he 1 i D W zeigt. Im Fall
i D1 i D1 i D1 einer direkten Summe ist die Situation anders:
116 Kapitel 4  Vektorräume – von Basen und Dimensionen

Lemma Ist V die direkte Summe zweier Untervektorräume Im 7 Abschn. 6.5 bestimmen wir in einem ausführlichen
U und V , so existiert zu jedem v 2 V genau eine Darstel- Beispiel ein Komplement des Untervektorraums der sym-
lung der Form metrischen Matrizen im Vektorraum aller quadratischer
Matrizen über einem Körper K.
v DuCw

mit u 2 U und w 2 W .
Ein Faktorraum ist ein Vektorraum,
Beweis Aus dessen Elemente Äquivalenzklassen sind
4
u C w D v D u0 C w0
Wir schildern die Konstruktion eines Vektorraums V =U
0 0 aus einem Vektorraum V mithilfe eines Untervektor-
mit u; u 2 U und w; w 2 W folgt
raums U . Dazu benutzen wir die Äquivalenzrelationen aus
u  u0 D w
„ƒ‚…
0
„ ƒ‚w
…: 7 Abschn. 1.4.
2U 2W Gegeben sind ein K-Vektorraum V und ein (beliebiger)
Untervektorraum U von V . Wir führen eine Äquivalenz-
Wegen U \ W D f0g gilt also u  u0 D 0 D w0  w. Das relation  auf der Menge V ein. Dabei nennen wir zwei
liefert Elemente v und w aus V äquivalent, wenn die Differenz
u D u0 und w D w0 :  v  w im vorgegebenen Untervektorraum U liegt, d. h., für
v; w 2 V gilt:

Ein Komplement ist ein direkter Summand v w , vw2U :

?Selbstfrage 4.14
Ist U ein Untervektorraum eines K-Vektorraums V , so Warum ist  eine Äquivalenzrelation?
heißt ein Untervektorraum W von V ein Komplement von
U in V , wenn V D U ˚ W . Wir betrachten nun eine Äquivalenzklasse bezüglich dieser
Relation . Für ein v 2 V ist

Satz über die Existenz von Komplementen Œv D fw 2 V j w  vg


Ist U ein Untervektorraum eines K-Vektorraums V , so be-
D fw 2 V j w  v 2 U g
sitzt U ein Komplement in V .
D fw 2 V j w  v D u; u 2 U g
D fw 2 V j w D v C u; u 2 U g
Beweis Es sei BU eine Basis von U . Nach dem Basisergän- DvCU :
zungssatz können wir die linear unabhängige Menge BU
mittels einer linear unabhängigen Menge BU0 zu einer Ba- Die Äquivalenzklassen haben somit die Form
sis BU [ BU0 von V ergänzen. 0
˝ 0 ˛ Die Menge BU erzeugt einen
Unterrvektorraum W D BU . Wir begründen, dass W ein Œv D v C U :
Komplement von U in V ist. Wegen
Für die Quotientenmenge V = , das ist die Menge aller
U C W D hBU [ BU0 i D V Äquivalenzklassen, ist die Schreibweise V =U üblich,

ist V die Summe der beiden Untervektorräume U und W V =U D fŒv j v 2 V g D fv C U j v 2 V g :


von V . Ist v 2 U \ W , so ist v eine Linearkombination von
BU und von BU0 . Somit gibt es 1 ; : : : ; r ; 1 ; : : : ; s 2 K Für das Zeichen V =U verwendet man die Sprechweise V
und v1 ; : : : ; vr 2 BU , w1 ; : : : ; ws 2 BU0 mit nach U oder V modulo U . Wegen der Form der Äqui-
valenzklasse nennt man v C U auch (Links-)Nebenklasse
1 v1 C    C r vr D v D 1 w1 C    C r ws : von v nach U und spricht anstelle von der Quotientenmen-
ge V =U auch von der Menge der (Links-)Nebenklassen.
Nun stellen wir diese Gleichung um:
Die Äquivalenzklassen bilden eine Zerlegung der Men-
1 v1 C    C r vr  .1 w1 C    C r ws / D 0 : ge V in disjunkte, nichtleere Teilmengen, wie wir in
7 Abschn. 1.4 gezeigt haben.
Wegen der linearen Unabhängigkeit von BU und BU0 folgt Wir arbeiten nun mit diesen Äquivalenzklassen als Ele-
hieraus i D 0 D j für alle vorkommenden i und j . mente der Quotientenmenge weiter. Unser Ziel ist es, V =U
Dies zeigt v D 0, d. h. U \ W D f0g. Also ist W ein zu einem K-Vektorraum zu machen. Dazu führen wir nun
Komplement von U in V .  eine Addition von Nebenklassen und eine Multiplikation
4.5  Summe und Durchschnitt von Untervektorräumen
117 4
von Nebenklassen mit Skalaren ein. Wir setzen für v C gegeben. Es folgt v0  v 2 U . Daher gilt
U; w C U 2 V =U und  2 K
 v0   v D  .v0  v/ 2 U :
.v C U / C .w C U / D .v C w/ C U
  .v C U / D . v/ C U : Nun folgt aber  v0   v, d. h.

Zwei Nebenklassen werden also miteinander addiert, in- . v0 / C U D . v/ C U :


dem man die Repräsentanten addiert und davon die Neben-
Dass V =U mit dieser Addition eine abelsche Gruppe ist,
klasse bildet, und eine Nebenklasse wird mit einem Skalar
wurde im 7 Abschn. 2.2 gezeigt. Das neutrale Element be-
multipliziert, indem der Repräsentant mit dem Skalar mul-
züglich dieser Addition ist die Nebenklasse
tipliziert wird und davon die Nebenklasse gebildet wird.
Die Definition ist nur dann sinnvoll, wenn sie unabhän- 0CU DU :
gig von der Wahl der Repräsentanten v und w ist. Würde
nämlich etwa v C U D v0 C U für verschiedene Elemente Die Gültigkeit der Vektorraumaxiome (V1)–(V4) ist offen-
v ¤ v0 aus V gelten, aber . v/ C U ¤ . v0 / C U möglich sichtlich, da diese Axiome ja in V erfüllt sind. Es bleibt also
sein, so wäre nur noch die Formel zur Dimension nachzuweisen. Dazu
 setzen wir nun voraus, dass V die Dimension n 2 N0 hat.
K V =U ! V =U
W Der Untervektorraum U habe die Dimension r  n. Wir
.; v C U / 7! . v/ C U wählen ein Komplement W  V zu U , V D W ˚ U . Die
keine Abbildung, da einem Element v C U der Definitions- Dimension von W ist nr, es sei fb1 ; : : : ; bnr g eine Basis
menge verschiedene Elemente der Wertemenge zugeordnet von W . Wenn wir zeigen können, dass die Menge
werden.
B D fb1 C U; : : : ; bnr C U g
Um also nachzuweisen, dass unsere Definitionen sinn-
voll sind, müssen wir zeigen, dass unabhängig von der Wahl eine Basis von V =U ist, folgt die Behauptung
des Repräsentanten stets dasselbe Element bei der Addition
und der Multiplikation entsteht, wir zeigen mehr: dim V =U D n  r D dim V  dim U :
Es ist B ein Erzeugendensystem von V =U : Es sei v C
Der Vektorraum V =U
U 2 V =U . Wegen v 2 V D W C U existieren Skalare
Für jeden Untervektorraum U eines K-Vektorraums V ist
1 ; : : : ; nr 2 K und ein u 2 U mit
v D 1 b1 C    C nr bnr C u :
V =U D fv C U j v 2 V g

mit der Addition Es folgt durch Übergang zu Nebenklassen

.v C U / C .w C U / D .v C w/ C U ; v; w 2 V v C U D 1 b1 C    C nr bnr C U
D 1 .b1 C U / C    C nr .bnr C U / 2 hBi :
und der Multiplikation mit Skalaren
Es ist B linear unabhängig: Es gelte
  .v C U / D . v/ C U ;  2 K ; v 2 V
1 .b1 C U / C    C nr .bnr C U / D 0 D U (4.5)
ein K-Vektorraum. Ist V endlichdimensional, so gilt
für Skalare 1 ; : : : ; nr 2 K. Wegen
dim V =U D dim V  dim U :
1 .b1 C U / C    C nr .bnr C U /
D 1 b1 C    C nr bnr C U
Beweis Die Addition ist wohldefiniert: Es seien
besagt Gleichung (4.5):
v; v0 ; w; w0 2 V mit
v C U D v0 C U und w C U D w0 C U 1 b1 C    C nr bnr 2 U :

gegeben. Es folgt v0  v; w0  w 2 U . Daher gilt Da hBi D W aber das Komplement von U in V ist, ist nur
der Fall 1 D    D nr D 0 möglich. 
.v0 C w0 /  .v C w/ D .v0  v/ C .w0  w/ 2 U :
Nun folgt aber .v0 C w0 /  .v C w/, d. h. Beispiel Wir betrachten den Untervektorraum U D he 1 i
0 0
.v C w / C U D .v C w/ C U : des R3 . Da he 2 ; e 3 i ein Komplement zu U in R3 ist, erhal-
ten wir
Die Multiplikation mit Skalaren ist wohldefiniert: Es seien
 2 K und v; v0 2 V mit R3 =U D he 2 C U; e 3 C U i
v C U D v0 C U und dim R3 =U D 2. 9
118 Kapitel 4  Vektorräume – von Basen und Dimensionen

Kommentar Das Prinzip der Konstruktion des Vektor- 4.4  Folgt aus der linearen Unabhängigkeit der drei
raums V =U aus V und U findet sich in der Algebra Vektoren u; v; w eines K-Vektorraums auch die lineare Un-
immer wieder. Z. B. wird aus einer Gruppe G mit einem abhängigkeit der drei Vektoren u C v C w; u C v; v C w?
Normalteiler U die Faktorgruppe G=U gebildet, und aus
einem Ring R kann mit einem Ideal I den Faktorring 4.5  Geben Sie zu folgenden Teilmengen des R-
R=I konstruieren. Das Ziel einer solchen Konstruktion ist Vektorraums R3 an, ob sie Untervektorräume sind, und be-
es oftmals, aus Gruppen, Ringen oder Vektorräumen neue gründen Sie
80dies:1 9
Strukturen zu gewinnen, die vorgegebene Eigenschaften er- < v1 =
4 füllen. (a) U1 D @v2 A 2 R3 j v1 C v2 D 2
Aber nicht nur in der Algebra, auch in allen weiteren : ;
v3
Gebieten der Mathematik werden ähnliche Konstruktionen 80 1 9
< v1 =
durchgeführt, die aus einer gegebenen Struktur mithilfe
(b) U2 D @v2 A 2 R3 j v1 C v2 D v3
von Äquivalenzrelationen eine neue Struktur schaffen. Zum : ;
v3
Beispiel werden auch die reellen Zahl aus den rationalen 80 1 9
Zahlen mit diesem Prinzip gewonnen. < v1 =
(c) U3 D @v2 A 2 R3 j v1 v2 D v3
: ;
v3
80 1 9
Aufgaben < v1 =
(d) U4 D @v2 A 2 R3 j v1 D v2 oder v1 D v3
: ;
Gelegentlich enthalten die Aufgaben mehr Angaben, als für v3
die Lösung erforderlich sind. Bei einigen anderen dage-
gen werden Daten aus dem Allgemeinwissen, aus anderen 4.6  Welche der folgenden Teilmengen des R-Vek-
Quellen oder sinnvolle Schätzungen benötigt. torraums RR sind Untervektorräume? Begründen Sie Ihre
Aussagen.
einfache Aufgaben mit wenigen Rechenschritten (a) U1 D ff 2 RR j f .1/ D 0g
mittelschwere Aufgaben, die etwas Denkarbeit und (b) U2 D ff 2 RR j f .0/ D 1g
unter Umständen die Kombination verschiedener (c) U3 D ff 2 RR j f hat höchstens endlich viele
Konzepte erfordern Nullstelleng
anspruchsvolle Aufgaben, die fortgeschrittene Kon- (d) U4 D ff 2 RR j für höchstens endlich viele x 2 R ist
zepte (unter Umständen auch aus späteren Kapiteln) f .x/ ¤ 0g
oder eigene mathematische Modellbildung benötigen (e) U5 D ff 2 RR j f ist monoton wachsendg
(f) U6 D ff 2 RR j die Abbildung g 2 RR mit g.x/ D
f .x/  f .x  1/ liegt in U g, wobei U  RR ein vor-
Verständnisfragen gegebener Untervektorraum ist.

4.1  Gelten in einem Vektorraum V die folgenden 4.7  Gibt es für jede natürliche Zahl n eine Menge
Aussagen? A mit n C 1 verschiedenen Vektoren v1 ; : : : ; vnC1 2 Rn ,
(a) Ist eine Basis von V unendlich, so sind alle Basen von sodass je n Elemente von A linear unabhängig sind? Geben
V unendlich. Sie eventuell für ein festes n eine solche an.
(b) Ist eine Basis von V endlich, so sind alle Basen von V
endlich. 4.8  Da dim.U CV / D dim U Cdim V dim.U \V /
(c) Hat V ein unendliches Erzeugendensystem, so sind alle gilt, gilt doch sicher auch analog zu Mengen dim.U C V C
Basen von V unendlich. W / D dim U C dim V C dim W  dim.U \ V /  dim.U \
(d) Ist eine linear unabhängige Menge von V endlich, so ist W /  dim.V \ W / C dim.U \ V \ W /? Beweisen oder
es jede. widerlegen Sie die Formel für dim.U C V C W /!

4.2  Gegeben sind ein Untervektorraum U eines K-


Vektorraums V und Elemente u; w 2 V . Welche der fol- Rechenaufgaben
genden Aussagen sind richtig?
(a) Sind u und w nicht in U , so ist auch u C w nicht in U .
 R
2
(b) Sind u und w nicht in U , so ist u C w in U . 4.9   Wir betrachten
 im  die drei Untervektorräume
 
(c) Ist u in U , nicht aber w, so ist u C w nicht in U . 1 1 1 1
U1 D , U2 D ; und U3 D .
2 1 2 3
4.3  Folgt aus der linearen Unabhängigkeit von u und Welche der folgenden
 Aussagen ist richtig?
v eines K-Vektorraums auch die linearen Unabhängigkeit 2
(a) Es ist ein Erzeugendensystem von U1 \ U2 .
von u  v und u C v? 4
Antworten zu den Selbstfragen
119 4
(b) Die leere  ; ist eine Basis von U1 \ U3 .
Menge Beweisaufgaben
1
(c) Es ist eine linear unabhängige Teilmenge von
4
4.15  Begründen Sie, dass sich die Kommutativität der
U2 .
Vektoraddition aus den restlichen Axiomen folgern lässt.
(d) Es gilt hU1 [ U3 i D R2 .
4.16  Es seien U1 ; U2 ; U3 Untervektorräume eines K-
4.10  Prüfen Sie, ob die Menge Vektorraums V . Weiter gelte
(    
1 0 1 1 U1 C U3 D U2 C U3 ; U1 \ U3 D U2 \ U3 und U1  U2 :
B D v1 D ; v2 D ;
0 1 0 0
   ) Zeigen Sie U1 D U2 .
0 1 0 0
v3 D ; v4 D  R2 2
1 0 1 0 4.17  Eine Funktion f W R ! R heißt gerade (bzw.
ungerade), falls f .x/ D f .x/ für alle x 2 R (bzw.
eine Basis des R2 2
bildet. f .x/ D f .x/ für alle x 2 R). Die Menge der gera-
den (bzw. ungeraden) Funktionen werde mit G (bzw. U )
4.11  Bestimmen Sie eine Basis des von der Menge bezeichnet. Beweisen Sie: Es sind G und U Untervektor-
räume von RR , und es gilt RR D G ˚ U .
80 1 0 1 0 1 0 1 0 1 0 19
ˆ 0 1 1 1 1 2 >
ˆ
<B 1 C B 0 C B2C B 0 C B 0 C B 0 C> = 4.18  Es seien K ein Körper mit jKj D 1 und V ein
XD B C ; B C ; B C ; B C ; B C ; B C K-Vektorraum. Ferner seien n 2 N und U ; : : : ; U Unter-
ˆ@ 0 A @ 1 A @ 0 A @ 1 A @1A @1A> >
1 n
:̂ ; vektorräume von V mit Ui ¤ V für i D 1; : : : ; n. Zeigen
1 2 1 0 1 0
Sie:
erzeugten Untervektorraums U D hXi des R4 . [
n
Ui ¤ V:
4.12  Begründen Sie, dass für jedes n 2 N die Menge i D1

8 0 1 9 (Anders formuliert: Ist jKj D 1, so lässt sich V nicht als


ˆ u1 >
< = Vereinigung endlich vieler echter Untervektorräume schrei-
B :: C
U D u D @ : A 2 R j u1 C    C un D 0
n
ben.)
:̂ >
;
un

einen R-Vektorraum bildet, und bestimmen Sie eine Basis Antworten zu den Selbstfragen
und die Dimension von U .
vAntwort 4.1
4.13  Bestimmen Sie die Dimension des Vektorraums Für alle u; v; w aus V gilt:
(AG1) v C w 2 V (Abgeschlossenheit).
hf1 ; f2 ; f3 i  RR : (AG2) .u C v/ C w D u C .v C w/ (Assoziativität).
(AG3) Es gibt ein Element 0 2 V mit vC0 D v (Existenz
mit eines neutralen Elements).
(AG4) Es gibt ein v0 2 V mit v C v0 D 0 (Existenz eines
f1 W x 7! sin.x/; entgegengesetzten Elements).
f2 W x !7 sin.2x/; (AG5) v C w D w C v (Kommutativität).

f3 W x ! 7 sin.3x/: vAntwort 4.2


Da Matrizen Abbildungen sind, sind diese genau dann
4.14  Es seien a; b verschiedene, linear unabhängige gleich, wenn sie dieselbe Definitions- und Wertemenge
Elemente eines K-Vektorraums V . Wir setzen für Skalare und dieselben Bilder haben: Zwei m n-Matrizen A D
; ; ;  2 K: .aij / und B D .bij / über K sind also genau dann gleich,
wenn aij D bij für alle i; j gilt.
c D  a C  b und
d D  a C  b: vAntwort 4.3
Natürlich ist auch für jeden Körper K die Menge K; ein
Unter welcher Bedingung an ; ; ;  2 K sind c; d linear K-Vektorraum, obiger Beweis gilt für jede Menge M . Die
unabhängig? Menge K; besteht aber nur aus einem Element, nämlich
120 Kapitel 4  Vektorräume – von Basen und Dimensionen

der leeren Menge – es ist ; die einzige existierende Abbil- vAntwort 4.10
dung von ; in K (beachte die Definition einer Abbildung Ja! Dass B ein Erzeugendensystem von V ist, folgt aus
auf Seite 12). Der Vektorraum K; ist somit der triviale der Tatsache, dass sich jeder Vektor als Linearkombina-
Vektorraum f;g, das einzige Element ; ist der Nullvektor. tion von B darstellen lässt. Zu überlegen bleibt also nur,
dass B linear unabhängig ist. Es seien v1 ; : : : ; vn irgend-
v Antwort 4.4 welche Vektoren aus B. Aus der Gleichung
Neben den trivialen Untervektorräumen sind für alle v ¤
0 ¤ w und w … R v die Mengen R v und R v C R w D 1 v1 C    C n vn D 0
4 f v C  w j ;  2 Rg Untervektorräume. Tatsächlich
gibt es keine weiteren Untervektorräume im R3 . mit 1 ; : : : ; n 2 K folgt wegen der eindeutigen Darstell-
barkeit des Nullvektors sogleich 1 D    D n D 0, da
v Antwort 4.5 ! natürlich der Nullvektor trivial dargestellt werden kann,
a a
Von denen
! gibt es nur die trivialen a a . Ist nämlich
a b 0 v1 C    C 0 vn D 0 :
ein solches magisches Quadrat, so folgt aus
c d
vAntwort 4.11
aCb D cCd D aCc DbCd DaCd DbCc Der R-Vektorraum R hat die Dimension 1, und jede von
null verschiedene Zahl ist als Basisvektor wählbar.
sofort a D b D c D d .
vAntwort 4.12
v Antwort 4.6 Es ist U C W nicht leer, weil der Nullvektor 0 in U C W
Ja. Der Vektorraum V selbst ist stets ein Erzeugendensys- liegt. Weiter liegen mit zwei Elementen uCw; u0 Cw0 2 U
tem, es gilt V D hV i. und  2 K stets auch uCwCu0 Cw0 D .uCu0 /C.wCw0 /
und  .u C w/ D  u C  w wieder in U .
v Antwort 4.7
Ja, dies folgt aus der Definition. vAntwort 4.13
Nein, man wähle etwa zwei verschiedene Basen MU und
v Antwort 4.8 MW eines Vektorraumes U D W .
Der Nullvektorraum f0g besitzt die einzige Basis ; und der
Z2 -Vektorraum Z2 besitzt die einzige Basis f1g. Jeder K- vAntwort 4.14
Vektorraum besitzt im Fall K ¤ Z2 mehr als eine Basis, da (i) Wegen v  v D 0 2 U für alle v 2 V gilt v  v für
man einen Basisvektor b nämlich stets durch  b mit  2 alle v 2 V .
K n f0g ersetzen kann, man erhält so wieder eine Basis. (ii) Da mit jedem Element u 2 U auch u in U liegt,
folgt aus v  w, d. h v  w 2 U , auch w  v 2 U ,
v Antwort 4.9 ˝ ˛
d. h w  v.
1. Nein, der R2 ist keine Basis von R2 D R2 . (iii) Da mit je zwei Elementen aus U auch deren Summe
2. Ja, jede linear unabhängige Menge X ist Basis in U liegt, folgt aus u  v und v  w, d. h. u  v; v 
von hXi. w 2 U sogleich u  w 2 U , d. h. u  w.
121 5

Analytische Geometrie –
Rechnen statt Zeichnen

Inhaltsverzeichnis

5.1 Punkte und Vektoren im Anschauungsraum – 122

5.2 Das Skalarprodukt im Anschauungsraum – 126

5.3 Weitere Produkte von Vektoren im Anschauungsraum – 134

5.4 Abstände zwischen Punkten, Geraden und Ebenen – 143

5.5 Wechsel zwischen kartesischen Koordinatensystemen – 152

Aufgaben – 164

Antworten zu den Selbstfragen – 166

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_5
122 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

n Sie finden unter anderem Antworten zu . . . schen Funktionen im Sinn ihrer geometrischen Definition.
4 Was bedeutet die Koordinateninvarianz des Vektor- Das Ziel des vorliegenden Kapitels ist es jedenfalls, die Ele-
produkts und des Spatprodukts? ganz und Nützlichkeit der Vektor- und Matrizenrechnung
4 Was versteht man unter der Hesse’schen Normalform im R3 zu demonstrieren. Über das formale Rechnen hinaus
einer Ebene? wollen wir aber die geometrische Bedeutung der einzelnen
4 Wie erfolgt die Umrechnung zwischen einem geozen- Operationen stets im Auge behalten, um auf Verallgemei-
trischen und einem heliozentrischen Koordinatensys- nerungen in späteren Kapiteln vorzubereiten.
tem?

Historisch gesehen hat sich die Geometrie aus einer Idea-


5.1 Punkte und Vektoren
lisierung unserer physikalischen Welt entwickelt. Zunächst im Anschauungsraum
5
war allein die Zeichnung die Grundlage für geometrische
Fragestellungen, für deren Analyse und deren Lösung. Wir haben uns schon in den 7 Kap. 3 und 4 mit dem
Es bedeutete zweifellos einen besonderen Durchbruch, als Anschauungsraum befasst. Damit meinen wir den R3
man begann, geometrische Elemente durch Zahlen zu be- als die geometrische Idealisierung des uns umgebenden
schreiben und damit die zeichnerische Lösung eines Prob- physikalischen Raums. Nach Einführung eines Koordina-
lems durch eine rechnerische zu ersetzen. Dieser für die tensystems im Anschauungsraum sind die Punkte a mit
moderne Wissenschaft so bedeutende Schritt ist vor allem 0 1
a1
René Descartes und Pierre de Fermat zu verdanken und den Koordinatentripeln @a2 A zu identifizieren und als Vek-
führte zur Entwicklung der analytischen Geometrie. Oh- a3
ne diese gäbe es keine Computergrafik, keine Robotik und
toren des Vektorraums R3 aufzufassen. Somit stehen als
keine Raumfahrt, um nur einige wenige unserer heute so
Verknüpfungen die Addition von Punkten und die skalare
selbstverständlichen Errungenschaften zu nennen.
Multiplikation von a mit  2 R zu a zur Verfügung.
Das Verhältnis zwischen Zeichnung und Rechnung hat
Im Folgenden wird gezeigt, dass Vektoren im Anschau-
sich neuerdings geradezu umgekehrt: Wenn heute jemand
ungsraum noch eine andere Bedeutung haben.
auf dem Computer mit Geometrie-Software, also mit „vir-
tuellen Zeicheninstrumenten“ konstruiert, so läuft im Hin-
tergrund die Rechnung ab. Nicht die Rechnung ersetzt die Vektoren im Anschauungsraum können
Zeichnung, sondern jetzt dient die Zeichnung auf dem Bild-
schirm der benutzerfreundlichen Eingabe von Daten und
sowohl Punkte als auch Pfeile bedeuten
Ausgabe von errechneten Resultaten.
In diesem Kapitel konzentrieren wir uns auf die ana- In 7 Kap. 4 wurde die Summe der Vektoren a; c 2 R3 de-
lytische Geometrie des R3 , genauer des dreidimensionalen finiert als
euklidischen Raums. Dies deshalb, weil der R3 unseren 0 1 0 1 0 1
a1 c1 a1 C c1
physikalischen Raum idealisiert und wir uns die notwen-
digen Begriffe geometrisch veranschaulichen können. Die a C c D @a2 A C @c2 A D @a2 C c2 A :
ebene Geometrie ist dabei selbstverständlich enthalten. Mit a3 c3 a3 C c3
der Kenntnis der zwei- und dreidimensionalen Geometrie Dies bedeutet geometrisch, dass im Anschauungsraum je
fällt es uns auch leichter, so manche n-dimensionale Fra- zwei Punkten a; c ein Summenpunkt b D a C c zugeordnet
gestellung oder allgemeine mathematische Prinzipien zu werden kann. Und zwar ergänzt dieser die drei Punkte a, 0
verstehen. und c zu einem Parallelogramm (. Abb. 5.1).
Im R3 gibt es neben der im vorhergehenden Kapitel be-
handelten Vektorraumstruktur noch andere Verknüpfungen,
die eine geometrische Bedeutung haben. Wir werden uns x3 b DaCc
nach einer Analyse der Begriffe Punkt und Vektor vor allem
auf diese zusätzlichen Produkte konzentrieren und deren
geometrische Bedeutung hervorkehren. Mit den zugehöri- a
gen Formeln schaffen wir uns das Werkzeug, um auch die
vorstellungsmäßig oft recht anspruchsvollen Umrechnun-
gen zwischen räumlichen Koordinatensystemen übersicht- x2 c
lich zu gestalten.
Bei unserer Betrachtung des R3 greifen wir gelegent- x1
lich auf die Elementargeometrie zurück, wie sie aus der 0
Schule her bekannt ist. So setzen wir etwa den pythagorei-
schen Lehrsatz oder den Kosinussatz als bekannt voraus. . Abb. 5.1 Die Summe b D a C c der Punkte a und c ergänzt das
Dabei verstehen wir die hier auftretenden trigonometri- Dreieck a 0 c zu einem Parallelogramm
5.1  Punkte und Vektoren im Anschauungsraum
123 5

x3
b

q
a

v p
x2

x1
0

. Abb. 5.2 Der Vektor v ist sowohl gleich b  a als auch gleich q  p

Somit sind alle Punktepaare .a; b/, .p; q/ mit demsel-


ben Differenzvektor
. Abb. 5.3 Eine Äquivalenzklasse gleich langer und gleich orientierter
ba D q p Pfeile ist ein Vektor

Elementepaare ein und derselben Translation. Es liegt nahe,


diese Translation grafisch durch Pfeile darzustellen, deren drei Koordinaten festgelegt. Punkte wie Vektoren werden
Endpunkt b das Bild des jeweiligen Anfangspunkts a ist daher auch auf dieselbe Weise durch fett gedruckte Symbo-
(. Abb. 5.2). le bezeichnet. Dies kann manchmal verwirren.
Dies führt uns im Anschauungsraum zu einer neuen In der Regel ist aus dem Zusammenhang klar, was ge-
Interpretation von Vektoren: Wir verstehen unter einem meint ist: Wenn wir z. B. eine Gerade darstellen als
Vektor v 2 R3 die Gesamtheit der Pfeile, deren Anfangs-
punkt a und Endpunkt b jeweils der Bedingung v D b  a G D fx D a C t u j t 2 Rg;
genügen. Alle diese Pfeile sind gleich lang und gleich ge-
richtet. Kennt man einen, so kennt man alle. so sind a und x Punkte, während u ein Vektor ist
Dahinter steht eine Äquivalenzrelation: Wir nennen (. Abb. 5.4).
zwei Paare .p; q/; .a; b/ 2 .R3 R3 / äquivalent, wenn Zur besseren sprachlichen Unterscheidung werden wir
die durch Pfeile repräsentierten Vektoren auch Richtungs-
qp Dba vektoren nennen. Und den „Punkt p“ nennen wir gele-
gilt. Diese Relation auf R3 R3 ist offensichtlich reflexiv, gentlich auch den „Punkt mit dem Ortsvektor p“. Dabei
symmetrisch und transitiv. Die Äquivalenzklassen heißen verstehen wir unter dem Ortsvektor des Punkts p die
Vektoren des Anschauungsraums. Natürlich ist jeder Vektor Differenz p  0, die repräsentiert wird durch den vom Ko-
v bereits durch einen Repräsentanten eindeutig bestimmt, ordinatenursprung 0 zum Punkt p weisenden Pfeil. Zudem
und so schreiben wir kurz v D b  a 2 R3 . werden wir die Symbole a, b, p, q, x zumeist für Punkte
reservieren und u, v, w und n für Richtungsvektoren.
Kommentar Der Anschauungsraum ist ein affiner Raum Wenn wir auch die Ortsvektoren p; q zweier Punkte
und wird zunächst als Menge von Punkten verstanden. Jede durch Pfeile darstellen, so lässt sich die Bildung der Vektor-
Äquivalenzklasse von Punktepaaren mit derselben Diffe-
renz ist ein Vektor, und diese bilden den zum affinen Raum
gehörigen Vektorraum. x3
Umgekehrt legt jeder Vektorraum V einen affinen Raum
fest als Menge aller affinen Teilräume a C U mit a 2 V G
und U als Untervektorraum von V (siehe 7 Abschn. 4.3).
x D a C tu
Die Punkte des affinen Raums sind die nulldimensionalen u
b
affinen Teilräume fag D a C f0g von V .
a
Der Vektor v D b  a des Anschauungsraums wird also
durch einen Pfeil mit Anfangspunkt a und Spitze b re-
präsentiert, doch kann dieser Pfeil im Raum noch beliebig x2
parallel verschoben werden, ohne dabei den Vektor zu ver-
ändern (. Abb. 5.3). x1
Nun sind im Anschauungsraum sowohl die Punkte, als
auch die durch Pfeile repräsentierten Vektoren jeweils durch . Abb. 5.4 Parameterdarstellung der Geraden G
124 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

x3 Eine Teilmenge A des Vektorraums V heißt affiner Teil-


raum , wenn A darstellbar ist als a C U mit a 2 V und
u v
U als Untervektorraum von V . Wir definieren die Dimensi-
uCv on von A durch die Gleichung dim A D dim U und nennen
v den Unterraum U die Richtung von A. Nachdem es sich bei
u v
U um eine Untergruppe der kommutativen Gruppe .V; C/
u handelt, ist der affine Teilraum A eine Nebenklasse von U
0 p
im Sinne von 7 Abschn. 2.1.
x2 Im Folgenden wenden wir uns den ein- und zweidimen-
sionalen affinen Teilräumen des Anschauungsraums R3 zu,
x1
5 den Geraden und Ebenen.
. Abb. 5.5 Summe u C v und Differenz u  v von Richtungsvektoren

Affin- und Konvexkombinationen im R3


summe p C q auch ohne das Parallelogramm in . Abb. 5.1 als spezielle Linearkombinationen
geometrisch beschreiben. Wir können nämlich einheitlich
formulieren:
Zwei Vektoren werden addiert, indem zugehörige Pfeile Wir betrachten die Gerade G D a C Ru, also ausführlich
aneinandergehängt werden. Zur Bestimmung der Differenz
zweier Vektoren wählen wir zwei repräsentierende Pfeile G D fx D a C t u j t 2 Rg:
mit demselben Anfangspunkt und legen dann den Dif-
ferenzvektor als Pfeil nach der Regel „Endpunkt minus Ru ist die Richtung dieses affinen Teilraums und u ein
Anfangspunkt“ fest (. Abb. 5.5). Richtungsvektor von G.
Ist b ein weiterer Punkt von G neben a, so können wir
Beispiel Gegeben sind die drei Punkte sagen, G wird von den Punkten a und b aufgespannt, was
0 1 0 1 0 1 man gelegentlich mit dem Symbol G D spanfa; bg aus-
1 4 3 drückt. Wählen wir nun u D b  a als Richtungsvektor von
a D @2A ; b D @3A ; c D @4A : G, so können wir die Punkte x von G auch darstellen als
1 3 2
Gesucht ist derjenige Punkt d, welcher die drei Punkte x D a C .b  a/ D .1  /a C b mit  2 R:
a; b; c zu einem Parallelogramm abcd ergänzt.
Damit diese vier Punkte in der angegebenen Reihenfol- x ist eine sogenannte Affinkombination von a und b, also
ge ein Parallelogramm bilden, müssen die Pfeile von a nach eine Linearkombination, für welche die Summe der ver-
b sowie von d nach c gleich lang und gleich gerichtet sein. wendeten Skalare .1  / C  genau 1 ergibt.
Dies bedeutet Wird zudem  auf 0    1 eingeschränkt, so durch-
läuft x genau die abgeschlossene Strecke von a bis b, und
b  a D c  d; dann heißt die Affinkombination Konvexkombination .
Analog können wir bei den Ebenen vorgehen. Wird die
also
durch den Punkt a gehende Ebene E von den zwei linear
d D a  b C c: unabhängigen Vektoren u und v aufgespannt, so lautet ihre
Parameterdarstellung:
Somit lautet die Lösung:
0 1 0 1 0 1 0 1
1 4 3 0 E D fx D a C u C v j .; / 2 R2 g:
d D @2A  @3A C @4A D @1A :
1 3 2 0 Wir schreiben dafür auch E D p C Ru C Rv (. Abb. 5.6).
Angenommen, E enthält die drei nicht auf einer Gera-
Wir erkennen: Die vier Punkte a b c d bilden genau dann den gelegenen Punkte a, b und c, kurz E D spanfa; b; cg.
in dieser Reihenfolge ein Parallelogramm, wenn gilt: Dann können wir u D b  a und v D c  a setzen, und
a  b C c  d D 0: 9 Punkte x von E sind darstellbar als

? Selbstfrage 5.1 x D a C .b  a/ C .c  a/


Bestimmen Sie den Punkt f , welcher die obigen Punkte D .1    /a C  b C  c
a; b; c zu einem Parallelogramm abf c ergänzt. Beachten
Sie dabei die nun geänderte Reihenfolge. mit .; / 2 R2 . Wieder liegt eine Linearkombination mit
Überprüfen Sie, dass c in der Mitte zwischen f und der Koeffizientensumme 1 vor, und wir können sagen: x
dem vorhin berechneten Punkt d liegt. ist genau dann eine Affinkombination von a, b und c, wenn
5.1  Punkte und Vektoren im Anschauungsraum
125 5
Man nennt die Menge aller Konvexkombinationen ei-
x3
ner gegebenen Punktmenge M auch die konvexe Hülle von
M und verwendet dafür das Symbol conv M . Die konvexe
Hülle enthält mit je zwei verschiedenen Punkten a; b auch
deren konvexe Hülle convfa; bg, also die davon begrenz-
te Strecke. Mengen mit dieser Eigenschaft heißen konvex.
v c
E Somit ist die konvexe Hülle conv M eine M umfassende
a konvexe Menge.
Analog heißt die Menge der Affinkombinationen von
u
b
M auch affine Hülle span M der Punktmenge M .

x2 Beispiel Nach dem Beispiel von vorhin bilden die vier


Punkte
0 1 0 1 0 1 0 1
x1 1 4 3 0
a D @2A ; b D @3A ; c D @4A ; d D @1A
. Abb. 5.6 Die abgeschlossene Dreiecksscheibe ist gleich der Menge
1 3 2 0
aller Konvexkombinationen von a, b und c, kurz: D convfa; b; cg
ein Parallelogramm. Berechnen Sie dessen Mittelpunkt m.
Der Mittelpunkt m der Diagonale ac hat die Eigen-
x 2 spanfa; b; cg gilt. Die drei Skalare .; ; / mit der schaft m  a D c  m, also 2m D a C c. Wir erhalten
Bedingung  C  C  D 1 werden manchmal als überzähli- daraus die spezielle Konvexkombinationen
ge Punktkoordinaten in der Ebene E verwendet; sie heißen 1 1
m D .a C c/ D .b C d/;
baryzentrische Koordinaten des Punktes x D aCbCc. 2 2
In Hinblick auf die vorhin betonte Unterscheidung zwi- nachdem a C c D b C d kennzeichnend ist für das Paral-
schen Punkten und Vektoren im Anschauungsraum müssen lelogramm abcd. Durch Einsetzen der obigen Koordinaten
wir festhalten, dass Affinkombinationen auf Punkte anzu- folgt:
wenden sind und wiederum Punkte liefern. 0 1 0 1
4 2
1@ A @ A
mD 2 D 1 : 9
? Selbstfrage 5.2 2 3 3
Beweisen Sie, dass eine Affinkombination von Affinkom- 2

binationen wieder eine Affinkombination ist und dass die


?Selbstfrage 5.3
analoge Eigenschaft für Konvexkombinationen gilt.
Welche der folgenden Aussagen ist richtig?
4 Liegt der Punkt x auf der Verbindungsgeraden von a
Welche Punktmenge ist nun durch die Menge aller Kon-
und b, so ist x eine Linearkombination von a und b.
vexkombinationen von a, b und c beschrieben, wenn diese
4 Jede Linearkombination von a und b stellt einen
Punkte nach wie vor nicht auf einer Geraden liegen? Wir
Punkt der Verbindungsgeraden ab dar.
untersuchen also

D fy D  a C  b C  c j ; ;   0 ?Selbstfrage 5.4
Gegeben sind drei Punkte a; b; c. Deren arithmetisches
und  C  C  D 1g:
Mittel s D 13 .a C b C c/ ist der Schwerpunkt des Punkte-
ist jedenfalls eine Teilmenge von E D spanfa; b; cg. Bei tripels.
 D 0 ist  C  D 1 und daher y ein Punkt der abgeschlos- 4 Angenommen, die drei Punkte a; b; c bilden ein Drei-
senen Strecke ab. Bei  > 0 liegt y D a C .b  a/ C eck. Warum liegt s stets im Inneren dieses Dreiecks?
.c  a/ innerhalb E auf derjenigen Seite der Geraden ab, 4 Zeigen Sie, dass s auf der Verbindungsgeraden von c
welcher auch c angehört. Analog folgt aus   0, dass y in mit dem Mittelpunkt von a und b liegt.
E entweder der abgeschlossenen Strecke ac angehört oder
auf derselben Seite der Geraden ac liegt wie b. Schließlich
können wir auch schreiben:
Im Anschauungsraum ist zwischen Rechts-
und Linkssystemen zu unterscheiden
y D b C .c  b/ C .a  b/;

und bei  > 0 liegen a und y auf derselben Seite von Wollen wir unsere physikalische Welt mathematisch be-
bc. ist somit gleich der Menge aller Punkte der ab- schreiben, so müssen wir auch Distanzen und Winkel
geschlossenen Dreiecksscheibe, also der Punkte, die bei messen können. Was wir schon bisher stillschweigend an-
; ;  > 0 im Dreiecksinneren und sonst auf dem Rand genommen haben, soll nun besonders betont werden: Wir
liegen (. Abb. 5.6). verwenden im Folgenden ausschließlich Koordinatensyste-
126 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

. Abb. 5.7 Das orthonormierte b3 Punkte, Vektoren und ihre Koordinaten


Rechtskoordinatensystem .oI B/

Obwohl wir die Punkte und Vektoren vorhin über ihre


Koordinaten eingeführt haben, werden wir den in der Theo-
b2 rie der Vektorräume üblichen Standpunkt einnehmen: Die
Punkte und Vektoren sind geometrische Objekte unseres
o C90ı Raums, und diese existieren von vornherein. In diesem
Raum können Koordinatensysteme willkürlich festgelegt
b1 werden. So kommt es, dass ein und derselbe Punkt oder
Vektor je nach Wahl des Koordinatensystems verschiedene
5 Koordinaten hat.
me, deren Basisvektoren fb1 ; b2 ; b3 g orthonormiert, d. h. Bei dieser Gelegenheit erinnern wir an 7 Kap. 4: Ist B
paarweise orthogonal und von der Länge 1 sind. Derartige eine geordnete Basis des n-dimensionalen K-Vektorraums
Koordinatensysteme heißen nach René Descartes karte- V , so ist jeder Vektor v 2 V eindeutig als Linearkombina-
sisch. Ist o der Koordinatenursprung und B D .b1 ; b2 ; b3 / tion
die geordnete Basis, so bezeichnen wir das Koordinaten-
system kurz mit dem Symbol .oI B/. v D v1 b1 C    C vn bn
Zudem fordern wir, dass die Basisvektoren in der Rei-
henfolge .b1 ; b2 ; b3 / ein Rechtssystem bilden, d. h. sich ihre von B darstellbar. Wir nennen die verwendeten Skalare
Richtungen der Reihe nach durch den Daumen, Zeigefin- v1 ; : : : ; vn die B-Koordinaten von v und schreiben das
ger und Mittelfinger der rechten Hand angeben lassen. Man n-Tupel .v1 ; : : : ; vn / 2 Kn als Spaltenvektor. Für diesen
spricht dann auch von einem kartesischen Rechtssystem. Koordinatenvektor benutzen wir gelegentlich das Symbol
Häufig werden wir uns den dritten Basisvektor und damit
B v, wenn ausdrücklich auch die zugrunde liegende Basis
die dritte Koordinatenachse lotrecht, und zwar nach oben hervorgehoben werden soll.
weisend vorstellen. Dann liegen b1 und b2 horizontal. Von Im Fall des Anschauungsraums V D R3 können wir
oben gesehen erfolgt die Drehung von b1 nach b2 durch 90ı B D .b1 ; b2 ; b3 / setzen. Dann lautet der Vektor B u der
im mathematisch positiven Sinn (. Abb. 5.7). B-Koordinaten des Vektors u 2 R3 :
Spiegelbilder von Rechtssystemen sind Linkssyste-
0 1
me. Hier folgen die drei Basisvektoren aufeinander wie u1
Daumen, Zeigefinger und Mittelfinger der linken Hand B u D u2
@ A
(. Abb. 5.8). u3
Wir werden die Bezeichnung Rechtssystem später auch
ausdehnen auf drei Vektoren, die nicht paarweise orthogo- ” u D u1 b1 C u2 b2 C u3 b3 : (5.1)
nal sind, die aber trotzdem der Rechten-Hand-Regel folgen.
Dabei dürfen wir voraussetzen, dass die von zwei Fingern Wenn wir von einem Koordinatensystem .oI B/ für Punkte
eingeschlossenen Winkel zwischen 0ı und 180ı liegen. sprechen, so spielt auch die Wahl des Ursprungs o eine Rol-
le. Wir schreiben daher .oIB/ x, wenn wir ausdrücklich die
? Selbstfrage 5.5 Koordinaten des Punkts x bezüglich des genannten Koor-
Angenommen, wir stellen ein Rechtssystem „auf den dinatensystems meinen, und diese sind wie folgt definiert:
Kopf“, d. h., wir verdrehen es derart, dass der dritte Basis-
0 1
vektor nach unten weist. Wird das Rechtssystem dadurch x1
zu einem Linkssystem? .oIB/ x D
@ x 2A
x3
” x D o C x1 b1 C x2 b2 C x3 b3 : (5.2)
b1
b1

b2 b2 5.2 Das Skalarprodukt


b3
im Anschauungsraum
b3

Neben der Addition und skalaren Multiplikation gibt es


im Anschauungsraum noch weitere nützliche Verknüpfun-
. Abb. 5.8 Merkregel für die Anordnung der Basisvektoren: b1 = Dau-
gen. Das im Folgenden behandelte Skalarprodukt kann
men, b2 = Zeigefinger, b3 = Mittelfinger, wie wenn man mit den Fingern auf beliebige Dimensionen verallgemeinert werden (siehe
„1,2,3“ zählt. Die rechte Hand bestimmt ein Rechtssystem, die linke ein 7 Kap. 9). Zunächst aber interessiert uns vor allem seine
Linkssystem geometrische Bedeutung.
5.2  Das Skalarprodukt im Anschauungsraum
127 5

Definition des Skalarprodukts und der Norm x3


im Anschauungsraum

Definition des Skalarprodukts


b3 a3
1 v 2 R mit kartesischen Koordi-
3
Für je0 0 u;
zwei1Vektoren
u1 v1
B C B C a
naten @u2 A bzw. @v2 A lautet das Skalarprodukt
x2
u3 v3

x1
u  v D u1 v1 C u2 v2 C u3 v3 : b2
a2 jb1
a1 j

.
p Abb. 5.9 Die Distanz der Punkte a und b ist ka  bk D
Dieses Produkt legt eine Abbildung
.a1  b1 /2 C .a2  b2 /2 C .a3  b3 /2 , was sich auch aus dem Satz des
R3 R3 ! R mit .u; v/ 7! u  v Pythagoras ergibt

fest, welche jedem Paar von Vektoren aus R3 eine reelle


Zahl in Form des Skalarprodukts zuweist. Beispiel Als kleines Zahlenbeispiel zwischendurch berech-
Das Skalarprodukt u  v lässt sich auch als Matrizenpro- nen wir für die Vektoren
dukt auffassen, so wie es uns bereits bei den Gleichungs- 0 1 0 1
2 1
systemen in 7 Abschn. 3.2 begegnet ist. Dazu müssen die
u D @1A und v D @ 5A
Koordinaten des ersten Vektors u als Zeile und jene des
zweiten Vektors v als Spalte geschrieben werden: 2 3
0 1
v1 deren Skalarprodukt
u  v D .u u u / @ v2 A D u >
v: (5.3)
„ƒ‚… 1 2 3 „ƒ‚…
Skalarprodukt v3 Matrizenprodukt
u  v D 2  .1/ C .1/  5 C 2  3 D 2  5 C 6 D 1
von Vektoren

Aus Gründen der Einfachheit verwenden wir in (5.3) die sowie die Norm von u:
Symbole u und v links für Vektoren und ebenso rechts für p
kuk D 22 C .1/2 C 22
Matrizen mit drei Zeilen und einer Spalte. Das hochgestell- p p
te > bei u bedeutet die Transponierung, wodurch Zeilen D 4 C 1 C 4 D 9 D 3: 9
mit Spalten vertauscht werden. Deshalb bezeichnet u> eine
1 3 -Matrix. Diese Doppelverwendung der Symbole u und Nachdem das Quadrat der Norm eines Vektors gleich der
v sollte aber kaum zu Schwierigkeiten führen. Der Punkt Quadratsumme seiner Koordinaten ist, gilt:
kennzeichnet jedenfalls das Skalarprodukt von zwei Vek-
toren. Bei der Auffassung als Matrizenprodukt wird kein kuk D 0 ” u D 0: (5.4)
Verknüpfungssymbol verwendet.
Eine weitere wichtige Formel zur Norm lautet:
Auf dem Skalarprodukt eines Vektors mit sich selbst be-
ruht die Definition der Norm oder Länge kuk D jj kuk: (5.5)
q p
kuk D u21 C u22 C u23 D u  u; Beweis Es ist kuk2 D .u/  .u/ D 2 .u  u/. 
die oft auch Standardnorm des R3 genannt wird. Die Ab-
bildung
Normieren von Vektoren
R3 ! R0 mit u 7! kuk Jeder Vektor u ¤ 0 lässt sich durch skalare Multiplikation
ordnet jedem Richtungsvektor die gemeinsame Länge der gemäß
repräsentierenden Pfeile zu, denn bei u D a  b ist
1
b
uD u
kuk D ka  bk kuk
p
D .a1  b1 /2 C .a2  b2 /2 C .a3  b3 /2 in einen Vektor mit der Norm 1, also in einen Einheits-
genau die Distanz der Punkte a und b, wie anhand des vektor bu transformieren. Wir sagen dazu, wir normieren
Satzes von Pythagoras (. Abb. 5.9) sofort zu erkennen ist. den Vektor u.
Anstelle von uu schreibt man übrigens auch manchmal u2 .
128 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

x3 x3

pC
v u
v
v uC
v
p u
v p
u
v v
u u
pC
5 u
x2 x2

x1 x1

. Abb. 5.10 Der verallgemeinerte Satz des Pythagoras ku  vk2 D . Abb. 5.11 Die Parallelogrammgleichung liefert eine Beziehung zwi-
kuk2 C kvk2  2 .u  v/ gilt auch für nicht rechtwinklige Dreiecke schen den Längen der Seiten und der Diagonalen eines Parallelogramms

Beweis Mit (5.5) ist Beweis Wir nutzen die Bilinearität und die Symmetrie des
ˇ ˇ Skalarprodukts, um den Ausdruck auf der linken Seite wie
ˇ 1 ˇ
uk D ˇˇ
kb ˇ kuk D 1 kuk D 1: folgt umzuformen:
kuk ˇ kuk
.u  v/  .u  v/ D u  u  u  v  v  u C v  v
b
u behält die Richtung von u ¤ 0 bei. 
D u  u C v  v  2 .u  v/:
Kommentar Es gibt viele verschiedene Normen in der Ma- Auf der rechte Seite treten offensichtlich, wie behauptet,
thematik (siehe auch 7 Kap. 9). Die hier definierte heißt die Quadrate der Normen auf. 
Standardnorm oder 2-Norm. Für alle Normen gelten die zu
(5.4) und (5.5) analogen Gleichungen und dazu noch die Eine weitere Konsequenz der Bilinearität ist die folgen-
später folgende Dreiecksungleichung. de Parallelogrammgleichung:
ku C vk2 C ku  vk2 D 2 .kuk2 C kvk2 /: (5.6)
Das Skalarprodukt ist offensichtlich symmetrisch, d. h.,
?Selbstfrage 5.6
u  v D v  u: Beweisen Sie die Parallelogrammgleichung.
Zudem ist das Skalarprodukt linear in jedem Anteil und da- Diese Gleichung besagt in Worten: In jedem Parallelo-
mit bilinear, d. h., gramm ist die Quadratsumme der beiden Diagonalenlängen
.u1 C u2 /  v D .u1  v/ C .u2  v/; gleich der Quadratsumme der vier Seitenlängen.
Dabei wird das Parallelogramm von den Punkten p,
.u/  v D .u  v/
p C u, p C u C v und p C v gebildet (siehe . Abb. 5.11
und analog für v. Später im 7 Kap. 9 werden wir Skalarpro- und auch . Abb. 5.5). Wir nennen dieses das von u und v
dukte auch in anderen Vektorräumen definieren und dabei aufgespannte Parallelogramm, obwohl es wegen der freien
zunächst nur die Bilinearität und Symmetrie fordern. Das Wahl der ersten Ecke p unendlich viele derartige Par-
hier definierte wird auch als kanonisches Skalarprodukt be- allelogramme gibt, die alle durch Parallelverschiebungen
zeichnet. auseinander hervorgehen.

?Selbstfrage 5.7
Beispiel Wir beweisen die Formel
Bestätigen Sie, dass je zwei der folgenden vier Punkte
ku  vk D kuk C kvk  2 .u  v/:
2 2 2 a1 ; : : : ; a4 (siehe . Abb. 5.18) mit
0 1 0 1
˙2 0
Diese Formel wird manchmal verallgemeinerter Satz des B C B C
a1;2 D @ 0A ; a3;4 D @ ˙2A
Pythagoras genannt, weil damit in dem Dreieck der Punkte p p
2  2
p, p C u und p C v (. Abb. 5.10) die Länge der dem
Punkt p gegenüberliegenden Seite berechnet werden kann. dieselbe Distanz 4 einschließen. Welches Dreieck bilden
Wir können bereits erraten, warum bei u  v D 0 genau der demnach je drei dieser Punkte, welche geometrische Figur
Satz des Pythagoras übrig bleibt. 9 alle vier Punkte zusammengenommen?
5.2  Das Skalarprodukt im Anschauungsraum
129 5
Das Skalarprodukt hat eine geometrische b
Bedeutung v

Wir wenden uns nun der Frage zu, welcher Wert eigentlich a c
hb
mit dem Skalarprodukt ausgerechnet wird. Dazu tragen wir
vom Anfangspunkt c die Vektoren u und v ab und erhalten
die Punkte c a
b u
a D c C u und b D c C v:
. Abb. 5.12 Der Kosinussatz c 2 D a2 C b 2  2 a b cos
Für die Distanz der Endpunkte a und b gilt:
Wir haben das Skalarprodukt mithilfe eines Koordinaten-
ka  bk2 D .u  v/  .u  v/ D
systems berechnet, doch ist letzteres natürlich willkürlich
D kuk2 C kvk2  2.u  v/ D festsetzbar. Ein Wechsel des Koordinatensystems bewirkt
D ka  ck2 C kb  ck2  2 .u  v/: eine Änderung der Koordinaten von u und v. Dass trotzdem
der Wert u1 v1 C u2 v2 C u3 v3 unverändert bleibt, folgt aus
Das ist offensichtlich wieder der bereits oben behandelte der obigen geometrischen Deutung. Das Skalarprodukt u v
verallgemeinerte Satz des Pythagoras, den wir nun in der ist also eine geometrische Invariante, d. h. unabhängig von
Form der Wahl des kartesischen Koordinatensystems, und dies
beweist letztlich erst die Sinnhaftigkeit der obigen Defini-
2 .u  v/ D ka  ck2 C kb  ck2  ka  bk2 tion.
Aus unserer geometrischen Interpretation des Skalar-
schreiben. Wir vergleichen dies mit dem aus der Elementar- produkts folgt als Formel für die Berechnung des Winkels '
geometrie her bekannten Kosinussatz für das Dreieck abc, zwischen je zwei vom Nullvektor verschiedenen Vektoren
indem wir wie üblich die Seitenlängen mit a; b; c und die u und v:
jeweils gegenüberliegenden Innenwinkel mit ˛, ˇ und be-
zeichnen (. Abb. 5.12). uv
cos ' D :
Der Kosinussatz lautet: kuk kvk

c 2 D a2 C b 2  2 a b cos : ?Selbstfrage 5.8


Berechnen Sie den Winkel ' zwischen den Vektoren
Er lässt sich beweisen, indem man das Dreieck durch die
0 1 0 1
Höhe auf b zerlegt und aus einem der rechtwinkligen Teil- 1 0
dreiecke die Seitenlänge c berechnet als B C B C
u D @0A und v D @1A :
1 1
c 2 D h2b C .b  a cos /2
D .a sin /2 C .b  a cos /2 :

Wir stellen fest, dass sich in der Gleichung Kartesische Punkt- und Vektorkoordinaten
sind Skalarprodukte
2 a b cos D a2 C b 2  c 2

der Ausdruck auf der rechten Seite nur in der Bezeich- Es gibt aber noch weitere wichtige Folgerungen: Das Pro-
nungsweise unterscheidet von der rechten Seite der obigen dukt kuk kvk cos ' ist genau dann gleich null, wenn min-
Formel für 2 .u  v/. Damit folgt die destens einer der drei Faktoren verschwindet. Dabei tritt
cos ' D 0 nur bei ' D 90ı oder ' D 270ı ein. Dies bedeu-
tet:
Geometrische Deutung des Skalarprodukts
Das Skalarprodukt gibt den Wert
Verschwindendes Skalarprodukt
u  v D kuk kvk cos ' (5.7) Das Skalarprodukt u  v verschwindet genau dann, wenn
entweder einer der beteiligten Vektoren der Nullvektor ist
an, wobei ' der von u und v eingeschlossene Winkel ist oder die beiden Vektoren u und v zueinander orthogonal
mit 0ı  '  180ı . sind.
130 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

? Selbstfrage 5.9
Gegeben sind die Gerade G D fx D a C t u j t 2 Rg Kartesische Vektorkoordinaten als Skalarprodukte
und der Punkt b. Beweisen Sie, dass der von b zum Punkt Ist die Basis B D .b1 ; b2 ; b3 / orthonormiert, so gilt für
f D a C .ba/u
uu
u 2 G weisende Vektor zu u orthogonal die zugehörigen Koordinaten des Vektors u:
ist. f ist somit der Fußpunkt der aus b an G legbaren
0 1
Normalen. u1
B C ui D u  b i
B u D @u2 A ” (5.9)
Die Basisvektoren b1 ; b2 ; b3 kartesischer Koordinatensys- für i D 1; 2; 3:
u3
teme sind paarweise orthogonale Einheitsvektoren. Also
gilt z. B. b1  b1 D 1 sowie b1  b2 D b1  b3 D 0. Derartige
5 Basen heißen orthonormiert , und wir können all die defi-
nierenden Gleichungen mithilfe des Kronecker-Deltas ıij BeweisP3 Wir multiplizieren beide Seiten der Gleichung u D
in einer einzigen Gleichung zusammenfassen: i D1 u i bi skalar mit dem Vektor bj und erhalten:
 !
1 bei i D j; X
3 X
3
bi  bj D ıij D (5.8)
0 bei i ¤ j: u  bj D ui b i  bj D ui .bi  bj /
i D1 i D1
Wir werden diese wichtige Gleichung noch mehrfach ver- X 3
wenden. Sie gilt insbesondere für die Standardbasis oder D ui ıij D uj
kanonische Basis E des R3 bestehend aus i D1
0 1 0 1 0 1
1 0 0 für j D 1; 2; 3. 
e 1 D @0A ; e 2 D @1A ; e 3 D @0A :
0 0 1 Beispiel Zeigen Sie, dass die durch ihre kartesischen Ko-
ordinaten gegebenen Vektoren
Ein weiterer Sonderfall der geometrischen Deutung des
0 1 0 1 0 1
Skalarprodukts verdient hervorgehoben zu werden: 1 2 2
1@ A 1@ A 1@ A
b1 D 2 ; b2 D 1 ; b3 D 2
Folgerung Bei kvk D 1 gibt u  v D kuk cos ' die vorzei- 3 2 3 2 3 1
chenbehaftete Länge des orthogonal auf den Einheitsvektor
v projizierten Vektors u an (. Abb. 5.13).
eine orthonormierte Basis B bilden, und berechnen Sie die
Koeffizienten u1 ; u2 ; u3 in der Darstellung
Die durch uv definierte Länge ist genau dann positiv, wenn
cos ' > 0 ist und daher der orthogonal auf v projizierte 0 1
1
Vektor u in dieselbe Richtung weist wie v.
u D @1A D u1 b1 C u2 b2 C u3 b3 :
Dies führt uns dazu, auch die kartesischen Koordinaten
1
als Skalarprodukte zu interpretieren.

Es ist für jedes i 2 f1; 2; 3g

x3 1p
kbi k D 1 C 4 C 4 D 1:
3

Zudem gilt:

u b1  b2 D b1  b3 D b2  b3 D 0:
1 v
Somit sind die Bedingungen (5.8) für die Orthonormiertheit
u v von B erfüllt, und wir können zweckmäßig (5.9) benutzen,
um die Koordinaten des Vektors u bezüglich B als Skalar-
x2 produkte zu berechnen:

1 5 1
x1 u1 D u  b1 D ; u2 D u  b2 D ; u3 D u  b3 D :
3 3 3

. Abb. 5.13 Bei kvk D 1 gibt u  v die vorzeichenbehaftete Länge der Als Kontrolle empfiehlt P
es sich natürlich zu überprüfen,
Orthogonalprojektion von u auf den Einheitsvektor v an dass nun tatsächlich u D 3iD1 ui bi gilt. 9
5.2  Das Skalarprodukt im Anschauungsraum
131 5
Die eben gezeigte Art der Berechnung der Vektorkoordi- b3
naten ist um Vieles einfacher als die Standardmethode,
die ui als Unbekannte anzusehen und aus jenem linea-
ren Gleichungssystem zu ermittelt, welches sich durch die
koordinatenweise Aufsplittung der Vektorgleichung u D
P 3
i D1 ui bi ergibt. Doch nur bei kartesischen Koordinaten-
x
systemen sind die Vektorkoordinaten zugleich Skalarpro-
dukte mit den Basisvektoren. x o
b2
Als Gegenbeispiel betrachten wir die offensichtlich u
nicht orthonormierte R3 -Basis B bestehend aus
o
0 1 0 1 0 1
1 0 1
@ @
b1 D e 1 D 0 ; b2 D e 2 D 1 ; b3 D 1A :
A A @
0 0 1
b1
Bei der Wahl u D e 3 D b1  b2 C b3 ist
0 1 . Abb. 5.14 Kartesische Koordinaten von Vektoren und Punkten sind
1 Skalarprodukte
@ A
B u D 1 ; aber u  b1 D u  b2 D 0:
1
Skalarprodukt zur Erklärung der Längen- und Winkelmes-
Kommentar In 7 Kap. 6 wird gezeigt, dass bei endlichdi- sung. Diese logisch höchst bedenkliche Vorgehensweise
mensionalen Vektorräumen die Abbildung der Vektoren v kommt daher, weil wir in diesem Abschnitt ein mathemati-
auf deren i-te B-Koordinate linear ist, und zwar ein Ele- sches Modell für unsere physikalische Umwelt entwickeln
ment bi der zur Basis B dualen Basis B . Im Sonderfall und von intuitiv vorhandenen Begriffen ausgehen.
einer orthonormierten Basis B gilt bi W v 7! .bi  v/. Später in 7 Kap. 9 vermeiden wir derartige Zirkel-
schlüsse: Wir werden in allgemeinen Vektorräumen ein
Analog zur Berechnung der Vektorkoordinaten sind auch Skalarprodukt definieren, indem wir dessen wichtigste Ei-
die Koordinaten eines Punkts x bezüglich eines kartesi- genschaften per Definition fordern. Und darauf bauen wir
schen Koordinatensystems mit dem Ursprung o und den dann erst eine Längen- und Winkelmessung auf.
Basisvektoren b1 ; b2 ; b3 als Skalarprodukte auszudrücken,
nämlich:
Die Dreiecksungleichung und andere
wichtige Formeln
Kartesische Punktkoordinaten als Skalarprodukte
Ist .oI B/ ein kartesisches Koordinatensystem, so gilt für Hinsichtlich der Norm gilt die
die zugehörigen Koordinaten des Punkts x:
0 1
x1
B C xi D .x  o/  bi Cauchy-Schwarz’sche Ungleichung
.oIB/ x D @x2 A ” (5.10)
für i D 1; 2; 3:
x3 ju  vj  kuk kvk:

Dabei gilt Gleichheit genau dann, wenn die Vektoren u


Dass die kartesischen Koordinaten von Punkten und Vek- und v linear abhängig sind.
toren als Skalarprodukte berechenbar sind, wird auch aus
. Abb. 5.14 klar. Zur Begründung muss man sich nur da-
ran erinnern, dass mit . Abb. 5.13 das Skalarprodukt mit Beweis Diese Ungleichung ist trivialerweise richtig bei
einem Einheitsvektor genau die Länge des auf diesen Ein- u D 0 oder bei v D 0. Bei u; v ¤ 0 gilt für den von u
heitsvektor orthogonal projizierten Vektors angibt. und v eingeschlossenen Winkel '

Kommentar Dem aufmerksamen Leser wird nicht entgan- u  v D kuk kvk cos ';
gen sein, dass wir noch vor der Definition des Skalarpro-
dukts die Orthogonalität und Längenmessung als bekannt also
vorausgesetzt haben, um damit ein kartesisches Koordi-
natensystem zu erklären. Und jetzt verwenden wir das ju  vj D kuk kvk j cos 'j  kuk kvk:
132 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Damit besteht Gleichheit genau bei j cos 'j D 1, also ' D


0ı oder ' D 180ı .
Wir werden feststellen, dass diese Ungleichung auch
noch unter viel allgemeineren Bedingungen gilt. Deshalb
wird für v ¤ 0 noch eine zweite Beweismöglichkeit ge-
zeigt:
uC
Für alle Linearkombinationen u C v von u und v gilt v c
a
v
ku C vk2 D 2 kuk2 C 2.u  v/ C 2 kvk2  0:
u
b
Wir betrachten diejenige Linearkombination, welche den
5 Fußpunkt f der aus dem Ursprung auf die Gerade G D
u C R v legbaren Normalen ergibt, also den Fall
uv
 D 1 und  D  :
vv . Abb. 5.15 Die Dreiecksungleichung ku C vk  kuk C kvk im An-
schauungsraum
Dann folgt für f D u C v:

uv .u  v/2 Die Bezeichnung „Dreiecksungleichung“ erklärt sich


kf k2 D kuk2  2 .u  v/ C .v  v/
vv .v  v/2 aus dem Dreieck der Punkte a, b D aCu und c D aCuCv
.u  v/2 (. Abb. 5.15). Die Ungleichung besagt nun die offensicht-
D kuk2   0; liche Tatsache, dass der geradlinige Weg von a nach c
kvk2
niemals länger ist als der „Umweg“ über b, wo immer auch
also kuk2 kvk2  .u  v/2 und damit weiter die Cauchy- der Punkt b liegen mag.
Schwarz’sche Ungleichung. Nur bei f D 0 besteht Gleich- Wir können die Dreiecksungleichung auch in der Form
heit. Genau dann geht die Gerade G durch den Ursprung,
ka  ck  ka  bk C kb  ck
und die beiden Vektoren u, v sind linear abhängig, denn
eine nicht triviale Linearkombination u C v ergibt den
schreiben. Dabei besteht Gleichheit genau dann, wenn b
Nullvektor. 
der abgeschlossenen Strecke convfa; cg angehört, wenn
also (. Abb. 5.15) u und v linear abhängig sind bei
Von der Cauchy-Schwarz’schen Ungleichung können wir
u  v  0.
auf die folgende wichtige Ungleichung schließen.
Kommentar Wir haben bereits betont, dass Normen auch
in viel allgemeineren Vektorräumen definierbar sind. Doch
Dreiecksungleichung werden in der Regel nur derartige Normen zugelassen,
für welche die Cauchy-Schwarz’sche Ungleichung und die
ku C vk  kuk C kvk: Dreiecksungleichung gelten. In diesen Vektorräumen kann
man dank der Cauchy-Schwarz’schen Ungleichung die For-
mel cos ' D kukuvkvk weiterhin zur Messung der Winkel
Beweis Aus verwenden (siehe 7 Kap. 9).

ku C vk2 D .u C v/  .u C v/ Der Anschauungsraum R3 wird durch die Definition der


Distanz d.a; b/ D ka  bk 2 R0 mit
D kuk2 C kvk2 C 2.u  v/
d.a; b/ D d.b; a/ und d.a; b/ D 0
und der Cauchy-Schwarz’schen Ungleichung
” aDb
u  v  ju  vj  kuk kvk
und durch die Gültigkeit der Dreiecksungleichung zum
folgt: Musterbeispiel eines metrischen Raums (siehe Grundwis-
senbuch, Kapitel 19).
ku C vk2  kuk2 C kvk2 C 2kuk kvk D .kuk C kvk/2 ; In der folgenden Box wird gezeigt, dass das unseren Na-
vigationssystemen zugrunde liegende Global Positioning
und das ergibt die Dreiecksungleichung.  System auf Distanzmessungen beruht.
5.2  Das Skalarprodukt im Anschauungsraum
133 5

Hintergrund und Ausblick: Die Geometrie hinter dem Global Positioning System (GPS)

Das Global Positioning System (GPS) hat die Aufgabe, je- sen die vier Unbekannten die vier quadratische Gleichungen
dem Benutzer, der über ein Empfangsgerät verfügt, dessen
genaue Position auf der Erde mitzuteilen, wo auch immer er qi .x; d0 / D .si  x/2  .di  d0 /2 D 0
sich befindet. In der gegenwärtigen Form beruht das amerika- oder ausführlich
nische GPS auf rund 30 Satelliten, welche die Erde ständig
umkreisen und derart auf sechs Bahnebenen verteilt sind, dass x  x  2.s i  x/ C si  si  d02 C 2di d0  di2 D 0 ( )
mit Ausnahme der polnahen Gebiete für jeden Punkt der Er-
de stets mindestens vier Satelliten über dem Horizont liegen. erfüllen. Wir zeigen, dass sich dieses nichtlineare Gleichungs-
Jeder Satellit Si , i 2 f1; 2; : : : g, kennt zu jedem Zeitpunkt sei- system über R auf drei lineare und eine einzige quadratische
ne genaue Raumposition si und teilt seine Bahndaten laufend Gleichung zurückführen lässt:
den Empfängern per Funk mit. Wir subtrahieren von der ersten Gleichung die Gleichun-
Andererseits kann das Empfangsgerät die scheinbare Dis- gen 2, 3 und 4 und erhalten:
tanz di zwischen seiner Position x und der augenblicklichen q1 .x; d0 /  qj .x; d0 / D 2.sj  s1 /  x  2.dj  d1 /d0 ( )
Satellitenposition si messen – und zwar erstaunlicherweise
 d12 C dj2 C ks1 k2  ksj k2 D 0
anhand der Dauer, welche das Funksignal vom Satelliten zum
Empfänger braucht. Das ist vereinfacht so zu sehen: Der Sa- für j D 2; 3; 4. Dies sind drei lineare Gleichungen. Wenn für
tellit in der Position si funkt die Zeitansage 8:00 Uhr, und eine Lösung dieses linearen Systems neben
diese trifft beim Empfänger x gemäß dessen Uhr mit einer
gewissen Zeitverzögerung ti ein, woraus durch Multiplika- q1 .x; d0 / D q2 .x; d0 / D q3 .x; d0 / D q4 .x; d0 /
tion mit der Lichtgeschwindigkeit c die scheinbare Distanz
auch noch q1 .x; d0 / D 0 gilt, so sind alle vier quadratischen
ksi  xk D di D c ti folgt. Dabei ist allerdings eine we-
Gleichungen aus ( ) erfüllt.
sentliche Fehlerquelle zu beachten: Während die Atomuhren
Sind die drei linearen Gleichungen in ( ) linear unab-
in den Satelliten sehr genau synchronisiert sind, ist dies bei
hängig, so gibt es nach 7 Abschn. 3.3 eine einparametrige
den Empfängeruhren technisch nicht möglich. Geht etwa die
Lösungsmenge, die wir mithilfe eines Parameters t darstellen
Empfängeruhr um die Zeit t0 vor, so erscheinen alle Distanzen
können in der Form
um dasselbe d0 D c t0 vergrößert. Deshalb lautet die wahre ! ! !
Distanz ksi  xk D di  d0 . x e
x u
D e Ct bei t 2 R:
d0 d0 v

Dabei schreiben wir abkürzend ein Vektorsymbol anstelle des


s2 Koordinatentripels.
s3 Wir setzen diese Lösung in die quadratische Gleichung
q1 .x; d0 / D 0 ein und erhalten als Bedingung für t

ke
x k2 C 2.e
x  u/t C kuk2 t 2  2.s 1  e
x /  2.s 1  u/t C ks1 k2

x De
d 20 C 2e
d 0 vt C v 2 t 2  2d1e
d 0  2d1 vt C d12 :
s1
s4 Nach Potenzen der verbleibenden Unbekannten t geordnet
lautet diese quadratische Gleichung

x  u/  .s1  u/  e
Œkuk2  v 2 t 2 C 2Œ.e d 0 v C d1 vt
C Œke x / C ks1 k2  e
x k2  2.s1  e d 20 C 2d1e
d 0  d12  D 0:

Die zwei Lösungen t1 und t2 dieser Gleichungen sind anstelle


t in der obigen Parameterdarstellung einzusetzen und erge-
ben zwei mögliche Positionen x 1 und x 2 des Empfängers. Die
richtige Lösung ist in der Regel leicht zu identifizieren, weil
grobe Näherungswerte für x vorliegen. Zumeist wird bereits
GPS: Es werden die scheinbaren Distanzen von vier oder mehr Satel- die Information ausreichen, dass sich der Empfänger auf der
liten si zum Empfänger x gemessen
Erdoberfläche aufhält.
Liegen noch weitere Satellitenpositionen samt zugehöri-
Es gibt vier Unbekannte, nämlich die drei Koordinaten gen scheinbaren Distanzen vor, so ist das Gleichungssystem
x1 ; x2 ; x3 von x und den durch die mangelnde Synchronisation . / überbestimmt. Dann aber kann man mittels Methoden der
der Empfängeruhr entstehenden Distanzfehler d0 Q 0. Stehen Ausgleichsrechnung (wie z. B. in 7 Abschn. 10.5) die best-
vier Satellitenpositionen si , i D 1; : : : ; 4, samt zugehörigen approximierende Lösung ermitteln und damit die Genauigkeit
scheinbaren Distanzen di D ksi  xk zur Verfügung, so müs- erhöhen.
134 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

5.3 Weitere Produkte von Vektoren Im Vektorprodukt stecken Determinanten


im Anschauungsraum zweireihiger Matrizen

Es gibt im Anschauungsraum R3 neben dem Skalarprodukt Zu jeder n n -Matrix A über dem Körper K gibt es ei-
noch andere Möglichkeiten, aus Vektoren Produkte mit ei- ne Determinante det A. Es ist dies eine Zahl aus K, die
ner koordinateninvarianten Bedeutung zu berechnen. Die Aufschluss über Eigenschaften der Matrix gibt und gewis-
im folgenden verwendeten Koordinaten beziehen sich aus- se Forderungen erfüllt. So sind etwa die n Spaltenvektoren
schließlich auf kartesische Rechtssysteme. von A genau dann linear unabhängig, wenn det A von null
verschieden ist, und die Determinante ändert ihr Vorzei-
chen, wenn zwei Spalten oder auch zwei Zeilen vertauscht
5 Das Vektorprodukt zweier Vektoren liefert werden.
einen neuen Vektor Unser Ausgangspunkt für die Definition der Determi-
nante im Sonderfall n D 2 ist das folgende Kriterium für
die lineare Abhängigkeit zweier Vektoren:
In vielen geometrischen und physikalischen Anwendungen
   
begegnet man der Aufgabe, einen Vektor zu finden, der or- u1 v1
thogonal ist zu zwei gegebenen u; v 2 R3 mit Lemma Die Vektoren u D und v D aus
0 1 Vektoren0 1 u2 v2
u1 v1 K2 sind genau dann linear abhängig, wenn D D u1 v2 
kartesischen Koordinaten @u2 A bzw. @v2 A. Wir werden u2 v1 D 0 ist.
u3 v3
erkennen, dass das folgende Vektorprodukt eine spezielle Beweis Sind u und v linear abhängig, so ist u D 0 oder v
Lösung für diese Aufgabe bietet. ein Vielfaches von u, also vi D  ui für i D 1; 2. In beiden
Fällen gilt D D 0.
Ist umgekehrt D D 0, so unterscheiden wir drei Fälle:
Definition des Vektorprodukts 4 Bei u1 u2 ¤ 0 können wir durch u1 u2 dividieren. Wir
erhalten v1 =u1 D v2 =u2 . Also ist v ist ein Vielfaches
0 1 0 1 0 1
u1 v1 u2 v3  u3 v2 von u.
Bu C Bv C Bu v  u v C 4 Bei u1 D 0 und u2 ¤ 0 muss auch v1 D 0 sein und
u v D @ 2A @ 2A D @ 3 1 1 3A :
u3 v3 u1 v2  u2 v1 daher ebenfalls v D  u gelten mit  D v2 =u2 . Analog
für u1 ¤ 0 und u2 D 0.
4 Bei u D 0 folgt keinerlei Bedingung für v.

Dieses Produkt, das wegen des Verknüpfungssymbols In allen drei Fällen sind jedenfalls u und v linear
oder wegen der kreuzweisen Berechnung der Koordinaten abhängig. 
oft auch Kreuzprodukt genannt wird, legt eine Abbildung  
a11 a12
Um festzustellen, ob die Matrix 2 K2 2 linear
R3 R3 ! R3 mit .u; v/ 7! u v a21 a22
abhängige Spaltenvektoren hat, muss man also nur überprü-
fest, welche im Gegensatz zum Skalarprodukt je zwei fen, ob a11 a22  a12 a21 D 0 ist. Dabei hat der Ausdruck
Vektoren aus dem R3 nunmehr einen Vektor zuweist. Es auf der linken Seite die zusätzliche Eigenschaft, bei einer
handelt sich also diesmal um eine Verknüpfung im R3 (sie- Vertauschung der beiden Spalten das Vorzeichen zu wech-
he 7 Abschn. 2.1). Auch hier werden wir zeigen können, seln.
dass der Vektor u v mit seinen Faktoren u und v auf eine All dies sind Gründe für die folgende Definition.
vom Koordinatensystem unabhängige Art verbunden ist.
Es genügt für das Berechnen eines Vektorprodukts, sich
die Formel für die erste Koordinate zu merken, denn die ! 2  2-Matrix
Determinante einer
a11 a12
weiteren Koordinaten folgen durch zyklische Vertauschung Ist A D 2 K2 2 , so nennen wir
a21 a22
1 7! 2 7! 3 7! 1.
Die Formeln für die einzelnen Koordinaten werden
besonders einprägsam, wenn man mit dem Begriff der det A D a11 a22  a12 a21 2 K
Determinante einer zweireihigen Matrix vertraut ist. Des-
halb unterbrechen wir hier kurz mit einem Vorgriff auf das die Determinante von A.
7 Kap. 7 über Determinanten.
5.3  Weitere Produkte von Vektoren im Anschauungsraum
135 5
Abkürzend schreiben wir auch gilt
ˇ ˇ  
ˇa11 a12 ˇ
ˇ ˇ D det a11 a12 e1 e 2 D e3; e2 e3 D e1; e3 e1 D e2:
ˇa21 a22 ˇ a21 a22
Andererseits ist wegen der Schiefsymmetrie
und sprechen kurz von einer zweireihigen Determinante
statt von der Determinante einer 2 2 -Matrix.
e2 e 1 D e 3 ; e 3 e 2 D e 1 ; e 1 e 3 D e 2 : 9
Man kann sich die Formel für eine 2 2 -Matrix leicht
merken: Die Determinante ist gleich der Differenz der
Produkte der Diagonalen, und zwar kurz Hauptdiagonale
minus Nebendiagonale, also: Verschwindendes Vektorprodukt
Es ist u v D 0 genau dann, wenn die Vektoren u und v
a11 a12 C linear abhängig sind.
a11 a12
D
a21 a22 a21 a22

Beweis u v D 0 ist äquivalent zur Aussage


Die drei Koordinaten des Vektors .u v/ sind mit geeigne-
ten Vorzeichen versehene Determinanten. Die zugehörigen
u2 v3  u3 v2 D u3 v1  u1 v3 D u1 v2  u2 v1 D 0:
zweireihigen Matrizen entstehen durch Streichung je einer
Zeile aus der 3 2 -Matrix
Dies bedeutet, wie im obigen Lemma gezeigt, dass die
0 1
u1 v1 durch Weglassung der i-ten Koordinate verkürzten Vekto-
@u2 v2 A ren linear abhängig sind für i D 1; 2; 3.
u3 v3 Sind demnach u und v linear abhängig, d. h., u D 0 oder
v D  u, so trifft dies auch auf die durch Weglassung einer
welche von den Koordinatenspalten der beteiligten Vekto- Koordinate entstehenden Vektoren zu, und es verschwinden
ren u und v gebildet wird. alle drei Determinanten.
Nachdem die Vertauschung der beiden Spalten das Verschwinden umgekehrt die drei Determinanten, so
Vorzeichen aller drei Determinanten ändert, ist das Vek- müssen wir unterscheiden:
torprodukt nicht symmetrisch, sondern schiefsymmetrisch 4 Bei u D 0 besteht jedenfalls die behauptete lineare Ab-
oder alternierend, d. h. es gilt: hängigkeit.
4 Bei u ¤ 0 ist mindestens eine Koordinate von u von
v u D u v: null verschieden. Angenommen, es ist u1 ¤ 0: Dann
gilt für  D uv11 wegen u1 v2  u2 v1 D 0 zugleich v2 D
Beispiel u2 und wegen u3 v1  u1 v3 D 0 auch v3 D u3 und
4 Als erstes Zahlenbeispiel berechnen wir für die Vekto- daher v D  u.
ren 4 Ist bei u ¤ 0 zwar u1 D 0, aber dafür u2 ¤ 0 oder
0 1 0 1 u3 ¤ 0, so gehen wir analog vor mit  D uv22 bzw.  D
2 1 v3
. Wieder folgt v D  u.
u D @1A und v D @ 5A
u3

2 3
u v D 0 hat somit stets die lineare Abhängigkeit von u
und v zur Folge. 
das Vektorprodukt. Es ist
0 1 0 1 Eine Eigenschaft des Vektorprodukts wurde bereits in
2 1
7 Kap. 2 besprochen: Das Vektorprodukt ist nicht assozia-
u v D @1A @ 5A
tiv, d. h. von Sonderfällen abgesehen gilt
2 3
0 1 0 1
.1/  3  2  5 13 .u v/ w¤u .v w/:
D @ 2  .1/  2  3 A D @ 8A :
2  5  .1/  .1/ 9 Als Begründung genügt ein einziges Beispiel, etwa

4 Für die Vektoren der Standardbasis des R3 , also für .e 1 e 2/ e2 D e3 e 2 D e 1 ;


0 1 0 1 0 1
1 0 0 hingegen
e 1 D @0A ; e 2 D @1A und e 3 D @0A ;
0 0 1 e1 .e 2 e 2/ D e 1 0 D 0:
136 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Das Vektorprodukt hat eine geometrische Beweis 1) Wir erkennen durch Ausrechnen, dass
Bedeutung
u  .u v/ D u1 .u2 v3  u3 v2 / C u2 .u3 v1  u1 v3 /
Das Vektorprodukt ist linear in jedem Anteil, denn C u3 .u1 v2  u2 v1 / D 0:

.u1 C u2 / v D .u1 v/ C .u2 v/; Damit ist das vom Nullvektor verschieden vorausgesetzte
.u/ v D .u v/: Vektorprodukt u v zu u orthogonal.
Nach Vertauschung von u mit v folgt:
Mit einiger Mühe lässt sich auch das Vektorprodukt u v
als ein Matrizenprodukt schreiben. Dazu muss allerdings v  .v u/ D v  .u v/ D 0:
5 der erste Vektor u zu einer alternierenden oder schiefsym-
metrischen Matrix S u umgeformt werden, also zu einer Also ist das Vektorprodukt u v auch orthogonal zu v und
quadratischen Matrix, bei der sich die bezüglich der Haupt- wegen der Bilinearität sogar orthogonal zu jeder Linear-
diagonale symmetrischen Einträge ai k und aki genau durch kombination von u und v, also zu allen Vektoren der von
das Vorzeichen unterscheiden. Für die Einträge auf der u und v aufgespannten Ebene.
Hauptdiagonale, also mit k D i, bedeutet dies ai i D ai i Sucht man umgekehrt einen Vektor x, der zu u v or-
und somit ai i D 0. thogonal ist, so müssen dessen 3 Koordinaten eine lineare
Nach den Regeln für die Bildung des Matrizenprodukts homogene Gleichung lösen, deren Koeffizienten nicht al-
ist le null sind. Nach den Ergebnissen von 7 Abschn. 3.3 gibt
0 1 0 1 0 1 es eine zweiparametrige Lösungsmenge. Nachdem u und v
u1 v1 u2 v3  u3 v2
bereits zwei linear unabhängige Lösungen sind, ist x eine
u v D @u2 A @v2 A D @u3 v1  u1 v3 A
Linearkombination von u und v. Somit ist ein verschwin-
u3 v3 u1 v2  u2 v1
0 10 1 (5.11) dendes Skalarprodukt mit u v äquivalent zur linearen
0 u3 u2 v1 Abhängigkeit von u und v.
D @ u3 0 u1 A @v2 A D S u v: 2) Wir bestätigen die Behauptung durch direktes Aus-
u2 u1 0 v3 rechnen, wobei wir zwischendurch einmal geeignet erwei-
tern müssen:
Kommentar Es besteht offensichtlich eine bijektive Ab-
bildung zwischen Vektoren u 2 R3 und den schiefsym- ku vk2 D .u2 v3  u3 v2 /2 C .u3 v1  u1 v3 /2
metrischen dreireihigen Matrizen S u 2 R3 3 . Dies ist
aber wirklich nur im Dreidimensionalen möglich, denn ei- C .u1 v2  u2 v1 /2
ne schiefsymmetrische n-reihige Matrix enthält n.n  1/=2 D u21 v22 C u21 v32 C u22 v12 C u22 v32 C u23 v12 C u23 v22
unabhängige Einträge, während Vektoren des Rn n Koordi-  2u1 u2 v1 v2  2u1 u3 v1 v3  2u2 u3 v2 v3
naten umfassen.
C u21 v12 C u22 v22 C u23 v32
Bei linear abhängigen Vektoren u und v ist deren Vektor-  u21 v12  u22 v22  u23 v32
produkt gleich dem Nullvektor. Bei linearer Unabhängig-
D .u21 C u22 C u23 /.v12 C v22 C v32 /
keit ist der Vektor u v durch die folgenden Eigenschaften
gekennzeichnet.  .u1 v1 C u2 v2 C u3 v3 /2
D kuk2 kvk2  .kuk kvk cos '/2

Geometrische Deutung des Vektorprodukts D kuk2 kvk2 .1  cos2 '/


1) Sind die Vektoren u und v linear unabhängig, so ist D kuk2 kvk2 sin2 ':
der Vektor u v orthogonal zu der von u und v auf-
gespannten Ebene. Nun betrachten wir das von u und v aufgespannte Paralle-
2) Es gilt: logramm (siehe . Abb. 5.11 und 5.16).
Dessen Flächeninhalt ist nach der Formel „Grundlinie
ku vk D kuk kvk sin ': (5.12) mal Höhe“ zu berechnen. Dabei lesen wir für die Höhe auf
u ab: h D kvk sin '.
Dabei ist ' der von u und v eingeschlossene Winkel Also ist ku vk D kuk kvk sin ' gleich dem Inhalt des
mit 0ı  '  180ı . von u und v aufgespannten Parallelogramms.
ku vk ist somit gleich dem Flächeninhalt des von u 3) Aufgrund der bisher nachgewiesenen geometrischen Ei-
und v aufgespannten Parallelogramms. genschaften des Vektorprodukts u v bleibt nur mehr offen,
3) Die drei Vektoren .u; v; .u v// bilden in dieser nach welcher Seite der Vektor zeigt.
Reihenfolge ein Rechtssystem. Um dies zu klären, denken wir uns das von u
und v aufgespannte Parallelogramm als Kartonscheibe
5.3  Weitere Produkte von Vektoren im Anschauungsraum
137 5

?Selbstfrage 5.10
b3
Beweisen Sie die Aussage: Der Punkt x gehört genau
dann der von u und v aufgespannten Ebene E durch den
u v
Punkt p an (. Abb. 5.16), wenn .x  p/  .u v/ D 0 ist.

Kommentar Im 7 Abschn. 5.5 werden wir erst kennen-


v lernen, wie eine derartige „Verlagerung“ mathematisch
' beschreibbar ist. Die Formeln zeigen dann unmittelbar, dass
p sich bei eine Verlagerung von zwei Vektoren deren Vektor-
u produkt mit verlagert und dass dabei die Eigenschaft, ein
Rechtssystem zu bilden, unverändert bleibt.
E b2
Als Sonderfall halten wir fest: Für die beiden Vektoren
0 1 0 1
b1 u1 v1
u D @u2 A ; v D @v2 A
. Abb. 5.16 Die geometrische Deutung des Vektorprodukts u v 0 0

in der von den Basisvektoren b1 und b2 aufgespannten Ebe-


(. Abb. 5.16). Nun verlagern wir diese im Raum. Und zwar ne gibt die zweireihige Determinante
verlegen wir u in die Richtung des ersten Vektors b1 unse- 0 1
  0
rer kartesischen Basis. Hingegen soll v derart in die von b1 u1 v1
D D det mit u v D 0 A @
und b2 aufgespannte Ebene gelegt werden, dass die zweite u2 v2
D
Koordinate von v positiv ausfällt.
Bei dieser anschaulich vorzustellenden Verlagerung än- den vorzeichenbehafteten Flächeninhalt des von u und v
dern sich die Koordinaten von u und v stetig. Daher ändern aufgespannten Parallelogramms an. Dabei ist dieser Inhalt
sich auch die daraus definitionsgemäß errechneten Koor- genau dann positiv, wenn u, v und der dritte Basisvektor
dinaten des Vektorprodukts u v stetig. Hingegen bleibt b3 ein Rechtssystem bilden. Jetzt erkennen wir „im Hin-
dessen Norm nach 2) unverändert, denn während der Verla- sehen“, was in dem obigen Lemma behauptet wurde, dass
gerung der Kartonscheibe wurden weder die Längen von u nämlich D D 0 die lineare Abhängigkeit der zwei Vektoren
und v, noch der eingeschlossene Winkel ' abgeändert. Am kennzeichnet.
Ende dieses Vorgangs ist
0 1 0 1 ?Selbstfrage 5.11
u1 v1 Beweisen Sie die folgende Aussage: Die drei Punkte
u D @ 0 A ; v D @v2 A mit u1 ; v2 > 0 a; b; c liegen genau dann nicht auf einer Geraden, wenn
0 0 gilt:

und somit .a b/ C .b c/ C .c a/ ¤ 0:
0 1
0 Die geometrischen Deutungen des Skalarprodukts u  v und
u v D @ 0 A: des Vektorprodukts ergeben:
u1 v2
u  v D kuk kvk cos ' und ku vk D kuk kvk sin ':
Also zeigt nach dieser stetigen Verlagerung von u und v Daraus folgt unmittelbar die Gleichung
in die b1 b2 -Ebene das Vektorprodukt u v in die Rich-
tung von b3 . Die Vektoren u, v und u v folgen somit der .u  v/2 C .u v/2 D kuk2 kvk2 :
Rechten-Hand-Regel, wobei wir gegenüber . Abb. 5.8 nur Man beachte: Im ersten Summanden wird eine reelle Zahl
den Winkel zwischen Daumen und Zeigefinger dem ' mit quadriert, dagegen im zweiten Summenden ein Vektor ska-
0  '  180ı anzupassen haben. Wie schon früher ver- lar mit sich selbst multipliziert.
einbart, nennen wir dies weiterhin ein Rechtssystem. Die
genaue Definition von Rechtssystemen folgt nach wenigen
Seiten. Dreireihige Determinanten sind die
Die Eigenschaft, ein Rechtssystem zu bilden, muss Grundlage für ein Produkt dreier Vektoren
bereits vor der Verlagerung bestanden haben, denn die Ste-
tigkeit des Vorgangs, bei dem zudem ku vk ¤ 0 bleibt,
schließt ein plötzliches Umspringen von einem Rechtssys- Bevor wir uns einem weiteren Produkt zuwenden, und zwar
tem zu einem Linkssystem aus.  einem von drei Vektoren, befassen wir uns mit den De-
138 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

terminanten dreireihiger Matrizen. Wir gehen ähnlich wie welches man auch die Regel von Sarrus nennt:
bei den zweireihigen Matrizen vor und können nur darauf C C C
verweisen, dass erst im 7 Kap. 7 das gemeinsame Bil- a11 a12 a13 a13 a11 a12 a13 a11
dungsgesetz aller Determinanten vorgestellt wird. a21 a 22 a23 D a23 a21 a22 a23 a21
Wir beginnen mit einer Kennzeichnung der linearen Ab- a31 a32 a33
a33 a31 a32 a33 a31
hängigkeit von drei Vektoren aus R3 :
Wir fügen rechts den ersten Spaltenvektor an und links
Lemma Die Vektoren u; v; w 2 R3 sind genau dann linear den letzten Spaltenvektor. Dann gibt es zusammen mit
abhängig, wenn D D u  .v w/ D 0 ist. der Hauptdiagonalen drei blaue, nach rechts abfallende
Diagonalen und ebenso drei rote, nach links abfallende
5 Beweis Wir unterscheiden zwei Fälle: Diagonalen, die Nebendiagonale mit eingeschlossen. Nun
4 v und w sind linear unabhängig: werden ähnlich zum zweireihigen Fall die Produkte der
Nun spannen v und w eine Ebene auf, und alle Linear- Einträge in den blauen „Hauptdiagonalen“ addiert und jene
kombinationen von v und w und nur diese, haben ein der roten „Nebendiagonalen“ subtrahiert.
verschwindendes Skalarprodukt mit dem Normalvektor Aber Achtung: Diese Regel gilt nicht für vier- oder
v w. Demnach drückt D D 0 aus, dass u eine Linear- mehrreihige Determinanten, die wir im 7 Kap. 7 einführen
kombination von v und w ist. werden:
4 v und w sind linear abhängig: Die Regel von Sarrus verdeutlicht eine weitere Eigen-
Nun sind auch fu; v; wg linear abhängig, und gleichzei- schaft der Determinante: Wenn wir die Spaltenvektoren von
tig ist v w D 0 und daher auch D D 0. A zyklisch vertauschen, also 1 7! 2 7! 3 7! 1, so rücken
die Haupt- und Nebendiagonalen jeweils nach rechts um ei-
Demnach gilt für beide Fälle: Sind fu; v; wg linear abhän- ne weiter, und die letzte wird zur ersten. Die Determinante
gig, so ist D D 0. Ist umgekehrt D D 0, so sind die 3 bleibt offensichtlich unverändert.
Vektoren linear abhängig. 
Das Spatprodukt dreier Vektoren liefert
In Koordinaten ausgedrückt ist D D u1 .v2 w3  v3 w2 / C
das Volumen des aufgespannten
u2 .v3 w1 v1 w3 /Cu3 .v1 w2 v2 w1 /. Die im Folgenden defi-
nierte Determinante einer 3 3 -Matrix A entsteht aus dem Parallelepipeds
Wert D, indem lediglich die bisherigen Vektoren u; v; w
durch die Spaltenvektoren a1 ; a2 ; a3 von A ersetzt werden. Wir kehren zurück zu den Produkten von Vektoren.

Determinante einer 3 03-Matrix 1 Definition des Spatproduktes


a11 a12 a13
B 0 1 0u; v;
Das Spatprodukt der Vektoren 1w 2 0R3 mit
1 kar-
Ist A D .a1 ; a2 ; a3 / D @a21 a22 a23 C
A 2 K3 3 , so u1 v1 w1
a31 a32 a33 B C B C B C
tesischen Koordinaten @u2 A, @v2 A und @w2 A wird
nennen wir u3 v3 w3
definiert als 0 1
det A D a1  .a2 a3 / u1 v1 w1
B C
D a11 a22 a33 C a12 a23 a31 C a13 a21 a32 det.u; v; w/ D det @u2 v2 w2 A :
u3 v3 w3
 a13 a22 a31  a12 a21 a33  a11 a23 a32 2 K

die Determinante von A.


Dies führt auf eine Abbildung
.R3 R3 R3 / ! R mit .u; v; w/ 7! det.u; v; w/:
Abkürzend schreiben wir auch
Offensichtlich ist das Spatprodukt det.u; v; w/ gleich dem
ˇ ˇ 0 1
ˇa11 a12 a13 ˇ a11 a12 a13 im obigen Lemma definierten Wert D, dessen Verschwin-
ˇ ˇ
ˇa21 a22 a23 ˇ D det @a21 a22 a23 A den die lineare Abhängigkeit der Vektoren charakterisiert.
ˇ ˇ
ˇa31 a32 a33 ˇ a31 a32 a33

und sprechen kurz von einer dreireihigen Determinante Verschwindendes Spatprodukt


statt von der Determinante einer 3 3 -Matrix. Genau dann ist det.u; v; w/ D 0, wenn die drei Vektoren
Man kann die Formel zur Berechnung einer dreireihi- u, v und w linear abhängig sind, also komplanar liegen.
gen Determinante durch das folgende Schema darstellen,
5.3  Weitere Produkte von Vektoren im Anschauungsraum
139 5
Wir haben D als u  .v w/ eingeführt. Dies zeigt, dass ei-
ne Vertauschung von v mit w das Vorzeichen von D ändert.
Andererseits bleibt die Determinante bei zyklischen Vertau-
schungen der Spaltenvektoren erhalten. Somit verhält sich
das Spatprodukt bei Änderungen der Reihenfolge gemäß
u v
w
det.u; v; w/ D det.v; w; u/ D det.w; u; v/ '
h
D  det.u; w; v/ D  det.v; u; w/ v

D  det.w; v; u/:
p
u
Auch bei der Darstellung des Spatprodukts D als gemisch-
tes Produkt u  .v w/ können wir zyklisch vertauschen,
ohne den Wert zu verändern. Also ist auch D D w  .u v/.

Das Spatprodukt als gemischtes Produkt


Das Spatprodukt lässt sich auch als Skalarprodukt mit ei- . Abb. 5.17 Das Spatprodukt det.u; v; w/ gibt das orientierte Volumen
nem Vektorprodukt ausdrücken: des von u, v und w aufgespannten Parallelepipeds an

det.u; v; w/ D u  .v w/ D w  .u v/ (5.13)
Wir berechnen das Volumen des Parallelepipeds nach
der Formel „Grundfläche mal Höhe“. Dabei wählen wir das
von u und v aufgespannte Parallelogramm als Grundfläche
Wie die bisherigen Produkte ist auch das Spatprodukt linear des genannten Parallelepipeds. Der Inhalt der Grundfläche
in jedem Anteil, also z. B. beträgt demnach
det ..u1 C u2 /; v; w/ D det.u1 ; v; w/ C det.u2 ; v; w/: F# D ku vk:

Dass das Spatprodukt eine vom Rechts-Koordinatensystem Die Höhe des Parallelepipeds ist gleich dem Wert h D
unabhängige Bedeutung hat, folgt einerseits aus der Dar- kwk cos ', wenn ' den Winkel zwischen w und einer zur
stellung als Skalarprodukt mit einem Vektorprodukt und Grundfläche orthogonalen Geraden angibt. Nach unseren
der bereits bewiesenen Invarianz dieser beiden Produkte. bisherigen Ergebnissen gilt nun offensichtlich:
Aber das Spatprodukt hat auch eine einfache geometrische
Deutung. j det.u; v; w/j D j.u v/  wj
D ku vk kwk cos ' D F#  h;

Geometrische Deutung des Spatprodukts wie behauptet wurde. 


Der Absolutbetrag j det.u; v; w/j des Spatprodukts ist
gleich dem Volumen des von den Vektoren u, v und w ?Selbstfrage 5.12
aufgespannten Parallelepipeds. Welche der oben angeführten Eigenschaften des Spat-
produkts sind aufgrund dieser geometrischen Deutung
unmittelbar ersichtlich?
Beweis Wir haben bereits früher erklärt, dass die vier
Werden die drei linear unabhängigen Vektoren stetig ver-
Punkte 0, u, u C v und v das von u und v aufgespannte
lagert, so kann sich auch deren Spatprodukt nur stetig
Parallelogramm bestimmen. Nehmen wir noch die durch
ändern. Das Volumen des Parallelepipeds und damit der
Verschiebung längs w entstehenden Ecken w, u C w, u C
Absolutbetrag des Spatprodukts bleiben dabei konstant.
vCw und vCw dazu, so entsteht das von den Vektoren u, v
Die Stetigkeit ohne Nulldurchgang lässt beim Spatprodukt
und w aufgespannte Spat oder Parallelepiped. Fassen wir
keinen Vorzeichenwechsel zu. Nicht nur der Betrag, son-
dieses als Vollkörper auf, so ist es gleich der Punktmenge
dern das Spatprodukt selbst muss konstant bleiben.
fu C v C w j 0  ; ;   1g: Wie früher beim Vektorprodukt können wir nach steti-
ger Verlagerung die spezielle Position
Wie bei Parallelogrammen lassen wir zu, dass der Anfangs- 0 1 0 1
u1 v1
punkt 0 durch einen beliebigen anderen Punkt p ersetzt
u D @ 0 A ; v D @v2 A mit u1 ; v2 > 0
wird, also das Parallelepiped im Raum parallel verschoben
wird (. Abb. 5.17). 0 0
140 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

erreichen. Dann aber ist x3


0 1
u1 v1 w1
@
det.u; v; w/ D det 0 v2 w2 A D u1 v2 w3 : a2
0 0 w3

Somit gilt hier: a1

det.u; v; w/ > 0 ” w3 > 0:

Bei positivem Spatprodukt zeigt w auf dieselbe Seite der


b1 b2 -Ebene wie b3 . Damit folgen dann die Vektoren u, v
5 und w der Rechten-Hand-Regel. Deshalb wollen wir für be- x1 a4
liebige Vektortripel folgende Definition aufstellen. x2

Definition eines Rechts- bzw. Linkssystems a3


Die drei Vektoren u, v und w bilden ein Rechtssystem,
wenn det.u; v; w/ > 0 ist. Hingegen sprechen wir bei . Abb. 5.18 Die Punkte a1 bis a4 bilden ein reguläres Tetraeder
det.u; v; w/ < 0 von einem Linkssystem.

bilden eine dreiseitige Pyramide, deren Kanten alle die-


selbe Länge 4 aufweisen. Es handelt sich also um ein
Dies legt nahe, das Spatprodukt det.u; v; w/ ohne Betrags- reguläres Tetraeder (. Abb. 5.18). Gesucht ist des-
zeichen als orientiertes Volumen des von u, v und w sen Volumen V .
aufgespannten Parallelepipeds zu definieren. Dessen Ab- Zu dessen Berechnung wählen wir etwa das Dreieck
solutbetrag ist, wie eben gezeigt, gleich dem elementaren a1 a2 a3 als Grundfläche und berechnen das Pyramiden-
Volumen. Das orientierte Volumen ist positiv oder nega- volumen nach der Formel 13 Grundfläche mal Höhe.
tiv je nachdem, ob die linear unabhängigen Vektoren in der Wenn wir die Grundfläche zu dem Parallelogramm
angegebenen Reihenfolge ein Rechtssystem oder ein Links- a1 a2 p a3 ergänzen bei p D a2 C .a3  a1 /, so
system bilden. verdoppeln wir deren Flächeninhalt. Dann aber stellt
das Produkt Grundfläche Höhe den Inhalt des von
Kommentar Wenn wir ein Rechtssystem mithilfe der De- den Differenzvektoren a2  a1 , a3  a1 und a4  a1
terminante definieren, die selbst ja über Koordinaten be- aufgespannten Parallelepipeds dar. Somit gilt für das
rechnet wird, so genügt es nur dann der Rechten-Hand- Tetraedervolumen:
Regel, wenn auch die den Koordinaten zugrunde liegende
kartesische Basis der Rechten-Hand-Regel genügt. 1
V D jdet Œ.a2  a1 /; .a3  a1 /; .a4  a1 /j
6
ˇ 0 1ˇ
Beispiel ˇ 4 2 2 ˇ
4 Für die Vektoren e 1 ; e 2 ; e 3 der Standardbasis gilt: 1 ˇ ˇ
D ˇˇdet @ 0 2
p
2 Aˇ
p ˇ
0 1 6ˇ
0 2 2 2 2 ˇ
1 0 0
det.e 1 ; e 2 ; e 3 / D det @0 1 0A D 1: 1 ˇˇ p p ˇˇ
0 0 1 D ˇ.4/.4 2  4 2/ˇ
6 p
16 2
Allgemein hat jede orthonormierte Basis .b1 ; b2 ; b3 /, D :
die ein Rechtssystem bildet, als Spatprodukt den Wert 3
C1, denn nach (5.13) ist Alternativ dazu zeigt die Cayley-Menger’sche Deter-
det.b1 ; b2 ; b3 / D .b1 b2 /  b3 D b3  b3 D kb3 k D 1:
2 minante im 7 Abschn. 7.4, wie das Volumen einer
dreiseitigen Pyramide aus deren sechs Kantenlängen
Das von b1 , b2 und b3 aufgespannte Parallelepiped ist berechenbar ist. 9
ein Einheitswürfel.
4 Die vier Punkte In der nächsten Box wird anhand eines Beispiels demons-
0 1 0 1 triert, wie der Grundaufgabe der analytischen Geometrie
˙2 0
entsprechend jede geometrische Aussage äquivalent ist zu
a1;2 D @p0A ; a3;4 D @ p ˙2A
einer in Koordinaten formulierbaren mathematischen Aus-
2  2 sage.
5.3  Weitere Produkte von Vektoren im Anschauungsraum
141 5

Beispiel: Analytische Formulierung einer geometrischen Bedingung

Gegeben seien vier Raumpunkte s1 ; : : : ; s4 . Welche Glei- Zur Formulierung der entsprechenden analytischen Bedin-
chung muss ein Raumpunkt x erfüllen, damit dessen Verbin- gung wenden wir eine Parallelverschiebung an, die x in den
dungsgeraden mit den gegebenen Punkten auf einem Drehke- Koordinatenursprung verlegt. Die Spitzen der längs der Ge-
gel liegen? raden abgetragenen Einheitsvektoren werden zu Punkten mit
den Ortsvektoren
Problemanalyse und Strategie
Liegen diese Geraden auf einem Drehkegel, so enden die von b si  x
vi D ; i D 1; : : : ; 4:
x längs dieser Geraden abgetragenen Einheitsvektoren in vier ksi  xk
Punkten p 1 ; : : : ; p 4 eines Kreises auf diesem Drehkegel (siehe
Abbildung unten) und damit in einer Ebene. Liegen umgekehrt Diese liegen genau dann in einer Ebene, wenn die Diffe-
diese vier Punkte im Abstand 1 von x in einer Ebene, so ge- renzvektoren b vj  b v1 für j D 2; 3; 4 komplanar, also linear
hören sie dem Schnitt dieser Ebene mit der in x zentrierten abhängig sind. Dies kann mithilfe des Spatprodukts ausge-
Einheitskugel an, also einem Kreis. Dessen Verbindungsgera- drückt werden:
den mit der Kugelmitte bilden einen Drehkegel oder, falls die
 
Ebene durch die Kugelmitte geht, eine Ebene, also den Grenz- det .b v2  b
v1 /; .bv3  b
v1 /; .b
v4  bv1 / D 0: ( )
fall eines Drehkegels mit 180ı Öffnungswinkel.
Will man den Grenzfall eines in eine Ebene entarteten Dreh-
Lösung
kegels ausschließen, so muss man bedenken, dass in diesem
Fall nicht nur x und bv1 ; : : : ; b
v4 in einer Ebene liegen, son-
dern auch die Ausgangspunkte s1 ; : : : ; s4 . Dieser Fall kann
also überhaupt nur auftreten, wenn

det ..s2  s1 /; .s3  s1 /; .s4  s1 // D 0

ist. Wenn dann bei .s2  s1 / .s3  s1 / ¤ 0 zusätzlich zu ( )


noch die Bedingung

det ..s2  s1 /; .s3  s1 /; .x  s1 // ¤ 0

gefordert wird, so sind nur „echte“ Drehkegel möglich.

Einige nützliche Formeln für gemischte Wir geben auf der rechten Seite u1 v1 w1 u1 v1 w1 D 0 dazu
Produkte und erhalten:

y1 D v1 .u3 w3 C u2 v2 C u1 w1 /
Wir stellen in der Folge einige Formeln zusammen, die
 u1 .v3 w3 C v2 w2 C v1 w1 /
beim Rechnen mit Vektoren im R3 hilfreich sind, und be-
ginnen mit der Grassmann-Identität: D .u  w/v1  .v  w/u1 :

.u v/ w D .u  w/v  .v  w/u: Zyklische Vertauschung liefert die restlichen Koordinaten


und damit genau die obige Formel.
Beweis Wir bestätigen die Richtigkeit, indem wir die Koor-
Abschließend noch eine Bemerkung zu diesem eher un-
dinaten ausrechnen: Setzen wir vorübergehend x D u v,
eleganten Beweis: Das Skalarprodukt von y D .u v/ w
so lautet die erste Koordinate des gesuchten Vektors y D
mit .u v/ muss verschwinden. Ebenso ist u  .u v/ D
.u v/ w D x w:
v.u v/ D 0. Somit muss bei linear unabhängigen u und v
y1 D x2 w3  x3 w2 der Vektor y eine Linearkombination von u und v sein, also
y D u C v. Aber wie die Koeffizienten  und  tatsäch-
D .u3 v1  u1 v3 /w3  .u1 v2  u2 v1 /w2
lich aussehen, das ist doch nur durch explizites Ausrechnen
D v1 .u3 w3 C u2 v2 /  u1 .v3 w3 C v2 w2 /: zu bestimmen. 
142 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Übersicht: Produkte von Vektoren im R3

Für die analytische Geometrie im Anschauungsraum stehen – Lineare Abhängigkeit von u und v ist durch u v D 0
drei verschiedene Produkte von Vektoren zur Verfügung. gekennzeichnet.
– Bei linear unabhängigen u; v steht u v auf der von u
4 Das Skalarprodukt u  v der Vektoren u; v 2 R3 mit und v aufgespannten Ebene normal; die Norm ku vk
kartesischen Koordinaten .u1 ; u2 ; u3 /> bzw. .v1 ; v2 ; v3 /> ist gleich dem Flächeninhalt kuk kvk sin ' des von u
lautet: und v aufgespannten Parallelogramms; der Vektor u v
bildet mit u und v ein Rechtssystem, sofern sich die Ko-
u  v D u1 v1 C u2 v2 C u3 v3 : ordinaten auf ein Rechtskoordinatensystem beziehen.
p 4 Das Spatprodukt det.u; v; w/ ist eine reelle Zahl und
5 – Es ist kuk D u  u die Norm oder Länge des Vektors
zwar die Determinante derjenigen 3 3 -Matrix, welche
u und ka  bk die Distanz der Punkte a und b.
die kartesischen Koordinaten von u, v und w der Reihe
– Jeder Vektor u ¤ 0 lässt sich durch skalare Multi-
nach als Spaltenvektoren besitzt.
plikation gemäß b u D kuk1
u auf einen Einheitsvektor
– Das Spatprodukt ist linear in jedem Anteil, also
normieren.
det.u1 C u2 ; v; w/ D det.u1 ; v; w/ C det.u2 ; v; w/ und
– Das Skalarprodukt u  v ist symmetrisch, v  u D u  v,
det.u; v; w/ D  det.u; v; w/.
und in jedem Anteil linear, also .u1 C u2 /  v D
– Die Vertauschung zweier Vektoren ändert das Vorzei-
.u1  v/ C .u2  v/ und .u/  v D .u  v/.
chen; es ist det.u; v; w/ D det.v; w; u/ D det.v; u; w/.
– Das Produkt u  v ist vom verwendeten kartesischen
– Das Spatprodukt det.u; v; w/ gibt das orientierte Volu-
Koordinatensystem unabhängig, denn es gilt u  v D
men des von den drei Vektoren aufgespannten Parallel-
kuk kvk cos ' mit ' als dem von u und v eingeschlos-
epipeds an und ist somit unabhängig von dem zugrunde
senen Winkel bei 0  '  .
liegenden Rechtskoordinatensystem.
– Eine orthonormierte Basis .b1 ; b2 ; b3 / des R3 ist durch
– Genau bei det.u; v; w/ > 0 bilden die drei Vektoren in
bi  bj D ıij gekennzeichnet.
dieser Reihenfolge ein Rechtssystem.
– Es gelten die Cauchy-Schwarz’sche Ungleichung ju 
– Ein verschwindendes Spatprodukt kennzeichnet linea-
vj  kuk kvk und die Dreiecksungleichung ku C vk 
re Abhängigkeit.
kuk C kvk.
– Es ist det.u; v; w/ D u  .v w/ D w  .u v/.
4 Das Vektorprodukt oder Kreuzprodukt u v ist ein Vek-
Ferner gelten :
tor und aus den kartesischen Koordinaten von u und v
– die Grassmann-Identität
nach der Formel
.u v/ w D .u  w/v  .v  w/u,
u v D .u2 v3  u3 v2 ; u3 v1  u1 v3 ; u1 v2  u2 v1 /> – die Jacobi-Identität
Œu .v w/ C Œv .w u/ C Œw .u v/ D 0,
zu berechnen. – die Lagrange-Identität
– Das Vektorprodukt ist schiefsymmetrisch, also v u D .u v/  .w x/ D .u  w/.v  x/  .u  x/.v  w/
u v, und linear in jedem Anteil, d. h., .u1 Cu2 / v D – sowie für das Vektorprodukt von Vektorprodukten
.u1 v/ C .u2 v/ und u v D  .u v/. .u v/ .w x/ D det.u; w; x/ v  det.v; w; x/ u.

? Selbstfrage 5.13 Beweis Die erste Gleichung folgt aus der Grassmann-
Beweisen Sie unter Benutzung der Grassmann-Identität Identität durch zyklische Vertauschung, also den Ersatz
die folgende Variante: .u; v; w/ 7! .v; w; u/ 7! .w; u; v/, und durch anschlie-
ßende Addition.
u .v w/ D .u  w/v  .u  v/w: Die Langrange-Identität ergibt sich aus (5.13) wie folgt:
Mithilfe der Grassmann-Identität lassen sich die folgenden .u v/  .w x/ D det ..u v/; w; x/
Formeln für weitere gemischte Produkte herleiten: D Œ.u v/ w  x
1. Jacobi-Identität D Œ.u  w/v  .v  w/u  x:
Œu .v w/ C Œv .w u/ C Œw .u v/ D 0: Die Formel ku vk D kuk kvk sin ' aus (5.12) ist wegen
(5.7) ein Sonderfall der Lagrange-Identität. Dasselbe trifft
2. Lagrange-Identität auf die Gleichung .u  v/2 C .u v/2 D kuk2 kvk2 zu.
Schließlich folgt aus der Grassmann-Identität
.u v/  .w x/ D .u  w/.v  x/  .u  x/.v  w/:
.u v/ .w x/ D .u  .w x// v  .v  .w x// u
3. Vektorprodukt zweier Vektorprodukte D det.u; w; x/ v  det.v; w; x/ u;
.u v/ .w x/ D det.u; w; x/ v  det.v; w; x/ u: womit auch die letzte Gleichung gezeigt ist. 
5.4  Abstände zwischen Punkten, Geraden und Ebenen
143 5
Kommentar Ein K-Vektorraum V mit einer zusätzlichen
Verknüpfung W V V ! V und

a .b C c/ D .a b/ C .a c/; u .a p/
.a C b/ c D .a c/ C .b c/;
a a
 .a b/ D . a/ b D a . b/ p

heißt K-Algebra. Offensichtlich ist der R3 zusammen mit d


dem Vektorprodukt eine R-Algebra. Diese Verknüpfung ist p u b G
allerdings weder assoziativ, noch kommutativ. Hingegen ist
der Polynomring aus dem 7 Abschn. 2.4 ein Beispiel für
eine K-Algebra, wenn die Multiplikation von Polynomen
bedeutet, und diese Verknüpfung ist sowohl assoziativ, als
auch kommutativ.
Eine K-Algebra, in welcher die Jacobi-Identität gilt und . Abb. 5.19 Der Abstand d des Punkts a von der Geraden G
ferner a a D 0 für alle a 2 V , heißt übrigens Lie-Algebra.

Die obige Übersicht zeigt gesammelt die bisherigen Pro- mit a und b ein rechtwinkliges Dreieck, und dessen Hypo-
dukte sowie die damit zusammenhängenden wichtigsten tenuse ax ist stets länger als die Kathete ab. Also ist die
Formeln. Kathetenlänge

5.4 Abstände zwischen Punkten, Geraden ka  bk D minf ka  xk j x 2 Gg D dist.a; G/:


und Ebenen
Zur Berechnung des Abstands dist.a; G/ bestimmen wir
zuerst einen Normalvektor der Verbindungsebene aG,
In diesem Abschnitt zeigen wir, wie mithilfe der im An- nämlich (. Abb. 5.19):
schauungsraum verfügbaren Produkte von Vektoren Ab-
stände zwischen Punkten, Geraden und Ebenen oder auch n D u .a  p/:
zwischen zwei Geraden berechenbar sind. Dabei gehen wir
von folgender Definition aus: Dann ist knk gleich dem Inhalt des von u und a  p
Sind M und N zwei nichtleere Punktmengen des R3 , aufgespannten Parallelogramms. Die Höhe dieses Paralle-
so heißt logramms gegenüber u ist gleich der gesuchten Distanz.

dist.M; N / D inf f kx  yk j x 2 M und y 2 N g Folgerung Für den Abstand des Punkts a von der Geraden
G D p C Ru gilt:
Abstand oder Distanz der Punktmengen M und N:
Wegen kx  yk  0 ist die Menge der Distanzen k.a  p/ uk
kx  yk durch 0 nach unten beschränkt; also gibt es stets dist.a; G/ D :
kuk
dieses Infimum. Dieses braucht allerdings kein Minimum
zu sein. Sind die Mengen M und N affine Teilräume des Der Fußpunkt b der Normalen aus dem Punkt a an die Ge-
R3 , also Punkte, Geraden oder Ebenen, so werden sich die rade G D p C Ru lautet:
gegenseitigen Abstände doch als Minima herausstellen; es
gibt dann nämlich stets Punkte a 2 M und b 2 N mit .a  p/  u
bDpC u;
dist.M; N / D ka  bk. uu

wie schon in 7 Abschn. 5.2 festgestellt worden ist.


Abstände eines Punkts von Geraden Bei der Bestimmung des Abstand des Punkts a von der
oder Ebenen sind mittels Vektorprodukt Ebene E D p CR uCR v gehen wir analog vor: Wir legen
zu berechnen durch a die Normale N D a C R.u v/ zur Ebene E und
suchen deren Schnittpunkt b mit E (siehe . Abb. 5.22).
Jeder von b verschiedene Punkt x 2 E bildet mit b und
Angenommen, es sind die Gerade G D p C Ru und a ein rechtwinkliges Dreieck, denn .x  b/  .u v/ D
der Punkt a außerhalb von G gegeben (. Abb. 5.19). Der det.x  b; u; v/ D 0 wegen der linearen Abhängigkeit der
Punkt b 2 G sei der Fußpunkt der aus a an G legbaren beteiligten Vektoren. Die Hypotenuse ax ist natürlich län-
Normalen. Dann bildet jeder Punkt x 2 G n fbg zusammen ger als die Kathete ab. Somit ist dist.a; E/ D kb  ak.
144 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Der Normalenfußpunkt b 2 .E \ N / hat die beiden N y H


Darstellungen

b D p C  u C  v und b D a C  .u v/ b
d
H0
mit gewissen ; ;  2 R. Das Skalarprodukt beider Dar- x
stellungen mit u v führt wegen .u v/u D .u v/v D 0 G
auf die Gleichung a
EG

p  .u v/ D a  .u v/ C .u v/2 ;
. Abb. 5.20 Die gemeinsame Normale N der Geraden G und H
5
also nach (5.13):
Sind G und H nicht parallel, also deren Richtungsvek-
.p  a/  .u v/ det.p  a; u; v/
D D : toren u und v linear unabhängig, so muss eine gemeinsame
ku vk 2 ku vk2 Normale N von G und H die Richtung des Vektors n D
u v haben. Nun gibt es eine zu n normale Ebene EG
Aus b  a D  .u v/ folgt kb  ak D jj ku vk.
durch G, und H ist parallel dazu. Durch die Orthogonal-
projektion von H auf die Ebene EG entsteht die Gerade H 0
Folgerung Für den Abstand des Punkts a von der Ebene (. Abb. 5.20). Diese ist parallel zum Urbild H und schnei-
E D p C Ru C Rv gilt: det G in einem Punkt a. Die Verbindungsgerade von a mit
dessen Urbild b 2 H ergibt das in diesem Fall eindeutige
j det.p  a; u; v/j
dist.a; E/ D : Gemeinlot N .
ku vk
Lemma Sind die zwei Geraden G und H nicht parallel, so
gibt es ein eindeutiges Gemeinlot N . Für die Schnittpunkte
Wir erkennen zugleich: Zu jedem Raumpunkt a gibt es ei- a; b von N mit G bzw. H gilt:
nen Normalenfußpunkt
dist.G; H / D kb  ak:
det.p  a; u; v/
bDaC .u v/ (5.14)
ku vk2 Beweis Für beliebige Punkte x D a C  u 2 G und y D
b C  v 2 H ist
in E. Wir nennen die Abbildung R3 ! E mit a 7!
b die Orthogonalprojektion oder Normalprojektion auf y  x D .b  a/ C . v   u/ bei .b  a/ ? u; v:
die Ebene E (. Abb. 5.22 und 5.23). Später werden wir
Wegen .b  a/  u D .b  a/  v D 0 folgt:
eine Matrizendarstellung dieser Abbildung kennenlernen.
ky  xk2 D kb  ak2 C k v   uk2  kb  ak2 :

Der Abstand zweier Geraden wird Gleichheit besteht genau dann, wenn  v   u D 0 ist.
längs des Gemeinlots gemessen Wegen der geforderten linearen Unabhängigkeit von u und
v bleibt für das Minimum nur  D  D 0, also x D a und
y D b. 
Als Nächstes wenden wir uns dem Abstand zweier Geraden
G D p C Ru und H D q C Rv zu. Zuerst zeigen wir, dass Wie können wir die Fußpunkte a und b und die Distanz
es stets ein Gemeinlot gibt, also eine Gerade N , welche G dist.G; H / berechnen, wenn die Geraden in der Form G D
und H unter rechtem Winkel schneidet (. Abb. 5.20). p C Ru und H D q C Rv gegeben sind?
Bei G D H ist die Aussage trivial. Sind die beiden Wir setzen die beiden Fußpunkte von N an in der Form
Geraden G und H parallel und verschieden, so liegen sie
in der von q  p und u aufgespannten Ebene. Dann kann a D p C u; b D q C v
so wie vorhin aus jedem Punkt a 2 G eine Normale N an bei b  a D  n; n D u v:
H gelegt werden, die wegen der Parallelität zwischen H
und G auch zu G normal ist. Der Schnittpunkt b von N mit Dann ist dist.G; H / D k nk D jj knk, wobei die Vektor-
H bestimmt dist.G; H / D ka  bk. Durch Translationen gleichung b  a D  n, also
in der Richtung von G und H entstehen aus N unendlich
viele gemeinsame Normalen. q  p  u C v D n ( )
5.4  Abstände zwischen Punkten, Geraden und Ebenen
145 5
zu erfüllen ist. In Koordinaten ausgeschrieben sind dies drei x3
lineare Gleichungen in den drei Unbekannten ,  und .
Durch Bildung von Skalarprodukten lassen sich die Unbe-
n
kannten sogar explizit angeben: b
Wir multiplizieren die auf der linken und rechten Sei- v
E
te der Gleichung . / stehenden Vektoren skalar mit n und x
erhalten p
u
a
.q  p/  n  .u  n/ C .v  n/ D .n  n/ x2

und weiter wegen u  n D v  n D 0 x1

.q  p/  n
D : . Abb. 5.21 Die Ebene E D p C Ru C Rv geht durch p und wird von
knk2 den Vektoren u und v aufgespannt

Wenn wir andererseits das Skalarprodukt der Vektoren aus


. / mit v n bilden, so fallen wegen der Orthogonalität die sind (. Abb. 5.21). Genau dann verschwindet deren Spat-
Produkte mit v und n weg, und es bleibt nach (5.13) produkt, d. h.

det ..q  p/; v; n/   det.u; v; n/ D 0; det ..x  p/; u; v/ D .x  p/  .u v/ D 0;

somit oder mit n D u v als Normalvektor zu E:

det.q  p; v; n/ n  x D n  p D k D konst.
D :
det.u; v; n/
Dies bedeutet ausführlich:
Analog folgt nach Bildung des Skalarprodukts mit u n:
n1 x1 C n2 x2 C n3 x3 D k:
det.q  p; u; n/
D :
det.u; v; n/
Die Ebenengleichung
FolgerungDie Distanz zweier nicht paralleler Geraden Eine Ebene ist die Lösungsmenge einer linearen Glei-
G D p C Ru und H D q C Rv lautet: chung n1 x1 C n2 x2 C n3 x3 D k. Dabei sind die in dieser
Gleichung auftretenden Koeffizienten .n1 ; n2 ; n3 / ¤ 0 die
j det ..q  p/; u; v/ j Koordinaten eines Normalvektors n von E.
dist.G; H / D :
ku vk

Die Punkte a 2 G und b 2 H mit dist.G; H / D ka  bk Wir können den Normalvektor normieren, und zwar sogar
lauten: auf zwei Arten, als b
n D ˙ knk
1
n.
Œ.q  p/ v  .u v/
a D p C u mit  D und
ku vk2
Definition der Hesse’schen Normalform einer
Œ.q  p/ u  .u v/
b D q Cv mit  D : Ebene
ku vk2 Ist n ein normierter Normalvektor der Ebene E, d. h.,
knk D 1, so heißt die zugehörige Ebenengleichung
Der Mittelpunkt der Gemeinlotstrecke ab ist gleichzeitig
eine optimale Näherung für den „Schnittpunkt“ zweier ein-
l.x/ D n  x  k D n1 x1 C n2 x2 C n3 x3  k D 0
ander „beinahe“ schneidenden Geraden, wie die kommende
Beispielbox zeigt.
nach L. O. Hesse (1811–1874) Hesse’sche Normalform
der Ebene E.
Die Hesse’sche Normalform ist mehr
als nur die Gleichung einer Ebene
Dabei gibt jkj D jn  pj nach der geometrischen Deu-
tung des Skalarprodukts (siehe . Abb. 5.13) den Abstand
Der Punkt x liegt genau dann in der Ebene E D p C Ru C des Koordinatenursprungs o von der Ebene E an, also
Rv, wenn die Vektoren .x  p/, u und v linear abhängig dist.o; E/ D jkj.
146 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Beispiel: Optimale Approximation des Schnittpunkts zweier Geraden

Es gibt numerische Verfahren, um aus zwei Fotos desselben stimmen demnach die gemeinsame Normale der beiden Pro-
Objektes das dargestellt Objekt zu rekonstruieren, also die jektionsgeraden und darauf den Mittelpunkt m zwischen den
Koordinaten der in beiden Bildern sichtbaren Punkte zu be- beiden Normalenfußpunkten a und b, also m D 12 .a C b/ (sie-
rechnen, sofern die tatsächliche Länge einer in beiden Bildern he Abbildung unten). Dazu verwenden wir die obigen Formeln.
ersichtlichen Strecke bekannt ist. Ist dann die gegenseitige La- Inwiefern ist dieser Punkt optimal?
ge der Kameras zum Zeitpunkt der Aufnahmen bestimmt, so 1) Angenommen p ist ein beliebiger Raumpunkt und x 2 G
denken wir uns die beiden Fotos der Aufnahmesituation ent- und y 2 H sind die zugehörigen Normalenfußpunkte auf
sprechend im Raum platziert (siehe Skizze rechts). Seien z1 G bzw. H . Dann ist jedenfalls nach der Dreiecksunglei-
bzw. z2 die Aufnahmezentren, also die Brennpunkte der Ob- chung
5 jektive, und x 1 bzw. x 2 die beiden Bilder eines Raumpunkts
x. Zur Rekonstruktion des Urbildpunkts x sind dann offen- kp  xk C kp  yk  kx  yk  ka  bk:
sichtlich die beiden Projektionsgeraden z1 C R.x 1  z1 / und Die Summe der Entfernungen des Punkts p von G und H
z2 C R.x 2  z2 / miteinander zu schneiden. ist genau dann minimal, wenn beide Male das Gleichheits-
zeichen gilt, und dies trifft für alle Punkte der abgeschlos-
senen Strecke ab zu (. Abb. 5.20).
5
6 2. Bil
d
m
4 x2
3 1. Bild
8 11 z2
9
1 x1
7 12
2
13
10
2) Verlangt man hingegen eine minimale Quadratsumme der
14
Entfernungen, so bleibt der Mittelpunkt m von ab als ein-
zige Lösung. Zur Begründung wählen wir ein spezielles
Koordinatensystem mit m als Ursprung und der gemeinsa-
men Normalen als x3 -Achse. Dann können wir ansetzen:
0 1 0 1
5
0 0
B0C B0C
6 a D @ A ; b D @ A mit 2c D ka  bk:
3 c c
4
1 8
11 Die Punkte x 2 G und y 2 H seien x D a C  u,
9 y D b C  v, wobei
7
12 0 1 0 1 0 1
u1 v1 p1
2 10 13 Bu C Bv C Bp C
u D @ 2 A ; v D @ 2 A und p D @ 2 A :
14 0 0 p3

Dann ist
Ein Problem der Computer-Vision: Die Rekonstruktion zweier Fotos
mithilfe von 14 Passpunkten kp  xk2 C kp  yk2
D kp  a   uk2 C kp  b   vk2
Problemanalyse und Strategie
D .p1  u1 /2 C .p2  u2 /2 C .p3  c/2
Nachdem die zi und x i durch Messungen und numerische
C .p1  v1 /2 C .p2  v2 /2 C .p3 C c/2
Berechnungen ermittelt worden sind, kann man nicht erwar-
ten, dass die beiden Projektionsgeraden einander wirklich  .p3  c/2 C .p3 C c/2 D 2 p32 C 2 c 2  2 c 2 :
schneiden. Man muss also die bestmögliche Näherung für den
Schnittpunkt ausrechnen. Gleichheit in beiden Fällen ist nur möglich bei
! ! !
p1 u1 v1
Lösung p3 D 0 und D D :
p2 u2 v2
Setzt man voraus, dass die beiden Projektionsgeraden G und
H nicht parallel sind, so wird man diese Näherung intuitiv dort Wegen der linearen Unabhängigkeit von u und v bleibt  D
wählen, wo G und H einander am nächsten kommen. Wir be-  D 0, also x D a, y D b und p D m.
5.4  Abstände zwischen Punkten, Geraden und Ebenen
147 5
Wegen l.x/ D n  x  k folgt weiter:

N l.x/ D n  Πa C .1  / b  k
a
n D .n  a/ C .1  /.n  b/  k
a x D  .l.a/ C k/ C .1  / .l.b/ C k/  k
D  l.a/ C .1  / l.b/:
l .a/ b
Die Werte l.x/ durchlaufen wegen 0    1 das ab-
x
geschlossene Intervall Πl.a/; l.b/  in R. Haben l.a/ und
E l.b/ gleiche Vorzeichen, so haben auch alle Zwischenwerte
l.x/ dieses Vorzeichen. Deshalb sind die offenen Halbräu-
me konvex. Sind l.a/ und l.b/ nicht negativ bzw. nicht
positiv, so gilt jeweils dasselbe für alle Zwischenwerte. Da-
. Abb. 5.22 Die Bedeutung der Hesse’schen Normalform: d D l.a/ mit ist auch die Konvexität der abgeschlossenen Halbräume
ist der orientierte Abstand des Punkts a von der Ebene E. Dabei kann d bewiesen. 
positiv, negativ oder gleich null sein
Beispiel Die vier Punkte
Setzen wir einen beliebigen Raumpunkt a in die Ebe- 0 1 0 1
˙2 0
nengleichung ein, so ist bei x 2 E (. Abb. 5.22)
a1;2 D @p0A ; a3;4 ˙2A
D@ p
l.a/ D n  a  k D n  a  n  x D n  .a  x/: 2  2
Somit gibt l.a/ die vorzeichenbehaftete Länge der Pro-
bestimmen eine dreiseitige Pyramide mit lauter Kanten der-
jektion des Vektors a  x auf n an. Dies eröffnet die
selben Länge, also ein reguläres Tetraeder (. Abb. 5.18).
Möglichkeit, den Abstand dist.a; E/ zusätzlich mit einem
Gesucht sind spezielle Normalvektoren der vier Seitenflä-
Vorzeichen zu versehen.
chen, und zwar diejenigen Einheitsvektoren, welche nach
außen weisen. Auch soll das Innere dieses Tetraeders durch
Ungleichungen gekennzeichnet werden.
Eigenschaften der Hesse’schen Normalform Ein auf der Verbindungsebene von a1 , a2 und a3 normal
Ist l.x/ D 0 die Hesse’sche Normalform der Ebene E, so
stehender Vektor ist als Vektorprodukt zu berechnen:
gibt l.a/ den orientierten Abstand des Punkts a von E
an. Dabei ist dieser Abstand l.a/ genau dann positiv, wenn n123 D .a2  a1 / .a3  a1 /
a auf jener Seite von E liegt, auf welche der Normalvektor 0 1 0 1 0 1
4 2 0
n zeigt. p
D @ 0 A @ 2p A D @8 2A :
0 2 2 8
Die Ebene E zerlegt den Raum R3 n E in zwei offene
Halbräume, deren Punkte x durch l.x/ > 0 bzw. durch Wir normieren zu
l.x/ < 0 gekennzeichnet sind. Die durch l.x/  0 bzw. 0 1
0
l.x/  0 charakterisierten Punktmengen heißen abge- 1 @p A
bn123 D p 2
schlossene Halbräume. 3 1

Lemma Halbräume sind stets konvexe Mengen, ob sie nun


und haben damit eine von zwei möglichen Richtungen aus-
offen sind oder die Punkte der Begrenzungsebene einschlie-
gewählt. Um festzustellen, ob bn123 nach außen oder innen
ßen.
zeigt, berechnen wir die Gleichung der Ebene a1 a2 a3 als
Beweis Nach der Definition der Konvexität in
l.x/ D bn123  x  k mit l.a1 / D 0;
7 Abschn. 5.1 müssen wir beweisen, dass ein offener bzw.
abgeschlossener Halbraum mit zwei Punkten a und b stets p
die ganze Strecke ab enthält. Unsere Anschauung zeigt uns, also k D b n123  a1 D 2=3. Nun gilt für den Ursprung, also
dass dies offensichtlich richtig ist. Trotzdem soll vorgeführt für einen Innenpunkt des Tetraeders
werden, wie sich dies durch Rechnung beweisen lässt: p
Die Punkte der abgeschlossenen Strecke ab sind als l.0/ D k D  2=3 < 0:
Konvexkombinationen von a und b darstellbar als
Dieser orientierte Abstand ist negativ; der Vektor b
n123 weist
convfa; bg D f x D  a C .1  / b j 0    1 g: somit wie gewünscht nach außen.
148 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Der Normalvektor n124 der Ebene span.a1 a2 a4 / unter- A heißt Darstellungsmatrix dieser Abbildung. Wir wer-
scheidet sich von n123 durch das Vorzeichen der zweiten den uns sehr ausführlich im 7 Kap. 6 mit derartigen Ab-
Koordinate. Dies ergibt für den richtig orientierten Ein- bildungen befassen und dort eine elegantere Definition
heitsvektor: kennenlernen, nämlich eine anhand ihrer beiden Eigen-
0 1 schaften
0
1 p
bn124 D p @ 2A : '.x C y/ D '.x/ C '.y/ und '.x/ D  '.x/:
3 1
Diese bewirken, dass Linearkombinationen wieder auf Li-
Analog berechnen wir: nearkombinationen mit denselben Koeffizienten abgebildet
5 0p 1 0 p 1 werden, also
2  2
b
n134 D p
1 @ A
0 und b
n234
1 @
Dp 0 A: !
Xn Xn
3 1 3 1 ' i x i D i '.x i /:
i D1 i D1
Dabei weisen auch diese beiden Vektoren nach außen, denn
Hier beschränken wir uns auf die linearen Abbildungen
 
wir erhalten für den in beiden Ebenen gelegenenpPunkt a3
n234 D 2=3 > 0. 'W R ! R . Deren Darstellungsmatrizen A D ai k sind
3 3
positive Skalarprodukte a3  b
n134 D a3  b
Die Punkte im Inneren dieses Tetraeders sind somit aus R . Damit lautet ' ausführlich:
3 3

durch die folgenden vier linearen Ungleichungen beschrie- 0 01 0 10 1


ben: x1 a11 a12 a13 x1
p p @ x 0A
2 D @ a 21 a 22 a 23 A @ x 2A
2 x2 C x3  2 < 0 x30 a31 a32 a33 x3
p p 0 1 0 1 0 1
 2 x2 C x3  2 < 0 a11 a12 a13
p p D a21 x1 C a22 x2 C a23 A x3 :
@ A @ A @
2 x1  x3  2 < 0
p p a31 a32 a33
 2 x1  x3  2 < 0
Wählen wir als Urbild x den Vektor e 1 der Standardbasis
Hier haben wir
p die Hesse’schen Normalformen jeweils mit des R3 , also mit x1 D 1, x2 D x3 D 0, so ist der Bildvek-
dem Faktor 3 erweitert. tor x 0 gleich dem ersten Spaltenvektor s1 von A. Analog
Die Bestimmung der Lösungsmenge von Systemen sind die restlichen Spaltenvektoren Bilder von e bzw. e .
2 3
derartiger linearer Ungleichungen gehört übrigens zum Die Abbildung ' ist somit durch die Bilder '.e / D s der
i i
Fachgebiet lineare Optimierung (siehe Grundwissenbuch, Standardbasis eindeutig festgelegt.
Abschnitt 24.1). Nach dem obigen Lemma ist die Lösungs- Auch die identische Abbildung idR3 ist eine lineare
menge der Durchschnitt endlich vieler konvexer Mengen Abbildung. Wegen id 3 .e / D e lautet die zugehörige
R i i
und somit ebenfalls konvex. 9 Darstellungsmatrix
? Selbstfrage 5.14 0 1
1 0 0
E 3 D @0 1 0 A :
Welches geometrische Objekt wird von den Punkten mit
den Ortvektoren b
n123 , b
n124 , b
n134 , b
n234 gebildet?
0 0 1

Die Orthogonalprojektion ist Anlass Diese heißt (dreireihige) Einheitsmatrix, und es ist
E3 x D x für alle x 2 R3 .
für eine Vorschau auf lineare Abbildungen Die obige Zerlegung des Matrizenprodukts A x in eine
Summe von Spaltenvektoren zeigt, dass alle Bildvektoren
Bevor wir uns im Anschauungsraum genauer mit Orthogo- x 0 Linearkombinationen der Spaltenvektoren s1 ; s2 ; s3 von
nalprojektionen auf Ebenen oder Geraden befassen, sind A sind. Die Menge der Bildvektoren ist somit die Hülle der
einige Zwischenbemerkungen über lineare Abbildungen Spaltenvektoren von A und damit ein Unterraum von R3 .
und über das Rechnen mit Matrizen notwendig. Die Dimension dieses Unterraums, des Bildes '.R3 /, heißt
Eine Abbildung ' von einem K-Vektorraum V in einen Rang rg.'/ der linearen Abbildung ' und auch Rang rg A
K-Vektorraum V 0 heißt linear, wenn sie sich nach Einfüh- der Darstellungsmatrix A.
rung von Koordinaten in V und V 0 durch Multiplikation Bei rg.A/ D 3 sind die Spaltenvektoren s1 ; s2 ; s3 linear
mit einer Matrix mit Einträgen aus K beschreiben lässt, al- unabhängig; daher ist det A ¤ 0. In diesem Fall bilden die
so von folgender Bauart ist: Spaltenvektoren von A eine Basis des R3 . Nachdem jeder
Vektor x 0 des R3 eine eindeutige Darstellung als Linear-
'W V ! V 0 mit x 7! x 0 D A x: kombination dieser Basisvektoren besitzt, gibt es zu jedem
5.4  Abstände zwischen Punkten, Geraden und Ebenen
149 5
Bildvektor ein eindeutiges Urbild x. Die Abbildung ' ist in Zurück zu den linearen Abbildungen R3 ! R3 : Werden
diesem Fall bijektiv; es gibt die Umkehrabbildung ' 1 . zwei lineare Abbildungen hintereinander ausgeführt, also
Hat man die Urbilder y i der Vektoren e i der Standard-
basis bereits berechnet, etwa durch Auflösen der zugehö- 'W x 7! x 0 D A x und ' 0 W x 0 7! x 00 D A 0 x 0 ;
rigen linearen Gleichungssysteme
P A y i D e iP , so ist das
Urbild von x 0 D 3iD1 xi0 e i gleich ' 1 .x 0 / D 3iD1 xi0 y i , so gilt für die Abbildung des Vektors e i der Standardbasis:
denn für jedes i 2 f1; 2; 3g ist Der i-te Spaltenvektor si von A ist gleich '.e i /. Daher ist
' 0 ı '.e i / D A 0 si der i-te Spaltenvektor in dem Matri-
A .xi0 y i / D xi0 .A y i / D xi0 e 0i : zenprodukt A 0 A. Andererseits folgt ausPder Linearität der
Einzelabbildungen, dass auch für x D 3iD1 xi e i gilt:
Dies zeigt, dass auch ' 1 eine lineare Abbildung ist; die
zugehörige Darstellungsmatrix A 1 heißt inverse Matrix X
' 0 ı '.x/ D ' 0 xi s i
von A. Deren Spaltenvektoren y 1 ; y 2 ; y 3 haben die Eigen-
X
schaft A y i D e i . Wird also die Matrix A der Reihe nach D xi .A 0 A/ e i D .A 0 A/ x:
mit den Spaltenvektoren von A 1 multipliziert, so entste-
hen die Spalten der Einheitsmatrix. Wir schreiben dies kurz Damit ist auch die Zusammensetzung ' 0 ı ' wieder eine
als Matrizenprodukt lineare Abbildung R3 ! R3 . Die Darstellungsmatrix der
A  A 1 D E3 : Produktabbildung ' 0 ı ' ist gleich dem Produkt der beiden
Darstellungsmatrizen.
Dahinter steht die folgende Erweiterung der im Nachdem bei bijektivem ' die Zusammensetzungen
7 Abschn. 3.2 eingeführten Multiplikation einer Matrix ' 1 ı ' und ebenso ' ı ' 1 die identische Abbildung idR3
mit einem Spaltenvektor: ergeben, folgt für die zugehörigen Darstellungsmatrizen er-
Wir bilden das Matrizenprodukt D D B C einer Ma- gänzend zu oben:
trix B 2 Km n mit einer Matrix C 2 Kn p , indem wir der
Reihe nach B mit den p Spaltenvektoren von C multipli- A 1 A D A A 1 D E3 :
zieren und diese als Spalten in D zusammenfassen.
Man beachte: Das Produkt kann nur gebildet werden, Die bijektiven linearen Abbildungen 'W R ! R bil-
3 3

wenn die Spaltenanzahl n des ersten Faktors B gleich der den eine Gruppe, und zwar3 eine Untergruppe der Gruppe
Zeilenanzahl des zweiten Faktors C ist. Dann lautet das aller Permutationen des R3 3(siehe 7 Abschn. 2.1). Jedem
Element di k der Produktmatrix für i 2 f1; : : : ; mg und ' ist eine Matrix A 2 R mit det A ¤ 0 bijektiv zu-
k 2 f1; : : : ; pg: geordnet, wobei der Hintereinanderausführung ' 0 ı ' das
0
Produkt A A entspricht. Deshalb bilden auch die dreirei-
X n
higen reellen Matrizen A mit det A ¤ 0 eine Gruppe mit
di k D bij cj k : E3 als neutralem Element und A 1 als zu A inversem Ele-
j D1
ment. Diese Gruppe heißt allgemeine lineare Gruppe des
In Worten: Das Element an der Stelle .i; k/ der Produktma- R und wird mit GL3 .R/ bezeichnet. Die Matrizen aus
3

trix B  C entsteht aus der i-ten Zeile von B und der k-ten GL3 .R/ heißen auch invertierbar oder regulär. Später im
Spalte von C durch „skalare Multiplikation“. 7 Abschn. 7.4 werden wir erkennen, dass die Matrizen A
Die folgende Illustration zeigt die Größenverhältnisse mit det A D 1 eine Unterguppe bilden, die spezielle lineare
der an diesem Matrizenprodukt beteiligten Matrizen B, C Gruppe SL3 .R/. Sie umfasst diejenigen linearen Abbildun-
und D. gen, welche das orientierte Volumen unverändert lassen.

p n
p
m D m  n Affine Abbildungen bilden
Affinkombinationen wieder
D D B  C auf Affinkombinationen ab
Der Punkt, der hier zur Verdeutlichung als Verknüpfungs-
zeichen für die Matrizenmultiplikation dient, wird aller- Abschließend noch zu einer Verallgemeinerung der linea-
dings in Zukunft meist weglassen. Er ist nicht üblich. ren Abbildungen R3 ! R3 : Wird zu allen Bildvektoren
noch ein konstanter Vektor t addiert, liegt also eine Abbil-
? Selbstfrage 5.15 dung mit der Darstellung
Berechnen Sie das Produkt D der Matrizen
0 1 0 1 AW x 7! x 0 D t C A x
2 1 2 2 1 2
B1 2 C B1 2 2C
BD@ 2 A und C D @ A
vor, so spricht man von einer affinen Abbildung . Dabei
2 2 1 2 2 1
nennt man x 7! A x die zu A gehörige lineare Abbildung.
150 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Affine Abbildungen A sind als Punktabbildungen auf-


zufassen, also als Abbildungen zwischen affinen Räumen.
Richtungsvektoren u D x  y gehen durch A in A.x/  a0
A.y/ D A u über, werden also der zu A gehörigen linea- b
ren Abbildung unterworfen. Die Zusammensetzung zweier
affiner Abbildungen ist wieder eine affine Abbildung. Die E
a

kit taM
bijektiven affinen Abbildungen bilden eine Gruppe, die af-
fine Gruppe AGL3 .R/. Ma
Beispiele affiner Abbildungen sind bei t D 0 die li-
the

kitaammeh
nearen Abbildungen sowie die Translationen x 7! x 0 D
x C t. Bei Letzteren ist A D E3 ; die zugehörige lineare ma
5
Abbildung ist die Identität; der Vektor t heißt Schiebvektor
t der Translation. Offensichtlich ist jede affine Abbildung
tik
A das Produkt aus der zugehörigen linearen Abbildung
und der anschließenden Translation mit dem Schiebvektor
A.0/.
. Abb. 5.23 Der Normalenfußpunkt b von a in der Ebene E sowie das
Affine Abbildungen haben die Eigenschaft, Affinkom-
Spiegelbild a0 von a. Auch der blaue Schriftzug wurde an E gespiegelt
binationen (siehe 7 Abschn. 5.1) wieder auf Affinkombina-
P (grün) sowie normal in die Ebene E projiziert (rot)
tionen abzubilden, denn unter der Voraussetzung i D 1
ist
X
n X
n Zu dieser Darstellung des Fußpunkts b kommen wir eigent-
A i x i D t CA i x i lich auch ohne jede Rechnung, denn l.a/ gibt den im Sinn
i D1 i D1 von n orientierten Normalabstand des Punkts a von E an.
X
n X
n
Wir haben somit nur vom Punkt a aus längs n die Länge
D i t C i A x i l.a/ zurückzulaufen, um die Ebene E im Fußpunkt b zu
i D1 i D1
X
n X
n erreichen.
D i .t C A x i / D i A.x i /:
i D1 i D1 ?Selbstfrage 5.16
Daher gehen affine Teilräume wieder in affine Teilräume Zeigen Sie, dass die Formel für b aus (5.14) in jene aus
über. (5.15) übergeht, wenn kuu vvk durch n ersetzt wird und n  p
durch k.

Das dyadische Produkt vereinfacht die Die Formel (5.15) für b zeigt erneut, dass b unter allen
Darstellung der Orthogonalprojektionen Punkten x 2 E derjenige ist, welcher dem Punkt a am
nächsten liegt, für den also die Gleichung dist.a; E/ D
kb  ak gilt. Aus a D b C  n, n2 D 1 und n  .b  x/ D 0
Wir kehren nochmals zu der vorhin definierten Orthogo-
ergibt sich nämlich:
nalprojektion des R3 auf eine Ebene E zurück, die jedem
Raumpunkt a den Fußpunkt b 2 E der durch a gehenden
ka  xk2 D . n C .b  x//2 D 2 C .b  x/2  2 :
Ebenennormalen zuordnet (. Abb. 5.23). Im Gegensatz zu
(5.14) geben wir die Ebene E diesmal in der Hesse’schen
Normalform an, und wir fassen die Orthogonalprojektion Gleichheit tritt nur bei b  x D 0, also bei x D b ein.
auf als Abbildung R3 ! R3 , auch wenn das Bild nur Nun schreiben wir die Abbildung
der affine Teilraum E ist. Neben der Orthogonalprojekti-
on N W a ! b auf E soll auch die Spiegelung SW a 7! a0 an N W a 7! b D a  Œ.n  a/  k n
E in Matrizenform dargestellt werden. D k n C Œa  .n  a/ n
Wir geben E durch die Gleichung

l.x/ D n  x  k D 0 mit knk D 1 in Matrizenform um. Dazu ersetzen wir das auftretende
Skalarprodukt n  a 2 R gemäß (5.3) durch ein Matri-
vor und können daher ansetzen: zenprodukt. Nun ist die Matrizenmultiplikation generell
assoziativ. Das wird zwar erst im 7 Abschn. 6.5 allgemein
b D a C  n mit l.b/ D .n  a/ C .n  n/  k D 0: bewiesen; im vorliegenden Fall lässt sich die Gültigkeit
aber durch einfaches Ausrechnen bestätigen. Demnach ist
Es folgt  D Œ k  .n  a/ D l.a/ und damit als Lösung

b D a  l.a/ n: (5.15) .n  a/ n D n .n> a/ D .n n> / a:


5.4  Abstände zwischen Punkten, Geraden und Ebenen
151 5
Hier tritt eine symmetrische Matrix auf, nämlich Der Normalvektor n von E spannt eine durch den Ur-
sprung gehende Ebenennormale G auf, und nun wollen wir
0 1
n21 n1 n2 n1 n3 den Raumpunkt x auch normal auf diese Gerade G proji-
N D n n D @n 2 n 1
> n22 n2 n3 A zieren. Für das Bild x 3 von x gilt wegen der geometrischen
n3 n1 n3 n2 n23 Bedeutung des Skalarprodukts (. Abb. 5.13)

x 3 D .x  n/ n:
Dabei heißt eine Matrix symmetrisch, wenn die bezüglich
der Hauptdiagonale symmetrisch gelegenen Einträge ai k Auch diese Abbildung x 7! x 3 ist eine lineare Abbil-
und aki stets gleich sind, wenn also N > D N ist. dung R3 ! R3 , denn sie kann ebenfalls durch eine
Wir schreiben nun noch x statt a sowie x E statt b und 3 3-Darstellungsmatrix beschrieben werden. Zu deren
stellen die Orthogonalprojektion auf E wie folgt dar. Herleitung schreiben wir ähnlich wie vorhin bei der Ortho-
gonalprojektion nach E die obige Vektordarstellung von x 3
auf ein Matrizenprodukt um:
Darstellung der Orthogonalprojektion auf eine
Ebene x 3 D .x  n/ n D n .n> x/ D .n n> / x:
Die Orthogonalprojektion auf die Ebene E mit der Hes-
se’schen Normalform n  x  k D 0 lautet
Die Darstellungsmatrix der Orthogonalprojektion auf die
durch den Ursprung gehende Gerade G ist gleich dem
x 7! x E D k n C .E3  N / x
schon vorhin verwendeten dyadischen Quadrat N D
n n> des normierten Richtungsvektors von G.
mit N D n n> und E3 als dreireihiger Einheitsmatrix.
Nun ist (. Abb. 5.24) x D x E C x 3 mit x E als Norma-
lenfußpunkt von x in E, also

x E D x  x 3 D x  .n n> / x D .E3  n n> / x:


Allgemein nennt man die aus zwei Vektoren u; v 2 R3 be-
rechnete symmetrische 3 3 -Matrix Wir haben erneut die obige Darstellung der Orthogonalpro-
jektion hergeleitet, allerdings nur für den Fall k D 0. Dafür
0 1 0 1 verstehen wir jetzt aber die Bauart der Darstellungsmatrix
u1 u1 v1 u1 v2 u1 v3
u v> D @u2 A .v1 v2 v3 / D @u2 v1 u2 v2 u2 v3 A .E3  n n> / besser.
u3 u3 v1 u3 v2 u3 v3 Schreiben wir nun n3 anstelle n und ergänzen wir
diesen Einheitsvektor zu einem orthonormierten Dreibein
das dyadische Produkt von u und v. In dieser Matrix sind .n1 ; n2 ; n3 / (. Abb. 5.24): Dann gilt nach (5.9)
der Reihe nach alle möglichen Produkte zwischen einer Ko- X
3 X
3
ordinate von u und einer von v angeordnet. xD .x  ni / ni D .ni n>
i / x D E3 x:
i D1 i D1
? Selbstfrage 5.17
Welchen Rang hat das dyadische Produkt? Die Summe der dyadischen Quadrate lautet also

.n1 n> > >


1 / C .n2 n2 / C .n3 n3 / D E3 :
Die Orthogonalprojektion auf eine Ebene E ist ein Beispiel
für eine affine Abbildung. Nur im Sonderfall k D 0, bei Die Orthogonalprojektion auf die Ebene E kann daher im
dem die Ebene E durch den Ursprung geht (. Abb. 5.24), Fall k D 0 auch als
handelt es sich um eine lineare Abbildung.  
x E D .n1 n> >
1 / C .n2 n2 / x (5.16)

n D n3 x geschrieben werden. Diese Darstellung von x E ist nun-


mehr auch unmittelbar aus . Abb. 5.24 ablesbar, nämlich
x3
n2 als Summe x 1 Cx 2 der Orthogonalprojektionen auf die von
E
n1 bzw. n2 aufgespannten Geraden.
G x2
xE
?Selbstfrage 5.18
1. Warum ist die bei der Orthogonalprojektion auftreten-
0 de Darstellungsmatrix .E3  N / mit N D n n> bei
x1 knk D 1 idempotent, d. h., warum gilt:
n1

.E3  N /2 D .E3  N / .E3  N / D .E3  N /‹


. Abb. 5.24 Die Orthogonalprojektionen des Punkts x auf die Ebene E
und auf die Ebenennormale G 2. Ist det.E3  N / D 0?
152 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Die Orthogonalprojektion auf eine Ebene b3 x


und die Spiegelung an dieser Ebene
hängen eng zusammen b03
b02

Für das Spiegelbild x 0 von x bezüglich der Ebene E mit


dem normierten Normalvektor n gilt (siehe . Abb. 5.23):

1 b01
.x C x 0 / D x E ; also x 0 D 2 x E  x: o
2
b2
5 In Matrizenschreibweise bedeutet dies:
b1
x 0 D 2k n C 2.E3  N / x  x
. Abb. 5.25 Zwei kartesische Rechtskoordinatensysteme mit demselben
mit N als dyadischem Quadrat von n. Ursprung

.b01 ; b02 ; b03 / (. Abb. 5.25). Sind dann


Darstellung der Spiegelung an einer Ebene
Die Spiegelung an der Ebene E mit der Hesse’schen Nor- 0 1 0 01
x1 x1
malform n  x  k D 0 lautet: @x2 A
B x D und B 0 x D @x20 A
x3 x30
x 7! x 0 D 2k n C .E3  2N / x
die Koordinaten desselben Punkts x, so bedeutet dies nach
mit N D n n> . (5.2):

X
3 X
3

? Selbstfrage 5.19 xoD xi bi D xj0 bj0 :


Warum gilt für die Darstellungsmatrix der Spiegelung i D1 j D1

.E3  2N /.E3  2N / D E3 ‹
Wir stellen nun alle Vektoren dieser Gleichung im Ko-
ordinatensystem .oI B/ dar. Dazu brauchen wir die B-
5.5 Wechsel zwischen kartesischen Koordinaten der Basisvektoren bj0 . Wir setzen diese an als
0 1
Koordinatensystemen a1j
0 @ A
B bj D a2j . Dann lässt sich die Vektorgleichung
a3j
Bei vielen Gelegenheiten ist es notwendig, von einem kar-
tesischen Koordinatensystem auf ein anderes umzurechnen. 0 1 0 1 0 1 0 1
x1 a11 a12 a13
Ein Musterbeispiel bildet in der Astronomie die Umrech- @x2 A D x10 @a21 A C x20 @a22 A C x30 @a23 A
nung von einem in der Sonne zentrierten und nach Fix-
x3 a31 a32 a33
sternen orientierten heliozentrischen Koordinatensystem
auf ein lokales System in einem Punkt der Erdoberfläche übersichtlich in Matrizenform schreiben als
mit lotrechter x3 -Achse und der nach Osten orientierten
0 1 0 1 0 01
x1 -Achse. Erst damit ist es möglich vorauszuberechnen, x1 a11 a12 a13 x1
wie die Bewegungen der Planeten oder des Mondes von @x2 A D @a21 a22 a23 A @x20 A :
der Erde aus zu beobachten sein werden. Wir werden uns x3 a31 a32 a33 x30
diesem Problem noch genauer widmen.
Die Matrix .aij / ist eine Transformationsmatrix , und wir
bezeichnen sie mit B T B 0 . Mit ihrer Hilfe transformieren wir
Orthogonale Matrizen erledigen Koordinaten von einem Koordinatensystem auf ein ande-
die Umrechnung zwischen zwei res, in unserem Fall von B 0 -Koordinaten (rechter Index) auf
kartesischen Koordinatensystemen B-Koordinaten (linker Index), also

B x D B T B 0 B 0 x: (5.17)
Es seien zwei kartesische Koordinatensysteme mit demsel-
ben Ursprung o gegeben, nämlich .oI B/ mit der ortho- In den Spalten von B T B 0 stehen die B-Koordinaten der Ba-
normierten Basis B D .b1 ; b2 ; b3 / und .oI B 0 / mit B 0 D sisvektoren b01 , b02 , b03 . Da diese linear unabhängig sind,
5.5  Wechsel zwischen kartesischen Koordinatensystemen
153 5
hat B T B 0 den Rang 3. Die Gleichung (5.17) beschreibt eine In den Spalten der Umrechnungsmatrix B T B 0 von den
bijektive lineare Abbildung B 0 x 7! B x; Transformations- B 0 -Koordinaten zu den B-Koordinaten stehen die B-Koor-
matrizen sind invertierbar. dinaten der bj0 und in den Zeilen die B 0 -Koordinaten der
Nach (5.9) ist die i-te B-Koordinate von bj0 gleich dem bi . Sind B und B 0 Rechtssysteme, so ist das Spatprodukt
Skalarprodukt bi  bj0 . Dies führt auf die Darstellung det.b1 ; b2 ; b3 / D det B 0 T B D det B T B 0 D C1. Derartige
orthogonale Matrizen heißen eigentlich orthogonal. In der
0 1
b1  b01 b1  b02 b1  b03 nächsten Beispielbox ist eine derartigen Matrix zu berech-
0
B TB0
@
D b2  b1 b2  b02 b2  b03 A : (5.18) nen.
b3  b01 b3  b02 b3  b03 Werden die Wechsel B x 7! B 0 x und B 0 x 7! B 00 x zwi-
schen orthonormierten Basen hintereinander ausgeführt, so
Die Spaltenvektoren in dieser Matrix sind orthonormiert, gibt es für den Wechsel B x 7! B 00 x erneut eine orthogona-
also paarweise orthogonale Einheitsvektoren. le Transformationsmatrix B 00 T B D B 00 T B 0  B 0 T B , nachdem
Sollen umgekehrt die B 0 -Koordinaten aus den B-Koor- darin die Spaltenvektoren, also die B 00 -Koordinaten von
dinaten berechnet werden, so benötigen wir die Umkehrab- b1 ; b2 ; b3 , nach wie vor orthonormiert sind. Demnach ist
bildung der linearen Abbildung B 0 x 7! B x, also die inverse das Produkt zweier orthogonaler Matrizen wieder ortho-
Matrix. Demnach gilt: gonal. Die dreireihigen orthogonalen Matrizen bilden hin-
sichtlich der Multiplikation eine Untergruppe von GL3 .R/,
0 01 0 1 die orthogonale Gruppe O3 . Die eigentlich orthogonalen
x1 x1
@x20 A D @x2 A mit B 0 T B D .B T B 0 /1 : Matrizen bilden die Untergruppe SO3 von O3 .
B0 TB
x30 x3
?Selbstfrage 5.20
0
In den Spalten der Matrix B 0 T B stehen die B0-Koordinaten 1. Ist die Matrix
1
bi  b01 0 1
0 1 2 2
der bi , also gemäß (5.9) die Skalarprodukte @bi  b2 A, und 1B
@2 1 2CA
bi  b03 3
2 2 1
das sind genau die Zeilen der ursprünglichen Transformati-
onsmatrix B T B 0 . Also gilt für die Transformationsmatrizen
A zwischen kartesischen Koordinatensystemen, dass die eigentlich orthogonal?
inverse Matrix gleich ist der transponierten. Um diese zu 2. Man bestätige durch Rechnung, dass die bei der Spie-
invertieren, braucht man nur an der Hauptdiagonale zu spie- gelung an einer Ebene auftretende symmetrische Ma-
geln, also Spalten mit Zeilen zu vertauschen, kurz: trix M D E3  2N orthogonal ist. Warum ist sie nicht
eigentlich orthogonal?
A 1 D A > und damit auch A A > D A > A D E3 :
Wir wissen von der geometrischen Bedeutung des Skalar-
Derartige Matrizen heißen orthogonal. Mehr darüber gibt produkts u  v. Es hängt nur von der gegenseitigen Lage
es im 7 Abschn. 9.3. der jeweiligen Vektoren ab, muss also unverändert bleiben,
wenn wir das Koordinatensystem ändern. Wir sagen, dieses
Produkt ist koordinateninvariant.
Dies gilt sinngemäß auch für das Vektorprodukt .u v/
Orthogonale Transformationsmatrizen
und das Spatprodukt det.u; v; w/ von Vektoren aus R3 ,
Die Transformationsmatrizen zwischen kartesischen Ko-
sofern ausschließlich Rechtskoordinatensysteme verwen-
ordinatensystemen sind orthogonal; sie genügen der Be-
det werden. Eine Änderung des Rechtskoordinatensystems
dingung
wirkt sich auf die Koordinaten von .u v/ genauso aus wie
1 > auf u und v, während das Spatprodukt gleich bleibt.
.B T B 0 / D .B T B 0 / ; d. h.,
Dies lässt sich in den folgenden Formeln ausdrücken.
.B T B 0 />  B T B 0 D E3 :

Koordinateninvarianz der Produkte von Vektoren


Die Spaltenvektoren si in einer orthogonalen Matrix A Ist A eine eigentlich orthogonale Matrix, so gilt:
sind nach (5.8) orthonormiert, d. h. paarweise orthogonale
Einheitsvektoren, denn die Einträge in der Produktmatrix .A u/  .A v/ D u  v;
A > A D E3 sind identisch mit den Skalarprodukten si  .A u/ .A v/ D A .u v/;
sj D ıij : Damit ist umgekehrt jede orthogonale Matrix eine
det .A u; A v; A w/ D det.u; v; w/:
Umrechnungsmatrix zwischen kartesischen Basen, nämlich
von .s1 ; s2 ; s3 / auf die kanonische Basis .e 1 ; e 2 ; e 3 /.
154 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Beispiel: Ein Würfel wird wie das Atomium in Brüssel aufgestellt

Wir stellen einen Einheitswürfel W derart auf, dass eine des Würfels, und dieser enthält auch den Vektor b2 : Der Vek-
Raumdiagonale lotrecht wird, also in Richtung der x3 -Achse tor b1 ist zu dieser Ebene orthogonal, hat also die Richtung
verläuft. Eine weitere Raumdiagonale soll in die Koordina- des Vektorprodukts
tenebene x1 D 0 fallen. Wie lauten die Koordinaten der acht 0 1 0 1 0 1
Ecken dieses aufgestellten Würfels? 1 1 0
B C 1 B C 1 B C
b01 b3 D @0A p @1A D p @1A :
0 3 1 3 1
Problemanalyse und Strategie
Der Einheitswürfel W werde von den Basisvektoren b01 , b02
Durch Normierung erhalten wir:
5 und b03 eines kartesischen Rechtskoordinatensystems aufge-
spannt. Wir verknüpfen nun mit dem Würfel ein zweites 01
0
Rechtskoordinatensystem mit Basisvektoren b1 , b2 und b3 , 1 B C
B 0 b1 D ˙ p @1A :
welches der geforderten Würfelposition entspricht. Der Vek- 2 1
tor b3 weist also in Richtung der Raumdiagonale, und der
Vektor b2 spannt mit b3 eine Ebene auf, welche auch b01
enthält. Dabei entscheiden wir uns für die Lösung (siehe Ab-
bildung unten rechts) mit positivem Skalarprodukt b01  b2 .
Nun muss nur der Würfel mit den beiden Koordinaten-
systemen derart verlagert werden, dass B in Grundstellung
kommt, also b3 lotrecht wird. Um also die gesuchten Ko-
b3
ordinaten zu bekommen, brauchen wir nur die bekannten
B 0 -Koordinaten der Würfelecken auf B-Koordinaten umzu- b03
rechnen. Gemäß (5.17) gelten Umrechnungsgleichungen der
Art B x D A B 0 x. b01
b02
In den Spalten der orthogonalen Transformationsmatrix b1
A D B T B 0 aus (5.18) stehen die B-Koordinaten der Basis- b2
vektoren b01 ; b02 ; b03 des Würfels. Wegen A > D A 1 D B 0 T B
stehen in den Zeilen die B 0 -Koordinaten der bi .
Würfel W in der aufgestellten Position

Lösung
Schließlich ist bei einem kartesischen Rechtskoordinatensys-
tem stets b2 D b3 b1 , also
0 1 0 1 0 1
1 0 2
1 B C B C 1 B C
B 0 b2 D ˙ p @1A @1A D ˙ p @1A :
6 1 1 6 1

Bei der Wahl des oberen Vorzeichens wird die erste


B 0 -Koordinate von b2 , also b01  b2 positiv.
Wir übertragen diese B 0 -Koordinaten von b1 , b2 und b3 in
die Zeilen der Matrix A und erhalten
0 1
0  p12 p1
2
B p2 C
A D @ 6  p16  p16 A
p1 p1 p1
3 3 3

Das Atomium in Brüssel, ein auf die Raumdiagonale gestellter Würfel Die „neuen“ Koordinaten der Ecken des aufgestellten Ein-
heitswürfels W stehen in den Spalten der Produktmatrix
0 1
Die durch den Ursprung verlaufende Raumdiagonale von W 0 1 1 0 0 1 1 0
bestimmt die Richtung von b3 . Also entsteht b3 durch Nor- B 0 1 1 0 0 1 1C
A  @0 A
mieren von b01 C b02 C b03 . Die B 0 -Koordinaten von b3plauten 0 0 0 0 1 1 1 1
demnach .  /> mit 32 D 1. Die Wahl  D C1= 3 be- 0 1
deutet, dass die dem Koordinatenursprung gegenüberliegende 0 0  p12  p12 p1
2
p1
2
0 0
B0 p2 p1  p16  p16 p1  p26 C
Würfelecke eine positive dritte Koordinate erhält. Die von b01 D@ 0 A:
6 6 6 p
und b3 aufgespannte Ebene bestimmt einen Diagonalschnitt 0 p13 p2
3
p1
3
p1
3
p2
3
3 p2
3
5.5  Wechsel zwischen kartesischen Koordinatensystemen
155 5

Die erste dieser Gleichungen folgt wegen A > A D E3 auch Diese Bedingung ist bereits hinreichend für eine Bewe-
unmittelbar aus (5.3), denn gung, denn die vorhin festgestellte Invarianz der Produkte
von Vektoren garantiert, dass dabei alle Distanzen kx 
.A u/  .A v/ D .A u/> .A v/ D u> A > A v D u> v: yk und wegen u  v D kuk kvk cos ' alle Winkelma-
ße unverändert bleiben, wobei Rechtssysteme wieder in
Hinsichtlich des Spatprodukts kann man auf die Formel Rechtssysteme übergehen.
(5.13) zurückgreifen:

det .A u; A v; A w/ D A u  .A v A w/ Darstellung von Bewegungen


D A u  A.v w/ D u  .v w/ Bei Verwendung kartesischer Koordinaten .oI B/ ist die
affine Abbildung AW x 7! t C A x genau dann eine Be-
D det.u; v; w/:
wegung, wenn die Matrix A eigentlich orthogonal ist.

In 7 Kap. 7 werden wir übrigens erkennen, dass allgemei-


ner bereits die Bedingung det A D 1 hinreicht für die
Invarianz des Spatprodukts. Kommentar Die obige Definition einer Bewegung B lässt
sich abschwächen. Es genügt zu fordern, dass für alle
x; y 2 R3 kB.x/  B.y/k D kx  yk gilt und ein Rechts-
Orthogonale Matrizen beschreiben zugleich system wieder in ein Rechtssystem übergeht.
Bewegungen mit einem Fixpunkt
Die Zusammensetzung zweier Bewegungen ist wieder eine
Bewegung. Deshalb bilden die Bewegungen eine Unter-
Im Folgenden verwenden wir den Begriff „Bewegung“ gruppe der affinen Gruppe AGL3 .R/, die Bewegungsgrup-
für eine Verlagerung von Raumobjekten oder des ganzen pe ASO3 .R/.
Raums von einer Position in eine andere. Vorderhand inter- Die Gleichung
essieren uns allerdings nur die Anfangs- und Endlage, also
weder der „Weg“ dazwischen noch der zeitliche Ablauf. x 0 D A x bei A 1 D A > und det A D 1 (5.19)

beschreibt bei A D B T B 0 im Sinn von (5.17) die Um-


rechnung zwischen zwei kartesischen Rechtskoordinaten-
Definition einer Bewegung systemen, und zwar von .oI B 0 /-Koordinaten zu .oI B/-
Eine affine Abbildung BW R3 ! R3 , x 7! x 0 D t C A x Koordinaten. Das bedeutet, ein und derselbe Punkt oder
heißt Bewegung, wenn dabei alle Distanzen und Win-
auch Vektor erhält durch die beiden Koordinatensysteme
kelmaße erhalten bleiben und Rechtssysteme wieder in
verschiedene Koordinaten zugeordnet.
Rechtssysteme übergehen.
Wir können die Gleichung (5.19) aber noch anders
interpretieren: Es gibt eine Bewegung B, die das Ach-
senkreuz .oI B/ auf .oI B 0 / abbildet. Ein mit .oI B/ starr
Statt Bewegung sagt man auch gleichsinnige Kongruenz. verbundener Punkt x kommt dadurch in die Lage x 0
Die zu einer Bewegung gehörige lineare Abbildung heißt (. Abb. 5.26). Wie lauten die .oI B/-Koordinaten des Bild-
auch gleichsinnige Isometrie. punkts x 0 ?
Offensichtlich sind die Translationen Beispiele von Be- Unsere Bewegung B führt die anfangs mit .b1 ; b2 ; b3 /
wegungen, und zwar diejenigen mit A D E3 . identischen Basisvektoren in die Position .b01 ; b02 ; b03 / über.
Definitionsgemäß muss die Bewegung BW x 7! x 0 D Diese bilden weiterhin ein kartesischen Rechtssystem. Der
t C A x ein kartesisches Rechtssystem mit Ursprung o und Punkt x wird mit dem Achsenkreuz mitgeführt. Daher
orthonormierten Basisvektoren .b1 ; b2 ; b3 / wieder in ein hat sein Bildpunkt x 0 bezüglich des mitgeführten Ko-
kartesisches Rechtssystem mit Ursprung o0 D B.o/ und ordinatensystems .oI B 0 / dieselben Koordinaten wie sein
Basisvektoren .A b1 ; A b2 ; A b3 / überführen. Hier haben Urbild x bezüglich .oI B/. Zur Lösung unseres Prob-
wir berücksichtigt, dass Richtungsvektoren durch die zu lems haben wir somit nur die B-Koordinaten des Urbilds
B gehörige lineare Abbildung transformiert werden. Eine x als B 0 -Koordinaten des Bilds x 0 aufzufassen und auf
Bewegung ist durch ein Paar zugeordneter Rechtssysteme B-Koordinaten umzurechnen, und dies erfolgt wie in (5.17)
.oI B/ und .o0 I B 0 / bereits eindeutig festgelegt, denn damit mithilfe einer eigentlich orthogonalen Matrix A D B T B 0 .
kennt man sowohl den Schiebvektor t D o0  o, als auch Wir halten fest: Bezüglich eines festgehaltenen Koordi-
die zugehörige lineare Abbildung. natensystems .oI B/ lässt sich jede Bewegung BW x 7! x 0
Verwendet man B D .b1 ; b2 ; b3 / als Basis für kartesi- mit dem Fixpunkt o, also mit B.o/ D o, durch eine Glei-
sche Koordinaten, so bilden die B-Koordinaten der Bilder chung (5.19) darstellen. Dabei stehen in den Spalten der
.A b1 ; A b2 ; A b3 / die Spaltenvektoren in der Matrix A. eigentlich orthogonalen Matrix A die B-Koordinaten der
Also muss A eigentlich orthogonal sein. Bilder .b01 ; b02 ; b03 / der Basisvektoren.
156 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

b3
b03 b3
b03

x0
b02 ' x0

x b02
x b01 o '
'
o
5 b2 b2

b1 b01
b1
. Abb. 5.27 Drehung um die x3 -Achse
0
. Abb. 5.26 Die Bewegung B W x 7! x bringt die Vektoren b1 , b2 und
b3 mit b01 , b02 bzw. b03 zur Deckung
denn der im Bogenmaß angegebenen Drehwinkel .t/ er-
gibt, nach der Zeit t differenziert, gerade
 '  die gewünschte
d
Beispiel Der Punkt x werde um die dritte Koordinaten- Winkelschwindigkeit dt D ! und !
D '. 9
achse b3 durch den Winkel ' verdreht. Gesucht sind die
Koordinaten der Drehlage x 0 . ?Selbstfrage 5.21
Wie eben festgestellt, wird die Drehung durch eine or- Wie sieht die Matrix der Drehung um die x1 -Achse
thogonale Matrix dargestellt, in deren Spalten der Reihe durch den Winkel ' aus, wie jene einer Drehung um die
nach die Koordinaten der verdrehten Basisvektoren stehen. x2 -Achse? Das Ergebnis ist übrigens auch durch zyklische
Ist wie in unserem Fall die Drehachse orientiert, so Vertauschung der Koordinatenachsen zu gewinnen.
ist der Drehsinn eindeutig: Blickt man gegen die Dreh-
achse, somit bei uns von oben gegen die x3 -Achse, so Die folgende Beispielbox stellt die Euler’schen Drehwinkel
erscheint eine Drehung mit einem positiven Drehwinkel vor.
im mathematisch positiven Sinn, also gegen den Uhrzei-
gersinn. Damit haben die verdrehten Basisvektoren die
B-Koordinaten Drehungen sind Bewegungen, welche
die Punkte einer Geraden fix lassen
0 1 0 1 0 1
cos '  sin ' 0
0
B b1 D
@ sin ' A ; 0
B b2 D
@ cos ' A ; b0
B 3 D @0A :
Nach diesen Spezialfällen wenden wir uns der Darstellung
0 0 1
einer Drehung zu, deren Achse durch den Ursprung geht
und in Richtung eines vorgegebenen Vektors d verläuft.
Diese brauchen nur mehr in einer Matrix zusammengefasst Wir wollen einen außerhalb der Achse gelegenen
zu werden, und wir erhalten Punkt x um diese Achse durch den Winkel ' verdrehen
0 01 0 10 1 (. Abb. 5.28). Um die Drehlage x 0 zu berechnen, zerlegen
x1 cos '  sin ' 0 x1 wir den Ortsvektor x in die Summe zweier Komponen-
@x20 A D @ sin ' cos ' 0A @x2 A ten x d und x E , von welchen x d parallel zu d ist und x E
x30 0 0 1 x3

als Darstellung der Drehung um die x3 -Achse. x0


Diesmal wollen wir auch den Ablauf der Bewegung von
d
der Ausgangslage in die Endlage beschreiben. Angenom- xE?
men, die Drehung von x nach x 0 erfolgt mit der konstanten x n0 x E
Winkelgeschwindigkeit ! und beginnt zum Zeitpunkt t D xd b2
b2 0 b1 0
0. Damit wir dann zu jedem Zeitpunkt t wissen, wo sich
der Punkt x gerade befindet, ersetzen wir in der obigen
'
Matrizengleichung das ' durch den augenblicklichen Dreh- o b1 xE
winkel
'
.t/ D ! t mit 0  t  ;
! . Abb. 5.28 Die Drehung um die Achse d durch '
5.5  Wechsel zwischen kartesischen Koordinatensystemen
157 5

Beispiel: Euler’sche Drehwinkel

Um bei festgehaltenem Koordinatenursprung die Raumlage nen wir die Matrix A, welche die Bewegung B darstellt, als
eines Rechtsachsenkreuzes B 0 relativ zu einem Rechtsach- Produkt von drei Drehmatrizen ausrechnen.
senkreuz B eindeutig vorzugeben, kann man die eigentlich In den folgenden Matrizen wurde aus Platzgründen der Si-
orthogonale Matrix A D B T B 0 benutzen. Diese stellt nach nus durch s abgekürzt und der Kosinus durch c:
(5.19) gleichzeitig diejenige Bewegung B dar, welche B nach 0 10 10 1
B 0 bringt. c˛ s˛ 0 1 0 0 c s 0
B CB CB 0C
Eine orthogonale 3 3 -Matrix enthält neun Einträge, A D @ s ˛ c ˛ 0A @0 c ˇ s ˇ A @ s c A
doch erfüllen diese sechs Gleichungen, nämlich die drei 0 0 1 0 sˇ cˇ 0 0 1
Normierungsbedingungen sowie die drei Orthogonalitätsbe- 0 10 1
c ˛ s ˛ c ˇ s ˛ s ˇ c s 0
ziehungen der Spaltenvektoren. Es ist demnach eher mühsam, B CB 0C
D @ s ˛ c ˛ c ˇ c ˛ s ˇ A @ s c A
eine Raumposition auf diese Weise durch neun vielfältig von-
0 sˇ cˇ 0 0 1
einander abhängige Größen anzugeben. 0 1
Im Gegensatz dazu bieten die Euler’schen Drehwinkel ei- c˛c s˛cˇs c ˛ s  s ˛ c ˇ c s˛sˇ
B C
ne Möglichkeit, dieselbe Raumlage durch drei voneinander D @s ˛ c C c ˛ c ˇ s s ˛ s C c ˛ c ˇ c c ˛ s ˇ A
unabhängige Größen festzulegen, nämlich durch die drei Eu- sˇs sˇc cˇ
ler’schen Drehwinkel ˛; ˇ; (siehe Abbildung unten), und
diese sind bei Einhaltung gewisser Grenzen fast immer ein- Wenn umgekehrt eine Position des Rechtsachsenkreuzes
deutig bestimmt. Wie sieht zu gegebenen Drehwinkeln ˛; ˇ; .b01 ; b02 ; b03 / gegeben ist, so sind bei linear unabhängigen
die Transformationsmatrix aus? fb3 ; b03 g die zugehörigen Euler’schen Drehwinkel eindeutig
bestimmt, sofern man deren Grenzen mit
Problemanalyse und Strategie
Die Bewegung B, also der Übergang von .b1 ; b2 ; b3 / zu 0ı  ˛ < 360ı ; 0ı  ˇ  180ı ; 0ı  < 360ı
.b01 ; b02 ; b03 /, ist gemäß der unten gezeigten Abbildung die Zu-
sammensetzung folgender drei Drehungen. festsetzt. Der Vektor d (siehe Abbildung unten) hat nämlich
1. Die Drehung um b3 durch ˛ bringt b1 nach d. die Richtung des Vektorprodukts b3 b03 , und d schließt mit
2. Die Drehung um d durch ˇ bringt b3 bereits in die Endla- b1 bzw. b01 die Winkel ˛ bzw. ein. Dabei sind diese Winkel
ge b03 und die b1 b2 -Ebene in die Position E. als Drehwinkel zu vorgegebenen Drehachsen jeweils in einem
3. Die Drehung um b03 durch bringt auch die restlichen bestimmten Drehsinn zu messen.
Koordinatenachsen innerhalb von E in ihre Endlagen b01 In den Ausnahmefällen ˇ D 0ı .b03 D b3 / und ˇ D 180ı
0
bzw. b02 . .b3 D b3 / sind nur .˛ C / bzw. .˛  / eindeutig.

b3
Aber Achtung: Die Reihenfolge dieser Drehungen darf nicht
verändert werden; die Zusammensetzung von Bewegungen ist b03
so wie die Multiplikation von Matrizen nicht kommutativ!
Rechnerisch einfacher, allerdings nicht so unmittelbar ˇ
b2
0

verständlich, ist die folgende Zusammensetzung von B, bei


welcher dieselben Drehwinkel, aber zumeist andere Drehach-
sen auftreten.
E

b1
0

1. Wir drehen um b3 durch und bringen damit die Koor-


0
dinatenachsen innerhalb der anfangs mit der b1 b2 -Ebene
˛ b2
zusammenfallenden Ebene E in die gewünschte Position. ˇ
2. Wir drehen um b1 durch ˇ; damit bekommen die Ebene b1
d
E und der zugehörige Normalvektor b03 bereits die richti-
ge Neigung. Die Euler’schen Drehwinkel ˛, ˇ und
3. Wir drehen um b3 durch ˛ und bringen damit b03 und auch
E in die jeweils vorgeschriebenen Endlagen.
Kommentar Diese Überlegungen beweisen: Jede Raumlage
B 0 eines Achsenkreuzes ist aus deren Ausgangslage B durch
Diese Zerlegung von B hat den Vorteil, dass stets um die orts- die Zusammensetzung von drei Drehungen zu erreichen, näm-
festen Achsen b1 und b3 gedreht wird. lich der Reihe nach durch Drehungen um b3 , um b1 und
schließlich nochmals um b3 . Mithilfe des Begriffes der Eigen-
Lösung vektoren (siehe 7 Kap. 8) lässt sich zeigen, dass es auch stets
Die zu diesen Drehungen gehörigen eigentlich orthogonalen durch eine einzige Drehung geht, doch hat deren Drehachse
Matrizen sind bereits früher aufgestellt worden. Somit kön- eine allgemeine Lage.
158 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

normal dazu (vergleiche . Abb. 5.24). Bei kdk D 1 ist Mithilfe des Begriffs der Eigenvektoren (siehe
x d D .d  x/ d und x E D x  x d . 7 Abschn. 8.2) kann man übrigens zeigen, dass jede ei-
Nachdem die zu d orthogonalen Ebenen bei der Dre- gentlich orthogonale dreireihige Matrix eine derartige
hung um d in sich bewegt werden, hat die Drehlage x 0 Drehmatrix ist. Deshalb nennt man die von diesen Matrizen
dieselbe Komponente x d in Richtung der Drehachse d wie gebildete Gruppe SO3 auch die Drehungsgruppe des R3 .
x. Hingegen ist der zu d orthogonale Anteil x E durch den Der Ausblick in der folgenden Box zeigt die Darstellung
Winkel ' zu verdrehen, d. h., der Drehungen mithilfe von Quaternionen.

x 0 D x d C cos ' x E C sin ' x ?


E; ?Selbstfrage 5.22
Warum ist R > D R d ;' D R d ;' ?
wobei x ?
E aus x E durch eine Drehung um d durch 90
ı d;'
5 im mathematisch positiven Sinn hervorgeht (. Abb. 5.28).
Wegen der Orthogonalität zwischen d und x E ist nach
(5.12) Umrechnung zwischen zwei kartesischen
Koordinatensystemen mit verschiedenen
x?
E Dd xE D d .x  x d / D d x: Nullpunkten
Dies führt zur Vektordarstellung
Nun seien zwei kartesische Koordinatensysteme ge-
x 0 D .1  cos '/.d  x/ d C cos ' x C sin ' .d x/: geben, deren Koordinatenursprünge verschieden sind
(5.20) (. Abb. 5.29): Neben dem System .oI B/ mit B D
.b1 ; b2 ; b3 / in gewohnter Position gibt es noch das System
Um die Darstellungsmatrix der Abbildung x ! x 0 zu .pI B 0 / mit der orthonormierten Basis B 0 D .b01 ; b02 ; b03 /.
erhalten, nutzen wir jene der Orthogonalprojektion. Bei Nun muss sorgfältig unterschieden werden, ob wir die Ko-
kdk D 1 ist ordinaten von Punkten umrechnen oder jene von Vektoren.
Beginnen wir mit den Vektoren: Sie sind als Pfeile zu
x d D .d d > / x und x E D x  x d D .E3  d d > / x: sehen, die im Raum beliebig parallel verschoben werden
dürfen. Zur Ermittlung der B 0 -Koordinaten eines Vektors
Andererseits ist d x D S d x, wobei S d die dem Vektor d u verwenden wir den Pfeil mit Anfangspunkt p. Dann
im Sinn von (5.11) zugeordnete schiefsymmetrische Matrix sind die .pI B 0 /-Koordinaten des Endpunkts zugleich die
ist. B 0 -Koordinaten von u.
Die B-Koordinaten von u sind durch den parallelen
Lemma Die Drehung durch den Winkel ' um die durch Pfeil mit dem Anfangspunkt o bestimmt. Gemäß (5.1) be-
den Koordinatenursprung verlaufende Drehachse mit dem steht also nur die Aufgabe, u einmal aus den b und dann
i
normierten Richtungsvektor d hat die eigentlich orthogo- aus den b0 linear zu kombinieren. Die beiden Koordinaten-
j
nale Darstellungsmatrix tripel desselben Vektors u sind somit nach wie vor durch
> die Matrizengleichung (5.17) miteinander 0verknüpft.
1 0 01
R d;' D .1  cos '/.d d / C cos ' E3 C sin ' S d : x1 x1
Anders ist es bei Punktkoordinaten: @x2 A bzw. @x20 A
Die ersten zwei Summanden in dieser Darstellung sind
x3 x30
symmetrische Matrizen, der dritte Summand ist schiefsym- 0
sind die .oI B/- bzw. .pI B /-Koordinaten desselben Raum-
metrisch. Deshalb lautet die transponierte Matrix

R> >
d;' D .1  cos '/.d d / C cos ' E3  sin ' S d ;
b03 x
woraus b02
b3

R d;'  R >
d;' D 2 sin ' S d
b01
folgt. Auf diese Weise lässt sich aus der Drehmatrix der
Vektor sin ' d herausfiltern. p
Nachdem die Einträge in der Hauptdiagonale der Dreh-
matrix R d;' nur von den symmetrischen Anteilen stam-
men, lautet die Summe der Hauptdiagonalglieder wegen o
kdk D 1:
b2
b1
Sp A D .1  cos '/ C 3 cos ' D 1 C 2 cos ':
. Abb. 5.29 Zwei Koordinatensysteme im R3 mit verschiedenen Null-
Diese Summe heißt übrigens Spur der Matrix. punkten
5.5  Wechsel zwischen kartesischen Koordinatensystemen
159 5

Hintergrund und Ausblick: Quaternionen zur Darstellung von Drehungen

Im 7 Abschn. 2.3 wurden die Quaternionen q D a C i b C denn wegen der Assoziativität der Multiplikation in H ist
j c C k d 2 H, also mit .a; b; c; d / 2 R4 , als Erweiterungen
von komplexen Zahlen eingeführt. Wir können die Quaternion .q1 ı q2 / ı .q1 ı q2 / D .q1 ı q2 / ı q 2 ı q 1
q aber auch als Summe aus dem Skalarteil a und der vek- D q1 ı kq2 k2 ı q 1 D kq2 k2 kq1 k2 :
torwertigen Quaternion v D i b C j c C k d darstellen, also
Damit vermittelt die Abbildung q ! kqk einen Homomor-
als q D a C v. Wir nennen den zweiten Summanden v ein-
phismus .H n f0g; ı/ ! .R>0 ; /. Die Menge H1 der Quater-
fachheitshalber einen Vektor und interpretieren dabei .i; j; k/
nionen mit der Norm 1, der Einheitsquaternionen, bildet den
in gleicher Weise wie die Standardbasis .e 1 ; e 2 ; e 3 / des R3
Kern dieses Homomorphismus und damit eine Untergruppe
als orthonormierte Basis des Anschauungsraums.
von .H n f0g; ı/.
Dies ist dann die Grundlage für eine Darstellung der Dre-
Bei q D a Cv 2 H1 gibt es wegen kqk2 D a2 Ckvk2 D 1
hungen mittels Quaternionen. Es wird sich zeigen, dass die
einen Winkel ˛ mit a D cos ˛. Deshalb können Einheitsqua-
multiplikative Gruppe des Quaternionenschiefkörpers H ho-
ternionen dargestellt werden als
momorph ist zur Drehungsgruppe SO3 .
q D cos ˛ C sin ˛ b
v mit kb
vk D 1:
Für vektorwertige Quaternionen (a D 0) gibt es ein Skalarpro-
dukt, ein Vektorprodukt und auch ein Quaternionenprodukt. Jede Einheitsquaternion q legt eine Vektorabbildung
Um Verwechslungen zu vermeiden, verwenden wir von nun an
ı als Verknüpfungssymbol der Quaternionenmultiplikation. ıq W R3 ! R3 mit x 7! x 0 WD q ı x ı q ( )
Es gibt einen tieferen Grund für die Interpretation von fest. x0 ist tatsächlich wieder ein Vektor, denn
.i; j; k/ als orthonormierter Basis. Den Vektorprodukten e 1
e 2 D e 3 , e 2 e 1 D e 3 usw. von Vektoren der Standardbasis x 0 D q ı x ı q D q ı .x/ ı q D x 0 :
stehen nämlich die Quaternionenprodukte i ı j D k, j ı i D k
usw. gegenüber. Nachdem das Quaternionenprodukt distribu- Mithilfe von ( ) lässt sich nachweisen, dass ıq linear ist und
tiv gebildet wird, gilt für je zwei Vektoren v1 ; v2 2 H wegen Skalarprodukte sowie Vektorprodukte unverändert lässt. Wir
i ı i D j ı j D k ı k D 1: wollen hier allerdings gleich eine explizite Vektordarstellung
von x0 herleiten.
v1 ı v2 D .v 1  v2 / C .v1 v2 /:
x 0 D q ı x ı q D .cos ˛ C sin ˛b
v/ ı x ı .cos ˛  sin ˛b
v/
Das Quaternionenprodukt zweier Vektoren aus H ist somit bei D sin ˛.b
v  x/ C .cos ˛ x C sin ˛.b
v x// ı .cos ˛  sin ˛b
v/
v1  v2 ¤ 0 nicht mehr vektorwertig. Aber es gilt umgekehrt: D  sin ˛ cos ˛.b
v  x/ C sin ˛ cos ˛.b
v  x/ C sin2 ˛ det.b
v;b
v; x/
v1  v2 D  12 ..v1 ı v2 / C .v2 ı v1 // ; C sin2 ˛.b
v  x/b
v C cos2 ˛ x C sin ˛ cos ˛.b
v x/
( )
v1 v2 D 1
2 ..v1 ı v2 /  .v2 ı v1 // :  sin ˛ cos ˛.b
v x/  sin2 ˛Œ.b
v x/ b
v :

Durch die Zerlegung der Quaternionen in Skalar- und Vek- Wegen .b v x/ b v D .bv b
v/ x  .b
v  x/b
v nach der Grassmann-
torteil wird das Produkt zweier Quaternionen qi D ai C vi , Identität und wegen 2 sin2 ˛ D 1cos2 ˛Csin2 ˛ D 1cos 2˛
i D 1; 2, übersichtlicher, denn folgt weiter:
.a1 C v1 / ı .a2 C v2 / x 0 D 2 sin2 ˛.b
v  x/b
v C .cos2 ˛  sin2 ˛/ x C 2 sin ˛ cos ˛.b
v x/
D .a1 a2  v1  v2 / C .a1 v2 C a1 v1 C .v1 v2 //: D .1  cos 2˛/.b
v  x/b
v C cos 2˛ x C sin 2˛ .b
v x/:

Die zu q D a C v konjugierte Quaternion ist q D a  v. Vek- Der Vergleich mit der Vektordarstellung (5.20) zeigt: Die Ab-
torwertige Quaternionen sind durch q D q gekennzeichnet. bildung ıq aus . / mit q D cos ˛ C sin ˛ b v ist eine Drehung
Ein gleichzeitiger Vorzeichenwechsel von v1 und v2 in der mit b
v als Einheitsvektor in Drehachsenrichtung und mit dem
obigen Formel zeigt: Drehwinkel 2˛.
.q1 ı q2 / D q 2 ı q 1 : Die Zusammensetzung der Drehungen ı1 W x 7! x 0 D
q1 ı x ı q 1 und ı2 W x 0 7! x 00 D q2 ı x0 ı q 2 lautet:
Bei q ¤ 0 bestimmt q die zu q inverse Quaternion als
ı2 ı ı1 W x 7! x 00 D .q2 ı q1 / ı x ı .q2 ı q1 /:
1 1
q D 2 q:
a C b2 C c 2 C d 2 Die Abbildung W q 7! ıq ist somit ein Homomorphismus
Im Nenner tritt die Standardnorm des R auf. Wir definieren
4 .H1 ; ı/ ! .SO3 ; ı/ mit dem Kern f1; 1g; neben q stellt auch
diese gleichzeitig als Norm der Quaternion q dieselbe Drehung dar. Ein weiterer Homomorphismus ist
p p Inhalt der Aufgabe 7.22.
kqk D a2 C b 2 C c 2 C d 2 D q ı q; In . / kann man anstelle q 2 H1 allgemeiner ein q 2 H n
wobei jene der Vektoren inkludiert ist. Es gilt: f0g verwenden, doch muss dann die rechten Seite noch durch
kqk2 dividiert werden. Dies führt auf einen surjektiven Homo-
kq1 ı q2 k D kq1 k  kq2 k; morphismus .H n f0g; ı/ ! .SO3 ; ı/ mit dem Kern R n f0g.
160 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

punkts x, wenn gemäß (5.2) In der 4 4 -Matrix A sind die .oI B/-Koordinaten des
Punkts p vereint mit der orthogonalen 3 3 -Matrix A,
X 3 X 3 während die erste Zeile immer völlig gleich aussieht. Wir
x DoC xi bi D p C xj0 bj0 nennen diese die erweiterte Transformationsmatrix .
i D1 j D1 Wir erkennen, dass die nullten Koordinaten stets unver-
ändert bleiben, d. h. stets x0 D x00 ist. Vektorkoordinaten
ist. Wir drücken diese Gleichung in .oI B/-Koordinaten
0 1 bleiben also Vektorkoordinaten, und das analoge gilt für
x1 Punktkoordinaten. In den Spalten der erweiterten Trans-
aus. Dann stehen auf der linken Seite die gesuchten @ x 2 A. formationsmatrix .oIB/ T
.pIB 0 / stehen der Reihe nach die
x3 erweiterten .oI B/-Koordinaten des Punkts p und der Vek-
0 1
5 p1 toren bj0 .
Rechts müssen wir die .oI B/-Koordinaten @p2 A von p
p3
0
und jene der Basisvektoren bj einsetzen. Dabei sind letzte- Transformation zwischen kartesischen
re die Spalten in der orthogonalen Matrix A D B T B 0 . Wir Koordinaten
erhalten: Die Umrechnung vom kartesischen Koordinatensystem
0 1 0 1 0 01 .pI B 0 / auf das kartesische Koordinatensystem .oI B/ er-
x1 p1 x1 folgt für die erweiterten Punkt- und Vektorkoordinaten
@x2 A D @p2 A C A @x20 A mit A 1 D A > : nach (5.21). Dabei stehen in den Spalten der erweiter-
x3 p3 x30 ten Transformationsmatrix .oIB/ T .pIB 0 / der Reihe nach die
erweiterten .oI B/-Koordinaten des Ursprungs p sowie
die B-Koordinaten der Vektoren b01 ; b02 ; b03 der orthonor-
Erweiterte Koordinaten und Matrizen mierten Basis B 0 . Die rechte untere 3 3-Teilmatrix in
ermöglichen einheitliche Formeln .oIB/ T .pIB 0 / ist orthogonal.

für Punkte und Vektoren

Dass hinter der Erweiterung der Koordinaten mehr als nur


Die Umrechnungsgleichungen für Punktkoordinaten sind
ein formaler Trick steht, zeigt die kommende Box.
verschieden von jenen für Vektorkoordinaten. Das zwingt
zu besonderer Sorgfalt. Zudem ist die Koordinatentrans-
?Selbstfrage 5.23
formation von Punkten nicht allein durch eine Matrizen-
Beweisen Sie, dass auch bei Verwendung erweiterter Ko-
multiplikation ausdrückbar, sondern es ist zusätzlich ein
ordinaten jede Linearkombination von Vektoren wieder
konstanter Vektor zu addieren. Dies führt zu unübersicht-
ein Vektor ist und jede Affinkombination von Punkten
lichen Formeln, wenn mehrere derartige Transformationen
wieder ein Punkt ist.
hintereinandergeschaltet werden müssen.
Hier erweist sich nun folgender Trick als vorteilhaft:
Wir fügen den drei Koordinaten eine weitere als nullte Ko- Auch bei der Darstellung allgemeiner
ordinate hinzu. Bei Punkten wird diese gleich 1 gesetzt, bei Bewegungen sind erweiterte Koordinaten
Vektoren gleich 0. Wir nennen diese Koordinaten erwei-
zweckmäßig
terte Punkt- bzw. Vektorkoordinaten und kennzeichnen die
zugehörigen Vektorsymbole durch einen Stern. Dann lassen
sich die Umrechnungsgleichungen einheitlich schreiben in Wie früher bei festgehaltenem Ursprung, so gestattet auch
der Form hier die Transformationsgleichung (5.21) eine zweite In-
terpretation, wenn wir diese unter Benutzung erweiterter
.oIB/ x D .oIB/ T .pIB 0 / .pIB 0 / x (5.21) Koordinaten schreiben als
0 1 0 01
x0 x0 x0 D A x (5.22)
Bx 1 C Bx10 C
mit .oIB/ x D B C B C
@x2 A, .pIB 0 / x D @x20 A und mit der erweiterten Matrix A .
x3 x30 Es gibt genau eine Bewegung B, welche o in p über-
führt und die Basisvektoren bi von B der Reihe nach in jene
0 1 von B 0 . Angenommen, x geht in x 0 über (. Abb. 5.30).
1 0 0 0
Bp1 Dann hat das Urbild x bezüglich .oI B/ dieselben Ko-
a11 a12 a13 C
A D .oIB/ T .pIB 0 / DB
@p2
C: ordinaten wie der Bildpunkt x 0 bezüglich .pI B 0 /. Wenn
a21 a22 a23 A
wir Urbild und Bildpunkt in demselben Koordinatensys-
p3 a31 a32 a33 tem .oI B/ darstellen wollen, so müssen wir nur noch
5.5  Wechsel zwischen kartesischen Koordinatensystemen
161 5

Hintergrund und Ausblick: Euklidische, affine und projektive Geometrie

Vor mehr als 2000 Jahren erkannte man bereits, dass man te. Jede Gerade bekommt einen Fernpunkt dazu, was unserer
nur dann eine Übersicht über die vielen geometrischen Ein- Anschauung ein wenig widerspricht, denn man kommt zu
zelresultate gewinnen kann, wenn man gewisse Aussagen als demselben Fernpunkt, egal, ob man in der einen oder in der
Axiome an die Spitze stellt und alle anderen daraus herleitet. entgegengesetzten Richtung die Gerade entlang läuft. Inter-
Dadurch wurde die Geometrie sehr früh zum Musterbeispiel pretiert man die Menge der Fernpunkte einer Ebene als eine
einer deduktiven Wissenschaft. Gerade und jene des Raums als Ebene, so entsteht der projek-
Ein Axiomensystem bringt nicht nur Ordnung, sondern es tive Raum.
ist auch anregend. Will man sich zum Beispiel Klarheit über Die Geometrie in diesem Raum, die reelle projektive
die Reichweite der einzelnen Axiomen verschaffen, so wird Geometrie, erfordert nur wenig Axiome und stellt eine überge-
man gewisse Axiome abändern oder überhaupt weglassen. ordnete Geometrie dar, aus welcher durch zusätzliche Forde-
So entstanden verschiedene Geometrien, die ihrerseits wieder rungen sowohl die euklidische, als auch die nichteuklidische
eine gewisse Gliederung erforderten. Eine tragfähige Basis Geometrie entstehen.
hierfür stellte das von Felix Klein (1849–1925) entwickel- Die analytische Geometrie in dem durch Fernpunkte
te Erlanger Programm dar. Es empfiehlt, von den Gruppen erweiterten Anschauungsraum verwendet die vorhin einge-
der jeweiligen Automorphismen auszugehen und die Geo- führten erweiterten Koordinaten x bzw. u der Punkte und
metrien als Studium der zur jeweiligen Gruppe gehörigen Vektoren. Man muss allerdings in Kauf nehmen, dass die
Invarianten zu kennzeichnen. Um eine geometrische Aussage vier Koordinaten der Punkte des projektiven Raums homo-
richtig einzuordnen, muss überprüft werden, hinsichtlich wel- gen, also nur bis auf einen Faktor eindeutig sind. Punkte des
cher größtmöglichen Gruppe von Automorphismen die dabei reellen projektiven Raums sind somit eindimensionale Unter-
verwendeten Begriffe invariant sind. räume des R4 , Geraden sind zweidimensionale und Ebenen
dreidimensionale Unterräume. Die bijektiven linearen Selbst-
So anschaulich die Geometrie auch scheinen mag, man abbildungen des R4 induzieren Kollineationen, und diese
braucht deutlich mehr Axiome als etwa zur Definition ei- spielen die Rolle von Automorphismen.
nes Vektorraums, selbst wenn man sich nur auf die ebene Zeichnet man umgekehrt im projektiven Raum eine Ebe-
Geometrie beschränkt. Die ersten Versuche für ein Axiomen- ne als Menge von „Fernpunkten“ aus und entfernt man diese,
system der Geometrie gehen auf Euklid ( 365–300 v. Chr.) so bleibt ein affiner Raum, in welchem wieder Parallelitäten
zurück. Das bekannteste Axiomensystem stammt von David erklärbar sind. Kollineationen, welche die gewählte „Fern-
Hilbert (1862–1943). Es umfasst Inzidenzaxiome über die ge- ebene“ auf sich abbilden, induzieren dann im verbleibenden
genseitige Lage von Punkten und Geraden, Kongruenzaxiome, Raum affine Abbildungen. Die Gruppe der bijektiven affinen
Distanzen und Winkelmaße betreffend, Anordnungsaxiome zu Abbildungen bestimmt die affine Geometrie.
den Begriffen „Halbebene“ und „zwischen“, sowie ein Ste- Dieser affinen Raum bestimmt einen Vektorraum. Die
tigkeitsaxiom, vergleichbar mit der Vollständigkeit der reellen Einführung eines Skalarprodukts auf diesem Vektorraum er-
Zahlen (siehe Grundwissenbuch, Abschnitt 4.3). möglicht die Definition von Distanzen und Winkelmaßen. Die
Unter den Axiomen kam Euklids Parallelenpostulat eine zugehörigen Automorphismen sind die Kongruenzen; deren
besondere Rolle zu, nämlich der Forderung, dass durch je- Gruppe ist isomorph zur Gruppe der orthogonalen Matrizen.
den Punkt P außerhalb der Geraden G genau eine Parallele Die zugehörige Geometrie ist die euklidische.
legbar ist, also eine Gerade, die G nicht schneidet. Dieses Der pythagoräische Lehrsatz gehört demnach zur euklidi-
ist experimentell niemals nachprüfbar, denn was weiß man schen Geometrie. Der Strahlensatz, wonach parallele Geraden
schon von Geraden, wenn man sie weit genug über unser Son- auf zwei schneidenden Geraden Strecken proportionaler Län-
nensystem hinaus verlängert. Man versuchte 2000 Jahre lang gen ausschneiden, ist eine affine Aussage. Der im Bild unten
vergeblich, dieses Axiom durch äquivalente und eher „über- gezeigte Satz von Pappus-Pascal zählt zur projektiven Geo-
prüfbare“ Aussagen zu ersetzen, bis der Ungar János Bolyai metrie. Seine Aussage lautet: Für je drei Punkte P1 ; P2 ; P3
(1802–1860) bestätigte, dass es auch eine widerspruchsfreie auf der Geraden G und Q1 ; Q2 ; Q3 auf der Geraden H liegen
nichteuklidische Geometrie gibt, deren Axiomensystem sich die Schnittpunkte S1 ; S2 ; S3 auf einer Geraden K.
von jenem der euklidischen Geometrie nur dadurch unter-
scheidet, dass das euklidische Parallelenpostulat ersetzt wird P3
G
durch die Forderung: Durch P gibt es mindestens zwei ver- P2
schiedene Parallelen zu G. P1
Das Studium der Zentralprojektion zeigte, dass in per- S2
spektiven Bildern Fluchtpunkte auftreten, also Bilder von S3 S1
K
Punkten, die es in Wirklichkeit gar nicht gibt, nämlich von
Schnittpunkten paralleler Geraden. Dies führte zur Erweite- Q1 H
Q2
rung unseres Anschauungsraums durch unendlich ferne Punk- Q3
162 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

b03 b03e
b3 x0 b2l
b02 b3l
N

b01 b1l
p
p
x ˇ
ze
o
b2
5 b1 b02e

. Abb. 5.30 Die Bewegung B W x 7! x 0 bringt o mit p zur Deckung b01e


und die Vektoren bi für i D 1; 2; 3 mit b0i

. Abb. 5.31 Das lokale Koordinatensystem .pI B/ und das geozentri-


die .pI B 0 /-Koordinaten von x 0 auf .oI B/-Koordinaten sche .z I B 0 /
e e
umrechnen. Und genau dies wird in (5.22) ausgedrückt.
Dabei stehen in den Spalten der erweiterten Matrix A D
.oIB/ T .pIB 0 / die erweiterten B-Koordinaten des Bilds p vom torebene die Sonne enthält und die Fortschreitungs-
Ursprung o und der durch Verlagerung der Basis B entstan- richtung der Erde mit der zum Nordpol orientierten
denen Vektoren .b01 ; b02 ; b03 /. Erdachse einen stumpfen Winkel einschließt.
Umgekehrt ist jede Abbildung mit der Darstellung
(5.22) und einer erweiterten Matrix A von dem oben ge- Gesucht ist die erweiterte Transformationsmatrix s T vom
l
zeigten Typ mit eigentlich orthogonaler 3 3 Teilmatrix lokalen Koordinatensystem auf das heliozentrische. Dabei
eine Bewegung. Das wurde bereits früher gezeigt. treffen wir – abweichend von der Realität – die folgenden
Vereinfachungen.
4 Die Erde wird als Kugel mit dem Radius r vorausgesetzt
Umrechnung von einem lokalen – und nicht durch ein Ellipsoid approximiert.
4 Die Bahn der Erde um die Sonne wird als in der Sonne
Koordinatensystem auf der Erde
zentrierter Kreis mit dem Radius R angenommen – und
zu einem heliozentrischen System nicht als Ellipse mit der Sonne in einem Brennpunkt.
Die konstante Flächengeschwindigkeit bewirkt nun so-
In der Astronomie begegnen wir immer wieder der Auf- gar eine konstante Bahngeschwindigkeit.
gabe, zwischen verschiedenen kartesischen Koordinaten- 4 Während der Umrundung der Sonne bleibt die Stel-
systemen im Raum umzurechnen. In unserem Beispiel lung der Erdachse unverändert; Präzession und Nutation
verwenden wir die folgenden Systeme. bleiben unberücksichtigt.
4 Wir beginnen mit einem lokalen Koordinatensystem
.pI Bl / auf der Erde (. Abb. 5.31): Der Ursprung p Wir setzen die gewünschte Koordinatentransformation zu-
0
habe die geografische Länge  und Breite ˇ. Der erste sammen aus dem Wechsel von .pI Bl / zu .ze I Be /, der
0
Basisvektor b1l weise nach Osten, der zweite b2l nach Drehung von .ze I Be / gegenüber .ze I Be / um die gemein-
Norden. same dritte Koordinatenachse durch den Winkel ' und
4 Daneben betrachten wir ein im Erdmittelpunkt zentrier- schließlich der Umrechnung von .ze I Be / auf das angege-
tes, also ein geozentrisches Koordinatensystem .ze I Be0 / bene heliozentrische System .zs I Bs /. Für diesen letzten
mit einem zum Nordpol weisenden dritten Basisvektor Schritt setzen wir voraus, dass der Erdmittelpunkt vom
b03e . Der erste b01e zeige zum Äquatorpunkt des Nullme- Frühlingspunkt ausgehend innerhalb seiner Bahnebene den
ridians. Dieses System macht die Erdrotation mit. Kreisbogen zum Zentriwinkel zurückgelegt hat (siehe
4 Schließlich sei ein in der Sonnenmitte zs zentrier- . Abb. 5.32).
tes, also heliozentrisches Koordinatensystem gegeben Demgemäß erhalten wir mithilfe der zugehörigen er-
(. Abb. 5.32). Dessen Basisvektoren b1s und b2s span- weiterten Transformationsmatrizen
nen die Bahnebene der Erde auf. Der dadurch fest-
gelegte mathematisch positive Drehsinn soll mit dem s T l D s T e . /  e T e0 .'/  e0 T l : ( )
Durchlaufsinn der Erdbahn übereinstimmen. Der ers-
te Basisvektor b1s weise zum Frühlingspunkt. Dies ist Für die Transformationsmatrix e0 T l benötigen wir die er-
der Mittelpunkt jener Position der Erde, wo die Äqua- weiterten .ze I Be0 /-Koordinaten von p, b1l , b2l und b3l . Wir
5.5  Wechsel zwischen kartesischen Koordinatensystemen
163 5

b3s

b3e
23. 9.

b2s
zs
b3e

b2e
b1s

b1e
21. 3.

. Abb. 5.32 Das von der Erdrotation „befreite“ geozentrische Koordinatensystem .ze I Be / und das heliozentrische System .zs I Bs /. Die Erde ist rund
2 500-fach vergrößert dargestellt

gehen zunächst vom Nullmeridian aus, also von der Annah- tags (wahre Sonnenzeit). Zu dieser Zeit geht die Ebe-
me  D 0. Wenn wir darauf die Drehung um die Erdachse ne des Nullmeridians durch die Sonnenmitte. Nach einer
b03e durch die gegebene geografische Länge  anwenden, 360ı -Drehung der Erde um ihre Achse ist diese Ebene des
erhalten wir die Spaltenvektoren der Transformationsma- Nullmeridians zwar wieder zu ihrer Ausgangslage parallel.
trix e0 T l . Sie wird aber nicht mehr durch die Sonnenmitte gehen, weil
Mit obiger Abbildung finden wir, wenn wir den Sinus der Erdmittelpunkt inzwischen gewandert ist. Wir müssen
und Kosinus zu s bzw. c abkürzen: bis 12 Uhr mittags noch etwas weiterdrehen, allerdings um
0 10 1 die gegenüber der b1s b2s -Ebene geneigte Erdachse. Daher
1 0 0 0 1 0 0 0 ist dieser zusätzliche Drehwinkel trotz unserer vereinfa-
B0 c   s  0C Br c ˇ 0 s ˇ c ˇ C
e0 T l D @
B CB C chenden Annahmen nicht konstant.
0 s  c  0A @ 0 1 0 0A Im täglichen Leben verwenden wir die mittlere Zeit, die
0 0 0 1 r sˇ 0 cˇ sˇ auf der Annahme basiert, dass alle Tage gleich lang sind
0 1 und das Jahr etwa 365:24 Tage umfasst. Das ermöglicht
1 0 0 0
Br c ˇ c  s  s ˇ c  c ˇ c C uns, den zusätzlichen Drehwinkel durch seinen Mittel-
DB@r c ˇ s  c  s ˇ s  c ˇ s A
C wert 360ı =365:24 zu ersetzen. Die Differenz zwischen der
wahren und mittleren Sonnenzeit heißt Zeitgleichung und
r sˇ 0 cˇ sˇ
beträgt bis zu ˙15 Minuten.
Wir können ' D !e t C '0 setzen mit der Winkelge-
Die Bewegung von .ze I Be / nach .ze I Be0 / ist eine Dre-
schwindigkeit
hung um die gemeinsame dritte Koordinatenachse durch
 
den Winkel '. Somit ist 1 ı
!e D 2 1C .24  3 600/
0 1 365:24
1 0 0 0
B0 cos '  sin ' 0C pro Sekunde. '0 ist der Anfangswert zum Zeitpunkt t D 0.
B
e T e0 .'/ D @
C
0 sin ' cos ' 0A Übrigens ist r  6 371 km.
0 0 0 1 Während der Bewegung der Erde um die Sonne behält
die Erdachse ihre Richtung bei. Nun ist die Äquatorebe-
Die Vektoren aus Be behalten gegenüber dem heliozen- ne um den Winkel   23:45ı, der Schiefe der Ekliptik,
trischen System ihre Richtungen bei, machen also die gegenüber der Bahnebene geneigt. Nachdem wir die erste
Erdrotation nicht mit. Durch diese dreht sich die Erde ge- Koordinatenachse unseres heliozentrischen Systems durch
genüber dem heliozentrischen System in 24 Stunden durch den Frühlingspunkt gelegt haben und diese daher der Äqua-
mehr als 360ı , denn während dieser 24 Stunden wandert torebene der zugehörigen Erdposition angehört, 0 1 b3e
hat
der Erdmittelpunkt ja auf seiner Bahn weiter. 0
Betrachten wir dies etwas genauer: Angenommen, wir die von unabhängigen Bs -Koordinaten @ sin  A. Wir
beginnen unsere Winkelmessung genau um 12 Uhr mit- cos 
164 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

wählen die erste Koordinatenachse b1e des geozentrischen 5.3  Man füge in der folgenden Matrix M die durch
Systems Be gleich dem b1s . Damit folgt: Sterne markierten fehlenden Einträge derart ein, dass eine
0 1 eigentlich orthogonale Matrix entsteht.
1 0 0 0
BR cos 1 0 0 C 0 1
T . / D B C 2 2
s e @ R sin 0 cos   sin  A 1
MD @ 1 A
0 0 sin  cos  3

Nachdem die Erde in etwa 365:24 Tagen die Sonne einmal


Wie viele verschiedene Lösungen gibt es?
umrundet, können wir D !s t setzen mit der Winkelge-
schwindigkeit
5 5.4  Der Einheitswürfel W wird um die durch den
!s D 2 =.365:24  3 600  24/ Koordinatenursprung gehende Raumdiagonale durch 60ı
gedreht. Berechnen Sie die Koordinaten der Ecken des ver-
pro Sekunde. Wir können R  150 000 000 km annehmen, drehten Würfels W 0 .
verzichten hier allerdings darauf, die in der Gleichung . /
notwendige Matrizenmultiplikation zur Berechnung von 5.5  Man bestimme die orthogonale Darstellungs-
s T l explizit vorzuführen. matrix R der Drehung durch den Winkel ' um eine
d;'
durch den Koordinatenursprung
0 1 laufende Drehachse mit
d1
Aufgaben @
dem Richtungsvektor d D d 2 A bei kdk D 1.
d3
Gelegentlich enthalten die Aufgaben mehr Angaben, als für
die Lösung erforderlich sind. Bei einigen anderen dage-
gen werden Daten aus dem Allgemeinwissen, aus anderen
Quellen oder sinnvolle Schätzungen benötigt. Rechenaufgaben

einfache Aufgaben mit wenigen Rechenschritten 5.6  Im R3 sind zwei Vektoren gegeben, nämlich
mittelschwere Aufgaben, die etwas Denkarbeit und
unter Umständen die Kombination verschiedener 01 01
2 2
Konzepte erfordern
u D @2A und v D @ 5 A :
anspruchsvolle Aufgaben, die fortgeschrittene Kon- 1 14
zepte (unter Umständen auch aus späteren Kapiteln)
oder eigene mathematische Modellbildung benötigen
Berechnen Sie kuk, kvk, den von u und v eingeschlossenen
Winkel ' sowie das Vektorprodukt u v samt Norm ku vk.

Verständnisfragen 5.7  Stellen Sie die Gerade


0 1 0 1
5.1  Angenommen, die Gerade G ist die Schnittge- 3 2
rade der Ebenen E1 und E2 , jeweils gegeben durch eine G D @0A C R @2A
lineare Gleichung 4 1

ni  x  ki D 0; i D 1; 2: als Schnittgerade zweier Ebenen, also als Lösungsmenge


zweier linearer Gleichungen dar. Wie lauten die Gleichun-
Stellen Sie die Menge aller durch G legbaren Ebenen dar gen aller durch G legbaren Ebenen?
als Menge aller linearen Gleichungen mit den Unbekannten
.x1 ; x2 ; x3 /, welche G als Lösungsmenge enthalten.
5.8  Im Raum R3 sind die vier Punkte
5.2  Welche eigentlich orthogonale 3 3 -Matrix 0 1 0 1 0 1 0 1
1 0 1 1
A ¤ E3 erfüllt die Eigenschaften @ A @ A @
aD 0 ; bD 0 ; cD 2 ; d D 2A
A @
0 1 0 1 1 2 0 x3
1 1
A D AAA D E3 und A
3 @ 1 A D @ 1A :
1 1 gegeben. Bestimmen Sie die letzte Koordinate x3 von d
derart, dass der Punkt d in der von a, b und c aufgespann-
Wie viele Lösungen gibt es? Gibt es auch eine uneigentlich ten Ebene liegt. Liegt d im Inneren oder auf dem Rand des
orthogonale Matrix mit diesen Eigenschaften? Dreiecks abc?
Aufgaben
165 5
5.9  Im Anschauungsraum R3 sind die zwei Geraden 5.15  Im Anschauungsraum R3 sind die „einander fast
0 1 0 1 0 1 0 1 schneidenden“ Geraden
2 3 2 1
G D @ 0A C R @ 1A ; H D @1A C R @ 1A 0 1 0 1 0 1 0 1
2 1 3 2
3 1 0 1 G1 D @3A C R @ 1A ; G2 D @0A C R @2A
gegeben. Bestimmen Sie die Gleichung derjenigen Ebe- 3 2 4 1
ne E durch den Ursprung, welche zu G und H parallel
ist. Welche Entfernung hat E von der Geraden G, welche gegeben. Für welchen Raumpunkt m ist die Quadratsumme
von H ? der Abstände von G1 und G2 minimal.

5.10  Im Anschauungsraum R3 sind die Gerade 5.16  Die eigentlich orthogonale Matrix
0 1 0 1 0 1
1 2 1 0 1
@ A @ A
1 und der Punkt p D 1A@ 2 1 1
G D 0 CR 1 B p p C
2 2 1 A D p @p0 p3 p 3A
6 2 2 2
gegeben. Bestimmen Sie die Hesse’sche Normalform der-
jenigen Ebene E durch p, welche zu G normal ist.
ist die Darstellungsmatrix einer Drehung. Bestimmen Sie
einen Richtungsvektor d der Drehachse und den auf die
5.11  Im Anschauungsraum R3 sind die zwei Geraden
Orientierung von d abgestimmten Drehwinkel '.
0 1 0 1 0 1 0 1
3 2 2 1
G1 D @0A C R @2A ; G2 D @3A C R @ 1A 5.17  Die eigentlich orthogonale Matrix
4 1 3 2
gegeben. Bestimmen Sie die kürzeste Strecke zwischen den 0 1
2 1 2
beiden Geraden, also deren Endpunkte a1 2 G1 und a2 2 1@
1 2 2A
AD
G2 sowie deren Länge d . 3 2 2 1
5.12  Im Anschauungsraum R3 ist die Gerade G D
0 1 0 1 ist die Umrechnungsmatrix B T B 0 zwischen kartesischen
1 2
@1A C R @2A gegeben. Welcher Gleichung müssen die Koordinatensystemen .oI B 0 / und .oI B/. Bestimmen Sie
2 1 die zugehörigen Euler’schen Drehwinkel ˛, ˇ und .
Koordinaten x1 , x2 und x3 des Raumpunkts x genügen, da-
mit x von G den Abstand r D 3 hat und somit auf dem 5.18  Die drei Raumpunkte
Drehzylinder mit der Achse G und dem Radius r liegt? 0 1 0 1 0 1
0 2 1
5.13  Im Anschauungsraum R3 sind die zwei Geraden a 1 D @0 A ; a2 D @ 1A ; a3 D @1A
0 1 0 1 0 1 0 1 1 2 3
3 2 2 1
G1 D @0A C R @2A ; G2 D @3A C R @ 2A
bilden ein gleichseitiges Dreieck. Gesucht ist die erweiterte
4 1 3 2
Darstellungsmatrix derjenigen Bewegung, welche die drei
gegeben. Welcher Gleichung müssen die Koordinaten x1 , Eckpunkte zyklisch vertauscht, also mit a1 7! a2 , a2 7! a3
x2 und x3 des Raumpunkts x genügen, damit x von den und a3 7! a1 :
beiden Geraden denselben Abstand hat? Bei der Menge
dieser Punkte handelt es sich übrigens um das Abstandspa-
raboloid von G1 und G2 , ein orthogonales hyperbolisches Beweisaufgaben
Paraboloid (siehe 7 Abschn. 10.3).

R30ist die 5.19  Man beweise: Zwei Vektoren u; v 2 R3 n f0g


5.14  Im Anschauungsraum
0 1 1 Gerade G D
1 2 sind dann und nur dann zueinander orthogonal, wenn ku C
p C Ru mit p D @1A und u D @2A gegeben. Wel- vk2 D kuk2 C kvk2 ist.
2 1
cher Gleichung müssen die Koordinaten x1 , x2 und x3 des 5.20  Man beweise: Für zwei linear unabhängige Vek-
Raumpunkts x genügen, damit x auf demjenigen Drehke- toren u; v 2 R3 sind die zwei Vektoren u  v und u C v
gel mit der Spitze p und der Achse G liegt, dessen halber genau dann orthogonal, wenn kuk D kvk ist. Was heißt
Öffnungswinkel ' D 30ı beträgt? dies für das von u und v aufgespannte Parallelogramm?
166 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

5.21  Das (orientierte) Volumen V des von drei Vekto- 5.24  Angenommen, die Punkte p 1 ; p 2 ; p 3 ; p 4 bil-
ren v1 , v2 und v3 aufgespannten Parallelepipeds ist gleich den ein reguläres Tetraeder der Kantenlänge 1. Man zeige:
dem Spatprodukt det.v1 ; v2 ; v3 /. Zeigen Sie unter Ver- a) Der Schwerpunkt s D 14 .p 1 C p 2 C p3 C p 4 / hat von
wendung des Determinantenmultiplikationssatzes und des allen Eckpunkten dieselbe Entfernung.
Satzes über die Determinante der transponierten Matrix aus b) Die Mittelpunkte der Kanten p 1 p2 , p 1 p 3 , p 4 p 3 und
7 Abschn. 7.1, dass das Quadrat V 2 des Volumens gleich p 4 p 2 bilden ein Quadrat. Wie lautet dessen Kantenlän-
ist der Determinante der von den paarweisen Skalarproduk- ge?
ten gebildeten (symmetrischen) Gram’schen Matrix c) Der Schwerpunkt s halbiert die Strecke zwischen den
0 1 Mittelpunkten gegenüberliegender Kanten. Diese drei
v 1  v1 v1  v 2 v 1  v3 Strecken sind paarweise orthogonal.
G .v1 ; v2 ; v3 / D @v2  v1 v2  v2 v2  v3 A :
5 v 3  v1 v3  v 2 v 3  v3
Antworten zu den Selbstfragen
5.22  Die Quaternionen (siehe 7 Abschn. 2.3) bilden
einen vierdimensionalen Vektorraum über R. Sie sind aber
auch als Elemente des Vektorraums C 2 über R aufzufassen vAntwort 5.1
dank der bijektiven linearen Abbildung 'W H ! C 2 mit Nunmehr gilt b  a D f  c, also
0 1
    6
x a C ib B C
'W q D a C i b C j c C k d 7! D : f D b  a C c D @9A :
y c C id
4
Im Urbild ist i eine Quaternioneneinheit; das i im Bild ist
Die Gleichung f  c D c  d bestätigt c als Mittelpunkt
die imaginäre
  Einheit. Ignoriert man diesen Unterschied, so der Strecke d f .
x
ist ' 1 y D x C y ı j.
vAntwort 5.2
Beweisen Sie, dass ' einen Isomorphismus von .H n Wir beschränken uns im Beweis zunächst darauf, dass in
f0g; ı/ auf .C 2 n f0g; / induziert, sofern ı die Quaternio- einer Affinkombination einer der vorkommenden Vekto-
nenmultiplikation bezeichnet und die Verknüpfung auf ren selbst wieder eine Affinkombination ist: Angenom-
C 2 definiert wird durch Pn Pn
men, c D  a mit iD1 i D 1 und a1 D
      Pm Pmi i
iD1
x1 x2 x1 x2  y1 y2 
j D1 j jb bei 
j D1 j D 1. Dann ist c eine Linear-
D :
y1 y2 x1 y2 C y1 x2 kombination von b1 ; : : : ; bm ; a2 ; : : : ; an , und die Summe
Pm
der Koeffizienten lautet 1 j D1 j C 2 C    C n D
Pn
 bedeutet hier die Konjugation in C. Wie
Der Querstrich iD1 i D 1. Im Fall von Konvexkombinationen gilt
x zudem i ; j  0, und das trifft auch auf die neuen Koef-
sieht das zu y hinsichtlich inverse Element aus?
fizienten 1 j zu.
Beweisen Sie weiter, dass die Abbildung Sollte nun eine Affin- bzw. Konvexkombination vor-
    liegen, bei welcher zwei oder mehrere vorkommende
x x y
W C2 ! C2 2; ! Vektoren selbst wieder Affin- bzw. Konvexkombinationen
y y x
sind, so braucht zum Beweis der obigen Behauptung nur
das bisherige Ergebnis wiederholt angewendet zu werden.
einen injektiven Homomorphismus von .C 2 n f0g; / in die
multiplikative Gruppe der invertierbaren Matrizen aus C 2 2 vAntwort 5.3
induziert. Inwiefern bestimmt die Norm der Quaternion q Die erste ist richtig, denn die Affinkombinationen sind
die Determinante der Matrix . ı '/.q/? spezielle Linearkombinationen. Die zweite Aussage ist
Damit ist dann bestätigt, dass die von den Einheits- falsch, denn nicht jede Linearkombination ist eine Affin-
quaternionen gebildete Gruppe .H1 ; ı/ isomorph ist zur kombination, also eine mit der Koeffizientensumme 1.
multiplikativen Gruppe SU2 der Matrizen obiger Bauart
mit der Determinante 1, der zweireihigen unitären Matri- vAntwort 5.4
zen (siehe 7 Abschn. 9.4). s D 13 a C 13 b C 13 c ist eine Konvexkombination der drei
Eckpunkte, denn 13 C 13 C 13 D 1 und 0  13  1. Nachdem
5.23  Man zeige: keiner der Koeffizienten verschwindet, liegt s im Inneren.
a) In einem Parallelepiped schneiden die vier Raumdiago- Wir finden noch eine weitere Affinkombination, näm-
nalen einander in einem Punkt. lich
b) Die Quadratsumme dieser vier Diagonalenlängen ist  
2 1 1
gleich der Summe der Quadrate der Längen aller 12 sD .a C b/ C c;
3 2 3
Kanten des Parallelepipeds (siehe dazu die Parallelo-
grammgleichung (5.6)). und diese beweist die zweite Behauptung.
Antworten zu den Selbstfragen
167 5

v Antwort 5.5 unabhängig sind, also bei .c a/ .ba/ ¤ 0. Wegen der
Nein, natürlich nicht! Die Eigenschaft, ein Rechtssystem Linearität des Vektorprodukts können wir die linke Seite
zu sein, ist unabhängig von der Position im Raum. Ein dieser Ungleichung noch umformen zu .c b/  .a b/ 
rechter Schuh wird kein linker, wenn wir ihn umdrehen, .c a/C.a a/, wobei der letzte Summand verschwindet.
also mit der Sohle nach oben hinlegen.
vAntwort 5.12
v Antwort 5.6 Ein verschwindendes Spatprodukt kennzeichnet lineare
Nach der Definition der Norm ist kak2 D a  a D a2 . Aus Abhängigkeit. Der Absolutbetrag bleibt bei Vertauschun-
der Bilinearität und Symmetrie des Skalarprodukts folgt: gen der Reihenfolge unverändert.

ku C vk2 C ku  vk2 D .u C v/2 C .u  v/2 vAntwort 5.13


D u C 2 .u  v/ C v C u  2 .u  v/ C v
2 2 2 2 Aus der Schiefsymmetrie des Vektorprodukts folgt:

D 2 .u2 C v2 / D 2 .kuk2 C kvk2 /: u .v w/ D .v w/ u D .v  u/w C .w  u/v:

v Antwort 5.7 vAntwort 5.14


Es ist Ebenfalls ein reguläres Tetraeder, und zwar eines, das der
Einheitskugel eingeschrieben ist, nachdem es sich aus-
ka1  a2 k D ka3  a4 k D 4; schließlich um Einheitsvektoren handelt.
und für jedes i 2 f1; 2g und j 2 f3; 4g ist
vAntwort 5.15
p 0 1
kai  aj k D 22 C 22 C 22  2 D 4: 4C1C4 2C24 422
B2 C 2  4 1 C 4 C 4 2  4 C 2C
DD@ A
Je drei dieser Punkte bilden ein gleichseitiges Dreieck.
422 24C2 4C4C1
Alle vier sind die Eckpunkte einer speziellen dreiseitigen 0 1
Pyramide, eines regulären Tetraeders. 9 0 0
B C
D @0 9 0A D 9 E3 :
v Antwort 5.8 0 0 9
uv 1 1
cos ' D D p p D H) ' D 60ı : vAntwort 5.16
kuk kvk 2 2 2
Nach (5.14) ist aufgrund der angegebenen Substitutionen
v Antwort 5.9 det.p  a; u; v/
Wir zeigen, dass das Skalarprodukt .f  b/  u null ist: bDaC .u v/
ku vk2
  .p  a/  .u v/ u v
.b  a/  u DaC
.f  b/  u D a C ub u ku vk ku vk
uu
.b  a/  u D a C Œ.p  a/  n n
D .a  b/  u C .u  u/
uu D a  Œ.a  n/  .p  n/ n
D .a  b/  u C .b  a/  u D 0: D a  Œ.a  n/  k n D a  l.a/ n:
Hier haben wir die Linearität des Skalarprodukts ausge-
nutzt. Bei b ¤ f beweist das verschwindende Skalarpro- vAntwort 5.17
dukt die Orthogonalität. Bei b D f muss b bereits als Im dyadischen Produkt sind die Spaltenvektoren der Rei-
Punkt von G gewählt worden sein. Umgekehrt bedeutet he nach v1 u, v2 u und v3 u und somit skalare Vielfache
b 2 G, dass f  b D  u ist und daher .f  b/  u D von u. Sind u und v verschieden vom Nullvektor, so ist
.u  u/ D 0 wegen u ¤ 0 nur bei  D 0, also bei f D b wenigstens einer der Spaltenvektoren vom Nullvektor ver-
möglich ist. schieden und daher der Rang des dyadischen Produkts 1.
Andernfalls ist der Rang 0, denn alle Einträge sind null.
v Antwort 5.10
vAntwort 5.18
x liegt genau dann in der Ebene E, wenn der Vektor x p
1) Wegen knk D 1 ist
eine Linearkombination von u und v ist. Und dies ist, wie
vorhin gezeigt wurde, äquivalent zum Verschwinden des N N D n .n> n/ n> D n n> D N
Skalarprodukts von x  p und dem Vektorprodukt u v.
und daher .E3  N /2 D E3  2N C N D E3  N .
v Antwort 5.11 Dazu gibt es auch eine geometrische Erklärung: Geht
Die Punkte a; b; c liegen genau dann nicht auf einer Ge- die Ebene E durch den Ursprung .k D 0/, so beschreibt
raden, wenn die Vektoren .b  a/ und .c  a/ linear die Matrix .E3  N / die Orthogonalprojektion. Wird
168 Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

nun der Normalenfußpunkt x E von x noch einmal nor- die Matrizen der Drehungen um die x1 - bzw. x2 -Achse:
mal nach E projiziert, so ändert er sich nicht mehr. Es 0 1 0 1
bewirkt die zweimalige Ausführung der Orthogonalpro- 1 0 0 c' 0 s'
B  s 'C B 0 C
jektion nichts anderes als die einmalige, und genau dies A1 D @0 c' A; A2 D @ 0 1 A
wird mit der Idempotenz der Matrix ausgedrückt . 0 s' c' s' 0 c'
2) Die Spaltenvektoren in der Darstellungsmatrix sind
die Bilder der Standardbasis des R3 . Da diese drei Bild- Hier wurden die Symbole für die Sinus- und Kosinusfunk-
vektoren in E liegen, sind sie linear abhängig. Somit tion durch s bzw. c abgekürzt.
verschwindet die Determinante.
vAntwort 5.22
5 v Antwort 5.19 Die Drehmatrix ist orthogonal. Daher gilt R > 1
d ;' D R d ;' .
Wegen N D N folgt durch Ausrechnen .E3  2N / D
2 2
Die zur Drehung durch den Winkel ' inverse Bewegung
E3 . Diese Gleichung ist andererseits daraus zu folgern, ist die Drehung um dieselbe Achse d durch ', also in
dass die zweimalige Spiegelung an E alle Raumpunkte dem entgegengesetztem Drehsinn. Dieselbe Bewegungs-
unverändert lässt. umkehr ist auch durch den Ersatz von d durch d zu
erreichen.
v Antwort 5.20 Natürlich ist dies auch anhand der Darstellung der Dreh-
1) Nein, sie ist zwar orthogonal, aber die Spaltenvektoren matrix R d ;' aus dem obigen Lemma zu bestätigen: Wegen
.s1 ; s2 ; s3 / bilden ein Linkssystem; es ist det.s1 ; s2 ; s3 / D der Schiefsymmetrie von S d ist S d D S d D S > d.
1 und s1 s2 D s3 . Erst nach Vertauschung zweier Ebenso bewirkt ein Vorzeichenwechsel von '; dass der
Spalten oder auch Zeilen entstünde eine eigentlich ortho- schiefsymmetrische Summand in der Drehmatrix transpo-
gonale Matrix. niert wird, wodurch R d ;' in R >
d ;' übergeht, also invertiert
2) Die Matrix M ist symmetrisch, und wegen N 2 D wird.
N ist M M > D M M D E3 , wie bereits früher festge-
stellt worden ist. Die Spiegelung führt Rechtssysteme in vAntwort 5.23
Linkssysteme über. Daher ist die Matrix uneigentlich or- Die verschwindende nullte Koordinate bei Vektoren bleibt
thogonal. auch nach beliebigen Linearkombinationen gleich null.
Der Einser als nullte Koordinate für die Punkte geht
v Antwort 5.21 bei Linearkombinationen in die Summe der Koeffizienten
In den Spalten der Transformationsmatrizen stehen die über; er bleibt somit genau bei den Affinkombinationen
Koordinaten der verdrehten Basisvektoren. Daher lauten gleich 1:
169 6

Lineare Abbildungen
und Matrizen – Brücken
zwischen Vektorräumen

Inhaltsverzeichnis

6.1 Definition und Beispiele – 171

6.2 Verknüpfungen von linearen Abbildungen – 176

6.3 Kern, Bild und die Dimensionsformel – 178

6.4 Darstellungsmatrizen – 185

6.5 Verknüpfungen von Matrizen – 194

6.6 Das Invertieren von Matrizen – 201

6.7 Elementarmatrizen – 207

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_6
6.8 Basistransformation – 211

6.9 Der Dualraum – 214

Aufgaben – 218

Antworten zu den Selbstfragen – 221


6.1  Definition und Beispiele
171 6

n Sie finden unter anderem Antworten zu . . .


4 Wie lassen sich lineare Abbildungen durch Matrizen Definition einer linearen Abbildung
darstellen? Eine Abbildung ' W V ! W zwischen K-Vektorräumen
4 Was besagt die Dimensionsformel? V und W heißt K-lineare Abbildung oder Homomor-
4 Wie wirkt sich ein Basiswechsel auf die Matrix einer phismus, wenn für alle v; w 2 V und  2 K gilt:
linearen Abbildung aus? 4 '.v C w/ D '.v/ C '.w/ (Additivität),
4 '. v/ D  '.v/ (Homogenität).
Den Begriff Homomorphismus haben wir bereits im
Zusammenhang mit Gruppen, Ringen und Körpern im
7 Kap. 2 kennengelernt. Der Begriff ist also sehr allgemein.
Ins Deutsche übersetzt man ihn wohl am besten mit struk- Anstelle von einer K-linearen Abbildung spricht man oft
turerhaltende Abbildung. Ein Homomorphismus ist also auch kurz von einer linearen Abbildung, wenn klar ist, wel-
eine Abbildung zwischen Mengen, welche kompatibel ist cher Körper zugrunde liegt.
mit der Struktur, d. h. die Verknüpfungen auf den zugrunde
liegenden Mengen berücksichtigt. ?Selbstfrage 6.1
In einem Vektorraum haben wir zwei Verknüpfungen, Wieso muss V und W derselbe Körper K zugrunde lie-
die Addition von Vektoren und die Multiplikation von gen? Anders gefragt: Was sollte ein Homomorphismus
Vektoren mit Skalaren. Ein Homomorphismus, im Zusam- zwischen einem komplexen und einem reellen Vektor-
menhang mit Vektorräumen sprechen wir auch von einer raum sein?
linearen Abbildung, ist hier eine additive und multiplikati-
ve Abbildung zwischen zwei Vektorräumen. Eine K-lineare Abbildung ' W V ! W zwischen K-Vek-
In dieser Sichtweise ist ein Homomorphismus durchaus torräumen V und W heißt
abstrakt. Jedoch gelingt es zumindest in endlichdimensio- 4 Monomorphismus, wenn ' injektiv ist,
nalen Vektorräumen, nach Wahl einer Basis jedem Homo- 4 Epimorphismus, wenn ' surjektiv ist,
morphismus eine sehr anschauliche und vertraute Gestalt 4 Isomorphismus, wenn ' bijektiv ist,
zu geben. Zu jedem Homomorphismus gehört bezüglich 4 Endomorphismus, wenn V D W ist,
gewählter Basen der Vektorräume eine Matrix – Matrizen 4 Automorphismus, wenn V D W und ' bijektiv ist.
haben sich bereits beim Lösen von linearen Gleichungs-
Ist ' W V ! W ein Isomorphismus zwischen den K-Vek-
systemen als sehr nützlich erwiesen. Diese den Homomor-
torräumen V und W , so sagt man, die beiden Vektorräume
phismus darstellende Matrix charakterisiert die Abbildung
V und W sind isomorph zueinander. Man schreibt dann
eindeutig. Wir können so Homomorphismen endlichdi-
V Š W – zwei zueinander isomorphe Vektorräume unter-
mensionaler Vektorräume bezüglich gewählter Basen mit
scheiden sich nur in der Bezeichnung der Elemente.
Matrizen identifizieren. Das Abbilden ist dann letztlich
eine einfache Matrizenmultiplikation. Durch diesen Pro-
zess werden Homomorphismen bezüglich gewählter Basen Wie erkennt man die Linearität
durch Matrizen dargestellt. Die Eigenschaften eines Homo-
morphismus finden sich in der Darstellungsmatrix wieder.
einer Abbildung?
Wählt man verschiedene Basen, so erhält man im Allge-
meinen verschiedene Matrizen. In den folgenden Kapiteln Jede lineare Abbildung ' W V ! W bildet den Nullvektor
werden wir untersuchen, welche Eigenschaften der Darstel- 0V von V auf den Nullvektor 0W von W ab, d. h.,
lungsmatrizen bei verschiedenen Basen erhalten bleiben.
Welche Basis vorzugsweise zu wählen ist, wird das Thema '.0V / D 0W :
des 7 Kap. 8 sein.
Dies sieht man etwa wie folgt: Wegen der Additivität von '
6.1 Definition und Beispiele gilt:

'.0V / D '.0V C 0V / D '.0V / C '.0V / :


Der zentrale Begriff dieses Kapitels ist der Begriff der li-
nearen Abbildung. Die Behauptung folgt nun nach Subtraktion von '.0V /,
d. h. Addition von '.0V / auf beiden Seiten.
Dieses Ergebnis eignet sich gut, um viele Abbildungen
Lineare Abbildungen sind jene Abbildungen als nicht linear zu erkennen: Die Abbildung
zwischen Vektorräumen, die additiv
8
und homogen sind ˆ R2 ! R3 ;
ˆ
<  0 1
v1 C 1
'W v1
ˆ 7! @ v2 A
Lineare Abbildungen existieren nur zwischen Vektorräu- :̂ v2
men über dem gleichen Körper. v1
172 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Übersicht: Homo-, Mono-, Epi-, Iso-, Endo-, Automorphismen

Man unterscheidet Morphismen je nach Injektivität, Surjektivität und auch danach, ob Definitionsmenge und Bild-
menge übereinstimmen.

Injektiv Surjektiv Definitionsmenge D Bildmenge Beispiel


( 2
R ! R3
Homomorphismus Nicht notwendig Nicht notwendig Nicht notwendig aCb
. ab / 7! 0
0

R ! R2
Monomorphismus Ja Nicht notwendig Nicht notwendig
a 7! . a0 /

R2 ! R
Epimorphismus Nicht notwendig Ja Nicht notwendig
6 . ab / 7! a
8
< R4 ! R2 2
Isomorphismus Ja Ja Nicht notwendig a  
: bc 7! ac db
d
(
R2 ! R2
Endomorphismus Nicht notwendig Nicht notwendig Ja  
. ab / 7! ab0
(
R2 ! R2
Automorphismus Ja Ja Ja  
. ab / 7! ba

0 1
1
kann nicht linear sein, da '.0R2 / D @0A ¤ 0R3 gilt, also Oftmals sind Nachweise der Linearität einer Abbildung
0R2 nicht auf 0R3 abgebildet wird. 0 langwierig und unübersichtlich. Wenn der Nachweis ein-
In Zukunft schreiben wir wieder einfacher 0 für den fach zu führen ist, empfiehlt sich die dritte Version, wenn
Nullvektor. Man sollte dann immer kurz nachdenken, ob er jedoch unübersichtlich wird, dann sollte man auf unse-
0 nun ein Nullspaltenvektor, das Nullpolynom, die Nullab- re Definition zurückgreifen, sie entspricht einer Zerlegung
bildung, die Nullmatrix oder eine andere Null darstellt. des Nachweises in zwei getrennte Schritte, man zeigt die
Den Begriff der linearen Abbildung kann man auf ver- Additivität und die Homogenität nacheinander.
schiedene Arten definieren. Wir untersuchen einige einfache Abbildungen auf Li-
nearität.

Kriterien für die Linearität einer Abbildung Beispiel


Für K-Vektorräume V und W und eine Abbildung ' W 4 Für alle K-Vektorräume V und W ist die Abbildung
V ! W sind die folgenden Aussagen äquivalent: 
(i) Die Abbildung ' ist linear. V ! W;
'W
(ii) Für alle v; w 2 V und ;  2 K gilt: v 7! 0

'. v C  w/ D  '.v/ C  '.w/ : linear, da für alle  2 K und alle v; w 2 V die Glei-
chung
(iii) Für alle v; w 2 V und  2 K gilt:
'. v C w/ D 0 D  0 C 0 D  '.v/ C '.w/
'. v C w/ D  '.v/ C '.w/ :
gilt. Die lineare Abbildung ' ist nur dann surjektiv,
wenn W D f0g gilt. Außerdem ist sie nur dann injektiv,
wenn V D f0g ist.
Beweis Gegeben sind ;  2 K und v; w 2 V .
4 Analog begründet man, dass in jedem K-Vektorraum V
(i) ) (ii): Man wende zuerst die Additivität und dann
die Identität, also die Abbildung
(zwei Mal) die Homogenität von ' an:

'. v C  w/ D '. v/ C '. w/ D  '.v/ C  '.w/ : V ! V;
id W
v 7! v
(ii) ) (iii): Man wähle  D 1 in (ii).
(iii) ) (i): Mit  D 1 folgt die Additivität von ' und linear ist. Diese lineare Abbildung id ist für jeden Vek-
mit w D 0 folgt die Homogenität von '.  torraum V ein Automorphismus.
6.1  Definition und Beispiele
173 6
4 Für den reellen Vektorraum R2 ist die Abbildung ?Selbstfrage 6.2
8 Ist ' eine lineare Abbildung, so gilt:
< R ! R
2 2
;
 2
'W v1 v1 '.v  w/ D '.v/  '.w/ :
: 7!
v2 v2
  Ist das richtig?
1
nicht linear, wir erhalten für  D 1 und v D
0
    Eine lineare Abbildung ist durch
1 1
'. v/ D und  '.v/ D ; die Bilder der Basisvektoren
0 0
bereits eindeutig bestimmt
also '. v/ ¤  '.v/.
4 Aus der Schule ist das Differenzieren von Polynomen Wir betrachten eine lineare Abbildung ' zwischen zwei K-
bekannt: Vektorräumen V und W . Ist B eine endliche oder unendli-
0 1 che Basis von V , so lässt sich jedes v 2 V auf genau eine
d X X
n n
@ Weise als Linearkombination von verschiedenen Basisvek-
an X n A D n an X n1 :
dX j D0 toren darstellen:
j D1

Im reellen Vektorraum RŒX der Polynome über R ist v D 1 b1 C    C r br


dieses Differenzieren
 mit 1 ; : : : ; r 2 K und b1 ; : : : ; br 2 B.
d RŒX ! RŒX; Wegen der Additivität und Homogenität von ' gilt nun
W
dX p 7! dX
d
p für das Bild von v:

eine lineare Abbildung, da nach den bekannten Diffe- '.v/ D '.1 b1 C    C r br /


renziationsregeln für alle  2 R und p; q 2 RŒX die
D 1 '.b1 / C    C r '.br / :
Gleichung

d d d Also ist '.v/ durch die Linearkombination bezüglich der


. p C q/ D  pC q Basis B und die Bilder der Basisvektoren bestimmt. Wir
dX dX dX
machen uns das zunutze: Ist ' eine lineare Abbildung von
gilt. Diese Abbildung ist nicht injektiv, da etwa V nach W , und kennt man '.b/ für jedes Element b einer
Basis B von V , so kennt man '.v/ für jedes v aus V , da
d d sich jedes v 2 V bezüglich der Basis B darstellen lässt.
.X C 1/ D 1 D .X  1/
dX dX Salopp lässt sich dies auch formulieren als: Wenn man weiß,
gilt. Sie ist jedoch surjektiv, da für jedes Polynom p D was die lineare Abbildung mit den Elementen einer Basis
a0 C a1 X C    C an X n das Polynom macht, dann weiß man auch, was die lineare Abbildung mit
allen Vektoren macht. Dies lässt sich als Prinzip der linearen
1 1 Fortsetzung noch weiter verschärfen.
P D a0 X C a1 X 2 C    C an X nC1 2 RŒX
2 nC1

offenbar dXd
.P/ D p erfüllt ist. Die Abbildung dX
d
ist
Das Prinzip der linearen Fortsetzung
somit ein Epimorphismus.
Ist  eine Abbildung von der Basis B von V nach W
4 Die Menge V aller konvergenter reeller Folgen bildet
einen Untervektorraum von RN0 , da Summe und ska- (
B ! W;
lare Vielfache konvergenter Folgen wieder konvergente W
b 7! .b/;
Folgen sind. Die Abbildung ' W V ! R, die einer kon-
vergenten Folge .xn /n 2 V ihren Grenzwert x 2 R
so gibt es genau eine lineare Abbildung ' W V ! W mit
zuordnet, ist linear. 9
'jB D . Man nennt ' die lineare Fortsetzung von 
auf V .
In einem ausführlichen Beispiel besprechen wir die lineare
Abbildung 'A W v 7! A  v an, die für alles Weitere sehr
wichtig ist. Tatsächlich sind nämlich lineare Abbildungen
zwischen endlichdimensionalen Vektorräumen letztlich alle i Für  ist nur vorausgesetzt, dass es eine Abbildung von
von der in diesem Beispiel angegebenen Form. der Menge B in die Menge W ist.
174 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Beispiel: Die durch eine Matrix erklärte lineare Abbildung

Jede m n Matrix A mit Einträgen aus K, d. h. A 2 Km n , Beispielsweise bestimmen die blau eingezeichneten Ziffern
erklärt eine lineare Abbildung vom Kn in den Km , der zweiten Zeile in der Matrix den Eintrag in der zweiten
( Zeile des Produkts:
Kn ! Km ;
'A W
v 7! A  v: 6  4 C 4  1 C 0  3 D 28 :

Dabei ist noch zu klären, was eigentlich A  v sein soll. Nun sei allgemeinen wieder A D .aij / 2 Km n . Durch das
eben (erklärte Produkt ist durch A eine Abbildung
Problemanalyse und Strategie Kn ! Km ;
'A W
v 7! A  v
Wir erklären eine Multiplikation zwischen einer Matrix mit n
Spalten und einem Spaltenvektor aus dem Kn . erklärt. Diese Abbildung ist linear, da für alle  2 K und alle
6 v D .vj /; w D .wj / 2 V gilt:
0 1
Lösung  v1 C w1
Wir betrachten zuerst den Fall m D 1, d. h., wir erklären vorab B :: C
'A . v C w/ D A  . v C w/ D A  B @ :
C
A
das Produkt einer 1 n-Matrix
 vn C wn
A D z D .aj / D .a1 ; : : : ; an / 0 1 0 n 1
v1 P
B:C Bj D1 a1j . vj C w j / C
mit einem Spaltenvektor v D .vj / D @ :: C B
A. Für das Produkt
B
B
C
C
B : C
setzen wir vn DB :
: C
0 1 B n C
@P A
v1 amj .vj C wj /
B:C X n
j D1
z  v D .a1 ; : : : ; an /  B
@ A
:: C D aj vj : 0 1 0 n 1
P
n P
j D1 a v a w
vn B j D1 1j j C Bj D1 1j j C
B C B C
B :: C B :: C
Die Definition dieser Multiplikation fordert, dass die Anzahl D B
B :
CCB
C B :
C
C
B n C B n C
der Spalten von z gleich der Anzahl der Zeilen von v ist, z. B. @P A @P A
amj vj amj wj
0 1 j D1 j D1
1
B C D  .A  v/ C A  w D  'A .v/ C 'A .w/ :
.2; 3; 1/  @ 1 A D 2  .1/ C 3  1 C 1  2 D 3 :
2
Damit ist bereits die Linearität von 'A begründet.
Nun erklären wir Produkt für Matrizen
0 1 Kommentar
z1 4 Ob die lineare Abbildung 'A injektiv oder surjektiv ist,
B : C
A D .aij / D B : C
@ : A2K
m n kann man anhand der Matrix A entscheiden. Das werden
wir später untersuchen.
zm
4 Den Punkt  für diese Multiplikation einer Matrix mit einer
mit m solchen Zeilen für jede dieser Zeilen: Spalte werden wir in Zukunft weglassen, wir schreiben al-
0 n 1 so kürzer A v anstelle von A  v.
P
0 1 0 1 a v 4 Die Multiplikation einer Matrix mit einer Spalte ermög-
z1 z1  v Bj D1 1j j C
B C licht es, lineare Gleichungssysteme in kurzer Form darzu-
B : C B : C B : C
B C B
Av D @ : Av D @ : AD B
: : C B : C stellen. Das System
: C
B n C
zm zm  v @ P A
amj vj a11 x1 C a12 x2 C    C a1n xn D b1
j D1 :: :: :: ::
: : : :
Man beachte: Die Spaltenzahl von A ist gleich der Zeilenzahl
am1 x1 C am2 x2 C    C amn xn D bm
von v, und die Zeilenzahl von A  v ist die Zeilenzahl von A.
Man nennt den Spaltenvektor b D A  v 2 Km das mit aij ; bi 2 K für 1  i  m und 1  j  n lässt sich
Produkt von A mit v, z. B. gilt mit der folgenden Matrix mit den Abkürzungen
A 2 R4 3 und v 2 R3 : 0 1 0 1 0 1
0 1 0 1 a11    a1n b1 x1
2 6 1 0 1 17 B : : C B : C B:C
B6 4 0C 4 B C ADB @ :
: :: C ; b D B :: C ; x D B :: C
A @ A @ A
B C B1C B28C
B C@ AD B C am1    amn bm xn
@0 3 3A @12A
3
4 1 2 23
kurz schreiben als A x D b.
6.1  Definition und Beispiele
175 6
Beweis Wir definieren eine Abbildung ' W V ! W wie
folgt: Schreibe jedes v 2 V als Linearkombination bezüg-
e2
lich der Basis B: '.e 2 /
'.e 1 /
v D 1 b1 C    C r br 2 V 30ı

30ı
und setze
e1

'.v/ D 1  .b1 / C    C r  .br / 2 W :

Wir begründen, dass die so definierte Abbildung ' von


V nach W linear und als solche eindeutig bestimmt ist. v D v1 e 1 C v2 e 2
Dazu seien  2 K und v D 1 b1 C    C r br ; w D '.v/
1 c 1 C    C s c s 2 V mit b1 ; : : : ; br ; c 1 ; : : : :; c s 2 B
und 1 : : : ; r ; 1 ; : : : ; s 2 K. Dann gilt: . Abb. 6.1 Eine Drehung ist durch Angabe der Bilder einer Basis ein-
deutig bestimmt
'. v C w/ D  1  .b1 / C    C  r  .br /
C 1  .c 1 / C    C s  .c s / Für das Bild des Elements
D  '.v/ C '.w/ : 0 1
v1
Folglich ist ' linear, es ist noch die Eindeutigkeit zu be- v D v2 A D v1 e 1 C v2 e 2 C v3 e 3 2 R3
@
gründen. Sind ' und zwei lineare Fortsetzungen von  , v3
so gilt für jedes v 2 V :
gilt wegen den Forderungen in Gleichung (6.1):
'.v/ D '.1 b1 C    C r br /
'.v/ D v1 '.e 1 / C v2 '.e 2 / C v3 '.e 3 /
D 1  .b1 / C    C r  .br /    
1 2
D .1 b1 C    C r br / D v1 0 C v2 C v3 :
1 2
D .v/ :
Damit erhalten wir die gesuchte Abbildung:
Folglich gilt ' D .  8
ˆ R3 ! R2 ;
ˆ
<0v 1
Beispiel 1  
'W @ A 1
4 Es sei En D fe 1 ; : : : ; e n g die kanonische Basis des Rn . ˆ v2 7! .v2 C 2 v3 / :
:̂ 1
Dann ist die eindeutig bestimmte lineare Fortsetzung v3
der Abbildung
  4 Wir drehen im R2 die Vektoren der Standardbasis
En ! R ; n
En ! R ; n
E2 D fe 1 ; e 2 g um 30ı gegen den Uhrzeigersinn, wie
0 W bzw. 1 W
e i 7! 0 e i 7! e i in . Abb. 6.1 dargestellt. !
p
3=2
die Nullabbildung bzw. die Identität. Wir erhalten also  .e 1 / D und  .e 2 / D
1=2
4 Wir betrachten im R mit der kanonischen Basis E2 D
2 !
fe 1 ; e 2 g die Abbildung  mit  .e 1 / D e 2 und  .e 2 / D 1=2
p . Damit können wir für die lineare Fortsetzung
 'von  auf R ist die
2 3=2
e 1 . Die lineare Fortsetzung  Spie-

1 v1  
gelung an der Geraden R , da für jedes v D 2 v1
1 v2 ' von  auf das Bild von v D schließen:
v2
R gilt:
2
! !
p
  3=2 1=2
v2 '.v/ D v1 C v2 p :
'.v/ D v1 '.e 1 / C v2 '.e 2 / D v1 e 2 C v2 e 1 D : 1=2 3=2
v1
Also wird jeder Punkt des R2 bei dieser linearen Abbil-
4 Wir bestimmen die einzige lineare Abbildung ' vom R3
dung um 30ı gegen den Uhrzeigersinn gedreht. 9
in den R2 mit der Eigenschaft
    ?Selbstfrage 6.3
1 2
'.e 1 / D 0; '.e 2 / D ; '.e 3 / D : (6.1) Gibt es eine lineare Abbildung ' vom R2 in den R2 mit
1 2 ' 1 .f0g/ D '.R2 /?
176 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

6.2 Verknüpfungen von linearen Beispiel Wir betrachten die linearen Abbildungen
Abbildungen 8
ˆ R2 ! R3 ;
ˆ
<  0 1
x1  x2
'W x
A und
7! @
Man kann lineare Abbildung unter gewissen Voraussetzun- 1
ˆ 0
:̂ x2
gen auf verschiedene Arten miteinander oder mit Skalaren 2x1  x2
verknüpfen und erhält erneut eine lineare Abbildung. Wir 8
ˆ R3 ! R4 ;
behandeln die drei Methoden: ˆ
ˆ0 1 0 1
ˆ
< x x1 C 2x3
4 ı ', wobei ', lineare Abbildungen sind.
4  ', wobei  ein Skalar und ' eine lineare Abbildung W @ A
1 B x2  x3 C :
ˆ x2 7! B
ˆ @ x1 C x2 A
C
ist. ˆ
:̂ x3
4 ' C , wobei ', lineare Abbildungen sind. 2x1 C 3x3

6 Wegen '.R2 /  R3 ist das Bild von ' in der Definitions-


Das Produkt ı ' linearer Abbildungen ' menge von . Somit ist die lineare Abbildung ı' erklärt.
und ist eine lineare Abbildung Wir ermitteln die Abbildungsvorschrift für ı '. Es gilt:
0 1
00 11 5x1  3x2
Damit die Hintereinanderausführung ı' von linearen Ab-   x1  x2
x1 B x  2x1 C
ı' D @@ 0 AA D B 2 C
bildungen und ' überhaupt erklärt ist, ist es notwendig, x2 @ x1  x2 A :
dass das Bild von ' in der Definitonsmenge von liegt. 2x1  x2
8x1  5x2

Damit gilt
Das Produkt linearer Abbildungen 8
Sind ' W V ! V 0 und W V 0 ! V 00 linear, so ist auch die ˆ R2 ! R4 ;
ˆ
ˆ 0 1
Hintereinanderausführung ı ' W V ! V 00 linear. ˆ
<  5x1  3x2
ı' W x1 B x2  2x1 C :
ˆ
ˆ 7! B
@ x1  x2 A
C
ˆ x2

Beweis Sind v; w 2 V und  2 K, so gilt: 8x1  5x2

. ı '/. v C w/ D .'. v C w// Die Abbildung ' ı ist nicht erklärt. 9


D . '.v/ C '.w//
?Selbstfrage 6.4
D . '.v/ C .'.w// Sind ' und sogar Isomorphismen, so ist auch ı ' ein
D  .'.v// C .'.w// solcher – ist das richtig?
D  ı '.v/ C ı '.w/ :

Das begründet, dass ı ' linear ist.  Das Inverse '1 eines Isomorphismus ' ist
ein Isomorphismus
Man beachte, dass ' ı nicht erklärt sein muss, auch wenn
ı ' existiert.
Eine bijektive Abbildung ' ist umkehrbar, d. h., es existiert
eine Abbildung mit
ϕ ψ
V 'ı D id und ı ' D id :
V
Für das Inverse von ' schreibt man ' 1 – und auch ' 1
ϕ(V ) ist bijektiv. Ist die Abbildung ' nicht nur bijektiv, sondern
V
ϕ(V ) auch linear, so ist die existierende Umkehrabbildung ' 1
automatisch auch linear, das besagt der folgende Satz:

ψ ϕ(V )
ϕ◦ψ Das Inverse eines Isomorphismus
Ist ' ein Isomorphismus, so ist auch ' 1 W V 0 ! V ein
Isomorphismus.
. Abb. 6.2 Das Produkt ı ' existiert nur dann, wenn die Bildmenge
'.V / in der Definitionsmenge V 0 von liegt
6.2  Verknüpfungen von linearen Abbildungen
177 6
Beweis Es sei ' bijektiv. Dann existiert die Umkehrabbil-
dung ' 1 W V 0 ! V . Es ist zu zeigen, dass ' 1 linear ist. Der K-Vektorraum der linearen Abbildungen
Dazu wählen wir beliebige v0 ; w0 2 V 0 und ein  2 K. Zu Es ist HomK .V; W / ein K-Vektorraum.
v0 ; w0 existieren v; w 2 V mit '.v/ D v0 und '.w/ D w0 ,
d. h., v D ' 1 .v0 / und w D ' 1 .w0 /. Dann gilt:
Beweis Die Menge HomK .V; W / ist nichtleer, weil die
' 1 . v0 C w0 / D ' 1 . '.v/ C '.w// Nullabbildung 0 W V ! W , v 7! 0 eine lineare Abbildung
D ' 1 .'. v C w// ist.
D v C w Wir müssen weiter zeigen, dass für beliebige '; 2
HomK .V; W / und  2 K sowohl ' C als auch  ' wieder
D  ' 1 .v0 / C ' 1 .w0 / Elemente von HomK .V; W / sind. Wir zeigen zuerst ' C
2 HomK .V; W /:
Damit ist gezeigt, dass ' 1 linear ist. 
Sind v; w 2 V und  2 K, so gilt:
? Selbstfrage 6.5 .' C /. v C w/ D '. v C w/ C . v C w/
Was ist das Inverse von ı ', falls ' W V ! V 0 und
D  '.v/ C '.w/ C  .v/ C .w/
W V 0 ! V 00 Isomorphismen sind?
D  .' C /.v/ C .' C /.w/ :
Folgerung Für jeden K-Vektorraum V bildet die Menge
Nun zeigen wir noch, dass  ' 2 HomK .V; W /. Sind
v; w 2 V und  2 K, so gilt:
GLK .V / D f' W V ! V j ' ist ein Isomorphismusg
. '/. v C w/ D  '. v C w/
bezüglich der Komposition ı eine Gruppe – die allgemeine
D  . '.v/ C '.w//
lineare Gruppe von V .
D   '.v/ C  '.w/
D  . '/.v/ C . '/.w/ :
Summe ' C und skalares Vielfaches  '
von linearen Abbildungen sind lineare Es ist nun nicht mehr schwer, die verbleibenden Vektor-
raumaxiome nachzuweisen.
Abbildungen
Es ist .HomK .V; W /; C/ eine abelsche Gruppe: Die
Addition C ist assoziativ, das Nullelement ist die Nullab-
Wir bezeichnen mit HomK .V; W / die Menge aller linearen bildung 0, die jedem Element v 2 V den Nullvektor aus
Abbildungen von V nach W. W zuordnet, und das einem ' 2 HomK .V; W / entgegen-
Wir haben bereits gezeigt, dass die Menge aller Abbil- gesetzte Element ist die lineare Abbildung ' D .1/ '.
dungen von einer Menge in einen Körper einen Vektorraum Die Vektorraumaxiome (V1)–(V4) sind offenbar
bildet. In ganz ähnlicher Weise bildet die Menge erfüllt. 

HomK .V; W / D f' W V ! W j ' ist linear g Beispiel Nach dem Prinzip der linearen Fortsetzung ist je-
de lineare Abbildung zwischen K-Vektorräumen V und W
aller linearen Abbildungen eines K-Vektorraums V in einen eindeutig durch Angabe der Bilder der Basisvektoren einer
K-Vektorraum W wieder einen K-Vektorraum. Basis B von V bestimmt. Wir können folglich explizit al-
Wir erklären eine Addition von Elementen aus le linearen Abbildungen zwischen endlichen Vektorräumen
HomK .V; W /. Sind ' und zwei lineare Abbildungen von angeben. Wir betrachten den Fall V D Z32 und W D Z22 .
V nach W , also Elemente aus HomK .V; W /, so setzen wir Es ist
8 0 1 0 1 0 19
 ˆ
< 1 0 0 >=
V !W B C B C B C
'C W B D e D @ 0 A ; e D @ 1A ; e D @ 0A
v 7! .' C /.v/ D '.v/ C .v/ 1 2 3
>
:̂ 0 0 1 ;
Wir benötigen weiter eine skalare Multiplikation. Sind  2
K und ' 2 HomK .V; W /, so definieren wir eine Basis von V , und es gilt:
( ! !
 0 1
V !W W D w1 D ; w2 D ;
' W 0 0
v 7! . '/.v/ D  '.v/
! !)
0 1
Mit dieser Addition C und skalaren Multiplikation  gilt w3 D ; w4 D :
1 1
nun:
178 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Jede Wahl Beispiel Nach dem Prinzip der linearen Fortsetzung ist
' ' ' jeder Endomorphismus des Z2 -Vektorraums Z22 eindeutig
e 1 7! wi ; e 2 7! wj ; e 3 7! wk durch Angabe der Bilder der Basisvektoren e 1 und e 2 von
Z2 bestimmt. Wir betrachten die beiden Endomorphismen
erklärt eine lineare Abbildung ' von Z32 nach Z22 . Da zwei ' 2und , die durch die folgenden Zuordnungen gegeben
verschiedene Wahlen auch verschiedene lineare Abbildun- sind:
gen liefern, gibt es genau 43 D 64 lineare Abbildungen,
d. h., ! ! ! !
1 ' 0 0 ' 0
7! ; 7! ;
j HomZ2 .Z32 ; Z22 /j D 64 : 9 0 1 1 1
! ! ! !
1 1 0 0
7! ; 7! :
Die Menge aller Endomorphismen 0 0 1 0
6 eines Vektorraums bilden einen Ring
Es gilt nun:
Im letzten Abschnitt haben wir gezeigt, dass die Menge !! ! ! !!
HomK .V; W / aller Homomorphismen ' W V ! W bei 1 0 0 1
ı' D ¤ D'ı ;
geeigneter Definition einer Addition C und Multiplikation 0 0 1 0
 mit Skalaren aus K einen Vektorraum bildet. Wir setzen
nun V D W , lassen die Multiplikation  mit Skalaren weg sodass ı ' ¤ ' ı gilt. Somit ist die Multiplikation ı
und nehmen die Multiplikation ı, also die Hintereinander- auf End .Z2 / nicht kommutativ.
Z2 2
ausführung von Abbildungen hinzu und erhalten: Außerdem gilt:

'¤0¤ ;
Der Endomorphismenring EndK .V /
Die Menge
aber für das Produkt ı ' gilt:
EndK .V / D HomK .V; V / ! ! ! !
1 ı' 0 0 ı' 0
aller Endomorphismen von V ist mit punktweiser Additi- 7! ; 7! ;
0 0 1 0
on C und der Multiplikation ı ein Ring mit Einselement
id.
sodass ı ' D 0 gilt. Somit ist EndZ2 .Z22 / auch nicht
nullteilerfrei. 9
Beweis Es ist .EndK .V /; C/ eine abelsche Gruppe (beach-
te den Beweis zu obigem Satz, wonach HomK .V; V / ein Kommentar Der Ring EndK .V / ist, wenn man die Multi-
Vektorraum ist). Die Multiplikation ı ist assoziativ, weiter- plikation mit Skalaren berücksichtigt, auch ein K-Vektor-
hin gilt raum. Es gilt zudem für alle  2 K und '; 2 EndK .V /:

id ı ' D ' D ' ı id  .' ı / D . '/ ı D ' ı . / :

für jedes ' 2 EndK .V /, sodass id ein Einselement ist. Es


D. h., EndK .V / ist eine K-Algebra.
bleiben nur noch die Distributivgesetze nachzuweisen: Für
beliebige '; ; # 2 EndK .V / und v 2 V gilt:

..' C / ı #/.v/ D .' C /.#.v// 6.3 Kern, Bild und die Dimensionsformel
D '.#.v// C .#.v//
D .' ı # C ı #/.v/ ; Wie bei Abbildungen können wir bei einer linearen Ab-
bildungen ' W V ! W vom Bild der Abbildung ', also
sodass .' C / ı # D ' ı # C ı # gilt. Den Nachweis des von der Menge '.V /  W , und auch vom Urbild einer
zweiten Distributivgesetzes # ı .' C / D # ı ' C # ı Menge A  W unter ', also von ' 1 .A/  V sprechen.
führt man analog.  Tatsächlich ist es so, dass diese Mengen für die speziel-
le Wahl A D f0g sehr eng miteinander zusammenhängen.
Man beachte, dass der Ring .EndK .V /; C; ı/ im Allge- Dieser Zusammenhang drückt sich in der sogenannten Di-
meinen weder kommutativ noch nullteilerfrei ist, wie das mensionsformel aus, die wir in diesem Abschnitt herleiten
folgende Beispiel zeigt. wollen.
6.3  Kern, Bild und die Dimensionsformel
179 6
'

V W

'.V /
' 1 .f0g/
0

. Abb. 6.3 Der Kern und das Bild einer linearen Abbildung

Der Kern von ' besteht aus jenen Vektoren,


die auf den Nullvektor abgebildet werden
. Abb. 6.4 Der Kern kann auch sehr groß sein
Jede lineare Abbildung ' W V ! W hat einen Kern. Dies
ist ein Untervektorraum von V , er erlaubt es, auf weitere an der Geraden R .e 1 Ce 2 / besteht
  der Kern nur aus
Eigenschaften der linearen Abbildung zu schließen. v2 0
dem Nullvektor, da D nur im Fall v1 D
v1 0
0 D v2 gilt, d. h., ' 1 .f0g/ D f0g. Der Kern ist hier so
Der Kern und das Bild einer linearen Abbildung
klein wie möglich. Das Bild ist so groß wie möglich, da
Ist ' eine lineare Abbildung von einem K-Vektorraum V
'.R2 / D R2 gilt.
in einen K-Vektorraum W , so nennt man
4 Ist ' die lineare Abbildung
ker ' D ' 1 .f0g/ D fv 2 V j '.v/ D 0g  V 
V ! W;
'W
v 7! 0;
den Kern von ' und
so ist ' 1 .f0g/ D V , da jeder Vektor aus V auf den
Bild ' D '.V / D f'.v/ j v 2 V g  W
Nullvektor abgebildet wird. Hier ist der Kern so groß
das Bild von '. wie möglich und das Bild so klein wie möglich, da
'.V / D f0g gilt.
4 Der Kern der linearen Abbildung
Vielfach schreibt man auch Im.'/ für das Bild der linea- 8
ˆ R3 ! R2 ;
ren Abbildung '; Im kürzt dabei die englische Bezeichnung ˆ
<0v 1
1  
Image für das Bild ab. 'W @ A v1 C v2
ˆ v2 7!
Der Kern von ' ist die Urbildmenge des Nullvektors :̂ v2
v3 0 1
aus W , d. h. die Menge aller Vektoren, die auf 0 2 W ab- v1
gebildet werden, und das Bild die Gesamtheit der Vektoren besteht aus all jenen @v2 A mit v3 2 R, v2 D 0 und
aus W , die durch ' getroffen werden. v1 C v2 D 0, also: v3
Weil jede lineare Abbildung '.0/ D 0 erfüllt, ist der 80 1 9
Kern einer linearen Abbildung niemals leer, er enthält min- < 0 =
' 1
.f0g/ D @ 0 A 2 R3 j v3 2 R :
destens den Nullvektor aus V . Entsprechend ist das Bild : ;
einer linearen Abbildung nichtleer, v3

f0g  ' 1 .f0g/  V und f0g  '.V /  W : Da ' surjektiv ist, gilt für das Bild '.R3 / D R2 . Das ist
Es gibt Beispiele, in denen der Nullvektor der einzige Vek- in . Abb. 6.5 dargestellt.
tor im Kern bzw. Bild ist, der Kern bzw. das Bild kann aber 4 Ist A D .s1 ; : : : ; sn / 2 Km n , so besteht der Kern der
durchaus auch sehr groß sein. linearen Abbildung
 n
K ! Km ;
Beispiel 'A W
v 7! A v
4 Bei der Spiegelung
8 aus all jenen Vektoren v des Kn , die das homogene li-
< R ! R
2 2
;
  neare Gleichungssystem
W v1 v2
: 7!
v2 v1 Av D 0
180 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

x3 ?Selbstfrage 6.6
' 1 .f0g/ Begründen Sie ausführlich, warum ' surjektiv ist.

?Selbstfrage 6.7
Ist die Sprechweise Je größer der Kern, desto kleiner das
Bild. gerechtfertigt?
x2
x1
Wir untersuchen Kern und Bild einer linearen Abbildung '
zwischen K-Vektorräumen V und W etwas genauer.
'.R3 /
4 Da stets der Nullvektor von V im Kern liegt, gilt
' 1 .f0g/ ¤ ;.
. Abb. 6.5 Der Kern ' 1 .f0g/ D R e 3 und das Bild '.R3 / D R e 1 C 4 Sind v und w zwei Elemente des Kerns von ', d. h.,
6 R e 2 der linearen Abbildung ' W R3 ! R2 '.v/ D 0 und '.w/ D 0, so liegt wegen der Additivität
von ' auch deren Summe v C w im Kern, da
über K lösen:
'.v C w/ D '.v/ C '.w/ D 0 C 0 D 0 :
1
'A .f0g/ D fv 2 Kn j A v D 0g :
4 Sind v ein Element des Kerns von ' und  2 K ein
Für das Bild 'A .Kn / gilt: Skalar, so liegt wegen der Homogenität von ' auch  v
im Kern, da
'A .Kn / D fA v j v 2 Kn g
8 0 1 9
ˆ 1 > '. v/ D  '.v/ D  0 D 0 :
< =
B :: C
D .s1 ; : : : ; sn / @ : A j 1 ; : : : ; n 2 K
:̂ >
; Damit haben wir die erste Aussage des folgenden Satzes
n gezeigt. Mit einem analogen Vorgehen zeigt man die zweite
D f1 s1 C    C n sn j 1 ; : : : ; n 2 Kg Aussage.
D hs1 ; : : : ; sn i :

Das Bild 'A .Kn / besteht also aus allen Linearkombina- Kern und Bild einer linearen Abbildung sind
tion der Spalten von A D .s1 ; : : : ; sn /, Vektorräume
Ist ' eine lineare Abbildung von V nach W , so ist der
'A .Kn / D hs1 ; : : : ; sn i :
Kern ' 1 .f0g/ ein Untervektorraum von V , und das Bild
'.V / ist ein solcher von W .
4 Wir bestimmen den Kern des Differenzierens von reel-
len Polynomen:

d RŒX ! RŒX;
W
dX p!7 dX
d
.p/: Eine lineare Abbildung ist genau dann
injektiv, wenn der Kern trivial ist
Der Kern besteht aus all jenen Polynomen, die durch das
Differenzieren auf das Nullpolynom abgebildet werden:
 1   Mithilfe des Kerns lässt sich ein wichtiges Kriterium für die
d d Injektivität einer linearen Abbildung formulieren.
.f0g/ D p 2 RŒX j .p/ D 0 :
dX dX Um nachzuweisen, dass eine Abbildung ' W A ! B für
beliebige Mengen A und B injektiv ist, ist für alle x; y 2 A
Polynome vom Grad 1 oder höher werden durch das mit '.x/ D '.y/ die Gleichheit x D y zu folgern. Bei
Differenzieren nicht zum Nullpolynom. Hingegen wird linearen Abbildungen zwischen Vektorräumen vereinfacht
jedes konstante Polynom c durch das Differenzieren auf sich dieser Nachweis, man kann y D 0 setzen.
das Nullpolynom abgebildet, also gilt:
 1
d
.f0g/ D R : Kriterium für Injektivität
dX
Eine lineare Abbildung ' W V ! W ist genau dann injek-
Nach dem Beispiel in 7 Abschn. 6.1 ist das Bild von d tiv, wenn ' 1 .f0g/ D f0g gilt.
dX
gleich RŒX. 9
6.3  Kern, Bild und die Dimensionsformel
181 6
Beweis Wenn ' injektiv ist, dann kann der Kern von ' we- Beweis Es seien fb1 ; : : : ; br g  V eine Basis des Kerns
gen '.0/ D 0 keinen weiteren Vektor als den Nullvektor ' 1 .f0g/ von ' und fc 1 ; : : : ; c s g  W eine Basis des Bil-
enthalten, d. h., ' 1 .f0g/ D f0g. des '.V / von '. Wir wählen zu jedem dieser c i 2 W ein
Und ist nun umgekehrt ' 1 .f0g/ D f0g vorausgesetzt, b0i 2 V mit
so folgt aus '.v/ D '.w/ für v; w 2 V sogleich:
'.b0i / D c i für i D 1; : : : ; s (6.2)
0 D '.v/  '.w/ D '.v  w/ ;
und behaupten, dass B D fb1 ; : : : ; br ; b01 ; : : : ; b0s g eine Ba-
also wegen der Voraussetzung v  w D 0, d. h., v D w. sis von V ist.
Folglich ist ' injektiv.  Wir zeigen zuerst, dass die Menge B linear unabhängig
ist. Es gelte:
Für ' 1 .f0g/ D f0g sagt man auch: Der Kern von ' ist
trivial. 1 b1 C    C r br C 01 b01 C    C 0s bs D 0 (6.3)
Das Kriterium ist sehr gut dafür geeignet, die Injektivi-
tät linearer Abbildungen nachzuweisen. Man beachte, dass mit 1 ; : : : ; r ; 01 ; : : : ; 0s 2 K. Wir wenden die lineare
die Inklusion f0g  ' 1 .f0g/ für jede lineare Abbildung Abbildung ' auf diese Gleichung an und erhalten
' erfüllt ist. Will man also von einer linearen Abbildung '
nachweisen, dass sie injektiv ist, so hat man nur die Impli- 0 D '.0/
kation D '.1 b1 C    C r br C 01 b01 C    C 0s b0s /
aus '.v/ D 0 folgt v D 0 D 1 '.b1 / C    C r '.br /
C 01 '.b01 / C    C 0s '.b0s /
zu begründen.
D 01 c 1 C    C 0s c s :
? Selbstfrage 6.8
Im letzten Beispiel werden fünf lineare Abbildungen vor- Wegen der linearen Unabhängigkeit der Vektoren
gestellt. Können Sie angeben, welche dieser fünf linearen c 1 ; : : : ; c s folgt nun:
Abbildungen injektiv sind?
01 D    D 0s D 0 :

Die Dimension von V ist die Summe Die Gleichung (6.3) lautet damit
der Dimensionen von Kern und Bild 1 b1 C    C r br D 0 :
einer linearen Abbildung
Nun folgt aus der linearen Unabhängigkeit der Vektoren
b1 ; : : : ; br weiter
Bei allen bisher betrachteten linearen Abbildungen von V
nach W mit endlichdimensionalem Vektorraum V haben 1 D    D r D 0 :
wir die Beobachtung gemacht, dass die Dimension des Bil-
des umso kleiner ist, je größer die Dimension des Kerns ist. Damit ist gezeigt, dass B linear unabhängig ist.
Die Nullabbildung und die Identität sind Extremfälle. Bei Nun weisen wir nach, dass die Menge B ein Erzeu-
der Nullabbildung hat der Kern maximale Dimension und gendensystem von V ist. Es sei ein v 2 V gegeben. Da
das Bild die Dimension Null, bei der Identität ist dies gera- fc 1 ; : : : ; c s g ein Erzeugendensystem des Bildes '.V / ist,
de anders herum. existieren 01 ; : : : ; 0s 2 K mit
Dieser Zusammenhang ist kein Zufall, er ist Inhalt der
wichtigen Dimensionsformel, die wir nun herleiten. Sie '.v/ D 01 c 1 C    C 0s c s :
schildert den Zusammenhang von Kern und Bild einer li-
nearen Abbildung ' W V ! W und der Dimension des Wir betrachten nun das Element
Vektorraums V .
vO D v  .01 b01 C    C 0s b0s / 2 V (6.4)

Die Dimensionsformel (man beachte die Gleichung (6.2)). Wenden wir nun die li-
Ist V ein endlichdimensionaler Vektorraum, so gilt für je- neare Abbildung ' auf vO an, so erhalten wir:
de lineare Abbildung ' W V ! W die Gleichung
O D '.v/  '.01 b01 C    C 0s b0s /
'.v/
dim.V / D dim.' 1 .f0g// C dim. '.V / / : D '.v/  .01 '.b01 / C    C 0s '.b0s //
„ ƒ‚ … „ƒ‚…
Kern Bild D '.v/  .01 c 1 C    C 0s c 0s /
D '.v/  '.v/ D 0 ;
182 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

x2 'A x2 Ist V endlichdimensional, so dim V =U D dim V  dim U ,


wie wir bereits bewiesen haben. Wir begründen das Ergeb-
1 1 'A .R2 /
AD nis erneut mithilfe der Dimensionsformel.
0 1
ker 'A x1 x1

Der kanonische Epimorphismus


x2 'A x2
Für jeden Untervektorraum U eines K-Vektorraums V ist
ker 'A
2 2 die Abbildung
AD
1 1 (
x1 'A .R2 / x1
V ! V =U;
W
v 7! v C U
x2 'A x2
ein Epimorphismus mit Kern U . Man nennt den kano-
6 ker 'A 0 0 nischen Epimorphismus bezüglich U . Ist V endlichdi-
AD
0 0 mensional, so gilt:
x1 'A .R2 / x1

dim V =U D dim V  dim U :


. Abb. 6.6 Die Summe der Dimensionen von Kern und Bild ist jeweils 2

sodass vO ein Element des Kerns von ' ist. Da fb1 ; : : : ; br g Beweis Die Abbildung ist offenbar surjektiv. Wir be-
ein Erzeugendensystem des Kerns von ' ist, gibt es nun gründen, dass auch linear ist. Für v; w 2 V und  2 K
1 ; : : : ; r 2 K mit gilt nämlich:

vO D 1 b1 C    C r br : . v C w/ D . v C w/ C U
D .. v/ C U / C .w C U /
Setzen wir das in die Gleichung (6.4) ein, so erhalten wir: D  .v C U / C .w C U /
D  .v/ C .w/ :
v D vO C .01 b01 C    C 0s b0s /
D 1 b1 C    C r br C 01 b01 C    C 0s b0s : Somit ist ein Epimorphismus. Wir bestimmen nun den
Kern von . Es gilt:
Folglich ist B ein Erzeugendensystem von V .
Nun beachten wir v 2 ker , .v/ D v C U D U , v 2 U :

dim V D jBj D r C s D dim.' 1 .f0g// C dim.'.V // : Somit ist U der Kern von .
Mit der Dimensionsformel folgt nun unmittelbar wegen
Das ist die Dimensionsformel.  Bild D V =U und ker D U die angegebene Formel. 

Es gilt also für jede lineare Abbildung ' von einem endlich- Wir ziehen schließlich eine nützliche Folgerung aus der Di-
dimensionalen Vektorraum V in irgendeinen (nicht näher mensionsformel:
bestimmten) Vektorraum: Die Dimension von V ist die
Summe der Dimensionen des Kerns und des Bildes von '.
In der . Abb. 6.6 zeigen wir diesen Zusammenhang für Kriterium für Bijektivität einer linearen Abbildung
V D R2 D W und eine lineare Abbildung ' D 'A W v 7! Haben V und W gleiche und endliche Dimension, so sind
A v für die drei möglichen Fälle rg A D 2, rg A D 1 und für eine lineare Abbildung ' W V ! W die folgenden
rg A D 0. Aussagen äquivalent:
(i) ' ist injektiv.
? Selbstfrage 6.9 (ii) ' ist surjektiv.
Gibt es eine surjektive lineare Abbildung ' W R11 ! R7 (iii) ' ist bijektiv.
mit einem 5-dimensionalen Kern?

Ist U ein Untervektorraum eines K-Vektorraums V , so kön- Beweis (i) ) (ii): Es sei ' injektiv. Dann gilt ' 1 .f0g/ D
nen wir den Faktorraum V =U bilden: f0g und somit dim.' 1 .f0g// D 0. Nach der Dimensions-
formel gilt dim.'.V // D dim.V / D dim.W /. Somit ist '
V =U D fv C U j v 2 V g : surjektiv (beachte die Kennzeichnungen endlicher Basen).
6.3  Kern, Bild und die Dimensionsformel
183 6
(ii) ) (iii): Ist ' surjektiv, d. h., gilt '.V / D W , so nennen wir den Untervektorraum
folgt mit der Dimensionsformel aus dim.V / D dim.W / D 4 hz1 ; : : : ; zm i  K1 n , der von den Zeilenvektoren er-
dim.'.V // sogleich dim.' 1 .f0g// D 0, folglich ist ' auch zeugt wird, den Zeilenraum von A bzw.
injektiv und somit bijektiv. 4 hs1 ; : : : ; sn i  Km , der von den Spaltenvektoren er-
(iii) ) (i): Ist ' bijektiv, so ist ' insbesondere auch zeugt wird, den Spaltenraum von A.
injektiv. 
Die Dimension des Zeilenraums nennen wir den Zeilen-
Kommentar Man beachte die Analogie zu endlichen rang von A und die Dimension des Spaltenraums den
gleichmächtigen Mengen A und B: Für eine Abbildung Spaltenrang von A.
f W A ! B sind die Eigenschaften injektiv, surjektiv und Wir erinnern an den Begriff Rang einer Matrix: Der
bijektiv gleichwertig. Rang rg A einer Matrix A 2 Km n ist die Anzahl der
Nichtnullzeilen der Matrix in Zeilenstufenform und damit
Bei unendlichdimensionalen Vektorräumen ist die Aussage die Dimension des Zeilenraums, d. h., der Rang von A ist
des obigen Satzes nicht korrekt. Man kann im Allgemei- der Zeilenrang von A. Wir zeigen nun, dass auch der Spal-
nen aus der Injektivität eines Endomorphismus nicht auf tenrang von A gleich diesem Rang von A ist.
die Surjektivität schließen – dasselbe gilt auch andersher- Insbesondere haben wir damit den schuldig gebliebenen
um. Man beachte die folgenden Beispiele. Nachweis der Wohldefiniertheit des Rangs von A nachge-
liefert: Der Rang von A ist die Dimension des Zeilenraums
Beispiel und hängt damit nur von A ab.
4 Im Fall V D KŒX D W ist das Differenzieren dX d
eine
surjektive, nicht injektive lineare Abbildung.
4 Im R-Vektorraum RN0 aller reellen Folgen sind die Ab- Mit der Dimensionsformel folgt
bildungen Zeilenrang D Spaltenrang

RN0 ! RN0 ;
rW
.a0 ; a1 ; : : :/ 7! .0; a0 ; a1 ; : : :/ Wir werden feststellen, dass letztlich jede lineare Abbil-
dung zwischen endlichdimensionalen Vektorräumen von
und der Form 'A mit einer Matrix A ist. Wir formulieren bereits
 N0 N0 gemachte Feststellungen erneut mit den nun zur Verfügung
R !R ;
lW stehenden Begriffen.
.a0 ; a1 ; : : :/ 7! .a1 ; a2 ; : : :/;

bei der die Folgenglieder um eine Stelle „nach rechts


verschoben“ bzw. „nach links verschoben“ werden, li- Kern und Bild einer Matrix
neare Abbildungen. Ist A D .s1 ; : : : ; sn / 2 Km n , so gilt für den Kern und das
Die Abbildung r ist injektiv, aber nicht surjektiv, die Bild von 'A :
Abbildung l ist surjektiv, aber nicht injektiv. Insbeson-
1
dere ist der Vektorraum RN0 aller reellen Folgen nicht 'A .f0g/ D fv 2 Kn j A v D 0g;
endlichdimensional. 9 'A .Kn / D hs1 ; : : : ; sn i :

Man spricht in diesem Zusammenhang auch vom Kern


Zeilen- und Spaltenraum einer Matrix und Bild der Matrix A.
sind die Vektorräume, die von den Zeilen Es gilt:
und Spalten einer Matrix erzeugt werden
1
dim.'A .f0g// D n  rg A

Für jede Matrix A 2 Km n


ist die Abbildung und
 n
K ! Km ;
'A W dim 'A .Kn / D rg A D dimhs1 ; : : : ; sn i :
v 7! A v

linear. Für eine Matrix A 2 Km n mit den Zeilen


z1 ; : : : ; zm und den Spalten s1 ; : : : ; sn , d. h., Beweis Die Formel
0 1 1
z1 dim.'A .f0g// D n  rg A
B :: C
A D @ : A D .s1 ; : : : ; sn /;
ist wohlbekannt. Weil die Dimension des Bildes von 'A die
zm Dimension des Spaltenraums hs1 ; : : : ; sn i der Matrix A ist,
184 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

folgt aus der Dimensionsformel die zweite Formel: und für eine Basis des Kerns wählen wir zwei linear unab-
hängige Lösungsvektoren des Systems A 0 x D 0, etwa
rg A D dimhs1 ; : : : ; sn i :  0 1 0 1
* 3 1 +
B 2 C B0 C
Insbesondere haben also Zeilen- und Spaltenraum einer ker 'A D B C B C
@ 3 A ; @0 A :
Matrix die gleiche Dimension. Das halten wir fest:
0 1

Das Bild von A ist der Spaltenraum von A, d. h. das Er-


Zeilenrang D Spaltenrang
zeugnis der Spaltenvektoren von A. Wir erhalten durch
Für alle natürlichen Zahlen m; n und jede Matrix A 2
elementare Spaltenumformungen eine Basis. Da wir aber
Km n gilt:
wissen, dass der Spaltenrang, d. h. die Dimension des Spal-
tenraums, 2 ist, weil der Spaltenrang gleich dem Zeilenrang
6 Zeilenrang D Spaltenrang .
ist, reicht es aus,wenn wir zwei linear unabhängige Vek-
toren aus dem Bild von A angeben. Dazu können wir
offenbar die ersten beiden Spalten von A wählen, d. h.
Ein direkter Nachweis dieser Formel (also ohne Rückgriff 0 1 0 1
auf den Dimensionssatz) ist möglich, aber ziemlich auf- * 0 3 +
B2C B3C
wendig. Bild 'A D B C B C
@3A; @0A : 9
Beispiel Wir bestimmen den Kern und das Bild der Matrix 0 3

0 1 Kommentar Ist ' eine lineare Abbildung zwischen K-Vek-


0 3 2 0
B2 3 0 2C torräumen V und W , so sind für die Dimensionen des
ADB
@3
C 2 R4 4 : Bildes '.V / und des Kerns ' 1 .f0g/ auch die Bezeichnun-
0 3 3A
0 3 2 0 gen Rang und Defekt üblich:

Rg ' D dim '.V / und Df ' D dim ' 1 .f0g/ :


Der Kern ist die Lösungsmenge des homogenen linearen
Gleichungssystems Mit diesen Bezeichnungen lautet die Dimensionsformel für
einen endlichdimensionalen Vektorraum V :
Ax D 0:
dim V D Rg ' C Df ' :
Wir erhalten eine Basis des Kerns durch elementare Zei-
lenumformungen. Dazu vertauschen wir die ersten beiden
Zeilen und addieren zum Doppelten der dritten Zeile das Nach dem Homomorphiesatz liefert jeder
Dreifache der zweiten Zeile: Homomorphismus einen Isomorphismus
0 1 0 1
0 3 2 0 2 3 0 2
B2 3 0 2C B C
C ! B 0 3 2 0C
Wir haben bereits einen Homomorphiesatz für Gruppen
B
@3 0 3 3A @ 0 9 6 0A begründet. Ein entsprechender Satz gilt auch für Vektorräu-
0 3 2 0 0 0 0 0 me:

Nun ist die dritte Zeile ein Vielfaches der zweiten Zeile,
durch eine elementare Umformung erhalten wir nun die Der Homomorphiesatz
Zeilenstufenform Ist ' W V ! V 0 eine lineare Abbildung von einem K-
Vektorraum V in einen K-Vektorraum V 0 , so ist
0 1 0 1
2 3 0 2 2 3 0 2 (
B0 3 0C B C
C ! B 0 3 2 0C
2 V = ker ' ! '.V /;
B W
@0 9 6 0 A @ 0 0 0 0A v C ker ' 7! '.v/
0 0 0 0 0 0 0 0
„ ƒ‚ … ein Isomorphismus vom Faktorraum V = ker ' auf das Bild
DA 0
von ', insbesondere gilt:
Die Dimension des Kerns ist somit
V = ker ' Š '.V / :
dim ker A D 4  rg A D 4  2 D 2;
6.4  Darstellungsmatrizen
185 6
Beweis Im Einzelnen ist zu begründen: Beispiel
(i) ist eine Abbildung. 4 Jede Matrix A D .s1 ; : : : ; sn / 2 Km n definiert eine
(ii) ist injektiv. lineare Abbildung 'A W Kn ! Km . Der Kern U D
(iii) ist surjektiv. ker 'A dieser linearen Abbildung 'A ist der Kern der
(iv) ist linear. Matrix A:

Wir schreiben kürzer U D ker '. U D fv 2 Kn j A v D 0g :


(i) Die Elemente aus V =U haben die Form v C U . Eine
solche Nebenklasse ist nicht eindeutig durch den Repräsen- Und das Bild 'A .Kn / ist der Spaltenraum hs1 ; : : : ; sn i
tanten v erklärt; es kann durchaus v C U D v0 C U und der Matrix A. Nach dem Homomorphiesatz gilt:
v ¤ v0 gelten. Damit eine Abbildung ist, muss gewähr-
leistet sein, dass jedem v C U aus V =U genau ein Element Kn =U Š hs1 ; : : : ; sn i :
aus '.V / zugeordnet wird, d. h.,
4 Das Differenzieren dX d
ist im K-Vektorraum KŒX ei-
aus v C U D v0 C U folgt '.v/ D '.v0 / :
ne surjektive lineare Abbildung mit dem Kern K. Nach
Es seien also v; v0 2 V . Dann gilt: dem Homomorphiesatz gilt:

v C U D v0 C U ) v  v0 2 U KŒX=K Š KŒX : 9
) '.v  v0 / D 0
) '.v/  '.v0 / D 0 6.4 Darstellungsmatrizen
) '.v/ D '.v0 / :
In diesem Abschnitt betrachten wir nur endlichdimensiona-
Damit gilt (i). le Vektorräume.
(ii) Es ist zu zeigen Wir ordnen einer linearen Abbildung ' W V ! W
zwischen endlichdimensionalen K-Vektorräumen V und W
aus '.v/ D '.v0 / folgt v C U D v0 C U : nach Wahl von Basen der Vektorräume eine Matrix A zu –
die sogenannte Darstellungsmatrix der linearen Abbildung
Dies gilt, da sich die Implikationen in (i) umkehren lassen: bezüglich der gewählten Basen.
Es seien v; v0 2 V . Dann gilt: Anstelle des Vektors v 2 V betrachten wir den zu v
gehörigen Koordinatenvektor B v bezüglich einer Basis B –
'.v/ D '.v0 / ) '.v/  '.v0 / D 0
das ist ein Spaltenvektor.
) '.v  v0 / D 0 Dann ist das Abbilden des Vektors v, also das Bilden
) v  v0 2 U von '.v/, im Wesentlichen die Multiplikation der Matrix
) v C U D v0 C U : A mit dem Koordinatenvektor B v.
In diesem Sinne werden die im Allgemeinen durch-
Damit gilt (ii). aus abstrakten Objekte der linearen Abbildungen zwischen
Die Aussage in (iii) ist offensichtlich. endlichdimensionalen Vektorräumen greifbar – eine lineare
(iv) Es seien v C U; w C U 2 V =U und  2 K. Dann Abbildung ist im Wesentlichen eine Matrix und das Ab-
gilt: bilden eines Vektors die Multiplikation dieser Matrix mit
einem Spaltenvektor. Damit erklärt sich die bereits betonte
. .v C U / C .w C U // D ... v/ C w/ C U // Bedeutung der linearen Abbildung v 7! Av.
D '. v C w/
D  '.v/ C '.w/ Durch Koordinatenvektoren wird jeder
D  .v C U / C .w C U / : Vektor zu einem Spaltenvektor

Damit gilt (iv). 


In Mengen sind die Elemente nicht angeordnet, es gilt
fa; bg D fb; ag. Im Folgenden wird es für uns aber wichtig
Jeder Homomorphismus ' W V ! V 0 induziert somit einen
Isomorphismus W V = ker ' ! '.V /. sein, in welcher Reihenfolge die Elemente einer Basis an-
geordnet sind. Dazu benutzen wir Tupel. Für verschiedene
Kommentar Man beachte, dass die Injektivität ('.v/ D Elemente a; b einer Menge A gilt nämlich:
'.v0 / ) v C U D v0 C U ) die Umkehrung der Wohl-
definiertheit (v C U D v0 C U ) '.v/ D '.v0 /) ist. .a; b/; .b; a/ 2 A A aber .a; b/ ¤ .b; a/ :
186 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Man spricht auch von geordneten Tupeln. Mit den geordne-


ten Tupeln führen wir geordnete Basen von Vektorräumen 2 c1 4
ein.
Ist fb1 ; : : : ; bn g eine Basis eines K-Vektorraums V , ins- 3
besondere also dim.V / D n, so nennen wir das n-Tupel
B D .b1 ; : : : ; bn / eine geordnete Basis von V . 1
D c1 2
2

i Es sind dann z. B. .e 1 ; e 2 ; e 3 / und .e 2 ; e 1 ; e 3 / beides 1 2


1 C 1 D
geordnete Basen des R3 . Als geordnete Basen sind die 3

beiden verschieden, als Mengen betrachtet aber sehr wohl


gleich. 2 1 1 2 3
1
Wie wir in 7 Abschn. 4.4 gezeigt haben, ist jeder Vektor 1 c2 D 1

6 eines Vektorraums bis auf die Reihenfolge der Summanden


eindeutig als Linearkombination einer Basis darstellbar. 2
Diese Darstellung liefert den Koordinatenvektor.
3 3 c2

Der Koordinatenvektor bezüglich einer Basis B . Abb. 6.7 Der Vektor e 1 C e 2 D 2 c 1 C 3 c 2 hat bezüglich der geord-
Ist B D .b1 ; : : : ; bn / eine geordnete Basis eines K-Vek- neten Basis C D .c 1 ; c 2 / die Koordinaten 2 und 3
torraums V , so besitzt jedes v 2 V genau eine Darstellung

4 Für die geordneten Basen B D .i; i X; X C X 2 /


v D v1 b1 C    C vn bn 0 1
v1 und B 0 D .2; 3 X; 4 X 2 / des komplexen Vektorraums
B:C CŒX2 der Polynome vom Grad kleiner oder gleich 2
mit v1 ; : : : ; vn 2 K. Es heißt B v D @ :: C
B
A 2 K der Ko-
n
und das Polynom
vn
ordinatenvektor von v bezüglich B. p D 4 X2 C 2
D .2 i/ i C .4 i/ .i X/ C 4 .X C X 2 /
D 1 .2/ C 0 .3 X/ C 1 .4 X 2 /
Beispiel
4 Für die geordneten Basen E2 D .e 1 ; e 2 / – die geord- gilt: 0 1 0 1
2 i 1
  – und E D .e 2 ; e 1 / des R und den
2
nete Standardbasis
2 Bp D
@ 4 i A 0 @
und B p D 0A :
Vektor v D D 2 e 1 C 1 e 2 D 1 e 2 C 2 e 1 gilt: 4 1
1
 
    1 2
2 1 4 Die Matrix A D 2 R2 2 hat bezüglich der
v D und v D : 3 4
E2 E
1 2 geordneten Standardbasis E D .E11 ; E12 ; E21 ; E22 / des
  R2 2 den Koordinatenvektor
1 0 1
4 Der Vektor v D hat bezüglich der geordneten 1
1
B C
Standardbasis E2 den Koordinatenvektor B2C
EA D @ A : 9
  3
1 4
E2 v D ;
1
    Kommentar Ein Vertauschen des i-ten Elementes mit dem
1 1
bezüglich der geordneten Basis B D ; j -ten Element einer geordneten Basis führt also zu einem
1 1
den Koordinatenvektor Vertauschen der i-ten Komponente mit der j -ten Kompo-
  nente des Koordinatenvektors.
1
B v D :
0
   
1 1 Jeder n-dimensionale Vektorraum über K
Und bezüglich der Basis C D ; hat v
den Koordinatenvektor
2 1 ist zu Kn isomorph
 
2
C v D ; Ordnet man jedem Vektor v aus V seinen Koordinaten-
3
vektor B v bezüglich einer geordneten Basis B zu, so hat
vgl. . Abb. 6.7. man eine Abbildung von V in den Kn definiert, hierbei ist
6.4  Darstellungsmatrizen
187 6
n D dim V . Diese Abbildung liefert ein zentrales Ergebnis sionale K-Vektorraum hat die gleiche Struktur wie der Kn .
der linearen Algebra: Ist die Dimension von V endlich, so beschreibt die Dimen-
sion den Vektorraum V eindeutig bis auf Isomorphie.
Damit sind die endlichdimensionalen K-Vektorräume
Jeder n-dimensionale K-Vektorraum ist zum K n durch ihre Dimension klassifiziert. Zu jeder natürlichen
isomorph Zahl n gibt es im Wesentlichen nur einen einzigen K-Vek-
Ist B D .b1 ; : : : ; bn / eine geordnete Basis des n-dimen- torraum der Dimension n, nämlich den Vektorraum Kn mit
sionalen K-Vektorraums V , so ist die Abbildung den vertrauten Spaltenvektoren.
( Nun ist es nur naheliegend, wie wir weiter vorgehen
V ! Kn ; werden: Den Wunsch, alle linearen Abbildungen ' zwi-
B˚ W
v 7! B v schen zwei Vektorräumen V und W beschreiben, erfassen
und greifbar machen zu können, erfüllen wir uns im Fall
eine bijektive und lineare Abbildung, d. h. ein Isomorphis- dim V D n 2 N und dim W D m 2 N wie folgt: Wir iden-
mus. tifizieren V mit Kn und W mit Km und beschreiben den
Zusammenhang '.v/ D w mit v 2 V und w 2 W durch
eine Darstellungsmatrix A:
Die Abbildung B ˚ ordnet jedem Vektor v aus V seinen
Koordinatenvektor B v. Dieses Satz besagt also, dass das '.v/ D w ! A Bv D C w :
Bilden von Koordinatenvektoren linear und bijektiv ist. Die Wir erklären nun die Darstellungsmatrix einer linearen Ab-
weitere fundamentale Bedeutung des Satzes erläutern wir bildung. Dabei behandeln wir zuerst den einfacheren Fall
nach dem Beweis. V D Kn und W D Km mit den zugehörigen Standardba-
sen En und Em .
Beweis Es ist zu zeigen, dass B ˚ linear, injektiv und sur-
jektiv ist.
Zur Homomorphie: Es seien v; w 2 V , und es gelte Jede lineare Abbildung vom Kn in den Km
ist durch eine Matrix gegeben
v D 1 b1 C    C n bn ;
w D 1 b1 C    C n bn :
Sind ' eine beliebige lineare Abbildung von Kn in den Km
0 1
Dann gilt für jedes  2 K: v1
B :: C
 v C w D . 1 C 1 / b1 C    C . n C n / bn : und v D @ : A 2 Kn , so erhalten wir nach Darstellung von
vn
Damit erhalten wir: v bezüglich der Standardbasis En des Kn für das Bild von
0 1 0 1 0 1
 1 C 1 1 1 v wegen der Linearität von '
B :: C B :: C B :: C '.v/ D '.v1 e 1 C    C vn e n /
B ˚. v C w/ D @ : A D @ : AC @ : A
 n C n n n D v1 '.e 1 / C    C vn '.e n /
0 1
D  B ˚.v/ C B ˚.w/ : v1
B :: C
D .'.e 1 /; : : : ; '.e n // @ : A
Somit ist B ˚ eine lineare Abbildung. „ ƒ‚ …
Zur Injektivität: Aus B ˚.v/ D 0 für ein v 2 V folgt DWA vn
D A v D 'A .v/ ;
v D 0  b1 C    C 0  bn D 0 :
also ' D 'A .
Damit ist B ˚ nach dem Injektivitätskriterium injektiv.
0 1
1
B :: C Darstellung linearer Abbildungen von Kn in den
Zur Surjektivität: Der Vektor @ : A 2 Kn ist das Bild
des Vektors Km bezüglich der Standardbasen
n
Zu jeder linearen Abbildung ' von Kn in Km gibt es ei-
v D 1 b1 C    C n bn 2 V ; ne Matrix A 2 Km n mit ' D 'A . Diese Matrix A ist
gegeben als
sodass die Abbildung B ˚ auch surjektiv ist. 
A D .'.e 1 /; : : : ; '.e n // 2 Km n
:
Die eben bewiesene Isomorphie zwischen einem beliebi-
gen n-dimensionalen K-Vektorraum V und dem Kn besagt, Die i-te Spalte von A ist das Bild des i-ten Basisvektors
dass die beiden Vektorräume V und Kn sich nur durch die der Standardbasis.
Bezeichnung der Elemente unterscheiden. Jeder n-dimen-
188 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Beispiel
4 Zur Nullabbildung Die Darstellungsmatrix einer linearen Abbildung
Es seien V ein n-dimensionaler und W ein m-dimen-

R3 ! R2 ; sionaler K-Vektorraum mit den geordneten Basen B D
'W
v 7! 0 .b1 ; : : : ; bn / von V und C D .c 1 ; : : : ; c m / von W . Und '
sei eine lineare Abbildung von V nach W . Man nennt die
Matrix
gehört die Nullmatrix 0 aus R2 3 .
4 Zur Identität
C M .'/B D .C '.b1 /; : : : ; C '.bn // 2 Km n


R3 ! R3 ;
id W die Darstellungsmatrix von ' bezüglich der Basen B
v 7! v
und C .
Die i-te Spalte von C M .'/B ist der Koordinatenvek-
6 gehört die Einheitsmatrix E3 2 R3 3 . tor des Bildes des i-ten Basisvektors.
4 Zur linearen Abbildung
8
ˆ R3 ! R2 ; Wir drücken das noch etwas ungenauer in einer Form aus,
ˆ
< 0x 1
1   in der man sich die Konstruktion der Darstellungsmatrix
'W @ A x1 C x2
ˆ 2 7!
x gut merken kann: „Die Spalten der Darstellungsmatrix sind
:̂ x2 die Bilder der Basisvektoren.“
x3

?Selbstfrage 6.11
gehört wegen
Inwiefern verallgemeinert dies die Konstruktion in der
      vorherigen gelben Box?
1 1 0
'.e 1 / D ; '.e 2 / D ; '.e 3 / D
0 1 0 Zu jeder linearen Abbildung zwischen endlichdimensiona-
len Vektorräumen existiert eine Darstellungsmatrix. Inwie-
  fern eine Darstellungsmatrix die lineare Abbildung dar-
1 1 0
die Matrix A D . Es gilt: stellt, klären wir gleich nach den folgenden Beispielen.
0 1 0

00 11 0 1 Beispiel
x1 x1 4 Als Darstellungsmatrix der Nullabbildung 'W R3 ! R2 ,
' @ @ x2 A A D A x2 A : 9
@ v 7! 0 bezüglich der geordneten Standardbasen E3 des
x3 x3 R3 und E2 des R2 erhalten wir
 
0 0 0
? Selbstfrage 6.10 E2 M .'/E3 D .E2 '.e /;
1 E2 '.e /;
2 E2 '.e 3 // D
0 0 0
Können auch Zeilen oder Spalten, also Matrizen aus K1 n

oder Kn 1 , solche Darstellungsmatrizen sein?


Allgemeiner gilt: Die Darstellungsmatrix der Nullabbil-
dung eines n-dimensionalen Vektorraums in einen m-
dimensionalen Vektorraum ist die m n-Nullmatrix.
Die Matrix, die eine lineare Abbildung 4 Nun bilden wir die Darstellungsmatrix der Identität ' D
darstellt, erhält man spaltenweise idR2 W v 7! v bezüglich verschiedener geordneter Ba-
sen E2 D .e 1 ; e 2 / und E D .e 2 ; e 1 /. Dann gilt
 
Wie eben gezeigt, können wir jeder linearen Abbildung ' 1 0
von Kn in den Km eine Matrix zuordnen, mit der wir die E2 M .'/E2 D .E2 '.e 1 /; E2 '.e 2 // D ;
0 1
lineare Abbildung ' beschreiben können. Mit der Matrix  
1 0
A D .'.e 1 /; : : : ; '.e n // 2 Km n gilt: E M .'/E D .E '.e 2 /; E '.e 1 // D ;
0 1
 
' D 'A : 0 1
E2 M .'/E D .E2 '.e /;
2 E2 '.e 1 // D ;
1 0
 
Wir wollen dies auf endlichdimensionale beliebige K-Vek- 0 1
E M .'/E2 D .E '.e /;
1 E '.e 2 // D :
torräume V und W verallgemeinern. 1 0
6.4  Darstellungsmatrizen
189 6
4 Ist ' die lineare Abbildung Kn ! Km , v 7! A v mit Die Darstellungsmatrix E M .'/E von ' ist demnach
einer Matrix A 2 Km n , so gilt mit den Standardbasen
0 1
En und Em : 0 1 1 0
B1 0 0 1C
B
E M .'/E D @
C: 9
Em M .'/En D A: 1 0 0 1A
0 1 1 0
4 Es bezeichne ' D dX d
W RŒX2 ! RŒX2 das
Differenzieren von Polynomen. Im reellen Vektorraum
Beispiel Wir betrachten eine Projektion vom R3 auf eine
RŒX2 betrachten wir die beiden geordneten Basen B D
Ebene E  R3 (wir benutzen Begriffe aus dem 7 Kap. 5
.1; X; X 2 / und C D .X 2 C X C 1; X C 1; 1/. Dann gilt
zur analytischen Geometrie):
wegen '.1/ D 0, '.X/ D 1, '.X 2 / D 2 X:
0 1  3
0 1 0 R ! E;
W
@ A v 7! .v/;
B M .'/B D .B '.1/;B '.X/; B '.X // D 0 0 2
2

0 0 0
wobei jeder Punkt des R3 parallel zu einer Normalen der
und analog Ebene E, d. h. zu einem Vektor n ¤ 0, der senkrecht auf
allen Vektoren der Ebene E steht, auf die Ebene E abgebil-
C M .'/C D .C '.X C X C 1/; C '.X C 1/; C '.1//
2
det wird (. Abb. 6.8).
0 1 Die Ebene E ist gegeben durch eine Gleichung
0 0 0
@
D 2 0 0 : A
1 1 0 a1 x1 C a2 x2 C a3 x3 D 0

4 Wir erklären eine lineare Abbildung ' W K2 2 ! K2 2 mit a1 ; a2 ; a3 2 R. Da die Ebene E den Nullpunkt enthält,
durch ist sie ein Untervektorraum des R3 . Eine Normale dieser
  Ebene E können wir leicht angeben. Der Vektor
0 1
'.A/ D M A  A M mit M D : 0 1
1 0 a1
n D @a2 A
Im K2 2 wählen wir die geordnete Standardbasis a3
E D .E11 ; E12 ; E21 ; E22 /; Koordinatenvektoren sind al-
so Spaltenvektoren aus K4 . erfüllt die Bedingung n ? v für jedes v 2 E.
Wir berechnen der Reihe nach die Bilder der Basisvek- Nun untersuchen wir, wie diese Projektion dargestellt
toren und stellen diese Bilder dann als Linearkombina- werden kann. Wir wählen eine Basis fb; cg der Ebene E.
tionen der Vektoren der Basis E dar. Es ist dann B D fn; b; cg offenbar eine Basis des R3 . Nun
Es ergibt sich: können wir jeden Vektor v 2 R3 als Linearkombination
     
0 1 1 0 1 0 0 1
'.E11 / D 
1 0 0 0 0 0 1 0
   
0 0 0 1
D  D E12 C E21
1 0 0 0
     
0 1 0 1 0 1 0 1
'.E12 / D 
1 0 0 0 0 0 1 0 n
   
0 0 1 0
D  D E11 C E22
0 1 0 0
     
0 1 0 0 0 0 0 1
'.E21 / D 
1 0 1 0 1 0 1 0
   
1 0 0 0
D  D E11 C E22
0 0 0 1
     
0 1 0 0 0 0 0 1
'.E22 / D 
1 0 0 1 0 1 1 0
   
0 1 0 0
D  D E12  E21 . Abb. 6.8 Die Punkte des R3 werden parallel zur Normalen n auf die
0 0 1 0 Ebene projiziert
190 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Eine lineare Abbildung wird durch eine


Darstellungsmatrix beschrieben
Gegeben ist eine lineare Abbildung ' W V ! W zwischen
zwei endlichdimensionalen K-Vektorräumen V und W .
c Ist B D .b1 ; : : : ; bn / bzw. C D .c 1 ; : : : ; c m / eine
Basis von V bzw. W , so gilt:

C '.v/ D C M .'/B B v :
b
Der Koordinatenvektor von '.v/ ist das Produkt der Dar-
stellungsmatrix mit dem Koordinatenvektor von v.
6 . Abb. 6.9 Die Projektion auf eine Ebene

0 1
v1
von B dar stellen, B :: C
Beweis Gilt B v D @ : A, so erhalten wir wegen
0 1
1 vn
v D 1 n C 2 b C 3 c d. h., B v D @2 A : C M .'/B D .C '.b1 /; : : : ;C '.bn //:
3
C M .'/B B v D v1 C '.b1 / C    C vn C '.bn / :
Das Durchführen der Projektion ist ganz einfach, beachte
. Abb. 6.9: Und da das Bilden von Koordinatenvektoren linear ist, gilt:
8
ˆ R3 ! R3 ;
ˆ
< 0 1 0 1 C '.v/ D C .'.v1 b1 C    C vn bn //
1 0
W : D v1 C '.b1 / C    C vn C '.bn / :
ˆB v D @2 A 7! @2 A

3 3
Also gilt die angegebene Gleichheit. 
Und die Darstellungsmatrix dieser Projektion bezüg-
lich der Basis B erhalten wir nun auch ganz einfach, Mithilfe der Koordinatenvektoren bezüglich der Basen
B und C von V und W und der Darstellungsmatrix
0 1
0 0 0 C M .'/B können wir die (abstrakte) lineare Abbildung ' W

B M . /B D
@ 0 1 0 A : 9 V ! W (konkret) darstellen, man beachte das folgende
0 0 1 Diagramm:

'
? Selbstfrage 6.12 V W
Was sind Kern und Bild der Projektion?

Nachdem klar ist, wie man die Darstellungsmatrix ei- B˚ C˚

ner linearen Abbildung bestimmt, überlegen wir uns, in


welcher Art und Weise die Darstellungsmatrix nun benutzt C M .'/B
Kn Km
werden kann, um die lineare Abbildung, aus der sie gewon-
nen wurde, auszudrücken.
Kommentar Die Formel

Eine lineare Abbildung auf einen C '.v/ D C M .'/B B v


Vektor anzuwenden, bedeutet,
die Darstellungsmatrix mit dem kann man sich einfach merken – das B kürzt sich durch das
Aufeinandertreffen weg.
Koordinatenvektor zu multiplizieren
?Selbstfrage 6.13
Inwiefern stellt die Darstellungsmatrix C M .'/B einer li- Was bedeutet
nearen Abbildung ' die Abbildung dar? Es gilt der folgen-
de einfache Zusammenhang. C '.v/ D B M .'/B B v ‹
6.4  Darstellungsmatrizen
191 6
Beispiel Wir betrachten erneut das obige Beispiel zur Dif-A D C M .'/B eine solche Darstellungsmatrix mit Basen
ferentiation ' D dX
d
W RŒX2 ! RŒX2 . Es ist C D .c 1 D B von V und C von W . Wir zeigen:
X 2 C X C 1; c 2 D X C 1; c 3 D 1/ eine Basis von RŒX2 ,
und es gilt:
0 1 Der Kern und das Bild von '
0 0 0 Mit den eingeführten Bezeichnungen gilt für v 2 V und
C M .'/C D
@ 2 0 0A w2W:
1 1 0
v 2 ker.'/ , Bv 2 ker A ;
Nun betrachten wir das Polynom p D X 2 C2 X 1. Wegen w 2 '.V / , Cw 2 'A .Kn / :

p D 1  c 1 C 1  c 2 C .3/  c 3
0 1 Beweis Nach dem Satz zur Darstellungsmatrix gilt:
1
ist C p D @ 1 A der Koordinatenvektor von p bezüglich
B v 2 ker A , C '.v/ D 0 , '.v/ D 0
3
, v 2 ker ' :
der Basis C . Nun bilden wir zum einen den Koordinaten-
vektor von '.p/ D 2 X C 2 bezüglich C : Das beweist die erste Äquivalenz. Wir begründen die zweite
0 1 Äquivalenz; dazu sei A D .C '.b1 /; : : : ; C '.bn //, wobei
0
@ A B D .b1 ; : : : ; bn /:
C '.p/ D 2
0 w 2 '.V /
, w D '.v/ ; v D v1 b1 C    C vn bn 2 V; vi 2 K
und zum anderen das Produkt
0 10 1 0 1 , w D v1 '.b1 / C    C vn '.bn /; vi 2 K
0 0 0 1 0 , C w D v1C '.b1 / C    C vnC '.bn /; vi 2 K
C M .'/C C p D
@ 2 0 0 A @ 1 A @
D 2A : 9 0 1
v1
1 1 0 3 0
B :: C
, C w D A v; v D @ : A 2 Kn
Die Formel im obigen Satz liefert im Fall ' D id auch vn
Koordinatenvektoren von Vektoren eines K-Vektorraums V
bezüglich einer Basis C , wenn jene bezüglich einer Basis , Cw 2 'A .Kn / : 

B bekannt sind.
Beispiel Wir bestimmen den Kern und das Bild der folgen-
0 1 den linearen Abbildung
1
Beispiel Der Vektor E3 v D @2A, dargestellt bezüglich der  2 2
K ! K2 2 ;
3 'W
A 7! M A  A M ;
Standardbasis E3 des R3 , hat bezüglich der geordneten Ba-
 
sis C D .e 1 C e 2 ; e 2 C e 3 ; e 1 / den Koordinatenvektor 0 1
wobei M D .
1 0
Cv D C M .id/E3 E3 v Die lineare Abbildung ' hat bezüglich der geordneten
0 10 1 0 1
0 1 1 1 1 Standardbasis E D .E11 ; E12 ; E21 ; E22 /, wie wir bereits be-
D @ 0 0 1 A @ 2 A @
D 3A: 9 rechnet haben, die Darstellungsmatrix
1 1 1 3 2 0 1
0 1 1 0
B1 0 0 1C
E M .'/E D @
B C:
Der Kern und das Bild einer linearen 1 0 0 1A
0 1 1 0
Abbildung ist durch den Kern und das Bild
einer Darstellungsmatrix gegeben Durch elementare Zeilenumformungen erhalten wir den
Kern von A D E M .'/E :
Die Eigenschaften einer linearen Abbildung ' finden sich 0 1 0 1
0 1 1 0 1 0 0 1
in ihrer Darstellungsmatrix wieder. Ist ' eine lineare Abbil- B1 0
B 0 1C B
C ! B0 1 1 0 C
C
dung zwischen zwei endlichdimensionalen Vektorräumen
@1 0 0 1 A @ 0 0 0 0A
V und W mit dim V D n und dim W D m, so ist je-
de Darstellungsmatrix von ' eine m n-Matrix. Es sei 0 1 1 0 0 0 0 0
192 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Somit gilt:
0 1 0 1 Die einfachste Darstellungsmatrix
* 1 0 +
Es seien n D dim V und m D dim W , ' W V ! W linear
B0C B 1 C
ker A D B C B C
@0A ; @1A :
und r D dim '.V /. Es existieren Basen B von V und C
von W mit
1 0
!
Er 0
Wegen C M .'/B D
0 0
0 1 0 1
1 0
    wobei Er die r r-Einheitsmatrix ist.
B0C 1 0 B1C 0 1
B CDE B C
und @ A D E
@0A 0 1 1 1 0
1 0
6 Beweis Wir wählen
haben wir damit auch den Kern von ' bestimmt: 4 eine geordnete Basis .b1 ; : : : ; bs / des Kerns ker '  V
    von ' und
1 0 0 1 4 eine geordnete Basis .c 1 ; : : : ; c r / des Bildes '.V /  W
ker ' D ; :
0 1 1 0 von '.

Durch elementare Spaltenumformungen erhalten wir das Zu den r Vektoren c 1 ; : : : ; c r aus W gibt es r Vektoren
Bild von A D E M .'/E : a1 ; : : : ; ar in V mit
0 1 0 1
0 1 1 0 0 1 0 0 '.a1 / D c 1 ; : : : ; '.ar / D c r :
B1 0 0 1 C B1 0 0 0 C
B C!B C
@1 0 0 1A @1 0 0 0 A Wegen der linearen Unabhängigkeit von c 1 ; : : : ; c r 2 W
0 1 1 0 0 1 0 0 sind auch die Vektoren a1 ; : : : ; ar 2 V linear unabhängig.
Aus
Somit gilt:
0 1 0 1 1 a1 C    C r ar D 0
* 0 1 +
B1C B 0 C folgt durch Anwenden von ':
'A .K4 / D B C B C
@1A ; @ 0 A :
0 1 1 c 1 C    C r c r D 0 :

Wegen Das liefert 1 D    D r D 0.


Nach der Dimensionsformel ist B D .a1 ; : : : ; ar ;
0 1 0 1
0 1 b1 ; : : : ; bs / eine Basis von V .
   
B1C B0C
B C D E 1 0
Wir ergänzen nun noch die linear unabhängige Teilmen-
B C D E 0 1 und
@1A 1 0 @0A 0 1 ge fc 1 ; : : : ; c r g von W zu einer Basis C D fc 1 ; : : : ; c m g
0 1 von W und bestimmen die Darstellungsmatrix C M .'/B
von ' bezüglich dieser Basen:
haben wir damit auch das Bild von ' bestimmt: Wegen '.a1 / D c 1 ; : : : ; '.ar / D c r sind die ersten r
    Spalten von der gewünschten Form:
0 1 1 0
'.K / D
2 2
; : 9 D e 1 2 Km ; : : : ; D e r 2 Km :
1 0 0 1 C '.a1 / C '.ar /

Und wegen '.b1 / D    D '.bs / D 0 sind die restlichen


s D n  r Spalten von C M .'/B Nullspalten. Damit hat die
Jede lineare Abbildung zwischen Darstellungsmatrix die gewünschte Form. 
endlichdimensionalen Räumen kann durch
Beispiel Gegeben ist die Matrix
eine sehr einfache Matrix dargestellt werden
0 1
2 3 2 3
Wir können zu jeder linearen Abbildung ' W V ! W A D @3 5 0 1 A 2 R3
4
:
zwischen endlichdimensionalen K-Vektorräumen V und W 1 2 2 2
eine ganz einfache Darstellungsmatrix angeben, die von
Einsen auf einer Diagonalen abgesehen, nur aus Nullen be- Wir wollen geordnete Basen B von R4 und C von R3
steht: bestimmen, sodass die Darstellungsmatrix C M .'A /B der
6.4  Darstellungsmatrizen
193 6

Beispiel: Die Darstellungsmatrix einer Spiegelung an einer Geraden durch den Ursprung

Wir betrachten im R2 , mit dem üblichen kartesischen Koordi- wird, und die Strecke vom Ursprung zum Punkt b2 steht senk-
natensystem, den Endomorphismus ', den wir durch lineare recht auf der Geraden, an der wir spiegeln, es ist nämlich das
Fortsetzung der Abbildung .e 1 / D e 2 und .e 2 / D e 1 er- Skalarprodukt b1  b2 gleich null.
! Abbildung wird jeder Punkt des R an der
2
halten. Bei dieser Also erhalten wir:
1
Geraden R gespiegelt. Man beachte die Abbildung.
1 '.b1 / D b1 und '.b2 / D b2 :
Wir bestimmen die Darstellungsmatrizen dieser linearen
Abbildung zum einen bezüglich der Standardbasis E2 und x2
zum anderen bezüglich der geordneten Basis
'.b2 / b2
! !! 1 b1 D '.b1 /
1 1
B D b1 D ; b2 D :
1 1

1 1 x1
x2

'.e 1 / D e 2
1 b2

v/ D v1 '.e 1 / C v2 '.e 2 /
v1 Damit hat ' bzgl. B die Darstellungsmatrix
v1 !
v2 e 1 D '.e 2 / x1 1 0
AD
0 1

v2 und es gilt:
v D v 1 e 1 C c2 e 2
!! ! ! !
v1 v1 1 0 v1
Problemanalyse und Strategie ' D D ;
v2 v2 0 1 v2
Wir bestimmen die Bilder von e 1 ; e 2 und b1 ; b2 und stellen
!
diese Bilder jeweils als Linearkombinationen der Basen E2 v1
und B dar. für B v D .
v2
Anstelle der speziellen Basis B hätten wir auch jede ande-
Lösung re Basis wählen und eine entsprechende ' darstellende Matrix
Als lineare Fortsetzung von  ist ' eine lineare Abbildung. angeben können. Tatsächlich liegt gerade hierin der Kern des
Wegen ! ! 7 Kap. 8: Wie bestimmt man eine Basis mit der Eigenschaft,
0 1 dass die eine lineare Abbildung darstellende Matrix bezüg-
'.e 1 / D D e 2 und '.e 2 / D D e1
1 0 lich dieser Basis eine besonders einfache Gestalt hat? Dabei
ist die einfachste Gestalt eine Diagonalgestalt. In den prakti-
erhalten wir als Darstellungsmatrix für ' schen Anwendungen der linearen Algebra wird dies meistens
! möglich sein. Die Vorteile liegen auf der Hand: Mit Diagonal-
0 1
AD matrizen ist das Rechnen wesentlich einfacher.
1 0
x2
Es gilt:
'.v/
!! ! ! !
v1 v2 0 1 v1
' D D ; '.w/
v2 v1 1 0 v2
b1 x1
d. h., '.v/ D A v. w
Wir wählen nun eine andere Basis B:
( ! !)
1 1 b2 v
B D b1 D ; b2 D :
1 1

Da b1 kein Vielfaches von b2 ist, ist B in der Tat eine Basis Man beachte, dass die Spiegelung ' bezüglich der Basis B
des R2 . Der Punkt b1 liegt auf der Geraden, an der gespiegelt eine Diagonalmatrix als Darstellungsmatrix hat.
194 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

linearen Abbildung 'A W R4 ! R3 , v 7! A v die im obi- 6.5 Verknüpfungen von Matrizen


gen Satz angegebene Form hat.
Dazu ermitteln wir Basen von ker 'A und 'A .R4 /:
Sind V ein n-dimensionaler und W ein m-dimensionaler
0 1 0 1 K-Vektorraum, so gilt:
* 12 10 +
B7C B6C
ker 'A D B C B C
@ 0 A;@ 1 A und V Š Kn und W Š Km :
1 0
Bis auf Isomorphie handelt es sich somit bei den Vekto-
*0 1 1 001+ ren aus V und W um Spaltenvektoren. Für eine lineare
'.R / D
4 @ 0 A ; @ 1 A : Abbildung ' von V in W gilt mit der Darstellungsmatrix
1 1 A D C M .'/B :

6 Wir bestimmen nun Urbilder der angegeben Basisvektoren C '.v/ D C M .'/B B v :


vom Bild 'A .R4 /. Es gilt:
Die Bilder einer linearen Abbildung erhält man also bis auf
00 11 00 11
5 0 1 3 0 1 Isomorphie durch Produktbildung einer Matrix mit einem
BB3CC 1 BB CC 0 Spaltenvektor.
'A B B CC D @ 0 A und 'A BB2CC D @1A : Nun stellt sich natürlich die Frage, ob die im
@@ 0 AA @@0 AA
1 1 7 Abschn. 6.2 besprochenen Verknüpfungen von linearen
0 0
Abbildungen sich auch durch entsprechende Verknüpfun-
gen der Matrizen beschreiben lassen. Unter gewissen Vor-
Insgesamt haben wir damit die folgende geordnete Basis B aussetzungen kann man ja lineare Abbildung miteinander
des R4 : oder mit Skalaren verknüpfen, genauer betrachten wir die
00 1 0 1 0 1 0 11 drei Verknüpfungen:
5 3 12 10 4 ı ' mit ', lineare Abbildungen.
BB3C B2C B 7 C B 6 CC 4  ' mit  ein Skalar, ' eine lineare Abbildung.
BDB B C B C B C B CC
@@ 0 A ; @0 A ; @ 0 A ; @ 1 AA : 4 ' C mit ', lineare Abbildungen.
0 0 1 0
Wir betrachten in diesem Abschnitt Verknüpfungen von
Weiter ergänzen wir die Basis des Bildes im R zu einer Matrizen, nämlich das Produkt, das skalare Vielfache und
3

geordneten Basis C des R3 : die Summe von Matrizen, und stellen die Zusammenhän-
ge mit den entsprechenden Verknüpfungen von linearen
00 1 0 1 0 11 Abbíldungen her. Der Vollständigkeit halber führen wir
1 0 0
C D @@ 0 A ; @1A ; @0AA : auch das Transponieren von Matrizen in diesem Abschnitt
1 1 1 ein und stellen die Rechenregeln für das Addieren, Ver-
vielfachen, Multiplizieren und Transponieren von Matrizen
zusammen. Das Addieren von Matrizen und das Vervielfa-
Nun gilt: chen von Matrizen mit Skalaren ist bekannt, wir wiederho-
0 1 len es kurz.
1 0 0 0
@
C M .'A /B D 0 1 0 0
A 9
0 0 0 0 Skalares Multiplizieren und Addieren
von Matrizen erfolgt komponentenweise
i Man beachte, dass wir hier die bisherige Aufgabenstel-
lung umdrehen: Bisher waren Basen gegeben, und wir
Ist A D .aij /i;j 2 Km n eine m n-Matrix und  2 K
haben die Darstellungsmatrix dazu bestimmt. Hier haben
ein Skalar, so ist das Vielfache  A die wie folgt erklärte
wir die Basen so gewählt, dass die Darstellungsmatrix
m n-Matrix:
eine besondere Form hat. Im 7 Kap. 8 werden wir Endo-
morphismen ' eines endlichdimensionalen Vektorraums 0 1
 a11 :::  a1n
V betrachten. Nach dem hier geschilderten Ergebnis kön- B :: :: C
nen wir auf jeden Fall Basen B und C finden bzgl. der  A D . aij /i;j D@ : : A:
die Darstellungsmatrix von ' eine Diagonalgestalt wie im  am1 : : :  amn
obigen Satz hat. Im 7 Kap. 8 werden wir uns mit der Fra-
ge auseinandersetzen, wann es eine Basis B (also der Fall Und sind A D .aij /i;j ; B D .bij /i;j 2 Km n zwei m
B D C ) gibt, bezüglich der ' Diagonalgestalt hat. n-Matrix, so ist die Summe A C B die wie folgt erklärte
6.5  Verknüpfungen von Matrizen
195 6
m n-Matrix: Gezeigt ist bereits, dass diese Abbildung C B homogen
und additiv, d. h. linear ist. Wir zeigen noch, dass C B bi-
A C B D .aij C bij /i;j jektiv ist:
0 1
a11 C b11 : : : a1n C b1n
B :: :: C
D@ : : A:
am1 C bm1 : : :  amn C bmn Die Vektorräume HomK .V; W / und Kmn sind
isomorph
Wir formulieren gleich ein zentrales Ergebnis, das den Zu- Es seien V ein n-dimensionaler und W ein m-dimensiona-
sammenhang dieser Matrizenverknüpfungen mit den ent- ler K-Vektorraum mit den Basen B und C . Die Abbildung
sprechenen Verknüpfungen linearer Abbildung beschreibt. (
HomK .V; W / ! Km n ;
C B W
' 7! C M .'/B
Der Vektorraum der Homomorphismen ist
isomorph zum Vektorraum der Matrizen ist ein Isomorphismus, insbesondere gilt HomK .V; W / Š
Km n .

Wir betrachten zwei endlichdimensionale K-Vektorräume


V und W mit den Basen B D .b1 ; : : : ; bn / und C D
.c 1 ; : : : ; c m /. Beweis Es ist nur noch die Bijektivität von C B nachzu-
Ist ' eine lineare Abbildung von V in W , so gilt für weisen:
jedes  2 K nach der Definition von Darstellungsmatrizen: Zur Injektivität: Für ein ' 2 HomK .V; W / gelte
C B .'/ D 0. Wegen
C M . '/B D .C . '.b1 //; : : : ; C . '.bn ///
D . C '.b1 /; : : : ;  C '.bn // C B .'/ D .C '.b1 /; : : : ; C '.bn // D .0; : : : ; 0/

D  .C '.b1 /; : : : ; C '.bn //
gilt '.b1 / D    D '.bn / D 0 und somit ' D 0. Nach dem
D  C M .'/B : Injektivitätskriterium ist die Abbildung injektiv.
C B
Zur Surjektivität: Es sei A 2 Km n eine (beliebige) Ma-
Somit ist die Darstellungsmatrix von  ' gleich dem
trix mit den Spalten
-Fachen der Darstellungsmatrix von '.
Für die Summe ' C zweier linearer Abbildungen 0 1 0 1
a11 a1n
'; W V ! W erhalten wir
B : C B : C
s1 D @ :: A ; : : : ; sn D @ :: A :
C M .' C /B
am1 amn
D .C .' C /.b1 /; : : : ; C .' C /.bn //
D .C .'.b1 / C .b1 //; : : : ; C .'.bn / C .bn /// Die Abbildung
D .C '.b1 /; : : : ; C '.bn // C .C .b1 /; : : : ; C .bn // 
B ! W;
D C M .'/B C C M . /B : W
bi 7! a1i c 1 C    C ami c m
Die Darstellungsmatrix von ' C ist somit die Summe der
Darstellungsmatrizen von ' und . ist nach dem Prinzip der linearen Fortsetzung zu einer linea-
ren Abbildung ' von V in W fortsetzbar. Wir bestimmen
i Man beachte, in welchen Vektorräumen die Multiplikation die Darstellungsmatrix von '. Es gilt:
mit Skalaren und die Addition von Vektoren stattfinden:
 ' ist die Multiplikation mit Skalaren im Vektorraum 1 0 0 1
a11 a1n
HomK .V; W / und  C M .'/B ist die Multiplikation mit B : C B : C
C '.b1 / D @ :: A ; : : : ; C '.bn / D @ :: A :
Skalaren im Vektorraum Km n . Und 'C ist die Addition
von linearen Abbildungen im Vektorraum HomK .V; W / am1 amn
und C M .'/B C C M . /B ist die Addition von Matrizen
im Vektorraum Km n . Damit gilt C B D C M .'/B D A. Folglich ist C B auch
surjektiv. 
Wir erklären in Abhängigkeit von den gewählten Basen B
und C eine Abbildung, nämlich ?Selbstfrage 6.14
 Welche Dimension hat der K-Vektorraum HomK .V; W /
HomK .V; W / ! Km n ;
C B W unter den Voraussetzungen an V und W des obigen Sat-
' 7! C M .'/B : zes?
196 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Beim Produkt von Matrizen werden Zeilen


mit Spalten multipliziert Das Matrixprodukt
Es seien A 2 Km n
und B D .s1 ; : : : ; sr / 2 Kn r . Dann
ist
Neben der Addition von linearen Abbildungen und der
Multiplikation von linearen Abbildungen mit Skalaren ha- A B D .A s1 ; : : : ; A sr / 2 Km r

ben wir auch das Produkt ı von linearen Abbildungen


betrachtet: das Matrixprodukt oder auch nur kurz Produkt von A
und B.
'WV !W ; WW !U ) ı' WV !U : Man beachte: Die Spaltenzahl von A ist gleich der
Zeilenzahl von B.
Wie sieht die Darstellungsmatrix von ı ' aus? Ein na-
heliegender Wunsch ist, dass diese Darstellungsmatrix das
6 Produkt der beiden Darstellungsmatrizen von ' und ist.
Wir haben das Prokukt von Matrizen auf das r-fache Pro-
Wir erklären nun das Produkt von Matrizen einfach so, dass
dukt einer Matrix mit einer Spalte zurückgeführt. Ausfor-
dieser Wunsch erfüllt ist. 0 1
z1
Mit dieser Multiplikation  von Matrizen wird die abel- B :: C
sche Gruppe .Kn n ; C/ der quadratischen Matrizen zu muliert lautet die Produktbildung von A D @ : A 2 Km n
einem Ring .Kn n ; C; /. zm
Wir betrachten vorab der Einfachheit halber die K-Vek- mit B D .s1 ; : : : ; sr / 2 K n r
:
torräume Kn , Km und Kr mit den jeweiligen kanonischen
Basen En , Em und Er . Sind ' W Kn ! Km und W X
n
A B D .ci k /m;r mit ci k D zi  sk D aij bj k :
Km ! Kr lineare Abbildungen mit den Darstellungsmatri-
j D1
zen B 2 Km n und A 2 Kr m bezüglich der kanonischen
Basen, An der Stelle .i; k/ des Produkts C D A B steht also die
Zahl zi  sk , wobei zi den i-ten Zeilenvektor von A und sk
'.v/ D B v und .w/ D A w ; v 2 V ; w 2 W ; den k-ten Spaltenvektor von B bezeichnen:
0 1
so sollte A B die Darstellungsmatrix von ı ' W V ! U z1
B : C 0 :: 1
bezüglich der kanonischen Basen En und Er sein, insbe- B :: C  
B C B
:
C
sondere sollte also A B eine r n-Matrix sein mit Bz C
B i C .s1 ; : : : ; sk ; : : : ; sr / D B
@    zi  sk   C
A:
B : C
.A B/ v D . ı '/.v/ D .'.v// D A .Bv/ ; v 2 V: B C :
@ :: A  :: 
zm „ ƒ‚ …
Nun erklären wir das Produkt A B von A mit B so, dass „ ƒ‚ … C
diese Gleichheit erfüllt ist. Damit wird eine Multiplikation AB
der Matrizen A und B definiert.
Um die Matrix C zu bilden, ist also jede Zeile von A mit
Setzen wir in die obige gewünschte Gleichheit nachein-
jeder Spalte von B zu multiplizieren. Das sind m r Multi-
ander die Basisvektoren e 1 ; : : : ; e n der kanonischen Basis
plikationen, wobei jede solche Multiplikation von Vektoren
ein, so erhalten wir, wenn wir beachten, dass B e i gleich
aus einer Summe von n Produkten besteht.
der i-ten Spalte si der Matrix B D .s1 ; : : : ; sn / ist:

.A B/ e 1 D A .Be 1 / D A s1 ;
Zeilen- und Spaltenzahl des Produkts
.A B/ e 2 D A .Be 2 / D A s2 ; Eine m n-Matrix mal einer n r-Matrix ergibt eine m
:: :: r-Matrix:
: :
.A B/ e n D A .Be n / D A sn : Œm n  Œn r D Œm r :

Da .A B/ e i die i-te Spalte von A B ist, haben wir so-


mit die Matrix A B ermittelt. Die n Spalten von A B D
Die folgende Illustration verdeutlicht dies:
.t 1 ; : : : ; t n / 2 Kr n sind durch die folgenden Spaltenvek-
toren gegeben: r
n r
t 1 D A s 1 ; : : : ; t n D A sn : m  n D m

Damit haben wir die folgende Multiplikation von Matrizen


motiviert. A  B D C
6.5  Verknüpfungen von Matrizen
197 6

i Das Matrixprodukt ist nur für Matrizen A und B mit der 4 Potenzieren von Diagonalmatrizen führt zum Potenzie-
Eigenschaft ren der Diagonalelemente:
0 10 10 1 0 1
Spaltenzahl von A D Zeilenzahl von B a 0 0CBa 0 0CBa 0 0C Ba3 0 0C
B
B
B0 b 0CB
CB 0 b 0C B
CB 0 b 0C B
CDB 0 b3 0C C 9
definiert. @ A@ A@ A @ A
0 0 c 0 0 c 0 0 c 0 0 c3
? Selbstfrage 6.15
Für Matrizen A und B existiere sowohl das Produkt A B
Ausgehend vom letzten Beispiel definieren wir allgemeiner
als auch das Produkt B A. Müssen die Matrizen A und B
für eine quadratische Matrix A 2 Kn n : Für jede natürliche
dann quadratisch sein?
Zahl k bezeichne

Beispiel Die folgenden Matrizen sollen alle reell sein. Ak D A  A


„ ƒ‚ …
4 Beim ersten Produkt benutzen wir Farbe, um das Prin- k-mal
zip Zeile mal Spalte deutlich zu machen:
die k-te Potenz von A. Weiter setzen wir
0 1 0 1
2 6 1 0 1 23 17
2 4 A 0 D En :
B6 4 0C B24 28C
B C @ A B C
@0 3 3A  3 1 D @12 12A
1 3 ?Selbstfrage 6.16
4 1 2 13 23
Wieso muss die Matrix A quadratisch sein?
Beispielsweise bestimmen die blau eingezeichneten
Ziffern der zweiten Zeile in der ersten Matrix und zwei- Beispiel Mit Matrizen lassen sich oftmals rekursiv definier-
ten Spalte der zweiten Matrix den Eintrag in der zweiten te Folgen beschreiben.
Zeile und zweiten Spalte des Produkts: Gegeben ist die reelle Folge .an /n2N0 mit

6  4 C 4  1 C 0  3 D 28 : a0 D 0; a1 D 1; anC1 D 4 an1 C 4 an für n 2 N :


4 Die Faktoren des folgenden Produkts kann man nicht Wir bestimmen eine Matrix A 2 R2 2 , sodass sich die Re-
vertauschen: kursion in der Form
0 1
  1 2 3 1      
2 3 1 7 9 6 9 an an1
@1 0 0 1 A D DA
3 5 0 8 6 9 8 anC1 an
2 5 0 4
schreiben lässt.
4 Eine Spalte mal eine Zeile ergibt eine Matrix:
Wegen an D 0 an1 C 1 an und anC1 D 4 an1 C 4 an
0 1 0 1
1 2 3 1 leistet
@ 1 A .2; 3; 1/ D @ 2 3 1A  
0 1
2 4 6 2 AD 2 R2 2
4 4
4 Beliebige Matrizen kann man nicht miteinander multi-
plizieren: das Gewünschte.
Und nun gilt:
  
2 3 1 1 2 3 1        
ist nicht definiert: an an1
3 5 0 1 0 0 1 2 an2 n a0
DA DA D  D A :
anC1 an an1 a1
4 Eine Diagonalmatrix vervielfacht die Zeilen, wenn sie

links im Produkt steht: b11 b12
0 10 1 0 1 Ist also A D n
, so können wir anC1 aus den
a 0 0 1 2 3 1a 2a 3a b21 b22
@0 b 0A @4 5 6A D @4 b 5 b 6 b A Startwerten berechnen:
0 0 c 7 8 9 7c 8c 9c
anC1 D b21 a0 C b22 a1
4 Eine Diagonalmatrix vervielfacht die Spalten, wenn sie
rechts im Produkt steht: Durch diese Beschreibung gelingt es uns mit noch zu
0 10 1 0 1 entwickelnden Methoden, an auch explizit für große n an-
1 2 3 a 0 0 1a 2b 3c zugeben. Es ist z. B. bereits a20 D 20  219 . Es wäre
@4 5 6A @ 0 b 0A D @4 a 5 b 6 c A mühsam, diesen Wert für a20 mit der Folgenvorschrift zu
7 8 9 0 0 c 7a 8b 9c bestimmen. 9
198 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Zum Produkt von linearen die Menge aller quadratischen Matrizen einen Ring bildet.
Abbildungen gehört das Produkt Dazu ist nachzuweisen, dass das Assoziativgesetz für die
der Darstellungsmatrizen Multiplikation und die Distributivgesetze gelten. Ein di-
rekter Nachweis dieser Gesetze ist möglich aber deutlich
aufwendiger als die Methode, die wir nun verwenden wer-
Wir können nun auch die folgende Multiplikativität nach- den. Wir benutzen die Tatsache, dass EndK .V / mit der
weisen: punktweisen Addition und der Hintereinanderausführung
einen Ring bildet. Dabei entspricht diese Addition der Ad-
dition von Matrizen und die Hintereinanderausführung der
Die Darstellungsmatrix eines Produkts linearer Multiplikation von Matrizen. So überträgt sich die Ring-
Abbildungen struktur mit einer bijektiven, additiven und multiplikativen
Für K-Vektorräume V; W und U mit den geordneten Ba- Abbildung von EndK .Kn / auf Kn n .
sen B; C und D und lineare Abbildungen ' W V ! W In den Anwendungen braucht man das Assoziativgesetz
6 und W W ! U gilt: aber nicht nur für quadratische Matrizen. Daher beweisen
wir allgemeiner die folgenden Rechenregeln für die Matri-
D M . ı '/B D D M . /C C M .'/B :
zenmultiplikation.

Beweis Es seien
Rechenregeln für die Matrixmultiplikation
(i) Wenn für Matrizen A; B; C die Produkte A B und
B D .b1 ; : : : ; bn / eine Basis von V; dim V D n; B C erklärt sind, existieren auch .A B/ C und
C D .c 1 ; : : : ; c m / eine Basis von W; dim W D m und A .B C /, und es gilt:
D D .d 1 ; : : : ; d r / eine Basis von U; dim U D r:
.A B/ C D A .B C / :
Wir zeigen, dass die beiden r n-Matrizen D M . ı '/B
und D M . /C C M .'/B die gleichen Spalten haben, d. h., (ii) Für quadratische Matrizen A; B; C 2 Kn n
gelten
dass für jedes i D 1; : : : ; n gilt:
A .B C C / D A B C A C ;
D. ı '/.bi / D D M . /C C '.bi / : .A C B/ C D A C C B C :
Dazu formen wir beide Seiten zu gleichen Ausdrücken um.
Für ein i 2 f1; : : : ; ng gelte: 0 1
b 1
B : C Beweis (i) Es seien A 2 K , B 2 K und C 2 Kr p .
m n n r
'.bi / D b1 c 1 C    C bm c m ; d. h., C '.bi / D @ :: A : In den K-Vektorräumen Kn ; Km ; Kr ; Kp wählen wir die
bm Basen N; M; R; P . Nach dem Satz zur Isomorphie von
Damit erhalten wir zum einen
HomK .V; W / und Km n sind
D . ı '/.bi / D D . .'.bi ///
 D .M N /1 .A/ ;
D D . .b1 c 1 C    C bm c m //
D .R M /1 .B/ ;
0 1
und zum anderen b1 ' D .P R /1 .C /
B : C
D M . /C C '.bi / D .D .c 1 /; : : : ; D .c m //@ :: A lineare Abbildungen,
bm
 W Kn ! Km ; W Kr ! Kn ; ' W Kp ! Kr :
D b1D .c 1 / C    C bmD .c m /
D D . .b1 c 1 C    C bm c m // : Nun gilt aufgrund des obigen Satzes und der Assoziativität
der Hintereinanderausführung von Abbildungen:
Damit ist die Gleichheit der beiden Matrizen gezeigt. 
.A B/ C D .M M./N N M. /R /R M.'/P
D M M. ı /R R M.'/P
Viele Rechenregeln für Matrizen sind analog D M M.. ı / ı '/P D M M. ı . ı '//P
zu den Rechenregeln für z. B. ganze Zahlen,
D M M./N N M.. ı '/P
es gibt aber auch Ausnahmen
D M M./N .N M. /R R M.'/P /
D A .B C / :
Wir begründen nun, dass bezüglich der von uns erklär-
ten Matrizenmultiplikation und der Addition von Matrizen (ii) Das beweist man analog. 
6.5  Verknüpfungen von Matrizen
199 6
Beispiel Durch Ausnutzen der Assoziativität .A B/ C D nach dem Satz zur Darstellungsmatrix eines Produkts von
A .B C / kann man sich reichlich Rechenarbeit ersparen. linearen Abbildungen auch multiplikativ, d. h.,
Wir berechnen das folgende Matrixprodukt auf 2 Arten:
B B . ı '/ D B B . / B B .'/:
0 1
0 1 2
3
B0C Somit ist B B ein Isomorphismus.
@2A .1; 1; 2; 1/ B C : Die Multiplikation von Matrizen
@2A     ist nicht kommutativ:
2 1 0 0 0
3 Mit A D und B D gilt:
0 0 1 0
Mit der Klammerung .A B/ C ergibt sich:     
1 0 0 0 0 0
0 1 2 0
0 1
1 0 1
AB D D
0 0 1 0 0 0
B
3 3 6 3 CB C
B0C B
6 C 0  12 C 9 C B 3 C
B
B2 2 4 2C B C B C B
CB CDB4 C 0 C 8  6CDB2C :
C
aber
@ AB2 C @ A @ A
2 2 4 2 @ A 4C08C6 2     
3 0 0 1 0 0 0
BA D D :
1 0 0 0 1 0
Mit der Klammerung A .B C / ergibt sich dasselbe, aber
die Rechnung ist kürzer (4C3 D 7 gegenüber 12C12 D 24 Im Fall n  3 füge man diesen hier gegebenen Matrizen A
Multiplikationen): und B entsprechend viele Nullspalten und Nullzeilen
 an. 
0 1 0 1 1 0
3 3 Es gibt Nullteiler:
 Wir können wieder A D
0 0
@2A .2  0  4 C 3/ D @2A : 9 0 0
und B D wählen und erhalten A B D 0. 
2 2 1 0

Wir betrachten nun den Fall V D W D U , B D C D ?Selbstfrage 6.17


D und beachten, dass HomK .V; V / D EndK .V / mit der Gilt in Kn n
die Kürzregel
Hintereinanderausführung ı von Abbildungen sogar einen
Ring bildet. Wir erhalten für den additiven Isomorphismus AC D BC ; C ¤ 0 ) A D B‹
B B aus obigem Ergebnis:
Etwas vereinfacht ausgedrückt bedeutet obiger Satz: In
endlichdimensionalen Vektorräumen können wir die linea-
Der Endomorphismenring ist zum Matrizenring ren Abbildungen als Matrizen auffassen.
isomorph Die Menge aller Diagonalmatrizen
Die Menge Kn n aller n n-Matrizen bildet mit der Addi- 0 1

tion C und Multiplikation  von Matrizen einen Ring mit B C
diag.; : : : ; / D @ ::
Einselement En , und für jeden n-dimensionalen K-Vek- : A ;  2 K;
torraum V gilt: 

EndK .V / Š Kn n
: können wir für jedes n 2 N als einen kommutativen Teil-
körper des für n  2 nicht kommutativen Rings Kn n
Im Fall n  2 ist Kn n nicht kommutativ und besitzt Null- auffassen:
teiler, d. h., es gibt Elemente A ¤ 0 ¤ B mit A B D 0.
Lemma Es ist

K ! Kn n ;
Beweis Nach den obigen Rechenregeln für die Matrizen- W
 7! diag.; : : : ; /
multiplikation gelten das Assoziativgesetz und die Distri-
butivgesetze in .Kn n ; C; /. Folglich ist .Kn n ; C; / ein ein Ringmonomorphismus.
Ring. Wegen
Beweis Für beliebige ;  2 K gilt:
En A D A D A En
. C / D diag. C ; : : : ;  C /
für jedes A 2 Kn n ist En ein Einselement in .Kn n ; C; /.
D diag.; : : : ; / C diag.; : : : ; /
Für jede Basis B von V ist die additive und bijektive
Abbildung D ./ C ./
 und analog:
EndK .V / ! Kn n ;
W
B B
' 7! B M .'/B . / D ./ ./ ;
200 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

sodass  ein Ringhomomorphismus ist. Aus ./ D ./ Beispiel Die Transponierte entsteht durch Vertauschen von
folgt sogleich  D , d. h.,  ist auch injektiv und somit ein Zeilen und Spalten:
Ringmonomorphismus. 
 >  
a b a c
Es gilt also insbesondere die Isomorphie D ;
c d b d
K Š .K/  Kn n : 0 1
 > 1 4
1 2 3
Wie so oft unterscheidet man zueinander isomorphe Struk- D @2 5 A
4 5 6
turen nicht und fasst somit K als einen Teilring (und damit 3 6
als einen Teilkörper) von Kn n auf.
 
Mit der Multiplikation  und der Addition C von Matri- 1 0
zen ist .K ; C; / ein Ring. Wir entscheiden im nächsten
n n 4 Die zu E 2 D 2 R2 2 transponierte Matrix ist
0 1
Abschnitt, welche Matrizen in diesem Ring invertierbar  
1 0
6 sind, geben verschiedene Kriterien an und besprechen Ver-
>
E2 D
0 1
.
fahren, wie man gegebenenfalls das Inverse einer quadrati- 0 1
1 2 i
schen Matrix bestimmen kann. Natürlich wird das Inverse p
4 Die zu A D @ 2 1 2 i C 1A 2 C 3 3 transpo-
der Darstellungsmatrix einer linearen Abbildung dann die
iC1 3 11
Darstellungsmatrix der inversen Abbildung sein. 0 p 1
Bevor wir uns diesen Themen zuwenden, besprechen 1 2 iC1
wir noch kurz das Transponieren von Matrizen. nierte Matrix ist A> D @2 1 3 A. 9
i 2i C1 11

Beim Transponieren vertauscht man Zeilen Ist A quadratisch, so geht also A> aus A D .aij /n;n durch
und Spalten einer Matrix Spiegeln an der Hauptdiagonale .a11 ; : : : ; ann/ hervor:
0 1> 0 1
Durch das Transponieren wird eine m n-Matrix zu einer
B C B C
n m-Matrix: B C DB C
@ A @ A

Transponieren einer Matrix


Zu A D .aij / 2 Km n bezeichnet A > D .aj i / 2 Kn m Wir führen einfache Merkregeln zum Transponieren qua-
die zu A transponierte Matrix oder das Transponierte dratischer Matrizen an.
von A:
0 1 0 1
a11    a1n a11    am1
B : :: C B : :: C Regeln zum Transponieren
ADB @ :
: ::
: C > B
: A ! A D @ ::
::
: C
: A: Für Matrizen A; B 2 Km n und  2 K gilt:
am1    amn a1n    amn 4 .A C B/> D A > C B > .
4 . A/> D  A > .
4 .A > /> D A.
Mit den Zeilenvektoren z1 ; : : : ; zm und den Spaltenvekto-
Für Matrizen A 2 Km n und B 2 Kn r gilt:
ren s1 ; : : : ; sn kann man das Transponieren auch folgender-
4 .A B/> D B > A > . Man beachte die Reihenfolge!
maßen ausdrücken:
0 >1
s1
> B :: C
.s1 ; : : : ; sn / D @ : A ; i Bei der letzten Merkregel darf man die Reihenfolge im
s>
n Allgemeinen nicht vertauschen.
0 1> So gilt!nämlich etwa für! die reellen Matrizen A D
z1
B :: C 0 1 1 0
> >
@ : A D .z1 ; : : : ; zm / und B D :
0 0 0 0
zm
!> !
Aus der k-ten Spalte wird die k-te Zeile bzw. aus der k-ten >
0 0 0 0
.A B/ D ¤ D A> B >
Zeile wird die k-te Spalte. 0 0 1 0
6.6  Das Invertieren von Matrizen
201 6
Beweis Die ersten drei Merkregeln sind selbstverständlich, Den Unterschied zwischen r > r und r r > für ein r 2 Kn
nur die letzte ist zu beweisen: Die Matrix A habe die Zeilen verdeutlicht die folgende Illustration:
z1 ; : : : ; zn und die Matrix B habe die Spalten s1 ; : : : ; sr , n
1
0 1  D 1 ,  D n
z1
B:C r >  r 2 R, r  r > 2 Rn n
A D @ :: A und B D .s1 ; : : : ; sr / :
zn

Wegen
6.6 Das Invertieren von Matrizen

.A B/> D .zi sj />


i;j Wie wir gesehen haben, lässt sich ein reelles lineares Glei-
chungssystem mit n Gleichungen in n Unbestimmten kurz
steht an der Stelle .k; l/ der Matrix .A B/> 2 Kr m
die in der Form
Zahl p D zl sk .
Und wegen Ax D b

B > A > D .s> >


i zj /i;j mit einer Matrix A 2 Rn n und b 2 Rn sowie der Un-
bestimmten x schreiben. Die entsprechende Gleichung im
steht an der Stelle .k; l/ der Matrix B > A > 2 Kr m die Fall n D 1 lautet
Zahl q D s> >
k zl .
Offenbar gilt p D q. Da die beiden Matrizen (mit glei- ax D b
cher Zeilen- und Spaltenzahl) an allen Stellen die gleichen
Einträge haben, ist damit die Gleichheit gezeigt.  mit reellen Zahlen a und b. Die Lösung dieser letzten Glei-
chung ist bekannt: Ist a ¤ 0, so ist a1 b die eindeutig
bestimmte Lösung. Und ist a D 0, so ist diese Gleichung
Symmetrische Matrizen ändern sich nicht nur für b D 0 lösbar; die Lösungsmenge ist in diesem Fall
durch Transponieren ganz R.
Tatsächlich liegt für das System A x D b mit einer
quadratischen Matrix A eine ähnliche Situation vor: Ist die
Eine besondere Art von Matrizen bilden die symmetrischen Matrix A invertierbar, d. h., existiert eine Matrix A 1 mit
Matrizen wie etwa A 1 A D E n , so folgt durch Multiplikation der Gleichung
0 1 A x D b von links mit A 1 :
1 2 3
A D @2 3 4 A :
3 4 5 x D A 1 b ;

Die Symmetrie bedeutet dabei, dass die erste Zeile gleich also die eindeutig bestimmte Lösung des Systems A x D
der ersten Spalte ist, analog für die zweite Zeile und zweite b. Ist die Matrix A nicht invertierbar, so ist dieses System
Spalte usw. nur dann lösbar, wenn rg A D rg.A j b/ gilt, die Lösungs-
menge ist in diesem Fall unendlich groß.
Symmetrische Matrizen
Man nennt eine Matrix A 2 Kn n
symmetrisch, wenn
A > D A gilt. Die zu A inverse Matrix A 1 ist eindeutig
durch A A 1 D En D A 1 A bestimmt

Beispiel In K gibt es zu jedem Element a 2 K n f0g genau ein Ele-


4 Die Einheitsmatrix En 2 Kn n ist symmetrisch. ment a0 2 K mit a a0 D 1 D a0 a, wobei das Einselement
0 1
1 2 i in K durch die Eigenschaft 1 a D a D a 1 ausgezeichnet
p
4 Die Matrix A D @ 2 1 2 i C 1A 2 C 3 3 ist ist. Es gibt auch ein solches Einselement in Kn n , nämlich
i C01 3 11
1 die Einheitsmatrix En , sie erfüllt für jedes A 2 Kn n die
nicht symmetrisch. 1 2 i Gleichung
4 Die Matrix B D @2 1 3 A 2 C 3 3 ist
symmetrisch. 9 i 3 11 En A D A D A En :

? Selbstfrage 6.18 Aber im Gegensatz zum Körper K, existiert zu einer Matrix


Sind die Potenzen A k einer symmetrischen Matrix A wie- A 2 Kn n n f0g im Allgemeinen kein Inverses A 0 , d. h. eine
der symmetrisch? Gilt etwa .A k /> D .A > /k ? Matrix A 0 mit A A 0 D En D A 0 A.
202 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Beispiel: Symmetrische und schiefsymmetrische Matrizen

Eine quadratische Matrix A 2 Kn n heißt symmetrisch, wenn Weise als Summe einer symmetrischen und einer schiefsym-
A D A > erfüllt ist; sie heißt schiefsymmetrisch, wenn A D metrischen Matrix schreiben:
A > gilt. Im Folgenden sei die Charakteristik von K ungleich ! ! !
bCc bc
a b a 0
2, d. h., es gelte 1 C 1 ¤ 0. Die Menge der symmetrischen D bCc 2
C 2
c d d  bc 0
bzw. schiefsymmetrischen n n-Matrizen über K bezeichnen 2 2
„ ƒ‚ … „ ƒ‚ …
wir mit S.n; K/ bzw. A.n; K/. Wir zeigen, dass S.n; K/ und 2S.2;K/ 2A.2;K/
A.n; K/ komplementäre Untervektorräume des Kn n sind mit bCc bc
D a E11 C d E22 C S T:
n .n C 1/ n .n  1/ 2 2
dim S.n; K/ D und dim A.n; K/ D :
2 2
Sind nun A; B 2 S.n; K/, d. h. A > D A, B > D B, so folgt
Somit besitzt jede Matrix M 2 Kn n genau eine Darstellung
.A C B/> D A > C B > D A C B, d. h. A C B 2 S.n; K/,
6 M DS CA mit S 2 S.n; K/; A 2 A.n; K/ : und . A/> D  A > D  A für  2 K, d. h.  A 2 S.n; K/.
Die Menge S.n; K/ ist demnach ein Untervektorraum des
Problemanalyse und Strategie Kn n . Der Beweis für schiefsymmetrische Matrizen geht ge-
Wir zeigen, dass Kn n die direkte Summe der Untervektor- nauso. So folgt etwa aus A > D A, B > D B sogleich
räume S.n; K/ und A.n; K/ ist und bestimmen Basen dieser .A C B/> D A > C B > D A  B D .A C B/.
Untervektorräume. Wir gehen von der Standardbasis B D fEij j 1  i; j 
ng des Kn n aus. Eine Matrix A D .aij / 2 Kn n ist genau
Lösung dann symmetrisch, wenn aij D aj i für i < j gilt. In diesem
P
Bevor wir den allgemein Fall behandeln, sehen wir uns zu- Fall kann man in der Darstellung A D ni;j D1 aij Eij die bei-
nächst exemplarisch den Fall n D 2 an. Es gilt dim K2 2 D 4. den Summanden aij Eij C aj i Ej i zu einem einzigen, nämlich
Die Standardbasis des K2 2 ist B D fE11 ; E12 ; E21 ; E22 g mit aij .Eij C Ej i / zusammenfassen. Somit ist
! !
1 0 0 1 S D fEi i j 1  i  ng [ fEij C Ej i j 1  i < j  ng
E11 D ; E12 D ;
0 0 0 0
! ! eine Basis von S.n; K/, und es gilt dim S.n; K/ D jSj D
0 0 0 0 n.n C 1/=2. Die Matrix A ist genau dann schiefsymmetrisch,
E21 D ; E22 D :
1 0 0 1 wenn ai i D ai i , d. h. ai i D 0 für alle Elemente in der Haupt-
! diagonalen von A gilt und aij D aj i für i < j . Man sieht
a b
Die Darstellung von A D 2 K2 2 als Linearkombi- dann analog, dass
c d
nation der kanonischen Basis ist A D fEij  Ej i j 1  i < j  ng
A D a E11 C b E12 C c E21 C d E22 :
eine Basis von A.n; K/ ist. Es folgt dim A.n; K/ D jAj D
Wir setzen
! ! n.n  1/=2.
0 1 0 1 Für eine beliebige Matrix M 2 Kn n gilt
S D D E12 C E21 ; T D D E12 C E21 :
1 0 1 0
M D 12 .M C M > / C 12 .M  M > /
Weil S und T linear unabhängig sind, ist fE11 ; E22 ; S ; T g ei- „ ƒ‚ … „ ƒ‚ …
DS DA
ne Basis des K2 2 .
Die Symmetrie bzw. Schiefsymmetrie von A lässt sich mit S > D 12 .M > C .M > /> / D 12 .M > C M / D S , d. h.
folgendermaßen ausdrücken: S 2 S.n; K/, und A > D 12 .M > .M > /> / D 12 .M > M / D
A D A> , b D c A, d. h., A 2 A.n; K/. Ist M D S 0 CA 0 eine weitere solche
! Darstellung, so gilt S C A D S 0 C A 0 , und folglich ist
a b
,AD
b d S  S 0 D A 0  A 2 S.n; K/ \ A.n; K/
! ! !
1 0 0 0 0 1
Da Cd Cb 2 hE11 ; E22 ; Si; eine Matrix, die zugleich symmetrisch und schiefsymmetrisch
0 0 0 1 1 0 ist. Da die Nullmatrix 0 2 Kn n die einzige Matrix mit dieser
A D A > , a D d D 0 und b D c Eigenschaft ist, folgt S D S 0 , A D A 0 , und wir haben auch
! ! die Eindeutigkeit der Darstellung gezeigt.
0 c 0 1 Es gilt etwa
,AD Dc 2 hT i:
c 0 1 0 ! ! !
6 13 6 9 0 4
Demnach ist fE11 ; E22 ; S g eine Basis von S.2; K/, also D C :
5 11 9 11 4 0
dim S.2; K/ D 3, und fT g ist eine Basis von A.2; K/, al- „ ƒ‚ … „ ƒ‚ …
so dim A.2; K/ D 1. Jede Matrix lässt sich auf genau eine 2S.n;R/ 2A.n;R/
6.6  Das Invertieren von Matrizen
203 6
 
1 0 Ist nun umgekehrt 'A invertierbar, so gilt nach dem Darstel-
Die reelle Matrix A D ist so ein Beispiel. Ist lungssatz linearer Abbildungen für die Umkehrabbildung
0 0
A 0 D .aij0 / 2 R2 2 , so gilt: von 'A :

  0 0   0 
D 'B mit einem B 2 Kn n
:
1 0 a11 a12 a0 a12
A A0 D 0 0 D 11 ¤ E2 :
0 0 a21 a22 0 0 Nun folgt aus

Die Nullzeile in A erzeugt im Produkt A A 0 stets eine Null- 'A B D 'A ı 'B D idKn D 'B ı 'A D 'B A
zeile – und zwar in derselben Zeile. sogleich
Wir untersuchen in diesem Abschnitt, welche Matrizen
invertierbar sind, führen aber erst die entsprechenden Be- A B D En D B A ;
griffe ein.
Man nennt eine quadratische Matrix A 2 Kn n inver- sodass also B D A 1 gilt. 
tierbar oder regulär, wenn es eine Matrix A 0 2 Kn n mit
der Eigenschaft Kommentar Eigentlich haben wir für das Inverse A 1 einer
Matrix A 2 Kn n zu viel gefordert. Wir verlangen, dass die
0 0
A A D En D A A beiden Gleichungen

gibt. Die Matrix A 0 wird durch diese Eigenschaft eindeutig A A 0 D En D A 0 A


bestimmt, ist nämlich A 00 eine zweite solche Matrix, so gilt erfüllt sind. Tatsächlich folgt aber aus der Gleichung
nach dem Assoziativgesetz: A A 0 D En mit einem A 0 die Gleichung A 0 A D En für
dieses gleiche A 0 . In der Aufgabe 6.22 sollen Sie das be-
A 0 D A 0 En D A 0 .A A 00 / D .A 0 A/ A 00 D En A 00 D A 00 : weisen.

Man nennt diese Matrix A 0 die zu A inverse Matrix und Beispiel Wir zeigen an Beispielen, dass nicht jede Matrix
schreibt A 1 anstelle von A 0 : invertierbar ist und geben Inverse einiger invertierbarer Ma-
trizen an:
A A 1 D En D A 1 A : 4 Die folgende reelle Matrix A ist nicht invertierbar:
 
Eine Matrix, die nicht invertierbar ist, nennt man auch sin- 4 3
AD
gulär. 0 0
Wir stellen gleich einen Zusammenhang zwischen einer
invertierbaren Matrix A und der Invertierbarkeit des Endo- Die zweite Zeile von A, also die Nullzeile, erzwingt ei-
morphismus 'A her. ne Nullzeile in jedem Produkt A A 0 , insbesondere kann
für keine Matrix A 0 die Gleichung A A 0 D E2 erfüllt
sein.
Lemma Eine Matrix A 2 Kn n ist genau dann invertierbar,
Allgemeiner ist jede Matrix, die eine Nullzeile enthält,
wenn der Endomorphismus 'A W Kn ! Kn invertierbar ist.
nicht invertierbar.
In diesem Fall gilt:
4 Es ist E2 2 K2 2 zu sich selbst invers, da
1     
'A D 'A 1 : 1 0 1 0 1 0
E2 E2 D D D E2 :
0 1 0 1 0 1

Beweis Ist A 2 Kn n
invertierbar mit dem Inversen A 1 , 4 Auch E2 2 K2 2
ist zu sich selbst invers, da
so gilt   
1 0 1 0
.E2 / .E2 / D
0 1 0 1
'A1 ı 'A D 'A 1 A D 'En D idKn  
1 0
D D E2 :
und analog: 0 1
   
'A ı 'A 1 D idKn ; 2 1 1 1
4 Zu A D 2 R 2 2
ist das Inverse,
1 1 1 2
sodass da
    
2 1 1 1 1 0
1
'A D 'A 1 : D D E2 :
1 1 1 2 0 1
204 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

0 1 0 1
i 1 0 i i 1 Beweis (i) Wegen En D A A 1 D A 1 A ist A das Inver-
4 Zu A D @0 1 i A 2 C 3 3 ist @ 0 1 iA das se zu A 1 , d. h., .A 1 /1 D A.
0 0 1 0 0 1 (ii) Wir weisen nach, dass .B 1 A 1 / das Inverse zu
Inverse, da A B ist, es gilt dann .A B/1 D B 1 A 1 .
0 10 1 0 1 Wegen der Assoziativität der Matrizenmultiplikation
i 1 0 i i 1 1 0 0 gilt folgende Gleichung:
@0 1 i A @ 0 1 iA D @0 1 0A D E3 :
0 0 1 0 0 1 0 0 1 .A B/ .B 1 A 1 / D A .B B 1 / A 1
  D A En A 1 D A A 1 D En :
1 1
4 Die Matrix A D 2 K2 2 ist nicht invertierbar, (iii) Das gilt wegen En En D En . 
1 1
da die Gleichung
     ?Selbstfrage 6.19
1 1 a b 1 0
6 1 1 c d
D
0 1
D E2 Sind A und B invertierbare n n-Matrizen, so ist 'A ı 'B
eine invertierbare Abbildung. Was ist die Umkehrabbil-
dung von 'A ı 'B ?
zu dem nicht lösbaren Gleichungssystem
aCc D1 bCd D0 Da die Multiplikation von quadratischen Matrizen asso-
ziativ ist, ist auch die Multiplikation von invertierbaren
aCc D0 bCd D1
Matrizen assoziativ. Somit gilt:
führt. Allgemeiner sind Matrizen mit zwei gleichen Zei-
len niemals invertierbar. Folgerung Die Menge
4 Wir betrachten für ein ˛ 2 Œ0; 2 Œ die Matrix GLn .K/ D fA 2 Kn n j A ist invertierbarg
 
cos ˛  sin ˛ der invertierbaren n n-Matrizen über dem Körper K ist
AD 2 R2 2 :
sin ˛ cos ˛ mit der Multiplikation von Matrizen eine Gruppe
 
cos.˛/  sin.˛/
Dann ist das Inverse von A i Im Allgemeinen gilt:
sin.˛/ cos.˛/
(man beachte cos.˛/ D cos ˛ und sin.˛/ D .A B/1 ¤ A 1 B 1 :
 sin ˛), da
Als Beispiel betrachten wir
   ! !
cos ˛  sin ˛ cos.˛/  sin.˛/
2 1 1 1
sin ˛ cos ˛ sin.˛/ cos.˛/ AD ; BD :
  1 1 0 1
1 0
D D E2 : 9 Dann gilt:
0 1
! !
1
1 1 1 1
Bevor wir zeigen, wie man das Inverse einer invertierbaren A D ; B 1 D :
1 2 0 1
Matrix bestimmt, geben wir noch wichtige Eigenschaften
invertierbarer Matrizen an. Nun rechnen wir nach:
! !
2 3 2 3
AB D ; .A B/1 D B 1 A 1 D
Eigenschaften invertierbarer Matrizen 1 2 1 2
(i) Wenn A 2 Kn n
invertierbar ist, so auch A 1 , und es und !
gilt:
1 1
1 2
A B D ¤ .A B/1 :
1 3
.A 1 /1 D A :

(ii) Wenn A und B aus Kn n invertierbar sind, so ist auch


A B invertierbar, und es gilt: Das Inverse einer n  n-Matrix bestimmt
man durch Lösen von n linearen
.A B/1 D B 1 A 1
Gleichungssystemen
– man beachte die Reihenfolge!
(iii) Es ist En 2 Kn n invertierbar, und es gilt: Bei den bisherigen Beispielen invertierbarer Matrizen hat-
ten wir das Inverse der jeweiligen Matrix gegeben. Nun
E1
n D En :
beschreiben wir ein Verfahren, wie man das Inverse ei-
ner invertierbaren Matrix bestimmen kann. Es gibt ver-
6.6  Das Invertieren von Matrizen
205 6
schiedene Methoden. Die wohl einfachste entspringt dem Beweis Ist ' bijektiv, so gilt ker ' D f0g. Nach dem Satz
Algorithmus von Gauß und Jordan zur Lösung von Glei- vom Kern und Bild einer linearen Abbildung hat jede Dar-
chungssystemen. stellungsmatrix von ' den Rang n D dim V und ist somit
Ist invertierbar.
0 1 Ist eine Darstellungsmatrix A von ' invertierbar, so
a11    a1n
B : :: C ist ihr Rang gleich n D dim V . Wir wenden erneut den
A D @ :: : A2K
n n
Satz vom Kern und Bild einer linearen Abbildung an und
an1    ann erhalten ker ' D f0g, d. h., ' ist injektiv. Da im vorliegen-
den endlichdimensionalen Fall Bijektivität und Injektivität
eine invertierbare Matrix mit dem Inversen gleichwertig sind, folgt hieraus die Bijektivität von '. 
0 1
b11    b1n
B : :: C Zum Invertieren einer Matrix A 2 Kn n können wir die n
A 1 D @ :: : A D .s1 ; : : : : sn / 2 K
n n
; Gleichungssysteme A x D e k für k D 1; : : : ; n simultan
bn1    bnn lösen, d. h., wir machen den Ansatz .A j En /, ausführlich
0 1
so gilt die Gleichung a11    a1n 1    0
0 1 B :: :: :: : : :C
1  0 @ : : : : :: A
B :: :: :: C an1    ann 0    1
A .s1 ; : : : ; sn / D @ : : : A D En 2 K
n n
:
0  1 und lösen diese n Gleichungssysteme mit dem bekannten
Verfahren von Gauß und Jordan.
Diese Gleichung zerfällt in die n Gleichungen Dabei bringen wir aber die Matrix A links der Hilfsli-
0 1 nie nicht nur auf Zeilenstufenform, sondern gehen mit den
0
B:C elementaren Zeilenumformungen so weit, bis wir die Ein-
B :: C
B C heitsmatrix links der Hilfslinie erhalten, d. h., bis wir die
B C
A sk D B1C D e k mit k D 1; : : : ; n : Form
B:C 0 1
B:C 1    0 b11    b1n
@:A
B :: : : : :: :: C
0 @: : :: : : A
0    1 bn1    bnn
Die k-te Spalte von A 1 ist also Lösung des linearen Glei-
chungssystems erhalten. Dass dies möglich ist, besagt gerade das eben be-
gründete Kriterium für Invertierbarkeit.
A x D ek : Ist dies getan, so steht rechts der Hilfslinie das Inverse
1
Die Lösung sk ist eindeutig bestimmt, weil das Inverse A D .bij / 2 Kn n von A, da für jedes k D 1; : : : ; n
einer Matrix eindeutig bestimmt ist. Dies gilt für alle n die k-te Spalte sk der so nach allen Umformungen rechts
Gleichungen. Insbesondere hat die Matrix A den Rang n. entstandenen Matrix der entsprechende Lösungsvektor der
Ist eine Matrix A 2 K n n
invertierbar, so hat diese Ma- k-ten Gleichung A x D e k ist.
trix also den Rang n. Hat eine Matrix A andererseits den Bevor wir zu den Beispielen kommen, beantworten wir
Rang n, so sind die n Gleichungssysteme A x D e k für noch die Frage, wie man entscheiden kann, ob eine Matrix
k D 1; : : : ; n eindeutig lösbar, d. h., es existiert das Inverse überhaupt invertierbar ist.
1 Und in der Tat liefert das beschriebenen Verfahren hier
A zu A.
zugleich diese Antwort: Sieht man es der Matrix nicht an,
ob sie invertierbar ist, so beginnt man einfach mit dem In-
Kriterium für Invertierbarkeit vertieren, d. h., man macht den Ansatz .A j En / und bringt
Eine Matrix A 2 Kn n ist genau dann invertierbar, wenn
die Matrix A durch elementare Zeilenumformungen auf
der Rang von A gleich n ist.
obere Dreiecksgestalt, also auf die Form
0 1
::: :::
B :: : C
B0 : :: ::: C
Hieraus können wir folgern, dass zu den invertierbaren Ma- B C
B :: : : : : C
trizen die invertierbaren linearen Abbildungen gehören. @: : : ::: A
0 ::: 0 :::
Folgerung Es seien V und W endlichdimensionale Vek- „ ƒ‚ …
DWD
torräume mit dim V D dim W . Eine lineare Abbildung
' W V ! W ist genau dann bijektiv, wenn eine Darstel- Stellt sich hierbei heraus, dass der Rang von A kleiner als n
lungsmatrix von ' invertierbar ist. ist, d. h., die links stehende Matrix D eine Nullzeile enthält,
206 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

so ist nach dem Kriterium für Invertierbarkeit die Matrix .z/-Fache der dritten Zeile und setzen schließlich die
A nicht invertierbar. Enthält D hingegen keine Nullzei- dritte Zeile als erste Zeile:
le, so ist die Matrix invertierbar. Man setzt in diesem Fall 0 1
x y 1 1 0 0
die Zeilenumformungen fort und ermittelt das Inverse von
@ z 1 0 0 1 0A !
A. Die geringfügige Mehrarbeit, die Zeilenumformungen
an der rechts stehenden Einheitsmatrix im Ansatz .A j En / 1 0 0 0 0 1
0 1
durchzuführen, sollte man in Kauf nehmen. 1 0 0 0 0 1
@0 y 1 1 0 x A :
0 1 0 0 1 z
Das Bestimmen des Inversen einer Matrix
Wir addieren in einem zweiten Schritt das .y/-Fache
A 2 Knn
der dritten Zeile zur zweiten und vertauschen schließ-
1. Man schreibe .A j En /.
lich diese beiden Zeilen:
6 2. Mit elementaren Zeilenumformungen bringe man
0 1
.A j En / auf die Form .D j B/, mit einer oberen Drei- 1 0 0 0 0 1
ecksmatrix D. @0 y 1 1 0 x A !
3. Enthält D eine Nullzeile, so ist A nicht invertierbar. 0 1 0 0 1 z
Enthält D keine Nullzeile, so setze man mit elemen- 0 1
1 0 0 0 0 1
taren Zeilenumformungen fort, um das Inverse A 1
@0 1 0 0 1 z A :
von A zu erhalten:
0 0 1 1 y y z  x
.A j En / !    ! .En j A 1 / :
Folglich ist
0 1
0 0 1
Beispiel
A 1 D @0 1 z A :
1 y yz  x
4 Wir invertieren die Matrix
  4 Wir versuchen das Inverse von
2 1
AD 2 R2 2
: 0 1
1 1 1 2 0 4
B1 1 0 2 C
ADB @0 2 1 0 A 2 R
C 4 4
Zuerst notieren wir .A j E2 /, vertauschen dann die Zei-
len und addieren zur zweiten Zeile das .2/-Fache der 2 5 1 6
neuen ersten Zeile:
zu bestimmen. Wir machen wieder den Ansatz .A j E4 /,
   
2 1 1 0 1 1 0 1 addieren zur zweiten Zeile das .1/-Fache der ersten
! :
1 1 0 1 0 1 1 2 Zeile und zur vierten Zeile das .2/-Fache der ersten
Zeile:
Weil die Matrix den Rang 2 hat, ist sie invertierbar. Wir 0 1
1 2 0 4 1 0 0 0
setzen nun das Invertieren fort. In einem zweiten Schritt B 1 1 0 2 0 1 0 0 C
B C
addieren wir zur ersten Zeile die zweite Zeile und mul- @ 0 2 1 0 0 0 1 0 A !
tiplizieren dann die zweite Zeile mit dem Faktor 1:
2 5 1 6 0 0 0 1
    0 1
1 1 0 1 1 0 1 1 1 2 0 4 1 0 0 0
! : B 0 1 0 2 1 1 0 0 C
0 1 1 2 0 1 1 2 B C:
@ 0 2 1 0 0 0 1 0 A
  0 1 1 2 2 0 0 1
1 1
Also ist A 1 D .
1 2 Nun erkennt man, dass durch Addition der zweiten zur
4 Schließlich invertieren wir die Matrix dritten Zeile die vierte Zeile entsteht, d. h., der Rang von
0 1 A ist nicht vier. Die Matrix ist also nicht invertierbar. 9
x y 1
A D @ z 1 0A 2 R : 3 3
Kommentar Beim Invertieren von Matrizen hat man bei
1 0 0 den Zeilenumformungen im Allgemeinen viele Wahlmög-
lichkeiten. Wir haben bei den Beispielen jeweils einen Weg
Wieder notieren wir .A j E 3 /, addieren zur ersten Zeile vorgegeben. Natürlich gelangt man auch mit anderen Zei-
das .x/-Fache der dritten Zeile, zur zweiten Zeile das lenumformungen zum Ziel.
6.7  Elementarmatrizen
207 6

Beispiel: Invertieren einer Matrix

Man bestimme das Inverse der Matrix Nun erkennen wir, dass A den Rang 3 hat, also auch tatsäch-
0 1 lich invertierbar ist. Es folgt der letzte Schritt, in dem wir die
6 8 3
B C dritte Zeile zur ersten Zeile addieren und zur zweiten Zeile das
A D @4 7 3A 2 R3 3 :
.1/-Fache der dritten Zeile hinzufügen:
1 2 1
0 1 0 1
Problemanalyse und Strategie 1 0 1 0 2 7 1 0 0 1 2 3
B0 1 1 0 1 4C B 3 6C
Man beachte das im Text beschriebene Verfahren. @ A ! @0 1 0 1 A
0 0 1 1 4 10 0 0 1 1 4 10
Lösung
Wieder notieren wir zuerst .A j E3 /, tauschen dann die ers- Folglich ist
te mit der dritte Zeile und addieren zur zweiten Zeile das
0 1
.4/-Fache der neuen ersten Zeile und zur neuen dritten Zeile 1 2 3
B 6C
das .6/-Fache der neuen ersten Zeile: A 1 D @1 3 A
0 1 0 1 1 4 10
6 8 3 1 0 0 1 2 1 0 0 1
B4 7 3 0 1 0C B C
@ A ! @0 1 1 0 1 4A
1 2 1 0 0 1 0 4 3 1 0 6 Kommentar Beim Invertieren einer Matrix A 2 Kn n
passieren leicht Rechenfehler. Man kann sein Ergebnis aber
In einem zweiten Schritt addieren wir zur ersten Zeile einfach überprüfen, da die Gleichung A A 1 D E n erfüllt
das 2-Fache der zweiten Zeile und zur dritten Zeile das sein muss. Diese Gleichung ist im Allgemeinen sehr leicht
.4/-Fache der zweiten Zeile und multiplizieren schließlich nachzuvollziehen, wir tun dies für unser Beispiel:
die zweite Zeile mit 1:
0 1 0 1 0 10 1 0 1
1 2 1 0 0 1 1 0 1 0 2 7 6 8 3 1 2 3 1 0 0
B0 1 1 0 1 4C B 1 0 1 4C B4 3C B 6C B 0C
@ A ! @0 1 A @ 7 A @1 3 A D @0 1 A
0 4 3 1 0 6 0 0 1 1 4 10 1 2 1 1 4 10 0 0 1

Wir heben zwei Merkregeln für das Inverse spezieller ?Selbstfrage 6.20
Matrizen hervor. Ist mit zwei invertierbaren Matrizen A; B 2 Kn n
auch
die n n-Matrix A C B invertierbar?

Die Inversen von 2 !2- und Diagonalmatrizen Kommentar Ist A x D b ein lineares Gleichungssystem
a b mit invertierbarer Matrix A, so ist die dann eindeutig be-
4 Die Matrix 2 K2 2 ist genau dann invertier-
c d stimmte Lösung durch A 1 b gegeben. Tatsächlich ist es im
bar, wenn a d ¤ b c. Es gilt in diesem Fall: Allgemeinen aber viel aufwendiger, erst A 1 zu bestimmen
und diese Matrix dann mit b zu multiplizieren, als das Glei-
!1 !
a b 1 d b chungssystem mit dem Algorithmus von Gauß und Jordan
D zu lösen.
c d ad bc c a

4 Die Matrix diag.a1 ; : : : ; an / 2 Kn n ist genau dann


invertierbar, wenn alle ai ¤ 0 sind, und es gilt in die- 6.7 Elementarmatrizen
sem Fall:
0 11 0 1 1
0 1
3 3 3
a1 0 a1 0
B C B C Wir betrachten die Matrix A D @3 3 3A 2 R3 3 .
B :: C DB :: C
@ : A @ : A 3 3 3
0 an 0 an1 Die folgende Multiplikation reeller Matrizen
0 10 1 0 1
1 0 0 3 3 3 3 3 3
@0 1=3 0A @3 3 3A D @1 1 1A
Diese Aussagen prüft man einfach durch Multiplikation der
jeweiligen Matrizen mit den angegebenen Inversen nach. 0 0 1 3 3 3 3 3 3
208 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Beispiel: Der Körper der komplexen Zahlen in Gestalt von Matrizen


!
Wir betrachten die Menge a b
( ! ) Element 2 G eine Linearkombination
! der beiden
!
b a
a b 1 0 0 1
GD j a; b 2 R über R linear unabhängigen Matrizen und
b a 0 1 1 0
ist, es gilt nämlich:
von 2 2-Matrizen über R und zeigen, dass wir diese Menge ! ! !
mit dem Körper C der komplexen Zahlen identifizieren kön- a b 1 0 0 1
Da Cb ;
nen. b a 0 1 1 0
( ! !)
Problemanalyse und Strategie 1 0 0 1
bildet die Menge ; eine Basis von G.
0 1 1 0
Man gebe eine bijektive additive und multiplikative Abbil-
Es folgt erneut dimR .C/ D 2.
dung von C nach G an.
6 Wir heben ein weiteres Resultat hervor: Weil die Multi-
plikation in C kommutativ ist, ist es auch jene in G, denn
Lösung
zu beliebigen g; g 0 2 G gibt es z; z 0 2 C mit '.z/ D g
Wir betrachten die Abbildung und '.z 0 / D g 0 . Damit erhalten wir g g 0 D '.z/ '.z 0 / D
8
ˆ C ! G; '.z z 0 / D '.z 0 z/ D '.z 0 / '.z/ D g 0 g :
< !
'W a b Also ist die Multiplikation in G kommutativ, wenngleich
:̂z D a C i b 7! b a die Multiplikation in R2 2 nicht kommutativ ist.
Da wir komplexe Zahlen auch als Vektoren des R2 inter-
und überzeugen uns von den folgenden vier Tatsachen: pretieren können, haben wir für jede komplexe Zahl z 2 C
1. ' ist injektiv: Aus '.a C i b/ D '.a0 C i b 0 / folgt sogleich die drei Schreibweisen
a D a0 und b D b 0 . ! !
a a b
2. ' ist surjektiv:
! z D a C i b; z D ; zD
a b b b a
Zu 2 G wähle z D a C i b 2 C.
b a Die Multiplikation einer komplexen Zahl z D a C i b mit der
3. Für alle z; z 0 2 C gilt '.z C z 0 / D '.z/ C '.z 0 /: imaginären Einheit i ist die Drehung der komplexen Zahl z im
!
Sind z D a C i b und z 0 D a0 C i b 0 2 C, so ist b
! R um =2, also z D b C i a, da hierzu der Vektor
2

0
a C a0 .b C b 0 / a
'.z C z / D D '.z/ C '.z 0 / : gehört:
b C b0 a C a0
iz a
4. Für alle z; z 0 2 C gilt '.z z 0 / D '.z/ '.z 0 /:
Sind z D a C i b und z 0 D a0 C i b 0 2 C, so ist

'.z z 0 / D '..a a0  b b 0 / C i .b a0 C a b 0 // b z
!
a a0  b b 0 .b a0 C a b 0 / a
D b
b a0 C a b 0 a a0  b b 0
! !
a b a0 b 0
D D '.z/ '.z 0 / : Dasselbe leistet in G die zu i gehörige Matrix '.i/:
b a b0 a0
! ! !
0 1 a b b a
Wir können nun die Elemente aus C durch jene aus G aus- D ;
1 0 b a a b
drücken. Zu jedem Element aus C gehört genau ein Element
!
aus G. Der Summe bzw. dem Produkt zweier komplexer Zah- b
len z und z 0 entspricht die Summe bzw. das Produkt der beiden da hierzu ebenso der Vektor
a
gehört.
Matrizen '.z/ und '.z 0 /. Also sind G und C von der Bezeich- Schließlich entspricht dem Inversen einer komplexen Zahl
nung der Elemente abgesehen dasselbe. Aber in G taucht die z D a C i b ¤ 0 das Inverse der zu z gehörigen Matrix '.z/,
imaginäre Einheit ! i nicht explizit auf. Zu i gehört die Matrix da
0 1
'.i/ D , und der haftet nichts Imaginäres mehr an.
1 0 E 2 D '.1/ D '.z z 1 / D '.z/ '.z 1 /
Der Körper der komplexen Zahlen kann!also gedeutet wer- !
a b a b
den als die Menge aller Matrizen 2 R2 2 . gilt. D. h., die Matrix '.z/ D ist invertierbar mit
b a b a
!
Die Menge G bildet einen Untervektorraum von R2 2 . Es a b
dem Inversen '.z/1 D '.z 1 / D 1
.
ist also G insbesondere ein reeller Vektorraum. Weil jedes a2 Cb 2 b a
6.7  Elementarmatrizen
209 6
bewirkt eine elementare Zeilenumformung an A, nämlich Wir untersuchen nun, welche Matrizen diese Zeilen- bzw.
das Multiplizieren der zweiten Zeile von A mit dem Fak- Spaltenumformungen an der Matrix A 2 Km n durch Mul-
tor 1=3. tiplikation von rechts bzw. links bewirken.
Vertauscht man die Matrizen, berechnet man also Für  2 K und i; j 2 f1; : : : ; mg mit i ¤ j nennt man
0 10 1 0 1 die m m-Matrizen der Form
3 3 3 1 0 0 3 1 3 0 1
@3 3 3A @0 1=3 0A D @3 1 3A 1
B :: C
3 3 3 0 0 1 3 1 3 B : C
B C
B C
B 1 C
so bewirkt diese Multiplikation eine elementare Spaltenum- B C
D i ./ D B  C i
formung an A. B C
B 1 C
Man kann auch das Addieren eines Vielfachen einer B C
B :: C
Zeile zu einer anderen Zeile durch eine Matrizenmultipli- @ : A
kation ausdrücken, so ist etwa 1
0 10 1 0 1 "
1 0 0 3 3 3 3 3 3
@1=3 1 0A @3 3 3A D @2 2 2A i
0 0 1 3 3 3 3 3 3 und
0 1
die Addition des .1=3/-fachen der ersten Zeile zur zwei- 1
B :: C
ten. B : C
B C
B 1  C i
? Selbstfrage 6.21 B C
B C
Welche Zeile ändert sich, wenn der Faktor 1=3 an der N i;j ./ D B
B
: :: C
C
B C
Stelle .3; 1/ dieser Matrix steht? B 1 C
B C
B :: C
Ein Vertauschen der Matrizen bewirkt wieder eine entspre- @ : A
chende Umformung an den Spalten: 1
0 10 1 0 1 "
3 3 3 1 0 0 2 3 3
@3 3 3A @1=3 1 0A D @2 3 3A : j
3 3 3 0 0 1 2 3 3 m m-Elementarmatrizen.

? Selbstfrage 6.22 Kommentar Die Matrizen D i ./ für  2 K n f0g und


An welcher Stelle muss der Faktor 1=3 stehen, damit die N i;j ./ für  2 K sind invertierbar, so ist D i .1 / das
zweite Spalte des Produkts nur 2 als Komponenten hat? Inverse zu D i ./ und N i;j ./ jenes zu N i;j ./.

In der Tat lässt sich jede elementare Zeilenumformung bzw. 0 1


z1
elementare Spaltenumformung an einer Matrix A 2 K m n
B :: C
Für die m n-Matrix A D @ : A mit den Zeilenvektoren
durch Multiplikation einer Matrix von rechts bzw. von links
darstellen. Matrizen, die dies bewirken, werden wir Ele- zm
mentarmatrizen nennen. z1 ; : : : ; z m 2 K n
erhält man die folgenden Matrizenproduk-
te: 0 1 0 1
z1 z1
Elementarmatrizen stellen elementare B : C B :: C
B :: C B : C
Zeilenumformungen bzw. B C B C
Bz C B z C
B i 1 C B i 1 C
Spaltenumformungen dar B z C Bz C  z C
D i ./ A D B i C und N i;j ./ A D B i jC :
B C B C
Bzi C1 C B zi C1 C
B : C B C
Die elementaren Zeilenumformungen bzw. elementaren B : C B :: C
@ : A @ : A
Spaltenumformungen an einer Matrix A 2 K m n
sind die zm zm
Umformungen:
(i) zwei Zeilen bzw. Spalten von A werden vertauscht, Also bewirkt die Matrizenmultiplikation von D i ./ von
(ii) eine Zeile bzw. Spalte wird mit einem Faktor  ¤ 0 links an A die Multiplikation der i-ten Zeile von A mit
multipliziert,  bzw. die Matrizenmultiplikation von N i;j ./ von links
(iii) zu einer Zeile bzw. Spalte wird das Vielfache einer an- an A die Addition des -Fachen der j -ten Zeile zur i-ten
deren Zeile bzw. Spalte addiert. Zeile.
210 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Diese beiden Multiplikationen bewirken also gerade für Das Invertieren von Matrizen kann man
 ¤ 0 im ersten Fall die elementaren Zeilenumformungen auch mit Elementarmatrizen beschreiben
der Art (ii) und (iii) an A.
Wir überlegen uns nun, welche Matrix das Vertauschen
zweier Zeilen zi und zj für i ¤ j von A bewirkt. Eine invertierbare Matrix A 2 Kn n hat, wie wir gezeigt
Wir multiplizieren an A von links Elementarmatrizen: haben, den Maximalrang n.
0 1 0 1 0 1 Dann kann A mit elementaren Zeilenumformungen auf
0 1
:: :: :: 1
B C : B : C B : C
Bz C Bz C z C B C B :: C
B iC B i jC B zi C zj C die Form @ : A gebracht werden und mit weite-
B:C B : C B : C
B
ADB:C!B : C!B
: C B : C B : C 0 1
: C
B C B C B C ren solchen Umformungen schließlich in die Einheitsmatrix
Bzj C B zj C Bzj C .1/ .zi C zj /C
@:A @ : A @ :: A En umgewandelt werden. Jede Umformung bedeutet eine
:: ::
6 „ ƒ‚ … „ ƒ‚
:

Multiplikation von links mit einer Elementarmatrix. Daher
existieren zu der invertierbaren Matrix A Elementarmatri-
DN i;j .1/ A DN j;i .1/ N i;j .1/ A
0 1 0 1 0 1 zen T 1 ; : : : ; T k mit
:: :: ::
B : C B : C B:C T k    T 1 A D En ;
Bz C z C Bz C z C .z /C Bz C
B i jC B i j i C B jC
B : C B :: C Dj .1/ B : C sodass
B
D B :: C C!
B
B :
C
C ! B C
B :: C :
B C B C B C
B zi C B zi C B zi C T k    T 1 D T k    T 1 En D A 1 :
@ : A @ :: A @:A
:: : ::
„ ƒ‚ …
DN i;j .1/N j;i .1/ N i;j .1/ A Invertieren von Matrizen
Jede invertierbare Matrix A lässt sich mittels elementarer
Damit führen also die Elementarmatrizen auch zum Vertau- Zeilenumformungen in die Einheitsmatrix E n überführen.
schen der Zeilen zi mit zj also zur elementaren Zeilenum- Wendet man dieselben Umformungen in derselben Rei-
formung (i). Diese Vertauschung bewirkt also letztlich die henfolge auf En an, so erhält man A 1 .
Matrix
P i;j D Dj .1/ N i;j .1/ N j;i .1/ N i;j .1/
0 1 Dieses Vorgehen zum Invertieren einer invertierbaren Ma-
1
trix ist genau dasselbe, das wir in der Merkbox Das Be-
B :: C
B : C stimmen des Inversen einer Matrix A 2 Kn n geschildert
B C
B 0 1 C i haben.
B C
B C Man schreibt En rechts neben A, also .A j En / und wen-
DBB : :: C
C det die Umformungen, die A in En überführen, gleichzeitig
B C
B 1 0 C j auf E n an, man erhält also .En j A 0 /. Die Matrix A 0 ist dann
B C
B :: C das Inverse A 1 von A.
@ : A
Wir haben damit auch gezeigt:
1
" " Folgerung Jede invertierbare Matrix ist ein Produkt von
i j Elementarmatrizen, d. h., die Gruppe GLn .K/ der invertier-
baren n n-Matrizen über dem Körper K wird von den
Man nennt P i;j eine Permutationsmatrix, sie vertauscht Elementarmatrizen erzeugt.
durch Multiplikation von links an A die Zeilen zi und zj .
Wir halten eine weitere Folgerung fest: Da jede invertier-
? Selbstfrage 6.23 bare Matrix S 2 Kn n ein Produkt von Elementarmatrizen
Warum gilt P 2 D En für jede n n-Permutationsmatrix?
ist, S D T 1    T k , bewirkt die Multiplikation von S an
Analog kann man nun auch elementare Spaltenumformun- eine Matrix A 2 K
n n
von links bzw. von rechts,
gen von A durch Multiplikation von n n-Elementarmatri- S A bzw. A S ;
zen von rechts an A 2 Km n darstellen.
So bewirkt die n n-Matrix D i ./ mit  ¤ 0 durch entsprechende elementare Zeilen- bzw. Spaltenumformun-
Multiplikation von rechts an A eine Multiplikation der gen an A, da jede Elementarmatrix T i eine solche Umfor-
i-ten Spalte von A mit dem Faktor . Und die Multipli- mung darstellt. Da elementare Zeilen- bzw. Spaltenumfor-
kation von N i;j ./ von rechts an A bewirkt die Addition mungen den Rang der Matrix A nicht ändern, erhalten wir
des -Fachen der i-ten Spalte zur j -ten Spalte. damit:
6.8  Basistransformation
211 6

Übersicht: Die linearen Abbildungen 'A W v 7! A v mit einer Matrix A

Jede Matrix A D .s1 ; : : : ; sn / 2 Km n induziert eine 4 Ein Element v 2 Kn liegt genau dann im Kern von 'A ,
lineare Abbildung 'A vom K-Vektorraum Kn in den K-Vek- wenn A v D 0 gilt:
torraum Km :
( 1
'A .f0g/ D fv 2 Kn j A v D 0g :
Kn ! Km ;
'A W
v 7! A v: Der Kern von 'A ist die Lösungsmenge des homoge-
Diese Abbildungen verdienen eine besondere Beachtung, weil nen linearen Gleichungssystems A v D 0. Wegen dieses
letztlich jede Abbildung von einem n-dimensionalen K-Vek- Zusammenhangs nennt man den Kern der linearen Abbil-
torraum in einen m-dimensionalen K-Vektorraum von dieser dung 'A auch den Kern der Matrix A.
Art ist. 4 Für die Dimension des Kerns von 'A gilt:
Wir fassen wesentliche Ergebnisse aus den 7 Kap. 3, 4 1
dim 'A .f0g/ D n  rg.A/ :
und 6 zu einer Übersicht zusammen.
0 1
v1
B:C Dies folgt unmittelbar aus der Dimensionsformel.
4 Für jeden Vektor v D B :C
@ : A 2 K gilt:
n
In der Sprechweise der linearen Gleichungssysteme lautet
vn dies: Ist A 2 Km n , so ist die Dimension des Lösungs-
raums des homogenen linearen Gleichungssystems
'A .v/ D A v D v1 s1 C    C vn sn ;
insbesondere gilt für die Standard-Einheitsvektoren Av D 0
e 1 ; : : : ; e n des Km :
gleich n  rg.A/.
'A .e i / D A e i D si für i D 1; : : : ; m : Insbesondere ist ein lineares homogenes Gleichungssys-
tem mit einer Koeffizientenmatrix A 2 Km n genau dann
Die i-te Spalte der Matrix A ist das Bild des i-ten Stan-
eindeutig lösbar, wenn n D rg.A/ ist.
dardbasis-Einheitsvektors e i .
4 Für eine quadratische Matrix A 2 Kn n sind die folgen-
4 Das Bild von 'A ist die Menge aller Linearkombinationen
den Aussagen äquivalent:
von s1 ; : : : ; sn , also der Spaltenraum von A:
– A ist invertierbar,
'A .Kn / D hs1 ; : : : ; sn i : – rg.A/ D n,
– 'A ist bijektiv,
4 Die Dimension des Bildes von A ist die Dimension des
– 'A ist surjektiv,
Spaltenraums von A:
– 'A ist injektiv,
1
dim.'A .Kn // D rg A : – 'A .f0g/ D f0g.

0 1
v1
B :: C
Folgerung Ist A 2 Kn eine beliebige und S 2 Kn
n n
so erhält man den Koordinatenvektor B '.v/ D @ : A des
eine invertierbare Matrix, so gilt: vn
Bildes eines Vektors v unter der Abbildung ' durch eine
rg.S A/ D rg.A/ D rg.A S / : sehr einfache Multiplikation:
1
0
1 v1
B : C
6.8 Basistransformation B '.v/ D B M .'/B B v D @ :: A :
n vn
Das wesentliche Ziel von 7 Kap. 8 wird es sein, zu einer
gegebenen Abbildung ' eine Basis B zu bestimmen, be- Auch Potenzen von Diagonalmatrizen sind sehr einfach zu
züglich der die Darstellungsmatrix B M .'/B eine besonders bilden – dies hat in den Anwendungen der linearen Algebra
einfache Gestalt, etwa Diagonalgestalt, hat. Der Vorteil ei- eine fundamentale Bedeutung; wir gehen darauf noch ein.
ner solchen einfachen Gestalt liegt auf der Hand: Ist die
Darstellungsmatrix eine Diagonalmatrix, also
Je zwei Darstellungsmatrizen einer linearen
0 1 Abbildung sind ähnlich
1  0
B :: :: :: C
B M .'/B D @ : : :A
In den bisherigen Beispielen zu Darstellungsmatrizen ha-
0  n ben wir mehrfach ein und dieselbe lineare Abbildung be-
212 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

züglich verschiedener Basen dargestellt. Darstellungsmatri- Beweis Es gilt:


zen bezüglich verschiedener Basen sehen im Allgemeinen
ganz unterschiedlich aus. C M .'/C D C M .idV ı ' ı idV /C D

Wir untersuchen nun, welcher algebraische Zusammen- D C M .idV /B B M .'/B B M .idV /C :


hang zwischen den verschiedenen Darstellungsmatrizen
besteht. In der Tat ist dies ein sehr einfacher. Die zwei im Wegen
Allgemeinen verschiedenen Darstellungsmatrizen ein und
C M .idV /B B M .idV /C D B M .idV /B D En
derselben linearen Abbildung bezüglich verschiedener Ba-
sen sind sich nämlich ähnlich; dabei sagt man, dass eine erhalten wir also .B M .idV /C /1 D C M .idV /B . Wir kürzen
n n-Matrix A zu einer n n-Matrix B ähnlich ist, wenn B M .idV /C mit S ab und erhalten die Behauptung. 
es eine invertierbare n n-Matrix S mit
Wir stellen die Situation der Basistransformationsformel in
A D S 1 B S einem Diagramm dar:
6
gibt. Wir schreiben hierfür auch kurz A  B. C M .'/C
Kn Kn
Der Begriff der Ähnlichkeit besagt schon, dass der ge-
schilderte Zusammenhang zwischen diesen Matrizen ein
sehr enger ist – man braucht solche Matrizen kaum zu un- S DB M .id/C S 1 DC M .id/B
terscheiden, sie stellen ja auch dieselbe lineare Abbildung
dar, nur eben bezüglich verschiedener Basen.
B M .'/B
Kn Kn
Lemma Für jeden Körper K und für jede natürliche Zahl n
definiert die Ähnlichkeit  von Matrizen eine Äquivalenz- Man nennt S D B M .idV /C auch Basistransformations-
relation auf der Menge Kn n . matrix. Die i-te Spalte von S ist der Koordinatenvektor
bezüglich der Basis B des i-ten Basisvektors der Basis C .
Beweis Reflexivität: Für jedes A 2 Kn n gilt: Aus der Basistransformationsformel ergibt sich Folgen-
des:
E1
n A En D A ;

d. h., dass A zu sich selbst ähnlich ist, A  A. Ähnlichkeit von Darstellungsmatrizen


Symmetrie: Ist A zu B ähnlich, A  B, so existiert Je zwei Darstellungsmatrizen B M .'/B und C M .'/C ei-
eine invertierbare Matrix S 2 Kn n mit A D S 1 B S . Es ner linearen Abbildung ' bezüglich der Basen B und C
folgt: sind zueinander ähnlich.

B D S A S 1 ;

d. h., dass also auch B zu A ähnlich ist, B  A. Andererseits stellen je zwei ähnliche n n-Matrizen über
Transitivität: Es sei A zu B ähnlich, A D S B S , K ein und dieselbe lineare Abbildung dar. Somit gehört
1

und B zu C , B D T 1 C T . Dann folgt: zu jeder linearen Abbildung ' eines n-dimensionalen K-


Vektorraums V in sich eine Äquivalenzklasse ŒM  von
1
A D .T S / C .T S / ; Matrizen bezüglich der Äquivalenzrelation . Ist M die
Darstellungsmatrix von ' bezüglich einer Basis B, so gilt:
d. h., dass A zu C ähnlich ist, A  C . 
ŒM  D fN 2 Kn n j N  M g
? Selbstfrage 6.24 D fN 2 Kn n
j N D S 1 M S
Welche Matrizen sind zu En ähnlich? für ein S 2 GLn .K/g :

Jedes N 2 ŒM  ist Darstellungsmatrix von ' bezüglich


Die Basistransformationsformel einer Basis C von V . Unser Ziel im 7 Kap. 8 wird es sein,
Sind ' W V ! V eine lineare Abbildung und B und C aus jeder Äquivalenzklasse einen möglichst einfachen Re-
zwei geordnete Basen von V , so gilt: präsentanten zu bestimmen.

C M .'/C D S 1 B M .'/B S ; Beispiel Wir bestimmen alle zu


!
0 0
wobei S D B M .idV /C gilt. MD 2 Z22 2
1 1
6.8  Basistransformation
213 6
ähnliche Matrizen, d. h. die Äquivalenzklasse ŒM  von M Dieses einfache Beispiel zeigt bereits, dass die Basis-
bezüglich . transformationsformel an sich nicht sehr geeignet ist, die
In Z22 2 sind genau die Matrizen Darstellungsmatrix bezüglich einer Basis C aus derjenigen
! ! ! bezüglich einer Basis B zu berechnen. Es sind die Basis-
1 0 1 1 1 0 transformationsmatrix, ihr Inverses und zudem das Produkt
AD ;B D ;C D ;
0 1 0 1 1 1 dreier Matrizen zu berechnen. Der Rechenaufwand steigt
! ! ! mit der Größe der Matrizen. Viel einfacher ist es zumeist,
1 1 0 1 0 1 die Darstellungsmatrix bezüglich einer anderen Basis di-
DD ;E D ;F D
1 0 1 0 1 1 rekt zu ermitteln. So erhalten wir etwa bei der Spiegelung
im Beispiel sogleich, wenn wir die Elemente der Basis C
invertierbar. mit c 1 und c 2 bezeichnen:
? Selbstfrage 6.25  
1 0
Warum sind das genau die invertierbaren Matrizen? M .'/ D . ' .c / ; ' .c // D
C C C 1 C 2
0 1
Wegen
! ! Die Basistransformationsformel hat aber dennoch einen un-
1 0 0 1 0
1 schätzbaren Wert. Angenommen, es gibt eine Basis C ,
A MA D ; B MB D ;
1 1 1 0 bezüglich der die Darstellungsmatrix eine Diagonalmatrix
! ! D D diag.1 ; : : : ; n / ist. Es ist dann einfach, für eine
0 0 0 1 beliebige Darstellungsmatrix M jede Potenz M k zu be-
C 1 M C D ; D 1 M D D ;
0 1 0 1 rechnen:
! !
1 1 1 1 1 0 M k D .S 1 D S /k
E ME D ; F MF D
0 0 0 0
S 1 D S S 1 D
D„ 1
ƒ‚S : : : S D S…
sind diese sechs Matrizen die Elemente der Äquivalenz- k-mal
1 1
klasse ŒM  . 9 DS D S DS
k
diag.k1 ; : : : ; kn / S :

Die Basistransformationsformel gibt an, wie wir die Dar- Wir werden dies noch mehrfach vor allem im 7 Kap. 8 be-
stellungsmatrix einer linearen Abbildung bezüglich einer nutzen.
Basis C erhalten, wenn wir diese bezüglich einer Basis B Wir formulieren die Basistransformationsformel erneut
kennen. Wir schildern dies an einem einfachen Beispiel. für den wichtigen Fall einer linearen Abbildung der Form:
 n
Beispiel Wir betrachten die Abbildung K ! Kn ;
' D 'A W
8 v 7! A v:
< R ! R
2 2
;
 
'W x1 x2
: 7! :
x2 x1 Die Transformationsformel für quadratische
Matrizen
D .e1 ; 
Ist B  geordnete Standardbasis des R und
e 2 / die 2

1 1 Die Darstellungsmatrix der linearen Abbildung


C D ; eine weitere geordnete Basis, so er-
1 1
'A W Kn ! Kn ; v ! A v
halten wir
   
0 1 1 1 bezüglich einer geordneten Basis B D .b1 ; : : : ; bn / des
B M .'/B D ; S D B M .idR2 /C D
1 0 1 1 Kn lautet
 
1=2 1=2
S 1 D C M .idR2 /B D B M .'A /B D S 1 A S ;
1=2 1=2

und schließlich aus diesen drei Matrizen durch Produktbil- wobei S D .b1 ; : : : ; bn / gilt.
dung die Darstellungsmatrix von ' bezüglich der Basis C :

C M .'/C D S 1 B M .'/B S
     Zahl t betrachten wir die Matrix
 Zu einer reellen
Beispiel
1=2 1=2 0 1 1 1 cos t sin t
D AD . Ein Element v 2 R2 schreiben wir
1=2 1=2 1 0 1 1 sin t  cos t
   
1 0 v1
D 9 in der Form v D . Damit ist eine lineare Abbildung
0 1 v2
214 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

x2 d. h.

'A W v1 b1 C v2 b2 ! v1 b1  v2 b2 :

Folglich ist 'A die Spiegelung an der Geraden R b1 , denn


b1 steht senkrecht auf b2 (. Abb. 6.10). 9

6.9 Der Dualraum

x1
Jeder K-Vektorraum V hat einen Partner, den Dualraum V
von V , das ist die Menge aller linearen Abbildungen von V
in K. Falls V endlichdimensional ist, so hat V die gleiche
6 Dimension wie V , und eine Basis von V ist mithilfe einer
Basis von V leicht anzugeben. Im unendlichdimensionalen
Fall sind die Verhältnisse komplizierter.
. Abb. 6.10 Die Spiegelung an der Geraden R b1 (blau)

Der Dualraum von V ist die Menge aller


vom R2 in den R2 definiert: linearen Abbildungen von V in K
     
v1 v1 v1 cos t C v2 sin t
'A DA D : Für beliebige K-Vektorräume V und W ist HomK .V; W /
v2 v2 v1 sin t  v2 cos t
ein K-Vektorraum. Da W D K natürlich auch ein (eindi-
Es ist mensionaler) K-Vektorraum ist, erhalten wir den K-Vektor-
    raum
cos t=2  sin t=2
BD ;
sin t=2 cos t=2 V D HomK .V; K/ D f' W V ! K j ' ist linearg :

wegen der linearen Unabhängigkeit der beiden Elemente Man nennt V den Dualraum von V . Die Elemente von
von B eine geordnete Basis des R2 . Tatsächlich stehen die V heißen Linearformen, eine Linearform ist damit eine
beiden Vektoren b1 und b2 der Basis B sogar senkrecht auf- lineare Abbildung von V in den Grundkörper K.
einander – dies sieht man, indem man ihr Skalarprodukt
bildet. Beispiel
Wir berechnen nun die Darstellungsmatrix B M .'A /B . 4 Im Fall V D Kn ist jede Linearform ' W Kn ! K durch
Die Basistransformationsmatrix S hat als Spalten gerade einen Zeilenvektor z D .a1 ; : : : ; an / 2 K1 n gegeben:
der Reihe nach die Elemente b1 und b2 der geordneten Ba-
sis B: '.v/ D z v ; v 2 V :
  Umgekehrt definiert jeder Vektor z 2 K1 n eine Linear-
cos t=2  sin t=2
S D : form. Daher erhalten wir V Š K1 n .
sin t=2 cos t=2
4 Der K-Vektorraum V D KŒX hat die Basis fX k j k 2
Das Inverse zu S ist dann N0 g. Ist ' 2 V eine Linearform:
  8
cos t=2 sin t=2 < V ! K;
S 1 D : 'W Pn
 sin t=2 cos t=2
:p D ai X i 7! '.p/;
i D0
Damit erhalten wir:
so wird durch
 
1 1 0
B M .'A /B DS AS D : b0 D '.1/ ; b1 D '.X/ ; b2 D '.X 2 / ; : : :
0 1

Wegen der Basistransformationsformel erhalten wir damit eine Folge b D .bi /i 2N0 erklärt. Damit haben wir ei-
die sehr einfache Darstellung der linearen Abbildung ' ne lineare Abbildung ˚ von V in den K-Vektorraum
durch KŒŒX aller Folgen über K erklärt,
       
v1 1 0 v1 v1 V ! KŒŒX;
D !
7 D D ˚W
B v
v2
'
B A .v/
0 1 v2 v2
; ' 7! .'.X i //i 2N0 :
6.9  Der Dualraum
215 6

Beispiel: Die beiden Methoden zur Bestimmung von Darstellungsmatrizen

Wir schildern die beiden wichtigsten Lösungsmethoden zur 2. Lösungsweg mit der Transformationsformel: Da wir die
Bestimmung der Darstellungsmatrix einer linearen Abbil- Inverse von S D E M .'/B brauchen, um die Transforma-
dung. Bei der ersten Methode gehen wir direkt anhand der tionsformel anwenden zu können, starten wir gleich mit der
Definition der Darstellungsmatrix vor. Bei der zweiten Metho- Berechnung von S 1 – die Zwischenschritte lassen wir jedoch
de benutzen wir die Basistransformationsformel. Die zweite aus:
Methode ist meist umständlicher.
0 1
Wir geben uns reelle Polynome vor: 0 2 4 1 1 0 0 0
B6 1 1 3 0 0C
p 1 D X 3 C 6 X; p 2 D X 2  X C 2; B 1 0 C
.S j E 4 / D B C ! :::
@0 1 2 0 0 0 1 0A
p 3 D 2 X 2 C X C 4; p 4 D 3 X C 1 :
1 0 0 0 0 0 0 1
Dann ist B D .p 1 ; p 2 ; p 3 ; p 4 / eine geordnete Basis von 0 1
1 0 0 0 0 0 0 1
RŒX3 . Wir bestimmen die Darstellungsmatrix der Differen- B0 1 0 0 2  2
B
13
4CC
d
ziation dX W RŒX3 ! RŒX3 , p 7! p 0 bezüglich B. ::: !B 3 3
C
@0 0 1 0 1 1
3
 53 2A
Problemanalyse und Strategie 0 0 0 1 1 0 2 0
Wie üblich bezeichne E D .1; X; X 2 ; X 3 / die kanonische
Basis von RŒX3 . Zuerst bestimmen wir die Darstellungsma- Folglich ist das Inverse von S :
d
trix von dX anhand der Definition, also die Matrix, deren 0 1
Spalten gerade die Koordinatenvektoren bezüglich B der Bil- 0 0 0 1
B2  23 13
4C
der der Basisvektoren sind. Bei der zweiten Lösungsmethode B C
S 1 DB 3
C
bestimmen wir die Darstellungsmatrix E M . dXd d
/E von dX be- @1 1
3
 53 2A
züglich der Standardbasis, die Basistransformationsmatrix S , 1 0 2 0
deren Inverses und schließlich das Produkt der drei Matrizen:
S 1 E M . dX
d
/E S , und dies ist dann die Darstellungsmatrix Die Darstellungsmatrix von d
bezüglich der Standardbasis
dX
bezüglich der Basis B. E ist einfach zu bestimmen:
Lösung 0 1
0 1 0 0
  B0
1. Lösungsweg mit der Definition der Darstellungsmatrix: Wir d B 0 2 0C
C
bestimmen die Darstellungsmatrix B M . dX d
/B , indem wir die EM E DB C
d d d d
dX @0 0 0 3A
Bilder der Basisvektoren dX .p 1 /; dX .p 2 /; dX .p 3 /; dX .p4 /
0 0 0 0
der Reihe nach als Linearkombinationen von p 1 ; p 2 ; p 3 ; p 4
darstellen:
Damit bleibt nun folgende Rechnung auszuführen:
d
.p / D 3 X 2 C 6 D p 2 C p 3 ;
dX 1    
d d
d BM D S 1 E M S:
.p / D 2 X  1 D X C .3 X  1/ dX
B
dX
dX 2 E

1 2 1
D  .p 3  2 p 2 /  p4 D p 2  p 3  p 4 ; Wir multiplizieren zuerst die beiden hinteren Matrizen und er-
3 3 3
d halten dann
.p / D 4 X C 1 D 7 X C .3 X C 1/
dX 3 0 10 1
7 14 7 0 0 0 1 6 1 1 3
D .p 3  2 p 2 / C p 4 D  p2 C p 3 C p 4 ;   B2  2
3 3 3 d B
13
4C B
C B0 2 4 0 C
C
BM B DB 3 3
CB C
d dX @1 1
 3 2A @3 0 0 0 A
5
.p / D 3 D 9 X C .9 X  3/ 3
dX 4 1 0 2 0 0 0 0 0
D 3 .p 3  2 p 2 /  3 p 4 D 6 p 2  3 p 3  3 p 4 : „ ƒ‚ …
d
DE M . dX /E S
Folglich ist 0 1
    0 0 0 0
d d d d d B1 2
 14 6C
BM B D B .p /; B .p /; B .p /; B .p / B C
dX dX 1 dX 2 dX 3 dX 4 DB 3 3
C
@1 3 1 7
3 A
0 1 3
0 0 0 0 0 1 1 3
B1 2
 14 C
B 6 C
DB 3 3
C
@1  13 7
3
3A Natürlich erhalten wir wieder die gleiche Matrix wie beim ers-
0 1 1 3 ten Lösungsweg.
216 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Nun gehen wir von einer Folge b P D .bi /i 2N0 2 KŒŒX Für jede Basis B eines K-Vektorraums V nennt man die
aus. Zu jedem Polynom p D PniD0 ai X i 2 KŒX Menge
betrachten wir das Körperelement niD0 ai bi 2 K. Da-
durch wird eine lineare Abbildung von V D KŒX in B D fb j b 2 Bg  V
K, also eine Linearform 'b erklärt: die Dualbasis zu B, für je zwei Elemente b; b0 2 B gilt
8 
< V ! K; 0 1 ; falls b D b0 ;
'b W Pn P
n b .b / D ı b;b 0 D
0 ; sonst.
:p D ai X i 7! a i bi :
i D0 i D0
i Die Dualbasis B ist im Fall jBj D 1 keine Basis, be-
Da jede Folge .bi /i 2N0 2 KŒŒX eine solche Linear- achte das folgende Beispiel.
form liefert, erhalten wir somit eine Abbildung
 Beispiel Es sei V ein unendlichdimensionaler K-Vektor-
6 KŒŒX ! V ; raum mit der Basis B. Die Abbildung
W
.bi /i 2N0 7! '; (
V ! K;
' W P P
die linear ist. Offenbar gilt: vD b b 7! b ; ;
b2B b2B
ı ˚ D idV und ˚ ı D idKŒŒX  ; die der eindeutig bestimmten endlichen Darstellung v D
P
d. h., dass V D KŒX Š KŒŒX. Der Dualraum des b2B b b 2 PV bezüglich der Basis B die Summe der
Koeffizienten b2B b zuordnet, ist eine Linearform, d. h.
Vektorraums aller Polynome über K ist somit bis auf die
' 2 V , und es gilt:
Bezeichnung der Elemente der Vektorraum aller Folgen
( )
über K. 9 X
' … hB i D b b j b 2 K ;
b2B
Zu jeder Basis B von V gibt es
da die Summen in hB i endlich sind. Es folgt, dass B kein
eine Dualbasis B  von V  Erzeugendensystem von V ist. 9

Ist B eine Basis des K-Vektorraums V , so lässt sich jeder Im endlichdimensionalen Fall ist B aber eine Basis
Vektor v 2 V eindeutig darstellen als von V :
X
vD b b ;
b2B
Satz von der Dualbasis
Ist B eine Basis des K-Vektorraums V , so gilt:
wobei nur endlich viele der Koeffizienten b ungleich null (i) B  V ist linear unabhängig.
sind. Nun ordnen wir jedem Basiselement b 2 B eine Li- (ii) Im Fall dim V 2 N0 ist B eine Basis von V , insbe-
nearform b zu: sondere gilt V Š V .

V ! K;
b W ;
v 7! b ;
Beweis Im Fall B D ; gilt B D ;, sodass alle Behaup-
wobei b eben der Koeffizient von tungen richtig sind. Wir setzen nun B ¤ ; voraus.
P b in der eindeutig be- (i) Es seien b ; : : : ; b 2 B verschiedene Elemente der
stimmten Darstellung von v D b2B b b bezüglich der
1 n

Basis B ist. möglicherweise unendlichen Menge B und


' D 1 b1 C    C n bn D 0
Beispiel
4 Im Fall V D K3 ist .e 1 ; e 2 ; e 3 / eine geordnete Basis, mit 1 ; : : : ; n 2 K. Wir setzen auf beiden Seiten die Ba-
und es gilt: siselemente b1 ; : : : ; bn ein:
00 11 00 11 00 11
1 1 1 '.bi / D 1 b1 .bi / C    C n bn .bi / D 0.bi / D 0:
e1 @ @ 2 A A D 1; e 2 @ @2 A A D 2; e 3 @ @ 2 AA D 3 :
Wegen 1 b1 .bi /C  Cn bn .bi / D i für alle i D 1; : : : ; n
3 3 3
erhalten wir
4 Im Fall V D RŒX ist .1; X; X 2 ; : : :/ eine geordnete 1 D    D n D 0 :
Basis, und es gilt für das Polynom p D 2 C 3 X 2 :
Somit ist jede endliche Teilmenge fb1 ; : : : ; bn g von B line-
.1/ D 2 ; .X/ D 0 ; .X 2 / D 3 ; .X 3 / D 0 ; : : : 9 ar unabhängig, also auch B.
6.9  Der Dualraum
217 6
(ii) Es ist zu zeigen, dass B im Fall dim V 2 N ein Er- Jede Linearform 2 .Km / ist, wie wir in einem Beispiel
zeugendensystem von V ist. Es sei dazu ' 2 V gegeben. bereits gezeigt haben, durch einen Zeilenvektor z 2 K1 m
Für jedes b 2 B setzen wir gegeben:

b D '.b/ 2 K .v/ D z v ; d. h. D 'z :

und betrachten nun die Linearform Somit ist die zu 'A duale Abbildung 'A W .Km / ! .Kn /
X gegeben durch
D b b 2 hB i :
 n
b2B K ! K;
'A . / W
v 7! z A v:
Wenn wir zeigen, dass ' D , folgt daraus die Behaup-
tung. Für alle Elemente b0 2 B gilt:
Wir bezeichnen mit En und Em die Dualbasen zu den kano-
! nischen Basen En und Em von Kn und Km . Die i-te Spalte
X X
0 0 0
.b / D b b .b / D b b .b / der Darstellungsmatrix En M .'A /Em von 'A bezüglich die-
b2B b2B ser Dualbasen ist wegen ze i D .0; : : : ; 1; : : : ; 0/ D e >
i
D b0 D '.b0 / :
En 'A .e i / D En .e i ı 'A / D En .'e > i
ı 'A /
Somit stimmen die beiden linearen Abbildungen ' und D En .'e > A / D En .'.ai1 ::: ai n / /
auf der Basis B überein. Nach dem Prinzip der linearen 0 1
i

Fortsetzung gilt damit ' D . a i1


Da die beiden K-Vektorräume V und V die glei- B : C
D @ :: A :
che endliche Dimension haben, sind sie insbesondere
ai n
isomorph. 
Somit gilt
? Selbstfrage 6.26
Können Sie auch explizit einen Isomorphismus angeben?
En M .'A /Em D A> : 9

Zu jeder linearen Abbildung gibt es


Der Dualraum zum Dualraum ist
eine duale Abbildung
der Bidualraum
Zu jedem Vektorraum gibt es den Dualraum, zu jeder Basis
Für jeden K-Vektorraum V ist V wieder ein K-Vektor-
die Dualbasis. Es wundert nun nicht mehr, dass wir auch zu
raum. Daher können wir den Dualraum zum Dualraum V
jeder linearen Abbildung zwischen Vektorräumen eine dua-
bilden. Anstelle von .V / schreiben wir einfacher V und
le Abbildung angeben können. Zu einer linearen Abbildung
nennen diesen K-Vektorraum den Bidualraum zu V . Ein
' W V ! W erklären wir die Abbildung
Element des Bidualraums zu V ordnet damit jeder Line-
 arform ' von V jeweils ein Körperelement .'/ zu,
W !V ;
' W
7! ı ': 
V ! K;
W
Man nennt diese lineare Abbildung ' die zu ' duale Ab- ' ! .'/:
bildung.
Die duale Abbildung ' ordnet also jeder Linearform
aus W eine Linearform aus V zu. Die Linearform aus Satz vom Bidualraum
V wird dabei durch ihre Wirkung auf einen Vektor aus Es sei V ein K-Vektorraum. Die Abbildung
V definiert: ' . / angewandt auf v ist per Definitionem 8
gleich .'.v//. <V ! V
ˆ ;
(
˚W V ! K;
:̂ v 7! ˚.v/ W ' 7! '.v/
Beispiel Zu einer Matrix A 2 Km n
betrachten wir die
lineare Abbildung
 ist linear und injektiv. Im Fall dim V 2 N0 ist ˚ auch
Kn ! Km ; surjektiv und somit ein Isomorphismus.
'A W
v 7! A v:
218 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Beweis Die Abbildung ˚.v/ ist linear: Sind '; 2 V einfache Aufgaben mit wenigen Rechenschritten
und  2 K, so gilt: mittelschwere Aufgaben, die etwas Denkarbeit und
unter Umständen die Kombination verschiedener
˚.v/. ' C / D . ' C /.v/ D  '.v/ C .v/ Konzepte erfordern
D  ˚.v/.'/ C ˚.v/. / : anspruchsvolle Aufgaben, die fortgeschrittene Kon-
zepte (unter Umständen auch aus späteren Kapiteln)
Die Abbildung ˚ ist linear: Sind v; w 2 V und  2 K, so
oder eigene mathematische Modellbildung benötigen
gilt für alle ' 2 V :
˚. v C w/.'/ D '. v C w/ D  '.v/ C '.v/
D  ˚.v/.'/ C ˚.w/.'/ : Verständnisfragen
Die Abbildung ˚ ist injektiv: Es sei ˚.v/ D 0 für ein v 2
V . Dann gilt '.v/ D 0 für alle ' 2 V . Angenommen 6.1  Für welche u 2 R2 ist die Abbildung
6 v ¤ 0. Aufgrund des Basisergänzungssatzes können wir  2
die linear unabhängige Menge fvg zu einer Basis B von V R ! R2 ;
'W
ergänzen. Mit der Linearform v 2 B gilt dann v .v/ D 1 v 7! v C u
– ein Widerspruch. Somit muss v D 0 gelten. Mit dem
linear?
Injektivitätskriterium folgt hieraus die Injektivität von ˚.
Gilt darüber hinaus dim V D n 2 N0 , so erhalten wir
 lineare Abbildung ' W R ! R mit
2 2
6.2    Gibt eseine
mit obigem Satz 2 2
(a) ' D ;
dim V D dim V D dim V : 3 2
   
2 1
Somit ist die injektive Abbildung ˚ auch surjektiv.  ' D ;
0 1
   
i Im Fall dim V D 1 ist die im Satz zum Bidualraum an- 6 4
' D bzw.
gegebene injektive Abbildung ˚ nicht surjektiv, beachte 3 3
   
das folgende Beispiel. 1 2
(b) ' D ;
3 1
Beispiel Ist B eine Basis eines unendlichdimensionalen K-    
Vektorraums V , so ist B eine linear unabhängige Teilmen- 2 1
' D ;
ge von V (beachte den Satz zur Dualbasis. Wir können die 0 1
linear unabhängige Menge B mit dem Basisergänzungs-    
5 4
satz zu einer Basis von V ergänzen. Nach dem Prinzip der ' D ?
3 3
linearen Fortsetzung gibt es somit eine lineare Abbildung '
mit 6.3  Folgt aus der linearen Abhängigkeit der Zeilen
einer reellen 11 11-Matrix A die lineare Abhängigkeit
'.b / D 1 für alle b 2 B : . /
der Spalten von A?
Somit gilt ' 2 V . Angenommen, ' 2 ˚.V /. Dann exis-
tiert ein v 2 V , 6.4 
X (a) Ist das Inverse einer invertierbaren symmetrischen Ma-
vD b b ; trix wieder symmetrisch?
b2B (b) Folgt aus der Invertierbarkeit einer Matrix A stets die
mit nur endlich vielen b 2 K n f0g, mit ' D ˚.v/. Wegen Invertierbarkeit von A> ?
(c) Ist die Summe invertierbarer Matrizen stets invertier-
˚.v/.b / D b .v/ D b bar?
(d) Ist das Produkt invertierbarer Matrizen stets invertier-
nimmt ˚.v/ nur für endliche viele b von null verschiedene bar?
Werte an. Das ist ein Widerspruch zu . /. 9

Aufgaben Rechenaufgaben

Gelegentlich enthalten die Aufgaben mehr Angaben, als für 6.5  8 Welche der folgenden Abbildungen sind linear?
< R ! R
2 2
die Lösung erforderlich sind. Bei einigen anderen dage- ;
 
gen werden Daten aus dem Allgemeinwissen, aus anderen (a) '1 W v1 v2  1
: 7!
Quellen oder sinnvolle Schätzungen benötigt. v2 v1 C 2
Aufgaben
219 6
8
ˆ R2 ! R3 ; und es bezeichne dX d
W RŒX3 ! RŒX3 die Differenzia-
ˆ
<  0 1
13 v2 tion. Weiter sei E D .1; X; X 2 ; X 3 / die Standardbasis von
(b) '2 W v1
ˆ 7! @ 11 v1 A RŒX3 .
:̂ v2 d
4 v2  2 v1 (a) Bestimmen Sie die Darstellungsmatrix E M . dX /E .
8 d
ˆ R 2
! R 3
; (b) Bestimmen Sie die Darstellungsmatrix B M . dX /B
ˆ
<  0 1
v1 von dX bezüglich der geordneten Basis B D
d
(c) '3 W v1 .X 3 ; 3 X 2 ; 6 X; 6/ von RŒX3 .
ˆ 7! @ v12 v2 A
:̂ v2
v2  v1
6.11  Gegeben sind die geordnete Standardbasis E2 D
00 1 0 1 0 11
    1 1 1
6.6  Schreiben Sie die Matrix 1 0
; des R , B D
2 @ @ 1 A ; @ 1A @
; 0AA des R3
0 p 1 0 1
2  2 1 1 0 0
B p C 00 1 0 1 0 1 0 11
AD@3 1 2A 2 R 3 3 1 1 1 1
BB1C B1C B1C B0CC
1 3 2 und C D B B C B C B C B CC
@@1A ; @1A ; @0A ; @0AA des R .
4

als Summe einer symmetrischen und einer schiefsymmetri- 1 0 0 0


schen Matrix. Nun betrachten wir zwei lineare Abbildungen ' W R2 !
R und W R3 ! R4 definiert durch
3

6.7  Welche Dimensionen haben Kern und Bild der 0 1


  v1  v2
folgenden linearen Abbildung? v1
' D@ 0 A und
8 v2
2 v  v
< R ! R
2 2 1 2
;
  0 1
'W v 1 v 1 C v 2 0 0 1 1 v1 C 2 v 3
: 7! : v1
B v  v3 C
v2 v1 C v2 0 1 @@v2 AA D B 2 C
0 1 1 @ v1 C v2 A :
v
6.8  Zeigen Sie, dass für M D @1 0 1A gilt: 3
2 v1 C 3 v3
1 1 0
M n D a n M C bn E 3 Bestimmen Sie die Darstellungsmatrizen B M .'/E2 ,
C M . /B und C M . ı '/E2 .
und bestimmen Sie an und bn .
6.12  Gegeben ist eine lineare Abbildung 'W R3 ! R3.
6.9  Wir betrachten die lineare Abbildung ' W R4 ! Die Darstellungsmatrix von ' bezüglich der geordneten
R , v 7! A v mit der Matrix
4 Standardbasis E3 D .e 1 ; e 2 ; e 3 / des R3 lautet:
0 1 0 1
3 1 1 1 4 0 2
B1 3 1 1 C @
E3 M .'/E3 D 1 3 2
A 2 R3 3 :
ADB @ 1 1 3
C 1 2 1
1A
1 1 1 3 00 1 0 1 0 11
2 1 2
(a) Zeigen Sie: B D @ @ 2 A ; @ 1 A @
; 1AA ist eine geord-
Gegeben sind weiter die Vektoren
3 1 1
0 1 01 0 1
1 1 4 nete Basis des R3 .
B1 C B1C B4C (b) Bestimmen Sie die Darstellungsmatrix B M .'/B
aDB C
@1 A ; bDB
@1A
C und c D B C
@4A : und die Transformationsmatrix S mit B M .'/B D
1 1 4 S 1 E3 M .'/E3 S .

6.13  Gegeben sind zwei geordnete Basen A und B


(a) Berechnen Sie '.a/ und zeigen Sie, dass b im Kern von
des R3
' liegt. Ist ' injektiv?
00 1 0 1 0 11
(b) Bestimmen Sie die Dimensionen von Kern und Bild der 8 16 9
linearen Abbildung '. A D @@ 6 A ; @ 7 A ; @ 3 AA
(c) Bestimmen Sie Basen des Kerns und des Bildes von '. 7 13 7
(d) Bestimmen Sie die Menge L aller v 2 R4 mit '.v/ D c. 00 1 0 1 0 11
1 3 2
6.10  Wir betrachten den reellen Vektorraum RŒX3 B D @@ 2 A ; @ 1 A ; @ 1 AA
aller Polynome über R vom Grad kleiner oder gleich 3, 1 2 2
220 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

und eine lineare Abbildung ' W R3 ! R3 , die bezüglich 6.17  Gegeben ist eine lineare Abbildung 'W R2 ! R2
der Basis A die folgende Darstellungsmatrix hat mit ' ı ' D idR2 (d. h., für alle v 2 R2 gilt '.'.v// D v/,
aber ' ¤ ˙idR2 (d. h. ' … fv 7! v; v 7! vg). Zeigen
0 1
1 18 15 Sie:
A M .'/A D
@ 1 22 15A (a) Es gibt eine Basis B D fb1 ; b2 g des R2 mit '.b1 / D b1 ,
1 25 22 '.b2 / D b2 .
(b) Ist B 0 D fa1 ; a2 g eine weitere Basis mit der in (a) ange-
(a) Bestimmen Sie die Darstellungsmatrix B M .'/B von ' gebenen Eigenschaft, so existieren ;  2 R n f0g mit
bezüglich der geordneten Basis B. a1 D  b1 , a2 D  b2 .
(b) Bestimmen Sie die Darstellungsmatrizen A M .'/B und
6.18  Es seien K ein Körper und n 2 N. In dem
B M .'/A .
K-Vektorrraum V D Kn seien die Unterräume U D
hu1 ; : : : ; ur i und W D hw1 ; : : : ; w t i gegeben. Weiter seien
6 6.14  Es bezeichne 4W RŒX4 ! RŒX4 den durch
m D r C t und
4.f / D f .X C 1/  f .X/ erklärten Differenzenopera-
tor. 0 1
u1 u1
(a) Zeigen Sie, dass 4 linear ist, und berechnen Sie die B : :: C
Darstellungsmatrix E M .4/E von 4 bezüglich der ka- B :: :C
B C
nonischen Basis E D .1; X; X ; X ; X / von RŒX4
2 3 4 B C
B ur ur C
ADB C 2 Km 2n
sowie die Dimensionen des Bildes und des Kerns Bw1 0 C
von 4. B : :: C
B : C
(b) Zeigen Sie, dass @ : :A
wt 0

X.X  1/ X.X  1/.X  2/
B D 1; X; ; ; (wobei die ui ; wi als Zeilen geschrieben sind). Zeigen Sie:
2 6
 Bringt man A durch elementare Zeilenumformungen auf
X.X  1/.X  2/.X  3/ die Form
24 0 1
v1 ?
eine geordnete Basis von RŒX4 ist, und berechnen Sie B: :: C
B :: : C
die Darstellungsmatrix B M .4/B von 4 bezüglich B. B C
Bv ? C
(c) Angenommen, Sie sollten auch noch die Darstellungs- 0 B l C
A DB
y1 C
;
matrizen der Endomorphismen 42 , 43 , 44 , 45 berech- B0 C
B: C
nen – es bedeutet hierbei 4k D „
4 ı ƒ‚
ı4 B: :: C
… – Ihnen sei @: : A
k-mal 0 y ml
dafür aber die Wahl der Basis von RŒX4 freigestellt.
Welche Basis würden Sie nehmen? Begründen Sie Ihre wobei v ; : : : ; v paarweise verschieden und linear unab-
1 l
Wahl. hängig sind, so ist fv ; : : : ; v g eine Basis von U C W
1 l
und hy 1 ; : : : ; y ml i D U \ W . Zeigen Sie weiter: Ist
dim.U / D r und dim.W / D t, so ist fy 1 ; : : : ; y ml g ei-
Beweisaufgaben ne Basis von U \ W .

6.15  Es seien K ein Körper, V ein endlichdimensio- 6.19  Bestimmen Sie eine Basis von U \ W . Dabei
naler K-Vektorraum, '1 ; '2 2 EndK .V / mit '1 C'2 D idV . seien die beiden Untervektorräume
Zeigen Sie:
U D h.0; 1; 0; 1/> ; .1; 0; 1; 2/>; .1; 2; 0; 1/> i
(a) dim.Bild '1 / C dim.Bild '2 /  dim.V /.
(b) Falls „D“ in (a) gilt, so ist W D h.1; 0; 1; 0/> ; .1; 0; 1; 1/> ; .2; 0; 1; 0/> i

'1 ı '1 D '1 ; des R-Vektorraums V D R4 gegeben.


'2 ı '2 D '2 ;
6.20  Für A; B 2 Kn n
sei En  A B invertierbar.
'1 ı '2 D '2 ı '1 D 0 2 EndK .V /: Zeigen Sie, dass dann auch En  B A invertierbar ist und
bestimmen Sie das Inverse.
6.16  Wenn A eine linear unabhängige Menge eines
K-Vektorraums V und ' ein injektiver Endomorphismus 6.21  Es sei A 2 Km n und B 2 Kn p . Zeigen Sie:
von V ist, ist dann auch A0 D f'.v/ j v 2 Ag linear unab-
hängig? rg.A B/ D rg.B/  dim.ker A \ Bild B/ :
Antworten zu den Selbstfragen
221 6
6.22  Zeigen Sie: Sind A und A 0 zwei n n-Matrizen vAntwort 6.9
über einem Körper K, so gilt Nein, man beachte die Dimensionsformel: Ist ' surjektiv,
so gilt dim.'.R11 // D 7. Wäre dim.' 1 .f0g// D 5, so
A A 0 D En ) A 0 A D En : folgte mit der Dimensionsformel 11 D 5 C 7, ein Wider-
spruch.
Insbesondere ist A 0 D A 1 das Inverse der Matrix A.
vAntwort 6.10
Ja. Die Darstellungsmatrix ist dann eine Spalte, wenn man
Antworten zu den Selbstfragen eine Abbildung vom eindimensionalen K-Vektorraum K
in einen n-dimensionalen K-Vektorraum hat, z. B.
0 1
v Antwort 6.1 v
 v / D  '.v/ wäre bei verschie- B 0C
Die Gleichung '.„ƒ‚… B C
„ƒ‚… ' W v 7! B C
2V 2W B :: C :
@:A
denen Körpern nicht immer sinnvoll. Wäre etwa V ein C-
Vektorraum und W ein R-Vektorraum, so würde  D i 0
die Homogenität unmöglich machen. Und sie ist dann eine Zeile, wenn man eine Abbildung
von einem n-dimensionalen K-Vektorraum in den eindi-
v Antwort 6.2 mensionalen K-Vektorraum K hat, z. B.
Ja, man schreibe v  w D v C .1/ w. 0 1
v1
B:C
v Antwort 6.3 B
' W @ :: C
A 7! v1 :
Ja, man wähle die lineare Fortsetzung von  mit .e 1 / D
vn
e 2 und .e 2 / D 0.
vAntwort 6.11
v Antwort 6.4 Dort sind V D Kn , W D Km und B und C die jeweiligen
Ja, beachte den Satz zur Komposition bijektiver Abbildun- Standardbasen.
gen.
vAntwort 6.12
v Antwort 6.5 Der Kern ist der eindimensionale Untervektorraum hni
Das Inverse ist ' 1 ı 1
wegen ' 1 ı 1
ı ı ' D id D des R3 , und das Bild ist die zweidimensionale Ebene E
ı ' ı ' 1 ı 1 . als Untervektorraum des R3 .

v Antwort 6.6 vAntwort 6.13


!
v1 Das bedeutet, dass C D B gilt.
Es sei 2 R2 . Dann gilt:
v2
vAntwort 6.14
00 11 Wegen der obigen Isomorphie HomK .V; W / Š Km n
gilt
v1  v2 !
BB CC v1
dim HomK .V; W / D dim Km n
D m n D dim V dim W :
' @@ v2 AA D ;
v2
0
vAntwort 6.15
somit gilt '.R / D R .
3 2 Nein. Es reicht A 2 Km n
und B 2 Kn m
.

vAntwort 6.16
v Antwort 6.7 Weil sonst das Produkt nicht definiert ist.
Im endlichdimensionalen Fall schon, als Maß scheint die
Dimension zu dienen. Dass dem tatsächlich so ist, wird vAntwort 6.17 ! !
die Dimensionsformel zeigen. 1 0 0 0
Nein, wir wählen A D ,B D und C D
0 0 1 0
!
v Antwort 6.8 0 0
Die erste Abbildung ist injektiv. Die zweite Abbildung . Hiermit gilt
1 1
ist im Fall V D f0g injektiv, im Fall V ¤ f0g ist sie
nicht injektiv. Die dritte Abbildung ist nicht injektiv. Die A C D 0 D B C und A ¤ B :
vierte Abbildung ist im Fall rg A D n injektiv, im Fall
rg A ¤ n ist sie nicht injektiv. Die fünfte Abbildung ist vAntwort 6.18
nicht injektiv. Man betrachte jeweils den Kern der linea- Ja, das folgt aus der eben bewiesenen Regel zum Transpo-
ren Abbildung. nieren.
222 Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

v Antwort 6.19 vAntwort 6.24


Wegen Nur En selbst, da für jedes invertierbare S 2 Kn n
gilt:

'A ı 'B D 'A B S 1 En S D En :


ist
vAntwort 6.25
1
'A B D '.A B/1 D 'B 1 A 1 D 'B 1 ı 'A 1 Eine Matrix ist genau dann invertierbar, wenn die Spalten-
vektoren linear unabhängig sind. Damit hat man für die
die Umkehrabbildung. erste Spalte die drei möglichen vom Nullvektor verschie-
denen Vektoren des Z22 zur Auswahl. Für die zweite Spalte
v Antwort 6.20
hat man jeweils noch zwei mögliche, von der ersten Spalte
Nein. E2 und E2 sind invertierbar, die Summe aber nicht.
linear unabhängige Vektoren zur Auswahl. Insgesamt er-
hält man die angegebenen sechs Matrizen, die invertierbar
6 v Antwort 6.21
sind.
Die dritte Zeile.

v Antwort 6.22 vAntwort 6.26


An der Stelle .1; 2/ – es geht aber auch die Stelle .3; 2/. Es ist
(
V !V ;
v Antwort 6.23 ˚W P P
2 b b 7! b b
Weil P bedeutet, dass zwei Mal vertauscht wird, damit b2B b2B
wird die ursprüngliche Vertauschung gerade rückgängig
gemacht. ein Isomorphismus.
223 7

Determinanten – Kenngrößen
von Matrizen

Inhaltsverzeichnis

7.1 Die Definition der Determinante – 224

7.2 Determinanten von Endomorphismen – 230

7.3 Berechnung der Determinante – 231

7.4 Anwendungen der Determinante – 237

Aufgaben – 245

Antworten zu den Selbstfragen – 246

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_7
224 Kapitel 7  Determinanten – Kenngrößen von Matrizen

n Sie finden unter anderem Antworten zu . . . Beispiel vor Augen zu haben, kann man sich für R den Ring
4 Wie lautet die Leibniz’sche Formel? Z der ganzen Zahlen oder auch einen der vertrauten Körper
4 Wie kann man entscheiden, ob eine Matrix invertier- R oder C vorstellen. Wesentlich wird später das Beispiel
bar ist? R D KŒX aus Kapitel 3 sein – der (kommutative) Poly-
4 Was ist eine Multilinearform? nomring über einem Körper K.

Zu jeder quadratischen Matrix A über einem Körper K gibt


es eine Kenngröße – ihre Determinante. Diese Zahl aus K Die Elemente aus Sn sind die Permutationen
gibt Aufschluss über Eigenschaften der Matrix. So ist etwa der Zahlen 1; : : : ; n
eine Matrix A genau dann invertierbar, wenn ihre Determi-
nante von null verschieden ist. Und genau diese Eigenschaft
ist es, welche die Determinante so wertvoll macht. Wir erinnern kurz an die symmetrische Gruppe .Sn ; ı/ aller
Die Determinante hat viele weitere Anwendungen. Mit Bijektionen der endlichen Menge
ihrer Hilfe kann man lineare Gleichungssysteme lösen, das
Inverse einer Matrix bilden, n-dimensionale Volumina be- In D f1; : : : ; ng  N :
7 rechnen, und selbst beim Interpolationsproblem liefert sie
Die Menge Sn ist gegeben durch:
eine Existenz- und Eindeutigkeitsaussage. Aber tatsächlich
sind diese Anwendungen im Allgemeinen mit effizienteren
Methoden realisierbar. Der Nutzen der Determinante in- Sn D f W In ! In j  ist bijektivg :
nerhalb der linearen Algebra liegt im Wesentlichen in der
Bestimmung der Eigenwerte einer Matrix – das ist ein The- Die Elemente von Sn nennt man Permutationen. Die
ma des nächsten Kapitels. Die Determinante wird uns auch Verknüpfung ı der Gruppe Sn ist die Hintereinanderaus-
in der Analysis wieder begegnen, sie ist etwa bei der mehr- führung der Permutationen
dimensionalen Integration eine Art Skalierungsfaktor bei 
In ! In
der Koordinatentransformation. ı W
Wir definieren die Determinante durch eine explizite i 7! . .i//
Formel – die sogenannten Leibniz’sche Formel. Diese For-
mel ist – außer für die Fälle von zwei- und dreireihigen Jede Permutation  2 Sn lässt sich übersichtlich in der
Matrizen – für die Berechnung ungeeignet, da die Zahl der Form
zu addierenden Ausdrücke mit der Reihenzahl der Matrix
enorm schnell wächst. Wir leiten Methoden und Formeln  W .1; 2; : : : ; n/ 7! . .1/;  .2/; : : : ;  .n//
her, die es gestatten, die Determinante einer n n-Matrix
darstellen. Links stehen die Elemente von In in der na-
für n 2 N auf die Bestimmung der Determinanten einer
türlichen Reihenfolge und rechts die jeweiligen Bilder der
Summe von .n  1/ .n  1/-Matrizen zurückzuführen. So
Elemente aus In unter der Bijektion  , also alle n Elemente
fortfahrend gelangen wir zu der Aufgabe, Determinanten
aus In in der durch  festgelegten Reihenfolge.
von möglicherweise zahlreichen 2 2-Matrizen zu berech-
Weil  eine Bijektion ist, hat man nach Festlegung von
nen. Durch trickreiches Rechnen bleibt die Bestimmung der
 .1/ 2 f1; : : : ; ng für das Element  .2/ die n  1 verschie-
Determinante auch einer großen Matrix übersichtlich.
denen Möglichkeiten aus f1; : : : ; ngnf .1/g. So fortfahrend
erkennt man:
7.1 Die Definition der Determinante

Wir untersuchen quadratische Matrizen über einem Körper Die Mächtigkeit der symmetrischen Gruppe
K genauer und ordnen jeder solchen quadratischen Matrix Die symmetrische Gruppe hat n Š Elemente, d. h.,
A 2 K n n
ein Element aus K zu – ihre sogenannte De-
terminante det A. Diese Kenngröße det A gibt Aufschluss jSn j D n Š
über Eigenschaften der Matrix A. So ist etwa A genau dann
invertierbar, wenn det A ¤ 0 gilt.
Weil es für spätere Zwecke sinnvoll ist, führen wir De- Beispiel
terminaten nicht nur für Matrizen über einem Körper K 4 Die Elemente aus S2 sind
ein. Wir behandeln etwas allgemeiner Matrizen über einem
kommutativen Ring R mit einem Einselement 1. Der Fall, id D 1 W .1; 2/ !7 .1; 2/ ; 2 W .1; 2/ 7! .2; 1/ :
dass R sogar ein Körper ist, ist ein Spezialfall, da jeder Kör-
per insbesondere ein kommutativer Ring ist. Es gilt:
In diesem Kapitel bezeichne R stets einen kommuta-
tiven Ring mit einem Einselement 1. Um ein konkretes 2 ı 2 W .1; 2/ 7! .1; 2/ ; also 2 ı 2 D id :
7.1  Die Definition der Determinante
225 7
4 Die Elemente aus S3 lauten bestimmen. Es gilt nämlich:

1 W .1; 2; 3/ 7! .1; 2; 3/ ; 2 W .1; 2; 3/ 7! .2; 3; 1/ ; sgn. / D .1/f :


3 W .1; 2; 3/ 7! .3; 1; 2/ ; 4 W .1; 2; 3/ 7! .3; 2; 1/ ; Dabei spricht man vom Fehlstand . .i/;  .j //, wenn für
5 W .1; 2; 3/ 7! .2; 1; 3/ ; 6 W .1; 2; 3/ 7! .1; 3; 2/ : das Paar .i; j / von Indizes aus In einerseits i < j und
andererseits  .i / >  .j / gilt.
Z. B. gilt: Eine Permutation aus Sn , die zwei verschiedene Zahlen
i und j aus In vertauscht und alle anderen Zahlen festlässt
4 .5 .1// D 4 .2/ D 2 ;
4 .5 .2// D 4 .1/ D 3 ; W .: : : ; i  1; i; i C 1; : : : ; j  1; j ; j C 1; : : :/
4 .5 .1// D 4 .3/ D 1 : 7! .: : : ; i  1; j ; i C 1; : : : ; j  1; i; j C 1; : : :/

Damit erhalten wir: nennt man Transposition. Wir zählen die Fehlstände einer
solchen Transposition:
4 ı 5 W .1; 2; 3/ 7! .2; 3; 1/ ; also 4 ı 5 D 2 : 4 Es ist .j; i/ ein Fehlstand.
4 Jedes Paar .j; a/ mit i C1  a  j 1 ist ein Fehlstand.
Man beachte die Reihenfolge. Wir berechnen als weite- 4 Jedes Paar .a; i/ mit i C1  a  j 1 ist ein Fehlstand.
res Beispiel
Weitere Fehlstände gibt es nicht. Damit haben wir genau
2 ı 3 W .1; 2; 3/ 7! .1; 2; 3/ ; also 2 ı 3 D 1 :
2 .j i 1/C1 Fehlstände. Folglich hat jede Transposition
4 Die Menge S4 enthält bereits 4 Š D 24 Elemente. 9 das Signum 1 – eine solche hat nämlich eine ungerade
Anzahl von Fehlständen.
In 7 Kap. 2 haben wir jeder Permutation  2 Sn das soge- Die geraden Permutationen sind jene mit positivem Si-
nannte Signum zugeordnet, gnum, wir schreiben
Y  .j /   .i / An D f 2 Sn j sgn. / D C1g
sgn  D ;
i <j
j i und nennen die Gruppe An die alternierende Gruppe vom
Grad n.
und bereits gezeigt, dass die Abbildung
?Selbstfrage 7.2
sgnW Sn ! f1; 1g Wieso ist An eine Gruppe?
ein Homomorphismus ist, d. h., Die ungeraden Permutationen sind jene Permutationen mit
sgn. ı  / D sgn. /  sgn. / für alle ;  2 Sn : negativem Signum, es gilt
Sn D An [ ı An
? Selbstfrage 7.1
Warum gilt für jede ungerade Permutation .

sgn. 1 / D sgn./
Die Determinante einer Matrix A ist
für jedes  2 Sn ?
eine Differenz von Summen von Produkten
Beispiel Wir bestimmen das Signum einiger Elemente aus von Einträgen von A
S2 und S3 :
21
 W .1; 2/ 7! .1; 2/ ) sgn D D 1; Wir definieren die Determinante einer Matrix A D .aij / 2
21 Rn n durch die sogenannte Leibniz’sche Formel:
12
 W .1; 2/ 7! .2; 1/ ) sgn D D 1;
21
312123
 W .1; 2; 3/ 7! .1; 3; 2/ ) sgn D Definition der Determinante
213132 Für jede quadratische Matrix A 2 Rn n
mit Einträgen aus
D 1; einem kommutativen Ring R heißt
321213
 W .1; 2; 3/ 7! .2; 3; 1/ ) sgn D X Y
n
213132 det.A/ D sgn./ ai .i/
D 1: 9 2Sn iD1

Wie in 7 Kap. 2 gezeigt, kann man das Signum einer Per- die Determinante von A.
mutation  2 Sn durch die Anzahl f der Fehlstände
226 Kapitel 7  Determinanten – Kenngrößen von Matrizen

Anstelle von det.A/ schreibt man auch etwas kürzer det A sgn.1 / D 1, sgn.2 / D 1, sgn.3 / D 1, sgn.4 / D 1,
oder jAj. sgn.5 / D 1, sgn.6 / D 1 für jede Matrix A D
Die Formel wirkt sehr kompliziert. Daher ist es ange- .aij / 2 R3 3 gilt:
bracht, auf die einzelnen Symbole und Details einzugehen:
4 Ist  2 Sn , so ist  .i / 2 f1 : : : ; ng, und ai  .i / ist der X Y
n
det.aij / D sgn  ai  .i /
Eintrag an der Stelle .i;  .i// der Matrix A.
 2S3 i D1
4 QIst  2 Sn , so wird bei den Faktoren des Produkts
n D a11 a22 a33 C a12 a23 a31 C a13 a21 a32
i D1 ai  .i / aus jeder Zeile der Matrix A genau ein Ele-
ment ausgewählt.  .a13 a22 a31 C a23 a32 a11 C a33 a12 a21 /: 9
4 Die Summe wird über alle möglichen Permutationen 
Kommentar Bereits bei n D 4 besteht die Formel aus
der Menge In D f1; : : : ; ng gebildet.
4 Wegen jSn j D n Š besteht die Summe det.A/ aus n Š 4 Š D 24 Summanden, und jeder Summand enthält vier
Summanden. Faktoren. Wegen des hohen Rechenaufwands eignet sich
4 Bildet man die Summen über die geraden und ungera- diese Formel kaum für Berechnungen der Determinanten
den Permutationen getrennt, so erhält man mehrreihiger Matrizen. Selbst Computer-Algebra-Systeme
benutzen andere Methoden.
7
XY
n X Y
n
det.A/ D ai  .i /  Die Formel zur Berechnung der Determinante einer 2
ai  .i / :
 2An i D1 2-Matrix kann man sich leicht merken. Die Determinante
 2Sn nAn i D1
ist die Differenz der Produkte der Diagonalen, kurz Haupt-
4 Wenn wir die n Š Permutationen aus Sn durchnumme- diagonale minus Nebendiagonale:
rieren,
a11 a12 C
a11 a12
Sn D f1 ; : : : ; nŠ g ; D
a21 a22 a21 a22
so können wir die Summenformel für die Determinante
auch wie folgt schreiben: Auch die Formel zur Berechnung der Determinante einer
3 3-Matrix kann man schematisch darstellen mit der Regel
XnŠ Y
n von Sarrus
det.A/ D sgn.k / ai k .i / C C C
kD1 i D1 a11 a12 a13 a13 a11 a12 a13 a11
Y
n Y
n a21 a22 a23 D a23 a21 a22 a23 a21
D sgn.1 / ai 1 .i / C    C sgn.nŠ / ai nŠ .i / a31 a32 a33
a33 a31 a32 a33 a31
i D1 i D1
D sgn.1 /a11 .1/    an1 .n/ C    i Für die Berechnung von 4- oder mehrreihigen Determi-
C    C sgn.nŠ /a1nŠ .1/    annŠ .n/ : nanten gibt es keine ähnlich einfachen Merkregeln. Man
berechnet 4- oder mehrreihige Determinanten mit Metho-
Beispiel den, die wir erst noch auf den folgenden Seiten entwickeln
4 Im Fall n D 1 gilt S1 D fid g, sodass wegen werden.
sgn.id / D 1 für jede Matrix A D .a11 / 2 R1 1 gilt:
Beispiel
X Y
1 4 Für die Einheitsmatrix E2 aus Z2 2 gilt:
det.A/ D sgn. / ai  .i / D 1  a11 D a11 : ˇ ˇ
ˇ1 0ˇ
 2S1 i D1 det.E2 / D ˇˇ ˇ D 1 1 00 D 1:
0 1ˇ
4 Im Fall n D 2 gilt S2 D fid D 1 ; 2 g, sodass wegen !
sgn.1 / D 1 und sgn.2 / D 1 für jede Matrix A D 2 3
4 Für die Matrix 2 Z25 2 gilt:
.aij / 2 R2 2 gilt: 1 4
ˇ ˇ
X Y
1 ˇ2 3ˇ
ˇ ˇ
det.A/ D sgn. / ai  .i / ˇ ˇ D 2  4  3  1 D 5 D 0:
ˇ1 4ˇ
 2S2 i D1

D 1  a11 a22 C .1/  a12 a21  


i 4
4 Für die Matrix 2 C 2 2 gilt:
D a11 a22  a12 a21 : 0 1
ˇ ˇ
4 Im Fall n D 3 gilt S3 D f1 ; : : : 6 g (wir verwenden ˇ i 4ˇ
ˇ ˇ
die Nummerierung aus obigem Beispiel), sodass wegen ˇ0 1ˇ D i  .1/  .4/  0 D i :
7.1  Die Definition der Determinante
227 7
4 Für die Einheitsmatrix E3 aus Z3 3
gilt: den Zeilen Spalten und aus den Spalten Zeilen werden,
ˇ ˇ erschlagen wir dadurch zwei Fliegen mit einer Klappe:
ˇ1 0 0ˇ Aussagen über die Determinante, die für die Zeilen einer
ˇ ˇ
det.E3 / D ˇˇ0 1 0ˇˇ Matrix gelten, gelten dann automatisch auch für die Spal-
ˇ0 0 1ˇ ten der Matrix, wir merken uns:
D111C000C000
 .0  1  0 C 0  0  1 C 1  0  0/ D 1 : Die Determinante einer transponierten Matrix
0 1 Für jede quadratische Matrix A 2 Rn n
gilt:
1 4 6
4 Für die Matrix @0 2 5A 2 R3 3
gilt: det.A/ D det.A > / :
0 0 3
ˇ ˇ
ˇ1 4 6ˇ Beweis Wir setzen A > in die Definition der Determinante
ˇ ˇ
ˇ0 2 5ˇ D 1  2  3 C 4  5  0 C 6  0  0 ein und beachten, dass das Transponieren das Vertauschen
ˇ ˇ
ˇ0 0 3ˇ
 .6  2  0 C 5  0  1 C 3  4  0/ D 6 : von Zeilen- und Spaltenindex ist:

0 1 X Y
n
2 3 4 det.A > / D sgn. / a .i / i :
4 Für die Matrix @4 6 4 A 2 R3 3
gilt:  2Sn i D1
0 0 12 Q Q
Nun beachten wir, dass niD1 a .i / i D niD1 ai  1 .i / gilt,
ˇ ˇ da a .i / i D aj  1 .j / für  .i / D j , d. h., dass die Produkte
ˇ 2 3 4 ˇ
ˇ ˇ über die gleichen Faktoren gebildet werden, nur sind diese
ˇ4 6 4 ˇˇ D 2  6  12 C .3/  4  0 C 4  .4/  0
ˇ einmal nach den Spaltenindizes geordnet und das andere
ˇ0 0 12ˇ  .4  6  0 C 4  0  2 Mal nach den Zeilenindizes. Aus obiger Gleichung erhalten
C 12  .3/  .4// D 0 : 9 wir
X Y
n X Y
n

? Selbstfrage 7.3 sgn. / a .i / i D sgn. / ai  1 .i / :


Gibt es für obere und untere 3 3-Dreiecksmatrizen, also  2Sn i D1  2Sn i D1
für Matrizen der Form
Die Summe wird über alle  2 Sn gebildet. Da mit  auch
0 1 0 1  1 die Gruppe Sn durchläuft und sgn. / D sgn. 1 / gilt,
0 0
B0 C B 0C
erhalten wir weiter
@ A und @ A
0 0 X Y
n X Y
n
sgn. / ai  1 .i / D sgn. 1 / ai  1 .i / :
eine einfache Formel zur Berechnung der Determinante?  2Sn i D1  1 2Sn i D1

Nun benennen wir den Summationsindex um,


Ist A D .aij / 2 Rn n eine Diagonalmatrix, also aij D 0
für alle i ¤ j , so liefert die Leibniz’sche Formel X Y n X Y n
1
sgn. / a i  1 .i / D sgn. / ai .i / :
nur höchstens
Qn einen von null verschiedenen Summanden
 1 2Sn i D1 2Sn i D1
sgn. / i D1 ai  .i / , nämlich jenen mit  .i / D i, also
 D id In . Damit ist die Determinante einer Diagonalma- Der letzte Ausdruck ist die Leibniz’sche Formel für die De-
trix gleich dem Produkt der Diagonalelemente terminante von A:
X Y
n
det .diag.a11 ; : : : ; ann // D a11 a22 : : : ann : sgn. / ai D det.A/ :
.i /
2Sn i D1
Insbesondere ist det.En / D 1 für jedes n 2 N.
Damit ist det.A > / D det.A/ begründet. 

Die Determinante einer Matrix ändert sich


nicht durch Transponieren Vertauscht man zwei Zeilen oder Spalten,
so wird die Determinante negativ
Es wird sich als sehr nützlich erweisen, dass die Deter-
minante einer Matrix sich nicht durch das Transponieren In den weiteren Beweisen werden wir gelegentlich vor dem
ändert, det.A/ D det.A > /. Da beim Transponieren aus folgenden Problem stehen: Wir kennen die Determinante
228 Kapitel 7  Determinanten – Kenngrößen von Matrizen

einer Matrix A 2 Rn n . Und nun permutieren wir die Spal-


ten von A und erhalten dadurch eine Matrix B: Regeln für die Determinante
4 Entsteht die Matrix B aus der Matrix A 2 Rn n
A D .s1 ; s2 ; : : : ; sn / ! B D .s4 ; sn ; : : : ; s1 / :
durch Vertauschen zweier Zeilen oder Spalten, so gilt
Was ist die Determinante von B? Zu dieser Vertauschung det.B/ D  det.A/.
von Spalten gehört genau eine Permutation  2 Sn der Zah- 4 Hat eine Matrix A 2 Rn n zwei gleiche Zeilen oder
len f1; : : : ; ng, es ist Spalten, so ist ihre Determinante null.

B D .s .1/ ; : : : ; s .n/ / :


Der Beweis der zweiten Aussage scheint mithilfe der ers-
Wir zeigen nun det.B/ D sgn. / det.A/: ten Aussage sehr einfach zu sein: Hat die Matrix A etwa
zwei gleiche Spalten, so gilt nach Vertauschen dieser bei-
Lemma Gegeben seien eine Matrix A D .aij / 2 Rn n und den Spalten nach der ersten Aussage:
eine Permutation  2 Sn . Dann gilt für die Determinante
der Matrizen B D .bij / mit bij D ai  .j / und C D .cij / det.A/ D  det.A/ :
7 mit cij D a .i / j :
Und hieraus, so könnte man meinen, kann man det.A/ D 0
det.B/ D sgn. / det.A/ ; folgern. Tatsächlich geht das aber nur, falls 1 ¤ 1 in R
det.C / D sgn. / det.A/ : gilt. Den Fall eines Rings mit 1 D 1 hat man dann aber
nicht berücksichtigt. Wir führen nun einen Beweis, der auch
Man beachte, dass die Matrix B aus der Matrix A durch diesen Fall einschließt.
Vertauschen von Spalten gemäß der Permutation  hervor-
geht, die Matrix C wird analog aus A durch Vertauschen Beweis Wir begründen die Behauptung nur fürn zwei glei-
von Zeilen gebildet. che Spalten einer Matrix A D .a ij /i;j 2 R n
. Durch
Übergang zum Transponierten A > erhält man die Behaup-
Beweis Wir bestimmen die Determinante der Matrix B
tung dann für die Zeilen.
mit der Leibniz’schen Formel. Dabei benutzen wir ähnliche Bei der Matrix A seien die k-te und j -te Spalte gleich,
Schlüsse wie im letzten Beweis: d. h. aij D ai k für j ¤ k und i D 1; : : : ; n. Mit bezeich-
nen wir die Transposition aus Sn , die die Zahlen j und k
X Y n
vertauscht, .j / D k, .k/ D j und .i/ D i für alle i 2
det.B/ D sgn. / bi .i / f1; : : : ; ng n fj; kg. Es gilt sgn. / D 1. Es ist dann Sn die
2Sn i D1
disjunkte Vereinigung von An D f 2 Sn j sgn. / D 1g
X Y n
und ı An :
D sgn. / ai  . .i //
2Sn i D1 Sn D An [ ı An :
WD ı X Y n
D sgn. 1 ı / ai .i / Wegen ai l D ai .l/ für alle i; l 2 f1; : : : ; ng gilt nun mit
2Sn i D1 der Leibniz’schen Formel
X Y n
X Y
n
D sgn. 1 / sgn./ ai .i / det.A/ D sgn. / ai  .i /
2Sn i D1  2An i D1
Y
n 
X Y
n
C sgn. ı  / ai
D sgn. 1 / sgn./ ai .i / . .i //
i D1
i D1
2Sn
X Y
n Y
n 
1
D sgn. / det.A/ D sgn. / ai  .i /  ai . .i // D 0:
D sgn. / det.A/ :  2An i D1 i D1

Das ist die Behauptung. 


Wegen det.A/ D det.A > / gilt die Aussage ebenso für die
Zeilen. 
Die Determinante eines Produkts von
Dieses Lemma wird uns mehrfach von großem Nutzen sein.
Wir untersuchen den speziellen Fall einer Transposition
Matrizen ist das Produkt der Determinanten
2 Sn . Weil eine Transposition aus Sn nur zwei der Zah-
len f1; : : : ; ng vertauscht und alle anderen festlässt und das Wir stehen immer noch vor dem großen Problem, die De-
Signum einer Transposition 1 ist, liefert das obige Lemma terminante einer großen Matrix auszurechnen. Wenn wir
die erste der folgenden beiden Regeln: erkennen, dass zwei Zeilen oder Spalten gleich sind, so
7.1  Die Definition der Determinante
229 7
sind wir mit dem letzten Ergebnis einen Schritt weiter, die Einsetzen von A B D .cij / in die Leibniz’sche For-
(i)
Determinante ist dann null. Aber das sind natürlich sehr mel.
spezielle Matrizen. Der sogenannte Determinantenmultipli- (ii) Einsetzen der Darstellung der cij Q (siehe oben).
kationssatz wird uns ein ganz wichtiges Hilfsmittel bei der (iii) PAusmultiplizieren des Produkts niD1 Ai mit Ai D
n
Berechnung der Determinante allgemeiner Matrizen sein. kD1 ai k bk  .i / .
Der Satz hat neben der Berechnung von Determinanten (iv) Ändern der Reihenfolge der Summen- und Produkt-
auch wesentliche theoretische Bedeutung. bildung.
Qn
(v) Da P i D1 ai ki unabhängig Qn von  2 Sn ist, können wir
 2Sn sgn. / und a
i D1 i ki vertauschen.
Determinantenmultiplikationssatz (vi) Der hintere Teil der Formel ist die Leibniz’sche For-
Sind A; B 2 Rn n , so gilt: mel für det..bkj l /j;lD1;:::;n /.
(vii) Wegen obiger zweiter Determinantenregel gilt
det.A B/ D det.A/ det.B/: det..bkj l /j;lD1;:::;n / D 0, falls k1 ; : : : ; kn nicht von-
einander verschieden
P sind. Daher müssen wir bei
Die Determinante eines Produkts von Matrizen ist das der Summe nk1 ;:::;kn D1 nur diejenigen k1 ; : : : ; kn be-
Produkt der Determinanten. rücksichtigen, die voneinander verschieden sind. Die
Zahlen k1 ; : : : ; kn sind dann alle Zahlen von 1 bis n.
Daher erhalten wir durch die Festlegung .i/ D ki
Beweis Die Einträge der Matrizen A, B und A B seien eine Permutation 2 Sn .
(viii) Die Matrix .b .j / l /j;lD1;:::;n geht aus der Matrix B
A D .aij / ; B D .bij / ; A B D .cij / durch Vertauschen der Spalten gemäß der Permu-
X n tation hervor. Daher können wir obiges Lemma
mit cij D ai k bkj : anwenden: det..b .j / l /j;lD1;:::;n / D sgn. / det.B/.
kD1 (ix) Der vordere Teil der Formel ist die Leibniz’sche For-
Nun setzen wir das Produkt A B in die Leibniz’sche For- mel für det.A/. 
mel für die Determinante ein und zeigen durch einige
Umformungen, dass dies genau die Formel für das Pro- Durch mehrfaches Anwenden des Determinantenmultipli-
dukt der Determinanten von A und B ist. Unterhalb der kationssatzes erhalten wir:
Rechnung erfolgen kurze Erläuterungen zu den benutzten
Umformungen: Folgerung Für jede Matrix A 2 Rn n und jedes k 2 N
gilt:
.i/ X Y n
det.A B/ D sgn. / ci  .i /
det.A k / D .det A/k :
 2Sn i D1
!
.ii/ X Y X
n n
D sgn. / ai k bk  .i / Ist R D K ein Körper, so folgt insbesondere aus A k D 0
 2Sn i D1 kD1
sofort det A D 0, weil ein Produkt von Körperelementen
nur dann 0 ist, wenn einer der Faktoren 0 ist.
.iii/ X X Y
n n
 
D sgn. / ai ki bki  .i /
 2Sn k1 ;:::;kn D1 i D1 Beispiel Für die Matrix

.iv/ X
n X Y
n Y
n
0 1
D sgn. / ai ki bkj  .j / 0 1 1 0
k1 ;:::;kn D1  2Sn i D1 j D1 B1 2 0 1C
M DB C
@1 0 2 1A 2 R
4 4

.v/ X
n Y
n X Y
n
D ai ki sgn. / bkj  .j / 0 1 1 0
k1 ;:::;kn D1 i D1  2Sn j D1

.vi/ X
n Y
n
gilt M 3 D 0, also folgt det M D 0. 9
D ai ki det..bkj l /j;lD1;:::;n /
k1 ;:::;kn D1 i D1 Ist die Matrix A 2 Rn n
invertierbar, so folgt aus
.vii/ XY
n
D ai .i / det..b .j / l /j;lD1;:::;n / A A 1 D En
2Sn i D1

.viii/ X Y
n
mit dem Determinantenmultiplikationssatz durch Anwen-
D sgn. / ai .i / det.B/
den der Determinante:
2Sn i D1
.ix/
D det.A/ det.B/ : det.A/ det.A 1 / D det.En / D 1 :
230 Kapitel 7  Determinanten – Kenngrößen von Matrizen

Damit ist gezeigt: C M .'/C . Nach der Basistransformationsformel gibt es ei-


ne invertierbare Matrix S mit
Folgerung Ist A 2 Rn n
invertierbar, so ist det.A/ 2 R
invertierbar, und es gilt: C M .'/C D S 1B M .'/B S :

det.A 1 / D .det A/1 : Und nun folgt mit dem Determinantenmultiplikationssatz:

? Selbstfrage 7.4 det.C M .'/C / D det.S 1B M .'/B S /


Gilt für alle A; B 2 Rn auch det.A C B/ D det A C D det.S 1 / det.B M .'/B / det.S /
n

det B?
D det.S /1 det.S / det.B M .'/B /
D det.B M .'/B / :
7.2 Determinanten von Endomorphismen
Also ist die Determinante eines Endomorphismus tatsäch-
lich unabhängig von der gewählten Basis bei der Darstel-
7 Wir haben Determinanten für quadratische Matrizen defi-
lungsmatrix.
niert. Man kann aber auch einem Endomorphismus eine
Determinante zuordnen.
Beispiel Die Spiegelung
8
< R ! R
2 2
Die Determinante eines Endomorphismus  
ist die Determinante einer und damit jeder W v1 v2
: 7!
v2 v1
Darstellungsmatrix des Endomorphismus
an der Geraden R .e 1 C e 1 / hat bezüglich der geord-
Eine lineare Abbildung eines K-Vektorraums V in sich 
neten kanonischen
 Basis .e 1 ; e 2 / die Darstellungsmatrix
nennt man auch Endomorphismus. Den Endomorphismen 0 1
. Wegen
endlichdimensionaler K-Vektorräume kann man Determi- 1 0
nanten zuordnen.
 
0 1
det D 1
1 0
Die Determinante eines Endomorphismus
Ist ' W V ! V ein Endomorphismus eines n-dimensiona- gilt somit det. / D 1. 9
len K-Vektorraums mit der Darstellungsmatrix B M .'/B
von ' bezüglich einer geordneten Basis B von V , so nennt Der Determinantenmultiplikationssatz für Endomorphis-
man men lautet:

det.'/ D det.B M .'/B /


Determinantenmultiplikationssatz
die Determinante von '. Sind '; 2 EndK .V / Endomorphismen eines n-dimen-
sionalen Vektorraums V , so gilt:

? Selbstfrage 7.5 det. ı '/ D det. / det.'/ :


Sind die Darstellungsmatrizen von Endomorphismen stets
quadratisch?
Beweis Die Behauptung folgt aus der Formel für die Dar-
Bei dieser Definition ist jedoch zu zeigen, dass sie unabhän- stellungsmatrix eines Produkts von linearen Abbildungen
gig von der Wahl der Basis B ist, d. h., ist C eine andere mit dem Determinantenmultiplikationssatz für Matrizen. Ist
geordnete Basis, so sollen die Determinanten der beiden nämlich B irgendeine geordnete Basis von V , so gilt:
Darstellungsmatrizen von ' bezüglich B und C überein-
stimmen; die Definition wäre sonst nicht sinnvoll. Dass dies det. ı '/ D det.B M . ı '/B /
auch tatsächlich so ist, wollen wir nun nachweisen.
D det.B M . /B B M .'/B /
Sind B und C beliebige geordnete Basen des
K-Vektorraums V , so betrachten wir die beiden im Allge- D det.B M . /B / det.B M .'/B /
meinen verschiedenen Darstellungsmatrizen B M .'/B und D det. / det.'/ : 
7.3  Berechnung der Determinante
231 7
7.3 Berechnung der Determinante Die folgende Methode zur Bestimmung der Determinante
wird auch der Entwicklungssatz von Laplace genannt –
die Berechnung der Determinante einer n n-Matrix wird
Determinanten von mehrreihigen Matrizen kann man mit
durch Streichen von Zeilen und Spalten auf das Berechnen
der Leibniz’schen Formel kaum berechnen. Das ist zum
von n Determinanten von .n  1/ .n  1/-Matrizen zu-
Glück auch gar nicht nötig. Wir zeigen, dass wir die Deter-
rückgeführt.
minante einer n n-Matrix rekursiv berechnen können: Die
Berechnung der Determinante einer n n-Matrix wird auf
die Berechnung von n Determinanten von .n  1/ .n 
Entwicklungssatz von Laplace
1/-Matrizen zurückgeführt. Das Bestimmen der Determi-
Für A D .aij / 2 Rn n und beliebige i; j 2 f1; : : : ; ng
nante einer .n1/ .n1/-Matrix wird auf das Bestimmen
gilt:
von n  1 Determinanten von .n  2/ .n  2/-Matrizen
4 Entwicklung nach der i -ten Zeile
reduziert. Das führen wir so lange fort, bis wir die Berech-
nung der Determinante einer n n-Matrix auf das Problem X n

zur Bestimmung von Determinanten von 1 1-Matrizen re- det A D .1/iCj aij det A ij :
j D1
duziert haben.
Beim tatsächlichen Berechnen von Determinanten wer- 4 Entwicklung nach der j -ten Spalte
den wir uns aber gewisser Tricks bedienen, die die Vielzahl
X n
der bei diesen Schritten entstehenden Matrizen begrenzt. det A D .1/iCj aij det A ij :
Im Allgemeinen wird man auch nicht bis zur kleinsten Ein- iD1
heit, also bis zu 1 1-Matrizen, reduzieren. Vielfach sind
schon Determinanten von 3 3-Matrizen einfach abzulesen,
sodass das Verfahren zur Bestimmung der Determinante Bevor wir uns an den Beweis dieser Aussagen machen, er-
übersichtlich bleibt. läutern wir diese Entwicklung, wobei wir beachten, dass
die Vorzeichen .1/i Cj schachbrettartig über der Matrix A
verteilt sind:
Bei der Berechnung der Determinante C  C  
kann man nach einer beliebigen Spalte  C  C 
oder Zeile entwickeln C  C  
 C  C 
:: :: :: :: ::
Für jede quadratische Matrix A 2 Rn n und i; j 2 : : : : :
f1; : : : ; ng bezeichne A ij 2 R.n1/ .n1/ diejenige Matrix,
die aus A durch Entfernen der i-ten Zeile und j -ten Spalte Wir entwickeln die Determinante der Matrix
0 1
entsteht. a11 a12    a1n
Ba21 a22    a2n C
B C
a1j A D B :: :: :: C 2 Rn n
:: @ : : : A
:
AD ; A D
a n1 a n2    a nn
ai1 aij ai n ij
:: nach der ersten Spalte:
:
anj X
n
det A D .1/i C1 ai1 det.A i1 /
Beispiel Wir streichen aus der Matrix i D1
D a11 det.A 11 /  a21 det.A 21 /
0 1
1 2 3 4 C a31 det.A 31 / C   
B5 6 7 8C
ADB
@4
C Die in der Summe auftauchenden ai1 sind die Komponen-
3 2 1A
ten der ersten Spalte.
8 7 6 5
Offenbar ist es besonders geschickt, wenn man nach
einer Zeile oder Spalte entwickelt, in der möglichst viele
die zweite Zeile und dritte Spalte bzw. die dritte Zeile und Nullen stehen. Eine Matrix der Gestalt
zweite Spalte und erhalten 0 1
4 2 3 4
0 1 0 1 B5 6 1 4C
1 2 4 1 3 4 ADB @
C 2 R4 4
A
@ A
A 23 D 4 3 1 bzw. A 32 D 5 7 8 : 9 @ A 0 0 2 0
8 7 5 8 6 5 2 2 3 6
232 Kapitel 7  Determinanten – Kenngrößen von Matrizen

wird man nach der dritten Zeile entwickeln wollen: Durch Zählen der Fehlstände erhalten wir
ˇ ˇ
ˇ4 2 3 4ˇ
ˇ ˇ sgn.1 / D .1/ni und sgn.2 / D .1/nj :
ˇ5 6 1 4ˇˇ
ˇ
det A D ˇ
ˇ0 0 2 0ˇˇ Wir setzen
ˇ2 2 3 6ˇ
bkl D a1 .k/ 2 .l/
D .1/3C1  0  det.A 31 /
und erhalten wegen der obigen Wahl von i (die i-te Zeile
C .1/3C2  0  det.A 32 /
wird übersprungen) und von j (die j -te Spalte wird über-
C .1/3C3  2  det.A 33 / sprungen) die Matrix
C .1/3C4  0  det.A 34 /
ˇ ˇ A ij D .bkl /k;lD1;:::;n1 :
ˇ4 2 4ˇˇ
ˇ
D .1/3C3 2 ˇˇ 5 6 4ˇˇ Für jede Permutation  2 Sn gilt:
ˇ2 2 6ˇ
 .i / D j , 21 ı  ı 1 .n/ D n
7 Also gilt: , 21 ı  ı 1 jf1;:::;n1g 2 Sn1 :
ˇ ˇ
ˇ4 2 3 4ˇ ˇ ˇ
ˇ ˇ ˇ4 2 4ˇ Also gilt:
ˇ5 6 1 4ˇˇ ˇ ˇ
ˇ ˇ5 6 4ˇˇ
ˇ D .1/ 2
3C3
ˇ0 0 2 0 ˇ X Y
n
ˇ ˇ ˇ2 2 6ˇ
ˇ2 2 3 6ˇ sgn. / ak  .k/
2Sn kD1
.i /Dj k¤i
Nun zum Beweis der Aussage, dass diese Entwicklung nach
beliebigen Zeilen und Spalten funktioniert. X Y
n
D sgn.2 ı ı 11 / ak 2 . .11 .k/// :
> 2Sn1
Beweis Wegen det.A / D det.A/ reicht es aus, die Aus-
kD1
k¤i

sage für die Entwicklung nach einer beliebigen Zeile zu


beweisen – die Entwicklung gilt nach Übergang zur Trans- In diesem letzten Ausdruck setzen wir l D 11 .k/, d. h.,
ponierten auch für beliebige Spalten. Es sei i 2 f1; : : : ; ng 1 .l/ D k, und erhalten wegen der Homomorphie des
ein Zeilenindex der Matrix A. Signums, also wegen der Multiplikativität von sgn, und we-
Die Einträge der Matrix A, deren Determinante wir be- gen sgn.11 / D sgn.1 /:
stimmen wollen, seien akl , d. h. A D .akl /. Wir benutzen
X Y
n1
die Leibniz’sche Formel und fassen jeweils jene Permuta- sgn.2 / sgn.1 / sgn. / a1 .l/ 2 . .l//
tionen  zusammen, die den fest vogegebenen Zeilenindex 2Sn1
„ ƒ‚ …
lD1
Dbl
i auf dieselbe Zahl j abbilden: .l/

X Y
n D .1/ nj
.1/ ni
det.A ij / D .1/i Cj det.A ij / :
det.A/ D sgn. / ak  .k/
Damit ist die Gleichheit in . / gezeigt und die Behauptung
 2Sn kD1
bewiesen. 
X n X Y
n
D sgn. / ak  .k/ aij :
j D1 2Sn kD1
Diese Entwicklung der Determinante nach einer Zeile oder
.i /Dj k¤i Spalte ist das wesentliche Hilfsmittel zur Berechnung der
Wir zeigen nun für jedes j 2 f1; : : : ; ng die Gleichheit Determinante. Hat man eine Matrix mit mehr als drei Zei-
len und Spalten, so suche man nach der Zeile oder Spalte,
X Yn
sgn. / ak  .k/ D .1/i Cj
det.A ij / : ( ) in der die meisten Nullen auftauchen und entwickle nach
2Sn kD1
dieser. Sind keine oder nur wenige Nullen in der Matrix
.i /Dj k¤i vorhanden, so ist es oftmals sinnvoll, durch geschickte Zei-
Damit ist dann der Entwicklungssatz von Laplace bewie- lenumformungen weitere Nullen zu erzeugen. Wie dies
sen. funktioniert, zeigen wir nach den folgenden Beispielen.
Für ein j 2 f1; : : : ; ng und den Zeilenindex i 2
f1; : : : ; ng betrachten wir zwei ganz bestimmte Permutatio- Beispiel
nen 1 und 2 aus der symmetrischen Gruppe Sn : 4 Für die Determinante der Matrix
0 1
1 W . : : : ; i  1; i; i C 1; : : : ; n  1; n / 7! 1 0 2 0
. : : : ; i  1; i C 1; i C 2; : : : ; n; i /; B 1 0 3 0C
ADB @1 2 3 4A
C
2 W . : : : ; j  1; j; j C 1; : : : ; n  1; n / 7!
. : : : ; j  1; j C 1; j C 2; : : : ; n; j /: 2 0 5 1
7.3  Berechnung der Determinante
233 7
erhalten wir nach Entwickeln nach der zweiten Spalte
ˇ ˇ Die Determinante einer Dreiecksmatrix
ˇ 1 0 2 0ˇ ˇ ˇ
ˇ ˇ ˇ1 2 0ˇ
ˇ 1 0 3 0ˇ ˇ ˇ 0 1
det A D ˇˇ ˇ D .1/3C2 2 ˇ1 3 0ˇ
ˇ ˇ ˇ
a11 :::
ˇ 1 2 3 4 ˇ ˇ2 5 1ˇ B :: :: C
ˇ 2 0 5 1ˇ B : C
C Y
n
B 0 a22 :
det B CD ai i ;
B :: :: :: C
Nun entwickeln wir weiter nach der dritten Spalte und @ : : : A iD1
erhalten 0 ::: 0 ann
ˇ ˇ 0 1
ˇ 1 2 0ˇ a11 0 ::: 0
ˇ ˇ B :: C
det A D .2/ ˇˇ1 3 0ˇˇ B ::
: C
C Y
n
B a22 :
ˇ 2 5 1ˇ det B CD ai i :
ˇ ˇ B :: :: :: C
ˇ ˇ @ : : : 0 A iD1
3C3 ˇ1 2ˇ
D .2/  .1/ ˇ1 3ˇ D 2 : ::: ann

4 Die Determinante der Nullmatrix 0 ist null. Die Determinante ist das Produkt der Diagonalelemente.
4 Für die Einheitsmatrix En 2 Kn n gilt erneut:
ˇ ˇ
ˇ1    0ˇ
ˇ ˇ
ˇ: :ˇ
det En D ˇ :: : : : :: ˇ D 1 det En1 Die Eigenschaften der Determinante
ˇ ˇ
ˇ0    1ˇ ermöglichen es, ihre Berechnung
D 12 det En2 zu vereinfachen
D    D 1n1 det E1
D 1: Die Berechnung der Determinante einer Matrix A D .aij /
0 1 wird dann einfacher, wenn in einer Spalte oder Zeile von
4 3 2 1 A zahlreiche Nullen stehen. Stehen etwa unterhalb von a11
B3 2 1 4C
4 Für die Matrix A D B C
@2 1 4 3A 2 R gilt:
4 4 nur Nullen, so ist die Determinante einer n n-Matrix
gleich dem Produkt von a11 mit der Determinante der
1 4 3 2 .n  1/ .n  1/-Matrix A 11 :
ˇ ˇ ˇ ˇ
ˇ2 1 4ˇ ˇ3 2 1ˇ ˇ ˇ
ˇ ˇ ˇ ˇ ˇa11 a12    a1n ˇ ˇ ˇ
det A D .1/1C1 4 ˇˇ1 4 3ˇˇ C .1/2C1 3 ˇˇ1 4 3ˇˇ ˇ ˇ ˇa22    a2n ˇ
ˇ0 a22    a2n ˇ ˇ ˇ
ˇ4 3 2ˇ ˇ4 3 2ˇ ˇ ˇ ˇ :: :: ˇ
ˇ :: :: ˇ D a11 ˇ : : ˇˇ
ˇ ˇ ˇ ˇ ˇ :  : ˇˇ ˇ
ˇ3 2 1ˇ ˇ3 2 1ˇ ˇ ˇan2    ann ˇ
ˇ ˇ ˇ ˇ ˇ0 an2    ann ˇ
C .1/3C1 2 ˇˇ2 1 4ˇˇ C .1/4C1 1 ˇˇ2 1 4ˇˇ
ˇ4 3 2ˇ ˇ1 4 3ˇ
Bei der Lösung von linearen Gleichungssystemen haben
So bleiben also vier Determinanten von 3 3-Matrizen wir durch elementare Zeilenumformungen Nullen in einer
zu bestimmen. 0 1 Matrix erzeugt. Dabei wird natürlich die Matrix verändert.
2 3 4 Die Frage ist, ob und wenn ja, wie sich bei solchen elemen-
4 Für die Matrix A D @4 6 4 A 2 R3 3 gilt: taren Umformungen die Determinante ändert.
0 0 12
ˇ ˇ
ˇ 2 3 4 ˇ ˇ ˇ
ˇ ˇ ˇ ˇ
ˇ4 6 4 ˇ D .1/3C3 12 ˇ 2 3ˇ D 0 : 9 Die Determinante nach elementaren
ˇ ˇ ˇ4 6 ˇ
ˇ0 0 12ˇ Zeilen-/Spaltenumformungen
Für jede Matrix A 2 Rn n und  2 R gilt:
Man nennt eine Matrix A 2 R n n
eine obere Dreiecks- (a) Entsteht A 0 aus A durch Vertauschen zweier Zeilen
matrix, wenn alle Einträge aij von A unter der Hauptdia- (bzw. Spalten), so gilt det A 0 D  det A.
gonalen null sind, d. h., aij D 0 für alle .i; j / mit j < i. (b) Entsteht A 0 aus A durch Addition eines Vielfachen
Analog nennt man A eine untere Dreiecksmatrix, falls al- einer Zeile (bzw. Spalte) zu einer anderen, so gilt
le Einträge oberhalb der Hauptdiagonalen null sind, d. h. det A 0 D det A.
aij D 0 für alle .i; j / mit j > i . Durch sukzessive Ent- (c) Entsteht A 0 aus A durch Multiplikation einer Zei-
wicklung der Determinante nach der ersten Spalte einer le oder Spalte mit einem Element  2 R, so gilt
oberen Dreiecksmatrix bzw. nach der ersten Zeile einer un- det A 0 D  det A.
teren Dreiecksmatrix erhalten wir:
234 Kapitel 7  Determinanten – Kenngrößen von Matrizen

Beispiel: Bestimmung von Determinanten

Wir berechnen die Determinanten der Matrizen der ersten Spalte:


0 1 ˇ ˇ ˇ ˇ
3 1 3 0 ˇ1 3 3ˇ ˇ1 3 3 ˇˇ
ˇ ˇ ˇ
B2 4 1 2C ˇ4 1 4ˇ ˇ0 11 8ˇˇ
B C det A D ˇ ˇDˇ
ADB C; ˇ ˇ ˇ ˇ
@1 0 0 1A ˇ2 1 5ˇ ˇ0 7 1ˇ
4 2 1 1 ˇ ˇ ˇ ˇ
ˇ11 8ˇ ˇ11 8ˇˇ
0 1 ˇ ˇ 2 ˇ
Dˇ ˇ D .1/ ˇ ˇ D 45 :
3 0 0 0 0 2 ˇ 7 1ˇ ˇ7 1ˇ
B0 3 0 0 2 0C
B C
B C
B0 0 3 2 0 0C Wir bestimmen nun det B.
BDB B0 0 2 3 0 0C
C
Wir berechnen die Determinante der Matrix B mittels
B C
B0 2 0 0 3 0C Entwicklung nach den jeweils mit blauen Ziffern eingezeich-
@ A
2 0 0 0 0 3 neten Zeilen bzw. Spalten:
ˇ ˇ
ˇ3 0 0 0 0 2ˇ
7 ˇ ˇ
Problemanalyse und Strategie ˇ0 3 0 0 2 0ˇ
ˇ ˇ
ˇ ˇ
Man entwickelt vorzugsweise nach Zeilen bzw. Spalten, in de- ˇ0 0 3 2 0 0ˇ
det B D ˇˇ ˇ
nen bereits viele Nullen stehen. Eventuell erzeugen wir uns ˇ
ˇ0 0 2 3 0 0ˇ
durch geschickte Zeilen- bzw. Spaltenumformungen zuerst ˇ0 2 0 0 3 0ˇ
ˇ ˇ
Nullen. ˇ ˇ
ˇ2 0 0 0 0 3ˇ
ˇ ˇ ˇ ˇ
ˇ3 0 0 2 0ˇ ˇ0 3 0 0 2ˇ
Lösung ˇ ˇ ˇ ˇ
ˇ0 3 2 0 0ˇ ˇ0 0 3 2 0ˇ
Wir bestimmen die Determinante der Matrix A, indem wir ˇ ˇ ˇ ˇ
ˇ ˇ ˇ ˇ
D .1/1C1 3 ˇ0 2 3 0 0ˇ C .1/1C6 2 ˇ0 0 2 3 0ˇ
zuerst zur letzten Spalte die erste addieren – dies ändert die ˇ ˇ ˇ ˇ
ˇ2 0 0 3 0ˇ ˇ0 2 0 0 3ˇ
Determinante von A nicht – und dann nach der dritten Zeile ˇ ˇ ˇ ˇ
ˇ0 0 0 0 3ˇ ˇ2 0 0 0 0ˇ
entwickeln:
ˇ ˇ
ˇ ˇ ˇ ˇ ˇ3 0 0 2ˇ
ˇ3 1 3 0 ˇˇ ˇˇ3 1 3 3ˇˇ ˇ ˇ
ˇ ˇ0 3 2 0ˇ
ˇ2 4 1 2 ˇˇ ˇˇ2 4 1 4ˇˇ 2 ˇ ˇ
ˇ D .3  2 / ˇ
2
ˇ
det A D ˇ ˇDˇ ˇ ˇ0 2 3 0ˇ
ˇ1 0 0 1ˇ ˇ1 0 0 0ˇ ˇ ˇ
ˇ ˇ ˇ ˇ ˇ2 0 0 3ˇ
ˇ4 2 1 1 ˇ ˇ4 2 1 5ˇ ˇ ˇ ˇ ˇ3
2
ˇ ˇ ˇ3 2 0ˇ ˇ0 3 2ˇ
ˇ1 3 3ˇ ˇ ˇ ˇ ˇ
ˇ ˇ 6 ˇ ˇ ˇ ˇ7
ˇ ˇ D .32  22 / 4.1/1C1 3 ˇ2 3 0ˇ C .1/1C4 2 ˇ0 2 3ˇ5
D .1/1C3 1 ˇ4 1 4ˇ ˇ ˇ ˇ ˇ
ˇ ˇ ˇ0 0 3ˇ ˇ2 0 0ˇ
ˇ2 1 5ˇ ˇ ˇ
ˇ3 2ˇ
ˇ ˇ
Wir führen die Rechnung fort: Mithilfe der Eins an der Stelle D .32  22 /2 ˇ ˇ D .32  22 /3 D 125:
ˇ2 3ˇ
.1; 1/ der verbleibenden 3 3-Matrix erzeugen wir Nullen an
den Stellen .2; 1/ und .3; 1/ und entwickeln schließlich nach Also gilt det B D 125.

Beweis Wir begründen die Regeln für die Zeilenumfor- Die Addition des -Fachen der i-ten Zeile zur j -ten
mungen. Wegen det.A/ D det.A > / gelten die Regeln dann Zeile geschieht durch Multiplikation der Matrix A mit der
auch für die Spaltenumformungen. Die Aussage (a) haben Matrix N ij ./. Es gilt:
wir bereits begründet, wir zeigen diese Aussage erneut mit
anderen Methoden. A 0 D N ij ./ A :
Jede elementare Zeilenumformung an einer Matrix ent-
spricht einer Multiplikation dieser Matrix mit einer Ele- Wegen det.N ij .// D 1 folgt die Aussage (b) mit dem
mentarmatrix von links. Determinantenmultiplikationssatz.
So werden die i-te und j -te Zeile der Matrix A ver- Die Multiplikation der i-ten Zeile mit  geschieht durch
tauscht, indem man A von links mit der Permutationsma- Multiplikation der Matrix A mit der Matrix D i ./. Es gilt:
trix P ij multipliziert. Es gilt:
A 0 D D i ./ A :
A 0 D P ij A :
Wegen det.P ij / D 1 folgt die Aussage (a) mit dem De- Wegen det.D i .// D  folgt auch die Aussage (c) mit dem
terminantenmultiplikationssatz. Determinantenmultiplikationssatz. 
7.3  Berechnung der Determinante
235 7

i Für Matrizen A 2 Rn n
und  2 R ist Damit erhalten wir nun nach Definition der Determi-
nante und dreimaligem Anwenden der dritten Regel mit
det.A/ D n det.A/;  D 1:
ˇ ˇ ˇ ˇ
ˇ13 10 7ˇ ˇ13 10 7ˇ
ˇ ˇ ˇ ˇ
nachdem jede Zeile von A mit  zu multiplizieren ist, det A D .1/4C1 ˇˇ10 8 2ˇˇ D ˇˇ10 8 2ˇˇ
wenn man A berechnet. ˇ 7 2 1ˇ ˇ 7 2 1ˇ

Mithilfe dieser Regeln kann man oft leicht Nullen in den Wir wenden die erste Regel an, vertauschen die erste
Zeilen und Spalten auch von großen Matrizen erzeugen. mit der dritten Spalte und beachten das Minuszeichen:
Entwickelt man dann nach den Zeilen oder Spalten, in de- ˇ ˇ
ˇ7 10 13ˇ
nen fast nur Nullen stehen, so bleibt das Verfahren zur ˇ ˇ
det A D  ˇˇ2 8 10ˇˇ :
Berechnung der Determinante übersichtlich. Man darf da- ˇ1 2 7 ˇ
bei Spalten- und Zeilenumformungen abwechseln, man
muss nur aufpassen, dass man bei Vertauschungen den Vor- Nun wenden wir erneut die zweite Regel an und addie-
zeichenwechsel berücksichtigt. Es folgen Beispiele. ren zur ersten Zeile das .7/-Fache der letzten und zur
zweiten Zeile das .2/-Fache der letzten Zeile – dies
Beispiel ändert die Determinante nicht:
4 Wir betrachten die reelle Matrix ˇ ˇ ˇ ˇ
ˇ7 10 13ˇ ˇ0 4 36ˇ
ˇ ˇ ˇ ˇ
0 1 det A D  ˇˇ2 8 10ˇˇ D  ˇˇ0 4 4 ˇˇ
1 3 6 ˇ1 2 7 ˇ ˇ1 2 7 ˇ
A D @ 4 8 12A 2 R3 3
:
2 0 3 Also erhalten wir nun:
ˇ ˇ
ˇ ˇ
3C1 ˇ4 36ˇ
Wegen der zweiten Determinantenregel ändert sich die det A D .1/ ˇ4 4 ˇ
Determinante von A nicht, wenn wir zur zweiten Zeile
von A das .4/-Fache der ersten Zeile und zur dritten D ..4/  .4/  .36/  4/ D 160 : 9
Zeile das 2-Fache der ersten Zeile addieren:
?Selbstfrage 7.6
ˇ ˇ ˇ ˇ
ˇ1 3 6 ˇ ˇ1 3 6 ˇ Sind die Zeilen oder Spalten einer quadratischen Matrix A
ˇ ˇ ˇ ˇ
det.A/ D ˇˇ 4 8 12ˇˇ D ˇˇ0 4 36ˇˇ über einem Körper K linear abhängig, so gilt det.A/ D 0
ˇ2 0 3 ˇ ˇ0 6 9 ˇ – wieso?

Nun entwicklen wir nach der ersten Spalte: Die Determinante einer Blockdreiecksmatrix
ˇ ˇ ist das Produkt der Determinanten
ˇ4 36ˇ
ˇ
det A D 1 ˇ ˇ D 180 : der Blöcke
6 9 ˇ

4 Nun bestimmen wir die Determinante der reellen Matrix Wir betrachten eine Blockdreiecksmatrix, d. h. eine Ma-
0 1 trix der Form
4 3 2 1  
B3 2 1 4C A C
ADB C 2 R4 4
: MD 2 Rn n ;
@2 1 4 3A 0 B
1 4 3 2
wobei 0 2 R.nm/ m die Nullmatrix ist und A 2 Rm m
,
C 2 Rm .nm/ , B 2 R.nm/ .nm/ sind.
Wegen der zweiten Determinantenregel bleibt die De- Es gilt die nützliche Regel:
terminante unverändert, wenn wir zur ersten Zeile das
.4/-Fache der letzten Zeile, zur zweiten Zeile das
.3/-Fache der letzten Zeile und schließlich zur dritten Die Determinante von Blockdreiecksmatrizen
Zeile das .2/-Fache der letzten Zeile addieren: Für alle quadratischen Matrizen A 2 Rs s ; B 2 Rr r und
ˇ ˇ ˇ ˇ passenden Matrizen 0; C gilt:
ˇ4 3 2 1ˇ ˇ0 13 10 7ˇ ! !
ˇ ˇ ˇ ˇ
ˇ3 2 1 4ˇˇ ˇˇ0 10 8 2ˇˇ A C A 0
det.A/ D ˇˇ D det D det A det B D det
ˇ2 1 4 3ˇˇ ˇˇ0 7 2 1ˇˇ 0 B C B
ˇ1 4 3 2 ˇ ˇ1 4 3 2ˇ
236 Kapitel 7  Determinanten – Kenngrößen von Matrizen

Beweis Mit den Einheitsmatrizen Er und Es und den pas- Die Determinante ist eine normierte,
senden Nullmatrizen gilt alternierende Multilinearform
    
A C Es 0 A C
D Wir geben vorab einige Eigenschaften der Abbildung det
0 B 0 B 0 Er
an:
Wegen
  Determinantenregeln
0 1
Es 0 z1
det D det.B/ und
0 B B :: C
  Für A D B
@
C
: A D .s1 ; : : : ; sn / 2 R
n n
und  2 R gilt:
A C
det D det.A/ zn
0 Er
(a) Linearität in jeder Zeile und Spalte:
Ist zi D  x C y, so gilt:
(man entwickle nach den ersten Spalten bzw. letzten Zeilen)
folgt die Behauptung mit dem Determinantenmultiplikati- 0 1 0 1
7 z1 z1
onssatz. B:C B:C
B:C B:C
Wegen det.M / D det.M > / gilt die Formel auch für B:C
B C
B:C
B C
untere Blockdreiecksmatrizen.  det A D  det B x
B C
C C det B y C
B C i-te Zeile:
B:C B:C
B:C B:C
@:A @:A
Beim Berechnen der Determinante zn zn
einer großen Matrix sollte man
Ist sj D  x C y, so gilt:
systematisch vorgehen
det A D  det..s1 ; : : : ; x; : : : ; sn //C
Die Determinante ist eine wichtige Kenngröße einer Ma- C det..s1 ; : : : ; y; : : : ; sn // :
trix A. Sie zu bestimmen ist nicht immer einfach. Die
Leibniz’sche Formel, durch die sie definiert ist, eignet Man sagt, die Abbildung detW Rn n ! R ist eine Mul-
sich nicht zur Berechnung von mehrreihigen Matrizen. Die tilinearform.
wesentlichen Hilfsmittel, die man zur Berechnung von De- (b) Entsteht A 0 aus A durch Vertauschen zweier Zeilen
terminanten solcher Matrizen hat, haben wir hergeleitet. (bzw. Spalten), so gilt det A 0 D  det A.
Man sollte zur Berechnung von det.A/ wie folgt vorge- Man sagt, det ist alternierend.
hen: (c) det.En / D 1.
4 Hat die Matrix A linear abhängige Zeilen oder Spalten? Man sagt, det ist normiert.
Falls ja, so gilt det.A/ D 0, falls dies nicht offensicht-
lich ist:
4 Hat A eine Blockdreiecksgestalt? Falls ja, so berechne Beweis (a) Wegen det.A/ D det.A > / reicht es, die Aus-
die Determinanten der Blöcke, falls nein: sage nur für Zeilen zu zeigen. Die i-te Zeile der Matrix A
4 Gibt es eine Zeile oder Spalte mit vielen Nullen? Falls sei
ja, entwickle nach dieser Zeile oder Spalte, falls nein:
 x C y D . x1 C y1 ; : : : ;  xn C yn / :
4 Erzeuge durch elementare Zeilen- oder Spaltenumfor-
mungen Nullen in einer Zeile oder Spalte und beginne Wir setzen dies in die Leibniz’sche Formel ein:
von vorne. 0 :: 1
: X Y
B C n
Wir stellen in der Übersicht alle wesentlichen Regeln und det.A/ D det B@  x C y CD
A sgn. / ak  .k/ :
Eigenschaften der Determinante von n n-Matrizen zu- ::  2Sn kD1
sammen. :
Wir haben die Determinante einer Matrix durch die Wegen ai  .i / D  x .i / C y .i / erhält man nach Ausmulti-
Leibniz’sche Formel definiert. Wir erläutern eine alter- plizieren:
native Definition der Determinante. Um diese Definition 0:1 0:1
:: :
verstehen zu können, fassen wir die Determinante für jedes B C B:C
n 2 N als eine Abbildung von Rn n nach R auf: det.A/ D  det B C B C
@x A C det @y A :
:: ::
 n n : :
R !R
det W
A 7! det.A/ (b) und (c) haben wir bereits bewiesen. 
7.4  Anwendungen der Determinante
237 7

Übersicht: Eigenschaften der Determinante

Wir listen alle wesentlichen Eigenschaften der Determinante 4 Eine Matrix A ist genau dann invertierbar, wenn ihre De-
auf. Viele von ihnen haben wir bereits begründet. terminante von null verschieden ist.
4 Ist die Matrix A invertierbar, so ist die Determinante der
4 Ist A eine Dreiecksmatrix oder eine Diagonalmatrix, also inversen Matrix das Inverse der Determinante:
von der Form
0 1 0 1 det.A 1 / D .det A/1 :
a11 ::: a11 0 ::: 0
B :: :: C B :: :: C 4 Ist die Koeffizientenmatrix A eines linearen Gleichungs-
B0 : : C B : : C
B a22 C B a22 C
B : C oder B : C systems .A j b/ quadratisch, so ist .A j b/ genau dann
B : :: :: C B : :: :: C
@ : : : A @ : : : 0 A eindeutig lösbar, wenn det A ¤ 0 gilt.
0 ::: 0 ann ::: ann 4 Sind zwei Zeilen oder Spalten einer Matrix linear abhän-
gig, so ist ihre Determinante 0.
so ist die Determinante von A das Produkt der Diagonal- 4 Hat die Matrix eine Nullzeile oder Nullspalte, so ist ihre
elemente Determinante 0.
4 Die Determinante einer Matrix bleibt unverändert, wenn
det A D a11    ann : man zu einer Zeile (bzw. Spalte) das Vielfache einer an-
deren Zeile (bzw. Spalte) addiert.
4 Die Determinante ändert ihr Vorzeichen beim Vertauschen
4 Die Determinante eines Produkts zweier quadratischer
zweier Zeilen oder Spalten.
Matrizen ist das Produkt der Determinanten der beiden
4 Die Determinante der Einheitsmatrix En 2 Rn n ist 1:
Matrizen: Für alle A, B 2 Rn n gilt:
det En D 1:
det.A B/ D det.A/ det.B/:
4 Für jede Matrix A 2 Rn n
und  2 R gilt:
4 Für jede Matrix A 2 Rn n
und jede natürliche Zahl k gilt:
det. A/ D  det A ;
n

det.A k / D .det A/k :


insbesondere det.A/ D .1/ det A. n

4 Die Determinante einer Matrix ändert sich nicht durch das 4 Für eine invertierbare Matrix S 2 Rn n
und jede Matrix
Transponieren: A 2 Rn n gilt:

det A D det A > : det.S 1 A S / D det A:

Kommentar Oftmals werden Determinanten als normier-


7.4 Anwendungen der Determinante
te, alternierende Multilinearformen eingeführt. Man kann
zeigen, dass wenn es eine normierte, alternierende Multili-
nearform gibt, sie eindeutig bestimmt ist. Man nennt diese Wir behandeln in diesem Abschnitt einige Anwendungen
multilineare Abbildung dann Determinante und beweist der Determinante. Zuerst zeigen wir, dass die Determinan-
ihre Existenz mittels der Leibniz’schen Formel. Diese Ein- te ein Invertierbarkeitskriterium liefert: Eine Matrix ist ge-
führung der Determinante hat Vorteile und Nachteile: Ein nau dann invertierbar, wenn ihre Determinante von null ver-
klarer Vorteil ist, dass die Nachweise für die Eigenschaf- schieden ist. Den Nutzen dieses Kriteriums lernen wir erst
ten der Determinante, wie zum Beispiel der Determinan- im nächsten Kapitel zu den Eigenwerten richtig zu schätzen.
tenmultiplikationssatz, übersichtlicher dargestellt werden Aber die Determinante hat durchaus noch andere An-
können – die Anzahl der Indizes bei den Nachweisen ist wendungen. Zum Beispiel lassen sich lineare Gleichungs-
geringer. Ein Nachteil ist: Bis man überhaupt den Begriff systeme mit quadratischer Koeffizientenmatrix mithilfe von
einer Determinante hat, muss man sich durch einen Urwald Determinanten lösen, und ist eine Matrix invertierbar, so
mit ungewohnten und nicht einfachen Begriffen schlagen. können wir auch das Inverse einer Matrix mit Determi-
Wir haben der direkten Einführung der Determinante über nanten bestimmen. Wir wollen aber darauf hinweisen, dass
die Leibniz’sche Formel den Vorzug gegeben und haben so- diese Methoden nicht sehr effizient sind. Der Algorithmus
mit in Kauf genommen, dass die Beweise manchmal einer von Gauß und Jordan führt im Allgemeinen viel schneller
Schlacht mit Indizes gleichen. Dafür bleibt es klar und ver- zur Lösung eines Gleichungssystems, und die Methoden
ständlich, was die Determinante einer Matrix A eigentlich aus dem 7 Abschn. 6.6 zur Bestimmung des Inversen ei-
ist – eine wohlsortierte Summe von Produkten von Einträ- ner Matrix sind meist deutlich effizienter als die Methode,
gen in A. die wir nun mittels Determinanten vorstellen.
238 Kapitel 7  Determinanten – Kenngrößen von Matrizen

Eine Matrix ist genau dann invertierbar, ist die Matrix A mit den Spalten u; v; w invertierbar. Somit
wenn ihre Determinante von null gilt rg A D 3, d. h., die angegebenen Vektoren sind linear
verschieden ist unabhängig. 9

Es gibt viele Invertierbarkeitskriterien für (quadratische) Die spezielle lineare Gruppe ist die Menge
Matrizen über einem Körper K. Wir geben eines mithilfe der Matrizen mit Determinante 1
der Determinante an.
Wir greifen die Menge GLn .K/ der invertierbaren n
n-Matrizen über einem Körper K erneut auf,
Invertierbarkeitskriterium
Für eine Matrix A 2 Kn n sind die folgenden Aussagen GLn .K/ D fA 2 Kn n
j A ist invertierbar g :
gleichwertig:
4 Die Matrix A ist invertierbar. Die Menge GLn .K/ bildet mit der Matrizenmultiplikation
4 Es gilt det A ¤ 0. eine Gruppe, die allgemeine lineare Gruppe vom Grad n.
7 Da die Determinante multiplikativ ist, ist die nach obigem
Invertierbarkeitskriterium wohldefinierte Abbildung
Beweis Man bringe A mit elementaren Zeilenumformun- 
GLn .K/ ! K n f0g;
gen auf Zeilenstufenform Z D .zij /. Wegen des Satzes zur det W
A 7! det.A/
Determinante nach elementaren Zeilen- oder Spaltenumfor-
mungen gilt dann det.A/ D a det.Z / für ein a 2 K n f0g. ein Gruppenhomomorphismus. Den Kern dieses Homo-
Es folgt: morphismus bezeichnen wir mit
det.A/ ¤ 0 , det.Z / D z11    znn ¤ 0 SLn .K/ D ker.det/ D fA 2 GLn .K/ j det.A/ D 1g :
, z11 ; : : : ; znn ¤ 0
, rg A D rg Z D n Es ist SLn .K/ als Kern eines Homomorphismus eine Un-
tergruppe von Gln .K/ – man nennt sie die spezielle lineare
, A ist invertierbar Gruppe vom Grad n.
Zur letzten Äquivalenz siehe das Kriterium zur Invertier- Die Abbildung det ist surjektiv, da für jedes  2 K n f0g
barkeit in 7 Abschn. 6.6.  die Matrix
0 1
 0  0
Kommentar Die Aussage des Satzes gilt in einer entspre- B 0 1    0C
B C
chenden Formulierung auch für einen kommutativen Ring B :: :: :C
R mit 1. Aber der Beweis ist dann anders zu führen, da @: : :: A
obenstehender Beweis bei der Erzeugung der Zeilenstu- 0 0  1
fenform durch elementare Zeilenumformungen wesentlich
benutzt, dass jedes von null verschiedene Element aus K in- ein Element aus GLn .K/ ist und die Determinante  hat.
vertierbar ist. Die allgemeinere Aussage werden wir später Nach dem Homomorphiesatz für Gruppen gilt damit:
mithilfe der Adjunkten zeigen. GLn .K/= SLn .K/ Š K n f0g :
? Selbstfrage 7.7 Kommentar Die linearen Gruppen GLn .K/ (später kom-
Wenn A B mit A; B 2 Kn n invertierbar ist, müssen dann men noch weitere hinzu) beschreiben Symmetrien. Die
auch A und B invertierbar sein? SLn .K/ enthält z. B. die volumen- und orientierungstreuen
linearen Abbildungen (7 Kap. 5).
Beispiel Wir prüfen, ob die drei Vektoren
0 1 0 1 0 1
2 1 0
@ A @ A Beispiel Für jedes ˛ 2 Œ0; 2 Œ ist
uD 2 ;v D 3 @
; w D 5A 2 R3
4 6 2 0 1
  cos ˛  sin ˛ 0
cos ˛  sin ˛
bzw. @ sin ˛ cos ˛ 0A
linear abhängig sind. Wegen sin ˛ cos ˛
0 0 1
0 1 0 1
2 1 0 2 1 0
det @2 3 5A D det @0 2 5A ein Element von SL2 .R/ bzw. SL3 .R/. Die Matrix be-
4 6 2 0 4 2 schreibt jeweils eine Drehung um den Winkel ˛. Im R2
wird um den Nullpunkt gedreht, im R3 um die x3 -Achse
D 2 .2  2  5  4/ ¤ 0 (. Abb. 7.1). 9
7.4  Anwendungen der Determinante
239 7

x3 und zeigen

1 ; falls i D j;
cij D det.A/ ıij mit ıij D
0 ; sonst.
˛ x0
Es gilt dann A ad.A/ D det.A/ En .
x Für jedes i 2 f1; : : : ; ng ist ci i das Produkt der i-ten
Zeile von A mit der i-ten Spalte von ad.A/:
o ˛ 0 1
˛ .1/1Ci det.A i1 /
B :: C
x2 ci i D .ai1 ; : : : ; ai n / @ : A
nCi
x1 .1/ det.A i n /
X
n
. Abb. 7.1 Drehung um die x3 -Achse D ai k .1/kCi det.A i k / :
kD1

Mit der Determinante lässt sich das Inverse Nach dem Entwicklungssatz von Laplace (Entwicklung
einer Matrix bestimmen nach i-ter Zeile) gilt daher für jedes i 2 f1; : : : ; ng:

ci i D det.A/ :
Ist A 2 Rn n eine invertierbare Matrix, so lässt sich A 1
anhand der folgenden Formel ermitteln. Dabei bezeichne Und für i ¤ j gilt analog:
Aj i die Matrix, die aus A durch Streichen der j -ten Zeile
Xn
und i-ten Spalte hervorgeht. cij D ai k .1/kCj det.Aj k / D det.A 0 / ;
kD1

Die adjunkte Matrix wobei A 0 2 Rn n aus A durch Ersetzen der j -ten Zeile
Für jede quadratische Matrix A D .aij /i;j 2 Rn n
nennt durch die i-te Zeile entsteht. Da die Determinante einer Ma-
man die n n-Matrix trix mit gleichen Zeilen null ist, erhalten wir det.A 0 / D 0,
also cij D 0 für i ¤ j . Damit ist gezeigt:
ad.A/ D .aij /i;j mit aij D .1/iCj det.Aj i /
A ad.A/ D det.A/ En :
die adjunkte Matrix zu A. Es gilt:
Die Formel ad.A/ A D det.A/ En erhält man analog durch
Entwicklung nach der i-ten Spalte.
A ad.A/ D ad.A/ A D det.A/ En :
Ist schließlich A 2 Rn n invertierbar, so ist auch
det.A/ 2 R invertierbar. Wir multiplizieren die bewiese-
Falls A invertierbar ist, so gilt:
ne Gleichung ad.A/ A D det.A/ En mit .det.A//1 durch
1 und erhalten
A 1 D ad.A/ :  
det A 1
ad.A/ A D En :
det A

Beweis Die adjunkte Matrix lautet ausführlich Folglich ist 1


det A ad.A/ das zu A inverse Element A 1 . 
0 1
.1/1C1 det.A 11 /    .1/1Cn det.A n1 / Der Satz zur adjunkten Matrix liefert eine Formel zum In-
B :: :: C vertieren von Matrizen. Für eine invertierbare 2 2-Matrix
ad.A/ D @ : : A
über einem Körper K lautet die Formel:
.1/nC1 det.A 1n /    .1/nCn det.A nn /

Beachten Sie, dass hier in der adjunkten Matrix der erste


Das Inverse einer 2  2-Matrix
Index von Aj i der Spaltenindex ist und der zweite der Zei-
Für A 2 K2 2
mit det.A/ ¤ 0 gilt:
lenindex.
Wir bezeichnen die Einträge in dem Matrizenprodukt ! !
a b 1 1 d b
A ad.A/ mit cij , d. h., AD ) A D
c d ad  bc c a
A ad.A/ D .cij / ;
240 Kapitel 7  Determinanten – Kenngrößen von Matrizen

Die Elemente auf der Hauptdiagonalen werden vertauscht, Folgerung Für eine Matrix A 2 Rn n
sind die folgenden
die anderen Elemente werden mit einem Minuszeichen ver- Aussagen gleichwertig:
sehen, und es wird durch die Determinante geteilt. 4 Die Matrix A ist invertierbar.
Bei einer 3 3-Matrix ist das Invertieren mit der adjunk- 4 Die Determinante det A 2 R ist invertierbar in R.
ten Matrix deutlich komplizierter, wir zeigen dies an einem
Beispiel. Man vergleiche dieses Resultat mit dem Invertierbarkeits-
kriterium für eine Matrix A über einem Körper K.
Beispiel Wir berechnen ad.A/ und damit A 1 für
0 1 Kommentar In der Zahlentheorie und ihren Anwendungen
1 2 1 in der Kryptologie und Codierungstheorie wird dieses Er-
A D @2 1 4A 2 R3 3
: gebnis wie auch die im Folgenden behandelte Cramer’sche
1 3 2 Regel mehrfach benutzt. Wir können hier die Ergebnisse
leider nur etwas unmotiviert darstellen und müssen darauf
Wir ermitteln die Komponenten aij der Adjunkten von A: hoffen, dass ein Leser an unsere Ausführungen hier zu-
  rückdenkt und auf diesen Seiten nachblättert, sobald in der
7 a11 D .1/1C1 det A 11 D det
1 4
D 10 ;
Zahlentheorie, Kryptologie oder Codierungstheorie darauf
3 2 verwiesen wird, dass man diese Dinge ja im ersten Semes-
  ter in der linearen Algebra gelernt habe.
2 4
a21 D .1/2C1 det A 12 D  det D 8;
1 2
 
2 1 Die Cramer’sche Regel liefert die eindeutig
a31 D .1/3C1 det A 13 D det D 7 ;
1 3 bestimmte Lösung eines linearen
 
2 1 Gleichungssystems komponentenweise
a12 D .1/1C2 det A 21 D  det D 1 ;
3 2
 
1 1 Eine weitere Anwendung der Determinante betrifft das Lö-
a22 D .1/2C2 det A 22 D det D 1;
1 2 sen von linearen Gleichungssystemen mit quadratischer
  und invertierbarer Koeffizientenmatrix.
1 2
a32 D .1/3C2 det A 23 D  det D 1 ;
1 3
 
2 1
a13 D .1/1C3 det A 31 D det D 7; Die Cramer’sche Regel
1 4
  Es sei
1 1
a23 D .1/2C3 det A 32 D  det D 6 ; Ax D b
2 4
 
1 2 ein lineares Gleichungssystem mit
a33 D .1/3C3 det A 33 D det D 5:
2 1
A D .s1 ; : : : ; sn / 2 Rn n
; b 2 Rn :
Damit erhalten wir: Falls det.A/ 2 R invertierbar in R ist, so hat das System
0 1 A x D b genau eine Lösung v D .vi /.
10 1 7
Man erhält die Komponenten vi der Lösung v durch
ad.A/ D @ 8 1 6A
7 1 5 1
vi D det.A i / für i D 1; : : : ; n ;
det A
und wegen det.A/ D 1 folgt: wobei
0 1
10 1 7 A i D .s1 ; : : : ; si1 ; b; siC1 ; : : : ; sn / 2 Rn n
:
ad.A/
A 1 D D @8 1 6 A 9
det A 7 1 5 Die Matrix A i entsteht aus A durch Ersetzen von si
durch b.
Die Methoden aus dem 7 Abschn. 6.6 zum Invertieren
von Matrizen führen im Allgemeinen deutlich schneller
zum Ziel als die hier vorgestellte Methode mit der adjunk- Beweis Wie eben gezeigt, ist det.A/ genau dann inver-
ten Matrix. Aber der Satz zur adjunkten Matrix hat eine tierbar, wenn die Matrix A invertierbar ist, d. h., wenn
wichtige theoretische Bedeutung, mit ihm folgt nun ein A 1 2 Rn n existiert. Es ist dann v D A 1 b die eindeutig
allgemeines Invertierbarkeitskriterium für Matrizen über bestimmte Lösung des linearen Gleichungssystems. Damit
einem kommutativen Ring R mit 1. ist der erste Teil bereits gezeigt.
7.4  Anwendungen der Determinante
241 7
Nun sei det A in R invertierbar, und es sei v D Zu n C 1 verschiedenen Stützstellen
.v1 ; : : : ; vn / die eindeutig bestimmte P Lösung des Systems existiert genau ein Polynom vom Grad
A x D b. Dann gilt b D A v D jnD1 vj sj , sodass wegen kleiner gleich n, das die vorgegebenen
der Multilinearität der Determinante
Stellen interpoliert
Xn
det.A i / D det..s1 ; : : : ; si 1 ; vj sj ; si C1 ; : : : ; sn //
j D1 Bei einer Polynominterpolationsaufgabe wird zu gegebe-
X
n nen Stützstellen
D vj det..s1 ; : : : ; si 1 ; sj ; si C1 ; : : : ; sn // :
j D1
.x0 ; y0 /; : : : ; .xn ; yn / 2 R2
Nun ist aber die Determinante einer Matrix mit gleichen mit verschiedenen x0 ; : : : ; xn 2 R ein Polynom p 2 RŒX
Spalten null, sodass in dieser letzten Summe für jedes j ¤ gesucht, sodass der Graph f.x; p.x// j x 2 Rg der Poly-
i aus f1; : : : ; ng nomfunktion p diese Stützstellen enthält, d. h., es gilt:
det..s1 ; : : : ; si 1 ; sj ; si C1 ; : : : ; sn // D 0 p.xi / D yi für alle i 2 f0; 1; : : : ; ng :
gilt und in dieser Summe somit nur der i-te Summand ver- Das Polynom p nennt man in diesem Fall ein Interpolati-
bleibt, d. h., onspolynom.
det.A i / D vi det.A/ : Wir zeigen nun, dass es zu verschiedenen x0 ; x1 ; : : : ; xn
und beliebigen y0 ; y1 ; ; : : : ; yn genau ein Interpolationspo-
Da det.A/2 R invertierbar ist, können wir diese Gleichung lynom p 2 RŒX , d. h. eines vom Grad kleiner oder gleich
n
mit dem Inversen davon multiplizieren und erhalten wie ge- n, gibt. Dabei spielt die sogenannte Vandermonde-Matrix
wünscht vi D det1A det.A i /.  eine wichtige Rolle.
Will man die Cramer’sche Regel zum Lösen eines Glei-
chungssystems A x D b mit invertierbarer Matrix A Existenz und Eindeutigkeit des
anwenden, so ist die Determinante der Koeffizientenmatrix Interpolationspolynoms
A und für jede Komponente vi des Lösungsvektors v die Zu n C 1 Stützstellen .x0 ; y0 /; : : : ; .xn ; yn / mit paar-
Determinante der Matrix weise verschiedenen x0 ; : : : ; xn 2 R und beliebigen
A i D .s1 ; : : : ; si 1 ; b; si C1 ; : : : ; sn / y0 ; : : : ; yn 2 R gibt es genau ein Polynom

zu bestimmen. Damit läuft das Lösen eines solchen Glei- p D a0 C a1 X C    C an X n 2 RŒXn


chungssystems auf das Bestimmen von n C 1 Determinan-
ten von n n-Matrizen hinaus. Der Algorithmus von Gauß mit p.xi / D yi für i D 0; : : : ; n.
und Jordan führt im Allgemeinen schneller zur Lösung. In-
teressiert man sich aber etwa nur für eine oder einzelne
Komponenten des Lösungsvektors, so kann der Einsatz der
Cramer’schen Regel durchaus sinnvoll sein. Wir zeigen dies y
an einem Beispiel.
.x0 ; y0 /
Beispiel Wir bestimmen die x2 -Komponente der Lösung
.x3 ; y3 /
des reellen linearen Gleichungssystems:
x1 C 8 x2 C 3 x3 D 2
2 x1 C 4 x2  1 x3 D 1
2 x1 C x2 C 2 x3 D 1
.x2 ; y2 / x
Wegen
0 1
1 8 3
det @ 2 4 1A D 5 ¤ 0 .x1 ; y1 /
2 1 2

hat das gegebene System genau eine Lösung .v1 ; v2 ; v3 /> ,


und es gilt mit der Cramer’schen Regel:
ˇ ˇ
ˇ1 2 3 ˇˇ
1 ˇˇ 1 . Abb. 7.2 Das kubische Polynom p D  21 20 C 120 X C 30 X  120 X 2
161 11 2 19 3

v2 D ˇ 2 1 1ˇˇ D .5/ D 1 : 9 RŒX 3 enthält die gegebenen Stützstellen .3; 52 /, .2; 1/, .1; 12 / und
5 ˇ2 1 2 ˇ 5
.3; 2/
242 Kapitel 7  Determinanten – Kenngrößen von Matrizen

Beweis Zu zeigen ist die Existenz und Eindeutigkeit reeller Bei diesem Schritt haben wir also die .n C 1/ .n C 1/-
Zahlen a0 ; : : : ; an mit der Eigenschaft Vandermonde-Matrix auf eine n n-Vandermonde-Matrix
zurückgeführt. Induktiv folgt nun unter Beachtung von
yi D a0 C a1 xi C    C an xin für i D 0; : : : ; n : ( ) det.1/ D 1 die Formel

Es ist dann Y
n1 Y
n
det V D .xi  xj /:
j D0 i Dj C1
p D a0 C a1 X C    C an X 2 RŒXnn

Dies wird meistens in der Kurzform


das eindeutig bestimmte Polynom mit der gewünschten Ei- ˇ ˇ
genschaft. ˇ1 x0 x02 : : : x0n ˇ
ˇ ˇ
Die n C 1 Gleichungen in . / liefern ein lineares Glei- ˇ1 x1 x12 : : : x1n ˇ Y
ˇ ˇ
chungssystem für die n C 1 zu bestimmenden Koeffizienten ˇ :: :: :: :: ˇ D .xi  xj /
ˇ: : : : ˇ
a0 ; a1 ; : : : ; an 2 R. ˇ ˇ i >j
ˇ1 x x 2 : : : x n ˇ
Das Gleichungsystem lautet ausführlich n n n

7 geschrieben.
a0 x00 C a1 x0 C    C an x0n D y0
Es ist det V ¤ 0 , xi ¤ xj für alle i ¤ j .
a0 x10 C a1 x1 C    C an x1n D y1 Also existiert genau dann ein eindeutig bestimmtes Po-
a0 x20 C a1 x2 C    C an x2n D y2 lynom p D a0 C a1 X C    C an X n 2 RŒXn mit
:: :: :: :: p.xi / D yi für alle i, wenn die vorgegebenen Stellen
: : : :
x0 ; : : : ; xn paarweise verschieden sind, und dies wurde
a0 xn0 C a1 xn C    C an xnn D yn :
vorausgesetzt. 
Als Koeffizientenmatrix erhalten wir die sogenannte .n C
1/ .n C 1/-Vandermonde-Matrix Der Wert der Determinante
0 1 einer 2  2-Matrix ist der Flächeninhalt
1 x0 x02 : : : x0n
B1 x1 x12 : : : x1n C des von den Spalten aufgespannten
B C j
V D B: : :: :: C D .xi / 2 R
.nC1/ .nC1/
: Parallelogramms
@ :: :: : :A
1 xn xn2 : : : xnn
Wir deuten den Wert der Determinante einer 2 2-Matrix
Es existiert genau dann eine eindeutig bestimmte Lösung geometrisch.    
v1 w1
des Gleichungssystems . /, also das eindeutig bestimmte Sind v D ;w D Vektoren des R2 mit
v2 w2
Polynom p D a0 Ca1 X C  Can X n mit an ; : : : ; a1 ; a0 2
R, wenn die Determinante der Vandermonde-Matrix von v1 ; v2 ; w1 ; w2 > 0, so bilden die vier Punkte 0; v; w; v C w
Null verschieden ist. die Ecken eines Parallelogramms im ersten Quadraten des
Wir berechnen nun diese Determinante. Wir lassen die R2 (. Abb. 7.3). Wir bestimmen den Flächeninhalt F
erste Spalte unverändert und subtrahieren von der zweiten dieses Parallelogramms. Dazu ermitteln wir die zwei Flä-
Spalte das x0 -Fache der ersten Spalte, von der dritten Spalte cheninhalte F1 und F2 , wobei F1 die Fläche unterhalb des
das x0 -Fache der zweiten Spalte usw.: Streckenzugs von 0 über w zu vCw eingeschlossen mit der
x1 -Achse ist und F2 jene unterhalb des Streckenzugs von 0
ˇ ˇ über v zu v C w eingeschlossen mit der x1 -Achse ist. Es
ˇ1 0 0 ::: 0 ˇ
ˇ n1 ˇˇ gilt dann F D F1  F2 (. Abb. 7.4).
ˇ1 x1  x0 x1  x0 x1 : : : x1  x0 x1
2 n
ˇ ˇ Für F1 gilt:
det V D ˇ : :: :: :: ˇ
ˇ :: : : : ˇ
ˇ ˇ 1 1
ˇ1 2 n n1 ˇ
xn  x0 xn  x0 xn : : : xn  x0 xn F1 D w1 w2 C v1 .v2 C 2 w2 / :
ˇ ˇ 2 2
ˇ1 0 0 ::: 0 ˇ
ˇ ˇ
ˇ1 x1  x0 .x1  x0 /x1 : : : .x1  x0 /x1n1 ˇ Für F2 erhalten wir:
ˇ ˇ
D ˇ :: :: :: :: ˇ 1 1
ˇ: : : : ˇ F2 D v1 v2 C w1 .2 v2 C w2 / :
ˇ ˇ
ˇ1 xn  x0 .xn  x0 /xn : : : .xn  x0 /xnn1 ˇ 2 2
ˇ ˇ Damit gilt F D F1  F2 D v1 w2  w1 v2 , d. h.,
ˇ1 x1 : : : x1n1 ˇ
Y n ˇ ˇ ˇ  ˇ
ˇ :: :: :: ˇ ˇ v1 w1 ˇˇ
D .xi  x0 / ˇ : : : ˇ ˇ
ˇ ˇ F D ˇ det :
i D1 ˇ1 xn : : : x n1 ˇ v2 w2 ˇ
n
7.4  Anwendungen der Determinante
243 7
x2 x2
w
vCw

w x1

F
. Abb. 7.5 Die Vektoren .v; w/ sind positiv orientiert und .w; v/ negativ

e2 Beispiel Mittels der Determinante können wir die Flächen-


v
inhalte von Dreiecken bestimmen. So erzeugen zwei positiv
orientierte Vektoren .v; w/ das Dreieck 0, v, w mit dem
e1 x1 Flächeninhalt F D 1=2 det..v; w// (. Abb. 7.6).
Damit lassen sich aber auch wesentlich komplizierte-
. Abb. 7.3 Die Spaltenvektoren v D .vi / und w D .wi / einer 2 re Flächeninhalte im R2 bestimmen. Wir betrachten die
2-Matrix A erzeugen ein Parallelogramm mit dem Flächeninhalt F D
Fläche F in . Abb. 7.7, die von den Vektoren v1 ; : : : ; v5
det A
erzeugt wird.
Die Fläche F ist die Differenz zweier Flächen
Insbesondere folgt, dass die Determinante null ist, wenn die (. Abb. 7.8). Wir geben diese beiden Flächen an: Die gro-
beiden Vektoren v und w linear abhängig sind, da in diesem ße Fläche F1 wird von den Vektoren 0; v2 , v3 , v4 erzeugt,
Fall die Vektoren v; w keinen nicht verschwindenden Flä- die kleinere F2 von den Vektoren 0, v1 , v2 , v4 , v5 .
cheninhalt aufspannen.
Bei linear unabhängigen Vektoren v und w kann der
Flächeninhalt F D det..v; w// des von v und w erzeugten x2
Parallelogramms positiv oder negativ sein. Im Gegensatz
zu dem im 7 Kap. 5 beim Vektorprodukt aufgetretenen In- v2
halt sprechen wir daher hier besser von einem orientierten
Flächeninhalt im R2 . Was bedeutet dabei das Vorzeichen
von F ?  
v1 w1
Die Determinante det ist positiv, wenn die
v2 w2 F v1
Richtung von w aus jener von v durch eine Drehung gegen
den Uhrzeigersinn entsteht, wobei der Drehwinkel zwi-
x1
schen 0 und 180 Grad liegt. In diesem Fall nennt man die
Vektoren .v; w/ in dieser Reihenfolge positiv orientiert
. Abb. 7.6 Zwei positiv orientierte Vektoren bestimmen ein Dreieck mit
(siehe . Abb. 7.5).  dem Flächeninhalt F D 1=2 det..v1 ; v2 //
v1 w1
Gilt det < 0, so nennt man die Vektoren
v2 w2
x2 v4
.v; w/ in dieser Reihenfolge negativ orientiert. Das Ver-
tauschen der Spalten, also das Umreihen der Basisvektoren
ändert die Orientierung der Basis. v3

v5 F

v2 w2
v1 v2
w2
w w
F1
v2
v
v F2

w1 v1 v1 w1 w1 v1 v1 w1
x1
. Abb. 7.4 Der Flächeninhalt des Parallelogramms ist gleich der Diffe-
renz der beiden Flächeninhalte F1 und F2 . Abb. 7.7 Die fünf Vektoren v1 ; : : : ; v5 bestimmen die Fläche F
244 Kapitel 7  Determinanten – Kenngrößen von Matrizen

Diese Formel wurde in 7 Kap. 5 hergeleitet. Dort wurde


auch das Spatprodukt det.u; v; w/ als orientiertes Volumen
im Anschauungsraum eingeführt.
Das Volumen j det.u; v; w/j des Parallelepipeds ist ge-
nau dann null, wenn die drei Vektoren u; v; w 2 R3 linear
F1 F2 abhängig sind. Der Spat ist dann „flach“, also in einer Ebe-
ne gelegen oder auf einer Geraden, oder er ist überhaupt auf
einen einzigen Punkt geschrumpft.

. Abb. 7.8 Die Fläche F ist die Differenz der beiden Flächen F1 und F2 Die Determinante ermöglicht die Definition
eines n-dimensionalen Volumens
Für den Inhalt der großen Fläche F1 gilt:
Im Anschluss an die vorhin betrachteten Fälle im R2 und
2 F1 D det..v2 ; v3 // C det..v3 ; v4 //;
R3 liegt folgende Verallgemeinerung nahe: Wir betrachten
7 im Rn das n-dimensionales Parallelepiped P , welches von
und für jenen der kleinen Fläche F2 gilt:
den n Vektoren v1 ; : : : ; vn aufgespannt wird. Wir definieren
2 F2 D det..v2 ; v1 // C det..v1 ; v5 // C det..v5 ; v4 // : das n-dimensionale Volumen dieses Parallelepipeds als
Damit ist dann F D F1  F2 . voln .P / D jdet.v1 ; : : : ; vn /j :
Wir haben die Vektoren gegen den Uhrzeigersinn num-
meriert – das war nicht ganz ohne Absicht. Beachtet man Für eine lineare Abbildung ' des Rn erklären wir das Bild
nämlich nun noch die Orientierung, so erhalten wir die '.P / als dasjenige Parallelepiped, welches von den n Bild-
deutlich einfachere Formel: vektoren '.v1 /; : : : ; '.vn / aufgespannt wird.
Die lineare Abbildung ' habe die Darstellungsmatrix
2 F D det..v1 ; v2 // C det..v2 ; v3 // C det..v3 ; v4 // A D En M .'/En bezüglich der geordneten Standardbasis
C det..v4 ; v5 // C det..v5 ; v1 //: 9 En , d. h., '.vi / D A vi für alle i D 1; : : : ; n. Damit er-
halten wir für das n-dimensionale Volumen voln .'.P // des
Bildes von P aufgrund des Determinantenmultiplikations-
Der Wert der Determinante einer satzes den Wert
3  3-Matrix ist das Volumen des von den
jdet.A v1 ; : : : ; A vn /j D jdet A det.v1 ; : : : ; vn /j :
Spalten aufgespannten Parallelepipeds
Zusammenfassend gilt:
0 1 0 1 0 1
u1 v1 w1 voln .'.P // D j det A j voln .P / :
Sind u D @u2 A, v D @v2 A und w D @w2 A Vekto-
u3 v3 w3 Die Volumina sämtlicher Parallelepipede werden mit dem-
ren des reellen Vektorraums R , so bilden die acht Punkte
3 selben Faktor j det Aj multipliziert (. Abb. 7.10). Dieser
0; u; v; w; u C v; v C w; u C w; u C v C w die Ecken eines Volumenverzerrungsfaktor gilt übrigens für sämtliche Kör-
Spates oder Parallelepiped (. Abb. 7.9) mit dem Volumen perinhalte im Rn , nicht nur für Parallelepipede.

j det.u; v; w/j D ju1 v2 w3 C u2 v3 w1 C u3 v1 w2 ?Selbstfrage 7.8


 .u1 v3 w2 C u2 v1 w3 C u3 v2 w1 /j : Welche linearen Abbildungen sind volumentreu, d. h. än-
dern die Volumina nicht?

x2 x2

'..1; 1// D .2; 2/


2 2
2 0
u .1; 1/ AD
1 1 1 1

v F
w 1 2 x1 1 2 x1

. Abb. 7.9 Die Spaltenvektoren u, v und w einer Matrix A erzeugen . Abb. 7.10 Der Flächeninhalt des Parallelogramms wird mit dem Fak-
einen Spat, dessen Volumen der Betrag der Determinante von A ist tor j det Aj D 2 verzerrt
Aufgaben
245 7

Aufgaben 7.6  Berechnen Sie die Determinante des magischen


Quadrats
Gelegentlich enthalten die Aufgaben mehr Angaben, als für 16 3 2 13
die Lösung erforderlich sind. Bei einigen anderen dage- 5 10 11 8
gen werden Daten aus dem Allgemeinwissen, aus anderen 9 6 7 12
Quellen oder sinnvolle Schätzungen benötigt. 4 15 14 1
einfache Aufgaben mit wenigen Rechenschritten aus Albrecht Dürers Melancholia.
mittelschwere Aufgaben, die etwas Denkarbeit und
unter Umständen die Kombination verschiedener 7.7  Bestimmen Sie die Determinante der folgenden
Konzepte erfordern Tridiagonalmatrizen
anspruchsvolle Aufgaben, die fortgeschrittene Kon- 0 1
zepte (unter Umständen auch aus späteren Kapiteln) 1 i 0 ::: 0
B :: :C
oder eigene mathematische Modellbildung benötigen Bi 1 : :: C
B i C
B C
B ::
: 0C C2C
n n
B0 i 1 :
B: C
B: :: :: :: C
Verständnisfragen @: : : : iA
0 ::: 0 i 1
7.1  Begründen Sie: Sind A und B zwei reelle n Zusatzfrage: Was haben Kaninchenpaare damit zu tun?
n-Matrizen mit
7.8  Es seien V ein K-Vektorraum und n eine natür-
A B D 0 ; aber A ¤ 0 und B ¤ 0 ; liche Zahl. Welche der folgenden Abbildungen ' W V n !
K, n > 1, sind Multilinearformen? Begründen Sie Ihre Ant-
so gilt worten.
(a) Es sei V D K, ' W V n ! K, .a1 ; : : : ; an /> 7!
det.A/ D 0 D det.B/ : a1    an .
(b) Es sei V D K, ' W V n ! K, .a1 ; : : : ; an /> 7! a1 C
7.2  Hat eine Matrix A 2 Rn n mit n 2 2N C 1 und : : : C an .
A D A > die Determinante 0? (c) Es sei V D R2 2 , ' W V 3 ! R, .X ; Y ; Z / 7!
Sp.X Y Z /. Dabei ist die Spur Sp.X / einer n
7.3  Folgt aus der Invertierbarkeit einer Matrix A n-Matrix X D .aij / die Summe der Diagonalelemen-
stets die Invertierbarkeit der Matix A > ? te: Sp.X/ D a11 C a22 C    C ann.

7.9  Berechnen Sie die Determinante der reellen n


Rechenaufgaben n-Matrix
0 1
0 ::: 0 d1
7.4  Bestimmen Sie die Determinante der Matrix B :: : C
B: :: d2 C
0 1 ADB
B
C
:: C
@0 : :
0 0 a 0 :: :: :A
B0 0 0 bC
ADB
@0
C 2 R4 4 dn :::
c 0 0A
d 0 0 0 7.10  Es sei V D R2
sowie ' WV ! V definiert
2

> 1 2
durch X 7! .A X  2 X / mit A D 2 R2 2 .
mittels der Leibniz’schen Formel. 0 1
Bestimmen Sie det.'/.
7.5  Berechnen Sie die Determinanten der folgenden
reellen Matrizen:
0 1 Beweisaufgaben
0 1 2 0 0 0 2
1 2 0 0
B0 2 0 2 0C
B2 1 0 0C B C 7.11 
ADB
@0
C ; B D B0
B 0 2 0 0CC
Zeigen Sie, dass für invertierbare Matrizen
0 3 4A @0 A; B 2 Kn n
2 0 2 0A gilt:
0 0 4 3
2 0 0 0 2 ad.A B/ D ad.B/ ad.A/ :
246 Kapitel 7  Determinanten – Kenngrößen von Matrizen

7.12  Zu jeder Permutation  W f1; : : : ; ng ! Antworten zu den Selbstfragen


f1; : : : ; ng wird durch f .ej / D e  .j / für 1  j  n ein
Isomorphismus f W Kn ! Kn erklärt. Es sei P  2 Kn n
vAntwort 7.1
die Matrix mit f .x/ D P  x. Zeigen Sie P  P D P  ,
1 > 1 Wegen sgn.id/ D 1 und der Homomorphie von sgn gilt
P  D P  1 D P  und P  .aij /P  D .a .i / .j //. Wel-
che Determinante kann P  nur haben? 1 1
sgn. / sgn./ D sgn. ı / D sgn.id/ D 1 :
7.13  Für Elemente r1 ; : : : ; rn eines beliebigen Kör-
Damit erhalten wir sgn. 1 / D sgn./.
pers K sei die Abbildung f W K ! K, durch f .x/ D
.r1  x/.r2  x/    .rn  x/ erklärt. Zeigen Sie:
vAntwort 7.2
ˇ ˇ Mithilfe des Untergruppenkriteriums kann man einfach
ˇr1 a a  aˇ
ˇ ˇ zeigen, dass An eine Untergruppe von Sn ist. Noch einfa-
ˇb r2 a  aˇ
ˇ ˇ af .b/  bf .a/ cher geht es mit dem folgenden Trick: An ist der Kern des
ˇb b r3  a ˇˇ D für a ¤ b:
ˇ ab Homomorphismus sgn und als solcher eine Untergruppe
ˇ  ˇ
ˇ ˇ von Sn .
7 ˇb b b  rn ˇ
vAntwort 7.3
7.14  Zeigen Sie, dass jede Permutation  2 Sn ein Ja. Die Determinante ist das Produkt der Diagonalelemen-
Produkt von Transpositionen ist, d. h., es gibt Transpositio- te; das folgt aus der Regel von Sarrus.
nen 1 ; : : : ; k 2 Sn mit
vAntwort 7.4
D 1 ı ı k : Nein. Man wähle etwa A D E2 und B D E2 .

7.15  Es seien K ein Körper und A 2 Km ,B 2 m


vAntwort 7.5
K . Die Blockmatrix A ˝ B D .aij B/i;j D1;:::;m 2
n n
Ja, sie stellen lineare Abbildungen eines n-dimensionalen
Kmn mn heißt das Tensorprodukt von A und B. Zeigen Raums in einen n-dimensionalen Vektorraum dar. Damit
Sie ist jede Darstellungsmatrix eine n n-Matrix.

det A ˝ B D .det A/n .det B/m vAntwort 7.6


Durch elementare Zeilen- oder Spaltenumformungen
(a) zunächst für den Fall, dass A eine obere Dreiecksma- kann man eine Nullzeile oder Nullspalte erzeugen. Die
trix, ist; Determinante der Matrix mit einer Nullzeile oder Null-
(b) für beliebiges A. spalte ist null, folglich ist auch die Determinante der
ursprünglichen Matrix A null.
7.16  Es sei x ein Element eines Körpers K, und
A n D ..x  1/ıij C 1/i;j D1;:::;n 2 Kn n . Hierbei ist ıij vAntwort 7.7
das Kronecker-Symbol: ıij D 0 für i ¤ j , und ıi i D 1. Ja, man wende den Determinantenmultiplikationssatz an:
Zeigen Sie:
0 ¤ det.A B/ D det.A/ det.B/ :
det.A n / D .x  1/n1 .x C n  1/:
Somit gilt det.A/; det.B/ ¤ 0.

vAntwort 7.8
Jene mit Determinante j det 'j D 1 lassen die Volumina
unverändert. Jene mit det ' D 1 bilden übrigens die spe-
zielle lineare Gruppe SLn .K/. Lineare Abbildungen mit
det ' D 1 ändern nur das Vorzeichen der orientierten
Volumina.
247 8

Normalformen –
Diagonalisieren
und Triangulieren

Inhaltsverzeichnis

8.1 Diagonalisierbarkeit – 249

8.2 Eigenwerte und Eigenvektoren – 252

8.3 Berechnung der Eigenwerte und Eigenvektoren – 255

8.4 Algebraische und geometrische Vielfachheit – 261

8.5 Die Exponentialfunktion für Matrizen – 269

8.6 Das Triangulieren von Endomorphismen – 272

8.7 Die Jordan-Normalform – 277

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_8
8.8 Die Berechnung einer Jordan-Normalform und
Jordan-Basis – 283

8.9 Das Minimalpolynom einer Matrix – 296

Aufgaben – 300

Antworten zu den Selbstfragen – 302


8.1  Diagonalisierbarkeit
249 8

n Sie finden unter anderem Antworten zu . . . Mit Diagonalmatrizen wird vieles einfacher
4 Wie berechnet man auf einfache Art Potenzen von
Matrizen?
Die Multiplikation einer Diagonalmatrix D 2 Kn n
mit
4 Welche Matrizen sind diagonalisierbar?
einem Vektor v D .vi / 2 Kn ist sehr einfach:
4 Wodurch unterscheidet sich eine Jordan-Normalform
von einer Diagonalform? 0 10 1 0 1
1  0 v1 1 v1
B :: :: :: C B :: C B :: C
Lineare Abbildungen von Vektorräumen in sich sind im Dv D@ : : : A @ : A D @ : A:
Allgemeinen nicht einfach zu beschreiben. Bei endlich- 0  n vn n vn
dimensionalen Vektorräumen ist es möglich, solche Ab-
bildungen bezüglich einer gewählten Basis des Vektor- Entsprechend einfach ist die Multiplikation einer Diagonal-
raums durch Matrizen darzustellen. Zu jedem Endomor- matrix D D diag.1 ; : : : ; n / mit einer Matrix A. Die i-te
phismus eines endlichdimensionalen Vektorraums gehört Zeile des Produkts DA ist das i -Fache der i-ten Zeile zi
eine Äquivalenzklasse von zueinander ähnlichen Matrizen. von A: 0 1 0 1
Wir wollen aus jeder Äquivalenzklasse einen Repräsen- z1 1 z1
B:C B : C
tanten bestimmen, der eine möglichst einfache Form hat. A D @ :: A ) D A D @ :: A :
Als besonders einfach betrachten wir dabei eine Diago- zn n zn
nalmatrix. Leider lässt sich nicht jeder Endomorphismus
so diagonalisieren, jedoch kann oft ein Repräsentant be- Und Potenzen einer Diagonalmatrix zu bilden, bedeutet Po-
stimmt werden, der zumindest eine obere Dreiecksge- tenzen der Diagonaleinträge zu bilden, denn es gilt für jedes
stalt hat. Die Ursache dafür, ob es eine solche einfache k 2 N: 0 1 0 k 1
Form gibt oder nicht, ist im zugrunde gelegten Körper 1    0 1    0
K des Vektorraums zu suchen: Ist K algebraisch abge- B: :C B: :C
D D @ :: : : : :: A ) D k D @ :: : : : :: A
schlossen, d. h. zerfällt jedes nicht konstante Polynom über
K in Linearfaktoren, so ist die Existenz einer einfachen 0    n 0    kn
 
Form gesichert. Insbesondere werden Polynome (siehe 1:8 0:8
7 Abschn. 2.4) eine wesentliche Rolle im vorliegenden Ka- Für die reelle Matrix A D gilt
0:2 1:2
pitel spielen.    
17 12 1 33 28
Die Vorteile von Diagonal- oder Dreiecksmatrizen lie- A 2 D 1=5 ; A3 D I
3 8 5 7 12
gen auf der Hand – die Rechnung mit solchen Matrizen ist
deutlich einfacher als mit vollen Matrizen. Und wenn man bei Diagonalmatrizen ist es viel einfacher Potenzen zu bil-
bedenkt, dass das Rechnen mit (Darstellungs-)Matrizen den.
nichts weiter ist, als das Anwenden von linearen Ab- Die Matrizenmultiplikation wird also mit Diagonalma-
bildungen, so sieht man, dass sich damit der Kreis zu trizen deutlich erleichtert. Es gibt noch einen weiteren
den Anwendungen der Mathematik schließt. Tatsächlich Anlass, bei dem man sich Diagonalmatrizen wünscht, bei
werden die erzielten Ergebnisse in zahlreichen Gebieten Darstellungsmatrizen linearer Abbildungen – letztlich ist es
der Naturwissenschaften aber auch innerhalb der Mathe- aber auch hier wieder nur die Vereinfachung der Matrizen-
matik, z. B. bei den Differenzialgleichungssystemen, be- multiplikation, die man sich dabei zum Ziel setzt.
nutzt.
Die Schlüsselrolle beim Diagonalisieren bzw. Triangu-
lieren spielen Vektoren v, die durch einen Endomorphismus Ein Endomorphismus heißt
auf skalare Vielfache  v von sich selbst abgebildet werden diagonalisierbar, wenn es eine Basis gibt,
– man nennt v einen Eigenvektor und  einen Eigen-
wert.
bezüglich der die Darstellungsmatrix
Wir bezeichnen in diesem Kapitel mit K einen Kör- diagonal ist
per.
Eine lineare Abbildung nennen wir auch Endomorphismus,
8.1 Diagonalisierbarkeit wenn die Bildmenge gleich der Definitionsmenge ist. Wir
betrachten nun einen Endomorphismus ' eines n-dimen-
sionalen Vektorraums V , n 2 N:
Um unser Vorgehen zu motivieren, zeigen wir, welche

Vorteile Matrizen in Diagonalgestalt gegenüber anderen V ! V;
'W
quadratischen Matrizen haben. v 7! '.v/:
250 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Die Darstellungsmatrix des Endomorphismus ' bezüg- x2


lich einer geordneten Basis A D .a1 ; : : : ; an / bezeichnen 2
wir kurz mit A:

A D A M .'/A D .A '.a1 /; : : : ; A '.an // : b2 D 1


1
1 b1
Die i-te Spalte der Darstellungsmatrix ist der Koordinaten-
vektor des Bildes des i-ten Basisvektors.
Nehmen wir nun an, es gibt zur linearen Abbildung ' 2 1 1 2 x1
eine solche geordnete Basis B D .b1 ; : : : ; bn /, für die gilt:
1 b2 D 1
1
'.b1 / D 1 b1 ; : : : ; '.bn / D n bn

mit 1 ; : : : ; n 2 K; d. h., jeder Basisvektor wird auf ein 2


Vielfaches von sich abgebildet. Dann erhalten wir als Dar-
stellungsmatrix von ' bezüglich einer solchen geordneten . Abb. 8.1 Bei einer Spiegelung an der Geraden x2 D x1 wird der Vek-
Basis B die Diagonalmatrix tor b1 auf 1 b1 und b2 auf 1 b2 abgebildet

B D B M .'/B D .B '.b1 /; : : : ; B '.bn //


8 0 1 Nicht zu jedem Endomorphismus existiert eine solche Ba-
1    0
B: :C sis, bei der jeder Basisvektor auf ein Vielfaches von sich
D @ :: : : : :: A abgebildet wird. Ein einfaches Beispiel für einen solchen
0    n nicht diagonalisierbaren Endomorphismus ist eine Dre-
hung um den Ursprung um einen Winkel ˛ 2 .0; /.
weil die Koordinatenvektoren der Bilder der Basisvektoren
b1 ; : : : ; bn bezüglich der Basis B eine solche einfache Ge- Beispiel Bei einer Drehung ı˛ um den Ursprung im R2
stalt haben. Und wir haben weiterhin den Zusammenhang um einen Winkel ˛ 2 .0; / gibt es keinen vom Nullvektor
0 1 verschiedenen Vektor, der auf ein Vielfaches von sich selbst
1    0
B: :C abgebildet wird (. Abb. 8.2).
B D @ :: : : : :: A D S 1 A S Die Darstellungsmatrix dieser Drehung ı˛ bezüglich
0    n der Standardbasis E2 erhalten wir einfach durch Angabe
der Koordinatenvektoren der Bilder der Basisvektoren:
mit der Darstellungsmatrix A von ' bezüglich der Basis A  
und cos ˛  sin ˛
E2 M .ı˛ /E2 D : 9
sin ˛ cos ˛
S D A M .id/B D .A b1 ; : : : ; A bn / ;

beachte die Transformationsformel für quadratische Matri- ?Selbstfrage 8.1


zen in 7 Abschn. 6.8. Die Matrix A D A M .'/A ist somit Was ist mit den Winkeln ˛ D 0 und ˛ D ?
zu der Diagonalmatrix B D B M .'/B ähnlich.
x2
Beispiel Die Spiegelung  an der Geraden x2 D x1
(. Abb. 8.1) hat bezüglich der Standardbasis E2 die Dar-
stellungsmatrix
 
0 1
A D E2 M . /E2 D
1 0
˛
    ˛
1 1 ˛
Für die Elemente b1 D und b2 D gilt:
1 1
x1
˛
 .b1 / D 1 b1 und  .b2 / D 1 b2 ; ˛

d. h., dass für die geordnete Basis B D .b1 ; b2 / gilt:


   
1 0 1 0 1
B M . /B D DS S
0 1 1 0
 
1 1 . Abb. 8.2 Jeder Vektor wird um den gleichen Winkel um den Ursprung
mit S D 9
1 1 herum gedreht
8.1  Diagonalisierbarkeit
251 8
Nicht alle Endomorphismen lassen sich durch eine Dia- Andererseits könnte man einwenden, dass wir die Ma-
gonalmatrix darstellen, aber jene, für die das möglich ist, trizen nicht extra zu betrachten brauchen und anstelle von
nennen wir diagonalisierbare Endomorphismen, genauer: der Matrix A nur noch vom Endomorphismus 'A sprechen
sollten. Aber tatsächlich hat man es in den Anwendungen
fast immer mit Matrizen zu tun, sodass es etwas weltfremd
Diagonalisierbare Endomorphismen wäre, wenn wir nur noch mit Endomorphismen hantieren
Ein Endomorphismus ' W V ! V eines n-dimensiona- würden. Außerdem haben die Begriffe in der Sprache der
len Vektorraums, n 2 N, heißt diagonalisierbar, wenn es Matrizen teils ein Eigenleben, wie bereits bei dem einfa-
eine geordnete Basis B D .b1 ; : : : ; bn / von V gibt, bezüg- chen Begriff der Diagonalisierbarkeit oben.
lich der die Darstellungsmatrix B M .'/B Diagonalgestalt Wir werden im Folgenden daher viele Begriffe doppelt
hat. einführen, einmal für Endomorphismen, einmal für Matri-
zen. Die Begriffe für die Endomorphismen benötigen wir
mehr für die Theorie, die für die Matrizen für das tatsächli-
che Rechnen und das Anwenden der Theorie.
Die obige Spiegelung im R2 ist damit ein diagonalisierba-
rer Endomorphismus, die Drehung im R2 um einen Winkel
Beispiel
˛ 2 .0; / dagegen nicht.
4 Jede Diagonalmatrix D ist diagonalisierbar; man wähle
S D En .  
0 1
Eine Matrix heißt diagonalisierbar, wenn sie 4 Die Matrix A D ist diagonalisierbar. Man
1 0
ähnlich zu einer Diagonalmatrix ist  
1 1
wähle S D . 9
1 1
In den Aufgaben und Anwendungen zur Diagonalisierbar-
keit werden wir seltener Endomorphismen, sondern viel- Nicht jeder Endomorphismus bzw. jede Matrix ist diagona-
mehr Matrizen diagonalisieren. Dabei nennen wir eine lisierbar (siehe das Beispiel oben zu den Drehungen). Zwei
Matrix A 2 Kn n diagonalisierbar, wenn der Endomor- grundlegende Fragen tauchen auf:
phismus 4 Welche Endomorphismen bzw. Matrizen sind diagona-
lisierbar?
 n 4 Wenn der Endomorphismus ' bzw. die Matrix A diago-
K !K ; n
'A W nalisierbar ist, wie bestimmt man effizient die Basis B
v 7! A v
mit B M .'/B D D bzw. die Matrix S mit S 1 A S D
D, wobei D eine Diagonalmatrix ist?
des Kn diagonalisierbar ist, d. h., dass es eine geordnete Ba-
sis B D .b1 ; : : : ; bn / des K gibt, bezüglich der B M .'A /B Einen ersten Hinweis liefert das folgende Kriterium:
n

Diagonalgestalt hat. Dies können wir nach der Transforma-


tionsformel für quadratische Matrizen aus 7 Abschn. 6.8
auch unabhängig vom Endomorphismus 'A formulieren: 1. Kriterium für Diagonalisierbarkeit
4 Ein Endomorphismus ' W V ! V eines n-dimensio-
nalen Vektorraums V ist genau dann diagonalisierbar,
Diagonalisierbare Matrizen wenn es eine geordnete Basis B D .b1 ; : : : ; bn / von
Eine Matrix A 2 Kn n heißt diagonalisierbar, wenn sie V mit der Eigenschaft
ähnlich zu einer Diagonalmatrix D ist, d. h., wenn es eine
invertierbare Matrix S 2 Kn n gibt, sodass '.b1 / D 1 b1 ; : : : ; '.bn / D n bn

D D S 1 A S gibt. In diesem Fall ist D D B M .'/B eine Diagonal-


matrix mit den Diagonalelementen 1 ; : : : ; n .
eine Diagonalmatrix ist. 4 Eine Matrix A 2 Kn n ist genau dann diagonalisier-
bar, wenn es eine geordnete Basis B D .b1 ; : : : ; bn /
des Kn mit der Eigenschaft
Nun könnte man zum einen meinen, dass wir die Endomor-
phismen unter den Tisch fallen lassen und nur noch von der A b1 D 1 b1 ; : : : ; A bn D n bn
Diagonalisierbarkeit von Matrizen sprechen könnten. Tat-
sächlich aber sind die Endomorphismen für die Theorie von gibt. In diesem Fall ist die Matrix D D S 1 A S mit
großer Bedeutung, vor allem dann, wenn wir zu den nicht S D .b1 ; : : : ; bn / eine Diagonalmatrix mit den Dia-
diagonalisierbaren Matrizen eine dennoch möglichst einfa- gonalelementen 1 ; : : : ; n .
che Darstellungsmatrix bestimmen werden.
252 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Beweis Es sei ' ein Endomorphismus eines n-dimensio- Diese Gleichung besagt
nalen K-Vektorraums V . Der Endomorphismus ' ist genau
dann diagonalisierbar, wenn eine geordnete Basis B D A D S D S 1 ;
.b1 ; : : : ; bn / von V existiert mit
0 1 also gilt für jedes k 2 N:
1 0
B :: C
B M .'/B D @ : A A k D .S D S 1 /k D S 1
„ DS S DS
1 1
ƒ‚    S D S …
0 n k-mal

D S D k S 1 :
Dies ist gleichwertig mit
'.b1 / D 1 b1 ; : : : ; '.bn / D n bn : Wir erhalten in diesem Fall die k-te Potenz von A durch
Bilden der k-ten Potenz einer Diagonalmatrix und Bilden
Für eine Matrix A 2 Kn n folgt die Aussage aus dem ersten des Produkts dreier Matrizen.
Teil, indem man den Endomorphismus 'A W Kn ! Kn Diesen Trick wenden wir z. B. bei den Fibonacci-Zah-
betrachtet. len an, um eine explizite Formel für die k-te Fibonacci-Zahl
Die Aussage D D S 1 A S mit S D .b1 ; : : : ; bn / herzuleiten. Aber dazu müssen wir erst herausfinden, wie
steht bereits in der Transformationsformel für quadratische man zu einer nicht diagonalen, aber diagonalisierbaren Ma-
8 Matrizen.  trix A die auf Diagonalform transformierende Matrix S
bestimmt. Dazu dienen Eigenwerte und Eigenvektoren.
Kommentar Übrigens folgt aus der Gleichung D D
S 1 A S mit einer Diagonalmatrix D D diag.1 ; : : : ; n /
und einer invertierbaren Matrix S D .b1 ; : : : ; bn / durch 8.2 Eigenwerte und Eigenvektoren
Multiplikation mit S die Gleichung S D D A S , d. h.,
.1 b1 ; : : : ; n bn / D .A b1 ; : : : ; A bn / ; Im Mittelpunkt aller bisherigen Überlegungen standen Vek-
toren v 2 V nf0g, für die '.v/ D  v für ein  2 K gilt. Wir
also A b1 D 1 b1 ; : : : ; A bn D n bn . geben diesen Vektoren v wie auch den zugehörigen Körper-
elementen  Namen.
Beispiel Wie in den bisherigen Beispielen bereits gezeigt,
ist die Matrix
  Eigenwerte und Eigenvektoren machen
0 1
AD nur gemeinsam einen Sinn
1 0

diagonalisierbar, die Matrix


  Wir definieren Eigenwerte und Eigenvektoren gleichzeitig
cos ˛  sin ˛ für Endomorphismen und Matrizen.
BD
sin ˛ cos ˛

für ˛ 2 .0; / jedoch nicht. 9


Eigenwerte und Eigenvektoren
4 Man nennt ein Element  2 K einen Eigenwert eines
Von diagonalisierbaren Matrizen lassen sich Endomorphismus ' W V ! V , wenn es einen Vektor
ganz einfach beliebig hohe Potenzen bilden v 2 V n f0g mit

'.v/ D  v
Eine der wichtigsten Eigenschaften von Diagonalmatrizen
ist es, dass man Potenzen davon auf sehr einfache Art und gibt. Der Vektor v heißt in diesem Fall Eigenvektor
Weise bestimmen kann. Ist A 2 Kn n eine nicht notwendig von ' zum Eigenwert .
diagonale, aber diagonalisierbare Matrix, so kann man sich 4 Man nennt ein Element  2 K einen Eigenwert der
mit einem Trick behelfen, um Potenzen von A zu berech- Matrix A 2 Kn n , wenn es einen Vektor v 2 Kn n f0g
nen. mit
Da A 2 Kn n diagonalisierbar ist, existiert eine inver-
tierbare Matrix S 2 Kn n mit Av D v
0 1
1 0
B :: C gibt. Der Vektor v heißt in diesem Fall Eigenvektor
D D S 1 A S D @ : A von A zum Eigenwert .
0 n
8.2  Eigenwerte und Eigenvektoren
253 8

i Der Nullvektor 0 ist kein Eigenvektor – für keinen Eigen- dessen einzige
 Lösung
  wegen
 2 ¤ 1 für alle  2 R
wert. Eine solche Definition wäre auch nicht sinnvoll, da v1 0
der Vektor D ist. Weil der Nullvektor aber
der Nullvektor sonst wegen v2 0
kein Eigenvektor ist, gibt es keine Eigenvektoren und
'.0/ D 0 D  0 für alle  2 K folglich keine Eigenwerte. 9

Eigenvektor zu jedem Eigenwert wäre. Es ist jedoch ?Selbstfrage 8.2


durchaus zugelassen, dass 0 2 K ein Eigenwert ist. Welche Eigenwerte und Eigenvektoren hat die Nullmatrix
0 2 Kn n ?
Beispiel
1. Die Einheitsmatrix En 2 Kn n
hat den Eigenwert 1, da Mit dem Begriff des Eigenvektors können wir das Krite-
für jeden Vektor v 2 Kn gilt: rium für die Diagonalisierbarkeit einer Matrix A kürzer
fassen.
En v D 1 v :

Damit kann En auch keine weiteren Eigenwerte haben,


da bereits jeder vom Nullvektor verschiedene Vektor 2. Kriterium für Diagonalisierbarkeit
des Kn Eigenvektor 1 ist. 4 Ein Endomorphismus ' W V ! V eines n-dimensio-
 zum Eigenwert

3 1 nalen Vektorraums V ist genau dann diagonalisierbar,
2. Die Matrix A D 2C 2 2
hat wegen wenn es eine geordnete Basis B D .b1 ; : : : ; bn / von
1 1
V aus Eigenvektoren von ' gibt.
     
1 2 1 In diesem Fall ist D D B M .'/B eine Diagonalmatrix
A D D2 mit den Eigenwerten 1 ; : : : ; n auf der Diagonalen.
1 2 1
4 Eine Matrix A 2 Kn n ist genau dann diagonalisier-
  bar, wenn es eine geordnete Basis B D .b1 ; : : : ; bn /
1
den Eigenwert 2 und den Eigenvektor zum Eigen- des Kn aus Eigenvektoren von A gibt.
1
  In diesem Fall ist die Matrix D D S 1 A S mit
1
wert 2. Ebenso ist jedes Vielfache  ,  2 C n f0g, S D .b1 ; : : : ; bn / eine Diagonalmatrix mit den Ei-
1
wegen genwerten 1 ; : : : ; n auf der Diagonalen.

     
1 2 1
A D D 2
1 2 1
Der Eigenraum zu einem Eigenwert
ein Eigenvektor zum Eigenwert
! 2. besteht aus allen Eigenvektoren
0 1 plus dem Nullvektor
3. Die Matrix A D 2 Z22 2 hat wegen
1 0
! ! Zu einem Eigenwert  eines Endomorphismus ' W V ! V
1 1
A D1 bzw. einer Matrix A 2 Kn n gehören im Allgemeinen viele
1 1 verschiedene Eigenvektoren. Ist nämlich v ein Eigenvektor
! zu , d. h. '.v/ D  v bzw. A v D  v, so gilt für jedes
1 beliebige  2 K n f0g:
den Eigenwert 1 und den Eigenvektor zum Eigen-
1
wert 1. '. v/ D  '.v/ D   v D  . v/ :
4. Nicht jede reelle Matrix besitztEigenwerte. So gibt es
0 1 bzw.
etwa zur Matrix A D 2 R2 2 keine Eigen-
1 0
vektoren und damit auch keine Eigenwerte, denn die A . v/ D  A v D   v D  . v/ :
Gleichung
Somit ist mit einem Eigenvektor v zu  auch jedes vom
    Nullvektor verschiedene Vielfache  v wieder ein Eigen-
v1 v1
A D vektor zu .
v2 v2
Sind v und w Eigenvektoren zu dem Eigenwert , so
liefert das System auch deren Summe, falls nur v C w ¤ 0 gilt, da

v2 D  v1 ; v1 D  v2 ; '.v C w/ D '.v/ C '.w/ D  v C  w D  .v C w/


254 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

x2 Bald werden wir klären, wie wir den Eigenraum zu einem


'.v/
Eigenwert  bestimmen können. Zuerst untersuchen wir,
wie wir sämtliche Eigenwerte bestimmen können.
v
?Selbstfrage 8.3
x1 Unter welchem anderen Namen ist Ihnen Eig' .0/ bzw.
EigA .0/ noch bekannt?
v
Zu den bekannten Invertierbarkeitskriterien einer Matrix
gesellt sich nun ein weiteres.
v/ D v/

. Abb. 8.3 Ist v ein Eigenvektor, so auch  v, wenn nur  ¤ 0 gilt Invertierbarkeitskriterium
Eine Matrix A 2 Kn n ist genau dann invertierbar, wenn
x2
vCw 0 2 K kein Eigenwert von A ist.

w
8 v
Beweis Die Matrix A hat genau dann den Eigenwert 0,
wenn das lineare Gleichungssystem .A j 0/ vom Nullvek-
x1
tor verschiedene Lösungen besitzt. Das ist genau dann der
'.v/ Fall, wenn A einen Rang echt kleiner als n hat. Und das
ist wiederum gleichwertig damit, dass A nicht invertierbar
'.w/ ist. 
'.v C w/ D '.v/ C '.w/
Beispiel
D v C w/
4 Es ist 1 der einzige Eigenwert des Endomorphismus idV
bzw. der Einheitsmatrix En 2 Kn n , und es gilt:
. Abb. 8.4 Sind v und w Eigenvektoren, so auch deren Summe v C w

EigidV .1/ D V bzw. EigEn .1/ D Kn :


bzw.  
1 0
4 Die Diagonalmatrix D D 2 K2 2
hat im
A .v C w/ D A v C A w D  v C  w D  .v C w/ : 0 2
Fall  D 1 D 2 den Eigenraum
Fassen wir alle Eigenvektoren zu einem Eigenwert  eines
Endomorphismus ' bzw. einer Matrix A zusammen und EigD ./ D K2
ergänzen diese Menge noch mit dem Nullvektor, so erhalten
wir also einen Vektorraum – den sogenannten Eigenraum und im Fall 1 ¤ 2 die jeweiligen Eigenräume
zum Eigenwert .    
1 0
EigD .1 / D und EigD .2 / D :
0 1
Der Eigenraum zum Eigenwert   
Ist  2 K ein Eigenwert des Endomorphismus ' W V ! V 3 1
4 Für die Matrix A D 2 C2 2
können wir
bzw. der Matrix A 2 Kn n , so nennt man den Untervek- 1 1
torraum bisher nur folgende Aussage treffen
˚   
Eig' ./ D v 2 V j '.v/ D  v 1
 EigA .2/
1
von V bzw.
˚  (man beachte obiges Beispiel). 9
EigA ./ D v 2 Kn j A v D  v
Tatsächlich gilt in dem letzten Beispiel sogar Gleichheit.
von Kn den Eigenraum zum Eigenwert . Wir werden nun Methoden kennenlernen, wie wir dies fest-
stellen können.
8.3  Berechnung der Eigenwerte und Eigenvektoren
255 8
8.3 Berechnung der Eigenwerte ein Polynom in der Unbestimmten X über dem Körper K,
und Eigenvektoren d. h., det.A  X En / 2 KŒX, und die Nullstellen dieses
Polynoms sind die Eigenwerte.

In diesem Abschnitt zeigen wir, wie man die Eigenwerte,


die Eigenräume und damit die Eigenvektoren eines Endo- Das charakteristische Polynom einer Matrix
morphismus ' W V ! V bzw. einer Matrix A 2 Kn n Das Polynom
systematisch berechnen kann. Dabei behandeln wir zuerst
den Fall einer Matrix A 2 Kn n . Die Eigenwerte, Eigen- A D det.A  X En /
räume und Eigenvektoren eines Endomorphismus ' W V !
D .1/n X n C cn1 X n1 C    C c1 X C c0 2 KŒX
V eines endlichdimensionalen K-Vektorraums V erhalten
wir, indem wir die Eigenwerte, Eigenräume und Eigen-
vom Grad n heißt charakteristisches Polynom der Ma-
vektoren einer den Endomorphismus darstellenden Matrix
trix A 2 Kn n .
bezüglich irgendeiner geordneten Basis B von V bestim-
Es gilt:
men. Wir werden sehen, dass es dabei egal ist, welche Basis
man wählt.
 2 K ist ein Eigenwert von A , A ./ D 0 :
Das wesentliche Hilfsmittel für die Bestimmung der Ei-
genwerte einer Matrix ist das charakteristische Polynom,
Die Matrix A hat höchstens n Eigenwerte.
das wir mithilfe der Determinante erklären werden.

Die Eigenwerte sind die Nullstellen Die letzte Behauptung ist klar, da A als Polynom vom
des charakteristischen Polynoms Grad n über einem Körper K nicht mehr als n Nullstellen
haben kann.

Wir zeigen nun, dass  2 K genau dann ein Eigenwert einer Kommentar In anderen Büchern findet man auch die Defi-
Matrix A 2 Kn n ist, wenn det.A   En / D 0 gilt: nition

A D det.X En  A/ :
 ist ein EW von A , A v D  v; v ¤ 0
, A v   v D 0; v ¤ 0 Wegen det.X En  A/ D .1/n det.A  X En / ist das
, .A  En / v D 0; v ¤ 0 für ungerades n zwar im Allgemeinen nicht das gleiche Po-
lynom, aber die Nullstellen, also die Eigenwerte, sind die
, det.A  En / D 0 :
gleichen.

Für diese letzte Äquivalenz beachte man das Invertierbar- Es folgen nun Beispiele für das Berechnen der Eigenwerte
keitskriterium im 7 Abschn. 7.3. einer Matrix A 2 Kn n . Man berechnet hierzu das charak-
Um also die Eigenwerte einer Matrix A zu bestimmen, teristische Polynom A und ermittelt dessen Nullstellen –
können wir den Ansatz dies sind die Eigenwerte von A.

det.A  X En / D 0 Beispiel
4 Wir berechnen die Eigenwerte der Matrix
in der Unbestimmten X machen. Man beachte, dass die
!
Komponenten der Matrix A  X En Elemente des kommu- 3 4
tativen Polynomrings KŒX sind, d. h. AD 2 Z25 2
:
1 1
A  X En 2 KŒXn n
:
Es gilt:
Somit ist die Determinante ˇ ˇ
ˇ3  X 4 ˇˇ
ˇ
ˇ ˇ A D det.A  X E2 / D ˇ ˇ
ˇa11  X a12 ::: a1n ˇ ˇ 1 1  Xˇ
ˇ ˇ
ˇ :: ˇ
ˇ a21 a22  X : ˇ D .3  X/.1  X/ C 1 D .2  X/2 :
ˇ
det.A  X En / D ˇ ˇ
:: :: ˇ
ˇ : : ˇ
ˇ ˇ Da 2 die einzige Nullstelle des charakteristischen Poly-
ˇ a ::: ann  X ˇ
n1 noms von A ist, ist 2 der einzige Eigenwert von A.
256 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

4 Wir berechnen die Eigenwerte der Matrix etwa eine obere Dreiecksmatrix, so sind wegen
0 1
1 2 2 D D .11  X/ .22  X/    .nn  X/
A D @2 2 1 A 2 R3 3
:
2 1 2 gerade die Diagonalelemente von D die Eigenwerte
von D. Das gilt analog für untere Dreiecksmatrizen. 9
Zuerst bestimmen wir wieder das charakteristische Po-
lynom, indem wir nach der ersten Zeile entwickeln.
ˇ ˇ Die Summe der Hauptdiagonalelemente
ˇ1  X 2 2 ˇ
ˇ ˇ einer Matrix ist die Spur der Matrix
A D det.A  X E3 / D ˇˇ 2 2  X 1 ˇˇ
ˇ 2 1 2  X ˇ
ˇ ˇ Insgesamt drei Koeffizienten des charakteristischen Poly-
ˇ2  X 1 ˇˇ
D .1  X / ˇˇ noms A lassen sich mithilfe von Größen der Matrix A
1 2  X ˇ
ˇ ˇ ˇ ˇ genau angeben, es gilt nämlich:
ˇ2 1 ˇˇ ˇ2 2  X ˇ
C .2/ ˇ ˇ C2ˇˇ ˇ
2 2  X ˇ 2 1 ˇ Lemma Für jede Matrix A D .aij / 2 Kn n
gilt:
8 D X  3 X C 9 X C 27 D .3  X/ .3  X/ :
3 2 2

A D .1/n X n C .1/n1 Sp A X n1 C    C det.A/ ;


Da 3 und 3 die einzigen Nullstellen des charakteris-
tischen Polynoms von A sind, sind 3 und 3 auch die wobei Sp A D a11 C    C ann die Spur von A bezeichnet.
einzigen Eigenwerte von A.
4 Wir berechnen die Eigenwerte der Matrix Beweis Wir berechnen das charakteristische Polynom A ,
0 1 d. h. die Determinante der Matrix .bij / D A  X En mit
3 1 0 0 0 der Leibniz’schen Formel:
B1 1 0 0 0C
B C
ADB B 3 1 2 1 1 C 2 R5 5 : A D det.A  X E/
C
@2 1 0 2 1 A X Y
n
1 1 0 0 2 D sgn. / bi  .i /
 2Sn i D1
Zum Berechnen des charakteristischen Polynoms nut- Y
n X Y
n
zen wir aus, dass die Matrix eine Blockdreiecksmatrix D sgn.id/ bi id.i / C sgn. / bi  .i /
ist: i D1  2Sn nfidg i D1

Y
n X Y
n
A D det.A  X E3 / D .ai i  X/ C sgn. / bi  .i / :
ˇ ˇ
ˇ 3  X 1 0 0 0 ˇ i D1  2Sn nfidg i D1
ˇ ˇ
ˇ 1 1  X 0 0 0 ˇ
ˇ ˇ Wir betrachten diese beiden Terme näher, dabei interessie-
D ˇˇ 3 1 2  X 1 1 ˇˇ
ˇ 2 1 0 2  X 1 ˇˇ ren uns nur die Koeffizienten vor X n und X n1 . Der erste
ˇ Term hat die Form
ˇ 1 1 0 0 2  X ˇ
ˇ ˇ
ˇ ˇ ˇ 2  X 1 1 ˇ Y
n
ˇ 3  X 1 ˇˇ ˇ .ai i  X/
D ˇˇ ˇˇ 0
ˇ ˇ 2  X 1 ˇˇ
1 1  X ˇ
0 0 2  X ˇ i D1
D .1/n X n C .1/n1 .a11 C    C ann /X n1
D .2  X/ : 5
C Polynome vom Grad kleinergleich n  2 :
Der einzige Eigenwert von A ist also 2.
4 Besonders einfach ist die Bestimmung der Eigenwerte Die Summanden des zweiten Terms
von Dreiecks- bzw. Diagonalmatrizen. Ist nämlich
X Y n

0 1 sgn. / bi  .i /
11 ::: i D1
 2Sn nfidg
B : :: C
B 0 22 : : : C
DDB :B C 2 Kn n
:: :: C haben die Form
@ :: : : A
0 : : : 0 nn ˙ b1  .1/    bn  .n/ :
8.3  Berechnung der Eigenwerte und Eigenvektoren
257 8
Für  ¤ id sind dies aber alles Polynome vom Grad Das charakteristische Polynom eines
kleinergleich n  2. Man beachte: nur die Faktoren bi i D Endomorphismus ist das charakteristische
ai i  X liefern Beiträge zu den Graden der Summanden, Polynom einer Darstellungsmatrix
und falls bi  .i / D bi i bereits .n  1/-mal in einem Sum-
manden auftaucht, so gilt bi  .i / D bi i schon n-mal, d. h.,
 D id, da  eine Permutation ist. Es sei ' W V ! V ein Endomorphismus eines n-dimen-
Damit sind die beiden höchsten Koeffizienten des Poly- sionalen Vektorraums V mit einer geordneten Basis B D
noms A bereits bestimmt. Für den konstanten Koeffizien- .b1 ; : : : ; bn /. Unter dem charakteristischen Polynom des
ten c0 des charakteristischen Polynoms gilt: Endomorphismus ' von ' versteht man das charakteris-
tische Polynom der Darstellungsmatrix A D B M .'/B :
c0 D A .0/ D det.A  0 En / D det.A/ ;
' D A D det.A  X En / :
d. h., dass der konstante Koeffizient von A die Determi-
Damit diese Definition sinnvoll ist, muss noch gezeigt wer-
nante von A ist. 
den, dass die Wahl der Basis B keine Rolle spielt; anders
formuliert: Wählt man irgendwelche Basen B und C von
Für die restlichen Koeffizienten des charakteristischen Po-
V , so müssen die charakteristischen Polynome
lynoms lassen sich keine solch prägnanten Formeln ange-
ben. B M .'/B D det.B M .'/B  X En / und
Die Spur einer (quadratischen) Matrix A, das ist die
Summe a11 C    C ann der Hauptdiagonalelemente von  C M .'/C D det.C M .'/C  X En /

A D .aij / 2 K , hat wichtige Eigenschaften. So gilt et-


n n

wa Sp A D Sp S 1 A S für jede invertierbare Matrix S , gleich sein. Da je zwei Darstellungsmatrizen A und B ein
d. h.: und desselben Endomorphismus zueinander ähnliche Dar-
stellungsmatrizen haben, d. h., da

Lemma Zueinander ähnliche Matrizen haben dieselbe B D S 1 A S


Spur.
mit einer invertierbaren Matrix S gilt, reicht es dazu aus,
Beweis Es seien A und B zueinander ähnliche n folgendes Lemma zu beweisen:
n-Matrizen über einem Körper K, d. h.,
Lemma Zueinander ähnliche Matrizen haben dasselbe cha-
S 1 A S D B rakteristische Polynom.

für eine invertierbare Matrix S 2 Kn n . Wir zeigen zuerst Beweis Die zwei n n-Matrizen A und B mit Einträgen
für beliebige n n-Matrizen M ; N die Formel aus einem Körper K seien zueinander ähnlich; d. h., es gelte
B D S 1 A S für eine invertierbare Matrix S 2 Kn n . Nun
berechnen wir das charakteristische Polynom von B, wobei
Sp.M N / D Sp.N M / : wir S 1 S D En und den Determinantenmultiplikationssatz
benutzen.
Für die Matrizen M D .mij / und N D .nij / gilt:
B D det.B  X En / D det.S 1 A S  X S 1 S /
0 1 !
X n Xn X n X n
D det.S 1 / det.A  X En / det.S /
Sp.M N / D @ A
mij nj i D nj i mij
i D1 j D1 j D1 i D1
D det.S 1 / det.S / det.A  X En /
D det.A  X En / D A :
D Sp.N M / :
Damit ist gezeigt, dass die charakteristischen Polynome
Nun folgt mit M D S 1 und N D A S : ähnlicher Matrizen übereinstimmen. 

Sp B D Sp S 1 A S D Sp A S S 1 D Sp A : Übrigens folgt aus diesem Lemma erneut, dass zueinander


ähnliche Matrizen dieselbe Spur und dieselbe Determinan-
Das ist die Behauptung.  te haben. Wir erläutern das ausführlich: Sind A und B
ähnliche n n-Matrizen, so gilt für die charakteristischen
Ähnliche Matrizen A und B haben viel gemeinsam. Wir Polynome A und B nach dem eben bewiesenen Lemma
stellen ihre wesentlichen gemeinsamen Eigenschaften in ei-
ner Übersicht in diesem Kapitel zusammen. A D B :
258 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Wegen Ist  ein Eigenwert der quadratischen Matrix A, so gibt es


einen Vektor v 2 Kn , v ¤ 0 mit A v D  v. Also ist die
A D .1/n X n C .1/n1 Sp A X n1 C    C det.A/ ; Dimension des Eigenraums EigA ./ mindestens 1.
B D .1/n X n C .1/n1 Sp B X n1 C    C det.B/ :
?Selbstfrage 8.4
Wie lautet das System
liefert ein Koeffizientenvergleich nun
.A   En / x D 0
Sp A D Sp B und det.A/ D det.B/ :
in den Fällen A D En bzw. A D 0 für die entsprechenden
Da die Nullstellen des charakteristischen Polynoms A die Eigenwerte der Einheits- bzw. Nullmatrix, und was sind
Eigenwerte von A sind, erhalten wir außerdem: die entsprechenden Eigenräume?

Folgerung Zueinander ähnliche Matrizen haben dieselben Wir bestimmen für die Beispiele weiter oben die jeweiligen
Eigenwerte. Eigenräume.

Beispiel
Den Eigenraum und damit die 4 Wir berechnen die Eigenräume der Matrix
8 Eigenvektoren erhält man durch Lösen eines !
3 4
homogenen linearen Gleichungssystems AD 2 Z25 2 :
1 1

Hat eine Matrix A nicht gerade Dreiecks- oder Diagonal- Wegen A D .2  X/2 hat A den einzigen Eigenwert 2.
gestalt, so bestimmt man im Allgemeinen die Eigenwerte Den Eigenraum EigA .2/ von A zum Eigenwert 2 erhal-
von A systematisch durch Berechnen der Nullstellen des ten wir also als Lösungsmenge des homogenen Systems
charakteristischen Polynoms A von A. !
Wir gehen nun einen Schritt weiter und erklären, wie 32 4 0
wir die Eigenräume und damit die Eigenvektoren zu den .A  2 En / v D 0 ; d. h.
1 12 0
Eigenwerten von A bestimmen können.
Ist  2 K ein Eigenwert der Matrix A 2 Kn n , so Durch eine Zeilenumformung erhalten wir
besteht der Eigenraum aus dem Nullvektor und aus allen
! !
Eigenvektoren zum Eigenwert , und es gilt: 1 4 0 1 4 0
! :
˚  1 4 0 0 0 0
EigA ./ D v 2 Kn j A v D  v
˚ 
D v 2 Kn j .A   En / v D 0 : Damit erhalten wir den Eigenraum zum Eigenwert 2:
* !+
Also erhält man den Eigenraum EigA ./ zum Eigenwert  1
durch Lösen des homogenen linearen Gleichungssystems EigA .2/ D :
1

.A   En / x D 0 : 4 Wir bestimmen die Eigenräume der Matrix


0 1
Die Lösungsmenge dieses Systems ist der Eigenraum des 1 2 2
Eigenwertes , und jeder vom Nullvektor verschiedene A D @2 2 1 A 2 C 3 3 :
Vektor dieses Eigenraums ist ein Eigenvektor zu dem Ei- 2 1 2
genwert .
Wegen A D .3  X/ .3  X/2 hat A die beiden
verschiedenen Eigenwerte 3 und 3.
Bestimmung des Eigenraums zum Eigenwert  Wir berechnen zuerst den Eigenraum EigA .3/ von A
Ist  ein Eigenwert von A, so ist die Lösungsmenge des zum Eigenwert 3. Wir erhalten ihn als Lösungsmenge
homogenen linearen Gleichungssystems des homogenen Systems

.A  3 En / v D 0 ; d. h.
.A   En / x D 0 0 1
13 2 2 0
der Eigenraum zum Eigenwert . @ 2 2  3 1 0A
2 1 2  3 0
8.3  Berechnung der Eigenwerte und Eigenvektoren
259 8
Durch Zeilenumformungen erhalten wir Durch Zeilenumformungen erhalten wir
0 1 0 1 0 1 0 1
2 2 2 0 1 1 1 0 1 1 0 0 0 0 1 1 0 0 0 0
@2 5 1 0A ! @ 0 3 3 0A B1 1 0 0 0 0C B0 0 0 0 0 0C
B C B C
2 1 5 0 0 3 3 0 B3 0C B 0C
0 1 B 1 0 1 1 C ! B3 1 0 1 1 C
1 0 2 0 @2 1 0 0 1 0A @2 1 0 0 1 0A
! @0 1 1 0A 1 1 0 0 0 0 0 0 0 0 0 0
0 0 0 0
Also ist der Eigenraum
Also erhalten wir als Eigenraum
0 1 0 1
1 0
*021+ *B1C B0C+
B C B C
EigA .3/ D @1A : EigA .2/ D B C B C
B1C ; B1C : 9
1 @1A @0A
1 0
Nun berechnen wir noch den Eigenraum EigA .3/ von
A zum Eigenwert 3. Wir erhalten ihn als Lösungs-
Wenn  2 K ein Eigenwert der Matrix A 2 Kn n
ist, so
menge des homogenen Systems
hat das Gleichungssystem
.AC3 En / v D 0 ; d. h.
0 1 .A   En / x D 0
1C3 2 2 0
@ 2 2C3 1 0A
vom Nullvektor verschiedene Lösungen, da ja gerade die
2 1 2C3 0
Eigenwerte jene Elemente sind, für welche der Rang der
Matrix A   En echt kleiner als n ist.
Durch Zeilenumformungen erhalten wir
Dies kann zur Kontrolle der Rechnung benutzt werden,
0 1 0 1 da die Berechnung des Kerns von A   En stark anfäl-
4 2 2 0 2 1 1 0
@2 1 1 0A ! @0 0 0 0A lig für Rechenfehler ist. Erhält man nach einer Rechnung
als Eigenraum den Nullraum, so hat man sich zwangsläufig
2 1 1 0 0 0 0 0
verrechnet.
Also gilt für den Eigenraum: Es ist auch leicht, seine Ergebnisse zu überprüfen. Er-
hält man EigA ./ D hb1 ; : : : ; br i, so überprüfe man, ob
*011 1
1 +
0 die Gleichungen A bi D  bi für alle i D 1; : : : ; r erfüllt
EigA .3/ D @ 0 A ; @ 2 A : sind. Dies kann man oft im Kopf nachrechnen.
2 0
?Selbstfrage 8.5
4 Wir berechnen die Eigenräume der Matrix Prüfen Sie die Gleichungen A bi D  bi für einige i D
0 1 1; : : : ; r und EigA ./ D hb1 ; : : : ; br i in den eben aufge-
3 1 0 0 0 führten Beispielen nach.
B1 1 0 0 0C
B C
ADB
B 3 1 2 1 1 C 2 C5
C
5
:
@2 1 0 2 1 A Den Eigenraum eines Endomorphismus –
1 1 0 0 2 und damit die Eigenvektoren –
erhält man mit dem Eigenraum
Wegen A D .2  X/5 ist 2 der einzige Eigenwert
einer Darstellungsmatrix
von A.
Den Eigenraum EigA .2/ von A zum Eigenwert 2 er-
halten wir als Lösungsmenge des homogenen Systems Ist ' W V ! V ein Endomorphismus des n-dimen-
sionalen Vektorraums V mit der geordneten Basis B D
.A C 2 E5 / v D 0 ; d. h. .b1 ; : : : ; bn /, so erhält man die Eigenwerte von ' als die
0 1 Nullstellen des charakteristischen Polynoms der Darstel-
3 C 2 1 0 0 0 0
B 1 1 C 2 0 0 0 0C lungsmatrix B M .'/B , die wir einfacher mit A bezeichnen,
B C A D M .'/ :
B 3 1 2 C 2 1 1 0C B B
B C
@ 2 1 0 2 C 2 1 0 A
1 1 0 0 2 C 2 0 ' D det.A  X En / :
260 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Es seien 1 ; : : : ; r 2 K die verschiedenen Eigenwerte von ?Selbstfrage 8.6


'. Nun berechnen wir die Eigenräume und damit die Ei- Prüfen Sie nach, dass die angegeben Vektoren tatsächlich
genvektoren der Matrix A: Eigenvektoren von ' sind.
.1/
EigA .1 / D hb1 ; : : : ; b.1/
s1 i ;
:: Komplexe Eigenwerte und Eigenvektoren
:
reeller Matrizen treten paarweise auf
.r/
EigA .r / D hb1 ; : : : ; b.r/
sr i :

Damit haben wir die Eigenvektoren der Darstellungsmatrix Es ist oftmals mühsam und langwierig, die Eigenwerte und
A D B M .'/B des Endomorphismus ' W V ! V be- Eigenräume einer Matrix zu bestimmen. Gerne greift man
.i / daher auf jeden Trick zurück, durch den man die Rechnun-
stimmt, d. h. Vektoren bj 2 Kn mit
gen vereinfachen oder abkürzen kann. Einen solchen Trick
.i / .i / gibt es bei komplexen Matrizen mit reellen Komponenten,
B M .'/B bj D i bj :
d. h. bei den Matrizen der Form
Gesucht sind aber die Eigenvektoren des Endomorphis-
mus '. Aber die findet man nun einfach wie folgt: Wir A D .aij / 2 C n n mit aij 2 R :
.i /
interpretieren die oben erhaltenen Eigenvektoren bj der
8 Darstellungsmatrix A D B M .'/B als die Koordinatenvek- Zur Bestimmung der komplexen Eigenwerte und komple-
.i / .i /
toren bj D B bj der Eigenvektoren von ' bezüglich der xen Eigenvektoren einer solchen Matrix A ist das folgende
Basis B, damit gilt dann: Ergebnis nützlich.
.i / .i /
B M .'/B B bj D i B bj : Lemma Für jede Matrix A 2 C n n
mit reellen Komponen-
ten aij gilt:
Beispiel Die Darstellungsmatrix des Endomorphismus ' W
(i) Ist  2 C ein Eigenwert von A, so ist auch  ein Ei-
R2 2
! R2 2 ,
genwert von A.
 
1 1 (ii) Ist v D .vj / 2 C n ein Eigenvektor von A zum Eigen-
'.X / D M X  X M mit M D wert , so ist v D .vj / ein Eigenvektor von A zum
1 1
Eigenwert .
bezüglich der geordneten kanonischen Basis E D
.E11 ; E12 ; E21 ; E22 / von R2 2 ist Beweis Das charakteristische Polynom A einer Matrix
0 1 A mit reellen Komponenten hat nur reelle Koeffizienten
0 1 1 0
B1 0 a0 ; : : : ; an , wie man der Leibniz’schen Formel für die De-
0 1C
A D E M .'/E D B @1
C terminante entnimmt, d. h.:
0 0 1A
0 1 1 0 A D a0 C a1 X C : : : C an X n 2 RŒX :
Die Eigenwerte dieser Matrix A sind
Ist  2 C ein Eigenwert von A, so gilt A ./ D 0. Wegen
1 D 0; 2 D 2; 3 D 2 :
0 D 0 D A ./ D a0 C a1  C : : : C an n
Als Eigenräume erhalten wir n
0 1 0 1 0 1 0 1 D a 0 C a1  C : : : C a n 
* 1 0 + * 1 + * 1 +
D a0 C a1  C : : : C an 
n
B0 C B1 C B C B1C
B C ; B C ; B1C ; B C :
@0 A @1 A @1A @1A D A ./
1 0 1 1
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ … ist auch das konjugiert Komplexe  eine Nullstelle von A ,
DEigA .0/ DEigA .2/ DEigA .2/
also auch ein Eigenwert von A.
Wir betrachten diese die Eigenräume erzeugenden Spal- Ist v D .vj / 2 C n ein Eigenvektor von A D .aij / zum
tenvektoren als Koordinatenvektoren von 2 2-Matrizen Eigenwert , so gilt A v D  v. Da die Komponenten aij
bezüglich der Basis E, damit erhalten wir die Eigenräume von A reell sind, gilt:
von ':
0Pn 1 0Pn 1
        j D1 a1j vj j D1 a1j vj
1 0 0 1 1 1 1 1 B :: C B :: C
0 1
;
1 0
;
1 1
;
1 1
: 9 .aij / .vj / D @ : ADB
@ :
C:
A
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ … P n P
a v n
DEig .0/ ' DEig .2/ DEig .2/
' '
j D1 nj j j D1 anj vj
8.4  Algebraische und geometrische Vielfachheit
261 8

Damit gilt A v D A v und daher mit 1 ; : : : ; r 2 K folgt durch


4 Multiplikation der Gleichung (8.1) mit der Matrix A:
Av D Av D v D v:
0 D A 0 D A .1 v1 C    C r vr /
Somit ist der komplexe Vektor v ein Eigenvektor zum Ei- D 1 A v 1 C    C r A v r
genwert .  D 1 1 v1 C    C r r vr

? Selbstfrage 8.7 und durch


Bestimmen Sie die komplexen
! Eigenwerte und Eigenvek- 4 Multiplikation der Gleichung (8.1) mit dem Eigen-
0 1 wert r :
toren der Matrix .
1 0
0 D r 0 D r .1 v1 C    C r vr /
D 1 r v1 C    C r r vr :
8.4 Algebraische und geometrische
Vielfachheit Durch Gleichsetzen erhalten wir
1 1 v1 C    C r r vr D 1 r v1 C    C r r vr :
Im Folgenden formulieren wir alle Aussagen für Matri-
zen. Die entsprechenden Aussagen für Endomorphismen Es gilt somit:
endlichdimensionaler Vektorräume erhält man dann durch .r  1 / 1 v1 C    C .r  r1 / r1 vr1 D 0 :
Übergang zu Darstellungsmatrizen von Endomorphismen.
Wir haben bereits gezeigt, dass eine Matrix A 2 Kn n Nach Induktionsvoraussetzung sind die Vektoren
genau dann diagonalisierbar ist, wenn es eine Basis des v1 ; : : : ; vr1 linear unabhängig, sodass wegen r  i ¤ 0
Kn aus Eigenvektoren von A gibt. Wir wollen nun ein für alle i D 1; : : : ; r  1 die Koeffizienten 1 ; : : : ; r1
Kriterium dafür herleiten, wann eine solche Basis aus allesamt null sind:
Eigenvektoren von A existiert. Dazu ordnen wir jedem Ei-
genwert  einer Matrix A zwei natürliche Zahlen zu, zum 1 D    D r1 D 0 :
einen die algebraische Vielfachheit, zum anderen die geo- Aus der Gleichung (8.1) folgt nun r D 0, da vr ¤ 0 gilt.
metrische Vielfachheit. Der Fall, dass diese beiden Zahlen Damit ist bewiesen:
für jeden Eigenwert  von A übereinstimmen, liefert die
wesentliche Aussage für die Existenz einer Basis des Kn
aus Eigenvektoren von A. Dass wir dabei die Eigenwer- Lineare Unabhängigkeit von Eigenvektoren
te einzeln, also unabhängig voneinander betrachten dürfen, Eigenvektoren zu verschiedenen Eigenwerten sind linear
liegt an den folgenden Ausführungen. unabhängig.

Eigenvektoren zu verschiedenen
?Selbstfrage 8.8
Eigenwerten sind linear unabhängig Welche Konsequenz hat dieses Ergebnis für eine Matrix
A 2 Kn n mit n verschiedenen Eigenwerten?
Es seien v1 ; : : : ; vr Eigenvektoren zu verschiedenen Eigen-
werten 1 ; : : : ; r einer Matrix A 2 Kn n :
Die algebraische Vielfachheit eines
A v1 D 1 v1 ; : : : ; A vr D r vr : Eigenwerts  ist die Vielfachheit der
Nullstelle  im charakteristischen Polynom
Wir zeigen mit vollständiger Induktion nach der natürli-
chen Zahl r, dass die Vektoren v1 ; : : : ; vr linear unabhängig
sind. Wir zerlegen das charakteristische Polynom A einer Ma-
Induktionsanfang: Die Behauptung ist korrekt, da trix A 2 Kn n soweit wie möglich in Linearfaktoren
v1 ¤ 0 linear unabhängig ist. .i  X/, wobei wir gleiche Linearfaktoren unter Expo-
Induktionsvoraussetzung: Die Behauptung sei für r  1 nenten ki sammeln:
Eigenvektoren zu verschiedenen Eigenwerten 1 ; : : : ; r1
A D .1  X/k1    .r  X/kr p 2 KŒX :
korrekt.
Induktionsschritt: Es seien v1 ; : : : ; vr Eigenvektoren zuDabei ist p 2 KŒX der nicht weiter durch Linearfaktoren
verschiedenen Eigenwerten 1 ; : : : ; r . Aus der Gleichung teilbare Anteil des Polynoms A . Das bedeutet, dass p kei-
ne weiteren Nullstellen in K hat. Die Nullstellen 1 ; : : : ; r
1 v 1 C    C r v r D 0 (8.1) von  sind die Eigenwerte von A.
A
262 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Man nennt die Vielfachheit k der Nullstelle  im cha- Polynom eine Nullstelle in C hat. Damit können wir für je-
rakteristischen Polynom A die algebraische Vielfachheit de komplexe n n-Matrix A mit dem charakteristischen
des Eigenwerts , und man sagt auch  ist ein k-facher Ei- Polynom A 2 CŒX folgern:
genwert der Matrix A. Für die algebraische Vielfachheit
k des Eigenwerts  benutzen wir auch die Schreibweise
ma ./, der Buchstabe m steht dabei für multiplicity. Zur Anzahl der Eigenwerte komplexer Matrizen
Es ist manchmal nützlich, die Eigenwerte mit ihren ent- Jede komplexe n n-Matrix A 2 C n n , n 2 N, hat n
sprechenden algebraischen Vielfachheiten zu zählen, d. h., nicht notwendig verschiedene Eigenwerte.
man fasst einen k-fachen Eigenwert , k  2, auch auf als
k (nicht verschiedene) Eigenwerte.

Beispiel Die geometrische Vielfachheit ist stets


4 Ist A D X 4  2 X 3 C 2 X 2  2 X C 1 2 RŒX, so gilt:
kleiner oder gleich der algebraischen
A D .1  X/2 .1 C X 2 / Vielfachheit
mit p D X 2 C 1. Die Matrix A hat also den einzigen
Eigenwert 1 der algebraischen Vielfachheit 2 oder kür-Die algebraische Vielfachheit eines Eigenwerts  ist die
8 zer: Die Matrix A hat den zweifachen Eigenwert 1 oder Vielfachheit der Nullstelle  im charakteristischen Poly-
ma .1/ D 2. nom A . Es gilt ein enger Zusammenhang zwischen der
4 Ist A D X 4  2 X 3 C 2 X 2  2 X C 1 2 CŒX, so gilt:
algebraischen und der geometrischen Vielfachheit.
Unter der geometrischen Vielfachheit des Eigenwerts
A D .1  X/2 .i C X/ .i C X/ :  einer Matrix A versteht man die Dimension des Eigen-
raums EigA ./, also dim EigA ./, wir schreiben mg ./ für
In diesem Fall hat die Matrix A den zweifachen Eigen- die geometrische Vielfachheit.
wert 1 und die jeweils einfachen Eigenwerte i und i, Das kann man sich einfach merken: Geometrie spielt
d. h., ma .1/ D 2; ma .i/ D 1; ma .i/ D 1. sich in Räumen ab, daher ist es klar, den Dimensionsbegriff
4 Ist A D X 2 C 1 2 Z2 ŒX, so gilt: mit der geometrischen Vielfachheit zu verknüpfen. Die Al-
gebra beschäftigt sich mit dem Auflösen von Polynomen,
A D .1 C X/2 :
daher wird man den Exponenten eines Linearfaktors eines
In diesem Fall hat die Matrix A den zweifachen Eigen- Polynoms mit der algebraischen Vielfachheit bezeichnen.
wert 1. 9 Der Zusammenhang zwischen geometrischer und alge-
braischer Vielfachheit eines Eigenwerts ist folgender:
? Selbstfrage 8.9
Welche algebraischen Vielfachheiten haben die Eigenwer-
te der komplexen Matrix A mit dem charakteristischen Geometrische und algebraische Vielfachheit
Polynom Ist  ein Eigenwert der Matrix A, so ist die geometrische
Vielfachheit von  zwar größer gleich 1, aber stets kleiner
A D .1  X/2 .3 C X/4 .X 2 C X C 1/ 2 CŒX ‹ oder gleich der algebraischen Vielfachheit von , d. h.,

Ist ein Polynom vollständig zerlegbar, d. h., ist der weiter 1  mg ./  ma ./ :
nicht zerlegbare Faktor p ein Polynom vom Grad 0, so ist
die folgende suggestive Sprechweise üblich: Wir sagen, das
charakteristische Polynom A einer n n-Matrix A 2 Kn n
Beweis Es sei  2 K ein Eigenwert der Matrix A 2 Kn n
vom Grad n zerfällt über K in Linearfaktoren, falls
mit der algebraischen Vielfachheit ma ./ und der geome-
A D .1  X/    .r  X/
k1 kr trischen Vielfachheit r D mg ./. Wir wählen eine Basis
fv1 ; : : : ; vr g des Eigenraums EigA ./ der Dimension r D
mit verschiedenen 1 ; : : : ; r 2 K gilt. mg ./ und ergänzen diese durch Vektoren vrC1 ; : : : ; vn zu
In dieser Situation gilt für die Summe der Exponenten einer Basis B des Vektorraums Kn . Die Darstellungsma-
k1 C  Ckr D n. Die Matrix A hat dann die verschiedenen trix B M .'A /B der linearen Abbildung 'A W Kn ! Kn ,
Eigenwerte 1 ; : : : ; r mit den jeweiligen algebraischen v 7! A v bezüglich dieser Basis B hat die Form
Vielfachheiten k1 ; : : : ; kr , insgesamt also n nicht notwen- 0 1
dig verschiedene Eigenwerte, die genau dann verschieden  0
sind, wenn n D r gilt. B :: C
B : BC
Im Fall K D C zerfällt für jede Matrix A 2 C n n B M .'A /B D B C
@0  A
das Polynom A in Linearfaktoren, da wegen des Funda-
mentalsatzes der Algebra jedes nicht konstante komplexe 0 C
8.4  Algebraische und geometrische Vielfachheit
263 8
mit passenden Matrizen B 2 Kr .nr/ , C 2 K.nr/ .nr/ Zerfällt A , und ist die algebraische
und 0 2 K.nr/ r . Vielfachheit für jeden Eigenwert gleich der
Da zueinander ähnliche Matrizen das gleiche charakte- geometrischen, so ist A diagonalisierbar
ristische Polynom haben gilt wegen der Blockdreiecksge-
stalt der Matrix B M .'A /B :
Wir nehmen an, dass das charakteristische Polynom A ei-
A D B M .'A /B D .  X/r C : ner Matrix A 2 Kn n über K in Linearfaktoren zerfällt,
Somit ist die algebraische Vielfachheit m ./ mindestens d. h.,
a
r; mindestens deswegen, da evtl. C noch durch   X
teilbar ist.  A D .1  X/k1    .r  X/kr

mit verschiedenen 1 ; : : : ; r 2 K. Es sind 1 ; : : : ; r die


Der Extremfall, nämlich dann wenn bei der zweiten Unglei-
Eigenwerte von A mit den jeweiligen algebraischen Viel-
chung Gleichheit anstelle von kleiner oder gleich gilt, d. h.,
fachheiten k1 ; : : : ; kr , wobei k1 C    C kr D n.
mg ./ D ma ./, liefert das wesentliche Kriterium für die
Ist nun für jeden der Eigenwerte 1 ; : : : ; r die geo-
Existenz einer Basis des Kn , bestehend aus Eigenvektoren
metrische Vielfachheit gleich der algebraischen, so ist die
einer Matrix A 2 Kn n .
Summe der Dimensionen der Eigenräume gerade die Di-
Bevor wir dieses Kriterium formulieren, halten wir noch
mension des Vektorraums Kn .
ein Ergebnis für zueinander ähnliche Matrizen fest. Wie
Weil Eigenvektoren zu verschiedenen Eigenwerten line-
wir bereits wissen, haben zueinander ähnliche Matrizen das
ar unabhängig sind (siehe den Satz zur linearen Unabhän-
gleiche charakterisitsche Polynom und damit auch die glei-
gigkeit von Eigenvektoren, erhalten wir in dieser Situation
chen Eigenwerte. Es gilt noch mehr:
die Existenz einer Basis B des Kn ), die aus Eigenvektoren
Lemma Die Eigenwerte zueinander ähnlicher Matrizen
v1 ; : : : ; vn der Matrix A besteht. Dabei trägt jeder Eigen-
haben die gleichen algebraischen und geometrischen Viel- raum genauso viele linear unabhängige Vektoren zu dieser
fachheiten. Basis bei, wie die algebraische Vielfachheit dieses Eigen-
werts angibt.
Beweis Die Matrizen A und B aus Kn n
seien zueinander
1
ähnlich, es gelte S A S D B mit der invertierbaren Ma-
trix S . Die charakteristischen Polynome A und B dieser 3. Kriterium für Diagonalisierbarkeit
beiden Matrizen stimmen nach obiger Bemerkung überein. Eine Matrix A 2 Kn n ist genau dann diagonalisierbar,
Wir zerlegen das Polynom A D B soweit wie möglich in wenn
verschiedene Linearfaktoren 4 das charakteristische Polynom A in Linearfaktoren
zerfällt:
A D .X  1 /ki    .X  r /kr p D B
A D .1  X/ma .1 /    .r  X/ma .r / ;
mit einem weiter nicht über K in Linearfaktoren zerfal-
lenden Polynom p 2 KŒX. Hieraus folgt bereits die
und
Behauptung für die algebraischen Vielfachheiten ki .
4 für jeden Eigenwert die algebraische Vielfachheit
Wir begründen, dass auch die geometrischen Vielfach-
gleich der geometrischen Vielfachheit ist:
heiten übereinstimmen, d. h., dass

g .i / D dim EigA .i / D dim EigB .i / D mg .i /


mA B ma .1 / D mg .1 /; : : : ; ma .r / D mg .r / :

für i D 1; : : : ; r gilt. Für ein solches i gilt:

g .i / D dim.EigA .i // D dim.ker.A  i En //


mA Beweis Es ist nur noch ) zu begründen. Die Matrix A
1 1 sei also diagonalisierbar, und es seien 1 ; : : : ; r die ver-
D dim.ker.S B S  i S S //
schiedenen Eigenwerte von A. Nach dem 2. Kriterium für
D dim.ker.S 1 .B  i En / S // Diagonalisierbarkeit existiert eine Basis fb1 ; : : : ; bn g des
D dim.ker.B  i En // Kn aus Eigenvektoren von A, und weil die geometrische
D dim.EigB .i // Vielfachheit stets kleiner gleich der algebraischen ist, gilt:

D mB
g .i / : X
r X
r
nD mg .i / 
ma .i /  deg.A / D n :
Dabei haben wir benutzt, dass wegen der Invertierbarkeit i D1 i D1
von S und S 1 die Dimensionen der Kerne von S 1 .B 
i En / S und B  i En übereinstimmen (siehe die Folge- Anstelle der beiden  gilt also sogar D. Aus der ersten ent-
rung im 7 Abschn. 6.7).  stehenden Gleichheit folgt sogleich mg .i / D ma .i / für
264 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Übersicht: Diagonalisieren einer Matrix

Gegeben ist eine diagonalisierbare Matrix A 2 Kn n . Das S


r
4 Ordne die Basisvektoren der Basis B D Bi des Kn
Bestimmen einer invertierbaren Matrix S , die die Eigenschaft iD1
hat, dass D D S 1 A S eine Diagonalmatrix ist, nennt man aus Eigenvektoren der Matrix A zu einer geordneten Ba-
auch Diagonalisieren von A. Als Spalten der Matrix S wählt sis B D .b1 ; : : : ; bn /.
man dabei die Vektoren einer Basis des Kn aus Eigenvekto- 4 Mit der Matrix S D .b1 ; : : : ; bn / gilt dann die Gleichung:
ren von A. Zum Diagonalisieren dieser Matrix A geht man 0 1
meistens wie folgt vor: 1  0
B: :: C
B: :: C 1
@: : : ADS AS :
4 Bestimme das charakteristische Polynom A von A. 0  n
4 Zerlege A in Linearfaktoren
Diese Gleichung muss nicht nachgeprüft werden, sie gilt
A D .1  X/ma .1 /    .r  X/ma .r / :
bereits nach Konstruktion. Es ist dabei bi ein Eigenvektor
Die r verschiedenen Nullstellen 1 ; : : : ; r sind die Ei- zum Eigenwert i – man achte also auf die Anordnung der
genwerte der Matrix A. Basisvektoren.
4 Bestimme Basen B1 ; : : : ; Br der r Eigenräume
8 EigA .1 /; : : : ; EigA .r /, dabei gilt:

jB1 j D ma .1 /; : : : ; jBr j D ma .r / :

alle i D 1; : : : ; r und aus der zweiten entstehenden Gleich- gilt mit den Vektoren
heit folgt, dass das Polynom A zerfällt.  0 1 0 1 0 1
2 1 1
Wir erhalten hieraus die Folgerung: b1 D @ 1 A ; b2 D @ 0 A @
; b3 D 2 A
1 2 0
Folgerung Hat eine n n-Matrix n verschiedene Eigen-
werte, so ist sie diagonalisierbar. und

S D .b1 ; b2 ; b3 /
Das folgt aus obigem Kriterium, weil in diesem Fall das
charakteristische Polynom zerfällt und für jeden Eigenwert die Gleichung:
die algebraische Vielfachheit, die gleich 1 ist, mit der geo- 0 1
metrischen Vielfachheit, die größer gleich 1 sein muss, 3 0 0
übereinstimmt. S 1 A S D @0 3 0 A
Um eine diagonalisierbare Matrix A 2 K n n
zu diago- 0 0 3
nalisieren, geht man zweckmäßigerweise so vor, wie wir es
in einer Übersicht schildern. 4 Die Matrix
Wir führen das Verfahren an Beispielen durch. !
3 4
AD 2 Z25 2
Beispiel 1 1
4 Für die Matrix
hat wegen
0 1
1 2 2
A D .2  X/2
A D @2 2 1 A 2 R3 3

2 1 2
den einzigen Eigenwert 2 der algebraischen Vielfach-
haben wir bereits in die Eigenwerte und Eigenräume be- heit 2. Der Eigenraum EigA .2/ von A lautet
stimmt. Wir erhielten * !+
1
*021+ *011 011+ EigA .2/ D
1
:
EigA .3/ D @1A ; EigA .3/ D @ 0 A ; @ 2 A :
1 2 0 Damit hat der Eigenwert 2 die geometrische Vielfach-
heit 1. Weil die geometrische Vielfachheit des Eigen-
Damit existiert eine Basis des R3 aus Eigenvektoren der werts 2 echt kleiner der algebraischen ist, ist die Matrix
Matrix A. Die Matrix ist also diagonalisierbar, und es nicht diagonalisierbar.
8.4  Algebraische und geometrische Vielfachheit
265 8
4 Die Matrix gilt:
0 1
1 3 6 0 1
2 0 0
A D @3 5 6A
3 3 4 S 1 A S D @ 0 2 0A : 9
0 0 4
hat das charakteristische Polynom A D .2CX/2 .4
X/, also den zweifachen Eigenwert 2 und einfachen ?Selbstfrage 8.10
Eigenwert 4. Wir erhalten als Eigenräume Prüfen Sie dies nach, indem Sie S 1 A S tatsächlich be-
*011 021+ *0 1 1+ rechnen.
EigA .2/ D @ 1 A ; @ 0 A ; EigA .4/ D @1A :
0 1 1 ?Selbstfrage 8.11
Wie ändert sich die Diagonalmatrix, wenn man in der Ma-
Damit stimmen für jeden Eigenwert geometrische und trix S zwei Spalten vertauscht?
algebraische Vielfachheit überein, d. h., dass die Matrix
A diagonalisierbar ist. Mit der Matrix Kennt man bereits einige Eigenwerte einer Matrix, etwa
S D .b1 ; b2 ; b3 / ; durch geometrische Überlegungen, so kann man gelegent-
lich mit einer einfachen Rechnung die restlichen Eigen-
wobei werte dieser Matrix bestimmen. Das liegt daran, dass das
0 1 0 1 0 1
1 2 1 Produkt aller Eigenwerte und die Summe aller Eigenwerte
b1 D @ 1 A ; b2 D @ 0 A ; b3 D @1A ; einer Matrix A bekannte bzw. oftmals leicht bestimmbare
0 1 1 Kenngrößen von A sind.

Beispiel: Die Fibonacci-Zahlen und ihre Näherungen

Wir möchten eine explizite Formel für die Fibonacci-Zahlen Die Eigenwerte von A sind die Nullstellen des charakteristi-
a0 ; a1 ; a2 ; : : : bestimmen, die rekursiv definiert sind durch schen Polynoms
ˇ ˇ
ˇX 1 ˇˇ
a0 D 1; a1 D 1; anC1 D an C an1 für n 2 N : ˇ
A D ˇ ˇ D X2  X  1
ˇ 1 1  Xˇ
Problemanalyse und Strategie p ! p !
1C 5 1 5
Wir geben diese Rekursionsvorschrift durch eine Matrix D X X :
2 2
A 2 R2 2 wieder und gelangen durch Berechnen von Poten-
zen von A zu einer guten Näherungslösung für hinreichend Die Eigenvektoren erhalten
p wir als Lösungen der Glei-
große n. chungsysteme .A  1˙2 5 E2 j 0/, und zwar erhalten wir
! p
Lösung 1 1C 5
b1 D p
1C 5 zum Eigenwert und
Wir bestimmen zunächst die Matrix A 2 R2 2
mit 2
2
! p
! ! 1 1 5
an a0 b2 D p zum Eigenwert :
DA n
; n2N 1 5
2
anC1 a1 2

Wir setzen S D .b1 ; b2 / und erhalten


und berechnen anschließend explizit die Potenzen A n . Es gilt:
p !
! ! ! !n ! 1
1C 5
0
an 0 1 an1 0 1 a0 S AS D 2 p
1 5
DD:
D D  D ; 0 2
anC1 1 1 an 1 1 a1
Und nun kommt der entscheidende Trick. Wegen A D
insbesondere also S D S 1 gilt:
!
AD
0 1
: A n D .S D S 1 /n D „
S D S 1 S D S 1 1
ƒ‚ : : : S D S …
1 1
D S D n S 1 : n-mal
266 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Und dieses Produkt S D n S 1 ist nun wegen der Diagonal- n an Näherung


p D einfach zu p
form von berechnen. Zur Abkürzung setzen wir 0 1 0:723 606 798 0
a D 1C2 5 und b D 12 5 . Wir erhalten A n durch Berechnen 1 1 1:170 820 394
des Matrixprodukts, wobei wir a b D 1 berücksichtigen: 2 2 1:894 427 192
! ! ! 3 3 3:065 247 586
1 1 1 an 0 b 1
p 4 5 4:959 674 780
5 a b 0 bn a 1
5 8 8:024 922 370
!
1 an1  b n1 an  b n 6 13 12:984 597 15
D p
5 an  b n a nC1
 b nC1 7 21 21:009 519 52
8 34 33:994 116 68
Daraus liest man 9 55 55:003 636 24
0 p !nC1 p !nC1 1 10 89 88:997 752 90
1 @ 1C 5 1 5 A;
an D p  p
5 2 2
Kommentar Die Zahl a D 1C2 5 ist übrigens das Verhält-
nis des Goldenen Schnitts: Wegen der linearen Abhängigkeit
für n 2 N ab, und zwar durch Berechnung von  
der Zeilen der Matrix A  a e2 D a 1 erhält man
8 ! ! ! a W 1 D 1 W .a  1/.
1 1a

an a0 1
Aus der obigen Formel an D a pb5
nC1 nC1
DA n
DA n
folgt weiter
anC1 a1 1
limn!1 an1 D a, d. h., dass sich das Verhältnis aufeinan-
an

derfolgender Fibonacci-Zahlen dem Verhältnis des Goldenen


oder einfacher durch die Beobachtung, dass die durch b0 D 0,
Schnitts nähert (siehe auch . Abb. 8.5).
b1 D 1 und bn D bn1 C bn2 für n  2 definierte Folge .bn /
die Bedingung bnC1 D an erfüllt, woraus folgt:
! ! ! !
an1 bn b0 0
D DA n
DA n
:
an bnC1 b1 1
13
21
a10 D 89
Ein Vorteil dieser Matrizendarstellung der Fibonacci-Zahlen 3
8
5
besteht darin, dass man an ihr das Wachstumsverhaltenpvon
an gut erkennen kann. Da der zweite Summand wegen . 5 
1/=2  0:618 sehr schnell vernachlässigbar klein wird, gilt: a11 D 144 21 13
8

p !nC1 a9 D 55
1 1C 5 34
an  p
5 2

in guter Näherung, und an ergibt sich für jedes n aus dieser . Abb. 8.5 Aus Viertelkreisen zusammengesetzte Fibonacci-Spi-
Näherung durch Runden zur nächsten ganzen Zahl: rale

Die Determinante ist das Produkt Es sei A 2 Kn n zu einer Diagonalmatrix D ähnlich:


der Eigenwerte, die Spur die Summe 0 1 0 1
a11    a1n 1 0
der Eigenwerte B :: :: :: C B :: C
@ : : : A@ : A
an1    ann 0 n
Wenn zwei Matrizen zueinander ähnlich sind, so haben sie „ ƒ‚ … „ ƒ‚ …
dieselbe Determinante und dieselbe Spur. Wir betrachten DA DD

nun die Situation, dass eine dieser beiden Matrizen eine so erhalten wir:
Diagonalmatix ist. Die Determinante und die Spur einer
Diagonalmatrix sind gerade das Produkt und die Summe det A D det D D 1    n und
der Diagonaleinträge. Sp A D Sp D D 1 C    C n :
8.4  Algebraische und geometrische Vielfachheit
267 8

Beispiel: Eigenwerte und Eigenvektoren von Spiegelungen und Drehungen im R2


*  !+
Spiegelungen an Geraden durch den Nullpunkt und Drehun-  sin ˛2
Die Berechnung von EigA .1/ D ˛ ver-
gen um den Nullpunkt des R2 sind lineare Abbildungen. cos 2
Somit lassen sich diese Abbildungen durch Matrizen A aus läuft analog. Wir halten fest: Für! jedes ˛ 2 Œ0; Œ ist die
R2 2 bezüglich der Standardbasis darstellen. cos ˛ sin ˛
Matrix A D diagonalisierbar, und zwar
sin ˛  cos ˛
Problemanalyse und Strategie  ˛ !  !
cos 2  sin ˛2
Wir bestimmen die Eigenwerte und Eigenvektoren der darstel- gilt mit b1 D   und b2 D   sowie
sin ˛2 cos ˛2
lenden Matrizen.
S D .b1 ; b2 / die Gleichung:
Lösung !
1 1 0
Ist ˛ W !+R2 ! R2 die Spiegelung an der Geraden S AS D
* 0 1
cos. ˛2 /
, die mit der x1 -Achse einen Winkel ˛2 2 Œ0; Œ
sin. ˛2 / Wir kommen zur Drehung. Ist ı˛ W R2 ! R2 die Drehung um
einschließt, so gilt den Winkel ˛ 2 Œ0; 2 Œ um den Ursprung, so gilt:
! !
cos ˛ sin ˛ cos ˛  sin ˛
 D 'A mit A D ; also .x/ D A x : ı D 'A mit A D ; also ı.x/ D A x :
sin ˛  cos ˛ sin ˛ cos ˛

x2 a
b x2
b
e2 a a
e2 b

˛=2 ˛
e1 x1 ˛
e1 x1
b
a

Zwar wissen wir durch das Bild, dass die Spiegelung  genau
Wir wissen bereits, dass die Drehung ı˛ – abgesehen von
zwei Geraden des R2 durch 0 auf sich selbst abbildet, näm-
zwei Ausnahmefällen – keine Gerade durch 0 auf sich selbst
lich die Spiegelungsachse und die dazu senkrechte Gerade.
abbildet und somit keine Eigenwerte besitzt. Die beiden Aus-
Die Vektoren v auf der Spiegelungsachse sind Fixpunkte von
nahmen sind! die Drehung um den Winkel ˛ D 0, d. h.,
, d. h., A v D v, während die Vektoren auf der dazu senk-
1 0
rechten Geraden durch  auf ihre entgegengesetzten Vektoren AD , und die Drehung um den Winkel ˛ D , d. h.,
0 1
abgebildet werden, d. h., A v D v. Also besitzt A die bei- !
den Eigenwerte 1 und 1 mit zugehörigen Eigenräumen. Wir 1 0
A D . In diesen beiden Fällen ist die Matrix A
wollen dies nun auch rechnerisch nachweisen. Dazu bestim- 0 1
men wir das charakteristische Polynom der Matrix A. bereits diagonal, die Eigenräume sind in beiden Fällen jeweils
ˇ ˇ der ganze R2 .
ˇcos ˛  X ˇ
ˇ sin ˛ ˇ Für ˛ … f0; g bestätigen wir unsere Vermutung nun rech-
A D ˇ ˇ
ˇ sin ˛  cos ˛  X ˇ
nerisch und bestimmen das charakteristische Polynom A :
D X 2  cos2 ˛  sin2 ˛ D .1  X/ .1  X/ : ˇ ˇ
ˇcos ˛  X  sin ˛ ˇˇ
ˇ
Also hat A die beiden einfachen Eigenwerte 1 und 1. Ins- A D ˇ ˇ D X 2  2 cos ˛ X C 1 :
ˇ sin ˛ cos ˛  X ˇ
besondere ist also A diagonalisierbar. Wir bestimmen die
Eigenräume zu den beiden Eigenwerten: Für die Nullstellen 1=2 dieses Polynoms gilt:
!
cos ˛  1 sin ˛  1
EigA .1/ D ker .˛ ¤ 0/ 1=2 D cos ˛ ˙ cos2 ˛  1 2 :
sin ˛  cos ˛  1
     ! Für ˛ … f0; g gilt aber j cos ˛j < 1 und damit cos2 ˛ 1 < 0.
2 sin2 ˛2 2 sin ˛2 cos ˛2
D ker Also hat das Polynom A D X 2  2 cos ˛ X C 1 im Fall
0 0
˛ … f0; g keine reellen Nullstellen, und damit hat in diesem
˛  ˛ !
 sin 2 cos 2 Fall die Matrix A auch keinen Eigenwert. Wir halten fest: Für
!
D ker cos ˛  sin ˛
0 0
jedes ˛ 20; 2 Œ n f g ist die Matrix A D
*  ˛ !+ sin ˛ cos ˛
cos 2
  nicht diagonalisierbar, und in den Fällen ˛ D 0 und ˛ D
Also ist EigA .1/ D auch für ˛ D 0.
sin ˛2 hat A bereits Diagonalform.
268 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Damit ist gezeigt: Es ist natürlich mühsam, all diese Eigenschaften nachzu-
prüfen. Es wäre sehr nützlich, wenn wir einer Matrix noch
viel schneller, quasi ohne jede Rechnung ansehen könnten,
Der Zusammenhang zwischen Spur, Determinante dass sie diagonalisierbar ist. Und das geht oftmals, z. B.
und den Eigenwerten einer Matrix gilt: Jede reelle symmetrische Matrix ist diagonalisierbar.
Es seien 1 ; : : : ; n die nicht notwendig verschiedenen Ei- Wir werden diese Tatsache in 7 Kap. 7 begründen.
genwerte einer diagonalisierbaren n n-Matrix A 2 Kn n .
Dann gilt:
Die Matrix A ist Nullstelle ihres
Sp A D 1 C    C n ; det A D 1    n : charakteristischen Polynoms

Wir betrachten zu einer Matrix A 2 Kn n


das charakteris-
Kommentar Dieses Ergebnis gilt sogar noch etwas allge- tische Polynom
meiner für alle Matrizen, deren charakteristisches Polynom A D .1/n X n C cn1 X n1 C   
in Linearfaktoren zerfällt. Wir begründen das später in die-
C    C c1 X C c0 2 KŒX :
sem Kapitel.
Wir können den Körper K als einen kommutativen Teilring
8 ? Selbstfrage 8.12 des Rings Kn n auffassen. Dabei identifizieren wir jedes
Man prüfe diese beiden Formeln an einigen bisher be- Element  2 K mit der Diagonalmatrix  En 2 Kn n :
trachteten Matrizen, deren charakteristische Polynome in 0 1
 0
Linearfaktoren zerfallen.
B :: C
 ! ./ D @ : A:
Diese Formeln sind nützlich. Zum einen hat man ei- 0 
ne Kontrollmöglichkeit zu den berechneten Eigenwerten,
zum anderen kann man gelegentlich ohne Bestimmung des Nach dem Satz zum Einsetzen in Polynome im
charakteristischen Polynoms unbekannte Eigenwerte einer 7 Abschn. 2.4 (wir setzen in diesem Satz R D K D .K/
Matrix erschließen, wenn man bereits Informationen über und S D Kn n ) dürfen wir daher quadratische Matrizen
die Matrix hat. Zum Beispiel hat die Matrix M aus Kn n in das charakteristische Polynom A für X
einsetzen:
 
1 1 A .M / D .1/n M n C cn1 M n1 C   
AD
2 2
C    C c1 M C c0 M 0 ;
aufgrund der linearen Abhängigkeit der Zeilen offensicht- dabei ist A .M / 2 Kn n . Hierbei ist nun die Addition
lich den Eigenwert 0. Wegen Sp A D 3 muss der zweite bzw. Multiplikation die Matrizenaddition bzw. Matrizen-
Eigenwert 3 sein. Wir führen ein weiteres Beispiel an. multiplikation.
Es gibt einen berühmten Satz, der besagt, dass das
Beispiel Wir betrachten als Beispiel eine komplexe 4 charakteristische Polynom A einer Matrix A eben diese
4-Matrix A, von der wir wissen, dass sie die Eigenwer- Matrix als Nullstelle hat, d. h. A .A/ D 0.
te 1 und 1 hat – eine solche Information hat man etwa  
dann, wenn es vom Nullvektor verschiedene Vektoren gibt, Beispiel Die Matrix A D 0 1 hat das charakteristi-
die auf sich bzw. auf ihr Negatives abgebildet werden. Gilt 1 0
etwa det A D 9 und Sp A D 6, so folgt mit den angege- sche Polynom A D X C 1, und es gilt:
2

benen Formeln für die beiden unbekannten Eigenwerte 1    


1 0 1 0
und 2 A .A/ D A 2 C E2 D C
0 1 0 1
 
1 2 D 9 und 1 C 2 D 6 ; 0 0
D D 0: 9
0 0
woraus man 1 D 6  2 und 22  6 2  9 D 0, also
2 D 3 D 1 erhält. 9
Der Satz von Cayley-Hamilton
Kommentar Wir haben ein Kriterium für die Diagonalisier- Für jede Matrix A 2 Kn n gilt:
barkeit einer Matrix A hergeleitet: Wenn das charakteristi- A .A/ D 0 ;
sche Polynom A in Linearfaktoren zerfällt und für jeden
Eigenwert die algebraische Vielfachheit mit der geometri- wobei 0 die Nullmatrix aus Kn n bezeichnet.
schen übereinstimmt, so ist die Matrix A diagonalisierbar.
8.5  Die Exponentialfunktion für Matrizen
269 8
Von den vielen verschiedenen Beweisen, die es gibt, ent- ?Selbstfrage 8.13
scheiden wir uns für den wohl kürzesten. Dabei benutzen Wieso ist der folgende „Beweis“ des Satzes von Cayley-
wir wiederholt das Kronecker-Symbol Hamilton falsch?

1 für i D j; A D det.A  X En / ) A .A/ D jA  AEn j D j0j D 0 :
ıij D
0 für i ¤ j:
Kommentar Der von uns geführte Beweis des Satzes von
Beweis Mithilfe der Matrix A D .aij / bilden wir die Ma-
> Cayley-Hamilton wirkt für einen Neuling in der Mathe-
trix B D A  X En D .bij / 2 KŒXn n:
matik sicher ein bisschen wie algebraische Zauberei. Aber
0 1 die Umformungen und Schlüsse sind völlig korrekt, und es
a11  X    an1
B :: :: C kommt das gewünschte Ergebnis heraus. Auf einen solchen
BD@ ::
: : : A D .aj i  ıij X/ : Beweis kommt ein Student des ersten Studienjahrs ziem-
a1n    ann  X lich sicher nicht selbstständig. Das erwartet man auch gar
nicht. Ein Student sollte sich von der Korrektheit dieses Be-
Und es sei C D .cij / die Adjunkte zu B (7 Abschn. 7.4); weises überzeugen können, das sollte im ersten Studienjahr
es gilt: vollkommen ausreichen. Tatsächlich stammt die Beweis-
idee aus einer völlig anderen algebraischen Theorie, der
C B D det.B/ En D A En ; sogenannten Modultheorie. Bei dortigen Rechnungen hatte
man zufällig festgestellt, dass entsprechende Rechnungen
da A > und A das gleiche charakteristische Polynom haben. mit Matrizen über Körpern gerade den Satz von Cayley-
Wir betrachten diese Gleichheit von Matrizen nun kompo- Hamilton beweisen. So wurde dieser kurze und prägnante
nentenweise: Für alle j; k 2 f1; : : : ; ng gilt: Beweis dieses Satzes gefunden (siehe A Course in Commu-
tative Algebra, G. Kemper, Springer). Jeder andere Beweis,
X n
der geometrische und naheliegende Beweisideen benutzt,
cki bij D ıj k A :
ist im Allgemeinen deutlich länger und unserer Auffassung
i D1
nach komplizierter als der hier angegebene Beweis.
Dies sind n2 Gleichungen im Polynomring KŒX. Wir set-
zen nun für die Unbestimmte X die Matrix A ein und
8.5 Die Exponentialfunktion für Matrizen
erhalten
X
n
cki .A/ bij .A/ D ıj k A .A/ : (8.2) Eine wesentliche Anwendung der Diagonalisierung von
i D1 Matrizen ist das Lösen von Differenzialgleichungen. Dabei
spielt die Exponentialfunktion für Matrizen eine wichtige
Wegen bij .A/ D aj i En  ıij A gilt für alle i D 1; : : : ; n: Rolle. Dazu verallgemeinern wir den Ausdruck ea für eine
komplexe Zahl a auf den Ausdruck eA für eine komplexe,
Xn X n
quadratische Matrix A.
bij .A/ ej D .aj i En  ıij A/ ej
j D1 j D1

X
n
D aj i ej  A e i D 0 : (8.3) Die Exponentialfunktion für Matrizen ist
j D1 durch eine Reihe definiert
Nun folgt für alle k 2 f1; : : : ; ng:
Um die Exponentialfunktion für Matrizen zu definieren, be-
X
n nutzen wir die Reihendarstellung der Exponentialfunktion.
A .A/ e k D ıj k A .A/ ej Per Definition gilt für jede komplexe Zahl a:
j D1
1
X
X
n X
n
ak a2
(8.2)
D cki .A/ bij .A/ ej ea D D1CaC C  :
kŠ 2Š
j D1 i D1 kD0
0 1
X
n X
n
Dabei geschieht die Potenzbildung ak D „ƒ‚…
a    a durch
D cki .A/ @ bij .A/ ej A
i D1 j D1 k-mal
Multiplikation in C und die Summenbildung durch die Ad-
(8.3)
D 0: dition in C. Aber quadratische Matrizen aus C n n lassen
sich auch addieren und multiplizieren, daher liegt es nahe,
Somit gilt A .A/ D 0.  A 0 D En zu setzen und die Exponentialfunktion eA wie
270 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

folgt zu definieren: Beispiel Wir berechnen exp A für die Matrix A D



1
1 1
X 1 k 1 2 . Wegen A k D A für k  1 gilt:
e D
A
A D En C A C A C    : 0 0      
kŠ 2Š 1 0 1 1 1 1 1
kD0 e D
A
C C C
0 1 0 0 2 0 0
Hierbei werden Potenzen bezüglich der Matrizenmultipli-  
kation gebildet, und das Summenzeichen beschreibt jetzt e e1
D :
die Addition von Matrizen. 0 1
 
0 1
P1Es 1ist knicht unmittelbar klar, dass der Ausdruck Und für die Matrix E12 D 2 C 2 2 gilt wegen
  0 0
kD0 kŠ A überhaupt existiert und wieder eine komplexe 0 0
Matrix ist. Wir begründen nun, dass diese Definition sinn- Ek12 D 0 0 für k  2:
voll ist. Unter der Konvergenz der Reihe
     
1 1 0 0 1 1 0 0
X 1 k eE12 D C C C
A 0 1 0 0 2 0 0
kD0
kŠ  
1 1
D : 9
versteht man die Konvergenz aller n2 Komponentenfolgen 0 1
!
8 XN
.A k /ij i Für eine Matrix A D .aij / gilt im Allgemeinen:
; 1  i; j  n;
kŠ eA ¤ .eaij / :
kD0 N 2N0
PN 1 k Man erhält also eA nicht einfach durch komponentenwei-
der Folge kD0 kŠ A ihrer Partialsummen. Nun ses Bilden der Potenzen eaij .
N 2N0
zeigen wir:

Für diagonalisierbare Matrizen lässt sich eA


Die Exponentialfunktion für Matrizen explizit angeben
Für jede n n-Matrix A 2 C n n
konvergiert die Reihe

1
X 1 k In den beiden letzten Beispielen konnten wir nur deshalb
A : eA explizit bestimmen, da wir A k für alle natürlichen Zah-

kD0
len angeben konnten. Das ist im allgemeinen Fall natürlich
Den Grenzwert nicht so. Aber mithilfe der folgenden Rechenregeln können
wir eA für alle diagonalisierbaren Matrizen explizit bestim-
X
N
1 k men.
lim A 2 Cn n
N !1 kŠ
kD0

Eigenschaften der Exponentialfunktion für


bezeichnen wir mit exp A oder eA . Damit haben wir also
Matrizen
eine Abbildung
Die Abbildung
(
Cn n
!C n n
;
exp W expW C n n
! Cn n
A!
7 eA
hat folgende Eigenschaften:
erklärt. (a) Für alle A; B 2 C n n mit A B D B A gilt:

P1 eACB D eA eB :
1 k
Beweis Die Konvergenz von kD0 kŠ .A /ij
beweist man
am einfachsten mit dem Majorantenkriterium: Es sei c eine (b) Für jede invertierbare Matrix S 2 C n n
gilt:
Pn Schranke für 2die Zahlen jaij j. Dann gilt j.A /ij j D
2
obere 1
j sD1 ai s asj j  nc . Allgemein ergibt sich mit vollständi- S 1 eA S D eS AS
:
ger Induktion j.A k /ij j  nk1 c k , und die Konvergenz der
(c) Für Diagonalmatrizen gilt die Regel:
Reihe
1
0 1 0  1
X nk1 c k 1  0 e 1  0
B: :: C B : :: C
kŠ exp B
@:
: ::
: C B
: A D @ ::
::
: C
: A:
kD0
0  n 0  en
zeigt
P1 1dannk die (absolute) Konvergenz der Reihen
kD0 kŠ .A /ij . 
8.5  Die Exponentialfunktion für Matrizen
271 8
Beweis Nun bilden wir den Limes N ! 1, man beachte
(a) Mit Aufgabe 8.12 folgt: dabei, dass in der Matrix rechts der Limes in jeder Kom-
ponente gebildet wird; wegen der Additivität und der
1
! 1
!
X 1 m X 1 n Homogenität der Limesbildung, d. h.
eA eB D A B
mŠ nŠ X .rs/ .N /
X .rs/ .N /
mD0 nD0 lim ij aij D ij lim aij ;
1 X
X 1 N !1 N !1
1 i;j i;j
D Am B n
mD0 nD0
mŠ nŠ
erhalten wir:
1 X
X l 0 1
1
D Am B lm X
mD0
mŠ .l  m/Š lim S 1 A N S D @ ij aij A
.rs/ .1/
D S 1 eA S :
lD0
N !1
1
X 1 X
l i;j
lŠ r;s
D Am B lm
lŠ mD0 mŠ .l  m/Š (c) Es gilt
lD0
1
X 1 0 1k 0 k 1
D .A C B/l D eACB : 1  0 1  0
lŠ XN
1 B: :: C XN
1 B: :C
lD0 :: ::
@: : :A D @: : :: A
kŠ : kŠ :
(b) Aus S 1 A k S D .S 1 A S /k folgt:
kD0 0    n kD0
0    kn
0 1
! P
N
k1
X X B C 0 1 1
1
N
1 k
N
1 1 BkD0 kŠ C e  0
S A S D .S A S /k : B C N !1 B : : C

kD0

kD0
DB B
::
: C
C ! @ ::
::
: :: A : 
B C
@ P kn A
N 0    en
1
Die rechte Seite konvergiert für N ! 1 gegen eS A S . kD0

Wir begründen nun, dass die linke Seite gegen S 1 eA S


konvergiert, es folgt dann die Behauptung. Beispiel Ein Beispiel dafür, dass eACB D eA eB nicht
Dazu beachten wir, dass für eine n n-Matrix X D allgemein gilt, liefern bereits die nicht miteinander ver-
   
.xij / die Einträge von S 1 X S Linearkombinationen 1 0 0 1
der xij sind, genauer tauschbaren Matrizen E 11 D und E 12 D .
0 0 0 0
Mit den oben berechneten Matrizen und der dritten Rechen-
0P .11/ P .1n/
1
 x ij     x ij
regel gilt nämlich:
i;j ij i;j ij
B : : C    
S 1 X S D B @
:: ::
: :: C ( )
A 1 1 e e1
P .n1/ P .nn/ exp.E 11 C E 12 / D exp D ;
i;j ij xij  i;j ij xij
0 0 0 1
    
e 0 1 1 e e
.rs/ exp.E 11 / exp.E 12 / D D : 9
mit ij 2 C, r; s 2 f1; : : : ; ng. Wir schreiben für jedes 0 1 0 1 0 1
N 2 N0
Ist A 2 C n n eine diagonalisierbare Matrix, so existieren
X N eine invertierbare Matrix S 2 C n n und komplexe Zahlen
.N / 1 k
A N D .aij / D A 1 ; : : : ; n mit der Eigenschaft

kD0 0 1
1    0
B: :C
und beachten S 1 A S D @ :: : : : :: A D D ;
.1/ 0    n
lim A N D eA D .aij / :
N !1
d. h., A D S D S 1 .
Setzt man A N in . / für X ein, so erhält man: Nun erhalten wir mit obigen Rechenregeln:
0P P 1 1
i;j
.11/ .N /
ij aij  i;j
.1n/ .N /
ij aij eA D eS D S D S eD S 1 ;
B :: :: C
S 1 A N S D B
@ :
::
: :
C:
A womit wir eA für diagonalisierbare Matrizen stets berech-
P .n1/ .N / P .nn/ .N /
i;j ij aij  i;j ij aij nen können.
272 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

also
Die Exponentialfunktion für diagonalisierbare      it  
0 t i 1 1 e 0 i 1
Matrizen exp D
Ist A 2 C n n eine diagonalisierbare Matrix mit den Ei-
t 0 2 i i 0 ei t i 1
!
genwerten 1 ; : : : ; n und Eigenvektoren s1 ; : : : ; sn , so 1 eit C eit  1i .eit  eit /
gilt mit S D .s1 ; : : : ; sn /: D
2 1i .ei t  eit / eit C ei t
0 1  
e1  0 cos t  sin t
B :: C
D : 9
eA D S B
:: :: C 1 sin t cos t
@ : : : AS :
0  en
Wir heben eine weitere interessante Formel für die Spur
und die Exponentialfunktion hervor.
Ist A 2 C n n eine diagonalisierbare Matrix mit den Ei-
Man kann demnach mit D und S die Matrix e berechnen. genwerten 1 ; : : : ; n , so gibt es eine invertierbare Matrix
A

Wir zeigen dies an Beispielen. S 2 C n n mit


0 1 1
Beispiel Wir berechnen für ein t 2 C die komplexen Ma- e  0
B : :: :: C 1
8 trizen eA D S @ :: : : AS :
    0  e n
0 t 0 t
exp und exp :
t 0 t 0
Wir wenden auf diese Gleichheit die Determinante an und
  erhalten unter Beachtung des Determinantenmultiplikati-
0 t
Die Matrix A D hat das charakteristische Poly- onssatzes:
t 0
nom A D X 2 t 2  , also die beiden Eigenwerte t und
det eA D .det S / .e1 CCn / .det S 1 / D eSp A :
1
t. Es sind s1 D ein Eigenvektor zum Eigenwert t
1
 
1
und s2 D ein solcher zum Eigenwert t. Wir setzen Die Determinante von eA
1
S D .s1 ; s2 / und erhalten Ist A 2 C n n
diagonalisierbar, so gilt:

    det eA D eSp A :
1 1 1 1
S D und S 1 D 1=2 ;
1 1 1 1

also
    t  
8.6 Das Triangulieren von Endomorphismen
0 t 1 1 1 e 0 1 1
exp D
t 0 2 1 1 0 et 1 1
 t t t 
Wir gehen jetzt etwas weg von konkreten Berechnungen
1 e Ce e e
t
und graben wieder etwas tiefer in der Theorie der linearen
D t
2 et
 e et
C et Abbildungen. Daher stellen wir nun die konkreten Matri-
 
cosh t sinh t zen etwas in den Hintergrund und holen dafür die etwas
D : abstrakteren Endomorphismen eines endlichdimensionalen
sinh t cosh t
K-Vektorraums V hervor. Dabei behalten wir aber im Hin-
  terkopf, dass der Unterschied nur marginal ist: Nach Wahl
0 t
Die Matrix B D hat das charakteristische Po- einer Basis B von V ist ein Endomorphismus ' von V
t 0
nichts anderes als eine Matrix A,
lynom B D X 2 C t 
2
, also die beiden Eigenwerte i t und
1
i t. Es sind t 1 D ein Eigenvektor zum Eigenwert i t A D B M .'/B :
i
 
1
und t 2 D ein solcher zum Eigenwert i t. Wir setzen Nicht jeder Endomorphismus ist diagonalisierbar, genau-
i er gilt, wie wir gezeigt haben: Der Endomorphismus 'A W
T D .t 1 ; t 2 / und erhalten V ! V , v 7! A v mit A 2 Kn n ist genau dann diagona-
    lisierbar, wenn
1 1 i 1
T D und T 1
D i=2 ; (i) A über K in Linearfaktoren zerfällt und
i i i 1 (ii) ma ./ D mg ./ für jeden Eigenwert  von A gilt.
8.6  Das Triangulieren von Endomorphismen
273 8
Wir wollen in diesem Abschnitt zeigen, dass unter der Vo- .b1 ; : : : ; bn / von V eine Fahnenbasis für ' von V , falls
raussetzung (i) der Endomorphismus 'A triangulierbar ist. die Untervektorräume
Dabei nennen wir einen Endomorphismus ' eines n-di-
mensionalen K-Vektorraums triangulierbar, wenn es eine hb1 i ; hb1 ; b2 i ; : : : ; hb1 ; : : : ; bn i
geordnete Basis B von V gibt, bezüglich der die Darstel-
lungsmatrix B M .'/B eine obere Dreiecksmatrix ist, d. h., '-invariant sind, d. h., dass für jedes i D 1; : : : ; n gilt:
0 1
 '.hb1 ; : : : ; bi i/  hb1 ; : : : ; bi i :
B :: :: C
B M .'/B D @ : :A
0 Bei einer Fahnenbasis für ' von V hat man also
eine aufsteigende Folge von ineinander geschachtelten
'-invarianten Untervektorräumen von V :
Eine Matrix A 2 Kn n heißt triangulierbar, falls der
Endomorphismus 'A triangulierbar ist, d. h., falls es eine
invertierbare Matrix S 2 Kn n gibt mit hb1 i  hb1 ; b2 i      hb1 ; : : : ; bn i :

0 1 Beispiel

B :: :: C 4 Die kanonische Basis E2 D .e 1 ; e 2 / ist für den Endo-
S 1 A S D @ : :A : morphismus
0
    
v1 1 1 v2
' W K2 ! K2 ; 7!
Dazu führen wir neue Begriffe ein. v2 0 1 v2

eine Fahnenbasis des R2 , denn es gilt:


Ein Endomorphismus von V ist
genau dann triangulierbar, wenn '.he 1 i/  he 1 i und '.R2 /  R2 :
es eine Fahnenbasis von V gibt
4 Ist ' ein diagonalisierbarer Endomorphismus eines
n-dimensionalen K-Vektorraums V , und ist B D
Es sei ' W V ! V ein Endomorphismus eines end-
.b1 ; : : : ; bn / eine geordnete Basis von V aus Eigenvek-
lichdimensionalen K-Vektorraums V , dim V D n. Ein
toren von ', so ist B wegen
Untervektorraum U von V heißt '-invariant, falls '.U / 
U gilt.
'.hb1 ; : : : ; bi i/  hb1 ; : : : ; bi i
Beispiel
für alle i D 1; : : : ; n eine Fahnenbasis für ' von V .
4 Die trivialen Untervektorräume f0g und V sind
4 Für den Endomorphismus 'A von Kn mit einer oberen
'-invariant für jeden Endomorphismus ' von V .
Dreiecksmatrix
4 Wir betrachten den Endomorphismus
0 1
     
v1 1 1 v1 B :: C
'WK !K ;
2 2
7! : AD@ ::
: A D .s1 ; : : : ; sn / 2 K
n n
v2 0 1 v2 :
0
 
1
Der Untervektorraum U D ist '-invariant, der
0 ist die geordnete kanonische Basis En D .e 1 ; : : : ; e n /
  eine Fahnenbasis für 'A des Kn , denn es gilt:
0
Untervektorraum U D nicht.
1
4 Ist U D Eig' ./ der Eigenraum eines Endomorphis- '.he 1 ; : : : ; e i i/ D hs1 ; : : : ; si i  he 1 ; : : : ; e i i
mus ' von V zum Eigenwert  von ', so ist U wegen
für alle i D 1; : : : ; n. 9
'.v/ D  v 2 U für jedes v 2 U
Das letzte Beispiel lässt sich verschärfen, es gilt:
'-invariant. 9
Lemma Für einen Endomorphismus ' eines n-dimensio-
Wir betrachten nun eine besondere Art einer Basis eines nalen K-Vektorraums V sind äquivalent:
n-dimensionalen K-Vektorraums V . Ist ' ein Endomor- (i) ' ist triangulierbar.
phismus von V , so nennen wir eine geordnete Basis B D (ii) Es existiert eine Fahnenbasis für ' von V .
274 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Beweis (i) ) (ii): Es sei B D .b1 ; : : : ; bn / eine geordne- U1


te Basis mit der Eigenschaft, dass B M .'/B D .aij / eine U1
obere Dreiecksmatrix ist. Nach dem Satz Eine lineare Ab- 0 U4 ⊂ U1
bildung wird durch eine Darstellungsmatrix beschrieben im
7 Abschn. 6.4 gilt nun für jedes j 2 f1; : : : ; ng: U2 U3
U5 ⊂ U2 ∩ U3
Xj
˝ ˛
'.bj / D aij bi 2 b1 ; : : : ; bj ; U1 U2 U3 U2 U3
i D1
. Abb. 8.6 Disjunkte Kleeblätter stellen eine direkte Summe dar, die
d. h., dass B D .b1 ; : : : ; bn / eine Fahnenbasis für ' von V Schnittmenge sich überlappender bzw. ineinanderliegender Kleeblätter
ist. sind wieder Kleeblätter, nämlich Untervektorräume
(ii) ) (i): Es sei B D .b1 ; : : : ; bn / eine Fahnenba-
sis für ' von V . Wir bestimmen die Darstellungsmatrix
A D B M .'/B . In der i-ten Spalte von A steht der Ko- Es gilt damit:
ordinatenvektor des Bildes '.bi / des i-ten Basisvektors bi .
Aufgrund der Voraussetzung gilt für jedes i 2 f1; : : : ; ng: V D U1 ˚ U2 ˚ U3 ;

'.bi / 2 hb1 ; : : : ; bi i ;
8 und wegen '.U1 /  U1 ; '.U2 /  U2 ; '.U3 /  U3 erhalten
sodass wir

'.bi / D a1i b1 C    C ai i bi : '.V / D '.U1 / ˚ '.U2 / ˚ '.U3 / :


Somit ist die Darstellungsmatrix eine obere Dreiecksma-
trix: ?Selbstfrage 8.14
0 1 Es sei U ein Eigenraum von ' zum Eigenwert . Wann
a11    a1n gilt '.U / D U bzw. '.U / ¨ U ?
B :: :: C
AD@ : : A 2 K n n
: 
0 ann Daher können wir uns diagonalisierbare Endomorphismen
wie in . Abb. 8.7 veranschaulichen.
Wenn wir einen Endomorphismus ' bzw. eine Matrix A
Ist ' hingegen ein triangulierbarer, aber nicht dia-
triangulieren wollen, müssen wir somit eine Fahnenba-
gonalisierbarer Endomorphismus, so können wir uns die
sis für ' bzw. 'A bestimmen. Der Beweis des folgenden
'-invarianten Untervektorräume
Kriteriums für Triangulierbarkeit liefert den entscheidenen
Hinweis darauf, wie man eine Fahnenbasis bestimmt. Be-
vor wir aber diesen entscheidenen Satz formulieren, geben U1 D hb1 i  U2 D hb1 ; b2 i      Un D hb1 ; : : : ; bn i
wir ein Visualisierung der bisher behandelten Normalfor-
men Diagonalform und obere Dreiecksform. einer Fahnenbasis für ' wie in der . Abb. 8.8 veranschau-
lichen.

Diagonalisierbare und triangulierbare


Endomorphismen lassen sich ϕ
veranschaulichen
U1 U1

Wir stellen uns Untervektorräume als Kleeblätter vor. Da- ϕ


bei stehen überlappende Kleeblätter für sich schneidende
Untervektorräume, und jedes Kleeblatt enthält den Null- U2 U3 U2 U3
vektor (siehe . Abb. 8.6).
Ist ein Endomorphismus ' eines endlichdimensionalen ϕ
K-Vektorraums V diagonalisierbar, so ist V die direkte ϕ(U1 ⊕ U2 ⊕ U3 ) = ϕ(U1 ) ⊕ ϕ(U1 )ϕ(U1 )
Summe seiner Eigenräume. Der Einfachheit halber (und
weil Kleeblätter üblicherweise drei Blätter haben) nehmen . Abb. 8.7 Diagonalisierbare Endomorphismen bilden Eigenräume in
wir an, dass ' drei Eigenwerte hat, wir setzen Eigenräume ab. Man beachte, dass ein evtl. vorhandener Eigenraum zum
Eigenwert 0 auf den trivialen Untervektorraum f0g abgebildet wird, d. h.
U1 D EigA .1 / ; U2 D EigA .2 / ; U3 D EigA .3 / : ein Kleeblatt verschwindet
8.6  Das Triangulieren von Endomorphismen
275 8
ϕ ' D .1  X/    .n  X/ und n  2 existiert zum Ei-
genwert 1 von ' ein Eigenvektor b1 , b1 ¤ 0, von ':
ϕ
U3 U3
ϕ '.b1 / D 1 b1 :
U2 U2
Wir ergänzen fb1 g zu einer Basis B D .b1 ; : : : ; bn / von V
U1 U1
und betrachten die Darstellungsmatrix von ' bezüglich B:
0 1
U1 U2 U3 ϕ(U1 ) ϕ(U2 ) ϕ(U3 ) 1 a12    a1n
B0 C
B C
. Abb. 8.8 Eine Fahnenbasis bildet Untervektorräume ineinander ab A D B M .'/B D B :: C
@: C A
0
Ein Endomorphismus ist genau dann
triangulierbar, wenn das charakteristische Die .n  1/ .n  1/-Matrix
Polynom in Linearfaktoren zerfällt 0 1
a22  a2n
B :: :: C
C D@ : : A
Die Elemente einer Fahnenbasis bestimmt man sukzessive, an2    ann
so wie es der Beweis des folgenden Kriteriums nahelegt.
liefert wie im Folgenden geschildert einen Endomorphis-
mus des .n  1/-dimensionalen K-Vektorraums U D
Kriterium für Triangulierbarkeit hb2 ; : : : ; bn i: Man wähle für die eindeutig bestimmte li-
Für einen Endomorphismus ' eines n-dimensionalen K-
neare Fortsetzung der Abbildung  W fb2 ; : : : ; bn g ! U :
Vektorraums V sind äquivalent:
(i) ' ist triangulierbar. X
n X
n
(ii) Das charakteristische Polynom ' von ' zerfällt in Li-  .b2 / D ai 2 bi ; : : : ;  .bn / D ai n bi :
nearfaktoren. i D2 i D2

Die Darstellungsmatrix von bezüglich der geordneten


Beweis (i) ) (ii): Das charakteristische Polynom ' ist Basis .b2 ; : : : ; bn / ist gerade die Matrix C .
das charakteristische Polynom einer (beliebigen) Darstel- Wegen der Blockdreiecksgestalt der Matrix A gilt:
lungsmatrix B M .'/B . Da ' triangulierbar ist, wählen wir
zur Bestimmung des charakteristischen Polynoms die Basis ' D A D .1  X/ C D .1  X/  :
B, bezüglich der ' eine obere Dreiecksgestalt hat:
0 1 Folglich gilt  D .2  X/    .n  X/, d. h., dass  in
1    Linearfaktoren zerfällt. Da somit ein Endomorphismus
B :: :C eines .n  1/-dimensionalen K-Vektorraums U mit einem
B M .'/B D @ : :: A :
in Linearfaktoren zerfallenden charakteristischen Polynom
0 n
ist, können wir die Induktionsvoraussetzung anwenden: Für
Es folgt ' D .1  X/    .n  X/. existiert eine Fahnenbasis .c 2 ; : : : ; c n / von U . Wir zei-
(ii) ) (i): Es gelte ' D .1  X/    .n  X/. Wir gen nun, dass C D .b1 ; c 2 ; : : : ; c n / eine Fahnenbasis für '
zeigen per Induktion nach der Dimension n von V , dass von V ist. Offenbar ist die Menge C eine geordnete Basis
eine Fahnenbasis für ' von V existiert. Mit dem oben be- von V , und es gilt:
wiesenen Lemma erhalten wir, dass ' triangulierbar ist.
Induktionsbeginn: Im Fall n D 1 ist jede Basis eine '.hb1 i/  hb1 i :
Fahnenbasis für ' von V , da jede 1 1-Matrix eine obe-
re Dreiecksmatrix ist. Für i; j 2 f2; : : : ; ng erhalten wir zum einen:
Induktionsbehauptung: Es sei n  2. Für jeden En-
domorphismus ' mit in Linearfaktoren zerfallenden cha- '.bj / D a1j b1 C a2j b2 C    C anj bn
„ ƒ‚ …
rakteristischen Polynom eines .n  1/-dimensionalen K- D .bj /
Vektorraums V existiere eine Fahnenbasis von V .
Induktionsschritt: Es sei ' ein Endomorphismus eines und zum anderen:
n-dimensionalen K-Vektorraums V mit einem in Linear-
faktoren zerfallenden charakteristischen Polynom. Wegen c i D 2 b 2 C    C n b n
276 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

mit gewissen i 2 K. Mit diesen Bezeichnungen erhalten Wir bestimmen die Koordinatenvektoren der Bilder der Ba-
wir sisvektoren:

X
n X
n 0 1
0
'.c i / D j '.bj / D j .a1j b1 C .bj // B0C
j D2 j D2 'A .s1 / D B C
@2A D 2 s1 C 0 s2 C 0 s3 C 0 s4 ;
X
n
0
D j a1j b1 C .j bj /
0 1
j D2 2
D  b1 C .c i / 2 hb1 ; c 1 ; : : : ; c i i B2C
'A .s2 / D B C
@1A D 1 s1 C 2 s2 C 2 s3 C 0 s4 ;
für ein  2 K; man beachte, dass .c 2 ; : : : ; c n / eine Fahnen- 0
basis für von U ist. Somit ist alles gezeigt.  0 1
0
B2C
Kommentar Der Beweis lässt sich für die Triangulierbar- 'A .s3 / D B C
@1A D 1 s1 C 0 s2 C 2 s3 C 1 s4 ;
keit einer Matrix etwas durchsichtiger mit einem Matrizen-
1
formalismus führen. Wir führen das in Aufgabe 8.11 durch. 0 1
Jedoch ist die durch den Matrizenformalismus motivierte 0
8 Konstruktion der Fahnenbasis dann aufwendiger, solange B0C
'A .s4 / D B C
@1A D 1 s1 C 0 s2 C 0 s3 C 2 s4 :
man mit Bleistift und Papier eine solche Basis bestimmen
will. 2

Wie man nun tatsächlich einen Endomorphismus bzw. eine Als Darstellungsmatrix von 'A bezüglich der Basis B er-
Matrix trianguliert, wird durch unseren Beweis nahegelegt. halten wir somit:
Wir führen die Konstruktion einer Fahnenbasis an einem
0 1
Beispiel vor. 2 1 1 1
B0 2 0 0C
B
B1 M .'A /B1 D @
C
Beispiel Wir konstruieren eine Fahnenbasis des R4 für den 0 2 2 0A
Endomorphismus 'A W v 7! A v mit 0 0 1 2
0 1
2 0 0 0
B2 2 0 0 C Und die Matrix S D .s1 ; : : : ; s4 / erfüllt
ADB @1 1 2 1A
C
1
B1 M .'A /B1 D S A S :
0 1 0 2
2. Schritt: Wir kümmern uns nun um die 3 3-Untermatrix
1. Schritt: Wegen A D .2  X/4 – man beachte die Block-
dreiecksgestalt der Matrix – hat der Endomorphismus 'A 0 1
2 0 0
den vierfachen Eigenwert 2. Als Eigenraum erhalten wir
B D @2 2 0 A
0 1 0 1 0 1 2
0 0 0 0 * 0 +
B2 0 0 0 C B C
EigA .2/ D ker B C D B0 C : von U D hs2 ; s3 ; s4 i mit der
@1 1 0 1A @1 A Der Endomorphismus
0 1 0 0 0 Darstellungsmatrix B bezüglich der Basis .s2 ; s3 ; s4 / hat
wegen B D .2  X/3 den dreifachen Eigenwert 2. Wegen
Wir ergänzen die linear unabhängige Menge fe 3 g zu einer 0 1 *0 1+
geordneten Basis B1 des R4 : 0 0 0 0
EigB .2/ D ker @ 2 0 0 A D @ 0A
0 1
0 1 0 1
B 001 0 1 0 1 0 1C
B 1 0 0 C
B B0C B0C B1C B0C C ist 0 s2 C 0 s3 C 1 s4 D s4 ein Eigenvektor zum Eigenwert
B B CC
B1 D B B C ; B C ; B C ;
@0A C : 2 von , d. h., Eig .2/ D hs4 i.
B @1A @0A @0A C
B C Wir ergänzen nun die linear unabhängige Menge
@ 0 0 0 1 A
„ƒ‚… „ƒ‚… „ƒ‚… „ƒ‚… fe 3 ; s4 D e 4 g der beiden aus den bisherigen Schritten ge-
DWs1 DWs2 DWs3 DWs4 wonnenen linear unabhängigen Vektoren e 3 und e 4 zu einer
8.7  Die Jordan-Normalform
277 8
geordneten Basis B2 des R4 : ?Selbstfrage 8.15
0 1 Können Sie ein Kriterium dafür angeben, wann ein En-
B 001 001 011 0 1C domorphismus ' eines n-dimensionalen K-Vektorraums
B 0 C
V durch eine untere Dreiecksmatrix dargestellt werden
B B0C B0C B0C B1C C
B B CC
B2 D B B C ; B C ; B C ;
@0A C : kann?
B @1A @0A @0A C
B C
@ 0 1 0 0 A
„ƒ‚… „ƒ‚… „ƒ‚… „ƒ‚… 8.7 Die Jordan-Normalform
DWt 1 DWt 2 DWt 3 DWt 4

Als Darstellungsmatrix von 'A bezüglich dieser Basis B2


Diagonalisierbare Matrizen haben gegenüber allgemeinen
erhalten wir
0 1 und Dreiecksmatrizen den großen Vorteil, dass sich beliebi-
2 1 1 1 ge Potenzen auf relativ einfache Art und Weise berechnen
B0 2 0 1C lassen. Leider kann nicht jede Matrix diagonalisiert wer-
B
B2 M .'A /B2 D @
C
0 0 2 0A den.
0 0 2 2 Aber die Vorteile von Diagonalmatrizen lassen sich
auch für einen weiteren Typ von Matrizen ausnutzen. Tat-
Und die Matrix T D .t 1 ; : : : ; t 4 / erfüllt
sächlich lassen sich auch beliebige Potenzen von Matrizen
1
B2 M .' /
A B2 D T A T : effizient berechnen, zu denen eine sogenannte Jordan-Nor-
malform existiert. Dabei sagt man etwas salopp ausge-
3. Schritt: Wir kümmern uns nun um die 2 2-Untermatrix drückt, dass eine Matrix Jordan-Normalform hat, wenn sie
 
2 0 abgesehen von einigen Einsen auf der oberen Nebendia-
C D gonale eine Diagonalmatrix ist. Das Wesentliche ist nun,
2 2
dass zum Beispiel zu jeder komplexen Matrix eine solche
Der Endomorphismus von U D ht 3 ; t 4 i mit der Dar- Jordan-Normalform existiert, weil wie bei der Triangu-
stellungsmatrix C bezüglich der Basis .t 3 ; t 4 / hat wegen lierbarkeit das Zerfallen des charakteristischen Polynoms
C D .2  X/2 den zweifachen Eigenwert 2. Wegen hinreichend ist für die Existenz dieser Normalform.
   
0 0 0
EigC .2/ D ker D
2 0 1
Potenzen von Matrizen
ist 0 t 3 C 1 t 4 D e 2 ein Eigenvektor zum Eigenwert 2 von in Jordan-Normalform berechnet
, d. h., Eig .2/ D ht 4 i. man mit der Binomialformel
Wir ergänzen nun die linear unabhängige Menge
fe 3 ; s4 D e 4 ; t 4 D e 2 g der drei aus den bisherigen Schrit-
ten gewonnenen linear unabhängigen Vektoren e 3 , e 4 und Nicht jede Matrix ist diagonalisierbar, so hat etwa die kom-
e 2 zu einer geordneten Basis B3 des R4 : plexe Matrix
0 1  
2 1
B 001 001 001 011 C AD 2 C2 2
B C 0 2
B B0C B0C B1C B0C C
BB C B C B C B CC
B3 D B @ A ; @ A ; @ A ; @ A C : den Eigenwert 2 mit der algebraischen Vielfachheit 2 und
B 1 0 0 0 C
B C der geometrischen Vielfachheit 1 – nach dem Kriterium für
@ 0 1 0 0 A
„ƒ‚… „ƒ‚… „ƒ‚… „ƒ‚… Diagonalisierbarkeit ist A also nicht diagonalisierbar.
DWu1 DWu2 DWu3 DWu4 Wir berechnen nun Potenzen dieser Matrix A. Dazu
Als Darstellungsmatrix von 'A bezüglich dieser Basis B3 schreiben wir die Matrix als eine Summe einer Diagonal-
erhalten wir matrix D und einer Matrix N , deren Quadrat die Nullma-
0 1 trix ist,
2 1 1 1
B0 2 1 0C    
B C 2 0 0 1
B3 M .'A /B3 D @ AD C
0 0 2 2A 0 2 0 0
:
0 0 0 2 „ ƒ‚ … „ ƒ‚ …
DWD DWN
Und die Matrix U D .u1 ; : : : ; u4 / erfüllt
Nun berechnen wir – etwas naiv, aber korrekt – mittels der
1
B3 M .'A /B3 D U AU : Binomialformel Potenzen von A:
!
Damit ist der Endomorphismus 'A bzw. die Matrix A tri- X k
k
anguliert. Die Spalten u1 ; : : : ; u4 der Matrix U bilden eine A k D .D C N /k D D ki N i :
i
Fahnenbasis für 'A des R . 94 i D0
278 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Wegen N 2 D 0 verkürzt sich diese Formel für k  1 auf Die Jordan-Normalform ist von einigen
zwei Summanden. Es gilt also Einsen in der oberen Nebendiagonalen
A k D .D C N /k abgesehen eine Diagonalform
D D k C k D k1 N
! !  Eine Matrix .aij / 2 Ks s
heißt ein Jordan-Kästchen zu
2k 0 2k1 0 0 1
D k Ck
einem  2 K, wenn
0 2 0 2k1 0 0
! a11 D    D ass D  ;
2k k 2k1 a12 D    D as1;s D 1 und
D :
0 2k
aij D 0 sonst ;
Wir halten zuerst das wesentliche Hilfsmittel für diese Po- d. h.,
tenzbildung fest. 0 1
 1
B :: :: C
B : : C
Die Binomialformel für Matrizen .aij / D B
B
C
C
@ ::
Für Matrizen D; N 2 Kn n
mit D N D N D und jede : 1A
8 natürliche Zahl k gilt: 
! Ein Jordan-Kästchen ist also von den Einsen in der oberen
Xk
k
k
.D C N / D D ki N i : Nebendiagonalen abgesehen eine Diagonalmatrix, es sind
iD0
i 0 1
0 1  1 0 0
   1 0
   1 B0  1 0C
 ; ; @0  1A ; B @0 0  1A
C
Der Beweis erfolgt analog zur Binomialformel für kom- 0 
0 0 
plexe Zahlen per Induktion. Dabei ist wesentlich, dass die 0 0 0 
beiden Matrizen miteinander kommutieren. Dies zu be- Beispiele für Jordan-Kästchen.
gründen haben wir als Übungsaufgabe gestellt. Eine Matrix J 2 Kn n heißt Jordan-Matrix, falls
Weil im obigen Beispiel die beiden Matrizen miteinan- 0 1
der kommutieren, war diese Rechnung auch korrekt. J1
B :: C
Wenn eine gewisse Potenz einer Matrix die Nullmatrix J D@ : A
ergibt, so nennt man diese Matrix nilpotent, genauer: Gibt Jl
es zu einer Matrix N eine natürliche Zahl k, sodass N k D
0, so nennt man N nilpotent, und die kleinste Zahl r 2 N eine Blockdiagonalgestalt mit Jordan-Kästchen J 1 ; : : : ; J l
mit N r D 0 nennt man den Nilpotenzindex von N . Mit hat. Dabei müssen die Diagonaleinträge i der J i nicht
der Binomialformel erhalten wir folgende Aussage. verschieden sein, es dürfen auch 1 1-Jordan-Kästchen vor-
kommen.

Die Potenz einer Summe einer Diagonalmatrix und Beispiel


einer nilpotenten Matrix 4 Jordan-Matrizen mit einem Jordan-Kästchen:
0 1
Lässt sich eine Matrix A als Summe einer Diagonalmatrix ! ! 2 1 0
D und einer nilpotenten Matrix N mit Nilpotenzindex r 1 1 0 1 B C
1 ; ; ; @0 2 1A
schreiben, d. h., 0 1 0 0
0 0 2
A DDCN ; 4 Jordan-Matrizen mit zwei Jordan-Kästchen:
0 1 0 1 0 1 0 1
so gilt im Fall D N D N D: 3 0 1
1 0
@ A; @ A; B C B
@ 2 1 A; @ 0 0
C
A
! 2 0
A D D CkD
k k k1
N C  C
k
D kr1 N r1 :
0 2 1
r 1
4 Jordan-Matrizen mit drei Jordan-Kästchen:
0 1 0 1
0 1 2 1 1
Je kleiner r ist, desto kürzer ist diese Summe, desto leichter
2 B0 2 C B C
B C B C B 0 1 C
also ist A k zu berechnen. B 2 C; B C; B C 9
@ A B 3 C B 0 0 C
Wir werden bald sehen, dass jede Matrix in Jordan-Nor- @ A @ A
2
malform die angegebenen Voraussetzungen erfüllt. 1 1
8.7  Die Jordan-Normalform
279 8
Bisher war nur von Matrizen die Rede. Für die folgenden Jordan-Normalform, in der Jordan-Basis werden dabei die
theoretischen Betrachtungen wird es wieder unabdingbar dazugehörigen Jordan-Basisvektoren mit vertauscht.
sein, Endomorphismen zu betrachten. Daher führen wir die Eine Jordan-Normalform unterscheidet sich also von
notwendigen Begriffe für Endomorphismen und Matrizen einer Diagonalform höchstens dadurch, dass sie einige Ein-
ein. sen in der ersten oberen Nebendiagonale hat.
Wir nannten einen Endomorphismus ' W V ! V eines
n-dimensionalen K-Vektorraums diagonalisierbar bzw. tri- Beispiel Jede Diagonalmatrix hat Jordan-Normalform.
angulierbar, wenn es eine Basis B D .b1 ; : : : ; bn / von V Und auch die Matrizen
gibt mit der Eigenschaft, dass die Darstellungsmatrix 0 1 0 1
1 1 0
B C B C
D D B M .'/B B0 1 C B 0 C
B C B 1 0 C
B C B C
B 2 1 C B 0 0 1 C
von ' bezüglich B Diagonal- bzw. obere Dreiecksgestalt B C B C
B 0 2 C , B 0 0 0 C
hat. Entsprechend sagen wir nun, dass ein Endomorphis- B C B C
B 3 1 0C B 0 1 0C
mus ' W V ! V eine Jordan-Normalform besitzt oder B C B C
B C B C
sich auf Jordan-Normalform bringen lässt, falls es eine @ 0 3 1A @ 0 0 1A
Basis B D .b1 ; : : : ; bn / von V gibt mit der Eigenschaft, 0 0 3 0 0 0
dass die Darstellungsmatrix
haben Jordan-Normalform. Hingegen ist
J D B M .'/B
 
1 1
AD
von ' bezüglich B eine Jordan-Matrix ist. 0 1

keine Jordan-Normalform, da in den Jordan-Kästchen auf


Jordan-Basis und Jordan-Normalform der Diagonalen nur gleiche Einträge stehen. Aber es sind
Existiert zu einem Endomorphismus ' eines n-dimen- 0 1 0 1
sionalen K-Vektorraums V eine geordnete Basis B D 1 1
.b1 ; : : : ; bn / von V , sodass J D@ A und J 0 D @ A
1 1
0 1
J1
B C die zwei verschiedenen Jordan-Normalformen dieser Ma-
B
B M .'/B D J D @
:: C
: A trix A, da diese diagonalisierbar ist. Jordan-Basen sind in
Jl diesem Beispiel Basen aus Eigenvektoren von A. 9

eine Jordan-Normalform mit Jordan-Kästchen J 1 ; : : : ; J l i In manchen Lehrbüchern werden die Jordan-Kästchen


ist, so nennt man B eine Jordan-Basis von V zu ' und auch in der Form
die Matrix J eine Jordan-Normalform von '.
0 1

B :: C
B1 : C
B C
Nullen außerhalb der Jordan-Kästchen lassen wir immer B C
B :: :: C
weg. @ : : A
Wir benutzen diese Begriffe ebenso für eine Matrix A 2 1 
Kn n und meinen dabei eigentlich den Endomorphismus
'A von Kn . Ist also B D .b1 ; : : : ; bn / eine Jordan-Basis eingeführt, die Einsen stehen also auf der unteren Neben-
zu einer Matrix A 2 Kn n , so besagt dies, dass A ähnlich diagonale. Hierbei werden die Vektoren der Jordan-Basis
zu einer Jordan-Matrix J ist, dabei gilt: anders sortiert.

0 1 Nach dem Kriterium für Diagonalisierbarkeit ist ein En-


J1
B :: C domorphismus ' genau dann diagonalisierbar, wenn das
S 1 A S D J D @ : A charakteristische Polynom ' in Linearfaktoren zerfällt
Jl und für jeden Eigenwert  von ' die algebraische Vielfach-
heit gleich der geometrischen ist. Die Bedingungen für die
mit der Matrix S D .b1 ; : : : ; bn /. Die Jordan-Matrix J ist Existenz einer Jordan-Normalform eines Endomorphismus
in diesem Fall eine Jordan-Normalform zu A. sind deutlich einfacher:
Eine Jordan-Normalform ist im Allgemeinen nicht ein- Eine Jordan-Normalform existiert zu ' genau dann,
deutig, beim Vertauschen der Kästchen entsteht wieder eine wenn ' triangulierbar ist.
280 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Der Beweis dieses Existenzsatzes einer Jordan-Normal- ?Selbstfrage 8.16


form ist nicht einfach. In Arch. Math., Vol. 50, 323–327 Wieso haben wir U; W ¤ f0g in (b) verlangt?
(1988) gibt Johann Hartl einen Induktionsbeweis für diesen
Satz an. Wir bringen den Beweis von Johann Hartl mit ei- Lemma 2 Es sei U  V ein '-invarianter Untervektorraum
nigen weiteren Vereinfachungen. Dazu stellen wir erst mal eines K-Vektorraums V . Dann gilt:
einige Hilfsmittel bereit. (a) U ist ein Untervektorraum von ' 1 .U /, d. h., U 
' 1 .U /.
(b) Jeder Untervektorraum W von V mit der Eigenschaft
Zum Beweis des Existenzsatzes benötigen U  W  ' 1 .U / ist '-invariant, d. h., '.W /  W .
wir einige Hilfsmittel (c) Jeder Untervektorraum W von V mit der Eigenschaft
W  ker ' ist '-invariant, d. h., '.W /  W .
(d) Jeder Untervektorraum W von V mit der Eigenschaft
Für den Beweis des Existenzsatzes einer Jordan-Normal- Bild'  W ist '-invariant, d. h., '.W /  W .
form benötigen wir vier Lemmata. Wir stellen diese in
diesem Abschnitt vor. Die Beweise sind teils recht aufwen- Beweis (a) Wegen der Invarianz von U unter ' gilt '.u/ 2
dig. Wieder wollen wir explizit darauf hinweisen, dass wir U für alle u 2 U . Es folgt u 2 ' 1 .U / für alle u 2 U ,
von einem Leser keineswegs erwarten, dass er selbstständig d. h., U  ' 1 .U /.
auf diese Beweise kommen sollte. Es reicht vollkommen (b) Wegen W  ' 1 .U / gilt w 2 ' 1 .U / für alle w 2
8 aus, wenn Sie als Studierender im ersten Studienjahr diese W . Es folgt '.w/ 2 U . Und wegen U  W gilt somit
Schlüsse nachvollziehen können. '.w/ 2 W für alle w 2 W , d. h., '.W /  W .
(c) Das folgt aus (b) mit dem '-invarianten Untervek-
Lemma 1 Es sei V ein endlichdimensionaler K-Vektor- torraum U D f0g von V .
raum. Ist V D U ˚ W die direkte Summe zweier (d) Wegen '.W /  Bild' folgt die Behauptung so-
'-invarianter Untervektorräume U und W , so gilt: gleich aus Bild'  W . 
(a) D 'jU und  D 'jW sind Endomorphismen von U
und W . ?Selbstfrage 8.17
(b) Für U; W ¤ f0g gilt ' D   . Zeichnen Sie Bilder mit den entsprechenden Untervektor-
(c) Sind BU und BW Jordan-Basen zu und , so ist BU [ räumen.
BW eine Jordan-Basis zu '.
Lemma 3 Es sei ' ein Endomorphismus eines n-dimensio-
nalen K-Vektorraums V mit n  2.
Beweis (a) Weil U und W invariant sind unter ', gilt
Falls der Kern von ' nicht im Bild von ' enthalten
.U /  U und .W /  W . Folglich sind und  En-
ist, ker ' 6 Bild ', so gilt V D U ˚ W mit echten
domorphismen von U und W .
'-invarianten Untervektorräumen U und W von V , d. h.,
(b) Das charakteristische Polynom eines Endomorphis-
U; W ¨ V , '.U /  U , '.W /  W .
mus ist das charakteristische Polynom einer Darstellungs-
matrix bezüglich einer beliebig gewählten Basis. Es seien Beweis 1. Fall. ker ' D V , d. h., ' ist die Nullabbildung.
BU und BW irgendwelche Basen von U und W . Die Verei- Da in diesem Fall jeder Untervektorraum '-invariant ist,
nigung B D BU [ BW ist wegen der Direktheit der Summe wähle man für U irgendeinen eindimensionalen Untervek-
dann eine Basis von ganz V . Die Darstellungsmatrizen der torraum und für W das Komplement zu U in V . Es sind
Endomorphismen und  bezüglich der Basen BU und dann U und W zwei echte '-invariante Untervektorräume
BW seien A und A  : von V mit V D U ˚W (man beachte den Satz zur Existenz
von Komplementen in 7 Abschn. 4.5).
A D BU M . /BU und A  D BW M ./BW :
2. Fall. ker ' ¨ V . Wähle eine Basis B0 von ker ' \
Wir erhalten als Darstellungsmatrix von ' bezüglich der Bild ',
Basis B von V : ker ' \ Bild ' D hB0 i ;
 
A 0 und ergänze diese zum einen zu einer Basis B0 [ B1 von
B M .'/B D : (8.4)
0 A ker ',

Nun bilden wir das charakteristische Polynom von ': ker ' D hB0 [ B1 i ;
ˇ ˇ und zum anderen zu einer Basis B0 [ B2 von Bild ',
ˇA  X E 0 ˇ
' D ˇˇ ˇ D   :
0 A   X Eˇ Bild ' D hB0 [ B2 i :
Wie im Beweis zur Dimensionsformel für Untervektorräu-
(c) Diese Aussage folgt aus der Darstellungsmatrix in (8.4):
me (siehe 7 Abschn. 4.5) zeigt man:
Sind nämlich A und A  Jordan-Normalformen, so ist es
auch B M .'/B .  B0 [ B1 [ B2 ist linear unabhängig.
8.7  Die Jordan-Normalform
281 8
Wir ergänzen nun diese linear unabhängige Menge B0 [ Hieraus folgt U 0  U , W 0  W , und es gilt:
B1 [ B2 um weitere Vektoren aus einer Menge B3 zu einer
Basis U  ' 1 .U 0 / und W  ' 1 .W 0 / ;

B D B0 [ B1 [ B2 [ B3 d. h., dass U und W '-invariant sind.


Wegen der Gleichungen (8.5) und (8.6) gelten die In-
von V . Wir wählen nun zwei Untervektorräume U und W klusionen
von V gemäß
' 1 .U 0 /  ' 1 .W 0 / C U 0 C A und
U D hB1 i und W D hB0 [ B2 [ B3 i : ' 1 .W 0 /  U 0 C W 0 C B ;

Wegen Lemma 2 (c) und (d) sind die Untervektorräume U sodass mithilfe von (i) folgt:
und W '-invariant. Weiter gilt V D U ˚ W , da B0 [ B1 [
V D ' 1 .U 0 / C ' 1 .W 0 /  U 0 C W 0 C B C A
B2 [ B3  U C W .
Schließlich gilt B1 ¤ ; wegen ker ' 6 Bild ', d. h., DU CW :
dass U ¤ f0g. Es folgt W ¤ V .
Nun zeigen wir:
Und aus ker ' ¤ V folgt B1 ¨ B, d. h., dass auch U ¤
(ii) Es gilt U \ ' 1 .W 0 / D U 0 \ ' 1 .W 0 /.
V gilt. 
Denn: die Inklusion  folgt aus U 0  U . Es sei v 2
U \ ' 1 .W 0 /. Dann gilt v D u0 C a mit einem u0 2 U 0
Wir formulieren den letzten Hilfssatz.
und a 2 A, da U D U 0 C A. Wegen Gleichung (8.5) gilt
U  ' 1 .U 0 /, d. h., dass v 2 ' 1 .U 0 / \ ' 1 .W 0 /. Es folgt
Lemma 4 Es sei ' ein Endomorphismus eines n-dimensio-
 
nalen K-Vektorraums V . a D v  u0 2 ' 1 .U 0 / \ ' 1 .W 0 / C U 0 :
Falls Bild ' D U 0 ˚ W 0 mit '-invarianten Untervektor-
räumen U 0 und W 0 von V gilt, so gibt es Untervektorräume Mit Gleichung (8.5) folgt a D 0, also v D u0 2 U 0 \
U und W von V mit ' 1 .W 0 /. Somit ist (ii) begründet.
(a) V D U ˚ W . (iii) Es gilt U \ W D f0g.
(b) U 0  U und W 0  W . Aus (ii) folgt wegen W  ' 1 .W 0 /, der Gleichung
(c) U und W sind '-invariant. (8.6) und W D W 0 C B:
 
Beweis Wir zeigen die Behauptungen in mehreren Schrit- U \ W D U \ ' 1 .W 0 / \ W
 
ten. D U \ ' 1 .W 0 / \ W
(i) Es gilt V D ' 1 .U 0 / C ' 1 .W 0 /.  
D U 0 \ ' 1 .W 0 / \ .W 0 C B/
Denn nach Voraussetzung gibt es zu jedem v 2 V ein
u0 2 U 0 und w0 2 W 0 mit '.v/ D u0 C w0 . Wegen U 0  D f0g :
0 1 0
'.V / gibt es ein u 2 V mit u D '.u/, d. h., u 2 ' .U /.
Damit ist alles begründet. 
Für die Differenz w D v  u folgt:

'.w/ D '.v/  '.u/ D '.v/  u0 D w0 2 W 0 ;


Der Beweis des Existenzsatzes erfolgt
1 0 1 0
also v D u C w 2 ' .U / C ' .W /. Damit gilt (i). per Induktion nach der Dimension
0 1 0
Nach Lemma 2 (a) gilt U  ' .U /. Nach dem Satz des Vektorraums
zur Existenz eines Komplements in 7 Abschn. 4.5 gibt es
einen Untervektorraum A von V mit
Wir haben im letzten Abschnitt alle wesentlichen Hilfsmit-
 1 0  
' .U / \ ' 1 .W 0 / C U 0 ˚ A D ' 1 .U 0 / : (8.5) tel zum Beweis des folgenden Existenzsatzes einer Jordan-
Normalform bereitgestellt:
Erneut wegen Lemma 2 (a) gilt W 0  ' 1 .W 0 /, außerdem
haben wir U 0 \ W 0 D f0g. Somit gibt es erneut nach dem
Satz zur Existenz eines Komplements einen Untervektor- Kriterium für die Existenz einer
raum B von V mit Jordan-Normalform
Für einen Endomorphismus ' eines n-dimensionalen K-
 0  
U \ ' 1 .W 0 / ˚ W 0 ˚ B D ' 1 .W 0 / : (8.6) Vektorraums V , n 2 N, sind äquivalent:
(i) ' besitzt eine Jordan-Normalform.
Nun erklären wir die Untervektorräume U und W durch (ii) Das charakteristische Polynom ' zerfällt über K in
Linearfaktoren.
U D U 0 ˚ A und W D W 0 ˚ B :
282 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Beweis (i) ) (ii): Falls ' eine Jordan-Normalform besitzt, Wegen . / besitzt T nach der Induktionsvoraussetzung
so ist dies eine obere Dreiecksmatrix. Somit zerfällt ' über eine Jordan-Basis BT D .b1 ; : : : ; bk / bezüglich 'jT . Die
K in Linearfaktoren. Darstellungsmatrix
(ii) ) (i): Nun zerfalle das charakteristische Poly-
nom ' des Endomorphismus ' eines n-dimensionalen K- A T D BT M .'jT /BT
Vektorraums V über K in Linearfaktoren. Wir zeigen die
Existenz einer Jordan-Normalform mit Induktion nach der ist eine Jordan-Normalform von 'jT .
Dimension n des Vektorraums V . Wir treffen eine weitere Fallunterscheidung:
Induktionsanfang. Für n D 1 gilt die Behauptung, da Fall 2a. Die Jordan-Matrix A T enthält zwei Jordan-
B M .'/B D ./ 2 K
1 1
für jede beliebige Basis B von Kästchen, d. h.
jedem Vektorraum V der Dimension 1 bereits Jordan-Nor-
malform hat. 0 1
A1
Induktionsvoraussetzung. Die Behauptung sei richtig B A2 C
AT D @ A
für alle Vektorräume V mit 1  dim V  n  1 und alle ::
Endomorphismen ' von V mit zerfallendem charakteristi- :
schem Polynom ' .
Induktionsschritt. Es sei  2 K eine Nullstelle von ' , wobei das Jordan-Kästchen A1 genau j Zeilen enthalte,
d. h., ' ./ D 0. Für den Kern des Endomorphismus '  1  j < k. Die beiden zueinander komplementären Un-
8  idV von V gilt: tervektorräume
˝ ˛ ˝ ˛
ker.'   idV / ¤ f0g ; U 0 D b1 ; : : : ; bj und W 0 D bj C1 ; : : : ; bk

sodass wir für die Dimension des Bildes von '  idV nach von T sind 'jT -invariant, also '-invariant und schließlich
der Dimensionsformel erhalten: auch .'   idV /-invariant. Damit ist T die direkte Summe
zweier .'   idV /-invarianter Untervektorräume U 0 und
0
dim Bild.'   idV / < n : ( ) W :

Wir treffen eine Fallunterscheidung: U 0 ˚ W 0 D T D Bild.'   idV / :


1. Fall. ker.'  idV / 6 Bild.'  idV /: Wegen Lem-
ma 3 existieren .'  idV /-invariante Untervektorräume U Somit gibt es nach Lemma 4 Untervektorräume U und W
0 0
und W von V mit dim U; dim W < n und V D U ˚ W . Da von V mit U  U und W  W , die unter '   idV
für jedes u 2 U und w 2 W gilt: invariant sind und V D U ˚ W erfüllen. Da U 0 ; W 0 ¤ f0g
gilt, erhalten wir auch U; W ¤ f0g. Nach Lemma 1 (d) gilt:
.'   idV /.u/ D '.u/   u 2 U und
' D 'jU 'jW :
.'   idV /.w/ D '.w/   w 2 W ;
Somit zerfallen 'jU und 'jW in Linearfaktoren. Wegen
sind die Untervektorräume U und W somit auch
U; W ¤ f0g gilt dim U; dim W < n. Mit der Induktions-
'-invariant.
voraussetzung und Lemma 1 (c) folgt die Behauptung in
Nach Lemma 1 (b) ist das charakteristische Polynom
diesem Fall.
von ' das Produkt der charakteristischen Polynome von
Fall 2b. Die Jordan-Matrix A T ist ein Jordan-Kästchen,
D 'jU und  D 'jW :
d. h.
' D   : 0 1
 1
B : C ::
Mit ' zerfallen auch die charakteristischen Polynome  B : :: C
A T D BT M .'jT /BT D BB
C
C
und  . Wegen der Induktionsannahme existieren Jordan- @ ::
: 1A
basen BU und BW bezüglich und . Nach Lemma 1 (c)

ist die Vereinigung B D BU [ BW eine Jordan-Basis be-
züglich ' von V .
2. Fall. ker.'  idV /  Bild.'  idV /: Nach Lemma Da zum einen  ein Eigenwert von ' ist und zum anderen
2 (d) ist der Untervektorraum T D Bild.'   idV / invari- ker.' idV /  Bild.' idV / vorausgesetzt ist, erhalten
ant unter '   idV und somit (wie im 1. Fall gezeigt) auch wir
invariant unter ', d. h., '.T /  T . Der Endomorphismus
'jT von T hat ein in Linearfaktoren zerfallendes charakte- f0g ¤ ker.'   idV / D ker ..'   idV /jT /
ristisches Polynom 'jT . D ker.'jT   idT / :
8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis
283 8
Da A T die Darstellungsmatrix von 'jT bezüglich BT ist, wir Hilfsmittel bereit, mit denen man in vielen Fällen ei-
muss somit  D  gelten, da andernfalls ker.'jT  ne Jordan-Normalform einer Matrix bestimmen kann, ohne
 idT / D f0g gelten würde. eine Jordan-Basis angeben zu müssen.
Mit der Dimensionsformel gilt nun: Wir beginnen mit dem Fall, dass die Matrix A nur einen
Eigenwert hat.
1 D dim ker.'jT   idT /
D dim ker.'   idV /
D n  dim Bild.'   idV / ;
Die Dimension des Eigenraums ist die
Anzahl der Jordan-Kästchen
d. h., dass

dim T D dim Bild.'   idV / D n  1 : Gegeben ist eine Matrix A 2 Kn n mit einem in Linear-
faktoren zerfallendem charakteristischem Polynom A D
Wegen der Form der Darstellungsmatrix A T gilt für die er- .  X/n . Also ist  2 K der einzige Eigenwert von A
zeugenden Vektoren von T D hb1 ; : : : ; bn1 i: mit der algebraischen Vielfachheit n und der geometrischen
Vielfachheit mg ./, wobei wir von dieser nur wissen, dass
.'   idV /.b1 / D 0 ;
.'   idV /.bi / D bi 1 ; 1 < i < n : 1  mg ./  n

Weiter gibt es wegen .'   idV /.V / D T ein bn 2 V n T gilt. Weil das charakteristische Polynom in Linearfaktoren
mit zerfällt, existiert zu A eine Jordan-Normalform J , d. h., es
gibt eine Matrix S D .b1 ; : : : ; bn / 2 Kn n mit
.'   idV /.bn / D bn1 :
0 1
J1
Da bn … T , ist B D .b1 ; : : : ; bn / eine Basis von V . Wegen B :: C 1
J D@ : A D S AS ;
0 1
 1 Jl
B :: :: C
B : : C
M .'/ D B C wobei J 1 ; : : : ; J l Jordan-Kästchen sind.
B B B :: C
@ : 1A Da A und J ähnlich sind, haben A und J das-
 selbe charakteristische Polynom und auch denselben Ei-
genwert  mit der gleichen algebraischen und geometri-
ist B eine Jordan-Basis von V bezüglich '.  schen Vielfachheit. Damit haben also alle Jordan-Kästchen
J 1 ; : : : ; J l nur  als Diagonaleinträge,
Da über dem algebraisch abgeschlossenen Körper C jedes 0 1
Polynom in Linearfaktoren zerfällt, erhalten wir die Folge- 0 1  1
rung: J1 B :: :: C
B C B : : C
A mit J i D B C
J D@ ::
: B :: C
@ : 1A
Jl
Jordan-Normalform komplexer Matrizen 
Jeder Endomorphismus ' eines C-Vektorraums V besitzt
eine Jordan-Normalform. Insbesondere ist jede komplexe für i D 1; : : : ; l. Und wegen
Matrix zu einer Jordan-Matrix ähnlich.
mg ./ D dim.ker.J   En //
D Anzahl der Jordan-Kästchen von J ;
8.8 Die Berechnung einer
siehe etwa
Jordan-Normalform und Jordan-Basis
0 1
0
B C
In den folgenden Beispielen berechnen wir die Jordan-Nor- B C
B 0 1 C
malformen von Matrizen. Die Jordan-Normalform eines B C
B 0 1 C
Endomorphismus ' erhält man aus der Jordan-Normalform B C
J   E7 D B 0 C
einer und damit jeder Darstellungsmatrix von '. B C
B 0 1 C
Wir schildern die Konstruktion einer Jordan-Basis und B C
B C
damit der Jordan-Normalform zuerst an Beispielen. Das all- @ 0 1A
gemeine Vorgehen wird dann schnell klar. Vorher stellen 0
284 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

erhalten wir damit: gilt, z. B.


0 1 0 1
0 1 0 0 0 0 1 0
B0 0 1 0C N  B0 0 0 1C
Die Anzahl der Jordan-Kästchen B C!B C
Die Anzahl der Jordan-Kästchen einer Jordan-Normal- @0 0 0 1A @0 0 0 0A
form J zu einer Matrix A 2 Kn n zu dem Eigenwert  0 0 0 0 0 0 0 0
ist die geometrische Vielfachheit mg ./ des Eigenwerts 
„ ƒ‚ …
N
von A. 0 1
0 0 0 1
N B 0 0 0 0C N
!B @0
C! 0;
Damit ist die Jordan-Normalform von A genau dann eine 0 0 0A
Diagonalmatrix, wenn die geometrische Vielfachheit von  0 0 0 0
gleich der algebraischen Vielfachheit ist.
bei jeder Multiplikation rutscht die Diagonale mit den Ein-
? Selbstfrage 8.18 sen um eine Reihe hoch.
Durch die Dimension der Eigenräume ist die Jordan-Nor- Somit ist das Kästchen J j   Enj nilpotent mit Nilpo-
malform einer 3 3-Matrix A 2 K3 3 bis auf die Reihen- tenzindex nj . Folglich ist die ganze Matrix J   En auch
folge der Jordan-Kästchen eindeutig festgelegt. Welche nilpotent. Und der Nilpotenzindex r von J   En ist das
8 wesentlich verschiedenen Formen gibt es? Maximum der Nilpotenzindizes der Jordan-Kästchen, also
r D maxfn1 ; : : : ; nl g.
Wegen J D S 1 A S gilt:
Das größte Jordan-Kästchen hat r Zeilen,
J   En D S 1 A S   S 1 S
wobei r der Nilpotenzindex ist
D S 1 .A   En / S :

Wir betrachten weiterhin die Matrix A 2 Kn n mit dem Damit erhalten wir
charakteristischen Polynom A D .  X/n und entschei-
den, wie groß das größte Jordan-Kästchen der Jordan-Nor- .J   En /k D 0 , S 1 .A   En /k S D 0
malform , .A   En /k D 0 :
0 1
J1 Also ist auch A   En nilpotent vom Nilpotenzindex r.
B :: C Das besagt, dass der Nilpotenzindex von A   En die
J D@ : A
Jl Zeilenanzahl des größten Jordan-Kästchens J j einer Jor-
dan-Normalform von A angibt.
ist, dabei bezieht sich der Begriff Größe auf die Anzahl der
Zeilen bzw. Spalten der Kästchen.
Die Matrix Die Zeilenzahl des größten Jordan-Kästchen
0 1 Die Zeilenzahl des größten Jordan-Kästchens einer Jor-
J 1   En1
dan-Normalform von A ist der Nilpotenzindex r der
B :: C
J   En D @ : A Matrix A   En .
J l   Enl

ist nilpotent, da für jedes Kästchen ?Selbstfrage 8.19


0 1 Welche Jordan-Normalform J kann eine Matrix A 2
0 1
C 5 5 mit 5-fachem Eigenwert 1 der geometrischen Viel-
B :: :: C
B : : C fachheit 3 haben, wenn A  E5 den Nilpotenzindex 3 hat?
J j   Enj D B B
C
C
@ ::
: 1A Wir gewinnen nun die wesentliche Motivation für die Kon-
0 struktion einer Jordan-Basis. Dabei gehen wir von der
gleichen Situation wie bisher aus: Gegeben ist eine Ma-
mit nj Zeilen die Gleichung trix A 2 Kn n mit nur einem Eigenwert  und einem in
0 1nj Linearfaktoren zerfallendem charakteristischem Polynom
0 1
B :: :: C A D .  X/n . Es sei J eine Jordan-Matrix zu A mit
B : : C einer Transformationsmatrix S , d. h., J D S 1 A S . Dann
.J j   Enj /nj
DB
B
C
C D0
@ :: gilt für jedes k 2 N:
: 1A
0 .J   En /k D S 1 .A   En /k S
8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis
285 8
und damit wegen der Invertierbarkeit von S : ist, ist das längste Jordankästchen ein 2 2-Kästchen. Damit
hat eine Jordan-Normalform zu A das Aussehen
dim ker.J   En /k D dim ker.A   En /k : 0 1
2 1
B C
Wir setzen nun N D A   En und erhalten aufgrund der B0 2 C
J DB B C
besonderen Form der Matrix J   En eine Kette C
@ 2 1 A
0 2
f0g ¨ ker N ¨ ker N 2 ¨    ¨ ker N r D Kn :
Hier ist die Jordan-Normalform sogar eindeutig, da ein Ver-
Dabei gilt: tauschen der Kästchen die Matrix nicht ändert. 9
4 Es ist r der Nilpotenzindex von N bzw. J   En .
4 Es ist mg ./ D dim ker N . Weil wir nun das Aussehen der Jordan-Normalform J von
4 Es ist ma ./ D dim ker N r . A in diesem Beispiel kennen, könnten wir auch eine Jor-
dan-Basis konstruieren. Hierzu könnten wir ausnutzen, dass
wir nun die Koordinatenvektoren der Bilder der Jordan-
Zur Konstruktion einer Jordan-Basis gibt es Basisvektoren unter der Abbildung 'A W v 7! A v kennen
ein übersichtliches Verfahren – dies sind ja die Spalten von J , also der Darstellungsma-
trix der Abbildung v 7! A v bezüglich der Jordan-Basis
B D .b1 ; b2 ; b3 ; b4 /, d. h., es gilt:
Wir gehen nach wie vor davon aus, dass die betrachte-
te Matrix A nur einen Eigenwert  hat. Mit den beiden A b1 D 2 b1 ;
Hilfsgrößen, der Dimension des Eigenraums und dem Nil- A b2 D 1 b1 C 2 b2 ;
potenzindex, ist eine Jordan-Normalform in vielen Fällen A b3 D 2 b3 ;
bereits festgelegt. Wir geben ein Beispiel.
A b4 D 1 b3 C 2 b4 :
Beispiel Als Matrix A betrachten wir die reelle Matrix Die Vektoren b1 und b3 sind somit Eigenvektoren, hier-
0 1 für können wir also die zwei linear unabhängigen Vektoren
3 1 0 0 wählen, welche den Eigenraum erzeugen, und b2 und b4
B1 1 0 0C erhalten wir sodann als Lösungen der beiden linearen Glei-
ADB
@1
C 2 R4 4
1 3 1A chungssysteme
1 1 1 1
.A  2 E4 / b2 D b1 und .A  2 E4 / b4 D b3 :
mit dem charakteristischen Polynom A D .2  X/ . Weil 4
Dies ist eine Möglichkeit, eine Jordan-Basis B D
das Polynom in Linearfaktoren zerfällt, existiert zu A eine
.b1 ; b2 ; b3 ; b4 / zu konstruieren. Wir geben nun ein durch-
Jordan-Normalform J .
sichtigeres Verfahren in Form von Beispielen an, das man
Wir bestimmen die geometrische Vielfachheit des ein-
auch dann anwenden kann, wenn man eine Jordan-Normal-
zigen Eigenwerts 2 von A, also die Lösungsmenge des
form der Matrix A noch gar nicht kennt.
Systems .A  2 E4 / v D 0. Wegen
0 1 Beispiel Wir betrachten die Matrix
1 1 0 0
B1 1 0  
0C i i
A  2 E4 D B
@1
C AD 2 C2 2
;
1 1 1A 0 i
1 1 1 1
deren einziger Eigenwert die komplexe Zahl i mit der alge-
erhalten wir sogleich: braischen Vielfachheit 2 ist. Im Folgenden wird die Matrix

0
1 0 1 N D A  i E2
1
* 0 +
B1C B 0 C
EigA .2/ D B C B C
@ 0 A ; @ 1 A und .A  2 E4 / D 0 :
2 eine wesentliche Rolle spielen. Wir betrachten die folgende
Kette:
0 1
f0g ¨ ker
„ ƒ‚N…1 ¨ „ N…2 :
kerƒ‚
Weil die Dimension des Eigenraums 2 ist, hat die Jordan- 0 1 0 1 0 1
1 1 0
Normalform zwei Jordankästchen zum Eigenwert 2. Weil D @ A D @ A ;@ A
0 0 1
die kleinste natürliche Zahl k mit .A  2 E4 /k D 0 gleich 2
286 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Dabei ist ker N 1 gerade der Eigenraum zum Eigenwert i


von A. Weil dieser Eigenraum eindimensional ist, können Jordan-Basen von 2 2-Matrizen
wir gleich folgern, dass es nur ein Jordan-Kästchen gibt, da- Ist A 2 K2 2 nicht diagonalisierbar und zerfällt das cha-
mit liegt die Jordan-Normalform bereits fest, wir benutzen rakteristische Polynom von A in Linearfaktoren, so hat A
im Folgenden aber dieses Wissen nicht. einen zweifachen Eigenwert , und es ist B D .b1 ; b2 /
mit
? Selbstfrage 8.20
Wie sieht die Jordan-Normalform aus? b2 2 ker N 2 n ker N 1 und b1 D N b2 ;

Wir wählen vielmehr ein Element b2 2 ker N 2 n ker N 1 , wobei N D A   E2 , eine Jordan-Basis zu A.
und zwar
 
0
b2 D : Dieses Verfahren kann auf größere Matrizen übertragen
1
werden. Wir behandeln auf den nächsten Seiten ausführlich
Dies ist gerade der Basisvektor, den wir zu einer Basis von weitere Beispiele.
ker N ergänzt haben, um eine Basis von ker N 2 zu erhalten. Bei der durchgeführten Konstruktion entstehen auto-
Dieser Vektor b2 erfüllt wegen seiner speziellen Wahl die matisch die größten Jordankästchen unten: Das größte
8 folgenden Eigenschaften: Jordan-Kästchen hat genauso viele Zeilen wie die Kette
4 b2 ist kein Eigenvektor von A, f0g ¨ ker N 1 ¨ ker N 2 ¨    ¨ ker N r echte Inklu-
4 N b2 2 ker N n f0g.
1
sionen aufweist, dies ist gerade der Nilpotenzindex r von
N D A   E3 .
Die zweite Eigenschaft gilt, weil b2 2 ker N 2 , d. h., Mit den gesammelten Erfahrungen ist es nun nicht mehr
schwierig, Jordan-Basen zu größeren Matrizen zu bestim-
0 D N 2 b2 D N .N b2 / ; men.

d. h., N b2 2 ker N 1 . Und N b2 ¤ 0, da sonst b2 2 ker N 1 Beispiel Wir bestimmen eine Jordan-Basis und eine Jor-
gelten würde. dan-Normalform zur Matrix
Wir setzen nun b1 D N b2 , 0 1
2 1 1 0 0 0
b1 D N b2 D .A  i E2 / b2 D A b2  i b2 : B0 2 1 0 0 0 C
B C
B0 0 2 0 0 0 C
ADB B C 2 R6 6 :
Nun gilt: C
4 b1 , b2 sind linear unabhängig, da b2 2 ker N 2 n hb1 i. B0 1 0 2 1 1C
@0 0 0 0 2 0 A
4 A b1 D i b1 , da b1 2 ker N D EigA .i/. 0 0 1 0 0 2
4 A b2 D 1 b1 C i b2 .
Wegen A D .2  X/6 existiert eine Jordan-Normalform
Also ist B D .b1 ; b2 / eine Jordan-Basis mit der Jordan-
zu A.
Normalform
Wir berechnen für N D A  2 E6 die Kette
 
i 1
J D f0g ¨ ker N 1 ¨ ker N 2 ¨    ¨ ker N r D R6 :
0 i
Es gilt:
zu A. 0 1 0 1 0 1
1 0 0
Und mit der Matrix S D .b1 ; b2 / gilt J D
S 1 A S . 9 *B 0C B0C B0C+
B C B C B C
B0C B0C B0C
ker N D B C B C B C
B0C ; B1C ; B0C
? Selbstfrage 8.21 B C B C B C
@0A @0A @1A
Ist .b2 ; b1 / auch eine Jordan-Basis zu A?
0 0 1
Wir haben den Vektor b1 noch gar nicht explizit angegeben.
Wir haben auch an keiner Stelle vom speziellen Ausse- und 0 1 0 1 0 1 0 1 0 1
1 0 0 0 0
hen des Vektors b2 Gebrauch gemacht, sondern nur von B C B C B C
der Tatsache, dass b2 2 ker N 2 n ker N 1 gilt. Damit ha-
0 0 0 B
* B C B C B C B C B0 C1C B
C+
B0C B0C B0C B0C B0C
ben wir also ein Verfahren entwickelt, das für beliebige ker N D B
2 C B C B C B C B C
B0C ; B1C ; B0C ; B0C ; B0C
nicht diagonalisierbare 2 2-Matrizen A mit zerfallendem B C B C B C B C B C
@0A @0A @1A @0A @0A
charakteristischem Polynom anwendbar ist, um eine Jor-
dan-Basis zu A zu bestimmen. 0 0 1 0 1
8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis
287 8

Beispiel: Zur Bestimmung von Jordan-Basen

Wir bestimmen eine Jordan-Basis und eine Jordan-Normal- also:


form zu der Matrix 4 b1 , b2 und b3 sind linear unabhängig.
0 1 4 A b3 D 1 b2 C 1 b3 .
1 1 1
B C 4 A b2 D 1 b1 C 1 b2 .
A D @0 1 "A 2 R3 3 mit " 2 f0; 1g ;
4 A b1 D 1 b1 .
0 0 1

deren einziger Eigenwert die reelle Zahl 1 mit der algebrai- Damit ist also B D .b1 ; b2 ; b3 / eine Jordan-Basis zu A, und
schen Vielfachheit 3 ist. es hat A eine Jordan-Normalform:
0 1
Problemanalyse und Strategie 1 1 0
B C
Wir unterscheiden nach den beiden Fällen " D 1 und " D 0. J D @0 1 1A
In beiden Fällen bilden wir die Matrix N D A  1 E2 , die 0 0 1
Kette 2. Fall " D 0: Wir setzen
f0g ¨ ker N ¨ ker N ¨    ¨ R
1 2 3 0 1
0 1 1
B 0C
und wählen dann beim R3 beginnend sukzessive jeweils der N D A  1 E3 D @0 0 A
Reihe nach die Vektoren b3 ; b2 und b1 , um eine Jordan-Basis 0 0 0
.b1 ; b2 ; b3 / zu A zu erhalten.
Wir berechnen die Kerne der Matrizen N 1 und N 2 :
Lösung
f0g ¨ N…1
kerƒ‚
„ ¨ N…2
kerƒ‚

1. Fall " D 1: Wir setzen 0 1 0 1 0 1 0 1 0 1
0 1 * 1 0 C+ * 1 0 C B0C+
0 1 1 B C B B C B
B C B C B C B C B C
B D B C B C D B C B C B C
N D A  1 E3 D @0 0 1CA
B0C ;B 1 C
@ A @ A
B0C ;B 1 C ;B0C
@ A @ A @ A
0 1 0 1 1
0 0 0

Wir berechnen die Kerne der Matrizen N 1 , N 2 und N 3 : Nun ist bereits ker N 2 dreidimensional, ein weiteres Potenzie-
ren der Matrix kann den Kern nicht weiter vergrößern, daher
f0g ¨ „ N…1 ¨ „
kerƒ‚ N…2
kerƒ‚ ¨ N…3
kerƒ‚
„ : bricht diese Kettenbildung bereits hier ab. An dieser Kette
0 1 0 1 0 1 0 1 0 1 0 1
* 1 + * 1 0 + * 1 0 0 + kann man die Struktur der Jordan-Normalform bereits able-
B C B C B C B C B C B C
B C B C B C B C B C B C
D B C
B0C D B C B C
B0C ;B1C D B C B C B C
B0C ;B1C ;B0C
sen: Man wählt einen Vektor b3 aus ker N 2 n ker N 1 , bildet
@ A @ A @ A @ A @ A @ A
0 0 0 0 0 1 diesen mit N auf den Vektor b2 2 ker N 1 n f0g, also auf einen
Eigenvektor, ab und wählt als b1 einen zu b2 linear unabhän-
Es ist ker N 1 der Eigenraum zum Eigenwert 1 von A. Weil gigen Eigenvektor. Weil der Eigenraum zweidimensional ist,
dieser Eigenraum eindimensional ist, können wir gleich fol- ist dies auch möglich. So entsteht eine Jordan-Basis.
0 1ein Element b3 2 ker N n ker N0 , 1und
2 1
gern, dass es nur ein Jordan-Kästchen gibt, damit liegt die Wir wählen
Jordan-Normalform bereits fest. 0 1
ein Element b3 2 ker N 3 n ker N 2 , und zwar B C B C
Wir0wählen
1 zwar b3 D @0A. Nun setzen wir b2 D N b3 D @0A 2
0 1 0
B C
b3 D @0A. Nun setzen wir b2 D N b3 2 ker N 2 n ker N 1 ker N 1 n f0g. Schließlich gilt mit
1 0 1 0 1
und fassen zusammen, 0 * 1 +
0 1 B C B C
b1 D @ 1 A 2 ker N 1 n @0A
1
B C 1 0
b2 D @1A D N b3 D .A  1 E3 / b3 D A b3  1 b3 ;
0 4 b1 , b2 und b3 sind linear unabhängig.
also: 4 A b3 D 1 b2 C 1 b3 .
4 b2 und b3 sind linear unabhängig. 4 A b2 D 1 b2 .
4 A b3 D 1 b2 C 1 b3 . 4 A b1 D 1 b1 .

Wir setzen b1 D N b2 2 ker N 1 n f0g und fassen wieder zu- Damit ist also B D .b1 ; b2 ; b3 / eine Jordan-Basis zu A, und
sammen, es hat A eine Jordan-Normalform:
0 1 0 1
1 1 0 0
B C B C
b1 D @0A D N b2 D .A  1 E3 / b2 D Ab2  1 b2 ; J D @0 1 1A
0 0 0 1
288 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

und (ii) Weiter wählen wir


4 b3 D .0; 1; 0; 0; 0; 0/> 2 ker N 2 n hb5 i
ker N 3 D R6 :
Es gibt also 3 Jordan-Kästchen, und das größte ist ein 3 und setzen
3-Kästchen. 4 b2 D N b3 D .1; 0; 0; 1; 0; 0/> 2 ker N n f0g.
Wir betrachten die Kette mit den zugehörigen Dimen-
sionen Die Vektoren b2 und b4 sind offenbar linear unabhängig.
Und die Vektoren b3 ; b2 liefern ein 2 2- Jordan-Kästchen.
ker N ¨ ker
f0g ¨ „ƒ‚… „ ƒ‚N… ¨ ker
„ ƒ‚N… D R
2 3 6
(iii) Schließlich wählen wir
dimD3 dimD5 dimD6 4 b1 D .0; 0; 0; 0; 1; 1/> 2 ker N n hb2 ; b4 i.
und gehen nun wie folgt vor, um eine Jordan-Basis
.b1 ; : : : ; b6 / zu konstruieren: Der Vektor b1 liefert ein 1 1-Jordan-Kästchen.
(i) Wir wählen einen Vektor b6 2 ker N n ker N und
3 2
Insgesamt ist B D .b1 ; : : : ; b6 / eine Jordan-Basis zu A,
setzen b5 D N b6 2 ker N und b4 D N b5 2 ker N .
2
und es ist
Dieser Durchlauf der Kette von hinten nach vorne lie- 0 1
fert ein 3 3-Jordan-Kästchen. 2
(ii) Wir wählen einen Vektor b3 2 ker N 2 nker N , der zum B C
B 2 1 C
B C
Vektor b5 linear unabhängig ist – aus Dimensionsgrün- B 0 2 C
8 den ist eine solche Wahl noch möglich –, und setzen J D B
B
C
C
b2 D N b3 2 ker N . Dieser Durchlauf der Kette von B 2 1 0 C
B C
hinten nach vorne liefert ein 2 2-Jordan-Kästchen. @ 0 2 1 A
(iii) Wir wählen einen Vektor b1 2 ker N n f0g, der zu den 0 0 2
Vektoren b2 und b4 linear unabhängig ist – aus Di-
mensionsgründen ist eine solche Wahl noch möglich. eine Jordan-Normalform von A. 9
Dieser Durchlauf der Kette von hinten nach vorne lie-
fert ein 1 1-Jordan-Kästchen.
Bei verschiedenen Eigenwerten bestimmt
Wir erhalten so Vektoren man die Jordan-Basen nacheinander
b1 ; b2 ; b4 ; b3 ; b5 ; b6 : für die einzelnen Eigenwerte
„ ƒ‚ … „ ƒ‚ … „ƒ‚…
2ker N nf0g 2
2ker N nker N 3
2ker N nker N 2

Falls nun fb1 ; b2 ; b4 g und fb3 ; b5 g linear unabhängig sind, Ab nun verzichten wir auf die Einschränkung, dass die Ma-
haben wir eine Jordan-Basis .b1 ; : : : ; b6 / gefunden. Dazu trix A 2 Kn n nur einen Eigenwert  hat. Es sind dann die
ist nur nachzuprüfen, dass b2 und b4 linear unabhängig verschiedenen Eigenwerte 1 ; : : : ; s von A nacheinander
sind, die restlichen Unabhängigkeiten sind per Konstruk- zu untersuchen. Dazu betrachtet man die Matrizen
tion erfüllt.
N 1 D A  1 En ; : : : ; N s D A  s En
Kommentar Man beachte, dass wir bei dieser Konstrukti-
on nicht unbedingt eine Jordan-Basis erhalten: Falls b2 und mit den zugehörigen Ketten
b4 linear abhängig sind, so ist Schritt (ii) mit einer ande-
ren Wahl für b3 zu wiederholen. Diese Problematik lässt f0g ¨ ker N i ¨ ker N i 2 ¨    ¨ ker N i ri D ker N i ri C1 :
sich durch eine Modifikation dieser Konstruktion umgehen;
wir formulieren dieses modifizierte Vorgehen in einem Al- Man nennt die Untervektorräume ker N i j verallgemeiner-
gorithmus in einer Übersicht. Bei Rechnungen mit Bleistift te Eigenräume zum Eigenwert i , den größten verallge-
und Papier ist aber das oben geschilderte Vorgehen im Allge- meinerten Eigenraum ker N i ri bezeichnet man auch als
meinen zu bevorzugen; eventuell muss man einen gewählten Hauptraum zum Eigenwert i . Die Elemente aus dem
Vektor verwerfen und eine neue, geschicktere Wahl treffen. Hauptraum ker N i ri zum Eigenwert i nennt man auch
Hauptvektoren. Wie im Fall eines einzigen Eigenwerts
Wir schildern die Konstruktion in unserem Beispiel aus- zeigt man:
führlich:
(i) Wir wählen
4 b6 D .0; 0; 1; 0; 0; 0/> 2 ker N 3 n ker N 2 , Die Dimension des Hauptraums
Zerfällt das charakteristische Polynom A von A 2 Kn n
und setzen in Linearfaktoren:
4 b5 D N b6 D .1; 1; 0; 0; 0; 1/> 2 ker N 2 n ker N 1 ,
4 b4 D N b5 D .1; 0; 0; 0; 0; 0/> 2 ker N n f0g. A D .1  X/ma .1 /    .s  X/ma .s / ;
Die Vektoren b6 ; b5 ; b4 liefern ein 3 3-Jordan-Kästchen.
8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis
289 8

ke Beispiel Wir betrachten die Matrix


r Nr
ke 0 1
rN 2 2 1 1 0 0 0
ke
rN
B0 2 1 0 0 0C
B C
B0 0 2 0 0 0C
ADB
B0 1 0 3
C 2 R6 6
:
B 1 1C
C
@0 0 1 0 3 1A
0 0 0 0 0 4

Es gilt A D .2  X/3 .3  X/2 .4  X/, sodass eine


Jordan-Normalform von A existiert. Wir bestimmen eine
Jordan-Basis, indem wir das bisherige Verfahren einfach
für die einzelnen Eigenwerte anwenden. Wir beginnen mit
. Abb. 8.9 Der Vektorraum V wird in seine Haupträume für die ver- dem Eigenwert 2 und berechnen die Kette
schiedenen Eigenwerte zerlegt
f0g ¨ ker.A  2 E6 /1 ¨    ¨ ker.A  2 E6 /r :

Es gilt:
0 1
so gibt es zu jedem Eigenwert i , i D 1; : : : ; s, und N i D 1
A  i En eine natürliche Zahl ri mit 1  ri  n und B
*B0C C+
B 0 C
f0g ¨ ker N i ¨ ker N i 2 ¨    ¨ ker N i ri ;
ker.A  2 E6 /1 D B
B0 C
C
B C
@0 A
wobei dim ker N ri i D ma .i /. 0
Die Dimension des Hauptraums zum Eigenwert  ist
somit die algebraische Vielfachheit des Eigenwerts . und 0 1 0 1
1 0
*B C B1C
B 0 C B
C+
B0C B0C
Kommentar Für diese Zahlen r1 ; : : : ; rs gilt: ker.A  2 E6 / D B
2 C B C
B0C ; B1C
B C B C
Kn D ker N r1 ˚    ˚ ker N rs : @0A @0A
0 0
Man spricht von der Hauptraumzerlegung des Kn . Dies
nachzuweisen haben wir als Übungsaufgabe formuliert und 0 1 0 1 0 1
(siehe . Abb. 8.9). 1 0 0
B 0 C B
*B C B C B0C
1C B
C+
B0C B0C B1C
Wir erhalten: 3 B C B C B
ker.A  2 E6 / D B C ; B C ; B C C :
B0C B1C B0C
@0A @0A @1A
Zur Anzahl und Größe der Jordan-Kästchen 0 0 0
Es sei A 2 Kn n eine Matrix mit zerfallendem charakte-
ristischem Polynom A . Ist  2 K ein Eigenwert von A Hier bricht die Kette ab, weil der Eigenwert 2 die algebrai-
mit der Kette der verallgemeinerten Eigenräume sche Vielfachheit 3 hat. Es gehören also 3 Jordan-Basisvek-
toren zu dem Eigenwert 2, und diese finden wir in dieser
ker N ¨ ker N 2 ¨    ¨ „ N…r D kerN rC1 ;
kerƒ‚ Kette. An der Kette erkennen wir auch, dass es genau ein
„ƒ‚… 3 3-Jordan-Kästchen zum Eigenwert 2 gibt.
dimDmg ./ dimDma ./
Wir wählen
wobei N D A   En , so gilt: 4 b6 D .0; 0; 1; 0; 1; 0/> 2 ker.A2 E6 /3 nker.A2 E6 /2
(a) Die Dimension des Hauptraums ker N r zum Eigen-
und setzen
wert  ist die algebraische Vielfachheit ma ./ des
4 b5 D .A  2 E6 / b6 D .1; 1; 0; 1; 0; 0/> 2 ker.A 
Eigenwerts .
2 E6 /2 n ker.A  2 E6 /1 ,
(b) Die Dimension des Eigenraums ker N ist die Anzahl
4 b4 D .A  2 E6 / b5 D .1; 0; 0; 0; 0; 0/> 2 ker.A 
der Jordan-Kästchen zum Eigenwert .
2 E6 /1 n f0g.
(c) Die Zahl r ist die Länge des größten Jordan-Kästchens
zum Eigenwert . Die Jordan-Basisvektoren b6 ; b5 ; b4 liefern ein 3 3-Jor-
dan-Kästchen.
290 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Nun wenden wir das Verfahren auf den zweifachen Ei- Wir erhalten mit der Jordan-Basis B D .b1 ; : : : ; b6 / die
genwert 3 an und berechnen die Kette Jordan-Normalform
0 1
f0g ¨ ker.A  3 E6 /1 ¨    ¨ ker.A  3 E6 /r : 4
B C
B 3 1 C
Es gilt: B C
B 0 3 C
J DB B C
0 1 C
0 B 2 1 0 C
B C
*B0C
B @ 0 2 1A
C+
B0 C 0 0 2
ker.A  3 E6 / D B
1
B1 C
C
B C
@0 A zu A. 9
0
Man kann das Verfahren zur Bestimmung einer Jordan-
und Basis allgemein schildern. Der Formalismus ist nicht ganz
einfach, man kann sich diesen Algorithmus auch nicht gut
0 1 0 1
0 0 einprägen. Durch das Berechnen weniger Beispiele wird
*B 0 C B0 C
B C B C+ die Konstruktion einer Jordan-Basis klar. Die Schwierig-
8 B 0 C B 0 C keit, die bestehen kann, haben wir bereits angedeutet: Es
ker.A  3 E6 /2 D B C B C
B1 C ; B0 C : kann eben passieren, dass beim zweiten Durchlauf der
B C B C
@0 A @1 A Kette zwei Vektoren bi und bj aus ein und demselben ver-
0 0 allgemeinerten Eigenraum konstruiert werden, die jedoch
linear abhängig sind. Somit können diese Vektoren nicht
Hier bricht die Kette ab, weil der Eigenwert 3 die algebrai- Elemente einer Jordan-Basis sein. Wir formulieren in einer
sche Vielfachheit 2 hat. Es gehören also 2 Jordan-Basisvek- Übersicht einen Algorithmus, der dieses Problem bewältigt.
toren zu dem Eigenwert 3, und diese finden wir in dieser
Kette. An der Kette erkennen wir auch, dass es genau ein
2 2-Jordan-Kästchen zum Eigenwert 3 gibt. Die Jordan-Normalform einer Matrix ist bis
Wir wählen auf die Reihenfolge der Jordan-Kästchen
4 b3 D .0; 0; 0; 0; 1; 0/> 2 ker.A3 E6 /2 nker.A3 E6 /1 eindeutig bestimmt

und setzen
4 b2 D .A  3 E6 / b3 D .0; 0; 0; 1; 0; 0/> 2 ker.A  Bei den bisherigen Beispielen zur Jordan-Normalform ei-
2 E6 /1 n f0g. ner Matrix A spielte die Matrix N D A   En eine
Schlüsselrolle. Mit den praktischen Erfahrungen, die wir in
Die Jordan-Basisvektoren b3 ; b2 liefern ein 2 2-Jordan- den Beispielen gesammelt haben, fällt es nun nicht mehr
Kästchen. schwer, die folgenden Ergebnisse nachzuvollziehen:
Schließlich wenden wir das Verfahren auf den Eigen- Für eine Matrix A 2 Kn n ,  2 K und k 2 N setzen
wert 4 an. Weil 4 ein einfacher Eigenwert ist, bricht die wir
Kette bereits nach dem Eigenraum ab, da nur ein Jordan-
Basisvektor zu diesem Eigenwert gehört, und dieser ist ein rk .A; / D rg.A   En /k :
Eigenvektor:
Die Zahl rk .A; / ist der Rang der Matrix .A   En /k .
Falls  kein Eigenwert von A ist, so gilt rk .A; / D n.
f0g ¨ ker.A  4 E6 /1 :
Falls  ein Eigenwert von A ist, so steigt die Folge
Und es gilt: .rk .A; //k monoton und konvergiert gegen die algebrai-
sche Vielfachheit des Eigenwerts .
0 1 Für jedes k 2 N setzen wir weiter:
0
*B 0C
B C+ ck .A; / D rkC1 .A; / C rk1 .A; /  2 rk .A; /
B 0C
ker.A  4 E6 /1 D BB0 C
C :
B C und zeigen:
@1 A
1 Lemma Zerfällt das charakteristische Polynom A von
A 2 Kn n , so ist für jeden Eigenwert  von A die Zahl
Der Jordan-Basisvektor b1 D .0; 0; 0; 0; 1; 1/> liefert ein ck .A; /, k 2 N, die Anzahl der Jordan-Kästchen der Län-
1 1-Jordan-Kästchen. ge k zum Eigenwert .
8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis
291 8

Übersicht: Bestimmung einer Jordan-Basis

Gegeben ist eine Matrix A 2 Kn n mit in Linearfaktoren folgt, dass die Menge
zerfallendem charakteristischem Polynom. Das Bestimmen
einer invertierbaren Matrix S , die die Eigenschaft hat, dass [
tr
Bi
J D S 1 A S eine Jordan-Matrix ist, nennt man auch Trans- iD1
formation von A auf Jordan-Normalform. Als Spalten der
Matrix S wählt man dabei die Vektoren einer Jordan-Basis linear unabhängig ist.
des Kn von A. Zur Transformation dieser Matrix A geht man 4 Iteration für k D r  1; : : : ; 1:
meistens wie folgt vor: Für i D 1; : : : ; tkC1 DW t 0 seien schon die Vektoren

Es sei bk;i 2 ker N k n ker N k1

A D .1  X/ma .1 /    .s  X/ma .s / bestimmt, sodass .bk;1 ; : : : ; bk;t 0 / eine geordnete linear
unabhängige Menge ist; wir setzen
das charakteristische Polynom von A mit den s verschiedenen
Eigenwerten 1 ; : : : ; s . Tk1 D ker N k1 ˚ hbk;1 ; : : : ; bk;t 0 i :
Für jeden Eigenwert  von A setze N D A   En und
bestimme dann wie folgt eine Jordan-Basis des Hauptraums Falls tk > tkC1 , so bestimme linear unabhängige Vektoren
HauA ./: bk;i mit i D t 0 C 1; : : : ; tk , sodass
4 Bestimme ˝ ˛
ker N k D Tk1 ˚ bk;t 0 C1 ; : : : ; bk;tk
r
ker N ; : : : ; ker N ;
und für i D t 0 C 1; : : : ; tk
wobei dim ker N r D ma ./. Setze
bl;i D N kl bk;i für l D k  1; : : : ; 1 :
tk D dim ker N k  dim ker N k1 für k D r; : : : ; ; 1 :

Es gilt tk  tkC1 für alle k. Für i D t 0 C 1; : : : ; tk ist dann


4 Bestimme linear unabhängige Vektoren br;i für i D
Bi D .b1;i ; : : : ; bk;i /
1; : : : ; tr , sodass

ker N r D ker N r1 ˚ hbr;1 ; : : : ; br;tr i : linear unabhängig und liefert ein k k-Jordan-Kästchen.
Falls tk D tkC1 , so gehe zu k  1 über.
4 Berechne für i D 1; : : : ; tr 4 Die geordnete Menge

bl;i D N rl br;i für l D r  1; : : : ; 1 : B D .B t1 ; : : : ; B2 ; B1 /

Es ist Bi D .b1;i ; : : : ; br;i / eine geordnete linear unabhän- ist eine geordnete Jordan-Basis des Hauptraums HauA ./.
gige Menge, die ein r r-Jordan-Kästchen liefert. Da
Die Vereinigung und Anordnung der Jordan-Basen aller
br;i … ker N r1 ˚ hfbr;1 ; : : : ; br;tr g n fbr;i gi Haupträume liefert dann eine Jordan-Basis zu A.

Beweis Da für zueinander ähnliche Matrizen A und B für für i D 1; : : : ; l. Wegen der Dreiecksgestalt von A gilt:
jedes k 2 N0 die Zahlen rk .A; / und rk .B; / gleich sind,
können wir ohne Einschränkung annehmen, dass A in Jor- X
l
dan-Normalform vorliegt: rk .A; / D rk .J i ; / :
0 1 i D1
J1
B :: C
AD@ : A Nun sei i 2 f1; : : : ; lg.
Jl 1. Fall. i ¤ : Dann ist die Matrix J   Eni in-
0 1 vertierbar. Somit ist auch .J   Eni /k für jedes k 2 N0
i 1 invertierbar. Es folgt:
B :: :: C
B : : C
mit J i D B B C 2 Kni ni
:: C rk .J i ; / D ni für jedes k 2 N
@ : 1A
i und somit ck .J i ; / D 0.
292 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Beispiel: Konstruktion einer Jordan-Basis

Man bestimme zu der Matrix Wegen dim ker N 3 D 5 D ma .2/ ist ker N 3 der Hauptraum
0 1 von A zum Eigenwert 2, und es gilt:
2 1 1 1 0 0 0 0
B0 2 1 0 1 1 0 0C 0 1 0 1 0 1 0 1 0 1 0 1 0 1
B C 1 0 0 1 0 0 0
B0 0C B0C B 1 C B 1 C B0C B 1 C B 1 C B0C
B 0 2 0 0 1 2 C B C B C B C B C B C B C B C
B C B0C B 0 C B1C B0C B 0 C B1C B0C
B0 0 0 2 0 1 1 0C C C B C B C B C
ADB
B0
C B C B C B
*B C B C B C + *B B C B C B C B C+
B 0 0 0 2 0 0 0C
C B0C B1C B 0 C B0C B1C B 0 C B1C
B0 B C;B C;B C ¨ B C;B C;B C;B C
B 0 0 0 0 1 0 0C
C B0C B 0 C B 1 C
B C B C B C
B0C B 0 C B 1 C B0C
B C B C B C B C
B C B0C B 0 C B 0 C B0C B 0 C B 0 C B0C
@0 0 0 0 0 0 1 0A B C B C B C B C B C B C B C
B C B C B C B C B C B C B C
0 0 0 0 0 2 1 1 @0A @ 0 A @ 0 A @0A @ 0 A @ 0 A @0A
0 0 0 0 0 0 0
eine Jordan-Normalform und eine Jordan-Basis. „ ƒ‚ … „ ƒ‚ …
Dker N Dker N 2
Problemanalyse und Strategie 0 1 0 1 0 1 0 1 0 1
1 0 0 0 0
B0C B 1 C B 1 C B0C B0C
Man wende das geschilderte Verfahren an. B C B C B C B C B C
B0C B 0 C B1C B0C B1C
8 *B C B C B C B C B C
B C B C B C B C B C+
Lösung B0C B1C B 0 C B1C B0C
¨ B C B C B C B C B C
B0C ; B 0 C ; B 1 C ; B0C ; B0C :
Das charakteristische Polynom von A erhält man leicht wegen B C B C B C B C B C
B0C B 0 C B 0 C B0C B0C
der Blockdreiecksgestalt und der Dreiecksgestalt der Blöcke B C B C B C B C B C
B C B C B C B C B C
auf der Diagonalen, es gilt: @0A @ 0 A @ 0 A @0A @0A
0 0 0 0 0
A D .2  X/5 .1  X/3 : „ ƒ‚ …
Dker N 3

Wir beginnen mit dem Eigenwert 2. Wir setzen N D A 2 E8


Das größte Jordan-Kästchen zum Eigenwert 2 hat damit 3 Zei-
und erhalten
len, und wegen dim ker N D 3 gibt es drei Jordan-Kästchen
0 1 zum Eigenwert 2. Wir wählen b8 2 ker N 3 n ker N 2 und er-
0 1 1 1 0 0 0 0
B0 0 1 0 1 1 0 0C halten b7 und b6 wie folgt:
B C
B0 0C
B 0 0 0 0 1 2 C 0 1 0 1 0 1
B C 0 1 1
B0 0 0 0 0 1 1 0C
N DB C; B0C B1C B0C
B0 0 0 0 0 0 0 0C B C B C B C
B C B1C B0C B0C
B0 B C B C B C
B 0 0 0 0 1 0 0CC B C B C B C
B C B0C B0C B0C
@0 0 0 0 0 0 1 0A b8 D B
B0C
C ; b7 D N b8 D B C ; b6 D N b7 D B C :
B0C B0C
1 B C B C B C
0 0 0 0 0 2 1 B0C B0C B0C
0 1 B C B C B C
B C B C B C
0 0 1 0 1 3 3 0 @0A @0A @0A
B0 0 0 0 0 0 2 0C
B C 0 0 0
B0 1 2 0C
B 0 0 0 0 C
B C
B0 0 0 0 0 1 1 0C Damit haben wir bereits einmal die Kette von hinten nach vor-
N DB
2
B0
C
B 0 0 0 0 0 0 0CC ne durchlaufen. Nun wählen wir Vektoren b5 ; b4 2 ker N n
B0 0C f0g, sodass b4 ; b5 ; b6 linear unabhängig sind:
B 0 0 0 0 1 0 C
B C
@0 0 0 0 0 0 1 0A
0 1 0 1
0 0 0 0 0 4 2 1 0 0
0 1 B1C B1C
2 1 B C B C
0 0 0 0 0 0 B0C B1C
B0 B C B C
B 0 0 0 0 0 2 0CC B C B C
B0 B1C B0C
B 0 0 0 0 1 2 0CC b5 D B
B0C
C ; b4 D B C :
B1C
B C B C B C
B0 0 0 0 0 1 1 0C B0C B0C
N3 D B
B0
C B C B C
B 0 0 0 0 0 0 0CC B C B C
B0 @0A @0A
B 0 0 0 0 1 0 0CC
B C 0 0
@0 0 0 0 0 0 1 0A
0 0 0 0 0 6 3 1
Dies liefert zwei 1 1-Jordan-Kästchen zum Eigenwert 2.
8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis
293 8

Wir machen nun mit dem Eigenwert 1 weiter. Wir setzen zum Eigenwert 2. Wir wählen und setzen
N D A  E8 und erhalten
0 1 0 1
1 0
0 1 B2C B0C
1 1 1 1 0 0 0 0 B C B C
B0 B1C B0C
B 1 1 0 1 1 0 0C
C B C
B C
B C
B C
B0 0C B0C B0C
B 0 1 0 0 1 2 C b3 D B C ; b2 D N b3 D B
B C C
B C B0C :
B0 0 0 1 0 1 1 0C 0
B C B C
N DB
B0
C; B1C B0C
B 0 0 0 1 0 0 0C
C B C
B C
B C
B C
B0 0C @1A @0A
B 0 0 0 0 0 0 C
B C
@0 0 0 0 0 0 0 0A 0 1
0 0 0 0 0 2 1 0
0 1 Damit haben wir bereits einmal die Kette von hinten nach vor-
1 2 3 2 1 3 3 0
ne durchlaufen. Nun wählen wir einen Vektor b1 2 ker N n
B0 1 2 0 2 2 2 0C
B C f0g, sodass b1 ; b2 linear unabhängig sind:
B0 0C
B 0 1 0 0 1 2 C
B C 0 1
B0 0 0 1 0 1 1 0C 0
N DB
2
B0
C
B 0 0 0 1 0 0 0C
C B4C
B0 B C
B 0 0 0 0 0 0 0C
C B3C
B C
B C B C
@0 0 0 0 0 0 0 0A B1C
0 0 0 0 0 0 0 0 b1 D B
B0C:
C
B C
B1C
B C
B C
Wegen dim ker N 2 D 3 D ma .1/ ist ker N 2 der Hauptraum @2A
von A zum Eigenwert 1. Und es gilt: 0

0 1 0 1 0 1 0 1 0 1 Es ist nun B D .b1 ; : : : ; b8 / eine Jordan-Basis zu A mit der


0 0 0 0 1
B0C B4C B0C B4C B2C zugehörigen Jordan-Normalform:
B C B C B C B C B C
B0C B 3 C B0C B 3 C B 1 C
*B C B C+ *B
B C B C C B C B C
B C B C B C+
0 1
B0C B 1 C B0C B 1 C B 0 C 1
B C;B C ¨ B C;B C;B C : B C
B0C B 0 C B0C B 0 C B 0 C B C
B C B C B C B C B C B 1 1 C
B0C B 1 C B0C B 1 C B 1 C B C
B C B C B C B C B C B 1 C
B C B C B C B C B C B C
@0A @2A @0A @2A @1A B C
B 2 C
1 0 1 0 0 J DB
B
C
C
„ ƒ‚ … „ ƒ‚ … B 2 C
B C
Dker N Dker N 2 B C
B C
B 2 1 C
B C
Das größte Jordan-Kästchen zum Eigenwert 1 hat damit 2 Zei- @ 2 1A
len, und wegen dim ker N D 2 gibt es zwei Jordan-Kästchen 2

2. Fall. i D : Dann hat die Matrix sodass


0 1
0 1 8
B :: :: C <0 ; k < n i ;
B : : C
J i   Eni D B :: C ck .J i ; / D 1 ; k D ni ;
@ : 1A :
0 ; k > ni :
0
den Rang ni  1, d. h., r1 .J i ; / D ni  1. Für die Potenzen Damit folgt die Behauptung. 
.J i   Eni /k gilt:
 Die ermittelte Formel kann dazu dienen, die Jordan-Nor-
ni  k ; k  ni ;
rk .J i ; / D malform einer Matrix zu ermitteln. Dazu ist es nicht not-
0; k > ni ; wendig, dass eine Jordan-Basis bestimmt wird.
294 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Beispiel Gegeben ist die Matrix d. h., dass es kein Jordan-Kästchen der Länge 2 zum Eigen-
0 1 wert 1 gibt. Weiter gilt:
3 1 4 3 1
B1 1 1 1 0C c3 .A; 1/ D r4 .A; 1/ C r2 .A; 1/ 2 r3 .A; 1/ D 1 ;
B C „ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
B
ADB 1 0CC2C
0 2 0 5 5
: D1 D2 D1
@4 1 4 5 1 A
2 0 2 2 1 d. h., dass es genau ein Jordan-Kästchen der Länge 3 zum
Eigenwert 1 gibt.
Als charakteristisches Polynom erhalten wir Eine Jordan-Normalform von A ist damit
A D .2  X/ .1  X/4 : 0 1
2
B C
Zum Eigenwert  D 2: Die Matrix B 1 C
B C
0 1 J DB B C
5 1 4 3 1 1 1 0C
B C
B 1 1 1 1 0C @ 0 1 1A
B C
A  2 E5 D B
B 1 0 0 0 0C
C 0 0 1
@4 1 4 7 1 A
2 0 2 2 1 Natürlich muss man nicht alle Zahlen ck bestimmen, wenn
8 man nur herausfinden will, wie die Jordan-Normalform
hat den Rang 4. Der Rang der Matrix .A  2 E5 /2 ist damit aussieht. Wir hätten nur mit der Bestimmung von c1 bereits
auch 4, da für die algebraische Vielfachheit 1 D ma .2/ D eine Jordan-Normalform erkannt: Dass es nur ein Jordan-
5  rg.A  2 E5 / gilt. Kästchen zum Eigenwert 2 gibt, ist klar, da 2 ein einfacher
Damit erhalten wir Eigenwert ist. Und dass das zweite (dass es nur zwei gibt,
folgt aus mg .1/ D 2) Jordan-Kästchen zum Eigenwert 1 ein
c1 .A; 2/ D r2 .A; 2/ C r0 .A; 2/ 2 r1 .A; 2/ D 1 ; Kästchen der Länge 3 ist, ist auch klar, da 1 ein vierfacher
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
D4 D5 D4 Eigenwert ist. 9
d. h., dass es (wie erwartet) genau ein Jordan-Kästchen der
Wir sprechen immer von einer Jordan-Normalform und
Länge 1 zum Eigenwert 2 gibt.
nicht von der Jordan-Normalform. Das liegt an der Tatsa-
Zum Eigenwert  D 1: Die Matrix
che, dass es zu einer Matrix durchaus verschiedene Jordan-
0 1
4 1 4 3 1 Normalformen geben kann. Es scheint aber so zu sein, dass
B1 0 1 1 0C sich je zwei verschiedene Jordan-Normalformen nur in der
B C
B
A  E5 D B1 0 1 0 0C Anordnung der Jordan-Kästchen unterscheiden. Dass dem
C
@4 1 4 6 1 A tatsächlich so ist, können wir nun zeigen.
2 0 2 2 0

hat den Rang 3. Die Matrix Zur Eindeutigkeit der Jordan-Normalform


0 1 Es seien A; B 2 Kn n zwei Matrizen mit zerfallen-
1 1 1 1 1
dem charakteristischem Polynom und zugehörigen Jor-
B1 0 1 1 0C
B C dan-Normalformen J A ; J B . Dann sind äquivalent:
.A  E5 /2 D B
B3 1 3 3 1CC (i) Die Matrizen A und B sind ähnlich.
@3 0 3 3 0A (ii) Die Matrizen J A und J B stimmen bis auf die Reihen-
2 0 2 2 0 folge der Jordan-Kästchen überein.

hat den Rang 2. Der Rang der Matrix .A  E5 /3 ist damit


Insbesondere ist die Jordan-Normalform einer Matrix bis
1, da für die algebraische Vielfachheit 4 D ma .1/ D 5 
auf die Reihenfolge der Jordan-Kästchen eindeutig be-
rg.A  2 E5 /3 gilt.
stimmt.
Damit erhalten wir

c1 .A; 1/ D r2 .A; 1/ C r0 .A; 1/ 2 r1 .A; 1/ D 1 ;


„ ƒ‚ … „ ƒ‚ … „ ƒ‚ … Beweis (i) ) (ii): Für jedes  2 K und k 2 N gilt
D2 D5 D3
rk .A; / D rk .B; /, d. h., dass ck .A; / D ck .B; /. So-
d. h., dass es genau ein Jordan-Kästchen der Länge 1 zum mit haben die ähnlichen Matrizen A und B gleich viele
Eigenwert 1 gibt. Weiter gilt: gleich lange Jordan-Kästchen zu den gleichen Eigenwer-
ten. Damit gilt (ii).
c2 .A; 1/ D r3 .A; 1/ C r1 .A; 1/ 2 r2 .A; 1/ D 0 ; (ii) ) (i): Die Matrizen J A und J B sind ähnlich, da sie
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
D1 D3 D2 dieselbe lineare Abbildung bezüglich verschieden sortierter
8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis
295 8

Übersicht: Die gemeinsamen Eigenschaften ähnlicher Matrizen

Zwei Matrizen A; B 2 Kn n
heißen ähnlich, wenn es eine 4 Ist A diagonalisierbar, so auch B, die Diagonalformen
invertierbare Matrix S 2 Kn n
gibt mit können gleich gewählt werden.
4 Ist A triangulierbar, so auch B.
B D S 1 A S : 4 Gibt es zu A eine Jordan-Normalform, so auch zu B, die
Jordan-Normalformen können gleich gewählt werden.
Wir stellen die gemeinsamen Eigenschaften ähnlicher Matri- 4 A und B haben dasselbe charakteristische Polynom.
zen zusammen. 4 A und B haben dieselben Eigenwerte.
4 Die algebraischen Vielfachheiten der Eigenwerte von A
Die n n-Matrizen A und B seien ähnlich. Es gelte B D und B stimmen überein.
S 1 A S . 4 Die geometrischen Vielfachheiten der Eigenwerte von A
4 A und B haben dieselbe Determinante. und B stimmen überein.
4 A und B haben dieselbe Spur. 4 Die Dimensionen der verallgemeinerten Eigenräume zu
4 Ist A invertierbar, so auch B. einem Eigenwert  von A und B stimmen überein.

Basen darstellen. Wegen der Transitivität der Ähnlichkeits- Das folgende Beispiel zeigt eine wichtige Anwendung der
relation  von Matrizen folgt aus Jordan-Normalform.
A  JA  JB  B
Beispiel Mittels der Jordan-Normalform kann man späte
die Ähnlichkeit von A und B.  Folgenglieder rekursiv definierter Folgen relativ einfach be-
stimmen. Dabei benutzen wir einen Trick, den wir auch
schon beim Diagonalisieren benutzt haben. Wir betrachten
Potenzen von Matrizen die Folge .gn /n2N0 mit
in Jordan-Normalform lassen
sich einfach bestimmen g0 D 0; g1 D 1; gnC1 D 4gn1 C 4gn für n  1

und interessieren uns etwa für das Folgenglied g20 .


Nachdem wir nun wissen, wie man eine Jordan-Normalform Dazu suchen wir erst eine Matrix A 2 R2 2 , mittels der
und eine Jordan-Basis zu einer Matrix bestimmt, wenden sich die Rekursion für n  1 in der Form
wir uns nun den ursprünglichen Fragen zu: Wie bildet man    
Potenzen von Matrizen? Dies ist im Allgemeinen ein rechen- gn gn1
DA
aufwendiges Unterfangen. Bei diagonalisierbaren Matrizen gnC1 gn
ist es deutlich einfacher. Aber für Matrizen in Jordan-Nor-
malform ist es auch noch relativ einfach, beliebige Potenzen schreiben lässt. Das leistet offenbar die Matrix
zu bilden. Dazu können wir nämlich die Binomialformel für  
Matrizen benutzen, dabei gilt Folgendes: 0 1
AD
4 4

Die Jordan-Zerlegung der Jordan-Normalform Nun bestimmen wir eine Jordan-Basis zu A und eine
Ist J eine Jordan-Normalform, so gibt es eine Diagonal- zugehörige Jordan-Normalform J . Das charakteristische
 
matrix D und eine nilpotente Matrix N mit 1
Polynom von A lautet A D .2  X/2 , und spannt
2
J D D C N und D N D N D : den eindimensionalen Eigenraum zum Eigenwert 2 der al-
gebraischen Vielfachheit 2 auf.  
Wir nennen diese Darstellung der Jordan-Matrix J als 1
Summe die Jordan-Zerlegung von J . Wir wählen den Vektor b2 D 2 ker.A  2 E2 /2 n
0
 
2
ker.A  2 E2 / und setzen b1 D .A  2 E2 / b2 D .
4
Beispiel
Damit ist B D .b1 ; b2 / eine geordnete Jordan-Basis,
0 1 0 1 0 1
2 1 2 1 und es hat A die Jordan-Normalform
B 2 C B 2 C B C  
B CDB CCB C 9 2 1
@ 3 1A @ 3 A @ 1A J D
3 3 0 2
296 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Weiter erfüllt die Matrix S D .b1 ; b2 /, deren Spalten ge- setzen wir A für X ein und erhalten
rade die Elemente der Jordan-Basis sind, die Eigenschaft
J D S 1 A S . A .A/ D .1/n A n C cn1 A n1 C   
Damit und mit der angegebenen Rekursion können wir C    C c1 A C c0 A 0 D 0 :
nun g20 ermitteln, es gilt nämlich:
        Es gibt viele weitere Polynome, die A als Nullstellen ha-
g19 g18 g0 g0
DA D A 19 D S J 19 S 1 : ben, so haben etwa alle Vielfachen von A auch A als
g20 g19 g1 g1
Nullstelle.
Wir setzen nun
    Zu jeder quadratischen Matrix gibt es genau
2 0 0 1
J D C ein Minimalpolynom
0 2 0 0
„ ƒ‚ … „ ƒ‚ …
DWD DWN
Wir suchen ein ganz bestimmtes Polynom, das A als Null-
und berechnen J 19 mit der Formel aus dem Satz Die Potenz stelle hat und werden dies dann das Minimalpolynom von
einer Summe einer Diagonalmatrix und einer nilpotenten A nennen: Den Schlüssel zur Eindeutigkeit liefert dabei
Matrix aus 7 Abschn. 8.7: die sogenannte Normierung: Man nennt ein Polynom nor-
8  19  miert, falls der höchste Koeffizient 1 ist.
2 19  218
J D D C 19 D N D
19 19 18
0 219
Beispiel Das Polynom

 man
Daraus erhält  nach Berechnen der zweiten Zeile von
19 1 g0 P D 3X 3  12X 2 C 9
SJ S das Ergebnis g20 D 20  219 . 9
g1
ist nicht normiert, da es den höchsten Koeffizienten 3 ¤ 1
Nun können wir auch eine bereits früher gemachte Behaup- hat. Wir normieren es, indem wir es mit 1 3
multiplizieren
tung beweisen: und erhalten damit das normierte Polynom

Q D X 3 C 4X 2  3 : 9
Der Zusammenhang zwischen Spur, Determinante
und den Eigenwerten einer Matrix In den folgenden Ausführungen benutzen wir immer wie-
Zerfällt das charakteristische Polynom A der Matrix A 2 der die folgende Tatsache, die wir im 7 Abschn. 2.4 nach-
Kn n in seine n Linearfaktoren, d. h. gewiesen haben: Sind P und Q irgendwelche Polynome
aus KŒX, so gelten für das Einsetzen einer Matrix A 2
A D .1  X/    .n  X/ ; Kn n die Regeln:

so gilt: .P C Q/.A/ D P .A/ C Q.A/ und


.P Q/.A/ D P .A/ Q.A/ :
Sp A D 1 C    C n ; det A D 1    n :
Nun zeigen wir:

Beweis Da A zerfällt, ist A ähnlich zu einer Jordan-


Matrix J . Da Spur und Determinante ähnlicher Matrizen Das Minimalpolynom
gleich sind, folgt die Behauptung.  Es seien K ein Körper und n 2 N. Zu einer quadrati-
schen Matrix A 2 Kn n gibt es ein eindeutig bestimm-
tes normiertes Polynom A ¤ 0 kleinsten Grades mit
8.9 Das Minimalpolynom einer Matrix .A/ D 0.
Das Polynom A nennt man das Minimalpolynom
Nach dem Satz von Cayley-Hamilton ist eine quadratische von A
Matrix A Nullstelle des charakteristischen Polynoms A ,
d. h. A .A/ D 0. Hierbei wird in das Polynom A anstelle
der Variablen X die Matrix A eingesetzt, genauer: In das Beweis Wir betrachten die Menge aller Polynome über
Polynom dem Körper K, die die Matrix A als Nullstelle haben:

A D .1/n X n C cn1 X n1 C    C c1 X C c0 I D fP 2 KŒX j P .A/ D 0g :


8.9  Das Minimalpolynom einer Matrix
297 8
Existenz von A : Nach dem Satz von Cayley-Hamilton Es sei also P irgendein Polynom ungleich dem Nullpo-
liegt das vom Nullpolynom 0 verschiedene charakteristi- lynom mit P .A/ D 0. Wir dividieren das Polynom P per
sche Polynom A in I , sodass die Menge I n f0g nichtleer Polynomdivision mit Rest durch A und erhalten Polyno-
ist. Wir wählen in dieser Menge I n f0g der vom Nullpoly- me Q und R mit
nom verschiedenen Polynome, die A als Nullstelle haben,
ein normiertes Polynom kleinsten Grades und bezeichnen P D Q A C R ; wobei R D 0 oder deg.R/ < deg A :
dieses mit A .
Eindeutigkeit von A : Es sei P ein weiteres normier- Angenommen, das Polynom R D P  Q A ist nicht das
tes Polynom mit P .A/ D 0 und identischem Grad r D Nullpolynom. Dann ist wegen
deg.P / D deg.A /. Da beide Polynome P und A nor-
miert sind und den gleichen Grad haben, ist der Summand R.A/ D P .A/  Q.A/ A .A/ D 0  Q.A/ 0 D 0
mit dem höchsten Grad identisch, also
das Polynom R ein Polynom kleineren Grades als A und
A D X C ar1 X
r
C : : : C a1 X C a0 und
r1 hat doch A als Nullstelle. Dieser Widerspruch belegt, dass
R D 0 gelten muss. Somit erhalten wir P D Q A , d. h.,
P D X r C br1 X r1 C : : : C b1 X C b0
P ist ein Vielfaches von A .
(b) Ist  eine Nullstelle des charakteristischen Poly-
mit irgendwelchen ai und bj aus K. Angenommen, das Po-
noms A , so ist  ein Eigenwert von A, d. h., es gibt ein
lynom P  A ist nicht das Nullpolynom, P  A ¤ 0.
v 2 Kn , v ¤ 0 mit A v D  v. Es gilt somit auch
Dann liegt P  A wegen
A k v D k v für jedes k 2 N und damit also auch für jedes
.P  A /.A/ D P .A/  A .A/ D 0  0 D 0 Polynom P D ar X r C    C a1 X C a0 2 KŒX:

in I n f0g. Aber wegen deg.P  A / < r ist das ein Wider- P .A/ v D .ar A r C    C a1 A C a0 En / v
spruch. Unser Polynom A war doch ein Polynom in I nf0g D ar A r v C    C a1 A v C a0 En v
mit kleinstem Grad. Somit muss P  A D 0 gelten, das D ar r v C    C a1  v C a0 v
liefert P D A . 
D .ar r C    C a1  C a0 /v
Zu jeder quadratischen Matrix gibt es somit ein eindeutig D P ./ v :
bestimmtes Minimalpolynom. Wie wir dieses Minimalpo-
lynom zu einer Matrix A bestimmen können, ist aber noch Mit der Wahl A für P erhalten wir wegen A .A/ D 0
unklar. somit A ./ D 0, da v ¤ 0 gilt. 

Wir finden das Minimalpolynom einer Matrix A also unter


Das Minimalpolynom findet man unter den (üblicherweise) wenigen Teilern des charakteristischen
besonderen Teilern des charakteristischen Polynoms (das sagt der Teil (a) des eben bewiesenen Sat-
Polynoms zes), wobei wir uns auch noch auf die Teiler einschränken
dürfen, in denen jeder Linearfaktor des charakteristischen
Polynoms vorkommt (das besagt der Teil (b) des obigen
Mit den folgenden Ausführungen erhalten wir eine einfache Satzes).
Methode zum Bestimmen des Minimalpolynoms, wenn das
charakteristische Polynom bereits bekannt ist. Beispiel
4 Die reelle Matrix
0 1
1 1 1
Wichtige Eigenschaften des Minimalpolynoms
A D @0 1 0 A
Es sei A 2 Kn n eine quadratische Matrix mit dem cha-
0 0 1
rakteristischen Polynom A und dem Minimalpolynom
A . Dann gilt:
hat das charakteristische Polynom A D .1  X/3 . Für
(a) A ist ein Vielfaches von A .
das Minimalpolynom gilt also
(b) Ist  eine Nullstelle von A , so ist  eine Nullstelle
von A .
A 2 fX  1 ; .X  1/2 ; .X  1/3 g :

Durch Probieren findet man


Beweis (a) Wir zeigen etwas allgemeiner als angegeben:
Jedes Polynom P mit P .A/ D 0 ist ein Vielfaches von A . A  E3 ¤ 0 ; .A  E2 /2 D 0 ;
Da nach dem Satz von Cayley-Hamilton das charakteristi-
sche Polynom A .A/ D 0 erfüllt, folgt so die Behauptung. sodass also A D .X  1/2 gilt.
298 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

4 Die reelle Matrix Somit ist A ein Vielfaches von B . Analog folgt, dass
0 1 B ein Vielfaches von A ist. Wegen der Normierung der
3 1 4 3 1
B1 beiden Polynome, sind die beiden Minimalpolynome somit
B 1 1 1 0C C
B gleich. Damit haben wir gezeigt:
A D B1 0 2 0 0CC
@4 1 4 5 1 A
2 0 2 2 1
Ähnlichkeit und Minimalpolynome
Zueinander ähnliche Matrizen haben dasselbe Minimalpo-
hat das charakteristische Polynom A D .1  X/ .2  4
lynom.
X/. Für das Minimalpolynom gilt also
A 2 f.X  1/ .X  2/ ; .X  1/2 .X  2/ ;
.X  1/3 .X  2/ ; .X  1/4 .X  2/g : i Es kann durchaus sein, dass Matrizen nicht ähnlich sind
und dennoch dasselbe Minimalpolynom haben, z. B. sind
Durch Probieren findet man die beiden Matrizen
0 1 0 1
.A  E5 / .A  2E5 / ¤ 0 ; .A  E5 /2 .A  2E5 / ¤ 0 ; 0 0 0 0 0 1 0 0
B0 0 0 0C B0 0 0 0C
B C B C
aber ADB C und B D B C
@0 0 0 1A @0 0 0 1A
8 .A  E5 /3 .A  2E5 / D 0 ; 0 0 0 0 0 0 0 0

nicht ähnlich, da sie verschiedenen Rang haben (ähnliche


sodass also A D .X  1/3 .X  2/ gilt. 9
Matrizen haben denselben Rang). Aber, wie man leicht
Kommentar Eine weitere Möglichkeit, das Minimalpoly- nachrechnet, gilt A D X 2 und ebenso B D X 2 ,
nom für eine n n-Matrix A 2 Kn n zu bestimmen denn beide Matrizen haben das charakteristische Polynom
– ohne vorher das charakteristische Polynom zu ermit- A D X 4 D B und beide Matrizen erfüllen A 1 ¤ 0 ¤
teln – geht wie folgt beschrieben: Man bilde sukzessiv B 1 und A 2 D 0 D B 2 .
die Potenzen A 0 ; A 1 ; A 2 : : : und teste vor jeder weite-
ren Potenzierung die Matrizen A 0 ; A 1 ; A 2 ; : : : ; A k auf
lineare Abhängigkeit: Das kleinste k für das die Matrizen
Am Minimalpolynom erkennt man,
A ; A ; A ; : : : ; A linear abhängig sind, für das also eine ob eine Matrix diagonalisierbar ist
0 1 2 k

Relation der Form


0 A 0 C 1 A 1 C 2 A 2 C : : : C k A k D 0 Angenommen, wir haben eine Matrix A 2 Kn n
mit zer-
fallendem charakteristischen Polynom
mit i 2 K gilt, liefert das Minimalpolynom
A D ˙.X  1 /1    .X  r /r :
A D 0 C 1 X C 2 X 2 C : : : C k X k 2 KŒX :
Diese Matrix A ist dann ähnlich zu einer Jordanmatrix
0 1
J1
B :: C
Zueinander ähnliche Matrizen haben J D@ : A
dasselbe Minimalpolynom Js

mit den insgesamt s Jordankästchen der Bauart


Sind zwei n n-Matrizen A und B mit Koeffizienten aus
0 1
dem Körper K ähnlich zueinander, so gibt es eine invertier-  1
bare Matrix S 2 Kn n mit B :: :: C
B : : C
Ji D B B
C 2 Kl l
C
B D S 1 A S ; also B k D S 1 A k S @ : : : 1A
für jede natürliche Zahl k 2 N. Für das Minimalpolynom 
A D X r C ar1 X r1 C : : : C a1 X C a0 von A folgt somit
zu einem der Eigenwerte . Wegen
A .B/ D B r C ar1 B r1 C : : : C a1 B C a0 En 0 1l1
0 1
D S 1 A r S C ar1 S 1 A r1 S C   
B :: :: C
B : : C
C    C a1 S 1 A S C a0 S 1 S .J i  El /l1
DB C ¤0
B :: C
D S 1 .A r C ar1 A r1 C    C a1 A C a0 En /S @ : 1A
D S 1 A .A/ S D 0 : 0
8.9  Das Minimalpolynom einer Matrix
299 8
und
0 1l Diagonalisierbarkeit und das Minimalpolynom
0 1 Es sei A 2 Kn n , K ein Körper, n 2 N. Die Matrix A
B :: :: C
B : : C ist genau dann diagonalisierbar, wenn das Minimalpoly-
.J i  El / D B
l
B
C D0
C nom A in Linearfaktoren zerfällt und keine mehrfachen
@ ::
: 1A Nullstellen hat.
0

kann man an der Jordan-Normalform J der Matrix A das Beweis Die Matrix A sei diagonalisierbar mit den ver-
Minimalpolynom von J und wegen der Ähnlichkeit von J schiedenen Eigenwerten 1 ; : : : ; r . Da es eine Basis des
zu A auch jenes von A ablesen. Es ist Kn aus Eigenvektoren der Matrix A gibt, ist jedes Element
v 2 Kn darstellbar als Summe
A D .X  1 /    .X  r /
l1 lr

v D v1 C : : : C v r ;
das Minimalpolynom von A, wobei li die Zeilen- bzw.
Spaltenzahl des größten Jordankästchens zum Eigenwert i wobei die vi 2 EigA .i / Eigenvektoren von A zum Eigen-
ist. wert i sind. Wir betrachten das Polynom

Beispiel Die folgenden beiden Matrizen P D .X  1 /    .X  r / :


0 1
1 1 Für dieses Polynom P folgt mit obiger Darstellung eines
B C (beliebigen) Vektors v 2 Kn :
B0 1 C
B C
B C
B 2 1 C P .A/ v D P .A/ v1 C : : : C P .A/ vr
B C
ADB 0 2 C , D P .1 / v1 C : : : C P .r / vr D 0 ;
B C
B 0C
B 2 1 C
B C da P .i / D 0 für alle i D 1; : : : ; r. Somit muss P .A/ D 0
@ 0 2 1A
0 0 2 die Nullmatrix sein. Das Polynom P hat also die Matrix A
0 1 als Nullstelle. Außerdem ist das Polynom P aufgrund des
0 Teils (b) des Satzes zu den wichtigen Eigenschaften des Mi-
B C
B 0 1 0 C nimalpolynoms offenbar ein Polynom minimalen Grades,
B C
B C das A als Nullstelle hat. Und weiterhin ist P auch normiert.
B 0 0 1 C
B C Folglich muss P das Minimalpolynom von A sein, d. h.
BDB 0 0 0 C
B C
B 0C
B 0 1 C A D .X  1 /    .X  r / :
B C
@ 0 0 1A
0 0 0 Nun zerfalle das Minimalpolynom A der quadratischen
n n-Matrix A in Linearfaktoren und habe keine mehrfa-
haben die Minimalpolynome chen Nullstellen, es gelte

A D .X  1/2 .X  2/3 ; B D X 3 9 A D .X  1 /    .X  r / ;

Ist eine Matrix diagonalisierbar, so ist die Jordan-Normal- wobei die Skalare 1 ; : : : ; r verschieden seien.nWir zeigen
form dieser Matrix sogar eine Diagonalform, sämtliche per Induktion nach der Dimension n D dim.K /, dass die
Jordan-Kästchen haben die Länge 1. Es gilt somit: Matrix A diagonalisierbar ist.
Ist n D 1, so hat die Matrix A D .1 / bereits Diago-
Folgerung Ist eine Matrix A 2 Kn n diagonalisierbar
nalform. Daher sei n > 1.
mit den verschiedenen Eigenwerten 1 : : : ; r , so hat diese 1. Fall. r D 1: Da in diesem Fall das Minimalpolynom
Matrix das Minimalpolynom  A D X  1 ist, gilt A  1 En D 0, sodass A bereits
Diagonalform hat, insbesondere also diagonalisierbar ist.
A D .X  1 /    .X  r / : 2. Fall. r > 1: Zu dem Eigenwert 1 von A betrachten
wir die folgenden beiden Untervektorräume des Kn :
Wir halten dieses Ergebnis in einer deutlich allgemeineren
U D fv 2 Kn j A v  1 v D 0g und
Form fest und führen den Beweis (der einen Richtung) er-
neut, ohne die Jordan-Normalform dazu heranzuziehen: W D fw 2 Kn j A v  1 v D w ; v 2 Kn g
300 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Es ist somit U der Kern und W das Bild der linearen Ab- Wir wählen eine geordnete Basis .u1 : : : ; ur / von U und
bildung v 7! .A  1 En / v. Der Kern U ist gerade der ergänzen diese mit linearen unabhängigen Vektoren aus W
Eigenraum von A zum Eigenwert 1 . zu einer Basis
Wir zeigen nun:
B D .u1 : : : ; ur ; wrC1 : : : ; wn /
Kn D U ˚ W :
des Kn . Für die Darstellungsmatrix A Q der linearen Abbil-
Zum Nachweis dieser Gleichheit dividieren wir vorab das
dung 'A W v 7! A v bzgl. der Basis B gilt
Polynom P D .X 2 /    .X r / vom Grad größergleich
1 (da r > 1) durch das Polynom X  1 vom Grad 1 mit 0 1
1 0
Rest und erhalten daher einen Rest vom Grad kleiner als 1. B C
::
Es gilt sogar mit einem Q 2 KŒX: Q D B M .'A /B D B
A B : 0C
C:
@0 1 A
P D .X  1 / Q C R mit R 2 K n f0g ; (8.7) 0 C

da X  1 kein Teiler von P ist: Die Elemente 1 : : : ; r Q haben diese Matrizen


Wegen der Ähnlichkeit von A und A
sind nach Voraussetzung alle verschieden, sodass der Rest
dasselbe Minimalpolynom; die Matrix C hat demnach das
R ungleich null ist.
8 Wir setzen nun in die Polynome links und rechts des
Minimalpolynom
Gleichheitszeichens der Gleichung (8.7) die Matrix A ein
und wenden die Matrizen auf ein beliebiges v 2 Kn an, wir C D .X  2 /    .X  n / :
erhalten
Wegen m D n  r D dim.W / < n ist die m m-Matrix C
P .A/v D .A  1 En / Q.A/v C Rv mit R 2 K n f0g: nach Induktionsvoraussetzung diagonalisierbar. Somit ist
auch A diagonalisierbar. 
Das liefert für v 2 Kn nach Kürzen von R ¤ 0 die Glei-
chung – wobei wir gleich noch zu erläuternde Klammern ?Selbstfrage 8.22
setzen: Warum ist jede Matrix A 2 Kn mit der Eigenschaft
A 2 D En diagonalisierbar?
1 1
v D R ŒP .A/ v  R Œ.A  1 En / Q.A/ v (8.8)

mit R 2 K n f0g. Wir stellen nun fest: Aufgaben


(1) Wegen
Gelegentlich enthalten die Aufgaben mehr Angaben, als für
.A  1 En / P .A/ v D A .A/ v D 0 v D 0 die Lösung erforderlich sind. Bei einigen anderen dage-
gen werden Daten aus dem Allgemeinwissen, aus anderen
ist P .A/ v ein Element von U . Quellen oder sinnvolle Schätzungen benötigt.
(2) Wegen Q.A/ v 2 Kn ist .A  1 En / Q.A/ v ein Ele-
ment von W .
einfache Aufgaben mit wenigen Rechenschritten
mittelschwere Aufgaben, die etwas Denkarbeit und
Somit liefert die Gleichung (8.8): K D U C W .
n
unter Umständen die Kombination verschiedener
Aufgrund der Dimensionsformel für lineare Abbildun-
Konzepte erfordern
gen gilt zudem
anspruchsvolle Aufgaben, die fortgeschrittene Kon-
dim.Kn / D dim.U / C dim.W / : zepte (unter Umständen auch aus späteren Kapiteln)
oder eigene mathematische Modellbildung benötigen
Die Dimensionsformel für Untervektorräume (siehe
7 Abschn. 4.5) zeigt schließlich, dass die Summe direkt
ist.
Wir führen nun den Induktionsbeweise fort: Es sei w 2 Verständnisfragen
W . Dann gibt es ein v 2 Kn mit w D .A 1 En / v. Wegen
8.1  Gegeben ist ein Eigenvektor v zum Eigenwert 
A w D A .A  1 En /v D .A  1 En / A v 2 W einer Matrix A.
(a) Ist v auch Eigenvektor von A 2 ? Zu welchem Eigen-
gilt wert?
(b) Wenn A zudem invertierbar ist, ist dann v auch ein Ei-
fA w j w 2 W g  W : genvektor zu A 1 ? Zu welchem Eigenwert?
Aufgaben
301 8

8.2  Wieso hat jede Matrix A 2 Kn n mit A 2 D En 8.9  Im Vektorraum RŒX3 der reellen Polynome
einen der Eigenwerte ˙1 und keine weiteren? vom Grad höchstens 3 ist für ein a 2 R die Abbildung
'W RŒX3 ! RŒX3 durch
8.3  Haben die quadratischen n n-Matrizen A
'.p/ D p.a/ C p 0 .a/.X  a/
und A > dieselben Eigenwerte? Haben diese gegebenenfalls
auch dieselben algebraischen und geometrischen Vielfach- erklärt.
heiten? (a) Begründen Sie, dass ' linear ist.
(b) Berechnen Sie die Darstellungsmatrix von ' bezüglich
8.4  Gegeben ist eine Matrix A 2 C n n . Sind die der Basis E3 D .1; X; X 2 ; X 3 / von RŒX3 .
>
Eigenwerte der quadratischen Matrix A A die Quadrate (c) Bestimmen Sie eine geordnete Basis B von RŒX3 ,
der Eigenwerte von A? bezüglich der die Darstellungsmatrix von ' Diagonal-
gestalt hat.
8.5  Der Satz von Cayley-Hamilton bietet eine Mög-
lichkeit, 8.10  Gegeben sei die vom Parameter a 2 R abhängi-
(a) das Inverse A 1 einer (invertierbaren) Matrix A zu be- ge Matrix
stimmen, 0 1
p 5 1 3
(b) eine Quadratwurzel p A einer komplexen Matrix A 2
AD@ 2 2 3 A 2 R3 3 :
C 2 2 mit Sp A C 2 det A ¤ 0 zu bestimmen (dabei
a3 1 a1
heißt eine Matrix B eine Quadratwurzel aus A, falls
B D A gilt).
2
(a) Bestimmen Sie in Abhängigkeit von a die Jordan-Nor-
malform J von A.
Wie funktioniert das? Berechnen Sie mit dieser Methode (b) Berechnen Sie für a D 1 und a D 1 jeweils eine
das Inverse von A und eine Quadratwurzel B von A 0 , wo- Jordan-Basis des R3 zu A.
bei
0 1
1 4 2  
2 6 Beweisaufgaben
A D @0 1 0 A und A 0 D
3 7
0 3 1
8.11  Beweisen Sie das folgende Kriterium für die Tri-
8.6  Man nennt eine Matrix A 2 Kn n idempotent, angulierbarkeit einer Matrix:
falls A D A gilt. Wieso ist jede idempotente Matrix A
2 Für eine Matrix A 2 Kn n sind äquivalent:
diagonalisierbar? (i) A ist triangulierbar.
(ii) Das charakteristische Polynom A von A zerfällt in Li-
nearfaktoren.
Rechenaufgaben 8.12  Begründen Sie die Binomialformel für Matrizen:
Für Matrizen D; N 2 Kn n mit D N D N D und jede
8.7  Geben Sie die Eigenwerte und Eigenvektoren natürliche Zahl k gilt:
der folgenden !
 Matrizen
 an:
X k
k
3 1 .D C N / Dk
D ki N i :
(a) A D 2 R2 2 , i
1 1 i D0
 
0 1
(b) B D 2 C2 2. 8.13  Gegeben ist eine nilpotente Matrix A 2 C n n
1 0
mit Nilpotenzindex p 2 N, d. h., es gilt:
8.8  Welche der folgenden Matrizen sind diagonali- A p D 0 und A p1 ¤ 0:
sierbar? Geben Sie gegebenenfalls eine invertierbare Ma-
1 Zeigen Sie:
 D S A S Diagonalgestalt hat.
trix S an,sodass D
(a) Die Matrix A ist nicht invertierbar.
1 i
(a) A D 2 C2 (b) Die Matrix A hat einen Eigenwert der Vielfachheit n.
i 1
0 1 (c) Es gilt p  n.
3 0 7
(b) B D @0 1 0A 2 R3 8.14  Es sei ' ein diagonalisierbarer Endomorphismus
7 0 3 eines n-dimensionalen K-Vektorraumes V (n 2 N) mit der
0 1
1 2 2 Eigenschaft: Sind v und w Eigenvektoren von ', so ist v C
(c) C D 13 @2 2 1 A 2 C 2 w ein Eigenvektor von ' oder v C w D 0.
2 1 2 Zeigen sie, dass es ein  2 K mit ' D   id gibt.
302 Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

8.15  Es seien K ein Körper und n 2 N; weiter seien vAntwort 8.6


A; B 2 Kn n . Zeigen Sie: A B und B A haben dieselben Wegen
Eigenwerte. !! !
1 0 1 0
' D M E2  E2 M D 0 D 0
8.16  Begründen Sie die im Satz zur Dimension des 0 1 0 1
Hauptraums im 7 Abschn. 8.8 gemachte Behauptung zur und
Hauptraumzerlegung. !! ! ! ! !
0 1 1 1 0 1 0 1 1 1
' D 
1 0 1 1 1 0 1 0 1 1
8.17  Es sei V ein endlichdimensionaler K-Vektor-
!
raum, und die linearen Abbildungen '; W V ! V seien 0 1
diagonalisierbar, d. h., es gibt jeweils eine Basis von V aus D0D0
1 0
Eigenvektoren von ' bzw. . Man zeige:
Es gibt genau dann eine Basis von V aus gemeinsamen sind diese beiden Vektoren tatsächlich Eigenvektoren zum
Eigenvektoren von ' und , wenn ' ı D ı ' gilt. Eigenwert 0. Wir prüfen als Beispiel noch den angegebe-
nen Vektor des Eigenraums zum Eigenwert 2 nach, es
gilt:
Antworten zu den Selbstfragen !! ! !
1 1 1 1 1 1
' D
8 1 1 1 1 1 1
v Antwort 8.1 ! !
1 1 1 1
Die Drehung mit ˛ D 0 ist die Identität, hierbei wird jeder 
1 1 1 1
Vektor auf sich selbst abgebildet, sodass die Darstellungs- ! !
matrix bezüglich jeder geordneten Basis Diagonalgestalt 2 2 1 1
D D 2 :
hat – sie ist die Einheitsmatrix E2 . Bei der Drehung 2 2 1 1
mit ˛ D wird jeder Vektor v 2 R2 auf sein ent-
gegengesetztes Element v abgebildet. Damit ist diese vAntwort 8.7
Abbildung auch diagonalisierbar, die Darstellungsmatrix Die Eigenwerte sind die konjugiert komplexen Zahlen
ist bezüglich jeder geordneten Basis das Negative der Ein- ˙i; Eigenvektoren
! sind die konjugiert komplexen Vekto-
heitsmatrix E2 . 1
ren .
˙i
v Antwort 8.2
Sie hat den einzigen Eigenwert 0, da für jeden Vektor vAntwort 8.8
v 2 Kn Weil es zu jedem Eigenwert auch einen Eigenvektor gibt,
und Eigenvektoren zu verschiedenen Eigenwerten linear
0v D 0v
unabhängig sind, existiert zu einer solchen Matrix A also
gilt. Jeder vom Nullvektor verschiedene Vektor des Kn ist eine Basis aus Eigenvektoren – eine solche Matrix A ist
Eigenvektor zum Eigenwert 0. damit diagonalisierbar.

v Antwort 8.3 vAntwort 8.9


Unter Kern des Endomorphismus ' bzw. der Matrix A. Der Eigenwert 1 von A hat die algebraische Vielfachheit
2 und der Eigenwert 3 die algebraische Vielfachheit 4.
v Antwort 8.4 p die beiden konjugiert komplexen Eigenwerte 1=2˙
Und
Das Gleichungssystem ist jeweils das triviale Gleichungs- i 3 haben jeweils die algebraische Vielfachheit 1.
system
vAntwort 8.10
0D0 Es gilt:
0 1 0 1
2 1 1 4 2 2
zu dem jeweils einzigen Eigenwert 1 bzw. 0, und der B 2C 1 1 B2 1 5C
S D @1 0 A und S D @ A
Lösungsraum ist somit jeweils der ganze Kn . Jeder vom 12
1 2 0 2 5 1
Nullvektor verschiedene Vektor ist ein Eigenvektor zum
Eigenwert 1 der Einheitsmatrix bzw. zum Eigenwert 0 der und weiter:
0 10 10 1
Nullmatrix. 4 2 2 1 2 2 2 1 1
1 B C B2
@ 2 1 5 A@ 2 1C B1
A@ 0 2C A
v Antwort 8.5 12
2 5 1 2 1 2 1 2 0
Im ersten Beispiel gilt etwa: 0 1
! ! 3 0 0
B C
1 1 D @0 3 0 A :
A D2 :
1 1 0 0 3
Antworten zu den Selbstfragen
303 8

v Antwort 8.11 vAntwort 8.18


Es vertauschen sich die zugehörigen Eigenwerte in der Drei verschiedene Eigenwerte 1 ; 2 ; 3 : Es gibt nur eine
Diagonalmatrix. Jordan-Normalform, nämlich
0 1
v Antwort 8.12 ! B
1
C
0 1 B C
Es gilt etwa für die komplexe Matrix A D mit B 2 C
1 0 @ A
dem charakteristischen Polynom A D .i  X/ .i  X/ 3
und den beiden Eigenwerten i; i:
Zwei verschiedene Eigenwerte 1 ; 2 : Es gibt zwei we-
sentlich verschiedene Jordan-Normalformen, nämlich
det A D 1 D .i/ i und Sp A D 0 D i C i :
0 1 0 1
1 1
B C B C
B C
v Antwort 8.13 B 2 C und B @  1
C
A
@ A 2
Ein erster Hinweis dafür, dass dieser „Beweis“ nicht in 2 2
Ordnung ist, liefert die Tatsache, dass bei diesem „Be-
weis“ ein Widerspruch im Fall n > 1 entsteht: Ein Eigenwert : Es gibt drei wesentlich verschiedene Jor-
dan-Normalformen, nämlich
Kn n
3 0 D A .A/ D 0 2 K : 0 1 0 1 0 1

B C B C B  1 C
B C B C und B
Tatsächlich wurde hier die Matrix A falsch eingesetzt, die B  C; @  1 A @  1 C A
Multiplikation bei X En in AX En ist die Multiplikation @ A
  
mit Skalaren, durchgeführt wurde aber bei A  A En die
Matrizenmultiplikation.
vAntwort 8.19
v Antwort 8.14 0 1
1
Wegen '.u/ D  u für jedes u 2 U gilt '.U /  U . B C
B C
Weiter gilt '.U / D U genau dann, wenn  ¤ 0 ist, denn: B 1 C
B C
'.U / D U bedeutet 'jU W u 7!  u ist surjektiv, d. h. J DB
B
C
B 1 1 0CC
 ¤ 0. B
@ 0 1 1CA
0 0 1
v Antwort 8.15
Das ist auch genau dann der Fall, wenn das charak- und jede andere Reihenfolge dieser drei Kästchen.
teristische Polynom ' in Linearfaktoren zerfällt. Ist
.b1 ; : : : ; bn / eine Basis von V bezüglich der ' obere vAntwort 8.20
!
Dreiecksgestalt hat, so ist .bn ; : : : ; b1 / eine Basis von V i 1
J D .
bezüglich der ' eine untere Dreiecksgestalt hat. 0 i

v Antwort 8.16 vAntwort 8.21


Weil wir für einen Endomorphismus des Nullraums f0g Nein, die
! Darstellungsmatrix bezüglich dieser Basis ist
kein charakteristisches Polynom erklärt haben. Mit der i 0
Vereinbarung ' D 1, falls U D f0g, hätten wir den Be- . Bei unserer Definition stehen die Einsen ober-
1 i
weis auch für beliebige U (und W ) formulieren können. halb der Hauptdiagonalen. In manchen Lehrbüchern wählt
man aber die umgekehrte Reihenfolge – es stehen dann die
v Antwort 8.17 Einsen, so wie hier, unterhalb der Hauptdiagonalen.
Z. B.:
vAntwort 8.22
Wegen A 2 D En gilt A 2  En D 0, also
−1
ϕ (U )
.A  En / .A C En / D 0 :
W
Somit hat die Matrix A eines der folgenden Polynome als
U Minimalpolynom A :
ϕ(U )
X  1 ; X C 1 ; .X  1/ .X C 1/ :

Auf jeden Fall ist A nach obigem Satz zur Diagonalisier-


barkeit und dem Minimalpolynom diagonalisierbar.
305 9

Euklidische und unitäre


Vektorräume – orthogonales
Diagonalisieren

Inhaltsverzeichnis

9.1 Euklidische Vektorräume – 307

9.2 Norm, Winkel, Orthogonalität – 313

9.3 Orthonormalbasen und orthogonale Komplemente – 320

9.4 Unitäre Vektorräume – 330

9.5 Orthogonale und unitäre Endomorphismen – 333

9.6 Selbstadjungierte Endomorphismen – 344

9.7 Normale Endomorphismen – 350

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_9
Aufgaben – 359

Antworten zu den Selbstfragen – 361


9.1  Euklidische Vektorräume
307 9

n Sie finden unter anderem Antworten zu . . . einem kompakten Intervall stetiger reellwertiger Funktio-
4 Was ist der kürzeste Abstand eines Vektors zu einem nen. Wir beginnen mit dem reellen Fall.
Untervektorraum?
4 Warum sind symmetrische Matrizen diagonalisierbar?
4 Sind die Darstellungsmatrizen orthogonaler Endo- Längen von Vektoren und Winkel
morphismen orthogonal? zwischen Vektoren sind im R2 bzw. R3
4 Wann ist eine Matrix normal? mit dem Skalarprodukt bestimmbar
Im 7 Kap. 5 zur analytischen Geometrie haben wir ausführ-
lich das kanonische Skalarprodukt im (reellen) Anschau- Für jede natürliche Zahl n und Vektoren
ungsraum behandelt. Wir haben festgestellt, dass zwei 0 1 0 1
v1 w1
Vektoren genau dann orthogonal zueinander sind, wenn ihr
B :: C B :: C
Skalarprodukt den Wert Null ergibt. v D @ : A ; w D @ : A 2 Rn
Wir sind auch mit höherdimensionalen reellen und kom- vn wn
plexen Vektorräumen und auch mit Vektorräumen, deren
Elemente Funktionen oder Polynome sind, vertraut. Es ist nannten wir das Produkt
daher eine naheliegende Frage, ob es auch möglich ist, ein
X
n
Skalarprodukt zwischen Vektoren solcher Vektorräume zu v  w D v> w D vi wi 2 R
erklären. Dabei sollte aber das vertraute Standardskalarpro- i D1
dukt des Anschauungsraums verallgemeinert werden. Dass
dies in vielen Vektorräumen möglich ist, zeigen wir im das kanonische Skalarprodukt oder auch das Standard-
vorliegenden Kapitel. Dabei können wir aber nicht mehr skalarprodukt von v und w. Dieses ist ein Produkt zwi-
mit der Anschauung argumentieren. Wir werden vielmehr schen zwei Vektoren des reellen Vektorraums Rn , bei dem
die algebraischen Eigenschaften des Skalarprodukts im als Ergebnis eine reelle Zahl entsteht.
Anschauungsraum nutzen, um ein (allgemeines) Skalarpro-
dukt in reellen bzw. komplexen Vektorräumen zu erklären. Kommentar Statt v  w schreibt man oft auch hv; wi oder
Damit gelingt es dann auch von einer Orthogonalität von s.v; w/. Und anstelle von v  v findet man oft auch die
Funktionen zu sprechen – Funktionen sind per Definition Schreibweise v2 . Wir werden üblicherweise die Notation
dann orthogonal, wenn ihr Skalarprodukt den Wert null hat. v  w, falls es sich um Vektoren v und w des Rn oder um
Tatsächlich erfordern viele Anwendungen der linearen nicht näher spezifizierte Vektoren handelt. Sind v und w
Algebra, wie etwa die abstrakte Formulierung der Quan- aber Funktionen f und g eines Vektorraums von Funktio-
tenmechanik, eine solche Orthogonalitätsrelation für Funk- nen, so bevorzugen wir die Schreibweise hf; gi, da dies bei
tionen. Auch bei der Entwicklung periodischer Funktionen Funktionen die übliche Notation ist.
in eine Fourierreihe behilft man sich mit der Tatsache, dass
das Skalarprodukt zwischen bestimmten trigonometrischen In den Anschauungsräumen, also in den Fällen n D 2 und
Funktionen den Wert null hat. n D 3, drückt v  w D 0 die Tatsache aus, dass die beiden
Wie immer in der Algebra betrachten wir neben einer Vektoren v und w senkrecht aufeinanderstehen. Der Wert
algebraischen Struktur, in vorliegendem Fall die euklidi- p q
schen und unitären Vektorräume, die strukturerhaltenden kvk D v  v D v12 C v22 bzw.
Abbildungen. Da lineare Abbildungen in verschiedener Art p q
und Weise mit Skalarprodukten verträglich sein können, kvk D v  v D v12 C v22 C v32 ;
unterscheiden wir auch verschiedene Arten von linearen
also die Wurzel des Skalarprodukts eines Vektors mit sich
Abbildungen. Wir behandeln ausführlich orthogonale bzw.
selbst, gibt die Länge des Vektors v an. Anstelle von der
unitäre, selbstadjungierte und normale Endomorphismen.
Länge eines Vektors sprachen wir auch von der Norm eines
Wir können auch entscheiden, welche dieser Endomorphis-
Vektors.
men diagonalisierbar sind.
?Selbstfrage 9.1
p
9.1 Euklidische Vektorräume Wieso existiert v  v für jedes v 2 R2 bzw. R3 ? Anders
gefragt: Wieso ist v  v eine nicht negative reelle Zahl?

Wir wollen den Begriff des Senkrechtstehens zweier Vek- Über die geometrischen Eigenschaften des kanonischen
toren weitreichend verallgemeinern. Neben den bisher be- Skalarprodukts wurde im 7 Kap. 5 berichtet. Nun stellen
trachteten Vektorräumen Rn und C n , in denen wir von wir die algebraischen Eigenschaften dieses Skalarprodukts
zueinander orthogonalen Vektoren gesprochen haben, wol- in den Vordergrund und definieren dann den allgemei-
len wir eine solche Relation auch für Elemente abstrakter nen Begriff eines Skalarprodukts eines reellen Vektorraums
Vektorräume erklären, wie etwa dem Vektorraum aller auf durch diese Eigenschaften.
308 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Das kanonische Skalarprodukt ist eine


symmetrische, positiv definite Bilinearform Euklidisches Skalarprodukt und euklidischer
Vektorraum
Ist V ein reeller Vektorraum, so heißt eine Abbildung
Wir fassen das kanonische Skalarprodukt als eine Abbil-
dung auf: (
V V !R
W
 n .v; w/ 7! v  w
R Rn ! R;
W
.v; w/ 7! v  w D v> w: ein euklidisches Skalarprodukt, wenn für alle v; v0 ; w 2
V und  2 R die folgenden Eigenschaften erfüllt sind:
Nun gilt für alle v; w; v0 ; w0 2 Rn und  2 R: (i) .v C v0 /  w D v  w C v0  w und . v/  w D  .v  w/
4 .v C v0 /  w D v  w C v0  w und . v/  w D  .v  w/ (Linearität im ersten Argument),
(Linearität im ersten Argument), (ii) v  w D w  v (Symmetrie),
4 v  .w C w0 / D v  w C v  w0 und v  . w/ D  .v  w/ (iii) vv  0 und vv D 0 , v D 0 (positive Definitheit).
(Linearität im zweiten Argument),
4 v  w D w  v (Symmetrie), Ist  ein euklidisches Skalarprodukt in V , so nennt man V
4 v  v  0 und v  v D 0 , v D 0 (positive Definitheit). einen euklidischen Vektorraum.

Der Nachweis dieser Eigenschaften ist einfach. Die Sym-


9 metrie etwa zeigt man wie folgt: Für alle v D .vi /; w D Kommentar Später werden wir auch andere Skalarproduk-
.wi / 2 Rn gilt: te erklären, daher sollte man eigentlich stets das Adjektiv
euklidisch mitführen. Wenn aber keine Verwechslungsge-
X n X n fahr besteht, werden wir es auch manchmal weglassen.
vwD vi wi D wi vi D w  v :
i D1 i D1 Wegen der Symmetrie folgt die Linearität im zweiten Ar-
gument, da für alle v; w; w0 2 V und  2 R gilt:
Eine Abbildung von einem Vektorraum in seinen zugrunde
(ii)
liegenden Körper nennt man auch eine Form. Die ersten v  .w C w0 / D .w C w0 /  v
beiden Eigenschaften besagen, dass die Abbildung , al- (i)
so das Skalarprodukt, in den beiden Argumenten . ; / 2 D w  v C w0  v
Rn Rn linear, also bilinear ist. Daher rührt der Begriff (ii)
D v  w C v  w0 ;
Bilinearform für Abbildungen mit diesen Eigenschaften.
(ii)
Wegen der dritten Eigenschaft, der Symmetrie, folgt die v  . w/ D . w/  v
zweite aus der ersten – oder die erste aus der zweiten. Man (i)
kann also eine der ersten beiden Eigenschaft aus der jeweils D  .w  v/
anderen mit der Symmetrie folgern. Wir werden gleich zei- (ii)
D  .v  w/ :
gen, wie das tatsächlich geht.
Die vierte Eigenschaft, die positive Definitheit, ist
?Selbstfrage 9.2
gleichwertig zu der Eigenschaft
Warum gilt für jedes v eines euklidischen Vektorraums 0 
v D 0 D v  0?
v  v > 0 für alle v 2 Rn n f0g :
Beispiel
4 Für jede natürliche Zahl n ist im reellen Vektorraum Rn
Ein euklidisches Skalarprodukt ist eine das kanonische Skalarprodukt
symmetrische, positiv definite Bilinearform
v  w D v> w .v; w 2 Rn /
eines reellen Vektorraums
ein euklidisches Skalarprodukt.
Wir benutzen die algebraischen Eigenschaften des kanoni- 4 Wir definieren  Vektoren v; w 2 R mittels der Ma-
2
 für
schen Skalarprodukts, um das Skalarprodukt in beliebigen 2 1
trix A D das Produkt
reellen Vektorräumen einzuführen, um dann in solchen 1 1
Vektorräumen von Normen von Vektoren und von Winkeln
zwischen Vektoren sprechen zu können. v  w D v> A w
9.1  Euklidische Vektorräume
309 9
zwischen den Vektoren v und w und stellen fest, dass f 2 .t/ f 2 .t0 / 6D 0
für alle v; v0 ; w 2 R2 und  2 R

.v C v0 /  w D .v C v0 /> A w D v> A w C v0> A w t0


D v  w C v0  w a „ ƒ‚ …
b t
U.t0 /
und

. v/  w D . v/> A w D  v> A w D  .v  w/ . Abb. 9.1 Der Graph der stetigen Funktion f 2 schließt mit der t-Achse
einen positiven Flächeninhalt ein
gilt. Das besagt, dass das so definierte Produkt  linear
im ersten Argument ist. Das Produkt ist auch symme-
Aufgrund der Rechenregeln für das Integral gilt für alle
trisch, da wegen
Funktionen f; g; h 2 C.I /:
v> A w D .v> A w/> D w> A > v Zb
(das Transponieren ändert eine reelle Zahl nicht) und hf C g; hi D .f .t/ C g.t// h.t/ dt
der Symmetrie der Matrix A, d. h. A > D A, gilt: a
Zb Zb
v  w D v > A w D w> A > v D f .t/ h.t/ C g.t/ h.t/ dt
D w> A v D w  v : a a
D hf; hi C hg; hi :
Und schließlich
  ist das Produkt positiv definit, da für
v1 Analog gilt für jede reelle Zahl :
alle v D 2 R2 gilt:
v2
  h f; gi D  hf; gi :
> v1
v  v D v A v D .2 v1 C v2 ; v1 C v2 / Damit ist bereits gezeigt, dass h ; i linear im ersten Ar-
v2
gument ist. Für alle f; g 2 C.I / gilt:
D 2 v12 C 2 v1 v2 C v22
D v12 C .v1 C v2 /2  0 ; Zb Zb
hf; gi D f .t/ g.t/ dt D g.t/ f .t/ dt D hg; f i ;
und Gleichheit gilt hierbei genau dann, wenn v1 D 0 D a a
v2 , d. h. v D 0 ist.
Damit ist also gezeigt, dass  ein euklidisches Skalar- also ist das Produkt auch symmetrisch und somit eine
produkt ist und der R2 mit diesem Skalarprodukt ein symmetrische Bilinearform.
euklidischer Vektorraum ist. Wir zeigen nun, dass das Produkt positiv definit ist. Für
4 Wir erklären ein Produkt h ; i im Vektorraum aller auf jedes f 2 C.I / gilt:
einem abgeschlossenen Intervall I D Œa; b  R mit
Zb Zb
a < b stetigen reellwertigen Funktionen, also im reellen
Vektorraum hf; f i D f .t/ f .t/ dt D .f .t//2 dt  0 :
a a
C.I / D ff 2 RI j f ist stetig g :
Ist f nicht die Nullfunktion, so gibt es ein t0 2 Œa; b mit
Dazu multiplizieren wir zwei Funktionen f und g aus f .t0 / ¤ 0. Da f stetig ist, gibt es somit eine Umgebung
C.I / folgendermaßen: U.t0 /  Œa; b, sodass f für alle Argumente aus U.t0 /
von null verschiedene Werte annimmt (. Abb. 9.1). Da
Zb
Z Zb
hf; gi D f .t/ g.t/ dt 2 R:
0< f .t/ dt 2
f .t/2 dt ;
a
U.t0 / a
Weil stetige Funktionen integrierbar sind, ist dieses Pro-
Rb
dukt auch definiert. ist das Integral hf; f i D a .f .t//2 dt größer als null.
Nun verifizieren wir, dass dieses Produkt Es folgt die positive Definitheit:

h ; i W C.I / C.I / ! R hf; f i D 0 , f D 0 :

ein Skalarprodukt ist. Somit ist  ein Skalarprodukt.


310 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

f .t/ f .t0 / 6D 0 Nicht jede symmetrische Matrix erfüllt diese positive


Definitheit.
  Man betrachte etwa die symmetrische Matrix
Rb 1 1
a f dt D 0 , für die gilt:
1 1
  
a „ ƒ‚ … t0 „ ƒ‚ … b t 1 1 1
f .t/ D 0 f .t/ D 0 .1; 1/ D 0;
1 1 1
 
1
. Abb. 9.2 Das Integral einer Funktion, die nur auf einer Nullmenge von obwohl ¤ 0 gilt.
null verschiedene Werte annimmt, ist null 1

?Selbstfrage 9.3
4 Anstelle von C.I / können wir auch den Vektorraum der Ist v  w D v> A v mit der Matrix
Polynome vom Grad kleiner oder gleich einer natür- 0 1
1 0 0
lichen Zahl n wählen. Weil Polynomfunktionen stetig B C
A D @0 0 0 A
sind, ist dann
0 0 1
Zb ein Skalarprodukt im R3 ?
hp; qi D p.t/ q.t/ dt
a
9 Definitheit symmetrischer Matrizen
ein Skalarprodukt. 9 Wir nennen eine reelle symmetrische n n-Matrix A
4 positiv definit, wenn für alle v 2 Rn n f0g gilt:
Kommentar Hätten wir anstatt der Stetigkeit nur die In-
tegrierbarkeit gefordert, so wäre das so definierte Produkt
v> A v > 0 ;
kein Skalarprodukt. Eine Funktion f , die außer an einer
Stelle t0 zwischen a und b stets den Wert Null annimmt, ist
4 negativ definit, wenn für alle v 2 Rn n f0g gilt:
nicht die Nullfunktion, sie ist aber integrierbar, und es gilt
Rb
hf; f i D a .f .t//2 dt D 0 (. Abb. 9.2). v> A v < 0 ;

i Beim Skalarprodukt darf man im Allgemeinen nicht kür- 4 positiv semidefinit, wenn für alle v 2 Rn n f0g gilt:
zen:
Aus a  v D a  w folgt nicht unbedingt v D w. v> A v  0;
Wegen der Linearität kann man aber
4 negativ semidefinit, wenn für alle v 2 Rn n f0g gilt:
a  .v  w/ D 0
v> A v  0;
folgern.
4 indefinit, wenn es Vektoren v; w 2 Rn gibt mit

Positiv definite Matrizen liefern euklidische v> A v > 0 und w> A w < 0 :
Skalarprodukte

Wir betrachten noch einmal das obige Beispiel mit der sym- i Man beachte, dass die Symmetrie im Begriff der Defi-
metrischen Matrix A. Für jede reelle symmetrische Matrix nitheit steckt: Positiv definite Matrizen sind symmetrisch.
A ist das Produkt von Vektoren v; w des R , das definiert
n
Beispiel Für eine Diagonalmatrix D D diag.1 ; : : : ; n / 2
ist durch
Rn n gilt offenbar:
v  w D v> A w ; D ist positiv definit , 1 ; : : : ; n > 0 ;
linear im ersten Argument, symmetrisch – dies liegt an der D ist negativ definit , 1 ; : : : ; n < 0 ;
Symmetrie der Matrix A – und damit linear im zweiten Ar- D ist positiv semidefinit , 1 ; : : : ; n  0 ;
gument. D ist negativ semidefinit , 1 ; : : : ; n  0 ;
Damit dieses Produkt ein Skalarprodukt ist, fehlt noch D ist indefinit , 9 i; j mit i < 0; j > 0 :
die Eigenschaft v  v > 0, also v> A v > 0, für alle vom
Nullvektor verschiedenen Vektoren v des Rn . Weitere Beispiele folgen. 9
9.1  Euklidische Vektorräume
311 9

Beispiel: Definitheit symmetrischer Matrizen

Wir überprüfen, ob die folgenden symmetrischen Matrizen zumindest positiv semidefinit. Wegen
positiv definit, negativ definit, positiv semidefinit, negativ se- !
midefinit oder indefinit sind. v1
.v1 ; v2 / B D 0 , v1 D 0 D v2
! ! v2
1 1 2 1
AD 2R ;
2 2
BD 2 R2 2 ;
1 1 1 1 ist B positiv definit.
0 1
1 0 0 ! Die Matrix C ist wegen
B0 0 1C 1 1
C D@ A2R ; DD
3 3
2 R2 2 : 0 1
1 2 0
0 1 0 B C
.0; 1; 1/ C @ 1 A D 2 und
Problemanalyse und Strategie 1
0 1
Wir bestimmen für jede der angegebenen Matrizen M 2 Rn n 1
B C
und jeden Vektor v 2 Rn die Zahl v> M v 2 R und stellen .1; 0; 0/ C @0A D 1
Überlegungen über das Vorzeichen an. 0

Lösung indefinit.
Die Matrix D ist wegen
Die Matrix A ist wegen
! !
v1 v1
.v1 ; v2 / A D v12 C v1 v2 C v2 v1 C v22 D .v1 C v2 /2  0 .v1 ; v2 / D D v12 C 2 v1 v2  2 v22
v2 v2
D ..v1  v2 /2 C v22 /  0
auf jeden Fall zumindest positiv semidefinit. Die Matrix ist
aber nicht positiv definit, da für v1 D v2 , v1 ¤ 0, gilt zumindest negativ semidefinit. Wegen
v> A v D 0. Somit ist A positiv semidefinit. !
Die Matrix B ist wegen v1
.v1 ; v2 / D D 0 , v1 D 0 D v2
! v2
v1
.v1 ; v2 / B D 2 v12 C 2 v1 v2 C v22 D v12 C .v1 C v2 /2  0
v2 ist D negativ definit.

Jede positiv definite Matrix liefert ein euklidisches Skalar- Man erhält bei diesem Skalarprodukt mit der Wahl A D En
produkt, das besagt der folgende Satz. das kanonische Skalarprodukt zurück – die Einheitsmatrix
En ist positiv definit.

Positiv definite Matrizen definieren


Skalarprodukte Die Darstellungsmatrix einer Bilinearform
Jede positiv definite Matrix A 2 Rn n
definiert durch
erhält man komponentenweise
v  w D v> A w
Ist ' ein Endomorphismus eines n-dimensionalen K-Vek-
ein euklidisches Skalarprodukt. Mit diesem Skalarpro- torraums V , so können wir diesen durch eine Matrix aus
dukt  ist der Rn ein euklidischer Vektorraum. Kn n darstellen. Diese Darstellungsmatrix B M .'/B von '
bezüglich einer gewählten Basis B von V erhält man spal-
tenweise: In der i-ten Spalte steht der Koordinatenvektor
Beweis Die Betrachtungen zu Beginn dieses Abschnitts des Bildes des i-ten Basisvektors. Die Darstellungsmatrix
zeigen, dass  eine symmetrische Bilinearform ist. Schließ- enthält alle wesentlichen Informationen des Endomorphis-
lich ist diese Bilinearform wegen der positiven Definitheit mus, es ist
der Matrix A auch positiv definit, da für alle v 2 Rn n f0g
gilt: ' 7! B M .'/B
v  v D v> A v > 0 :
bei einer fest gewählten Basis B ein Isomorphismus von
Folglich ist  ein euklidisches Skalarprodukt.  EndK .V / auf Kn n .
312 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Wir gehen nun für euklidische Skalarprodukte endlich- dinatenvektor zurückgeführt:


dimensionaler euklidischer Vektorräume ähnlich vor: Wie
'.v/ ! B M .'/B B v ;
wir wissen, liefert jede positiv definite Matrix A 2 Rn n
ein euklidisches Skalarprodukt auf dem Vektorraum Rn . und die Produktbildung beim Skalarprodukt erfolgt durch
Nun zur Umkehrung: Multiplikation von Koordinatenvektoren mit der Darstel-
lungsmatrix
>
vw ! Bv MB B w :
Darstellungsmatrix eines euklidischen Wir können aus obigem Ergebnis eine Folgerung ziehen,
Skalarprodukts die die Ähnlichkeit der Darstellungen von Endomorphis-
Ist V ein n-dimensionaler euklidischer Vektorraum mit men und Skalarprodukten weiter unterstreicht.
dem euklidischen Skalarprodukt  und einer Basis B D
.b1 ; : : : ; bn /, so nennt man die n n-Matrix Folgerung Für jede Basis B eines n-dimensionalen Vek-
0 1 torraums V ist die Abbildung
b1  b1  b1  bn
B : :: C W s 7! M B .s/
B
M B ./ D .bi  bj /i;j D @ :: C B
: A2R
n n

bn  b1  bn  bn
eine Bijektion von der Menge aller euklidischer Skalar-
produkte auf V in die Menge aller positiv definiten n
die Darstellungsmatrix von  bezüglich der Basis B. n-Matrizen.
Die Matrix M B D M B ./ ist positiv definit, und für
9 alle Beweis Nach dem obigen Satz zur Darstellungsmatrix ei-
nes euklidischen Skalarprodukts ist B eine Abbildung von
X
n X
n
der Menge aller euklidischer Skalarprodukte auf V in die
vD vi bi und w D wi bi 2 V
iD1 iD1
Menge aller positiv definiten n n-Matrizen. Diese Ab-
bildung ist injektiv, da aus M B .s/ D M B .s 0 / für zwei
gilt: 0 1 euklidische Skalarprodukte s und s 0 erneut nach obigem
w1 Satz s D s 0 folgt. Schließlich ist die Abbildung auch sur-
B : C
v  w D .v1 ; : : : ; vn / M B B : C: jektiv, da für jede positiv definite n n-Matrix A das wie
@ : A
wn
folgt auf V erklärte Skalarprodukt
v  w D B v> A B w ; v; w 2 V ;
die Darstellungsmatrix M B ./ D A hat. 
Pn Pn
Beweis Für v D i D1 vi bi ; w D i D1 wi bi 2 V gilt
wegen der Linearität des Produkts in beiden Argumenten:
Darstellungsmatrizen ein und desselben
! !
X n Xn Skalarprodukts bezüglich verschiedener
vwD vi bi  wi bi Basen sind zueinander kongruent
i D1 i D1
X
n
D vi wj .bi  bj / Wir erinnern erneut an die Darstellungsmatrizen von En-
i;j D1 domorphismen: Sind B M .'/B und C M .'/C zwei Darstel-
0 1 lungsmatrizen eines Endomorphismus ' eines n-dimensio-
w1
B :: C nalen K-Vektorraums V , so sind die Darstellungsmatrizen
D .v1 ; : : : ; vn / M B @ : A: zueinander ähnlich, d. h., es gibt eine invertierbare Matrix
wn S 2 Kn n mit

Die Symmetrie und schließlich die positive Definitheit von C M .'/C D S 1B M .'/B S :
M B folgt hieraus mit der Symmetrie und der positiven De- Dabei gilt S D B M .id/C – beachte auch das folgende Dia-
finitheit des Skalarprodukts.  gramm:
C M .'/C
Anstelle von der Darstellungsmatrix von  bezüglich B Kn Kn
spricht man auch von der Gram’schen Matrix von  be-
züglich B.
Man beachte die Ähnlichkeit zwischen der Darstellung S DB M .id/C S 1 DC M .id/B
eines Endomorphismus und der Darstellung eines Skalar-
produkts: Das Anwenden eines Endomorphismus wird auf B M .'/B
die Multiplikation der Darstellungsmatrix mit einem Koor- Kn Kn
9.2  Norm, Winkel, Orthogonalität
313 9
Natürlich stellen wir uns nun die Frage, wie die Situati-
on im vorliegenden Fall eines euklidischen Vektorraums
ist. Wie ist der Zusammenhang von Darstellungsmatrizen
eines euklidischen Skalarprodukts bezüglich verschiedener
Basen? Die Antwort liefert der folgende Satz.

Darstellungsmatrizen bezüglich verschiedener


Basen
Ist V ein n-dimensionaler euklidischer Vektorraum mit . Abb. 9.3 Die Äquivalenzrelationen Kongruenz und Ähnlichkeit zerle-
dem euklidischen Skalarprodukt  und den Basen B D gen den Kn n im Allgemeinen in verschiedene Äquivalenzklassen
.b1 ; : : : ; bn / und C D .c 1 ; : : : ; c n /, so gilt mit der Ma-
trix S D B M .id/C die Gleichung:
4 Zueinander kongruente Matrizen können zueinander
M C D S >M B S : ähnlich sein:
       
1 0 k 1 0 1 0 ä 1 0
 und  :
Beweis Die i-te Spalte der Matrix S D .sij / ist der Ko- 0 2 0 2 0 2 0 2
ordinatenvektor
Pn von c i bezüglich der Basis B, d. h., c i D
kD1 ski bk . 4 Zueinander nicht kongruente Matrizen können zueinan-
An der Stelle .i; j / der Matrix M C steht der Eintrag der ähnlich sein:
! !
X n Xn
       
c i  cj D ski bk  slj bl 1 0 k 0 1 1 0 ä 0 1
6 und  :
kD1 lD1 0 2 2 3 0 2 2 3
X n
D ski slj .bk  bl / ;
k;lD1
4 Zueinander nicht ähnliche Matrizen können zueinander
kongruent sein:
>
und dies ist der Eintrag in der Matrix S M B S an der Stel-
le .i; j /.         
1 0 ä 4 0 1 0 k 4 0
6 und  :
0 2 0 8 0 2 0 8
Es sei K ein Körper. Man nennt zwei Matrizen A; B 2
Kn n zueinander kongruent, wenn es eine invertierbare
Matrix S 2 Kn n gibt, sodass 4 Zueinander nicht ähnliche Matrizen können zueinander
nicht kongruent sein:
B D S >A S
       
1 0 ä 0 0 1 0 k 0 0
gilt. Da die Basistransformationsmatrix B M .id/C inver- 6 und 
6 :
0 2 0 0 0 2 0 0
tierbar ist, sind also je zwei Darstellungsmatrizen eines
Skalarprodukts zueinander kongruent.
Dass die Kongruenz von Matrizen eine Äquivalenzre- ?Selbstfrage 9.4
lation auf Kn n liefert, begründet man analog zur entspre- Begründen Sie diese Behauptungen.
chenden Aussage zur Ähnlichkeit.

Lemma Für jeden Körper K und für jede natürliche Zahl n


definiert die Kongruenz  von Matrizen eine Äquivalenz- 9.2 Norm, Winkel, Orthogonalität
relation auf der Menge Kn n .
In euklidischen Vektorräumen, also in reellen Vektorräu-
Dies ausführlich zu begründen haben wir als Übungsaufga-
men mit einem euklidischen Skalarprodukt, ist es möglich,
be gestellt.
Vektoren eine Norm zuzuordnen. Diese Norm entspricht
Eine Äquivalenzrelation zerlegt ihre Grundmenge in
dabei dem anschaulichen Begriff der Länge im R2 bzw.
nichtleere Äquivalenzklassen. Die Äquivalenzklassen be-
ä R3 , wenn das Skalarprodukt das kanonische ist. Mit dem
züglich der Äquivalenzrelationen Ähnlichkeit  und Kon- Begriff der Norm werden wir dann Abstände zwischen
k
gruenz  sind jedoch im Allgemeinen sehr verschieden, es Vektoren und Winkel zwischen Vektoren erklären und so
können nämlich alle möglichen Fälle auftreten: letztlich zu dem Begriff der Orthogonalität kommen.
314 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Vektoren in euklidischen Vektorräumen Die Cauchy-Schwarz’sche Ungleichung


haben eine Norm besagt, dass der Betrag des Skalarprodukts
zweier Vektoren kleiner ist als das Produkt
  der Normen beider Vektoren
v1
Wir haben für einen Vektor v D der Anschauungs-
v2
ebene R2 gezeigt, dass der Ausdruck Die Cauchy-Schwarz’sche Ungleichung ist eine Unglei-
p q chung von fundamentaler Bedeutung in verschiedenen Ge-
kvk D v  v D v12 C v22 bieten der Mathematik. Wir werden sie benutzen, um einen
sinnvollen Abstands- und Winkelbegriff in euklidischen
die Länge der Strecke vom Ursprung zum Punkt v angibt. Vektorräumen einzuführen.
In der Sprechweise des 7 Kap. 5 ist dies die Norm des Vek-
tors v. p
Der Ausdruck v  v existiert aber für jedes euklidische Die Cauchy-Schwarz’sche Ungleichung
Skalarprodukt . Dies liegt an der positiven Definitheit, die Für alle Elemente v und w eines euklidischen Vektor-
sicherstellt, dass man diese p
Wurzel bilden kann. raums V gilt die Cauchy-Schwarz’sche Ungleichung:
Wir werden die Größe v  v die Norm des Vektors v
nennen und sie wieder mit kvk bezeichnen. jv  wj  kvk kwk :

Die Gleichheit gilt hier genau dann, wenn v und w linear


9 Die Norm von Vektoren abhängig sind.
Ist v ein Element eines euklidischen Vektorraums mit dem
euklidischen Skalarprodukt , so nennt man die nichtnega-
tive reelle Zahl Beweis Im Fall w D 0 stimmen alle Behauptungen. Darum
setzen wir von nun an w ¤ 0 voraus.
p Für alle ;  2 R gilt die Ungleichung:
kvk D vv
0  . v C  w/  . v C  w/ :
die Norm bzw. Länge des Vektors v.
Wir wählen nun  D w  w .> 0/ und  D v  w und
erhalten so:
Beispiel Wir können also etwa k exp k für die auf dem 0  . v C  w/  . v C  w/
Intervall Œ0; 1 stetige reelle Funktion exp bezüglich des
R1 D   .v  v/ C   .v  w/ C   .w  v/ C   .w  w/
Skalarprodukts hf; gi D 0 f .t/ g.t/ dt auf dem reellen
D  . .v  v/ C  .v  w/ C  .w  v/ C  /
Vektorraum C der auf dem Intervall Œ0; 1 stetigen Funktio-
nen bilden: D  ..w  w/ .v  v/       C  /
v D  .kwk2 kvk2  .v  w/ .v  w// :
u 1 r
p u Z
u 1 2
k exp k D hexp; expi D t e2t dt D .e  1/ : Wir können die positive Zahl  in dieser Ungleichung kür-
2 zen und erhalten
0
.v  w/2  kwk2 kvk2 :
Damit hat die Funktion
p exp in diesem euklidischen Vektor-
raum die Norm p12 .e2  1/. Da die Wurzelfunktion monoton wächst, folgt die Cauchy-
Hätten wir für das Skalarprodukt etwa das Intervall Schwarz’sche Ungleichung
Œ0; 2
p gewählt, so hätte exp eine andere Norm, nämlich jv  wj  kvk kwk :
p1
2
.e4  1/. Dieser Begriff der Norm hängt vom erklär-
ten Skalarprodukt ab. 9 Weiterhin folgt aus der Gleichheit
jv  wj D kvk kwk
? Selbstfrage 9.5
Welche Norm hat die Polynomfunktion p W R ! R, mit obiger Wahl für  und  sogleich
p.t/ D t 2 bezüglich des euklidischen Skalarprodukts
. v C  w/  . v C  w/ D 0 ;
Z1 wegen der positiven Definitheit des Skalarprodukts also
hf; gi D f .t/ g.t/ dt ‹  v C  w D 0. Weil  ¤ 0 gilt, bedeutet dies, dass v
0 und w linear abhängig sind.
9.2  Norm, Winkel, Orthogonalität
315 9
Ist andererseits vorausgesetzt, dass v und w linear ab- 1 1 1
hängig sind, so existiert ein  2 R mit v D  w. Wir
erhalten
−1 1 −1 1 −1 1
jv  wj D jj kwk kwk D k wk kwk D kvk kwk :
−1 −1 −1
Damit ist alles begründet.  N1 N2 N

. Abb. 9.4 Die Einheitskreise im R2 bezüglich der Normen N1 ; N2 ; N1

Jedes Skalarprodukt liefert eine Norm


4 N2 : Für alle v D .vi /; w D .wi / 2 Kn gilt:
Tatsächlich ist der Begriff der Norm eines Vektors sogar v v v
u n u n u n
noch etwas allgemeiner als unsere Definition. uX uX uX
t jvi C wi j2  t jvi j2 C t jwi j2 :
Wir betrachten im Folgenden einen reellen oder kom-
i D1 i D1 i D1
plexen Vektorraum V – man beachte, dass wir kein Skalar-
produkt voraussetzen. Um beide Fälle in einem abhandeln
Diese Ungleichung heißt Minkowski-Ungleichung, die
zu können, schreiben wir K für den Grundkörper des Vek-
Gültigkeit dieser Ungleichung nachzuweisen haben wir
torraums V .
als Übungsaufgabe 9.16 gestellt.
4 N1 : Für alle v D .vi /; w D .wi / 2 Kn gilt:

Definition einer Norm max fjvi C wi jg  max fjvi jg C max fjwi jg ;


Es sei V ein K-Vektorraum. Man nennt eine Abbildung i D1;:::;n i D1;:::;n i D1;:::;n

(
V ! R0 ; was offensichtlich korrekt ist.
N W
v 7! N.v/
In . Abb. 9.4 zeigen wir für den Fall K D R und n D 2
von V in die Menge der nicht negativen reellen Zahlen die Menge aller Vektoren, deren Norm 1 ist.
eine Norm, wenn die folgenden drei Eigenschaften erfüllt Man nennt
sind: 4 N1 auch 1-Norm,
(N1) N.v/ D 0 , v D 0, 4 N2 auch euklidische Norm,
(N2) N. v/ D jj N.v/ für alle  2 K. 4 N1 auch Maximumsnorm
(N3) N.v C w/  N.v/ C N.w/ für alle v; w 2 V (Drei-
ecksungleichung). auf dem Kn .
Etwas allgemeiner zeigt man in der Analysis, dass für
Einen K-Vektorraum V mit einer Norm N nennt man jedes p 2 N
auch normierten Raum.
1
Np ..v1 ; : : : ; vn /> / D .jv1 jp C    C jvn jp / p

Beispiel Wir betrachten die folgenden Abbildungen N1 , N2 eine Norm, die sogenannte p-Norm, liefert und dass bei
und N1 von V D Kn in R0 , die gegeben sind durch geeigneter Interpretation
4 N1 ..v1 ; : : : ; vn /> / D jv
p1 j C    C jvn j,
4 N2 ..v1 ; : : : ; vn /> / D jv1 j2 C    C jvn j2 , lim Np D N1
p!1
4 N1 ..v1 ; : : : ; vn /> / D maxfjv1 j; : : : ; jvn jg.
gilt – die Maximumsnorm ist somit Grenzwert der p-Norm
Die Behauptung ist, dass die Abbildungen N1 ; N2 ; N1 W für p ! 1. 9
V ! R0 Normen sind.
(N1) und (N2) sind offenbar für jede der Abbildungen Wir wollen nun zeigen, dass jeder Vektorraum V mit einem
N1 ; N2 ; N1 erfüllt. euklidischen Skalarprodukt  insbesondere ein normierter
(N3) besagt für Raum ist. Dazu zeigen wir, dass die Abbildung
4 N1 : Für alle v D .vi /; w D .wi / 2 Kn gilt: 
V ! R0 ;
X
n X
n X
n kkW p
v 7! v  v;
jvi C wi j  jvi j C jwi j ;
i D1 i D1 i D1
die jedem Vektor seine Länge zuordnet, eine Norm in dem
was bekanntlich nach der Dreiecksungleichung in K er- eben geschilderten Sinne ist. Daher rührt auch der Begriff
füllt ist. der Norm eines Vektors, wie wir ihn gebrauchen.
316 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Beispiel: Einheitskreise bezüglich verschiedener euklidischer Skalarprodukte im R2


p ! !
Unter der Größe kvk D v  v verstehen wir die Norm 2 1 v1
des Vektors v bezüglich des euklidischen Skalarprodukts . (2) Im Fall A D hat der Vektor v D 2 R2 die
1 1 v2
Wir wollen die Menge all jener Vektoren des R2 bestim- Norm
men, welche die Norm 1 haben, also die Menge E D fv 2 q
R2 j kvk D 1g. Diese Menge nennt man auch den Einheits- kvk D 2 v12 C 2 v1 v2 C v22 :
kreis des R2 bezüglich des euklidischen Skalarprodukts , die
Form des Kreises hängt natürlich sehr vom Skalarprodukt ab. Der Einheitskreis!besteht also in dieser Situation aus den
v1
Wir bestimmen diese Menge bezüglich der drei verschie- Punkten v D mit
v2
denen euklidischen Skalarprodukte

v  w D v> A w v12 C .v1 C v2 /2 D 1 :

mit Die Punkte v, deren Komponenten diese Gleichung erfüllen,


bilden im R2 die folgende Menge:
! ! !
1 0 2 1 4 0
.1/ A D ; .2/ A D ; .3/ A D :
0 1 1 1 0 1

Problemanalyse und Strategie .0; 1/


9 Die Vektoren v 2 R2 der Länge 1 lassen sich wegen
p
vv D 1 , vv D1

durch die Gleichung v  v D 1 beschreiben. Die Lösungsmen-


ge dieser Gleichung sind die gesuchten Vektoren, sie lässt sich
grafisch darstellen.
.0; 1/
Lösung
(1) Im Fall A D E2 ist das gegebene euklidische Skalarprodukt
!
v1 ! !
das kanonische Skalarprodukt. Der Vektor v D 2 R2 hat 4 0 x1
v2 (3) Im Fall A D hat der Vektor v D 2 R2 die
die Länge 0 1 x2
Länge
q q
kvk D v12 C v22 : kvk D 4 v12 C v22 :

Der Einheitskreis!besteht also in dieser Situation aus den Der Einheitskreis!besteht also in dieser Situation aus den
v1 v1
Punkten v D mit Punkten v D mit
v2 v2
v12 C v22 D 1 : 4 v12 C v22 D 1 :

Die Punkte v, deren Komponenten diese Gleichung erfüllen, Die Punkte v, deren Komponenten diese Gleichung erfüllen,
bilden im R2 den Kreis um den Ursprung mit Radius 1. bilden im R2 die folgende Menge:

.0; 1/ .0; 1/

.1; 0/ . 12 ; 0/
9.2  Norm, Winkel, Orthogonalität
317 9
Wenn wir beweisen wollen, dass tatsächlich unser Län- Da bei der Maximumsnorm N1 die Gerade e 2 C R e 1
genbegriff eine Norm ist, müssen wir also die drei defi- aber unendlich viele Schnittpunkte mit dem Einheitskreis
nierenden Eigenschaften (N1), (N2) und (N3) einer Norm E bezüglich N1 hat (. Abb. 9.4), kann diese somit von
für die Abbildung k  k nachweisen. Die ersten beiden Ei- keinem Skalarprodukt induziert sein. 9
genschaften (N1) und (N2) sind unmittelbar einsichtig, die
dritte Eigenschaft (N3) aber, also die Dreiecksungleichung, Kommentar Die Normen eines Vektorraums V , die von
verlangt etwas Aufwand, wir benutzen dazu die Cauchy- Skalarprodukten induziert werden, lassen sich kennzeich-
Schwarz’sche Ungleichung. nen. Es sind dies genau jene Normen, die der Parallelo-
grammidentität

Euklidische Vektorräume sind normiert kv C wk2 C kv  wk2 D 2 kvk2 C 2 kwk2


Ist V ein euklidischer Vektorraum, so ist die Abbildung
für alle v; w 2 V genügen.
(
V ! R0 ;
kkW p
v 7! v  v
Je zwei Vektoren haben einen Abstand
eine Norm auf V . Man nennt k  k die von  auf V indu-
zierte Norm. Mit dem Begriff der Norm können wir Abstände zwischen
Vektoren bestimmen.
Sind v und w zwei Vektoren eines euklidischen Vektor-
Beweis Wegen kvk D 0 , v D 0 und k vk D jj kvk raums V , so nennen wir die reelle Zahl
für alle  2 R und v 2 V ist nur die Dreiecksungleichung
zu begründen. Es seien dazu v; w 2 V . Dann gilt wegen d.v; w/ D kv  wk D kw  vk
der Cauchy-Schwarz’schen Ungleichung:
den Abstand oder die Distanz von v und w.
kv C wk D .v C w/  .v C w/
2 Im R2 oder R3 mit dem kanonischen Skalarprodukt
entspricht dies genau dem anschaulichen Abstand zweier
D kvk2 C kwk2 C 2 v  w Punkte voneinander.
 kvk2 C kwk2 C 2 jv  wj Wir ermitteln einige Abstände zwischen Vektoren eu-
 kvk2 C kwk2 C 2 kvk kwk klidischer Vektorräume.

D .kvk C kwk/2 : Beispiel


4 Im euklidischen R2 mit dem kanonischen Skalarpro-
Da die Wurzelfunktion auf R0 monoton wachsend ist, dukt ist der Abstand von e 1 zu e 2
folgt kv C wk  kvk C kwk. 
 
 1  p p
ke  k D  
 1  D 1 C .1/ D 2 :
e 2 2
Jedes Skalarprodukt definiert somit eine Norm eines reellen 1 2

Vektorraums. Aber es gibt auch Normen auf reellen Vektor-


 das durch v  w D
räumen, die von keinem Skalarprodukt herrühren, beachte Aber bezüglich des Skalarprodukts,

das folgende Beispiel. > 2 1
v Aw mit der Matrix A D definiert ist, erhal-
1 1
Beispiel Wir begründen, dass die Maximumsnorm N1 auf ten wir
dem R2 durch kein Skalarprodukt induziert wird. Dazu be-
  s  
nutzen wir die folgende Tatsache:  1  1
ke  e k D   D .1; 1/ A
Ist  ein Skalarprodukt auf R , so hat der Einheitskreis
2 1 2  1  1
E D fv 2 R2 j kvk D 1g bezüglich der von  auf R2 indu- s  
zierten Norm k  k mit jeder Geraden a C b R mit a; b 2 R2 1
D .1; 0/ D 1:
höchstens zwei Schnittpunkte. 1
Denn: Ein Element v D a C b  der Geraden a C b R
ist genau dann ein Element des Einheitskreises, wenn gilt: 4 Die Polynomfunktion p W R ! R, p.x/ D x hat von
der Sinusfunktion sin W R ! R bezüglich des euklidi-
1 D kvk2 D ka C b k2 schen Skalarprodukts
D kak2 C kbk2 2 C 2 .a  b/  :
Z
Und diese quadratische Gleichung in der Unbestimmten  hf; gi D f .t/ g.t/ dt
über R hat höchstens zwei Lösungen. 
318 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

den Abstand cos ˛


v 1
uZ
u
u
kp  sin k D t t 2  2 t sin t C sin2 .t/ dt
 ˛
2
r
2
D 3 3 : 9 1
3
. Abb. 9.6 Der Kosinus bildet das Intervall Œ0;  bijektiv auf das Inter-
vall Œ1; 1 ab
Winkel zwischen Vektoren eines
euklidischen Vektorraums werden
mithilfe des Skalarprodukts erklärt
Der Winkel zwischen Vektoren
Sind v und w zwei vom Nullvektor verschiedene Vektoren
In der Anschauungsebene R2 haben wir Winkel zwischen eines euklidischen Vektorraums V mit dem euklidischen
Vektoren durch das kanonische Skalarprodukt ausgedrückt. Skalarprodukt , so nennt man das eindeutig bestimmte
Zwischen zwei vom Nullvektor verschiedenen Vektoren v ˛ 2 Œ0;  mit
und w existieren stets zwei Winkel.
Für den kleineren Winkel ˛ zwischen den beiden Vek- vw
cos ˛ D
toren v und w haben wir im 7 Kap. 5 die Formel kvk kwk
9
vw den Winkel zwischen v und w und schreibt hierfür auch
˛ D arccos
kvk kwk
˛ D †.v; w/ :
hergeleitet.
Nun gehen wir umgekehrt vor: Wir nutzen die Cauchy-
Schwarz’sche Ungleichung aus, um Winkel zwischen Vek- Um je zwei solchen Vektoren genau einen Winkel zuord-
toren eines allgemeinen euklidischen Vektorraums, die nen zu können, haben wir die Definitionsmenge auf das
nicht der Nullvektor sind, zu definieren. Dabei gehen wir so abgeschlossene Intervall Œ0;  eingeschränkt. Dadurch ent-
vor, dass diese Definition sich mit der intuitiven Begriffs- spricht unsere Definition in der Anschauungsebene mit dem
bildung im Anschauungsraum aus dem 7 Kap. 5 deckt. kanonischen Skalarprodukt der Wahl des kleineren Winkels
Dazu schreiben wir die Cauchy-Schwarz’sche Unglei- zwischen zwei Vektoren (. Abb. 9.7).
chung für zwei vom Nullvektor verschiedene Vektoren v; w
eines euklidischen Vektorraums mit dem euklidischen Ska- Beispiel
larprodukt  um: 4 Im euklidischen R2 mit dem kanonischen Skalarpro-
vw dukt schließen die beiden Vektoren e 1 und e 1 C e 2 den
1   1: Winkel
kvk kwk
1
Zu jeder reellen Zahl zwischen 1 und 1 gibt es genau ein †.e 1 ; e 1 C e 2 / D arccos p D =4
2
˛ 2 Œ0;  mit
ein.
vw 4 In dem euklidischen Vektorraum aller auf dem abge-
cos ˛ D
kvk kwk schlossenen Intervall Œ0; 1 stetigen reellen Funktionen
mit dem euklidischen Skalarprodukt
(. Abb. 9.6).
Z1
hf; gi D f .t/ g.t/ dt
w
0

. Abb. 9.7 Die Einschränkung w


auf Œ0;  entspricht der Wahl des
˛ v
kleineren Winkels ˛ der beiden
˛ Winkel zwischen zwei Vektoren

˛
v
. Abb. 9.5 Zwischen zwei Vektoren existieren zwei Winkel
9.2  Norm, Winkel, Orthogonalität
319 9
schließen die Polynomfunktion p mit p.x/ D x und x2
R1
die Funktion exp wegen hp; expi D 0 t exp t dt D 1, 1
p p 1
0
k exp k D p12 e2  1 und kpk D 1= 3 den Winkel 1

1
†.p; exp/ D arccos p D 1:409 : : :
6 .e2  1/
x1

ein. 9 . Abb. 9.8 Bezüglich des durch die Matrix A definierten Skalarpro-
dukts stehen die beiden Vektoren senkrecht aufeinander, wenngleich die
Anschauung anderes vermittelt
Zwei Vektoren sind orthogonal zueinander,
wenn ihr Skalarprodukt null ergibt
4 In dem euklidischen Vektorraum aller auf dem abge-
schlossenen Intervall Œ0; 1 stetigen reellen Funktionen
In 7 Abschn. 5.2 haben wir gezeigt, dass zwei Vekto- mit dem euklidischen Skalarprodukt
ren v und w des R genau dann orthogonal zueinander
3
Z1
sind, wenn ihr kanonisches Skalarprodukt v> w D 0 ist.
Wir haben dabei mit der Anschauung argumentiert. Nun hf; gi D f .t/ g.t/ dt
abstrahieren wir dies, indem wir das Senkrechtstehen für 0
Vektoren eines euklidischen Raums, also für beliebige eu-
steht die Polynomfunktion q mit q.x/ D 2  3 x auf
klidische Skalarprodukte, definieren.
dem Polynom p mit p.x/ D x senkrecht, da

Z1
Orthogonalität von Vektoren h2  3 x; xi D 2t  3t 2 dt D 0 :
Sind v und w Elemente eines euklidischen Vektorraums 0
V mit dem euklidischen Skalarprodukt , so sagt man, v
4 Die sogenannten Legendre’schen Polynome pn mit
ist orthogonal zu w oder steht senkrecht auf w, wenn
1 dn 2
vwD 0 p n .x/ D .x  1/n
2n nŠ dx n

gilt. Für diesen Sachverhalt schreibt man auch sind auf ganz R für n D 0; 1; : : : Lösungen der Legend-
re’schen Differenzialgleichung
v ? w:
.1  x 2 / y 00  2 x y 0 C n .n C 1/ y D 0 :
Sind v und w vom Nullvektor verschieden, so gilt: Die ersten Legendrepolynome lauten

v ? w , †.v; w/ D =2 : p 0 .x/ D 1;
p 1 .x/ D x;
1 3
p 2 .x/ D  C x 2 ;
Beispiel 2 2
> 3 5
4 Bezüglich des Skalarprodukts,
  das durch vw D v A w p 3 .x/ D  C x 3 :
2 1 2 2
mit der Matrix A D definiert ist, gilt:
1 1 Wir zeigen nun, dass die Legendrepolynome bezüglich
    des Skalarprodukts
1 0
? ; Z1
1 1
hp; qi D p.t/ q.t/ dt
da 1

   orthogonal zueinander sind. Dazu notieren wir die Le-


2 1 0
.1; 1/ D0 gendre’sche Differenzialgleichung etwas anders:
1 1 1
d d
D y D n .n C 1/ y mit D D  .1  x 2 / :
(. Abb. 9.8). dx dx
320 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Man beachte: Die Anschauung vermittelt, dass Vektoren, die orthogonal


  zueinander sind, linear unabhängig sind. Dies ist tatsächlich
d d
D y D  .1  x 2 / y für jedes beliebige Skalarprodukt der Fall. Sind nämlich
dx dx v1 ; : : : ; vr vom Nullvektor verschiedene Vektoren eines
d euklidischen Vektorraums V orthogonal zueinander, gilt
D  .y 0  x 2 y 0 / D y 00 C 2 x y 0 C x 2 y 00 ;
dx also
d. h., dass also tatsächlich D y D n .n C 1/ y nur eine
andere Schreibweise für die Legendre’sche Differenzi- vi  vj D 0 für i ¤ j ;
algleichung ist.
so folgt für 1 ; : : : ; r 2 R mit
Kommentar Tatsächlich ist D nichts anderes als ein En-
domorphismus des Vektorraums aller Polynomfunktio- 1 v1 C    C r vr D 0
nen. Man nennt einen solchen Endomorphismus eines
Funktionenraums auch linearen Operator und benutzt durch Skalarproduktbildung beider Seiten von rechts
die angegebene Schreibweise D y anstelle von D.y/. nacheinander mit v1 ; : : : ; vr und der Linearität im ersten
Argument:
In der Form D y D n .n C 1/y lässt sich die Legend-
re’sche Differenzialgleichung auch als Eigenwertglei- 1 D 1 .v1  v1 / C    C r .vr  v1 / D 0  v1 D 0;
chung interpretieren: Die Lösung y ist ein Eigenvektor 2 D 1 .v1  v2 / C    C r .vr  v2 / D 0  v2 D 0;
zum Eigenwert n .n C 1/ der (linearen) Abbildung D.
9 Nun folgt mit partieller Integration für m; n 2 N0 :
::
:
Z1 r D 1 .v1  vr / C    C r .vr  vr / D 0  vn D 0 :
hp n ; Dpm i D p n .t/Dp m .t/dt
Damit gilt 1 D    D r D 0, d. h., v1 ; : : : ; vr sind linear
1 unabhängig.
D .1  t 2 /.p n .t/p 0m .t/  p0n .t/p m .t//j11
Z1
C Dp n .t/p m .t/dt Orthogonale Vektoren sind linear unabhängig
1 Jede Menge von Vektoren ¤ 0 eines euklidischen Vek-
D hD p n ; p m i ; torraums, die paarweise orthogonal zueinander sind, ist
linear unabhängig.
also schließlich:

hp n ; D p m i D m .m C 1/ hp n ; p m i
Eine naheliegende Fragestellung ist nun folgende: Gibt
hD pn ; p m i D n .n C 1/ hp n ; p m i : es in euklidischen Vektorräumen stets Orthonormalbasen?
Der folgende Abschnitt behandelt diese Frage.
Für m ¤ n gilt also hp n ; p m i D 0. Und für m D n
erhalten wir:
Z1  2 9.3 Orthonormalbasen und orthogonale
1 dn 2 2 Komplemente
hp n ; p n i D .x  1/n dx D :
2 nŠ dx n
n 2nC1
1
Wir zeigen, dass in endlichdimensionalen euklidischen
Also stehen je zwei verschiedene Legendrepolynome
Vektorräumen stets Orthonormalbasen existieren.
senkrecht aufeinander,
q und das n-te Legendrepolynom
hat die Norm 2
2 nC1 . 9
Eine Orthonormalbasis ist eine Basis,
? Selbstfrage 9.6 deren Elemente die Länge 1 haben und die
Warum gelten die folgenden, mit der Anschauung verträg- paarweise orthogonal zueinander stehen
lichen Merkregeln?
4 Ist v orthogonal zu w, so ist w orthogonal zu v.
4 Der Nullvektor ist zu jedem Vektor v orthogonal. Neben dem Begriff der Orthonormalbasis werden wir auch
4 Vom Nullvektor abgesehen ist kein Vektor zu sich immer wieder den Begriff eines Orthonormalsystems brau-
selbst orthogonal. chen.
9.3  Orthonormalbasen und orthogonale Komplemente
321 9
Beispiel
4 Es ist
80 1 0 1 0 19
< 2 1 2 =
@1A ; @2A ; @ 1 A
: ;
2 0 5=2

eine Orthogonalbasis des R3 mit dem kanonischen Ska-


larprodukt, aber keine Orthonormalbasis. Hingegen ist
die Menge, die diese Vektoren in ihrer normierten Form
. Abb. 9.9 Normieren eines Vektors; seine Richtung bleibt dabei gleich enthält, also
8 0 1 0 1 0 19
<1 2 1 2 =
2 @
@1A ; p1 @2A ; p 1 A ;
Orthogonal- und Orthonormalbasis :3 5 0 3 5 5=2 ;
2
Eine Menge B von Vektoren eines euklidischen Vektor-
raums V heißt Orthogonalsystem, wenn je zwei ver-
eine Orthonormalbasis des R3 mit dem kanonischen
schiedene Elemente von B orthogonal zueinander sind:
Skalarprodukt.
4 In dem euklidischen Vektorraum V aller auf Π; 
Aus b; b0 2 B und b ¤ b0 folgt b ? b0 :
stetigen reellwertigen Funktionen mit dem euklidischen
Skalarprodukt
Ein Orthogonalsystem B heißt Orthonormalsystem,
wenn jeder Vektor aus B zusätzlich normiert ist, also die Z
Länge 1 hat: 1
hf; gi D f .t/ g.t/ dt
p 
Für jedes b 2 B gilt b  b D 1:

Ein Orthogonalsystem bzw. Orthonormalsystem B heißt


für f; g 2 V ist die Menge B D f p12 ; cos; sing ein
Orthogonalbasis bzw. Orthonormalbasis, wenn B zu- Orthonormalsystem.
sätzlich eine Basis ist. Dazu muss man nur nachweisen, dass die Länge der
drei erzeugenden Elemente jeweils 1 ist und je zwei ver-
schiedene Elemente aus B orthogonal zueinander sind:
Mithilfe des Kronecker-Symbols
 Z
 1 1 1 1 1
1 ; falls i D j ; p ;p D p p dt D 1 ;
ıij D 2 2 2 2
0 ; sonst 
 
 1 
können wir kurz schreiben: Eine Menge B von Vektoren d. h.,  
p  D 1 ;
eines euklidischen Vektorraums V ist genau dann ein Or- 2
thonormalsystem, falls Z
1
bi  bj D ıij für alle bi ; bj 2 B : hcos; cosi D cos t cos t dt D 1 ;

Man kann jeden vom Nullvektor verschiedenen Vektor v d. h., k cos k D 1 ;
eines euklidischen Vektorraums V normieren, d. h., man
verkürzt bzw. verlängert den Vektor v auf die Länge 1: Z
1
1 hsin; sini D sin t sin t dt D 1 ;
v ! v: 
kvk
d. h., k sin k D 1
Wegen
 
 1  1 und
 
 kvk v D kvk kvk D 1
 Z
1 1 1
hat der normierte Vektor die Norm 1. p ; sin D p sin t dt D 0 ;
2 2
Damit kann man also aus einer Orthogonalbasis eines 
euklidischen Vektorraums auf einfache Weise eine Ortho- 1
d. h., p ? sin ;
normalbasis konstruieren. 2
322 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

 Z i Dies gilt nur für Orthonormalbasen. Bei Orthogonalbasen


1 1 1
p ; cos D p cos t dt D 0 ; erhält man i durch zusätzliches Normieren, genauer:
2 2

1 1
i D v  bi :
d. h., p ? cos ; kbi k2
2
Z Dies liefert uns eine Methode, mit der wir sehr einfach den
1 Koordinatenvektor eines Vektors bezüglich einer Orthonor-
hsin; cosi D sin t cos t dt D 0 ;
malbasis bestimmen können.

d. h., sin ? cos :
Beispiel
 Bezüglich
    Orthonormalbasis B D
der geordneten
1 1
Etwas allgemeiner kann man zeigen, dass die Menge B b1 D p1 ; b2 D p12 des R2 mit dem kano-
21 1
der Funktionen
 Skalarprodukt  erhält man als Darstellung für v D
nischen

1 3
p ; cos.n t/; sin.n t/ ; n 2 N bezüglich B:
2
2

bezüglich dieses Skalarprodukts ein Orthonormalsys- v D .v  b1 / b1 C .v  b2 / b2


tem bildet. 5 1
Wie weit diese Menge B davon entfernt ist, eine Ortho- D p b1 C p b2 :
9 normalbasis von V zu sein, ist Thema der Fouriertheo-
2 2
rie aus der Analysis. 9 Damit erhalten wir den Koordinatenvektor von v bezüg-
lich B:
 
Jeder endlichdimensionale euklidische 1 5
B v D p : 9
Vektorraum besitzt eine Orthonormalbasis 2 1

Jeder Vektorraum besitzt eine Basis. Dieses tief liegen-


Die Orthogonalität von Vektoren erleichtert vieles. Or-
de und wichtige Ergebnis haben wir im 7 Abschn. 4.4
thogonale Vektoren sind linear unabhängig, und auch die
aufgeführt. Euklidische Vektorräume sind spezielle Vektor-
Darstellung von Vektoren bezüglich Orthonormalbasen ist
räume. Nur in solchen Vektorräumen hat es einen Sinn, von
leicht.
Orthogonalität oder spezieller von Orthonormalbasen zu
sprechen. Es ist naheliegend zu hinterfragen, ob jeder eukli-
dische Vektorraum eine Orthonormalbasis besitzt. Hierbei
Koordinatenvektoren bezüglich bezieht sich die Orthogonalität und das Normiertsein na-
Orthonormalbasen türlich auf das euklidische Skalarprodukt des betrachteten
Ist B eine geordnete Orthonormalbasis eines euklidischen euklidischen Vektorraums V .
Vektorraums V mit dem euklidischen Skalarprodukt , so Tatsächlich besitzt nicht jeder euklidische Vektorraum
gilt für jeden Vektor v 2 V : eine Orthonormalbasis. Aber viele wichtige euklidische
Vektorräume haben eine solche Basis.
v D 1 b1 C    C r br Mit dem Gram-Schmidt’schen Orthonormalisierungs-
verfahren kann man aus einer gegebenen Basis eines end-
mit Vektoren b1 ; : : : ; br 2 B und i D v  bi 2 R für lichdimensionalen euklidischen Vektorraums eine Ortho-
i D 1; : : : ; r. normalbasis konstruieren.
Die Geometrie des Verfahrens von Gram und Schmidt
haben wir für zwei Vektoren in der . Abb. 9.10 dargestellt.
Beweis Dass eine Darstellung der Art v D 1 b1 C    C Im Folgenden erläutern wir das Verfahren allgemein.
r br mit b1 ; : : : ; br 2 B und 1 ; : : : ; r 2 R existiert,
folgt aus der Tatsache, dass B eine Basis ist. Die Koeffi-
zienten 1 ; : : : ; r sind dadurch auch eindeutig festgelegt. Das Orthonormalisierungsverfahren von Gram
Und weiter gilt für alle i D 1; : : : ; r: und Schmidt
Ist fa1 ; : : : ; an g eine Menge von linear unabhängigen
v  bi D .1 b1 C    C r br /  bi Vektoren eines euklidischen Vektorraums V mit dem eu-
D 1 .b1  bi / C    C r .br  bi / klidischen Skalarprodukt , so bilde man die Vektoren
D i .bi  bi / D i : 
9.3  Orthonormalbasen und orthogonale Komplemente
323 9

a2 a2 c2 a2
a1 .a2 b1 /b1 b2

b1 b1 b1

. Abb. 9.10 Mit dem Verfahren von Gram und Schmidt entsteht aus der Basis fa1 ; a2 g die Orthonormalbasis fb1 ; b2 g

Aus dieser Gleichheit können wir aufgrund der linearen


b1 ; : : : ; bn mit Unabhängigkeit von a1 ; : : : ; an schließen, dass c kC1 ¤ 0
gilt. Mit bkC1 D kc kC1 k1 c kC1 erhalten wir nun die
b1 D ka1 k1 a1 ; bkC1 D kc kC1 k1 c kC1 ; Behauptungen. 

wobei Explizit lauten die Formeln für die ersten drei Vektoren
b1 ; b2 ; b3 der so konstruierten Orthonormalbasis:
X
k 4 b1 D ka1 k1 a1 ,
c kC1 D akC1  .bi  akC1 / bi 4 b2 D kc 2 k1 c 2 mit c 2 D a2  .a2  b1 / b1 ,
iD1
4 b3 D kc 3 k1 c 3 mit c 3 D a3  .a3  b1 / b1  .a3  b2 / b2 .
für k D 1; : : : ; n  1.
Als Beispiel bilden wir das Skalarprodukt von c 3 mit b2 :
Es ist dann fb1 ; : : : ; bn g ein Orthonormalsystem
von V , und es gilt: c 3  b2 D .a3  .a3  b1 /b1  .a3  b2 /b2 /  b2
D a3  b2  .a3  b1 /.b1  b2 /  .a3  b2 /.b2  b2 /
ha1 ; : : : ; an i D hb1 ; : : : ; bn i :
D 0:

Wir führen dieses Orthonormalisierungsverfahren an einem


Beweis Wir zeigen die Behauptung, indem wir per Induk- ausführlichen Beispiel in einer Box durch. In einer weite-
tion nach k beweisen: ren Box schildern wir eine Anwendung des Verfahrens von
4 fb1 ; : : : ; bk g ist ein Orthonormalsystem, Gram und Schmidt – die QR-Zerlegung einer invertierba-
4 ha1 ; : : : ; ak i D hb1 ; : : : ; bk i. ren Matrix A. Diese QR-Zerlegung spielt in mehreren Ver-
fahren der numerischen Mathematik eine wichtige Rolle.
Induktionsanfang: Offenbar gelten die Behauptungen
im Fall k D 1.
Kommentar Bei der obigen Darstellung des Orthonorma-
Induktionsvoraussetzung: Die Behauptungen gelten für
lisierungsverfahrens ist vorausgesetzt, dass die Vektoren
ein k 2 f1; : : : ; ng.
a1 ; : : : ; an linear unabhängig sind. Da stellt sich die Fra-
Induktionsschritt: Es seiP k  1. Wir betrachten das ge, ob es nun wirklich nötig ist, dass man erst die lineare
Element c kC1 D akC1  kiD1 .bi  akC1 / bi . Wegen der
Unabhängigkeit der gegebenen Vektoren nachprüfen muss.
Bilinearität von  gilt für alle l < k C 1 nach Induktions-
Tatsächlich ist das nicht der Fall. Sind nämlich die Vekto-
voraussetzung:
ren a1 ; : : : ; an linear abhängig, etwa akC1 2 ha1 ; : : : ; ak i,
X
k so entsteht beim Orthonormierungsverfahren als c kC1 der
bl  c kC1 D bl  akC1  .bi  akC1 / .bl  bi / Nullvektor (dieser steht nämlich auf allen vorher konstru-
„ ƒ‚ …
i D1
Dıli
ierten Vektoren des Orthonormalsystems senkrecht). Man
variiert das Verfahren dann einfach dadurch, dass man die-
D bl  akC1  bl  akC1 D 0 : sen Vektor im Orthonormalsystem weglässt.
Somit gilt c kC1 ? bl , wobei wir noch nicht wissen, ob c kC1
der Nullvektor ist. Wegen Eine unmittelbare Folgerung aus dem Verfahren von Gram
und Schmidt und der Tatsache, dass jeder Vektorraum eine
X
k
Basis besitzt, ist das folgende Ergebnis.
akC1 D c kC1 C .bi  akC1 / bi
i D1

folgt erneut mit der Induktionsvoraussetzung Existenz von Orthonormalbasen


Jeder höchstens abzählbardimensionale euklidische Vek-
hb1 ; : : : ; bk ; c kC1 i D hb1 ; : : : ; bk ; akC1 i torraum besitzt eine Orthonormalbasis.
D ha1 ; : : : ; ak ; akC1 i :
324 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Beispiel: Orthonormalisierung einer Basis nach dem Verfahren von Gram und Schmidt
0 1
Wir bestimmen eine Orthonormalbasis bezüglich des Stan- 0
dardskalarprodukts von B2C
B C
Damit erhalten wir b2 D kc 2 k1 c 2 D p1 B C.
0 1 0 1 0 1 6 @1A
* 3 1 1 +
B1C B 3 C B1C 1
B C B C B C
U D B C ; B C ; B C  R4 : Um b3 zu erhalten, berechnen wir c 3 :
@1A @1A @ 3 A
1 1 1 c 3 D a3  .a3  b1 / b1  .a3  b2 / b2
0 1 0 0 11 0 1
Problemanalyse und Strategie 1 1 3
B1C B 1 B1CC 1 B1C
B C B B CC B C
Wir nennen die Vektoren der Reihe nach a1 ; a2 ; a3 und wen- D B C  B p .3; 1; 1; 1/ B CC p B C
@ 3 A @2 3 @ 3 AA 2 3 @1A
den die Formeln an.
0 1 1 1 1
Lösung
3 0 0 11 0 1
B1C 1 0
B C B 1 B1CC 1 B 2 C
Wir erhalten: b1 D ka1 k1 a1 D 2 p
1
B C. Um b2 zu er-
3 @1A B B CC B C
 B p .0; 2; 1; 1/ B CC p B C
halten, berechnen wir c 2 : @ 6 @ 3 AA 6 @1A
1
1 1
c 2 D a2  .a2  b1 / b1 0 1
0 1 0 0 11 0 1 0
1 1 3 B0C
B3C B 1 B 3 CC 1 B1C B C
9 B C B B CC
D B C  B p .3; 1; 1; 1/ B CC p B C
B C D 2 B C:
@1A
@1A @ 2 3 @1AA 2 3 @1A 0 1
1 0
1 1 1
0 1 B0C
B C
0 Damit erhalten wir b3 D kc 3 k1 c 3 D p12 B C.
@1A
4 B2C
B
C
D B C 1
3 @1A
Es ist also B D fb1 ; b2 ; b3 g eine Orthonormalbasis
1
von U .

Wir wenden nun die erzielten Ergebnisse an, um mi- gen A von V , sondern vielmehr Untervektorräume U von
nimale Abstände von Vektoren zu Untervektorräumen zu V von Interesse.
erklären. Dazu führen wir zuerst den Begriff des orthogo- Ist U ein Untervektorraum von V , so setzen wir
nalen Komplements eines Untervektorraums ein.
U ? D fv 2 V j v ? u für alle u 2 U g :

Das orthogonale Komplement eines Es besteht U ? also aus all jenen Vektoren, die auf al-
Untervektorraums eines euklidischen len Vektoren aus U senkrecht stehen. Wir werden U ?
das orthogonale Komplement von U in V nennen. Die-
Raums ist ein Untervektorraum
se Bezeichnung legt schon mehrere Vermutungen nahe, im
einzelnen sind dies:
Gegeben ist ein euklidischer Vektorraum V . Das Skalarpro- 4 U ? ist ein Untervektorraum von V .
dukt bezeichnen wir wieder mit einem Punkt . 4 U ? U ?.
Für den Sachverhalt, dass das Skalarprodukt zweier 4 V D U ˚ U ? unter evtl. weiteren Voraussetzungen.
Vektoren v; w 2 V null ist, v  w D 0, haben wir auch
„v steht senkrecht auf w“ gesagt und mit v ? w abgekürzt. Genauer gilt:
Sind A und B Teilmengen von V , so ist die Schreibweise
A ? B üblich für die Tatsache, dass jedes a 2 A auf jedem
Das orthogonale Komplement
b 2 B senkrecht steht:
Es sei U ein Untervektorraum eines euklidischen Vektor-
A ? B , a ? b 8a 2 A; b 2 B : raums V . Dann gilt:
Ist A eine einelementige Menge A D fag, so schreibt man (a) Die Menge U ? ist ein Untervektorraum von V . Man
nennt U ? das orthogonale Komplement von U in V .
a ? B anstelle von fag ? B : (b) Jeder Vektor v 2 U ? steht senkrecht auf jedem Vektor
Ähnlich zur Komplementbildung Ac D V n A können wir u 2 U , U ? U ?.
nun zu einer Teilmenge A  V die Menge A? aller Vek- (c) Ist V endlichdimensional, so ist V die direkte Summe
toren aus V bilden, die zu allen Vektoren aus A senkrecht von U und U ? , V D U ˚ U ? .
stehen. Tatsächlich sind aber meist nicht beliebige Teilmen-
9.3  Orthonormalbasen und orthogonale Komplemente
325 9

Beispiel: Die QR-Zerlegung einer invertierbaren Matrix

Wir zeigen, dass jede invertierbare Matrix A D es gilt Q> D Q1 . Und R ist wie gewünscht eine obere Drei-
.a1 ; : : : ; an / 2 Rn n ein Produkt einer orthogonalen Ma- ecksmatrix.
trix Q, d. h. Q> Q D En , und einer oberen Dreiecksmatrix R Ersetzen wir einen Vektor b der Orthonormalbasis B
ist: durch b, so erhalten wir wieder eine Orthonormalbasis B 0
und damit eine andere QR-Zerlegung A D Q0 R 0 . Wenn
A D QR: wir uns darauf einigen, dass wir die Vektoren b1 ; : : : ; bn der
Orthonormalbasis B stets so wählen, dass die Matrix R po-
Problemanalyse und Strategie sitive Diagonaleinträge hat, so erreichen wir eine eindeutige
Mit dem Orthonormalisierungsverfahren von Gram und Zerlegung in der Form A D Q R – man kann dann von
Schmidt bilden wir aus den linear unabhängigen Spalten von der QR-Zerlegung von A sprechen. Nachzuweisen, dass eine
A eine Orthonormalbasis B des Rn und bestimmen die Dar- solche Zerlegung eindeutig ist, haben wir als Übungsaufgabe
stellungen der Spalten von A bezüglich dieser Basis B. Das gestellt.
liefert eine Gleichheit der Form A D Q R mit n n-Matrizen Wir bestimmen beispielhaft die QR-Zerlegung von
der gesuchten Form.
0 1
1 2 4
B 0C
Lösung A D @0 1 A D .a1 ; a2 ; a3 / ;
Weil A invertierbar ist, sind die Spalten a1 ; : : : ; an linear un- 1 0 0
abhängig. Also bilden die Spalten von A D .a1 ; : : : ; an / 2
Rn n eine Basis des Rn . Mit dem Verfahren von Gram und deren Spalten offenbar linear unabhängig sind. Mit dem Ver-
Schmidt können wir aus dieser Basis eine Orthonormalbasis fahren von Gram und Schmidt erhalten wir die Vektoren
B D fb1 ; : : : ; bn g bezüglich des kanonischen Skalarprodukts b1 ; b2 ; b3 einer Orthonormalbasis
des euklidischen Rn konstruieren. Es gilt dann:
0 1 0 1 0 1
1 1 2=3
a1 ? b2 ; : : : ; bn ; 1 B C 1 B C 3 B C
b1 D p @0A ; b2 D p @ 1 A ; b3 D p @4=3A :
a2 ? b3 ; : : : ; bn ; 2 1 3 1 2 6 2=3
::
:
Damit haben wir bereits eine Matrix Q D .b1 ; b2 ; b3 / be-
an1 ? bn : stimmt. Die Matrix R erhalten wir nun durch das Berechnen
von sechs Skalarprodukten:
Bezüglich der geordneten Orthonormalbasis B D
.b1 ; : : : ; bn / haben die Vektoren a1 ; : : : ; an die Darstellung 0p p p 1
2 2 2 2
B p 4
p C
a1 D .a1  b1 / b1 ; RD@ 0 3 3 p A
3
2
a2 D .a2  b1 / b1 C .a2  b2 / b2 ; 0 0 3 6

::
: Da die Diagonaleinträge alle positiv sind, haben wir bereits
an D .an  b1 / b1 C    C .an  bn / bn : die gesuchte Zerlegung:

0 1 0p p p 1
Diese Gleichungen können wir wegen A D .a1 ; : : : ; an / in p1 p1 p1 2 2 2 2
B 2 3 6 p p C
einer Matrizengleichung zusammenfassen: AD@ 0 p1
3
 p26 C
A
B
@ 0 3 4
3 p A
3
0 1 p1  p13  p16 0 0 2
6
a1  b1 a2  b1  an  b1 2 3
B 0 a2  b2  an  b2 C
B C
A D .b1 ; : : : ; bn /  B :: C Kommentar Die QR-Zerlegung ist zum Beispiel bei der nu-
„ ƒ‚ … B C
: ::
@ :: : : A merischen Berechnung der Eigenwerte einer Matrix mithilfe
DWQ
0  0 an  bn des sogenannten QR-Algorithmus ein integraler Bestandteil.
„ ƒ‚ … Tatsächlich wird hierbei die QR-Zerlegung im Allgemeinen
DWR
nicht mit dem Verfahren von Gram und Schmidt bestimmt,
Eine solche Zerlegung, die für jede invertierbare Matrix A da dieses numerisch instabil ist, d. h., kleine Störungen in den
existiert, nennt man eine QR-Zerlegung von A. Eingabedaten wirken sich stark auf die Berechnungen aus.
Die Spalten von Q bilden eine Orthonormalbasis des Rn , In der Numerik benutzt man ausgefeilte Methoden, um die
daher gilt Q> Q D En , d. h., Q ist eine orthogonale Matrix, QR-Zerlegung einer Matrix numerisch stabil zu bestimmen.
326 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Beweis (a) Die Menge U ? ist nicht leer, da der Nullvektor Nun betrachten wir den Untervektorraum U der Treppen-
0 in U ? enthalten ist. funktionen
Sind v1 ; v2 2 U ? , u 2 U und  2 R, so gilt
U D ff 2 V j f ist stückweise konstantg :
.v1 C v2 /  u D v1  u C v2  u D 0 C 0 D 0
Offenbar steht nur die Nullfunktion senkrecht auf allen
und Treppenfunktionen, d. h. U ? D f0g. Da aber nicht jedes
. v1 /  u D  .v1  u/ D  0 D 0 : Element aus V eine Treppenfunktion ist, gilt:

Somit ist U ? ein Untervektorraum von V . U C U? D U ¨ V : 9


(b) Dies gilt nach Definition der Menge U ? .
(c) Die Dimension von V bzw. U sei n bzw. r. ?Selbstfrage 9.7
Wir wählen eine Orthonormalbasis fb1 ; : : : ; br g von Wozu braucht man die Linksstetigkeit und die Stetigkeit
U und ergänzen diese zu einer Orthonormalbasis in 0 in diesem Beispiel?
B D fb1 ; : : : ; br ; brC1 ; : : : ; bn g von V . Offenbar gilt
Ist V D U ˚ W eine direkte Summe, so ist jeder Vektor
hbrC1 ; : : : ; bn i  U ? .
v 2 V auf genau eine Weise als Summe v D u C w mit u 2
Ist nun v ein beliebiges Element von V , so gibt es
U und w 2 W schreibbar. Daher erhalten wir als Folgerung
1 ; : : : ; n 2 R mit
(man beachte auch die Dimensionsformel):
v D 1 b1 C    C r br C rC1 brC1 C    C n bn :
„ ƒ‚ … „ ƒ‚ …
DWu2U
Folgerung Ist U ein Untervektorraum eines endlichdimen-
DWu0 2U ?
9 sionalen euklidischen Vektorraums V , so lässt sich jedes
Damit haben wir V D U CU ? bewiesen. Wegen U \U ? D v 2 V eindeutig in der Form
f0g ist diese Summe direkt, d. h., V D U ˚ U ? . 
v D u C u0
i Die Voraussetzung dim V 2 N in (c) ist notwendig, es
gibt nämlich Beispiele unendlichdimensionaler euklidi- mit u 2 U und u0 2 U ? schreiben. Und im Fall dim V D
scher Vektorräume V mit einem Untervektorraum U und n 2 N gilt:
U C U ? ¨ V , beachte das folgende Beispiel. In die-
dim U ? D dim V  dim U :
sem Fall ist das orthogonale Komplement U also kein zu
U komplementärer Untervektorraum – ein orthogonales
?Selbstfrage 9.8
Komplement ist also nicht notwendig ein Komplement.
Zeigen Sie die Eindeutigkeit der Darstellung v D u C u0
Beispiel Es sei V der R-Vektorraum aller stückweise ste- mit u 2 U und u0 2 U ? direkt.
tigen, beschränkten Funktionen auf dem abgeschlossenen
Intervall Œ0; 1, die an der Stelle 0 stetig sind und an den Ist V die direkte Summe von zueinander orthogonalen Un-
jeweiligen rechten Ränder linksstetig sind (. Abb. 9.11). tervektorräumen U1 ; : : : ; Ur , d. h.
Als Skalarprodukt wählen wir wie gewöhnlich auf sol-
V D U1 ˚    ˚ Ur mit Ui ? Uj für i ¤ j ;
chen Vektorräumen
Z1 so nennt man V auch die orthogonale Summe von
hf; gi D f .t/ g.t/ dt für f; g 2 V : U1 ; : : : ; Ur und schreibt dafür:
0 V D U1 
?  
? Ur :

y Beispiel Im R2 gilt bezüglich des kanonischen Skalarpro-


dukts f0g? D R2 und .R2 /? D f0g sowie:
  ?  
1 1
D :
1 1

Im R3 gilt bezüglich des kanonischen Skalarprodukts:


*011+? *0 1 1 0 0 1+
0 1 x @1A D @1A ; @ 1 A
1 0 1
. Abb. 9.11 Die Funktionswerte an den rechten Rändern sind nicht be-
liebig (. Abb. 9.12). 9
9.3  Orthonormalbasen und orthogonale Komplemente
327 9
x2
v

u0 D v u U

u
b2

b1 x1

. Abb. 9.13 Der Punkt u entsteht aus dem Punkt v, indem man das Lot
von v aus auf die Gerade U fällt. Der Vektor u0 D v  u steht senkrecht
auf U

. Abb. 9.12 Der Untervektorraum U und sein orthogonales Komple- Für den Endomorphismus von V gilt offenbar 2 D ,
ment U ? d. h., dass eine Projektion ist (vgl. Aufgabe 9.17).

Beweis Der erste Teil dieser Aussage folgt aus obiger Fol-
Den minimalen Abstand eines Punkts
gerung. Für den zweiten Teil beachte man, dass für jedes
zu einem Untervektorraum erhält w 2 U gilt .v  u/  .u  w/ D 0, da nämlich v  u senk-
man durch Projektion des Punkts recht auf u  w steht. Damit erhalten wir die folgende, für
auf den Untervektorraum alle w 2 U gültige Abschätzung:

Wir betrachten die Situation des letzten Beispiels erneut kv  wk D k.v  u/ C .u  w/k
p
im R2 für einen eindimensionalen Untervektorraum U D .v  u/2 C 2 .v  u/  .u  w/ C .u  w/2
(. Abb. 9.13). p
D .v  u/2 C .u  w/2
Anschaulich ist klar, dass der kürzeste Abstand von v p
zu der Geraden U genau jener Abstand von v zu dem Fuß-  .v  u/2
punkt u ist, d. h.: D kv  uk : 

ku0 k D kv  uk  kv   b1 k für alle  2 R : Die . Abb. 9.14 illustriert diesen minimalen Abstand im
R3 mit dem kanonischen Skalarprodukt.
Der Vektor u entsteht dabei durch Projektion von v auf den Der Projektionssatz sagt uns zwar, dass es einen Vek-
Untervektorraum U . Wir zeigen nun, dass dies allgemeiner tor w 2 U gibt, sodass kv  wk minimal ist, aber er macht
möglich ist (vgl. auch die Ausführungen in 7 Abschn. 5.4). keine allgemeingültige Aussage dazu, wie man dieses w be-
stimmt (beachten Sie aber auch Aufgabe 9.21). Im Rn mit

Projektionssatz
U?
Ist U ein Untervektorraum eines endlichdimensionalen
v
euklidischen Vektorraums V , so gibt es zu jedem v 2 V
u0
genau ein u 2 U mit v  u ? U . Die hierdurch definierte
Abbildung
(
V ! U;
W
v 7! u

u
ist linear, sie heißt orthogonale Projektion oder Normal-
projektion von V auf U .
Für den Vektor u0 D v  u 2 U ? gilt: U

ku0 k  kv  wk für alle w 2 U :

Der minimale Abstand von v zu U ist die Länge des Vek-


tors u0 . . Abb. 9.14 Der Vektor u0 D v  u steht senkrecht auf U , seine Länge
ist der minimale Abstand von v zu U
328 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

dem kanonischen Skalarprodukt  finden wir w durch Lö- Kommentar Die Matrix A > A ist im Allgemeinen nicht in-
sen eines linearen Gleichungssystems – w ist eine Lösung vertierbar. Also ist es im Allgemeinen nicht möglich, die
der sogenannten Normalgleichung. Dazu zeigen wir vorab Normalgleichung nach dem Vektor v durch Berechnen von
etwas allgemeiner: .A > A/1 aufzulösen.

Wir kehren nun zu der Situation des Projektionssatzes zu-


Das lineare Ausgleichsproblem rück im Fall V D Rn und U D hb1 ; : : : ; br i D 'A .Rr / D
Es seien A 2 Rn r , n  r und v 2 Rn . Ein Vektor x 2 Rr fA x j x 2 Rr g  V , wobei A D .b1 ; : : : ; br /. Zu v 2 Rn
ist genau dann eine Lösung des linearen Ausgleichspro- erhalten wir die orthogonale Projektion .v/ D u D A x
blems durch Lösen der Normalgleichung

kv  A xk D min
A> A x D A> v :

Bilden b1 ; : : : ; br eine Basis von U , so ist die Lösung ein-


wenn x eine Lösung der Normalgleichung
deutig bestimmt.
A> A x D A> v
0 1Wir suchen den minimalen Abstand des Punktes
Beispiel
1
ist. Die Lösung x ist genau dann eindeutig bestimmt, @
v D 2A zu der Ebene
wenn der Rang von A maximal, d. h. gleich r ist.
3
9 0 1 0 1+
* 1 1
Beweis Wir wenden den Projektionssatz an. Dazu setzen U D b 1 D @0 A ; b 2 D @1 A :
wir V D Rn mit dem kanonischen Skalarprodukt  und 1 1
U D 'A .Rr / D fA x j x 2 Rr g D hs1 ; : : : ; sr i  V
mit den Spalten s1 ; : : : ; sr von A. Wir bilden die Matrix A, deren Spalten die Basisvektoren
Nach dem Projektionssatz ist ein Element A x 2 Rn mit b1 ; b2 von U sind und erhalten dann den Koordinatenvektor
x 2 Rr genau dann eine Lösung von kv  A xk D min, von u bezüglich der Basis B D .b1 ; b2 / durch Lösen der
wenn v  A x ? U , d. h., A x ist die senkrechte Projektion Normalgleichung
von v auf U . Nun gilt:
A> A x D A> v :
vAx ? U
Das Gleichungssystem lautet:
, v  A x ? si für alle i D 1; : : : ; r
   
, si  .v  A x/ D 0 für alle i D 1; : : : ; r 2 2 4
xD :
, s>
i .v  A x/ D 0 für alle i D 1; : : : ; r 2 3 6
>
, A .v  A x/ D 0  
0
>
, A Ax D A v: > Die eindeutig bestimmte Lösung besagt, dass die
2
senkrechte
0 1 Projektion von v auf U der Vektor u D 0 b1 C
Damit ist gezeigt, dass die Lösungsmengen des linearen 2
Ausgleichsproblem und der Normalgleichung übereinstim- 2 b2 D @2A ist.
men. Es bleibt zu zeigen, dass die Lösungsmenge genau 2
dann einelementig ist, wenn A den Rang r hat. Das be- So erhalten wir für den minimalen Abstand von v zu U
gründen wir, indem wir zeigen, dass A > A genau dann  0 1 0 1
invertierbar ist, wenn A den Rang r hat. Es gilt:  1 2 
  p
kv  uk D  
@2A  @2A D 2 : 9

A > A ist invertierbar  3 2 
, A > A w D 0 nur für w D 0
, w A > A w D 0 nur für w D 0
, .A w/  .A w/ D 0 nur für w D 0 Symmetrische Bilinearformen kann man
, A w D 0 nur für w D 0 über beliebigen Körpern erklären
, A hat Rang r.
Wir haben das (euklidische) Skalarprodukt  eines R-Vek-
Damit ist alles gezeigt.  torraums V definiert als eine positiv definite, symmetrische
9.3  Orthonormalbasen und orthogonale Komplemente
329 9

Beispiel: Methode der kleinsten Quadrate

Eine Messung liefert zu den n verschiedenen Zeitpunkten Dies lässt sich mithilfe der reellen n r-Matrix
t1 ; : : : ; tn die jeweiligen Messwerte y1 ; : : : ; yn . Gesucht ist 0 1 0 1
f1 .t1 /    fr .t1 / y1
eine Funktion f 2 RR , welche die gegebenen Messwer- B : : C B:C
te an den Stellen t1 ; : : : ; tn möglichst gut annähert, wobei ADB
@ :
: :: C und v D B :: C
A @ A
wir hier als Maß für gute 0 Annäherung 1 die Minimalität der f1 .tn /    fr .tn / yn
f .t1 /  y1
B :: C auch ausdrücken als: Gesucht ist ein x 2 Rr mit der Ei-
Größe k k mit D B@ :
C ansetzen. Es ist dann
A genschaft, dass kv  A xk minimal ist. Nach dem Satz zum
f .tn /  yn linearen Ausgleichsproblem erhalten wir x als Lösung der
k k2 D .f .t1 /  y1 /2 C    .f .tn /  yn /2 die Summe der Normalgleichung:
Quadrate der Fehler, die dabei gemacht werden.
A> A x D A> v :
Die Minimalität dieser Summe besagt, dass die senk-
rechten Abstände der Funktion f an den Stellen ti zu den Betrachten wir ein Beispiel. Eine Messreihe liefert
vorgegeben Messwerten yi minimal ist. Das kann als beste
.t1 ; y1 / D .1; 1/ ; .t2 ; y2 / D .0; 1/ ;
Annäherung betrachtet werden.
.t3 ; y3 / D .1; 2/ ; .t4 ; y4 / D .2; 2/ :

f
2

1
Problemanalyse und Strategie
Wir benutzen die Lösung des linearen Ausgleichsproblems
2 1 0 1 2
durch die Normalgleichung. Dabei wählen wir Basisfunk-
tionen, die einen Untervektorraum U des Vektorraums aller
Aufgrund der Verteilung der Punkte suchen wir nach einer
Funktionen erzeugen und bestimmen eine Funktion f aus U ,
Ausgleichsgeraden f W R ! R, f .x/ D a C b x, d. h., wir
deren Graph einen im oben erwähnten Sinne minimalen Ab-
geben uns die Basisfunktionen f1 W R ! R, f .x/ D 1 und
stand zu den gegebenen Punkten .t1 ; y1 /; : : : ; .tn ; yn / hat.
f2 W R ! R, f .x/ D x vor.
Als Matrix A 2 R4 2 und Vektor v 2 R4 erhalten wir
Lösung
somit:
Um eine solche beste Annäherung zu erhalten, trägt man zu- 0 1 0 1
erst die Messpunkte .t1 ; y1 /; : : : ; .tn ; yn / in ein Koordinaten- 1 1 1
B1 0 C B1C
system ein und überlegt sich, welche Funktionen f1 ; : : : ; fr B C B C
ADB C und B C :
als Basisfunktionen in Betracht zu ziehen sind. Bei der ersten @1 1 A @2A
Punkteverteilung in der folgenden Skizze 1 2 2

Nun berechnen wir A > v und A > A:


0 1
! 1 !
>
1 1 1 1 B B1C
C 6
A vD B CD :
1 0 1 2 @2A 5
2
wird man sich auf Geraden, also bei den Basisfunktionen 0 1
auf f1 D 1 und f2 D X konzentrieren, bei der zweiten ! 1 1 !
Punkteverteilung auf Parabeln und schließlich bei der dritten 1 1 1 1 B B1 0 C
C 4 2
A> A D B CD
Punkteverteilung dieser Skizze auf Sinus- und Exponential- 1 0 1 2 @1 1 A 2 6
funktionen. 1 2
Hat man den Satz f1 ; : : : ; fr von Funktionen gewählt, so
Zu lösen bleibt nun das System
sind 1 ; : : : ; r 2 R gesucht, sodass die Funktion
! ! !
4 2 x1 6
f D 1 f1 C    C r fr D :
2 6 x2 5
die Größe Damit erhalten wir als die beste lineare Annäherung die Gera-
de
.f .t1 /  y1 /2 C    C .f .tn /  yn /2
13 2
f W R ! R ; f .x/ D C x:
minimiert. 10 5
330 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Bilinearform,  W V V ! R. Für die positive Defi- eine symmetrische Bilinearform auf V . Da


nitheit ist die Eigenschaft von R nötig, dass man die von !
null verschiedenen Elemente von R in positive und nega- 1
? v für alle v 2 V ;
tive Elemente unterscheiden kann. Verzichtet man auf die 1
positive Definitheit, so kann man für jeden Körper K ei-
ne symmetrische Bilinearform  in einem K-Vektorraum
enthält der Untervektorraum Rad.V ˝ / von ˛ V den ein-
dimensionalen Untervektorraum .1; 1/> , d. h., dass V
V erklären, also eine symmetrische, bilineare Abbildung
 W V V ! K. bezüglich  ausgeartet ist. Da aber .1; 0/> nicht isotrop
Durch das Fehlen der positiven Definitheit haben diese ist, ist das Radikal nicht zweidimensional, wir erhalten
* !+
Verallgemeinerungen von Skalarprodukten Eigenschaften, 1
deren geometrische Deutungen etwas seltsam wirken. Rad.V / D :
1
Ist V ein K-Vektorraum mit einer symmetrischen Bili-
nearform , so definiert man (wie beim euklidischen Skalar- Das Radikal besteht in diesem Beispiel genau aus den
produkt): isotropen Vektoren. 9
4 v heißt senkrecht bzw. orthogonal zu w, v ? w, für
zwei Vektoren v; w 2 V , falls v  w D 0 gilt.
4 Man nennt v 2 V isotrop, falls v ? v gilt.
9.4 Unitäre Vektorräume
4 U ? D fv 2 V j v ? u für alle u 2 U g nennt man den
Orthogonalraum zu U für jeden Untervektorraum U Euklidische Vektorräume sind reelle Vektorräume mit ei-
von V . nem euklidischen Skalarprodukt. Wir werden nun analog
9 4 Rad.V / D V \ V ? ist das Radikal von V . unitäre Vektorräume betrachten. Das sind komplexe Vek-
4 Man nennt  ausgeartet, falls Rad.V / ¤ f0g. torräume mit einem sogenannten unitären Skalarprodukt.
Die Theorie ist nahezu identisch. Vielfach werden eukli-
Die Vektoren im Radikal sind allesamt isotrop, sie stehen dische und unitäre Vektorräume sogar parallel eingeführt.
nämlich auf allen Vektoren aus V , also insbesondere auch Jede Eigenschaft, die man bei dieser parallelen Einführung
auf sich selbst, senkrecht. Ist K D R und  sogar positiv formuliert, ist dann in zwei Versionen zu interpretieren:
definit, d. h. ein euklidisches Skalarprodukt, so gilt: Einmal für den reellen Fall, ein zweites Mal für den kom-
plexen Fall. Um die Theorie übersichtlicher und klarer zu
Rad.V / D f0g ;
gestalten, wählten wir einen anderen Weg. Wir schließen
vorläufig die Theorie der euklidischen Vektorräume ab und
da V ? D f0g. Außerdem ist nur der Nullvektor in diesem
führen nun in einem eigenen Abschnitt die unitären Vektor-
Fall isotrop. Es folgen nun Beispiele von Vektorräumen
räume ein.
mit symmetrischen Bilinearformen, die keine euklidischen
Skalarprodukte sind.
In komplexen Vektorräumen
Beispiel
gibt es keine symmetrischen,
4 Es ist
8 positiv definiten Bilinearformen
<  R  R2 ! R;
2

W v1 w1
: ; 7! v1 w1  v2 w2 An ein euklidisches Skalarprodukt eines reellen Vektor-
v2 w2
raums stellten wir die drei Forderungen der
eine symmetrische Bilinearform auf dem R2 . Wegen 4 (Bi-)linearität,
4 Symmetrie und
   
1 1 4 positiven Definitheit.
 D1111D0
1 1
Die positive Definitheit war es letztlich, die es ermöglichte,
steht der Vektor .1; 1/ auf sich selbst senkrecht, sodass Normen von Vektoren und damit Abstände, Winkel und Or-
>

.1; 1/> isotrop ist. Der Vektorraum R2 ist aber bezüg- thogonalität zwischen Vektoren zu erklären. Würde man in
lich  nicht ausgeartet, da es zu jedem Vektor v 2 R2 , komplexen Vektorräumen nun ebenso vorgehen, um solche
der vom Nullvektor verschieden ist, einen Vektor w 2 Begriffe einführen zu können, so stößt man auf ein Prob-
R2 gibt mit v  w ¤ 0. lem.
4 Es sei V der Z2 -Vektorraum Z2 . Es ist
2 So ist zwar das Produkt für Vektoren
0 1 0 1
8 v1 w1
<  V  V ! Z2 ; B :: C B :: C
v D @ : A ; w D @ : A 2 Cn ;
W v1 w1
: ; 7! v1 .w1 C w2 / C v2 .w1 C w2 / vn wn
v 2 w 2
9.4  Unitäre Vektorräume
331 9
das wir analog zum kanonischen Produkt im Rn definieren, und
     
Xn 1Ci 1Ci 1i
v  w D v> w D vi wi 2 C ;  D .1 C i; 0/ D 2 2 R0 :
0 0 0
i D1
Allgemeiner besagt die Eigenschaft hermitesch im Fall
bilinear und symmetrisch, aber nicht positiv definit, da etwa v D w:
   
i i v v D v v;
 D i2 D 1 … R0 :
0 0
d. h., v  v 2 R.
Es kann auch sein, dass die Größe v> v gar keine reelle Zahl Die Eigenschaft hermitesch hat aber Auswirkungen auf
ist: die Linearität im zweiten Argument. Wir werden das gleich
    sehen.
1Ci 1Ci
 D .1 C i/ D 2 i … R :
2
0 0
Ein unitäres Skalarprodukt ist eine positiv
Also kann es im C n keine symmetrischen, positiv definiten definite, hermitesche Sesquilinearform
Bilinearformen geben.
eines komplexen Vektorraums
? Selbstfrage 9.9
Nennen Sie für jede natürliche Zahl n einen Vektor Für die folgende Definition vergleiche man jene des eukli-
v 2 C n mit v> v < 0. dischen Skalarprodukts und des euklidischen Vektorraums.
Wir müssen unsere Forderungen ändern. Um weiterhin
Normen, Winkel und Abstände betrachten zu können, ver-
Unitäres Skalarprodukt und unitärer Vektorraum
abschieden wir uns von der Symmetrie in dieser Form und
Ist V ein komplexer Vektorraum, so heißt eine Abbildung
damit dann auch von der Bilinearität.
Weil man positive reelle Zahlen erhält, wenn man kom- (
V V ! C;
plexe Zahlen mit ihrem konjugiert Komplexen multipli- W
.v; w/ 7! v  w
ziert, 0  jzj2 D z z, stellen wir an unitäre Skalarprodukte
eines komplexen Vektorraums V statt der Symmetrie die
ein unitäres Skalarprodukt, wenn für alle v; v0 ; w 2 V
Forderung
und  2 C die folgenden Eigenschaften erfüllt sind:
v  w D w  v für alle v; w 2 V : (i) .v C v0 /  w D v  w C v0  w und . v/  w D  .v  w/
(Linearität im ersten Argument),
Vertauscht man die Faktoren des Produkts, so kommt das (ii) v  w D w  v (hermitesch),
konjugiert Komplexe dabei heraus. Wir sagen, ein Produkt (iii) vv  0 und vv D 0 , v D 0 (positive Definitheit).
 W V V ! C ist hermitesch, wenn v  w D w  v für alle
v; w 2 V gilt. Ist  ein unitäres Skalarprodukt in V , so nennt man V einen
Für jede Matrix A D .aij / 2 C r s , also auch für jeden unitären Vektorraum.
Spaltenvektor, schreiben wir wieder A D .aij / und erwäh-
nen die bereits benutzte Regel
Wir stellen die Axiome (i), (ii) und (iii) für den euklidischen
Av D Av und den unitären Fall gegenüber:

für Vektoren v. Euklidisch Unitär


Wir erklären nun ein Produkt  von Vektoren des C 2 : 0 0
.v C v /  w D v  w C v  w .v C v0 /  w D v  w C v0  w
X
n
. v/  w D  .v  w/ . v/  w D  .v  w/
v  w D v> w D vi wi 2 C :
i D1
vw Dwv vw Dwv

vv  0 vv  0
Nun rechnen wir mit unseren obigen Beispielen, aber be-
züglich des neu erklärten Produkts  nach: vv D0 , v D0 vv D0 , v D0

     
i i i
 D .i; 0/ D i .i/ D 1 2 R0 Aus (ii) folgt wegen der Additivität und der Multiplika-
0 0 0 tivität des Konjugierens die halbe Linearität im zweiten
332 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Argument, d. h., es gilt für alle v; w; w0 2 V und  2 C: 4 Wir definieren


 fürVektoren v; w 2 C 2 mittelsder Ma-
2 i
trix A D das Produkt
v  .w C w0 / D .w C w0 /  v D w  v C w0  v i 1
D v  w C v  w0 D v  w C v  w0 v  w D v> A w :
v  . w/ D . w/  v D  .w  v/
Die Linearität im ersten Argument begründet man wie
D  v  w D  .v  w/ : im reellen Fall.
Das Produkt ist hermitesch, da wegen
Eine Abbildung von V V nach C, die linear im ers-
ten Argument und im obigen Sinne halb linear im zweiten v> A w D .v> A w/> D w> A > v
Argument ist, nennt man auch eine Sesquilinearform, al- (Transponieren einer komplexen Zahl ändert diese Zahl
so eine eineinhalbfache Linearform. Damit ist ein unitäres nicht) und wegen A > D A gilt:
Skalarprodukt eine hermitesche, positiv definite Sesquili-
nearform. v  w D v> A w D w> A > v
D w> A v D w> A v D w  v :
i In einem unitären Vektorraum V gilt für alle v; w 2 V
und  2 C: Schließlich
  ist das Produkt positiv definit, da für v D
v1
2 C 2 gilt:
. v/  w D  .v  w/ und v  . w/ D  .v  w/ : v2  
v1
9 >
v  v D v A v D .2 v1  i v2 ; i v1 C v2 /
v2
Auch im unitären Vektorraum V gilt für alle v 2 V :
D 2 v1 v 1  i v2 v 1 C i v1 v 2 C v2 v 2
v0 D 0 D 0v; D jv1 j2 C jv1 C i v2 j2  0 ;

wenngleich das unitäre Skalarprodukt nicht kommutativ, und Gleichheit gilt hierbei genau dann, wenn v D 0 ist.
d. h. nicht symmetrisch ist. 4 Wir erklären ein Produkt h ; i im Vektorraum aller auf
dem abgeschlossenen Intervall Œa; b für reelle Zahlen
Beispiel a < b stetigen komplexwertigen Funktionen, also im
4 Für jede natürliche Zahl n ist im komplexen Vektorraum komplexen Vektorraum
C das Produkt
n
C D ff W Œa; b ! C j f ist stetig g :
v  w D v> w Dabei multiplizieren wir zwei Funktionen f und g aus
C folgendermaßen:
ein unitäres Skalarprodukt. Dieses Skalarprodukt nen-
nen wir das kanonische (unitäre) Skalarprodukt. Zb
Die Linearität im ersten Argument ist unmittelbar klar. hf; gi D f .t/ g.t/ dt :
0 1 0 1
v1 w1 a
B :: C B :: C
Sind v D @ : A und w D @ : A, so gilt: Weil stetige Funktionen integrierbar sind, ist dieses Pro-
vn wn dukt auch definiert. Der Nachweis, dass  ein unitäres
Skalarprodukt ist, erfolgt analog zum reellen Fall. 9
v  w D v> w Das zweite Beispiel mit der Matrix A lässt sich wesentlich
Xn X
n
verallgemeinern. Ist n eine natürliche Zahl, so ist für jede
D vi w i D w i vi Matrix A 2 C n n das Produkt
i D0 i D0

X
n v  w D v> A w für alle v; w 2 C n
D wi v i D w  v :
i D0
linear im ersten Argument. Und erfüllt die Matrix A die
Eigenschaft A > D A, so ist das Produkt  auch hermitesch.
Also ist das Produkt auch hermitesch. Und die positive Daher ist die folgende Definition nur naheliegend.
Definitheit des Produkts folgt aus

v  v D v> v D jv1 j2 C    C jvn j2  0 ; Hermitesche Matrizen


>
Eine Matrix A 2 C n n
mit A > D A, d. h., A D A,
wobei die Gleichheit genau dann gilt, wenn alle vi heißt hermitesch.
gleich null sind, d. h., wenn v D 0.
9.5  Orthogonale und unitäre Endomorphismen
333 9
Die Diagonaleinträge ai i einer hermiteschen Matrix A D Nun lassen sich alle Überlegungen aus dem Abschnitt
.aij / 2 C n n müssen wegen zu den euklidischen Vektorräume für unitäre Vektorräume
0 1 0 1 wiederholen. Wir stellen alle wesentlichen Begriffe und Ei-
a11    a1n a11    an1 genschaften in einer Übersicht zusammen.
B : :: C B :: :: C >
A D @ :: D
: A @ : : A D A
Kommentar In vielen Lehrbüchern findet man auch die
an1    ann a1n    ann >
Schreibweise A H D A . Und Physiker schreiben in der
>
reell sein. Die hermiteschen Matrizen übernehmen im Quantentheorie oft auch A  für A .
Komplexen die Rolle der symmetrischen Matrizen im Re-
ellen. Wir untersuchen nun lineare Abbildungen in euklidischen
und unitären Vektorräumen. Dabei behandeln wir diese Vek-
torräume nicht wie bisher getrennt, sondern gleichzeitig.
Positiv definite Matrizen definieren unitäre
Skalarprodukte
9.5 Orthogonale und unitäre
Endomorphismen
Jede hermitesche Matrix A liefert mit der Definition

v  w D v> A w für alle v; w 2 C n In diesem und im folgenden Abschnitt steht das Symbol K
für einen der Körper R oder C. Wir sprechen allgemein von
eine hermitesche Sesquilinearform. Aber das Produkt ist einem Skalarprodukt, meinen damit stets ein euklidisches
nicht für jede hermitesche Matrix A positiv definit, man Skalarprodukt, falls K D R und ein unitäres Skalarprodukt,
wähle etwa die Nullmatrix, diese ist hermitesch, das Pro- falls K D C gilt.
dukt aber in diesem Fall sicher nicht positiv definit.
Wir nennen eine hermitesche n n-Matrix A positiv
definitindexDefinitheit, wenn für alle v 2 C n Orthogonale und unitäre Endomorphismen
v> A v  0 und v> A v D 0 , v D 0
erhalten Längen und Winkel

gilt – man beachte v> A v 2 R. Jede positiv definite Matrix Wir haben eine Abbildung ' eines K-Vektorraums V in
liefert somit durch die Definition einen K-Vektorraum W linear genannt, wenn sie den Ver-
v  w D v> A w knüpfungen der Vektorräume Rechnung trägt, d. h., wenn
für alle v; w 2 V und  2 K gilt:
ein unitäres Skalarprodukt. Man beachte, dass positiv defi- 4 '.v C w/ D '.v/ C '.w/ (Additivität),
nite Matrizen insbesondere hermitesch sind. 4 '. v/ D  '.v/ (Homogenität).

Ist V gleich W , d. h., ist ' eine lineare Abbildung von V


Vektoren in unitären Vektorräumen haben in V , so nannten wir ' auch einen Endomorphismus.
eine Norm Bei euklidischen bzw. unitären Vektorräumen haben wir
die weitere Verknüpfung  des euklidischen bzw. unitären
Skalarprodukts. Trägt ein Endomorphismus ' auch dieser
Unitäre Vektorräume entziehen sich, vom eindimensiona- Verknüpfung des Skalarprodukts im folgenden Sinne Rech-
len Fall abgesehen, der Anschauung. Aber auch in diesen nung, so wollen wir einen solchen Endomorphismus einen
Räumen kann man Begriffe wie Norm und Winkel einfüh- orthogonalen bzw. unitären Endomorphismus nennen, je
ren. Dazu gehen wir völlig analog zum reellen Fall vor, das nachdem, ob ein euklidischer oder unitärer Vektorraum vor-
können wir wegen der positiven Definitheit des unitären liegt.
Skalarprodukts.

Orthogonale und unitäre Endomorphismen


Die Norm von Vektoren Einen Endomorphismus ' eines euklidischen bzw. unitä-
Ist v ein Element eines unitären Vektorraums mit dem ren Vektorraums V mit Skalarprodukt  mit der Eigen-
unitären Skalarprodukt , so nennt man die nichtnegative schaft
reelle Zahl
v  w D '.v/  '.w/ für alle v; w 2 V
p
kvk D v  v nennt man im euklidischen Fall, d. h., K D R, einen or-
thogonalen Endomorphismus und im unitären Fall, d. h.,
die Norm oder Länge des Vektors v. K D C, einen unitären Endomorphismus.
334 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Übersicht: Eigenschaften und Begriffe euklidischer bzw. unitärer Vektorräume

Wir betrachten ein euklidisches bzw. unitäres Skalarprodukt  4 Eine Basis B von V heißt Orthogonalbasis, wenn je zwei
eines euklidischen bzw. unitären Vektorraums V . verschiedene Basisvektoren aus B senkrecht aufeinander
stehen.
4 Für alle Elemente v und w aus V gilt die Cauchy- Eine Orthogonalbasis heißt Orthonormalbasis, wenn je-
Schwarz’sche Ungleichung der Basisvektor die Länge 1 hat.
4 Ist fa1 ; : : : ; an g eine Basis von V , so ist fb1 ; : : : ; bn g mit
jv  wj  kvk kwk :
b1 D ka1 k1  a1 ; bkC1 D kc kC1 k1  c kC1 ;
Die Gleichheit gilt hier genau dann, wenn v und w linear
abhängig sind. P
k
wobei c kC1 D akC1  bi .bi akC1 / für k D 1; : : : ; n1,
4 Die Abbildung iD1
eine Orthonormalbasis von V , diese Konstruktion einer
(
V ! R0 ; Orthonormalbasis aus einer Basis nennt man das Ortho-
kkW p normalisierungsverfahren von Gram und Schmidt.
v 7! kvk D v  v
4 Jeder höchstens abzählbardimensionale euklidische bzw.
unitäre Vektorraum besitzt eine Orthogonalbasis.
ist eine Norm, insbesondere gilt für alle v; w 2 V die
4 Für jeden Untervektorraum U von V ist die Menge
Dreiecksungleichung

9 U ? D fv 2 V j v ? w für alle w 2 U g
kv C wk  kvk C kwk :
wieder ein Untervektorraum von V , das orthogonale
4 Sind v und w zwei Elemente aus V , so nennen wir die Komplement von U in V .
reelle Zahl 4 Ist U ein Untervektorraum von V , so gibt es zu jedem
v 2 V genau ein u 2 U mit v  u ? U . Die hierdurch
d.v; w/ D kv  wk D kw  vk definierte Abbildung
(
den Abstand oder die Distanz von v zu w. V ! U;
4 Sind v und w Elemente aus V , so sagt man, v steht senk- pW
v 7! u
recht auf w oder ist orthogonal zu w, wenn
heißt orthogonale Projektion von V auf U .
vwD0 Und für den Vektor u0 D v  u 2 U ? gilt:

gilt. Für diesen Sachverhalt schreiben wir auch ku0 k  kv  wk für alle w 2 U :

v ? w: Es hat u minimalen Abstand zu v.

Wir haben die Länge eines Vektors v eines euklidischen k'.v C w/k2 auf zwei verschiedene Arten:
oder unitären Vektorraums V definiert als
k'.v C w/k2 D kv C wk2 D .v C w/  .v C w/
p
kvk D v  v : D kvk2 C kwk2 C v  w C w v
D kvk2 C kwk2 C 2 .v  w/
Ist ' ein orthogonaler oder unitärer Endomorphismus, so
gilt für jedes v 2 V : und

p p k'.v C w/k2 D k'.v/ C '.w/k2 k


kvk D vv D '.v/  '.v/ D k'.v/k :
D .'.v/ C '.w//  .'.v/ C '.w//
D k'.v/k2 C k'.w/k2
Nun gelte k'.v/k D kvk für alle v eines euklidischen oder
unitären Vektorraums V . Wir behandeln zuerst den Fall ei- C '.v/  '.w/ C '.w/  '.v/
nes euklidischen Vektorraums, d. h. K D R. Wir berechnen D k'.v/k2 C k'.w/k2 C 2 .'.v/  '.w// :
9.5  Orthogonale und unitäre Endomorphismen
335 9
Setzt man die zwei Ergebnisse gleich, so erhält man wegen Sind v und w nicht der Nullvektor, so gilt für den
k'.v/k D kvk und k'.w/k D kwk nach Kürzen der 2 Winkel ˛ zwischen v und w und einen orthogonalen En-
schließlich domorphismus ':

v  w D '.v/  '.w/ für alle v; w 2 V : vw '.v/  '.w/


cos ˛ D D ;
kvk kwk k'.v/k k'.w/k
Nun zum Fall eines unitären Vektorraums, d. h. K D C.
Die gleiche Rechnung wie oben liefert in diesem Fall also gilt:

†.v; w/ D †.'.v/; '.w// :


k'.v C w/k2 D kvk2 C kwk2 C v  w C v  w
Und weil zwei Vektoren genau dann senkrecht aufeinander
und
stehen, wenn ihr Skalarprodukt Null ist, erhalten wir aus
v  w D '.v/  '.w/ für einen orthogonalen bzw. unitären
k'.v C w/k2 D k'.v/k2 C k'.w/k2
Enomorphismus ':
C '.v/  '.w/ C '.v/  '.w/ :
Folgerung Orthogonale bzw. unitäre Endomorphismen bil-
Setzt man die zwei Ergebnisse gleich, so erhält man den orthogonale Vektoren auf orthogonale Vektoren ab.
schließlich
Beispiel Zu einem ˛ 2 Œ0; 2 Œ betrachten wir die Matrizen
Re.v  w/ D Re.'.v/  '.w// für alle v; w 2 V :
   
cos ˛ sin ˛; cos ˛  sin ˛;
Die analoge Berechnung von k'.iv C w/k auf diese zwei
2 S˛ D und D ˛ D :
sin ˛  cos ˛ sin ˛ cos ˛
Arten liefert schließlich
Die Abbildungen
Im.v  w/ D Im.'.v/  '.w// für alle v; w 2 V :  2  2
R ! R2 R ! R2
˛ W und ı˛ W
Somit gilt auch im unitären Fall v 7! S ˛ v v!7 D˛ v

v  w D '.v/  '.w/ für alle v; w 2 V : sind orthogonale Endomorphismen bezüglich des kanoni-
schen euklidischen Skalarprodukts des R2 .
Wir haben damit begründet: Dass die Abbildungen ˛ und ı˛ Endomorphismen sind,
ist klar. Wir müssen nur nachweisen, dass beide Abbildun-
gen längenerhaltend sind, dass also:
Orthogonale bzw. unitäre Endomorphismen sind
längenerhaltend k˛ .v/k D kvk und kı˛ .v/k D kvk
Ein Endomorphismus ' eines euklidischen bzw. unitären
für jedes v 2 R2 gilt.
Vektorraums V ist genau dann orthogonal bzw. unitär,
Wegen
wenn für alle v 2 V gilt:
  
cos ˛ sin ˛ cos ˛ sin ˛
kvk D k'.v/k : S> S D D E2
˛ ˛ sin ˛  cos ˛ sin ˛  cos ˛

und
Wegen dieser längenerhaltenden Eigenschaften eines ortho-   
> cos ˛ sin ˛ cos ˛  sin ˛
gonalen bzw. unitären Endomorphismus nennt man eine D˛ D˛ D D E2
 sin ˛ cos ˛ sin ˛ cos ˛
solche Abbildung auch Isometrie.
Weil nur der Nullvektor die Länge 0 hat und eine lineare gilt für jedes v 2 R2 :
Abbildung genau dann injektiv ist, wenn ihr Kern nur aus
p p
dem Nullvektor besteht, können wir folgern: k˛ .v/k D .S ˛ v/  .S ˛ v/ D .S ˛ v/> .S ˛ v/
q p
Folgerung Jeder orthogonale bzw. unitäre Endomorphis- D v> S > ˛ S˛ v D v> v D kvk I
mus ' ist injektiv, und ist V endlichdimensional, so ist '
sogar bijektiv. und entsprechend für die Abbildung ı˛ :
p q
Orthogonale Endomorphismen sind nicht nur längenerhal- kı˛ .v/k D .D ˛ v/  .D ˛ v/ D v> D > ˛ D˛ v
tend, sie erhalten auch Winkel zwischen vom Nullvektor p
verschiedenen Vektoren. D v> v D kvk :
336 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

der Orthonormalbasis sind:

A > A D En ;
˛ .a/
9 da die i-te Zeile von A > der Basisvektor bi und die j -te
=
sin ˛=2 Spalte der Basisvektor bj ist, und somit gilt:
;
˛ .b/

˛=2
ƒ‚ … 
1 ; falls i D j;
cos ˛=2 bi  bj D
0 falls i ¤ j:
a
b Wegen A > A D En ist A > das Inverse zu A, d. h.,
> >
A D A 1 ; und somit gilt auch A A D En ;
. Abb. 9.15 Die Spiegelung ˛ ist längenerhaltend
was wiederum besagt, dass die Zeilenvektoren von A paar-
x2 weise orthogonal zueinander sind und die Länge 1 haben,
ı˛ .a/ also auch eine Orthonormalbasis des Kn bezüglich des ka-
nonischen Skalarprodukts bilden.
Hat umgekehrt eine Matrix A 2 Kn n die Eigenschaft
> >
a A A D En , so gilt wie eben auch A A D En , also
b
˛ bilden sowohl die Spalten als auch die Zeilen von A eine
9 ˛ Orthonormalbasis des Kn bezüglich des kanonischen Ska-
x1
larprodukts.
Matrizen mit dieser Eigenschaft bekommen einen eige-
nen Namen.

ı˛ .b/
Orthogonale und unitäre Matrizen
. Abb. 9.16 Die Drehung ı˛ ist längenerhaltend
Eine reelle bzw. komplexe n n-Matrix mit der Eigen-
schaft
Die Abbildung
 ˛ beschreibt die Spiegelung an der Gera-
>
cos ˛=2 A A D En
den R (. Abb. 9.15).
sin ˛=2
Die Abildung ı˛ ist die Drehung um den Winkel ˛ ge- heißt orthogonale bzw. unitäre Matrix.
gen den Uhrzeigersinn (. Abb. 9.16). Die Zeilen und Spalten einer orthogonalen bzw. unitä-
Drehungen und Spiegelungen im R2 sind orthogonale ren n n-Matrix bilden Orthonormalbasen des Rn bzw.
Endomorphismen. 9 Cn .
Die Determinante jeder orthogonalen bzw. unitären
Die Matrizen S ˛ und D ˛ aus dem vorangegangenen Matrix A 2 Kn n hat den Betrag 1,
Beispiel haben für jedes ˛ 20; 2  die Eigenschaft
j det Aj D 1 :
S> >
˛ S ˛ D E2 und D ˛ D ˛ D E2 ;

d. h., dass die Spalten von S ˛ und D ˛ Orthonormalbasen


des R2 sind. Beweis Wir bestimmen die Determinante einer orthogona-
len bzw. unitären Matrix A 2 Kn n :
Spalten und Zeilen von orthogonalen >
1 D det En D det A A
bzw. unitären Matrizen bilden (i) > (ii)
Orthonormalbasen D det A det A D det A det A
(iii)
D det A det A D j det Aj :
Ist B D fb1 ; : : : ; bn g eine Orthonormalbasis des K bezüg- Dabei haben wir bei (i) den Determinantenmultiplikati-
n

lich des kanonischen Skalarprodukts onssatz benutzt. Bei (ii) haben wir ausgenutzt, dass die
>
v  w D v w; Determinanten zueinander transponierter Matrizen gleich
sind Und zu (iii) beachte man die Leibniz’sche Formel,
so gilt offenbar für die Matrix A D .b1 ; : : : ; bn / 2 wonach die Determinante eine Summe von Produkten kom-
Kn n , deren Spalten gerade die Basisvektoren b1 ; : : : ; bn plexer Zahlen ist. 
9.5  Orthogonale und unitäre Endomorphismen
337 9

Beispiel: Spiegelungen im Rn sind diagonalisierbare orthogonale Endomorphismen

Wir betrachten im euklidischen Rn mit dem kanonischen Ska- Damit erhalten wir sehr einfach eine geordnete Orthonormal-
larprodukt  für einen Vektor w 2 Rn n f0g der Länge 1, d. h., basis des Rn bezüglich der w eine Diagonalgestalt hat: Wir
kwk D 1, die Abbildung wählen die geordnete Orthonormalbasis .w; b2 ; : : : ; bn /, wo-
( bei .b2 ; : : : ; bn / eine geordnete Orthonormalbasis des .n  1/-
Rn ! Rn ; dimensionalen Untervektorraums w? ist. Für die Darstel-
w W
v 7! v  2 .w  v/ w: lungsmatrix B M .w /B bezüglich dieser Basis B gilt:
0 1
Wir nennen w die Spiegelung entlang w. Wir begründen: 1 0  0
B0 1  0C
Jede Spiegelung w ist ein diagonalisierbarer orthogonaler B C
Endomorphismus. D D B M .w /B D B
B :: :: C
C
@ : : A
0  1
Problemanalyse und Strategie
Wir prüfen nach, dass w ein längenerhaltender Endomorphis- Also ist jede Spiegelung w im Rn diagonalisierbar, und
mus ist und konstruieren uns schließlich eine Basis bezüglich offenbar haben damit Spiegelungen und damit auch jede Dar-
der der Endomorphismus Diagonalgestalt hat. stellungsmatrix einer Spiegelung stets die Determinante 1.
Wir ermitteln noch die Darstellungsmatrix der Spiegelung
Lösung w bezüglich der geordneten Standardbasis En des Rn .
Weil für alle  2 R und u; v 2 Rn die Gleichung Für jedes v 2 Rn gilt:

w . u C v/ D  u C v  2 .w  . u C v// w w .v/ D v  2 .w  v/ w D v  2 .w> v/ w


„ ƒ‚ …
2R
D  w .u/ C w .v/
D v  2 w .w> v/ D v  2 .w w> / v
 
gilt, ist w ein Endomorphismus. D En  2 w w> v :
Nun zeigen wir, dass w längenerhaltend ist. Ist v 2 Rn ,
so gilt: Damit haben wir die Darstellungsmatrix der Spiegelung w
bezüglich der Standardbasis En ermittelt:
kv  2.w  v/wk2 D kvk2  4.w  v/.w  v/ C 4.w  v/2 kwk2
En M .w /En D En  2 w w> :
D kvk2 :
Mit der oben gewählten geordneten Orthonormalbasis B D
Im R2 stimmt dieser Begriff der Spiegelung mit dem uns be-
.w; b2 ; : : : ; bn / des Rn erhalten wir dann mit der transformie-
reits bekannten überein. Man muss sich nur klar machen, dass
renden Matrix S D .w; b2 ; : : : ; bn / wegen S > D S 1 :
das Spiegeln entlang w eben gerade das Spiegeln an der Ge-
raden senkrecht zu w bedeutet. D D S > .En  2 w w> / S :

x2 R3 1hat etwa die Spiegelung w entlang des Vektors w D


Im 0
1
1 B2C
14 @ A bezüglich der geordneten Standardbasis die Darstel-
3
lungsmatrix
0 1 0 1
x1 1 2 3 6 2 3
B C B C
E3  1=7 @2 4 6A D 1=7 @2 3 6A
w
3 6 9 3 6 2

Kommentar In manchen Büchern verlangt man nicht, dass


der Vektor w die Länge 1 hat, und betrachtet stattdessen für
Anstelle von entlang w sagt man auch an der Hyperebene einen beliebigen Vektor w ¤ 0 aus dem Rn die Abbildung
w? D hwi? ; dies ist ein .n  1/-dimensionaler Untervek- (
torraum des Rn , im Fall n D 2 also eine Gerade. Rn ! Rn
w W
Wir untersuchen solche Spiegelungen etwas näher. v 7! v  2 ww
wv
w
Offenbar erfüllt jede Spiegelung w die Eigenschaften:
4 w .w/ D w. und nennt sie Spiegelung. Diese Abbildung wirkt kompli-
4 Aus v ? w folgt w .v/ D v. zierter, tatsächlich sorgt aber der Nenner im Bruch für die
4 Für alle v 2 Rn gilt w2 .v/ D v. Normierung, die wir für w vorausgesetzt haben.
338 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

i Eine orthogonale Matrix hat die Determinante C1 oder Die Darstellungsmatrizen von orthogonalen
1 und die Determinante einer unitären Matrix liegt auf bzw. unitären Endomorphismen bezüglich
dem Einheitskreis fz 2 C j jzj D 1g. Orthonormalbasen sind orthogonal
? Selbstfrage 9.10 bzw. unitär
Sind die Matrizen
0 1 0 1 Wir geben uns in einem endlichdimensionalen euklidischen
0 1 0 2 1 2
B0 C 1B
0 1A und @ 2 1C bzw. unitären Vektorraum V eine Orthonormalbasis B D
@ 2 A
3 .b1 ; : : : ; bn / vor. Eine solche existiert stets, man kann sie
1 0 0 1 2 2
aus einer Basis mit dem Verfahren von Gram und Schmidt
orthogonal? konstruieren.
Wir zeigen, dass zwei Vektoren v; w 2 V genau dann
Die Matrizen S ˛ und D ˛ aus obigem Beispiel sind somit senkrecht aufeinander stehen, wenn es ihre Koordinaten-
orthogonal. Und tatsächlich folgte die Orthogonalität der vektoren aus Rn bzw. C n bezüglich der Basis B und des
Abbildungen ˛ und ı˛ bezüglich des kanonischen Ska- kanonischen Skalarprodukts tun, d. h.:
larprodukts nur aus dieser Eigenschaft. Wir erhalten viel
allgemeiner: v  w D 0 , Bv  Bw D 0 :

i Der Punkt  links des Äquivalenzzeichens ist das Skalar-


Orthogonale bzw. unitäre Endomorphismen und produkt in V , der Punkt  rechts des Äquivalenzzeichens
9 orthogonale bzw. unitäre Matrizen ist das kanonische Skalarprodukt im Kn .
Für eine Matrix A 2 Kn n
ist der Endomorphismus
( Sind nämlich v D 1 b1 C    C n bn und w D 1 b1 C
Kn ! Kn ;
'A W    C n bn mit i ; j 2 K, so ist wegen der Linearität des
v 7! A v Skalarprodukts und bi  bj D 0 für i ¤ j :

genau dann orthogonal (K D R) bzw. unitär (K D C) be- v  w D .1 b1 C    C n bn /  .1 b1 C    C n bn /


züglich des kanonischen Skalarprodukts, wenn die Matrix
D .1 1 / .b1  b1 / C    C .n n / .bn  bn /
A orthogonal bzw. unitär ist.
D 1 1 C    C n n D B v  B w ;

Beweis Es ist nur noch zu zeigen, dass die Matrix A or- also gerade das kanonische Skalarprodukt der Koordinaten-
thogonal bzw. unitär ist, wenn 'A orthogonal bzw. unitär vektoren.
bezüglich des kanonischen Skalarprodukts ist. Wir betrachten nun einen Endomorphismus ' des eu-
Ist nun 'A orthogonal bzw. unitär, so gilt für alle v und klidischen bzw. unitären Vektorraums V und bilden die
w aus K :n Darstellungsmatrix dieses Endomorphismus bezüglich der
Orthonormalbasis B
v> w D v  w D .A v/  .A w/ D v> A > A w :
A D B M .'/B D .B '.b1 /; : : : ; B '.bn // :
Setzt man hier die Standardeinheitsvektoren e i für v und
ej für w ein, so erhält man rechts die Komponente aij von Man beachte, dass mit obiger Gleichung v  w D v  w
B B
A > A und links 0, falls i ¤ j , und 1, falls i D j . Damit insbesondere auch
gilt A > A D En . 
'.v/  '.w/ D B '.v/  B '.w/
Weil die Matrix A 2 Kn n gerade die Darstellungsmatrix
A D En M .'A /En von 'A bezüglich der kanonischen Basis
gilt. Wir berechnen nun das Produkt A > A:
ist, kann dieses Ergebnis zusammengefasst auch in folgen-
der Art formuliert werden: 0 >1
B '.b1 /
B :: C
Folgerung Die Darstellungsmatrix des Endomorphismus A> A D @ : A .B '.b1 /; : : : ; B '.bn //
'A ist genau dann orthogonal bzw. unitär, wenn 'A bezüg- B '.bn /
>
lich des kanonischen Skalarprodukts orthogonal bzw. unitär 0 1
> >
ist. B '.b1 / B '.b1 /    B '.b1 / B '.bn /
B :: :: C
DB@ : :
C
A
Wir verallgemeinern dieses Ergebnis für beliebige Skalar- > >
produkte endlichdimensionaler Vektorräume. B '.b n / B '.b 1 /    B '.b n / B '.bn /
9.5  Orthogonale und unitäre Endomorphismen
339 9
Ist nun ' ein orthogonaler bzw. unitärer Endomorphismus, Im
d. h. '.v/  '.w/ D v  w, so können wir also ' in den n2 i
Produkten weglassen, damit folgt dann, weil die Elemente
der Basis B ja eine Orthonormalbasis bilden:
A > A D En :
Also ist die Matrix A orthogonal bzw. unitär. Ist umgekehrt 1 1 Re
vorausgesetzt, dass die Matrix A orthogonal bzw. unitär ist,
d. h., A > A D En , so zeigt obige Darstellung des Produkts,
dass '.bi /  '.bj / D bi  bj für alle i; j . Weil B eine Ba-
sis ist, folgt daraus, dass ' orthogonal bzw. unitär ist. Wir
i
haben gezeigt:
. Abb. 9.17 Die Eigenwerte orthogonaler und unitärer Matrizen liegen
auf dem Einheitskreis
Darstellungsmatrizen orthogonaler bzw. unitärer
Endomorphismen
Die Darstellungsmatrix eines Endomorphismus eines end- Beweis Sind 1 und 2 verschiedene Eigenwerte einer
lichdimensionalen euklidischen bzw. unitären Vektor- orthogonalen bzw. unitären Matrix A 2 Kn n mit den
raums bezüglich einer Orthonormalbasis ist genau dann Eigenvektoren v1 zu 1 und v2 zu 2 , so gilt mit dem kano-
orthogonal bzw. unitär, wenn der Endomorphismus ortho- nischen Skalarprodukt  im Kn :
gonal bzw. unitär ist.
v1  v2 D .A v1 /  .A v2 / D .1 v1 /  .2 v2 /
D 1 2  .v1  v2 / :
? Selbstfrage 9.11
Beachten Sie, dass in diesem Satz kein mathematisches Aus v1  v2 ¤ 0 folgte 1 2 D 1. Wegen 1 D j2 j D 2 2
Symbol auftaucht. Können Sie diese Aussage mit mög- gilt 2 D 1 1
2 und somit 1 2 D 1, d. h. 1 D 2 , ein
lichst vielen Symbolen formulieren? Widerspruch. Damit gilt v1  v2 D 0. 

Eigenwerte orthogonaler und unitärer


Matrizen haben den Betrag 1 und Die orthogonalen 2  2-Matrizen sind
Eigenvektoren zu verschiedenen Spiegelungs- oder Drehmatrizen
Eigenwerten sind senkrecht
In den Beispielen haben wir die (reellen) orthogonalen Ma-
Ist  Eigenwert einer orthogonalen bzw. unitären Matrix trizen
A 2 Kn n und v 2 Kn ein Eigenvektor zum Eigenwert    
cos ˛ sin ˛ cos ˛  sin ˛
, so gilt wegen der Längenerhaltung und der Normeigen- S D und D D
˛
sin ˛  cos ˛ ˛
sin ˛ cos ˛
schaften der Länge:
kvk D kA vk D k vk D jj kvk ; für ˛ 2 Œ0; 2 Œ angegeben.
Wir nennen S ˛ eine 2  2-Spiegelungsmatrix und D ˛
wegen v ¤ 0, also jj D 1. eine 2  2-Drehmatrix.
Tatsächlich gibt es keine weiteren orthogonale 2
2-Matrizen außer diesen.Wir begründen
 das:
Eigenwerte und Eigenvektoren orthogonaler bzw. a b
unitärer Matrizen Ist die Matrix A D orthogonal, so folgt aus
c d
Ist  ein Eigenwert einer orthogonalen bzw. unitären Ma-
A > A D E2 , d. h. A 1 D A > , und det A D a d  b c 2
trix, so gilt jj D 1.
f˙1g:
Eigenvektoren orthogonaler bzw. unitärer Matrizen zu
verschiedenen Eigenwerten stehen senkrecht aufeinander.    1  >  
1 d b a b a b a c
D D D
det A c a c d c d b d
8  
Insbesondere können damit höchstens 1 und 1 reelle Ei- ˆ
ˆ
a b
<A D b a ; falls det A D 1;
genwerte orthogonaler bzw. unitärer Matrizen sein; und ,  
die komplexen Eigenwerte liegen auf dem Einheitskreis ˆ a b
:̂A D ; falls det A D 1 :
(. Abb. 9.17). b a
340 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

 
a . Abb. 9.18 Die Drehachse Drehachse
Zu dem Punkt 2 R2 mit a2 C b 2 D 1 gibt es genau einer Drehung im R3 ist der Ei-
b
genraum zum Eigenwert 1
ein ˛ 2 Œ0; 2 Œ mit a D cos ˛ und b D sin ˛. Also gilt:

Diagonalisierbarkeit orthogonaler 2  2-Matrizen


Ist A 2 R2 2
orthogonal, so gilt:
!
cos ˛ sin ˛
AD D S ˛ ; falls det A D 1;
sin ˛  cos ˛
!
cos ˛  sin ˛
AD D D ˛ ; falls det A D 1 :
sin ˛ cos ˛
Zu jeder Drehmatrix A 2 R3 3 existiert also ein normierter
Jede 2 2-Spiegelungsmatrix S ˛ ist diagonalisierbar. Eigenvektor b1 zum Eigenwert 1.
Eine 2 2-Drehmatrix D ˛ mit ˛ 2 Œ0; 2 Œ ist genau Wir wählen einen solchen und ergänzen diesen zu einer
dann diagonalisierbar, wenn ˛ 2 f0; g. Orthonormalbasis .b1 ; b2 ; b3 / des R3 . Mit der orthogona-
len Matrix S D .b1 ; b2 ; b3 / gilt dann:
0
1
1 0 0
Drehmatrizen über R sind also nicht immer diagonalisier-
9 bar. Wir können aber jede solche (orthogonale) Drehmatrix M D S > A S D @0 r s A
auch als eine unitäre Matrix über C auffassen (siehe Auf- 0 t u
gabe 9.10).
Nun ist auch die Matrix M orthogonal, da

Dreireihige orthogonale Matrizen stellen M > M D .S > A S /> .S > A S / D S > A > A S D E3 :
Spiegelungen, Drehungen oder  
r s
Drehspiegelungen dar Und weil det D det M D det S > det A det S D
t u
det A D 1, folgt die Existenz eines ˛ 2 Œ0; 2 Œ mit
Im R3 gibt es drei Arten von orthogonalen Matrizen: Spie-    
gelungs-, Dreh- und Drehspiegelungsmatrizen. r s cos ˛  sin ˛
D
Wir betrachten zuerst den Fall einer orthogonalen 3 t u sin ˛ cos ˛
3-Matrix A mit der Determinante C1:
Jeder der eventuell komplexen Eigenwerte 1 ; 2 ; 3 Damit haben wir gezeigt, dass es zu jeder orthogonalen
von A hat den Betrag 1. Die Determinante von A ist das 3 3-Matrix A mit Determinante C1, d. h. zu jeder Dreh-
Produkt der Eigenwerte: matrix, eine orthogonale Matrix S und ein ˛ 2 Œ0; 2 Œ gibt
mit
1 D 1 2 3 : 0 1
1 0 0
Sind alle drei Eigenwerte 1 ; 2 ; 3 reell, so muss also einer S > A S D @0 cos ˛  sin ˛ A
der Eigenwerte gleich 1 sein. Ist aber einer der Eigenwerte 0 sin ˛ cos ˛
komplex, etwa 1 2 C n R, so ist wegen A 2 RŒX auch
1 ein Eigenwert, also etwa 1 D 2 . Damit erhalten wir Ist ˛ ¤ 0, so nennt man den dann eindimensionalen Eigen-
aber wegen 1 2 D 1 sogleich 3 D 1. raum zum Eigenwert 1 einer Drehmatrix A die Drehachse
Damit hat also A auf jeden Fall den Eigenwert 1 der Drehung v 7! A v.
und damit auch einen Eigenvektor zum Eigenwert 1. Der Eine solche Darstellung einer Drehmatrix bezeichnet
Eigenraum zum Eigenwert 1 ist entweder ein- oder drei- man als ihre Normalform und meint damit, dass diese Form
dimensional, in jedem Fall ist also folgende Bezeichnung die einfachste Darstellung ist.
sinnvoll:
Wir nennen eine orthogonale Matrix A 2 R3 3 mit ?Selbstfrage 9.13
det A D 1 eine Drehmatrix. Wie sieht die Darstellungsmatrix aus, wenn man die Vek-
toren der Basis .b1 ; b2 ; b3 / zyklisch vertauscht?
? Selbstfrage 9.12
Wieso kann der Eigenraum zum Eigenwert 1 eigentlich Nun wenden wir uns dem Fall zu, dass eine orthogonale
nicht zweidimensional sein? Matrix A 2 R3 3 die Determinante 1 hat. Wie oben zeigt
9.5  Orthogonale und unitäre Endomorphismen
341 9
man, dass A in diesem Fall den Eigenwert 1 mit einem Unitäre Matrizen sind diagonalisierbar,
zugehörigen normierten Eigenvektor b1 besitzt. Es gilt also orthogonale nicht immer
A b1 D b1 .
Wieder ergänzen wir diesen Eigenvektor zu einer geord-
neten Orthonormalbasis .b1 ; b2 ; b3 / des R3 . Wir erhalten Bei jeder unitären Matrix A 2 C n n zerfällt das cha-
mit der orthogonalen Matrix S D .b1 ; b2 ; b3 / die ebenfalls rakteristische Polynom A als Polynom über C stets in
orthogonale Matrix Linearfaktoren:
01 A D .1  X/    .n  X/
1 0 0
M D S >A S D @ 0 r s A mit nicht notwendig verschiedenen 1 ; : : : ; n 2 C.
0 t u Wir folgern nun, dass für solche Matrizen stets algebrai-
  sche und geometrische Vielfachheit für jeden Eigenwert
r s
Wegen  det D det M D det A D 1 folgt wie- übereinstimmen. Insbesondere sind also unitäre Matrizen
t u stets diagonalisierbar. Wir folgern dieses Ergebnis aus dem
der: Satz:
   
r s cos ˛  sin ˛
D
t u sin ˛ cos ˛
Unitäre Endomorphismen sind diagonalisierbar
Ist ' ein unitärer Endomorphismus eines endlichdimen-
für ein ˛ 2 Œ0; 2 Œ.
sionalen unitären Vektorraums V mit den Eigenwerten
1. Fall: ˛ D 0. Es handelt sich dann bei
1 ; : : : ; n , so existiert eine Orthonormalbasis B von V
0 1
1 0 0 aus Eigenvektoren von ', d.ḣ.
M D @ 0 1 0A 0 1
1 0
0 0 1 B C
B
B M .'/B D @
:: C
: A
um die Darstellungsmatrix der Spiegelung entlang b1 . Da- 0 n
mit ist erkannt, dass A die Darstellungsmatrix einer Spie-
gelung, kurz eine Spiegelungsmatrix, ist.
2. Fall: ˛ ¤ 0. Es handelt sich dann bei
Beweis Wir beweisen den Satz durch Induktion nach der
0 1 Dimension n von V . Ist n D 1, so ist die Behauptung rich-
1 0 0
M D @ 0 cos ˛  sin ˛ A tig, da man jede von Null verschiedene komplexe Zahl als
0 sin ˛ cos ˛ einziges Element einer solchen Orthonormalbasis wählen
kann, jede solche Zahl ist ein Eigenvektor von '. Setzen
um die Darstellungsmatrix einer Drehspiegelung. wir also nun voraus, dass n > 1 ist und die Behauptung für
alle Zahlen m < n gilt.
Ist v1 ein Eigenvektor zum Eigenwert 1 von ', so be-
Die orthogonalen 3  3-Matrizen trachten wir das orthogonale Komplement zum Erzeugnis
Jede orthogonale 3 3-Matrix A ist entweder eine Dreh- von v1 :
matrix, eine Spiegelungsmatrix oder eine Drehspiege- U D hv1 i? D fv 2 V j v1  v D 0g :
lungsmatrix.
In jedem Fall gibt es eine orthogonale Matrix S 2 Die Einschränkung des unitären Endomorphismus ' auf
R3 3 und ein ˛ 2 Œ0; 2 Œ mit den Untervektorraum U von V , also die Abbildung
0 1 
˙1 0 0 U ! V;
B 0
'jU W
>
S AS D @ cos ˛  sin ˛ C
A
v 7! '.v/
0 sin ˛ cos ˛
hat wegen

1 .v1  '.v// D .1 v1 /  '.v/


Drehmatrizen und Drehspiegelungsmatrizen lassen sich D '.v1 /  '.v/
über R im Allgemeinen nicht diagonalisieren. Fasst man D v1  v
aber eine solche orthogonale 3 3-Matrix wieder als eine D0
unitäre Matrix über C auf, so kann man sie diagonalisieren.
Wir zeigen gleich viel allgemeiner, dass unitäre Matrizen für alle v 2 V die Eigenschaft, eine Abbildung von U in
stets orthogonal diagonalisierbar sind. U zu sein, '.U /  U – man beachte, dass 1 ¤ 0 wegen
342 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

j1 j D 1 gilt. Und weil U als Untervektorraum eines unitä- ist unitär, also diagonalisierbar. Die Eigenwerte von A sind
ren Vektorraumes selbst wieder ein unitärer Vektorraum ist die Nullstellen des charakteristischen Polynoms:
und die Dimension von U gleich n1 < n ist, ist die Induk-
tionsvoraussetzung auf U anwendbar: Der Vektorraum U A D .i  X/2 .1  X/ :
besitzt eine geordnete Orthonormalbasis B 0 D .b2 ; : : : ; bn / Damit haben wir den einfachen Eigenwert 1 und den dop-
mit pelten Eigenwert i. Nun bestimmen wir die Eigenräume:
0 1
2 0 0 1
* p1 +
B :: C
B 0 M .'jU /B 0 D @ B p1 C
2
: A
EigA .1/ D ker.A  E3 / D @ 2 A ;
0 n 0
„ ƒ‚ …
Wir normieren den Eigenvektor v1 , setzen also b1 D DWb1
kv1 k1  v1 , B D .b1 ; : : : ; bn /, und erhalten so die ge- 0 1 0 1
* p1 0 +
wünschte Darstellung.  B p12 C @ 0 A
EigA .i/ D ker.A  i E3 / D @ 2 A; :
Für unitäre Matrizen besagt dieser Satz: 0 i
„ ƒ‚ … „ƒ‚…
DWb2 DWb3

Unitäre Matrizen sind diagonalisierbar Die angegebenen Eigenvektoren b1 ; b2 ; b3 bilden bereits


Ist A 2 C n n eine unitäre Matrix mit den Eigenwerten eine Orthonormalbasis des C 3 . Mit der Matrix S D
9 1 ; : : : ; n , so existiert eine unitäre Matrix S 2 C n n mit .b1 ; b2 ; b3 / gilt:
0 1 0 1
1 0 1 0 0
> B C @0 i 0 A D S > A S : 9
S AS D B
@
::
: C
A 0 0 i
0 n
Unitäre Matrizen lassen sich immer diagonalisieren. Wir
Dabei sind die Spalten von S eine Orthonormalbasis des wissen, dass dies bei orthogonalen Matrizen anders ist. Bei
C n aus Eigenvektoren von A. den 3 3-Matrizen haben wir uns auf eine gewisse schöns-
te Form, die Normalform, geeinigt. Und tatsächlich gibt es
so eine Form auch für beliebig große orthogonale Matrizen.
Ist A eine unitäre Matrix, so existiert nach dem Satz eine Wir zeigen das in 7 Abschn. 9.7.
Orthonormalbasis des C n aus Eigenvektoren von A. Folg-
lich existieren n linear unabhängige Eigenvektoren zu A.
Damit muss für jeden Eigenwert von A die geometrische Jeder orthogonale Endomorphismus ist
Vielfachheit gleich der algebraischen sein, d. h.: ein Produkt von Spiegelungen
Die Dimension jedes Eigenraums ist der Exponent des
zugehörigen Eigenwerts im charakteristischen Polynom.
Damit ist klar, wie wir vorgehen, um zu einer unitären Die Spiegelungen sind die Bausteine der orthogonalen En-
Matrix A 2 C n n eine Orthonormalbasis bestehend aus domorphismen, da jeder orthogonale Endomorphismus ein
Eigenvektoren von A zu konstruieren: Produkt von Spiegelungen ist. Man hat sogar eine obere
4 Bestimme die Eigenwerte als Nullstellen des charakte- Grenze für die Anzahl der Spiegelungen, die hierzu als Fak-
ristischen Polynoms. toren auftauchen. Diese obere Grenze ist die Dimension des
4 Bestimme Basen der Eigenräume, wobei man jeweils Vektorraums, in dem die Spiegelung betrachtet wird; ge-
als Basis gleich eine Orthonormalbasis wählt. Falls dies nauer:
nicht mit freiem Auge möglich ist, so wende man das
Orthonormalisierungsverfahren von Gram und Schmidt
Zerlegung orthogonaler Endomorphismen
an.
Jeder orthogonale Endomorphismus ' des Rn ist ein
4 Die Vereinigung der Orthonormalbasen der Eigenräume
Produkt von höchstens n Spiegelungen, d. h., es gibt nor-
ist dann eine Orthonormalbasis des C n aus Eigenvekto-
mierte w1 ; : : : ; wk 2 Rn mit k  n und
ren von A.

Beispiel Die Matrix ' D w1 ı    ı wk :


0 1Ci 1Ci 1
2 2
0 Die Identität betrachten wir dabei als ein Produkt von 0
AD @ 1Ci 1Ci
0A 2 C 3 3
Spiegelungen.
2 2
0 0 i
9.5  Orthogonale und unitäre Endomorphismen
343 9
Beweis Ist ' ein orthogonaler Endomorphismus ungleich Beispiel Wir betrachten die orthogonale 3 3-Matrix
der Identität, so wählen wir ein v 2 Rn mit '.v/ ¤ v. Dann 0 1
gilt .v  '.v//  v ¤ 0, da andernfalls kvk2 D '.v/  '.v/ D 2 1 2
1@
.v  .v  '.v//  .v  .v  '.v/// D kvk2 C kv  '.v/k2 , AD 2 2 1A
3 1 2
also v D '.v/ folgte (vgl. auch . Abb. 9.19). 2
Wir setzen nun w D v  '.v/ ¤ 0. Wegen
Es gilt det A D 1. Weil A ¤ E3 gilt, ist A ein Produkt
wv v  v  '.v/  v
D D 1=2 von zwei Spiegelungsmatrizen. Wir zerlegen nun A in ein
ww v  v C '.v/  '.v/  2 '.v/  v Produkt von Spiegelungsmatrizen.
0 1
gilt also  1 w .v/ D v2 ww
wv
w D vw D vC'.v/v D 2
Wegen A e 1 D 1=3 @ 2 A gilt A e 1 ¤ e 1 . Wir wählen
kwk
'.v/.
Und nun begründen wir durch Induktion nach n die Be- 1
0 1
hauptung. Wir betrachten die Abbildung ' 0 D  11 w ı '. 1
kwk
also v D e 1 und setzen w D v  A v D 1=3 @2A. Wir
Es ist ' 0 ein orthogonaler Endomorphismus mit ' 0 .v/ D v.
1
Für W D hvi? gilt ' 0 .W / D W , denn für u 2 W gilt:
>
bilden S w D E3  w> w w w
2
v  ' 0 .u/ D ' 0 .v/  ' 0 .u/ D v  u D 0 :
0 1 0 1
Folglich ist ' 0 jW ein orthogonaler Endomorphismus des n 3 0 0 1 2 1
2
1-dimensionalen euklidischen Vektorraums W bezüglich D 1=3 @0 3 0A  1=9 @2 4 2A
0 0 3 6=9 1 2 1
des kanonischen Skalarprodukts von W . Nach Induktions-
voraussetzung gibt es normierte w2 ; : : : ; wk 2 W mit k  0 1
2 2 1
n und D 1=3 @ 2 1 2 A und berechnen
' 0 j W D  w2 ı : : : ı  wk : 1 2 2
Wir zeigen nun ' 0 D w2 ı : : : wk , wobei wir die wi als A 0 D S 1
w A D Sw A
Spiegelungen auf V auffassen. Dabei benutzen wir, dass 0 10 1
2 2 1 2 1 2
sich jeder Vektor v 2 V wegen V D R v C W in der Form D 1=9 @ 2 1 2 A @ 2 2 1A
v D v C u schreiben lässt. 1 2 2 1 2 2
Sind u 2 W und  2 R, so erhalten wir: 0 1
1 0 0
.w2 ı : : : ı wk /.v C u/ D @0 0 1 A :
D  .w2 ı : : : ı wk /.v/ C .w2 ı : : : ı wk /.u/ 0 1 0
D v C ' 0 .u/ D  ' 0 .v/ C ' 0 .u/ D ' 0 . v C u/ :
Weil wir wissen, dass A ein Produkt zweier Spiegelungs-
Damit gilt ' D  1 ı w2 ı : : : ı wk mit k  n.  matrizen ist, muss A 0 eine Spiegelungsmatrix sein.
kwk
w
0 Wir1
0
können dies aber auch nachprüfen. Es ist a1 D @1A
1
v '.v/ 0 1
1
ein Eigenvektor zum Eigenwert 1, und a2 D @ 0A,
v '.v/
0
0 1
0
a3 D @1A sind Eigenvektoren zum Eigenwert 1. Die Ma-
. Abb. 9.19 Der Vektor v  '.v/ steht nicht senkrecht auf v
1
trix S D .s1 ; s2 ; s3 / mit den Spalten si D ka1i k ai erfüllt
x2 '.v/ dann
0 1
1 0 0
S > A 0 S D @ 0 1 0A :
v 0 0 1
x1
Wir erhalten die gewünschte Zerlegung:
0 10 1
w 2 2 1 1 0 0
A D 1=9 @ 2 1 2 A @0 0 1A : 9
. Abb. 9.20 Die Spiegelung erfolgt entlang w 1 2 2 0 1 0
344 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Wir haben nun ausführlich orthogonale bzw. unitäre En- ' D 'A W v 7! A v des Kn bezüglich des kanonischen
domorphismen euklidischer bzw. unitärer Vektorräume be- Skalarprodukts selbstadjungiert, da für alle v; w 2 Kn
handelt. Nun betrachten wir weitere Endomorphismen eu- gilt:
klidischer bzw. unitärer Vektorräume.
'.v/  w D .A v/> w D v> A > w
9.6 Selbstadjungierte Endomorphismen D v> .A w/ D v  '.w/ :

4 Im euklidischen Vektorraum V aller auf dem Intervall


Wir behandeln in diesem Abschnitt eine weitere wichti- I D Œa; b stetiger reellwertiger Funktionen mit dem
ge Art von Endomorphismen euklidischer bzw. unitärer Skalarprodukt
Vektorräume, die sogenannten selbstadjungierten Endo-
morphismen. Der Begriff selbstadjungiert steht für den Zb
reellen wie auch den komplexen Fall, eine Unterscheidung hf; gi D f .t/ g.t/ dt
wie bei orthogonal und unitär gibt es nicht. Es ist aller-
a
dings bei den Darstellungsmatrizen eine Unterscheidung
üblich: Die Darstellungsmatrix selbstadjungierter Endo- ist für jede fest gewählte Funktion h 2 V der Endomor-
morphismen euklidischer Vektorräume sind symmetrisch, phismus
jene selbstadjungierter Endomorphismen unitärer Vektor-
räume hingegen hermitesch. 
V ! V;
Das wichtigste Resultat lässt sich leicht formulieren: 'W
9 f 7! f  h
Selbstadjungierte Endomorphismen lassen sich stets
diagonalisieren. selbstadjungiert, da
Folglich sind auch reelle symmetrische und hermitesche
Matrizen stets diagonalisierbar. Zb Zb
Mit K bezeichnen wir wieder einen der Körper R oder
hf; '.g/i D f .t/ g.t/ h.t/ dt D f .t/ h.t/ g.t/ dt
C – je nachdem, ob wir im euklidischen oder unitären Fall
sind. a a
D h'.f /; gi für alle f; g 2 V :

Selbstadjungierte Endomorphismen sind 4 Jede Spiegelung  des Rn ist selbstadjungiert. Es folgt


durch '.v/  w D v  '.w/ definiert nämlich aus  1 D  und der Orthogonalität von  für
alle v; w 2 V :

Wir erinnern an die orthogonalen bzw. unitären Endo-  .v/  w D v   1 .w/ D v   .w/ :
morphismen. Für jeden solchen Endomorphismus ' eines
euklidischen bzw. unitären Vektorraums V mit dem Skalar- Ein anderes Argument ist die Symmetrie der Darstel-
produkt  gilt: lungsmatrizen von Spiegelungen.
4 Nicht selbstadjungiert ist die Drehung ' im R2 umden

v  w D '.v/  '.w/ 1
Winkel 120 Grad. So gilt etwa für den Vektor v D ,
0
! p !
für alle v; w 2 V . Selbstadjungierte Endomorphismen sind 1=2 3=2
ganz ähnlich erklärt: dass '.v/ D p und w D , also
3=2 1=2

0 D '.v/  w ¤ v  '.w/ : 9
Selbstadjungierter Endomorphismus
Man nennt einen Endomorphismus ' eines euklidischen
bzw. unitären Vektorraums V selbstadjungiert, wenn für
alle v; w 2 V gilt:
Darstellungsmatrizen selbstadjungierter
Endomorphismen bezüglich
'.v/  w D v  '.w/ : Orthonormalbasen sind symmetrisch
bzw. hermitesch

Beispiel Nach obigem Beispiel bestimmt jede reelle symmetrische


4 Ist A 2 Kn n eine symmetrische bzw. hermitesche Ma- bzw. hermitesche Matrix A 2 Kn n durch ' W v 7! A v
trix, gilt also A > D A, so ist der Endomorphismus einen selbstadjungierten Endomorphismus des Kn . Diese
9.6  Selbstadjungierte Endomorphismen
345 9
x2 Wir erhalten nun für die Komponente aij der Darstellungs-
matrix wegen der Orthonormalität von B den Ausdruck:
'.v/
bi  '.bj / D bi  .a1j b1 C    C anj bn / D aij
'.w/ w

120ı und analog für aj i :


30ı
e1 D v x1 '.bi /  bj D .a1i b1 C    C ani bn /  bj D aj i :

Wegen bi  '.bj / D '.bi /  bj folgt also aij D aj i . 

Mit diesem Satz haben wir die selbstadjungierten Endomor-


phismen durch reelle symmetrische bzw. hermitesche Dar-
stellungsmatrizen bezüglich Orthonormalbasen beschrie-
. Abb. 9.21 Die Drehung um den Winkel 120 Grad ist nicht selbstadjun- ben.
giert bezüglich des kanonischen Skalarprodukts, es ist nämlich '.v/  w D
0 ¤ v  '.w/
Eigenwerte reeller symmetrischer bzw.
hermitescher Matrizen sind reell
Matrix ist dann auch Darstellungsmatrix dieses Endomor-
phismus bezüglich einer Orthonormalbasis, nämlich der
kanonischen Orthonormalbasis En . Ist  2 K ein Eigenwert einer reellen symmetrischen bzw.
Wir überlegen uns, dass die Darstellungsmatrizen hermiteschen Matrix A 2 Kn n und v D .vi / 2 Kn ein
selbstadjungierter Endomorphismen bezüglich beliebiger >
Eigenvektor zum Eigenwert , so gilt wegen A D A und
Orthonormalbasen reell symmetrisch bzw. hermitesch sind.
A v D  v:

 .v> v/ D v>  v D v> A v D .A v/> v D  .v> v/ :


Darstellungsmatrizen selbstadjungierter
P
n
Endomorphismen Nun folgt wegen v ¤ 0 zuerst v> v D jvi j2 ¤ 0 und
Ist ' ein selbstadjungierter Endomorphismus eines end- i D1
lichdimensionalen euklidischen bzw. unitären Vektor- dann  D , also  2 R.
raums mit einer geordneten Orthonormalbasis B, so gilt
für die Darstellungsmatrix A D B M .'/B :
Eigenwerte symmetrischer und hermitescher
>
A> D A bzw. A DA: Matrizen
Ist  ein Eigenwert einer reellen symmetrischen bzw. her-
miteschen Matrix, so ist  reell.

Beweis Es reicht aus, wenn wir das für den komplexen Fall
zeigen, der reelle Fall ergibt sich dann einfach durch Weg- Wir wissen aber bisher noch nichts über die Existenz von
lassen der Konjugation. Eigenwerten reeller symmetrischer bzw. hermitescher Ma-
Wir wählen eine beliebige Orthonormalbasis B D trizen. Wir haben nur gezeigt, dass, wenn eine solche
.b1 ; : : : ; bn / von V , insbesondere ist also die Dimension Matrix einen Eigenwert hat, dieser dann zwangsläufig reell
von V gleich n. ist. Tatsächlich ist es aber so, dass jede reelle symmetri-
Ist A D .aij / die Darstellungsmatrix des selbstadjun- sche bzw. hermitesche n n-Matrix auch n Eigenwerte
gierten Endomorphismus ' bezüglich B, so ist für alle hat, hierbei zählen wir die Eigenwerte entsprechend ihrer
i; j 2 f1; : : : ; ng algebraischen Vielfachheiten. Die Begründung erfolgt über
einen Ausflug ins Komplexe.
aij D aj i

zu zeigen. Wir geben uns i; j 2 f1; : : : ; ng vor. Die j -te Jede symmetrische n  n-Matrix hat n reelle
Spalte von A ist der Koordinatenvektor des Bildes des Eigenwerte
j -ten Basisvektors bj :
Wir betrachten eine symmetrische Matrix A 2 Rn n . Diese
'.bj / D a1j b1 C    C anj bn : Matrix definiert einen selbstadjungierten Endomorphismus
346 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

'A W v 7! A v des Rn . Hier setzen wir an: Wir erklären


einen selbstadjungierten Endomorphismus in dem größeren Eigenvektoren symmetrischer bzw. hermitescher
Vektorraum C n . Die Abbildung Matrizen
 n Eigenvektoren reeller symmetrischer bzw. hermitescher
C ! Cn;
'QA W Matrizen zu verschiedenen Eigenwerten stehen senkrecht
v 7! A v
aufeinander.

ist wegen A > D A ein selbstadjungierter Endomorphismus


des C n .
Die Darstellungsmatrix En M .'QA /En D A 2 C n n von Symmetrische bzw. hermitesche Matrizen
'QA bezüglich der kanonischen Orthonormalbasis ist hermi- sind diagonalisierbar
tesch.
Mit dem Fundamentalsatz der Algebra folgt nun, dass
das charakteristische Polynom von A über C in Linearfak- Das charakteristische Polynom reeller symmetrischer bzw.
toren zerfällt: hermitescher Matrizen zerfällt stets in Linearfaktoren, und
es stimmen – wie wir gleich sehen werden – algebraische
A D .1  X/k1    .r  X/kr : und geometrische Vielfachheit für jeden Eigenwert überein.
Insbesondere sind reelle symmetrische bzw. hermitesche
Dabei sind 1 ; : : : ; r die verschiedenen Eigenwerte von A
Matrizen also diagonalisierbar.
mit den jeweiligen algebraischen Vielfachheiten k1 ; : : : ; kr ,
9 d. h., k1 C    C kr D n. Die Eigenwerte 1 ; : : : ; r sind
reell.
Diagonalisierbarkeit selbstadjungierter
Wegen A D 'QA D 'A 2 RŒX hat A ein in Li-
Endomorphismen
nearfaktoren zerfallendes charakteristisches Polynom, und
Ist ' ein selbstadjungierter Endomorphismus eines n-di-
damit hat A die reellen Eigenwerte 1 ; : : : ; r .
mensionalen euklidischen bzw. unitären Vektorraums V
mit den (reellen) Eigenwerten 1 ; : : : ; n , so existiert eine
Orthonormalbasis B von V aus Eigenvektoren von ' mit
Eigenwerte symmetrischer bzw. hermitescher
0 1
Matrizen 1 0
Jede symmetrische bzw. hermitesche n n-Matrix hat n B C
B
B M .'/B D @
:: C
nicht notwendig verschiedene Eigenwerte. Jeder Eigen- : A
wert ist reell. 0 n

Wir wollen nun noch begründen, dass es zu jeder reellen Der Beweis geht ähnlich zu dem Beweis des Satzes zur Dia-
symmetrischen bzw. hermiteschen Matrix A 2 Kn n eine gonalisierbarkeit unitärer Endomorphismen.
Orthonormalbasis des Kn aus Eigenvektoren von A gibt.
Dazu liefert der folgende Abschnitt einen ersten Anhalts- Beweis Wir beweisen den Satz durch Induktion nach der
punkt. Dimension n von V . Ist n D 1, so ist die Behauptung
richtig, man kann z. B. die reelle bzw. komplexe Zahl 1 als
einziges Element einer solchen Orthonormalbasis wählen,
Eigenvektoren zu verschiedenen diese Zahl ist ein Eigenvektor von '. Setzen wir also nun
Eigenwerten stehen senkrecht zueinander voraus, dass n > 1 ist und die Behauptung für alle Zahlen
m < n gilt.
Ist v1 ein Eigenvektor zum Eigenwert 1 von ', so be-
Sind 1 und 2 verschiedene Eigenwerte einer reellen trachten wir den Orthogonalraum zum Erzeugnis von v :
1
symmetrischen bzw. hermiteschen Matrix A 2 Kn n mit
?
Eigenvektoren v1 zu 1 und v2 zu 2 , so gilt mit dem Ska- U D hv1 i D fv 2 V j v1  v D 0g :
>
larprodukt v  w D v w des K wegen v1 ; v2 ¤ 0:
n
Die Einschränkung des selbstadjungierten Endomorphis-
mus ' auf den Untervektorraum U von V , also die Ab-
1 .v> > >
1 v 2 / D .1 v1 / v 2 D .A v 1 / v 2
bildung
D v> > >
1 A v 2 D v 1 .A v2 / 
U ! V;
D v> > 'jU W
1 .2 v 2 / D 2 .v 1 v2 / : v 7! '.v/

Also muss v1  v2 D v> hat wegen


1 v2 D 0 gelten, da 1 ¤ 2 D 2
vorausgesetzt ist. v1  '.v/ D '.v1 /  v D .1 v1 /  v D 1 .v1  v/ D 0
9.6  Selbstadjungierte Endomorphismen
347 9
für alle v 2 V die Eigenschaft, eine Abbildung von U in Damit haben wir den einfachen Eigenwert 0 und den dop-
U zu sein, d. h. '.U /  U . Weil U als Untervektorraum pelten Eigenwert 2. Nun bestimmen wir die Eigenräume:
eines euklidischen bzw. unitären Vektorraums selbst wie- *0 i 1+
der ein euklidischer bzw. unitärer Vektorraum ist und die
Dimension von U gleich n  1 ist, ist die Induktionsvoraus- EigA .0/ D ker A D @1A ;
setzung auf U anwendbar. Folglich besitzt der Vektorraum 0
0 0 1 *0 1 0 1+
U eine geordnete Orthonormalbasis B D .b2 ; : : : ; bn / mit 1 i 0 i 0
0 1 EigA .0/ D ker @ i 1 0 A D @ 1 A @
; 0A :
2 0
B :: C 0 0 0 0 1
B 0 M .'jU /B 0 D @ : A
0 n Die angegebenen Vektoren bilden bereits eine Orthogonal-
basis des C 3 . Wir normieren nun diese Vektoren und er-
Wir normieren den Eigenvektor v1 , setzen also b1 D halten eine geordnete Orthonormalbasis B D .b1 ; b2 ; b3 /,
kv1 k1 v1 , B D .b1 ; : : : ; bn / und erhalten so die ge- explizit:
wünschte Darstellung.  0 1 0 1 0 1
i i 0
1 @ A 1 @ A @
Für reelle symmetrische bzw. hermitesche Matrizen lässt b 1 D p 1 ; b2 D p 1 ; b3 D 0A :
2 0 2 0 1
sich das wie folgt formulieren:
Mit der Matrix S D .b1 ; b2 ; b3 / gilt:
0 1
Diagonalisierbarkeit reeller symmetrischer bzw. 0 0 0
hermitescher Matrizen @0 2 0 A D S > A S : 9
Ist A 2 Kn n eine reelle symmetrische bzw. hermitesche 0 0 2
Matrix, so gibt es eine orthogonale bzw. unitäre Matrix S
und 1 : : : ; n 2 R mit i Reelle symmetrische Matrizen sind zwar stets diagona-
0 1 lisierbar, für komplexe symmetrische Matrizen stimmt
1 0 das hingegen nicht: Die symmetrische Matrix A D
> B C !
S AS D B
@
::
: C
A
1 i
2 C 2 ist nicht diagonalisierbar.
0 n i 1

Dabei sind die Spalten von S eine Orthonormalbasis des Kommentar Im R3 hat man das Vektorprodukt zur Ver-
Kn aus Eigenvektoren von A. fügung. Damit kann man sich oftmals etwas an Arbeit
ersparen. Sucht man eine Orthonormalbasis des R3 , wobei
ein normierter Basisvektor b1 D .b1 ; b2 ; b3 /> ¤ e 3 vor-
>
Ist A 2 K n n
eine reelle symmetrische bzw. hermitesche gegeben ist, so ist .b1 ; b2 ; b3 / mit b2 D .b2 ; b1 ; 0/ und
Matrix, so existiert nach diesem Satz eine Orthonormal- b3 D b1 b2 eine geordnete Orthogonalbasis. Normieren
basis des Kn aus Eigenvektoren von A. Dies heißt aber, liefert eine Orthonormalbasis.
dass n linear unabhängige Eigenvektoren von A existieren.
Damit muss für jeden Eigenwert von A die geometrische Mithilfe der erzielten Ergebnisse können wir nun ein Prob-
Vielfachheit gleich der algebraischen sein: lem lösen, vor dem wir zu Beginn dieses Kapitels standen.
Die Dimension jedes Eigenraums ist der Exponent des
zugehörigen Eigenwertes im charakteristischem Polynom.
Damit ist wieder klar, wie wir vorgehen, um eine Ortho- Die Definitheit von reellen symmetrischen
normalbasis zu einer reellen symmetrischen bzw. hermite- bzw. hermiteschen Matrizen lässt
schen Matrix A 2 Kn n zu konstruieren. sich mit den Eigenwerten und
Hauptunterdeterminanten bestimmen
Beispiel Die Matrix
0 1
1 i 0 Es ist im Allgemeinen schwer zu entscheiden, ob eine reelle
A D @i 1 0A 2 C 3 3
symmetrische oder hermitesche Matrix A 2 Kn n positiv
0 0 2 (semi-), negativ (semi-) oder indefinit ist, da es im Allge-
ist hermitesch, also diagonalisierbar. Wir bestimmen die Ei- meinen nicht immer leicht ist, das Vorzeichen von
genwerte von A, d. h. die Nullstellen des charakteristischen v> A v
Polynoms
zu bestimmen. Zum Glück gibt es Kriterien, die bei kleinen
A D ..1  X/ .1  X/  1/ .2  X/ D X .2  X/2 : Matrizen leicht anzuwenden sind.
348 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Beispiel: Das orthogonale bzw. unitäre Diagonalisieren

Wir bestimmen zu der hermiteschen Matrix A 2 C 4 4 bzw. und b4 D ka4 k1 a4 D p12 a4 . Mit b3 und b4 haben wir den
reellen symmetrischen Matrix B 2 R4 4 eine unitäre Matrix anderen Teil einer Orthonormalbasis des C 4 bestehend aus Ei-
>
S 2 C 4 4 bzw. orthogonale Matrix T 2 R4 4 , sodass S A S genvektoren von A.
bzw. T > B T ein Diagonalmatrix ist: Mit der unitären Matrix S D .b1 ; b2 ; b3 ; b4 / gilt die Glei-
0 1 chung:
2 i 0 0
Bi 2 0 0C >
B C diag.1; 1; 3; 3/ D S A S :
ADB C 2 C 4 4 bzw.
@ 0 0 2 iA
0 0 i 2 Nun zur reellen symmetrischen Matrix B.
0 1 Wegen B D X 3 .30  X/ hat B den dreifachen Eigen-
1 2 3 4
B2 4 6 wert 0 und den einfachen Eigenwert 30.
B 8CC
BDB C 2 R4 4 Wir bestimmen Basen für die Eigenräume EigB .0/ und
@3 6 9 12A EigB .30/ zu den beiden Eigenwerten 0 und 30.
4 8 12 16 0 1
1 2 3 4
B2 4 6 8C
Problemanalyse und Strategie B C
EigB .0/ D ker.B  0 E4 / D ker B C
Wir bestimmen die Eigenwerte und die Orthonormalbasen der @3 6 9 12A
Eigenräume. 4 8 12 16
0 1 0 1 0 1 0 1
1 2 3 4 * 2 0 0 +
9 Lösung B0 0 0 0C B1C B3C B 0 C
B C B C B C B C
D ker B C D B C;B C;B C :
Wegen @0 0 0 0A @ 0 A @ 2 A @4A
0 0 0 0 0 0 3
A D ..2  X/ .2  X/ C i2 /2 D .1  X/2 .3  X/2 „ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
DWa1 DWa2 DWa3
hat A die jeweils zweifachen Eigenwerte 1 und 3.
Wir bestimmen Basen für die Eigenräume EigA .1/ und Die drei Basisvektoren a1 , a2 und a3 bilden noch keine Ortho-
EigA .3/ zu den beiden Eigenwerten 1 und 3. normalbasis des Eigenraums. Eine solche erhalten wir, indem
0 1 wir das Verfahren von Gram und Schmidt auf die Vektoren a1 ,
1 i 0 0
Bi 1 0 0C a2 und a3 anwenden. Damit erhalten wir
B C 0 1 0 1 0 1
EigA .1/ D ker.A  1 E4 / D ker B C
@ 0 0 1 iA 2 0 5
0 0 i 1 1 BB1C
C 1 B B0C
C 1 B B10C
C
0 1 0 1 0 1 b1 D p B C; b2 D p B C; b3 D p B C;
1 i 0 0 0 + 5@0A 5 @4A 5 6@ 3 A
* i
B0 0 0 0C B1C B 0 C 0 3 4
B C B C B C
D ker B C D B C;B C :
@0 0 1 i A @0A @ i A also eine Orthonormalbasis fb1 ; b2 ; b3 g des Eigenraums zum
0 0 0 0 0 1 Eigenwert 0, also den ersten Teil einer Orthonormalbasis des
„ ƒ‚ … „ ƒ‚ …
DWa1 DWa2 R4 bestehend aus Eigenvektoren von B.
Wir haben die Basisvektoren a1 und a2 so gewählt, dass sie EigB .30/ D ker.B  30 E4 / :
senkrecht aufeinander stehen. Normieren von a1 und a2 lie-
fert b1 D ka1 k1 a1 D p12 a1 und b2 D ka2 k1 a2 D p12 a2 . Die Bestimmung dieses Kerns ist mühsam. Eine Überlegung
Die Vektoren b1 und b2 liefern also den ersten Teil einer Or- erspart uns diese Arbeit. Weil 30 ein einfacher Eigenwert
thonormalbasis des C 4 bestehend aus Eigenvektoren von A. ist, ist dieser Eigenraum eindimensional. Ein Vektor a4 , der
0 1 diesen Eigenraum erzeugt, steht senkrecht auf allen Eigen-
1 i 0 0
B i 1 0 vektoren zum Eigenwert 0. Ein Blick auf den Eigenvektor
B 0CC
EigA .3/ D ker.A  3 E4 / D ker B C a1 zeigt, dass als erste zwei Komponenten von a4 die Zah-
@0 0 1 i A
len 1 und 2 infrage kommen. Ein Blick auf a2 liefert dann
0 0 i 1 die mögliche dritte Komponente 3 für a4 , und betrachtet man
0 1 0 1 0 1
1 i 0 0 0 + a3 , so erhält man den Vektor a4 D .1; 2; 3; 4/> , der senkrecht
* i
B 0 0 0 0C B1C B0C auf allen Eigenvektoren zum Eigenwert 0 ist, also ein Eigen-
B C B C B C
D ker B CD B C ; B C : vektor zum Eigenwert 30 sein muss. Es liefert dann b4 D
@ 0 0 1 i A @0A @ i A
0 0 0 0 0 1 ka4 k1 a4 D p130 a4 eine Orthonormalbasis von EigB .30/.
„ƒ‚… „ƒ‚… Mit der orthogonalen Matrix T D .b1 ; b2 ; b3 ; b4 / erhal-
DWa3 DWa4
ten wir die Gleichung
Wieder wurden a3 und a4 so gewählt, dass sie senkrecht auf-
einander stehen. Normieren liefert b3 D ka3 k1 a3 D p12 a3 diag.0; 0; 0; 30/ D T > B T :
9.6  Selbstadjungierte Endomorphismen
349 9
Wie wir gezeigt haben, hat eine reelle symmetrische Für ein zweites Kriterium, das ebenfalls leicht anzuwenden
bzw. hermitesche n n-Matrix n (nicht notwendig verschie- ist, führen wir einen neuen Begriff ein.
dene) reelle Eigenwerte; es ist somit sinnvoll, von positiven Für jede n n-Matrix A D .aij /nn und jede Zahl
und negativen Eigenwerten zu sprechen. k 2 f1; : : : ; ng bezeichnet man die Determinante der lin-
ken oberen k k-Teilmatrix .aij /kk von A als Hauptminor
oder Hauptunterdeterminante. Die n Hauptunterdetermi-
Das Eigenwertkriterium zur Definitheit nanten einer n n-Matrix A D .aij /nn sind der Reihe nach
Eine reelle symmetrische oder hermitesche n n-Matrix gegeben durch:
A 2 Kn n ist genau dann
ˇ ˇ ˇ ˇ
4 positiv definit, wenn alle Eigenwerte von A positiv ˇ ˇ ˇa11 a12 a13 ˇ ˇa11    a1n ˇ
ˇ ˇ ˇa11 a12 ˇ ˇ ˇ ˇ ˇ
sind, ˇa11 ˇ ; ˇ ˇ ; ˇa21 a22 a23 ˇ ; : : : ; ˇˇ :: :: ˇ
ˇa21 a22 ˇ ˇ ˇ ˇ : : ˇˇ
4 negativ definit, wenn alle Eigenwerte von A negativ ˇa31 a32 a33 ˇ ˇan1    ann ˇ
sind,
4 positiv semidefinit, wenn alle Eigenwerte von A posi-
tiv oder null sind, Damit können wir das zweite wichtige Kriterium für die
4 negativ semidefinit, wenn alle Eigenwerte von A ne- Definitheit formulieren.
gativ oder null sind,
4 indefinit, wenn A positive und negative Eigenwerte
hat. Das Hauptminorenkriterium zur Definitheit
Eine reelle symmetrische oder hermitesche n n-Matrix
A 2 Kn n ist genau dann
Beweis Wir begründen das Kriterium für die positive De- 4 positiv definit, wenn alle n Hauptminoren positiv sind,
finitheit. Die Beweise für die negative Definitheit und die 4 negativ definit, wenn die n Hauptminoren alternierend
Semidefinitheit ergeben sich analog. Die Indefinitheit zu sind, d. h.,
beweisen haben wir als Aufgabe gestellt.
Ist  2 R ein Eigenwert einer positiv definiten Matrix det.aij /11 < 0 ; det.aij /22 > 0 ; det.aij /33 < 0 ; : : :
A und v ein zugehöriger Eigenvektor zum Eigenwert , so
gilt wegen A v D  v durch Skalarproduktbildung dieser
Gleichung mit dem Vektor v> :
Beweis Wir begründen das Kriterium für die positive De-
> > >
v A v D v  v D  „ƒ‚…
„ƒ‚… v v : finitheit:
>0 >0 ): Die Matrix A sei positiv definit. Dann sind auch
die Matrizen .aij /1i;j k für alle k D 1; : : : ; n positiv de-
Somit muss  positiv sein. finit. Es genügt also, wenn wir det.A/ > 0 zeigen. Weil
Interessanter ist, dass auch die Umkehrung gilt. Wir A symmetrisch bzw. hermitesch ist, gibt es eine orthogo-
gehen von einer reellen symmetrischen bzw. komplexen nale Matrix S und eine Diagonalmatrix D 2 Kn n mit
hermiteschen Matrix A 2 Kn n aus, deren n nicht not- >
S A S D D. Da A positiv definit ist, sind sämtliche
wendig verschiedenen Eigenwerte 1 ; : : : ; n positiv sind.
Diagonaleinträge von D reell und echt größer Null, ins-
Nach dem Satz zur Diagonalisierbarkeit reeller symmetri- >
scher bzw. hermitescher Matrizen existiert eine Orthonor- besondere ist det.D/ > 0. Also folgt det.S A S / D
malbasis B D .v1 ; : : : ; vn / des Kn aus Eigenvektoren von j det.S /j2 det.A/ D det.D/ > 0 und somit det.A/ > 0.
A. Wir stellen v 2 Kn n f0g als Linearkombination bezüg- (: Es sei nun det.aij /1i;j k > 0 für alle k D 1; : : : ; n.
lich der Basis B dar: Wir beweisen durch vollständige Induktion nach n, dass A
positiv definit ist. Für n D 1 ist die Behauptung klar. Es sei
v D 1 v 1 C    C n v n ; also n > 1. Wir betrachten die zu A gehörige hermitesche
Sesquilinearform  W Kn Kn ! K, .v; w/ 7! v> A w.
wobei also 1 ; : : : ; n 2 K sind. Wir setzen U D he 1 ; : : : ; e n1 i, wobei e i wie üblich den
Wegen v> >
i vj D 0 für i ¤ j sowie v i v i D 1 erhalten i-ten Vektor der kanonischen Basis des Kn bezeichne, und
wir mit der Sesquilinearität des kanonischen Skalarpro- AQ D .aij /1i;j n1 . Die Matrix AQ beschreibt die Sesqui-
dukts: linearform jU U eingeschränkt auf den Untervektorraum
! !
X n Xn U . Nach Induktionsvoraussetzung ist jU U positiv definit.
> >
v .A v/ D i v i i i vi Wir wählen mit dem Verfahren von Gram und Schmidt eine
i D1 i D1 Orthonormalbasis .a1 ; : : : ; an1 / von U bezüglich des Ska-
X
n
larprodukts jU U und erhalten D ha1 ; : : : ; an1 i. Wir
D i ji j2 kvi k2 > 0 ; P U ai e n
wählen weiter u D e n  n1 i D1 kai k ai 2 K n U (wobei
n
i D1
wir vereinfachend  anstelle von jU U geschrieben haben).
weil alle Eigenwerte 1 ; : : : ; n positiv sind.  Es gilt u ? ai für alle i 2 f1; : : : ; n  1g (es ist dann
350 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

.a1 ; : : : ; an1 ; u/ eine Basis des Kn ). Bezüglich der Basis von Vektoren v und w des R3 ein euklidisches Skalar-
.a1 ; : : : ; an1 ; u/ können wir dann  darstellen als produkt, und R3 versehen mit diesem Produkt  ist ein
  euklidischer Vektorraum. 9
0 B 0
A D ?Selbstfrage 9.14
0 d
Entscheiden Sie über die Definitheit einer Diagonalma-
mit d D u  u und einer Diagonalmatrix B. Wegen trix.
det.A 0 / D det.B/ d > 0 und det.B/ > 0 ist auch d > 0.
Da B nach Induktionsvoraussetzung positiv definit ist (es 9.7 Normale Endomorphismen
stellen B und A Q ein und dieselbe Sesquilinearform bezüg-
lich verschiedener Basen dar) und d > 0 ist, ist also auch
das durch A 0 gegebene Produkt positiv definit. Also ist auch Wir haben gezeigt, dass eine n n-Matrix A über einem be-
A positiv definit. liebigen Körper genau dann diagonalisierbar ist, wenn das
Das Kriterium für die negative Definitheit einer Matrix charakteristische Polynom über diesem Körper in Linear-
A D .aij / ergibt sich hieraus durch Betrachtung von A. faktoren zerfällt und für jeden Eigenwert die algebraische
Es ist nämlich A genau dann negativ definit, wenn A Vielfachheit gleich der geometrischen ist. Wir leiten nun
positiv definit ist, d. h., nach dem bereits bewiesenen Teil, für den Körper C ein deutlich einfacheres Kriterium her.
wenn Über C zerfällt jedes Polynom vom Grad größer gleich 1 in
Linearfaktoren, damit ist die erste Bedingung automatisch
det .aij /11 > 0 ; det .aij /22 > 0 ; erfüllt. Anstelle der Gleichheit der Vielfachheiten ist aber
9 det .aij /33 > 0 ; ::: tatsächlich nur die Gleichheit
> >
A A D AA
Wegen det.B/ D  det.B/ für jede quadratische Matrix
B, deren Zeilen- und Spaltenzahl ungerade ist, folgt die nachzuweisen. Wir werden eine komplexe Matrix, die die-
Behauptung.  se Gleichung erfüllt, normal nennen. Unter den komplexen
Matrizen sind es also genau die normalen Matrizen, die dia-
Kommentar Es ist nur dann sinnvoll, eines der beiden ge- gonalisierbar sind.
schilderten Kriterien zu benutzen, wenn die Matrix klein Natürlich behandeln wir nicht nur den komplexen Fall.
ist. Große Matrizen bringt man besser auf Sylvester’sche Wir bestimmen auch im reellen Fall die Normalform nor-
Normalform. An dieser Normalform kann ebenfalls die maler Matrizen. Abgesehen von evtl. 2 2-Kästchen auf der
Definitheit entschieden werden. Wir behandeln diese Nor- Hauptdiagonalen ist dies ebenfalls eine Diagonalmatrix.
malform im 7 Kap. 10. Der Begriff des normalen Endomorphismus verallge-
meinert orthogonale bzw. unitäre und selbstadjungierte
Beispiel   Endomorphismen.
1 1 Mit K bezeichnen wir wieder einen der Körper R oder
4 Die Matrix A D ist positiv semidefinit. Sie hat
1 1 C – im euklidischen Fall ist K D R, im unitären gilt
nämlich die Eigenwerte 0 und 2. K D C.
Mit dem zweiten Kriterium finden wir, dass A nicht po-
sitiv definit ist, da
Nicht zu jedem Endomorphismus gibt es
det.aij /11 D 1 > 0 ; aber einen adjungierten Endomorphismus,
det.aij /22 D det A D 1  1  1  1  0 : aber falls einer existiert, so ist er
eindeutig bestimmt
01
1 0 1
4 Die Matrix A D @0 1 2A ist nach dem zweiten Kri-
Wir nannten einen Endomorphismus ' eines euklidischen
1 2 6
bzw. unitären Vektorraums V selbstadjungiert, wenn für al-
terium positiv definit, da
le v; w 2 V gilt:
det.aij /11 D 1 > 0 ; det.aij /22 D 1  1 > 0 ; v  '.w/ D '.v/  w :
det.aij /33 D det A D 6  .1 C 4/ > 0 : Diese Bedingung schwächen wir nun ab: Sind ' und
Endomorphismen eines euklidischen oder unitären Vektor-
Mit dieser Matrix A ist also das Produkt zwischen Vek- raums V , so heißt der Endomorphismus zu ' adjun-
toren v und w des R3 giert, wenn für alle v; w 2 V gilt:
v  w D v> A w v  '.w/ D .v/  w :
9.7  Normale Endomorphismen
351 9
Ist ' selbstadjungiert, so ist ' zu sich selbst adjungiert – so Beispiel
erklärt sich die Namensgebung der selbstadjungierten En- 4 Es sei V der Vektorraum der stetigen komplexwertigen
domorphismen. Funktionen auf dem abgeschlossenen Intervall Œa; b mit
Ist ' irgendein Endomorphismus von V , so kann man dem unitären Skalarprodukt
natürlich die Frage stellen, ob es überhaupt einen Endomor-
phismus von V gibt, der zu ' adjungiert ist. Und falls es Zb
einen gibt, dann fragt man als nächstes, ob es verschiede- hf; gi D f .x/ g.x/ dx :
ne solche zu ' adjungierte Endomorphismen geben kann. a
Wir werden zeigen, dass, falls es überhaupt einen zu ' ad-
jungierten Endomorphismus gibt, dieser dann eindeutig Für eine Funktion h 2 V definieren wir den Endomor-
bestimmt ist. Daher ist es angebracht, einen Endomorphis- phismus 'h W V ! V durch
mus , der zu ' adjungiert ist, mit ' zu bezeichnen,

D ' , d. h., Œa; b ! C;
'h W f 7! h f W
x 7! h.x/ f .x/:
v  '.w/ D ' .v/  w für alle v; w 2 V :
Mit ' D .' / bezeichnen wir den (eindeutig bestimm- Es gilt dann für alle f; g 2 V :
ten) zu ' adjungierten Endomorphismus.
Zb
hf; 'h .g/i D f .x/ h.x/ g.x/ dx
Eindeutigkeit des adjungierten Endomorphismus
a
Es sei ' ein Endomorphismus von V . Dann gilt:
(a) Falls und 0 zu ' adjungierte Endomorphismen
Zb
sind, so folgt D 0 . D h.x/ f .x/g.x/ dx
(b) Falls ' existiert, so existiert auch ' , und es gilt a
˝ ˛
' D '. D 'h .f /; g :

Damit ist der zu 'h adjungierte Endomorphismus gleich


Beweis (a) Es seien und 0 zwei zu ' adjungierte 'h , d. h., 'h D 'h .
Endomorphismen. Wir zeigen, dass  0 der Nullendo- 4 Es sei V der Vektorraum der auf dem Intervall Œ1; 1
morphismus ist, es folgt dann die Behauptung. Dazu sei ein stetigen reellwertigen Funktionen mit dem euklidischen
R1
beliebiges v 2 V vorgegeben. Für alle w 2 V gilt: Skalarprodukt hf; gi D 1 f .x/ g.x/ dx.
. .v/  0 .v//  w D .v/  w  0 .v/  w Wir wählen den Punkt 0 2 Œ1; 1 und erklären einen
Endomorphismus '0 von V durch
D v  '.w/  v  '.w/

D 0: Œ1; 1 ! R;
'0 W f 7! f0 W
0 x 7! f .0/:
Somit steht der Vektor . .v/  .v// auf jedem w 2 V
0 ?
senkrecht, d. h., . .v/  .v// 2 V D f0g. Es folgt
.v/  0 .v/ D 0. Da v 2 V beliebig war, gilt diese Das Bild von f unter '0 ist also die konstante Funktion
0
Gleichheit für alle v 2 V , und somit ist  die Nullab- f 0 , die jedem x 2 Œ1; 1 die reelle Zahl f .0/ zuordnet.

bildung. Wir zeigen nun, dass zu '0 keine adjungierte Abbil-


(b) Der zu ' adjungierte Endomorphismus ' existiere. dung existiert. Dazu berechnen wir zuerst hf; '0 .g/i für
Es gilt somit für alle v; w 2 V f; g 2 V:

v  '.w/ D ' .v/  w : Z1 Z1


hf; '0 .g/i D f .x/ g.0/ dx D g.0/ f .x/ dx :
Wir zeigen nun, dass für alle v; w 2 V gilt:
1 1
v  ' .w/ D '.v/  w : ( )
Angenommen, die zu '0 adjungierte Abbildung '0 exis-
Es ist dann ' D ' gezeigt. Für alle v; w 2 V folgt mit tiert. Wir setzen h D
der Tatsache, dass  hermitesch ist: ˝ '0 .f / ˛und beachten nun, dass
wegen hf; '0 .g/i D '0 .f /; g D hh; gi für alle g 2 V
v  ' .w/ D ' .w/  v gilt:
D w  '.v/ Z1 Z1
D '.v/  w : g.0/ f .x/ dx D h.x/ g.x/ dx :
Damit ist die Gleichung in . / bewiesen.  1 1
352 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

y Wir untersuchen nun die Standardvektorräume Rn und C n


mit den kanonischen Skalarprodukten. Jeder Endomorphis-
c mus ' W Kn ! Kn hat die Form ' D 'A W v 7! A v mit
einer Matrix A 2 Kn n . Wir können den Endomorphismus
' mit der Matrix A identifizieren. Wie sieht die Matrix des
zu ' adjungierten Endomorphismus aus? Existiert der zu
' adjungierte Endomorphismus überhaupt? Die Antworten
sind bestechend einfach:

1 1 1 1 x Adjungierte von Matrizen


c2 c2
4 Es sei V D Rn mit dem kanonischen euklidischen
Skalarprodukt. Ist A 2 Rn n , so gilt für den Endo-
1 22
. Abb. 9.22 Das Integral dieser stetigen Funktion ist cD 1
2 c c morphismus 'A W v 7! A v:

R1 'A D 'A > :


Wäre nun aber 1 f .x/ dx ¤ 0, so erhielte man mit
den bekannten Abschätzungen für bestimmte Integrale 4 Es sei V D C n mit dem kanonischen unitären
die für alle g 2 V gültige Ungleichung Skalarprodukt. Ist A 2 C n n , so gilt für den Endo-
morphismus 'A W v 7! A v:
Z1
9 g.0/  M jg.x/j dx für ein M 2 R0 : 'A D 'A > :
1 >
Man nennt die Matrix A 2 Kn n
die zu A 2 Kn n
ad-
Aber natürlich gibt es eine auf Œ1; 1 stetige Funktion g
R1 jungierte Matrix.
mit g.0/ > M 1 jg.x/j dx, etwa für c D maxf1; M g
die Funktion g, deren Graph in . Abb. 9.22 gezeigt ist.
R1
Dieser Widerspruch zeigt, dass 1 f .x/ dx D 0 gilt. Beweis Für alle v; w 2 Rn gilt:
Aber auch diese Gleichheit ist sicher nicht für alle f 2
V erfüllt. Und dieser Widerspruch begründet nun, dass v  'A .w/ D v> .A w/ D .A > v/> w D 'A > .v/  w :
zu ' keine adjungierte Abbildung existieren kann. Im komplexen Fall folgt die Aussage analog. 
4 Es sei V der Vektorraum aller 2 -periodischen, unend-
lich oft differenzierbaren komplexwertigen Funktionen i Man verwechsle nicht die adjungierte Matrix (siehe oben)
auf R. Dabei heißt eine Funktion 2 -periodisch, falls mit der adjunkten Matrix.
f .x C 2 / D f .x/ für alle x 2 R : Im Standardvektorraum Kn existiert somit zu jedem Endo-
Wir versehen den Vektorraum V mit dem unitären Ska- morphismus ' der dazu adjungierte Endomorphismus ' .
larprodukt Ist A die Darstellungsmatrix von ' bezüglich der kanoni-
>
schen Basis, so ist A diese von ' .
Z
hf; gi D f .x/ g.x/ dx :

Ein Endomorphismus ist normal, wenn er
mit seinem Adjungierten kommutiert
Nun betrachten wir den Endomorphismus ' W V ! V ,
f 7! f 0 . Mit partieller Integration gilt:
Z Nun kommen wir endlich zu der Definition normaler En-
domorphismen.
hf; '.g/i D f .x/ g 0 .x/ dx


D f . / g. /  f . / g. / Normale Endomorphismen und Matrizen


„ ƒ‚ …
D0
4 Ein Endomorphismus ' eines euklidischen bzw. unitä-
Z ren Vektorraums V heißt normal, falls der adjungierte
Endomorphismus ' existiert und
 f 0 .x/ g.x/ dx
 'ı' D' ı'
D h'.f /; gi : gilt.
Somit gilt ' D '. 9
9.7  Normale Endomorphismen
353 9
den Endomorphismen endlichdimensionaler C-Vektorräu-
4 Eine Matrix A 2 K n n
heißt normal, falls me gerade die normalen die (orthogonal) diagonalisierba-
ren sind. Das nächste Ergebnis ist der erste Schritt in diese
> >
A A DAA Richtung.

gilt.
Die Eigenräume normaler Endomorphismen
sind senkrecht zueinander
Im Fall K D R heißt eine quadratische Matrix also dann
normal, wenn A > A D A A > gilt. Wir listen zahlreiche Ist ' ein Endomorphismus eines K-Vektorraums V , so be-
Beispiele auf. zeichneten wir den Eigenraum von ' zum Eigenwert  2 K
stets mit Eig' ./. Wir verallgemeinern diese Bezeichnung
Beispiel etwas. Für jedes  2 K setzen wir
4 Jede symmetrische Matrix A 2 Rn n ist normal; es gilt
A > D A und damit A > A D A A > . E' ./ D fv 2 V j '.v/ D  vg :
4 Jede hermitesche Matrix A 2 C n n ist normal; es gilt
> > > Es gilt:
A D A und damit A A D A A .
4 Jede schiefsymmetrische Matrix A 2 R n n
ist normal; E' ./ D Eig' ./ ;
es gilt A > D A und damit A > A D A A > .
4 Jede schiefhermitesche Matrix A 2 C n n ist normal. falls  ein Eigenwert von ' ist. Ist  hingegen kein Eigen-
Dabei heißt eine Matrix A 2 C n n schiefhermitesch, wert von ', so gilt E' ./ D f0g.
>
falls gilt A D A. Für jede solche Matrix gilt
A A D A A>.
> Lemma Es sei ' ein normaler Endomorphismus eines eu-
4 Jede orthogonale Matrix A 2 R n n
ist normal; es gilt klidischen bzw. unitären Vektorraums V . Dann gilt für
> 1 >
A D A und damit A A D A A . > jedes  2 K:
>
4 Jede unitäre Matrix A 2 C n n
ist normal; es gilt A D
> > E' ./ D E' ./ :
A 1 und damit A A D  AA .
1 2
4 Die Matrix A D 2 R2 2 ist nicht normal. Es Ist  ein Eigenwert von ', so heißt das, der Eigenraum von
3 4
' zum Eigenwert  ist gleich dem Eigenraum der zu ' ad-
gilt: jungierten Abbildung ' zum Eigenwert .
    
1 2 1 3 5 11
A A> D D Beweis Es sei v 2 E' ./. Wir zeigen vorab zwei Identitä-
3 4 2 4 11 25
     ten: Zum einen gilt:
> 1 3 1 2 10 14
A AD D k' .v/k2 D ' .v/  ' .v/ D v  '.' .v//
2 4 3 4 14 20
D v  ' '.v/ D v  ' . v/ D  .v  ' .v// ;
4 Jeder orthogonale bzw. unitäre Endomorphismus ' ei-
nes euklidischen bzw. unitären Vektorraums V ist nor- und zum anderen gilt:
mal. Denn es gilt für alle v; w 2 V :
' .v/  v D v  '.v/ D v  . v/ D  kvk2 :
1 1 1
v  '.w/ D ' .v/  ' .'.w// D ' .v/  w :
Mit diesen zwei Aussagen erhalten wir nun:
1
Somit gilt ' D ' . Beachte ' ı ' D idV D ' ı ' .
k' .v/   vk2 D .' .v/   v/  .' .v/   v/
4 Jeder selbstadjungierte Endomorphismus ' ist normal;
es gilt ' D '. D k' .v/k2   .' .v/  v/   .v  ' .v// C jj2 kvk2
4 Der Endomorphismus aus obigem Beispiel (das Diffe- D  .v  ' .v//  jj2 kvk2  .v  ' .v// C jj2 kvk2
renzieren der 2 -periodischen Funktionen) ist normal;
es gilt ' D '. 9 D 0:

Damit sind die normalen Endomorphismen eine gemeinsa- Damit folgt ' .v/   v D 0, d. h. v 2 E' ./.
me Verallgemeinerung der orthogonalen bzw. unitären und Gezeigt ist hiermit die Inklusion E' ./  E' ./.
selbstadjungierten Endomorphismen. Unitäre und selbstad- Die andere Inklusion erhalten wir nun ganz einfach: Wir
jungierte Endomorphismen endlichdimensionaler C-Vek- wenden die obige Argumentation an auf ' und  anstel-
torräume sind (orthogonal) diagonalisierbar, wie wir längst le von ' und . Wegen ' D ' und  D  gilt folglich
wissen. Und einer unserer Ziele ist es zu zeigen, dass unter E' ./  E' ./. 
354 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Übersicht: Die verschiedenen Klassen von Matrizen

Wir listen wichtige Arten von im Allgemeinen komplexen 4 Orthogonale Matrix: A > D A 1 , hat höchstens die
Matrizen auf, erwähnen wesentliche Eigenschaften und geben Eigenwerte ˙1, ist invertierbar, ist von evtl. Drehkäst-
jeweils ein typisches Beispiel einer 2 2-Matrix an. chen auf der Diagonalen abgesehen diagonalisierbar, die
Spalten und Zeilen der Matrix bilden Orthonormalbasen
4 Diagonalmatrix: A D diag.1 ; : : : ; n /, hat die Ei- des Rn :
genwerte 1 ; : : : ; n , ist genau dann invertierbar, wenn !
1 ; : : : ; n ¤ 0:  p12 p12
AD 1 1
p p
! 2 2
1 0
AD
0 3 4 Spezielle orthogonale Matrix: eine orthogonale Matrix
mit det A D 1, stellt eine Drehung dar:
4 Obere bzw. untere Dreiecksmatrix: Die Eigenwerte ste- !
hen auf der Hauptdiagonalen, ist zu einer Jordan-Matrix p1  p12
A D 12 1
ähnlich, ist genau dann invertierbar, wenn alle Diagonal- p p
2 2
einträge ungleich null sind:
! >
1 2 4 Unitäre Matrix: A D A 1 , hat Eigenwerte vom Betrag
AD 1, ist invertierbar, ist diagonalisierbar, die Spalten und Zei-
0 3
len der Matrix bilden Orthonormalbasen des C n :
9 4 Reelle symmetrische Matrix: A > D A, hat nur reelle !
p1 p1
Eigenwerte, ist diagonalisierbar, liefert eine symmetrische AD 2 2
pi
2
 pi 2
Bilinearform:
!
1 2 4 Positiv definite Matrix: v> A v > 0 für alle v ¤ 0, ist
AD
2 3 symmetrisch, hat nur positive Eigenwerte, ist invertierbar,
liefert ein Skalarprodukt:
4 Hermitesche Matrix: A > D A, hat nur reelle Eigenwer- !
te, ist diagonalisierbar, liefert eine hermitesche Sesquili- 1 2
AD
nearform: 2 5
!
1 i
AD 4 Negativ definite Matrix: v> A v < 0 für alle v ¤ 0, ist
i 3
symmetrisch, hat nur negative Eigenwerte, ist invertierbar:
4 Reelle schiefsymmetrische Matrix: A > D A, hat nur !
3 2
Nullen auf der Hauptdiagonalen, hat nur rein imaginäre AD
2 2
Eigenwerte:
!
0 1 4 Indefinite Matrix: Es gibt v; w mit v> A v < 0 und
AD w> A w > 0, ist symmetrisch, hat einen negativen und
1 0
positiven Eigenwert:
4 Invertierbare Matrix: A A 1 D En , es gilt det A ¤ 0, !
hat höchstens Eigenwerte ungleich 0: 1 2
AD
! 2 2
1 0
AD
2 3 4 Reelle normale Matrix: A > A D A A > , ist von evtl.
2 2-Kästchen auf der Hauptdiagonalen abgesehen dia-
4 Idempotente Matrix: A 2 D A, stellt eine Projektion dar, gonalisierbar:
hat höchstens die Eigenwerte 0 und 1, ist diagonalisierbar:
!
! 1 1
1 1
AD
AD 2
1
2
1 1 1
2 2
> >
4 Nilpotente Matrix: A p D 0 für ein p 2 N, hat den ein- 4 Komplexe normale Matrix: A A D A A , ist diago-
zigen Eigenwert 0, ist zu einer Jordan-Matrix ähnlich: nalisierbar:
! !
1 1 1 i
AD AD
1 1 i 5
9.7  Normale Endomorphismen
355 9
Im Fall eines euklidischen Vektorraums, d. h., K D R, gilt Dimensionen der Eigenräume höchstens abzählbar unend-
somit für jedes  2 R wegen  D : lich sind. Falls zudem noch L? D f0g im Teil (b) gilt, so ist
das Orthonormalsystem sogar eine Orthonormalbasis. Und
E' ./ D E' ./ ; nun kommt das Entscheidende: Ist V endlichdimensional,
so sind diese zwei Dinge von selbst erfüllt.
d. h., dass in diesem Fall insbesondere die Eigenräume zu
den gleichen Eigenwerten von ' und ' gleich sind.
Mit dem eben gezeigten Lemma erhalten wir nun die Zu jedem normalen Endomorphismus
Folgerung, dass die Eigenräume normaler Endomorphis- eines unitären Vektorraums gibt es
men zu verschiedenen Eigenwerten senkrecht aufeinander eine Orthonormalbasis aus Eigenvektoren
stehen. Damit sind wir dem Ziel, nämlich, dass es bei nor-
malen Endomorphismen endlich-dimensionaler Vektorräu-
me eine Orthonormalbasis aus Eigenvektoren gibt, wieder Wir wissen bereits, dass jeder unitäre und selbstadjungier-
etwas näher. te Endomorphismen ' eines endlichdimensionalen unitären
Vektorraums V orthogonal diagonalisierbar ist, d. h, dass
eine Orthonormalbasis B von V aus Eigenvektoren von '
Folgerung Es sei ' ein normaler Endomorphismus des eu-
existiert, bezüglich der die Darstellungsmatrix von ' eine
klidischen bzw. unitären Vektorraums V . Ist L  V das
Diagonalgestalt besitzt.
Erzeugnis aller Eigenvektoren zu allen Eigenwerten von ',
Unitäre und selbstadjungierte Endomorphismen sind
so gilt:
normal. Wir erhalten somit das alte Resultat wieder in dem
(a) E' ./ ? E' ./ für alle ;  2 K mit  ¤ .
allgemeinen Satz:
(b) '.L? /  L? , und L? enthält keine Eigenvektoren
von '.

Beweis (a) Es seien v 2 E' ./ und w 2 E' ./. Mit obi- Der Spektralsatz für unitäre Räume
gem Lemma folgt nun w 2 E' ./, also Es sei ' ein normaler Endomorphismus des endlichdimen-
sionalen unitären Vektorraums V . Dann besitzt V eine
Orthonormalbasis, die aus Eigenvektoren von ' besteht.
.  / .v  w/ D  .v  w/   .v  w/
Insbesondere ist ' diagonalisierbar.
D . v/  w  v  . w/
D '.v/  w  v  ' .w/
D v  ' .w/  v  ' .w/ Beweis Es sei L das Erzeugnis aller Eigenvektoren aller
D 0: Eigenwerte von '. Wir schränken den normalen Endomor-
phismus ' auf den Untervektorraum L? ein und erhalten
Für  ¤  folgt somit v ? w. Das ist die Behauptung. wegen der Voraussetzung und dem Teil (b) aus obiger Fol-
(b) Angenommen, es gibt einen Eigenvektor v von ' in gerung:
L . Dann gilt v 2 L \ L? . Wegen L \ L? D f0g folgt
?

v D 0. Somit enthält L? keine Eigenvektoren von '. 'jL? 2 EndC .L? / und dim.L? / < 1 :
Es sei nun v 2 L? . Wir zeigen '.v/ 2 L? , d. h., '.v/ 2 ?
E' ./? für alle  2 K. Nach obigem Lemma gilt E' ./ D Angenommen, L ¤ f0g. Da das charakteristische Poly-
nom von 'jL? über C zerfällt, hat 'jL? Eigenwerte. Da
E' ./ für jedes  2 K. Damit erhalten wir nun für ein
nach der Aussage (b) der obigen Folgerung 'jL? keine Ei-
w 2 E' ./,  2 K:
genvektoren hat, erhalten wir einen Widerspruch. Somit gilt
L? D f0g, d. h., L D V .
'.v/  w D v  ' .w/ D v  . w/ D  .v  w/ D 0 ; Sind 1 ; : : : ; r die verschiedenen Eigenwerte von ', so
gilt also:
da v 2 L? und w 2 L. Damit ist auch die Behauptung in
(b) begründet.  V D Eig' .1 / C    C Eig' .r / :

Nun haben wir alle Vorbereitungen getroffen, um das zen- Wegen dem Teil (a) der Folgerung stehen Eigenräume zu
trale Ergebnis zu beweisen. Nach der Aussage (a) in obiger verschiedenen Eigenwerten senkrecht aufeinander. Weiter-
Folgerung erhält man mit der Vereinigung von Orthonor- hin erhalten wir aus v1 C    C vr D 0 mit vi 2 Eig' .i /:
malbasen der Eigenräume eines normalen Endomorphis-
mus ein Orthonormalsystem des Vektorraums V bestehend 0 D 0  vi D .v1 C    C vr /  vi D kvi k2 ;
aus Eigenvektoren von V . Mit dem Orthonormierungs-
verfahren von Gram und Schmidt ist es möglich, in den d. h., dass v1 D    D vr D 0 gilt. Wir haben begrün-
Eigenräumen Orthonormalbasen zu erzeugen, solange die det, dass V die direkte orthogonale Summe der Eigenräume
356 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

ist, d. h. Beim Spektralsatz für unitäre Räume bzw. für normale Ma-
trizen ist es ganz wesentlich, dass der Grundkörper der
V D Eig' .1 / ⦹    ⦹ Eig' .r / : Körper C der komplexen Zahlen ist. Über C zerfällt näm-
Mit dem Gram-Schmidt’schen Orthonormierungsverfahren lich jedes Polynom in Linearfaktoren, sodass man sich
können wir in jedem der r Eigenräume Eig' .i / eine Or- um die allgemeine Voraussetzung zur Diagonalisierbarkeit,
thonormalbasis Bi konstruieren. Die Vereinigung dass nämlich das charakteristische Polynom zerfallen muss,
nicht den Kopf zerbrechen muss. Über R ist dies nicht ge-
[ r
währleistet. Und so wird man natürlich erwarten, dass man
BD Bi
über R nicht jeden normalen Endomorphismus bzw. jede
i D1
normale Matrix diagonalisieren kann. Wir untersuchen nun
dieser Orthonormalbasen B1 ; : : : ; Br ist dann eine Ortho- den reellen Fall genauer.
normalbasis von V . Die Elemente von B sind Eigenvekto-
ren von '. Damit ist alles begründet. 
Zu jedem normalen Endomorphismus
Wir übersetzen das erhaltene Ergebnis in das Matrizenkal- eines euklidischen Vektorraums
kül und erhalten für eine komplexe quadratische Matrix A, gibt es eine Orthonormalbasis
dass A genau dann normal ist, wenn sie orthogonal diago- bezüglich der die Darstellungsmatrix
nalisierbar ist, etwas genauer:
eine Blockdiagonalmatrix ist

9 Der Spektralsatz für normale Matrizen Wir haben bereits erwähnt, dass es zu orthogonalen und
Es sei A 2 C n n . Die Matrix A ist genau dann normal, selbstadjungierten Endomorphismen ' eines endlichdi-
>
wenn es eine unitäre Matrix S 2 C n n , S 1 D S , gibt, mensionalen euklidischen Vektorraums V eine Orthonor-
sodass malbasis gibt bezüglich der die Darstellungsmatrix von '
eine Blockdiagonalgestalt hat. Im Fall eines selbstadjun-
D D S 1 A S gierten Endomorphismus ist die Darstellungsmatrix sogar
diagonal, im Fall eines orthogonalen Endomorphismus tau-
Diagonalgestalt hat. chen evtl. 2 2-Matrizen der Form . cos ˛  sin ˛
sin ˛ cos ˛ / auf.
Nun sind orthogonale und selbstadjungierte Endomor-
phismen insbesondere normal. Wir erhalten somit diese
Beweis Ist die Matrix A 2 C n n normal, so folgt aus Resultate aus dem allgemeineren Satz für normale Endo-
dem Spektralsatz für unitäre Räume, dass es eine geordnete morphismen:
Orthonormalbasis B D .b1 ; : : : ; bn / des C n aus Eigenvek-
toren des normalen Endomorphismus 'A W v 7! A v gibt.
Die Matrix S D .b1 ; : : : ; bn /, deren Spalten gerade die Ba- Der Spektralsatz für euklidische Räume
sisvektoren der Orthonormalbasis B bilde, ist dann unitär, Es sei ' ein normaler Endomorphismus des endlichdi-
>
d. h., S 1 D S , und erfüllt D D S 1 A S , wobei D eine mensionalen euklidischen Vektorraums V . Dann besitzt V
Diagonalmatrix ist. eine Orthonormalbasis B, sodass
Nun existiere zu A 2 C n n eine unitäre Matrix S , d. h., 0 1
>
S D S , sodass D D S 1 A S eine Diagonalmatrix ist.
1 1
B :: C
Es folgt: B : C
B C
B C
1 > > > B r C
A DSDS DS DS und A D S D S : B C
B C
B a1 b1 C
B C
Hieraus erhalten wir: B M .'/B D B b1 a1 C
B C
> > > > B C
AA D S DDS DS DDS D A A: B :: C
B : C
B C
B C
Folglich ist A normal.  B as bs C
@ A
bs as
Kommentar In der linearen Algebra bezeichnet man die
Menge aller Eigenwerte einer linearen Abbildung ' bzw.
einer Matrix A als das Spektrum von ' bzw. A. In der mit 1 : : : ; r ; a1 ; : : : ; as ; b1 ; : : : ; bs 2 R, b1 ; : : : ; bs ¤ 0.
Funktionalanalysis wird dieses Spektrum für lineare Ope- Im Fall s D 0 ist ' diagonalisierbar.
ratoren unendlichdimensionaler Räume verallgemeinert.
9.7  Normale Endomorphismen
357 9
Zum Beweis dieses Satzes benötigen wir eine Hilfsaussage, werden kann, und für j > r der Vektor vj Eigenvektor zum
die wir dem Beweis des Spektralsatzes voranstellen. Eigenwert j 2 C n R ist. Setze für jedes solche j nun
p p
Lemma Wir betrachten den Endomorphismus 'A W C n ! uj D 2 Re.vj / ; wj D 2 Im.vj / 2 Rn :
C n , v 7! A v, wobei A 2 Rn n . Dann gilt für jedes  2 C:
(a) E ./ D E ./ D fv j v 2 E ./g. Es gilt dann:
'A 'A 'A
(b) Für v 2 E'A ./ seien Re.v/; Im.v/ 2 Rn der Real- und p !2
Imaginärteil von v. Dann gilt: 2
uj  wj D .vj C vj / .vj  vj /
(i) 'A .Re.v// D Re./ Re.v/  Im./ Im.v/, 2
(ii) 'A .Im.v// D Im./ Re.v/ C Re./ Im.v/. 1
D .kvj k2  kvj k2 / D 0
2
Beweis (a) Wir schreiben kürzer ' D 'A . Ist v 2 E' ./,
so gilt: und
p !2
'.v/ D A v D A v D  v D  v ; 2
kuj k2 D .vj C vj / .vj C vj /
2
d. h., dass v 2 E' ./, d. h., E' ./  E' ./. Wendet man 1
D .1 C 1/ D 1 ;
nun diese Argumentation auf  anstelle von  an, so erhält 2
man die andere Inklusion E' ./  E' ./. Damit ist bereits kwj k2 D 1 :
(a) gezeigt.
(b) Es gilt: Für k ¤ j gilt weiterhin wj ? vk . Somit ist

1 1 B D .v1 ; : : : ; vr ; urC1 ; wrC1 ; : : : ; urCs ; wrCs /  Rn


Re.v/ D .v C v/ ; Im.v/ D .v  v/ :
2 2i
eine Orthonormalbasis. Nach dem Teil (b) aus obigem
Damit erhalten wir Re./ Re.v/  Im./ Im.v/ D Lemma gilt:
  A uj D Re.j / uj  Im.j / wj :
1 1 „ ƒ‚ … „ ƒ‚ …
D . C / .v C v/  2 .  / .v  v/ DWaj r
4 i DWbj r

1
D .2  v C 2  v/ Es gilt weiterhin:
4
1 A wj D bj r uj C aj r wj :
D .'.v/ C '.v//
2
D '.Re.v// : Das zeigt, dass B M .'/B die im Satz angegebene Gestalt
hat. 
Damit ist (i) in (b) nachgewiesen, die Gleichung in (ii) zeigt
man analog.  Da jeder selbstadjungierte Endomorphismus insbesondere
normal ist, können wir den Spektralsatz auf selbstadjun-
Mit diesem Lemma ist der Beweis des Spektralsatzes gierte Endomorphismen endlichdimensionaler euklidischer
kurz. Vektorräume anwenden. Diese Endomorphismen können
wir weiterhin mit den symmetrischen Matrizen identifizie-
Beweis (des Spektralsatzes für euklidische Räume) Wir ren, daher erhalten wir:
dürfen ohne Einschränkung annehmen, dass V D Rn ,  das
kanonische Skalarprodukt und ' D 'A durch eine normale
Matrix A 2 Rn n gegeben ist. Nach dem Spektralsatz für Der Spektralsatz für symmetrische Matrizen
normale Matrizen existiert eine Orthonormalbasis BQ von Es sei A 2 Rn n . Die Matrix A ist genau dann symme-
C n aus Eigenvektoren von A. Nach obigem Lemma kann trisch, wenn es eine orthogonale Matrix S 2 Rn n , d. h.
BQ als S 1 D S > , gibt, sodass

BQ D .v1 ; : : : ; vr ; vrC1 ; vrC1 ; : : : ; vrCs ; vrCs / D D S 1 A S

gewählt werden, wobei für i  r der Vektor vi ein Eigen- Diagonalgestalt hat.
vektor zum Eigenwert i 2 R sogar aus dem Rn gewählt
358 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Übersicht: Reell versus komplex

Wir stellen wesentliche Begriffe für den reellen und den komplexen Fall eines Vektorraums mit einem Ska-
larprodukt gegenüber – dabei geben wir auch die Normalformen der Endomorphismen endlichdimensionaler
Vektorräume bzw. Matrizen an.

Reell Komplex
Euklidisches Skalarprodukt Unitäres Skalarprodukt
>
Symmetrische Matrix, A D A > , diagonalisierbar Hermitesche Matrix, A D A , diagonalisierbar
>
Orthogonale Matrix, A 1 D A > , im Allgemeinen nicht diagonalisier- Unitäre Matrix, A 1 D A , diagonalisierbar
bar, evtl. Drehkästchen auf der Diagonalen

Selbstadjungierter Endomorphismus, ' D ' , diagonalisierbar Selbstadjungierter Endomorphismus, ' D ' , diagonalisierbar
> >
Normale Matrix, A > A D A A > , im Allgemeinen nicht diagonalisier- Normale Matrix, A A D A A , diagonalisierbar
bar, evtl. schiefsymmetrische Kästchen auf der Diagonalen

Normaler Endomorphismus, ' ' D ' ' , im Allgemeinen nicht normaler Endomorphismus, ' ' D ' ' , diagonalisierbar
diagonalisierbar

Beweis Ist A 2 Rn n symmetrisch, so ist der Endo- Die Normalform eines orthogonalen
morphismus 'A W v 7! A v selbstadjungiert und somit Endomorphismus ist von Drehkästchen
normal. Nach dem Spektralsatz für euklidische Räume gibt abgesehen eine Diagonalmatrix
es eine Orthonormalbasis B des Rn aus Eigenvektoren
von A mit der im Satz angegeben Form, B M .'A /B D
S 1 A S , wobei die Spalten der orthogonalen Matrix S die Nun ist es nicht mehr schwer, das bereits früher zitierte Er-
Orthonormalbasis B bilden. Man beachte, dass die Darstel- gebnis zu beweisen:
lungsmatrix B M .'A /B D S 1 A S wegen

.S 1 A S /> D S > A > .S 1 /> D S 1 A S Die Normalform orthogonaler Endomorphismen


Ist ' ein orthogonaler Endomorphismus eines endlichdi-
symmetrisch ist. Daher kann es wegen bi D bi , bi ¤ 0, mensionalen euklidischen Vektorraums V , so gibt es eine
keine 2 2-Kästchen auf der Diagonalen von B M .'A /B Orthonormalbasis B von V mit
geben. Somit ist B M .'A /B eine Diagonalmatrix.
0 1
Nun existiere zu A 2 Rn n eine orthogonale Matrix S , 1
d. h., S 1 D S > , sodass D D S 1 A S eine Diagonalma- B :
B ::
C
C
trix ist. Es folgt: B C
B C
B 1 C
B C
B 1 C
A D S D S 1 D S D S > B C
B C
D B :: C
D .S D > S > /> B M .'/B B : C
B C
> > B 1 C
D .S D S / B C
B C
B A1 C
D A> : B
B ::
C
C
@ : A
Folglich ist A symmetrisch.  Ak

wobei jedes A i für i D 1; : : : ; k!eine 2 2-Drehmatrix


cos ˛i  sin ˛i
ist, also A i D mit ˛i 20; 2 Œnf g.
sin ˛i cos ˛i
Aufgaben
359 9
Beweis Laut dem Spektralsatz für euklidische Räume be- 9.2  Sind  und ı zwei Skalarprodukte des Rn , so ist
sitzt V eine Orthonormalbasis B, sodass jede Orthogonalbasis bezüglich  auch eine Orthogonalba-
0 1 sis bezüglich ı – stimmt das?
1
B :: C
B : C 9.3  Wieso ist für jede beliebige Matrix A 2 C n n
B C
B r C >
die Matrix B D A A hermitesch?
B C
B C
B a1 b1 C
B C
B M .'/B D B b1 a 1 C 9.4  Für welche a; b 2 C ist
B C
B C
B :: C 8
B : C <  C C
2 2
! C;
B C 
B as bs C W v1 w1 v 1 w1 C a v 1 w2
@ A : ; 7!
bs a s v2 w2 2v 2 w1 C b v 2 w2

mit 1 : : : ; r ; a1 ; : : : ; as ; b1 ; : : : ; bs 2 R, b1 ; : : : ; bs ¤ 0. hermitesch?
Da B eine Orthonormalbasis ist, ist die Matrix B M .'/B Für welche a; b 2 C ist f außerdem positiv definit?
orthogonal. Damit gilt 2i D 1, sodass i D ˙1 für alle i D
1; : : : ; r. Und für die Kästchen . abii b ai / gilt ai C bi D 1 für
i 2 2

alle i D 1; : : : ; s. Somit gibt es zu jedem solchen Kästchen Rechenaufgaben


ein ˛i 20; 2 Œnf g mit ai D cos ˛i und bi D sin ˛i , d. h.
    9.5  Gegeben ist die reelle, symmetrische Matrix
ai bi cos ˛i  sin ˛i
D
bi ai sin ˛i cos ˛i 0 1
10 8 8
für jedes solche i. Damit hat B M .'/B die gewünschte A D @ 8 10 8 A
Form.  8 8 10

Bestimmen Sie eine orthogonale Matrix S 2 R3 3 , sodass


Aufgaben D D S 1 A S eine Diagonalmatrix ist.

Gelegentlich enthalten die Aufgaben mehr Angaben, als für


9.6  Auf dem R-Vektorraum V D ff 2
die Lösung erforderlich sind. Bei einigen anderen dage-
RŒX j deg.f /  3g  RŒX der Polynome vom Grad klei-
gen werden Daten aus dem Allgemeinwissen, aus anderen
ner oder gleich 3 ist das Skalarprodukt  durch
Quellen oder sinnvolle Schätzungen benötigt.

einfache Aufgaben mit wenigen Rechenschritten Z1


mittelschwere Aufgaben, die etwas Denkarbeit und hf; gi D f .t/ g.t/ dt
unter Umständen die Kombination verschiedener 1
Konzepte erfordern
anspruchsvolle Aufgaben, die fortgeschrittene Kon- für f; g 2 V gegeben.
zepte (unter Umständen auch aus späteren Kapiteln) (a) Bestimmen Sie eine Orthonormalbasis von V bezüglich
oder eigene mathematische Modellbildung benötigen h ; i.
(b) Man berechne in V den Abstand von f D X C 1 zu
g D X 2  1.
Verständnisfragen
9.7  Bestimmen
0 1 Sie alle0normierten
1 Vektoren des C 3 ,
1 0
9.1  Sind die folgenden Produkte Skalarprodukte? die zu v1 D @ i A und v2 D @ i A bezüglich des kanoni-
8 0 i
<  R  R2 ! R;
2
schen Skalarprodukts senkrecht stehen.
W v1 w1 ;
: ; 7! v1  w1 :
v2 w2
8 9.8  Berechnen
0 1 Sie den minimalen Abstand des
*011 011+
<  R  R2 ! R;
2
3
W v1 w1 Punktes v D @ 1 A zu der Ebene @1A ; @1A .
: ; 7! 3 v1 w1 C v1 w2 C v2 w1 C v2 w2 :
v2 w2 1 1 1
360 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

9.9  Im Laufe von zehn Stunden wurde alle zwei 9.13  Gegeben sei der euklidische Vektorraum RŒX3
Stunden, also zu den Zeiten t1 D 0, t2 D 2, t3 D 4, mit dem euklidischen Skalarprodukt
t4 D 6, t5 D 8 und t6 D 10 in Stunden, die Höhe h1 ; : : : ; h6
des Wasserstandes der Nordsee in Metern ermittelt. Da- Z1
mit haben wir sechs Paare .ti ; hi / für den Wasserstand der hp; qi D p.t/ q.t/ dt :
Nordsee zu bestimmten Zeiten vorliegen: 1

(a) Zeigen Sie, dass durch


.0; 1:0/; .2; 1:5/; .4; 1:3/; .6; 0:6/; .8; 0:4/; .10; 0:8/ :
L.p/ D .1  X 2 /p 00  2 X p 0
Man ermittle eine Funktion, welche diese Messwerte mög-
lichst gut approximiert. eine lineare Abbildung LW RŒX3 ! RŒX3 definiert
wird.
9.10  Bekanntlich ist eine (reelle) Drehmatrix B ˛ für (b) Berechnen Sie die Darstellungsmatrix A von L bezüg-
˛ 20; 2 Œnf g nicht diagonalisierbar. Nun kann man jede lich der Basis .1; X; X 2 ; X 3 / von RŒX3 .
solche (orthogonale) Matrix D ˛ 2 R2 2 auch als unitäre (c) Bestimmen Sie eine Basis B von RŒX3 aus Eigenvek-
Matrix D ˛ 2 C 2 2 auffassen. Ist sie dann diagonalisierbar? toren von L.
(d) Bestimmen Sie jeweils eine Basis von ker.L/ und
L.RŒX3 /.
9.11  Gegeben ist eine elastische Membran im R2 , die
(e) Zeigen Sie: hL.p/; qi D hp; L.q/i für alle p; q 2
von der Einheitskreislinie x12 C x22 D 1 berandet wird. Bei
RŒX3 , d. h., L ist selbstadjungiert.
ihrer (als lineare
 Abbildung
 angenommenen)
 Verformung

9 v1 5 v1 C 3 v2
gehe der Punkt in den Punkt über.
v2 3 v1 C 5 v2
(a) Welche Form und Lage hat die ausgedehnte Membran? Beweisaufgaben
(b) Welche Geraden durch den Ursprung werden auf sich
abgebildet? 9.14  Beweisen Sie: Für jeden Körper K und für jede
natürliche Zahl n definiert die Kongruenz  von Matrizen
x2 eine Äquivalenzrelation auf der Menge Kn n .
x1 D x2
9.15  Beweisen Sie die Cauchy-Schwarz’sche Unglei-
5 chung im unitären Fall.

9.16  Zeigen Sie, dass die im 7 Abschn. 9.2 angege-


bene Minkowski-Ungleichung gilt.

x1
9.17  Ein Endomorphismus ' eines Vektorraums V
5 5
mit ' 2 D ' heißt Projektion. Ist fb1 ; : : : ; bn g eine Ortho-
x1 x2
normalbasis des euklidischen Vektorraums V D Rn mit
dem kanonischen Skalarprodukt , so setzen wir

5 P i D bi b>
i 2 R
n n
für jedes i 2 f1; : : : ; ng :

Zeigen Sie:
(a) 'P2 i D 'P i und
P
(b) En D niD1 P i .
9.12  Es sei der euklidische Vektorraum R3 mit dem
Standardskalarprodukt gegeben, weiter seien Insbesondere ist somit für jedes i 2 f1; : : : ; ng die lineare
Abbildung 'P i eine Projektion.
0 1
0 1 0
9.18  Zeigen Sie, dass eine hermitesche Matrix A 2
AD@ 0 0 1 A
C n n genau dann indefinit ist, wenn sie sowohl einen posi-
1 0 0
tiven als auch einen negativen Eigenwert hat.
und ' D 'A W R3 ! R3 , v 7! Av, die zugehörige lineare 9.19  Eine Matrix A 2 Kn n , K ein Körper, nennt
Abbildung. man idempotent, falls A 2 D A gilt. Zeigen Sie: Für jede
(a) Ist ' eine Drehung? idempotente Matrix A 2 Kn n gilt:
(b) Stellen Sie ' als Produkt einer minimalen Anzahl von
Spiegelungen dar. Kn D ker A ˚ Bild A :
Antworten zu den Selbstfragen
361 9
9.20  Zeigen Sie, dass die QR-Zerlegung A D Q R 4 Zueinander ähnliche bzw. kongruente Matrizen haben
für eine invertierbare Matrix A eindeutig ist, wenn man for- denselben Rang, die Matrix A hat den Rang 2, die
dert, dass die Diagonaleintäge von R positiv sind. Nullmatrix den Rang 0. Somit können die Matrizen
weder kongruent noch ähnlich sein.
9.21  Es sei U ein Untervektorraum eines euklidisches
Vektorraums V . Zeigen Sie, dass im Fall U D R u mit vAntwort 9.5
kuk D 1 die orthogonale Projektion durch .v/ D .v  Es gilt
0 1 11=2
u/ u, v 2 V , gegeben ist. Z  
1 5 1 1=2 p
kpk D @ t 2 t 2 dt A D t j0 D 1= 5 :
5
9.22  Zeigen Sie: Die Matrix eiA ist unitär, falls A 2 0
C n n
hermitesch ist.
vAntwort 9.6
9.23  Zeigen Sie, dass man den Spektralsatz für ei- Die erste Regel gilt wegen der Symmetrie des Skalarpro-
nen selbstadjungierten Endomorphismen ' eines endlich- dukts, die zweite Regel wegen 0  v D 0 für jedes v und
dimensionalen R- bzw. C-Vektorraums V auch wie folgt die dritte Regel wegen der positiven Definitheit des Ska-
formulieren kann: Es ist ' eine Linearkombination der larprodukts.
orthogonalen Projektionen auf die verschiedenen Eigenräu-
me, wobei die Koeffizienten die Eigenwerte sind. vAntwort 9.7
Würde man die Linksstetigkeit nicht fordern, so wäre
auch jede Funktion, die stückweise die Nullfunktion ist
Antworten zu den Selbstfragen und an den Zwischenstellen beliebige Werte annimmt, ein
Element von V . Das Integral über das Quadrat einer sol-
chen Funktion wäre null, obwohl die Funktion nicht die
v Antwort 9.1
Nullfunktion ist. Somit wäre  kein Skalarprodukt, da die
Weil Summen von Quadraten reeller Zahlen nicht negativ
positive Definitheit verletzt wäre. Die Stetigkeit in 0 sorgt
sind.
in ähnlicher Weise für die positive Definitheit: Eine Funk-
v Antwort 9.2 tion, die abgesehen vom Punkt 0 die Nullfunktion ist und
Aus 0  v D .0 C 0/  v D 0  v C 0  v folgt nach Sub- in der 0 einen sonst beliebigen (endlichen) Wert annimmt,
traktion von 0  v links und rechts des Gleichungszeichens wäre überall linksstetig, nicht die Nullfunktion und hätte
die Gleichung 0  v D 0. Für die Gleichung v  0 D 0 gehe die Norm 0.
man im zweiten Argument analog vor.
vAntwort 9.8
v Antwort 9.3 Gilt
Nein, wegen der nicht positiven Einträge 0 und 1 auf der u C u0 D v D w C w0
Diagonalen ist das Produkt nicht positiv definit: e 2 e 2 D 0
bzw. e 3  e 3 D 1. für Elemente u; w 2 U und u0 ; w0 2 U ? , so folgt:
0
v Antwort 9.4 u wDw
„ƒ‚… „ ƒ‚ u…0 :
!
1 0 2U 2U ?
Wir setzen A D .
0 2 Weil aber für den Durchschnitt U \ U ? D f0g gilt, folgt
4 Mit der Wahl S D E2 gilt: sogleich u D w und u0 D w0 , also die Eindeutigkeit einer
S > A S D A und S 1 A S D A : solchen Darstellung.

4 Es gibt keine
! invertierbare Matrix S mit S > A S D vAntwort
0 19.9
0 1 v1
(ein entsprechender Ansatz führt zu einem B:C
2 3 vDB :C
@ : A 2 C mit v1 D i und v2 ; : : : ; vn D 0, der Fall
n

nicht lösbaren Gleichungssystem), jedoch gilt: vn


!1 ! ! n D 1 ist eingeschlossen.
2 1 2 1 0 1
A D :
1 1 1 1 2 3
vAntwort 9.10
! Ja, das prüft man durch den Nachweis von A > A D E3
4 0
4 Die Matrizen A und können nicht ähnlich nach.
0 8
sein, da sie verschiedene Eigenwerte haben, jedoch vAntwort 9.11
gilt: Sind B D .b1 ; : : : ; bn / eine Orthonormalbasis von V und
!> ! ! ' W V ! V linear, so gilt für A D B M .'/B :
2 0 2 0 4 0
A D :
0 2 0 2 0 8 A > A D En , v  w D '.v/  '.w/ 8 v; w 2 V :
362 Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

v Antwort 9.12
Weil in diesem Fall die Matrix A den zweifachen Eigen-
wert 1 haben müsste; der dritte (verbleibende) Eigenwert
müsste dann aber auch 1 sein, da die Determinante das
Produkt der Eigenwerte ist.

v Antwort 9.13
Dann rutscht die 1 mit zugehöriger Zeile und Spalte nach
rechts unten durch,
0 1 0 1
1 0 0 cos ˛ 0  sin ˛
B0 cos ˛  sin ˛ C B 0 0 C
@ A; @ 1 A;
0 sin ˛ cos ˛ cos ˛ 0 sin ˛
0 1
cos ˛  sin ˛ 0
B sin ˛ 0C
@ cos ˛ A:
0 0 1

v Antwort 9.14
Eine Diagonalmatrix D D diag.1 ; : : : ; n / ist genau
9 dann positiv semidefinit bzw. negativ semidefinit, wenn
alle 1 ; : : : ; n größer gleich bzw. kleiner gleich null sind.
Die Diagonaleinträge von D sind nämlich die Eigenwerte
der Matrix D.
363 10

Quadriken – vielseitig
nutzbare Punktmengen

Inhaltsverzeichnis

10.1 Symmetrische Bilinearformen – 364

10.2 Hermitesche Sesquilinearformen – 374

10.3 Quadriken und ihre Hauptachsentransformation – 379

10.4 Die Singulärwertzerlegung – 392

10.5 Die Pseudoinverse einer linearen Abbildung – 395

Aufgaben – 404

Antworten zu den Selbstfragen – 406

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_10
364 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

n Sie finden unter anderem Antworten zu . . . Skalarprodukt noch eine weitere symmetrische Bilinear-
4 Was ist ein hyperbolisches Paraboloid? form, und deshalb wiederholen wir zunächst einiges aus
4 Warum ist die Signatur einer quadratischen Form trä- 7 Abschn. 9.1, insbesondere die Definition der Bilinearfor-
ge? men.
4 Inwiefern löst die Pseudoinverse unlösbare Glei- Ist V ein K-Vektorraum, so ist die Abbildung
chungssysteme? 
V V ! K;
W
.x; y/ 7!  .x; y/
Unter einer Quadrik in einem affinen Raum verstehen wir
die Menge jener Punkte, deren Koordinaten einer quadrati- eine Bilinearform auf V , wenn für alle x; x 0 ; y; y 0 2 V
schen Gleichung genügen. und  2 K gilt:
Die zweidimensionalen Quadriken sind – von Entar-
tungsfällen abgesehen – identisch mit den Kegelschnitten  .x C x 0 ; y/ D  .x; y/ C  .x 0 ; y/;
und seit der Antike bekannt. Den Ausgangspunkt für die
 .x; y/ D   .x; y/;
Untersuchung der Kegelschnitte bildete damals allerdings
nicht deren Gleichung, sondern die Kegelschnitte wurden  .x; y C y 0 / D  .x; y/ C  .x; y 0 /;
als geometrische Orte eingeführt, etwa die Ellipse als Ort  .x; y/ D   .x; y/:
der Punkte, deren Abstände von den beiden Brennpunkten
eine konstante Summe ergeben. Aber auch die Tatsache, Die Bilinearform  heißt symmetrisch, wenn stets gilt
dass Ellipsen als perspektive Bilder von Kreisen auftre-  .y; x/ D  .x; y/. Bei  .y; x/ D  .x; y/ heißt die
ten, war vermutlich bereits um etwa 300 v. Chr. bekannt. Bilinearform alternierend.
Anfang des 17. Jahrhunderts konnte Johannes Kepler nach-
weisen, dass die Planetenbahnen Ellipsen sind. Sir Isaak Beispiel Bei V D R2 ist z. B.
10 Newton formulierte die zugrunde liegenden mechanischen
Gesetze und erkannte, dass sämtliche Kegelschnitttypen als  .x; y/ D x1 y1 C x1 y2 C x2 y1  5x2 y2
Bahnen eines Massenpunkts bei dessen Bewegung um eine    
x1 y1
zentrale Masse auftreten. für x D ,y D eine symmetrische Bilinear-
Dies war nur der Anfang jener herausragenden Rol- x2 y2
le, welche die Kegelschnitte und ihre höherdimensionalen form. So wie im 7 Kap. 9 können wir diese Bilinearform
Gegenstücke, die Quadriken, in der Mathematik und ihren auch mithilfe einer symmetrischen Matrix A darstellen,
Anwendungen in Naturwissenschaften und Technik spie- nämlich als
len. Quadriken haben bemerkenswerte geometrische Eigen-   
> 1 1 y1
schaften und werden oft als lokale oder globale Approxi-  .x; y/ D x A y D .x1 x2 / :
1 5 y2
mationen für Kurven und Flächen verwendet. Ellipsoide
sind für die Konvexitätstheorie von besonderer Bedeutung. Dabei ist zu beachten, dass an der Stelle .i; j / der Matrix
Doch soll die ästhetische Seite nicht unerwähnt bleiben. So A der Koeffizient von xi yj steht.
treten Ellipsoide als Kuppeln auf oder hyperbolische Para- Von der Berechnung zweireihiger Determinanten her
boloide als attraktive Dachflächen. kennen wir die alternierende Bilinearform
Wir behandeln im Folgenden die Hauptachsentransfor-
mation und damit zusammenhängend die Klassifikation der  0 .x; y/ D x1 y2  x2 y1 :
Quadriken. Von den Quadriken ist es nur ein kurzer Weg zu
anderen wichtigen Begriffen wie der „Singulärwertzerle- Die Matrix der Koeffizienten ist schiefsymmetrisch, denn
gung“ oder der „Pseudoinversen“ einer Matrix, welche z. B.   
bei Problemen der Ausgleichsrechnung und Approximation 0 1 y1
 0 .x; y/ D .x1 x2 / : 9
eingesetzt werden. 1 0 y2

Zu je zwei Bilinearformen 1 ; 2 auf dem K-Vektorraum V


10.1 Symmetrische Bilinearformen lässt sich eine Summe definieren durch die Vorschrift

.1 C 2 /.x; y/ D 1 .x; y/ C 2 .x; y/


Bei der Definition des Skalarprodukts im Anschauungs-
raum wurde in 7 Abschn. 5.2 ein kartesisches Koordinaten- für alle .x; y/ 2 V 2 . Offensichtlich ist 1 C 2 ebenfalls
system vorausgesetzt. Im 7 Abschn. 9.1 gingen wir anders linear in beiden Anteilen und daher wieder eine Bilinear-
vor, nämlich koordinateninvariant: Das euklidische Ska- form. Nun erklären wir noch das skalare Vielfache   einer
larprodukt wurde anhand seiner Eigenschaften definiert, Bilinearform durch
und zwar als eine positiv definite symmetrische Bilinear-
form auf Rn . In diesem Kapitel verwenden wir neben dem .  /.x; y/ D   .x; y/:
10.1  Symmetrische Bilinearformen
365 10
Dann lässt sich leicht bestätigen, dass die Bilinearformen Das zweite Zahlenbeispiel, die alternierende Biline-
auf V ebenfalls einen K-Vektorraum bilden. arform  0 .x; y/ D x1 y2  x2 y1 , ergibt als zugehörige
quadratische Form 0 .x/ D x1 x2  x2 x1 die Nullform
? Selbstfrage 10.1 0 .x/ D 0 für alle x 2 V , wie wir schon oben festgestellt
a) Zeigen Sie, dass mit den obigen Definitionen für die haben. 9
Summe und das skalare Vielfache von Bilinearformen
Quadratische Formen auf dem R2 lassen sich auf eine Art
die Axiome (V1) bis (V4) der Definition eines Vektor-
raums aus 7 Abschn. 4.1 erfüllt sind. veranschaulichen, die uns von den Landkarten her als Ge-
b) Zeigen Sie weiterhin, dass die symmetrischen und ländedarstellung mittels Höhenlinien vertraut ist:
ebenso die alternierenden Bilinearformen jeweils ei- Denken wir uns die Ebene R2 horizontal und tragen wir
nen Untervektorraum bilden. über jedem Punkt x dieser Ebene den Wert .x/ auf. Dann
entsteht eine Fläche, der Graph der quadratischen Form.
Werden horizontale Schnitte dieser Fläche orthogonal in die
Bilinearformen legen eine eindeutige Ebene R2 projiziert, so erhalten wir Niveaulinien .x/ D
quadratische Form fest, aber nicht c D konst. dieser quadratischen Form.
umgekehrt Alle Punkte einer Niveaulinie haben unter der Abbil-
dung  dasselbe Bild c. Die Niveaulinien sind somit die
Fasern (vgl. . Abb. 2.3) der Abbildung W R2 ! R, und
Nun wollen wir die auf dem K-Vektorraum V definierte Bi- sie vermitteln eine Vorstellung von der Werteverteilung ei-
linearform  W V V ! K auf die Diagonale f.x; x/ j x 2 ner quadratischen Form. . Abb. 10.1 zeigt die Niveaulinien
V g von V 2 einschränken. Das bedeutet, wir betrachten nur der dort angegebenen quadratischen Form zu den Wer-
die Fälle von  .x; y/ mit x D y. Dann entsteht eine qua- ten c D 0; ˙1; ˙4; : : : Im Gegensatz dazu nimmt die in
dratische Form . Abb. 10.2 gezeigte quadratische Form keine negativen
 Werte an. Alternativ dazu ist in . Abb. 10.3 eine quadrati-
V ! K;
W sche Form dargestellt, bei welcher sämtliche Niveaulinien
x 7! .x/ D  .x; x/
aus Geraden bestehen.
auf V . Auf der folgenden Seite lernen wir übrigens eine von ?Selbstfrage 10.2
 unabhängige Definition quadratischer Formen kennen. Beweisen Sie, dass die Einschränkungen der Bilinearfor-
In dem Sonderfall einer alternierenden Bilinearform  men  und  0 auf die Diagonale genau dann dieselbe
entsteht als Einschränkung auf die Diagonale von V ledig- quadratische Form ergeben, wenn    0 alternierend ist,
lich die Nullform, denn wegen  .y; x/ D  .x; y/ ist also
.x/ D  .x; x/ D  .x; x/; und somit .x/ D 0 für
alle x 2 V . .   0 /.y; x/ D .y; x/   0 .y; x/ D .   0 /.x; y/

Beispiel Bei unserem Zahlenbeispiel, der symmetrischen für alle x; y 2 V .


Bilinearform
Wenn wir die quadratische Form  als Einschränkung der
 .x; y/ D x1 y1 C x1 y2 C x2 y1  5 x2 y2 Bilinearform  definieren, so gilt nach den Eigenschaften

über V D R2 , gilt für die zugehörige quadratische Form:


x2
36
.x/ D x12 C 2 x1 x2  5 x22 : 25 2
16
Umgekehrt kann man von .x/ nicht auf die Bilinearform 9
9

1
zurückschließen, denn 4
4

1
1

0 x1
 0 .x; y/ D x1 y1 C 3 x1 y2  x2 y1  5 x2 y2 0
3 2 1 0 1 2
1
1

ergibt als Einschränkung auf die Diagonale dieselbe qua- 4


4

dratische Form. Wenn wir allerdings nur symmetrische 1 9


9

Bilinearformen zulassen, so bleibt einzig  übrig, denn bei 16


der Ermittlung der Bilinearform muss der Koeffizient von 2 25
x1 x2 zu gleichen Teilen auf die Koeffizienten von x1 y2 36
und x2 y1 aufgeteilt werden. Wir nennen die zu einer qua-
dratischen Form gehörige symmetrische Bilinearform ihre . Abb. 10.1 Einzelne Niveaulinien der quadratischen Form .x/ D
Polarform. x12 C 2x1 x2  5x22 , also Fasern f x j .x/ D c D konst.g der Abbildung 
366 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

x2 Offensichtlich ist e
 symmetrisch. Als Einschränkung von
25 e
 auf die Diagonale entsteht die quadratische Form e
 mit
2
16
9 e
.x/ D .2 x/  2 .x/ D 2 .x/:
4 1
1 Nun kommt es auf die Charakteristik des Körpers K an:
4 Bei char K ¤ 2 gibt es zur quadratischen Form  eine
3 2 1 0 1 2 x1
1 symmetrische Bilinearform
1 4
1 1
9 1 D e
 W .x; y/ 7! ..x C y/  .x/  .y// ;
2 2
16
2
25 deren Einschränkung auf die Diagonale gleich  ist.
Man nennt diese Bilinearform die Polarform von .
. Abb. 10.2 Niveaulinien der positiv definiten quadratischen Form Angenommen, neben 1 sei auch 2 eine symmetrische
.x/ D x12  2x1 x2 C 2x22 Bilinearform mit 2 .x; x/ D 1 .x; x/ für alle x 2 V .
Dann folgt aus 1 .x C y; x C y/ D 2 .x C y; x C y/
4 0
x2 für alle .x; y/ 2 V 2 :
14 10
2
64 1 .x; x/ C 2 1 .x; y/ C 1 .y; y/
36 1 D 2 .x; x/ C 2 2 .x; y/ C 2 .y; y/

10 16 und daher 1 .x; y/ D 2 .x; y/, also 1 D 2 .


3 2
4
1 0 1 2 x1 4 Bei char K D 2 ist e  gleichzeitig alternierend, d. h.
e
 .y; x/ D e .x; y/, und die Einschränkung von e  auf
0 1 die Diagonale ist die Nullform.
4
2 Folgerung Bei char K ¤ 2 gibt es zu jeder quadratischen
16 36 64 10
0
14
4 Form  auf dem K-Vektorraum V genau eine symmetrische
Bilinearform  mit .x/ D  .x; x/, nämlich deren Polar-
. Abb. 10.3 Zum Vergleich: Niveaulinien der quadratischen Form form.
.x/ D 4x12  12x1 x2 C 9x22 D .2x1  3x2 /2 zu den Werten c D
0; 4; 16; : : :
Bilinearformen sind stets durch Matrizen
einer Bilinearform . x/ D  . x;  x/ D  .x/ sowie darstellbar 2

.x C y/ D  .x C y; x C y/
D  .x; x/ C  .y; y/ C . .x; y/ C  .y; x// In 7 Kap. 6 wurde gezeigt, dass jede lineare Abbildung
'W V ! W zwischen endlichdimensionalen K-Vektorräu-
D .x/ C .y/ C  0 .x; y/
men V und W nach der Einführung von Basen B in V und
0
mit  .x; y/ D  .x; y/ C  .y; x/ als symmetrischer Bili- C in W eine Darstellungsmatrix C M .'/B besitzt mit der
nearform. Wir nehmen dies zum Anlass für eine Definition, Eigenschaft
die nicht von Bilinearformen ausgeht.
C '.x/ D C M .'/B B x:

Definition einer quadratischen Form Dies bedeutet, die C -Koordinaten des Bildes '.x/ 2 W
Eine Abbildung  des Vektorraums V in seinen Grundkör- sind aus den B-Koordinaten des Urbilds x 2 V durch Mul-
per K heißt quadratische Form, wenn für alle x; y 2 V tiplikation mit der Darstellungsmatrix C M .'/B zu berech-
und  2 K gilt: nen. Umgekehrt stellt jede Matrix eine lineare Abbildung
1. . x/ D 2 .x/, und dar, und Eigenschaften von Matrizen spiegeln sich in Ei-
2. die Abbildung genschaften von linearen Abbildungen wieder.
e
 W .x; y/ 7! .x C y/  .x/  .y/ Wir zeigen im Folgenden, dass die symmetrischen Ma-
trizen M , also solche mit M > D M , auf ähnliche Wei-
ist eine Bilinearform auf V . se den symmetrischen Bilinearformen zugeordnet werden
können.
10.1  Symmetrische Bilinearformen
367 10
V sei ein n-dimensionaler Vektorraum über K mit der Folgerung Symmetrische Bilinearformen sind durch sym-
geordneten Basis B D .b1 ; : : : ; bn /. Für x; y 2 V , also metrische Darstellungsmatrizen gekennzeichnet, alternie-
rende Bilinearformen durch schiefsymmetrische oder alter-
x D x1 b1 C    C xn bn und y D y1 b1 C    C yn bn ; nierende Darstellungsmatrizen.

ergibt sich aus unseren Regeln für Bilinearformen: Beweis a) Bei symmetrischem  ergibt sich die Symmetrie
0 1 der Darstellungsmatrix M B . / unmittelbar aus  .bj ; bi / D
Xn X
n
 .bi ; bj /, und zwar für alle Basen B.
 .x; y/ D  @ xi bi ; yj bj A
i D1 j D1
Umgekehrt legt jede n n -Matrix M durch die Defini-
tion
X
n
D xi yj  .bi ; bj /:
M .x; y/ D x > M y
i;j D1

Die letzte Summe erfolgt über alle möglichen Paare .i; j / eine Bilinearform auf K fest, denn es gilt
n

mit i; j 2 f1; : : : ; ng. Die darin auftretenden n2 Koeffizien-


ten  .bi ; bj / legen  eindeutig fest. .x C x 0 /> M y D x > M y C x 0 > M y;
.x/> M y D .x > M y/;

Definition der Darstellungsmatrix und analog für den zweiten Vektor y.


Ist  eine Bilinearform auf dem n-dimensionalen K-Vek- Bei symmetrischem M ist auch M symmetrisch, denn
torraum V und B eine Basis von V , so heißt die Matrix wegen y > M x 2 K folgt:
 
M B ./ D .bi ; bj / 2 Kn n
y > M x D .y > M x/> D x > M > y D x > M y:

Darstellungsmatrix von  bezüglich der Basis B. Es ist zu beachten, dass von den n2 Einträgen in einer
n n -Matrix im symmetrischen Fall nur n.nC1/ 2
voneinan-
der unabhängig sind.
Mithilfe der Darstellungsmatrix M B . / lässt sich  .x; y/ b) Bei alternierendem  ist  .bj ; bi / D  .bi ; bj /, al-
als Matrizenprodukt schreiben, nämlich: so M B . /> D M B . /.
Umgekehrt können wir wie im symmetrischen Fall vor-
 .x; y/ D B x > M B . / B y: (10.1) gehen: Bei einer schiefsymmetrischen Matrix M ist

Beweis Wir bestätigen die in (10.1) angegebene Matrizen- y > M x D .y > M x/> D x > M > y D x > M y
schreibweise für  .x; y/ durch Nachrechnen:
Zunächst ist und daher M .y; x/ D M .x; y/.
0 1 0Pn 1 Wegen der Nullen in der Hauptdiagonale einer schief-
y1 j D1  .b1 ; bj / yj
B:C B :: C symmetrischen n n -Matrix treten darin nur n.n1/
2 von-
M B . / @ :: A D @ : A : einander unabhängige Einträge auf. 
Pn
yn j D1  .bn ; bj / yj
Beispiel Wir kehren zurück zum obigen Beispiel einer Bi-
Daraus folgt: linearform auf V D R2 :
0 1
y1 X   .x; y/ D x1 y1 C x1 y2 C x2 y1  5x2 y2 :
B :: C X
n n
.x1 : : : xn / M B . / @ : A D xi  .bi ; bj / yj
yn i D1 j D1 Wie lautet die Darstellungsmatrix M B . / bezüglich der
Basis B D .b1 ; b2 / mit
X n
D xi yj  .bi ; bj /:     
1 2
i;j D1 b1 D ; b2 D ‹
1 1
Man beachte die Bauart der beteiligten Matrizen in der Ma-
trizendarstellung (10.1) von  .x; y/: Wir berechnen

1 n
n 1  .b1 ; b1 / D 2;
1 D 1   n  .b1 ; b2 / D  .b2 ; b1 / D 0;
 .x; y/ D Bx
>
M B . / By
 .b2 ; b2 / D 3
368 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

und übertragen diese Werte in die Matrix Nachdem die quadratischen Formen und die zugehörigen
  symmetrischen Bilinearformen, die Polarformen, einander
2 0 gegenseitig bedingen, macht es keinen Unterschied, ob
M B . / D :
0 3 man von der Darstellungsmatrix einer quadratischen Form
spricht oder von der Darstellungsmatrix der Polarform.
Die gegebene Koeffizientenmatrix A in der Darstellung
?Selbstfrage 10.3

 
1 1 y1 Bestimmen Sie die Polarform .x; y/ zur gegebenen qua-
 .x; y/ D x > A y D .x1 x2 /
1 5 y2 dratischen Form

ist die Darstellungsmatrix von  zur kanonischen Basis .x/ D x12  3x32 C 2x1 x2  5x2 x3
E D .e 1 ; e 2 /, also A D M E . /. 9
auf dem Vektorraum R3 zusammen mit deren kanonischer
Wenn wir nun die auf dem n-dimensionalen K-Vektorraum Darstellungsmatrix, also der Darstellungsmatrix M E ./
V definierte Bilinearform  mit der Darstellungsmatrix bezüglich der kanonischen Basis E.
M B . / auf die Diagonale von V einschränken, so entsteht
die quadratische Form , wobei mit (10.1) gilt: So wie bei den linearen Abbildungen eines Vektorraums in
sich, den Endomorphismen, wollen wir auch bei den Bi-
linearformen durch die Wahl spezieller Basen möglichst
.x/ D  .x; x/ D B x > M B . / B x:
einfache Darstellungsmatrizen erreichen. Dabei ist es hier
etwas einfacher, denn es gibt zu jeder symmetrischen Bili-
Bei M B . / D .aij / lautet die Summendarstellung dieser
nearform Darstellungsmatrizen in Diagonalform. Nachdem
quadratischen Form:
10 umgekehrt eine Diagonalmatrix stets symmetrisch ist, muss
X n jede diagonalisierbare Bilinearform symmetrisch sein.
.x/ D aij xi xj : (10.2) Eine Darstellungsmatrix M B . / in Diagonalform hat
i;j D1 viele Vorteile: Es vereinfacht sich die Koordinatendarstel-
lung von  zu
Auf der rechten Seite steht ein Polynom oder genauer
eine Polynomfunktion in .x1 ; : : : ; xn /, in welcher jeder X n
 .x; y/ D xi yj  .bi ; bj /
Summand den Grad 2 hat. Wir können darin die rein
i;j D1
quadratischen Glieder ai i xi2 trennen von den gemischten
Summanden mit xi xj , die bei i ¤ j jeweils zweifach vor- D a112
x1 y1 C    C ann 2
xn yn :
kommen, nämlich als .aij C aj i / xi xj .
Ist umgekehrt die quadratische Form durch die Sum- Es gibt nur mehr n Summanden. Die zugehörige qua-
menformel (10.2) gegeben, so können wir die Koeffizien- dratische Form  ist genau dann positiv definit (siehe
tenmatrix .aij / noch abändern, ohne dabei .x/ zu ändern. 7 Abschn. 9.1), wenn ai i > 0 ist für alle i 2 f1; : : : ; ng.
Wir müssen ja nur dafür sorgen, dass die Einträge in der
Hauptdiagonalen gleich bleiben und ebenso die Summen
.aij C aj i /. Bei char K ¤ 2 können wir diese Summen zu Je zwei Darstellungsmatrizen
gleichen Teilen aufteilen, also einer Bilinearform sind kongruent

1
aij0 D aj0 i D .aij C aj i / Wenn wir in unserem Vektorraum von der Basis B zu B 0
2 wechseln, so gilt für die jeweiligen Koordinaten von x:
setzen. Damit erhalten wir eine symmetrische Koeffizien-
tenmatrix .aij0 /. Diese ist offensichtlich die Darstellungs- B 0 x D B 0 T B B x:

matrix der vorhin als eindeutig erkannten Polarform der


Die hier auftretende Transformationsmatrix
quadratischen Form, also jener symmetrischen Bilinear-
form  0 , deren Einschränkung auf die Diagonale von V die
B 0 T B D B 0 M .idV /B D . B 0 b1 ; : : : ;B 0 bn /
gegebene quadratische Form liefert.
Ist die Matrix der Koeffizienten aij in (10.2) bereits
ist invertierbar (siehe 7 Kap. 4). In ihren Spalten stehen die
symmetrisch, so können wir die Summe auch schreiben als
B 0 -Koordinaten der Basisvektoren von B. Man beachte als
Merkregel, dass der linke Index von B 0 T B übereinstimmt
X n X n
.x/ D ai i xi C 2
2
aij xi xj : mit dem linken Index der Spaltenvektoren B 0 bi und das Ko-
i D1 i;j D1
ordinatensystem festlegt, in welchem die Vektoren der im
i <j rechten Index angegebenen Basis dargestellt sind.
10.1  Symmetrische Bilinearformen
369 10
Umgekehrt ist als Darstellungsmatrix von  zur kanonischen Basis E D
.e 1 ; e 2 /. Wie lautet die Darstellungsmatrix M B . / bezüg-
1
B x D B T B 0 B 0 x bei B T B 0 D .B 0 T B / : lich der Basis B D .b1 ; b2 / mit
   
Der Wert  .x; y/ ist unabhängig von der verwendeten Ba- 1 2
sis, d. h., für alle x; y 2 V muss nach (10.1) gelten: b1 D E b1 D ; b2 D E b2 D ‹
1 1

 .x; y/ D B x > M B . / B y D B0 x
>
M B 0 . / B 0 y:
Dazu beachten wir die Transformationsmatrix
 
Wir ersetzen im mittleren Ausdruck die B-Koordinaten von 1 2
E T B D . E b1 ;E b2 / D :
x und y durch die jeweiligen B 0 -Koordinaten. Dies führt zu 1 1

.B T B 0 B 0 x/> M B . / .B T B 0 B 0 y/ Aus unserem Gesetz über die Transformation der Darstel-


  lungsmatrizen von Bilinearformen folgt nun:
D B 0 x > B T B>0 M B . / B T B 0 B 0 y
D B 0 x > M B 0 . / B 0 y: M B . / D .E T B /> M E . / E T B
   
1 1 1 1 1 2
Nachdem die letzte Gleichung für alle B 0 x; B 0 y 2 Kn gelten D
2 1 1 5 1 1
muss, können wir hierfür Vektoren der kanonischen Ba-     
sis einsetzen, etwa B 0 x D e i und B 0 y D ej . Dann aber 2 4 1 2 2 0
D D ;
bedeutet die Gleichung, dass in der Matrix M B 0 . / und 3 3 1 1 0 3
in dem Matrizenprodukt .B T B 0 /> M B . / B T B 0 die Einträ-
in Übereinstimmung
 mit dem vorhin angegebenen Wert für
ge an der Stelle .i; j / übereinstimmen, und zwar für alle
M B . / D  .bi ; bj / . 9
i; j D 1; : : : ; n. Also sind diese Matrizen gleich.
Allgemein heißt die n n -Matrix D kongruent zur n
n -Matrix C (siehe 7 Abschn. 9.1), wenn es eine invertier-
Transformation von Darstellungsmatrizen
bare n n -Matrix T gibt mit D D T > C T .
Für die Darstellungsmatrizen der Bilinearform  bezüg-
lich der Basen B und B 0 gilt
Folgerung Alle Darstellungsmatrizen derselben Bilinear-
form sind untereinander kongruent. Umgekehrt sind je zwei
M B 0 ./ D .B T B 0 /> M B ./ B T B 0 (10.3)
kongruente Matrizen aus Kn n aufzufassen als Darstel-
 0
 lungsmatrizen derselben Bilinearform auf Kn .
mit B T B 0 D B b1    B b0n als invertierbarer Matrix.
Beweis Die Umkehrung folgt aus der Tatsache, dass jede
invertierbare Matrix aus Kn n als Transformationsmatrix
Als kleine Gedächtnisstütze merken wir uns, indem wir die für einen Basiswechsel interpretierbar ist. 
Transformationsgleichung von rechts lesen: Wir bekom-
men die Darstellungsmatrix von  bezüglich B 0 , indem wir ?Selbstfrage 10.4
die B 0 -Koordinaten zuerst auf B-Koordinaten umrechnen Beweisen Sie, dass die zu einer symmetrischen Matrix
und diese dann mit der zur Basis B gehörigen Darstellungs- kongruenten Matrizen ebenfalls symmetrisch sind. Das-
matrix multiplizieren. selbe gilt für die Schiefsymmetrie.
Noch ein Hinweis zu der hier verwendeten Bezeich-
nungsweise der Darstellungsmatrizen: Bei den linearen Die Kongruenz von Matrizen ist natürlich zu unterschei-
Abbildungen schreiben wir beide Basen dazu, also z. B. den von der im 7 Abschn. 6.8 behandelten Ähnlichkeit. Zur
B 0 M .'/B . Bei den symmetrischen Bilinearformen oder Erinnerung, zwei quadratische Matrizen C , D heißen zu-
1
quadratischen Formen ist, so wie in M B . /, nur eine Ba- einander ähnlich, wenn D D T C T ist mit einer inver-
sis erforderlich. tierbaren Matrix T . Wenn man allerdings die Transforma-
tionsmatrizen T auf orthogonale Matrizen T beschränkte,
1
Beispiel Wir bestätigen (10.3) anhand des Beispiels der Bi- also auf solche mit T D T > (siehe 7 Abschn. 9.5), dann
linearform  auf V D R von vorhin mit
2 wären ähnliche Matrizen D, C gleichzeitig kongruent und
umgekehrt.
 .x; y/ D x1 y1 C x1 y2 C x2 y1  5 x2 y2 ; Nach den Ergebnissen von 7 Kap. 6 ändert sich der
Rang einer Matrix nicht bei Rechts- oder Linksmultipli-
also  .x; y/ D x > A y und kation mit einer invertierbaren Matrix. Demnach haben
  alle Darstellungsmatrizen einer Bilinearform  denselben
1 1
M E . / D A D Rang. Wir nennen diesen den Rang von  und bezeichnen
1 5 ihn mit rg. /.
370 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Es gibt noch eine andere Begründung für die Invarianz 1. Die Vertauschung von bi und bj bewirkt in M B . / die
des Rangs, bei der wir uns allerdings auf den Fall einer Vertauschung der Elemente  .bi ; bk / mit  .bj ; bk / für
symmetrischen Bilinearform  beschränken wollen: jedes k 2 f1; : : : ; ng, also der i-ten Zeile mit der j -ten
Wie im 7 Abschn. 9.3 erklärt, ist  Anlass für eine sym- Zeile. Es werden aber auch die Elemente an den Stellen
metrische Relation auf V : Zwei Vektoren x; y 2 V heißen .k; i/ und .k; j / vertauscht, also die i-Spalte mit der
 -orthogonal genau dann, wenn  .x; y/ D 0 ist. Vekto- j -Spalte.
ren mit  .y; y/ D 0 heißen isotrop bezüglich  . Zu jedem 2. Die Multiplikation von bi mit dem Faktor  bewirkt ei-
Unterraum U von V gibt es einen  -Orthogonalraum U ? ne Multiplikation der i-ten Zeile und der i-ten Spalte
mit der Eigenschaft, dass  .x; y/ D 0 ist für alle x 2 U von M B . / mit dem Faktor . Insbesondere kommt das
und y 2 U ? . Diagonalelement an der Stelle .i; i/ zweimal dran; es
Der  -Orthogonalraum V ? heißt Radikal der symme- wird daher insgesamt mit 2 multipliziert.
trischen Bilinearform  . Die Vektoren y 2 V ? sind zu 3. Wird bi ersetzt durch bi C  bj , so wird zur i-ten Zeile
allen Vektoren aus V  -orthogonal, also insbesondere auch das -Fache der j -ten Zeile addiert und zur i-ten Spalte
zu sich selbst und daher isotrop. das -Fache der j -ten Spalte. Dadurch kommt das Ele-
Die Matrizengleichung x > M B . / y D 0 ist genau ment an der Stelle .i; i/ wiederum zweimal dran – ganz
dann für alle x 2 V erfüllt, wenn M B . / y D 0 ist, also y in Übereinstimmung mit
das homogene lineare Gleichungssystem mit der Koeffizi-
entenmatrix M B . / löst. Die Dimension des Radikals von  .bi C  bj ; bi C  bj /
 ist somit n  rg  . D  .bi ; bi / C 2  .bi ; bj / C 2  .bj ; bj /:
Eine symmetrische Bilinearform auf dem n-dimensio-
nalen K-Vektorraum V heißt entartet , wenn ihr Rang Die zu diesen Basiswechseln gehörigen Transformations-
kleiner ist als n. Andernfalls heißt  nicht entartet oder matrizen B T B 0 , die Elementarmatrizen (siehe 7 Kap. 7)
10 radikalfrei, denn das Radikal ist f0g. Ist  z. B. positiv de- entstehen aus der Einheitsmatrix durch Ausübung der je-
finit, wie bei einem euklidischen Skalarprodukt, so gilt für weiligen elementaren Spaltenumformung. So gehört etwa
x ¤ 0 stets  .x; x/ D x  x > 0. Dann ist 0 der einzige zum Ersatz von bi durch b0i D bi C  bj die Transforma-
isotrope Vektor und  daher radikalfrei. tionsmatrix
0 1
? Selbstfrage 10.5 1
B :: C
Welche Eigenschaft hat die symmetrische Darstellungs- B : C
matrix M B ./, wenn der i-te Basisvektor bi 2 B isotrop B C
B 1 C
B C i
ist bezüglich ? Wie sieht M B ./ aus, wenn bi dem Ra- B C
B
B T B0 D B
: : C
dikal von  angehört? : C
B C j
B  1 C
B C
B :: C
Jede symmetrische Bilinearform besitzt @ : A
eine Darstellungsmatrix in Diagonalform 1

Jeder Umrechnung der Darstellungsmatrix einer symmetri-


Ein Wechsel von der geordneten Basis B zu einer anderen schen Bilinearform auf eine geänderte Basis kommt somit
Basis B 0 in dem K-Vektorraum V lässt sich aus folgenden der wiederholten Anwendung von jeweils gleichartigen ele-
elementaren Basiswechseln zusammensetzen: mentaren Zeilen- und Spaltenumformungen gleich.
1. Zwei Basisvektoren werden vertauscht, d. h. b0i D bj In dem folgenden Beispiel wird vorgeführt, welcher
und bj0 D bi bei i ¤ j . Algorithmus angewandt werden kann, um die Darstellungs-
2. Ein Basisvektor wird durch das -Fache ersetzt, also matrix einer symmetrischen Bilinearform durch geeigneten
b0i D bi und  ¤ 0. Basiswechsel auf Diagonalform zu bringen: Dabei wenden
3. Zum i-ten Basisvektor wird das -Fache des j -ten Ba- wir wiederholt elementare Zeilenoperationen und die damit
sisvektors addiert, also b0i D bi C  bj bei i ¤ j . gekoppelten gleichartigen Spaltenoperationen an.

Was bedeuten diese elementaren Basiswechsel


 für die
 sym- Beispiel Gegeben ist die symmetrische Bilinearform
metrische Darstellungsmatrix M B . / D  .bi ; bj / ?  .x; y/ D x > A y auf R4 mit der Darstellungsmatrix
Wir werden erkennen, dass jeder dieser Schritte eine
0 1
elementare Zeilenumformung und die gleichartige elemen- 0 1 2 1
tare Spaltenumformung nach sich zieht. Dabei ist gleich- B 1 1 0 0C
ADB @2 0 4
C
gültig, ob zuerst die Zeilen- und dann die Spaltenumfor- 4A
mung vorgenommen wird oder umgekehrt. Diese elemen- 1 0 4 1
taren Zeilenumformungen sind uns übrigens erstmals im
7 Kap. 3 beim Verfahren von Gauß und Jordan zur Lösung Schritt 1: Wenn es ein Element ai i ¤ 0 in der
linearer Gleichungssysteme begegnet. Hauptdiagonale gibt, so bringen wir dieses durch die Zei-
10.1  Symmetrische Bilinearformen
371 10
lenvertauschung zi $ z1 und die gleichartige Spaltenver- Das Resultat ist eine Diagonalmatrix, die wir platzsparend
tauschung si $ s1 nach links oben. In unserem Beispiel ist als diag.1; 1; 4; 1/ schreiben können. 9
es das Element a22 :
0 1 0 1 Das hier in dem Beispiel aus R4 vorgeführte Verfahren
1 1 0 0 1 1 0 0 funktioniert auch in anderen Körpern K. Allerdings versagt
z2 $z1 B 0 1 2 1C 2 $s 1 B1 0 2 1C
A ! B C s! B C bei char K D 2 Schritt 3, denn 2 aij D 0.
@2 0 4 4A @0 2 4 4A
1 0 4 1 0 1 4 1
Diagonalisierbarkeit symmetrischer
Schritt 2: Nun subtrahieren wir geeignete Vielfache der Bilinearformen
ersten Zeile von den übrigen Zeilen und wenden die analo- V sei ein endlichdimensionaler K-Vektorraum und
gen Spaltenumformungen an. Dadurch werden – bis auf das char K ¤ 2. Dann gibt es zu jeder symmetrischen Bili-
Element in der Hauptdiagonale – alle Einträge der ersten nearform  auf V eine Basis B 0 , für welche M B 0 ./ eine
Zeile und Spalte zu null. In unserem Beispiel subtrahieren Diagonalmatrix ist.
wir z1 von der zweiten Zeile und ebenso s1 von s2 .
0 1 0 1
1 1 0 0 1 0 0 0
z2 z1 B0 1 2 1C 2 s 1
B0 1 2 1C Beweis Wir wenden auf die gegebene n-reihige Darstel-
! B @0 2 4
C s! B C lungsmatrix A D M . / den folgenden Algorithmus an:
4A @0 2 4 4A B

0 1 4 1 0 1 4 1 Gibt es in der Hauptdiagonalen von A ein ai i ¤ 0, so


wenden wir die nachstehend angeführten Schritte 1 und 2
Damit sind die erste Zeile und erste Spalte erledigt, und an. Stehen hingegen in der Hauptdiagonale lauter Nullen,
wir verfahren mit der dreireihigen Restmatrix auf dieselbe und gibt es ein aij ¤ 0, so beginnen wir mit Schritt 3. An-
Weise: dernfalls ist A die Nullmatrix, und wir sind bereits fertig.
Schritt 1 entfällt, denn es ist a22 ¤ 0. Wir brauchen 1. Schritt: Wir vertauschen die 1. Zeile mit der i-ten
also nur geeignete Vielfache der zweiten Zeile und Spalte Zeile und ebenso die 1. Spalte mit der i-ten Spalte. Damit
zu subtrahieren: entsteht die Matrix A 0 D .aj0 k /, in welcher links oben ein
0
0 1 0 1 von null verschiedenes Element a11 steht.
1 0 0 0 1 0 0 0 2. Schritt: Wir subtrahieren für j D 2; : : : ; n von der
z3 2z2 s3 2s2
z4 Cz2 B0 1 2 1C s4 Cs2 B0 1 0 0C 0 0
! @ B C ! @ B C j -ten Zeile das aj1 =a 11 -Fache der ersten Zeile und ebenso
0 0 0 2A 0 0 0 2A von der j -ten Spalte wegen a1j 0
D aj10 0
das aj1 0
=a11 -Fache
0 0 2 0 0 0 2 0 0
der ersten Spalte. Bis auf das Element a11 links oben ste-
hen dann in der ersten Zeile und in der ersten Spalte lauter
Nun bleibt nur mehr eine zweireihige Matrix rechts unten Nullen.
übrig. Allerdings tritt hier ein neues Phänomen auf: Die 3. Schritt: Stehen in der Hauptdiagonalen lauter Nul-
Restmatrix ist noch nicht gleich der Nullmatrix, aber ih- len, und gibt es ein Element a D a ¤ 0 bei j ¤ i,
ij ji
re Hauptdiagonale enthält nur mehr Nullen. Wir können so addieren wir zur i-ten Zeile die j -te Zeile und ebenso
weder Schritt 1, noch Schritt 2 anwenden, jedoch den fol- zur i-ten Spalte die j -te Spalte. Dann entsteht an der Stelle
genden .i; i/ das neue Element 2 aij , das bei char K ¤ 0 von null
Schritt 3: Gibt es außerhalb der Hauptdiagonalen noch verschieden ist. Wir können daher mit den Schritten 1 und
ein Element aij ¤ 0, so addieren wir zur i-ten Zeile die 2 fortfahren.
j -te Zeile und verfahren ebenso mit den Spalten. Dies er- In der Folge lassen wir die erste Zeile und die ers-
gibt als neues Diagonalelement ai i D 2 aij , und wir können ten Spalte der Matrix A außer Acht und wenden uns der
mit Schritt 2 fortfahren. verbleibenden Matrix A 1 2 K.n1/ .n1/ zu: Ist A 1 die
In unserem Beispiel ist a34 ¤ 0, daher Nullmatrix, so sind wir bereits fertig. Andernfalls beginnen
0 1 0 1 wir je nach Situation mit Schritt 1 oder Schritt 3 und kom-
1 0 0 0 1 0 0 0
z3 Cz4 B0 1 0 0C s3 Cs4 B0 1 0 0C
men zu einer Matrix, in welcher die ersten beiden Zeilen
! B @0
C ! B C und Spalten lauter Nullen außerhalb der Hauptdiagonalen
0 2 2A @0 0 4 2A
aufweisen. Es verbleibt die Restmatrix A 2 2 K.n2/ .n2/
0 0 2 0 0 0 2 0
u.s.w.
Nun werden die dritte Zeile und Spalte noch gemäß Dieses Vorgehen wird so lange wiederholt, bis die Rest-
Schritt 2 reduziert: matrix rechts unten nur mehr ein Element enthält oder die
0 1 0 1 Nullmatrix ist. 
1 0 0 0 1 0 0 0
z4  12 z3 B0 1 0 0C s  12 s3 B0 1 0 0C
! B @0
C 4!
A
B
@
C Will man bei dem oben vorgeführten Algorithmus gleich-
0 4 2 0 0 4 0A zeitig wissen, welche Transformationsmatrix B T B 0 die Um-
0 0 0 1 0 0 0 1 rechnung von M B . / auf M B 0 . / bewirkt, so kann man zu
372 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Beginn unter der Darstellungsmatrix M B . / die Einheits- Lemma Es sei  eine symmetrische Bilinearform auf
matrix En dazuschreiben und bei den elementaren Spalten- dem n-dimensionalen K-Vektorraum V . Dann hat die
umformungen gleichzeitig mit umformen. Dann steht am Darstellungsmatrix M B . / genau dann die Diagonalform
Ende des Algorithmus unter M B 0 . / genau die Transforma- diag.a11 ; : : : ; arr ; 0; : : : ; 0/, wenn die Vektoren der Basis
tionsmatrix B T B 0 , welche mittels (10.3) die Umrechnung B paarweise  -orthogonal sind, also  .bi ; bj / D 0 ist
auf die Diagonalmatrix ermöglicht. für alle i ¤ j , und wenn die letzten n  r Basisvektoren
brC1 ; : : : ; bn dem Radikal von  angehören.
Beispiel Welche Transformationsmatrix B T B 0 bewirkt ge-
Die zum Vektor u 2 V  -orthogonalen Vektoren y gehören
mäß (10.3) in dem Beispiel von vorhin die Umrechnung
dem Kern der Linearform
von A auf die endgültige Diagonalmatrix?
Wir wenden alle obigen Spaltenoperationen der Reihe
'u W V ! K; y 7!  .u; y/
nach auf die Einheitsmatrix E4 an:
0 1 0 1 an. Liegt u im Radikal von  , so ist 'u die Nullform und
0 1 0 0 0 1 0 0 der zugehörige Kern ganz V . Andernfalls ist der Kern von
s2 $s1 B1 0 0 0C s2 s1 B1 1 0 0C
E4 ! B C ! B C 'u 2 V ein .n  1/-dimensionaler Unterraum von V .
@0 0 1 0A @0 0 1 0A
0 0 0 1 0 0 0 1 Kommentar Bei unserem Diagonalisierungsverfahren mit-
0 1
0 1 2 1 tels gekoppelter Zeilen- und Spaltenumformungen er-
s3 2s2
s4 Cs2 B 1 1 2 1C gibt sich die zugrunde liegende Basis automatisch
! B @0
C
0 1 0A (. Abb. 10.4): Wir können keinesfalls erwarten, dass die-
0 0 0 1 se orthogonal oder gar orthonormiert ist. Es gibt zwar in
10 0
0 1 1 1
1 euklidischen Räumen eine diagonalisierende und gleich-
zeitig orthonormierte Basis, wie wir aus 7 Kap. 9 wissen,
s3 Cs4 B1 1 1 1C
! B @0
C doch erfordert deren Berechnung die Bestimmung von Ei-
0 1 0A genwerten und -vektoren einer symmetrischen Matrix. Wir
0 0 1 1 kommen darauf noch bei der Hauptachsentransformation
0 1
0 1 1 3=2 im nächsten Abschnitt zurück und nennen dies das ortho-
s4  12 s3 B1 1 1 3=2C gonale Diagonalisieren.
! B @0
C D B TB0 :
0 1 1=2A
0 0 1 1=2
Eine symmetrische Bilinearform hat viele
Damit gilt M B 0 . / D .B T B 0 /> M B . / B T B 0 , denn
verschiedene Diagonaldarstellungen

0 1 Obwohl der obige Algorithmus zum Diagonalisieren der


0 1 0 0
B 1 1 0 0C Darstellungsmatrix eine gewisse Abfolge von Zeilen- und
diag.1; 1; 4; 1/ D B@ 1
C
1 1 1A Spaltenumformungen vorschreibt, so bestehen doch Wahl-
3=2 3=2 1=2 1=2 möglichkeiten in den Schritten 1 und 3. Deshalb sind die
0 10 1 diagonalisierten Darstellungsmatrizen der symmetrischen
0 1 2 1 0 1 1 3=2 Bilinearform  keinesfalls eindeutig. Das geht auch aus
B 1 1 0 0 C B1 1 1 3=2 C
B CB C 9 dem obigen Lemma hervor.
@2 0 4 4 A @0 0 1 1=2A So können wir in der Basis B mit der Darstellungs-
1 0 4 1 0 0 1 1=2 matrix M B . / D diag.a11 ; : : : ; ann / den Vektor bi durch
b0i D  bi ersetzen. Die Darstellungsmatrix behält Dia-
? Selbstfrage 10.6 gonalform, aber das Diagonalelement  .bi ; bi / D ai i aus
0 0
B . / wird ersetzt durch  .bi ; bi / D  ai i in M B 0 . /.
2
Geben Sie einen Basiswechsel an, welcher die symmetri- M
0
sche Bilinearform Aber auch Basiswechsel mit bi … K bi können er-
neut zu Diagonalmatrizen führen, wie das folgende Beispiel
zeigt.
W R ! R;
2
.x; y/ D x1 y2 C x2 y1

Beispiel Die symmetrische Bilinearform auf V D R2 mit


auf Diagonalform bringt.
der kanonischen Darstellungsmatrix
 
Nach der algorithmischen Diagonalisierung folgt noch eine 1 1
M E . / D
Charakterisierung der diagonalisierenden Basen. 1 5
10.1  Symmetrische Bilinearformen
373 10
p
36
x2 von bi durch b0i D  bi mit  D 1= ai i auf 1 normiert
werden.
25 2 p
16 Bei einem negativen ai i ergibt die Wahl  D 1= ai i
9 das Diagonalelement 1. Damit kommen in der Haupt-

9
4
1
b1 diagonale von M B 0 . / nur mehr Werte aus f1; 1; 0g vor.
b2 Nach einer eventuellen Umreihung der Basisvektoren errei-
1
0 0 b02 x1
chen wir die folgende Normalform.
3 2 1 1 2
1
4

b01
1 9 Normalform reeller symmetrischer Bilinearformen
9

16 Zu jeder symmetrischen Bilinearform  vom Rang r auf


2 25 dem n-dimensionalen reellen Vektorraum V gibt es eine
36 Basis B 0 mit

. Abb. 10.4 Die Niveaulinien der quadratischen Form .x/ aus M B 0 ./ D diag.a11 ; : : : ; ann / (10.4)
. Abb. 10.1 samt den diagonalisierenden Basen B D .b1 ; b2 / und B 0 D
.b01 ; b02 / bei a11 D    D app D 1, apC1 pC1 D    D arr D 1,
arC1 rC1 D    D ann D 0 und 0  p  r  n.
   
1 2
hat bezüglich der Basis B D ; (beachte
1 1
In den zugehörigen Koordinaten gilt:
. Abb. 10.4) die Darstellungsmatrix
   .x; y/ D x1 y1 C    C xp yp  xpC1 ypC1      xr yr :
2 0
M B . / D D diag.2; 3/: Wir werden sehen, dass diese spezielle Darstellungsmatrix
0 3
von  sogar eindeutig ist, und wir nennen sie die Normal-
Aber auch die Basis form der reellen Bilinearform  . Zu ihrer Festlegung sind
   drei Zahlen erforderlich, die Anzahlen p der Einsen, .r p/
0 1 1 der Minus-Einsen und .n  r/ der Nullen in der Hauptdia-
B D .b01 ; b02 / mit b01 D 0
; b2 D
1 0 gonale von M B 0 . /. Dieses Zahlentripel

(. Abb. 10.4) führt auf eine Diagonalmatrix, denn .p; r  p; n  r/


  heißt Signatur von  . Dabei sind diese drei Zahlen bereits
6 0
M B 0 . / D  .b0i ; bj0 / D D diag.6; 1/: vor der obigen Normierung als Anzahlen der positiven und
0 1
negativen Einträge sowie der Nullen in der Hauptdiagonale
von M B . / D diag.a11 ; : : : ; ann / feststellbar.
Es sind sowohl b1 und b2  -orthogonal, als auch b01 und
Dass kongruente Matrizen denselben Rang r haben,
b02 . Das ist auch anhand der Niveaulinien der zu  gehö-
wissen wir schon. Dass sie aber auch dasselbe p und da-
rigen quadratischen Form  erkennbar. Man kann nämlich
mit dieselbe Signatur haben, ist Gegenstand des folgenden
zeigen, dass zwei  -orthogonale und von 0 verschiedene
Satzes.
Vektoren ein Paar konjugierter Durchmesser der Niveauli-
nien aufspannen; es haben nämlich die Niveaulinien in den
Schnittpunkten mit einem der Durchmesser stets Tangen-
Trägheitssatz von Sylvester
ten, die zu dem anderen Durchmesser parallel sind. 9
Alle diagonalisierten Darstellungsmatrizen der reellen
symmetrischen Bilinearform  weisen dieselbe Anzahl p
Was haben die verschiedenen diagonalisierten Darstel-
von positiven Einträgen auf. Ebenso haben alle dieselbe
lungsmatrizen von  gemein? Im Fall K D R gibt es darauf
Anzahl r  p von negativen Einträgen. Also ist die Signa-
eine Antwort, wie der folgende Abschnitt zeigt.
tur .p; r  p; n  r/ von  eindeutig.

Reelle symmetrische Bilinearformen haben


Beweis Mit jeder  diagonalisierenden Basis .b1 ; : : : ; bn /
eine eindeutige Signatur
sind gewisse Unterräume verknüpft:
Ppx aus der Hülle der ersten p Basisvekto-
Für Vektoren
Angenommen, die Darstellungsmatrix M B . / 2 Rn n der ren, also x D i D1 xi bi 2 h b1 ; : : : ; bp i, ist bei x ¤ 0
symmetrischen Bilinearform  hat Diagonalform. Dann
kann jedes positive Diagonalelement ai i durch den Ersatz .x/ D  .x; x/ D a11 x12 C    C app xp2 > 0;
374 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

nachdem alle hier auftretenden Koeffizienten positiv sind. definit oder semidefinit sind oder indefinit. Negativ semide-
Analog ist für alle x 2 h bpC1 ; : : : ; bn i finit etwa ist äquivalent zu p D 0.

.x/ D apC1 pC1 xpC1


2
C    C arr xr2  0; ?Selbstfrage 10.7
Bestimmen Sie die Signaturen der auf den ersten neun
denn hier sind die Koeffizienten durchwegs negativ, und die Seiten dieses Abschnitts behandelten symmetrischen Bi-
restlichen Koordinaten xrC1 ; : : : ; xn kommen gar nicht vor. linearformen . Welche Basen B 0 bringen  auf die
Wir vergleichen dies mit einer zweiten Diagonaldarstel- jeweilige Normalform?
lung von  : Die Basis B 0 D .b01 ; : : : ; b0n / bringe  auf
0 0
eine Diagonalform diag.a11 ; : : : ; ann / mit p 0 positiven und
r  p 0 negativen Einträgen, also mit
10.2 Hermitesche Sesquilinearformen
8 0 0
<ai i > 0 für i D 1; : : : ; p ; Die Aussage, dass die Darstellungsmatrix einer symme-
0 0 0
.bi / D ai i < 0 für i D p C 1; : : : ; r; trischen Bilinearform  diagonalisierbar ist, gilt für alle
: 0
ai i D 0 für i D r C 1; : : : ; n: Körper K mit char K ¤ 2. Von einer Signatur kann man
nur sprechen, wenn in K zwischen positiven und negativen
Wir zeigen, dass die Annahme p 0 ¤ p, also z. B. p > p 0 , Elementen sinnvoll unterschieden werden kann. Dies trifft
auf einen Widerspruch führt. Dazu konzentrieren wir uns auf angeordnete Körper zu, wie z. B. R, aber nicht auf C.
auf die beiden Unterräume Und doch gilt ein Resultat ähnlichen Inhalts auch noch
für C, allerdings nicht für die symmetrischen Bilinearfor-
U>0 D h b1 ; : : : ; bp i mit dim U>0 D p men, sondern für die im 7 Kap. 9 bereits vorgestellten
hermiteschen Sesquilinearformen. Wir wiederholen noch-
und
10 mals kurz deren Definition.
0
U0 D h bp0 0 C1 ; : : : ; b0n i mit dim U0
0
D n  p0 : Wir setzen V als Vektorraum über C voraus. Eine Ab-
bildung
0
Die Summe der Dimensionen von U>0 und dim U0 beträgt 
0 V V ! C;
pCnp > n. Daher ist nach der Dimensionsformel (siehe W
.x; y/ 7!  .x; y/
7 Abschn. 4.5)
 0
 heißt Sesquilinearform, wenn für alle x; x 0 ; y; y 0 2 V und
dim U>0 \ U0  1:
 2 K gilt:
Es gibt also einen Vektor x ¤ 0 aus dem Durchschnitt  .x C x 0 ; y/ D  .x; y/ C  .x 0 ; y/;
dieser Unterräume, und dies führt zum offensichtlichen Wi-
derspruch  .x; y/ D   .x; y/;
 .x; y C y 0 / D  .x; y/ C  .x; y 0 /;
x 2 U>0 n f0g H) .x/ > 0 und
 .x; y/ D   .x; y/;
0
x 2 U0 H) .x/  0:
wobei  die zu  konjugiert komplexe Zahl bezeichnet. 
Somit bleibt p 0 D p.  ist somit linear im ersten und halblinear im zweiten Ar-
gument, also insgesamt anderthalbfach (lateinisch: sesqui)
Kommentar linear.
1. Das etwas ungewohnte Wort „Trägheit“ in diesem auf Nach Charles Hermite (1822–1901) heißt eine Sesquili-
James J. Sylvester (1814–1897) zurückgehenden Ergeb- nearform hermitesch, wenn stets gilt:
nis bezieht sich auf die Tatsache, dass sich die Signatur
bei Basiswechseln, also beim Übergang zwischen kon-  .y; x/ D  .x; y/: (10.5)
gruenten Darstellungsmatrizen, nicht ändert.
2. Der Begriff Signatur wird in der Literatur nicht immer ?Selbstfrage 10.8
einheitlich verwendet: Manchmal bezeichnet man da- Warum kann eine Sesquilinearform nicht symmetrisch
mit nur das Zahlenpaar .p; r  p/, vor allem dann, sein, d. h., warum führt eine generelle Forderung
wenn die Dimension n von V von vornherein feststeht. .y; x/ D .x; y/ zu Widersprüchen?
Manchmal meint man damit die Folge der Vorzeichen,
also etwa .C C C   0/ anstelle des Tripels .3; 2; 1/. Die Einschränkung der hermiteschen Sesquilinearform 
auf die Diagonale von V 2 ist die Abbildung
Natürlich lässt sich anhand der Signatur .p; r  p; n  r/ 
V ! R;
sofort beantworten, ob eine reelle symmetrische Bilinear- W
form  oder ihre Darstellungsmatrizen positiv oder negativ x 7! .x/ D  .x; x/:
10.2  Hermitesche Sesquilinearformen
375 10
Sie heißt hermitesche Form auf dem C-Vektorraum V . so folgt aus unseren Regeln für Sesquilinearformen:
Dass hier als Zielmenge R angegeben ist, ist kein Tipp- 0 1
fehler, sondern wegen (10.5)  .y; x/ D  .x; y/ muss X n X n

.x/ D .x/ und damit reell sein. Es macht also durchaus  .x; y/ D  @ xi b i ; yj bj A
Sinn, von positiv definiten hermiteschen Formen zu spre- i D1 j D1

chen, wenn für alle x 2 V n f0g das .x/ > 0 ist. Und X n

dieser Begriff wurde in 7 Abschn. 9.4 auch schon verwen- D xi yj  .bi ; bj /:


det. i;j D1

Die n2 Koeffizienten  .bi ; bj / legen  eindeutig fest und


? Selbstfrage 10.9
können in Form der Darstellungsmatrix
Beweisen Sie für hermitesche Formen die beiden Rechen-
regeln:  
M B . / D  .bi ; bj /

.x/ D jj2 .x/ und angeordnet werden.


.x C y/ C .x  y/ D 2 ..x/ C .y// : Schreiben wir die Koordinaten aus, so bedeutet dies:

Ähnlich wie quadratische Formen kann man auch die her- 0 1


y1
miteschen Formen direkt definieren, ohne von einer hermi- B :: C
teschen Sesquilinearform auf dem C-Vektorraum V auszu-  .x; y/ D .x1 : : : xn / M B . / @ : A
(10.6)
gehen: Dazu fordert man von einer Abbildung W V ! R yn
für alle x; y 2 V und  2 C: DB x > M B . / B y:
1. .x/ D   .x/.
2. .x C y/ C .x  y/ D 2 ..x/ C .y//. Ist die Sesquilinearform überdies hermitesch, so hat deren
3. Die induzierte Abbildung e W V V ! C mit Darstellungsmatrix die kennzeichnende Eigenschaft

e
 .x; y/ D .x C y/ C i.x C iy/ M B . /> D M B . /; (10.7)
 .1 C i/ ..x/ C .y//
denn aj i D  .bj ; bi / D  .bi ; bj / D aij . Derartige Matri-
ist eine Sesquilinearform. zen aus C n n heißen hermitesch.
Man beachte: Die Theorie der hermiteschen Sesquili-
nearformen umfasst jene der reellen symmetrischen Bili-
Es stellt sich dann  als Einschränkung der Sesquilinear-
nearformen als Sonderfall. Wenn wir nämlich in der Dar-
form  D 12 e auf die Diagonale von V heraus, denn
stellungsmatrix nur Einträge aij 2 R zulassen, so handelt
es sich um die Darstellungsmatrix einer reellen symme-
e
 .x; x/ D 4 .x/ C i.1 C i/.1  i/.x/  2.1 C i/.x/ trischen Bilinearform, nachdem die im hermiteschen Fall
D 4 .x/ C 2i .x/  2.x/  2i .x/ geforderte Bedingung (10.7) dann wegen aj i D aij D aij
D 2 .x/: eben nur die gewöhnliche Symmetrie bedeutet.
Wie lautet eine hermitesche Form .x/, wenn sie in
Man nennt dann so wie im Reellen e  die zu  gehörige Koordinaten dargestellt wird? Wie kann man aus dieser
Polarform. Darstellung ersehen, dass .x/ stets reell ist?
Wir spalten die Summe

X
n
Alle Darstellungsmatrizen .x/ D  .x; x/ D aij xi xj
einer hermiteschen Sesquilinearform i;j D1

sind untereinander kongruent


auf in
X
n X X
Bei der Definition der Darstellungsmatrix einer Sesquili- ai i xi xi C aij xi xj C aj i xj xi :
nearform können wir wie im Reellen vorgehen: Sind B D „ƒ‚… „ ƒ‚ … i <j „ƒ‚…
i D1 i <j
jxi j2 Dz D aij
.b1 ; : : : ; bn / eine geordnete Basis des endlichdimensiona-
len C-Vektorraums V und
Somit bleibt
X
n X
n X X
xD xi bi sowie y D yj bj ; .x/ D ai i jxi j2 C .aij xi xj C aij xi xj / 2 R:
i i <j
„ ƒ‚ …
i D1 j D1 zCz
376 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Hinsichtlich der Auswirkung elementarer Basiswechsel auf Beispiel Gesucht ist eine zu
diese Darstellungsmatrix zeigt sich ein Unterschied zu den 0 1
symmetrischen Bilinearformen: 1 i i
Setzen wir b0i D bi C  bj , während alle anderen A D @i 0 2  iA
Basisvektoren unverändert bleiben, so wird das Element i 2Ci 1
ai k D  .bi ; bk / aus M B . / zum Element
hermitesch kongruente Diagonalmatrix.
 .bi C  bj ; bk / D  .bi ; bk / C   .bj ; bk / Wir subtrahieren geeignete Vielfache der ersten Zeile
D ai k C  aj k und Spalte von den zweiten und dritten, um in der ersten
Zeile und Spalte neben a11 D 1 nur mehr Nullen zu be-
in der neuen Darstellungsmatrix M B 0 . /. Dagegen wird kommen:
aki D  .bk ; bi / zu 0 1 0 1
1 i i z2 Ci z1 1 i i
z3 i z1
@i 0 2  iA ! @0 1 3  iA
 .bk ; bi C  bj / D  .bk ; bi / C   .bk ; bj /
i 2Ci 1 0 3Ci 0
D aki C  akj : 0 1
s2 i s1 1 0 0
s3 Ci s1
Es wird also beim Übergang von M B . / zu M B 0 . / zur ! @0 1 3  iA
0 3Ci 0
i-ten Zeile die -fache j -te Zeile addiert und zur i-ten Spal-
te die -fache j -Spalte. Jede elementare Zeilenumformung
Hierauf verfahren wir mit der Restmatrix ähnlich:
ist also hier mit der gleichartigen, jedoch konjugiert kom-
plexen Spaltenumformung zu koppeln. 0 1 0 1
1 0 0 1 0 0
Dies folgt auch aus der Matrizendarstellung (10.6): Für z C.3Ci/z
10 @0 1 3  iA 3 ! 2 @0 1 3  iA
alle x; y 2 V muss gelten: 0 3Ci 0 0 0 10
0 1
 .x; y/ DB 0 x > M B 0 . / B 0 y D B x > M B . / B y s3 C.3i/s2
1 0 0
  ! @ 0 1 0 A D diag.1; 1; 10/:
D .B T B 0 B 0 x/> M B . / B T B 0 B 0 y
  0 0 10
DB 0 x > .B T B 0 /> M B . / B T B 0 B 0 y:
Soll auch hier die Transformationsmatrix B T B 0 mitberech-
Das führt auf die folgende Gleichung zwischen den Dar- net werden, so wenden wir auf die Einheitsmatrix E3 der
stellungsmatrizen. Reihe nach die obigen Spaltenoperationen an. Dies führt zu
B T B0 :
0 1 0 1
Darstellungsmatrizen von Sesquilinearformen 1 0 0 s2 i s1 1 i i
s3 Ci s1
Für die Darstellungsmatrizen der Sesquilinearform  be- E3 D @0 1 0A ! @0 1 0A
züglich der Basen B und B 0 gilt 0 0 1 0 0 1
0 1
1 i 1  2i
M B 0 ./ D .B T B 0 /> M B ./ B T B 0 s3 C.3i/s2
(10.8) ! @0 1 3  i A D B T B0 :
  0 0 1
mit B T B 0 D B b01    B b0n als invertierbarer Matrix. Je
zwei derartige Darstellungsmatrizen von  heißen zuein- Zur Probe können wir für M B . / D A bestätigen:
ander hermitesch kongruent .
0 1
1 0 0
.B T B 0 /> M B . / B T B 0 D @ i 1 0A
? Selbstfrage 10.10 1 C 2i 3 C i 1
Warum sind die zu einer hermiteschen Matrix kongruen- 0 10 1
1 i i 1 i 1  2i
ten Matrizen wieder hermitesch? @i 0 2  iA @0 1 3i A
i 2Ci 1 0 0 1
Will man eine hermitesche Darstellungsmatrix diagonali- 0 1
sieren, so kann man mithilfe dieser neuartig gekoppelten 1 0 0
elementaren Zeilen- und Spaltenumformungen ganz ähn- D @0 1 0 A D M B 0 . /: 9
lich vorgehen wie in dem in 7 Abschn. 10.1 vorstellten 0 0 10
Algorithmus für symmetrische Bilinearformen. Wir ver-
zichten auf die genaue Formulierung der notwendigen Die Elemente in der Hauptdiagonalen einer hermiteschen
Schritte 1 bis 3 und zeigen dafür ein Zahlenbeispiel. Matrix sind wegen ajj D ajj stets reell. Man kann daher
10.2  Hermitesche Sesquilinearformen
377 10
die positiven Diagonaleinträge wieder mittels bj0 D  bj diesen Basen die orthonormierten heraussuchen. Dazu sind
p
und  D 1= ajj auf +1 normieren und die negativen mit tiefer liegende Methoden erforderlich, die jedoch bereits im
p
 D 1= ajj auf 1. 7 Kap. 9 entwickelt worden sind.
Nun ist eine Bemerkung notwendig: Da wir mit kom- In der Folge verwenden wir neben der Sesquilinearform
plexen Zahlen rechnen, könnte man z. B. bei ajj D 4 auch  noch das durch einen Punkt gekennzeichnete Skalarpro-
den Basiswechsel bj0 D 21i bj vornehmen. Wird die j -te dukt sowie dessen Koordinatendarstellung als Matrizenpro-
Zeile mit 21i D  2i multipliziert, so muss die j -te Spalte dukt, sofern den Koordinaten eine orthonormierte Basis B
mit dem konjugiert komplexen Wert 2i multipliziert wer- zugrunde liegt. Das folgenden Lemma zeigt, dass sich 
den. Beides zusammen ergibt als neues Diagonalelement direkt mit einem Skalarprodukt in Beziehung bringen lässt.
aber erst wieder 14 .4/ D 1. Beide Möglichkeiten führen
zu demselben Ergebnis. Lemma Zu jeder auf einem unitären Raum definierten Ses-
Somit gilt die Normalform aus (10.4) auch für die her- quilinearform  gibt es einen Endomorphismus ' mit
miteschen Sesquilinearformen. Und auch der Trägheitssatz  .x; y/ D '.x/  y; wobei B M .'/B D M B . /> :
von Sylvester bleibt weiterhin gültig, denn wegen .x/ 2 R
kann der obige Beweis wortwörtlich übernommen werden.  ist genau dann hermitesch, wenn ' selbstadjungiert ist.

Beweis Nach (10.6) ist


Trägheitssatz für Sesquilinearformen  .x; y/ D B x > M B . / B y
Für hermitesche Sesquilinearformen  gilt ebenfalls der  >
Trägheitssatz von Silvester:  hat eine eindeutige Signatur D M B . /> B x B y D '.x/  y:
.p; r  p; n  r/, und es gibt stets Basen B, deren Dar- Nach den Ergebnissen aus dem 7 Abschn. 9.6 sind selbst-
stellungsmatrix M B ./ die Normalform (10.4) aufweist. adjungierte Endomorphismen durch hermitesche Darstel-
lungmatrizen gekennzeichnet. Und dies ist in unserem Fall
gegeben, denn
Liegt eine positiv definite hermitesche Sesquilinear-
>
form vor wie beim Skalarprodukt in unitären Räumen B M .'/B D M B . / D M B . /> D B M .'/B : 
(7 Abschn. 9.4), also mit der Signatur .n; 0; 0/, so gibt es Mit diesem Lemma ist klar, dass eine orthonormierte Basis,
Basen B mit der Einheitsmatrix als Darstellungsmatrix. In welche  diagonalisiert, zugleich ' diagonalisieren muss.
Koordinaten ausgedrückt nimmt dann die Sesquilinearform Nach 7 Abschn. 8.2 führt der Weg dazu über die Eigen-
die kanonische Form werte und -vektoren der Darstellungsmatrix.
>
 .x; y/ D x1 y1 C    C xn yn D Bx By Wir gehen somit von einer beliebigen orthonormier-
ten Basis B eines n-dimensionalen unitären Vektorraums
an. Es ist also tatsächlich jede positiv definite hermitesche aus und bestimmen die Eigenvektoren der hermiteschen
Sesquilinearform als ein Skalarprodukt mit den üblichen Darstellungsmatrix M B . /> . Zwar wissen wir bereits aus
Eigenschaften aufzufassen. In diesem Sinn ist dann jede 7 Abschn. 9.6, dass es eine Basis aus Eigenvektoren gibt,
Basis B mit M B . / D En orthonormiert. die sogar orthonormiert ist, doch zum besseren Verständnis
Im Folgenden verwenden wir in dem C-Vektorraum V fügen wir noch die folgende Rechnung an. Dabei bezeich-
zwei hermitesche Sesquilinearformen  und 1 gleichzei- nen wir die orthonormierte Basis aus Eigenvektoren mit H ,
tig: Dabei soll 1 positiv definit sein. Damit können wir 1 nachdem deren Vektoren h1 ; : : : ; hn die Hauptachsen von
als Skalarprodukt interpretieren. Wir verwenden einfach-  aufspannen. Für die zugehörigen Eigenwerte 1 ; : : : ; n
heitshalber den Punkt als Verknüpfungssymbol, setzen also gilt:
xy D 1 .x; y/. Der Vektorraum V wird dadurch zu einem
unitären Raum (7 Abschn. 9.4) mit einer weiteren hermite- M B . /> B hi D i B hi für i D 1; : : : ; n:
schen Sesquilinearform  . Nun folgt für das Skalarprodukt zweier Eigenvektoren die
Gleichung:
In unitären Räumen haben hermitesche i .hi  hj / D .i hi /  hj D .i B hi /> B hj
Sesquilinearformen diagonalisierende  >
D M B . /> B hi B hj
Orthonormalbasen
D B h>
i M B . / B hj
>
Die bisher behandelten Basen, für welche die Darstellungs- D B h>
i M B . / B hj
 
matrix einer gegebenen hermiteschen Sesquilinearform  D B h> >
i M B . / B hj
Diagonalform hatte, wurden allein durch Zeilen- und Spal-  
D B h>
i j B hj
tenumformungen bestimmt. Sie unterlagen keinerlei weite-
ren Einschränkungen. Jetzt möchten wir uns aber aus all D hi  .j hj / D j .hi  hj /:
378 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Folgerung Ist  eine hermitesche Sesquilinearform auf ei- orthogonal bzw. unitär ist, können wir auch sagen: Zu jeder
nem unitären Raum, so gilt für je zwei Eigenvektoren hi ; hj reellen symmetrischen bzw. hermiteschen Matrix M gibt
der Matrix M B . /> und deren Eigenwerte i bzw. j es eine orthogonale bzw. unitäre Matrix T derart, dass

i .hi  hj / D j .hi  hj /: M 0 D T > M T D diag.1 ; : : : ; n /


Zwei unmittelbare Konsequenzen daraus lauten:
ist mit 1 ; : : : ; n 2 R.
1. Für i D j folgt i .hi hi / D i .hi hi / bei hi ¤ 0. Die
Die Vektoren unserer orthonormierten Basis H sind
Eigenwerte der hermiteschen Matrix M B . / sind also
nicht eindeutig. Es kann z. B. hi durch hi ersetzt werden.
wegen i D i alle reell, das charakteristische Polynom
Treten zudem mehrfache Eigenwerte der Darstellungsma-
zerfällt bereits über R in lauter Linearfaktoren.
trix M B . / auf, ist also etwa i ein k-facher Eigenwert,
2. Sind i und j zwei verschiedene Eigenwerte, so folgt
so ist der zugehörige Eigenraum EigM .i / k-dimensional,
wegen i .hi  hj / D j .hi  hj / für das Skalarprodukt und in diesem Eigenraum sind dann k orthonormierte Ei-
hi  hj D 0. Zwei zu verschiedenen Eigenwerten gehö- genvektoren beliebig festsetzbar.
rige Eigenvektoren sind also zueinander orthogonal.

Schließlich kann durch Induktion gezeigt werden, dass zu Beispiel Wir bestimmen die Hauptachsen der schon mehr-
einem k-fachen Eigenwert  einer hermiteschen Matrix M fach verwendeten reellen symmetrischen Bilinearform
stets ein k-dimensionaler Eigenraum EigM ./ gehört. Aus
diesem lassen sich somit k orthonormierte Eigenvektoren  .x; y/ D x1 y1 C x1 y2 C x2 y1  5 x2 y2
auswählen. Dies ermöglicht insgesamt die genannte ortho-   
1 1 y1
normierte Basis aus Eigenvektoren h1 ; : : : ; hn . Aber dies D .x1 x2 / :
1 5 y2
alles ist lediglich eine Folge des Spektralsatzes für hermi-
10 tesche Matrizen von 7 Abschn. 9.7.
Zunächst berechnen wir die Eigenwerte der kanonischen
Nun können wir verifizieren, dass die zur orthonor-
Darstellungsmatrix M E . / als Nullstellen des charakteris-
mierten Basis H aus Eigenvektoren gehörige Darstellungs-
tischen Polynoms
matrix M H . / Diagonalform aufweist: Nach (10.6) ist
nämlich  
1 1
det D .  1/.5 C /  1;
 .hi ; hj / D B h>
i M B . / B hj 1 5  
 >
D M B . /> B hi B hj
also die Wurzeln von
D .i B hi /> B hj
D .i hi /  hj D i .hi  hj / D i ıij 2 C 4  6 D 0:
unter Verwendung des Kronecker-Symbols ıij . Also ist
Wir erhalten:
M H . / D diag.1 ; : : : ; n /, was aber auch direkt aus dem
obigen Lemma folgt, denn  .hi ; hj / D '.hi /  hj . p p
1 D 2 C 10; 2 D 2  10
Bei all diesen Rechnungen sind natürlich die reellen
symmetrischen Bilinearformen als Sonderfall enthalten.
und als Lösungen der homogenen linearen Gleichungssys-
teme .M E . /  i E2 / x D 0 die orthonormierte Basis
Transformation auf Hauptachsen H D .h1 ; h2 / mit
Zu jeder reellen symmetrischen Bilinearform bzw. hermi- p !
teschen Sesquilinearform  auf einem n-dimensionalen 1 3˙ 10
h1;2 D p p :
euklidischen bzw. unitären Vektorraum gibt es eine ortho-
20 ˙ 6 10 1
normierte Basis H , welche  diagonalisiert.
Bei M H ./ D diag.1 ; : : : ; n / sind die i die stets Die neue Darstellungsmatrix von  lautet:
reellen Eigenwerte der Darstellungsmatrix M B ./ be-
züglich einer beliebigen orthonormierten Basis B. Die   p !
1 0 2 C 10 0
B-Koordinaten B hi der orthonormierten Vektoren aus H M H . / D D p :
sind Eigenvektoren von M B ./> .
0 2 0 2  10

Die . Abb. 10.5 mit den Niveaulinien von .x/ verdeut-


Nachdem die Transformationsmatrix licht den Unterschied zwischen der nunmehr orthonormier-
ten Basis und den früher verwendeten diagonalisierenden
B TH D .B h1 ; : : : ; B hn / Basen in der . Abb. 10.4. 9
10.3  Quadriken und ihre Hauptachsentransformation
379 10
x2 häufig sowohl den reellen Vektorraum, als auch den reel-
36
25 2 len affinen Raum. In diesem Sinn wurde im 7 Kap. 5 vom
16 Anschauungsraum R3 gesprochen; eigentlich war dabei der
9 affine Raum A .R3 / gemeint. Wir wollen in diesem Kapi-
1

9
tel nun doch konsequent das Symbol A .V / für den affinen

4
h2
h1
Raum über dem Vektorraum V verwenden.
1 0 x1
3 2 0 1 2
1
1

4 Von den quadratischen Formen


4

1 9 zu quadratischen Funktionen
9

16
2 25
36 Um quadratische Formen bildlich darstellen zu können, ha-
ben wir in . Abb. 10.1, 10.2 und 10.3 die Niveaulinien von
. Abb. 10.5 Niveaulinien der quadratischen Form .x/ D x12 C2x1 x2  quadratischen Formen W R2 ! R dargestellt. Das waren
5x22 mit der orthonormierten und gleichzeitig diagonalisierenden Basis die von den Punkten x mit
H D .h1 ; h2 /
.x/ D c D konst.
Ein weiteres Zahlenbeispiel zur Hauptachsentransformati-
gebildeten Kurven, die Fasern der Abbildung . In den ge-
on einer quadratischen und einer hermiteschen Form findet
nannten Abbildungen traten als Niveaulinien Hyperbeln,
sich im 7 Abschn. 9.6.
Ellipsen und Geradenpaare auf. Wir hatten dort übrigens
Wie schon vorhin erwähnt, erfordert die Bestimmung
bereits von Punkten x gesprochen, also stillschweigend be-
diagonalisierender Basen deutlich weniger Aufwand als
reits die affine Ebene A .R2 / verwendet.
jene der Hauptachsen. Für einige Fragen müssen die Haupt-
Wir verallgemeinern diese Punktmengen, indem wir ne-
achsen gar nicht bestimmt werden, so z. B. bei jener nach
ben der quadratischen Form  und der Konstanten c auch
dem Typ einer Quadrik, wie der folgende Abschnitt zeigen
noch eine Linearform ' einfügen.
wird.

10.3 Quadriken und ihre Definition einer quadratischen Funktion


Hauptachsentransformation V sei ein endlichdimensionaler Vektorraum über dem
Körper K mit char K ¤ 2 und A .V / der zugehörige af-
fine Raum. Eine Abbildung
Schauplatz der vorhin behandelten Bilinear- und Sesqui-
linearformen war ein Vektorraum V . Die nun folgenden (
A .V / ! K
Begriffe quadratische Funktion und Quadrik gehören zum W
x 7! .x/ D .x/ C 2 '.x/ C a
zugehörigen affinen Raum A .V /. Darunter versteht man
die Gesamtheit der affinen Teilräume von V , also der
mit einer quadratischen Form W V ! K, einer Line-
Nebenklassen a C U mit a 2 V und mit U als Untervektor-
arform 'W V ! K (siehe 7 Abschn. 6.1) und einer
raum von V (siehe 7 Abschn. 5.1). Die nulldimensionalen
Konstanten a 2 K heißt quadratische Funktion.
affinen Teilräume fag D a C f0g sind die Punkte. Statt fag
schreiben wir einfachheitshalber nur a und sprechen vom
„Punkt a“, so wie bereits im Anschauungsraum. Es mag
anfangs etwas verwirren, dass Vektoren V und Punkte aus Auch wenn viele Eigenschaften quadratischer Funk-
A .V / mit demselben Symbol bezeichnet werden. Aus dem tionen über beliebigen Körpern K nachgewiesen werden
Zusammenhang wird aber meist klar, was gemeint ist. können, beschränken wir uns von nun an auf den Fall eines
Der Hauptgrund, weshalb Quadriken als Punktmengen n-dimensionalen euklidischen Vektorraums V und damit
im affinen Raum A .V / interpretiert werden, liegt in der auf K D R.
größeren Freiheit bei der Festlegung von Koordinaten. Ne- In V sei B D .b1 ; : : : ; bn / eine orthonormierte Basis.
ben einer Basis B des zugrunde liegenden Vektorraums Nach Wahl eines Koordinatenursprungs o sprechen wir so
V benötigen wir noch einen Punkt o als Koordinatenur- wie im 7 Kap. 5 von einem kartesischen Koordinatensys-
sprung. Die .oI B/-Koordinaten des Punkts p sind dann im tem .oI B/ in A .V /. In diesem steht uns die symmetrische
Sinne von (5.10) die Komponenten des Ortsvektors p  o Darstellungsmatrix A D M B . / 2 Rn n der zu  gehö-
bezüglich der Basis B. rigen Polarform  zur Verfügung (siehe 7 Abschn. 10.1)
Übrigens wird in der Literatur oft gar kein eigenes Sym- und ebenso der Vektor a> als einzeilige Darstellungsma-
bol für den affinen Raum verwendet wird; so bezeichnet Rn trix der Linearform 'W V ! K und zugleich als Vektor des
380 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Dualraums zu V (siehe 7 Abschn. 6.9). Die quadratische lautet:


Funktion hat also die Koordinatendarstellung 0 1
   >  5 0 3 1
>
.x/ D .oIB/ x A .oIB/ x C 2 a .oIB/ x C a B 0 2 0 2C
M .0IE/ . / D B
@3
C: 9
(10.9) 0 1 0A
1 2 0 0
mit A > D A. Dies bedeutet ausführlich:
X
n X
n In Verallgemeinerung der eingangs genannten Niveaulini-
.x/ D aij xi xj C 2 ak xk C a bei aj i D aij :
en einer quadratischen Form interessieren wir uns nun für
i;j kD1 diejenigen Punkte x des affinen Raums A .V /, welche die
Gleichung .x/ D 0 erfüllen, also für die Nullstellenmen-
Die xi sind dabei die .oI B/-Koordinaten des Punktes x.
ge 1 .0/ der quadratischen Funktion.
Die Konstante a ist das Bild .o/ des Koordinatenur-
sprungs, denn .oIB/ o D 0.
Nach der obigen Definition zählt auch die Nullfunktion
mit .x/ D 0 für alle x 2 Rn , also mit A als Nullmatrix, Definition einer Quadrik
a D 0 und a D 0 zu den quadratischen Funktionen. Ist W A .V / ! K eine von der Nullfunktion verschiede-
Es liegt nahe, die n2 Einträge ai k von A zusammen ne quadratische Funktion, wobei V ein K-Vektorraum ist
mit den n Koordinaten .a1 ; : : : ; an / des Vektors a> und der mit char K ¤ 2, so heißt deren Nullstellenmenge
Konstanten a in eine symmetrische .n C 1/-reihige Matrix
zu packen, nämlich in Q. / D 1 .0/ D f x j .x/ D 0 g A .V /
0 1
a a1 : : : an Quadrik des A .V /.
10   Ba1 a11 : : : a1n C
a a> B C
M .oIB/ . / D D B :: :: :: C
a A @: : : A
an an1 : : : ann Wird die Bedingung .x/ D 0 in Koordinaten dargestellt,
so nennt man dies eine Gleichung der Quadrik Q. /.
Wir nennen diese symmetrische Matrix aus R.nC1/ .nC1/ Diese ist selbstverständlich abhängig vom verwendeten Ko-
die erweiterte Darstellungsmatrix der quadratischen ordinatensystem. Ist V D Kn und handelt es sich um
Funktion . So wie bereits in 7 Abschn. 5.5 können wir kanonische Koordinaten .0I E/ in A .Kn /, so sprechen wir
die Koordinatenvektoren x der Punkte durch Hinzufügen von der kanonischen Gleichung der Quadrik.
der nullten Koordinate 1 zu Vektoren x 2 RnC1 erwei-
tern. Dies führt auf die erweiterte Matrizendarstellung der Beispiel 1. Die Quadrik des A .R2 / mit der kanonischen
quadratischen Funktion: Gleichung
>
.x/ D .oIB/ x M .oIB/ . / .oIB/ x (10.10)
.x/ D x12 C x22  1 D 0
oder ausführlich
0 10 1
ist der Einheitskreis.
a a1 ::: an 1
2. Bei .x/ D x12  x22 besteht die Nullstellenmenge
B a1 a11 ::: a1n C Bx1 C
Q. / aus den zwei Geraden mit den Gleichungen x1 ˙
B CB C
.x/ D .1; x1 ; : : : ; xn / B :: :: :: C B :: C :
x2 D 0.
@: : : A@ : A
an an1 : : : ann 3. Bei .x/ D x12 ist die Nullstellenmenge eine einzige
xn
Gerade, nämlich die x2 -Achse x1 D 0.
Beispiel Die erweiterte Darstellungsmatrix der quadrati- 4. Bei .x/ D x12 C x22 ist Q. / D f0g, d. h., die
schen Funktion Quadrik besteht aus einem einzigen Punkt. 9

.x/ D 2x12  x22 C 4x1 x3  6x2  2x3 C 5; Kommentar Die quadratische Funktion bestimmt die
zugehörige Quadrik Q. / eindeutig. Umgekehrt ist dies
also nicht der Fall. So haben z. B. die beiden Funktionen
0 10 1
1 ; 2 W A .R / ! R mit den kanonischen Darstellungen
2
2 0 2 x1
.x/ D .x1 ; x2 ; x3 / @0 1 0A @x2 A
2 0 0 x3 1 .x/ D x12 C x22 und 2 .x/ D 2 x12 C x22
0 1
x1
dieselbe Nullstellenmenge Q. 1 / D Q. 2 / D f0g. Erst
C .0; 6; 2/ @x2 A C 5 über C ist die zu einer Quadrik gehörige quadratische
x3 Funktion bis auf einen Faktor eindeutig, außer .x/ ist das
10.3  Quadriken und ihre Hauptachsentransformation
381 10
Quadrat einer linearen Funktion. Es haben nämlich z. B. die Wir können dies durch Nachrechnen überprüfen. Dazu
quadratischen Funktionen bestimmen wir zunächst die Umkehrtransformation zu . /.
Nachdem die dort auftretende 2 2 -Matrix orthogonal ist,
1 .x/ D x1 und 2 .x/ D x1
2
ist ihre Inverse die Transponierte, und wir erhalten:
    0 p !
selbst in A .C 2 / dieselbe Nullstellenmenge. x1 1 2 1 x1 C 3= 5
Dp p
x2 5 1 2 x20 C 4= 5
    0
Koordinatentransformationen können 2 1 2 1 x1
D Cp :
die Gleichung einer Quadrik vereinfachen 1 5 1 2 x20

Dies setzen wir in der obigen quadratischen Funktion .x/


Unser Ziel ist es, eine Übersicht über alle möglichen Qua- ein und erhalten nach einiger Rechnung die oben angeführ-
driken in reellen affinen Räumen zu bekommen. Wir errei- te einfache Gleichung.
chen dies, indem wir durch spezielle Wahl des kartesischen Warum genau die Koordinatentransformation . / auf
Koordinatensystems die Koordinatendarstellung der qua- diese einfache Gleichung führt, soll im Folgenden geklärt
dratischen Funktion und damit die Q definierende Glei- werden. 9
chung auf eine Normalform bringen. Durch einen Basis-
wechsel gelingt es, die Darstellungsmatrix A D M B . / der
Die Transformation
enthaltenen quadratischen Form zu diagonalisieren. Lässt
man auch eine Verschiebung des Koordinatenursprungs zu, einer Quadrikengleichung
so kann in vielen Fällen die enthaltene Linearform zum Ver- auf Normalform erfolgt in zwei Schritten
schwinden gebracht werden.

Beispiel Die quadratische Funktion W A .R2 / ! R mit Wir beginnen damit, die Auswirkungen eines allgemeinen
Koordinatenwechsels auf eine quadratische Funktion zu
der kanonischen Darstellung
untersuchen. Dabei beschränken wir uns weiterhin auf kar-
.x/ D 9 x1  4 x1 x2 C 6 x2  32 x1  4 x2 C 24
2 2 tesische Koordinatensysteme. Wir untersuchen in diesem
Sinn die euklidische Geometrie der Quadriken und nicht
bestimmt als Nullstellenmenge Q. / eine Ellipse mit den deren affine Geometrie.
p
Achsenlängen 1 und 2 (. Abb. 10.6), denn nach Umrech- Ersetzen wir das Koordinatensystem .oI B/ durch das
nung auf die Koordinaten System .o0 I B 0 /, so bedeutet dies für die Koordinaten des-
 0      selben Punkts x (vergleiche 7 Abschn. 5.5):
x1 1 3 1 2 1 x1
Dp Cp ( ) 0
.oIB/ x D .oIB/ o C B T B 0 .o0 IB 0 / x;
x20 5 4 5 1 2 x2
wobei die Matrix B T B 0 orthogonal, also .B T B 0 /1 D
wird dieselbe Punktmenge Q. / durch die Gleichung .B T B 0 /> ist. Wir setzen dies in die Darstellung (10.9)
1 02 .x/ D >
C 2 a> .oIB/ x C a
x102 C x 1D0 .oIB/ x A .oIB/ x
2 2
ein, wobei wir kurz T für die Transformationsmatrix B T B 0
beschrieben. schreiben sowie t statt .oIB/ o0 und x 0 statt .o0 IB 0 / x:
.x/ D .t > C x 0> T > /A.t C T x 0 /
x2 x20
C 2 a> .t C T x 0 / C a
D x 0> .T > A T /x 0
 
C t > A T x 0 C x 0> T > A t C 2 a> T x 0
 
Q. /
C t > A t C 2 a> t C a :
o0
Wir formen den mittleren, in x 0 linearen Term noch et-
x10 was um: Wegen A > D A können wir für die reelle Zahl
x 0> T > A t auch schreiben:
0 x1
x 0> T > A t D .x 0> T > A t/> D t > A T x 0 :
Deshalb bleibt als linearer Term:
. Abb. 10.6 Die Quadrik Q. / mit der kanonischen Gleichung .x/ D
9x12  4x1 x2 C 6x22  32x1  4x2 C 24 D 0 ist eine Ellipse 2 t > A T x 0 C 2 a> T x 0 D 2 .t > A C a> / T x 0 :
382 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Lemma Eine Änderung des kartesischen Koordinatensys- Nach der oben erklärten Hauptachsentransformation
tems von .oI B/ zu .o0 I B 0 / mittels der Transformations- symmetrischer Bilinearformen haben wir als neue ortho-
gleichung .oIB/ x D t C T .o0 IB 0 / x verändert gleichzeitig die normierte Basis B 0 D H eine aus lauter Eigenvektoren von
Darstellung .x/ D .oIB/ x > A .oIB/ x C 2 a> .oIB/ x C a A zu wählen. Die Transformationsmatrix lautet:
der quadratische Funktion W A .V / ! R zu
B T H D . B h1 ; : : : ;B hn /:
.x/ D .o0 IB 0 / x > A 0 .o0 IB 0 / x C 2 a0> .o0 IB 0 / x C a0
Damit wird A 0 zur Diagonalmatrix diag.1 ; : : : ; n / mit
mit den Eigenwerten i von A. Deren Vorzeichenverteilung er-
0 > gibt sich aus der Signatur .p; r  p; n  r/ von A. Wir
A D T AT;
können jedenfalls die p positiven Eigenwerte zu Beginn
a0 D T > .A t C a/ ; (10.11) reihen, anschließend bei r D rg.A/ die r  p negativen
a0 D t > A t C 2 a> t C a D .o0 /: und schließlich die n  r Nullen.
Wenn wir die positiven Eigenwerte i durch 1=˛i2 er-
Die in der quadratischen Funktion setzen und die negativen durch 1=˛i bei ˛i > 0, so folgt
2
Kommentar
W A .V / ! R vorkommende quadratische Form als quadratischer Anteil in der transformierten Darstellung
W V ! R bleibt unverändert, denn die Darstellungsmatrix von :
A wird durch eine zu A kongruente Matrix A 0 ersetzt.
> 0 02 02
Die lineare Abbildung ' hingegen wird verändert, denn .o0 IB 0 / x A .o0 IB 0 / x D 1 x1 C    C r xr
der Übergang von der einzeilige Darstellungsmatrix a> zu x0 2
02
xp0 2 xpC1 x0 2
a0> ist bei t ¤ 0 keine Äquivalenz mehr. Dies ist deshalb D 12 C    C 2  2      r2
˛1 ˛p ˛pC1 ˛r
ohne Änderung der quadratischen Funktion möglich,
10 weil nach dem Koordinatenwechsel  nicht allein auf x,
mit 0  p  r D rg.A/  n.
sondern auf x  o0 angewendet wird.
2. Schritt: Nach der Beseitigung der gemischten Sum-
Durch die Vorgabe einer quadratischen Funktion
manden verlagern wir den Ursprung derart, dass die linea-
W A .V / ! R wird zwar die quadratische Form  ein-
ren Summanden ai xi weitgehend verschwinden.
deutig festgelegt, nicht aber die lineare Abbildung ' sowie
Um in dem neuen Koordinatensystem .o0 I B 0 / gleich-
die Konstante a. Letztere ändern sich bei Verlagerung des
zeitig die Linearform zum Verschwinden zu bringen, muss
Ursprungs von A .V /.
in (10.11) a0 D 0 sein. Wegen der Invertierbarkeit von T
ist hierfür notwendig und hinreichend, dass t D .oIB/ o0 das
Wenn wir diesen Koordinatenwechsel so wie im 7 Kap. 5
inhomogene lineare Gleichungssystem
durch die erweiterte Transformationsmatrix T beschrei-
ben, also in der Form
A x D a (10.12)
   >  
1 1 0 1
x D D D T x0 ;
x t T x0 löst. Hier sind zwei Fälle zu unterscheiden.
Fall a) Das System (10.12) ist lösbar:
so erhalten wir die gegenüber M .oIB/ . / aus (10.10) neue Nach den Ergebnissen von 7 Kap. 3 wird in diesem Fall
erweiterte Darstellungsmatrix M .o0 IB 0 / . / auch direkt als der Rang nicht größer, wenn zur Koeffizientenmatrix die
das Matrizenprodukt Absolutspalte hinzugefügt wird – auch wenn diese zuvor
! mit 1 multipliziert wird. Also ist
> >  > 
1 t a a 1 0
M .o0 IB 0 / . / D ; rg.A j a/ D rg.A/ D r:
0 T> a A t T

wie eine einfache Rechnung mittels blockweiser Matrizen- Jeder Punkt m, dessen .oI B/-Koordinaten dieses Glei-
multiplikation bestätigt. Der Rang der erweiterten Matrix chungssystem lösen, heißt Mittelpunkt der Quadrik. In
bleibt bei dieser Transformation unverändert, weil T in- dem Koordinatensystem .mI H / nimmt die Gleichung der
vertierbar ist. Quadrik Q. / die Form
Nun können wir darangehen, durch eine geeignete Wahl 02
der Basis B 0 und des Koordinatenursprungs o0 die Koordi- x10 2 xp0 2 xpC1 xr0 2
C    C       C a0 D 0
natendarstellung der quadratischen Funktion aus (10.11) ˛12 ˛p2 2
˛pC1 ˛r2
und damit die Gleichung der Quadrik Q. / zu vereinfa-
chen. an. Die Lösungsmenge dieser Gleichung, also Q. /, bleibt
1. Schritt: Wir diagonalisieren die Polarform und eli- unverändert, wenn wir die Gleichung mit einem von null
minieren damit in der Quadrikengleichung alle gemischten verschiedenen Faktor multiplizieren. Bei a0 ¤ 0 können
Summanden aij xi xj mit i ¤ j . wir durch die Multiplikation mit 1=a0 die Konstante auf
10.3  Quadriken und ihre Hauptachsentransformation
383 10
1 normieren. Bei a0 D 0 erreichen wir durch eine etwaige Nachdem die Koordinaten von a bezüglich der Basis H
Multiplikation mit 1, dass die Anzahl der positiven Dia- Skalarprodukte sind (siehe 7 Abschn. 9.3), gilt:
gonaleinträge in A 0 nicht kleiner ist als jene der negativen.
Die Bezeichnung Mittelpunkt für die Lösungen von X
n X
r

(10.12) ist berechtigt, denn mit x 0 2 Q. / ist stets auch a0 D .a  hi / hi ; a1 D .a  hj / hj ; (10.13)


i DrC1 j D1
x 0 2 Q. /, da die .mI H /-Koordinaten x10 ; : : : ; xn0 von
x alle nur im Quadrat vorkommen. Der Punkt m ist also
wobei nach wie vor a D a0 Ca1 gilt. Wegen der geforderten
tatsächlich ein Symmetriezentrum der Quadrik.
Unlösbarkeit des Systems in (10.12) ist a0 ¤ 0. 
Bei r D rg.A/ < n gibt es mehr als einen Mittelpunkt;
jeder Punkt aus m C EigA .0/ löst das inhomogene Glei-
Angenommen, der erste Schritt ist bereits erledigt. Dann
chungssystem, denn der .n  r/-dimensionale Eigenraum
ist die Quadrikengleichung bereits auf die aus Eigen-
zum Eigenwert 0 – übrigens das Radikal der Polarform zu
vektoren bestehende Basis H umgerechnet, also A D
quadratischen Form  in – ist genau die Lösungsmen-
diag.1 ; : : : ; r ; 0; : : : ; 0/, und die Quadrikengleichung
ge des zu (10.12) gehörigen homogenen Systems A x D 0
lautet:
(siehe 7 Abschn. 3.3).
Verschwindet die Konstante a0 in der Quadrikenglei-
1 x12 C    C r xr2 C 2 .a1 x1 C    C an xn / C a D 0
chung, so gehört der Mittelpunkt m gemäß (10.11) der
Quadrik an. In diesem Fall enthält die Gleichung nur qua-
mit .a1 ; : : : ; an / als H -Koordinaten von a. Das inhomoge-
dratische Summanden. Die zugehörige Quadrik heißt kege-
ne Gleichungssystem A x D a aus (10.12) bekommt die
lig. Mit jedem vom Koordinatenursprung m verschiedenen
Form
Punkt mit den .mI H /-Koordinaten .x10 ; : : : ; xn0 / gehört die
ganze Verbindungsgerade der Quadrik an, denn dann ist 1 x1 D a1
:: ::
: :
X
r X
r
i .t xi0 /2 D t 2 i xi0 D 0 für alle t 2 R: r xr D ar
2

i D1 i D1 0 D arC1
:: ::
: :
Fall b) Das System (10.12) ist nicht lösbar, es gibt kei-
0 D an
nen Mittelpunkt: Nun ist r D rg.A/ < rg.A j a/  n.
In diesem Fall können nicht alle linearen Summanden
Nun ist die Zerlegung von a in die beiden Komponenten
ai xi in der Quadrikengleichung eliminiert werden. Es wird
offensichtlich. Wir setzen
sich zeigen, dass ein linearer Term 2 xn0 bestehen bleibt. Da-
zu verhilft eine geeignete Zerlegung von a in die Summe 0 1 0 1
a1 0
zweier zueinander orthogonaler Komponenten. B:C B : C
B :: C B :: C
B C B C
Ba C B 0 C
B rC B C
Lemma Ist das lineare Gleichungssystem A x D a in H a1 D B C und H a0 D B C:
B0C BarC1 C
(10.12) nicht lösbar, so lässt sich der Vektor a derart in eine B C B C
B :: C B :: C
Summe a0 Ca1 zerlegen, dass einerseits a0 ein Eigenvektor @:A @ : A
von A zum Eigenwert 0 ist und andererseits das System 0 an
A x D a1 lösbar wird.

Beweis Für die Lösbarkeit des Systems A x D a1 ist Im parabolischen Fall bleibt ein linearer
notwendig und hinreichend, dass a1 im Bild der linearen Term in der Quadrikengleichung bestehen
Abbildung 'A W x 7! A x liegt. Dieser Unterraum Im.'A /
wird wegen A hi D i hi für i D 1; : : : ; n bei rC1 D
   D n D 0 von den ersten r Eigenvektoren h1 ; : : : ; hr Wenn wir in der .oI B/-Darstellung von .x/ den Vektor a
aufgespannt. Der zur Hülle dieser Eigenvektoren orthogo- durch die Summe a0 C a1 nach (10.13) ersetzen, so entsteht
nale Raum ist die Hülle von hrC1 ; : : : ; hn , der Eigenraum >
EigA .0/ zum Eigenwert 0. .x/ D .oIB/ x A .oIB/ x C 2 a>
0 .oIB/ x
Die Zerlegung a D a0 C a1 wird durch die Bedingun- C 2 a>
1 .oIB/ x C a:
gen a0 2 EigA .0/ D h hrC1 ; : : : ; hn i und a1 2 Im.'A / D
h h1 ; : : : ; hr i eindeutig. Die beiden Komponenten a0 bzw. Darin kann der zweite lineare Summand zum Verschwin-
a1 entstehen durch orthogonale Projektion von a in den den gebracht werden, indem als Ursprung o0 ein Punkt ge-
Eigenraum EigA .0/ bzw. in dessen orthogonales Komple- wählt wird, dessen .oI B/-Koordinaten das System A x D
ment. a1 lösen.
384 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Wegen der freien Wahl der letzten nr orthonormierten wurde, auch allein durch kombinierte Zeilen- und Spal-
Basisvektoren hrC1 ; : : : ; hn innerhalb von EigA .0/ dürfen tenumformungen bestimmbar, also ohne orthogonales Dia-
wir den letzten in Richtung von a0 festsetzen. Dann ist in gonalisieren mittels Berechnung der Eigenwerte. Auch die
H a0 nur die letzte Koordinate von null verschieden, etwa Entscheidung, um welchen Typ es sich handelt, kann oh-
H a0 D an hn . Es bleibt in der Gleichung der Quadrik nur ne die Transformation auf Hauptachsen getroffen werden,
ein einziger linearer Term übrig, nämlich 2 an xn . Wegen nämlich allein anhand der Ränge der Matrizen A, .A j a/
r < n kommt sicherlich kein xn2 vor. und der erweiterten Darstellungsmatrix A .
Nun können wir noch die Konstante zu null machen, Die auf Normalform gebrachte Quadrik vom Typ 2
indem wir den Ursprung o0 durch ein geeignetes o00 D o0 C schneidet die Achse m C hi R für i  p in Punkten, für
 hn ersetzen. Dies bedeutet, wir substituieren xn D xn0  deren i-te .mI H /-Koordinate gilt:
, während alle anderen Koordinaten unverändert bleiben.
Auf der linken Seite der Quadrikengleichung folgt: xi2 =˛i2  1 D 0; also xi D ˙˛i ;
X
r
wobei i D 1=˛i2 ein positiver Eigenwert von A ist;
i xi2 C 2 an .xn0  / C a:
alle anderen Koordinaten sind null. Diese Schnittpunk-
i D1
te sind Scheitel der Quadrik. Das ˛i ist die zugehörigen
Die Wahl  D a=2an beseitigt die Konstante. Achsenlänge, also der Abstand des Mittelpunkts von den
Schließlich können wir noch erreichen (gegebenenfalls Scheiteln.
nach Multiplikation mit 1), dass unter den quadratischen Die Geraden mChi R mit i  p heißen auch Hauptach-
Summanden die Anzahl der positiven nicht kleiner ist als sen der Quadrik, jene mit p C 1  i  r Nebenachsen. Die
jene der negativen. Nach der Division durch jan j wird der auf Nebenachsen liegenden Schnittpunkte haben rein ima-
p
Koeffizient von xn zu 2 oder 2. Im erstgenannten Fall kön- ginäre Koordinaten xi D ˙i ˛i . Bei einem mehrfachen
nen wir den Basisvektor hn noch umorientieren, also xn Eigenwert i ist die Achse m C hi R nicht mehr eindeutig.
10 durch xn ersetzen. Warum die Quadriken von Typ 3, also jene ohne Mit-
Damit finden wir für jede Quadrik ein geeignetes Koor- telpunkt, auch parabolisch genannt werden, zeigen die
dinatensystem, in welchem die Gleichung eine der nachste- folgenden Übersichtboxen mit Auflistungen der Quadriken
hend angeführten Normalformen annimmt. Die Koordina- im R2 bzw. R3 .
tenachsen sind Achsen der Quadrik.
Beispiel Wir bringen die Ellipse aus . Abb. 10.6 mit der
kanonischen Gleichung
Klassifikation der reellen Quadriken
Es gibt drei Typen von Quadriken in A .Rn /. Die Normal- .x/ D 9x12  4x1 x2 C 6x22  32x1  4x2 C 24 D 0
formen ihrer Gleichungen lauten wie folgt:
Typ 1 (kegeliger Typ): 0  p  r  n, p  r  p, auf Normalform.
rg.A / D rg.A j a/ D rg.A/ D r: In der Bezeichnung von (10.9) ist
   
xp2 2 9 2 16
x12 xpC1 xr2 AD ; aD und a D 24:
C    C       D 0: 2 6 2
˛12 2
˛p2 ˛pC1 ˛r2
Als Nullstellen des charakteristischen Polynoms
Typ 2 (Mittelpunktsquadrik): 0  p  r  n,
rg.A / > rg.A j a/ D rg.A/ D r:  
9 2
det.A  E2 / D det
2 2 6
x12 xp2 xpC1 xr2
C    C        1 D 0: D 2  15 C 50
˛12 2
˛p2 ˛pC1 ˛r2

Typ 3 (parabolischer Typ): 0  p  r < n, p  r  p, erhalten wir die Eigenwerte


rg.A j a/ > rg.A/ D r :
1 D 10; 2 D 5
2
x12 xp2 xpC1 xr2
C  C      2 xn D 0: und als orthonormierte Basis von Eigenvektoren
˛12 ˛p2 2
˛pC1 ˛r2
   
1 2 1 1
h1 D p ; h2 D p :
5 1 5 2
Die in diesen Normalformen auftretenden wichtigen Kenn-
zahlen p und r ergeben sich aus der Signatur der Darstel- Das Gleichungssystem (10.12)
lungsmatrix M B . / D A der in enthaltenen quadrati-
schen Form. Diese sind, wie im 7 Abschn. 10.1 gezeigt A x D a
10.3  Quadriken und ihre Hauptachsentransformation
385 10
x2 Typ 1, kegelig: Die Bedingungen 0  p  r  2 und
p  r  p für .r; p/ ergeben drei wesentlich verschiedene
Nullstellenmengen:
h2 x12 x22
1a) .r; p/ D .2; 2/, .x/ D ˛12
C ˛22
,
Q. /
Q. / D f0g,
m x12 x22
1b) .r; p/ D .2; 1/, .x/ D ˛12
 ˛22
,
h1
Q. / umfasst zwei Geraden,
1c) .r; p/ D .1; 1/, .x/ D x12 ,
o x1 Q. / ist eine Gerade.

Die quadratische Funktion .x/ im Fall 1b ist reduzibel,


. Abb. 10.7 Die Quadrik 9x12  4xp1 x2 C 6x2  32x1  4x2 C 24 ist eine
2
denn
Ellipse mit den Achsenlängen 1 und 2   
x12 x22 x1 x2 x1 x2
 D C  :
˛12 ˛22 ˛1 ˛2 ˛1 ˛2
für die kanonischen Koordinaten des Mittelpunkts ist ein-
deutig lösbar und liefert Typ 2, Mittelpunktsquadriken: Hier bleiben fünf Fäl-
  le:
2 x2 x2
mD : 2a) .r; p/ D .2; 2/, .x/ D ˛12 C ˛22  1,
1 1 2
Q. / ist eine Ellipse,
x2 x2
Die Umrechnung auf das Koordinatensystem .mI H / ge- 2b) .r; p/ D .2; 1/, .x/ D ˛12  ˛22  1,
1 2
mäß Q. / ist eine Hyperbel,
   0 x2 x2
x1 x1 2c) .r; p/ D .2; 0/, .x/ D  ˛12  ˛22  1,
D E TH Cm 1 2
x2 x20 Q. / D ;,
x2
2d) .r; p/ D .1; 1/, .x/ D ˛12  1,
mit E T H D .h1 ; h2 /, also 1
Q. / besteht aus zwei parallelen Geraden,
    0   x2
x1 1 2 1 x1 2 2e) .r; p/ D .1; 0/, .x/ D  ˛12  1,
Dp 0 C
x2 5 1 2 x 2 1 Q. / D ;.
1

bringt die Quadrikengleichung mit (10.11) auf die verein- Eine Ellipse mit ˛ D ˛ ist natürlich ein Kreis mit dem
1 2
fachte Form Radius ˛1 . Gilt bei der Ellipse ˛1 > ˛2 , so heißt die ers-
te Koordinatenachse Hauptachse und ˛1 Hauptachsenlänge
1 x10 2 C 2 x20 2 C .m/ D 10 x10 2 C 5 x20 2  10 D 0
zum Unterschied von der Nebenachse und der Nebenach-
und nach Division durch 10 auf die Normalform senlänge ˛2 .
Dieselben Bezeichnungen werden auch bei der Hyper-
1 bel mit der obigen Normalform verwendet, wobei aber nur
x10 2 C x20 2  1 D 0
2 die Hauptachse reelle Scheitel trägt. Die durch die Hyper-
p belmitte gehenden Geraden mit der Gleichung x˛11 D ˙ ˛x22
mit ˛1 D 1 und ˛2 D 2. Die in . Abb. 10.7 markierten heißen Asymptoten. Sie bilden die Quadrik mit der Glei-
Scheitel haben die Koordinaten x2 x2
chung ˛12  ˛22 D 0 vom Typ 1b.
r r 1 2
2 2 2 1 Typ 3, parabolisch: Als einzige Normalformen bleiben
2˙ ; 1˙2 und 2 ˙ p ; 1  p : 9 x2
5 5 5 5 3a) .r; p/ D .1; 1/, .x/ D ˛12  2 x2 ,
1
Q. / ist eine Parabel mit dem Scheitel in 0,
Ein Beispiel mit einem parabolischen Typ folgt später in
3b) .r; p/ D .0; 0/, .x/ D x2 ,
der Beispielbox.
Q. / ist eine Gerade.

Die Quadriken in der Ebene und im Raum Die Konstante ˛12 in der Parabelgleichung heißt Parameter
(siehe . Abb. 10.8).
Die Kegelschnitte, also Ellipse, Parabel und Hyperbel,
Wir beginnen mit der Aufzählung aller Quadriken in haben trotz ihres verschiedenen Aussehens viele Gemein-
A .R2 /. Diese sind auch noch in einer Übersichtsbox zu- samkeiten. So treten sie alle als Lösungskurven des Einkör-
sammengefasst. perproblems auf (siehe Grundwissenbuch, Abschnitt 20.1).
386 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Beispiel: Normalform einer parabolischen Quadrik

Die durch die quadratische Funktion W A .R3 / ! R festge- und weiter 0 1


legte Quadrik Q. / mit der kanonischen Gleichung .x/ D 2
1B C
x12 C2x1 x2 Cx22 C4x1 C2x2 4x3 3 D 0 ist durch Wahl eines h2 D h3 h1 D @2A:
3
geeigneten kartesischen Koordinatensystems auf Normalform 1
zu bringen.
Den Ursprung o0 unseres Koordinatensystems verlegen wir
zunächst in eine spezielle Lösung von A x D a1 , nämlich
Problemanalyse und Strategie
0 1
Wir gehen wie oben beschrieben vor: .x/ ist die Summe 3=2
aus der quadratischen Form x > A x D x12 C 2x1 x2 C x22 , der B C
o0 D @ 0 A :
Linearform 2 a> x D 4x1 C 2x2  4x3 und der Konstanten 0
a D 3. Im ersten Schritt bestimmen wir die Hauptachsen der
quadratischen Form. Im zweiten Schritt erweist sich das linea- Wir verwenden die Formeln aus (10.11), um auf das karte-
re Gleichungssystem A x D a aus (10.12) zur Berechnung sische Koordinatensystem .pI H / mit E T H D .h1 ; h2 ; h3 /
eines Mittelpunkts als unlösbar. Daher wird a aufgespaltet in umzurechnen. Es entstehen
zwei zueinander orthogonale Komponenten a D a0 C a1 mit 0 1 0 1
2 0 0 0
a1 2 Im.'A / und a0 2 Ker.'A / D EigA .0/. Der letzte B C B C 27
A 0 D @0 0 0A ; a0 D @ 0 A ; a0 D  :
Vektor h3 unserer Basis entsteht durch Normierung von a0 . p 4
0 0 0 3= 2
Schließlich wird durch Verschiebung des Ursprungs noch die
Konstante zum Verschwinden gebracht. Die vereinfachte Gleichung lautet somit:
p
10 Lösung 2 x10 2 C 3 x30 2  27=4 D 0: ( )
Es sind Die letzten beiden Summanden fassen wir zu
0 1 0 1
1 1 0 2 p p
B1 27 9
AD@ 1 0CA;
B 1C
a D @ A; a D 3: 3 2 x30  p D 3 2 x30  p
12 2 4 2
0 0 0 2
p
Das charakteristische Polynom zusammen und ersetzen x30 durch x300 D x30  9=4 2. Dies
bedeutet, dass wir den Ursprung o0 ersetzen durch
det.A  E3 / D 2 .  2/
0 1
9=8
ergibt den einfachen Eigenwert 1 D 2 und den zweifachen 9 B C
Eigenwert 2 D 0. Der zu 1 gehörige normierte Eigenvektor o00 D o0 C p h3 D @3=8 A :
0 1 4 2 3=2
1
1 B C
h1 D p @1A Schließlich multiplizieren wir die Gleichung . / noch mit
2 0 p
2=3 2 und kehren die Richtung der dritten Koordinatenach-
spannt den Bildraum Im.'A / auf. Dazu orthogonal ist der Ei- se um, indem wir x30 D x300 setzen. Zur Vermeidung eines
genraum EigA .0/ D Ker.'A /. Linkskoordinatensystems kehren wir auch die x20 -Achse um.
a liegt offensichtlich nicht in Im.'A /. Also liegt eine pa- Mithilfe der orthonormierten Basis H 0 D .h1 ; h2 ; h3 / und
rabolische Quadrik vor, und wir müssen a aufspalten. Die des Ursprungs o00 erhalten wir die Normalform
Komponente a1 von a in Richtung des Bildraums ist über das 4
Skalarprodukt mit h1 zu berechnen: p x10 2  2 x30 D 0
3 2
0 1
1
3B C eines parabolischen Zylinders (siehe übernächste Übersichts-
a1 D .a  h1 /h1 D @1A :
2 box). Dabei genügt die dahinter stehende Koordinatentrans-
0
formation der Gleichung
Somit bleibt 0 1 0 p 10 01 0 1
0 1 x1 3 2 2 1 x1 3
1 Bx C 1 B p C Bx 0 C 3 B1C
1B C @ 2A D p @3 2 2 1 A @ 2A  @ A
a0 D a  a1 D @1A : 3 2 p 8
2 x3 0  2 4 x30 4
4
Normierung von a0 ergibt den dritten Basisvektor oder umgekehrt
0 1 0 01 0 10 1 0 1
1 x1 3 3 0 x1 6
1 B C p p p p
h3 D p @1A Bx 0 C 1 B CB C 1 B C
3 2 4 @ 2 A D p @2 2 2 2  2A@x2 A C p @4 2A :
0 3 2 4 2
x3 1 1 4 x3 7
10.3  Quadriken und ihre Hauptachsentransformation
387 10

Übersicht: Quadriken im A .R2 /

Wir stellen in der folgenden Tabelle die verschiedenen Typen der Quadriken der Ebene A .R2 / zusammen.

Typ 1, Kegelige Quadriken Typ 2, Mittelpunktsquadriken x12 x2


 2
 22 D 1
˛1 ˛2
x12 x2 x12 x2
2
 22 D 0 2
 22 D 1 Leere Menge
˛1 ˛2 ˛1 ˛2
Zwei sich schneiden- Hyperbel
de Geraden x12
 D1
˛12
x12 x2 x2 x12
2
C 22 D 0 D1 Leere Menge
˛1 ˛2 ˛12
Ein Punkt x1 Zwei parallele Gera-
den
Typ 3, Parabolische Quadriken
x12 x12 x22 x12
D0 C D1  2x2 D 0
˛12 ˛12 ˛22 ˛12
Eine Gerade Ellipse Parabel

x2 x2 x2

˛2
˛2
z
f1 ˛1 x1 f1 ˛1 x1
f2 f2
f

x ˛12 =2 x1
˛12 =2
y L ˛12
q
. Abb. 10.8 Die Punkte x der Ellipse (links) mit den Achsenlängen
q f i D .˙e; 0/> , e D ˛12 C ˛22 , sind durch j ky  f 1 k  ky  f 2 k j D
˛1 > ˛2 und den Brennpunkten f i D .˙e; 0/> bei e D ˛12  ˛22 2 ˛1 gekennzeichnet. Die Punkte z der Parabel (rechts) haben vom Brenn-
erfüllen die Bedingung kx  f 1 k C kx  f 2 k D 2 ˛1 . Die Punkte y punkt f D .0; ˛12 =2/> und von der Leitgeraden L mit der Gleichung
der Hyperbel (Mitte) mit den Achsenlängen ˛1 ; ˛2 und den Brennpunkten x2 D ˛12 =2 jeweils dieselbe Entfernung

Die . Abb. 10.11 illustriert, wie die Bahnen von der Wahl
der Anfangsgeschwindigkeit x.t P 0 / im gemeinsamen An-
fangspunkt x.t0 / abhängen.

Im dreidimensionalen Raum A .R3 / sind deutlich mehr


Fälle zu unterscheiden (siehe nächste Übersichtsbox).
Typ 1, kegelig: Für .r; p/ sind nunmehr die Bedingun-
gen 0  p  r  3 und p  r  p einzuhalten. Dies führt
auf folgende fünf verschiedene Typen:
x12 x22 x32
1a0 ) .r; p/ D .3; 3/, .x/ D ˛12
C ˛22
C ˛32
,
Q. / D f0g,
0 x2 x2 x32
1b ) .r; p/ D .3; 2/, .x/ D ˛12 C ˛22  ˛32
,
1 2
Q. / ist ein quadratischer Kegel,
. Abb. 10.9 Näherungsweiser Hyperbelbogen bei der von Santiago Ca- x12 x22
latrava entworfenen Alamillo-Brücke in Sevilla, einer Schrägseilbrücke 1c0 ) .r; p/ D .2; 2/, .x/ D ˛12
C ˛22
,
mit einer Spannweite von 200 m Q. / ist eine Gerade,
388 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

x2 x2 x2
2c0 ) .r; p/ D .3; 1/, .x/ D ˛12  ˛22  ˛32  1,
1 2 3
Q. / ist ein zweischaliges Hyperboloid,
x2 x22 x32
2d0 ) .r; p/ D .3; 0/, .x/ D  ˛12  ˛22
 ˛32
 1,
1
Q. / D ;,
x2 x2
2e0 ) .r; p/ D .2; 2/, .x/ D ˛12 C ˛22  1,
1 2
Q. / ist ein elliptischer Zylinder,
x2 x2
2f0 ) .r; p/ D .2; 1/, .x/ D ˛12  ˛22  1,
1 2
Q. / ist ein hyperbolischer Zylinder,
x2 x2
2g0 ) .r; p/ D .2; 0/, .x/ D  ˛12  ˛22  1,
1 2
Q. / D ;,
2h0 ) .r; p/ D .1; 1/, .x/ D x12  1,
Q. / besteht aus zwei parallelen Ebenen,
2i0 ) .r; p/ D .1; 0/, .x/ D x12  1,
Q. / D ;.

Ein Ellipsoid mit paarweise verschiedenen Achsenlängen


heißt dreiachsig (. Abb. 10.14 links). Bei zwei gleichen
. Abb. 10.10 Beispiele von Wurfparabeln Achsenlängen spricht man von einem Drehellipsoid, dem
eiförmigen oder verlängerten mit ˛1 > ˛2 D ˛3 und dem
x.t0 / linsenförmigen, abgeplatteten oder verkürzten mit ˛1 D
10 P 0/
x.t
˛2 > ˛3 (. Abb. 10.16). Der Sonderfall ˛1 D ˛2 D ˛3
ergibt eine Kugel.
xR Beide Hyperboloide (. Abb. 10.14 Mitte und rechts)
besitzen einen Asymptotenkegel mit der jeweiligen Glei-
P 0/ x2 x2 x2
x.t chung ˛12 ˙ ˛22  ˛32 D 0. Bei ˛1 D ˛2 im einschaligen
1 2 3
Fall und ˛2 D ˛3 im zweischaligen entstehen Drehflächen.
Es gibt einen markanten Unterschiede zwischen bei-
den Hyperboloiden: das einschalige Hyperboloid trägt zwei
P 0/
x.t 0 Scharen von Geraden, sogenannten Erzeugenden. Dies
zeigt sich wie folgt: Jeder Wert t 2 Rnf0g liefert als Schnitt
der Ebenen mit den Gleichungen
 
x1 x3 x2
E1 .t/W t  D1 und
˛1 ˛3 ˛2
 
1 x1 x3 x2
. Abb. 10.11 Die Lösungskurven des Einkörperproblems (siehe Grund- E2 .t/W C D1˙
t ˛1 ˛3 ˛2
wissenbuch, Abschnitt 20.1) sind Kegelschnitte. Dargestellt sind mögliche
Bahnen des Massenpunkts x.t0 / bei verschiedenen Anfangsgeschwindig-
eine Gerade, welche ganz auf dem Hyperboloid liegt. Wenn
P 0 /, und zwar eine Ellipse (blau), eine Hyperbel (grün) und eine
keiten x.t
Parabel (rot) wir nämlich die linken Seiten und ebenso die rechten Seiten
dieser Gleichungen miteinander multiplizieren, so erhalten
wir genau die obige Normalform 2b’. Demnach gehört je-
x2 x2 der gemeinsame Punkt der Ebenen E1 .t/ und E2 .t/ auch
1d0 ) .r; p/ D .2; 1/, .x/ D ˛12  ˛22 ,
1 2 der Nullstellenmenge von 2b’ an. Je nachdem, ob wir die
Q. / besteht aus zwei Ebenen,
oberen oder die unteren Vorzeichen wählen, entsteht eine
1e0 ) .r; p/ D .1; 1/, .x/ D x12 ,
Gerade der ersten oder zweiten Erzeugendenschar.
Q. / ist eine Ebene.
Neben den bisher angegebenen Geraden liegen auf dem
Hyperboloid auch noch die insgesamt vier Geraden
Typ 2, Mittelpunktsquadriken: Hier gibt es neun Fäl-
le: x1 x3 x2
x2 x2 x2 ˙ D1˙ D 0;
2a0 ) .r; p/ D .3; 3/, .x/ D ˛12 C ˛22 C ˛32  1, ˛1 ˛3 ˛2
1 2 3
Q. / ist ein Ellipsoid,
x2 x2 x2 wobei die Vorzeichen hier beliebig kombiniert werden dür-
2b0 ) .r; p/ D .3; 2/, .x/ D ˛12 C ˛22  ˛32  1, fen. Diese Geraden sind die Grenzfälle der Schnittgeraden
1 2 3
Q. / ist ein einschaliges Hyperboloid, von E1 .t/ und E2 .t/ für t ! 0 oder t ! 1.
10.3  Quadriken und ihre Hauptachsentransformation
389 10

. Abb. 10.12 Der quadratische Kegel (links) mit Hyperbelschnitten, der elliptische Zylinder (Mitte) und der hyperbolische Zylinder (rechts) mit
seinen asymptotischen Ebenen (rot schattiert)

Die beiden Zylinder tragen ebenfalls Geraden. Diese


sind alle parallel zur x3 -Achse (. Abb. 10.12).
Typ 3, parabolisch: Als Normalformen mit wesentlich
verschiedenen Nullstellenmengen bleiben
x2 x2
3a0 ) .r; p/ D .2; 2/, .x/ D ˛12 C ˛22  2x3 ,
1 2
Q. / ist ein elliptisches Paraboloid,
x2 x2
3b0 ) .r; p/ D .2; 1/, .x/ D ˛12  ˛22  2x3 ,
1 2
Q. / ist ein hyperbolisches Paraboloid,
x2
3c0 ) .r; p/ D .1; 1/, .x/ D ˛12  2x3 ,
1
Q. / ist ein parabolischer Zylinder.

Die beiden Paraboloide 3a’ und 3b’ sind einheitlich als


Schiebflächen erzeugbar, indem die Schnittparabel P1 mit
der Ebene x2 D 0 entlang der Schnittparabel P2 mit der
Ebene x1 D 0 parallel verschoben wird (. Abb. 10.18).
Dabei sind im elliptischen Fall diese Schiebparabeln nach
. Abb. 10.13 Die Karlskirche in Wien besitzt eine ellipsoidförmige derselben Seite offen, hingegen im hyperbolischen Fall
Kuppel. Deren Umrissellipse auf dem Foto hat das Achsenverhältnis nach verschiedenen Seiten, wodurch eine Sattelfläche ent-
breit=hoch  1.03 steht.

. Abb. 10.14 Das dreiachsige Ellipsoid sowie das ein- und zweischalige Hyperboloid mit achsenparallelen Schnittkurven
390 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Übersicht: Quadriken in A .R3 /

Die folgenden Tabelle zeigt Ansichten aller Typen von Quadriken im Raum A .R3 /.

Typ 1, Kegelige Quadriken Typ 2, Mittelpunktsquadriken x12 x2


2
C 22 D 1
˛1 ˛2
x12 x2 x2 x12 x2 x2
2
C 22  32 D 0 2
C 22  32 D 1 Elliptischer
˛1 ˛2 ˛3 ˛1 ˛2 ˛3
Zylinder
Quadratischer Kegel Einschaliges
Hyperboloid
x12 x22
  D1
˛12 ˛22
x12 x22 x12 x22 x32
 D0    D1 Leere Menge
˛12 ˛22 ˛12 ˛22 ˛32
Zwei sich schnei- Leere Menge
dende Ebenen
x12
 D1
˛12
x12 x22
 D1 Leere Menge
x12 x2 x2 ˛12 ˛22
2
C 22 C 32 D 0
˛1 ˛2 ˛3
Hyperbolischer
Ein Punkt Zylinder
Typ 3, Parabolische Quadriken
x12 x22
10 x12 x2
C 22 D 0
x12
D1

˛12 ˛22
 2x3 D 0
2
˛1 ˛2 ˛12
Hyperbolisches
Eine Gerade Zwei parallele Paraboloid
Ebenen
x12 x2
2
C 22  2x3 D 0
˛1 ˛2
x12 D 0 x12 x2 x2
2
C 22 C 32 D 1 Elliptisches
Eine Ebene ˛1 ˛2 ˛3
Paraboloid
Ellipsoid
x12
 2x3 D 0
˛12
x12 x22 x32
  D1 Parabolischer
˛12 ˛22 ˛32 Zylinder
Zweischaliges
Hyperboloid

. Abb. 10.15 Die Bezeichnung x3 x3


der beiden Paraboloide ergibt sich
aus der Art der Schnittkurven mit
den Ebenen x3 D konst.

x2
x1

x1 x2
10.3  Quadriken und ihre Hauptachsentransformation
391 10
x3 x3

P1
P2 P1

P2
x1
x2 x2
x1

. Abb. 10.18 Beide Paraboloide sind Schiebflächen, nämlich erzeugbar


durch Verschiebung einer Parabel (rot schattiert) entlang einer zweiten,
. Abb. 10.16 Die beiden Drehellipsoide, das linsenförmige oder ab- die im elliptischen Fall (links) nach oben offen ist, im hyperbolischen Fall
geplattete (links) und das eiförmige oder verlängerte (rechts), beide mit (rechts) nach unten
einem offenen 90ı -Sektor

. Abb. 10.17 Die beiden Erzeugendenscharen eines einschaligen Hy- . Abb. 10.19 Das hyperbolische Paraboloid trägt so wie das einschalige
perboloids Hyperboloid zwei Erzeugendenscharen

Diese Schiebflächeneigenschaft folgt aus der Feststel- Hyperboloid können wir wieder Ebenenpaare
lung, dass für jedes k 2 R die Schnittkurve der Paraboloide
mit der Ebene x2 D k D konst. die Gleichung  
x1 x2
E1 .t/W ˙ D t;
  ˛1 ˛2
x12 k2 x2 k2  
˙ 2  2x3 D 0; also 12  2 x3  2 D 0 x1 x2 2x3
2 E2 .t/W  D
˛1 ˛2 ˛1 2˛2 ˛1 ˛2 t

erfüllt und daher durch die Parallelverschiebung angeben, deren Schnittgerade für jedes t 2 R n f0g zur
Gänze dem Paraboloid angehört, weil alle ihre Punkte die
0 1 0 1 0 1 Paraboloidgleichung erfüllen. Es ergeben sich erneut zwei
x1 0 x1 Scharen von Geraden je nachdem, ob die oberen oder unte-
@x2 A 7! @ k A C @x 2 A ren Vorzeichen gewählt werden. Als Grenzfälle für t ! 0
x3 ˙k 2 =2˛22 x3 erhält man die beiden Scheitelerzeugenden

aus der zu k D 0 gehörigen Parabel P1 hervorgeht. x1 x2


˙ D x3 D 0 :
Als Schnittkurven mit den Ebenen x3 D k ¤ 0 treten ˛1 ˛2
im elliptischen Fall Ellipsen auf, im hyperbolischen Fall
Hyperbeln. Dies ist eine Begründung für die Namensge- Bei ˛1 D ˛2 wird das elliptische Paraboloid zum Drehpa-
bung der beiden Paraboloide. raboloid, und das hyperbolische Paraboloid heißt in diesem
Das hyperbolische Paraboloid ist wieder eine Fläche mit Fall orthogonal. Dann sind die Scheitelerzeugenden ortho-
zwei Erzeugendenscharen. Ähnlich wie beim einschaligen gonal zu allen Erzeugenden der jeweils anderen Schar.
392 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

10.4 Die Singulärwertzerlegung '.e 2 / '.h1 /


e2 h1 s1 h01
'.h2 /
Wir wenden uns noch einmal den linearen Abbildungen h2 e1 ' s2 h02
7! '.e 1 /
zwischen endlichdimensionalen Vektorräumen zu. Wel-
k
che zusätzlichen Eigenschaften einer derartigen Abbildung
k0
'W V ! V 0 kann man feststellen, wenn die beteiligten Vek-
torräume euklidisch sind?
Das Hauptziel des folgenden Abschnitts ist die Be- . Abb. 10.20 Die orthonormierte Basis .h1 ; h2 / bleibt orthogonal unter
stimmung orthonormierter Basen H bzw. H 0 , bezüglich der bijektiven linearen Abbildung 'W R2 ! R2
welcher die Darstellungsmatrix H 0 M .'/H möglichst ein-
fach wird, nämlich die Normalform
0 1 Vektoren aus dem Kern Ker.'/ D ' 1 .0/ ist das Verzer-
s1 : : : 0 0 : : : 0 rungsverhältnis natürlich gleich 0.
B: : :: C
B :: : : ::: ::: :C
Es erweist sich allerdings als günstiger, den umgekehr-
B C ten Weg einzuschlagen und jene Vektoren x zu betrachten,
B0 ::: s C
B r C deren Bildvektoren '.x/ Einheitsvektoren sind. Diese lie-
D B :: C
C2R
m n
H 0 M .'/H B ::
B0 ::: 0 : :C gen natürlich alle außerhalb des Kerns von '.
B C Wir beginnen mit einem Beispiel: Es sei
B :: :: C
@: : A
0 ::: 0 0 ::: 0   
R2 ! R2 ; 1 1
(10.14) 'W mit A D
x 7! A x 0 1
10 annimmt, bei n D dim V , m D dim V 0 , r D rg.'/ und
und damit bijektiv (. Abb. 10.20). Welche Vektoren x 2 V
si > 0 für i D 1; : : : ; r. Wir werden diese Normalform
werden durch ' auf Einheitsvektoren abgebildet?
kurz mit diag.s1 ; : : : ; sr / bezeichnen, auch wenn die Matrix
Die Forderung k'.x/k D 1 ergibt bei Verwendung des
nicht quadratisch sein sollte.
kanonischen Skalarprodukts in Matrizenschreibweise:
Dabei ist Folgendes zu beachten: Die im 7 Kap. 6
behandelte Diagonalisierbarkeit einer linearen Abbildung kAxk2 D .Ax/> .Ax/ D x > .A > A/ x D 1:
'W V ! V 0 betraf nur Endomorphismen, also den Fall
V 0 D V . Damit waren die Darstellungsmatrizen stets qua- Das ist die kanonische Gleichung einer Quadrik k des
dratisch, und es konnte nur eine einzige Basis modifiziert A .R2 /, deren quadratische Form die Darstellungsmatrix
werden, nämlich jene in V . Dabei stellte sich heraus, dass  
nicht jeder Endomorphismus diagonalisierbar ist. 1 1
A> A D
Nun ist es anders. Wir können sowohl in V , als auch in 1 2
V 0 die Basen der vorliegenden Abbildung ' anpassen. Da-
her gibt es stets diagonalisierte Darstellungsmatrizen. Wir hat (siehe . Abb. 10.20). Nachdem in dieser Quadriken-
werden erkennen, dass die Diagonalisierung immer auch gleichung die linearen Summanden fehlen, liegt der Mittel-
mit orthonormierten Basen erreichbar ist. punkt im Ursprung 0. Wir transformieren diese Quadrik k
auf ihre Hauptachsen.
Die Eigenwerte von A > A sind die Nullstellen des cha-
Die Hauptverzerrungsrichtungen von ' rakteristischen Polynoms
bei einem instruktiven Beispiel
det.A > A  E2 / D 2  3 C 1;

Zunächst befassen wir uns mit der Frage, wie sich eine also
p p
lineare Abbildung ' auf die Länge der Vektoren aus- 3C 5 3 5
wirkt. Dazu berechnen wir das Längenverzerrungsverhält- 1 D ; 2 D :
2 2
nis k'.x/k=kxk des Vektors x ¤ 0. Dieser Quotient aus
der Länge des Bilds durch die Länge des Urbilds ist dersel- Beide sind positiv. Also ist die Quadrik k eine Ellipse mit
be für alle Vielfachen von x,  ¤ 0, denn den Achsenlängen
s p
k'.x/k jj k'.x/k k'.x/k 2 51
D D : ˛ D p D  0:618 ;
kxk jj kxk kxk 1
3C 5 2
s p
Das Verzerrungsverhältnis ist also nur von der Geraden hxi
2 5C1
abhängig. Man erhält bereits alle möglichen Verzerrungs- ˛2 D p D  1:618 :
verhältnisse, wenn man nur Einheitsvektoren abbildet. Für 3 5 2
10.4  Die Singulärwertzerlegung
393 10
Diese Achsenlängen sind die Extremwerte unter den Län- Die Quadrate der Singulärwerte sind
gen der Vektoren x 2 k, d. h., die Eigenwerte einer symmetrischen Matrix
˛1  kxk  ˛2 :
Nun wenden wir uns dem allgemeinen Fall einer linearen
Nachdem die Bildvektoren '.x/ alle die Länge 1 haben, Abbildung
gilt für die Verzerrungsverhältnisse 
V D Rn ! V 0 D Rm ;
1 p k'.x/k p 1 'W
D 1   2 D : x 7! A x
˛1 kxk ˛2
zu. Das kanonische Skalarprodukt zwischen Bildvektoren
Die Eigenwerte von A > A geben also die Quadrate der in V 0 bestimmt in V eine symmetrische Bilinearform ge-
extremenp Längenverzerrungsverhältnisse an. Wir nennen mäß der Gleichung
si D i für i D 1; 2 die Hauptverzerrungsverhältnis-
se oder die Singulärwerte von '. Die Achsen von k sind '.x/  '.y/ D .A x/> .A y/ D x > .A > A/ y; (10.15)
diejenigen Geraden, längs derer diese extremen Längenver-
>
zerrungen auftreten. Sie bestimmen die Hauptverzerrungs- denn das Matrizenprodukt .A A/ ist symmetrisch.
>
richtungen von '. Vektoren längs der Nebenachse von k Ist rg.A A/ D r, so gibt es r von null verschiedene
werden am stärksten verlängert, jene längs der Hauptachse Eigenwerte 1 ; : : : ; r von .A > A/ und eine orthonormierte
von k am meisten verkürzt. Basis H D .h1 ; : : : ; hn / aus Eigenvektoren von V , wobei
Für die orthonormierte Basis H aus Eigenvektoren von h rC1 ; : : : ; hn den Kern von ' aufspannen. Aus
>
A A wählen wir
! .A > A/ hj D j hj
p !
p ; h2 D 1 1  5
1 2
h1 D folgt für alle i; j 2 f1; : : : ; rg nach (10.15):
w 1  5 w 2
p '.hi /  '.hj / D h> > >
i .A A/ hj D hi .j hj /
bei w D 10 C 2 5. Die zugehörigen Bilder
2
D j .hi  hj /;
p ! p !
1 3C 5 1 1 5 also
'.h1 / D p ; '.h2 / D
w 1C 5 w 2 
0 für i ¤ j;
p p '.hi /  '.hj / D
j für i D j:
haben die Längen s1 D 1 bzw. s2 D 2 , und sie
sind zueinander orthogonal, wie deren verschwindendes Die ersten r Bildvektoren sind ¤ 0 und paarweise ortho-
Skalarprodukt beweist (. Abb. 10.20). Durch Normieren gonal. Wegen  D k'.h /k2 sind die ersten r Eigenwerte
i i
entstehen daraus die Vektoren von .A > A/ positiv. Wir nennen die (positiven) Wurzeln aus
1 1 diesen Eigenwerten, also
h01 D '.h1 /; h02 D '.h2 / p
s1 s2
s1 D 1 D k'.h1 /k;
der orthonormierten Basis H 0 im Bildraum. ' erhält die ::
Darstellungsmatrix :
p
  sr D r D k'.hr /k;
s1 0
H 0 M .'/H D . H 0 '.h /;
1 H 0 '.h 2 / / D
0 s2 die Singulärwerte von '. Dabei setzen wir die Vielfachheit
von si jener von i gleich.
in der Normalform (10.14) mit den beiden Hauptverzer-
Die durch Normierung der Bildvektoren entstehenden
rungsverhältnissen in der Hauptdiagonale.
Vektoren
Nachdem die lineare Abbildung ' in diesem Beispiel
sogar bijektiv ist, können wir umgekehrt auf analoge Weise 1 1
h01 D '.h1 /; : : : ; h0r D '.hr /
feststellen, dass die Bilder der Einheitsvektoren die Quadri- s1 sr
kengleichung
sind orthonormiert und lassen sich zu einer orthonormier-
0>
x .A > 1 1 0 0>
A / x D x .AA / x D 1> 1 0 ten Basis von V 0 ergänzen. Dabei ist hh01 ; : : : ; h0r i das Bild
Im.'/ V 0 und hh0rC1 ; : : : ; h0m i orthogonal dazu.
erfüllen. Dies führt auf die im rechten Bild von Wir haben also '.hi / D si h0i für i 2 f1; : : : ; rg und
. Abb. 10.20 gestrichelt eingezeichnete Ellipse mit Ach- '.hj / D 0 für j > r. Die H 0 -Koordinaten der Bilder
senlängen s1 und s2 , auf welcher die Spitzen von '.e 1 /, '.hi / sind die Spaltenvektoren in der Darstellungsmatrix
'.e 2 /, '.h1 / und '.h2 / liegen. H 0 M .'/H ; somit erhält diese die Normalform (10.14).
394 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

unitär-äquivalent ist zu einer Matrix D gleicher Größe,


Die Singulärwerte einer linearen Abbildung aber in Diagonalgestalt diag.s1 ; : : : ; sr / mit reellen, und
Für jede lineare Abbildung 'W V ! V 0 vom Rang r zwar positiven si .
zwischen den euklidischen Räumen V und V 0 gibt es 2. Die Singulärwerte einer Matrix sind abgesehen von ih-
orthonormierte Basen H von V und H 0 von V 0 derart, rer Reihenfolge eindeutig. Hingegen sind die Matrizen
dass die Darstellungsmatrix H 0 M .'/H 2 Rm n die Nor- U und V nur dann eindeutig, wenn alle Singulärwerte
malform diag.s1 ; : : : ; sr / aus (10.14) annimmt mit den einfach sind. Bei einem mehrfachen Eigenwert i D si2
Singulärwerten s1 ; : : : ; sr von ' als von null verschiede- sind die orthonormierten Eigenvektoren innerhalb des
ne Einträge entlang der Hauptdiagonalen. Eigenraums Eig.A> A/ .i / frei wählbar.

?Selbstfrage 10.11
1. Wie lauten die Singulärwerte einer orthogonalen Ma-
Angenommen, B und B 0 sind beliebige orthonormierte trix A 2 Rn n ? Geben Sie Singulärwertzerlegungen
Basen in V bzw. V 0 und A ist die zugehörige Darstellungs- von A an.
matrix von '. Dann ist 2. Angenommen, 'W R3 ! R3 ist die orthogonale Pro-
jektion auf eine Ebene des R3 . Wie sieht die zugehö-
A D B 0 M .'/B D B 0 T H 0 H 0 M .'/H H T B ; rige Diagonalmatrix D mit den Singulärwerten aus?

und die Transformationsmatrizen H T B 2 Rn n und


B0 T H 0 2 R
m m
sind orthogonal. Jede lineare Abbildung ist aus orthogonalen
Jede Matrix A legt als (kanonische) Darstellungsma- Endomorphismen und einer Skalierung
trix eine lineare Abbildung 'W x 7! A x fest. Wir ändern
die Bezeichnung und schreiben D für die Normalform
zusammensetzbar
10 H 0 M .'/H aus (10.14) in Diagonalgestalt und ferner V statt
>
H T B sowie U statt H 0 T B 0 , also U statt B 0 T H 0 . Dann ist Nun befassen wir uns noch mit der geometrischen Be-
> >
U U D Em und V V D En . deutung der Singulärwertzerlegung: Die lineare Abbildung
'A W Rn ! Rm mit x 7! A x bei A D U > D V ist die
Zusammensetzung dreier linearer Abbildungen, nämlich
Die Singulärwertzerlegung einer Matrix
Für jede Matrix A 2 Rm n gibt es orthogonale Matrizen
'A D 'U > ı 'D ı 'V :
U 2 Rm m und V 2 Rn n mit 1. 'V W Rn ! Rn , x 7! V x ist ein orthogonaler Endo-
morphismus, also eine Abbildung, welche Längen und
A D U > D V bei D D diag.s1 ; : : : ; sr / 2 Rm n
Winkel nicht ändert. Im 7 Abschn. 9.5 wurden derarti-
ge Abbildungen als Isometrien bezeichnet. Drehungen
und s1 ; : : : ; sr > 0. Diese Darstellung heißt Singulär- und Spiegelungen sind Beispiele dazu.
wertzerlegung von A. 2. Die Abbildung 'D W Rn ! Rm mit der Darstellungs-
Die Quadrate der in der Hauptdiagonale von D auf- matrix D D diag.s1 ; : : : ; sr / lautet, in Koordinaten
tauchenden Singulärwerte s1 ; : : : ; sr von A sind die von ausgeschrieben:
null verschiedenen Eigenwerte der symmetrischen Matrix
A > A. Die Vielfachheit des Eigenwerts i gibt an, wie oft x10 D s1 x1
der Singulärwert si auftritt.
0 1 0 01 ::
x1 x1 :
B :: C B :: C xr0 D sr xr
@ : A 7! @ : A mit x 0 D 0 (10.16)
0 rC1
Dass die Matrix A keinesfalls quadratisch zu sein braucht, xn xm ::
soll das folgende Schema der Singulärwertzerlegung illus- :
0
trieren: n xm D 0:
n m n
m D m   n Diese Abbildung heißt Skalierung oder axiale Stre-
ckung, denn es werden die Koordinaten lediglich pro-
portional verändert. Einzelne Proportionalitätsfaktoren
A D U> D V dürfen auch null sein.
3. Die Abbildung 'U > W Rm ! Rm , x 7! U > x ist wieder
Wir fügen noch zwei Bemerkungen an: eine Isometrie, diesmal im Rm .
1. Der Satz von der Singulärwertzerlegung gilt sinngemäß
auch in unitären Räumen. Wir können somit sagen, dass Die . Abb. 10.21 zeigt einen Fall m D n D 2. Die lineare
jede Matrix A aus Rm n oder C m n orthogonal- bzw. Abbildung 'A ist zusammengesetzt aus einer Drehung 'V ,
10.5  Die Pseudoinverse einer linearen Abbildung
395 10
. Abb. 10.21 Die geometrische
Deutung der Singulärwertzer- V V0
b2 x
legung von A: Die lineare
Abbildung 'W R2 ! R2 , '.b2 /
x 7! A x ist zusammensetz- b1
0 AD U >DV '.x/
bar aus zwei Drehungen und einer 0
Skalierung ' W x 7! A x
'.b1 /

Drehung # 'V Drehung " 'U >

'D

Skalierung

einer axialen Streckung, die den eingezeichneten Kreis in setzbar ist:


eine Ellipse verwandelt, und einer abschließenden Drehung n  ? ˇ
0

'U > . V D R ! Ker.'/ ! Im.'/ ! V 0 D Rm


0 1 0 1
In der folgenden Vertiefungsbox wird die Singulär- x1 s1 x1
wertzerlegung bei dem sogenannten Registrierungsproblem B : C B : C
B :: C 0 1 0 1 B :: C
eingesetzt und auch beim Entwurf von interpolierenden B C x s x B C
B x C  1 1 1
B C
Raumbewegungen. B r C B : C ˇ B : C 0 Bsr xr C
B C! 7 @ :: A 7! @ :: A 7! B C:
BxrC1 C B 0 C
B : C xr sr xr B : C
B : C B : C
@ : A @ : A
10.5 Die Pseudoinverse einer linearen
xn 0
Abbildung
In diesem Produkt von linearen Abbildungen ist  die
Orthogonalprojektion von V auf den r-dimensionalen Un-
Wir gehen aus von einer beliebigen linearen Abbildung terraum Ker.'/? (. Abb. 10.22). Hingegen ist ˇ eine
'W V ! V 0 zwischen endlichdimensionalen euklidischen Bijektion, und zwar eine Skalierung. Und schließlich ist
Räumen. Bei dim V D n und dim V 0 D m können wir 0
eine Einbettungsabbildung: Vektoren aus dem r-dimen-
die speziellen orthonormierten Basen H und H 0 mit der sionalen Bild Im.'/ werden als Vektoren des m-dimensio-
Darstellungsmatrix H 0 M .'/H D diag.s1 ; : : : ; sr / 2 Rm n nalen Zielraums V 0 aufgefasst; die r Koordinaten werden
in der Normalform (10.14) benutzen bzw. die ausführlichen durch Nullen zu m Koordinaten aufgefüllt.
Abbildungsgleichungen aus (10.16). Wir erkennen als Kern
bzw. Bild von ':
Im.'/? V0
V Ker.'/ y0
Ker.'/ D hhrC1 ; : : : ; hn i V;
x
Im.'/ D hh01 ; : : : ; h0r i V 0 : 0

'.x/
Die jeweiligen Orthogonalräume sind 00
0
Ker.' / ? ' C .y 0 /
/
.'

?
Ker.'/ D hh1 ; : : : ; hr i V;
Im

ˇ
?
Im.'/ D hh0rC1 ; : : : ; h0m i V 0:
. Abb. 10.22 Die lineare Abbildung ' ist aus einer Orthogonalprojek-
tion , der Bijektion ˇ und der Einbettung 0 in V 0 zusammensetzbar, die
Die Verwendung von H -Koordinaten in V und H 0 -Koor- Pseudoinverse ' C aus der Orthogonalprojektion  0 im Zielraum, der In-
dinaten in V 0 macht deutlich, dass ' wie folgt zusammen- versen ˇ 1 und der Einbettung in V
396 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Hintergrund und Ausblick: Bestimmung einer optimalen orthogonalen Matrix

Angenommen, im R3 liegen Messdaten über zwei Positionen Wegen D D .s1 e 1 ; s2 e 2 ; s3 e 3 / mit .e 1 ; e 2 ; e 3 / als kano-
O0 und O00 eines starren Objekts O vor, etwa die Koordinaten- nischer Basis folgt:
vektoren p 0i und p 00i , i D 1; : : : ; n, der jeweils zwei Positionen
desselben Objektpunkts p i . Gesucht ist diejenige Bewegung, X
3

welche die eine Position in die andere überführt. Diese Bewe- kD  U BV > k2 D .si e i  r i /2
iD1
gung wird – abgesehen von der Verschiebung des Ursprungs
X
3
 2 2 
– (vergleiche 7 Abschn. 5.5) durch eine orthogonale dreirei- D si e i  2 si .e i  r i / C r 2i
hige Matrix B beschrieben, also durch neun Einträge, welche iD1
sechs quadratische Bedingungen erfüllen müssen. X
3
 2 
Um nun diejenige orthogonale Matrix zu berechnen, wel- D si  2 si ri i C 1
che am besten auf die vorliegenden, mit gewissen Ungenau- iD1

igkeiten behafteten Daten passt, kann man in zwei Schritten X


3 X
3

vorgehen: Zuerst wird diejenige lineare Abbildung x 7! A x D si2  2 si ri i C 3:


bestimmt, welche den Daten p 0i 7! p 00i am nächsten kommt. iD1 iD1

Dies führt auf ein überbestimmtes System von linearen Glei- Dieser Wert ist minimal, wenn die zu subtrahierende Linear-
chungen p 0i  A p i D 0 für die neun nun unabhängigen Ele- kombination
mente von A. Wie man dieses löst, zeigt der 7 Abschn. 10.5.
Im zweiten Schritt wird die orthogonale Matrix B berechnet, s1 r11 C s2 r22 C s3 r33
die im Sinne der Frobeniusnorm am nächsten bei A liegt. Wir
behandeln hier nur den zweiten Schritt. mit fest vorgegebenen positiven Koeffizienten s1 , s2 und s3
10 Gegeben sei eine invertierbare Matrix A 2 R3 3 . Gesucht ist
maximal ist. Die ri i sind einzelne Koordinaten von Einheits-
vektoren und daher alle  1. Die minimale Norm liegt also
diejenige orthogonale Matrix B 2 R3 3 , für welche kB  Ak genau dann vor, wenn die Hauptdiagonalelemente r11 D
minimal ist. Dabei verwenden wir hier die Frobeniusnorm, die r22 D r33 D 1 sind. Somit bleibt r i D e i , also:
für die Matrix C D .c 1 ; c 2 ; c 3 / durch die Formel
p U B V > D E3 und weiter B D U > V :
kC k D kc 1 k2 C kc 2 k2 C kc 3 k2
Man erhält demnach die zu A nächstgelegene orthogonale
bestimmt ist. Diese Norm ändert sich nicht, wenn C links
Matrix B einfach dadurch, dass in der Singulärwertzerlegung
mit einer orthogonalen Matrix multipliziert wird, denn dabei
von A alle Singulärwerte gleich 1 gesetzt werden, also D
bleibt die Länge jedes einzelnen Spaltenvektors c i von C er-
durch E3 ersetzt wird.
halten. Weil kC k2 auch gleich der Quadratsumme der Längen
aller Zeilenvektoren ist, lässt die Rechtsmultiplikation von C
Kommentar Dies gilt auch noch, wenn einer der Eigen-
mit einer orthogonalen Matrix diese Norm ebenfalls invariant.
werte von A > A verschwindet, also etwa bei s3 D 0, weil
Wir gehen aus von der Singulärwertzerlegung
r11 D r22 D 1 als dritten Spaltenvektor in der orthogo-
A D U > D V mit D D diag.s1 ; s2 ; s3 / nalen Matrix U B V > nur mehr r 3 D e 3 zulässt. Erst bei
s2 D s3 D 0 ist das optimale B nicht mehr eindeutig.
mit s1 ; s2 ; s3 > 0, weil A invertierbar vorausgesetzt ist. Wir
suchen eine Matrix B, für welche die Differenz eine minima- Dies wird im Bereich der Bewegungsplanung angewandt, z. B.
le Norm kU > D V  Bk aufweist. Dabei sind die Matrizen U , bei der Steuerung von Robotern:
V und B orthogonal. Deshalb ist Zur Festlegung einer stetigen Bewegung zwischen zwei
oder auch mehreren vorgegebenen Raumpositionen werden
kU > D V  Bk D kU .U > D V  B/V > k zunächst einzelne Punktbahnen unabhängig voneinander in-
D kD  U B V > k: terpoliert, etwa jene des Ursprungs und der Einheitspunkte
eines mit dem Raumobjekt starr verbundenen Achsenkreu-
Wir setzen an: zes. Diese Bahnpunkte bestimmen zu jedem Zeitpunkt ein
zunächst noch affin verzerrtes Objekt, also – abgesehen von
 
U B V > D rik D .r 1 ; r 2 ; r 3 / der Verschiebung – das Bild in einer linearen Abbildung x 7!
A x. Indem nun A nach dem oben beschriebenen Verfahren
mit kr i k D 1, weil das Produkt orthogonaler Matrizen wieder durch eine orthogonale Matrix approximiert wird, werden die
orthogonal ist. Zwischenlagen kongruent zur Ausgangslage.
10.5  Die Pseudoinverse einer linearen Abbildung
397 10

Übersicht: Diagonalisieren von Matrizen

Wir unterscheiden folgende Äquivalenzrelationen zwischen V 1 D V > , derart dass


gleichartigen Matrizen:
(a) Zwei Matrizen A; B 2 Km n heißen äquivalent, wenn A D U 1 D r V bei
invertierbare Matrizen R 2 Km m und S 2 Kn n existie- 0 1
s1 : : : 0 0 ::: 0
ren mit B D R 1 A S . Genau dann sind A und B Dar- B: : :: C
B :: : : ::: ::
:C
stellungsmatrizen derselben linearen Abbildung 'W Kn ! B : C
B C
Km . B 0 : : : sr C
B C
(b) Zwei Matrizen A; B 2 Kn n heißen ähnlich, wenn ei- Dr D B :: :: C 2 R
m n
B0 ::: 0 :C
ne invertierbare Matrix S 2 Kn n existiert mit B D B : C
B: C
S 1 A S . Genau dann sind A und B Darstellungsmatri- B: :: C
@: : A
zen desselben Endomorphismus 'W Kn ! Kn . 0 ::: 0 0 ::: 0
(c) Zwei Matrizen A; B 2 Kn n heißen kongruent, wenn
eine invertierbare Matrix T 2 Kn n existiert mit B D und s1 ; : : : ; sr > 0. Die Quadrate der in der Hauptdiagonalen
T > A T . Genau dann sind A und B Darstellungsmatrizen von D r angeführten Singulärwerte s1 ; : : : ; sr von A sind die
derselben Bilinearform W Kn Kn ! K. von null verschiedenen Eigenwerte der symmetrischen Matrix
A > A.
Wir stellen diejenigen Fälle zusammen, bei welchen innerhalb Dasselbe gilt allgemeiner bei A 2 C m n mit unitären Ma-
> >
der Äquivalenzklassen Diagonalmatrizen existieren, insbe- trizen U und V , also bei U 1 D U und V 1 D V . In
sondere Normalformen. diesem Fall sind s12 ; : : : ; sr2 Eigenwerte der hermiteschen Ma-
>
Die hier genannten invertierbaren Matrizen R; S ; T sind trix A A.
jeweils Transformationsmatrizen zwischen verschiedenen Ba-
sen. In euklidischen Vektorräumen, also bei K D R, können 2) Diagonalisieren von Endomorphismen
wir als jeweiligen Fall B die verschiedenen Äquivalenzrela- Zu einer quadratischen Matrix A 2 Kn n
gibt es nur dann
tionen noch einschränken auf diejenigen mit ausschließlich eine invertierbare Matrix S 2 Kn n mit
orthogonalen Transformationsmatrizen R; S ; T . Diese Resul-
0 1
tate lassen sich auch auf unitäre Vektorräume verallgemei- 1 ::: 0
B: :: C
nern. D D S AS DB
1
@:
: ::
: :A
C
0 ::: n
1) Normalform äquivalenter Matrizen
Zu jeder Matrix A 2 Km n gibt es invertierbare Matrizen wenn A eine Basis aus Eigenvektoren besitzt. Die Einträ-
R 2 Km m und S 2 Kn n derart, dass ge 1 ; : : : ; n in der Diagonalmatrix D sind die Eigenwerte
! von A, also die Nullstellen des charakteristischen Polynoms
1 Er 0 A .X/ D det .A  X En /. Matrizen A mit dieser Eigenschaft
Nr D R A S D
0 0 heißen diagonalisierbar. Für die Diagonalisierbarkeit von A
0 1 ist notwendig und hinreichend,
1 ::: 0 0 ::: 0
B: : :: C 4 dass A .X/ in Linearfaktoren zerfällt und
B: : : ::: ::: C
4 für jeden Eigenwert i von A die algebraische Vielfach-
B: :C
B C
B0 : : : 1 C heit ki , also die Vielfachheit als Nullstelle von A .X/,
DBB0 : : : 0
C 2 Km
C
n
B C gleich der geometrischen Vielfachheit von i ist. Letztere
B: :: :: :: C ist definiert als Dimension des Eigenraums EigA .i /, also
B: C
@: : : :A der Lösungsmenge des homogenen linearen Gleichungs-
0 ::: 0 0 ::: 0 systems .A  i En / x D 0.

bei r D rg A. Diese Normalform N r ist durch elementare Zei- D ist ein Spezialfall der Jordan-Normalform (siehe
lenumformungen und Spaltenvertauschungen zu erreichen. 7 Abschn. 8.7); alle Jordan-Kästchen sind 1 1-Matrizen.

1B) Singulärwertzerlegung 3) Kongruente symmetrische Matrizen


Für jede Matrix A 2 R m n
gibt es orthogonale Matrizen Ist A 2 Rn n symmetrisch, also A > D A, oder A 2 C n n
U 2 Rm m und V 2 Rn n , also mit U 1 D U > und hermitesch, also A > D A, so gibt es stets invertierbare
398 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Matrizen T 2 Rn n bzw. S 2 C n n
und eine zu A kongruen- 3B) Orthogonales Diagonalisieren
te Diagonalmatrix 0 1 Ist A 2 Rn n symmetrisch oder A 2 C n n hermitesch, so
1 ::: 0 sind alle Eigenwerte 1 ; : : : ; n reell, und es gibt eine or-
> B :: :: C
D D T > A T bzw. D D S A S bei D D B
@:
::
: :A
C thonormierte Basis von Eigenvektoren. Zu jedem derartigen
0 ::: n A gibt es eine orthogonale bzw. unitäre Matrix S , also mit
>
S 1 D S > bzw. S 1 D S , derart dass
Die Einträge 1 ; : : : ; n in dieser durch gekoppelte Zeilen-
und Spaltenumformungen erreichbaren Diagonalmatrix D D D diag.1 ; : : : ; n / D S 1 A S :
sind nicht eindeutig, wohl aber die Anzahlen p, q der posi-
tiven bzw. negativen Werte mit p C q D rg A gemäß dem Darauf beruht die Hauptachsentransformation quadratischer
Trägheitssatz. oder hermitescher Formen.

Gibt es keine Inverse zu einer linearen matrix der Pseudoinversen B M .' C /B 0 , die pseudoinverse
Abbildung, so doch eine Pseudoinverse Matrix A C von A, lautet dann:
C
B M .' /B 0 D .H T B /> D C H 0 T B 0 mit
Ist die lineare Abbildung ' nicht bijektiv, also r < n oder D C D H M .' C /H 0 D diag.s11 ; : : : ; sr1 /:
r < m, so ist ' nicht invertierbar. Die Menge ' 1 .x 0 / der
Urbilder von x 0 2 V 0 ist nur bei x 0 2 Im.'/ nicht leer und Nun setzen wir noch U D H 0 T B 0 und V D H T B .
10 dann gleich der Faser ˇ 1 .x 0 /CKer.'/. Mithilfe der obigen
Zerlegung ' D 0 ı ˇ ı  mit dem bijektiven Mittelteil ˇ
bietet sich aber die Möglichkeit einer Ersatz-Inversen von Berechnung der pseudoinversen Matrix aus der
' an. Singulärwertzerlegung
Wir setzen die Orthogonalprojektion  0 von V 0 auf Hat A die Singulärwertzerlegung A D U > D V mit
Im.'/ zusammen mit ˇ 1 und einer Einbettungsabbildung D D diag.s1 ; : : : ; sr / 2 Rm n , so ist A C D V > D C U
in V (. Abb. 10.22), also ausführlich mit D C D diag.s 1 ; : : : ; s 1 / 2 Rn m .
1 r

m 
0 ˇ 1
V 0 D R ! Im.'/ ! Ker.'/? ! V D Rn
0 0 1 0 0 1
y1 y1 =s1 Auf diese Weise wird in der nächsten Beispielbox die Pseu-
B : C B : C doinverse berechnet.
B :: C 0 01 0 0 1 B :: C
B C y1 y1 =s1 B C Ist die lineare Abbildung ' bijektiv, also m D n D r, so
B y 0 C 0 By 0 =s C
B r C B :: C ˇ1 B :: C B r rC fällt die Pseudoinverse mit der gewöhnlichen Inversen zu-
By 0 C 7! @ : A 7! @ : A 7! B 0 C :
B rC1 C B C sammen, denn dann ist ' D ˇ (. Abb. 10.22). Ansonsten
B : C yr0 yr0 =sr B : C
B : C B : C teilt die Pseudoinverse mit der Inversen die folgende Eigen-
@ : A @ : A
0
ym 0 schaften:

Wir nennen Folgerung Ist ' C die Pseudoinverse zu ', so gilt:

'C D ı ˇ 1 ı  0 W V 0 D Rm ! V D Rn ' ı ' C ı ' D ' und ' C ı ' ı ' C D ' C : (10.17)

nach E. H. Moore (1862–1932) und R. Penrose (geb. 1931) Ferner sind die Abbildungen ' C ı 'W V ! V und ' ı
die Moore-Penrose pseudoinverse Abbildung oder kurz ' C W V 0 ! V 0 selbstadjungierte Endomorphismen.
die Pseudoinverse von '.
Wir können die bisherige, auf der Singulärwertzerle- Beweis Das Produkt
gung von ' beruhende Festlegung der Pseudoinversen noch 0 1 0 1
etwas umformulieren. Es sei A D B 0 M .'/B die Darstel- x1 x1
B : C B:C
lungsmatrix von ' für beliebige orthonormierte Basen B B : C: B :: C
0 0 B C B C
von V und B von V . Dann ist B x C Bx C
C B r C B rC
 D ' ı 'W V ! V; B C 7! B C
>
A D .H 0 T B 0 / D H T B mit D D diag.s1 ; : : : ; sr /; B x rC1 C B0C
B : C B:C
B : C B:C
@ : A @:A
wenn wir die Orthogonalität der Transformationsmatrix
x 0
H 0 TB0 2 R
m m n
gleich berücksichtigen. Die Darstellungs-
10.5  Die Pseudoinverse einer linearen Abbildung
399 10

Beispiel: Berechnung einer Pseudoinversen

Gegeben ist die lineare Abbildung Die Orthogonalprojektion W R3 ! R3 auf Ker.'/? lautet so-
0 1 0 1 mit W x 7! .x  v/ v, also:
x1 ! ! x1
x10 0 10 1
Bx C 1 1 0 B C
1 1 0 x1
'W R ! R ; @ 2 A 7!
3 2
D @x2 A :
x20 2 2 0 x1 C x2 1B CB C
x3 x3 W x 7! p v D @1 1 0A @x2 A :
2 2
0 0 0 x3
Wir lautet die Pseudoinverse ' C ?
Diese Darstellungsmatrix ist das dyadische Quadrat v v> (sie-
Problemanalyse und Strategie he 7 Abschn. 5.4) des Vektors v. Wegen
!
Wir bestimmen den Kern und den Bildraum von ' und die 1 2 p
zugehörigen Orthogonalräume. Dann zerlegen wir ' in das '.v/ D p D 10 v0
2 4
Produkt 0 ı ˇ ı  (. Abb. 10.22) und setzen ' C aus der
orthogonalen Projektion  0 auf Im.'/ und der Bijektion ˇ 1 erhalten wir die Bijektion
zusammen. p
ˇW Ker.'/? ! Im.'/; x v ! x 10 v0 :
Lösung
Nun brauchen wir noch im Bildraum R2 die orthogonale Pro-
Offensichtlich ist jektion  0 auf Im.'/. Es ist  0 W y 0 7! .y 0  v0 /v0 , daher
! ! ! !
x10 1 p y10 C 2y20 0 1 1 2 y10
0 D .x1 C x2 / D .x1 C x2 / 5 v0 0 0
 W y 7! p v D :
x2 2 5 5 2 4 y20

mit dem Einheitsvektor 0


Wir setzen dies mit ˇ 1 W y 0 v0 7! py
v zusammen und erhal-
! 10
1 1 ten: 0 1
0
v D p und Im.'/ D hv0 i: 1
5 2 C 0 y10 C 2y20 y10 C 2y20 B C
' W y !7 p p vD @1A:
5 10 10
0
Zugleich erkennen wir, dass der Kern von ' in R3 durch die
lineare Gleichung x1 C x2 D 0 festgelegt ist. Mithilfe eines Dies führt zur kanonischen Darstellungsmatrix der Pseudoin-
Normalvektors dieser Ebene folgt: versen
0 1 0 1 0 1
1 ! y1 1 2 !
0
1 B C y1 By C 1 B C y10
Ker.'/? D hvi bei v D p @1A : C
' W 7! @ 2 A D @1 2A 0 :
2 0 y20 10 y2
y3 0 0

ist die orthogonale Projektion von V auf den r-dimensio- mit der symmetrischen Darstellungsmatrix H 0 M . 0 /H 0 D
nalen Unterraum Ker.'/? . Die Darstellungsmatrix diag.1; : : : ; 1/ 2 Rm m gleich der orthogonalen Projektion
auf Im.'/ und selbstadjungiert.
M ./ D diag.1; : : : ; 1 / 2 R n n
Wegen .x/ 2 x C Ker.'/ (. Abb. 10.22) haben x und
H H
„ ƒ‚ …
r-mal .x/ dasselbe Bild unter '. Somit gilt:

ist als Diagonalmatrix symmetrisch, und diese Eigenschaft ' ı .' C ı '/ D ' ı  D ':
bleibt bei Wechsel zwischen orthonormierten Basen er-
halten. Daher ist  D ' C ı ' selbstadjungiert (siehe Mit einer analogen Begründung folgt:
7 Abschn. 9.6).
Analog ist der Endomorphismus ' C ı .' ı ' C / D ' C ı  0 D ' C : 

0 0 1 0 01
y1 y1 Kommentar Jede orthogonale Projektion  in einem n-
B : C B:C dimensionalen euklidischen Vektorraum V ist selbstadjun-
B : C
: B :: C
B C B C giert, sofern sie so wie vorhin als Endomorphismus, also
B y0 C By 0 C
0 C 0 0 B r C B C als Abbildung V ! V gesehen wird. Dies folgt auch aus
 D ' ı ' W V ! V ; B 0 C 7! B r C
ByrC1 C B0C der Tatsache, dass die Darstellungsmatrix analog zu jener
B : C B:C
B : C B:C im Anschauungsraum (7 Abschn. 5.4) als Summe dyadi-
@ : A @:A
0
scher Quadrate von Vektoren einer orthonormierten Basis
ym 0 des Bildraums geschrieben werden kann.
400 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Wird die orthogonale Projektion  jedoch als Abbildung Nachdem ' C ı ' die orthogonale Projektion von V ent-
V ! Im./ aufgefasst mit einem nunmehr r-dimensionalen lang der Fasern von ' auf Im.' C / ist, muss ' C jedes
Zielraum bei r D rg  < n, so ist dies kein Endomorphis- '.x/ 2 Im.'/ auf das in Im.' C / gelegene eindeutige Ur-
mus mehr und damit natürlich auch nicht selbstadjungiert. bild .x/ abbilden. Somit ist ' C ı  0 D ' C identisch mit
der Pseudoinversen. 
Die obige Folgerung lässt sich aber auch umkehren.

Lemma Es sei 'W V ! V 0 eine lineare Abbildung Für injektives oder surjektives ' ist
zwischen euklidischen Räumen. Erfüllt die Abbildung die Pseudoinverse direkt berechenbar
' C W V 0 ! V die Gleichungen (10.17) und sind ' C ı '
und ' ı ' C selbstadjungierte Endomorphismen, so ist ' C
die Moore-Penrose-Pseudoinverse von '. Wie können wir die Darstellungsmatrix der Pseudoinver-
sen ' C ohne Verwendung der Singulärwertzerlegung von
Beweis Liegt der Vektor u im Kern einer linearen Abbil- ' ausrechnen? Gibt es explizite Formeln?
dung '1 , so liegt er auch im Kern jeder Zusammensetzung Es sei A D B 0 M .'/B die Darstellungsmatrix von ' für
'2 ı '1 . Deshalb ist beliebige orthonormierte Basen B von V und B 0 von V 0 .
Dann ist
C
Ker.'/ Ker.' ı '/
C (10.17) diag.s1 ; : : : ; sr / D H 0 M .'/H D H 0 T B 0 A B T H 2 Rm n :
Ker.' ı ' ı '/ D Ker.'/:
Wir betrachten im Folgenden die durch die transponierte
Also gilt überall die Gleichheit. Matrix A > dargestellte adjungierte Abbildung
Liegt andererseits der Vektor v im Bild von '1 ı '2 für
10 eine mit '1 zusammensetzbare Abbildung '2 , so gehört er
' W V 0 ! V; B 0 x 0 ! A > B 0 x 0 :
auch zum Bild von '1 . Daher ist
(10.17) Für diese von V 0 nach V wirkende Abbildung gilt beim Ba-
Im.'/  Im.' ı ' C /  Im.' ı ' C ı '/ D Im.'/; siswechsel von B zu H und B 0 zu H 0 :
und wieder muss überall Mengengleichheit bestehen. Die-
H M .' /H 0 D H T B A > B 0 T H 0 D .H 0 M .'/H />
selben Argumente gelten für ' C , und daher ist insgesamt
D diag.s1 ; : : : ; sr / 2 Rn m :
Ker.'/ D Ker.' C ı '/; Im.'/ D Im.' ı ' C /;
Ker.' / D Ker.' ı ' /; Im.' C / D Im.' C ı '/:
C C Ähnlich wie ' ist auch die adjungierte Abbildung ' zu-
sammensetzbar:
Das Produkt  D ' C ı ' ist idempotent, denn
0
V 0 D Rm ! Im.'/ ! Ker.'/? ! V D Rn ;
 ı  D .' C ı ' ı ' C / ı ' D ' C ı ' D : 0 0 1 0 01
y1 s1 y1
B : C B : C
Somit ist  eine Projektion, denn jedes y aus der Faser B :: C 0 01 0 01 B :: C
B C y1 s1 y1 B C
.x/ C Ker./ hat als Bild .y/ D  2 .x/ C 0 D .x/ B y 0 C 0 Bs y 0 C
B r C B :: C B :: C B r rC
denselben Vektor aus der Faser. By 0 C 7! @ : A 7! @ : A 7! B 0 C
B rC1 C B C
Nun ist  selbstadjungiert vorausgesetzt. Daher gilt B : C yr0 sr yr0 B : C
B : C B : C
nach der Definition im 7 Abschn. 9.6 für alle Vektoren @ : A @ : A
u 2 Ker./ und x 2 V : 0
ym 0

u  .x/ D .u/  x D 0: Die adjungierte Abbildung ' unterscheidet sich von ' C
lediglich im „Mittelteil“: Statt die i-te Koordinate durch
Das Bild Im./ ist also orthogonal zu Ker./ und damit
si zu dividieren, wird hier mit si multipliziert. Man kann
zu allen Fasern der Projektion . Somit ist  die orthogo-
' C demnach aus ' und der Skalierung mit den Faktoren
nale Projektion parallel zum Kern von ' auf Ker.'/? D
1=s12 ; : : : ; 1=sr2 innerhalb von Ker.'/? zusammensetzen.
Im.' C /. Nach der Vertauschung von ' mit ' C folgt eben-
Die Skalierung mit den jeweils reziproken Werten, also
so, dass die selbstadjungierte Abbildung  0 D ' ı ' C eine
mit s12 ; : : : ; sr2 , tritt bei der Zusammensetzung ' ı 'W V !
orthogonale Projektion parallel zu den Fasern von ' C in
V auf, denn deren Darstellungsmatrix ist
das Bild Im.'/ ist. Wir erhalten, wie in . Abb. 10.22 dar-
gestellt:
.H 0 M .'/H /> H 0 M .'/H
C C
Ker.'/ ? Im.' / und Ker.' / ? Im.'/: D diag.s12 ; : : : ; sr2 ; 0 : : : ; 0/ 2 Rn n :
10.5  Die Pseudoinverse einer linearen Abbildung
401 10
Bei r D n ist die Abbildung ' injektiv, und es fehlen Kommentar Alle diese Überlegungen über die Pseudoin-
die Nullen in der Hauptdiagonale; die Produktmatrix ist verse einschließlich des Zusammenhangs mit der adjun-
invertierbar. Dann erledigt die zugehörige Inverse gerade gierten Abbildung gelten auch in unitären Räumen. Der
diejenige Skalierung, durch welche ' zur Pseudoinversen einzige Unterschied besteht darin, dass die Darstellungs-
' C wird. Bei injektivem ' gilt also matrix von ' die konjugiert komplexe der transponierten
>
Abbildung ist, also B M .' /B 0 D .B 0 M .'/B / .
' C D .' ı '/1 ı ' ;

d. h., bei A D B 0 M .'/B 2 Rm n


und rg.'/ D dim.V /,
Nochmals zur Methode der kleinsten
also r D n, ist
Quadrate
A C D B M .' C /B 0 D .A > A/1 A > :
Man kann die Pseudoinverse ' C zur Bestimmung einer
i Die Faktoren in dem Matrizenprodukt .A > A/ müssen
Näherungslösung für ein unlösbares reelles lineares Glei-
nicht quadratisch sein. Nur bei quadratischen Matrizen
chungssystem verwenden, also zur Bestimmung einer Lö-
darf .A > A/1 durch A 1 .A > /1 ersetzt werden, womit
sung, bei welcher das Ergebnis der linken Seite möglichst
dann A C D A 1 ist.
wenig von den vorgegebenen Werten der Absolutspalte ab-
? Selbstfrage 10.12 weicht. Dies ist etwa dann nötig, wenn die Absolutglieder
Bestätigen Sie, dass bei A 2 Rm n mit r D rg A D n die Messergebnisse sind und mehr Gleichungen als Unbekann-
pseudoinverse Matrix A C D .A > A/1 A > die Gleichun- te vorliegen. Wir greifen hier nochmals die Überlegungen
gen von 7 Abschn. 9.3 auf.
Wir schreiben die m Gleichungen in n Unbekannten in
A A C A D A und A C A A C D A C gewohnter Weise in Matrizenform als A x D b mit A 2
Rm n . Die Unlösbarkeit resultiert aus der Tatsache, dass für
erfüllt und dass die Produktmatrizen die durch A bestimmte lineare Abbildung

A C A und A A C 'W V D Rn ! V 0 D Rm ; x 7! A x

symmetrisch sind. die gegebene Absolutspalte b 2 V 0 , also der vorgeschrie-


bene Bildvektor '.x/ des gesuchten Urbilds x, nicht dem
Ähnliche Überlegungen sind auch bei surjektivem ', also Bildraum Im.'/ angehört. Um eine Näherungslösung zu
bei r D m möglich: finden, ändern wir die Absolutspalte ab: Wir ersetzen b
Um den Unterschied zwischen der adjungierten Abbil- durch den Punkt .b C v/ 2 Im.'/, wobei der Vektor v
dung und der Pseudoinversen aufzuheben, können wir auch der Verbesserungen eine minimale Länge kvk haben soll.
bereits vor der Abbildung ' (. Abb. 10.22) in Im.'/ die Nach dem Projektionssatz aus 7 Abschn. 9.3 wird b C v
Skalierung mit den Faktoren .1=s12 ; : : : ; 1=sm
2
/ vornehmen, zum Fußpunkt f der aus b an Im.'/ gelegten Normalen
indem wir die Inverse zu .' ı ' / anwenden. Dies ergibt: (. Abb. 10.23).
Diese Näherungslösung entsteht, wenn wir b orthogo-
' C D ' ı .' ı ' /1 ; nal nach Im.'/ projizieren und davon ein Urbild aus der
Menge ' 1 .f / bestimmen. Nach unserer Erklärung der
und somit bei rg.'/ D dim.V 0 /, also bei r D m, die Dar- Pseudoinversen ist das in Ker.'/? gelegene Urbild iden-
stellungsmatrix tisch mit dem Bild von b unter der Pseudoinversen ' C
(vergleiche mit der . Abb. 10.22).
A C D B M .' C /B 0 D A > .A A > /1 :

Pseudoinverse Matrix in Sonderfällen


b
Sind in der Matrix A 2 Rm n die Zeilen oder die Spalten
linear unabhängig, so lässt sich die pseudoinverse Matrix
v
A C direkt berechnen, also ohne Singulärwertzerlegung.
Bei rg ' D m ist A C D A > .A A > /1 , bei rg ' D n ist 0 f
A C D .A > A/1 A > .
Im.' /

Man beachte: In der voherigen Beispielbox war ' weder . Abb. 10.23 Die Forderung nach Verbesserungen mit minimaler Qua-
injektiv noch surjektiv. Dort war keine der angegebenen dratsumme führt zum Fußpunkt f der aus b an den Bildraum Im.'/
Formeln verwendbar. Siehe dazu auch die Aufgabe 18.16 . legbaren Normalen
402 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Beispiel Wir erinnern an das Beispiel aus einer Box in


Näherungslösung eines unlösbaren inhomogenen 7 Abschn. 3.1 und berechnen die optimale Näherungslö-
Systems linearer Gleichungen sung des unlösbaren linearen Gleichungssystems
Ist A x D b ein unlösbares inhomogenes reelles li- 0 1 0 1
neares Gleichungssystem und bezeichnet ' die lineare x1 C x2 D 1 1 1   1
x1
Abbildung x 7! A x, so iste
l D ' C .b/ mit ' C als Moore- 2x1  x2 D 5 oder @2 1A D @5 A :
x2
Penrose-Pseudoinverser von ' die Näherungslösung aus 3x1 C x2 D 4 3 1 4
Ker.'/? mit möglichst kleinem Fehler kAe l  bk.
Neben e
l ergeben alle Vektoren l 2 el C Ker.'/ den- Die eindeutige Lösung .l1 ; l2 / D .2; 1/ der ersten beiden
selben minimalen Fehler, und diese Vektoren bilden die Gleichungen erfüllt die dritte Gleichung nicht mehr. Also
Lösung der Normalgleichungen ist dieses System unlösbar, und wir können nur eine Nähe-
rungslösung erwarten.
.A > A/ x D A > b: Wir bestimmen die Normalgleichungen, indem wir bei-
de Seiten des Gleichungssystems von links mit der transpo-
nierten Koeffizientenmatrix multiplizieren:
Beweis Wir erhalten unsere Näherungslösung, indem wir 0 1 0 1
statt A x D b das System A x D f , also '.x/ D f , lösen   1 1     1
1 2 3 x 1 2 3
mit f 2 Im.'/ (. Abb. 10.23). @2 1A 1 D @5A ;
1 1 1 x2 1 1 1
Nun verwenden wir neben 'W Rn ! Rm , x 7! A x 3 1 4
noch die adjungierte Abbildung
also:
>
10 ' W R !R ;
m n
x 7! A x:     
14 2 x1 23
D :
Wegen Ker.' / ? Im.'/ ist die Einschränkung von ' auf 2 3 x2 0
Im.'/ injektiv. Daher ist die Aussage '.x/ D f äquivalent
zu der durch Anwendung von ' entstehenden Aussage Die Lösung der Normalgleichungen und damit Näherungs-
lösung für das Ausgangssystem lautet:
.' ı '/.x/ D ' .f /:
0 1
  23=38
e 69=38
Wegen b 2 f C Ker.' / ist ' .f / D ' .b/. Also bleibt lD und f D A e l D @184=38A :
46=38
das System .' ı '/.x/ D ' .b/ mit der Matrizendarstel- 161=38
lung A > A x D A > b.
Die Bauart der Normalgleichungen ist leicht zu merken, Aus den Abweichung von den gegebenen Absolutwerten
denn diese Gleichungen entstehen aus dem Ausgangssys- folgt als Fehler:
tem A x D b durch Linksmultiplikation mit A > . 
p
152 C 62 C 92
Kommentar Der in der Lösungsmenge der Normalglei- kf  bk D
chungen vorkommende Vektor ' C .b/ ist zusätzlich ortho- p 38
gonal zum Kern von ' (. Abb. 10.22). 342 3
> D Dp
Bei invertierbarem A A ist die Näherungslösung ein- 38 38
deutig und gleich ' C .b/. In diesem Fall lässt sich das  0:487 : 9
System der Normalgleichungen wegen rg.A/ D n auch aus
der vorhin angegebenen zweiten Formel für die pseudoin-
Kommentar Von der optimalen Näherungslösung können
verse Matrix A C folgern, denn
wir nur sprechen, wenn wir keine Vervielfachung einzelner
Gleichungen zulassen. An sich bleibt die Lösungsmenge ei-
' C .b/ D A C b D .A > A/1 A > b: ner Gleichung bei einer derartigen Multiplikation gleich,
aber das Absolutglied ändert sich und damit das Größen-
Nach Multiplikation von links mit A > A erkennen wir e l D verhältnis unter den Absolutgliedern des Systems.
' C .b/ erneut als Lösung der Normalgleichungen. Derartige Näherungslösungen sind also nur dann sinn-
voll, wenn z. B. auf der rechten Seite lauter Messdaten
? Selbstfrage 10.13 stehen, die annähernd die gleiche Genauigkeit aufweisen.
Warum gilt für den Vektor v D Ae l  b der Verbesse- Sind diese Genauigkeiten wesentlich verschieden, so sollte
rungen die Gleichung A > v D 0 und für das Quadrat des man zuerst durch Vervielfachung der einzelnen Gleichun-
Fehlers kvk2 D  v  b. gen diese Genauigkeiten angleichen.
10.5  Die Pseudoinverse einer linearen Abbildung
403 10
Die optimale Lösung eines überbestimmten
homogenen Gleichungssystems ist d1
z1 E
ein Eigenvektor d5 z5

Vorhin bei dem unlösbaren inhomogenen linearen Glei-


chungssystem A x D b haben wir eine Näherungslösung x
e
l dann als optimal bezeichnet, wenn der auf der rechten 0
Seite auftretende Vektor v D b  A e l der Verbesserungen z2
z4
eine minimale Länge hat. Analog könnte man bei einem d4
überbestimmten homogenen Systems A x D 0 mit m Glei-
z3 d2
chungen für n Unbekannte, also mit A 2 Rm n bei m > n
d3
vorgehen: Wir fordern eine minimale Norm kA e l k. Diese
erreichen wir aber natürlich immer, und zwar mit der tri- . Abb. 10.24 Die optimale Lösung eines homogenen Gleichungssys-
vialen Lösung el D 0. tems führt zur Ebene E mit minimaler Quadratsumme der Abstände von
Dass eine derartige Forderung im homogenen Fall nicht einer gegebenen Punktmenge fz1 ; : : : ; zm g
zielführend ist, zeigt sich auch daran, dass der bei einem
Vektor l auf der rechten Seite auftretende Fehler kA l k so- Nun noch eine dritte Interpretation: Wir können die Zeilen-
fort unterboten werden kann, weil 12 l eine nur mehr halb so vektoren z1 ; : : : ; zm der Koeffizientenmatrix A als Punkte
große Abweichung liefert. im A .Rn / interpretieren und x mit kxk D 1 als Normal-
Eine sinnvolle Forderung ist aber, l in seiner Länge vektor einer Hyperebene E durch 0. Dann bestimmt die
nach unten zu begrenzen, etwa durch kl k D 1, und dann linke Seite der i-ten linearen Gleichung zi  x den orientier-
nach jenem Einheitsvektor e l zu fragen, für welchen kA elk ten Normalabstand di des Punkts zi von E (. Abb. 10.24).
minimal ist. Wir suchen also eine Richtung mit möglichst Die geforderte Bedingung für eine optimale Lösung führt
kleiner Längenverzerrung unter der linearen Abbildung somit zur Ebene E durch 0 mit der kleinsten Summe QE D
P m 2
'A W R n ! R m ; x 7! A x: i D1 di aller Abstandsquadrate.
Wir schließen aus, dass alle Punkte z1 ; : : : ; zm inner-
Nach den Ergebnissen aus dem 7 Abschn. 10.4 über die halb einer Hyperebene E durch 0 liegen. Damit können
Singulärwertzerlegung ist diese minimale Längenverzer- wir QE > 0 voraussetzen für alle E, also für alle x mit
rung gleich dem kleinsten Singulärwert s von A. Eine kxk D 1. Dabei ist, wenn wir die zi nach wie vor als Zei-
optimale Lösung e l ¤ 0 mit minimaler Längenverzerrung lenvektoren auffassen,
ist somit ein Eigenvektor zum kleinsten Eigenwert s 2 der X m X m X m

symmetrischen Produktmatrix A A. > Q E D d i


2
D .z i  x/ 2
D .x > z>
i /.zi x/
Es gibt noch eine andere Erklärung: Wir können die i D1 i D1 i D1

Richtung mit der kleinsten Längenverzerrung unter 'A hX m i


> >
auch so bestimmen, dass wir wie in . Abb. 10.20 unter D x .z i z i / x
i D1
allen Urbildern von Einheitsvektoren den längsten suchen. 0 1
Nun bilden die Urbilder ein Ellipsoid mit der kanonischen z1
> >   B :C
Gleichung x A A x D 1. Ist in der zugehörigen Normal- D x z1 ; : : : ; zn @ :: A x D x > .A > A/ x:
> > >

form zn
x 02 x 02
1 x102 C    C n xn02 D 12 C    C n2 D 1
˛1 ˛n Die quadratische Form auf der rechten Seite ist nach Vor-
aussetzung positiv definit. p
˛i die längste Halbachse, so ist i D 1=˛i2 der kleinste Durch Abtragen der Länge 1= QE längs des Normal-
>
Eigenwert der Matrix A A. vektors x mit kxk D 1 entstehen die Punkte
1 1
y D ˙p x D ˙q x:
QE
Näherungslösung eines überbestimmten x > .A > A/ x
homogenen Gleichungssystems Einer Hyperebene E mit minimalem QE entsprechen dabei
Ist A x D 0 ein nur trivial lösbares lineares homogenes Punkte y mit maximaler Norm kyk.
Gleichungssystem, so ist jeder Eigenvektor el zum kleins- Alle Punkte y genügen der quadratischen Gleichung
ten Eigenwert  von A > A eine optimale Näherungslö-
sung, denn unter allen Vektoren derselben Länge hat e
l ein y > .A > A/ y D 1;
Bild Ael mit minimaler Norm, also mit derpkleinsten Ab- denn
weichung von 0. Bei ke l k D 1 ist kAe
l k D . 1
y > .A > A/ y D x > .A > A/ x D 1:
x > .A > A/ x
404 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Hintergrund und Ausblick: Ausgleichskegelschnitt

Gesucht ist ein Kegelschnitt, welcher n > 5 gegebene Punkte 6 6-Matrix. Ist dann e ein Eigenvektor zu 1 , so bilden
p 1 ; : : : ; p n in der affinen Ebene A .R2 / bestmöglich appro- die Koordinaten von e die Koeffizienten in der Gleichung
ximiert. Die in den . Abb. 10.9 und 10.10 über die Fotos .x/ D 0 des gesuchten Kegelschnitts.
gezeichneten Kegelschnitte wurden nach diesem Verfahren Im Gegensatz zu dem in der . Abb. 10.24 gezeigten
berechnet. Beispiel mit einer linearen Funktion gibt der Wert .x/ kei-
nesfalls den Normalabstand des Punkts x vom Kegelschnitt
Wir setzen die kanonische Darstellung der zugrunde liegenden Q. / an; .x/ hat keine unmittelbar erkennbare geometri-
quadratischen Funktion .x/ an als sche Bedeutung. Die berechnete Lösung hängt von der Wahl
des Koordinatensystems ab. Bereits eine Verschiebung des
.x/ D k1 x12 C k2 x1 x2 C k3 x22 C k3 x1 C k5 x2 C k6
Koordinatenursprungs kann zu einem anderen Kegelschnitt
mit vorerst unbekannten Koeffizienten k1 ; : : : ; k6 . Wenn der führen.
Punkt p i der Quadrik Q. / angehört, muss .p i / D 0 sein.
x2
Dies ist eine lineare homogene Gleichung für die Koeffizi-
enten. Die n Punkte führen demnach auf ein überbestimmtes p5
System von n homogenen linearen Gleichungen. Wir suchen
dessen optimale Lösung nach dem vorhin beschriebenen Ver- p4
fahren und gehen daher wie folgt vor: p6
Für jedes i 2 f1; : : : ; ng berechnen wir aus den Koordina-
ten .x1 ; x2 /> des Punkts p i den Zeilenvektor
p7 p3
zi D .x12 ; x1 x2 ; x22 ; x1 ; x2 ; 1/:
10 Q. /
Dies ergibt insgesamt eine n 6 -Matrix als Koeffizientenma- p2
trix A unseres homogenen Gleichungssystems.
0 x1
Hierauf bestimmen wir das Matrizenprodukt A > A und p8
p1
suchen den kleinsten Eigenwert 1 dieser symmetrischen

Wir erhalten somit lauter Punkte y einer Quadrik, und anspruchsvolle Aufgaben, die fortgeschrittene Kon-
zwar eines Ellipsoids, nachdem alle Eigenwerte von A > A zepte (unter Umständen auch aus späteren Kapiteln)
positiv sind. Der kleinste Eigenwert bestimmt die längs- oder eigene mathematische Modellbildung benötigen
te Achse und damit als Eigenvektoren Normalvektoren der
Hyperebene E durch 0 mit der kürzeste Abstandsquadrat-
summe QE . Verständnisfragen

Kommentar Wie bei inhomogenen Gleichungssystemen ist 10.1  Welche der nachstehend genannten Polynome
auch im homogenen Fall festzuhalten, dass die Vervielfa- stellen quadratischen Formen, welche quadratische Funk-
chung einer einzelnen Gleichung die Matrix A und damit tionen dar:
das Ergebnis verändert. Von einer optimalen Näherungslö- (a) f .x/ D x12  7x22 C x32 C 4x1 x2 x3
sung können wir wieder nur sprechen, wenn die Zeilenvek- (b) f .x/ D x12  6x22 C x1  5x2 C 4
toren in der Koeffizientenmatrix längenmäßig ausgeglichen (c) f .x/ D x1 x2 C x3 x4  20x5
sind. (d) f .x/ D x12  x32 C x1 x4
10.2 
Welche der nachstehend genannten Abbildun-
Aufgaben gen sind symmetrische Bilinearformen, welche hermite-
sche Sesquilinearformen?
(a)  W C 2 C 2 ! C,  .x; y/ D x1 y 1
Gelegentlich enthalten die Aufgaben mehr Angaben, als für
(b)  W C 2 C 2 ! C,  .x; y/ D x1 y 1 C x 2 y2
die Lösung erforderlich sind. Bei einigen anderen dage-
(c)  W C C ! C,  .x; y/ D x y
gen werden Daten aus dem Allgemeinwissen, aus anderen
(d)  W C C ! C,  .x; y/ D x y C y y
Quellen oder sinnvolle Schätzungen benötigt.
(e)  W C 3 C 3 ! C,  .x; y/ D x1 y2  x2 y1 C x3 y3
einfache Aufgaben mit wenigen Rechenschritten 10.3  Bestimmen Sie die Polarform der folgenden
mittelschwere Aufgaben, die etwas Denkarbeit und quadratischen Formen:
unter Umständen die Kombination verschiedener (a) W R3 ! R, .x/ D 4x1 x2 C x22 C 2x2 x3
Konzepte erfordern (b) W R3 ! R, .x/ D x12  x1 x2 C 6x1 x3  2x32
Aufgaben
405 10
10.4  Welche der folgenden Quadriken Q. / des 10.12  Transformieren Sie die folgenden Quadriken
A .R3 / ist parabolisch? Q. / des A .R3 / auf deren Hauptachsen und finden Sie
(a) .x/ D x22 C x32 C 2x1 x2 C 2x3 damit heraus, um welche Quadrik
p es sich
p handelt:
p
(b) .x/ D 4x12 C 2x1 x2  2x1 x3  x2 x3 C x1 C x2 (a) .x/ D x12 4x1 x2 C2 3 x2 x3 2 3 x1 C 3 x2 Cx3
(b) .x/ D 4x12 C 8x1 x2 C 4x2 x3  x32 C 4x3
(c) .x/ D 3x12 C 4x1 x2  4x1 x3  2x2 x3  30
Rechenaufgaben (d) .x/ D 13x12  10x1 x2 C 13x22 C 18x32  72

10.13  Bestimmen Sie den Typ der Quadriken Q. 0 /


10.5  Bringen Sie die folgenden quadratischen For- und Q. 1 / mit
men auf eine Normalform laut (10.4). Wie lauten die
Signaturen, wie die zugehörigen diagonalisierenden Basen? 0 .x/ D .x/ und 1 .x/ D .x/ C 1;

(a) W R ! R; .x/ D 4x1  4x1 x2 C 4x1 x3 C x3


3 2 2
wobei
(b) W R3 ! R; .x/ D x1 x2 C x1 x3 C x2 x3
W R6 ! R; .x/ D x1 x2  x3 x4 C x5 x6 :
10.6  Bringen Sie die folgende hermitesche Ses-
quilinearform auf Diagonalform und bestimmen Sie die 10.14  Berechnen Sie die Singulärwerte der linearen
Signatur: Abbildung
0 01 0 2 0 10 0 1
1
W C 3 ! C; .x/ D 2x1 y 1 C 2i x1 y 2  2i x2 y 1 x1 x1
B : C B11 0 5C
'W R3 ! R4 ; @ :: A D B @ 0
C @x 2 A :
3 0A
10.7  Bestimmen Sie Rang und Signatur der quadra- x40 x3
0 4 0
tischen Form
10.15  Berechnen Sie die Singulärwertzerlegung der
W R6 ! R; .x/ D x1 x2  x3 x4 C x5 x6 linearen Abbildung
0 01 0 10 1
x1 2 4 4 x1
10.8  Bringen Sie die folgenden quadratischen For- 3 @x 0 A
'W R 3
! R ; 2 D @ 6 6 3 A @ x2 A :
men durch Wechsel zu einer anderen orthonormierten Basis 0
auf ihre Diagonalform: x 3 2 4 4 x3
(a) W R ! R, .x/ D x1 C 6x1 x2 C 12x1 x3 C x2 C 10.16  Berechnen Sie die Moore-Penrose Pseudoin-
3 2 2

4x2 x3 C 4x32 verse ' C zur linearen Abbildung


(b) W R3 ! R, .x/ D 5x12  2x1 x2 C 2x1 x3 C 2x22 
0 01 0 10 1
4x2 x3 C 2x32 x1 1 0 0 x1
(c) W R3 ! R, .x/ D 4x12 C 4x1 x2 C 4x1 x3 C 4x22 C 'W R3 ! R3 ; @x20 A D @1 0 0A @x2 A :
4x2 x3 C 4x32 x30 1 2 1 x3

10.9  Transformieren Sie die folgenden Kegelschnit- Überprüfen Sie die Gleichungen ' ı ' C ı ' D ' und ' C ı
te Q. / auf deren Normalform und geben Sie Ursprung ' ı 'C D 'C.
und Richtungsvektoren der Hauptachsen an:
(a) .x/ D x12 C x1 x2  2 10.17  Berechnen Sie eine Näherungslösung des über-
p p bestimmten linearen Gleichungssystems
(b) .x/ D 5x12  4x1 x2 C 8x22 C 4 5 x1  16 5 x2 C 4
(c) .x/ D 9x12  24x1 x2 C 16x22  10x1 C 180x2 C 325 2x1 C 3x2 D 23:8
x1 C x2 D 9:6
10.10  Bestimmen Sie den Typ und im nicht para- x2 D 4:1
bolischen Fall einen Mittelpunkt der folgenden Quadriken
Q. / des A .R3 /: In der Absolutspalte stehen Messdaten von vergleichbarer
(a) .x/ D 8x12 C 4x1 x2  4x1 x3  2x2 x3 C 2x1  x3 Genauigkeit.
(b) .x/ D x12  6x22 C x1  5x2 .
(c) .x/ D 4x12  4x1 x2  4x1 x3 C 4x22  4x2 x3 C 4x32  Berechnen Sie in A .R2 / die Ausgleichsgerade
10.18 
5x1 C 7x2 C 7x3 C 1 der gegebenen Punkte
       
1 3 4 4
10.11  Bestimmen Sie in Abhängigkeit vom Parameter p D ; p D ; p D ; p D ;
1 1 2 0 3 1 4 2
c 2 R den Typ der folgenden Quadrik Q. / des A .R /:
3

also diejenige Gerade G, für welche die Quadratsumme der


.x/ D 2x1 x2 C c x32 C 2.c  1/x3 Normalabstände aller p i minimal ist.
406 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

10.19  Die Ausgleichsparabel P einer gegebenen vAntwort 10.2


Punktmenge in der x1 x2 -Ebene ist diejenige Parabel mit zur Stimmen die Einschränkungen auf die Diagonale überein,
x2 -Achse paralleler Parabelachse, welche die Punktmen- so folgt aus .x C y; x C y/ D  0 .x C y; x C y/
ge nach der Methode der kleinsten Quadrate bestmöglich
approximiert. Berechnen Sie die Ausgleichsparabel der ge- .x; x/ C .x; y/ C .y; x/ C .y; y/
gebenen Punkte
        D  0 .x; x/ C  0 .x; y/ C  0 .y; x/ C  0 .y; y/;
0 2 3 5
p1 D ; p2 D ; p3 D ; p4 D :
5 4 4 8 daher wegen .x; x/ D  0 .x; x/ und .y; y/ D  0 .y; y/

.x; y/   0 .x; y/ D  0 .y; x/  .y; x/


Beweisaufgaben
und somit .   0 /.x; y/ D .   0 /.y; x/.
10.20  Beweisen Sie den folgenden Satz: Ist die Setzt man umgekehrt    0 alternierend voraus, also
Matrix A 2 Rn n darstellbar als eine Linearkombina- .   0 /.x; y/ D .   0 /.y; x/, so folgt bei y D x
tion der dyadischen Quadrate orthonormierter Vektoren .   0 /.x; x/ D 0, also .x; x/ D  0 .x; x/.
.h1 ; : : : ; hr /, also
X
r vAntwort 10.3
AD i .hi h>
i / bei hi  hj D ıij ; Durch Aufspalten der rein quadratischen und der gemisch-
i D1 ten Summanden entsteht
so sind die hi Eigenvektoren von A und die i die zugehö-
rigen Eigenwerte. .x; y/ D x1 y1  3 x3 y3 C x1 y2 C x2 y1
10
5 5
10.21  Beweisen Sie den folgenden Satz: Zu jeder  x2 y3  x3 y2
2 2
symmetrischen Matrix A 2 Rn n gibt es eine orthonor-
mierte Basis .h1 ; : : : ; hn / derart, dass A darstellbar ist als mit der Matrizendarstellung
Pn Linearkombination
eine der dyadischen Quadrate A D
> 0 10 1
i D1 i .hi hi /. 1 1 0 y1
B1 5CB C
 2 A @ y2 A :
.x; y/ D .x1 x2 x3 / @ 0
10.22  Beweisen Sie den folgenden Satz: Es sei '
0  52 3 y3
ein selbstadjungierten Endomorphismus des euklidischen
Vektorraums V . Andererseits seien p1 ; : : : ; ps die Orthogo-
nalprojektionen von V auf sämtliche Eigenräume Eig' .1 /, vAntwort 10.4
. . . , Eig' .s / von '. Dann ist Wir interpretieren die symmetrische Matrix C als Dar-
stellungsmatrix einer Bilinearform . Nach der Folgerung
X
s
von vorhin folgt aus der Symmetrie einer Darstellungs-
'D i pi :
matrix jene von  und damit auch jene aller anderen
i D1
Darstellungsmatrizen von , also aller zu C kongruenten
Matrizen D. Dieselbe Argumentation ist auf schiefsym-
Antworten zu den Selbstfragen metrische Matrizen und die zugehörigen alternierenden
Bilinearformen anwendbar.
Wir können aber auch nach den Regeln der Matrizen-
v Antwort 10.1
rechnung vorgehen: Aus C > D ˙C folgt für die dazu
Man erkennt sofort, dass für alle .x; y/ 2 V 2 die vier
kongruente Matrix D D T > C T :
Forderungen
 >
..1 C 2 // .x; y/ D . 1 /.x; y/ C . 2 /.x; y/ D > D T > C T D T > C > T D ˙D:
.. C // .x; y/ D . /.x; y/ C . /.x; y/
.. // .x; y/ D . . // .x; y/ vAntwort 10.5
.1 /.x; y/ D .x; y/ Die Matrix M B ./ wird von .bj ; bk / gebildet. bi ist ge-
nau dann isotrop, wenn in M B ./ an der Stelle .i; i/ null
erfüllt sind. steht.
Sind 1 und 2 symmetrisch, so auch .1 C 2 / und bi liegt genau dann im Radikal von , wenn bi
 1 für alle  2 K. Damit sind für die symmetrischen Bi- -orthogonal zu allen Vektoren aus V ist. Dafür ist
linearformen auf V die Bedingungen (U1) und (U2) eines .bi ; bk / D 0 für k 2 f1; : : : ; ng notwendig und hin-
Untervektorraums erfüllt (siehe 7 Abschn. 4.3). Dasselbe reichend. Dies bedeutet, dass in M B ./ die i-te Zeile und
trifft auf die alternierenden Bilinearformen zu. die i-te Spalte aus lauter Nullen bestehen.
Antworten zu den Selbstfragen
407 10

v Antwort 10.6 Ferner ist


Wir wenden den obigen Algorithmus!auf die kanonische
0 1 .x C y/ C .x  y/
Darstellungsmatrix M E ./ D an. Diesmal muss
1 0 D .x C y; x C y/ C .x  y; x  y/
mit Schritt 3 begonnen werden: D .x; x/ C 2 .x; y/ C .y; y/
0 1 0 1 0 1
! 0 1 1 1 2 1 C .x; x/  2 .x; y/ C .y; y/
B C B C B C
M E ./ B1 0C s1 Cs2 B1 0C z1 Cz2 B1 0C D 2 .x/ C 2 .y/:
DB C ! B C ! B C
E2 @1 0A @1 0A @1 0A
0 1 1 1 1 1 vAntwort 10.10
0 1 0 1
2 0 2 0 Die Aussage .y; x/ D .x; y/ ist natürlich unabhängig
!
s2  12 s1 B 1C B 1C
B1  2 C z2  2 z1 B0  2 C
1
M B ./ von der verwendeten Basis, andererseits aber äquivalent
! B C ! B CD zur Aussage, dass M B ./ hermitesch ist, also M B ./> D
@1  12 A @1  12 A ETB
1 1
1 1 M B ./ für jede beliebige Basis B.
2 2
Aber wir können die Eigenschaft (10.7) der Ma-
Damit ist trix M B 0 ./ auch mithilfe von (10.8) überprüfen. Dabei
schreiben wir vorübergehend kurz T statt B T B 0 :
M B ./ D .E T B /> M E ./ E T B ;
 > >
also M B 0 ./> D T > M B ./ T D T M B ./> T
! ! ! !
 12 >
2 0
D
1 1 0 1 1
: D T > M B ./ T D T > M B ./ T D M B 0 ./:
0  12  12 1
2
1 0 1 1
2

Die zu  gehörige quadratische Form lautet .x/ D vAntwort 10.11


2 x1 x2 . Ihre einfache Bauart lässt erraten, dass auch die 1. Wegen A > A D En ist 1 n-facher Eigenwert von
Substitution A > A und daher auch n-facher Singulärwert von A.
! Also ist D D En . Für die Singulärwertzerlegung
x1 D x10 C x20 1 1 U > D V von A kann z. B. die orthogonale Matrix
bzw. T 0 D
x2 D x10  x20 E B
1 1 V beliebig gewählt werden. Wegen D D En bleibt
U > D A V > als orthogonaler erster Faktor in der Zer-
die Bilinearform diagonalisiert, denn
legung.
.x; y/ D .x10 C x20 /.y10  y20 / C .x10  x20 /.y10 C y20 / 2. Wir wählen eine orthonormierte Basis mit h3 in Pro-
jektionsrichtung. Dann ist Ker.'/ D hh3 i, und die
D 2 x10 y10  2 x20 y20 :
Vektoren h1 und h2 liegen in der zu Ker.'/ orthogo-
Für die neue Basis B 0 ist nalen Bildebene. Daher ändern sich die hi nicht mehr
! bei der Projektion; es ist '.hi / D hi für i D 1; 2. Die
2 0
M B 0 ./ D .E T B 0 /> M E ./ E T B 0 D : zugehörigen Längenverzerrungen sind 1, und es bleibt
0 2
D D diag.1; 1/ 2 R3 3 .

v Antwort 10.7
vAntwort 10.12
Die Signatur ist .1; 1; 0/. Mögliche diagonalisierende Ba-
Bei A C D .A > A/1 A > ist
sen sind
! !!
1 2 1 1 A A C A D A.A > A/1 .A > A/ D A
e
BD p ; p und
3 1 2 1
! !! und
1 1 1
e 0
B D ; p :
0 6 1 A C A A C D .A > A/1 .A > A/.A > A/1 A > D A C :

v Antwort 10.8 Die Matrix


Dann wäre .x; y/ D  .x; y/ stets gleich dem
.y; x/ D  .y; x/ D  .x; y/, ein Widerspruch bei A C A D .A > A/1 A > A D En
nicht reellem  und sofern  nichttrivial ist, also ein Paar
von Vektoren .x; y/ 2 V 2 existiert mit .x; y/ ¤ 0. ist natürlich symmetrisch, aber auch die Matrix
v Antwort 10.9
A A C D A.A > A/1 A >
Aus den obigen Definitionen folgt unmittelbar

.x/ D .x; x/ D   .x; x/ D   .x/ D jj2 .x/: ist gleich ihrer Transponierten.
408 Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

v Antwort 10.13
Das Bild Im.'/ der linearen Abbildung 'W x 7! A x wird
von den Spaltenvektoren der Matrix A aufgespannt. Der
Vektor v ist orthogonal zu Im.'/, hat daher mit allen Spal-
tenvektoren von A ein verschwindendes Skalarprodukt,
also A > v D 0. Bei invertierbarem A > A können wir das
auch durch Nachrechnen bestätigen:

A > v D A > Ae
l  A> b
D A > A.A > A/1 A > b  A > b
D A > b  A > b D 0:

In allen Fällen gilt:

kvk2 D v  v D v> v D .e
l > A >  b> / v
De
l > .A > v/  b> v D b  v:

Dieses Resultat lässt sich auch aus dem rechtwinkeligen


Dreieck 0 bf in . Abb. 10.23 ablesen.

10
409

Serviceteil
Hinweise zu den Übungsaufgaben – 410

Lösungen zu den Übungsaufgaben – 417

Stichwortverzeichnis – 425

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020


C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5
410 Hinweise zu den Übungsaufgaben

Hinweise zu den Übungsaufgaben


Kapitel 1 Kapitel 2

Verständnisfragen Verständnisfragen

1.1 Bedenken Sie auch den Fall negativer Zahlen. 2.1 Ermitteln Sie zuerst das neutrale Element e und beach-
ten Sie, dass in jeder Zeile und jeder Spalte jedes Element
1.2 Zählen Sie die möglichen Belegungen einer entspre- genau einmal vorkommt.
chenden Wahrheitstafel!
2.2 Multiplizieren Sie die Gleichungen mit dem Inversen
Rechenaufgaben von a.

2.3 Füllen Sie erst die Tafel für die Multiplikation auf. Be-
1.3 Stellen Sie eine entsprechende Wahrheitstafel auf. gründen Sie, dass a  b D 1 gilt.

1.4 Stellen Sie eine entsprechende Wahrheitstafel auf.


2.4 Geben Sie ein nichtinvertierbares Polynom an.

Beweisaufgaben 2.5 Was ist 1  x, falls 1 D 0?

1.5 Schreiben Sie x als vollständig gekürzte rationale Zahl, Rechenaufgaben


x D p=q, und setzen Sie diese Darstellung in x 2 D 2 ein.

1.6 Gehen Sie die vier Teilnehmer der Reihe nach durch: 2.6 Beachten Sie die Definitionen.
Nehmen Sie an, dass der Teilnehmer die Wahrheit sagt. Fin-
den Sie einen Widerspruch? 2.7 Beachten Sie die Definitionen.
1.7 Zeigen Sie die Gleichheit der angegebenen Mengen.
2.8 Beginnen Sie mit dem Erstellen der Verknüpfungstafel,
1.8 Zeigen Sie die Gleichheit der angegebenen Mengen. Sie erkennen dann, dass alle Elemente invertierbar sind und
Geben Sie für die zusätzliche Fragestellung ein Beispiel ei- ein neutrales Element existiert.
ner Abbildung an, bei der die angegebene Gleichheit nicht
gilt. 2.9 Begründen Sie, dass jede Untergruppe von .Z; C/ von
der Form .n  Z; C/ ist.
1.9 –

1.10 Beachten Sie die Definitionen von injektiv und sur- 2.10 Das neutrale Element und die invertierbaren Elemente
jektiv. erkennt man an der Verknüpfungstafel. Das Assoziativge-
setz zeigt man durch direktes Nachprüfen.
1.11 Beachten Sie die Definitionen von injektiv und sur-
jektiv. 2.11 Man beachte die Division mit Rest.

1.12 Zeigen Sie, dass f injektiv und surjektiv ist. p p


p a D 2C 3
2.12 Setzen Sie 2 und betrachten Sie das
1.13 Beachten Sie die Definitionen. Element .a  2/3 .

1.14 Beachten Sie die Definitionen.


Beweisaufgaben
1.15 Sehen Sie nach, wie Äquivalenzklassen definiert sind.

1.16 Vergessen Sie nicht, die Wohldefiniertheit von f zu 2.13 (a) Nehmen Sie an, es gilt U1 6 U2 und U2 6 U1 .
zeigen. Führen Sie dies zu einem Widerspruch. (b) Benutzen Sie
den Teil (a). (c) Betrachten Sie z. B. die Klein’sche Vierer-
1.17 Zeigen Sie, dass  symmetrisch ist. gruppe.
411
Hinweise zu den Übungsaufgaben

2.14 (a) Jeder innere Automorphismus ist nach Vorausset- Beweisaufgaben


zung die Identität. (b), (c) Bilden Sie a b ab und verwenden
Sie die Kürzungsregeln bzw. invertieren Sie.
3.14 Beachten Sie die allgemeine Form der Lösung.
2.15 Gehen Sie analog zur Konstruktion des Polynomrings
RŒX vor. 3.15 Will man die Zeile i mit der Zeile j vertauschen, so
beginne man mit der Addition der j -ten Zeile zur i-ten Zei-
le.
Kapitel 3
Kapitel 4
Verständnisfragen

3.1 Merkregel über die Lösungsmenge eines linearen Glei-


Verständnisfragen
chungssystems.
4.1 Beachten Sie die Definitionen von Erzeugendensys-
3.2 Man betrachte die Zeilenstufenform. tem, linear unabhängiger Menge und Basis.

3.3 Man ermittle die Zeilenstufenform der erweiterten Ko- 4.2 Man beweise oder widerlege die Ausagen.
effizientenmatrix.
4.3 Wenden Sie das Kriterium für lineare Unabhängigkeit
3.4 Man suche ein Gegenbeispiel.
an.
3.5 Beachten Sie, dass die Abbildung Z ! Zp mit z 7! z
bei z z .mod p/ im Sinne des 7 Abschn. 2.2 hinsicht- 4.4 Wenden Sie das Kriterium für lineare Unabhängigkeit
lich der Addition und der Multiplikation verknüpfungstreu an.
ist.
4.5 Prüfen Sie für jede Menge nach, ob sie nichtleer ist
3.6 Transformieren Sie zunächst das System über R in und ob für je zwei Elemente auch deren Summe und zu
Zeilenstufenform. Achten Sie gleichzeitig darauf, welche jedem Element auch das skalare Vielfache davon wieder in
Divisionen in Restklassenkörpern nicht erlaubt wären. der entsprechenden Menge liegt.

3.7 Bringen Sie die erweiterte Koeffizientenmatrix auf 4.6 Prüfen Sie für jede Menge nach, ob sie nichtleer ist
Zeilenstufenform. und ob für je zwei Elemente auch deren Summe und zu
jedem Element auch das skalare Vielfache davon wieder in
der entsprechenden Menge liegt.
Rechenaufgaben
4.7 Geben Sie zur Standardbasis des Rn einen weiteren
Vektor an.
3.8 Benutzen Sie das Eliminationsverfahren von Gauß
oder das von Gauß und Jordan.
4.8 Suchen Sie ein Gegenbeispiel.
3.9 Bringen Sie die erweiterte Koeffizientenmatrix auf
Zeilenstufenform und unterscheiden Sie dann verschiede-
ne Fälle für a. Rechenaufgaben

3.10 Man bilde die erweiterte Koeffizientenmatrix und


4.9 Bestimmen Sie die Mengen in einer Zeichnung.
wende das Verfahren von Gauß an.

3.11 Führen Sie das Eliminationsverfahren von Gauß 4.10 Überprüfen Sie die Menge auf lineare Unabhängig-
durch. keit.

3.12 Wenden Sie elementare Zeilenumformungen auf die 4.11 Überprüfen Sie die angegebenen Vektoren auf lineare
erweiterte Koeffizientenmatrix an und beachten Sie jeweils, Unabhängigkeit.
unter welchen Voraussetzungen an a und b diese zulässig
sind. 4.12 Zeigen Sie, dass die Menge einen Untervektorraum
des Rn bildet. Betrachten Sie für Basisvektoren Elemente
3.13 Man zerlege die Kraft F in drei Kräfte F a , F b und von U , die abgesehen von einer 1 und einer 1 nur Nullen
F c in Richtung der Stäbe. als Komponenten haben.
412 Hinweise zu den Übungsaufgaben

5.7 Jeder zum Richtungsvektor von G orthogonale Vektor


4.13 Zeigen Sie, dass die drei Funktionen linear unabhän-
gig sind. ist Normalvektor einer derartigen Ebene. Das zugehörige
Absolutglied in der Ebenengleichung folgt aus der Bedin-
4.14 Betrachten Sie das Gleichungssystem c C  d D 0. gung, dass der gegebene Punkt von G auch die Ebenenglei-
chung erfüllen muss.

Beweisaufgaben 5.8 Es muss d eine Affinkombination von a, b und c sein.


Wenn d der abgeschlossenen Dreiecksscheibe angehört, ist
dies sogar eine Konvexkombination.
4.15 Berechnen Sie .1 C 1/ .v C w/ auf zwei verschiedene
Arten. 5.9 Der Normalvektor von E ist zu den Richtungsvektoren
von G und H orthogonal. Für die Berechnungen der Ab-
4.16 Schreiben Sie ein beliebiges v 2 U2 in der Form v D stände wird zweckmäßig die Hesse’sche Normalform von
u1 C u3 mit u1 2 U1 und u3 2 U3 . E verwendet.

4.17 Betrachten Sie die Summanden in der folgen- 5.10 Der Richtungsvektor von G ist ein Normalvektor
den Darstellung von f : f .x/ D 12 .f .x/ C f .x// C von E.
2 .f .x/  f .x//.
1

5.11 Verwenden Sie die Formeln aus 7 Abschn. 5.4.


S
m1
4.18 Wählen Sie ein u 2 Um n Ui (Wie ist hierbei m zu 5.12 Beachten Sie die Formel in 7 Abschn. 5.4.
i D1
wählen?) und ein v 2 V n Um und schneiden Sie die Gerade
G D fv C  u j  2 Kg mit den Untervektorräumen Ui . 5.13 Beachten Sie die Formel in 7 Abschn. 5.4.

5.14 Die Gleichung dieses Drehkegels muss ausdrücken,


Kapitel 5 dass die Verbindungsgerade des Punkts x mit der Kegel-
spitze p mit dem Richtungsvektor u der Kegelachse den
Winkel ' einschließt.
Verständnisfragen
5.15 Beachten Sie das Anwendungsbeispiel in der Box in
5.1 Jede dieser Ebenen hat eine Gleichung, welche die 7 Abschn. 5.4.
Lösungsmenge des durch die Gleichungen von E1 und
E2 gegebenen linearen Gleichungssystem nicht weiter ein- 5.16 Nach dem Lemma in 7 Abschn. 5.5 lautet der schief-
schränkt. symmetrischen Anteil 12 .A  A > / D sin ' Sb mit d D
d
kdk bd. Die Spur von A, also die Summe der Hauptdiago-
5.2 Als eigentlich orthogonale Matrix stellt A eine Bewe-
nalglieder, lautet 1 C 2 cos '.
gung B dar, die den Vektor d D .1; 1; 1/> fix lässt. B ist
daher eine Drehung um d.
5.17 Beachten Sie die zugehörige Beispielbox.

5.3 Definitionsgemäß müssen die Spaltenvektoren ein or-


5.18 Berechnen Sie die Drehmatrix mithilfe des Lemmas
thonormiertes Rechtsdreibein bilden.
in 7 Abschn. 5.5. Sie müssen allerdings beachten, dass die
Drehachse diesmal nicht durch den Ursprung geht.
5.4 Wenden Sie die Formel aus dem Lemma für die Dreh-
matrix Rb
d;'
aus 7 Abschn. 5.5 an.
Beweisaufgaben
5.5 Verwenden Sie die Darstellung der Drehmatrix aus
dem Lemma in 7 Abschn. 5.5.
5.19 Berechnen Sie das Skalarprodukt u  v.

5.20 Berechnen Sie .u  v/  .u C v/.


Rechenaufgaben
5.21 Der Determinantenmultiplikationssatz aus 7 Kap. 7
5.6 Beachten Sie die geometrischen Deutungen des Ska- besagt, dass die Determinante des Produktes zweier quadra-
larprodukts und des Vektorprodukts im R3 . tischer Matrizen gleich ist dem Produkt der Determinanten.
413
Hinweise zu den Übungsaufgaben

5.22 Beachten Sie die Definition eines Homomorphismus Beweisaufgaben


und jene der Quaternionenmultiplikation. Die Norm kqk ei-
ner Quaternion ist definiert durch kqk2 D q ı q mit q als zu
q konjugierter Quaternion. 6.15 Benutzen für den Nachweis von (a) den Dimensi-
onssatz. Zum Nachweis von (b) zeige man zuerst '1 .V / \
5.23 Beachten Sie die Koordinatenvektoren der 8 Eck- '2 .V / D f0g.
punkte eines Parallelepipeds (. Abb. 5.17).
6.16 Prüfen Sie die Menge A0 auf lineare Unabhängigkeit,
0
5.24 Benutzen Sie bei i ¤ j die Gleichung .p i  pj /2 D bedenken Sie dabei aber, dass A durchaus unendlich viele
1, um das Skalarprodukt .pi  pj / durch eine Funktion von Elemente enthalten kann. Beachten Sie auch das Injektivi-
p 2i und pj2 zu substituieren. tätskriterium.

6.17 Wählen Sie geeignete Vektoren v und v0 , und betrach-


Kapitel 6 ten Sie v C '.v/ und v0  '.v0 /.

6.18 Betrachten Sie den von den Zeilen von A aufge-


Verständnisfragen spannten Untervektorraum T von K2n sowie die Abbildung
W T ! Kn , .x; y/ 7! x. Zeigen Sie, dass linear,
6.1 Nehmen Sie an, dass die Abbildung linear ist. Unter- Bild D U C W und ker D f.0; y/ j y 2 U \ W g ist.
suchen Sie, welche Bedingung u erfüllen muss.
6.19 Benutzen Sie die Methode aus Aufgabe 6.18.
6.2 Beachten Sie das Prinzip der linearen Fortsetzung.
6.20 Zeigen Sie mit der (reellen) geometrischen Reihe
6.3 Man beachte die Regel Zeilenrang ist gleich Spalten-
1
rang. D 1 C b.1  ab/1 a :
1  ba
6.4 – 6.21 Ergänzen Sie eine Basis von ker.A/ \ Bild B durch
C D fb1 ; : : : ; b t g zu einer Basis von Bild B und zeigen
Sie, dass
Rechenaufgaben
D D fA b1 ; : : : ; A b t g
6.5 Überprüfen Sie die Abbildungen auf Linearität oder linear unabhängig ist.
widerlegen Sie die Linearität durch Angabe eines Gegen-
beispiels. 6.22 Betrachten Sie die Komposition der Abbildungen
'A W Kn ! Kn ; v 7! A v und 'A 0 W Kn ! Kn ; v 7! A 0 v.
6.6 –

6.7 Bestimmen Sie das Bild von ' und beachten Sie die Kapitel 7
Dimensionsformel.

6.8 Zeigen Sie die Behauptung per Induktion. Verständnisfragen

6.9 Beachten Sie das Injektivitätskriterium. 7.1 Nehmen Sie an, dass det.A/ ¤ 0 ist und zeigen Sie,
dass Sie dadurch einen Widerspruch erhalten; zu welchen
6.10 In der i-ten Spalten der Darstellungsmatrix steht der Aussagen ist det.A/ ¤ 0 äquivalent?
Koordinatenvektor des Bildes des i-ten Basisvektors.
7.2 Man beachte die Regeln in der Übersicht.
6.11 –
7.3 Beachte die Übersicht.
6.12 Beachten Sie die Basistransformationsformel.

6.13 Schreiben Sie B M .'/B D B M .id ı ' ı id/B , und Rechenaufgaben


beachten Sie die Formel für das Produkt von Darstellungs-
matrizen.
7.4 Unter den 4 Š D 24 Summanden ist nur einer von null
6.14 Beachten Sie die Definitionen der Linearität und der verschieden. Daher ist auch nur eine Permutation zu be-
Darstellungsmatrix. rücksichtigen – welche?
414 Hinweise zu den Übungsaufgaben

7.5 Verwenden Sie die Regeln aus 7 Abschn. 7.3. 8.3 Zeigen Sie, dass die charakteristischen Polynome der
beiden Matrizen A und A > gleich sind.
7.6 Nutzen Sie aus, dass die Summen der Zeilen/Spalten
gleich sind. 8.4 Geben Sie ein Gegenbeispiel an.

7.7 Bestimmen Sie die Determinante der Tridiagonalma- 8.5 Betrachten Sie für (a) das charakteristische Polynom
trix durch Entwicklung nach der ersten Zeile und denken von A:
Sie an die Fibonacci-Zahlen.
A D .1/n X n C    C a1 X C a0 :
7.8 Beachten Sie die Determinantenregeln.
Was gilt für a0 ? Setzen Sie die Matrix A ein. Für den Teil
7.9 Unterscheiden Sie nach den Fällen n gerade und n un- (b) betrachte man das charakteristische Polynom von B
gerade. für eine Wurzel B von A und zeige Sp B 2 D .Sp B/2 
2 det B.
7.10 Beachten Sie die Definition der Determinante eines
Endomorphismus. 8.6 Betrachten Sie .A  En / A.

Beweisaufgaben Rechenaufgaben

7.11 Man beachte die Formeln zur Adjunkten. 8.7 Bestimmen Sie das charakteristische Polynom, dessen
Nullstellen und dann die Eigenräume zu den so ermittelten
7.12 Die Identitäten weisen Sie direkt nach, für die Eigenwerten.
Berechnung der Determinante ziehen Sie z. B. die Leib-
niz’sche Formel heran. 8.8 Bestimmen Sie die Eigenwerte, Eigenräume und wen-
den Sie das Kriterium für Diagonalisierbarkeit an.
2
7.13 Wenn man in jeder der n Positionen x addiert, so
wird aus der Determinante eine lineare Funktion in der 8.9 Diagonalisieren Sie die Darstellungsmatrix von ' be-
Variablen x, die deshalb durch ihre Werte an zwei verschie- züglich der Standardbasis.
denen Stellen bestimmt ist.
8.10 Beachten Sie die Beispiele zur Bestimmung einer Jor-
7.14 Führen Sie einen Beweis mit vollständiger Induktion dan-Basis im Text und gehen Sie analog vor.
über die Anzahl der Elemente aus f1; : : : ; ng, die unter 
nicht fest bleiben.
Beweisaufgaben
7.15 Begründen Sie beim Teil (a), dass A ˝ B eine obere
Blockdreiecksmatrix ist und berechnen Sie dann die Deter-
8.11 Zeigen Sie die Behauptung duch vollständige Induk-
minante von A ˝B. Benutzen Sie dann die Aussage (a) um
tion.
(b) zu beweisen, indem Sie A durch elementare Zeilenum-
formungen auf eine obere Dreiecksmatrix transformieren.
8.12 Vollständige Induktion nach k.
7.16 Geben Sie A n explizit an und ziehen Sie jeweils die
i-te Zeile von der i C 1-ten Zeile ab. 8.13 Wenden Sie den Determinantenmultiplikationssatz an
und zeigen Sie, dass es nur eine Möglichkeit für einen Ei-
genwert der Matrix geben kann. Der Fundamentalsatz der
Kapitel 8 Algebra besagt dann, dass dieser Eigenwert auch tatsäch-
lich existiert. Für die Aussage in (c) beachte man den Satz
von Cayley-Hamilton.
Verständnisfragen
8.14 Benutzen Sie, dass jeder Vektor bezüglich einer Basis
8.1 Bilden Sie das Produkt von A 2 bzw. A 1 mit dem Ei- (aus Eigenvektoren) eindeutig darstellbar ist.
genvektor.
8.15 Unterscheiden Sie die Fälle, je nachdem, ob 0 ein Ei-
8.2 Betrachten Sie .A  En / .A C En /. genwert von A B ist oder nicht.
415
Hinweise zu den Übungsaufgaben

8.16 Es ist nur zu zeigen, dass Kn D ker N r1 C    C Beweisaufgaben


ker N rs gilt. Aus Dimensionsgründen folgt dann Kn D
ker N r1 ˚    ˚ ker N rs . Führen Sie diesen Nachweis mit
9.14 –
dem Satz von Cayley-Hamilton.

8.17 Begründen Sie: Ist v 2 Eig' ./, so gilt .v/ 2 9.15 Gehen Sie wie im euklidischen Fall vor.
Eig' ./.
9.16 Benutzen Sie die Cauchy-Schwarz’sche Unglei-
chung.
Kapitel 9
9.17 Für (a)Pist nur P 2i D P i nachzuweisen. Für (b) be-
Verständnisfragen gründen Sie n
'P i D idV .
i D1

9.1 Man beachte die Definition eines euklidischen Skalar- 9.18 Beachten Sie den Beweis zum Kriterium der positiven
produkts. Definitheit.
9.2 Man suche ein Gegenbeispiel.
9.19 Schreiben Sie einen Vektor v 2 Kn in der Form v D
9.3 Transponieren und konjugieren Sie die Matrix B. v  A v C A v.

9.4 Man beachte das Kriterium für Definitheit. 9.20 Zeigen Sie, dass aus dem Ansatz Q R D Q0 R 0 folgt
R D R 0 und Q D Q0 . Beachten Sie hierzu, dass das Pro-
dukt und das Inverse oberer Dreiecksmatrizen wieder eine
Rechenaufgaben obere Dreiecksmatrix ist.

9.5 Bestimmen Sie die Eigenwerte von A, dann eine Basis 9.21 Zeigen Sie, dass die Abbildung W V ! V mit
des R3 aus Eigenvektoren von A und orthonormieren Sie .v/ D .v  u/ u, v 2 V , für jedes v aus V das gleiche Bild
schließlich diese Basis. Wählen Sie schließlich die Matrix der orthogonalen Projektion hat.
S , deren Spalten die orthonormierten Basisvektoren sind.
>
9.22 Begründen Sie die Gleichung .eiA / eiA D En .
9.6 Verwenden Sie das Orthonormierungsverfahren von
Gram und Schmidt.
9.23 Beachten Sie, dass sich ein selbstadjungierter Endo-
9.7 Bestimmen Sie alle Vektoren v D .vi /, welche die morphismus ' orthogonal diagonalisieren lässt, und wählen
Bedingungen v ? v1 und v ? v2 und kvk D 1 erfüllen. Sie eine Orthonormalbasis aus Eigenvektoren von '.

9.8 Man beachte den Projektionssatz in 7 Abschn. 9.3 und


die anschließenden Ausführungen. Kapitel 10
9.9 Man beachte die Methode der kleinsten Quadrate.
Als Basisfunktionen wähle man Funktionen, welche die
Verständnisfragen
12-Stunden-Periodizität des Wasserstandes berücksichti-
gen. 10.1 Beachten Sie die Definitionen in den 7 Abschn. 10.1
und 10.3.
9.10 Diagonalisieren Sie die Matrix.
10.2 Beachten Sie die jeweiligen Definitionen in den
9.11 Ermitteln Sie die Darstellungsmatrix A der zugehö- 7 Abschn. 10.1 und 10.2.
rigen linearen Abbildung bezüglich der Standardbasis und
bestimmen Sie die Form der Menge fA v 2 R2 j kvk D 1g.
Ermitteln Sie letztlich die Eigenwerte und Eigenvektoren 10.3 Beachten Sie die Hinweise auf die Polarform in
von A. 7 Abschn. 10.1.

9.12 Beachten Sie das entsprechende Beispiel im Text. 10.4 Beachten Sie bei der Klassifikation der Quadriken das
 0 Kriterium für den parabolischen Typ sowie die Definition
9.13 L.p/ D .1  x 2 /p 0 und partielle Integration. des Mittelpunkts.
416 Hinweise zu den Übungsaufgaben

Rechenaufgaben 10.15 Folgen Sie der im 7 Abschn. 10.4 beschriebenen


Vorgangsweise.

10.5 Verwenden Sie den in 7 Abschn. 10.1 erklärten Al- 10.16 Wählen Sie b3 2 Ker.'/ (siehe . Abb. 10.22) und
gorithmus und reduzieren Sie die Einheitsmatrix bei den ergänzen Sie zu einer Basis B mit b ; b 2 Ker.'/? . Eben-
1 2
Spaltenoperationen mit. so ergänzen Sie im Zielraum '.b1 /; '.b2 / 2 Im.'/ durch
einen dazu orthogonalen Vektor b03 2 Ker.' / zu einer
10.6 Hier ist der Algorithmus aus 7 Abschn. 10.1 mit den Basis B 0 . Dann ist ' C durch '.bi / 7! bi , i D 1; 2, und
Zeilenoperationen und den jeweils gleichartigen, allerdings b0 7! 0 festgelegt.
3
konjugiert komplexen Spaltenoperationen zu verwenden.
10.17 Lösen Sie die Normalgleichungen.
10.7 Suchen Sie zunächst einen Basiswechsel, welcher die
auf R2 definierte quadratische Form .x/ D x1 x2 diagona- 10.18 G ist die Lösungsmenge einer linearen Gleichung
lisiert. l.x/ D u0 C u1 x1 C u2 x2 mit drei zunächst unbekannten
Koeffizienten u0 ; u1 ; u2 . Die gegebenen Punkte führen auf
10.8 Die gesuchte orthonormierte Basis H besteht aus Ei- vier lineare homogene Gleichungen für diese Unbekannten.
genvektoren der Darstellungsmatrix von . Dabei ist der Wert l.pi / proportional zum Normalabstand
des Punkts p i von der Geraden G (beachten Sie die Hes-
10.9 Folgen Sie den Schritten 1 und 2 aus 7 Abschn. 10.3. se’sche Normalform in 7 Abschn. 5.4).

10.10 Die Bestimmung des Typs ist auch ohne Hauptach-10.19 P ist die Nullstellenmenge einer quadratischen
.x/ Funktion x2 D ax1 C bx1 C c. Jeder der gegebenen Punkte
2
sentransformation möglich. Achtung, im Fall b) ist
als Funktion auf dem A .R3 / aufzufassen. führt auf eine lineare Gleichung für die unbekannten Koef-
fizienten.
10.11 Beachten Sie das im Zusammenhang mit der Klas-
sifikation der Quadriken angegebene Kriterium.
Beweisaufgaben
10.12 Folgen Sie den Schritten 1 und 2 aus
7 Abschn. 10.3. 10.20 Beachten Sie die Assoziativität der Matrizenmulti-
plikation.
10.13 Beachten Sie die Aufgabe 10.7.
10.21 Beachten Sie Aufgabe 10.20.
10.14 Nach den Resultaten des 7 Abschn. 10.4 sind die
Singulärwerte die Wurzeln aus den von null verschiedenen 10.22 Untersuchen Sie die Wirkung der Endomorphismen
Eigenwerten der symmetrischen Matrix A > A. auf eine Basis von Eigenvektoren.
417

Lösungen zu den Übungsaufgaben


Kapitel 1 Kapitel 2

Verständnisfragen Verständnisfragen

1.1 Nur die erste Aussage ist richtig. 2.1


a b c x y z
1.2 Es sind 16. a x z y a c b
b y x z b a c
c z y x c b a
Rechenaufgaben
x a b c x y z
y b c a y z x
1.3 – z c a b z x y

1.4 – 2.2 –

2.3
Beweise C 0 1 a b  0 1 a b
0 0 1 a b 0 0 0 0 0
1 1 0 b a 1 0 1 a b
1.5 –
a a b 0 1 a 0 a b 1
1.6 Herr Grün war der Täter. b b a 1 0 b 0 b 1 a

2.4 Nein.
1.7 –
2.5 Nur im Nullring f0g.
1.8 –

1.9 – Rechenaufgaben
1.10 –
2.6 (a) Die Verknüpfung ist nicht assoziativ, nicht kommu-
1.11 – tativ, es gibt kein neutrales Element. (b) Die Verknüpfung
ist assoziativ, kommutativ, 1 ist ein neutrales Element.
1.12 – (c) Die Verknüpfung ist assoziativ, kommutativ, es gibt kein
neutrales Element. (d) Die Verknüpfung ist assoziativ, kom-
1.13 – mutativ, es gibt kein neutrales Element.

1.14 – 2.7 (a) Die Verknüpfung ist assoziativ, kommutativ, 0 ist


ein neutrales Element. (b) Die Verknüpfung ist assoziativ,
1.15 (a) .2; 2/ und .2; 2/ liegen in der gleichen Äquiva-
p kommutativ, 0 ist ein neutrales Element. (c) Die Verknüp-
lenzklasse, nämlich dem Kreis um .0; 0/ mit Radius 8. fung ist nicht assoziativ, nicht kommutativ, es gibt kein
(b) Die Äquivalenzklasse von .2; 2/ ist die Hyperbel, die neutrales Element.
durch die Gleichung x  y D 4 gegeben ist. Die Äqui-
valenzklasse von .2; 2/ ist die Hyperbel, die durch die 2.8 Die Verknüpfungstafel lautet
Gleichung x  y D 4 gegeben ist. (c) Die Äquivalenz-
klasse von .2; 2/ ist g1 n f.0; 0/g, die Äquivalenzklasse von ı f1 f2 f3 f4 f5 f6
.2; 2/ ist g2 n f.0; 0/g, dabei ist g1 die Gerade durch die f1 f1 f2 f3 f4 f5 f6
Null mit Steigung 1 und g2 die Gerade durch die Null mit f2 f2 f3 f1 f5 f6 f4
Steigung 1.
f3 f3 f1 f2 f6 f4 f5
1.16 – f4 f4 f6 f5 f1 f3 f2
f5 f5 f4 f6 f2 f1 f3
1.17 – f6 f6 f5 f4 f3 f2 f1
418 Lösungen zu den Übungsaufgaben

2.9 Es ist fn  Z j n 2 N0 g die Menge aller Untergruppen 3.9 Für a D 1 gibt es keine Lösung. Für a D 2 und
von Z D .Z; C/. a D 3 gibt es unendlich viele Lösungen. Für alle anderen
reellen Zahlen a gibt es genau eine Lösung. Im Fall a D 0
2.10 – ist dies .L D f.1; 0; 0/g, und im Fall a D 2 ist L D f. 13 C
1
3
t; t; 0/ j t 2 Rg die Lösungsmenge.
2.11 (a) 2 X  3 X  4 X  5 X C 6 D .2 X C 3 X C
4 3 2 2

3/ .X 2  3 X C 1/ C .X C 3/.
3.10 Die Lösungsmengen sind
(b) X 4  2 X 3 C 4 X 2  6 X C 8 D .X 3  X 2 C 3 X 
a) L D f.3 C 2 i; 1 C 2 i; 3 i/g.
3/ .X  1/ C 5.
b) L D f 51 .3 C i; 3  4 i; 3 C 6 i/g.
c) L D .4  3 i; 2 i; 5 C i/ C.
2.12 P D X 6  6 X 4  4 X 3 C 12 X 2  24 X  4 2 ZŒX.

3.11 Im Fall r D 2 ist L D ;. Im Fall r D 1 ist L D


Beweisaufgaben f.1  s  t; s; t/ j s; t 2 ˚
Rg die Lösungsmenge,
 und für alle
anderen r 2 R ist L D 2Cr 1 1
; 2Cr 1
; 2Cr .

2.13 –
3.12 Das Gleichungssystem ist für alle Paare .a; b/ der Hy-
perbel H D f.a; b/ j b 2  a .a C 2/ D 0g nicht lösbar. Für
2.14 –
alle anderen Paare .a; b/ 2 R2 n H DW G ist das System
lösbar. Bei a ¤ 2 ist die Lösung eindeutig; bei a D 2, d. h.
2.15 –
für alle Paare .a; b/ D .2; b/ 2 G, gibt es unendlich viele
Lösungen.
Kapitel 3
3.13 F a D .12; 6; 30/, F b D .10; 10; 20/, F c D
.2; 4; 6/.
Verständnisfragen

3.1 Ja.
Beweisaufgaben
3.2 Nein.
3.14 –
3.3 Ja.
3.15 –
3.4 Nein.

3.5 Die erste Behauptung folgt aus der Verknüpfungstreue


Kapitel 4
der Abbildung Z ! Zp . Die Antwort auf die zweite Frage
ist nein.
Verständnisfragen
3.6 Das System ist in Z2 und in Z3 lösbar. Die Lösungs-
menge L lautet in Z2 4.1 Die Aussagen in (a) und (b) sind richtig, die Aussagen
L D f.1; 1; 1/; .0; 1; 0/g (c) und (d) sind falsch.

und in Z3 4.2 Die Aussagen in (a) und (b) sind falsch, die Aussage
in (c) ist richtig.
L D f.0; 2; 0/; .0; 1; 1/; .0; 0; 2/g:

3.7 Die eindeutig


 bestimmte
 Lösung des allgemeinen Sys- 4.3 Ja.
tems ist ardd bs ; asrc
b c a d b c
und die eindeutige Lösung des
10mC33 222m

Beispiels lautet 7
; 7 . 4.4 Ja.

4.5 U1 ; U3 und U4 sind keine Untervektorräume, U2 hin-


Rechenaufgaben gegen schon.

3.8 Das System a) ist nicht lösbar; die Lösungsmenge des 4.6 U2 ; U3 und U5 sind keine Untervektorräume, U1 ; U4
Systems b) lautet L D f. 13 .1t/; 1
3
.1C4 t/; t/ j t 2 Rg. und U5 hingegen schon.
419
Lösungen zu den Übungsaufgaben

4.7 Ja, es ist A D fe 1 ; : : : ; e n ; vg mit den Standard-Ein- 5.2 Es gibt zwei Lösungen,
heitsvektoren e 1 ; : : : ; e n und v D e 1 C    C e n eine solche 0 1 0 1
Menge. 0 0 1 0 1 0
A 1 D @1 0 0A und A 2 D @0 0 1A D A 21 :
0 1 0 1 0 0
4.8 Nein, die Formel für dim.U C V C W / gilt nicht.
Keine uneigentlich orthogonale Matrix kann diese Bedin-
gungen erfüllen.
Rechenaufgaben
5.3 Es gibt vier Lösungen, wobei in den folgenden Darstel-
lungen einmal die oberen, einmal die unteren Vorzeichen zu
4.9 Alle Aussagen sind richtig.
wählen sind:
0 1
4.10 Ja, die Menge bildet eine Basis. 1 2 2
1
M 1;2 D @˙2 1 2A
3 2 ˙2 ˙1
4.11 Die Standardbasis E4 D fe 1 ; e 2 ; e 3 ; e 4 g ist eine Basis
0 1
von U . ˙5 10 10
1 @
M 3;4 D ˙14 5 2A
15 2 ˙10 ˙11
4.12 Es ist
80 1 0 1 0 19 5.4 Die zugehörige Drehmatrix lautet:
ˆ 1 0 0 >
ˆ >
ˆ
ˆB 0C B1C B 0 C> > 0 1
ˆ
<B C B C B C> = 2 1 2
B :: C B :: C B :: C 1
B WD B C ; B
: C B : C C ; : : : ; B C Rb D @ 2 2 1A
ˆ B B : C>
ˆ @ 1 A>
d;' 3 1
ˆ
ˆ@ 0A @0A >
> 2 2
:̂ >
;
1 1 1
Die Koordinatenvektoren der verdrehten Würfelecken sind
die Spaltenvektoren in
eine Basis von U , insbesondere gilt dim.U / D n  1.
0 1
0 2 1 1 2 4 3 1
1
4.13 Die Dimension ist 3. @0 2 4 2 1 1 3 1A
3 0 1 1 2 2 1 3 4
4.14 Die Vektoren c; d sind genau dann linear unabhängig,
5.5 Bei Benützung der üblichen Abkürzungen s ' und c '
falls    ¤ 0 gilt.
für den Sinus und Kosinus des Drehwinkels lautet die Dreh-
matrix R d;' :
0 1
Beweisaufgaben .1  d12 / c ' C d12 d1 d2 .1  c '/  d3 s ' d1 d3 .1  c '/ C d2 s '
Bd d .1  c '/ C d s ' .1  d2 / c ' C d2
2 2
d2 d3 .1  c '/  d1 s ' C
@ 1 2 3 A
d1 d3 .1  c '/  d2 s ' d2 d3 .1  c '/ C d1 s ' .1  d32 / c ' C d32

4.15 –

Rechenaufgaben
4.16 –

5.6
4.17 –
kuk D 3; kvk D 15; cos ' D 8=45; '  79:76ı
0 1
33 p
4.18 –
u v D @26A ; ku vk D 1961:
14
Kapitel 5 5.7

E1 W x2 C 2x3  8 D 0
Verständnisfragen
E2 W x1 C 2x3  5 D 0
5.1 ˚  Jede weitere Ebenengleichung ist eine Linearkombination
.n1 C n2 /  x D k1 C k2 j .; / 2 R2 n f.0; 0/g : dieser beiden.
420 Lösungen zu den Übungsaufgaben

5.8 x3 D 2. Der Punkt d liegt außerhalb des Dreiecks. Beweisaufgaben

5.9 EW x1  x2pC 2x3 D 0. Die Entfernung der


pEbene E 5.19 –
von G beträgt 2 6=3, jene von der Geraden H 6=2.

5.20 Ein Parallelogramm hat genau dann orthogonale Dia-


5.10 l.x/ D 13 .2x1 C x2  2x3  1/ D 0.
gonalen, wenn die vier Seitenlängen übereinstimmen.
0 1 0 1
1 2
p
5.11 d D 2, a1 D @2A, a2 D @3A.
5.21 –
3 3
5.22 '.q1 ı q2 / D '.q1 / '.q2 /. Es ist
5.12
 1    
x 1 x 1
5x12 C 5x22 C 8x32 C 8x1 x2  4x1 x3 C 4x2 x3 D D' q :
y x x C y y y kqk2
 10x1  26x2  32x3 D 31:    
x1 x2
. ı '/.q1 ı q2 / D
y1 y2
5.13   
x1 y1 x2 y2
D :
3x12  3x32  4x1 x2 C 8x1 x3  12x2 x3 y1 x1 y2 x2
 
 42x1 C 26x2 C 38x3 D 27: x y
det .. ı '/.q// D det D jxj2 C jyj2
y x
5.14 D q ı q D kqk2 :

11x12 C 11x22 C 23x32 C 32x1 x2  16x1 x3 C 16x2 x3 5.23 –


 22x1  86x2  92x3 C 146 D 0:
0 1 5.24 Die Entfernung der Eckpunkte vom Schwerpunkt lau-
3 tet
5.15 m D 12 @5A :
6 r
3
kx  p i k D :
8
5.16 0p p 1
2C 3
B p C Die Seitenlänge des Quadrates ist 12 .
d D @ 1  2 A ;
1
p p p
cos ' D 2p1 6 .2 C 2 C 3  6/; Kapitel 6
q
p p
sin ' D 2 6 9 C 2 6 C 2 2;
p1
Verständnisfragen
und daher '  56:60ı .
6.1 Nur für u D 0.

5.17
1 1 6.2 (a) Nein. (b) Ja.
cos ˛ D p ; sin ˛ D p ; ˛ D 45ı ;
2 2
p
1 2 2 6.3 Ja.
cos ˇ D ; sin ˇ D ; ˇ  70:53ı;
3 3
1 1 6.4 (a) Wahr, (b) wahr, (c) falsch, (d) wahr.
cos D p ; sin D  p ; D 315ı :
2 2

5.18 0 1 Rechenaufgaben
1 0 0 0
B3 0 0 1C
D DB
@ 1
C
1 0 0A 6.5 (a) '1 ist nichtlinear. (b) '2 ist linear. (c) '3 ist nicht
2 0 1 0 linear.
421
Lösungen zu den Übungsaufgaben

6.6 0 p 1 6.13 (a) Es gilt


2 3 2
1 0 1
B p
2 p 16 47 88
3C 2 C
A D @ 32 2 1 A @ A
p 2 B M .'/B D 18 44 92
3C 2
1 2
2 12 27 59
0 3 2
p 1
0 0 (b) Es gilt
B p
2 p 0 1
3C 2 C 2 10 3
C @ 3C2 2 0 2 A
p
3 2 @
A M .'/B D 8 0 23 A und
0 0
2 2 17 10
0 1
6.7 dim '.R2 / D 1 und dim ' 1 .f0g/ D 1. 7 13 22
@
B M .'/A D 6 2 14A
6.8 Es gilt anC1 D an C bn und bnC1 D 2 an . 4 1 7
0 1
6.9 (a) '.a/ D c, '.b/ D 0, ' ist nicht injektiv. 0 1 1 1 1
(b) Der Kern hat die Dimension 1 und das Bild die Di- B0 0 2 3 4 C
B C
mension 3. (c) Es ist fbg eine Basis des Kerns von ' und 6.14 (a) M .4/ D B0 0 0 3 6 C,
8 0 1 0 1 0 19 E E B C
ˆ 3 1 1 > @0 0 0 0 4 A
ˆ
< >
B 1 C B 3 C B1C= 0 0 0 0 0
B C ; B C ; B C eine Basis des Bildes von '.
ˆ@ 1 A @1A @ 3 A> > dim ' 1
.f0g/ D 1; dim.4.V // D 4.
:̂ ; 0 1
1 1 1 0 1 0 0 0
(d) L D a C ' 1 .f0g/. B0 0 1 0 0 C
B C
(b) B M .4/B D B B0 0 0 1 0 C.
C
6.10 0 1 @ 0 0 0 0 1 A
0 1 0 0
  0 0 0 0 0
d B0 0 2 0 C
M D B C und (c) Die Basis B.
dX E @0 0 0 3A
E

0 0 0 0
0 1 Beweisaufgaben
0 0 0 0
 
d B1 0 0 0 C
BM DB @0 1 0 0 A
C
dX B 6.15 –
0 0 1 0
6.16 Ja.
6.11 0 1
2 1 6.17 –
@
B M .'/E2 D 2 1 A;
6.18 –
1 1
0 1
5 2 2 6.19Es ist f.1; 0; 1; 2/> ; .1; 0; 0; 1/> g eine Basis von
B3 0 1C U \W.
B
C M . /B D @
C;
2 1 1A
6.20 Es ist En CB.En AB/1 A das Inverse zu En BA.
3 0 1
0 1
8 5 6.21 –
B7 4C
B
C M . ı '/E2 D @
C 6.22 –
3 2A
7 4
Kapitel 7
6.12 (b) Es gilt
0 1 Verständnisfragen
1 0 0
B M .'/B D @ 0 2 0A und
0 0 3 7.1 –
0 1
2 1 2 7.2 Ja.
S D @2 1 1A
3 1 1 7.3 Ja.
422 Lösungen zu den Übungsaufgaben

Rechenaufgaben Rechenaufgaben

7.4 det.A/ D a b c d: 8.7 (a) Es  2 der einzige Eigenwert von A, und jeder
ist 
1
Vektor aus n f0g ist ein Eigenvektor zum Eigenwert
7.5 det A D 21, det B D 0. 1
2 von A.
7.6 Die Determinante ist null. (b) Es sind
  ˙1 die beiden Eigenwert von B, und jeder
1
Vektor aus n f0g ist ein Eigenvektor zum Eigenwert
7.7 Die Determinante ist die Rekursionsformel für die Fi- 1
 
bonacci-Zahlen. 1
1 von B, und jeder Vektor aus n f0g ist ein Eigen-
1
7.8 Bei (a) und (c) handelt es sich um Multiplinearformen, vektor zum Eigenwert 1 von B.
bei (b) hingegen nicht.
8.8 (a) Die Matrix A ist nicht diagonalisierbar. (b) Die
n.n1/
7.9 det A D .1/ 2 d1 d2 : : : dn . Matrix B ist diagonalisierbar. (c) Die Matrix ist diagona-
lisierbar.
7.10 Es gilt det.'/ D 15. 0 1
1 0 a2 2 a3
B0 1 2 a 3 a2 C
8.9 (b) E3 M.'/E3 D B @
C
Beweisaufgaben 0 0 0 0 A
0 0 0 0
(c) Es ist B D .a2  2 a X C X 2 ; 2 a3  3 a2 X C
7.11 –
X 3 ; 1; X/ eine geeignete geordnete Basis, es gilt:
7.12 Es gilt det P  2 f˙1g. 0 1
0 0 0 0
B0 0 0 0C
7.13 – B
B M.'/B D @
C
0 0 1 0A
0 0 0 1
7.14 – 0 1
1 0
8.10 (a) Im Fall a 2 R n f1g gilt J D @0 3 0 A,
7.15 – 0 1
1 1 0 0 0 aC2
7.16 –
im Fall a D 1 gilt J D @0 1 0A
0 0 3
(b) Im Fall a D 1 ist B D f.1; 1; 1/> ; .3; 0; 2/> ;
Kapitel 8 .1; 2; 0/> g eine Jordan-Basis. Im Fall a D 1 ist B D
f.1; 1; 1/> ; .3; 3; 3/> ; .0; 0; 1/> g eine Jordan-Basis.
Verständnisfragen
Beweisaufgaben
8.1 (a) Ja, zum Eigenwert 2 . (b) Ja, zum Eigenwert 1 .

8.11 –
8.2 –

8.12 –
8.3 Die Matrizen A und A > haben dieselben Eigenwerte
und auch jeweils dieselben algebraischen und geometri-
schen Vielfachheiten. 8.13 Die Matrix hat den n-fachen Eigenwert 0.

8.4 Nein. 8.14 –

0 1
1 10 2   8.15 –
0 2
8.5 A 1 D @0 1 0A, B D .
1 3
0 3 1 8.16 –

8.6 – 8.17 –
423
Lösungen zu den Übungsaufgaben

0 1
Kapitel 9 0 0 2 0
B0 2 0 6 C
9.13 (b) Es gilt A D B @0 0 6
C. (c) .1; X; 1 
Verständnisfragen 0 A
0 0 0 12
3X 2 ; 3X  5X 3 /. (d) f1g ist eine Basis von ker L. fX; 1 
9.1 Das erste Produkt ist kein Skalarprodukt, das zweite
3X 2 ; 3X  5X 3 g ist eine Basis von L.RŒX3 /.
schon.

9.2 Nein. Beweisaufgaben


9.3 –
9.14 –
9.4 Das Produkt ist für a D 2 und b 2 R hermitesch und
für a D 2 und b > 0 positiv definit. 9.15 –

9.16 –
Rechenaufgaben
9.17 –
0 p p 1
 3 1 2 9.18 –
Bp p C
9.5 Es ist S D p1
6
@ 3 1 p2A
0 2 2 9.19 –

q q q 9.20 –
9.6 (a) Es ist f p1 ; X; 45
8
3
.X
2
2
 1
3
/; 175
8
.X 3  35 X/g
2
eine Orthonormalbasis von Vq. 9.21 –
(b) Der Abstand beträgt 32 5
.
9.22 –
8 0 1 9
< i' i =
9.7 e
p @1A j ' 2 Œ0; 2 Œ . 9.23 –
: 3 ;
1

p Kapitel 10
9.8 Der minimale Abstand ist 2.
Verständnisfragen
9.9 Die Näherungsfunktion f lautet
    10.1 d) ist eine quadratische Form; b), c) und d) sind qua-
2 t 2 t
f D 0:93 C 0:23 cos C 0:46 sin : dratische Funktionen.
12 12

9.10 Ja, sie ist ähnlich zu 10.2 a) ist hermitesch. Es kommt hier keine symmetrische
Bilinearform vor.
 i˛ 
e 0 >
D S D˛ S : 10.3 a)  .x; y/ D 2x1 y2 C 2x2 y1 C x2 y2 C x2 y3 C x3 y2
0 ei˛
b)  .x; y/ D x1 y1  12 x1 y2  12 x2 y1 C 3x1 y3 C 3x3 y1 
9.11 (a) Die Einheitskreislinie wird auf eine Ellipse mit 2x3 y3 .
den
   2und 8 abgebildet. (b) Die zwei Geraden 10.4 b) ist parabolisch.
Halbachsen
1 1
und werden auf sich abgebildet.
1 1

9.12 Es gilt ' D a ı b ı c , mit


Rechenaufgaben
01 0 1 0 1
1 0 0 10.5 Die Darstellungsmatrix M B 0 ./ und je eine mögliche
a D @ 0 A ; b D @ 1 A c D @ 0 A: Umrechnungsmatrix B T B 0 von der gegebenen kanonischen
1 1 1 Darstellung zur diagonalisierten Darstellung lauten:
424 Lösungen zu den Übungsaufgaben

0 1 01 11
1 0 0 2
0 2
10.11 Q. / ist bei c D 1 ein quadratischer Kegel, bei c D
a) M B ./ D 0
0 @ 1 0 A, B T B 0 D @ 0 1 1A 0 ein hyperbolisches Paraboloid und sonst ein einschaliges
0 0 1 0 1 0 Hyperboloid.
0 1 0 1
1 0 0 1 1 1 p p
10.12 a) 3x10 2 C . 2  1/x20 2  . 2 C 1/x30 2  11
D 0.
b) M B 0 ./ D @0 1 0 A, B T B 0 D @1 1 1A 6
Q. / p
ist einpeinschaliges Hyperboloid.
0 0 1 0 0 1 6.3C 105/ x 0 2
p p
6. 1053/ x 0 2
b) 8
1
 8
2
C 2x3 D 0. Q. / ist
Die Signatur .p; r  p; n  r/ lautet in a) .2; 1; 0/, in b) ein hyperbolisches Paraboloid.
.1; 2; 0/. c) 5x10 2  x20 2  x30 2  30. Q. / ist ein zweischaliges
Drehhyperboloid.
10.6 Die diagonalisierte Darstellungsmatrix und eine zu- x0 2 x0 2 x0 2
d) 91 C 42 C 43  1 D 0. Q. / ist ein linsenförmiges
gehörige Transformationsmatrix lauten:
Drehellipsoid.
0 1
1 0 0
M B 0 ./ D @0 1 0A ; 10.13 Q. 0 / ist von Typ 1, Q. 1 / von Typ 2 mit n D r D
0 0 0 6, p D 3.
0 p p 1
1= 2 i= 2 0 p p
B p C 10.14 Die Singulärwerte sind 10 2, 5 2 und 5.
B TB0 D @ 0 1= 2 0A
0 0 1 10.15 0 1 0 p 1
2 4 4 6 2 0 0
Die Signatur von  ist .p; r  p; n  r/ D .1; 1; 1/. AD@ 6 6 3 ADU@ 0 9 0A V >
2 4 4 0 0 0
10.7 Der Rang ist 6, die Signatur .3; 3; 0/.
0 1
1 0 1
1 @ p
10.8 U D p 0 2 0 A;
a) .x/ D 10x30 2  4x20 2 , .p; r  p; n  r/ D .1; 1; 1/, 2 1 0 1
b) .x/ D 3x10 2 C 6x30 2 , .p; r  p; n  r/ D .2; 0; 1/, 0 1
c) .x/ D 2x10 2 C2x20 2 C8x30 2 , .p; r p; nr/ D .3; 0; 0/. 1 2 2
1
V> D @ 2 2 1A
10.9 a) 3 2 1 2
p p
1 C 2 02 1  2 02
.x/ D x1 C x2  1:
4 4 10.16 0 1 0 10 01
y1 5 5 0 y1
Mittelpunkt ist p0, die Hauptachsen haben die Richtung der C @y A 1 @ A @
' W 2 D 2 2 4 y20 A :
Vektoren .1 ˙ 2; 1/> . p 10
y3 1 1 2 y30
b) .x/ D 14 x10 2 C 19 x20 2  1. Mittelpunkt .0; 5/> ,
Hauptachsen in Richtung von .2; 1/> und .1; 2/> . 10.17 x1 D 5:583, x2 D 4:183.
c) .x/ D 12 x10 2  2x2 mit dem Ursprung p D
.9; 3/> und den Achsenrichtungen .3; 4/> und 10.18 GW 0:34017 x C 0:33778 x C 0:87761 D 0.
1 2
.4; 3/> .
10.19 P W x2 D 5
12
x12  235
156
x1 C 263
52
.
10.10 a) Q. / ist kegelig (Typ 1) mit Mittelpunkt beliebig
auf der Geraden G D .t;  12  2t; 2t/> , t 2 R. Wegen
.x/ D .2x1  x3 /.4x1 C 2x2 C 1/ besteht Q. / aus zwei
Ebenen durch G.
Beweisaufgaben
b) Q. / ist eine Quadrik vom Typ 2 mit Mittelpunkt
auf der Geraden . 12 ;  12
5
; t/> , t 2 R, und zwar ein hyper- 10.20 –
bolischer Zylinder mit Erzeugenden parallel zur x3 -Achse.
c) Q. / ist parabolisch (Typ 3), und zwar wegen der 10.21 –
Signatur .2; 0; 1/ der quadratischen Form ein elliptisches
Paraboloid. 10.22 –
425 A–D

Stichwortverzeichnis

1-Norm 315 – orthonormiert 130


2-Norm 128 – Standard- 130
^ 2 Basistransformationsmatrix 212, 313
_ 2 Bewegung im R3 155
) 3 Bewegungsgruppe 155
, 3 Bidualraum 217
Bijektion 15
bijektiv 15
A Bild 13
Abbildung 12 Bild einer linearen Abbildung 179
– affin 149 Bildmenge 13
– dual 217 Bilinearform 308, 364
– Faser 43 – alternierend 364
– involutorisch 37 – entartet 370
– linear 148, 171 – nicht entartet 370
– lineare Fortsetzung 173 – Normalform 373
– selbstinvers 37 – Rang 369
– verknüpfungstreu 39 – symmetrisch 364
abelsche Gruppe 33 binäre Relation 20
abgeschlossen 32 Binomialformel 278
Absolutglied 66 B-Koordinaten 126
Abstand 143, 317
– minimal 327
– orientiert 147
C
Abweichung 71 Cauchy-Schwarz’sche Ungleichung 131, 314
abzählbare Menge 17 Cayley, Arthur 40
Achse der Quadrik 384 Cayley-Hamilton, Satz von 268
adjungiert 350 Charakteristik 51
Adjunkte 239 charakteristisches Polynom 255
adjunkte Matrix 239 – eines Endomorphismus 257
affine Abbildung 149 Cramer’sche Regel 240
affine Gruppe 150
affine Hülle 125
affiner Raum 379
D
affiner Teilraum 124 Darstellungsmatrix 148
Affinkombination 124 – Bestimmung 215
algebraische Vielfachheit 262 – erweitert 380
allgemeine lineare Gruppe 149, 177 – hermitesch kongruent 376
Allquantor 4 – kongruent 369
alternierende Gruppe 42, 225 Defekt 184
angeordnet 51 Definitheit 308
Annäherung 329 – Eigenwertkriterium 349
Anschauungsraum 122 – Hauptminorenkriterium 349
antisymmetrisch 21 Definitionsbereich 12
äquivalentes Gleichungssystem 73 Definitionsmenge 12
Äquivalenz 3 Determinante 134, 138
Äquivalenzklasse 24 – alternierend 236
Äquivalenzrelation 23 – Definition 225
assoziativ 33 – dreireihig 138
Atomium 154 – eines Endomorphismus 230
Ausgleichsproblem – Invertierbarkeitskriterium 238
– linear 328 – normiert 236
Automorphismus 39, 49, 171 – von Blockdreiecksmatrizen 235
– innerer 43 – zweireihig 135
axiale Streckung 394 Determinantenmultiplikationssatz 229
diagonalisierbarer Endomorphismus 251
Diagonalisierbarkeit
B – 1. Kriterium 251
baryzentrische Koordinaten 125 – 2. Kriterium 253
Basis – 3. Kriterium 263
– geordnet 186 – Endomorphismus 251
– kanonisch 130 – Matrix 251
426 Stichwortverzeichnis

Diagonalisieren 264 – Determinante 230


Diagonalisierung von Matrizen 397 – Determinantenmultiplikationssatz 230
Differenz von Mengen 8 – diagonalisierbar 251
Dimensionsformel 181 – Eigenvektor 252
direkte Summe 115 – Eigenwert 252
disjnkte Mengen 8 – Jordan-Normalform 279
Disjunktion 2 – normal 352
Distanz 317 – orthogonal 333
Distanz im R3 127 – selbstadjungiert 344
Distributivgesetz 47 – triangulierbar 273
Division mit Rest 59 – unitär 333
Drehachse 340 Entwicklungssatz von Laplace 231
Drehspiegelung 341 Epimorphismus 171
Drehungsgruppe 158 – kanonischer 182
Dreiecksmatrix 233 erweiterte Koeffizientenmatrix 75
Dreiecksungleichung 132 erweiterte Koordinaten 160
Dualbasis 216 Erzeugendensystem 39
duale Abbildung 217 euklidische Norm 315
Dualraum 214 euklidischer Vektorraum 307–313
Durchschnitt 11 euklidisches Skalarprodukt 308
Durchschnitt von Mengen 8 – Darstellungsmatrix 312
dyadisches Produkt 151 Euler’sche Drehwinkel 157
dyadisches Quadrat 151 Ex falso quodlibet 3
Existenzquantor 4
Exponentialfunktion
E – für Matrizen 269
Ebene
– Hesse’sche Normalform 145 F
echte Teilmenge 7
Fahnenbasis 273
Eigenraum 254
Faktorgruppe 44
– verallgemeinert 288
Familie 13
eigentlich orthogonal 153
Faser 43, 365
Eigenvektor 252
Fehlstand 41, 225
– Berechnung 255
Fibonacci-Zahlen 265
– Drehung 267
Folge
– Spiegelung 267
– relle 13
Eigenwert 252
Folgegleichung 68
– Berechnung 255
Form 308
– Drehung 267
– hermitesch 375
– Eigenraum zum 254
– quadratisch 366
– Hauptraum 288
Frobeniusnorm 396
– k-fach 262 führender Eintrag 76
– Spiegelung 267 Funktion
Eigenwertkriterium 349 – quadratisch 379
Einbettungsabbildung 395 Funktionen 13
Einheitskreis 316
Einheitsmatrix 148
Einheitsquaternion 159 G
Einheitsvektor im R3 127 Gauß
Einschraenkung 14 – Eliminationsverfahren 76
Einselement 46, 201 Gemeinlot 144
Einsetzhomomorphismus 58 geometrische Vielfachheit 262
Eintrag geordnete Basis 186
– Matrix 75 geordnetes n-Tupel 10
elementare Spaltenumformung 209 gerade Permutationen 225
elementare Zeilenumformung 73, 209 Gleichheit von Mengen 8
Elementarmatrizen 209 gleichmächtig 16
Elemente 6 goldener Schnitt 266
elementfremde Mengen 8 GPS
Eliminationsverfahren von Gauß 76 – Global Positioning System 133
Ellipse 385 Grad
Ellipsoid 388 – eines Polynoms 58
endliche Menge 16 Gradformel
Endomorphismus 171, 230 – für Polynome 59
– adjungiert 350 Gram’sche Matrix 312
– charakteristisches Polynom 257 Gram-Schmidt’sches Orthonormierungsverfahren 322
427 D–L
Stichwortverzeichnis

Graph 12 innerer Automorphismus 43


Grassmann-Identität 141 Integritätsbereich 52
Gruppe 33, 53 Interpolationspolynom 241
– abelsch 33 inverse Abbildung 19
– additiv 34 inverse Matrix 149, 203, 206
– affin 150 inverses Element 33
– allgemeine lineare 149, 177 invertierbare Matrix 203
– alternierend 42 Invertierbarkeitskriterium 238, 254
– Bewegungsgruppe 155 Isometrie 335
– Drehungsgruppe 158 isomorph 39
– isomorph 39 isomorphe Vektorräume 171
– kommutativ 33 Isomorphismus 39, 171
– Kürzungsregel 34
– Mächtigkeit 224
– multiplikativ 34
J
– orthogonal 153 Jacobi-Identiät 142
– spezielle lineare 238 Jordan 72
– symmetrisch 35, 224 Jordan-Basis 279
– Untergruppe 36 Jordan-Kästchen 278
Gruppenmultiplikation 34 Jordan-Matrix 278
Gruppentafel 35 Jordan-Normalform 277–283
Jordan-Zerlegung 295
Junktor 2
H
Halbraum 147
Hauptachsen 377
K
Hauptachsentransformation 379–390 K-Algebra 97, 143, 178
Hauptminor 349 kanonischer Epimorphismus 182
Hauptminorenkriterium 349 kanonisches Skalarprodukt 128, 307
Hauptraum 288 Kardinalzahl 11
Hauptraumzerlegung 289 kartesisches Produkt 10
Hauptunterdeterminante 349 Kern 42
Hauptvektor 288 Kern der Matrix 211
Hauptverzerrungsverhältnis 393 Kern einer linearen Abbildung 179
heliozentrisches System 162 Koeffizientenmatrix 75
hermitesch 331, 332, 374 – erweiterte 75
hermitesch kongruent 376 Koeffizientenvergleich 56
hermitesche Form 375 kommutative Gruppe 33
Hesse’sche Normalform 145 Komplement 9, 116
hinreichend 3 – orthogonal 324, 334
Hintereinanderausführung 17 komplexe Zahl 49, 208
höchster Koeffizient Komposition 17
– eines Polynoms 58 kongruent 369
Homomorphiesatz 45, 184 Kongruenz modulo n 21
Homomorphismus 39, 55, 171 Konjugation 49
– Kern 42 konjugiert 50
Hyperbel 385 konjugiert komplexe Zahl 49
Hyperboloid Konjunktion 2
– einschalig 388 Konstanten
– zweischalig 388 – des Polynomrings 56
Hyperebene 337 konstantes Glied
– eines Polynoms 58
konvex 125
I konvexe Hülle 125
idempotent 151 Konvexkombination 124
idempotente Matrix 301 Koordinaten
identischeAbbildung 13 – erweitert 160
Identität 13 Koordinatensystem
imaginäre Einheit 49 – kartesisch 126
Imaginärteil 49 Koordinatentransformation 152
Implikation 3 Koordinatenvektor 186
indefinit 310 Körper 46, 53
induktiv geordnet 23 – angeordnet 51
induzierte Norm 317 Körperautomorphismus 49
Injektion 15 Kreuzprodukt 134
injektiv 15 Kronecker-Delta 130
Inklusion 6 Kronecker-Symbol 269, 321
428 Stichwortverzeichnis

Kürzungsregeln 34 – Kern 183, 211


– kongruent zueinander 313
– negativ definit 310
L – negativ semidefinit 310
Lagrange-Identiät 142 – nilpotent 278
Länge im R3 127, 314, 333 – orthogonal 153, 336
Laplace’scher Entwicklungssatz 231 – positiv definit 310, 333
leere Menge 6 – positiv semidefinit 310
Leibniz’sche Formel 225 – Potenz 197
Lemma von Zorn 23 – Produkt 196
Lie-Algebra 143 – Produkt mit Vektor 174
lineare Abbildung 148, 171 – pseudoinverse 398
– Bild 179, 191 – Rang 76
– Darstellungsmatrix 188 – regulär 149, 203
– Dimensionsformel 181 – schiefhermitesch 353
– Injektivität 180 – schiefsymmetrisch 136
– Kern 179, 191 – singulär 203
– Linearform 214 – Spiegelungsmatrix 339
– Rang 148 – Spur 158
– Singulärwert 393 – symmetrisch 151
lineare Fortsetzung 173 – triangulierbar 273
linearer Operator 320 – unitär 336
lineares Ausgleichsproblem 328 Matrixmultiplikation
lineares Gleichungssystem 66 – Rechenregeln 198
– äquivalentes 73 Matrixprodukt 196
– Definition 72
Maximumsnorm 315
– elementare Zeilenumformungen 73
Menge 5
– Lösung 72
– Abstand 143
– Lösungsmenge 72
– abzählbar 17
– Lösungsverfahren von Gauß und Jordan 72
– Distanz 143
– Näherungslösung 71
– endliche 16
– Stufenform 72
– konvex 125
– Zeilenstufenform 76
– überabzählbar 17
Linearfaktoren 62
Methode der kleinsten Quadrate 329, 401
Linearform 214
metrischer Raum 132
Linearkombination
minimaler Abstand 327
– affin 124
Minimalpolynom einer Matrix 296
– konvex 124
Minkowski-Ungleichung 315
linksinverses Element 33
Linksnebenklasse 37 Mittelpunkt der Quadrik 382
linksneutrales Element 33 Mittelpunktsquadrik 384
Linkssystem 140 Monomorphismus 171
Moore-Penrose Pseudoinverse 398
Multilinearform 236
M Multiplicity 262
Mächtigkeit 11
Matrix 75 N
– adjungiert 352
– ähnlich 212 Nebenklasse 43
– alternierend 136 Negation 2
– Basistransformation 212 negativ definit 310
– Bild 183 negativ semidefinit 310
– Binomialformel 278 neutrales Element 33
– Darstellungsmatrix 188, 215 NICHT 2
– diagonalisierbar 251 nichtlineares Gleichungssystem 66
– diagonalisieren 397 Nilpotenzindex 278
– Drehmatrix 339, 340 Niveaulinie 365
– Eigenschaften invertierbarer M. 204 Norm 307, 314, 315, 333
– Eigenvektor 252 – euklidisch 315
– Eigenwert 252 – induzierte 317
– Elementarmatrizen 209 – Maximumsnorm 315
– Exponentialfunktion 269 Norm im R3 127
– Gram’sche 312 Normalform 340
– hermitesch 332, 375 Normalgleichung 328, 402
– indefinit 310 Normalprojektion 327
– invers 149, 203, 206 – auf Ebene 144
– invertierbar 149, 203 Normalteiler 43
429 L–R
Stichwortverzeichnis

normieren 321 positiv semidefinit 310


normiert 296 positive Definitheit 308, 333
normierter Raum 315 Positivitätsbereich 51
normiertes Polynom 58, 296 Potenz einer Matrix 197
notwendig 3 Potenzmenge 11
n-Tupel 10 Potenzreihe 63
Nullelement 46 Potenzreihenring 63
Nullring 55 Produkt 34, 174
Nullstelle 58 – dyadisches 151
Nullteiler 48 – koordinateninvariant 153
– Skalar- 127
– Spat- 138
O – Vektor- 134
Operator Produktmenge 10
– linear 320 Projektion
Ordnungsrelation 22 – orthogonal 327
orientierter Abstand 147 Pseudoinverse 398
orientiertes Volumen 140
orthogonal 319
– eigentlich 153
Q
Orthogonalbasis 321, 334 QR-Zerlegung 325
orthogonale Gruppe 153 quadratische Form 366
orthogonale Projektion 327, 334 quadratische Funktion 379
orthogonale Summe 326 Quadrik 380
orthogonaler Endomorphismus 333 – Achse der 384
orthogonales Komplement 324 – Achsenlänge 384
Orthogonalprojektion – Gleichung der 380
– auf Ebene 144 – kanonische Gleichung der 380
– auf Gerade 151 – kegelig 384
Orthogonalraum 330 – Mittelpunkt 382
Orthogonalsystem 321 – Mittelpunktsquadrik 384
Orthonormalbasis 321, 334 – parabolisch 384
Orthonormalsystem 321 – Scheitel 384
Orthonormierungsverfahren von Gram und Schmidt 322 Quantoren 4
Ortsvektor 123 – Allquantor 4
– Existenzquantor 4
Quaternion 50
P – Norm 159
Parabel 385 – vektorwertig 159
Paraboloid Quaternionenschiefkörper 51
– elliptisch 389 Quotientenmenge 24
– hyperbolisch 389
Parallelepiped 139
Parallelogrammgleichung 128
R
Parameterdarstellung 68 Radikal 330, 370
Partition 25 Rang 148, 184
Permuation 35 Rang der Bilinearform 369
Permutationen 224 Rang einer Matrix 76
– gerade 225 Raum
– ungerade 225 – metrischer 132
Permutationsgruppe 35 – normiert 315
Permutationsmatrix 210 Realteil 49
Pivotelement 76 Rechte-Hand-Regel 126
p-Norm 315 Rechtsnebenklasse 37
Polarform 366 Rechtssystem 140
Polynom 53 – kartesisch 126
– charakteristisches 255 reelle Folge 13
– Einsetzen 57 reflexiv 21
– Grad 58 Regel von Sarrus 138, 226
– Gradformel 59 reguläre Matrix 203
– höchster Koeffizient 58 Relation 20
– konstantes Glied 58 Restklasse 45
– normiert 58, 296 Restklasse modulo n 27
Polynomfunktion 58 Restklassenkörper 47, 48
Polynominterpolationsaufgabe 241 Restriktion 14
Polynomring 54, 57 Richtungsvektor 123
positiv definit 310 Ring 52, 53
430 Stichwortverzeichnis

– der formalen Potenzreihen 63 – Radikal 370


Ringhomomorphismus 55 – radikalfrei 370
Russell’sche Antinomie 7 symmetrische Gruppe 35

S T
Sarrus, Regel von 138, 226 Teilkörper 49
Satz des Pythagoras 128 Teilmenge 6
Satz von Cayley 40 Teilraum
Satz von Lagrange 37 – affin 124
Scheitel der Quadrik 384 Teilring 55
schiefhermitesch 353 Tetraeder
Schiefkörper 47 – regulär 140
Schmidt’sches Orthonormierungsverfahren 322 Trägheitssatz für Sesquilinearformen 377
selbstadjungiert 344 Trägheitssatz von Sylvester 373
senkrecht 319 Transformation 291
Sesquilinearform 332, 374 Transformationsmatrix 152
– hermitesch 374 – erweitert 160
Signatur 373, 374 transitiv 21
Signum 41, 225 Translation 150
singuläre Matrix 203 Transponierte 200
Singulärwert 393 Transposition 225
Singulärwertzerlegung 392–395 Triangulierbarkeit
Skalarprodukt 127 – Kriterium 275
– ausgeartet 330 triviale Untergruppe 36
– euklidisch 308
– kanonisches 128, 307, 308 U
– Standard- 307
überabzählbare Menge 17
– unitär 331
Umkehrabbildung 19
Skalierung 394
Unbestimmte 57
Spalte 75
ungerade Permutationen 225
Spaltenrang 183
unitärer Endomorphismus 333
Spaltenraum 183
Untergruppe 36
Spat 139
– echt 36
Spatprodukt 138
– trivial 36
– Volumen 139
Untergruppenkriterium 36
Spektralsatz
Unterkörper 49
– für euklidische Räume 356
Urbild 13
– für normale Matrizen 356
Urbildmenge 13
– für symmetrische Matrizen 357
– für unitäre Räume 355
Spektrum 356 V
spezielle lineare Gruppe 238 Vandermonde-Matrix 242
Spiegelung 337 Vektor
Spiegelung an Ebene 152 – Abstand 317
Spur einer Matrix 256 – Distanz 317
Standardbasis 130 – isotrop 330
Standardnorm 128 – Länge 307, 314, 333
Standardskalarprodukt 307 – negativ orientiert 243
Stelle – Norm 307, 314, 333
– Matrix 75 – normieren eines 127
Stufe – Normierung 321
– Zeilenstufenform 76 – orthogonal 319, 330, 334
Stufenform 72 – positiv orientiert 243
Stützstellen 241 – senkrecht 319, 330, 334
Subjunktion 3 – Winkel 318
Summe Vektorprodukt 134
– orthogonal 326 Vektorraum
Surjektion 15 – euklidisch 308
surjektiv 15 – unitär 331
symmetrisch 21 verallgemeinerter Eigenraum 288
symmetrische Bilinearform 364 Vereinigung 11
– Darstellungsmatrix 367 Vereinigung von Mengen 8
– entartet 370 Verkettung 17
– nicht entartet 370 Verknüpfung 32
– Normalform 373 Vielfachheit
431 R–Z
Stichwortverzeichnis

– algebraische 262 Z
– geometrische 262 Zahlenmengen 6
Volumen Zeile 75
– orientiert 140 Zeilenrang 183
Zeilenraum 183
W Zeilenstufenform 76
Zeilenumformungen, elementare 73
Wahrheitstafel 2 Zorn’sches Lemma 23
Wertebereich 12 Zylinder
Wertemenge 12 – elliptisch 388
Winkel 318 – hyperbolisch 388
– zwischen Vektoren 318 – parabolisch 389
springer.com

Willkommen zu den
Springer Alerts
Jetzt
•• Unser Neuerscheinungs-Service für Sie:
anmelden!
aktuell *** kostenlos *** passgenau *** flexibel

Springer veröffentlicht mehr als 5.500 wissenschaftliche Bücher jährlich in


gedruckter Form. Mehr als 2.200 englischsprachige Zeitschriften und mehr
als 120.000 eBooks und Referenzwerke sind auf unserer Online Plattform
SpringerLink verfügbar. Seit seiner Gründung 1842 arbeitet Springer
weltweit mit den hervorragendsten und anerkanntesten Wissenschaftlern
zusammen, eine Partnerschaft, die auf Offenheit und gegenseitigem
Vertrauen beruht.
Die SpringerAlerts sind der beste Weg, um über Neuentwicklungen im
eigenen Fachgebiet auf dem Laufenden zu sein. Sie sind der/die Erste,
der/die über neu erschienene Bücher informiert ist oder das Inhalts-
verzeichnis des neuesten Zeitschriftenheftes erhält. Unser Service ist
kostenlos, schnell und vor allem flexibel. Passen Sie die SpringerAlerts
genau an Ihre Interessen und Ihren Bedarf an, um nur diejenigen Informa-
tion zu erhalten, die Sie wirklich benötigen.

Mehr Infos unter: springer.com/alert


A14445 | Image: Tashatuvango/iStock

Das könnte Ihnen auch gefallen