Sie sind auf Seite 1von 432

de Gruyter Lehrbuch

Kowalsky/Michler Lineare Algebra


Hans-Joachim Kowalsky
Gerhard O. Michler
Lineare Algebra
12., berarbeitete Auflage

Walter de Gruyter
Berlin New York 2003
Hans-Joachim Kowalsky
Am Schiefen Berg 20
38302 Wolfenbttel
Gerhard O. Michler
Hofringstr. 25
45138 Essen
Mathematics Subject Classification 2000: 15-01
Auflagenchronik:
1. Auflage 1963
2. Auflage 1965
3. Auflage 1967
4. Auflage 1968
5. Auflage 1970
6. Auflage 1971
7. Auflage 1974
8. Auflage 1977
9. Auflage 1979
10. Auflage 1995
11. Auflage 1998
Gedruckt auf surefreiem Papier, das die US-ANSI-Norm ber Haltbarkeit erfllt.
ISBN 3-11-017963-6
Bibliografische Information Der Deutschen Bibliothek
Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Daten sind im Internet
ber http://dnb.ddb.de abrufbar.
Copyright 2003 by Walter de Gruyter GmbH & Co. KG, 10785 Berlin.
Dieses Werk einschlielich aller seiner Teile ist urheberrechtlich geschtzt. Jede Verwer-
tung auerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des
Verlages unzulssig und strafbar. Das gilt insbesondere fr Vervielfltigungen, berset-
zungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen
Systemen.
Printed in Germany.
Umschlaggestaltung: Hansbernd Lindemann, Berlin.
Konvertierung von LAT
E
X-Dateien der Autoren: I. Zimmermann, Freiburg.
Druck und Bindung: Hubert & Co. GmbH & Co. KG, Gttingen.
Vorwort
Da die 12. Auage der Linearen Algebra gerade im 40. Erscheinungsjahr des Buchs
herauskommt, ist es den Verfassern ein Anliegen, bereits am Anfang des Vorworts
demVerlag fr die langjhrige engagierte, verstndnisvolle und entgegenkommende
Zusammenarbeit zu danken. Eine bedeutende Frderung erfuhr das Buch seitens des
Verlages durch Herrn Dr. Karbe. Mit Einfhlungsvermgen und fachlicher Kom-
petenz gelang ihm 1994 die Verpichtung eines zweiten Autors, so da dann in
gemeinsamer Arbeit beider Autoren die 10. Auage in neuer berarbeitung und in
modernisierter Form erscheinen konnte.
Diese 12. Auage weist gegenber der vorigen nur eine wesentliche Umstellung
auf, in deren Folge lediglich unbedeutende nderungen auftreten. Die fr Anwender
wichtige Jordansche Normalform quadratischer Matrizen, die bisher erst nach der
Behandlung der Moduln am Ende des Buchs auftrat, wird jetzt bereits in Kapitel 6

Eigenwerte und Eigenvektoren auf elementareremWeg gewonnen. Dadurch wird


die fr mancherlei Anwendungen wnschenswerte Behandlung schon im ersten Se-
mester ermglicht. Als ein Anwendungsbeispiel wird anschlieend auf das Lsen
homogener linearer Differentialgleichungssysteme 1. Ordnung eingegangen.
Abschlieend gilt unser besonderer Dank Frau B. Hasel fr die groe Mhe und
fr ihr Engagement bei der Erstellung des neuen Textes und der durch ihn bedingten
Korrekturen.
Braunschweig und Essen, Mai 2003 H.-J. Kowalsky
G. O. Michler
Einleitung
In der Mathematik hat man es vielfach mit Rechenoperationen zu tun, die sich zwar
auf vlligverschiedene Rechengrenbeziehenundsomit auchauf ganz unterschied-
liche Weise deniert sein knnen, die aber trotz dieser Verschiedenheit gemeinsamen
Rechenregeln gehorchen. In der Algebra abstrahiert man von der speziellen Natur
der Rechengren und Rechenoperationen und untersucht ganz allgemein die Ge-
setzmigkeiten, denen sie unterliegen. Ausgehend von einigen Rechenregeln, die
man als Axiome an den Anfang stellt, entwickelt man die Theorie der durch diese
Axiome charakteristierten abstrakten Rechenstrukturen. Die LineareAlgebra bezieht
sich speziell auf zwei Rechenoperationen, die sogenannten linearen Operationen, und
auf die entsprechenden Rechenstrukturen, die man als Vektorrume bezeichnet. Die
grundlegende Bedeutung der Linearen Algebra besteht darin, da zahlreiche kon-
krete Strukturen als Vektorrume aufgefat werden knnen, so da die allgemein
gewonnenen Ergebnisse der abstrakten Theorie auf sie anwendbar sind.
Das Hauptinteresse der Linearen Algebra gilt indes nicht nur dem einzelnen
Vektorraum, sondern auch den Beziehungen, die zwischen Vektorrumen bestehen.
Derartige Beziehungen werden durch spezielle Abbildungen beschrieben, die mit
den linearen Operationen vertrglich sind und die man lineare Abbildungen nennt.
Dieses Buch behandelt den Stoff einer zweisemestrigen Vorlesung ber Lineare
Algebra. Seine Lektre erfordert zwar keine speziellenVorkenntnisse, setzt aber doch
beimLeser eine gewisseVertrautheit mit mathematischen Begriffsbildungen und Be-
weismethoden voraus. Die Stoffanordnung folgt nur teilweise systematischen Ge-
sichtspunkten, die vielfach zugunsten didaktischer Erwgungen durchbrochen sind.
Neben der Beschreibung der Struktur einesVektorraums und der Klassikation seiner
linearen Abbildungen in sich wird der Entwicklung der Algorithmen fr die Berech-
nung der zugehrigen Invarianten und Normalformen ein breiter Raum gegeben.
Daher werden zunchst die endlich-dimensionalen Vektorrume und ihre Abbildun-
gen behandelt. Danach wird der allgemeine, nicht notwendig endlich-dimensionale
Fall betrachtet.
Die fr Anwender wichtige Jordansche Normalformquadratischer Matrizen wird
in Kapitel 6

Eigenwerte und Eigenvektoren auf elementarerem Weg gewonnen.


Die rationale Normalform einer Matrix und die Elementarteilertheorie werden in
Kapitel 12 als Anwendungen des Struktursatzes ber endlich erzeugte Moduln ber
Hauptidealringen behandelt. Er wird in Kapitel 11 bewiesen. Dazu werden in Ka-
VIII Einleitung
pitel 9 einige Grundlagen aus der Ringtheorie und der Theorie der Moduln ber
kommutativen Ringen bereitgestellt.
In den Kapiteln 9 und 10 wird auch die Struktur der Gesamtheit aller linearen
Abbildungen untersucht. Hierbei treten die Vektorrume bzw. Moduln nur noch als
bloe Objekte auf, zwischen denen universelle Abbildungen deniert sind, deren
interne Struktur aber nicht mehr in Erscheinung tritt. Dennoch knnen interne Ei-
genschaften vonVektorrumen und Moduln auch extern in der Kategorie der linearen
Abbildungen beschrieben werden. Gerade diese Mglichkeit spielt bei der Konstruk-
tion des Tensorprodukts und der damit abgeleiteten Theorie der Determinanten ber
kommutativen Ringen im zehnten Kapitel eine wesentliche Rolle.
Da bei Anwendungen der Linearen Algebra oft lineare Gleichungssysteme mit
einer groen Anzahl von Unbekannten und linearen Gleichungen oder Normalform-
probleme von groen Matrizen auftreten, die nur mit Hilfe von Computern gelst
werden knnen, wird der mathematische Stoff nicht nur theoretisch sondern auch
vom algorithmischen Standpunkt aus behandelt. Alle Algorithmen zur Berechnung
von Normalformen von Matrizen werden in der heute blichen Bezeichnungswei-
se abgefat, vgl. Algorithmen-Konvention 4.1.17 in Kapitel 4. Sie knnen auch in
die Syntax von Computeralgebrasystemen wie Maple [3] oder Mathematica [32]
bersetzt werden.
Bei der Numerierung wurde folgendes Prinzip angewandt: Denitionen, Stze
und Beispiele sind an erster Stelle durch die Nummer des jeweiligen Kapitels ge-
kennzeichnet. An zweiter Stelle steht die Nummer desAbschnitts und an dritter Stelle
werden schlielich Denitionen, Stze, Beispiele u.s.w. durchnumeriert. Die Aufga-
ben sind jeweils am Ende eines Kapitels in einem gesondertenAbschnitt zusammen-
gestellt. Das Ende eines Beweises ist durch das Zeichen kenntlich gemacht. Neu
denierte Begriffe sind im Text im allgemeinen durch Kursivdruck hervorgehoben;
auf sie wird im Sachverzeichnis verwiesen.
AmEnde des Buches benden sich zwei Anhnge. ImAnhangAwerden Hinwei-
se zur Benutzung von Computeralgebrasystemen gegeben. Dazu gehrt ein ber-
blick ber die Rechenverfahren, die man mit Maple oder Mathematica durchfhren
kann. Es wird auerdem anhand einer 11 11-Matrix Amit ganzzahligen Koefzi-
enten und Eigenwerten gezeigt, wie man die Jordansche Normalform J von A und
die Transformationsmatrix P mit J = P
1
AP schrittweise mit Maple berechnen
kann.
Der Anhang B enthlt die Lsungen der Aufgaben, die aus Platzgrnden al-
lerdings sehr knapp gehalten sind. Bei numerischen Aufgaben, deren Lsungsweg
vorher behandelt wurde, sind im allgemeinen nur die Ergebnisse angegeben.
An diese beiden Anhnge schliet sich das Literaturverzeichnis an, das nur eine
kleine Auswahl der Lehrbuchliteratur enthlt. Es folgt der Index.
Inhaltsverzeichnis
Vorwort V
Einleitung VII
Bezeichnungen und Symbole XII
1 Grundbegriffe 1
1.1 Mengentheoretische Grundbegriffe . . . . . . . . . . . . . . . . . . 1
1.2 Produktmengen und Relationen . . . . . . . . . . . . . . . . . . . . 6
1.3 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Krper und Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Vektorrume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . 20
1.7 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Struktur der Vektorrume 23
2.1 Unterrume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Direkte Summen und Struktursatz . . . . . . . . . . . . . . . . . . 36
2.4 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3 Lineare Abbildungen und Matrizen 43
3.1 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.3 Matrix einer linearen Abbildung . . . . . . . . . . . . . . . . . . . 60
3.4 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.5 quivalenz und hnlichkeit von Matrizen . . . . . . . . . . . . . . 67
3.6 Abbildungsrume und Dualraum . . . . . . . . . . . . . . . . . . . 70
3.7 Matrizen und direkte Zerlegung . . . . . . . . . . . . . . . . . . . 75
3.8 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
X Inhaltsverzeichnis
4 Gau-Algorithmus und lineare Gleichungssysteme 80
4.1 Gau-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.2 Lsungsverfahren fr Gleichungssysteme . . . . . . . . . . . . . . 90
4.3 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5 Determinanten 99
5.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.2 Multilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.3 Determinanten von Endomorphismen und Matrizen . . . . . . . . . 106
5.4 Rechenregeln fr Determinanten von Matrizen . . . . . . . . . . . . 110
5.5 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.6 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6 Eigenwerte und Eigenvektoren 121
6.1 Charakteristisches Polynom und Eigenwerte . . . . . . . . . . . . . 121
6.2 Diagonalisierbarkeit von Matrizen . . . . . . . . . . . . . . . . . . 128
6.3 Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . 132
6.4 Anwendung der Jordanschen Normalform . . . . . . . . . . . . . . 144
6.5 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
7 Euklidische und unitre Vektorrume 152
7.1 Skalarprodukte und Hermitesche Formen . . . . . . . . . . . . . . 152
7.2 Betrag und Orthogonalitt . . . . . . . . . . . . . . . . . . . . . . 158
7.3 Orthonormalisierungsverfahren . . . . . . . . . . . . . . . . . . . . 164
7.4 Adjungierte Abbildungen und normale Endomorphismen . . . . . . 169
7.5 Orthogonale und unitre Abbildungen . . . . . . . . . . . . . . . . 178
7.6 Hauptachsentheorem . . . . . . . . . . . . . . . . . . . . . . . . . 182
7.7 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
8 Anwendungen in der Geometrie 194
8.1 Afne Rume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
8.2 Afne Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . 200
8.3 Kongruenzen und Drehungen . . . . . . . . . . . . . . . . . . . . . 204
8.4 Projektive Rume . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
8.5 Projektivitten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
8.6 Projektive Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . 225
8.7 Afne Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
8.8 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Inhaltsverzeichnis XI
9 Ringe und Moduln 244
9.1 Ideale und Restklassenringe . . . . . . . . . . . . . . . . . . . . . 244
9.2 Moduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
9.3 Kommutative Diagramme und exakte Folgen . . . . . . . . . . . . 255
9.4 Endlich erzeugte und freie Moduln . . . . . . . . . . . . . . . . . . 257
9.5 Matrizen und lineare Abbildungen freier Moduln . . . . . . . . . . 262
9.6 Direkte Produkte und lineare Abbildungen . . . . . . . . . . . . . . 264
9.7 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
10 Multilineare Algebra 279
10.1 Multilineare Abbildungen und Tensorprodukte . . . . . . . . . . . . 279
10.2 Tensorprodukte von linearen Abbildungen . . . . . . . . . . . . . . 287
10.3 Ringerweiterungen und Tensorprodukte . . . . . . . . . . . . . . . 289
10.4 uere Potenzen und alternierende Abbildungen . . . . . . . . . . . 292
10.5 Determinante eines Endomorphismus . . . . . . . . . . . . . . . . 298
10.6 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
11 Moduln ber Hauptidealringen 303
11.1 Eindeutige Faktorzerlegung in Hauptidealringen . . . . . . . . . . . 304
11.2 Torsionsmodul eines endlich erzeugten Moduls . . . . . . . . . . . 312
11.3 Primrzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
11.4 Struktursatz fr endlich erzeugte Moduln . . . . . . . . . . . . . . 318
11.5 Elementarteiler von Matrizen . . . . . . . . . . . . . . . . . . . . . 324
11.6 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
12 Normalformen einer Matrix 346
12.1 Vektorrume als Moduln ber einem Polynomring . . . . . . . . . . 346
12.2 Rationale kanonische Form . . . . . . . . . . . . . . . . . . . . . . 350
12.3 Berechnungsverfahren fr die Normalformen . . . . . . . . . . . . 353
12.4 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
A Hinweise zur Benutzung von Computeralgebrasystemen 367
B Lsungen der Aufgaben 372
B.1 Lsungen zu Kapitel 1 . . . . . . . . . . . . . . . . . . . . . . . . 372
B.2 Lsungen zu Kapitel 2 . . . . . . . . . . . . . . . . . . . . . . . . 373
B.3 Lsungen zu Kapitel 3 . . . . . . . . . . . . . . . . . . . . . . . . 374
B.4 Lsungen zu Kapitel 4 . . . . . . . . . . . . . . . . . . . . . . . . 378
B.5 Lsungen zu Kapitel 5 . . . . . . . . . . . . . . . . . . . . . . . . 380
B.6 Lsungen zu Kapitel 6 . . . . . . . . . . . . . . . . . . . . . . . . 382
B.7 Lsungen zu Kapitel 7 . . . . . . . . . . . . . . . . . . . . . . . . 388
B.8 Lsungen zu Kapitel 8 . . . . . . . . . . . . . . . . . . . . . . . . 391
B.9 Lsungen zu Kapitel 9 . . . . . . . . . . . . . . . . . . . . . . . . 395
XII Inhaltsverzeichnis
B.10 Lsungen zu Kapitel 10 . . . . . . . . . . . . . . . . . . . . . . . . 397
B.11 Lsungen zu Kapitel 11 . . . . . . . . . . . . . . . . . . . . . . . . 399
B.12 Lsungen zu Kapitel 12 . . . . . . . . . . . . . . . . . . . . . . . . 402
Literatur 407
Index 409
Bezeichnungen und Symbole
Alle Vektorrume V sind Rechtsvektorrume ber einem kommutativen Krper F,
d. h. die Krperelemente f F operieren von rechts auf den Vektoren v der abel-
schen Gruppe V, die stets fett gedruckt sind. Abbildungen : V W zwischen
Vektorrumen werden mit kleinen griechischen Buchstaben bezeichnet; sie operie-
ren von links auf den Vektoren v V. Diese Schreibweise hat den Vorteil, da die
Matrix A

, die zur Hintereinanderausfhrung zweier linearer Abbildungen


und gehrt, das Produkt A

der beiden Matrizen A

und A

der linearen
Abbildungen und ist, vgl. Satz 3.3.7.
Wegen der Denition des Produkts zweier Matrizen (vgl. 3.1.17) erfordert aller-
dings diese Festlegung, da ein Vektor a = (a
1
, a
2
, . . . , a
n
) des n-dimensionalen
arithmetischen Vektorraums F
n
ber dem Krper F in diesem Buch stets als Spal-
tenvektor
a =
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
aufgefat wird. Da Spaltenvektoren drucktechnisch sehr unbequem sind und zuviel
Platz in Anspruch nehmen, werden die Vektoren a F
n
meist als Textzeilen a =
(a
1
, a
2
, . . . , a
n
) geschrieben, d. h. a = (a
1
, a
2
, . . . , a
n
) F
n
bedeutet, da a als
Spaltenvektor aufzufassen ist.
An wenigen Stellen des Buches ist es notwendig, Spalten- und Zeilenvektoren
zur gleichen Zeit zu betrachten. In diesen Fllen schreibt man:
F
n
s
= F
n
fr den n-dimensionalen Spaltenraum ber dem Krper F,
F
n
z
fr den n-dimensionalen Zeilenraum ber dem Krper F.
Bei Matrizen sind bisweilen Nulleintrge der bersicht halber leer gelassen.
Whrend im ersten Kapitel die Verknpfung zweier Elemente in einer Gruppe
bzw. die Hintereinanderausfhrung zweier Abbildungen mit gekennzeichnet wird,
wird ab Kapitel 2 auf dieses Zeichen verzichtet und ab statt a b bzw. statt
geschrieben. Die Addition in einemVektorraum, Modul, Ring oder Krper wird stets
mit + bezeichnet.
XIV Bezeichnungen und Symbole
F
n
s
(S. XIII)
F
n
z
(S. XIII)
N (1.1; S. 1)
Z (1.1; S. 2)
M N (1.1.1; S. 2)
M N (1.1.2; S. 2)
_
{M | M S} (1.1.3; S. 2)
_
MS
M (1.1.3; S. 2)

{M | M S} (1.1.4; S. 2)

MS
M (1.1.4; S. 2)
M\N (1.1.6; S. 3)
{A

| A} (1.1.6; S. 3)
(1.1.13; S. 5)

(1.1.10; S. 5)
id (1.1.14; S. 5)
A B (1.2.1; S. 6)

(1.2.3; S. 6)
A
n
(1.2.3; S. 6)
(1.2.4; S. 6)
|G| (1.3.1; S. 9)
Q

(1.3.2b; S. 9)
R

(1.3.2b; S. 9)
S
n
(1.3.2c; S. 10)
U G (1.3.9; S. 11)
Q (1.4.2a; S. 13)
R (1.4.2a; S. 13)
C (1.4.2b; S. 13)
F

(1.4; S. 13)
Re (1.4.2b; S. 13)
Im (1.4.2b; S. 13)
Grad f (1.4.3c; S. 14)
F[X] (1.4.3c; S. 15)
_
n
k
_
(1.4.3c; S. 21)
U V (2.1.1; S. 24)
v
i
| 1 i r (2.1.7; S. 26)
M (2.1.9; S. 26)
dimV (2.2.12; S. 31)
dim
F
V (2.2.12; S. 31)
dimU = (2.2.12; S. 31)

A
U

(2.3.2; S. 36)

A
U

(2.3.4; S. 37)
U
1
U
2
U
n
(2.3.4; S. 37)
s(A) (3.1.1; S. 44)
z(A) (3.1.1; S. 44)
E
n
(3.1.2b; S. 45)
A
T
(3.1.25; S. 51)
A
1
(3.1.29; S. 51)
V

= W (3.2.2; S. 53)
Ker() (3.2.6; S. 55)
Im() (3.2.6; S. 55)
rg() (3.2.16; S. 59)
A

(A, B) (3.3.1; S. 60)


rg(A) (3.4.5; S. 66)
A B (3.5.1; S. 68)
tr(A) (3.5.6; S. 69)
Hom
F
(V, W) (3.6; S. 70)
End
F
(V) (3.6.2; S. 71)
GL(V) oder GL(n, F) (3.6.3; S. 71)
Mat
m,n
(F) (3.6.4; S. 71)
R

= S (3.6.5; S. 72)
Mat
n
(F) (3.6.6a; S. 72)
V

(3.6.7; S. 73)
U

(3.6.11; S. 74)

|U
(3.7.2; S. 75)
ZV(i, j) (4.1.12a; S. 83)
ZM(i, a) (4.1.12b; S. 83)
ZA(i, j, a) (4.1.12c; S. 84)
T (A) (4.1.18; S. 86)
zpivot (A, i, j) (4.1.22; S. 88)
spivot (A, i, j) (4.1.22; S. 88)
sign (5.1.8; S. 101)
A
n
(5.1.12; S. 102)
det() (5.3.1; S. 106)
det A (5.3.4; S. 109)
adj A (5.5; S. 117)
char Pol
A
(X) (6.1.8; S. 123)
char Pol

(X) (6.1.8; S. 123)


diag(d
1
, . . . , d
n
) (6.2.3; S. 129)
J
ij
i
(6.3.11d; S. 140)
(7.1.14; S. 157)
|x| (7.2.2; S. 159)
cos(x, y) (7.2.9; S. 161)
Bezeichnungen und Symbole XV

i,j
(7.2; S. 162)
M N (7.3.4; S. 167)

(7.4.1; S. 169)
A

(7.4.4; S. 170)
O(n, R) (7.5.10a; S. 181)
U(n, C) (7.5.10b; S. 181)
t (A) (7.6.7; S. 187)
U A (8.1.4; S. 195)

pq (8.1.1; S. 194)
dimA = dimV
A
(8.1.1; S. 195)
{U : U S} (8.1.8; S. 196)
U
1
U
n
(8.1.8; S. 196)
UW (8.1.13; S. 197)
T V(x, y, z) (8.1.24; S. 200)
p dimP (8.4.1; S. 215)
DV(x, y, z, u) (8.4.14; S. 221)
Q Q

(8.6.6; S. 227)
u(Q) (8.6.9; S. 227)
d(Q) (8.6.14; S. 229)
Q
0
Q

0
(8.7.4; S. 232)
Q Q

(8.7.4; S. 232)
r s (9.1.4; S. 245)
r
Y
s (9.1.4; S. 245)

k
i=1
U
i
(9.2.6; S. 250)

k
i=1
U
i
(9.2.7; S. 250)
Hom
R
(M, N) (9.2.9; S. 251)
u
U
v (9.2.13; S. 251)
M/U (9.2.15; S. 253)
R
M
(9.4.13; S. 260)

A
M

(9.6.2; S. 266)
A
R
B (10.1.4; S. 280)
a b (10.1.4; S. 280)

p
M (10.1.12; S. 285)
AB (10.2.2; S. 288)
_
p
M (10.4.1; S. 292)
a
1
a
2
a
p
(10.4.1; S. 292)
t | a (11.1.13; S. 307)
ggT(a, b) (11.1.14; S. 307)
kgV(a, b) (11.1.15; S. 307)
Ann(m) (11.3.3; S. 316)
o(M) (11.3.6; S. 318)
o(m) (11.3.7; S. 318)
diag(a
1
, . . . , a
r
, 0) (11.5.5; S. 328)
m(X) (12.1.4; S. 347)
C(f (X)) (12.1.8; S. 348)
1 Grundbegriffe
Die lineare Algebra beschreibt die algebraische Struktur der Vektorrume ber Kr-
pern. Darber hinaus analysiert sie die strukturvertrglichen Abbildungen zwischen
diesen linearen Rumen. Hiermit liefert sie wesentliche Grundlagen fr fast alle
Arbeitsgebiete der modernen Mathematik. Insbesondere stellt sie Algorithmen und
Methoden bereit zum Lsen von linearen Gleichungssystemen und zur Klassika-
tion geometrischer Strukturen, wie z. B. der Kurven und Flchen zweiter Ordnung.
Der fr das ganze Buch grundlegende Begriff Vektorraumwird einschlielich einiger
einfacher Eigenschaften im vierten Abschnitt dieses Kapitels behandelt. Ihm liegt
einerseits der Begriff einer Gruppe und andererseits eines Krpers zugrunde. Die mit
diesen beiden Strukturbegriffen jeweils zusammengefaten Rechengesetze werden
in den beiden Abschnitten 3 und 4 dieses Kapitels beschrieben.
In den spteren Kapiteln des Buches wird die Bedeutung eines gewonnenen
theoretischen Ergebnisses sehr oft anhand seiner Anwendung auf die Beschreibung
undBerechnungder Lsungsgesamtheit eines linearenGleichungssystems illustriert.
Deshalb werden die grundlegenden Bezeichnungen und Aufgabenstellungen der
Theorie der linearen Gleichungssysteme im letzten Abschnitt des Kapitels darge-
stellt.
Neben diese algebraischen Grundlagen treten als wesentliche Voraussetzung
noch einige einfache Begriffe der Mengenlehre, die in den ersten beiden Paragraphen
aus Grnden der Bezeichnungsnormierung zusammengestellt werden. Der Mengen-
begriff wird dabei als intuitiv gegeben vorausgesetzt; auf die axiomatische Begrn-
dung wird nicht eingegangen.
1.1 Mengentheoretische Grundbegriffe
Die Objekte, aus denen eine Menge besteht, werden ihre Elemente genannt. Fr

x ist ein Element der Menge M schreibt man

x M. Die Negation dieser


Aussage wird durch

x M wiedergegeben. Statt

x
1
M und . . . und x
n

M wird krzer

x
1
, . . . , x
n
M geschrieben. Eine spezielle Menge ist die leere
Menge, die dadurch charakterisiert ist, da sie berhaupt keine Elemente besitzt. Sie
wird mit dem Symbol bezeichnet. Weitere hug auftretende Mengen sind:
N Menge aller natrlichen Zahlen einschlielich der Null.
2 1 Grundbegriffe
Z Menge aller ganzen Zahlen.
Q Menge aller rationalen Zahlen.
R Menge aller reellen Zahlen.
C Menge aller komplexen Zahlen.
1.1.1 Denition. Eine Menge M heit Teilmenge einer Menge N, wenn aus x M
stets x N folgt.
Bezeichnung: M N.
Die leere Menge ist Teilmenge jeder Menge; auerdem ist jede Menge Teil-
menge von sich selbst.
1.1.2 Denition. Gilt M N und M = N, so heit M eine echte Teilmenge von
N.
Bezeichnung: M N.
Die Elemente einer Menge S knnen selbst Mengen sein. Es wird dann S bis-
weilen auch als Mengensystem bezeichnet.
1.1.3 Denition. Der Durchschnitt D eines nicht-leeren Mengensystems S ist die
Menge aller Elemente, die gleichzeitig Elemente aller Mengen M des Systems S
sind. Es ist also x D gleichwertig mit x M fr alle Mengen M S.
Bezeichnung: D =
_
MS
M oder D =
_
{M | M S}.
D = M
1
M
2
M
n
, falls S nur aus den endlich vielen Mengen M
1
, . . . , M
n
besteht.
Die Gleichung MN = besagt, da die Mengen M und N kein gemeinsames
Element besitzen.
1.1.4 Denition. Die Vereinigung V eines nicht-leeren Mengensystems S ist die
Menge aller derjenigen Elemente, die zu mindestens einer Menge M aus S gehren.
Bezeichnung: V =

MS
M oder V =

{M | M S}.
V = M
1
M
n
, falls S aus endlich vielen Teilmengen M
1
, M
2
, . . . , M
n
besteht.
Mit Hilfe der Denitionen von Durchschnitt und Vereinigung ergeben sich un-
mittelbar folgende Beziehungen, deren Beweis dem Leser berlassen bleiben mge.
1.1.5 Hilfssatz.
(a) M (N
1
N
2
) = (M N
1
) (M N
2
),
(b) M (N
1
N
2
) = (M N
1
) (M N
2
),
1.1 Mengentheoretische Grundbegriffe 3
(c) M N = M ist gleichbedeutend mit M N,
(d) M N = M ist gleichbedeutend mit N M.
Endliche Mengen knnen durchAngabe ihrer Elemente gekennzeichnet werden.
Man schreibt {x
1
, . . . , x
n
} fr diejenige Menge M, die genau aus den angegebenen
n Elementen besteht. Die einelementige Menge {x} ist von ihrem Element x zu
unterscheiden: So ist z. B. {} diejenige Menge, deren einziges Element die leere
Menge ist.
Die Anzahl der Elemente einer endlichen Menge M wird mit |M| bezeichnet.
Diese Zahl |M| heit auch Mchtigkeit von M. So ist z. B. |{}| = 1 und || = 0.
Ein anderes Mittel zur Beschreibung von Mengen besteht darin, da man alle Ele-
mente einer gegebenen Menge X, die eine gemeinsame Eigenschaft E besitzen, zu
einer neuen Menge zusammenfat. Bedeutet E(x), da x die Eigenschaft E besitzt,
so bezeichnet man diese Menge mit {x X | E(x)}. So ist z. B. {x Z | x
2
= 1} die
aus den Zahlen +1 und 1 bestehende Teilmenge der Menge aller ganzen Zahlen.
Bei dieser Art der Mengenbildung ist die Angabe der Bezugsmenge X wesentlich,
aus der die Elemente entnommen werden, da sonst widerspruchsvolle Mengen ent-
stehen knnen. Da die Bezugsmenge jedoch im allgemeinen durch den jeweiligen
Zusammenhang eindeutig bestimmt ist, soll in diesen Fllen auf ihre expliziteAngabe
verzichtet werden.
1.1.6 Denition. Die Differenzmenge zweier Mengen M und N ist die Menge
M \ N = {x M | x N}.
Viele mathematische Beweise beruhen auf dem Prinzip der vollstndigen Induk-
tion, das bei der axiomatischen Begrndung des Aufbaus der natrlichen Zahlen eine
wichtige Rolle spielt.
1.1.7 Prinzip der vollstndigen Induktion. Es sei A eine Aussage ber natrliche
Zahlen n N. A(n) bedeute, da Aauf n zutrifft. Von einem festen n
0
Nan gelte:
(a) Induktionsanfang: A(n
0
),
(b) Induktionsschlu: Fr alle n > n
0
folgt aus A(n 1) auch A(n).
Dann ist A fr alle natrlichen Zahlen n n
0
richtig.
Es sei darauf hingewiesen, da es oft bequemer ist, den Induktionsschlu in der
folgenden Form durchzufhren:
(b

) Aus A(i) fr alle i mit n


0
i < n folgt auch A(n).
Die Bedingungen (b) und (b

) sind gleichwertig, wie man unmittelbar einsieht.


Als Beispiel fr einen Induktionsbeweis dient der Beweis des folgenden Satzes.
4 1 Grundbegriffe
1.1.8 Satz. Sei M eine n-elementige Menge. Sei P = P(M) die Menge aller Teil-
mengen von M. Dann besteht die Potenzmenge P von M aus 2
n
Elementen.
Beweis: Induktionsanfang: n = 0.
M hat kein Element. Deshalb ist M die leere Menge . Wegen P() = {} gibt
es 1 = 2
0
Elemente in P.
Sei n N, n 1.
Induktionsannahme: Jede (n 1)-elementige Menge habe genau 2
n1
verschie-
dene Teilmengen.
Induktionsbehauptung: Ist M eine Menge mit n Elementen, so besteht P(M) aus
2
n
Elementen.
Dazu sei M = {a
1
, . . . , a
n
}. Dann hat P(M

) fr M

= {a
1
, . . . , a
n1
} nach
Induktionsannahme genau 2
n1
Elemente. Ist A P(M), dann ist entweder a
n
A
oder a
n
A. Im zweiten Fall gehrt A zu P(M

), und im ersten Fall ist A

=
A \ {a
n
} P(M

). Also besitzt P(M) genau 2


n1
+ 2
n1
= 2
n1
(1 + 1) = 2
n
Elemente. NachdemPrinzipder vollstndigenInduktionist hiermit bewiesen, dafr
jede n-elementige Menge M die Potenzmenge P(M) genau 2
n
Elemente besitzt.
Ein wichtiges Beweishilfsmittel beimStudiumunendlicher Mengen ist das Zorn-
sche Lemma. Es sei S ein nicht-leeres Mengensystem. Eine nicht-leere Teilmenge
K von S heit eine Kette, wenn aus M
1
, M
2
K stets M
1
M
2
oder M
2
M
1
folgt. Eine Menge M S heit ein maximales Element von S, wenn aus N S und
M N stets M = N folgt. Das Zornsche Lemma lautet nun:
1.1.9 Lemma von Zorn. Wenn fr jede Kette K des nicht-leeren Mengensystems S
auch die Vereinigungsmenge

{K | K K} ein Element von S ist, dann gibt es in


S ein maximales Element.
Auf den Beweis dieses Satzes kann hier nicht eingegangen werden.
Es seien jetzt X und Y zwei nicht-leere Mengen. Unter einer Abbildung von
X in Y (in Zeichen: : X Y) versteht man dann eine Zuordnung, die jedem
Element x X eindeutig ein Element y Y als Bild zuordnet. Das Bild y von x bei
der Abbildung wird mit (x) oder auch einfach mit x bezeichnet. Die Menge X
heit der Denitionsbereich der Abbildung , die Menge Y ihr Zielbereich.
Ist eine Abbildung von X in Y und M eine Teilmenge von X, so nennt man die
Menge aller Bilder von Elementen x M entsprechend das Bild der Menge M und
bezeichnet es mit (M) oder einfach mit M. Es gilt also
M = {x | x M},
und M ist eine Teilmenge von Y. Das Bild der leeren Menge ist wieder die leere
Menge. Das Bild X des Denitionsbereichs wird auch Bild von genannt und mit
Im bezeichnet.
1.1 Mengentheoretische Grundbegriffe 5
1.1.10 Denition. Gilt Im = Y fr die Abbildung : X Y, so nennt man
eine surjektive Abbildung, eine Surjektion oder eine Abbildung von X auf Y.
Umgekehrt sei N eine Teilmenge von Y. Dann wird die Menge aller Elemente von
X, deren Bild ein Element von N ist, das Urbild von N bei der Abbildung genannt
und mit

(N) bezeichnet. Es gilt also

(N) = {x X | x N},
und

(N) ist eine Teilmenge von X.


Auch wenn N = gilt, kann

(N) die leere Menge sein, nmlich dann, wenn


N Im = gilt.
1.1.11 Denition. Eine Abbildung : X Y mit der Eigenschaft, da aus x
1
=
x
2
stets x
1
= x
2
folgt, heit injektive Abbildung oder Injektion. Ist sogar
gleichzeitig injektiv und surjektiv, so wird eine Bijektion genannt.
1.1.12 Denition. Sei : X Y eine bijektive Abbildung. Ordnet man jedem
y Y als Bild das eindeutig bestimmte Element x X mit y = (x) als Bild zu, so
wird hierdurch eine Bijektion von Y auf X deniert. Sie heit die Umkehrabbildung
von oder die zu inverse Abbildung und wird mit
1
: Y X bezeichnet.
1.1.13 Denition. Zwei Abbildungen : X Y und : Y Z kann man
hintereinanderschalten und erhlt so insgesamt eine mit bezeichneteAbbildung
von X in Z, die man die Produktabbildung von und nennt. Sie ist gegeben durch
( )x = (x) fr alle x X.
Der Denitionsbereich und der Zielbereich einer Abbildung knnen auch zu-
sammenfallen. Man hat es dann mit einer Abbildung einer Menge X in sich zu
tun.
1.1.14 Denition. Bildet man jedes Element der Menge X auf sich selbst ab, so er-
hlt man eine Bijektion von Xauf sich, die die Identitt oder die identische Abbildung
von X genannt und mit id
X
bzw. einfach mit id bezeichnet wird.
1.1.15 Bemerkung. Fr jedes x X gilt also id x = x. Ist eine Bijektion von X
auf Y, so existiert ihre Umkehrabbildung
1
, und man erhlt

1
= id
X
,
1
= id
Y
.
6 1 Grundbegriffe
1.2 Produktmengen und Relationen
In diesemAbschnitt wird das kartesische Produkt von nicht-leeren Mengen und damit
der Begriff

quivalenzrelation eingefhrt.
1.2.1 Denition. Das kartesische Produkt A B zweier Mengen A und B ist die
Gesamtheit der geordneten Paare (a, b) mit a A und b B. Dabei ist (a, b) =
(a

, b

) genau dann, wenn a = a

und b = b

.
1.2.2 Bemerkung. Das kartesische Produkt zweier Mengen ist imallgemeinen nicht
kommutativ, d. h. A B = B A falls A = B. Man beachte jedoch fr jede nicht
leere Menge A und die leere Menge die Ausnahme
A = A = .
Analog zum kartesischen Produkt zweier Mengen wird das kartesische Produkt
endlich vieler Mengen gebildet.
1.2.3 Denition. Das kartesische Produkt

n
i=1
A
i
= A
1
A
2
A
n
von
endlich vielen Mengen A
i
, i = 1, 2, . . . , n, ist die Gesamtheit der geordneten
n-Tupel (a
1
, a
2
, . . . , a
n
) mit a
i
A
i
, i = 1, 2, . . . , n. Dabei ist (a
1
, a
2
, . . . , a
n
) =
(a

1
, a

2
, . . . , a

n
) genau dann, wenn a
i
= a

i
fr i = 1, 2, . . . , n. Ist A
i
= A fr
i = 1, 2, . . . , n, so heit A
n
=

n
i=1
A
i
die n-te kartesische Potenz von A. Die
Menge {(a, a, . . . , a) A
n
| a A} ist die Diagonale von A
n
.
1.2.4 Denition. Eine Teilmenge R von AA wird eine zweistellige Relation der
Menge A genannt. Man sagt, da zwei Elemente a und b von A in der Relation R
stehen, in Zeichen a b, genau dann, wenn (a, b) R gilt.
1.2.5 Denition. Eine nicht leere zweistellige Relation auf der Menge A heit
quivalenzrelation, wenn fr alle a, b, c A die folgenden Bedingungen gelten:
(a) a a, (reexiv)
(b) a b impliziert b a, (symmetrisch)
(c) a b und b c impliziert a c. (transitiv)
1.2.6 Beispiele.
(a) Die Gleichheit

= ist eine quivalenzrelation fr jede Menge A.


(b) Fr a, b Z gelte a b genau dann, wenn 2 ein Teiler von a b ist.
1.2 Produktmengen und Relationen 7
1.2.7 Denition. Ist eine quivalenzrelation der Menge A, dann ist die quiva-
lenzklasse [a] des Elementes a A gegeben durch
[a] = {b A | a b}.
Jedes Element b der quivalenzklasse [a] heit Reprsentant von [a].
1.2.8 Hilfssatz. Ist eine quivalenzrelation der Menge A, dann sind folgende
Aussagen fr Elemente a, b A paarweise gleichwertig:
(a) [a] [b] = ,
(b) a b,
(c) [a] = [b].
Beweis: Ist [a] [b] = , dann existiert ein c A mit a c und b c. Wegen der
Symmetrie und Transitivitt von folgt a b. Deshalb ist (b) eine Folge von (a).
Es gelte nun a b. Dann ist x [a] gleichwertig mit x a, also gleichwertig mit
x b und so auch mit x [b]. Also ist [a] = [b], und (c) folgt aus (b). Sicherlich
ergibt sich (a) aus (c).
Oft ist es zweckmig, ein Mengensystem S mit Hilfe einer sogenannten Index-
menge A zu beschreiben. Dabei ist A eine nicht-leere (endliche oder unendliche)
Menge, und jedem Index A ist eindeutig eine Menge A

aus S so zugeordnet,
da S = {A

| A} gilt.
1.2.9 Denition. Ein System{A

| A} von Teilmengen A

einer Menge A =
heit eine Zerlegung der Menge A, wenn
(a) A

= fr alle A,
(b) A =

A
A

,
(c) A

= fr alle , Amit = .
1.2.10 Satz. Es sei R eine quivalenzrelation auf der Menge A. Dann bilden die
quivalenzklassen bezglich R eine Zerlegung von A. Umgekehrt bestimmt eine
beliebige Zerlegung {A

| A} von A eindeutig eine quivalenzrelation auf A,


fr die die Zerlegungsmengen A

genau die quivalenzklassen sind.


Beweis: Folgt sofort aus Hilfssatz 1.2.8 und Denition 1.2.9
8 1 Grundbegriffe
1.3 Gruppen
Betrachtet man einerseits die Addition der ganzen, der rationalen oder der reellen
Zahlen und andererseits die Multiplikation der von Null verschiedenen rationalen
oder reellen Zahlen, so ndet man, da diese beiden Rechenoperationen weitgehend
bereinstimmenden Rechengesetzen unterliegen. So gelten z. B.
(a +b) +c = a +(b +c) und (a b) c = a (b c).
Weiter gibt es ausgezeichnete Zahlen, nmlich 0 bzw. 1, die sich bei diesen Opera-
tionen neutral verhalten:
0 +a = a und 1 a = a.
Schlielich gilt
(a) +a = 0 und
1
a
a = 1;
d. h. es gibt zu jedema eine Zahl a

(nmlich a bzw.
1
a
), so da die Summe bzw. das
Produkt dieser beiden Zahlen gerade die jeweilige neutrale Zahl ergibt.
Da diese Rechenregeln das Zahlenrechnen weitgehend beherrschen und auch in
vielen anderen Fllen auftreten, ist es naheliegend, sie unabhngig von der speziellen
Natur der Rechengren und der jeweiligen Operationen zu untersuchen. Bei dieser
abstrakten Betrachtungsweise stehen die Rechengesetze imVordergrund: Nicht wo-
mit man rechnet ist wesentlich, sondern wie man rechnet. Man setzt lediglich voraus,
da fr die Elemente einer gegebenen Menge eine Operation deniert ist, die jedem
geordneten Paar (a, b) von Elementen wieder ein Element der Menge zuordnet und
die den oben erwhnten Regeln unterliegt. Die Operation selbst soll hierbei mit dem
neutralen Symbol bezeichnet werden.
1.3.1 Denition. Eine Gruppe besteht aus einer Menge G und einer Operation ,
die jedem geordneten Paar (a, b) von Elementen aus G eindeutig ein mit a b
bezeichnetes Element von G so zuordnet, da folgende Axiome erfllt sind:
(I) (a b) c = a (b c) fr alle a, b, c G. (Assoziativgesetz)
Es gibt mindestens ein Element e G mit
(II) e a = a fr alle a G, und
(III) zu jedem a G existiert ein Element a

G mit a

a = e.
Ein solches Element heit neutrales Element von G.
Die Gruppe heit abelsch oder auch kommutativ, wenn auerdemfolgendes Axi-
om erfllt ist:
(IV) a b = b a fr alle a, b G. (Kommutativgesetz)
1.3 Gruppen 9
Besitzt die Gruppe G nur endlich viele Elemente, so heit die Anzahl |G| ihrer
Elemente die Ordnung von G.
Zu den Bestimmungsstcken einer Gruppe gehrt neben der Menge G auch die
Gruppenverknpfung genannte Operation . Eine Gruppe ist demnach durch das
Paar (G, ) gekennzeichnet. Da vielfach jedoch die Gruppenverknpfung durch den
Zusammenhang eindeutig festgelegt ist, pegt man in solchen Fllen die Gruppe
einfach mit G zu bezeichnen. Die Gruppenverknpfung wird bisweilen auch Grup-
penmultiplikation genannt. Man bezeichnet dann das Element a b als Produkt der
Elemente a und b. In nicht-abelschen Gruppen mu jedoch auf die Reihenfolge der
Faktoren geachtet werden, weil dann a b und b a im allgemeinen verschiedene
Gruppenelemente sind.
Axiom (I) besagt, da es bei mehrgliedrigen Produkten nicht auf die Art der
Klammersetzung ankommt. Man kann daher berhaupt auf die Klammern verzichten
und z. B. statt (a b) c einfacher a b c schreiben. Diese Mglichkeit der
Klammerersparnis wird weiterhin ohne besonderen Hinweis ausgenutzt werden.
1.3.2 Beispiele.
(a) Die Menge Z aller ganzen Zahlen bildet mit der gewhnlichen Addition als
Gruppenverknpfung eine abelsche Gruppe (Z, +). Dasselbe gilt fr die ra-
tionalen und die reellen Zahlen. Man spricht dann von der additiven Gruppe
der ganzen Zahlen bzw. der rationalen Zahlen usw. In allen diesen Fllen wird
das Element e aus (II) durch die Zahl 0 und a

aus (III) durch die Zahl a


vertreten.
(b) Die Mengen Q

und R

der von Null verschiedenen rationalen oder reellen


Zahlen bilden hinsichtlich der gewhnlichen Multiplikation als Gruppenver-
knpfung je eine abelsche Gruppe. Sie heit multiplikative Gruppe von Q
bzw. R. In diesen Gruppen wird e durch die Zahl 1 und a

durch die reziproke


Zahl
1
a
vertreten.
(c) Es sei M eine beliebige nicht-leere Menge, und S
M
sei die Menge aller Bi-
jektionen von M auf sich. Fr je zwei Abbildungen , S
M
bedeute
das durch die Hintereinanderausfhrung dieser beiden Abbildungen bestimm-
te Produkt. Fr je drei Abbildungen , , und fr jedes Element x M gilt
dann
(( ) ) x = ( )( x) = (( x))
und
( ( )) x = (( )x) = (( x)) ;
d. h. (I) ist erfllt. Whlt man fr e die identische Abbildung id von M, so gilt
(II). Schlielich ergibt sich die Gltigkeit von (III), wenn man bei gegebenem
10 1 Grundbegriffe
S
M
als Abbildung

die zu inverse Abbildung


1
whlt. Die Menge
S
M
ist daher hinsichtlich der Multiplikation der Abbildungen eine Gruppe, die
die symmetrische Gruppe der Menge M genannt wird.
Ist hierbei speziell M die Menge {1, 2, . . . , n}, so bezeichnet man die zugeh-
rige symmetrische Gruppe der Ziffern 1, 2, . . . , n einfacher mit S
n
. Jede Ab-
bildung S
n
ist eine Permutation der Zahlen 1, . . . , n. Gilt etwa (1) = a
1
,
(2) = a
2
, . . . , (n) = a
n
, so ist durch die Reihenfolge der Bildzah-
len a
1
, . . . , a
n
eindeutig bestimmt. Man schreibt daher = (a
1
, . . . , a
n
). Gilt
z. B. n = 3, und = (2, 3, 1), = (3, 2, 1), so erhlt man folgende Produkte:
= (1, 3, 2) und = (2, 1, 3).
Dieses Beispiel zeigt, da S
n
fr n = 3 keine abelsche Gruppe ist.
1.3.3 Bemerkung. Die von Null verschiedenen ganzen Zahlen bilden hinsichtlich
der Multiplikation keine Gruppe, weil es z. B. zu 2 keine ganze Zahl a

mit a

2 = 1
gibt.
Aus den Gruppenaxiomen sollen jetzt einige einfache Folgerungen abgeleitet
werden. In den nachstehenden Stzen bedeutet G immer eine Gruppe.
1.3.4 Hilfssatz. Fr jedes die Axiome (II) und (III) erfllende Element e G gilt
auch a e = a fr alle a G. Aus a

a = e folgt a a

= e.
Beweis: Zunchst wird die zweite Behauptung bewiesen: Zu a

gibt es nach (III) ein


a

G mit a

= e. Unter Beachtung von (I) und (II) erhlt man dann


a a

= e (a a

) = (a

) (a a

) = a

_
(a

a) a

_
= a

(e a

)
= a

= e.
Hieraus folgt jetzt die erste Behauptung:
a e = a (a

a) = (a a

) a = e a = a.

1.3.5 Hilfssatz. Es gibt nur genau ein Element e Gder in (II) und (III) geforderten
Art. Bereits aus x a = a fr nur ein a G folgt x = e.
Beweis: Das Element e

erflle ebenfalls die Gleichung e

a = a fr alle a G.
Dann gilt insbesondere e

e = e und wegen 1.3.4


e

= e

e = e;
d. h. e ist eindeutig bestimmt. Gilt weiter x a = a fr ein festes Element a, so
existiert wegen (III) zu diesem ein a

G mit a

a = e, und wegen 1.3.4 erhlt


man
x = x e = x (a a

) = (x a) a

= a a

= e.

1.3 Gruppen 11
Das somit durch die Axiome eindeutig bestimmte neutrale Element e der Gruppe
Gheit das Einselement von G. In additiv geschriebenen abelschen Gruppen Gwird
e das Nullelement 0 von G genannt.
1.3.6 Hilfssatz. In (III) ist a

durch a eindeutig bestimmt.


Beweis: Neben a

a = e gelte auch a

a = e. Wegen 1.3.4 erhlt man dann


a

= a

e = a

(a a

) = (a

a) a

= e a

= a

Man nennt a

das inverse Element von a und schreibt statt a

imallgemeinen a
1
.
Wenn allerdings in Spezialfllen die Gruppenverknpfung als Addition geschrieben
wird (vgl. 1.3.2 (a)), bezeichnet man das neutrale Element mit 0 und das zu a inverse
Element mit a.
1.3.7 Hilfssatz. (a
1
)
1
= a und (a b)
1
= b
1
a
1
.
Beweis: Die in 1.3.4 bewiesene Gleichung a a
1
= e besagt, da a das zu a
1
inverse Element ist, da also die erste Behauptung gilt. Die zweite folgt aus
_
b
1
a
1
_
(a b) = b
1

__
a
1
a
_
b
_
= b
1
(e b) = b
1
b = e.
1.3.8 Hilfssatz. In einer Gruppe Gbesitzen die Gleichungen xa = b und ay = b
bei gegebenen Elementen a, b G eindeutig bestimmte Lsungen x, y G.
Beweis: Wenn x G Lsung der ersten Gleichung ist, wenn also x a = b gilt,
folgt
x = x e = x a a
1
= b a
1
;
d. h. x ist durch a und b eindeutig bestimmt. Umgekehrt ist aber wegen
_
b a
1
_
a = b
_
a
1
a
_
= b e = b
das Element x = b a
1
auch tatschlich eine Lsung. Entsprechend schliet man
im Fall der zweiten Gleichung.
1.3.9 Denition. Eine Teilmenge U der Gruppe Gheie Untergruppe von G, wenn
U bezglich der Gruppenverknpfung von G selbst eine Gruppe (U, ) ist.
Bezeichnung: U G
1.3.10 Hilfssatz. Die nicht-leere Teilmenge U der Gruppe (G, ) ist genau dann
eine Untergruppe von G, wenn fr jedes Paar a, b U stets a b
1
U gilt.
12 1 Grundbegriffe
Beweis: Die Bedingung ist sicherlich notwendig. Es ist zu zeigen, da sie auch
hinreicht.
Sei e das Einselement von G. Wegen U = existiert ein a U. Dann ist
e = a a
1
U, und e ist das Einselement von U. Weiter gilt a
1
= e a
1
U
fr jedes a U. Wegen Hilfssatz 1.3.7 ist daher a b U fr alle a, b U.
Trivialerweise gilt in U das Assoziativgesetz. Also ist (U, ) eine Gruppe.
1.4 Krper und Ringe
Whrend sich der Gruppenbegriff auf nur eineVerknpfungsoperation bezog, werden
jetzt nebeneinander zwei Operationen betrachtet, die in Anlehnung an das bliche
Zahlrechnen mit + und bezeichnet und Addition bzw. Multiplikation genannt wer-
den. Geht man etwa von den rationalen Zahlen aus, so gewinnt man aus den dort
gltigen Regeln durch eine entsprechende Abstraktion wie bei den Gruppen neue
algebraische Strukturen.
1.4.1 Denition. Ein Krper besteht aus einer Menge F und zwei Operationen +
und , die jedem geordneten Paar (a, b) von Elementen aus F eindeutig ein Element
a +b bzw. a b von F so zuordnen, da folgende Bedingungen erfllt sind:
F ist bezglich + eine abelsche Gruppe, d. h.
(I) (a +b) +c = a +(b +c) fr alle a, b, c F. (Assoziativitt der Addition)
(II) a +b = b +a fr alle a, b, F. (Kommutativitt der Addition)
(III) Es gibt ein Nullelement 0 in F, d. h. 0 +a = a fr alle a F.
(IV) Zu jedem a F existiert ein Element a in F mit (a) + a = 0, wobei 0
das Nullelement in F ist.
Fr die Multiplikation der Elemente von F gelten:
(V) (a b) c = a (b c) fr alle a, b, c F. (Assoziativitt der Multiplikation)
(VI) Es gibt ein Einselement 1 in F, d. h. 1 a = a = a 1 fr alle a F.
(VII) Zu jedem a F mit a = 0 existiert ein Element a
1
in F mit a
1
a = 1,
wobei 1 das Einselement ist.
(VIII) a (b +c) = a b +a c und (b +c) a = b a +c a fr alle a, b, c F.
(Distributivitt)
(IX) 1 = 0.
Fordert man lediglich die Gltigkeit der Axiome (I) (V) und (VIII), so nennt man
F einen Ring. Gilt zustzlich das Axiom
1.4 Krper und Ringe 13
(X) a b = b a fr alle a, b F, (Kommutativitt der Multiplikation)
so wird F ein kommutativer Krper bzw. Ring genannt.
Ebenso wie eine Gruppe wird auch ein Krper bzw. Ring statt mit (F, +, ) ein-
facher mit F bezeichnet. Das Symbol fr die Multiplikation wird im allgemeinen
unterdrckt und statt a b krzer ab geschrieben. Vielfach werden mit

Krper nur
kommutative Krper bezeichnet, whrend dann nicht-kommutative Krper

Schief-
krper genannt werden. In diesem Buch wird es sich allerdings ausschlielich um
kommutative Krper handeln.
Wegen (I) und (V) knnen die Klammern wieder bei endlichen Summen und
Produkten fortgelassen werden. Eine weitere Regel zur Klammerersparnis besteht in
der blichen Konvention, da die Multiplikation strker binden soll, da also z. B.
statt (ab) +c einfacher ab +c geschrieben werden darf. Diese Vereinfachung wurde
bereits bei der Formulierung von (VIII) benutzt.
Das neutrale Element 0 des Krpers F bzw. des Rings R wird das Nullelement
oder kurz die Null von F bzw. R genannt. Das inverse Element a heit das zu
a negative Element . Statt b + (a) schreibt man krzer b a und nennt dieses
Element die Differenz von b und a. Es gilt a +(b a) = b, und b a ist somit die
nach 1.3.8 eindeutig bestimmte Lsung der Gleichung a +x = b. Wegen 1.3.7 gilt
schlielich (a) = a und (a +b) = a +(b) = a b.
Das neutrale Element 1 der multiplikativen Gruppe F

= F \ {0} wird das


Einselement oder einfach die Eins des Krpers F genannt. Ein Ring R braucht kein
Einselement zu besitzen; imFalle der Existenz ist die Eins 1 eindeutig in R bestimmt.
1.4.2 Beispiele fr Krper.
(a) Die Mengen Q und R aller rationalen bzw. reellen Zahlen bilden hinsichtlich
der blichen Addition und Multiplikation je einen kommutativen Krper.
(b) Die Menge C der komplexen Zahlen bildet ebenfalls einen kommutativen
Krper. Eine komplexe Zahl a besitzt bekanntlich die Form a = a
1
+a
2
i mit
reellen Zahlen a
1
, a
2
und der imaginren Einheit i, fr die i
2
= 1 gilt. Es
heit a
1
der Realteil und a
2
der Imaginrteil von a.
Bezeichnung: a
1
= Re(a) und a
2
= Im(a).
Ist b = b
1
+ b
2
i eine zweite komplexe Zahl, so sind Summe, Differenz und
Produkt bekanntlich erklrt durch:
a b = (a
1
b
1
) +(a
2
b
2
)i,
ab = (a
1
b
1
a
2
b
2
) +(a
1
b
2
+a
2
b
1
)i.
Die zu einer komplexen Zahl a = a
1
+ a
2
i konjugierte Zahl a ist durch
14 1 Grundbegriffe
a = a
1
a
2
i deniert. Unmittelbar ergibt sich:
a b = a

b, ab = a

b, a = a.
a + a = 2 Re(a), a a = 2i Im(a).
Fr eine beliebige komplexe Zahl a gilt
a a = (Re(a))
2
+(Im(a))
2
.
Daher ist a a stets eine nicht-negative reelle Zahl, und a a = 0 ist gleichwertig
mit a = 0.
Ist a = 0 eine komplexe Zahl, so ist a a = 0 und a
1
=
a
a a
C.
Der Betrag |a| der komplexen Zahl a = a
1
+ a
2
i ist die positive Wurzel der
nicht negativen reellen Zahl a a = a
2
1
+a
2
2
, d. h. |a| = +
_
a
2
1
+a
2
2
.
Die reellen Zahlen sind spezielle komplexe Zahlen; nmlich diejenigen, de-
ren Imaginrteil verschwindet. Dies kann auch so ausgedrckt werden: Die
komplexe Zahl a ist genau dann eine reelle Zahl, wenn a = a gilt.
1.4.3 Beispiele fr Ringe.
(a) Die Menge Z aller ganzen Zahlen ist ein kommutativer Ring mit Eins; aber Z
ist kein Krper, weil z. B. 2 in Z kein inverses Element besitzt.
(b) Die geraden ganzen Zahlen R = 2 Z sind ein Beispiel fr einen Ring ohne
Einselement.
(c) Sei F ein kommutativer Krper. Ein Ausdruck der Form
f (X) = a
0
+a
1
X +a
2
X
2
+ +a
n1
X
n1
+a
n
X
n
mit a
i
F, i = 0, 1, . . . , n, heit Polynom in der Unbestimmten X mit
Koefzienten aus F. Ist a
n
= 0, so heit n der Grad des Polynoms f (X).
Bezeichnung: Grad f = n.
Gilt sogar a
n
= 1, so wird f (X) ein normiertes Polynom genannt.
Die Polynome vom Grad Null sind die Konstanten 0 = a
0
F. Dem Nullpo-
lynom 0 (n = 0, a
0
= 0) ordnet man keinen Grad zu.
Die Menge aller Polynome f (X) mit Koefzienten aus dem Krper F wird
mit F[X] bezeichnet. Auf F[X] sind eine Addition + (ggf. nach Auffllen mit
Null-Koefzienten) und eine Multiplikation erklrt durch
(a
0
+a
1
X + +a
n
X
n
) +(b
0
+b
1
X + +b
n
X
n
)
= (a
0
+b
0
) +(a
1
+b
1
)X + +(a
n
+b
n
)X
n
,
(a
0
+a
1
X + +a
m
X
m
) (b
0
+b
1
X + +b
n
X
n
)
= a
0
b
0
+(a
0
b
1
+a
1
b
0
)X +(a
0
b
2
+a
1
b
1
+a
2
b
0
)X
2
+ +a
m
b
n
X
n+m
.
1.5 Vektorrume 15
F[X] ist bzgl. + und ein kommutativer Ring mit dem Polynom 1 als Einsele-
ment. F[X] heit der Polynomring ber F in der Unbestimmten X.
Unter den bisher erwhnten Krpern nimmt der Krper Cder komplexen Zahlen
in den spteren Kapiteln deshalb eine besondere Rolle ein, weil fr ihn der Hauptsatz
der Algebra gilt, der besagt:
1.4.4 Satz. Jedes Polynomf (X) C[X] mit Grad f 1 zerfllt in ein Produkt von
Linearfaktoren, d. h. zu f (X) existieren endlich viele verschiedene komplexe Zahlen
c
i
und natrliche Zahlen k
i
derart, da gilt:
f (X) =
m

i=1
(X c
i
)
k
i
und Grad f =
m

i=1
k
i
.
Dieser Satz wird hier nicht bewiesen.
Die folgenden Stze zeigen, da in beliebigen Ringen oder Krpern in der bli-
chen Weise gerechnet werden kann.
1.4.5 Hilfssatz. In einem Ring gilt 0 a = a 0 = 0 fr jedes Element a.
Beweis: Wegen 0 +0 = 0 und wegen (VIII) gilt:
0 a +0 a = (0 +0) a = 0 a.
Hieraus folgt nach 1.3.5 die erste Behauptung 0 a = 0. Die zweite Behauptung
ergibt sich entsprechend.
1.4.6 Hilfssatz. In einem Ring gilt a(b) = (a)b = (ab), insbesondere also
(a)(b) = ab.
Beweis: Wegen (VIII) und 1.3.4 erhlt man
ab +a(b) = a(b +(b)) = a 0 = 0.
Hiernach ist a(b) das zu ab negative Element; d. h. es gilt a(b) = (ab).
Entsprechend ergibt sich die zweite Gleichung.
1.5 Vektorrume
Der ursprngliche Begriff des Vektors besitzt eine anschauliche geometrische Be-
deutung. Man denke sich etwa in der Ebene einen festen Punkt p als Anfangspunkt
ausgezeichnet. Jedem weiteren Punkt x kann dann umkehrbar eindeutig die von p
16 1 Grundbegriffe
nach x weisende gerichtete Strecke zugeordnet werden, die man sich etwa durch
einen in p ansetzenden Pfeil mit der Spitze in x reprsentiert denken kann. Man
nennt diese gerichtete Strecke den Ortsvektor von x bezglich des Anfangspunk-
tes p und bezeichnet ihn mit dem entsprechenden Buchstaben x. Ist y ein zweiter
Ortsvektor, so kann man den Summenvektor x + y in bekannter Weise nach dem
Parallelogrammprinzip denieren (vgl. Abbildung 1.1).
?
?
?
?
?
?
p
x

o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
y

?
?
?
?
?
?
?
?
?
?
?
x +y

o
o
o
o
o
o
o
o
o
Abbildung 1.1
Einfache geometrische berlegungen zeigen nun, da die Ortsvektoren hinsicht-
lich dieser Addition alsVerknpfungsoperation eine abelsche Gruppe bilden. So folgt
z. B. das Assoziativgesetz aus der in Abbildung 1.2 angedeuteten Kongruenz der
Dreiecke ABE und EFA.
D

_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _
O
O
O
O
O
O
E
C F
B
A
O
O
O
O
O
O
O
O
O
O
O
O
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/

o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
G
/
/
/
/
/
/
/
/
/
/
/
/
/
Abbildung 1.2
x =

AB, y =

AC, x +y =

AD, z =

AG, y +z =

AF,
(x +y) +z =

AD +

DE =

AE =

AF +

FE = (y +z) +x = x +(y +z).


Das neutrale Element dieser Gruppe ist der zu einem Punkt entartete Ortsvektor des
Anfangspunktes selbst. Er heit Nullvektor und wird mit o bezeichnet.
1.5 Vektorrume 17
Daneben kann man aber auch jeden Ortsvektor x mit einer reellen Zahl a multi-
plizieren: Der Vektor xa sei derjenige Vektor, dessen Lnge das |a|-fache der Lnge
des Vektors x ist und dessen Richtung imFall a > 0 mit der Richtung von x berein-
stimmt, im Fall a < 0 zu ihr entgegengesetzt gerichtet ist. Auerdem sei x0 wieder
der Ortsvektor des Anfangspunkts. Fr diese zweite Operation der Multiplikation
von Ortsvektoren mit reellen Zahlen gelten nun folgende Regeln, die sich leicht
geometrisch nachweisen lassen:
x(ab) = (xa)b
(x +y)a = xa +ya
x(a +b) = xa +xb
x 1 = x
x 0 = o.
Der allgemeine Begriff des Vektorraums entsteht nun wie bei den Gruppen, Kr-
pern und Ringen wieder durch eine entsprechendeAbstraktion, die von der speziellen
Natur derVektorenundRechenoperationenabsieht. DieseAbstraktiongeht hier sogar
noch etwas weiter: Bei den Ortsvektoren wurden als Multiplikatoren reelle Zahlen
benutzt. Bei der allgemeinen Begriffsbildung tritt an die Stelle der reellen Zahlen ein
beliebiger kommutativer Krper F, der dann der Skalarenkrper genannt wird und
dessen Elemente als Skalare bezeichnet werden.
1.5.1 Denition. Ein Vektorraum ber dem Krper F besteht aus einer additiv ge-
schriebenen, abelschen Gruppe V, deren Elemente Vektoren genannt werden, einem
kommutativen Skalarenkrper F und einer Multiplikation, die jedem geordneten
Paar (x, a) mit x V und a F eindeutig einen Vektor xa V so zuordnet, da
folgende Axiome erfllt sind:
(I) x(ab) = (xa)b fr alle x V, a, b F. (Assoziativitt)
(II)
(x +y)a = xa +ya fr alle x, y V, a F,
x(a +b) = xa +xb fr alle x V, a, b F.
(Distributivitt)
(III) x1 = x fr alle x V und fr 1 F.
Wie schon in diesen Axiomen sollen auch im allgemeinen Skalare und Vektoren
mit kleinen lateinischen Buchstaben bezeichnet, Vektoren jedoch durch Fettdruck
hervorgehoben werden. Zu beachten ist, da die Rechenoperationen trotz gleicher
Bezeichnung teilweise verschiedene Bedeutung haben: So steht z. B. auf der linken
Seite der zweiten Gleichung von (II) die Summe zweier Skalare, auf der rechten Seite
aber die Summe zweier Vektoren. Das Zeichen + bedeutet also auf der linken Seite
die Addition im Skalarenkrper F, rechts hingegen die Vektoraddition in V. Ebenso
18 1 Grundbegriffe
treten auch in (I) verschiedene Arten der Multiplikation auf. In (II) wurde auerdem
bereits eine der frheren Festsetzung entsprechendeVereinfachung benutzt. Die Mul-
tiplikation mit Skalaren soll strker binden als die Vektoraddition; statt (xa) +y soll
also einfacher xa + y geschrieben werden drfen. Axiom (I) gestattet schlielich,
auch bei mehrfacher Multiplikation mit Skalaren die Klammern fortzulassen.
Ebenso wie bei den Gruppen, Ringen und Krpern pegt man auch einen Vek-
torraum nur mit dem einen Buchstaben V zu bezeichnen, der schon der Gruppe
zugeordnet ist. Wenn der Skalarenkrper F besonders hervorgehoben werden soll,
spricht man von einemVektorraum V ber F oder einem F-Vektorraum. Allgemein
soll folgende Festsetzung gelten: Sofern nicht spezielle Skalarenkrper angegeben
werden, soll der zu einem Vektorraum gehrende Skalarenkrper immer mit F be-
zeichnet werden. Treten in einemZusammenhang mehrere Vektorrume gleichzeitig
auf, so sollen sie immer denselben Skalarenkrper besitzen. Dieser darf ein beliebiger
kommutativer Krper sein. Nur in Einzelfllen wird er einschrnkenden Bedingun-
gen unterworfen werden, die dann aber stets ausdrcklich angegeben werden. Fr
die Anwendung der Theorie sind allerdings diejenigen Vektorrume am wichtigsten,
deren Skalarenkrper der Krper der reellen oder der komplexen Zahlen ist. Man
spricht in diesen Fllen kurz von reellen bzw. komplexen Vektorrumen.
Da der Skalarenkrper immer als kommutativ vorausgesetzt wird, ist zunchst
nicht wesentlich. Manche der hier behandelten Stze gelten samt ihren Beweisen
sogar in noch erheblich allgemeineren Strukturen: ndert man die Denition 1.4.1
dahingehend ab, da man als Skalarenbereich einen beliebigen Ring R mit Einsele-
ment statt eines Krpers zult, so nennt man V in diesem Fall einen Modul oder
genauer einen R-Modul. Vektorrume sind also spezielle Moduln, nmlich Moduln
ber Krpern.
Die charakteristischen Operationen eines Vektorraums sind die Vektoraddition
und die Multiplikation der Vektoren mit Skalaren. Diese beiden Operationen werden
unter dem gemeinsamen Namen lineare Operationen zusammengefat.
Es sei jetzt V einbeliebigerVektorraum. Da V eine additivgeschriebene, abelsche
Gruppe ist, existiert in V ein eindeutig bestimmter neutraler Vektor. Dieser wird der
Nullvektor genannt und mit o bezeichnet. Es gilt o +x = x fr alle Vektoren x V,
und aus x + a = a fr nur einen Vektor a V folgt bereits x = o. Ebenso
existiert zu jedem Vektor x ein eindeutig bestimmter negativer Vektor x. Fr ihn
gilt x +(x) = o. Statt a +(b) wird wieder krzer a b geschrieben, und dieser
Vektor wird der Differenzvektor von a und b genannt. In einemVektorraum ist somit
auch die Subtraktion unbeschrnkt ausfhrbar.
1.5.2 Beispiele.
(a) Der Polynomring F[X] ber dem Krper F in der Unbestimmten X ist ein
F-Vektorraum.
(b) Es sei R
[a,b]
die Menge aller auf einem reellen Intervall [a, b] denierten
1.5 Vektorrume 19
reellwertigen Funktionen. Fr je zwei Funktionen f, g R
[a,b]
sei f + g
diejenige Funktion, deren Werte durch
(f +g)(t ) = f (t ) +g(t ) (a t b)
bestimmt sind. Entsprechend sei fr jede reelle Zahl c die Funktion f c durch
(f c)(t ) = (f (t )) c (a t b)
deniert. Hinsichtlich der so erklrten linearen Operationen ist R
[a,b]
ein reel-
ler Vektorraum. Nullvektor ist die auf [a, b] identisch verschwindende Funk-
tion o, d. h. o(t ) = 0 fr alle t [a, b].
(c) Es sei F ein kommutativer Krper, und n > 0 sei eine natrliche Zahl. Eine
Folge a = (a
1
, . . . , a
n
) von Elementen aus F wird dann ein n-Tupel genannt,
und die Menge aller dieser n-Tupel wird mit F
n
bezeichnet. Es seien nun
a = (a
1
, . . . , a
n
) und b = (b
1
, . . . , b
n
) zwei nicht notwendig verschiedene
n-Tupel aus F
n
, und c sei ein Element aus F. Setzt man dann
a +b = (a
1
+b
1
, . . . , a
n
+b
n
) und ac = (a
1
c, . . . , a
n
c),
so werden hierdurch die linearen Operationen in F
n
deniert, und F
n
wird
zu einem Vektorraum ber F. In ihm ist der Nullvektor o das aus lauter
Nullen bestehende n-Tupel (0, . . . , 0). Man nennt diesen Vektorraum den n-
dimensionalen arithmetischen Vektorraum ber F. Der Fall n = 1 zeigt, da
man jeden kommutativen Krper als Vektorraum ber sich selbst auffassen
kann.
Abschlieend sollen noch einige Regeln fr das Rechnen in Vektorrumen her-
geleitet werden, die weiterhin ohne besondere Hinweise benutzt werden.
1.5.3 Hilfssatz. Fr beliebige Vektoren x und Skalare c gilt:
(a) x 0 = o und o c = o.
(b) Aus x c = o folgt x = o oder c = 0.
Beweis: Wegen (II) gilt
x 0 +x 0 = x (0 +0) = x 0
und
o c +o c = (o +o) c = o c.
Aus der ersten Gleichung folgt x 0 = o, aus der zweiten o c = o. Weiter werde
x c = o, aber c = 0 vorausgesetzt. Wegen (III) erhlt man dann
x = x 1 = x cc
1
= o c
1
= o.
20 1 Grundbegriffe
Fr die Bildung des negativen Vektors gilt wieder (x) = x. Die Vektoren
x und x(1) mssen jedoch zunchst unterschieden werden: x ist der durch die
Gleichung x +(x) = o eindeutig bestimmte Vektor, whrend x(1) aus x durch
Multiplikation mit 1 hervorgeht. Der folgende Hilfssatz zeigt jedoch, da beide
Vektoren gleich sind.
1.5.4 Hilfssatz. x = x(1).
Beweis: Wegen (II), (III) und Hilfssatz 1.5.3 gilt
x +x(1) = x1 +x(1) = x (1 +(1)) = x0 = o
und daher x(1) = x.
1.6 Lineare Gleichungssysteme
Wichtige Anwendungen ndet die Theorie der Vektorrume bei der Beschreibung
der Lsungsgesamtheit eines linearen Gleichungssystems.
1.6.1 Denition. Ein lineares Gleichungssystem mit n Unbekannten und m Glei-
chungen hat folgende Form:
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= d
1
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= d
2
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= d
m
,
(G)
wobei die Koefzienten a
ij
und die absoluten Glieder d
i
Elemente aus einem Krper
F sind. Die Unbekannten des Gleichungssystems sind x
1
, . . . , x
n
.
1.6.2 Denition. Das geordnete n-Tupel c = (c
1
, . . . , c
n
), wobei c
1
, . . . , c
n
F,
heit Lsung von (G), wenn jede Gleichung von (G) durch Einsetzen der c
i
fr die
x
i
erfllt wird. Die Lsungsmenge von (G) ist die Menge, die aus allen Lsungen
von (G) besteht. Gibt es keine Lsung von (G), so ist die Lsungsmenge von (G) die
leere Menge.
1.6.3 Bemerkungen.
(a) Das Gleichungssystem
5 x
1
+ 10 x
2
+ 20 x
3
= 1000
1 x
1
+ 1 x
2
+ 1 x
3
= 100
12 x
1
+ 12 x
2
+ 20 x
3
= 1400
(I)
hat nur eine Lsung, nmlich (50, 25, 25).
1.7 Aufgaben 21
(b) Ein Gleichungssystem (G) kann unlsbar sein, wie z. B.
x
1
+x
2
= 1
x
1
+x
2
= 0.
(II)
(c) Ein lsbares Gleichungssystems kann mehr als nur eine Lsung besitzen, wie
folgendes Beispiel zeigt. Das Gleichungssystem
x
1
+x
2
+x
3
= 3
x
1
x
2
+x
3
= 1.
(III)
hat z. B. die verschiedenen Lsungen (1, 1, 1), (2, 1, 0), (3, 1, 1).
1.6.4 Denition. Sei (H) das lineare Gleichungssystem, das aus (G) entsteht, wenn
man d
i
= 0 fr i = 1, . . . , m setzt. (H) heit das zu (G) gehrige homogene lineare
Gleichungssystem. Das Gleichungssystem (G) heit inhomogen, falls mindestens
ein d
i
= 0 ist.
1.6.5 Bemerkung. In den spteren Kapiteln wird gezeigt, da die Lsungsgesamt-
heit des zu (G) gehrenden homogenen Gleichungssystems (H) ein F-Vektorraum
ist. Die dort entwickelten theoretischen Ergebnisse undAlgorithmen werden benutzt,
um zu zeigen,
(a) ob (G) berhaupt eine Lsung hat,
(b) wie die Lsungsgesamtheit berechnet wird, falls (G) lsbar ist.
Dazu werden Lsungsverfahren angegeben.
1.7 Aufgaben
1.1 Zeigen Sie mittels vollstndiger Induktion, da jede n-elementige Menge M genau
_
n
k
_
=
n!
k!(nk)!
Teilmengen mit k Elementen fr 0 k n besitzt.
1.2 Zeigen Sie:

n
k=1
k =
1
2
n(n +1).
1.3 Zeigen Sie:

n
k=1
k
2
=
1
6
n(n +1)(2n +1).
1.4 Bestimmen Sie die Lsungen der folgenden drei Gleichungssysteme:
2x +2y z = 1
x y +z = 1 (a)
x 2y +2z = 1.
22 1 Grundbegriffe
2x +2y 2z = 1
x y +z = 1 (b)
x 2y +2z = 1.
2x +2y 2z = 2
x y +z = 1 (c)
x 2y +2z = 1.
1.5 Zeigen Sie, da das folgende Gleichungssystem fr alle ganzen Zahlen d, die von 2
verschieden sind, nicht lsbar ist.
x +y 3z = 0
x +3y z = d
y +z = 1.
1.6 Auf der Menge R der reellen Zahlen sei eine neue Art der Addition deniert durch:
a b =
3
_
a
3
+b
3
,
wobei es sich unter dem Wurzelzeichen um die bliche Addition des Krpers R handelt.
Entsprechend bedeute ab das bliche Produkt von R. Es mu jetzt a als Vektor und b als
Skalar aufgefat werden. Sei ein neues, mit bezeichnetes Produkt auf R durch eine der
beiden folgenden Gleichungen deniert:
(a) a b = ab,
(b) a b =
3

ab.
In welchem Fall der so denierten linearen Operationen und auf der Menge R liegt ein
reeller Vektorraum vor?
1.7 Zeigen Sie, da die vier komplexen Zahlen 1, 1, i, i bezglich der Multiplikation im
Krper C der komplexen Zahlen eine abelsche Gruppe G bilden.
1.8 Zeigen Sie, da die Menge G aller Abbildungen f
a,b
: R R mit f
a,b
(x) = ax +
b, wobei a, b R und a = 0, bezglich der Hintereinanderausfhrung eine Gruppe mit
Einselement f
1,0
bilden.
1.9 Zeigen Sie, da die Menge R = {
a
b
Q | a, b Z, b ungerade} einen kommutativen
Ring mit Einselement 1 Q bildet, der kein Krper ist.
2 Struktur der Vektorrume
In diesem Kapitel werden zunchst Begriffsbildungen behandelt, die sich unmit-
telbar aus der Denition des Vektorraums ableiten lassen und sich auf nur einen
Vektorraum beziehen. Im Mittelpunkt dieser Betrachtungen steht der Begriff der Ba-
sis eines Vektorraums und der mit ihm eng zusammenhngende Begriff der linearen
Unabhngigkeit von Vektoren. Mit diesen Hilfsmitteln ist es dann auch mglich, die
Dimension eines Vektorraums zu denieren. Hierbei ergibt sich eine Aufteilung der
Vektorrume in endlich-dimensionale und solche unendlicher Dimension.
In den ersten beiden Abschnitten werden die grundlegenden Begriffe und Be-
weismethoden fr endlich erzeugte Unterrume U eines beliebigen F-Vektorraums
V behandelt. Es wird gezeigt, da U eine Basis aus endlich vielen Vektoren besitzt
und da alle Basen von U aus gleich vielen Vektoren bestehen. Diese allen Basen
gemeinsame Anzahl wird die Dimension von U genannt. Die Beweise fr diese
Ergebnisse sind konstruktiv und elementar. Die Theorie der endlich-dimensionalen
Vektorrume V ergibt sich als Spezialfall.
Wesentlich fr das konkrete Rechnen mit Vektoren ist schlielich, da man in
endlich-dimensionalen Vektorrumen hinsichtlich einer Basis jeden Vektor durch
endlich viele Skalare, seine Koordinaten, beschreiben kann. Der Koordinatenbegriff
gestattet es, das Rechnen mit Vektoren auf das Rechnen imSkalarenkrper zurckzu-
fhren. Daraus ergibt sich, dadie algebraische Struktur eines endlich-dimensionalen
Vektorraums V ber einem Krper F im wesentlichen durch die Dimension von V
bestimmt ist.
Im dritten Abschnitt werden direkte Summen von Unterrumen eines beliebigen
F-Vektorraumes V behandelt. Mit Hilfe des Zornschen Lemmas wird gezeigt, da
sich jeder Vektorraum V in eine direkte Summe von eindimensionalen Unterru-
men zerlegen lt. Dieser Struktursatz ist ein grundlegendes Ergebnis fr unendlich-
dimensionaleVektorrume. Er besagt nicht nur, da jeder F-VektorraumV eine Basis
B besitzt, sondern auch, da alle Rechnungen mit jeweils endlich vielen Vektoren
aus V in einem endlich-dimensionalen Unterraum U von V stattnden, der eine
endliche Teilmenge B

von B zur Basis hat. Daher wird auch im unendlichen Fall


das Rechnen mit Vektoren auf die Addition und Multiplikation im Skalarenkrper F
zurckgefhrt.
24 2 Struktur der Vektorrume
2.1 Unterrume
In diesem Abschnitt werden nicht-leere Teilmengen U eines Vektorraums V ber
einem kommutativen Krper F untersucht, die gegenber den linearen Operationen
abgeschlossen sind und selbst einen Vektorraum bilden. Solche Teilmengen sind
Unterrume von V im Sinne der folgenden Denition.
2.1.1 Denition. Eine Teilmenge U eines Vektorraums V ber dem Krper F heit
Unterraum von V, wenn sie nicht leer ist und die beiden folgenden Bedingungen
erfllt sind.
(a) v
1
+v
2
U fr alle v
1
, v
2
U.
(b) v a U fr alle v U und a F.
Bezeichnung: U V.
Man beachte, da man (a) und (b) in der folgenden Bedingung zusammenfassen
kann:
(c) (v
1
+v
2
)a U fr alle v
1
, v
2
U und a F.
2.1.2 Beispiele.
(a) Die Menge {(a, 0, 0) | a F} F
3
ist ein Unterraum von F
3
.
(b) {(a, b, 0) | a, b F} F
3
ist ebenso ein Unterraum von F
3
.
(c) U = {(a, 1, 0) | a F} ist jedoch kein Unterraum von F
3
.
(d) Jeder Vektorraum V ist ein Unterraum von sich selbst.
(e) Die Menge {o} ist ein Unterraum von V. Man nennt {o} den Nullraum des
Vektorraums V.
(f) Sei V ein Vektorraum ber dem Krper F und v = o ein Vektor von V.
Dann ist v F = {v a | a F} ein nicht trivialer Unterraum von V; denn
v a
1
+v a
2
= v(a
1
+a
2
) und (va
1
)a
2
= v(a
1
a
2
) fr alle a
1
, a
2
F.
(g) In demFunktionenraumV = R
[a,b]
(vgl. 1.5.2 c)) bilden die Teilmengen aller
integrierbaren, aller stetigen oder aller differenzierbaren Funktionen je einen
Unterraum. Ebenso ist die Teilmenge aller Polynome ein Unterraum von V.
In der angegebenen Reihenfolge sind sie sogar Unterrume voneinander.
2.1.3 Satz. Jeder Unterraum U eines Vektorraumes V ber dem Krper F ist ein
Vektorraum.
2.1 Unterrume 25
Beweis: Nach Bedingung (b) von Denition 2.1.1 gilt u = u(1) U fr alle
u U. Aus Bedingung (a) derselben Denition folgt u
1
u
2
U fr alle Paare
u
1
, u
2
U. Da V eine abelsche Gruppe ist, ist U ebenfalls eine abelsche Gruppe
nach Hilfssatz 1.3.10. Die Assoziativ- und Distributivgesetze und die Forderung
x 1 = x aus Denition 1.5.1 vererben sich wegen Denition 2.1.1 von V auf U.
2.1.4 Denition. Sei V ein Vektorraum ber dem Krper F. Der Vektor v V
heit eine Linearkombination der Vektoren v
1
, . . . , v
r
V, falls es Skalare
a
1
, a
2
, . . . , a
r
F gibt derart, da v = v
1
a
1
+v
2
a
2
+ +v
r
a
r
.
2.1.5 Beispiele.
(a) Seien v
1
= (2, 1, 0) und v
2
= (1, 1, 0) Elemente aus Q
3
. Dann ist v
3
=
(5, 8, 0) Q
3
eine Linearkombination von v
1
und v
2
, denn es ist v
3
= v
1

(1) +v
2
7.
(b) Ist v
4
= (a, b, 0) Q
3
mit beliebigen Elementen a und b, so gilt allgemeiner
v
4
= v
1

ab
3
+ v
2

a+2b
3
, also ist auch v
4
eine Linearkombination von v
1
und v
2
.
(c) v
5
= (1, 1, 1) ist keine Linearkombination von v
1
und v
2
, weil fr a
1
, a
2
Q
mit v
5
= v
1
a
1
+v
2
a
2
die Gleichungen
2 a
1
+a
2
= 1
a
1
+a
2
= 1
0 a
1
+0 a
2
= 1
folgen. Die dritte Gleichung fhrt zum Widerspruch 0 = 1.
Diese Beispiele zeigen, da die Menge aller Linearkombinationen von v
1
und
v
2
gleich {(a, b, 0) | a, b Q} ist.
Im folgenden sei V stets ein Vektorraum ber dem Krper F.
2.1.6 Satz. Seien v
1
, . . . , v
r
V. Dann ist die Menge L =
_
r
i=1
v
i
a
i
| a
i
F
_
aller Linearkombinationen der v
i
ein Unterraum von V.
Beweis: Sicherlich ist o = v
1
0+v
2
0+ +v
r
0 L, d. h. L = . Sind w
1
, w
2

L, dann existieren a
1
, . . . , a
r
, b
1
, . . . , b
r
F so, da w
1
= v
1
a
1
+ + v
r
a
r
und w
2
= v
1
b
1
+ +v
r
b
r
. Also ist
w
1
+w
2
= v
1
(a
1
+b
1
) + +v
r
(a
r
+b
r
) L.
Fr jedes c F ist w
1
c = v
1
(a
1
c) + + v
r
(a
r
c) L. Somit ist L ein
Unterraum von V.
26 2 Struktur der Vektorrume
2.1.7 Denition. Seien v
1
, . . . , v
r
V. Das Erzeugnis der Vektoren v
i
ist der Un-
terraum L =
_
r
i=1
v
i
a
i
| a
i
F
_
, der aus allen Linearkombinationen der v
i
besteht. L heit auch der von den Vektoren v
i
erzeugte Unterraum. Man schreibt
auch L = v
i
| 1 i r. Wenn r = 0 ist, setzt man L = {o}.
2.1.8 Satz. Der Durchschnitt beliebig vieler Unterrume eines Vektorraums ist
selbst wieder ein Unterraum.
Beweis: Sei S ein nicht-leeres System von Unterrumen und
D =
_
{U | U S}
ihr Durchschnitt. Da o U fr alle U S gilt, ist o D. Also ist D = . Aus
a, b D folgt a, b U fr alle U S. Wegen 2.1.1 gilt dann auch a + b U
fr alle U S und somit a + b D. Ebenso folgt fr c F und a D zunchst
ac U fr alle U S und damit ac D. Wegen Denition 2.1.1 ist daher D ein
Unterraum.
Mittels Satz 2.1.8 lassen sich die Denition 2.1.7 und der Satz 2.1.6 auf beliebige
Teilmengen M von Vektoren des Vektorraumes V verallgemeinern.
2.1.9 Denition. Es sei jetzt M eine beliebige Teilmenge eines Vektorraums V.
Dann ist das System S aller Unterrume U von V mit M U wegen V S nicht
leer, und der Durchschnitt von S ist nach Satz 2.1.8 wieder ein Unterraum von V.
Er ist offenbar der kleinste Unterraum von V, der die Menge M enthlt. Man nennt
ihn den von der Menge M erzeugten Unterraum.
Bezeichnung: M =
_
{U | M U, U Unterraum von V}.
2.1.10 Satz. Der von einer nicht-leeren Teilmenge M eines Vektorraums V erzeugte
Unterraum M besteht aus genau allen Linearkombinationen von jeweils endlich
vielen Vektoren aus M. Ferner gilt = {o}.
Beweis: Addiert man zwei Linearkombinationen von M oder multipliziert man eine
Linearkombination von M mit einem Skalar, so erhlt man offenbar wieder eine
Linearkombination von M. Wegen Denition 2.1.1 ist daher die Menge Y aller Li-
nearkombinationen von M ein Unterraum von V. Jeder Vektor a M ist wegen
a = a 1 eine Linearkombination von M. Daher gilt M Y, und es folgt M Y
nach Denition 2.1.9. Andererseits mu M als Unterraum mit je endlich vielen
Vektoren aus M auch jede ihrer Linearkombinationen enthalten; d. h. es gilt umge-
kehrt Y M. Zusammen ergibt dies die behauptete Gleichung M = Y. Ferner
ist {o} der kleinste Unterraum von V, und es ist auch {o} erfllt.
2.2 Basis und Dimension 27
2.1.11 Bemerkung. Ist S ein System von Unterrumen U eines Vektorraums V,
so ist die Vereinigungsmenge

{U | U S} dieses Systems im allgemeinen kein


Unterraum von V.
2.1.12 Denition. Seien U
1
, U
2
zwei Unterrume des Vektorraumes V. Dann ist die
Summe von U
1
und U
2
erklrt durch U
1
+U
2
= {u
1
+u
2
| u
1
U
1
und u
2
U
2
}.
2.1.13 Satz. Die Summe U
1
+U
2
zweier Unterrume U
1
, U
2
von V ist ein Unterraum
von V.
Beweis: Mit U
1
und U
2
ist auch U
1
+ U
2
gegenber den linearen Operationen
abgeschlossen.
2.2 Basis und Dimension
In diesemAbschnitt wird gezeigt, da jeder endlich erzeugte Unterraum U des Vek-
torraums V ber demKrper F eine

Basis besitzt, undje zwei

Basen vonU gleich


viele Elemente besitzen. Da das Rechnen mit endlich vielen Vektoren in einem nicht
endlich-dimensionalen Vektorraum V stets in einem endlich erzeugten Unterraum
U von V durchgefhrt wird, sind die in diesem Abschnitt entwickelten Ergebnisse
ber die Struktur eines endlich erzeugten Unterraums U von V auch fr das Studium
beliebiger Vektorrume V von grundlegender Bedeutung. Darber hinaus ergibt sich
die Theorie der endlich-dimensionalen Vektorrume als Spezialfall.
Sind nun v
1
, v
2
, . . . , v
r
endlich viele Vektoren des F-Vektorraums V und U =
v
i
| 1 i r der von ihnen erzeugte Unterraum von V, dann lt sich nach
Denition 2.1.7 jeder Vektor u U als eine Linearkombination
u =
r

i=1
v
i
a
i
mit a
i
F
darstellen. Dies gilt insbesondere fr den Nullvektor o. Eine mgliche Darstellung
des Nullvektors ist
o = v
1
0 +v
2
0 + +v
r
0;
man nennt sie die triviale Darstellung von o. Es kann aber bei geeigneten Vektoren
v
1
, v
2
, . . . , v
r
auch nicht triviale Darstellungen
o =
r

i=1
v
i
a
i
, a
i
F,
geben, bei denen mindestens ein a
i
= 0 ist. Die folgende Denition betrifft den
Sonderfall, in dem dies nicht mglich ist.
28 2 Struktur der Vektorrume
2.2.1 Denition. Die Vektoren v
1
, . . . , v
r
V heien linear unabhngig, wenn aus
v
1
a
1
+ +v
r
a
r
= o mit a
i
F
folgt, da a
1
= = a
r
= 0. Andernfalls werden sie linear abhngig genannt.
Eine endliche Teilmenge M von V heit linear unabhngig, wenn entweder
M = oder M aus endlich vielen linear unabhngigen Vektoren v
1
, v
2
, . . . , v
r
von
V besteht, die paarweise verschieden sind, falls r > 1 ist. Andernfalls ist die Menge
M linear abhngig.
Es sei hier bemerkt, da diese Denition in 2.3.7 auf nicht notwendig endliche
Teilmengen so verallgemeinert wird, da der Fall M = nicht gesondert behandelt
werden mu.
2.2.2 Denition. Imn-dimensionalen arithmetischenVektorraumF
n
ber demKr-
per F sind die n Einheitsvektoren e
i
, 1 i n, deniert durch
e
i
= (a
1
, a
2
, . . . , a
n
) mit a
j
=
_
1 fr j = i,
0 fr j = i.
2.2.3 Beispiele.
(a) Die Einheitsvektoren e
i
F
n
, 1 i n, sind linear unabhngig. Denn aus
(0, 0, . . . , 0) = o =
n

i=1
e
i
a
i
= (a
1
, a
2
, . . . , a
n
)
folgt a
i
= 0 fr i = 1, 2, . . . , n.
(b) Sei v
1
= (2, 1, 0), v
2
= (1, 0, 1), v
3
= (3, 1, 1). Dann sind v
1
, v
2
und v
3
linear abhngig; denn
v
1
+v
2
+v
3
(1) = o.
(c) Ein einzelner Vektor v V ist genau dann linear abhngig, wenn v = o.
(d) Wenn die Teilmenge M = {v
1
, v
2
, . . . , v
n
} von V den Nullvektor o enthlt,
ist sie linear abhngig.
Methoden fr den Nachweis der linearen Abhngigkeit bzw. Unabhngigkeit
endlich vieler Vektoren werden im zweiten Abschnitt des dritten (3.2.11) und im
ersten Abschnitt des vierten (4.1.18) Kapitels dargestellt.
2.2.4 Denition. DieTeilmenge M desVektorraums V heit einErzeugendensystem
von V, falls V = M gilt. Der Vektorraum V heit endlich erzeugt, wenn er ein
endliches Erzeugendensystem besitzt.
2.2 Basis und Dimension 29
Der Nullraum {o} wird vom Nullvektor o und auch von erzeugt.
2.2.5 Denition. Die Menge {v
1
, v
2
, . . . , v
r
} der endlich vielen Vektoren v
i
von V,
1 i r, ist eine Basis von V, falls
(a) V von {v
1
, v
2
, . . . , v
r
} erzeugt wird und
(b) die Vektoren v
1
, v
2
, . . . , v
r
linear unabhngig sind.
2.2.6 Beispiele.
(a) Der Nullraum {o} hat die leere Menge als einzige Basis.
(b) Die Einheitsvektoren e
1
, . . . , e
n
bilden eine Basis von F
n
. Sie wird die kano-
nische Basis von F
n
genannt. Sie ist jedoch nicht die einzige Basis von F
n
.
So bilden a
1
= (1, 1) und a
2
= (1, 0) in Q
2
ebenfalls eine Basis.
(c) v
1
= (1, 1), v
2
= (1, 2), v
3
= (2, 1) Q
2
sind ein Erzeugendensystem von
Q
2
, aber sie bilden keine Basis von Q
2
. Hingegen bilden die Vektoren v
1
und
v
2
eine Basis von Q
2
.
Es sei im folgenden U stets ein endlich erzeugter Unterraum des Vektorraums V
ber dem Krper F.
2.2.7 Satz. Jedes Erzeugendensystem {v
1
, . . . , v
r
} von U enthlt eine Basis von U.
Beweis: Durch vollstndige Induktion ber r. Ist U = {o} der Nullraum, so ist die
leere Menge eine Basis von U. In diesem Fall ist die Behauptung trivial. Ohne
Beschrnkung der Allgemeinheit kann daher angenommen werden, da alle v
i
= o
fr i = 1, 2, . . . , r.
Induktionsanfang: r = 1. NachVoraussetzung wird U von v
1
erzeugt. Da v
1
= o
ist, ist v
1
linear unabhngig. Also ist {v
1
} eine Basis von U.
Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig fr alle Unter-
rume, die ein Erzeugendensystem mit weniger als r Elementen besitzen.
Induktionsschlu: Wenn v
1
, . . . , v
r
linear unabhngig sind, dann ist {v
1
, . . . , v
r
}
eine Basis von U nach Denition 2.2.5. Andernfalls gibt es eine Linearkombination
o = v
1
a
1
+ +v
r
a
r
, bei der nicht alle Skalare a
i
gleich 0 sind. Bei geeigneter
Numerierung kann man a
r
= 0 annehmen. Dann ist v
r
= (v
1
a
1
+ + v
r1

a
r1
)(a
1
r
) eine Linearkombination von v
1
, . . . , v
r1
. Also ist {v
1
, . . . , v
r1
} ein
Erzeugendensystem von U. Diese Menge von r 1 Vektoren enthlt somit nach
Induktionsvoraussetzung eine Basis von U.
2.2.8 Satz. Sei {u
1
, u
2
, . . . , u
r
} eine Basis von U. Dann sind jeweils r +1 Vektoren
v
1
, v
2
, . . . , v
r+1
von U linear abhngig.
30 2 Struktur der Vektorrume
Beweis: Durch vollstndige Induktion ber r. Dabei durchluft U alle Unterrume
des Vektorraums V, die von r Elementen erzeugt werden. Jede Menge von Vektoren,
die den Nullvektor enthlt, ist linear abhngig. Daher kann man v
i
= 0 fr i =
1, 2, . . . , r, r +1 annehmen.
Induktionsanfang: Ist r = 1, dann ist v
1
= u
1
f
1
und v
2
= u
1
f
2
fr geeignete
Elemente 0 = f
i
F. Wegen v
1
f
2
+v
2
(f
1
) = u
1
(f
1
f
2
f
2
f
1
) = o sind
v
1
und v
2
linear abhngig.
Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig fr alle Unter-
rume U

, die eine Basis mit weniger als r Elementen besitzen.


Induktionsschlu: Schreibt man v
1
als Linearkombination von u
1
, . . . , u
r
, dann
knnen also nicht alle Koefzienten gleich 0 sein. Bei geeigneter Numerierung der
u
i
s ist der Koefzient a
1
bei u
1
von Null verschieden, also
v
1
= u
1
a
1
+y
1
mit a
1
= 0 und einer Linearkombination y
1
von u
2
, . . . , u
r
. Sei U

= u
i
|
2 i r der von diesen r 1 Elementen u
i
erzeugte Unterraum von V. Dann
ist {u
2
, u
3
, . . . , u
r
} eine Basis von U

, weil die u
i
linear unabhngige Vektoren sind.
Der Vektor y
1
liegt im Unterraum U

. Fr j = 2, . . . , r +1 kann man ebenso


v
j
= u
1
a
j
+y
j
mit einem Skalar a
j
und einem Vektor y
j
U

schreiben. Fr j = 2, . . . , r + 1
setzen wir w
j
= v
j
a
1
v
1
a
j
. Dann gilt fr alle j mit 2 j r +1, da
w
j
= v
j
a
1
v
1
a
j
= u
1
a
j
a
1
+y
j
a
1
v
1
a
j
= u
1
a
j
a
1
+y
j
a
1
u
1
a
1
a
j
y
1
a
j
= y
j
a
1
y
1
a
j
U

.
Die r Vektoren w
2
, . . . , w
r+1
liegen alle im Unterraum U

, der eine Basis aus r 1


Vektorenbesitzt. Daher sindw
2
, . . . , w
r+1
nachInduktionsannahme linear abhngig.
Also gibt es Skalare b
2
, . . . , b
r+1
, welche nicht smtlich gleich 0 sind, mit
o = w
2
b
2
+ +w
r+1
b
r+1
= v
1
(a
2
b
2
a
r+1
b
r+1
) +v
2
a
1
b
2
+ +v
r+1
a
1
b
r+1
.
Fr ein j 2 ist b
j
= 0 und damit wegen a
1
= 0 auch a
1
b
j
= 0. Also sind
v
1
, . . . , v
r+1
linear abhngig.
2.2.9 Satz. Seien u
1
, . . . , u
r
linear unabhngige Vektoren in U V, und sei
{v
1
, . . . , v
s
} ein Erzeugendensystem von U. Dann ist r s.
2.2 Basis und Dimension 31
Beweis: Nach Satz 2.2.7 enthlt {v
1
, v
2
, . . . , v
s
} eine Basis von U mit t s Vek-
toren. Durch Umnumerierung kann erreicht werden, da {v
1
, v
2
, . . . , v
t
} eine Basis
von U ist. Nach Satz 2.2.8 besteht die linear unabhngige Menge {u
1
, . . . , u
r
} aus
hchstens t Vektoren, also r t s.
2.2.10 Hilfssatz. Seien u
1
, . . . , u
r
linear unabhngige Vektoren in V. Genau dann
ist ein Vektor v V eine Linearkombination der Vektoren u
i
, wenn v, u
1
, . . . , u
r
linear abhngig sind.
Beweis: Wenn v = u
1
a
1
+ +u
r
a
r
, dann ist o = v(1)+u
1
a
1
+ +u
r
a
r
,
und nicht alle Koefzienten sind gleich 0. Also sind v, u
1
, . . . , u
r
linear abhngig.
Wenn umgekehrt o = v b +u
1
a
1
+ +u
r
a
r
gilt und nicht alle Koefzienten
gleich 0 sind, dann ist b = 0, denn sonst wren u
1
, . . . , u
r
linear abhngig. Daher
ist v = u
1
(a
1
/b) + +u
r
(a
r
/b) eine Linearkombination der Vektoren u
i
.
2.2.11 Satz. Sei U ein Unterraumdes endlich erzeugtenVektorraumes V. Dann gilt:
(a) U ist ebenfalls endlich erzeugt und besitzt eine Basis.
(b) Je zwei Basen von U haben gleich viele Elemente.
Insbesondere besitzt V eine endliche Basis, und je zwei Basen von V haben gleich
viele Elemente.
Beweis: (a) Sind u
1
, . . . , u
r
linear unabhngige Vektoren aus U, dann sind sie auch
linear unabhngig in V. Da V ein Erzeugendensystem mit n Elementen hat, ist
r n nach Satz 2.2.9. Sei nun B = {u
1
, . . . , u
r
} eine maximale linear unabhngige
Teilmenge von Vektoren u
i
aus dem Unterraum U. Dann ist auch sie ein Erzeugen-
densystem von U, denn fr jedes v U ist v, u
1
, . . . , u
r
linear abhngig wegen
der Maximalitt von B. Also ist v eine Linearkombination von u
1
, . . . , u
r
nach
Hilfssatz 2.2.10. Damit ist B eine Basis von U.
(b) Seien B = {u
1
, u
2
, . . . , u
r
} und B

= {u

1
, u

2
, . . . , u

s
} zwei Basen des
Unterraums U. Wendet man Satz 2.2.9 zunchst auf das Erzeugendensystem B

und
die linear unabhngigen Vektoren u
1
, u
2
, . . . , u
r
an, dann folgt r s. Aus der
Symmetrie der Voraussetzungen ergibt sich analog, da s r. Also gilt r = s.
2.2.12 Denition. Ist V ein endlich erzeugter F-Vektorraum, dann wird die allen
Basen von V nach Satz 2.2.11 gemeinsame Anzahl ihrer Elemente die Dimension
von V genannt und mit dimV bzw. dim
F
V bezeichnet. In diesem Fall heit V
endlich-dimensionaler Vektorraum. Besitzt V jedoch keine endliche Basis, so heit
V unendlich-dimensional, und man setzt dimV = .
Nach den Stzen 2.1.3 und 2.2.11 besitzt jeder endlich erzeugte Unterraum U
eines beliebigen F-Vektorraums V eine endliche Dimension dimU.
32 2 Struktur der Vektorrume
2.2.13 Beispiele.
(a) dimF
n
= n, denn {e
1
, . . . , e
n
} ist eine Basis von F
n
.
(b) Sei U = {(a, b, 0) F
3
| a, b F}, dann bilden die Vektoren v
1
= (1, 0, 0)
und v
2
= (0, 1, 0) eine Basis von U. Daher ist dimU = 2.
(c) Die Dimension des Nullraumes {o} ist 0 (= Anzahl der Elemente von ).
2.2.14 Folgerung. Sei U ein endlich erzeugter Unterraum des Vektorraumes V mit
dimU = d. Dann gilt:
(a) Folgende Eigenschaften der Elemente u
1
, . . . , u
d
U sind quivalent:
(i) {u
1
, . . . , u
d
} ist eine Basis von U.
(ii) {u
1
, . . . , u
d
} ist linear unabhngig.
(iii) {u
1
, . . . , u
d
} ist ein Erzeugendensystem von U.
(iv) Jedes u U hat eine eindeutige Darstellung
u = u
1
a
1
+u
2
a
2
+ +u
d
a
d
mit a
i
F.
(v) o U besitzt nur die triviale Darstellung.
(b) dimU dimV.
(c) Wenn dimU = dimV, dann ist U = V.
Beweis: (a) (i) (ii) ist trivial.
(ii) (iii) Wegen dimU = d sind jeweils d +1 Vektoren u
1
, . . . , u
d
, u von U
nach Satz 2.2.7 linear abhngig. Nach Hilfssatz 2.2.10 ist u eine Linearkombination
von u
1
, . . . , u
d
, also ist dies ein Erzeugendensystem.
(iii) (i) Nach Satz 2.2.7 enthlt u
1
, . . . , u
d
eine Basis. Da diese Basis wegen
dimU = d ebenfalls d Elemente hat, ist {u
1
, . . . , u
d
} selbst schon eine Basis von U.
(i) (iv) Da u
1
, . . . , u
d
ein Erzeugendensystemvon U ist, lt sich jedes u U
als Linearkombination der u
i
s schreiben:
u = u
1
a
1
+ +u
d
a
d
. ()
Wenn auch u = u
1
b
1
+ +u
d
b
d
, dann ist
o = u u
= u
1
(a
1
b
1
) + +u
d
(a
d
b
d
).
Da die u
i
s linear unabhngig sind, mssen alle Koefzienten a
i
b
i
gleich 0 sein,
d. h. a
i
= b
i
fr i = 1, . . . , d. Die Darstellung () von u ist also eindeutig.
(iv) (v) ist trivial.
2.2 Basis und Dimension 33
(v) (iv). Hat u U die beiden Darstellungen
u =
d

i=1
u
i
a
i
=
d

i=1
u
i
b
i
,
so hat o die Darstellung o =

d
i=1
u
i
(a
i
b
i
). Wegen (v) folgt a
i
= b
i
fr i =
1, 2, . . . , d.
(iv) (iii) ist trivial.
(b) Seien {u
1
, . . . , u
d
} und {v
1
, . . . , v
s
} je eine Basis von U bzw. V. Wegen
Satz 2.2.9 ist dimU = d s = dimV. Der Fall dimV = ist trivial.
(c) Wenn dimV = d, dann ist {u
1
, . . . , u
d
} nach (b) schon eine Basis von V.
Wegen (a) ist daher V das Erzeugnis von u
1
, . . . , u
d
. Also gilt V = U.
2.2.15 Satz (Austauschsatz von Steinitz). Seien u
1
, . . . , u
r
linear unabhngige
Vektoren des Vektorraums V und {v
1
, . . . , v
s
} eine Basis von V. Dann gilt:
(a) r s.
(b) Bei geeigneter Numerierung der Vektoren v
1
, v
2
, . . . , v
s
ist auch
{u
1
, u
2
, . . . , u
r
, v
r+1
, . . . , v
s
} eine Basis von V.
Man erhlt also wieder eine Basis von V, indem man r geeignete unter den Vektoren
v
1
, v
2
, . . . , v
s
gegen die Vektoren u
1
, u
2
, . . . , u
r
austauscht. Umgekehrt kann man
jede linear unabhngige Teilmenge u
1
, . . . , u
r
von V zu einer Basis von V erweitern.
Beweis: (a) Nach Satz 2.2.9 ist r s.
(b) Ist r = s, so ist {u
1
, u
2
, . . . , u
r
} eine Basis von U nach Folgerung 2.2.14. Sei
also r < s. Da {v
1
, v
2
, . . . , v
s
} eine Basis von U ist, ist mindestens einer ihrer Vek-
toren v {v
1
, v
2
, . . . , v
s
} keine Linearkombination der Vektoren u
1
, u
2
, . . . , u
r
.
Nach Umnumerierung kann angenommen werden, da v = v
r+1
ist. Nach Hilfs-
satz 2.2.10 sind dann die Vektoren u
1
, u
2
, . . . , u
r
, v
r+1
linear unabhngig. Durch
(s r)-malige Wiederholung dieses Arguments folgt die Behauptung (b); denn nach
Folgerung 2.2.14 haben je zwei Basen von U gleich viele Elemente. Die beiden
Zustze ergeben sich sofort aus (b).
2.2.16 Satz (Dimensionssatz). Es seien U und W zwei endlich-dimensionale Unter-
rume eines Vektorraumes V. Dann gilt:
dimU +dimW = dim(U W) +dim(U +W).
Beweis: Nach den Stzen 2.1.8 und 2.1.13 sindUW und U+W Unterrume von V.
Es sei B
d
= {d
1
, . . . , d
r
} eine Basis von U W. (Hierbei ist auch r = 0 zugelassen,
wenn UW der Nullraum, die Basis also die leere Menge ist.) Nach Satz 2.2.15 kann
B
d
einerseits zu einer Basis B
1
= {d
1
, . . . , d
r
, a
1
, . . . , a
s
} von U, andererseits auch
34 2 Struktur der Vektorrume
zu einer Basis B
2
= {d
1
, . . . , d
r
, b
1
, . . . , b
t
} von W erweitert werden. Zunchst soll
jetzt gezeigt werden, da B = {d
1
, . . . , d
r
, a
1
, . . . , a
s
, b
1
, . . . , b
t
} eine Basis des
Summenraumes U +W ist.
Jeder Vektor x U +W kann nach Denition 2.1.12 in der Formx = u+w mit
u U und w W dargestellt werden. Da sich u als Linearkombination von B
1
und
w als Linearkombination von B
2
darstellen lt, ist x eine Linearkombination von B.
Es gilt daher jedenfalls B = U +W. Zum Nachweis der linearen Unabhngigkeit
von B werde
d
1
x
1
+ +d
r
x
r
+a
1
y
1
+ +a
s
y
s
+b
1
z
1
+ +b
t
z
t
= o,
also
d
1
x
1
+ +d
r
x
r
+a
1
y
1
+ +a
s
y
s
= b
1
z
1
b
t
z
t
,
mit Elementen x
i
, y
j
, z
k
F vorausgesetzt. Da in der letzten Gleichung die linke
Seite einVektor aus U, die rechte Seite aber einVektor aus W ist, mssen beide Seiten
ein Vektor aus U W sein, der sich somit als Linearkombination von d
1
, . . . , d
r
darstellen lassen mu. Wegen der linearen Unabhngigkeit von B
1
und B
2
ergibt
sich hieraus wegen Folgerung 2.2.14 (a) (iv) unmittelbar, da x
1
= = x
r
=
y
1
= = y
s
= z
1
= = z
t
= 0 gilt. Es folgt jetzt
dimU+dimW = (r +s)+(r +t ) = r +(r +s +t ) = dim(UW)+dim(U+W).

Die kanonische Basis {e


i
| 1 i n} des n-dimensionalen arithmetischen
Vektorraums ber dem Krper F ist eine geordnete Basis im Sinne der folgenden
Denition.
2.2.17 Denition. Sei V ein endlich-dimensionaler F-Vektorraum. Sei B =
{v
1
, . . . , v
n
} eine Basis von V. Dann ist B durch die Numerierung der Basisvek-
toren v
i
geordnet. Bezglich dieser geordneten Basis besitzt jeder Vektor v V
eine eindeutige Darstellung
v = v
1
a
1
+v
2
a
2
+ +v
n
a
n
mit a
i
F.
Die durch die Numerierung geordneten Koefzienten a
1
, a
2
, . . . , a
n
heien die
Koordinaten des Vektors v bezglich der geordneten Basis B. Der Vektor a =
(a
1
, a
2
, . . . , a
n
) F
n
heit der Koordinatenvektor von v hinsichtlich B.
2.2.18 Satz. Sei B = {v
1
, v
2
, . . . , v
n
} eine geordnete Basis des n-dimensionalen
Vektorraumes V. Sei : V F
n
die Abbildung, die jedem Vektor v V seinen
Koordinatenvektor a = (a
1
, a
2
, . . . , a
n
) F
n
zuordnet. Dann gelten die folgenden
Aussagen:
2.2 Basis und Dimension 35
(a) ist eine bijektive Abbildung des Vektorraums V auf den arithmetischen Vek-
torraum F
n
.
(b) (v +w) = (v) +(w) fr alle v, w V.
(c) (vc) = (v) c fr alle v V und c F.
Beweis: (a) Da B eine Basis des F-Vektorraums V ist, hat jeder Vektor v V nach
Folgerung 2.2.14 eine eindeutige Darstellung
() v = v
1
a
1
+v
2
a
2
+ +v
n
a
n
mit a
i
F.
Also ist die Zuordnung : V F
n
, die durch
(v) = a = (a
1
, a
2
, . . . , a
n
) F
n
deniert ist, injektiv. Umgekehrt gilt bei gegebenem a = (a
1
, a
2
, . . . , a
n
) fr den
durch () denierten Vektor v auch (v) = a; d. h. ist surjektiv und damit sogar
bijektiv.
(b) Sind v, w V zwei Vektoren von V mit Koordinatenvektoren (v) =
(a
1
, a
2
, . . . , a
n
), (w) = (b
1
, b
2
, . . . , b
n
), so hat ihre Summe v + w den Koor-
dinatenvektor
(v +w) = (a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n
)
= (a
1
, a
2
, . . . , a
n
) +(b
1
, b
2
, . . . , b
n
)
= (v) +(w).
(c) Ebenso folgt fr jedes c F, da
(v c) = (a
1
c, a
2
c, . . . , a
n
c)
= (a
1
, a
2
, . . . , a
n
) c
= (v) c
gilt.
2.2.19 Bemerkung. Satz 2.2.18 besagt, da man jedem Vektor v eines beliebigen
n-dimensionalen F-Vektorraums V einen Vektor a = (a
1
, a
2
, . . . , a
n
) des arithme-
tischen Vektorraums F
n
so zuordnen kann, da das Rechnen mit den Vektoren v aus
V auf die in 1.5.2 (d) erklrten linearen Operationen im arithmetischen Vektorraum
F
n
zurckgefhrt wird. Hieraus ergibt sich, da das Rechnen in jedem endlich-
dimensionalen F-Vektorraum V in natrlicher Weise auf das Rechnen im Krper F
reduziert wird.
36 2 Struktur der Vektorrume
2.3 Direkte Summen und Struktursatz
In diesem Abschnitt wird der Begriff

Basis so verallgemeinert, da er auch fr


unendlich-dimensionale Vektorrume V ber einem Krper F verwendet werden
kann. Mit Hilfe des Lemmas von Zorn wird gezeigt, da jeder F-VektorraumV eine
Basis besitzt. Hieraus ergibt sich, da V eine direkte Zerlegung in eindimensionale
Unterrume besitzt. Der Beweis dieses Struktursatzes fr beliebige Vektorrume V
beruht auch auf detaillierten Ergebnissen ber direkte Summen von Unterrumen
von V. Dazu werden die folgenden Begriffsbildungen eingefhrt.
2.3.1 Denition. Sei Aeine additiv geschriebene abelsche Gruppe mit Nullelement
0. Die Elemente a einer Teilmenge T von A sind fast alle Null, falls es in T nur
endlich viele Elemente a = 0 gibt. Ist T = {a

| A} fr eine Indexmenge A,
so sagt man auch, da a

= 0 fr fast alle Aist.


Diese Denition wird im folgenden auf Teilmengen T eines F-Vektorraumes V
wie auch auf Teilmengen T des Krpers F angewendet.
2.3.2 Denition. Es sei {U

| A} ein System von Unterrumen U

des F-
Vektorraumes V derart, da die Zuordnung U

injektiv ist. Die Summe

A
U

der Unterrume U

ist die Menge

A
U

=
_
v =

A
u

fr alle , u

= o fr fast alle A
_
.
Dabei ist dieAnzahl der von Null verschiedenen Summanden abhngig vomElement
v aus V.
Ein Vektor v der Summe

A
U

hat stets nur endlich viele von Null ver-


schiedene Summanden u

aus verschiedenen Unterrumen U

, A. Falls Aeine
unendliche Indexmenge ist, mu diese Bedingung der Denition 2.3.2 besonders
beachtet werden.
2.3.3 Satz. Die Summe

A
U

der Unterrume U

, A, ist ein Unterraum


von V. Insbesondere gilt:

A
U

=
_
{U V | U

U fr alle A}.
Beweis: Ergibt sich unmittelbar aus den Denitionen 2.3.2 und 2.1.1. Der Zusatz
folgt aus Satz 2.1.8.
2.3 Direkte Summen und Struktursatz 37
2.3.4 Denition. Es sei {U

| A} ein System von Unterrumen des F-Vektor-


raumes V derart, da die Zuordnung U

injektiv ist. Dann heit die Summe

A
U

direkt, wenn fr jeden Index Agilt:


U

= {o} und U

A\{}
U

= {o}.
Bezeichnung:

A
U

.
U
1
U
2
U
n
bzw.
n
i=1
U
i
, falls A = {1, 2, . . . , n} endlich ist.
2.3.5 Denition. Sei {U

| A} ein System von Unterrumen U

= {o} des
F-Vektorraumes V derart, da die Zuordnung U

injektiv ist. Dann hat s

A
U

eine eindeutige Darstellung, wenn aus


s =

A
u

A
v

mit u

, v

, A,
fr alle Afolgt u

= v

.
2.3.6 Satz. Die Summe S =

A
U

der Unterrume U

= {o} des F-Vektor-


raumes V ist genau dann direkt, wenn sich jeder Vektor s S auf genau eine Weise
in der Form
s =

A
u

mit u

fr alle A
darstellen lt.
Beweis: Zunchst wird angenommen, da die Summe S =

A
U

der Unterru-
me U

von V direkt ist. Seien s = u

1
+u

2
+ +u

n
und s = v

1
+v

2
+ +v

m
zwei Summendarstellungen des Vektors s S. Wre der Index
1
von allen Indizes

1
,
2
, . . . ,
m
verschieden, dann wre
o = u

1
= v

1
+v

2
+ +v

m
u

2
u

3
u

n
U

A
=
1
U

= {o}.
Aus diesem Widerspruch folgt, da bei geeigneter Numerierung
i
=
i
fr i =
1, 2, . . . , n und somit n = m gilt. Daher ist
v

i
u

i
=
m

j=1
j=i
_
u

j
v

j
_
U

i

m

j=1
j=i
U

j
= {o}.
Also ist u

i
= v

i
fr alle i = 1, 2, . . . , n, und jedes s

A
U

hat eine
eindeutige Summendarstellung.
38 2 Struktur der Vektorrume
Umgekehrt sei die Summe

A
U

nicht direkt. Dann gibt es einen Index


Aund einen Vektor u

= o mit
u

A\
U

.
Also existieren endlich viele Indizes
1
,
2
, . . . ,
n
A\{} und Elemente u

i
= o
in U

i
derart, da u

= u

1
+u

2
+ +u

n
. Daher hat das Element u

der Summe

A
U

keine eindeutige Darstellung.


Um den Struktursatz fr nicht notwendig endlich-dimensionale F-Vektorrume
formulieren zu knnen, ist es erforderlich, die Denition 2.2.1 der linearen Unab-
hngigkeit von endlich vielen Vektoren zu verallgemeinern.
2.3.7 Denition. Eine Teilmenge T des F-Vektorraumes V heit linear abhngig,
wenn T endlich viele Vektoren t
i
, i = 1, 2, . . . , k, enthlt, die linear abhngig sind.
Andernfalls heit T linear unabhngig.
2.3.8 Bemerkung. Die leere Teilmenge T = von V ist nach Denition 2.3.7 linear
unabhngig, weil sie trivialerweise keineVektoren und daher auch nicht endlich viele
linear abhngige Vektoren enthlt. Andererseits ist jede den Nullvektor o enthaltende
Teilmenge T von V linear abhngig.
2.3.9 Satz. Sei V ein F-Vektorraum. Eine nicht-leere Teilmenge T von Vektoren
o = t V ist genau dann linear unabhngig, wenn die Summe S =

tT
t F der
eindimensionalen Unterrume t F, t T , direkt ist.
Beweis: Nach Beispiel 2.1.2 (f) ist t F fr jedes o = t T ein eindimensio-
naler Unterraum von V. Nach Satz 2.3.6 ist die Summe S =

tT
t F dieser
Unterrume genau dann direkt, wenn jeder Vektor s S eine eindeutige Darstellung
s =

t T
tf
t
mit f
t
F hat, wobei f
t
= 0 fr fast alle t T ist. Dies gilt genau
dann, wenn der Nullvektor s = o von S nur die triviale Darstellung mit f
t
= 0 fr
alle t T hat, d. h. wenn T linear unabhngig ist.
Die Denition einer Basis kann jetzt auf beliebige Vektorrume bertragen wer-
den.
2.3.10 Denition. Eine Teilmenge B eines F-Vektorraumes V heit eine Basis von
V, wenn B linear unabhngig ist und den ganzen Raum V erzeugt.
2.3.11 Beispiel. {1, X, X
2
, . . . } ist eine Basis des unendlich-dimensionalen F-Vek-
torraumes V = F[X] der Polynome mit Koefzienten aus F.
2.3 Direkte Summen und Struktursatz 39
2.3.12 Folgerung. Sei V ein vom Nullraum verschiedener Vektorraum ber dem
Krper F. Die nicht-leere Teilmenge B von V ist genau dann eine Basis von V,
wenn
V =

bB
b F.
Beweis: Ergibt sich unmittelbar aus Satz 2.3.9 und der Denition 2.3.10.
Der folgende Satz wird benutzt um zu zeigen, da man jede linear unabhngige
Teilmenge eines F-Vektorraumes V zu einer Basis von V erweitern kann.
2.3.13 Satz. Sei B eine Teilmenge des F-Vektorraumes V. Dann sind folgende Aus-
sagen quivalent:
(a) B ist eine Basis von V.
(b) B ist eine maximale linear unabhngige Teilmenge von V.
(c) B ist eine minimale Teilmenge von V, die V erzeugt, d. h. V = B, aber
V = C fr jede echte Teilmenge C von B.
Beweis: Wenn V der Nullraum {o} ist, dann ist die leere Menge die einzige Basis
von V. Fr B = sind die Bedingungen (a), (b) und (c) alle trivialerweise erfllt.
Daher gelte im folgenden stets V = {o}.
(a) (b): Als Basis von V ist B eine linear unabhngige Teilmenge von V derart,
da jeder Vektor o = v V eine Linearkombination von endlich vielen Vektoren
b B ist. Daher ist jede echte Obermenge B

von B linear abhngig. Also ist B eine


maximale linear unabhngige Teilmenge von V.
(b) (c): Fr jeden Vektor v V mit v B ist B {v} linear abhngig.
Also ist v eine Linearkombination von Vektoren b B, und somit gilt V = B.
Angenommen, die echte Teilmenge C von B sei ebenfalls ein Erzeugendensystem
von V. Wegen V = C = {o} ist C = . Ferner gibt es einen Vektor b B mit
b C. Wegen b C gibt es endlich viele Vektoren c
i
C und Krperelemente
f
i
= 0 in F mit
b = c
1
f
1
+c
2
f
2
+ +c
n
f
n
.
Daher ist {b, c
1
, c
2
, . . . , c
n
} eine endliche Teilmenge von B, die linear abhngig ist,
was der linearen Unabhngigkeit von B widerspricht.
(c) (a): Wre das minimale Erzeugendensystem B von V linear abhngig,
dann gbe es einen Vektor b B, der eine Linearkombination von endlich vielen
weiteren Vektoren b
i
= o von B wre, d. h.
b = b
1
f
1
+b
2
f
2
+ +b
n
f
n
fr geeignete 0 = f
i
F. ()
Sei C = B \ {b}. Dann ist b
i
C fr i = 1, 2, . . . , n. Da V von B erzeugt wird,
folgt daher aus (), da auch die echte Teilmenge C von B ein Erzeugendensystem
40 2 Struktur der Vektorrume
von V ist. Dies widerspricht der Minimalittsbedingung (c). Deshalb ist B linear
unabhngig. Wegen V = B ist B deshalb eine Basis von V nach Denition 2.3.10.
2.3.14 Satz. Es sei M eine linear unabhngige Teilmenge eines Vektorraumes V
ber dem Krper F. Dann gibt es eine Basis B von V mit M B.
Beweis: Es sei S das System aller linear unabhngigen Teilmengen T von V mit
M T . Wegen M S ist S nicht leer. Weiter sei jetzt K eine beliebige Kette von
Teilmengen T aus S, und W = {T | T K} sei ihre Vereinigungsmenge.
Wre W nicht linear unabhngig, dann enthielte W eine endliche Teilmenge
w
1
, w
2
, . . . , w
r
von Vektoren aus V, die linear abhngig wren. Zu jedemw
i
gibt es
eine Teilmenge T
i
K mit w
i
T
i
fr i = 1, 2, . . . , r. Da K eine Kette ist, existiert
unter diesen endlich vielen Mengen eine Teilmenge etwa T
1
, die alle anderen
enthlt. Also gilt w
i
T
1
fr i = 1, 2, . . . , r, was der linearen Unabhngigkeit von
T
1
S widerspricht. Daher ist W linear unabhngig ber F. Nach demLemma 1.1.9
von Zorn gibt es in S ein maximales Element B, d. h. B ist eine maximale linear
unabhngige Teilmenge von V. Also ist B eine Basis von V nach Satz 2.3.13 mit
M B.
Aus der Folgerung 2.3.12 und dem Satz 2.3.14 ergibt sich nun unmittelbar der
Struktursatz fr nicht notwendig endlich-dimensionale Vektorrume V ber dem
Krper F.
2.3.15 Satz. (a) Jeder F-Vektorraum V besitzt eine Basis B.
(b) Ist V = {o} und ist B eine Basis von V, so ist V =

bB
b F.
Beweis: (a) folgt durch Anwendung des Satzes 2.3.14 auf M = .
(b) ergibt sich unmittelbar aus (a) und Folgerung 2.3.12.
Ist U ein von {o} und V verschiedener Unterraum des endlich-dimensionalen
F-Vektorraumes V der Dimension dimV = n, so gibt es stets einen Unterraum K
von V mit V = U K. Denn ist u
1
, u
2
, . . . , u
r
eine Basis von U, dann lt sie
sich nach Satz 2.2.15 durch n r Vektoren v
r+1
, v
r+2
, . . . , v
n
zu einer Basis von
V ergnzen. Nach Satz 2.1.6 ist K =
_
nr
j=1
v
r+j
a
j
| a
j
F
_
ein Unterraum von
V. Da {u
i
| 1 i r} {v
r+j
| 1 j n r} eine Basis von V ist, folgt
U K = {o} und V = U + K. Also ist K ein Komplement von U im Sinne der
folgenden Denition.
2.3.16 Denition. Sei U ein Unterraum des F-Vektorraumes V. Dann heit ein
UnterraumK von V Komplement von U, falls V = U +K und U K = {o} gelten.
2.4 Aufgaben 41
2.3.17 Bemerkung. Ein Komplement eines echten Unterraums U = {o} des F-
Vektorraumes V ist nicht eindeutig bestimmt.
Gegenbeispiel: Sei V = F
2
und U = {(a, 0) | a F}. Dann sind K
1
=
{(0, b) | b F} und K
2
= {(c, c) | c F} zwei verschiedene Komplemente von U
in V.
Als weitere Folgerung von Satz 2.3.14 ergibt sich, da jeder Unterraum U eines
nicht notwendig endlich-dimensionalen F-Vektorraumes V ein Komplement besitzt.
Ist U = V, so ist K = {o} das Komplement von U.
2.3.18 Satz (Komplementierungssatz). Es sei V ein Vektorraum ber dem Krper
F. Dann hat jeder Unterraum U von V ein Komplement.
Beweis: Nach Satz 2.3.15 hat der Unterraum U eine Basis C. Wegen Satz 2.3.14
gibt es eine Basis B von V mit C B. Sei K = b B | b C. Dann gilt
V = U +K und U K = {o}.

2.4 Aufgaben
2.1 Seien v = (a, b), w = (c, d) F
2
. Zeigen Sie, da v und w genau dann linear abhngig
sind, wenn a d b c = 0.
2.2 Die Vektoren u, v, w Q
n
seien linear unabhngig ber Q. Beweisen Sie die Behaup-
tungen:
(a) Die drei Vektoren u +v w2, u v w und u +w sind linear unabhngig.
(b) u +v w3, u +v3 w und v +w sind linear abhngig.
2.3 Sei V = Q[X] der Q-Vektorraum aller Polynome in der Unbestimmten X ber dem
Krper Q. Ist es mglich, das Polynom v = X
2
+ 4X 3 als Linearkombination der drei
Polynome e
1
= X
2
2X + 5, e
2
= 2X
2
3X und e
3
= X + 3 zu schreiben? Wenn ja,
geben Sie eine solche Linearkombination an.
2.4 Seien {v
1
, v
2
, . . . , v
m
} und {w
1
, w
2
, . . . , w
n
} zwei endliche Mengen von Vektoren des
F-Vektorraums V. Sei u V eine F-Linearkombination der Vektoren v
1
, v
2
, . . . , v
m
. Weiter
sei jeder Vektor v
i
eine Linearkombination der nVektoren w
j
, j = 1, 2, . . . , n. Beweisen Sie,
da dann auch u eine F-Linearkombination der Vektoren w
1
, w
2
, . . . , w
n
ist.
2.5 Es sei V = Q
4
.
(a) Ist die Menge S = {(1, 1, 1, 1), (2, 4, 11, 2), (0, 2, 3, 0)} linear unabhngig? Geben
Sie eine Teilmenge an, die eine Basis von S ist.
(b) Ergnzen Sie die linear unabhngige Menge{(1, 1, 1, 1), (0, 2, 3, 0)} zu einer Basis
von V.
42 2 Struktur der Vektorrume
2.6 Die Untermenge W des F-Vektorraumes F
n
[X] der Polynome p(X) mit Grad p(X) n
sei gegeben durch
W = {p(X) F
n
(X) | p(0) = 0 = p(1)}.
Zeigen Sie, da W ein Unterraum ist. Geben Sie eine Basis von W an und erweitern Sie diese
zu einer Basis von F
n
[X].
2.7 Bestimmen Sie eine Basis des Unterraums von Q
5
, der von folgenden Vektoren er-
zeugt wird: u
1
= (1, 2, 2, 2, 1), u
2
= (1, 2, 1, 3, 2), u
3
= (2, 4, 7, 1, 1), u
4
=
(1, 2, 5, 1, 2), u
5
= (1, 2, 3, 1, 0).
2.8 Sei V = F
n1
[X] der F-Vektorraum aller Polynome p(X) = p
0
+ p
1
X + +
p
p1
X
n1
mit Grad p(X) n 1. Seien a
1
, a
2
, . . . , a
n
F paarweise verschiedene
Elemente von F. Sei
G
i
(X) =
n

j=1
j=i
(X a
j
)
(a
i
a
j
)
.
Zeigen Sie:
(a) Die Polynome G
1
(X), G
2
(X), . . . , G
n
(X) bilden eine Basis von V.
(b) Jedes Polynom p(X) V hat eine eindeutige Darstellung p(X) = p(a
1
)G
1
(X) +
p(a
2
)G
2
(X) + +p(a
n
)G
n
(X).
(c) Fr jedes feste a F bilden die Polynome 1 und H
i
(X) = (X a)
i
, 1 i n 1
eine Basis von V.
(d) Jedes Polynom p(X) aus V hat eine eindeutige Darstellung
p(X) = p(a) 1 +p

(a) H
1
(X) +
p

(a)
2!
H
2
(X) + +
p
(n1)
(a)
(n 1)!
H
(n1)
(X).
2.9 Sei V der R-Vektorraum aller reellwertiger Funktionen f : R R. Zeigen Sie, da die
folgenden Vektoren f, g, h V jeweils linear unabhngig ber R sind:
(a) f (x) = e
x
, g(x) = sin x, h(x) = x
2
;
(b) f (x) = e
x
, g(x) = e
x
2
, h(x) = x;
(c) f (x) = e
x
, g(x) = sin x, h(x) = cos x.
2.10 Sei n < und V ein n-dimensionaler Vektorraum ber dem Krper F. Zeigen Sie:
(a) dim
_
r
i=1
U
i
_
=

r
i=1
dimU
i
.
(b) Jede direkte Summe

r
i=1
U
i
von Unterrumen U
i
= {o} hat hchstens n direkte
Summanden.
3 Lineare Abbildungen und Matrizen
In diesem Kapitel werden die grundlegenden Begriffe und Ergebnisse ber lineare
Abbildungen : V W zwischen zwei Vektorrumen V und W ber demsel-
ben Krper F behandelt. Dies sind diejenigen Abbildungen, die mit den auf diesen
Vektorrumen erklrten linearen Operationen vertauschbar sind. Im Fall endlich-
dimensionaler Vektorrume knnen die linearenAbbildungen durch rechteckige Ma-
trizen mit Koefzienten aus demKrper F beschrieben werden, indemman in beiden
Rumen jeweils eine Basis fest whlt. Wie sich diese Matrizen bei Basiswechseln
ndern, wird in Abschnitt 3 dargelegt.
Im ersten Abschnitt werden die Rechengesetze fr die Addition und Multiplika-
tion von Matrizen behandelt. ImzweitenAbschnitt wird gezeigt, da zu jeder Matrix
eine lineare Abbildung zwischen zwei arithmetischen Vektorrumen F
n
und F
m
gehrt. Anhand dieses Beispiels wird der allgemeine Begriff

lineare Abbildung
entwickelt. Es folgt der Dimensionssatz fr den Kern und den Bildraum einer linea-
ren Abbildung. Er ndet Anwendung bei der Beschreibung der Lsungsgesamtheit
eines linearen Gleichungssystems.
Im vierten Abschnitt wird gezeigt, da der Zeilenrang einer mn-Matrix Amit
dem Spaltenrang von A bereinstimmt. Die invertierbaren Matrizen werden dann
durch den Rang der Matrix charakterisiert.
Im fnften Abschnitt wird gezeigt, da die Menge aller linearen Abbildungen
: V W zwischen zwei Vektorrumen V und W selbst einen Vektorraum
Hom
F
(V, W) bildet. Ist V = W, so ist dieser Vektorraum sogar ein Ring, der En-
domorphismenring genannt wird. Ist dimV = n < , so ist er isomorph zum
Ring Mat
n
(F) aller n n-Matrizen ber F. Von diesem wichtigen Isomorphis-
mus wird in den spteren Kapiteln oft stillschweigend Gebrauch gemacht. Dabei
werden die matrizentheoretischen Rechenmethoden benutzt, um die Invarianten ei-
ner linearen Abbildung zu bestimmen. Whlt man andererseits W = F, so wird
V

= Hom
F
(V, F) zum Dualraum von V. Mit der dualen Basis wird eine Bijektion
zwischen den Mengen der Unterrume von V und V

angegeben.
Schlielich werden im letzten Abschnitt fr einen Endomorphismus
End
F
(V) direkte Zerlegungen von V in -invariante Unterrume betrachtet und
die zugehrigen Matrizendarstellungen von beschrieben.
44 3 Lineare Abbildungen und Matrizen
3.1 Matrizen
In diesem Abschnitt werden die wesentlichen Rechengesetze fr die Addition und
Multiplikation von Matrizen behandelt.
Isoliert man die Koefzienten der Unbekannten aus jeder Gleichung des Glei-
chungssystems
5x
1
+ 10x
2
+ 20x
3
+ 4x
4
= 100
x
1
+ x
2
+ x
3
+ x
4
= 10
12x
1
+ 12x
2
+ 20x
3
= 150 ,
dann erhlt man folgendes Schema:
A =
_
_
5 10 20 4
1 1 1 1
12 12 20 0
_
_
.
Aist eine

Matrix im Sinne der folgenden


3.1.1 Denition. Eine m n-Matrix A ber dem Krper F ist ein rechteckiges
Schema, das aus m n Elementen a
ij
des Krpers F besteht:
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
.
Man schreibt A = (a
ij
). Die Matrix A hat m Zeilen und n Spalten. Der Vektor
z
i
= (a
i1
, . . . , a
in
) F
n
z
, mit demin der Einleitung der n-dimensionale Zeilenraum
ber F bezeichnet wurde, ist der i-te Zeilenvektor von Aund der Vektor
s
j
=
_
_
_
a
1j
.
.
.
a
mj
_
_
_
F
m
s
ist der j-te Spaltenvektor von A. Die Anzahl n bezeichnet man auch als Zeilenlnge
bzw. m als Spaltenlnge.
Das Erzeugnis s
j
| 1 j n der Spaltenvektoren s
j
von A in F
m
heit
Spaltenraum von A. Seine Dimension s(A) = dims
j
| 1 j n heit der
Spaltenrang von A.
Analog heit z
i
| 1 i m der Zeilenraum von A; seine Dimension z(A)
wird Zeilenrang von Agenannt.
Wenn m = n ist, dann nennt man Aeine quadratische Matrix.
3.1 Matrizen 45
3.1.2 Beispiele.
(a) Die Vektoren
_
_
5
1
12
_
_
,
_
_
10
1
12
_
_
,
_
_
20
1
20
_
_
,
_
_
4
1
0
_
_
Q
3
s
sind die Spaltenvektoren der oben angegebenen Matrix D und (1, 1, 1, 1)
Q
4
z
ist der zweite Zeilenvektor von D.
(b) Fr jede natrliche Zahl n kann man die nn-Matrix E
n
betrachten, deren i-te
Zeile gerade der i-te Einheitsvektor e
i
ist. Sie heit die n n-Einheitsmatrix
E
n
=
_
_
_
1 0
.
.
.
0 1
_
_
_
.
(c) Eine Matrix, deren smtliche Eintrge gleich 0 sind, wird Nullmatrix genannt
und mit 0 bezeichnet.
Wie Vektoren v des arithmetischen Vektorraums F
n
kann man auch m n-
Matrizen gleichen Formats elementweise addieren und mit einem Skalar multipli-
zieren.
3.1.3 Denition. Seien A = (a
ij
) und B = (b
ij
) zwei mn-Matrizen und b F.
Dann werden die Summenmatrix A+B und A b durch A+B = (a
ij
+b
ij
) und
A b = (a
ij
b) deniert.
3.1.4 Beispiel. Sei
A =
_
1 2
0 1
_
und B =
_
2 2
1 1
_
.
Dann ist
A+B =
_
1 +2 2 +2
0 +1 1 1
_
=
_
3 0
1 0
_
,
A 3 =
_
1 3 (2) 3
0 3 1 3
_
=
_
3 6
0 3
_
.
3.1.5 Bemerkung. Man kann zwei Matrizen nur dann addieren, wenn sie das gleiche
Format haben. So ist es z. B. nicht mglich, die Matrizen
A =
_
_
1 0
1 1
0 1
_
_
und B =
_
2 2
2 1
_
zu addieren, da Aeine 3 2-Matrix und B eine 2 2-Matrix ist.
46 3 Lineare Abbildungen und Matrizen
3.1.6 Satz. Die m n-Matrizen bilden mit der in 3.1.3 denierten Addition und
Multiplikation mit Skalaren einen Vektorraum Mat
m,n
(F) ber dem Krper F mit
Dimension m n.
Beweis: Es gelten alle Aussagen von Denition 1.5.1. Sei D
ij
die m n-Matrix,
die an der Stelle (i, j) den Koefzienten 1 hat und deren andere Koefzienten alle
0 sind. Dann ist B = {D
ij
| 1 i m, 1 j n} eine Basis von Mat
m,n
(F),
weil B linear unabhngig ist, und jede m n-Matrix A = (a
ij
) die Darstellung
A =

m
i=1

m
j=1
D
ij
a
ij
hat.
3.1.7 Denition. Sei Aeine mn-Matrix mit Spaltenvektoren s
1
, . . . , s
n
und v =
(v
1
, . . . , v
n
) F
n
. Dann ist das Produkt von Amit v deniert durch
A v = s
1
v
1
+s
2
v
2
+ +s
n
v
n
.
3.1.8 Bemerkung. Fr eine mn-Matrix ist das Produkt A v mit einemVektor v
nur dann deniert, falls v F
n
ist. A v ist dann ein Vektor aus F
m
.
3.1.9 Beispiele.
(a) Seien A =
_
_
1 0
2 1
0 1
_
_
, v =
_
2
3
_
. Dann ist
A v =
_
_
1
2
0
_
_
2 +
_
_
0
1
1
_
_
3 =
_
_
2
1
3
_
_
.
(b) Fr die n n-Einheitsmatrix E
n
und jedes v F
n
gilt E
n
v = v.
3.1.10 Bemerkung. Jedes lineare Gleichungssystem (G) mit Koefzientenmatrix
A =
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_
, Unbestimmtenvektor x = (x
1
, . . . , x
n
) und Konstan-
tenvektor d = (d
1
, . . . , d
m
) lt sich schreiben als
A x = d. (G)
Der Denition des Produkts zweier Matrizen wird die des Skalarprodukts zweier
Vektoren des arithmetischen Vektorraums F
n
vorausgestellt.
3.1.11 Denition. Seien a = (a
1
, . . . , a
n
), b = (b
1
, . . . , b
n
) F
n
zwei Vektoren.
Dann ist ihr Skalarprodukt das Element a b = a
1
b
1
+ +a
n
b
n
F.
3.1 Matrizen 47
3.1.12 Beispiel. Seien v = (1, 1, 1, 1, 1), w = (0, 1, 1, 1, 1) F
5
. Dann ist
v w = 1 0 +1 1 +1 1 1 1 +1 1 = 2.
3.1.13 Bemerkungen.
(a) Das Skalarprodukt und das Produkt mit einemSkalar drfen nicht miteinander
verwechselt werden! Das erste macht aus zwei Vektoren einen Skalar, das
zweite aus einem Vektor und einem Skalar einen Vektor.
(b) Man kann nur dann das Skalarprodukt zweier Vektoren a F
m
und b F
n
bilden, wenn m = n ist. Man kann z. B. die Vektoren (0, 1, 1) und (2, 3) nicht
miteinander multiplizieren.
(c) Man kann die linke Seite einer linearen Gleichung a
1
x
1
+ +a
n
x
n
= b
als Skalarprodukt a x des Koefzientenvektors a = (a
1
, . . . , a
n
) und des
Unbestimmtenvektors x = (x
1
, . . . , x
n
) lesen.
3.1.14 Satz. Das Skalarprodukt ist kommutativ, d. h. a b = b a fr je zwei Vektoren
a, b F
n
.
Beweis: Folgt unmittelbar aus der Denition 3.1.11 und der Kommutativitt der
Multiplikation von F.
Das Skalarprodukt wird in der Geometrie verwendet, umWinkel und Lngen zu
denieren. Hierzu wird auf Kapitel 7 verwiesen.
Mittels des Skalarprodukts ist es mglich, eine andere Methode zur Berechnung
von A v anzugeben.
3.1.15 Satz. Sei A = (a
ij
) eine m n-Matrix mit Zeilen z
1
, . . . , z
m
. Sei v =
(v
1
, . . . , v
n
) F
n
und w
i
= z
i
v das Skalarprodukt von z
i
mit v fr 1 i m.
Sei w = (w
1
, w
2
, . . . , w
m
) F
m
. Dann gilt
A v = w.
Beweis: Sei s
j
die j-te Spalte von A. Dann ist
s
j
=
_
_
_
a
1j
.
.
.
a
mj
_
_
_
.
Somit ist die i-te Komponente des Vektors s
j
v
j
gerade gleich a
ij
v
j
. Die i-te
Komponente von A v ist daher
n

j=1
a
ij
v
j
= (a
i1
, . . . , a
in
) (v
1
, . . . , v
n
) = z
i
v = w
i
.

48 3 Lineare Abbildungen und Matrizen


3.1.16 Beispiel. Sei A =
_
_
1 1 1
0 1 1
2 1 0
_
_
und v =
_
_
1
1
2
_
_
. Dann gilt
A v =
_
_
1 1 + 1 (1) + (1) 2
0 1 + 1 (1) + 1 2
2 1 + 1 (1) + 0 2
_
_
=
_
_
2
1
1
_
_
.
3.1.17 Denition. Sei A = (a
ij
) eine m n-Matrix und B = (b
jk
) eine n t -
Matrix. Ferner sei a
i
der i-te Zeilenvektor von A und b
k
der k-te Spaltenvektor
von B. Dann ist die Produktmatrix A B eine m t -Matrix C mit Koefzienten
c
ik
= a
i
b
k
, wobei a
i
b
k
das Skalarprodukt der Vektoren a
i
, b
k
F
n
ist, d. h.
c
ik
= a
i1
b
1k
+a
i2
b
2k
+ +a
in
b
nk
=
n

j=1
a
ij
b
jk
.
Die so erklrte Produktbildung von zwei Matrizen mag zunchst unmotiviert
erscheinen. Sie wird sich jedoch im Rahmen der im drittenAbschnitt dieses Kapitels
behandelten Theorie der linearen Abbildungen als natrlich herausstellen. Hierzu
wird auf Satz 3.3.7 verwiesen.
3.1.18 Bemerkung. Das Produkt A B zweier Matrizen A und B ist nur dann
deniert, wenn die Anzahl der Spalten von A gleich der Anzahl der Zeilen von B
ist. Ist z. B.
A =
_
1 1
0 1
_
und B =
_
_
1 0
0 1
1 1
_
_
,
so ergibt A B keinen Sinn, da Azwei Spalten und B drei Zeilen besitzt. Dagegen
ist B Adeniert, denn B hat ebenso viele Spalten wie AZeilen.
3.1.19 Beispiele.
(a) A =
_
1 2 0
0 1 1
_
, B =
_
_
2 1 1
1 1 0
0 0 1
_
_
,
A B =
_
12+(2)1+00 11+(2)(1)+00 11+(2)0+01
02+11+10 01+1(1)+10 01+10+11
_
=
_
0 3 1
1 1 1
_
.
(b) Sei Aeine mn-Matrix. Dann gilt E
m
A = Aund AE
n
= A.
3.1 Matrizen 49
3.1.20 Bemerkung. Im Gegensatz zu der Multiplikation im Krper F gilt im allge-
meinen nicht A B = B Afr zwei mm-Matrizen Aund B, denn ist z. B.
A =
_
1 1
1 2
_
und B =
_
1 1
0 1
_
,
dann gilt
A B =
_
1 0
1 3
_
und B A =
_
0 3
1 2
_
.
Ist das Produkt von drei Matrizen erklrt, so gilt das Assoziativgesetz:
3.1.21 Satz. Seien A = (a
ij
) eine m n-, B = (b
jk
) eine n t - und C = (c
kp
)
eine t s-Matrix. Dann gilt:
(A B) C = A (B C).
Beweis: Nach der Denition des Produktes zweier Matrizen gilt:
A B = (a
ij
) (b
jk
) =
_
n

j=1
a
ij
b
jk
_
,
B C = (b
jk
) (c
kp
) =
_
t

k=1
b
jk
c
kp
_
,
(A B) C =
_
n

j=1
a
ij
b
jk
_
(c
kp
) =
_
t

k=1
_
n

j=1
a
ij
b
jk
_
c
kp
_
=
_
t

k=1
n

j=1
[a
ij
b
jk
] c
kp
_
nach dem Distributivgesetz von Denition 1.4.1.
A (B C) = (a
ij
)
_
t

k=1
b
jk
V

c
kp
_
=
_
n

j=1
a
ij

_
t

k=1
b
jk
c
kp
_
_
=
_
n

j=1
t

k=1
a
ij
[b
jk
c
kp
]
_
.
Da nach Denition 1.4.1 die Reihenfolge der Summanden einer Summe bzw. der
Faktoren eines Produkts von Elementen des Krpers F beliebig ist und es auf die
Klammerung nicht ankommt, gilt
n

j=1
t

k=1
a
ij
(b
jk
c
kp
) =
t

k=1
n

j=1
(a
ij
b
jk
) c
kp
50 3 Lineare Abbildungen und Matrizen
fr alle i und p. Daher ist (A B) C = A (B C).
3.1.22 Bemerkung. Durch mehrfache Anwendung von Satz 3.1.21 folgt sogar, da
es bei Produkten von endlich vielen Matrizen (sofern sie deniert sind) auf die
Klammersetzung nicht ankommt. Deshalb werden die Klammern von nun an in der
Regel fortgelassen.
3.1.23 Satz. (a) Sind A = (a
ij
) eine mn-Matrix und B = (b
jk
) sowie C = (c
jk
)
jeweils eine n t -Matrix, dann gilt:
A (B +C) = A B +A C.
(b) Analog gilt auch fr mn-Matrizen Aund B und fr eine n t -Matrix C:
(A+B) C = A C +B C.
Beweis: Sei D = (d
ij
) = A (B + C). Nach Denition ist B + C = (b
jk
+ c
jk
)
eine n t -Matrix und somit ist D eine mt -Matrix. Fr 1 i m und 1 k t
gilt d
ik
=

n
j=1
a
ij
(b
jk
+c
jk
) =

n
j=1
a
ij
b
jk
+

n
j=1
a
ij
c
jk
.
Auf der anderenSeite sei F = (f
ik
) = AB+AC. Dannist F wie Deine mt -
Matrix und fr 1 i m und 1 k t gilt f
ik
=

n
j=1
a
ij
b
jk
+

n
j=1
a
ij
c
jk
.
Somit ist F = D und der Teil (a) ist bewiesen. Analog zeigt man (b).
3.1.24 Bemerkungen.
(a) Die etwas unklare Redeweise von

Zeilenvektoren und

Spaltenvektoren
lt sich mittels Matrizen przisieren: einem Vektor v F
n
, also einem n-
Tupel v = (v
1
, . . . , v
n
) F
n
, lt sich ganz natrlich eine n 1-Matrix
zuordnen, nmlich
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
und ebenso natrlich eine 1n-Matrix, nmlich (v
1
, v
2
, . . . , v
n
). Es sind diese
Matrizen gemeint, wenn von v als Spalten- oder Zeilenvektor die Rede ist. In
dieser Interpretation ist A v ein Spezialfall der Matrizenmultiplikation.
(b) Die Matrizenmultiplikation wurde mit Hilfe des Skalarproduktes deniert.
Man kann auch umgekehrt vorgehen: Wenn a und b in F
n
sind, betrachte man
die 1 n-Matrix A = (a
1
. . . a
n
) (d. h. a als Zeilenvektor) und die n 1-
Matrix B =
_
_
_
b
1
.
.
.
b
n
_
_
_
(d. h. b als Spaltenvektor). Das Produkt A B ist dann
eine 1 1-Matrix, deren einziger Eintrag gerade das Skalarprodukt a b ist.
3.1 Matrizen 51
3.1.25 Denition. Sei Aeine mn-Matrix. Die n m-Matrix, deren j-ter Zeilen-
vektor der j-te Spaltenvektor von A ist, heit die zu A transponierte Matrix A
T
.
Eine quadratische n n-Matrix Aheit symmetrisch, wenn A = A
T
.
3.1.26 Beispiele.
(a)
_
_
1 2 2 3
0 0 7 1
2 2 2 2
_
_
T
=
_
_
_
_
1 0 2
2 0 2
2 7 2
3 1 2
_
_
_
_
.
(b) E
T
n
= E
n
.
3.1.27 Bemerkungen.
(a) Wenn A = (a
ij
), dann ist a
ji
der Eintrag an der Stelle (i, j) in A
T
, d. h.
A
T
= (a

ij
) mit a

ij
= a
ji
.
(b) Die Spalten von A
T
sind die Zeilen von A.
(c) (A
T
)
T
= Aund (Ac)
T
= (A
T
)c fr alle c F.
(d) (A+B)
T
= A
T
+B
T
.
3.1.28 Satz. Sei Aeine mn-Matrix und B eine nt -Matrix. Dann ist (A B)
T
=
B
T
A
T
.
Beweis: Seien A = (a
ij
), B = (b
jk
) und AB = (c
ik
). Mit den Bezeichnungen von
Bemerkung 3.1.27(a) gilt dann fr die Koefzienten ihrer transponierten Matrizen
die Gleichung:
c

ki
= c
ik
=
n

j=1
a
ij
b
jk
=
n

j=1
b
jk
a
ij
=
n

j=1
b

kj
a

ji
,
woraus (A B)
T
= B
T
A
T
folgt.
Im folgenden sei n > 0 eine natrliche Zahl und E
n
die n n-Einheitsmatrix.
3.1.29 Denition. Eine n n-Matrix A heit invertierbar, wenn es eine n n-
Matrix B gibt mit
A B = B A = E
n
.
B ist durch A eindeutig bestimmt, wie in Satz 3.1.31 gezeigt wird. Man schreibt
B = A
1
und nennt A
1
die inverse Matrix von A.
In der Literatur werden invertierbare Matrizen auch regulr genannt.
52 3 Lineare Abbildungen und Matrizen
3.1.30 Beispiele.
(a) E
n
ist invertierbar mit E
n
1
= E
n
.
(b) Die Inverse der Matrix
D =
_
_
5 10 20
1 1 1
12 12 20
_
_
ist D
1
=
_
_
1/5 1 1/4
1/5 7/2 3/8
0 3/2 1/8
_
_
.
3.1.31 Satz. (a) Wenn A invertierbar ist mit A
1
= B, dann ist B invertierbar
mit B
1
= (A
1
)
1
= A.
(b) Wenn Aund B invertierbar sind, dann ist auch A B invertierbar, und es gilt
(A B)
1
= B
1
A
1
.
(c) Die Menge GL(n, F) aller invertierbaren n n-Matrizen ist bezglich der
Matrizenmultiplikation eine Gruppe, die man die generelle lineare Gruppe
der Dimension n ber dem Krper F nennt. Insbesondere ist die Inverse A
1
einer invertierbaren Matrix A GL(n, F) eindeutig bestimmt.
Beweis: (a) Folgt aus dem Beweis von Hilfssatz 1.3.6.
(b) Folgt aus Hilfssatz 1.3.7.
(c) Nach Satz 3.1.21 ist die Matrizenmultiplikation assoziativ. Sicherlich ist
AE
n
= E
n
A = A fr alle A GL(n, F). Wegen (b) ist mit A und B auch AB
invertierbar. Daher ist GL(n, F) bezglich der Matrizenmultipliation abgeschlos-
sen. Schlielich ist mit A auch A
1
invertierbar, weil (A
1
)
1
= A. Deshalb ist
GL(n, F) eine Gruppe mit neutralem Element E
n

3.1.32 Bemerkung. In Kapitel 4 wird ein Algorithmus zur Berechnung der Inver-
sen angegeben. Kriterien fr die Invertierbarkeit einer n n-Matrix A werden in
Satz 3.4.9 angegeben. Folgerung 3.4.10 besagt, da aus AB = E
n
schon BA = E
n
folgt. Dies ist eine erhebliche Abschwchung der Bedingung von Denition 3.1.29.
3.2 Lineare Abbildungen
Mit F
n
wird wieder der n-dimensionale arithmetische Vektorraum ber dem Krper
F bezeichnet. Fr eine beliebige mn-Matrix Aist nach Denition 3.1.7 das Produkt
A v fr jeden Vektor v F
n
ein Vektor w F
m
. Die Multiplikation mit A bildet
also einen Vektor v F
n
auf einen Vektor w = A v F
m
ab. Dies schreiben wir
auch als v A v = w. Wir betrachten zunchst solche Abbildungen.
3.2.1 Satz. Die Abbildung v w = A v von F
n
nach F
m
hat folgende Eigen-
schaften:
3.2 Lineare Abbildungen 53
(a) A (u +v) = A u +A v fr alle u, v F
n
.
(b) A (v a) = (A v) a fr alle v F
n
und a F.
Beweis: Die Spaltenvektoren u und v sind (n 1)-Matrizen. also folgt die Behaup-
tung aus Satz 3.1.23 (a) .
(b) Ergibt sich unmittelbar aus Satz 3.1.21.
Satz 3.2.1 zeigt, da lineare Abbildungen im Sinne der folgenden Denition
existieren.
3.2.2 Denition. Seien V und W Vektorrume ber demselben Krper F. Eine Ab-
bildung von V nach W ist eine lineare Abbildung, wenn die beiden folgenden
Bedingungen erfllt sind:
(a) (v
1
+v
2
) = (v
1
) +(v
2
) fr alle v
1
, v
2
V.
(b) (v a) = (v) a fr alle v V und a F.
Ist V = W, so heit eine lineareAbbildung : V V Endomorphismus von V.
Eine Abbildung : V W heit
(c) Epimorphismus, wenn linear und surjektiv ist,
(d) Monomorphismus, wenn linear und injektiv ist,
(e) Isomorphismus, wenn linear und bijektiv ist.
Die Vektorrume V und W heien isomorph, wenn es einen Isomorphismus
: V W gibt.
Bezeichnung: V

= W.
3.2.3 Bemerkungen.
(a) Fr jede lineare Abbildung : V W gilt (o) = o; denn nach 3.2.2 ist
(o) = (o 0) = (o) 0 = o.
(b) (v) = (v (1)) = (v) (1) = (v) fr alle v V.
(c) Die Hintereinanderausfhrung zweier linearer Abbildungen : V W
und : W Z ist eine lineare Abbildung : V Z.
(d) Die Hintereinanderausfhrung dreier linearer Abbildungen : V W, :
W Y, : Y Z ist assoziativ, d. h. () = () : V Z.
Der folgende Satz liefert ein einfaches Verfahren, lineare Abbildungen zwischen
zwei Vektorrumen zu konstruieren. Da nach Satz 2.3.15 jeder Vektorraum V eine
Basis besitzt, knnen mit deren Hilfe lineare Abbildungen zwischen nicht notwendig
endlich-dimensionalen Vektorrumen konstruiert werden.
54 3 Lineare Abbildungen und Matrizen
3.2.4 Satz. Seien V = o und W Vektorrume ber dem Krper F. Sei B eine Basis
von V. Ordnet man jedem Basisvektor b B einen Vektor b

aus W zu, dann gibt es


genau eine lineare Abbildung : V W mit (b) = b

fr alle b B.
Beweis: Nach Satz 2.3.15 hat jeder Vektor v V eine Darstellung v =

bB
bf
b
,
wobei die Krperelemente f
b
F eindeutig durch v bestimmt sind und f
b
= 0 fr
fast alle b B gilt. Man deniere nun die Abbildung durch
(v) =

bB
b

f
b
.
Dann ist wegen der Eindeutigkeit der Basisdarstellung wohldeniert, und es gilt
(b) = b

fr alle b B.
Ist auch w =

bB
bg
b
V mit g
b
F, so ist
(v +w) =
_

bB
b[f
b
+g
b
]
_
=

b
b

[f
b
+g
b
]
=

b
b

f
b
+

b
b

g
b
= (v) +(w).
Ebenso folgt (v f ) =
_
bB
b[f
b
f ]
_
=

bB
b

[f
b
f ] =
_
bB
b

f
b
_
f =
(v) f fr alle v V und f F. Also ist eine lineare Abbildung von V in W.
Zum Nachweis der Eindeutigkeit von sei nun eine weitere lineare Abbildung
von V in W mit (b) = b

fr alle b aus B. Dann ist


(v) =
_

bB
bf
b
_
=

bB
(b)f
b
=

bB
b

f
b
= (v) fr alle v V.
Also ist = .
3.2.5 Beispiele.
(a) DieAbbildung von F
3
nach F mit der Eigenschaft (r
1
, r
2
, r
3
) = r
1
+r
2
+r
3
ist eine lineare Abbildung. Denn fr r = (r
1
, r
2
, r
s
), s = (s
1
, s
2
, s
3
) aus F
3
3.2 Lineare Abbildungen 55
und fr alle a F gelten:
(r +s) = (r
1
+s
1
, r
2
+s
2
, r
3
+s
3
)
= (r
1
+s
1
) +(r
2
+s
2
) +(r
3
+s
3
)
= (r
1
+r
2
+r
3
) +(s
1
+s
2
+s
3
)
= (r) +(s),
(ra) = (r
1
a, r
2
a, r
3
a)
= r
1
a +r
2
a +r
3
a
= (r
1
+r
2
+r
3
) a
= (r) a.
(b) Die Abbildung von Q
2
nach Q
2
, die den Vektor (r
1
, r
2
) Q
2
nach
(r
1
+1, r
2
+1) abbildet, ist keine lineare Abbildung, denn es gilt z. B.:
(1, 1) 2 = (1 +1, 1 +1) 2 = (4, 4), aber
[(1, 1) 2] = (2, 2) = (2 +1, 2 +1) = (3, 3).
3.2.6 Denition. Sei eine lineareAbbildung von V nach W. Dann heit die Menge
Ker() = {v V | (v) = o W}
der Kern von . Die Menge
Im() = {(v) W | v V}
heit das Bild von .
3.2.7 Satz. Ist eine lineare Abbildung von V nach W, dann gilt:
(a) Ker() ist ein Unterraum von V.
(b) Ker() = {o} genau dann, wenn eine injektive Abbildung ist.
(c) Fr jeden Unterraum U von V ist (U) ein Unterraum von W.
(d) Im() = W genau dann, wenn surjektiv ist.
(e) Das Urbild

(Z) = {v V | (v) Z} eines Unterraums Z von W ist ein


Unterraum von V.
Beweis: (a) Nach Bemerkung 3.2.3 ist (o) = o, d. h. o Ker(). Wenn v
1
, v
2

Ker(), dann ist (v
1
+v
2
) = (v
1
) +(v
2
) = o +o = o W. Also ist v
1
+v
2

Ker(). Fr alle a F und v Ker() ist (v a) = (v) a = o a = o. Daher
ist v a Ker(), weshalb Ker() ein Unterraum von V ist.
56 3 Lineare Abbildungen und Matrizen
(b) Ist eine injektive lineare Abbildung, so gilt (a) = o nur genau fr a = o,
d. h. Ker() = {o}. Sei umgekehrt Ker() = {o}. Gilt (v) = (w) fr zwei
Elemente v, w V, dann ist o = (v) (w) = (v w). Daher ist v w
Ker() = o, woraus v = w folgt.
(c) Wegen (o) = o ist o (U). Seien w
1
, w
2
(U). Dann existieren
v
1
, v
2
U mit w
i
= (v
i
), i = 1, 2. Also ist w
1
+w
2
= (v
1
) +(v
2
) = (v
1
+
v
2
) (U). Weiter gilt fr jedes a F, da w
1
a = (v
1
) a = (v
1
a) (U).
Damit ist (c) bewiesen.
(d) folgt aus (c), weil Im() = (V) ist.
(e) Sei Zein Unterraumvon W. Dann ist o = (o) Z. Also ist o

(Z). Sind
u, v

(Z), dann sind (u), (v) Z, woraus (u+v) = (u)+(v) Zfolgt.


Deshalb ist u+v

(Z). Sei c F und u

(Z). Dann ist (uc) = (u)c Z,


d. h. uc

(Z). Also ist

(Z) ein Unterraum von V.


Nach Satz 3.2.1 ist die Multiplikation der Vektoren v F
n
mit einer m n-
Matrix Aeine lineare Abbildung von F
n
nach F
m
. Der folgende Satz beschreibt den
Bildraum Im(A) und den Kern Ker(A) dieser linearen Abbildung.
3.2.8 Satz. Sei Aeine mn-Matrix. Dann gilt:
(a) Der Bildraum Im(A) der linearen Abbildung v A v von F
n
nach F
m
ist
der Spaltenraum von A.
(b) Der Kern Ker(A) dieser linearen Abbildung ist die Lsungsgesamtheit des
homogenen Gleichungssystems
A x = o. (H)
Beweis: (a) Seien s
1
, . . . , s
n
die Spaltenvektoren von A. Fr jeden Vektor v =
(v
1
, v
2
, . . . , v
n
) F
n
gilt nach Denition A v =

n
j=1
s
j
v
j
. Also ist Im(A) das
Erzeugnis der Spaltenvektoren s
j
von A. Die Aussage (b) folgt sofort.
3.2.9 Satz. Sei (H) A x = o das zu (G) A x = d gehrige homogene lineare
Gleichungssystem. Dann gelten:
(a) Ker(A) ist die Lsungsgesamtheit von (H).
(b) Ist a eine Lsung von (G), so ist
a +Ker(A) := {a +b | b Ker(A)}
die Lsungsgesamtheit von (G).
3.2 Lineare Abbildungen 57
Beweis: (a) ist trivial.
(b) Sei a F
n
eine Lsung von (G) und b eine von (H). Dann ist A a = d und
A (a +b) = A a +A b = d +o = d. Also ist auch a +b eine Lsung von (G).
Sei umgekehrt c F
n
eine beliebige Lsung von (G). Dann ist b = c a wegen
Ab = o eine Lsung von (H), denn A b = A c A a = d d = o. Also ist
b Ker(A), und es gilt c = a +(c a) = a +b.
Man nennt einen Krper F unendlich, wenn er unendlich viele Elemente besitzt.
Beispiele fr unendliche Krper sind: Q, R und C. Beispiele fr endliche Krper
werden in Kapitel 10 gegeben.
3.2.10 Satz. Sei (G) A x = d ein lineares Gleichungssystem mit Koefzienten aus
dem Krper F. Dann gilt:
(a) Wenn d / Im(A), dann hat (G) keine Lsung.
(b) Es hat (G) dann und nur dann genau eine Lsung, wenn d Im(A) und
Ker(A) = {o}.
Fr unendliche Krper F gilt zustzlich:
(d) Wenn d Im(A) und Ker(A) = {o}, dann hat (G) unendlich viele Lsungen.
Beweis: Seien s
j
, 1 j n, die Spaltenvektoren von A. Dann ist Ax =

n
j=1
s
j

x
j
. Daher hat A x = d genau dann eine Lsung, wenn d =

n
j=1
s
j
a
j
fr
geeignete Skalare a
j
ist, d. h. genau dann, wenn d im Spaltenraum von A oder
nach 3.2.8 in Im(A) ist. Die Aussage (b) ergibt sich aus 3.2.9. Ist F unendlich und
Ker(A) = {o}, dann enthlt Ker(A) einen eindimensionalen Unterraum vF, der
bereits aus unendlich vielen Vektoren besteht.
3.2.11 Satz. Sei Aeine mn-Matrix ber F. Genau dann ist Ker(A) = {o}, wenn
die Spalten von Alinear unabhngig sind.
Beweis: Seien s
j
, j = 1, . . . , n, die Spaltenvektoren von A, und sei v F
n
. Wegen
A v =

n
j=1
s
j
v
j
, ist v Ker(A) genau dann, wenn

n
j=1
s
j
v
j
= o ist. Wenn
die Spalten linear unabhngig sind, gilt dies nur fr v
1
= = v
n
= 0, also v = o.
Es folgt Ker(A) = {o}. Sind die Spaltenvektoren dagegen linear abhngig, dann gibt
es v
1
, . . . , v
n
, welche nicht smtlich gleich 0 sind und fr die

n
j=1
s
j
v
j
= o gilt.
Damit ist o = v = (v
1
, . . . , v
n
) Ker(A).
Satz 3.2.11 reduziert das Problem, die lineare Abhngigkeit einer Menge von
Vektoren des arithmetischen Vektorraumes V
n
nachzuweisen, auf die Bestimmung
der Lsung eines homogenen Gleichungssystems.
58 3 Lineare Abbildungen und Matrizen
3.2.12 Beispiel. Die Vektoren v
1
= (2, 1, 0), v
2
= (1, 0, 1), v
3
= (3, 1, 1) sind
linear abhngig. Denn
_
_
2 1 3
1 0 1
0 1 1
_
_

_
_
x
1
x
2
x
3
_
_
=
_
_
0
0
0
_
_
(H)
hat die nicht triviale Lsung x = (1, 1, 1).
Fr eine lineare Abbildung wurde in Satz 3.2.7 gezeigt, da Ker() und Im()
Unterrume sind. Fr deren Dimensionen gilt der grundlegende Satz.
3.2.13 Satz. Sei V ein endlich-dimensionaler und W ein beliebiger Vektorraumber
dem Krper F. Sei : V W eine lineare Abbildung. Dann ist
dimV = dimKer() +dimIm() und dimIm() dimW.
Beweis: Nach Satz 3.2.7 ist Im() ein Unterraum von W. Die zweite Behauptung
folgt also aus Folgerung 2.2.14 (b). Sei {b
1
, . . . , b
k
} eine Basis von Ker(), also
k = dimKer(). Nach Satz 2.2.15 lt sich diese durch Vektoren a
1
, . . . , a
d
zu
einer Basis von V ergnzen. Dann ist also n = dimV = k +d.
Wir zeigen jetzt, da (a
1
), . . . , (a
d
) eine Basis von Im() ist. Es folgt dann,
da d = dimIm(), und damit die Behauptung.
Es ist klar, da die angegebenen Vektoren in Im() liegen. Sie sind linear unab-
hngig. Denn aus o = (a
1
) f
1
+ + (a
d
) f
d
= (a
1
f
1
+ + a
d
f
d
)
folgt x = a
1
f
1
+ +a
d
f
d
Ker(). Also ist x eine Linearkombination von
b
1
, . . . , b
k
. Sei x = a
1
f
1
+ +a
d
f
d
= b
1
g
1
+ +b
k
g
k
. Hieraus folgt
o = a
1
f
1
+ +a
d
f
d
(b
1
g
1
+ +b
k
g
k
).
Da {a
1
, . . . , a
d
, b
1
, . . . , b
k
} eine Basis von V ist, ergibt sich insbesondere, da
f
i
= 0 ist fr i = 1, 2, . . . , d.
Schlielich sei w Im(). Dann ist w = (v) fr ein v V. Nun ist v =
a
1
f
1
+ +a
d
f
d
+b
1
g
1
+ +b
k
g
k
eine Linearkombination von a
1
, . . . , a
d
und b
1
, . . . , b
k
, woraus w = (v) = (a
1
) f
1
+ +(a
d
) f
d
folgt, da (b
j
) = 0
fr alle j. Also ist (a
1
), . . . , (a
d
) auch ein Erzeugendensystem von Im(), und
d = dimIm().
Bei linearen Abbildungen : V W zwischen endlich dimensionalen Vektor-
rumen gleicher Dimension fallen die Begriffe

injektiv,

surjektiv und

bijektiv
zusammen, wie nun gezeigt wird.
3.2.14 Satz. Fr eine lineare Abbildung : V W zwischen den n-dimensionalen
F-Vektorrumen V und W sind folgende Aussagen quivalent:
3.2 Lineare Abbildungen 59
(a) ist injektiv.
(b) ist surjektiv.
(c) ist bijektiv.
(d) Ist B = {v
1
, v
2
, . . . , v
n
} eine Basis von V, so ist (B) = {(v
1
),
(v
2
), . . . , (v
n
)} eine Basis von W.
Beweis: Ist injektiv, so ist Ker() = {o} nach Satz 3.2.7 (b). Wegen Satz 3.2.13
gilt dann n = dimW = dim(V), woraus W = (V) nach Folgerung 2.2.14 folgt.
Also folgen (b) und (c) aus (a). Mittels Satz 3.2.13 ergibt sich (c) ebenso einfach aus
(b). Da (a) eine triviale Folge von (c) ist, sind die drei ersten Aussagen quivalent.
Gilt (d), so ist n = dim(V) = dimW, woraus nach Folgerung 2.2.14 die Sur-
jektivitt von folgt. Ist schlielich Ker() = {o}, so folgt aus o =

n
i=1
(v
i
)f
i
=

_
n
i=1
v
i
f
i
_
, da

n
i=1
v
i
f
i
Ker(v) = {o} und somit f
i
= 0 fr alle f
i
F,
i = 1, 2, . . . , n ist. Also ist auch (d) eine Folge von (a).
3.2.15 Satz. Zwei endlich-dimensionale Vektorrume V und W ber dem Krper F
sind genau dann isomorph, wenn dimV = dimW.
Beweis: Ist : V W ein Isomorphismus, so gilt dimV = dimW nach
Satz 3.2.14. Gilt umgekehrt diese Gleichung, dann ist V

= F
n
und W

= F
n
nach
Satz 2.2.18. Daher ist V

= W.
Das Bild Im() der linearen Abbildung : V W zwischen den F-Vektor-
rumen V und W ist nach Satz 3.2.7 ein Unterraum von W. Deshalb kann die
folgende Invariante zugeordnet werden.
3.2.16 Denition. Es sei : V W eine lineare Abbildung. Dann heit rg() =
dimIm() der Rang von .
Man beachte, da rg() = ist, falls Im() ein unendlich-dimensionaler Un-
terraum von W ist.
3.2.17 Satz. Seien U, V, W und Z Vektorrume, und es sei dimV < . Seien
: V W, : U V und : W Z lineare Abbildungen. Dann gilt:
(a) rg() min{dimV, dimW}.
(b) rg() rg().
(c) Ist surjektiv, so ist rg() = rg() .
(d) rg( ) rg().
(e) Ist injektiv, so ist rg( ) = rg().
60 3 Lineare Abbildungen und Matrizen
Beweis: (a) Nach Satz 3.2.13 gilt rg() = dimIm() dimW und rg() =
dimIm() = dimV dim(Ker()) dimV.
(b) Wegen Im() V folgt Im() Im(). Also gilt rg() = dimIm()
dimIm() = rg().
(c) Ist Im() = V, so ist Im() = Im() und rg() = rg().
(d) Da Im() endlich-dimensional ist, folgt
dim[ Im()] = dimIm() dim[Im() Ker( )]
nach Satz 3.2.13. Daher gilt
rg( ) = dimIm( ) = dim[ Im()] dimIm() = rg().
(e) Ist injektiv, so ist dim[ Im()] = dimIm() nach Satz 3.2.14. Deshalb
ist rg( ) = rg().
3.3 Matrix einer linearen Abbildung
In diesemAbschnitt werden die Beziehungen der linearen Abbildungen : V W
zwischen zwei endlich-dimensionalen Vektorrumen V und W zu den Matrizen
A = (a
ij
) mit Koefzienten a
ij
F behandelt.
Dazu legen wir eine Basis A = {u
1
, . . . , u
r
} von V fest. Weiter sei eine lineare
Abbildung von V in einen zweiten Vektorraum W gegeben. Auch in W whlen
wir eine Basis B = {v
1
, . . . , v
s
}. Dann lt sich der linearen Abbildung eine
Matrix A = A

zuordnen, die alle Informationen ber enthlt. Die Matrix hngt


allerdings nicht nur von ab, sondern auch von der Wahl der beiden Basen A und
B in V bzw. W. Wie die Matrix sich ndert, wenn man andere Basen whlt, wird
ebenfalls in diesemAbschnitt beschrieben.
3.3.1 Denition. Sei eine lineare Abbildung : V W gegeben, und seien Basen
A = {u
1
, . . . , u
r
} von V und B = {v
1
, . . . , v
s
} von W fest gewhlt. Fr jeden
Basisvektor u
j
A ist (u
j
) W. Also hat (u
j
) nach Folgerung 2.2.14 (a) eine
eindeutige Darstellung als Linearkombination
(u
j
) =
s

i=1
v
i
a
ij
mit a
ij
F fr 1 i s, 1 j r.
Die s r-Matrix A = (a
ij
) heit die Matrix von bezglich der Basen A und
B. Man schreibt
A = A

= A

(A, B).
3.3 Matrix einer linearen Abbildung 61
3.3.2 Beispiel. Es ist einfach einzusehen, da V = {(a, b, c) Q
3
| a +b +c = 0}
und W = {(r, s, t, u) Q
4
| r +s +t +u = 0} Unterrume von Q
3
bzw. Q
4
sind.
Seien u
1
= (1, 1, 0), u
2
= (1, 0, 1), v
1
= (1, 1, 0, 0), v
2
= (1, 0, 1, 0) und
v
3
= (1, 0, 0, 1). Dann ist A = {u
1
, u
2
} eine Basis von V, und B = {v
1
, v
2
, v
3
}
ist eine Basis von W.
Durch (a, b, c) = (a 2bc, 2a bc, a b, 6a 2c) wird eine lineare
Abbildung : V W deniert; denn aus (a, b, c) V folgt wegen a +b +c = 0
fr die Komponenten des Bildvektors
(a 2b c) +(2a b c) +(a b) +(6a 2c) = (a +b +c)(4) = 0.
Also bildet den Vektorraum V tatschlich in den Vektorraum W ab. Die Lineari-
ttseigenschaften von berprft man unmittelbar.
Es ist
(u
1
) = (1, 1, 0) = (3, 3, 0, 6)
= (1, 1, 0, 0)(3) +(1, 0, 0, 1) 6
= v
1
(3) +v
2
0 +v
3
6.
Dies ergibt die erste Spalte der gesuchten Matrix. Ebenso ist
(u
2
) = (1, 0, 1) = (2, 3, 1, 4)
= (1, 1, 0, 0)(3) +(1, 0, 1, 0) +(1, 0, 0, 1) 4
= v
1
(3) +v
2
+v
3
4.
Dies ergibt die zweite Spalte. Also ist die Matrix A

(A, B) =
_
_
3 3
0 1
6 4
_
_
zugeordnet.
3.3.3 Bemerkung. Kennt man die s r-Matrix A = A

(A, B), so kann man (u)


fr jedes u V berechnen, und zwar wie folgt: Nach Folgerung 2.2.14 lt sich u
als Linearkombination von u
1
, . . . , u
r
mit geeigneten a
j
F schreiben:
u =
r

j=1
u
j
a
j
.
Man multipliziert dann Amit demSpaltenvektor a = (a
1
, . . . , a
r
) und erhlt Aa =
b = (b
1
, . . . , b
s
) F
s
. Bildet man nun die Linearkombination
v =
s

i=1
v
i
b
i
,
62 3 Lineare Abbildungen und Matrizen
so erhlt man das gesuchte Bild von u unter ; denn
(u) =
r

j=1
(u
j
) a
j
=
r

j=1
_
s

i=1
v
i
a
ij
_
a
j
=
s

i=1
v
i

_
r

j=1
a
ij
a
j
_
=
r

j=1
v
i
b
i
= v.
3.3.4 Beispiel. Wir nehmen das Beispiel 3.3.2 noch einmal auf. Dort wurde schon
A

(A, B) =
_
_
3 3
0 1
6 4
_
_
berechnet. Sei u = (2, 3, 5), also u = u
1
(3)+u
2
5 U. Um(u) zu berechnen,
multiplizieren wir
_
_
3 3
0 1
6 4
_
_

_
3
5
_
=
_
_
6
5
2
_
_
und erhalten
(u) = v
1
(6) +v
2
5 +v
3
2
= (1, 1, 0, 0)(6) +(1, 0, 1, 0)5 +(1, 0, 0, 1)2
= (1, 6, 5, 2).
3.3.5 Denition. Seien A = {u
1
, . . . , u
r
} und A

= {u

1
, . . . , u

r
} zwei Basen des
F-Vektorraumes V. Fr jedes j = 1, . . . , r schreibt man u

j
als Linearkombination
von u
1
, . . . , u
r
mit geeigneten p
ij
F:
u

j
=
r

i=1
u
i
p
ij
.
Die r r-Matrix P = (p
ij
) heit die Matrix des Basiswechsels von A nach A

.
3.3.6 Bemerkung. Bei dieser Denition der Matrix P = (p
ij
) des Basiswech-
sels von A nach A

ist zu beachten, da die zu P gehrige lineare Abbildung


: V V die zugrunde gelegte Basis A auf die neue Basis A

abbildet, d. h.
(u
j
) = u

j
=

r
i=1
u
i
p
ij
fr j = 1, 2, . . . , r und A

(A, A

) = P. Nach
Satz 3.2.4 ist die lineare Abbildung : V V durch die Zuordnung (u
j
) = u

j
der Basisvektoren u
j
A, j = 1, 2, . . . , r, eindeutig bestimmt. Sei id der Einsen-
domorphismus von V. Nach Denition 3.3.1 gilt dann:
P = A

(A, A) = A
id
(A

, A).
3.3 Matrix einer linearen Abbildung 63
3.3.7 Satz. Seien V, W und Z endlich-dimensionale F- Vektorrume mit den Basen
A = (v
1
, v
2
, . . . , v
n
), B = (w
1
, w
2
, . . . , w
m
) und C = (z
1
, z
2
, . . . , z
p
). Sind
: V W und : W Z lineare Abbildungen mit den Matrizen A

(A, B) und
A

(B, C), dann ist : V Z eine lineare Abbildung, deren Matrix


A

(A, C) = A

(B, C) A

(A, B)
ist.
Beweis: Die Hintereinanderausfhrung der beiden linearenAbbildungen und
ist eine lineareAbbildung von V in Z gem Bemerkung 3.2.3. Nach Denition 3.3.1
erfllen die Koefzienten der Matrizen A

(A, B) = (a
ij
), A

(B, C) = (b
ki
) und
A

(A, C) = (c
kj
) mit = die folgenden Gleichungen:
(v
j
) =
m

i=1
w
i
a
ij
, 1 j n,
(w
i
) =
p

k=1
z
k
b
ki
, 1 i m,
(v
j
) =
p

k=1
z
k
c
kj
, 1 j n.
Wendet man auf die erste Gleichung an, so erhlt man
(v
j
) =
m

i=1
(w
i
)a
ij
=
m

i=1
_ p

k=1
z
k
b
ki
_
a
ij
=
p

k=1
z
k
_
m

i=1
b
ki
a
ij
_
fr j = 1, 2, . . . , n.
Also gilt c
kj
=

m
j=1
b
ki
a
ij
, weil C eine Basis des Vektorraums Z ist. Nach Deni-
tion 3.1.17 ist A

(A, C) = A

(B, C) A

(A, B).
3.3.8 Folgerung. Die Matrix P des Basiswechsels von A nach A

ist invertierbar.
Ihre Inverse ist die Matrix des Basiswechsels von A

nach A.
Beweis: Sei V = F
n
und id End
F
(V) der Einsendomorphismus von V. Sei E
n
die n n-Einsmatrix. Nach Bemerkung 3.3.6 ist P = A
id
(A

, A) die Matrix des


Basiswechsels von A nach A

. Ebenso ist Q = A
id
(A, A

) die des Basiswechsels


von A

nach A. Nach Satz 3.3.7 gilt:


E
n
= A
id
(A, A) = A
id id
(A, A) = A
id
(A

, A)A
id
(A, A

) = PQ.
64 3 Lineare Abbildungen und Matrizen
Ebenso ergibt sich QP = E
n
durch Vertauschung der Basen A und A

. Nach
Denition 3.1.29 ist also Q die Inverse von P.
3.3.9 Satz. Seien V und W Vektorrume, und sei : V W eine lineare Abbil-
dung. Weiter seien zwei Basen A und A

von V und zwei Basen B und B

von W
gegeben. Sei P die Matrix des Basiswechsels von A nach A

und Q die Matrix des


Basiswechsels von B nach B

. Dann ist
A

(A

, B

) = Q
1
A

(A, B) P.
Beweis: Sei id
V
der identische Endomorphismus von V und id
W
der von W. Dann
gilt nach Bemerkung 3.3.6, da P = A
id
V
(A

, A) und Q = A
id
W
(B

, B). Wegen
id
V
= id
W
folgt aus Folgerung 3.3.8, da
A

(A, B)P = A
id
V
(A

, B) = A
id
W

(A

, B) = QA

(A

, B

).
Multiplikation mit Q
1
von links liefert die Behauptung.
3.4 Rang einer Matrix
In diesem Abschnitt wird gezeigt, da der Spaltenrang s(A) fr jede mn-Matrix
A = (a
ij
) mit Koefzienten a
ij
aus dem Krper F gleich dem Zeilenrang z(A)
ist. Diese Zahl heit der Rang r(A) von A. Auerdem werden Kriterien fr die
Invertierbarkeit von Matrizen behandelt. Imfolgenden werden die in Denition 3.3.1
eingefhrten Bezeichnungen beibehalten.
3.4.1 Hilfssatz. Seien V und W zwei endlich-dimensionale F-Vektorrume mit den
Basen A und B. Sei : V W eine lineare Abbildung, und sei A = A

(A, B)
die Matrix von bezglich der Basen Aund B. Dann ist der Rang von gleich dem
Spaltenrang von A, d. h. rg() = s(A).
Beweis: Nach Denition 3.2.16 und Satz 3.2.8 gelten die Gleichungen rg() =
dimIm() = s(A).
3.4.2 Hilfssatz. Sei : V W eine lineare Abbildung zwischen den endlich-
dimensionalen F-Vektorrumen V und W mit den Dimensionen dimV = n und
dimW = m. Ist r der Rang von , dann existieren Basen A

und B

von V bzw. W
derart, da bezglich der Basen A

und B

die mn-Matrix
A

(A

, B

) =
_
E
r
0
0 0
_
zugeordnet ist.
3.4 Rang einer Matrix 65
Beweis: Nach Satz 3.2.13 ist Ker() ein Unterraum von V mit dimKer() =
n dimIm() = n r. Sei v

r+1
, v

r+2
, . . . , v

n
eine Basis von Ker(). Nach
dem Austauschsatz 2.2.15 von Steinitz gibt es r linear unabhngige Vektoren
im Vektorraum V, die mit v
1
, v
2
, . . . , v
r
bezeichnet seien, derart, da A

=
{v
1
, v
2
, . . . , v
r
, v

r+1
, . . . , v

n
} eine Basis von V ist.
Da dim(V) + dimKer() = dimV = n nach Satz 3.2.13 gilt, folgt, da
{(v
1
), (v
2
), . . . , (v
r
)} eine Basis des Unterraumes (V) von W ist. Erneute
Anwendung von Satz 2.2.15 ergibt die Existenz von mr linear unabhngigen Vek-
toren des Vektorraums W, die mit w
r+1
, w
r+2
, . . . , w
m
bezeichnet werden, derart,
da B

= {(v
1
), (v
2
), . . . , (v
r
), w
r+1
, w
r+2
, . . . , w
m
} eine Basis von W ist.
Bezglich der Basen A

und B

hat nach Denition 3.3.1 die Matrix A

(A

, B

),
wie sie in der Behauptung angegeben ist.
3.4.3 Hilfssatz. A und B seien m n-Matrizen und P, Q invertierbare n n-
bzw. m m-Matrizen derart, da B = QAP ist. Dann gilt fr die Spaltenrnge
s(B) = s(A).
Beweis: Nach den Stzen 3.2.8 und 3.2.17 gilt
s(B) = dimIm(B) = dimIm(QAP) = dimIm(A) = s(A),
da P und Q invertierbare n n- bzw. mm-Matrizen ber F sind.
3.4.4 Satz. Sei A eine m n-Matrix mit Koefzienten aus dem Krper F. Dann
stimmen der Zeilen- und der Spaltenrang von Aberein, d. h. z(A) = s(A).
Beweis: Seien A = {v
1
, v
2
, . . . , v
n
} und B = {w
1
, w
2
, . . . , w
m
} die kanonischen
Basen der F-Vektorrume V = F
n
und W = F
m
. Sei die zu A gehrige lineare
Abbildung
(v) = A v fr alle v V.
Wegen Hilfssatz 3.4.1 ist der Spaltenrang s(A) von A gleich dem Rang r von .
Nach Hilfssatz 3.4.2 existieren Basen A

und B

von V bzw. W derart, da


A

(A

, B

) =
_
E
r
0
0 0
_
= A

.
Offensichtlich gilt r = s(A

) = z(A

) = s([A

]
T
).
Sei P die Matrix des Basiswechsels von A nach A

und Q die Matrix des Basis-


wechsels von B nach B

. Nach Satz 3.3.9 folgt dann


A

= A

(A

, B

) = Q
1
A

(A, B)P = Q
1
AP.
66 3 Lineare Abbildungen und Matrizen
Mittels Satz 3.1.28 ergibt sich [A

]
T
= P
T
A
T
(Q
1
)
T
. Die Matrizen P
T
und
(Q
1
)
T
sind invertierbar. Wegen Hilfssatz 3.4.3 folgt nun
s(A) = r = s([A

]
T
) = s(P
T
A
T
(Q
1
)
T
) = s(A
T
) = z(A),
denn s(A
T
) ist der Zeilenrang z(A) von A.
3.4.5 Denition. Sei A eine m n-Matrix mit Koefzienten aus dem Krper F.
Dann heit der gemeinsame Wert rg(A) = s(A) = z(A) der Rang der Matrix A.
3.4.6 Beispiele.
(a) Der Rang der mn-Nullmatrix ist 0.
(b) Der Rang der n n-Einheitsmatrix E
n
ist n.
(c) Der Rang von
_
_
1 2
3 4
5 6
_
_
ist 2, denn die ersten beiden Zeilen sind linear
unabhngig.
Algorithmen zur Berechnung des Ranges einer Matrix werden in Kapitel 4 be-
schrieben.
3.4.7 Folgerung. Sei : V W eine lineare Abbildung zwischen zwei endlich-
dimensionalen F-Vektorrumen V und W mit den Basen A und B. Sei A =
A

(A, B) die Matrix von bezglich der Basen A und B. Dann gilt
rg() = rg(A).
Beweis: Nach Hilfssatz 3.4.1 und Satz 3.4.4 gilt rg() = s(A) = rg(A).
3.4.8 Folgerung. Sei Aeine mn-Matrix. Dann gelten:
(a) rg(A) = rg(A
T
).
(b) rg(A) min{m, n}.
(c) rg(A B) min(rg(A), rg(B)) fr jede n p-Matrix B.
(d) Sind B und C invertierbare mm- bzw. n n-Matrizen, so gilt
rg(BA) = rg(A) = rg(AC).
(e) Die Lsungsgesamtheit Ker(A) des homogenen Gleichungssystems
(H) Ax = o
hat n rg(A) linear unabhngige Lsungen.
3.5 quivalenz und hnlichkeit von Matrizen 67
Beweis: (a) Wegen Satz 3.4.4 gilt rg(A
T
) = s(A
T
) = z(A) = rg(A).
(b) Ist die durch A denierte lineare Abbildung : F
n
F
m
, so folgt aus
Satz 3.2.17 und Folgerung 3.4.7, da rg(A) = rg() min(m, n) gilt.
(c) Folgt ebenso aus Satz 3.2.17.
(d) Nach Hilfssatz 3.4.3 und Satz 3.4.4 gilt rg(BA) = s(BA) = s(BAE
n
) =
s(A) = rg(A). Ebenso folgt rg(AC) = s(E
m
AC) = s(A) = rg(A).
(e) Wegen Satz 3.2.8 und Satz 3.2.13 gilt dimKer(A) = n dimIm(A) =
nrg(A). Nach Satz 3.2.9 (a) hat (H) dann nrg(A) linear unabhngige Lsungen.
3.4.9 Satz. Sei Aeine n n-Matrix. Die folgenden Aussagen sind quivalent:
(a) Aist invertierbar.
(b) Es gibt eine n n-Matrix S mit A S = E
n
.
(c) Es gibt eine n n-Matrix T mit T A = E
n
.
(d) rg(A) = n.
Beweis: Sicherlich folgen (b) und (c) aus (a). Gilt (b), dann ist n rg(A) rg(A
S) = rg(E
n
) = n nach Folgerung 3.4.8. Also ist rg(A) = n. Daher gilt (d). Ebenso
folgt (d) aus (c).
(d) (a): Da n = rg(A) = dimIm(A), folgt nach Folgerung 2.2.14 (c),
da Im(A) = F
n
ist. Insbesondere gibt es zu den Einheitsvektoren e
j
Vektoren
s
1
, . . . , s
n
F
n
mit A s
j
= e
j
fr 1 j n. Bildet man die Matrix S, deren
Spalten gerade s
1
, . . . , s
n
sind, dann folgt A S = E
n
. Da auch rg(A
T
) = n nach
Folgerung 3.4.8 ist, gibt es ebenso eine Matrix Umit A
T
U = E
n
= E
T
n
= U
T
A.
Hieraus folgt
U
T
= U
T
E
n
= U
T
AS = E
n
S = S
Daher ist S = U
T
die Inverse von A.
3.4.10 Folgerung. Seien A, S und T n n-Matrizen. Aus A S = E
n
folgt die
Invertierbarkeit von A, d. h. S = A
1
. Ebenso folgt T = A
1
schon aus T A = E
n
.
Beweis: Nach Satz 3.4.9 hat A eine Inverse A
1
. Also folgt die Behauptung aus
Satz 3.1.31.
3.5 quivalenz und hnlichkeit von Matrizen
Nach Satz 3.3.9 sind einer linearen Abbildung : V W eines n-dimensionalen
Vektorraums V in einen m-dimensionalen Vektorraum W ber einem Krper F
bezglich verschiedener Basen A, A

von V und B, B

von W die i. a. verschiedenen


68 3 Lineare Abbildungen und Matrizen
Matrizen A

(A, B) und A

(A

, B

) zugeordnet, zu denen es eine invertierbare nn-


Matrix P und eine invertierbare mm-Matrix Q gibt derart, da
A

(A

, B

) = Q
1
A

(A, B)P.
Da Q und Q
1
gleichzeitig invertierbar sind, sind die beiden Matrizen
A

(A

, B

) und A

(A, B) quivalent im Sinne der folgenden Denition, in


der nur Q
1
durch Q ersetzt ist.
3.5.1 Denition. Zwei m n-Matrizen A und B heien quivalent , wenn es in-
vertierbare m m- bzw. n n-Matrizen Q und P gibt derart, da B = QAP
gilt.
Bezeichnung: A B.
3.5.2 Bemerkungen.
(a) Die nach 3.5.1 zwischen den Matrizen gleicher Zeilen- und Spaltenzahl de-
nierte Relation A B ist eine quivalenzrelation im Sinne der Deniti-
on 1.2.5, wie man sofort nachrechnet.
(b) Die quivalenz zweier m n-Matrizen A und B ist nach den Stzen 3.2.1
und 3.3.9 gleichbedeutend damit, da die Matrizen A und B hinsichtlich
geeigneter Basen von V = F
n
bzw. W = F
m
dieselbe lineare Abbildung
: V W beschreiben.
3.5.3 Folgerung. (a) Jede (mn)-Matrix Amit Rang rg A = r ist zu der mn-
Matrix
_
E
r
0
0 0
_
quivalent.
(b) Zwei mn-Matrizen Aund Bber demKrper F sind genau dann quivalent,
wenn sie denselben Rang rg(A) = rg(B) = r besitzen.
(c) Es gibt genau 1 +min(n, m) quivalenzklassen von mn-Matrizen.
Beweis: (a) Sei rg(A) = r. Seien A und B die kanonischen Basen von V = F
n
bzw. W = F
m
. Sei : V W die durch die Multiplikation der Spaltenvektoren
v V mit A denierte lineare Abbildung : v Av. Dann existieren nach
Hilfssatz 3.4.2 Basen A

von V und B

von W derart, da
A

(A

, B

) =
_
E
r
0
0 0
_
= D
r
.
3.5 quivalenz und hnlichkeit von Matrizen 69
Sind nun P und Q die Matrizen der Basiswechsel A A

bzw. B B

, dann ist
A

(A

, B

) = Q
1
AP nach Satz 3.3.9. Also sind Aund D
r
quivalent.
(b) Sind die Matrizen A und B quivalent, so ist rg(A) = rg(B) nach Hilfs-
satz 3.4.3 und Satz 3.4.4. Haben umgekehrt die Matrizen Aund Bden gleichen Rang
r, dann existieren nach (a) invertierbare Matrizen P
1
, P
2
und Q
1
, Q
2
passender Gr-
e derart, da Q
1
1
AP
1
= D
r
= Q
1
2
BP
2
. Daher ist Q
2
Q
1
1
AP
1
P
1
2
= B, und
Aund B sind quivalent.
(c) folgt unmittelbar aus (b) und Folgerung 3.4.8.
3.5.4 Denition. Zwei n n-Matrizen A und B heien hnlich, wenn es eine in-
vertierbare n n-Matrix P gibt mit B = P
1
AP.
3.5.5 Bemerkungen.
(a) Zwei nn- MatrizenAundBsindhnlich, wennsie hinsichtlichzweier Basen
A und B von V = F
n
dieselbe lineare Abbildung von V beschreiben. Dies
folgt unmittelbar aus Satz 3.3.9 und Satz 3.2.1. Ist A = A

(A, A) und B =
A

(B, B), dann gilt B = P


1
AP, wenn P die Matrix des Basiswechsel
von A nach B ist.
(b) Zwei hnliche Matrizen A und B sind quivalent, denn die invertierbaren
Matrizen P
1
und P erfllen die Bedingungen an die Matrizen Q und P in
Denition 3.5.1.
(c) Zwei hnliche Matrizen haben denselben Rang; dies folgt unmittelbar aus (b)
und Folgerung 3.5.3(b).
3.5.6 Denition. Die Spur einer nn-Matrix A = (a
ij
) mit Koefzienten aus dem
Krper F ist
tr(A) = a
11
+a
22
+ +a
nn
.
3.5.7 Satz. Zwei hnliche Matrizen Aund B besitzen dieselbe Spur; d. h. tr(A) =
tr(B).
Beweis: Sei P eine invertierbare Matrix mit B = P
1
AP. Nach Aufgabe 3.5
gilt allgemein tr(AC) = tr(CA). Hieraus folgt tr(B) = tr[P
1
(AP)] =
tr[(AP)P
1
] = tr[A(PP
1
)] = tr(A).
3.5.8 Denition. Sei ein Endomorphismus des endlich-dimensionalen Vektor-
raums V. Sei A = A

(B, B) die Matrix von bezglich einer Basis B von V.


Dann ist die Spur von deniert durch tr() = tr(A).
3.5.9 Bemerkung. Wegen Satz 3.5.7 und Bemerkung 3.5.5(b) ist die Denition der
Spur tr() eines Endomorphismus von V unabhngig von der Auswahl der Basis B
von V.
70 3 Lineare Abbildungen und Matrizen
3.6 Abbildungsrume und Dualraum
In diesemAbschnitt wird gezeigt, da die Menge Hom
F
(V, W) aller linearenAbbil-
dungen : V W zwischen zwei beliebigen F-Vektorrumen V und W ebenfalls
ein F-Vektorraum ist. Fr endlich-dimensionale F-Vektorrume V und W wird die
Dimension von Hom
F
(V, W) angegeben. Ist W = F, so ist V

= Hom
F
(V, F) der
Dualraum von V. Fr jede endliche Basis B von V wird die duale Basis B

in V

konstruiert.
Im folgenden sind V und W zwei beliebige Vektorrume ber dem Krper F,
und Hom
F
(V, W) ist die Menge aller linearen Abbildungen : V W.
3.6.1 Satz. Hom
F
(V, W) ist ein F-Vektorraum bezglich der linearen Operationen
+ und , die wie folgt deniert sind:
(a) Fr alle , Hom
F
(V, W) sei die Summe + erklrt durch
( +)(v) = (v) +(v) fr alle v V.
(b) Fr alle Hom
F
(V, W) und f F sei f die Abbildung
( f )(v) = (v) f fr alle v V.
Beweis: Zunchst ist zu zeigen, da + und f lineare Abbildungen sind.
Dazu whlen wir Vektoren v
1
, v
2
V und einen Skalar a F. Nach (a) und
Denition 3.2.2 gilt dann
( +)(v
1
+v
2
) = (v
1
+v
2
) +(v
1
+v
2
)
= (v
1
) +(v
2
) +(v
1
) +(v
2
)
= (v
1
) +(v
1
) +(v
2
) +(v
2
)
= ( +)(v
1
) +( +)(v
2
).
( +)(va) = [( +)v]a. Ebenso zeigt man
( f )(v
1
a) = (v
1
a) f = (v
1
) a f = (v
1
) f a Weiter folgt
= [ (v
1
) f ] a = [( f )(v
1
)] a,
weil F kommutativ ist. Auerdem gilt ( f )(v
1
+v
2
) = ( f )(v
1
) +( f )(v
2
),
wie man leicht nachrechnet. Daher sind + und f lineare Abbildungen von V
in W.
W ist einVektorraum. Deshalb ist es nun einfach, dieAxiome der Denition 1.5.1
fr Hom
F
(V, W) nachzuweisen. Insbesondere folgt unmittelbar, da Hom
F
(V, W)
bezglich + eine abelsche Gruppe mit der Nullabbildung als Nullelement ist. Sind
f, g F und Hom
F
(V, W), so gilt fr alle v V die Gleichung
[ (fg)] (v) = (v)(fg) = [(v)f ] g = [( f )(v)] g = [( f ) g] (v).
3.6 Abbildungsrume und Dualraum 71
Also ist (fg) = ( f ) g. Weiter gilt
[ (f +g)] (v) = (v)(f +g) = (v) f +(v)g
= ( f )(v) +( g)(v)
= [( f ) +( g)] (v).
Also ist (f +g) = f + g. Analog zeigt man das zweite Distributivgesetz
( + ) f = f + f . Da die 1 F jeden Vektor w W festlt, folgt
( 1)(v) = (v) 1 = (v) fr alle v V. Also ist 1 = . Nach Denition 1.5.1
ist Hom
F
(V, W) ein F-Vektorraum.
3.6.2 Folgerung. Fr jeden F-Vektorraum V ist E = Hom
F
(V, V) ein Ring mit
der Hintereinanderausfhrung als Multiplikation. Die identische Abbildung id ist
das Einselement des Endomorphismenrings E = End
F
(V).
Beweis: Nach Satz 3.6.1 ist E = Hom
F
(V, V) ein F-Vektorraum. Die Hinterein-
anderausfhrung zweier linearer Abbildungen , Hom
F
(V, V) ist nach
Bemerkung 3.2.3 (c) eine F-lineare Abbildung von V in V. Sie deniert wegen Be-
merkung 3.2.3 (d) auf E eine assoziative Multiplikation. Die identischeAbbildung id
ist das Einselement von E. Nach Denition 1.4.1 gengt es daher, die Distributivitt
der Multiplikation nachzuweisen. Dazu whlen wir drei Elemente , , E und
einen beliebigen Vektor v V. Nach Satz 3.6.1 gilt dann
_
( +)
_
(v) = [ +] (v) = ( (v)) + ( (v)) = [( ) +( )](v).
Also ist ( +) = + . Ebenso zeigt man ( + ) = + .
3.6.3 Denition. Sei V ein F-Vektorraum. Jedes Element E = End
F
(V) wird
ein Endomorphismus von V genannt. Ein bijektiver Endomorphismus E heit
Automorphismus von V. Die Menge GL(V) aller Automorphismen von V ist eine
Gruppe mit der Identitt id als Einselement. Sie heit Automorphismengruppe oder
generelle lineare Gruppe von V.
3.6.4 Satz. Sind V und W zwei endlich-dimensionale F-Vektorrume der Dimen-
sionen dimV = n und dimW = m, dann gelten:
(a) dimHom
F
(V, W) = m n,
(b) Hom
F
(V, W)

= Mat
m,n
(F),
wobei Mat
m,n
(F) den F-Vektorraum aller mn-Matrizen ber F bezeichnet.
Beweis: (a) folgt aus (b). Denn nach Satz 3.6.1 und Satz 3.1.6 gilt
dimHom
F
(V, W) = dimMat
m,n
(F) = m n.
72 3 Lineare Abbildungen und Matrizen
(b) Sei A = {v
1
, v
2
, . . . , v
n
} eine Basis von V und B = {w
1
, w
2
, . . . , w
m
}
eine Basis von W. Dann gibt es nach Denition 3.3.1 zu jedem Hom
F
(V, W)
genau eine m n-Matrix A

(A, B), so da durch A

eine Abbildung :
Hom
F
(V, W) Mat
m,n
(F) deniert wird. Wegen Satz 3.2.1 ist surjektiv und
auch injektiv, weil A

auch eindeutig bestimmt. Seien , Hom


F
(V, W). Die
Koefzienten von A

= (a
ij
) und A

= (b
ij
) sind durch
(v
j
) =
m

i=1
w
i
a
ij
, (v
j
) =
m

i=1
w
i
b
ij
, j = 1, 2, . . . , n
bestimmt. Es folgt
( +)(v
j
) = (v
j
) +(v
j
) =
m

i=1
w
i
(a
ij
+b
ij
).
Daher ist A
+
= A

+A

, d. h. ( +) = () +().
Fr jedes f F ist ( f )(v
j
) =
_
m
i=1
w
i
a
ij
_
f =

m
i=1
w
i
(a
ij
f ), d. h.
A
f
= (a
ij
f ) = A

f und so ( f ) = () f . Somit ist auch eine


lineare Abbildung und damit ein Isomorphismus.
3.6.5 Denition. Seien R und S zwei Ringe mit Einselement. Eine bijektive Ab-
bildung : R S ist ein Isomorphismus, falls (a + b) = (a) + (b) und
(a b) = (a) (b) fr alle a, b R gelten.
Zwei Ringe R und S heien isomorph, falls es einen Isomorphismus von R auf
S gibt.
Bezeichnung: R

= S.
Analog erklrt man den Isomorphie-Begriff fr Gruppen. Dabei bercksichtigt
man nur die Bedingung fr die Gruppenverknpfung.
3.6.6 Folgerung. Sei V ein endlich-dimensionaler F-Vektorraum der Dimension
dimV = n. Dann gelten:
(a) Der Endomorphismenring E = Hom
F
(V, V) von V ist isomorph zum Ring
Mat
n
(F) aller n n-Matrizen ber F.
(b) Die Automorphismengruppe GL(V) ist isomorph zur generellen linearen
Gruppe GL(n, F).
Beweis: (a) Aus den Stzen 3.1.21 und 3.1.23 folgt, da Mat
n
(F) ein Ring mit Eins
ist. Mittels Satz 3.6.4 und Satz 3.3.7 ergibt sich, da die Ringe E = Hom
F
(V, V)
und Mat
n
(F) isomorph sind.
(b) Nach Satz 3.1.31 ist GL(n, F) eine Gruppe. Sei B = {v
1
, v
2
, . . . , v
n
} eine
fest gewhlte Basis von V. Dann ist fr jedes GL(V) die zugehrige Matrix
3.6 Abbildungsrume und Dualraum 73
A

(B, B) = A

nach Satz 3.4.9 invertierbar, weil rg(A

) = n ist. Wie im Beweis


von Satz 3.6.4 (b) wird durch : A

GL(n, F) eine injektive Abbildung


von GL(V) in GL(n, F) deniert. Nach Satz 3.2.1 bestimmt jede invertierbare
nn-Matrix AeinenAutomorphismus von V. Also ist surjektiv. Wegen Satz 3.3.7
ist ein Isomorphismus.
Die in dieser Folgerung beschriebenen Isomorphismen werden in den folgenden
Kapiteln oft stillschweigend angewendet. Es ist vorteilhaft, lineare Abbildungen bei
theoretischen berlegungen zu verwenden, die unabhngig von der Basiswahl des
Vektorraums V gelten. Bei konkreten Rechnungen wird jedoch bevorzugt die zu einer
linearenAbbildung gehrende Matrix bezglich einer festen Basis von V verwendet.
NachBeispiel 1.5.2b) ist der Krper F einF-Vektorraum. Alsoist nachSatz 3.6.1
auch V

= Hom
F
(V, F) ein F-Vektorraum.
3.6.7 Denition. Der Vektorraum V

= Hom
F
(V, F) heit der duale Vektorraum
des F-Vektorraums V. Die Elemente V

heien Linearformen von V.


3.6.8 Satz. Sei B = {v
1
, v
2
, . . . , v
n
} eine Basis des endlich-dimensionalen F-Vek-
torraums V. Fr i = 1, 2, . . . , n sei
i
V

deniert durch

i
(v
j
) =
_
1 falls i = j,
0 falls i = j,
j = 1, 2, . . . , n.
Dann ist B

= {
1
,
2
, . . . ,
n
} eine Basis von V

, und es gilt
dim
F
V

= n = dim
F
V.
Beweis: Sei V

. Dann ist (v
i
) = f
i
F fr i = 1, 2, . . . , n. Sicherlich ist
auch

=
1
f
1
+
2
f
2
+ +
n
f
n
V

. Nun gilt

(v
j
) =
_
n

i=1

i
f
i
_
(v
j
) =
n

i=1
_

i
(v
j
)
_
f
i
=
j
(v
j
)f
j
= 1(v
j
) = (v
j
)
fr j = 1, 2, . . . , n. Alsoist =

n
i=1

i
f
i
, undB

ist einErzeugendensystem
von V

.
Angenommen,

n
i=1

i
t
i
= 0 fr t
i
F. Dann ist
0 = 0(v
j
) =
_
n

i=1

i
t
i
_
(v
j
) =
j
(v
j
) t
j
= 1 t
j
= t
j
fr j = 1, 2, . . . , n. Also sind die Vektoren
i
V

linear unabhngig, und B

ist
eine Basis von V

.
74 3 Lineare Abbildungen und Matrizen
3.6.9 Denition. Die in Satz 3.6.8 konstruierte Basis B

= {
1
,
2
, . . . ,
n
} des
dualen Vektorraums V

heit die zur Basis B = {v


1
, v
2
, . . . , v
n
} von V gehrige
duale Basis.
3.6.10 Bemerkung. Aus Satz 3.6.8 folgt, da fr endlich-dimensionale F-Vektor-
rume V gilt:
V

= V


= V

, wobei V

= Hom
F
(V

, F) ist.
Dies gilt nicht fr unendlich-dimensionale Vektorrume. Hierzu wird auf Aufga-
be 3.17 verwiesen. Andererseits lt sich im unendlich-dimensionalen Fall der Vek-
torraum V wenigstens in V

injektiv einbetten:
Jeder Vektor v V bestimmt eindeutig die durch
v
() = (v) denierte
Linearform
v
V

, denn es gilt ja
v
( + ) = ( + )v = (v) + (v) =

v
() +
v
() und
v
(c) = (c)v = ((v))c = (
v
())c fr alle , V

und c F. Durch (v) =


v
wird daher weiter eine Abbildung : V V

deniert. Wegen ((v +v

)) =
v+v
() = (v +v

) = (v) +(v

) =
v
() +

v
() = ((v) + (v

)) fr alle V

folgt (v + v

) = (v) + (v

).
Entsprechend ergibt sich (v c) = ((v)) c, d. h. ist eine lineare Abbildung.
Aus (v) = o V

folgt ((v)) =
v
() = (v) = o fr alle V

. Da es
aber zu v = 0 ein mit (v) = 1 gibt, mu sogar v = 0 erfllt sein. Damit ist
auch injektiv. Man nennt die natrliche Injektion von V in V

.
3.6.11 Denition. Sei U ein Unterraum des F-Vektorraumes V. Dann ist
U

= { V

| (u) = 0 fr alle u U}
ein Unterraum des dualen Vektorraums V

, der das orthogonale Komplement von U


im Dualraum V

genannt wird.
3.6.12 Satz. Sei U ein r-dimensionaler Unterraum des n-dimensionalen F-Vektor-
raumes V. Dann gelten:
(a) Das orthogonale Komplement von U ist ein (nr)-dimensionaler Unterraum
von V

.
(b) U

= {v V | (v) = 0 fr alle U

} = U.
Beweis: (a) Sei {u
1
, u
2
, . . . , u
r
} eine Basis von U. Nach Satz 2.2.15 lt sie sich zu
einer Basis B = {u
1
, u
2
, . . . , u
r
, u
r+1
, . . . , u
n
} von V erweitern. Ihre duale Basis
B

= {
1
,
2
, . . . ,
n
} ist nach Satz 3.6.8 die Menge der Linearformen
i
mit

i
(u
j
) =
_
1 falls i = j,
0 falls i = j.
3.7 Matrizen und direkte Zerlegung 75
Also sind die n r linear unabhngigen Linearformen
r+1
,
r+2
, . . . ,
n
in
U

. Sei ein Element von U

und (u
i
) = f
i
F fr i = 1, 2, . . . , n.
Dann ist =

n
i=1

i
f
i
nach Satz 3.6.8, und fr j = 1, 2, . . . , r gilt 0 =
(u
j
) =

n
i=1

i
(u
j
)f
i
=
j
(u
j
)f
j
= f
j
. Also ist =

n
i=r+1

i
f
i
, und
{
r+1
,
r+2
, . . . ,
n
} ist eine Basis von U

. Daher ist dimU

= n r.
(b) Nach Denition von U

gilt (u) = 0 fr alle U

und alle u U.
Also ist U U

. Wendet man den Satz 3.6.8 auf den F-VektorraumV

und seine
Basis B

an, dann ist B nach Bemerkung 3.6.10 die duale Basis von B

in V


= V.
Wegen (a) gilt dann dim(U

) = n dimU

= n (n r) = r. Daher ist
U = U

nach Folgerung 2.2.14.


3.6.13 Folgerung. Sei V ein endlich-dimensionaler F-Vektorraum. Dann ist die Ab-
bildung U U

der Menge der Unterrume U von V in die Menge der Unterrume


U

des Dualraums V

eine Bijektion derart, da aus U


1
U
2
stets U

2
U

1
folgt.
Beweis: Ergibt sich sofort aus Satz 3.6.12 (a) und (b), wobei die endlich-
dimensionalen Vektorrume V und V

mittels der Einbettung von Bemer-


kung 3.6.10 identiziert sind.
3.7 Matrizen und direkte Zerlegung
In diesem Abschnitt ist V stets ein n-dimensionaler Vektorraum ber dem kommu-
tativen Krper F. Sei End
F
(V) ein fest gewhlter Endomorphismus von V
und A = {u
1
, u
2
, . . . , u
n
} eine Basis von V. Nach Denition 3.3.1 ist die Matrix
A

(A, A) = (a
ij
) von bezglich der Basis A gegeben durch die n-Gleichungen
(u
j
) =
n

i=1
u
i
a
ij
, j = 1, 2, . . . , n.
Es werden nun die Beziehungen zwischen der Matrizendarstellung A

(A, A) des
Endomorphismus von V und den direkten Zerlegungen V = U
1
U
2
U
t
von V in -invariante Unterrume U
i
beschrieben.
3.7.1 Denition. Ist ein Endomorphismus des F-Vektorraums V und U ein Un-
terraum von V, so heit U genau dann -invariant , wenn (U) U.
3.7.2 Denition. Sei ein Endomorphismus des n-dimensionalen F-Vektorraums
V. Ist U ein -invarianter Unterraum von V, dann ist die Einschrnkung
|U
von
auf U deniert durch

|U
(u) = (u) fr alle u U.
76 3 Lineare Abbildungen und Matrizen
Da U -invariant ist, ist
|U
ein Endomorphismus des Unterraums U.
Bezeichnung:
|U
3.7.3 Satz. Sei ein Endomorphismus des Vektorraums V und sei
V = U
1
U
2
U
t
eine direkte Zerlegung von V in -invariante Unterrume U
s
= {o}, 1 s t . Sei

s
=
|U
s
die Einschrnkung von auf den k
s
-dimensionalen Unterraum U
s
und
B
s
= {u
i
|k
1
+k
2
+ +k
s1
< i k
1
+k
2
+ +k
s
}
eine Basis von U
s
fr s = 1, 2, . . . , t . Dann gelten die folgenden Aussagen:
(a) B =

t
s=1
B
s
ist eine Basis des Vektorraums V.
(b) Ist A
s
= A

s
(B
s
, B
s
) die k
s
k
s
-Matrix des Endomorphismus
s
von U
s
bezglich der Basis B
s
fr s = 1, 2, . . . , t , dann ist die Matrix A

(B, B) des
Endomorphismus von V bezglich der Basis B die diagonale Blockmatrix
A

(B, B) =
_
_
_
_
_
_
_
_
A
1
0 0
0 A
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
t 1
0
0 0 A
t
_
_
_
_
_
_
_
_
.
Beweis: (a) folgt unmittelbar aus Satz 2.3.6 und Folgerung 2.2.14.
(b) Fr alle s = 1, 2, . . . , t sei z
s
=

s
q=1
k
q
, und fr s = 0 sei z
0
= 0. Da die
direkten Summanden U
s
von V -invariant sind, gilt fr alle s = 1, 2, . . . , t und j
mit z
s1
+1 j z
s
, da
(u
j
) =
s
(u
j
) =
z
s

i=z
s1
+1
u
i
a
ij
U
s
fr eindeutig bestimmte Krperelemente a
ij
F gilt. Nach Denition 3.3.1 folgt
daher die Behauptung.
3.8 Aufgaben
3.1 Sei a F
n
. Zeigen Sie, da fr das Skalarprodukt a b = 0 fr alle b F
n
genau dann
gilt, wenn a = o.
3.2 Sei A =
_
1 2
0 1
_
.
3.8 Aufgaben 77
(a) Berechnen Sie A
20
mit mglichst wenigen Rechenschritten.
(b) Bestimmen Sie A
n
fr eine beliebige natrliche Zahl n.
3.3 Seien A, B zwei n n-Matrizen ber dem Krper F.
(a) Zeigen Sie: Ist A
2
= A, dann ist (AB ABA)
2
= 0.
(b) Folgt BA = 0 aus AB = 0? Wenn nein, geben Sie ein Gegenbeispiel an.
3.4 Seien A und B beide 3 5-Matrizen vom Rang 2. Beweisen Sie die Existenz eines
Vektors o = v F
5
mit A v = B v = o F
3
.
3.5 Die Spur einer nn-Matrix A = (a
ij
) ist das Krperelement tr(A) = a
11
+a
22
+ +
a
nn
F. Beweisen Sie fr alle n n-Matrizen A, B die Gltigkeit folgender Gleichungen:
(a) tr(A+B) = tr (A) +tr(B).
(b) tr(Ac) = tr(A) c.
(c) tr(AB) = tr(BA).
(d) Zu jeder n n-Matrix Aexistiert ein a F derart, da tr(B) = 0 fr B = AE
n
a
gilt, sofern n 1 = 0 in F ist.
3.6 Im Q
3
seien
A = {(1, 2, 3), (4, 5, 6), (7, 8, 0)} und
B = {(1, 1, 1), (1, 0, 1), (1, 1, 0)}.
Sei (a, b, c) = (4a 2b +7c, a +7b +c, 4a +4b +c) 1/3.
(a) Zeigen Sie, da A und B Basen von Q
3
sind.
(b) Berechnen Sie die Matrix des Basiswechsels von A nach B.
(c) Berechnen Sie A

(A, A) und A

(B, B).
3.7 Sei V = F
n
[X] der F-Vektorraum aller Polynome p(X) = p
0
+ p
1
X + + p
n
X
n
vom Grad p(X) n. Zeigen Sie, da auf V durch p(X) Xp

(X) eine lineare Abbildung


deniert wird. Dabei ist p

(X) die Ableitung von p(X), d. h.


_
n
i=0
a
i
X
i
_

n
i=1
i
a
i
X
i1
. Sei B = {1, X, . . . , X
n
} die natrliche Basis von V. Berechnen Sie A

(B, B).
3.8 Sei V = F
n1
[X] der Vektorraum aller Polynome p(X) F[X] vom Grad p(X)
n 1. Sei A = {G
i
(X) | i = 1, 2, . . . , n} die Basis von V aus Aufgabe 2.8 (a) und B =
{1, (X a), . . . , (X a)
n1
}, a F fest gewhlt, die Basis von V aus Aufgabe 2.8 (c).
Berechnen Sie die Matrix P = (p
ij
) des Basiswechsels von A nach B.
3.9 Es seien U, V, W, X Vektorrume ber dem Krper F und : U V, : V W,
: W X lineare Abbildungen. Zeigen Sie:
(a) Im() ist ein Unterraum von Im().
(b) Sei W
0
ein Komplement von Im() in Im(). Dann gilt Im() = Im() + W
0
.
78 3 Lineare Abbildungen und Matrizen
(c) Es gilt dimIm() + dimIm() dimIm() + dimIm() (Frobenius-
Ungleichung).
3.10 Es sei Aeine nn-Matrix ber dem Krper F. Dann heit Anilpotent, falls ein k N
existiert, so da A
k
= 0. Die kleinste Zahl k mit A
k
= 0 heit der Nilpotenz-Index von A.
(a) Zeigen Sie, da der Nilpotenz-Index einer nilpotenten n n-Matrix A kleiner oder
gleich n ist.
(b) Bestimmen Sie den Nilpotenz-Index der Matrix A = (a
ij
) mit a
ij
= 1 falls j = i +1
und a
ij
= 0 falls j = i +1.
(c) Zeigen Sie, da fr jedes 1 k n eine n n-Matrix A mit Nilpotenz-Index k
existiert.
3.11
(a) Es seien A und B zwei kommutierende nilpotente Matrizen. Zeigen Sie: A + B ist
nilpotent.
(b) Man gebe zwei nilpotente 2 2-Matrizen Aund B an, fr die A+B nicht nilpotent
ist.
(c) Es sei Aeine nilpotente nn-Matrix. Zeigen Sie: Ist B = E
n
a
0
+Aa
1
+ +A
m
a
m
,
dann ist B genau dann invertierbar, wenn a
0
= 0.
3.12 Sei F
n
[X] der Vektorraum {p(X) = a
n
X
n
+ + a
0
| a
i
F} der Polynome vom
Grad n ber dem Krper F. Die Abbildung von F
n
[X] sei deniert durch (p(X)) :=
d
dX
_
X
n
p
_
1
X
__
fr p(X) F
n
[X]. Zeigen Sie:
(a) (p(X)) F
n
[X] fr p(X) F
n
[X].
(b) ist eine lineare Abbildung. Bestimmen Sie die Matrix A

(A, A) der Abbildung


bezglich der Basis A = {1, X, . . . , X
n
}.
3.13 Es seien V und W zwei endlich-dimensionale reelle Vektorrume. Hinsichtlich je einer
Basis B und B

von V bzw. W sei der linearen Abbildung : V W die Matrix


A

(B, B

) =
_
_
2 1 3 4
1 6 4 9
5 12 2 9
_
_
zugeordnet. Ferner seien (3, 2, 1, 1), (1, 0, 2, 3), (2, 5, 5, 0) die Koordinaten von Vek-
toren v
1
, v
2
, v
3
aus V.
(a) Bestimmen Sie eine Basis von Ker .
(b) Wie lauten die Koordinaten der Bildvektoren v
1
, v
2
, v
3
hinsichtlich der gegebenen
Basis B

von W?
(c) Welche Dimension besitzt der von v
1
, v
2
, v
3
aufgespannte Unterraum U von V, und
welche Dimension besitzt sein Bild U?
3.14 Zeigen Sie: Zu jedem UnterraumU des Vektorraums F
n
existiert ein homogenes linea-
res Gleichungssystem (H) A x = o mit einer n n-Matrix A = (a
ij
), a
ij
F, derart, da
U die Lsungsgesamtheit von (H) ist.
3.8 Aufgaben 79
3.15 Es seien und zwei lineareAbbildungen des F-Vektorraums V in den F-Vektorraum
W mit dimV = m und dimV = n. Zeigen Sie:
|mn| rg( +) m+n.
3.16 Unter dem Zentrum einer Gruppe G versteht man die Menge aller Gruppenelemente z,
die mit jedem anderen Gruppenelement vertauschbar sind, die also die Gleichung az = za fr
alle a G erfllen. Zeigen Sie: Das Zentrum der linearen Gruppe GL(n, F) besteht genau
aus allen n-reihigen invertierbaren Matrizen der Form
E
n
c =
_
_
_
_
_
c
c
.
.
.
c
_
_
_
_
_
mit c = 0.
3.17 Es sei V ein unendlich-dimensionaler Vektorraum, und {v

| A} sei eine Basis von


V. Hierbei ist also A eine unendliche Indexmenge. Fr jeden Index A wird dann durch

= 0 ( = , A) und

= 1 eine Linearform

deniert.
(a) Zeigen Sie, da die Teilmenge {

| A} von V

linear unabhngig ist.


(b) Durch v

= 1 fr alle A wird ebenfalls eine Linearform V

deniert.
Zeigen Sie, da nicht als Linearkombination der Menge {

| A} dargestellt
werden kann. Folgern Sie, da {

| A} keine Basis von V

ist.
(c) Folgern Sie, da die in Bemerkung 3.6.10 eingefhrte natrliche Injektion : V
V

, die v V das Element


v
V

zuordnet, kein Isomorphismus ist, da also V


ein echter Unterraum von V

ist.
3.18 Es sei U ein Unterraumvon V, C ein Komplement von U in V und U

das orthogonale
Komplement von U in V

. Zeigen Sie:
C


= U

.
3.19 Sei End
F
(V) mit eindimensionalem Bildraum Im(). Zeigen Sie:
a) Im() ist ein -invarianter Unterraum von V.
b) Es gibt genau ein f F mit
2
= f .
4 Gau-Algorithmus und lineare Gleichungssysteme
Die imdritten Kapitel gewonnenen Resultate ber lineareAbbildungen und Matrizen
nden nun Anwendung in der Theorie der linearen Gleichungssysteme. Dabei wird
hier der Schwerpunkt auf die Behandlungder effektivenAlgorithmenzur Berechnung
der Lsungsgesamtheit eines solchen Gleichungssystems gelegt.
Deshalb wird im ersten Abschnitt dieses Kapitels der Gau-Algorithmus fr
die Bestimmung des Ranges r(A) einer m n-Matrix A und der Gau-Jordan-
Algorithmus zur Berechnung der Treppennormalformvon Aausfhrlich dargestellt.
Mit diesen Algorithmen wird im zweiten Abschnitt die Konstruktion der L-
sungsgesamtheit eines linearen Gleichungssystems beschrieben. Sie ndet Anwen-
dung bei der Beschreibung eines Verfahrens fr die Berechnung der Inversen einer
quadratischen Matrix.
4.1 Gau-Algorithmus
In diesemAbschnitt werden efzienteAlgorithmen zumBerechnen des Ranges r(A)
und der Treppennormalform einer mn-Matrix Adargestellt.
4.1.1 Denition. Die m n-Matrix A = (a
ij
) mit den Zeilenvektoren z
i
ist in
Treppenform, falls A die Nullmatrix 0 ist oder ein r mit 1 r m und eine Folge
1 j
1
< j
2
< < j
r
n existieren mit folgenden Eigenschaften:
(a) Wenn i > r, dann ist z
i
= o.
(b) Wenn 1 i r und k < j
i
, dann ist a
ik
= 0.
(c) Fr alle i mit 1 i r ist a
ij
i
= 0.
4.1.2 Bemerkung. Die Bedingungen 4.1.1(b) und (c) besagen, da fr i r der
erste von Null verschiedene Eintrag der i-ten Zeile in der j
i
-ten Spalte von Asteht.
Wegen j
i
< j
i+1
wandern diese

fhrenden, von Null verschiedenen Koefzienten


a
ij
i
von Amit wachsendem i nach rechts.
4.1 Gau-Algorithmus 81
4.1.3 Beispiele.
A =
_
_
1 2 3
0 0 4
0 0 0
_
_
ist in Treppenform, ebenso B =
_
_
2 0 1 4
0 0 1 0
0 0 0 0
_
_
.
Fr beide Matrizen ist r = 2. Dagegen sind
C =
_
_
_
_
0 1 3 0 0 4 0
0 0 0 1 0 3 0
0 0 0 0 1 0 2
7 0 0 0 0 0 0
_
_
_
_
und D =
_
_
_
_
1 0 0 0
0 1 0 0
0 1 1 1
0 0 0 1
_
_
_
_
nicht in Treppenform.
4.1.4 Bemerkung. Sei A = (a
ij
) eine mn-Matrix in Treppenform und r wie in
der Denition 4.1.1.
(a) Die Anzahl der Zeilen z
i
= o von A ist r. Dies ist zugleich der Rang von
A, da diese Zeilen offenbar linear unabhngig sind. Man kann also den Rang
einer Matrix in Treppenform leicht ablesen.
(b) Wenn speziell m = n, also A eine quadratische Matrix ist, dann ist a
ik
= 0,
falls i > k.
Dies sieht man wie folgt: Wenn i > r, dann ist die i-te Zeile o, also jedes
a
ik
= 0. Wenn i r, dann ist j
i
i wegen 1 j
1
< j
2
< < j
i
. Daher
ist j
i
> k, also a
ik
= 0 nach Bedingung 4.1.1(b).
Alle quadratischen Matrizen in Treppenform liefern Beispiele fr folgende
4.1.5 Denition. Eine n n-Matrix A = (a
ij
) heit obere (bzw. untere) Dreiecks-
matrix, falls a
ij
= 0 fr jedes i > j (bzw. i < j).
4.1.6 Beispiele.
(a)
_
_
1 0 0
0 0 2
0 0 3
_
_
ist eine obere Dreiecksmatrix, aber nicht in Treppenform.
(b)
_
_
1 2 3
0 1 1
0 0 0
_
_
ist eine obere Dreiecksmatrix in Treppenform.
4.1.7 Bemerkung. Sei A quadratisch und in Treppenform. Wenn n = rg(A) ist,
also r = n, dann folgt aus 1 j
1
< j
2
< < j
n
n, da j
i
= i fr jedes i. Also
ist a
ii
= a
ij
i
= 0, d. h. A ist eine obere Dreiecksmatrix, und die Eintrge auf der
Diagonalen sind alle von 0 verschieden. Umgekehrt ist eine solche Matrix offenbar
in Treppenform und hat den Rang n.
82 4 Gau-Algorithmus und lineare Gleichungssysteme
4.1.8 Beispiel. A =
_
_
1 2 3
0 1 1
0 0 5
_
_
ist in Treppenform und vom Rang 3. Daher
ist Aeine obere Dreiecksmatrix mit Diagonalelementen ungleich 0.
Eine gegebene Matrix A, welche nicht in Treppenform ist, kann in eine neue
MatrixT inTreppenform

umgeformt werden, ohne dasichder Zeilenraumndert.


Hierzu werden die folgenden Umformungsschritte eingefhrt:
4.1.9 Denition. Die elementaren Zeilenumformungen einer mn-Matrix Asind:
(a) Vertauschung zweier Zeilen,
(b) Multiplikation einer Zeile mit einem Skalar ungleich 0,
(c) Addition eines Vielfachen einer Zeile zu einer anderen Zeile.
Analog erklrt man die elementaren Spaltenumformungen von A.
4.1.10 Denition. Wenn man eine elementare Zeilenumformung von Aspeziell auf
die mm-Einheitsmatrix anwendet, so nennt man das Ergebnis die zu dieser Um-
formung gehrige Elementarmatrix. Ebenso erhlt man die zu einer elementaren
Spaltenumformung von Agehrige Elementarmatrix, indem man diese Spaltenum-
formung auf die n n-Einheitsmatrix anwendet.
4.1.11 Beispiel. Sei
A =
_
_
1 2 3 4
2 1 0 0
7 1 1 1
_
_
.
Addiert man das Dreifache der ersten Zeile zur dritten, so erhlt man
_
_
1 2 3 4
2 1 0 0
4 7 10 13
_
_
.
Die zugehrige Elementarmatrix ergibt sich, indemman diese Zeilenumformung auf
_
_
1 0 0
0 1 0
0 0 1
_
_
anwendet; sie ist also
_
_
1 0 0
0 1 0
3 0 1
_
_
.
4.1 Gau-Algorithmus 83
Vertauscht man die beiden ersten Spalten in A, so erhlt man
_
_
2 1 3 4
1 2 0 0
1 7 1 1
_
_
.
Die zugehrige Elementarmatrix ergibt sich, indem man diese Spaltenumformung
auf E
4
=
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
anwendet. Sie ist also
_
_
_
_
0 1 0 0
1 0 0 0
0 0 1 0
0 0 0 1
_
_
_
_
.
4.1.12 Bemerkung. (a) Bei Vertauschung ZV(i, j) der i-ten und j-ten Zeile geht
die Einheitsmatrix E
m
ber in die mm-Elementarmatrix:
ZV
i,j
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
0 1
1
.
.
.
1
1 0
1
.
.
.
i j
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
(b) Bei Multiplikation ZM(i, a) der i-ten Zeile von E
m
mit dem Skalar a entsteht
die mm-Elementarmatrix:
ZM
i,a
=
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
a
1
.
.
.
i
1
_
_
_
_
_
_
_
_
_
_
_
_
.
84 4 Gau-Algorithmus und lineare Gleichungssysteme
(c) Durch Addition ZA(i, j, a) des a-fachen der i-ten Zeile zur j-ten Zeile von
E
m
entsteht die mm-Elementarmatrix:
ZA
i,j,a
=
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
.
.
.
a 1
.
.
.
i j
1
_
_
_
_
_
_
_
_
_
_
_
_
_
.
4.1.13 Satz. Sei U die zu einer elementaren Zeilenumformung gehrige Element-
armatrix. Dann ist U Adie Matrix, welche aus Abei dieser Umformung entsteht.
Beweis: Sei U = (u
rs
) und seien z
1
, . . . , z
m
die Zeilenvektoren von A; dann ist

m
s=1
z
s
u
rs
die r-te Zeile von U A, denn die t -te Komponente dieses Vektors ist

m
s=1
u
rs
a
st
, also der Eintrag an der Stelle (r, t ) in U A. Nach Bemerkung 4.1.12
kennt man u
rs
. Durch Einsetzen der jeweiligen Werte von u
rs
folgt fr jeden der
drei Typen elementarer Umformungen die Behauptung. Dies wird hier nur explizit
durchgefhrt fr die Zeilenvertauschung ZV(i, j).
u
rs
=
_
1 falls r = s = i, j oder r = i, s = j oder r = j, s = i,
0 sonst.
Die r-te Zeile von U A = ZV
i,j
Aist also
z
r
, falls r = i, j,
z
j
, falls r = i,
z
i
, falls r = j.
Die Behauptung folgt in diesem Fall.
4.1.14 Bemerkung. Bemerkung 4.1.12 und Satz 4.1.13 gelten analog fr Spal-
tenumformungen und die zugehrigen elementaren Matrizen, wenn man das Produkt
U Adurch A Uersetzt. Dies folgt sofort aus den Stzen 4.1.13 und 3.1.28.
4.1.15 Folgerung. (a) Die Elementarmatrizen sind invertierbar.
(b) Ihre Inversen sind Elementarmatrizen.
(c) Elementare Umformungen ndern den Rang einer Matrix nicht.
4.1 Gau-Algorithmus 85
Beweis: (a) und (b). Zur Vertauschung ZV(i, j) zweier Zeilen gehrt nach Bemer-
kung 4.1.12 die m m-Elementarmatrix ZV
i,j
. Wegen (ZV
i,j
)
2
= E
m
ist ZV
i,j
invertierbar. Sei a = 0. Dann ist nach Bemerkung 4.1.12(b) ZM
i,a
ZM
i,a
1 = E
m
.
Ebenso folgt ZA
i,j;a
ZA
i,j;a
= E
m
. Also sind alle m m-Elementarmatrizen
invertierbar, und ihre Inversen sind ebenfalls Elementarmatrizen.
(c) Nach Satz 4.1.13 und (a) entspricht eine elementare Umformung von A der
Linksmultiplikation mit einer invertierbaren Matrix U. Nach Folgerung 3.4.8 gilt
dann aber rg(UA) = rg(A).
Um den Rang einer m n-Matrix A zu berechnen, wendet man elementare
Umformungen nach dem folgenden Schema solange an, bis man A schlielich zu
einer Matrix in Treppenform umgeformt hat, der man ihren Rang dann ansieht.
4.1.16 Beispiel.
Umformung E
m
A
1 0 0 5 10 20 1000
0 1 0 1 1 1 100
0 0 1 12 12 20 1400
1 5 0 0 5 15 500
ZA(2, 1, 5) 0 1 0 1 1 1 100
0 0 1 12 12 20 1400
0 1 0 1 1 1 100
ZV(1, 2) 1 5 0 0 5 15 500
0 0 1 12 12 20 1400
0 1 0 1 1 1 100
ZA(1, 3, 12) 1 5 0 0 5 15 500
0 12 1 0 0 8 200
U T
T ist eine Treppenform von A. Weiter ist Udas Produkt der Elementarmatrizen,
die zu den 3 elementaren Umformungen gehren. Es folgt
UA =
_
_
0 1 0
1 5 0
0 12 1
_
_
_
_
5 10 20 1000
1 1 1 100
12 12 20 1400
_
_
=
_
_
1 1 1 100
0 5 15 500
0 0 8 200
_
_
= T ,
und rg(A) = rg(T ) = 3.
Der folgende Algorithmus von C. F. Gau beschreibt ein efzientes Verfahren
zur Berechnung einer TreppenformT (A) zu einer mn-Matrix Amittels elemen-
tarer Zeilenumformungen. Bei seiner Formulierung wird die inzwischen bliche Be-
zeichnungsweise fr die Darstellung von Algorithmen und Computer-Programmen
benutzt.
86 4 Gau-Algorithmus und lineare Gleichungssysteme
4.1.17 Algorithmen-Konvention. Wendet man auf die Koefzienten a
ij
einer
m n-Matrix A = (a
ij
) einen Umformungsschritt eines Algorithmus an, bei dem
a
ij
in ein Element b
ij
bergeht, dann wird das Endergebnis (b
ij
) dieses Schrittes
wiederum mit A = (a
ij
) bezeichnet. Auf diese neue Matrix A wird der nchste
Schritt des Algorithmus mit der gleichen Konvention angewendet.
Diese Festlegung macht die Abfassung der Algorithmen sehr einfach. Deshalb
wird sie bei allen in diesem Buch dargestellten Algorithmen verwendet.
4.1.18 Algorithmus (Gau). Jede m n-Matrix A = (a
ij
) mit Zeilenvektoren z
i
und Spaltenvektoren s
j
wird durch folgenden Algorithmus in eine m n-Matrix
umgeformt, die mit T (A) bezeichnet wird. Wenn A die Nullmatrix ist, bricht der
Algorithmus ab. Andernfalls wende man folgende Schritte an:
Sei r = 1.
1. Schritt: Sei s
j
r
der erste Spaltenvektor von A, der ab der r-ten Zeile z
r
nicht nur Komponenten gleich Null hat. Dazu gibt es einen ersten Zeilenvektor
z
i
= (a
i1
, . . . , a
ij
r
, . . . , a
in
) mit i r und a
ij
r
= 0. Vertausche z
r
mit diesem
Zeilenvektor z
i
. In der neuen Matrix A = (a
ij
) gilt a
rj
r
= 0.
2. Schritt: Fr jedes i > r wende die Zeilenoperation an, die z
i
durch z
i
z
r

a
ijr
a
rjr
ersetzt.
3. Schritt: Gibt es in der Matrix Anoch einen Spaltenvektor, der ab der (r +1)-
ten Zeile nicht nur Komponenten gleich Null hat, so ersetze man r durch r +1 und
wiederhole die Schritte 1 bis 3. Andernfalls bricht der Algorithmus ab.
4.1.19 Satz. (a) Wendet man den Gau-Algorithmus auf eine m n-Matrix A =
(a
ij
) mit Koefzienten a
ij
aus dem Krper F an, so erhlt man nach sptestens 3m
Schritten eine Matrix T (A) in Treppenform.
(b) Der Gau-Algorithmus erhlt denRangeiner Matrix, d. h. rg(T (A)) = rg(A).
Beweis: (a) folgt unmittelbar aus demAlgorithmus.
(b) folgt aus Folgerung 4.1.15, da nur elementare Zeilenumformungen angewen-
det werden.
4.1.20 Beispiel. Sei
A =
_
_
_
_
0 0 1 1 2
0 2 3 7 8
0 4 1 9 6
0 6 4 8 2
_
_
_
_
.
Zunchst ist r = 1 und j
1
= 2, da dies die erste Spalte = o ist. Dann ist i = 2,
da in der zweiten Spalte der zweite Eintrag der erste von Null verschiedene Eintrag
4.1 Gau-Algorithmus 87
ist. Also ist a
ij
r
= a
22
= 2. Im zweiten Schritt werden die r-te und die i-te Zeile
vertauscht, also die erste und die zweite Zeile. Dann erhlt man
A =
_
_
_
_
0 2 3 7 8
0 0 1 1 2
0 4 1 9 6
0 6 4 8 2
_
_
_
_
.
Anschlieend subtrahiert man
_
1
2
z
1
_
a
j2
von z
j
fr j = 2, 3, 4 und erhlt
A =
_
_
_
_
0 2 3 7 8
0 0 1 1 2
0 0 5 5 10
0 0 13 13 22
_
_
_
_
.
Es gibt noch Spalten, die ab der zweiten Stelle nicht nur Nullen enthalten. Daher
setzt man jetzt r = 2. Die erste Spalte, die ab der zweiten Stelle noch Elemente = 0
enthlt, ist die dritte, also ist j
2
= 3. Das erste Element = 0 ab dieser Stelle in dieser
Spalte ist a
23
= 1, also ist i = 2 = r. Vertauschen der i-ten mit der r-ten Zeile ndert
also die Matrix nicht. Anschlieend subtrahiert man z
2
a
j3
von z
j
fr j = 3, 4 und
erhlt
A =
_
_
_
_
0 2 3 7 8
0 0 1 1 2
0 0 0 0 0
0 0 0 0 4
_
_
_
_
.
Es gibt noch Spalten, die ab der dritten Stelle nicht nur Nullen enthalten. Daher setzt
man r = 3. Die erste solche Spalte ist die fnfte, also ist j
r
= 5. Das kleinste i 3
mit a
i5
= 0 ist i = 4. Vertauschung der dritten und vierten Zeile ergibt
T (A) =
_
_
_
_
0 2 3 7 8
0 0 1 1 2
0 0 0 0 4
0 0 0 0 0
_
_
_
_
.
Hier endet der Algorithmus.
Die Bedeutung des Gau-Algorithmus liegt darin, da damit ein Verfahren be-
schrieben ist, welches stets zu einer Matrix in Treppenform fhrt. Auerdem ist er
leicht zu programmieren.
4.1.21 Bemerkung. Bei der Beschreibung des GauschenAlgorithmus wurden ele-
mentare Zeilenumformungen des zweiten Typs, nmlich Multiplikation einer Zeile
mit einem Skalar, nicht bentigt. Dies wird sich beim Berechnen von Determinanten
als ntzlich erweisen.
88 4 Gau-Algorithmus und lineare Gleichungssysteme
4.1.22 Denition. Sei A = (a
ij
) eine m n-Matrix und a
rs
= 0 fr ein r mit
1 r m und ein s mit 1 s n. Seien z
i
, i = 1, . . . , m, die Zeilenvektoren von
A. Dann nennt man die folgende Matrizenumformung Zeilenpivotierung von A an
der Pivotstelle (r, s):
(a) Man multipliziert die r-te Zeile z
r
mit 1/a
rs
, d. h. man ersetzt z
r
durch
z
r
(a
rs
)
1
.
(b) Fr k = 1, . . . , m, k = r ersetzt man die k-te Zeile z
k
durch z
k
z
r
a
ks
.
Analog erklrt man die Spaltenpivotierung.
Bezeichnung: zpivot (A, i, j) Zeilenpivotierung an der Pivotstelle (i, j).
spivot (A, i, j) Spaltenpivotierung an der Pivotstelle (i, j).
4.1.23 Bemerkung. Aus (a) und (b) folgt, da die durch Zeilenpivotierung aus A
hervorgegangene Matrix B = (b
ij
) in der s-ten Spalte bis auf die Komponente
b
rs
nur aus Nullen besteht und b
rs
= 1 ist. Also ist die s-te Spalte gleich dem
Einheitsvektor e
r
.
4.1.24 Beispiel. Wir fhren die Zeilenpivotierung der folgenden Matrix A an der
Pivotstelle (3, 3) durch:
A =
_
_
1 2 1
3 0 1
0 1 2
_
_
ZM(3;
1
2
)

_
_
1 2 1
3 0 1
0 1/2 1
_
_
ZA(3, 1; 1)

_
_
1 5/2 0
3 0 1
0 1/2 1
_
_
ZA(3, 2; 1)

_
_
1 5/2 0
3 1/2 0
0 1/2 1
_
_
.
4.1.25 Denition. Eine mn-Matrix T = (t
ij
) ist in Treppennormalform, wenn T
die Nullmatrix ist oder ein r mit 1 r m und eine Folge 1 j
1
< < j
r
n
existieren derart, da folgendes gilt:
(a) Wenn i > r, dann ist t
ik
= 0 fr k = 1, . . . , n.
(b) t
ik
= 0 fr i = 1, . . . , r und k < j
i
.
(c) t
ij
i
= 1 fr i = 1, . . . , r.
(d) t
sj
i
= 0 fr i = 1, . . . , r und s = i.
4.1.26 Bemerkung. Die Bedingungen von Denition 4.1.25 (a) bis (c) besagen,
da T in Treppenform ist. Aus (c) und (d) folgt, da diese

fhrenden, von Null


verschiedenen Zahlen immer 1 sind und da eine Spalte, die solch eine

fhren-
de Eins enthlt, sonst nur aus Nullen besteht; genauer ist die j
i
-te Spalte gerade
e
i
F
m
s
.
4.1 Gau-Algorithmus 89
4.1.27 Beispiele.
(a) Die Matrix
_
_
_
_
5 1 2 7 9 0 8
0 0 3 6 1 7 2
0 0 0 2 3 1 1
0 0 0 0 0 0 1
_
_
_
_
ist in Treppenform, aber nicht
in Treppennormalform.
(b) Die Matrix B =
_
_
_
_
1 2 0 1 0 2
0 0 1 5 0 2
0 0 0 0 1 7
0 0 0 0 0 0
_
_
_
_
ist in Treppennormalform.
4.1.28 Algorithmus (Gau-Jordan). Jede mn-Matrix A = (a
ij
) mit Zeilenvek-
toren z
i
, i = 1, . . . , m und Spaltenvektoren s
j
, j = 1, . . . , n wird durch folgenden
Algorithmus zu einer neuen mn-Matrix T umgeformt.
Wenn A die Nullmatrix ist, bricht der Algorithmus ab. Andernfalls wende man
folgende Schritte an:
Sei r = 1.
1. Schritt: Man suche den ersten Spaltenvektor s
j
r
von A, der ab der r-ten Stelle
nicht nur Komponenten gleich Null hat, d. h. a
kj
r
= 0 fr ein k mit r k m. Sei
ferner a
i
r
j
r
der erste von Null verschiedene Eintrag in s
j
r
mit i
r
r, d. h. a
i
r
j
r
steht
in der i
r
-ten Zeile z
i
r
von A.
2. Schritt: Nun vertausche man die r-te mit der i
r
-ten Zeile und fhre anschlie-
end zpivot [A, r, j
r
] durch. Dies erzeugt in der j
r
-ten Spalte Nullen, bis auf den
r-ten Eintrag in s
j
r
, der gleich 1 ist.
3. Schritt: Wenn es in der Matrix A noch einen Spaltenvektor gibt, der ab der
(r + 1)-ten Stelle nicht nur Komponenten gleich Null hat, so ersetze man r durch
r +1 und wiederhole die Schritte 1 bis 3. Sonst bricht das Verfahren jetzt ab.
4.1.29 Beispiel. Der Gau-Jordan Algorithmus wird nun angewendet auf die 3 4-
Matrix
A =
_
_
2 2 1 7
1 1 1 4
0 0 2 2
_
_
zpivot[A,1,1]

_
_
1 1 1/2 7/2
0 0 1/2 1/2
0 0 2 2
_
_
zpivot[A,2,3]

_
_
1 1 0 3
0 0 1 1
0 0 0 0
_
_
= T .
T ist in Treppennormalform.
90 4 Gau-Algorithmus und lineare Gleichungssysteme
Die berfhrung einer gegebenen Matrix in eine Treppenmatrix mit Hilfe ele-
mentarer Zeilenumformungen ist, wie einfache Beispiele zeigen, keineswegs ein-
deutig. Anders liegen jedoch die Verhltnisse bei Treppennormalformen.
4.1.30 Satz. Zu jeder Matrix Agibt es genau eine Matrix T in Treppennormalform,
in die sich Amit elementaren Zeilenumformungen berfhren lt.
Beweis: Es sei A eine m n-Matrix mit den Spaltenvektoren s
1
, . . . , s
n
. Da die
Behauptung fr die Nullmatrix trivial ist, kann auerdem A = 0 vorausgesetzt
werden.
Wendet man den Gau-Jordan-Algorithmus auf A an, berfhrt er A mit ele-
mentaren Zeilenumformungen in eine TreppennormalformT , deren Existenz damit
gesichert ist. Zu beweisen ist nun noch die Eindeutigkeit von T .
Dazu sei U
j
= s
1
, . . . , s
j
fr j = 1, . . . , n, und U

j
sei der entsprechende
Spaltenraum von T . Ferner sei d
j
= dimU
j
und d

j
= dimU

j
. Da aber Zeilen-
umformungen die Spaltenrume nicht verndern, gilt U
j
= U

j
und d
j
= d

j
fr
j = 1, . . . , n. Also folgt r = rg(T ) = d

n
= d
n
= rg(A). Nun ist aber r die
Stufenzahl der TreppennormalformT , die hiernach eindeutig durch Abestimmt ist.
Mit den Bezeichnungen aus Denition 4.1.25 gilt weiter
d
1
= d
j
1
= = d
j
2
1
< d
j
2
= = d
j
3
1
< d
j
3
= < d
j
r
= = d
n
,
wobei sich die Dimensionen an den Stellen des <-Zeichens jeweils um Eins erh-
hen. Die Stellen dieser Dimensionssprnge, nmlich die Spaltenindizes j
1
, . . . , j
r
,
sind demnach ebenfalls durch A eindeutig festgelegt. Die ersten r Zeilen z

i
=
(z

i1
, . . . , z

in
) von T bilden eine Basis B

des Zeilenraumes von T . Entsprechend bil-


den die ersten r linear unabhngigen Zeilen z
i
k
= (z
i
k
1
1
, . . . , z
i
k
n
) mit k = 1, . . . , r
wegen rg(A) = r eine Basis B des Zeilenraumes von A. Wegen der speziellen Ge-
stalt der Zeilen z

i
, nmlich wegen z

ij
i
= 1 und z

ij
s
= 0 fr s = i, ist P = (z
i
k
j
s
)
die Transformationsmatrix des Basiswechsels von B

nach B. Sie ist ebenfalls durch


A eindeutig bestimmt. Da umgekehrt die Zeilen z

1
, . . . , z

r
von T durch die inver-
se Matrix P
1
als Linearkombinationen der Zeilen z
i
1
, . . . , z
i
r
von A ausgedrckt
werden, ist schlielich T selbst durch Aeindeutig bestimmt.
4.2 Lsungsverfahren fr Gleichungssysteme
Jedes lineare Gleichungssystem mit mn-Koefzientenmatrix A, Unbestimmten-
vektor x und Konstantenvektor d F
m
hat die Form
A x = d. (G)
4.2 Lsungsverfahren fr Gleichungssysteme 91
4.2.1 Denition. Sei

A die m (n + 1)-Matrix, die aus A entsteht, indem man
den Vektor d als letzte Spalte zu Ahinzufgt, d. h.

A = (A, d).

Aheit erweiterte
Matrix des Gleichungssystems.
4.2.2 Beispiel. Das Gleichungssystem (G) A x = d mit
A =
_
_
5 10 20
1 1 1
12 12 20
_
_
und d =
_
_
1000
100
1400
_
_
hat die erweiterte Matrix

A =
_
_
5 10 20 1000
1 1 1 100
12 12 20 1400
_
_
.
4.2.3 Satz. Das lineare Gleichungssystem
A x = d (G)
hat genau dann eine Lsung, wenn die Koefzientenmatrix A und die erweiterte
Matrix

Avon (G) den gleichen Rang haben, d. h. rg(A) = rg(

A).
Beweis: Nach Satz 3.2.8 ist Im(A) der Spaltenraum von A. Das Gleichungssystem
(G) ist nach Satz 3.2.10 genau dann lsbar, wenn d Im(A). Nach Denition 4.2.1
ist diese Bedingung quivalent zu rg(A) = rg(

A).
Darf man ein gegebenes Gleichungssystem stets durch elementare Zeilenopera-
tionen umformen, ohne da sich die Lsungsgesamtheit des neu entstandenen Glei-
chungssystems von der des ursprnglichen Systems unterscheidet? Eine Antwort auf
diese Fragen geben die beiden folgenden Resultate.
4.2.4 Satz. Sei (G) A x = d ein lineares Gleichungssystem mit m Gleichungen.
Wenn S eine invertierbare m m-Matrix ist, dann hat (G

) S A x = S d die
gleichen Lsungen wie (G).
Beweis: Wenn u eine Lsung von (G) ist, dann ist A u = d, also S A u =
S d. Daher ist u eine Lsung von (G

). Wenn v eine Lsung von (G

) ist, dann ist


S A v = S d, also A v = S
1
S A v = S
1
S d = d. Daher ist v eine
Lsung von (G).
4.2.5 Folgerung. Seien

A und

B die erweiterten Matrizen der linearen Glei-
chungssysteme (G) und (G

). Wenn

B aus

Adurch endlich viele elementare Zeilen-
umformungen hervorgeht, dann haben (G) und (G

) dieselben Lsungen.
92 4 Gau-Algorithmus und lineare Gleichungssysteme
Beweis: Nach Satz 4.1.13 und Folgerung 4.1.15 werden elementare Zeilenumfor-
mungen durch Multiplikation von links mit einer invertierbaren Matrix bewirkt. Die
Behauptung folgt also aus Satz 4.2.4.
Nach Satz 4.1.30 geht die erweiterte Matrix

A des Gleichungssystems (G)
A x = d durch den Gau-Jordan-Algorithmus in eine Matrix

T ber, die in Trep-
pennormalform ist. Wegen Folgerung 4.2.5 erhlt man daher die Lsungsgesamtheit
von (G) durch den folgenden
4.2.6 Satz. Sei (G) ein lineares Gleichungssystem mit m n-Koefzientenmatrix
T , Unbestimmtenvektor x und Konstantenvektor d F
m
. Sei die erweiterte Matrix
von (G) eine m (n + 1)-Matrix

T = (t
ij
) in Treppennormalform derart, da die
fhrenden Einsen an den Stellen (i, j
i
) fr i = 1, . . . , r stehen. Dann gilt:
(a) Wenn die letzte Spalte von

T eine fhrende Eins enthlt, dann hat (G) keine
Lsung.
(b) Wenn die letzte Spalte von

T keine fhrende Eins enthlt, dann ist a =
(a
1
, . . . , a
n
), deniert durch
a
s
=
_
t
i,n+1
falls s = j
i
,
0 sonst
eine spezielle Lsung von (G). Auerdem erhlt man eine Basis des Lsungs-
raums des zugehrigen homogenen Systems (H) wie folgt: Fr jedes 1 k n
mit k = j
i
, i = 1, . . . , r, sei der Vektor b
k
= (b
1k
, . . . , b
nk
) F
n
deniert
durch
b
sk
=
_
_
_
t
ik
falls s = j
i
,
1 falls s = k,
0 sonst.
Dann ist {b
k
| 1 k n, k = j
i
fr i = 1, . . . , r} eine Basis des Lsungs-
raumes Ker(T ) von (H).
Beweis: (a) Enthlt die letzte Spalte von

T eine fhrende Eins, dann ist rg(

T ) =
1 +rg(T ). Also hat (G) keine Lsung nach Satz 4.2.3.
(b) Seien v
1
, . . . , v
n+1
die Spaltenvektoren von

T . Es ist nach Bemerkung 4.1.25
n

s=1
v
s
a
s
=
r

i=1
v
j
i
a
j
i
=
r

i=1
e
i
t
i, n+1
= v
n+1
.
Daraus folgt, da a eine spezielle Lsung von (G) ist. Fr jedes k mit 1 k n
und k = j
i
fr i = 1, . . . , r gilt
n

s=1
v
s
b
sk
= v
k
+
r

i=1
v
j
i
t
ik
= v
k
+
r

i=1
e
i
t
ik
= v
k
+v
k
= 0.
4.2 Lsungsverfahren fr Gleichungssysteme 93
Also sind alle b
k
Lsungen von (H). Wenn
n

k=1
k=j
1
,...,jr
b
k
a
k
= o
fr a
k
F, dann ist fr jedes q mit 1 q n und q = j
1
, . . . , j
r
auch
0 =
n

k=1
k=j
1
,...,jr
b
qk
a
k
= a
q
.
Daraus folgt, da alle a
k
= 0 sind, und somit sind die b
k
s linear unabhngig.
Da rg(

T ) = r, ist die Dimension des Lsungsraumes von (H) nach Satz 3.2.13
gleich dimKer(T ) = n dimIm(T ) = n r. Also bilden die b
k
s eine Basis des
Lsungsraumes Ker(T ) von (H) nach Folgerung 3.2.14.
Aus Folgerung 4.2.5 und Satz 4.2.6 ergibt sich folgendes Lsungsverfahren fr
lineare Gleichungssysteme.
4.2.7 Lsungsverfahren. Gegeben sei ein lineares Gleichungssystem(G) Ax = d
mit mn-Koefzientenmatrix A = (a
ij
), Unbestimmtenvektor x und Konstanten-
vektor d F
m
. Sei

A = (A, d) die zu (G) gehrige erweiterte Matrix. Dann
wendet man den Gau-Jordan-Algorithmus auf

A an und erhlt eine m (n + 1)-
Matrix

T = (t
ij
) in Treppennormalform mit fhrenden Einsen an den Stellen (i, j
i
),
i = 1, . . . , r.
1. Fall: Hat

T in der letzten Spalte eine fhrende Eins, so hat (G) keine Lsung.
2. Fall: Gibt es keine fhrende Eins in der letzten Spalte, so sieht

T wie folgt
aus:
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 0
j
1
1 t
1,j
1
+1
t
1,j
2
1
j
2
0 t
1,j
2
+1

j
r
0 t
1,j
r
+1
t
1,n+1
0 0 0 1 t
2,j
2
+1
0 t
2,j
r
+1
t
2,n+1
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
1 t
r,j
r
+1
t
r,n+1
0 0 0
.
.
.
.
.
.
0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
94 4 Gau-Algorithmus und lineare Gleichungssysteme
Nun fge man in die Matrix

T Nullzeilen so ein, da die fhrenden Einsen in der
neuen Matrix auf der Diagonalen stehen, d. h. sie stehen dann an der Stelle (j
i
, j
i
).
Durch weiteres Anhngen bzw. Streichen von Nullzeilen bringe man die neue Matrix
auf das Format n (n + 1). Dann ersetze man alle Nullen an der Stelle (k, k) mit
1 k n und k = j
1
, . . . , j
r
durch eine 1. Sei S die neu entstandene Matrix
mit den Spaltenvektoren s
1
, s
2
, . . . , s
n+1
. Dann ist s
n+1
eine spezielle Lsung von
(G), und die Vektoren s
k
fr 1 k n mit k = j
1
, . . . , j
r
bilden eine Basis des
homogenen Gleichungssystems (H) A x = 0 von (G). Nach Satz 3.2.9 folgt dann:
Die Menge L = {s
n+1
+

n
k=1
k=j
1
,...,jr
s
k
a
k
| a
k
F} ist die Lsungsgesamtheit
des Gleichungssystems (G).
4.2.8 Beispiel. Sei

A =
_
_
_
_
1 2 0 1 0 2
0 0 1 5 0 2
0 0 0 0 1 7
0 0 0 0 0 0
_
_
_
_
.

A ist in Treppennormalform. Die Matrix wird mit Nullzeilen so erweitert, da die


fhrenden Einsen auf der Diagonalen (ohne letzte Spalte) stehen; durch anschlieen-
des Streichen der letzten Nullzeile erhlt man die 5 6-Matrix
_
_
_
_
_
_
1 2 0 1 0 2
0 0 0 0 0 0
0 0 1 5 0 2
0 0 0 0 0 0
0 0 0 0 1 7
_
_
_
_
_
_
.
Die Nullen in der Diagonalen werden durch 1 ersetzt:
_
_
_
_
_
_
1 2 0 1 0 2
0 1 0 0 0 0
0 0 1 5 0 2
0 0 0 1 0 0
0 0 0 0 1 7
_
_
_
_
_
_
.
Sei a = (2, 0, 2, 0, 7) die letzte, b
1
= (2, 1, 0, 0, 0) die zweite und b
2
=
(1, 0, 5, 1, 0) die vierte Spalte. Dann ist L = {a + b
1
s + b
2
r | s, r F}
die Lsungsmenge des linearen Gleichungssystems, das zur erweiterten Matrix

A
gehrt.
4.2.9 Bemerkung. Sei

T die Treppennormalform der erweiterten Matrix zu einem
lsbaren linearen Gleichungssystem, wobei die Nullzeilen weggelassen sind. Wenn
4.2 Lsungsverfahren fr Gleichungssysteme 95
s
1
, . . . , s
n+1
die Spaltenvon

T sind, dannlt sichdas zugehrige Gleichungssystem
schreiben als
n

j=1
s
j
x
j
= s
n+1
.
Nun seien j
1
, . . . , j
r
wie in der Denition der Treppennormalform. Nach Bemer-
kung 4.1.23 ist dann s
j
i
= e
i
fr i = 1, . . . , r. Daher ist
_
_
_
x
j
1
.
.
.
x
j
r
_
_
_
=
r

i=1
s
j
i
x
j
i
= s
n+1

j=1
j=j
1
,...,jr
s
j
x
j
,
d. h. die x
j
i
s lassen sich durch die brigen x
j
s ausdrcken. Wenn die x
j
s in ei-
ner mathematischen Formel auftreten, dann kann man die x
j
i
s durch die entspre-
chenden Ausdrcke ersetzen und erhlt eine Formel, welche nur noch die x
j
s mit
j = j
1
, . . . , j
r
enthlt. Diesen Prozess nennt man Elimination.
Zur Berechnung der Inversen einer invertierbaren n n-Matrix kann der Gau-
Jordan-Algorithmus ebenfalls benutzt werden. Das entsprechende Berechnungsver-
fahren ergibt sich aus
4.2.10 Satz. Sei A eine n n-Matrix. Genau dann ist A ein Produkt von Elemen-
tarmatrizen, wenn rg(A) = n ist.
Beweis: Nach Folgerung 4.1.15 sind die nn-Elementarmatrizen invertierbar. Ist A
ein Produkt von Elementarmatrizen, so ist Aauch invertierbar. Daher ist rg(A) = n
nach Satz 3.4.9.
Sei umgekehrt rg(A) = n. Sei T die Treppennormalform von A. Nach Fol-
gerung 4.1.15 gilt rg(T ) = n. Daher ist T = E
n
die n n-Einheitsmatrix. Nach
Satz 4.1.13 lt sich T schreiben als T = X
1
. . . X
s
A = E
n
fr geeignete Element-
armatrizen X
i
, i = 1, . . . , s. Daher ist X
1
. . . X
s
= A
1
und A = X
1
s
. . . X
1
1
.
Also ist Aein Produkt von Elementarmatrizen nach Folgerung 4.1.15.
4.2.11 Berechnungsverfahren fr die Inverse einer Matrix. Sei A eine n n-
Matrix. Man bilde eine n 2n-Matrix K = (A, E
n
), indem man die n
n-Einheitsmatrix E
n
rechts an A anfgt. Nun wende man den Gau-Jordan-
Algorithmus auf die Matrix K an. Die dadurch entstehende n 2n-Matrix L ist
in Treppennormalform, und, falls Ainvertierbar ist, sind nach Satz 4.2.10 die ersten
n Spaltenvektoren von L die Spaltenvektoren der n n-Einheitsmatrix E
n
. Sei B
die Matrix, deren Spaltenvektoren die letzten n Spaltenvektoren von L sind. Dann
ist B = A
1
nach dem Beweis von Satz 4.2.10.
96 4 Gau-Algorithmus und lineare Gleichungssysteme
4.2.12 Beispiel. Die Inverse der 3 3-Matrix A =
_
_
1 2 1
1 1 1
1 1 1
_
_
wird gem
Verfahren 4.2.11 nach folgendem Schema berechnet.
Umformung A E
3
1 2 1 1 0 0
1 1 1 0 1 0
1 1 1 0 0 1
1 2 1 1 0 0
zpivot(1, 1) 0 1 0 1 1 0
0 1 2 1 0 1
1 0 1 1 2 0
zpivot(2, 2) 0 1 0 1 1 0
0 0 2 0 1 1
1 0 0 1
3
2
1
2
zpivot(3, 3) 0 1 0 1 1 0
0 0 1 0
1
2

1
2
E
3
A
1
Also ist A
1
=
_
_
1 3/2 1/2
1 1 0
0 1/2 1/2
_
_
.
4.3 Aufgaben
4.1 Berechnen Sie mit Hilfe elementarer Umformungen den Rang von
A =
_
_
_
_
2 3 4 3 18
6 18 4 22 6
4 12 6 8 6
6 18 6 42 36
_
_
_
_
.
4.2 Berechnen Sie den Zeilenrang von AB fr die Matrizen
A =
_
_
_
_
_
_
_
_
0 1 2 3 4 5
1 0 1 2 3 4
2 1 0 1 2 3
3 2 1 0 1 2
4 3 2 1 0 1
5 4 3 2 1 0
_
_
_
_
_
_
_
_
,
4.3 Aufgaben 97
B =
_
_
_
_
_
_
_
_
1 1 2 3 4 5
1 1 1 2 3 4
2 1 1 1 2 3
3 2 1 1 1 2
4 3 2 1 1 1
5 4 3 2 1 1
_
_
_
_
_
_
_
_
.
4.3 Im R
4
sei U der von den Vektoren
(1, 3, 5, 4), (2, 6, 7, 7), (0, 0, 1, 1), (1, 3, 1, 2)
und V der von den Vektoren
(1, 0, 2, 2), (0, 3, 3, 5), (5, 3, 6, 3), (6, 6, 5, 0)
erzeugte Unterraum. Berechnen Sie je eine Basis von U, V, U +V und U V.
4.4 Berechnen Sie mittels des Gau-Algorithmus eine Treppenform T (A) und mittels des
Gau-Jordan Algorithmus die Treppennormalform T der folgenden Matrix:
A =
_
_
_
_
_
_
1 3 4 0 2
2 5 7 1 0
1 2 3 0 0
3 8 11 4 0
3 8 11 1 2
_
_
_
_
_
_
.
4.5 Bestimmen Sie die Lsungsgesamtheit des folgenden linearen Gleichungssystems ber
den komplexen Zahlen:
2x
1
3x
2
7x
3
+5x
4
+2x
5
= 1
x
1
2x
2
4x
3
+3x
4
+x
5
= i
2x
1
4x
3
+2x
4
+x
5
= i
x
1
5x
2
7x
3
+6x
4
+2x
5
= 1.
4.6 Bestimmen Sie mit Hilfe eines Computeralgebrasystems die Lsungsgesamtheit des
folgenden linearen Gleichungssystems mit Koefzienten aus Q:
2x
2
+2x
3
+x
5
2x
6
3x
8
x
10
= 7
x
1
+x
2
2x
5
2x
6
+6x
8
+2x
9
= 5
x
1
+x
3
+x
4
+2x
6
3x
8
= 2
3x
1
6x
2
+9x
3
+x
5
10x
6
3x
8
3x
10
= 32 (G)
2x
1
+3x
2
5x
3
+x
4
+8x
6
+x
7
3x
8
= 16
x
1
+x
3
x
5
2x
6
+3x
8
+x
9
= 1
2x
1
+2x
2
4x
3
+4x
6
+x
10
= 13.
98 4 Gau-Algorithmus und lineare Gleichungssysteme
4.7 Sei Aeine n n-Matrix. Zeigen Sie:
(a) Aist genau dann invertierbar, wenn ihre transponierte Matrix A
T
invertierbar ist.
(b) Ist Ainvertierbar, so ist (A
T
)
1
= (A
1
)
T
.
4.8 Berechnen Sie die Inversen der folgenden Matrix Aund ihrer transponierten Matrix A
T
.
A =
_
_
_
_
_
_
_
_
1 2 3 0 0 0
2 1 0 0 0 0
4 2 0 0 0 24
0 0 0 2 1 1
0 0 0 2 1 0
0 0 0 5 2 3
_
_
_
_
_
_
_
_
.
4.9 Es sei J eine Menge von n n-Matrizen, so da gilt:
(a) J enthlt eine von 0 verschiedene Matrix,
(b) J ist bezglich der Addition von Matrizen eine abelsche Gruppe, und
(c) fr eine Matrix A J und eine beliebige Matrix X Mat
n
(F) liegen XA und AX
in J.
Zeigen Sie: Die n n-Einheitsmatrix E
n
liegt in J.
4.10 Sei A = (a
ij
) eine reelle n n-Matrix derart, da die Absolutbetrge |a
ij
| ihrer
Koefzienten die folgenden n Ungleichungen erfllen:
n

j=1
j=i
|a
ij
| < |a
ii
| fr i = 1, 2, . . . , n.
Bestimmen Sie rg(A).
5 Determinanten
Die Determinantenabbildung ordnet jeder nn-Matrix A = (a
ij
) mit Koefzienten
a
ij
aus dem Krper F ein eindeutig bestimmtes Krperelement det Aaus F zu. Sie
ist ein wichtiges Hilfsmittel zur Berechnung der Eigenwerte von A, einem zentralen
Problem der linearen Algebra, mit dem sich das nchste Kapitel befat.
Zur Vorbereitung des Existenz- und Eindeutigkeitsbeweises fr die Determi-
nantenabbildung werden im ersten Abschnitt einige Ergebnisse ber Permutationen
endlicher Mengen dargestellt.
Whrend in Abschnitt 2 auf die multilinearen Abbildungen und in Abschnitt 3
auf die Existenz und Eindeutigkeit der Determinantenabbildung eingegangen wird,
behandelt der vierte Abschnitt einige Verfahren zur Berechnung der Determinante
einer n n-Matrix A. Hierbei ndet auch der Gausche Algorithmus eine weitere
Anwendung.
Schlielich werden im fnften Abschnitt die Determinanten zur Berechnung
der Inversen A
1
einer invertierbaren n n-Matrix und zur Auflsung linearer
Gleichungssysteme herangezogen. Diese Anwendungen sind vor allem von theore-
tischem Interesse.
5.1 Permutationen
In 1.3.2 wurde die symmetrische Gruppe S
n
eingefhrt. Die dort gewhlten Be-
zeichnungen gelten weiterhin. Zunchst werden einige grundlegende Begriffe und
Ergebnisse ber die symmetrische Gruppe dargestellt. Sie werden spter bei der
Entwicklung der Determinantentheorie bentigt.
5.1.1 Denition. Sei n N, n = 0 und M = {1, 2, . . . , n}. Eine bijektive Abbil-
dung von M auf M heit Permutation von M. Die Menge aller Permutationen von
M bildet bezglich der Hintereinanderausfhrung als Verknpfung eine Gruppe, die
symmetrische Gruppe S
n
.
Bezeichnung: = ((1), (2), . . . , (n)) fr alle S
n
.
Entsprechend der in Beispiel 1.3.2 (c) festgelegten Multiplikation in S
n
gilt
(

)(m) = (

(m)) fr m {1, 2, . . . , n}. Die Fixpunkte (i) = i einer Per-


mutation S
n
werden von nun an in dem n-Tupel = ((1), (2), . . . , (n))
100 5 Determinanten
hug weggelassen. Insbesondere ist das leere Tupel das Einselement id von S
n
. Ist
= (2, 1, 3), also (3) = 3, so ist = (2, 1) S
3
.
5.1.2 Denition. Eine Permutation von M = {1, 2, . . . , n} mit n 2 heit Trans-
position, wenn (i) = j und (j) = i fr zwei verschiedene Elemente i, j von M
gilt und alle anderen Elemente von M festlt.
Bezeichnung: = (i, j) S
n
5.1.3 Satz. Die symmetrische Gruppe S
n
hat die Ordnung |S
n
| = n!.
Beweis: Vollstndige Induktion nach n: Fr n = 1 ist |S
1
| = |{id}| = 1. Fr
n 1 gelte |S
n1
| = (n 1)!. In der symmetrischen Gruppe S
n
kann S
n1
mit
der Menge aller Bijektionen von M = {1, 2, . . . , n} auf M mit der Eigenschaft
(n) = n identiziert werden. Fr alle anderen S
n
gilt (n) = n. Fr i =
1, 2, . . . , n 1 sei
i
diejenige Transposition von M, die n mit i vertauscht, d. h.

i
= (n, i). Sei nun (n) = i. Dann ist
1
i
(n) = n. Also ist
1
i
S
n1
und
so
i
S
n1
= {
i
| S
n1
}. Daher ist S
n
=

n1
i=1

i
S
n1
S
n1
, wobei
in dieser Vereinigung die einzelnen Mengen paarweise disjunkt sind. Hieraus folgt:
|S
n
| = |S
n1
| +

n1
i=1
|S
n1
| = n(n 1)! = n!
5.1.4 Satz. Fr n 2 ist jede Permutation von M = {1, 2, . . . , n} Produkt von
endlich vielen Transpositionen.
Beweis: Die symmetrische Gruppe S
2
besteht aus den Elementen id und der Trans-
position = (2, 1). Wegen id = gilt die Behauptung des Satzes fr n = 2.
Fr i = 1, 2, . . . , n 1 sei
i
wie im Beweis von Satz 5.1.3 die Transposition mit

i
(n) = i und
i
(i) = n. Dann ist S
n
= S
n1

n1
i=1

i
S
n1
, wobei S
n1
wieder aus
allen Permutationen von S
n
mit (n) = n besteht. Wegen der Induktionsannahme
folgt hieraus die Behauptung fr S
n
.
5.1.5 Bemerkung. Die in Satz 5.1.4 gegebene Produktdarstellung einer Permutation
S
n
ist im allgemeinen nicht eindeutig, z. B. gilt
= (3, 1, 2) = (2, 1)(3, 1) = (3, 1)(3, 2) in S
3
.
Sei n 2. Seien X
1
, X
2
, . . . , X
n
Unbestimmte ber dem Ring Z der ganzen
Zahlen. Dann operiert die symmetrische Gruppe S
n
auf den Polynomen
p(X
1
, X
2
, . . . , X
n
) Z[X
1
, X
2
, . . . , X
n
],
und zwar durch Vertauschung der Indizes, d. h.
p(X
1
, X
2
, . . . , X
n
) = p(X
(1)
, X
(2)
, . . . , X
(n)
) fr S
n
.
5.1 Permutationen 101
5.1.6 Beispiel. Sei = (2, 3, 1) S
3
, p(X
1
, X
2
, X
3
) = X
1
X
2
+ X
1
X
3

Z[X
1
, X
2
, X
3
]. Dann ist p(X
1
, X
2
, X
3
) = X
(1)
X
(2)
+ X
(1)
X
(3)
= X
2

X
3
+X
2
X
1
.
5.1.7 Hilfssatz. Sei M = {1, 2, . . . , n} mit n 2. Seien X
1
, X
2
, . . . , X
n
Unbestimmte ber dem Ring Z der ganzen Zahlen. Sei f (X
1
, X
2
, . . . , X
n
) =

i<j
(X
j
X
i
) Z[X
1
, X
2
, . . . , X
n
], wobei das Produkt ber alle Paare (i, j)
M M mit i < j gebildet wird. Dann gelten:
(a) Fr jede Permutation S
n
ist f (X
1
, . . . , X
n
) = s()f (X
1
, . . . , X
n
) fr
ein eindeutig bestimmtes Vorzeichen s() {+1, 1}.
(b) s() = 1 fr jede Transposition S
n
.
Beweis: (a) Fr jedes S
n
sei a() die Anzahl der Paare (i, j) M M mit
i < j und (i) > (j). Dann ist f (X
1
, X
2
, . . . , X
n
) =

i<j
(X
(j)
X
(i)
) =
(1)
a()

i<j
(X
j
X
i
) = s()f (X
1
, X
2
, . . . , X
n
), wobei s() = (1)
a()

{+1, 1} eindeutig durch bestimmt ist.


(b) Ist = (j, i) mit i < j die Transposition von M, die i und j vertauscht,
dann ist (i) = j, (j) = i und (k) = k fr alle k {1, 2, . . . , n} mit k = i, j.
Insbesondere gilt fr k = i +1, . . . , j 1, da
(i, j) = (j, i), (i, k) = (j, k) und (k, j) = (k, i)
ist. Daher sind diese 2(j i 1) + 1 Paare (a, b) mit a < b alle Paare (x, y),
x, y {1, 2, . . . , n} mit x < y, fr die (x) > y gilt. Hieraus folgt:
f (X
1
, X
2
, . . . , X
n
) =(1)
2(ji1)+1
f (X
1
, X
2
, . . . , X
n
) =f (X
1
, X
2
, . . . , X
n
).
Also gilt s() = 1.
5.1.8 Denition. Sei M = {1, 2, . . . , n} mit n 2. Das nach Hilfssatz 5.1.7 eindeu-
tig bestimmte Vorzeichen s() {+1, 1} der Permutation S
n
heit Signum
von .
Bezeichnung: sign .
Die Permutation S
n
heit gerade, wenn sign = 1. Sonst heit ungerade.
5.1.9 Satz. Fr alle Paare , S
n
gilt:
sign() = (sign )(sign ).
102 5 Determinanten
Beweis: Nach Hilfssatz 5.1.7 ist ()f (X
1
, . . . , X
n
) = s()f (X
1
, . . . , X
n
). An-
dererseits ist
()f (X
1
, X
2
, . . . , X
n
) = [f (X
1
, X
2
, . . . , X
n
)]
= [s()f (X
1
, X
2
, . . . , X
n
)]
= s()[f (X
1
, X
2
, . . . , X
n
)]
= s()[s()f (X
1
, X
2
, . . . , X
n
)]
= s()s()f (X
1
, X
2
, . . . , X
n
).
Also gilt sign() = (sign )(sign ).
5.1.10 Satz. (a) Ist S
n
, so ist sign = 1 dann und nur dann, wenn ein
Produkt einer geraden Anzahl von Transpositionen ist.
(b) Die Permutation S
n
sei Produkt vonk Transpositionen. Danngilt sign =
(1)
k
.
Beweis: Da sign = 1 fr jede Transposition gilt, folgt (a) sofort aus Satz 5.1.9
und Satz 5.1.4.
(b) Nach Satz 5.1.4 existieren k Transpositionen
1
,
2
, . . . ,
k
mit =

2
. . .
k
. Nach Satz 5.1.9 gilt daher
sign =
k

i=1
sign
i
= (1)
k
.
Da sign entweder 1 oder -1 ist und nach (a) sign = 1 genau dann gilt, wenn k
gerade ist, gilt die Behauptung von (b) unabhngig von der jeweiligen Produktdar-
stellung von als Produkt von Transpositionen.
5.1.11 Folgerung. Fr n 2 gibt es genau
1
2
n! gerade und
1
2
n! ungerade Permu-
tationen der Zahlen 1, 2, . . . , n.
Beweis: Folgt unmittelbar aus Satz 5.1.3 und Satz 5.1.9.
5.1.12 Denition. Die geraden Permutationen bilden wegen Satz 5.1.9 eine Unter-
gruppe A
n
von S
n
, die man die alternierende Gruppe nennt.
5.2 Multilinearformen
5.2.1 Denition. Seien V
1
, V
2
, . . . , V
n
, W Vektorrume ber dem gemeinsamen
Krper F. Eine Abbildung
: V
1
V
2
V
n
W
heit n-fach linear (oder n-linear), wenn sie folgende Eigenschaften besitzt:
5.2 Multilinearformen 103
(a) (v
1
, . . . , v
i
+v

i
, . . . , v
n
) = (v
1
, . . . , v
i
, . . . , v
n
) +(v
1
, . . . , v

i
, . . . , v
n
)
fr alle v
j
V
j
, j = 1, 2, . . . , n, und v
i
, v

i
V
i
fr i = 1, 2, . . . , n.
(b) (v
1
, . . . , v
i
k, . . . , v
n
) = (v
1
, . . . , v
i
, . . . , v
n
)k fr k F und v
i
V
i
,
i = 1, 2, . . . , n.
Ist W = F und V
i
= V fr i = 1, 2, . . . , n, so heit eine n-fache Linearform von
V. Ist zustzlich n = 2, so heit Bilinearform.
5.2.2 Beispiel. Die Abbildung : F
2
F, deniert durch

__
a
11
a
21
_
,
_
a
12
a
22
__
= a
11
a
22
a
12
a
21
,
ist eine Bilinearform.
5.2.3 Denition. Sei V ein n-dimensionaler F-Vektorraum. Eine n-fache Linear-
form von V heit nicht ausgeartet, wenn nVektoren a
1
, a
2
, . . . , a
n
in V existieren
derart, da (a
1
, a
2
, . . . , a
n
) = 0, wenn also nicht die Nullform ist.
5.2.4 Denition. Eine n-fache Linearform von V heit alternierend, wenn
fr jedes n-Tupel (a
1
, a
2
, . . . , a
n
) von linear abhngigen Vektoren aus V stets
(a
1
, a
2
, . . . , a
n
) = 0 gilt.
Fr eine alternierende n-fache Linearform ist insbesondere (a
1
, . . . , a
n
) = 0,
falls a
i
= a
j
fr ein Paar i < j gilt.
5.2.5 Hilfssatz. Sei eine alternierende n-fache Linearform von V und eine
Permutation. Dann gilt fr a
1
, a
2
, . . . , a
n
V stets

_
a
(1)
, a
(2)
, . . . , a
(n)
_
= (sign ) (a
1
, a
2
, . . . , a
n
).
Beweis: Sicherlich gilt die Behauptung fr n = 1, weil dann = id die Identitt
ist. Sei also n 2. Nach Satz 5.1.9 und Satz 5.1.4 gengt es, die Behauptung fr
eine Transposition mit (i) = j zu beweisen. Da alternierend ist, gilt fr i < j:
0 = (a
1
, . . . , (a
i
+a
j
), . . . , (a
i
+a
j
), . . . , a
n
)
= (a
1
, . . . , a
i
, . . . , a
i
, . . . , a
n
)
+(a
1
, . . . , a
i
, . . . , a
j
, . . . , a
n
)
+(a
1
, . . . , a
j
, . . . , a
i
, . . . , a
n
)
+(a
1
, . . . , a
j
, . . . , a
j
, . . . , a
n
)
= (a
1
, . . . , a
j
, . . . , a
i
, . . . , a
n
)
+(a
1
, . . . , a
i
, . . . , a
j
, . . . , a
n
).
Daher folgt (a
(1)
, a
(2)
, . . . , a
(n)
) = (sign )(a
1
, a
2
, . . . , a
n
) wegen
sign = 1.
104 5 Determinanten
5.2.6 Hilfssatz. Sei V ein n-dimensionaler Vektorraumund eine nicht ausgeartete
alternierende n-fache Linearform von V. Dann sind die n Vektoren a
1
, a
2
, . . . , a
n
genau dann linear abhngig, wenn (a
1
, a
2
, . . . , a
n
) = 0.
Beweis: Wegen Denition 5.2.4 bleibt nur zu zeigen, da (b
1
, b
2
, . . . , b
n
) =
0, wenn immer b
1
, b
2
, . . . , b
n
V linear unabhngig sind. Dann ist B =
{b
1
, b
2
, . . . , b
n
} eine Basis von V. Da nicht ausgeartet ist, existieren nach De-
nition 5.2.3 Vektoren c
1
, c
2
, . . . , c
n
in V derart, da (c
1
, c
2
, . . . , c
n
) = 0. Jeder
dieser Vektoren c
i
hat nach Folgerung 2.2.14 eine eindeutige Darstellung
c
i
=
n

j=1
b
j
k
ij
mit k
ij
F,
weil B eine Basis von V ist. Da eine n-fache Linearform ist, folgt
0 = (c
1
, c
2
, . . . , c
n
) =
n

j
1
=1
n

j
2
=1
. . .
n

j
n
=1
(b
j
1
, b
j
2
, . . . , b
j
n
)k
1,j
1
k
2,j
2
. . . k
n,j
n
.
Wenn in einem Summanden dieser n-fachen Summe zwei der Indizes j
1
, j
2
, . . . , j
n
gleich sind, verschwindet dieser Summand, weil dann (b
j
1
, b
j
2
, . . . , b
j
n
) = 0 gilt.
Wenn aber die Indizes j
1
, j
2
, . . . , j
n
paarweise verschieden sind, stellen sie eine
Permutation der Zahlen 1, 2, . . . , n dar. Wegen Hilfssatz 5.2.5 folgt daher
0 = (c
1
, c
2
, . . . , c
n
) = (b
1
, b
2
, . . . , b
n
)
_

S
n
(sign )k
1,(1)
k
2,(2)
. . . k
n,(n)
_
.
Summiert wird dabei ber alle n! Permutationen aus der symmetrischen Gruppe S
n
.
Also ist (b
1
, b
2
, . . . , b
n
) = 0.
5.2.7 Satz. Sei V ein n-dimensionaler Vektorraum, und {a
1
, a
2
, . . . , a
n
} sei eine
Basis von V. Dann gilt:
(a) Haben die n Vektoren b
i
von V die Basisdarstellung b
i
=

n
j=1
a
j
k
ij
fr
i = 1, 2, . . . , n, so ist
(b
1
, . . . , b
n
) = (a
1
, . . . , a
n
)

S
n
(sign )k
1,(1)
. . . k
n,(n)
. ()
(b) Ersetzt manin() auf der rechtenSeite (a
1
, a
2
, . . . , a
n
) durcheinennicht von
b
1
, . . . , b
n
abhngigen Skalar a = 0, so wird durch () eine nicht ausgeartete
alternierende n-fache Linearform von V deniert.
5.2 Multilinearformen 105
Beweis: Wegen des Beweises von Hilfssatz 5.2.6 ist nur die zweite Behauptung zu
beweisen. Es kann n > 1 angenommen werden, weil dieAussage imFall n = 1 trivial
ist. Sei alsofr einfest gewhltes a = 0aus F dieAbbildung : VV V F
deniert durch
(b
1
, b
2
, . . . , b
n
) = a
_

S
n
(sign )k
1,(1)
k
2,(2)
. . . k
n,(n)
_
.
Dann ist eine n-fache Linearform, wie man leicht veriziert.
Whlt man speziell b
i
= a
i
fr i = 1, 2, . . . , n, so ist k
ij
= 0 fr i = j und
k
ii
= 1 fr i = 1, 2, . . . , n. Also ist
k
1,(1)
k
2,(2)
. . . k
n,(n)
=
_
0 fr = id S
n
,
1 fr = id S
n
.
Hieraus folgt (a
1
, a
2
, . . . , a
n
) = a = 0. Daher ist nicht ausgeartet.
Wenn die Vektoren b
1
, b
2
, . . . , b
n
linear abhngig sind, dann existieren c
j
F
mit b
1
c
1
+b
2
c
2
+ +b
n
c
n
= o, wobei c
1
= 0 angenommen werden kann. Wegen
n > 1 gilt
b
1
= b
2
f
2
+b
3
f
3
+ +b
n
f
n
mit f
j
=
c
j
c
1
fr j = 2, . . . n.
Dann folgt
(b
1
, b
2
, . . . , b
n
) = (b
2
, b
2
, b
3
, . . . , b
n
)f
2
+(b
3
, b
2
, b
3
, . . . , b
n
)f
3
+
+(b
n
, b
2
, . . . , b
n
)f
n
.
Zum Nachweis von (b
1
, b
2
, . . . , b
n
) = 0 gengt es daher zu beweisen, da
(b
1
, . . . , b
t
, . . . , b
n
) = 0 fr b
1
= b
t
und fr t = 2, 3, . . . , n gilt.
Es sei nun
0
diejenige Transposition, die die Indizes 1 und t vertauscht. Durch-
luft dann die Menge A
n
aller geraden Permutationen, so durchlaufen nach Fol-
gerung 5.1.11 die Produkte
0
alle ungeraden Permutationen, weil sign(
0
) =
sign = 1 nach Satz 5.1.9 gilt. Hieraus folgt,
(b
t
, . . . b
t
, . . . , b
n
) =

S
n
(sign )k
t,(1)
. . . k
t,(t )
. . . k
n,(n)
=

A
n
(sign )k
t,(1)
. . . k
t,(t )
. . . k
n,(n)
+

A
n
(sign
0
)k
t,
0
(1)
. . . k
t,
0
(t )
. . . k
n,
0
(n)
=

A
n
(sign +sign
0
)k
t,(1)
. . . k
t,(t )
. . . k
n,(n)
= 0,
106 5 Determinanten
weil k
t,(t )
. . . k
t,(1)
. . . k
n,(n)
= k
t,(1)
. . . k
t,(t )
. . . k
n,(n)
und sign +
sign
0
= 1 1 = 0 fr alle A
n
gilt. Also ist auch alternierend.
5.2.8 Bemerkung. Durch den zweiten Teil des Satzes 5.2.7 ist gesichert, da es fr
jedes n und jeden n-dimensionalen Vektorraum eine nicht ausgeartete alternierende
n-fache Linearform gibt.
5.2.9 Satz. Es seien
1
und
2
zwei nicht ausgeartete alternierende n-fache Line-
arformen von V. Dann gibt es zu ihnen einen Skalar k = 0 mit
2
=
1
k, d. h.

2
(v
1
, . . . , v
n
) =
1
(v
1
, . . . , v
n
) k fr alle v
1
, . . . , v
n
V.
Beweis: Es sei {a
1
, . . . , a
n
} eine Basis von V. Nach Hilfssatz 5.2.6 gilt

s
(a
1
, a
2
, . . . , a
n
) = 0 fr s = 1, 2. Dann sei k =

1
(a
1
,a
2
,...,a
n
)

2
(a
1
,a
2
,...,a
n
)
F.
Fr beliebige Vektoren v
1
, . . . , v
n
mit den Basisdarstellungen
v
i
=
n

j=1
a
j
k
ij
, i = 1, 2, . . . , n,
gilt nach Satz 5.2.7 fr s = 1, 2 :

s
(v
1
, v
2
, . . . , v
n
) =
s
(a
1
, a
2
, . . . , a
n
)
_

S
n
(sign )k
1,(1)
k
2,(2)
. . . k
n,(n)
_
.
Da c =

S
n
(sign )k
1,(1)
. . . k
n,(n)
F unabhngig von s ist, folgt

1
(v
1
, . . . , v
n
)

2
(v
1
, . . . , v
n
)
=

1
(a
1
, . . . , a
n
)c

2
(a
1
, . . . , a
n
)c
= k.

5.3 Determinanten von Endomorphismen und Matrizen


Mittels der Ergebnisse der vorangehenden Abschnitte wird nun der Begriff der De-
terminante eines Endomorphismus eines n-dimensionalen F-Vektorraums V und
einer n n-Matrix A = (a
ij
) eingefhrt.
5.3.1 Denition. Sei B = {a
1
, a
2
, . . . , a
n
} eine Basis des n-dimensionalen F-
Vektorraumes V, und sei eine nicht ausgeartete alternierende n-fache Linearform
von V. Dann ist die Determinante des Endomorphismus von V das Krperelement
det() =
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
.
5.3 Determinanten von Endomorphismen und Matrizen 107
Im folgenden Satz wird nun gezeigt, da die Determinante allein durch den
Endomorphismus bestimmt ist. Sie hngt weder von der ausgewhlten Basis B
von V noch von der zugrunde liegenden n-fachen Linearform von V ab.
5.3.2 Satz. Die Determinante des Endomorphismus von V ist unabhngig von der
Auswahl der Basis {a
1
, a
2
, . . . , a
n
} von V und der nicht ausgearteten alternierenden
n-fachen Linearform von V.
Beweis: Ist der Endomorphismus von V nicht bijektiv, so ist {(a
1
), (a
2
),
. . . , (a
n
)} nach Folgerung 3.2.14 linear abhngig. Also gilt nach Denition 5.2.4
((a
1
), (a
2
), . . . , (a
n
)) = 0
fr alle Basen und alle alternierenden nicht ausgearteten n-fachen Linearformen
von V. Insbesondere ist det = 0.
Sei nun ein Automorphismus von V. Nach Folgerung 3.2.14 ist dann auch
B = {(a
1
), (a
2
), . . . , (a
n
)} eine Basis von V. Ist eine nicht ausgeartete alter-
nierende n-fache Linearform von V, dann ist
((a
1
), (a
2
), . . . , (a
n
)) = 0.
Sei

: V V V F deniert durch

(b
1
, b
2
, . . . , b
n
) = ((b
1
), (b
2
), . . . , (b
n
)).
Da linear und eine n-fache Linearform ist, ist

n-linear. Da ein Automor-


phismus von V ist, sind die (b
i
), i = 1, 2, . . . , n, nach Folgerung 3.2.14 genau
dann linear abhngig, wenn die Vektoren b
1
, b
2
, . . . , b
n
von V linear abhngig sind.
Da alternierend ist, folgt nach Hilfssatz 5.2.6, da

alternierend ist. Wegen

(a
1
, a
2
, . . . , a
n
) = ((a
1
), (a
2
), . . . , (a
n
)) = 0 ist

auch nicht ausgear-


tet. Nach Satz 5.2.9 gilt daher, da
k =

(a
1
, a
2
, . . . , a
n
)
(a
1
, a
2
, . . . , a
n
)
=
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
= det
unabhngig von der jeweiligen Basis {a
1
, a
2
, . . . , a
n
} ist.
Angenommen, ist eine zweite nicht ausgeartete alternierende n-fache Line-
arform von V. Sei wieder

(b
1
, b
2
, . . . , b
n
) = ((b
1
), (b
2
), . . . , (b
n
)) fr
alle b
1
, b
2
, . . . , b
n
V. Dann ist

ebenfalls eine nicht ausgeartete alternierende


n-fache Linearform von V. Nach Satz 5.2.9 existiert ein 0 = c F derart, da
c =
(a
1
, a
2
, . . . , a
n
)
(a
1
, a
2
, . . . , a
n
)
108 5 Determinanten
unabhngig von der Auswahl der Basis {a
1
, a
2
, . . . , a
n
} von V ist. Hieraus folgt
det() =

(a
1
, a
2
, . . . , a
n
)
(a
1
, a
2
, . . . , a
n
)
=
c

(a
1
, a
2
, . . . , a
n
)
c(a
1
, a
2
, . . . , a
n
)
=
c((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
=
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
=

(a
1
, a
2
, . . . , a
n
)
(a
1
, a
2
, . . . , a
n
)
.
Also ist det auch unabhngig von der Wahl der alternierenden nicht ausgearteten
n-fachen Linearform von V.
5.3.3 Folgerung. Sei V ein n-dimensionaler F-Vektorraum. Dann gilt:
(a) Der Endomorphismus von V ist genau dann ein Automorphismus von V,
wenn det = 0 ist.
(b) Sind und Endomorphismen von V, so ist
det() = det() det().
(c) det(id) = 1.
(d) Ist der Endomorphismus von V invertierbar, so gilt det(
1
) = [det()]
1
.
Beweis: Sei B = {a
1
, a
2
, . . . , a
n
} eine Basis von V und eine nicht ausgeartete
alternierende n-fache Linearform von V, mit der die Determinanten
det() =
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
aller Endomorphismen von V konstruiert werden. Dann ist det unabhngig von
und B nach Satz 5.3.2.
(a) Nach Folgerung 3.2.14 ist genau dann ein Automorphismus von V,
wenn (a
1
), (a
2
), . . . , (a
n
) linear unabhngige Vektoren von V sind. We-
gen Hilfssatz 5.2.6 ist daher genau dann ein Automorphismus von V, wenn
((a
1
), (a
2
), . . . , (a
n
)) = 0 und somit det = 0 ist.
5.3 Determinanten von Endomorphismen und Matrizen 109
(b) Sind und Automorphismen, dann gilt nach Denition 5.3.1 und Satz 5.3.2:
det() =
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
=
((a
1
), (a
2
), . . . , (a
n
))
((a
1
), (a
2
), . . . , (a
n
))

((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
= det() det(),
weil {(a
1
), (a
2
), . . . , (a
n
)} nach Folgerung 3.2.14 eine Basis von V und damit
((a
1
), (a
2
), . . . , (a
n
)) = 0 ist.
Ist einer der beiden Endomorphismen oder keinAutomorphismus, so ist nach
Folgerung 3.2.14 auch kein Automorphismus. Aus (a) folgt nun
det() = 0 = det() det().
(c)
det(id) =
(id(a
1
), id(a
2
), . . . , id(a
n
))
(a
1
, a
2
, . . . , a
n
)
=
(a
1
, a
2
, . . . , a
n
)
(a
1
, a
2
, . . . , a
n
)
= 1.
(d) folgt aus det(
1
) det() = det(
1
) = det(id) = 1.
Ist ein Endomorphismus von V und A = {a
1
, a
2
, . . . , a
n
} eine fest gewhlte
Basis von V, so ist
(a
i
) =
n

j=1
a
j
a
ij
, i = 1, 2, . . . , n,
mit eindeutig bestimmten a
ij
F, und A

(A, A) = A

= (a
ij
) ist nach Deniti-
on 3.3.1 die zu gehrige n n-Matrix in Mat
n
(F). Wegen Denition 3.3.1 und
der Stze 5.2.7 und 5.3.2 gilt
det() =

S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
F.
Also ist det() = det(A

(A, A)) im Sinne der folgenden Denition.


5.3.4 Denition. Als Determinante der n-reihigen quadratischen Matrix A = (a
ij
)
mit Koefzienten aus dem Krper F bezeichnet man das Element
det A =

S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
F.
110 5 Determinanten
Bezeichnung: Wenn man bei der Determinante einer quadratischen Matrix A =
(a
ij
) die Elemente der Matrix explizit angeben will, schreibt man statt det A aus-
fhrlicher det(a
ij
) oder

a
1,1
. . . a
1,n
.
.
.
.
.
.
a
n,1
. . . a
n,n

,
indem man das Matrix-Schema in senkrechte Striche einschliet.
5.4 Rechenregeln fr Determinanten von Matrizen
In diesem Abschnitt werden die wesentlichen Verfahren fr die Berechnung der
Determinante einer n n-Matrix A = (a
ij
) mit Koefzienten aus einem Krper F
dargestellt.
5.4.1 Satz. Die Determinante einer n-reihigen quadratischen Matrix A = (a
ij
)
ber dem Krper F besitzt folgende Eigenschaften:
(a) Die Matrix A und ihre Transponierte A
T
besitzen dieselbe Determinante:
det A
T
= det A.
(b) Vertauscht man in Azwei Zeilen oder Spalten, so ndert die Determinante ihr
Vorzeichen.
(c) Addiert man zu einer Zeile (Spalte) eine Linearkombination der brigen Zeilen
(Spalten), so ndert sich die Determinante nicht.
(d) Multipliziert man die Elemente einer Zeile (Spalte) mit einemSkalar c, so wird
die Determinante mit c multipliziert.
(e) Sind in Azwei Zeilen (Spalten) gleich, so gilt det A = 0.
(f) det(Ac) = (det A)c
n
.
(g) det A
1
= (det A)
1
, falls Ainvertierbar ist.
(h) Ist B eine zweite n-reihige quadratische Matrix, so gilt
det(AB) = (det A)(det B).
(i) Fr die Einheitsmatrix E
n
gilt: det E
n
= 1.
Beweis: Es sei
1
die zu inverse Permutation. Da die Multiplikation im Krper
F kommutativ ist, gilt fr die in Denition 5.3.4 auftretenden Produkte
a
1,(1)
. . . a
n,(n)
= a

1
(1),1
. . . a

1
(n),n
.
5.4 Rechenregeln fr Determinanten von Matrizen 111
Da weiter mit auch
1
alle Permutationen aus S
n
durchluft und sign
1
=
sign gilt, erhlt man
det A =

S
n
(sign )a
(1),1
. . . a
(n),n
.
Der hier auf der rechten Seite stehende Ausdruck ist aber gerade die Determinante
von A
T
. Damit ist die Behauptung (a) bewiesen. Aus ihr folgt, da alle Ergebnisse
ber Determinanten richtig bleiben, wenn man in ihnen die Begriffe

Zeile und

Spalte vertauscht. Die Behauptungen (b) bis (e) brauchen daher nur fr Spalten
bewiesen zu werden.
Entspricht die Matrix Ahinsichtlich einer Basis {a
1
, . . . , a
n
} demEndomorphis-
mus von V, so sind die Spalten von A gerade die Koordinaten der Bildvektoren
(a
1
), . . . , (a
n
). Wegen der Denitionen 5.3.1 und 5.3.4 gilt
det A =
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
.
Deswegen folgt (b) aus Hilfssatz 5.2.5, (c) aus Denition 5.2.1 und Hilfssatz 5.2.6,
(d) aus der Linearitt der Determinantenformen und (e) aus Hilfssatz 5.2.6.
Da bei der Bildung der Matrix Ac jede Zeile von A mit c multipliziert wird,
folgt (f) durch n-malige Anwendung von (d). Schlielich sind (g), (h) und (i) eine
unmittelbare Konsequenz von Folgerung 5.3.3.
5.4.2 Satz. Zwei hnliche Matrizen Aund B besitzen denselben Rang und dieselbe
Determinante: rg(A) = rg(B) und det(A) = det(B).
Beweis: Da hnlichkeit ein Spezialfall vonquivalenz ist, gilt rg(A) = rg(B) nach
Folgerung 3.5.3.
Sei P eine invertierbare Matrix mit B = P
1
AP. Dann folgt aus (g) und (h)
von Satz 5.4.1, da
det B = det(P
1
) det(A) det(P) = det(A) det(P
1
) (det P) = det(A)
gilt.
5.4.3 Folgerung. Folgende Eigenschaften einer n n-Matrix A ber dem Krper
F sind quivalent:
(a) Aist invertierbar, d. h. Abesitzt eine inverse Matrix A
1
.
(b) rg A = n.
(c) det A = 0.
112 5 Determinanten
Beweis: Die quivalenz von (a) und (b) gilt nach Satz 3.4.9. Nach Satz 5.4.1 (g),
(h) und (i) folgt (c) aus (a). Ist umgekehrt det A = 0, dann ist nach Satz 3.2.8 und
der Denition von det A der Spaltenrang s(A) = n. Daher ist rg A = n nach Satz
3.4.4.
Die Determinante einer n-reihigen quadratischen Matrix A = (a
ij
) kann mit
Hilfe ihrer Denitionsgleichung
det A =

S
n
(sign )a
1,(1)
. . . a
n,(n)
explizit berechnet werden. Praktisch brauchbar ist diese Gleichung indes nur in den
einfachsten Fllen n = 1, 2, 3. Im Fall n = 1 besteht die Matrix A aus nur einem
Element a und es gilt det A = a. Im Fall n = 2 liefert die Formel sofort

a
1,1
a
1,2
a
2,1
a
2,2

= a
1,1
a
2,2
a
1,2
a
2,1
.
Im Fall n = 3 hat man es mit folgenden sechs Permutationen zu tun:
(1, 2, 3), (2, 3, 1), (3, 1, 2) und (3, 2, 1), (2, 1, 3), (1, 3, 2).
Unter ihnen sind die ersten drei gerade, die letzten drei ungerade. Es folgt

a
1,1
a
1,2
a
1,3
a
2,1
a
2,2
a
2,3
a
3,1
a
3,2
a
3,3

= a
1,1
a
2,2
a
3,3
+a
1,2
a
2,3
a
3,1
+a
1,3
a
2,1
a
3,2
a
1,3
a
2,2
a
3,1
a
1,2
a
2,1
a
3,3
a
1,1
a
2,3
a
3,2
.
Als Merkregel fr diesen Ausdruck ist folgende Vorschrift ntzlich:
5.4.4 Regel von Sarrus. Man schreibe die erste und zweite Spalte der Matrix noch-
mals als vierte und fnfte Spalte hin. Dann bilde man die Produkte lngs der aus-
gezogenen Linien, addiere sie und ziehe die Produkte lngs der gepunkteten Linien
ab:
a
1,1
a
1,2
a
1,3
a
1,1
a
1,2
a
2,1
a
2,2
a
2,3
a
2,1
a
2,2
a
3,1
a
3,2
a
3,3
a
3,1
a
3,2

@
@
@
@
@
@
@
@
@
@
@
@
. .
Fr n 4 wird die Denitionsgleichung recht umfangreich und unbersichtlich,
so da sie fr die praktische Rechnung imallgemeinen unbrauchbar ist. Hier hilft ein
anderer Weg, der wieder an die elementaren Umformungen aus Kapitel 4 anknpft.
5.4 Rechenregeln fr Determinanten von Matrizen 113
Eigenschaft (c) aus Satz 5.4.1 besagt, da die Determinante durch elementare
Umformungen des Typs (c) in Denition 4.1.9 nicht gendert wird. Weiter besagt
die Eigenschaft (b), da Zeilen- und Spaltenvertauschungen, also die elementaren
Umformungen des Typs (a) von Denition 4.1.9 bei der Determinante lediglich
einen Vorzeichenwechsel bewirken. Nun kann man nach Satz 4.1.19 eine n-reihige
quadratische Matrix A mit Hilfe des Gau-Algorithmus immer in eine Matrix B
folgender Gestalt berfhren:
B =
_
_
_
_
_
_
b
1,1
. . . b
1,n
0 b
2,2
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 b
n,n
_
_
_
_
_
_
,
bei der unterhalb der Hauptdiagonale lauter Nullen stehen. Da noch weitere Nullen
auftreten knnen, interessiert in diesem Zusammenhang nicht. Nach den vorange-
henden Bemerkungen gilt dann
det A = (1)
k
det B,
wobei k die Anzahl der bei den Umformungen vorgenommen Zeilen- und Spalten-
vertauschungen ist. Die Determinante der Matrix B kann aber sofort angegeben
werden:
Fr die Elemente b
i,j
von B gilt zunchst b
i,j
= 0 fr i > j. Ist nun eine
von der Identitt verschiedene Permutation aus S
n
, so gibt es mindestens ein i mit
i > (i). Wegen b
i,(i)
= 0 verschwindet daher der zu dieser Permutation gehrende
Summand in der Denitionsgleichung der Determinante. Die Summe reduziert sich
somit auf den zur identischen Permutation gehrenden Summanden, und man erhlt
den
5.4.5 Satz. Eine Dreiecksmatrix B = (b
ij
) hat die Determinante
det B = b
1,1
b
2,2
. . . b
n,n
.
Damit hat sich fr die Berechnung von Determinanten folgende allgemeine Vor-
schrift ergeben:
5.4.6 Berechnungsverfahren fr Determinanten. Es sei Aeine n-reihige quadra-
tische Matrix. Diese werde durch elementare Umformungen (a) und (c), unter denen
genau k Zeilen- oder Spaltenvertauschungen vorkommen, in eine Matrix B = (b
ij
)
berfhrt, bei der unterhalb der Hauptdiagonale lauter Nullen auftreten. Dann gilt
det A = (1)
k
b
1,1
b
2,2
. . . b
n,n
.
114 5 Determinanten
5.4.7 Beispiel. Gegeben sei die Matrix
A =
_
_
_
_
1 3 4 0
2 5 7 1
1 2 3 0
0 0 1 4
_
_
_
_
.
Durch elementare Umformungen der Form (c) von Denition 4.1.9 geht die Matrix
Aber in die Matrizen
_
_
_
_
1 3 4 0
0 1 1 1
0 5 1 0
0 0 1 4
_
_
_
_
,
_
_
_
_
1 3 4 0
0 1 1 1
0 0 4 5
0 0 1 4
_
_
_
_
und schlielich
B =
_
_
_
_
1 3 4 0
0 1 1 1
0 0 4 5
0 0 0
21
4
_
_
_
_
.
Da keine Vertauschungen vorgenommen wurden, ergibt sich nach Satz 5.4.5
det A = det B = 1(1)(4)
_
21
4
_
= 21.
5.4.8 Denition. A = (a
ij
) sei eine n n-Matrix ber dem Krper F. Durch Weg-
lassen der i-ten Zeile und der j-ten Spalte erhlt man eine (n 1) (n 1)-Matrix
M
ij
, eine Untermatrix von A. Ihre Determinante det M
ij
heit die Unterdetermi-
nante von A bezglich a
ij
, und den Ausdruck A
ij
= (1)
i+j
det M
ij
bezeichnet
man als Adjunkte von a
ij
.
5.4.9 Satz (Entwicklungssatz von Laplace). Ist A = (a
ij
) eine n n-Matrix ber
dem Krper F, dann gelten:
(a) det A =

n
j=1
a
ij
A
ij
, Entwicklung nach der i-ten Zeile von A.
(b) det A =

n
i=1
a
ij
A
ij
, Entwicklung nach der j-ten Spalte von A.
Beweis: Nach Denition 5.3.4 gilt
det A =

S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
. ()
Jedes Monom a
1,(1)
a
2,(2)
. . . a
n,(n)
enthlt genau einen Koefzienten des i-ten
Zeilenvektors z
i
= (a
i1
, a
i2
, . . . , a
in
) von A. Daher lt sich () schreiben als
det A = a
i1
A

i1
+a
i2
A

i2
+ +a
in
A

in
, ()
5.4 Rechenregeln fr Determinanten von Matrizen 115
wobei jedes A

ij
eine Summe von Monomen mit n1 Faktoren ist, von denen keiner
eine Komponente a
ij
des i-ten Zeilenvektors z
i
ist. Daher gengt es zu zeigen, da
A

ij
= A
ij
, ()
wobei A
ij
die Adjunkte von a
ij
ist.
Sei zunchst i = n und j = n. Dann ist die Summe der Terme von det(A) in
(), die den Faktor a
nn
enthalten, gerade der Ausdruck
a
nn
A

n,n
= a
nn
_

(sign )a
1,(1)
a
2,(2)
. . . a
n1,(n1)
_
,
wobei die Summe ber alle Permutationen S
n
mit (n) = n gebildet wird.
Indem man in () und () den Koefzienten von a
nn
betrachtet, erhlt man nun
A

n,n
=

S
n1
(sign )a
1,(1)
a
2,(2)
. . . a
n1,(n1)
.
Daher ist A

n,n
= (1)
n+n
det M
n,n
= A
n,n
.
Man betrachte nun ein beliebiges Paar (i, j). Dann werde die i-te Zeile z
i
mit
der (i +1)-ten Zeile z
i+1
vertauscht. Dieser Proze wird solange fortgesetzt, bis z
i
zur letzten Zeile der Matrix A geworden ist. Ebenso vertauscht man dann die j-te
Spalte s
j
von A solange mit der um 1 hher indizierten Spalte s
j+1
von A, bis s
j
zur letzten Spalte von A geworden ist. Hierbei hat sich der Wert der Determinante
der Matrix M
ij
nach Satz 5.4.1 nicht gendert. Jedoch hat sich das Vorzeichen von
det(A) und von A

ij
um den Faktor (1)
ni+nj
gendert. Also gilt
A

ij
= (1)
ni+nj
det(M
ij
) = (1)
i+j
det(M
i,j
) = A
i,j
.
Wegen () folgt daher
det A =
n

j=1
a
ij
A
ij
.
(b) Wegen Satz 5.4.1(a) folgt (b) sofort durch Transposition aus (a).
In der Regel ist der Entwicklungssatz von Laplace fr die Berechnung einer
greren n n-Matrix A wenig brauchbar. Ist n > 4, so mu man die Laplace-
Entwicklung auch auf alle (n 1) (n 1)-Untermatrizen M
ij
anwenden. Das ist
sehr rechenintensiv. Sind jedoch verhltnismig viele Koefzienten a
ij
der Matrix
Agleich Null, dann kann es vorteilhaft sein, ihre Determinante mittels Satz 5.4.9 zu
berechnen.
116 5 Determinanten
5.4.10 Beispiel. Durch Entwickeln nach der dritten Zeile und dann nach der zweiten
Spalte erhlt man
det
_
_
_
_
5 2 2 1
3 0 1 4
0 0 0 2
1 0 3 4
_
_
_
_
= (1)
3+4
2 det
_
_
5 2 2
3 0 1
1 0 3
_
_
= (2) (2) det
_
3 1
1 3
_
= 4 (9 1) = 32.
5.4.11 Denition. Eine n n-Matrix A = (a
ij
) ist eine obere Blockmatrix, wenn
eine natrliche Zahl p < n existiert mit a
ij
= 0 fr p +1 i n und 1 j p.
Sei
P = (a
ij
) mit 1 i und j p,
Q = (a
ij
) mit p +1 i und j n,
D = (a
ij
) mit 1 i p und p +1 j n.
Dann hat Adie Form
A =
_
P D
0 Q
_
.
Analog deniert man untere Blockmatrizen der Form
A =
_
P 0
D Q
_
.
5.4.12 Satz. Ist A eine obere n n-Blockmatrix von der Form A =
_
P
0
D
Q
_
, dann
ist
det A = (det P) (det Q).
Beweis: Durch elementare Zeilenumformungen, die nur die ersten p Zeilen vern-
dern, lt sich Aumformen zu
A

=
_
P

0 Q
_
derart, da P

obere Dreiecksform hat. Sei s die Zahl der dabei benutzten Zeilen-
vertauschungen. Dann verwendet man elementare Zeilenumformungen, die nur die
letzten n p Zeilen verndern, um A

zu
A

=
_
P

0 Q

_
5.5 Anwendungen 117
umzuformen, und zwar derart, da auch Q

obere Dreiecksform hat. Sei t die Anzahl


der dabei verwendeten Zeilenvertauschungen. Dann hat A

ebenfalls obere Drei-


ecksform, und nach den Stzen 5.4.5 und 5.4.1 gilt:
det A

= (det P

) (det Q

) = (1)
s+t
det A
= [(1)
s
det(P)][(1)
t
det Q] = (1)
s+t
det(P) det(Q),
woraus die Behauptung folgt.
5.5 Anwendungen
Eine Anwendung der Determinantentheorie bezieht sich auf die Auflsung linea-
rer Gleichungssysteme, deren Koefzientenmatrix quadratisch und invertierbar ist.
Ebenso ist es mglich, die Inverse A
1
einer invertierbaren nn-Matrix Aexplizit
mit Hilfe geeigneter Determinanten anzugeben.
5.5.1 Denition. Ist A = (a
ij
) eine n n-Matrix ber dem Krper F und A
ij
jeweils die Adjunkte zu a
ij
, so heit die Matrix
adj A =
_
_
_
A
11
. . . A
n1
.
.
.
.
.
.
A
1n
. . . A
nn
_
_
_
die Adjunkte von A.
Beachte: adj Aist die Transponierte zu (A
ij
).
5.5.2 Satz. Fr jede n n-Matrix Aber dem Krper F gilt:
(a) A (adj A) = (adj A) A = E
n
(det A).
(b) A
1
=
1
det A
(adj A), falls Ainvertierbar ist.
Beweis: (a)
A (adj A) = (a
ij
)(A
kj
)
T
=
_
n

j=1
a
ij
A
kj
_
.
Nach Denition 5.4.8 und Satz 5.4.9 gilt wegen der anschlieenden Bemerkung:
n

j=1
a
ij
A
kj
=
_
det A falls i = k,
0 sonst.
()
Denn fr k = i ist

n
j=1
a
ij
A
kj
= det C
k
, wobei C
k
diejenige n n-Matrix ist, die
aus A entsteht, indem man die k-te Zeile durch die i-te Zeile von A ersetzt. Da C
k
118 5 Determinanten
zwei gleiche Zeilen hat, ist det C
k
= 0 nach Satz 5.4.1. Deshalb ist A (adj A) =
(det A) E
n
nach ().
(b) Falls Ainvertierbar ist, folgt A
1
=
1
det A
(adj A) aus (a).
5.5.3 Satz (Cramersche Regel). Gegeben sei ein lineares Gleichungssystem
a
11
x
1
+ + a
1n
x
n
= d
1
.
.
.
.
.
.
.
.
.
a
n1
x
1
+ + a
nn
x
n
= d
n
mit der n n-Koefzientenmatrix A = (a
ij
). Ist det A = 0, dann hat das Glei-
chungssystem die eindeutig bestimmte Lsung
x
j
=
1
det A

n

i=1
d
i
A
ij
fr j = 1, . . . , n.
Beweis: Wegen det A = 0 hat das Gleichungssystem (G) Ax = d nach Folge-
rung 5.4.3 die eindeutig bestimmte Lsung x = A
1
d. Nach Satz 5.5.2 (b) ist
A
1
=
1
det
(adj A). Wegen Denition 5.5.1 erfllt daher die j-te Komponente des
Spaltenvektors (adj A)d die Gleichung (det A)x
j
=

n
i=1
A
ij
d
i
. Also gilt die Be-
hauptung.
5.5.4 Bemerkung. Da die Berechnung von Determinanten recht mhevoll ist, ist die
Cramersche Regel fr praktische Anwendungen zur Auflsung linearer Gleichungs-
systeme weitgehend unbrauchbar. Fr theoretische Untersuchungen ist sie jedoch
oft wegen ihrer expliziten Beschreibung der Lsung eines Gleichungssystems (G)
Ax = d sehr hilfreich.
5.6 Aufgaben
5.1 (a) Bestimmen Sie die Determinante von
A =
_
_
_
_
_
_
1 2 3 4 5
2 6 9 12 15
3 10 18 24 30
4 14 27 40 50
5 18 36 56 75
_
_
_
_
_
_
.
(b) Berechnen Sie:
det
_
_
_
_
a b c d
b a c d
r s t u
v w x y
_
_
_
_
.
5.6 Aufgaben 119
5.2 (Vandermondesche Determinante) Man beweise
det
_
_
_
_
_
_
_
1 1 . . . 1
c
1
c
2
. . . c
n
c
2
1
c
2
2
. . . c
2
n
.
.
.
.
.
.
.
.
.
c
n1
1
c
n1
2
. . . c
n1
n
_
_
_
_
_
_
_
=

i<j
(c
j
c
i
).
5.3 Man berechne die Determinante der n n-Matrizen A, B als Funktionen von n:
A = (a
ij
), a
ij
=
_
1 i j
n +1 j i > j
fr 1 i, j n,
B = (b
ij
), b
ij
=
_
1 i +j = n +1
0 sonst
fr 1 i, j n.
5.4 Die n n-Matrix
A =
_
P Q
R S
_
sei durch die r r-Matrix P, die (n r) r-Matrix R, die r (n r)-Matrix Q und die
(n r) (n r)-Matrix S in Blcke unterteilt, wobei P auerdem invertierbar sei.
(a) Zeigen Sie, da durch elementare Umformungen die Matrix Ain die Form
_
P 0
R S R P
1
Q
_
gebracht werden kann.
(b) Folgern Sie aus (a), da det(A) = det(P) det(S R P
1
Q).
5.5 Gegeben seien die n n-Matrizen Aund B ber dem Krper F. Die 2n 2n-Matrix
P =
_
E
n
B
A 0
_
ist durch A, B und die n n-Einheitsmatrix E
n
in Blcke zerlegt.
(a) Folgern Sie aus dieser Zerlegung det(P) = det(A) det(B).
(b) Zeigen Sie, da durch elementare Zeilenumformungen die Matrix P in die Form
_
E
n
B
0 AB
_
gebracht werden kann.
(c) Folgern Sie aus (b), da det(P) = det(AB) gilt. Liefern Sie damit einen Beweis des
Produktsatzes det(AB) = det(A) det(B).
120 5 Determinanten
5.6 Bestimmen Sie die Lsungsgesamtheit des folgenden Gleichungssystems mittels der
Cramerschen Regel:
x
1
+3x
2
+4x
3
= 19
2x
1
+5x
2
+7x
3
+x
4
= 32
x
1
+2x
2
3x
3
= 6
x
3
+4x
4
= 1.
5.7 Wie lautet die dem Satz 5.4.12 entsprechende Gleichung fr die Determinante einer
Matrix der Form
A =
_
0 A
1
A
2
B
_
?
5.8 Berechnen Sie die Inverse der Matrix
A =
_
_
1 0 1
3 1 3
1 2 2
_
_
mit Hilfe von Satz 5.5.2.
5.9 Fr die invertierbare n n-Matrix A = (a
i,j
) gelte
n

j=1
a
i,j
a
k,j
=
_
1 fr i = k,
0 fr i = k.
Folgern Sie, da det A = 1 und a
i,k
= (det A)(A
i,k
) gilt, wobei A
i,k
die Adjunkte zu a
i,k
ist.
5.10 Es sei C
i,j
diejenige n-reihige quadratische Matrix ber einem Krper F, die im Kreu-
zungspunkt der i-ten Zeile und der j-ten Spalte eine 1 und sonst lauter Nullen aufweist.
Ferner sei M die Menge aller Matrizen der FormE
n
+aC
i,j
mit i = j und beliebigema F.
Beweisen Sie die folgenden Behauptungen:
(a) Die Matrizen aus M besitzen die Determinante 1.
(b) Jede n-reihige quadratische Matrix ber F, die die Determinante 1 besitzt, kann als
Produkt endlich vieler Matrizen aus M dargestellt werden.
6 Eigenwerte und Eigenvektoren
Zwei n n-Matrizen A und B ber dem Krper F heien nach Denition 3.5.4
hnlich, wenn es eine invertierbare n n-Matrix P gibt derart, da B = P
1
AP
gilt. In diesem Kapitel wird die Frage untersucht, unter welchen Bedingungen eine
Matrix Azu einer Diagonalmatrix D = (d
ij
), d
ij
= 0 fr i = j, hnlich ist. Hierzu
werden die Begriffe

Eigenvektor,

Eigenwert und

charakteristisches Polynom
eingefhrt. Im allgemeinen ist eine Matrix A nicht diagonalisierbar. Liegen jedoch
alle Eigenwerte von A im Krper F, so ist A hnlich zu einer sehr speziellen,
eindeutig bestimmten Dreiecksmatrix J; sie heit Jordansche Normalform von A.
Diese Ergebnisse und ein Berechnungsverfahren fr die Jordansche Normalform
werden im dritten Abschnitt dieses Kapitels dargestellt. Im vierten Abschnitt wird
eine Anwendung auf die Lsung linearer homogener Differentialgleichungssysteme
vorgestellt.
6.1 Charakteristisches Polynom und Eigenwerte
Es seien V ein beliebiger F-Vektorraum und : V V ein Endomorphismus.
Offenbar ist die Wirkung von auf diejenigenVektoren besonders einfach, die durch
nur auf Vielfache von sich selbst abgebildet werden. Derartige Vektoren spielen
bei der Beschreibung von Normalformen von Endomorphismen und Matrizen eine
entscheidende Rolle.
6.1.1 Denition. Ein Skalar f F heit Eigenwert des Endomorphismus
End
F
(V), wenn es einen Vektor v = 0 in V gibt derart, da (v) = vf ist.
Jeder vom Nullvektor verschiedene Vektor v V mit (v) = vf heit Eigen-
vektor von mit Eigenwert f .
Im Fall dimV = n < sei B eine Basis von V, und A = A

(B, B) sei
die zugeordnete Matrix. Dann knnen die Begriffe Eigenvektor und Eigenwert
unmittelbar auf die Matrix Aund auf Spaltenvektoren von F
n
bertragen werden.
6.1.2 Denition. Sei Aeine nn-Matrix mit Koefzienten aus dem Krper F. Ein
Skalar f F heit Eigenwert von A, wenn es einen vom Nullvektor verschiedenen
Spaltenvektor s F
n
gibt derart, da As = sf ist.
122 6 Eigenwerte und Eigenvektoren
Jeder Spaltenvektor 0 = s F
n
mit As = sf heit Eigenvektor der Matrix A
mit Eigenwert f .
6.1.3 Bemerkung. Ist A = A

(B, B) die dem Endomorphismus hinsichtlich


einer Basis B zugeordnete Matrix und entspricht dem Vektor v V bezglich B
die Koordinatenspalte s F
n
, so ist die Gleichung (v) = vf gleichwertig mit
As = sf , d. h. v ist genau dann Eigenvektor von , wenn s Eigenvektor der Matrix
Aist. Der Koordinatenvektor s hngt dabei aber, ebenso wie die Matrix A, noch von
der Wahl der Basis B ab und ndert sich im allgemeinen bei einem Basiswechsel.
Der Eigenwert f hingegen ist in allen Fllen derselbe. Er hngt nur von , nicht aber
von der Wahl der Basis und der dadurch bestimmten Matrix Aab.
6.1.4 Satz. hnliche Matrizen besitzen dieselben Eigenwerte.
Beweis: Zwei nn-Matrizen A, B sind nach Bemerkung 3.5.5(a) genau dann hn-
lich, wenn sie hinsichtlich geeigneter Basen denselben Endomorphismus beschrei-
ben. Da nach Bemerkung 6.1.3 die Eigenwerte von A und B mit den Eigenwerten
von bereinstimmen, folgt die Behauptung.
Die Denitionsgleichung (v) = vf fr Eigenvektoren und Eigenwerte ist
gleichwertig mit
o = vf (v) = (id f )v, ()
wobei dann id f wieder ein Endomorphismus von V ist.
6.1.5 Satz. Genau dann ist f Eigenwert von bzw. der n n-Matrix A, wenn
Ker(id f ) = {o} bzw. Ker(E
n
f A) = {o} gilt. Ist f ein Eigenwert, so sind
die zu f gehrenden Eigenvektoren genau die von o verschiedenen Vektoren
v Ker(id f ) bzw. s Ker(E
n
f A).
Beweis: Genau dann ist f Eigenwert von , wenn () einen Lsungsvektor v = o
besitzt. Dies ist gleichwertig mit Ker(id f ) = {o}. Die zugehrigen Eigen-
vektoren sind genau die Lsungsvektoren v = o von (), also die Vektoren v = o
aus Ker(id f ). Im endlich-dimensionalen Fall ergibt sich die entsprechende
Behauptung fr Matrizen aus Satz 3.2.8(b) und Denition 6.1.2.
6.1.6 Denition. Ist f ein Eigenwert des Endomorphismus bzw. der nn-Matrix
A, so heit der von {o} verschiedene Unterraum
Ker(id f ) bzw. Ker(E
n
f A)
der zu f gehrende Eigenraum.
6.1 Charakteristisches Polynom und Eigenwerte 123
Sei B = {v
1
, v
2
, . . . , v
n
} eine Basis des endlich-dimensionalen Vektorraums V.
Sei A = A

(B, B) = (a
ij
) die dem Endomorphismus : V V hinsichtlich
B zugeordnete n n-Matrix. Die Eigenwertbedingung Ker(id f ) = {o} aus
Satz 6.1.5 ist dann nach Satz 3.2.13 und Folgerung 3.4.8 gleichwertig mit rg(id f
) < n bzw. rg(E
n
f A) < n und wegen Folgerung 5.4.3 auch gleichwertig
mit det(id f ) = 0 bzw. det(E
n
f A) = 0. Diese Determinantenbedingung
kann man nun aber als Bestimmungsgleichung fr die zunchst noch unbekannten
Eigenwerte f auffassen, indem man in ihr f durch eine Unbestimmte X ersetzt.
Dazu bedarf es allerdings zunchst einer Vorbemerkung.
6.1.7 Bemerkung. Die entstehende Bestimmungsgleichung
det(id X ) = det(E
n
X A) =

X a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
X a
nn

= 0
erfordert die Berechnung der Determinante einer Matrix, deren Koefzienten nicht
alle aus dem Krper F stammen. Denn aus der letzten Determinante erkennt man,
da jedenfalls die Hauptdiagonalelemente Xa
ii
Polynome aus dem Polynomring
F[X] sind. In Kapitel 10 wird gezeigt, da Determinanten aber auch von Matrizen
gebildet werden knnen, deren Koefzienten nur in einem Ring liegen. In der dort
entwickelten allgemeineren Determinantentheorie ber kommutativen Ringen gelten
dann auch die Rechenregeln des Kapitels 5, sofern sie sich nicht auf die Bildung von
Inversen von Ringelementen bzw. Matrizen beziehen.
6.1.8 Denition. Sei X eine Unbestimmte ber dem Krper F. Das Polynom
char Pol
A
(X) = det(E X A) bzw. char Pol

(X) = det(id X )
heit charakteristisches Polynom der n n-Matrix Abzw. des Endomorphismus
des F-Vektorraums V.
6.1.9 Satz. (a) Sei A = A

(B, B) die n n-Matrix des Endomorphismus be-


zglich der Basis B des Vektorraums V. Dann gilt char Pol

(X) = char Pol


A
(X).
(b) hnliche Matrizen besitzen dasselbe charakteristische Polynom.
Beweis: (a) Fr jeden Skalar f F ist E
n
f Anach Denition 3.3.1 die Matrix
des Endomorphismus id f von V. Ersetzt man nun f durch die Unbestimmte
X, so folgt wegen Bemerkung 6.1.7 und Denition 5.3.4, da
det(id X ) = det(E
n
X A).
Also gilt (a).
(b) Nach Bemerkung 3.5.5 (a) beschreiben hnliche Matrizen denselben Endo-
morphismus von V. Deshalb ist (b) eine Folge von (a).
124 6 Eigenwerte und Eigenvektoren
Wegen Satz 6.1.9 gengt es, imfolgenden Stze ber charakteristische Polynome
von Endomorphismen bzw. Matrizen nur fr einen dieser Flle zu formulieren. Falls
Fragen der Berechenbarkeit imVordergrund stehen, werden diese Stze fr Matrizen
formuliert.
6.1.10 Satz. Das charakteristische Polynom einer n n-Matrix A = (a
ij
) mit
Koefzienten a
ij
F hat die Form
char Pol
A
(X) = X
n
+q
n1
X
n1
+ +q
1
X +q
0
,
mit geeigneten Koefzienten q
0
, q
1
, . . . , q
n1
F, wobei q
0
= (1)
n
det A und
q
n1
= tr Agilt.
Beweis: Sei (E
n
X A) = (b
ij
) mit 1 i, j n. Nach Denition 5.3.4 ist
det(E
n
X A) =

S
n
(sign ) b
1,(1)
b
2,(2)
. . . b
n,(n)
.
Fr = id S
n
ist b
1,(1)
b
2,(2)
. . . b
n,(n)
=

n
i=1
(Xa
ii
) ein normiertes Poly-
nomvomGrade n. Alle anderen Summanden gehren zu Permutationen = id. Bei
denen gilt (i) = i fr mindestens zwei Indizes i. Daher ist der entsprechende Sum-
mand (sign )b
1,(1)
b
2,(2)
. . . b
n,(2)
ein Polynom hchstens (n2)-ten Grades in
X, d. h.
r(X) =

id=S
n
(sign ) b
1,(1)
b
2,(2)
. . . b
n,(n)
F[X]
ist ein Polynom mit Grad r(X) n 2. Hieraus folgt
char Pol
A
(X) = det(E
n
X A) =
n

i=1
(X a
ii
) +r(X)
und Grad
_
n
i=1
(X a
ii
)
_
= n Grad r(X) +2. Da
n

i=1
(X a
ii
) = X
n
(a
11
+a
22
+ +a
nn
)X
n1
+ +(1)
n
n

i=1
a
ii
,
und tr(A) =

n
i=1
a
ii
ist, folgt
char Pol
A
(X) = X
n
tr(A)X
n1
+q
n2
X
n2
+ +q
1
X +q
0
fr geeignete q
i
F. Setzt man X = 0, so folgt q
0
= char Pol
A
(0) = det(A) =
(1)
n
det Anach Satz 5.4.1.
6.1 Charakteristisches Polynom und Eigenwerte 125
6.1.11 Bemerkung. Theoretischlassensichdie Koefzientendes charakteristischen
Polynoms
char Pol
A
(X) = X
n
+q
n1
X
n1
+ +q
1
X +q
0
einer (nn)-Matrix Amit demEntwicklungssatz 5.4.9 von Laplace berechnen. Hat
man einen Computer zur Hand, so ist folgendes Verfahren erheblich praktischer.
Man whlt n verschiedene Zahlen z
i
im Krper F, i = 1, 2, . . . , n. Dann be-
rechnet man mit dem Verfahren 5.4.6 die n Determinanten
det(z
i
E A) = d
i
F.
Nach Satz 6.1.10 ergibt sich hieraus das inhomogene Ungleichungssystem mit den
n Gleichungen
q
n1
z
n1
i
+q
nz
z
n2
i
+ +q
1
z
i
+q
0
= d
i
z
n
i
, 1 i n, ()
in den n Unbestimmten q
0
, q
1
, . . . , q
n1
. Mittels des Lsungsverfahrens 4.2.7 be-
stimmt man die Lsung von ().
Es sei jetzt f (X) F[X] ein Polynom. Dann nennt man bekanntlich ein Element
a F eine Nullstelle von f (X), falls f (a) = 0 gilt.
6.1.12 Satz. Genau dann ist f F ein Eigenwert der nn-Matrix A, wenn f eine
Nullstelle des charakteristischen Polynoms char Pol
A
(X) von Aist.
Beweis: f F ist Nullstelle des charakteristischen Polynoms von A genau dann,
wenn 0 = char Pol
A
(f ) = det(E f A). Dies ist nach Folgerung 5.4.3 genau
dann der Fall, wenn rg(E f A) < n ist. Nach Satz 3.2.13 ist diese Ungleichung
quivalent zu dimKer(E f A) = n rg(E f A) > 0. Also ist f F
genau dann eine Nullstelle von char Pol
A
(X), wenn A einen Eigenvektor v = 0
zum Eigenwert f hat.
6.1.13 Beispiel. Mittels Satz 6.1.12 sollen nun die Eigenwerte und Eigenvektoren
der folgenden Matrix bestimmt werden.
A =
_
_
3 1 1
2 4 2
1 1 3
_
_
.
Mit Hilfe der Regel 5.4.4 von Sarrus folgt
char Pol
A
(X) = det
_
_
X 3 1 1
2 X 4 2
1 1 X 3
_
_
= (X 3)
2
(X 4) 2 2 (X 4) 2(X 3) 2(X 3)
= X
3
10X
2
+28X 24.
126 6 Eigenwerte und Eigenvektoren
Dieses Polynom hat f
1
= 2 als eine Nullstelle, wie man durch Einsetzen sieht. Um
die brigen Nullstellen zu nden, teilt man das charakteristische Polynom durch
(X 2) und erhlt:
(X
3
10X
2
+28X 24) : (X 2) = X
2
8X +12.
X
3
2X
2
8X
2
+28X
8X
2
+16X
12X 24
12X 24
X
2
8X + 12 hat die Nullstellen f
2,3
= 4

16 12. Also ist f


2
= 6, f
3
= 2.
Nach Satz 6.1.12 hat Adie Eigenwerte f
1
= f
3
= 2 und f
2
= 6.
Der Eigenraum Ker(E
3
f
1
A) zum Eigenwert f
1
ist die Lsungsgesamtheit
des homogenen Gleichungssystems mit der Koefzientenmatrix
E
3
2 A =
_
_
1 1 1
2 2 2
1 1 1
_
_
.
Da rg(E
3
2 A) = 1 ist, gilt dimKer(E
3
2 A) = 2 nach Satz 3.2.13. Deshalb
bilden v
1
= (1, 1, 0) und v
2
= (1, 0, 1) eine Basis von Ker(E
3
f
1
A).
Ebenso sieht man, da dimKer(E
3
f
2
A) = 1 und v
3
= (1, 2, 1) ein Eigen-
vektor zum Eigenwert f
2
= 6 ist, weil
(E
3
6 A) =
_
_
3 1 1
2 2 2
1 1 3
_
_
den Rang 2 hat. Diese drei Eigenvektoren sind sogar linear unabhngig. Also ist
{v
1
, v
2
, v
3
} eine Basis von V = F
3
.
6.1.14 Bemerkungen.
(a) Whrend die Berechnung von Eigenvektoren zu gegebenem Eigenwert un-
problematisch ist, da nach Satz 6.1.5 nur lineare Gleichungssysteme gelst
werden mssen, stellt die Berechnung der Eigenwerte, also der Nullstellen
des charakteristischen Polynoms char Pol
A
(X), oft eine groe Schwierigkeit
dar. Selbst im Falle der Krper R oder C gibt es fr Polynome eines Grades
grer gleich 5 keine allgemeinenVerfahren zur Berechnung ihrer Nullstellen.
Hierzu ist man auf numerische Nhrungsverfahren angewiesen.
(b) Es kann passieren, da das charakteristische Polynomeiner Matrix Agar keine
Nullstellen in F hat. Dann hat A nach Satz 6.1.12 auch keine Eigenvektoren
6.1 Charakteristisches Polynom und Eigenwerte 127
in F
n
. Hierfr ist A =
_
0 1
1 0
_
im Fall des Krpers F = R der reellen Zahlen
ein Beispiel; denn char Pol
A
(X) = X
2
+1 hat in R keine Nullstellen.
(c) Besitzt das Polynom g(X) F[X] in F genau die nicht notwendig verschie-
denen Nullstellen f
1
, f
2
, . . . , f
t
, so kann es in der Form g(X) = (X f
1
)
(Xf
2
) . . . (Xf
t
) h(X) dargestellt werden, wobei dann h(X) F[X] in
F keine Nullstellen besitzt.
(d) Jeder Krper kann zu einem (kleinsten) algebraisch abgeschlossenen Krper
erweitert werden. Im Falle des Krpers Rist Cdieser algebraisch abgeschlos-
sene Erweiterungskrper (Hauptsatz 1.4.4 der Algebra). Um fehlende Eigen-
werte zu vermeiden, ist es hug zweckmig, den Skalarenkrper zu einem
algebraisch abgeschlossenen Krper zu erweitern, also z. B. einen reellenVek-
torraum in seine komplexe Erweiterung einzubetten. Dies wird in Kapitel 7
nher beschrieben.
In Beispiel 6.1.13 hatte der Eigenwert 2 die Vielfachheit 2, und dem entsprach,
da es zu diesem Eigenwert auch zwei linear unabhngige Eigenvektoren gab. Diese
Situation mu aber keineswegs immer eintreten. So besitzt die Matrix A =
_
1 1
0 1
_
den
doppelten Eigenwert 1, es gilt aber dimKer(E
2
1A) = 1. Umgekehrt zeigt aber der
nchste Satz, da die Dimension des Eigenraums die Vielfachheit des Eigenwertes
nicht bersteigen kann.
6.1.15 Denition. Sind alle Eigenwerte f
r
, 1 r k, der n n-Matrix A = (a
ij
)
mit Koefzienten a
ij
aus dem Krper F in F enthalten, dann ist char Pol
A
(X) =

k
r=1
(X f
r
)
c
r
nach Satz 6.1.12. Die natrliche Zahl c
r
heit die Vielfachheit des
Eigenwerts f
r
von A.
Analog erklrt man die Vielfachheit des Eigenwertes f eines Endomorphismus
End
F
(V).
6.1.16 Satz. Sei f ein Eigenwert von End
F
(V) der Vielfachheit c. Dann gilt
fr die Dimension des Eigenraumes dimKer(id f ) c.
Beweis: Es sei {v
1
, . . . , v
r
} eine Basis des Eigenraumes zum Eigenwert f , die zu
einer Basis B = {v
1
, . . . , v
r
, . . . , v
n
} des Vektorraums V ergnzt wird. Wegen
(v
i
) = v
i
f fr i = 1, . . . , r hat bezglich der Basis B die Matrix
A

(B, B) =
_
_
_
_
_
_
_
_
_
_
f 0
.
.
.
.
.
.
.
.
.
0 f
C
0 0
.
.
.
.
.
.
0 0
D
_
_
_
_
_
_
_
_
_
_
,
128 6 Eigenwerte und Eigenvektoren
die eine obere Blockmatrix ist, deren oberstes linkes Kstchen eine Diagonalmatrix
mit dem einzigen Eigenwert f ist. Nach Satz 5.4.12 und Satz 6.1.12 folgt, da f
ein mindestens r-facher Eigenwert von ist.
6.2 Diagonalisierbarkeit von Matrizen
In diesem Abschnitt bezeichnet V stets einen endlich-dimensionalen Vektorraum
ber dem Krper F. Es werden diejenigen Endomorphismen End
F
(V) charak-
terisiert, fr die V eine Basis B besitzt, die aus Eigenvektoren von besteht.
6.2.1 Satz. Eigenvektoren zu verschiedenen Eigenwerten eines Endomorphismus
von V sind linear unabhngig.
Beweis: Es seien f
1
, f
2
, . . . , f
k
paarweise verschiedene Eigenwerte von , wobei
k n = dim
F
V. Fr i = 1, 2, . . . , k sei v
i
ein zu f
i
gehrender Eigenvektor von
. Dann gilt:
(id f
i
)v
j
= v
j
f
i
(v
j
) = v
j
f
i
v
j
f
j
=
_
o fr i = j,
v
j
(f
i
f
j
) sonst.
Wre {v
1
, v
2
, . . . , v
k
} linear abhngig, dann existierten c
i
F, die nicht alle gleich
0 wren, derart, da
k

i=1
v
i
c
i
= o. ()
Sei c
1
= 0. Wendet man den Endomorphismus

k
i=2
(id f
i
) auf () an, dann
folgt der Widerspruch
o =
_
k

i=2
(id f
i
)
__
k

i=1
v
i
c
i
_
= v
1
c
1
(f
2
f
1
) . . . (f
k
f
1
) = o.

Entsprechend gilt Satz 6.2.1 auch fr n n-Matrizen A mit Koefzienten aus


dem Krper F.
6.2.2 Folgerung. Wenn das charakteristische Polynom des Endomorphismus von
V genau n = dimV verschiedene Nullstellen hat, dann besitzt V eine Basis aus
Eigenvektoren von .
Beweis: Wenn b
1
, . . . , b
n
Eigenvektoren zu den verschiedenen Eigenwerten
f
1
, . . . , f
n
sind, so sind sie linear unabhngig nach Satz 6.2.1. Nach Folge-
rung 2.2.14 bilden sie eine Basis von V.
6.2 Diagonalisierbarkeit von Matrizen 129
6.2.3 Denition. Eine quadratische Matrix D = (d
ij
) heit Diagonalmatrix, falls
d
ij
= 0 fr alle i = j gilt. Setzt man d
ii
= d
i
fr i = 1, 2, . . . , n, dann wird die
Diagonalmatrix D mit diag(d
1
, d
2
, . . . , d
n
) bezeichnet.
6.2.4 Denitionen.
(a) Eine quadratische n n-Matrix A heit diagonalisierbar, wenn sie zu einer
n n-Diagonalmatrix D hnlich ist.
(b) Ein Endomorphismus von V heit diagonalisierbar, wenn V eine Basis B
besitzt, die aus Eigenvektoren von besteht.
6.2.5 Bemerkung. Wenn D = diag(f
1
, . . . , f
n
) eine Diagonalmatrix ist, dann gilt
char Pol
D
(X) = (X f
1
) . . . (X f
n
), d. h. die Diagonalelemente f
i
sind genau
die Eigenwerte von D.
6.2.6 Satz. Sei Aeine nn-Matrix, und seien f
1
, . . . , f
s
die verschiedenen Eigen-
werte von A. Weiter sei d
i
= dimKer(E f
i
A) die Dimension des Eigenraums
zu f
i
. Dann sind die folgenden Aussagen quivalent:
(a) Es gibt eine Basis von F
n
, welche aus Eigenvektoren von Abesteht.
(b) Aist diagonalisierbar.
(c)

s
i=1
d
i
= n.
Beweis: (a) (b): Sei B = {b
1
, . . . , b
n
} eine Basis, die aus Eigenvektoren zu
den Eigenwerten f
i
besteht. Dann ist A b
i
= b
i
f
i
. Die Matrix A

(B, B) der
linearen Abbildung : v A v von F
n
nach F
n
bezglich dieser Basis ist die
Diagonalmatrix D = diag(f
1
, . . . , f
n
).
Wenn P die Matrix des Basiswechsels von {e
1
, . . . , e
n
} nach {b
1
, . . . , b
n
} ist,
dann gilt D = P
1
A P nach Satz 3.3.9. Also ist Adiagonalisierbar.
(b) (c): Da A diagonalisierbar ist, existiert eine invertierbare Matrix P so,
da P
1
AP = D = diag(f
1
, . . . , f
n
) eine Diagonalmatrix ist. Ihre Koefzienten
f
r
sind nach Bemerkung 6.2.5 und Satz 6.1.12 gerade die Eigenwerte von A. Sei c
r
die Vielfachheit des Eigenwerts f
r
. Dann ist n =

s
r=1
c
r
, wobei s die Anzahl der
verschiedenen Eigenwerte von A ist. Fr jeden Eigenvektor v V zum Eigenwert
f von Agilt Av = vf , woraus
D(P
1
v) = (P
1
AP)(P
1
v) = (P
1
v)f
folgt. Also haben A und D isomorphe Eigenrume, d. h. dimKer(Ef
r
A) =
dimKer(Ef
r
D). Daher gengt es, (c) fr die Diagonalmatrix D zu beweisen.
Die Diagonalmatrix E f
r
D hat genau c
r
Nullen auf der Diagonalen. Daher
ist
n c
r
= rg(E f
r
D) = n dimKer(Ef
r
D) = n d
r
.
130 6 Eigenwerte und Eigenvektoren
nach Satz 3.2.13. Also ist d
r
= c
r
und

s
r=1
d
r
=

s
r=1
c
r
= n.
(c) (a): Sei U
i
der Eigenraum von Azum Eigenwert f
i
. Nach Satz 6.2.1 und
Satz 2.3.6 ist die Summe

s
i=1
U
i
dieser Unterrume U
i
von V = F
n
direkt. Nach
Voraussetzung gilt daher
n =
s

i=1
d
i
=
s

i=1
dimU
i
= dim
_
s

i=1
U
i
_
.
Also ist V =

s
i=1
U
i
nach Folgerung 2.2.14.
Wegen Satz 2.2.11 hat jeder Unterraum U
i
eine Basis B
i
mit d
i
Elementen b
ij
,
j = 1, 2, . . . , d
i
. Wegen U
i
= Ker(Ef
i
A) ist jeder Vektor b
ij
ein Eigenvektor
von Azum Eigenwert f
i
. Da V die direkte Summe der Eigenrume U
i
ist, ist
B = B
1
B
2
B
s
= {b
ij
| i = 1, 2, . . . , s, 1 j
i
d
i
}
eine Basis von V, die aus Eigenvektoren von Abesteht.
6.2.7 Beispiele.
(a) Sei A =
_
1
0
1
1
_
. Dann ist char Pol
A
(X) = (X 1)
2
, also ist 1 der einzige
Eigenwert von A. Weil rg(E A) = rg
_
0
0
1
0
_
= 1 ist, folgt d
1
= 2 1 =
1 < 2 = n. Also ist Anicht diagonalisierbar.
(b) Die Matrix
A =
_
_
3 1 1
2 4 2
1 1 3
_
_
ist dagegen diagonalisierbar, weil sie nach Beispiel 6.1.13 zwei Eigenwerte
f
1
= 2 und f
2
= 6 hat, fr die d
1
= 2 und d
2
= 1 gilt. Daher ist d
1
+ d
2
=
n = 3.
6.2.8 Berechnungsverfahren fr die Transformationsmatrix P einer diagona-
lisierbaren n n-Matrix. Nach Satz 6.2.6 ist die Matrix A = (a
ij
) genau dann
diagonalisierbar, wenn der Vektorraum V = F
n
eine Basis {v
1
, v
2
, . . . , v
n
} besitzt,
die aus Eigenvektoren von A besteht. Daher liegen nach Voraussetzung alle Eigen-
werte f
i
von Aim Krper F, und man kann folgende Schritte durchfhren:
(a) Man berechne die Koefzienten des charakteristischen Polynoms
char Pol
A
(X) von A.
(b) Man bestimme die Nullstellen f
j
von char Pol
A
(X) =

k
j=1
(Xf
j
)
d
j
. Dabei
sind alle f
j
F, j = 1, 2, . . . , k, verschieden, und es gilt n =

k
j=1
d
j
.
6.2 Diagonalisierbarkeit von Matrizen 131
(c) Zu jedem Eigenwert f
j
von A berechne man eine Basis B
j
=
{s
t +1
, s
t +2
, . . . , s
t +d
j
}, des Eigenraums W
j
= Ker(Ef
j
A), wobei
t =

j1
i=1
d
i
ist.
(d) Dann ist B = B
1
B
2
B
k
eine Basis von V. Sei P die n n-Matrix,
deren Spaltenvektoren dieVektoren s
r
von B sind, und zwar in der Reihenfolge
von (c). Dann ist D = P
1
AP eine Diagonalmatrix.
Beweis: Es bleibt nur zu zeigen, da Deine Diagonalmatrix ist. Wegen dimW
j
= d
j
und n =

k
j=1
d
j
besteht die Basis B von V nach Satz 6.2.6 aus Eigenvektoren s
r
von V. Nach Konstruktion der Matrix P sind diese Eigenvektoren s
r
gerade die
Spaltenvektoren von P. Deshalb ist D = P
1
AP nach Satz 3.3.9 eine Diagonal-
matrix.
6.2.9 Beispiel. Das charakteristische Polynom der reellen Matrix
A =
_
_
_
_
2 0 0 0
0 2 0 0
1 2 0 1
2 4 1 0
_
_
_
_
ist nach Satz 5.4.12
char Pol
A
(X) = det
_
_
_
_
X 2 0 0 0
0 X 2 0 0
1 2 X 1
2 4 1 X
_
_
_
_
= (X 2)
2
(X
2
+1).
Ist nun F = C der Krper der komplexen Zahlen, so sind 2, i und i die verschie-
denen Eigenwerte von Anach Satz 6.1.12. Der Eigenraum zum Eigenwert 2 hat die
Dimension
n rg(E 2 A) = 4 rg
_
_
_
_
0 0 0 0
0 0 0 0
1 2 2 1
2 4 1 2
_
_
_
_
= 2.
Alsoist {v
1
= (2, 1, 0, 0), v
2
= (1, 0, 0, 1)} eine Basis des Eigenraums Ker(E2A)
zum Eigenwert 2. Zum Eigenwert i gehrt das homogene Gleichungssystem
_
_
_
_
i 2 0 0 0
0 i 2 0 0
1 2 i 1
2 4 1 i
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
0
0
0
0
_
_
_
_
.
132 6 Eigenwerte und Eigenvektoren
Hieraus folgt x
1
= x
2
= 0 und
ix
3
+x
4
= 0
x
3
+ix
4
= 0.
Da die beiden letzten Gleichungen sich nur umden Faktor i Cunterscheiden,
gilt dimKer(Ei A) = 1, und v
3
= (0, 0, i, 1) ist eine Basis dieses Eigenraums.
Analog ist v
4
= (0, 0, i, 1) eine Basis von Ker(E(i) A).
Die Transformationsmatrix P des Basiswechsels ist nach dem Verfahren 6.2.8
P =
_
_
_
_
2 1 0 0
1 0 0 0
0 0 i i
0 1 1 1
_
_
_
_
mit P
1
=
_
_
_
_
0 1 0 0
1 2 0 0

1
2
1
i
2
1
2
1
2
1
i
2

1
2
_
_
_
_
.
P
1
AP =
_
_
_
_
2 0 0 0
0 2 0 0
0 0 i 0
0 0 0 i
_
_
_
_
ist eine zu Ahnliche Diagonalmatrix ber dem Krper C der komplexen Zahlen.
6.3 Jordansche Normalform
Sei V ein n-dimensionaler Vektorraum ber dem Krper F. Von allen in diesem
Abschnitt betrachteten Endomorphismen End
F
(V) von V wird vorausge-
setzt, da ihr charakteristisches Polynom in Linearfaktoren ber F zerfllt. Sind
f
1
, f
2
, . . . , f
m
F die verschiedenen Eigenwerte von mit den algebraischen
Vielfachheiten c
1
, c
2
, . . . , c
m
, dann gilt also
char Pol

(X) = (X f
1
)
c
1
(X f
1
)
c
2
. . . (X f
m
)
c
m
,
wobei c
1
+c
2
+ +c
m
= n.
6.3.1 Denition. Sei End
F
(V) ein Endomorphismus des F-Vektorraumes V.
Der Krper F heit ein Zerfllungskrper fr , wenn sein charakteristisches Poly-
nom char Pol

(X) ber F in Linearfaktoren zerfllt.


6.3.2 Beispiele.
(a) C ist ein Zerfllungskrper fr jedes End(V); denn nach dem Hauptsatz
der Algebra 1.4.4 zerfllt jedes Polynom f (X) C[X] in Linearfaktoren.
6.3 Jordansche Normalform 133
(b) R ist kein Zerfllungskrper fr die Matrix A =
_
0
1
1
0
_
; denn ihr charakteri-
stisches Polynom ist char Pol

(X) = X
2
+1.
In diesemAbschnitt wird gezeigt, da zu jedem Endomorphismus End
F
(V)
ber einem Zerfllungskrper F eine Basis B von V existiert derart, da die Matrix
A

(B, B) von eine spezielle Dreiecksmatrix ist. Sie heit Jordansche Normalform
von . Ist diagonalisierbar, so ist A

(B, B) eine Diagonalmatrix.


6.3.3 Satz (Fitting). Sei V ein n-dimensionaler Vektorraumber demKrper F und
End
F
(V). Dann existiert eine natrliche Zahl 0 < k n derart, da
k+1
V =

k
V und Ker(
k+1
) = Ker(
k
),
V =
k
V Ker(
k
).
Insbesondere sind die direkten Summanden
k
V und Ker(
k
) von V -invariante
Unterrume.
Beweis: Wegen dim
F
Ker(
i
) n fr i = 1, 2, . . . tritt in der aufsteigenden Kette
Ker() Ker(
2
) Ker(
i
) Ker(
i+1
)
das Gleichheitszeichen auf. Sei
k = min{i | Ker(
i
) = Ker(
i+1
)}.
Nach Satz 3.2.13 ist daher
dim
F
(
k+1
V) = n dim
F
[Ker(
k+1
)]
= n dim
F
[Ker(
k
)] = dim
F
(
k
V).
Deshalb ist
k+1
V =
k
V nach Folgerung 2.2.14, weil stets
k+1
V
k
V gilt.
Aus
k+1
V =
k
V folgt
k+r
V =
k
V fr alle r = 1, 2, . . . . Wegen Ker(
k
)
Ker(
k+r
) und Satz 3.2.13 gilt daher Ker(
k+r
) = Ker(
k
) fr alle r = 1, 2, . . . .
Sei v
k
V Ker(
k
). Dann ist v =
k
u fr ein u V und o =
k
v =

2k
u. Also ist u Ker(
2k
) = Ker(
k
), woraus v =
k
u = o folgt. Deshalb ist
Ker(
k
)
k
V = o und V =
k
V +Ker(
k
), weil
n = dim
F
V = dim
F
(
k
V) +dim
F
(Ker
k
).
Wegen
k+1
V =
k
V und Ker(
k
) = Ker(
k+1
) sind diese Unterrume von V
beide -invariant.
134 6 Eigenwerte und Eigenvektoren
6.3.4 Denition. Sei End
F
(V) und f F ein Eigenwert von . Sei =
f id
V
End
F
(V). Die nach demSatz von Fitting existierende kleinste natrliche
Zahl 0 < k n = dim
F
V mit
k+1
V =
k
V, Ker(
k+1
) = Ker(
k
) und
V =
k
V Ker(
k
) heit der Exponent des Eigenwerts f von . Er wird mit
e = e

(f ) = k bezeichnet.
Der hierzu gehrige Unterraum Ker(
e
) = Ker(
k
) heit der verallgemeinerte
Eigenraum von zum Eigenwert f .
6.3.5 Hilfssatz. Sei f F ein Eigenwert von End
F
(V) mit Exponent e

(f ) =
e. Sei = f id
V
End
F
(V) und
char Pol

(X) = (X f )
c
(X f
2
)
c
2
. . . (X f
m
)
c
m
,
das charakteristische Polynom von mit paarweise verschiedenen Eigenwerten
f, f
2
, . . . , f
m
. Dann gelten:
(a) V =
e
(V) Ker(
e
).
(b) Beide Unterrume
e
(V) und Ker(
e
) von V sind sowohl - als auch -
invariant.
(c) Die Einschrnkung

von auf
e
(V) ist injektiv.
(d) f ist kein Eigenwert der Einschrnkung

von auf
e
(V).
(e) (X f )
c
ist das charakteristische Polynom der Einschrnkung

von auf
Ker(
e
).
(f) char Pol

(X) = (Xf
2
)
c
2
(Xf
3
)
c
3
. . . (Xf
m
)
c
m
ist das charakteristische
Polynom der Einschrnkung

von auf
e
(V).
Beweis: (a) gilt nach Satz 6.3.3 und Denition 6.3.4.
(b) Wegen = f id
V
End
F
(V) ist = , und so
e
=
e
.
Daher gilt [
e
(V)] =
e
(V)
e
(V). Ist v Ker(
e
), so ist
e
v = 0 und

e
v =
e
(v) = 0. Also ist auch Ker(
e
) -invariant. Nach Satz 6.3.3 sind beide
Unterrume -invariant.
(c) Nach Denition 6.3.4 und Satz 6.3.3 gilt
e+1
(V) =
e
V. Also ist die
Einschrnkung

von auf
e
(V) surjektiv. Aus dem Dimensionssatz 3.2.13 folgt
daher Ker(

) = 0.
(d) Nach (c) gilt Ker(

) = Ker(

f id

V
) = 0, wobei

die Einschrnkung
von auf
e
(V) ist. Also ist f kein Eigenwert von

.
(e) Sei

die Einschrnkung von auf Ker(


k
). Aus (a) und Satz 3.7.3 folgt
char Pol

(X) = [char Pol

(X)] [char Pol

(X)]. ()
6.3 Jordansche Normalform 135
Nach (d) ist (X f )
c
kein Teiler von char Pol

(X). Wegen der eindeutigen


Faktorisierung von char Pol

(X) in Linearfaktoren folgt, da (X f )


c
ein Teiler
von char Pol

(X) ist.
Wre f
i
fr ein i {2, 3, . . . , m} ein Eigenwert von

, dann wre v = vf
i
fr ein 0 = v Ker(
e
). Also existiert eine kleinste natrliche Zahl s < e mit
v Ker(
s
), aber v Ker(
s1
). Sicherlich ist
v = vf
i
= v(f
i
f ) +vf,
und so
v(f
i
f ) = v vf = v mit f
i
f = 0.
Hieraus folgt

s1
v(f
i
f ) =
s
v = 0.
Also ist
s1
v = 0 im Widerspruch zu v Ker(
s1
). Daher ist char Pol

(X) =
(X f )
c
.
(f) ist eine unmittelbare Folge von () und (e).
6.3.6 Satz. Sei ein Endomorphismus des n-dimensionalen Vektorraums V ber
dem Krper F, dessen Eigenwerte f
1
, f
2
, . . . f
m
zu F gehren. Dann gelten:
(a) Jeder verallgemeinerte Eigenraum Ker[( f
i
id
V
)
e
i
] ist ein -invarianter
Unterraum von V.
(b) V ist die direkte Summe der m verallgemeinerten Eigenrume
Ker[( f
i
id
V
)
e
i
]
von , wobei e
i
der Exponent des Eigenwerts f
i
ist.
Beweis: (a) folgt unmittelbar aus Hilfssatz 6.3.5.
(b) Sei char Pol

(X) = (Xf
1
)
c
i
(Xf
2
)
c
2
. . . (Xf
m
)
c
m
. Sei
i
= f
i
id
V
und e
i
der Exponent von f
i
fr i = 1, 2, . . . , m. Nach Hilfssatz 6.3.5 gilt:
V =
e
1
1
(V) Ker(
e
1
1
)
und char Pol

(X) = (Xf
2
)
c
2
(Xf
3
)
c
3
. . . (Xf
m
)
c
m
, wobei

die Einschrn-
kung von auf V

=
e
1
1
(V) ist. Da V

und Ker(
e
1
1
) -invariante Unterrume nach
Hilfssatz 6.3.5 (b) sind, ergibt sich die Behauptung (b) durch vollstndige Induktion
nach m.
6.3.7 Denition. Ein Endomorphismus des F-Vektorraums V heit nilpotent,
wenn es eine natrliche Zahl s gibt derart, da
s
= 0. Die kleinste Zahl k mit

k
= 0 heit der Nilpotenzindex von .
136 6 Eigenwerte und Eigenvektoren
6.3.8 Bemerkung. Mit den Bezeichnungen des Satzes 6.3.3 von Fitting gilt: Die
Einschrnkung von auf den -invarianten Unterraum U = Ker(
k
) von V ist ein
nilpotenter Endomorphismus von U mit Nilpotenzindex k.
Im folgenden Satz wird ein Verfahren fr die Berechnung der Elementartei-
ler eines nilpotenten Endomorphismus eines n-dimensionalen F-Vektorraums V
beschrieben. Auerdem wird eine Basis B von V konstruiert, bezglich derer die
n n-Matrix A

(B, B) die Jordansche Normalform von ist. Danach wird ge-


zeigt, da man auch die Bestimmung der Jordanschen Normalform eines beliebigen
Endomorphismus von V auf den nilpotenten Fall reduzieren kann.
6.3.9 Denition. Sei End
F
(V) ein nilpotenter Endomorphismus des n-dimen-
sionalen Vektorraums V ber dem Krper F mit Nilpotenzindex e = 0. Dann ist
0 < Ker( ) < Ker(
2
) < < Ker(
e1
) < Ker(
e
) = V
eine echt aufsteigende Folge -invarianter Unterrume von V. Sei
h = |{1 j e| dim
F
[Ker(
j
)/ Ker(
j1
)] > dim
F
[Ker(
j+1
)/ Ker(
j
)]}|.
Dann existiert eine eindeutig bestimmte echt absteigende Folge
e
1
= e > e
2
> > e
h
> 0
von natrlichen Zahlen e
i
derart, da die Einschrnkung
i
von auf Ker(
e
i
) ein
nilpotenter Endomorphismus von Ker(
e
i
) mit Nilpotenzindex e
i
ist.
Die h natrlichen Zahlen e
i
sind die verschiedenen Elementarteiler des nilpo-
tenten Endomorphismus End
F
(V).
Fr i = 1, 2, . . . , h ist die Vielfachheit w
i
des Elementarteilers e
i
sukzessiv
durch die Gleichung
i

j=1
w
j
= dim
F
[Ker(
e
i
)/ Ker(
e
i
1
)]
eindeutig bestimmt.
6.3.10 Satz. Sei End
F
(V) ein nilpotenter Endomorphismus des n-dimensio-
nalen Vektorraums V ber dem Krper F mit den verschiedenen Elementarteilern
e
1
> e
2
> > e
h
> 0
mit den Vielfachheiten w
1
, w
2
, . . . , w
h
. Sei r = dim
F
Ker( ). Dann gelten:
(a)

h
i=1
w
i
= r.
6.3 Jordansche Normalform 137
(b) Fr jedes i = 1, 2, . . . , h gibt es eine direkte Summe

w
i
j
i
=1
U
ij
i
von
-invarianten Unterrumen U
ij
i
, 1 j
i
w
i
, die jeweils eine Basis
B
ij
i
= {m
ij
i
, m
ij
i
, . . . ,
e
i
1
m
ij
i
} besitzen, bezglich derer die Einschrn-
kung
|U
ij
i
=
ij
i
von auf U
ij
i
die e
i
e
i
-Matrix
J
ij
i
= A

ij
i
(B
ij
i
, B
ij
i
) =
_
_
_
_
_
_
_
_
_
_
0 0
1 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_
_
_
_
_
_
_
_
_
_
mit e
i
1 Einsen in der unteren Nebendiagonalen hat.
(c) V =

h
i=1

w
i
j
i
=1
U
ij
i
und n =

h
i=1
e
i
w
i
.
(d) B =

h
i=1

w
i
j
i
=1
B
ij
i
ist eine Basis von V bezglich derer die diagonale
Blockmatrix
J = A

(B, B) =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
J
11
.
.
.
J
1,w
1
.
.
.
J
h,1
.
.
.
J
h,w
h
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
hat.
Beweis: Da nilpotent ist, ist nach Denition 6.3.9 der Nilpotenzindex e
1
von
der grte Elementarteiler von . Also ist V = Ker(
e
1
) > Ker(
e
1
1
). Nach Satz
2.3.18 gibt es daher w
1
linear unabhngige Vektoren m
1j
1
V, 1 j
1
w
1
, die
einen Unterraum U
1
von V erzeugen derart, da
V = Ker(
e
1
1
) U
1
und so Ker(
e
1
1
) U
1
= 0
ist. Fr jedes j
1
sind die Vektoren m
1j
1
, m
1j
1
, . . . ,
e
1
1
m
1j
1
linear unabhangig,
weil aus
m
1j
1
f
0
+ m
1j
1
f
1
+ +
e
1
1
m
1j
1
f
e
1
1
= 0
138 6 Eigenwerte und Eigenvektoren
zunchst
e
1
1
m
1j
1
f
0
= 0 und so
m
1j
1
f
0
Ker(
e
1
1
) U
1
= 0
folgt, woraus sich f
0
= 0 und anschlieend durch analoge Schluweise f
i
= 0 fr
alle 1 i e
1
1 ergibt.
Da den Nilpotenzindex e
1
hat, ist
U
1j
1
= m
1j
1
, m
1j
1
, . . . ,
e
1
1
m
1j
1

fr jedes j
1
= 1, 2, . . . , w
1
ein -invarianter Unterraum von V mit Dimension e
1
.
Wre U
11

w
1
j
1
=2
U
1j
1
= 0, dann wre
m
1j
1
f
0
+ m
1j
1
f
1
+ +
e
1
1
m
1j
1
f
e
1
1
=
w
1

j
1
=2
e
1
1

k=0

k
m
1j
1
f
kj
1
()
fr geeignete f
k
, f
kj
1
F, die nicht smtlich Null sind. Durch Linksmultiplikation
von () mit
e
1
1
folgt

e
1
1
m
1j
1
f
0
=
e
1
1
_
w
1

j
1
=2
m
1j
1
f
0j
1
_
,
und so
m
1j
1
f
0

w
1

j
1
=2
m
1j
1
f
0j
1
Ker(
e
1
1
) U
1
= 0
Wegen der linearen Unabhngigkeit der w
1
Vektoren m
1j
1
, 1 j
1
w
1
, gilt daher
f
0
= 0 = f
0j
1
fr alle 2 j
1
w
1
. Analog zeigt man durch Linksmultiplikation
von () mit
e
1
2
,
e
1
3
, da auch die restlichen Koefzienten f
i
und f
kj
1
gleich
Null sind. Aus diesemWiderspruch folgt, da W
1
=

w
1
j
1
=1
U
1j
1
eine direkte Summe
von -invarianten Unterrumen von V ist.
Ist h = 1, dann ist V = W
1
und weiter
e
1
1
(W
1
) = Ker( ), d. h. w
1
=
dim
F
Ker( ) = r. Also gelten alle Behauptungen (a) bis (d) fr h = 1.
Angenommen, fr i = 1, 2, . . . , k und k < h sei schon die Existenz von
-invarianten Unterrumen U
ij
i
, 1 j
i
w
i
, 1 i k gezeigt derart, da
W
i
=

w
i
j
i
=1
U
ij
i
eine direkte Summe von -invarianten, e
i
-dimensionalen Unter-
rumen von V ist und W
1
W
2
W
k
eine direkte Summe ist. Dabei sei B
ij
i
=
{m
ij
i
, m
ij
i
, . . . ,
e
i
1
m
ij
i
} eine Basis von U
ij
i
und U
i
= m
ij
i
| 1 j
i
w
i
ein
Unterraum von V mit
_
i1

s=1

e
s
e
i
(W
s
) +Ker(
e
i
1
)
_
U
i
= 0
6.3 Jordansche Normalform 139
und
Ker(
e
i
) =
_
i1

s=1

e
s
e
i
(W
s
) +Ker(
e
i
1
)
_
U
i
.
Wegen k < h ist 0 < e
k+1
< e
k
. Nach Denition 6.3.9 ist
w
k+1
= dim
F
[Ker(
k
)/ Ker(
k1
)] dim
F
[Ker(
k+1
)/ Ker(
k
)] > 0.
Also existiert ein w
k+1
-dimensionaler Unterraum U
k+1
von Ker(
e
k+1
) mit
_
k

s=1

e
s
e
k+1
(W
s
) +Ker(
e
k+1
1
)
_
U
k+1
= Ker(
e
k+1
)
und Basis {m
k+1,j
k+1
| 1 j
k+1
w
k+1
}. Fr jedes j
k+1
sei B
k+1,j
k+1
=
{m
k+1,j
k+1
, m
k+1,j
k+1
, . . . ,
e
k+1
1
m
k+1,j
k+1
} und U
k+1,j
k+1
das Erzeugnis von
B
k+1,j
k+1
. Dann sind nach dem im ersten Abschnitt gegebenen Beweis die w
k+1
Unterrume U
k+1,j
k+1
alle e
k+1
-dimensional und -invariant. Weiter ist die Summe
W
k+1
=
w
k+1

j
k+1
=1
U
k+1,j
k+1
direkt. Wegen U
k+1

_
k
s=1

e
s
e
k+1
(W
s
) + Ker(
e
1
k+1
)
_
= 0 ist es wie oben
einfach zu zeigen, da die Summe

k+1
s=1
W
s
direkt ist. Insbesondere sind die w
k+1
linear unabhngigen Elemente
e
1
k+1
m
k+1,j
k+1
im Kern von . Durch vollstndige
Induktionnachk folgennun(a)

h
i=1
w
i
= r = dim
F
Ker( ) unddie Behauptungen
(b) und (c) des Satzes. Die Behauptung (d) folgt unmittelbar aus (c) und Satz 3.7.3
6.3.11 Satz (Jordansche Normalform). Sei F ein Zerfllungskrper fr den Endo-
morphismus des n-dimensionalen F-Vektorraums V. Seien f
1
, f
2
, . . . , f
k
die ver-
schiedenen Eigenwerte von . Fr jedes i = 1, 2, . . . , k sei
i
= f
i
id
V

End
F
(V) und e
i
= e

(f
i
) der Exponent von f
i
. Dann gelten:
(a) Die k verallgemeinerten Eigenrume Ker(
e
i
i
) von sind -invariante Unter-
rume.
(b) V =

k
i=1
Ker(
e
i
i
).
(c)
i
ist ein nilpotenter Endomorphismus von Ker(
e
i
i
) mit Nilpotenzindex e
i
.
(d) Seien e
i1
= e
i
> e
i2
> > e
ir
i
> 0 die verschiedenen Elementarteiler von

i
und sei w
ij
i
die Vielfachheit des Elementarteilers e
ij
i
von
i
. Dann gibt es
140 6 Eigenwerte und Eigenvektoren
eine Basis B von V, bezglich derer die Matrix A

(B, B) von die folgende


Gestalt hat:
J = A

(B, B) =
_
_
_
_
_
_
R
1
0 0
0 R
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 R
k
_
_
_
_
_
_
,
und jede Matrix R
i
hat die Form
R
i
=
_
_
_
_
_
_
_
_
B
i1
0 0
0 B
i2
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 B
ir
i
_
_
_
_
_
_
_
_
,
wobei B
ij
i
eine diagonale Blockmatrix mit w
ij
i
gleichen e
ij
i
e
ij
i
-Matrizen
J
ij
i
der folgenden Gestalt ist:
J
ij
i
=
_
_
_
_
_
_
_
_
_
_
_
_
_
f
i
0 0 0
1 f
i
0
.
.
.
0 1 f
i
0
.
.
. 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1 f
i
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Die Matrizen J
ij
i
heien Jordankstchen von zum Eigenwert f
i
und Ele-
mentarteiler e
ij
i
.
Beweis: (a) und (b) gelten nach Satz 6.3.6. (c) folgt aus Satz 6.3.3.
Nach (a), Hilfssatz 6.3.5 und Satz 3.7.3 kann angenommen werden, da
char Pol

(X) = (X f )
n
fr ein f F ist. Insbesondere ist = f id
V

End
F
(V) nilpotent mit Nilpotenzindex e = e

(f ). Wegen Satz 3.7.3 und Satz 6.3.10


existiert ein 0 = w V derart, da B = {w, ( t )w, . . . , ( t )
e1
w} eine Basis
des F-Vektorraums V ist. Hieraus folgt
w = ( f )w +f w,
[( f )
j
w] = ( f )
j+1
w +f ( f )
j
w fr j = 1, 2, . . . , r 1.
6.3 Jordansche Normalform 141
Daher hat bezglich der Basis B von V die Matrix
A

(B, B) =
_
_
_
_
_
_
_
_
_
_
_
_
_
f 0 0 0
1 f 0
.
.
.
0 1 f 0
.
.
. 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1 f
_
_
_
_
_
_
_
_
_
_
_
_
_
nach Denition 3.3.1.
6.3.12 Folgerung. Ein Endomorphismus eines endlich-dimensionalen Vektor-
raums V ist genau dann diagonalisierbar, wenn sein charakteristisches Polynom in
Linearfaktoren zerfllt und fr alle Eigenwerte f von und deren Exponenten
e

(f ) = 1 gilt.
Beweis: Folgt sofort aus Satz 6.3.11 und Denition 6.3.4.
6.3.13 Berechnungsverfahren fr die Jordansche Normalform und die zuge-
hrige Transformationsmatrix. Sei V = F
n
der n-dimensionale, arithmetische
Vektorraum ber dem Krper F. Sei E = {e
1
, e
2
, . . . , e
n
} die kanonische Basis von
V. Sei A = (a
ij
) Mat
n
(F) eine n n-Matrix, deren smtliche verschiedenen
Eigenwerte f
u
, 1 u k, im Krper F liegen. Sei End
F
(V) der zu A geh-
rige Endomorphismus von V, d. h. (e
j
) =

n
i=1
e
i
a
ij
fr j = 1, 2, . . . , n. Dann
existiert nach Satz 6.3.11 eine Basis B von V, bezglich derer die Matrix A

(B, B)
von die Jordansche Normalformvon Aist. Auerdemsind die Basisvektoren b von
B die Spaltenvektoren der Transformationsmatrix Q, fr die A

(B, B) = Q
1
AQ
gilt.
Die Berechnung der Eigenwerte f
u
, 1 u k, von A, der zugehrigen Ele-
mentarteiler e
u1
e
u2
e
u3
e
ur
u
> 0 und der Basisvektoren von B wird
in folgenden Schritten durchgefhrt.
(a) Man berechnet die Koefzienten des charakteristischen Polynoms
char Pol
A
(X).
(b) Man bestimmt die Nullstellen f
u
von char Pol
A
(X) =

k
u=1
(X f
u
)
k
u
.
(c) Fr jeden Eigenwert f
u
von A, 1 u k, bestimmt man den grten
Elementarteiler e
u1
= e
u
durch
e
u
= min
_
j {1, 2, . . . , k
u
} | Ker
_
(Af
u
E
n
)
j
_
= Ker
_
(Af
u
E
n
)
j+1
_
}.
142 6 Eigenwerte und Eigenvektoren
Dann ist nach Satz 6.3.6 V
u
= Ker[(A f
u
E
n
)
e
u
] der verallgemeinerte Ei-
genraum von Azum Eigenwert f
u
, und V hat die eindeutige Zerlegung
V =
k

u=1
V
u
.
(d) Fr jeden Eigenwert f
u
von A, 1 u k, sei
u
=
|Vu
die Einschrnkung
von auf den -invarianten UnterraumV
u
von V. Weiter sei
u
der identische
Endomorphismus von V
u
und
u
=
u
f
u

u
End
F
(V
u
). Dann ist
u
ein
nilpotenter Endomorphismus von V
u
mit Nilpotenzindex e
u
.
(e) Fr jedes u {1, 2, . . . , k} sind nach Satz 6.3.11 die verschiedenen Elementar-
teiler e
u
= e
u1
e
u2
e
ur
u
> 0 von A zum Eigenwert f
u
gleich den
Elementarteilern des nilpotenten Endomorphismus
u
des verallgemeinerten
Eigenraums V
u
von V. Die Elementarteiler und die jeweilige Vielfachheit ei-
nes jeden der k nilpotenten Endomorphismen
u
End
F
(V
u
), 1 u k,
berechnet man mit dem in Satz 6.3.10 beschriebenen Verfahren.
(f) Fr jedes u {1, 2, . . . , k} konstruiert man mit dem in Satz 6.3.10 beschrie-
benen Verfahren eine Basis B
u
des verallgemeinerten Eigenraums V
u
von B.
Wegen
Ker[(
u
)
j
] = {v V
u
| (
u
)
j
(v) = 0} = Ker[(Af
u
E
n
)
j
] V
u
V
fr j = 1, 2, . . . , e
u
sind die Vektoren der Basis B
u
Spaltenvektoren aus
F
n
= V. Da V =

k
u=1
V
u
ist, ist B =

k
u=1
B
u
eine Basis von V. Nach
dem Beweis der Stze 6.3.10 und 6.3.11 ist die n n-Matrix A

(B, B) von
die Jordansche Normalform der Matrix A.
(g) Die Spaltenvektoren der n n-Transformationsmatrix Q sind die n-Tupel
der Vektoren der Basen B
u
, 1 u k, in der in Satz 6.3.10 angegebenen
Reihenfolge. A

(B, B) = Q
1
AQist die Jordansche Normalform der nn-
Matrix A.
6.3.14 Beispiel. Nach dem Verfahren 6.3.13 wird nun die Jordansche Normalform
der Matrix
A =
_
_
_
_
_
_
3 1 4 3 1
1 1 1 1 0
1 0 2 0 0
4 1 4 5 1
2 0 2 2 1
_
_
_
_
_
_
6.3 Jordansche Normalform 143
ber dem Krper Q berechnet:
char Pol
A
(X) = det(XE
5
A) (a)
= X
5
6X
4
+14X
3
16X
2
+9X 2
= (X 1)
4
(X 2).
Alsohat Adie Eigenwerte f
1
= 2undf
2
= 1. NachSatz 6.3.6ist V
1
= Ker(2E
5
A)
der verallgemeinerte Eigenraumvon AzumEigenwert 2, weil (X2) nur zur ersten
Potenz im charakteristischen Polynom von A aufgeht. Wegen rg(A 2E
5
) = 4 ist
a = (0, 1, 2, 3, 2) V = Q
5
eine Basis von V
1
= Ker(A 2E
5
) = aQ. Nach
Satz 6.3.11 ist daher e
11
= 1 der einzige Elementarteiler von A zum Eigenwert
f
1
= 2.
Fr f
2
= 1 betrachtet man zunchst die Rnge der Matrizen (A E
5
)
j
mit
j = {1, 2, 3, 4}. Wegen
(AE
5
)
3
=
_
_
_
_
_
_
0 0 0 0 0
1 0 1 1 0
2 0 2 2 0
3 0 3 3 0
2 0 2 2 0
_
_
_
_
_
_
= 0
und rg[(A E
5
)
3
] = 1 ist V
2
= Ker[(A E
5
)
3
] der verallgemeinerte Eigenraum
zum Eigenwert f
2
= 1, weil dim
Q
Ker[(A E
5
)
3
] = 4 = dim
Q
V dim
Q
V
1
ist.
Nach 6.3.13 (c) ist e
21
= 3 der grte Elementarteiler von AzumEigenwert f
2
= 1.
Wegen
rg(AE
5
) = rg
_
_
_
_
_
_
4 1 4 3 1
1 0 1 1 0
1 0 1 0 0
4 1 4 4 1
2 0 2 2 0
_
_
_
_
_
_
= 3
hat A nach Satz 6.3.10 zum Eigenwert f
2
= 1 nur r
2
= dim
Q
Ker(A E
5
) = 2
verschiedene Elementarteiler e
21
= 3 > e
22
> 0. Wegen dim
Q
V
2
= 4 folgt e
22
= 1.
Da
(AE
5
)
2
=
_
_
_
_
_
_
1 1 1 1 1
1 0 1 1 0
3 1 3 3 1
3 0 3 3 0
2 0 2 2 0
_
_
_
_
_
_
,
ist b = (0, 1, 0, 0, 0) Ker[(A E
5
)
3
] = V
2
, aber b Ker[(A E
5
)
2
]. Nun ist
(AE
5
)b = (1, 0, 0, 1, 0) und 0 = (AE
5
)
2
b = (1, 0, 1, 0, 0) Ker(AE
5
).
144 6 Eigenwerte und Eigenvektoren
Also sind (A E
5
)
2
b = (1, 0, 1, 0, 0) und c = (0, 1, 0, 0, 1) eine Basis von
Ker(AE
5
). Deshalb ist
B = B
1
B
2
= {a} {b, (AE
5
)b, (AE
5
)
2
b, c}
eine Basis von V, bezglich derer der zur Matrix A gehrige Endomorphismus
End
Q
(V) die Jordansche Normalform
A

(B, B) =
_
_
_
_
_
_
2 0 0 0 0
0 1 0 0 0
0 1 1 0 0
0 0 1 1 0
0 0 0 0 1
_
_
_
_
_
_
hat. Die Transformationsmatrix Q mit A

(B, B) = Q
1
AQ ist daher
Q =
_
_
_
_
_
_
0 0 1 1 0
1 1 0 0 1
2 0 0 1 0
3 0 1 0 0
2 0 0 0 1
_
_
_
_
_
_
.
6.4 Anwendung der Jordanschen Normalform
Eine wichtige Anwendung ndet die Jordansche Normalform einer (n n)-Matrix
A = (a
ij
) beim Lsen von Systemen homogener linearer Differentialgleichungen
1. Ordnung mit konstanten Koefzienten a
ij
F, wobei F entweder der Krper R
der reellen Zahlen oder der Krper C der komplexen Zahlen ist.
6.4.1 Denition. Seien x
1
(t ), x
2
(t ), . . . , x
n
(t ) gesuchte, auf R oder C denierte,
reell- oder komplexwertige Funktionen in der Variablen t , die zusammen mit ihren
erstenAbleitungenx

i
(t ) fr alle t Roder t Cdie folgendenlinearenGleichungen
x

1
(t ) = a
11
x
1
(t ) +a
12
x
2
(t ) + +a
1n
x
n
(t )
x

2
(t ) = a
21
x
1
(t ) +a
22
x
2
(t ) + +a
2n
x
n
(t )
(1)
.
.
.
x

n
(t ) = a
n1
x
1
(t ) +a
n2
x
2
(t ) + +a
nn
x
n
(t )
mit konstanten Koefzienten a
ij
F erfllen.
Ein solches System (1) heit homogenes System von linearen Differentialglei-
chungen erster Ordnung mit konstanten Koefzienten. Die (nn)-Matrix A = (a
ij
)
heit Koefzientenmatrix des homogenen linearen Differentialgleichungssystems.
6.4 Anwendung der Jordanschen Normalform 145
Mit den Spaltenvektoren
x(t ) = (x
1
(t ), x
2
(t ), . . . , x
n
(t )) und x

(t ) = (x

1
(t ), x

2
(t ), . . . , x

n
(t ))
hat das System (1) auch die Matrizenform
(2) x

(t ) = Ax(t ).
In der Vorlesung ber Differentialgleichungen wird gezeigt, da ein System
x

(t ) = Ax(t ) von homogenen linearen Differentialgleichungen unendlich viele


Lsungsvektoren x(t ) besitzt, da man aber unter ihnen jeweils eine durch eine
Anfangsbedingung eindeutig festlegen kann.
6.4.2 Denition. Zur reellen bzw. komplexen Anfangsstelle t
0
und gegebenen Wer-
ten b
1
, b
2
. . . , b
n
F gibt es genau einen Lsungsvektor x(t ) des homogenen Sy-
stems von linearen Differentialgleichungen erster Ordnung
(2) x

(t ) = Ax(t )
derart, da x(t
0
) = b = (b
1
, b
2
, . . . , b
n
).
Die Vektorgleichung x(t
0
) = b heit Anfangsbedingung von (2). Der Vektor b
heit Anfangsvektor .
6.4.3 Hilfssatz. Sei () x

(t ) = Ax(t ) ein homogenes lineares Differentialglei-


chungssystem 1. Ordnung mit (n n)-Koefzientenmatrix A = (a
ij
), a
ij
F,
und Anfangsbedingung x(t
0
) = c F
n
. Sei D = P
1
AP fr eine invertierbare
(n n)-Matrix P = (p
ij
), p
ij
F.
Genau dann ist u(t ) eine Lsung von () mit Anfangsbedingung u(t
0
) = x(t
0
) =
c, wenn w = P
1
u eine Lsung ist von
() y

(t ) = Dy(t ) mit Anfangsbedingung y(t


0
) = b = P
1
c.
Beweis: Sei u(t ) eine Lsung des Systems
() bx

(t ) = Ax(t ) mit Anfangsvektor x(t


0
) = c F
n
.
Dann gilt u

(t ) = Au(t ) = AP(P
1
u(t )), woraus wegen D = P
1
AP folgt
P
1
u

(t ) = (P
1
AP)(P
1
u(t )) = D(P
1
u(t )).
Da konstante Faktoren bei der Ableitung erhalten bleiben, ist (P
1
u(t ))

=
P
1
u

(t ). Also ist w(t ) = P


1
u(t ) eine Lsung des Systems (). Ist umgekehrt
w(t ) eine Lsung von (), dann ergibt sich ebenso, da u(t ) = Pw(t ) eine Lsung
von () ist.
146 6 Eigenwerte und Eigenvektoren
6.4.4 Satz. Sei () y

(t ) = Jy(t ) ein homogenes Differentialgleichungssystem er-


ster Ordnung mit (k k)-Koefzientenmatrix
J =
_
_
_
_
_
_
_
_
_
_
_
_
_
f 0 0 0
1 f 0
.
.
.
0 1 f 0
.
.
. 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1 f
_
_
_
_
_
_
_
_
_
_
_
_
_
.
und Eigenwert f F. Sei y(t
0
) = (b
1
, b
2
, . . . , b
k
) F
k
die Anfangsbedingung
von (). Dann bilden die k Funktionen
y
i
(t ) = e
f (t t
0
)
_
1
(i 1)!
b
1
(t t
0
)
i1
+
1
(i 2)!
b
2
(t t
0
)
i2
+
+b
i1
(t t
0
) +b
i
_
fr 1 i k eine Lsung y(t ) = (y
1
(t ), y
2
(t ), . . . , y
k
(t )) von (). Dabei ist e
t
die
reelle bzw. komplexe Exponentialfunktion.
Beweis: Ist k = 1 so ist y(t ) = y
1
(t ) = b
1
e
f (t t
0
)
eine Lsung von () y

1
(t ) =
fy
1
(t ).
Angenommen, die Behauptung ist schon fr k 1 bewiesen. Nach () gilt dann
fr die k-te Gleichung:
y

k
(t ) = y
k1
(t ) +fy
k
(t ),
wobei nach Induktionsannahme
y
k1
(t ) = e
f (t t
0
)
_
1
(k 2)!
b
1
(t t
0
)
k2
+ +b
k2
(t t
0
) +b
k1
_
ist. Hieraus folgt
y

k
(t )e
f (t t
0
)
fy
k
(t )e
f (t t
0
)
=
1
(k 2)!
b
1
(t t
0
)
k2
+ +b
k2
(t t
0
)+b
k1
.
Nach dem Produktsatz der Differentialrechnung gilt
[y
k
(t )e
f (t t
0
)
]

= y

k
(t )e
f (t t
0
)
fy
k
(t )e
f (t t
0
)
.
Also ist nach Integration
y
k
(t )e
f (t t
0
)
=
1
(k 1)!
b
1
(t t
0
)
k1
+ +
1
2
b
k2
(t t
0
)
2
+b
k1
)(t t
0
) +c,
6.4 Anwendung der Jordanschen Normalform 147
wobei c F eine Konstante ist. Hieraus folgt
y
k
(t ) = e
f (t t
0
)
_
1
(k 1)!
b
1
(t t
0
)
k1
+
+
1
2
b
k2
(t t
0
)
2
+b
k1
(t t
0
) +c
_
.
Wegen y
k
(t
0
) = b
k
ist c = b
k
.
Mit diesen Hilfsmitteln soll nun ein konkretes homogenes System von linearen
Differentialgleichungen erster Ordnung gelst werden.
6.4.5 Beispiel. Gegeben sei das homogene System linearer Differentialgleichungen
erster Ordnung () x

(t ) = Ax(t ) mit der Koefzientenmatrix Avon Beispiel 6.3.14


und der Anfangsbedingung
t
0
= 1 und b = (3, 1, 2, 0, 4) .
Mit der in 6.3.14 berechneten Transformationsmatrix Q gilt
Q
1
AQ = J =
_
_
_
_
_
_
2
1 0 0
1 1 0
0 1 1
1
_
_
_
_
_
_
.
Dabei hat Q die inverse Matrix
Q
1
=
_
_
_
_
_
_
1 0 1 1 0
1 1 1 1 1
3 0 3 2 0
2 0 3 2 0
2 0 2 2 1
_
_
_
_
_
_
.
Nach Hilfssatz 6.4.3 hat
() y

(t ) = Jy(t )
die Anfangsbedingung c = y(1) = Q
1
b = (1, 4, 3, 0, 6). Da J aus 3 Jordan-
kstchen besteht, liefert Satz 6.4.4 den folgenden Lsungsvektor
y(t ) = (y
1
(t ), y
2
(t ), . . . , y
5
(t )
von (), wobei
y
1
(t ) = e
2(t 1)
, y
2
(t ) = 4e
t 1
, y
3
(t ) = e
t 1
[4(t 1) 3]
y
4
(t ) = e
t 1
[2(t 1)
2
3(t 1)], y
5
(t ) = 6e
t 1
.
148 6 Eigenwerte und Eigenvektoren
Als Lsungsvektor x(t ) des ursprnglichen Systems () x

(t ) = Ax(t ) mit An-


fangsbedingung x(t
0
) = b erhlt man wegen Hilfssatz 6.4.3 schlielich
x(t ) = Qy(t ) =
_
_
_
_
_
_
e
t 1
(2t
2
11t +12
e
2(t 1)
2e
t 1
2e
2(t 1)
+ e
t 1
(2t
2
7t +5)
3e
2(t 1)
+ e
t 1
(4t 7)
2e
2(t 1)
+ 6e
t 1
_
_
_
_
_
_
.
Von der Richtigkeit dieser Lsung berzeuge man sich durch Einsetzen in das
homogene lineare Differentialgleichungssystem () x

(t ) = Ax(t ) und prfe die


Anfangsbedingung x(t
0
) = x(t ) = b durch Einsetzen von t = 1.
6.5 Aufgaben
6.1 (a) Man zeige, da die Matrix
A =
_
_
0 0 1
1 0 0
0 1 0
_
_
zu einer komplexen Diagonalmatrix D hnlich ist und bestimme mittels des Be-
rechnungsverfahrens 6.2.8 die Transformationsmatrix P GL(3, C), fr die D =
P
1
AP gilt.
(b) Ist die Matrix
B =
_
_
1 0 0
1 1 0
0 1 1
_
_
diagonalisierbar?
6.2 Berechnen Sie das charakteristische Polynom und die Eigenwerte der folgenden reellen
5 5-Matrix
_
_
_
_
_
_
1 2 3 4 5
2 3 4 5 1
3 4 5 1 2
4 5 1 2 3
5 1 2 3 4
_
_
_
_
_
_
.
6.3 Zeigen Sie, da die Matrizen
A =
_
_
1 2 1
0 3 1
0 2 0
_
_
und B =
_
_
5 10 2
4 9 2
8 12 1
_
_
folgende Eigenschaften haben:
6.5 Aufgaben 149
(a) Sie sind vertauschbar, d. h. AB = BA.
(b) Sie sind beide diagonalisierbar.
(c) Es gibt eine Basis B von V = Q
3
aus gemeinsamen Eigenvektoren von Awie von B.
(d) Nicht alle Eigenwerte von Aund B stimmen berein.
6.4 Bestimmen Sie das charakteristische Polynomund die Eigenwerte der Matrix Agegeben
durch:
A =
_
_
_
_
_
_
1 1 0 0 0
1 1 1 0 0
0 1 1 1 0
0 0 1 1 1
0 0 0 1 1
_
_
_
_
_
_
.
6.5 Zeigen Sie, da die reelle Matrix
A =
_
_
3 2 1
2 6 2
0 0 2
_
_
zu einer Diagonalmatrix hnlich ist. Bestimmen Sie diese, die Transformationsmatrix P und
ihre Inverse P
1
.
6.6 Es sei c ein Eigenwert der n-reihigen quadratischen Matrix A mit der Vielfachheit k.
Zeigen Sie: In jedem Fall gilt rg(E
n
c A) n k.
6.7 Zeigen Sie: Eine quadratische Matrix Aist genau dann invertierbar, wenn 0 kein Eigen-
wert von Aist.
6.8 Es sei ein Endomorphismus eines n-dimensionalen komplexenVektorraums V. Zeigen
Sie:
(a) Sind c
1
, c
2
, . . . , c
n
Cdie n Eigenwerte von , so hat
k
die Spur tr(
k
) =

n
i=1
c
k
i
fr alle k = 1, 2, . . . .
(b) Eine komplexe Zahl a ist genau dann Eigenwert der r-ten Potenz von , wenn es einen
Eigenwert c von mit a = c
r
gibt.
(c) Geben Sie ein Beispiel an, fr das die Vielfachheit von c
r
als Eigenwert von
r
grer
ist als die Vielfachheit von c als Eigenwert von .
6.9 Es sei A eine komplexe 3 3-Matrix und a
i
= tr A
i
, i = 1, 2, 3. Zeigen Sie:
charPol
A
(X) = X
3
a
1
X
2
+
1
2
(a
2
1
a
2
)X
1
6
(a
3
1
+2a
3
3a
2
a
1
).
6.10 Berechnen Sie A
1000
fr die rationale 3 3-Matrix
A =
_
_
0 0 2
1 0 1
0 1 2
_
_
.
150 6 Eigenwerte und Eigenvektoren
6.11 Seien A, B zwei diagonalisierbare n n-Matrizen ber dem Krper F, fr die AB =
BAgilt. Zeigen Sie, da Aund B in V = F
n
ein gemeinsames n-Tupel von Eigenvektoren
v
1
, v
2
, . . . , v
n
haben.
6.12 Berechnen Sie das charakteristische Polynom, die Elementarteiler, die Jordansche Nor-
malform und die zugehrige Transformationsmatrix fr die Matrix
A =
_
_
_
_
1 0 0 0
0 1 0 0
8 6 2 2
12 9 4, 5 4
_
_
_
_
.
6.13 Bestimmen Sie die Jordansche Normalform und die Transformationsmatrix ber dem
Zerfllungskrper C von der folgenden Matrix
A =
_
_
_
_
_
_
_
_
1 0 0 1 0 0
1 1 1 1 0 0
1 1 1 1 0 0
1 0 0 1 0 0
0 0 0 2 0 1
0 0 0 2 4 4
_
_
_
_
_
_
_
_
.
6.14 Zeigen Sie:
(a) Die nn-Matrix A = (a
ij
) mit a
ij
F ist genau dann zu einer oberen Dreiecksmatrix
B = (b
ij
) mit b
ij
F hnlich, wenn ihr charakteristisches Polynom in F[X] in lauter
Linearfaktoren zerfllt, d. h.
char Pol
A
(X) =
k

r=1
(X f
r
)
c
r
mit c
1
+c
2
+ +c
k
= n.
(b) Gelten die quivalenten Bedingungen der Aussage (a), dann sind die Diagonalelemente
b
ii
der Dreiecksmatrix B die Eigenwerte f
r
von A, und zwar mit der jeweiligen
Vielfachheit c
r
.
6.15 Berechnen Sie eine Lsung des homogenen Differentialgleichungssystems x

= Ax
erster Ordnung mit Anfangsvektor x(0) = (2, 1, 4) und Koefzientenmatrix
A =
_
_
4 3 1
1 0 1
1 2 3
_
_
.
6.5 Aufgaben 151
6.16 Man bestimme mit demVerfahren der Bemerkung 6.1.11 das charakteristische Polynom
der Matrix
A =
_
_
_
_
_
_
_
_
1 3 4 7 1 3
2 8 8 17 1 12
2 4 4 11 1 6
1 2 3 7 1 2
0 1 1 3 3 3
1 3 4 8 0 3
_
_
_
_
_
_
_
_
.
6.17 Man bestimme mit der Lsung vonAufgabe 6.16 und demVerfahren 6.3.13 die Jordan-
sche Normalform J und eine Transformationsmatrix Q mit Q
1
AQ = J der Matrix A von
Aufgabe 6.16.
6.18 Man berechne eine Lsung des homogenen Systems linearer Differentialgleichungen
1. Ordnung x

= Ax mit der Koefzientenmatrix


A =
_
_
2 1 2
1 2 2
1 1 5
_
_
und Anfangsvektor x(0) = (4, 0, 1).
6.19 Man bestimme mittels Satz 6.3.10 alle mglichen Jordanschen Normalformen J der
komplexen (5 5)-Matrizen Amit nur einem einzigen Eigenwert c C.
7 Euklidische und unitre Vektorrume
In diesem Kapitel wird in reellen und komplexen Vektorrumen eine zustzliche
Struktur deniert, die die Einfhrung einer Mabestimmung gestattet. Sie ermg-
licht es, die Lnge eines Vektors und den Winkel zwischen zwei Vektoren zu de-
nieren. Diese zustzliche Struktur wird durch das skalare Produkt bestimmt, das im
ersten Abschnitt behandelt wird und zu dem Begriff des euklidischen bzw. unitren
Vektorraums fhrt.
Dabei handelt es sich tatschlich um eine den Vektorrumen aufgeprgte neue
Struktur, die nicht etwa durch den Vektorraum schon vorbestimmt ist. Skalare Pro-
dukte knnen in reellen und komplexen Vektorrumen auf mannigfache Art deniert
werden und fhren zu verschiedenen Mabestimmungen. Die Begriffe

Lnge und

Winkel erweisen sich also als Relativbegriffe, die von der Wahl des skalaren Pro-
dukts abhngen. Sie werden im zweiten Abschnitt behandelt. Wesentlich ist beson-
ders der Begriff der Orthogonalitt, auf den in diesemAbschnitt ebenfalls eingegan-
gen wird.
Mit diesen Hilfsmitteln wird im dritten Abschnitt das Orthogonalisierungsver-
fahren von Gram und Schmidt fr euklidische und unitre Vektorrume dargestellt.
Danach werden die adjungierten Abbildungen und normalen Endomorphismen be-
handelt. Der fnfteAbschnitt enthlt die Klassikation der orthogonalen und unitren
Endomorphismen eines solchen Vektorraumes.
Nach diesen Vorbereitungen werden im sechsten Abschnitt das Hauptachsen-
theorem und der Trgheitssatz von Sylvester fr Hermitesche und symmetrische
Matrizen bewiesen.
7.1 Skalarprodukte und Hermitesche Formen
Zunchst sei in diesem Paragraphen V ein beliebiger reeller Vektorraum; der Skala-
renkrper F ist also der Krper R der reellen Zahlen.
Weiter sei nun eine Bilinearform von V: Jedem geordneten Paar (x, y) von
Vektoren aus V wird also durch eindeutig eine reelle Zahl (x, y) als Wert zuge-
7.1 Skalarprodukte und Hermitesche Formen 153
ordnet, und es gelten die Linearittseigenschaften
(x
1
+x
2
, y) = (x
1
, y) + (x
2
, y),
(x, y
1
+y
2
) = (x, y
1
) + (x, y
2
),
(xc, y) = (x, y)c = (x, yc)
fr alle x, x
1
, x
2
, y, y
1
, y
2
V und c R.
7.1.1 Denition. Eine Bilinearform von V heit ein skalares Produkt von V, wenn
sie folgende Eigenschaften besitzt:
(a) ist symmetrisch: Fr beliebige Vektoren gilt
(x, y) = (y, x).
(b) ist positiv denit: Fr jeden von o verschiedenen Vektor x gilt
(x, x) > 0.
7.1.2 Bemerkung. Einskalares Produkt ist somit eine positivdenite, symmetrische
Bilinearform von V. Wegen (o, x) = (o0, x) = (o, x)0 = 0 gilt (o, o) = 0.
Wegen (b) folgt aber aus (x, x) = 0 umgekehrt auch x = o. Es ist also (x, x) = 0
gleichwertig mit x = o. Fr jeden Vektor x gilt daher (x, x) 0.
7.1.3 Beispiele.
(a) Es sei {v
1
, . . . , v
n
} eine Basis von V = R
n
. Hinsichtlich dieser Basis ent-
sprechen nach Satz 2.2.18 die Vektoren x, y V umkehrbar eindeutig den
Koordinaten-n-Tupeln (x
1
, . . . , x
n
) bzw. (y
1
, . . . , y
n
). In Denition 3.1.11
wurde durch
(x, y) = x
1
y
1
+ +x
n
y
n
ein skalares Produkt deniert, das dort Skalarprodukt genannt wurde. Da es
die in Denition 7.1.1 geforderten Eigenschaften besitzt, ist die in Kapitel 2
verwendete Bezeichnung gerechtfertigt.
(b) Sei n = 2 und : R
2
R
2
R deniert durch:
(x, y) = 4x
1
y
1
2x
1
y
2
2x
2
y
1
+3x
2
y
2
.
Die Linearittseigenschaften und die Symmetrie von ergeben sich unmittel-
bar. Wegen
(x, x) = (2x
1
x
2
)
2
+2x
2
2
ist auch positiv denit, weil aus (x, x) = 0 zunchst 2x
1
x
2
= 0 und
x
2
= 0, also auch x
1
= 0 folgt.
154 7 Euklidische und unitre Vektorrume
(c) Es sei V ein unendlich-dimensionaler Vektorraum ber R, und B sei eine
Basis von V. Je zwei Vektoren x, y besitzen dann nach Satz 2.3.15 eindeutige
Basisdarstellungen
x =

vB
vx
v
und y =

vB
vy
v
,
wobei jedoch nur hchstens endlich viele der Koordinaten x
v
bzw. y
v
von Null
verschieden sind. In
(x, y) =

vB
x
v
y
v
sind daher ebenfalls nur endlich viele Summanden von Null verschieden, und
wie in (a) wird hierdurch ein skalares Produkt von V deniert.
(d) Es seien a und b zwei reelle Zahlen mit a < b, und V sei der Vektorraum aller
auf demIntervall [a, b] deniertenundstetigenreellenFunktionen. Schlielich
sei h eine stetige reelle Funktion mit h(t ) > 0 fr a t b. Setzt man fr je
zwei Funktionen f, g V
(f, g) =
_
b
a
h(t )f (t )g(t ) dt,
so ist ein skalares Produkt von V. Dies gilt nicht mehr, wenn V sogar aus
allen in [a, b] integrierbaren Funktionen besteht; dann ist nmlich nicht mehr
positiv denit, wie folgendes Beispiel zeigt.
Es sei a = 0, b = 1, h(t ) = 1 fr 0 t 1 und
f (t ) =
_
1 fr t = 0,
0 fr t > 0.
Dann ist (f, f ) =
_
1
0
f (t )f (t ) dt = 0, obwohl f = 0 in V ist.
7.1.4 Denition. Ein reeller Vektorraum V, in dem zustzlich ein skalares Produkt
ausgezeichnet ist, wird ein euklidischer Vektorraum genannt.
7.1.5 Bezeichnung. Da in einem euklidischen Vektorraum das skalare Produkt fest
gegeben ist, kann man auf das unterscheidende Funktionszeichen verzichten. Man
schreibt daher statt (x, y) krzer nur x y oder bisweilen auch (x, y).
Die zweite Bezeichnungsweise ist besonders in den Fllen blich, in denen die
Schreibweise x y zu Verwechslungen fhren kann. Dies gilt z. B. fr Funktio-
nenrume, in denen ja neben dem skalaren Produkt auch noch die gewhnliche
Produktbildung fr Funktionen deniert ist.
7.1 Skalarprodukte und Hermitesche Formen 155
7.1.6 Bemerkung. In einem euklidischen Vektorraum ist das skalare Produkt durch
folgende Eigenschaften gekennzeichnet:
(x
1
+x
2
) y = x
1
y +x
2
y,
(xc) y = (x y)c,
x y = y x,
x x > 0 fr x = o.
Die jeweils zweiten Linearittseigenschaften
x (y
1
+y
2
) = x y
1
+x y
2
und x (yc) = (x y)c
folgen aus den ersten Linearittseigenschaften und aus der Symmetrie; sie brauchen
daher nicht gesondert aufgefhrt zu werden.
Der Begriff des skalaren Produkts kann auch auf Vektorrume ber demKrper C
der komplexen Zahlen bertragen werden. Umhier ebenfalls den Begriff des skalaren
Produkts erklren zu knnen, mu zuvor der Begriff der Bilinearform modiziert
werden. Es sei also jetzt V ein komplexer Vektorraum.
7.1.7 Denition. Unter einer Hermiteschen Form von V versteht man eine Zuord-
nung, die jedemgeordneten Paar (x, y) vonVektoren aus V eindeutig eine komplexe
Zahl (x, y) so zuordnet, da folgende Eigenschaften erfllt sind:
(x
1
+x
2
, y) = (x
1
, y) +(x
2
, y). (1)
(xc, y) = (x, y)c. (2)
(y, x) = (x, y). (3)
Die ersten zwei Forderungen sind die Linearittseigenschaften hinsichtlich des
ersten Arguments. Forderung (3) tritt an die Stelle der Symmetrie bei reellen Bili-
nearformen. Sie besagt, da bei Vertauschung der Argumente der Wert von in die
konjugiert komplexe Zahl bergeht.
7.1.8 Hilfssatz. Fr eine Hermitesche Form gilt:
(x, y
1
+y
2
) = (x, y
1
) +(x, y
2
).
(x, yc) = (x, y) c.
(x, x) ist eine reelle Zahl.
Beweis: Aus (1) und (3) von Denition 7.1.7 folgt
(x, y
1
+y
2
) = (y
1
+y
2
, x) = (y
1
, x) +(y
2
, x) = (x, y
1
) +(x, y
2
).
156 7 Euklidische und unitre Vektorrume
Ebenso ergibt sich aus (2) und (3)
(x, yc) = (yc, x) = (y, x) c = (x, y) c.
Wegen (3) gilt schlielich (x, x) = (x, x), weswegen (x, x) eine reelle Zahl
ist.
7.1.9 Bemerkung. Hinsichtlich der zweiten Linearittseigenschaft und des zweiten
Arguments zeigen also die Hermiteschen Formen ein abweichendes Verhalten: Ein
skalarer Faktor beimzweitenArgument tritt hinter die Formals konjugiert-komplexe
Zahl.
Da bei einer Hermiteschen Form nach demletzten Satz (x, x) stets eine reelle
Zahl ist, kann die Denition von

positiv denit bernommen werden.


7.1.10 Denition. Eine Hermitesche Form heit positiv denit, wenn aus x = o
stets (x, x) > 0 folgt.
7.1.11 Denition. Unter einem skalaren Produkt eines komplexen Vektorraums V
versteht man eine positiv denite Hermitesche Form von V. Ein komplexer Vek-
torraum, in dem ein skalares Produkt ausgezeichnet ist, wird ein unitrer Raum
genannt.
Ebenso wie vorher verzichtet man bei dem skalaren Produkt eines unitren Rau-
mes auf das unterscheidende Funktionszeichen und bezeichnet es wieder mit x y
bzw. (x, y).
7.1.12 Beispiele.
(a) Es sei {v
1
, . . . , v
n
} eine Basis des komplexen Vektorraumes V = C
n
. Je
zwei Vektoren x, y V entsprechen dann komplexe Koordinaten x
1
, . . . , x
n
bzw. y
1
, . . . , y
n
, und durch
x y = x
1
y
1
+ +x
n
y
n
wird ein skalares Produkt deniert. Damit ist V ein unitrer Raum.
(b) Sei n = 2 und V = C
2
. Dann wird durch
x y = 4x
1
y
1
2x
1
y
2
2x
2
y
1
+3x
2
y
2
auf V ein skalares Produkt deniert.
Abschlieend soll nun noch untersucht werden, in welchem Zusammenhang die
euklidischen und die unitren Vektorrume stehen. Trotz der verschiedenartigen De-
nition der skalaren Produkte wird sich nmlich zeigen, da die unitren Rume als
Verallgemeinerung der euklidischen Rume aufgefat werden knnen.
7.1 Skalarprodukte und Hermitesche Formen 157
Es sei V wieder ein reeller Vektorraum. Dieser soll nun zunchst in einen kom-
plexen Raum eingebettet werden: Die Menge Z bestehe aus allen geordneten Paaren
von Vektoren aus V; jedes Element z Z besitzt also die Form z = (x, y) mit
Vektoren x, y V. Ist z

= (x

, y

) ein zweites Element von Z, so gelte


z +z

= (x +x

, y +y

).
Ist ferner a = a
1
+a
2
i eine komplexe Zahl, so werde
za = (xa
1
ya
2
, ya
1
+xa
2
) ()
gesetzt. Man berzeugt sich nun unmittelbar davon, da Z hinsichtlich der so de-
nierten Operationen ein komplexer Vektorraum mit dem Paar (o, o) als Nullvektor
ist. In ihn kann der Vektorraum V in folgendem Sinn eingebettet werden: Jedem
Vektor x V werde als Bild das Paar x = (x, o) aus Z zugeordnet. Dann gilt
(x
1
+x
2
) = (x
1
+x
2
, o) = (x
1
, o) +(x
2
, o) = x
1
+x
2
.
Ist auerdem c eine reelle Zahl, so kann man sie auch als komplexe Zahl c = c +0i
auffassen und erhlt wegen ()
(xc) = (xc, o) = (x, o)c = (x)c.
Da auerdem injektiv ist, wird der VektorraumV durch isomorph in Z eingebet-
tet, und man kann einfacher die Paare (x, o) direkt mit den entsprechenden Vektoren
x V identizieren. Wegen (y, o)i = (o, y) gilt im Sinn dieser Identikation
(x, y) = x +yi.
7.1.13 Denition. Der komplexe Vektorraum Z = {(x, y) | x, y V} heit die
komplexe Erweiterung des reellen Vektorraums V.
7.1.14 Satz. Es sei : V V

eine lineare Abbildung zwischen den reellen Vek-


torrumen V und V

. Ferner seien Z und Z

die komplexen Erweiterungen von V


und V

. Dann kann auf genau eine Weise zu einer linearen Abbildung : Z Z

fortgesetzt werden, d. h. es gilt x = x fr alle x V.


Beweis: Wenn eine solche Fortsetzung ist, mu fr jeden Vektor z = x +yi aus
Z gelten
(z) = (x +yi) = (x) + (yi) = (x) +(y)i.
ist somit durch eindeutig bestimmt. Umgekehrt wird durch die ueren Seiten
dieser Gleichung auch eine Fortsetzung der behaupteten Art deniert.
158 7 Euklidische und unitre Vektorrume
7.1.15 Denition. Ist : V V

eine lineare Abbildung zwischen den reellen


Vektorrumen V und V

mit den komplexen Erweiterungen Z und Z

, dann heit die


nach Satz 7.1.14 eindeutig bestimmte lineare Abbildung : Z Z

die komplexe
Fortsetzung von .
7.1.16 Denition. In V sei nun ein skalares Produkt gegeben, das wie oben mit
x y bezeichnet werden soll. Auerdem sei ein skalares Produkt der komplexen
Erweiterung Z von V. Man nennt dann eine Fortsetzung des skalaren Produkts
von V auf Z, wenn (x
1
, x
2
) = x
1
x
2
fr alle Vektoren x
1
, x
2
V ist.
7.1.17 Satz. Jedes in V gegebene skalare Produkt kann auf genau eine Weise auf
die komplexe Erweiterung Z von V fortgesetzt werden.
Beweis: Es sei eine solche Fortsetzung. Da sich Vektoren z, z

Z eindeutig in
der Form
z = x +yi bzw. z

= x

+y

i mit x, y, x

, y

V
darstellen lassen, erhlt man
(z, z

) = (x +yi, x

+y

i) = (x, x

) +(y, x

)i (x, y

)i +(y, y

)
und wegen (x, x

) = x x

usw.
(z, z

) = (x x

+y y

) +(y x

x y

)i.
Daher ist durch das in V gegebene skalare Produkt eindeutig bestimmt. Ande-
rerseits rechnet man unmittelbar nach, da durch die letzte Gleichung umgekehrt
ein skalares Produkt von Z deniert wird, das tatschlich eine Fortsetzung des
skalaren Produkts von V ist.
7.1.18 Bemerkung. Dieser Satz besagt, da sich jeder euklidische Raum in einen
unitren Raum einbetten lt. Stze ber skalare Produkte brauchen daher im allge-
meinen nur fr unitre Rume bewiesen zu werden und knnen auf den reellen Fall
bertragen werden.
7.2 Betrag und Orthogonalitt
In diesem Paragraphen ist V stets ein euklidischer oder unitrer Vektorraum. Das
skalare Produkt zweier Vektoren x, y V wird wieder mit x y bezeichnet.
7.2.1 Satz (Schwarzsche Ungleichung). Fr je zwei Vektoren x, y V gilt
|x y|
2
(x x)(y y).
7.2 Betrag und Orthogonalitt 159
Das Gleichheitszeichen gilt genau dann, wenn die Vektoren x und y linear abhngig
sind.
Beweis: Im Fall y = o gilt x y = y y = 0, und die behauptete Beziehung ist
mit dem Gleichheitszeichen erfllt. Es kann daher weiter y = o und damit auch
y y > 0 vorausgesetzt werden. Fr einen beliebigen Skalar c gilt dann
0 (x yc) (x yc) = x x (y x)c (x y) c +(y y)c c
= x x (x y)c (x y) c +(y y)c c.
Setzt man hier
c =
x y
y y
, also c =
x y
y y
,
ein, so erhlt man nach Multiplikation mit y y wegen y y > 0
0 (x x)(y y) (x y)(x y) = (x x)(y y) |x y|
2
und hieraus weiter die behauptete Ungleichung. Das Gleichheitszeichen gilt jetzt
genau dann, wenn x yc = o erfllt ist. Zusammen mit dem Fall y = o ergibt dies
die zweite Behauptung.
7.2.2 Denition. Fr jeden Vektor x V gilt x x 0. Daher ist
|x| =

x x
eine nicht-negative reelle Zahl, die man die Lnge oder den Betrag desVektors x V
nennt.
7.2.3 Bemerkung. Man beachte jedoch, da die Lnge eines Vektors noch von dem
skalaren Produkt abhngt. Im allgemeinen kann man in einemVektorraum verschie-
dene skalare Produkte denieren, hinsichtlich derer dann ein Vektor auch verschie-
dene Lngen besitzen kann.
7.2.4 Satz. Die Lnge besitzt folgende Eigenschaften:
(a) |x| 0.
(b) |x| = 0 ist gleichwertig mit x = o.
(c) |xc| = |x| |c|.
(d) |x +y| |x| +|y|. (Dreiecksungleichung)
160 7 Euklidische und unitre Vektorrume
Beweis: Unmittelbar aus der Denition folgt (a). Weiter gilt (b), weil |x| = 0 gleich-
wertig mit x x = 0, dies aber wieder gleichwertig mit x = o ist. Eigenschaft (c)
ergibt sich wegen
|xc| =
_
(xc) (xc) =

x x

c c = |x||c|.
Schlielich erhlt man zunchst
|x +y|
2
= (x +y) (x +y) = x x +x y +y x +y y
= x x +x y +x y +y y
= |x|
2
+2 Re(x y) +|y|
2
.
Nun gilt aber Re(x y) |x y|, und aus Satz 7.2.1 folgt durch Wurzelziehen
|x y| |x||y|. Somit ergibt sich weiter
|x +y|
2
|x|
2
+2|x||y| +|y|
2
= (|x| +|y|)
2
und damit (d).
7.2.5 Bemerkung. Ersetzt man in der Dreiecksungleichung (d) aus Satz 7.2.4 einer-
seits x durch xy und andererseits y durch yx und beachtet man |xy| = |yx|,
so erhlt man zusammen die Ungleichung

|x| |y|

|x y|.
7.2.6 Satz. |x +y| = |x| +|y| ist gleichwertig damit, da y = o oder x = yc mit
einem reellem c 0 gilt.
Beweis: Aus dem Beweis der Dreiecksungleichung folgt unmittelbar, da in ihr das
Gleichheitszeichen genau dann gilt, wenn Re(x y) = |x||y| erfllt ist. Wegen
Re(x y) |x y| |x||y| folgt aus dieser Gleichung auch |x y| = |x||y| und
daher nach Satz 7.2.1 die lineare Abhngigkeit der Vektoren x und y. Setzt man
y = o voraus, so mu x = yc und weiter
|y|
2
(Re c) = Re(yc y) = Re(x y) = |x||y| = |y|
2
|c|,
also Re c = |c| gelten. Dies ist aber nur fr reelles c 0 mglich. Gilt umgekehrt
x = yc mit einer reellen Zahl c 0 oder y = o, so erhlt man durch Einsetzen
sofort Re(x y) = |x||y|.
7.2.7 Denition. Ein Vektor x heit normiert, wenn |x| = 1 gilt.
7.2.8 Bemerkung. Ist x vom Nullvektor verschieden, so ist x
1
|x|
ein normierter
Vektor.
7.2 Betrag und Orthogonalitt 161
7.2.9 Denition. Fr zwei vomNullvektor verschiedeneVektorenx, y deniert man
den Kosinus des Winkels zwischen diesen Vektoren durch
cos(x, y) =
x y
|x||y|
. ()
7.2.10 Bemerkung. Wegen Satz 7.2.1 gilt |x y| |x||y|. Fr jedes Paar x, y von
Vektoren eines euklidischen (reellen) Vektorraums folgt daher 1 cos(x, y)
+1. Durch () wird daher tatschlich der Kosinus eines reellen Winkels deniert.
Multiplikation von () mit dem Nenner liefert
x y = |x||y| cos(x, y).
Ausrechnung des skalaren Produkts (x y) (x y) und Ersetzung von x y durch
den vorangehenden Ausdruck ergibt im reellen Fall die Gleichung
|x y|
2
= |x|
2
+|y|
2
2|x||y| cos(x, y).
Dies ist der bekannte Kosinussatz fr Dreiecke: Zwei Seiten des Dreiecks werden
durch die Vektoren x und y reprsentiert. Die Lnge der dem Winkel zwischen x
und y gegenberliegenden Seite ist dann gerade |x y|. Im Fall eines rechtwinkli-
gen Dreiecks gilt cos(x, y) = 0, und der Kosinussatz geht in den Pythagorischen
Lehrsatz ber.
Der wichtige Spezialfall, da x und y einen rechten Winkel einschlieen, ist
offenbar gleichwertig mit x y = 0.
7.2.11 Denition. Zwei Vektoren x, y eines euklidischen bzw. unitren Vektor-
raums V heien orthogonal, wenn x y = 0 gilt.
Eine nicht-leere Teilmenge M von V heit ein Orthogonalsystem, wenn o M
gilt und wenn je zwei verschiedene Vektoren aus M orthogonal sind.
Ein Orthogonalsystem, das aus lauter normierten Vektoren besteht, wird ein Or-
thonormalsystem genannt.
Unter einer Orthonormalbasis von V versteht man ein Orthonormalsystem, das
gleichzeitig eine Basis von V ist.
7.2.12 Satz. Jedes Orthogonalsystem ist linear unabhngig.
Beweis: Es sei M ein Orthogonalsystem, und fr die paarweise verschiedenen Vek-
toren v
1
, . . . , v
n
M gelte v
1
c
1
+ + v
n
c
n
= o. Fr jeden festen Index k mit
1 k n folgt hieraus
(v
1
v
k
)c
1
+ +(v
k
v
k
)c
k
+ +(v
n
v
k
)c
n
= o v
k
= 0.
Wegen v
i
v
k
= 0 fr i = k erhlt man weiter (v
k
v
k
)c
k
= 0 und wegen v
k
= o,
also v
k
v
k
> 0, schlielich c
k
= 0.
162 7 Euklidische und unitre Vektorrume
7.2.13 Satz. Es sei {e
1
, . . . , e
n
} eine Orthonormalbasis von V. Sind dann x
1
, . . . , x
n
bzw. y
1
, . . . , y
n
die Koordinaten der Vektoren x und y bezglich dieser Basis, so gilt
x y = x
1
y
1
+ +x
n
y
n
und fr die Koordinaten selbst x
i
= x e
i
fr i = 1, . . . , n.
Beweis: Sicherlich gilt e
i
e
j
=
i,j
wobei

i,j
=
_
1 falls i = j,
0 falls i = j
das Kronecker-Symbol ist. Hierdurch erhlt man
x y =
_
n

i=1
e
i
x
i
_

_
n

j=1
e
j
y
j
_
=
n

i,j=1
(e
i
e
j
)x
i
y
j
=
n

i=1
x
i
y
i
und
x e
i
=
_
n

j=1
e
j
x
j
_
e
i
=
n

j=1
x
j

j,i
= x
i
.

7.2.14 Bemerkungen.
(a) Dieser Satz gilt sinngem auch bei unendlicher Dimension und kann dann
ebenso bewiesen werden.
(b) Ist V ein reeller Vektorraum, so entfllt in Satz 7.2.13 die komplexe Konjuga-
tion, d. h. x y = x
1
y
1
+x
2
y
2
+ +x
n
y
n
.
(c) Jede Basis B = {v
1
, v
2
, . . . , v
n
} eines euklidischen oder unitrenVektorraums
kann als Orthonormalbasis von V bzgl. eines neuen skalaren Produkts x y =
x
1
y
1
+ x
2
y
2
+ + x
n
y
n
fr x =

n
i=1
v
i
x
i
und y =

n
i=1
v
i
y
i
V
angesehen werden.
(d) Imfolgenden wird bei den arithmetischenVektorrumen R
n
und C
n
die jewei-
lige kanonische Basis B = {e
1
, e
2
, . . . , e
n
} als Orthonormalbasis gewhlt.
7.2.15 Beispiele.
(a) Fr je zwei Vektoren x = (x
1
, x
2
) und y = (y
1
, y
2
) des reellen arithmetischen
Vektorraums R
2
sei ein vom gewhnlichen skalaren Produkt abweichendes
skalares Produkt durch
x y = 4x
1
y
1
2x
1
y
2
2x
2
y
1
+3x
2
y
2
7.2 Betrag und Orthogonalitt 163
deniert. Dann bilden die Vektoren
e

1
=
_
1
2
, 0
_
und e

2
=
_
1
2

2
,
1

2
_
eine Orthonormalbasis. Es gilt nmlich
e

1
e

1
= 4
1
2

1
2
= 1,
e

1
e

2
= 4
1
2

1
2

2
2
1
2

1

2
= 0,
e

2
e

2
=4
1
2

2

1
2

2
2
1
2

2

1

2
2
1

2

1
2

2
+3
1

2

1

2
=1.
Zwischen den Koordinaten x
1
, x
2
hinsichtlich der kanonischen Basis e
1
=
(1, 0), e
2
= (0, 1) und den Koordinaten x

1
, x

2
hinsichtlich {e

1
, e

2
} besteht
wegen
e

1
=
1
2
e
1
,
e

2
=
1
2

2
e
1
+
1

2
e
2
die Beziehung
x
1
=
1
2
x

1
+
1
2

2
x

2
, x
2
=
1

2
x

2
.
Einsetzen dieser Werte liefert in der Tat
xy = 4
_
1
2
x

1
+
1
2

2
x

2
__
1
2
y

1
+
1
2

2
y

2
_
2
_
1
2
x

1
+
1
2

2
x

2
__
1

2
y

2
_
2
_
1

2
x

2
__
1
2
y

1
+
1
2

2
y

2
_
+3
_
1

2
x

2
__
1

2
y

2
_
= x

1
y

1
+x

2
y

2
.
(b) IndemVektorraumaller indemIntervall [, +] stetigenreellenFunktionen
wird durch
(f, g) =
1

_
+

f (t )g(t ) dt
ein skalares Produkt deniert. Hinsichtlich dieses skalaren Produkts bilden die
Funktionen
1

2
, cos(nt ), sin(nt ) (n = 1, 2, 3, . . . )
ein unendliches Orthonormalsystem (vgl. Aufgabe 7.4).
164 7 Euklidische und unitre Vektorrume
7.3 Orthonormalisierungsverfahren
In diesem Paragraphen sei V stets ein euklidischer oder unitrer Vektorraum endli-
cher oder hchstens abzhlbar-unendlicher Dimension. Dabei ist V von abzhlbar
unendlicher Dimension, wenn dimV = ist und V eine Basis B besitzt, die bi-
jektiv auf die Menge N aller natrlichen Zahlen abgebildet werden kann. Hierfr ist
V = F[X], der Raum aller Polynome mit Koefzienten aus einem Krper F, ein
Beispiel. Da sich die Ergebnisse im allgemeinen nicht auf Rume mit Basen h-
herer Mchtigkeit bertragen lassen, wird ebenfalls durch geeignete Gegenbeispiele
gezeigt.
7.3.1 Satz (Gram-Schmidtsches Orthonormalisierungsverfahren). Zu jedem endli-
chen oder hchstens abzhlbar-unendlichen System {a
1
, a
2
, . . . } linear unabhn-
giger Vektoren des euklidischen oder unitren Vektorraums V gibt es genau ein
entsprechendes Orthonormalsystem {b
1
, b
2
, . . . } mit folgenden Eigenschaften:
(a) Fr k = 1, 2, . . . erzeugen die Vektoren a
1
, . . . , a
k
und b
1
, . . . , b
k
denselben
Unterraum U
k
von V.
(b) Die zu der Basistransformation {a
1
, . . . , a
k
} {b
1
, . . . , b
k
} von U
k
geh-
rende Transformationsmatrix P
k
besitzt eine positive Determinante D
k
=
det(P
k
) > 0 fr k = 1, 2, . . . .
Beweis: Die Vektoren b
1
, b
2
, . . . werden induktiv deniert. Bei einem endlichen
System {a
1
, . . . , a
m
} bricht das Verfahren nach m Schritten ab.
Wegender vorausgesetztenlinearenUnabhngigkeit gilt a
1
= o, undb
1
= a
1
1
|a
1
|
ist ein normierter Vektor. Die Vektoren a
1
und b
1
erzeugen denselben UnterraumU
1
,
und es gilt D
1
=
1
|a
1
|
> 0. Ist umgekehrt b

1
einVektor mit |b

1
| = 1, der ebenfalls U
1
erzeugt, so gilt b

1
= a
1
c. Und da jetzt c die Determinante der Transformationsmatrix
ist, mu bei Gltigkeit von (b) auerdem c > 0 gelten. Man erhlt
1 = b

1
b

1
= (a
1
a
1
)(c c) = |a
1
|
2
|c|
2
.
Wegen c > 0 folgt hieraus c = 1/|a
1
|, also b

1
= b
1
. Somit ist b
1
auch eindeutig
bestimmt.
Es seien jetzt bereits die Vektoren b
1
, . . . , b
n
so konstruiert, da (a) und (b) fr
k = 1, . . . , n erfllt sind. Dann werde zunchst
c
n+1
= a
n+1

i=1
b
i
(a
n+1
b
i
)
gesetzt. Bei Bercksichtigung der Induktionsvoraussetzung ergibt sich
U
n+1
= a
1
, . . . , a
n
, a
n+1
= b
1
, . . . , b
n
, a
n+1
= b
1
, . . . , b
n
, c
n+1

7.3 Orthonormalisierungsverfahren 165


und dimU
n+1
= n+1. Daher sind die Vektoren b
1
, . . . , b
n
, c
n+1
linear unabhngig
und erzeugen denselben Unterraum wie die Vektoren b
1
, . . . , b
n
, a
n+1
, nmlich
U
n+1
. Insbesondere gilt c
n+1
= o. Wegen b
i
b
j
=
i,j
, wobei
i,j
das Kronecker-
Symbol ist, ergibt sich auerdem fr j = 1, . . . , n
c
n+1
b
j
= a
n+1
b
j

n

i=1

i,j
(a
n+1
b
i
) = a
n+1
b
j
a
n+1
b
j
= 0.
Setzt man daher
b
n+1
=
1
|c
n+1
|
c
n+1
,
so bilden die Vektoren b
1
, . . . , b
n+1
ein Orthonormalsystem mit der Eigenschaft (a)
fr k = 1, . . . , n+1. Die Transformation P
n+1
der a
i
in die b
i
ist die Dreiecksmatrix
P
n+1
= (a
ij
), deren Koefzienten wie folgt bestimmt sind
b
1
= a
1
a
1,1
b
2
= a
1
a
2,1
+a
2
a
2,2
.
.
.
b
n
= a
1
a
n,1
+ +a
n
a
n,n
b
n+1
= a
1
a
n+1,1
+ +a
n+1
1
|c
n+1
|
.
Aus Satz 5.4.5 folgen D
n
= det P
n
= a
1,1
. . . a
n,n
und D
n+1
= det(P
n+1
) =
D
n
1
|c
n+1
|
. Nach Induktionsannahme ist D
n
> 0. Daher gilt die Behauptung (2).
Ist umgekehrt b

n+1
ein Vektor, fr den {b
1
, . . . , b
n
, b

n+1
} ebenfalls ein Ortho-
normalsystem mit den Eigenschaften (a) und (b) ist, so mu wegen (a) und (b)
b

n+1
=
n

i=1
b
i
a
i
+b
n+1
c
mit c > 0 gelten. Wegen b

n+1
b
s
= 0 fr s = 1, . . . , n folgt nun b

n+1
= b
n+1
c.
Daher ist c = |b

n+1
|c = |b
n+1
| = 1. Somit gilt b

n+1
= b
n+1
.
7.3.2 Satz. Der euklidische oder unitre Vektorraum V besitze endliche oder hch-
stens abzhlbar-unendliche Dimension. Dann kann jede Orthonormalbasis eines
endlich-dimensionalen Unterraums U von V zu einer Orthonormalbasis von V er-
gnzt werden. Insbesondere besitzt V selbst eine Orthonormalbasis.
Beweis: Es sei U ein n-dimensionaler Unterraum von V, und {b
1
, . . . , b
n
} sei
eine Orthonormalbasis von U. (Im Fall n = 0 ist die Orthonormalbasis durch
166 7 Euklidische und unitre Vektorrume
die leere Menge zu ersetzen.) Diese Basis kann nach Satz 2.2.15 zu einer Basis
{b
1
, . . . , b
n
, a
n+1
, a
n+2
, . . . } von V ergnzt werden. Wendet man auf sie das Gram-
Schmidtsche Orthonormalisierungsverfahren an, so bleiben dieVektoren b
1
, . . . , b
n
erhalten, und man gewinnt eine Orthonormalbasis {b
1
, . . . , b
n
, b
n+1
, . . . } von V.
Der Fall U = {o} liefert die Existenz einer Orthonormalbasis von V.
7.3.3 Beispiele.
(a) In demreellen arithmetischenVektorraumR
4
sei das skalare Produkt je zweier
Vektoren x = (x
1
, . . . , x
4
) und y = (y
1
, . . . , y
4
) durch x y = x
1
y
1
+ +
x
4
y
4
deniert. Das Orthonormalisierungsverfahren werde auf die Vektoren
a
1
= (4, 2, 2, 1), a
2
= (2, 2, 4, 5), a
3
= (0, 8, 2, 5)
angewandt. Man erhlt:
b
1
=
1
|a
1
|
a
1
=
1
5
(4, 2, 2, 1).
c
2
= a
2
b
1
(a
2
b
1
) = (2, 2, 4, 5) (4, 2, 2, 1)
25
5

1
5
= (2, 0, 2, 4),
b
2
= (2, 0, 2, 4)
1

24
.
c
3
= a
3
b
1
(a
3
b
1
) b
2
(a
3
b
2
)
= (0, 8, 2, 5) (4, 2, 2, 1)
25
5

1
5
(2, 0, 2, 4)
24

24

1

24
= (2, 6, 2, 0),
b
3
= (2, 6, 2, 0)
1

44
.
(b) In dem reellen Vektorraum aller in [0, 1] stetigen reellen Funktionen sei das
skalare Produkt durch
(f, g) =
_
1
0
f (t )g(t ) dt
deniert. Das Orthonormalisierungsverfahren soll auf die Polynome 1 = t
0
,
t , t
2
, . . . angewandt werden. Die Funktionen des entstehenden Orthonormal-
systems sollen hier mit e
0
, e
1
, e
2
, . . . bezeichnet werden. Die ersten Schritte
7.3 Orthonormalisierungsverfahren 167
lauten:
(1, 1) =
_
1
0
dt = 1, also e
0
(t ) = 1.
(t, e
0
) =
_
1
0
t dt =
1
2
,
e

1
(t ) = t (t, e
0
)e
0
(t ) = t
1
2
;
(e

1
, e

1
) =
_
1
0
_
t
1
2
_
2
dt =
1
12
, also e
1
(t ) =

12
_
t
1
2
_
.
(t
2
, e
0
) =
_
1
0
t
2
dt =
1
3
,
(t
2
, e
1
) =

12
_
1
0
t
2
_
t
1
2
_
dt =
1

12
,
e

2
(t ) = t
2
(t
2
, e
0
)e
0
(t ) (t
2
, e
1
)e
1
(t )
= t
2

1
3

_
t
1
2
_
= t
2
t +
1
6
;
(e

2
, e

2
) =
_
1
0
_
t
2
t +
1
6
_
2
dt =
1
180
, also e
2
(t ) = 6

5
_
t
2
t +
1
6
_
.
7.3.4 Denition. Zwei Teilmengen M und N des euklidischen oder unitren Vek-
torraumes V heien orthogonal, wenn x y = 0 fr alle Vektoren x M und y N
erfllt ist, wenn also alle Vektoren aus M auf allen Vektoren aus N senkrecht stehen.
Bezeichnung: M N.
Wenn hierbei z. B. die Menge M aus nur einem Vektor x besteht, wird statt
{x} N einfacher x N geschrieben. Die leere Menge und der Nullraum sind zu
jeder Teilmenge von V orthogonal.
7.3.5 Denition. Sei M eine Teilmenge des euklidischen oder unitren Vektorrau-
mes V. Dann heit M

= {v V | v M} = {v V | m v = o fr alle m M}
das orthogonale Komplement von M in V.
7.3.6 Bemerkung. Das orthogonale Komplement M

einer Teilmenge M des Vek-


torraums V ist ein Unterraum von V; denn M

ist abgeschlossen gegenber den


linearen Operationen.
7.3.7 Satz. Sei U ein r-dimensionaler Unterraumdes n-dimensionalen euklidischen
oder unitren Vektorraumes V. Dann gelten:
168 7 Euklidische und unitre Vektorrume
(a) Das orthogonale Komplement U

von U ist ein (n r)-dimensionaler Un-


terraum von V.
(b) U

= {v V | a v = 0 fr alle a U

} = U.
(c) V = U U

.
Beweis: (a) Nach Satz 7.3.2 besitzt U eine Orthonormalbasis B = {v
1
, v
2
, . . . , v
r
},
die sich zu einer Orthonormalbasis C = {v
1
, v
2
, . . . , v
r
, v
r+1
, . . . , v
n
} von V ergn-
zen lt. Also gehren die nr linear unabhngigenVektoren v
r+1
, v
r+2
, . . . , v
n
zu
U

. Daher ist dimU

n r. Sei u ein Element von U

U. Dann ist u u = 0.
Nach Bemerkung 7.1.2 folgt u = o. Daher ist U U

= {o}. Aus dem Dimensions-


satz 2.2.16 folgt dimU

n dimU = n r. Deshalb ist V = U U

, womit
(a) und (c) bewiesen sind.
(b) Nach Denition von U

gilt u v = 0 fr alle v U

und alle u U. Also


ist U U

. Wegen (a) gilt dann dim(U

) = n dimU

= n (n r) = r.
Daher ist U = U

nach Folgerung 2.2.14.


7.3.8 Bemerkung. Satz 7.3.7lt sichnicht auf unendlich-dimensionale euklidische
oder unitre Vektorrume verallgemeinern, wie folgendes Beispiel zeigt:
Es sei V der reelle Vektorraumaller in [0, 1] stetigen reellen Funktionen mit dem
skalaren Produkt
(f, g) =
_
1
0
f (t )g(t ) dt.
Der Unterraum U aller Polynome besitzt abzhlbar-unendliche Dimension. Daher
existiert nach Satz 7.3.2 eine Orthonormalbasis von U. Es sei nun f eine von der
Nullfunktion verschiedene Funktion aus V. Dann gilt (f, f ) = a > 0 und |f (t )| < b
fr alle t [0, 1]. Nach dem Approximationssatz von Weierstrass kann f in [0, 1]
gleichmig durch Polynome approximiert werden, vgl. A. Ostrowski, [19], S. 170.
Es gibt also ein Polynom g U mit |f (t ) g(t )| <
a
2b
fr alle t [0, 1], und man
erhlt
(f, g) =
_
1
0
f (t )[f (t ) (f (t ) g(t ))] dt

_
1
0
f
2
(t )dt
_
1
0
|f (t )||f (t ) g(t )| dt
(f, f ) b
a
2b
=
a
2
> 0.
Daher ist auer der Nullfunktion keine Funktion aus V zu U orthogonal; d. h. U

ist der Nullraum und (U

der ganze Raum V. Satz 7.3.7 gilt somit nicht mehr fr


unendlich-dimensionale Unterrume.
7.4 Adjungierte Abbildungen und normale Endomorphismen 169
Ebenso gilt auch Satz 7.3.2 nicht fr euklidische oder unitre Vektorrume mit
berabzhlbarer Dimension, weil eine Orthonormalbasis von U nicht zu einer Or-
thonormalbasis von V erweitert werden kann.
7.4 Adjungierte Abbildungen und normale Endomorphismen
7.4.1 Denition. Es seien V und W zwei euklidische oder unitre Rume. Sei
eine lineare Abbildung von V in W. Eine lineare Abbildung

: W V heit eine
zu adjungierte Abbildung, wenn fr alle Vektoren x V und y W
x y = x

y
(und damit auch y x =

y x) gilt.
Ein Endomorphismus des euklidischen oder unitren Vektorraums V heit
selbstadjungiert, wenn ein adjungierter Endomorphismus

existiert und =

gilt.
Ein Endomorphismus von V heit anti-selbstadjungiert, wenn ein adjungierter
Endomorphismus

existiert und =

gilt.
7.4.2 Bemerkungen.
(a) Im allgemeinen braucht es zu einer linearen Abbildung : V W keine
adjungierte Abbildung zu geben, wie folgendes Beispiel zeigt.
Wie in Bemerkung 7.3.8 sei V der reelle Vektorraum aller stetigen reellen
Funktionen f : [0, 1] R mit dem Skalarprodukt
(f, g) =
_
1
0
f (t )g(t ) dt, f, g V.
Der Unterraum U aller polynomialen Funktionen
p(t ) = p
0
+p
1
t +p
2
t
2
+ +p
n
t
n
, p
i
R, n < ,
besitzt abzhlbare Dimension. Daher besitzt U nach Satz 7.3.2 eine Ortho-
normalbasis B = {p
1
(t ), p
2
(t ), . . . }. Sei = id
U
die Identitt von U, d. h.
(u) = u fr alle u U. Dann ist Hom
R
(U, V). Angenommen, die ad-
jungierte Abbildung

von existierte. Dann wre

Hom
R
(V, U). Da die
Exponentialfunktione
t
V ist, gilt

(e
t
) = p
1
(t )r
1
+p
2
(t )r
2
+ +p
m
(t )r
m
mit endlich vielen eindeutig bestimmten reellen Zahlen r
i
; denn B ist eine Ba-
sis von U.
Sei f (t ) = e
t

m
i=1
p
i
(t )(e
t
, p
i
(t )). Wegen
(e
t
, p
j
(t )) = (e
t
, p
j
(t )) = (

(e
t
), p
j
(t )) =
__
m

k=1
p
k
(t )r
k
_
, p
j
(t )
_
= 0
170 7 Euklidische und unitre Vektorrume
fr alle j = m + 1, m + 2, . . . folgte dann, da f (t ) U

wre. Nach
Bemerkung 7.3.8 ist U

= {o}, d. h. f (t ) = 0 und e
t
U. Dies ist ein Wider-
spruch, denn e
t
ist keine polynomiale Funktion. Daher hat keine adjungierte
Abbildung.
(b) Wenn jedoch zu eine adjungierte Abbildung

existiert, so ist sie auch


eindeutig bestimmt: Ist nmlich

ebenfalls eine zu adjungierte Abbildung,


so gilt
x (

y) = x

y x

y = x y x y = 0
fr jeden Vektor x V. Wre x =

y = 0 fr ein y W, dann
wre x x = 0 im Widerspruch zu Denitionen 7.1.4 und 7.1.11. Also ist

y =

y fr jeden Vektor y W und damit

.
7.4.3 Hilfssatz. Wenn V endliche Dimension besitzt, existiert zu jeder linearen Ab-
bildung : V W die adjungierte Abbildung

. Ist {e
1
, . . . , e
n
} eine Orthonor-
malbasis von V, so gilt

y =
n

i=1
e
i
(y e
i
) fr alle y W.
Beweis: Wegen Satz 7.3.2 besitzt V eine Orthonormalbasis {e
1
, . . . , e
n
}. Fr jeden
Vektor x V gilt dann x =

n
i=1
e
i
(x e
i
). Denn aus x = e
1
x
1
+e
2
x
2
+ +e
n
x
n
folgt x e
i
= x
i
nach Satz 7.2.13. Deniert man nun die Abbildung durch y =

n
i=1
e
i
(y e
i
) fr alle y W, so ist wegen der Linearittseigenschaften des
skalaren Produkts jedenfalls eine lineare Abbildung. Wegen
x y =
n

i=1
(e
i
y)x
i
=
n

i=1
(y e
i
)x
i
=
n

i=1
x
i
(y e
i
)
=
n

i=1
(x e
i
)(y e
i
) =
n

i=1
x [e
i
(y e
i
)] = x y
ist die zu adjungierte Abbildung

nach Denition 7.4.1 und Bemerkung


7.4.2 (b).
7.4.4 Denition. Sei A = (a
ij
) eine komplexe mn-Matrix. Dann heit

A = ( a
ij
)
die zu Akonjugiert komplexe Matrix und A

= (

A)
T
die zu Aadjungierte Matrix.
7.4.5 Bemerkung. Die adjungierte A

einer reellen m n-Matrix A ist die trans-


ponierte Matrix A
T
von A, weil a
ij
= a
ij
fr alle Koefzienten a
ij
von Agilt.
7.4 Adjungierte Abbildungen und normale Endomorphismen 171
7.4.6 Satz. Es seien V und W endlich-dimensional. Ferner sei B = {e
1
, . . . , e
n
}
eine Orthonormalbasis von V und B

= {f
1
, . . . , f
r
} eine Orthonormalbasis von
W. Fr die Matrizen der linearen Abbildung : V W und ihrer adjungierten
Abbildung

bezglich dieser Basen gilt:


A

(B

, B) = (A

(B, B

))

.
Beweis: Die Koefzienten der Matrix A

(B, B

) = A = (a
ij
) sind nach Deniti-
on 3.3.1 durch die Gleichungen
e
j
=
r

i=1
f
i
a
ij
(j = 1, . . . , n)
bestimmt. Aus ihnen folgt a
ij
= e
j
f
i
fr j = 1, . . . , n und i = 1, . . . , r, weil
B

= {f
1
, . . . , f
r
} eine Orthonormalbasis ist. Bezeichnet man die

zugeordnete
Matrix mit B = (b
ji
), so gilt entsprechend

f
i
=
n

j=1
e
j
b
ji
(i = 1, . . . , r)
und b
ji
=

f
i
e
j
fr i = 1, . . . , r und j = 1, . . . , n. Hieraus folgt
b
ji
=

f
i
e
j
= e
j

f
i
= e
j
f
i
= a
ij
und somit B =

A
T
= A

.
7.4.7 Hilfssatz. Fr lineare Abbildungen , , deren adjungierte Abbildungen

existieren, gelten die folgenden Gleichungen:


(a) (

= .
(b) ( +)

.
(c) ( c)

c.
(d) ()

.
(e) Ist ein Endomorphismus eines endlich-dimensionalen Vektorraums V, dann
gilt
det(

) = det().
Fr komplexe bzw. reelle nn-Matrizen gelten die zu (a) bis (e) analogen Aussagen
entsprechend.
172 7 Euklidische und unitre Vektorrume
Beweis: (a) Es gilt x y = x

y = (

x y, fr alle x, y V. Also ist


(x (

x) y = 0 fr alle y V. Daher ist

x = (

x fr alle x V,
woraus (

= folgt.
(b) x(+)

y = (+)xy = xy+xy = x

y+x

y = x(

)y
fr alle x, y V. Hieraus folgt ( +)

.
(c) x ( c)

y = ( c)x y = (x y)c = (x

y)c = x (

c)y fr alle
x, y V. Also gilt (c)

c.
(d) x ()

y = ()x y = x

y = x

y fr alle x, y V.
(e) Sei B eine Basis des endlich-dimensionalen Vektorraums V und A =
A

(B, B) die Matrix des Endomorphismus von V bezglich B. Nach Deni-


tion 5.3.4 ist det(A) =

S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
. Da die komplexe
Konjugation ein Automorphismus von C ist, folgt
det(A) =

S
n
(sign ) a
1,(1)
a
2,(2)
. . . a
n,(n)
= det(

A).
Nach Satz 5.4.1(a) ist det(

A) = det(

A
T
) = det(A

). Insbesondere gilt det(

) =
det(). Die Behauptung folgt nun unmittelbar aus Satz 7.4.6.
7.4.8 Denition. Ein Endomorphismus eines unitren oder euklidischen Raumes
V heit normal, wenn der zu ihm adjungierte Endomorphismus

existiert und mit


vertauschbar ist, d. h.

.
7.4.9 Satz. Ein Endomorphismus eines unitren oder euklidischen Raumes V ist
genau dann normal, wenn sein adjungierter Endomorphismus

existiert und wenn


fr alle Vektoren x, y V gilt
x y =

y.
Beweis: Aus

folgt nach Denition 7.4.1, da


x y = x

(y) = x (

y) =

y.
Umgekehrt gelte x y =

y fr alle Vektoren x, y V. Man erhlt


((

x)) y =

y = x y = (

(x)) y,
also ((

)x (

)x) y = 0. Da diese Gleichung bei festem x fr alle Vektoren


y V gilt, folgt (

)x = (

)x nach Satz 7.3.7. Und da dies fr beliebige


Vektoren x V gilt, ergibt sich schlielich

.
7.4.10 Hilfssatz. Fr einen normalen Endomorphismus gilt Ker = Ker

.
7.4 Adjungierte Abbildungen und normale Endomorphismen 173
Beweis: Wegen Satz 7.4.9 gilt fr jeden Vektor x von V, da
|x|
2
= x x =

x = |

x|
2
.
Daher ist x = o gleichwertig mit

x = o.
7.4.11 Satz. Es sei ein normaler Endomorphismus. Dann gelten:
(a) und

besitzen dieselben Eigenvektoren.


(b) Ist a Eigenvektor von mit dem Eigenwert c, dann hat a als Eigenvektor von

den Eigenwert c.
(c) Zwei Eigenvektoren von , die verschiedene Eigenwerte haben, sind orthogo-
nal.
Beweis: Wegen Satz 7.4.9 gilt
(a ac) (a ac) = a a (a a)c (a a) c +(a a)c c
=

a (

a a)c (a

a) c +(a a)c c
= (

a a c) (

a a c).
Daher ist a = ac gleichwertig mit

a = a c, woraus (a) und (b) folgen.


(c) Seien a und b zwei Eigenvektoren von mit den verschiedenen Eigenwerten
f und g. Wegen (b) gilt

b = b g. Hieraus folgt
(a b)f = (af ) b = (a) b = a (

b) = a (b g) = (a b)g,
also (a b)(f g) = 0. Wegen f = g ist daher a b = 0.
7.4.12 Hilfssatz. Sei V ein n-dimensionaler euklidischer oder unitrer Vektorraum.
Ferner seien ein normaler Endomorphismus von V, e ein Eigenvektor von und
U = e

= {v V | e v = o}. Dann gelten:


(a) U ist ein -invarianter Unterraum mit dim
F
U = n 1.
(b) Die Einschrnkung
|U
von auf U ist ein normaler Endomorphismus von
U.
Beweis: (a) Nach Satz 7.3.7 hat U = e

die Dimension n 1. Seien u U und


c F ein Eigenwert von mit Eigenvektor e. Wegen Satz 7.4.11 gilt dann
u e = u

e = u (e c) = (u e)c = 0.
Daher ist u U fr alle u U, d. h. U ist ein -invarianter Unterraum von V.
(b) Wegen (a) ist
1
=
|U
End
F
(U). Nach Hilfssatz 7.4.3 existiert

1

End
F
(U), und

1
=

|U
. Daher ist
1
ein normaler Endomorphismus von U nach
Satz 7.4.9.
174 7 Euklidische und unitre Vektorrume
7.4.13 Satz. Es sei V = 0 ein endlich-dimensionaler euklidischer oder unitrer
F-Vektorraum. Sei ein Endomorphismus von V, dessen smtliche Eigenwerte im
euklidischen Fall reell sind. Dann ist genau dann normal, wenn es zu ihm eine
Orthonormalbasis von V gibt, die aus lauter Eigenvektoren von besteht.
Beweis: Zunchst sei normal, und sei c
1
ein Eigenwert von . Zu c
1
gibt es einen
Eigenvektor e
1
, und zwar auch im euklidischen Fall, weil c
1
dann als reell voraus-
gesetzt wurde. Ohne Beschrnkung der Allgemeinheit kann e
1
als Einheitsvektor
angenommen werden. Im Fall n = 1 ist {e
1
} bereits eine Orthonormalbasis von V.
Es gelte nunn > 1, unddie Behauptungsei fr die Dimensionn1vorausgesetzt.
Weiter sei U der zu e
1
orthogonale Unterraumvon V. Wegen 7.4.12 ist U dann ein -
invarianter Unterraum von V mit dim
F
U = n1 und die Einschrnkung
1
=
|U
von auf U ist einnormaler Endomorphismus vonU. NachInduktionsvoraussetzung
gibt es daher eine Orthonormalbasis {e
2
, . . . , e
n
} von U, die aus lauter Eigenvektoren
von besteht. Es ist dann {e
1
, . . . , e
n
} eine Orthonormalbasis von V der behaupteten
Art.
Umgekehrt sei {e
1
, . . . , e
n
} eine Orthonormalbasis von V, die aus lauter Eigen-
vektoren des Endomorphismus besteht; es gelte also e
i
= e
i
c
i
. Durch e
i
= e
i
c
i
wird dann ein Endomorphismus von V deniert. Fr i, j = 1, . . . , n gilt
e
i
e
j
= (e
i
c
i
) e
j
= c
i

i,j
= c
j

j,i
= e
i
(e
j
c
j
) = e
i
e
j
und daher allgemein x y = x y. Somit ist der zu adjungierte Endomor-
phismus

. Wegen

(e
i
) = (e
i
c
i
) = e
i
c
i
c
i
= (e
i
c
i
) = (e
i
) = (

e
i
) fr i = 1, . . . , n
folgt schlielich

; d. h. ist normal.
7.4.14 Folgerung. In einemendlich-dimensionalen unitren VektorraumV existiert
zu einem Endomorphismus genau dann eine Orthonormalbasis aus Eigenvektoren
von , wenn ein normaler Endomorphismus ist.
7.4.15 Hilfssatz. Sei die komplexe Fortsetzung des normalen Endomorphismus
End
R
(V) des endlich-dimensionalen euklidischen Vektorraums V auf dessen
unitre Erweiterung zumC-VektorraumZ. Dann ist ebenfalls ein normaler Endo-
morphismus von Z.
Beweis: Nach den Stzen 7.1.14 und 7.1.17 existieren die komplexen Fortsetzungen
eines Endomorphismus und des Skalarprodukts des euklidischen R-Vektorraums
V auf den komplexen Vektorraum Z mit Dimension dim
C
Z = dim
R
V. Fr alle
7.4 Adjungierte Abbildungen und normale Endomorphismen 175
a, b, c, d V gilt auerdem
(a +bi) (c +di) = a c +b d +(b c a d)i
= a

c +b

d +(b

c a

d)i
= (a +bi) (

c +

di).
Daher folgt fr den zu adjungierten Endomorphismus

(c +di) =

c +

di.
Hieraus ergibt sich aber unmittelbar

.
7.4.16 Hilfssatz. Es sei ein normaler Endomorphismus des euklidischen Vektor-
raums V. Ferner sei e = a + bi ein normierter Eigenvektor von mit dem nicht-
reellen Eigenwert c. Dann ist e

= a bi ebenfalls ein normierter Eigenvektor von


mit dem Eigenwert c. Ferner sind e und e

orthogonal.
Beweis: Da a und b aus dem euklidischen RaumV stammen, gilt a b = b a. Man
erhlt e

= a a +b b +(a b b a)i = e e. Mit e ist daher auch e

normiert.
Da e ein Eigenvektor von mit dem Eigenwert c = c
1
+c
2
i (c
1
, c
2
reell) ist, gilt
a +bi = e = ec = ac
1
bc
2
+(bc
1
+ac
2
)i.
Daher ist a = ac
1
bc
2
, b = bc
1
+ac
2
und somit
e

= a bi = ac
1
bc
2
(bc
1
+ac
2
)i = (a bi)(c
1
c
2
i) = e

c.
Also ist e

ein Eigenvektor von zu dem Eigenwert c. Schlielich ist wegen


Satz 7.4.11 und 7.4.15 auerdem e

Eigenvektor von

zum Eigenwert c = c.
Da c nicht reell ist, gilt c = c. Deshalb ist e e

= 0 nach Satz 7.4.11 (c).


Nach diesen Vorbereitungen kann jetzt der allgemeine Fall normaler Endomor-
phismen in euklidischen Rumen behandelt werden.
7.4.17 Satz. Es sei V ein euklidischer Raum mit dimV = n < . Ein Endomor-
phismus von V ist genau dann normal, wenn es eine Orthonormalbasis B von V
gibt derart, da die Matrix A

(B, B) von die folgende Gestalt hat:


A

(B, B) = A =
_
_
_
_
_
_
_
_
_
_
c
1
.
.
.
c
k

.
.
.

_
_
_
_
_
_
_
_
_
_
,
176 7 Euklidische und unitre Vektorrume
wobei c
1
, . . . , c
k
die reellen Eigenwerte von sind und jedes Kstchen eine 2 2-
Matrix der folgenden Form ist:
a b
b a
.
Jedem solchen Zweierkstchen entspricht dabei ein Paar c, c konjugiert-komplexer
Eigenwerte von , und es gilt
a = Re c, b = Imc.
Beweis: Im Fall n = 1 ist die Behauptung trivial. Es gelte jetzt n > 1, und fr klei-
nere Dimensionen sei die Richtigkeit der Behauptung vorausgesetzt. Besitzt einen
reellen Eigenwert c
1
und somit einen Eigenvektor e
1
V, so ist nach Hilfssatz 7.4.12
U = {v V | e
1
v = o} ein (n 1)-dimensionaler, -invarianter Unterraum von
V derart, da die Einschrnkung
|U
von auf U ein normaler Endomorphismus
von U ist. Also folgt in diesem Fall die Behauptung durch vollstndige Induktion.
Besitzt aber keinen reellen Eigenwert, so werde V in seine komplexe Erweite-
rung Z eingebettet und zu dem Endomorphismus von Z fortgesetzt. Weiter sei
c ein (nicht-reeller) Eigenwert von . Zu ihm gibt es dann einen normierten Eigen-
vektor e
1
in Z. Es gelte e
1
= a
1
+ b
1
i mit a
1
, b
1
V. Nach Hilfssatz 7.4.16 ist
dann auch e
2
= a
1
b
1
i ein normierter und zu e
1
orthogonaler Eigenvektor von
mit dem Eigenwert c. Setzt man nun
f
1
= (e
1
+e
2
)
1

2
= a
1

2 und f
2
= (e
1
e
2
)
1

2i
= b
1

2,
so gilt f
1
, f
2
V. Wegen f
1
f
1
= f
2
f
2
=
1
2
(e
1
e
1
+ e
2
e
2
) = 1 sind die
Vektoren f
1
, f
2
normiert und wegen
f
1
f
2
= (e
1
e
1
e
1
e
2
+e
2
e
1
e
2
e
2
)
1
2i
= 0
auch orthogonal. Weiter gilt
f
1
= ( e
1
+ e
2
)
1

2
= (e
1
c +e
2
c)
1

2
=

2[a
1
(Re c) b
1
(Imc)]
= f
1
(Re c) f
2
(Imc) = f
1
a f
2
b,
f
2
= ( e
1
e
2
)
1
i

2
= (e
1
c e
2
c)
1
i

2
=

2[a
1
(Imc) +b
1
(Re c)]
= f
1
(Imc) +f
2
(Re c) = f
1
b +f
2
a.
Hinsichtlich f
1
, f
2
entspricht also ein Zweierkstchen der behaupteten Art.
7.4 Adjungierte Abbildungen und normale Endomorphismen 177
Wegen Satz 7.4.6 folgt nun

f
1
= f
1
a +f
2
b und

f
2
= f
1
b +f
2
a
Sei U = {f
1
, f
2
}

. Fr jedes u U erhlt man dann


u f
1
= u

f
1
= (u f
1
)a +(u f
2
)b = 0,
u f
2
= u

f
2
= (u f
1
)(b) +(u f
2
)a = 0.
Hieraus folgt u U fr alle u U. Also ist U ein -invarianter Unterraumvon
V. Nach Satz 7.3.7 ist dim
R
U = n2. Mittels Hilfssatz 7.4.3 und Satz 7.4.9 ergibt
sich daher, da die Einschrnkung
|U
von auf U ein normaler Endomorphismus
von U ist, auf den die Induktionsvoraussetzung angewandt werden kann.
Sei umgekehrt ein Endomorphismus von V mit k reellen Eigenwerten c
i
, 1
i k, und
1
2
(nk) Paaren {c
m
, c
m
} konjugiert komplexer Eigenwerte c
m
= a
m
+b
m
i
mit 0 = a
m
R und 0 = b
m
R. Weiter sei B = {e
1
, e
2
, . . . , e
k
} {f
(m)
1
, f
(m)
2
|
1 m
1
2
(n k)} eine Orthonormalbasis von V derart, da
A

(B, B) = A =
_
_
_
_
_
_
_
_
_
_
c
1
.
.
.
c
k

.
.
.

_
_
_
_
_
_
_
_
_
_
,
und jedes Kstchen eine (2 2)-Matrix der Form ist:
a
m
b
m
b
m
a
m
fr 1 m
1
2
(n k).
Nach Hilfssatz 7.4.3 existiert die zu adjungierte lineare Abbildung

von V.
Wegen Satz 7.4.6 gilt
A

(B, B) = [A

(B, B)]

= [A

(B, B)]
T
= A
T
Manbesttigt nununmittelbar, daAA
T
= A
T
A. NachSatz 3.3.7folgt

.
Also ist ein normaler Endomorphismus von V.
7.4.18 Folgerung. Sei ein anti-selbstadjungierter Endomorphismus des endlich-
dimensionalen euklidischen oder unitren Vektorraums V. Dann gelten:
(a) Die Realteile aller Eigenwerte von sind Null.
178 7 Euklidische und unitre Vektorrume
(b) V besitzt eine Orthonormalbasis B, die aus Eigenvektoren von besteht.
(c) Ist V ein euklidischer Vektorraum, dann sind alle Diagonalelemente der qua-
dratischen Matrix A

(B, B) gleich Null.


Beweis: (a) Sei o = v V ein Eigenvektor zumEigenwert c von . Wegen

=
folgt nach Satz 7.4.11, da

(v) = v c = (v) = vc = v(c).


Daher ist c = c, woraus Re(c) = 0 folgt.
(b) Wegen

=
2
=

ist normal. Nach Satz 7.4.13 besitzt V eine


Orthonormalbasis B, die aus Eigenvektoren von besteht.
(c) Folgt sofort aus (a) und Satz 7.4.17.
7.4.19 Bemerkung. Nach Folgerung 7.4.14 ist ein normaler Endomorphismus eines
unitren Vektorraumes diagonalisierbar. Die Umkehrung gilt nicht.
Denn die Matrix A =
_
0 2
1 1
_
hat die Eigenwerte 2 und 1. Nach den
Stzen 6.2.1 und 6.2.6 ist sie diagonalisierbar. Aber
AA
T
=
_
4 2
2 2
_
=
_
1 1
1 5
_
= A
T
A.
7.5 Orthogonale und unitre Abbildungen
Mit die wichtigsten linearenAbbildungen zwischen euklidischen bzw. unitren Ru-
men sind diejenigen, die das skalare Produkt invariant lassen.
7.5.1 Denition. Es seien V und W zwei euklidische bzw. unitre Rume: Eine
lineare Abbildung : V W wird eine orthogonale bzw. unitre Abbildung
genannt, wenn fr je zwei Vektoren x, x

V gilt:
x x

= x x

.
Derartige Abbildungen knnen noch auf verschiedene andere Weisen gekenn-
zeichnet werden.
7.5.2 Satz. Folgende Aussagen ber eine lineare Abbildung : V W zwischen
zwei euklidischen bzw. unitren Vektorrumen sind gleichwertig:
(a) ist eine orthogonale bzw. unitre Abbildung.
(b) Aus |x| = 1 folgt stets |x| = 1.
7.5 Orthogonale und unitre Abbildungen 179
(c) Fr alle x V gilt |x| = |x|.
(d) Ist {e
1
, . . . , e
n
} ein Orthonormalsystem von V, so ist {e
1
, . . . , e
n
} ein Or-
thonormalsystem von W.
Beweis: (a) (b): Aus |x| = 1 folgt x x = x x = 1, also auch |x| = 1.
(b) (c): Ohne Beschrnkung der Allgemeinheit kann x = o angenommen
werden. Mit e = x
1
|x|
gilt x = e|x| und |e| = 1, also |x| = |e||x| = |x|.
(c) (d): Fr h = j (h, j = 1, . . . , n) gilt
2 Re(e
h
e
j
) = |(e
h
+e
j
)|
2
|e
h
|
2
|e
j
|
2
= |e
h
+e
j
|
2
|e
h
|
2
|e
j
|
2
= 0,
2 Im(e
h
e
j
) = |(e
h
+e
j
i)|
2
|e
h
|
2
|e
j
|
2
= |e
h
+e
j
i|
2
|e
i
|
2
|e
j
|
2
= 0.
Es folgt e
h
e
j
= 0 fr h = j und nach Voraussetzung auch |e
h
| = |e
h
| = 1.
Daher ist {e
1
, . . . , e
n
} ein Orthonormalsystem.
(d) (a): Fr beliebige Vektoren x, x

V ist x x

= x x

nachzuweisen.
Es kann x = o angenommen werden. Gilt nun erstens x

= ec mit e = x
1
|x|
, so
folgt x x

= (e e)|x| c = |x| c und x x

= (e e)|x| c. Nach Voraussetzung


ist aber mit {e} auch {e} ein Orthonormalsystem. Es gilt also e e = 1 und
daher x x

= x x

. Zweitens seien die Vektoren x, x

linear unabhngig.
Wegen Satz 7.3.1 gibt es dann eine Orthonormalbasis {e
1
, e
2
} des von x und x

aufgespannten Unterraums. Es gelte x = e


1
x
1
+ e
2
x
2
und x

= e
1
x

1
+ e
2
x

2
. Da
auch {e
1
, e
2
} ein Orthonormalsystem ist, folgt x x

= x
1
x

1
+x
2
x

2
= x x

.
7.5.3 Folgerung. Die komplexe Fortsetzung einer orthogonalen Abbildung ist eine
unitre Abbildung.
Beweis: Ergibt sich sofort aus Denition 7.1.13 und Satz 7.5.2.
7.5.4 Folgerung. Jede orthogonale oder unitre Abbildung ist injektiv.
Beweis: Aus x = o folgt wegen Satz 7.5.2 (c) auch |x| = |x| = 0. Also ist x = o
nach Satz 7.2.4. Daher ist injektiv.
7.5.5 Denition. Die reelle nn-Matrix Aheit orthogonal, wenn A
1
= A
T
gilt.
Die komplexe invertierbare n n-Matrix Aheit unitr, wenn A
1
= A

= (

A)
T
gilt.
7.5.6 Satz. Fr n-reihige quadratische Matrizen A = (a
i,j
) sind folgende Aussagen
paarweise gleichwertig:
180 7 Euklidische und unitre Vektorrume
(a) Aist eine orthogonale bzw. unitre Matrix.
(b) Die Zeilen von Abilden ein Orthonormalsystem; d. h. es gilt
n

j=1
a
i,j
a
k,j
=
i,k
(i, k = 1, . . . , n).
(c) Die Spalten von Abilden ein Orthonormalsystem; d. h. es gilt
n

j=1
a
j,i
a
j,k
=
i,k
(i, k = 1, . . . , n).
Beweis: Die Gleichungen aus (b) sind gleichwertig mit AA

= E, die Gleichun-
gen aus (c) mit A

A = E. Jede dieser beiden Gleichungen ist aber wegen Folge-


rung 3.4.10 gleichbedeutend mit A
1
= A

.
7.5.7 Beispiele.
(a)
A =
_
_
0 1 0
1 0 0
0 0 1
_
_
, B =
_
sin cos
cos sin
_
und C =
1
3
_
_
2 1 2
2 2 1
1 2 2
_
_
sind orthogonale Matrizen.
(b) A =
1

2
_
1 i
i 1
_
ist eine unitre Matrix.
7.5.8 Satz. Der Endomorphismus eines endlich-dimensionalen euklidischen bzw.
unitren Vektorraums V ist genau dann orthogonal bzw. unitr, wenn invertierbar
ist und
1
=

gilt. Insbesondere sind orthogonale bzw. unitre Endomorphismen


normal.
Beweis: Ist ein unitrer Endomorphismus von V, dann besitzt nach Folge-
rung 7.5.4 ein Inverses
1
. Sein adjungierter Endomorphismus

existiert nach
Hilfssatz 7.4.3. Wegen der Denitionen 7.5.1 und 7.4.1 folgt daher fr alle x, y V,
da x(

y
1
y) = x

yx
1
y = xyx
1
y = x
1
yx
1
y =
0. Also ist

y =
1
y fr alle y V, d. h.

=
1
. Sei umgekehrt
1
=

.
Dann gilt nach Denition 7.4.1 fr alle x, y V, da x
1
y = x

y = x y.
Da mit y auch
1
y alle Vektoren von V durchluft, ist ein unitrer Endomorphis-
mus von V nach Denition 7.5.1. Wegen

=
1
= id =
1
=

ist er
normal.
7.5 Orthogonale und unitre Abbildungen 181
7.5.9 Satz. Sei B = {e
1
, e
2
, . . . , e
n
} eine Orthonormalbasis des endlich-
dimensionalen euklidischen oder unitren Vektorraumes V. Sei ein Endomorphis-
mus von V. Dann gelten:
(a) Die lineare Abbildung : V V ist genau dann orthogonal, wenn die
zu gehrige n n-Matrix A

(B, B) bezglich der Basis B von V eine


orthogonale Matrix ist.
(b) Die lineare Abbildung : V V ist genau dann unitr, wenn die zu
gehrige n n-Matrix A

(B, B) bezglich der Basis B von V eine unitre


Matrix ist.
Beweis: (b) Ist End
C
(V) ein unitrer Endomorphismus, so ist er nach Folge-
rung 7.5.4 eine injektive Abbildung. Daher ist wegen Folgerung 3.2.14 ein Auto-
morphismus von V. Also ist B

= {(e
1
), (e
2
), . . . , (e
n
)} nach Satz 7.5.2 eine
Orthonormalbasis von V. Wegen Denition 3.3.1 sind diese Vektoren s
j
= (e
j
),
j = 1, 2, . . . , n, gerade die Spaltenvektoren der Matrix A

(B, B) von bezglich


der Basis B. Deshalb ist A

(B, B) eine unitre n n-Matrix nach Satz 7.5.6. Ist


umgekehrt A = (a
ij
) eine unitre Matrix, dann ist A
1
= A

. Hieraus folgt nach


Satz 7.4.6, da der durch (e
j
) =

n
i=1
e
i
a
ij
denierte Endomorphismus von V
und sein adjungierter Endomorphismus

von V die folgende Matrizengleichung


erfllen
A

(B, B) = (A

(B, B))

= A

= A
1
= A

1 (B, B).
Wegen Satz 3.2.4 ist daher

=
1
. Daher ist unitr nach Satz 7.5.8.
(a) beweist man analog.
7.5.10 Satz. Es gelten die folgenden Aussagen:
(a) Die Menge O(n, R) aller orthogonalen nn-Matrizen Aist eine Untergruppe
der generellen linearen Gruppe GL(n, R).
(b) Die Menge U(n, C) aller unitren nn-Matrizen Aist eine Untergruppe der
generellen linearen Gruppe GL(n, C).
(c) Die Determinante einer orthogonalen n n-Matrix Aist det(A) = 1.
(d) Die Determinante einer unitren nn-Matrix Ahat den Betrag | det(A)| = 1.
Beweis: (b) Da die Einsmatrix E eine unitre Matrix ist, ist die Menge U(n, C) nicht
leer. Seien A, B zwei unitre nn-Matrizen. Wegen Satz 7.5.8 gilt dann A
1
= A

und B
1
= B

. Insbesondere ist dann (B


1
)

= B

= B = (B
1
)
1
. Hieraus
folgt nach Hilfssatz 7.4.7 (AB
1
)
1
= BA
1
= (B
1
)

= (AB
1
)

, d. h.
AB
1
U(n, C). Also ist U(n, C) nach Hilfssatz 1.3.10 eine Untergruppe von
GL(n, C).
182 7 Euklidische und unitre Vektorrume
(a) beweist man analog.
(d) Nach Satz 5.4.1 gilt fr jede unitre n n-Matrix A, da
det(A) det(

A) = det(A) det[(

A)
T
] = det(A) det(A
1
) = det(E) = 1.
Nach Beispiel 1.4.2(b) und Denition 5.3.4 gilt
det(

A) =

S
n
(sign ) a
1,(1)
a
2,(2)
. . . a
n,(n)
=

S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
)
= (det(A)).
Daher ist det(A) det(A) = det(A) det(

A) = 1, woraus | det(A)| = 1 folgt.
(c) Wegen A
1
= A
T
gilt 1 = det(A A
T
) = det(A)
2
, d. h. det(A) = 1.
7.5.11 Denition. Die Gruppe O(n, R) aller orthogonalen n n-Matrizen heit
orthogonale Gruppe. Die Gruppe U(n, C) aller unitren nn-Matrizen heit unitre
Gruppe.
7.6 Hauptachsentheorem
Der Hauptsatz dieses Abschnitts ist das Hauptachsentheorem. Es besagt, da die
Hermiteschen und die symmetrischen Matrizen sich diagonalisieren lassen. Als eine
wichtige Anwendung ergibt sich die Polarzerlegung der Endomorphismen euklidi-
scher bzw. unitrer Vektorrume V als Produkte von selbstadjungierten Automor-
phismen und orthogonalen bzw. unitren Automorphismen von V.
7.6.1 Denition. Eine reelle n n-Matrix A wird symmetrisch genannt, wenn
A = A
T
. Weiter heit Aschiefsymmetrisch, wenn A
T
= A.
Eine komplexe n n-Matrix A = (a
ij
) heit Hermitesche Matrix, wenn A

=
(

A)
T
= Agilt. Aist eine schief-Hermitesche Matrix, wenn A

= A.
7.6.2 Hilfssatz. Sei B = {e
1
, e
2
, . . . , e
n
} eine Orthonormalbasis des endlich-
dimensionalen euklidischen bzw. unitren Vektorraums V. Dann gelten:
(a) Der Endomorphismus des euklidischenVektorraums V ist genau dann selbst-
adjungiert, wenn die zu gehrige nn-Matrix A

(B, B) bezglich der Basis


B eine reelle symmetrische Matrix ist.
(b) Der Endomorphismus des unitren Vektorraums V ist genau dann selbstad-
jungiert, wenn die zu gehrige n n-Matrix A

(B, B) bezglich der Basis


B eine Hermitesche Matrix ist.
7.6 Hauptachsentheorem 183
(c) Der Endomorphismus des euklidischen Vektorraums V ist genau dann anti-
selbstadjungiert, wenn die n n-Matrix A

(B, B) schiefsymmetrisch ist.


(d) Der Endomorphismus des unitrenVektorraums V ist genau dann antiselbst-
adjungiert, wenn die n n-Matrix A

(B, B) eine schief-Hermitesche Matrix


ist.
Beweis: Nach Satz 7.4.6 ist A

(B, B) = (A

(B, B))

, woraus sich alle Behaup-


tungen ergeben.
7.6.3 Satz (Hauptachsentheorem). Sei ein Endomorphismus des n-dimensionalen
euklidischen bzw. unitren Vektorraums V. Dann sind quivalent:
(a) ist selbstadjungiert.
(b) V besitzt eine Orthonormalbasis B = {e
1
, e
2
, . . . , e
n
} derart, da A

(B, B)
eine reelle symmetrische bzw. eine komplexe Hermitesche Matrix ist.
(c) Alle Eigenwerte von sind reell, und zu jeder Orthonormalbasis B =
{e
1
, e
2
, . . . e
n
} von V existiert eine Orthonormalbasis B

= {b
1
, b
2
, . . . , b
n
}
von V, die aus lauter Eigenvektoren von besteht.
(d) Zu jeder Orthonormalbasis B = {e
1
, e
2
, . . . e
n
} von V existiert eine orthogo-
nale bzw. unitre (n n)-Matrix P derart, da P
1
A

(B, B)P = D eine


reelle Diagonalmatrix ist.
Beweis: Nach Satz 7.3.1 besitzt V eine Orthonormalbasis B = {e
1
, e
2
, . . . , e
n
}.
Wegen Hilfssatz 7.6.2 gilt =

genau dann, wenn A

(B, B) = [A

(B, B)]

.
Daher sind (a) und (b) quivalent.
Sei ein selbstadjungierter Endomorphismus c von V. Nach Satz 7.4.11 existiert
zu jedem Eigenwert c von ein Vektor a V mit a = o derart, da
a c =

a = a = ac
gilt, woraus c = c folgt. Wegen =

ist daher ein normaler Endomorphismus


von V, dessen smtliche Eigenwerte reell sind. Also besitzt V nach Satz 7.4.13 eine
Orthonormalbasis B

, die aus lauter Eigenvektoren von besteht. Deshalb folgt (c)


aus (a).
Gilt (c), dann ist die Matrix P des Basiswechsels von B nach B nach Satz 7.5.6
eine orthogonale bzw. eine unitre Matrix. Wegen Satz 3.3.9 ist
D = A

(B

, B

) = P
1
A

(B, B)P
eine reelle Diagonalmatrix. Daher folgt (d) aus (c).
Gilt (c) so ist nach den Stzen 7.5.9 und 7.4.6
A

(B, B) = PDP
1
= PDP

= (PDP

= A

(B, B)

= A

(B, B).
Also ist =

.
184 7 Euklidische und unitre Vektorrume
7.6.4 Berechnungsverfahren fr die unitre bzw. orthogonale Transformati-
onsmatrix P des Hauptachsentheorems. Sei A = (a
ij
) eine reelle symmetrische
bzw. komplexe Hermitesche n n-Matrix. Entsprechend sei V = R
n
oder V = C
n
mit dem gewhnlichen Skalarprodukt. Nach dem Hauptachsentheorem 7.6.3 ist A
diagonalisierbar und hat nur reelle Eigenwerte. Daher kann man folgende Schritte
durchfhren.
(a) Man berechne die Koefzienten des charakteristischen Polynoms
char Pol
A
(X).
(b) Man bestimme die Nullstellen f
i
von char Pol
A
(X) =

k
j=1
(X f
i
)
d
i
. Sie
sind alle reell, und es gilt n =

k
j=1
d
j
.
(c) Zu jedem Eigenwert f
j
von A berechne man eine Basis B
j
=
{s
t +1
, s
t +2
, . . . , s
t +d
j
| t =

j1
i=1
d
i
} des Eigenraums W
j
= Ker(Ef
j
A).
(d) Mittels des Gram-Schmidtschen Orthonormalisierungsverfahrens wird diese
Basis in eine Orthonormalbasis C
j
= {c
t +1
, c
t +2
, . . . , c
t +d
j
| t =

j1
i=1
d
i
}
von W
j
transformiert.
(e) Die Vereinigungsmenge C =

k
j=1
C
j
= {c
1
, c
2
, . . . , c
n
} ist die gesuchte
Orthonormalbasis von V.
(f) Sei P die n n-Matrix, deren Spaltenvektoren s
r
die Vektoren c
r
der Ortho-
normalbasis C von V sind. Dann ist P eine orthogonale bzw. unitre Matrix
derart, da D = P
1
AP eine reelle Diagonalmatrix ist.
Beweis: Es ist nur zu zeigen, da c
i
c
j
= 0 fr i = j gilt. Dies ist klar, falls c
i
und
c
j
zumselben Eigenraumgehren. Andernfalls folgt c
i
c
j
= 0 aus Satz 7.4.11 (c).
7.6.5 Beispiel. Gegeben sei die reelle Matrix
A =
_
_
2 1 2
1 2 2
2 2 1
_
_
.
Durch Entwicklung nach der 1. Zeile erhlt man das charakteristische Polynomdieser
Matrix.
char Pol
A
(X) = det
_
_
X 2 1 2
1 X 2 2
2 2 X +1
_
_
= (X 2)[(X 2)(X +1) 4] [(X +1) 4]
2[2 +(X 2)2]
= (X 3) {[(X 2)(X +2)] 5}
= (X 3)(X
2
9) = (X 3)
2
(X +3).
7.6 Hauptachsentheorem 185
Die Eigenwerte von Asind f
1
= 3 und f
2
= 3. Der EigenraumW
1
zumEigenwert
f
1
= 3 ist eindimensional und wird von dem Vektor s
1
=
_

1
2
,
1
2
, 1
_
erzeugt.
Der Eigenraum W
2
zum Eigenwert f
2
= 3 ist zweidimensional. B
2
= {s
2
=
(2, 0, 1), s
3
= (1, 1, 0)} ist eine Basis von W
2
. Nach dem Gram-Schmidtschen
Orthogonalisierungsverfahren ist
c
1
=
1
|s
1
|
s
1
= (1, 1, 2)
1

6
,
c
2
=
1
|s
2
|
s
2
= (2, 0, 1)
1

5
,
c
3
=
1
|b
3
|
b
3
= (1, 5, 2)
1

30
,
wobei b
3
= s
3
c
2
(s
3
c
2
) = (1, 1, 0) (2, 0, 1)
1

5
(s
3
c
2
) =
_
1
5
, 1,
2
5
_
,
weil s
3
c
2
=
2

5
. Dann ist C = {c
1
, c
2
, c
3
} eine Orthonormalbasis von R
3
. Die
orthogonale Transformationsmatrix ist daher
P =
_
_
_

6
2

5

1

30

6
0
5

30
2

6
1

5
2

30
_
_
_
.
Wegen P
1
= P
T
ergibt sich
P
T
AP =
_
_
3 0 0
0 3 0
0 0 3
_
_
= D
als gesuchte, reelle Diagonalmatrix.
Mittels des Hauptachsentheorems 7.6.3 kann jetzt auch die Frage untersucht
werden, wie sich allgemein in endlich-dimensionalen reellen oder komplexen Vek-
torrumen ein skalares Produkt denieren lt.
7.6.6 Satz. Es sei V ein endlich-dimensionaler, reeller oder komplexer Vektorraum,
und {v
1
, . . . , v
n
} sei eine beliebige Basis von V. Fr die Vektoren x, y V gelte
x = v
1
x
1
+ +v
n
x
n
und y = v
1
y
1
+ +v
n
y
n
. Dann wird durch
x y =
n

i,j=1
x
i
a
i,j
y
j
= (x
1
, . . . , x
n
)A
_
_
_
y
1
.
.
.
y
n
_
_
_
()
in V genau dann ein skalares Produkt deniert, wenn A = (a
i,j
) eine symmetrische
bzw. Hermitesche Matrix mit lauter positiven Eigenwerten ist.
186 7 Euklidische und unitre Vektorrume
Beweis: Die Behauptung wird fr einen komplexenVektorraumbewiesen. Zunchst
sei durch () ein skalares Produkt deniert. Dann gilt a
i,j
= v
i
v
j
= v
j
v
i
= a
j,i
,
also A = A

; d. h. Aist eine Hermitesche Matrix. Weiter sei c ein Eigenwert von A


und x = v
1
x
1
+ +v
n
x
n
ein zugehriger Eigenvektor. Dann ist c nach Satz 7.6.3
reell. Daher gilt A

x = xc = A x nach Satz 7.4.11, d. h.


n

j=1
a
i,j
x
j
= x
i
c fr i = 1, . . . , n.
Daher ist
x x =
n

i,j=1
x
i
a
i,j
x
j
= (x
1
x
1
+ +x
n
x
n
)c = (|x
1
|
2
+ +|x
n
|
2
)c.
Wegen x x > 0 und |x
1
|
2
+ +|x
n
|
2
> 0 folgt hieraus c > 0.
Umgekehrt sei jetzt A eine Hermitesche bzw. symmetrische Matrix mit lauter
positiven Eigenwerten. Aus () folgt unmittelbar (x
1
+x
2
) y = x
1
y +x
2
y und
(xc) y = (x y)c. Weiter erhlt man wegen a
i,j
= a
j,i
x y =
n

i,j=1
x
i
a
i,j
y
j
=
n

i,j=1
y
j
a
j,i
x
i
= y x.
Es mu also nur noch x x > 0 fr jeden Vektor x = o nachgewiesen werden. Zu
Agibt es nun aber nach dem Hauptachsentheorem 7.6.3 eine unitre Matrix P, fr
die D = P

AP eine Diagonalmatrix ist. Dabei sind die Hauptdiagonalelemente


von D die positiven Eigenwerte c
1
, . . . , c
n
von A. Setzt man noch (x

1
, . . . , x

n
) =
(x
1
, . . . , x
n
)P, so folgt wegen PP

= P

P = E
n
, da
x x = (x
1
, . . . , x
n
)A
_
_
_
x
1
.
.
.
x
n
_
_
_
= (x
1
, . . . , x
n
)PP

APP

_
_
_
x
1
.
.
.
x
n
_
_
_
= (x

1
, . . . , x

n
)D
_
_
_
x

1
.
.
.
x

n
_
_
_
= c
1
x

1
x

1
+ +c
n
x

n
x

n
= c
1
|x

1
|
2
+ +c
n
|x

n
|
2
.
Gilt nun x = o, so folgt wegen der Invertierbarkeit von P auch x

i
= 0 fr mindestens
einen Index i und wegen der Positivitt der c
i
schlielich x x > 0. Damit sind die
kennzeichnenden Eigenschaften eines skalaren Produkts nachgewiesen.
7.6 Hauptachsentheorem 187
Eine weitere Folgerung des Hauptachsentheorems ist der Trgheitssatz von Syl-
vester. Zu seiner Formulierung werden die folgenden Begriffe bentigt.
7.6.7 Denition. Die Anzahl t (A) der positiven Eigenwerte einer reellen symme-
trischen bzw. komplexen Hermiteschen nn-Matrix Awird der Trgheitsindex von
Agenannt.
7.6.8 Denition. Zwei symmetrische bzw. Hermitesche n n-Matrizen A und B
heien kongruent, wenn es eine invertierbare reelle bzw. komplexe n n-Matrix Q
mit B = Q
T
AQ bzw. B = Q

AQ gibt.
7.6.9 Satz (Trgheitssatz von Sylvester). Sei A eine symmetrische bzw. Hermite-
sche n n-Matrix mit Rang rg(A) = r und Trgheitsindex t = t (A). Dann gelten
folgende Aussagen:
(a) Es gibt eine reelle bzw. komplexe invertierbare Matrix S derart, da
D = S
T
AS bzw. D = S

AS
eine Diagonalmatrix diag(1, . . . , 1, 1, . . . , 1, 0, . . . 0) ist, in deren Haupt-
diagonalen zunchst t -mal +1, dann (r t )-mal 1 und danach lauter Nullen
stehen.
(b) Fr jede invertierbare reelle bzw. komplexe n n-Matrix Q ist
B = Q
T
AQ bzw. B = Q

AQ
eine reelle symmetrische bzw. Hermitesche Matrix mit Trgheitsindex t (B) =
t (A) = t und Rang rg(B) = rg(A) = r.
(c) Zwei symmetrische bzw. Hermitesche nn-MatrizenAundBsindgenaudann
kongruent, wenn sie denselben Trgheitsindex und denselben Rang haben.
Beweis: Es wird nur der komplexe Fall bewiesen.
(a) Sei Aeine Hermitesche Matrix A. Wegen Satz 7.6.3 gibt es dann eine unitre
Matrix P, fr die B = P
1
AP eine reelle Diagonalmatrix
B = diag(b
0
, . . . , b
t
, b
t +1
, . . . , b
r
, 0, . . . 0)
ist, wobei b
0
, . . . , b
t
positive und b
t +1
, . . . , b
r
negative reelle Zahlen sind.
Da P eine unitre Matrix ist, gilt P
1
= P

und somit B = P

AP. Setzt man


nun noch
T = diag
_
1

|b
0
|
, . . . ,
1

|b
r
|
, 1, . . . , 1
_
und S = PT
188 7 Euklidische und unitre Vektorrume
so ist D = T

BT = S

AS eine Diagonalmatrix, in deren Hauptdiagonale zunchst


t -mal der Wert +1, dann (r t )-mal der Wert 1 und danach lauter Nullen stehen.
(b) Wegen B = Q

AQhaben Aund B nach Folgerung 3.5.3 denselben Rang r.


Zu den Hermiteschen Matrizen Aund B gibt es nach Satz 7.6.3 jeweils eine unitre
Matrix P
1
bzw. P
2
, mit denen P

1
AP
1
= D und P

2
BP
2
= G die Diagonalma-
trizen der Eigenwerte d
1
, d
2
, . . . , d
n
von A bzw. g
1
, g
2
, . . . , g
n
von B sind. Seien
t (A) = t und t (B) = s die Trgheitsindizes von A und B. Dann knnen die bei-
den Orthonormalbasen von C
n
, die aus Eigenvektoren von A bzw. B bestehen, so
umnumeriert werden, da
d
i
> 0 fr 1 i t, d
i
< 0 fr t < i r und d
i
= 0 fr r < i n,
g
i
> 0 fr 1 j s, g
i
< 0 fr s < j r und g
i
= 0 fr r < j n
gelten. Da alle d
i
und g
j
reell sind, existieren a
i
und b
j
in R mit
d
i
=
_

_
a
2
i
fr 1 i t,
a
2
i
fr t < i r,
0 sonst
und g
j
=
_

_
b
2
j
fr 1 j s,
b
2
j
fr s < j r,
0 sonst.
Fr alle Vektoren x = (x
1
, x
2
, . . . , x
n
) C
n
folgt nun
x

Dx =
t

j=1
a
2
j
x
j
x
j

r

j=t +1
a
2
j
x
j
x
j
=
t

j=1
a
2
j
|x
j
|
2

j=t +1
a
2
j
|x
j
|
2
.
Setzt man C = P
2
Q
1
P
1
= (c
ij
) und y = Cx = (y
1
, y
2
, . . . , y
n
), so folgt
x

Dx = (x

)G(Cx) = y

Gy =
s

j=1
b
2
j
|y
j
|
2

j=s+1
b
2
j
|y
j
|
2
,
weil D = P

1
AP
1
= P

1
(Q

)
1
BQ
1
P
1
= P

1
(Q
1
)

P
2
GP

2
Q
1
P
1
.
Wre t < s. Dann htte das homogene lineare Gleichungssystem (H) mit den
n (s t ) < n Gleichungen x
1
= x
2
= = x
t
= 0 und y
i
=

n
j=1
c
ij
x
j
= 0
fr s +1 i n eine nicht triviale Lsung z = (z
1
, z
2
, . . . , z
n
) C
n
. Fr diesen
Vektor gelten gleichzeitig:
z

Dz =
_
r

j=t +1
a
2
j
|z
j
|
2
_
< 0,
z

Dz =
s

j=1
b
2
j
|y
j
|
2
> 0.
Aus diesem Widerspruch folgt s t und so aus Symmetrie t = s.
Die Behauptung (c) folgt unmittelbar aus (a) und (b).
7.6 Hauptachsentheorem 189
7.6.10 Bemerkung. Der Trgheitsindex t (A) einer reellen symmetrischen bzw. ei-
ner komplexen Hermiteschen Matrix Akann ohne explizite Berechnung der Eigen-
werte von Amittels der Zeichenregel von Descartes (vgl. Korollar 3.2.14 von [29],
S. 59) bestimmt werden. Ihre Voraussetzung ist nach Satz 7.6.3 erfllt. Sie lautet:
Bei einem Polynom
X
n
+a
n1
X
n1
+ +a
1
X +a
0
, a
0
= 0
mit reellen Koefzienten, das lauter reelle Nullstellen besitzt, ist die Anzahl der
positiven Nullstellen gleich der Anzahl der Vorzeichenwechsel in der Folge der Ko-
efzienten, die Anzahl der negativen Nullstellen gleich der Anzahl der Vorzeiche-
nerhaltungen. Dabei mssen jedoch alle Koefzienten bercksichtigt werden; also
auch die Nullkoefzienten, denen dann ein beliebiges Vorzeichen zugeordnet wird.
Mit dem folgenden Satz, der ebenfalls aus dem Hauptachsentheorem folgt, wird
nun die groe Bedeutung der orthogonalen bzw. unitren und der selbstadjungierten
Automorphismen eines endlich-dimensionalen euklidischen bzw. unitren Vektor-
raums V fr die Beschreibung aller Automorphismen von V herausgestellt.
7.6.11 Satz (Polarzerlegung). Sei V ein endlich-dimensionaler euklidischer bzw.
unitrer Vektorraum. Dann kann jeder Automorphismus von V auf genau eine
Weise als Produkt = eines orthogonalen bzw. unitren Automorphismus
und eines selbstadjungierten Automorphismus von V mit lauter positiven reellen
Eigenwerten dargestellt werden.
Beweis: Mit ist nach Hilfssatz 7.4.10 auch

einAutomorphismus von V. Wegen


Hilfssatz 7.4.7 ist dann =

ein selbstadjungierter Automorphismus von V.


Nach Satz 7.6.3 sind alle Eigenwerte von reell und von Null verschieden. Ist
v = o ein Eigenvektor von zum Eigenwert c, so gilt
(v v)c = vc v = (v) v = (

)(v) v = (v) (v) 0.


Wegen v v > 0 und c = 0 folgt c > 0. Also sind alle Eigenwerte von positive
reelle Zahlen.
Daher besitzt der unitre bzw. euklidische Vektorraum V nach Folgerung 7.4.14
bzw. Satz 7.4.13 eine Orthonormalbasis B = {v
1
, v
2
, . . . , v
n
}, die aus Eigenvektoren
des normalen Automorphismus besteht, d. h. es existieren n positive reelle Zahlen
c
i
mit v
i
= v
i
c
i
. Sei Aut(V) deniert durch v
i
= v
i
r
i
, i = 1, 2, . . . , n,
wobei r
i
= +

c
i
. Dann ist ein selbstadjungierter Automorphismus von V mit
lauter positiven reellen Eigenwerten r
i
> 0.
Sicherlich ist =
1
ein Automorphismus von V. Wegen
2
= =

ist
1
= (
1
)
1
=
1
=
1

1
=
1

1
=
1

=
(
1
)

. Also ist nach Satz 7.5.8 ein orthogonaler bzw. unitrer Auto-
morphismus von V. Daher ist = eine gesuchte Produktdarstellung von .
190 7 Euklidische und unitre Vektorrume
Ist =

eine weitere Faktorisierung von mit (

= (

)
1
und (

derart, da alle Eigenwerte von

reell und positiv sind, dann gilt

2
= =

= (

)
1

= (

)
2
.
Nun besitzen

und (

)
2
dieselben Eigenvektoren. Auerdem sind die Eigenwerte
von (

)
2
die Quadrate der Eigenwerte von

. Daher haben die Automorphismen


und

dieselben Eigenvektoren und dieselben Eigenwerte. Insbesondere folgt


v
i
= v
i
r
i
=

v
i
fr i = 1, 2, . . . , n. Also ist

= . Hieraus folgt

=
(

)
1
=
1
= .
7.7 Aufgaben
7.1 In einem zweidimensionalen unitren Raum mit der Basis {a
1
, a
2
} gelte a
1
a
1
= 4 und
a
2
a
2
= 1. Welche Werte kann dann das skalare Produkt a
1
a
2
besitzen?
7.2 Es seien
1
und
2
zwei skalare Produkte eines komplexen Vektorraums V.
(a) Zeigen Sie, da aus
1
(x, x) =
2
(x, x) fr alle Vektoren x sogar
1
=
2
folgt.
(b) Welche Bedingung mssen die komplexen Zahlen a und b erfllen, damit durch
(x, y) =
1
(x, y)a +
2
(x, y)b
wieder ein skalares Produkt deniert wird?
7.3 Zeigen Sie, da die durch ein skalares Produkt denierte Lnge |x| der Vektoren x eines
euklidischen oder unitren Vektorraums V die folgende Parallelogrammgleichung erfllt:
|x +y|
2
+|x y|
2
= 2(|x|
2
+|y|
2
). ()
Ist umgekehrt V ein reeller Vektorraum, auf dem eine Lnge |v| der Vektoren v V mit den
blichen Betragseigenschaften deniert ist, die () erfllt, dann gibt es auf V ein Skalarprodukt
(, ) mit |x|
2
= (x, x).
7.4 Zeigen Sie mit demin Beispiel 7.2.15 b) denierten skalaren Produkt, da die Funktionen
1

2
, cos(nt ), sin(nt ), n = 1, 2, 3, . . . ein unendliches Orthonormalsystem bilden.
7.5 In dem komplexen arithmetischen Vektorraum V = C
4
sei das skalare Produkt zweier
Vektoren x = (x
1
, x
2
, x
3
, x
4
), y = (y
1
, y
2
, y
3
, y
4
) durch x y = x
1
y
1
+ x
2
y
2
+ x
3
y
3
+
x
4
y
4
deniert. Man bestimme eine Orthonormalbasis des orthogonalen Komplements U

des
Unterraums U = a
1
C +a
2
C von V, wobei a
1
= (1, i, 0, 1), a
2
= (i, 0, 2, 0) ist.
7.6 Fr einen orthogonalen Endomorphismus eines n-dimensionalen euklidischen Raumes
gilt | tr | n. Wann steht hier das Gleichheitszeichen?
7.7 Aufgaben 191
7.7 Es seien v
1
, . . . , v
k
linear unabhngige Vektoren eines euklidischenVektorraums V. Die
Menge aller Vektoren
x = v
1
x
1
+ +v
k
x
k
mit 0 x
i
1 fr i = 1, . . . , k
wird dann das von den Vektoren v
1
, . . . , v
k
aufgespannte Parallelotop genannt. Es sei nun
{e
1
, . . . , e
k
} eine Orthonormalbasis des von den Vektoren v
1
, . . . , v
k
aufgespannten Unter-
raums U von V. Man nennt den Betrag der Determinante

(v
1
e
1
) (v
1
e
k
)
.
.
.
.
.
.
(v
k
e
1
) (v
k
e
k
)

das Volumen dieses Parallelotops. Beweisen Sie:


(a)

(v
1
e
1
) (v
1
e
k
)
.
.
.
.
.
.
(v
k
e
1
) (v
k
e
k
)

2
=

(v
1
v
1
) (v
1
v
k
)
.
.
.
.
.
.
(v
k
v
1
) (v
k
v
k
)

.
(b) Die Denition des Volumens ist unabhngig von der Wahl der Orthonormalbasis von
V. Die in (a) rechts stehende Determinante ist das Quadrat des Volumens.
7.8 In dem reellen arithmetischen Vektorraum R
4
sei das skalare Produkt so deniert, da
die kanonische Basis eine Orthonormalbasis ist. Berechnen Sie mittels der Ergebnisse von
Aufgabe 7.7 das Volumen des von den Vektoren
(2, 1, 0, 1), (1, 0, 1, 0), (2, 1, 1, 0)
aufgespannten Parallelotops.
7.9 Wenn die adjungierten Abbildungen von : V W und : W Z existieren, dann
existiert auch die adjungierte Abbildung zu und es gilt ()

.
7.10 In welcher Beziehung stehen die Koefzienten des charakteristischen Polynoms eines
Endomorphismus und des adjungierten Endomorphismus?
7.11 Es sei ein normaler Endomorphismus eines unitren oder euklidischen Raumes V
endlicher Dimension. Zeigen Sie:
(a) Jeder Vektor x V kann auf genau eine Weise in der Form x = x

+x

mit x

V
und x

Ker dargestellt werden, wobei die Vektoren x

und x

orthogonal sind.
(b) Es gilt rg() = rg(
2
).
7.12 Ein unitrer Automorphismus ist genau dann selbstadjungiert, wenn die Identitt
ist.
192 7 Euklidische und unitre Vektorrume
7.13 Es sei ein selbstadjungierter Endomorphismus eines endlich-dimensionalen euklidi-
schen oder unitren Raumes mit lauter positiven Eigenwerten. Zeigen Sie, da dann und
2
dieselben Eigenvektoren besitzen und da die Eigenwerte von
2
die Quadrate der Eigenwerte
von sind.
7.14 Es sei {+1, 1}. Das charakteristische Polynom der Matrix
B =
_
_
_
_
_
_
1 0 0 1
0 1 0 1 0
0 1 0
0 1 0 1 0
1 0 0 1
_
_
_
_
_
_
ist gegeben durch X
3
(X 3) (X 2). Bestimmen Sie eine orthogonale Matrix P, so
da P
1
B P eine Diagonalmatrix ist.
7.15 Gegeben sei die folgende symmetrische reelle 5 5-Matrix
A =
_
_
_
_
_
_
1 0 1 1

2
0 1 1 1

2
1 1 0 1 0
1 1 1 0 0

2

2 0 0 1
_
_
_
_
_
_
.
(a) Zeigen Sie, da char Pol
A
(X) = (X +1)
3
(X 3)
2
gilt.
(b) Bestimmen Sie eine orthogonale 55-Matrix P, so da P
1
AP eine Diagonalmatrix
wird.
7.16 Sei A = (a
ij
) eine Hermitesche n n-Matrix. Zeigen Sie:
(a) Alle Hauptdiagonalelemente a
ii
von Asind reell.
(b) Das charakteristische Polynom char Pol
A
(X) von Ahat reelle Koefzienten.
(c) Die Determinante und die Spur von Asind reell.
7.17 Sei ein selbstadjungierter Endomorphismus des n-dimensionalen unitren Raumes
V, und seien c
1
c
2
c
n
die nach Satz 7.4.11 reellen Eigenwerte von . Zeigen Sie:
c
1
= max{(v v) | |v| = 1} und c
n
= min{(v v) | |v| = 1}.
7.18 Zeigen Sie: Jeder Endomorphismus eines endlich-dimensionalen euklidischen
bzw. unitren Vektorraums V kann auf genau eine Weise in der Form =
1
+
2
mit einem
selbstadjungierten Endomorphismus
1
und einem anti-selbstadjungierten Endomorphismus

2
dargestellt werden.
7.7 Aufgaben 193
7.19 Beweisen Sie die folgenden Behauptungen:
(a) Jede invertierbare reelle nn-Matrix Akann auf genau eineWeise als Produkt A = OS
einer orthogonalen nn-Matrix O und einer symmetrischen nn-Matrix S mit lauter
positiven reellen Eigenwerten dargestellt werden.
(b) Jede invertierbare komplexe n n-Matrix A kann auf genau eine Weise als Produkt
A = UH einer unitren nn-Matrix Uund einer Hermiteschen nn-Matrix H mit
lauter positiven reellen Eigenwerten dargestellt werden.
7.20 Man bestimme die Polarzerlegung A = OS von Aufgabe 7.19 (a) der reellen Matrix
A =
_
_
2 1 1
1 2 0
0 1 1
_
_
.
8 Anwendungen in der Geometrie
Die Aufgabe der Analytischen Geometrie ist es, geometrische Objekte und die Be-
ziehung zwischen ihnen rechnerisch zu erfassen. Dies wird durch die Festlegung
eines Koordinatensystems ermglicht. Die geometrischen Beziehungen gehen dann
in rechnerische Beziehungen zwischen Zahlen ber, nmlich den Koordinaten der
Punkte. DieWahl des Koordinatensystems ist dabei jedoch noch willkrlich und nicht
durch die geometrische Struktur bedingt. Rechnerische Beziehungen zwischen den
Koordinaten werden daher auch nur eine geometrische Bedeutung besitzen, wenn
sie von der Willkr der Koordinatenbestimmung unabhngig sind.
Der im ersten Abschnitt dieses Kapitels behandelte Begriff des afnen Raumes
gestattet eine Beschreibung geometrischer Sachverhalte, die weitgehend frei von
Willkr ist. Typisch fr die afne Geometrie sind u. a. die Begriffe des Teilverhlt-
nisses und der Parallelitt von Unterrumen. Aber gerade der letzte Begriff bedingt
hug bei Stzen der afnen Geometrie Komplikationen durch Fallunterscheidun-
gen, die z. B. dadurch bedingt sind, da parallele Geraden keinen Schnittpunkt besit-
zen. Dieser Umstand legt nahe, afne Rume durch Hinzunahme solcher fehlenden
Schnittpunkte als ideelle Elemente zu sogenannten projektiven Rumen zu erwei-
tern, auf die hier anschlieend kurz eingegangen wird. Die Geometrie dieser Rume
fhrt zu vielfach bersichtlicheren Stzen, die ihrerseits afner Spezialisierungen f-
hig sind. Als Beispiel hierfr wird am Ende des Kapitels auf die Klassizierung von
Quadriken eingegangen. WeitereAnwendungen beziehen sich auf die Klassizierung
der Drehungen imafnen euklidischen oder unitren Raumund die Beschreibung der
quivalenzklassen der afnen Quadriken bezglich der Gruppe der Kongruenzen.
8.1 Afne Rume
In diesem Kapitel bedeutet F immer einen kommutativen Krper. Alle betrachteten
F-Vektorrume sind endlich-dimensional.
8.1.1 Denition. Ein afner Raum A ber F besteht aus einer ebenfalls mit A be-
zeichneten Menge, deren Elemente Punkte genannt werden, und im Fall A = aus
einem F-Vektorraum V
A
sowie einer Zuordnung, die jedem geordneten Paar (p, q)
von Punkten aus A eindeutig einen mit

pq bezeichneten Vektor aus V


A
so zuordnet,
da folgende Axiome erfllt sind:
8.1 Afne Rume 195
(a) Zu jedem Punkt p A und jedem Vektor a V
A
gibt es genau einen Punkt
q A mit a =

pq.
(b)

pq +

qr =

pr.
Im Fall F = R oder F = C heit A reeller bzw. komplexer afner Raum.
Die Dimension dimA des afnen Raums A ist die Dimension des zugeordneten
Vektorraums V
A
. Falls A = wird dimA = 1 gesetzt.
8.1.2 Bemerkung. Das Axiom (a) von Denition 8.1.1 besagt gerade, da bei fester
Wahl des Punktes p A durch q

pq eine Bijektion A V
A
zugeordnet
wird. Man kann daher V
A
als den Raum der Ortsvektoren von A bezglich des
Anfangspunktes p auffassen. Als Anfangspunkt kann jedoch jeder beliebige Punkt
p gewhlt werden.
8.1.3 Hilfssatz. Fr Punkte p, q eines afnen Raumes A gilt:

pp = o und

qp =

pq.
Beweis: Wegen Axiom (b) von Denition 8.1.1 gilt

pp +

pp =

pp und somit

pp = o. Weiter folgt

pq +

qp =

pp = o. Daher ist

qp =

pq.
8.1.4 Denition. Eine Teilmenge Ueines afnen Raumes Aheit afner Unterraum
von A, wenn entweder U = oder die Menge V
U
= {

pq V
A
| p, q U} ein
Unterraum des F-Vektorraums V
A
ist.
Bezeichnung: U A.
8.1.5 Bemerkung. Ist die nicht-leere Teilmenge U von A ein afner Unterraum,
dann kann fr die Bestimmung des Untervektorraums V
U
ein Punkt p U fest
gewhlt und nur q U variiert werden. Denn fr jeden anderen Punkt p

U erhlt
man wegen

q =

p+

pq =

pp

pq V
U
denselben UnterraumV
U
von V
A
.
8.1.6 Hilfssatz. Der Durchschnitt D = {U | U S} eines nicht-leeren Systems S
von afnen Unterrumen U eines afnen Raumes A ist selbst ein afner Unterraum
von A. Im Fall D = gilt V
D
= {V
U
| U S}.
Beweis: Im Fall D = ist die Behauptung trivial. Andernfalls gibt es ein p D
derart, da
V
D
= {

pq | q D} =
_
US
{

pq | q U} =
_
{V
U
| U S}
gilt. Wegen Satz 2.1.8 ist V
D
ein Unterraum von V
A
.
196 8 Anwendungen in der Geometrie
8.1.7 Denition. Fr jede Teilmenge Mdes afnen Raums Aist nach Hilfssatz 8.1.6
M =
_
{U | M U, U ein Unterraum von A}
der kleinste afne Unterraumvon A, der Menthlt. Er heit der von Maufgespannte
oder erzeugte Unterraum.
8.1.8 Denition. Sei S ein System von afnen Unterrumen U des afnen Raumes
A. Dann ist
{U | U S} = U | U S
der Verbindungsraum von S. Man schreibt auch
U
1
U
k
= {U
i
| 1 i k},
falls S aus k Unterrumen U
i
von A besteht.
Statt {p} {q} wird vereinfachend p q geschrieben. p q heit die Verbin-
dungsgerade der Punkte p, q A, falls p = q.
8.1.9 Beispiele.
Jede einpunktige Teilmenge {p} eines afnen Raumes A ist ein Unterraum mit dem
Nullraum {o} = {

pp} als zugeordnetem Vektorraum. Es gilt daher dim{p} = 0.


Umgekehrt besteht jeder Unterraum U mit dimU = 0 aus genau einem Punkt.
DerVerbindungsraumpq zweier verschiedener Punkte besitzt die Dimension1.
Umgekehrt ist auch jeder Unterraum der Dimension 1 Verbindungsraum von zwei
verschiedenen Punkten.
Jeder Vektorraum V kann als afner Raum V mit sich selbst als zugeordnetem
Vektorraum aufgefat werden, wenn man fr je zwei Vektoren a, b V den Vektor

ab V
V
durch

ab = b a V deniert.
8.1.10 Denition. Unterrume der Dimension 1 des afnen Raumes A werden Ge-
raden, Unterrume der Dimension 2 Ebenen genannt.
Gilt fr einen Unterraum H = A und einen Punkt p A bereits H p = A, so
heit H eine Hyperebene von A.
8.1.11 Bemerkung. Im Fall dimA = n, sind die Hyperebenen genau die Unterru-
me der Dimension n 1. Ist n = 2, so ist jede Hyperebene eine Gerade von A.
8.1 Afne Rume 197
8.1.12 Satz (Dimensionssatz). Es seien U und Wzwei endlich-dimensionale Unter-
rume des afnen Raumes A. Dann ist
dimU +dimW=
_

_
dim(U W) +dim(U W)
falls U = oder W= oder U W= ,
dim(U W) +dim(U W) +dim(V
U
V
W
)
falls U = , W= und U W= .
Beweis: Da die Flle U = bzw. W = trivial sind, kann weiterhin U = und
W = angenommen werden. Sei zunchst auch U W = . Dann existiert ein
p U W. Nach Hilfssatz 8.1.6 gilt V
UW
= V
U
V
W
. Unmittelbar ergibt sich
V
U
V
UW
, V
W
V
UW
und daher V
U
+V
W
V
UW
. Da aber Z = {q |

pq
V
U
+V
W
} ein Unterraum von A mit U Z und W Z ist, folgt Z = U W. Also
ist V
UW
= V
U
+V
W
. Wegen Satz 2.2.16 erhlt man jetzt
dim(U W) +dim(U W) = dim(V
U
+V
W
) +dim(V
U
V
W
)
= dimV
U
+dimV
W
= dimU +dimW.
Nun sei U W = . Weiter seien p U und p

W fest gewhlt. Man erhlt


V
U
+V
W
+[

pp

]F V
UW
. Fr den UnterraumZ = {q |

pq V
U
+V
W
+[

pq]F}
von A gilt offenbar U Z und W Z. Daher ist Z = U W und V
UV
=
V
U
+V
W
+[

pp

]F. Wre

pp

V
U
+V
W
, so gbe es Punkte q U und q

W
mit

pp

=

pq +

, also mit

qq

=

qp +

pp

= o. Es wrde q = q

und
damit q U Wim Widerspruch zu U W= folgen. Daher gilt
dim(U W) = dim(V
U
+V
W
+[

pp

]F)
= dim(V
U
+V
W
) +1
= dimV
U
+dimV
W
dim(V
U
V
W
) dim(U W)
nach Satz 2.2.16, weil dim(U W) = 1 nach Denition 8.1.1 ist.
8.1.13 Denition. Zwei nicht-leere afne Unterrume U und Weines afnen Rau-
mes A heien parallel, wenn V
U
V
W
oder V
W
V
U
gilt. Auerdem soll der
leere Unterraum parallel zu allen afnen Unterrumen U sein.
Bezeichnung: U W.
8.1.14 Satz. Zwei nicht-leere parallele Unterrume U und Weines afnen Raumes
A sind entweder punktfremd, oder einer von ihnen ist ein Unterraum des anderen.
Beweis: Aus p U W und z. B. V
U
V
W
folgt fr jedes q U zunchst

pq V
U
, also

pq V
W
. Wegen p Wist daher auch q Wund somit U W.
198 8 Anwendungen in der Geometrie
8.1.15 Satz. Seien U ein nicht-leerer Unterraum und Heine Hyperebene des afnen
Raumes A der Dimension dimA = n 1. Dann sind U und H parallel, oder es gilt
dim(U H) = dimU 1.
Beweis: Aus U H folgt V
U
V
H
und daher U H. Weiter sei jetzt U nicht in H
enthalten. Dann gilt U H = A und im Fall U H = wegen Satz 8.1.12
dim(UH) = dimU+dimHdim(UH) = dimU+(n 1) n = dimU1.
Im Fall U H = liefert Satz 8.1.12 jedoch
dim(V
U
V
H
) = dimU +dimH dim(U H) dim(U H)
= dimU +(n 1) n (1)
= dimU = dimV
U
.
Es folgt V
U
V
H
= V
U
, also V
U
V
H
und daher wieder U H.
8.1.16 Folgerung. Zwei Geraden einer afnen Ebene sind entweder parallel oder
besitzen genau einen Schnittpunkt.
Beweis: Ergibt sich sofort aus Satz 8.1.15. Da sich die beiden Flle gegenseitig
ausschlieen, folgt aus dem Satz 8.1.14.
8.1.17 Denition. Ein (n + 1)-Tupel (p
0
, . . . , p
n
) von Punkten p
i
A heit un-
abhngig, wenn die Vektoren

p
0
p
1
, . . . ,

p
0
p
n
aus V
A
linear unabhngig sind. Ein
geordnetes (n +1)-Tupel K = (p
0
, . . . , p
n
) von Punkten aus dem afnen Raum A
heit ein Koordinatensystem von A, wenn die n + 1 Punkte p
i
, 0 i n, unab-
hngig sind und A = p
0
p
n
gilt. Der Punkt p
0
heit der Anfangspunkt, und
p
1
, . . . , p
n
werden die Einheitspunkte von K genannt.
8.1.18 Bemerkung. Ist K = (p
0
, . . . , p
n
) ein Koordinatensystem von A, so ist
dimA = n. Die Punkte p
0
, . . . , p
n
bilden genau dann ein Koordinatensystem des
afnen Raums A, wenn {

p
0
p
1
, . . . ,

p
0
p
n
} eine Basis von V
A
ist.
8.1.19 Denition. Sei K = (p
0
, . . . , p
n
) ein fest gewhltes Koordinatensystem des
n-dimensionalen afnen Raumes A ber dem Krper F. Da A = {

p
0
p
1
, . . . ,

p
0
p
n
}
eine Basis des F-Vektorraumes V
A
ist, existieren zu jedem Punkt x A eindeu-
tig bestimmte Skalare x
1
, x
2
, . . . , x
n
F derart, da der Vektor

p
0
x V
A
die
Basisdarstellung

p
0
x =

p
0
p
1
x
1
+

p
0
p
2
x
2
+ +

p
0
p
n
x
n
hat. Die Skalare x
1
, x
2
, . . . , x
n
heien die Koordinaten des Punktes x bezglich des
Koordinatensystems K. Das n-Tupel x = (x
1
, x
2
, . . . , x
n
) F
n
heit der Koordi-
natenvektor des Punktes x von A bezglich des Koordinatensystems K.
8.1 Afne Rume 199
8.1.20 Satz. Sei K = (p
0
, . . . , p
n
) ein fest gewhltes Koordinatensystem des n-
dimensionalen afnen Raumes A. Dann gilt:
(a) Jeder Punkt x des afnen Raumes A ist eindeutig durch seinen Koordinaten-
vektor x = (x
1
, . . . , x
n
) F
n
bezglich K bestimmt.
(b) Der Vektor

xy V
A
zwischen den Punkten x, y A besitzt bezglich
der Basis {

p
0
p
1
, . . . ,

p
0
p
n
} von V
A
die eindeutig bestimmten Koordinaten
y
1
x
1
, . . . , y
n
x
n
.
Beweis: (b) Sind y
1
, . . . , y
n
die Koordinaten eines weiteren Punktes y von A be-
zglich des Koordinatensystems K, so gilt

xy =

p
0
y

p
0
x =

p
0
p
1
(y
1
x
1
) + +

p
0
p
n
(y
n
x
n
).
(a) Nach Hilfssatz 8.1.3 gilt daher x = y genau dann, wenn x = (x
1
, . . . , x
n
) =
(y
1
, . . . , y
n
) = y ist.
8.1.21 Satz. Sei K = (p
0
, . . . , p
n
) ein Koordinatensystem des afnen Raumes A.
Die Menge U aller Punkte x A, deren Koordinaten x
1
, . . . , x
n
Lsungen eines
gegebenen linearen Gleichungssystems
(G)
n

j=1
a
i,j
x
j
= b
i
fr i = 1, . . . , r
sind, ist ein afner Unterraum von A.
Im Fall U = gilt dimU = n r, wobei r der Rang der Koefzientenmatrix
A = (a
i,j
) von (G) ist.
Umgekehrt ist jeder Unterraum U von A die Lsungsgesamtheit eines inhomo-
genen Gleichungssystems (G) Ax = b.
Beweis: Wenn (G) nicht lsbar ist, gilt U = . Andernfalls sei x ein fester Punkt aus
U mit den Koordinaten x
1
, . . . , x
n
. Dann ist y U nach Satz 8.1.20 gleichwertig
damit, da die Koordinaten y
1
, . . . , y
n
von y eine Lsung von (G) sind. Also sind
die Koordinaten y
1
x
1
, . . . , y
n
x
n
des Vektors

xy Lsungen des zugehrigen
homogenen Gleichungssystems (H) Ax = o. Wegen Satz 3.2.13 ist daher V
U
=
{

xy | y U} ein (n r)-dimensionaler Unterraum des Vektorraums V


A
. Deshalb is
U ein afner Unterraum von A mit dimU = n r. Die Umkehrung folgt sofort aus
bungsaufgabe 3.14 und Denition 8.1.4.
8.1.22 Bemerkung. Speziell ist a
1
x
1
+ + a
n
x
n
= b nach Satz 8.1.21 die Glei-
chung einer Hyperebene, wenn nicht alle Koefzienten a
i
verschwinden.
8.1.23 Denition. Man nennt drei Punkte x, y, z eines afnen Raumes A kollinear,
wenn sie auf einer gemeinsamen Geraden liegen.
200 8 Anwendungen in der Geometrie
8.1.24 Denition. Sind die Punkte x, y, z des afnen Raumes Akollinear und x = y,
so existiert ein Skalar c F derart, da

xz =

xyc ist. Man nennt dann c das
Teilverhltnis der kollinearen Punkte x, y, z.
Bezeichnung: c = TV(x, y, z).
8.1.25 Bemerkung. Es seien x
i
, y
i
, z
i
fr i = 1, . . . , n die Koordinaten der Punkte
x, y, z aus Denition 8.1.24 hinsichtlich eines gegebenen Koordinatensystems. We-
gen x = y, gibt es nach Denition 8.1.24 ein c F derart, da z
i
x
i
= (y
i
x
i
)c
fr i = 1, . . . , n und y
i
= x
i
fr mindestens einen Index i. Fr jeden solchen Index
erhlt man daher
TV(x, y, z) =
z
i
x
i
y
i
x
i
.
8.1.26 Denition. Sei A ein reeller bzw. komplexer afner Raum. Dann heit A
ein euklidisch-afner bzw. unitr-afner Raum, wenn in V
A
ein skalares Produkt
deniert ist. In diesem Fall heit ein Koordinatensystem K = (p
0
, . . . , p
n
) von
A kartesisches Koordinatensystem, wenn {

p
0
p
1
, . . . ,

p
0
p
n
} eine Orthonormalbasis
von V
A
ist.
Der Abstand pq zweier Punkte p, q eines euklidisch-afnen bzw. unitr-afnen
Raumes A und der Kosinus des Winkels (p, q, r) mit p als Scheitel werden deniert
durch
pq = |

pq| und cos(p, q, r) = cos(

pq,

pr) =

pq

pr
|

pq| |

pr|
.
8.2 Afne Abbildungen
In diesem Abschnitt bezeichnen A und B stets zwei nicht-leere afne Rume ber
dem Krper F mit den endlich-dimensionalen Vektorrumen V
A
und V
B
.
8.2.1 Denition. Eine Abbildung : A B heit eine afne Abbildung, wenn
es zu ihr eine lineare Abbildung : V
A
V
B
mit

pq =

pq fr alle Punkte
p, q A gibt.
8.2.2 Hilfssatz. Bei festen Punkten p A und p

B entsprechen die linea-


ren Abbildungen : V
A
V
B
umkehrbar eindeutig den afnen Abbildungen
: A Bmit p = p

.
Beweis: Jede afne Abbildung : A Bbestimmt nach Denition 8.2.1 eindeu-
tig eine lineare Abbildung : V
A
V
B
. Ist umgekehrt eine lineare Abbildung
: V
A
V
B
gegeben, so kann man noch einem Punkt p A seinen Bild-
punkt p

Bbeliebig vorschreiben. Dann aber gibt es genau eine afne Abbildung


: A Bmit p = p

und mit als zugeordneter linearer Abbildung: Fr jeden


8.2 Afne Abbildungen 201
Punkt x A mu dann nmlich

p

x =

px =

px gelten. Umgekehrt wird


hierdurch eine afne Abbildung der behaupteten Art deniert.
8.2.3 Hilfssatz. Sei : A Beine afne Abbildung zwischen den afnen Rumen
A und B. Dann gelten:
(a) : A B ist genau dann eine injektive (surjektive) Abbildung, wenn die
zugeordnete lineare Abbildung injektiv (surjektiv) ist.
(b) Ist U ein afner Unterraum von A, so ist U ein afner Unterraum von B. Im
Fall U = gilt V
U
= V
U
.
(c) Ist Wein afner Unterraum von B, so ist

(W) = {p A | p W} ein
Unterraum von A. Im Fall

(W) = gilt V

(W)
=

(W
W
).
(d) Mit und ist auch eine afne Abbildung, deren zugeordnete lineare
Abbildung

ist.
(e) Wenn eine bijektive afne Abbildung von Aauf Bist, dann ist auch
1
eine
afne Abbildung mit
1
als zugeordneter linearer Abbildung.
Die einfachen Beweise dieser fnf Behauptungen sollen dem Leser berlassen
bleiben.
8.2.4 Satz. Es sei : A Beine afne Abbildung. Dann gelten:
(a) Sind U und W parallele Unterrume von A, so sind U und W ebenfalls
parallel.
(b) Sind U

und W

parallele Unterrume von B, so sind auch

(U

) und

(W

)
parallel.
(c) Mit x, y, z sind auch die Bildpunkte x, y, z kollinear. Aus x = y und
x = y folgt
TV(x, y, z) = TV(x, y, z).
Beweis: (a) Zunchst kann von allen auftretenden Unterrumen vorausgesetzt wer-
den, da sie nicht leer sind, da sonst die Parallelittsaussage trivial ist. Ohne Ein-
schrnkung der Allgemeinheit kann weiter V
U
V
W
angenommen werden. Nach
Hilfssatz 8.2.3 sind V
U
und V
W
die zu U und W gehrenden Vektorrume.
Wegen V
U
V
W
sind daher U und Wparallel. Entsprechend ergibt sich die
Behauptung (b).
(c) Seien jetzt x, y, z kollineare Punkte des afnen Raumes A. Mit U = x y z
gilt dann dimU 1. Daher ist dim(U) = dim( V
U
) dimV
U
1 wegen
Folgerung 2.2.14 und Satz 3.2.7. Die Punkte x, y, z U sind somit ebenfalls
kollinear. Gilt weiter x = y und

xz =

xyc, so folgt

xz =

xz = (

xy)c =

xyc und im Fall x = y hieraus die Behauptung.


202 8 Anwendungen in der Geometrie
8.2.5 Hilfssatz. Es sei K = (p
0
, . . . , p
n
) ein Koordinatensystemdes afnen Raumes
A, und p

0
, . . . , p

n
seien beliebige Punkte des afnen Raumes B. Dann gilt:
(a) Es gibt genau eine afne Abbildung von A auf den Unterraum W =
p

0
p

n
von Bderart, da p
i
= p

i
fr i = 0, . . . , n gilt.
(b) Diese afne Abbildung ist genau dann eine Bijektion, wenn (p

0
, . . . , p

n
)
ein Koordinatensystem von Wist.
Beweis: (a) Da die Vektoren

p
0
p
1
, . . . ,

p
0
p
n
eine Basis von V
A
bilden, gibt es nach
Satz 3.2.4 genau eine lineare Abbildung : V
A
V
B
mit

p
0
p
i
=

p

0
p

i
fr
i = 1, . . . , n. Der linearen Abbildung und den Punkten p
0
, p

0
entspricht aber
nach Hilfssatz 8.2.2 umkehrbar eindeutig eine afne Abbildung : A Bderart,
da

0
p
i
=

p
0
p
i
=

0
p

i
und daher p
i
= p

i
fr i = 0, . . . , n gilt.
(b) Diese afne Abbildung ist wegen Folgerung 3.2.14 und Hilfssatz 8.2.3
genau dann bijektiv, wenn auch die Vektoren

p

0
p

1
, . . . ,

0
p

n
linear unabhngig
sind und V
W
erzeugen, wenn also K

= (p

0
, . . . , p

n
) ein Koordinatensystem von
Wist.
8.2.6 Bemerkung. Wegen Hilfssatz 8.2.2 bentigt man zur Beschreibung einer af-
nenAbbildung nicht nur die zugeordnete lineareAbbildung , sondern es mu auch
noch der Bildpunkt p

eines Punktes p angegeben werden. Bei der koordinatenm-


igen Darstellung einer afnen Abbildung whlt man dabei fr p den Anfangspunkt
eines Koordinatensystems.
8.2.7 Satz. Es seien A und B zwei afne Rume ber dem Krper F mit den
Koordinatensystemen K = (p
0
, p
1
, . . . , p
n
) bzw. K

= (p

0
, p

1
, . . . , p

r
). Fer-
ner sei : A B eine afne Abbildung, deren zugehrige lineare Abbildung
: V
A
V
B
bezglich der Vektorraumbasen B = {

p
0
p
1
, . . . ,

p
0
p
n
} und
B

= {

0
p

1
, . . . ,

0
p

r
} von V
A
bzw. V
B
die rn-Matrix A = A

(B, B

) = (a
ij
)
hat. Schlielich sei t = (t
1
, t
2
, . . . , t
r
) der Koordinatenvektor von p
0
bezglich K

.
Fr einen beliebigen Punkt x A mit dem Koordinatenvektor x = (x
1
, . . . , x
n
)
bezglich K und seinen Bildpunkt x mit dem Koordinatenvektor x

= (x

1
, . . . , x

r
)
bezglich K

gilt dann
x

i
= t
i
+
n

j=1
a
ij
x
j
fr i = 1, 2, . . . , r
oder gleichwertig in Matrizen- und Spaltenschreibweise
x

= t +Ax.
8.2 Afne Abbildungen 203
Beweis: Nach Voraussetzung gelten fr die lineare Abbildung : V
A
V
B
die
Gleichungen:
(

p
0
p
j
) =
r

i=1
(

o
p

i
)a
ij
fr i = 1, 2, . . . , n.
Sei x A ein beliebiger Punkt mit Bildpunkt x. Wegen

0
p
0
=
r

i=1
(

0
p

i
)t
i
gilt dann

0
x =
r

i=1

0
p

i
x

i
und

p
o
x =
n

j=1

p
0
p
j
x
j
.
Da

0
x =

0
p
0
+

p
0
x =

0
p
0
+

p
0
x ergibt sich hieraus

0
x =
r

i=1

0
p

i
t
i
+
_
n

j=1

p
0
p
j
x
j
_
=
r

i=1

0
p

i
t
i
+
n

j=1
_
r

i=1

0
p

i
a
ij
_
x
j
=
r

i=1

0
p

i
_
t
i
+
n

j=1
a
ij
x
j
_
.
Durch Koefzientenvergleich folgt
x

i
= t
i
+
n

j=1
a
ij
x
j
fr 1 i r, d. h. x

= t +Ax.

8.2.8 Denition. Bijektive afneAbbildungen eines afnen Raumes Aauf sich wer-
den Afnitten genannt.
8.2.9 Bemerkung. Wegen Hilfssatz 8.2.3 (d) und (e) bilden die Afnitten eines
afnen Raumes A eine Gruppe. Sie heit afne Gruppe von A.
8.2.10 Denition. Eine Afnitt von A heit eine Translation, wenn

pp =

qq
fr alle Punkte p, q A gilt. Der dann von der Wahl des Punktes p unabhngige
Vektor t =

pp V
A
wird der Translationsvektor von genannt.
8.2.11 Bemerkung. Eine Translation ist durch ihren Translationsvektor eindeutig
bestimmt. Jeder Vektor t V
A
ist auch Translationsvektor der durch

pp = t de-
nierten Translation. Die Identitt ist die Translation mit dem Nullvektor als Trans-
lationsvektor. Sind und zwei Translationen mit den Translationsvektoren t und
204 8 Anwendungen in der Geometrie
t

, so sind auch und Translationen mit t +t

als Translationsvektor. Es folgt


= ; d. h. je zwei Translationen sind vertauschbar. Schlielich ist t der Trans-
lationsvektor von
1
, wenn t der Translationsvektor von ist. Die Translationen
von A bilden daher eine abelsche Gruppe.
8.2.12 Hilfssatz. Fr eine Afnitt von A sind folgende Aussagen paarweise
gleichwertig:
(a) ist eine Translation.
(b) Fr je zwei Punkte p, q A gilt

pq =

pq.
(c) Die zugeordnete lineare Abbildung ist die Identitt.
Beweis: Es ist

pp =

qq gleichwertig mit

pp =

qq, wegen

pq =

pp +

pq +

qq also auch gleichwertig mit

pq =

pq. Die letzte Gleichung ist aber
wegen

pq =

pq wieder gleichwertig damit, da die Identitt von V


A
ist.
8.2.13 Denition. Ein Punkt p des afnen Raumes A heit Fixpunkt einer Afnitt
von A, wenn p = p gilt.
8.2.14 Satz. Bei gegebenemp Akann jede Afnitt von Aauf genau eine Weise
in der Form =

dargestellt werden, wobei

eine Translation und

eine
Afnitt von A mit p als Fixpunkt ist.
Beweis: Es sei

die Translation mit demTranslationsvektor

pp. Dann gilt

p =
p, und fr die Afnitt

=
1
folgt hieraus

p =
1
(p) = p. Ist
umgekehrt =

eine Produktdarstellung der angegebenen Art, so folgt

p =

p) = p. Daher mu

pp der Translationsvektor von

sein; d. h.

und
damit auch

sind eindeutig bestimmt.


8.3 Kongruenzen und Drehungen
In diesem Abschnitt sei A stets ein euklidisch-afner oder unitr-afner Raum im
Sinne der Denition 8.1.26.
8.3.1 Denition. EineAfnitt von Aheit eine Kongruenz, wenn sie denAbstand
je zweier Punkte von Anicht ndert, wenn also pq = pq fr alle Punkte p, q A
gilt.
8.3.2 Bemerkung. Jede Translation ist eine Kongruenz; denn wegen Hilfs-
satz 8.2.12 gilt pq = |

pq| = |

pq| = pq. Mit und sind auerdem offenbar


auch und
1
Kongruenzen. Die Kongruenzen von Abilden daher ihrerseits eine
Gruppe, die die Gruppe der Translationen als Untergruppe enthlt.
8.3 Kongruenzen und Drehungen 205
8.3.3 Satz. Eine Afnitt des euklidisch-afnen oder unitr-afnen Raumes A ist
genau dann eine Kongruenz, wenn die ihr zugeordnete lineare Abbildung eine
orthogonale bzw. unitre Abbildung von V
A
ist.
Beweis: Wegen

pq =

pq ist genau dann eine Kongruenz, wenn |

pq| = |

pq|
fr alle p, q A, also | x| = |x| fr alle x V
A
gilt. Dies ist aber nach Satz 7.5.2
gleichwertig damit, da orthogonal bzw. unitr ist.
8.3.4 Denition. Eine Afnitt des euklidisch-afnen oder unitr-afnen Raumes
A heit eine hnlichkeit, wenn es eine reelle Zahl c > 0 gibt, so da pq = pqc
fr alle p, q A gilt. Es wird dann c der hnlichkeitsfaktor von genannt.
8.3.5 Bemerkung. Jede Kongruenz ist eine hnlichkeit mit dem hnlichkeitsfak-
tor 1.
Sind und hnlichkeiten mit denhnlichkeitsfaktoren c bzw. c

, so ist eine
hnlichkeit mit dem Faktor cc

und
1
eine hnlichkeit mit dem Faktor
1
c
. Daher
bilden auch die hnlichkeiten von A eine Gruppe, die die Gruppe der Kongruenzen
als Untergruppe enthlt.
8.3.6 Satz. Eine Afnitt des euklidisch-afnen oder unitr-afnen Raumes A ist
genau dann eine hnlichkeit, wenn die ihr zugeordnete lineare Abbildung die Form
=

c mit einer reellen Zahl c > 0 und einer orthogonalen bzw. unitren Abbildung

besitzt.
Insbesondere sind hnlichkeiten winkeltreu.
Beweis: Es ist genau dann eine hnlichkeit mit dem hnlichkeitsfaktor c, wenn
|

pq| = c|

pq| fr alle p, q A, also | x| = c|x| fr alle x V


A
gilt. Dies ist
aber gleichwertig mit

_

1
c
_
x

= |x|. Aus Satz 7.5.2 folgt, da



=
1
c
dann eine
orthogonale bzw. unitre Abbildung ist.
Seien p, q, r drei Punkte und eine hnlichkeit von A mit hnlichkeitsfaktor
c. Nach Denition 8.1.26 gilt dann
cos(p, q, r) =
(

pq) (

pr)
|

pq||

pr|
=
(

pq)(

pr)c
2
|

pq||

pr|c
2
=

pq

pr
|

pq||

pr|
= cos(p, q, r).

8.3.7 Folgerung. Sei eine Afnitt des n-dimensionalen euklidisch-afnen bzw.


unitr-afnen Raumes A mit kartesischem Koordinatensystem K. Dann gilt:
(a) ist genau dann eine Kongruenz, wenn hinsichtlich Keine orthogonale bzw.
unitre n n-Matrix Abezglich K zugeordnet ist.
206 8 Anwendungen in der Geometrie
(b) ist genau dann eine hnlichkeit, wenn hinsichtlich K eine n n-Matrix
Avon der Form A = Bc hat, wobei B eine orthogonale bzw. unitre n n-
Matrix und c eine positive reelle Zahl ist.
Beweis: Folgt unmittelbar aus den Stzen 8.3.3, 8.3.6 und 7.5.9.
8.3.8 Denition. Teilmengen M, N von Aheien kongruent (hnlich), wenn es eine
Kongruenz (hnlichkeit) von A mit M = N gibt.
8.3.9 Bemerkungen.
Kongruenz undhnlichkeit von Teilmengen sindquivalenzrelationen. Ein Beispiel
inder euklidisch-afnenEbene Alieferndie bekanntenKongruenzstze fr Dreiecke:
Mit den Eckpunkten p
0
, p
1
, p
2
und q
0
, q
1
, q
2
zweier nicht entarteter Dreiecke sind
K
1
= (p
0
, p
1
, p
2
) und K
2
= (q
0
, q
1
, q
2
) zwei Koordinatensysteme von A. Nach
Hilfssatz 8.2.5 existiert genau eine Afnitt von Amit p
i
= q
i
fr i = 0, 1, 2, die
somit das erste Dreieck auf das zweite abbildet. Zum Beweis der Kongruenzstze
ist zu zeigen, da unter den jeweiligen Voraussetzungen sogar eine Kongruenz ist.
Entsprechendes gilt hinsichtlich der hnlichkeit.
Zu einer Kongruenz gibt es nach Satz 8.2.14 mit q = p eine Translation und
eineAfnitt

mit =

und

p = p. Wegen Bemerkung 8.3.2 ist aber dann mit


und auch

eine Kongruenz. Da man die Translationen vollstndig berblickt,


kann man sich hiernach bei der Untersuchung von Kongruenzen auf solche mit ei-
nem Fixpunkt p beschrnken. Hinsichtlich eines kartesischen Koordinatensystems
K = (p
0
, . . . , p
n
) mit p
0
= p entspricht einer derartigen Kongruenz die Koordina-
tendarstellung (y
1
, . . . , y
n
) = A(x
1
, . . . , x
n
) mit einer orthogonalen bzw. unitren
Matrix A. Statt der Kongruenzen gengt es daher, die ihnen entsprechenden ortho-
gonalen bzw. unitren Automorphismen von V
A
zu untersuchen.
Wegen der Stze 7.5.8 und 7.4.13 gibt es zu jedem unitren Automorphismus
eines endlich-dimensionalen unitren Raumes V eine Orthonormalbasis B aus
Eigenvektoren von derart, da A

(B, B) eine Diagonalmatrix ist, deren Diago-


nalelemente als Eigenwerte von nach Satz 7.5.2 smtlich den Betrag 1 haben.
Umgekehrt ist auch jede solche Diagonalmatrix unitr.
Da man hiernach die unitrenAutomorphismen und damit auch die Kongruenzen
vollstndig bersieht, sollen weiterhin nur noch die orthogonalen Automorphismen
eines endlich-dimensionalen euklidischen Raumes V
A
untersucht werden.
8.3 Kongruenzen und Drehungen 207
8.3.10 Satz. Ein Automorphismus von V
A
ist genau dann orthogonal, wenn es
eine Orthonormalbasis B von V
A
gibt derart, da
A

(B, B) =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+1
.
.
.
+1
1
.
.
.
1

.
.
.

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
gilt, wobei jedes Kstchen ein Zweierkstchen der Form
cos
j
sin
j
sin
j
cos
j
mit <
j
fr 1 j s ist.
Beweis: Sei zunchst ein orthogonaler Automorphismus von V
A
. Wegen Satz 7.5.2
besitzen alle Eigenwerte von den Betrag 1. Als reelle Eigenwerte knnen daher nur
+1 und 1 auftreten. Die komplexen Eigenwerte besitzen die Form cos
j
+i sin
j
mit <
j
. Wegen Satz 7.5.8 ist auerdem normal. Daher liefert Satz
7.4.17 die Behauptung.
Die Umkehrung ist trivial, weil A

(B, B) eine orthogonale Matrix ist.


8.3.11 Bemerkung. In der Matrix A

(B, B) von Satz 8.3.10 knnen noch je zwei


Diagonalelemente +1 zu einem Zweierkstchen mit dem Winkel = 0 und je zwei
Diagonalelemente 1 zu einem Zweierkstchen mit demWinkel = zusammen-
gefat werden, so da neben den Zweierkstchen hchstens eine +1 und hchstens
eine 1 auftritt.
Fr einen orthogonalen Automorphismus von V gilt nach Satz 7.5.10 stets
det = 1.
8.3.12 Denition. Ein orthogonaler Automorphismus des afn-euklidischen
Raumes A heit eigentlich orthogonal, oder eine Drehung wenn det = +1 gilt.
Andernfalls wird uneigentlich orthogonal genannt.
8.3.13 Folgerung. Ein orthogonaler Automorphismus ist genau dann uneigentlich
orthogonal, wenn 1 als Eigenwert eine ungeradzahlige Vielfachheit besitzt. Insbe-
sondere bilden die Drehungen eine Untergruppe der orthogonalen Gruppe.
208 8 Anwendungen in der Geometrie
Beweis: Es sei k die Vielfachheit des Eigenwerts 1 des orthogonalen Automor-
phismus von V
A
. Da in Satz 8.3.10 jedes Zweierkstchen die Determinante
cos
2

i
+ sin
2

i
= +1 besitzt, folgt 1 = det = det A

(B, B) = (1)
k
genau
dann, wenn k gerade ist. Also gilt die Behauptung.
8.3.14 Denition. Es sei H eine Hyperebene von V
A
und n = o sei ein Normalen-
vektor zu H. Dann besitzt jeder Vektor v V
A
eine eindeutige Darstellung
v = v
H
+v
n
mit v
H
H und v
n
n. ()
Ein Automorphismus von V
A
heit eine Spiegelung, wenn es eine Hyperebene
H von V
A
gibt, so da (v)
H
= v
H
und (v)
n
= v
n
fr alle v V gilt, wobei
n V
A
der in () gewhlte Normalvektor zur Hyperebene H ist.
8.3.15 Satz. (a) Jede Spiegelung ist ein uneigentlich orthogonaler Automor-
phismus mit
1
= .
(b) Ein uneigentlich orthogonaler Automorphismus von V
A
ist genau dann eine
Spiegelung, wenn +1 ein (n 1)-facher und 1 ein 1-facher Eigenwert von
ist.
(c) Es sei
1
eine gegebene Spiegelung. Fr jeden uneigentlich orthogonalen Au-
tomorphismus von V
A
gilt dann =
2

1
=
1

2
mit Drehungen
2
,

2
.
Beweis: (a) Es sei {e
1
, . . . , e
n1
} eine Orthonormalbasis der zu gehrenden Hy-
perebene H, und e
n
sei ein normierter Normalenvektor zu H. Dann ist {e
1
, . . . , e
n
}
eine Orthonormalbasis von V
A
, hinsichtlich derer die Diagonalmatrix D mit
den Diagonalelementen 1, . . . , 1, 1 entspricht. Sie ist eine orthogonale Matrix mit
det D = 1, und es gilt D
2
= E, also D
1
= D.
(b) Ist eine Spiegelung, so folgt die Behauptung ber die Eigenwerte unmit-
telbar mit Hilfe der Matrix D aus Beweisteil (a). Umgekehrt ist der Eigenraum zum
Eigenwert +1 eine Hyperebene H, und der Eigenraum zum Eigenwert 1 ist nach
Satz 7.4.11 (c) zu H orthogonal. Es folgt, da eine Spiegelung ist.
(c) Die Behauptung gilt mit
2
=
1
1
,

2
=
1
1
, weil det
2
= (1)(1) =
1 = det

2
.
Da man nach Satz 8.3.15 die Spiegelungen vollstndig bersieht, bedarf es we-
gen 8.3.15 (c) nur noch einer Diskussion der Drehungen. Wegen Satz 8.3.10 und
Bemerkung 8.3.11 setzt sich eine Drehung aus Drehungen in paarweise ortho-
gonalen Ebenen zusammen, die noch durch den zu ihnen orthogonalen Eigenraum
zum Eigenwert +1 ergnzt werden, auf dem jedoch die Identitt ist. Man mu da-
her lediglich noch die Drehungen eines 2-dimensionalen euklidischen Vektorraums
untersuchen.
8.3 Kongruenzen und Drehungen 209
8.3.16 Satz. (a) Die Drehungen eines 2-dimensionalen euklidischenVektorraums
V bilden eine abelsche Gruppe.
(b) Fr eine Drehung und einen uneigentlich orthogonalen Automorphismus
von V gilt hingegen =
1
.
Beweis: (a) Es sei B = {e
1
, e
2
} eine feste Orthonormalbasis von V. Drehungen ,
entsprechen dann bezglich B Matrizen der Form
A

=
_
cos sin
sin cos
_
und A

=
_
cos sin
sin cos
_
,
wobei < , . Mit Hilfe der Additionstheoreme fr cos und sin rechnet
man unmittelbar die Gleichung
A

=
_
cos( +) sin( +)
sin( +) cos( +)
_
nach. Der Multiplikation der Matrizen entspricht also die Addition der Winkel ,
modulo 2. Da die Addition kommutativ ist, gilt dasselbe fr die Multiplikation der
Matrizen und damit auch fr die Gruppe der Drehungen.
(b) Wegen 8.3.15 (c) kann in der Form =
1

2
mit einer Drehung
1
und
einer Spiegelung
2
an der Geraden e
2
dargestellt werden. Es folgt bei Berck-
sichtigung von (a)
A

= A

1
A

2
= A

1
A

2
= A

1

_
cos sin
sin cos
__
1 0
0 1
_
= A

1

_
1 0
0 1
__
cos sin
sin cos
_
= A

1
A

2
A
T

= A

A
T

.
Wegen A
T

= A
1

folgt hieraus die Behauptung.


8.3.17 Bemerkung. Sei A

die Matrix des Beweises zu 8.3.16 (a). Dann gilt of-


fenbar cos = e
1
e
1
und sin = e
2
e
1
. Ersetzt man in der Orthonormalbasis
B = {e
1
, e
2
} den Vektor e
2
durch e
2
, so ndert sich das Vorzeichen von sin und
damit auch das von . Der Winkel hngt also nicht nur von sondern auch von
der Wahl der Orthonormalbasis ab. Der nchste Satz wird jedoch zeigen, da diese
Abhngigkeit recht einfacher Natur ist. Dazu wird noch die folgende Begriffsbildung
bentigt.
210 8 Anwendungen in der Geometrie
8.3.18 Denition. Es seien B und B

zwei Basen des reellenVektorraums V. Weiter


sei T die Transformationsmatrix des Basiswechsels B B

. Dann heien diese


beiden Basen gleich orientiert, wenn det T > 0 gilt. Im anderen Fall werden sie
entgegengesetzt orientiert genannt.
Die Beziehung

gleich orientiert ist offenbar eine quivalenzrelation. Die Ge-


samtheit aller Basen eines endlich-dimensionalen reellen Vektorraums zerfllt daher
in zwei Klassen: Je zwei Basen derselben Klassen sind gleich orientiert, whrend je
eine Basis der einen und der anderen Klasse entgegengesetzt orientiert sind.
8.3.19 Denition. Man nennt den Vektorraum V orientiert, wenn eine der beiden
Klassen gleich-orientierter Basen als positiv orientiert ausgezeichnet ist. Die Basen
von V aus dieser ausgezeichneten Klasse werden dann ebenfalls positiv orientiert,
die aus der anderen Klasse negativ orientiert genannt.
8.3.20 Bemerkung. Wie die Denition 8.3.18 zeigt, ist der Begriff der Orientierung
nicht auf komplexe Vektorrume bertragbar.
In reellen Vektorrumen V sind die beiden Klassen gleich-orientierter Basen
zunchst gleichberechtigt. Eine Orientierung von V ist daher eine zustzliche Fest-
setzung.
8.3.21 Satz. Es sei eine Drehung eines zweidimensionalen, orientierten, eukli-
dischen Raumes V. Dann gibt es genau einen Winkel mit < + und
folgender Eigenschaft: Hinsichtlich jeder positiv orientierten Orthonormalbasis B
hat dieselbe Matrix
A

(B, B) =
_
cos sin
sin cos
_
= A().
Bezglich jeder negativ orientierten Orthonormalbasis B

hat die Matrix


A

(B

, B

) = (A())
T
= A().
Beweis: Es sei B = {e
1
, e
2
} eine positiv orientierte Orthonormalbasis von V. Die
hinsichtlich B = {e
1
, e
2
} zugeordnete Matrix A

(B, B) = A() hat daher nach


Satz 8.3.10 die behauptete Gestalt.
Weiter sei jetzt B

= {e

1
, e

2
} eine zweite Orthonormalbasis von V. Sei die
orthogonale Abbildung des Basiswechsels von B nach B

. Dann gilt e

1
= e
1
,
e

2
= e
2
und x y = x y fr alle x, y V nach Denition 7.5.1.
Es sei jetzt B

ebenfalls positiv-orientiert, also eine Drehung. Wegen Satz


8.3.16 (a) folgt dann
cos

= (e

1
) e

1
= (e
1
) e
1
= (e
1
) e
1
= (e
1
) e
1
= cos ,
sin

= (e

2
) e

1
= (e
2
) e
1
= (e
2
) e
1
= (e
2
) e
1
= sin
8.3 Kongruenzen und Drehungen 211
und damit A

(B

, B

) = A(). Zweitens sei B

negativ-orientiert. Dann ist unei-


gentlich orthogonal. Wieder wegen Satz 8.3.16 (b) und wegen
1
=

erhlt man
nun
cos

= (e

1
) e

1
= (e
1
) e
1
= (
1
e
1
) e
1
=

e
1
e
1
= e
1
e
1
= e
1
e
1
= cos ,
sin

= (e

2
) e

1
= (e
2
) e
1
= (
1
e
2
) e
1
=

e
2
e
1
= e
2
e
1
= sin .
Also gilt A

(B

, B

) = (A())
T
= A().
8.3.22 Denition. Der durch eine Drehung der orientierten euklidischen Ebene
nach Satz 8.3.21 eindeutig bestimmte Winkel heit der orientierte Drehwinkel
von .
8.3.23 Satz. Ein uneigentlich orthogonaler Automorphismus eines zweidimen-
sionalen euklidischen Raumes ist eine Spiegelung an einer eindeutig bestimmten
Geraden.
Beweis: Nach Satz 8.3.15 (b) besitzt die Eigenwerte +1 und 1. Also ist eine
Spiegelung an demeindimensionalen EigenraumzumEigenwert +1. Dieser ist durch
eindeutig bestimmt.
8.3.24 Bemerkung. Eine Drehung eines dreidimensionalen euklidischen Rau-
mes wird nach Satz 8.3.10 hinsichtlich einer geeigneten Orthonormalbasis B =
{e
1
, e
2
, e
3
} durch eine Matrix der Form
A = A

(B, B) =
_
_
1 0 0
0 cos sin
0 sin cos
_
_
beschrieben. Man nennt den Drehwinkel von . Wenn nicht die Identitt ist, A
also nicht die Einheitsmatrix E
3
ist, besitzt der Eigenwert +1 von die Vielfachheit
1, und der zugehrige EigenraumD = e
1
Rist nach Satz 6.1.16 eindimensional. Man
nennt D die Drehachse von . Der zu D orthogonale, zweidimensionale Unterraum
D

= {e
2
, e
3
} heit die Drehebene von .
Geometrisch ist eine Drehung = id durch ihre Drehachse D und ihren Dreh-
winkel gekennzeichnet. Diese Bestimmungsstcke knnen in der oben angegebe-
nen Matrix A

(B, B) von unmittelbar abgelesen werden. Ist jedoch durch eine


andere Matrix beschrieben, dann knnen die Drehachse D und der Drehwinkel
(bis auf das Vorzeichen) ebenfalls einfach berechnet werden, wie der folgende Satz
zeigt.
212 8 Anwendungen in der Geometrie
8.3.25 Satz. Sei = id eine Drehung des dreidimensionalen euklidischen Raumes
V. Dann ist die Drehachse von der EigenraumzumEigenwert +1. Hat bezglich
der Basis B von V die Matrix A

(B, B) = A, so ergibt sich der Drehwinkel von


aus der Gleichung
cos =
1
2
(tr(A) 1)
bis auf das Vorzeichen.
Beweis: Wegen = id ist +1 ein einfacher Eigenwert von . Fr den zugehrigen
Eigenraum D gilt dimD = 1 nach Satz 6.1.16. Also ist D nach Bemerkung 8.3.24
die Drehachse von . Sei der Drehwinkel von . Da die Spur unabhngig von der
Basiswahl ist, kann die Bestimmungsgleichung fr cos unmittelbar an der Matrix
Aaus Bemerkung 8.3.24 abgelesen werden.
8.3.26 Bemerkung. Die Spur-Gleichung fr cos legt den Drehwinkel nur bis auf
das Vorzeichen fest. Daran ndert sich auch nichts, wenn man voraussetzt, da der
dreidimensionale Raum V orientiert ist. Die Drehung induziert zwar in der zwei-
dimensionalen Drehebene E eine Drehung, deren Drehwinkel nach Satz 8.3.21
eindeutig bei vorliegender Orientierung bestimmt ist. Aber die Orientierung des drei-
dimensionalen Raumes V legt noch keine Orientierung der Drehebene E fest. Erst
wenn man auch noch die Drehachse D orientiert, etwa durch Festlegung eines Ein-
heitsvektors e mit D = eR, gibt es auch in der Drehebene E genau eine Orientierung,
die z. B. durch eine Basis {e
2
, e
3
} der Drehebene E bestimmt wird, so da {e, e
2
, e
3
}
gerade die gegebene Orientierung des dreidimensionalen Raumes V liefert.
8.3.27 Beispiel. Hinsichtlich der kanonischen Basis des R
3
als positiv orientierter
Orthonormalbasis wird durch die Matrix
A =
1
3
_
_
2 2 1
2 1 2
1 2 2
_
_
eine Drehung beschrieben, denn Aist eine orthogonale Matrix mit det A = +1. Fr
den zugehrigen Drehwinkel gilt nach Satz 8.3.25
cos =
1
2
_
tr(A) 1
_
=
1
2
_
2
3
+
1
2
+
2
3
1
_
=
1
3
,
wobei das Vorzeichen von zunchst noch nicht festgelegt werden kann. Die
Drehachse D ist die Lsungsmenge des homogenen linearen Gleichungssystems
(E
3
A)v = o. Ein normierter Lsungsvektor ist der Spaltenvektor e =
1

2
(1, 0, 1),
der somit die Drehachse D erzeugt. D soll nun zustzlich dadurch orientiert werden,
da e als Basisvektor die positive Orientierung von D reprsentiert. Ein Orthonor-
malsystemder Drehebene E besteht z. B. aus den zu e orthogonalen Spaltenvektoren
8.3 Kongruenzen und Drehungen 213
e
2
=
1

2
(1, 0, 1) und e
3
= (0, 1, 0), so da {e, e
2
, e
3
} eine Basis des R
3
ist. Sie
ist positiv orientiert, weil

2
0
1

2
1

2
0
1

2
0 1 0

= 1 > 0
gilt. Durch die Basis {e
2
, e
3
} der Drehebene E kann in dieser jetzt auch die positive
Orientierung festgelegt werden. Unterwirft man nun z. B. denVektor e
2
der Drehung,
so erhlt man als Bildvektor
Ae
2
=
1
3

2
_
_
2 2 1
2 1 2
1 2 2
_
_
_
_
1
0
1
_
_
=
1
3

2
_
_
1
4
1
_
_
wieder einen Einheitsvektor in der Drehebene E. Mit ihm ergibt sich jetzt
cos = (Ae
2
) e
2
=
1
3
,
sin = (Ae
2
) e
3
=
2

2
3
.
Durch die Orientierungsfestsetzungen ist nun das Vorzeichen von sin und damit
von bestimmt.
Bei manchen Anwendungen ist es notwendig, eine gegebene Drehung aus meh-
reren Drehungen mit vorgegebenen Drehachsen zusammenzusetzen. Fr dreidimen-
sionale euklidische Vektorrume liefert der folgende Satz dazu ein Konstruktions-
verfahren.
8.3.28 Satz. Es sei B = {e
1
, e
2
, e
3
} eine positiv orientierte Orthonormalbasis des
dreidimensionalen euklidischen Vektorraums V. Dann existieren zu jeder Drehung
von V drei Drehungen
1
,
2
und
3
mit den orientierten Drehachsen e
3
, e

1
und
e
3
= e
1
c
1
+e
2
c
2
+e
3
c
3
, c
i
R, derart, da =
3

1
gilt, wobei
e

1
=
_

_
e
1
falls e
1
, e
2
= e
1
, e
2
,
e
2
falls e
1
, e
2
e
1
, e
2
= e
2
R,
e
1
c
2
_
c
2
1
+c
2
2
+e
2
c
1
_
c
2
1
+c
2
2
sonst.
Ist A = A

(B, B) die Matrix von bezglich der Basis B, und ist


i
der durch
214 8 Anwendungen in der Geometrie
und B eindeutig bestimmte Drehwinkel der Drehung
i
, i = 1, 2, 3, so gilt
A =
_
_
cos
3
sin
3
0
sin
3
cos
3
0
0 0 1
_
_

_
_
1 0 0
0 cos
2
sin
2
0 sin
2
cos
2
_
_

_
_
cos
1
sin
1
0
sin
1
cos
1
0
0 0 1
_
_
.
Die drei Drehwinkel
1
,
2
,
3
heien die Eulerschen Winkel von bezglich der
Basis B.
Beweis: Zunchst wird eine Drehung
1
mit Drehachse e
3
konstruiert. Wenn die
Ebenen e
1
, e
2
und e
1
, e
2
zusammenfallen (d. h. wenn e
3
= e
3
gilt), setze
man e

1
= e
1
. Im anderen Fall schneiden sich diese beiden Ebenen in einer Gera-
den G. Gilt G = e
2
, so setze man e

1
= e
2
. Sonst aber gibt es genau einen
Einheitsvektor e

1
mit G = e

1
derart, da {e

1
, e
2
, e
3
} eine positiv orientierte Ba-
sis ist. Hat e
3
die eindeutige Darstellung e
3
= e
1
c
1
+ e
2
c
2
+ e
3
c
3
, so ist der
normierte Vektor e

1
= e
1
c
2
_
c
2
1
+c
2
2
+ e
2
c
1
_
c
2
1
+c
2
2
. Nun ist aber eine dreidimensiona-
le Drehung eindeutig bestimmt, wenn man zwei orthonormierten Vektoren wieder
zwei orthonormierte Vektoren als Bilder vorschreibt, weil dann das Bild des dritten
orthonormierten Vektors bereits mit festgelegt wird. Durch

1
e
1
= e

1
,

1
e
3
= e
3
,

2
e

1
= e

1
,

2
e
3
= e
3
,

3
e

1
= e
1
,

3
(e
3
) = e
3
werden daher eindeutig drei Drehungen
1
,
2
,
3
deniert. Und da
3

1
die Vek-
toren e
1
und e
3
auf die Vektoren e
1
und e
3
abbildet, mu =
3

1
gelten. Sei
e

i
=
1
e
i
und e

i
=
2
e

i
fr i = 1, 2, 3. Mit B

= {e

1
, e

2
, e

3
} und B

= {e

1
, e

2
, e

3
}
folgt nach Satz 3.3.7, da A

(B, B) = A

3
(B

, B)A

2
(B

, B

)A

1
(B, B

). Zu den
Drehungen
1
,
2
,
3
gehren entsprechende Drehwinkel
1
,
2
,
3
. Man erhlt

1
e
1
= e

1
= e
1
cos
1
+e
2
(sin
1
),

1
e
2
= e

2
= e
1
sin
1
+e
2
cos
1
,

1
e
3
= e

3
= e
3
,

2
e

1
= e

1
= e

1
,

2
e

2
= e

2
= e

2
cos
2
+e

3
(sin
2
),

2
e

3
= e

3
= e

2
sin
2
+e

3
cos
2
,

3
e

1
= e
1
= e

1
cos
3
+e

2
(sin
3
),

3
e

2
= e
2
= e

1
sin
3
+e

2
cos
3
,

3
e

3
= e
3
= e

3
8.4 Projektive Rume 215
und hieraus die behauptete Faktorisierung von A

(B, B). Weiter folgt


cos
1
= e

1
e
1
,
cos
2
= e
3
e
3
,
cos
3
= e
1
e

1
,
sin
1
= e

1
e
2
,
sin
2
= e
3
e

2
= e
3
((e

1
e
2
)e
1
(e

1
e
1
)e
2
),
sin
3
= e
2
e

1
.
Also sind die drei Drehwinkel
1
,
2
,
3
durch und B eindeutig bestimmt.
8.4 Projektive Rume
Die Stze der afnen Geometrie enthalten vielfach strende Fallunterscheidungen.
So gilt z. B. in einer afnen Ebene nicht allgemein, da sich zwei Geraden in einem
Punkt schneiden; eine Ausnahme bilden die parallelen Geraden. Man kann nun die
afnen Rume zu Rumen erweitern, die man projektive Rume nennt und in denen
derartige Ausnahmeflle nicht mehr auftreten.
Es sei V ein endlich-dimensionaler Vektorraum ber dem kommutativen Krper
F. Das Hauptinteresse gilt jetzt jedoch nicht mehr den Vektoren, sondern den 1-
dimensionalen Unterrumen von V, die als Punkte eines neuen Raumes aufgefat
werden sollen.
8.4.1 Denition. Ein projektiver Raum P ber F ist die Menge aller eindimensio-
nalen Unterrume eines F-Vektorraumes V = V
P
. Eine Teilmenge U von P heit
ein (projektiver) Unterraumvon P, wenn sie genau aus den 1-dimensionalen Unter-
rumen eines Unterraumes V
U
von V
P
besteht, wenn sie also selbst ein projektiver
Raum ist.
Die projektive Dimension des projektiven Raumes P ist deniert durch:
p- dimP = dimV
P
1.
8.4.2 Denition. Fr einen Punkt p P gilt speziell p = a mit einem Vektor
a = o aus V
P
. Auch die leere Menge ist ein Unterraum von P, wobei V

= {o}
der Nullraum ist, der ja keine 1-dimensionalen Unterrume enthlt. Fr ihn folgt
p-dim = 0 1 = 1.
Unterrume der projektiven Dimensionen 0, 1, 2 werden als Punkte, Geraden
bzw. Ebenen bezeichnet.
Ist p-dimP = n, so wird ein Unterraum H mit p-dimH = n 1 Hyperebene
von P genannt.
216 8 Anwendungen in der Geometrie
Man beachte, da die Hyperebenen in einer projektiven Ebene P genau die
Geraden von P sind.
8.4.3 Satz. (a) Es sei S ein System aus Unterrumen von P. Dann ist auch D =
{U | U S} ein Unterraum von P und V
D
= {V
U
| U S}.
(b) Es sei S ein System aus Unterrumen von P. Dann ist der Verbindungsraum
V = {U | U S}, nmlich der kleinste Unterraum V mit U V fr alle
U S, wieder ein Unterraum von P mit V
V
=

US
V
U
.
(c) Fr Unterrume M, N von P gilt
p- dimM + p- dimN = p- dim(M N) + p- dim(M N).
(d) Fr eine Hyperebene H von Pund einen nicht in H enthaltenen Unterraum U
von P gilt: p-dim(U H) = p-dimU 1.
(e) In einer projektiven Ebene besitzen je zwei verschiedene Geraden genau einen
Schnittpunkt.
Beweis: (a), (b), und (c) folgen aus den entsprechenden Stzen 2.1.8, 2.1.10 und
2.2.16 fr Vektorrume, wobei in (c) beim bergang zur projektiven Dimension auf
beiden Seiten zweimal eine Eins abzuziehen ist. (d) und (e) folgen aus (c), wobei in
(d) noch U H = P zu beachten ist.
8.4.4 Denition. Seien p
0
, . . . , p
k
Punkte des projektiven Raumes P, dann wird
ihr Verbindungsraum mit p
0
p
1
p
k
bezeichnet.
8.4.5 Hilfssatz. Sei P = ein n-dimensionaler projektiver Raumund Heine Hyper-
ebene von P mit dem zugehrigen Vektorraum V
H
. Dann ist A = P\ H ein afner
Raum mit dem Vektorraum V
A
= V
H
und Dimension dimA = dimV
H
= n =
p-dimP.
Beweis: Sei V
P
der F-Vektorraum von P. Dann ist dim
F
V
P
= n + 1. Da H eine
Hyperebene von P ist, ist V
H
ein n-dimensionaler Unterraum von V
P
. Nach Satz
2.3.18 gibt es daher einen 1-dimensionalen F-Unterrauma = a = aF von V
P
mit
V
P
= V
H
aF. Daher hat jeder Vektor p = V
P
\ V
H
die eindeutige Darstellung
p = x
p
+af
p
mit x
p
V
H
, f
p
F, f
p
= 0.
Jedem Punkt p = p P \ H wird durch p x
p
V
H
bijektiv ein Vektor
x
p
V
H
zugeordnet. Fr jedes Punktepaar p, q P\ H sei

pq = x
q
x
p
V
H
.
Da V
H
ein Vektorraum ist, ist es nun einfach, die Bedingungen (a) und (b) von
Denition 8.1.1 zu verizieren. Also ist A = P\Hein afner Raummit dimA = n.
8.4 Projektive Rume 217
8.4.6 Denition. Sei P = ein n-dimensionaler projektiver Raum und H eine
Hyperebene von P. Dann heit der in Hilfssatz 8.4.5 konstruierte RaumA = P\ H
der zu H gehrende afne Raum von P. Die Punkte von A werden dann eigentliche
Punkte, die von H uneigentliche Punkte und H uneigentliche Hyperebene von P
genannt.
8.4.7 Satz. Sei A der zur Hyperebene H gehrende afne Raum des projektiven
Raumes P = . Dann gelten folgende Aussagen:
(a) Fr jeden projektiven Unterraum U ist U
0
= UA ein afner Unterraum von
A.
(b) Zu jedem afnen Unterraum U
0
= von A gibt es genau einen projektiven
Unterraum U von P mit U
0
= U A und V
U
0
= V
U
V
H
= V
UH
.
(c) Ist U
0
= , so gilt dimU
0
= p-dimU.
(d) Ist U
0
= eine Hyperebene, V
0
= ein nicht in U
0
enthaltener echter
afner Unterraum von A, und sind U und Vdie nach (b) eindeutig bestimmten
projektiven Unterrume von Pmit U
0
= UA und V
0
= VA, dann ist U
0
genau dann zu V
0
parallel, wenn U V H.
Beweis: (a) Ist U H, dann ist U
0
= U A = und somit ein afner Unterraum
von A. Ist U nicht in H enthalten, dann gibt es ein p U mit p H. Also ist
p U A = U
0
, und
{

pq | q U
0
} = V
U
V
A
= V
UA
= V
U
0
ist der zu U
0
= gehrige Vektorraum.
(b) Sei U
0
= ein afner Unterraum von A mit Vektorunterraum V
U
0
von
V
A
= V
H
. Sei p ein fest gewhlter Punkt aus U
0
. Sei p = p der von p erzeugte
1-dimensionale Unterraum von V
P
. Dann ist p V
A
= V
H
, woraus
V
U
0
< V
U
0
+p = U V
P
()
fr einen F-Unterraum U von V
P
folgt. Sei U die Menge aller 1-dimensionalen
F-Unterrume von U. Dann ist U ein projektiver Unterraum von Pmit U
0
= UA.
Weiter gilt V
U
0
= V
U
V
H
= V
UH
. Umgekehrt folgt aus U
0
= U

A sofort
V
U
= (V
U
V
H
) +p = V
U
0
+p.
Also ist U = U

.
(c) Ist U
0
= , so folgt aus (), da dimV
U
0
= dimU 1 = p-dimU.
(d) Aus U
0
|| V
0
und V
0
U
0
folgt U
0
V
0
= . Nach Satz 8.4.7 gibt es
eindeutig bestimmte projektive Unterrume U und V von P mit U
0
= U A und
V
0
= V A. Wegen A = P\ H folgt U V H.
218 8 Anwendungen in der Geometrie
Sei umgekehrt U V H. Dann ist U
0
V
0
= . Da V
0
= und U
0
eine
Hyperebene des endlich-dimensionalen afnen Raumes A ist, sind V
0
und U
0
nach
Satz 8.1.15 parallel oder es gilt
1 = dim(U
0
V
0
) = dimV
0
1.
Hieraus folgt dimV
0
= 0 und so V
V
0
= {o} V
U
0
. Also sind U
0
und V
0
parallel.
8.4.8 Bemerkung. Da aus projektiven Unterrumen durch Fortlassen der uneigent-
lichen Punkte afne Unterrume entstehen, lassen sich aus projektiven Stzen af-
ne Stze herleiten. Dabei knnen allerdings Fallunterscheidungen auftreten. Nach
Satz 8.4.3 (e) besitzen in der projektiven Ebene je zwei verschiedene Geraden G, G

genau einen Schnittpunkt p. Fr die durch Fortlassen des jeweiligen uneigentlichen


Punkts entstehenden afnen Geraden G
o
, G

o
ist jetzt jedoch zu unterscheiden, ob
p ein eigentlicher oder ein uneigentlicher Punkt ist. Im ersten Fall besitzen auch G
o
und G

o
genau den einen Schnittpunkt p. Im zweiten Fall haben G
o
und G

o
jedoch
keinen Schnittpunkt, sondern sind parallel.
8.4.9 Denition. Die k + 1 Punkte p
o
, . . . , p
k
des projektiven Raumes P heien
unabhngig, wenn p-dim(p
o
p
k
) = k gilt.
8.4.10 Satz. Fr die Punkte p
o
, . . . , p
k
P als 1-dimensionale Unterrume von
V
P
gelte p
j
= p
j
fr j = 0, . . . , k. Dann sind p
o
, . . . , p
k
genau dann unabhn-
gige Punkte von P, wenn p
o
, . . . , p
k
linear unabhngige Vektoren sind.
Beweis: Wegen
p
o
p
k
= p
o
+ +p
k

ist p-dim(p
o
p
k
) = k gleichwertig mit dim(p
o
+ + p
k
) = k + 1,
also mit der linearen Unabhngigkeit von p
o
, . . . , p
k
.
8.4.11 Hilfssatz. Seien q
0
, . . . , q
n
unabhngige Punkte des n-dimensionalen pro-
jektiven Raumes P. Sei e ein weiterer Punkt von P, der von je n der Punkte q
i
,
0 i n, unabhngig ist. Dann gilt:
(a) Die 1-dimensionalen Unterrume q
i
und e von V
P
enthalten Vektoren q
i
q
i
und e e derart, da e = q
0
+ +q
n
.
(b) Sind q

i
q
i
und e

e weitere n +1 Vektoren von V


P
, fr die
e

f = q

0
+ +q

n
fr ein 0 = f F
gilt, dann existiert ein eindeutig bestimmter Skalar h = 0 derart, da q

i
=
q
i
h fr alle i = 0, 1, . . . n gilt.
8.4 Projektive Rume 219
Beweis: Sei q
i
= p
i
mit o = p
i
V
P
fr 0 i n. Sei e = e, e = o.
Nach Satz 8.4.10 ist A = {p
i
| 0 i n} eine Basis des Vektorraums V
P
. Also ist
e = p
0
c
0
+ +p
n
c
n
fr geeignete c
i
F. Da e von je n der Punkte p
i
unabhngig
ist, sind alle c
i
= 0. Setze q
i
= p
i
c
i
fr i = 1, . . . , n, dann gilt (a).
(b) NachVoraussetzung gibt es q
i
, q

i
q
i
, e, e

e derart, da e = q
0
+ +q
n
und e

f = q

0
+ + q

n
fr ein 0 = f F ist. Da q
i
und e 1-dimensionale F-
Unterrume von V
P
sind, existiert zu jedem0 i nein 0 = c
i
F mit q

i
= q
i
c
i
und ein 0 = g F mit e

= eg. Hieraus folgt


e

= q

0
f
1
+ +q

n
f
1
= q
0
(c
0
f
1
) + +q
n
(c
n
f
1
)
= e g = q
0
g + +q
n
g.
Da B = {q
i
| 0 i n} eine Basis von V
P
ist, folgt c
i
f
1
= g fr alle
i = 0, . . . , n. Also gilt (b) mit h = fg.
8.4.12 Denition. Ein geordnetes (n + 2)-Tupel K = (q
o
, . . . , q
n
, e) von Punkten
des n-dimensionalen projektiven Raumes P heit projektives Koordinatensystem
von P, wenn je n + 1 unter den Punkten aus K unabhngig sind. Es werden dann
q
o
, . . . , q
n
die Grundpunkte und e der Einheitspunkt von K genannt.
Nach Hilfssatz 8.4.11 enthalten die 1-dimensionalen Unterrume q
i
, 0 i n
und e des Vektorraums V
P
von Null verschiedene Vektoren q
i
q
i
und e e mit
e = q
0
+ + q
n
derart, da fr jeden Punkt x = x P der Vektor x = o die
eindeutige Darstellung
x = q
0
x
0
+ +q
n
x
n
mit x
i
F
hat, wobei die Koordinaten x
0
, . . . , x
n
von x bis auf einen gemeinsamen Faktor
d = 0 aus F durch x eindeutig bestimmt sind. Die Krperelemente x
0
, . . . , x
n
heien die homogenen Koordinaten des Punktes x P bezglich des projektiven
Koordinatensystems K.
Der homogene Koordinatenvektor (x
0
, . . . , x
n
) F
n+1
des Punktes x P ist
durch x bis auf einen skalaren Faktor d = 0 bestimmt.
Zum Beispiel sind in der reellen projektiven Ebene (1, 3, 2) und
(2, 6, 4) Koordinaten desselben Punkts. Allgemein sind die (n + 1)-Tupel
(1, 0, . . . , 0), . . . , (0, . . . , 0, 1) die homogenen Koordinaten der Grundpunkte q
i
und (1, 1, . . . , 1) die Koordinaten des Einheitspunktes des n-dimensionalen projek-
tiven Raums Pbezglich des projektiven Koordinatensystems K = (q
0
, . . . , q
n
, e).
Als einzige Ausnahme tritt das (n + 1)-Tupel (0, 0, . . . , 0) nicht als homogener
Koordinatenvektor auf.
220 8 Anwendungen in der Geometrie
8.4.13 Satz. Sei H eine Hyperebene des n-dimensionalen projektiven Raumes P.
Sei K = (p
0
, . . . p
n
) ein afnes Koordinatensystem des afnen Raumes A = P\ H.
Durch

p
0
e =

p
0
p
1
+ +

p
0
p
n
ist der Punkt e A eindeutig bestimmt. Sei q
0
= p
0
und q
j
= (p
0
p
j
) H fr
1 j n. Dann sind die n + 2 Punkte von K

= (q
0
, . . . , q
n
, e) ein projektives
Koordinatensystem von P mit Einheitspunkt e derart, da die beiden folgenden
Aussagen fr jeden Punkt x A gelten:
(a) Sind (x
1
, . . . , x
n
) die afnen Koordinaten von x bezglich K, so sind
(1, x
1
, . . . , x
n
) die homogenen Koordinaten von x bezglich K

.
(b) Sind (x

0
, x

1
, . . . , x

n
) die homogenen Koordinaten von x bezglich K

, so ist
x

0
= 0, und
_
x

1
x

0
, . . . ,
x

n
x

0
_
sind die afnen Koordinaten von x bezglich K.
Beweis: Nach Satz 8.4.3 (d) ist p-dim[(p
0
p
j
) H] = 0 fr alle 1 j n, weil
p
0
p
j
nicht in der Hyperebene H enthalten ist. Also ist jedes q
j
= (p
0
p
j
)
H =

p
0
p
j
ein Punkt von H. Da p
0
P \ H, gibt es einen Vektor a
0
V
P
mit
q
0
= p
0
= a
0
und a
0
= o. Wegen P = H q
0
und der linearen Unabhngigkeit
der n Vektoren a
j
=

p
o
p
j
V
A
= V
H
V
P
sind nach Satz 8.4.10 die n + 1
Punkte q
0
, q
1
, . . . , q
n
von P unabhngig. Da e =

p
0
e = a
1
+ + a
n
nach
Konstruktion des Punktes e ist, ist K

= (q
0
, . . . , q
n
, e) nach Denition 8.4.12 ein
projektives Koordinatensystem von P mit Einheitspunkt e.
(a) Sind (x
1
, . . . , x
n
) die afnen Koordinaten von x A bezglich K, so ist
x = a
0
1 +

p
0
x = a
0
+a
1
x
1
+ +a
n
x
n
ein Vektor mit x = x als Punkte von P. Daher sind (1, x
1
, . . . , x
n
) die homogenen
Koordinaten von x bezglich K

.
(b) Seien umgekehrt (x

0
, x

1
, . . . , x

n
) die homogenen Koordinaten von x bezg-
lich K

. Wegen x A = P\ H ist x ein eigentlicher Punkt. Deshalb ist x

0
= 0, und
(1,
x

1
x

0
, . . . ,
x

n
x

0
) sind auch homogene Koordinaten von x. Wegen

p
0
x = a
0
1 +a
1

1
x

0
+ +a
n

n
x
0
a
0
=

p
0
p
1
x

1
x

0
+ +

p
0
p
n

n
x

0
sind dann
_
x

1
x

0
, . . . ,
x

n
x

0
_
die afnen Koordinaten von x A bezglich K.
8.4.14 Denition. Im projektiven Raum P seien x, y, z, u kollineare Punkte, und
x, y, z seien paarweise verschieden. Dann ist G = x y z u eine projektive
Gerade, und K

= (x, y, z) ist ein projektives Koordinatensystem von G mit x, y


8.4 Projektive Rume 221
als Grundpunkten und z als Einheitspunkt. Bezglich K

besitzt u homogene Koor-


dinaten (u
0
, u
1
), deren Quotient
u
1
u
0
eindeutig nach Satz 8.4.13 bestimmt ist, sofern
u
0
= 0 oder gleichwertig u = y ist.
Der durch vier kollineare Punkte x, y, z, u P im Fall u = y eindeutig be-
stimmte Quotient
DV(x, y, z, u) =
u
1
u
0
F
heit das Doppelverhltnis dieser Punkte. Im Fall u = y setzt man formal
DV(x, y, z, u) = .
8.4.15 Bemerkungen.
Auf der afnen Geraden seien x, y, z, u paarweise verschiedene Punkte. Hinsicht-
lich eines Koordinatensystems besitzen sie je eine Koordinate, die wieder mit x, y,
z bzw. u bezeichnet werden soll. Berechnet man gem Satz 8.4.13 die homogenen
Koordinaten von u bezglich des projektiven Koordinatensystems mit den Grund-
punkten x, y und dem Einheitspunkt z, so erhlt man als Wert das Doppelverhltnis
DV(x, y, z, u) =
x u
y u

y z
x z
=
x u
y u
:
x z
y z
=
TV(x, y, u)
TV(x, y, z)
.
Das Doppelverhltnis erweist sich also als Quotient von zwei Teilverhltnissen, wo-
durch die Namengebung motiviert ist.
Auf der reellen afnen Geraden ist TV(x, y, z) < 0 gleichwertig damit, da z
zwischen x und y liegt. Auf der reellen projektiven Geraden G verliert der Begriff

zwischen seinen Sinn. Denn G kann bijektiv (und stetig) auf eine Kreislinie ab-
gebildet werden: Hinsichtlich eines Koordinatensystems K von G seien (x
0
, x
1
) die
homogenen Koordinaten des Punktes x G. Durch (x) = 2 arctg
_
x
1
x
0
_
R wird
dann x umkehrbar eindeutig ein Winkel (x) mit < (x) zugeordnet.
Jedem solchen Winkel (x) entspricht genau ein Punkt x

auf einer Kreislinie L.


8.4.16 Denition. Zwei Punktepaare (p
1
, p
2
) und (p
3
, p
4
) der reellen projektiven
Geraden Gtrennen sich, wenn die beiden Bgen der Kreislinie L, die die Punkte p

1
und p

2
verbinden, je einen der beiden Punkte p

3
und p

4
enthalten.
8.4.17 Satz. Zwei Punktepaare (p
1
, p
2
) und (p
3
, p
4
) der reellen projektiven Gera-
den G trennen sich genau dann, wenn DV(p
1
, p
2
, p
3
, p
4
) < 0 gilt.
Beweis: Mit K = (p
1
, p
2
, p
3
) als Koordinatensystem von G entsprechen diesen
Punkten die Winkel
1
= 0,
2
= ,
3
=

2
. Genau dann trennen sich (p
1
, p
2
) und
(p
3
, p
4
), wenn der p
4
zugeordnete Winkel
4
die Bedingung <
4
< 0 erfllt,
wenn also p
4
die Koordinaten (1, c) mit c < 0 besitzt. Wegen DV(p
1
, p
2
, p
3
, p
4
) =
c < 0 gilt dann die Behauptung.
222 8 Anwendungen in der Geometrie
8.4.18 Denition. Zwei Punktepaare (p
1
, p
2
) und (p
3
, p
4
) der reellen projektiven
Geraden G trennen sich harmonisch, wenn DV(p
1
, p
2
, p
3
, p
4
) = 1.
8.5 Projektivitten
In diesemAbschnitt ist Pstets ein projektiver Raumber demKrper F mit endlich-
dimensionalem Vektorraum V
P
= {o}.
8.5.1 Denition. Eine Abbildung von Pauf sich heit Projektivitt, wenn sie von
einemAutomorphismus von V
P
induziert wird, wenn also fr jeden Punkt p = p
von P stets (p) = (p) gilt.
8.5.2 Hilfssatz. Zwei Automorphismen und

des Vektorraums V
P
induzieren
genau dann dieselbe Projektivitt von P, wenn =

c fr ein 0 = c F gilt.
Beweis: Nach Denition 8.5.1 ergibt sich = sofort aus

= c, wobei 0 =
c F.
Umgekehrt gelte = . Fr jeden Punkt p = p P gilt dann (p) =

(p) = (p) = (p). Also existiert ein 0 = c


p
F mit (p) =

(p)c
p
.
Sind x = x, y = y zwei verschiedene Punkte von P, so sind x und y linear
unabhngige Vektoren von V
P
. Sei z = x + y. Da

und Automorphismen von
V
P
sind, folgt
(z) = (x) + (y) =

(x)c
x
+

(y)c
y
=

(z)c
z
=

(x +y)c
z
=

(x)c
z
+

(y)c
z
.
Da auch

(x) und

(y) linear unabhngige Vektoren von V
P
sind, ergibt sich durch
Koefzientenvergleich, da c
x
= c
y
= c
z
= c F ist. Also gilt =

c.
8.5.3 Satz. Sei P ein projektiver Raum. Dann gelten folgende Aussagen:
(a) Die Menge aller Projektivitten von P bildet bezglich der Hintereinander-
ausfhrung eine multiplikative Gruppe.
(b) Fr jede Projektivitt und jeden projektiven Unterraum U von P ist (U)
ein projektiver Unterraum von P mit p-dim(U) = p-dimU.
(c) Fr jedes Quadrupel paarweise verschiedener kollinearer Punkte x, y, z, u
P und jede Projektivitt von P gilt
DV(x, y, z, u) = DV(x, y, z, u).
8.5 Projektivitten 223
Beweis: (a) und (b) ergeben sich unmittelbar aus Hilfssatz 8.5.2.
(c) Mit x, y, z, u Psind nach (b) auch x, y, z, u paarweise verschieden
und kollinear. Aus x = x, y = y, z = z, u = u, z = x + y und u =
x u
0
+ y u
1
mit eindeutig bestimmten u
0
, u
1
F folgt x = x, y =
y, z = z, u = u, z = x + y und u = x u
0
+ y u
1
. Daher
ist DV(x, y, z, u) =
u
1
u
0
= DV(x, y, z, u) nach Denition 8.4.14.
8.5.4 Satz. Sei P ein endlich-dimensionaler projektiver Raum mit p-dimP =
n > 0. Seien K = (q
0
, . . . , q
n
, e) und K

= (q

0
, . . . , q

n
, e

) zwei projektive
Koordinatensysteme von P. Dann gibt es genau eine Projektivitt von P mit
q
0
= q

0
, . . . , q
n
= q

n
und e = e

.
Beweis: Es sei q
0
= a
0
, . . . , q
n
= a
n
und e = a
0
+ + a
n
. Nach Deni-
tion 8.4.12 ist dann {a
0
, . . . , a
n
} eine Basis von V
P
. Entsprechend sei {a

0
, . . . , a

n
}
als Basis zu K

bestimmt. Dann gibt es nach Satz 3.2.4 genau eine lineare Abbildung
mit a
0
= a

0
, . . . , a
n
= a

n
, die wegen Satz 3.2.14 sogar ein Automorphismus
ist. Es folgt (a
0
+ +a
n
) = a

0
+ +a

n
. Fr die zu gehrende Projektivitt
gilt daher q
0
= q

0
, . . . , q
n
= q

n
und e = e

. Fr eine zweite Projektivitt


mit denselben Eigenschaften mu

a
0
= a
0
c
0
, . . . ,

a
n
c
n
und

e = e c
mit Skalaren c
0
, . . . , c
n
, c = 0 erfllt sein. Also gilt
a
0
c
0
+ + a
n
c
n
=

a
0
+ +

a
n
=

e = e c = ( a
0
+ + a
n
) c,
woraus wegen der linearen Unabhngigkeit von a
0
, . . . , a
n
zunchst c
i
= c fr
i = 0, 1, . . . , n und damit

= c folgt. Nach Hilfssatz 8.5.2 ist daher = .
8.5.5 Satz. Sei K = (q
0
, . . . , q
n
, e) ein Koordinatensystem des n-dimensionalen
projektiven Raumes Pund sei eine Projektivitt von P. Seien x = (x
0
, . . . , x
n
) und
x

= (x

0
, . . . , x

n
) die homogenen Koordinatenvektoren eines beliebigen Punktes
x P und seines Bildpunkts x bezglich K.
Dann existiert eine bis auf einen Faktor c = 0 eindeutig bestimmte, invertierbare
(n +1) (n +1)-Matrix A = (a
ij
) mit a
ij
F derart, da
x

= Ax fr alle x P gilt. ()
Umgekehrt bestimmt auch jede invertierbare (n +1) (n +1)-Matrix Aeindeutig
eine Projektivitt von P.
Beweis: Wie im Beweis von Satz 8.5.4 sei q
0
= a
0
, . . . , q
n
= a
n
und e = a
0
+
+a
n
. Bezglich der Basis B = {a
0
, . . . , a
n
} von V
P
hat nach Denition 3.3.1
die invertierbare (n + 1) (n + 1)-Matrix A

(B, B) = A = (a
ij
). Da allerdings
die Basisvektoren nur bis auf einen gemeinsamen Faktor c = 0 eindeutig bestimmt
224 8 Anwendungen in der Geometrie
sind, gilt dasselbe auch fr die Matrix A. Fr x = x ist x =

n
j=0
a
j
x
j
. Wegen
x = x ergibt sich
n

i=0
a
i
x

i
= x =
n

j=0
( a
j
) x
j
=
n

i=0
n

j=0
a
i
a
ij
x
j
,
woraus durch Koefzientenvergleich
x

i
=
n

j=0
a
ij
x
j
fr i = 0, . . . , n.
folgt.
Umgekehrt bestimmt eine invertierbare Matrix A hinsichtlich der Basis B =
{a
0
. . . , a
n
} eindeutig einen Automorphismus von V
P
und damit auch eine Pro-
jektivitt .
8.5.6 Satz. Sei A der zur uneigentlichen Hyperebene H gehrende afne Raum des
n-dimensionalen projektiven Raumes P = . Sei K = (p
0
, . . . , p
n
) ein Koordi-
natensystem von A, und sei K

= (q
0
, . . . , q
n
, e) das nach Satz 8.4.13 durch K
bestimmte projektive Koordinatensystem von P. Dann gelten folgende Aussagen:
(a) Jede Afnitt
0
von A kann auf genau eine Weise zu einer Projektivitt von
P fortgesetzt werden. Umgekehrt ist eine Projektivitt von P genau dann
Fortsetzung einer Afnitt
0
von A, wenn H = H gilt.
(b) Der Afnitt
0
von A entspreche hinsichtlich K nach Satz 8.2.7 die Koordi-
natendarstellung
x
i
= t
i
+
n

j=1
a
ij
x
j
fr i = 1, . . . , n ()
mit der n n-Matrix A
0
= (a
ij
). Der Fortsetzung von
0
zu einer Projek-
tivitt von P entspricht dann hinsichtlich K

die Matrix
A =
_
_
_
_
_
1 0 . . . 0
t
1
.
.
. A
0
t
n
_
_
_
_
_
.
Beweis: Beim bergang von afnen Koordinaten (x
1
, . . . , x
n
) zu homogenen Ko-
ordinaten (x

0
, . . . , x

n
) gilt nach Satz 8.4.13 zunchst x
j
=
x

j
x

0
fr j = 1, . . . , n.
8.6 Projektive Quadriken 225
Aus () folgt x

i
= x

0
t
i
+

n
j=1
a
ij
x

j
fr i = 1, . . . , n. Auerdem gilt x

0
= 1,
woraus sich die Behauptung in (b) ber die Matrix Aergibt.
Bis auf einen Faktor c = 0 ist A durch A
0
, also auch durch
0
, eindeutig
bestimmt und beschreibt somit eine eindeutig bestimmte projektive Fortsetzung
von
0
. Dies ist der erste Teil von (a). Umgekehrt sei eine Projektivitt von P.
Da eine Afnitt von A die Menge der eigentlichen Punkte von Pauf sich abbildet,
kann nur Fortsetzung einer Afnitt
0
sein, wenn H = H gilt. Dann aber mu
in der bezglich K

zugeordneten Matrix die erste Zeile die Form (a


00
, 0, . . . , 0)
besitzen, wobei wegen der Invertierbarkeit a
00
= 0 gelten mu. Und da es auf einen
Faktor c = 0 nicht ankommt, kann a
00
= 1 vorausgesetzt werden. Dann aber hat
man es mit einer Matrix der in (b) angegebenen Form zu tun, aus der umgekehrt die
Koordinatendarstellung einer Afnitt
0
mit als Fortsetzung folgt. Daher ist jede
Projektivitt mit H = H auch Fortsetzung einer Afnitt.
8.5.7 Denition. Sei A der zur uneigentlichen Hyperebene H gehrende afne
Raum des endlich-dimensionalen projektiven Raumes P = . Dann heit eine
Projektivitt von P afne Projektivitt, wenn H = H gilt.
Nach Satz 8.5.6 induziert eine Afnitt
0
des afnen Raumes A.
8.6 Projektive Quadriken
In diesemAbschnitt ist Pstets ein reeller projektiver Raum der projektiven Dimen-
sion n 2.
8.6.1 Denition. Es sei eine Bilinearform von V
P
. Dann heit die fr x V
P
durch (x) = (x, x) denierte Abbildung : V
P
R eine quadratische Form
von V
P
mit der Nullstellenmenge N

= {x V
P
| (x) = 0}.
Aus x N

und x

= xc folgt auch
(x

) = (x

, x

) = (xc, xc) = (x, x)c


2
= (x) c
2
= 0.
Fr jeden Vektor x N

mit x = o ist der 1-dimensionale Unterraum x in N

enthalten. Da aber x = x ein Punkt von P ist, kann man deshalb N

auch als
Teilmenge von P interpretieren.
8.6.2 Denition. Es sei eine quadratische Formvon V
P
. Dann heit die Teilmenge
Q

= {x = x P | x N

}
von P eine projektive Quadrik von P.
226 8 Anwendungen in der Geometrie
8.6.3 Satz. Sei K = (q
0
, . . . , q
n
, e) ein projektives Koordinatensystem von P. Sei
x = (x
0
, . . . , x
n
) der homogene Koordinatenvektor des Punktes x Pbezglich K.
Dann deniert jede reelle (n +1) (n +1)-Matrix A = (a
ij
) durch
x
T
Ax = 0 ()
eine projektive Quadrik Q

von P.
Umgekehrt gehrt zujeder Quadrik Q

vonPeine symmetrische (n+1)(n+1)-


Matrix B = (b
ij
) mit
Q

= {p P | (p) = 0} = {x P | x
T
Bx = 0}.
Beweis: Durch (x, y) =

n
i,j=0
a
ij
x
i
y
j
wird eine Bilinearformdeniert, die nach
Denition 8.6.1 eine quadratische Form bestimmt. Es ist dann () die Bestim-
mungsgleichung von N

, also auch von der Quadrik Q

.
Umgekehrt sei die durch (x) = (x, x) bestimmte quadratische Form. Mit
einer zu K gehrenden Basis {a
0
, . . . , a
n
} von V
P
sei dann a
ij
= (a
i
, a
j
) R fr
0 i, j n +1. Fr x = x P folgt dann
(x) = (x, x) =
n

i,j=0
(a
i
, a
j
)x
i
x
j
=
n

i,j=0
a
ij
x
i
x
j
.
Also wird die Quadrik Q

von durch die Gleichung () beschrieben. Aus

a
ij
x
i
x
j
= 0 folgt aber auch

a
ji
x
i
x
j
= 0. Sei b
ij
=
1
2
(a
ij
+a
ji
). Dann wird die
Quadrik Q

auch durch

b
ij
x
i
x
j
= 0 mit der symmetrischen Matrix B = (b
ij
)
dargestellt.
8.6.4 Denition. Sei K = (q
0
, . . . , q
n
, e) ein Koordinatensystem des projektiven
Raums P. Dann gehrt nach Satz 8.6.3 zur projektiven Quadrik Q eine reelle sym-
metrische (n +1) (n +1)-Matrix Aderart, da fr die homogenen Koordinaten-
vektoren x der Punkte x Q bezglich K die Bestimmungsgleichung x
T
Ax = 0
gilt. Die symmetrische Matrix A ist eine Koefzientenmatrix der projektiven Qua-
drik Q.
8.6.5 Beispiele.
Es sei hier stets n = 2. Durch x
2
0
+ 2x
2
1
x
2
2
= 0 wird eine Quadrik der reellen
projektiven Ebene beschrieben. Zeichnet man die durch x
0
= 0 bestimmte Gerade
als uneigentliche Gerade aus, so werden die eigentlichen Punkte durch x
0
= 1
charakterisiert. Also wird der eigentliche Teil der Quadrik in afnen Koordinaten
(x
1
, x
2
) durch 2x
2
1
x
2
2
= 1 beschrieben. Es handelt sich also um eine Hyperbel.
Diese Kennzeichnung hat aber nur in dieser speziellen afnen Ebene einen Sinn.
Dieselbe projektive Quadrik ergibt mit x
2
= 0 als uneigentlicher Geraden fr die
8.6 Projektive Quadriken 227
eigentlichen Punkte (x
2
= 1) jetzt x
2
0
+2x
2
1
= 1, also als afnen Teil eine Ellipse. Es
sind

Ellipse,

Hyperbel und auch

Parabel afne Begriffe, die in der projektiven


Ebene ihren Sinn verlieren.
Sei x
0
beliebig. Dann ist x
2
1
x
2
2
= 0 gleichwertig damit, da x
1
= x
2
oder
x
1
= x
2
erfllt ist. Die zu dieser Gleichung gehrende Quadrik besteht also aus
zwei Geraden mit dem Schnittpunkt (1, 0, 0). Eine solche Quadrik nennt man ein
Geradenpaar.
Schlielich wird durch x
2
0
+ x
2
1
+ x
2
2
= 0 in der reellen projektiven Ebene die
leere Menge als Quadrik gekennzeichnet, weil es keinen Punkt mit den Koordinaten
(0, 0, 0) gibt.
8.6.6 Denition. Zwei projektive Quadriken Q, Q

von Pheien projektiv quiva-


lent, wenn es eine Projektivitt von P mit Q = Q

gibt.
Bezeichnung: Q Q

8.6.7 Bemerkung. Offenbar ist eine quivalenzrelation, die geometrisch gleiche


projektive Quadriken in einer Klasse zusammenfat. Ziel dieses Abschnitts ist eine
Kennzeichnung dieser Klassen, um einen berblick ber alle projektiven Quadriken
von P zu gewinnen.
8.6.8 Satz. Es sei Q eine projektive Quadrik mit Koefzientenmatrix A. Dann ist
Q Q

gleichwertig mit der Existenz einer invertierbaren Matrix S, so da A

=
S
T
AS eine Koefzientenmatrix von Q

ist.
Beweis: Q Q

ist gleichwertig mit Q = Q

, wobei die Projektivitt hin-


sichtlich des gegebenen Koordinatensystems K durch eine invertierbare Matrix S
beschrieben wird. Seien x und y die homogenen Koordinatenvektoren der Punkte
x Q und y Q

mit x = y. Dann ist x = Sy. Wegen x


T
Ax = 0 folgt
y
T
(S
T
AS)y = 0. Da A symmetrisch ist, ist nach Satz 3.1.28 auch A

= S
T
AS
symmetrisch. Also ist A

nach Denition 8.6.4 eine Koefzientenmatrix von Q

.
8.6.9 Denition. Fr jede projektive Quadrik Q von P sei
u(Q) = max{p- dimU | U Q, U projektiver Unterraum von P}.
8.6.10 Satz. Aus Q Q

folgt u(Q) = u(Q

).
Beweis: Nach Voraussetzung gibt es eine Projektivitt von P mit Q = Q

.
Wegen 8.5.3 werden die Unterrume U

durch bijektiv auf die Unterrume


U Q unter Erhaltung der Dimension abgebildet.
228 8 Anwendungen in der Geometrie
8.6.11 Denition. Ein Punkt x der projektiven Quadrik Q heit Doppelpunkt von
Q, wenn fr jede Gerade G von P mit x G entweder G Q oder G Q = {x}
gilt. Eine Quadrik heit ausgeartet, wenn sie mindestens einen Doppelpunkt besitzt.
8.6.12 Bemerkung. Bei einemGeradenpaar ist der Schnittpunkt der beidenGeraden
ein Doppelpunkt. Spter wird sich zeigen, da es Quadriken gibt, die nur aus Dop-
pelpunkten bestehen. Nach dem folgenden Satz sind sie projektive Unterrume von
P. Diese werden im Fall der Dimensionen 0, 1, 2 als Doppelpunkte, Doppelgeraden
bzw. Doppelebenen bezeichnet.
8.6.13 Satz. Sei A eine Koefzientenmatrix der projektiven Quadrik Q des n-
dimensionalen projektiven Raums P bezglich des Koordinatensystems K =
(p
0
, . . . , p
n
, e). Dann gelten folgende Aussagen:
(a) Die Menge D(Q) aller Doppelpunkte der Quadrik Q ist ein projektiver Un-
terraum von P.
(b) Ein Punkt x Pliegt genau dann in D(Q), wenn sein homogener Koordina-
tenvektor x bezglich K die Gleichung Ax = o R
n+1
erfllt.
Beweis: (a) Da die Lsungsgesamtheit L eines homogenen Gleichungssystems
(H) Ay = o nach Folgerung 3.4.8 ein Unterraum von V
P
ist, ist D(Q) ein pro-
jektiver Unterraum von P. Also folgt (a) aus (b).
(b) Sei x Q und x sein homogener Koordinatenvektor bezglich K. Dann
erfllt x die Gleichung
x
T
Ax = 0. ()
Sei y ein beliebiger weiterer Punkt von P mit homogenem Koordinatenvektor y
bezglich K. Sei Gdie Gerade durch x und y. Dann hat ein Punkt z Gden homo-
genen Koordinatenvektor z = xs +yt fr Skalare s, t R. Da Aeine symmetrische
Matrix ist, gilt x
T
Ay = y
T
Ax. Wegen () folgt hieraus
z
T
Az = (x
T
Ay)(2st ) +(y
T
Ay)t
2
. ()
Ist nun Ax = o, so ist auch x
T
Ay = y
T
Ax = 0. Wegen () gilt dann z
T
Az = 0
fr alle Punkte z der Geraden G. Also ist Gganz in der Quadrik Qenthalten, weshalb
x ein Doppelpunkt von Q ist.
Sei umgekehrt x D(Q). Sei y = x ein weiterer Punkt von P. Fr die Ver-
bindungsgerade G = x y gilt dann nach Denition 8.6.11 entweder G Q oder
G Q = {x}. Sei z = xs + yt der homogene Koordinatenvektor eines beliebigen
Punktes z G, wobei s, t R. Im ersten Fall gilt y
T
Ay = z
T
Az = 0. Aus () und
() folgt daher x
T
Ay = 0.
8.6 Projektive Quadriken 229
Im zweiten Fall gilt fr t = 0, da z = x und so z Q. Weiter ist y Q, d. h.
y
T
Ay = 0. Wre x
T
Ay = 0, dann gbe es fr t = 0 ein 0 = s R mit
x
T
Ay(2st ) +(y
T
Ay)t
2
= 0.
Wegen () folgt dann z
T
Az = 0, was z Q widerspricht. Also ist x
T
Ay = 0
bei beliebiger Wahl von y P. Hieraus folgt x
T
A = o und so Ax = o, weil A
symmetrisch ist.
8.6.14 Denition. Fr die projektive Quadrik Q von P sei
d(Q) = p- dimD(Q).
8.6.15 Satz. Aus Q Q

folgt d(Q) = d(Q

).
Beweis: Die denierenden Eigenschaften eines Doppelpunkts und auch die Dimen-
sionen von Unterrumen bleiben nach Satz 8.4.3 bei Projektivitten erhalten.
Die fr die projektive quivalenz notwendigen Bedingungen aus den Stzen
8.6.10 und 8.6.15 erweisen sich aber in dem folgenden Satz auch als hinreichend.
8.6.16 Satz. (a) Jede projektive Quadrik Qist bei gegebenemKoordinatensystem
K zu genau einer der folgenden Quadriken Q
t,r
mit 1 t r n und
t +1 r t projektiv quivalent, wobei t +1 der Trgheitsindex und r +1
der Rang einer Koefzientenmatrix Avon Q bezglich K ist. Dabei wird Q
t,r
durch die Gleichung
x
2
0
+ +x
2
t
x
2
t +1
x
2
r
= 0
beschrieben, und es gilt u(Q
t,r
) = n t 1, d(Q
t,r
) = n r 1.
Der Fall t = r = 1 besagt, da die Gleichung 0 = 0 lautet. Sie wird von
allen Punkten erfllt, d. h. Q
1,1
= P.
(b) Fr zwei projektive Quadriken Q, Q

ist Q Q

gleichwertig mit u(Q) =


u(Q

) und d(Q) = d(Q

).
Beweis: Die Quadrik Q sei durch die symmetrische (n + 1) (n + 1)-Matrix A
bestimmt. Nach dem Trgheitsssatz 7.6.9 von Sylvester gibt es eine invertierbare
(n +1) (n +1)-Matrix Q derart, da
C = Q
T
AQ = diag(1, . . . , 1, 1, . . . , 1, 0, . . . , 0)
eine (n+1) (n+1)-Diagonalmatrix ist, in deren Hauptdiagonale zunchst (t +1)-
mal der Wert +1, dann (n r)-mal der Wert 1 und danach lauter Nullen stehen,
wobei (t + 1) der Trgheitsindex und r + 1 der Rang von A ist. Wegen Satz 8.6.8
230 8 Anwendungen in der Geometrie
ist die durch C bestimmte Quadrik Q

zu Q projektiv quivalent. Da aber Q

auch
durch die Matrix C bestimmt wird, kann man sich auf den Fall beschrnken, da
t +1 (r t ), wobei r +1 = rg(A) der Rang von Aist. Stets gilt 1 t r n.
Der Fall t = r = 1 tritt genau dann auf, wenn C und damit Adie Nullmatrix ist.
Die (n+1)-reihige Diagonalmatrix C hat den Rang r +1. Die allgemeine Lsung
des homogenen linearen Gleichungssystems Cx = 0 besitzt daher nach Folgerung
3.4.8 die Dimension (n+1)(r +1) = nr. Wegen Satz 8.6.13 bestimmt sie gerade
den Unterraum D(Q
t,r
) der Doppelpunkte von Q
t,r
, dessen projektive Dimension
somit n r 1 ist. Mit Hilfe von Satz 8.6.15 erhlt man daher d(Q) = d(Q
t,r
) =
n r 1.
Durch die Gleichungen x
0
= x
t +1
, . . . , x
rt 1
= x
r
, x
rt
= 0, . . . , x
t
= 0
wird ein Unterraum U von P mit dimU = n t 1 bestimmt. Da aus diesen
Gleichungen auch x
2
0
+ +x
2
t
x
2
t +1
x
2
r
= 0 folgt, gilt U Q
t,r
. Weiter
beschreiben die Gleichungen x
t +1
= 0, . . . , x
n
= 0 einen Unterraum V von P mit
dimV = t , der mit Q
t,r
keinen Punkt gemeinsam hat: Aus diesen Gleichungen und
aus x
2
0
+ + x
2
t
x
2
t +1
x
2
r
= 0 wrde nmlich auerdem x
0
= =
x
t
= 0 folgen. Die homogenen Koordinaten eines Punktes sind aber nicht alle gleich
Null.
Ist nun Wein in Q
t,r
enthaltener Unterraum, so gilt erst recht V W= und
p-dim(V W) n. Wegen Satz 8.4.3 folgt daher
p- dimW= p- dim(V W) +p- dim(V W) p- dimV n +(1) t.
Zusammen besagen diese Ergebnisse, da die maximale Dimension der in Q
t,r
ent-
haltenen Unterrume n t 1 ist. Wegen Satz 8.6.15 gilt daher u(Q) = u(Q
t,r
) =
n t 1.
Die Gren u(Q) und d(Q) bestimmen somit eindeutig die Indizes t und r. Daher
ist Q auch nur zu genau einer der Quadriken Q
t,r
projektiv quivalent. Auerdem
ergibt sich hieraus: Gilt fr zwei Hyperchen Q und Q

sowohl u(Q) = u(Q

) als
auch d(Q) = d(Q

), so mssen Q und Q

zu derselben Quadrik Q
t,r
, also auch
zueinander projektiv quivalent sein.
Der Satz 8.6.16 ermglicht eine vollstndige bersicht ber die projektivenqui-
valenzklassen der Quadriken eines n-dimensionalen reellen projektiven Raumes P.
In den nachfolgenden Tabellen sind die quivalenzklassen fr die Dimensionen
n = 2 und n = 3 zusammengestellt. Alle Behauptungen sind einfache Folgerungen
von Satz 8.6.16.
8.6.17 Folgerung. Es gibt sechs verschiedene projektive quivalenzklassen von
Quadriken in der reellen projektiven Ebene.
8.7 Afne Quadriken 231
r t d u Gleichung (Normalform) Bezeichnung
1 1 2 2 0 = 0 projektive Ebene
0 0 1 1 x
2
0
= 0 Doppelgerade
1 0 0 1 x
2
0
x
2
1
= 0 Geradenpaar
1 1 0 0 x
2
0
+x
2
1
= 0 Doppelpunkt
2 1 1 0 x
2
0
+x
2
1
x
2
2
= 0 nicht-ausgeartete Kurve
2 2 1 1 x
2
0
+x
2
1
+x
2
2
= 0 leere Menge
8.6.18 Folgerung. Es gibt neun verschiedene projektive quivalenzklassen im reel-
len, dreidimensionalen projektiven Raum.
r t d u Gleichung (Normalform) Bezeichnung
1 1 3 3 0 = 0 3-dim. projektiver Raum
0 0 2 2 x
2
0
= 0 Doppelebene
1 0 1 2 x
2
0
x
2
1
= 0 Ebenenpaar
1 1 1 1 x
2
0
+x
2
1
= 0 Doppelgerade
2 1 0 1 x
2
0
+x
2
1
x
2
2
= 0 Kegel
2 2 0 0 x
2
0
+x
2
1
+x
2
2
= 0 Doppelpunkt
3 1 1 1 x
2
0
+x
2
1
x
2
2
x
2
3
= 0 nicht-ausgeartete Flche,
die Geraden enthlt
(Ringche)
3 2 1 0 x
2
0
+x
2
1
+x
2
2
x
2
3
= 0 nicht-ausgeartete Flche,
die keine Geraden enthlt
(Ovalche)
3 3 1 1 x
2
0
+x
2
1
+x
2
2
+x
2
3
= 0 leere Menge
8.7 Afne Quadriken
In diesem Abschnitt bezeichnet A immer einen n-dimensionalen reellen afnen
Raum der Dimension n 2. A wird durch eine Hyperebene H zu einem pro-
jektiven Raum P erweitert. Sei K = (p
0
, . . . , p
n
) ein afnes Koordinatensystem
von A. Nach Satz 8.4.13 bestimmt es eindeutig ein projektives Koordinatensystem
K

= (q
0
, . . . , q
n
, e) von P. Ein Punkt x P hat bezglich K

den homogenen
Koordinatenvektor x

= (x

0
, . . . , x

n
). Die Punkte x von H sind durch x

0
= 0 ge-
kennzeichnet. Bei eigentlichen Punkten kann x

0
= 1 gewhlt werden. Es ist dann
x = (x

1
, . . . , x

n
) der afne Koordinatenvektor von x bezglich K.
232 8 Anwendungen in der Geometrie
8.7.1 Denition. Eine Teilmenge Q
0
von A heit afne Quadrik, wenn es eine pro-
jektive Quadrik Q von P mit Q
0
= Q A gibt. Die Menge Q
u
= Q H wird der
uneigentliche Teil von Q genannt.
8.7.2 Bemerkung. Eine projektive Quadrik Q bestimmt eindeutig die afne Qua-
drik Q
0
= Q A. Umgekehrt kann aber Q
0
durchaus Durchschnitt von verschie-
denen projektiven Quadriken Q

mit A sein, nmlich wenn sich diese nur in ihren


uneigentlichen Teilen unterscheiden.
8.7.3 Bemerkung. Wenn die projektive Quadrik Q hinsichtlich K

durch die Koor-


dinatengleichung
n

i,j=0
a
ij
x

i
x

j
= 0
mit einer symmetrischen (n+1)(n+1)-Matrix A = (a
ij
) beschrieben wird, dann
lautet die Koordinatengleichung der afnen Quadrik Q
0
bezglich K wegen x
0
= 1
und der Symmetrie von A
n

i,j=1
a
ij
x
i
x
j
+2
n

i=1
a
i0
x
i
+a
00
= 0.
Die symmetrische n n-Matrix A
0
= (a
ij
) mit i, j = 1, 2, . . . , n heit Koefzien-
tenmatrix der afnen Quadrik Q
0
. Und umgekehrt ist auch jede solche Gleichung
mit einer symmetrischen Matrix A
0
= (a
ij
) die Gleichung einer afnen Quadrik.
8.7.4 Denition. Zwei afne Quadriken Q
0
, Q

0
heien afn-quivalent, wenn es
eine Afnitt
0
von A mit
0
Q

0
= Q
0
gibt.
Bezeichnung: Q
0
Q

0
Zwei projektive Quadriken Q, Q

heien afn-quivalent, wenn es eine afne


Projektivitt von P mit Q

= Q gibt.
Bezeichnung: Q Q

8.7.5 Satz. Es seien Q, Q

projektive Quadriken mit den afnen Quadriken Q


0
, Q

0
und den uneigentlichen Teilen Q
u
, Q

u
.
(a) Aus Q Q

folgt auch Q
0
Q

0
.
(b) Aus Q Q

folgen die projektiven quivalenzen Q Q

und Q
u
Q

u
.
Beweis: Ergibt sich unmittelbar aus den Denitionen 8.5.7, 8.7.1 und 8.7.4.
8.7 Afne Quadriken 233
8.7.6 Bemerkung. Teil (b) von Satz 8.7.5 besagt, da die afne quivalenz eine
Verfeinerung der projektiven quivalenz ist. Die projektiven quivalenzklassen der
Quadriken werden daher durch die afnen Klassen unterteilt. Einen Einblick in diese
Unterteilung vermitteln die uneigentlichen Teile der Quadriken: Ist Q eine Quadrik
von P, so ist ihr uneigentlicher Teil Q
u
eine Quadrik von H.
8.7.7 Denition. Fr eine projektive Quadrik Q sei u

(Q) = u(Q
u
) und d

(Q) =
d(Q
u
).
8.7.8 Satz. Aus Q Q

folgt u(Q) = u(Q

), d(Q) = d(Q

), u

(Q) = u

(Q

) und
d

(Q) = d

(Q

).
Beweis: Ergibt sich unmittelbar aus den Stzen 8.6.10, 8.6.15 und 8.7.5.
8.7.9 Satz. Sei Pein n-dimensionaler reeller projektiver Raum. Die Quadriken Q
i
t,r
von P vom Typ i {1, 2, 3, 4} seien durch die Gleichungen
Q
i
t,r
= x
2
1
+ +x
2
t
x
2
t +1
x
2
r
=
(i)
deniert, wobei die rechte Seite
i
eines jeden Typs in der nachstehenden Tabelle
deniert ist.
Dann ist jede projektive Quadrik Q von P zu genau einer der Quadriken Q
i
t,r
afn-quivalent.
Die Invarianten u(Q), d(Q) und u

(Q) besitzen dabei die fr Q


i
t,r
in der Tabelle
angegebenen Werte:
Typ Gleichung Bedingungen d u u

fr t und r
(1)
(1)
= 0 0 t r n n r n t n t 1
(2)
(2)
= x
2
0
0 t r n n r 1 n t n t 1
(3)
(3)
= x
2
0
0 t r n n (r t ) 1 n r 1 n (r t ) 1
(4)
(4)
= x
0
x
r+1
0 t r n r 2 n t 1 n t 1
Fr alle 4 Typen Q
i
t,r
, 1 i 4, gilt d

= d

(Q) = n r 1.
Ist t = 0, so treten auf der linken Seite der 4 Gleichungstypen keine positiven
Glieder auf.
Ist r = 0, so ist die linke Seite einer jeden dieser Gleichungen durch 0 zu ersetzen.
Beweis: Es sei

n
i,j=0
a
ij
x
i
x
j
= 0 die Gleichung der Quadrik Q von P. Indem
man x
0
= 0 setzt, erhlt man die Gleichung

n
i,j=1
a
ij
x
i
x
j
= 0 von Q
u
. Nach Satz
8.6.16 ist Q
u
zu einer Quadrik Q

t,r
mit der Gleichung
x
2
1
+ +x
2
t
x
2
t +1
x
2
r
= 0 mit 0 t r n und r t t
234 8 Anwendungen in der Geometrie
projektiv quivalent: Man beachte p-dimH = n 1, die Indizierung beginnt erst
bei 1, daher die Abweichungen gegenber Satz 8.6.16. Es gibt also eine Projektivitt

von H mit

Q
u
= Q

t,r
. Ist S

die Matrix von

, so ist
_
_
_
_
1
S

_
_
_
_
die Matrix einer Fortsetzung von

zu einer afnen Projektivitt von P, die Q


auf Q

= Q Q abbildet. Dabei wird dann Q

durch eine Gleichung der Form


x
2
1
+ +x
2
t
x
2
t +1
x
2
r
= bx
2
0
+
n

i=1
b
i
x
0
x
i
mit 0 t r n, r t t
beschrieben. Weiter denieren die Gleichungen
x

0
= x
0
, x

i
= x
i

b
i
2
x
0
fr i = 1, . . . , t,
x

j
= x
j
+
b
j
2
x
0
fr j = t +1, . . . , r, x

k
= x
k
fr k = r +1, . . . , n
eine afne Projektivitt, die Q

auf eine Quadrik Q

Q abbildet. Die
Gleichung von Q

besitzt dann die Form (wieder x


i
statt x

i
)
x
2
1
+ +x
2
t
x
2
t +1
x
2
r
=cx
2
0
+
n

i=r+1
b
i
x
0
x
i
mit 0 t r n, r t t.
Hier wird nun zwischen vier mglichen Fllen unterschieden, die den vier Typen der
Tabelle entsprechen.
Fall 1: c = 0 und b
i
= 0 fr i = r +1, . . . , n.
In diesem Fall ist Q

= Q
1
t,r
schon vom Typ i = 1. Die in der Tabelle angege-
benen Werte fr u und d ergeben sich aus Satz 8.6.16. Dabei ist jedoch zu beachten,
da die Gleichung mit x
1
statt mit x
0
beginnt. In den Formeln von Satz 8.6.16 mu
deshalb t durch t 1 und r durch r 1 ersetzt werden.
Die Gleichung des uneigentlichen Teils (Q
u
)

ist dieselbe wie fr Q

. Wegen
p-dimH = n 1 mu jedoch bei der Berechnung von u

und d

jetzt n durch n 1
ersetzt werden. Es gilt somit
u

(Q) = n t 1 und d

(Q) = n r 1.
Fall 2: c > 0 und b
i
= 0 fr i = r +1, . . . , n.
8.7 Afne Quadriken 235
Durch (x
0
)

cx
0
, (x
i
)

= x
i
fr i = 1, 2, . . . , n wird eine afne Projektivitt
von P deniert, die Q

auf eine Quadrik



Q mit der Gleichung
x
2
1
+ +x
2
t
x
2
t +1
x
2
r
= x
2
0
mit 0 t r n, r t t ()
abbildet. Fr r t < t ist

Q = Q
2
t,r
vom Typ i = 2. Fr r t = t ist

Q = Q
3
t,r
vom Typ i = 3. In beiden Fllen stimmt die Gleichung des uneigentlichen Teils mit
der entsprechenden Gleichung im Fall 1 berein. Daher gilt auch hier
u

(Q) = n t 1 und d

(Q) = n r 1.
Allerdings kann man im Fall r t = t ebenso u

(Q) = n (r t ) 1 schreiben.
Zur Berechnung von u(Q) und d(Q) mu die Gleichung () zunchst auf die
Form
x
2
1
+ +x
2
t
x
2
t +1
x
2
r
x
2
0
= 0 ()
gebracht werden. Im Fall r t < t ist hier immer noch die Bedingung erfllt, da
die Anzahl der positiven Glieder nicht kleiner als die der negativen Glieder ist. Nach
Satz 8.6.16 folgt dann
u(Q) = n t und d(Q) = n r 1,
wobei man allerdings t durch t 1 zu ersetzen hat.
Im Fall r t = t mu man die Gleichung () mit (1) multiplizieren und in
den Formeln von Satz 8.6.16 t durch r t ersetzen, whrend r nicht gendert zu
werden braucht. Man erhlt jetzt
u(Q) = n (r t ) 1 und d(Q) = n r 1.
Fall 3: c < 0 und b
i
= 0 fr i = r +1, . . . , n.
Wie im Fall 2 bildet hier die afne Projektivitt x

0
=

|c|x
0
, x

i
= x
i
fr
i = 1, . . . , n die Quadrik Q

auf die Quadrik



Q = Q
3
rt,r
ab. Dabei mu jedoch die
Gleichung zunchst mit (1) multipliziert werden, und es mssen entsprechende
Schritte wie im Unterfall r t = t des Falles 2 durchgefhrt werden. Damit ergeben
sich die Werte der Invarianten u, d, u

und d

der Tabelle.
Fall 4: b
i
= 0 fr mindestens ein i r +1.
Da eine Vertauschung der Koordinaten x
i
mit i = 0 eine afne Projektivitt ist,
kann b
r+1
= 0 angenommen werden. Die durch
x

i
= x
i
fr i = r +1 und x

r+1
= cx
0
+
n

i=r+1
b
i
x
i
236 8 Anwendungen in der Geometrie
denierte afne Projektivitt bildet dann Q

auf eine Quadrik



Q mit der Gleichung
x
2
1
+ +x
2
t
x
2
t +1
x
2
r
= x
0
x
r+1
, 0 t r n 1, r t t,
ab. Also ist

Q = Q
4
t,r
vom Typ i = 4. Fr die Invarianten u

und d

ergeben sich
dieselben Werte wie im Fall 1.
Zur Berechnung von u und d wird auf Q
4
t,r
noch die folgende Projektivitt
angewandt, die keine afne Projektivitt ist. Sei deniert durch
x

0
=
1
2
(x
r+1
x
0
), x

r+1
=
1
2
(x
r+1
+x
0
) und x

i
= x
i
fr i = 0, r +1.
Dann ndern sich die Invarianten u und d nach den Stzen 8.6.10 und 8.6.15 nicht,
und (Q
4
t,r
) hat die Gleichung
x
2
0
+ +x
2
t
x
2
t +1
x
2
r+1
= 0,
woraus u(Q) = n t 1 und d(Q) = n (r +1) 1 = n r 2 folgt.
Da diese Fallunterscheidung vollstndig ist, mu jede projektive Quadrik Q zu
mindestens einer Quadrik Q
i
t,r
der Tabelle afn-quivalent sein. Q bestimmt die
Invarianten u, d, u

, d

eindeutig. Innerhalb jedes der Typen (1) bis (4) sind die
Indizes t und r bereits durch u und d oder durch u

und d

festgelegt. Weiter ist


der Typ (1) durch d

= d 1, der Typ (2) durch d

= d und u

= u 1, der
Typ (3) durch d

= d und u

= u und schlielich der Typ (4) durch d

= d + 1
gekennzeichnet. Daher ist eine Quadrik Q auch nur zu genau einer Quadrik Q
i
t,r
afn-quivalent.
8.7.10 Folgerung. Zwei projektive Quadriken Q, Q

des n-dimensionalen, reellen,


projektiven Raumes P sind genau dann afn-quivalent, wenn ihre Invarianten u,
d, u

und d

bereinstimmen.
Beweis: Nach Satz 8.7.9 mssen zwei Quadriken Qund Q

mit gleichen Invarianten


u(Q) = u(Q

), d(Q) = d(Q

), u

(Q) = u

(Q

) und d

(Q) = d

(Q

) zu genau
einer Quadrik Q
i
t,r
afn-quivalent sein. Also gilt auch Q Q

. Die Umkehrung
gilt nach Satz 8.7.8.
Satz 8.7.9 gestattet eine systematische Aufstellung aller afnen quivalenzklas-
sen projektiver Quadriken. In den folgenden beiden Tabellen ist sie fr die Dimen-
sionen n = 2 und n = 3 durchgefhrt. Der Beweis folgt unmittelbar aus Satz 8.7.9.
8.7.11 Folgerung. Es gibt 12 verschiedene afne quivalenzklassen projektiver
Quadriken in der reellen projektiven Ebene.
8.7 Afne Quadriken 237
Gleichung Bezeichnung
Nr. Typ t r d u d

(Normalform) (afn)
1 (1) 0 0 2 2 1 1 0 = 0 Ebene
2 1 1 1 1 0 0 x
2
1
= 0 eigentl. Gerade
3 1 2 0 1 1 0 x
2
1
x
2
2
= 0 Geradenpaar
mit eigentl.
Schnittpunkt
4 2 2 0 0 1 1 x
2
1
+x
2
2
= 0 eigentl. Punkt
5 (2) 1 1 0 1 0 0 x
2
1
= x
2
0
Paar parall.
Geraden
6 2 2 1 0 1 1 x
2
1
+x
2
2
= x
2
0
Ellipse
7 (3) 0 0 1 1 1 1 0 = x
2
0
uneigentl.
Gerade
8 0 1 0 0 0 0 x
2
1
= x
2
0
uneigentl.
Punkt
9 0 2 1 1 1 1 x
2
1
x
2
2
= x
2
0

10 1 2 1 0 1 0 x
2
1
x
2
2
= x
2
0
Hyperbel
11 (4) 0 0 0 1 1 1 0 = x
0
x
1
eine eigentl.
u. die uneigentl.
Gerade
12 1 1 1 0 0 0 x
2
1
= x
0
x
2
Parabel
Beim bergang zu den afnen Quadriken fallen die Klassen der Nr. 7, 8 und 9
sowie die Klassen 2 und 11 zusammen, weil der eigentliche Teil jeweils die leere
Menge bzw. eine Gerade ist. Alle anderen Klassen sind verschieden. Es gibt also
9 Klassen afn-inquivalenter Quadriken in der afnen Ebene.
8.7.12 Folgerung. Es gibt 20 verschiedene afne quivalenzklassen projektiver
Quadriken im dreidimensionalen projektiven Raum.
Gleichung Bezeichnung
Nr. Typ t r d u d

(Normalform) (afn)
1 (1) 0 0 3 3 2 2 0 = 0 3-dim. Raum
2 1 1 2 2 1 1 x
2
1
= 0 eigentl. Ebene
3 1 2 1 2 0 1 x
2
1
x
2
2
= 0 Ebenenpaar
mit eigentl.
Schnittgerade
4 2 2 1 1 0 0 x
2
1
+x
2
2
= 0 eigentl. Gerade
5 2 3 0 1 1 0 x
2
1
+x
2
2
x
2
3
= 0 Kegel
6 3 3 0 0 1 1 x
2
1
+x
2
2
+x
2
3
= 0 eigentl. Punkt
238 8 Anwendungen in der Geometrie
7 (2) 1 1 1 2 1 1 x
2
1
= x
2
0
Paar parall.
Ebenen
8 2 2 0 1 0 0 x
2
1
+x
2
2
= x
2
0
elliptischer
Zylinder
9 2 3 1 1 1 0 x
2
1
+x
2
2
x
2
3
= x
2
0
einschaliges
Hyperboloid
10 3 3 1 0 1 1 x
2
1
+x
2
2
+x
2
3
= x
2
0
Ellipsoid
11 (3) 0 0 2 2 2 2 0 = x
2
0
uneigentl.
Ebene
12 0 1 1 1 1 1 x
2
1
= x
2
0
uneigentl.
Gerade
13 0 2 0 0 0 0 x
2
1
x
2
2
= x
2
0
uneigentl.
Punkt
14 0 3 1 1 1 1 x
2
1
x
2
2
x
2
3
= x
2
0

15 1 2 0 1 0 1 x
2
1
x
2
2
= x
2
0
hyperbol.
Zylinder
16 1 3 1 0 1 0 x
2
1
x
2
2
x
2
3
= x
2
0
zweischaliges
Hyperboloid
17 (4) 0 0 1 2 2 2 0 = x
0
x
1
eigentl. Ebene
u.die un-
eigentl. Ebene
18 1 1 0 1 1 1 x
2
1
= x
0
x
2
parabol.
Zylinder
19 1 2 1 1 0 1 x
2
1
x
2
2
= x
0
x
3
hyperbol.
Paraboloid
20 2 2 1 0 0 0 x
2
1
+x
2
2
= x
0
x
3
elliptisches
Paraboloid
Beim bergang zu den afnen Quadriken fallen die Klassen 11 bis 14 sowie
die Klassen 2 und 17 zusammen, weil der eigentliche Teil jeweils die leere Men-
ge bzw. eine Ebene ist. Alle anderen Klassen sind verschieden. Es gibt also 16
verschiedene Klassen afn-inquivalenter Quadriken im dreidimensionalen afnen
Raum.
8.7.13 Berechnungsverfahren von Normalformen afner Quadriken. Die af-
ne Quadrik Q des n-dimensionalen afn-euklidischen Raums A sei durch die Glei-
chung
n

i,j=1
b
ij
x
i
x
j
+
n

i=1
b
i
x
i
+b = 0 ()
bezglich des afnen Koordinatensystems K von A gegeben, wobei die symme-
8.7 Afne Quadriken 239
trische reelle n n-Matrix B = (b
ij
) eine Koefzientenmatrix von Q ist, und
b = (b
1
, . . . , b
n
) R
n
, b R.
1. Schritt: Man geht zu projektiven Koordinaten ber, indem man x
i
durch
x

i
x

0
fr 1 i n ersetzt. Dann multipliziert man () mit (x

0
)
2
. Die so gewonnene
quadratische Gleichung bringt man auf die Form
n

i,j=0
a
ij
x

i
x

j
= 0. ()
Ihre Koefzientenmatrix ist die symmetrische reelle (n +1) (n +1)-Matrix
A =
_
_
_
_
_
a
00
a
01
a
0n
a
10
a
11
a
1n
.
.
.
a
n0
a
n1
a
nn
_
_
_
_
_
.
Sie ist die Koefzientenmatrix einer projektiven Quadrik Q

. Die eingerahmte Teil-


matrix A
0
ist die Koefzientenmatrix des uneigentlichen Teils (Q
u
)

der projektiven
Quadrik Q

mit Q

A = Q.
2. Schritt: Man berechne die charakteristischen Polynome char Pol
A
(X) und
char Pol
A
0
(X) von Aund A
0
.
3. Schritt: Man berechne die Trgheitsindizes t (A) und t (A
0
) von A und A
0
.
Da die symmetrischen reellen Matrizen Aund A
0
nach Satz 7.6.3 reelle Nullstellen
haben, knnen die Vorzeichen der Eigenwerte von A und A
0
aus den Koefzien-
ten der beiden charakteristischen Polynome char
A
(X) und char
A
0
(X) mittels der
Kartesischen Zeichenregel in Bemerkung 7.6.10 bestimmt werden.
4. Schritt: Man berechne die Rnge rg(A) = r, rg(A
0
) = r
0
mittels Algorithmus
4.1.18.
5. Schritt: Nach Satz 8.6.16 ist dann
u(Q

) = n t (A), d(Q

) = n rg(A),
u

(Q

) = u(Q

u
) = n t (A
0
) 2, d

(Q

) = n rg(A
0
) 1.
6. Schritt: In den Fllen n = 2 bzw. n = 3 ergibt sich die Normalgleichung und
der Typ der afnen Quadrik Q aus Folgerung 8.7.11 bzw. 8.7.12. Sonst mu man
Satz 8.7.9 anwenden.
7. Schritt: Umdie Transformation der Gleichung () auf Normalformtatschlich
durchzufhren, mu man die Teilmatrix A
0
mittels Berechnungsverfahren 7.6.4 auf
Diagonalform transformieren. Danach ergibt sich mittels quadratischer Ergnzung
wie im Beweis von Satz 8.7.9 die Normalform von Q.
240 8 Anwendungen in der Geometrie
8.7.14 Beispiel. Die afne Quadrik Q sei im 3-dimensionalen Raum A durch die
Gleichung
x
2
1
5x
2
2
x
1
x
2
+x
1
x
3
+x
2
x
3
4x
1
1 = 0
gegeben. In homogenen Koordinaten (x

0
, x

1
, x

2
, x

3
) lautet sie dann
(x

0
)
2
+(x

1
)
2
5(x

2
)
2
4x

0
x

2
x

1
x

2
+x

1
x

3
+x

2
x

3
= 0.
Nach Multiplikation dieser Gleichung mit 2 erhlt man die symmetrischen Koefzi-
entenmatrizen
A =
_
_
_
_
2 0 4 0
0 2 1 1
4 1 10 1
0 1 1 0
_
_
_
_
, A
0
=
_
_
2 1 1
1 10 1
1 1 0
_
_
der zugehrigen projektiven Quadrik Q

bzw. des uneigentlichen Teils (Q


u
)

von
Q

. Ihre charakteristischen Polynome sind


char Pol
A
(X) = X
4
+10X
3
23X
2
20X +4,
char Pol
A
0
(X) = X
3
8X
2
+23X +6.
Also haben Aund A
0
nach der Kartesischen Zeichenregel 7.6.10 die Trgheits-
indizes t (A) = 2, t (A
0
) = 1 und die Rnge rg(A) = 4, rg(A
0
) = 3.
Es folgt nach 8.7.13 da u(Q

) = 3 2 = 1, d(Q

) = 3 3 1 = 1,
u

(Q

) = 3 1 2 = 0 und d

(Q

) = 3 3 1 = 1 ist.
Die Quadrik Q gehrt nach Folgerung 8.7.12 zur Klasse Nr. 9. Sie ist also ein
einschaliges Hyperboloid. Die Bestimmung der Normalgleichung ist Aufgabe 8.13.
8.7.15 Bemerkung. Das einschalige Hyperboloid und das hyperbolische Paraboloid
weisen folgende Besonderheit auf: Durch jeden ihrer Punkte gehen zwei verschie-
dene Geraden, die ganz in der Quadrik liegen.
Beweis: Da die in der Behauptung auftretenden geometrischen Eigenschaften bei
Afnitten erhalten bleiben, kann man sich beim Beweis auf die durch die entspre-
chenden Normalgleichungen beschriebenen Quadriken beschrnken.
1. Die Normalgleichung des einschaligen Hyperboloids Q lautet
x
2
1
+x
2
2
x
2
3
= 1.
Wegen der (euklidischen) Rotationssymmetrie in der (x
1
, x
2
)-Ebene kann man sich
weiter auf einen Punkt x

Q mit Koordinaten (x

1
, 0, x

3
) beschrnken, die also
x
2
1
x
2
3
= 1 erfllen. Durch x
1
= x

1
+ t x

3
, x
2
= t , x
3
= x

3
+ t x

1
mit t R
werden je nach Wahl des Vorzeichens zwei verschiedene Geraden durch x

gegeben.
8.8 Aufgaben 241
Einsetzen in die Normalgleichung ergibt x
2
1
+ x
2
2
x
2
3
= x
2
1
x
2
3
+ 2t (x

1
x

3

x

3
x

1
) +t
2
(x
2
3
+1 x
2
1
) = x
2
1
x
2
3
= 1 fr beliebige Werte von t . Deshalb sind
beide Geraden ganz in Q enthalten.
2. Die Normalgleichung des hyperbolischen Paraboloids Q lautet
x
2
1
x
2
2
= x
3
.
Es sei x

Q ein beliebiger Punkt mit den Koordinaten (x

1
, x

2
, x

3
), fr die also
x
2
1
x
2
2
= x

3
gilt. Durch x
1
= x

1
+ t , x
2
= x

2
t , x
3
= x

3
+ 2t (x

1
x

2
)
mit t R werden wieder zwei verschiedene Geraden durch x

gegeben. Einsetzen
ergibt jetzt x
2
1
x
2
2
= x
2
1
x
2
2
+2t (x

1
x

2
)+t
2
(11) = x

3
+2t (x

1
x

2
) = x
3
;
die beiden Geraden sind also ebenfalls ganz in Q enthalten.
8.8 Aufgaben
8.1 ImvierdimensionalenreellenafnenRaumAseienfolgende Punkte durchihre Koordina-
ten gegeben: q
0
= (3, 4, 1, 6), q
1
= (3, 2, 10, 0), q
2
= (2, 0, 3, 2), q
3
= (1, 2, 4, 4).
Bestimmen Sie die Dimension des von diesen Punkten aufgespannten Unterraums U und
den Durchschnitt von U mit der Hyperebene H, die durch die Gleichung
4x
1
+x
2
+x
3
2x
4
+6 = 0
gegeben ist.
8.2 Imzweidimensionalen reellen afnen Raumseien hinsichtlich eines Koordinatensystems
folgende Punkte gegeben:
p
1
: (1, 2), p
2
: (2, 1), p
3
: (1, 1), p

1
: (2, 9), p

2
: (4, 2), p

3
: (1, 6).
Berechnen Sie die Matrix und den Translationsvektor derjenigen afnen Abbildung , fr die
p
i
= p

i
gilt fr i = 1, 2, 3.
8.3 Im dreidimensionalen reellen afnen Raum seien hinsichtlich eines Koordinatensystems
der Punkt p : (2, 1, 1), die Gerade G

: g

= (11, 1, 2) + (1, 2, 1) t mit t R und die


Ebene H durch die Gleichung 2x
1
x
2
+5x
3
= 1 gegeben. Berechnen Sie eine Parameter-
darstellung derjenigen Geraden G, fr die p G, G G

= und G H gilt.
8.4 Im dreidimensionalen euklidisch-afnen Raum seien hinsichtlich eines kartesischen Ko-
ordinatensystems die Geraden
G : g = (1, 2, 1) +(3, 1, 1) s mit s R,
G

: g

= (0, 2, 16) +(1, 2, 3) t mit t R


gegeben. Zeigen Sie, da diese beiden Geraden genau ein gemeinsames Lot besitzen, und
berechnen Sie dessen Fupunkte auf G und G

.
242 8 Anwendungen in der Geometrie
8.5 (a) Imdreidimensionalen reellen afnen Raumseien drei paarweise windschiefe Geraden
G
1
, G
2
, G
3
(je zwei liegen nicht in einer Ebene) gegeben. Zeigen Sie: Zu einemPunkt p G
1
gibt es im allgemeinen genau eine Gerade G mit p G, G G
2
= und G G
3
= .
Welche Ausnahmepunkte gibt es auf G
1
, fr die dies nicht der Fall ist?
(b) Hinsichtlich eines Koordinatensystems gelte G
1
: g
1
= (1, 0, 0) u, G
2
: g
2
=
(0, 1, 0) + (0, 0, 1) v, G
3
: g
3
= (1, 1, 0) + (1, 1, 1) w mit u, v, w R. Berechnen Sie
fr p : (1, 0, 0) eine Parameterdarstellung der entsprechenden Geraden G und auerdem die
Ausnahmepunkte von G
1
.
8.6 Hinsichtlich einer Orthonormalbasis des euklidischen 3-dimensionalen Vektorraums
V = R
3
sei einem Endomorphismus von V die Matrix
A =
_
_
_
1
4

3 +
1
2
1
4

3
1
2

1
4

2
1
4

3
1
2
1
4

3 +
1
2

1
4

2
1
4

2
1
4

2
1
2

3
_
_
_
zugeordnet. Zeigen Sie, da eine Drehung ist. Bestimmen Sie ihre Drehachse und ihren
Drehwinkel und berechnen Sie die Eulerschen Winkel von mittels Satz 8.3.28.
8.7 Es sei V ein 3-dimensionaler, orientierter euklidischer Raum, und {e
1
, e
2
, e
3
} sei eine
positiv orientierte Orthonormalbasis von V. Das Vektorprodukt zweier Vektoren x = e
1
x
1
+
e
2
x
2
+e
3
x
3
und y = e
1
y
1
+e
2
y
2
+e
3
y
3
ist deniert durch
x y =

e
1
e
2
e
3
x
1
x
2
x
3
y
1
y
2
y
3

,
wobei die Determinante formal nach der ersten Zeile zu entwickeln ist. Zeigen Sie:
(a) x y = 0 ist gleichwertig damit, da die Vektoren x und y linear abhngig sind.
(b) Sind x
i
, y
i
, z
i
, 1 i 3 die Koordinaten von x, y, z hinsichtlich einer positiv
orientierten Orthonormalbasis von V, dann gelten
(x y) z =

x
1
x
2
x
3
y
1
y
2
y
3
z
1
z
2
z
3

,
(z y) z = (y z) x = (z x) y.
(c) x y ist ein zu x und y orthogonaler Vektor mit Betrag
|x y| = |x| |y| | sin(x, y)|.
8.8 Es sei eine Bijektion der afnen Geraden G auf sich. Zeigen Sie, da genau dann
eine Afnitt ist, wenn fr je drei Punkte x, y, z G stets TV(x, y, z) = TV(x, y, z).
8.9 Das Doppelverhltnis von vier kollinearen Punkten p
1
, p
2
, p
3
, p
4
hngt von der Reihen-
folge dieser Punkte ab. Nachstehend bedeute eine beliebige Permutation der vier Indizes.
8.8 Aufgaben 243
(a) Fr welche Permutationen gilt DV(p
1
, p
2
, p
3
, p
4
) = DV(p
1
, p
2
, p
3
, p
4
)?
(b) Es gelte DV(p
1
, p
2
, p
3
, p
4
) = c. Man drcke fr alle Permutationen das Doppel-
verhltnis DV(p
1
, p
2
, p
3
, p
4
) durch c aus. Wie viele verschiedene Doppelver-
hltnisse treten auf?
8.10 Zeigen Sie, da eine Bijektion einer projektiven Geraden auf sich genau dann eine
Projektivitt ist, wenn sie das Doppelverhltnis ungendert lt.
8.11 Klassizieren Sie die durch
5(x
2
1
+x
2
3
) 4x
0
x
2
+2x
1
x
3
= 0
gegebene projektive Quadrik und bestimmen Sie die Matrix einer Transformation, die diese
Gleichung in die Normalform berfhrt.
8.12 Bestimmen Sie die Normalgleichung der Quadrik Q im 3-dimensionalen afn-
euklidischen Raum A, die durch
x
2
1
+2x
1
x
2
+x
2
2
+2x
1
x
3
+2x
2
x
3
+x
2
3
+2x
1
+2x
2
+2x
3
3 = 0
beschrieben wird.
8.13 Bestimmen Sie die Normalgleichung der Quadrik Q im dreidimensionalen afn-
euklidischen Raum A, die durch
x
2
1
5x
2
2
x
1
x
2
+x
1
x
3
+x
2
x
3
4x
2
1 = 0
beschrieben wird. Benutzen Sie Nherungen fr die Eigenwerte der Koefzientenmatrix, und
fhren Sie die Lsung der Aufgabe mit den Nherungswerten durch.
8.14 Die Quadrik Q im dreidimensionalen reellen afnen Raum A sei durch die Gleichung
3x
2
1
2x
1
x
2
+3x
2
2
6x
2
3
2x
1
4x
2
2x
3
= c
mit c R gegeben.
(a) Bestimmen Sie alle mglichen Typen von Q in Abhngigkeit von c.
(b) Bestimmen Sie fr c = 6 die Gleichungen der beiden in Q enthaltenen Geraden, die
durch den Punkt q mit den Koordinaten (1, 1, 1) gehen.
9 Ringe und Moduln
Fr die in diesem Buch durchgefhrte Lsung des allgemeinen Normalformenpro-
blems einer n n-Matrix A = (a
ij
) mit Koefzienten a
ij
aus einem kommutativen
Krper F ist es notwendig, Teile der Theorie der F-Vektorrume auf R-Rechts-
moduln M ber einem kommutativen Ring R zu verallgemeinern. Dabei zeigt sich,
da eine Reihe von Ergebnissen und Denitionen direkt bertragen werden knnen;
das gilt insbesondere, wenn M ein freier R-Rechtsmodul ist. So wird im vierten Ab-
schnitt gezeigt, da je zwei Basen eines endlich erzeugten freien R-Rechtsmoduls
gleich viele Elemente haben. Allerdings bedeutet

frei, da man voraussetzt, da


M eine Basis besitzt, whrend man bei F-Vektorrumen V die Existenz einer Basis
beweisen konnte.
Imallgemeinen ist ein R-Rechtsmodul M nicht frei. Fr die Strukturuntersuchun-
gen der Moduln ber Hauptidealringen, die im nchsten Kapitel durchgefhrt wird,
werden im erstenAbschnitt allgemeine Ergebnisse ber Ideale und Restklassenringe
beliebiger kommutativer Ringe R dargestellt.
Im zweiten Abschnitt wird der allgemeine Modulbegriff eingefhrt, und es wer-
den alle drei Isomorphiestze der Modultheorie bewiesen, die sich spter als wichtige
Hilfsmittel erweisen werden.
Im dritten und sechsten Abschnitt werden einige grundlegende Begriffe und Er-
gebnisse der homologischen Algebra ber kommutative Diagramme, exakte Folgen,
direkte Produkte, direkte Summen, Faserprodukte und Fasersummen von R-Rechts-
moduln behandelt.
Im vierten Abschnitt werden die grundlegenden Ergebnisse ber endlich erzeug-
te und freie R-Rechtsmoduln bewiesen. Insbesondere wird gezeigt, da jeder end-
lich erzeugte R-Rechtsmodul ein epimorphes Bild eines endlich erzeugten freien
R-Rechtsmoduls ist. Auerdem wird ein Konstruktionsverfahren fr freie Moduln
angegeben, die nicht notwendig endlich erzeugt sind.
Der fnfte Abschnitt behandelt die Beschreibung R-linearer Abbildungen zwi-
schen endlich erzeugten freien R-Rechtsmoduln durch mn-Matrizen ber R.
9.1 Ideale und Restklassenringe
In diesemAbschnitt bezeichnet R stets einen kommutativen Ring mit Einselement 1.
Der Begriff

Ideal eines Ringes wird eingefhrt. Es folgt, da jedes Ideal Y von R


9.1 Ideale und Restklassenringe 245
eine quivalenzrelation auf R deniert. Damit wird gezeigt, da die zugehrigen
quivalenzklassen [r] der Ringelemente r R wiederum einen Ring R/Y bilden.
9.1.1 Denition. Die nicht leere Teilmenge Y des Ringes R ist ein Ideal, wenn Y
eine Untergruppe der additiven Gruppe (R, +) von R ist, und yr Y fr alle y Y
und r R gilt. Das Ideal Y von R heit echtes Ideal, wenn Y = R.
9.1.2 Beispiele.
(a) Die nur aus demNullelement bestehende Teilmenge {0} eines Ringes R ist ein
Ideal von R; es heit das Nullideal und wird von nun an mit 0 bezeichnet.
(b) Ist R = Zder Ring der ganzen Zahlen, so ist die Menge Y aller geraden Zahlen
y = 2z mit z Z ein Ideal von Z. Denn Summe und Differenz zweier gerader
Zahlen sind stets gerade; auerdem ist yz fr alle y Y und alle z Z eine
gerade Zahl.
(c) Ist R = F ein Krper, so sind 0 und R die einzigen Ideale von R.
9.1.3 Denition. Das Ideal Y von R heit Hauptideal, wenn Y = yR fr ein y Y
ist, d. h. es gibt ein y Y derart, da zu jedem z Y ein r R mit z = yr existiert.
Man sagt auch: Das Element y erzeugt das Ideal Y oder y ist ein Erzeuger von Y.
9.1.4 Denition. Sei Y ein Ideal des Ringes R. Dann heien zwei Elemente r, s R
quivalent bezglich Y, wenn r s Y.
Bezeichnung: r s oder r
Y
s.
Es ist einfach einzusehen, da eine quivalenzrelation auf R ist.
9.1.5 Hilfssatz. Sei Y ein Ideal des Ringes R mit Y = R und R/Y die Menge der
quivalenzklassen [r] = {s R | s r} der Elemente r von R. Dann wird R/Y
bezglich der Addition [r
1
] + [r
2
] = [r
1
+ r
2
] und der Multiplikation [r
1
] [r
2
] =
[r
1
r
2
] fr alle r
1
, r
2
R ein Ring mit Einselement [1].
Beweis: Nach Satz 1.2.10 zerlegen die quivalenzklassen [r], r R, die Menge
R in disjunkte Teilmengen. Seien [r
1
], [r
2
] R/Y. Dann ist zu zeigen, da ihre
Summe [r
1
] + [r
2
] = [r
1
+ r
2
] und ihr Produkt [r
1
][r] = [r
1
r
2
] unabhngig von
den Reprsentanten ihrer quivalenzklassen sind. Sind s
1
, s
2
R weitere Repr-
sentanten von [r
1
] bzw. [r
2
], so sind r
i
s
i
= y
i
Y fr i = 1, 2, woraus zunchst
[r
1
+r
2
][s
1
+s
2
] = [r
1
+r
2
s
1
s
2
] = [(r
1
s
1
)+(r
2
s
2
)] = [y
1
y
2
] = [0]
R/Y folgt. Deshalb ist die Addition + wohldeniert und [0] ist das Nullelement der
abelschen Gruppe R/Y bezglich der Verknpfung +.
246 9 Ringe und Moduln
Auch die Multiplikation auf R/Y ist wohldeniert; denn
r
1
r
2
s
1
s
2
= (s
1
+y
1
)(s
2
+y
2
) s
1
s
2
= s
1
s
2
+y
1
s
2
+s
1
y
2
+y
1
y
2
s
1
s
2
= y
1
s
2
+s
1
y
2
+y
1
y
2
Y,
woraus [r
1
][r
2
] = [r
1
r
2
] = [s
1
s
2
] = [s
1
][s
2
] folgt. Man berzeugt sich unmittelbar
davon, da R/Y hinsichtlich der so denierten Rechenoperationen (im Sinn der
Denition 1.4.1) ein Ring mit [1] als Einselement ist.
9.1.6 Denition. Der Ring R/Y wird der Restklassenring des Ringes R bezglich
des Ideals Y genannt.
9.1.7 Denition. Das Ideal M des Ringes R heit maximal, wenn M = R gilt und
es kein Ideal Y von R gibt mit M Y R.
9.1.8 Satz. Sei R ein kommutativer Ring mit 1 R. Dann gelten:
(a) Jedes echte Ideal Y von R ist in einem maximalen Ideal enthalten.
(b) Ist M ein maximales Ideal von R, so ist der Restklassenring F = R/M ein
Krper.
Beweis: (a) Da Y ein echtes Ideal von R ist, ist 1 / Y. Sei Y Y

1
Y

2

eine aufsteigende Kette von Idealen Y

von R mit 1 / Y

, wobei A und A
eine Indexmenge ist. Sei W =

A
Y

. Sind u, v W, so existiert ein A


mit u, v Y

, weil die Ideale Y

eine Kette bilden. Also ist u v Y

W.
Ebenso folgt ur W fr alle u W and r R. Daher ist W ein Ideal von R, und
1 / W. Also besitzt die Menge M aller Ideale Z von R mit Y Z und 1 / Z
nach dem Lemma 1.1.9 von Zorn ein maximales Element M. Da jedes echt grere
Ideal M

> M das Einselement 1 enthlt und somit M

= R gilt, folgt, da M ein


maximales Ideal von R ist. Es enthlt Y.
(b) Sei [0] = [r]. Dann ist M + rR ein Ideal von R, das M echt enthlt. Da M
ein maximales Ideal von R ist, gilt
R = M +rR.
Also liegt die Eins von Rin M+rR, d. h. 1 = m+rs fr Elemente m M und s R.
Daher ist [r][s] = [1] R/M und somit [s] = [r]
1
. Also ist der Restklassenring
R/M ein Krper.
9.1.9 Beispiele.
(a) Im Ring Z der ganzen Zahlen ist die Menge Y aller geraden Zahlen ein maxi-
males Ideal. Der Restklassenkrper Z/Y besteht aus den beiden Restklassen
[0] und [1]. Er hat also 2 Elemente und wird mit Z/2Z bezeichnet.
9.1 Ideale und Restklassenringe 247
(b) Im Polynomring R = F[X] ber dem Krper F in der Unbestimmten X ist
Y = {Xf (X)|f (X) R} ein maximales Ideal mit dem Restklassenkrper
R/Y

= F im Sinne der Denition 3.6.5. Denn ist f (X) = f
0
+ f
1
X +
+ f
n
X
n
R, so ist [f
0
] = [f (X)] in R/Y. Wegen Hilfssatz 9.1.5 ist
die Abbildung [f
0
] f
0
F ein Isomorphismus zwischen den Krpern
R/Y und F.
9.1.10 Denition. Ein Element u des kommutativen Ringes R mit Einselement 1
heit Einheit, wenn es ein v R mit uv = 1 gibt.
9.1.11 Satz. Die folgenden Eigenschaften eines Elementes u R sind quivalent:
(a) u ist eine Einheit von R.
(b) R ist das von u erzeugte Hauptideal, d. h. uR = R.
(c) u ist in keinem maximalen Ideal von R enthalten.
Beweis: (c) folgt trivialerweise aus (b). Ist u in keinem maximalen Ideal von R
enthalten, dann ist das Hauptideal uR nach Satz 9.1.8 nicht echt. Also ist R = uR,
und 1 = uv fr ein v R, womit (a) bewiesen ist. Die Implikation (a) (b) ist
trivial.
9.1.12 Denition. Eine nicht leere Teilmenge U des Ringes Rheit Unterring, wenn
fr alle u
1
, u
2
U sowohl u
1
u
2
U als auch u
1
u
2
U gilt.
9.1.13 Beispiele.
(a) Jedes Ideal Y eines Ringes R ist ein Unterring von R.
(b) Z ist ein Unterring von Q, aber kein Ideal von Q.
(c) Die Menge Y aller geraden Zahlen von Zist ein Unterring von Q. Insbesondere
besitzt dieser Unterring Y kein Einselement.
Da ein Unterring U im allgemeinen kein Einselement hat, ist es notwendig, den
Begriff

Ideal eines Unterringes einzufhren.


9.1.14 Denition. Sei U ein Unterring des Ringes R. Die nicht leere Teilmenge Y
von U ist ein Ideal des Unterrings U, wenn y
1
y
2
Y fr alle y
1
, y
2
Y, und
wenn yu Y fr alle y Y und alle u U gilt.
9.1.15 Folgerung. SeienU einUnterringundY einIdeal des Ringes R. Danngelten:
(a) Y
1
= U Y ist ein Ideal von U.
248 9 Ringe und Moduln
(b) U +Y = {r R | r = u +y fr ein u U und ein y Y} ist ein Unterring
von R.
(c) (U +Y)/Y ist ein Unterring des Restklassenringes R/Y.
(d) Fr jeden Unterring T von R/Y ist T

= {r R | [r] T } ein Unterring


von R.
(e) Fr jedes Ideal I von R/Y ist I

= {r R | [r] I} ein Ideal von R mit


Y I

und I

/Y = I.
Beweis: (a) Folgt unmittelbar aus Denition 9.1.12 und Denition 9.1.14.
(b) Sind r
1
= u
1
+ y
1
, r
2
= u
2
+ y
2
U + Y mit u
i
U und y
i
Y, dann
ist r
1
r
2
= (u
1
u
2
) (y
1
y
2
) U + Y. Da Y ein Ideal von R ist, ist auch
r
1
r
2
= (u
1
+y
1
)(u
2
+y
2
) = u
1
u
2
+(y
1
u
2
+u
1
y
2
+y
1
y
2
) U +Y.
Die einfachen Beweise der brigen Aussagen (c), (d) und (e) sind dem Leser
berlassen.
9.2 Moduln
In diesemAbschnitt ist R stets ein kommutativer Ring mit Eins. Als Verallgemeine-
rung der Theorie der F-Vektorrume V werden hier einige grundlegende Begriffe
und Ergebnisse ber R-Moduln M dargestellt. Insbesondere werden alle drei Iso-
morphiestze bewiesen.
9.2.1 Denition. Die abelsche Gruppe M mit Addition +heit ein R-Rechtsmodul,
wenn eine Verknpfung (m, r) mr von M R in M existiert derart, da fr alle
m, m
1
, m
2
M und r, r
1
, r
2
R folgende Gleichungen gelten:
m(r
1
r
2
) = (mr
1
)r
2
. (a)
(m
1
+m
2
)r = m
1
r +m
2
r. (b)
m(r
1
+r
2
) = mr
1
+mr
2
. (c)
m1 = m. (d)
Analog erklrt man R-Linksmoduln mittels einer Verknpfung (r, m) rm.
Die Axiome (a) bis (d) stimmen also mit denen der Denition 1.5.1 eines Vek-
torraums berein. Da Krper spezielle Ringe sind, ist der Modulbegriff eine Verall-
gemeinerung des Begriffs Vektorraum.
9.2.2 Beispiele.
(a) Jeder Vektorraum V ber einem Krper F ist ein F-Rechtsmodul.
9.2 Moduln 249
(b) Jede abelsche Gruppe (A, +) ist ein Z-Rechtsmodul; denn fr jedes a A
und jede natrliche Zahl n ist a n in Aals die n-fache Summe des Elements a
mit sich selbst deniert. Auerdem gilt a (n) = (a) n fr alle a Aund
alle natrlichen Zahlen n. Mit diesen Feststellungen ist es trivial, die Axiome
von 9.2.1 fr den Z-Modul A nachzuweisen.
(c) Jedes Ideal Y des Ringes R ist ein R-Rechts- und ein R-Linksmodul.
(d) Der Restklassenring R/Y des Ringes R nach dem Ideal Y ist ein R-
Rechtsmodul bezglich der Verknpfung: [r] s = [rs] fr alle [r] R/Y
und alle s R; diese Behauptung folgt einfach aus Hilfssatz 9.1.5.
9.2.3 Bemerkungen.
(a) Die Denition 9.2.1 eines R-Rechtsmoduls gilt wrtlich auch fr nicht not-
wendig kommutative Ringe R. Im nicht kommutativen Fall sind die Begriffe

R-Rechtsmodul und

R-Linksmodul strikt verschieden.


(b) Ist R jedoch ein kommutativer Ring und M ein R-Rechtsmodul mit Verknp-
fung (m, r) mr, m M, r R, so wird M ein R-Linksmodul vermge
der neuen Verknpfung (r, m) r m = mr. Da R kommutativ ist, gilt
insbesondere auch die kritische Gleichung
(r
1
r
2
) m = r
1
(r
2
m) = r
1
(mr
2
) = (mr
2
)r
1
= mr
2
r
1
= m(r
1
r
2
)
fr alle r
1
, r
2
R und alle m M.
Es ist deshalb blich, im kommutativen Fall R-Rechtsmoduln als R-Moduln zu
bezeichnen. Diese Vereinbarung wird in allen folgenden Abschnitten und Kapiteln
befolgt.
9.2.4 Denition. Sei M ein R-Modul. Die nicht leere Teilmenge U von M ist ein
Untermodul von M, wenn die beiden folgenden Bedingungen erfllt sind:
(a) u
1
u
2
U fr alle u
1
, u
2
U.
(b) u r U fr alle u U und r R.
Bezeichnung: U M; U < M, falls U M und U = M.
Jeder Untermodul ist ein R-Modul. Sicherlich ist {0} ein Untermodul von M. Es
ist jedoch blich, ihn nur mit 0 zu bezeichnen, obwohl er im Falle der Vektorrume
dem Nullraum {o} entspricht.
9.2.5 Hilfssatz. Seien U, V zwei Untermoduln des R-Moduls M. Dann gelten die
folgenden Aussagen:
250 9 Ringe und Moduln
(a) U +V = {u +v | u U, v V} ist ein Untermodul von M.
(b) U V ist ein Untermodul von M.
Beweis: (a) Ist m = u+v fr geeignete u U und v V, dann ist mr = ur +vr
U + V fr alle r R, weil ur U und vr V ist. Ist m

= u

+ v

ein weiteres
Element von U +V, so ist mm

= (u u

) +(v v

) U +V. Da 0 +0 = 0
aus U +V ist, ist U +V nicht leer. Also gilt die Behauptung.
(b) Ist trivial.
9.2.6 Denition. Seien U
1
, U
2
, , U
k
Untermoduln des R-Moduls M. Dann heit
der nach Hilfssatz 9.2.5 und vollstndiger Induktion existierende Untermodul U
1
+
U
2
+ +U
k
die Summe der Untermoduln U
i
von M.
Bezeichnung:
k

i=1
U
i
oder U
1
+U
2
+ +U
k
.
9.2.7 Denition. Die Summe

k
i=1
U
i
der Untermoduln U
1
, U
2
, . . . , U
k
des R-
Moduls M heit direkt, wenn fr alle j = 1, 2, . . . , k stets gilt
U
j

k

i=1
i=j
U
i
= 0.
Bezeichnung:
k

i=1
U
i
oder U
1
U
2
U
k
.
Wie bei Vektorrumen lassen sich diese beiden Denitionen auf beliebig viele
Untermoduln bertragen.
9.2.8 Denition. Es sei {U

| A} ein System von Untermoduln des R-Moduls


M derart, da die Zuordnung U

injektiv ist.
(a) Die Summe der Untermoduln U

von M ist der Untermodul



A
U

=
_
A
u

M | u

und u

= 0 fr fast alle A
_
.
(b) Die Summe

A
U

heit direkt, wenn U

= 0 fr alle Aerfllt ist und


fr jeden Index Agilt:
U

A\{}
U

= 0.
Bezeichnung:

A
U

.
9.2 Moduln 251
9.2.9 Denition. Sind M und N zwei R-Moduln, dann nennt man die Abbildung
: M N eine R-lineare Abbildung (Modulhomomorphismus), wenn
(m
1
+m
2
) = (m
1
) +(m
2
),
(mr) = (m)r
fr alle m, m
1
, m
2
M, r R gelten.
Bezeichnung: Hom
R
(M, N) ist die Menge aller R-linearen Abbildungen von M
nach N.
9.2.10 Denition. Eine Abbildung : M N zwischen den R-Moduln M und N
heit
(a) Epimorphismus, wenn R-linear und surjektiv ist.
(b) Monomorphismus, wenn R-linear und injektiv ist.
(c) Isomorphismus, wenn R-linear und bijektiv ist.
9.2.11 Denition. Sei : M N eine R-lineare Abbildung zwischen den R-
Moduln M und N. Dann heit Ker() = {m M | (m) = 0 N} der Kern von
. Die Menge Im() = {w N | w = (m) fr ein m M} heit das Bild von .
9.2.12 Satz. Sei : M N eine R-lineare Abbildung zwischen den R-Moduln M
und N. Dann gelten:
(a) Das Urbild

(Z) = {m M | (m) Z} eines Untermoduls Z von N ist


ein Untermodul von M.
(b) Ker() ist ein Untermodul von M.
(c) Ker() = 0 genau dann, wenn injektiv ist.
(d) Fr jeden Untermodul U von M ist (U) ein Untermodul von N.
(e) Im() ist ein Untermodul von N.
(f) Im() = N genau dann, wenn surjektiv ist.
Beweis: Hierzu wird auf den Beweis von Satz 3.2.7 verwiesen.
9.2.13 Denition. Sei U ein Untermodul des R-Moduls M. Zwei Elemente u, v
M heien quivalent bezglich U, wenn u v U ist.
Bezeichnung: u
U
v.
9.2.14 Hilfssatz. Sei U ein Untermodul des R-Moduls M ber dem Ring R. Dann
gelten:
252 9 Ringe und Moduln
(a)
U
ist eine quivalenzrelation.
(b) Sei M/U die Menge aller quivalenzklassen [v] = {m M | v
U
m} der
Elemente v M bezglich
U
. Dann ist M/U ein R-Modul bezglich der
Operationen + und , die wie folgt deniert sind:
[v
1
] +[v
2
] = [v
1
+v
2
] fr alle v
1
, v
2
M,
[v] r = [vr] fr alle v M und r R.
(c) Die durch (v) = [v] M/U fr alle v M denierte Abbildung ist ein
R-Modulepimorphismus von M auf M/U mit Ker = U.
(d) Ist Y ein Ideal des Ringes R, dann ist U = MY ein Untermodul von M und
M/U ist ein R/Y-Modul bezglich der Verknpfung
[v][r] = [vr] = [v]r fr alle [r] R/Y und [v] M/U.
Beweis: (a) Ist trivial.
(b) Zunchst ist zu zeigen, da die Operationen +und wohldeniert sind, d. h.
unabhngig von der jeweiligen Auswahl der Vertreter v
i
der quivalenzklassen [v
i
].
Seien also v
1
und v

1
bzw. v
2
, v

2
jeweils zwei Reprsentanten der quivalenzklassen
[v
1
] und [v
2
]. Dann ist v
1
v

1
= u
1
U und v
2
v

2
= u
2
U nach Denition
von
U
. Also ist (v
1
+ v
2
) (v

1
+ v

2
) = u
1
u
2
U, weil U ein Untermodul
des R-Moduls M ist. Hieraus folgt, [v
1
+ v
2
] = [v

1
+ v

2
]. Also ist die Addition +
wohldeniert.
Sei nun a R. Sind v und v

zwei Reprsentanten der Restklasse [v], dann ist


v v

= u U. Also ist v a v

a = (v v

) a = u a U und somit
[va] = [v

a]. Daher ist auch die Multiplikation mit Elementen a R auf M/U
wohldeniert.
Da 0 U, ist [0] das Nullelement in M/U. Die brigenAxiome eines R-Moduls
folgen nun fr M/U sofort aus der Tatsache, da sie nach Denition 9.2.1 fr alle
Elemente von M gelten.
(c) Wegen (b) ist die Abbildung : v [v] M/U fr alle v M ein R-
Modulepimorphismus. Weiter ist (v) = 0 genau dann, wenn [v] = [0] M/U,
d. h. v U ist. Also ist Ker() = U.
(d) Da R ein kommutativer Ring ist, ist My fr jedes y Y ein Untermodul des
R-Moduls M; denn m
1
y m
2
y = (m
1
m
2
)y My fr m
1
y, m
2
y My und
(my)r = m(ry) = (mr)y My fr m M und r R. Nach Denition 9.2.8 ist
daher MY =

yY
My ein Untermodul von M.
Nach (b) gilt [m]y = [my] = 0 M/MY fr alle y Y und [m] M/MY. Sei
[r] R/Y. Dann wird M/MY ein R/Y-Modul vermge der nun wohldenierten
Verknpfung [m] [r] = [mr] = [m]r.
9.2 Moduln 253
9.2.15 Denitionen. Sei U ein Untermodul des R-Moduls M. Der R-Modul M/U
aus Hilfssatz 9.2.14 (b) heit Faktormodul von M nach U.
Bezeichnung: M/U.
Der in Hilfssatz 9.2.14 (c) erklrte R-Modulepimorphismus : M M/U,
(m) = [m] M/U fr alle m M, heit kanonischer Epimorphismus von M auf
M/U.
9.2.16 Satz (1. Isomorphiesatz). Ist : M W ein Epimorphismus zwischen den
R-Moduln M und W, dann ist M/ Ker()

= W.
Beweis: Nach Satz 9.2.12 ist Ker() ein Untermodul von M. Sei : M
M/ Ker() der in Hilfssatz 9.2.14 beschriebene kanonische Epimorphismus (v) =
[v] M/ Ker() fr alle v M. Dann ist Ker() = Ker(). Die Abbildung
: M/ Ker() W, die jeder Restklasse [v] M/ Ker() das Bild (v) W des
Elements v M zuordnet, ist daher eine wohldenierte R-lineare Abbildung. Da
surjektiv ist, ist auch ein Epimorphismus. Wegen Ker() = Ker() ist injektiv.
Also ist : M/ Ker() W ein Isomorphismus.
9.2.17 Satz (2. Isomorphiesatz). Seien U und W Untermoduln des R-Moduls M.
Dann gilt
(U +W)/W

= U/(U W).
Beweis: Nach Hilfssatz 9.2.5 ist U + W ein R-Modul. Sicherlich ist W ein Unter-
modul von U +W. Sei : (U +W) (U +W)/W der zu W gehrige kanonische
Epimorphismus. Dann ist Ker() = W nach Hilfssatz 9.2.14. Wegen Hilfssatz 9.2.5
ist U W ein Untermodul von U. Sei : U U/(U W) der zugehrige
kanonische Epimorphismus mit Ker() = U W.
Fr ein Element v = u +w U +W mit u U und w W gilt (v) = [v] =
[u+w] = [u]+[w] = [0] (U+W)/W genaudann, wenn[u] = [0] (U+W)/W
ist, d. h. wenn u U W. Also ist die durch
((u +w)) = (u) fr alle u U und w W
denierte Abbildung : (U + W)/W U/(U W) wohldeniert und injektiv.
Da und surjektive R-lineare Abbildungen sind, ist ein Isomorphismus.
9.2.18 Satz (3. Isomorphiesatz). Seien U und W Untermoduln des R-Moduls M
derart, da W U. Dann gilt
M/U

= (M/W)/(U/W).
Beweis: Seien : M M/U und : M M/W die zu den Untermoduln U und
W gehrigen kanonischen Epimorphismen von M. Wegen W U ist dann (U) =
254 9 Ringe und Moduln
U/W ein Untermodul von (M) = M/W. Sei der kanonische Epimorphismus
von (M) auf (M)/(U). Die Abbildung : (M)/(U) (M) = M/U sei
deniert durch
( ((v))) = (v) fr alle v M.
Zunchst wird gezeigt, da wohldeniert ist: Aus (v) = 0 (M)/(U) folgt
(v) (U), weil Ker( ) = (U) ist. Daher ist (v) = (u) fr ein u U,
weil : M M/W und seine Einschrnkung auf U wegen W U surjektive
Abbildungen sind. Also ist
v u Ker() = W,
woraus v u = w fr ein w W U und somit v = u + w U folgt. Da
U = Ker() ist, ergibt sich hieraus schlielich die Gleichung
( ((v))) = (v) = 0.
Die Abbildung ist auch linear und surjektiv, weil die Abbildungen , und diese
beiden Eigenschaften haben. Ist schlielich
( ((v))) = (v) = 0 M/U,
dann ist v Ker() = U, woraus (v) (U) = Ker( ) und somit (v) =
0 (M)/(U) folgt. Daher ist : (M)/(U) = (M/W)/(U/W) M/U ein
Isomorphismus.
9.2.19 Folgerung. Seien M und Y zwei R-Moduln. Sei U ein Untermodul von M
und : M M/U der kanonische Epimorphismus mit Kern U.
Dann gibt es zu jeder R-linearen Abbildung : M Y mit U Ker genau
eine R-lineare Abbildung
U
mit =
U
.
Weiter gilt:
(a)
U
ist genau dann injektiv, wenn Ker() = Ker() = U.
(b)
U
ist genau dann surjektiv, wenn surjektiv ist.
Beweis: Fr jedes m M sei [m] die Restklasse von m in M/U. Die Abbildung

U
: M/U Y sei deniert durch
U
[m] = (m) fr alle m M. Wegen U
Ker() ist
U
wohldeniert. Offensichtlich ist
U
auch R-linear.
Sei : M/U Y eine weitere R-lineare Abbildung mit = . Dann gilt:
[m] = (m) = (m) =
U
(m) =
U
[m]
fr alle [m] M/U. Also ist =
U
.
Wegen U Ker ist Ker()/U ein Untermodul von M/U. Aus
U
= ergibt
sich nun Ker(
U
) = Ker()/U. Also ist
U
genau dann injektiv, wenn Ker = U.
Nach Konstruktion ist
U
genau dann surjektiv, wenn surjektiv ist.
9.3 Kommutative Diagramme und exakte Folgen 255
9.2.20 Bemerkung. Im Spezialfall eines Vektorraums V ber einem Krper F ist
der Faktormodul V/U nach einem Unterraum U von V ein F-Vektorraum. Er heit
der Faktorraum von V nach U.
9.2.21 Satz. Sei V ein endlich-dimensionaler F-Vektorraum mit dimV = n. Der
Faktorraum V/U von V nach dem Unterraum U hat die Dimension
dim(V/U) = dimV dimU.
Beweis: Sei : V V/U der kanonische Epimorphismus. Nach dem 1. Iso-
morphiesatz 9.2.16 und Hilfssatz 9.2.14 gilt dann dim(V/U) = dimIm() und
Ker() = U. Wegen Satz 3.2.13 folgt daher
dim(V/U) = dimIm() = dimV dimKer() = dimV dimU.
9.3 Kommutative Diagramme und exakte Folgen
In diesem Abschnitt werden allgemeine Eigenschaften von Produkten R-linearer
Abbildungen zwischen R-Moduln ber einem kommutativen Ring R mit Einsele-
ment betrachtet. Zur Veranschaulichung der Hintereinanderausfhrung R-linearer
Abbildungen bedient man sich hug der Diagramm- bzw. der Folgenschreibweise.
9.3.1 Denition. Ein Diagrammvon vier R-Moduln T , U, V und W und R-linearen
Abbildungen , , und der Form
T

W
heit kommutativ, wenn = , d. h. (t ) = (t ) fr alle t T gilt. Analog
heit das Diagramm der Form
U

~
~
~
~
~
~
~

A
A
A
A
A
A
A
V

W
kommutativ, wenn (u) = (u) fr alle u U gilt.
Ein zusammengesetztes Diagramm heit kommutativ, wenn jedes Teildreieck
oder Teilrechteck kommutativ ist.
256 9 Ringe und Moduln
9.3.2 Denition. Eine (endliche, einseitig oder beidseitig unendliche) Folge


n2

V
n1

n1

V
n

V
n+1

n+1


von R-Moduln V
m
und R-linearenAbbildungen
m
heit an der Stelle n exakt, wenn
Im(
n1
) = Ker(
n
)
gilt. Die Folge ist exakt, wenn sie an jeder Stelle n exakt ist.
Eine exakte Folge der Form
0

V
1

1

V
2

2

V
3

0
wird eine kurze exakte Folge genannt.
9.3.3 Bemerkungen.
(a) Sei 0 V
1

1
V
2

2
V
3
0 eine kurze exakte Folge. Wegen
Im(
2
) = V
3
als Kern der Nullabbildung ist dann
2
ein Epimorphismus. Da
Ker(
1
) = 0, ist
1
injektiv. Deshalb folgt Ker
2
= Im(
1
)

= V
1
. Weiter gilt
dann nach dem ersten Isomorphiesatz 9.2.16, da
V
3
= Im(
2
)

= V
2
/ Ker
2
= V
2
/ Im(
1
)
ist.
(b) Ist umgekehrt : V W ein Epimorphismus des R-Moduls V auf den
R-Modul W mit Ker() = U, so ist
0

Ker()

W

0
eine kurze exakte Folge, wobei : Ker() V die natrliche Einbettung des
Unterraumes Ker() von V ist, die jedem Element u Ker() das Element
(u) = u Ker() V zuordnet.
9.3.4 Satz. In dem Diagramm (ohne )
U

0
U

seien die Zeilen exakte Folgen, und es gelte


=

.
9.4 Endlich erzeugte und freie Moduln 257
Dann gibt es genau eine R-lineare Abbildung , die das Diagrammkommutativ er-
gnzt, d. h.
=

.
Beweis: Wegen U =

= Ker(

) ist

U = 0. Deshalb ist
Ker() = U Ker(

). Da ein Epimorphismus ist, existiert zu jedem w W


ein v V mit w = (v).
Die Abbildung : W W

sei deniert durch


(w) =

(v).
Sie ist wohldeniert; denn ist w = (v
1
) = (v
2
) fr zwei Elemente v
1
und v
2
aus
V, dann ist
v
1
v
2
Ker() Ker(

),
woraus (w) =

(v
1
) =

(v
2
) folgt. Da

eine R-lineare Abbildung von V


in W

ist, ist ebenfalls eine R-lineare Abbildung von W nach W

. Nach Denition
von gilt
(v) =

(v) fr alle v V.
Da surjektiv ist, ist die einzige R-lineare Abbildung von W nach W

, die das
Diagramm kommutativ ergnzt.
9.4 Endlich erzeugte und freie Moduln
In diesem Abschnitt werden einige grundlegende Ergebnisse ber endlich erzeugte
bzw. freie R-Moduln dargestellt. Dabei ist R wieder stets ein kommutativer Ring
mit Einselement 1. Auerdem wird ein Konstruktionsverfahren fr freie R-Moduln
angegeben, die nicht endlich erzeugt sind.
9.4.1 Denitionen. Sei T = {m
1
, m
2
, , m
k
} eine endliche Teilmenge des R-
Moduls M. Ein Element m M ist eine R-Linearkombination der Elemente von T ,
wenn gilt:
m =
k

i=1
m
i
r
i
fr geeignete r
i
R. Der R-Modul M ist endlich erzeugt, wenn eine endliche
Teilmenge T von M existiert derart, da jedes m M eine R-Linearkombination
der Elemente von T ist. Es wird dann T ein Erzeugendensystem von M genannt.
Der R-Modul M heit zyklisch, wenn ein m M existiert derart, da M = mR.
9.4.2 Denition. Die endliche Teilmenge {m
1
, m
2
, . . . , m
n
} des R-Moduls M heit
linear unabhngig ber R, wenn aus

n
i=1
m
i
r
i
= 0 und r
i
R stets r
i
= 0 fr
i = 1, 2, . . . , n folgt. Andernfalls wird sie linear abhngig genannt.
258 9 Ringe und Moduln
9.4.3 Denition. Der endlich erzeugte R-Modul M ist ein freier R-Modul,
wenn M ein ErzeugendensystemB = {m
i
M | i = 1, 2, . . . , k} besitzt, das linear
unabhngig ist. Solch ein ErzeugendensystemB heit Basis des freien R-Moduls M.
9.4.4 Beispiele.
(a) Fr jeden Ring R und jede positive natrliche Zahl n ist R
n
=
{(r
1
, r
2
, . . . , r
n
) | r
i
R} bezglich der komponentenweisen Addition
und der Multiplikation (r
1
, r
2
, . . . , r
n
) r = (r
1
r, r
2
r, . . . , r
n
r) fr alle r
i
,
r R ein freier R-Modul mit der kanonischen Basis B = {e
1
, e
2
, . . . , e
n
}.
(b) Sei Y die Menge aller geraden Zahlen. Dann ist Y ein Ideal von Z, und M =
Z/Y ist nach 9.2.2 (d) ein zyklischer Z-Modul mit erzeugendem Element [1].
M ist kein freier Z-Modul, weil [1] 2 = [2] = [0] und 2 = 0 in Z, [1] also
nicht linear unabhngig ist.
9.4.5 Hilfssatz. Es gelten die folgenden Behauptungen:
(a) R-lineare Bilder von endlich erzeugten R-Moduln sind endlich erzeugt.
(b) Sei N ein Untermodul des R-Moduls E und M = E/N. Sind die s Elemente
m
i
E und die t Elemente n
j
N so gewhlt, da M =

s
i=1
[m
i
]R mit
[m
i
] = m
i
+N E/N und N =

t
j=1
n
j
R gilt, dann wird E von den s +t
Elementen m
1
, m
2
, . . . , m
s
, n
1
, n
2
, . . . , n
t
erzeugt.
(c) Ist B = {m
1
, m
2
, , m
n
} eine Basis des freien R-Moduls M, so ist M =

n
i=1
m
i
R.
Beweis: (a) Ist ein Epimorphismus von M auf N, und ist M =

k
i=1
m
i
R fr
eine natrliche Zahl k, so ist N = (M) =

k
i=1
(m
i
)R.
(b) Sicherlichist U =

s
i=1
m
i
R+

t
j=1
n
j
RnachHilfssatz 9.2.5(a) einendlich
erzeugter Untermodul des R-Moduls E. Sei : E M = E/N der kanonische
Epimorphismus aus Hilfssatz 9.2.14 von E mit Ker() = N.
Sei e ein beliebiges Element von E. Ist e N, dann existieren r
j
R mit
e =

t
j=1
n
j
r
j
U. Daher kann angenommen werden, da e N ist. Wegen
0 = (e) M = E/N =

s
i=1
[m
i
]R existieren dann Elemente r
i
R, 1 i s
derart, da
(e) =
s

i=1
[m
i
]r
i
=
s

i=1
(m
i
)r
i
.
Somit ist 0 = (e)

s
i=1
(m
i
)r
i
=
_
e
_
s
i=1
m
i
r
i
__
, d. h. es ist
u = e
_
s
i=1
m
i
r
i
_
Ker() = N. Daher existieren Elemente z
j
R derart,
da u =

t
j=1
n
j
z
j
, woraus e =

s
i=1
m
i
r
i
+

t
j=1
n
j
z
j
U und so E = U folgt.
(c) Die Behauptung ergibt sich mit dem Beweisargument von Satz 2.3.9 unmit-
telbar aus den Denitionen 9.4.3 und 9.2.7.
9.4 Endlich erzeugte und freie Moduln 259
9.4.6 Satz. Je zwei Basen eines endlich erzeugten freien R-Moduls M haben gleich
viele Elemente.
Beweis: Sei B = {b
1
, b
2
, , b
n
} eine Basis von M. Da das Nullideal 0 von R
ein echtes Ideal ist, besitzt der Ring R nach Satz 9.1.8 mindestens ein maximales
Ideal P, und F = R/P ist ein Krper. Wegen 1 R gilt MP =
_
n
i=1
b
i
R
_
P

n
i=1
b
i
RP =

n
i=1
b
i
P MP, woraus MP =

n
i=1
b
i
P folgt. Insbesondere
ist MP ein Untermodul von M.
Sei [b
i
] die Restklasse von b
i
in M/MP fr i = 1, 2, , n. Dann ist M/MP =

n
i=1
[b
i
]R =

n
i=1
[b
i
]F nach Hilfssatz 9.2.14. Also ist M/MP ein F-Vektorraum
mit dim
F
(M/MP) = n, falls {[b
i
] | 1 i n} linear unabhngig ber F ist. Sei

n
i=1
[b
i
][r
i
] = [0] in M/MP fr [r
i
] F = R/P. Nach Hilfssatz 9.2.14 ist
dann

n
i=1
b
i
r
i
MP =

n
i=1
b
i
P. Daher existieren p
i
P mit

n
i=1
b
i
r
i
=

n
i=1
b
i
p
i
, woraus folgt:

n
i=1
b
i
(r
i
p
i
) = 0.
Da {b
i
| 1 i n} eine Basis von M ist, folgt r
i
= p
i
P fr i = 1, 2, , n.
Also sind alle [r
i
] = [0], und dim
F
(M/MP) = n.
Ist nun C = {c
1
, c
2
, , c
m
} eine weitere Basis des freien R-Moduls M, so folgt
hieraus, da dim
F
(M/MP) = m. Also ist m = n nach Satz 2.2.11.
9.4.7 Denition. Sei M ein endlich erzeugter freier R-Modul mit Basis B. Die nach
Satz 9.4.6 durch M eindeutig bestimmte Anzahl der Elemente von B heit der Rang
von M.
Bezeichnung: rg(M)
Der folgende Satz wird bei der Entwicklung der Modultheorie von Hauptideal-
ringen in Kapitel 11 bentigt. Er ist eine teilweise Verallgemeinerung des Komple-
mentierungssatzes 2.3.18.
9.4.8 Satz. Ist 0 T

P

M 0 eine kurze exakte Folge von endlich
erzeugten R-Moduln, und ist M frei, so existiert ein Untermodul U von P mit
P = U (T ) und U

= M.
Beweis: Sei {m
i
M | 1 i k} eine Basis des freien R-Moduls M. Da
surjektiv ist, hat jedes m
i
M ein Urbild f
i
in P fr i = 1, 2, . . . , k. Sei U =

k
i=1
f
i
R. Dann ist U nach Hilfssatz 9.2.5 ein Untermodul von P. Sei V = Ker =
(T ). Ist v V U, dann ist v = f
1
r
1
+f
2
r
2
+ +f
k
r
k
fr geeignete r
i
R,
und es gilt:
0 = (v) = (f
1
)r
1
+(f
2
)r
2
+ +(f
k
)r
k
= m
1
r
1
+m
2
r
2
+ +m
k
r
k
.
Da {m
i
M | 1 i k} eine Basis des freien R-Moduls M ist, gilt r
i
= 0 fr
i = 1, 2, . . . , k. Also ist v = 0, d. h. U V = 0.
260 9 Ringe und Moduln
Aus M = (P)

= P/ Ker() = P/V und (U) = M folgt P = U + V nach
Satz 9.2.12. Also ist P = U V = U (T ). Nach dem zweiten Isomorphie-
satz 9.2.17 und Hilfssatz 9.2.14 gilt:
(U +V)/V

= U/U V = U/0 = U.
Nach dem ersten Isomorphiesatz 9.2.16 folgt daher
M = (P)

= P/ Ker() = (U V)/V

= U.

Fr sptereAnwendungen ist es erforderlich, auch freie R-Moduln zu betrachten,
die nicht endlich erzeugt sind. Deshalb werden nun die Denitionen 9.4.1, 9.4.2
und 9.4.3 verallgemeinert.
9.4.9 Denition. Die Teilmenge T des R-Moduls M ist ein Erzeugendensystem
von M, wenn jedes Element m M eine R-Linearkombination einer endlichen
Teilmenge von T ist.
9.4.10 Denition. Eine Teilmenge T des R-Moduls M heit linear unabhngig ber
R, wenn jede endliche Teilmenge von T linear unabhngig ist. Anderenfalls heit T
linear abhngig.
9.4.11 Denition. Der R-Modul M heit frei, wenn M ein Erzeugendensystem B
besitzt, das linear unabhngig ist. Ein linear unabhngiges Erzeugendensystem B
heit Basis des freien R-Moduls M.
9.4.12 Denition. Sei M eine nicht leere Menge und R ein kommutativer Ring.
Dann ist die Abbildung f : M R fast berall Null, falls es nur endlich viele
Elemente m
i
Mgibt mit f (m
i
) = 0.
Diese Bedingung ist gleichwertig damit, da f (m) = 0 fr fast alle m Mist.
9.4.13 Hilfssatz. Sei Meine nicht leere Menge und R ein kommutativer Ring. Die
Menge R
M
aller Abbildungen
f : MR
mit f (m) = 0 fr fast alle m Mist ein R-Modul bezglich der Addition + und
Multiplikation , die folgendermaen deniert sind:
(f
1
+f
2
)(m) = f
1
(m) +f
2
(m) fr alle m M und alle f
1
, f
2
R
M
,
(f r)(m) = f (m) r fr alle m M, r R und alle f R
M
.
Fr jedes m Msei f
m
R
M
deniert durch
f
m
(n) =
_
1 falls n = m,
0 falls n = m
fr n M. Dann ist R
M
ein freier R-Modul mit Basis B = {f
m
| m M}.
9.4 Endlich erzeugte und freie Moduln 261
Beweis: Seien f
1
, f
2
R
M
. Dann ist auch (f
1
+ f
2
)(m) = f
1
(m) + f
2
(m) = 0
fr fast alle m R
M
. Also ist f
1
+ f
2
R
M
. Sei f R
M
und r R. Dann ist
(f r)(m) = f (m)r = 0 fr fast alle m M. Daher ist f r R
M
. Sei r R. Dann
ist
[(f
1
+f
2
)r](m) = (f
1
+f
2
)(m) r = [f
1
(m) +f
2
(m)]r
= f
1
(m)r +f
2
(m)r = (f
1
r +f
2
r)(m)
fr alle m M. Also ist (f
1
+f
2
)r = f
1
r +f
2
r.
Seien r
1
, r
2
R. Dann ist
[f (r
1
r
2
)](m) = f (m)(r
1
r
2
) = (f (m)r
1
)r
2
= [(f r
1
)(m)]r
2
= [(f r
1
)r
2
](m)
fr alle m M. Also ist f (r
1
r
2
) = (f r
1
)r
2
. Ebenso zeigt man f (r
1
+ r
2
) =
f r
1
+f r
2
. Wegen (f 1)(m) = f (m) 1 = f (m) fr alle m Mgilt auch f 1 = f
fr alle f R
M
. Also ist R
M
ein R-Modul im Sinne der Denition 9.2.1.
Sei {f
m
i
| 1 i k} eine endliche Teilmenge von B so, da

k
i=1
f
m
i
r
i
= 0
fr k Elemente r
i
R gilt. Wertet man g =

k
i=1
f
m
i
r
i
an den Stellen m
j
aus, so
folgt
0 = g(m
j
) =
k

i=1
(f
m
i
r
i
)(m
j
) =
k

i=1
f
m
i
(m
j
)r
i
= f
m
j
(m
j
)r
j
= r
j
fr alle j = 1, 2, . . . , k. Das beweist die lineare Unabhngigkeit von B.
Zu jedem f R
M
existieren nur endlich viele m
s
M, 1 s t mit
0 = f (m
s
) = r
s
R, weil f fast berall Null ist. Daher gilt f =

t
s=1
f
m
s
r
s
,
wie man durch Auswertung an allen Stellen m M nachrechnet. Also ist B ein
linear unabhngiges Erzeugendensystemdes R-Moduls R
M
. Daher ist R
M
ein freier
R-Modul.
9.4.14 Satz. Sei M = 0 ein freier R-Modul mit Basis B. Sei N ein beliebiger R-
Modul. Ordnet man jedem b B ein b

aus N zu, dann gibt es genau eine R-lineare


Abbildung : M N mit (b) = b

fr alle b B.
Beweis: Jedes Element v M besitzt eine Darstellung v =

bB
br
b
, wobei die
Ringelemente r
b
R eindeutig durch v bestimmt sind, und r
b
= 0 fr fast alle
b B gilt. Die R-lineare Abbildung sei deniert durch
(v) =

bB
b

r
b
.
262 9 Ringe und Moduln
Dann ist wegen der eindeutigen Basisdarstellung v =

bB
br
b
aller v M
wohldeniert. Ist auch w =

bB
bg
b
M mit g
b
R, so ist
(v +w) =
_

bB
b[f
b
+g
b
]
_
=

b
b

[f
b
+g
b
]
=

b
b

f
b
+

b
b

g
b
= (v) +(w).
Ebenso folgt (v f ) =
_
bB
b[f
b
f ]
_
=

bB
b

[f
b
f ] =
_
bB
b

f
b
)f =
(v
_
f fr alle v V und f R. Also ist eine R-lineare Abbildung von M in N.
Ist nun eine weitere R-lineare Abbildung von M in N mit (b) = b

fr alle
b aus B, so folgt
(v) =
_

bB
bf
b
_
=

bB
(b)f
b
=

bB
b

f
b
= (v) fr alle v M.
Also ist = .
Mit den Bezeichnungen von Hilfssatz 9.4.13 gilt nun der folgende Satz.
9.4.15 Satz. Sei T ein Erzeugendensystem des R-Moduls M. Dann ist R
T
ein freier
R-Modul mit Basis B = {f
t
| t T } derart, da die durch (f
t
) = t erklrte R-
lineare Abbildung : R
T
M ein Epimorphismus ist. Ist T eine endliche Menge,
so ist R
T
ein endlich erzeugter, freier R-Modul.
Insbesondere ist jeder R-Modul M ein epimorphes Bild eines freien R-Moduls P.
Beweis: NachHilfssatz 9.4.13ist R
T
einfreier R-Modul mit Basis B = {f
t
| t T }.
Ist T endlich, so auch B. Wegen Satz 9.4.14 ist die R-lineare Abbildung eindeutig
bestimmt. Da T ein Erzeugendensystem von M ist, ist ein Epimorphismus.
Ist M ein R-Modul, dann ist die Menge T = M sicherlich auch ein Erzeugen-
densystem von M. Also ist M ein epimorphes Bild des freien R-Moduls R
M
.
9.5 Matrizen und lineare Abbildungen freier Moduln
In diesemAbschnitt werden die Beziehungen zwischen den R-linearenAbbildungen
: M W zwischen zwei endlich erzeugten freien R-Moduln M und W und den
m n-Matrizen A = (a
ij
) mit Koefzienten a
ij
aus dem kommutativen Ring R
behandelt.
9.5 Matrizen und lineare Abbildungen freier Moduln 263
Man berzeugt sich leicht, da alle Rechenregeln von Abschnitt 3.1 auch fr die
mn-Matrizen ber R gelten. Daher ist die Menge Mat
n
(R) aller n n-Matrizen
A = (a
ij
) mit Koefzienten a
ij
aus demkommutativen Ring R ein assoziativer Ring
mit Einselement E
n
, der n n-Einheitsmatrix.
9.5.1 Denition. Eine nn-MatrixAber Rheit invertierbar, wennes inMat
n
(R)
eine Matrix B gibt mit A B = B A = E
n
. Die Matrix B = A
1
ist durch Aein-
deutig bestimmt und heit Inverse von A. Die Menge GL(n, R) aller invertierbaren
nn-Matrizen aus Mat
n
(R) ist eine Gruppe. Sie heit die generelle lineare Gruppe
vom Rang n ber dem kommutativen Ring R.
9.5.2 Bemerkungen.
(a) In der Literatur werden die invertierbaren Matrizen im Sinne der Deni-
tion 9.5.1 auch unimodular genannt. Bezglich der quivalenz dieser beiden
Begriffe wird auf die bungsaufgabe 10.9 verwiesen.
(b) Die Gruppeneigenschaften von GL(n, R) weist man mit den analogen Argu-
menten des Beweises von Satz 3.1.31 nach.
9.5.3 Bemerkung. Die folgenden drei Aussagen beweist man wie die analogenAus-
sagen von Folgerung 4.1.15. Dabei werden die Bezeichnungen der Elementarmatri-
zen bernommen.
(a) Die Elementarmatrizen ZV
i,j
, die zur Vertauschung der i-ten und j-ten Zeile
einer n n-Matrix A Mat
n
(R) gehren, sind invertierbar.
(b) Die Elementarmatrizen ZM
i,a
, die zur Multiplikation der i-ten Zeile einer
nn-Matrix A Mat
n
(R) mit einer Einheit a R gehren, sind invertierbar.
(c) Die Elementarmatrizen ZA
i,j,a
, die zur Addition des a-fachen der i-ten Zeile
zur j-ten Zeile einer n n-Matrix A Mat
n
(R) gehren, sind invertierbar.
Sind M und W zwei freie R-Moduln endlichen Ranges, so ordnet man jedem
Hom
R
(M, W) wie bei den Vektorrumen eine Matrix zu.
9.5.4 Denition. Seien M und W endlich erzeugte freie R-Moduln ber dem Ring
R mit den Basen A = {u
1
, . . . , u
r
} und B = {v
1
, . . . , v
s
}. Sei : M W eine
R-lineare Abbildung. Fr jedes u
j
A ist (u
j
) W, also hat (u
j
) eine nach
Hilfssatz 9.4.5 (c) eindeutige Darstellung als Linearkombination
(u
j
) =
s

i=1
v
i
a
ij
, wobei a
ij
R fr alle 1 i s, 1 j r.
264 9 Ringe und Moduln
Die s r-Matrix A = (a
ij
) heit die Matrix von bezglich der Basen A und
B. Man schreibt
A = A

= A

(A, B).
9.5.5 Denition. Seien A = {u
1
, . . . , u
r
} und A

= {u

1
, . . . , u

r
} zwei Basen des
freien R-Moduls M. Fr jedes j = 1, . . . , r schreibt man u

j
als Linearkombination
von u
1
, . . . , u
r
mit geeignetem p
ij
R:
u

j
=
r

i=1
u
i
p
ij
.
Die r r-Matrix P = (p
ij
) heit die Matrix des Basiswechsels von A nach A

.
9.5.6 Hilfssatz. Die Matrix P des Basiswechsels von A nach A

ist invertierbar.
Ihre Inverse ist die Matrix des Basiswechsels von A

nach A.
Beweis: Der Beweis verluft genauso wie der von Hilfssatz 3.3.8.
9.5.7 Satz. Sei eine R-lineare Abbildung des freien R-Moduls M in den freien
R-Modul W mit den endlichen Basen A, A

von M und B, B

von W. Sei P die


Matrix des Basiswechsels von A nach A

und Q die Matrix des Basiswechsels von


B nach B

. Dann ist
A

(A

, B

) = Q
1
A

(A, B) P.
Beweis: Der Beweis verluft genauso wie der von Satz 3.3.9.
9.5.8 Denition. Zwei mn-Matrizen A und B mit Koefzienten aus dem kom-
mutativen Ring R mit 1 R heien quivalent, wenn eine invertierbare Matrix
Q GL(m, R) und eine invertierbare Matrix P GL(n, R) existieren derart, da
QAP = B.
9.6 Direkte Produkte und lineare Abbildungen
In diesem Abschnitt ist R stets ein kommutativer Ring mit Einselement. Zu jedem
System {M

| A} von R-Moduln M

mit Indexmenge A wird ein R-Modul


P =

A
M

konstruiert, den man das direkte Produkt der R-Moduln M

nennt.
Ein wichtiger Untermodul des direkten Produkts P ist die externe direkte Summe
S =

A
M

der M

. Mit Hilfe der Projektionen

: P M

und Injek-
tionen

: M

S wird gezeigt, da jede externe direkte Summe eine direkte


Summe der Untermoduln

von P im Sinne der Denition 9.2.8 ist. Schlielich


9.6 Direkte Produkte und lineare Abbildungen 265
werden wesentliche Zusammenhnge zwischen der Bildung direkter Produkte oder
direkter Summen und Eigenschaften R-linearer Abbildungen zwischen R-Moduln
beschrieben.
Zur Konstruktion des direkten Produkts eines Systems {M

| A} von R-
Moduln M

wird der folgende Hilfssatz bentigt.


9.6.1 Hilfssatz. Es sei {M

| A} ein System von R-Moduln M

= 0. Sei
P =

A
M

die Menge aller Abbildungen : A

A
M

der Indexmenge
AindieVereinigungsmenge

A
M

der R-ModulnM

derart, da() M

fr
jeden Index Aist. Dann ist P ein R-Modul bezglich der linearen Operationen
+ und , die wie folgt deniert sind:
(a) Fr alle , P sei die Summe + erklrt durch
( +)() = () +() M

fr alle A.
(b) Fr alle P und f R sei f die Abbildung erklrt durch
( f )() = () f M

fr alle A.
Beweis: Das Nullelement von P ist die Abbildung 0, die jeden Index Aauf das
Nullelement 0 M

abbildet, d. h.
0() = 0 M

fr alle A.
Da jedes M

ein R-Modul ist und zwei Abbildungen , P genau dann gleich


sind, wenn () = () fr alle A gilt, ergibt sich aus (a) sofort, da P
bezglich + eine abelsche Gruppe mit Nullelement 0 ist.
Wegen (b) gilt sicherlich 1 = fr alle P. Nach Denition 9.2.1 gengt es
daher, das Assoziativgesetz und die beiden Distributivgesetze nachzuweisen. Seien
f, g R und P. Dann gilt
[ (fg)] () = () (fg) = (() f ) g = [( f )()] g = [( f ) g] ()
fr alle A, d. h. (fg) = ( f ) g.
Da jedes M

ein R-Modul ist, ergeben sich aus (a) und (b) auch die folgenden
Gleichungen:
[ (f +g)] () = () (f +g)
= () f +() g
= ( f )() +( g)()
= [ f + g] ()
fr alle A. Also ist (f + g) = f + g. Analog zeigt man das zweite
Distributivgesetz ( +) f = f + f fr alle , P und f R.
266 9 Ringe und Moduln
9.6.2 Denition. Sei {M

| A} ein System von R-Moduln M

= 0. Der R-
Modul P =

A
M

heit das direkte Produkt der M

, A. Die Teilmenge
S = { P | () = 0 fr fast alle A} ist ein Untermodul des direk-
ten Produkts P =

A
M

, weil S bezglich der linearen Operationen + und


von P abgeschlossen ist. Der R-Modul S heit die externe direkte Summe der R-
Moduln M

, A.
Bezeichnung: S =

A
M

.
9.6.3 Bemerkung. S =

A
M

ist ein echter Untermodul von P =

A
M

,
wenn die Indexmenge A unendlich ist. Bei endlicher Indexmenge A gilt stets
() = 0 fr hchstens endlich viele A. Daher ist S = P genau dann, wenn A
endlich ist.
9.6.4 Denition. Sei {M

| A} ein System von R-Moduln M

= 0. Sei
S =

A
M

die externe direkte Summe der M

. Bei festem A sei fr jedes


Element v M

die Abbildung
v
S fr alle Adeniert durch

v
( ) =
_
v M

fr = ,
0 M

fr = .
Dann wird durch

(v) =
v
eine Abbildung

: M

S deniert, die die


natrliche Injektion von M

in die externe direkte Summe S =



A
M

heit.
Zu jedem festen Index A erhlt man eine Abbildung

: P M

vom
direkten Produkt P =

A
M

auf den R-Modul M

, indemman das Bildelement


von P durch

() = () M

deniert. Diese Abbildung

wird die
natrliche Projektion von P auf M

genannt.
9.6.5 Satz. Es sei {M

| A} ein System von R-Modul M

= 0. Dann gelten die


folgenden Aussagen fr alle A:
(a) Die natrliche Injektion

: M

S =

A
M

ist eine injektive R-line-


are Abbildung.
(b) Die natrliche Projektion

: P =

A
M

ist eine surjektive


R-lineare Abbildung.
(c) Es ist

= id

End
R
(M

) und

= 0 fr alle = .
(d) Es ist (

) = fr alle

.
Beweis: Im folgenden sei Aein fest gewhlter Index.
(a) Seien v
1
, v
2
M

und
v
die fr alle v M

in Denition 9.6.4 erklrte


Abbildung
v
S. Dann ist
v
1
+v
2
=
v
1
+
v
2
, weil fr alle Agilt:
v
1
+v
2
( ) =

v
1
( ) +
v
2
( ). Hieraus folgt fr die natrliche Injektion

(v
1
+v
2
) =
v
1
+v
2
=
v
1
+
v
2
=

(v
1
) +

(v
2
).
9.6 Direkte Produkte und lineare Abbildungen 267
Da fr alle r R auch

vr
( ) = [(
v
) r]
=
_

v
( )
_
r
=
_
v r fr = ,
0 fr =
gilt, ist

(v r) =
vr
= (
v
) r = [

(v)] r. Also ist

: M

S eine R-lineare
Abbildung.
Es sei

(v) = 0 fr ein v M

. Dann ist

(v) =
v
die Nullabbildung

v
( ) = 0 M

fr alle A. Deshalb ist v =


v
() = 0 M

. Also ist

injektiv.
(b) Nach der Denition der natrlichen Projektion

gelten fr alle , P
und r R die folgenden Gleichungen:
[

( +)] () = ( +)() = () +()


= (

)() +(

)()
= (

)(),

( r)() = () r
= [(

)()] r
= [(

) r] ().
Daher ist

: P M

eine R-lineare Abbildung.


Fr jedes v M

sei
v
S =

A
M

die in Denition 9.6.4 erklrte


Abbildung
v
: A

A
M

. Wegen S P =

A
M

ist (

v
)() =

v
() = v M

. Also ist

: P M

surjektiv.
(c) Sei v M

. Dann ist (

)(v) =

(v)) =

(
v
). Wertet man diese
Abbildung

(
v
) : A

A
M

an allen Aaus, so erhlt man


[

(
v
)] ( ) =
v
( ) =
_
v fr = ,
0 fr = .
Daher ist (

)(v) = v fr alle v M

, d. h.

= id

.
Da [

(
v
)]( ) = 0 fr alle = gilt, ergibt sich auch die Gleichung

= 0
fr alle = .
(d) Sei

. Dann existiert ein v M

mit =

v. Wegen (c) ist


v = id

(v) =

(v). Also ist =

v =

v =

.
Der folgende Satz enhlt eine Aussage ber die Beziehungen zwischen den De-
nitionen 9.2.8 und 9.6.2.
268 9 Ringe und Moduln
9.6.6 Satz. Es sei {M

| A} ein System von R-Moduln M

= 0. Dann ist
die externe direkte Summe S =

A
M

der R-Moduln M

gleich der direkten


Summe

der Untermoduln

des direkten Produkts P =

A
M

im Sinne der Denition 9.2.8.


Beweis: Nach Satz 9.6.5 ist

ein Untermodul von S =



A
M

fr alle
A. Daher ist die Summe U =

A

nach Denition 9.2.8 ebenfalls


ein Untermodul von S. Sei umgekehrt 0 = S. Dann existieren nur endlich
viele Indizes
1
,
2
, . . . ,
r
A mit (
i
) = 0 M

i
, d. h. ( ) = 0 fr
alle A \ {
1
,
2
, . . . ,
r
}. Sei v
i
= (
i
) M

i
. Nach Denition 9.6.4 ist

i
(v
i
) =
v
i
S, wobei gilt:

v
i
( ) =
_
v
i
M

i
fr =
i
,
0 fr =
i
.
Hieraus folgt, da =

r
i=1

v
i
=

r
i=1

i
(v
i
)

r
i=1

i
M

i
U und somit
U = S gilt.
Um zu zeigen, da U =

A

die direkte Summe der Untermoduln

von S ist, betrachtet man den Durchschnitt

A\{}

fr ein beliebiges A. Wre 0 =

in diesem Durchschnitt enthalten,


dann gbe es nach Denition 9.2.8 endlich viele Indizes
1
,
2
, . . . ,
s
in A \ {}
und Elemente u

i
M

i
derart, da
0 = =

1
u

1
+

2
u

2
+ +

s
u

s
fr ein 0 = v

wre. Wegen Satz 9.6.5 wre dann aber


0 = v

= id

(v

) =

(v

)
=

1
(u

1
) +

2
(u

2
) + +

s
(u

s
) = 0.
Aus diesem Widerspruch folgt, da U sogar die direkte Summe

A

der
Untermoduln

von S im Sinne der Denition 9.2.8 ist.


9.6.7 Bemerkung. Die Denition 9.6.2 der externen direkten Summe S =

A
M

geht ber die Denition 9.2.8 der direkten Summe

A
U

von Un-
termoduln U

eines Moduls M hinaus, weil bei dem System {M

| A} von
R-Moduln M

zu verschiedenen Indizes und nicht notwendig verschiedene R-


Moduln M

und M

gehren mssen. Es kann sogar M

fr alle Indizes Ader-


selbe R-Modul sein. Die Untermoduln

von S sind dann zwar alle isomorph; sie


stellen jedoch nach Satz 9.6.6 lauter verschiedene Untermoduln von S =

A
M

dar.
9.6 Direkte Produkte und lineare Abbildungen 269
9.6.8 Satz. Sei S =

A
M

die externe direkte Summe der R-Moduln M

mit
den natrlichen Injektionen

: M

S. Dann gelten folgende Aussagen:


(a) Sei W ein R-Modul. Zu jedem System {

Hom
R
(M

, W) | A} von
R-linearen Abbildungen

gibt es genau ein Hom


R
(S, W) mit

fr alle A.
(b) EinR-Modul Zist genaudannzuS =

A
M

isomorph, wennes R-lineare


Abbildungen

Hom
R
(M

, Z) so gibt, da zu jedem R-Modul W und zu


jedem System {

Hom
R
(M

, W) | A} von R-linearen Abbildungen

genau eine R-lineare Abbildung Hom


R
(Z, W) existiert mit

fr alle A.
(c) Die Abbildungen

sind automatisch Monomorphismen, und das folgende


Diagramm ist kommutativ.
S =

A
M

P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P

E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E

E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E

.y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
W
Z

n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n

Beweis: (a) Es sei ein beliebiges Element aus S =

A
M

. Dann gilt

i
() =
(
i
) = 0 wegen der Denitionen 9.2.8 und 9.6.2 fr hchstens endlich viele Indizes

1
, . . . ,
n
A. Durch
() =
n

i=1
(

i
)
wird daher eine Abbildung : S W deniert. (Gilt
i
() = 0 fr alle Indizes,
so ist () = 0 zu setzen.) Wegen der R-Linearitt der Abbildungen
i
und
i
ergibt sich unmittelbar, da eine R-lineare Abbildung ist. Weiter sei jetzt ein
270 9 Ringe und Moduln
fester Index. Nach Satz 9.6.5 gilt dann

= id

, whrend

fr = die
Nullabbildung ist. Fr ein beliebiges Element a M

folgt daher

a = a und

a) = 0 im Fall = . Man erhlt


(

)a = (

a) = (

)(

a) =

a
und somit

.
Weiter gelte fr die R-lineare Abbildung : S W ebenfalls

fr
alle A. Nach Satz 9.6.5 ist
=

1
((
1
)) + +

n
((
n
)) = (

1
) + +(

n
)
und daher
() =
n

i=1
(

i
) =
n

i=1
(

i
) = ().
Es gilt somit = ; d. h. ist eindeutig bestimmt.
(b) Jeder zu M

isomorphe R-Modul Z besitzt die in (b) angegebene Eigen-


schaft: Ist nmlich : Z S ein Isomorphismus, so braucht man nur

=
1

fr alle A zu setzen. Mit = gilt dann

= ()(
1

) =

.
Andererseits folgt aus

zunchst

und weiter nach (a)

1
= , also

= = . Umgekehrt sei jetzt Z ein R-Modul, zu dem es


R-lineare Abbildungen

: M

Z so gibt, da die in (b) formulierte Bedin-


gung erfllt ist. Setzt man dann W = S, so gibt es zu den R-linearen Abbildungen

: M

S eine R-lineare Abbildung : Z S mit

fr alle A.
Setzt man andererseits W = Z, so gibt es nach (a) zu den R-linearen Abbildungen

: M

Z eine R-lineare Abbildung : S Z mit

fr alle A.
Fr die R-lineare Abbildung : Z Z gilt nun

. Aber fr die
Identitt id
Z
von Z gilt ebenfalls id
Z

. Wegen der geforderten Ein-


deutigkeit folgt daher = id
Z
. Entsprechend ergibt sich aus

und id
S

auch = id
S
. Somit gilt =
1
und =
1
; d. h. und
sind Isomorphismen zwischen S und Z.
(c) Wegen

ist mit

und auch

eine Injektion.
9.6.9 Satz. Sei P =

A
M

das direkte Produkt der R-Moduln M

mit den
Projektionen

: P M

und den Injektionen

: M

P. Dann gelten
folgende Aussagen:
(a) Sei W ein R-Modul. Zu jedem System {

Hom
R
(W, M

) | A}
von R-linearen Abbildungen

gibt es genau eine R-lineare Abbildung


Hom
R
(W, P) mit

fr alle A.
9.6 Direkte Produkte und lineare Abbildungen 271
(b) EinR-Modul Zist genaudannzuP =

A
M

isomorph, wennes R-lineare


Abbildungen

Hom
R
(Z, M

) so gibt, da zu jedem R-Modul W und zu


jedem System {

Hom
R
(W, M

) | A} von R-linearen Abbildungen

genau eine R-lineare Abbildung Hom


R
(Z, W) existiert derart, da

fr alle A
gilt.
(c) Die Abbildungen

sind dann automatisch Epimorphismen, und das folgende


Diagramm ist kommutativ.

A
M

= P

.y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
W

o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o

P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
M

y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
Z

E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E

Beweis: (a) Jedem Element y W werde diejenige Abbildung


y
aus P =

A
M

zugeordnet, fr die
y
() =

y fr alle A gilt. Durch y =


y
wird dann eine Abbildung : W P deniert. Fr jeden Index Agilt
((y +y

))() =
y+y
() =

(y +y

) =

y +

=
y
() +
y
() = (
y
+
y
)()
= (y +y

)()
und daher (y + y

) = y + y

. Entsprechend zeigt man (yc) = (y)c fr alle


c R. Daher ist eine R-lineareAbbildung. Auerdemgilt fr jedes Element y W
(

)y =

(
y
) =
y
() =

y
und somit

. Gilt umgekehrt fr die R-lineare Abbildung : W P


entsprechend

fr alle A, so folgt fr die Abbildung y P


(y)() =

(y) = (

)y =

y =
y
() = (y)().
272 9 Ringe und Moduln
Also ist y = y fr alle y W; d. h. = . Daher ist auch eindeutig bestimmt.
(b) Wie vorher folgt auch hier, da jeder zu P isomorphe R-Modul Z die in (b)
angegebene Eigenschaft besitzt. Umgekehrt sei jetzt Z ein R-Modul mit R-linearen
Abbildungen

: Z M

, die die in (b) formulierte Eigenschaft fr den R-Modul


W = P besitzen. Wie im vorangehenden Beweis schliet man: Zu den Projektionen

gibt es eine R-lineare Abbildung : P Z mit

. Ebenso gibt es
zu den Abbildungen

eine R-lineare Abbildung : Z P mit

.
Wieder gilt

wegen

id
P
=

, also = id
P
. Ebenso

wegen

id
Z
=

, also = id
Z
. Es folgt =
1
und
=
1
; d. h. und sind Isomorphismen.
(c) Schlielich ist

als Produkt von Epimorphismen selbst ein Epimor-


phismus.
9.6.10 Bemerkung. Die beiden Stze 9.6.8 und 9.6.9 zeigen eine bemerkenswerte
Dualitt: Sie gehen auseinander hervor, wenn man in ihnen die Richtung smtli-
cher Abbildungen umkehrt und in den Abbildungs-Produkten die Reihenfolge der
Faktoren vertauscht. Da bei endlichen Indexmengen die direkte Summe und das di-
rekte Produkt zusammenfallen, gelten dann beide Stze gleichzeitig fr die direkte
Summe. Bei unendlicher Indexmenge trifft dies aber nicht zu.
9.6.11 Bemerkung. Bei der n-Tupel-Darstellung einer endlichen direkten Summe
V
1
V
n
haben die Abbildungen aus den letzten beiden Stzen folgende
Bedeutung: Die Abbildung aus Satz 9.6.8 bildet das n-Tupel (x
1
, . . . , x
n
) auf das
Element
1
x
1
+ +
n
x
n
aus W ab. Das Bild eines Elements y W bei der
Abbildung aus Satz 9.6.9 ist das n-Tupel (
1
y, . . . ,
n
y).
9.6.12 Satz. (a) Hom
R
_
A
M

, W
_

A
Hom
R
(M

, W).
(b) Hom
R
(W,

A
M

A
Hom
R
(W, M

).
Beweis: (a) Sei Hom
R
_
A
M

, W
_
und

die Injektion von M

in S =

A
M

. Dann ist

Hom
R
(M

, W) fr alle A. Man deniere


A
Hom
R
(M

, W) durch
() =

Hom
R
(M

, W) fr alle A.
Dann wird durch () = =

eine injektive R-lineare Abbildung von


Hom
R
_
A
M

, W
_
in

A
Hom
R
(M

, W) deniert. Sei umgekehrt

A
Hom
R
(M

, W). Dann existiert nach Hilfssatz 9.6.1 zu jedem A ein

Hom
R
(M

, W) derart, da
() =

fr alle A
9.6 Direkte Produkte und lineare Abbildungen 273
ist. Nach Satz 9.6.8 existiert dann genau ein Hom
R
(S, W) mit

= () fr alle A.
Also ist surjektiv und somit der gesuchte Isomorphismus.
(b) Sei Hom
R
(W,

A
M

) und

die Projektion von P =



A
M

auf M

fr alle A. Dann ist

Hom
R
(W, M

) fr alle A.
Man deniere

A
Hom
R
(W, M

) durch
() =

Hom
R
(W, M

) fr alle A.
Dann wird durch () = =

eine injektive R-lineare Abbildung von


Hom
R
(W, P) in

A
Hom
R
(W, M

) deniert.
Sei umgekehrt

A
Hom
R
(W, M

). Dann existiert nach Hilfssatz 9.6.1


zu jedem A ein

Hom
R
(W, M

) derart, da () =

fr alle A ist.
Nach Satz 9.6.9 gibt es dann genau ein Hom
R
(W, P) mit

fr alle
A. Also ist das Bild von unter , womit (b) bewiesen ist.
9.6.13 Denition. Sei M ein R-Modul. Sei {M

| A} ein Systemvon R-Moduln


M

und {

Hom
R
(M

, M) | A} ein System von R-linearen Abbildungen.


Ein Faserprodukt (oder Pullback) der Abbildungen

: M

M ist ein R-Modul


Y und ein System von R-linearen Abbildungen

: Y M

, A, derart, da
(a)

fr alle , A gilt und die folgende universelle Abbil-


dungseigenschaft erfllt ist:
(b) Ist W ein beliebiger R-Modul, zu dem ein System {

Hom
R
(W, M

) |
A} von R-linearen Abbildungen

mit

fr alle , A
existiert, dann existiert genau ein Hom
R
(W, Y) derart, da

fr
alle Aist.
9.6.14 Satz. Sei Aeine Indexmenge und M ein R-Modul. Dann gelten die folgenden
Aussagen:
(a) Zu jedemSystem{

Hom
R
(M

, M) | A} von R-linearenAbbildungen

zwischen den R-Moduln M

und M existiert ein Faserprodukt Y mit R-


linearen Abbildungen

Hom
R
(Y, M

).
(b) Der FaserproduktraumY ist bis auf Isomorphie eindeutig durch die R-Moduln
M, M

und die R-linearen Abbildungen

: M

M, A, bestimmt.
Insbesondere ist das folgende Diagramm kommutativ.
274 9 Ringe und Moduln
M

C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
W

o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o

O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O Y

{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{

C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C

A
M

M
M

{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
Beweis: Es sei Y die Menge aller derjenigen Elemente a P =

A
M

, bei
denen (

)a = (

)a fr alle Indexpaare gilt, wobei

die Projektion von


P auf M

ist. Offenbar ist Y ein Untermodul, der fr sich als R-Modul betrachtet
durch die natrliche Injektion in den Produktraum P abgebildet wird. Mit

ist dann die Bedingung von Denition 9.6.13 (a) fr alle A erfllt. Zu
den Abbildungen

: W M

gibt es wegen Satz 9.6.9 genau eine Abbildung

: W P =

A
M

mit

fr alle A. Fr beliebiges y W
und beliebige Indizes , erhlt man
(

)(

y) = (

)y = (

)y = (

)(

y),
also

y Y. Daher kann

sogar als Abbildung in Y aufgefat werden. Als


solche wird sie mit bezeichnet. Damit ist die Bedingung (b) von Denition 9.6.13
nachgewiesen.
Besitzt auch Y

mit denAbbildungen

die Eigenschaften (a) und (b), so gibt es


lineare Abbildungen

: Y Y

und : Y

Y mit

und

fr alle A. Es folgt

id
Y
=

und

id
Y
=

fr alle A
wegen der Eindeutigkeit der Faktorisierungen mit

bzw.

, die aus den Speziali-


sierungen W = Y bzw. W = Y

folgt. Also ist

= id
Y
und

= id
Y
. Daher sind
und

inverse Isomorphismen. Hiermit ist die Eindeutigkeit des Faserprodukts


bewiesen.
9.6.15 Bemerkung. Selbst im Falle von nur zwei Abbildungen M
i

i
M,
i = 1, 2 hat der Satz 9.6.14 eine interessante Folgerung. Er besagt nmlich, da
9.6 Direkte Produkte und lineare Abbildungen 275
das Faserprodukt Y mit den Abbildungen
1
und
2
und den gegebenen Abbildun-
gen
1
und
2
das folgende kommutative Diagramm
Y

M
1

M
2

2

M
bildet, und zwar so, da sich jede andere Ergnzung W durch Y faktorisieren lt:
W

Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q

1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
Y

M
1

M
2

2

M
Indem man in der Denition 9.6.13 des Faserprodukts alle Pfeile umdreht, erhlt
man die folgende

duale Denition der Fasersumme.


9.6.16 Denition. Sei M einR-Modul. Sei {M

| A} einSystemvonR-Moduln
und {

Hom
R
(M, M

) | A} ein System von R-linearen Abbildungen. Eine


Fasersumme (oder Pushout) der Abbildungen

: M M

ist ein R-Modul Z und


ein System von R-linearen Abbildungen

: M

Z, A, derart, da
(a)

fr alle , A gilt und die folgende universelle Abbil-


dungseigenschaft erfllt ist:
(b) Ist W ein beliebiger R-Modul, fr den ein System {

Hom
F
(M

, W) |
A} R-linearer Abbildungen

mit

fr alle , A
existiert, dann existiert genau ein Hom
R
(Z, W) mit

fr alle A.
In Analogie zu Satz 9.6.14 beweist man den folgenden Satz.
9.6.17 Satz. Sei M ein R-Modul. Dann gelten die folgenden Aussagen:
(a) Zu jedemSystem{

Hom
R
(M, M

) | A} von R-linearenAbbildungen

des R-Moduls M in die R-Moduln M

existiert eine Fasersumme Z mit


R-linearen Abbildungen

Hom
R
(M

, Z).
(b) Der FasersummenraumZist bis auf Isomorphie eindeutig durch die R-Moduln
M, M

und die Abbildungen

: M M

, A, bestimmt.
276 9 Ringe und Moduln
Insbesondere ist das folgende, fr den Beweis erweiterte Diagramm kommutativ.
M

B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B

O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
M

|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|

B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B

A
M

W
M

}
}
}
}
}
}
}
}
}
}
}
}
}
}
}
}
}

p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
9.7 Aufgaben
9.1 Sei R ein kommutativer Ring, S = R[X], a R und f (X) S. Zeigen Sie: S(Xa) +
Sf (X) = S genau dann, wenn f (a) eine Einheit in R ist.
9.2 Man gebe den Isomorphismus der Aussage des zweiten Isomorphiesatzes (U +V)/V

=
U/(U V) explizit fr die Untermoduln U = 4Z, V = 6Z des Z-Moduls Z an.
9.3 Sei R = Z/6 Z und M = R
2
= {(a, b) | a, b R} der freie Modul vom Rang 2 ber
R. Zeigen Sie:
(a) Die Teilmengen B
1
:= {(1, 0), (0, 1)}, B
2
:= {(2, 3), (3, 2)} von M bilden jeweils
eine Basis von M.
(b) NachAustausch eines Elements von B
1
gegen (2, 3) ist die so entstehende Menge keine
Basis von M.
9.4 Sei : V W eine R-lineare Abbildung zwischen den R-Moduln V und W. Seien
S und S

Systeme aus Untermoduln von V bzw. W. Ist T ein Untermodul von W, dann sei

(T ) = {t V | (t ) T }. Beweisen Sie die folgenden Behauptungen:


(a)

{U | U S} =
_
{U | U S}
_
.
(b)

{

(T ) | T S

_
{T | T S

}
_
.
(c) Gilt T Im fr alle T S

, so ist (b) mit dem Gleichheitszeichen erfllt.


(d)
_ _
{U | U S}
_

_
{U | U S}.
(e)

_ _
{T | T S

}
_
=
_
{

(T ) | T S

}.
(f) Gilt U Ker fr alle U S, so ist (d) mit dem Gleichheitszeichen erfllt.
9.5 Beweisen Sie die folgenden Behauptungen:
9.7 Aufgaben 277
(a) Eine R-lineare Abbildung : V W ist genau dann injektiv, wenn fr jeden R-
Modul Z und fr je zwei R-lineare Abbildungen , : Z V aus = stets
= folgt.
(b) Eine R-lineare Abbildung : V W ist genau dann surjektiv, wenn fr jeden R-
Modul Z und fr je zwei R-lineare Abbildungen , : W Z aus = stets
= folgt.
(c) Ist injektiv (surjektiv), so ist injektiv ( surjektiv).
9.6 Zeigen Sie, da die lineare Gruppe GL(n, R) im Fall n 2 nicht abelsch ist.
9.7
(a) Zeigen Sie, da die Abbildung :

A
M

W aus Satz 9.6.8 genau dann


surjektiv ist, wenn W =

gilt.
(b) Zeigen Sie, da die Abbildung : W

A
M

aus Satz 9.6.9 genau dann injektiv


ist, wenn es zu verschiedenen Elementen y, y

W stets einen Index mit

y =

gibt.
9.8
(a) Zeigen Sie: Fr den Kern der R-linearenAbbildung : W

A
M

aus Satz 9.6.9


gilt
Ker =
_
A
Ker

.
(b) Zeigen Sie: Fr die Abbildungen und

aus Satz 9.6.8 gilt

A
Ker

Ker .
Zeigen Sie jedoch an einem Beispiel, da hierbei das Gleichheitszeichen im allgemei-
nen nicht gilt.
9.9 Man beweise den folgenden, zu Satz 9.3.4

dualen Satz, der durch Umkehrung aller


Abbildungspfeile entsteht: Wenn in dem Diagramm
W

0

W

U
die Zeilen exakte Folgen sind und wenn der rechte Teil kommutativ ist, dann gibt es eine
kommutative Ergnzung . Unter welchen Bedingungen ist injektiv bzw. surjektiv?
278 9 Ringe und Moduln
9.10 In dem Diagramm
V

von F-Vektorrumen seien die Zeilen exakte Folgen. Ferner sei das Diagramm kommutativ.
Zeigen Sie, da es eine lineare Abbildung : X X

so gibt, da das durch ergnzte


Diagramm ebenfalls kommutativ ist.
9.11 Es sei {V

| A} ein System von Vektorrumen V

ber dem Krper F. Zeigen Sie:


_

A
V

A
V

.
10 Multilineare Algebra
In diesem Kapitel wird im ersten Abschnitt das Tensorprodukt M
R
N von zwei
R-Moduln M und N ber einem kommutativen Ring konstruiert. Im zweiten Ab-
schnitt werden Tensorprodukte von linearenAbbildungen zwischen R-Moduln
deniert und ihre Eigenschaften studiert. Der dritte Abschnitt enthlt Anwendungen
dieser Konstruktionen. Schlielich wird fr jede natrliche Zahl p 2 und jeden R-
Modul die p-te uere Potenz
_
p
M eingefhrt und damit die Determinante det()
eines Endomorphismus eines freien R-Moduls M erklrt. Es zeigt sich, da diese
Determinantentheorie von Matrizen ber kommutativen Ringen alle Ergebnisse des
Kapitels 5 ber Determinanten von Matrizen mit Koefzienten a
ij
aus einemKrper
F als Spezialflle enthlt.
In diesem Kapitel ist R stets ein kommutativer Ring mit Einselement 1. Alle hier
betrachteten R-Moduln sind R-Rechtsmoduln im Sinne der Denition 9.2.1.
10.1 Multilineare Abbildungen und Tensorprodukte
Fr die Konstruktion des Tensorprodukts von endlich vielen R-Moduln wird die
Denition 5.2.1 einer n-fach linearen Abbildung auf R-Moduln bertragen.
10.1.1 Denition. Seien M
1
, M
2
, . . . , M
n
und M endlich viele R-Moduln ber dem
kommutativen Ring R. Sei

n
i=1
M
i
= {(m
1
, m
2
, . . . , m
n
) | m
i
M
i
} das kartesi-
sche Produkt der M
i
. Eine Abbildung :

n
i=1
M
i
M heit n-fach linear, wenn
die beiden folgenden Bedingungen fr alle i = 1, 2, . . . , n erfllt sind:
(a) (m
1
, , m
i
+m

i
, ,m
n
) = (m
1
, . . . , m
i
, . . . , m
n
)
+(m
1
, . . . , m

i
, . . . , m
n
) ,
(b) (m
1
, . . . , m
i
r, . . . , m
n
) = (m
1
, . . . , m
i
, . . . , m
n
)r
fr alle m
i
, m

i
M und r R. Ist n = 2, so ist eine bilineare Abbildung vom
kartesischen Produkt M
1
M
2
in den R-Modul M.
10.1.2 Beispiel. Sei R ein kommutativer Ring und R
2
= {(r
1
, r
2
) | r
i
R} der
freie R-Modul vom Range 2. Die durch

__
r
11
r
21
_
,
_
r
12
r
22
__
= r
11
r
22
r
12
r
21
fr alle m
i
= (r
1i
, r
2i
) R
2
, i = 1, 2,
denierte Abbildung : R
2
R ist bilinear.
280 10 Multilineare Algebra
10.1.3 Hilfssatz. Seien M, N zwei R-Moduln ber demkommutativen Ring R. Dann
ist die Menge Hom
R
(M, N) aller R-linearenAbbildungen : M N einR-Modul.
Beweis: Der Beweis verluft genauso wie in Satz 3.6.1.
10.1.4 Denition. Gegeben seien die R-Moduln A und B ber dem kommutativen
Ring R. Ein Tensorprodukt (T, t ) von A und B ber R besteht aus einem R-Modul
T und einer bilinearen Abbildung t : A B T derart, da fr jede bilineare
Abbildung g von AB in einen beliebigen R-Modul X genau ein h Hom
R
(T, X)
existiert, so da das Diagramm
A B
t

@
@
@
@
@
@
@
@
@
@
T
/
hHom
R
(T,X)
X
kommutativ ist, d. h. g(a, b) = ht (a, b) fr alle (a, b) A B.
Die bilineare Abbildung t : A B T heit Tensorabbildung des Tensorpro-
dukts T .
Bezeichnung: T = A
R
B, a b = t (a, b) fr alle (a, b) A B.
In den beiden folgenden Stzen wird nun die Existenz und die Eindeutigkeit des
Tensorprodukts A
R
B zweier R-Moduln gezeigt.
10.1.5 Satz (Eindeutigkeit des Tensorprodukts). Sind (T, t ) und (T

, t

) zwei Ten-
sorprodukte der R-Moduln Aund B, dann gibt es genau einen R-Modulisomorphis-
mus j : T T

mit jt = t

.
Beweis: Da T und T

R-Moduln sind und t

bilinear ist, gibt es zum Tensorprodukt


(T, t ) von Aund B genau ein h
1
Hom
R
(T, T

) derart, da das folgende Diagramm


A B
t

@
@
@
@
@
@
@
@
@
@
T
/
h
1
T

h
2
kommutativ ist, d. h. t

(a, b) = h
1
t (a, b) fr alle (a, b) A B. Analog
gibt es genau ein h
2
Hom
R
(T

, T ) mit t (a, b) = h
2
t

(a, b). Hieraus folgt,


da t

(a, b) = h
1
h
2
t

(a, b) fr alle (a, b) A B. Sicherlich ist die Identitt


10.1 Multilineare Abbildungen und Tensorprodukte 281
id : T

eine R-lineare Abbildung aus Hom


R
(T

, T

), die nach Deniti-


on 10.1.4 das zum Tensorprodukt (T

, t

) und R-Modul T

gehrige Diagramm
A B
t

@
@
@
@
@
@
@
@
@
@
T

/
id
T

kommutativ macht, d. h. t

(a, b) = id t

(a, b) fr alle (a, b) A B. Daher gilt


wegen der geforderten Eindeutigkeit h
1
h
2
= id. Analog zeigt man h
2
h
1
= id. Also
ist h
1
: T T

der eindeutig bestimmte Isomorphismus j.


10.1.6 Satz (Existenz des Tensorprodukts). Zu jedemPaar A, B von R-Moduln exi-
stiert ein Tensorprodukt (A
R
B, t ) mit Tensorabbildung
t : A B T = A
R
B, t (a, b) = a b T fr alle (a, b) A B,
das bis auf R-Modulisomorphie eindeutig bestimmt ist.
Beweis: Wegen Satz 10.1.5 ist nur die Existenz des Tensorprodukts (T, t ) zu bewei-
sen. Dazu betrachtet man die Menge
M= {(a, b) | a A, b B} = A B.
Nach Hilfssatz 9.4.13 ist C = {f
(a,b)
R
M
| (a, b) M} eine Basis des freien
R-Moduls R
M
. Sei U der R-Untermodul vonR
M
, der vonder Menge aller folgenden
Elemente erzeugt wird:
(a) f
(a
1
+a
2
,b)
f
(a
1
,b)
f
(a
2
,b)
,
(b) f
(a,b
1
+b
2
)
f
(a,b
1
)
f
(a,b
2
)
,
(c) f
(ar,b)
f
(a,br)
,
(d) f
(ar,b)
f
(a,b)
r,
wobei die Elemente a, a
1
, a
2
A, b, b
1
, b
2
B und r R beliebig sind.
Sei T der nach Hilfssatz 9.2.14 eindeutig bestimmte Faktormodul T = R
M
/U
mit dem kanonischen R-Modulepimorphismus : R
M
T , der jedem f R
M
seine Restklasse (f ) = [f ] = f + U R
M
/U zuordnet. Nach Hilfssatz 9.2.14
ist U = Ker().
Die Tensorabbildung t : A B T wird deniert durch
t (a, b) = (f
(a,b)
) T fr (a, b) A B.
282 10 Multilineare Algebra
Diese Abbildung t : A B T ist wohldeniert und bilinear; denn wegen (a) ist
f
(a
1
+a
2
,b)
f
(a
1
,b)
f
(a
2
,b)
U fr alle a
1
, a
2
A und b B. Daraus folgt
0 = (f
(a
1
+a
2
,b)
f
(a
1
,b)
f
(a
2
,b)
) = (f
(a
1
+a
2
,b)
) (f
(a
1
,b)
) (f
(a
2
,b)
)
= t (a
1
+a
2
, b) t (a
1
, b) t (a
2
, b),
woraus sich t (a
1
+a
2
, b) = t (a
1
, b) +t (a
2
, b) ergibt.
Analog ergeben sich aus (b), (c) und (d) die Gleichungen
t (a, b
1
+b
2
) = t (a, b
1
) +t (a, b
2
),
t (ar, b) = t (a, br),
t (ar, b) = t (a, b)r
fr alle a A, b, b
1
, b
2
B und r R. Also ist t : A B T eine bilineare
Abbildung. Sei nun X ein beliebiger R-Modul und g : A B X eine bilineare
Abbildung. Da C = {f
(a,b)
R
M
| (a, b) M} eine Basis des freien R-Moduls
R
M
ist, wird nach Satz 9.4.14 durch die Zuordnung
(f
(a,b)
) = g(a, b) fr alle (a, b) A B = M
ein R-Modulhomomorphismus : R
M
X deniert. Da g : A B X eine
bilineare Abbildung ist, folgt fr alle a
1
, a
2
A und b B
(f
(a
1
+a
2
,b)
f
(a
1
,b)
f
(a
2
,b)
) = (f
(a
1
+a
2
,b)
) (f
(a
1
,b)
) (f
(a
2
,b)
)
= g(a
1
+a
2
, b) g(a
1
, b) g(a
2
, b) = 0.
Analog zeigt man, da auch alle Erzeuger der Form (b), (c) und (d) von U auf das
Nullelement in X abgebildet werden.
Daher ist U Ker(). Nach Folgerung 9.2.20 gibt es deshalb genau einen
R-Modulhomomorphismus h Hom
R
(T, X) mit
g(a, b) = (f
(a,b)
) = ht (a, b) = h(f
(a,b)
) fr alle (a, b) A B,
weil C = {f
(a,b)
| (a, b) M) eine Basis des freien R-Moduls R
M
ist. Daher ist
(T, t ) das gesuchte Tensorprodukt (A
R
B, t ).
10.1.7 Folgerung. Sei T = A
R
B das Tensorprodukt der R-Moduln A und B.
Dann gelten folgende Rechengesetze:
(a) (a
1
+a
2
) b = (a
1
b) +(a
2
b) fr alle a
1
, a
2
A und b B.
(b) a (b
1
+b
2
) = (a b
1
) +(a b
2
) fr alle a A und b
1
, b
2
B.
(c) (a b)r = (a br) = (ar b) fr alle a A, b B und r R.
10.1 Multilineare Abbildungen und Tensorprodukte 283
(d) 0 a = 0 = b 0 fr alle a A und b B.
Beweis: Wegen ab = t (a, b) folgen alleAussagen unmittelbar aus der Bilinearitt
der Tensorabbildung t : A B T = A
R
B.
10.1.8 Folgerung. Sei (T = A
R
B, t ) das Tensorprodukt der R-Moduln Aund B.
Dann existieren zu jedem u T endlich viele Elemente a
i
A, b
i
B und r
i
R,
1 i k, derart, da
u =
k

i=1
(a
i
b
i
)r
i
.
Beweis: Sei M = A B. Nach Hilfssatz 9.4.13 ist C = {f
m
| m M} eine
Basis des freien R-Moduls R
M
. Nach dem Beweis von Satz 10.1.6 gibt es einen R-
Untermodul U von R
M
derart, da T = R
M
/U und fr die Restklassenabbildung
: R
M
R
M
/U gilt: t (a, b) = (f
(a,b)
) fr alle (a, b) M. Sei w R
M
ein
Urbild von u T in R
M
. Da C eine Basis des freien R-Moduls R
M
ist, existieren
endlich viele Basiselemente f
(a
i
,b
i
)
C und Ringelemente r
i
R, 1 i k,
derart, da
w =
k

i=1
f
(a
i
,b
i
)
r
i
.
Hieraus folgt
u = (w) =
k

i=1
(f
(a
i
,b
i
)
)r
i
=
k

i=1
(a
i
b
i
)r
i
.

10.1.9 Beispiel. Das Tensorprodukt (Z/3Z)


Z
(Z/2Z) der zyklischen Z-Moduln
A = Z/3Z und B = Z/2Z ber dem Ring Z der ganzen Zahlen ist der Nullmodul
0. Hierzu gengt es, nach Folgerung 10.1.8 zu zeigen, da
(a b) = 0 fr alle a A und b B.
Da 1 = 3 2 = 3 1 +2(1), folgt nach Folgerung 10.1.7 wegen a3 = 0, b2 = 0,
da
a b = (a b)1 = (a b)(3 1 +2(1))
= (a b)3 +(a b)2(1)
= a3 b a b2 = 0 b a 0 = 0.
10.1.10 Beispiel. Das Tensorprodukt T = Q
Z
Q des Krpers Q der rationalen
Zahlen mit sich selbst ber dem Ring Z der ganzen Zahlen ist isomorph zu Q, d. h.
Q
Z
Q

= Q, wie folgende berlegungen zeigen.


284 10 Multilineare Algebra
Die Abbildung : Q Q Q, deniert durch (q
1
, q
2
) = q
1
q
2
fr q
i
Q,
i = 1, 2 ist bilinear. Nach Satz 10.1.6 existiert daher ein Hom
Z
(Q
Z
Q, Q)
mit
(q
1
q
2
) = q
1
q
2
Q fr alle q
i
Q, i = 1, 2.
ist ein Z-Modulepimorphismus; denn jedes q = ab
1
Q mit b = 0 ist Bild
(a b
1
) von a b
1
Q
Z
Q.
Ist q =

n
i=1
q
i
p
i
Ker und 0 = d Z der Hauptnenner der Brche
q
i
= a
i
d
1
und p
i
= b
i
d
1
, dann ist (q) =
_
n
i=1
a
i
b
i
_
d
2
= 0, woraus

n
i=1
a
i
b
i
= 0 folgt. Also ist
q =
n

i=1
q
i
p
i
=
n

i=1
a
i
d
1
b
i
d
1
=
n

i=1
d
1
a
i
b
i
d
1
= d
1

_
n

i=1
a
i
b
i
_
d
1
= d
1
0 = 0
wegen Folgerung 10.1.7. Daher ist ein Z-Modulisomorphismus.
10.1.11 Satz. Seien A, B, C R-Moduln ber dem kommutativen Ring R. Dann gel-
ten:
(a) A
R
B

= B
R
A.
(b) (A
R
B)
R
C

= A
R
(B
R
C).
Beweis: (a) Sei (A
R
B, t ) das Tensorprodukt der R-Moduln A und B. Die Abbil-
dung f : A B B
R
A mit f (a, b) = b a fr alle (a, b) A B ist nach
Folgerung 10.1.7 bilinear ber R. Wegen Denition 10.1.4 existiert daher genau ein
h Hom
R
(A
R
B, B
R
A) derart, da
b a = f (a, b) = ht (a, b) = h(a b) fr alle (a, b) A B
gilt. Nach Folgerung 10.1.8 hat jedes u B
R
A die Form
u =
k

i=1
(b
i
a
i
)r
i
=
k

i=1
h(a
i
b
i
)r
i
= h
_
k

i=1
(a
i
b
i
)r
i
_
h(A
R
B)
10.1 Multilineare Abbildungen und Tensorprodukte 285
fr endlich viele (a
i
, b
i
) AB und r
i
R. Also ist h ein R-Modulepimorphismus
von A
R
B auf B
R
A. Analog ndet man genau ein h

Hom
R
(B
R
A, A
R
B)
mit h

(ba) = a b fr alle (b, a) BA. Wiederum ist h

(B
R
A) = A
R
B.
Nun ist hh

(b a) = h(a b) = b a und h

h(a b) = h

(b a) = a b fr alle
a A und b B. Wegen Folgerung 10.1.8 sind daher die R-linearen Abbildungen
h und h

zueinander inverse Isomorphismen.


(b) Nach Satz 10.1.6 existieren die Tensorprodukte ([A
R
B]
R
C, t ) und
(A
R
[B
R
C], s). Sei a Afest gewhlt. Dann ist die durch
a
(b, c) = (ab)c
fr alle (b, c) B C denierte Abbildung
a
: B C (A
R
B)
R
C
bilinear. Also gibt es nach Denition 10.1.4 ein eindeutig bestimmtes Element h
a

Hom
R
(B
R
C, (A
R
B)
R
C) derart, da
h
a
(b c) = (a b) c fr alle b c B
R
C
gilt. Wegen Folgerung 10.1.7 ist daher die durch
(a, b c) = h
a
(b c) fr alle b B, c C
denierte Abbildung : A(B
R
C) (A
R
B)
R
C bilinear. Nach Deniti-
on 10.1.4 existiert genau ein h Hom
R
(A
R
(B
R
C), (A
R
B)
R
C) derart,
da das folgende Diagramm
A (B
R
C)
s

F
F
F
F
F
F
F
F
F
F
F
F
F
A
R
(B
R
C)
h
.w
w
w
w
w
w
w
w
w
w
w
w
w
(A
R
B)
R
C
kommutativ ist, d. h.
h(a (b c)) = (a, b c) = h
a
(b c) = (a b) c
fr alle a A, b B, c C. Wie in (a) folgt nun mit Hilfe von Folgerung 10.1.8,
da h ein R-Modulisomorphismus ist.
10.1.12 Folgerung. Sei M ein R-Modul ber dem kommutativen Ring R. Sei p 2
eine natrliche Zahl. Dann existiert das p-fache Tensorprodukt T =
p
M von M
mit sich selbst, d. h. es gibt einen bis auf Isomorphie eindeutig bestimmten R-Modul
T und eine p-lineare Abbildung t
p
von M M M = M
p
in T derart, da
fr jeden R-Modul N und fr jede p-lineare Abbildung g von M
p
in N das folgende
286 10 Multilineare Algebra
Diagramm fr genau eine R-lineare Abbildung h Hom
R
(T, N) kommutativ ist:
M
p
t
p

<
<
<
<
<
<
<
<
<
T
/
h
N
Beweis: Folgt unmittelbar aus den Stzen 10.1.5, 10.1.6 und 10.1.11.
Das Tensorprodukt vertauscht mit direkten Summen , wie nun gezeigt wird.
10.1.13 Satz. Seien A, B und C drei R-Moduln ber dem kommutativen Ring R.
Dann gilt:
(A B)
R
C

= (A
R
C) (B
R
C).
Beweis: Nach Satz 10.1.6 existieren die Tensorprodukte T = ((A B)
R
C, t ),
T
1
= (A
R
C, t
1
) und T
2
= (B
R
C, t
2
). Sei T

= T
1
T
2
. Die bilineareAbbildung
t

: (A B) C T

sei deniert durch t

(a +b, c) = t
1
(a, c) +t
2
(b, c) T
1
T
2
= T

fr alle a A,
b B und c C. Wegen der Direktheit der Summe ist t

wohldeniert. Da (T, t )
ein Tensorprodukt ist, existiert nach Denition 10.1.4 genau ein h Hom
R
(T, T

)
derart, da das Diagramm
(A B) C
t

F
F
F
F
F
F
F
F
F
F
F
F
T
h
/

= T
1
T
2
kommutativ ist, d. h. t

(a +b, c) = ht (a +b, c) fr alle a +b AB und c C.


Sicherlich sind die Einschrnkungen t

1
und t

2
von t auf AC und BC bilineare
Abbildungen in den R-Modul T . Nach Denition 10.1.4 existieren daher eindeutig
bestimmte R-lineare Abbildungen g
i
Hom
R
(T
i
, T ) derart, da die Gleichungen
t

1
(a, c) = t (a, c) = g
1
t
1
(a, c) = g
1
t

(a, c),
t

2
(b, c) = t (b, c) = g
2
t
2
(b, c) = g
2
t

(b, c)
fr alle a A, b B und c C gelten. Sei g Hom
R
(T

, T ) deniert durch
g(t

(a, c) +t

(b, c)) = g
1
t
1
(a, c) +g
2
t
2
(b, c).
Dann ist hg die Identitt auf T

und gh die Identitt auf T . Also sind T und T

=
T
1
T
2
isomorphe R-Moduln.
10.2 Tensorprodukte von linearen Abbildungen 287
10.1.14 Folgerung. Sind V und W zwei endlich erzeugte, freie R-Moduln ber dem
kommutativen Ring R mit den Basen {v
1
, v
2
, . . . , v
n
} und {w
1
, w
2
, . . . , w
m
}, dann
ist V
R
W ein freier R-Modul mit der Basis {v
i
w
j
| 1 i n, 1 j m}.
Insbesondere gilt fr die Rnge dieser freien R-Moduln
rg(V
R
W) = rg(V) rg(W).
Beweis: Nach Voraussetzung ist V =

n
i=1
v
i
R und W =

m
j=1
w
j
R. Wegen
Folgerung 10.1.7 und Satz 10.1.13 folgt
V
R
W =
_
n

i=1
v
i
R
_

R
_
m

j=1
w
j
R
_
=
n

i=1
v
i
R
R
_
m

j=1
w
j
R
_
=
n

i=1
m

j=1
(v
i
w
j
)R.
Insbesondere ist rg(V
R
W) = nm = rg(V) rg(W).
10.1.15 Folgerung. Sind V und W zwei endlich-dimensionale Vektorrume ber
dem Krper F, so gilt:
dim
F
(V
F
W) = (dim
F
V)(dim
F
W).
Beweis: Folgt unmittelbar aus Satz 2.2.11 und Folgerung 10.1.14.
10.2 Tensorprodukte von linearen Abbildungen
In diesem Abschnitt werden Beziehungen zwischen Tensorprodukten von R-linea-
ren Abbildungen und R-linearen Abbildungen zwischen Tensorprodukten von
R-Moduln beschrieben. Weiter werden Tensorprodukte von Matrizen mit Koef-
zienten aus einem kommutativen Ring R mit Einselement eingefhrt.
10.2.1 Satz. Seien A, A

, B, B

vier R-Moduln. Dann existiert zu jedem


Hom
R
(A, A

) und Hom
R
(B, B

) genau eine R-lineare Abbildung


Hom
R
(A
R
B, A

R
B

)
mit
( )(a b) = a b fr alle a A, b B.
288 10 Multilineare Algebra
Beweis: Sei (A
R
B, t ) das Tensorprodukt von Aund B mit der Tensorabbildung t :
AB A
R
B. Seien Hom
R
(A, A

) und Hom
R
(B, B

) fest gewhlt. Die


durch (a, b) = ab A

R
B

denierteAbbildung : AB A

R
B

ist
wegen Folgerung 10.1.7 und der Linearitt von und bilinear. Daher gibt es nach
Denition 10.1.4 genau eine R-lineareAbbildung Hom
R
(A
R
B, A

R
B

)
derart, da das folgende Diagramm kommutativ ist.
A B
t

G
G
G
G
G
G
G
G
G
G
G
A
R
B

.v
v
v
v
v
v
v
v
v
v
v
v
A

R
B

Somit ist ( )(a b) = (a, b) = a b fr alle a A, b B.


Wegen Folgerung 10.1.14 (b), Satz 10.2.1 und Denition 9.5.4 ist es natrlich,
das Tensorprodukt zweier Matrizen Aund B wie folgt zu erklren.
Seien V, W, Y und Z endlich erzeugte, freie R-Moduln ber dem kommu-
tativen Ring R mit den Basen A = {v
1
, v
2
, . . . , v
n
}, B = {w
1
, w
2
, . . . , w
m
},
C = {y
1
, y
2
, . . . , y
s
} und D = {z
1
, z
2
, . . . , z
t
}. Zu jedem Paar Hom
R
(V, W)
und Hom
R
(Y, Z) existiert das nach Satz 10.2.1 eindeutig bestimmte Tensorpro-
dukt Hom
R
(V
R
Y, W
R
Z) der R-linearen Abbildungen und .
10.2.2 Denition. Seien A

(A, B) = (a
ij
) mit 1 i m und 1 j n und
A

(C, D) = (b
pq
) mit 1 p t und 1 q s die zu und gehrigen mn-
bzw. t s-Matrizen ber R. Dann hat das in Satz 10.2.1 konstruierte Tensorprodukt
von und bezglich der nach Folgerung 10.1.14 existierenden, geordneten
Basen
P = {v
1
y
1
, . . . , v
1
y
s
, . . . , v
n
y
1
, . . . , v
n
y
s
}
und
Q = {w
1
z
1
, . . . , w
1
z
t
, . . . , w
m
z
1
, . . . , w
m
z
t
}
von V
R
Y bzw. W
R
Z nach Denition 9.5.4 die mt ns-Matrix A

(P, Q) =
(a
ij
b
pq
), die das Kronecker-Produkt A

der MatrizenA

(A, B) undA

(C, D)
heit.
Bezeichnung: AB
10.2.3 Beispiel. Das Kronecker-Produkt A B der beiden Matrizen A =
_
1
3
2
0
_
10.3 Ringerweiterungen und Tensorprodukte 289
und B =
_
1
0
2
2
3
1
_
ist die 4 6-Matrix
AB =
_
1 (B) 2 (B)
3 (B) 0 (B)
_
=
_
_
_
_
1 2 3 2 4 6
0 2 1 0 4 2
3 6 9 0 0 0
0 6 3 0 0 0
_
_
_
_
.
Das Kronecker-Produkt B Adieser beiden Matrizen ist
B A =
_
1 (A) 2 (A) 3 (A)
0 (A) 2 (A) 1 (A)
_
=
_
_
_
_
1 2 2 4 3 6
3 0 6 0 9 0
0 0 2 4 1 2
0 0 6 0 3 0
_
_
_
_
.
Insbesondere ist AB = B A.
10.2.4 Satz. Seien A, A

, A

und B, B

, B

sechs R-Moduln und


Hom
K
(A, A

),

Hom
K
(A

, A

),
Hom
K
(B, B

),

Hom
K
(B

, B

).
Dann gilt fr die Hintereinanderausfhrung der jeweiligenR-linearenAbbildungen
die Gleichung
(

) ( ) = (

) (

).
Beweis: Das Tensorprodukt (

) (

) Hom
R
(A
R
B, A

R
B

) der
R-linearenAbbildungen

und

ist nach Satz 10.2.1 die eindeutig bestimmte


R-lineare Abbildung, fr die
(

) (

)(a b) =
_

(a)
_

(b)
_
fr alle (a, b) A B
gilt. Ebenso gelten ( )(a b) = (a) (b) fr alle (a, b) A B und
(

)(a

) =

(a

(b

) fr alle (a

, b

) A

. Hieraus ergibt sich


(

) ( )(a b) =
_

(a)
_

(b)
_
fr alle a, b AB. Daher
gilt die Behauptung.
10.3 Ringerweiterungen und Tensorprodukte
In Kapitel 7 wurde die Einbettung eines endlich-dimensionalen, reellenVektorraums
V in einen Vektorraum ber dem Krper C der komplexen Zahlen mit gleicher Di-
mension betrachtet. Dies war ein wichtiger Schritt fr den Beweis des Hauptachsen-
theorems 7.6.3. Diese Einbettung ist ein Spezialfall des folgenden Satzes.
290 10 Multilineare Algebra
10.3.1 Satz. Sei R ein Unterring des kommutativen Ringes S. Das Einselement 1
R sei auch das Einselement von S. Dann ist S ein R-Modul, und es gelten folgende
Aussagen:
(a) Ist M ein R-Modul, dann ist M
R
S ein S-Modul.
(b) Fr jeden zyklischen R-Modul mR ist mr s (m 1)rs ein S-Modul-
isomorphismus von mR
R
S auf (m1)S.
(c) Ist B = {m
i
M | 1 i k} eine Basis des endlich erzeugten, freien
R-Moduls M, dann ist B
S
= {m
i
1 | 1 i k} eine Basis des freien
S-Moduls M
R
S.
Beweis: (a) Der R-Modul M
R
S ist ein S-Modul vermge der Verknpfung
(ms)t = mst fr alle m M und s, t S.
(b) Sei (mR
R
S, t ) das Tensorprodukt der R-Moduln M = mR und S. Die
Abbildung (mr, s) (m1)rs ist eine bilineareAbbildung von MS auf (m1)S.
Daher existiert nach Satz 10.1.6 genau ein
Hom
R
(mR
R
S, (m1)S)
mit
(mr s) = (m1)rs fr alle r R, s S.
Wegen (a) ergibt sich nun fr alle s
1
, s
2
S, da
(ms
1
s
2
) = (m1)s
1
s
2
= (ms
1
)s
2
ist. Also ist eine surjektive S-lineare Abbildung. Sie hat eine inverse Abbildung
: (m1)s ms, s S. Daher gilt (b).
(c) Da B eine Basis des freien R-Moduls M ist, gilt
M =
k

i=1
m
i
R.
Nach Satz 10.1.13 folgt hieraus, da
M
R
S

=
_
k

i=1
m
i
R
_

R
S

=
k

i=1
(m
i
R
R
S).
Wegen (b) sind die S-Moduln m
i
R
R
S und (m
i
1)S fr i = 1, . . . , k isomorph.
Also ist M
R
S

=

k
i=1
(m
i
1)S.
10.3.2 Bemerkung. Sei V ein endlich-dimensionaler, reeller Vektorraum mit Basis
B = {v
1
, v
2
, . . . , v
n
}. Dann ist B
C
= {v
i
1 | 1 i n} nach Satz 10.3.1
eine Basis des komplexen Vektorraums V
R
C ber dem Krper C der komplexen
Zahlen.
10.3 Ringerweiterungen und Tensorprodukte 291
V
R
C ist isomorph zur komplexen Erweiterung Z = {(x, y) | x, y V} des
reellen Vektorraums V, die in Denition 7.1.13 erklrt ist. Denn als R-Vektorraum
hat C die Basis {1, i}. Nach Satz 10.1.13 sind daher die R-Vektorrume
V
R
C = V
R
(R Ri) = V
R
R V
R
Ri

= V 1 V i

= Z
isomorph. Wegen i
2
= 1 V 1 sind V
R
C und Z auch als C-Vektorrume
isomorph.
10.3.3 Satz. Sei R ein Unterring des kommutativen Ringes S mit demselben Eins-
element 1. Seien M und N zwei R-Moduln. Dann gelten folgende Aussagen:
(a) Fr jedes Hom
R
(M, N) ist 1 Hom
S
(M
R
S, N
R
S) eine
S-lineare Fortsetzung.
(b) Sind M und N endlich erzeugte, freie R-Moduln mit den Basen A = {m
j
|
1 j r} und B = {n
i
| 1 i s}, dann sind M
R
S und N
R
S
endlich erzeugte, freie S-Moduln mit den Basen A
S
= {m
j
1 | 1 j r}
und B
S
= {n
i
1 | 1 i s}. Fr die s r-Matrizen A

(A, B) und
A
1
(A
S
, B
S
) gilt die Gleichung
A

(A, B) = (a
ij
) = A
1
(A
S
, B
S
).
Beweis: (a) Die Multiplikation mit 1 ist die identische S-lineare Abbildung des
S-Moduls S in sich. Also ist 1 Hom
S
(M
R
S, N
R
S) nach Satz 10.2.1
durch
( 1)(ms) = (m) s fr alle m M und s S ()
eindeutig bestimmt.
(b) A
S
und B
S
sind nach Satz 10.3.1 je eine Basis von M
R
S und N
R
S.
Wegen () und Folgerung 10.1.7 folgt mit A

(A, B) = (a
ij
)
( 1)(m
j
1) = (m
j
) 1
=
_
s

i=1
n
i
a
ij
_
1
=
s

i=1
(n
i
a
ij
1)
=
s

i=1
(n
i
1)a
ij
fr j = 1, 2, . . . , r.
Also ist A
1
(A
S
, B
S
) = (a
ij
) = A

(A, B) nach Denition 9.5.4.


292 10 Multilineare Algebra
10.4 uere Potenzen und alternierende Abbildungen
Zunchst werden die p-ten ueren Potenzen eines R-Moduls ber einem kommu-
tativen Ring R mit Einselement eingefhrt.
10.4.1 Denition. Sei M ein R-Modul und p 2 eine natrliche Zahl. Sei M
p
=

p
M das (bis auf Isomorphie eindeutig bestimmte) p-fache Tensorprodukt von M
mit sich selbst. Sei t
p
die zugehrige Tensorabbildung. Sei U
p
derjenige Untermodul
von M
p
, der erzeugt wird von allen Elementen der Form a
1
a
p
mit a
i
M
und a
i
= a
j
fr mindestens ein Paar (i, j) mit 1 i < j p. Der Faktormodul
_
p
M = M
p
/U
p
heit das p-fache uere Produkt von M mit sich selbst. Fr p = 0
und p = 1 setzt man
_
0
M = R bzw.
_
1
M = M. Die Elemente von
_
p
M heien
p-Vektoren. Sei
p
die Restklassenabbildung von M
p
auf M
p
/U
p
=
_
p
M.
Bezeichnung: a
1
a
p
=
p
(a
1
a
p
) M
p
/U
p
=
_
p
M.
10.4.2 Hilfssatz. Sei
_
p
M das p-fache uere Produkt des R-Moduls M ber dem
kommutativen Ring R. Dann gelten fr i = 1, 2, . . . , p die folgenden Aussagen:
(a) a
1
(a
i
+a

i
) a
p
= (a
1
a
i
a
p
)+(a
1
a

i
a
p
)
fr alle a
1
, a
2
, . . . , a
i
, a

i
, . . . , a
p
M.
(b) a
1
(a
i
c) a
p
= (a
1
a
i
a
p
) c fr alle
a
1
, a
2
, . . . , a
i
, . . . , a
p
M und c R.
Beweis: Beide Aussagen folgen unmittelbar aus der p-fachen Linearitt der Ten-
sorabbildung t
p
und der R-Linearitt der Restklassenabbildung
p
:

p
M
_
p
M.
10.4.3 Hilfssatz. (a) Sind a
1
, a
2
, . . . , a
p
M und ist 1 i < j p, dann ist
a
1
a
i
a
j
a
p
= a
1
a
j
a
i
a
p
.
(b) Ist eine Permutation der Zahlen 1, 2, . . . , p, dann ist
a
(1)
a
(2)
a
(p)
= (a
1
a
p
) sign .
Beweis: (a) Nach der Bestimmung von U
p
in Denition 10.4.1 und Hilfssatz 10.4.2
(a) ist
0 = a
1
(a
i
+a
j
) (a
i
+a
j
) a
p
= a
1
a
i
a
i
a
p
+a
1
a
i
a
j
a
p
+a
1
a
j
a
i
a
p
+a
1
a
j
a
j
a
p
.
10.4 uere Potenzen und alternierende Abbildungen 293
In der letzten Summe verschwinden nach Denition 10.4.1 der erste und der letzte
Summand. Deshalb ist
a
1
a
j
a
i
a
p
= (a
1
a
i
a
j
a
p
).
(b) folgt sofort aus (a) und Satz 5.1.10 (b).
Wegen Hilfssatz 10.4.3 ist es naheliegend, die Denition 5.2.4 einer alternieren-
den Abbildung eines Vektorraums auf R-Moduln zu bertragen.
10.4.4 Denition. Seien M und N zwei R-Moduln. Sei p 2 eine natrliche Zahl
und M
p
das p-fache kartesische Produkt von M. Eine p-fach lineare Abbildung
: M
p
N heit eine alternierende Abbildung des R-Moduls M in den R-Modul
N, wenn
(m
1
, m
2
, . . . , m
p
) = 0 N
ist, sofern zwei verschieden indizierte Elemente unter den Elementen m
1
,
m
2
, . . . , m
p
von M gleich sind.
Die p-te uere Potenz
_
p
M eines R-Moduls M ber einem kommutativen
Ring R hat die folgende universelle Abbildungseigenschaft.
10.4.5 Satz. Seien M ein R-Modul und p 2 eine natrliche Zahl. Dann gibt es zu
jeder p-fach linearen alternierenden Abbildung : M
p
N mit Werten in einem
R-Modul N genau eine R-lineare Abbildung

Hom
R
_ _
p
M, N
_
derart, da

(a
1
a
p
) = (a
1
, . . . , a
p
)
fr alle (a
1
, . . . , a
p
) M
p
.
Beweis: Da eine p-fach lineare Abbildung ist, gibt es nach Folgerung 10.1.12
genau ein h Hom
R
(
p
M, N) derart, da das linke Dreieck des Diagramms
M
p
-
t
p
@
@
@
@
@R

p
M
?
-

p
_
p
M

h
N
kommutativ ist, wobei t
p
: M
p
T =
p
M die p-fache Tensorabbildung von M
p
auf T ist. Da auerdemalternierendist, gilt fr alle p-Tupel (a
1
, a
2
, . . . , a
p
) M
p
,
bei denen mindestens zwei verschieden indizierte Elemente a
i
M gleich sind, da
0 = (a
1
, . . . , a
p
) = h(a
1
a
p
) = ht
p
(a
1
, . . . , a
p
).
294 10 Multilineare Algebra
Also ist der Untermodul U
p
von T =
p
M, der von allen a
1
a
p
erzeugt
wird, bei denen mindestens zwei a
i
M gleich sind, in Ker(h) enthalten. Sei

p
:
p
M
_
p
M der kanonische Epimorphismus von T =
p
M auf
_
p
M mit
Ker(
p
) = U
p
. Wegen U
p
Ker(h) gibt es nach Folgerung 9.2.20 eine eindeutig
bestimmte, R-lineare Abbildung

Hom
R
_ _
p
M, N
_
mit

(a
1
a
p
) = (a
1
, . . . , a
p
) fr alle (a
1
, . . . , a
p
) M
p
.

10.4.6 Folgerung. Seien M, N zwei R-Moduln. Sei p 2 eine natrliche Zahl und
Alt
R
(p, M, N) die Menge aller p-fach linearen alternierenden Abbildungen von M
mit Werten in N. Dann gelten:
(a) Alt
R
(p, M, N) ist ein R-Modul.
(b) Hom
R
_ _
p
M, N
_

= Alt
R
(p, M, N) als R-Moduln.
Beweis: (a) Seien , Alt
R
(p, M, N) und r R beliebig. Dann sind + und
r p-fach lineare alternierende Abbildungen von M in N. Also ist Alt
R
(p, M, N)
ein R-Modul.
(b) Da
_
p
M und N zwei R-Moduln sind, ist Hom
R
_ _
p
M, N
_
nach Hilfs-
satz 10.1.3 ein R-Modul. Nach den Hilfsstzen 10.4.2 und 10.4.3 ist die Zuordnung

p
t
p
: M
p

_
p
M, die durch

p
t
p
(a
1
, . . . , a
p
) =
p
(a
1
a
p
) = a
1
a
p
fr alle p-Tupel (a
1
, a
2
, . . . , a
p
) M
p
erklrt ist, eine p-fach lineare alter-
nierende Abbildung von M in
_
p
M. Daher ist

=
p
t
p
fr jedes
Hom
R
_ _
p
M, N
_
eine p-fach lineare alternierende Abbildung von M in N, d. h.

p
t
p
Alt
R
(p, M, N).
Nach Satz 10.4.5 existiert zu jedem

Alt
R
(p, M, N) genau ein
Hom
R
_ _
p
M, N
_
derart, da
(a
1
a
2
a
p
) =

(a
1
, a
2
, . . . , a
p
),
also

=
p
t
p
ist. Daher ist die Abbildung

eine injektive R-lineare


Abbildung von Hom
R
_ _
R
M, N
_
in Alt
R
(p, M, N). Diese Abbildung ist auch
surjektiv nach Satz 10.4.5, also ein Isomorphismus.
Sei eine p-fach lineare alternierendeAbbildung des freienR-Moduls M mit Ba-
sis B = {m
1
, m
2
, . . . , m
n
}. Dann ist schon durch die Bilder (m
k
1
, m
k
2
, . . . , m
k
p
)
aller p-Tupel aus Basisvektoren festgelegt. Da alternierend ist, kann man sich auf
p-Tupel paarweise verschiedener Basisvektoren beschrnken, weil andernfalls den
Wert 0 hat. Sei also (m
k
1
, m
k
2
, . . . , m
k
p
) ein p-Tupel, das aus paarweise verschie-
denen Basisvektoren besteht. Sei diejenige Permutation von {k
1
, k
2
, . . . , k
p
}, die
10.4 uere Potenzen und alternierende Abbildungen 295
diese Indizes der Gre nach ordnet, fr die also (k
1
) < (k
2
) < < (k
p
) gilt.
Wegen Hilfssatz 10.4.3 folgt
(m
(k
1
)
, m
(k
2
)
, . . . , m
(k
p
)
) = (m
k
1
, m
k
2
, . . . , m
k
p
) sign .
Deshalb ist eindeutig bestimmt durch die Werte (m
i
1
, m
i
2
, . . . , m
i
p
) auf allen
p-Tupeln (m
i
1
, m
i
2
, . . . , m
i
p
) mit i
1
< i
2
< < i
p
.
10.4.7 Hilfssatz. Sei M ein endlich erzeugter freier R-Modul ber dem kommutati-
ven Ring R mit Basis B = {m
i
M | 1 i n}. Sei p 1 eine natrliche Zahl
und Alt
R
(p, M, R) der R-Modul aller p-fach linearen alternierenden Abbildungen
von M in R.
Dann gibt es zu jeder echt aufsteigenden Folge F : i
1
< i
2
< < i
p
von
p Zahlen i
j
{1, 2, . . . , n} genau eine p-fach lineare alterniernde Abbildung

i
1
,i
2
,...,i
p
Alt
R
(p, M, R) derart, da fr alle der Gre nach geordneten Fol-
gen k
1
< k
2
< < k
p
von p Zahlen k
s
{1, 2, . . . , n} gilt:

i
1
,i
2
,...,i
p
(m
k
1
, . . . , m
k
p
) =
_
1 R fr (k
1
, . . . , k
p
) = (i
1
, . . . , i
p
),
0 R fr (k
1
, . . . , k
p
) = (i
1
, . . . , i
p
).
Beweis: Da M ein freier R-Modul ist, hat M

= Hom
R
(M, R) nach dem Beweis
von Satz 3.6.8 die (duale) Basis B

= {
i
M

| 1 i n}, wobei

i
(m
j
) =
_
1 R fr i = j,
0 R fr i = j
fr alle 1 i, j n.
Sei F : i
1
< i
2
< < i
p
eine beliebige, echt aufsteigende Folge von p Zahlen
i
j
{1, 2, . . . , n}. Fr alle (x
1
, x
2
, . . . , x
p
) M
p
sei die Abbildung
i
1
,i
2
,...,i
p
:
M
p
R deniert durch

i
1
,i
2
,...,i
p
(x
1
, x
2
, . . . , x
p
) =

S
p
(sign )
p

j=1

i
j
(x
(j)
).
Da alle
i
j
R-lineare Abbildungen von M in R sind, ist
i
1
,i
2
,...,i
p
eine p-fach
lineare Abbildung von M in R. Sicherlich ist
i
1
,i
2
,...,i
p
(m
i
1
, m
i
2
, . . . , m
i
p
) =

p
j=1

i
j
(m
i
j
) = 1. Fr jede echt aufsteigende Folge k
1
< k
2
< < k
p
von
p Zahlen k
j
{1, 2, . . . , n} mit
i
1
,i
2
,...,i
p
(m
k
1
, m
k
2
, . . . , m
k
p
) = 0 existiert minde-
stens eine Permutation S
p
derart, da
p

j=1

i
j
(m
k
(j)
) = 0.
296 10 Multilineare Algebra
Da {
i
j
| 1 j n} die duale Basis zu B = {m
i
| 1 i n} ist, folgt k
(j)
= i
j
fr j = 1, 2, . . . , p. Also ist = id S
p
und k
j
= i
j
fr j = 1, 2, . . . , p. Daher
gilt

i
1
,i
2
,...,i
p
(m
k
1
, . . . , m
k
p
) =
_
1 R fr (k
1
, . . . , k
p
) = (i
1
, . . . , i
p
),
0 R fr (k
1
, . . . , k
p
) = (i
1
, . . . , i
p
).
Ist nun (x
1
, x
2
, . . . , x
p
) M
p
ein p-Tupel derart, da x
i
= x
j
fr ein Paar i = j
gilt, dann sei = (i, j) S
p
. Da die Transposition eine ungerade Permutation ist,
hat die symmetrische Gruppe nach Folgerung 5.1.11 die Zerlegung S
p
= A
p
A
p
,
wobei A
p
die alternierende Untergruppe von S
p
ist. Hieraus folgt

i
1
,i
2
,...,i
p
(x
1
, x
2
, . . . , x
p
) =

A
p
(sign )
p

k=1

i
k
(x
(k)
)
+

A
p
(sign )
p

k=1

i
k
(x
(k)
)
=

A
p
_ p

k=1

i
k
(x
(k)
)
p

k=1

i
k
(x
(k)
)
_
= 0,
weil x
(k)
= x
(k)
fr alle k / {i, j} und x
(k)
= x
(k)
fr k {i, j} wegen
x
i
= x
j
gilt. Daher ist
i
1
,i
2
,...,i
p
Alt
R
(p, M, R).
10.4.8 Satz. Sei M ein endlich erzeugter, freier R-Modul ber dem kommutativen
Ring Rmit Basis B = {m
i
M | 1 i n}. Sei p eine natrliche Zahl. Dann ist die
p-te uere Potenz
_
p
M von M ein freier R-Modul mit Basis {m
i
1
m
i
2
m
i
p
|
1 i
1
< i
2
< < i
p
n}. Insbesondere gilt
_
p
M = 0 fr alle p > n und
rg
_ _
p
M
_
=
_
n
p
_
fr p n.
Beweis: Sicherlich gelten alle Behauptungen fr p = 0 und p = 1. Sei also p 2.
NachdenFolgerungen10.1.12und10.1.14ist die Menge A = {m
i
1
m
i
2
m
i
p
|
i
j
{1, 2, . . . , n} fr j = 1, 2, . . . , p} eine Basis des freien R-Moduls

p
M. Sei
U
p
der Untermodul von

p
M, der von allen Elementen der Forma
1
a
2
a
p
erzeugt wird, wobei a
i
= a
j
fr mindestens ein Paar (i, j) mit 1 i < j pgilt. Sei

p
:

p
M
_
p
M der kanonische R-Modulepimorphismus mit Ker(
p
) = U
p
.
Wegen Hilfssatz 10.4.3 ist dann die Menge
C = {
p
(m
i
1
m
i
p
) = m
i
1
m
i
p
| 1 i
1
< i
2
< < i
p
n}
ein Erzeugendensystem von
_
p
M. Nach Hilfssatz 10.4.7 existiert zu je-
der Folge i
1
< i
2
< < i
p
von p Zahlen i
j
{1, 2, . . . , n} genau ein
10.4 uere Potenzen und alternierende Abbildungen 297

i
1
,i
2
,...,i
p
Alt
R
(p, M, R) mit
i
1
,i
2
,...,i
p
(m
i
1
, m
i
2
, . . . , m
i
p
) = 1 und

i
1
,i
2
,...,i
p
(m
k
1
, m
k
2
, . . . , m
k
p
) = 0 fr alle aufsteigenden Folgen k
1
< k
2
<
< k
p
mit (k
1
, k
2
, . . . , k
p
) = (i
1
, i
2
, . . . , i
p
). Daher existiert nach Satz 10.4.5 zu
jedem
i
1
,i
2
,...,i
p
ein

Hom
R
_ _
p
M, R
_
mit

(m
i
1
m
i
2
m
i
p
) =
i
1
,i
2
,...,i
p
(m
i
1
, m
i
2
, . . . , m
i
p
) = 0.
Insbesondere sind die
_
n
p
_
p-Vektoren m
i
1
m
i
2
m
i
p

_
p
M alle von Null
verschieden.
DurchAuswertung der p-fach linearen, alternierendenAbbildungen
i
1
,i
2
,...,i
p
an
den p-Tupeln (m
i
1
, m
i
2
, . . . , m
i
p
) zu den Folgen i
1
< i
2
< < i
p
sieht man, da
die
_
n
p
_
Abbildungen
i
1
,i
2
,...,i
p
linear unabhngig ber R sind. Die
_
n
p
_
p-Vektoren
m
i
1
m
i
2
m
i
p

_
p
M sind daher nach Folgerung 10.4.6 linear unabhngig
ber R. Also ist C = {m
i
1
m
i
2
m
i
p
| 1 i
1
< i
2
< < i
p
n} eine Basis
von
_
p
M. Insbesondere ist dann rg
_ _
p
M
_
=
_
n
p
_
fr p n und
_
p
M = 0
fr p > n, weil in jedem p-Vektor a
1
a
2
a
p
der n Basisvektoren von B
mindestens zwei gleiche Elemente a
i
auftreten.
10.4.9 Folgerung. Sei V ein n-dimensionaler Vektorraum ber dem kommutativen
Krper F und sei p eine natrliche Zahl. Dann ist
dim
F

p
V =
_
0 wenn p > n,
_
n
p
_
wenn p n.
Beweis: Folgt sofort aus Satz 10.4.8.
10.4.10 Folgerung. Sei V ein Vektorraum ber dem Krper F mit dim
F
V = n.
Dann sind die n Vektoren v
1
, v
2
, . . . , v
n
V genau dann linear abhngig, wenn
v
1
v
2
v
n
= 0 ist.
Beweis: Sind die nVektoren v
1
, v
2
, . . . , v
n
linear abhngig ber F, dann kann nach
Umnumerierung angenommen werden, da v
1
=

n
i=2
v
i
f
i
fr geeignete f
i
F
ist. Nach Hilfssatz 10.4.2 folgt
v
1
(v
2
v
3
v
n
) =
n

i=2
[v
i
(v
2
v
3
v
n
)]f
i
= 0.
Die umgekehrte Richtung folgt unmittelbar aus Folgerung 10.4.9.
298 10 Multilineare Algebra
10.5 Determinante eines Endomorphismus
Sei M ein endlich erzeugter, freier R-Modul ber dem kommutativen Ring R mit
Einselement. Mit Hilfe von Satz 10.4.8 ist es nun einfach, jedem Endomorphismus
End
R
(M) ein eindeutig bestimmtes Element det() R zuzuordnen, das die
Determinante von genannt wird. Alle Ergebnisse des Kapitels 5ber Determinanten
von Endomorphismen eines Vektorraums V ber einem Krper F ergeben sich als
Spezialflle der hier entwickelten Theorie.
10.5.1 Satz. Sei p 2 und M ein R-Modul ber dem kommutativen Ring R. Dann
existiert zu jedem Endomorphismus End
R
(M) genau ein Endomorphismus
_
p
End
R
_ _
p
M
_
mit der Eigenschaft, da
_

_
(m
1
m
2
m
p
) = (m
1
) (m
2
) (m
p
)
fr alle m
i
M, 1 i p gilt.
Beweis: Sei End
R
(M) fest gewhlt. Die Abbildung : M
p

_
p
M, die
gegeben ist durch
(m
1
, m
2
, . . . , m
p
) = (m
1
) (m
2
) (m
p
),
ist p-fach linear und alternierend. Also existiert nach Satz 10.4.5 genau ein

Hom
R
_ _
p
M,
_
p
M
_
derart, da

(m
1
m
2
m
p
) = (m
1
, m
2
, . . . , m
p
) = (m
1
) (m
2
) (m
p
)
fr alle m
1
, m
2
, . . . , m
p
M gilt. Die Behauptung folgt dann mit
_
p
=


End
R
_ _
p
M
_
.
10.5.2 Denition. Sei p 1 eine natrliche Zahl und ein Endomorphismus des
R-Moduls M. Der nach Satz 10.5.1 durch eindeutig bestimmte Endomorphismus
_
p
der p-ten ueren Potenz
_
p
M von M heit die p-te uere Potenz des
Endomorphismus .
10.5.3 Satz. Sei M ein freier R-Modul mit rg(M) = n > 0. Dann gibt es zu jedem
End
R
(M) genau ein r

R mit
_

_
(m
1
m
n
) = (m
1
m
n
) r

fr alle m
1
m
n

n
M.
10.5 Determinante eines Endomorphismus 299
Beweis: Sei {b
1
, . . . , b
n
} eine Basis vonM. Dannist b
1
b
n
nachSatz 10.4.8eine
Basis des freien R-Moduls
_
n
M. Daher existiert zu jedem m
1
m
n

_
n
M
genau ein r R mit
m
1
m
n
= (b
1
b
n
)r.
Da
_
n
End
R
_ _
n
M
_
nach Satz 10.5.1 gilt, ist
_

_
(b
1
b
n
) = (b
1
b
n
)r

fr genau ein r

R.
Hieraus folgt fr beliebige m
1
, . . . , m
n
M
_

_
(m
1
m
n
) =
_

_
[(b
1
b
n
)r]
=
_
_

_
(b
1
b
n
)
_
r = (b
1
b
n
)r

r
= [(b
1
b
n
)r] r

= (m
1
m
n
)r

.

10.5.4 Denition. Sei M ein freier R-Modul mit rg(M) = n > 0. Die Determinante
des Endomorphismus von M ist das nach Satz 10.5.3 durch eindeutig bestimmte
Ringelement r

.
Bezeichnung: det() = r

.
10.5.5 Bemerkung. Sei M ein freier R-Modul mit rg(M) = n > 0. Dann ist
_
n
id
die Identitt auf
_
n
M, und det(id) = 1.
10.5.6 Satz. Sei M ein freier R-Modul mit rg(M) = n > 0. Seien , End
R
(M)
Endomorphismen von M. Dann gelten
(a) det() = det() det().
(b) Ist invertierbar, so ist det(
1
) = (det())
1
R.
Beweis: (a) Seien
_
n
,
_
n
und
_
n
() die n-ten ueren Potenzen von ,
und (). Sei {m
i
M | 1 i n} eine Basis des freien R-Moduls M. Nach
Denition 10.5.4 ist dann

n
()(m
1
m
2
m
n
) = (m
1
m
2
m
n
) det().
300 10 Multilineare Algebra
Wegen End
R
(M) folgt aus Denition 10.5.2, da

n
()(m
1
m
2
m
n
) = (m
1
) (m
2
) (m
n
)
=
_

_
((m
1
) (m
2
) (m
n
))
=
_
_

_
(m
1
m
2
m
n
)
_
det()
= [(m
1
) (m
2
) (m
n
)] det()
= (m
1
m
2
m
n
) det() det().
Nach Satz 10.4.8 ist m
1
m
2
m
n
eine Basis des freien R-Moduls
_
n
M.
Also ist det() = det() det().
(b) Ist invertierbar, so ist
1
= id. Nach Bemerkung 10.5.5 und (a) folgt
1 = det(id) = det(
1
) = det() det(
1
).
10.5.7 Satz. Sei M ein freier R-Modul mit Basis B = {m
i
| 1 i n}. Der
Endomorphismus End
R
(M) habe bezglich B die Matrix A

(B, B) = (a
ij
).
Dann hat die Determinante
det =

S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
.
Beweis: Nach Denition 10.5.2 und den Hilfsstzen 10.4.2 und 10.4.3 gelten die
folgenden Gleichungen:
_

_
(m
1
m
n
) = m
1
m
n
=
_
n

i=1
m
i
a
i1
_

_
n

i=1
m
i
a
i2
_

_
n

i=1
m
i
a
in
_
=
n

j
1
=1
n

j
2
=2

n

j
n
=n
m
j
1
m
j
2
m
j
n
(a
j
1
,1
a
j
2
,2
. . . a
j
n
,n
),
wobei (j
1
, j
2
, . . . , j
n
) alle Permutationender Menge {1, 2, . . . , n} durchluft. Wegen
Hilfssatz 10.4.3 gilt daher, da
_

_
(m
1
m
n
) = (m
1
m
n
)
_

S
n
(sign )a
(1),1
a
(2),2
. . . a
(n),n
_
10.6 Aufgaben 301
ist. Da m
1
m
2
m
n
eine Basis des freien R-Moduls
_
n
M ist, folgt aus
Denition 10.5.4, da
det =

S
n
(sign )a
(1),1
a
(2),2
. . . a
(n),n
.
Mit durchluft auch
1
alle Elemente der symmetrischen Gruppe, woraus
det =

S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
folgt.
10.5.8 Denition. Sei A = (a
ij
) eine n n-Matrix mit Koefzienten a
ij
aus dem
kommutativen Ring R. Dann ist die Determinante det(A) von A das eindeutig be-
stimmte Ringelement
det(A) =

S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
.
10.5.9 Bemerkung. Wegen Satz 10.5.7 ist die Denition 5.3.4 der Determinante ei-
ner nn-Matrix mit Koefzienten a
ij
aus einemKrper F ein Spezialfall von 10.5.8.
10.6 Aufgaben
10.1 Sei F ein kommutativer Krper und (M
F
N, t ) das Tensorprodukt der F-Vektorrume
M und N. Seien U M und V N F-Unterrume. Zeigen Sie:
(a) U N

= t (U N) = u n | u U, n N M N.
(b) M/U N/V

= (M
R
N)/[t (U N) +t (M V)].
10.2 Der Krper Qder rationalen Zahlen sei als Z-Modul aufgefat. Zeigen Sie:
_
2
Q = 0.
10.3 Seien A, A

zwei n n-Matrizen und B, B

zwei mm-Matrizen ber dem Krper


F. Zeigen Sie:
(a) (AB) (A

) = (A A

) (B B

).
(b) Sind jeweils A, A

und B, B

hnliche Matrizen, so sind auch die Matrizen A B


und A

hnlich.
(c) Ist c F ein Eigenwert von Aund d F ein Eigenwert von B, so ist cd ein Eigenwert
von AB.
10.4 Sei Aeine n n-Matrix und B eine mm-Matrix. Zeigen Sie:
(a) tr(AB) = tr(A) tr(B).
302 10 Multilineare Algebra
(b) det(AB) = det(A)
m
det(B)
n
.
10.5 Seien M und N zwei endlich-dimensionale F-Vektorrume. Zeigen Sie, da durch
( n) = n(m) fr alle m M, n N und M

= Hom(M, F) ein Vektorraumiso-


morphismus : M

F
N Hom
F
(M, N) beschrieben ist.
10.6 Es sei W ein Unterraum des F-Vektorraums V. Die p-Vektoren x
1
x
p
, bei
denen mindestens einer der Vektoren x
1
, . . . , x
p
in W liegt, spannen dann einen Unterraum
W
p
von
_
p
V auf. Zeigen Sie, da
_
p
(V/W)

=
_ _
p
V
_
/W
p
.
10.7 Es gelte Z = V Y. Beweisen Sie die Isomorphie
_
p
Z

=
p

q=0
__ _
q
V
_

_ _
pq
Y
__
.
10.8 Es sei V der dreidimensionale arithmetische Vektorraum ber F = Z/2Z. Bestim-
men Sie alle zweifach alternierenden Abbildungen von V in F, eine Basis des Vektorraums
Alt
F
(2, V, F), sowie seine Dimension.
10.9 Sei R ein kommutativer Ring mit Einselement und A = (a
ij
) eine n n-Matrix mit
Koefzienten a
ij
R. Zeigen Sie, da A genau dann invertierbar ist, wenn det(A) eine
Einheit in R ist.
10.10 Sei {u
1
, u
2
, . . . , u
m
} eine Basis des Unterraums U des Vektorraums V ber dem
beliebigen Krper F. Zeigen Sie:
U = {v V | v u
1
u
2
u
m
= 0}.
11 Moduln ber Hauptidealringen
So wie sich bekanntlich im Ring Z der ganzen Zahlen jede ganze Zahl z eindeu-
tig in ein Produkt von Primzahlpotenzen p
n
i
i
zerlegen lt, hat auch jedes Polynom
f (X) aus dem Polynomring F[X] eine eindeutige Primfaktorzerlegung in Poten-
zen q
i
(X)
n
i
von irreduziblen Polynomen q
i
(X). Im ersten Abschnitt werden diese
gemeinsamen arithmetischen Eigenschaften von Z und F[X] im Rahmen der eukli-
dischen Ringe hergeleitet. Es wird gezeigt, da jeder euklidische Ring R ein Haupt-
idealring ist. Fr allgemeine Hauptidealringe R wird die Existenz und Eindeutigkeit
der Faktorzerlegung eines Elementes a R, das von Null verschieden und keine
Einheit ist, in Primfaktoren nachgewiesen.
In Abschnitt 2 wird gezeigt, da jeder endlich erzeugte R-Modul M ber einem
Hauptidealring R eine direkte Summe seines Torsionsuntermoduls T (M) und eines
freien Untermoduls U ist.
Mit den arithmetischen Ergebnissen des Abschnitts 1 wird im dritten und vierten
Abschnitt die Struktur des Torsionsmoduls T (M) beschrieben. Insbesondere wird
gezeigt, da T (M) die direkte Summe seiner Primrkomponenten T (M)
p
ist. Jede
Komponente T (M)
p
ist eine eindeutig bestimmte direkte Summe von zyklischen
Moduln. Ihre Ordnungen heien Elementarteiler. Sie bestimmen den R-Modul T (M)
bis auf Isomorphie eindeutig. Aus diesem Struktursatz endlich erzeugter Moduln M
ber einem Hauptidealring ergibt sich der Basissatz fr endlich erzeugte abelsche
Gruppen als Spezialfall.
Im fnften Abschnitt wird als weitere Folgerung des Struktursatzes der Ele-
mentarteilersatz fr m n-Matrizen A = (a
ij
) mit Koefzienten a
ij
aus einem
Hauptidealring R bewiesen. Dabei werden die Beziehungen zwischen den Ele-
mentarteilerbegriffen der Modultheorie und der Matrizentheorie aufgezeigt. Danach
wird der Smith-Algorithmus fr die Berechnung der Elementarteiler einer m n-
Matrix Aber einemHauptidealring Rdargestellt. Schlielich wird gezeigt, da man
den Rang und die Elementarteiler eines endlich erzeugten R-Moduls M mittels des
Smith-Algorithmus aus der Relationenmatrix R einer freien Auflsung von M be-
rechnen kann. Fr euklidische Ringe R ergibt sich, da man die Elementarteiler von
A bzw. R sogar durch endlich viele elementare Spalten- und Zeilenumformungen
erhlt.
Alle in diesem Kapitel betrachteten Ringe R sind kommutativ und haben ein
Einselement.
304 11 Moduln ber Hauptidealringen
11.1 Eindeutige Faktorzerlegung in Hauptidealringen
In diesem Abschnitt wird die Arithmetik der nullteilerfreien, kommutativen Haupt-
idealringe R entwickelt. Insbesondere wird gezeigt, da jedes Element r = 0 von
R, das keine Einheit ist, sich eindeutig in Potenzen von Primelementen faktorisie-
ren lt. Im Spezialfall R = F[X] des Polynomrings in der Unbestimmten X ber
dem Krper F lt sich mittels des ebenfalls dargestellten euklidischen Algorith-
mus der grte gemeinsame Teiler von zwei gegebenen Elementen r, s R effektiv
berechnen.
11.1.1 Denition. Der Ring R heit nullteilerfrei, wenn ab = 0 stets a = 0 oder
b = 0 impliziert.
11.1.2 Bemerkung. In nullteilerfreien Ringen R gilt die Krzungsregel: ac = bc
mit c = 0 impliziert a = b. Dies folgt aus der Gleichung (a b)c = ac bc = 0.
11.1.3 Beispiele.
(a) Jeder Krper F ist nullteilerfrei.
(b) Der Polynomring R = F[X] ist nullteilerfrei.
(c) R =
_
a
b
Q | a, b Z, b wird nicht von 2 geteilt
_
ist ein nullteilerfreier
Ring.
So wie der Ring Z der ganzen Zahlen ein Unterring im Krper Q der ratio-
nalen Zahlen ist, so kann auch jeder nullteilerfreie kommutative Ring R in seinen
Quotientenkrper Q(R) eingebettet werden, wie nun gezeigt wird.
11.1.4 Satz. Sei R ein nullteilerfreier kommutativer Ring. Auf der Menge Maller
Paare (a, b) R R mit b = 0 sei die Relation deniert durch: (a, b)
(a

, b

) genau dann, wenn ab

= a

b in R erfllt ist. Dann gelten die folgenden


Behauptungen:
(a) Die Relation ist eine quivalenzrelation.
(b) Die Menge Q der quivalenzklassen
a
b
= {(a

, b

) M | (a

, b

) (a, b)}
der Paare (a, b) Mbilden bezglich der
Addition
a
b
+
c
d
=
ad +bc
bd
und
Multiplikation
a
b

c
d
=
ac
bd
fr alle
a
b
,
c
d
Q einen kommutativen Krper.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen 305
(c) Durch die Einbettung r
r
1
Q fr alle r R wird R ein Unterring von Q
mit demselben Einselement 1 =
1
1
.
(d) Q ist ein R-Modul bezglich der Verknpfung
a
b
r =
ar
b
fr alle
a
b
Q und r R.
Der Krper Q = Q(R) heit der Quotientenkrper von R.
Beweis: (a) Trivialerweise ist reexiv und symmetrisch. Da R nullteilerfrei ist,
folgt aus ab

= a

b und a

= a

, da a(b

) = a

(bb

) = a

(b

b) und so auch
ab

= a

b gilt. Also ist transitiv.


(b) Die Addition ist wohldeniert; denn aus
a
b
=
a

und
c
d
=
c

folgt
a

+
c

=
a

+b

=
ad+bc
bd
=
a
b
+
c
d
, weil (a

+ b

)bd = a

bdd

+ c

dbb

= ab

dd

+
cd

bb

= (ad +bc)b

.
Ebenso zeigt man die Wohldeniertheit der Multiplikation. Da R kommutativ
und assoziativ bezglich +und ist, folgt dies auch fr Q aus den Rechenregeln fr
die Addition und Multiplikation in Q. Ebenso gelten die Distributivgesetze. In Q ist
1 =
1
1
= {(a, a) | a R, a = 0} das Einselement, 0 =
0
1
= {(0, b) | b R, b =
0} das Nullelement und beide sind verschieden. Weiter hat jedes
a
b
= 0 aus Q das
Inverse
b
a
. Also ist Q ein Krper.
Die Behauptungen (c) und (d) sind nun einfach zu verizieren.
11.1.5 Denition. Ein Ring R heit euklidischer Ring, wenn er nullteilerfrei ist und
eine Norm : R \ {0} N besitzt, die folgende Bedingungen erfllt:
(a) Aus a = 0, b = 0 folgt (a b) (a).
(b) Zu je zwei Elementen a, b R mit b = 0 gibt es Elemente q, r R mit
a = b q +r und (r) < (b) oder r = 0 (Division mit Rest).
11.1.6 Beispiele.
(a) Z ist ein euklidischer Ring, wenn man die Norm durch (n) = |n| deniert.
(b) Der Polynomring F[X] ber einem Krper F wird durch die Normdenition
(f ) = Grad f zu einem euklidischen Ring.
(c) Die Division mit Rest kann im Polynomring F[X] nach dem bekannten Divi-
sionsschema erfolgen, das am Beispiel der Polynome
f (X) = 4X
3
+8X
2
+X 2, g(X) = 2X
2
+X +2
aus Q[X] erlutert sei. Man erhlt
306 11 Moduln ber Hauptidealringen
4X
3
+8X
2
+ X 2 = (2X
2
+X +2)(2X +3),
4X
3
+2X
2
+4X
6X
2
3X 2
6X
2
+3X +6
6X 8
also f = q g + r mit q(X) = 2X + 3 und r(X) = 6X 8, wobei auch
(r) = 1 < 2 = (g) erfllt ist.
11.1.7 Bemerkung. Die Ungleichung (b) fr die Normen wird beweistechnisch hu-
g folgendermaen ausgenutzt: Da die Normwerte (a) nicht-negative ganze Zahlen
sind, mu eine echt abnehmende Folge von Normwerten nach endlich vielen Glie-
dern abbrechen.
11.1.8 Denition. Der kommutative Ring R heit Hauptidealring (HIR), wenn er
nullteilerfrei ist und wenn jedes Ideal Y von R ein Hauptideal ist.
11.1.9 Satz. Jeder euklidische Ring R ist ein Hauptidealring.
Beweis: Sei Y = 0 ein Ideal von R. Sei : R N die Normfunktion des euklidi-
schen Ringes R. Die Menge M = {(y) | y Y, y = 0} von natrlichen Zahlen
besitzt ein kleinstes Element (y
0
). Nach Denition 11.1.5 (b) existieren zu jedem
y Y Elemente q, r R mit y = y
0
q + r derart, da (r) < (y
0
) oder r = 0
ist. Nun ist r = y y
0
q Y, weil Y ein Ideal von R ist. Da (y
0
) ein minimales
Element von Mist, folgt r = 0. Also ist y = y
0
q, woraus Y = y
0
R folgt.
11.1.10 Folgerung. (a) Der Ring Z der ganzen Zahlen ist ein Hauptidealring.
(b) Fr jeden Krper F ist der Polynomring R = F[X] ein Hauptidealring.
Beweis: Nach Bemerkung 11.1.6 sind Z und R = F[X] euklidische Ringe. Also
sind sie beide Hauptidealringe nach Satz 11.1.9.
11.1.11 Beispiel. R = Z[X] ist kein Hauptidealring, weil z. B. das Ideal Y =
2R + XR nicht von einem Element erzeugt wird. Denn wre Y = pR fr ein
Polynom p = p(X) = p
0
+p
1
X + +p
n
X
n
mit p
i
Z, 1 i n, dann wre
auch 2 Y von der Form 2 = p(X) r(X) fr ein r(X) R. Da 2 den Grad 0 in der
Unbestimmten X hat, folgt p = p
0
= 2. Wegen X Y wre dann aber X = 2g(X)
fr ein g(X) R. Widerspruch!
11.1.12 Denition. Zwei Elemente p, q Rheien assoziiert, wenn es eine Einheit
u R mit p = qu gibt.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen 307
11.1.13 Denition. Ein Element t R teilt das Element a R, wenn a = t r fr
ein r R gilt.
Bezeichnung: t |
| a.
11.1.14 Denition. Ein Element c R heit ein grter gemeinsamer Teiler (ggT)
von a, b R, wenn die beiden folgenden Bedingungen gelten:
(a) c |
| a und c |
| b.
(b) Fr jedes t R folgt aus t |
| a und t |
| b auch t |
| c.
Bezeichnung: ggT(a, b).
11.1.15 Denition. Ein Element v R heit ein kleinstes gemeinsames Vielfaches
(kgV) von a, b R, wenn die beiden folgenden Bedingungen gelten:
(a) a |
| v und b |
| v.
(b) Fr jedes y R folgt aus a |
| y und b |
| y auch v |
| y.
Bezeichnung: kgV(a, b).
11.1.16 Bemerkung. Ist u eine Einheit von R, so teilen u und u
1
jedes Element
von R. Zwei Elemente a, b Rsind daher genau dann assoziiert, wenn sie sich wech-
selseitig teilen. Zwei grte gemeinsame Teiler von a und b mssen sich gegenseitig
teilen, sind also assoziiert; und umgekehrt ist jedes zu einem grten gemeinsamen
Teiler assozierte Element ebenfalls ein grter gemeinsamer Teiler. Dieser ist also
durch a, b bis auf Assoziiertheit eindeutig bestimmt. Man spricht daher in diesem
Sinne von dem grten gemeinsamen Teiler. Entsprechendes gilt fr das kleinste
gemeinsame Vielfache.
Zwei Elemente a, b R heien teilerfremd, wenn ggT (a, b) = 1 ist.
11.1.17 Satz. Sei R ein Hauptidealring und seien a, b R. Dann gelten:
(a) c R ist ein ggT von a und b genau dann, wenn cR = aR +bR.
(b) v R ist ein kgV von a und b genau dann, wenn vR = aR bR.
Beweis: (a) Aus c cR = aR+bR folgt c|
| a und c|
| b. Ist t ein gemeinsamer Teiler
von a und b, so ist a = t a
1
t R und b = t b
1
t R. Hieraus folgt
cR = aR +bR t R +t R = t R.
Also ist c = t r fr ein r R.
Ist umgekehrt c = ggT(a, b), so ist aR cRund bR cR. Also gilt aR+bR
cR. Da R ein Hauptidealring ist, existiert ein d R mit dR = aR + bR. Es folgt
d |
| a und d |
| b. Deshalb gilt d |
| c, woraus cR dR und somit cR = aR +bR folgt.
308 11 Moduln ber Hauptidealringen
(b) Ist vR = aR bR, so ist v = au = br fr geeignete u, r R. Also ist
v ein Vielfaches von a und b. Ist w ein weiteres Vielfaches von a und b, so gilt
w = ax = by fr Elemente x, y R. Also ist w aR bR = vR. Daher ist
w = vz. Deshalb ist v ein kleinstes gemeinsames Vielfaches von a und b. Aus
v = kgV(a, b) folgt vR aR und vR bR. Da R ein Hauptidealring ist, ist
aR bR = dR fr ein d R. Also ist d ein Vielfaches von a und b, also auch von
v. Hieraus folgt
vR aR bR = dR vR, d. h. vR = aR bR.
11.1.18 Denition. Ein von Null verschiedenes Element p des nullteilerfreien Rin-
ges R heit Primelement oder prim, wenn es keine Einheit ist und wenn fr alle a,
b R aus p |
| ab stets p |
| a oder p |
| b folgt.
11.1.19 Denition. Ein von Null verschiedenes Element p R heit unzerlegbar,
wenn p keine Einheit in R ist und aus p = xy stets folgt, da entweder x oder y
eine Einheit ist.
11.1.20 Denition. Im Polynomring R = F[X] ber dem Krper F wird ein un-
zerlegbares Polynom p = p(X) ein irreduzibles Polynom genannt.
Ist F = R der Krper der reellen Zahlen, so ist z. B. p(X) = X
2
+ 1 ein
irreduzibles Polynom in R[X].
11.1.21 Hilfssatz. Sei R ein Hauptidealring. Dann gelten:
(a) Das Ideal Y = 0 von R ist maximal genau dann, wenn Y = mR fr ein
unzerlegbares Element m von R gilt.
(b) Die Hauptideale mR und m
1
R sind genau dann gleich, wenn ihre Erzeuger
m und m
1
assoziiert sind.
(c) Assoziierte unzerlegbare Elemente erzeugen dasselbe maximale Ideal.
Beweis: (a) Sei Y = mR = 0 ein maximales Ideal des Hauptidealringes R. An-
genommen, es gelte m = uv fr zwei Nichteinheiten u, v R. Insbesondere ist
Y = mR uR R. Da u keine Einheit ist, ist uR = R, weil sonst 1 = uz
fr ein z R wre. Da Y ein maximales Ideal von R ist, folgt Y = uR. Also ist
u uR = mR, d. h. u = mq fr ein q R. Hieraus folgt
u = mq = uvq und so u(1 vq) = 0.
Da R nullteilerfrei ist, gilt vq = 1, d. h. v ist eine Einheit in R. Aus diesem Wider-
spruch folgt, da m unzerlegbar ist.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen 309
Sei umgekehrt Y = mR fr ein unzerlegbares m R. Da m keine Einheit ist,
gilt Y = R. Wre Y kein maximales Ideal von R, dann gbe es ein Ideal M = R von
R mit Y < M. Da R Hauptidealring ist, gilt M = t R fr eine Nichteinheit t R.
Wegen m Y = mR t R folgt m = t w fr ein w R. Da m unzerlegbar und t
keine Einheit in R ist, mu w eine Einheit in R sein. Also gilt wz = 1 fr ein z R.
Hieraus ergibt sich t = t 1 = t wz = mz mR = Y, und so M = t R Y, woraus
Y = M im Widerspruch zu Y < M folgt. Also ist Y ein maximales Ideal von R.
(b) mR = m
1
R ist quivalent dazu, da sich m und m
1
gegenseitig teilen, d. h.
assoziiert sind.
(c) Folgt unmittelbar aus (a) und (b).
11.1.22 Satz. Sei R ein Hauptidealring. Dann ist das Element p = 0 von R genau
dann unzerlegbar, wenn es ein Primelement von R ist.
Beweis: Sei p = 0 ein unzerlegbares Element derart, da p |
| ab fr zwei Elemente
a, b R gilt. Dann ist ab pR. Nach Hilfssatz 11.1.21 ist Y = pR ein maximales
Ideal von R. Daher ist F = R/Y nach Satz 9.1.8 ein Krper. Wegen [a] [b] = [0]
F folgt [a] = [0] oder [b] = [0]. Also ist a Y = pR oder b Y = pR, d. h. p |
| a
oder p |
| b.
Sei umgekehrt p = 0 ein Primelement derart, da p = xy fr zwei Elemente x,
y R gilt. Man erhlt p |
| x oder p |
| y. Im ersten Fall gilt x = pr fr ein r R.
Hieraus folgt
p = xy = p(ry) und so p(1 ry) = 0.
Da R nullteilerfrei ist, ist 1 = ry. Deshalb ist y eine Einheit in R. Ebenso folgt im
zweiten Fall, da x eine Einheit in R ist. Daher ist p ein unzerlegbares Element im
Sinne der Denition 11.1.19.
Der letzte Teil dieses Beweises zeigt, da Primelemente schon in beliebigen
nullteilerfreien Ringen unzerlegbar sind. In Hauptidealringen bevorzugen wir das
Wort Primelement.
11.1.23 Beispiele.
(a) Jede Primzahl p Zist Primelement imHauptidealring Z. In Zsind 1 und 1
die einzigen Einheiten. Fr jede Zahl n Z sind genau n und n assoziiert.
(b) Ein Polynomf (X) C[X] ist nach dem Hauptsatz der Algebra (1.4.4) genau
dann ein Primelement, wenn f (X) = X c fr eine komplexe Zahl c C
gilt.
(c) Die Konstanten f = 0 aus dem Krper F sind die Einheiten im Polynomring
R = F[X]. Zwei Primelemente p(X), q(X) R = F[X] sind genau dann
assoziiert, wenn p(X) = f q(X) fr ein f = 0 aus F gilt.
310 11 Moduln ber Hauptidealringen
(d) Fr jede Primzahl p des Ringes Z der ganzen Zahlen ist der Restklassenring
Z/pZein endlicher Krper mit |p| Elementen. Dies folgt aus Hilfssatz 11.1.21
und Satz 9.1.8(b).
11.1.24 Denition. Ein nullteilerfreier kommutativer Ring R heit Ring mit eindeu-
tiger Faktorzerlegung (ZPE-Ring), wenn die beiden folgenden Bedingungen erfllt
sind:
(a) Jedes Element r R, das weder 0 noch eine Einheit ist, ist ein Produkt
von endlich vielen, nicht notwendig verschiedenen Primelementen p
i
, i =
1, 2, . . . , n, d. h.
r = p
1
p
2
. . . p
n
.
(b) Sind r = p
1
p
2
. . . p
n
= q
1
q
2
. . . q
m
zwei Zerlegungen des Elementes
r R in Primfaktoren p
i
bzw. q
j
, so gilt:
(i) n = m, und
(ii) es gibt eine Permutation der Ziffern {1, 2, . . . , n} derart, da p
i
asso-
ziiert ist zu q
(i)
.
11.1.25 Hilfssatz. Mit den Bezeichnungen von Denition 11.1.24 gilt: Die Bedin-
gung (b) ist eine Folge von (a).
Beweis: Angenommen, die Nichteinheit 0 = r R htte zwei Zerlegungen
r = p
1
p
2
. . . p
n
= q
1
q
2
. . . q
m
in Primfaktoren p
i
bzw. q
j
von R, wobei n m angenommen wird. Dann ist r kein
Primelement, weil sonst r = p
1
zu q
1
nach Hilfssatz 11.1.21 assoziiert wre.
Die Bedingung (b) von Denition 11.1.24 sei fr alle Primfaktorzerlegungen mit
n 1 Primelementen p
i
bewiesen. Da p
1
ein Primelement ist, folgt p
1
|
| q
j
fr ein
j {1, 2, . . . m}. Also existiert ein r
j
R mit q
j
= p
1
r
j
. Daher ist r
j
eine Einheit
nach Satz 11.1.22. Nach Umnumerierung kann angenommen werden, da j = 1
und
p
1
(p
2
p
3
. . . p
n
) = r = q
1
q
2
. . . q
m
= p
1
(r
1
q
2
q
3
. . . q
m
).
Da R nullteilerfrei ist, folgt
(r
1
1
p
2
)p
3
. . . p
n
= q
2
q
3
. . . q
m
durch Krzen. Das Produkt auf der linken Seite hat n 1 Primfaktoren. Also folgt
nach Induktionsannahme, da n = m, und da p
i
zu q
(i)
assoziiert ist, wobei
eine Permutation der Ziffern {1, 2, . . . , n} ist.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen 311
11.1.26 Hilfssatz. Sei R ein Hauptidealring. Dann ist jede echt aufsteigende Kette
Y
1
< Y
2
< < Y
k
< Y
k+1
< von Idealen Y
i
von R endlich.
Beweis: Wenn die Behauptung des Hilfssatzes falsch wre, dann gbe es eine ab-
zhlbar unendliche, echt aufsteigende Kette
Y
1
< Y
2
< Y
3
< < Y
k
< Y
k+1
< ()
von Idealen Y
k
, k = 1, 2, . . . , von R. Sei Y =

k=1
Y
k
. Dann ist Y ein Ideal von R:
Aus y
1
, y
2
Y folgt y
1
Y
i
und y
2
Y
j
fr geeignete Indizes i, j. Da Y
i
und Y
j
zur Kette () gehren, kann Y
i
< Y
j
angenommen werden. Also sind y
1
, y
2
Y
j
.
Da Y
j
ein Ideal von R ist, ist y
1
+y
2
Y
j
Y. Ebenso zeigt man, da yr Y fr
alle y Y und r R gilt. Daher gibt es ein y Y mit Y = yR; denn R ist ein
Hauptidealring. Wegen Y =

k=1
Y
k
gibt es eine kleinste natrliche Zahl k 1 mit
y Y
k
. Dann ist Y = yR Y
k
< Y
k+1
Y. Aus diesem Widerspruch folgt die
Gltigkeit der Behauptung.
11.1.27 Satz. Jeder Hauptidealring R ist ein ZPE-Ring.
Beweis: Wegen Hilfssatz 11.1.25 ist nur die Bedingung (a) der Denition 11.1.24
nachzuweisen. Angenommen, die Nichteinheit 0 = r R liee sich nicht in ein
Produkt p
1
p
2
. . . p
n
von endlich vielen Primelementen p
i
aus R zerlegen. Dann ist
r kein Primelement. Nach Satz 11.1.22 ist r nicht unzerlegbar, d. h. r = r
0
= r
1
s
1
,
wobei weder r
1
noch s
1
Einheiten in R sind; auerdem kann angenommen werden,
da r
1
kein Produkt von Primelementen ist. Nach Hilfssatz 11.1.21(b) folgt rR =
r
0
R < r
1
R, weil s
1
keine Einheit ist. Wendet man nun dieses Argument auf r
1
an,
so erhlt man schlielich eine unendlich echt aufsteigende Kette r
0
R < r
1
R <
r
2
R < . Dies widerspricht Hilfssatz 11.1.26.
Der grte gemeinsame Teiler und das kleinste gemeinsame Vielfache existie-
ren allgemeiner auch in ZPE-Ringen und knnen in bekannter Weise mittels Prim-
faktorzerlegung bestimmt werden. Speziell in euklidischen Ringen gibt es fr ihre
Berechnung einen Algorithmus.
11.1.28 Satz (Euklidischer Algorithmus). Sei R ein euklidischer Ring mit Norm .
Dann berechnet man den grten gemeinsamen Teiler von zwei Elementen a
0
und
a
1
aus R durch folgende Kette von Divisionen mit Rest:
a
0
= q
1
a
1
+a
2
mit (a
2
) < (a
1
),
a
1
= q
2
a
2
+a
3
mit (a
3
) < (a
2
),
.
.
.
a
n2
= q
n1
a
n1
+a
n
mit (a
n
) < (a
n1
),
a
n1
= q
n
a
n
.
Dann ist a
n
= ggT(a
0
, a
1
). Weiter ist kgV(a
0
, a
1
) =
a
0
a
1
a
n
.
312 11 Moduln ber Hauptidealringen
Beweis: Nach Bemerkung 11.1.7 mu in dieser Kette nach endlich vielen Schritten
der Rest Null auftreten. Aus der letzten Gleichung folgt a
n
|
| a
n1
, aus der vorletzten
a
n
|
|a
n2
. So fortfahrend ergibt sich schlielich aus der zweiten Gleichung a
n
|
|a
1
und
aus der ersten a
n
|
| a
0
. Daher ist a
n
gemeinsamer Teiler von a
0
und a
1
. Gilt umgekehrt
d |
| a
0
und d |
| a
1
, so folgt aus der ersten Gleichung d |
| a
2
und nach Durchlaufung
der Kette schlielich d |
| a
n
. Daher ist a
n
auch grter gemeinsamer Teiler, und
kgV(a
0
, a
1
) = (a
0
a
1
)(a
n
)
1
.
11.2 Torsionsmodul eines endlich erzeugten Moduls
In diesem Abschnitt ist R stets ein nullteilerfreier kommutativer Ring. Es wird ge-
zeigt, da die Menge T (M) der Torsionselemente eines R-Moduls M einen Unter-
modul T (M) bilden. Er heit Torsionsuntermodul von M und spielt in der Modul-
theorie eine wichtige Rolle. Ist R ein Hauptidealring und M ein endlich erzeugter
R-Modul, dann besagt das Hauptergebnis dieses Abschnitts, da M eine direkte Zer-
legung M = T (M) U in den Torsionsuntermodul T (M) von M und einen freien
R-Untermodul U besitzt.
11.2.1 Denition. Sei M ein R-Modul ber demnullteilerfreien kommutativen Ring
R. Ein Element m M heit ein Torsionselement, wenn mr = 0 fr ein r = 0 aus
R gilt. M heit torsionsfrei, wenn 0 das einzige Torsionselement von M ist.
11.2.2 Hilfssatz. Sei Rein nullteilerfreier kommutativer Ring. Dann gelten fr jeden
R-Modul M die folgenden Aussagen:
(a) Die Gesamtheit T (M) der Torsionselemente von M ist ein Untermodul von
M.
(b) M/T (M) ist torsionsfrei.
Beweis: (a) Sind m
1
, m
2
T (M), dann existieren 0 = r
i
R mit m
i
r
i
= 0
fr i = 1, 2. Da R nullteilerfrei ist, gilt c = r
1
r
2
= 0. Nun ist (m
1
+ m
2
)c =
(m
1
r
1
)r
2
+ (m
2
r
2
)r
1
= 0 + 0 = 0. Ebenso folgt m
1
(r
1
r) = (mr
1
)r = 0 fr alle
r R. Also ist T (M) ein Untermodul von M.
(b) Sei [m] = m+T (M) ein Torsionselement von M/T (M). Dann existiert ein
0 = r R mit [m] r = 0. Nach Hilfssatz 9.2.14 ist dann mr T (M). Also gibt
es ein 0 = s R mit (mr)s = 0. Da R nullteilerfrei ist, gilt rs = 0. Deshalb ist
m T (M) und [m] = 0.
11.2.3 Denition. Sei M ein R-Modul. Der nach Hilfssatz 11.2.2 eindeutig be-
stimmte Untermodul T (M) aller Torsionselemente von M heit der Torsionsunter-
modul von M.
11.2 Torsionsmodul eines endlich erzeugten Moduls 313
M heit Torsionsmodul, wenn M = T (M) gilt.
11.2.4 Hilfssatz. Sei R ein nullteilerfreier Ring. Dann gelten:
(a) Epimorphe Bilder von Torsionsmoduln sind Torsionsmoduln.
(b) Summen von Torsionsmoduln sind Torsionsmoduln.
Beweis: (a) Sei ein R-Modulepimorphismus vom Torsionsmodul M auf N. Ist
mr = 0 fr m M und 0 = r R, so ist (m) r = (mr) = 0. Also ist
N = (M) Torsionsmodul.
(b) Zeigt man analog wie die Aussage (a) von Hilfssatz 11.2.2, weil in einer
Summe jedes Element eine Darstellung als Summe von endlich vielen Summanden
hat, die in diesem Fall alle Torsionselemente sind.
Fr endlich erzeugte torsionsfreie R-Moduln M ber einem Hauptidealring R
wird nun der Basissatz bewiesen, der dem fr endlich-dimensionale Vektorrume
entspricht.
11.2.5 Hilfssatz. Sei M ein endlich erzeugter R-Modul ber dem Hauptidealring
R mit einem Erzeugendensystem S, das aus k Elementen besteht. Dann wird jeder
Untermodul U von M von hchstens k Elementen erzeugt.
Beweis: Durch vollstndige Induktion nach k. Ist k = 1, so ist M = mR. Die
Abbildung : r mr, r R, ist ein R-Modulepimorphismus von R auf M = mR
mit Ker() = {s R | ms = 0}. Sei U ein Untermodul von M. Nach Satz 9.2.12
ist Y = {t R | (t ) = mt U} ein R-Untermodul von R mit (Y) = U und
Ker() Y. Da jeder Untermodul des Hauptidealrings R ein Hauptideal ist, gilt
Y = yR fr ein y Y. Hieraus folgt, U = (Y) = (y)R. Also wird auch U von
einem Element erzeugt.
Unter der Voraussetzung, da die Behauptung des Hilfssatzes fr k = n 1 gilt,
wird sie nun fr k = n bewiesen.
Sei M = m
1
R + + m
n
R von den n Elementen m
i
M erzeugt. Ist D =
Um
n
R, dann ist D nach demFall k = 1 ein zyklischer R-Modul, d. h. D = dR fr
ein d D. Nun ist U/D

= (U+m
n
R)/m
n
R = V nach demzweiten Isomorphiesatz
9.2.17. Sicherlich ist V = (U + m
n
R)/m
n
R ein R-Untermodul des Faktormoduls

M = M/m
n
R, der von den n 1 Elementen [m
i
] = m
i
+ m
n
R

M, i =
1, . . . , n1, erzeugt wird. Also wird auch V nach Induktionsannahme von hchstens
n1 Elementen erzeugt. Seien [v
i
] = u
i
+m
n
R V mit u
i
U, i = 1, . . . , s und
s n 1 Erzeuger des R-Moduls V. Dann wird U nach Hilfssatz 9.4.5 (b) von den
Elementen u
1
, . . . , u
s
und d erzeugt.
314 11 Moduln ber Hauptidealringen
11.2.6 Denition. Ist M ein endlich erzeugter R-Modul, dann ist ein endliches Er-
zeugendensystem S ein Erzeugendensystem von kleinster Elementzahl, wenn jedes
andere Erzeugendensystem T von M mindestens soviele Elemente enthlt wie S.
Da die Menge der natrlichen Zahlen wohlgeordnet ist, besitzt jeder endlich
erzeugte R-Modul M ein Erzeugendensystem von kleinster Elementzahl.
11.2.7 Satz. Jeder endlicherzeugte, torsionsfreie R-Modul M ber demHauptideal-
ring R ist frei. Insbesondere ist jedes endliche Erzeugendensystem S = {m
i
M |
1 i k} von kleinster Elementzahl eine Basis von M.
Beweis: Nach Denition 9.4.3 gengt es, die zweite Behauptung zu beweisen. Sei
S = {m
i
M | 1 i k} ein Erzeugendensystem von kleinster Elementzahl k
von M.
Ist k = 1, so ist M = m
1
R. Da M torsionsfrei ist, ist S = {m
1
} eine Basis von
M. Es wird nun angenommen, da die Behauptung fr k 1 gilt.
Sei Q der nach Satz 11.1.4 existierende Quotientenkrper von R. Da M ein
torsionsfreier R-Modul ist, ist die Abbildung : M M
R
Q, die durch (m) =
m1 fr alle m M deniert ist, ein R-Modulmonomorphismus. Daher ist S

=
{(m
i
) = m
i
1 | 1 i k} ein Erzeugendensystemdes Q-Vektorraums M
R
Q;
denn M
R
Q =

k
i=1
(m
i
)Q, weil M =

k
i=1
m
i
R.
Wre S linear abhngig ber R, dann wre
m
1
r
1
+m
2
r
2
+ +m
k
r
k
= 0 fr geeignete r
i
R,
die nicht alle gleich Null sind. Hieraus folgt
(m
1
)r
1
+(m
2
)r
2
+ +(m
k
)r
k
= 0.
Daher enthlt das ErzeugendensystemS

= {(m
i
) | 1 i k} von M
R
Qnach
Satz 2.2.7 eine echte Teilmenge B, die eine Basis des Q-Vektorraums M
R
Q ist.
Nach Umnumerierung kann angenommen werden, da
B = {(m
j
) | 1 j s} und s < k.
Insbesondere hat jedes (m
i
), 1 i k, eine eindeutige Darstellung
(m
i
) =
s

j=1
(m
j
)q
ij
mit geeigneten q
ij
Q.
Nach Satz 11.1.4 ist q
ij
=
a
ij
b
ij
mit a
ij
R und 0 = b
ij
R. Sei 0 = d R ein
nach Satz 11.1.17 (b) existierender Hauptnenner der q
ij
. Dann ist r
ij
= dq
ij
R
fr alle 1 i k und 1 j s. Weiter gilt, da
(m
i
) =
s

j=1
(m
j
)q
ij
=
s

j=1
[(m
j
)d
1
]r
ij
fr alle 1 i k.
11.3 Primrzerlegung 315
Also ist (M) =

k
i=1
(m
i
)R

s
j=1
[(m
j
)d
1
]R = U.
Da der R-Untermodul U von M
R
Q eine Basis
B

= {(m
j
)d
1
| 1 j s}
von s Elementen besitzt, wird nach Hilfssatz 11.2.5 auch der R-Untermodul
(M) von U von hchstens s Elementen erzeugt. Sicherlich ist ein R-
Modulisomorphismus von M auf (M). Also wird auch der R-Modul M von s < k
Elementen erzeugt. Dann ist aber S kein Erzeugendensystem von kleinster Elem-
entzahl k von M. Dieser Widerspruch beendet den Beweis.
Nach all diesen Vorbereitungen ist es nun einfach, den Hauptsatz dieses Ab-
schnitts zu beweisen.
11.2.8 Satz. Ist M ein endlich erzeugter R-Modul ber dem Hauptidealring R, so
gilt
M = T (M) U,
wobei der Untermodul U von M ein endlich erzeugter, freier R-Modul ist. Je zwei
Basen von U haben gleich viele Elemente.
Beweis: Nach Hilfssatz 11.2.2 ist M/T (M) ein endlich erzeugter, torsionsfreier R-
Modul. Wegen Satz 11.2.7 ist M/T (M) ein freier R-Modul. Nach Satz 9.4.8 gibt es
daher einen R-Untermodul U von M mit M = U + T (M), U T (M) = 0, und
U

= M/T (M). Daher ist U ein freier R-Modul. Nach Satz 9.4.6 sind je zwei Basen
B und B

von U gleichmchtig.
11.2.9 Denition. Sei M ein endlich erzeugter R-Modul ber dem Hauptidealring
R. Der Rang rg(M) von M ist die nach Satz 11.2.8 eindeutig bestimmte Anzahl
der Elemente einer Basis des freien R-Moduls

M = M/T (M), wobei T (M) der
Torsionsmodul von M ist.
11.3 Primrzerlegung
Die Struktur der endlich erzeugten Moduln ber einem Hauptidealring R ist voll-
stndig durch Satz 11.2.8 bestimmt, wenn die Struktur der endlich erzeugten Torsi-
onsmoduln bekannt ist. Deshalb werden in diesemAbschnitt die Torsionsmoduln in
ihre p-Komponenten zerlegt. Hierzu wird folgende Denition eingefhrt.
11.3.1 Denition. Sei p ein Element des Hauptidealrings R. Die p-Komponente M
p
des R-Moduls M ist
M
p
= {m M | mp
k
= 0 fr eine natrliche Zahl k = k(m)}.
316 11 Moduln ber Hauptidealringen
Ist p ein Primelement, so heit M
p
die Primrkomponente zum Primelement p von
R, oder auch die p-Primrkomponente.
11.3.2 Hilfssatz. Sind p und q zwei teilerfremde, von Null verschiedene Elemente
des Hauptidealrings R, so gilt fr jeden R-Modul M stets:
M
p
M
q
= 0.
Beweis: Da die Elemente p und q teilerfremd sind, ist ggT (p
u
, q
v
) = 1 fr alle
natrlichen Zahlen u und v. Ist m M
p
M
q
, dann ist mp
u
= 0 = mq
v
mit
natrlichen Zahlen u, v. Nach Satz 11.1.17 existieren Elemente a, b R derart, da
1 = p
u
a +q
v
b. Also ist m = m 1 = mp
u
a +mq
v
b = 0 +0 = 0.
11.3.3 Denition. Sei M ein R-Modul ber dem Ringe R. Dann heit
Ann(M) = {r R | mr = 0 fr alle m M}
der Annullator des Moduls M.
Ist m ein Element des R-Moduls M, so heit Ann(m) = {r R | mr = 0} der
Annullator von m.
11.3.4 Hilfssatz. Sei M ein R-Modul ber dem Ring R. Dann gelten:
(a) Der Annullator Ann(M) von M ist ein Ideal des Ringes R.
(b) Der Annullator Ann(m) eines Elementes m M ist ein Ideal von R.
(c) Ist M =

k
i=1
m
i
R ein endlich erzeugter R-Modul, so ist
Ann(M) =
k
_
i=1
Ann(m
i
).
Beweis: (a) Seien r
1
, r
2
Ann(M) und r R. Dann gelten fr alle m M die
Gleichungen
m(r
1
r
2
) = mr
1
mr
2
= 0 0 = 0, (1)
m(r
1
r) = (mr
1
)r = 0 r = 0. (2)
(b) wird analog gezeigt.
(c) Sicherlich ist Ann(M) Ann(m
i
) fr i = 1, 2, . . . , k. Sei umgekehrt r
_
k
i=1
Ann(m
i
) und m M. Dann existieren Elemente r
i
R mit m =

k
i=1
m
i
r
i
,
weil die Elemente m
1
, m
2
, . . . , m
k
den R-Modul M erzeugen. Hieraus folgt nun
mr =
_
k

i=1
m
i
r
i
_
r = (m
1
r)r
1
+(m
2
r)r
2
+ +(m
k
r)r
k
= 0.
Daher ist r Ann(M).
11.3 Primrzerlegung 317
11.3.5 Satz. Sei R ein Hauptidealring und M ein endlich erzeugter Torsionsmodul
ber R. Dann gelten folgende Aussagen:
(a) Der Annullator des R-Moduls M ist ein von Null verschiedenes Hauptideal
Ann(M) = rR von R. Das Element r ist durch M bis auf Assoziiertheit
eindeutig bestimmt.
(b) Ist r = p
k
1
1
. . . p
k
t
t
eine Faktorzerlegung von r R in Potenzen paarweise
nicht assoziierter Primelemente, so gilt
M = M
p
1
M
p
2
M
p
t
.
Die Zerlegung von M in seine Primrkomponenten M
p
i
ist eindeutig.
Beweis: (a) Sei S = {m
i
| 1 i n} ein Erzeugendensystem von kleinster
Elementzahl von M. Da M ein Torsionsmodul ist, existiert zu jedemm
i
ein r
i
= 0 in
R derart, da m
i
r
i
= 0. Also sind dieAnnullatoren Ann(m
i
) = 0 fr i = 1, 2, . . . , n.
Nach Hilfssatz 11.3.4 ist der Annullator von M das Ideal
Ann(M) =
n
_
i=1
Ann(m
i
).
Da R ein Hauptidealring ist, existieren nach Hilfssatz 11.1.21 bis auf Assoziiertheit
eindeutig bestimmte Elemente s
i
Rderart, da Ann(m
i
) = s
i
R. Nach Satz 11.1.17
ist
Ann(M) =
n
_
i=1
Ann(m
i
) =
n
_
i=1
(s
i
R) = rR,
wobei r = 0 ein kleinstes gemeinsames Vielfache der Elemente s
i
ist. Daher ist r
durch M bis auf Multiplikation mit Einheiten aus R durch M eindeutig bestimmt.
(b) Nach Satz 11.1.27 hat r die eindeutige Primfaktorzerlegung r =

t
i=1
p
k
i
i
,
wobei die Primelemente p
i
und p
j
paarweise nicht assoziiert sind, wenn t 2. Ist
t = 1, so gilt (b) nach (a). Die Behauptung (b) sei fr alle r mit t 1 verschiedenen
Primteilern p
i
bewiesen. Sei p = p
k
1
1
und q = q
k
2
2
p
k
3
3
. . . p
k
t
t
. Die Elemente p, q
R sind teilerfremd. Nach Hilfssatz 11.3.2 sind M
p
und M
q
zwei R-Untermoduln
von M mit M
p
M
q
= 0. Fr jedes m M ist mr = (mp)q = (mq)p = 0 nach
(a). Also ist mp M
q
und (mq) M
p
. Wegen ggT (p, q) = 1 existieren nach
Satz 11.1.17 Elemente a, b R mit 1 = pa +qb. Also ist
m = m1 = (mp)a +(mq)b M
q
+M
p
.
Daher ist M = M
p
M
q
, wobei M
p
= M
p
1
und nach Induktionsannahme M
q
=

t
i=2
M
p
i
ist. Also gilt (b).
318 11 Moduln ber Hauptidealringen
Die p
i
-Primrkomponenten M
p
i
sind durch die eindeutige Faktorzerlegung
r =

t
i=1
p
k
i
i
von r eindeutig bestimmte Teilmengen von M, und zwar gilt
M
p
i
= {m M | mp
k
i
i
= 0} fr i = 1, . . . , t . Also ist die direkte Zerlegung
M =

t
i=1
M
p
i
eindeutig.
11.3.6 Denition. Sei R ein Hauptidealring und M ein endlich erzeugter Torsions-
modul ber R. Das nach Satz 11.3.5 durch Ann(M) = rR bis auf Assoziiertheit
eindeutig bestimmte Element r heit die Ordnung von M.
Bezeichnung: o(M) = r.
11.3.7 Denition. Die Ordnung r eines Elementes 0 = m M ist ein Erzeuger des
Hauptideals Ann(m) = {q R | mq = 0 in M} = rR.
Bezeichnung: o(m) = r.
Nach Hilfssatz 11.1.21 ist r bis auf assoziierte Elemente durch m eindeutig
bestimmt.
11.3.8 Folgerung. (a) Ist M ein endlich erzeugter Torsionsmodul ber dem
Hauptidealring R, dann sind die Primrkomponenten M
p
i
von M eindeutig
durch die Ordnung r = o(M) R bestimmt.
(b) Ist r = p
k
1
1
p
k
2
2
. . . p
k
t
t
eine Primfaktorzerlegung der Ordnung r = o(M) von
M in Potenzen paarweise nicht assoziierter Primelemente p
i
von R, so hat
die p
i
-Primrkomponente M
p
i
von M fr jedes i = 1, 2, . . . , t die Ordnung
o(M
p
i
) = p
k
i
i
.
Beweis: (a) folgt unmittelbar aus Denition 11.3.6 und den Stzen 11.3.5
und 11.1.27.
(b) folgt unmittelbar aus Denition 11.3.1, Hilfssatz 11.3.4 (c) und Satz 11.3.5.
11.4 Struktursatz fr endlich erzeugte Moduln
In diesemAbschnitt wird der Beweis des Struktursatzes fr endlich erzeugte Moduln
M ber Hauptidealringen beendet, indem gezeigt wird, da jede Primrkomponente
M
p
von M eine bis auf Isomorphie eindeutig bestimmte direkte Summe von zykli-
schen Moduln ist.
11.4.1 Denition. Sei p ein Primelement des Hauptidealringes R. Ein R-Modul M
heit p-Modul, wenn M = M
p
ist.
11.4.2 Hilfssatz. Sei p ein Primelement des Hauptidealringes R. Sei M ein endlich
erzeugter p-Modul der Ordnung o(M) = p
e
. Dann gibt es ein 0 = m M der
Ordnung o(m) = p
e
und einen R-Untermodul U von M derart, da gilt:
11.4 Struktursatz fr endlich erzeugte Moduln 319
(a) M = mR U und mR

= R/p
e
R.
(b) U wird von weniger Elementen als M erzeugt.
Beweis: (a) Sei S = {m
i
M | 1 i n} ein Erzeugendensystem von kleinster
Elementzahl n von M. Wegen o(M) = p
e
gilt o(m
i
) p
e
fr i = 1, 2, . . . , n.
Da jedes m M die Darstellung m =

n
i=1
m
i
r
i
fr geeignete r
i
R hat, mu
mindestens ein m
i
die Ordnung o(m
i
) = p
e
haben. Nach Umnumerierung kann
i = 1 gewhlt werden. Im folgenden ist m = m
1
dieses Element.
Nach demLemma 1.1.9 von Zorn gibt es unter den R-Untermoduln S von M mit
mR S = 0 einen maximalen, der mit U bezeichnet sei. Wre M

= mR U ein
echter Untermodul von M, dann gbe es ein z M mit z M

. Wegen zp
e
= 0 M

existiert ein minimales k derart, da zp


k+1
M

, aber zp
k
/ M

. Sei y = zp
k
. Dann
ist y M, y / M

und yp M

. Deshalb ist
yp = mr
1
+s fr ein r
1
R und s U.
Wegen p
e
= o(M) folgt nun 0 = (yp)p
e1
= (mr
1
)p
e1
+ sp
e1
und so
(mr
1
)p
e1
= sp
e1
mR U = 0. Also ist r
1
p
e1
Ann(m) = p
e
R, woraus
r
1
= r

1
p fr ein r

1
R folgt.
Sei v = y mr

1
. Dann ist
vp = (y mr

1
)p = yp mr

1
p = mr
1
+s mr
1
= s. ()
Wegen y M

ist v = y mr

1
M

= mR U. Daher ist auch v U, woraus


mR (U +vR) = 0 folgt. Somit gibt es Elemente s
1
U und t, c R mit
0 = mt = s
1
+vc mR (U +vR). ()
Also gilt
vc = mt s
1
mR U = M

.
Wre p kein Teiler von c, dann wre 1 = ca + pb fr geeignete a, b R. Hieraus
folgt
v = v 1 = (vc)a +(vp)b = (vc)a +sb M

+U = M

im Widerspruch zu v M

. Deshalb existiert ein c

R mit c = c

p. Wegen ()
und () ergibt sich daher:
0 = mt = vc +s
1
= (vp)c

+s
1
= sc

+s
1
U mR = 0.
Aus diesem Widerspruch folgt, da M = mR U.
Der Epimorphismus r mr von R auf mR hat den Kern Ann(m) = p
e
R. Nach
dem ersten Isomorphiesatz 9.2.16 folgt mR

= R/p
e
R.
(b) Da m = m
1
zum Erzeugendensystem von kleinster Elementzahl S gehrt,
wird M/mR von den n1 Restklassen [u
i
] = m
i
+mR, 2 i n erzeugt. Wegen
U

= M/mR hat U daher ein kleineres Erzeugendensystem als M.
320 11 Moduln ber Hauptidealringen
11.4.3 Satz. Sei M ein endlich erzeugter p-Modul ber einem Hauptidealring R.
Dann gelten:
(a) M ist eine direkte Summe M = M
1
M
2
M
k
von endlich vielen,
zyklischen p-Moduln M
i
.
(b) Jeder der zyklischen Moduln M
i
ist isomorph zu R/(p
e
i
)R, wobei die natrli-
che Zahl e
i
> 0 eindeutig durch die Ordnung o(M
i
) von M
i
und damit durch
M bestimmt ist.
Beweis: (a) Durch vollstndige Induktion nach der Anzahl k eines Erzeugenden-
systems S = {m
i
| 1 i k} von M von kleinster Elementzahl. Ist k = 1,
so ist (a) trivial. Sei also k > 1. Dann gibt es nach Hilfssatz 11.4.2 ein Element
0 = m M mit o(m) = p
e
1
und einen Untermodul U von M mit M = mR U
und mR

= R/p
e
1
R. Weiter wird U nach (b) von Hilfssatz 11.4.2 von k 1 Ele-
menten erzeugt. Sei p
e
2
= o(U) = o(M/mR). Da U ein Untermodul von M
ist, gilt e
1
e
2
. Die Aussagen (a) und (b) folgen nun alle durch vollstndige In-
duktion. Die Exponenten e
i
sind durch M eindeutig bestimmt, weil p
e
1
= o(M),
p
e
2
= o(U) = o(M/mR) und damit auch die Exponenten p
e
i
mit 2 i k durch
vollstndige Induktion eindeutig durch M bestimmt sind.
11.4.4 Denition. Wenn man die direkten Summanden M
i
des p-Moduls M =

k
i=1
M
i
so ordnet, da
e
1
e
2
e
k
> 0
gilt, dann sind diese Exponenten e
i
durch M eindeutig bestimmt und heien die
Elementarteilerexponenten des p-Moduls.
11.4.5 Satz. Sei p ein Primelement des Hauptidealringes R. Sei M ein endlich
erzeugter p-Modul. Dann gelten:
(a) F = R/pR ist ein Krper.
(b) M(p) = {m M | mp = 0} ist ein endlich-dimensionaler F-Vektorraum mit
dim
F
M(p) = k, wobei k die Anzahl der Elemente eines Erzeugendensystems
S kleinster Elementzahl von M ist.
Beweis: (a) F = R/pR ist ein Krper nach Satz 9.1.8, weil Y = pR nach
Satz 11.1.22 und Hilfssatz 11.1.21 ein maximales Ideal von R ist.
(b) Sei o(M) = p
e
. Sicherlich ist M(p) ein R-Untermodul von M. Wegen
mp = 0 fr alle m M(p) wird M(p) ein F-Vektorraum vermge der Operation
m[r] = m r fr alle [r] = r +pR F.
11.4 Struktursatz fr endlich erzeugte Moduln 321
Diese Multiplikation von F auf M ist wohldeniert, weil aus [r] = [r

] F = R/Y
stets r r

Y = pR und so 0 = m(r r

) = mr mr

, d. h. mr = mr

, folgt.
Ist M ein zyklischer R-Modul, so ist M

= R/p
e
R und M(p)

= p
e1
R/p
e
R

=
R/pR = R/Y = F. Also ist dim
F
M(p) = 1.
M besitze nun ein Erzeugendensystem S von kleinster Elementzahl k. Wegen
o(M) = p
e
hat M nach Hilfssatz 11.4.2 ein Element m mit o(m) = p
e
und einen
R-Untermodul U derart, da M = mR U, mR = R/p
e
R und U

= M/mR von
k 1 Elementen erzeugt wird. Sicherlich ist
M(p) = (mR)(p) U(p).
Nach Induktion ist dann
dim
F
M(p) = dim
F
(mR)(p) +dim
F
U(p) = 1 +(k 1) = k.
11.4.6 Satz. Zwei p-Moduln M und N sind genau dann isomorph, wenn sie diesel-
ben Elementarteilerexponenten e
1
e
2
e
k
> 0 haben.
Beweis: Besitzen die p-Moduln M und N dieselben Elementarteilerexponenten,
dann folgt aus Satz 11.4.3, da
M

=
k

i=1
R/p
e
i
R

= N.
Seien umgekehrt die beiden p-Moduln M und N isomorph. Dann ist F = R/pR
ein Krper, und die F-Vektorrume M(p) und N(p) sind isomorph. Nach Hilfs-
satz 11.4.5 folgt dim
F
M(p) = k = dim
F
N(p), wobei k die Anzahl der Elementar-
teiler von M und somit auch von N ist. Wegen M

= N ist o(M) = p
e
= o(N).
Also stimmen die ersten Elementarteilerexponenten von M und N berein. Nach
Hilfssatz 11.4.2 gibt es daher Elemente m M und n N mit o(m) = p
e
= o(n)
und R-Untermoduln U von M und V von N derart, da
M = mR U und N = nR V, wobei mR

= R/p
e
R

= nR.
Wegen M

= N und M/mR

= N/nR folgt U

= V. Da U und V nach Hilfs-
satz 11.4.2 von k1 Elementen erzeugt werden knnen, folgt jetzt nach vollstndiger
Induktion, da U und V dieselben Elementarteilerexponenten haben.
Fat man nun die Stze 11.2.8, 11.3.5, 11.4.3 und 11.4.6 zusammen, dann erhlt
man den Struktursatz fr endlich erzeugte Moduln ber Hauptidealringen.
11.4.7 Satz. Sei M ein endlich erzeugter R-Modul vom Range rg(M) = m ber
dem Hauptidealring R. Dann gelten folgende Aussagen:
322 11 Moduln ber Hauptidealringen
(a) M = T (M) U, wobei T (M) der Torsionsmodul von M und U ein freier
R-Untermodul von M mit U

= R
m
ist.
(b) Ist r = p
k
1
1
p
k
2
2
. . . p
k
t
t
eine Primfaktorzerlegung der Ordnung o(T (M)) des
Torsionsmoduls mit paarweise nicht assoziierten Primelementen p
i
R, dann
besitzt der Torsionsmodul eine direkte Zerlegung
T (M) =
t

i=1
T (M)
p
i
in seine p
i
-Primrkomponenten T (M)
p
i
mit Ordnung o(T (M)
p
i
) = p
k
i
i
.
(c) Jede p
i
-Primrkomponente ist eine direkte Summe T (M)
p
i
=

r
i
j
i
=1
M
ij
i
von endlich vielen zyklischen Untermoduln M
ij
i

= R/p
e
ij
i
i
R, wobei die Ele-
mentarteilerexponenten e
ij
i
zum Primelement p
i
so geordnet werden knnen,
da k
i
= e
i1
e
i2
e
ir
j
> 0 gilt.
(d) Der R-Modul M ist bis auf R-Modulisomorphie eindeutig durch seine folgen-
den Invarianten bestimmt: rg(M) = m, o(T (M)) = r = p
k
1
1
p
k
2
2
. . . p
k
t
t
und
alle Elementarteilerexponenten e
ij
i
, 1 j
i
r
i
, eines jeden Primteilers p
i
von r, 1 i t .
11.4.8 Bemerkung. Da jedes Hauptideal Y = 0 des Ringes Z der ganzen Zahlen
nach dem Beweis von Satz 11.1.9 von der kleinsten positiven Zahl y Y erzeugt
wird, ist y eine der beiden Ordnungen der zyklischen Gruppe Z/yZ im Sinne der
Denition 11.3.6, denn +y und y sind die einzigen zu y assoziierten ganzen Zahlen.
Da y dieAnzahl der Elemente der zyklischenGruppe Z/yZist, ist y auchdie Ordnung
|Z/yZ| der zyklischen Gruppe Z/yZ im Sinne der Denition 1.3.1.
11.4.9 Folgerung (Basissatz fr abelsche Gruppen). Sei A eine endlich erzeugte
abelsche Gruppe vom Range rg(A) = m. Sei o((T (A)) =

t
i=1
p
k
i
i
die Faktor-
zerlegung der Ordnung o(T (A)) = r Z
k
i
der Torsionsgruppe T (A) von A in
Primzahlpotenzen p
k
i
i
verschiedener positiver Primzahlen p
i
, 1 i t . Bei festem
Index i seien die Elementarteilerexponenten e
ij
von A zur Primzahl p
i
so geordnet,
da k
i
= e
i1
e
i2
e
ir
i
> 0. Dann gelten die folgenden Aussagen:
(a) A = T (A) P, wobei P eine freie abelsche Untergruppe von A mit P

= Z
m
ist.
(b) Die Torsionsgruppe T (A) ist eine direkte Summe von endlich vielen zyklischen
Gruppen Z
ij
von p
i
-Potenzordnung |Z
ij
| = p
e
ij
i
, 1 j r
i
.
(c) T (A) ist endlich und hat |T (A)| =

t
i=1
p
h
i
i
Elemente, wobei h
i
=

r
i
j=1
e
ij
fr i = 1, 2, . . . , t ist.
11.4 Struktursatz fr endlich erzeugte Moduln 323
Insbesondere ist jede endlich erzeugte abelsche Gruppe A isomorph zu einer
direkten Summe von endlich vielen zyklischen Gruppen.
Zwei endlich erzeugte abelsche Gruppen A und B sind genau dann isomorph,
wenn gleichzeitig die folgenden drei Bedingungen gelten:
(i) A und B haben den gleichen Rang, d. h. rg(A) = rg(B).
(ii) Die Torsionsuntergruppen von A und B haben dieselbe Anzahl |T (A)| =
|T (B)| von Elementen.
(iii) Fr jeden Primteiler p
i
von |T (A)| haben T (A) und T (B) dieselben Ele-
mentarteilerexponenten e
ij
, 1, j r
i
.
Beweis: Folgt sofort aus Satz 11.4.7, weil Z ein Hauptidealring ist.
Nach dem Basissatz fr endlich erzeugte abelsche Gruppen ist die Struktur
einer endlichen abelschen Gruppe A durch ihre Ordnung |A| =

t
i=1
p
h
i
i
und
die Elementarteilerexponenten e
ij
zu den paarweise verschiedenen Primzahlen p
i
,
1 i t , bekannt. Insbesondere gengt es fr jede Primzahl p, die paarweise nicht
isomorphen abelschen Gruppen Avon p-Potenzordnung |A| = p
k
zu klassizieren.
Hierzu wird noch der folgende Begriff bentigt.
11.4.10 Denition. Sei k > 0 eine positive ganze Zahl. Eine Partition von k ist eine
monoton nicht steigende Folge
k
1
k
2
k
r
> 0
von positiven ganzen Zahlen k
i
mit Summe

r
i=1
k
i
= k.
11.4.11 Folgerung. Sei p eine Primzahl und A eine endliche abelsche Gruppe der
Ordnung |A| = p
k
. Dann gibt es genau eine Partition k
1
k
2
k
r
von k
derart, da
A

=
r

i=1
Z/p
k
i
Z.
Beweis: Seien e = e
1
e
2
e
r
die nach dem Basissatz 11.4.9 eindeutig be-
stimmten Elementarteilerexponenten der p-Gruppe A. Dann ist A

r
i=1
Z/p
e
i
Z.
Hieraus folgt p
k
= |A| =

r
i=1
p
e
i
= p
e
1
++e
r
. Also ist k = e
1
+ + e
r
, und
e
1
e
2
e
r
> 0 ist die gesuchte Partition von k. Sie ist nach Satz 11.4.6
durch die Gruppe A eindeutig bestimmt.
324 11 Moduln ber Hauptidealringen
11.5 Elementarteiler von Matrizen
In diesemAbschnitt werden einige weitere Anwendungen des Struktursatzes 11.4.7
fr endlich erzeugte Moduln M ber einem Hauptidealring R gegeben. Hierzu zhlt
der Elementarteilersatz fr mn-Matrizen A = (a
ij
) mit Koefzienten a
ij
aus R.
11.5.1 Hilfssatz. Sei R ein Hauptidealring und M =

t
i=1
m
i
R eine direkte
Summe von endlich vielen zyklischen Torsionsmoduln m
i
R

= R/ Ann(m
i
), wo-
bei Ann(m
i
) = a
i
R fr i = 1, 2, . . . , t gelte. Dann ist M genau dann ein zyklischer
Torsionsmodul, wenn die Ordnungen a
i
der Erzeuger m
i
paarweise teilerfremd sind.
Beweis: Vollstndige Induktion nach t . Fr t = 1 ist nichts zu beweisen. Sind a
1
und
a
2
teilerfremd, so ist R = a
1
R +a
2
R und a
1
a
2
R = a
1
R a
2
R nach Satz 11.1.17.
Hieraus folgt:
R/a
1
a
2
R = (a
1
R +a
2
R)/a
1
a
2
R = (a
1
R +a
2
R)/(a
1
R a
2
R)
= a
1
R/(a
1
R a
2
R) a
2
R/(a
1
R a
2
R)
= a
1
R/a
1
a
2
R a
2
R/a
1
a
2
R.
Da R nullteilerfrei ist, gelten die R-Modulisomorphismen a
1
R/a
1
a
2
R

= R/a
2
R
und a
2
R/a
1
a
2
R

= R/a
1
R. Also gilt:
R/a
1
a
2
R

= R/a
2
R R/a
1
R. ()
Sind nun a
1
, a
2
, . . . , a
n
paarweise teilerfremd, dann sind auch b
1
= a
1
und b
2
=

t
i=2
a
i
teilerfremd. Wegen () ist daher R/a
1
a
2
. . . a
t
R

= R/b
1
R R/b
2
R

=
R/a
1
R R/b
2
R. Nach Induktionsannahme ist R/b
2
R

=

t
i=2
R/a
i
R, woraus
R/a
1
a
2
. . . a
t
R

=

t
i=1
R/a
i
R

=

t
i=1
m
i
R folgt.
Es gengt, die Umkehrung fr die direkte Summe von zwei zyklischen R-Moduln
zu beweisen. Seien A = R/aR und B = R/bR zwei zyklische R-Moduln, wobei
a = da
1
= 0 und b = db
1
= 0 fr eine von Null verschiedene Nichteinheit d von
R ist. Wegen aR dR und bR dR gilt nach dem dritten Isomorphiesatz 9.2.18
R/dR

= (R/aR)/(dR/aR)

= (R/bR)/(dR/bR).
Wre nun M = A B

= R/cR ein zyklischer R-Modul, dann wre auch sein
epimorphes Bild

M = R/dR R/dR

= (R/aR)/(dR/aR) (R/bR)/(dR/bR)
ein zyklischer R-Modul. Sei nun p ein Primteiler der Ordnung des zyklischen R-
Moduls

M und F = R/pR der Restklassenkrper von R nach demmaximalen Ideal
pR. Dann gelten nach Satz 11.4.5 fr die p-Primrkomponente die Gleichungen

M
p
= (R/dR)
p
(R/dR)
p
,
1 = dim
F

M
p
(p) = 2 dim
F
(R/dR)
p
(p) = 2.
11.5 Elementarteiler von Matrizen 325
Dieser Widerspruch beendet den Beweis.
11.5.2 Satz. Sei M ein endlich erzeugter Torsionsmodul ber dem Hauptidealring
R. Sei r = p
k
1
1
p
k
2
2
. . . p
k
t
t
eine Primfaktorzerlegung der Ordnung o(M) = r von M
in Potenzen paarweise nicht assoziierter Primelemente p
i
R. Seien k
i
= e
i1

e
i2
e
ir
i
> 0 die Elementarteilerexponenten von M zum Primelement p
i
.
Weiter seien die Primelemente p
i
so indiziert, da r
1
r
2
r
t
gelte. Dann
bilden die s = r
t
Ringelemente
a
j
=
t

i=1
p
e
ij
i
mit 1 j r
t
und e
ij
= 0 fr j > r
i
bis auf Assoziiertheit die einzige Folge a
1
, a
2
, . . . , a
s
von Nichteinheiten a
j
= 0 in
R derart, da die beiden folgenden Aussagen gelten:
(a) M

=

s
j=1
R/a
j
R.
(b) a
j+1
teilt a
j
fr j = 1, 2, . . . , s 1.
Die s Ringelemente a
1
, a
2
, . . . , a
s
heienElementarteiler des Torsionsmoduls M.
Beweis: Die s Elemente a
j
=

t
i=1
p
e
ij
i
sind von Null verschiedene Nichteinheiten
in R, fr die a
j+1
|
| a
j
fr alle j = 1, 2, . . . , s 1 gilt. Nach Konstruktion sind p
e
ij
i
und p
e
kj
k
fr i = k nicht assoziiert und teilerfremd. Wegen Hilfssatz 11.5.1 folgt
daher, da
R/a
j
R

=
t

i=1
R/p
e
ij
i
R.
Nach Satz 11.4.3 ist somit
M

=
t

i=1
_
r
i

j
i
=1
R/p
e
ij
i
i
R
_

=
s

j=1
R/a
j
R.
Also gelten die Behauptungen (a) und (b).
Die Eindeutigkeitsaussage wird durch vollstndige Induktion nach s bewiesen.
Sei b
1
, b
2
, . . . , b
v
eine weitere Folge von Nichteinheiten aus R derart, da b
k+1
|
| b
k
fr k = 1, 2, . . . , v 1 und M

=

v
k=1
R/b
k
R gilt. Dann sind a
1
und b
1
je-
weils eine Ordnung von M, d. h. a
1
R = Ann(M) = b
1
R. Also ist b
1
zu a
1
nach
Hilfssatz 11.1.21 assoziiert und R/a
1
R = R/b
1
R. Nach dem dritten Isomorphie-
satz 9.2.18 folgt
v

k=2
R/b
k
R

=
_
v

k=1
R/b
k
R
_
/(R/b
1
R)

=
_
s

j=1
R/a
j
R
_
/(R/a
1
R)

=
s

j=2
R/a
j
R.
326 11 Moduln ber Hauptidealringen
Da isomorphe R-Moduln assoziierte Ordnungen haben, folgt a
2
R = b
2
R, und es
gilt v 1 = s 1 nach Induktionsannahme. Also ist v = s, und b
j
ist zu a
j
fr
j = 1, 2, . . . , s assoziiert.
11.5.3 Satz. Sei M ein endlich erzeugter, freier R-Modul vom Range n ber dem
Hauptidealring R. Dann gibt es fr jeden Untermodul U = 0 von M mit rg(U) = r
eine Basis B = {q
i
M | 1 i n} von M und bis auf Assoziiertheit eindeutig
bestimmte Nichteinheiten a
j
= 0, 0 j s r, in R derart, da folgende
Aussagen gelten:
(a) U =

s
j=1
(q
j
a
j
)R

r
j=s+1
q
j
R.
(b) a
j+1
teilt a
j
fr j = 1, 2, . . . , s 1.
(c) Fr den Torsionsuntermodul von M/U gilt T (M/U)

s
j=1
R/a
j
R.
Beweis: Sei B = {m
i
M | 1 i n} eine fest gewhlte Basis des freien R-
Moduls M. Sei B

= {
i
Hom
R
(M, R) |
i
(m
j
) =
ij
R} die duale Basis von
B in Hom
R
(M, R). Dann hat jedes Hom
R
(M, R) die eindeutige Darstellung
=

n
i=1

i
s
i
mit s
i
R.
Da U ein R-Untermodul von M ist, ist (U) fr jedes Hom
R
(M, R) ein
Ideal des Ringes R. Nach Hilfssatz 11.1.26 und dem Lemma 1.1.9 von Zorn existiert
dann ein Hom
R
(M, R) derart, da (U) = aR maximal ist unter den Idealen
(U). Also existiert ein o = u U mit (u) = a. Weiter gibt es eindeutig bestimmte
Elemente r
i
R, die nicht alle gleich Null sind, derart, da
u = m
1
r
1
+m
2
r
2
+ +m
n
r
n
.
Sei =

n
i=1

i
s
i
mit s
i
R die eindeutige Darstellung von bezglich der
dualen Basis B

. Dann gilt
a = (u) =
n

i=1

i
_
n

j=1
m
j
r
j
_
s
i
=
n

i=1
r
i
s
i

n

i=1
r
i
R = I,
weil
i
(u) = r
i
Rfr i = 1, 2, . . . , n. Da Rein Hauptidealring ist, ist

n
i=1
r
i
R =
bR fr ein b I.
Sei b =

n
i=1
r
i
t
i
mit geeigneten t
i
R. Dann ist

=

n
i=1

i
t
i

Hom
R
(M, R), und es gilt

(u) =
n

i=1

i
_
n

j=1
m
j
r
j
_
t
i
=
n

i=1
r
i
t
i
= b.
Hieraus folgt wegen a I = bR, da
(U) = aR bR =

(u)R =

(uR)

(U).
11.5 Elementarteiler von Matrizen 327
Also gilt (U) = aR = bR =

(U), weil (U) maximal unter allen Idealen


(U) mit Hom
R
(M, R) ist.
Insbesondere ist I =

n
i=1
r
i
R = aR. Daher existiert zu jedem r
i
ein v
i
R
mit r
i
= av
i
. Hieraus folgt
u = qa fr q =
n

i=1
m
i
v
i
M
und
a = (u) = (qa) = (q) a R.
Also ist (q) = 1, weil R nullteilerfrei ist.
Daher ist qR Ker() = 0. Fr jedes x M ist x q(x) Ker(), weil
(x) R und so
(x q(x)) = (x) [q(x)] = (x) (q)(x) = 0.
Also ist M = qR Ker().
Da M ein freier R-Modul ist, ist auch M
1
= Ker() nach Satz 11.2.7 ein freier
R-Modul. Sei U
1
= U Ker(). Dann ist
U = (qa)R U
1
und M = qR M
1
. ()
Insbesondere ist rg(U
1
) = rg(U) 1 nach Denition 11.2.9 und Satz 9.4.6.
Ist rg(U) = r = 1 so folgt U = (qa)R und M = qR M
1
. Falls a eine
Einheit in R ist, ist U = qR, d. h. s = 0, und es gibt keine Nichteinheiten a
j
= 0.
Insbesondere ist T (M/U) = 0. Ist a keine Einheit in R, so ist a = a
1
, U = (qa
1
)R
und M = qR M
1
, d. h. s = 1, und T (M/U)

= R/a
1
R.
Es wird nun angenommen, da die Behauptung fr r 1 bewiesen ist. Sei weiter
a keine Einheit in R. Wegen rg(U
1
) = r 1 und U
1
M
1
folgt dann nach Induk-
tionsannahme, da M
1
eine Basis B
1
= {q
i
M | 2 i n} besitzt, zu der es bis
auf Assoziiertheit eindeutig bestimmte Nichteinheiten a
j
= 0, 0 j s r in R
gibt derart, da gilt:
(a) U
1
=

s
j=2
(q
j
a
j
)R

r
j=s+1
q
j
R,
(b) a
j+1
teilt a
j
fr j = 2, 3, . . . , s 1,
(c) T (M
1
/U
1
)

s
j=2
R/a
j
R.
Nach () gilt U = (qa)R U
1
. Hieraus folgt aR = (U) (U
1
) = a
2
R. Da a
keine Einheit ist, ist a
2
ein Teiler von a = a
1
, und
U =
s

j=1
(q
j
a
j
)R
r

j=s+1
q
j
R,
328 11 Moduln ber Hauptidealringen
T (M/U)

=
s

j=1
R/a
j
R.
Also gelten alle Behauptungen in diesem Fall. Ist a eine Einheit, so gilt nach Induk-
tionsannahme, da
U
1
=
s

j=1
(q
j
a
j
)R
r1

j=s+1
q
j
R.
Setze q
r
= q. Dann folgt aus (), da
U = U
1
qR =
s

j=1
(q
j
a
j
)R
r

j=s+1
q
j
R.

11.5.4 Denition. Sei Z der Untermodul des freien R-Moduls R


n
ber dem Haupt-
idealringR, der vondenZeilenz
i
= (a
i1
, a
i2
, . . . , a
in
) einer mn-MatrixA = (a
ij
)
erzeugt wird. Dann ist Z nach Satz 11.2.7 ein freier R-Modul. Der Rang von Z heit
der Zeilenrang z(A) von A. Analog deniert man den Spaltenrang s(A).
Mit Hilfe der Stze 10.3.1 und 3.4.4 zeigt man, da z(A) = s(A) = r der Rang
von A ber dem Quotientenkrper Q von R ist. Deshalb heit r = rg(Z) der Rang
r(A) der Matrix A.
11.5.5 Denition. Die m n-Matrix A = (a
ij
) mit Koefzienten a
ij
aus dem
kommutativen Ring R ist in Diagonalform, falls a
ij
= 0 fr alle Paare (i, j) mit
i = j oder i = j > r und a
ii
= a
i
= 0 fr i = 1, 2, . . . , r gilt.
Bezeichnung: A = diag(a
1
, . . . , a
r
, 0, . . . , 0).
11.5.6 Denition. Sei R ein Hauptidealring. Die m n-Matrix D = (d
ij
) mit
d
ij
R ist in Smith-Normalform, falls
D = diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0) und d
i
|
| d
i+1
fr 1 i r 1
gilt. Ist A zu D quivalent, so heien d
1
, d
2
, . . . , d
r
Elementarteiler und D Smith-
Normalform von A.
11.5.7 Satz (Elementarteilersatz). Sei A = (a
ij
) eine m n-Matrix mit Koef-
zienten a
ij
aus dem Hauptidealring R mit Rang rg(A) = r. Dann gibt es in-
vertierbare n n- und m m-Matrizen P und Q mit Koefzienten aus R und
r bis auf Assoziiertheit eindeutig bestimmte Elemente 0 = d
i
R derart, da
Q
1
AP = D = diag(d
1
, . . . , d
r
, 0, . . . , 0) die Smith-Normalform von Aist.
11.5 Elementarteiler von Matrizen 329
Beweis: Seien A = {e
j
| 1 j n} und B = {f
i
| i i m} die kanonischen
Basen der freien R-Moduln M = R
n
und N = R
m
. Die zu A = (a
ij
) gehrige,
R-lineare Abbildung : M N ist nach Denition 9.5.4 deniert durch die
Gleichungen
(e
j
) =
m

i=1
f
i
a
ij
fr j = 1, 2, . . . , n.
Wegen rg(A) = r ist U = (M) ein Untermodul vom Range r im freien R-Modul
N = R
m
. Daher gibt es nach Satz 11.5.3 eine Basis B

= {q
i
| 1 i m} von N
und s r (bis auf Assoziiertheit) eindeutig bestimmte Nichteinheiten a
i
R, fr
die a
i+1
|
| a
i
fr i = 1, 2, . . . , s 1 gilt derart, da {q
1
a
1
, . . . , q
s
a
s
, q
s+1
, . . . , q
r
}
eine Basis von U ist. Sei a
i
= 1 fr s + 1 i r. Durch die Umnumerierung
q

i
= q
ri
fr 1 i r und q

i
= q
i
fr r +1 i m der Elemente q
i
der Basis
B

= {q
i
| 1 i m} von N, erhlt man eine Basis B

= {q

h
| 1 h m} von
N = R
m
derart, da die folgenden Bedingungen gelten:
a
h
|
| a
h+1
fr h = 1, 2, . . . , r 1 ()
und
U =
r

h=1
(q

h
a
h
)R. ()
Sei Q die m m-Matrix des Basiswechsels B B

. Da (M) ein freier R-


Untermodul von R
m
ist, existiert nach Satz 9.4.8 ein freier R-Untermodul P von
M = R
n
derart, da M = P Ker() ist. Daher besitzt P eine Basis {p
h
| 1
h r}, fr die (p
h
) = q

h
a
h
fr 1 h r gilt. Nach den Stzen 11.2.7, 11.2.8
und Hilfssatz 11.2.5 hat Ker() eine Basis {p
h
| r + 1 h n} derart, da A

=
{p
j
| 1 j n} eine Basis des freien R-Moduls M ist. Sei P die n n-Matrix des
Basiswechsels A A

von M. Dann gilt nach Satz 9.5.7, da Q


1
A

(A, B)P =
Q
1
AP = A

(A

, B

) = D = diag(a
1
, a
2
, . . . , a
r
, 0, 0, . . . , 0) ist.
11.5.8 Bemerkung. In der Literatur werden die in Denition 11.5.6 eingefhrten

Elementarteiler einer m n-Matrix A = (a


ij
) mit a
ij
R auch invariante
Faktoren genannt.
Die Elementarteiler einer m n-Matrix A = (a
ij
) mit Koefzienten aus ei-
nem Hauptidealring kann man mit Hilfe des Smith-Algorithmus durch geeignete
Matrizenumformungen bestimmen. Zu seiner Formulierung werden die folgenden
Hilfsstze und Begriffe bentigt.
11.5.9 Hilfssatz. Seien a, b zwei Nichteinheiten des Hauptidealrings R derart, da
a kein Teiler von b ist. Sei d = ggT(a, b). Dann existieren Elemente u, v, s, t R
derart, da
330 11 Moduln ber Hauptidealringen
(a) au +bv = d, a = dt und b = ds,
(b)
_
t s
v u
__
u s
v t
_
=
_
1 0
0 1
_
,
(c) (a, b)
_
u s
v t
_
= (d, 0).
Beweis: (a) Nach Satz 11.1.17 ist dR = aR + bR, woraus d = au + bv, a = dt
und b = ds fr geeignete u, v, s, t R folgt.
(b) d = au +bv = dt u +dsv impliziert 1 = t u +sv. Hieraus folgt
_
t s
v u
__
u s
v t
_
=
_
ut +sv st st
uv uv sv +ut
_
=
_
1 0
0 1
_
.
(c) (a, b)
_
u s
v t
_
= (au +bv, as bt ) = (d, 0).
11.5.10 Denition. Sei R ein Hauptidealring. Die Lnge l(a) eines Elements a = 0
von R ist deniert durch
l(a) =
_

_
0 falls a eine Einheit ist,
1 falls a ein Primelement,

k
i=1
e
i
falls a =

k
i=1
p
e
i
i
eine Primfaktorzerlegung,
von a ist, wobei die Primelemente p
i
paarweise nicht assoziiert sind.
11.5.11 Algorithmus. Sei A = (a
ij
) eine m n-Matrix mit rg(A) = r und mit
Koefzienten a
ij
aus dem Hauptidealring R. Seien z
1
, z
2
, . . . , z
m
die Zeilen und
s
1
, s
2
, . . . , s
n
die Spalten von A. Durch folgenden Algorithmus werden zwei inver-
tierbare mm- bzw. n n-Matrizen Q und P konstruiert derart, da
QAP = diag(a
1
, a
2
, . . . , a
r
, 0, 0, . . . , 0)
in Diagonalform aber noch nicht notwendig die Smith-Normalform ist.
Wenn A die Nullmatrix ist, bricht der Algorithmus ab. Sonst wendet man die
folgenden Schritte an.
1. Schritt: Sei a
ij
= 0 ein Koefzient von Amit minimaler Lnge l(a
ij
). Durch
Vertauschung der 1. und der i-ten Zeile von Aund anschlieender Vertauschung der
1. und j-ten Spalte erhlt man eine Matrix A

= (a

ij
), bei der a

11
= a
ij
ist. Nach
Bemerkung 9.5.3 und Satz 4.1.13 gehren zu diesen elementaren Umformungen
invertierbare mm- bzw. n n-Elementarmatrizen Q
1,i
und P
1,j
derart, da
A

= Q
1,i
AP
1,j
.
11.5 Elementarteiler von Matrizen 331
Nach Durchfhrung des 1. Schrittes kann also bei den weiteren Schritten angenom-
men werden, da die Koefzienten der Matrix A = (a
ij
) die Lngenbedingungen
l(a
11
) l(a
ij
) fr 1 i m und 1 j n erfllen.
2. Schritt: Ist a
11
kein Teiler von einem a
1k
= 0 mit k {2, 3, . . . , n}, dann ist
a
11
keine Einheit und l(a
11
) > 0. Durch Vertauschen der k-ten und der 2-ten Spalte
von A erhlt man die Matrix A

= (a

ij
), bei der a

11
kein Teiler von a

12
ist. Nach
Bemerkung 9.5.3 und Satz 4.1.13 existiert eine invertierbare nn-Elementarmatrix
P
2,k
derart, da A

= AP
2,k
. Sei d = ggT(a

11
, a

12
). Dann ist l(d) < l(a

11
). Nach
Hilfssatz 11.5.9 existieren Elemente u, v, s, t R derart, da
T
2
=
_
_
_
_
_
_
u s
v t
E
n2
_
_
_
_
_
_
eine invertierbare n n-Matrix ist mit
AP
2,k
T
2
=
_
_
_
_
_
d 0 a

13
a

1n
a

21
.
.
. B
2
a

m
_
_
_
_
_
.
Nach hchstens n2 weiteren Multiplikationen mit solchen invertierbaren Matrizen
P
j,k
j
T
j
geht Aber in eine Matrix der Form
A
_
n

j=2
P
j,k
j
T
j
_
=
_
_
_
_
_
b
11
0 0
b
21
.
.
. B
n
b
m1
_
_
_
_
_
= B = (b
ij
).
Ist nun b
11
kein Teiler von einem der Koefzienten b
k1
fr ein k {2, 3, . . . , m} in
der ersten Spalte von A, dann ist b
11
keine Einheit und l(b
11
) > 0. DurchVertauschen
der k-ten und der 2-ten Zeile geht B ber in eine Matrix B

= (b

ij
), bei der b

11
kein
Teiler von b

12
ist. Nach Bemerkung 9.5.3 und Satz 4.1.13 existiert eine invertierbare
mm-ElementarmatrixQ
2,k
derart, daB

= Q
2,k
B. NachHilfssatz 11.5.9existiert
dann wiederum eine invertierbare mm-Matrix
V
2
=
_
_
_
_
_
_
u v
s t
E
m2
_
_
_
_
_
_
332 11 Moduln ber Hauptidealringen
mit
V
2
Q
2,k
A =
_
_
_
_
_
_
_
b b

12
b

13
b

1n
0
b
31
.
.
. C
2
b
m1
_
_
_
_
_
_
_
,
wobei b = ggT(b

11
, b

21
) eine Lnge l(b) < l(b
11
) hat. Obwohl nun b

1j
wieder un-
gleich Null sein kann, endet dieses Verfahren nach endlich vielen weiteren Schritten
mit einer Matrix A

= (a

ij
) derart, da a

11
|
| a

1j
fr 2 j n und a

11
|
| a

i1
fr
2 i m gilt, weil bei jeder Anwendung von Schritt 2 die Lnge von l(a

11
) echt
abnimmt.
Indem man all die auftretenden Permutationsmatrizen P
j,k
j
bzw. Q
i,k
i
und die
invertierbaren Matrizen der Typen T
j
bzw. V
i
in der oben angegebenen Reihenfolge
von rechts bzw. links multipliziert, erhlt man eine invertierbare m m-Matrix X
bzw. eine invertierbare n n-Matrix Y derart, da XAY = A

gilt.
3. Schritt: Ist r
i
=
a
i1
a
11
R fr i = 2, . . . , m und t
j
=
a
1j
a
11
R fr j =
2, . . . , n, dann ersetzt man zunchst z
i
durch z
i
z
1
r
i
fr i = 2, 3, . . . , m. Nach
Bemerkung 9.5.3 und Satz 4.1.13 gehrt zu jeder dieser m1 Zeilenumformungen
eine invertierbare mm-Elementarmatrix Z
1,i,r
i
derart, da
_
m

i=2
Z
1,i,r
i
_
A = A

die hierdurch entstandene Matrix ist. Die erste Spalte von A

ist
s

1
= (a
11
, 0, . . . , 0) R
m
.
Weiter haben Aund A

die gleiche erste Zeile z


1
.
In A

ersetzt man nun die j-te Spalte s

j
durch s

j
s

1
t
j
fr j = 2, 3, . . . , n.
Sei A

die dadurch entstandene m n-Matrix. Wiederum nach Bemerkung 9.5.3


und Satz 4.1.13 gehrt zu jeder dieser n1 Spaltenumformungen eine invertierbare
n n-Elementarmatrix S
1,j,t
j
derart, da
A

= ZAS
_
_
_
_
a
11
A
1
_
_
_
_
,
wobei
Z =
m

i=2
Z
1,i,r
i
und S =
z

j=2
S
1,j,t
j
.
11.5 Elementarteiler von Matrizen 333
4. Schritt: Ist A
1
die Nullmatrix, so endet der Algorithmus. Andernfalls wen-
det man die Schritte 1 bis 3 auf die Matrix A
1
an und fahre danach entsprechend
fort. Hierdurch erhlt man schlielich eine invertierbare (m1) (m1)-Matrix
Q
1
und eine invertierbare (n 1) (n 1)-Matrix P
1
derart, da Q
1
A
1
P
1
=
diag(d
2
, d
3
, . . . , d
r
, 0, . . . , 0) in Diagonalform ist. Dann sind
Q

=
_
_
_
_
1
Q
1
_
_
_
_
und P

=
_
_
_
_
1
P
1
_
_
_
_
invertierbare mm bzw. n n-Matrizen derart, da die mn-Matrix
Q

= diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0) = D
eine Diagonalform von Aist.
Indem man die bei allen Schritten entstandenen m m-Transformationsmatri-
zen der zugehrigen Zeilenumformungen von A miteinander multipliziert, erhlt
man die invertierbare mm-Transformationsmatrix Q. Ebenso erhlt man die den
Spaltenumformungen entsprechende invertierbare n n-Transformationsmatrix P
und
QAP = D.
11.5.12 Bemerkung. Bei der praktischen Durchfhrung von Algorithmus 11.5.11
kann man folgendes Rechenschema anwenden: In die Mitte wird die mn-Matrix A
geschrieben, links von ihr die Einheitsmatrix E
m
und rechts von ihr E
n
. Sind Links-
multiplikationen mit invertierbaren mm-Matrizen des Typs V von Schritt 2 erfor-
derlich, so werden diese Matrizen V an der entsprechenden Stelle in der ersten Spalte
eingetragen. Ihre Produkte mit den beiden Vorgngern in den Spalten von E
m
und A
werden dann in der 2. bis 3. Spalte aufgeschrieben. Sonst werden die elementaren
Zeilenumformungen der Schritte 1 und 3 zugleich auf die Matrizen in den Spalten
von E
m
und Aangewendet.
Ebenso verfhrt man mit den Matrizen A und E
n
bei Spaltenumformungen
bzw. Rechtsmultiplikationen mit nn-Matrizen des Typs T von Schritt 2, die in die
5. Spalte geschrieben werden.
Am Ende des Algorithmus steht dann die Diagonalmatrix D in der Mitte, und
die Transformationsmatrizen Q und P links bzw. rechts daneben.
11.5.13 Beispiel. Dieses Schema wird nun an einem Beispiel erlutert. Dabei tre-
ten Rechtsmultiplikationen mit Matrizen des Typs T nicht auf. Freie Matrix-Pltze
bedeuten, da an der betreffenden Matrix keine nderungen vorgenommen werden.
334 11 Moduln ber Hauptidealringen
Typ V E
4
A E
5
1 0 0 0 2 2 6 4 0 1 0 0 0 0
0 1 0 0 6 4 16 10 14 0 1 0 0 0
0 0 1 0 4 3 11 7 1 0 0 1 0 0
0 0 0 1 8 5 21 13 4 0 0 0 1 0
0 0 0 0 1
0 0 1 0 4 3 11 7 1
0 1 0 0 6 4 16 10 14
1 0 0 0 2 2 6 4 0
0 0 0 1 8 5 21 13 4
1 3 11 7 4 0 0 0 0 1
14 4 16 10 6 0 1 0 0 0
0 2 6 4 2 0 0 1 0 0
4 5 21 13 8 0 0 0 1 0
1 0 0 0 0
0 0 1 0 1 3 11 7 4
0 1 14 0 0 46 170 108 62
1 0 0 0 0 2 6 4 2
0 0 4 1 0 17 65 41 24
1 0 0 0 0 0 0 0 0 1
0 46 170 108 62 0 1 0 0 0
0 2 6 4 2 0 0 1 0 0
0 17 65 41 24 0 0 0 1 0
1 3 11 7 4
0 0 1 0 1 0 0 0 0
1 0 0 0 0 2 6 4 2
0 1 14 0 0 46 170 108 62
0 0 4 1 0 17 65 41 24
0 0 1 0 1 0 0 0 0
1 0 0 0 0 2 6 4 2
0 0 4 1 0 17 65 41 24
0 1 14 0 0 46 170 108 62
1 0 0 0 0 0 1 0 1 0 0 0 0
0 8 1 0 8 0 4 1 0 1 17 9 8
0 17 2 0 17 0 8 2 0 0 28 14 14
0 0 0 1 0 1 14 0 0 46 170 108 62
0 0 1 0 1 0 0 0 0
8 0 4 1 0 1 17 9 8
17 0 8 2 0 0 28 14 14
368 1 170 46 0 0 612 306 306
1 0 0 0 0 0 0 0 0 1
0 1 0 0 0 0 1 17 9 8
0 0 28 14 14 0 0 1 0 0
0 0 612 306 306 0 0 0 1 0
1 3 40 20 20
1 0 0 0 0 0 0 0 0 1
0 1 0 0 0 0 1 9 17 8
0 0 14 28 14 0 0 0 1 0
0 0 306 612 306 0 0 1 0 0
1 3 20 40 20
11.5 Elementarteiler von Matrizen 335
V E
4
A E
5
1 0 0 0 0 0 0 0 0 1
0 1 0 0 0 0 1 9 1 1
0 0 14 0 0 0 0 0 1 0
0 0 306 0 0 0 0 1 2 1
1 3 20 0 0
1 0 0 0 0 0 1 0 1 0 0 0 0
0 1 0 0 8 0 4 1 0 1 0 0 0
0 0 22 1 6 1 6 2 0 0 2 0 0
0 0 153 7 25 7 34 16 0 0 0 0 0
Q D P
Die Diagonalmatrix D = diag(1, 1, 2, 0) ist schon die Smith-Normalform von A.
11.5.14 Hilfssatz. Seien a, b von Null verschiedene Elemente des Hauptidealrings
R. Sei d = ggT(a, b) und k = kgV(a, b). Dann existieren Elemente u, v, r, s R
derart, da die folgenden Aussagen gelten:
(a) d = au +bv.
(b) a = dr, b = ds und k = drs.
(c) Fr die 2 2-Matrizen
A =
_
u v
s r
_
und B =
_
1 vs
1 ur
_
gilt det A = 1 = det B.
(d) A
_
a 0
0 b
_
B =
_
d 0
0 k
_
.
Beweis: Die Existenz der Elemente u, v, r, s R, fr die (a) und (b) gelten, ergibt
sich unmittelbar aus Satz 11.1.17.
(c) det A = ur + vs = 1, weil d = au + bv = d(ur + vs). Ebenso folgt
det B = ur +vs = 1.
(d)
_
u v
s r
__
a 0
0 b
__
1 vs
1 ur
_
=
_
au vb
as rb
__
1 vs
1 ur
_
=
_
au +vb auvs +vbur
as +rb avs
2
+br
2
u
_
=
_
d 0
0 k
_
,
weil d = au + bv, as = br = drs, auvs = druvs = bruv und avs
2
+ br
2
u =
drvs
2
+dsr
2
u = drs(vs +ur) = drs = k.
336 11 Moduln ber Hauptidealringen
11.5.15 Algorithmus. Sei A = diag(a
1
, a
2
, . . . , a
r
, 0, . . . , 0) eine m n-Matrix
in Diagonalform mit Koefzienten aus dem Hauptidealring R.
Ist A in Smith-Normalform, dann bricht der Algorithmus ab. Andernfalls wer-
den durch endlich viele Anwendungen der folgenden Schritte zwei invertierbare
m m- bzw. n n-Matrizen Q und P konstruiert derart, da QAP = D =
diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0) in Smith-Normalform ist.
1. Schritt: Sei a
k
das erste Diagonalelement von A = diag(a
1
, a
2
, . . . ,
a
r
, 0, . . . , 0) derart, da l(a
k
) = min{l(a
i
) | 1 i r}. Durch Vertauschung
der 1. und der k-ten Spalte und anschlieender Vertauschung der 1. und der k-ten
Zeile erhlt man eine Matrix A

= diag(a
k
, a
2
, . . . , a
1
, a
k+1
, . . . , a
r
, 0, . . . , 0) in
Diagonalform, bei der das erste Diagonalelement a
k
von minimaler Lnge l(a
k
) ist.
Nach Bemerkung 9.5.3 und Satz 4.1.13 gehren zu diesen elementaren Umformun-
gen invertierbare mm- bzw. n n-Elementarmatrizen Q
1,k
und P
1,k
derart, da
Q
1,k
AP
1,k
= A

.
2. Schritt: Sei A = diag(a
1
, a
2
, . . . , a
r
, 0, . . . , 0) in Diagonalform und a
1
von
minimaler Lnge. Gibt es ein Diagonalelement a
j
von A, das von a
1
nicht geteilt
wird, dann ist l(a
1
) > 0, und a
1
ist keine Einheit in R. Weiter sei j minimal gewhlt.
Durch Vertauschen der 2. und der j-ten Spalte und anschlieender Vertauschung der
2. und der j-ten Zeile geht A in eine Matrix A

= diag(a

1
, a

2
, . . . , a

r
, 0, . . . , 0)
in Diagonalform ber, bei der a

1
kein Teiler von a

2
ist. Nach Bemerkung 9.5.3
und Satz 4.1.13 gehren zu diesen elementaren Umformungen invertierbare mm-
bzw. n n-Elementarmatrizen Q
1,j
und P
1,j
derart, da
Q
1,j
AP
1,j
= A

.
Nach Hilfssatz 11.5.14 existieren dann Elemente u, v, r, s R derart da
R =
_
_
_
_
_
_
u v
s r
E
m2
_
_
_
_
_
_
eine invertierbare mm Matrix und
S =
_
_
_
_
_
_
1 vs
1 ur
E
n2
_
_
_
_
_
_
eine invertierbare n n Matrix
ist mit RAS = diag(d, w, a

3
, a

4
, . . . , a

r
, 0, . . . , 0), wobei d = ggT(a

1
, a

2
) und
w = kgV(a

1
, a

2
). Wegen d |
| a
1
gilt nun d |
| a
i
fr 3 i j und d |
| a
2
.
3. Schritt: Man wendet den 2. Schritt solange auf A = diag(a
1
, a
2
, . . . ,
a
r
, 0, . . . , 0) an, bis a
1
|
| a
j
fr j = 1, 2, . . . , r gilt. Ist diese Matrix in Smith-
Normalform, dann endet der Algorithmus. Sonst ist die entstandene Matrix A

von
11.5 Elementarteiler von Matrizen 337
der Form
A

=
_
_
_
_
d
1
A
1
_
_
_
_
,
wobei A
1
= diag(a

2
, . . . , a

r
, 0, . . . , 0) nicht in Smith-Normalform ist. Nach In-
duktion existieren invertierbare (m1) (m1)- bzw. (n1) (n1)-Matrizen
Q
1
und P
1
mit QA
1
P
1
= diag(d
2
, . . . , d
r
, 0, . . . , 0). Wegen d
1
|
| a

i
fr 2 i r
ist d
1
|
| d
i
fr 2 i r. Sei
Q

=
_
_
_
_
1
Q
1
_
_
_
_
und P

=
_
_
_
_
1
P
1
_
_
_
_
.
Dann erhlt man Q und P als geeignete Produkte der in den vorigen Schritten
berechneten Transformationsmatrizen mit Q

bzw. P

. Es folgt
QAP = diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0)
die (bis auf Einheiten eindeutig bestimmte) Smith-Normalform von A.
11.5.16 Denition. Die Hintereinanderausfhrung der Algorithmen 11.5.11 und
11.5.15 ist ein Algorithmus mit dem man eine m n-Matrix A = (a
ij
) in ihre
Smith-Normalform QAP = D = diag(d
1
, d
2
, . . . , d
r
, 0, 0, . . . , 0) berfhrt. Er
heit Smith-Algorithmus.
11.5.17 Beispiel. Mit Hilfe desAlgorithmus 11.5.15 soll nun die Smith-Normalform
D der 3 3-Matrix
A = diag(X +1, X 1, (X 1)
2
) = diag(a
1
, a
2
, a
3
)
mit Koefzienten aus dem Polynomring R = Q[X] bestimmt werden.
1. Schritt: a
1
= X +1 hat minimale Lnge l(a
1
) = 1.
2. Schritt: ggT(a
1
, a
2
) = 1, also 1 = a
1
1
2
+a
2
_

1
2
_
=
1
2
(X +1)
1
2
(X 1).
Nach Hilfssatz 11.5.14 haben daher die Transformationsmatrizen R und S des
2. Schrittes von Algorithmus 11.5.15 die Form:
R =
_
_
1
2

1
2
0
X +1 X +1 0
0 0 1
_
_
, S =
_
_
1
1
2
(X 1) 0
1
1
2
(X +1) 0
0 0 1
_
_
.
338 11 Moduln ber Hauptidealringen
Hieraus folgt durch Matrizenmultiplikation, da
RAS = diag(1, X
2
1, (X 1)
2
=
_
_
_
_
1
B
_
_
_
_
Anwendung des Algorithmus 11.5.15 auf B = diag(X
2
1), (X 1)
2
):
1. Schritt: l(b
1
) = l(X
2
1) = 2 = l(b
2
).
2. Schritt: ggT(b
1
, b
2
) = X 1 = (X
2
1)
1
2
(X 1)
2 1
2
.
Nach Hilfssatz 11.5.14 haben daher die Transformationsmatrizen R
1
und S
1
des
2. Schrittes von Algorithmus 11.5.15 die Form
R
1
=
_
1
2

1
2
X +1 X +1
_
, S
1
=
_
1
1
2
(X 1)
1
1
2
(X +1)
_
.
Hieraus folgt:
R
1
BS
1
=
_
X 1 0
0 (X 1)
2
(X +1)
_
.
Nach dem 3. Schritt des Algorithmus 11.5.15 hat Adaher die Smith-Normalform
D = diag(1, X 1, (X 1)
2
(X +1)).
Die zugehrigen Transformationsmatrizen Q und P sind gegeben durch:
Q =
_
_
_
_
1
R
1
_
_
_
_
R =
_
_
1 0 0
0
1
2

1
2
0 X +1 X +1
_
_
_
_
1
2

1
2
0
X +1 X +1 0
0 0 1
_
_
,
P = S
_
_
_
_
1
S
1
_
_
_
_
=
_
_
1
1
2
(X 1) 0
1
1
2
(X +1) 0
0 0 1
_
_
_
_
1 0 0
0 1
1
2
(X 1)
0 1
1
2
(X +1)
_
_
.
Also gilt:
P =
_
_
_
1
1
2
(X 1)
1
4
(X 1)
2
1
1
2
(X +1)
1
4
(X
2
1)
0 1
1
2
(X +1)
_
_
_
und
Q =
_
_
1
2

1
2
0

1
2
(X 1)
1
2
(X +1)
1
2
(X 1)
2
(X
2
1) X +1
_
_
.
11.5 Elementarteiler von Matrizen 339
11.5.18 Satz. Sei A = (a
ij
) eine m n-Matrix mit Koefzienten aus dem Haupt-
idealring R mit rg A = r. Dann gilt:
(a) Durch Anwendung des Algorithmus 11.5.11 erhlt man eine invertierbare
n n-Matrix Q
1
und eine invertierbare n n-Matrix P
1
derart, da
Q
1
AP
1
= diag(a
1
, a
2
, . . . , a
r
, 0, . . . , 0)
in Diagonalform ist.
(b) Durch anschlieende Anwendung des Algorithmus 11.5.15 erhlt man eine
invertierbare mm-Matrix Q
2
und eine invertierbare nn-Matrix P
2
derart,
da
QAP = diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0)
in Smith-Normalform ist, wobei Q = Q
2
Q
1
und P = P
1
P
2
.
(c) Sind d
1
, d
2
, . . . , d
rs
Einheiten in R, dann sind die s Nichteinheiten d
j
mit
rs+1 j r die Elementarteiler des Torsionsmoduls T (R
n
/Z) vonR
n
/Z,
wobei Z der von den Zeilen z
1
, z
2
, . . . , z
m
von A erzeugte Untermodul des
freien R-Moduls R
n
ist, d. h.
R
n
/Z

= R
mr

j=rs+1
R/d
j
R.
Insbesondere sind die Diagonalelemente d
1
, d
2
, . . . , d
r
durch Abis auf Asso-
ziiertheit eindeutig bestimmt; sie sind die Elementarteiler von A.
Beweis: Die Aussagen (a) und (b) ergeben sich unmittelbar aus den Algorithmen
11.5.11 und 11.5.15.
(c) folgt sofort aus Satz 11.5.7 und seinem Beweis.
Fr euklidische Ringe ergibt sich beim Smith-Algorithmus die Besonderheit,
da jeweils der zweite Schritt der Algorithmen 11.5.11 und 11.5.15 allein durch
elementare Umformungen durchgefhrt werden kann, wie nun gezeigt wird.
11.5.19 Satz. Sei R ein euklidischer Ring mit der Norm . Dann gelten:
(a) Jede invertierbare n n-Matrix A = (a
ij
) mit Koefzienten a
ij
aus R ist ein
Produkt von elementaren Matrizen.
(b) Fr jede m n-Matrix B mit Koefzienten aus R und rg(B) = r kn-
nen die Smith-Normalform D = diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0) = QBP
und die Transformationsmatrizen P und Q mittels der Algorithmen 11.5.11
und 11.5.15 durch endlich viele elementare Zeilen- und Spaltenumformungen
der Matrix B berechnet werden.
340 11 Moduln ber Hauptidealringen
Beweis: Der Beweis von (a) erfolgt durch vollstndige Induktion nach n. Fr n = 1
ist die invertierbare Matrix A = (a
11
) eine elementare Matrix des Typs ZM
i;a
von
Bemerkung 9.5.3. Angenommen, die Behauptung (a) ist fr invertierbare (n 1)
(n 1)-Matrizen bewiesen. Durch Zeilen- und Spaltenvertauschungen geht A in
eine invertierbare n n-Matrix A

= (a

ij
) = KAL ber derart, da
(a

11
) < (a

i1
) fr 2 i n ()
und
(a

11
) < (a

1j
) fr 2 j n ()
gilt, wobei K und L Produkte von elementaren Matrizen sind. Weiter kann nun
nach Bemerkung 11.1.7 vorausgesetzt werden, da die Behauptung (a) fr alle in-
vertierbaren nn-Matrizen A

= (a
ij
) schon bewiesen ist, fr die (a

11
) < (a

11
)
gilt.
Angenommen, a

11
ist kein Teiler von a

i1
. Dann existieren nach demeuklidischen
Algorithmus 11.1.28 Elemente 0 = s
i
, q
i
R derart, da
a

i1
= a

11
q
i
+s
i
mit (s
i
) < (a

11
).
Indem man die i-te Zeile z
i
von Adurch z
i
z
1
q
i
ersetzt, und anschlieend in der
neu entstandenen Matrix die i-te Zeile mit der ersten Zeile vertauscht, erhlt man eine
Matrix A

= K

= (a

ij
) mit a

11
= s
i
. Dabei ist K

das Produkt der zu diesen


elementaren Zeilenumformungen gehrigen elementaren Matrizen. Insbesondere ist
(a

11
) = (s
i
) < (a

11
).
Nach Induktionsvoraussetzung ist daher A

= K

ein Produkt von elementaren


Matrizen. Hieraus folgt, da A = K
1
(K

)
1
A

L
1
ein Produkt von elementaren
Matrizen ist.
Also kann angenommen werden, da a
11
|
| a
i1
fr i = 2, . . . , n gilt. Der Algorith-
mus 11.5.11 wird nun mit der Modikation angewendet, da man die Lnge l(a
ij
)
eines Koefzienten a
ij
von A durch die Norm (a
ij
) ersetzt. Nach dem 3. Schritt
des Algorithmus 11.5.11 existiert dann ein Produkt H von elementaren Matrizen
derart, da
HA =
_
_
_
_
_
a

11
a

12
a

1n
0
.
.
. A
1
0
_
_
_
_
_
mit einer Einheit a

11
R ist.
Anschlieend wendet man dieses Verfahren mit den entsprechenden Spaltenum-
formungen anstelle der Zeilenumformungen auf die erste Zeile von HA an. Dann
11.5 Elementarteiler von Matrizen 341
erhlt man eine invertierbare Matrix J, die ebenfalls ein Produkt von elementaren
Matrizen ist derart, da
HAJ =
_
_
_
_
_
a

11
0 0
0
.
.
. A
2
0
_
_
_
_
_
gilt. Dabei sind a

11
R und A
2
GL(n 1, R) invertierbar. Sicherlich ist U =
_
a

11
E
n1
_
eine elementare und V =
_
1
A
2
_
eine invertierbare Matrix
mit HAJ = UV. Daher folgt die Behauptung (a) durch vollstndige Induktion.
(b) Nach dem Smith-Algorithmus 11.5.16 gibt es zwei invertierbare m m-
bzw. n n-Matrizen Q und P mit
QBP = diag(a
1
, . . . , a
r
, 0, . . . , 0) = D.
Wegen (a) sind sowohl Qals auch P Produkte von elementaren mm- bzw. n n-
Matrizen. Nach Bemerkung 9.5.3 und Satz 4.1.13 erhlt man daher D durch endlich
viele Zeilen- und Spaltenumformungen von A.
11.5.20 Bemerkung. Die Behauptung von Satz 11.5.19 gilt nicht fr beliebige
Hauptidealringe. In [4], p. 23 hat P. M. Cohn ein Beispiel fr eine invertierbare
2 2-Matrix A = (a
ij
) mit Koefzienten a
ij
aus dem Ring R der ganzen Zahlen
des algebraischen Zahlkrpers Q

19 angegeben, die nicht in der Untergruppe U


von GL(2, R) liegt, die von den invertierbaren Diagonal- und den Elementarmatrizen
erzeugt wird. Dieser Ring R ist ein Hauptidealring, der nicht euklidisch ist. Es ist im
Rahmen dieses Buches nicht mglich, diese Begriffe und das Beispiel ausfhrlicher
zu erlutern; dazu wird auf die Arbeit [4] von P. M. Cohn verwiesen.
11.5.21 Denition. Sei M ein endlich erzeugter R-Modul ber einem Hauptideal-
ring R. Ist M =

n
i=1
m
i
R und S = {m
i
M | 1 i n} ein Erzeugendensy-
stem von M von kleinster Elementzahl, dann gibt es nach Satz 9.4.15 einen freien
R-Modul P =

n
i=1
f
i
R mit Basis A = {f
i
P | 1 i n} und einen Epimor-
phismus : P M, der durch (f
i
) = m
i
fr i = 1, 2, . . . , n deniert ist. Sei
U = Ker() = {f P | (f ) = 0}. Nach Hilfssatz 11.2.5 hat der Untermodul U
von P ein Erzeugendensystem B = {u
j
U | 1 j r} mit r n Elementen.
Jedes u
j
hat die eindeutige Darstellung
u
j
=
n

i=1
f
i
r
ij
, 1 j r, fr geeignete r
ij
R.
342 11 Moduln ber Hauptidealringen
Die r n-Matrix R = (r
ij
) heit die Relationen-Matrix des endlich erzeugten
R-Moduls M bezglich der Basis A des R-Moduls P der freien Auflsung
0 U P

M 0
von M. Die r Gleichungen
n

i=1
m
i
r
ij
= 0, 1 j r
heien die Relationen vom M bezglich des Erzeugendensystems {m
1
, . . . , m
n
}.
11.5.22 Bemerkung. Die r Elementarteiler a
j
, 1 j r, des R-Moduls M knnen
nach Satz 11.5.18 mittels der Algorithmen 11.5.11 und 11.5.15 durch endlich viele
Umformungen der Relationen-Matrix Rdes R-Moduls M bezglich der Basis B =
{u
j
U | 1 j r} des Kerns U = Ker() des Epimorphismus : P M
berechnet werden.
11.5.23 Folgerung. Sei A eine endlich erzeugte abelsche Gruppe mit einer freien
Auflsung
0 U P A 0, ()
wobei P ein freier Z-Modul mit rg(P) = n ist. Sei R = (r
ij
), 1 i, j n, die
Relationen-Matrix von A bezglich einer Basis von P.
Dann gelten:
(a) A ist genau dann endlich, wenn fr den freien Untermodul U ebenfalls
rg(U) = n gilt.
(b) Ist die Gruppe A endlich, so hat sie die Ordnung
|A| = | det(R)|.
Beweis: (a) folgt unmittelbar aus Satz 11.5.18 und Satz 11.4.3, weil jede abelsche
Gruppe ein Z-Modul ist.
(b) Da Z ein euklidischer Ring ist, existieren nach Satz 11.5.19 zwei Elemen-
tarmatrizen P und Q derart, da
QRP = diag(d
1
, d
2
, . . . , d
n
) = D
die Smith-Normalformder Relationen-Matrix Rist, und die beiden Matrizen P und
QProdukte von ganzzahligen Permutationsmatrizen oder Elementarmatrizen T mit
det(T ) = 1 sind. Insbesondere gilt
det(Q), det(P) {1, 1}.
11.5 Elementarteiler von Matrizen 343
Nach Satz 11.5.18 und Denition 11.5.21 ist
A

= P/U

=
n

i=1
Z/d
i
Z.
Daher gilt
|A| =
n

i=1
d
i
= | det(D)| = | det(QRP)| = | det(R)|
nach Satz 10.5.6.
11.5.24 Beispiel. Es soll nun die Struktur der endlich erzeugten abelschen Gruppe
A mit der Relationen-Matrix
R =
_
_
_
_
2 2 6 4 0
6 4 16 10 14
4 3 11 7 1
8 5 21 13 4
_
_
_
_
bestimmt werden. Die Smith-NormalformDdieser Matrix wurde in Beispiel 11.5.13
bestimmt. Danach gilt:
D = diag(1, 1, 2, 0).
Zur Relationen-Matrix R gehrt nach Denition 11.5.21 eine freie Auflsung
0 U Z
5
A 0
von A mit einem freien Z-Untermodul U vom Rang 3. Nach Satz 11.5.18 gilt daher
A

= Z
5
/U

= Z
2
Z/2Z.
Mittels der Smith-Normalform erhlt man die folgende Faktorisierung des cha-
rakteristischen Polynoms.
11.5.25 Folgerung. Sei A = (a
ij
) eine n n-Matrix mit Koefzienten aus dem
Krper F. Dann ist das charakteristische Polynomchar Pol
A
(X) von Adas Produkt
der normierten Elementarteiler positiven Grades der Matrix (E
n
X A).
Beweis: Die Koefzienten der Matrix L = (E
n
X A) gehren zum eukli-
dischen Ring R = F[X]. Nach Satz 11.5.18 existieren invertierbare Matrizen
Q, P GL(n, R) derart, da
QLP = diag(d
1
, d
2
, . . . , d
n
)
344 11 Moduln ber Hauptidealringen
in Smith-Normalform ist. Da nur die Konstanten Einheiten in R = F[X] sind, gilt
det(Q), det(P) F. Das Produkt der Elementarteiler d
i
ist bis auf einen konstanten
Faktor f F gleich dem Produkt der s n normierten Elementarteiler d
j
positiven
Grades. Hieraus folgt
det(Q) det(L) det(P) = f
s

j=1
d
j
und so char Pol
A
(X) =
s

j=1
d
j
,
weil det(L) = char Pol
A
(X) ein normiertes Polynom und R ein ZPE-Ring ist.
11.6 Aufgaben
11.1 Zeigen Sie: Die Teilmenge
Z[i] = {c = a +bi C | a, b Z}
des Krpers C der komplexen Zahlen bildet bezglich dessen Addition + und Multiplikation
einen nullteilerfreien kommutativen Ring mit Eins. Z[i] ist bezglich der Norm (a +bi) =
a
2
+ b
2
fr alle c = a + bi Z[i] ein euklidischer Ring im Sinne der Denition 10.1.3.
Dieser Ring Z[i] heit der Ring der ganzen Gauschen Zahlen .
11.2 Bestimmen Sie die Einheiten im Ring R = Z[i] der ganzen Gauschen Zahlen von
Aufgabe 11.1.
11.3 Berechnen Sie mit Hilfe des euklidischen Algorithmus den grten gemeinsamen
Teiler der folgenden Paare von Polynomen f
1
(X), f
2
(X) Q[X] sowie eine Darstellung
ggT(f
1
(X), f
2
(X)) = p
1
(X)f
1
(X) +p
2
(X)f
2
(X) mit p
i
(X) Q[X].
(a) f
1
(X) = X
15
+X
12
+X
10
+X
9
+X
6
+X
5
+X
4
+X
2
+1,
f
2
(X) = X
12
+X
9
+X
7
+X
6
+X
5
+X
3
+X
2
+X +1.
(b) f
1
(X) = X
11
+ 3X
10
+ 6X
9
+ 11X
8
+ 18X
7
+ 28X
6
+ 39X
5
+ 53X
4
+ 48X
3
+41X
2
+30X +17,
f
2
(X) = X
9
+X
8
+2X
7
+4X
6
+5X
5
+9X
4
+9X
3
+15X
2
4X +17.
11.4 (a) Sei f (X) = a
n
X
n
+ a
n1
X
n1
+ + a
1
X + a
0
Z[X] und p/q Q ein
(gekrzter) Bruch, d. h. p, q sind teilerfremde ganze Zahlen. Zeigen Sie: Aus f (p/q) = 0
folgt q |
| a
n
und p |
| a
0
.
(b) Zeigen Sie: 4X
3
+3X
2
+2X +1 ist irreduzibel in Q[X].
11.5 Zeigen Sie, da das charakteristische Polynom der Matrix
C =
_
_
_
_
_
_
_
_
_
_
0 0 f
0
1 0 f
1
0 1
.
.
.
f
2
.
.
.
.
.
.
.
.
.
1 0 f
n2
0 0 1 f
n1
_
_
_
_
_
_
_
_
_
_
11.6 Aufgaben 345
gleich dem Polynom f
0
+f
1
X + +f
n1
X
n1
+X
n
ist.
11.6 Sei R := Z/2Z, f (X) = X
3
+X+1 R[X]. Zeigen Sie: K = R[X]/(R[X] f (X))
ist ein Krper mit endlich vielen Elementen. Bestimmen Sie die Anzahl der Elemente in K.
11.7 (a) Man gebe eine notwendige und hinreichende Bedingung dafr an, da fr die natr-
lichen Zahlen m 2 und n 2 die beiden Z-Moduln Z/mZZ/nZ und Z/mnZ isomorph
sind.
(b) Zeigen Sie die quivalenz folgender Aussagen fr 2 n, m N:
(i) m+Z ist Einheit in Z/nZ;
(ii) m+Z ist kein Nullteiler in Z/nZ;
(iii) ggT(n, m) = 1.
11.8 Berechnen Sie das charakteristische Polynom, die rationalen Eigenwerte und die zuge-
hrigen Eigenvektoren ber dem Krper Q der rationalen Zahlen von der Matrix
A =
_
_
_
_
5 4 1 1
1 0 0 1
1 2 0 1
1 2 1 1
_
_
_
_
.
11.9 Im freien Z-Modul P = aZbZcZdZ sei der Untermodul U von den Elementen
w = a +3b +2c +8d,
x = 3b +2c +8d,
y = 5a +b 4c +8d,
z = 7a +4b 2c +16d
erzeugt. Bestimmen Sie die Elementarteiler der abelschen Gruppe A = P/U.
11.10 Zeigen Sie, da der Quotientenkrper Q des nullteilerfreien Ringes R kein endlich
erzeugter R-Modul ist, wenn R kein Krper ist.
11.11 Berechnen Sie zu der Matrix
A =
_
_
X
2
+2 X
2
X
2
+1
3X
3
X
3
+X +1 3X
3
X
2X
2
+1 X
2
2X
2
_
_
mit Elementen aus Q[X] die Elementarteiler und die zugehrige Transformationsmatrizen.
11.12 Bestimmen Sie alle abelschen Gruppen G der Ordnung |G| = 2401, die genau 48
Elemente g der Ordnung 7 haben.
11.13 Bestimmen Sie den grten gemeinsamen Teiler und das kleinste gemeinsame Viel-
fache der Polynome p(X) = X
3
+ X
2
+ X 3 und q(X) = X
4
X
3
+ 3X
2
X + 4 in
F[X] in jedem der Flle F = Q, Z/3Z, und Z/11Z.
12 Normalformen einer Matrix
In Kapitel 6 wurde die spezielle Frage untersucht, welche quadratischen Matrizen
zu Diagonalmatrizen hnlich sind. Mit Hilfe des im vorigen Kapitel bewiesenen
Struktursatzes 11.4.7 fr endlich erzeugte Moduln ber Hauptidealringen ist es nun
mglich, die hnlichkeitsklassen aller n n-Matrizen ber einem kommutativen
Krper F zu klassizieren. Hierzu wird gezeigt, da zwei n n-Matrizen Aund B
genau dann hnlich sind, wenn sie dieselbe rationale Form besitzen. Aus ihr ergibt
sich fr algebraisch abgeschlossene Krper F auch die Jordansche Normalform
einer n n-Matrix, die schon in Kapitel 6 behandelt worden war. Auerdem folgt
der Satz von Cayley-Hamilton, der besagt, da jede n n-Matrix ANullstelle ihres
charakteristischen Polynoms char Pol
A
(X) ist.
Umden Struktursatz fr endlich erzeugte Moduln ber Hauptidealringen anwen-
den zu knnen, wird im ersten Abschnitt fr jeden Endomorphismus End
F
(V)
des n-dimensionalenVektorraums V ber demKrper F eine R-Linksmodulstruktur
auf V erklrt, wobei R = F[X] der Polynomring in einer Unbestimmten X ber F
ist. Wegen der endlichen Dimension von V ist V ein Torsionsmodul. Die Ordnung
o(V) dieses Torsionsmoduls V ist das Minimalpolynom m(X) von .
Im ersten Abschnitt werden auch die Beziehungen zwischen den Matrizendar-
stellungen von bezglich geeigneter Basen von V und der Zerlegung von V in
zyklische R-Linksuntermoduln analysiert. Hiermit ist es dann einfach, im zweiten
Abschnitt die rationale kanonische Form einer nn-Matrix A = (a
ij
) mit Koefzi-
enten a
ij
aus einemKrper F aus demStruktursatz fr endlich erzeugte Moduln ber
Hauptidealringen abzuleiten. Hieraus ergibt sich der Satz von Cayley-Hamilton.
Im letzten Abschnitt werden die Berechnungsverfahren fr die Normalformen
einer n n-Matrix beschrieben und anhand von Beispielen erlutert.
12.1 Vektorrume als Moduln ber einem Polynomring
In diesemAbschnitt ist F stets ein kommutativer Krper, V ein n-dimensionaler F-
Vektorraum und R = F[X] der Ring aller Polynome ber F in der Unbestimmten
X. Nach Folgerung 11.1.10 ist R ein Hauptidealring.
12.1.1 Denition. Fr jeden Endomorphismus End
F
(V) ist V ein endlich er-
zeugter R-Linksmodul vermge der folgenden Multiplikation: Fr alle v V und
12.1 Vektorrume als Moduln ber einem Polynomring 347
alle r = f (X) = f
0
+f
1
X + +f
k
X
k
R = F[X] sei
r v = f () v = f
0
v +f
1
(v) + +f
k

k
(v) V.
In diesem Kapitel wird V stets als R-Linksmodul bezglich eines fest gewhlten
Endomorphismus von V mit der in Denition 12.1.1 angegebenen Modulstruktur
betrachtet. Man beachte, da diese R-Modulstruktur von V vom Endomorphismus
End
F
(V) abhngt.
12.1.2 Bemerkungen.
(a) Wegen dim
F
V = n und F R wird V als R-Linksmodul von n Elementen
erzeugt.
(b) Ist B = {v
1
, v
2
, . . . , v
n
} eine Basis des Vektorraums V und A = (a
ij
) =
A

(B, B) die n n-Matrix des Endomorphismus End


F
(V), dann ist
die charakteristische Matrix char
A
(X) = AXE
n
die Relationenmatrix des
R-Linksmoduls V, weil
Xv
j
= (v
j
) =
n

i=1
v
i
a
ij
fr 1 j n
gilt. Also sind die Zeilenvektoren von char
A
(X) die Relationen des R-Links-
moduls V.
12.1.3 Hilfssatz. V ist ein endlich erzeugter R-Torsionsmodul.
Beweis: Fr jedes o = v V ist Ann(v) = {r R | rv = o} ein Ideal in
R = F[X] derart, da Rv

= R/Ann(v). Da R = F[X] ein unendlich-dimensionaler
F-Vektorraum ist und Rv als Unterraum von V endlich-dimensional ist, folgt
Ann(v) = 0. Also ist V ein R-Torsionsmodul.
12.1.4 Denition. Das normierte Polynom m(X) R = F[X] heit Minimalpo-
lynom des Endomorphismus 0 = End
F
(V) von V, wenn m(X) ein Polynom
kleinsten Grades mit m() = 0 ist.
Analog erklrt man das Minimalpolynom einer n n-Matrix A = (a
ij
) mit
Koefzienten a
ij
aus dem Krper F.
12.1.5 Satz. Das Minimalpolynom m(X) R = F[X] des Endomorphismus
End
F
(V) ist durch eindeutig bestimmt. Es ist die normierte Ordnung o(V)
des Torsionsmoduls V ber dem Hauptidealring R.
Beweis: Sei k der Grad eines Polynoms m(X) = g
0
+g
1
X+ +g
k1
X
k1
+X
k
kleinsten Grades mit m() = 0. Nach Hilfssatz 12.1.3 ist der endlich erzeugte
348 12 Normalformen einer Matrix
R-Linksmodul V ein Torsionsmodul. Gem Denition 11.3.6 ist seine Ordnung
r(X) = o(V) ein Erzeuger des Hauptideals
Ann(V) = {q R | q v = o fr alle v V}.
Da assoziierte Elemente im Hauptidealring R = F[X] sich nur um konstante Fakto-
ren 0 = f F unterscheiden, kann r(X) als normiertes Polynom gewhlt werden.
Sei
o(V) = r(X) = r
0
+r
1
X + +r
t 1
X
t 1
+X
t
mit r
i
F.
Dann gilt fr alle v V, da
o = r(X) v = r
0
v +r
1
(v) + +r
t 1

t 1
(v) +
t
(v) = r() v.
Also ist r() = 0 in End
F
(V). Daher ist t k.
Das Polynomr(X) ist als Erzeuger des Hauptideals Ann(V) einAnnullator mini-
malen Grades, d. h. es gilt auch t k. Daher ist t = k und die normierten Polynome
r(X) und m(X) stimmen berein.
12.1.6 Satz. Sei End
F
(V) und V der R-Linksmodul bezglich der Wirkung von
auf V. Der Unterraum U des n-dimensionalen F-Vektorraums V ist genau dann
-invariant, wenn U ein R-Untermodul des R-Moduls V ist.
Beweis: Sei r(X) = r
0
+r
1
X + +r
k
X
k
R = F[X] und U ein -invarianter
Unterraum des F-Vektorraums V. Sei u U. Wegen Denition 3.7.1 ist
i
(u) U
fr i = 1, 2, . . . , k. Nach Denition 12.1.1 gilt dann
r(X)u = r
0
u +r
1
(u) +r
2

2
(u) + +r
k

k
(u) U.
Also ist U ein R-Untermodul von V.
Ist umgekehrt U ein R-Untermodul von V, dann ist (u) = Xu U fr alle
u U. Also ist U ein -invarianter Unterraum von V.
12.1.7 Denition. Der Endomorphismus End
F
(V) von V heit zyklisch, wenn
ein 0 = v V existiert, derart, da {v, v,
2
v, . . . ,
n1
v} eine Basis von V ist.
12.1.8 Denition. Ist f (X) = f
0
+ f
1
X + + f
n1
X
n1
+ X
n
ein normiertes
Polynom aus R = F[X], so heit die n n-Matrix
C(f (X)) =
_
_
_
_
_
_
_
_
_
_
_
_
0 0 0 0 0 f
0
1 0 0 0 0 f
1
0 1 0 0 0 f
2
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 f
n2
0 0 0 0 1 f
n1
_
_
_
_
_
_
_
_
_
_
_
_
12.1 Vektorrume als Moduln ber einem Polynomring 349
die Begleitmatrix von f (X).
12.1.9 Hilfssatz. Es sei ein zyklischer Endomorphismus des Vektorraums V mit
Basis B = {v, v, . . .
n1
v} und Minimalpolynom m(X) F[X]. Dann gelten:
(a) m(X) hat den Grad n.
(b) A

(B, B) = C(m(X)), wobei C(m(X)) die Begleitmatrix von m(X) ist.


Beweis: Da B = {v, v,
2
v, . . . ,
n1
v} eine Basis von V ist, hat der Vektor
n
v
von V die eindeutige Darstellung

n
v =
n

i=1
(
i1
v)g
i1
mit g
i1
F. ()
Also ist (
n
g
n1

n1
g
1
g
0
)v = g() v = 0 fr g(X) = X
n

g
n1
X
n1
g
1
X g
0
F[X]. Da B eine Basis von V ist, folgt, da g(X)
das Minimalpolynom von ist. Also ist g(X) = m(X), weil g(X) normiert ist.
Setze f
i
= g
i
fr i = 0, 1, . . . , n 1, dann folgt aus Behauptung () nach
Denition 3.3.1.
12.1.10 Folgerung. Sei ein Endomorphismus des n-dimensionalen F-Vektor-
raums V und R = F[X]. V ist genau dann ein zyklischer R-Linksmodul bezglich
, wenn ein zyklischer Endomorphismus von V ist. Insbesondere besitzt V dann
eine Basis B derart, da die Matrix A

(B, B) des Endomorphismus bezglich B


die Begleitmatrix C(m(X)) des Minimalpolynoms m(X) von ist.
Beweis: Die R-Modulstruktur auf V ist in Denition 12.1.1 erklrt. Nach Satz 12.1.5
ist das Minimalpolynom m(X) von die Ordnung o(V) = Ann(V) des R-
Linksmoduls V. Ist V ein zyklischer R-Linksmodul, dann gibt es ein Element
0 = v V derart, da
o(V) = Ann(V) = m(X)R = Ann(v) = {r(X) R | r(X) v = o}.
Also ist V

= R/m(X)R, und B = {v, v, . . . ,
n1
v} ist eine Basis von V, weil
m(X) ein normiertes PolynomvomGrade n = dim
F
V ist. Daher ist ein zyklischer
Endomorphismus von V.
Ist umgekehrt ein zyklischer Endomorphismus von V, dann hat das Minimalpo-
lynomm(X) von nachHilfssatz 12.1.9denGradn. Alsoist R/m(X)R

= Rv = V,
weil B = {v, v, . . . ,
n1
v} fr ein 0 = v V eine Basis von V ist. Daher ist V
ein zyklischer R-Linksmodul.
Gilt eine dieser beiden quivalenten Bedingungen fr den Endomorphismus
, dann ist B = {v, v, . . . ,
n1
v} fr ein 0 = v V eine Basis von V.
Nach Hilfssatz 12.1.9 und Denition 12.1.8 folgt, da bezglich B die Matrix
A

(B, B) = C(m(X)) hat, wobei C(m(X)) die Begleitmatrix des Minimalpoly-


noms m(X) von ist.
350 12 Normalformen einer Matrix
12.2 Rationale kanonische Form
Mit den Ergebnissen des vorangehendenAbschnitts ist es nun einfach, mit demStruk-
tursatz fr endlich erzeugte Moduln ber Hauptidealringen den folgenden Hauptsatz
dieses Kapitels zu beweisen.
12.2.1 Satz (Rationale kanonische Form). Sei = 0 ein Endomorphismus des
n-dimensionalen F-Vektorraums V. Das Minimalpolynom m(X) von habe in
R = F[X] die eindeutige Primfaktorzerlegung
m(X) = q
1
(X)
e
1
q
2
(X)
e
2
q
k
(X)
e
k
,
wobei q
i
(X) normiert und irreduzibel in F[X] und q
i
(X) = q
j
(X) fr i = j ist.
Dann existiert eine Basis B von V, bezglich derer die Matrix A

(B, B) von die


folgende Gestalt hat:
A

(B, B) =
_
_
_
_
_
_
_
R
1
0 0
0 R
2
.
.
.
.
.
.
0
0 0 R
k
_
_
_
_
_
_
_
,
wobei jede Matrix R
i
von der Form
R
i
=
_
_
_
_
_
_
_
_
C (q
i
(X)
e
i1
) 0 0
0 C (q
i
(X)
e
i2
)
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 C
_
q
i
(X)
e
ir
i
_
_
_
_
_
_
_
_
_
ist, e
i
= e
i1
e
i2
e
ir
i
> 0 fr i = 1, 2, . . . , k gilt und die Zahlen e
ij
i
fr
1 j
i
r
i
die Elementarteiler der q
i
(X)-Primrkomponente des Torsionsmoduls
V mit Ordnung o(V) = m(X) in R sind. Insbesondere ist V
q
i
(X)
= {v V | q
i
(X)
e
i

v = o} fr i = 1, 2, . . . , k.
Beweis: Nach Denition 12.1.1 und Hilfssatz 12.1.3 ist der n-dimensionale
F-Vektorraum ein Torsionsmodul ber dem Hauptidealring R = F[X]. Wegen
Satz 12.1.5 ist das Minimalpolynom m(X) von die Ordnung o(V) des endlich
erzeugten R-Linksmoduls V. Da R ein Hauptidealring ist, lt sich m(X) nach
Satz 11.1.27 eindeutig in Primelemente q
i
(X) R faktorisieren, d. h.
m(X) = q
1
(X)
e
1
q
2
(X)
e
2
q
k
(X)
e
k
,
12.2 Rationale kanonische Form 351
wobei die irreduziblen Polynome q
i
(X) F[X] normiert und paarweise verschieden
sind. Sei V
i
= V
q
i
(X)
die q
i
(X)-Primrkomponente des Torsionsmoduls V. Nach
Satz 11.3.5 und Folgerung 11.3.8 ist dann
V = V
1
V
2
V
k
und V
i
= {v V | q
i
(X)
e
i
v = 0} fr i = 1, 2, . . . , k.
Wegen Satz 12.1.6 ist jeder dieser direkten Summanden V
i
von V ein -invarianter
Unterraum. Sei
i
=
|V
i
die Einschrnkung von auf den Unterraum V
i
fr i =
1, 2, . . . , k. Nach Satz 3.7.3 gibt es dann in den Unterrumen V
i
Basen B
i
derart,
da B =

k
i=1
B
i
eine Basis von V ist. Sei R
i
= A

i
(B
i
, B
i
) fr i = 1, 2, . . . , k.
Dann hat bezglich B die diagonale Blockmatrix
A

(B, B) =
_
_
_
_
_
_
_
_
R
1
0 0
0 R
2
.
.
.
.
.
.
.
.
.
.
.
.
R
k1
0
0 0 R
k
_
_
_
_
_
_
_
_
.
Nach Satz 11.4.3 ist jede Primrkomponente V
i
von V eine direkte Summe
V
i
= M
i1
M
i2
M
ir
i
von zyklischen R-Linksmoduln M
ij
i
mit Ordnungen o(M
ij
i
) = q
i
(X)
e
ij
i
fr
1 j
i
r
i
, wobei die Indizes j
i
so geordnet werden knnen, da fr die Ele-
mentarteilerexponenten e
ij
i
von V
i
zum irreduziblen Polynom q
i
(X) gilt:
e
i
= e
i1
e
i2
e
ir
i
> 0.
Nach Satz 12.1.6 ist jeder direkte Summand M
ij
i
von V
i
ein -invarianter Unterraum.
Sei
ij
i
=
|M
ij
i
die Einschrnkung von auf den direkten Summanden M
ij
i
von V
i
. Dann ist die Ordnung o(M
ij
i
) = q
i
(X)
e
ij
i
von M
ij
i
nach Satz 12.1.5 das
Minimalpolynom des Endomorphismus
ij
i
von M
ij
i
. Da M
ij
i
ein zyklischer R-
Linksmodul ist, besitzt der Unterraum M
ij
i
von V
i
nach Folgerung 12.1.10 eine
Basis B
ij
i
derart, da die Matrix A

ij
i
(B
ij
i
, B
ij
i
) der Einschrnkung
ij
i
von auf
M
ij
i
die Begleitmatrix C(q
i
(X)
e
ij
i
) des Minimalpolynoms q
i
(X)
e
ij
i
von
ij
i
ist.
Nach Satz 3.7.3 ist B
i
=

r
i
j
i
=1
B
ij
i
, und
i
=
|V
i
hat bezglich B
i
die diagonale
Blockmatrix
R
i
= A

i
(B
i
, B
i
) =
_
_
_
_
_
_
C(q
i
(X)
e
i1
) 0 0
0 C(q
i
(X)
e
i2
)
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 C(q
i
(X)
e
ir
i
)
_
_
_
_
_
_
.
Hiermit ist Satz 12.2.1 bewiesen.
352 12 Normalformen einer Matrix
12.2.2 Folgerung. Zwei nn-Matrizen A = (a
ij
) und B = (b
ij
) mit Koefzienten
a
ij
, b
ij
aus dem Krper F sind genau dann hnlich, wenn sie dieselbe rationale
kanonische Form R haben. Insbesondere haben zwei hnliche Matrizen dasselbe
Minimalpolynom.
Beweis: Besitzen A und B dieselbe rationale kanonische Form R, dann existieren
nach Satz 12.2.1 und Satz 3.3.9 invertierbare n n-Matrizen P
1
und P
2
derart, da
R = P
1
1
AP
1
= P
1
2
BP
2
.
Also ist (P
2
P
1
1
)A(P
1
P
1
1
) = (P
2
P
1
1
)A(P
2
P
1
1
)
1
= B. Daher sind A und
B hnlich.
Umgekehrt sei A = P
1
BP fr eine invertierbare n n-Matrix P. Dann
beschreiben A und B nach Bemerkung 3.5.5 denselben Endomorphismus von
V = F
n
. Deshalb haben A und B dieselbe rationale kanonische Normalform R
nach Satz 12.2.1.
12.2.3 Hilfssatz. Sei ein zyklischer Endomorphismus des n-dimensionalenVektor-
raums V ber dem Krper F. Dann ist sein Minimalpolynom m(X) = f
0
+f
1
X +
f
2
X
2
+ + f
n1
X
n1
+ X
n
F[X] gleich dem charakteristischen Polynom
char Pol

(X).
Beweis: Da ein zyklischer Endomorphismus nach Hilfssatz 12.1.9 das Minimalpo-
lynom m(X) als einzigen Elementarteiler hat, gilt charPol

= m(X) nach Folge-


rung 11.5.25.
12.2.4 Satz. Sei V ein endlich-dimensionaler Vektorraum ber dem Krper F.
Dann ist das charakteristische Polynom char Pol

(X) eines Endomorphismus


End
F
(V) das Produkt der Elementarteiler des F[X]-Moduls V.
Beweis: Folgt unmittelbar aus Folgerung 11.5.25.
12.2.5 Satz (Cayley-Hamilton). Sei V ein n-dimensionaler F-Vektorraum. Das Mi-
nimalpolynom m(X) eines Endomorphismus End
F
(V) teilt sein charakte-
ristisches Polynom char Pol

(X). Ein irreduzibles Polynom q(X) F[X] teilt


char Pol

(X) genau dann, wenn q(X) ein Teiler von m(X) ist.
Beweis: Nach Satz 12.2.4 gilt char Pol

(X) =

k
i=1

r
i
j=1
q
i
(X)
e
ij
i
, wobei
m(X) = q
1
(X)
e
1
q
2
(X)
e
2
q
k
(X)
e
k
die Primfaktorzerlegung des Minimalpoly-
noms m(X) von in normierte irreduzible Polynome q
i
(X) mit q
i
(X) = q
j
(X)
fr i = j ist, und die e
ij
die Elementarteilerexponenten zum Polynom q
i
(X) sind.
Wegen e
i1
= e
i
ist daher
char Pol

(X) = m(X)
k

k=1
_
r
i

j
i
=2
q
i
(X)
e
ij
i
_
.
12.3 Berechnungsverfahren fr die Normalformen 353
Also ist das Minimalpolynomm(X) von einTeiler des charakteristischen Polynoms
char Pol

(X) von , und beide Polynome haben dieselben irreduziblen Faktoren


q
i
(X), i = 1, 2, . . . , k.
12.2.6 Folgerung. Es gibt eine Bijektion zwischen den quivalenzklassen der nil-
potenten n n-Matrizen A = (a
ij
) mit Koefzienten a
ij
aus dem Krper F und
den Partitionen e
1
e
2
e
r
> 0 von n =

r
i=1
e
i
. Sie ist gegeben
durch die Elementarteiler e
1
e
2
e
r
> 0 der nilpotenten Matrix A.
Zu jedem Elementarteiler e
i
hat die Jordansche Normalform J von A genau ein
e
i
e
i
-Jordankstchen
L
i
=
_
_
_
_
_
_
_
_
_
_
0 0
1 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_
_
_
_
_
_
_
_
_
_
mit e
i
1 Einsen in der unteren Nebendiagonalen.
Beweis: Nach Folgerung 12.2.2 ist die quivalenzklasse einer Matrix Adurch ihre
rationale kanonische FormReindeutig bestimmt. Im Falle der nilpotenten Matrizen
A stimmen nach Satz 6.3.10 und Denition 12.1.8 die rationale Form R und die
Jordansche NormalformJberein. Da 0 F der einzige Eigenwert einer nilpotenten
Matrix A ist, ist die Jordansche Normalform J von A nach Satz 6.3.10 eindeutig
durch die Elementarteiler e
1
e
2
e
r
> 0 von Abestimmt. Nach Satz 6.3.10
ist diese Folge von natrlichen Zahlen e
i
eine Partition von n =

r
i=1
e
i
und jedes
Jordankstchen L
i
hat (e
i
1) Einsen in der unteren Nebendiagonalen.
12.3 Berechnungsverfahren fr die Normalformen
In diesem Abschnitt wird zunchst die Berechnung der Smith-Normalform der
charakteristischen Matrix einer n-reihigen quadratischen Matrix A mit Elementen
aus einem kommutativen Krper F auf den Fall von (n 1)-reihigen Matrizen
reduziert. Hierdurch ergibt sich ein efzienter Algorithmus zur Berechnung der ra-
tionalen kanonischen Normalform R und der zugehrigen Transformationsmatrix
Q mit R = Q
1
AQ. Sofern die Voraussetzungen von Satz 6.3.11 an A im Krper
F erfllt sind, erhlt man daraus dann sehr einfach auch die Jordan-Normalform J
von A.
354 12 Normalformen einer Matrix
12.3.1 Hilfssatz. Sei F ein kommutativer Krper und X eine Unbestimmte. Sei
A =
_
_
_
_
_
_
_
_
_
p
1
a
12
a
13
a
14
a
1n
p
2
a
22
X a
23
a
24
a
2n
p
3
a
32
a
33
X a
34
a
3n
p
4
a
42
a
43
a
44
X a
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
p
n
a
n2
a
n3
a
n4
a
nn
X
_
_
_
_
_
_
_
_
_
eine n n-Matrix mit Koefzienten a
ij
F fr 1 i n und 2 j n,
p
i
= p
i
(X) F[X] fr 1 i n, wobei p
1
(X) = (1)
t
X
t
+ +p
1,1
X +p
1,0
und Grad p
k
(X) < t fr 2 k n gilt.
Sei a
12
= 0. Dann gibt es zwei unimodulare Matrizen Q und P derart, da
QAP =
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 q
2
b
23
b
24
b
2n
0 q
3
b
33
X b
34
b
3n
0 q
4
b
43
b
44
X b
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 q
n
b
n3
b
n4
b
nn
X
_
_
_
_
_
_
_
_
_
,
wobei
b
ij
= a
ij
a
1
12
a
1j
a
i2
fr 3 i, j n,
b
2j
= a
2j
a
1
12
a
1j
a
22
+
_
n

i=3
a
1
12
a
1i
b
ij
_
fr 3 j n,
q
i
= a
12
p
i
+a
i2
p
1
fr 3 i n,
q
2
= a
12
p
2
+(a
22
X)p
1
+
n

i=3
a
1
12
a
1i
q
i
.
Insbesondere gilt q
2
= q
2
(X) = (1)
t +1
X
t +1
+ + q
2,1
X + q
2,0
und
Grad q
i
(X) t < t +1 fr alle 3 i n.
Beweis: Die unimodularen Matrizen P und Q sind die Produktmatrizen
P =
_
_
_
_
_
_
_
_
_
_
0 a
12
0 0 0
1
a
12
p
1
0 0 0
0 0 1 0 0
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 a
13
a
14
a
1n
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_
_
_
_
_
_
_
_
_
,
12.3 Berechnungsverfahren fr die Normalformen 355
Q =
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1
a
13
a
12
a
14
a
12

a
1n
a
12
0 0 1 0 0
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0

a
22
X
a
12
1 0 0 0

a
32
a
12
0 1 0 0

a
42
a
12
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

a
n2
a
12
0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
.

12.3.2 Denition. Eine n n Dreiecksmatrix U = (u


ij
) heit unipotent, wenn alle
ihre Diagonalelemente u
ii
= 1, 1 i n, sind.
12.3.3 Algorithmus. Sei F ein kommutativer Krper und X eine Unbestimmte. Sei
p
1
= p
1
(X) ein Polynom vom Grade t > 0 mit Leitkoefzient (1)
t
. Sei
A =
_
_
_
_
_
_
_
_
_
p
1
a
12
a
13
a
14
a
1n
a
21
a
22
X a
23
a
24
a
2n
a
31
a
32
a
33
X a
34
a
3n
a
41
a
42
a
43
a
44
X a
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
n3
a
n4
a
nn
X
_
_
_
_
_
_
_
_
_
eine n n-Matrix mit Koefzienten a
ij
F fr 1 i, j n und (i, j) = (1, 1).
Dann knnen durch das folgende Verfahren zwei unimodulare n n-Matrizen P
und Q so konstruiert werden, da die n n-Matrix
QAP = diag(a
1
(X), a
2
(X), . . . , a
n
(X))
in Diagonalform ist, wobei alle a
i
(X) F[X], und
n

i=1
Grad[a
i
(X)] = t +n 1.
Diese Behauptung ist fr n = 1 trivial. Es wird nun angenommen, da sie fr
alle (n 1) (n 1)-Matrizen gilt.
(1) Falls a
1j
= 0 fr alle j {2, 3, . . . , n} und a
i1
= 0 fr alle i {2, 3, . . . , n},
dann ist
A =
_
_
_
_
_
p
1
0 0
0
.
.
. A

0
_
_
_
_
_
,
356 12 Normalformen einer Matrix
wobei A

eine (n 1) (n 1)-Matrix vom gleichen Typ ist wie A mit t =


1. Nach Induktion gibt es zwei unimodulare (n 1) (n 1)-Matrizen Q

und
P

, so da Q

P = diag(a
2
(X), . . . , a
n
(X)) fr geeignete a
i
(X) F[X] mit

n
i=2
Grad[a
i
(X)] = n 1. Dann sind
Q =
_
_
_
_
_
1 0 0
0
.
.
. Q

0
_
_
_
_
_
und P =
_
_
_
_
_
1 0 0
0
.
.
. P

0
_
_
_
_
_
unimodulare n n-Matrizen derart, da
QAP = diag(a
1
(X) = p
1
(X), a
2
(X), . . . , a
n
(X)).
(2) Falls nicht alle a
1j
mit 2 j n gleich Null sind, dann kann man nach
Permutation der Spalten und Zeilen von Aannehmen, da a
12
= 0 ist. Sei
q
21
=
a
22
X
a
12

n

k=3
a
1k
a
k2
(a
12
)
2
.
Dann sind nach Hilfssatz 12.3.1
Q
1
=
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
q
21
1
a
13
a
12
a
14
a
12

a
1n
a
12

a
32
a
12
0 1 0 0

a
42
a
12
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

a
n2
a
12
0 0 0 1
_
_
_
_
_
_
_
_
_
_
und
P
1
=
_
_
_
_
_
_
_
_
_
0 a
12
0 0 0
1
a
12
p
1
(X)
a
13
a
12

a
14
a
12

a
1n
a
12
0 0 1 0 0
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_
_
_
_
_
_
_
_
_
unimodulare Matrizen, so da
B = Q
1
AP
1
=
_
_
_
_
_
_
_
_
1 0 0 0 0
0 q
2
b
23
b
24
b
2n
0 q
3
b
33
X b
34
b
3n
0 q
4
b
43
b
44
X b
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 q
n
b
n3
b
n4
b
nn
X
_
_
_
_
_
_
_
_
,
12.3 Berechnungsverfahren fr die Normalformen 357
wobei q
2
= q
2
(X) ein normiertes Polynom vom Grad t + 1, Grad[q
i
(X)] t fr
3 i n, und alle b
ij
F.
(3) a) Sei s = max{Grad[q
i
(X)] | 3 i n}. Dann hat jedes Polynom
q
i
(X) = a
is
X
s
+ a
i,s1
X
s1
+ + a
i,0
F[X] hchstens den Grad s t fr
i = 3, . . . , n. Also ist a
is
= 0, falls Grad[q
i
(X)] < s. Die Matrix
U
1
=
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 a
3s
X
s1
1 0 0
0 a
4s
X
s1
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
ns
X
s1
0 0 1
_
_
_
_
_
_
_
_
ist eine unipotente n n-Matrix, und
BU
1
=
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 q
2
b
23
b
24
b
2n
0 q
(1)
3
b
33
X b
34
b
3n
0 q
(1)
4
b
32
b
44
X b
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 q
(1)
n
b
n2
b
n3
b
nn
X
_
_
_
_
_
_
_
_
_
,
wobei jedes Polynom
q
(1)
i
(X) = q
i
(X) +(b
ii
X)a
is
X
s1
+
n

k=3
k=i
b
ik
a
ks
X
s1
= (b
ii
a
is
+a
i,s1
)X
s1
+
s2

k=0
a
ik
X
k
+
n

k=3
k=i
b
ik
a
ks
X
s1
mit Index 3 i n den Grad
Grad[q
(1)
i
(X)] max {Grad[q
i
(X)] 1 | 2 i n} s 1
hat.
b) Falls Grad[q
(1)
i
(X)] = 0 fr ein q
(1)
i
(X) von B U
1
ist, dann ist Schritt
a) nochmals anzuwenden. Daher gibt es hchstens t unipotente Matrizen U
i
mit
Produkt U = U
1
U
2
U
t
, so da
BU =
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 q
2
e
23
e
24
e
2n
0 e
32
e
33
X e
34
e
3n
0 e
42
e
43
e
44
X e
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 e
n2
e
n3
e
n4
e
nn
X
_
_
_
_
_
_
_
_
_
,
358 12 Normalformen einer Matrix
wobei alle e
ij
F.
c) Nach Induktionsvoraussetzung existieren fr die (n 1) (n 1)-Matrix
A

=
_
_
_
_
_
_
_
q
2
e
23
e
24
e
2n
e
32
e
33
X e
34
e
3n
e
42
e
43
e
44
X e
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
e
n2
e
n3
e
n4
e
nn
X
_
_
_
_
_
_
_
,
zwei unimodulare (n 1) (n 1)-Matrizen Q

2
und P

2
und n 1 Polynome
a
2
(X), a
3
(X), . . . , a
n
(X), fr die
n

k=2
Grad[a
k
(X)] = n +t 1
gilt, so da
Q
2
A

P
2
= diag(a
2
(X), a
3
(X), . . . , a
n
(X))
eine Diagonalform von A

ist. Also sind


Q
2
=
_
_
_
_
_
1 0 0
0
.
.
. Q

2
0
_
_
_
_
_
und P
2
=
_
_
_
_
_
1 0 0
0
.
.
. P

2
0
_
_
_
_
_
zwei unimodulare n n-Matrizen, so da
(Q
2
Q
1
)A(U
1
U
2
U
t
)(P
1
P
2
) = diag(a
1
(X) = 1, a
2
(X), . . . , a
n
(X))
eine Diagonalform der n n-Matrix Amit

n
i=1
Grad[a
i
(X)] = t +n 1 ist.
(4) Falls alle a
1j
= 0 fr 2 j n, sind die Schritte (2) und (3) auf die
Transponierte A
T
von A anzuwenden. Da A und A
T
quivalente Diagonalformen
haben, ist die Behauptung allgemein gltig.
12.3.4 Folgerung. Ist das Minimalpolynom m(X) der n n-Matrix M = (m
ij
)
mit Koefzienten im Krper F die Potenz eines irreduziblen Polynoms p(X) R =
F[X], dann existieren nach Algorithmus 12.3.3 zwei unimodulare n n-Matrizen
P und Q derart, da
QCP = diag(p(X)
e
1
, p(X)
e
2
, . . . , p(X)
e
r
, 1, . . . , 1)
mit e
1
e
2
e
r
> 0 die Smith-Normalform der charakteristischen Matrix C
von Mist.
12.3 Berechnungsverfahren fr die Normalformen 359
Beweis: Da Permutationsmatrizen unimodular sind, existieren nach Algorith-
mus 12.3.3 zwei unimodulare n n-Matrizen P und Q derart, da
QCP = diag (a
1
(X), a
2
(X), . . . , a
n
(X))
eine Diagonalmatrix ist mit Grad[a
i
(X)] Grad[a
i+1
(X)] fr 1 i n, und
Grad[a
i
(X)] = 0 genau dann, wenn i {1, 2, . . . , r}. Nach Voraussetzung ist dann
r

i=1
a
i
(X) = p(X)
k
mit k Grad[p(X)] = n
das charakteristische Polynom von M. Da p(X) irreduzibel ist, ist a
i
(X) = p(X)
e
i
,
und e
1
e
2
e
r
> 0 nach Umnumerierung.
12.3.5 Bemerkung. Ist die Zerlegung des Minimalpolynoms
m(X) =
s

i=1
p
i
(X)
k
i
einer n n-Matrix M = (m
ij
), m
ij
F, in irreduzible Faktoren p
i
(X) bekannt,
dann ist die Voraussetzung von Folgerung 12.3.4 einfach zu erfllen, indem man den
n-dimensionalen Vektorraum V = F
n
in seine Primrkomponenten
V
i
= {w F
n
|
_
p
i
(M)
k
i
_
w = o F
n
}
direkt zerlegt. Zunchst berechnet man fr jedes i 1, 2, . . . , s eine Basis B
i
des
M-invarianten Unterraums V
i
. Da V =

s
i=1
V
i
nach Satz 12.2.1 ist, erhlt man eine
neue Basis B

s
i=1
B
i
von V. Sei S die Matrix des Basiswechsels B B

, wobei
B = {e
1
, e
2
, . . . , e
n
} die kanonische Basis von V ist. Dann ist M

= S
1
MS eine
Blockdiagonalmatrix, wobei der i-te BlockM

i
auf V
i
wirkt unddas Minimalpolynom
p
i
(X)
k
i
hat. Daher erfllt jedes M

i
die Voraussetzung von Folgerung 12.3.4. Damit
erhlt man dann alle Elementarteilerexponenten e
ij
von M zu jedem irreduziblen
Polynom p
i
(X).
12.3.6 Bemerkung. Imallgemeinen ist die Berechnung der Elementarteiler der cha-
rakteristischen Matrix C = M XE einer n n-Matrix M = (m
ij
) mit Koefzi-
enten in einem kommutativen Krper F in zwei Schritte aufgeteilt. Mittels Algorith-
mus 12.3.3, erhlt man zwei unimodulare Matrizen P und Q, so da QCP = B =
diag (b
1
(X), b
2
(X), . . . , b
n
(X)) eine Diagonalmatrix mit

n
i=1
Grad[b
i
(X)] = n
ist. Dann wird die Smith-Normalform von B mit Hilfe des Algorithmus 11.5.15 fr
Diagonalmatrizen berechnet.
360 12 Normalformen einer Matrix
12.3.7 Berechnungsverfahren fr die rationale kanonische Normalform und
die zugehrige Transformationsmatrix. Sei V = F
n
der n-dimensionale, arith-
metischeVektorraumber demKrper F. Sei B = {f
1
, f
2
, . . . , f
n
} die kanonische
Basis von V. Sei R = F[X] der Polynomring in der Unbestimmten X ber F.
Sei A = (a
ij
) eine n n-Matrix, a
ij
F, mit charakteristischer Matrix
C = char
A
(X). Sei der zu Agehrige Endomorphismus von V.
Es wird vorausgesetzt, da man das Minimalpolynom m(X) von A schon ein-
deutig in Potenzen von irreduziblen Polynomen zerlegt hat.
Dann lassen sich nach den Ergebnissen der Kapitel 11 und 12 die folgenden
Schritte durchfhren.
(a) Man berechne mittels der Algorithmen 12.3.3 und 11.5.15 die Smith-
Normalform
D = diag(d
1
(X), d
2
(X), . . . , d
n
(X))
von C, wobei die n Polynome d
i
(X) die Elementarteiler von C sind.
(b) Wegen d
i
(X)|d
i+1
(X) fr i = 1, 2, . . . , n 1 ist m(X) = d
n
(X) das Mini-
malpolynom von A. Sei
m(X) =
t

k=1
[q
k
(X)]
e
k
eine eindeutige Zerlegung von m(X) in Potenzen irreduzibler Polynome
q
k
(X) R, die paarweise nicht assoziiert sind. Sei
V
k
= {v V | [q
k
(A)]
e
k
v = o}
die q
k
(X)-Primrkomponente von V. Sei B

k
eine Basis von V
k
. Dann ist
B

=

B

k
eine Basis von V. Sei S die Matrix des Basiswechsels B B

.
Dann ist
S
1
AS =
_
_
_
_
_
_
R
1
0 0
0 R
2
.
.
.
.
.
.
.
.
.
0
0 0 R
t
_
_
_
_
_
_
,
wobei R
k
die Matrix der Einschrnkung des zu A gehrigen Endomorphis-
mus von V auf den -invarianten Unterraum V
k
bzgl. der Basis B

k
ist.
Insbesondere ist m
k
(X) = [q
k
(X)]
e
k
R das Minimalpolynom von R
k
fr
k = 1, 2, . . . , t .
(c) Sei F
k
= R/q
k
(X)R der Restklassenkrper von R bezglich des maximalen
Ideals q
k
(X)R von R fr k = 1, 2, . . . , t . Dann ist

V
k
= V
k
/q
k
(R
k
)V
k
ein
F
k
-Linksvektorraum fr k = 1, 2, . . . , t .
12.3 Berechnungsverfahren fr die Normalformen 361
Sei

B

k
={ w
k1
, . . . , w
kr
k
} eine F
k
-Basis von

V
k
, wobei w
kh
=w
kh
+q
k
(R
k
)V
k
fr ein fest gewhltes w
kh
V
k
fr 1 h r
k
. Dann ist V
k
=

r
k
h=1
Rw
kh
eine direkte Zerlegung von V
k
in zyklische R-Moduln Rw
kh
. Fr jedes h sei
(R
k
)
e
kh
die kleinste Potenz von R
k
mit (R
k
)
e
kh
w
kh
= o. Nach Umnumerie-
rung der w
kh
erhlt man, da e
kh
e
k,h+1
fr h = 1, 2, . . . , r
k
1 gilt. Dann
sind die r
k
Polynome d
kh
(X) = q
k
(X)
e
kh
die Elementarteiler von
|V
k
.
Sei g
kh
der Grad des Elementarteilers d
kh
(X) fr 1 h r
k
, 1 k t .
Dann ist
B

kh
= {A
g
w
kh
Rw
kh
|0 g g
kh
1}
eine Basis des -invarianten Unterraums Rw
kh
von V
k
, bezglich der die
Einschrnkung
kh
von auf Rw
kh
die Begleitmatrix C(d
kh
(X)) von d
kh
(X)
als Matrix hat.
(d) Sei B

k
=

r
k
h=1
B

kh
. Dann ist B

k
eine Basis von V
k
, bezglich derer die
Einschrnkung
k
von auf V
k
die Matrix
A

k
(B

k
, B

k
) =
_
_
_
_
_
_
C(d
k1
(X)) 0 0
0 C(d
k2
(X))
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 C(d
kr
k
(X))
_
_
_
_
_
_
hat. Diese Matrix ist die rationale kanonische Normalform von R
k
.
(e) Sei B

=

t
k=1
B

k
. Dann ist B

eine Basis von V. Sei T die Matrix des


Basiswechsels B B

. Dann ist
T
1
AT =
_
_
_
_
_
_
A

1
(B

1
, B

1
) 0 0
0 A

2
(B

2
, B

2
)
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 A

t
(B

t
, B

t
)
_
_
_
_
_
_
die rationale kanonische Form von A.
12.3.8 Berechnungsverfahren fr die Jordansche Normalform. Sei F ein Zer-
fllungskrper der (n n)-Matrix A = (a
ij
) mit Koefzienten a
ij
F. Nach Satz
6.3.11 existiert dann die Jordansche Normalform J von A. Nach Berechnung der
rationalen kanonischen Form Rvon Amit dem Berechnungsverfahren 12.3.7 kann
angenommen werden, da A eine Begleitmatrix zum Minimalpolynom m(X) von
A ist. Dann hat V = F
n
eine zyklische Basis B = {v, v, . . . ,
n1
v} fr einen
Vektor 0 = v V, wobei der zu A gehrige Endomorphismus von V ist. Da F
Zerfllungskrper von A ist, ist m(X) = (X c)
n
nach Satz 12.2.5, wobei c ein
362 12 Normalformen einer Matrix
Eigenwert von ist. Weiter ist (Xc)
n
der einzige Elementarteiler von . Daher ist
B

= {v, ( c)v, . . . , ( c)
n1
v} ebenfalls eine Basis von V. Nach dem Beweis
von Satz 6.3.11 ist die (n n)-Matrix
A

(B

, B

) =
_
_
_
_
_
_
_
c
1 c
1 c
.
.
.
.
.
.
1 c
_
_
_
_
_
_
_
die Jordansche Normalform der Matrix A.
12.3.9 Beispiel. Sei V = Q
5
der fnfdimensionale Vektorraum ber dem Krper
Q der rationalen Zahlen. Gesucht ist das charakteristische Polynom, das Minimal-
polynom, die Elementarteiler, die rationale kanonische Normalform, die Jordansche
Normalform (falls sie existiert) und die zugehrigen Transformationsmatrizen fr
die Matrix
A =
_
_
_
_
_
_
3 1 4 3 1
1 1 1 1 0
1 0 2 0 0
4 1 4 5 1
2 0 2 2 1
_
_
_
_
_
_
.
Lsung: Mittels der Schritte (2), (3), und (4) desAlgorithmus 12.3.3 werden zunchst
die Elementarteiler der charakteristischen Matrix C = AXE berechnet.
In der folgenden Rechnung wird die Ausgangsmatrix C und alle aus ihr bei den
jeweiligen Schritten (2) bis (4) des Algorithmus 12.3.3 hervorgehenden Matrizen fett
gedruckt, whrend die jeweiligen Transformationsmatrizen der Formen P, Q und
Uin Normaldruck gesetzt sind.
Schritt (2) fr 5 5-Matrix:
_
_
_
_
_
(3 +X) 1 4 3 1
1 1 X 1 1 0
1 0 2 X 0 0
4 1 4 5 X 1
2 0 2 2 1 X
_
_
_
_
_
_
_
_
_
_
0 1 0 0 0
1 (3 +X) 4 3 1
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
4 X 1 4 3 1
0 0 1 0 0
1 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
(X 1) X
2
+2X 2 4X +3 3X 2 (1 X)
0 1 2 X 0 0
1 1 X 0 2 X 0
0 2 2 2 1 X
_
_
_
_
_
_
12.3 Berechnungsverfahren fr die Normalformen 363
Schritt (3) fr 5 5-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 X
2
X +3 3 2 0
0 1 2 X 0 0
0 1 X 0 2 X 0
0 2 2 2 1 X
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 1 0 1 0
0 0 0 0 1
_
_
_
_
_
Schritt (2) fr 4 4-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 X
2
X +1 3 2 0
0 1 2 X 0 0
0 1 0 2 X 0
0 0 2 2 1 X
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 0 3 0 0
0
1
3
X
2
X +1
2
3
0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0
1
3
(2 X) 1
2
3
0
0 0 0 1 0
0
2
3
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0
1
3
(X 2) (1 X)
3
2
2
3
(2 X) 0
0 0 3 2 X 0
0
2
3
2(X
2
X +1)
2
3
1 X
_
_
_
_
_
_
Schritt (3) fr 3 3-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 (X 1)
3
0 0
0 0 3 2 X 0
0 0 2(X
2
X +1)
2
3
1 X
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 2X 0 1
_
_
_
_
_
Schritt (4) fr 3 3-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 0
1
3
0
0 0 3 (1 X)
3
0
0 0 0
2
3
1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 (1 X)
3
0 0
0 0 3 2 X 0
0 0 2
2
3
1 X
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1
1
3
(2 X) 0
0 0 0 (1 X)
3
(2 X) 0
0 0 0
2
3
(1 X) 1 X
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1
1
3
(2 X) 0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
Schritt (3) fr 2 2-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 (1 X)
3
(X 2) 0
0 0 0
2
3
(1 X) 1 X
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0
2
3
1
_
_
_
_
_
_
364 12 Normalformen einer Matrix
Also hat die charakteristische Matrix char
A
(X) von Adie Smith-Normalform
diag(1, 1, 1, X 1, (X 1)
3
(X 2)).
Daher sind m(X) = (X 1)
3
(X 2) das Minimalpolynom und charPol
A
(X) =
(X 1)
4
(X 2) das charakteristische Polynom von A. Nach Satz 6.3.11 existiert
daher die Jordansche Normalform von A.
Da (X 1) und (X 2) teilerfremd sind, hat char
A
(X) die Elementarteiler
(X 1), (X 1)
3
und (X 2).
Nach Verfahren 12.3.7 (b) hat V die Primrkomponenten
V
1
= {v V | (AE
5
)
3
v = 0} und V
2
= {v V | (A2E
5
)v = 0}.
Die Matrix A 2E
5
hat den Rang 4. Daher ist dim
Q
V
2
= 1 nach Satz 3.2.13.
Insbesondere ist der Eigenvektor w
21
= (0, 1, 2, 3, 2) von A zum Eigenwert
c
2
= 2 eine Basis B

2
von V
2
.
Aus Satz 11.3.5 folgt V = V
1
V
2
und so dim
Q
V
1
= 4. Nun ist
(AE
5
)
2
=
_
_
_
_
_
_
1 1 1 1 1
1 0 1 1 0
3 1 3 3 1
3 0 3 3 0
2 0 2 2 0
_
_
_
_
_
_
,
(AE
5
)
3
=
_
_
_
_
_
_
0 0 0 0 0
1 0 1 1 0
2 0 2 2 0
3 0 3 3 0
2 0 2 2 0
_
_
_
_
_
_
.
Also bilden die Vektoren w
11
= (0, 1, 0, 0, 0), (A E
5
)w
11
= (1, 0, 0, 1, 0),
(A E
5
)
2
w
11
= (1, 0, 1, 0, 0) und der Eigenvektor w
12
= (0, 1, 0, 0, 1) von A
zum Eigenwert c
1
= 1 eine Basis B

1
von V
1
derart, da w
1i
(A E
5
)V
1
fr
i = 1, 2 gilt. Daher sind w
11
und w
12
nach 12.3.7 (d) zyklische Vektoren von A,
d. h. V
1
= Rw
11
Rw
12
.
Insbesondere ist B

1
= {w
11
, Aw
11
, A
2
w
11
, w
12
} eine Basis von V
1
und B

=
B

1
B

2
eine Basis von V. Sei B = {f
1
, f
2
, . . . , f
5
} die kanonische Basis und
B

= B

1
B

2
, die nach 12.3.8 existierende Basis von V, die zur Jordanschen
Normalform gehrt. Es sind
T =
_
_
_
_
_
_
0 1 1 0 0
1 1 1 1 1
0 0 1 0 2
0 1 2 0 3
0 0 0 1 2
_
_
_
_
_
_
und Q =
_
_
_
_
_
_
0 1 1 0 0
1 0 0 1 1
0 0 1 0 2
0 1 0 0 3
0 0 0 1 2
_
_
_
_
_
_
12.4 Aufgaben 365
die Matrizen der Basiswechsel B B

bzw. B B

. Dann hat A nach den


Berechnungsverfahren 12.3.7 und 12.3.8
die rationale kanonische Normalform T
1
AT =
_
_
_
_
_
_
0 0 1
1 0 3
0 1 3
1
2
_
_
_
_
_
_
und die Jordansche Normalform Q
1
AQ =
_
_
_
_
_
_
1 0 0
1 1 0
0 1 1
1
2
_
_
_
_
_
_
.
Ein weiteres, greres Beispiel wird imAnhangA dargestellt. Dort wird gezeigt,
wie man das Computeralgebrasystem MAPLE fr die Berechnung der rationalen
kanonischen Form und der Jordanschen Normalform verwenden kann.
12.4 Aufgaben
12.1 Sei F ein Krper und A eine invertierbare n n-Matrix ber F. Zeigen Sie: Es gibt
ein Polynom f (X) = f
0
+ f
1
X + + f
m
X
m
F[X] mit A
1
= f (A), d. h. A
1
=
f
0
E
n
+f
1
A+ f
m
A
m
.
12.2 Bestimmen Sie die rationale kanonische FormRund die Transformationsmatrix Qmit
Q
1
AQ = R der reellen Matrix
A =
_
_
_
_
0 2 1 1
3 1 0 1
2 4 1 2
1 2 1 2
_
_
_
_
.
12.3 Man berechne mittels Algorithmus 12.3.3 die Smith-Normalform und die Transforma-
tionsmatrizen P und Q der charakteristischen Matrix C = char
A
(X) der rationalen Matrix
A =
_
_
_
_
1 0 8 12
0 1 6 9
0 0 2
9
2
0 0 2 4
_
_
_
_
.
12.4 Zeigen Sie, da jede n n-Matrix A = (a
ij
) mit Koefzienten a
ij
aus dem Krper F
zu ihrer transponierten Matrix A
T
hnlich ist.
366 12 Normalformen einer Matrix
12.5 Sei A = (a
ij
) eine n n-Matrix mit Koefzienten aus dem Krper F. Seien
d
1
(X), d
2
(X), . . . , d
r
(X) F[X] die Elementarteiler positiven Grades.
n
i
= Grad(d
i
(X)) > 0 fr 1 i r.
Sei E = {B Mat(n, F) | AB = BA}. Zeigen Sie:
(a) E ist ein Unterring von Mat(n, F).
(b) dim
F
E =

r
j=1
(2r 2j +1)n
j
.
12.6 Sei n 2 und
A =
_
_
_
_
_
_
_
_
a b b b
b a b b
b b a
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
b b a
_
_
_
_
_
_
_
_
eine n n-Matrix ber dem Krper F derart, da nb = 0.
(a) Bestimmen Sie auf mglichst einfache Weise alle Eigenwerte von A und die Dimen-
sionen der zugehrigen Eigenrume.
(b) Begrnden Sie mit Ihren Ergebnissen zu (a), da Aber demKrper F eine Jordansche
Normalform J besitzt.
(c) Berechnen Sie das Minimalpolynom m(X) von A.
(d) Geben Sie die Jordansche Normalform J an.
12.7 Sei n 3 und
A =
_
_
_
_
_
_
_
0 0 0 b
1
0 0 0 b
2
.
.
.
.
.
.
.
.
.
0 0 0 b
n1
a
1
a
2
a
n1
0
_
_
_
_
_
_
_
eine reelle n n-Matrix derart, da nicht alle a
j
und nicht alle b
j
gleich Null sind.
Sei c =

n1
j=1
a
j
b
j
. Zeigen Sie:
(a) Ist c = 0, soist 0der einzige Eigenwert vonA, undAhat Minimalpolynomm(X) = X
3
und Jordansche Normalform
J =
_
J
1
J
2
_
, wobei J
1
=
_
_
0
1 0
0 1 0
_
_
und J
2
die (n 3) (n 3)-Nullmatrix ist.
(b) Ist c = 0, so sind alle Eigenwerte von A reell. Sie sind

c,

c und 0, wobei 0 die


Vielfachheit n 2 hat.
Auerdemhat Adas Minimalpolynomm(X) = X(X
2
c) unddie Jordansche Normal-
form J von Aist eine Diagonalmatrix diag(d
1
, d
2
, . . . , d
n
) mit d
1
=

c, d
2
=

c
und d
i
= 0 fr 3 i n.
A Hinweise zur Benutzung von
Computeralgebrasystemen
An den mathematischen Instituten der deutschen Hochschulen sind die Computeral-
gebrasysteme Maple und Mathematica weit verbreitet. Die in ihnen enthaltenen
Algorithmen aus dem Gebiet der Linearen Algebra sind in den Handbchern [3]
und [32] ausfhrlich beschrieben. Eine noch eingehendere Beschreibung ber die
Anwendungsmglichkeiten von Maple im bungsbetrieb einer Anfngervorlesung

Lineare Algebra bendet sich im Buch [16] von E. Johnson.


Diese Computeralgebrasysteme sind einfach zu bedienen. Sie verfgen ber u-
erst leistungsfhige Zahlarithmetiken fr das Rechnen mit ganzen, rationalen, reel-
len oder komplexen Zahlen. Mit ihnen kann man interaktiv und symbolisch rechnen.
Insbesondere haben Mathematica und Maple schnelle Algorithmen zum Faktorisie-
ren von ganzen Zahlen und Polynomen sowie zum Addieren, Multiplizieren und
Transponieren von Matrizen.
Es folgt ein berblick ber die in Maple und Mathematica implementierten
Algorithmen.
Algorithmus und Rechenverfahren Maple Mathematica
Gau, Treppenform + +
Gau-Jordan, Treppennormalform + +
Lsungsgesamtheit linearer
Gleichungssysteme
+ +
Inverse einer Matrix + +
Adjunkte einer Matrix +
Determinante einer Matrix + +
Laplace-Entwicklung +
Charakteristisches Polynom + +
Minimalpolynom + +
368 Anhang A. Computeralgebrasysteme
Algorithmus und Rechenverfahren Maple Mathematica
Eigenwerte + +
Eigenvektoren + +
Gram-Schmidt-Verfahren,
Orthogonalisierung, -normierung
+
Euklidischer Algorithmus +
ggT. von Polynomen oder ganzen
Zahlen
+ +
Smith Normalform von Matrizen
ber euklid. Ringen
+
rationale Normalform +
Jordansche Normalform +
Um dem Leser die Einfachheit der Benutzung von Maple zu demonstrieren,
werden im folgenden Beispiel anhand einer rationalen 11 11-Matrix jeweils die
Maple-Befehle zuvor geschilderter Rechenschritte angegeben. Allerdings ist es bei
Maple-Sitzungen blich, kleine rmische Buchstaben fr Matrizen zu benutzen, wes-
halb A = a gesetzt wird. Auch die Unbestimmte X ber F = Q wird mit kleinem
Buchstaben x bezeichnet. Bei der Jordanschen Normalform benutzt Maple obere
statt untere Dreiecksmatrizen.
Berechnungder NormalformenundTransformationsmatrizender
Matrix a
a =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
2 0 0 1 1 0 1 3 1 1 0
0 1 0 0 0 1 0 0 1 1 2
0 1 1 1 0 1 0 1 0 1 0
0 0 0 1 0 0 0 0 0 0 0
1 1 1 2 0 2 0 1 0 4 1
0 0 0 0 0 2 0 0 0 1 1
0 1 0 1 0 0 1 1 0 0 1
0 0 0 0 0 0 0 1 0 0 0
0 0 0 1 0 1 0 1 1 1 1
0 0 0 1 0 0 0 1 0 1 0
0 0 0 1 0 1 0 1 0 1 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Anhang A. Computeralgebrasysteme 369
Charakteristische Matrix xE
11
a
Befehl: c:=charmat(a,x);
c=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x 2 0 0 1 1 0 1 3 1 1 0
0 x 1 0 0 0 1 0 0 1 1 2
0 1 x 1 1 0 1 0 1 0 1 0
0 0 0 x 1 0 0 0 0 0 0 0
1 1 1 2 x 2 0 1 0 4 1
0 0 0 0 0 x 2 0 0 0 1 1
0 1 0 1 0 0 x 1 1 0 0 1
0 0 0 0 0 0 0 x 1 0 0 0
0 0 0 1 0 1 0 1 x 1 1 1
0 0 0 1 0 0 0 1 0 x 1 0
0 0 0 1 0 1 0 1 0 1 x
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Charakteristisches Polynom der Matrix a
Befehl: cpa:=det(c);
cpa = 1 +11x 55x
2
+165x
3
330x
4
+462x
5
462x
6
+330x
7
165x
8
+55x
9
11x
10
+x
11
Faktorisierung des charakteristischen Polynoms
Befehl: factor(cpa);
(x 1)
11
Smith-Normalform
Befehl: SNFC := smith (c, x)
(1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0)
(0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0)
(0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0)
0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0)
(0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0)
(0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0)
(0, 0, 0, 0, 0, 0, x 1, 0, 0, 0, 0)
(0, 0, 0, 0, 0, 0, 0, x
2
2x +1, 0, 0, 0)
(0, 0, 0, 0, 0, 0, 0, 0, x
2
2x +1, 0, 0)
(0, 0, 0, 0, 0, 0, 0, 0, 0, x
3
3x
2
+3x 1, 0)
(0, 0, 0, 0, 0, 0, 0, 0, 0, 0, x
3
3x
2
+3x 1)
370 Anhang A. Computeralgebrasysteme
Also lautet die Smith-Normalform der charakteristischen Matrix c in der Notation
von Denition 11.5.6
diag(1, 1, 1, 1, 1, 1, x 1, (x 1)
2
, (x 1)
2
, (x 1)
3
, (x 1)
3
)
Minimalpolynom der Matrix a
Befehl: MPA := minpoly(A,x)
MPA := x
3
3x
2
+3x 1
der Matrix a.
Rationale kanonische Form der Matrix a
Befehl: ratform(a) ergibt
r =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 0 1
1 0 3
0 1 3
0 0 1
1 0 3
0 1 3
0 1
1 2
0 1 0
1 2 0
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Man beachte, da Maple die Anordnung der Elementarteiler der Smith-Normalform
von a bei der rationalen kanonischen Form nicht bercksichtigt.
Jordansche Normalform der Matrix a
Befehl: jordan(a) ergibt
j =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 1 0
0 1 1
0 0 1
1 1 0
0 1 1
0 0 1
1 1
0 1
1 0 0
0 1 1
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
der Matrix a.
Anhang A. Computeralgebrasysteme 371
Berechnung der Transformationsmatrix zur Jordanschen Normalform
Befehl: evalm(t) ergibt die zu j gehrige Transformationsmatrix
q =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
1
3

1
3
0
1
3
0 0 0
4
3
1 0

1
3

2
3

1
3
0
1
3
0 0 1
1
3
2
3
1
3
0 0
1
3
0 0
1
3

1
3
1
3

1
3

2
3
1
0
2
3
2
3
0
1
3
0 0 0
2
3
2 0

1
3
1
3

1
3
0
1
3
0 0 1
2
3
2
3
1
3
0 0
1
3
1 0
1
3

1
3

2
3
2
3

2
3
0
1 0 1 0 1 0 0 0 0 3 1
0 0 1 0 0 0 1 1 1 1 0
0 1 0 0 0 0 0 0 2 2 0
0 0 0 0 0 1 0 0 1 1 0
0 0 0 0 0 0 0 1 0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
mit q
1
aq = j.
B Lsungen der Aufgaben
B.1 Lsungen zu Kapitel 1
B.1.1 Die Behauptung ist fr n = 1 trivial. Die Menge der k-elementigen Teilmengen von
{1, 2, . . . , n, n +1} zerfllt in 2 Klassen. Zur ersten gehren die k-elementigen Teilmengen,
die n+1 enthalten; zur zweiten gehren die k-elementigen Teilmengen, die n+1 nicht enthal-
ten. Nach Induktionsvoraussetzung haben diese beide Klassen
_
n
k1
_
bzw.
_
n
k
_
Teilmengen.
Insgesamt gibt es
_
n
k1
_
+
_
n
k
_
=
n!
(k1)!(nk+1)!
+
n!
k!(nk)!
=
n![k+nk+1]
k!(nk+1)!
=
_
n+1
k
_
k-elementige Teilmengen.
B.1.2 Die Behauptung ist fr n = 1 trivial. Der Induktionsschlu ergibt sich aus der Glei-
chung

n+1
k=1
k =

n
k=1
k +(n +1) =
1
2
n(n +1) +(n +1) =
1
2
(n +1)(n +2).
B.1.3 Die Behauptung ist fr n = 1 trivial. Der Induktionsschlu ergibt sich aus der
Gleichung:

n+1
k=1
k
2
=

n
k=1
k
2
+ (n + 1)
2
=
1
6
n(n + 1)(2n + 1) + (n +1)
2
=
1
6
(n +1)
_
2n
2
+n +6n +6
_
=
1
6
(n +1)(n +2)(2n +3).
B.1.4 (a) x = 1, y = 1, z = 1.
(b) Keine Lsung.
(c) x = 1, y = z, z beliebig.
B.1.5 Nach Subtraktion der ersten Gleichung von der zweiten gilt 2y +2z = d. Indem man
nun das Zweifache der dritten Gleichung hiervon abzieht, erhlt man 0 = d 2. Falls d = 2,
ist dies ein Widerspruch!
B.1.6 Imersten Fall liegt wegen 1(1+1) = 12 = 2 und (11)(11) = 11 =
3

2
kein Vektorraum vor. Im zweiten Fall handelt es sich um einen reellen Vektorraum.
B.1.7 Die Multiplikationstafel der Gruppe G ist:
1 1 i i
1 1 1 i i
1 1 1 i i
i i i 1 1
i i i 1 1
B.2 Lsungen zu Kapitel 2 373
B.1.8 Seien a, b und c, d zwei Paare reeller Zahlen mit a = 0 und c = 0. Dann ist
f
a,b
f
c,d
(x) = a(cx +d) +b
= acx +(ad +b) fr alle x R.
Da ac = 0, ist f
a,b
f
c,d
= f
ac,ad+b
G, und f
1,0
ist das Einselement in G. Weiter ist
(f
a,b
)
1
= f
a
1
,ba
1 G. Also ist G eine Gruppe.
B.1.9 R ist ein Ring, weil das Produkt zweier ungerader Zahlen wieder ungerade ist, woraus
folgt:
a
b

c
d
,
a
b
+
c
d
=
ad+bc
bc
R fr alle
a
b
,
c
d
R. Das Element 2 R hat kein Inverses
in R, da
1
2
R.
B.2 Lsungen zu Kapitel 2
B.2.1 Gilt vx +wy = (0, 0) fr x, y F mit (x, y) = (0, 0), so ist ax +cy = 0 = bx +dy.
Hieraus folgt (ad bc)x = 0 = (ad bc)y. Wegen (x, y) = (0, 0) ist ad bc = 0. Sei
umgekehrt ad bc = 0. Falls d = b = 0, so sind v und w linear abhngig. Ist d = 0, dann
ist vd wb = (ad bc, bd db) = (ad bc, 0) = (0, 0). Daher sind v, w linear abhngig.
B.2.2 (a) Angenommen, es gilt (u+vw2)a+(uvw)b+(u+w)c = 0 fr a, b, c Q.
Dann ist u(a + b + c) + v(a b) + w(2a b + c) = 0. Da u, v, w linear unabhngig
sind, gelten die Gleichungen: a + b + c = 0, a b = 0 und 2a + b c = 0, woraus
(a, b, c) = (0, 0, 0) folgt.
(b) (u +v w3) (u +v3 w) +(v +w)2 = 0.
B.2.3 v = 3e
1
+2e
2
+4e
3
ist eine gesuchte Linearkombination.
B.2.4 Aus u =

m
i=1
v
i
f
i
und v
i
=

n
j=1
w
j
g
ij
fr f
i
, g
ij
F folgt
u =
m

i=1
_
n

j=1
w
j
g
ij
_
f
i
=
n

j=1
w
j
_
m

i=1
g
ij
f
i
_
.
B.2.5 (a) S ist linear abhngig. S hat als Basis {(1, 1, 1, 1), (0, 2, 3, 0)}.
(b) {(1, 1, 1, 1), (0, 2, 3, 0), (1, 0, 0, 0), (0, 1, 0, 0)} ist eine Basis von V.
B.2.6 Wegen p(0) = p(1) = 0 und q(0) = q(1) = 0 ist (p + q)(0) = 0 und (pa)(0) =
(pa)(1) = 0 fr alle a F. Also ist W ein Unterraum. Eine Basis von W ist gegeben durch
{X
2
X, X
3
X
2
, . . . , X
n
X
n1
}. Um diese zu einer Basis von F
n
[X] zu erweitern, kann
man z. B. die Polynome 1 und X hinzufgen.
B.2.7 Eine Basis ist {(1, 2, 2, 2, 1), (0, 0, 1, 1, 1)}.
374 B Lsungen der Aufgaben
B.2.8 (a) Sei G
i
(X) :=

n
j=1
j=i
Xa
j
a
i
a
j
. Dann ist G
i
(X) ein Polynom vom Grad n 1.
Auerdem gilt G
i
(a
k
) = 0 falls i = k und G
i
(a
i
) = 1. Damit gilt p(a
i
) =

n
j=1
p(a
j
)
G
j
(a
i
) fr jedes Polynomp(X) vom Grad n1. Setzt man g(X) :=

n
j=1
p(a
j
) G
j
(X),
so ist p(X) = g(X) fr X = a
1
, . . . , a
n
. Die Koefzienten eines Polynoms g(x) vom Grad
n1sinddurchseineAuswertungenannStellen(x
i
, g(x
i
)) eindeutigbestimmt. Damit folgt
p(X) = g(X) =

n
j=0
p(a
j
) G
j
(X). Insbesondere erzeugen die G
i
(X) den Vektorraum
F
n1
[X]. Da dim(F
n1
[X]) = n, ist {G
1
(X), . . . , G
n
(X)} eine Basis von F
n1
[X]. Daher
hat jedes p(X) die in (b) angegebene eindeutige Darstellung.
(c) Die n 1 Polynome H
i
(X) = (Xa)
i
und H
o
(X) = 1 sind wegen Grad H
i
(X) = i
fr 0 i n 1 linear unabhngig. Daher bilden sie eine Basis von F
n1
[X].
(d) Wegen (c) hat jedes p(X) F
n1
[X] die Darstellung p(X) =

n1
i=0
p
i
H
i
(X) mit
eindeutig bestimmten p
i
F. Setzt man X = a, so folgt p
o
= p(a). Die k-fache Ableitung
p
(k)
(X) von p(X) ist p
(k)
(X) =

n1
i=k
i(i 1) (i k +1)p
i
(X a)
ik
. Hieraus folgt
p
(k)
(a) = p
k
k! fr k = 1, 2, . . . , n 1. Daher gilt (d).
B.2.9 Die Annahme, da f (x)a + g(x)b + h(x)c = 0 fr geeignete a, b, c R und alle
x Rgilt, fhrt durch Auswertung an drei geeigneten Stellen x in jeder der drei Teilaufgaben
auf ein homogenes Gleichungssystem, das nur die Lsung (a, b, c) = (0, 0, 0) hat. Bei (a)
whle man die Stellen x = 0 und

2
; bei (b) die Stellen x = 0, 1 und 2; bei (c) die Stellen
x = 0,

2
und .
B.2.10 (a) Fr r = 2 gilt nach dem Dimensionssatz 2.2.16 wegen U
1
U
2
= 0, da
dimU
1
+dimU
2
= dim(U
1
U
2
) ist. Wegen U
r

_
r1
i=1
U
i
_
= 0 folgt dim
_
r
i=1
U
i
_
=
dim
_
r1
i=1
U
i
U
r
_
= dim
_
r1
i=1
U
i
_
+dimU
r
=

r
i=1
dimU
i
. Hieraus ergibt sich der
Induktionsschlu.
(b) Nach Voraussetzung ist dimU
i
1 fr i = 1, 2, . . . , r. Also folgt nach (a) und
Folgerung 2.2.14, da r

r
i=1
dimV
i
=

r
i=1
dim
_
r
i=1
U
i
_
dimV = n; denn

r
i=1
U
i
ist nach Satz 2.3.3 ein Unterraum von V.
B.3 Lsungen zu Kapitel 3
B.3.1 Ist a = (a
1
, . . . , a
n
) mit a b = 0 fr alle b F
n
, so gilt insbesondere a e
i
= a
i
= 0
fr i = 1, . . . , n, also a = o. Umgekehrt ist nach Denition des Skalarproduktes klar, da
o b = 0 fr alle b F
n
gilt.
B.3.2 (a) 20 = 2
4
+2
2
. Also bentigt man die 5 Produkte A
2
, A
4
= (A
2
)
2
, A
8
= (A
4
)
2
,
A
16
= (A
8
)
2
und A
20
= A
16
A
4
. Es folgt A
20
=
_
1 40
0 1
_
.
(b) Man beweist A
n
=
_
1 2n
0 1
_
durch vollstndige Induktion nach n. Ist n = 1, so ist
A
n
= A und die Behauptung ist trivialerweise erfllt. Wegen A
n+1
= A
n
A folgt der
Induktionsbeweis aus der Induktionsvoraussetzung A
n
=
_
1 2n
0 1
_
durch einfaches Ausmulti-
plizieren.
B.3 Lsungen zu Kapitel 3 375
B.3.3 (a) (ABABA)
2
= ABABABABAABAAB+ABAABA = ABAB
ABABAABAB +ABABA = 0.
(b) Sei A =
_
0 0
1 0
_
und B =
_
0 0
0 1
_
. Dann ist AB = 0 und BA = A = 0.
B.3.4 Da A und B zwei 3 5-Matrizen vom Rang 2 sind, ist dimKer A = dimKer B =
5 2 = 3 nach Satz 3.2.13. Nach dem Dimensionssatz folgt: 5 dimKer A+dimKer B
dim(Ker A Ker B) = 6 dim(Ker A Ker B). Also ist Ker A Ker B = {o}.
B.3.5 (a) und (b) folgen unmittelbar aus Denition 3.1.3.
(c) Seien c
jj
=

n
i=1
a
ji
b
ij
und d
ii
=

n
j=1
b
ij
a
ji
. Dann folgt aus Denition 3.1.17,
da
tr(AB) =
n

j=1
c
jj
=
n

j=1
n

i=1
a
ji
b
ij
=
n

i=1
n

j=1
b
ij
a
ji
=
n

i=1
d
ii
= tr(BA).
(d) Fr a =
1
n
tr(A) gilt die Behauptung wegen (a) und (b).
B.3.6 (a) A und B sind Basen, weil die jeweiligen homogenen Gleichungssysteme nur die
triviale Lsung besitzen.
(b)
1
3
_
_
1 5 10
1 2 5
0 0 1
_
_
.
(c) A

(A, A) =
_
_
11 20 70
8 17 25
0 0 6
_
_
1
3
, A

(B, B) =
_
_
3 0 0
0 1 0
0 0 2
_
_
.
B.3.7 Auf V wird durch p(X) X p

(X) eine lineare Abbildung : V V deniert,


weil die Ableitung mit Summen und konstanten Faktoren vertauscht.
Wegen (X
i
) = X i X
i1
= i X
i
ist A

(B, B) eine Diagonalmatrix (d


ii
) mit
d
ii
= i 1 fr i = 1, 2, . . . , n, n +1.
B.3.8 Die Matrixelemente p
ij
sind so zu bestimmen, da

n
i=1
p
ij
G
i
(X) = (Xa)
j1
fr j = 1, . . . , n gilt. Aus Aufgabe 2.8 (b) folgt, da p
ij
= (a
i
a)
j1
, d. h.
P =
_
_
_
_
_
1 a
1
a (a
1
a)
2
(a
1
a)
n1
1 a
2
a (a
2
a)
2
(a
2
a)
n1
.
.
.
.
.
.
.
.
.
.
.
.
1 a
n
a (a
n
a)
2
(a
n
a)
n1
_
_
_
_
_
.
B.3.9 (a) Wegen (U) V ist Im Im.
(b) Sei W
0
Komplement von Im in Im, d. h. Im = Im+W
0
und ImW
0
=
{o}. Sei (v) Im. Wegen (v) Im gibt es ein u U und ein w
0
W
0
mit (v) =
(u) +w
0
. Hieraus folgt (v) = ((u) +w
0
) = (u) + (w
0
) Im + W
0
.
Daher ist Im Im + (W
0
). Die andere Inklusion ist trivial.
(c) dimIm + dimIm = dimIm + dimIm + dim W
0
dimIm +
dimIm +dimW
0
= dimIm +dimIm.
376 B Lsungen der Aufgaben
B.3.10 (a) Sei A eine nilpotente n n-Matrix, d. h. A
k
= 0 fr ein k N. Multiplikation
mit A ist eine lineare Abbildung : F
n
F
n
, v Av. Wie A ist auch nilpotent.
Insbesondere ist kein Isomorphismus, weil sonst auch
k
= 0 ein Isomorphismus wre.
Daraus folgt dimIm n 1 und dimIm
i+1
= dim(Im
i
) < dimIm
i
, fr alle i mit
Im
i
= {o}.
In der Kette
F
n
Im Im
2
Im
k1
Im
k
= {o} ()
tritt die erste Gleichheit gerade dort auf, wo die {o} erscheint; vorher sind alle Ungleichungen
echt. Insbesondere wird die Dimension in jedemSchritt kleiner. Dies kann imn-dimensionalen
Vektorraum F
n
aber hchstens n mal passieren. Daraus folgt dimIm
n
= 0, d. h. A
n
= 0.
Also ist der Nilpotenzindex von Akleiner oder gleich n.
(b) Sei B
m
= (a
ij
) Mat
n
(F), 1 m n mit
a
ij
=
_
1 fr j = i +m,
0 sonst.
Behauptung: B
1
B
m
= B
m+1
.
Beweis: Sei B
1
= (b

ij
), B
m
= (b
ij
) und B
1
B
m
= (d
ij
). Dann ist
d
ij
=
n

k=1
b

ik
b
kj
=
n1

i=01

i,i+1

i+1,j
=
_
1 j = i +m+1,
0 sonst.
Wendet man die Behauptung auf A = B
1
an, dann ist
A
i
= B
i
1
= B
i
=
_
0 i = n,
= 0 i < n.
Also ist n der Nilpotenzindex von A.
(c) Sei 1 k n. Wir betrachten die n n-Matrix
C :=
_
A
k
0
0 0
_
,
wobei A
k
= (a
ij
) die obere k k-Dreiecksmatrix mit a
i,i+1
= 1 und a
ij
= 0 fr j = i +1.
Wegen (b) hat A
k
den Nilpotenzindex k. Daher ist
C
k1
=
_
A
k1
k
0
0 0
_
= 0 und
C
k
=
_
A
k
k
0
0 0
_
= 0,
d. h. C Mat
n
(F) hat Nilpotenzindex k.
B.3 Lsungen zu Kapitel 3 377
B.3.11 (a) Nach Voraussetzung existieren natrliche Zahlen n, m mit A
n
= B
m
= 0. Sei
k = max(n, m). Da Aund B kommutieren, gilt nach dem Binomischen Lehrsatz:
(A+B)
2k
=
2k

i=0
_
2k
i
_
A
2ki
B
i
.
Fr alle 0 i 2k ist entweder 2k i k oder i > k. Also ist entweder A
2ki
= 0 oder
B
i
= 0 fr alle i, woraus (A+B)
2k
= 0 folgt.
(b) A =
_
0 1
0 0
_
und B =
_
0 0
1 0
_
sind nilpotent, aber A + B =
_
0
1
1
0
_
hat das Quadrat
_
1
0
0
1
_
und ist somit nicht nilpotent.
(c) Angenommen, a
0
= 0, also B = Aa
1
+ +A
m
a
m
. Nach (b) ist B nilpotent und
daher nicht invertierbar. Widerspruch!
Sei nun a
0
= 0. Um die Inverse von B zu konstruieren, betrachtet man die Matrix
C =

m
i=0
A
i
b
i
mit b
i
F, wobei die Koefzienten b
i
so zu whlen sind, da E
n
= BC =

2m
k=0
A
k
_
i+j=k
a
i
b
j
_
gilt. Man konstruiert die b
i
induktiv: Fr i = 0 sei b
0
= a
1
0
.
Fr i 1 seien b
0
, . . . , b
i1
bereits deniert. Dann sei a
0
b
i
+ a
1
b
i1
+ + a
i
b
0
= 0.
Da nach Voraussetzung a
0
= 0, lt sich diese Gleichung eindeutig nach b
i
ausen, womit
das gewnschte b
i
gefunden ist. Auf diese Weise erhlt man b
0
, . . . , b
m
mit der Eigenschaft

i+j=k
a
i
b
j
= 0 fr alle k = 1, . . . , m. Fr die dazugehrige Matrix C gilt BC = E
n
.
Daher ist B invertierbar.
B.3.12 (a) Sei f (X) = a
n
X
n
+ +a
0
. Dann ist X
n
f
_
1
X
_
= X
n
_
a
n
1
X
n
+ +a
1
1
X
+a
0
_
.
Also
d
dX
_
X
n
f
_
1
X
__
= a
n1
+ +n a
0
X
n1
F
n
[X].
(b) (f (X) +g(X)) =
d
dX
_
X
n

_
f
_
1
X
_
+g
_
1
X
___
=
d
dX
_
X
n
f
_
1
X
__
+
d
dX
_
X
n
g
_
1
X
__
=
(f (X)) +(g(X)). Sei k F. Dann ist (k f (X)) =
d
dX
_
X
n
k f
_
1
X
__
= k
d
dX
_
X
n

f
_
1
X
__
= k (f (X)).
A

(A, A) = (a
ij
) mit a
ij
= (n i)
n, i+j+1
fr i, j {0, 1, . . . , n}, wobei
ij
das
Kronecker-Symbol ist.
B.3.13 Es gilt rg = 2. Eine Basis von Ker ist z. B. {(2, 1, 1, 0), (3, 2, 0, 1)}. Die
Koordinaten von v
1
, v
2
, v
3
lauten (11, 22, 20), (16, 36, 36), (6, 52, 80). Es gilt
dimU = 3 und dim(U) = 2.
B.3.14 Sei {v
1
, . . . , v
k
} eine Basis von U. Diese ergnzen wir zu einer Basis {v
1
, . . . , v
n
}
von F
n
. Fr einen beliebigen Vektor v =

n
i=1
v
i
b
i
von F
n
denieren wir
U
(v) =

n
i=k+1
v
i
b
i
(Im Fall n = k heit das einfach
U
(v) = o). Man zeigt leicht, da
U
eine
lineare Abbildung von F
n
nach F
n
ist. Weiterhin ist klar, da Ker(
U
) = U. Sei nun A die
Matrix A

U
(B, B) bezglich der Basis B = {v
1
, . . . , v
n
}. Dann gilt A x = o genau dann,
wenn x Ker(
U
) = U.
B.3.15 Es gelte : V W, : V W. Man erhlt ( + )V V + V und
daher rg( +) = dim(( +)V) dim(V +V) dim(V) +dim(V) = m+n.
Weiter kann m n angenommen werden. Nach dem bisher Bewiesenen ergibt sich m =
378 B Lsungen der Aufgaben
rg = rg(( + ) ) rg( + ) + rg() = rg( + ) + n, und hieraus folgt
|mn| = mn rg( +).
B.3.16 Wenn es zu GL(V) ein x V gibt, fr das x und y = x linear unabhngig
sind, existiert ein GL(V) mit x = x und y = x +y. Es gilt dann = . Wenn
also zum Zentrum gehrt, mu x = xc
x
fr alle x V mit einem c
x
F gelten. Fr
linear unabhngige Vektoren x, y folgt (x + y)c
y
= ()y = ()y = xc
x
+ yc
y
, also
c
x
= c
y
. Hieraus ergibt sich = id
V
c, wobei id
V
die Identitt auf V ist. Umgekehrt gehren
alle Automorphismen id
V
c zum Zentrum. Die zu id
V
c gehrige n n-Matrix ist E
n
c.
B.3.17 (a) Da {1} eine Basis des Skalarenkrpers ist, beweist man die lineare Unabhngigkeit
von = {

| A} wie im Beweis von Satz 3.6.8.


(b) Wre eine Linearkombinationendlichvieler

, soknnte a

= 0 nur fr hchstens
endlich viele Indizes gelten. Daher ist keine Basis von V

.
(c) Fr einen Vektor x = x

1
a

1
+ + x

r
a

r
aus V gilt (x)

x = x

.
Aus (x)

= 0 fr alle folgt daher x = o und weiter (x) = 0. Es gibt aber wegen (b)
mindestens ein

mit

) = 0 fr alle und mit

() = 0.
B.3.18 Nach Denition 2.3.16 gilt V = U C. Daher ist C

= Hom(C, K)

= U

, weil
U

aus denjenigen V

besteht, bei denen u = 0 fr alle u U erfllt ist.


B.3.19 a) Im() ist ein Unterraum von V nach Satz 3.2.7 (c). Wegen [Im()] (V) =
Im() ist Im() invariant.
b) Wegen dim
F
[Im()] = 1 existiert ein w V mit (w) = 0 und B = {(w)} ist
eine Basis von Im(). Nach Satz 3.2.13 ist n = dim
F
(V) = dim
F
Im() + dim
F
Ker().
Wegen Im() Ker() = 0 hat daher jedes v V eine eindeutige Darstellung v = a + b
mit a Im() und b Ker(). Also ist w = g(w) + b
1
fr ein 0 = g F und
b
1
Ker(). Daher ist (w) = g
2
(w), und zu jedem v V existieren r F und
t Ker(), die von v abhngen, mit v = r(w)+t . Also gelten (v) = r
2
(w) = rg
1
(w)
und
2
(v) = rg
1

2
(w) = g
1
rg
1
(w) = g
1
(v). Hieraus folgt [
2
g
1
](v) = 0
fr alle v V, d. h.
2
= f fr f = g
1
F.
B.4 Lsungen zu Kapitel 4
B.4.1 rg(A) = 3.
B.4.2 Der Zeilenrang von AB ist 2.
B.4.3 Die Vektoren a
1
= (1, 3, 5, 4), a
2
= (0, 0, 1, 1), a
3
= (0, 0, 0, 1) bilden eine
Basis von U, die Vektoren b
1
= (1, 0, 2, 2), b
2
= (0, 3, 3, 5), b
3
= (0, 0, 1, 2) eine
Basis vonV. Zusammenmit (0, 3, 3, 2) bildena
1
, a
2
, a
3
eine Basis vonU+V. Schlielich
besteht eine Basis von U V aus (1, 3, 5, 7) und b
3
.
B.4 Lsungen zu Kapitel 4 379
B.4.4
T (A) =
_
_
_
_
_
_
1 3 4 0 2
0 1 1 1 4
0 0 4 5 18
0 0 0 3 2
0 0 0 0 0
_
_
_
_
_
_
, T =
_
_
_
_
_
_
_
1 0 0 0
35
3
0 1 0 0
1
3
0 0 1 0
11
3
0 0 0 1
2
3
0 0 0 0 0
_
_
_
_
_
_
_
.
B.4.5
L =
_

_
_
_
_
_
_
_
2 +4i
1 2i
0
0
4 7i
_
_
_
_
_
_
+
_
_
_
_
_
_
2
1
1
0
0
_
_
_
_
_
_
f
1
+
_
_
_
_
_
_
1
1
0
1
0
_
_
_
_
_
_
f
2

f
1
, f
2
C
_

_
.
B.4.6
L =
_

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
2
0
3
4
0
5
0
6
7
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
1
1
0
0
0
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
f
1
+
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
2
0
2
2
1
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
f
2
+
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
0
0
3
3
0
0
1
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
f
3

f
1
, f
2
, f
3
Q
_

_
.
B.4.7 (a) Nach Folgerung 3.4.8 gilt stets rg(A) = rg(A
T
). Wegen Satz 3.4.9 ist die n n-
Matrix Agenau dann invertierbar, wenn rg(A) = n. Also gilt die Behauptung.
(b) Sei E die n n-Einsmatrix und A invertierbar. Dann ist E = A
1
A = A A
1
.
Aus Satz 3.1.28 folgt E = E
T
= (A
1
A)
T
= (A A
1
)
T
= A
T
(A
1
)
T
= (A
1
)
T
A
T
.
Daher ist (A
T
)
1
= (A
1
)
T
nach Denition 3.1.29.
B.4.8 Nach Aufgabe 4.7 ist (A
T
)
1
= (A
1
)
T
. Das Berechnungsverfahren 4.2.11 ergibt
A
1
=
_
_
_
_
_
_
_
_
0
1
4
1/8 3 3 0
0
1
2

1
4
6 6 0

1
3
1
4

5
24
5 5 0
0 0 0 3 1 1
0 0 0 6 1 2
0 0 0 1 1 0
_
_
_
_
_
_
_
_
.
B.4.9 Sei A = (a
ij
) = 0 aus J. Dann ist mindestens ein a
ij
= 0. Diese Indizes i, j seien
fest gewhlt. Fr alle 1 u,v n sei E
uv
= (e
uv
) mit e
uv
= 1 fr u = v und e
uv
= 0 fr
u = v. Nach (c) ist E
1i
AE
j1
= E
11
a
ij
J. Wegen 0 = a
1
ij
F folgt wiederum aus (c),
380 B Lsungen der Aufgaben
da E
11
= (E
11
a
ij
)a
1
ij
J. Daher ist E
uu
= E
u1
E
11
E
1u
J fr u = 1, 2, . . . , n. Wegen
(b) ist deshalb E
n
= E
11
+E
22
+ +E
nn
J.
B.4.10 Ahat den Rang n. Beweis durch vollstndige Induktion. Ist n = 1, so ist die Summe

n
j=1
j=i
|a
ij
| = 0, da die Indexmenge leer ist. Also |a
11
| > 0 und rg(A) = 1.
Induktionsschlu: n n+1. Wegen

n
j=1
j=1
|a
1j
| < |a
11
| ist a
11
= 0. Durch Subtraktion
geeigneter Vielfacher der ersten Spalte von der j-ten Spalte, j = 2, . . . , n + 1, erhlt man
eine Matrix A

= (a

ij
) mit a

1j
= 0 fr j = 2, . . . , n + 1. Sei nun A

= (a

ij
) die Matrix
die aus A

durch Selektion der Spalten 2, . . . , n +1 und Zeilen 2, . . . , n +1 entsteht. Dann


gilt a

ij
= a
i+1,j+1

a
1,j+1
a
11
a
i+1,1
. Also
n

j=1
j=i
|a

ij
| =
n

j=1
j=i+1
|a
i+1,j+1

a
1,j+1
a
11
a
i+1,1
|
n+1

j=2
j=i+1
(|a
i+1,j
| +|
a
1j
a
11
a
i+1,1
|)
=
n+1

j=2
j=i+1
|a
i+1,j
| +
n+1

j=1
|
a
1j
a
11
a
i+1,1
| |
a
1,i+1
a
11
a
i+1,1
|
<
n+1

j=2
j=i+1
|a
i+1,j
| +|a
i+1,1
| |
a
1,i+1
a
11
a
i+1,1
|
< |a
i+1,i+1
| |
a
1,i+1
a
11
a
i+1,1
|
|a
i+1,i+1

a
1,i+1
a
11
a
i+1,1
| = |a

ii
|.
Die n n-Matrix A

erfllt die Induktionsvoraussetzung. Daher hat A

den Rang n, und


rg(A) = n +1.
B.5 Lsungen zu Kapitel 5
B.5.1 (a) det A = 120.
(b) det A = (a b)[(a +b)(ty ux) +(r +s)(dx cy) +(v +w)(cu dt )].
B.5.2 Falls c
i
= c
j
fr ein i = j, ist die Determinante 0 und die Behauptung offensichtlich.
Sonst subtrahiert man fr n1 i 1 das c
1
-Fache der i-ten Zeile von der (i +1)-ten Zeile
und teilt jede Spalte j > 1 durch (c
j
c
1
). So erhlt man
det
_
_
_
_
_
1 1 1
c
1
c
2
c
n
.
.
.
.
.
.
.
.
.
c
n1
1
c
n1
2
c
n1
n
_
_
_
_
_
=

j>1
(c
j
c
1
) det
_
_
_
_
_
1 1
c
2
c
n
.
.
.
.
.
.
c
n2
2
c
n2
r
_
_
_
_
_
.
Die Behauptung ergibt sich durch vollstndige Induktion.
B.5 Lsungen zu Kapitel 5 381
B.5.3 det A = (1)
n1
(n 1)!, det B = (1)
(n1)n
2
.
B.5.4 (a) Sei B =
_
E
r
P
1
Q
0 E
nr
_
. Dann ist AB =
_
P 0
0 SRP
1
Q
_
= C. Nach Satz 5.4.12
ist det B = 1. Also ist E
n
die Treppennormalform von B. Wegen Satz 4.1.13 existie-
ren k < Elementarmatrizen U
i
, die zu Spaltenumformungen von B gehren, mit
BU
k
U
k1
. . . U
2
U
1
= E
n
. Also ist B = U
1
1
U
2
2
. . . U
1
k
und C = AB =
AU
1
1
U
1
2
. . . U
1
k
, d. h. C geht aus Adurch Spaltenoperationen hervor.
(b) Nach dem Produktsatz fr Determinanten gilt det(AB) = (det A) (det B) = det A.
Wegen (a) und Satz 5.4.12 ist daher det A = det C = (det P) det(S RP
1
Q).
B.5.5 (a) Ist det A = 0, so ist rg P < 2n, und alle Behauptungen gelten fr diesen Fall.
Sei det A = 0. Durch Zeilenaddition geht die Matrix P in die Matrix P

=
_
0
A
B
0
_
ber. Da keine Zeilenvertauschungen vorgenommen werden, gilt det P = det P

. Fr
i = 1, 2, . . . , n vertausche man nun die i-te mit der (n + i)-ten Zeile und erhlt die Ma-
trix P

=
_
A
0
0
B
_
. Fr ihre Determinante gilt det P

= (1)
n
det P

. Nach Satz 5.4.1


ist det(A) = (1)
n
det A. Daher gilt nun wegen Satz 5.4.12, da det P = det P

=
(1)
n
det P

= (1)
n
det(A) det(B) = (1)
n
(1)
n
(det A)(det B) = (det A)(det B)
ist.
(b) folgt durch Addition von (AE
n
, AB) zu (A, 0). Das sind Zeilenoperationen ohne
Zeilenvertauschungen.
(c) Wegen (b), Satz 5.4.1 (c) und Satz 5.4.12 ist det P = det
_
E
n
0
B
AB
_
= det E
n

det(AB) = det(AB). Nach (a) gilt det P = (det A)(det B). Hieraus folgt der Produktsatz.
B.5.6 (1, 2, 3, 1).
B.5.7 Die Matrix Asei n-reihig, und die Matrix A
1
sei k-reihig. Durch k(n k) Zeilenver-
tauschungen geht die Matrix A ber in A

=
_
A
2
0
B
A
1
_
. Nach Satz 5.4.12 und Satz 5.4.1 (b)
folgt det A = (1)
k(nk)
(det A
1
)(det A
2
).
B.5.8
A
1
=
1
det
(adj A) =
1
1
_
_
4 2 1
3 1 0
5 2 1
_
_
.
B.5.9 Die Voraussetzung ist gleichwertig mit AA
T
= E
n
und daher mit A
1
= A
T
. Ist
D = det A, so folgt D
1
= D, also D = 1. Fr den Matrizenkoefzienten a

k,i
von A
1
gilt a

k,i
= D(adj a
i,k
) wegen Satz 5.5.2 und D
1
= D. Andererseits folgt aus A
1
= A
T
auch a

k,i
= a
i,k
. Es ergibt sich: a
i,k
= det A(adj a
i,k
).
B.5.10 Multiplikation der i-ten Zeile mit a und Addition zur j-ten Zeile fhrt E
n
+aC
i,j
(i = j) in die Einheitsmatrix ber. Daher folgt Behauptung (a). Wegen (E
n
+aC
i,j
)
1
= E
n

aC
i,j
enthlt M mit jeder Matrix auch deren Inverse. Links- bzw. rechtsseitige Multiplikation
382 B Lsungen der Aufgaben
einer Matrix A mit Matrizen aus M bewirkt elementare Zeilen- bzw. Spaltenumformungen.
Man zeigt, da man durch solche Umformungen in A rechts unten eine Eins, sonst aber in
der letzten Zeile und Spalte lauter Nullen erzeugen kann. Durch Induktion folgt, da Adurch
Multiplikation mit Matrizen aus M in die Einheitsmatrix berfhrt werden kann.
B.6 Lsungen zu Kapitel 6
B.6.1 (a)
_
_
1
2
1
2

1 1 1
_
_
mit =
1
2
+i

3
2
.
(b) char Pol
B
(X) = (1 X)
3
hat 1 als einzige Nullstelle. Der Eigenwert 1 von B hat also
Vielfachheit c
1
= 3. BE
3
hat aber Rang2. Daher ist Bnicht diagonalisierbar nachSatz 6.2.6.
B.6.2 char Pol(X) = X
5
15X
4
25X
3
+ 375X
2
+ 125X 1875 = (X 15)(X
4

25X
2
+125). Die Eigenwerte sind x
1
= 15.
x
2,3
=
_
25
2
+5

5, x
4,5
=
_
25
2
5

5.
B.6.3 (a) AB = BAfolgt durch Nachrechnen.
(c) A und B haben die gemeinsamen Eigenvektoren v
1
= (3, 2, 4), v
2
= (1, 1, 2)
und v
3
= (1, 1, 1) zu den Eigenwerten a
1
= 1, a
2
= 1 und a
3
= 2 bzw. b
1
= 1,
b
2
= 1 und b
3
= 3.
(b) Wegen (c) sind Aund B nach Satz 6.2.6 diagonalisierbar.
(d) folgt unmittelbar aus (c).
B.6.4 char Pol
A
(X) = X
5
5X
4
+6X
3
+2X
2
4X. Eigenwerte x
1
= 0, x
2
= 1, x
3
= 2,
x
4,5
= 1

3.
B.6.5
_
_
2 1 0
0 0 1
1 2 1
_
_
_
_
3 2 1
2 6 2
0 0 2
_
_

1
5
_
_
2 1 1
1 2 2
0 5 0
_
_
=
_
_
2 0 0
0 2 0
0 0 7
_
_
.
B.6.6 Es gelte rg(AEc) = n r. Zu dem Eigenwert c gibt es dann r linear unabhngige
Eigenvektoren, die zu einer Basis des Raumes ergnzt werden knnen. Der dem Endomor-
phismus hinsichtlich dieser Basis entsprechenden, zu Ahnlichen Matrix entnimmt man, da
das charakteristische Polynom die Form f (t ) = (c t )
r
g(t ) besitzen mu. Es folgt r k,
also rg(AEc) = n r n k.
B.6.7 Es entspreche A der Endomorphismus . Genau dann ist A singulr, wenn es ein
x = o mit x = o = x0 gibt, wenn also 0 Eigenwert ist.
B.6 Lsungen zu Kapitel 6 383
B.6.8 (a) Nach Satz 3.5.7 haben hnliche Matrizen dieselbe Spur. Da C algebraisch abge-
schlossen ist, existiert nach Satz 6.3.11 eine Basis B von V derart, da A

(B, B) = (b
ij
)
eine untere Dreiecksmatrix ist. Also sind b
ii
= c
i
, i = 1, 2, . . . , n, die n Eigenwerte von .
Also ist trA
k

(B, B) = tr
k
=

n
i=1
c
k
i
fr alle k = 1, 2, . . . Behauptung (b) folgt aus der
Zerlegung det(Et
r

r
) = det(Et ) det(
r1
+ +Et
r1
). Die Matrix A =
_
1
0
0
1
_
hat 1 als einfachen, A
2
= E hat 1 als zweifachen Eigenwert.
B.6.9 Sei charPol
A
(X) = X
3
+q
2
X
2
+q
1
X +q
0
. Nach Satz 6.1.10 ist q
2
= a
1
. Seien
c
1
, c
2
, c
3
die 3 Eigenwerte von A. Dann ist char Pol
A
(X) =

3
j=1
(Xc
j
) nach Satz 6.1.12.
Also ist q
1
= c
1
c
2
+c
1
c
3
+c
2
c
3
und q
0
= c
1
c
2
c
3
. Nach Aufgabe 6.8(a) ist a
i
=

3
j=1
c
i
j
fr i = 1, 2, 3. Hieraus folgt q
1
=
1
2
(a
2
1
a
2
) und q
0
=
1
6
(a
3
1
+2a
3
3a
2
a
1
).
B.6.10 char Pol
A
(X) = (X 1)(X +1)(X +2).
P
1
AP = diag(1, 1, 2) mit P =
_
_
2 2 1
3 1 0
1 1 1
_
_
.
A
1000
= P diag(1, 1, 2
1000
)P
1
=
1
3
_
_
4 2
1000
2 +2
1001
4 2
1002
0 3 0
1 +2
1000
2 2
1001
1 +2
1002
_
_
.
B.6.11 Sei U ein Eigenraum von Azum Eigenwert f und u U. Dann gilt
ABu = BAu = Bf u = (Bu)f, ()
also Bu U.
Sei U
1
U
2
U
n
eine Zerlegung von F
n
in eindimensionale Eigenrume von
A. Solch eine Zerlegung existiert nach Satz 6.2.6. Nach () ist nun Bv
i
U
i
= v
i
F fr
i = 1, . . . , n. Also ist v
i
U
i
ein Eigenvektor von B. Daher ist {v
1
, . . . , v
n
} eine Basis von
V, die aus gemeinsamen Eigenvektoren von Aund B besteht.
B.6.12 Wegen
char Pol
A
(X) = (X 1)
2

X +2 +2
4, 5 X 4

ist 1 Q der einzige Eigenwert von A. Aus A E


4
= 0 und (A E
4
)
2
= 0, folgt,
da e
1
= 2 der grte Elementarteiler von A ist. Durch Lsen des zugehrigen homogenen
linearen Gleichungssystems (AE
4
)x = o folgt, da
(6, 8, 0, 0), (3, 0, 8, 0), (1, 0, 0, 4)
eine Basis von Ker(AE
4
) ist. Nach Satz 6.3.11 hat der zweite Elementarteiler e
2
= 1 von
Adie Vielfachheit w
2
= 2.
384 B Lsungen der Aufgaben
Mit dem Verfahren 6.3.13 erhlt man wegen (1, 0, 0, 0) / Ker(E A) die Basis
B =
_

_
_
_
_
_
1
0
0
0
_
_
_
_
, (E A)
_
_
_
_
1
0
0
0
_
_
_
_
=
_
_
_
_
0
0
8
12
_
_
_
_
,
_
_
_
_
6
8
0
0
_
_
_
_
,
_
_
_
_
3
0
8
0
_
_
_
_
_

_
,
weil die letzten drei Vektoren von B eine Basis von Ker(E A) sind. Die Jordansche Nor-
malform von Aist nach Satz 6.3.11 die Matrix
A

(B, B) =
_
_
_
_
1 0 0 0
1 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
= Q
1
AQ,
wobei die Spaltenvektoren der Transformationsmatrix Q gerade die Vektoren von B in der
angegebenen Reihenfolge sind.
B.6.13 Mit dem Satz 5.4.9 berechnet man das charakteristische Polynom von A:
char Pol
A
(X) = (X+2)
2
(X1i)
2
(X1+i)
2
. Der verallgemeinerte Eigenraum zum
Eigenwert f
1
= 2 ist V
1
= Ker(A+ 2E
6
)
2
. V
1
hat die Basis v
1
= (0, 0, 0, 0, 1, 0), v
2
=
(0, 0, 0, 0, 2, 4) = (A+2E
6
)v
1
. Der verallgemeinerte EigenraumzumEigenwert f
2
= 1+i
ist V
2
= Ker(A(1+i)E
6
)
2
. V
2
hat die Basis v
3
= (i, 1, 0, 1,
1
25
(8i 19),
1
25
(2311i))
und v
4
= [A(1 +i)E
6
]v
3
= (0, 1, i, 0, 0, 0), wie sich durch Lsung des homogenen Glei-
chungssystems mit Koefzientenmatrix
(A(1 i)E
6
)
2
=
_
_
_
_
_
_
_
_
2 0 0 2i 0 0
2 2i 2 2i 2i 0 0
2i 2i 2 2 +2i 0 0
2i 0 0 2 0 0
2 0 0 4 +4i 4 +2i 6 2i
2 0 0 2 4i 24 +8i 20 +10i
_
_
_
_
_
_
_
_
ergibt.
Da 1 i die konjugiert komplexe Zahl von 1 + i ist, folgt, da der verallgemeinerte
EigenraumV
3
= Ker(A(1i)E
6
)
2
die Basis v
5
= (i, 1, 0, 1,
1
25
(19+8i),
1
25
(23+11i))
und v
6
= [A(1 i)E
6
]v
5
= (0, 1, i, 0, 0, 0) hat.
Nach Verfahren 6.3.13 hat Adie Jordanform J und Transformationsmatrix Q, wobei
J =
_
_
_
_
_
_
_
2 0 0 0 0 0
1 2 0 0 0 0
0 0 1 +i 0 0 0
0 0 1 1 +i 0 0
0 0 0 0 1 i 0
0 0 0 0 1 1 i
_
_
_
_
_
_
_
, Q =
_
_
_
_
_
_
_
0 0 i 0 i 0
0 0 1 1 1 1
0 0 0 i 0 i
0 0 1 0 1 0
1 2 a 0 a 0
0 4 b 0

b 0
_
_
_
_
_
_
_
mit a =
1
25
(19 8i) und b =
1
25
(23 11i) ist.
B.6 Lsungen zu Kapitel 6 385
B.6.14 Ist B = P
1
AP eine Dreiecksmatrix, dann sind die Diagonalelemente b
ii
von
B = (b
ij
) nach Satz 6.1.9 und Satz 6.1.12 gerade die Eigenwerte von A. Wegen Satz 5.4.5
hat char Pol
A
(X) dann die behauptete Faktorisierung. Insbesondere folgt (b) aus (a). Sei
umgekehrt char Pol
A
(X) =

k
r=1
(X f
r
)
c
r
mit f
i
= f
j
fr i = j und f
r
F fr
1 r k. Dann ist A nach Satz 6.3.11 zu seiner Jordanschen Normalform J hnlich. Da J
eine Dreiecksmtrix ist, gilt die Behauptung (a).
B.6.15 Das charakteristische Polynom der Koefzientenmatrix von () x

= Ax hat die
Faktorisierung char Pol
A
(X) = X
3
7X
2
+ 16X 12 = (X 2)
2
(X 3). Der verall-
gemeinerte Eigenraum Ker[(A 2E
2
)] zum Eigenwert f
1
= 2 hat die Basis B = {a =
(0, 0, 1), (A 2E)a = (1, 1, 1)}. Weiter ist b = (2, 1, 1) eine Basis des Eigenraums
Ker(A3E) von A. Also ist die Transformationsmatrix
P =
_
_
0 1 2
0 1 1
1 1 1
_
_
, P
1
=
_
_
0 1 1
1 2 0
1 1 0
_
_
und J =
_
_
2
1 2
3
_
_
die Jordansche Normalform von A.
Nach Hilfssatz 6.4.3 ist b = P
1
x(0) = P
1
(2, 1, 4)
T
= (5, 0, 1) der Anfangsvektor
des Systems () y

= Jy. Wegen Satz 6.4.4 gilt y = (y


1
(t ) = 5e
2t
, y
2
(t ) = 5t e
2t
, y
3
(t ) =
e
3t
) ist eine Lsung von (). Deshalb ist x = Py = (x
1
(t ) = 5t e
2t
+ 2e
2t
, x
2
(t ) =
5t e
2t
, +e
3t
, x
3
(t ) = 5e
2t
+5t
2t
e
3t
nach Hilfssatz 6.4.3 eine Lsung von ().
B.6.16 Die Spur tr(A) = 12 und die Determinante det(A) = 64. Deshalb gilt fr jede Zahl
z Q nach Satz 6.1.10
det(E
6
z A) = z
6
12z
5
+q
4
z
4
+q
3
z
3
+q
2
z
2
+q
1
z +64.
Umdie fehlenden Koefzienten q
4
, q
3
, q
2
, q
1
des charakteristischen Polynoms zu berechnen,
gengt es, 4 Sttzstellen zu whlen und jeweils die linksseitige Determinante zu berechnen.
Dazu whlt man z. B. z
1
= 1, z
2
= 1, z
3
= 2, z
4
= 2. Man erhlt det(E
6
z
i
A) =
1, 729, 0, 4096 fr i = 1, 2, 3 und 4. Hieraus ergibt sich das inhomogene Gleichungssystem
q
4
+q
3
+q
2
+q
1
= 52
q
4
q
3
+q
2
q
1
= 652
16q
4
+8q
3
+4q
2
+2q
1
= 256
16q
4
+8q
3
+4q
2
2q
1
= 3584
Nach dem Lsungsverfahren 4.2.7 hat es die einzige Lsung (q
4
, q
3
, q
2
, q
1
) =
(60, 160, 240, 192). Also ist char Pol
A
(X) = X
6
12X
5
+ 60X
4
160X
3
+
240X
2
192X +64 = (X 2)
6
.
B.6.17 Nach B.6.16 ist char Pol
A
(X) = (X 2)
6
. Also ist 2 der einzige Eigenwert von A
und V = Ker(A 2E)
e
= Q
6
ist der einzige verallgemeinerte Unterraum, wobei e nach
386 B Lsungen der Aufgaben
Satz 6.3.6 der Nilpotenzindex von B = (A2E) ist. Man berechnet
B
2
=
_
_
_
_
_
_
_
_
1 3 4 8 0 5
1 3 4 8 0 5
1 3 4 8 0 5
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
_
_
_
_
_
_
_
_
und B
3
= 0.
Also ist e
1
= 3 der grte Elementarteiler von A. Eine Basis von Ker(B) ist daher B =
{a
1
= (1, 1, 1, 0, 0, 0), a
2
= (2, 2, 0, 1, 1, 0), a
3
= (2, 3, 0, 2, 0, 1)}.
Mittels des Lsungsverfahrens 4.2.7 erhlt man die Treppennormalform von B:
T =
_
_
1 0 1 0 2 2
0 1 1 0 2 3
0 0 0 1 1 2
_
_
.
Wegen rg(B
2
) = 1 ist dim
F
[Ker(B
2
)] nach Folgerung 3.4.8. Daher gelten:
dim
F
[Ker(B
3
)/ Ker(B
2
)] = 6 5 = 1 = 2 = 5 3 = dim
F
[Ker(B
2
)/ Ker(B)]
dim
F
[Ker(B
2
)/ Ker(B)] = 2 = dim[Ker(B)/ Ker(B
0
)] = dim
F
Ker(B) = 3
Nach Denition 6.3.9 hat A drei verschiedene Elementarteiler e
1
> e
2
> e
3
> 0 mit
Vielfachheiten: w
1
= 1, w
2
= 1, w
3
= 1. Insbesondere ist e
1
= 3, e
2
= 2 und e
3
= 1.
Die ersten 3 Spaltenvektoren der Transformationsmatrix Q sind nach Satz 6.3.10 die
Basisvektoren des A-invarianten Unterraums W
1
= m
11
, Bm
11
, B
2
m
11
wobei m
11
=
(1, 0, 0, 0, 0, 0) Ker(B
2
).
Da m
21
= (0, 0, 0, 0, 1, 0) Ker(B
2
), aber m
21
Ker(B)+BW
1
, sinddie beidennch-
sten Spalten von Q die Basisvektoren des A-invarianten Unterraums W
2
= m
21
, Bm
21
.
Schlielich ist m
31
= a
3
Ker(B), aber m
31
B
2
W
1
BW
2
. Also ist
Q =
_
_
_
_
_
_
_
_
1 1 1 0 1 2
0 2 1 0 1 3
0 2 1 0 1 0
0 1 0 0 1 2
0 0 0 1 1 0
0 1 0 0 0 1
_
_
_
_
_
_
_
_
,
und
J = Q
1
AQ =
_
_
_
_
_
_
_
_
2 0 0
1 2 0
0 1 2
2 0
1 2
2
_
_
_
_
_
_
_
_
.
B.6.18 Wegen Satz 6.4.4 berechnet man zunchst die Jordansche Normalform J von A
mit dem Berechnungsverfahren 6.3.3. A hat das charakteristische Polynom char.Pol
A
(X) =
B.6 Lsungen zu Kapitel 6 387
X
3
+3X
3
3X +27 = (X 3)
3
, und den einzigen Eigenwert f
1
= 3. Der Eigenraum
Ker(A3E) hat die Dimension 2. V = Ker(B
2
) ist der verallgemeinerte Eigenraum von A
zum Eigenwert f
1
= 3. Sicherlich ist v
2
= Bv
1
=
_
_
1
1
1
_
_
= 0 fr v
1
= (1, 0, 0), also ist
v
1
Ker(B
2
)\ Ker(B).
Da B
2
v
1
= B(Bv
1
) = 0, ist v
2
= Bv
1
Ker(B). Wegen dim
F
Ker(B) = 2 lt
sich Bv
1
zu einer Basis von Ker B ergnzen, und zwar z. B. durch v
3
= (1, 1, 0). Der
verallgemeinerte Eigenraum Ker B
2
= V hat die Basis
B = {v
1
= (1, 0, 0), v
2
= (1, 1, 1), v
3
= (1, 1, 0)}.
Fr die Jordan-Form J und Transformationsmatrix P gelten:
P =
_
_
1 1 1
0 1 1
0 1 0
_
_
, J =
_
_
3 0 0
1 3 0
0 0 3
_
_
und P
1
=
_
_
1 1 2
0 0 1
0 1 1
_
_
Nach Hilfssatz 6.4.3 ist
b = P
1
a =
_
_
1 1 2
0 0 1
0 1 1
_
_
_
_
4
0
1
_
_
=
_
_
2
1
1
_
_
Anfangsvektor des Differentialgleichungssystems () y

= Jy. mit Koefzientenmatrix J.


Nach Satz 6.4.4 hat () die Lsung y = (y
1
(t )2e
3t
, y
2
(t ) = 2t e
3t
e
3t
, y
3
(t ) = e
3t
).
Wegen Hilfssatz 6.4.3 ist
x = Py =
_
_
1 1 1
0 1 1
0 1 0
_
_
_
_
2e
3t
2t e
3t
e
3t
e
3t
_
_
=
_
_
4e
3t
2t e
3t
2t e
3t
2t e
3t
+e
3t
_
_
eine Lsung des Differentialgleichungssystems () x

= Ax zumAnfangsvektor x(0).
B.6.19 Nach Satz 6.3.10 gengt es die Partitionen von n = 5 zu bestimmen. Sie sind:
z
1
= 5, z
2
= 4 +1, z
3
= 3 +2, z
4
= 3 +1 +1, z
5
= 2 +2 +1, z
6
= 2 +1 +1 +1 und
z
7
= 1 +1 +1 +1 +1. Sei J
i
die Jordansche Normalform von z
i
fr i = 1, 2, . . . , 6. Dann
ist J
7
eine Diagonalmatrix mit einzigem Eigenwert c, und J
1
ist ein einziges Jordankstchen
mit Eigenwert c und 4 Einsen in der unteren Nebendiagonalen. J
2
hat 2 Jordankstchen, von
denen eines eine 4 4 Matrix ist mit 3 Einsen in der unteren Nebendiagonalen.
J
3
=
_
_
_
_
_
_
c
1 c
1 c
c
1 c
_
_
_
_
_
_
, J
4
=
_
_
_
_
_
_
c
1 c
1 c
c
c
_
_
_
_
_
_
,
388 B Lsungen der Aufgaben
J
5
=
_
_
_
_
_
_
c
1 c
c
1 c
c
_
_
_
_
_
_
, J
6
=
_
_
_
_
_
_
c
1 c
c
c
c
_
_
_
_
_
_
.
B.7 Lsungen zu Kapitel 7
B.7.1 Es sind genau alle Werte a
1
a
2
= c mit |c| < 2 mglich: Man setze x = a
1
c+a
2
4;
aus x x > 0 folgt dann |c| < 2. Gilt umgekehrt |c| < 2, so wird durch x y = 4x
1
y
1
+
cx
1
y
2
+ cx
2
y
1
+ x
2
y
2
(x = a
1
x
1
+ a
2
x
2
, y = a
1
y
1
+ a
2
y
2
) ein skalares Produkt mit
a
1
a
2
= c deniert; es gilt dann nmlich x x = (cx
1
+x
2
)( c x
1
+ x
2
) +(4 c c)x
1
x
1
> 0
fr x = o.
B.7.2 (a) Es folgt zunchst
1
(x +y, x +y) =
2
(x +y, x +y) fr beliebige Vektoren x, y.
Nach Ausrechnung dieser Ausdrcke ergibt sich Re(
1
(x, y)) = Re(
2
(x, y)) und (x durch
xi ersetzt) Im(
1
(x, y)) = Im(
2
(x, y)). Damit folgt
1
=
2
. In (b) mu (y, x) = (x, y)
ausgenutzt werden. Gilt
1
(x, x) =
2
(x, x)c (c > 0) fr alle x, so erhlt man mit Hilfe
von (a) als notwendige und hinreichende Bedingung, da ac +b eine positive reelle Zahl sein
mu, wobei a und b selbst noch komplexe Zahlen sein knnen. Gilt
1
(x, x) =
2
(x, x)c,

1
(y, y) =
2
(y, y)c

und c = c

fr mindestens zwei Vektoren x, y, so ist notwendig und


hinreichend, da a und b reelle Zahlen sind, und da ac
e
+b > 0 fr alle normiertenVektoren
e (und damit fr alle Vektoren = o) erfllt ist.
B.7.3 Die aufgestellte Behauptung
|x +y|
2
+|x y|
2
= 2(|x|
2
+|y|
2
). ()
ergibt sich durch einfache Rechnung. Gilt umgekehrt () fr die Betragsfunktion | | auf V,
dann wird durch x y =
1
4
(|x +y|
2
|x y|
2
) ein Skalarprodukt mit x x = |x|
2
fr alle
x, y V deniert: Sicherlich ist es kommutativ, und x x = 0 genau dann, wenn x = o. Es
gengt zu zeigen, da (x
1
+x
2
) y = x
1
y +x
2
y fr alle x
1
, x
2
, y V gilt.
(x
1
+x
2
) y =
1
4
(|x
1
+x
2
+y|
2
|x
1
+x
2
y|
2
). Aus () folgt:
|(x
1
+y) +x
2
|
2
+|x
1
+y x
2
|
2
= 2(|x
1
+y|
2
+|x
2
|
2
),
|(x
2
+y) +x
1
|
2
+|x
2
+y x
1
|
2
= 2(|x
2
+y|
2
+|x
1
|
2
).
Nun ist 4(x
1
y + x
2
y) = (|x
1
+ y|
2
|x
1
y|
2
) + (|x
2
+ y|
2
|x
2
y|
2
) =
1
2
(|x
1
+y +x
2
|
2
+(|x
1
+y x
2
|
2
) |x
2
|
2

1
2
(|x
1
y +x
2
|
2
+|x
1
y x
2
|
2
) +|x
2
|
2
+
1
2
(|x
2
+y +x
1
|
2
+|x
2
+y x
1
|
2
) |x
1
|
2

1
2
(|x
2
y +x
1
|
2
+|x
2
y x
1
|
2
) +|x
1
|
2
=
|x
1
+x
2
y|
2
|x
1
+x
2
y|
2
= 4(x
1
+x
2
) y, weil
1
2
|x
2
x
1
+y|
2
=
1
2
|x
1
x
2
y|
2
und
1
2
|x
1
x
2
+y|
2
=
1
2
|x
2
x
1
y|
2
.
B.7 Lsungen zu Kapitel 7 389
B.7.4 Die Stammfunktionen der als Skalarprodukt im folgenden auftauchenden Integrale
ndet man mit partieller Integration. Dann gilt fr alle n N:
_
1

2
,
1

2
_
=
1

1
2
dt = 1,
_
1

2
, cos(nt )
_
=
1

2
sin(nt ) dt =
1

2
_

1
n
cos(nt )
_

= 0,
(cos(nt ), sin(nt )) =
1

cos(nt ) sin(nt ) dt =
1

_
1
2n
sin(nt )
2
_

= 0,
(cos(nt ), cos(nt )) =
1

cos
2
(nt ) dt =
1

_
1
2n
sin(nt ) cos(nt ) +
1
2
t
_

= 1,
(sin(nt ), sin(nt )) =
1

sin
2
(nt ) dt =
1

1
2n
sin(nt ) cos(nt ) +
1
2
t
_

= 1.
B.7.5 b
1
= (2i, 1, 1, i)
1
7

7, b
2
= (0, i, 0, 1)
1
2

2 ist Orthonormalbasis in U

.
B.7.6 Sei A = (a
ij
)
1i,jn
die Matrix von bezglich einer Orthonormalbasis. Dann gilt

n
j=1
a
2
ij
= 1. Also |a
ij
| 1. Fr die Spur gilt dann
| tr | = | tr A| =

j=1
a
jj

j=1
|a
jj
| n.
Offensichtlich tritt die Gleichheit nur ein bei a
jj
= 1 oder a
jj
= 1 fr 1 j n, wenn
also = id oder = id gilt.
B.7.7 (a) Mit a
s,t
= v
s
e
t
und b
i,s
= v v
s
gilt b
i,s
=

k
t =1
a
i,t
a
s,t
. Fr A = (a
s,t
),
B = (b
i,s
) folgt hieraus B = AA
T
, also det B = (det A)
2
. (b) folgt aus (a), weil B nicht
von der Wahl der Orthonormalbasis abhngt.
B.7.8 Das Volumen des Parallelotops hat den Wert 6.
B.7.9 Folgt aus ((

)x, y) = (

x, y) = (x, ()y) und Bemerkung 7.4.2 (b).


B.7.10 Wegen det(A

Et ) = det(

AE t )
T
= det(

AE t ) = det(AE t ) besitzen die
charakteristischen Polynome zueinander konjugiert-komplexe Koefzienten.
B.7.11 Es sei x

die orthogonale Projektion von x in V. Fr x

= x x

gilt dann
x

(V)

, also x

. Auerdem (V)

= Ker

= Ker , also x

Ker .
Umgekehrt mu wegen (V)

= Ker bei einer solchen Darstellung x

die orthogonale
Projektion von x in V sein (Eindeutigkeit der Darstellung). Aus (
2
)x = o folgt x
Ker V = (V)

V = o, also Ker(
2
) Ker . Es gilt aber auch Ker Ker(
2
).
Aus Ker(
2
) = Ker folgt nun rg(
2
) = rg .
390 B Lsungen der Aufgaben
B.7.12 Da selbstadjungiert und unitr ist, gilt =

=
1
nach Satz 7.5.8. Also ist

2
= id. Umgekehrt folgt aus
2
= id, da =
1
=

gilt.
B.7.13 Aus a = ac (a = o) folgt
2
a = (a)c = ac
2
; d. h. a ist auch Eigenvektor von
2
zumEigenwert c
2
. Umgekehrt gelte
2
a = ac (a = o), und e
1
, . . . , e
n
sei eine aus Eigenvek-
toren von bestehende Basis des Vektorraumes mit den zugehrigen Eigenwerten c
1
, . . . , c
n
.
Es kann a = e
1
a
1
+ + e
k
a
k
mit k n und a
1
= 0, . . . , a
k
= 0 angenommen werden.
Dann folgt (e
1
a
1
+ +e
k
a
k
)c =
2
a = e
1
c
2
1
a
1
+ +e
k
c
2
k
a
k
und durch Koefzienten-
vergleich c = c
2
1
= = c
2
k
. Wegen der vorausgesetzten Positivitt der Eigenwerte ergibt
sich weiter c
1
= = c
k
= +

c; d. h. a ist auch Eigenvektor von mit dem Eigenwert

c.
B.7.14 Fr jedes {1, 1} ist die Transformationsmatrix P gegeben durch:
P =
_
_
_
_
_
_
_
_
_
_
1

3
0 0
1

6
0
1

2
0 0

3
0 0 0

2

3
0
1

2
1

2
0 0
1

3
0 0
1

6
_
_
_
_
_
_
_
_
_
_
.
B.7.15 (a) Man erhlt das Ergebnis durch Anwendung des Laplaceschen Entwicklungssat-
zes.
(b) P =
_
_
_
_
_
_
_
1
2
1
2
1
2
1
2
0

1
2
1
2
0 0
1
2

2
1
2

1
2
0 0
1
2

1
2

1
2
1
2
1
2
0
0 0
1
2

2
1
2

2 0
_
_
_
_
_
_
_
.
B.7.16 (a) Wegen A = A

= (

A)
T
gilt a
ii
= a
ii
fr i = 1, 2, . . . , n.
(b) Nach Aufgabe 7.10 besitzen die charakteristischen Polynome von A und A

zu-
einander konjugiert-komplexe Koefzienten. Wegen A = A

sind alle Koefzienten von


charPol
A
(X) reell.
(c) folgt sofort aus (b) und Satz 6.1.10.
B.7.17 Nach Satz 7.4.13 besitzt V eine Orthonormalbasis B = {v
1
, v
2
, . . . , v
n
} mit
v
j
= v
j
c
j
fr 1 j n. Sei v V beliebig der Lnge |v| = 1 und Basisdar-
stellung v =

n
j=1
v
j
x
j
fr x
j
C. Dann gelten: 1 = v v =

n
j=1
|x
j
|
2
= 1
und v v =
_
n
j=1
v
j
c
j
x
j
_

_
n
j=1
v
j
x
j
_
=

n
j=1
c
j
|x
j
|
2
. Hieraus folgt: c
n
=
c
n

n
j=1
|x
j
|
2


n
j=1
c
j
|x
j
|
2
= v v c
1

n
j=1
|x
j
|
2
= c
1
. Wegen c
n
= v
n
v
n
,
c
1
= v
1
v
1
und |v
1
| = 1 = |v
n
| folgt hieraus die Behauptung.
B.7.18 Nach Hilfssatz 7.4.3 existiert der adjungierte Endomorphismus

von . Sei
1
=
1
2
( +

) und
2
=
1
2
(

). Dann ist
1
selbstadjungiert und
2
anti-selbstadjungiert.
Weiter gilt =
1
+
2
.
B.8 Lsungen zu Kapitel 8 391
Ist =
1
+
2
eine weitere Darstellung mit
i
End(V),

1
=
1
und

2
=
2
, dann
ist

1
+(
2
)

=
1

2
. Daher ist
1
=
1
2
( +

) =
1
und
2
=
1
2
(

) =
2
.
B.7.19 (a) Sei V = R
n
und B die kanonische Basis von V. Nach Folgerung 3.6.6 existiert ein
Gruppenisomorphismus : GL(n, R) Aut(V) = GL(V), der jeder invertierbaren n n-
Matrix A einen Automorphismus (A) = Aut(V) so zuordnet, da A = A

(B, B)
gilt. Wegen Satz 7.6.3 hat die eindeutige Darstellung = , wobei ein orthogonaler
und ein selbstadjungierter Automorphismus von V ist derart, da alle Eigenwerte von
positive reelle Zahlen sind. Nach Satz 7.5.9 ist O =
1
() eine orthogonale Matrix.
Wegen Satz 7.5.9 und Bemerkung 6.1.3 ist S =
1
() = A

(B, B) eine symmetrische


Matrix mit lauter positiven reellen Eigenwerten. Da
1
ein Gruppenisomorphismus ist, folgt
A =
1
() =
1
() =
1
()
1
() = OS. Auerdem ist diese Produktdarstellung
von Awegen derjenigen von eindeutig.
(b) beweist man analog fr V = C
n
.
B.7.20 A = O S mit
O =
1
30
_
_
10

6 5

6 5

6
4

66 10

6 2

6+12
2

6+12 5

624
_
_
und S =
1
5
_
_
4

6+1 0 2

62
0 5

6 0
2

62 0

6+4
_
_
.
B.8 Lsungen zu Kapitel 8
B.8.1 V
U
wird erzeugt von den Vektoren

q
0
q
1
= (0, 2, 11, 6),

q
0
q
2
= (1, 4, 4, 4),

q
0
q
3
= (2, 6, 3, 2). Mit elementaren Umformungen ergibt sich dimV
U
= 2. Also ist
dimU = 2.
Die Koordinaten eines beliebigen Punktes x U haben die Darstellung
(x
1
, x
2
, x
3
, x
4
) = (3, 4, 1, 6) +(0, 2, 11, 6)u +(1, 4, 4, 4)v
fr geeignete u, v R. Einsetzen in die Hyperebenengleichung von H ergibt die Gleichung
3 +3u +4v = 0.
Setze v = 3t fr t R beliebig. Dann ist u = 1 4t . Also besteht UH aus allen Punkten
x mit Koordinaten (x
1
, x
2
, x
3
, x
4
) = (3, 6, 12, 12) + (3, 4, 32, 12)t , t R. Deshalb ist
U H eine Gerade.
B.8.2 Die zu gehrende 2 2-Matrix A mu die Vektoren

p
1
p
2
= (1, 3) und

p
1
p
3
=
(0, 3) auf

p

1
p

2
= (6, 11) bzw.

p

1
p

3
= (3, 15) abbilden. Dies fhrt auf ein lineares
Gleichungssystem fr die Koefzienten von A. Man erhlt
(x) =
_
3 1
4 5
__
x
1
x
2
_

_
3
5
_
mit x = (x
1
, x
2
).
392 B Lsungen der Aufgaben
B.8.3 Durch den Ansatz G : y = (2, 1, 1) + (a, b, c) s ist p G gesichert. G H ist
gleichwertig mit 2a b + 5c = 0, woraus b = 2a + 5c folgt. G G

besteht aus den


Lsungen des Gleichungssystems (2, 1, 1) +(a, 2a +5c, c) s = (11, 1, 2) +(1, 2, 1) t .
Es ist fr t = 5 lsbar und ergibt mit s = 4 die Werte a = 1, c = 1 und somit b = 3.
Hierbei ist die Wahl von s = 0 willkrlich, da es auf einen von Null verschiedenen Faktor
nicht ankommt.
B.8.4 Der Richtungsvektor eines gemeinsamen Lots mu auf (3, 1, 1) und (1, 2, 3) senk-
recht stehen. Ein solcher Vektor ist z. B. (5, 10, 5).
Ausung des linearen Gleichungssystems (1, 2, 1) + (3, 1, 1)s + (5, 10, 5)u =
(0, 2, 16) + (1, 2, 3)t und ergibt s = 2, t = 4, u = 3 und damit als Fupunkte
(1, 2, 1) +(3, 1, 1) 2 = (7, 4, 1) auf G, (0, 2, 16) +(1, 2, 3) 4 = (4, 10, 4) auf G

.
B.8.5 (a) Wenn G existiert, liegt diese Gerade wegen p G und G G
2
= jedenfalls in
der von p und G
2
erzeugten Ebene H = p G
2
. Wegen der Voraussetzung kann G
3
nicht
in H enthalten sein. Daher gilt entweder G
3
H und G
3
H = , oder G
3
hat mit H genau
einen Schnittpunkt g. Im ersten Fall existiert Gnicht, und p ist somit ein Ausnahmepunkt. Im
zweiten Fall mu G = p g gelten. Wenn G G
2
ist (G = G
2
wegen p G), hat man es
wieder mit einemAusnahmepunkt zu tun. Sonst aber folgt auch G G
2
= . G erfllt dann
also die Forderungen und ist eindeutig bestimmt.
(b) Die vonp = (1, 0, 0) und G
2
erzeugte Ebene wird durch die Gleichungx
1
+x
2
= 1 be-
schrieben. Ihr Schnittpunkt mit G
3
ist g =
_
1
2
,
1
2
,
1
2
_
. G = pg schneidet G
2
in (0, 1, 1).
Eine Parameterdarstellung von Gist g = (1, 0, 0)+
_

1
2
,
1
2
,
1
2
_
t . Ausnahmepunkte auf G
1
sind (1, 0, 0) und (0, 0, 0).
B.8.6 Durch Rechnung zeigt man AA
T
= E
3
und det(A) = 1. Die Drehachse wird vom
Vektor (1, 1, 0) erzeugt. Der Betrag des Drehwinkels ist

6
. Die Eulerschen Winkel sind

1
=

4
,
2
=

6
und
3
=

4
.
B.8.7 (a) Nach der Denition ist
x y = e
1
(x
2
y
3
x
3
y
2
) e
2
(x
1
y
3
x
3
y
1
) +e
3
(x
1
y
2
x
2
y
1
). ()
Daher ist x y = 0 gleichwertig damit, da die aus den Koordinaten von x und y gebildete
2 3-Matrix den Rang 1 hat.
(b) Berechnung von (x y) z mit Hilfe von () ergibt die Entwicklung der Determinante
aus (b) nach der dritten Zeile. Da diese Determinante bei zyklischer Vertauschung der Zeilen
nicht gendert wird, gelten die Gleichungen in (b).
(c) Setzt man z = x oder x = y, so sind in der Determinante zwei Zeilen gleich. Es folgt
(x y) x = (x y) y = 0.
Man zeigt |x y|
2
= |x|
2
|y|
2
(x y)
2
durch Nachrechnen, woraus die zweite
Behauptung von (c) wegen sin
2
(x, y) = 1 cos
2
(x, y) folgt.
B.8.8 Die Bijektion von G lasse das Teilverhltnis fest. Die Gerade G ist durch 2 Punkte
x = y eindeutig bestimmt. Wegen x, y Gexistiert ein Skalar a F mit

xy =

xy a.
B.8 Lsungen zu Kapitel 8 393
Fr ein beliebiges z G gilt

xz =

xy c nach Denition 8.1.24 wobei c = TV(x, y, z) ist.
Nach Voraussetzung gilt dann

xz =

xy c =

xy ac = (

xyc)a =

xz a. Also ist eine


Afnitt. Die Umkehrung gilt nach Satz 8.2.4.
B.8.9 Die Lsungen von (a) und (b) ergeben sich aus der Tabelle:
c
1
c
1 c
1
1c
c
c1
c1
c
1, 2, 3, 4 1, 2, 4, 3 1, 4, 3, 2 1, 4, 2, 3 1, 3, 2, 4 1, 3, 4, 2
2, 1, 4, 3 2, 1, 3, 4 4, 1, 2, 3 4, 1, 3, 2 3, 1, 4, 2 3, 1, 2, 4
3, 4, 1, 2 4, 3, 1, 2 3, 2, 1, 4 2, 3, 1, 4 2, 4, 1, 3 4, 2, 1, 3
4, 3, 2, 1 3, 4, 2, 1 2, 3, 4, 1 3, 2, 4, 1 4, 2, 3, 1 2, 4, 3, 1
B.8.10 Es sei (p
0
, p
1
, p
2
) ein Koordinatensystem, und lasse das Doppelverhltnis unge-
ndert. Wegen Satz 8.5.5 gibt es genau eine Projektivitt mit p
i
= p
i
(i = 0, 1, 2). Fr
jeden Punkt x gilt DV(p
0
, p
1
, p
2
, x) = DV(p
0
, p
1
, p
2
, x), also x = x und
somit = . Umkehrung gilt nach Satz 8.5.4.
B.8.11
_
_
_
_
_
_
0
1
2

3
0
1
2

3
0
1
2

2
0
1
2

1
2
0
1
2
0
1
2
0
1
2
0
_
_
_
_
_
_
_
_
_
_
0 0 2 0
0 5 0 1
2 0 0 0
0 1 0 5
_
_
_
_
_
_
_
_
_
_
0 0
1
2
1
2
1
2

3
1
2

2
0 0
0 0
1
2
1
2
1
2

3
1
2

2
0 0
_
_
_
_
_
_
ist die 4 4-Diagonalmatrix diag(1, 1, 1, 1). Die Quadrik ist eine Ovalche.
B.8.12 Die Quadrik Q hat die Koefzientenmatrix
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
,
die Transformationsmatrix
P =
1

6
_
_

3 1

2

3 1

2 0 2
_
_
,
und es gilt
P
1
AP = diag(3, 0, 0) = D.
Setze z = (z
1
, z
2
, z
3
) = xP und c = bP = (2, 2, 2)P. Dann ist c = (2

3, 0, 0). Es
folgt
3z
2
1
+2

3z
1
3 = 0. ()
394 B Lsungen der Aufgaben
Nach Krzen und quadratischer Ergnzung ergibt sich die Gleichung
_
z
1
+
1

3
_
2
=
4
3
. ()
Setze y
1
=
1
2
_
z
1
+
1

3
_
. Dann lautet die Normalgleichung: 3y
2
1
= 4. Die Quadrik ist also
nach Folgerung 8.7.12 ein Paar paralleler Ebenen.
B.8.13 Die Quadrik Q mit Bestimmungsgleichung x
T
Ax +bx 1 = 0, wobei
A =
_
_
1 0.5 0.5
0.5 5 0.5
0.5 0.5 0
_
_
, b = (0, 4, 0) und x = (x
1
, x
2
, x
3
),
hat charPol
A
(X) = X
3
+4X
2
5.75X 0.75.
Ihre Diagonalmatrix ist angenhert ():
D = P
T
A P

_
_
1.219474925 3.452153702 10
10
9.603429163 10
14
3.452153285 10
10
5.098855947 4.051292635 10
11
9.601347495 10
14
4.051274073 10
11
0.1206189785
_
_
.
Transformationsmatrix
P =
_
_
0.9307140549 0.08987161446 0.3545341182
0.04564905578 0.9903046637 0.1311977007
0.3628877399 0.1059233963 0.9257930235
_
_
,
b P = (0.1825962231, 3.961218655, 0.5247908028).
Nach quadratischer Ergnzung von

Q(y
1
, y
2
, y
3
) = 1.219474925y
2
1
5.098855947y
2
2
0.1206189785y
2
3
+0.1825962231y
1
3.961218655y
2
0.5247908028y
3
1,
ergibt sich die angenherte Normalgleichung: z
2
1
z
2
2
z
2
3
+0.3333333332 = 0. Daher ist
Q ein einschaliges Hyperboloid.
B.8.14 Die Gleichung von Q lautet in Matrizenform
x
T
_
_
3 1 0
1 3 0
0 0 6
_
_
x 2(1, 2, 1) x = c. ()
B.9 Lsungen zu Kapitel 9 395
Die Eigenwerte der symmetrischen Matrix A sind 2, 4 und 6. Die orthogonale Matrix
normierter Eigenvektoren ist
P =
_
_
_
1

2

1

2
0
1

2
1

2
0
0 0 1
_
_
_.
Mit x = Px

und (1, 2, 1)P =


_
3

2
,
1

2
, 1
_
geht die Gleichung () ber in 2x

1
2
+4x

2
2

6x

3
2

2
x

2
x

2
2x

3
= c. Durch quadratische Ergnzung ergibt sich 2
_
x

3
2

2
_
2
+
4
_
x

2

1
4

2
_
2
6
_
x

3
+
1
6
_
2
= c +
9
4
+
1
8

1
6
= c +
53
24
= 2c

. Mit x

1
= x

1

3
2

2
,
x

2
= x

2

1
4

2
, x

3
= x

3
+
1
6
erhlt man nach Division durch 2, da x

1
2
+ 2x

2
2

3x

3
2
= c

die Normalgleichung einer zu Q kongruenten Quadrik ist. Diese geht durch die
afne Koordinatentransformation y
1
= x

1
, y
2
=

2x

2
, y
3
=

3x

3
schlielich in die
Normalgleichung y
2
1
+y
2
2
y
2
3
= c

einer zu Q afn quivalenten Quadrik Q

ber. Daher
ist Q nach Folgerung 8.7.12 im Fall c

> 0 ein einschaliges Hyperboloid, im Fall c

= 0 ein
Kegel und im Fall c

< 0 ein zweischaliges Hyperboloid. Die Ausgangsgleichung deniert


daher fr c =
53
24
einen Kegel. Die Kegelspitze ist bei Q

der Nullpunkt y = (0, 0, 0).


Rcktransformation liefert x

= (0, 0, 0), x

=
_
3
2

2
,
1
4

2
,
1
6
_
und schlielich x =
_
5
8
,
7
8
,
1
6
_
als Spitze des Kegels Q.
Im Fall c = 6, also c

=
197
48
> 0, ist Q ein einschaliges Hyperboloid. Der Punkt q

mit
dem Koordinatenvektor q

= (1, 1, 1) erfllt die Gleichung von Q. Durch q

mssen
also zwei in Q enthaltene Geraden gehen. Schrittweise Koordinatentransformationen fhren
auf y

=
_

7
2

2
,
1
4
,
5
6

3
_
und weiter die kartesische Transformation y
1
=
14
3

22
y
1
+
1
3

11
y
2
, y
2
=
1
3

11
y
1

14
3

22
y
2
, y
3
= y
3
schlielich auf y

=
_

3
4

11, 0,
5
6

3
_
. Mit
diesen Werten ergibt die Bemerkung 8.7.15 als Geradengleichungen y
1
=
3
4

11 t
5
6

3,
y
2
=
_
197
48
t , y
3
=
5
6

3 t
3
4

11. Rcktransformation liefert schlielich die beiden


Geraden durch q

:
x
1
= 1
t
6

11
_
65

3
6
8
_
197
24
_
, x
2
= 1
t
6

11
_
75

3
6
6
_
197
24
_
,
x
3
= 1 t

33
4
.
B.9 Lsungen zu Kapitel 9
B.9.1 Ist S(X a) +Sf (X) = S, dann ist 1 = (X a)h
1
(X) +f (X)h
2
(X) fr geeignete
h
i
(X) S = R[X], i = 1, 2. Daher ist 1 = f (a)h
2
(a) R. Sei umgekehrt f (a) eine Einheit
in R. Dann ist f (a) auch eine Einheit in S, d. h. S = f (a)S. Sei f (X) = a
n
X
n
+a
n
X
n1
+
396 B Lsungen der Aufgaben
+a
1
X+a
0
. Dann ist f (X)f (a) = a
n
(X
n
a
n
)+a
n1
(X
n1
a
n1
)+ +a
1
(X
a) = (Xa)g(X) fr ein g(X) S. Hieraus folgt: S = f (a)S = [f (X)(Xa)g(X)]S
f (X)S +(X a)S S, d. h. S = f (X)S +(X a)S.
B.9.2 (U+V)/V = 2Z/6Z

= Z/3Z

= 4Z/12Z = U/(UV). Die Abbildung 2a+6Z


4a +12Z ist ein expliziter Isomorphismus zwischen 2Z/6Z und 4Z/12Z.
B.9.3 Trivialerweise ist B
1
eine Basis. Da das Gleichungssystem2c
1
+3c
2
= 0, 3c
1
+2c
2
=
0 in R = Z/6Z nur die triviale Lsung c
1
= c
2
= 0 besitzt, ist B
2
linear unabhngig. Wegen
(1, 0) = (2, 3) 2 + (3, 2) 3 und (0, 1) = (2, 3) 3 + (3, 2) 2 gilt aber auch B
2
= R
2
.
Wegen (2, 3) 3 +(0, 1) 3 = (1, 0) (2) +(2, 3) 2 = (0, 0) fhrt der Austausch immer
auf linear abhngige Mengen.
B.9.4 (a) y

{U | U S} ist gleichwertig mit y = u


1
+ +u
n
= (u
1
+ +u
n
)
und u
i
U
i
, U
i
S fr i = 1, . . . , n, also auch gleichwertig mit y
_
{U | U S}
_
.
(b) Aus y

(T ) | T S

} folgt y = u
1
+ +u
n
mit u
i
T
i
und T
i
S

fr
i = 1, . . . , n. Man erhlt y T
1
+ +T
n
und damit y

_
{T | T S

}
_
.
(c) Aus y

_
{T | T S

}
_
folgt y = v
1
+ + v
n
mit v
i
T
i
und T
i
S

.
Gilt nun T
1
, . . . , T
n
Im, so folgt weiter v
i
= u
i
, also u
i

(T
i
) fr i = 1, . . . , n.
Man erhlt y u
1
u
n
= u

1
Ker und folglich y = (u
1
+ u

1
) + u
2
+ + u
n
,
wobei auch u
1
+u

(T
1
) gilt, also y

(T ) | T S

}.
(d) Aus y
_ _
{U | U S}
_
folgt y U fr alle U S, also y
_
{U | U S}.
(e) x

_ _
{T | T S

}
_
ist gleichwertig mit x T fr jedes T S

, also weiter
mit x

(T ) fr alle T S

und daher mit x


_
{

(T ) | T S

}.
(f) Aus y
_
{U | U S} folgt y = a
U
mit a
U
U fr alle U S. Bei fester Wahl
von U

S folgt jetzt wegen (a


U
a
U
) = y y = 0 zunchst a
U
a
U
Ker U
und daher a
U
U fr alle U, also y = a
U

_ _
{U | U S}
_
.
B.9.5 (a) Wenn injektiv ist, folgt aus = zunchst ( z) = (z) und dann z = z
fr alle z Z, also = . Erfllt umgekehrt die Bedingung aus (a) und gilt x = x

, so
werden mit Z = x durch x = x und x = x

Abbildungen , mit = deniert. Es


folgt = und weiter x = x

; d. h. ist injektiv.
(b) Ist surjektiv und gilt = , so gibt es zu y W ein x V mit x = y, woraus
y = y fr alle y W, also = folgt. Umgekehrt erflle die Bedingung aus (b); jedoch
sei nicht surjektiv. Dann gibt es ein y W mit y V und R-lineare Abbildungen ,
: W W mit y = y und y

= y

fr y

V. Es folgt = , also = im
Widerspruch zu y = y.
(c) ist trivial.
B.9.6 Man kann jedes M =
_
a b
c d
_
GL(2, R) in GL(n, R) mit n 2 einbetten, indemman
auf der Hauptdiagonalen n2 Einsen an die Matrix Manfgt und alle anderen Koefzienten
Null setzt. Die Matrizen A =
_
1 0
1 1
_
und B =
_
1 1
0 1
_
Mat
2
(R) sind ber jedem Ring R
invertierbar; denn A
1
=
_
1 0
1 1
_
und B
1
=
_
1 1
0 1
_
. Wegen AB =
_
1 1
1 2
_
=
_
2 1
1 1
_
=
BAfolgt, da GL(n, R) fr alle n 2 und alle kommutativen Ringe R nicht kommutativ ist.
B.10 Lsungen zu Kapitel 10 397
B.9.7 (a) Aus y

folgt y =

1
x

1
+ +

r
x

r
= (

1
x

1
+ +

r
x

r
)
(M

). Gilt umgekehrt y = () mit M

, so folgt =

1
x

1
+ +

r
x

r
,
also y =

1
x

1
+ +

r
x

. Man erhlt (M

) =

und damit die


erste Behauptung.
(b) Fr ,

ist =

gleichwertig mit

() =

) fr alle A.
Wegen

ist daher y = y

gleichwertig mit

y =

fr alle A, woraus
die zweite Behauptung folgt.
B.9.8 (a) Es ist y Ker gleichwertig mit

y =

(y) = 0 fr alle A, also mit


y
_
{Ker

| A}.
(b) Aus Ker

folgt =

1
x

1
+ +

r
x

r
mit x

Ker

, also
() =

1
x

1
+ +

r
x

r
= 0 und daher Ker . Gilt M
1
= M
2
= W = R
1
und
sind
1
,
2
die Identitt von R
1
, so gilt Ker
1
= Ker
2
= 0. Fr die durch
1
und
2
nach
Satz 9.6.8 bestimmte Abbildung : R
1
R
1
R
1
ist jedoch Ker = 0, weil Ker z. B.
das Element (1, 1) enthlt.
B.9.9 Fr ein beliebiges Element z

gilt (

)z

= 0 und daher (

)z

=
(

)z

= 0, also (

)z

Ker = Im. Da injektiv ist, wird durch =


1

eine Abbildung der verlangten Art deniert. Wegen der Injektivitt von ist genau dann
injektiv, wenn

injektiv ist, insbesondere also, wenn und

einzeln injektiv sind. Wei-


ter ist surjektiv genau dann, wenn Im(

) = Im() = Im = Ker gilt. Wegen


Im(

) Ker ist diese Bedingung gleichwertig mit Im(

) Ker .
B.9.10 Es gilt X = Im + U und Im U = 0 mit einem Unterraum U von X. Da
Surjektionauf Im ist, gibt es wegenSatz 9.3.4eine F-lineareAbbildung
1
: Im X

, die
die linke Hlfte des Diagramms kommutativ ergnzt. Wegen Ker = Im ist die Restriktion
von auf U injektiv. Nach Aufgabe 9.7.10 existiert daher eine F-lineare Abbildung
2
:
U X

, die die rechte Hlfte des Diagramms kommutativ ergnzt. Durch


1
und
2
wird
dann gem Satz 9.6.8 eine F-lineare Abbildung : X X

der verlangten Art bestimmt.


B.9.11 Wegen Satz 9.6.12 gilt (V

= Hom(V

, F)

Hom(V

, F) =

.
B.10 Lsungen zu Kapitel 10
B.10.1 (a) Nach Satz 2.3.18 besitzen die Unterrume U und V von M bzw. N Komplemente
K und L, d. h. M = U K und N = V L. Daher gelten: U N

= t (U N) = u n |
u U, n N M N und M V

= t (M V) = mv | m M, v V M N.
(b) Sei S := t (U N) +t (MV) MN. Dann ist S nach Satz 2.1.13 ein Unterraum
von M N. Nach Satz 10.1.13 gilt auerdem:
M N = (U K) (V L)

= U V U L K V K L,
U N

= U V U L und M V

= U V K V.
Daher hat der Unterraum S

= U N + M V ein Komplement T in M N, das zu
K L isomorph ist. Nach Satz 9.2.17 (2. Isomorphisatz) folgt: M/U

= K, N/V

= L und
M N/S

= K L. Daher gilt: M/U N/V

= K L

= M N/S.
398 B Lsungen der Aufgaben
B.10.2 Fr jedes Paar q
1
, q
2
Q existiert ein Hauptnenner 0 = c und Elemente a
i
Z mit
q
i
= a
i
c
1
. Daher ist q
1
q
2
= a
1
c
1
a
2
c
1
= (c
1
c
1
)a
1
a
2
= 0, woraus QQ = 0
folgt.
B.10.3 (a) folgt unmittelbar aus Satz 10.2.4 und Denition 10.2.2.
(b) Sind C und D invertierbare Matrizen passender Grsse mit A

= C
1
AC und B

=
D
1
BD, dann ist C D nach (a) eine invertierbare Matrix mit
[C D]
1
(A B)[C D] = (C
1
AC) (D
1
BD) = A

.
(c) Sei v ein Eigenvektor von A zum Eigenwert c und w ein Eigenvektor von B zum
Eigenwert d. Dann gilt (AB)(v w) = Av Bw = vc wd = (v w)cd. Hieraus folgt
die Behauptung.
B.10.4 (a) Man betrachtet die Koefzienten c
ii
der Hauptdiagonale der Matrix C := AB.
Gem Denition 10.2.2 gilt fr 1 i m gerade c
ii
= a
11
b
ii
. Fr m+1 i 2m gilt
c
ii
= a
22
b
im,im
. Also ergibt sich t r(AB) =

n
i=1
_
m
j=1
(a
ii
b
jj
)
_
=

n
i=1
(a
ii

m
j=1
b
jj
) =

n
i=1
a
ii

m
j=1
b
jj
= tr(A) tr(B).
(b) wird fr Endomorphismen End
R
(M), End
R
(N) bewiesen, wobei M =
R
s
, N = R
t
. Nun ist ( 1)(1 ) = .
_ _
s+t
( 1)
_
[m
1
m
s
n
1

n
t
] =
_ _
s+t

_
[m
s
m
s
][n
1
n
t
] =
_
t
_ _
s

_
[m
1
m
s
][n
1

n
t
] = (m
1
m
s
)[det()]
t
n
1
n
t
= [m
1
m
s
n
1
n
t
][det()]
t
.
Also ist det( 1) = [det()]
t
und analog det(1 ) = [det()]
s
. Nach dem Produktsatz
folgt det( ) = [det()]
t
[det()]
s
.
B.10.5 ( b) = 0 genau dann, wenn fr alle m M und b N gilt: 0 = ( b)(m) =
b(m). Also ist b = 0 oder (m) = 0 fr alle m M, also = 0. In beiden Fllen folgt
Ker = 0. Nach den Stzen 3.6.4 und Folgerung 10.1.16 gilt dim
F
Hom
F
(M, N) = mn =
dim
F
(M

F
N). Daher ist ein Isomorphismus.
B.10.6 Es seien : V V/W und

:
_
p
V
_ _
p
V
_
/W
p
die natrlichen Abbildun-
gen. Dann ist
p
:
_
p
V
_
p
(V/W) eine lineare Abbildung mit W
p
Kern(
p
), die
nach Hilfssatz 9.2.14 und Satz 9.2.18 eine lineare Abbildung :
_ _
p
V
_
/W
p

_
p
(V/W)
induziert. Wie im Beweis von Satz 10.1.6 zeigt man, da fr x
1
, . . . , x
p
V/W die Klasse

( x
1
x
p
) von der Reprsentantenwahl unabhngig ist. Die durch ( x
1
, . . . , x
p
) =

( x
1
x
p
) denierte p-fach alternierende Abbildung bestimmt nach Satz 10.4.5 eine
lineare Abbildung

:
_
p
(V/W)
_ _
p
V
_
/W
p
. Es ist

und

die Identitt, also
ein Isomorphismus.
B.10.7 Da V und Y endlich erzeugte freie R-Moduln sind, ist auch Z ein endlich erzeugter
freier R-Modul. Durch
q
(x
1
x
q
, y
q+1
y
p
) = x
1
x
q
y
q1
y
p
wird nach Satz 10.4.8 eine bilineare Abbildung
q
:
_ _
q
V,
_
pq
Y
_

_
p
Z deniert.
Nach Satz 10.1.6 bestimmt sie eine lineare Abbildung
q
: (
_
q
V)
_ _
pq
Y
_

_
p
Z,
die nach Satz 10.4.8 sogar injektiv ist. Die Abbildungen
q
bestimmen weiter nach Satz 9.6.8
eine lineare Abbildung :
p
q=0
__ _
q
V
_

_ _
pq
Y
__

_
p
Z, die ebenfalls injektiv
B.11 Lsungen zu Kapitel 11 399
ist. Man zeigt mit Satz 10.4.8, da sich jeder Vektor aus
_
p
Z als R-Linearkombination von
Vektoren der Form x
1
x
q
y
q+1
y
p
darstellen lt, und folgert, da auch
surjektiv und somit ein Isomorphismus ist.
B.10.8 Es sei {a
1
, a
2
, a
3
} eine Basis von V, und fr 1 i k 3 sei
i,k
die durch

i,k
(a

, a

) =
i,k
(a

, a

) =
i,

k,
(1 3) eindeutig bestimmte Biline-
arform. Nach Folgerung 10.4.9 gilt dimAlt
F
(2, V, F) =
_
3
2
_
= 3, es ist {
1,2
,
1,3
,
2,3
}
eine Basis von Alt
F
(2, V, F), und Alt
F
(2, V, F) besteht aus genau 8 Abbildungen.
B.10.9 Wenn A invertierbar ist, dann gilt AA
1
= E
n
. Nach dem Produktsatz folgt
det Adet A
1
= 1. Also ist det Aeine Einheit in R.
Wenn det A eine Einheit von R ist, gilt auch (det A)
1
R. Die inverse Matrix A
1
lt sich daher nach Satz 5.5.2 jetzt auch im Fall eines Ringes berechnen.
B.10.10 Da {u
1
, u
2
, . . . , u
m
} eine Basis des Unterraums U ist, gilt fr ein beliebiges v V
sogar v U genaudann, wenn{v, u
1
, u
2
, . . . , u
m
} linear abhngigist. Dies ist nachFolgerung
10.4.10 quivalent zu U = {v V}|v
1
u
1
u
2
u
m
= 0}.
B.11 Lsungen zu Kapitel 11
B.11.1 Da Z[i] C, ist Z[i] ein nullteilerfreier kommutativer Ring mit 1. Fr alle x = a+bi,
y = c +di = 0, x, y Z[i] gilt:
x
y
=
a +bi
c +di
=
(a +bi)(c di)
c
2
+d
2
=
ac +bd
c
2
+d
2
+
bc ad
c
2
+d
2
i.
Es existieren f, g Zund k, l Rmit |k|, |l|
1
2
so, da
ac+bd
c
2
+d
2
= f +k und
bcad
c
2
+d
2
= g+l.
Setze u = f +gi Z[i], r = y (k +li) C. Es folgt
x
y
= f +gi +k +li und somit x = y (f +gi) +y(k +li) = yu +r.
Also ist r = x y u Z[i]. Ferner gilt:
(r) = (y)(k
2
+l
2
) (y)
_
1
4
+
1
4
_
< (y),
und (x) 1 fr alle 0 = x Z[i]. Aus der Denition von folgt durch Nachrechnen, da
(xy) = (x)(y) (y) fr alle x = 0, y Z[i] gilt. Nach Denition 9.1.3 ist daher Z[i]
ein euklidischer Ring.
B.11.2 Sei die inAufgabe 11.1 denierte Normdes euklidischen Ringes Z[i]. Das Element
x = a + bi ist eine Einheit in Z[i], wenn ein y = c + di mit 1 = xy existiert. Dann ist
1 = (1) = (x)(y) = (a
2
+ b
2
)(c
2
+ d
2
) = a
2
c
2
+ a
2
d
2
+ b
2
c
2
+ b
2
d
2
. In dieser
Summe von vier Quadraten ganzer Zahlen ist genau ein Summand ungleich Null und somit
gleich 1. Wegen adi = 1 und bci = 1 gilt entweder a, c {1, 1} oder b, d {1, 1}. Also
ist U = {1, 1, i, i} die Menge der Einheiten von Z[i].
400 B Lsungen der Aufgaben
B.11.3 (a) ggT(f
1
, f
2
) = X
5
+X
2
+1.
(b) ggT(f
1
, f
2
) = X
7
+2X
6
+3X
5
+5X
4
+7X
3
+11X
2
+13X +17.
B.11.4 (a) Ist der gekrzte Bruch
p
q
Q in Q eine Nullstelle von f (X) = a
n
X
n
+
a
n1
X
n1
+ +a
1
X+a
0
aus Z[X], so ist f (X) =
_
X
p
q
_
(h
0
+h
1
X+ +h
n1
X
n1
)
fr geeignete h
i
Q. Also ist a
0
=
p
q
h
0
und a
n1
=
p
q
h
n1
=
p
q
a
n
, woraus wegen
ggT (p, q) = 1 folgt, da p | a
n
.
(b) Angenommen, der gekrzte Bruch
p
q
Q erfllt f
_
p
q
_
= 0. Wegen (a) ist dann
p
q

_

1
4
,
1
2
, 1, 1
1
2
,
1
4
_
=: M. Aber f (
p
q
) = 0 fr alle
p
q
M, ein Widerspruch.
B.11.5 Die Behauptung wird mit vollstndiger Induktion von n 1 auf n bewiesen. Fr
n = 2 ist char Pol
C
(X) = det
_
X
1
f
0
(X+f
1
)
_
= X(X +f
1
) +f
0
= m(X).
Nach dem Entwicklungssatz 5.4.9 von Laplace folgt durch Entwicklung nach der ersten
Spalte, da
char Pol
C
(X) = X det
_
_
_
_
_
_
_
_
_
X f
1
1 X f
2
1 X f
3
.
.
.
.
.
.
.
.
.
1 X f
n2
1 X +f
n1
_
_
_
_
_
_
_
_
_
+det
_
_
_
_
_
_
_
_
_
0 0 f
0
1 X f
2
1 X f
3
.
.
.
.
.
.
.
.
.
1 X f
n2
1 X +f
n1
_
_
_
_
_
_
_
_
_
= X(f
1
+f
2
X + +f
n1
X
n2
+X
n1
) +(1)
n
f
0
(1)
n2
= f
0
+f
1
X +f
2
X
2
+ +f
n1
X
n1
+X
n
.
B.11.6 Wegen Grad f (X) = 3 ist K = R[X]/f (X)R[X] ein 3-dimensionaler R-
Vektorraum. Also hat K genau |F|
3
= 2
3
= 8 Elemente. Sei x = [X] die Restklasse
von X in K. Dann sind die sieben Potenzen x, x
2
, x
3
= x +1, x
4
= x
2
+x, x
5
= x
2
+x +1,
x
6
= x
2
+1 und x
7
= 1 die smtlichen von Null verschiedenen Elemente von K. Also ist K
ein endlicher Krper mit acht Elementen.
B.11.7 (a) Nach Satz 11.1.17 ist ggT (m, n) = 1 quivalent zu Z = mZ + nZ. Wegen des
zweiten Isomorphiesatzes ist diese Gleichung zu Z/mZ Z/uZ

= Z/mnZ quivalent. Die
gesuchte Bedingung ist (m, n) = 1.
(b) ggT (m, n) = 1 impliziert nach Satz 11.1.17, da R = mZ + nZ. Also ist [m] =
m + nZ Z/nZ eine Einheit in Z/nZ. Ist [m] eine Einheit in Z/nZ, dann ist [m] kein
B.11 Lsungen zu Kapitel 11 401
Nullteiler. Gilt diese Bedingung (ii), aber ggT (m, n) = 1, dann gibt es eine Primzahl p
mit m = pm
1
und n = pn
1
fr geeignete m
1
, n
1
Z. Hieraus folgt der Widerspruch:
[m][n
1
] = [pm
1
n
1
] = [nm
1
] = 0 Z/nZ, aber [m] = 0 und [n
1
] = 0.
B.11.8 char Pol
A
(X) = X
4
6X
3
+ 8X
2
2X + 4. Der einzige rationale Eigenwert ist
x
1
= 2. Eigenvektor zu x
1
ist (1, 1, 0, 1). Der Faktor X
3
4X
2
2 von char Pol
A
(X)
besitzt keine rationale Nullstelle. Wre
m
n
eine rationale Nullstelle mit m Z, n N, und
m, n teilerfremd, dann wre
m
2
n
2
_
m4n
n
_
= 2. Somit ist m durch n teilbar. Also ist n = 1.
Fr m gerade ist m
2
(m 4) durch 8 teilbar und somit von 2 verschieden. Ist m ungerade,
so auch m
2
(m4), aber dieses Produkt ist 2. Widerspruch!
B.11.9 Die Smith-Normalform der Relationenmatrix
R =
_
_
_
_
1 0 5 7
3 3 1 4
2 2 4 2
8 8 8 16
_
_
_
_
ist
_
_
_
_
1 0 0 0
0 1 0 0
0 0 2 0
0 0 0 0
_
_
_
_
.
Die Elimination der ersten Zeile und Spalte von R mit Hilfe des Schritts 3 des Algorithmus
11.5.11 ergibt die Matrix
_
_
_
_
1 0 0 0
0 3 16 25
0 2 6 12
0 8 48 72
_
_
_
_
, die in
_
_
_
_
1 0 0 0
0 1 0 0
0 0 14 14
0 0 32 32
_
_
_
_
mit Hilfe der Schritte 2 und 3 des Algorithmus 11.5.11 bergeht. Hieraus ergibt sich die
Smith-Normalform. Somit ist A isomorph zu Z Z/2Z.
B.11.10 Da R kein Krper ist, gilt R = Q. Wre Q ein endlich erzeugter R-Modul, dann
gbe es endlich viele q
i
=
a
i
b
i
Q, a
i
, b
i
R, b
i
= 0 fr 1 i n, mit Q =

n
i=1
q
i
R.
Sei b =

n
i=1
b
i
. Dann ist b = 0 und bq
i
= r
i
R fr 1 i n. Da Q ein Krper ist, folgt
Q = bQ =

n
i=1
(bq
i
)R) =

n
i=1
r
i
R = R, was R = Q widerspricht.
B.11.11
_
2 0 1
2X
3
1 X
3

2
3
X
2

1
3
0
1
3
X
3
+
2
3
_
A
_
_
1 X
2
X
4
X
3

2
3
0 1 X
2
+X
0 X
2
X
4
+X
3
+1
_
_
=
_
_
3 0 0
0 X+1 0
0 0
1
3
(X
2
1)
_
_
.
B.11.12 Das neutrale Element der additiv geschriebenen, abelschen Gruppe G sei 0. Wegen
|G| = 2401 = 7
4
ist Gein p-Torsionsmodul ber dem Hauptidealring Z fr das Primelement
p = 7. Nach Satz 11.4.2 ist die Anzahl k der Elementarteiler e
1
e
2
e
k
> 0 von G
gleich der Dimension des F-Vektorraums
M(7) = {g G | g7 = 0} ber dem Krper F = Z/7Z.
402 B Lsungen der Aufgaben
Also ist |M(7)| = 7
k
. Alle Elemente g = 0 von G mit Ordnung o(g) = 7 liegen in M(7).
Nach Voraussetzung ist |M(7)| |{0}| = 48 = 7
k
1. Hieraus folgt k = 2.
Nun sind 3 > 1 > 0 und 2 2 > 0 die einzigen Partitionen von 4 mit 2 Teilen e
1
e
2
.
Also ist G nach Satz 9.4.3 entweder isomorph zu Z/7
3
Z Z/7Z oder Z/7
2
Z Z/7
2
Z.
B.11.13 Es gilt kgV(p(X), q(X)) = p(X)q(X)/ ggT(p(X), q(X)), und zwar ber jedem
Krper F. Also gengt es mit Satz 11.1.28 den grten gemeinsamen Teiler zu berechnen.
Im Fall F = Q ist ggT(p(X), q(X)) = 1.
Im Fall F = Z/3Z ist ggT(p(X), q(X)) = (X
2
+X +1) = (X 1)
2
.
Im Fall F = Z/11Z ist ggT(p(X), q(X)) = X 2, weil X 2 zu 7X 3 assoziiert ist.
B.12 Lsungen zu Kapitel 12
B.12.1 Sei m(X) = a
0
+ a
1
X + + a
r1
X
r1
+ X
r
das Minimalpolynom von A.
Da A invertierbar ist, ist a
0
= 0. Sei E
n
die n n-Einsmatrix und f
i1
= a
1
0
a
i
fr
1 i r 1 = s und f
s
= m
1
0
. Dann ist A
1
= f (A) mit f (X) =

s
i=0
f
i
X
i
, weil
E
n
= A(f
0
E
n
+f
1
A+ +f
s
A
s
) ist.
B.12.2 Die Smith-Normalform der charakteristischen Matrix C von Aist nach Algorithmus
12.3.3 diag(1, 1, 1, x
4
4x
3
+14x
2
20x +25). Also hat Adie rationale kanonische Form
Q
1
AQ = R =
_
_
_
_
0 0 0 25
1 0 0 20
0 1 0 14
0 0 1 4
_
_
_
_
, mit Q =
_
_
_
_
1 0 9 12
0 3 2 23
0 2 12 2
0 1 2 5
_
_
_
_
.
B.12.3 Mittels Algorithmus 12.3.3 werden die Elementarteiler und die Transformations-
matrizen P und Q der charakteristischen Matrix C = A XE
n
nach folgendem Schema
berechnet
E
4
C E
4
1 0 0 0 1 X 0 8 12 1 0 0 0
0 1 0 0 0 1 X 6 9 0 1 0 0
0 0 1 0 0 0 2 X
9
2
0 0 1 0
0 0 0 1 0 0 2 4 X 0 0 0 1
1 0 0 0 1 X 8 0 12 1 0 0 0
0 0 1 0 0 2 X 0
9
2
0 0 1 0
0 1 0 0 0 6 1 X 9 0 1 0 0
0 0 0 1 0 2 0 4 X 0 0 0 1
1 0 0 0 0 8 0 0

1
8
(X +2) X
2
+X 2 0
3
2
(1 X) 0 0 1 0
3
4
6(1 X) 1 X 0
1
8
1 X 0
3
2

1
4
2(1 X) 0 1 X 0 0 0 1
B.12 Lsungen zu Kapitel 12 403
1 0 0 0 1 0 0 0
1
8
(X 1) 0 1
3
2
0 (X 1)
2
0 0

3
4
1 0 0 0 6(1 X) 1 X 0
1
4
0 0 1 0 2(1 X) 0 1 X
1 0 0 0 0 8 0 0
0 (X 1)
2
0 0 0 6 1 0
0 0 X 1 0
1
8
4 X 0
3
2
0 0 0 X 1 0 2 0 1
1 0 0 0 1 0 0 0 0 0 0 8
1
4
0 0 1 0 X 1 0 0 0 0 1 6

3
4
1 0 0 0 0 X 1 0
1
8

3
2
0 4 X
1
8
(X 1) 0 1
3
2
0 0 0 (X 1)
2
0 1 0 2
Q QCP P
B.12.4 Sei Rdie rationale kanonische Formvon A. Dann existiert ein P mit R = P
1
AP.
Dann ist R
T
= (P
1
AP)
T
= P
T
A
T
P
1
T
. Nach Satz 12.2.1 gengt es, die Behauptung
fr die Begleitmatrix der Form R = C(m(X)) eines Minimalpolynoms m(X) zu beweisen.
Da R und R
T
dasselbe charakteristische Polynom und somit nach Hilfssatz 12.2.3 dasselbe
Minimalpolynom haben, sind die F[X]-Modulstrukturen von V bzgl. R und R
T
isomorph.
Also sind R und R
T
nach Folgerung 12.2.2 hnlich.
B.12.5 (a) ist trivial.
(b) Nach 12.1.1 deniert die Matrix Aauf V = F
n
eine F[X]-Modulstruktur. Sei
F
n

= V := F[X]v
1
F[X]v
2
F[X]v
r
die direkte Zerlegung von V in zyklische F[X]-Moduln, wobei fr Erzeuger v
i
V
Ann(v
i
) = (d
i
) und d
1
|
| d
2
|
| . . . |
| d
r
gilt.
Jedes Element aus dem Zentralisator E ist in seiner Wirkung auf F
n
mit A vertauschbar,
demnach auch mit allen Operatorenf (A), f F[X]. Die Linksmultiplikation von Elementen
aus E auf Vektoren in F
n
liefert somit F[X]-Modulendomorphismen. Also sind E und S :=
Hom
F[X]
(V, V) isomorphe Ringe und F-Vektorrume, d. h. dim
F
E = dim
F
S.
Fr jedes s S gilt: s(v
i
) =

r
j=1
s
ij
v
j
mit s
ij
F[X]. Es gilt d
i
s(v
i
) = s(d
i
v
i
) =
0 =

r
j=1
s
ij
d
j
v
j
und daher
() s
ij
d
i
0 mod d
j
, fr alle i, j = 1, . . . , r.
Sei umgekehrt eine Matrix (s
ij
) Mat(r, F[X]) gegeben, so da die Relationen () erfllt
sind. Durch die Zuordnung
()
r

i=1
f
i
v
i

r

i,j=1
f
i
s
ij
v
j
, f
i
F[X]
404 B Lsungen der Aufgaben
ist ein Element aus S deniert. Hierfr ist nur die Wohldeniertheit der Vorschrift () zu zei-
gen. Sind

r
i=1
f
i
v
i
und

r
i=1
h
i
v
i
zwei Darstellungen von v V mit f
i
, h
i
F[X],
so gilt f
i
h
i
mod d
i
, und daher (f
i
h
i
)s
ij
0 mod d
j
fr alle i, j. Es folgt

r
i,j=1
f
i
s
ij
v
j
=

r
i,j=1
h
i
s
ij
v
j
.
Ist j i, so gilt stets s
ij
d
i
0 mod d
j
, da d
j
|d
i
. Ist j > i, so ist () quivalent zu
s
ij
= b
ij
d
j
/d
i
mit b
ij
F[X].
Ersetzt man (s
ij
) durch (s

ij
) mit s

ij
s
ij
mod d
j
im Fall j i und s

ij
= b

ij
d
j
/d
i
mit b

ij
b
ij
mod d
i
im Fall j > i, so beschreiben beide Matrizen das gleiche Element in
S. Die Zuordnung s (s
ij
) mit Grad(s
ij
) < Grad(d
j
) fr j i und s
ij
= b
ij
d
j
/d
i
mit
Grad(b
ij
) < Grad(d
i
) ist bijektiv.
Die Menge der so denierten Matrizen bildet einen F-Vektorraum

S und die angegebene
Bijektion einen F-Vektorraumisomorphismus zwischen S und

S. Die Teilmenge

S
ij
:= {s

S | s
k
= 0 fr alle (k, ) = (i, j)}
ist ein F-Unterraum der Dimension n
j
fr j i und n
i
fr j > i.
Nun folgt die Formel in (b) leicht durch Aufsummieren dieser Dimensionen.
B.12.6 (a) Sei f = a b. Dann ist E
n
f Adie n n-Matrix, deren n Zeilenvektoren z
i
=
(b, b, . . . , b) F
n
fr i = 1, 2, . . . , nsind. Also hat der EigenraumKer(E
n
f A) von Azum
Eigenwert f die Dimension n 1. Nach Satz 11.4.5 und dem Berechnungsverfahren 6.3.13
fr die Jordansche Normalform J von A besitzt A genau n 1 Elementarteilerexponenten
e
1
e
2
e
n1
> 0 zum Eigenwert f .
Da alle e
i
1 sind, und das charakteristische Polynom charPol
A
(X) von A nach
Satz 6.1.10 den Grad n hat, folgt aus Satz 12.2.4, da entweder e
1
= 2 und alle e
i
= 1
fr 2 i n 1 oder ein zweiter Eigenwert g = f mit der Vielfachheit 1 in F exi-
stiert und alle e
i
= 1 fr 1 i n 1 sind. hnliche Matrizen haben nach Satz 3.5.7
die gleiche Spur. Daher folgt im ersten Fall, da na = tr(A) = nf = n(a b) ist,
was nb = 0 widerspricht. Also hat A einen von f verschiedenen Eigenwert g, fr den
na = tr(A) = (n 1)f + g = (n 1)(a b) + g gilt. Daher ist g = a + (n 1)b.
Wegen e
i
= 1 fr alle i = 1, 2, . . . , n 1 ist dim
F
Ker(E
n
f A) = n 1. Daher ist
dim
F
Ker(E
n
g A) = n (n 1) = 1.
(b) Da f, g F sind, hat Aeine Jordansche Normalform nach Satz 6.3.11.
(c) Da e
1
= 1undg nur dieVielfachheit 1imcharPol
A
(X) hat, ist m(X) = (Xf )(Xg)
nach Satz 6.3.11 das Minimalpolynom von A.
(d) Wegen (c) ist Anach Folgerung 6.3.12 diagonalisierbar, d. h. die Jordansche Normal-
form J ist eine Diagonalmatrix (d
ii
) mit d
ii
= f fr i = 1, 2, . . . , n 1 und d
nn
= g.
B.12.7 Durch Zeilenumformung von Afolgt wegen der Voraussetzung an die Koefzienten
a
j
und b
j
, da rg(A) = rg(E
n
0 A) = 2 ist. Also hat der Eigenraum Ker(E
n
0 A) die
Dimension n2. Nach Satz 11.4.5 und dem Berechnungsverfahren 6.3.13 fr die Jordansche
Normalform J besitzt Agenau n 2 Elementarteilerexponenten e
1
e
2
e
n2
> 0
B.12 Lsungen zu Kapitel 12 405
zum Eigenwert 0. Wegen
A
2
=
_
_
_
_
_
_
_
b
1
a
1
b
1
a
2
b
1
a
n1
0
b
2
a
1
b
2
a
2
b
2
a
n1
0
.
.
.
.
.
.
b
n1
a
1
b
n1
a
2
b
n1
a
n1
0
0 0 0 c
_
_
_
_
_
_
_
ist A
2
= 0 und c =

n1
j=1
a
j
b
j
. Es folgt A
3
= 0 genau dann, wenn c = 0 ist.
(a) Ist c = 0, dann ist e
1
= 3. Nach Satz 6.1.10 hat das charakteristische Polynom
charPol
A
(X) den Grad n. Wegen e
i
1 fr i = 2, . . . , n 2 folgt daher aus Satz 12.2.4,
da n

n2
i=1
e
i
= 3 +

n2
i=2
e
i
3 + (n 3) 1 = n ist. Hieraus folgt e
i
= 1 fr
i = 2, . . . , n 2. Also ist 0 der einzige Eigenwert von A. Daher existiert die Jordansche
Normalform J nach Satz 6.3.11. Wegen A
3
= 0 = A
2
hat Adas Minimalpolynom m(X) =
X
3
. Weiter hat die Jordansche Normalform J = (j
ik
) die Koefzienten j
21
= 1 = j
23
und
j
ik
= 0 fr (i, k) = (2, 1) und (i, k) = (2, 3).
(b) Ist c = 0, dann ist X
n2
ein Teiler von charPol
A
(X) nach Satz 12.2.4. Wegen
Grad(charPol
A
(X)) = n gibt es zwei von Null verschiedene Eigenwerte f
1
, f
2
von A. Sie
sind beide reell, weil 0 = t r(A) = f
1
+f
2
und 2c = 2
_
n1
j=1
a
j
b
j
_
= t rA
2
= f
2
1
+f
2
2
=
2f
2
1
> 0 nach den Stzen 6.1.9, 6.1.10 und 6.3.11 gilt. Also ist f
1
=

c und f
2
=

c R
und Abesitzt eine Jordansche Normalform ber R.
Das Minimalpolynom ist in diesem Falle
m(X) = X(X

c)(X +

c) = X(X
2
c).
Wegen c = 0 ist J nach 6.3.12 eine Diagonalmatrix mit n 2 Nullen und

c und

c auf
der Diagonalen.
Literatur
[1] N. Bourbaki, Algbre, Ch. I III. Herman, Paris 1998.
[2] E. Brieskorn, Lineare Algebra und Analytische Geometrie I, II. Vieweg, Wies-
baden 1983/1985.
[3] B. W. Char, K. O. Geddes, G. H. Gonnet, M. B. Monagan, S. M. Watt, Maple,
Reference Manual. 5th edition. Watcom Publications Ltd., Waterloo, Canada
1988.
[4] P. M. Cohn, On the structure of the GL
2
of a ring. Publications Mathmatiques,
Institut des Hautes Etudes Scientiques 30 (1966), 365 413.
[5] G. Eisenreich, Lineare Algebra und analytische Geometrie. 3. Au., Akademie-
Verlag, Berlin 1991.
[6] G. Fischer, Lineare Algebra. 12. Au., Vieweg, Wiesbaden 2000.
[7] S. H. Friedberg, A. J. Insel, L. E. Spence, Lineare Algebra. 3. Au., Prentice-
Hall 1996.
[8] W. H. Greub, Linear Algebra. 4. Au., Springer-Verlag, Heidelberg 1975.
[9] W. H. Greub, Multilinear Algebra. 2. Au., Springer-Verlag, Heidelberg 1978.
[10] K. W. Gruenberg, A. J. Weir, Linear Geometry. Springer-Verlag, Heidelberg
1977.
[11] P. Halmos, Finite-dimensional vector spaces. 5th printing, Undergraduate Texts
in Mathematics, Springer-Verlag, Heidelberg 1993.
[12] B. Hartley, T. O. Hawkes, Rings, Modules and Linear Algebra. Chapman &
Hall, London, Reprint 1991.
[13] I. N. Herstein, D. J. Winter, Matrix Theory and Linear Algebra. Macmillan,
NewYork 1988.
[14] A. S. Householder, The Theory of Matrices in Numerical Analysis. Dover, New
York 1975.
[15] B. Huppert, Angewandte Lineare Algebra. W. de Gruyter, Berlin 1990.
408 Literatur
[16] E. Johnson, Linear Algebra with Maple V. Smbolic Computation Series,
Brooks/Cole Publ. Co, Pacic Grove, Kalifornien 1993.
[17] W. Klingenberg, Lineare Algebra und Geometrie. 3. Au., Springer-Verlag,
Heidelberg 1992.
[18] M. Koecher, Lineare Algebra und analytische Geometrie. Springer-Verlag, Hei-
delberg 1997.
[19] E. Lamprecht, Einfhrung in die Algebra. 2. Au., UTB739, Birkhuser, Basel
1991.
[20] E. Lamprecht, Lineare Algebra 1 (2. Au.), 2. UTB 1021, 1224, Birkhuser,
Basel 1992.
[21] S. Lipschutz, M. Lipson, Lineare Algebra. 3. Au., Schaums Outline Series,
McGraw-Hill, NewYork 2000.
[22] F. Lorenz, Lineare Algebra I, II. B.I. Wissenschaftsverlag, Mannheim 1992.
[23] H. Lneburg, Vorlesungen ber Lineare Algebra. B.I. Wissenschaftsverlag,
Mannheim 1993.
[24] L. E. Manseld, Linear Algebra with Geometric Applications. Marcel Dekker,
NewYork 1976.
[25] K. Nomizu, Fundamentals of Linear Algebra. 2. Au., Chelsea Publishing
Company 1979.
[26] A. Ostrowski, Vorlesungen ber Differential- und Integralrechnung II. 2. Au.,
Birkhuser-Verlag, Basel 1967.
[27] G. Pickert, Analytische Geometrie Eine Einfhrung in Geometrie und Lineare
Algebra. Akademische Verlagsgesellschaft, Leipzig 1976.
[28] G. Scheja, U. Storch, Lehrbuch der Algebra (unter Einschlu der linearen
Algebra). Teil 1 bis 3., 2. Au., Teubner, Stuttgart 1994.
[29] G. Schmeier, H. Schirmeier, Praktische Mathematik. W. de Gruyter, Berlin,
NewYork 1976.
[30] H. R. Schwarz, H. Rutishauser, E. Stiefel, Numerik symmetrischer Matrizen.
Teubner, Stuttgart 1972.
[31] U. Stammbach, Lineare Algebra. 4. Au., Teubner Studienskripten, Stuttgart
1994.
[32] S. Wolfram, Mathematica, a system for doing mathematics by computer.
Addison-Wesley, Redwood City, USA, deutsche Fassung (2. Au.) 1996; eng-
lische Fassung (2. Au.) 1993.
Index
Abbildung, 4
adjungierte, 169
afne, 200
alternierende, 293
anti-selbstadjungierte, 169
bilineare, 279
identische, 5
injektive, 5
inverse, 5
lineare, 53
n-fach lineare, 279
n-lineare, 102
orthogonale, 178
projektive, 222
R-lineare, 251
selbstadjungierte, 169
surjektive, 5
unitre, 178
abelsch, 8
abhngig, 28, 38, 257, 260
absolutes Glied, 20
Abstand, 200
additive Gruppe, 9
adjungierte Abbildung, 169
adjungierte Matrix, 170
Adjunkte, 114, 117
hnlich, 206
hnliche Matrizen, 69
hnlichkeit, 205
hnlichkeitsfaktor, 205
quivalent
bzgl. Ideal, 245
bzgl. Untermodul, 251
projektiv, 227
quivalente Matrizen, 68, 264
quivalenzklasse, 7
quivalenzrelation, 6
uere Potenz, 298
eines R-Moduls, 292
ueres Produkt, 292
afn-quivalent, 232
afne Abbildung, 200
afne Gruppe, 203
afne Projektivitt, 225
afne Quadrik, 232
afner Raum, 194
afner Unterraum, 195
afnes Koordinatensystem, 198
Afnitt, 203
Algorithmen-Konvention, 86
Algorithmus
von Gau, 86
von Gau-Jordan, 89
alternierende Abbildung, 293
alternierende Gruppe, 102
alternierende Linearform, 103
Anfangsbedingung, 145
Anfangspunkt, 198
Anfangsvektor, 145
Annullator, 316
anti-selbstadjungiert, 169
arithmetischer Vektorraum, 19
assoziativ, 8, 12, 17, 49
assoziiert, 306
aufgespannter Unterraum, 196
ausgeartete Quadrik, 228
Austauschsatz, 33
Automorphismengruppe, 71
Automorphismus, 71
410 Index
Basis, 29, 38, 258, 260
duale, 74
geordnete, 34
kanonische, 29
orientierte, 210
Basissatz fr abelsche Gruppen, 322
Basiswechsel, 62, 264
Begleitmatrix, 349
Betrag einer komplexen Zahl, 14
Betrag eines Vektors, 159
Bijektion, 5
Bild, 4, 55, 251
bilineare Abbildung, 279
Bilinearform, 103
Blockmatrix, 116
Cayley-Hamilton, 352
charakteristisches Polynom, 123
Cramersche Regel, 118
Darstellung, triviale, 27
Denitionsbereich, 4
Descartes, Zeichenregel, 189
Determinante, 106, 109, 299, 301
Vandermondesche, 119
Diagonale, 6
Diagonalform, 328
diagonalisierbar, 129
Diagonalmatrix, 129, 328
Diagramm, kommutatives, 255
Differenz, 13
Differenzmenge, 3
Differenzvektor, 18
Dimension, 31, 195, 215
Dimensionssatz, 33, 197
direkte Summe, 37, 250
externe, 266
direktes Produkt, 266
Distributivitt, 12, 17
Division mit Rest, 305
Doppelebene, 228
Doppelgerade, 228
Doppelpunkt, 228
Doppelverhltnis, 221
Drehachse, -ebene, 211
Drehung, 207
Drehwinkel, orientierter, 211
Dreiecksmatrix, 81
Dreiecksungleichung, 159
duale Basis, 74
dualer Vektorraum, 73
Durchschnitt, 2
Ebene, 196, 215
Ebenenpaar, 231
Eigenraum, 122
eigentlich orthogonal, 207
eigentlicher Punkt, 217
Eigenvektor, 121
Eigenwert, 121
eindeutige Darstellung, 37
Einheit, 247
Einheitsmatrix, 45
Einheitspunkt, 198, 219
Einheitsvektor, 28
Einschrnkung, 75
Einselement, 1113
Element, 1
elementare Umformung, 82
Elementarmatrix, 82
Elementarteiler, 136, 325, 328
Elementarteiler des nilpotenten
Endomorphismus, 136
Elementarteiler des Torsionsmoduls, 325
Elementarteilerexponent, 320
Elementarteilersatz, 328
Elimination, 95
Ellipse, 237
Ellipsoid, 238
endlich erzeugt, 28, 257
endlich-dimensional, 31
Endomorphismenring, 71
Endomorphismus, 53, 71, 106
anti-selbstadjungierter, 169
diagonalisierbarer, 129
nilpotenter, 78, 135, 136
normaler, 172
selbstadjungierter, 169
zyklischer, 348
entgegengesetzt orientiert, 210
Entwicklungssatz von Laplace, 114
Index 411
Epimorphismus, 53, 251, 253
erweiterte Matrix, 91
Erzeugendensystem, 28, 260, 314
Erzeuger, 245
Erzeugnis, 26
erzeugter Unterraum, 26, 196
euklidisch-afner Raum, 200
Euklidischer Algorithmus, 311
euklidischer Ring, 305
euklidischer Vektorraum, 154
Eulersche Winkel, 214
exakte Folge, 256
Exponent des Eigenwerts, 134
externe direkte Summe, 266
Faktormodul, 253
Faktorraum, 255
Faserprodukt, 273
Fasersumme, 275
fast alle, 36
fast berall, 260
Fitting, 133
Fixpunkt, 204
Folge, exakte, 256
Fortsetzung, Skalarprodukt, 158
freier Modul, 260
Frobenius-Ungleichung, 78
Funktionenraum, 19, 24
ganze Zahlen, 2
Gau-Algorithmus, 86
Gau-Jordan-Algorithmus, 89
Gausche ganze Zahlen, 344
generelle lineare Gruppe, 52, 71, 263
geordnete Basis, 34
Gerade, 196, 215
gerade Permutation, 101
Geradenpaar, 231, 237
gleich orientiert, 210
Gleichungssystem
homogenes, 21
inhomogenes, 21
lineares, 20, 21
Grad, 14
Gram-Schmidtsches
Orthonormalisierungsverfahren, 164
grter gemeinsamer Teiler, 307
Grundpunkt, 219
Gruppe, 8
abelsche, 8
additive, 9
afne, 203
alternierende, 102
generelle lineare, 52, 71
multiplikative, 9
orthogonale, 182
symmetrische, 10, 99
unitre, 182
Gruppenmultiplikation, 9
Gruppenverknpfung, 9
Hamilton, 352
harmonisch trennen, 222
Hauptachsentheorem, 183
Hauptideal, 245
Hauptidealring, 306
Hauptsatz der Algebra, 15
Hermitesche Form, 155
Hermitesche Matrix, 182
homogene Koordinaten, 219
homogenes lineares Gleichungssystem, 21
homogenes System von linearen
Differentialgleichungen erster
Ordnung mit konstanten
Koefzienten, 144
Hyperbel, 237
Hyperboloid, 238, 240
Hyperebene, 196, 215
uneigentliche, 217
zugeh. afner Raum, 217
Ideal, 245, 247
maximales, 246
identische Abbildung, 5
Identitt, 5
imaginre Einheit, 13
Imaginrteil, 13
Induktion, 3
inhomogenes lineares Gleichungssystem,
21
Injektion, 5
412 Index
natrliche, 74, 266
injektiv, 5
invariante Faktoren, 329
invarianter Unterraum, 75
inverse Abbildung, 5
inverse Matrix, 51, 263
inverses Element, 11
invertierbare Matrix, 51, 263
irreduzibel, 308
isomorph, 53, 72
Isomorphiestze, 253
Isomorphismus, 53, 251
Jordan, 89
Jordankstchen, 140
Jordansche Normalform, 139, 361
kanonische Basis, 29
kanonischer Epimorphismus, 253
kartesische Potenz, 6
Kartesische Zeichenregel, 189
Kartesisches Koordinatensystem, 200
kartesisches Produkt, 6
Kegel, 231, 237
Kern, 55, 251
Kette, 4
kleinstes gemeinsames Vielfaches, 307
Koefzient, 14, 20
Koefzientenmatrix, 144
afne Quadrik, 232
projektive Quadrik, 226
Krper, 12
kollinear, 199
kommutativ, 8, 12, 13
kommutatives Diagramm, 255
Komplement, 40
orthogonales, 74, 167
Komplementierungssatz, 41
komplexe Erweiterung, 157
komplexe Fortsetzung, 158
komplexe Zahlen, 2, 13
Komponente, 315
kongruent, 187, 206
Kongruenz, 204
Kongruenzstze, 206
konjugiert komplexe Matrix, 170
konjugierte komplexe Zahl, 13
Koordinaten, 34, 198
homogene, 219
Koordinatensystem
afnes, 198
kartesisches, 200
projektives, 219
Koordinatenvektor, 34, 198
homogener, 219
Kosinus, 161, 200
Kosinussatz, 161
Kronecker-Produkt, 288
Kronecker-Symbol, 162
Krzungsregel, 304
kurze exakte Folge, 256
Lnge eines Elements, 330
Lnge eines Vektors, 159
Laplace, Entwicklungssatz, 114
leere Menge, 1
Lemma von Zorn, 4
lineare Abbildung, 53
n-fache, 279
lineare Differentialgleichung, 145
lineare Differentialgleichungssysteme, 144
lineare Operation, 18
lineares Gleichungssystem, 20, 21
Linearform, 73
alternierende, 103
n-fache, 103
nicht ausgeartet, 103
Linearkombination, 25, 257
linear (un-)abhngig, 28, 38, 257, 260
linear (un-)abhngige Teilmenge, 257, 260
Linksmodul, 346
Lsungsmenge, 20
Mchtigkeit, 3
Maple, 367
Mathematica, 367
Matrix, 44
adjungierte, 170
hnliche, 69, 121
diagonalisierbare, 129
einer afnen Quadrik, 232
Index 413
einer projektiven Quadrik, 226
erweiterte, 91
Hermitesche, 182
inverse, 51
invertierbare, 51, 263
konjugiert komplexe, 170
orthogonale, 179
quadratische, 44
regulre, 51
schief-Hermitesche, 182
schiefsymmetrische, 182
symmetrische, 51, 182
transponierte, 51
unitre, 179
Matrix einer linearen Abbildung, 60, 264
Matrix eines Basiswechsels, 62, 264
Matrizenhnlichkeit, 69
Matrizenquivalenz, 68, 264
Matrizenprodukt, 48
maximales Ideal, 246
Menge, 1
leere, 1
linear abhngige, 28
Mengensystem, 2
Minimalpolynom, 347
Modul, 18, 248
endlich erzeugter, 257
freier, 258, 260
torsionsfreier, 312
zyklischer, 257
Modulhomomorphismus, 251
Monomorphismus, 53, 251
multiplikative Gruppe, 9
natrliche Injektion, 74, 266
natrliche Projektion, 266
natrliche Zahlen, 1
negativ orientiert, 210
negatives Element, 13
neutrales Element, 8
nicht ausgeartete Linearform, 103
nilpotent, 78, 135
Nilpotenzindex, 78, 135
Norm, 305
normaler Endomorphismus, 172
normierter Vektor, 160
normiertes Polynom, 14
Nullelement, 1113
Nullideal, 245
Nullmatrix, 45
Nullraum, 24
Nullstelle, 125
Nullstellenmenge, 225
nullteilerfrei, 304
Nullvektor, 16, 18
Operation, lineare, 18
Ordnung
einer Gruppe, 9
eines Elements, 318
eines Moduls, 318
orientiert, 210
orientierter Drehwinkel, 211
orthogonal, 161, 167
orthogonale Abbildung, 178
orthogonale Gruppe, 182
orthogonale Matrix, 179
orthogonales Komplement, 74, 167
Orthogonalsystem, 161
Orthonormalbasis, 161
Orthonormalisierung, 164
Orthonormalsystem, 161
Ortsvektor, 16
Ovalche, 231
Parabel, 237
Paraboloid, 238
parallel, 197
Parallelogrammgleichung, 190
Parallelotop, 191
Partition, 323
Permutation, 10, 99
Pivotierung, 88
p-Modul, 318
Polarzerlegung, 189
Polynom, 14
charakteristisches, 123
normiertes, 14
Polynomring, 14, 15
positiv denit, 153, 156
positiv orientiert, 210
414 Index
Potenz
uere, 298
kartesische, 6
Potenzmenge, 4
Primrkomponente, 316
Primelement, 308
Produkt
ueres, 292
direktes, 266
kartesisches, 6
skalares, 46, 153, 156
vektorielles, 242
Produkt von Matrix mit Vektor, 46
Produktabbildung, 5
Produktmatrix, 48
Projektion, natrliche, 266
projektiv quivalent, 227
projektive Dimension, 215
projektive Quadrik, 225
projektiver Raum, 215
projektives Koordinatensystem, 219
Projektivitt, 222
afne, 225
Pullback, 273
Punkt, 194, 215
kollinearer, 199
unabhngiger, 198, 218
(un-)eigentlicher, 217
Pushout, 275
Pythagoras, 161
quadratische Form, 225
quadratische Matrix, 44
Quadrik
afne, 232
ausgeartete, 228
projektiv quivalent, 227
projektive, 225
Quotientenkrper, 305
Rang einer linearen Abbildung, 59
Rang einer Matrix, 66
Rang eines Moduls, 259, 315, 328
rationale kanonische Form, 350, 360
rationale Zahlen, 2
Raum
afner, 194, 217
euklidisch-afner, 200
euklidischer, 154
projektiver, 215
unitr-afner, 200
unitrer, 156
Realteil, 13
reelle Zahlen, 2
reexiv, 6
Regel von Sarrus, 112
regulre Matrix, 51
Relation, 6, 342
Relationen-Matrix, 342
Reprsentant, 7
Restklassenring, 246
Ring, 12
euklidischer, 305
mit eindeutiger Faktorzerlegung, 310
nullteilerfreier, 304
Ringche, 231
Sarrus, Regel von, 112
schief-Hermitesche Matrix, 182
schiefsymmetrische Matrix, 182
Schmidt, E., 164
Schwarzsche Ungleichung, 158
selbstadjungiert, 169
Signum, 101
Skalar, 17
Skalarprodukt, 46, 153, 156
Smith-Algorithmus, 337
Smith-Normalform, 328
Spalte, 44
Spaltenlnge, 44
Spaltenrang, 44, 328
Spaltenraum, 44
Spaltenvektor, X, 44
Spiegelung, 208
Spur, 69
Steinitz, 33
Struktursatz
fr endlich erzeugte Moduln, 321
Struktursatz fr Vektorrume, 40
Summe
direkte, 37, 250
Index 415
externe direkte, 266
von Untermoduln, 250
von Unterrumen, 27, 36, 37
Summenmatrix, 45
Surjektion, 5
surjektiv, 5
Sylvester
Trgheitssatz, 187
symmetrisch, 6, 153
symmetrische Gruppe, 10, 99
symmetrische Matrix, 51, 182
Teiler, 307
grter gemeinsamer, 307
teilerfremd, 307
Teilmenge, 2
Teilverhltnis, 200
Tensorabbildung, 280
Tensorprodukt, 280
Torsionselement, 312
torsionsfrei, 312
Torsionsmodul, 313
Trgheitsindex, 187
Trgheitssatz, 187
transitiv, 6
Translation, 203
Translationsvektor, 203
transponierte Matrix, 51
Transposition, 100
trennen, 221
harmonisch, 222
Treppenform, 80
Treppennormalform, 88
triviale Darstellung, 27
Tupel, 19
Umformung
elementare, 82
Umkehrabbildung, 5
unabhngig, 28, 38, 257, 260
unabhngige Punkte, 198, 218
Unbekannte, 20
uneigentlich orthogonal, 207
uneigentliche Hyperebene, 217
uneigentlicher Punkt, 217
uneigentlicher Teil(Quadrik), 232
unendlich-dimensional, 31
ungerade Permutation, 101
unimodular, 263
unipotent, 355
unitr-afner Raum, 200
unitre Abbildung, 178
unitre Gruppe, 182
unitre Matrix, 179
unitrer Raum, 156
Unterdeterminante, 114
Untergruppe, 11
Untermatrix, 114
Untermodul, 249
Unterraum, 24
afner, 195
aufgespannter, 196
erzeugter, 26
invarianter, 75
projektiver, 215
Unterring, 247
unzerlegbar, 308
Urbild, 5
Vandermondesche Determinante, 119
Vektor, 17
normierter, 160
Vektorprodukt, 242
Vektorraum, 1, 17
arithmetischer, 19
dualer, 73
endlich erzeugter, 28
endlich-dimensionaler, 31
euklidischer, 154
orientierter, 210
unendlich-dimensionaler, 31
unitrer, 156
verallgemeinerter Eigenraum, 134
Verbindungsgerade, 196
Verbindungsraum, 196, 216
Vereinigung, 2
Vielfaches
kleinstes gemeinsames, 307
Vielfachheit, 136
Vielfachheit eines Eigenwerts, 127
vollstndige Induktion, 3
416 Index
Volumen
eines Parallelotops, 191
windschief, 242
Winkel, 161, 200
Eulersche, 214
Zeichenregel von Descartes, 189
Zeile, 44
Zeilenlnge, 44
Zeilenrang, 44, 328
Zeilenraum, 44
Zeilenvektor, 44
Zentrum, 79
Zerfllungskrper, 132
Zerlegung, 7
Zielbereich, 4
Zornsches Lemma, 4
ZPE-Ring, 310
zyklischer Endomorphismus, 348
zyklischer Modul, 257
Zylinder, 238

Das könnte Ihnen auch gefallen