Beruflich Dokumente
Kultur Dokumente
Walter de Gruyter
Berlin New York 2003
Hans-Joachim Kowalsky
Am Schiefen Berg 20
38302 Wolfenbttel
Gerhard O. Michler
Hofringstr. 25
45138 Essen
Mathematics Subject Classification 2000: 15-01
Auflagenchronik:
1. Auflage 1963
2. Auflage 1965
3. Auflage 1967
4. Auflage 1968
5. Auflage 1970
6. Auflage 1971
7. Auflage 1974
8. Auflage 1977
9. Auflage 1979
10. Auflage 1995
11. Auflage 1998
Gedruckt auf surefreiem Papier, das die US-ANSI-Norm ber Haltbarkeit erfllt.
ISBN 3-11-017963-6
Bibliografische Information Der Deutschen Bibliothek
Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Daten sind im Internet
ber http://dnb.ddb.de abrufbar.
Copyright 2003 by Walter de Gruyter GmbH & Co. KG, 10785 Berlin.
Dieses Werk einschlielich aller seiner Teile ist urheberrechtlich geschtzt. Jede Verwer-
tung auerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des
Verlages unzulssig und strafbar. Das gilt insbesondere fr Vervielfltigungen, berset-
zungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen
Systemen.
Printed in Germany.
Umschlaggestaltung: Hansbernd Lindemann, Berlin.
Konvertierung von LAT
E
X-Dateien der Autoren: I. Zimmermann, Freiburg.
Druck und Bindung: Hubert & Co. GmbH & Co. KG, Gttingen.
Vorwort
Da die 12. Auage der Linearen Algebra gerade im 40. Erscheinungsjahr des Buchs
herauskommt, ist es den Verfassern ein Anliegen, bereits am Anfang des Vorworts
demVerlag fr die langjhrige engagierte, verstndnisvolle und entgegenkommende
Zusammenarbeit zu danken. Eine bedeutende Frderung erfuhr das Buch seitens des
Verlages durch Herrn Dr. Karbe. Mit Einfhlungsvermgen und fachlicher Kom-
petenz gelang ihm 1994 die Verpichtung eines zweiten Autors, so da dann in
gemeinsamer Arbeit beider Autoren die 10. Auage in neuer berarbeitung und in
modernisierter Form erscheinen konnte.
Diese 12. Auage weist gegenber der vorigen nur eine wesentliche Umstellung
auf, in deren Folge lediglich unbedeutende nderungen auftreten. Die fr Anwender
wichtige Jordansche Normalform quadratischer Matrizen, die bisher erst nach der
Behandlung der Moduln am Ende des Buchs auftrat, wird jetzt bereits in Kapitel 6
und A
der linearen
Abbildungen und ist, vgl. Satz 3.3.7.
Wegen der Denition des Produkts zweier Matrizen (vgl. 3.1.17) erfordert aller-
dings diese Festlegung, da ein Vektor a = (a
1
, a
2
, . . . , a
n
) des n-dimensionalen
arithmetischen Vektorraums F
n
ber dem Krper F in diesem Buch stets als Spal-
tenvektor
a =
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
aufgefat wird. Da Spaltenvektoren drucktechnisch sehr unbequem sind und zuviel
Platz in Anspruch nehmen, werden die Vektoren a F
n
meist als Textzeilen a =
(a
1
, a
2
, . . . , a
n
) geschrieben, d. h. a = (a
1
, a
2
, . . . , a
n
) F
n
bedeutet, da a als
Spaltenvektor aufzufassen ist.
An wenigen Stellen des Buches ist es notwendig, Spalten- und Zeilenvektoren
zur gleichen Zeit zu betrachten. In diesen Fllen schreibt man:
F
n
s
= F
n
fr den n-dimensionalen Spaltenraum ber dem Krper F,
F
n
z
fr den n-dimensionalen Zeilenraum ber dem Krper F.
Bei Matrizen sind bisweilen Nulleintrge der bersicht halber leer gelassen.
Whrend im ersten Kapitel die Verknpfung zweier Elemente in einer Gruppe
bzw. die Hintereinanderausfhrung zweier Abbildungen mit gekennzeichnet wird,
wird ab Kapitel 2 auf dieses Zeichen verzichtet und ab statt a b bzw. statt
geschrieben. Die Addition in einemVektorraum, Modul, Ring oder Krper wird stets
mit + bezeichnet.
XIV Bezeichnungen und Symbole
F
n
s
(S. XIII)
F
n
z
(S. XIII)
N (1.1; S. 1)
Z (1.1; S. 2)
M N (1.1.1; S. 2)
M N (1.1.2; S. 2)
_
{M | M S} (1.1.3; S. 2)
_
MS
M (1.1.3; S. 2)
{M | M S} (1.1.4; S. 2)
MS
M (1.1.4; S. 2)
M\N (1.1.6; S. 3)
{A
| A} (1.1.6; S. 3)
(1.1.13; S. 5)
(1.1.10; S. 5)
id (1.1.14; S. 5)
A B (1.2.1; S. 6)
(1.2.3; S. 6)
A
n
(1.2.3; S. 6)
(1.2.4; S. 6)
|G| (1.3.1; S. 9)
Q
(1.3.2b; S. 9)
R
(1.3.2b; S. 9)
S
n
(1.3.2c; S. 10)
U G (1.3.9; S. 11)
Q (1.4.2a; S. 13)
R (1.4.2a; S. 13)
C (1.4.2b; S. 13)
F
(1.4; S. 13)
Re (1.4.2b; S. 13)
Im (1.4.2b; S. 13)
Grad f (1.4.3c; S. 14)
F[X] (1.4.3c; S. 15)
_
n
k
_
(1.4.3c; S. 21)
U V (2.1.1; S. 24)
v
i
| 1 i r (2.1.7; S. 26)
M (2.1.9; S. 26)
dimV (2.2.12; S. 31)
dim
F
V (2.2.12; S. 31)
dimU = (2.2.12; S. 31)
A
U
(2.3.2; S. 36)
A
U
(2.3.4; S. 37)
U
1
U
2
U
n
(2.3.4; S. 37)
s(A) (3.1.1; S. 44)
z(A) (3.1.1; S. 44)
E
n
(3.1.2b; S. 45)
A
T
(3.1.25; S. 51)
A
1
(3.1.29; S. 51)
V
= W (3.2.2; S. 53)
Ker() (3.2.6; S. 55)
Im() (3.2.6; S. 55)
rg() (3.2.16; S. 59)
A
(3.6.7; S. 73)
U
(3.6.11; S. 74)
|U
(3.7.2; S. 75)
ZV(i, j) (4.1.12a; S. 83)
ZM(i, a) (4.1.12b; S. 83)
ZA(i, j, a) (4.1.12c; S. 84)
T (A) (4.1.18; S. 86)
zpivot (A, i, j) (4.1.22; S. 88)
spivot (A, i, j) (4.1.22; S. 88)
sign (5.1.8; S. 101)
A
n
(5.1.12; S. 102)
det() (5.3.1; S. 106)
det A (5.3.4; S. 109)
adj A (5.5; S. 117)
char Pol
A
(X) (6.1.8; S. 123)
char Pol
i,j
(7.2; S. 162)
M N (7.3.4; S. 167)
(7.4.1; S. 169)
A
(7.4.4; S. 170)
O(n, R) (7.5.10a; S. 181)
U(n, C) (7.5.10b; S. 181)
t (A) (7.6.7; S. 187)
U A (8.1.4; S. 195)
pq (8.1.1; S. 194)
dimA = dimV
A
(8.1.1; S. 195)
{U : U S} (8.1.8; S. 196)
U
1
U
n
(8.1.8; S. 196)
UW (8.1.13; S. 197)
T V(x, y, z) (8.1.24; S. 200)
p dimP (8.4.1; S. 215)
DV(x, y, z, u) (8.4.14; S. 221)
Q Q
(8.6.6; S. 227)
u(Q) (8.6.9; S. 227)
d(Q) (8.6.14; S. 229)
Q
0
Q
0
(8.7.4; S. 232)
Q Q
(8.7.4; S. 232)
r s (9.1.4; S. 245)
r
Y
s (9.1.4; S. 245)
k
i=1
U
i
(9.2.6; S. 250)
k
i=1
U
i
(9.2.7; S. 250)
Hom
R
(M, N) (9.2.9; S. 251)
u
U
v (9.2.13; S. 251)
M/U (9.2.15; S. 253)
R
M
(9.4.13; S. 260)
A
M
(9.6.2; S. 266)
A
R
B (10.1.4; S. 280)
a b (10.1.4; S. 280)
p
M (10.1.12; S. 285)
AB (10.2.2; S. 288)
_
p
M (10.4.1; S. 292)
a
1
a
2
a
p
(10.4.1; S. 292)
t | a (11.1.13; S. 307)
ggT(a, b) (11.1.14; S. 307)
kgV(a, b) (11.1.15; S. 307)
Ann(m) (11.3.3; S. 316)
o(M) (11.3.6; S. 318)
o(m) (11.3.7; S. 318)
diag(a
1
, . . . , a
r
, 0) (11.5.5; S. 328)
m(X) (12.1.4; S. 347)
C(f (X)) (12.1.8; S. 348)
1 Grundbegriffe
Die lineare Algebra beschreibt die algebraische Struktur der Vektorrume ber Kr-
pern. Darber hinaus analysiert sie die strukturvertrglichen Abbildungen zwischen
diesen linearen Rumen. Hiermit liefert sie wesentliche Grundlagen fr fast alle
Arbeitsgebiete der modernen Mathematik. Insbesondere stellt sie Algorithmen und
Methoden bereit zum Lsen von linearen Gleichungssystemen und zur Klassika-
tion geometrischer Strukturen, wie z. B. der Kurven und Flchen zweiter Ordnung.
Der fr das ganze Buch grundlegende Begriff Vektorraumwird einschlielich einiger
einfacher Eigenschaften im vierten Abschnitt dieses Kapitels behandelt. Ihm liegt
einerseits der Begriff einer Gruppe und andererseits eines Krpers zugrunde. Die mit
diesen beiden Strukturbegriffen jeweils zusammengefaten Rechengesetze werden
in den beiden Abschnitten 3 und 4 dieses Kapitels beschrieben.
In den spteren Kapiteln des Buches wird die Bedeutung eines gewonnenen
theoretischen Ergebnisses sehr oft anhand seiner Anwendung auf die Beschreibung
undBerechnungder Lsungsgesamtheit eines linearenGleichungssystems illustriert.
Deshalb werden die grundlegenden Bezeichnungen und Aufgabenstellungen der
Theorie der linearen Gleichungssysteme im letzten Abschnitt des Kapitels darge-
stellt.
Neben diese algebraischen Grundlagen treten als wesentliche Voraussetzung
noch einige einfache Begriffe der Mengenlehre, die in den ersten beiden Paragraphen
aus Grnden der Bezeichnungsnormierung zusammengestellt werden. Der Mengen-
begriff wird dabei als intuitiv gegeben vorausgesetzt; auf die axiomatische Begrn-
dung wird nicht eingegangen.
1.1 Mengentheoretische Grundbegriffe
Die Objekte, aus denen eine Menge besteht, werden ihre Elemente genannt. Fr
x M wiedergegeben. Statt
x
1
M und . . . und x
n
M wird krzer
x
1
, . . . , x
n
M geschrieben. Eine spezielle Menge ist die leere
Menge, die dadurch charakterisiert ist, da sie berhaupt keine Elemente besitzt. Sie
wird mit dem Symbol bezeichnet. Weitere hug auftretende Mengen sind:
N Menge aller natrlichen Zahlen einschlielich der Null.
2 1 Grundbegriffe
Z Menge aller ganzen Zahlen.
Q Menge aller rationalen Zahlen.
R Menge aller reellen Zahlen.
C Menge aller komplexen Zahlen.
1.1.1 Denition. Eine Menge M heit Teilmenge einer Menge N, wenn aus x M
stets x N folgt.
Bezeichnung: M N.
Die leere Menge ist Teilmenge jeder Menge; auerdem ist jede Menge Teil-
menge von sich selbst.
1.1.2 Denition. Gilt M N und M = N, so heit M eine echte Teilmenge von
N.
Bezeichnung: M N.
Die Elemente einer Menge S knnen selbst Mengen sein. Es wird dann S bis-
weilen auch als Mengensystem bezeichnet.
1.1.3 Denition. Der Durchschnitt D eines nicht-leeren Mengensystems S ist die
Menge aller Elemente, die gleichzeitig Elemente aller Mengen M des Systems S
sind. Es ist also x D gleichwertig mit x M fr alle Mengen M S.
Bezeichnung: D =
_
MS
M oder D =
_
{M | M S}.
D = M
1
M
2
M
n
, falls S nur aus den endlich vielen Mengen M
1
, . . . , M
n
besteht.
Die Gleichung MN = besagt, da die Mengen M und N kein gemeinsames
Element besitzen.
1.1.4 Denition. Die Vereinigung V eines nicht-leeren Mengensystems S ist die
Menge aller derjenigen Elemente, die zu mindestens einer Menge M aus S gehren.
Bezeichnung: V =
MS
M oder V =
{M | M S}.
V = M
1
M
n
, falls S aus endlich vielen Teilmengen M
1
, M
2
, . . . , M
n
besteht.
Mit Hilfe der Denitionen von Durchschnitt und Vereinigung ergeben sich un-
mittelbar folgende Beziehungen, deren Beweis dem Leser berlassen bleiben mge.
1.1.5 Hilfssatz.
(a) M (N
1
N
2
) = (M N
1
) (M N
2
),
(b) M (N
1
N
2
) = (M N
1
) (M N
2
),
1.1 Mengentheoretische Grundbegriffe 3
(c) M N = M ist gleichbedeutend mit M N,
(d) M N = M ist gleichbedeutend mit N M.
Endliche Mengen knnen durchAngabe ihrer Elemente gekennzeichnet werden.
Man schreibt {x
1
, . . . , x
n
} fr diejenige Menge M, die genau aus den angegebenen
n Elementen besteht. Die einelementige Menge {x} ist von ihrem Element x zu
unterscheiden: So ist z. B. {} diejenige Menge, deren einziges Element die leere
Menge ist.
Die Anzahl der Elemente einer endlichen Menge M wird mit |M| bezeichnet.
Diese Zahl |M| heit auch Mchtigkeit von M. So ist z. B. |{}| = 1 und || = 0.
Ein anderes Mittel zur Beschreibung von Mengen besteht darin, da man alle Ele-
mente einer gegebenen Menge X, die eine gemeinsame Eigenschaft E besitzen, zu
einer neuen Menge zusammenfat. Bedeutet E(x), da x die Eigenschaft E besitzt,
so bezeichnet man diese Menge mit {x X | E(x)}. So ist z. B. {x Z | x
2
= 1} die
aus den Zahlen +1 und 1 bestehende Teilmenge der Menge aller ganzen Zahlen.
Bei dieser Art der Mengenbildung ist die Angabe der Bezugsmenge X wesentlich,
aus der die Elemente entnommen werden, da sonst widerspruchsvolle Mengen ent-
stehen knnen. Da die Bezugsmenge jedoch im allgemeinen durch den jeweiligen
Zusammenhang eindeutig bestimmt ist, soll in diesen Fllen auf ihre expliziteAngabe
verzichtet werden.
1.1.6 Denition. Die Differenzmenge zweier Mengen M und N ist die Menge
M \ N = {x M | x N}.
Viele mathematische Beweise beruhen auf dem Prinzip der vollstndigen Induk-
tion, das bei der axiomatischen Begrndung des Aufbaus der natrlichen Zahlen eine
wichtige Rolle spielt.
1.1.7 Prinzip der vollstndigen Induktion. Es sei A eine Aussage ber natrliche
Zahlen n N. A(n) bedeute, da Aauf n zutrifft. Von einem festen n
0
Nan gelte:
(a) Induktionsanfang: A(n
0
),
(b) Induktionsschlu: Fr alle n > n
0
folgt aus A(n 1) auch A(n).
Dann ist A fr alle natrlichen Zahlen n n
0
richtig.
Es sei darauf hingewiesen, da es oft bequemer ist, den Induktionsschlu in der
folgenden Form durchzufhren:
(b
) fr M
= {a
1
, . . . , a
n1
} nach
Induktionsannahme genau 2
n1
Elemente. Ist A P(M), dann ist entweder a
n
A
oder a
n
A. Im zweiten Fall gehrt A zu P(M
=
A \ {a
n
} P(M
(N) = {x X | x N},
und
1
= id
X
,
1
= id
Y
.
6 1 Grundbegriffe
1.2 Produktmengen und Relationen
In diesemAbschnitt wird das kartesische Produkt von nicht-leeren Mengen und damit
der Begriff
quivalenzrelation eingefhrt.
1.2.1 Denition. Das kartesische Produkt A B zweier Mengen A und B ist die
Gesamtheit der geordneten Paare (a, b) mit a A und b B. Dabei ist (a, b) =
(a
, b
und b = b
.
1.2.2 Bemerkung. Das kartesische Produkt zweier Mengen ist imallgemeinen nicht
kommutativ, d. h. A B = B A falls A = B. Man beachte jedoch fr jede nicht
leere Menge A und die leere Menge die Ausnahme
A = A = .
Analog zum kartesischen Produkt zweier Mengen wird das kartesische Produkt
endlich vieler Mengen gebildet.
1.2.3 Denition. Das kartesische Produkt
n
i=1
A
i
= A
1
A
2
A
n
von
endlich vielen Mengen A
i
, i = 1, 2, . . . , n, ist die Gesamtheit der geordneten
n-Tupel (a
1
, a
2
, . . . , a
n
) mit a
i
A
i
, i = 1, 2, . . . , n. Dabei ist (a
1
, a
2
, . . . , a
n
) =
(a
1
, a
2
, . . . , a
n
) genau dann, wenn a
i
= a
i
fr i = 1, 2, . . . , n. Ist A
i
= A fr
i = 1, 2, . . . , n, so heit A
n
=
n
i=1
A
i
die n-te kartesische Potenz von A. Die
Menge {(a, a, . . . , a) A
n
| a A} ist die Diagonale von A
n
.
1.2.4 Denition. Eine Teilmenge R von AA wird eine zweistellige Relation der
Menge A genannt. Man sagt, da zwei Elemente a und b von A in der Relation R
stehen, in Zeichen a b, genau dann, wenn (a, b) R gilt.
1.2.5 Denition. Eine nicht leere zweistellige Relation auf der Menge A heit
quivalenzrelation, wenn fr alle a, b, c A die folgenden Bedingungen gelten:
(a) a a, (reexiv)
(b) a b impliziert b a, (symmetrisch)
(c) a b und b c impliziert a c. (transitiv)
1.2.6 Beispiele.
(a) Die Gleichheit
aus S so zugeordnet,
da S = {A
| A} gilt.
1.2.9 Denition. Ein System{A
| A} von Teilmengen A
einer Menge A =
heit eine Zerlegung der Menge A, wenn
(a) A
= fr alle A,
(b) A =
A
A
,
(c) A
= fr alle , Amit = .
1.2.10 Satz. Es sei R eine quivalenzrelation auf der Menge A. Dann bilden die
quivalenzklassen bezglich R eine Zerlegung von A. Umgekehrt bestimmt eine
beliebige Zerlegung {A
(nmlich a bzw.
1
a
), so da die Summe bzw. das
Produkt dieser beiden Zahlen gerade die jeweilige neutrale Zahl ergibt.
Da diese Rechenregeln das Zahlenrechnen weitgehend beherrschen und auch in
vielen anderen Fllen auftreten, ist es naheliegend, sie unabhngig von der speziellen
Natur der Rechengren und der jeweiligen Operationen zu untersuchen. Bei dieser
abstrakten Betrachtungsweise stehen die Rechengesetze imVordergrund: Nicht wo-
mit man rechnet ist wesentlich, sondern wie man rechnet. Man setzt lediglich voraus,
da fr die Elemente einer gegebenen Menge eine Operation deniert ist, die jedem
geordneten Paar (a, b) von Elementen wieder ein Element der Menge zuordnet und
die den oben erwhnten Regeln unterliegt. Die Operation selbst soll hierbei mit dem
neutralen Symbol bezeichnet werden.
1.3.1 Denition. Eine Gruppe besteht aus einer Menge G und einer Operation ,
die jedem geordneten Paar (a, b) von Elementen aus G eindeutig ein mit a b
bezeichnetes Element von G so zuordnet, da folgende Axiome erfllt sind:
(I) (a b) c = a (b c) fr alle a, b, c G. (Assoziativgesetz)
Es gibt mindestens ein Element e G mit
(II) e a = a fr alle a G, und
(III) zu jedem a G existiert ein Element a
G mit a
a = e.
Ein solches Element heit neutrales Element von G.
Die Gruppe heit abelsch oder auch kommutativ, wenn auerdemfolgendes Axi-
om erfllt ist:
(IV) a b = b a fr alle a, b G. (Kommutativgesetz)
1.3 Gruppen 9
Besitzt die Gruppe G nur endlich viele Elemente, so heit die Anzahl |G| ihrer
Elemente die Ordnung von G.
Zu den Bestimmungsstcken einer Gruppe gehrt neben der Menge G auch die
Gruppenverknpfung genannte Operation . Eine Gruppe ist demnach durch das
Paar (G, ) gekennzeichnet. Da vielfach jedoch die Gruppenverknpfung durch den
Zusammenhang eindeutig festgelegt ist, pegt man in solchen Fllen die Gruppe
einfach mit G zu bezeichnen. Die Gruppenverknpfung wird bisweilen auch Grup-
penmultiplikation genannt. Man bezeichnet dann das Element a b als Produkt der
Elemente a und b. In nicht-abelschen Gruppen mu jedoch auf die Reihenfolge der
Faktoren geachtet werden, weil dann a b und b a im allgemeinen verschiedene
Gruppenelemente sind.
Axiom (I) besagt, da es bei mehrgliedrigen Produkten nicht auf die Art der
Klammersetzung ankommt. Man kann daher berhaupt auf die Klammern verzichten
und z. B. statt (a b) c einfacher a b c schreiben. Diese Mglichkeit der
Klammerersparnis wird weiterhin ohne besonderen Hinweis ausgenutzt werden.
1.3.2 Beispiele.
(a) Die Menge Z aller ganzen Zahlen bildet mit der gewhnlichen Addition als
Gruppenverknpfung eine abelsche Gruppe (Z, +). Dasselbe gilt fr die ra-
tionalen und die reellen Zahlen. Man spricht dann von der additiven Gruppe
der ganzen Zahlen bzw. der rationalen Zahlen usw. In allen diesen Fllen wird
das Element e aus (II) durch die Zahl 0 und a
und R
mit a
2 = 1
gibt.
Aus den Gruppenaxiomen sollen jetzt einige einfache Folgerungen abgeleitet
werden. In den nachstehenden Stzen bedeutet G immer eine Gruppe.
1.3.4 Hilfssatz. Fr jedes die Axiome (II) und (III) erfllende Element e G gilt
auch a e = a fr alle a G. Aus a
a = e folgt a a
= e.
Beweis: Zunchst wird die zweite Behauptung bewiesen: Zu a
G mit a
= e (a a
) = (a
) (a a
) = a
_
(a
a) a
_
= a
(e a
)
= a
= e.
Hieraus folgt jetzt die erste Behauptung:
a e = a (a
a) = (a a
) a = e a = a.
1.3.5 Hilfssatz. Es gibt nur genau ein Element e Gder in (II) und (III) geforderten
Art. Bereits aus x a = a fr nur ein a G folgt x = e.
Beweis: Das Element e
a = a fr alle a G.
Dann gilt insbesondere e
= e
e = e;
d. h. e ist eindeutig bestimmt. Gilt weiter x a = a fr ein festes Element a, so
existiert wegen (III) zu diesem ein a
G mit a
) = (x a) a
= a a
= e.
1.3 Gruppen 11
Das somit durch die Axiome eindeutig bestimmte neutrale Element e der Gruppe
Gheit das Einselement von G. In additiv geschriebenen abelschen Gruppen Gwird
e das Nullelement 0 von G genannt.
1.3.6 Hilfssatz. In (III) ist a
a = e gelte auch a
= a
e = a
(a a
) = (a
a) a
= e a
= a
Man nennt a
imallgemeinen a
1
.
Wenn allerdings in Spezialfllen die Gruppenverknpfung als Addition geschrieben
wird (vgl. 1.3.2 (a)), bezeichnet man das neutrale Element mit 0 und das zu a inverse
Element mit a.
1.3.7 Hilfssatz. (a
1
)
1
= a und (a b)
1
= b
1
a
1
.
Beweis: Die in 1.3.4 bewiesene Gleichung a a
1
= e besagt, da a das zu a
1
inverse Element ist, da also die erste Behauptung gilt. Die zweite folgt aus
_
b
1
a
1
_
(a b) = b
1
__
a
1
a
_
b
_
= b
1
(e b) = b
1
b = e.
1.3.8 Hilfssatz. In einer Gruppe Gbesitzen die Gleichungen xa = b und ay = b
bei gegebenen Elementen a, b G eindeutig bestimmte Lsungen x, y G.
Beweis: Wenn x G Lsung der ersten Gleichung ist, wenn also x a = b gilt,
folgt
x = x e = x a a
1
= b a
1
;
d. h. x ist durch a und b eindeutig bestimmt. Umgekehrt ist aber wegen
_
b a
1
_
a = b
_
a
1
a
_
= b e = b
das Element x = b a
1
auch tatschlich eine Lsung. Entsprechend schliet man
im Fall der zweiten Gleichung.
1.3.9 Denition. Eine Teilmenge U der Gruppe Gheie Untergruppe von G, wenn
U bezglich der Gruppenverknpfung von G selbst eine Gruppe (U, ) ist.
Bezeichnung: U G
1.3.10 Hilfssatz. Die nicht-leere Teilmenge U der Gruppe (G, ) ist genau dann
eine Untergruppe von G, wenn fr jedes Paar a, b U stets a b
1
U gilt.
12 1 Grundbegriffe
Beweis: Die Bedingung ist sicherlich notwendig. Es ist zu zeigen, da sie auch
hinreicht.
Sei e das Einselement von G. Wegen U = existiert ein a U. Dann ist
e = a a
1
U, und e ist das Einselement von U. Weiter gilt a
1
= e a
1
U
fr jedes a U. Wegen Hilfssatz 1.3.7 ist daher a b U fr alle a, b U.
Trivialerweise gilt in U das Assoziativgesetz. Also ist (U, ) eine Gruppe.
1.4 Krper und Ringe
Whrend sich der Gruppenbegriff auf nur eineVerknpfungsoperation bezog, werden
jetzt nebeneinander zwei Operationen betrachtet, die in Anlehnung an das bliche
Zahlrechnen mit + und bezeichnet und Addition bzw. Multiplikation genannt wer-
den. Geht man etwa von den rationalen Zahlen aus, so gewinnt man aus den dort
gltigen Regeln durch eine entsprechende Abstraktion wie bei den Gruppen neue
algebraische Strukturen.
1.4.1 Denition. Ein Krper besteht aus einer Menge F und zwei Operationen +
und , die jedem geordneten Paar (a, b) von Elementen aus F eindeutig ein Element
a +b bzw. a b von F so zuordnen, da folgende Bedingungen erfllt sind:
F ist bezglich + eine abelsche Gruppe, d. h.
(I) (a +b) +c = a +(b +c) fr alle a, b, c F. (Assoziativitt der Addition)
(II) a +b = b +a fr alle a, b, F. (Kommutativitt der Addition)
(III) Es gibt ein Nullelement 0 in F, d. h. 0 +a = a fr alle a F.
(IV) Zu jedem a F existiert ein Element a in F mit (a) + a = 0, wobei 0
das Nullelement in F ist.
Fr die Multiplikation der Elemente von F gelten:
(V) (a b) c = a (b c) fr alle a, b, c F. (Assoziativitt der Multiplikation)
(VI) Es gibt ein Einselement 1 in F, d. h. 1 a = a = a 1 fr alle a F.
(VII) Zu jedem a F mit a = 0 existiert ein Element a
1
in F mit a
1
a = 1,
wobei 1 das Einselement ist.
(VIII) a (b +c) = a b +a c und (b +c) a = b a +c a fr alle a, b, c F.
(Distributivitt)
(IX) 1 = 0.
Fordert man lediglich die Gltigkeit der Axiome (I) (V) und (VIII), so nennt man
F einen Ring. Gilt zustzlich das Axiom
1.4 Krper und Ringe 13
(X) a b = b a fr alle a, b F, (Kommutativitt der Multiplikation)
so wird F ein kommutativer Krper bzw. Ring genannt.
Ebenso wie eine Gruppe wird auch ein Krper bzw. Ring statt mit (F, +, ) ein-
facher mit F bezeichnet. Das Symbol fr die Multiplikation wird im allgemeinen
unterdrckt und statt a b krzer ab geschrieben. Vielfach werden mit
Krper nur
kommutative Krper bezeichnet, whrend dann nicht-kommutative Krper
Schief-
krper genannt werden. In diesem Buch wird es sich allerdings ausschlielich um
kommutative Krper handeln.
Wegen (I) und (V) knnen die Klammern wieder bei endlichen Summen und
Produkten fortgelassen werden. Eine weitere Regel zur Klammerersparnis besteht in
der blichen Konvention, da die Multiplikation strker binden soll, da also z. B.
statt (ab) +c einfacher ab +c geschrieben werden darf. Diese Vereinfachung wurde
bereits bei der Formulierung von (VIII) benutzt.
Das neutrale Element 0 des Krpers F bzw. des Rings R wird das Nullelement
oder kurz die Null von F bzw. R genannt. Das inverse Element a heit das zu
a negative Element . Statt b + (a) schreibt man krzer b a und nennt dieses
Element die Differenz von b und a. Es gilt a +(b a) = b, und b a ist somit die
nach 1.3.8 eindeutig bestimmte Lsung der Gleichung a +x = b. Wegen 1.3.7 gilt
schlielich (a) = a und (a +b) = a +(b) = a b.
Das neutrale Element 1 der multiplikativen Gruppe F
i=1
(X c
i
)
k
i
und Grad f =
m
i=1
k
i
.
Dieser Satz wird hier nicht bewiesen.
Die folgenden Stze zeigen, da in beliebigen Ringen oder Krpern in der bli-
chen Weise gerechnet werden kann.
1.4.5 Hilfssatz. In einem Ring gilt 0 a = a 0 = 0 fr jedes Element a.
Beweis: Wegen 0 +0 = 0 und wegen (VIII) gilt:
0 a +0 a = (0 +0) a = 0 a.
Hieraus folgt nach 1.3.5 die erste Behauptung 0 a = 0. Die zweite Behauptung
ergibt sich entsprechend.
1.4.6 Hilfssatz. In einem Ring gilt a(b) = (a)b = (ab), insbesondere also
(a)(b) = ab.
Beweis: Wegen (VIII) und 1.3.4 erhlt man
ab +a(b) = a(b +(b)) = a 0 = 0.
Hiernach ist a(b) das zu ab negative Element; d. h. es gilt a(b) = (ab).
Entsprechend ergibt sich die zweite Gleichung.
1.5 Vektorrume
Der ursprngliche Begriff des Vektors besitzt eine anschauliche geometrische Be-
deutung. Man denke sich etwa in der Ebene einen festen Punkt p als Anfangspunkt
ausgezeichnet. Jedem weiteren Punkt x kann dann umkehrbar eindeutig die von p
16 1 Grundbegriffe
nach x weisende gerichtete Strecke zugeordnet werden, die man sich etwa durch
einen in p ansetzenden Pfeil mit der Spitze in x reprsentiert denken kann. Man
nennt diese gerichtete Strecke den Ortsvektor von x bezglich des Anfangspunk-
tes p und bezeichnet ihn mit dem entsprechenden Buchstaben x. Ist y ein zweiter
Ortsvektor, so kann man den Summenvektor x + y in bekannter Weise nach dem
Parallelogrammprinzip denieren (vgl. Abbildung 1.1).
?
?
?
?
?
?
p
x
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
y
?
?
?
?
?
?
?
?
?
?
?
x +y
o
o
o
o
o
o
o
o
o
Abbildung 1.1
Einfache geometrische berlegungen zeigen nun, da die Ortsvektoren hinsicht-
lich dieser Addition alsVerknpfungsoperation eine abelsche Gruppe bilden. So folgt
z. B. das Assoziativgesetz aus der in Abbildung 1.2 angedeuteten Kongruenz der
Dreiecke ABE und EFA.
D
_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _
O
O
O
O
O
O
E
C F
B
A
O
O
O
O
O
O
O
O
O
O
O
O
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
G
/
/
/
/
/
/
/
/
/
/
/
/
/
Abbildung 1.2
x =
AB, y =
AC, x +y =
AD, z =
AG, y +z =
AF,
(x +y) +z =
AD +
DE =
AE =
AF +
n
k=1
k =
1
2
n(n +1).
1.3 Zeigen Sie:
n
k=1
k
2
=
1
6
n(n +1)(2n +1).
1.4 Bestimmen Sie die Lsungen der folgenden drei Gleichungssysteme:
2x +2y z = 1
x y +z = 1 (a)
x 2y +2z = 1.
22 1 Grundbegriffe
2x +2y 2z = 1
x y +z = 1 (b)
x 2y +2z = 1.
2x +2y 2z = 2
x y +z = 1 (c)
x 2y +2z = 1.
1.5 Zeigen Sie, da das folgende Gleichungssystem fr alle ganzen Zahlen d, die von 2
verschieden sind, nicht lsbar ist.
x +y 3z = 0
x +3y z = d
y +z = 1.
1.6 Auf der Menge R der reellen Zahlen sei eine neue Art der Addition deniert durch:
a b =
3
_
a
3
+b
3
,
wobei es sich unter dem Wurzelzeichen um die bliche Addition des Krpers R handelt.
Entsprechend bedeute ab das bliche Produkt von R. Es mu jetzt a als Vektor und b als
Skalar aufgefat werden. Sei ein neues, mit bezeichnetes Produkt auf R durch eine der
beiden folgenden Gleichungen deniert:
(a) a b = ab,
(b) a b =
3
ab.
In welchem Fall der so denierten linearen Operationen und auf der Menge R liegt ein
reeller Vektorraum vor?
1.7 Zeigen Sie, da die vier komplexen Zahlen 1, 1, i, i bezglich der Multiplikation im
Krper C der komplexen Zahlen eine abelsche Gruppe G bilden.
1.8 Zeigen Sie, da die Menge G aller Abbildungen f
a,b
: R R mit f
a,b
(x) = ax +
b, wobei a, b R und a = 0, bezglich der Hintereinanderausfhrung eine Gruppe mit
Einselement f
1,0
bilden.
1.9 Zeigen Sie, da die Menge R = {
a
b
Q | a, b Z, b ungerade} einen kommutativen
Ring mit Einselement 1 Q bildet, der kein Krper ist.
2 Struktur der Vektorrume
In diesem Kapitel werden zunchst Begriffsbildungen behandelt, die sich unmit-
telbar aus der Denition des Vektorraums ableiten lassen und sich auf nur einen
Vektorraum beziehen. Im Mittelpunkt dieser Betrachtungen steht der Begriff der Ba-
sis eines Vektorraums und der mit ihm eng zusammenhngende Begriff der linearen
Unabhngigkeit von Vektoren. Mit diesen Hilfsmitteln ist es dann auch mglich, die
Dimension eines Vektorraums zu denieren. Hierbei ergibt sich eine Aufteilung der
Vektorrume in endlich-dimensionale und solche unendlicher Dimension.
In den ersten beiden Abschnitten werden die grundlegenden Begriffe und Be-
weismethoden fr endlich erzeugte Unterrume U eines beliebigen F-Vektorraums
V behandelt. Es wird gezeigt, da U eine Basis aus endlich vielen Vektoren besitzt
und da alle Basen von U aus gleich vielen Vektoren bestehen. Diese allen Basen
gemeinsame Anzahl wird die Dimension von U genannt. Die Beweise fr diese
Ergebnisse sind konstruktiv und elementar. Die Theorie der endlich-dimensionalen
Vektorrume V ergibt sich als Spezialfall.
Wesentlich fr das konkrete Rechnen mit Vektoren ist schlielich, da man in
endlich-dimensionalen Vektorrumen hinsichtlich einer Basis jeden Vektor durch
endlich viele Skalare, seine Koordinaten, beschreiben kann. Der Koordinatenbegriff
gestattet es, das Rechnen mit Vektoren auf das Rechnen imSkalarenkrper zurckzu-
fhren. Daraus ergibt sich, dadie algebraische Struktur eines endlich-dimensionalen
Vektorraums V ber einem Krper F im wesentlichen durch die Dimension von V
bestimmt ist.
Im dritten Abschnitt werden direkte Summen von Unterrumen eines beliebigen
F-Vektorraumes V behandelt. Mit Hilfe des Zornschen Lemmas wird gezeigt, da
sich jeder Vektorraum V in eine direkte Summe von eindimensionalen Unterru-
men zerlegen lt. Dieser Struktursatz ist ein grundlegendes Ergebnis fr unendlich-
dimensionaleVektorrume. Er besagt nicht nur, da jeder F-VektorraumV eine Basis
B besitzt, sondern auch, da alle Rechnungen mit jeweils endlich vielen Vektoren
aus V in einem endlich-dimensionalen Unterraum U von V stattnden, der eine
endliche Teilmenge B
i=1
v
i
a
i
mit a
i
F
darstellen. Dies gilt insbesondere fr den Nullvektor o. Eine mgliche Darstellung
des Nullvektors ist
o = v
1
0 +v
2
0 + +v
r
0;
man nennt sie die triviale Darstellung von o. Es kann aber bei geeigneten Vektoren
v
1
, v
2
, . . . , v
r
auch nicht triviale Darstellungen
o =
r
i=1
v
i
a
i
, a
i
F,
geben, bei denen mindestens ein a
i
= 0 ist. Die folgende Denition betrifft den
Sonderfall, in dem dies nicht mglich ist.
28 2 Struktur der Vektorrume
2.2.1 Denition. Die Vektoren v
1
, . . . , v
r
V heien linear unabhngig, wenn aus
v
1
a
1
+ +v
r
a
r
= o mit a
i
F
folgt, da a
1
= = a
r
= 0. Andernfalls werden sie linear abhngig genannt.
Eine endliche Teilmenge M von V heit linear unabhngig, wenn entweder
M = oder M aus endlich vielen linear unabhngigen Vektoren v
1
, v
2
, . . . , v
r
von
V besteht, die paarweise verschieden sind, falls r > 1 ist. Andernfalls ist die Menge
M linear abhngig.
Es sei hier bemerkt, da diese Denition in 2.3.7 auf nicht notwendig endliche
Teilmengen so verallgemeinert wird, da der Fall M = nicht gesondert behandelt
werden mu.
2.2.2 Denition. Imn-dimensionalen arithmetischenVektorraumF
n
ber demKr-
per F sind die n Einheitsvektoren e
i
, 1 i n, deniert durch
e
i
= (a
1
, a
2
, . . . , a
n
) mit a
j
=
_
1 fr j = i,
0 fr j = i.
2.2.3 Beispiele.
(a) Die Einheitsvektoren e
i
F
n
, 1 i n, sind linear unabhngig. Denn aus
(0, 0, . . . , 0) = o =
n
i=1
e
i
a
i
= (a
1
, a
2
, . . . , a
n
)
folgt a
i
= 0 fr i = 1, 2, . . . , n.
(b) Sei v
1
= (2, 1, 0), v
2
= (1, 0, 1), v
3
= (3, 1, 1). Dann sind v
1
, v
2
und v
3
linear abhngig; denn
v
1
+v
2
+v
3
(1) = o.
(c) Ein einzelner Vektor v V ist genau dann linear abhngig, wenn v = o.
(d) Wenn die Teilmenge M = {v
1
, v
2
, . . . , v
n
} von V den Nullvektor o enthlt,
ist sie linear abhngig.
Methoden fr den Nachweis der linearen Abhngigkeit bzw. Unabhngigkeit
endlich vieler Vektoren werden im zweiten Abschnitt des dritten (3.2.11) und im
ersten Abschnitt des vierten (4.1.18) Kapitels dargestellt.
2.2.4 Denition. DieTeilmenge M desVektorraums V heit einErzeugendensystem
von V, falls V = M gilt. Der Vektorraum V heit endlich erzeugt, wenn er ein
endliches Erzeugendensystem besitzt.
2.2 Basis und Dimension 29
Der Nullraum {o} wird vom Nullvektor o und auch von erzeugt.
2.2.5 Denition. Die Menge {v
1
, v
2
, . . . , v
r
} der endlich vielen Vektoren v
i
von V,
1 i r, ist eine Basis von V, falls
(a) V von {v
1
, v
2
, . . . , v
r
} erzeugt wird und
(b) die Vektoren v
1
, v
2
, . . . , v
r
linear unabhngig sind.
2.2.6 Beispiele.
(a) Der Nullraum {o} hat die leere Menge als einzige Basis.
(b) Die Einheitsvektoren e
1
, . . . , e
n
bilden eine Basis von F
n
. Sie wird die kano-
nische Basis von F
n
genannt. Sie ist jedoch nicht die einzige Basis von F
n
.
So bilden a
1
= (1, 1) und a
2
= (1, 0) in Q
2
ebenfalls eine Basis.
(c) v
1
= (1, 1), v
2
= (1, 2), v
3
= (2, 1) Q
2
sind ein Erzeugendensystem von
Q
2
, aber sie bilden keine Basis von Q
2
. Hingegen bilden die Vektoren v
1
und
v
2
eine Basis von Q
2
.
Es sei im folgenden U stets ein endlich erzeugter Unterraum des Vektorraums V
ber dem Krper F.
2.2.7 Satz. Jedes Erzeugendensystem {v
1
, . . . , v
r
} von U enthlt eine Basis von U.
Beweis: Durch vollstndige Induktion ber r. Ist U = {o} der Nullraum, so ist die
leere Menge eine Basis von U. In diesem Fall ist die Behauptung trivial. Ohne
Beschrnkung der Allgemeinheit kann daher angenommen werden, da alle v
i
= o
fr i = 1, 2, . . . , r.
Induktionsanfang: r = 1. NachVoraussetzung wird U von v
1
erzeugt. Da v
1
= o
ist, ist v
1
linear unabhngig. Also ist {v
1
} eine Basis von U.
Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig fr alle Unter-
rume, die ein Erzeugendensystem mit weniger als r Elementen besitzen.
Induktionsschlu: Wenn v
1
, . . . , v
r
linear unabhngig sind, dann ist {v
1
, . . . , v
r
}
eine Basis von U nach Denition 2.2.5. Andernfalls gibt es eine Linearkombination
o = v
1
a
1
+ +v
r
a
r
, bei der nicht alle Skalare a
i
gleich 0 sind. Bei geeigneter
Numerierung kann man a
r
= 0 annehmen. Dann ist v
r
= (v
1
a
1
+ + v
r1
a
r1
)(a
1
r
) eine Linearkombination von v
1
, . . . , v
r1
. Also ist {v
1
, . . . , v
r1
} ein
Erzeugendensystem von U. Diese Menge von r 1 Vektoren enthlt somit nach
Induktionsvoraussetzung eine Basis von U.
2.2.8 Satz. Sei {u
1
, u
2
, . . . , u
r
} eine Basis von U. Dann sind jeweils r +1 Vektoren
v
1
, v
2
, . . . , v
r+1
von U linear abhngig.
30 2 Struktur der Vektorrume
Beweis: Durch vollstndige Induktion ber r. Dabei durchluft U alle Unterrume
des Vektorraums V, die von r Elementen erzeugt werden. Jede Menge von Vektoren,
die den Nullvektor enthlt, ist linear abhngig. Daher kann man v
i
= 0 fr i =
1, 2, . . . , r, r +1 annehmen.
Induktionsanfang: Ist r = 1, dann ist v
1
= u
1
f
1
und v
2
= u
1
f
2
fr geeignete
Elemente 0 = f
i
F. Wegen v
1
f
2
+v
2
(f
1
) = u
1
(f
1
f
2
f
2
f
1
) = o sind
v
1
und v
2
linear abhngig.
Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig fr alle Unter-
rume U
= u
i
|
2 i r der von diesen r 1 Elementen u
i
erzeugte Unterraum von V. Dann
ist {u
2
, u
3
, . . . , u
r
} eine Basis von U
, weil die u
i
linear unabhngige Vektoren sind.
Der Vektor y
1
liegt im Unterraum U
schreiben. Fr j = 2, . . . , r + 1
setzen wir w
j
= v
j
a
1
v
1
a
j
. Dann gilt fr alle j mit 2 j r +1, da
w
j
= v
j
a
1
v
1
a
j
= u
1
a
j
a
1
+y
j
a
1
v
1
a
j
= u
1
a
j
a
1
+y
j
a
1
u
1
a
1
a
j
y
1
a
j
= y
j
a
1
y
1
a
j
U
.
Die r Vektoren w
2
, . . . , w
r+1
liegen alle im Unterraum U
= {u
1
, u
2
, . . . , u
s
} zwei Basen des
Unterraums U. Wendet man Satz 2.2.9 zunchst auf das Erzeugendensystem B
und
die linear unabhngigen Vektoren u
1
, u
2
, . . . , u
r
an, dann folgt r s. Aus der
Symmetrie der Voraussetzungen ergibt sich analog, da s r. Also gilt r = s.
2.2.12 Denition. Ist V ein endlich erzeugter F-Vektorraum, dann wird die allen
Basen von V nach Satz 2.2.11 gemeinsame Anzahl ihrer Elemente die Dimension
von V genannt und mit dimV bzw. dim
F
V bezeichnet. In diesem Fall heit V
endlich-dimensionaler Vektorraum. Besitzt V jedoch keine endliche Basis, so heit
V unendlich-dimensional, und man setzt dimV = .
Nach den Stzen 2.1.3 und 2.2.11 besitzt jeder endlich erzeugte Unterraum U
eines beliebigen F-Vektorraums V eine endliche Dimension dimU.
32 2 Struktur der Vektorrume
2.2.13 Beispiele.
(a) dimF
n
= n, denn {e
1
, . . . , e
n
} ist eine Basis von F
n
.
(b) Sei U = {(a, b, 0) F
3
| a, b F}, dann bilden die Vektoren v
1
= (1, 0, 0)
und v
2
= (0, 1, 0) eine Basis von U. Daher ist dimU = 2.
(c) Die Dimension des Nullraumes {o} ist 0 (= Anzahl der Elemente von ).
2.2.14 Folgerung. Sei U ein endlich erzeugter Unterraum des Vektorraumes V mit
dimU = d. Dann gilt:
(a) Folgende Eigenschaften der Elemente u
1
, . . . , u
d
U sind quivalent:
(i) {u
1
, . . . , u
d
} ist eine Basis von U.
(ii) {u
1
, . . . , u
d
} ist linear unabhngig.
(iii) {u
1
, . . . , u
d
} ist ein Erzeugendensystem von U.
(iv) Jedes u U hat eine eindeutige Darstellung
u = u
1
a
1
+u
2
a
2
+ +u
d
a
d
mit a
i
F.
(v) o U besitzt nur die triviale Darstellung.
(b) dimU dimV.
(c) Wenn dimU = dimV, dann ist U = V.
Beweis: (a) (i) (ii) ist trivial.
(ii) (iii) Wegen dimU = d sind jeweils d +1 Vektoren u
1
, . . . , u
d
, u von U
nach Satz 2.2.7 linear abhngig. Nach Hilfssatz 2.2.10 ist u eine Linearkombination
von u
1
, . . . , u
d
, also ist dies ein Erzeugendensystem.
(iii) (i) Nach Satz 2.2.7 enthlt u
1
, . . . , u
d
eine Basis. Da diese Basis wegen
dimU = d ebenfalls d Elemente hat, ist {u
1
, . . . , u
d
} selbst schon eine Basis von U.
(i) (iv) Da u
1
, . . . , u
d
ein Erzeugendensystemvon U ist, lt sich jedes u U
als Linearkombination der u
i
s schreiben:
u = u
1
a
1
+ +u
d
a
d
. ()
Wenn auch u = u
1
b
1
+ +u
d
b
d
, dann ist
o = u u
= u
1
(a
1
b
1
) + +u
d
(a
d
b
d
).
Da die u
i
s linear unabhngig sind, mssen alle Koefzienten a
i
b
i
gleich 0 sein,
d. h. a
i
= b
i
fr i = 1, . . . , d. Die Darstellung () von u ist also eindeutig.
(iv) (v) ist trivial.
2.2 Basis und Dimension 33
(v) (iv). Hat u U die beiden Darstellungen
u =
d
i=1
u
i
a
i
=
d
i=1
u
i
b
i
,
so hat o die Darstellung o =
d
i=1
u
i
(a
i
b
i
). Wegen (v) folgt a
i
= b
i
fr i =
1, 2, . . . , d.
(iv) (iii) ist trivial.
(b) Seien {u
1
, . . . , u
d
} und {v
1
, . . . , v
s
} je eine Basis von U bzw. V. Wegen
Satz 2.2.9 ist dimU = d s = dimV. Der Fall dimV = ist trivial.
(c) Wenn dimV = d, dann ist {u
1
, . . . , u
d
} nach (b) schon eine Basis von V.
Wegen (a) ist daher V das Erzeugnis von u
1
, . . . , u
d
. Also gilt V = U.
2.2.15 Satz (Austauschsatz von Steinitz). Seien u
1
, . . . , u
r
linear unabhngige
Vektoren des Vektorraums V und {v
1
, . . . , v
s
} eine Basis von V. Dann gilt:
(a) r s.
(b) Bei geeigneter Numerierung der Vektoren v
1
, v
2
, . . . , v
s
ist auch
{u
1
, u
2
, . . . , u
r
, v
r+1
, . . . , v
s
} eine Basis von V.
Man erhlt also wieder eine Basis von V, indem man r geeignete unter den Vektoren
v
1
, v
2
, . . . , v
s
gegen die Vektoren u
1
, u
2
, . . . , u
r
austauscht. Umgekehrt kann man
jede linear unabhngige Teilmenge u
1
, . . . , u
r
von V zu einer Basis von V erweitern.
Beweis: (a) Nach Satz 2.2.9 ist r s.
(b) Ist r = s, so ist {u
1
, u
2
, . . . , u
r
} eine Basis von U nach Folgerung 2.2.14. Sei
also r < s. Da {v
1
, v
2
, . . . , v
s
} eine Basis von U ist, ist mindestens einer ihrer Vek-
toren v {v
1
, v
2
, . . . , v
s
} keine Linearkombination der Vektoren u
1
, u
2
, . . . , u
r
.
Nach Umnumerierung kann angenommen werden, da v = v
r+1
ist. Nach Hilfs-
satz 2.2.10 sind dann die Vektoren u
1
, u
2
, . . . , u
r
, v
r+1
linear unabhngig. Durch
(s r)-malige Wiederholung dieses Arguments folgt die Behauptung (b); denn nach
Folgerung 2.2.14 haben je zwei Basen von U gleich viele Elemente. Die beiden
Zustze ergeben sich sofort aus (b).
2.2.16 Satz (Dimensionssatz). Es seien U und W zwei endlich-dimensionale Unter-
rume eines Vektorraumes V. Dann gilt:
dimU +dimW = dim(U W) +dim(U +W).
Beweis: Nach den Stzen 2.1.8 und 2.1.13 sindUW und U+W Unterrume von V.
Es sei B
d
= {d
1
, . . . , d
r
} eine Basis von U W. (Hierbei ist auch r = 0 zugelassen,
wenn UW der Nullraum, die Basis also die leere Menge ist.) Nach Satz 2.2.15 kann
B
d
einerseits zu einer Basis B
1
= {d
1
, . . . , d
r
, a
1
, . . . , a
s
} von U, andererseits auch
34 2 Struktur der Vektorrume
zu einer Basis B
2
= {d
1
, . . . , d
r
, b
1
, . . . , b
t
} von W erweitert werden. Zunchst soll
jetzt gezeigt werden, da B = {d
1
, . . . , d
r
, a
1
, . . . , a
s
, b
1
, . . . , b
t
} eine Basis des
Summenraumes U +W ist.
Jeder Vektor x U +W kann nach Denition 2.1.12 in der Formx = u+w mit
u U und w W dargestellt werden. Da sich u als Linearkombination von B
1
und
w als Linearkombination von B
2
darstellen lt, ist x eine Linearkombination von B.
Es gilt daher jedenfalls B = U +W. Zum Nachweis der linearen Unabhngigkeit
von B werde
d
1
x
1
+ +d
r
x
r
+a
1
y
1
+ +a
s
y
s
+b
1
z
1
+ +b
t
z
t
= o,
also
d
1
x
1
+ +d
r
x
r
+a
1
y
1
+ +a
s
y
s
= b
1
z
1
b
t
z
t
,
mit Elementen x
i
, y
j
, z
k
F vorausgesetzt. Da in der letzten Gleichung die linke
Seite einVektor aus U, die rechte Seite aber einVektor aus W ist, mssen beide Seiten
ein Vektor aus U W sein, der sich somit als Linearkombination von d
1
, . . . , d
r
darstellen lassen mu. Wegen der linearen Unabhngigkeit von B
1
und B
2
ergibt
sich hieraus wegen Folgerung 2.2.14 (a) (iv) unmittelbar, da x
1
= = x
r
=
y
1
= = y
s
= z
1
= = z
t
= 0 gilt. Es folgt jetzt
dimU+dimW = (r +s)+(r +t ) = r +(r +s +t ) = dim(UW)+dim(U+W).
| A} fr eine Indexmenge A,
so sagt man auch, da a
des F-
Vektorraumes V derart, da die Zuordnung U
A
U
der Unterrume U
A
U
=
_
v =
A
u
fr alle , u
= o fr fast alle A
_
.
Dabei ist dieAnzahl der von Null verschiedenen Summanden abhngig vomElement
v aus V.
Ein Vektor v der Summe
A
U
, A. Falls Aeine
unendliche Indexmenge ist, mu diese Bedingung der Denition 2.3.2 besonders
beachtet werden.
2.3.3 Satz. Die Summe
A
U
der Unterrume U
A
U
=
_
{U V | U
U fr alle A}.
Beweis: Ergibt sich unmittelbar aus den Denitionen 2.3.2 und 2.1.1. Der Zusatz
folgt aus Satz 2.1.8.
2.3 Direkte Summen und Struktursatz 37
2.3.4 Denition. Es sei {U
A
U
= {o} und U
A\{}
U
= {o}.
Bezeichnung:
A
U
.
U
1
U
2
U
n
bzw.
n
i=1
U
i
, falls A = {1, 2, . . . , n} endlich ist.
2.3.5 Denition. Sei {U
= {o} des
F-Vektorraumes V derart, da die Zuordnung U
A
U
A
u
A
v
mit u
, v
, A,
fr alle Afolgt u
= v
.
2.3.6 Satz. Die Summe S =
A
U
der Unterrume U
A
u
mit u
fr alle A
darstellen lt.
Beweis: Zunchst wird angenommen, da die Summe S =
A
U
der Unterru-
me U
1
+u
2
+ +u
n
und s = v
1
+v
2
+ +v
m
zwei Summendarstellungen des Vektors s S. Wre der Index
1
von allen Indizes
1
,
2
, . . . ,
m
verschieden, dann wre
o = u
1
= v
1
+v
2
+ +v
m
u
2
u
3
u
n
U
A
=
1
U
= {o}.
Aus diesem Widerspruch folgt, da bei geeigneter Numerierung
i
=
i
fr i =
1, 2, . . . , n und somit n = m gilt. Daher ist
v
i
u
i
=
m
j=1
j=i
_
u
j
v
j
_
U
i
m
j=1
j=i
U
j
= {o}.
Also ist u
i
= v
i
fr alle i = 1, 2, . . . , n, und jedes s
A
U
hat eine
eindeutige Summendarstellung.
38 2 Struktur der Vektorrume
Umgekehrt sei die Summe
A
U
= o mit
u
A\
U
.
Also existieren endlich viele Indizes
1
,
2
, . . . ,
n
A\{} und Elemente u
i
= o
in U
i
derart, da u
= u
1
+u
2
+ +u
n
. Daher hat das Element u
der Summe
A
U
tT
t F der
eindimensionalen Unterrume t F, t T , direkt ist.
Beweis: Nach Beispiel 2.1.2 (f) ist t F fr jedes o = t T ein eindimensio-
naler Unterraum von V. Nach Satz 2.3.6 ist die Summe S =
tT
t F dieser
Unterrume genau dann direkt, wenn jeder Vektor s S eine eindeutige Darstellung
s =
t T
tf
t
mit f
t
F hat, wobei f
t
= 0 fr fast alle t T ist. Dies gilt genau
dann, wenn der Nullvektor s = o von S nur die triviale Darstellung mit f
t
= 0 fr
alle t T hat, d. h. wenn T linear unabhngig ist.
Die Denition einer Basis kann jetzt auf beliebige Vektorrume bertragen wer-
den.
2.3.10 Denition. Eine Teilmenge B eines F-Vektorraumes V heit eine Basis von
V, wenn B linear unabhngig ist und den ganzen Raum V erzeugt.
2.3.11 Beispiel. {1, X, X
2
, . . . } ist eine Basis des unendlich-dimensionalen F-Vek-
torraumes V = F[X] der Polynome mit Koefzienten aus F.
2.3 Direkte Summen und Struktursatz 39
2.3.12 Folgerung. Sei V ein vom Nullraum verschiedener Vektorraum ber dem
Krper F. Die nicht-leere Teilmenge B von V ist genau dann eine Basis von V,
wenn
V =
bB
b F.
Beweis: Ergibt sich unmittelbar aus Satz 2.3.9 und der Denition 2.3.10.
Der folgende Satz wird benutzt um zu zeigen, da man jede linear unabhngige
Teilmenge eines F-Vektorraumes V zu einer Basis von V erweitern kann.
2.3.13 Satz. Sei B eine Teilmenge des F-Vektorraumes V. Dann sind folgende Aus-
sagen quivalent:
(a) B ist eine Basis von V.
(b) B ist eine maximale linear unabhngige Teilmenge von V.
(c) B ist eine minimale Teilmenge von V, die V erzeugt, d. h. V = B, aber
V = C fr jede echte Teilmenge C von B.
Beweis: Wenn V der Nullraum {o} ist, dann ist die leere Menge die einzige Basis
von V. Fr B = sind die Bedingungen (a), (b) und (c) alle trivialerweise erfllt.
Daher gelte im folgenden stets V = {o}.
(a) (b): Als Basis von V ist B eine linear unabhngige Teilmenge von V derart,
da jeder Vektor o = v V eine Linearkombination von endlich vielen Vektoren
b B ist. Daher ist jede echte Obermenge B
bB
b F.
Beweis: (a) folgt durch Anwendung des Satzes 2.3.14 auf M = .
(b) ergibt sich unmittelbar aus (a) und Folgerung 2.3.12.
Ist U ein von {o} und V verschiedener Unterraum des endlich-dimensionalen
F-Vektorraumes V der Dimension dimV = n, so gibt es stets einen Unterraum K
von V mit V = U K. Denn ist u
1
, u
2
, . . . , u
r
eine Basis von U, dann lt sie
sich nach Satz 2.2.15 durch n r Vektoren v
r+1
, v
r+2
, . . . , v
n
zu einer Basis von
V ergnzen. Nach Satz 2.1.6 ist K =
_
nr
j=1
v
r+j
a
j
| a
j
F
_
ein Unterraum von
V. Da {u
i
| 1 i r} {v
r+j
| 1 j n r} eine Basis von V ist, folgt
U K = {o} und V = U + K. Also ist K ein Komplement von U im Sinne der
folgenden Denition.
2.3.16 Denition. Sei U ein Unterraum des F-Vektorraumes V. Dann heit ein
UnterraumK von V Komplement von U, falls V = U +K und U K = {o} gelten.
2.4 Aufgaben 41
2.3.17 Bemerkung. Ein Komplement eines echten Unterraums U = {o} des F-
Vektorraumes V ist nicht eindeutig bestimmt.
Gegenbeispiel: Sei V = F
2
und U = {(a, 0) | a F}. Dann sind K
1
=
{(0, b) | b F} und K
2
= {(c, c) | c F} zwei verschiedene Komplemente von U
in V.
Als weitere Folgerung von Satz 2.3.14 ergibt sich, da jeder Unterraum U eines
nicht notwendig endlich-dimensionalen F-Vektorraumes V ein Komplement besitzt.
Ist U = V, so ist K = {o} das Komplement von U.
2.3.18 Satz (Komplementierungssatz). Es sei V ein Vektorraum ber dem Krper
F. Dann hat jeder Unterraum U von V ein Komplement.
Beweis: Nach Satz 2.3.15 hat der Unterraum U eine Basis C. Wegen Satz 2.3.14
gibt es eine Basis B von V mit C B. Sei K = b B | b C. Dann gilt
V = U +K und U K = {o}.
2.4 Aufgaben
2.1 Seien v = (a, b), w = (c, d) F
2
. Zeigen Sie, da v und w genau dann linear abhngig
sind, wenn a d b c = 0.
2.2 Die Vektoren u, v, w Q
n
seien linear unabhngig ber Q. Beweisen Sie die Behaup-
tungen:
(a) Die drei Vektoren u +v w2, u v w und u +w sind linear unabhngig.
(b) u +v w3, u +v3 w und v +w sind linear abhngig.
2.3 Sei V = Q[X] der Q-Vektorraum aller Polynome in der Unbestimmten X ber dem
Krper Q. Ist es mglich, das Polynom v = X
2
+ 4X 3 als Linearkombination der drei
Polynome e
1
= X
2
2X + 5, e
2
= 2X
2
3X und e
3
= X + 3 zu schreiben? Wenn ja,
geben Sie eine solche Linearkombination an.
2.4 Seien {v
1
, v
2
, . . . , v
m
} und {w
1
, w
2
, . . . , w
n
} zwei endliche Mengen von Vektoren des
F-Vektorraums V. Sei u V eine F-Linearkombination der Vektoren v
1
, v
2
, . . . , v
m
. Weiter
sei jeder Vektor v
i
eine Linearkombination der nVektoren w
j
, j = 1, 2, . . . , n. Beweisen Sie,
da dann auch u eine F-Linearkombination der Vektoren w
1
, w
2
, . . . , w
n
ist.
2.5 Es sei V = Q
4
.
(a) Ist die Menge S = {(1, 1, 1, 1), (2, 4, 11, 2), (0, 2, 3, 0)} linear unabhngig? Geben
Sie eine Teilmenge an, die eine Basis von S ist.
(b) Ergnzen Sie die linear unabhngige Menge{(1, 1, 1, 1), (0, 2, 3, 0)} zu einer Basis
von V.
42 2 Struktur der Vektorrume
2.6 Die Untermenge W des F-Vektorraumes F
n
[X] der Polynome p(X) mit Grad p(X) n
sei gegeben durch
W = {p(X) F
n
(X) | p(0) = 0 = p(1)}.
Zeigen Sie, da W ein Unterraum ist. Geben Sie eine Basis von W an und erweitern Sie diese
zu einer Basis von F
n
[X].
2.7 Bestimmen Sie eine Basis des Unterraums von Q
5
, der von folgenden Vektoren er-
zeugt wird: u
1
= (1, 2, 2, 2, 1), u
2
= (1, 2, 1, 3, 2), u
3
= (2, 4, 7, 1, 1), u
4
=
(1, 2, 5, 1, 2), u
5
= (1, 2, 3, 1, 0).
2.8 Sei V = F
n1
[X] der F-Vektorraum aller Polynome p(X) = p
0
+ p
1
X + +
p
p1
X
n1
mit Grad p(X) n 1. Seien a
1
, a
2
, . . . , a
n
F paarweise verschiedene
Elemente von F. Sei
G
i
(X) =
n
j=1
j=i
(X a
j
)
(a
i
a
j
)
.
Zeigen Sie:
(a) Die Polynome G
1
(X), G
2
(X), . . . , G
n
(X) bilden eine Basis von V.
(b) Jedes Polynom p(X) V hat eine eindeutige Darstellung p(X) = p(a
1
)G
1
(X) +
p(a
2
)G
2
(X) + +p(a
n
)G
n
(X).
(c) Fr jedes feste a F bilden die Polynome 1 und H
i
(X) = (X a)
i
, 1 i n 1
eine Basis von V.
(d) Jedes Polynom p(X) aus V hat eine eindeutige Darstellung
p(X) = p(a) 1 +p
(a) H
1
(X) +
p
(a)
2!
H
2
(X) + +
p
(n1)
(a)
(n 1)!
H
(n1)
(X).
2.9 Sei V der R-Vektorraum aller reellwertiger Funktionen f : R R. Zeigen Sie, da die
folgenden Vektoren f, g, h V jeweils linear unabhngig ber R sind:
(a) f (x) = e
x
, g(x) = sin x, h(x) = x
2
;
(b) f (x) = e
x
, g(x) = e
x
2
, h(x) = x;
(c) f (x) = e
x
, g(x) = sin x, h(x) = cos x.
2.10 Sei n < und V ein n-dimensionaler Vektorraum ber dem Krper F. Zeigen Sie:
(a) dim
_
r
i=1
U
i
_
=
r
i=1
dimU
i
.
(b) Jede direkte Summe
r
i=1
U
i
von Unterrumen U
i
= {o} hat hchstens n direkte
Summanden.
3 Lineare Abbildungen und Matrizen
In diesem Kapitel werden die grundlegenden Begriffe und Ergebnisse ber lineare
Abbildungen : V W zwischen zwei Vektorrumen V und W ber demsel-
ben Krper F behandelt. Dies sind diejenigen Abbildungen, die mit den auf diesen
Vektorrumen erklrten linearen Operationen vertauschbar sind. Im Fall endlich-
dimensionaler Vektorrume knnen die linearenAbbildungen durch rechteckige Ma-
trizen mit Koefzienten aus demKrper F beschrieben werden, indemman in beiden
Rumen jeweils eine Basis fest whlt. Wie sich diese Matrizen bei Basiswechseln
ndern, wird in Abschnitt 3 dargelegt.
Im ersten Abschnitt werden die Rechengesetze fr die Addition und Multiplika-
tion von Matrizen behandelt. ImzweitenAbschnitt wird gezeigt, da zu jeder Matrix
eine lineare Abbildung zwischen zwei arithmetischen Vektorrumen F
n
und F
m
gehrt. Anhand dieses Beispiels wird der allgemeine Begriff
lineare Abbildung
entwickelt. Es folgt der Dimensionssatz fr den Kern und den Bildraum einer linea-
ren Abbildung. Er ndet Anwendung bei der Beschreibung der Lsungsgesamtheit
eines linearen Gleichungssystems.
Im vierten Abschnitt wird gezeigt, da der Zeilenrang einer mn-Matrix Amit
dem Spaltenrang von A bereinstimmt. Die invertierbaren Matrizen werden dann
durch den Rang der Matrix charakterisiert.
Im fnften Abschnitt wird gezeigt, da die Menge aller linearen Abbildungen
: V W zwischen zwei Vektorrumen V und W selbst einen Vektorraum
Hom
F
(V, W) bildet. Ist V = W, so ist dieser Vektorraum sogar ein Ring, der En-
domorphismenring genannt wird. Ist dimV = n < , so ist er isomorph zum
Ring Mat
n
(F) aller n n-Matrizen ber F. Von diesem wichtigen Isomorphis-
mus wird in den spteren Kapiteln oft stillschweigend Gebrauch gemacht. Dabei
werden die matrizentheoretischen Rechenmethoden benutzt, um die Invarianten ei-
ner linearen Abbildung zu bestimmen. Whlt man andererseits W = F, so wird
V
= Hom
F
(V, F) zum Dualraum von V. Mit der dualen Basis wird eine Bijektion
zwischen den Mengen der Unterrume von V und V
angegeben.
Schlielich werden im letzten Abschnitt fr einen Endomorphismus
End
F
(V) direkte Zerlegungen von V in -invariante Unterrume betrachtet und
die zugehrigen Matrizendarstellungen von beschrieben.
44 3 Lineare Abbildungen und Matrizen
3.1 Matrizen
In diesem Abschnitt werden die wesentlichen Rechengesetze fr die Addition und
Multiplikation von Matrizen behandelt.
Isoliert man die Koefzienten der Unbekannten aus jeder Gleichung des Glei-
chungssystems
5x
1
+ 10x
2
+ 20x
3
+ 4x
4
= 100
x
1
+ x
2
+ x
3
+ x
4
= 10
12x
1
+ 12x
2
+ 20x
3
= 150 ,
dann erhlt man folgendes Schema:
A =
_
_
5 10 20 4
1 1 1 1
12 12 20 0
_
_
.
Aist eine
m
i=1
m
j=1
D
ij
a
ij
hat.
3.1.7 Denition. Sei Aeine mn-Matrix mit Spaltenvektoren s
1
, . . . , s
n
und v =
(v
1
, . . . , v
n
) F
n
. Dann ist das Produkt von Amit v deniert durch
A v = s
1
v
1
+s
2
v
2
+ +s
n
v
n
.
3.1.8 Bemerkung. Fr eine mn-Matrix ist das Produkt A v mit einemVektor v
nur dann deniert, falls v F
n
ist. A v ist dann ein Vektor aus F
m
.
3.1.9 Beispiele.
(a) Seien A =
_
_
1 0
2 1
0 1
_
_
, v =
_
2
3
_
. Dann ist
A v =
_
_
1
2
0
_
_
2 +
_
_
0
1
1
_
_
3 =
_
_
2
1
3
_
_
.
(b) Fr die n n-Einheitsmatrix E
n
und jedes v F
n
gilt E
n
v = v.
3.1.10 Bemerkung. Jedes lineare Gleichungssystem (G) mit Koefzientenmatrix
A =
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_
, Unbestimmtenvektor x = (x
1
, . . . , x
n
) und Konstan-
tenvektor d = (d
1
, . . . , d
m
) lt sich schreiben als
A x = d. (G)
Der Denition des Produkts zweier Matrizen wird die des Skalarprodukts zweier
Vektoren des arithmetischen Vektorraums F
n
vorausgestellt.
3.1.11 Denition. Seien a = (a
1
, . . . , a
n
), b = (b
1
, . . . , b
n
) F
n
zwei Vektoren.
Dann ist ihr Skalarprodukt das Element a b = a
1
b
1
+ +a
n
b
n
F.
3.1 Matrizen 47
3.1.12 Beispiel. Seien v = (1, 1, 1, 1, 1), w = (0, 1, 1, 1, 1) F
5
. Dann ist
v w = 1 0 +1 1 +1 1 1 1 +1 1 = 2.
3.1.13 Bemerkungen.
(a) Das Skalarprodukt und das Produkt mit einemSkalar drfen nicht miteinander
verwechselt werden! Das erste macht aus zwei Vektoren einen Skalar, das
zweite aus einem Vektor und einem Skalar einen Vektor.
(b) Man kann nur dann das Skalarprodukt zweier Vektoren a F
m
und b F
n
bilden, wenn m = n ist. Man kann z. B. die Vektoren (0, 1, 1) und (2, 3) nicht
miteinander multiplizieren.
(c) Man kann die linke Seite einer linearen Gleichung a
1
x
1
+ +a
n
x
n
= b
als Skalarprodukt a x des Koefzientenvektors a = (a
1
, . . . , a
n
) und des
Unbestimmtenvektors x = (x
1
, . . . , x
n
) lesen.
3.1.14 Satz. Das Skalarprodukt ist kommutativ, d. h. a b = b a fr je zwei Vektoren
a, b F
n
.
Beweis: Folgt unmittelbar aus der Denition 3.1.11 und der Kommutativitt der
Multiplikation von F.
Das Skalarprodukt wird in der Geometrie verwendet, umWinkel und Lngen zu
denieren. Hierzu wird auf Kapitel 7 verwiesen.
Mittels des Skalarprodukts ist es mglich, eine andere Methode zur Berechnung
von A v anzugeben.
3.1.15 Satz. Sei A = (a
ij
) eine m n-Matrix mit Zeilen z
1
, . . . , z
m
. Sei v =
(v
1
, . . . , v
n
) F
n
und w
i
= z
i
v das Skalarprodukt von z
i
mit v fr 1 i m.
Sei w = (w
1
, w
2
, . . . , w
m
) F
m
. Dann gilt
A v = w.
Beweis: Sei s
j
die j-te Spalte von A. Dann ist
s
j
=
_
_
_
a
1j
.
.
.
a
mj
_
_
_
.
Somit ist die i-te Komponente des Vektors s
j
v
j
gerade gleich a
ij
v
j
. Die i-te
Komponente von A v ist daher
n
j=1
a
ij
v
j
= (a
i1
, . . . , a
in
) (v
1
, . . . , v
n
) = z
i
v = w
i
.
j=1
a
ij
b
jk
.
Die so erklrte Produktbildung von zwei Matrizen mag zunchst unmotiviert
erscheinen. Sie wird sich jedoch im Rahmen der im drittenAbschnitt dieses Kapitels
behandelten Theorie der linearen Abbildungen als natrlich herausstellen. Hierzu
wird auf Satz 3.3.7 verwiesen.
3.1.18 Bemerkung. Das Produkt A B zweier Matrizen A und B ist nur dann
deniert, wenn die Anzahl der Spalten von A gleich der Anzahl der Zeilen von B
ist. Ist z. B.
A =
_
1 1
0 1
_
und B =
_
_
1 0
0 1
1 1
_
_
,
so ergibt A B keinen Sinn, da Azwei Spalten und B drei Zeilen besitzt. Dagegen
ist B Adeniert, denn B hat ebenso viele Spalten wie AZeilen.
3.1.19 Beispiele.
(a) A =
_
1 2 0
0 1 1
_
, B =
_
_
2 1 1
1 1 0
0 0 1
_
_
,
A B =
_
12+(2)1+00 11+(2)(1)+00 11+(2)0+01
02+11+10 01+1(1)+10 01+10+11
_
=
_
0 3 1
1 1 1
_
.
(b) Sei Aeine mn-Matrix. Dann gilt E
m
A = Aund AE
n
= A.
3.1 Matrizen 49
3.1.20 Bemerkung. Im Gegensatz zu der Multiplikation im Krper F gilt im allge-
meinen nicht A B = B Afr zwei mm-Matrizen Aund B, denn ist z. B.
A =
_
1 1
1 2
_
und B =
_
1 1
0 1
_
,
dann gilt
A B =
_
1 0
1 3
_
und B A =
_
0 3
1 2
_
.
Ist das Produkt von drei Matrizen erklrt, so gilt das Assoziativgesetz:
3.1.21 Satz. Seien A = (a
ij
) eine m n-, B = (b
jk
) eine n t - und C = (c
kp
)
eine t s-Matrix. Dann gilt:
(A B) C = A (B C).
Beweis: Nach der Denition des Produktes zweier Matrizen gilt:
A B = (a
ij
) (b
jk
) =
_
n
j=1
a
ij
b
jk
_
,
B C = (b
jk
) (c
kp
) =
_
t
k=1
b
jk
c
kp
_
,
(A B) C =
_
n
j=1
a
ij
b
jk
_
(c
kp
) =
_
t
k=1
_
n
j=1
a
ij
b
jk
_
c
kp
_
=
_
t
k=1
n
j=1
[a
ij
b
jk
] c
kp
_
nach dem Distributivgesetz von Denition 1.4.1.
A (B C) = (a
ij
)
_
t
k=1
b
jk
V
c
kp
_
=
_
n
j=1
a
ij
_
t
k=1
b
jk
c
kp
_
_
=
_
n
j=1
t
k=1
a
ij
[b
jk
c
kp
]
_
.
Da nach Denition 1.4.1 die Reihenfolge der Summanden einer Summe bzw. der
Faktoren eines Produkts von Elementen des Krpers F beliebig ist und es auf die
Klammerung nicht ankommt, gilt
n
j=1
t
k=1
a
ij
(b
jk
c
kp
) =
t
k=1
n
j=1
(a
ij
b
jk
) c
kp
50 3 Lineare Abbildungen und Matrizen
fr alle i und p. Daher ist (A B) C = A (B C).
3.1.22 Bemerkung. Durch mehrfache Anwendung von Satz 3.1.21 folgt sogar, da
es bei Produkten von endlich vielen Matrizen (sofern sie deniert sind) auf die
Klammersetzung nicht ankommt. Deshalb werden die Klammern von nun an in der
Regel fortgelassen.
3.1.23 Satz. (a) Sind A = (a
ij
) eine mn-Matrix und B = (b
jk
) sowie C = (c
jk
)
jeweils eine n t -Matrix, dann gilt:
A (B +C) = A B +A C.
(b) Analog gilt auch fr mn-Matrizen Aund B und fr eine n t -Matrix C:
(A+B) C = A C +B C.
Beweis: Sei D = (d
ij
) = A (B + C). Nach Denition ist B + C = (b
jk
+ c
jk
)
eine n t -Matrix und somit ist D eine mt -Matrix. Fr 1 i m und 1 k t
gilt d
ik
=
n
j=1
a
ij
(b
jk
+c
jk
) =
n
j=1
a
ij
b
jk
+
n
j=1
a
ij
c
jk
.
Auf der anderenSeite sei F = (f
ik
) = AB+AC. Dannist F wie Deine mt -
Matrix und fr 1 i m und 1 k t gilt f
ik
=
n
j=1
a
ij
b
jk
+
n
j=1
a
ij
c
jk
.
Somit ist F = D und der Teil (a) ist bewiesen. Analog zeigt man (b).
3.1.24 Bemerkungen.
(a) Die etwas unklare Redeweise von
Zeilenvektoren und
Spaltenvektoren
lt sich mittels Matrizen przisieren: einem Vektor v F
n
, also einem n-
Tupel v = (v
1
, . . . , v
n
) F
n
, lt sich ganz natrlich eine n 1-Matrix
zuordnen, nmlich
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
und ebenso natrlich eine 1n-Matrix, nmlich (v
1
, v
2
, . . . , v
n
). Es sind diese
Matrizen gemeint, wenn von v als Spalten- oder Zeilenvektor die Rede ist. In
dieser Interpretation ist A v ein Spezialfall der Matrizenmultiplikation.
(b) Die Matrizenmultiplikation wurde mit Hilfe des Skalarproduktes deniert.
Man kann auch umgekehrt vorgehen: Wenn a und b in F
n
sind, betrachte man
die 1 n-Matrix A = (a
1
. . . a
n
) (d. h. a als Zeilenvektor) und die n 1-
Matrix B =
_
_
_
b
1
.
.
.
b
n
_
_
_
(d. h. b als Spaltenvektor). Das Produkt A B ist dann
eine 1 1-Matrix, deren einziger Eintrag gerade das Skalarprodukt a b ist.
3.1 Matrizen 51
3.1.25 Denition. Sei Aeine mn-Matrix. Die n m-Matrix, deren j-ter Zeilen-
vektor der j-te Spaltenvektor von A ist, heit die zu A transponierte Matrix A
T
.
Eine quadratische n n-Matrix Aheit symmetrisch, wenn A = A
T
.
3.1.26 Beispiele.
(a)
_
_
1 2 2 3
0 0 7 1
2 2 2 2
_
_
T
=
_
_
_
_
1 0 2
2 0 2
2 7 2
3 1 2
_
_
_
_
.
(b) E
T
n
= E
n
.
3.1.27 Bemerkungen.
(a) Wenn A = (a
ij
), dann ist a
ji
der Eintrag an der Stelle (i, j) in A
T
, d. h.
A
T
= (a
ij
) mit a
ij
= a
ji
.
(b) Die Spalten von A
T
sind die Zeilen von A.
(c) (A
T
)
T
= Aund (Ac)
T
= (A
T
)c fr alle c F.
(d) (A+B)
T
= A
T
+B
T
.
3.1.28 Satz. Sei Aeine mn-Matrix und B eine nt -Matrix. Dann ist (A B)
T
=
B
T
A
T
.
Beweis: Seien A = (a
ij
), B = (b
jk
) und AB = (c
ik
). Mit den Bezeichnungen von
Bemerkung 3.1.27(a) gilt dann fr die Koefzienten ihrer transponierten Matrizen
die Gleichung:
c
ki
= c
ik
=
n
j=1
a
ij
b
jk
=
n
j=1
b
jk
a
ij
=
n
j=1
b
kj
a
ji
,
woraus (A B)
T
= B
T
A
T
folgt.
Im folgenden sei n > 0 eine natrliche Zahl und E
n
die n n-Einheitsmatrix.
3.1.29 Denition. Eine n n-Matrix A heit invertierbar, wenn es eine n n-
Matrix B gibt mit
A B = B A = E
n
.
B ist durch A eindeutig bestimmt, wie in Satz 3.1.31 gezeigt wird. Man schreibt
B = A
1
und nennt A
1
die inverse Matrix von A.
In der Literatur werden invertierbare Matrizen auch regulr genannt.
52 3 Lineare Abbildungen und Matrizen
3.1.30 Beispiele.
(a) E
n
ist invertierbar mit E
n
1
= E
n
.
(b) Die Inverse der Matrix
D =
_
_
5 10 20
1 1 1
12 12 20
_
_
ist D
1
=
_
_
1/5 1 1/4
1/5 7/2 3/8
0 3/2 1/8
_
_
.
3.1.31 Satz. (a) Wenn A invertierbar ist mit A
1
= B, dann ist B invertierbar
mit B
1
= (A
1
)
1
= A.
(b) Wenn Aund B invertierbar sind, dann ist auch A B invertierbar, und es gilt
(A B)
1
= B
1
A
1
.
(c) Die Menge GL(n, F) aller invertierbaren n n-Matrizen ist bezglich der
Matrizenmultiplikation eine Gruppe, die man die generelle lineare Gruppe
der Dimension n ber dem Krper F nennt. Insbesondere ist die Inverse A
1
einer invertierbaren Matrix A GL(n, F) eindeutig bestimmt.
Beweis: (a) Folgt aus dem Beweis von Hilfssatz 1.3.6.
(b) Folgt aus Hilfssatz 1.3.7.
(c) Nach Satz 3.1.21 ist die Matrizenmultiplikation assoziativ. Sicherlich ist
AE
n
= E
n
A = A fr alle A GL(n, F). Wegen (b) ist mit A und B auch AB
invertierbar. Daher ist GL(n, F) bezglich der Matrizenmultipliation abgeschlos-
sen. Schlielich ist mit A auch A
1
invertierbar, weil (A
1
)
1
= A. Deshalb ist
GL(n, F) eine Gruppe mit neutralem Element E
n
3.1.32 Bemerkung. In Kapitel 4 wird ein Algorithmus zur Berechnung der Inver-
sen angegeben. Kriterien fr die Invertierbarkeit einer n n-Matrix A werden in
Satz 3.4.9 angegeben. Folgerung 3.4.10 besagt, da aus AB = E
n
schon BA = E
n
folgt. Dies ist eine erhebliche Abschwchung der Bedingung von Denition 3.1.29.
3.2 Lineare Abbildungen
Mit F
n
wird wieder der n-dimensionale arithmetische Vektorraum ber dem Krper
F bezeichnet. Fr eine beliebige mn-Matrix Aist nach Denition 3.1.7 das Produkt
A v fr jeden Vektor v F
n
ein Vektor w F
m
. Die Multiplikation mit A bildet
also einen Vektor v F
n
auf einen Vektor w = A v F
m
ab. Dies schreiben wir
auch als v A v = w. Wir betrachten zunchst solche Abbildungen.
3.2.1 Satz. Die Abbildung v w = A v von F
n
nach F
m
hat folgende Eigen-
schaften:
3.2 Lineare Abbildungen 53
(a) A (u +v) = A u +A v fr alle u, v F
n
.
(b) A (v a) = (A v) a fr alle v F
n
und a F.
Beweis: Die Spaltenvektoren u und v sind (n 1)-Matrizen. also folgt die Behaup-
tung aus Satz 3.1.23 (a) .
(b) Ergibt sich unmittelbar aus Satz 3.1.21.
Satz 3.2.1 zeigt, da lineare Abbildungen im Sinne der folgenden Denition
existieren.
3.2.2 Denition. Seien V und W Vektorrume ber demselben Krper F. Eine Ab-
bildung von V nach W ist eine lineare Abbildung, wenn die beiden folgenden
Bedingungen erfllt sind:
(a) (v
1
+v
2
) = (v
1
) +(v
2
) fr alle v
1
, v
2
V.
(b) (v a) = (v) a fr alle v V und a F.
Ist V = W, so heit eine lineareAbbildung : V V Endomorphismus von V.
Eine Abbildung : V W heit
(c) Epimorphismus, wenn linear und surjektiv ist,
(d) Monomorphismus, wenn linear und injektiv ist,
(e) Isomorphismus, wenn linear und bijektiv ist.
Die Vektorrume V und W heien isomorph, wenn es einen Isomorphismus
: V W gibt.
Bezeichnung: V
= W.
3.2.3 Bemerkungen.
(a) Fr jede lineare Abbildung : V W gilt (o) = o; denn nach 3.2.2 ist
(o) = (o 0) = (o) 0 = o.
(b) (v) = (v (1)) = (v) (1) = (v) fr alle v V.
(c) Die Hintereinanderausfhrung zweier linearer Abbildungen : V W
und : W Z ist eine lineare Abbildung : V Z.
(d) Die Hintereinanderausfhrung dreier linearer Abbildungen : V W, :
W Y, : Y Z ist assoziativ, d. h. () = () : V Z.
Der folgende Satz liefert ein einfaches Verfahren, lineare Abbildungen zwischen
zwei Vektorrumen zu konstruieren. Da nach Satz 2.3.15 jeder Vektorraum V eine
Basis besitzt, knnen mit deren Hilfe lineare Abbildungen zwischen nicht notwendig
endlich-dimensionalen Vektorrumen konstruiert werden.
54 3 Lineare Abbildungen und Matrizen
3.2.4 Satz. Seien V = o und W Vektorrume ber dem Krper F. Sei B eine Basis
von V. Ordnet man jedem Basisvektor b B einen Vektor b
fr alle b B.
Beweis: Nach Satz 2.3.15 hat jeder Vektor v V eine Darstellung v =
bB
bf
b
,
wobei die Krperelemente f
b
F eindeutig durch v bestimmt sind und f
b
= 0 fr
fast alle b B gilt. Man deniere nun die Abbildung durch
(v) =
bB
b
f
b
.
Dann ist wegen der Eindeutigkeit der Basisdarstellung wohldeniert, und es gilt
(b) = b
fr alle b B.
Ist auch w =
bB
bg
b
V mit g
b
F, so ist
(v +w) =
_
bB
b[f
b
+g
b
]
_
=
b
b
[f
b
+g
b
]
=
b
b
f
b
+
b
b
g
b
= (v) +(w).
Ebenso folgt (v f ) =
_
bB
b[f
b
f ]
_
=
bB
b
[f
b
f ] =
_
bB
b
f
b
_
f =
(v) f fr alle v V und f F. Also ist eine lineare Abbildung von V in W.
Zum Nachweis der Eindeutigkeit von sei nun eine weitere lineare Abbildung
von V in W mit (b) = b
bB
bf
b
_
=
bB
(b)f
b
=
bB
b
f
b
= (v) fr alle v V.
Also ist = .
3.2.5 Beispiele.
(a) DieAbbildung von F
3
nach F mit der Eigenschaft (r
1
, r
2
, r
3
) = r
1
+r
2
+r
3
ist eine lineare Abbildung. Denn fr r = (r
1
, r
2
, r
s
), s = (s
1
, s
2
, s
3
) aus F
3
3.2 Lineare Abbildungen 55
und fr alle a F gelten:
(r +s) = (r
1
+s
1
, r
2
+s
2
, r
3
+s
3
)
= (r
1
+s
1
) +(r
2
+s
2
) +(r
3
+s
3
)
= (r
1
+r
2
+r
3
) +(s
1
+s
2
+s
3
)
= (r) +(s),
(ra) = (r
1
a, r
2
a, r
3
a)
= r
1
a +r
2
a +r
3
a
= (r
1
+r
2
+r
3
) a
= (r) a.
(b) Die Abbildung von Q
2
nach Q
2
, die den Vektor (r
1
, r
2
) Q
2
nach
(r
1
+1, r
2
+1) abbildet, ist keine lineare Abbildung, denn es gilt z. B.:
(1, 1) 2 = (1 +1, 1 +1) 2 = (4, 4), aber
[(1, 1) 2] = (2, 2) = (2 +1, 2 +1) = (3, 3).
3.2.6 Denition. Sei eine lineareAbbildung von V nach W. Dann heit die Menge
Ker() = {v V | (v) = o W}
der Kern von . Die Menge
Im() = {(v) W | v V}
heit das Bild von .
3.2.7 Satz. Ist eine lineare Abbildung von V nach W, dann gilt:
(a) Ker() ist ein Unterraum von V.
(b) Ker() = {o} genau dann, wenn eine injektive Abbildung ist.
(c) Fr jeden Unterraum U von V ist (U) ein Unterraum von W.
(d) Im() = W genau dann, wenn surjektiv ist.
(e) Das Urbild
(Z). Sind
u, v
n
j=1
s
j
v
j
. Also ist Im(A) das
Erzeugnis der Spaltenvektoren s
j
von A. Die Aussage (b) folgt sofort.
3.2.9 Satz. Sei (H) A x = o das zu (G) A x = d gehrige homogene lineare
Gleichungssystem. Dann gelten:
(a) Ker(A) ist die Lsungsgesamtheit von (H).
(b) Ist a eine Lsung von (G), so ist
a +Ker(A) := {a +b | b Ker(A)}
die Lsungsgesamtheit von (G).
3.2 Lineare Abbildungen 57
Beweis: (a) ist trivial.
(b) Sei a F
n
eine Lsung von (G) und b eine von (H). Dann ist A a = d und
A (a +b) = A a +A b = d +o = d. Also ist auch a +b eine Lsung von (G).
Sei umgekehrt c F
n
eine beliebige Lsung von (G). Dann ist b = c a wegen
Ab = o eine Lsung von (H), denn A b = A c A a = d d = o. Also ist
b Ker(A), und es gilt c = a +(c a) = a +b.
Man nennt einen Krper F unendlich, wenn er unendlich viele Elemente besitzt.
Beispiele fr unendliche Krper sind: Q, R und C. Beispiele fr endliche Krper
werden in Kapitel 10 gegeben.
3.2.10 Satz. Sei (G) A x = d ein lineares Gleichungssystem mit Koefzienten aus
dem Krper F. Dann gilt:
(a) Wenn d / Im(A), dann hat (G) keine Lsung.
(b) Es hat (G) dann und nur dann genau eine Lsung, wenn d Im(A) und
Ker(A) = {o}.
Fr unendliche Krper F gilt zustzlich:
(d) Wenn d Im(A) und Ker(A) = {o}, dann hat (G) unendlich viele Lsungen.
Beweis: Seien s
j
, 1 j n, die Spaltenvektoren von A. Dann ist Ax =
n
j=1
s
j
x
j
. Daher hat A x = d genau dann eine Lsung, wenn d =
n
j=1
s
j
a
j
fr
geeignete Skalare a
j
ist, d. h. genau dann, wenn d im Spaltenraum von A oder
nach 3.2.8 in Im(A) ist. Die Aussage (b) ergibt sich aus 3.2.9. Ist F unendlich und
Ker(A) = {o}, dann enthlt Ker(A) einen eindimensionalen Unterraum vF, der
bereits aus unendlich vielen Vektoren besteht.
3.2.11 Satz. Sei Aeine mn-Matrix ber F. Genau dann ist Ker(A) = {o}, wenn
die Spalten von Alinear unabhngig sind.
Beweis: Seien s
j
, j = 1, . . . , n, die Spaltenvektoren von A, und sei v F
n
. Wegen
A v =
n
j=1
s
j
v
j
, ist v Ker(A) genau dann, wenn
n
j=1
s
j
v
j
= o ist. Wenn
die Spalten linear unabhngig sind, gilt dies nur fr v
1
= = v
n
= 0, also v = o.
Es folgt Ker(A) = {o}. Sind die Spaltenvektoren dagegen linear abhngig, dann gibt
es v
1
, . . . , v
n
, welche nicht smtlich gleich 0 sind und fr die
n
j=1
s
j
v
j
= o gilt.
Damit ist o = v = (v
1
, . . . , v
n
) Ker(A).
Satz 3.2.11 reduziert das Problem, die lineare Abhngigkeit einer Menge von
Vektoren des arithmetischen Vektorraumes V
n
nachzuweisen, auf die Bestimmung
der Lsung eines homogenen Gleichungssystems.
58 3 Lineare Abbildungen und Matrizen
3.2.12 Beispiel. Die Vektoren v
1
= (2, 1, 0), v
2
= (1, 0, 1), v
3
= (3, 1, 1) sind
linear abhngig. Denn
_
_
2 1 3
1 0 1
0 1 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
0
0
0
_
_
(H)
hat die nicht triviale Lsung x = (1, 1, 1).
Fr eine lineare Abbildung wurde in Satz 3.2.7 gezeigt, da Ker() und Im()
Unterrume sind. Fr deren Dimensionen gilt der grundlegende Satz.
3.2.13 Satz. Sei V ein endlich-dimensionaler und W ein beliebiger Vektorraumber
dem Krper F. Sei : V W eine lineare Abbildung. Dann ist
dimV = dimKer() +dimIm() und dimIm() dimW.
Beweis: Nach Satz 3.2.7 ist Im() ein Unterraum von W. Die zweite Behauptung
folgt also aus Folgerung 2.2.14 (b). Sei {b
1
, . . . , b
k
} eine Basis von Ker(), also
k = dimKer(). Nach Satz 2.2.15 lt sich diese durch Vektoren a
1
, . . . , a
d
zu
einer Basis von V ergnzen. Dann ist also n = dimV = k +d.
Wir zeigen jetzt, da (a
1
), . . . , (a
d
) eine Basis von Im() ist. Es folgt dann,
da d = dimIm(), und damit die Behauptung.
Es ist klar, da die angegebenen Vektoren in Im() liegen. Sie sind linear unab-
hngig. Denn aus o = (a
1
) f
1
+ + (a
d
) f
d
= (a
1
f
1
+ + a
d
f
d
)
folgt x = a
1
f
1
+ +a
d
f
d
Ker(). Also ist x eine Linearkombination von
b
1
, . . . , b
k
. Sei x = a
1
f
1
+ +a
d
f
d
= b
1
g
1
+ +b
k
g
k
. Hieraus folgt
o = a
1
f
1
+ +a
d
f
d
(b
1
g
1
+ +b
k
g
k
).
Da {a
1
, . . . , a
d
, b
1
, . . . , b
k
} eine Basis von V ist, ergibt sich insbesondere, da
f
i
= 0 ist fr i = 1, 2, . . . , d.
Schlielich sei w Im(). Dann ist w = (v) fr ein v V. Nun ist v =
a
1
f
1
+ +a
d
f
d
+b
1
g
1
+ +b
k
g
k
eine Linearkombination von a
1
, . . . , a
d
und b
1
, . . . , b
k
, woraus w = (v) = (a
1
) f
1
+ +(a
d
) f
d
folgt, da (b
j
) = 0
fr alle j. Also ist (a
1
), . . . , (a
d
) auch ein Erzeugendensystem von Im(), und
d = dimIm().
Bei linearen Abbildungen : V W zwischen endlich dimensionalen Vektor-
rumen gleicher Dimension fallen die Begriffe
injektiv,
surjektiv und
bijektiv
zusammen, wie nun gezeigt wird.
3.2.14 Satz. Fr eine lineare Abbildung : V W zwischen den n-dimensionalen
F-Vektorrumen V und W sind folgende Aussagen quivalent:
3.2 Lineare Abbildungen 59
(a) ist injektiv.
(b) ist surjektiv.
(c) ist bijektiv.
(d) Ist B = {v
1
, v
2
, . . . , v
n
} eine Basis von V, so ist (B) = {(v
1
),
(v
2
), . . . , (v
n
)} eine Basis von W.
Beweis: Ist injektiv, so ist Ker() = {o} nach Satz 3.2.7 (b). Wegen Satz 3.2.13
gilt dann n = dimW = dim(V), woraus W = (V) nach Folgerung 2.2.14 folgt.
Also folgen (b) und (c) aus (a). Mittels Satz 3.2.13 ergibt sich (c) ebenso einfach aus
(b). Da (a) eine triviale Folge von (c) ist, sind die drei ersten Aussagen quivalent.
Gilt (d), so ist n = dim(V) = dimW, woraus nach Folgerung 2.2.14 die Sur-
jektivitt von folgt. Ist schlielich Ker() = {o}, so folgt aus o =
n
i=1
(v
i
)f
i
=
_
n
i=1
v
i
f
i
_
, da
n
i=1
v
i
f
i
Ker(v) = {o} und somit f
i
= 0 fr alle f
i
F,
i = 1, 2, . . . , n ist. Also ist auch (d) eine Folge von (a).
3.2.15 Satz. Zwei endlich-dimensionale Vektorrume V und W ber dem Krper F
sind genau dann isomorph, wenn dimV = dimW.
Beweis: Ist : V W ein Isomorphismus, so gilt dimV = dimW nach
Satz 3.2.14. Gilt umgekehrt diese Gleichung, dann ist V
= F
n
und W
= F
n
nach
Satz 2.2.18. Daher ist V
= W.
Das Bild Im() der linearen Abbildung : V W zwischen den F-Vektor-
rumen V und W ist nach Satz 3.2.7 ein Unterraum von W. Deshalb kann die
folgende Invariante zugeordnet werden.
3.2.16 Denition. Es sei : V W eine lineare Abbildung. Dann heit rg() =
dimIm() der Rang von .
Man beachte, da rg() = ist, falls Im() ein unendlich-dimensionaler Un-
terraum von W ist.
3.2.17 Satz. Seien U, V, W und Z Vektorrume, und es sei dimV < . Seien
: V W, : U V und : W Z lineare Abbildungen. Dann gilt:
(a) rg() min{dimV, dimW}.
(b) rg() rg().
(c) Ist surjektiv, so ist rg() = rg() .
(d) rg( ) rg().
(e) Ist injektiv, so ist rg( ) = rg().
60 3 Lineare Abbildungen und Matrizen
Beweis: (a) Nach Satz 3.2.13 gilt rg() = dimIm() dimW und rg() =
dimIm() = dimV dim(Ker()) dimV.
(b) Wegen Im() V folgt Im() Im(). Also gilt rg() = dimIm()
dimIm() = rg().
(c) Ist Im() = V, so ist Im() = Im() und rg() = rg().
(d) Da Im() endlich-dimensional ist, folgt
dim[ Im()] = dimIm() dim[Im() Ker( )]
nach Satz 3.2.13. Daher gilt
rg( ) = dimIm( ) = dim[ Im()] dimIm() = rg().
(e) Ist injektiv, so ist dim[ Im()] = dimIm() nach Satz 3.2.14. Deshalb
ist rg( ) = rg().
3.3 Matrix einer linearen Abbildung
In diesemAbschnitt werden die Beziehungen der linearen Abbildungen : V W
zwischen zwei endlich-dimensionalen Vektorrumen V und W zu den Matrizen
A = (a
ij
) mit Koefzienten a
ij
F behandelt.
Dazu legen wir eine Basis A = {u
1
, . . . , u
r
} von V fest. Weiter sei eine lineare
Abbildung von V in einen zweiten Vektorraum W gegeben. Auch in W whlen
wir eine Basis B = {v
1
, . . . , v
s
}. Dann lt sich der linearen Abbildung eine
Matrix A = A
i=1
v
i
a
ij
mit a
ij
F fr 1 i s, 1 j r.
Die s r-Matrix A = (a
ij
) heit die Matrix von bezglich der Basen A und
B. Man schreibt
A = A
= A
(A, B).
3.3 Matrix einer linearen Abbildung 61
3.3.2 Beispiel. Es ist einfach einzusehen, da V = {(a, b, c) Q
3
| a +b +c = 0}
und W = {(r, s, t, u) Q
4
| r +s +t +u = 0} Unterrume von Q
3
bzw. Q
4
sind.
Seien u
1
= (1, 1, 0), u
2
= (1, 0, 1), v
1
= (1, 1, 0, 0), v
2
= (1, 0, 1, 0) und
v
3
= (1, 0, 0, 1). Dann ist A = {u
1
, u
2
} eine Basis von V, und B = {v
1
, v
2
, v
3
}
ist eine Basis von W.
Durch (a, b, c) = (a 2bc, 2a bc, a b, 6a 2c) wird eine lineare
Abbildung : V W deniert; denn aus (a, b, c) V folgt wegen a +b +c = 0
fr die Komponenten des Bildvektors
(a 2b c) +(2a b c) +(a b) +(6a 2c) = (a +b +c)(4) = 0.
Also bildet den Vektorraum V tatschlich in den Vektorraum W ab. Die Lineari-
ttseigenschaften von berprft man unmittelbar.
Es ist
(u
1
) = (1, 1, 0) = (3, 3, 0, 6)
= (1, 1, 0, 0)(3) +(1, 0, 0, 1) 6
= v
1
(3) +v
2
0 +v
3
6.
Dies ergibt die erste Spalte der gesuchten Matrix. Ebenso ist
(u
2
) = (1, 0, 1) = (2, 3, 1, 4)
= (1, 1, 0, 0)(3) +(1, 0, 1, 0) +(1, 0, 0, 1) 4
= v
1
(3) +v
2
+v
3
4.
Dies ergibt die zweite Spalte. Also ist die Matrix A
(A, B) =
_
_
3 3
0 1
6 4
_
_
zugeordnet.
3.3.3 Bemerkung. Kennt man die s r-Matrix A = A
j=1
u
j
a
j
.
Man multipliziert dann Amit demSpaltenvektor a = (a
1
, . . . , a
r
) und erhlt Aa =
b = (b
1
, . . . , b
s
) F
s
. Bildet man nun die Linearkombination
v =
s
i=1
v
i
b
i
,
62 3 Lineare Abbildungen und Matrizen
so erhlt man das gesuchte Bild von u unter ; denn
(u) =
r
j=1
(u
j
) a
j
=
r
j=1
_
s
i=1
v
i
a
ij
_
a
j
=
s
i=1
v
i
_
r
j=1
a
ij
a
j
_
=
r
j=1
v
i
b
i
= v.
3.3.4 Beispiel. Wir nehmen das Beispiel 3.3.2 noch einmal auf. Dort wurde schon
A
(A, B) =
_
_
3 3
0 1
6 4
_
_
berechnet. Sei u = (2, 3, 5), also u = u
1
(3)+u
2
5 U. Um(u) zu berechnen,
multiplizieren wir
_
_
3 3
0 1
6 4
_
_
_
3
5
_
=
_
_
6
5
2
_
_
und erhalten
(u) = v
1
(6) +v
2
5 +v
3
2
= (1, 1, 0, 0)(6) +(1, 0, 1, 0)5 +(1, 0, 0, 1)2
= (1, 6, 5, 2).
3.3.5 Denition. Seien A = {u
1
, . . . , u
r
} und A
= {u
1
, . . . , u
r
} zwei Basen des
F-Vektorraumes V. Fr jedes j = 1, . . . , r schreibt man u
j
als Linearkombination
von u
1
, . . . , u
r
mit geeigneten p
ij
F:
u
j
=
r
i=1
u
i
p
ij
.
Die r r-Matrix P = (p
ij
) heit die Matrix des Basiswechsels von A nach A
.
3.3.6 Bemerkung. Bei dieser Denition der Matrix P = (p
ij
) des Basiswech-
sels von A nach A
abbildet, d. h.
(u
j
) = u
j
=
r
i=1
u
i
p
ij
fr j = 1, 2, . . . , r und A
(A, A
) = P. Nach
Satz 3.2.4 ist die lineare Abbildung : V V durch die Zuordnung (u
j
) = u
j
der Basisvektoren u
j
A, j = 1, 2, . . . , r, eindeutig bestimmt. Sei id der Einsen-
domorphismus von V. Nach Denition 3.3.1 gilt dann:
P = A
(A, A) = A
id
(A
, A).
3.3 Matrix einer linearen Abbildung 63
3.3.7 Satz. Seien V, W und Z endlich-dimensionale F- Vektorrume mit den Basen
A = (v
1
, v
2
, . . . , v
n
), B = (w
1
, w
2
, . . . , w
m
) und C = (z
1
, z
2
, . . . , z
p
). Sind
: V W und : W Z lineare Abbildungen mit den Matrizen A
(A, B) und
A
(A, C) = A
(B, C) A
(A, B)
ist.
Beweis: Die Hintereinanderausfhrung der beiden linearenAbbildungen und
ist eine lineareAbbildung von V in Z gem Bemerkung 3.2.3. Nach Denition 3.3.1
erfllen die Koefzienten der Matrizen A
(A, B) = (a
ij
), A
(B, C) = (b
ki
) und
A
(A, C) = (c
kj
) mit = die folgenden Gleichungen:
(v
j
) =
m
i=1
w
i
a
ij
, 1 j n,
(w
i
) =
p
k=1
z
k
b
ki
, 1 i m,
(v
j
) =
p
k=1
z
k
c
kj
, 1 j n.
Wendet man auf die erste Gleichung an, so erhlt man
(v
j
) =
m
i=1
(w
i
)a
ij
=
m
i=1
_ p
k=1
z
k
b
ki
_
a
ij
=
p
k=1
z
k
_
m
i=1
b
ki
a
ij
_
fr j = 1, 2, . . . , n.
Also gilt c
kj
=
m
j=1
b
ki
a
ij
, weil C eine Basis des Vektorraums Z ist. Nach Deni-
tion 3.1.17 ist A
(A, C) = A
(B, C) A
(A, B).
3.3.8 Folgerung. Die Matrix P des Basiswechsels von A nach A
ist invertierbar.
Ihre Inverse ist die Matrix des Basiswechsels von A
nach A.
Beweis: Sei V = F
n
und id End
F
(V) der Einsendomorphismus von V. Sei E
n
die n n-Einsmatrix. Nach Bemerkung 3.3.6 ist P = A
id
(A
. Ebenso ist Q = A
id
(A, A
, A)A
id
(A, A
) = PQ.
64 3 Lineare Abbildungen und Matrizen
Ebenso ergibt sich QP = E
n
durch Vertauschung der Basen A und A
. Nach
Denition 3.1.29 ist also Q die Inverse von P.
3.3.9 Satz. Seien V und W Vektorrume, und sei : V W eine lineare Abbil-
dung. Weiter seien zwei Basen A und A
von W
gegeben. Sei P die Matrix des Basiswechsels von A nach A
. Dann ist
A
(A
, B
) = Q
1
A
(A, B) P.
Beweis: Sei id
V
der identische Endomorphismus von V und id
W
der von W. Dann
gilt nach Bemerkung 3.3.6, da P = A
id
V
(A
, A) und Q = A
id
W
(B
, B). Wegen
id
V
= id
W
folgt aus Folgerung 3.3.8, da
A
(A, B)P = A
id
V
(A
, B) = A
id
W
(A
, B) = QA
(A
, B
).
Multiplikation mit Q
1
von links liefert die Behauptung.
3.4 Rang einer Matrix
In diesem Abschnitt wird gezeigt, da der Spaltenrang s(A) fr jede mn-Matrix
A = (a
ij
) mit Koefzienten a
ij
aus dem Krper F gleich dem Zeilenrang z(A)
ist. Diese Zahl heit der Rang r(A) von A. Auerdem werden Kriterien fr die
Invertierbarkeit von Matrizen behandelt. Imfolgenden werden die in Denition 3.3.1
eingefhrten Bezeichnungen beibehalten.
3.4.1 Hilfssatz. Seien V und W zwei endlich-dimensionale F-Vektorrume mit den
Basen A und B. Sei : V W eine lineare Abbildung, und sei A = A
(A, B)
die Matrix von bezglich der Basen Aund B. Dann ist der Rang von gleich dem
Spaltenrang von A, d. h. rg() = s(A).
Beweis: Nach Denition 3.2.16 und Satz 3.2.8 gelten die Gleichungen rg() =
dimIm() = s(A).
3.4.2 Hilfssatz. Sei : V W eine lineare Abbildung zwischen den endlich-
dimensionalen F-Vektorrumen V und W mit den Dimensionen dimV = n und
dimW = m. Ist r der Rang von , dann existieren Basen A
und B
von V bzw. W
derart, da bezglich der Basen A
und B
die mn-Matrix
A
(A
, B
) =
_
E
r
0
0 0
_
zugeordnet ist.
3.4 Rang einer Matrix 65
Beweis: Nach Satz 3.2.13 ist Ker() ein Unterraum von V mit dimKer() =
n dimIm() = n r. Sei v
r+1
, v
r+2
, . . . , v
n
eine Basis von Ker(). Nach
dem Austauschsatz 2.2.15 von Steinitz gibt es r linear unabhngige Vektoren
im Vektorraum V, die mit v
1
, v
2
, . . . , v
r
bezeichnet seien, derart, da A
=
{v
1
, v
2
, . . . , v
r
, v
r+1
, . . . , v
n
} eine Basis von V ist.
Da dim(V) + dimKer() = dimV = n nach Satz 3.2.13 gilt, folgt, da
{(v
1
), (v
2
), . . . , (v
r
)} eine Basis des Unterraumes (V) von W ist. Erneute
Anwendung von Satz 2.2.15 ergibt die Existenz von mr linear unabhngigen Vek-
toren des Vektorraums W, die mit w
r+1
, w
r+2
, . . . , w
m
bezeichnet werden, derart,
da B
= {(v
1
), (v
2
), . . . , (v
r
), w
r+1
, w
r+2
, . . . , w
m
} eine Basis von W ist.
Bezglich der Basen A
und B
(A
, B
),
wie sie in der Behauptung angegeben ist.
3.4.3 Hilfssatz. A und B seien m n-Matrizen und P, Q invertierbare n n-
bzw. m m-Matrizen derart, da B = QAP ist. Dann gilt fr die Spaltenrnge
s(B) = s(A).
Beweis: Nach den Stzen 3.2.8 und 3.2.17 gilt
s(B) = dimIm(B) = dimIm(QAP) = dimIm(A) = s(A),
da P und Q invertierbare n n- bzw. mm-Matrizen ber F sind.
3.4.4 Satz. Sei A eine m n-Matrix mit Koefzienten aus dem Krper F. Dann
stimmen der Zeilen- und der Spaltenrang von Aberein, d. h. z(A) = s(A).
Beweis: Seien A = {v
1
, v
2
, . . . , v
n
} und B = {w
1
, w
2
, . . . , w
m
} die kanonischen
Basen der F-Vektorrume V = F
n
und W = F
m
. Sei die zu A gehrige lineare
Abbildung
(v) = A v fr alle v V.
Wegen Hilfssatz 3.4.1 ist der Spaltenrang s(A) von A gleich dem Rang r von .
Nach Hilfssatz 3.4.2 existieren Basen A
und B
(A
, B
) =
_
E
r
0
0 0
_
= A
.
Offensichtlich gilt r = s(A
) = z(A
) = s([A
]
T
).
Sei P die Matrix des Basiswechsels von A nach A
= A
(A
, B
) = Q
1
A
(A, B)P = Q
1
AP.
66 3 Lineare Abbildungen und Matrizen
Mittels Satz 3.1.28 ergibt sich [A
]
T
= P
T
A
T
(Q
1
)
T
. Die Matrizen P
T
und
(Q
1
)
T
sind invertierbar. Wegen Hilfssatz 3.4.3 folgt nun
s(A) = r = s([A
]
T
) = s(P
T
A
T
(Q
1
)
T
) = s(A
T
) = z(A),
denn s(A
T
) ist der Zeilenrang z(A) von A.
3.4.5 Denition. Sei A eine m n-Matrix mit Koefzienten aus dem Krper F.
Dann heit der gemeinsame Wert rg(A) = s(A) = z(A) der Rang der Matrix A.
3.4.6 Beispiele.
(a) Der Rang der mn-Nullmatrix ist 0.
(b) Der Rang der n n-Einheitsmatrix E
n
ist n.
(c) Der Rang von
_
_
1 2
3 4
5 6
_
_
ist 2, denn die ersten beiden Zeilen sind linear
unabhngig.
Algorithmen zur Berechnung des Ranges einer Matrix werden in Kapitel 4 be-
schrieben.
3.4.7 Folgerung. Sei : V W eine lineare Abbildung zwischen zwei endlich-
dimensionalen F-Vektorrumen V und W mit den Basen A und B. Sei A =
A
(A, B) die Matrix von bezglich der Basen A und B. Dann gilt
rg() = rg(A).
Beweis: Nach Hilfssatz 3.4.1 und Satz 3.4.4 gilt rg() = s(A) = rg(A).
3.4.8 Folgerung. Sei Aeine mn-Matrix. Dann gelten:
(a) rg(A) = rg(A
T
).
(b) rg(A) min{m, n}.
(c) rg(A B) min(rg(A), rg(B)) fr jede n p-Matrix B.
(d) Sind B und C invertierbare mm- bzw. n n-Matrizen, so gilt
rg(BA) = rg(A) = rg(AC).
(e) Die Lsungsgesamtheit Ker(A) des homogenen Gleichungssystems
(H) Ax = o
hat n rg(A) linear unabhngige Lsungen.
3.5 quivalenz und hnlichkeit von Matrizen 67
Beweis: (a) Wegen Satz 3.4.4 gilt rg(A
T
) = s(A
T
) = z(A) = rg(A).
(b) Ist die durch A denierte lineare Abbildung : F
n
F
m
, so folgt aus
Satz 3.2.17 und Folgerung 3.4.7, da rg(A) = rg() min(m, n) gilt.
(c) Folgt ebenso aus Satz 3.2.17.
(d) Nach Hilfssatz 3.4.3 und Satz 3.4.4 gilt rg(BA) = s(BA) = s(BAE
n
) =
s(A) = rg(A). Ebenso folgt rg(AC) = s(E
m
AC) = s(A) = rg(A).
(e) Wegen Satz 3.2.8 und Satz 3.2.13 gilt dimKer(A) = n dimIm(A) =
nrg(A). Nach Satz 3.2.9 (a) hat (H) dann nrg(A) linear unabhngige Lsungen.
3.4.9 Satz. Sei Aeine n n-Matrix. Die folgenden Aussagen sind quivalent:
(a) Aist invertierbar.
(b) Es gibt eine n n-Matrix S mit A S = E
n
.
(c) Es gibt eine n n-Matrix T mit T A = E
n
.
(d) rg(A) = n.
Beweis: Sicherlich folgen (b) und (c) aus (a). Gilt (b), dann ist n rg(A) rg(A
S) = rg(E
n
) = n nach Folgerung 3.4.8. Also ist rg(A) = n. Daher gilt (d). Ebenso
folgt (d) aus (c).
(d) (a): Da n = rg(A) = dimIm(A), folgt nach Folgerung 2.2.14 (c),
da Im(A) = F
n
ist. Insbesondere gibt es zu den Einheitsvektoren e
j
Vektoren
s
1
, . . . , s
n
F
n
mit A s
j
= e
j
fr 1 j n. Bildet man die Matrix S, deren
Spalten gerade s
1
, . . . , s
n
sind, dann folgt A S = E
n
. Da auch rg(A
T
) = n nach
Folgerung 3.4.8 ist, gibt es ebenso eine Matrix Umit A
T
U = E
n
= E
T
n
= U
T
A.
Hieraus folgt
U
T
= U
T
E
n
= U
T
AS = E
n
S = S
Daher ist S = U
T
die Inverse von A.
3.4.10 Folgerung. Seien A, S und T n n-Matrizen. Aus A S = E
n
folgt die
Invertierbarkeit von A, d. h. S = A
1
. Ebenso folgt T = A
1
schon aus T A = E
n
.
Beweis: Nach Satz 3.4.9 hat A eine Inverse A
1
. Also folgt die Behauptung aus
Satz 3.1.31.
3.5 quivalenz und hnlichkeit von Matrizen
Nach Satz 3.3.9 sind einer linearen Abbildung : V W eines n-dimensionalen
Vektorraums V in einen m-dimensionalen Vektorraum W ber einem Krper F
bezglich verschiedener Basen A, A
von V und B, B
(A, B) und A
(A
, B
(A
, B
) = Q
1
A
(A, B)P.
Da Q und Q
1
gleichzeitig invertierbar sind, sind die beiden Matrizen
A
(A
, B
) und A
von V und B
von W derart, da
A
(A
, B
) =
_
E
r
0
0 0
_
= D
r
.
3.5 quivalenz und hnlichkeit von Matrizen 69
Sind nun P und Q die Matrizen der Basiswechsel A A
bzw. B B
, dann ist
A
(A
, B
) = Q
1
AP nach Satz 3.3.9. Also sind Aund D
r
quivalent.
(b) Sind die Matrizen A und B quivalent, so ist rg(A) = rg(B) nach Hilfs-
satz 3.4.3 und Satz 3.4.4. Haben umgekehrt die Matrizen Aund Bden gleichen Rang
r, dann existieren nach (a) invertierbare Matrizen P
1
, P
2
und Q
1
, Q
2
passender Gr-
e derart, da Q
1
1
AP
1
= D
r
= Q
1
2
BP
2
. Daher ist Q
2
Q
1
1
AP
1
P
1
2
= B, und
Aund B sind quivalent.
(c) folgt unmittelbar aus (b) und Folgerung 3.4.8.
3.5.4 Denition. Zwei n n-Matrizen A und B heien hnlich, wenn es eine in-
vertierbare n n-Matrix P gibt mit B = P
1
AP.
3.5.5 Bemerkungen.
(a) Zwei nn- MatrizenAundBsindhnlich, wennsie hinsichtlichzweier Basen
A und B von V = F
n
dieselbe lineare Abbildung von V beschreiben. Dies
folgt unmittelbar aus Satz 3.3.9 und Satz 3.2.1. Ist A = A
(A, A) und B =
A
= Hom
F
(V, F) der
Dualraum von V. Fr jede endliche Basis B von V wird die duale Basis B
in V
konstruiert.
Im folgenden sind V und W zwei beliebige Vektorrume ber dem Krper F,
und Hom
F
(V, W) ist die Menge aller linearen Abbildungen : V W.
3.6.1 Satz. Hom
F
(V, W) ist ein F-Vektorraum bezglich der linearen Operationen
+ und , die wie folgt deniert sind:
(a) Fr alle , Hom
F
(V, W) sei die Summe + erklrt durch
( +)(v) = (v) +(v) fr alle v V.
(b) Fr alle Hom
F
(V, W) und f F sei f die Abbildung
( f )(v) = (v) f fr alle v V.
Beweis: Zunchst ist zu zeigen, da + und f lineare Abbildungen sind.
Dazu whlen wir Vektoren v
1
, v
2
V und einen Skalar a F. Nach (a) und
Denition 3.2.2 gilt dann
( +)(v
1
+v
2
) = (v
1
+v
2
) +(v
1
+v
2
)
= (v
1
) +(v
2
) +(v
1
) +(v
2
)
= (v
1
) +(v
1
) +(v
2
) +(v
2
)
= ( +)(v
1
) +( +)(v
2
).
( +)(va) = [( +)v]a. Ebenso zeigt man
( f )(v
1
a) = (v
1
a) f = (v
1
) a f = (v
1
) f a Weiter folgt
= [ (v
1
) f ] a = [( f )(v
1
)] a,
weil F kommutativ ist. Auerdem gilt ( f )(v
1
+v
2
) = ( f )(v
1
) +( f )(v
2
),
wie man leicht nachrechnet. Daher sind + und f lineare Abbildungen von V
in W.
W ist einVektorraum. Deshalb ist es nun einfach, dieAxiome der Denition 1.5.1
fr Hom
F
(V, W) nachzuweisen. Insbesondere folgt unmittelbar, da Hom
F
(V, W)
bezglich + eine abelsche Gruppe mit der Nullabbildung als Nullelement ist. Sind
f, g F und Hom
F
(V, W), so gilt fr alle v V die Gleichung
[ (fg)] (v) = (v)(fg) = [(v)f ] g = [( f )(v)] g = [( f ) g] (v).
3.6 Abbildungsrume und Dualraum 71
Also ist (fg) = ( f ) g. Weiter gilt
[ (f +g)] (v) = (v)(f +g) = (v) f +(v)g
= ( f )(v) +( g)(v)
= [( f ) +( g)] (v).
Also ist (f +g) = f + g. Analog zeigt man das zweite Distributivgesetz
( + ) f = f + f . Da die 1 F jeden Vektor w W festlt, folgt
( 1)(v) = (v) 1 = (v) fr alle v V. Also ist 1 = . Nach Denition 1.5.1
ist Hom
F
(V, W) ein F-Vektorraum.
3.6.2 Folgerung. Fr jeden F-Vektorraum V ist E = Hom
F
(V, V) ein Ring mit
der Hintereinanderausfhrung als Multiplikation. Die identische Abbildung id ist
das Einselement des Endomorphismenrings E = End
F
(V).
Beweis: Nach Satz 3.6.1 ist E = Hom
F
(V, V) ein F-Vektorraum. Die Hinterein-
anderausfhrung zweier linearer Abbildungen , Hom
F
(V, V) ist nach
Bemerkung 3.2.3 (c) eine F-lineare Abbildung von V in V. Sie deniert wegen Be-
merkung 3.2.3 (d) auf E eine assoziative Multiplikation. Die identischeAbbildung id
ist das Einselement von E. Nach Denition 1.4.1 gengt es daher, die Distributivitt
der Multiplikation nachzuweisen. Dazu whlen wir drei Elemente , , E und
einen beliebigen Vektor v V. Nach Satz 3.6.1 gilt dann
_
( +)
_
(v) = [ +] (v) = ( (v)) + ( (v)) = [( ) +( )](v).
Also ist ( +) = + . Ebenso zeigt man ( + ) = + .
3.6.3 Denition. Sei V ein F-Vektorraum. Jedes Element E = End
F
(V) wird
ein Endomorphismus von V genannt. Ein bijektiver Endomorphismus E heit
Automorphismus von V. Die Menge GL(V) aller Automorphismen von V ist eine
Gruppe mit der Identitt id als Einselement. Sie heit Automorphismengruppe oder
generelle lineare Gruppe von V.
3.6.4 Satz. Sind V und W zwei endlich-dimensionale F-Vektorrume der Dimen-
sionen dimV = n und dimW = m, dann gelten:
(a) dimHom
F
(V, W) = m n,
(b) Hom
F
(V, W)
= Mat
m,n
(F),
wobei Mat
m,n
(F) den F-Vektorraum aller mn-Matrizen ber F bezeichnet.
Beweis: (a) folgt aus (b). Denn nach Satz 3.6.1 und Satz 3.1.6 gilt
dimHom
F
(V, W) = dimMat
m,n
(F) = m n.
72 3 Lineare Abbildungen und Matrizen
(b) Sei A = {v
1
, v
2
, . . . , v
n
} eine Basis von V und B = {w
1
, w
2
, . . . , w
m
}
eine Basis von W. Dann gibt es nach Denition 3.3.1 zu jedem Hom
F
(V, W)
genau eine m n-Matrix A
eine Abbildung :
Hom
F
(V, W) Mat
m,n
(F) deniert wird. Wegen Satz 3.2.1 ist surjektiv und
auch injektiv, weil A
= (a
ij
) und A
= (b
ij
) sind durch
(v
j
) =
m
i=1
w
i
a
ij
, (v
j
) =
m
i=1
w
i
b
ij
, j = 1, 2, . . . , n
bestimmt. Es folgt
( +)(v
j
) = (v
j
) +(v
j
) =
m
i=1
w
i
(a
ij
+b
ij
).
Daher ist A
+
= A
+A
, d. h. ( +) = () +().
Fr jedes f F ist ( f )(v
j
) =
_
m
i=1
w
i
a
ij
_
f =
m
i=1
w
i
(a
ij
f ), d. h.
A
f
= (a
ij
f ) = A
(B, B) = A
= Hom
F
(V, F) ein F-Vektorraum.
3.6.7 Denition. Der Vektorraum V
= Hom
F
(V, F) heit der duale Vektorraum
des F-Vektorraums V. Die Elemente V
deniert durch
i
(v
j
) =
_
1 falls i = j,
0 falls i = j,
j = 1, 2, . . . , n.
Dann ist B
= {
1
,
2
, . . . ,
n
} eine Basis von V
, und es gilt
dim
F
V
= n = dim
F
V.
Beweis: Sei V
. Dann ist (v
i
) = f
i
F fr i = 1, 2, . . . , n. Sicherlich ist
auch
=
1
f
1
+
2
f
2
+ +
n
f
n
V
. Nun gilt
(v
j
) =
_
n
i=1
i
f
i
_
(v
j
) =
n
i=1
_
i
(v
j
)
_
f
i
=
j
(v
j
)f
j
= 1(v
j
) = (v
j
)
fr j = 1, 2, . . . , n. Alsoist =
n
i=1
i
f
i
, undB
ist einErzeugendensystem
von V
.
Angenommen,
n
i=1
i
t
i
= 0 fr t
i
F. Dann ist
0 = 0(v
j
) =
_
n
i=1
i
t
i
_
(v
j
) =
j
(v
j
) t
j
= 1 t
j
= t
j
fr j = 1, 2, . . . , n. Also sind die Vektoren
i
V
ist
eine Basis von V
.
74 3 Lineare Abbildungen und Matrizen
3.6.9 Denition. Die in Satz 3.6.8 konstruierte Basis B
= {
1
,
2
, . . . ,
n
} des
dualen Vektorraums V
= V
, wobei V
= Hom
F
(V
, F) ist.
Dies gilt nicht fr unendlich-dimensionale Vektorrume. Hierzu wird auf Aufga-
be 3.17 verwiesen. Andererseits lt sich im unendlich-dimensionalen Fall der Vek-
torraum V wenigstens in V
injektiv einbetten:
Jeder Vektor v V bestimmt eindeutig die durch
v
() = (v) denierte
Linearform
v
V
, denn es gilt ja
v
( + ) = ( + )v = (v) + (v) =
v
() +
v
() und
v
(c) = (c)v = ((v))c = (
v
())c fr alle , V
)) =
v+v
() = (v +v
) = (v) +(v
) =
v
() +
v
() = ((v) + (v
)) fr alle V
folgt (v + v
) = (v) + (v
).
Entsprechend ergibt sich (v c) = ((v)) c, d. h. ist eine lineare Abbildung.
Aus (v) = o V
folgt ((v)) =
v
() = (v) = o fr alle V
. Da es
aber zu v = 0 ein mit (v) = 1 gibt, mu sogar v = 0 erfllt sein. Damit ist
auch injektiv. Man nennt die natrliche Injektion von V in V
.
3.6.11 Denition. Sei U ein Unterraum des F-Vektorraumes V. Dann ist
U
= { V
| (u) = 0 fr alle u U}
ein Unterraum des dualen Vektorraums V
genannt wird.
3.6.12 Satz. Sei U ein r-dimensionaler Unterraum des n-dimensionalen F-Vektor-
raumes V. Dann gelten:
(a) Das orthogonale Komplement von U ist ein (nr)-dimensionaler Unterraum
von V
.
(b) U
= {v V | (v) = 0 fr alle U
} = U.
Beweis: (a) Sei {u
1
, u
2
, . . . , u
r
} eine Basis von U. Nach Satz 2.2.15 lt sie sich zu
einer Basis B = {u
1
, u
2
, . . . , u
r
, u
r+1
, . . . , u
n
} von V erweitern. Ihre duale Basis
B
= {
1
,
2
, . . . ,
n
} ist nach Satz 3.6.8 die Menge der Linearformen
i
mit
i
(u
j
) =
_
1 falls i = j,
0 falls i = j.
3.7 Matrizen und direkte Zerlegung 75
Also sind die n r linear unabhngigen Linearformen
r+1
,
r+2
, . . . ,
n
in
U
und (u
i
) = f
i
F fr i = 1, 2, . . . , n.
Dann ist =
n
i=1
i
f
i
nach Satz 3.6.8, und fr j = 1, 2, . . . , r gilt 0 =
(u
j
) =
n
i=1
i
(u
j
)f
i
=
j
(u
j
)f
j
= f
j
. Also ist =
n
i=r+1
i
f
i
, und
{
r+1
,
r+2
, . . . ,
n
} ist eine Basis von U
= n r.
(b) Nach Denition von U
und alle u U.
Also ist U U
und seine
Basis B
an, dann ist B nach Bemerkung 3.6.10 die duale Basis von B
in V
= V.
Wegen (a) gilt dann dim(U
) = n dimU
= n (n r) = r. Daher ist
U = U
des Dualraums V
2
U
1
folgt.
Beweis: Ergibt sich sofort aus Satz 3.6.12 (a) und (b), wobei die endlich-
dimensionalen Vektorrume V und V
(A, A) = (a
ij
) von bezglich der Basis A gegeben durch die n-Gleichungen
(u
j
) =
n
i=1
u
i
a
ij
, j = 1, 2, . . . , n.
Es werden nun die Beziehungen zwischen der Matrizendarstellung A
(A, A) des
Endomorphismus von V und den direkten Zerlegungen V = U
1
U
2
U
t
von V in -invariante Unterrume U
i
beschrieben.
3.7.1 Denition. Ist ein Endomorphismus des F-Vektorraums V und U ein Un-
terraum von V, so heit U genau dann -invariant , wenn (U) U.
3.7.2 Denition. Sei ein Endomorphismus des n-dimensionalen F-Vektorraums
V. Ist U ein -invarianter Unterraum von V, dann ist die Einschrnkung
|U
von
auf U deniert durch
|U
(u) = (u) fr alle u U.
76 3 Lineare Abbildungen und Matrizen
Da U -invariant ist, ist
|U
ein Endomorphismus des Unterraums U.
Bezeichnung:
|U
3.7.3 Satz. Sei ein Endomorphismus des Vektorraums V und sei
V = U
1
U
2
U
t
eine direkte Zerlegung von V in -invariante Unterrume U
s
= {o}, 1 s t . Sei
s
=
|U
s
die Einschrnkung von auf den k
s
-dimensionalen Unterraum U
s
und
B
s
= {u
i
|k
1
+k
2
+ +k
s1
< i k
1
+k
2
+ +k
s
}
eine Basis von U
s
fr s = 1, 2, . . . , t . Dann gelten die folgenden Aussagen:
(a) B =
t
s=1
B
s
ist eine Basis des Vektorraums V.
(b) Ist A
s
= A
s
(B
s
, B
s
) die k
s
k
s
-Matrix des Endomorphismus
s
von U
s
bezglich der Basis B
s
fr s = 1, 2, . . . , t , dann ist die Matrix A
(B, B) des
Endomorphismus von V bezglich der Basis B die diagonale Blockmatrix
A
(B, B) =
_
_
_
_
_
_
_
_
A
1
0 0
0 A
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
t 1
0
0 0 A
t
_
_
_
_
_
_
_
_
.
Beweis: (a) folgt unmittelbar aus Satz 2.3.6 und Folgerung 2.2.14.
(b) Fr alle s = 1, 2, . . . , t sei z
s
=
s
q=1
k
q
, und fr s = 0 sei z
0
= 0. Da die
direkten Summanden U
s
von V -invariant sind, gilt fr alle s = 1, 2, . . . , t und j
mit z
s1
+1 j z
s
, da
(u
j
) =
s
(u
j
) =
z
s
i=z
s1
+1
u
i
a
ij
U
s
fr eindeutig bestimmte Krperelemente a
ij
F gilt. Nach Denition 3.3.1 folgt
daher die Behauptung.
3.8 Aufgaben
3.1 Sei a F
n
. Zeigen Sie, da fr das Skalarprodukt a b = 0 fr alle b F
n
genau dann
gilt, wenn a = o.
3.2 Sei A =
_
1 2
0 1
_
.
3.8 Aufgaben 77
(a) Berechnen Sie A
20
mit mglichst wenigen Rechenschritten.
(b) Bestimmen Sie A
n
fr eine beliebige natrliche Zahl n.
3.3 Seien A, B zwei n n-Matrizen ber dem Krper F.
(a) Zeigen Sie: Ist A
2
= A, dann ist (AB ABA)
2
= 0.
(b) Folgt BA = 0 aus AB = 0? Wenn nein, geben Sie ein Gegenbeispiel an.
3.4 Seien A und B beide 3 5-Matrizen vom Rang 2. Beweisen Sie die Existenz eines
Vektors o = v F
5
mit A v = B v = o F
3
.
3.5 Die Spur einer nn-Matrix A = (a
ij
) ist das Krperelement tr(A) = a
11
+a
22
+ +
a
nn
F. Beweisen Sie fr alle n n-Matrizen A, B die Gltigkeit folgender Gleichungen:
(a) tr(A+B) = tr (A) +tr(B).
(b) tr(Ac) = tr(A) c.
(c) tr(AB) = tr(BA).
(d) Zu jeder n n-Matrix Aexistiert ein a F derart, da tr(B) = 0 fr B = AE
n
a
gilt, sofern n 1 = 0 in F ist.
3.6 Im Q
3
seien
A = {(1, 2, 3), (4, 5, 6), (7, 8, 0)} und
B = {(1, 1, 1), (1, 0, 1), (1, 1, 0)}.
Sei (a, b, c) = (4a 2b +7c, a +7b +c, 4a +4b +c) 1/3.
(a) Zeigen Sie, da A und B Basen von Q
3
sind.
(b) Berechnen Sie die Matrix des Basiswechsels von A nach B.
(c) Berechnen Sie A
(A, A) und A
(B, B).
3.7 Sei V = F
n
[X] der F-Vektorraum aller Polynome p(X) = p
0
+ p
1
X + + p
n
X
n
vom Grad p(X) n. Zeigen Sie, da auf V durch p(X) Xp
n
i=1
i
a
i
X
i1
. Sei B = {1, X, . . . , X
n
} die natrliche Basis von V. Berechnen Sie A
(B, B).
3.8 Sei V = F
n1
[X] der Vektorraum aller Polynome p(X) F[X] vom Grad p(X)
n 1. Sei A = {G
i
(X) | i = 1, 2, . . . , n} die Basis von V aus Aufgabe 2.8 (a) und B =
{1, (X a), . . . , (X a)
n1
}, a F fest gewhlt, die Basis von V aus Aufgabe 2.8 (c).
Berechnen Sie die Matrix P = (p
ij
) des Basiswechsels von A nach B.
3.9 Es seien U, V, W, X Vektorrume ber dem Krper F und : U V, : V W,
: W X lineare Abbildungen. Zeigen Sie:
(a) Im() ist ein Unterraum von Im().
(b) Sei W
0
ein Komplement von Im() in Im(). Dann gilt Im() = Im() + W
0
.
78 3 Lineare Abbildungen und Matrizen
(c) Es gilt dimIm() + dimIm() dimIm() + dimIm() (Frobenius-
Ungleichung).
3.10 Es sei Aeine nn-Matrix ber dem Krper F. Dann heit Anilpotent, falls ein k N
existiert, so da A
k
= 0. Die kleinste Zahl k mit A
k
= 0 heit der Nilpotenz-Index von A.
(a) Zeigen Sie, da der Nilpotenz-Index einer nilpotenten n n-Matrix A kleiner oder
gleich n ist.
(b) Bestimmen Sie den Nilpotenz-Index der Matrix A = (a
ij
) mit a
ij
= 1 falls j = i +1
und a
ij
= 0 falls j = i +1.
(c) Zeigen Sie, da fr jedes 1 k n eine n n-Matrix A mit Nilpotenz-Index k
existiert.
3.11
(a) Es seien A und B zwei kommutierende nilpotente Matrizen. Zeigen Sie: A + B ist
nilpotent.
(b) Man gebe zwei nilpotente 2 2-Matrizen Aund B an, fr die A+B nicht nilpotent
ist.
(c) Es sei Aeine nilpotente nn-Matrix. Zeigen Sie: Ist B = E
n
a
0
+Aa
1
+ +A
m
a
m
,
dann ist B genau dann invertierbar, wenn a
0
= 0.
3.12 Sei F
n
[X] der Vektorraum {p(X) = a
n
X
n
+ + a
0
| a
i
F} der Polynome vom
Grad n ber dem Krper F. Die Abbildung von F
n
[X] sei deniert durch (p(X)) :=
d
dX
_
X
n
p
_
1
X
__
fr p(X) F
n
[X]. Zeigen Sie:
(a) (p(X)) F
n
[X] fr p(X) F
n
[X].
(b) ist eine lineare Abbildung. Bestimmen Sie die Matrix A
(B, B
) =
_
_
2 1 3 4
1 6 4 9
5 12 2 9
_
_
zugeordnet. Ferner seien (3, 2, 1, 1), (1, 0, 2, 3), (2, 5, 5, 0) die Koordinaten von Vek-
toren v
1
, v
2
, v
3
aus V.
(a) Bestimmen Sie eine Basis von Ker .
(b) Wie lauten die Koordinaten der Bildvektoren v
1
, v
2
, v
3
hinsichtlich der gegebenen
Basis B
von W?
(c) Welche Dimension besitzt der von v
1
, v
2
, v
3
aufgespannte Unterraum U von V, und
welche Dimension besitzt sein Bild U?
3.14 Zeigen Sie: Zu jedem UnterraumU des Vektorraums F
n
existiert ein homogenes linea-
res Gleichungssystem (H) A x = o mit einer n n-Matrix A = (a
ij
), a
ij
F, derart, da
U die Lsungsgesamtheit von (H) ist.
3.8 Aufgaben 79
3.15 Es seien und zwei lineareAbbildungen des F-Vektorraums V in den F-Vektorraum
W mit dimV = m und dimV = n. Zeigen Sie:
|mn| rg( +) m+n.
3.16 Unter dem Zentrum einer Gruppe G versteht man die Menge aller Gruppenelemente z,
die mit jedem anderen Gruppenelement vertauschbar sind, die also die Gleichung az = za fr
alle a G erfllen. Zeigen Sie: Das Zentrum der linearen Gruppe GL(n, F) besteht genau
aus allen n-reihigen invertierbaren Matrizen der Form
E
n
c =
_
_
_
_
_
c
c
.
.
.
c
_
_
_
_
_
mit c = 0.
3.17 Es sei V ein unendlich-dimensionaler Vektorraum, und {v
= 0 ( = , A) und
= 1 eine Linearform
deniert.
(a) Zeigen Sie, da die Teilmenge {
| A} von V
deniert.
Zeigen Sie, da nicht als Linearkombination der Menge {
| A} dargestellt
werden kann. Folgern Sie, da {
ist.
(c) Folgern Sie, da die in Bemerkung 3.6.10 eingefhrte natrliche Injektion : V
V
ist.
3.18 Es sei U ein Unterraumvon V, C ein Komplement von U in V und U
das orthogonale
Komplement von U in V
. Zeigen Sie:
C
= U
.
3.19 Sei End
F
(V) mit eindimensionalem Bildraum Im(). Zeigen Sie:
a) Im() ist ein -invarianter Unterraum von V.
b) Es gibt genau ein f F mit
2
= f .
4 Gau-Algorithmus und lineare Gleichungssysteme
Die imdritten Kapitel gewonnenen Resultate ber lineareAbbildungen und Matrizen
nden nun Anwendung in der Theorie der linearen Gleichungssysteme. Dabei wird
hier der Schwerpunkt auf die Behandlungder effektivenAlgorithmenzur Berechnung
der Lsungsgesamtheit eines solchen Gleichungssystems gelegt.
Deshalb wird im ersten Abschnitt dieses Kapitels der Gau-Algorithmus fr
die Bestimmung des Ranges r(A) einer m n-Matrix A und der Gau-Jordan-
Algorithmus zur Berechnung der Treppennormalformvon Aausfhrlich dargestellt.
Mit diesen Algorithmen wird im zweiten Abschnitt die Konstruktion der L-
sungsgesamtheit eines linearen Gleichungssystems beschrieben. Sie ndet Anwen-
dung bei der Beschreibung eines Verfahrens fr die Berechnung der Inversen einer
quadratischen Matrix.
4.1 Gau-Algorithmus
In diesemAbschnitt werden efzienteAlgorithmen zumBerechnen des Ranges r(A)
und der Treppennormalform einer mn-Matrix Adargestellt.
4.1.1 Denition. Die m n-Matrix A = (a
ij
) mit den Zeilenvektoren z
i
ist in
Treppenform, falls A die Nullmatrix 0 ist oder ein r mit 1 r m und eine Folge
1 j
1
< j
2
< < j
r
n existieren mit folgenden Eigenschaften:
(a) Wenn i > r, dann ist z
i
= o.
(b) Wenn 1 i r und k < j
i
, dann ist a
ik
= 0.
(c) Fr alle i mit 1 i r ist a
ij
i
= 0.
4.1.2 Bemerkung. Die Bedingungen 4.1.1(b) und (c) besagen, da fr i r der
erste von Null verschiedene Eintrag der i-ten Zeile in der j
i
-ten Spalte von Asteht.
Wegen j
i
< j
i+1
wandern diese
m
s=1
z
s
u
rs
die r-te Zeile von U A, denn die t -te Komponente dieses Vektors ist
m
s=1
u
rs
a
st
, also der Eintrag an der Stelle (r, t ) in U A. Nach Bemerkung 4.1.12
kennt man u
rs
. Durch Einsetzen der jeweiligen Werte von u
rs
folgt fr jeden der
drei Typen elementarer Umformungen die Behauptung. Dies wird hier nur explizit
durchgefhrt fr die Zeilenvertauschung ZV(i, j).
u
rs
=
_
1 falls r = s = i, j oder r = i, s = j oder r = j, s = i,
0 sonst.
Die r-te Zeile von U A = ZV
i,j
Aist also
z
r
, falls r = i, j,
z
j
, falls r = i,
z
i
, falls r = j.
Die Behauptung folgt in diesem Fall.
4.1.14 Bemerkung. Bemerkung 4.1.12 und Satz 4.1.13 gelten analog fr Spal-
tenumformungen und die zugehrigen elementaren Matrizen, wenn man das Produkt
U Adurch A Uersetzt. Dies folgt sofort aus den Stzen 4.1.13 und 3.1.28.
4.1.15 Folgerung. (a) Die Elementarmatrizen sind invertierbar.
(b) Ihre Inversen sind Elementarmatrizen.
(c) Elementare Umformungen ndern den Rang einer Matrix nicht.
4.1 Gau-Algorithmus 85
Beweis: (a) und (b). Zur Vertauschung ZV(i, j) zweier Zeilen gehrt nach Bemer-
kung 4.1.12 die m m-Elementarmatrix ZV
i,j
. Wegen (ZV
i,j
)
2
= E
m
ist ZV
i,j
invertierbar. Sei a = 0. Dann ist nach Bemerkung 4.1.12(b) ZM
i,a
ZM
i,a
1 = E
m
.
Ebenso folgt ZA
i,j;a
ZA
i,j;a
= E
m
. Also sind alle m m-Elementarmatrizen
invertierbar, und ihre Inversen sind ebenfalls Elementarmatrizen.
(c) Nach Satz 4.1.13 und (a) entspricht eine elementare Umformung von A der
Linksmultiplikation mit einer invertierbaren Matrix U. Nach Folgerung 3.4.8 gilt
dann aber rg(UA) = rg(A).
Um den Rang einer m n-Matrix A zu berechnen, wendet man elementare
Umformungen nach dem folgenden Schema solange an, bis man A schlielich zu
einer Matrix in Treppenform umgeformt hat, der man ihren Rang dann ansieht.
4.1.16 Beispiel.
Umformung E
m
A
1 0 0 5 10 20 1000
0 1 0 1 1 1 100
0 0 1 12 12 20 1400
1 5 0 0 5 15 500
ZA(2, 1, 5) 0 1 0 1 1 1 100
0 0 1 12 12 20 1400
0 1 0 1 1 1 100
ZV(1, 2) 1 5 0 0 5 15 500
0 0 1 12 12 20 1400
0 1 0 1 1 1 100
ZA(1, 3, 12) 1 5 0 0 5 15 500
0 12 1 0 0 8 200
U T
T ist eine Treppenform von A. Weiter ist Udas Produkt der Elementarmatrizen,
die zu den 3 elementaren Umformungen gehren. Es folgt
UA =
_
_
0 1 0
1 5 0
0 12 1
_
_
_
_
5 10 20 1000
1 1 1 100
12 12 20 1400
_
_
=
_
_
1 1 1 100
0 5 15 500
0 0 8 200
_
_
= T ,
und rg(A) = rg(T ) = 3.
Der folgende Algorithmus von C. F. Gau beschreibt ein efzientes Verfahren
zur Berechnung einer TreppenformT (A) zu einer mn-Matrix Amittels elemen-
tarer Zeilenumformungen. Bei seiner Formulierung wird die inzwischen bliche Be-
zeichnungsweise fr die Darstellung von Algorithmen und Computer-Programmen
benutzt.
86 4 Gau-Algorithmus und lineare Gleichungssysteme
4.1.17 Algorithmen-Konvention. Wendet man auf die Koefzienten a
ij
einer
m n-Matrix A = (a
ij
) einen Umformungsschritt eines Algorithmus an, bei dem
a
ij
in ein Element b
ij
bergeht, dann wird das Endergebnis (b
ij
) dieses Schrittes
wiederum mit A = (a
ij
) bezeichnet. Auf diese neue Matrix A wird der nchste
Schritt des Algorithmus mit der gleichen Konvention angewendet.
Diese Festlegung macht die Abfassung der Algorithmen sehr einfach. Deshalb
wird sie bei allen in diesem Buch dargestellten Algorithmen verwendet.
4.1.18 Algorithmus (Gau). Jede m n-Matrix A = (a
ij
) mit Zeilenvektoren z
i
und Spaltenvektoren s
j
wird durch folgenden Algorithmus in eine m n-Matrix
umgeformt, die mit T (A) bezeichnet wird. Wenn A die Nullmatrix ist, bricht der
Algorithmus ab. Andernfalls wende man folgende Schritte an:
Sei r = 1.
1. Schritt: Sei s
j
r
der erste Spaltenvektor von A, der ab der r-ten Zeile z
r
nicht nur Komponenten gleich Null hat. Dazu gibt es einen ersten Zeilenvektor
z
i
= (a
i1
, . . . , a
ij
r
, . . . , a
in
) mit i r und a
ij
r
= 0. Vertausche z
r
mit diesem
Zeilenvektor z
i
. In der neuen Matrix A = (a
ij
) gilt a
rj
r
= 0.
2. Schritt: Fr jedes i > r wende die Zeilenoperation an, die z
i
durch z
i
z
r
a
ijr
a
rjr
ersetzt.
3. Schritt: Gibt es in der Matrix Anoch einen Spaltenvektor, der ab der (r +1)-
ten Zeile nicht nur Komponenten gleich Null hat, so ersetze man r durch r +1 und
wiederhole die Schritte 1 bis 3. Andernfalls bricht der Algorithmus ab.
4.1.19 Satz. (a) Wendet man den Gau-Algorithmus auf eine m n-Matrix A =
(a
ij
) mit Koefzienten a
ij
aus dem Krper F an, so erhlt man nach sptestens 3m
Schritten eine Matrix T (A) in Treppenform.
(b) Der Gau-Algorithmus erhlt denRangeiner Matrix, d. h. rg(T (A)) = rg(A).
Beweis: (a) folgt unmittelbar aus demAlgorithmus.
(b) folgt aus Folgerung 4.1.15, da nur elementare Zeilenumformungen angewen-
det werden.
4.1.20 Beispiel. Sei
A =
_
_
_
_
0 0 1 1 2
0 2 3 7 8
0 4 1 9 6
0 6 4 8 2
_
_
_
_
.
Zunchst ist r = 1 und j
1
= 2, da dies die erste Spalte = o ist. Dann ist i = 2,
da in der zweiten Spalte der zweite Eintrag der erste von Null verschiedene Eintrag
4.1 Gau-Algorithmus 87
ist. Also ist a
ij
r
= a
22
= 2. Im zweiten Schritt werden die r-te und die i-te Zeile
vertauscht, also die erste und die zweite Zeile. Dann erhlt man
A =
_
_
_
_
0 2 3 7 8
0 0 1 1 2
0 4 1 9 6
0 6 4 8 2
_
_
_
_
.
Anschlieend subtrahiert man
_
1
2
z
1
_
a
j2
von z
j
fr j = 2, 3, 4 und erhlt
A =
_
_
_
_
0 2 3 7 8
0 0 1 1 2
0 0 5 5 10
0 0 13 13 22
_
_
_
_
.
Es gibt noch Spalten, die ab der zweiten Stelle nicht nur Nullen enthalten. Daher
setzt man jetzt r = 2. Die erste Spalte, die ab der zweiten Stelle noch Elemente = 0
enthlt, ist die dritte, also ist j
2
= 3. Das erste Element = 0 ab dieser Stelle in dieser
Spalte ist a
23
= 1, also ist i = 2 = r. Vertauschen der i-ten mit der r-ten Zeile ndert
also die Matrix nicht. Anschlieend subtrahiert man z
2
a
j3
von z
j
fr j = 3, 4 und
erhlt
A =
_
_
_
_
0 2 3 7 8
0 0 1 1 2
0 0 0 0 0
0 0 0 0 4
_
_
_
_
.
Es gibt noch Spalten, die ab der dritten Stelle nicht nur Nullen enthalten. Daher setzt
man r = 3. Die erste solche Spalte ist die fnfte, also ist j
r
= 5. Das kleinste i 3
mit a
i5
= 0 ist i = 4. Vertauschung der dritten und vierten Zeile ergibt
T (A) =
_
_
_
_
0 2 3 7 8
0 0 1 1 2
0 0 0 0 4
0 0 0 0 0
_
_
_
_
.
Hier endet der Algorithmus.
Die Bedeutung des Gau-Algorithmus liegt darin, da damit ein Verfahren be-
schrieben ist, welches stets zu einer Matrix in Treppenform fhrt. Auerdem ist er
leicht zu programmieren.
4.1.21 Bemerkung. Bei der Beschreibung des GauschenAlgorithmus wurden ele-
mentare Zeilenumformungen des zweiten Typs, nmlich Multiplikation einer Zeile
mit einem Skalar, nicht bentigt. Dies wird sich beim Berechnen von Determinanten
als ntzlich erweisen.
88 4 Gau-Algorithmus und lineare Gleichungssysteme
4.1.22 Denition. Sei A = (a
ij
) eine m n-Matrix und a
rs
= 0 fr ein r mit
1 r m und ein s mit 1 s n. Seien z
i
, i = 1, . . . , m, die Zeilenvektoren von
A. Dann nennt man die folgende Matrizenumformung Zeilenpivotierung von A an
der Pivotstelle (r, s):
(a) Man multipliziert die r-te Zeile z
r
mit 1/a
rs
, d. h. man ersetzt z
r
durch
z
r
(a
rs
)
1
.
(b) Fr k = 1, . . . , m, k = r ersetzt man die k-te Zeile z
k
durch z
k
z
r
a
ks
.
Analog erklrt man die Spaltenpivotierung.
Bezeichnung: zpivot (A, i, j) Zeilenpivotierung an der Pivotstelle (i, j).
spivot (A, i, j) Spaltenpivotierung an der Pivotstelle (i, j).
4.1.23 Bemerkung. Aus (a) und (b) folgt, da die durch Zeilenpivotierung aus A
hervorgegangene Matrix B = (b
ij
) in der s-ten Spalte bis auf die Komponente
b
rs
nur aus Nullen besteht und b
rs
= 1 ist. Also ist die s-te Spalte gleich dem
Einheitsvektor e
r
.
4.1.24 Beispiel. Wir fhren die Zeilenpivotierung der folgenden Matrix A an der
Pivotstelle (3, 3) durch:
A =
_
_
1 2 1
3 0 1
0 1 2
_
_
ZM(3;
1
2
)
_
_
1 2 1
3 0 1
0 1/2 1
_
_
ZA(3, 1; 1)
_
_
1 5/2 0
3 0 1
0 1/2 1
_
_
ZA(3, 2; 1)
_
_
1 5/2 0
3 1/2 0
0 1/2 1
_
_
.
4.1.25 Denition. Eine mn-Matrix T = (t
ij
) ist in Treppennormalform, wenn T
die Nullmatrix ist oder ein r mit 1 r m und eine Folge 1 j
1
< < j
r
n
existieren derart, da folgendes gilt:
(a) Wenn i > r, dann ist t
ik
= 0 fr k = 1, . . . , n.
(b) t
ik
= 0 fr i = 1, . . . , r und k < j
i
.
(c) t
ij
i
= 1 fr i = 1, . . . , r.
(d) t
sj
i
= 0 fr i = 1, . . . , r und s = i.
4.1.26 Bemerkung. Die Bedingungen von Denition 4.1.25 (a) bis (c) besagen,
da T in Treppenform ist. Aus (c) und (d) folgt, da diese
fhren-
de Eins enthlt, sonst nur aus Nullen besteht; genauer ist die j
i
-te Spalte gerade
e
i
F
m
s
.
4.1 Gau-Algorithmus 89
4.1.27 Beispiele.
(a) Die Matrix
_
_
_
_
5 1 2 7 9 0 8
0 0 3 6 1 7 2
0 0 0 2 3 1 1
0 0 0 0 0 0 1
_
_
_
_
ist in Treppenform, aber nicht
in Treppennormalform.
(b) Die Matrix B =
_
_
_
_
1 2 0 1 0 2
0 0 1 5 0 2
0 0 0 0 1 7
0 0 0 0 0 0
_
_
_
_
ist in Treppennormalform.
4.1.28 Algorithmus (Gau-Jordan). Jede mn-Matrix A = (a
ij
) mit Zeilenvek-
toren z
i
, i = 1, . . . , m und Spaltenvektoren s
j
, j = 1, . . . , n wird durch folgenden
Algorithmus zu einer neuen mn-Matrix T umgeformt.
Wenn A die Nullmatrix ist, bricht der Algorithmus ab. Andernfalls wende man
folgende Schritte an:
Sei r = 1.
1. Schritt: Man suche den ersten Spaltenvektor s
j
r
von A, der ab der r-ten Stelle
nicht nur Komponenten gleich Null hat, d. h. a
kj
r
= 0 fr ein k mit r k m. Sei
ferner a
i
r
j
r
der erste von Null verschiedene Eintrag in s
j
r
mit i
r
r, d. h. a
i
r
j
r
steht
in der i
r
-ten Zeile z
i
r
von A.
2. Schritt: Nun vertausche man die r-te mit der i
r
-ten Zeile und fhre anschlie-
end zpivot [A, r, j
r
] durch. Dies erzeugt in der j
r
-ten Spalte Nullen, bis auf den
r-ten Eintrag in s
j
r
, der gleich 1 ist.
3. Schritt: Wenn es in der Matrix A noch einen Spaltenvektor gibt, der ab der
(r + 1)-ten Stelle nicht nur Komponenten gleich Null hat, so ersetze man r durch
r +1 und wiederhole die Schritte 1 bis 3. Sonst bricht das Verfahren jetzt ab.
4.1.29 Beispiel. Der Gau-Jordan Algorithmus wird nun angewendet auf die 3 4-
Matrix
A =
_
_
2 2 1 7
1 1 1 4
0 0 2 2
_
_
zpivot[A,1,1]
_
_
1 1 1/2 7/2
0 0 1/2 1/2
0 0 2 2
_
_
zpivot[A,2,3]
_
_
1 1 0 3
0 0 1 1
0 0 0 0
_
_
= T .
T ist in Treppennormalform.
90 4 Gau-Algorithmus und lineare Gleichungssysteme
Die berfhrung einer gegebenen Matrix in eine Treppenmatrix mit Hilfe ele-
mentarer Zeilenumformungen ist, wie einfache Beispiele zeigen, keineswegs ein-
deutig. Anders liegen jedoch die Verhltnisse bei Treppennormalformen.
4.1.30 Satz. Zu jeder Matrix Agibt es genau eine Matrix T in Treppennormalform,
in die sich Amit elementaren Zeilenumformungen berfhren lt.
Beweis: Es sei A eine m n-Matrix mit den Spaltenvektoren s
1
, . . . , s
n
. Da die
Behauptung fr die Nullmatrix trivial ist, kann auerdem A = 0 vorausgesetzt
werden.
Wendet man den Gau-Jordan-Algorithmus auf A an, berfhrt er A mit ele-
mentaren Zeilenumformungen in eine TreppennormalformT , deren Existenz damit
gesichert ist. Zu beweisen ist nun noch die Eindeutigkeit von T .
Dazu sei U
j
= s
1
, . . . , s
j
fr j = 1, . . . , n, und U
j
sei der entsprechende
Spaltenraum von T . Ferner sei d
j
= dimU
j
und d
j
= dimU
j
. Da aber Zeilen-
umformungen die Spaltenrume nicht verndern, gilt U
j
= U
j
und d
j
= d
j
fr
j = 1, . . . , n. Also folgt r = rg(T ) = d
n
= d
n
= rg(A). Nun ist aber r die
Stufenzahl der TreppennormalformT , die hiernach eindeutig durch Abestimmt ist.
Mit den Bezeichnungen aus Denition 4.1.25 gilt weiter
d
1
= d
j
1
= = d
j
2
1
< d
j
2
= = d
j
3
1
< d
j
3
= < d
j
r
= = d
n
,
wobei sich die Dimensionen an den Stellen des <-Zeichens jeweils um Eins erh-
hen. Die Stellen dieser Dimensionssprnge, nmlich die Spaltenindizes j
1
, . . . , j
r
,
sind demnach ebenfalls durch A eindeutig festgelegt. Die ersten r Zeilen z
i
=
(z
i1
, . . . , z
in
) von T bilden eine Basis B
i
, nmlich wegen z
ij
i
= 1 und z
ij
s
= 0 fr s = i, ist P = (z
i
k
j
s
)
die Transformationsmatrix des Basiswechsels von B
1
, . . . , z
r
von T durch die inver-
se Matrix P
1
als Linearkombinationen der Zeilen z
i
1
, . . . , z
i
r
von A ausgedrckt
werden, ist schlielich T selbst durch Aeindeutig bestimmt.
4.2 Lsungsverfahren fr Gleichungssysteme
Jedes lineare Gleichungssystem mit mn-Koefzientenmatrix A, Unbestimmten-
vektor x und Konstantenvektor d F
m
hat die Form
A x = d. (G)
4.2 Lsungsverfahren fr Gleichungssysteme 91
4.2.1 Denition. Sei
A die m (n + 1)-Matrix, die aus A entsteht, indem man
den Vektor d als letzte Spalte zu Ahinzufgt, d. h.
A = (A, d).
Aheit erweiterte
Matrix des Gleichungssystems.
4.2.2 Beispiel. Das Gleichungssystem (G) A x = d mit
A =
_
_
5 10 20
1 1 1
12 12 20
_
_
und d =
_
_
1000
100
1400
_
_
hat die erweiterte Matrix
A =
_
_
5 10 20 1000
1 1 1 100
12 12 20 1400
_
_
.
4.2.3 Satz. Das lineare Gleichungssystem
A x = d (G)
hat genau dann eine Lsung, wenn die Koefzientenmatrix A und die erweiterte
Matrix
Avon (G) den gleichen Rang haben, d. h. rg(A) = rg(
A).
Beweis: Nach Satz 3.2.8 ist Im(A) der Spaltenraum von A. Das Gleichungssystem
(G) ist nach Satz 3.2.10 genau dann lsbar, wenn d Im(A). Nach Denition 4.2.1
ist diese Bedingung quivalent zu rg(A) = rg(
A).
Darf man ein gegebenes Gleichungssystem stets durch elementare Zeilenopera-
tionen umformen, ohne da sich die Lsungsgesamtheit des neu entstandenen Glei-
chungssystems von der des ursprnglichen Systems unterscheidet? Eine Antwort auf
diese Fragen geben die beiden folgenden Resultate.
4.2.4 Satz. Sei (G) A x = d ein lineares Gleichungssystem mit m Gleichungen.
Wenn S eine invertierbare m m-Matrix ist, dann hat (G
) S A x = S d die
gleichen Lsungen wie (G).
Beweis: Wenn u eine Lsung von (G) ist, dann ist A u = d, also S A u =
S d. Daher ist u eine Lsung von (G
). Wenn
B aus
Adurch endlich viele elementare Zeilen-
umformungen hervorgeht, dann haben (G) und (G
) dieselben Lsungen.
92 4 Gau-Algorithmus und lineare Gleichungssysteme
Beweis: Nach Satz 4.1.13 und Folgerung 4.1.15 werden elementare Zeilenumfor-
mungen durch Multiplikation von links mit einer invertierbaren Matrix bewirkt. Die
Behauptung folgt also aus Satz 4.2.4.
Nach Satz 4.1.30 geht die erweiterte Matrix
A des Gleichungssystems (G)
A x = d durch den Gau-Jordan-Algorithmus in eine Matrix
T ber, die in Trep-
pennormalform ist. Wegen Folgerung 4.2.5 erhlt man daher die Lsungsgesamtheit
von (G) durch den folgenden
4.2.6 Satz. Sei (G) ein lineares Gleichungssystem mit m n-Koefzientenmatrix
T , Unbestimmtenvektor x und Konstantenvektor d F
m
. Sei die erweiterte Matrix
von (G) eine m (n + 1)-Matrix
T = (t
ij
) in Treppennormalform derart, da die
fhrenden Einsen an den Stellen (i, j
i
) fr i = 1, . . . , r stehen. Dann gilt:
(a) Wenn die letzte Spalte von
T eine fhrende Eins enthlt, dann hat (G) keine
Lsung.
(b) Wenn die letzte Spalte von
T keine fhrende Eins enthlt, dann ist a =
(a
1
, . . . , a
n
), deniert durch
a
s
=
_
t
i,n+1
falls s = j
i
,
0 sonst
eine spezielle Lsung von (G). Auerdem erhlt man eine Basis des Lsungs-
raums des zugehrigen homogenen Systems (H) wie folgt: Fr jedes 1 k n
mit k = j
i
, i = 1, . . . , r, sei der Vektor b
k
= (b
1k
, . . . , b
nk
) F
n
deniert
durch
b
sk
=
_
_
_
t
ik
falls s = j
i
,
1 falls s = k,
0 sonst.
Dann ist {b
k
| 1 k n, k = j
i
fr i = 1, . . . , r} eine Basis des Lsungs-
raumes Ker(T ) von (H).
Beweis: (a) Enthlt die letzte Spalte von
T eine fhrende Eins, dann ist rg(
T ) =
1 +rg(T ). Also hat (G) keine Lsung nach Satz 4.2.3.
(b) Seien v
1
, . . . , v
n+1
die Spaltenvektoren von
T . Es ist nach Bemerkung 4.1.25
n
s=1
v
s
a
s
=
r
i=1
v
j
i
a
j
i
=
r
i=1
e
i
t
i, n+1
= v
n+1
.
Daraus folgt, da a eine spezielle Lsung von (G) ist. Fr jedes k mit 1 k n
und k = j
i
fr i = 1, . . . , r gilt
n
s=1
v
s
b
sk
= v
k
+
r
i=1
v
j
i
t
ik
= v
k
+
r
i=1
e
i
t
ik
= v
k
+v
k
= 0.
4.2 Lsungsverfahren fr Gleichungssysteme 93
Also sind alle b
k
Lsungen von (H). Wenn
n
k=1
k=j
1
,...,jr
b
k
a
k
= o
fr a
k
F, dann ist fr jedes q mit 1 q n und q = j
1
, . . . , j
r
auch
0 =
n
k=1
k=j
1
,...,jr
b
qk
a
k
= a
q
.
Daraus folgt, da alle a
k
= 0 sind, und somit sind die b
k
s linear unabhngig.
Da rg(
T ) = r, ist die Dimension des Lsungsraumes von (H) nach Satz 3.2.13
gleich dimKer(T ) = n dimIm(T ) = n r. Also bilden die b
k
s eine Basis des
Lsungsraumes Ker(T ) von (H) nach Folgerung 3.2.14.
Aus Folgerung 4.2.5 und Satz 4.2.6 ergibt sich folgendes Lsungsverfahren fr
lineare Gleichungssysteme.
4.2.7 Lsungsverfahren. Gegeben sei ein lineares Gleichungssystem(G) Ax = d
mit mn-Koefzientenmatrix A = (a
ij
), Unbestimmtenvektor x und Konstanten-
vektor d F
m
. Sei
A = (A, d) die zu (G) gehrige erweiterte Matrix. Dann
wendet man den Gau-Jordan-Algorithmus auf
A an und erhlt eine m (n + 1)-
Matrix
T = (t
ij
) in Treppennormalform mit fhrenden Einsen an den Stellen (i, j
i
),
i = 1, . . . , r.
1. Fall: Hat
T in der letzten Spalte eine fhrende Eins, so hat (G) keine Lsung.
2. Fall: Gibt es keine fhrende Eins in der letzten Spalte, so sieht
T wie folgt
aus:
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 0
j
1
1 t
1,j
1
+1
t
1,j
2
1
j
2
0 t
1,j
2
+1
j
r
0 t
1,j
r
+1
t
1,n+1
0 0 0 1 t
2,j
2
+1
0 t
2,j
r
+1
t
2,n+1
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
1 t
r,j
r
+1
t
r,n+1
0 0 0
.
.
.
.
.
.
0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
94 4 Gau-Algorithmus und lineare Gleichungssysteme
Nun fge man in die Matrix
T Nullzeilen so ein, da die fhrenden Einsen in der
neuen Matrix auf der Diagonalen stehen, d. h. sie stehen dann an der Stelle (j
i
, j
i
).
Durch weiteres Anhngen bzw. Streichen von Nullzeilen bringe man die neue Matrix
auf das Format n (n + 1). Dann ersetze man alle Nullen an der Stelle (k, k) mit
1 k n und k = j
1
, . . . , j
r
durch eine 1. Sei S die neu entstandene Matrix
mit den Spaltenvektoren s
1
, s
2
, . . . , s
n+1
. Dann ist s
n+1
eine spezielle Lsung von
(G), und die Vektoren s
k
fr 1 k n mit k = j
1
, . . . , j
r
bilden eine Basis des
homogenen Gleichungssystems (H) A x = 0 von (G). Nach Satz 3.2.9 folgt dann:
Die Menge L = {s
n+1
+
n
k=1
k=j
1
,...,jr
s
k
a
k
| a
k
F} ist die Lsungsgesamtheit
des Gleichungssystems (G).
4.2.8 Beispiel. Sei
A =
_
_
_
_
1 2 0 1 0 2
0 0 1 5 0 2
0 0 0 0 1 7
0 0 0 0 0 0
_
_
_
_
.
j=1
s
j
x
j
= s
n+1
.
Nun seien j
1
, . . . , j
r
wie in der Denition der Treppennormalform. Nach Bemer-
kung 4.1.23 ist dann s
j
i
= e
i
fr i = 1, . . . , r. Daher ist
_
_
_
x
j
1
.
.
.
x
j
r
_
_
_
=
r
i=1
s
j
i
x
j
i
= s
n+1
j=1
j=j
1
,...,jr
s
j
x
j
,
d. h. die x
j
i
s lassen sich durch die brigen x
j
s ausdrcken. Wenn die x
j
s in ei-
ner mathematischen Formel auftreten, dann kann man die x
j
i
s durch die entspre-
chenden Ausdrcke ersetzen und erhlt eine Formel, welche nur noch die x
j
s mit
j = j
1
, . . . , j
r
enthlt. Diesen Prozess nennt man Elimination.
Zur Berechnung der Inversen einer invertierbaren n n-Matrix kann der Gau-
Jordan-Algorithmus ebenfalls benutzt werden. Das entsprechende Berechnungsver-
fahren ergibt sich aus
4.2.10 Satz. Sei A eine n n-Matrix. Genau dann ist A ein Produkt von Elemen-
tarmatrizen, wenn rg(A) = n ist.
Beweis: Nach Folgerung 4.1.15 sind die nn-Elementarmatrizen invertierbar. Ist A
ein Produkt von Elementarmatrizen, so ist Aauch invertierbar. Daher ist rg(A) = n
nach Satz 3.4.9.
Sei umgekehrt rg(A) = n. Sei T die Treppennormalform von A. Nach Fol-
gerung 4.1.15 gilt rg(T ) = n. Daher ist T = E
n
die n n-Einheitsmatrix. Nach
Satz 4.1.13 lt sich T schreiben als T = X
1
. . . X
s
A = E
n
fr geeignete Element-
armatrizen X
i
, i = 1, . . . , s. Daher ist X
1
. . . X
s
= A
1
und A = X
1
s
. . . X
1
1
.
Also ist Aein Produkt von Elementarmatrizen nach Folgerung 4.1.15.
4.2.11 Berechnungsverfahren fr die Inverse einer Matrix. Sei A eine n n-
Matrix. Man bilde eine n 2n-Matrix K = (A, E
n
), indem man die n
n-Einheitsmatrix E
n
rechts an A anfgt. Nun wende man den Gau-Jordan-
Algorithmus auf die Matrix K an. Die dadurch entstehende n 2n-Matrix L ist
in Treppennormalform, und, falls Ainvertierbar ist, sind nach Satz 4.2.10 die ersten
n Spaltenvektoren von L die Spaltenvektoren der n n-Einheitsmatrix E
n
. Sei B
die Matrix, deren Spaltenvektoren die letzten n Spaltenvektoren von L sind. Dann
ist B = A
1
nach dem Beweis von Satz 4.2.10.
96 4 Gau-Algorithmus und lineare Gleichungssysteme
4.2.12 Beispiel. Die Inverse der 3 3-Matrix A =
_
_
1 2 1
1 1 1
1 1 1
_
_
wird gem
Verfahren 4.2.11 nach folgendem Schema berechnet.
Umformung A E
3
1 2 1 1 0 0
1 1 1 0 1 0
1 1 1 0 0 1
1 2 1 1 0 0
zpivot(1, 1) 0 1 0 1 1 0
0 1 2 1 0 1
1 0 1 1 2 0
zpivot(2, 2) 0 1 0 1 1 0
0 0 2 0 1 1
1 0 0 1
3
2
1
2
zpivot(3, 3) 0 1 0 1 1 0
0 0 1 0
1
2
1
2
E
3
A
1
Also ist A
1
=
_
_
1 3/2 1/2
1 1 0
0 1/2 1/2
_
_
.
4.3 Aufgaben
4.1 Berechnen Sie mit Hilfe elementarer Umformungen den Rang von
A =
_
_
_
_
2 3 4 3 18
6 18 4 22 6
4 12 6 8 6
6 18 6 42 36
_
_
_
_
.
4.2 Berechnen Sie den Zeilenrang von AB fr die Matrizen
A =
_
_
_
_
_
_
_
_
0 1 2 3 4 5
1 0 1 2 3 4
2 1 0 1 2 3
3 2 1 0 1 2
4 3 2 1 0 1
5 4 3 2 1 0
_
_
_
_
_
_
_
_
,
4.3 Aufgaben 97
B =
_
_
_
_
_
_
_
_
1 1 2 3 4 5
1 1 1 2 3 4
2 1 1 1 2 3
3 2 1 1 1 2
4 3 2 1 1 1
5 4 3 2 1 1
_
_
_
_
_
_
_
_
.
4.3 Im R
4
sei U der von den Vektoren
(1, 3, 5, 4), (2, 6, 7, 7), (0, 0, 1, 1), (1, 3, 1, 2)
und V der von den Vektoren
(1, 0, 2, 2), (0, 3, 3, 5), (5, 3, 6, 3), (6, 6, 5, 0)
erzeugte Unterraum. Berechnen Sie je eine Basis von U, V, U +V und U V.
4.4 Berechnen Sie mittels des Gau-Algorithmus eine Treppenform T (A) und mittels des
Gau-Jordan Algorithmus die Treppennormalform T der folgenden Matrix:
A =
_
_
_
_
_
_
1 3 4 0 2
2 5 7 1 0
1 2 3 0 0
3 8 11 4 0
3 8 11 1 2
_
_
_
_
_
_
.
4.5 Bestimmen Sie die Lsungsgesamtheit des folgenden linearen Gleichungssystems ber
den komplexen Zahlen:
2x
1
3x
2
7x
3
+5x
4
+2x
5
= 1
x
1
2x
2
4x
3
+3x
4
+x
5
= i
2x
1
4x
3
+2x
4
+x
5
= i
x
1
5x
2
7x
3
+6x
4
+2x
5
= 1.
4.6 Bestimmen Sie mit Hilfe eines Computeralgebrasystems die Lsungsgesamtheit des
folgenden linearen Gleichungssystems mit Koefzienten aus Q:
2x
2
+2x
3
+x
5
2x
6
3x
8
x
10
= 7
x
1
+x
2
2x
5
2x
6
+6x
8
+2x
9
= 5
x
1
+x
3
+x
4
+2x
6
3x
8
= 2
3x
1
6x
2
+9x
3
+x
5
10x
6
3x
8
3x
10
= 32 (G)
2x
1
+3x
2
5x
3
+x
4
+8x
6
+x
7
3x
8
= 16
x
1
+x
3
x
5
2x
6
+3x
8
+x
9
= 1
2x
1
+2x
2
4x
3
+4x
6
+x
10
= 13.
98 4 Gau-Algorithmus und lineare Gleichungssysteme
4.7 Sei Aeine n n-Matrix. Zeigen Sie:
(a) Aist genau dann invertierbar, wenn ihre transponierte Matrix A
T
invertierbar ist.
(b) Ist Ainvertierbar, so ist (A
T
)
1
= (A
1
)
T
.
4.8 Berechnen Sie die Inversen der folgenden Matrix Aund ihrer transponierten Matrix A
T
.
A =
_
_
_
_
_
_
_
_
1 2 3 0 0 0
2 1 0 0 0 0
4 2 0 0 0 24
0 0 0 2 1 1
0 0 0 2 1 0
0 0 0 5 2 3
_
_
_
_
_
_
_
_
.
4.9 Es sei J eine Menge von n n-Matrizen, so da gilt:
(a) J enthlt eine von 0 verschiedene Matrix,
(b) J ist bezglich der Addition von Matrizen eine abelsche Gruppe, und
(c) fr eine Matrix A J und eine beliebige Matrix X Mat
n
(F) liegen XA und AX
in J.
Zeigen Sie: Die n n-Einheitsmatrix E
n
liegt in J.
4.10 Sei A = (a
ij
) eine reelle n n-Matrix derart, da die Absolutbetrge |a
ij
| ihrer
Koefzienten die folgenden n Ungleichungen erfllen:
n
j=1
j=i
|a
ij
| < |a
ii
| fr i = 1, 2, . . . , n.
Bestimmen Sie rg(A).
5 Determinanten
Die Determinantenabbildung ordnet jeder nn-Matrix A = (a
ij
) mit Koefzienten
a
ij
aus dem Krper F ein eindeutig bestimmtes Krperelement det Aaus F zu. Sie
ist ein wichtiges Hilfsmittel zur Berechnung der Eigenwerte von A, einem zentralen
Problem der linearen Algebra, mit dem sich das nchste Kapitel befat.
Zur Vorbereitung des Existenz- und Eindeutigkeitsbeweises fr die Determi-
nantenabbildung werden im ersten Abschnitt einige Ergebnisse ber Permutationen
endlicher Mengen dargestellt.
Whrend in Abschnitt 2 auf die multilinearen Abbildungen und in Abschnitt 3
auf die Existenz und Eindeutigkeit der Determinantenabbildung eingegangen wird,
behandelt der vierte Abschnitt einige Verfahren zur Berechnung der Determinante
einer n n-Matrix A. Hierbei ndet auch der Gausche Algorithmus eine weitere
Anwendung.
Schlielich werden im fnften Abschnitt die Determinanten zur Berechnung
der Inversen A
1
einer invertierbaren n n-Matrix und zur Auflsung linearer
Gleichungssysteme herangezogen. Diese Anwendungen sind vor allem von theore-
tischem Interesse.
5.1 Permutationen
In 1.3.2 wurde die symmetrische Gruppe S
n
eingefhrt. Die dort gewhlten Be-
zeichnungen gelten weiterhin. Zunchst werden einige grundlegende Begriffe und
Ergebnisse ber die symmetrische Gruppe dargestellt. Sie werden spter bei der
Entwicklung der Determinantentheorie bentigt.
5.1.1 Denition. Sei n N, n = 0 und M = {1, 2, . . . , n}. Eine bijektive Abbil-
dung von M auf M heit Permutation von M. Die Menge aller Permutationen von
M bildet bezglich der Hintereinanderausfhrung als Verknpfung eine Gruppe, die
symmetrische Gruppe S
n
.
Bezeichnung: = ((1), (2), . . . , (n)) fr alle S
n
.
Entsprechend der in Beispiel 1.3.2 (c) festgelegten Multiplikation in S
n
gilt
(
)(m) = (
i
= (n, i). Sei nun (n) = i. Dann ist
1
i
(n) = n. Also ist
1
i
S
n1
und
so
i
S
n1
= {
i
| S
n1
}. Daher ist S
n
=
n1
i=1
i
S
n1
S
n1
, wobei
in dieser Vereinigung die einzelnen Mengen paarweise disjunkt sind. Hieraus folgt:
|S
n
| = |S
n1
| +
n1
i=1
|S
n1
| = n(n 1)! = n!
5.1.4 Satz. Fr n 2 ist jede Permutation von M = {1, 2, . . . , n} Produkt von
endlich vielen Transpositionen.
Beweis: Die symmetrische Gruppe S
2
besteht aus den Elementen id und der Trans-
position = (2, 1). Wegen id = gilt die Behauptung des Satzes fr n = 2.
Fr i = 1, 2, . . . , n 1 sei
i
wie im Beweis von Satz 5.1.3 die Transposition mit
i
(n) = i und
i
(i) = n. Dann ist S
n
= S
n1
n1
i=1
i
S
n1
, wobei S
n1
wieder aus
allen Permutationen von S
n
mit (n) = n besteht. Wegen der Induktionsannahme
folgt hieraus die Behauptung fr S
n
.
5.1.5 Bemerkung. Die in Satz 5.1.4 gegebene Produktdarstellung einer Permutation
S
n
ist im allgemeinen nicht eindeutig, z. B. gilt
= (3, 1, 2) = (2, 1)(3, 1) = (3, 1)(3, 2) in S
3
.
Sei n 2. Seien X
1
, X
2
, . . . , X
n
Unbestimmte ber dem Ring Z der ganzen
Zahlen. Dann operiert die symmetrische Gruppe S
n
auf den Polynomen
p(X
1
, X
2
, . . . , X
n
) Z[X
1
, X
2
, . . . , X
n
],
und zwar durch Vertauschung der Indizes, d. h.
p(X
1
, X
2
, . . . , X
n
) = p(X
(1)
, X
(2)
, . . . , X
(n)
) fr S
n
.
5.1 Permutationen 101
5.1.6 Beispiel. Sei = (2, 3, 1) S
3
, p(X
1
, X
2
, X
3
) = X
1
X
2
+ X
1
X
3
Z[X
1
, X
2
, X
3
]. Dann ist p(X
1
, X
2
, X
3
) = X
(1)
X
(2)
+ X
(1)
X
(3)
= X
2
X
3
+X
2
X
1
.
5.1.7 Hilfssatz. Sei M = {1, 2, . . . , n} mit n 2. Seien X
1
, X
2
, . . . , X
n
Unbestimmte ber dem Ring Z der ganzen Zahlen. Sei f (X
1
, X
2
, . . . , X
n
) =
i<j
(X
j
X
i
) Z[X
1
, X
2
, . . . , X
n
], wobei das Produkt ber alle Paare (i, j)
M M mit i < j gebildet wird. Dann gelten:
(a) Fr jede Permutation S
n
ist f (X
1
, . . . , X
n
) = s()f (X
1
, . . . , X
n
) fr
ein eindeutig bestimmtes Vorzeichen s() {+1, 1}.
(b) s() = 1 fr jede Transposition S
n
.
Beweis: (a) Fr jedes S
n
sei a() die Anzahl der Paare (i, j) M M mit
i < j und (i) > (j). Dann ist f (X
1
, X
2
, . . . , X
n
) =
i<j
(X
(j)
X
(i)
) =
(1)
a()
i<j
(X
j
X
i
) = s()f (X
1
, X
2
, . . . , X
n
), wobei s() = (1)
a()
2
. . .
k
. Nach Satz 5.1.9 gilt daher
sign =
k
i=1
sign
i
= (1)
k
.
Da sign entweder 1 oder -1 ist und nach (a) sign = 1 genau dann gilt, wenn k
gerade ist, gilt die Behauptung von (b) unabhngig von der jeweiligen Produktdar-
stellung von als Produkt von Transpositionen.
5.1.11 Folgerung. Fr n 2 gibt es genau
1
2
n! gerade und
1
2
n! ungerade Permu-
tationen der Zahlen 1, 2, . . . , n.
Beweis: Folgt unmittelbar aus Satz 5.1.3 und Satz 5.1.9.
5.1.12 Denition. Die geraden Permutationen bilden wegen Satz 5.1.9 eine Unter-
gruppe A
n
von S
n
, die man die alternierende Gruppe nennt.
5.2 Multilinearformen
5.2.1 Denition. Seien V
1
, V
2
, . . . , V
n
, W Vektorrume ber dem gemeinsamen
Krper F. Eine Abbildung
: V
1
V
2
V
n
W
heit n-fach linear (oder n-linear), wenn sie folgende Eigenschaften besitzt:
5.2 Multilinearformen 103
(a) (v
1
, . . . , v
i
+v
i
, . . . , v
n
) = (v
1
, . . . , v
i
, . . . , v
n
) +(v
1
, . . . , v
i
, . . . , v
n
)
fr alle v
j
V
j
, j = 1, 2, . . . , n, und v
i
, v
i
V
i
fr i = 1, 2, . . . , n.
(b) (v
1
, . . . , v
i
k, . . . , v
n
) = (v
1
, . . . , v
i
, . . . , v
n
)k fr k F und v
i
V
i
,
i = 1, 2, . . . , n.
Ist W = F und V
i
= V fr i = 1, 2, . . . , n, so heit eine n-fache Linearform von
V. Ist zustzlich n = 2, so heit Bilinearform.
5.2.2 Beispiel. Die Abbildung : F
2
F, deniert durch
__
a
11
a
21
_
,
_
a
12
a
22
__
= a
11
a
22
a
12
a
21
,
ist eine Bilinearform.
5.2.3 Denition. Sei V ein n-dimensionaler F-Vektorraum. Eine n-fache Linear-
form von V heit nicht ausgeartet, wenn nVektoren a
1
, a
2
, . . . , a
n
in V existieren
derart, da (a
1
, a
2
, . . . , a
n
) = 0, wenn also nicht die Nullform ist.
5.2.4 Denition. Eine n-fache Linearform von V heit alternierend, wenn
fr jedes n-Tupel (a
1
, a
2
, . . . , a
n
) von linear abhngigen Vektoren aus V stets
(a
1
, a
2
, . . . , a
n
) = 0 gilt.
Fr eine alternierende n-fache Linearform ist insbesondere (a
1
, . . . , a
n
) = 0,
falls a
i
= a
j
fr ein Paar i < j gilt.
5.2.5 Hilfssatz. Sei eine alternierende n-fache Linearform von V und eine
Permutation. Dann gilt fr a
1
, a
2
, . . . , a
n
V stets
_
a
(1)
, a
(2)
, . . . , a
(n)
_
= (sign ) (a
1
, a
2
, . . . , a
n
).
Beweis: Sicherlich gilt die Behauptung fr n = 1, weil dann = id die Identitt
ist. Sei also n 2. Nach Satz 5.1.9 und Satz 5.1.4 gengt es, die Behauptung fr
eine Transposition mit (i) = j zu beweisen. Da alternierend ist, gilt fr i < j:
0 = (a
1
, . . . , (a
i
+a
j
), . . . , (a
i
+a
j
), . . . , a
n
)
= (a
1
, . . . , a
i
, . . . , a
i
, . . . , a
n
)
+(a
1
, . . . , a
i
, . . . , a
j
, . . . , a
n
)
+(a
1
, . . . , a
j
, . . . , a
i
, . . . , a
n
)
+(a
1
, . . . , a
j
, . . . , a
j
, . . . , a
n
)
= (a
1
, . . . , a
j
, . . . , a
i
, . . . , a
n
)
+(a
1
, . . . , a
i
, . . . , a
j
, . . . , a
n
).
Daher folgt (a
(1)
, a
(2)
, . . . , a
(n)
) = (sign )(a
1
, a
2
, . . . , a
n
) wegen
sign = 1.
104 5 Determinanten
5.2.6 Hilfssatz. Sei V ein n-dimensionaler Vektorraumund eine nicht ausgeartete
alternierende n-fache Linearform von V. Dann sind die n Vektoren a
1
, a
2
, . . . , a
n
genau dann linear abhngig, wenn (a
1
, a
2
, . . . , a
n
) = 0.
Beweis: Wegen Denition 5.2.4 bleibt nur zu zeigen, da (b
1
, b
2
, . . . , b
n
) =
0, wenn immer b
1
, b
2
, . . . , b
n
V linear unabhngig sind. Dann ist B =
{b
1
, b
2
, . . . , b
n
} eine Basis von V. Da nicht ausgeartet ist, existieren nach De-
nition 5.2.3 Vektoren c
1
, c
2
, . . . , c
n
in V derart, da (c
1
, c
2
, . . . , c
n
) = 0. Jeder
dieser Vektoren c
i
hat nach Folgerung 2.2.14 eine eindeutige Darstellung
c
i
=
n
j=1
b
j
k
ij
mit k
ij
F,
weil B eine Basis von V ist. Da eine n-fache Linearform ist, folgt
0 = (c
1
, c
2
, . . . , c
n
) =
n
j
1
=1
n
j
2
=1
. . .
n
j
n
=1
(b
j
1
, b
j
2
, . . . , b
j
n
)k
1,j
1
k
2,j
2
. . . k
n,j
n
.
Wenn in einem Summanden dieser n-fachen Summe zwei der Indizes j
1
, j
2
, . . . , j
n
gleich sind, verschwindet dieser Summand, weil dann (b
j
1
, b
j
2
, . . . , b
j
n
) = 0 gilt.
Wenn aber die Indizes j
1
, j
2
, . . . , j
n
paarweise verschieden sind, stellen sie eine
Permutation der Zahlen 1, 2, . . . , n dar. Wegen Hilfssatz 5.2.5 folgt daher
0 = (c
1
, c
2
, . . . , c
n
) = (b
1
, b
2
, . . . , b
n
)
_
S
n
(sign )k
1,(1)
k
2,(2)
. . . k
n,(n)
_
.
Summiert wird dabei ber alle n! Permutationen aus der symmetrischen Gruppe S
n
.
Also ist (b
1
, b
2
, . . . , b
n
) = 0.
5.2.7 Satz. Sei V ein n-dimensionaler Vektorraum, und {a
1
, a
2
, . . . , a
n
} sei eine
Basis von V. Dann gilt:
(a) Haben die n Vektoren b
i
von V die Basisdarstellung b
i
=
n
j=1
a
j
k
ij
fr
i = 1, 2, . . . , n, so ist
(b
1
, . . . , b
n
) = (a
1
, . . . , a
n
)
S
n
(sign )k
1,(1)
. . . k
n,(n)
. ()
(b) Ersetzt manin() auf der rechtenSeite (a
1
, a
2
, . . . , a
n
) durcheinennicht von
b
1
, . . . , b
n
abhngigen Skalar a = 0, so wird durch () eine nicht ausgeartete
alternierende n-fache Linearform von V deniert.
5.2 Multilinearformen 105
Beweis: Wegen des Beweises von Hilfssatz 5.2.6 ist nur die zweite Behauptung zu
beweisen. Es kann n > 1 angenommen werden, weil dieAussage imFall n = 1 trivial
ist. Sei alsofr einfest gewhltes a = 0aus F dieAbbildung : VV V F
deniert durch
(b
1
, b
2
, . . . , b
n
) = a
_
S
n
(sign )k
1,(1)
k
2,(2)
. . . k
n,(n)
_
.
Dann ist eine n-fache Linearform, wie man leicht veriziert.
Whlt man speziell b
i
= a
i
fr i = 1, 2, . . . , n, so ist k
ij
= 0 fr i = j und
k
ii
= 1 fr i = 1, 2, . . . , n. Also ist
k
1,(1)
k
2,(2)
. . . k
n,(n)
=
_
0 fr = id S
n
,
1 fr = id S
n
.
Hieraus folgt (a
1
, a
2
, . . . , a
n
) = a = 0. Daher ist nicht ausgeartet.
Wenn die Vektoren b
1
, b
2
, . . . , b
n
linear abhngig sind, dann existieren c
j
F
mit b
1
c
1
+b
2
c
2
+ +b
n
c
n
= o, wobei c
1
= 0 angenommen werden kann. Wegen
n > 1 gilt
b
1
= b
2
f
2
+b
3
f
3
+ +b
n
f
n
mit f
j
=
c
j
c
1
fr j = 2, . . . n.
Dann folgt
(b
1
, b
2
, . . . , b
n
) = (b
2
, b
2
, b
3
, . . . , b
n
)f
2
+(b
3
, b
2
, b
3
, . . . , b
n
)f
3
+
+(b
n
, b
2
, . . . , b
n
)f
n
.
Zum Nachweis von (b
1
, b
2
, . . . , b
n
) = 0 gengt es daher zu beweisen, da
(b
1
, . . . , b
t
, . . . , b
n
) = 0 fr b
1
= b
t
und fr t = 2, 3, . . . , n gilt.
Es sei nun
0
diejenige Transposition, die die Indizes 1 und t vertauscht. Durch-
luft dann die Menge A
n
aller geraden Permutationen, so durchlaufen nach Fol-
gerung 5.1.11 die Produkte
0
alle ungeraden Permutationen, weil sign(
0
) =
sign = 1 nach Satz 5.1.9 gilt. Hieraus folgt,
(b
t
, . . . b
t
, . . . , b
n
) =
S
n
(sign )k
t,(1)
. . . k
t,(t )
. . . k
n,(n)
=
A
n
(sign )k
t,(1)
. . . k
t,(t )
. . . k
n,(n)
+
A
n
(sign
0
)k
t,
0
(1)
. . . k
t,
0
(t )
. . . k
n,
0
(n)
=
A
n
(sign +sign
0
)k
t,(1)
. . . k
t,(t )
. . . k
n,(n)
= 0,
106 5 Determinanten
weil k
t,(t )
. . . k
t,(1)
. . . k
n,(n)
= k
t,(1)
. . . k
t,(t )
. . . k
n,(n)
und sign +
sign
0
= 1 1 = 0 fr alle A
n
gilt. Also ist auch alternierend.
5.2.8 Bemerkung. Durch den zweiten Teil des Satzes 5.2.7 ist gesichert, da es fr
jedes n und jeden n-dimensionalen Vektorraum eine nicht ausgeartete alternierende
n-fache Linearform gibt.
5.2.9 Satz. Es seien
1
und
2
zwei nicht ausgeartete alternierende n-fache Line-
arformen von V. Dann gibt es zu ihnen einen Skalar k = 0 mit
2
=
1
k, d. h.
2
(v
1
, . . . , v
n
) =
1
(v
1
, . . . , v
n
) k fr alle v
1
, . . . , v
n
V.
Beweis: Es sei {a
1
, . . . , a
n
} eine Basis von V. Nach Hilfssatz 5.2.6 gilt
s
(a
1
, a
2
, . . . , a
n
) = 0 fr s = 1, 2. Dann sei k =
1
(a
1
,a
2
,...,a
n
)
2
(a
1
,a
2
,...,a
n
)
F.
Fr beliebige Vektoren v
1
, . . . , v
n
mit den Basisdarstellungen
v
i
=
n
j=1
a
j
k
ij
, i = 1, 2, . . . , n,
gilt nach Satz 5.2.7 fr s = 1, 2 :
s
(v
1
, v
2
, . . . , v
n
) =
s
(a
1
, a
2
, . . . , a
n
)
_
S
n
(sign )k
1,(1)
k
2,(2)
. . . k
n,(n)
_
.
Da c =
S
n
(sign )k
1,(1)
. . . k
n,(n)
F unabhngig von s ist, folgt
1
(v
1
, . . . , v
n
)
2
(v
1
, . . . , v
n
)
=
1
(a
1
, . . . , a
n
)c
2
(a
1
, . . . , a
n
)c
= k.
: V V V F deniert durch
(b
1
, b
2
, . . . , b
n
) = ((b
1
), (b
2
), . . . , (b
n
)).
Da linear und eine n-fache Linearform ist, ist
(a
1
, a
2
, . . . , a
n
) = ((a
1
), (a
2
), . . . , (a
n
)) = 0 ist
(a
1
, a
2
, . . . , a
n
)
(a
1
, a
2
, . . . , a
n
)
=
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
= det
unabhngig von der jeweiligen Basis {a
1
, a
2
, . . . , a
n
} ist.
Angenommen, ist eine zweite nicht ausgeartete alternierende n-fache Line-
arform von V. Sei wieder
(b
1
, b
2
, . . . , b
n
) = ((b
1
), (b
2
), . . . , (b
n
)) fr
alle b
1
, b
2
, . . . , b
n
V. Dann ist
(a
1
, a
2
, . . . , a
n
)
(a
1
, a
2
, . . . , a
n
)
=
c
(a
1
, a
2
, . . . , a
n
)
c(a
1
, a
2
, . . . , a
n
)
=
c((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
=
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
=
(a
1
, a
2
, . . . , a
n
)
(a
1
, a
2
, . . . , a
n
)
.
Also ist det auch unabhngig von der Wahl der alternierenden nicht ausgearteten
n-fachen Linearform von V.
5.3.3 Folgerung. Sei V ein n-dimensionaler F-Vektorraum. Dann gilt:
(a) Der Endomorphismus von V ist genau dann ein Automorphismus von V,
wenn det = 0 ist.
(b) Sind und Endomorphismen von V, so ist
det() = det() det().
(c) det(id) = 1.
(d) Ist der Endomorphismus von V invertierbar, so gilt det(
1
) = [det()]
1
.
Beweis: Sei B = {a
1
, a
2
, . . . , a
n
} eine Basis von V und eine nicht ausgeartete
alternierende n-fache Linearform von V, mit der die Determinanten
det() =
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
aller Endomorphismen von V konstruiert werden. Dann ist det unabhngig von
und B nach Satz 5.3.2.
(a) Nach Folgerung 3.2.14 ist genau dann ein Automorphismus von V,
wenn (a
1
), (a
2
), . . . , (a
n
) linear unabhngige Vektoren von V sind. We-
gen Hilfssatz 5.2.6 ist daher genau dann ein Automorphismus von V, wenn
((a
1
), (a
2
), . . . , (a
n
)) = 0 und somit det = 0 ist.
5.3 Determinanten von Endomorphismen und Matrizen 109
(b) Sind und Automorphismen, dann gilt nach Denition 5.3.1 und Satz 5.3.2:
det() =
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
=
((a
1
), (a
2
), . . . , (a
n
))
((a
1
), (a
2
), . . . , (a
n
))
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
= det() det(),
weil {(a
1
), (a
2
), . . . , (a
n
)} nach Folgerung 3.2.14 eine Basis von V und damit
((a
1
), (a
2
), . . . , (a
n
)) = 0 ist.
Ist einer der beiden Endomorphismen oder keinAutomorphismus, so ist nach
Folgerung 3.2.14 auch kein Automorphismus. Aus (a) folgt nun
det() = 0 = det() det().
(c)
det(id) =
(id(a
1
), id(a
2
), . . . , id(a
n
))
(a
1
, a
2
, . . . , a
n
)
=
(a
1
, a
2
, . . . , a
n
)
(a
1
, a
2
, . . . , a
n
)
= 1.
(d) folgt aus det(
1
) det() = det(
1
) = det(id) = 1.
Ist ein Endomorphismus von V und A = {a
1
, a
2
, . . . , a
n
} eine fest gewhlte
Basis von V, so ist
(a
i
) =
n
j=1
a
j
a
ij
, i = 1, 2, . . . , n,
mit eindeutig bestimmten a
ij
F, und A
(A, A) = A
= (a
ij
) ist nach Deniti-
on 3.3.1 die zu gehrige n n-Matrix in Mat
n
(F). Wegen Denition 3.3.1 und
der Stze 5.2.7 und 5.3.2 gilt
det() =
S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
F.
Also ist det() = det(A
S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
F.
110 5 Determinanten
Bezeichnung: Wenn man bei der Determinante einer quadratischen Matrix A =
(a
ij
) die Elemente der Matrix explizit angeben will, schreibt man statt det A aus-
fhrlicher det(a
ij
) oder
a
1,1
. . . a
1,n
.
.
.
.
.
.
a
n,1
. . . a
n,n
,
indem man das Matrix-Schema in senkrechte Striche einschliet.
5.4 Rechenregeln fr Determinanten von Matrizen
In diesem Abschnitt werden die wesentlichen Verfahren fr die Berechnung der
Determinante einer n n-Matrix A = (a
ij
) mit Koefzienten aus einem Krper F
dargestellt.
5.4.1 Satz. Die Determinante einer n-reihigen quadratischen Matrix A = (a
ij
)
ber dem Krper F besitzt folgende Eigenschaften:
(a) Die Matrix A und ihre Transponierte A
T
besitzen dieselbe Determinante:
det A
T
= det A.
(b) Vertauscht man in Azwei Zeilen oder Spalten, so ndert die Determinante ihr
Vorzeichen.
(c) Addiert man zu einer Zeile (Spalte) eine Linearkombination der brigen Zeilen
(Spalten), so ndert sich die Determinante nicht.
(d) Multipliziert man die Elemente einer Zeile (Spalte) mit einemSkalar c, so wird
die Determinante mit c multipliziert.
(e) Sind in Azwei Zeilen (Spalten) gleich, so gilt det A = 0.
(f) det(Ac) = (det A)c
n
.
(g) det A
1
= (det A)
1
, falls Ainvertierbar ist.
(h) Ist B eine zweite n-reihige quadratische Matrix, so gilt
det(AB) = (det A)(det B).
(i) Fr die Einheitsmatrix E
n
gilt: det E
n
= 1.
Beweis: Es sei
1
die zu inverse Permutation. Da die Multiplikation im Krper
F kommutativ ist, gilt fr die in Denition 5.3.4 auftretenden Produkte
a
1,(1)
. . . a
n,(n)
= a
1
(1),1
. . . a
1
(n),n
.
5.4 Rechenregeln fr Determinanten von Matrizen 111
Da weiter mit auch
1
alle Permutationen aus S
n
durchluft und sign
1
=
sign gilt, erhlt man
det A =
S
n
(sign )a
(1),1
. . . a
(n),n
.
Der hier auf der rechten Seite stehende Ausdruck ist aber gerade die Determinante
von A
T
. Damit ist die Behauptung (a) bewiesen. Aus ihr folgt, da alle Ergebnisse
ber Determinanten richtig bleiben, wenn man in ihnen die Begriffe
Zeile und
Spalte vertauscht. Die Behauptungen (b) bis (e) brauchen daher nur fr Spalten
bewiesen zu werden.
Entspricht die Matrix Ahinsichtlich einer Basis {a
1
, . . . , a
n
} demEndomorphis-
mus von V, so sind die Spalten von A gerade die Koordinaten der Bildvektoren
(a
1
), . . . , (a
n
). Wegen der Denitionen 5.3.1 und 5.3.4 gilt
det A =
((a
1
), (a
2
), . . . , (a
n
))
(a
1
, a
2
, . . . , a
n
)
.
Deswegen folgt (b) aus Hilfssatz 5.2.5, (c) aus Denition 5.2.1 und Hilfssatz 5.2.6,
(d) aus der Linearitt der Determinantenformen und (e) aus Hilfssatz 5.2.6.
Da bei der Bildung der Matrix Ac jede Zeile von A mit c multipliziert wird,
folgt (f) durch n-malige Anwendung von (d). Schlielich sind (g), (h) und (i) eine
unmittelbare Konsequenz von Folgerung 5.3.3.
5.4.2 Satz. Zwei hnliche Matrizen Aund B besitzen denselben Rang und dieselbe
Determinante: rg(A) = rg(B) und det(A) = det(B).
Beweis: Da hnlichkeit ein Spezialfall vonquivalenz ist, gilt rg(A) = rg(B) nach
Folgerung 3.5.3.
Sei P eine invertierbare Matrix mit B = P
1
AP. Dann folgt aus (g) und (h)
von Satz 5.4.1, da
det B = det(P
1
) det(A) det(P) = det(A) det(P
1
) (det P) = det(A)
gilt.
5.4.3 Folgerung. Folgende Eigenschaften einer n n-Matrix A ber dem Krper
F sind quivalent:
(a) Aist invertierbar, d. h. Abesitzt eine inverse Matrix A
1
.
(b) rg A = n.
(c) det A = 0.
112 5 Determinanten
Beweis: Die quivalenz von (a) und (b) gilt nach Satz 3.4.9. Nach Satz 5.4.1 (g),
(h) und (i) folgt (c) aus (a). Ist umgekehrt det A = 0, dann ist nach Satz 3.2.8 und
der Denition von det A der Spaltenrang s(A) = n. Daher ist rg A = n nach Satz
3.4.4.
Die Determinante einer n-reihigen quadratischen Matrix A = (a
ij
) kann mit
Hilfe ihrer Denitionsgleichung
det A =
S
n
(sign )a
1,(1)
. . . a
n,(n)
explizit berechnet werden. Praktisch brauchbar ist diese Gleichung indes nur in den
einfachsten Fllen n = 1, 2, 3. Im Fall n = 1 besteht die Matrix A aus nur einem
Element a und es gilt det A = a. Im Fall n = 2 liefert die Formel sofort
a
1,1
a
1,2
a
2,1
a
2,2
= a
1,1
a
2,2
a
1,2
a
2,1
.
Im Fall n = 3 hat man es mit folgenden sechs Permutationen zu tun:
(1, 2, 3), (2, 3, 1), (3, 1, 2) und (3, 2, 1), (2, 1, 3), (1, 3, 2).
Unter ihnen sind die ersten drei gerade, die letzten drei ungerade. Es folgt
a
1,1
a
1,2
a
1,3
a
2,1
a
2,2
a
2,3
a
3,1
a
3,2
a
3,3
= a
1,1
a
2,2
a
3,3
+a
1,2
a
2,3
a
3,1
+a
1,3
a
2,1
a
3,2
a
1,3
a
2,2
a
3,1
a
1,2
a
2,1
a
3,3
a
1,1
a
2,3
a
3,2
.
Als Merkregel fr diesen Ausdruck ist folgende Vorschrift ntzlich:
5.4.4 Regel von Sarrus. Man schreibe die erste und zweite Spalte der Matrix noch-
mals als vierte und fnfte Spalte hin. Dann bilde man die Produkte lngs der aus-
gezogenen Linien, addiere sie und ziehe die Produkte lngs der gepunkteten Linien
ab:
a
1,1
a
1,2
a
1,3
a
1,1
a
1,2
a
2,1
a
2,2
a
2,3
a
2,1
a
2,2
a
3,1
a
3,2
a
3,3
a
3,1
a
3,2
@
@
@
@
@
@
@
@
@
@
@
@
. .
Fr n 4 wird die Denitionsgleichung recht umfangreich und unbersichtlich,
so da sie fr die praktische Rechnung imallgemeinen unbrauchbar ist. Hier hilft ein
anderer Weg, der wieder an die elementaren Umformungen aus Kapitel 4 anknpft.
5.4 Rechenregeln fr Determinanten von Matrizen 113
Eigenschaft (c) aus Satz 5.4.1 besagt, da die Determinante durch elementare
Umformungen des Typs (c) in Denition 4.1.9 nicht gendert wird. Weiter besagt
die Eigenschaft (b), da Zeilen- und Spaltenvertauschungen, also die elementaren
Umformungen des Typs (a) von Denition 4.1.9 bei der Determinante lediglich
einen Vorzeichenwechsel bewirken. Nun kann man nach Satz 4.1.19 eine n-reihige
quadratische Matrix A mit Hilfe des Gau-Algorithmus immer in eine Matrix B
folgender Gestalt berfhren:
B =
_
_
_
_
_
_
b
1,1
. . . b
1,n
0 b
2,2
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 b
n,n
_
_
_
_
_
_
,
bei der unterhalb der Hauptdiagonale lauter Nullen stehen. Da noch weitere Nullen
auftreten knnen, interessiert in diesem Zusammenhang nicht. Nach den vorange-
henden Bemerkungen gilt dann
det A = (1)
k
det B,
wobei k die Anzahl der bei den Umformungen vorgenommen Zeilen- und Spalten-
vertauschungen ist. Die Determinante der Matrix B kann aber sofort angegeben
werden:
Fr die Elemente b
i,j
von B gilt zunchst b
i,j
= 0 fr i > j. Ist nun eine
von der Identitt verschiedene Permutation aus S
n
, so gibt es mindestens ein i mit
i > (i). Wegen b
i,(i)
= 0 verschwindet daher der zu dieser Permutation gehrende
Summand in der Denitionsgleichung der Determinante. Die Summe reduziert sich
somit auf den zur identischen Permutation gehrenden Summanden, und man erhlt
den
5.4.5 Satz. Eine Dreiecksmatrix B = (b
ij
) hat die Determinante
det B = b
1,1
b
2,2
. . . b
n,n
.
Damit hat sich fr die Berechnung von Determinanten folgende allgemeine Vor-
schrift ergeben:
5.4.6 Berechnungsverfahren fr Determinanten. Es sei Aeine n-reihige quadra-
tische Matrix. Diese werde durch elementare Umformungen (a) und (c), unter denen
genau k Zeilen- oder Spaltenvertauschungen vorkommen, in eine Matrix B = (b
ij
)
berfhrt, bei der unterhalb der Hauptdiagonale lauter Nullen auftreten. Dann gilt
det A = (1)
k
b
1,1
b
2,2
. . . b
n,n
.
114 5 Determinanten
5.4.7 Beispiel. Gegeben sei die Matrix
A =
_
_
_
_
1 3 4 0
2 5 7 1
1 2 3 0
0 0 1 4
_
_
_
_
.
Durch elementare Umformungen der Form (c) von Denition 4.1.9 geht die Matrix
Aber in die Matrizen
_
_
_
_
1 3 4 0
0 1 1 1
0 5 1 0
0 0 1 4
_
_
_
_
,
_
_
_
_
1 3 4 0
0 1 1 1
0 0 4 5
0 0 1 4
_
_
_
_
und schlielich
B =
_
_
_
_
1 3 4 0
0 1 1 1
0 0 4 5
0 0 0
21
4
_
_
_
_
.
Da keine Vertauschungen vorgenommen wurden, ergibt sich nach Satz 5.4.5
det A = det B = 1(1)(4)
_
21
4
_
= 21.
5.4.8 Denition. A = (a
ij
) sei eine n n-Matrix ber dem Krper F. Durch Weg-
lassen der i-ten Zeile und der j-ten Spalte erhlt man eine (n 1) (n 1)-Matrix
M
ij
, eine Untermatrix von A. Ihre Determinante det M
ij
heit die Unterdetermi-
nante von A bezglich a
ij
, und den Ausdruck A
ij
= (1)
i+j
det M
ij
bezeichnet
man als Adjunkte von a
ij
.
5.4.9 Satz (Entwicklungssatz von Laplace). Ist A = (a
ij
) eine n n-Matrix ber
dem Krper F, dann gelten:
(a) det A =
n
j=1
a
ij
A
ij
, Entwicklung nach der i-ten Zeile von A.
(b) det A =
n
i=1
a
ij
A
ij
, Entwicklung nach der j-ten Spalte von A.
Beweis: Nach Denition 5.3.4 gilt
det A =
S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
. ()
Jedes Monom a
1,(1)
a
2,(2)
. . . a
n,(n)
enthlt genau einen Koefzienten des i-ten
Zeilenvektors z
i
= (a
i1
, a
i2
, . . . , a
in
) von A. Daher lt sich () schreiben als
det A = a
i1
A
i1
+a
i2
A
i2
+ +a
in
A
in
, ()
5.4 Rechenregeln fr Determinanten von Matrizen 115
wobei jedes A
ij
eine Summe von Monomen mit n1 Faktoren ist, von denen keiner
eine Komponente a
ij
des i-ten Zeilenvektors z
i
ist. Daher gengt es zu zeigen, da
A
ij
= A
ij
, ()
wobei A
ij
die Adjunkte von a
ij
ist.
Sei zunchst i = n und j = n. Dann ist die Summe der Terme von det(A) in
(), die den Faktor a
nn
enthalten, gerade der Ausdruck
a
nn
A
n,n
= a
nn
_
(sign )a
1,(1)
a
2,(2)
. . . a
n1,(n1)
_
,
wobei die Summe ber alle Permutationen S
n
mit (n) = n gebildet wird.
Indem man in () und () den Koefzienten von a
nn
betrachtet, erhlt man nun
A
n,n
=
S
n1
(sign )a
1,(1)
a
2,(2)
. . . a
n1,(n1)
.
Daher ist A
n,n
= (1)
n+n
det M
n,n
= A
n,n
.
Man betrachte nun ein beliebiges Paar (i, j). Dann werde die i-te Zeile z
i
mit
der (i +1)-ten Zeile z
i+1
vertauscht. Dieser Proze wird solange fortgesetzt, bis z
i
zur letzten Zeile der Matrix A geworden ist. Ebenso vertauscht man dann die j-te
Spalte s
j
von A solange mit der um 1 hher indizierten Spalte s
j+1
von A, bis s
j
zur letzten Spalte von A geworden ist. Hierbei hat sich der Wert der Determinante
der Matrix M
ij
nach Satz 5.4.1 nicht gendert. Jedoch hat sich das Vorzeichen von
det(A) und von A
ij
um den Faktor (1)
ni+nj
gendert. Also gilt
A
ij
= (1)
ni+nj
det(M
ij
) = (1)
i+j
det(M
i,j
) = A
i,j
.
Wegen () folgt daher
det A =
n
j=1
a
ij
A
ij
.
(b) Wegen Satz 5.4.1(a) folgt (b) sofort durch Transposition aus (a).
In der Regel ist der Entwicklungssatz von Laplace fr die Berechnung einer
greren n n-Matrix A wenig brauchbar. Ist n > 4, so mu man die Laplace-
Entwicklung auch auf alle (n 1) (n 1)-Untermatrizen M
ij
anwenden. Das ist
sehr rechenintensiv. Sind jedoch verhltnismig viele Koefzienten a
ij
der Matrix
Agleich Null, dann kann es vorteilhaft sein, ihre Determinante mittels Satz 5.4.9 zu
berechnen.
116 5 Determinanten
5.4.10 Beispiel. Durch Entwickeln nach der dritten Zeile und dann nach der zweiten
Spalte erhlt man
det
_
_
_
_
5 2 2 1
3 0 1 4
0 0 0 2
1 0 3 4
_
_
_
_
= (1)
3+4
2 det
_
_
5 2 2
3 0 1
1 0 3
_
_
= (2) (2) det
_
3 1
1 3
_
= 4 (9 1) = 32.
5.4.11 Denition. Eine n n-Matrix A = (a
ij
) ist eine obere Blockmatrix, wenn
eine natrliche Zahl p < n existiert mit a
ij
= 0 fr p +1 i n und 1 j p.
Sei
P = (a
ij
) mit 1 i und j p,
Q = (a
ij
) mit p +1 i und j n,
D = (a
ij
) mit 1 i p und p +1 j n.
Dann hat Adie Form
A =
_
P D
0 Q
_
.
Analog deniert man untere Blockmatrizen der Form
A =
_
P 0
D Q
_
.
5.4.12 Satz. Ist A eine obere n n-Blockmatrix von der Form A =
_
P
0
D
Q
_
, dann
ist
det A = (det P) (det Q).
Beweis: Durch elementare Zeilenumformungen, die nur die ersten p Zeilen vern-
dern, lt sich Aumformen zu
A
=
_
P
0 Q
_
derart, da P
obere Dreiecksform hat. Sei s die Zahl der dabei benutzten Zeilen-
vertauschungen. Dann verwendet man elementare Zeilenumformungen, die nur die
letzten n p Zeilen verndern, um A
zu
A
=
_
P
0 Q
_
5.5 Anwendungen 117
umzuformen, und zwar derart, da auch Q
= (det P
) (det Q
) = (1)
s+t
det A
= [(1)
s
det(P)][(1)
t
det Q] = (1)
s+t
det(P) det(Q),
woraus die Behauptung folgt.
5.5 Anwendungen
Eine Anwendung der Determinantentheorie bezieht sich auf die Auflsung linea-
rer Gleichungssysteme, deren Koefzientenmatrix quadratisch und invertierbar ist.
Ebenso ist es mglich, die Inverse A
1
einer invertierbaren nn-Matrix Aexplizit
mit Hilfe geeigneter Determinanten anzugeben.
5.5.1 Denition. Ist A = (a
ij
) eine n n-Matrix ber dem Krper F und A
ij
jeweils die Adjunkte zu a
ij
, so heit die Matrix
adj A =
_
_
_
A
11
. . . A
n1
.
.
.
.
.
.
A
1n
. . . A
nn
_
_
_
die Adjunkte von A.
Beachte: adj Aist die Transponierte zu (A
ij
).
5.5.2 Satz. Fr jede n n-Matrix Aber dem Krper F gilt:
(a) A (adj A) = (adj A) A = E
n
(det A).
(b) A
1
=
1
det A
(adj A), falls Ainvertierbar ist.
Beweis: (a)
A (adj A) = (a
ij
)(A
kj
)
T
=
_
n
j=1
a
ij
A
kj
_
.
Nach Denition 5.4.8 und Satz 5.4.9 gilt wegen der anschlieenden Bemerkung:
n
j=1
a
ij
A
kj
=
_
det A falls i = k,
0 sonst.
()
Denn fr k = i ist
n
j=1
a
ij
A
kj
= det C
k
, wobei C
k
diejenige n n-Matrix ist, die
aus A entsteht, indem man die k-te Zeile durch die i-te Zeile von A ersetzt. Da C
k
118 5 Determinanten
zwei gleiche Zeilen hat, ist det C
k
= 0 nach Satz 5.4.1. Deshalb ist A (adj A) =
(det A) E
n
nach ().
(b) Falls Ainvertierbar ist, folgt A
1
=
1
det A
(adj A) aus (a).
5.5.3 Satz (Cramersche Regel). Gegeben sei ein lineares Gleichungssystem
a
11
x
1
+ + a
1n
x
n
= d
1
.
.
.
.
.
.
.
.
.
a
n1
x
1
+ + a
nn
x
n
= d
n
mit der n n-Koefzientenmatrix A = (a
ij
). Ist det A = 0, dann hat das Glei-
chungssystem die eindeutig bestimmte Lsung
x
j
=
1
det A
n
i=1
d
i
A
ij
fr j = 1, . . . , n.
Beweis: Wegen det A = 0 hat das Gleichungssystem (G) Ax = d nach Folge-
rung 5.4.3 die eindeutig bestimmte Lsung x = A
1
d. Nach Satz 5.5.2 (b) ist
A
1
=
1
det
(adj A). Wegen Denition 5.5.1 erfllt daher die j-te Komponente des
Spaltenvektors (adj A)d die Gleichung (det A)x
j
=
n
i=1
A
ij
d
i
. Also gilt die Be-
hauptung.
5.5.4 Bemerkung. Da die Berechnung von Determinanten recht mhevoll ist, ist die
Cramersche Regel fr praktische Anwendungen zur Auflsung linearer Gleichungs-
systeme weitgehend unbrauchbar. Fr theoretische Untersuchungen ist sie jedoch
oft wegen ihrer expliziten Beschreibung der Lsung eines Gleichungssystems (G)
Ax = d sehr hilfreich.
5.6 Aufgaben
5.1 (a) Bestimmen Sie die Determinante von
A =
_
_
_
_
_
_
1 2 3 4 5
2 6 9 12 15
3 10 18 24 30
4 14 27 40 50
5 18 36 56 75
_
_
_
_
_
_
.
(b) Berechnen Sie:
det
_
_
_
_
a b c d
b a c d
r s t u
v w x y
_
_
_
_
.
5.6 Aufgaben 119
5.2 (Vandermondesche Determinante) Man beweise
det
_
_
_
_
_
_
_
1 1 . . . 1
c
1
c
2
. . . c
n
c
2
1
c
2
2
. . . c
2
n
.
.
.
.
.
.
.
.
.
c
n1
1
c
n1
2
. . . c
n1
n
_
_
_
_
_
_
_
=
i<j
(c
j
c
i
).
5.3 Man berechne die Determinante der n n-Matrizen A, B als Funktionen von n:
A = (a
ij
), a
ij
=
_
1 i j
n +1 j i > j
fr 1 i, j n,
B = (b
ij
), b
ij
=
_
1 i +j = n +1
0 sonst
fr 1 i, j n.
5.4 Die n n-Matrix
A =
_
P Q
R S
_
sei durch die r r-Matrix P, die (n r) r-Matrix R, die r (n r)-Matrix Q und die
(n r) (n r)-Matrix S in Blcke unterteilt, wobei P auerdem invertierbar sei.
(a) Zeigen Sie, da durch elementare Umformungen die Matrix Ain die Form
_
P 0
R S R P
1
Q
_
gebracht werden kann.
(b) Folgern Sie aus (a), da det(A) = det(P) det(S R P
1
Q).
5.5 Gegeben seien die n n-Matrizen Aund B ber dem Krper F. Die 2n 2n-Matrix
P =
_
E
n
B
A 0
_
ist durch A, B und die n n-Einheitsmatrix E
n
in Blcke zerlegt.
(a) Folgern Sie aus dieser Zerlegung det(P) = det(A) det(B).
(b) Zeigen Sie, da durch elementare Zeilenumformungen die Matrix P in die Form
_
E
n
B
0 AB
_
gebracht werden kann.
(c) Folgern Sie aus (b), da det(P) = det(AB) gilt. Liefern Sie damit einen Beweis des
Produktsatzes det(AB) = det(A) det(B).
120 5 Determinanten
5.6 Bestimmen Sie die Lsungsgesamtheit des folgenden Gleichungssystems mittels der
Cramerschen Regel:
x
1
+3x
2
+4x
3
= 19
2x
1
+5x
2
+7x
3
+x
4
= 32
x
1
+2x
2
3x
3
= 6
x
3
+4x
4
= 1.
5.7 Wie lautet die dem Satz 5.4.12 entsprechende Gleichung fr die Determinante einer
Matrix der Form
A =
_
0 A
1
A
2
B
_
?
5.8 Berechnen Sie die Inverse der Matrix
A =
_
_
1 0 1
3 1 3
1 2 2
_
_
mit Hilfe von Satz 5.5.2.
5.9 Fr die invertierbare n n-Matrix A = (a
i,j
) gelte
n
j=1
a
i,j
a
k,j
=
_
1 fr i = k,
0 fr i = k.
Folgern Sie, da det A = 1 und a
i,k
= (det A)(A
i,k
) gilt, wobei A
i,k
die Adjunkte zu a
i,k
ist.
5.10 Es sei C
i,j
diejenige n-reihige quadratische Matrix ber einem Krper F, die im Kreu-
zungspunkt der i-ten Zeile und der j-ten Spalte eine 1 und sonst lauter Nullen aufweist.
Ferner sei M die Menge aller Matrizen der FormE
n
+aC
i,j
mit i = j und beliebigema F.
Beweisen Sie die folgenden Behauptungen:
(a) Die Matrizen aus M besitzen die Determinante 1.
(b) Jede n-reihige quadratische Matrix ber F, die die Determinante 1 besitzt, kann als
Produkt endlich vieler Matrizen aus M dargestellt werden.
6 Eigenwerte und Eigenvektoren
Zwei n n-Matrizen A und B ber dem Krper F heien nach Denition 3.5.4
hnlich, wenn es eine invertierbare n n-Matrix P gibt derart, da B = P
1
AP
gilt. In diesem Kapitel wird die Frage untersucht, unter welchen Bedingungen eine
Matrix Azu einer Diagonalmatrix D = (d
ij
), d
ij
= 0 fr i = j, hnlich ist. Hierzu
werden die Begriffe
Eigenvektor,
Eigenwert und
charakteristisches Polynom
eingefhrt. Im allgemeinen ist eine Matrix A nicht diagonalisierbar. Liegen jedoch
alle Eigenwerte von A im Krper F, so ist A hnlich zu einer sehr speziellen,
eindeutig bestimmten Dreiecksmatrix J; sie heit Jordansche Normalform von A.
Diese Ergebnisse und ein Berechnungsverfahren fr die Jordansche Normalform
werden im dritten Abschnitt dieses Kapitels dargestellt. Im vierten Abschnitt wird
eine Anwendung auf die Lsung linearer homogener Differentialgleichungssysteme
vorgestellt.
6.1 Charakteristisches Polynom und Eigenwerte
Es seien V ein beliebiger F-Vektorraum und : V V ein Endomorphismus.
Offenbar ist die Wirkung von auf diejenigenVektoren besonders einfach, die durch
nur auf Vielfache von sich selbst abgebildet werden. Derartige Vektoren spielen
bei der Beschreibung von Normalformen von Endomorphismen und Matrizen eine
entscheidende Rolle.
6.1.1 Denition. Ein Skalar f F heit Eigenwert des Endomorphismus
End
F
(V), wenn es einen Vektor v = 0 in V gibt derart, da (v) = vf ist.
Jeder vom Nullvektor verschiedene Vektor v V mit (v) = vf heit Eigen-
vektor von mit Eigenwert f .
Im Fall dimV = n < sei B eine Basis von V, und A = A
(B, B) sei
die zugeordnete Matrix. Dann knnen die Begriffe Eigenvektor und Eigenwert
unmittelbar auf die Matrix Aund auf Spaltenvektoren von F
n
bertragen werden.
6.1.2 Denition. Sei Aeine nn-Matrix mit Koefzienten aus dem Krper F. Ein
Skalar f F heit Eigenwert von A, wenn es einen vom Nullvektor verschiedenen
Spaltenvektor s F
n
gibt derart, da As = sf ist.
122 6 Eigenwerte und Eigenvektoren
Jeder Spaltenvektor 0 = s F
n
mit As = sf heit Eigenvektor der Matrix A
mit Eigenwert f .
6.1.3 Bemerkung. Ist A = A
(B, B) = (a
ij
) die dem Endomorphismus : V V hinsichtlich
B zugeordnete n n-Matrix. Die Eigenwertbedingung Ker(id f ) = {o} aus
Satz 6.1.5 ist dann nach Satz 3.2.13 und Folgerung 3.4.8 gleichwertig mit rg(id f
) < n bzw. rg(E
n
f A) < n und wegen Folgerung 5.4.3 auch gleichwertig
mit det(id f ) = 0 bzw. det(E
n
f A) = 0. Diese Determinantenbedingung
kann man nun aber als Bestimmungsgleichung fr die zunchst noch unbekannten
Eigenwerte f auffassen, indem man in ihr f durch eine Unbestimmte X ersetzt.
Dazu bedarf es allerdings zunchst einer Vorbemerkung.
6.1.7 Bemerkung. Die entstehende Bestimmungsgleichung
det(id X ) = det(E
n
X A) =
X a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
X a
nn
= 0
erfordert die Berechnung der Determinante einer Matrix, deren Koefzienten nicht
alle aus dem Krper F stammen. Denn aus der letzten Determinante erkennt man,
da jedenfalls die Hauptdiagonalelemente Xa
ii
Polynome aus dem Polynomring
F[X] sind. In Kapitel 10 wird gezeigt, da Determinanten aber auch von Matrizen
gebildet werden knnen, deren Koefzienten nur in einem Ring liegen. In der dort
entwickelten allgemeineren Determinantentheorie ber kommutativen Ringen gelten
dann auch die Rechenregeln des Kapitels 5, sofern sie sich nicht auf die Bildung von
Inversen von Ringelementen bzw. Matrizen beziehen.
6.1.8 Denition. Sei X eine Unbestimmte ber dem Krper F. Das Polynom
char Pol
A
(X) = det(E X A) bzw. char Pol
(X) = det(id X )
heit charakteristisches Polynom der n n-Matrix Abzw. des Endomorphismus
des F-Vektorraums V.
6.1.9 Satz. (a) Sei A = A
S
n
(sign ) b
1,(1)
b
2,(2)
. . . b
n,(n)
.
Fr = id S
n
ist b
1,(1)
b
2,(2)
. . . b
n,(n)
=
n
i=1
(Xa
ii
) ein normiertes Poly-
nomvomGrade n. Alle anderen Summanden gehren zu Permutationen = id. Bei
denen gilt (i) = i fr mindestens zwei Indizes i. Daher ist der entsprechende Sum-
mand (sign )b
1,(1)
b
2,(2)
. . . b
n,(2)
ein Polynom hchstens (n2)-ten Grades in
X, d. h.
r(X) =
id=S
n
(sign ) b
1,(1)
b
2,(2)
. . . b
n,(n)
F[X]
ist ein Polynom mit Grad r(X) n 2. Hieraus folgt
char Pol
A
(X) = det(E
n
X A) =
n
i=1
(X a
ii
) +r(X)
und Grad
_
n
i=1
(X a
ii
)
_
= n Grad r(X) +2. Da
n
i=1
(X a
ii
) = X
n
(a
11
+a
22
+ +a
nn
)X
n1
+ +(1)
n
n
i=1
a
ii
,
und tr(A) =
n
i=1
a
ii
ist, folgt
char Pol
A
(X) = X
n
tr(A)X
n1
+q
n2
X
n2
+ +q
1
X +q
0
fr geeignete q
i
F. Setzt man X = 0, so folgt q
0
= char Pol
A
(0) = det(A) =
(1)
n
det Anach Satz 5.4.1.
6.1 Charakteristisches Polynom und Eigenwerte 125
6.1.11 Bemerkung. Theoretischlassensichdie Koefzientendes charakteristischen
Polynoms
char Pol
A
(X) = X
n
+q
n1
X
n1
+ +q
1
X +q
0
einer (nn)-Matrix Amit demEntwicklungssatz 5.4.9 von Laplace berechnen. Hat
man einen Computer zur Hand, so ist folgendes Verfahren erheblich praktischer.
Man whlt n verschiedene Zahlen z
i
im Krper F, i = 1, 2, . . . , n. Dann be-
rechnet man mit dem Verfahren 5.4.6 die n Determinanten
det(z
i
E A) = d
i
F.
Nach Satz 6.1.10 ergibt sich hieraus das inhomogene Ungleichungssystem mit den
n Gleichungen
q
n1
z
n1
i
+q
nz
z
n2
i
+ +q
1
z
i
+q
0
= d
i
z
n
i
, 1 i n, ()
in den n Unbestimmten q
0
, q
1
, . . . , q
n1
. Mittels des Lsungsverfahrens 4.2.7 be-
stimmt man die Lsung von ().
Es sei jetzt f (X) F[X] ein Polynom. Dann nennt man bekanntlich ein Element
a F eine Nullstelle von f (X), falls f (a) = 0 gilt.
6.1.12 Satz. Genau dann ist f F ein Eigenwert der nn-Matrix A, wenn f eine
Nullstelle des charakteristischen Polynoms char Pol
A
(X) von Aist.
Beweis: f F ist Nullstelle des charakteristischen Polynoms von A genau dann,
wenn 0 = char Pol
A
(f ) = det(E f A). Dies ist nach Folgerung 5.4.3 genau
dann der Fall, wenn rg(E f A) < n ist. Nach Satz 3.2.13 ist diese Ungleichung
quivalent zu dimKer(E f A) = n rg(E f A) > 0. Also ist f F
genau dann eine Nullstelle von char Pol
A
(X), wenn A einen Eigenvektor v = 0
zum Eigenwert f hat.
6.1.13 Beispiel. Mittels Satz 6.1.12 sollen nun die Eigenwerte und Eigenvektoren
der folgenden Matrix bestimmt werden.
A =
_
_
3 1 1
2 4 2
1 1 3
_
_
.
Mit Hilfe der Regel 5.4.4 von Sarrus folgt
char Pol
A
(X) = det
_
_
X 3 1 1
2 X 4 2
1 1 X 3
_
_
= (X 3)
2
(X 4) 2 2 (X 4) 2(X 3) 2(X 3)
= X
3
10X
2
+28X 24.
126 6 Eigenwerte und Eigenvektoren
Dieses Polynom hat f
1
= 2 als eine Nullstelle, wie man durch Einsetzen sieht. Um
die brigen Nullstellen zu nden, teilt man das charakteristische Polynom durch
(X 2) und erhlt:
(X
3
10X
2
+28X 24) : (X 2) = X
2
8X +12.
X
3
2X
2
8X
2
+28X
8X
2
+16X
12X 24
12X 24
X
2
8X + 12 hat die Nullstellen f
2,3
= 4
k
r=1
(X f
r
)
c
r
nach Satz 6.1.12. Die natrliche Zahl c
r
heit die Vielfachheit des
Eigenwerts f
r
von A.
Analog erklrt man die Vielfachheit des Eigenwertes f eines Endomorphismus
End
F
(V).
6.1.16 Satz. Sei f ein Eigenwert von End
F
(V) der Vielfachheit c. Dann gilt
fr die Dimension des Eigenraumes dimKer(id f ) c.
Beweis: Es sei {v
1
, . . . , v
r
} eine Basis des Eigenraumes zum Eigenwert f , die zu
einer Basis B = {v
1
, . . . , v
r
, . . . , v
n
} des Vektorraums V ergnzt wird. Wegen
(v
i
) = v
i
f fr i = 1, . . . , r hat bezglich der Basis B die Matrix
A
(B, B) =
_
_
_
_
_
_
_
_
_
_
f 0
.
.
.
.
.
.
.
.
.
0 f
C
0 0
.
.
.
.
.
.
0 0
D
_
_
_
_
_
_
_
_
_
_
,
128 6 Eigenwerte und Eigenvektoren
die eine obere Blockmatrix ist, deren oberstes linkes Kstchen eine Diagonalmatrix
mit dem einzigen Eigenwert f ist. Nach Satz 5.4.12 und Satz 6.1.12 folgt, da f
ein mindestens r-facher Eigenwert von ist.
6.2 Diagonalisierbarkeit von Matrizen
In diesem Abschnitt bezeichnet V stets einen endlich-dimensionalen Vektorraum
ber dem Krper F. Es werden diejenigen Endomorphismen End
F
(V) charak-
terisiert, fr die V eine Basis B besitzt, die aus Eigenvektoren von besteht.
6.2.1 Satz. Eigenvektoren zu verschiedenen Eigenwerten eines Endomorphismus
von V sind linear unabhngig.
Beweis: Es seien f
1
, f
2
, . . . , f
k
paarweise verschiedene Eigenwerte von , wobei
k n = dim
F
V. Fr i = 1, 2, . . . , k sei v
i
ein zu f
i
gehrender Eigenvektor von
. Dann gilt:
(id f
i
)v
j
= v
j
f
i
(v
j
) = v
j
f
i
v
j
f
j
=
_
o fr i = j,
v
j
(f
i
f
j
) sonst.
Wre {v
1
, v
2
, . . . , v
k
} linear abhngig, dann existierten c
i
F, die nicht alle gleich
0 wren, derart, da
k
i=1
v
i
c
i
= o. ()
Sei c
1
= 0. Wendet man den Endomorphismus
k
i=2
(id f
i
) auf () an, dann
folgt der Widerspruch
o =
_
k
i=2
(id f
i
)
__
k
i=1
v
i
c
i
_
= v
1
c
1
(f
2
f
1
) . . . (f
k
f
1
) = o.
(B, B) der
linearen Abbildung : v A v von F
n
nach F
n
bezglich dieser Basis ist die
Diagonalmatrix D = diag(f
1
, . . . , f
n
).
Wenn P die Matrix des Basiswechsels von {e
1
, . . . , e
n
} nach {b
1
, . . . , b
n
} ist,
dann gilt D = P
1
A P nach Satz 3.3.9. Also ist Adiagonalisierbar.
(b) (c): Da A diagonalisierbar ist, existiert eine invertierbare Matrix P so,
da P
1
AP = D = diag(f
1
, . . . , f
n
) eine Diagonalmatrix ist. Ihre Koefzienten
f
r
sind nach Bemerkung 6.2.5 und Satz 6.1.12 gerade die Eigenwerte von A. Sei c
r
die Vielfachheit des Eigenwerts f
r
. Dann ist n =
s
r=1
c
r
, wobei s die Anzahl der
verschiedenen Eigenwerte von A ist. Fr jeden Eigenvektor v V zum Eigenwert
f von Agilt Av = vf , woraus
D(P
1
v) = (P
1
AP)(P
1
v) = (P
1
v)f
folgt. Also haben A und D isomorphe Eigenrume, d. h. dimKer(Ef
r
A) =
dimKer(Ef
r
D). Daher gengt es, (c) fr die Diagonalmatrix D zu beweisen.
Die Diagonalmatrix E f
r
D hat genau c
r
Nullen auf der Diagonalen. Daher
ist
n c
r
= rg(E f
r
D) = n dimKer(Ef
r
D) = n d
r
.
130 6 Eigenwerte und Eigenvektoren
nach Satz 3.2.13. Also ist d
r
= c
r
und
s
r=1
d
r
=
s
r=1
c
r
= n.
(c) (a): Sei U
i
der Eigenraum von Azum Eigenwert f
i
. Nach Satz 6.2.1 und
Satz 2.3.6 ist die Summe
s
i=1
U
i
dieser Unterrume U
i
von V = F
n
direkt. Nach
Voraussetzung gilt daher
n =
s
i=1
d
i
=
s
i=1
dimU
i
= dim
_
s
i=1
U
i
_
.
Also ist V =
s
i=1
U
i
nach Folgerung 2.2.14.
Wegen Satz 2.2.11 hat jeder Unterraum U
i
eine Basis B
i
mit d
i
Elementen b
ij
,
j = 1, 2, . . . , d
i
. Wegen U
i
= Ker(Ef
i
A) ist jeder Vektor b
ij
ein Eigenvektor
von Azum Eigenwert f
i
. Da V die direkte Summe der Eigenrume U
i
ist, ist
B = B
1
B
2
B
s
= {b
ij
| i = 1, 2, . . . , s, 1 j
i
d
i
}
eine Basis von V, die aus Eigenvektoren von Abesteht.
6.2.7 Beispiele.
(a) Sei A =
_
1
0
1
1
_
. Dann ist char Pol
A
(X) = (X 1)
2
, also ist 1 der einzige
Eigenwert von A. Weil rg(E A) = rg
_
0
0
1
0
_
= 1 ist, folgt d
1
= 2 1 =
1 < 2 = n. Also ist Anicht diagonalisierbar.
(b) Die Matrix
A =
_
_
3 1 1
2 4 2
1 1 3
_
_
ist dagegen diagonalisierbar, weil sie nach Beispiel 6.1.13 zwei Eigenwerte
f
1
= 2 und f
2
= 6 hat, fr die d
1
= 2 und d
2
= 1 gilt. Daher ist d
1
+ d
2
=
n = 3.
6.2.8 Berechnungsverfahren fr die Transformationsmatrix P einer diagona-
lisierbaren n n-Matrix. Nach Satz 6.2.6 ist die Matrix A = (a
ij
) genau dann
diagonalisierbar, wenn der Vektorraum V = F
n
eine Basis {v
1
, v
2
, . . . , v
n
} besitzt,
die aus Eigenvektoren von A besteht. Daher liegen nach Voraussetzung alle Eigen-
werte f
i
von Aim Krper F, und man kann folgende Schritte durchfhren:
(a) Man berechne die Koefzienten des charakteristischen Polynoms
char Pol
A
(X) von A.
(b) Man bestimme die Nullstellen f
j
von char Pol
A
(X) =
k
j=1
(Xf
j
)
d
j
. Dabei
sind alle f
j
F, j = 1, 2, . . . , k, verschieden, und es gilt n =
k
j=1
d
j
.
6.2 Diagonalisierbarkeit von Matrizen 131
(c) Zu jedem Eigenwert f
j
von A berechne man eine Basis B
j
=
{s
t +1
, s
t +2
, . . . , s
t +d
j
}, des Eigenraums W
j
= Ker(Ef
j
A), wobei
t =
j1
i=1
d
i
ist.
(d) Dann ist B = B
1
B
2
B
k
eine Basis von V. Sei P die n n-Matrix,
deren Spaltenvektoren dieVektoren s
r
von B sind, und zwar in der Reihenfolge
von (c). Dann ist D = P
1
AP eine Diagonalmatrix.
Beweis: Es bleibt nur zu zeigen, da Deine Diagonalmatrix ist. Wegen dimW
j
= d
j
und n =
k
j=1
d
j
besteht die Basis B von V nach Satz 6.2.6 aus Eigenvektoren s
r
von V. Nach Konstruktion der Matrix P sind diese Eigenvektoren s
r
gerade die
Spaltenvektoren von P. Deshalb ist D = P
1
AP nach Satz 3.3.9 eine Diagonal-
matrix.
6.2.9 Beispiel. Das charakteristische Polynom der reellen Matrix
A =
_
_
_
_
2 0 0 0
0 2 0 0
1 2 0 1
2 4 1 0
_
_
_
_
ist nach Satz 5.4.12
char Pol
A
(X) = det
_
_
_
_
X 2 0 0 0
0 X 2 0 0
1 2 X 1
2 4 1 X
_
_
_
_
= (X 2)
2
(X
2
+1).
Ist nun F = C der Krper der komplexen Zahlen, so sind 2, i und i die verschie-
denen Eigenwerte von Anach Satz 6.1.12. Der Eigenraum zum Eigenwert 2 hat die
Dimension
n rg(E 2 A) = 4 rg
_
_
_
_
0 0 0 0
0 0 0 0
1 2 2 1
2 4 1 2
_
_
_
_
= 2.
Alsoist {v
1
= (2, 1, 0, 0), v
2
= (1, 0, 0, 1)} eine Basis des Eigenraums Ker(E2A)
zum Eigenwert 2. Zum Eigenwert i gehrt das homogene Gleichungssystem
_
_
_
_
i 2 0 0 0
0 i 2 0 0
1 2 i 1
2 4 1 i
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
0
0
0
0
_
_
_
_
.
132 6 Eigenwerte und Eigenvektoren
Hieraus folgt x
1
= x
2
= 0 und
ix
3
+x
4
= 0
x
3
+ix
4
= 0.
Da die beiden letzten Gleichungen sich nur umden Faktor i Cunterscheiden,
gilt dimKer(Ei A) = 1, und v
3
= (0, 0, i, 1) ist eine Basis dieses Eigenraums.
Analog ist v
4
= (0, 0, i, 1) eine Basis von Ker(E(i) A).
Die Transformationsmatrix P des Basiswechsels ist nach dem Verfahren 6.2.8
P =
_
_
_
_
2 1 0 0
1 0 0 0
0 0 i i
0 1 1 1
_
_
_
_
mit P
1
=
_
_
_
_
0 1 0 0
1 2 0 0
1
2
1
i
2
1
2
1
2
1
i
2
1
2
_
_
_
_
.
P
1
AP =
_
_
_
_
2 0 0 0
0 2 0 0
0 0 i 0
0 0 0 i
_
_
_
_
ist eine zu Ahnliche Diagonalmatrix ber dem Krper C der komplexen Zahlen.
6.3 Jordansche Normalform
Sei V ein n-dimensionaler Vektorraum ber dem Krper F. Von allen in diesem
Abschnitt betrachteten Endomorphismen End
F
(V) von V wird vorausge-
setzt, da ihr charakteristisches Polynom in Linearfaktoren ber F zerfllt. Sind
f
1
, f
2
, . . . , f
m
F die verschiedenen Eigenwerte von mit den algebraischen
Vielfachheiten c
1
, c
2
, . . . , c
m
, dann gilt also
char Pol
(X) = (X f
1
)
c
1
(X f
1
)
c
2
. . . (X f
m
)
c
m
,
wobei c
1
+c
2
+ +c
m
= n.
6.3.1 Denition. Sei End
F
(V) ein Endomorphismus des F-Vektorraumes V.
Der Krper F heit ein Zerfllungskrper fr , wenn sein charakteristisches Poly-
nom char Pol
(X) = X
2
+1.
In diesemAbschnitt wird gezeigt, da zu jedem Endomorphismus End
F
(V)
ber einem Zerfllungskrper F eine Basis B von V existiert derart, da die Matrix
A
(B, B) von eine spezielle Dreiecksmatrix ist. Sie heit Jordansche Normalform
von . Ist diagonalisierbar, so ist A
k
V und Ker(
k+1
) = Ker(
k
),
V =
k
V Ker(
k
).
Insbesondere sind die direkten Summanden
k
V und Ker(
k
) von V -invariante
Unterrume.
Beweis: Wegen dim
F
Ker(
i
) n fr i = 1, 2, . . . tritt in der aufsteigenden Kette
Ker() Ker(
2
) Ker(
i
) Ker(
i+1
)
das Gleichheitszeichen auf. Sei
k = min{i | Ker(
i
) = Ker(
i+1
)}.
Nach Satz 3.2.13 ist daher
dim
F
(
k+1
V) = n dim
F
[Ker(
k+1
)]
= n dim
F
[Ker(
k
)] = dim
F
(
k
V).
Deshalb ist
k+1
V =
k
V nach Folgerung 2.2.14, weil stets
k+1
V
k
V gilt.
Aus
k+1
V =
k
V folgt
k+r
V =
k
V fr alle r = 1, 2, . . . . Wegen Ker(
k
)
Ker(
k+r
) und Satz 3.2.13 gilt daher Ker(
k+r
) = Ker(
k
) fr alle r = 1, 2, . . . .
Sei v
k
V Ker(
k
). Dann ist v =
k
u fr ein u V und o =
k
v =
2k
u. Also ist u Ker(
2k
) = Ker(
k
), woraus v =
k
u = o folgt. Deshalb ist
Ker(
k
)
k
V = o und V =
k
V +Ker(
k
), weil
n = dim
F
V = dim
F
(
k
V) +dim
F
(Ker
k
).
Wegen
k+1
V =
k
V und Ker(
k
) = Ker(
k+1
) sind diese Unterrume von V
beide -invariant.
134 6 Eigenwerte und Eigenvektoren
6.3.4 Denition. Sei End
F
(V) und f F ein Eigenwert von . Sei =
f id
V
End
F
(V). Die nach demSatz von Fitting existierende kleinste natrliche
Zahl 0 < k n = dim
F
V mit
k+1
V =
k
V, Ker(
k+1
) = Ker(
k
) und
V =
k
V Ker(
k
) heit der Exponent des Eigenwerts f von . Er wird mit
e = e
(f ) = k bezeichnet.
Der hierzu gehrige Unterraum Ker(
e
) = Ker(
k
) heit der verallgemeinerte
Eigenraum von zum Eigenwert f .
6.3.5 Hilfssatz. Sei f F ein Eigenwert von End
F
(V) mit Exponent e
(f ) =
e. Sei = f id
V
End
F
(V) und
char Pol
(X) = (X f )
c
(X f
2
)
c
2
. . . (X f
m
)
c
m
,
das charakteristische Polynom von mit paarweise verschiedenen Eigenwerten
f, f
2
, . . . , f
m
. Dann gelten:
(a) V =
e
(V) Ker(
e
).
(b) Beide Unterrume
e
(V) und Ker(
e
) von V sind sowohl - als auch -
invariant.
(c) Die Einschrnkung
von auf
e
(V) ist injektiv.
(d) f ist kein Eigenwert der Einschrnkung
von auf
e
(V).
(e) (X f )
c
ist das charakteristische Polynom der Einschrnkung
von auf
Ker(
e
).
(f) char Pol
(X) = (Xf
2
)
c
2
(Xf
3
)
c
3
. . . (Xf
m
)
c
m
ist das charakteristische
Polynom der Einschrnkung
von auf
e
(V).
Beweis: (a) gilt nach Satz 6.3.3 und Denition 6.3.4.
(b) Wegen = f id
V
End
F
(V) ist = , und so
e
=
e
.
Daher gilt [
e
(V)] =
e
(V)
e
(V). Ist v Ker(
e
), so ist
e
v = 0 und
e
v =
e
(v) = 0. Also ist auch Ker(
e
) -invariant. Nach Satz 6.3.3 sind beide
Unterrume -invariant.
(c) Nach Denition 6.3.4 und Satz 6.3.3 gilt
e+1
(V) =
e
V. Also ist die
Einschrnkung
von auf
e
(V) surjektiv. Aus dem Dimensionssatz 3.2.13 folgt
daher Ker(
) = 0.
(d) Nach (c) gilt Ker(
) = Ker(
f id
V
) = 0, wobei
die Einschrnkung
von auf
e
(V) ist. Also ist f kein Eigenwert von
.
(e) Sei
(X)]. ()
6.3 Jordansche Normalform 135
Nach (d) ist (X f )
c
kein Teiler von char Pol
(X) ist.
Wre f
i
fr ein i {2, 3, . . . , m} ein Eigenwert von
, dann wre v = vf
i
fr ein 0 = v Ker(
e
). Also existiert eine kleinste natrliche Zahl s < e mit
v Ker(
s
), aber v Ker(
s1
). Sicherlich ist
v = vf
i
= v(f
i
f ) +vf,
und so
v(f
i
f ) = v vf = v mit f
i
f = 0.
Hieraus folgt
s1
v(f
i
f ) =
s
v = 0.
Also ist
s1
v = 0 im Widerspruch zu v Ker(
s1
). Daher ist char Pol
(X) =
(X f )
c
.
(f) ist eine unmittelbare Folge von () und (e).
6.3.6 Satz. Sei ein Endomorphismus des n-dimensionalen Vektorraums V ber
dem Krper F, dessen Eigenwerte f
1
, f
2
, . . . f
m
zu F gehren. Dann gelten:
(a) Jeder verallgemeinerte Eigenraum Ker[( f
i
id
V
)
e
i
] ist ein -invarianter
Unterraum von V.
(b) V ist die direkte Summe der m verallgemeinerten Eigenrume
Ker[( f
i
id
V
)
e
i
]
von , wobei e
i
der Exponent des Eigenwerts f
i
ist.
Beweis: (a) folgt unmittelbar aus Hilfssatz 6.3.5.
(b) Sei char Pol
(X) = (Xf
1
)
c
i
(Xf
2
)
c
2
. . . (Xf
m
)
c
m
. Sei
i
= f
i
id
V
und e
i
der Exponent von f
i
fr i = 1, 2, . . . , m. Nach Hilfssatz 6.3.5 gilt:
V =
e
1
1
(V) Ker(
e
1
1
)
und char Pol
(X) = (Xf
2
)
c
2
(Xf
3
)
c
3
. . . (Xf
m
)
c
m
, wobei
die Einschrn-
kung von auf V
=
e
1
1
(V) ist. Da V
und Ker(
e
1
1
) -invariante Unterrume nach
Hilfssatz 6.3.5 (b) sind, ergibt sich die Behauptung (b) durch vollstndige Induktion
nach m.
6.3.7 Denition. Ein Endomorphismus des F-Vektorraums V heit nilpotent,
wenn es eine natrliche Zahl s gibt derart, da
s
= 0. Die kleinste Zahl k mit
k
= 0 heit der Nilpotenzindex von .
136 6 Eigenwerte und Eigenvektoren
6.3.8 Bemerkung. Mit den Bezeichnungen des Satzes 6.3.3 von Fitting gilt: Die
Einschrnkung von auf den -invarianten Unterraum U = Ker(
k
) von V ist ein
nilpotenter Endomorphismus von U mit Nilpotenzindex k.
Im folgenden Satz wird ein Verfahren fr die Berechnung der Elementartei-
ler eines nilpotenten Endomorphismus eines n-dimensionalen F-Vektorraums V
beschrieben. Auerdem wird eine Basis B von V konstruiert, bezglich derer die
n n-Matrix A
j=1
w
j
= dim
F
[Ker(
e
i
)/ Ker(
e
i
1
)]
eindeutig bestimmt.
6.3.10 Satz. Sei End
F
(V) ein nilpotenter Endomorphismus des n-dimensio-
nalen Vektorraums V ber dem Krper F mit den verschiedenen Elementarteilern
e
1
> e
2
> > e
h
> 0
mit den Vielfachheiten w
1
, w
2
, . . . , w
h
. Sei r = dim
F
Ker( ). Dann gelten:
(a)
h
i=1
w
i
= r.
6.3 Jordansche Normalform 137
(b) Fr jedes i = 1, 2, . . . , h gibt es eine direkte Summe
w
i
j
i
=1
U
ij
i
von
-invarianten Unterrumen U
ij
i
, 1 j
i
w
i
, die jeweils eine Basis
B
ij
i
= {m
ij
i
, m
ij
i
, . . . ,
e
i
1
m
ij
i
} besitzen, bezglich derer die Einschrn-
kung
|U
ij
i
=
ij
i
von auf U
ij
i
die e
i
e
i
-Matrix
J
ij
i
= A
ij
i
(B
ij
i
, B
ij
i
) =
_
_
_
_
_
_
_
_
_
_
0 0
1 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_
_
_
_
_
_
_
_
_
_
mit e
i
1 Einsen in der unteren Nebendiagonalen hat.
(c) V =
h
i=1
w
i
j
i
=1
U
ij
i
und n =
h
i=1
e
i
w
i
.
(d) B =
h
i=1
w
i
j
i
=1
B
ij
i
ist eine Basis von V bezglich derer die diagonale
Blockmatrix
J = A
(B, B) =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
J
11
.
.
.
J
1,w
1
.
.
.
J
h,1
.
.
.
J
h,w
h
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
hat.
Beweis: Da nilpotent ist, ist nach Denition 6.3.9 der Nilpotenzindex e
1
von
der grte Elementarteiler von . Also ist V = Ker(
e
1
) > Ker(
e
1
1
). Nach Satz
2.3.18 gibt es daher w
1
linear unabhngige Vektoren m
1j
1
V, 1 j
1
w
1
, die
einen Unterraum U
1
von V erzeugen derart, da
V = Ker(
e
1
1
) U
1
und so Ker(
e
1
1
) U
1
= 0
ist. Fr jedes j
1
sind die Vektoren m
1j
1
, m
1j
1
, . . . ,
e
1
1
m
1j
1
linear unabhangig,
weil aus
m
1j
1
f
0
+ m
1j
1
f
1
+ +
e
1
1
m
1j
1
f
e
1
1
= 0
138 6 Eigenwerte und Eigenvektoren
zunchst
e
1
1
m
1j
1
f
0
= 0 und so
m
1j
1
f
0
Ker(
e
1
1
) U
1
= 0
folgt, woraus sich f
0
= 0 und anschlieend durch analoge Schluweise f
i
= 0 fr
alle 1 i e
1
1 ergibt.
Da den Nilpotenzindex e
1
hat, ist
U
1j
1
= m
1j
1
, m
1j
1
, . . . ,
e
1
1
m
1j
1
fr jedes j
1
= 1, 2, . . . , w
1
ein -invarianter Unterraum von V mit Dimension e
1
.
Wre U
11
w
1
j
1
=2
U
1j
1
= 0, dann wre
m
1j
1
f
0
+ m
1j
1
f
1
+ +
e
1
1
m
1j
1
f
e
1
1
=
w
1
j
1
=2
e
1
1
k=0
k
m
1j
1
f
kj
1
()
fr geeignete f
k
, f
kj
1
F, die nicht smtlich Null sind. Durch Linksmultiplikation
von () mit
e
1
1
folgt
e
1
1
m
1j
1
f
0
=
e
1
1
_
w
1
j
1
=2
m
1j
1
f
0j
1
_
,
und so
m
1j
1
f
0
w
1
j
1
=2
m
1j
1
f
0j
1
Ker(
e
1
1
) U
1
= 0
Wegen der linearen Unabhngigkeit der w
1
Vektoren m
1j
1
, 1 j
1
w
1
, gilt daher
f
0
= 0 = f
0j
1
fr alle 2 j
1
w
1
. Analog zeigt man durch Linksmultiplikation
von () mit
e
1
2
,
e
1
3
, da auch die restlichen Koefzienten f
i
und f
kj
1
gleich
Null sind. Aus diesemWiderspruch folgt, da W
1
=
w
1
j
1
=1
U
1j
1
eine direkte Summe
von -invarianten Unterrumen von V ist.
Ist h = 1, dann ist V = W
1
und weiter
e
1
1
(W
1
) = Ker( ), d. h. w
1
=
dim
F
Ker( ) = r. Also gelten alle Behauptungen (a) bis (d) fr h = 1.
Angenommen, fr i = 1, 2, . . . , k und k < h sei schon die Existenz von
-invarianten Unterrumen U
ij
i
, 1 j
i
w
i
, 1 i k gezeigt derart, da
W
i
=
w
i
j
i
=1
U
ij
i
eine direkte Summe von -invarianten, e
i
-dimensionalen Unter-
rumen von V ist und W
1
W
2
W
k
eine direkte Summe ist. Dabei sei B
ij
i
=
{m
ij
i
, m
ij
i
, . . . ,
e
i
1
m
ij
i
} eine Basis von U
ij
i
und U
i
= m
ij
i
| 1 j
i
w
i
ein
Unterraum von V mit
_
i1
s=1
e
s
e
i
(W
s
) +Ker(
e
i
1
)
_
U
i
= 0
6.3 Jordansche Normalform 139
und
Ker(
e
i
) =
_
i1
s=1
e
s
e
i
(W
s
) +Ker(
e
i
1
)
_
U
i
.
Wegen k < h ist 0 < e
k+1
< e
k
. Nach Denition 6.3.9 ist
w
k+1
= dim
F
[Ker(
k
)/ Ker(
k1
)] dim
F
[Ker(
k+1
)/ Ker(
k
)] > 0.
Also existiert ein w
k+1
-dimensionaler Unterraum U
k+1
von Ker(
e
k+1
) mit
_
k
s=1
e
s
e
k+1
(W
s
) +Ker(
e
k+1
1
)
_
U
k+1
= Ker(
e
k+1
)
und Basis {m
k+1,j
k+1
| 1 j
k+1
w
k+1
}. Fr jedes j
k+1
sei B
k+1,j
k+1
=
{m
k+1,j
k+1
, m
k+1,j
k+1
, . . . ,
e
k+1
1
m
k+1,j
k+1
} und U
k+1,j
k+1
das Erzeugnis von
B
k+1,j
k+1
. Dann sind nach dem im ersten Abschnitt gegebenen Beweis die w
k+1
Unterrume U
k+1,j
k+1
alle e
k+1
-dimensional und -invariant. Weiter ist die Summe
W
k+1
=
w
k+1
j
k+1
=1
U
k+1,j
k+1
direkt. Wegen U
k+1
_
k
s=1
e
s
e
k+1
(W
s
) + Ker(
e
1
k+1
)
_
= 0 ist es wie oben
einfach zu zeigen, da die Summe
k+1
s=1
W
s
direkt ist. Insbesondere sind die w
k+1
linear unabhngigen Elemente
e
1
k+1
m
k+1,j
k+1
im Kern von . Durch vollstndige
Induktionnachk folgennun(a)
h
i=1
w
i
= r = dim
F
Ker( ) unddie Behauptungen
(b) und (c) des Satzes. Die Behauptung (d) folgt unmittelbar aus (c) und Satz 3.7.3
6.3.11 Satz (Jordansche Normalform). Sei F ein Zerfllungskrper fr den Endo-
morphismus des n-dimensionalen F-Vektorraums V. Seien f
1
, f
2
, . . . , f
k
die ver-
schiedenen Eigenwerte von . Fr jedes i = 1, 2, . . . , k sei
i
= f
i
id
V
End
F
(V) und e
i
= e
(f
i
) der Exponent von f
i
. Dann gelten:
(a) Die k verallgemeinerten Eigenrume Ker(
e
i
i
) von sind -invariante Unter-
rume.
(b) V =
k
i=1
Ker(
e
i
i
).
(c)
i
ist ein nilpotenter Endomorphismus von Ker(
e
i
i
) mit Nilpotenzindex e
i
.
(d) Seien e
i1
= e
i
> e
i2
> > e
ir
i
> 0 die verschiedenen Elementarteiler von
i
und sei w
ij
i
die Vielfachheit des Elementarteilers e
ij
i
von
i
. Dann gibt es
140 6 Eigenwerte und Eigenvektoren
eine Basis B von V, bezglich derer die Matrix A
(B, B) =
_
_
_
_
_
_
R
1
0 0
0 R
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 R
k
_
_
_
_
_
_
,
und jede Matrix R
i
hat die Form
R
i
=
_
_
_
_
_
_
_
_
B
i1
0 0
0 B
i2
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 B
ir
i
_
_
_
_
_
_
_
_
,
wobei B
ij
i
eine diagonale Blockmatrix mit w
ij
i
gleichen e
ij
i
e
ij
i
-Matrizen
J
ij
i
der folgenden Gestalt ist:
J
ij
i
=
_
_
_
_
_
_
_
_
_
_
_
_
_
f
i
0 0 0
1 f
i
0
.
.
.
0 1 f
i
0
.
.
. 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1 f
i
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Die Matrizen J
ij
i
heien Jordankstchen von zum Eigenwert f
i
und Ele-
mentarteiler e
ij
i
.
Beweis: (a) und (b) gelten nach Satz 6.3.6. (c) folgt aus Satz 6.3.3.
Nach (a), Hilfssatz 6.3.5 und Satz 3.7.3 kann angenommen werden, da
char Pol
(X) = (X f )
n
fr ein f F ist. Insbesondere ist = f id
V
End
F
(V) nilpotent mit Nilpotenzindex e = e
(B, B) =
_
_
_
_
_
_
_
_
_
_
_
_
_
f 0 0 0
1 f 0
.
.
.
0 1 f 0
.
.
. 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1 f
_
_
_
_
_
_
_
_
_
_
_
_
_
nach Denition 3.3.1.
6.3.12 Folgerung. Ein Endomorphismus eines endlich-dimensionalen Vektor-
raums V ist genau dann diagonalisierbar, wenn sein charakteristisches Polynom in
Linearfaktoren zerfllt und fr alle Eigenwerte f von und deren Exponenten
e
(f ) = 1 gilt.
Beweis: Folgt sofort aus Satz 6.3.11 und Denition 6.3.4.
6.3.13 Berechnungsverfahren fr die Jordansche Normalform und die zuge-
hrige Transformationsmatrix. Sei V = F
n
der n-dimensionale, arithmetische
Vektorraum ber dem Krper F. Sei E = {e
1
, e
2
, . . . , e
n
} die kanonische Basis von
V. Sei A = (a
ij
) Mat
n
(F) eine n n-Matrix, deren smtliche verschiedenen
Eigenwerte f
u
, 1 u k, im Krper F liegen. Sei End
F
(V) der zu A geh-
rige Endomorphismus von V, d. h. (e
j
) =
n
i=1
e
i
a
ij
fr j = 1, 2, . . . , n. Dann
existiert nach Satz 6.3.11 eine Basis B von V, bezglich derer die Matrix A
(B, B)
von die Jordansche Normalformvon Aist. Auerdemsind die Basisvektoren b von
B die Spaltenvektoren der Transformationsmatrix Q, fr die A
(B, B) = Q
1
AQ
gilt.
Die Berechnung der Eigenwerte f
u
, 1 u k, von A, der zugehrigen Ele-
mentarteiler e
u1
e
u2
e
u3
e
ur
u
> 0 und der Basisvektoren von B wird
in folgenden Schritten durchgefhrt.
(a) Man berechnet die Koefzienten des charakteristischen Polynoms
char Pol
A
(X).
(b) Man bestimmt die Nullstellen f
u
von char Pol
A
(X) =
k
u=1
(X f
u
)
k
u
.
(c) Fr jeden Eigenwert f
u
von A, 1 u k, bestimmt man den grten
Elementarteiler e
u1
= e
u
durch
e
u
= min
_
j {1, 2, . . . , k
u
} | Ker
_
(Af
u
E
n
)
j
_
= Ker
_
(Af
u
E
n
)
j+1
_
}.
142 6 Eigenwerte und Eigenvektoren
Dann ist nach Satz 6.3.6 V
u
= Ker[(A f
u
E
n
)
e
u
] der verallgemeinerte Ei-
genraum von Azum Eigenwert f
u
, und V hat die eindeutige Zerlegung
V =
k
u=1
V
u
.
(d) Fr jeden Eigenwert f
u
von A, 1 u k, sei
u
=
|Vu
die Einschrnkung
von auf den -invarianten UnterraumV
u
von V. Weiter sei
u
der identische
Endomorphismus von V
u
und
u
=
u
f
u
u
End
F
(V
u
). Dann ist
u
ein
nilpotenter Endomorphismus von V
u
mit Nilpotenzindex e
u
.
(e) Fr jedes u {1, 2, . . . , k} sind nach Satz 6.3.11 die verschiedenen Elementar-
teiler e
u
= e
u1
e
u2
e
ur
u
> 0 von A zum Eigenwert f
u
gleich den
Elementarteilern des nilpotenten Endomorphismus
u
des verallgemeinerten
Eigenraums V
u
von V. Die Elementarteiler und die jeweilige Vielfachheit ei-
nes jeden der k nilpotenten Endomorphismen
u
End
F
(V
u
), 1 u k,
berechnet man mit dem in Satz 6.3.10 beschriebenen Verfahren.
(f) Fr jedes u {1, 2, . . . , k} konstruiert man mit dem in Satz 6.3.10 beschrie-
benen Verfahren eine Basis B
u
des verallgemeinerten Eigenraums V
u
von B.
Wegen
Ker[(
u
)
j
] = {v V
u
| (
u
)
j
(v) = 0} = Ker[(Af
u
E
n
)
j
] V
u
V
fr j = 1, 2, . . . , e
u
sind die Vektoren der Basis B
u
Spaltenvektoren aus
F
n
= V. Da V =
k
u=1
V
u
ist, ist B =
k
u=1
B
u
eine Basis von V. Nach
dem Beweis der Stze 6.3.10 und 6.3.11 ist die n n-Matrix A
(B, B) von
die Jordansche Normalform der Matrix A.
(g) Die Spaltenvektoren der n n-Transformationsmatrix Q sind die n-Tupel
der Vektoren der Basen B
u
, 1 u k, in der in Satz 6.3.10 angegebenen
Reihenfolge. A
(B, B) = Q
1
AQist die Jordansche Normalform der nn-
Matrix A.
6.3.14 Beispiel. Nach dem Verfahren 6.3.13 wird nun die Jordansche Normalform
der Matrix
A =
_
_
_
_
_
_
3 1 4 3 1
1 1 1 1 0
1 0 2 0 0
4 1 4 5 1
2 0 2 2 1
_
_
_
_
_
_
6.3 Jordansche Normalform 143
ber dem Krper Q berechnet:
char Pol
A
(X) = det(XE
5
A) (a)
= X
5
6X
4
+14X
3
16X
2
+9X 2
= (X 1)
4
(X 2).
Alsohat Adie Eigenwerte f
1
= 2undf
2
= 1. NachSatz 6.3.6ist V
1
= Ker(2E
5
A)
der verallgemeinerte Eigenraumvon AzumEigenwert 2, weil (X2) nur zur ersten
Potenz im charakteristischen Polynom von A aufgeht. Wegen rg(A 2E
5
) = 4 ist
a = (0, 1, 2, 3, 2) V = Q
5
eine Basis von V
1
= Ker(A 2E
5
) = aQ. Nach
Satz 6.3.11 ist daher e
11
= 1 der einzige Elementarteiler von A zum Eigenwert
f
1
= 2.
Fr f
2
= 1 betrachtet man zunchst die Rnge der Matrizen (A E
5
)
j
mit
j = {1, 2, 3, 4}. Wegen
(AE
5
)
3
=
_
_
_
_
_
_
0 0 0 0 0
1 0 1 1 0
2 0 2 2 0
3 0 3 3 0
2 0 2 2 0
_
_
_
_
_
_
= 0
und rg[(A E
5
)
3
] = 1 ist V
2
= Ker[(A E
5
)
3
] der verallgemeinerte Eigenraum
zum Eigenwert f
2
= 1, weil dim
Q
Ker[(A E
5
)
3
] = 4 = dim
Q
V dim
Q
V
1
ist.
Nach 6.3.13 (c) ist e
21
= 3 der grte Elementarteiler von AzumEigenwert f
2
= 1.
Wegen
rg(AE
5
) = rg
_
_
_
_
_
_
4 1 4 3 1
1 0 1 1 0
1 0 1 0 0
4 1 4 4 1
2 0 2 2 0
_
_
_
_
_
_
= 3
hat A nach Satz 6.3.10 zum Eigenwert f
2
= 1 nur r
2
= dim
Q
Ker(A E
5
) = 2
verschiedene Elementarteiler e
21
= 3 > e
22
> 0. Wegen dim
Q
V
2
= 4 folgt e
22
= 1.
Da
(AE
5
)
2
=
_
_
_
_
_
_
1 1 1 1 1
1 0 1 1 0
3 1 3 3 1
3 0 3 3 0
2 0 2 2 0
_
_
_
_
_
_
,
ist b = (0, 1, 0, 0, 0) Ker[(A E
5
)
3
] = V
2
, aber b Ker[(A E
5
)
2
]. Nun ist
(AE
5
)b = (1, 0, 0, 1, 0) und 0 = (AE
5
)
2
b = (1, 0, 1, 0, 0) Ker(AE
5
).
144 6 Eigenwerte und Eigenvektoren
Also sind (A E
5
)
2
b = (1, 0, 1, 0, 0) und c = (0, 1, 0, 0, 1) eine Basis von
Ker(AE
5
). Deshalb ist
B = B
1
B
2
= {a} {b, (AE
5
)b, (AE
5
)
2
b, c}
eine Basis von V, bezglich derer der zur Matrix A gehrige Endomorphismus
End
Q
(V) die Jordansche Normalform
A
(B, B) =
_
_
_
_
_
_
2 0 0 0 0
0 1 0 0 0
0 1 1 0 0
0 0 1 1 0
0 0 0 0 1
_
_
_
_
_
_
hat. Die Transformationsmatrix Q mit A
(B, B) = Q
1
AQ ist daher
Q =
_
_
_
_
_
_
0 0 1 1 0
1 1 0 0 1
2 0 0 1 0
3 0 1 0 0
2 0 0 0 1
_
_
_
_
_
_
.
6.4 Anwendung der Jordanschen Normalform
Eine wichtige Anwendung ndet die Jordansche Normalform einer (n n)-Matrix
A = (a
ij
) beim Lsen von Systemen homogener linearer Differentialgleichungen
1. Ordnung mit konstanten Koefzienten a
ij
F, wobei F entweder der Krper R
der reellen Zahlen oder der Krper C der komplexen Zahlen ist.
6.4.1 Denition. Seien x
1
(t ), x
2
(t ), . . . , x
n
(t ) gesuchte, auf R oder C denierte,
reell- oder komplexwertige Funktionen in der Variablen t , die zusammen mit ihren
erstenAbleitungenx
i
(t ) fr alle t Roder t Cdie folgendenlinearenGleichungen
x
1
(t ) = a
11
x
1
(t ) +a
12
x
2
(t ) + +a
1n
x
n
(t )
x
2
(t ) = a
21
x
1
(t ) +a
22
x
2
(t ) + +a
2n
x
n
(t )
(1)
.
.
.
x
n
(t ) = a
n1
x
1
(t ) +a
n2
x
2
(t ) + +a
nn
x
n
(t )
mit konstanten Koefzienten a
ij
F erfllen.
Ein solches System (1) heit homogenes System von linearen Differentialglei-
chungen erster Ordnung mit konstanten Koefzienten. Die (nn)-Matrix A = (a
ij
)
heit Koefzientenmatrix des homogenen linearen Differentialgleichungssystems.
6.4 Anwendung der Jordanschen Normalform 145
Mit den Spaltenvektoren
x(t ) = (x
1
(t ), x
2
(t ), . . . , x
n
(t )) und x
(t ) = (x
1
(t ), x
2
(t ), . . . , x
n
(t ))
hat das System (1) auch die Matrizenform
(2) x
(t ) = Ax(t ).
In der Vorlesung ber Differentialgleichungen wird gezeigt, da ein System
x
(t ) = Ax(t )
derart, da x(t
0
) = b = (b
1
, b
2
, . . . , b
n
).
Die Vektorgleichung x(t
0
) = b heit Anfangsbedingung von (2). Der Vektor b
heit Anfangsvektor .
6.4.3 Hilfssatz. Sei () x
(t ) = Au(t ) = AP(P
1
u(t )), woraus wegen D = P
1
AP folgt
P
1
u
(t ) = (P
1
AP)(P
1
u(t )) = D(P
1
u(t )).
Da konstante Faktoren bei der Ableitung erhalten bleiben, ist (P
1
u(t ))
=
P
1
u
1
(t ) =
fy
1
(t ).
Angenommen, die Behauptung ist schon fr k 1 bewiesen. Nach () gilt dann
fr die k-te Gleichung:
y
k
(t ) = y
k1
(t ) +fy
k
(t ),
wobei nach Induktionsannahme
y
k1
(t ) = e
f (t t
0
)
_
1
(k 2)!
b
1
(t t
0
)
k2
+ +b
k2
(t t
0
) +b
k1
_
ist. Hieraus folgt
y
k
(t )e
f (t t
0
)
fy
k
(t )e
f (t t
0
)
=
1
(k 2)!
b
1
(t t
0
)
k2
+ +b
k2
(t t
0
)+b
k1
.
Nach dem Produktsatz der Differentialrechnung gilt
[y
k
(t )e
f (t t
0
)
]
= y
k
(t )e
f (t t
0
)
fy
k
(t )e
f (t t
0
)
.
Also ist nach Integration
y
k
(t )e
f (t t
0
)
=
1
(k 1)!
b
1
(t t
0
)
k1
+ +
1
2
b
k2
(t t
0
)
2
+b
k1
)(t t
0
) +c,
6.4 Anwendung der Jordanschen Normalform 147
wobei c F eine Konstante ist. Hieraus folgt
y
k
(t ) = e
f (t t
0
)
_
1
(k 1)!
b
1
(t t
0
)
k1
+
+
1
2
b
k2
(t t
0
)
2
+b
k1
(t t
0
) +c
_
.
Wegen y
k
(t
0
) = b
k
ist c = b
k
.
Mit diesen Hilfsmitteln soll nun ein konkretes homogenes System von linearen
Differentialgleichungen erster Ordnung gelst werden.
6.4.5 Beispiel. Gegeben sei das homogene System linearer Differentialgleichungen
erster Ordnung () x
(t ) = Jy(t )
die Anfangsbedingung c = y(1) = Q
1
b = (1, 4, 3, 0, 6). Da J aus 3 Jordan-
kstchen besteht, liefert Satz 6.4.4 den folgenden Lsungsvektor
y(t ) = (y
1
(t ), y
2
(t ), . . . , y
5
(t )
von (), wobei
y
1
(t ) = e
2(t 1)
, y
2
(t ) = 4e
t 1
, y
3
(t ) = e
t 1
[4(t 1) 3]
y
4
(t ) = e
t 1
[2(t 1)
2
3(t 1)], y
5
(t ) = 6e
t 1
.
148 6 Eigenwerte und Eigenvektoren
Als Lsungsvektor x(t ) des ursprnglichen Systems () x
n
i=1
c
k
i
fr alle k = 1, 2, . . . .
(b) Eine komplexe Zahl a ist genau dann Eigenwert der r-ten Potenz von , wenn es einen
Eigenwert c von mit a = c
r
gibt.
(c) Geben Sie ein Beispiel an, fr das die Vielfachheit von c
r
als Eigenwert von
r
grer
ist als die Vielfachheit von c als Eigenwert von .
6.9 Es sei A eine komplexe 3 3-Matrix und a
i
= tr A
i
, i = 1, 2, 3. Zeigen Sie:
charPol
A
(X) = X
3
a
1
X
2
+
1
2
(a
2
1
a
2
)X
1
6
(a
3
1
+2a
3
3a
2
a
1
).
6.10 Berechnen Sie A
1000
fr die rationale 3 3-Matrix
A =
_
_
0 0 2
1 0 1
0 1 2
_
_
.
150 6 Eigenwerte und Eigenvektoren
6.11 Seien A, B zwei diagonalisierbare n n-Matrizen ber dem Krper F, fr die AB =
BAgilt. Zeigen Sie, da Aund B in V = F
n
ein gemeinsames n-Tupel von Eigenvektoren
v
1
, v
2
, . . . , v
n
haben.
6.12 Berechnen Sie das charakteristische Polynom, die Elementarteiler, die Jordansche Nor-
malform und die zugehrige Transformationsmatrix fr die Matrix
A =
_
_
_
_
1 0 0 0
0 1 0 0
8 6 2 2
12 9 4, 5 4
_
_
_
_
.
6.13 Bestimmen Sie die Jordansche Normalform und die Transformationsmatrix ber dem
Zerfllungskrper C von der folgenden Matrix
A =
_
_
_
_
_
_
_
_
1 0 0 1 0 0
1 1 1 1 0 0
1 1 1 1 0 0
1 0 0 1 0 0
0 0 0 2 0 1
0 0 0 2 4 4
_
_
_
_
_
_
_
_
.
6.14 Zeigen Sie:
(a) Die nn-Matrix A = (a
ij
) mit a
ij
F ist genau dann zu einer oberen Dreiecksmatrix
B = (b
ij
) mit b
ij
F hnlich, wenn ihr charakteristisches Polynom in F[X] in lauter
Linearfaktoren zerfllt, d. h.
char Pol
A
(X) =
k
r=1
(X f
r
)
c
r
mit c
1
+c
2
+ +c
k
= n.
(b) Gelten die quivalenten Bedingungen der Aussage (a), dann sind die Diagonalelemente
b
ii
der Dreiecksmatrix B die Eigenwerte f
r
von A, und zwar mit der jeweiligen
Vielfachheit c
r
.
6.15 Berechnen Sie eine Lsung des homogenen Differentialgleichungssystems x
= Ax
erster Ordnung mit Anfangsvektor x(0) = (2, 1, 4) und Koefzientenmatrix
A =
_
_
4 3 1
1 0 1
1 2 3
_
_
.
6.5 Aufgaben 151
6.16 Man bestimme mit demVerfahren der Bemerkung 6.1.11 das charakteristische Polynom
der Matrix
A =
_
_
_
_
_
_
_
_
1 3 4 7 1 3
2 8 8 17 1 12
2 4 4 11 1 6
1 2 3 7 1 2
0 1 1 3 3 3
1 3 4 8 0 3
_
_
_
_
_
_
_
_
.
6.17 Man bestimme mit der Lsung vonAufgabe 6.16 und demVerfahren 6.3.13 die Jordan-
sche Normalform J und eine Transformationsmatrix Q mit Q
1
AQ = J der Matrix A von
Aufgabe 6.16.
6.18 Man berechne eine Lsung des homogenen Systems linearer Differentialgleichungen
1. Ordnung x
Lnge und
Winkel erweisen sich also als Relativbegriffe, die von der Wahl des skalaren Pro-
dukts abhngen. Sie werden im zweiten Abschnitt behandelt. Wesentlich ist beson-
ders der Begriff der Orthogonalitt, auf den in diesemAbschnitt ebenfalls eingegan-
gen wird.
Mit diesen Hilfsmitteln wird im dritten Abschnitt das Orthogonalisierungsver-
fahren von Gram und Schmidt fr euklidische und unitre Vektorrume dargestellt.
Danach werden die adjungierten Abbildungen und normalen Endomorphismen be-
handelt. Der fnfteAbschnitt enthlt die Klassikation der orthogonalen und unitren
Endomorphismen eines solchen Vektorraumes.
Nach diesen Vorbereitungen werden im sechsten Abschnitt das Hauptachsen-
theorem und der Trgheitssatz von Sylvester fr Hermitesche und symmetrische
Matrizen bewiesen.
7.1 Skalarprodukte und Hermitesche Formen
Zunchst sei in diesem Paragraphen V ein beliebiger reeller Vektorraum; der Skala-
renkrper F ist also der Krper R der reellen Zahlen.
Weiter sei nun eine Bilinearform von V: Jedem geordneten Paar (x, y) von
Vektoren aus V wird also durch eindeutig eine reelle Zahl (x, y) als Wert zuge-
7.1 Skalarprodukte und Hermitesche Formen 153
ordnet, und es gelten die Linearittseigenschaften
(x
1
+x
2
, y) = (x
1
, y) + (x
2
, y),
(x, y
1
+y
2
) = (x, y
1
) + (x, y
2
),
(xc, y) = (x, y)c = (x, yc)
fr alle x, x
1
, x
2
, y, y
1
, y
2
V und c R.
7.1.1 Denition. Eine Bilinearform von V heit ein skalares Produkt von V, wenn
sie folgende Eigenschaften besitzt:
(a) ist symmetrisch: Fr beliebige Vektoren gilt
(x, y) = (y, x).
(b) ist positiv denit: Fr jeden von o verschiedenen Vektor x gilt
(x, x) > 0.
7.1.2 Bemerkung. Einskalares Produkt ist somit eine positivdenite, symmetrische
Bilinearform von V. Wegen (o, x) = (o0, x) = (o, x)0 = 0 gilt (o, o) = 0.
Wegen (b) folgt aber aus (x, x) = 0 umgekehrt auch x = o. Es ist also (x, x) = 0
gleichwertig mit x = o. Fr jeden Vektor x gilt daher (x, x) 0.
7.1.3 Beispiele.
(a) Es sei {v
1
, . . . , v
n
} eine Basis von V = R
n
. Hinsichtlich dieser Basis ent-
sprechen nach Satz 2.2.18 die Vektoren x, y V umkehrbar eindeutig den
Koordinaten-n-Tupeln (x
1
, . . . , x
n
) bzw. (y
1
, . . . , y
n
). In Denition 3.1.11
wurde durch
(x, y) = x
1
y
1
+ +x
n
y
n
ein skalares Produkt deniert, das dort Skalarprodukt genannt wurde. Da es
die in Denition 7.1.1 geforderten Eigenschaften besitzt, ist die in Kapitel 2
verwendete Bezeichnung gerechtfertigt.
(b) Sei n = 2 und : R
2
R
2
R deniert durch:
(x, y) = 4x
1
y
1
2x
1
y
2
2x
2
y
1
+3x
2
y
2
.
Die Linearittseigenschaften und die Symmetrie von ergeben sich unmittel-
bar. Wegen
(x, x) = (2x
1
x
2
)
2
+2x
2
2
ist auch positiv denit, weil aus (x, x) = 0 zunchst 2x
1
x
2
= 0 und
x
2
= 0, also auch x
1
= 0 folgt.
154 7 Euklidische und unitre Vektorrume
(c) Es sei V ein unendlich-dimensionaler Vektorraum ber R, und B sei eine
Basis von V. Je zwei Vektoren x, y besitzen dann nach Satz 2.3.15 eindeutige
Basisdarstellungen
x =
vB
vx
v
und y =
vB
vy
v
,
wobei jedoch nur hchstens endlich viele der Koordinaten x
v
bzw. y
v
von Null
verschieden sind. In
(x, y) =
vB
x
v
y
v
sind daher ebenfalls nur endlich viele Summanden von Null verschieden, und
wie in (a) wird hierdurch ein skalares Produkt von V deniert.
(d) Es seien a und b zwei reelle Zahlen mit a < b, und V sei der Vektorraum aller
auf demIntervall [a, b] deniertenundstetigenreellenFunktionen. Schlielich
sei h eine stetige reelle Funktion mit h(t ) > 0 fr a t b. Setzt man fr je
zwei Funktionen f, g V
(f, g) =
_
b
a
h(t )f (t )g(t ) dt,
so ist ein skalares Produkt von V. Dies gilt nicht mehr, wenn V sogar aus
allen in [a, b] integrierbaren Funktionen besteht; dann ist nmlich nicht mehr
positiv denit, wie folgendes Beispiel zeigt.
Es sei a = 0, b = 1, h(t ) = 1 fr 0 t 1 und
f (t ) =
_
1 fr t = 0,
0 fr t > 0.
Dann ist (f, f ) =
_
1
0
f (t )f (t ) dt = 0, obwohl f = 0 in V ist.
7.1.4 Denition. Ein reeller Vektorraum V, in dem zustzlich ein skalares Produkt
ausgezeichnet ist, wird ein euklidischer Vektorraum genannt.
7.1.5 Bezeichnung. Da in einem euklidischen Vektorraum das skalare Produkt fest
gegeben ist, kann man auf das unterscheidende Funktionszeichen verzichten. Man
schreibt daher statt (x, y) krzer nur x y oder bisweilen auch (x, y).
Die zweite Bezeichnungsweise ist besonders in den Fllen blich, in denen die
Schreibweise x y zu Verwechslungen fhren kann. Dies gilt z. B. fr Funktio-
nenrume, in denen ja neben dem skalaren Produkt auch noch die gewhnliche
Produktbildung fr Funktionen deniert ist.
7.1 Skalarprodukte und Hermitesche Formen 155
7.1.6 Bemerkung. In einem euklidischen Vektorraum ist das skalare Produkt durch
folgende Eigenschaften gekennzeichnet:
(x
1
+x
2
) y = x
1
y +x
2
y,
(xc) y = (x y)c,
x y = y x,
x x > 0 fr x = o.
Die jeweils zweiten Linearittseigenschaften
x (y
1
+y
2
) = x y
1
+x y
2
und x (yc) = (x y)c
folgen aus den ersten Linearittseigenschaften und aus der Symmetrie; sie brauchen
daher nicht gesondert aufgefhrt zu werden.
Der Begriff des skalaren Produkts kann auch auf Vektorrume ber demKrper C
der komplexen Zahlen bertragen werden. Umhier ebenfalls den Begriff des skalaren
Produkts erklren zu knnen, mu zuvor der Begriff der Bilinearform modiziert
werden. Es sei also jetzt V ein komplexer Vektorraum.
7.1.7 Denition. Unter einer Hermiteschen Form von V versteht man eine Zuord-
nung, die jedemgeordneten Paar (x, y) vonVektoren aus V eindeutig eine komplexe
Zahl (x, y) so zuordnet, da folgende Eigenschaften erfllt sind:
(x
1
+x
2
, y) = (x
1
, y) +(x
2
, y). (1)
(xc, y) = (x, y)c. (2)
(y, x) = (x, y). (3)
Die ersten zwei Forderungen sind die Linearittseigenschaften hinsichtlich des
ersten Arguments. Forderung (3) tritt an die Stelle der Symmetrie bei reellen Bili-
nearformen. Sie besagt, da bei Vertauschung der Argumente der Wert von in die
konjugiert komplexe Zahl bergeht.
7.1.8 Hilfssatz. Fr eine Hermitesche Form gilt:
(x, y
1
+y
2
) = (x, y
1
) +(x, y
2
).
(x, yc) = (x, y) c.
(x, x) ist eine reelle Zahl.
Beweis: Aus (1) und (3) von Denition 7.1.7 folgt
(x, y
1
+y
2
) = (y
1
+y
2
, x) = (y
1
, x) +(y
2
, x) = (x, y
1
) +(x, y
2
).
156 7 Euklidische und unitre Vektorrume
Ebenso ergibt sich aus (2) und (3)
(x, yc) = (yc, x) = (y, x) c = (x, y) c.
Wegen (3) gilt schlielich (x, x) = (x, x), weswegen (x, x) eine reelle Zahl
ist.
7.1.9 Bemerkung. Hinsichtlich der zweiten Linearittseigenschaft und des zweiten
Arguments zeigen also die Hermiteschen Formen ein abweichendes Verhalten: Ein
skalarer Faktor beimzweitenArgument tritt hinter die Formals konjugiert-komplexe
Zahl.
Da bei einer Hermiteschen Form nach demletzten Satz (x, x) stets eine reelle
Zahl ist, kann die Denition von
= (x
, y
= (x +x
, y +y
).
Ist ferner a = a
1
+a
2
i eine komplexe Zahl, so werde
za = (xa
1
ya
2
, ya
1
+xa
2
) ()
gesetzt. Man berzeugt sich nun unmittelbar davon, da Z hinsichtlich der so de-
nierten Operationen ein komplexer Vektorraum mit dem Paar (o, o) als Nullvektor
ist. In ihn kann der Vektorraum V in folgendem Sinn eingebettet werden: Jedem
Vektor x V werde als Bild das Paar x = (x, o) aus Z zugeordnet. Dann gilt
(x
1
+x
2
) = (x
1
+x
2
, o) = (x
1
, o) +(x
2
, o) = x
1
+x
2
.
Ist auerdem c eine reelle Zahl, so kann man sie auch als komplexe Zahl c = c +0i
auffassen und erhlt wegen ()
(xc) = (xc, o) = (x, o)c = (x)c.
Da auerdem injektiv ist, wird der VektorraumV durch isomorph in Z eingebet-
tet, und man kann einfacher die Paare (x, o) direkt mit den entsprechenden Vektoren
x V identizieren. Wegen (y, o)i = (o, y) gilt im Sinn dieser Identikation
(x, y) = x +yi.
7.1.13 Denition. Der komplexe Vektorraum Z = {(x, y) | x, y V} heit die
komplexe Erweiterung des reellen Vektorraums V.
7.1.14 Satz. Es sei : V V
die komplexe
Fortsetzung von .
7.1.16 Denition. In V sei nun ein skalares Produkt gegeben, das wie oben mit
x y bezeichnet werden soll. Auerdem sei ein skalares Produkt der komplexen
Erweiterung Z von V. Man nennt dann eine Fortsetzung des skalaren Produkts
von V auf Z, wenn (x
1
, x
2
) = x
1
x
2
fr alle Vektoren x
1
, x
2
V ist.
7.1.17 Satz. Jedes in V gegebene skalare Produkt kann auf genau eine Weise auf
die komplexe Erweiterung Z von V fortgesetzt werden.
Beweis: Es sei eine solche Fortsetzung. Da sich Vektoren z, z
Z eindeutig in
der Form
z = x +yi bzw. z
= x
+y
i mit x, y, x
, y
V
darstellen lassen, erhlt man
(z, z
) = (x +yi, x
+y
i) = (x, x
) +(y, x
)i (x, y
)i +(y, y
)
und wegen (x, x
) = x x
usw.
(z, z
) = (x x
+y y
) +(y x
x y
)i.
Daher ist durch das in V gegebene skalare Produkt eindeutig bestimmt. Ande-
rerseits rechnet man unmittelbar nach, da durch die letzte Gleichung umgekehrt
ein skalares Produkt von Z deniert wird, das tatschlich eine Fortsetzung des
skalaren Produkts von V ist.
7.1.18 Bemerkung. Dieser Satz besagt, da sich jeder euklidische Raum in einen
unitren Raum einbetten lt. Stze ber skalare Produkte brauchen daher im allge-
meinen nur fr unitre Rume bewiesen zu werden und knnen auf den reellen Fall
bertragen werden.
7.2 Betrag und Orthogonalitt
In diesem Paragraphen ist V stets ein euklidischer oder unitrer Vektorraum. Das
skalare Produkt zweier Vektoren x, y V wird wieder mit x y bezeichnet.
7.2.1 Satz (Schwarzsche Ungleichung). Fr je zwei Vektoren x, y V gilt
|x y|
2
(x x)(y y).
7.2 Betrag und Orthogonalitt 159
Das Gleichheitszeichen gilt genau dann, wenn die Vektoren x und y linear abhngig
sind.
Beweis: Im Fall y = o gilt x y = y y = 0, und die behauptete Beziehung ist
mit dem Gleichheitszeichen erfllt. Es kann daher weiter y = o und damit auch
y y > 0 vorausgesetzt werden. Fr einen beliebigen Skalar c gilt dann
0 (x yc) (x yc) = x x (y x)c (x y) c +(y y)c c
= x x (x y)c (x y) c +(y y)c c.
Setzt man hier
c =
x y
y y
, also c =
x y
y y
,
ein, so erhlt man nach Multiplikation mit y y wegen y y > 0
0 (x x)(y y) (x y)(x y) = (x x)(y y) |x y|
2
und hieraus weiter die behauptete Ungleichung. Das Gleichheitszeichen gilt jetzt
genau dann, wenn x yc = o erfllt ist. Zusammen mit dem Fall y = o ergibt dies
die zweite Behauptung.
7.2.2 Denition. Fr jeden Vektor x V gilt x x 0. Daher ist
|x| =
x x
eine nicht-negative reelle Zahl, die man die Lnge oder den Betrag desVektors x V
nennt.
7.2.3 Bemerkung. Man beachte jedoch, da die Lnge eines Vektors noch von dem
skalaren Produkt abhngt. Im allgemeinen kann man in einemVektorraum verschie-
dene skalare Produkte denieren, hinsichtlich derer dann ein Vektor auch verschie-
dene Lngen besitzen kann.
7.2.4 Satz. Die Lnge besitzt folgende Eigenschaften:
(a) |x| 0.
(b) |x| = 0 ist gleichwertig mit x = o.
(c) |xc| = |x| |c|.
(d) |x +y| |x| +|y|. (Dreiecksungleichung)
160 7 Euklidische und unitre Vektorrume
Beweis: Unmittelbar aus der Denition folgt (a). Weiter gilt (b), weil |x| = 0 gleich-
wertig mit x x = 0, dies aber wieder gleichwertig mit x = o ist. Eigenschaft (c)
ergibt sich wegen
|xc| =
_
(xc) (xc) =
x x
c c = |x||c|.
Schlielich erhlt man zunchst
|x +y|
2
= (x +y) (x +y) = x x +x y +y x +y y
= x x +x y +x y +y y
= |x|
2
+2 Re(x y) +|y|
2
.
Nun gilt aber Re(x y) |x y|, und aus Satz 7.2.1 folgt durch Wurzelziehen
|x y| |x||y|. Somit ergibt sich weiter
|x +y|
2
|x|
2
+2|x||y| +|y|
2
= (|x| +|y|)
2
und damit (d).
7.2.5 Bemerkung. Ersetzt man in der Dreiecksungleichung (d) aus Satz 7.2.4 einer-
seits x durch xy und andererseits y durch yx und beachtet man |xy| = |yx|,
so erhlt man zusammen die Ungleichung
|x| |y|
|x y|.
7.2.6 Satz. |x +y| = |x| +|y| ist gleichwertig damit, da y = o oder x = yc mit
einem reellem c 0 gilt.
Beweis: Aus dem Beweis der Dreiecksungleichung folgt unmittelbar, da in ihr das
Gleichheitszeichen genau dann gilt, wenn Re(x y) = |x||y| erfllt ist. Wegen
Re(x y) |x y| |x||y| folgt aus dieser Gleichung auch |x y| = |x||y| und
daher nach Satz 7.2.1 die lineare Abhngigkeit der Vektoren x und y. Setzt man
y = o voraus, so mu x = yc und weiter
|y|
2
(Re c) = Re(yc y) = Re(x y) = |x||y| = |y|
2
|c|,
also Re c = |c| gelten. Dies ist aber nur fr reelles c 0 mglich. Gilt umgekehrt
x = yc mit einer reellen Zahl c 0 oder y = o, so erhlt man durch Einsetzen
sofort Re(x y) = |x||y|.
7.2.7 Denition. Ein Vektor x heit normiert, wenn |x| = 1 gilt.
7.2.8 Bemerkung. Ist x vom Nullvektor verschieden, so ist x
1
|x|
ein normierter
Vektor.
7.2 Betrag und Orthogonalitt 161
7.2.9 Denition. Fr zwei vomNullvektor verschiedeneVektorenx, y deniert man
den Kosinus des Winkels zwischen diesen Vektoren durch
cos(x, y) =
x y
|x||y|
. ()
7.2.10 Bemerkung. Wegen Satz 7.2.1 gilt |x y| |x||y|. Fr jedes Paar x, y von
Vektoren eines euklidischen (reellen) Vektorraums folgt daher 1 cos(x, y)
+1. Durch () wird daher tatschlich der Kosinus eines reellen Winkels deniert.
Multiplikation von () mit dem Nenner liefert
x y = |x||y| cos(x, y).
Ausrechnung des skalaren Produkts (x y) (x y) und Ersetzung von x y durch
den vorangehenden Ausdruck ergibt im reellen Fall die Gleichung
|x y|
2
= |x|
2
+|y|
2
2|x||y| cos(x, y).
Dies ist der bekannte Kosinussatz fr Dreiecke: Zwei Seiten des Dreiecks werden
durch die Vektoren x und y reprsentiert. Die Lnge der dem Winkel zwischen x
und y gegenberliegenden Seite ist dann gerade |x y|. Im Fall eines rechtwinkli-
gen Dreiecks gilt cos(x, y) = 0, und der Kosinussatz geht in den Pythagorischen
Lehrsatz ber.
Der wichtige Spezialfall, da x und y einen rechten Winkel einschlieen, ist
offenbar gleichwertig mit x y = 0.
7.2.11 Denition. Zwei Vektoren x, y eines euklidischen bzw. unitren Vektor-
raums V heien orthogonal, wenn x y = 0 gilt.
Eine nicht-leere Teilmenge M von V heit ein Orthogonalsystem, wenn o M
gilt und wenn je zwei verschiedene Vektoren aus M orthogonal sind.
Ein Orthogonalsystem, das aus lauter normierten Vektoren besteht, wird ein Or-
thonormalsystem genannt.
Unter einer Orthonormalbasis von V versteht man ein Orthonormalsystem, das
gleichzeitig eine Basis von V ist.
7.2.12 Satz. Jedes Orthogonalsystem ist linear unabhngig.
Beweis: Es sei M ein Orthogonalsystem, und fr die paarweise verschiedenen Vek-
toren v
1
, . . . , v
n
M gelte v
1
c
1
+ + v
n
c
n
= o. Fr jeden festen Index k mit
1 k n folgt hieraus
(v
1
v
k
)c
1
+ +(v
k
v
k
)c
k
+ +(v
n
v
k
)c
n
= o v
k
= 0.
Wegen v
i
v
k
= 0 fr i = k erhlt man weiter (v
k
v
k
)c
k
= 0 und wegen v
k
= o,
also v
k
v
k
> 0, schlielich c
k
= 0.
162 7 Euklidische und unitre Vektorrume
7.2.13 Satz. Es sei {e
1
, . . . , e
n
} eine Orthonormalbasis von V. Sind dann x
1
, . . . , x
n
bzw. y
1
, . . . , y
n
die Koordinaten der Vektoren x und y bezglich dieser Basis, so gilt
x y = x
1
y
1
+ +x
n
y
n
und fr die Koordinaten selbst x
i
= x e
i
fr i = 1, . . . , n.
Beweis: Sicherlich gilt e
i
e
j
=
i,j
wobei
i,j
=
_
1 falls i = j,
0 falls i = j
das Kronecker-Symbol ist. Hierdurch erhlt man
x y =
_
n
i=1
e
i
x
i
_
_
n
j=1
e
j
y
j
_
=
n
i,j=1
(e
i
e
j
)x
i
y
j
=
n
i=1
x
i
y
i
und
x e
i
=
_
n
j=1
e
j
x
j
_
e
i
=
n
j=1
x
j
j,i
= x
i
.
7.2.14 Bemerkungen.
(a) Dieser Satz gilt sinngem auch bei unendlicher Dimension und kann dann
ebenso bewiesen werden.
(b) Ist V ein reeller Vektorraum, so entfllt in Satz 7.2.13 die komplexe Konjuga-
tion, d. h. x y = x
1
y
1
+x
2
y
2
+ +x
n
y
n
.
(c) Jede Basis B = {v
1
, v
2
, . . . , v
n
} eines euklidischen oder unitrenVektorraums
kann als Orthonormalbasis von V bzgl. eines neuen skalaren Produkts x y =
x
1
y
1
+ x
2
y
2
+ + x
n
y
n
fr x =
n
i=1
v
i
x
i
und y =
n
i=1
v
i
y
i
V
angesehen werden.
(d) Imfolgenden wird bei den arithmetischenVektorrumen R
n
und C
n
die jewei-
lige kanonische Basis B = {e
1
, e
2
, . . . , e
n
} als Orthonormalbasis gewhlt.
7.2.15 Beispiele.
(a) Fr je zwei Vektoren x = (x
1
, x
2
) und y = (y
1
, y
2
) des reellen arithmetischen
Vektorraums R
2
sei ein vom gewhnlichen skalaren Produkt abweichendes
skalares Produkt durch
x y = 4x
1
y
1
2x
1
y
2
2x
2
y
1
+3x
2
y
2
7.2 Betrag und Orthogonalitt 163
deniert. Dann bilden die Vektoren
e
1
=
_
1
2
, 0
_
und e
2
=
_
1
2
2
,
1
2
_
eine Orthonormalbasis. Es gilt nmlich
e
1
e
1
= 4
1
2
1
2
= 1,
e
1
e
2
= 4
1
2
1
2
2
2
1
2
1
2
= 0,
e
2
e
2
=4
1
2
2
1
2
2
2
1
2
2
1
2
2
1
2
1
2
2
+3
1
2
1
2
=1.
Zwischen den Koordinaten x
1
, x
2
hinsichtlich der kanonischen Basis e
1
=
(1, 0), e
2
= (0, 1) und den Koordinaten x
1
, x
2
hinsichtlich {e
1
, e
2
} besteht
wegen
e
1
=
1
2
e
1
,
e
2
=
1
2
2
e
1
+
1
2
e
2
die Beziehung
x
1
=
1
2
x
1
+
1
2
2
x
2
, x
2
=
1
2
x
2
.
Einsetzen dieser Werte liefert in der Tat
xy = 4
_
1
2
x
1
+
1
2
2
x
2
__
1
2
y
1
+
1
2
2
y
2
_
2
_
1
2
x
1
+
1
2
2
x
2
__
1
2
y
2
_
2
_
1
2
x
2
__
1
2
y
1
+
1
2
2
y
2
_
+3
_
1
2
x
2
__
1
2
y
2
_
= x
1
y
1
+x
2
y
2
.
(b) IndemVektorraumaller indemIntervall [, +] stetigenreellenFunktionen
wird durch
(f, g) =
1
_
+
f (t )g(t ) dt
ein skalares Produkt deniert. Hinsichtlich dieses skalaren Produkts bilden die
Funktionen
1
2
, cos(nt ), sin(nt ) (n = 1, 2, 3, . . . )
ein unendliches Orthonormalsystem (vgl. Aufgabe 7.4).
164 7 Euklidische und unitre Vektorrume
7.3 Orthonormalisierungsverfahren
In diesem Paragraphen sei V stets ein euklidischer oder unitrer Vektorraum endli-
cher oder hchstens abzhlbar-unendlicher Dimension. Dabei ist V von abzhlbar
unendlicher Dimension, wenn dimV = ist und V eine Basis B besitzt, die bi-
jektiv auf die Menge N aller natrlichen Zahlen abgebildet werden kann. Hierfr ist
V = F[X], der Raum aller Polynome mit Koefzienten aus einem Krper F, ein
Beispiel. Da sich die Ergebnisse im allgemeinen nicht auf Rume mit Basen h-
herer Mchtigkeit bertragen lassen, wird ebenfalls durch geeignete Gegenbeispiele
gezeigt.
7.3.1 Satz (Gram-Schmidtsches Orthonormalisierungsverfahren). Zu jedem endli-
chen oder hchstens abzhlbar-unendlichen System {a
1
, a
2
, . . . } linear unabhn-
giger Vektoren des euklidischen oder unitren Vektorraums V gibt es genau ein
entsprechendes Orthonormalsystem {b
1
, b
2
, . . . } mit folgenden Eigenschaften:
(a) Fr k = 1, 2, . . . erzeugen die Vektoren a
1
, . . . , a
k
und b
1
, . . . , b
k
denselben
Unterraum U
k
von V.
(b) Die zu der Basistransformation {a
1
, . . . , a
k
} {b
1
, . . . , b
k
} von U
k
geh-
rende Transformationsmatrix P
k
besitzt eine positive Determinante D
k
=
det(P
k
) > 0 fr k = 1, 2, . . . .
Beweis: Die Vektoren b
1
, b
2
, . . . werden induktiv deniert. Bei einem endlichen
System {a
1
, . . . , a
m
} bricht das Verfahren nach m Schritten ab.
Wegender vorausgesetztenlinearenUnabhngigkeit gilt a
1
= o, undb
1
= a
1
1
|a
1
|
ist ein normierter Vektor. Die Vektoren a
1
und b
1
erzeugen denselben UnterraumU
1
,
und es gilt D
1
=
1
|a
1
|
> 0. Ist umgekehrt b
1
einVektor mit |b
1
| = 1, der ebenfalls U
1
erzeugt, so gilt b
1
= a
1
c. Und da jetzt c die Determinante der Transformationsmatrix
ist, mu bei Gltigkeit von (b) auerdem c > 0 gelten. Man erhlt
1 = b
1
b
1
= (a
1
a
1
)(c c) = |a
1
|
2
|c|
2
.
Wegen c > 0 folgt hieraus c = 1/|a
1
|, also b
1
= b
1
. Somit ist b
1
auch eindeutig
bestimmt.
Es seien jetzt bereits die Vektoren b
1
, . . . , b
n
so konstruiert, da (a) und (b) fr
k = 1, . . . , n erfllt sind. Dann werde zunchst
c
n+1
= a
n+1
i=1
b
i
(a
n+1
b
i
)
gesetzt. Bei Bercksichtigung der Induktionsvoraussetzung ergibt sich
U
n+1
= a
1
, . . . , a
n
, a
n+1
= b
1
, . . . , b
n
, a
n+1
= b
1
, . . . , b
n
, c
n+1
i=1
i,j
(a
n+1
b
i
) = a
n+1
b
j
a
n+1
b
j
= 0.
Setzt man daher
b
n+1
=
1
|c
n+1
|
c
n+1
,
so bilden die Vektoren b
1
, . . . , b
n+1
ein Orthonormalsystem mit der Eigenschaft (a)
fr k = 1, . . . , n+1. Die Transformation P
n+1
der a
i
in die b
i
ist die Dreiecksmatrix
P
n+1
= (a
ij
), deren Koefzienten wie folgt bestimmt sind
b
1
= a
1
a
1,1
b
2
= a
1
a
2,1
+a
2
a
2,2
.
.
.
b
n
= a
1
a
n,1
+ +a
n
a
n,n
b
n+1
= a
1
a
n+1,1
+ +a
n+1
1
|c
n+1
|
.
Aus Satz 5.4.5 folgen D
n
= det P
n
= a
1,1
. . . a
n,n
und D
n+1
= det(P
n+1
) =
D
n
1
|c
n+1
|
. Nach Induktionsannahme ist D
n
> 0. Daher gilt die Behauptung (2).
Ist umgekehrt b
n+1
ein Vektor, fr den {b
1
, . . . , b
n
, b
n+1
} ebenfalls ein Ortho-
normalsystem mit den Eigenschaften (a) und (b) ist, so mu wegen (a) und (b)
b
n+1
=
n
i=1
b
i
a
i
+b
n+1
c
mit c > 0 gelten. Wegen b
n+1
b
s
= 0 fr s = 1, . . . , n folgt nun b
n+1
= b
n+1
c.
Daher ist c = |b
n+1
|c = |b
n+1
| = 1. Somit gilt b
n+1
= b
n+1
.
7.3.2 Satz. Der euklidische oder unitre Vektorraum V besitze endliche oder hch-
stens abzhlbar-unendliche Dimension. Dann kann jede Orthonormalbasis eines
endlich-dimensionalen Unterraums U von V zu einer Orthonormalbasis von V er-
gnzt werden. Insbesondere besitzt V selbst eine Orthonormalbasis.
Beweis: Es sei U ein n-dimensionaler Unterraum von V, und {b
1
, . . . , b
n
} sei
eine Orthonormalbasis von U. (Im Fall n = 0 ist die Orthonormalbasis durch
166 7 Euklidische und unitre Vektorrume
die leere Menge zu ersetzen.) Diese Basis kann nach Satz 2.2.15 zu einer Basis
{b
1
, . . . , b
n
, a
n+1
, a
n+2
, . . . } von V ergnzt werden. Wendet man auf sie das Gram-
Schmidtsche Orthonormalisierungsverfahren an, so bleiben dieVektoren b
1
, . . . , b
n
erhalten, und man gewinnt eine Orthonormalbasis {b
1
, . . . , b
n
, b
n+1
, . . . } von V.
Der Fall U = {o} liefert die Existenz einer Orthonormalbasis von V.
7.3.3 Beispiele.
(a) In demreellen arithmetischenVektorraumR
4
sei das skalare Produkt je zweier
Vektoren x = (x
1
, . . . , x
4
) und y = (y
1
, . . . , y
4
) durch x y = x
1
y
1
+ +
x
4
y
4
deniert. Das Orthonormalisierungsverfahren werde auf die Vektoren
a
1
= (4, 2, 2, 1), a
2
= (2, 2, 4, 5), a
3
= (0, 8, 2, 5)
angewandt. Man erhlt:
b
1
=
1
|a
1
|
a
1
=
1
5
(4, 2, 2, 1).
c
2
= a
2
b
1
(a
2
b
1
) = (2, 2, 4, 5) (4, 2, 2, 1)
25
5
1
5
= (2, 0, 2, 4),
b
2
= (2, 0, 2, 4)
1
24
.
c
3
= a
3
b
1
(a
3
b
1
) b
2
(a
3
b
2
)
= (0, 8, 2, 5) (4, 2, 2, 1)
25
5
1
5
(2, 0, 2, 4)
24
24
1
24
= (2, 6, 2, 0),
b
3
= (2, 6, 2, 0)
1
44
.
(b) In dem reellen Vektorraum aller in [0, 1] stetigen reellen Funktionen sei das
skalare Produkt durch
(f, g) =
_
1
0
f (t )g(t ) dt
deniert. Das Orthonormalisierungsverfahren soll auf die Polynome 1 = t
0
,
t , t
2
, . . . angewandt werden. Die Funktionen des entstehenden Orthonormal-
systems sollen hier mit e
0
, e
1
, e
2
, . . . bezeichnet werden. Die ersten Schritte
7.3 Orthonormalisierungsverfahren 167
lauten:
(1, 1) =
_
1
0
dt = 1, also e
0
(t ) = 1.
(t, e
0
) =
_
1
0
t dt =
1
2
,
e
1
(t ) = t (t, e
0
)e
0
(t ) = t
1
2
;
(e
1
, e
1
) =
_
1
0
_
t
1
2
_
2
dt =
1
12
, also e
1
(t ) =
12
_
t
1
2
_
.
(t
2
, e
0
) =
_
1
0
t
2
dt =
1
3
,
(t
2
, e
1
) =
12
_
1
0
t
2
_
t
1
2
_
dt =
1
12
,
e
2
(t ) = t
2
(t
2
, e
0
)e
0
(t ) (t
2
, e
1
)e
1
(t )
= t
2
1
3
_
t
1
2
_
= t
2
t +
1
6
;
(e
2
, e
2
) =
_
1
0
_
t
2
t +
1
6
_
2
dt =
1
180
, also e
2
(t ) = 6
5
_
t
2
t +
1
6
_
.
7.3.4 Denition. Zwei Teilmengen M und N des euklidischen oder unitren Vek-
torraumes V heien orthogonal, wenn x y = 0 fr alle Vektoren x M und y N
erfllt ist, wenn also alle Vektoren aus M auf allen Vektoren aus N senkrecht stehen.
Bezeichnung: M N.
Wenn hierbei z. B. die Menge M aus nur einem Vektor x besteht, wird statt
{x} N einfacher x N geschrieben. Die leere Menge und der Nullraum sind zu
jeder Teilmenge von V orthogonal.
7.3.5 Denition. Sei M eine Teilmenge des euklidischen oder unitren Vektorrau-
mes V. Dann heit M
= {v V | v M} = {v V | m v = o fr alle m M}
das orthogonale Komplement von M in V.
7.3.6 Bemerkung. Das orthogonale Komplement M
= {v V | a v = 0 fr alle a U
} = U.
(c) V = U U
.
Beweis: (a) Nach Satz 7.3.2 besitzt U eine Orthonormalbasis B = {v
1
, v
2
, . . . , v
r
},
die sich zu einer Orthonormalbasis C = {v
1
, v
2
, . . . , v
r
, v
r+1
, . . . , v
n
} von V ergn-
zen lt. Also gehren die nr linear unabhngigenVektoren v
r+1
, v
r+2
, . . . , v
n
zu
U
U. Dann ist u u = 0.
Nach Bemerkung 7.1.2 folgt u = o. Daher ist U U
, womit
(a) und (c) bewiesen sind.
(b) Nach Denition von U
gilt u v = 0 fr alle v U
) = n dimU
= n (n r) = r.
Daher ist U = U
_
1
0
f
2
(t )dt
_
1
0
|f (t )||f (t ) g(t )| dt
(f, f ) b
a
2b
=
a
2
> 0.
Daher ist auer der Nullfunktion keine Funktion aus V zu U orthogonal; d. h. U
: W V heit eine
zu adjungierte Abbildung, wenn fr alle Vektoren x V und y W
x y = x
y
(und damit auch y x =
y x) gilt.
Ein Endomorphismus des euklidischen oder unitren Vektorraums V heit
selbstadjungiert, wenn ein adjungierter Endomorphismus
existiert und =
gilt.
Ein Endomorphismus von V heit anti-selbstadjungiert, wenn ein adjungierter
Endomorphismus
existiert und =
gilt.
7.4.2 Bemerkungen.
(a) Im allgemeinen braucht es zu einer linearen Abbildung : V W keine
adjungierte Abbildung zu geben, wie folgendes Beispiel zeigt.
Wie in Bemerkung 7.3.8 sei V der reelle Vektorraum aller stetigen reellen
Funktionen f : [0, 1] R mit dem Skalarprodukt
(f, g) =
_
1
0
f (t )g(t ) dt, f, g V.
Der Unterraum U aller polynomialen Funktionen
p(t ) = p
0
+p
1
t +p
2
t
2
+ +p
n
t
n
, p
i
R, n < ,
besitzt abzhlbare Dimension. Daher besitzt U nach Satz 7.3.2 eine Ortho-
normalbasis B = {p
1
(t ), p
2
(t ), . . . }. Sei = id
U
die Identitt von U, d. h.
(u) = u fr alle u U. Dann ist Hom
R
(U, V). Angenommen, die ad-
jungierte Abbildung
Hom
R
(V, U). Da die
Exponentialfunktione
t
V ist, gilt
(e
t
) = p
1
(t )r
1
+p
2
(t )r
2
+ +p
m
(t )r
m
mit endlich vielen eindeutig bestimmten reellen Zahlen r
i
; denn B ist eine Ba-
sis von U.
Sei f (t ) = e
t
m
i=1
p
i
(t )(e
t
, p
i
(t )). Wegen
(e
t
, p
j
(t )) = (e
t
, p
j
(t )) = (
(e
t
), p
j
(t )) =
__
m
k=1
p
k
(t )r
k
_
, p
j
(t )
_
= 0
170 7 Euklidische und unitre Vektorrume
fr alle j = m + 1, m + 2, . . . folgte dann, da f (t ) U
wre. Nach
Bemerkung 7.3.8 ist U
= {o}, d. h. f (t ) = 0 und e
t
U. Dies ist ein Wider-
spruch, denn e
t
ist keine polynomiale Funktion. Daher hat keine adjungierte
Abbildung.
(b) Wenn jedoch zu eine adjungierte Abbildung
y) = x
y x
y = x y x y = 0
fr jeden Vektor x V. Wre x =
y = 0 fr ein y W, dann
wre x x = 0 im Widerspruch zu Denitionen 7.1.4 und 7.1.11. Also ist
y =
.
7.4.3 Hilfssatz. Wenn V endliche Dimension besitzt, existiert zu jeder linearen Ab-
bildung : V W die adjungierte Abbildung
. Ist {e
1
, . . . , e
n
} eine Orthonor-
malbasis von V, so gilt
y =
n
i=1
e
i
(y e
i
) fr alle y W.
Beweis: Wegen Satz 7.3.2 besitzt V eine Orthonormalbasis {e
1
, . . . , e
n
}. Fr jeden
Vektor x V gilt dann x =
n
i=1
e
i
(x e
i
). Denn aus x = e
1
x
1
+e
2
x
2
+ +e
n
x
n
folgt x e
i
= x
i
nach Satz 7.2.13. Deniert man nun die Abbildung durch y =
n
i=1
e
i
(y e
i
) fr alle y W, so ist wegen der Linearittseigenschaften des
skalaren Produkts jedenfalls eine lineare Abbildung. Wegen
x y =
n
i=1
(e
i
y)x
i
=
n
i=1
(y e
i
)x
i
=
n
i=1
x
i
(y e
i
)
=
n
i=1
(x e
i
)(y e
i
) =
n
i=1
x [e
i
(y e
i
)] = x y
ist die zu adjungierte Abbildung
= (
A)
T
die zu Aadjungierte Matrix.
7.4.5 Bemerkung. Die adjungierte A
= {f
1
, . . . , f
r
} eine Orthonormalbasis von
W. Fr die Matrizen der linearen Abbildung : V W und ihrer adjungierten
Abbildung
(B
, B) = (A
(B, B
))
.
Beweis: Die Koefzienten der Matrix A
(B, B
) = A = (a
ij
) sind nach Deniti-
on 3.3.1 durch die Gleichungen
e
j
=
r
i=1
f
i
a
ij
(j = 1, . . . , n)
bestimmt. Aus ihnen folgt a
ij
= e
j
f
i
fr j = 1, . . . , n und i = 1, . . . , r, weil
B
= {f
1
, . . . , f
r
} eine Orthonormalbasis ist. Bezeichnet man die
zugeordnete
Matrix mit B = (b
ji
), so gilt entsprechend
f
i
=
n
j=1
e
j
b
ji
(i = 1, . . . , r)
und b
ji
=
f
i
e
j
fr i = 1, . . . , r und j = 1, . . . , n. Hieraus folgt
b
ji
=
f
i
e
j
= e
j
f
i
= e
j
f
i
= a
ij
und somit B =
A
T
= A
.
7.4.7 Hilfssatz. Fr lineare Abbildungen , , deren adjungierte Abbildungen
= .
(b) ( +)
.
(c) ( c)
c.
(d) ()
.
(e) Ist ein Endomorphismus eines endlich-dimensionalen Vektorraums V, dann
gilt
det(
) = det().
Fr komplexe bzw. reelle nn-Matrizen gelten die zu (a) bis (e) analogen Aussagen
entsprechend.
172 7 Euklidische und unitre Vektorrume
Beweis: (a) Es gilt x y = x
y = (
x = (
x fr alle x V,
woraus (
= folgt.
(b) x(+)
y = (+)xy = xy+xy = x
y+x
y = x(
)y
fr alle x, y V. Hieraus folgt ( +)
.
(c) x ( c)
y = ( c)x y = (x y)c = (x
y)c = x (
c)y fr alle
x, y V. Also gilt (c)
c.
(d) x ()
y = ()x y = x
y = x
y fr alle x, y V.
(e) Sei B eine Basis des endlich-dimensionalen Vektorraums V und A =
A
S
n
(sign ) a
1,(1)
a
2,(2)
. . . a
n,(n)
= det(
A).
Nach Satz 5.4.1(a) ist det(
A) = det(
A
T
) = det(A
) =
det(). Die Behauptung folgt nun unmittelbar aus Satz 7.4.6.
7.4.8 Denition. Ein Endomorphismus eines unitren oder euklidischen Raumes
V heit normal, wenn der zu ihm adjungierte Endomorphismus
.
7.4.9 Satz. Ein Endomorphismus eines unitren oder euklidischen Raumes V ist
genau dann normal, wenn sein adjungierter Endomorphismus
y.
Beweis: Aus
(y) = x (
y) =
y.
Umgekehrt gelte x y =
x)) y =
y = x y = (
(x)) y,
also ((
)x (
)x = (
.
7.4.10 Hilfssatz. Fr einen normalen Endomorphismus gilt Ker = Ker
.
7.4 Adjungierte Abbildungen und normale Endomorphismen 173
Beweis: Wegen Satz 7.4.9 gilt fr jeden Vektor x von V, da
|x|
2
= x x =
x = |
x|
2
.
Daher ist x = o gleichwertig mit
x = o.
7.4.11 Satz. Es sei ein normaler Endomorphismus. Dann gelten:
(a) und
den Eigenwert c.
(c) Zwei Eigenvektoren von , die verschiedene Eigenwerte haben, sind orthogo-
nal.
Beweis: Wegen Satz 7.4.9 gilt
(a ac) (a ac) = a a (a a)c (a a) c +(a a)c c
=
a (
a a)c (a
a) c +(a a)c c
= (
a a c) (
a a c).
Daher ist a = ac gleichwertig mit
b = b g. Hieraus folgt
(a b)f = (af ) b = (a) b = a (
b) = a (b g) = (a b)g,
also (a b)(f g) = 0. Wegen f = g ist daher a b = 0.
7.4.12 Hilfssatz. Sei V ein n-dimensionaler euklidischer oder unitrer Vektorraum.
Ferner seien ein normaler Endomorphismus von V, e ein Eigenvektor von und
U = e
e = u (e c) = (u e)c = 0.
Daher ist u U fr alle u U, d. h. U ist ein -invarianter Unterraum von V.
(b) Wegen (a) ist
1
=
|U
End
F
(U). Nach Hilfssatz 7.4.3 existiert
1
End
F
(U), und
1
=
|U
. Daher ist
1
ein normaler Endomorphismus von U nach
Satz 7.4.9.
174 7 Euklidische und unitre Vektorrume
7.4.13 Satz. Es sei V = 0 ein endlich-dimensionaler euklidischer oder unitrer
F-Vektorraum. Sei ein Endomorphismus von V, dessen smtliche Eigenwerte im
euklidischen Fall reell sind. Dann ist genau dann normal, wenn es zu ihm eine
Orthonormalbasis von V gibt, die aus lauter Eigenvektoren von besteht.
Beweis: Zunchst sei normal, und sei c
1
ein Eigenwert von . Zu c
1
gibt es einen
Eigenvektor e
1
, und zwar auch im euklidischen Fall, weil c
1
dann als reell voraus-
gesetzt wurde. Ohne Beschrnkung der Allgemeinheit kann e
1
als Einheitsvektor
angenommen werden. Im Fall n = 1 ist {e
1
} bereits eine Orthonormalbasis von V.
Es gelte nunn > 1, unddie Behauptungsei fr die Dimensionn1vorausgesetzt.
Weiter sei U der zu e
1
orthogonale Unterraumvon V. Wegen 7.4.12 ist U dann ein -
invarianter Unterraum von V mit dim
F
U = n1 und die Einschrnkung
1
=
|U
von auf U ist einnormaler Endomorphismus vonU. NachInduktionsvoraussetzung
gibt es daher eine Orthonormalbasis {e
2
, . . . , e
n
} von U, die aus lauter Eigenvektoren
von besteht. Es ist dann {e
1
, . . . , e
n
} eine Orthonormalbasis von V der behaupteten
Art.
Umgekehrt sei {e
1
, . . . , e
n
} eine Orthonormalbasis von V, die aus lauter Eigen-
vektoren des Endomorphismus besteht; es gelte also e
i
= e
i
c
i
. Durch e
i
= e
i
c
i
wird dann ein Endomorphismus von V deniert. Fr i, j = 1, . . . , n gilt
e
i
e
j
= (e
i
c
i
) e
j
= c
i
i,j
= c
j
j,i
= e
i
(e
j
c
j
) = e
i
e
j
und daher allgemein x y = x y. Somit ist der zu adjungierte Endomor-
phismus
. Wegen
(e
i
) = (e
i
c
i
) = e
i
c
i
c
i
= (e
i
c
i
) = (e
i
) = (
e
i
) fr i = 1, . . . , n
folgt schlielich
; d. h. ist normal.
7.4.14 Folgerung. In einemendlich-dimensionalen unitren VektorraumV existiert
zu einem Endomorphismus genau dann eine Orthonormalbasis aus Eigenvektoren
von , wenn ein normaler Endomorphismus ist.
7.4.15 Hilfssatz. Sei die komplexe Fortsetzung des normalen Endomorphismus
End
R
(V) des endlich-dimensionalen euklidischen Vektorraums V auf dessen
unitre Erweiterung zumC-VektorraumZ. Dann ist ebenfalls ein normaler Endo-
morphismus von Z.
Beweis: Nach den Stzen 7.1.14 und 7.1.17 existieren die komplexen Fortsetzungen
eines Endomorphismus und des Skalarprodukts des euklidischen R-Vektorraums
V auf den komplexen Vektorraum Z mit Dimension dim
C
Z = dim
R
V. Fr alle
7.4 Adjungierte Abbildungen und normale Endomorphismen 175
a, b, c, d V gilt auerdem
(a +bi) (c +di) = a c +b d +(b c a d)i
= a
c +b
d +(b
c a
d)i
= (a +bi) (
c +
di).
Daher folgt fr den zu adjungierten Endomorphismus
(c +di) =
c +
di.
Hieraus ergibt sich aber unmittelbar
.
7.4.16 Hilfssatz. Es sei ein normaler Endomorphismus des euklidischen Vektor-
raums V. Ferner sei e = a + bi ein normierter Eigenvektor von mit dem nicht-
reellen Eigenwert c. Dann ist e
orthogonal.
Beweis: Da a und b aus dem euklidischen RaumV stammen, gilt a b = b a. Man
erhlt e
normiert.
Da e ein Eigenvektor von mit dem Eigenwert c = c
1
+c
2
i (c
1
, c
2
reell) ist, gilt
a +bi = e = ec = ac
1
bc
2
+(bc
1
+ac
2
)i.
Daher ist a = ac
1
bc
2
, b = bc
1
+ac
2
und somit
e
= a bi = ac
1
bc
2
(bc
1
+ac
2
)i = (a bi)(c
1
c
2
i) = e
c.
Also ist e
Eigenvektor von
zum Eigenwert c = c.
Da c nicht reell ist, gilt c = c. Deshalb ist e e
(B, B) = A =
_
_
_
_
_
_
_
_
_
_
c
1
.
.
.
c
k
.
.
.
_
_
_
_
_
_
_
_
_
_
,
176 7 Euklidische und unitre Vektorrume
wobei c
1
, . . . , c
k
die reellen Eigenwerte von sind und jedes Kstchen eine 2 2-
Matrix der folgenden Form ist:
a b
b a
.
Jedem solchen Zweierkstchen entspricht dabei ein Paar c, c konjugiert-komplexer
Eigenwerte von , und es gilt
a = Re c, b = Imc.
Beweis: Im Fall n = 1 ist die Behauptung trivial. Es gelte jetzt n > 1, und fr klei-
nere Dimensionen sei die Richtigkeit der Behauptung vorausgesetzt. Besitzt einen
reellen Eigenwert c
1
und somit einen Eigenvektor e
1
V, so ist nach Hilfssatz 7.4.12
U = {v V | e
1
v = o} ein (n 1)-dimensionaler, -invarianter Unterraum von
V derart, da die Einschrnkung
|U
von auf U ein normaler Endomorphismus
von U ist. Also folgt in diesem Fall die Behauptung durch vollstndige Induktion.
Besitzt aber keinen reellen Eigenwert, so werde V in seine komplexe Erweite-
rung Z eingebettet und zu dem Endomorphismus von Z fortgesetzt. Weiter sei
c ein (nicht-reeller) Eigenwert von . Zu ihm gibt es dann einen normierten Eigen-
vektor e
1
in Z. Es gelte e
1
= a
1
+ b
1
i mit a
1
, b
1
V. Nach Hilfssatz 7.4.16 ist
dann auch e
2
= a
1
b
1
i ein normierter und zu e
1
orthogonaler Eigenvektor von
mit dem Eigenwert c. Setzt man nun
f
1
= (e
1
+e
2
)
1
2
= a
1
2 und f
2
= (e
1
e
2
)
1
2i
= b
1
2,
so gilt f
1
, f
2
V. Wegen f
1
f
1
= f
2
f
2
=
1
2
(e
1
e
1
+ e
2
e
2
) = 1 sind die
Vektoren f
1
, f
2
normiert und wegen
f
1
f
2
= (e
1
e
1
e
1
e
2
+e
2
e
1
e
2
e
2
)
1
2i
= 0
auch orthogonal. Weiter gilt
f
1
= ( e
1
+ e
2
)
1
2
= (e
1
c +e
2
c)
1
2
=
2[a
1
(Re c) b
1
(Imc)]
= f
1
(Re c) f
2
(Imc) = f
1
a f
2
b,
f
2
= ( e
1
e
2
)
1
i
2
= (e
1
c e
2
c)
1
i
2
=
2[a
1
(Imc) +b
1
(Re c)]
= f
1
(Imc) +f
2
(Re c) = f
1
b +f
2
a.
Hinsichtlich f
1
, f
2
entspricht also ein Zweierkstchen der behaupteten Art.
7.4 Adjungierte Abbildungen und normale Endomorphismen 177
Wegen Satz 7.4.6 folgt nun
f
1
= f
1
a +f
2
b und
f
2
= f
1
b +f
2
a
Sei U = {f
1
, f
2
}
f
1
= (u f
1
)a +(u f
2
)b = 0,
u f
2
= u
f
2
= (u f
1
)(b) +(u f
2
)a = 0.
Hieraus folgt u U fr alle u U. Also ist U ein -invarianter Unterraumvon
V. Nach Satz 7.3.7 ist dim
R
U = n2. Mittels Hilfssatz 7.4.3 und Satz 7.4.9 ergibt
sich daher, da die Einschrnkung
|U
von auf U ein normaler Endomorphismus
von U ist, auf den die Induktionsvoraussetzung angewandt werden kann.
Sei umgekehrt ein Endomorphismus von V mit k reellen Eigenwerten c
i
, 1
i k, und
1
2
(nk) Paaren {c
m
, c
m
} konjugiert komplexer Eigenwerte c
m
= a
m
+b
m
i
mit 0 = a
m
R und 0 = b
m
R. Weiter sei B = {e
1
, e
2
, . . . , e
k
} {f
(m)
1
, f
(m)
2
|
1 m
1
2
(n k)} eine Orthonormalbasis von V derart, da
A
(B, B) = A =
_
_
_
_
_
_
_
_
_
_
c
1
.
.
.
c
k
.
.
.
_
_
_
_
_
_
_
_
_
_
,
und jedes Kstchen eine (2 2)-Matrix der Form ist:
a
m
b
m
b
m
a
m
fr 1 m
1
2
(n k).
Nach Hilfssatz 7.4.3 existiert die zu adjungierte lineare Abbildung
von V.
Wegen Satz 7.4.6 gilt
A
(B, B) = [A
(B, B)]
= [A
(B, B)]
T
= A
T
Manbesttigt nununmittelbar, daAA
T
= A
T
A. NachSatz 3.3.7folgt
.
Also ist ein normaler Endomorphismus von V.
7.4.18 Folgerung. Sei ein anti-selbstadjungierter Endomorphismus des endlich-
dimensionalen euklidischen oder unitren Vektorraums V. Dann gelten:
(a) Die Realteile aller Eigenwerte von sind Null.
178 7 Euklidische und unitre Vektorrume
(b) V besitzt eine Orthonormalbasis B, die aus Eigenvektoren von besteht.
(c) Ist V ein euklidischer Vektorraum, dann sind alle Diagonalelemente der qua-
dratischen Matrix A
=
folgt nach Satz 7.4.11, da
=
2
=
V gilt:
x x
= x x
.
Derartige Abbildungen knnen noch auf verschiedene andere Weisen gekenn-
zeichnet werden.
7.5.2 Satz. Folgende Aussagen ber eine lineare Abbildung : V W zwischen
zwei euklidischen bzw. unitren Vektorrumen sind gleichwertig:
(a) ist eine orthogonale bzw. unitre Abbildung.
(b) Aus |x| = 1 folgt stets |x| = 1.
7.5 Orthogonale und unitre Abbildungen 179
(c) Fr alle x V gilt |x| = |x|.
(d) Ist {e
1
, . . . , e
n
} ein Orthonormalsystem von V, so ist {e
1
, . . . , e
n
} ein Or-
thonormalsystem von W.
Beweis: (a) (b): Aus |x| = 1 folgt x x = x x = 1, also auch |x| = 1.
(b) (c): Ohne Beschrnkung der Allgemeinheit kann x = o angenommen
werden. Mit e = x
1
|x|
gilt x = e|x| und |e| = 1, also |x| = |e||x| = |x|.
(c) (d): Fr h = j (h, j = 1, . . . , n) gilt
2 Re(e
h
e
j
) = |(e
h
+e
j
)|
2
|e
h
|
2
|e
j
|
2
= |e
h
+e
j
|
2
|e
h
|
2
|e
j
|
2
= 0,
2 Im(e
h
e
j
) = |(e
h
+e
j
i)|
2
|e
h
|
2
|e
j
|
2
= |e
h
+e
j
i|
2
|e
i
|
2
|e
j
|
2
= 0.
Es folgt e
h
e
j
= 0 fr h = j und nach Voraussetzung auch |e
h
| = |e
h
| = 1.
Daher ist {e
1
, . . . , e
n
} ein Orthonormalsystem.
(d) (a): Fr beliebige Vektoren x, x
V ist x x
= x x
nachzuweisen.
Es kann x = o angenommen werden. Gilt nun erstens x
= ec mit e = x
1
|x|
, so
folgt x x
= x x
linear unabhngig.
Wegen Satz 7.3.1 gibt es dann eine Orthonormalbasis {e
1
, e
2
} des von x und x
= e
1
x
1
+ e
2
x
2
. Da
auch {e
1
, e
2
} ein Orthonormalsystem ist, folgt x x
= x
1
x
1
+x
2
x
2
= x x
.
7.5.3 Folgerung. Die komplexe Fortsetzung einer orthogonalen Abbildung ist eine
unitre Abbildung.
Beweis: Ergibt sich sofort aus Denition 7.1.13 und Satz 7.5.2.
7.5.4 Folgerung. Jede orthogonale oder unitre Abbildung ist injektiv.
Beweis: Aus x = o folgt wegen Satz 7.5.2 (c) auch |x| = |x| = 0. Also ist x = o
nach Satz 7.2.4. Daher ist injektiv.
7.5.5 Denition. Die reelle nn-Matrix Aheit orthogonal, wenn A
1
= A
T
gilt.
Die komplexe invertierbare n n-Matrix Aheit unitr, wenn A
1
= A
= (
A)
T
gilt.
7.5.6 Satz. Fr n-reihige quadratische Matrizen A = (a
i,j
) sind folgende Aussagen
paarweise gleichwertig:
180 7 Euklidische und unitre Vektorrume
(a) Aist eine orthogonale bzw. unitre Matrix.
(b) Die Zeilen von Abilden ein Orthonormalsystem; d. h. es gilt
n
j=1
a
i,j
a
k,j
=
i,k
(i, k = 1, . . . , n).
(c) Die Spalten von Abilden ein Orthonormalsystem; d. h. es gilt
n
j=1
a
j,i
a
j,k
=
i,k
(i, k = 1, . . . , n).
Beweis: Die Gleichungen aus (b) sind gleichwertig mit AA
= E, die Gleichun-
gen aus (c) mit A
.
7.5.7 Beispiele.
(a)
A =
_
_
0 1 0
1 0 0
0 0 1
_
_
, B =
_
sin cos
cos sin
_
und C =
1
3
_
_
2 1 2
2 2 1
1 2 2
_
_
sind orthogonale Matrizen.
(b) A =
1
2
_
1 i
i 1
_
ist eine unitre Matrix.
7.5.8 Satz. Der Endomorphismus eines endlich-dimensionalen euklidischen bzw.
unitren Vektorraums V ist genau dann orthogonal bzw. unitr, wenn invertierbar
ist und
1
=
existiert nach
Hilfssatz 7.4.3. Wegen der Denitionen 7.5.1 und 7.4.1 folgt daher fr alle x, y V,
da x(
y
1
y) = x
yx
1
y = xyx
1
y = x
1
yx
1
y =
0. Also ist
y =
1
y fr alle y V, d. h.
=
1
. Sei umgekehrt
1
=
.
Dann gilt nach Denition 7.4.1 fr alle x, y V, da x
1
y = x
y = x y.
Da mit y auch
1
y alle Vektoren von V durchluft, ist ein unitrer Endomorphis-
mus von V nach Denition 7.5.1. Wegen
=
1
= id =
1
=
ist er
normal.
7.5 Orthogonale und unitre Abbildungen 181
7.5.9 Satz. Sei B = {e
1
, e
2
, . . . , e
n
} eine Orthonormalbasis des endlich-
dimensionalen euklidischen oder unitren Vektorraumes V. Sei ein Endomorphis-
mus von V. Dann gelten:
(a) Die lineare Abbildung : V V ist genau dann orthogonal, wenn die
zu gehrige n n-Matrix A
= {(e
1
), (e
2
), . . . , (e
n
)} nach Satz 7.5.2 eine
Orthonormalbasis von V. Wegen Denition 3.3.1 sind diese Vektoren s
j
= (e
j
),
j = 1, 2, . . . , n, gerade die Spaltenvektoren der Matrix A
n
i=1
e
i
a
ij
denierte Endomorphismus von V
und sein adjungierter Endomorphismus
(B, B) = (A
(B, B))
= A
= A
1
= A
1 (B, B).
Wegen Satz 3.2.4 ist daher
=
1
. Daher ist unitr nach Satz 7.5.8.
(a) beweist man analog.
7.5.10 Satz. Es gelten die folgenden Aussagen:
(a) Die Menge O(n, R) aller orthogonalen nn-Matrizen Aist eine Untergruppe
der generellen linearen Gruppe GL(n, R).
(b) Die Menge U(n, C) aller unitren nn-Matrizen Aist eine Untergruppe der
generellen linearen Gruppe GL(n, C).
(c) Die Determinante einer orthogonalen n n-Matrix Aist det(A) = 1.
(d) Die Determinante einer unitren nn-Matrix Ahat den Betrag | det(A)| = 1.
Beweis: (b) Da die Einsmatrix E eine unitre Matrix ist, ist die Menge U(n, C) nicht
leer. Seien A, B zwei unitre nn-Matrizen. Wegen Satz 7.5.8 gilt dann A
1
= A
und B
1
= B
= B
= B = (B
1
)
1
. Hieraus
folgt nach Hilfssatz 7.4.7 (AB
1
)
1
= BA
1
= (B
1
)
= (AB
1
)
, d. h.
AB
1
U(n, C). Also ist U(n, C) nach Hilfssatz 1.3.10 eine Untergruppe von
GL(n, C).
182 7 Euklidische und unitre Vektorrume
(a) beweist man analog.
(d) Nach Satz 5.4.1 gilt fr jede unitre n n-Matrix A, da
det(A) det(
A) = det(A) det[(
A)
T
] = det(A) det(A
1
) = det(E) = 1.
Nach Beispiel 1.4.2(b) und Denition 5.3.4 gilt
det(
A) =
S
n
(sign ) a
1,(1)
a
2,(2)
. . . a
n,(n)
=
S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
)
= (det(A)).
Daher ist det(A) det(A) = det(A) det(
A) = 1, woraus | det(A)| = 1 folgt.
(c) Wegen A
1
= A
T
gilt 1 = det(A A
T
) = det(A)
2
, d. h. det(A) = 1.
7.5.11 Denition. Die Gruppe O(n, R) aller orthogonalen n n-Matrizen heit
orthogonale Gruppe. Die Gruppe U(n, C) aller unitren nn-Matrizen heit unitre
Gruppe.
7.6 Hauptachsentheorem
Der Hauptsatz dieses Abschnitts ist das Hauptachsentheorem. Es besagt, da die
Hermiteschen und die symmetrischen Matrizen sich diagonalisieren lassen. Als eine
wichtige Anwendung ergibt sich die Polarzerlegung der Endomorphismen euklidi-
scher bzw. unitrer Vektorrume V als Produkte von selbstadjungierten Automor-
phismen und orthogonalen bzw. unitren Automorphismen von V.
7.6.1 Denition. Eine reelle n n-Matrix A wird symmetrisch genannt, wenn
A = A
T
. Weiter heit Aschiefsymmetrisch, wenn A
T
= A.
Eine komplexe n n-Matrix A = (a
ij
) heit Hermitesche Matrix, wenn A
=
(
A)
T
= Agilt. Aist eine schief-Hermitesche Matrix, wenn A
= A.
7.6.2 Hilfssatz. Sei B = {e
1
, e
2
, . . . , e
n
} eine Orthonormalbasis des endlich-
dimensionalen euklidischen bzw. unitren Vektorraums V. Dann gelten:
(a) Der Endomorphismus des euklidischenVektorraums V ist genau dann selbst-
adjungiert, wenn die zu gehrige nn-Matrix A
(B, B) = (A
(B, B))
(B, B)
eine reelle symmetrische bzw. eine komplexe Hermitesche Matrix ist.
(c) Alle Eigenwerte von sind reell, und zu jeder Orthonormalbasis B =
{e
1
, e
2
, . . . e
n
} von V existiert eine Orthonormalbasis B
= {b
1
, b
2
, . . . , b
n
}
von V, die aus lauter Eigenvektoren von besteht.
(d) Zu jeder Orthonormalbasis B = {e
1
, e
2
, . . . e
n
} von V existiert eine orthogo-
nale bzw. unitre (n n)-Matrix P derart, da P
1
A
(B, B) = [A
(B, B)]
.
Daher sind (a) und (b) quivalent.
Sei ein selbstadjungierter Endomorphismus c von V. Nach Satz 7.4.11 existiert
zu jedem Eigenwert c von ein Vektor a V mit a = o derart, da
a c =
a = a = ac
gilt, woraus c = c folgt. Wegen =
(B
, B
) = P
1
A
(B, B)P
eine reelle Diagonalmatrix. Daher folgt (d) aus (c).
Gilt (c) so ist nach den Stzen 7.5.9 und 7.4.6
A
(B, B) = PDP
1
= PDP
= (PDP
= A
(B, B)
= A
(B, B).
Also ist =
.
184 7 Euklidische und unitre Vektorrume
7.6.4 Berechnungsverfahren fr die unitre bzw. orthogonale Transformati-
onsmatrix P des Hauptachsentheorems. Sei A = (a
ij
) eine reelle symmetrische
bzw. komplexe Hermitesche n n-Matrix. Entsprechend sei V = R
n
oder V = C
n
mit dem gewhnlichen Skalarprodukt. Nach dem Hauptachsentheorem 7.6.3 ist A
diagonalisierbar und hat nur reelle Eigenwerte. Daher kann man folgende Schritte
durchfhren.
(a) Man berechne die Koefzienten des charakteristischen Polynoms
char Pol
A
(X).
(b) Man bestimme die Nullstellen f
i
von char Pol
A
(X) =
k
j=1
(X f
i
)
d
i
. Sie
sind alle reell, und es gilt n =
k
j=1
d
j
.
(c) Zu jedem Eigenwert f
j
von A berechne man eine Basis B
j
=
{s
t +1
, s
t +2
, . . . , s
t +d
j
| t =
j1
i=1
d
i
} des Eigenraums W
j
= Ker(Ef
j
A).
(d) Mittels des Gram-Schmidtschen Orthonormalisierungsverfahrens wird diese
Basis in eine Orthonormalbasis C
j
= {c
t +1
, c
t +2
, . . . , c
t +d
j
| t =
j1
i=1
d
i
}
von W
j
transformiert.
(e) Die Vereinigungsmenge C =
k
j=1
C
j
= {c
1
, c
2
, . . . , c
n
} ist die gesuchte
Orthonormalbasis von V.
(f) Sei P die n n-Matrix, deren Spaltenvektoren s
r
die Vektoren c
r
der Ortho-
normalbasis C von V sind. Dann ist P eine orthogonale bzw. unitre Matrix
derart, da D = P
1
AP eine reelle Diagonalmatrix ist.
Beweis: Es ist nur zu zeigen, da c
i
c
j
= 0 fr i = j gilt. Dies ist klar, falls c
i
und
c
j
zumselben Eigenraumgehren. Andernfalls folgt c
i
c
j
= 0 aus Satz 7.4.11 (c).
7.6.5 Beispiel. Gegeben sei die reelle Matrix
A =
_
_
2 1 2
1 2 2
2 2 1
_
_
.
Durch Entwicklung nach der 1. Zeile erhlt man das charakteristische Polynomdieser
Matrix.
char Pol
A
(X) = det
_
_
X 2 1 2
1 X 2 2
2 2 X +1
_
_
= (X 2)[(X 2)(X +1) 4] [(X +1) 4]
2[2 +(X 2)2]
= (X 3) {[(X 2)(X +2)] 5}
= (X 3)(X
2
9) = (X 3)
2
(X +3).
7.6 Hauptachsentheorem 185
Die Eigenwerte von Asind f
1
= 3 und f
2
= 3. Der EigenraumW
1
zumEigenwert
f
1
= 3 ist eindimensional und wird von dem Vektor s
1
=
_
1
2
,
1
2
, 1
_
erzeugt.
Der Eigenraum W
2
zum Eigenwert f
2
= 3 ist zweidimensional. B
2
= {s
2
=
(2, 0, 1), s
3
= (1, 1, 0)} ist eine Basis von W
2
. Nach dem Gram-Schmidtschen
Orthogonalisierungsverfahren ist
c
1
=
1
|s
1
|
s
1
= (1, 1, 2)
1
6
,
c
2
=
1
|s
2
|
s
2
= (2, 0, 1)
1
5
,
c
3
=
1
|b
3
|
b
3
= (1, 5, 2)
1
30
,
wobei b
3
= s
3
c
2
(s
3
c
2
) = (1, 1, 0) (2, 0, 1)
1
5
(s
3
c
2
) =
_
1
5
, 1,
2
5
_
,
weil s
3
c
2
=
2
5
. Dann ist C = {c
1
, c
2
, c
3
} eine Orthonormalbasis von R
3
. Die
orthogonale Transformationsmatrix ist daher
P =
_
_
_
6
2
5
1
30
6
0
5
30
2
6
1
5
2
30
_
_
_
.
Wegen P
1
= P
T
ergibt sich
P
T
AP =
_
_
3 0 0
0 3 0
0 0 3
_
_
= D
als gesuchte, reelle Diagonalmatrix.
Mittels des Hauptachsentheorems 7.6.3 kann jetzt auch die Frage untersucht
werden, wie sich allgemein in endlich-dimensionalen reellen oder komplexen Vek-
torrumen ein skalares Produkt denieren lt.
7.6.6 Satz. Es sei V ein endlich-dimensionaler, reeller oder komplexer Vektorraum,
und {v
1
, . . . , v
n
} sei eine beliebige Basis von V. Fr die Vektoren x, y V gelte
x = v
1
x
1
+ +v
n
x
n
und y = v
1
y
1
+ +v
n
y
n
. Dann wird durch
x y =
n
i,j=1
x
i
a
i,j
y
j
= (x
1
, . . . , x
n
)A
_
_
_
y
1
.
.
.
y
n
_
_
_
()
in V genau dann ein skalares Produkt deniert, wenn A = (a
i,j
) eine symmetrische
bzw. Hermitesche Matrix mit lauter positiven Eigenwerten ist.
186 7 Euklidische und unitre Vektorrume
Beweis: Die Behauptung wird fr einen komplexenVektorraumbewiesen. Zunchst
sei durch () ein skalares Produkt deniert. Dann gilt a
i,j
= v
i
v
j
= v
j
v
i
= a
j,i
,
also A = A
j=1
a
i,j
x
j
= x
i
c fr i = 1, . . . , n.
Daher ist
x x =
n
i,j=1
x
i
a
i,j
x
j
= (x
1
x
1
+ +x
n
x
n
)c = (|x
1
|
2
+ +|x
n
|
2
)c.
Wegen x x > 0 und |x
1
|
2
+ +|x
n
|
2
> 0 folgt hieraus c > 0.
Umgekehrt sei jetzt A eine Hermitesche bzw. symmetrische Matrix mit lauter
positiven Eigenwerten. Aus () folgt unmittelbar (x
1
+x
2
) y = x
1
y +x
2
y und
(xc) y = (x y)c. Weiter erhlt man wegen a
i,j
= a
j,i
x y =
n
i,j=1
x
i
a
i,j
y
j
=
n
i,j=1
y
j
a
j,i
x
i
= y x.
Es mu also nur noch x x > 0 fr jeden Vektor x = o nachgewiesen werden. Zu
Agibt es nun aber nach dem Hauptachsentheorem 7.6.3 eine unitre Matrix P, fr
die D = P
1
, . . . , x
n
) =
(x
1
, . . . , x
n
)P, so folgt wegen PP
= P
P = E
n
, da
x x = (x
1
, . . . , x
n
)A
_
_
_
x
1
.
.
.
x
n
_
_
_
= (x
1
, . . . , x
n
)PP
APP
_
_
_
x
1
.
.
.
x
n
_
_
_
= (x
1
, . . . , x
n
)D
_
_
_
x
1
.
.
.
x
n
_
_
_
= c
1
x
1
x
1
+ +c
n
x
n
x
n
= c
1
|x
1
|
2
+ +c
n
|x
n
|
2
.
Gilt nun x = o, so folgt wegen der Invertierbarkeit von P auch x
i
= 0 fr mindestens
einen Index i und wegen der Positivitt der c
i
schlielich x x > 0. Damit sind die
kennzeichnenden Eigenschaften eines skalaren Produkts nachgewiesen.
7.6 Hauptachsentheorem 187
Eine weitere Folgerung des Hauptachsentheorems ist der Trgheitssatz von Syl-
vester. Zu seiner Formulierung werden die folgenden Begriffe bentigt.
7.6.7 Denition. Die Anzahl t (A) der positiven Eigenwerte einer reellen symme-
trischen bzw. komplexen Hermiteschen nn-Matrix Awird der Trgheitsindex von
Agenannt.
7.6.8 Denition. Zwei symmetrische bzw. Hermitesche n n-Matrizen A und B
heien kongruent, wenn es eine invertierbare reelle bzw. komplexe n n-Matrix Q
mit B = Q
T
AQ bzw. B = Q
AQ gibt.
7.6.9 Satz (Trgheitssatz von Sylvester). Sei A eine symmetrische bzw. Hermite-
sche n n-Matrix mit Rang rg(A) = r und Trgheitsindex t = t (A). Dann gelten
folgende Aussagen:
(a) Es gibt eine reelle bzw. komplexe invertierbare Matrix S derart, da
D = S
T
AS bzw. D = S
AS
eine Diagonalmatrix diag(1, . . . , 1, 1, . . . , 1, 0, . . . 0) ist, in deren Haupt-
diagonalen zunchst t -mal +1, dann (r t )-mal 1 und danach lauter Nullen
stehen.
(b) Fr jede invertierbare reelle bzw. komplexe n n-Matrix Q ist
B = Q
T
AQ bzw. B = Q
AQ
eine reelle symmetrische bzw. Hermitesche Matrix mit Trgheitsindex t (B) =
t (A) = t und Rang rg(B) = rg(A) = r.
(c) Zwei symmetrische bzw. Hermitesche nn-MatrizenAundBsindgenaudann
kongruent, wenn sie denselben Trgheitsindex und denselben Rang haben.
Beweis: Es wird nur der komplexe Fall bewiesen.
(a) Sei Aeine Hermitesche Matrix A. Wegen Satz 7.6.3 gibt es dann eine unitre
Matrix P, fr die B = P
1
AP eine reelle Diagonalmatrix
B = diag(b
0
, . . . , b
t
, b
t +1
, . . . , b
r
, 0, . . . 0)
ist, wobei b
0
, . . . , b
t
positive und b
t +1
, . . . , b
r
negative reelle Zahlen sind.
Da P eine unitre Matrix ist, gilt P
1
= P
und somit B = P
|b
0
|
, . . . ,
1
|b
r
|
, 1, . . . , 1
_
und S = PT
188 7 Euklidische und unitre Vektorrume
so ist D = T
BT = S
1
AP
1
= D und P
2
BP
2
= G die Diagonalma-
trizen der Eigenwerte d
1
, d
2
, . . . , d
n
von A bzw. g
1
, g
2
, . . . , g
n
von B sind. Seien
t (A) = t und t (B) = s die Trgheitsindizes von A und B. Dann knnen die bei-
den Orthonormalbasen von C
n
, die aus Eigenvektoren von A bzw. B bestehen, so
umnumeriert werden, da
d
i
> 0 fr 1 i t, d
i
< 0 fr t < i r und d
i
= 0 fr r < i n,
g
i
> 0 fr 1 j s, g
i
< 0 fr s < j r und g
i
= 0 fr r < j n
gelten. Da alle d
i
und g
j
reell sind, existieren a
i
und b
j
in R mit
d
i
=
_
_
a
2
i
fr 1 i t,
a
2
i
fr t < i r,
0 sonst
und g
j
=
_
_
b
2
j
fr 1 j s,
b
2
j
fr s < j r,
0 sonst.
Fr alle Vektoren x = (x
1
, x
2
, . . . , x
n
) C
n
folgt nun
x
Dx =
t
j=1
a
2
j
x
j
x
j
r
j=t +1
a
2
j
x
j
x
j
=
t
j=1
a
2
j
|x
j
|
2
j=t +1
a
2
j
|x
j
|
2
.
Setzt man C = P
2
Q
1
P
1
= (c
ij
) und y = Cx = (y
1
, y
2
, . . . , y
n
), so folgt
x
Dx = (x
)G(Cx) = y
Gy =
s
j=1
b
2
j
|y
j
|
2
j=s+1
b
2
j
|y
j
|
2
,
weil D = P
1
AP
1
= P
1
(Q
)
1
BQ
1
P
1
= P
1
(Q
1
)
P
2
GP
2
Q
1
P
1
.
Wre t < s. Dann htte das homogene lineare Gleichungssystem (H) mit den
n (s t ) < n Gleichungen x
1
= x
2
= = x
t
= 0 und y
i
=
n
j=1
c
ij
x
j
= 0
fr s +1 i n eine nicht triviale Lsung z = (z
1
, z
2
, . . . , z
n
) C
n
. Fr diesen
Vektor gelten gleichzeitig:
z
Dz =
_
r
j=t +1
a
2
j
|z
j
|
2
_
< 0,
z
Dz =
s
j=1
b
2
j
|y
j
|
2
> 0.
Aus diesem Widerspruch folgt s t und so aus Symmetrie t = s.
Die Behauptung (c) folgt unmittelbar aus (a) und (b).
7.6 Hauptachsentheorem 189
7.6.10 Bemerkung. Der Trgheitsindex t (A) einer reellen symmetrischen bzw. ei-
ner komplexen Hermiteschen Matrix Akann ohne explizite Berechnung der Eigen-
werte von Amittels der Zeichenregel von Descartes (vgl. Korollar 3.2.14 von [29],
S. 59) bestimmt werden. Ihre Voraussetzung ist nach Satz 7.6.3 erfllt. Sie lautet:
Bei einem Polynom
X
n
+a
n1
X
n1
+ +a
1
X +a
0
, a
0
= 0
mit reellen Koefzienten, das lauter reelle Nullstellen besitzt, ist die Anzahl der
positiven Nullstellen gleich der Anzahl der Vorzeichenwechsel in der Folge der Ko-
efzienten, die Anzahl der negativen Nullstellen gleich der Anzahl der Vorzeiche-
nerhaltungen. Dabei mssen jedoch alle Koefzienten bercksichtigt werden; also
auch die Nullkoefzienten, denen dann ein beliebiges Vorzeichen zugeordnet wird.
Mit dem folgenden Satz, der ebenfalls aus dem Hauptachsentheorem folgt, wird
nun die groe Bedeutung der orthogonalen bzw. unitren und der selbstadjungierten
Automorphismen eines endlich-dimensionalen euklidischen bzw. unitren Vektor-
raums V fr die Beschreibung aller Automorphismen von V herausgestellt.
7.6.11 Satz (Polarzerlegung). Sei V ein endlich-dimensionaler euklidischer bzw.
unitrer Vektorraum. Dann kann jeder Automorphismus von V auf genau eine
Weise als Produkt = eines orthogonalen bzw. unitren Automorphismus
und eines selbstadjungierten Automorphismus von V mit lauter positiven reellen
Eigenwerten dargestellt werden.
Beweis: Mit ist nach Hilfssatz 7.4.10 auch
c
i
. Dann ist ein selbstadjungierter Automorphismus von V mit
lauter positiven reellen Eigenwerten r
i
> 0.
Sicherlich ist =
1
ein Automorphismus von V. Wegen
2
= =
ist
1
= (
1
)
1
=
1
=
1
1
=
1
1
=
1
=
(
1
)
. Also ist nach Satz 7.5.8 ein orthogonaler bzw. unitrer Auto-
morphismus von V. Daher ist = eine gesuchte Produktdarstellung von .
190 7 Euklidische und unitre Vektorrume
Ist =
= (
)
1
und (
2
= =
= (
)
1
= (
)
2
.
Nun besitzen
und (
)
2
dieselben Eigenvektoren. Auerdem sind die Eigenwerte
von (
)
2
die Quadrate der Eigenwerte von
v
i
fr i = 1, 2, . . . , n. Also ist
= . Hieraus folgt
=
(
)
1
=
1
= .
7.7 Aufgaben
7.1 In einem zweidimensionalen unitren Raum mit der Basis {a
1
, a
2
} gelte a
1
a
1
= 4 und
a
2
a
2
= 1. Welche Werte kann dann das skalare Produkt a
1
a
2
besitzen?
7.2 Es seien
1
und
2
zwei skalare Produkte eines komplexen Vektorraums V.
(a) Zeigen Sie, da aus
1
(x, x) =
2
(x, x) fr alle Vektoren x sogar
1
=
2
folgt.
(b) Welche Bedingung mssen die komplexen Zahlen a und b erfllen, damit durch
(x, y) =
1
(x, y)a +
2
(x, y)b
wieder ein skalares Produkt deniert wird?
7.3 Zeigen Sie, da die durch ein skalares Produkt denierte Lnge |x| der Vektoren x eines
euklidischen oder unitren Vektorraums V die folgende Parallelogrammgleichung erfllt:
|x +y|
2
+|x y|
2
= 2(|x|
2
+|y|
2
). ()
Ist umgekehrt V ein reeller Vektorraum, auf dem eine Lnge |v| der Vektoren v V mit den
blichen Betragseigenschaften deniert ist, die () erfllt, dann gibt es auf V ein Skalarprodukt
(, ) mit |x|
2
= (x, x).
7.4 Zeigen Sie mit demin Beispiel 7.2.15 b) denierten skalaren Produkt, da die Funktionen
1
2
, cos(nt ), sin(nt ), n = 1, 2, 3, . . . ein unendliches Orthonormalsystem bilden.
7.5 In dem komplexen arithmetischen Vektorraum V = C
4
sei das skalare Produkt zweier
Vektoren x = (x
1
, x
2
, x
3
, x
4
), y = (y
1
, y
2
, y
3
, y
4
) durch x y = x
1
y
1
+ x
2
y
2
+ x
3
y
3
+
x
4
y
4
deniert. Man bestimme eine Orthonormalbasis des orthogonalen Komplements U
des
Unterraums U = a
1
C +a
2
C von V, wobei a
1
= (1, i, 0, 1), a
2
= (i, 0, 2, 0) ist.
7.6 Fr einen orthogonalen Endomorphismus eines n-dimensionalen euklidischen Raumes
gilt | tr | n. Wann steht hier das Gleichheitszeichen?
7.7 Aufgaben 191
7.7 Es seien v
1
, . . . , v
k
linear unabhngige Vektoren eines euklidischenVektorraums V. Die
Menge aller Vektoren
x = v
1
x
1
+ +v
k
x
k
mit 0 x
i
1 fr i = 1, . . . , k
wird dann das von den Vektoren v
1
, . . . , v
k
aufgespannte Parallelotop genannt. Es sei nun
{e
1
, . . . , e
k
} eine Orthonormalbasis des von den Vektoren v
1
, . . . , v
k
aufgespannten Unter-
raums U von V. Man nennt den Betrag der Determinante
(v
1
e
1
) (v
1
e
k
)
.
.
.
.
.
.
(v
k
e
1
) (v
k
e
k
)
(v
1
e
1
) (v
1
e
k
)
.
.
.
.
.
.
(v
k
e
1
) (v
k
e
k
)
2
=
(v
1
v
1
) (v
1
v
k
)
.
.
.
.
.
.
(v
k
v
1
) (v
k
v
k
)
.
(b) Die Denition des Volumens ist unabhngig von der Wahl der Orthonormalbasis von
V. Die in (a) rechts stehende Determinante ist das Quadrat des Volumens.
7.8 In dem reellen arithmetischen Vektorraum R
4
sei das skalare Produkt so deniert, da
die kanonische Basis eine Orthonormalbasis ist. Berechnen Sie mittels der Ergebnisse von
Aufgabe 7.7 das Volumen des von den Vektoren
(2, 1, 0, 1), (1, 0, 1, 0), (2, 1, 1, 0)
aufgespannten Parallelotops.
7.9 Wenn die adjungierten Abbildungen von : V W und : W Z existieren, dann
existiert auch die adjungierte Abbildung zu und es gilt ()
.
7.10 In welcher Beziehung stehen die Koefzienten des charakteristischen Polynoms eines
Endomorphismus und des adjungierten Endomorphismus?
7.11 Es sei ein normaler Endomorphismus eines unitren oder euklidischen Raumes V
endlicher Dimension. Zeigen Sie:
(a) Jeder Vektor x V kann auf genau eine Weise in der Form x = x
+x
mit x
V
und x
und x
orthogonal sind.
(b) Es gilt rg() = rg(
2
).
7.12 Ein unitrer Automorphismus ist genau dann selbstadjungiert, wenn die Identitt
ist.
192 7 Euklidische und unitre Vektorrume
7.13 Es sei ein selbstadjungierter Endomorphismus eines endlich-dimensionalen euklidi-
schen oder unitren Raumes mit lauter positiven Eigenwerten. Zeigen Sie, da dann und
2
dieselben Eigenvektoren besitzen und da die Eigenwerte von
2
die Quadrate der Eigenwerte
von sind.
7.14 Es sei {+1, 1}. Das charakteristische Polynom der Matrix
B =
_
_
_
_
_
_
1 0 0 1
0 1 0 1 0
0 1 0
0 1 0 1 0
1 0 0 1
_
_
_
_
_
_
ist gegeben durch X
3
(X 3) (X 2). Bestimmen Sie eine orthogonale Matrix P, so
da P
1
B P eine Diagonalmatrix ist.
7.15 Gegeben sei die folgende symmetrische reelle 5 5-Matrix
A =
_
_
_
_
_
_
1 0 1 1
2
0 1 1 1
2
1 1 0 1 0
1 1 1 0 0
2
2 0 0 1
_
_
_
_
_
_
.
(a) Zeigen Sie, da char Pol
A
(X) = (X +1)
3
(X 3)
2
gilt.
(b) Bestimmen Sie eine orthogonale 55-Matrix P, so da P
1
AP eine Diagonalmatrix
wird.
7.16 Sei A = (a
ij
) eine Hermitesche n n-Matrix. Zeigen Sie:
(a) Alle Hauptdiagonalelemente a
ii
von Asind reell.
(b) Das charakteristische Polynom char Pol
A
(X) von Ahat reelle Koefzienten.
(c) Die Determinante und die Spur von Asind reell.
7.17 Sei ein selbstadjungierter Endomorphismus des n-dimensionalen unitren Raumes
V, und seien c
1
c
2
c
n
die nach Satz 7.4.11 reellen Eigenwerte von . Zeigen Sie:
c
1
= max{(v v) | |v| = 1} und c
n
= min{(v v) | |v| = 1}.
7.18 Zeigen Sie: Jeder Endomorphismus eines endlich-dimensionalen euklidischen
bzw. unitren Vektorraums V kann auf genau eine Weise in der Form =
1
+
2
mit einem
selbstadjungierten Endomorphismus
1
und einem anti-selbstadjungierten Endomorphismus
2
dargestellt werden.
7.7 Aufgaben 193
7.19 Beweisen Sie die folgenden Behauptungen:
(a) Jede invertierbare reelle nn-Matrix Akann auf genau eineWeise als Produkt A = OS
einer orthogonalen nn-Matrix O und einer symmetrischen nn-Matrix S mit lauter
positiven reellen Eigenwerten dargestellt werden.
(b) Jede invertierbare komplexe n n-Matrix A kann auf genau eine Weise als Produkt
A = UH einer unitren nn-Matrix Uund einer Hermiteschen nn-Matrix H mit
lauter positiven reellen Eigenwerten dargestellt werden.
7.20 Man bestimme die Polarzerlegung A = OS von Aufgabe 7.19 (a) der reellen Matrix
A =
_
_
2 1 1
1 2 0
0 1 1
_
_
.
8 Anwendungen in der Geometrie
Die Aufgabe der Analytischen Geometrie ist es, geometrische Objekte und die Be-
ziehung zwischen ihnen rechnerisch zu erfassen. Dies wird durch die Festlegung
eines Koordinatensystems ermglicht. Die geometrischen Beziehungen gehen dann
in rechnerische Beziehungen zwischen Zahlen ber, nmlich den Koordinaten der
Punkte. DieWahl des Koordinatensystems ist dabei jedoch noch willkrlich und nicht
durch die geometrische Struktur bedingt. Rechnerische Beziehungen zwischen den
Koordinaten werden daher auch nur eine geometrische Bedeutung besitzen, wenn
sie von der Willkr der Koordinatenbestimmung unabhngig sind.
Der im ersten Abschnitt dieses Kapitels behandelte Begriff des afnen Raumes
gestattet eine Beschreibung geometrischer Sachverhalte, die weitgehend frei von
Willkr ist. Typisch fr die afne Geometrie sind u. a. die Begriffe des Teilverhlt-
nisses und der Parallelitt von Unterrumen. Aber gerade der letzte Begriff bedingt
hug bei Stzen der afnen Geometrie Komplikationen durch Fallunterscheidun-
gen, die z. B. dadurch bedingt sind, da parallele Geraden keinen Schnittpunkt besit-
zen. Dieser Umstand legt nahe, afne Rume durch Hinzunahme solcher fehlenden
Schnittpunkte als ideelle Elemente zu sogenannten projektiven Rumen zu erwei-
tern, auf die hier anschlieend kurz eingegangen wird. Die Geometrie dieser Rume
fhrt zu vielfach bersichtlicheren Stzen, die ihrerseits afner Spezialisierungen f-
hig sind. Als Beispiel hierfr wird am Ende des Kapitels auf die Klassizierung von
Quadriken eingegangen. WeitereAnwendungen beziehen sich auf die Klassizierung
der Drehungen imafnen euklidischen oder unitren Raumund die Beschreibung der
quivalenzklassen der afnen Quadriken bezglich der Gruppe der Kongruenzen.
8.1 Afne Rume
In diesem Kapitel bedeutet F immer einen kommutativen Krper. Alle betrachteten
F-Vektorrume sind endlich-dimensional.
8.1.1 Denition. Ein afner Raum A ber F besteht aus einer ebenfalls mit A be-
zeichneten Menge, deren Elemente Punkte genannt werden, und im Fall A = aus
einem F-Vektorraum V
A
sowie einer Zuordnung, die jedem geordneten Paar (p, q)
von Punkten aus A eindeutig einen mit
pq.
(b)
pq +
qr =
pr.
Im Fall F = R oder F = C heit A reeller bzw. komplexer afner Raum.
Die Dimension dimA des afnen Raums A ist die Dimension des zugeordneten
Vektorraums V
A
. Falls A = wird dimA = 1 gesetzt.
8.1.2 Bemerkung. Das Axiom (a) von Denition 8.1.1 besagt gerade, da bei fester
Wahl des Punktes p A durch q
pq eine Bijektion A V
A
zugeordnet
wird. Man kann daher V
A
als den Raum der Ortsvektoren von A bezglich des
Anfangspunktes p auffassen. Als Anfangspunkt kann jedoch jeder beliebige Punkt
p gewhlt werden.
8.1.3 Hilfssatz. Fr Punkte p, q eines afnen Raumes A gilt:
pp = o und
qp =
pq.
Beweis: Wegen Axiom (b) von Denition 8.1.1 gilt
pp +
pp =
pp und somit
pp = o. Weiter folgt
pq +
qp =
pp = o. Daher ist
qp =
pq.
8.1.4 Denition. Eine Teilmenge Ueines afnen Raumes Aheit afner Unterraum
von A, wenn entweder U = oder die Menge V
U
= {
pq V
A
| p, q U} ein
Unterraum des F-Vektorraums V
A
ist.
Bezeichnung: U A.
8.1.5 Bemerkung. Ist die nicht-leere Teilmenge U von A ein afner Unterraum,
dann kann fr die Bestimmung des Untervektorraums V
U
ein Punkt p U fest
gewhlt und nur q U variiert werden. Denn fr jeden anderen Punkt p
U erhlt
man wegen
q =
p+
pq =
pp
pq V
U
denselben UnterraumV
U
von V
A
.
8.1.6 Hilfssatz. Der Durchschnitt D = {U | U S} eines nicht-leeren Systems S
von afnen Unterrumen U eines afnen Raumes A ist selbst ein afner Unterraum
von A. Im Fall D = gilt V
D
= {V
U
| U S}.
Beweis: Im Fall D = ist die Behauptung trivial. Andernfalls gibt es ein p D
derart, da
V
D
= {
pq | q D} =
_
US
{
pq | q U} =
_
{V
U
| U S}
gilt. Wegen Satz 2.1.8 ist V
D
ein Unterraum von V
A
.
196 8 Anwendungen in der Geometrie
8.1.7 Denition. Fr jede Teilmenge Mdes afnen Raums Aist nach Hilfssatz 8.1.6
M =
_
{U | M U, U ein Unterraum von A}
der kleinste afne Unterraumvon A, der Menthlt. Er heit der von Maufgespannte
oder erzeugte Unterraum.
8.1.8 Denition. Sei S ein System von afnen Unterrumen U des afnen Raumes
A. Dann ist
{U | U S} = U | U S
der Verbindungsraum von S. Man schreibt auch
U
1
U
k
= {U
i
| 1 i k},
falls S aus k Unterrumen U
i
von A besteht.
Statt {p} {q} wird vereinfachend p q geschrieben. p q heit die Verbin-
dungsgerade der Punkte p, q A, falls p = q.
8.1.9 Beispiele.
Jede einpunktige Teilmenge {p} eines afnen Raumes A ist ein Unterraum mit dem
Nullraum {o} = {
ab V
V
durch
ab = b a V deniert.
8.1.10 Denition. Unterrume der Dimension 1 des afnen Raumes A werden Ge-
raden, Unterrume der Dimension 2 Ebenen genannt.
Gilt fr einen Unterraum H = A und einen Punkt p A bereits H p = A, so
heit H eine Hyperebene von A.
8.1.11 Bemerkung. Im Fall dimA = n, sind die Hyperebenen genau die Unterru-
me der Dimension n 1. Ist n = 2, so ist jede Hyperebene eine Gerade von A.
8.1 Afne Rume 197
8.1.12 Satz (Dimensionssatz). Es seien U und Wzwei endlich-dimensionale Unter-
rume des afnen Raumes A. Dann ist
dimU +dimW=
_
_
dim(U W) +dim(U W)
falls U = oder W= oder U W= ,
dim(U W) +dim(U W) +dim(V
U
V
W
)
falls U = , W= und U W= .
Beweis: Da die Flle U = bzw. W = trivial sind, kann weiterhin U = und
W = angenommen werden. Sei zunchst auch U W = . Dann existiert ein
p U W. Nach Hilfssatz 8.1.6 gilt V
UW
= V
U
V
W
. Unmittelbar ergibt sich
V
U
V
UW
, V
W
V
UW
und daher V
U
+V
W
V
UW
. Da aber Z = {q |
pq
V
U
+V
W
} ein Unterraum von A mit U Z und W Z ist, folgt Z = U W. Also
ist V
UW
= V
U
+V
W
. Wegen Satz 2.2.16 erhlt man jetzt
dim(U W) +dim(U W) = dim(V
U
+V
W
) +dim(V
U
V
W
)
= dimV
U
+dimV
W
= dimU +dimW.
Nun sei U W = . Weiter seien p U und p
pp
]F V
UW
. Fr den UnterraumZ = {q |
pq V
U
+V
W
+[
pq]F}
von A gilt offenbar U Z und W Z. Daher ist Z = U W und V
UV
=
V
U
+V
W
+[
pp
]F. Wre
pp
V
U
+V
W
, so gbe es Punkte q U und q
W
mit
pp
=
pq +
, also mit
=
qp +
pp
= o. Es wrde q = q
und
damit q U Wim Widerspruch zu U W= folgen. Daher gilt
dim(U W) = dim(V
U
+V
W
+[
pp
]F)
= dim(V
U
+V
W
) +1
= dimV
U
+dimV
W
dim(V
U
V
W
) dim(U W)
nach Satz 2.2.16, weil dim(U W) = 1 nach Denition 8.1.1 ist.
8.1.13 Denition. Zwei nicht-leere afne Unterrume U und Weines afnen Rau-
mes A heien parallel, wenn V
U
V
W
oder V
W
V
U
gilt. Auerdem soll der
leere Unterraum parallel zu allen afnen Unterrumen U sein.
Bezeichnung: U W.
8.1.14 Satz. Zwei nicht-leere parallele Unterrume U und Weines afnen Raumes
A sind entweder punktfremd, oder einer von ihnen ist ein Unterraum des anderen.
Beweis: Aus p U W und z. B. V
U
V
W
folgt fr jedes q U zunchst
pq V
U
, also
pq V
W
. Wegen p Wist daher auch q Wund somit U W.
198 8 Anwendungen in der Geometrie
8.1.15 Satz. Seien U ein nicht-leerer Unterraum und Heine Hyperebene des afnen
Raumes A der Dimension dimA = n 1. Dann sind U und H parallel, oder es gilt
dim(U H) = dimU 1.
Beweis: Aus U H folgt V
U
V
H
und daher U H. Weiter sei jetzt U nicht in H
enthalten. Dann gilt U H = A und im Fall U H = wegen Satz 8.1.12
dim(UH) = dimU+dimHdim(UH) = dimU+(n 1) n = dimU1.
Im Fall U H = liefert Satz 8.1.12 jedoch
dim(V
U
V
H
) = dimU +dimH dim(U H) dim(U H)
= dimU +(n 1) n (1)
= dimU = dimV
U
.
Es folgt V
U
V
H
= V
U
, also V
U
V
H
und daher wieder U H.
8.1.16 Folgerung. Zwei Geraden einer afnen Ebene sind entweder parallel oder
besitzen genau einen Schnittpunkt.
Beweis: Ergibt sich sofort aus Satz 8.1.15. Da sich die beiden Flle gegenseitig
ausschlieen, folgt aus dem Satz 8.1.14.
8.1.17 Denition. Ein (n + 1)-Tupel (p
0
, . . . , p
n
) von Punkten p
i
A heit un-
abhngig, wenn die Vektoren
p
0
p
1
, . . . ,
p
0
p
n
aus V
A
linear unabhngig sind. Ein
geordnetes (n +1)-Tupel K = (p
0
, . . . , p
n
) von Punkten aus dem afnen Raum A
heit ein Koordinatensystem von A, wenn die n + 1 Punkte p
i
, 0 i n, unab-
hngig sind und A = p
0
p
n
gilt. Der Punkt p
0
heit der Anfangspunkt, und
p
1
, . . . , p
n
werden die Einheitspunkte von K genannt.
8.1.18 Bemerkung. Ist K = (p
0
, . . . , p
n
) ein Koordinatensystem von A, so ist
dimA = n. Die Punkte p
0
, . . . , p
n
bilden genau dann ein Koordinatensystem des
afnen Raums A, wenn {
p
0
p
1
, . . . ,
p
0
p
n
} eine Basis von V
A
ist.
8.1.19 Denition. Sei K = (p
0
, . . . , p
n
) ein fest gewhltes Koordinatensystem des
n-dimensionalen afnen Raumes A ber dem Krper F. Da A = {
p
0
p
1
, . . . ,
p
0
p
n
}
eine Basis des F-Vektorraumes V
A
ist, existieren zu jedem Punkt x A eindeu-
tig bestimmte Skalare x
1
, x
2
, . . . , x
n
F derart, da der Vektor
p
0
x V
A
die
Basisdarstellung
p
0
x =
p
0
p
1
x
1
+
p
0
p
2
x
2
+ +
p
0
p
n
x
n
hat. Die Skalare x
1
, x
2
, . . . , x
n
heien die Koordinaten des Punktes x bezglich des
Koordinatensystems K. Das n-Tupel x = (x
1
, x
2
, . . . , x
n
) F
n
heit der Koordi-
natenvektor des Punktes x von A bezglich des Koordinatensystems K.
8.1 Afne Rume 199
8.1.20 Satz. Sei K = (p
0
, . . . , p
n
) ein fest gewhltes Koordinatensystem des n-
dimensionalen afnen Raumes A. Dann gilt:
(a) Jeder Punkt x des afnen Raumes A ist eindeutig durch seinen Koordinaten-
vektor x = (x
1
, . . . , x
n
) F
n
bezglich K bestimmt.
(b) Der Vektor
xy V
A
zwischen den Punkten x, y A besitzt bezglich
der Basis {
p
0
p
1
, . . . ,
p
0
p
n
} von V
A
die eindeutig bestimmten Koordinaten
y
1
x
1
, . . . , y
n
x
n
.
Beweis: (b) Sind y
1
, . . . , y
n
die Koordinaten eines weiteren Punktes y von A be-
zglich des Koordinatensystems K, so gilt
xy =
p
0
y
p
0
x =
p
0
p
1
(y
1
x
1
) + +
p
0
p
n
(y
n
x
n
).
(a) Nach Hilfssatz 8.1.3 gilt daher x = y genau dann, wenn x = (x
1
, . . . , x
n
) =
(y
1
, . . . , y
n
) = y ist.
8.1.21 Satz. Sei K = (p
0
, . . . , p
n
) ein Koordinatensystem des afnen Raumes A.
Die Menge U aller Punkte x A, deren Koordinaten x
1
, . . . , x
n
Lsungen eines
gegebenen linearen Gleichungssystems
(G)
n
j=1
a
i,j
x
j
= b
i
fr i = 1, . . . , r
sind, ist ein afner Unterraum von A.
Im Fall U = gilt dimU = n r, wobei r der Rang der Koefzientenmatrix
A = (a
i,j
) von (G) ist.
Umgekehrt ist jeder Unterraum U von A die Lsungsgesamtheit eines inhomo-
genen Gleichungssystems (G) Ax = b.
Beweis: Wenn (G) nicht lsbar ist, gilt U = . Andernfalls sei x ein fester Punkt aus
U mit den Koordinaten x
1
, . . . , x
n
. Dann ist y U nach Satz 8.1.20 gleichwertig
damit, da die Koordinaten y
1
, . . . , y
n
von y eine Lsung von (G) sind. Also sind
die Koordinaten y
1
x
1
, . . . , y
n
x
n
des Vektors
xy Lsungen des zugehrigen
homogenen Gleichungssystems (H) Ax = o. Wegen Satz 3.2.13 ist daher V
U
=
{
p
0
p
1
, . . . ,
p
0
p
n
} eine Orthonormalbasis
von V
A
ist.
Der Abstand pq zweier Punkte p, q eines euklidisch-afnen bzw. unitr-afnen
Raumes A und der Kosinus des Winkels (p, q, r) mit p als Scheitel werden deniert
durch
pq = |
pq,
pr) =
pq
pr
|
pq| |
pr|
.
8.2 Afne Abbildungen
In diesem Abschnitt bezeichnen A und B stets zwei nicht-leere afne Rume ber
dem Krper F mit den endlich-dimensionalen Vektorrumen V
A
und V
B
.
8.2.1 Denition. Eine Abbildung : A B heit eine afne Abbildung, wenn
es zu ihr eine lineare Abbildung : V
A
V
B
mit
pq =
pq fr alle Punkte
p, q A gibt.
8.2.2 Hilfssatz. Bei festen Punkten p A und p
.
Beweis: Jede afne Abbildung : A Bbestimmt nach Denition 8.2.1 eindeu-
tig eine lineare Abbildung : V
A
V
B
. Ist umgekehrt eine lineare Abbildung
: V
A
V
B
gegeben, so kann man noch einem Punkt p A seinen Bild-
punkt p
x =
px =
(W) = {p A | p W} ein
Unterraum von A. Im Fall
(W) = gilt V
(W)
=
(W
W
).
(d) Mit und ist auch eine afne Abbildung, deren zugeordnete lineare
Abbildung
ist.
(e) Wenn eine bijektive afne Abbildung von Aauf Bist, dann ist auch
1
eine
afne Abbildung mit
1
als zugeordneter linearer Abbildung.
Die einfachen Beweise dieser fnf Behauptungen sollen dem Leser berlassen
bleiben.
8.2.4 Satz. Es sei : A Beine afne Abbildung. Dann gelten:
(a) Sind U und W parallele Unterrume von A, so sind U und W ebenfalls
parallel.
(b) Sind U
und W
(U
) und
(W
)
parallel.
(c) Mit x, y, z sind auch die Bildpunkte x, y, z kollinear. Aus x = y und
x = y folgt
TV(x, y, z) = TV(x, y, z).
Beweis: (a) Zunchst kann von allen auftretenden Unterrumen vorausgesetzt wer-
den, da sie nicht leer sind, da sonst die Parallelittsaussage trivial ist. Ohne Ein-
schrnkung der Allgemeinheit kann weiter V
U
V
W
angenommen werden. Nach
Hilfssatz 8.2.3 sind V
U
und V
W
die zu U und W gehrenden Vektorrume.
Wegen V
U
V
W
sind daher U und Wparallel. Entsprechend ergibt sich die
Behauptung (b).
(c) Seien jetzt x, y, z kollineare Punkte des afnen Raumes A. Mit U = x y z
gilt dann dimU 1. Daher ist dim(U) = dim( V
U
) dimV
U
1 wegen
Folgerung 2.2.14 und Satz 3.2.7. Die Punkte x, y, z U sind somit ebenfalls
kollinear. Gilt weiter x = y und
xz =
xyc, so folgt
xz =
xz = (
xy)c =
0
, . . . , p
n
seien beliebige Punkte des afnen Raumes B. Dann gilt:
(a) Es gibt genau eine afne Abbildung von A auf den Unterraum W =
p
0
p
n
von Bderart, da p
i
= p
i
fr i = 0, . . . , n gilt.
(b) Diese afne Abbildung ist genau dann eine Bijektion, wenn (p
0
, . . . , p
n
)
ein Koordinatensystem von Wist.
Beweis: (a) Da die Vektoren
p
0
p
1
, . . . ,
p
0
p
n
eine Basis von V
A
bilden, gibt es nach
Satz 3.2.4 genau eine lineare Abbildung : V
A
V
B
mit
p
0
p
i
=
p
0
p
i
fr
i = 1, . . . , n. Der linearen Abbildung und den Punkten p
0
, p
0
entspricht aber
nach Hilfssatz 8.2.2 umkehrbar eindeutig eine afne Abbildung : A Bderart,
da
0
p
i
=
p
0
p
i
=
0
p
i
und daher p
i
= p
i
fr i = 0, . . . , n gilt.
(b) Diese afne Abbildung ist wegen Folgerung 3.2.14 und Hilfssatz 8.2.3
genau dann bijektiv, wenn auch die Vektoren
p
0
p
1
, . . . ,
0
p
n
linear unabhngig
sind und V
W
erzeugen, wenn also K
= (p
0
, . . . , p
n
) ein Koordinatensystem von
Wist.
8.2.6 Bemerkung. Wegen Hilfssatz 8.2.2 bentigt man zur Beschreibung einer af-
nenAbbildung nicht nur die zugeordnete lineareAbbildung , sondern es mu auch
noch der Bildpunkt p
= (p
0
, p
1
, . . . , p
r
). Fer-
ner sei : A B eine afne Abbildung, deren zugehrige lineare Abbildung
: V
A
V
B
bezglich der Vektorraumbasen B = {
p
0
p
1
, . . . ,
p
0
p
n
} und
B
= {
0
p
1
, . . . ,
0
p
r
} von V
A
bzw. V
B
die rn-Matrix A = A
(B, B
) = (a
ij
)
hat. Schlielich sei t = (t
1
, t
2
, . . . , t
r
) der Koordinatenvektor von p
0
bezglich K
.
Fr einen beliebigen Punkt x A mit dem Koordinatenvektor x = (x
1
, . . . , x
n
)
bezglich K und seinen Bildpunkt x mit dem Koordinatenvektor x
= (x
1
, . . . , x
r
)
bezglich K
gilt dann
x
i
= t
i
+
n
j=1
a
ij
x
j
fr i = 1, 2, . . . , r
oder gleichwertig in Matrizen- und Spaltenschreibweise
x
= t +Ax.
8.2 Afne Abbildungen 203
Beweis: Nach Voraussetzung gelten fr die lineare Abbildung : V
A
V
B
die
Gleichungen:
(
p
0
p
j
) =
r
i=1
(
o
p
i
)a
ij
fr i = 1, 2, . . . , n.
Sei x A ein beliebiger Punkt mit Bildpunkt x. Wegen
0
p
0
=
r
i=1
(
0
p
i
)t
i
gilt dann
0
x =
r
i=1
0
p
i
x
i
und
p
o
x =
n
j=1
p
0
p
j
x
j
.
Da
0
x =
0
p
0
+
p
0
x =
0
p
0
+
p
0
x ergibt sich hieraus
0
x =
r
i=1
0
p
i
t
i
+
_
n
j=1
p
0
p
j
x
j
_
=
r
i=1
0
p
i
t
i
+
n
j=1
_
r
i=1
0
p
i
a
ij
_
x
j
=
r
i=1
0
p
i
_
t
i
+
n
j=1
a
ij
x
j
_
.
Durch Koefzientenvergleich folgt
x
i
= t
i
+
n
j=1
a
ij
x
j
fr 1 i r, d. h. x
= t +Ax.
8.2.8 Denition. Bijektive afneAbbildungen eines afnen Raumes Aauf sich wer-
den Afnitten genannt.
8.2.9 Bemerkung. Wegen Hilfssatz 8.2.3 (d) und (e) bilden die Afnitten eines
afnen Raumes A eine Gruppe. Sie heit afne Gruppe von A.
8.2.10 Denition. Eine Afnitt von A heit eine Translation, wenn
pp =
qq
fr alle Punkte p, q A gilt. Der dann von der Wahl des Punktes p unabhngige
Vektor t =
pp V
A
wird der Translationsvektor von genannt.
8.2.11 Bemerkung. Eine Translation ist durch ihren Translationsvektor eindeutig
bestimmt. Jeder Vektor t V
A
ist auch Translationsvektor der durch
pp = t de-
nierten Translation. Die Identitt ist die Translation mit dem Nullvektor als Trans-
lationsvektor. Sind und zwei Translationen mit den Translationsvektoren t und
204 8 Anwendungen in der Geometrie
t
pq =
pq.
(c) Die zugeordnete lineare Abbildung ist die Identitt.
Beweis: Es ist
pp =
qq gleichwertig mit
pp =
qq, wegen
pq =
pp +
pq +
qq also auch gleichwertig mit
pq =
pq. Die letzte Gleichung ist aber
wegen
pq =
eine
Afnitt von A mit p als Fixpunkt ist.
Beweis: Es sei
p =
p, und fr die Afnitt
=
1
folgt hieraus
p =
1
(p) = p. Ist
umgekehrt =
p =
p) = p. Daher mu
pp der Translationsvektor von
sein; d. h.
und
damit auch
pq| = |
pq =
pq| = |
pq|
fr alle p, q A, also | x| = |x| fr alle x V
A
gilt. Dies ist aber nach Satz 7.5.2
gleichwertig damit, da orthogonal bzw. unitr ist.
8.3.4 Denition. Eine Afnitt des euklidisch-afnen oder unitr-afnen Raumes
A heit eine hnlichkeit, wenn es eine reelle Zahl c > 0 gibt, so da pq = pqc
fr alle p, q A gilt. Es wird dann c der hnlichkeitsfaktor von genannt.
8.3.5 Bemerkung. Jede Kongruenz ist eine hnlichkeit mit dem hnlichkeitsfak-
tor 1.
Sind und hnlichkeiten mit denhnlichkeitsfaktoren c bzw. c
, so ist eine
hnlichkeit mit dem Faktor cc
und
1
eine hnlichkeit mit dem Faktor
1
c
. Daher
bilden auch die hnlichkeiten von A eine Gruppe, die die Gruppe der Kongruenzen
als Untergruppe enthlt.
8.3.6 Satz. Eine Afnitt des euklidisch-afnen oder unitr-afnen Raumes A ist
genau dann eine hnlichkeit, wenn die ihr zugeordnete lineare Abbildung die Form
=
c mit einer reellen Zahl c > 0 und einer orthogonalen bzw. unitren Abbildung
besitzt.
Insbesondere sind hnlichkeiten winkeltreu.
Beweis: Es ist genau dann eine hnlichkeit mit dem hnlichkeitsfaktor c, wenn
|
pq| = c|
_
1
c
_
x
pq) (
pr)
|
pq||
pr|
=
(
pq)(
pr)c
2
|
pq||
pr|c
2
=
pq
pr
|
pq||
pr|
= cos(p, q, r).
mit =
und
(B, B) =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+1
.
.
.
+1
1
.
.
.
1
.
.
.
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
gilt, wobei jedes Kstchen ein Zweierkstchen der Form
cos
j
sin
j
sin
j
cos
j
mit <
j
fr 1 j s ist.
Beweis: Sei zunchst ein orthogonaler Automorphismus von V
A
. Wegen Satz 7.5.2
besitzen alle Eigenwerte von den Betrag 1. Als reelle Eigenwerte knnen daher nur
+1 und 1 auftreten. Die komplexen Eigenwerte besitzen die Form cos
j
+i sin
j
mit <
j
. Wegen Satz 7.5.8 ist auerdem normal. Daher liefert Satz
7.4.17 die Behauptung.
Die Umkehrung ist trivial, weil A
(B, B) = (1)
k
genau
dann, wenn k gerade ist. Also gilt die Behauptung.
8.3.14 Denition. Es sei H eine Hyperebene von V
A
und n = o sei ein Normalen-
vektor zu H. Dann besitzt jeder Vektor v V
A
eine eindeutige Darstellung
v = v
H
+v
n
mit v
H
H und v
n
n. ()
Ein Automorphismus von V
A
heit eine Spiegelung, wenn es eine Hyperebene
H von V
A
gibt, so da (v)
H
= v
H
und (v)
n
= v
n
fr alle v V gilt, wobei
n V
A
der in () gewhlte Normalvektor zur Hyperebene H ist.
8.3.15 Satz. (a) Jede Spiegelung ist ein uneigentlich orthogonaler Automor-
phismus mit
1
= .
(b) Ein uneigentlich orthogonaler Automorphismus von V
A
ist genau dann eine
Spiegelung, wenn +1 ein (n 1)-facher und 1 ein 1-facher Eigenwert von
ist.
(c) Es sei
1
eine gegebene Spiegelung. Fr jeden uneigentlich orthogonalen Au-
tomorphismus von V
A
gilt dann =
2
1
=
1
2
mit Drehungen
2
,
2
.
Beweis: (a) Es sei {e
1
, . . . , e
n1
} eine Orthonormalbasis der zu gehrenden Hy-
perebene H, und e
n
sei ein normierter Normalenvektor zu H. Dann ist {e
1
, . . . , e
n
}
eine Orthonormalbasis von V
A
, hinsichtlich derer die Diagonalmatrix D mit
den Diagonalelementen 1, . . . , 1, 1 entspricht. Sie ist eine orthogonale Matrix mit
det D = 1, und es gilt D
2
= E, also D
1
= D.
(b) Ist eine Spiegelung, so folgt die Behauptung ber die Eigenwerte unmit-
telbar mit Hilfe der Matrix D aus Beweisteil (a). Umgekehrt ist der Eigenraum zum
Eigenwert +1 eine Hyperebene H, und der Eigenraum zum Eigenwert 1 ist nach
Satz 7.4.11 (c) zu H orthogonal. Es folgt, da eine Spiegelung ist.
(c) Die Behauptung gilt mit
2
=
1
1
,
2
=
1
1
, weil det
2
= (1)(1) =
1 = det
2
.
Da man nach Satz 8.3.15 die Spiegelungen vollstndig bersieht, bedarf es we-
gen 8.3.15 (c) nur noch einer Diskussion der Drehungen. Wegen Satz 8.3.10 und
Bemerkung 8.3.11 setzt sich eine Drehung aus Drehungen in paarweise ortho-
gonalen Ebenen zusammen, die noch durch den zu ihnen orthogonalen Eigenraum
zum Eigenwert +1 ergnzt werden, auf dem jedoch die Identitt ist. Man mu da-
her lediglich noch die Drehungen eines 2-dimensionalen euklidischen Vektorraums
untersuchen.
8.3 Kongruenzen und Drehungen 209
8.3.16 Satz. (a) Die Drehungen eines 2-dimensionalen euklidischenVektorraums
V bilden eine abelsche Gruppe.
(b) Fr eine Drehung und einen uneigentlich orthogonalen Automorphismus
von V gilt hingegen =
1
.
Beweis: (a) Es sei B = {e
1
, e
2
} eine feste Orthonormalbasis von V. Drehungen ,
entsprechen dann bezglich B Matrizen der Form
A
=
_
cos sin
sin cos
_
und A
=
_
cos sin
sin cos
_
,
wobei < , . Mit Hilfe der Additionstheoreme fr cos und sin rechnet
man unmittelbar die Gleichung
A
=
_
cos( +) sin( +)
sin( +) cos( +)
_
nach. Der Multiplikation der Matrizen entspricht also die Addition der Winkel ,
modulo 2. Da die Addition kommutativ ist, gilt dasselbe fr die Multiplikation der
Matrizen und damit auch fr die Gruppe der Drehungen.
(b) Wegen 8.3.15 (c) kann in der Form =
1
2
mit einer Drehung
1
und
einer Spiegelung
2
an der Geraden e
2
dargestellt werden. Es folgt bei Berck-
sichtigung von (a)
A
= A
1
A
2
= A
1
A
2
= A
1
_
cos sin
sin cos
__
1 0
0 1
_
= A
1
_
1 0
0 1
__
cos sin
sin cos
_
= A
1
A
2
A
T
= A
A
T
.
Wegen A
T
= A
1
(B, B) =
_
cos sin
sin cos
_
= A().
Bezglich jeder negativ orientierten Orthonormalbasis B
(B
, B
) = (A())
T
= A().
Beweis: Es sei B = {e
1
, e
2
} eine positiv orientierte Orthonormalbasis von V. Die
hinsichtlich B = {e
1
, e
2
} zugeordnete Matrix A
= {e
1
, e
2
} eine zweite Orthonormalbasis von V. Sei die
orthogonale Abbildung des Basiswechsels von B nach B
. Dann gilt e
1
= e
1
,
e
2
= e
2
und x y = x y fr alle x, y V nach Denition 7.5.1.
Es sei jetzt B
= (e
1
) e
1
= (e
1
) e
1
= (e
1
) e
1
= (e
1
) e
1
= cos ,
sin
= (e
2
) e
1
= (e
2
) e
1
= (e
2
) e
1
= (e
2
) e
1
= sin
8.3 Kongruenzen und Drehungen 211
und damit A
(B
, B
erhlt man
nun
cos
= (e
1
) e
1
= (e
1
) e
1
= (
1
e
1
) e
1
=
e
1
e
1
= e
1
e
1
= e
1
e
1
= cos ,
sin
= (e
2
) e
1
= (e
2
) e
1
= (
1
e
2
) e
1
=
e
2
e
1
= e
2
e
1
= sin .
Also gilt A
(B
, B
) = (A())
T
= A().
8.3.22 Denition. Der durch eine Drehung der orientierten euklidischen Ebene
nach Satz 8.3.21 eindeutig bestimmte Winkel heit der orientierte Drehwinkel
von .
8.3.23 Satz. Ein uneigentlich orthogonaler Automorphismus eines zweidimen-
sionalen euklidischen Raumes ist eine Spiegelung an einer eindeutig bestimmten
Geraden.
Beweis: Nach Satz 8.3.15 (b) besitzt die Eigenwerte +1 und 1. Also ist eine
Spiegelung an demeindimensionalen EigenraumzumEigenwert +1. Dieser ist durch
eindeutig bestimmt.
8.3.24 Bemerkung. Eine Drehung eines dreidimensionalen euklidischen Rau-
mes wird nach Satz 8.3.10 hinsichtlich einer geeigneten Orthonormalbasis B =
{e
1
, e
2
, e
3
} durch eine Matrix der Form
A = A
(B, B) =
_
_
1 0 0
0 cos sin
0 sin cos
_
_
beschrieben. Man nennt den Drehwinkel von . Wenn nicht die Identitt ist, A
also nicht die Einheitsmatrix E
3
ist, besitzt der Eigenwert +1 von die Vielfachheit
1, und der zugehrige EigenraumD = e
1
Rist nach Satz 6.1.16 eindimensional. Man
nennt D die Drehachse von . Der zu D orthogonale, zweidimensionale Unterraum
D
= {e
2
, e
3
} heit die Drehebene von .
Geometrisch ist eine Drehung = id durch ihre Drehachse D und ihren Dreh-
winkel gekennzeichnet. Diese Bestimmungsstcke knnen in der oben angegebe-
nen Matrix A
2
(1, 0, 1),
der somit die Drehachse D erzeugt. D soll nun zustzlich dadurch orientiert werden,
da e als Basisvektor die positive Orientierung von D reprsentiert. Ein Orthonor-
malsystemder Drehebene E besteht z. B. aus den zu e orthogonalen Spaltenvektoren
8.3 Kongruenzen und Drehungen 213
e
2
=
1
2
(1, 0, 1) und e
3
= (0, 1, 0), so da {e, e
2
, e
3
} eine Basis des R
3
ist. Sie
ist positiv orientiert, weil
2
0
1
2
1
2
0
1
2
0 1 0
= 1 > 0
gilt. Durch die Basis {e
2
, e
3
} der Drehebene E kann in dieser jetzt auch die positive
Orientierung festgelegt werden. Unterwirft man nun z. B. denVektor e
2
der Drehung,
so erhlt man als Bildvektor
Ae
2
=
1
3
2
_
_
2 2 1
2 1 2
1 2 2
_
_
_
_
1
0
1
_
_
=
1
3
2
_
_
1
4
1
_
_
wieder einen Einheitsvektor in der Drehebene E. Mit ihm ergibt sich jetzt
cos = (Ae
2
) e
2
=
1
3
,
sin = (Ae
2
) e
3
=
2
2
3
.
Durch die Orientierungsfestsetzungen ist nun das Vorzeichen von sin und damit
von bestimmt.
Bei manchen Anwendungen ist es notwendig, eine gegebene Drehung aus meh-
reren Drehungen mit vorgegebenen Drehachsen zusammenzusetzen. Fr dreidimen-
sionale euklidische Vektorrume liefert der folgende Satz dazu ein Konstruktions-
verfahren.
8.3.28 Satz. Es sei B = {e
1
, e
2
, e
3
} eine positiv orientierte Orthonormalbasis des
dreidimensionalen euklidischen Vektorraums V. Dann existieren zu jeder Drehung
von V drei Drehungen
1
,
2
und
3
mit den orientierten Drehachsen e
3
, e
1
und
e
3
= e
1
c
1
+e
2
c
2
+e
3
c
3
, c
i
R, derart, da =
3
1
gilt, wobei
e
1
=
_
_
e
1
falls e
1
, e
2
= e
1
, e
2
,
e
2
falls e
1
, e
2
e
1
, e
2
= e
2
R,
e
1
c
2
_
c
2
1
+c
2
2
+e
2
c
1
_
c
2
1
+c
2
2
sonst.
Ist A = A
_
_
1 0 0
0 cos
2
sin
2
0 sin
2
cos
2
_
_
_
_
cos
1
sin
1
0
sin
1
cos
1
0
0 0 1
_
_
.
Die drei Drehwinkel
1
,
2
,
3
heien die Eulerschen Winkel von bezglich der
Basis B.
Beweis: Zunchst wird eine Drehung
1
mit Drehachse e
3
konstruiert. Wenn die
Ebenen e
1
, e
2
und e
1
, e
2
zusammenfallen (d. h. wenn e
3
= e
3
gilt), setze
man e
1
= e
1
. Im anderen Fall schneiden sich diese beiden Ebenen in einer Gera-
den G. Gilt G = e
2
, so setze man e
1
= e
2
. Sonst aber gibt es genau einen
Einheitsvektor e
1
mit G = e
1
derart, da {e
1
, e
2
, e
3
} eine positiv orientierte Ba-
sis ist. Hat e
3
die eindeutige Darstellung e
3
= e
1
c
1
+ e
2
c
2
+ e
3
c
3
, so ist der
normierte Vektor e
1
= e
1
c
2
_
c
2
1
+c
2
2
+ e
2
c
1
_
c
2
1
+c
2
2
. Nun ist aber eine dreidimensiona-
le Drehung eindeutig bestimmt, wenn man zwei orthonormierten Vektoren wieder
zwei orthonormierte Vektoren als Bilder vorschreibt, weil dann das Bild des dritten
orthonormierten Vektors bereits mit festgelegt wird. Durch
1
e
1
= e
1
,
1
e
3
= e
3
,
2
e
1
= e
1
,
2
e
3
= e
3
,
3
e
1
= e
1
,
3
(e
3
) = e
3
werden daher eindeutig drei Drehungen
1
,
2
,
3
deniert. Und da
3
1
die Vek-
toren e
1
und e
3
auf die Vektoren e
1
und e
3
abbildet, mu =
3
1
gelten. Sei
e
i
=
1
e
i
und e
i
=
2
e
i
fr i = 1, 2, 3. Mit B
= {e
1
, e
2
, e
3
} und B
= {e
1
, e
2
, e
3
}
folgt nach Satz 3.3.7, da A
(B, B) = A
3
(B
, B)A
2
(B
, B
)A
1
(B, B
). Zu den
Drehungen
1
,
2
,
3
gehren entsprechende Drehwinkel
1
,
2
,
3
. Man erhlt
1
e
1
= e
1
= e
1
cos
1
+e
2
(sin
1
),
1
e
2
= e
2
= e
1
sin
1
+e
2
cos
1
,
1
e
3
= e
3
= e
3
,
2
e
1
= e
1
= e
1
,
2
e
2
= e
2
= e
2
cos
2
+e
3
(sin
2
),
2
e
3
= e
3
= e
2
sin
2
+e
3
cos
2
,
3
e
1
= e
1
= e
1
cos
3
+e
2
(sin
3
),
3
e
2
= e
2
= e
1
sin
3
+e
2
cos
3
,
3
e
3
= e
3
= e
3
8.4 Projektive Rume 215
und hieraus die behauptete Faktorisierung von A
1
e
1
,
cos
2
= e
3
e
3
,
cos
3
= e
1
e
1
,
sin
1
= e
1
e
2
,
sin
2
= e
3
e
2
= e
3
((e
1
e
2
)e
1
(e
1
e
1
)e
2
),
sin
3
= e
2
e
1
.
Also sind die drei Drehwinkel
1
,
2
,
3
durch und B eindeutig bestimmt.
8.4 Projektive Rume
Die Stze der afnen Geometrie enthalten vielfach strende Fallunterscheidungen.
So gilt z. B. in einer afnen Ebene nicht allgemein, da sich zwei Geraden in einem
Punkt schneiden; eine Ausnahme bilden die parallelen Geraden. Man kann nun die
afnen Rume zu Rumen erweitern, die man projektive Rume nennt und in denen
derartige Ausnahmeflle nicht mehr auftreten.
Es sei V ein endlich-dimensionaler Vektorraum ber dem kommutativen Krper
F. Das Hauptinteresse gilt jetzt jedoch nicht mehr den Vektoren, sondern den 1-
dimensionalen Unterrumen von V, die als Punkte eines neuen Raumes aufgefat
werden sollen.
8.4.1 Denition. Ein projektiver Raum P ber F ist die Menge aller eindimensio-
nalen Unterrume eines F-Vektorraumes V = V
P
. Eine Teilmenge U von P heit
ein (projektiver) Unterraumvon P, wenn sie genau aus den 1-dimensionalen Unter-
rumen eines Unterraumes V
U
von V
P
besteht, wenn sie also selbst ein projektiver
Raum ist.
Die projektive Dimension des projektiven Raumes P ist deniert durch:
p- dimP = dimV
P
1.
8.4.2 Denition. Fr einen Punkt p P gilt speziell p = a mit einem Vektor
a = o aus V
P
. Auch die leere Menge ist ein Unterraum von P, wobei V
= {o}
der Nullraum ist, der ja keine 1-dimensionalen Unterrume enthlt. Fr ihn folgt
p-dim = 0 1 = 1.
Unterrume der projektiven Dimensionen 0, 1, 2 werden als Punkte, Geraden
bzw. Ebenen bezeichnet.
Ist p-dimP = n, so wird ein Unterraum H mit p-dimH = n 1 Hyperebene
von P genannt.
216 8 Anwendungen in der Geometrie
Man beachte, da die Hyperebenen in einer projektiven Ebene P genau die
Geraden von P sind.
8.4.3 Satz. (a) Es sei S ein System aus Unterrumen von P. Dann ist auch D =
{U | U S} ein Unterraum von P und V
D
= {V
U
| U S}.
(b) Es sei S ein System aus Unterrumen von P. Dann ist der Verbindungsraum
V = {U | U S}, nmlich der kleinste Unterraum V mit U V fr alle
U S, wieder ein Unterraum von P mit V
V
=
US
V
U
.
(c) Fr Unterrume M, N von P gilt
p- dimM + p- dimN = p- dim(M N) + p- dim(M N).
(d) Fr eine Hyperebene H von Pund einen nicht in H enthaltenen Unterraum U
von P gilt: p-dim(U H) = p-dimU 1.
(e) In einer projektiven Ebene besitzen je zwei verschiedene Geraden genau einen
Schnittpunkt.
Beweis: (a), (b), und (c) folgen aus den entsprechenden Stzen 2.1.8, 2.1.10 und
2.2.16 fr Vektorrume, wobei in (c) beim bergang zur projektiven Dimension auf
beiden Seiten zweimal eine Eins abzuziehen ist. (d) und (e) folgen aus (c), wobei in
(d) noch U H = P zu beachten ist.
8.4.4 Denition. Seien p
0
, . . . , p
k
Punkte des projektiven Raumes P, dann wird
ihr Verbindungsraum mit p
0
p
1
p
k
bezeichnet.
8.4.5 Hilfssatz. Sei P = ein n-dimensionaler projektiver Raumund Heine Hyper-
ebene von P mit dem zugehrigen Vektorraum V
H
. Dann ist A = P\ H ein afner
Raum mit dem Vektorraum V
A
= V
H
und Dimension dimA = dimV
H
= n =
p-dimP.
Beweis: Sei V
P
der F-Vektorraum von P. Dann ist dim
F
V
P
= n + 1. Da H eine
Hyperebene von P ist, ist V
H
ein n-dimensionaler Unterraum von V
P
. Nach Satz
2.3.18 gibt es daher einen 1-dimensionalen F-Unterrauma = a = aF von V
P
mit
V
P
= V
H
aF. Daher hat jeder Vektor p = V
P
\ V
H
die eindeutige Darstellung
p = x
p
+af
p
mit x
p
V
H
, f
p
F, f
p
= 0.
Jedem Punkt p = p P \ H wird durch p x
p
V
H
bijektiv ein Vektor
x
p
V
H
zugeordnet. Fr jedes Punktepaar p, q P\ H sei
pq = x
q
x
p
V
H
.
Da V
H
ein Vektorraum ist, ist es nun einfach, die Bedingungen (a) und (b) von
Denition 8.1.1 zu verizieren. Also ist A = P\Hein afner Raummit dimA = n.
8.4 Projektive Rume 217
8.4.6 Denition. Sei P = ein n-dimensionaler projektiver Raum und H eine
Hyperebene von P. Dann heit der in Hilfssatz 8.4.5 konstruierte RaumA = P\ H
der zu H gehrende afne Raum von P. Die Punkte von A werden dann eigentliche
Punkte, die von H uneigentliche Punkte und H uneigentliche Hyperebene von P
genannt.
8.4.7 Satz. Sei A der zur Hyperebene H gehrende afne Raum des projektiven
Raumes P = . Dann gelten folgende Aussagen:
(a) Fr jeden projektiven Unterraum U ist U
0
= UA ein afner Unterraum von
A.
(b) Zu jedem afnen Unterraum U
0
= von A gibt es genau einen projektiven
Unterraum U von P mit U
0
= U A und V
U
0
= V
U
V
H
= V
UH
.
(c) Ist U
0
= , so gilt dimU
0
= p-dimU.
(d) Ist U
0
= eine Hyperebene, V
0
= ein nicht in U
0
enthaltener echter
afner Unterraum von A, und sind U und Vdie nach (b) eindeutig bestimmten
projektiven Unterrume von Pmit U
0
= UA und V
0
= VA, dann ist U
0
genau dann zu V
0
parallel, wenn U V H.
Beweis: (a) Ist U H, dann ist U
0
= U A = und somit ein afner Unterraum
von A. Ist U nicht in H enthalten, dann gibt es ein p U mit p H. Also ist
p U A = U
0
, und
{
pq | q U
0
} = V
U
V
A
= V
UA
= V
U
0
ist der zu U
0
= gehrige Vektorraum.
(b) Sei U
0
= ein afner Unterraum von A mit Vektorunterraum V
U
0
von
V
A
= V
H
. Sei p ein fest gewhlter Punkt aus U
0
. Sei p = p der von p erzeugte
1-dimensionale Unterraum von V
P
. Dann ist p V
A
= V
H
, woraus
V
U
0
< V
U
0
+p = U V
P
()
fr einen F-Unterraum U von V
P
folgt. Sei U die Menge aller 1-dimensionalen
F-Unterrume von U. Dann ist U ein projektiver Unterraum von Pmit U
0
= UA.
Weiter gilt V
U
0
= V
U
V
H
= V
UH
. Umgekehrt folgt aus U
0
= U
A sofort
V
U
= (V
U
V
H
) +p = V
U
0
+p.
Also ist U = U
.
(c) Ist U
0
= , so folgt aus (), da dimV
U
0
= dimU 1 = p-dimU.
(d) Aus U
0
|| V
0
und V
0
U
0
folgt U
0
V
0
= . Nach Satz 8.4.7 gibt es
eindeutig bestimmte projektive Unterrume U und V von P mit U
0
= U A und
V
0
= V A. Wegen A = P\ H folgt U V H.
218 8 Anwendungen in der Geometrie
Sei umgekehrt U V H. Dann ist U
0
V
0
= . Da V
0
= und U
0
eine
Hyperebene des endlich-dimensionalen afnen Raumes A ist, sind V
0
und U
0
nach
Satz 8.1.15 parallel oder es gilt
1 = dim(U
0
V
0
) = dimV
0
1.
Hieraus folgt dimV
0
= 0 und so V
V
0
= {o} V
U
0
. Also sind U
0
und V
0
parallel.
8.4.8 Bemerkung. Da aus projektiven Unterrumen durch Fortlassen der uneigent-
lichen Punkte afne Unterrume entstehen, lassen sich aus projektiven Stzen af-
ne Stze herleiten. Dabei knnen allerdings Fallunterscheidungen auftreten. Nach
Satz 8.4.3 (e) besitzen in der projektiven Ebene je zwei verschiedene Geraden G, G
o
ist jetzt jedoch zu unterscheiden, ob
p ein eigentlicher oder ein uneigentlicher Punkt ist. Im ersten Fall besitzen auch G
o
und G
o
genau den einen Schnittpunkt p. Im zweiten Fall haben G
o
und G
o
jedoch
keinen Schnittpunkt, sondern sind parallel.
8.4.9 Denition. Die k + 1 Punkte p
o
, . . . , p
k
des projektiven Raumes P heien
unabhngig, wenn p-dim(p
o
p
k
) = k gilt.
8.4.10 Satz. Fr die Punkte p
o
, . . . , p
k
P als 1-dimensionale Unterrume von
V
P
gelte p
j
= p
j
fr j = 0, . . . , k. Dann sind p
o
, . . . , p
k
genau dann unabhn-
gige Punkte von P, wenn p
o
, . . . , p
k
linear unabhngige Vektoren sind.
Beweis: Wegen
p
o
p
k
= p
o
+ +p
k
ist p-dim(p
o
p
k
) = k gleichwertig mit dim(p
o
+ + p
k
) = k + 1,
also mit der linearen Unabhngigkeit von p
o
, . . . , p
k
.
8.4.11 Hilfssatz. Seien q
0
, . . . , q
n
unabhngige Punkte des n-dimensionalen pro-
jektiven Raumes P. Sei e ein weiterer Punkt von P, der von je n der Punkte q
i
,
0 i n, unabhngig ist. Dann gilt:
(a) Die 1-dimensionalen Unterrume q
i
und e von V
P
enthalten Vektoren q
i
q
i
und e e derart, da e = q
0
+ +q
n
.
(b) Sind q
i
q
i
und e
f = q
0
+ +q
n
fr ein 0 = f F
gilt, dann existiert ein eindeutig bestimmter Skalar h = 0 derart, da q
i
=
q
i
h fr alle i = 0, 1, . . . n gilt.
8.4 Projektive Rume 219
Beweis: Sei q
i
= p
i
mit o = p
i
V
P
fr 0 i n. Sei e = e, e = o.
Nach Satz 8.4.10 ist A = {p
i
| 0 i n} eine Basis des Vektorraums V
P
. Also ist
e = p
0
c
0
+ +p
n
c
n
fr geeignete c
i
F. Da e von je n der Punkte p
i
unabhngig
ist, sind alle c
i
= 0. Setze q
i
= p
i
c
i
fr i = 1, . . . , n, dann gilt (a).
(b) NachVoraussetzung gibt es q
i
, q
i
q
i
, e, e
e derart, da e = q
0
+ +q
n
und e
f = q
0
+ + q
n
fr ein 0 = f F ist. Da q
i
und e 1-dimensionale F-
Unterrume von V
P
sind, existiert zu jedem0 i nein 0 = c
i
F mit q
i
= q
i
c
i
und ein 0 = g F mit e
= q
0
f
1
+ +q
n
f
1
= q
0
(c
0
f
1
) + +q
n
(c
n
f
1
)
= e g = q
0
g + +q
n
g.
Da B = {q
i
| 0 i n} eine Basis von V
P
ist, folgt c
i
f
1
= g fr alle
i = 0, . . . , n. Also gilt (b) mit h = fg.
8.4.12 Denition. Ein geordnetes (n + 2)-Tupel K = (q
o
, . . . , q
n
, e) von Punkten
des n-dimensionalen projektiven Raumes P heit projektives Koordinatensystem
von P, wenn je n + 1 unter den Punkten aus K unabhngig sind. Es werden dann
q
o
, . . . , q
n
die Grundpunkte und e der Einheitspunkt von K genannt.
Nach Hilfssatz 8.4.11 enthalten die 1-dimensionalen Unterrume q
i
, 0 i n
und e des Vektorraums V
P
von Null verschiedene Vektoren q
i
q
i
und e e mit
e = q
0
+ + q
n
derart, da fr jeden Punkt x = x P der Vektor x = o die
eindeutige Darstellung
x = q
0
x
0
+ +q
n
x
n
mit x
i
F
hat, wobei die Koordinaten x
0
, . . . , x
n
von x bis auf einen gemeinsamen Faktor
d = 0 aus F durch x eindeutig bestimmt sind. Die Krperelemente x
0
, . . . , x
n
heien die homogenen Koordinaten des Punktes x P bezglich des projektiven
Koordinatensystems K.
Der homogene Koordinatenvektor (x
0
, . . . , x
n
) F
n+1
des Punktes x P ist
durch x bis auf einen skalaren Faktor d = 0 bestimmt.
Zum Beispiel sind in der reellen projektiven Ebene (1, 3, 2) und
(2, 6, 4) Koordinaten desselben Punkts. Allgemein sind die (n + 1)-Tupel
(1, 0, . . . , 0), . . . , (0, . . . , 0, 1) die homogenen Koordinaten der Grundpunkte q
i
und (1, 1, . . . , 1) die Koordinaten des Einheitspunktes des n-dimensionalen projek-
tiven Raums Pbezglich des projektiven Koordinatensystems K = (q
0
, . . . , q
n
, e).
Als einzige Ausnahme tritt das (n + 1)-Tupel (0, 0, . . . , 0) nicht als homogener
Koordinatenvektor auf.
220 8 Anwendungen in der Geometrie
8.4.13 Satz. Sei H eine Hyperebene des n-dimensionalen projektiven Raumes P.
Sei K = (p
0
, . . . p
n
) ein afnes Koordinatensystem des afnen Raumes A = P\ H.
Durch
p
0
e =
p
0
p
1
+ +
p
0
p
n
ist der Punkt e A eindeutig bestimmt. Sei q
0
= p
0
und q
j
= (p
0
p
j
) H fr
1 j n. Dann sind die n + 2 Punkte von K
= (q
0
, . . . , q
n
, e) ein projektives
Koordinatensystem von P mit Einheitspunkt e derart, da die beiden folgenden
Aussagen fr jeden Punkt x A gelten:
(a) Sind (x
1
, . . . , x
n
) die afnen Koordinaten von x bezglich K, so sind
(1, x
1
, . . . , x
n
) die homogenen Koordinaten von x bezglich K
.
(b) Sind (x
0
, x
1
, . . . , x
n
) die homogenen Koordinaten von x bezglich K
, so ist
x
0
= 0, und
_
x
1
x
0
, . . . ,
x
n
x
0
_
sind die afnen Koordinaten von x bezglich K.
Beweis: Nach Satz 8.4.3 (d) ist p-dim[(p
0
p
j
) H] = 0 fr alle 1 j n, weil
p
0
p
j
nicht in der Hyperebene H enthalten ist. Also ist jedes q
j
= (p
0
p
j
)
H =
p
0
p
j
ein Punkt von H. Da p
0
P \ H, gibt es einen Vektor a
0
V
P
mit
q
0
= p
0
= a
0
und a
0
= o. Wegen P = H q
0
und der linearen Unabhngigkeit
der n Vektoren a
j
=
p
o
p
j
V
A
= V
H
V
P
sind nach Satz 8.4.10 die n + 1
Punkte q
0
, q
1
, . . . , q
n
von P unabhngig. Da e =
p
0
e = a
1
+ + a
n
nach
Konstruktion des Punktes e ist, ist K
= (q
0
, . . . , q
n
, e) nach Denition 8.4.12 ein
projektives Koordinatensystem von P mit Einheitspunkt e.
(a) Sind (x
1
, . . . , x
n
) die afnen Koordinaten von x A bezglich K, so ist
x = a
0
1 +
p
0
x = a
0
+a
1
x
1
+ +a
n
x
n
ein Vektor mit x = x als Punkte von P. Daher sind (1, x
1
, . . . , x
n
) die homogenen
Koordinaten von x bezglich K
.
(b) Seien umgekehrt (x
0
, x
1
, . . . , x
n
) die homogenen Koordinaten von x bezg-
lich K
0
= 0, und
(1,
x
1
x
0
, . . . ,
x
n
x
0
) sind auch homogene Koordinaten von x. Wegen
p
0
x = a
0
1 +a
1
1
x
0
+ +a
n
n
x
0
a
0
=
p
0
p
1
x
1
x
0
+ +
p
0
p
n
n
x
0
sind dann
_
x
1
x
0
, . . . ,
x
n
x
0
_
die afnen Koordinaten von x A bezglich K.
8.4.14 Denition. Im projektiven Raum P seien x, y, z, u kollineare Punkte, und
x, y, z seien paarweise verschieden. Dann ist G = x y z u eine projektive
Gerade, und K
y z
x z
=
x u
y u
:
x z
y z
=
TV(x, y, u)
TV(x, y, z)
.
Das Doppelverhltnis erweist sich also als Quotient von zwei Teilverhltnissen, wo-
durch die Namengebung motiviert ist.
Auf der reellen afnen Geraden ist TV(x, y, z) < 0 gleichwertig damit, da z
zwischen x und y liegt. Auf der reellen projektiven Geraden G verliert der Begriff
zwischen seinen Sinn. Denn G kann bijektiv (und stetig) auf eine Kreislinie ab-
gebildet werden: Hinsichtlich eines Koordinatensystems K von G seien (x
0
, x
1
) die
homogenen Koordinaten des Punktes x G. Durch (x) = 2 arctg
_
x
1
x
0
_
R wird
dann x umkehrbar eindeutig ein Winkel (x) mit < (x) zugeordnet.
Jedem solchen Winkel (x) entspricht genau ein Punkt x
1
und p
2
verbinden, je einen der beiden Punkte p
3
und p
4
enthalten.
8.4.17 Satz. Zwei Punktepaare (p
1
, p
2
) und (p
3
, p
4
) der reellen projektiven Gera-
den G trennen sich genau dann, wenn DV(p
1
, p
2
, p
3
, p
4
) < 0 gilt.
Beweis: Mit K = (p
1
, p
2
, p
3
) als Koordinatensystem von G entsprechen diesen
Punkten die Winkel
1
= 0,
2
= ,
3
=
2
. Genau dann trennen sich (p
1
, p
2
) und
(p
3
, p
4
), wenn der p
4
zugeordnete Winkel
4
die Bedingung <
4
< 0 erfllt,
wenn also p
4
die Koordinaten (1, c) mit c < 0 besitzt. Wegen DV(p
1
, p
2
, p
3
, p
4
) =
c < 0 gilt dann die Behauptung.
222 8 Anwendungen in der Geometrie
8.4.18 Denition. Zwei Punktepaare (p
1
, p
2
) und (p
3
, p
4
) der reellen projektiven
Geraden G trennen sich harmonisch, wenn DV(p
1
, p
2
, p
3
, p
4
) = 1.
8.5 Projektivitten
In diesemAbschnitt ist Pstets ein projektiver Raumber demKrper F mit endlich-
dimensionalem Vektorraum V
P
= {o}.
8.5.1 Denition. Eine Abbildung von Pauf sich heit Projektivitt, wenn sie von
einemAutomorphismus von V
P
induziert wird, wenn also fr jeden Punkt p = p
von P stets (p) = (p) gilt.
8.5.2 Hilfssatz. Zwei Automorphismen und
des Vektorraums V
P
induzieren
genau dann dieselbe Projektivitt von P, wenn =
c fr ein 0 = c F gilt.
Beweis: Nach Denition 8.5.1 ergibt sich = sofort aus
= c, wobei 0 =
c F.
Umgekehrt gelte = . Fr jeden Punkt p = p P gilt dann (p) =
= (q
0
, . . . , q
n
, e
) zwei projektive
Koordinatensysteme von P. Dann gibt es genau eine Projektivitt von P mit
q
0
= q
0
, . . . , q
n
= q
n
und e = e
.
Beweis: Es sei q
0
= a
0
, . . . , q
n
= a
n
und e = a
0
+ + a
n
. Nach Deni-
tion 8.4.12 ist dann {a
0
, . . . , a
n
} eine Basis von V
P
. Entsprechend sei {a
0
, . . . , a
n
}
als Basis zu K
bestimmt. Dann gibt es nach Satz 3.2.4 genau eine lineare Abbildung
mit a
0
= a
0
, . . . , a
n
= a
n
, die wegen Satz 3.2.14 sogar ein Automorphismus
ist. Es folgt (a
0
+ +a
n
) = a
0
+ +a
n
. Fr die zu gehrende Projektivitt
gilt daher q
0
= q
0
, . . . , q
n
= q
n
und e = e
= (x
0
, . . . , x
n
) die homogenen Koordinatenvektoren eines beliebigen Punktes
x P und seines Bildpunkts x bezglich K.
Dann existiert eine bis auf einen Faktor c = 0 eindeutig bestimmte, invertierbare
(n +1) (n +1)-Matrix A = (a
ij
) mit a
ij
F derart, da
x
= Ax fr alle x P gilt. ()
Umgekehrt bestimmt auch jede invertierbare (n +1) (n +1)-Matrix Aeindeutig
eine Projektivitt von P.
Beweis: Wie im Beweis von Satz 8.5.4 sei q
0
= a
0
, . . . , q
n
= a
n
und e = a
0
+
+a
n
. Bezglich der Basis B = {a
0
, . . . , a
n
} von V
P
hat nach Denition 3.3.1
die invertierbare (n + 1) (n + 1)-Matrix A
(B, B) = A = (a
ij
). Da allerdings
die Basisvektoren nur bis auf einen gemeinsamen Faktor c = 0 eindeutig bestimmt
224 8 Anwendungen in der Geometrie
sind, gilt dasselbe auch fr die Matrix A. Fr x = x ist x =
n
j=0
a
j
x
j
. Wegen
x = x ergibt sich
n
i=0
a
i
x
i
= x =
n
j=0
( a
j
) x
j
=
n
i=0
n
j=0
a
i
a
ij
x
j
,
woraus durch Koefzientenvergleich
x
i
=
n
j=0
a
ij
x
j
fr i = 0, . . . , n.
folgt.
Umgekehrt bestimmt eine invertierbare Matrix A hinsichtlich der Basis B =
{a
0
. . . , a
n
} eindeutig einen Automorphismus von V
P
und damit auch eine Pro-
jektivitt .
8.5.6 Satz. Sei A der zur uneigentlichen Hyperebene H gehrende afne Raum des
n-dimensionalen projektiven Raumes P = . Sei K = (p
0
, . . . , p
n
) ein Koordi-
natensystem von A, und sei K
= (q
0
, . . . , q
n
, e) das nach Satz 8.4.13 durch K
bestimmte projektive Koordinatensystem von P. Dann gelten folgende Aussagen:
(a) Jede Afnitt
0
von A kann auf genau eine Weise zu einer Projektivitt von
P fortgesetzt werden. Umgekehrt ist eine Projektivitt von P genau dann
Fortsetzung einer Afnitt
0
von A, wenn H = H gilt.
(b) Der Afnitt
0
von A entspreche hinsichtlich K nach Satz 8.2.7 die Koordi-
natendarstellung
x
i
= t
i
+
n
j=1
a
ij
x
j
fr i = 1, . . . , n ()
mit der n n-Matrix A
0
= (a
ij
). Der Fortsetzung von
0
zu einer Projek-
tivitt von P entspricht dann hinsichtlich K
die Matrix
A =
_
_
_
_
_
1 0 . . . 0
t
1
.
.
. A
0
t
n
_
_
_
_
_
.
Beweis: Beim bergang von afnen Koordinaten (x
1
, . . . , x
n
) zu homogenen Ko-
ordinaten (x
0
, . . . , x
n
) gilt nach Satz 8.4.13 zunchst x
j
=
x
j
x
0
fr j = 1, . . . , n.
8.6 Projektive Quadriken 225
Aus () folgt x
i
= x
0
t
i
+
n
j=1
a
ij
x
j
fr i = 1, . . . , n. Auerdem gilt x
0
= 1,
woraus sich die Behauptung in (b) ber die Matrix Aergibt.
Bis auf einen Faktor c = 0 ist A durch A
0
, also auch durch
0
, eindeutig
bestimmt und beschreibt somit eine eindeutig bestimmte projektive Fortsetzung
von
0
. Dies ist der erste Teil von (a). Umgekehrt sei eine Projektivitt von P.
Da eine Afnitt von A die Menge der eigentlichen Punkte von Pauf sich abbildet,
kann nur Fortsetzung einer Afnitt
0
sein, wenn H = H gilt. Dann aber mu
in der bezglich K
= {x V
P
| (x) = 0}.
Aus x N
und x
= xc folgt auch
(x
) = (x
, x
auch als
Teilmenge von P interpretieren.
8.6.2 Denition. Es sei eine quadratische Formvon V
P
. Dann heit die Teilmenge
Q
= {x = x P | x N
}
von P eine projektive Quadrik von P.
226 8 Anwendungen in der Geometrie
8.6.3 Satz. Sei K = (q
0
, . . . , q
n
, e) ein projektives Koordinatensystem von P. Sei
x = (x
0
, . . . , x
n
) der homogene Koordinatenvektor des Punktes x Pbezglich K.
Dann deniert jede reelle (n +1) (n +1)-Matrix A = (a
ij
) durch
x
T
Ax = 0 ()
eine projektive Quadrik Q
von P.
Umgekehrt gehrt zujeder Quadrik Q
= {p P | (p) = 0} = {x P | x
T
Bx = 0}.
Beweis: Durch (x, y) =
n
i,j=0
a
ij
x
i
y
j
wird eine Bilinearformdeniert, die nach
Denition 8.6.1 eine quadratische Form bestimmt. Es ist dann () die Bestim-
mungsgleichung von N
.
Umgekehrt sei die durch (x) = (x, x) bestimmte quadratische Form. Mit
einer zu K gehrenden Basis {a
0
, . . . , a
n
} von V
P
sei dann a
ij
= (a
i
, a
j
) R fr
0 i, j n +1. Fr x = x P folgt dann
(x) = (x, x) =
n
i,j=0
(a
i
, a
j
)x
i
x
j
=
n
i,j=0
a
ij
x
i
x
j
.
Also wird die Quadrik Q
a
ij
x
i
x
j
= 0 folgt aber auch
a
ji
x
i
x
j
= 0. Sei b
ij
=
1
2
(a
ij
+a
ji
). Dann wird die
Quadrik Q
auch durch
b
ij
x
i
x
j
= 0 mit der symmetrischen Matrix B = (b
ij
)
dargestellt.
8.6.4 Denition. Sei K = (q
0
, . . . , q
n
, e) ein Koordinatensystem des projektiven
Raums P. Dann gehrt nach Satz 8.6.3 zur projektiven Quadrik Q eine reelle sym-
metrische (n +1) (n +1)-Matrix Aderart, da fr die homogenen Koordinaten-
vektoren x der Punkte x Q bezglich K die Bestimmungsgleichung x
T
Ax = 0
gilt. Die symmetrische Matrix A ist eine Koefzientenmatrix der projektiven Qua-
drik Q.
8.6.5 Beispiele.
Es sei hier stets n = 2. Durch x
2
0
+ 2x
2
1
x
2
2
= 0 wird eine Quadrik der reellen
projektiven Ebene beschrieben. Zeichnet man die durch x
0
= 0 bestimmte Gerade
als uneigentliche Gerade aus, so werden die eigentlichen Punkte durch x
0
= 1
charakterisiert. Also wird der eigentliche Teil der Quadrik in afnen Koordinaten
(x
1
, x
2
) durch 2x
2
1
x
2
2
= 1 beschrieben. Es handelt sich also um eine Hyperbel.
Diese Kennzeichnung hat aber nur in dieser speziellen afnen Ebene einen Sinn.
Dieselbe projektive Quadrik ergibt mit x
2
= 0 als uneigentlicher Geraden fr die
8.6 Projektive Quadriken 227
eigentlichen Punkte (x
2
= 1) jetzt x
2
0
+2x
2
1
= 1, also als afnen Teil eine Ellipse. Es
sind
Ellipse,
gibt.
Bezeichnung: Q Q
=
S
T
AS eine Koefzientenmatrix von Q
ist.
Beweis: Q Q
= S
T
AS
symmetrisch. Also ist A
.
8.6.9 Denition. Fr jede projektive Quadrik Q von P sei
u(Q) = max{p- dimU | U Q, U projektiver Unterraum von P}.
8.6.10 Satz. Aus Q Q
).
Beweis: Nach Voraussetzung gibt es eine Projektivitt von P mit Q = Q
.
Wegen 8.5.3 werden die Unterrume U
).
Beweis: Die denierenden Eigenschaften eines Doppelpunkts und auch die Dimen-
sionen von Unterrumen bleiben nach Satz 8.4.3 bei Projektivitten erhalten.
Die fr die projektive quivalenz notwendigen Bedingungen aus den Stzen
8.6.10 und 8.6.15 erweisen sich aber in dem folgenden Satz auch als hinreichend.
8.6.16 Satz. (a) Jede projektive Quadrik Qist bei gegebenemKoordinatensystem
K zu genau einer der folgenden Quadriken Q
t,r
mit 1 t r n und
t +1 r t projektiv quivalent, wobei t +1 der Trgheitsindex und r +1
der Rang einer Koefzientenmatrix Avon Q bezglich K ist. Dabei wird Q
t,r
durch die Gleichung
x
2
0
+ +x
2
t
x
2
t +1
x
2
r
= 0
beschrieben, und es gilt u(Q
t,r
) = n t 1, d(Q
t,r
) = n r 1.
Der Fall t = r = 1 besagt, da die Gleichung 0 = 0 lautet. Sie wird von
allen Punkten erfllt, d. h. Q
1,1
= P.
(b) Fr zwei projektive Quadriken Q, Q
ist Q Q
).
Beweis: Die Quadrik Q sei durch die symmetrische (n + 1) (n + 1)-Matrix A
bestimmt. Nach dem Trgheitsssatz 7.6.9 von Sylvester gibt es eine invertierbare
(n +1) (n +1)-Matrix Q derart, da
C = Q
T
AQ = diag(1, . . . , 1, 1, . . . , 1, 0, . . . , 0)
eine (n+1) (n+1)-Diagonalmatrix ist, in deren Hauptdiagonale zunchst (t +1)-
mal der Wert +1, dann (n r)-mal der Wert 1 und danach lauter Nullen stehen,
wobei (t + 1) der Trgheitsindex und r + 1 der Rang von A ist. Wegen Satz 8.6.8
230 8 Anwendungen in der Geometrie
ist die durch C bestimmte Quadrik Q
auch
durch die Matrix C bestimmt wird, kann man sich auf den Fall beschrnken, da
t +1 (r t ), wobei r +1 = rg(A) der Rang von Aist. Stets gilt 1 t r n.
Der Fall t = r = 1 tritt genau dann auf, wenn C und damit Adie Nullmatrix ist.
Die (n+1)-reihige Diagonalmatrix C hat den Rang r +1. Die allgemeine Lsung
des homogenen linearen Gleichungssystems Cx = 0 besitzt daher nach Folgerung
3.4.8 die Dimension (n+1)(r +1) = nr. Wegen Satz 8.6.13 bestimmt sie gerade
den Unterraum D(Q
t,r
) der Doppelpunkte von Q
t,r
, dessen projektive Dimension
somit n r 1 ist. Mit Hilfe von Satz 8.6.15 erhlt man daher d(Q) = d(Q
t,r
) =
n r 1.
Durch die Gleichungen x
0
= x
t +1
, . . . , x
rt 1
= x
r
, x
rt
= 0, . . . , x
t
= 0
wird ein Unterraum U von P mit dimU = n t 1 bestimmt. Da aus diesen
Gleichungen auch x
2
0
+ +x
2
t
x
2
t +1
x
2
r
= 0 folgt, gilt U Q
t,r
. Weiter
beschreiben die Gleichungen x
t +1
= 0, . . . , x
n
= 0 einen Unterraum V von P mit
dimV = t , der mit Q
t,r
keinen Punkt gemeinsam hat: Aus diesen Gleichungen und
aus x
2
0
+ + x
2
t
x
2
t +1
x
2
r
= 0 wrde nmlich auerdem x
0
= =
x
t
= 0 folgen. Die homogenen Koordinaten eines Punktes sind aber nicht alle gleich
Null.
Ist nun Wein in Q
t,r
enthaltener Unterraum, so gilt erst recht V W= und
p-dim(V W) n. Wegen Satz 8.4.3 folgt daher
p- dimW= p- dim(V W) +p- dim(V W) p- dimV n +(1) t.
Zusammen besagen diese Ergebnisse, da die maximale Dimension der in Q
t,r
ent-
haltenen Unterrume n t 1 ist. Wegen Satz 8.6.15 gilt daher u(Q) = u(Q
t,r
) =
n t 1.
Die Gren u(Q) und d(Q) bestimmen somit eindeutig die Indizes t und r. Daher
ist Q auch nur zu genau einer der Quadriken Q
t,r
projektiv quivalent. Auerdem
ergibt sich hieraus: Gilt fr zwei Hyperchen Q und Q
) als
auch d(Q) = d(Q
), so mssen Q und Q
zu derselben Quadrik Q
t,r
, also auch
zueinander projektiv quivalent sein.
Der Satz 8.6.16 ermglicht eine vollstndige bersicht ber die projektivenqui-
valenzklassen der Quadriken eines n-dimensionalen reellen projektiven Raumes P.
In den nachfolgenden Tabellen sind die quivalenzklassen fr die Dimensionen
n = 2 und n = 3 zusammengestellt. Alle Behauptungen sind einfache Folgerungen
von Satz 8.6.16.
8.6.17 Folgerung. Es gibt sechs verschiedene projektive quivalenzklassen von
Quadriken in der reellen projektiven Ebene.
8.7 Afne Quadriken 231
r t d u Gleichung (Normalform) Bezeichnung
1 1 2 2 0 = 0 projektive Ebene
0 0 1 1 x
2
0
= 0 Doppelgerade
1 0 0 1 x
2
0
x
2
1
= 0 Geradenpaar
1 1 0 0 x
2
0
+x
2
1
= 0 Doppelpunkt
2 1 1 0 x
2
0
+x
2
1
x
2
2
= 0 nicht-ausgeartete Kurve
2 2 1 1 x
2
0
+x
2
1
+x
2
2
= 0 leere Menge
8.6.18 Folgerung. Es gibt neun verschiedene projektive quivalenzklassen im reel-
len, dreidimensionalen projektiven Raum.
r t d u Gleichung (Normalform) Bezeichnung
1 1 3 3 0 = 0 3-dim. projektiver Raum
0 0 2 2 x
2
0
= 0 Doppelebene
1 0 1 2 x
2
0
x
2
1
= 0 Ebenenpaar
1 1 1 1 x
2
0
+x
2
1
= 0 Doppelgerade
2 1 0 1 x
2
0
+x
2
1
x
2
2
= 0 Kegel
2 2 0 0 x
2
0
+x
2
1
+x
2
2
= 0 Doppelpunkt
3 1 1 1 x
2
0
+x
2
1
x
2
2
x
2
3
= 0 nicht-ausgeartete Flche,
die Geraden enthlt
(Ringche)
3 2 1 0 x
2
0
+x
2
1
+x
2
2
x
2
3
= 0 nicht-ausgeartete Flche,
die keine Geraden enthlt
(Ovalche)
3 3 1 1 x
2
0
+x
2
1
+x
2
2
+x
2
3
= 0 leere Menge
8.7 Afne Quadriken
In diesem Abschnitt bezeichnet A immer einen n-dimensionalen reellen afnen
Raum der Dimension n 2. A wird durch eine Hyperebene H zu einem pro-
jektiven Raum P erweitert. Sei K = (p
0
, . . . , p
n
) ein afnes Koordinatensystem
von A. Nach Satz 8.4.13 bestimmt es eindeutig ein projektives Koordinatensystem
K
= (q
0
, . . . , q
n
, e) von P. Ein Punkt x P hat bezglich K
den homogenen
Koordinatenvektor x
= (x
0
, . . . , x
n
). Die Punkte x von H sind durch x
0
= 0 ge-
kennzeichnet. Bei eigentlichen Punkten kann x
0
= 1 gewhlt werden. Es ist dann
x = (x
1
, . . . , x
n
) der afne Koordinatenvektor von x bezglich K.
232 8 Anwendungen in der Geometrie
8.7.1 Denition. Eine Teilmenge Q
0
von A heit afne Quadrik, wenn es eine pro-
jektive Quadrik Q von P mit Q
0
= Q A gibt. Die Menge Q
u
= Q H wird der
uneigentliche Teil von Q genannt.
8.7.2 Bemerkung. Eine projektive Quadrik Q bestimmt eindeutig die afne Qua-
drik Q
0
= Q A. Umgekehrt kann aber Q
0
durchaus Durchschnitt von verschie-
denen projektiven Quadriken Q
i,j=0
a
ij
x
i
x
j
= 0
mit einer symmetrischen (n+1)(n+1)-Matrix A = (a
ij
) beschrieben wird, dann
lautet die Koordinatengleichung der afnen Quadrik Q
0
bezglich K wegen x
0
= 1
und der Symmetrie von A
n
i,j=1
a
ij
x
i
x
j
+2
n
i=1
a
i0
x
i
+a
00
= 0.
Die symmetrische n n-Matrix A
0
= (a
ij
) mit i, j = 1, 2, . . . , n heit Koefzien-
tenmatrix der afnen Quadrik Q
0
. Und umgekehrt ist auch jede solche Gleichung
mit einer symmetrischen Matrix A
0
= (a
ij
) die Gleichung einer afnen Quadrik.
8.7.4 Denition. Zwei afne Quadriken Q
0
, Q
0
heien afn-quivalent, wenn es
eine Afnitt
0
von A mit
0
Q
0
= Q
0
gibt.
Bezeichnung: Q
0
Q
0
Zwei projektive Quadriken Q, Q
= Q gibt.
Bezeichnung: Q Q
0
und den uneigentlichen Teilen Q
u
, Q
u
.
(a) Aus Q Q
folgt auch Q
0
Q
0
.
(b) Aus Q Q
und Q
u
Q
u
.
Beweis: Ergibt sich unmittelbar aus den Denitionen 8.5.7, 8.7.1 und 8.7.4.
8.7 Afne Quadriken 233
8.7.6 Bemerkung. Teil (b) von Satz 8.7.5 besagt, da die afne quivalenz eine
Verfeinerung der projektiven quivalenz ist. Die projektiven quivalenzklassen der
Quadriken werden daher durch die afnen Klassen unterteilt. Einen Einblick in diese
Unterteilung vermitteln die uneigentlichen Teile der Quadriken: Ist Q eine Quadrik
von P, so ist ihr uneigentlicher Teil Q
u
eine Quadrik von H.
8.7.7 Denition. Fr eine projektive Quadrik Q sei u
(Q) = u(Q
u
) und d
(Q) =
d(Q
u
).
8.7.8 Satz. Aus Q Q
), d(Q) = d(Q
), u
(Q) = u
(Q
) und
d
(Q) = d
(Q
).
Beweis: Ergibt sich unmittelbar aus den Stzen 8.6.10, 8.6.15 und 8.7.5.
8.7.9 Satz. Sei Pein n-dimensionaler reeller projektiver Raum. Die Quadriken Q
i
t,r
von P vom Typ i {1, 2, 3, 4} seien durch die Gleichungen
Q
i
t,r
= x
2
1
+ +x
2
t
x
2
t +1
x
2
r
=
(i)
deniert, wobei die rechte Seite
i
eines jeden Typs in der nachstehenden Tabelle
deniert ist.
Dann ist jede projektive Quadrik Q von P zu genau einer der Quadriken Q
i
t,r
afn-quivalent.
Die Invarianten u(Q), d(Q) und u
fr t und r
(1)
(1)
= 0 0 t r n n r n t n t 1
(2)
(2)
= x
2
0
0 t r n n r 1 n t n t 1
(3)
(3)
= x
2
0
0 t r n n (r t ) 1 n r 1 n (r t ) 1
(4)
(4)
= x
0
x
r+1
0 t r n r 2 n t 1 n t 1
Fr alle 4 Typen Q
i
t,r
, 1 i 4, gilt d
= d
(Q) = n r 1.
Ist t = 0, so treten auf der linken Seite der 4 Gleichungstypen keine positiven
Glieder auf.
Ist r = 0, so ist die linke Seite einer jeden dieser Gleichungen durch 0 zu ersetzen.
Beweis: Es sei
n
i,j=0
a
ij
x
i
x
j
= 0 die Gleichung der Quadrik Q von P. Indem
man x
0
= 0 setzt, erhlt man die Gleichung
n
i,j=1
a
ij
x
i
x
j
= 0 von Q
u
. Nach Satz
8.6.16 ist Q
u
zu einer Quadrik Q
t,r
mit der Gleichung
x
2
1
+ +x
2
t
x
2
t +1
x
2
r
= 0 mit 0 t r n und r t t
234 8 Anwendungen in der Geometrie
projektiv quivalent: Man beachte p-dimH = n 1, die Indizierung beginnt erst
bei 1, daher die Abweichungen gegenber Satz 8.6.16. Es gibt also eine Projektivitt
von H mit
Q
u
= Q
t,r
. Ist S
, so ist
_
_
_
_
1
S
_
_
_
_
die Matrix einer Fortsetzung von
i=1
b
i
x
0
x
i
mit 0 t r n, r t t
beschrieben. Weiter denieren die Gleichungen
x
0
= x
0
, x
i
= x
i
b
i
2
x
0
fr i = 1, . . . , t,
x
j
= x
j
+
b
j
2
x
0
fr j = t +1, . . . , r, x
k
= x
k
fr k = r +1, . . . , n
eine afne Projektivitt, die Q
Q abbildet. Die
Gleichung von Q
i
)
x
2
1
+ +x
2
t
x
2
t +1
x
2
r
=cx
2
0
+
n
i=r+1
b
i
x
0
x
i
mit 0 t r n, r t t.
Hier wird nun zwischen vier mglichen Fllen unterschieden, die den vier Typen der
Tabelle entsprechen.
Fall 1: c = 0 und b
i
= 0 fr i = r +1, . . . , n.
In diesem Fall ist Q
= Q
1
t,r
schon vom Typ i = 1. Die in der Tabelle angege-
benen Werte fr u und d ergeben sich aus Satz 8.6.16. Dabei ist jedoch zu beachten,
da die Gleichung mit x
1
statt mit x
0
beginnt. In den Formeln von Satz 8.6.16 mu
deshalb t durch t 1 und r durch r 1 ersetzt werden.
Die Gleichung des uneigentlichen Teils (Q
u
)
. Wegen
p-dimH = n 1 mu jedoch bei der Berechnung von u
und d
jetzt n durch n 1
ersetzt werden. Es gilt somit
u
(Q) = n t 1 und d
(Q) = n r 1.
Fall 2: c > 0 und b
i
= 0 fr i = r +1, . . . , n.
8.7 Afne Quadriken 235
Durch (x
0
)
cx
0
, (x
i
)
= x
i
fr i = 1, 2, . . . , n wird eine afne Projektivitt
von P deniert, die Q
(Q) = n t 1 und d
(Q) = n r 1.
Allerdings kann man im Fall r t = t ebenso u
(Q) = n (r t ) 1 schreiben.
Zur Berechnung von u(Q) und d(Q) mu die Gleichung () zunchst auf die
Form
x
2
1
+ +x
2
t
x
2
t +1
x
2
r
x
2
0
= 0 ()
gebracht werden. Im Fall r t < t ist hier immer noch die Bedingung erfllt, da
die Anzahl der positiven Glieder nicht kleiner als die der negativen Glieder ist. Nach
Satz 8.6.16 folgt dann
u(Q) = n t und d(Q) = n r 1,
wobei man allerdings t durch t 1 zu ersetzen hat.
Im Fall r t = t mu man die Gleichung () mit (1) multiplizieren und in
den Formeln von Satz 8.6.16 t durch r t ersetzen, whrend r nicht gendert zu
werden braucht. Man erhlt jetzt
u(Q) = n (r t ) 1 und d(Q) = n r 1.
Fall 3: c < 0 und b
i
= 0 fr i = r +1, . . . , n.
Wie im Fall 2 bildet hier die afne Projektivitt x
0
=
|c|x
0
, x
i
= x
i
fr
i = 1, . . . , n die Quadrik Q
und d
der Tabelle.
Fall 4: b
i
= 0 fr mindestens ein i r +1.
Da eine Vertauschung der Koordinaten x
i
mit i = 0 eine afne Projektivitt ist,
kann b
r+1
= 0 angenommen werden. Die durch
x
i
= x
i
fr i = r +1 und x
r+1
= cx
0
+
n
i=r+1
b
i
x
i
236 8 Anwendungen in der Geometrie
denierte afne Projektivitt bildet dann Q
und d
ergeben sich
dieselben Werte wie im Fall 1.
Zur Berechnung von u und d wird auf Q
4
t,r
noch die folgende Projektivitt
angewandt, die keine afne Projektivitt ist. Sei deniert durch
x
0
=
1
2
(x
r+1
x
0
), x
r+1
=
1
2
(x
r+1
+x
0
) und x
i
= x
i
fr i = 0, r +1.
Dann ndern sich die Invarianten u und d nach den Stzen 8.6.10 und 8.6.15 nicht,
und (Q
4
t,r
) hat die Gleichung
x
2
0
+ +x
2
t
x
2
t +1
x
2
r+1
= 0,
woraus u(Q) = n t 1 und d(Q) = n (r +1) 1 = n r 2 folgt.
Da diese Fallunterscheidung vollstndig ist, mu jede projektive Quadrik Q zu
mindestens einer Quadrik Q
i
t,r
der Tabelle afn-quivalent sein. Q bestimmt die
Invarianten u, d, u
, d
eindeutig. Innerhalb jedes der Typen (1) bis (4) sind die
Indizes t und r bereits durch u und d oder durch u
und d
= d und u
= u 1, der
Typ (3) durch d
= d und u
= d + 1
gekennzeichnet. Daher ist eine Quadrik Q auch nur zu genau einer Quadrik Q
i
t,r
afn-quivalent.
8.7.10 Folgerung. Zwei projektive Quadriken Q, Q
und d
bereinstimmen.
Beweis: Nach Satz 8.7.9 mssen zwei Quadriken Qund Q
), d(Q) = d(Q
), u
(Q) = u
(Q
) und d
(Q) = d
(Q
) zu genau
einer Quadrik Q
i
t,r
afn-quivalent sein. Also gilt auch Q Q
. Die Umkehrung
gilt nach Satz 8.7.8.
Satz 8.7.9 gestattet eine systematische Aufstellung aller afnen quivalenzklas-
sen projektiver Quadriken. In den folgenden beiden Tabellen ist sie fr die Dimen-
sionen n = 2 und n = 3 durchgefhrt. Der Beweis folgt unmittelbar aus Satz 8.7.9.
8.7.11 Folgerung. Es gibt 12 verschiedene afne quivalenzklassen projektiver
Quadriken in der reellen projektiven Ebene.
8.7 Afne Quadriken 237
Gleichung Bezeichnung
Nr. Typ t r d u d
(Normalform) (afn)
1 (1) 0 0 2 2 1 1 0 = 0 Ebene
2 1 1 1 1 0 0 x
2
1
= 0 eigentl. Gerade
3 1 2 0 1 1 0 x
2
1
x
2
2
= 0 Geradenpaar
mit eigentl.
Schnittpunkt
4 2 2 0 0 1 1 x
2
1
+x
2
2
= 0 eigentl. Punkt
5 (2) 1 1 0 1 0 0 x
2
1
= x
2
0
Paar parall.
Geraden
6 2 2 1 0 1 1 x
2
1
+x
2
2
= x
2
0
Ellipse
7 (3) 0 0 1 1 1 1 0 = x
2
0
uneigentl.
Gerade
8 0 1 0 0 0 0 x
2
1
= x
2
0
uneigentl.
Punkt
9 0 2 1 1 1 1 x
2
1
x
2
2
= x
2
0
10 1 2 1 0 1 0 x
2
1
x
2
2
= x
2
0
Hyperbel
11 (4) 0 0 0 1 1 1 0 = x
0
x
1
eine eigentl.
u. die uneigentl.
Gerade
12 1 1 1 0 0 0 x
2
1
= x
0
x
2
Parabel
Beim bergang zu den afnen Quadriken fallen die Klassen der Nr. 7, 8 und 9
sowie die Klassen 2 und 11 zusammen, weil der eigentliche Teil jeweils die leere
Menge bzw. eine Gerade ist. Alle anderen Klassen sind verschieden. Es gibt also
9 Klassen afn-inquivalenter Quadriken in der afnen Ebene.
8.7.12 Folgerung. Es gibt 20 verschiedene afne quivalenzklassen projektiver
Quadriken im dreidimensionalen projektiven Raum.
Gleichung Bezeichnung
Nr. Typ t r d u d
(Normalform) (afn)
1 (1) 0 0 3 3 2 2 0 = 0 3-dim. Raum
2 1 1 2 2 1 1 x
2
1
= 0 eigentl. Ebene
3 1 2 1 2 0 1 x
2
1
x
2
2
= 0 Ebenenpaar
mit eigentl.
Schnittgerade
4 2 2 1 1 0 0 x
2
1
+x
2
2
= 0 eigentl. Gerade
5 2 3 0 1 1 0 x
2
1
+x
2
2
x
2
3
= 0 Kegel
6 3 3 0 0 1 1 x
2
1
+x
2
2
+x
2
3
= 0 eigentl. Punkt
238 8 Anwendungen in der Geometrie
7 (2) 1 1 1 2 1 1 x
2
1
= x
2
0
Paar parall.
Ebenen
8 2 2 0 1 0 0 x
2
1
+x
2
2
= x
2
0
elliptischer
Zylinder
9 2 3 1 1 1 0 x
2
1
+x
2
2
x
2
3
= x
2
0
einschaliges
Hyperboloid
10 3 3 1 0 1 1 x
2
1
+x
2
2
+x
2
3
= x
2
0
Ellipsoid
11 (3) 0 0 2 2 2 2 0 = x
2
0
uneigentl.
Ebene
12 0 1 1 1 1 1 x
2
1
= x
2
0
uneigentl.
Gerade
13 0 2 0 0 0 0 x
2
1
x
2
2
= x
2
0
uneigentl.
Punkt
14 0 3 1 1 1 1 x
2
1
x
2
2
x
2
3
= x
2
0
15 1 2 0 1 0 1 x
2
1
x
2
2
= x
2
0
hyperbol.
Zylinder
16 1 3 1 0 1 0 x
2
1
x
2
2
x
2
3
= x
2
0
zweischaliges
Hyperboloid
17 (4) 0 0 1 2 2 2 0 = x
0
x
1
eigentl. Ebene
u.die un-
eigentl. Ebene
18 1 1 0 1 1 1 x
2
1
= x
0
x
2
parabol.
Zylinder
19 1 2 1 1 0 1 x
2
1
x
2
2
= x
0
x
3
hyperbol.
Paraboloid
20 2 2 1 0 0 0 x
2
1
+x
2
2
= x
0
x
3
elliptisches
Paraboloid
Beim bergang zu den afnen Quadriken fallen die Klassen 11 bis 14 sowie
die Klassen 2 und 17 zusammen, weil der eigentliche Teil jeweils die leere Men-
ge bzw. eine Ebene ist. Alle anderen Klassen sind verschieden. Es gibt also 16
verschiedene Klassen afn-inquivalenter Quadriken im dreidimensionalen afnen
Raum.
8.7.13 Berechnungsverfahren von Normalformen afner Quadriken. Die af-
ne Quadrik Q des n-dimensionalen afn-euklidischen Raums A sei durch die Glei-
chung
n
i,j=1
b
ij
x
i
x
j
+
n
i=1
b
i
x
i
+b = 0 ()
bezglich des afnen Koordinatensystems K von A gegeben, wobei die symme-
8.7 Afne Quadriken 239
trische reelle n n-Matrix B = (b
ij
) eine Koefzientenmatrix von Q ist, und
b = (b
1
, . . . , b
n
) R
n
, b R.
1. Schritt: Man geht zu projektiven Koordinaten ber, indem man x
i
durch
x
i
x
0
fr 1 i n ersetzt. Dann multipliziert man () mit (x
0
)
2
. Die so gewonnene
quadratische Gleichung bringt man auf die Form
n
i,j=0
a
ij
x
i
x
j
= 0. ()
Ihre Koefzientenmatrix ist die symmetrische reelle (n +1) (n +1)-Matrix
A =
_
_
_
_
_
a
00
a
01
a
0n
a
10
a
11
a
1n
.
.
.
a
n0
a
n1
a
nn
_
_
_
_
_
.
Sie ist die Koefzientenmatrix einer projektiven Quadrik Q
der projektiven
Quadrik Q
mit Q
A = Q.
2. Schritt: Man berechne die charakteristischen Polynome char Pol
A
(X) und
char Pol
A
0
(X) von Aund A
0
.
3. Schritt: Man berechne die Trgheitsindizes t (A) und t (A
0
) von A und A
0
.
Da die symmetrischen reellen Matrizen Aund A
0
nach Satz 7.6.3 reelle Nullstellen
haben, knnen die Vorzeichen der Eigenwerte von A und A
0
aus den Koefzien-
ten der beiden charakteristischen Polynome char
A
(X) und char
A
0
(X) mittels der
Kartesischen Zeichenregel in Bemerkung 7.6.10 bestimmt werden.
4. Schritt: Man berechne die Rnge rg(A) = r, rg(A
0
) = r
0
mittels Algorithmus
4.1.18.
5. Schritt: Nach Satz 8.6.16 ist dann
u(Q
) = n t (A), d(Q
) = n rg(A),
u
(Q
) = u(Q
u
) = n t (A
0
) 2, d
(Q
) = n rg(A
0
) 1.
6. Schritt: In den Fllen n = 2 bzw. n = 3 ergibt sich die Normalgleichung und
der Typ der afnen Quadrik Q aus Folgerung 8.7.11 bzw. 8.7.12. Sonst mu man
Satz 8.7.9 anwenden.
7. Schritt: Umdie Transformation der Gleichung () auf Normalformtatschlich
durchzufhren, mu man die Teilmatrix A
0
mittels Berechnungsverfahren 7.6.4 auf
Diagonalform transformieren. Danach ergibt sich mittels quadratischer Ergnzung
wie im Beweis von Satz 8.7.9 die Normalform von Q.
240 8 Anwendungen in der Geometrie
8.7.14 Beispiel. Die afne Quadrik Q sei im 3-dimensionalen Raum A durch die
Gleichung
x
2
1
5x
2
2
x
1
x
2
+x
1
x
3
+x
2
x
3
4x
1
1 = 0
gegeben. In homogenen Koordinaten (x
0
, x
1
, x
2
, x
3
) lautet sie dann
(x
0
)
2
+(x
1
)
2
5(x
2
)
2
4x
0
x
2
x
1
x
2
+x
1
x
3
+x
2
x
3
= 0.
Nach Multiplikation dieser Gleichung mit 2 erhlt man die symmetrischen Koefzi-
entenmatrizen
A =
_
_
_
_
2 0 4 0
0 2 1 1
4 1 10 1
0 1 1 0
_
_
_
_
, A
0
=
_
_
2 1 1
1 10 1
1 1 0
_
_
der zugehrigen projektiven Quadrik Q
von
Q
) = 3 2 = 1, d(Q
) = 3 3 1 = 1,
u
(Q
) = 3 1 2 = 0 und d
(Q
) = 3 3 1 = 1 ist.
Die Quadrik Q gehrt nach Folgerung 8.7.12 zur Klasse Nr. 9. Sie ist also ein
einschaliges Hyperboloid. Die Bestimmung der Normalgleichung ist Aufgabe 8.13.
8.7.15 Bemerkung. Das einschalige Hyperboloid und das hyperbolische Paraboloid
weisen folgende Besonderheit auf: Durch jeden ihrer Punkte gehen zwei verschie-
dene Geraden, die ganz in der Quadrik liegen.
Beweis: Da die in der Behauptung auftretenden geometrischen Eigenschaften bei
Afnitten erhalten bleiben, kann man sich beim Beweis auf die durch die entspre-
chenden Normalgleichungen beschriebenen Quadriken beschrnken.
1. Die Normalgleichung des einschaligen Hyperboloids Q lautet
x
2
1
+x
2
2
x
2
3
= 1.
Wegen der (euklidischen) Rotationssymmetrie in der (x
1
, x
2
)-Ebene kann man sich
weiter auf einen Punkt x
Q mit Koordinaten (x
1
, 0, x
3
) beschrnken, die also
x
2
1
x
2
3
= 1 erfllen. Durch x
1
= x
1
+ t x
3
, x
2
= t , x
3
= x
3
+ t x
1
mit t R
werden je nach Wahl des Vorzeichens zwei verschiedene Geraden durch x
gegeben.
8.8 Aufgaben 241
Einsetzen in die Normalgleichung ergibt x
2
1
+ x
2
2
x
2
3
= x
2
1
x
2
3
+ 2t (x
1
x
3
x
3
x
1
) +t
2
(x
2
3
+1 x
2
1
) = x
2
1
x
2
3
= 1 fr beliebige Werte von t . Deshalb sind
beide Geraden ganz in Q enthalten.
2. Die Normalgleichung des hyperbolischen Paraboloids Q lautet
x
2
1
x
2
2
= x
3
.
Es sei x
1
, x
2
, x
3
), fr die also
x
2
1
x
2
2
= x
3
gilt. Durch x
1
= x
1
+ t , x
2
= x
2
t , x
3
= x
3
+ 2t (x
1
x
2
)
mit t R werden wieder zwei verschiedene Geraden durch x
gegeben. Einsetzen
ergibt jetzt x
2
1
x
2
2
= x
2
1
x
2
2
+2t (x
1
x
2
)+t
2
(11) = x
3
+2t (x
1
x
2
) = x
3
;
die beiden Geraden sind also ebenfalls ganz in Q enthalten.
8.8 Aufgaben
8.1 ImvierdimensionalenreellenafnenRaumAseienfolgende Punkte durchihre Koordina-
ten gegeben: q
0
= (3, 4, 1, 6), q
1
= (3, 2, 10, 0), q
2
= (2, 0, 3, 2), q
3
= (1, 2, 4, 4).
Bestimmen Sie die Dimension des von diesen Punkten aufgespannten Unterraums U und
den Durchschnitt von U mit der Hyperebene H, die durch die Gleichung
4x
1
+x
2
+x
3
2x
4
+6 = 0
gegeben ist.
8.2 Imzweidimensionalen reellen afnen Raumseien hinsichtlich eines Koordinatensystems
folgende Punkte gegeben:
p
1
: (1, 2), p
2
: (2, 1), p
3
: (1, 1), p
1
: (2, 9), p
2
: (4, 2), p
3
: (1, 6).
Berechnen Sie die Matrix und den Translationsvektor derjenigen afnen Abbildung , fr die
p
i
= p
i
gilt fr i = 1, 2, 3.
8.3 Im dreidimensionalen reellen afnen Raum seien hinsichtlich eines Koordinatensystems
der Punkt p : (2, 1, 1), die Gerade G
: g
= und G H gilt.
8.4 Im dreidimensionalen euklidisch-afnen Raum seien hinsichtlich eines kartesischen Ko-
ordinatensystems die Geraden
G : g = (1, 2, 1) +(3, 1, 1) s mit s R,
G
: g
.
242 8 Anwendungen in der Geometrie
8.5 (a) Imdreidimensionalen reellen afnen Raumseien drei paarweise windschiefe Geraden
G
1
, G
2
, G
3
(je zwei liegen nicht in einer Ebene) gegeben. Zeigen Sie: Zu einemPunkt p G
1
gibt es im allgemeinen genau eine Gerade G mit p G, G G
2
= und G G
3
= .
Welche Ausnahmepunkte gibt es auf G
1
, fr die dies nicht der Fall ist?
(b) Hinsichtlich eines Koordinatensystems gelte G
1
: g
1
= (1, 0, 0) u, G
2
: g
2
=
(0, 1, 0) + (0, 0, 1) v, G
3
: g
3
= (1, 1, 0) + (1, 1, 1) w mit u, v, w R. Berechnen Sie
fr p : (1, 0, 0) eine Parameterdarstellung der entsprechenden Geraden G und auerdem die
Ausnahmepunkte von G
1
.
8.6 Hinsichtlich einer Orthonormalbasis des euklidischen 3-dimensionalen Vektorraums
V = R
3
sei einem Endomorphismus von V die Matrix
A =
_
_
_
1
4
3 +
1
2
1
4
3
1
2
1
4
2
1
4
3
1
2
1
4
3 +
1
2
1
4
2
1
4
2
1
4
2
1
2
3
_
_
_
zugeordnet. Zeigen Sie, da eine Drehung ist. Bestimmen Sie ihre Drehachse und ihren
Drehwinkel und berechnen Sie die Eulerschen Winkel von mittels Satz 8.3.28.
8.7 Es sei V ein 3-dimensionaler, orientierter euklidischer Raum, und {e
1
, e
2
, e
3
} sei eine
positiv orientierte Orthonormalbasis von V. Das Vektorprodukt zweier Vektoren x = e
1
x
1
+
e
2
x
2
+e
3
x
3
und y = e
1
y
1
+e
2
y
2
+e
3
y
3
ist deniert durch
x y =
e
1
e
2
e
3
x
1
x
2
x
3
y
1
y
2
y
3
,
wobei die Determinante formal nach der ersten Zeile zu entwickeln ist. Zeigen Sie:
(a) x y = 0 ist gleichwertig damit, da die Vektoren x und y linear abhngig sind.
(b) Sind x
i
, y
i
, z
i
, 1 i 3 die Koordinaten von x, y, z hinsichtlich einer positiv
orientierten Orthonormalbasis von V, dann gelten
(x y) z =
x
1
x
2
x
3
y
1
y
2
y
3
z
1
z
2
z
3
,
(z y) z = (y z) x = (z x) y.
(c) x y ist ein zu x und y orthogonaler Vektor mit Betrag
|x y| = |x| |y| | sin(x, y)|.
8.8 Es sei eine Bijektion der afnen Geraden G auf sich. Zeigen Sie, da genau dann
eine Afnitt ist, wenn fr je drei Punkte x, y, z G stets TV(x, y, z) = TV(x, y, z).
8.9 Das Doppelverhltnis von vier kollinearen Punkten p
1
, p
2
, p
3
, p
4
hngt von der Reihen-
folge dieser Punkte ab. Nachstehend bedeute eine beliebige Permutation der vier Indizes.
8.8 Aufgaben 243
(a) Fr welche Permutationen gilt DV(p
1
, p
2
, p
3
, p
4
) = DV(p
1
, p
2
, p
3
, p
4
)?
(b) Es gelte DV(p
1
, p
2
, p
3
, p
4
) = c. Man drcke fr alle Permutationen das Doppel-
verhltnis DV(p
1
, p
2
, p
3
, p
4
) durch c aus. Wie viele verschiedene Doppelver-
hltnisse treten auf?
8.10 Zeigen Sie, da eine Bijektion einer projektiven Geraden auf sich genau dann eine
Projektivitt ist, wenn sie das Doppelverhltnis ungendert lt.
8.11 Klassizieren Sie die durch
5(x
2
1
+x
2
3
) 4x
0
x
2
+2x
1
x
3
= 0
gegebene projektive Quadrik und bestimmen Sie die Matrix einer Transformation, die diese
Gleichung in die Normalform berfhrt.
8.12 Bestimmen Sie die Normalgleichung der Quadrik Q im 3-dimensionalen afn-
euklidischen Raum A, die durch
x
2
1
+2x
1
x
2
+x
2
2
+2x
1
x
3
+2x
2
x
3
+x
2
3
+2x
1
+2x
2
+2x
3
3 = 0
beschrieben wird.
8.13 Bestimmen Sie die Normalgleichung der Quadrik Q im dreidimensionalen afn-
euklidischen Raum A, die durch
x
2
1
5x
2
2
x
1
x
2
+x
1
x
3
+x
2
x
3
4x
2
1 = 0
beschrieben wird. Benutzen Sie Nherungen fr die Eigenwerte der Koefzientenmatrix, und
fhren Sie die Lsung der Aufgabe mit den Nherungswerten durch.
8.14 Die Quadrik Q im dreidimensionalen reellen afnen Raum A sei durch die Gleichung
3x
2
1
2x
1
x
2
+3x
2
2
6x
2
3
2x
1
4x
2
2x
3
= c
mit c R gegeben.
(a) Bestimmen Sie alle mglichen Typen von Q in Abhngigkeit von c.
(b) Bestimmen Sie fr c = 6 die Gleichungen der beiden in Q enthaltenen Geraden, die
durch den Punkt q mit den Koordinaten (1, 1, 1) gehen.
9 Ringe und Moduln
Fr die in diesem Buch durchgefhrte Lsung des allgemeinen Normalformenpro-
blems einer n n-Matrix A = (a
ij
) mit Koefzienten a
ij
aus einem kommutativen
Krper F ist es notwendig, Teile der Theorie der F-Vektorrume auf R-Rechts-
moduln M ber einem kommutativen Ring R zu verallgemeinern. Dabei zeigt sich,
da eine Reihe von Ergebnissen und Denitionen direkt bertragen werden knnen;
das gilt insbesondere, wenn M ein freier R-Rechtsmodul ist. So wird im vierten Ab-
schnitt gezeigt, da je zwei Basen eines endlich erzeugten freien R-Rechtsmoduls
gleich viele Elemente haben. Allerdings bedeutet
1
Y
2
eine aufsteigende Kette von Idealen Y
von R mit 1 / Y
, wobei A und A
eine Indexmenge ist. Sei W =
A
Y
W.
Ebenso folgt ur W fr alle u W and r R. Daher ist W ein Ideal von R, und
1 / W. Also besitzt die Menge M aller Ideale Z von R mit Y Z und 1 / Z
nach dem Lemma 1.1.9 von Zorn ein maximales Element M. Da jedes echt grere
Ideal M
und I
/Y = I.
Beweis: (a) Folgt unmittelbar aus Denition 9.1.12 und Denition 9.1.14.
(b) Sind r
1
= u
1
+ y
1
, r
2
= u
2
+ y
2
U + Y mit u
i
U und y
i
Y, dann
ist r
1
r
2
= (u
1
u
2
) (y
1
y
2
) U + Y. Da Y ein Ideal von R ist, ist auch
r
1
r
2
= (u
1
+y
1
)(u
2
+y
2
) = u
1
u
2
+(y
1
u
2
+u
1
y
2
+y
1
y
2
) U +Y.
Die einfachen Beweise der brigen Aussagen (c), (d) und (e) sind dem Leser
berlassen.
9.2 Moduln
In diesemAbschnitt ist R stets ein kommutativer Ring mit Eins. Als Verallgemeine-
rung der Theorie der F-Vektorrume V werden hier einige grundlegende Begriffe
und Ergebnisse ber R-Moduln M dargestellt. Insbesondere werden alle drei Iso-
morphiestze bewiesen.
9.2.1 Denition. Die abelsche Gruppe M mit Addition +heit ein R-Rechtsmodul,
wenn eine Verknpfung (m, r) mr von M R in M existiert derart, da fr alle
m, m
1
, m
2
M und r, r
1
, r
2
R folgende Gleichungen gelten:
m(r
1
r
2
) = (mr
1
)r
2
. (a)
(m
1
+m
2
)r = m
1
r +m
2
r. (b)
m(r
1
+r
2
) = mr
1
+mr
2
. (c)
m1 = m. (d)
Analog erklrt man R-Linksmoduln mittels einer Verknpfung (r, m) rm.
Die Axiome (a) bis (d) stimmen also mit denen der Denition 1.5.1 eines Vek-
torraums berein. Da Krper spezielle Ringe sind, ist der Modulbegriff eine Verall-
gemeinerung des Begriffs Vektorraum.
9.2.2 Beispiele.
(a) Jeder Vektorraum V ber einem Krper F ist ein F-Rechtsmodul.
9.2 Moduln 249
(b) Jede abelsche Gruppe (A, +) ist ein Z-Rechtsmodul; denn fr jedes a A
und jede natrliche Zahl n ist a n in Aals die n-fache Summe des Elements a
mit sich selbst deniert. Auerdem gilt a (n) = (a) n fr alle a Aund
alle natrlichen Zahlen n. Mit diesen Feststellungen ist es trivial, die Axiome
von 9.2.1 fr den Z-Modul A nachzuweisen.
(c) Jedes Ideal Y des Ringes R ist ein R-Rechts- und ein R-Linksmodul.
(d) Der Restklassenring R/Y des Ringes R nach dem Ideal Y ist ein R-
Rechtsmodul bezglich der Verknpfung: [r] s = [rs] fr alle [r] R/Y
und alle s R; diese Behauptung folgt einfach aus Hilfssatz 9.1.5.
9.2.3 Bemerkungen.
(a) Die Denition 9.2.1 eines R-Rechtsmoduls gilt wrtlich auch fr nicht not-
wendig kommutative Ringe R. Im nicht kommutativen Fall sind die Begriffe
R-Rechtsmodul und
= u
+ v
ein weiteres
Element von U +V, so ist mm
= (u u
) +(v v
) U +V. Da 0 +0 = 0
aus U +V ist, ist U +V nicht leer. Also gilt die Behauptung.
(b) Ist trivial.
9.2.6 Denition. Seien U
1
, U
2
, , U
k
Untermoduln des R-Moduls M. Dann heit
der nach Hilfssatz 9.2.5 und vollstndiger Induktion existierende Untermodul U
1
+
U
2
+ +U
k
die Summe der Untermoduln U
i
von M.
Bezeichnung:
k
i=1
U
i
oder U
1
+U
2
+ +U
k
.
9.2.7 Denition. Die Summe
k
i=1
U
i
der Untermoduln U
1
, U
2
, . . . , U
k
des R-
Moduls M heit direkt, wenn fr alle j = 1, 2, . . . , k stets gilt
U
j
k
i=1
i=j
U
i
= 0.
Bezeichnung:
k
i=1
U
i
oder U
1
U
2
U
k
.
Wie bei Vektorrumen lassen sich diese beiden Denitionen auf beliebig viele
Untermoduln bertragen.
9.2.8 Denition. Es sei {U
injektiv ist.
(a) Die Summe der Untermoduln U
=
_
A
u
M | u
und u
= 0 fr fast alle A
_
.
(b) Die Summe
A
U
A\{}
U
= 0.
Bezeichnung:
A
U
.
9.2 Moduln 251
9.2.9 Denition. Sind M und N zwei R-Moduln, dann nennt man die Abbildung
: M N eine R-lineare Abbildung (Modulhomomorphismus), wenn
(m
1
+m
2
) = (m
1
) +(m
2
),
(mr) = (m)r
fr alle m, m
1
, m
2
M, r R gelten.
Bezeichnung: Hom
R
(M, N) ist die Menge aller R-linearen Abbildungen von M
nach N.
9.2.10 Denition. Eine Abbildung : M N zwischen den R-Moduln M und N
heit
(a) Epimorphismus, wenn R-linear und surjektiv ist.
(b) Monomorphismus, wenn R-linear und injektiv ist.
(c) Isomorphismus, wenn R-linear und bijektiv ist.
9.2.11 Denition. Sei : M N eine R-lineare Abbildung zwischen den R-
Moduln M und N. Dann heit Ker() = {m M | (m) = 0 N} der Kern von
. Die Menge Im() = {w N | w = (m) fr ein m M} heit das Bild von .
9.2.12 Satz. Sei : M N eine R-lineare Abbildung zwischen den R-Moduln M
und N. Dann gelten:
(a) Das Urbild
1
bzw. v
2
, v
2
jeweils zwei Reprsentanten der quivalenzklassen
[v
1
] und [v
2
]. Dann ist v
1
v
1
= u
1
U und v
2
v
2
= u
2
U nach Denition
von
U
. Also ist (v
1
+ v
2
) (v
1
+ v
2
) = u
1
u
2
U, weil U ein Untermodul
des R-Moduls M ist. Hieraus folgt, [v
1
+ v
2
] = [v
1
+ v
2
]. Also ist die Addition +
wohldeniert.
Sei nun a R. Sind v und v
= u U. Also ist v a v
a = (v v
) a = u a U und somit
[va] = [v
a]. Daher ist auch die Multiplikation mit Elementen a R auf M/U
wohldeniert.
Da 0 U, ist [0] das Nullelement in M/U. Die brigenAxiome eines R-Moduls
folgen nun fr M/U sofort aus der Tatsache, da sie nach Denition 9.2.1 fr alle
Elemente von M gelten.
(c) Wegen (b) ist die Abbildung : v [v] M/U fr alle v M ein R-
Modulepimorphismus. Weiter ist (v) = 0 genau dann, wenn [v] = [0] M/U,
d. h. v U ist. Also ist Ker() = U.
(d) Da R ein kommutativer Ring ist, ist My fr jedes y Y ein Untermodul des
R-Moduls M; denn m
1
y m
2
y = (m
1
m
2
)y My fr m
1
y, m
2
y My und
(my)r = m(ry) = (mr)y My fr m M und r R. Nach Denition 9.2.8 ist
daher MY =
yY
My ein Untermodul von M.
Nach (b) gilt [m]y = [my] = 0 M/MY fr alle y Y und [m] M/MY. Sei
[r] R/Y. Dann wird M/MY ein R/Y-Modul vermge der nun wohldenierten
Verknpfung [m] [r] = [mr] = [m]r.
9.2 Moduln 253
9.2.15 Denitionen. Sei U ein Untermodul des R-Moduls M. Der R-Modul M/U
aus Hilfssatz 9.2.14 (b) heit Faktormodul von M nach U.
Bezeichnung: M/U.
Der in Hilfssatz 9.2.14 (c) erklrte R-Modulepimorphismus : M M/U,
(m) = [m] M/U fr alle m M, heit kanonischer Epimorphismus von M auf
M/U.
9.2.16 Satz (1. Isomorphiesatz). Ist : M W ein Epimorphismus zwischen den
R-Moduln M und W, dann ist M/ Ker()
= W.
Beweis: Nach Satz 9.2.12 ist Ker() ein Untermodul von M. Sei : M
M/ Ker() der in Hilfssatz 9.2.14 beschriebene kanonische Epimorphismus (v) =
[v] M/ Ker() fr alle v M. Dann ist Ker() = Ker(). Die Abbildung
: M/ Ker() W, die jeder Restklasse [v] M/ Ker() das Bild (v) W des
Elements v M zuordnet, ist daher eine wohldenierte R-lineare Abbildung. Da
surjektiv ist, ist auch ein Epimorphismus. Wegen Ker() = Ker() ist injektiv.
Also ist : M/ Ker() W ein Isomorphismus.
9.2.17 Satz (2. Isomorphiesatz). Seien U und W Untermoduln des R-Moduls M.
Dann gilt
(U +W)/W
= U/(U W).
Beweis: Nach Hilfssatz 9.2.5 ist U + W ein R-Modul. Sicherlich ist W ein Unter-
modul von U +W. Sei : (U +W) (U +W)/W der zu W gehrige kanonische
Epimorphismus. Dann ist Ker() = W nach Hilfssatz 9.2.14. Wegen Hilfssatz 9.2.5
ist U W ein Untermodul von U. Sei : U U/(U W) der zugehrige
kanonische Epimorphismus mit Ker() = U W.
Fr ein Element v = u +w U +W mit u U und w W gilt (v) = [v] =
[u+w] = [u]+[w] = [0] (U+W)/W genaudann, wenn[u] = [0] (U+W)/W
ist, d. h. wenn u U W. Also ist die durch
((u +w)) = (u) fr alle u U und w W
denierte Abbildung : (U + W)/W U/(U W) wohldeniert und injektiv.
Da und surjektive R-lineare Abbildungen sind, ist ein Isomorphismus.
9.2.18 Satz (3. Isomorphiesatz). Seien U und W Untermoduln des R-Moduls M
derart, da W U. Dann gilt
M/U
= (M/W)/(U/W).
Beweis: Seien : M M/U und : M M/W die zu den Untermoduln U und
W gehrigen kanonischen Epimorphismen von M. Wegen W U ist dann (U) =
254 9 Ringe und Moduln
U/W ein Untermodul von (M) = M/W. Sei der kanonische Epimorphismus
von (M) auf (M)/(U). Die Abbildung : (M)/(U) (M) = M/U sei
deniert durch
( ((v))) = (v) fr alle v M.
Zunchst wird gezeigt, da wohldeniert ist: Aus (v) = 0 (M)/(U) folgt
(v) (U), weil Ker( ) = (U) ist. Daher ist (v) = (u) fr ein u U,
weil : M M/W und seine Einschrnkung auf U wegen W U surjektive
Abbildungen sind. Also ist
v u Ker() = W,
woraus v u = w fr ein w W U und somit v = u + w U folgt. Da
U = Ker() ist, ergibt sich hieraus schlielich die Gleichung
( ((v))) = (v) = 0.
Die Abbildung ist auch linear und surjektiv, weil die Abbildungen , und diese
beiden Eigenschaften haben. Ist schlielich
( ((v))) = (v) = 0 M/U,
dann ist v Ker() = U, woraus (v) (U) = Ker( ) und somit (v) =
0 (M)/(U) folgt. Daher ist : (M)/(U) = (M/W)/(U/W) M/U ein
Isomorphismus.
9.2.19 Folgerung. Seien M und Y zwei R-Moduln. Sei U ein Untermodul von M
und : M M/U der kanonische Epimorphismus mit Kern U.
Dann gibt es zu jeder R-linearen Abbildung : M Y mit U Ker genau
eine R-lineare Abbildung
U
mit =
U
.
Weiter gilt:
(a)
U
ist genau dann injektiv, wenn Ker() = Ker() = U.
(b)
U
ist genau dann surjektiv, wenn surjektiv ist.
Beweis: Fr jedes m M sei [m] die Restklasse von m in M/U. Die Abbildung
U
: M/U Y sei deniert durch
U
[m] = (m) fr alle m M. Wegen U
Ker() ist
U
wohldeniert. Offensichtlich ist
U
auch R-linear.
Sei : M/U Y eine weitere R-lineare Abbildung mit = . Dann gilt:
[m] = (m) = (m) =
U
(m) =
U
[m]
fr alle [m] M/U. Also ist =
U
.
Wegen U Ker ist Ker()/U ein Untermodul von M/U. Aus
U
= ergibt
sich nun Ker(
U
) = Ker()/U. Also ist
U
genau dann injektiv, wenn Ker = U.
Nach Konstruktion ist
U
genau dann surjektiv, wenn surjektiv ist.
9.3 Kommutative Diagramme und exakte Folgen 255
9.2.20 Bemerkung. Im Spezialfall eines Vektorraums V ber einem Krper F ist
der Faktormodul V/U nach einem Unterraum U von V ein F-Vektorraum. Er heit
der Faktorraum von V nach U.
9.2.21 Satz. Sei V ein endlich-dimensionaler F-Vektorraum mit dimV = n. Der
Faktorraum V/U von V nach dem Unterraum U hat die Dimension
dim(V/U) = dimV dimU.
Beweis: Sei : V V/U der kanonische Epimorphismus. Nach dem 1. Iso-
morphiesatz 9.2.16 und Hilfssatz 9.2.14 gilt dann dim(V/U) = dimIm() und
Ker() = U. Wegen Satz 3.2.13 folgt daher
dim(V/U) = dimIm() = dimV dimKer() = dimV dimU.
9.3 Kommutative Diagramme und exakte Folgen
In diesem Abschnitt werden allgemeine Eigenschaften von Produkten R-linearer
Abbildungen zwischen R-Moduln ber einem kommutativen Ring R mit Einsele-
ment betrachtet. Zur Veranschaulichung der Hintereinanderausfhrung R-linearer
Abbildungen bedient man sich hug der Diagramm- bzw. der Folgenschreibweise.
9.3.1 Denition. Ein Diagrammvon vier R-Moduln T , U, V und W und R-linearen
Abbildungen , , und der Form
T
W
heit kommutativ, wenn = , d. h. (t ) = (t ) fr alle t T gilt. Analog
heit das Diagramm der Form
U
~
~
~
~
~
~
~
A
A
A
A
A
A
A
V
W
kommutativ, wenn (u) = (u) fr alle u U gilt.
Ein zusammengesetztes Diagramm heit kommutativ, wenn jedes Teildreieck
oder Teilrechteck kommutativ ist.
256 9 Ringe und Moduln
9.3.2 Denition. Eine (endliche, einseitig oder beidseitig unendliche) Folge
n2
V
n1
n1
V
n
V
n+1
n+1
von R-Moduln V
m
und R-linearenAbbildungen
m
heit an der Stelle n exakt, wenn
Im(
n1
) = Ker(
n
)
gilt. Die Folge ist exakt, wenn sie an jeder Stelle n exakt ist.
Eine exakte Folge der Form
0
V
1
1
V
2
2
V
3
0
wird eine kurze exakte Folge genannt.
9.3.3 Bemerkungen.
(a) Sei 0 V
1
1
V
2
2
V
3
0 eine kurze exakte Folge. Wegen
Im(
2
) = V
3
als Kern der Nullabbildung ist dann
2
ein Epimorphismus. Da
Ker(
1
) = 0, ist
1
injektiv. Deshalb folgt Ker
2
= Im(
1
)
= V
1
. Weiter gilt
dann nach dem ersten Isomorphiesatz 9.2.16, da
V
3
= Im(
2
)
= V
2
/ Ker
2
= V
2
/ Im(
1
)
ist.
(b) Ist umgekehrt : V W ein Epimorphismus des R-Moduls V auf den
R-Modul W mit Ker() = U, so ist
0
Ker()
W
0
eine kurze exakte Folge, wobei : Ker() V die natrliche Einbettung des
Unterraumes Ker() von V ist, die jedem Element u Ker() das Element
(u) = u Ker() V zuordnet.
9.3.4 Satz. In dem Diagramm (ohne )
U
0
U
.
9.4 Endlich erzeugte und freie Moduln 257
Dann gibt es genau eine R-lineare Abbildung , die das Diagrammkommutativ er-
gnzt, d. h.
=
.
Beweis: Wegen U =
= Ker(
) ist
U = 0. Deshalb ist
Ker() = U Ker(
(v).
Sie ist wohldeniert; denn ist w = (v
1
) = (v
2
) fr zwei Elemente v
1
und v
2
aus
V, dann ist
v
1
v
2
Ker() Ker(
),
woraus (w) =
(v
1
) =
(v
2
) folgt. Da
. Nach Denition
von gilt
(v) =
(v) fr alle v V.
Da surjektiv ist, ist die einzige R-lineare Abbildung von W nach W
, die das
Diagramm kommutativ ergnzt.
9.4 Endlich erzeugte und freie Moduln
In diesem Abschnitt werden einige grundlegende Ergebnisse ber endlich erzeugte
bzw. freie R-Moduln dargestellt. Dabei ist R wieder stets ein kommutativer Ring
mit Einselement 1. Auerdem wird ein Konstruktionsverfahren fr freie R-Moduln
angegeben, die nicht endlich erzeugt sind.
9.4.1 Denitionen. Sei T = {m
1
, m
2
, , m
k
} eine endliche Teilmenge des R-
Moduls M. Ein Element m M ist eine R-Linearkombination der Elemente von T ,
wenn gilt:
m =
k
i=1
m
i
r
i
fr geeignete r
i
R. Der R-Modul M ist endlich erzeugt, wenn eine endliche
Teilmenge T von M existiert derart, da jedes m M eine R-Linearkombination
der Elemente von T ist. Es wird dann T ein Erzeugendensystem von M genannt.
Der R-Modul M heit zyklisch, wenn ein m M existiert derart, da M = mR.
9.4.2 Denition. Die endliche Teilmenge {m
1
, m
2
, . . . , m
n
} des R-Moduls M heit
linear unabhngig ber R, wenn aus
n
i=1
m
i
r
i
= 0 und r
i
R stets r
i
= 0 fr
i = 1, 2, . . . , n folgt. Andernfalls wird sie linear abhngig genannt.
258 9 Ringe und Moduln
9.4.3 Denition. Der endlich erzeugte R-Modul M ist ein freier R-Modul,
wenn M ein ErzeugendensystemB = {m
i
M | i = 1, 2, . . . , k} besitzt, das linear
unabhngig ist. Solch ein ErzeugendensystemB heit Basis des freien R-Moduls M.
9.4.4 Beispiele.
(a) Fr jeden Ring R und jede positive natrliche Zahl n ist R
n
=
{(r
1
, r
2
, . . . , r
n
) | r
i
R} bezglich der komponentenweisen Addition
und der Multiplikation (r
1
, r
2
, . . . , r
n
) r = (r
1
r, r
2
r, . . . , r
n
r) fr alle r
i
,
r R ein freier R-Modul mit der kanonischen Basis B = {e
1
, e
2
, . . . , e
n
}.
(b) Sei Y die Menge aller geraden Zahlen. Dann ist Y ein Ideal von Z, und M =
Z/Y ist nach 9.2.2 (d) ein zyklischer Z-Modul mit erzeugendem Element [1].
M ist kein freier Z-Modul, weil [1] 2 = [2] = [0] und 2 = 0 in Z, [1] also
nicht linear unabhngig ist.
9.4.5 Hilfssatz. Es gelten die folgenden Behauptungen:
(a) R-lineare Bilder von endlich erzeugten R-Moduln sind endlich erzeugt.
(b) Sei N ein Untermodul des R-Moduls E und M = E/N. Sind die s Elemente
m
i
E und die t Elemente n
j
N so gewhlt, da M =
s
i=1
[m
i
]R mit
[m
i
] = m
i
+N E/N und N =
t
j=1
n
j
R gilt, dann wird E von den s +t
Elementen m
1
, m
2
, . . . , m
s
, n
1
, n
2
, . . . , n
t
erzeugt.
(c) Ist B = {m
1
, m
2
, , m
n
} eine Basis des freien R-Moduls M, so ist M =
n
i=1
m
i
R.
Beweis: (a) Ist ein Epimorphismus von M auf N, und ist M =
k
i=1
m
i
R fr
eine natrliche Zahl k, so ist N = (M) =
k
i=1
(m
i
)R.
(b) Sicherlichist U =
s
i=1
m
i
R+
t
j=1
n
j
RnachHilfssatz 9.2.5(a) einendlich
erzeugter Untermodul des R-Moduls E. Sei : E M = E/N der kanonische
Epimorphismus aus Hilfssatz 9.2.14 von E mit Ker() = N.
Sei e ein beliebiges Element von E. Ist e N, dann existieren r
j
R mit
e =
t
j=1
n
j
r
j
U. Daher kann angenommen werden, da e N ist. Wegen
0 = (e) M = E/N =
s
i=1
[m
i
]R existieren dann Elemente r
i
R, 1 i s
derart, da
(e) =
s
i=1
[m
i
]r
i
=
s
i=1
(m
i
)r
i
.
Somit ist 0 = (e)
s
i=1
(m
i
)r
i
=
_
e
_
s
i=1
m
i
r
i
__
, d. h. es ist
u = e
_
s
i=1
m
i
r
i
_
Ker() = N. Daher existieren Elemente z
j
R derart,
da u =
t
j=1
n
j
z
j
, woraus e =
s
i=1
m
i
r
i
+
t
j=1
n
j
z
j
U und so E = U folgt.
(c) Die Behauptung ergibt sich mit dem Beweisargument von Satz 2.3.9 unmit-
telbar aus den Denitionen 9.4.3 und 9.2.7.
9.4 Endlich erzeugte und freie Moduln 259
9.4.6 Satz. Je zwei Basen eines endlich erzeugten freien R-Moduls M haben gleich
viele Elemente.
Beweis: Sei B = {b
1
, b
2
, , b
n
} eine Basis von M. Da das Nullideal 0 von R
ein echtes Ideal ist, besitzt der Ring R nach Satz 9.1.8 mindestens ein maximales
Ideal P, und F = R/P ist ein Krper. Wegen 1 R gilt MP =
_
n
i=1
b
i
R
_
P
n
i=1
b
i
RP =
n
i=1
b
i
P MP, woraus MP =
n
i=1
b
i
P folgt. Insbesondere
ist MP ein Untermodul von M.
Sei [b
i
] die Restklasse von b
i
in M/MP fr i = 1, 2, , n. Dann ist M/MP =
n
i=1
[b
i
]R =
n
i=1
[b
i
]F nach Hilfssatz 9.2.14. Also ist M/MP ein F-Vektorraum
mit dim
F
(M/MP) = n, falls {[b
i
] | 1 i n} linear unabhngig ber F ist. Sei
n
i=1
[b
i
][r
i
] = [0] in M/MP fr [r
i
] F = R/P. Nach Hilfssatz 9.2.14 ist
dann
n
i=1
b
i
r
i
MP =
n
i=1
b
i
P. Daher existieren p
i
P mit
n
i=1
b
i
r
i
=
n
i=1
b
i
p
i
, woraus folgt:
n
i=1
b
i
(r
i
p
i
) = 0.
Da {b
i
| 1 i n} eine Basis von M ist, folgt r
i
= p
i
P fr i = 1, 2, , n.
Also sind alle [r
i
] = [0], und dim
F
(M/MP) = n.
Ist nun C = {c
1
, c
2
, , c
m
} eine weitere Basis des freien R-Moduls M, so folgt
hieraus, da dim
F
(M/MP) = m. Also ist m = n nach Satz 2.2.11.
9.4.7 Denition. Sei M ein endlich erzeugter freier R-Modul mit Basis B. Die nach
Satz 9.4.6 durch M eindeutig bestimmte Anzahl der Elemente von B heit der Rang
von M.
Bezeichnung: rg(M)
Der folgende Satz wird bei der Entwicklung der Modultheorie von Hauptideal-
ringen in Kapitel 11 bentigt. Er ist eine teilweise Verallgemeinerung des Komple-
mentierungssatzes 2.3.18.
9.4.8 Satz. Ist 0 T
P
M 0 eine kurze exakte Folge von endlich
erzeugten R-Moduln, und ist M frei, so existiert ein Untermodul U von P mit
P = U (T ) und U
= M.
Beweis: Sei {m
i
M | 1 i k} eine Basis des freien R-Moduls M. Da
surjektiv ist, hat jedes m
i
M ein Urbild f
i
in P fr i = 1, 2, . . . , k. Sei U =
k
i=1
f
i
R. Dann ist U nach Hilfssatz 9.2.5 ein Untermodul von P. Sei V = Ker =
(T ). Ist v V U, dann ist v = f
1
r
1
+f
2
r
2
+ +f
k
r
k
fr geeignete r
i
R,
und es gilt:
0 = (v) = (f
1
)r
1
+(f
2
)r
2
+ +(f
k
)r
k
= m
1
r
1
+m
2
r
2
+ +m
k
r
k
.
Da {m
i
M | 1 i k} eine Basis des freien R-Moduls M ist, gilt r
i
= 0 fr
i = 1, 2, . . . , k. Also ist v = 0, d. h. U V = 0.
260 9 Ringe und Moduln
Aus M = (P)
= P/ Ker() = P/V und (U) = M folgt P = U + V nach
Satz 9.2.12. Also ist P = U V = U (T ). Nach dem zweiten Isomorphie-
satz 9.2.17 und Hilfssatz 9.2.14 gilt:
(U +V)/V
= U/U V = U/0 = U.
Nach dem ersten Isomorphiesatz 9.2.16 folgt daher
M = (P)
= P/ Ker() = (U V)/V
= U.
Fr sptereAnwendungen ist es erforderlich, auch freie R-Moduln zu betrachten,
die nicht endlich erzeugt sind. Deshalb werden nun die Denitionen 9.4.1, 9.4.2
und 9.4.3 verallgemeinert.
9.4.9 Denition. Die Teilmenge T des R-Moduls M ist ein Erzeugendensystem
von M, wenn jedes Element m M eine R-Linearkombination einer endlichen
Teilmenge von T ist.
9.4.10 Denition. Eine Teilmenge T des R-Moduls M heit linear unabhngig ber
R, wenn jede endliche Teilmenge von T linear unabhngig ist. Anderenfalls heit T
linear abhngig.
9.4.11 Denition. Der R-Modul M heit frei, wenn M ein Erzeugendensystem B
besitzt, das linear unabhngig ist. Ein linear unabhngiges Erzeugendensystem B
heit Basis des freien R-Moduls M.
9.4.12 Denition. Sei M eine nicht leere Menge und R ein kommutativer Ring.
Dann ist die Abbildung f : M R fast berall Null, falls es nur endlich viele
Elemente m
i
Mgibt mit f (m
i
) = 0.
Diese Bedingung ist gleichwertig damit, da f (m) = 0 fr fast alle m Mist.
9.4.13 Hilfssatz. Sei Meine nicht leere Menge und R ein kommutativer Ring. Die
Menge R
M
aller Abbildungen
f : MR
mit f (m) = 0 fr fast alle m Mist ein R-Modul bezglich der Addition + und
Multiplikation , die folgendermaen deniert sind:
(f
1
+f
2
)(m) = f
1
(m) +f
2
(m) fr alle m M und alle f
1
, f
2
R
M
,
(f r)(m) = f (m) r fr alle m M, r R und alle f R
M
.
Fr jedes m Msei f
m
R
M
deniert durch
f
m
(n) =
_
1 falls n = m,
0 falls n = m
fr n M. Dann ist R
M
ein freier R-Modul mit Basis B = {f
m
| m M}.
9.4 Endlich erzeugte und freie Moduln 261
Beweis: Seien f
1
, f
2
R
M
. Dann ist auch (f
1
+ f
2
)(m) = f
1
(m) + f
2
(m) = 0
fr fast alle m R
M
. Also ist f
1
+ f
2
R
M
. Sei f R
M
und r R. Dann ist
(f r)(m) = f (m)r = 0 fr fast alle m M. Daher ist f r R
M
. Sei r R. Dann
ist
[(f
1
+f
2
)r](m) = (f
1
+f
2
)(m) r = [f
1
(m) +f
2
(m)]r
= f
1
(m)r +f
2
(m)r = (f
1
r +f
2
r)(m)
fr alle m M. Also ist (f
1
+f
2
)r = f
1
r +f
2
r.
Seien r
1
, r
2
R. Dann ist
[f (r
1
r
2
)](m) = f (m)(r
1
r
2
) = (f (m)r
1
)r
2
= [(f r
1
)(m)]r
2
= [(f r
1
)r
2
](m)
fr alle m M. Also ist f (r
1
r
2
) = (f r
1
)r
2
. Ebenso zeigt man f (r
1
+ r
2
) =
f r
1
+f r
2
. Wegen (f 1)(m) = f (m) 1 = f (m) fr alle m Mgilt auch f 1 = f
fr alle f R
M
. Also ist R
M
ein R-Modul im Sinne der Denition 9.2.1.
Sei {f
m
i
| 1 i k} eine endliche Teilmenge von B so, da
k
i=1
f
m
i
r
i
= 0
fr k Elemente r
i
R gilt. Wertet man g =
k
i=1
f
m
i
r
i
an den Stellen m
j
aus, so
folgt
0 = g(m
j
) =
k
i=1
(f
m
i
r
i
)(m
j
) =
k
i=1
f
m
i
(m
j
)r
i
= f
m
j
(m
j
)r
j
= r
j
fr alle j = 1, 2, . . . , k. Das beweist die lineare Unabhngigkeit von B.
Zu jedem f R
M
existieren nur endlich viele m
s
M, 1 s t mit
0 = f (m
s
) = r
s
R, weil f fast berall Null ist. Daher gilt f =
t
s=1
f
m
s
r
s
,
wie man durch Auswertung an allen Stellen m M nachrechnet. Also ist B ein
linear unabhngiges Erzeugendensystemdes R-Moduls R
M
. Daher ist R
M
ein freier
R-Modul.
9.4.14 Satz. Sei M = 0 ein freier R-Modul mit Basis B. Sei N ein beliebiger R-
Modul. Ordnet man jedem b B ein b
fr alle b B.
Beweis: Jedes Element v M besitzt eine Darstellung v =
bB
br
b
, wobei die
Ringelemente r
b
R eindeutig durch v bestimmt sind, und r
b
= 0 fr fast alle
b B gilt. Die R-lineare Abbildung sei deniert durch
(v) =
bB
b
r
b
.
262 9 Ringe und Moduln
Dann ist wegen der eindeutigen Basisdarstellung v =
bB
br
b
aller v M
wohldeniert. Ist auch w =
bB
bg
b
M mit g
b
R, so ist
(v +w) =
_
bB
b[f
b
+g
b
]
_
=
b
b
[f
b
+g
b
]
=
b
b
f
b
+
b
b
g
b
= (v) +(w).
Ebenso folgt (v f ) =
_
bB
b[f
b
f ]
_
=
bB
b
[f
b
f ] =
_
bB
b
f
b
)f =
(v
_
f fr alle v V und f R. Also ist eine R-lineare Abbildung von M in N.
Ist nun eine weitere R-lineare Abbildung von M in N mit (b) = b
fr alle
b aus B, so folgt
(v) =
_
bB
bf
b
_
=
bB
(b)f
b
=
bB
b
f
b
= (v) fr alle v M.
Also ist = .
Mit den Bezeichnungen von Hilfssatz 9.4.13 gilt nun der folgende Satz.
9.4.15 Satz. Sei T ein Erzeugendensystem des R-Moduls M. Dann ist R
T
ein freier
R-Modul mit Basis B = {f
t
| t T } derart, da die durch (f
t
) = t erklrte R-
lineare Abbildung : R
T
M ein Epimorphismus ist. Ist T eine endliche Menge,
so ist R
T
ein endlich erzeugter, freier R-Modul.
Insbesondere ist jeder R-Modul M ein epimorphes Bild eines freien R-Moduls P.
Beweis: NachHilfssatz 9.4.13ist R
T
einfreier R-Modul mit Basis B = {f
t
| t T }.
Ist T endlich, so auch B. Wegen Satz 9.4.14 ist die R-lineare Abbildung eindeutig
bestimmt. Da T ein Erzeugendensystem von M ist, ist ein Epimorphismus.
Ist M ein R-Modul, dann ist die Menge T = M sicherlich auch ein Erzeugen-
densystem von M. Also ist M ein epimorphes Bild des freien R-Moduls R
M
.
9.5 Matrizen und lineare Abbildungen freier Moduln
In diesemAbschnitt werden die Beziehungen zwischen den R-linearenAbbildungen
: M W zwischen zwei endlich erzeugten freien R-Moduln M und W und den
m n-Matrizen A = (a
ij
) mit Koefzienten a
ij
aus dem kommutativen Ring R
behandelt.
9.5 Matrizen und lineare Abbildungen freier Moduln 263
Man berzeugt sich leicht, da alle Rechenregeln von Abschnitt 3.1 auch fr die
mn-Matrizen ber R gelten. Daher ist die Menge Mat
n
(R) aller n n-Matrizen
A = (a
ij
) mit Koefzienten a
ij
aus demkommutativen Ring R ein assoziativer Ring
mit Einselement E
n
, der n n-Einheitsmatrix.
9.5.1 Denition. Eine nn-MatrixAber Rheit invertierbar, wennes inMat
n
(R)
eine Matrix B gibt mit A B = B A = E
n
. Die Matrix B = A
1
ist durch Aein-
deutig bestimmt und heit Inverse von A. Die Menge GL(n, R) aller invertierbaren
nn-Matrizen aus Mat
n
(R) ist eine Gruppe. Sie heit die generelle lineare Gruppe
vom Rang n ber dem kommutativen Ring R.
9.5.2 Bemerkungen.
(a) In der Literatur werden die invertierbaren Matrizen im Sinne der Deni-
tion 9.5.1 auch unimodular genannt. Bezglich der quivalenz dieser beiden
Begriffe wird auf die bungsaufgabe 10.9 verwiesen.
(b) Die Gruppeneigenschaften von GL(n, R) weist man mit den analogen Argu-
menten des Beweises von Satz 3.1.31 nach.
9.5.3 Bemerkung. Die folgenden drei Aussagen beweist man wie die analogenAus-
sagen von Folgerung 4.1.15. Dabei werden die Bezeichnungen der Elementarmatri-
zen bernommen.
(a) Die Elementarmatrizen ZV
i,j
, die zur Vertauschung der i-ten und j-ten Zeile
einer n n-Matrix A Mat
n
(R) gehren, sind invertierbar.
(b) Die Elementarmatrizen ZM
i,a
, die zur Multiplikation der i-ten Zeile einer
nn-Matrix A Mat
n
(R) mit einer Einheit a R gehren, sind invertierbar.
(c) Die Elementarmatrizen ZA
i,j,a
, die zur Addition des a-fachen der i-ten Zeile
zur j-ten Zeile einer n n-Matrix A Mat
n
(R) gehren, sind invertierbar.
Sind M und W zwei freie R-Moduln endlichen Ranges, so ordnet man jedem
Hom
R
(M, W) wie bei den Vektorrumen eine Matrix zu.
9.5.4 Denition. Seien M und W endlich erzeugte freie R-Moduln ber dem Ring
R mit den Basen A = {u
1
, . . . , u
r
} und B = {v
1
, . . . , v
s
}. Sei : M W eine
R-lineare Abbildung. Fr jedes u
j
A ist (u
j
) W, also hat (u
j
) eine nach
Hilfssatz 9.4.5 (c) eindeutige Darstellung als Linearkombination
(u
j
) =
s
i=1
v
i
a
ij
, wobei a
ij
R fr alle 1 i s, 1 j r.
264 9 Ringe und Moduln
Die s r-Matrix A = (a
ij
) heit die Matrix von bezglich der Basen A und
B. Man schreibt
A = A
= A
(A, B).
9.5.5 Denition. Seien A = {u
1
, . . . , u
r
} und A
= {u
1
, . . . , u
r
} zwei Basen des
freien R-Moduls M. Fr jedes j = 1, . . . , r schreibt man u
j
als Linearkombination
von u
1
, . . . , u
r
mit geeignetem p
ij
R:
u
j
=
r
i=1
u
i
p
ij
.
Die r r-Matrix P = (p
ij
) heit die Matrix des Basiswechsels von A nach A
.
9.5.6 Hilfssatz. Die Matrix P des Basiswechsels von A nach A
ist invertierbar.
Ihre Inverse ist die Matrix des Basiswechsels von A
nach A.
Beweis: Der Beweis verluft genauso wie der von Hilfssatz 3.3.8.
9.5.7 Satz. Sei eine R-lineare Abbildung des freien R-Moduls M in den freien
R-Modul W mit den endlichen Basen A, A
von M und B, B
. Dann ist
A
(A
, B
) = Q
1
A
(A, B) P.
Beweis: Der Beweis verluft genauso wie der von Satz 3.3.9.
9.5.8 Denition. Zwei mn-Matrizen A und B mit Koefzienten aus dem kom-
mutativen Ring R mit 1 R heien quivalent, wenn eine invertierbare Matrix
Q GL(m, R) und eine invertierbare Matrix P GL(n, R) existieren derart, da
QAP = B.
9.6 Direkte Produkte und lineare Abbildungen
In diesem Abschnitt ist R stets ein kommutativer Ring mit Einselement. Zu jedem
System {M
| A} von R-Moduln M
A
M
nennt.
Ein wichtiger Untermodul des direkten Produkts P ist die externe direkte Summe
S =
A
M
der M
: P M
und Injek-
tionen
: M
| A} von R-
Moduln M
= 0. Sei
P =
A
M
A
M
der Indexmenge
AindieVereinigungsmenge
A
M
der R-ModulnM
derart, da() M
fr
jeden Index Aist. Dann ist P ein R-Modul bezglich der linearen Operationen
+ und , die wie folgt deniert sind:
(a) Fr alle , P sei die Summe + erklrt durch
( +)() = () +() M
fr alle A.
(b) Fr alle P und f R sei f die Abbildung erklrt durch
( f )() = () f M
fr alle A.
Beweis: Das Nullelement von P ist die Abbildung 0, die jeden Index Aauf das
Nullelement 0 M
abbildet, d. h.
0() = 0 M
fr alle A.
Da jedes M
ein R-Modul ist, ergeben sich aus (a) und (b) auch die folgenden
Gleichungen:
[ (f +g)] () = () (f +g)
= () f +() g
= ( f )() +( g)()
= [ f + g] ()
fr alle A. Also ist (f + g) = f + g. Analog zeigt man das zweite
Distributivgesetz ( +) f = f + f fr alle , P und f R.
266 9 Ringe und Moduln
9.6.2 Denition. Sei {M
= 0. Der R-
Modul P =
A
M
, A. Die Teilmenge
S = { P | () = 0 fr fast alle A} ist ein Untermodul des direk-
ten Produkts P =
A
M
, A.
Bezeichnung: S =
A
M
.
9.6.3 Bemerkung. S =
A
M
A
M
,
wenn die Indexmenge A unendlich ist. Bei endlicher Indexmenge A gilt stets
() = 0 fr hchstens endlich viele A. Daher ist S = P genau dann, wenn A
endlich ist.
9.6.4 Denition. Sei {M
= 0. Sei
S =
A
M
die Abbildung
v
S fr alle Adeniert durch
v
( ) =
_
v M
fr = ,
0 M
fr = .
Dann wird durch
(v) =
v
eine Abbildung
: M
heit.
Zu jedem festen Index A erhlt man eine Abbildung
: P M
vom
direkten Produkt P =
A
M
() = () M
wird die
natrliche Projektion von P auf M
genannt.
9.6.5 Satz. Es sei {M
: M
S =
A
M
: P =
A
M
= id
End
R
(M
) und
= 0 fr alle = .
(d) Es ist (
) = fr alle
.
Beweis: Im folgenden sei Aein fest gewhlter Index.
(a) Seien v
1
, v
2
M
und
v
die fr alle v M
v
1
( ) +
v
2
( ). Hieraus folgt fr die natrliche Injektion
(v
1
+v
2
) =
v
1
+v
2
=
v
1
+
v
2
=
(v
1
) +
(v
2
).
9.6 Direkte Produkte und lineare Abbildungen 267
Da fr alle r R auch
vr
( ) = [(
v
) r]
=
_
v
( )
_
r
=
_
v r fr = ,
0 fr =
gilt, ist
(v r) =
vr
= (
v
) r = [
: M
S eine R-lineare
Abbildung.
Es sei
(v) = 0 fr ein v M
. Dann ist
(v) =
v
die Nullabbildung
v
( ) = 0 M
. Also ist
injektiv.
(b) Nach der Denition der natrlichen Projektion
gelten fr alle , P
und r R die folgenden Gleichungen:
[
)() +(
)()
= (
)(),
( r)() = () r
= [(
)()] r
= [(
) r] ().
Daher ist
: P M
sei
v
S =
A
M
. Wegen S P =
A
M
ist (
v
)() =
v
() = v M
. Also ist
: P M
surjektiv.
(c) Sei v M
. Dann ist (
)(v) =
(v)) =
(
v
). Wertet man diese
Abbildung
(
v
) : A
A
M
(
v
)] ( ) =
v
( ) =
_
v fr = ,
0 fr = .
Daher ist (
)(v) = v fr alle v M
, d. h.
= id
.
Da [
(
v
)]( ) = 0 fr alle = gilt, ergibt sich auch die Gleichung
= 0
fr alle = .
(d) Sei
mit =
(v) =
v =
v =
.
Der folgende Satz enhlt eine Aussage ber die Beziehungen zwischen den De-
nitionen 9.2.8 und 9.6.2.
268 9 Ringe und Moduln
9.6.6 Satz. Es sei {M
= 0. Dann ist
die externe direkte Summe S =
A
M
der R-Moduln M
der Untermoduln
A
M
fr alle
A. Daher ist die Summe U =
A
i
, d. h. ( ) = 0 fr
alle A \ {
1
,
2
, . . . ,
r
}. Sei v
i
= (
i
) M
i
. Nach Denition 9.6.4 ist
i
(v
i
) =
v
i
S, wobei gilt:
v
i
( ) =
_
v
i
M
i
fr =
i
,
0 fr =
i
.
Hieraus folgt, da =
r
i=1
v
i
=
r
i=1
i
(v
i
)
r
i=1
i
M
i
U und somit
U = S gilt.
Um zu zeigen, da U =
A
A\{}
i
M
i
derart, da
0 = =
1
u
1
+
2
u
2
+ +
s
u
s
fr ein 0 = v
= id
(v
) =
(v
)
=
1
(u
1
) +
2
(u
2
) + +
s
(u
s
) = 0.
Aus diesem Widerspruch folgt, da U sogar die direkte Summe
A
der
Untermoduln
A
M
A
U
von Un-
termoduln U
| A} von
R-Moduln M
und M
A
M
dar.
9.6 Direkte Produkte und lineare Abbildungen 269
9.6.8 Satz. Sei S =
A
M
mit
den natrlichen Injektionen
: M
Hom
R
(M
, W) | A} von
R-linearen Abbildungen
fr alle A.
(b) EinR-Modul Zist genaudannzuS =
A
M
Hom
R
(M
Hom
R
(M
fr alle A.
(c) Die Abbildungen
A
M
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
.y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
W
Z
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
A
M
. Dann gilt
i
() =
(
i
) = 0 wegen der Denitionen 9.2.8 und 9.6.2 fr hchstens endlich viele Indizes
1
, . . . ,
n
A. Durch
() =
n
i=1
(
i
)
wird daher eine Abbildung : S W deniert. (Gilt
i
() = 0 fr alle Indizes,
so ist () = 0 zu setzen.) Wegen der R-Linearitt der Abbildungen
i
und
i
ergibt sich unmittelbar, da eine R-lineare Abbildung ist. Weiter sei jetzt ein
270 9 Ringe und Moduln
fester Index. Nach Satz 9.6.5 gilt dann
= id
, whrend
fr = die
Nullabbildung ist. Fr ein beliebiges Element a M
folgt daher
a = a und
)a = (
a) = (
)(
a) =
a
und somit
.
Weiter gelte fr die R-lineare Abbildung : S W ebenfalls
fr
alle A. Nach Satz 9.6.5 ist
=
1
((
1
)) + +
n
((
n
)) = (
1
) + +(
n
)
und daher
() =
n
i=1
(
i
) =
n
i=1
(
i
) = ().
Es gilt somit = ; d. h. ist eindeutig bestimmt.
(b) Jeder zu M
=
1
= ()(
1
) =
.
Andererseits folgt aus
zunchst
1
= , also
: M
: M
fr alle A.
Setzt man andererseits W = Z, so gibt es nach (a) zu den R-linearen Abbildungen
: M
fr alle A.
Fr die R-lineare Abbildung : Z Z gilt nun
. Aber fr die
Identitt id
Z
von Z gilt ebenfalls id
Z
und id
S
auch = id
S
. Somit gilt =
1
und =
1
; d. h. und
sind Isomorphismen zwischen S und Z.
(c) Wegen
ist mit
und auch
eine Injektion.
9.6.9 Satz. Sei P =
A
M
mit den
Projektionen
: P M
: M
P. Dann gelten
folgende Aussagen:
(a) Sei W ein R-Modul. Zu jedem System {
Hom
R
(W, M
) | A}
von R-linearen Abbildungen
fr alle A.
9.6 Direkte Produkte und lineare Abbildungen 271
(b) EinR-Modul Zist genaudannzuP =
A
M
Hom
R
(Z, M
Hom
R
(W, M
fr alle A
gilt.
(c) Die Abbildungen
A
M
= P
.y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
W
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
M
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
y
Z
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
E
A
M
zugeordnet, fr die
y
() =
))() =
y+y
() =
(y +y
) =
y +
=
y
() +
y
() = (
y
+
y
)()
= (y +y
)()
und daher (y + y
) = y + y
)y =
(
y
) =
y
() =
y
und somit
(y) = (
)y =
y =
y
() = (y)().
272 9 Ringe und Moduln
Also ist y = y fr alle y W; d. h. = . Daher ist auch eindeutig bestimmt.
(b) Wie vorher folgt auch hier, da jeder zu P isomorphe R-Modul Z die in (b)
angegebene Eigenschaft besitzt. Umgekehrt sei jetzt Z ein R-Modul mit R-linearen
Abbildungen
: Z M
. Ebenso gibt es
zu den Abbildungen
.
Wieder gilt
wegen
id
P
=
, also = id
P
. Ebenso
wegen
id
Z
=
, also = id
Z
. Es folgt =
1
und
=
1
; d. h. und sind Isomorphismen.
(c) Schlielich ist
, W
_
A
Hom
R
(M
, W).
(b) Hom
R
(W,
A
M
A
Hom
R
(W, M
).
Beweis: (a) Sei Hom
R
_
A
M
, W
_
und
in S =
A
M
. Dann ist
Hom
R
(M
A
Hom
R
(M
, W) durch
() =
Hom
R
(M
, W) fr alle A.
Dann wird durch () = =
, W
_
in
A
Hom
R
(M
A
Hom
R
(M
Hom
R
(M
, W) derart, da
() =
fr alle A
9.6 Direkte Produkte und lineare Abbildungen 273
ist. Nach Satz 9.6.8 existiert dann genau ein Hom
R
(S, W) mit
= () fr alle A.
Also ist surjektiv und somit der gesuchte Isomorphismus.
(b) Sei Hom
R
(W,
A
M
) und
auf M
Hom
R
(W, M
) fr alle A.
Man deniere
A
Hom
R
(W, M
) durch
() =
Hom
R
(W, M
) fr alle A.
Dann wird durch () = =
A
Hom
R
(W, M
) deniert.
Sei umgekehrt
A
Hom
R
(W, M
Hom
R
(W, M
) derart, da () =
fr alle A ist.
Nach Satz 9.6.9 gibt es dann genau ein Hom
R
(W, P) mit
fr alle
A. Also ist das Bild von unter , womit (b) bewiesen ist.
9.6.13 Denition. Sei M ein R-Modul. Sei {M
und {
Hom
R
(M
: M
: Y M
, A, derart, da
(a)
Hom
R
(W, M
) |
A} von R-linearen Abbildungen
mit
fr alle , A
existiert, dann existiert genau ein Hom
R
(W, Y) derart, da
fr
alle Aist.
9.6.14 Satz. Sei Aeine Indexmenge und M ein R-Modul. Dann gelten die folgenden
Aussagen:
(a) Zu jedemSystem{
Hom
R
(M
, M) | A} von R-linearenAbbildungen
Hom
R
(Y, M
).
(b) Der FaserproduktraumY ist bis auf Isomorphie eindeutig durch die R-Moduln
M, M
: M
M, A, bestimmt.
Insbesondere ist das folgende Diagramm kommutativ.
274 9 Ringe und Moduln
M
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
W
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O Y
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
A
M
M
M
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
{
Beweis: Es sei Y die Menge aller derjenigen Elemente a P =
A
M
, bei
denen (
)a = (
ist. Offenbar ist Y ein Untermodul, der fr sich als R-Modul betrachtet
durch die natrliche Injektion in den Produktraum P abgebildet wird. Mit
ist dann die Bedingung von Denition 9.6.13 (a) fr alle A erfllt. Zu
den Abbildungen
: W M
: W P =
A
M
mit
fr alle A. Fr beliebiges y W
und beliebige Indizes , erhlt man
(
)(
y) = (
)y = (
)y = (
)(
y),
also
y Y. Daher kann
mit denAbbildungen
: Y Y
und : Y
Y mit
und
fr alle A. Es folgt
id
Y
=
und
id
Y
=
fr alle A
wegen der Eindeutigkeit der Faktorisierungen mit
bzw.
= id
Y
und
= id
Y
. Daher sind
und
i
M,
i = 1, 2 hat der Satz 9.6.14 eine interessante Folgerung. Er besagt nmlich, da
9.6 Direkte Produkte und lineare Abbildungen 275
das Faserprodukt Y mit den Abbildungen
1
und
2
und den gegebenen Abbildun-
gen
1
und
2
das folgende kommutative Diagramm
Y
M
1
M
2
2
M
bildet, und zwar so, da sich jede andere Ergnzung W durch Y faktorisieren lt:
W
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
Q
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
Y
M
1
M
2
2
M
Indem man in der Denition 9.6.13 des Faserprodukts alle Pfeile umdreht, erhlt
man die folgende
| A} einSystemvonR-Moduln
und {
Hom
R
(M, M
: M M
: M
Z, A, derart, da
(a)
Hom
F
(M
, W) |
A} R-linearer Abbildungen
mit
fr alle , A
existiert, dann existiert genau ein Hom
R
(Z, W) mit
fr alle A.
In Analogie zu Satz 9.6.14 beweist man den folgenden Satz.
9.6.17 Satz. Sei M ein R-Modul. Dann gelten die folgenden Aussagen:
(a) Zu jedemSystem{
Hom
R
(M, M
) | A} von R-linearenAbbildungen
Hom
R
(M
, Z).
(b) Der FasersummenraumZist bis auf Isomorphie eindeutig durch die R-Moduln
M, M
: M M
, A, bestimmt.
276 9 Ringe und Moduln
Insbesondere ist das folgende, fr den Beweis erweiterte Diagramm kommutativ.
M
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
O
M
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
A
M
W
M
}
}
}
}
}
}
}
}
}
}
}
}
}
}
}
}
}
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
9.7 Aufgaben
9.1 Sei R ein kommutativer Ring, S = R[X], a R und f (X) S. Zeigen Sie: S(Xa) +
Sf (X) = S genau dann, wenn f (a) eine Einheit in R ist.
9.2 Man gebe den Isomorphismus der Aussage des zweiten Isomorphiesatzes (U +V)/V
=
U/(U V) explizit fr die Untermoduln U = 4Z, V = 6Z des Z-Moduls Z an.
9.3 Sei R = Z/6 Z und M = R
2
= {(a, b) | a, b R} der freie Modul vom Rang 2 ber
R. Zeigen Sie:
(a) Die Teilmengen B
1
:= {(1, 0), (0, 1)}, B
2
:= {(2, 3), (3, 2)} von M bilden jeweils
eine Basis von M.
(b) NachAustausch eines Elements von B
1
gegen (2, 3) ist die so entstehende Menge keine
Basis von M.
9.4 Sei : V W eine R-lineare Abbildung zwischen den R-Moduln V und W. Seien
S und S
Systeme aus Untermoduln von V bzw. W. Ist T ein Untermodul von W, dann sei
(T ) | T S
_
{T | T S
}
_
.
(c) Gilt T Im fr alle T S
_
{U | U S}.
(e)
_ _
{T | T S
}
_
=
_
{
(T ) | T S
}.
(f) Gilt U Ker fr alle U S, so ist (d) mit dem Gleichheitszeichen erfllt.
9.5 Beweisen Sie die folgenden Behauptungen:
9.7 Aufgaben 277
(a) Eine R-lineare Abbildung : V W ist genau dann injektiv, wenn fr jeden R-
Modul Z und fr je zwei R-lineare Abbildungen , : Z V aus = stets
= folgt.
(b) Eine R-lineare Abbildung : V W ist genau dann surjektiv, wenn fr jeden R-
Modul Z und fr je zwei R-lineare Abbildungen , : W Z aus = stets
= folgt.
(c) Ist injektiv (surjektiv), so ist injektiv ( surjektiv).
9.6 Zeigen Sie, da die lineare Gruppe GL(n, R) im Fall n 2 nicht abelsch ist.
9.7
(a) Zeigen Sie, da die Abbildung :
A
M
gilt.
(b) Zeigen Sie, da die Abbildung : W
A
M
y =
gibt.
9.8
(a) Zeigen Sie: Fr den Kern der R-linearenAbbildung : W
A
M
.
(b) Zeigen Sie: Fr die Abbildungen und
A
Ker
Ker .
Zeigen Sie jedoch an einem Beispiel, da hierbei das Gleichheitszeichen im allgemei-
nen nicht gilt.
9.9 Man beweise den folgenden, zu Satz 9.3.4
0
W
U
die Zeilen exakte Folgen sind und wenn der rechte Teil kommutativ ist, dann gibt es eine
kommutative Ergnzung . Unter welchen Bedingungen ist injektiv bzw. surjektiv?
278 9 Ringe und Moduln
9.10 In dem Diagramm
V
von F-Vektorrumen seien die Zeilen exakte Folgen. Ferner sei das Diagramm kommutativ.
Zeigen Sie, da es eine lineare Abbildung : X X
A
V
A
V
.
10 Multilineare Algebra
In diesem Kapitel wird im ersten Abschnitt das Tensorprodukt M
R
N von zwei
R-Moduln M und N ber einem kommutativen Ring konstruiert. Im zweiten Ab-
schnitt werden Tensorprodukte von linearenAbbildungen zwischen R-Moduln
deniert und ihre Eigenschaften studiert. Der dritte Abschnitt enthlt Anwendungen
dieser Konstruktionen. Schlielich wird fr jede natrliche Zahl p 2 und jeden R-
Modul die p-te uere Potenz
_
p
M eingefhrt und damit die Determinante det()
eines Endomorphismus eines freien R-Moduls M erklrt. Es zeigt sich, da diese
Determinantentheorie von Matrizen ber kommutativen Ringen alle Ergebnisse des
Kapitels 5 ber Determinanten von Matrizen mit Koefzienten a
ij
aus einemKrper
F als Spezialflle enthlt.
In diesem Kapitel ist R stets ein kommutativer Ring mit Einselement 1. Alle hier
betrachteten R-Moduln sind R-Rechtsmoduln im Sinne der Denition 9.2.1.
10.1 Multilineare Abbildungen und Tensorprodukte
Fr die Konstruktion des Tensorprodukts von endlich vielen R-Moduln wird die
Denition 5.2.1 einer n-fach linearen Abbildung auf R-Moduln bertragen.
10.1.1 Denition. Seien M
1
, M
2
, . . . , M
n
und M endlich viele R-Moduln ber dem
kommutativen Ring R. Sei
n
i=1
M
i
= {(m
1
, m
2
, . . . , m
n
) | m
i
M
i
} das kartesi-
sche Produkt der M
i
. Eine Abbildung :
n
i=1
M
i
M heit n-fach linear, wenn
die beiden folgenden Bedingungen fr alle i = 1, 2, . . . , n erfllt sind:
(a) (m
1
, , m
i
+m
i
, ,m
n
) = (m
1
, . . . , m
i
, . . . , m
n
)
+(m
1
, . . . , m
i
, . . . , m
n
) ,
(b) (m
1
, . . . , m
i
r, . . . , m
n
) = (m
1
, . . . , m
i
, . . . , m
n
)r
fr alle m
i
, m
i
M und r R. Ist n = 2, so ist eine bilineare Abbildung vom
kartesischen Produkt M
1
M
2
in den R-Modul M.
10.1.2 Beispiel. Sei R ein kommutativer Ring und R
2
= {(r
1
, r
2
) | r
i
R} der
freie R-Modul vom Range 2. Die durch
__
r
11
r
21
_
,
_
r
12
r
22
__
= r
11
r
22
r
12
r
21
fr alle m
i
= (r
1i
, r
2i
) R
2
, i = 1, 2,
denierte Abbildung : R
2
R ist bilinear.
280 10 Multilineare Algebra
10.1.3 Hilfssatz. Seien M, N zwei R-Moduln ber demkommutativen Ring R. Dann
ist die Menge Hom
R
(M, N) aller R-linearenAbbildungen : M N einR-Modul.
Beweis: Der Beweis verluft genauso wie in Satz 3.6.1.
10.1.4 Denition. Gegeben seien die R-Moduln A und B ber dem kommutativen
Ring R. Ein Tensorprodukt (T, t ) von A und B ber R besteht aus einem R-Modul
T und einer bilinearen Abbildung t : A B T derart, da fr jede bilineare
Abbildung g von AB in einen beliebigen R-Modul X genau ein h Hom
R
(T, X)
existiert, so da das Diagramm
A B
t
@
@
@
@
@
@
@
@
@
@
T
/
hHom
R
(T,X)
X
kommutativ ist, d. h. g(a, b) = ht (a, b) fr alle (a, b) A B.
Die bilineare Abbildung t : A B T heit Tensorabbildung des Tensorpro-
dukts T .
Bezeichnung: T = A
R
B, a b = t (a, b) fr alle (a, b) A B.
In den beiden folgenden Stzen wird nun die Existenz und die Eindeutigkeit des
Tensorprodukts A
R
B zweier R-Moduln gezeigt.
10.1.5 Satz (Eindeutigkeit des Tensorprodukts). Sind (T, t ) und (T
, t
) zwei Ten-
sorprodukte der R-Moduln Aund B, dann gibt es genau einen R-Modulisomorphis-
mus j : T T
mit jt = t
.
Beweis: Da T und T
@
@
@
@
@
@
@
@
@
@
T
/
h
1
T
h
2
kommutativ ist, d. h. t
(a, b) = h
1
t (a, b) fr alle (a, b) A B. Analog
gibt es genau ein h
2
Hom
R
(T
, T ) mit t (a, b) = h
2
t
(a, b) = h
1
h
2
t
, T
, t
) und R-Modul T
gehrige Diagramm
A B
t
@
@
@
@
@
@
@
@
@
@
T
/
id
T
kommutativ macht, d. h. t
(a, b) = id t
i=1
(a
i
b
i
)r
i
.
Beweis: Sei M = A B. Nach Hilfssatz 9.4.13 ist C = {f
m
| m M} eine
Basis des freien R-Moduls R
M
. Nach dem Beweis von Satz 10.1.6 gibt es einen R-
Untermodul U von R
M
derart, da T = R
M
/U und fr die Restklassenabbildung
: R
M
R
M
/U gilt: t (a, b) = (f
(a,b)
) fr alle (a, b) M. Sei w R
M
ein
Urbild von u T in R
M
. Da C eine Basis des freien R-Moduls R
M
ist, existieren
endlich viele Basiselemente f
(a
i
,b
i
)
C und Ringelemente r
i
R, 1 i k,
derart, da
w =
k
i=1
f
(a
i
,b
i
)
r
i
.
Hieraus folgt
u = (w) =
k
i=1
(f
(a
i
,b
i
)
)r
i
=
k
i=1
(a
i
b
i
)r
i
.
n
i=1
a
i
b
i
= 0 folgt. Also ist
q =
n
i=1
q
i
p
i
=
n
i=1
a
i
d
1
b
i
d
1
=
n
i=1
d
1
a
i
b
i
d
1
= d
1
_
n
i=1
a
i
b
i
_
d
1
= d
1
0 = 0
wegen Folgerung 10.1.7. Daher ist ein Z-Modulisomorphismus.
10.1.11 Satz. Seien A, B, C R-Moduln ber dem kommutativen Ring R. Dann gel-
ten:
(a) A
R
B
= B
R
A.
(b) (A
R
B)
R
C
= A
R
(B
R
C).
Beweis: (a) Sei (A
R
B, t ) das Tensorprodukt der R-Moduln A und B. Die Abbil-
dung f : A B B
R
A mit f (a, b) = b a fr alle (a, b) A B ist nach
Folgerung 10.1.7 bilinear ber R. Wegen Denition 10.1.4 existiert daher genau ein
h Hom
R
(A
R
B, B
R
A) derart, da
b a = f (a, b) = ht (a, b) = h(a b) fr alle (a, b) A B
gilt. Nach Folgerung 10.1.8 hat jedes u B
R
A die Form
u =
k
i=1
(b
i
a
i
)r
i
=
k
i=1
h(a
i
b
i
)r
i
= h
_
k
i=1
(a
i
b
i
)r
i
_
h(A
R
B)
10.1 Multilineare Abbildungen und Tensorprodukte 285
fr endlich viele (a
i
, b
i
) AB und r
i
R. Also ist h ein R-Modulepimorphismus
von A
R
B auf B
R
A. Analog ndet man genau ein h
Hom
R
(B
R
A, A
R
B)
mit h
(B
R
A) = A
R
B.
Nun ist hh
(b a) = h(a b) = b a und h
h(a b) = h
(b a) = a b fr alle
a A und b B. Wegen Folgerung 10.1.8 sind daher die R-linearen Abbildungen
h und h
F
F
F
F
F
F
F
F
F
F
F
F
F
A
R
(B
R
C)
h
.w
w
w
w
w
w
w
w
w
w
w
w
w
(A
R
B)
R
C
kommutativ ist, d. h.
h(a (b c)) = (a, b c) = h
a
(b c) = (a b) c
fr alle a A, b B, c C. Wie in (a) folgt nun mit Hilfe von Folgerung 10.1.8,
da h ein R-Modulisomorphismus ist.
10.1.12 Folgerung. Sei M ein R-Modul ber dem kommutativen Ring R. Sei p 2
eine natrliche Zahl. Dann existiert das p-fache Tensorprodukt T =
p
M von M
mit sich selbst, d. h. es gibt einen bis auf Isomorphie eindeutig bestimmten R-Modul
T und eine p-lineare Abbildung t
p
von M M M = M
p
in T derart, da
fr jeden R-Modul N und fr jede p-lineare Abbildung g von M
p
in N das folgende
286 10 Multilineare Algebra
Diagramm fr genau eine R-lineare Abbildung h Hom
R
(T, N) kommutativ ist:
M
p
t
p
<
<
<
<
<
<
<
<
<
T
/
h
N
Beweis: Folgt unmittelbar aus den Stzen 10.1.5, 10.1.6 und 10.1.11.
Das Tensorprodukt vertauscht mit direkten Summen , wie nun gezeigt wird.
10.1.13 Satz. Seien A, B und C drei R-Moduln ber dem kommutativen Ring R.
Dann gilt:
(A B)
R
C
= (A
R
C) (B
R
C).
Beweis: Nach Satz 10.1.6 existieren die Tensorprodukte T = ((A B)
R
C, t ),
T
1
= (A
R
C, t
1
) und T
2
= (B
R
C, t
2
). Sei T
= T
1
T
2
. Die bilineareAbbildung
t
: (A B) C T
(a +b, c) = t
1
(a, c) +t
2
(b, c) T
1
T
2
= T
fr alle a A,
b B und c C. Wegen der Direktheit der Summe ist t
wohldeniert. Da (T, t )
ein Tensorprodukt ist, existiert nach Denition 10.1.4 genau ein h Hom
R
(T, T
)
derart, da das Diagramm
(A B) C
t
F
F
F
F
F
F
F
F
F
F
F
F
T
h
/
= T
1
T
2
kommutativ ist, d. h. t
1
und t
2
von t auf AC und BC bilineare
Abbildungen in den R-Modul T . Nach Denition 10.1.4 existieren daher eindeutig
bestimmte R-lineare Abbildungen g
i
Hom
R
(T
i
, T ) derart, da die Gleichungen
t
1
(a, c) = t (a, c) = g
1
t
1
(a, c) = g
1
t
(a, c),
t
2
(b, c) = t (b, c) = g
2
t
2
(b, c) = g
2
t
(b, c)
fr alle a A, b B und c C gelten. Sei g Hom
R
(T
, T ) deniert durch
g(t
(a, c) +t
(b, c)) = g
1
t
1
(a, c) +g
2
t
2
(b, c).
Dann ist hg die Identitt auf T
=
T
1
T
2
isomorphe R-Moduln.
10.2 Tensorprodukte von linearen Abbildungen 287
10.1.14 Folgerung. Sind V und W zwei endlich erzeugte, freie R-Moduln ber dem
kommutativen Ring R mit den Basen {v
1
, v
2
, . . . , v
n
} und {w
1
, w
2
, . . . , w
m
}, dann
ist V
R
W ein freier R-Modul mit der Basis {v
i
w
j
| 1 i n, 1 j m}.
Insbesondere gilt fr die Rnge dieser freien R-Moduln
rg(V
R
W) = rg(V) rg(W).
Beweis: Nach Voraussetzung ist V =
n
i=1
v
i
R und W =
m
j=1
w
j
R. Wegen
Folgerung 10.1.7 und Satz 10.1.13 folgt
V
R
W =
_
n
i=1
v
i
R
_
R
_
m
j=1
w
j
R
_
=
n
i=1
v
i
R
R
_
m
j=1
w
j
R
_
=
n
i=1
m
j=1
(v
i
w
j
)R.
Insbesondere ist rg(V
R
W) = nm = rg(V) rg(W).
10.1.15 Folgerung. Sind V und W zwei endlich-dimensionale Vektorrume ber
dem Krper F, so gilt:
dim
F
(V
F
W) = (dim
F
V)(dim
F
W).
Beweis: Folgt unmittelbar aus Satz 2.2.11 und Folgerung 10.1.14.
10.2 Tensorprodukte von linearen Abbildungen
In diesem Abschnitt werden Beziehungen zwischen Tensorprodukten von R-linea-
ren Abbildungen und R-linearen Abbildungen zwischen Tensorprodukten von
R-Moduln beschrieben. Weiter werden Tensorprodukte von Matrizen mit Koef-
zienten aus einem kommutativen Ring R mit Einselement eingefhrt.
10.2.1 Satz. Seien A, A
, B, B
) und Hom
R
(B, B
R
B
)
mit
( )(a b) = a b fr alle a A, b B.
288 10 Multilineare Algebra
Beweis: Sei (A
R
B, t ) das Tensorprodukt von Aund B mit der Tensorabbildung t :
AB A
R
B. Seien Hom
R
(A, A
) und Hom
R
(B, B
R
B
denierteAbbildung : AB A
R
B
ist
wegen Folgerung 10.1.7 und der Linearitt von und bilinear. Daher gibt es nach
Denition 10.1.4 genau eine R-lineareAbbildung Hom
R
(A
R
B, A
R
B
)
derart, da das folgende Diagramm kommutativ ist.
A B
t
G
G
G
G
G
G
G
G
G
G
G
A
R
B
.v
v
v
v
v
v
v
v
v
v
v
v
A
R
B
(A, B) = (a
ij
) mit 1 i m und 1 j n und
A
(C, D) = (b
pq
) mit 1 p t und 1 q s die zu und gehrigen mn-
bzw. t s-Matrizen ber R. Dann hat das in Satz 10.2.1 konstruierte Tensorprodukt
von und bezglich der nach Folgerung 10.1.14 existierenden, geordneten
Basen
P = {v
1
y
1
, . . . , v
1
y
s
, . . . , v
n
y
1
, . . . , v
n
y
s
}
und
Q = {w
1
z
1
, . . . , w
1
z
t
, . . . , w
m
z
1
, . . . , w
m
z
t
}
von V
R
Y bzw. W
R
Z nach Denition 9.5.4 die mt ns-Matrix A
(P, Q) =
(a
ij
b
pq
), die das Kronecker-Produkt A
der MatrizenA
(A, B) undA
(C, D)
heit.
Bezeichnung: AB
10.2.3 Beispiel. Das Kronecker-Produkt A B der beiden Matrizen A =
_
1
3
2
0
_
10.3 Ringerweiterungen und Tensorprodukte 289
und B =
_
1
0
2
2
3
1
_
ist die 4 6-Matrix
AB =
_
1 (B) 2 (B)
3 (B) 0 (B)
_
=
_
_
_
_
1 2 3 2 4 6
0 2 1 0 4 2
3 6 9 0 0 0
0 6 3 0 0 0
_
_
_
_
.
Das Kronecker-Produkt B Adieser beiden Matrizen ist
B A =
_
1 (A) 2 (A) 3 (A)
0 (A) 2 (A) 1 (A)
_
=
_
_
_
_
1 2 2 4 3 6
3 0 6 0 9 0
0 0 2 4 1 2
0 0 6 0 3 0
_
_
_
_
.
Insbesondere ist AB = B A.
10.2.4 Satz. Seien A, A
, A
und B, B
, B
),
Hom
K
(A
, A
),
Hom
K
(B, B
),
Hom
K
(B
, B
).
Dann gilt fr die Hintereinanderausfhrung der jeweiligenR-linearenAbbildungen
die Gleichung
(
) ( ) = (
) (
).
Beweis: Das Tensorprodukt (
) (
) Hom
R
(A
R
B, A
R
B
) der
R-linearenAbbildungen
und
) (
)(a b) =
_
(a)
_
(b)
_
fr alle (a, b) A B
gilt. Ebenso gelten ( )(a b) = (a) (b) fr alle (a, b) A B und
(
)(a
) =
(a
(b
) fr alle (a
, b
) A
) ( )(a b) =
_
(a)
_
(b)
_
fr alle a, b AB. Daher
gilt die Behauptung.
10.3 Ringerweiterungen und Tensorprodukte
In Kapitel 7 wurde die Einbettung eines endlich-dimensionalen, reellenVektorraums
V in einen Vektorraum ber dem Krper C der komplexen Zahlen mit gleicher Di-
mension betrachtet. Dies war ein wichtiger Schritt fr den Beweis des Hauptachsen-
theorems 7.6.3. Diese Einbettung ist ein Spezialfall des folgenden Satzes.
290 10 Multilineare Algebra
10.3.1 Satz. Sei R ein Unterring des kommutativen Ringes S. Das Einselement 1
R sei auch das Einselement von S. Dann ist S ein R-Modul, und es gelten folgende
Aussagen:
(a) Ist M ein R-Modul, dann ist M
R
S ein S-Modul.
(b) Fr jeden zyklischen R-Modul mR ist mr s (m 1)rs ein S-Modul-
isomorphismus von mR
R
S auf (m1)S.
(c) Ist B = {m
i
M | 1 i k} eine Basis des endlich erzeugten, freien
R-Moduls M, dann ist B
S
= {m
i
1 | 1 i k} eine Basis des freien
S-Moduls M
R
S.
Beweis: (a) Der R-Modul M
R
S ist ein S-Modul vermge der Verknpfung
(ms)t = mst fr alle m M und s, t S.
(b) Sei (mR
R
S, t ) das Tensorprodukt der R-Moduln M = mR und S. Die
Abbildung (mr, s) (m1)rs ist eine bilineareAbbildung von MS auf (m1)S.
Daher existiert nach Satz 10.1.6 genau ein
Hom
R
(mR
R
S, (m1)S)
mit
(mr s) = (m1)rs fr alle r R, s S.
Wegen (a) ergibt sich nun fr alle s
1
, s
2
S, da
(ms
1
s
2
) = (m1)s
1
s
2
= (ms
1
)s
2
ist. Also ist eine surjektive S-lineare Abbildung. Sie hat eine inverse Abbildung
: (m1)s ms, s S. Daher gilt (b).
(c) Da B eine Basis des freien R-Moduls M ist, gilt
M =
k
i=1
m
i
R.
Nach Satz 10.1.13 folgt hieraus, da
M
R
S
=
_
k
i=1
m
i
R
_
R
S
=
k
i=1
(m
i
R
R
S).
Wegen (b) sind die S-Moduln m
i
R
R
S und (m
i
1)S fr i = 1, . . . , k isomorph.
Also ist M
R
S
=
k
i=1
(m
i
1)S.
10.3.2 Bemerkung. Sei V ein endlich-dimensionaler, reeller Vektorraum mit Basis
B = {v
1
, v
2
, . . . , v
n
}. Dann ist B
C
= {v
i
1 | 1 i n} nach Satz 10.3.1
eine Basis des komplexen Vektorraums V
R
C ber dem Krper C der komplexen
Zahlen.
10.3 Ringerweiterungen und Tensorprodukte 291
V
R
C ist isomorph zur komplexen Erweiterung Z = {(x, y) | x, y V} des
reellen Vektorraums V, die in Denition 7.1.13 erklrt ist. Denn als R-Vektorraum
hat C die Basis {1, i}. Nach Satz 10.1.13 sind daher die R-Vektorrume
V
R
C = V
R
(R Ri) = V
R
R V
R
Ri
= V 1 V i
= Z
isomorph. Wegen i
2
= 1 V 1 sind V
R
C und Z auch als C-Vektorrume
isomorph.
10.3.3 Satz. Sei R ein Unterring des kommutativen Ringes S mit demselben Eins-
element 1. Seien M und N zwei R-Moduln. Dann gelten folgende Aussagen:
(a) Fr jedes Hom
R
(M, N) ist 1 Hom
S
(M
R
S, N
R
S) eine
S-lineare Fortsetzung.
(b) Sind M und N endlich erzeugte, freie R-Moduln mit den Basen A = {m
j
|
1 j r} und B = {n
i
| 1 i s}, dann sind M
R
S und N
R
S
endlich erzeugte, freie S-Moduln mit den Basen A
S
= {m
j
1 | 1 j r}
und B
S
= {n
i
1 | 1 i s}. Fr die s r-Matrizen A
(A, B) und
A
1
(A
S
, B
S
) gilt die Gleichung
A
(A, B) = (a
ij
) = A
1
(A
S
, B
S
).
Beweis: (a) Die Multiplikation mit 1 ist die identische S-lineare Abbildung des
S-Moduls S in sich. Also ist 1 Hom
S
(M
R
S, N
R
S) nach Satz 10.2.1
durch
( 1)(ms) = (m) s fr alle m M und s S ()
eindeutig bestimmt.
(b) A
S
und B
S
sind nach Satz 10.3.1 je eine Basis von M
R
S und N
R
S.
Wegen () und Folgerung 10.1.7 folgt mit A
(A, B) = (a
ij
)
( 1)(m
j
1) = (m
j
) 1
=
_
s
i=1
n
i
a
ij
_
1
=
s
i=1
(n
i
a
ij
1)
=
s
i=1
(n
i
1)a
ij
fr j = 1, 2, . . . , r.
Also ist A
1
(A
S
, B
S
) = (a
ij
) = A
p
M das (bis auf Isomorphie eindeutig bestimmte) p-fache Tensorprodukt von M
mit sich selbst. Sei t
p
die zugehrige Tensorabbildung. Sei U
p
derjenige Untermodul
von M
p
, der erzeugt wird von allen Elementen der Form a
1
a
p
mit a
i
M
und a
i
= a
j
fr mindestens ein Paar (i, j) mit 1 i < j p. Der Faktormodul
_
p
M = M
p
/U
p
heit das p-fache uere Produkt von M mit sich selbst. Fr p = 0
und p = 1 setzt man
_
0
M = R bzw.
_
1
M = M. Die Elemente von
_
p
M heien
p-Vektoren. Sei
p
die Restklassenabbildung von M
p
auf M
p
/U
p
=
_
p
M.
Bezeichnung: a
1
a
p
=
p
(a
1
a
p
) M
p
/U
p
=
_
p
M.
10.4.2 Hilfssatz. Sei
_
p
M das p-fache uere Produkt des R-Moduls M ber dem
kommutativen Ring R. Dann gelten fr i = 1, 2, . . . , p die folgenden Aussagen:
(a) a
1
(a
i
+a
i
) a
p
= (a
1
a
i
a
p
)+(a
1
a
i
a
p
)
fr alle a
1
, a
2
, . . . , a
i
, a
i
, . . . , a
p
M.
(b) a
1
(a
i
c) a
p
= (a
1
a
i
a
p
) c fr alle
a
1
, a
2
, . . . , a
i
, . . . , a
p
M und c R.
Beweis: Beide Aussagen folgen unmittelbar aus der p-fachen Linearitt der Ten-
sorabbildung t
p
und der R-Linearitt der Restklassenabbildung
p
:
p
M
_
p
M.
10.4.3 Hilfssatz. (a) Sind a
1
, a
2
, . . . , a
p
M und ist 1 i < j p, dann ist
a
1
a
i
a
j
a
p
= a
1
a
j
a
i
a
p
.
(b) Ist eine Permutation der Zahlen 1, 2, . . . , p, dann ist
a
(1)
a
(2)
a
(p)
= (a
1
a
p
) sign .
Beweis: (a) Nach der Bestimmung von U
p
in Denition 10.4.1 und Hilfssatz 10.4.2
(a) ist
0 = a
1
(a
i
+a
j
) (a
i
+a
j
) a
p
= a
1
a
i
a
i
a
p
+a
1
a
i
a
j
a
p
+a
1
a
j
a
i
a
p
+a
1
a
j
a
j
a
p
.
10.4 uere Potenzen und alternierende Abbildungen 293
In der letzten Summe verschwinden nach Denition 10.4.1 der erste und der letzte
Summand. Deshalb ist
a
1
a
j
a
i
a
p
= (a
1
a
i
a
j
a
p
).
(b) folgt sofort aus (a) und Satz 5.1.10 (b).
Wegen Hilfssatz 10.4.3 ist es naheliegend, die Denition 5.2.4 einer alternieren-
den Abbildung eines Vektorraums auf R-Moduln zu bertragen.
10.4.4 Denition. Seien M und N zwei R-Moduln. Sei p 2 eine natrliche Zahl
und M
p
das p-fache kartesische Produkt von M. Eine p-fach lineare Abbildung
: M
p
N heit eine alternierende Abbildung des R-Moduls M in den R-Modul
N, wenn
(m
1
, m
2
, . . . , m
p
) = 0 N
ist, sofern zwei verschieden indizierte Elemente unter den Elementen m
1
,
m
2
, . . . , m
p
von M gleich sind.
Die p-te uere Potenz
_
p
M eines R-Moduls M ber einem kommutativen
Ring R hat die folgende universelle Abbildungseigenschaft.
10.4.5 Satz. Seien M ein R-Modul und p 2 eine natrliche Zahl. Dann gibt es zu
jeder p-fach linearen alternierenden Abbildung : M
p
N mit Werten in einem
R-Modul N genau eine R-lineare Abbildung
Hom
R
_ _
p
M, N
_
derart, da
(a
1
a
p
) = (a
1
, . . . , a
p
)
fr alle (a
1
, . . . , a
p
) M
p
.
Beweis: Da eine p-fach lineare Abbildung ist, gibt es nach Folgerung 10.1.12
genau ein h Hom
R
(
p
M, N) derart, da das linke Dreieck des Diagramms
M
p
-
t
p
@
@
@
@
@R
p
M
?
-
p
_
p
M
h
N
kommutativ ist, wobei t
p
: M
p
T =
p
M die p-fache Tensorabbildung von M
p
auf T ist. Da auerdemalternierendist, gilt fr alle p-Tupel (a
1
, a
2
, . . . , a
p
) M
p
,
bei denen mindestens zwei verschieden indizierte Elemente a
i
M gleich sind, da
0 = (a
1
, . . . , a
p
) = h(a
1
a
p
) = ht
p
(a
1
, . . . , a
p
).
294 10 Multilineare Algebra
Also ist der Untermodul U
p
von T =
p
M, der von allen a
1
a
p
erzeugt
wird, bei denen mindestens zwei a
i
M gleich sind, in Ker(h) enthalten. Sei
p
:
p
M
_
p
M der kanonische Epimorphismus von T =
p
M auf
_
p
M mit
Ker(
p
) = U
p
. Wegen U
p
Ker(h) gibt es nach Folgerung 9.2.20 eine eindeutig
bestimmte, R-lineare Abbildung
Hom
R
_ _
p
M, N
_
mit
(a
1
a
p
) = (a
1
, . . . , a
p
) fr alle (a
1
, . . . , a
p
) M
p
.
10.4.6 Folgerung. Seien M, N zwei R-Moduln. Sei p 2 eine natrliche Zahl und
Alt
R
(p, M, N) die Menge aller p-fach linearen alternierenden Abbildungen von M
mit Werten in N. Dann gelten:
(a) Alt
R
(p, M, N) ist ein R-Modul.
(b) Hom
R
_ _
p
M, N
_
= Alt
R
(p, M, N) als R-Moduln.
Beweis: (a) Seien , Alt
R
(p, M, N) und r R beliebig. Dann sind + und
r p-fach lineare alternierende Abbildungen von M in N. Also ist Alt
R
(p, M, N)
ein R-Modul.
(b) Da
_
p
M und N zwei R-Moduln sind, ist Hom
R
_ _
p
M, N
_
nach Hilfs-
satz 10.1.3 ein R-Modul. Nach den Hilfsstzen 10.4.2 und 10.4.3 ist die Zuordnung
p
t
p
: M
p
_
p
M, die durch
p
t
p
(a
1
, . . . , a
p
) =
p
(a
1
a
p
) = a
1
a
p
fr alle p-Tupel (a
1
, a
2
, . . . , a
p
) M
p
erklrt ist, eine p-fach lineare alter-
nierende Abbildung von M in
_
p
M. Daher ist
=
p
t
p
fr jedes
Hom
R
_ _
p
M, N
_
eine p-fach lineare alternierende Abbildung von M in N, d. h.
p
t
p
Alt
R
(p, M, N).
Nach Satz 10.4.5 existiert zu jedem
Alt
R
(p, M, N) genau ein
Hom
R
_ _
p
M, N
_
derart, da
(a
1
a
2
a
p
) =
(a
1
, a
2
, . . . , a
p
),
also
=
p
t
p
ist. Daher ist die Abbildung
i
1
,i
2
,...,i
p
Alt
R
(p, M, R) derart, da fr alle der Gre nach geordneten Fol-
gen k
1
< k
2
< < k
p
von p Zahlen k
s
{1, 2, . . . , n} gilt:
i
1
,i
2
,...,i
p
(m
k
1
, . . . , m
k
p
) =
_
1 R fr (k
1
, . . . , k
p
) = (i
1
, . . . , i
p
),
0 R fr (k
1
, . . . , k
p
) = (i
1
, . . . , i
p
).
Beweis: Da M ein freier R-Modul ist, hat M
= Hom
R
(M, R) nach dem Beweis
von Satz 3.6.8 die (duale) Basis B
= {
i
M
| 1 i n}, wobei
i
(m
j
) =
_
1 R fr i = j,
0 R fr i = j
fr alle 1 i, j n.
Sei F : i
1
< i
2
< < i
p
eine beliebige, echt aufsteigende Folge von p Zahlen
i
j
{1, 2, . . . , n}. Fr alle (x
1
, x
2
, . . . , x
p
) M
p
sei die Abbildung
i
1
,i
2
,...,i
p
:
M
p
R deniert durch
i
1
,i
2
,...,i
p
(x
1
, x
2
, . . . , x
p
) =
S
p
(sign )
p
j=1
i
j
(x
(j)
).
Da alle
i
j
R-lineare Abbildungen von M in R sind, ist
i
1
,i
2
,...,i
p
eine p-fach
lineare Abbildung von M in R. Sicherlich ist
i
1
,i
2
,...,i
p
(m
i
1
, m
i
2
, . . . , m
i
p
) =
p
j=1
i
j
(m
i
j
) = 1. Fr jede echt aufsteigende Folge k
1
< k
2
< < k
p
von
p Zahlen k
j
{1, 2, . . . , n} mit
i
1
,i
2
,...,i
p
(m
k
1
, m
k
2
, . . . , m
k
p
) = 0 existiert minde-
stens eine Permutation S
p
derart, da
p
j=1
i
j
(m
k
(j)
) = 0.
296 10 Multilineare Algebra
Da {
i
j
| 1 j n} die duale Basis zu B = {m
i
| 1 i n} ist, folgt k
(j)
= i
j
fr j = 1, 2, . . . , p. Also ist = id S
p
und k
j
= i
j
fr j = 1, 2, . . . , p. Daher
gilt
i
1
,i
2
,...,i
p
(m
k
1
, . . . , m
k
p
) =
_
1 R fr (k
1
, . . . , k
p
) = (i
1
, . . . , i
p
),
0 R fr (k
1
, . . . , k
p
) = (i
1
, . . . , i
p
).
Ist nun (x
1
, x
2
, . . . , x
p
) M
p
ein p-Tupel derart, da x
i
= x
j
fr ein Paar i = j
gilt, dann sei = (i, j) S
p
. Da die Transposition eine ungerade Permutation ist,
hat die symmetrische Gruppe nach Folgerung 5.1.11 die Zerlegung S
p
= A
p
A
p
,
wobei A
p
die alternierende Untergruppe von S
p
ist. Hieraus folgt
i
1
,i
2
,...,i
p
(x
1
, x
2
, . . . , x
p
) =
A
p
(sign )
p
k=1
i
k
(x
(k)
)
+
A
p
(sign )
p
k=1
i
k
(x
(k)
)
=
A
p
_ p
k=1
i
k
(x
(k)
)
p
k=1
i
k
(x
(k)
)
_
= 0,
weil x
(k)
= x
(k)
fr alle k / {i, j} und x
(k)
= x
(k)
fr k {i, j} wegen
x
i
= x
j
gilt. Daher ist
i
1
,i
2
,...,i
p
Alt
R
(p, M, R).
10.4.8 Satz. Sei M ein endlich erzeugter, freier R-Modul ber dem kommutativen
Ring Rmit Basis B = {m
i
M | 1 i n}. Sei p eine natrliche Zahl. Dann ist die
p-te uere Potenz
_
p
M von M ein freier R-Modul mit Basis {m
i
1
m
i
2
m
i
p
|
1 i
1
< i
2
< < i
p
n}. Insbesondere gilt
_
p
M = 0 fr alle p > n und
rg
_ _
p
M
_
=
_
n
p
_
fr p n.
Beweis: Sicherlich gelten alle Behauptungen fr p = 0 und p = 1. Sei also p 2.
NachdenFolgerungen10.1.12und10.1.14ist die Menge A = {m
i
1
m
i
2
m
i
p
|
i
j
{1, 2, . . . , n} fr j = 1, 2, . . . , p} eine Basis des freien R-Moduls
p
M. Sei
U
p
der Untermodul von
p
M, der von allen Elementen der Forma
1
a
2
a
p
erzeugt wird, wobei a
i
= a
j
fr mindestens ein Paar (i, j) mit 1 i < j pgilt. Sei
p
:
p
M
_
p
M der kanonische R-Modulepimorphismus mit Ker(
p
) = U
p
.
Wegen Hilfssatz 10.4.3 ist dann die Menge
C = {
p
(m
i
1
m
i
p
) = m
i
1
m
i
p
| 1 i
1
< i
2
< < i
p
n}
ein Erzeugendensystem von
_
p
M. Nach Hilfssatz 10.4.7 existiert zu je-
der Folge i
1
< i
2
< < i
p
von p Zahlen i
j
{1, 2, . . . , n} genau ein
10.4 uere Potenzen und alternierende Abbildungen 297
i
1
,i
2
,...,i
p
Alt
R
(p, M, R) mit
i
1
,i
2
,...,i
p
(m
i
1
, m
i
2
, . . . , m
i
p
) = 1 und
i
1
,i
2
,...,i
p
(m
k
1
, m
k
2
, . . . , m
k
p
) = 0 fr alle aufsteigenden Folgen k
1
< k
2
<
< k
p
mit (k
1
, k
2
, . . . , k
p
) = (i
1
, i
2
, . . . , i
p
). Daher existiert nach Satz 10.4.5 zu
jedem
i
1
,i
2
,...,i
p
ein
Hom
R
_ _
p
M, R
_
mit
(m
i
1
m
i
2
m
i
p
) =
i
1
,i
2
,...,i
p
(m
i
1
, m
i
2
, . . . , m
i
p
) = 0.
Insbesondere sind die
_
n
p
_
p-Vektoren m
i
1
m
i
2
m
i
p
_
p
M alle von Null
verschieden.
DurchAuswertung der p-fach linearen, alternierendenAbbildungen
i
1
,i
2
,...,i
p
an
den p-Tupeln (m
i
1
, m
i
2
, . . . , m
i
p
) zu den Folgen i
1
< i
2
< < i
p
sieht man, da
die
_
n
p
_
Abbildungen
i
1
,i
2
,...,i
p
linear unabhngig ber R sind. Die
_
n
p
_
p-Vektoren
m
i
1
m
i
2
m
i
p
_
p
M sind daher nach Folgerung 10.4.6 linear unabhngig
ber R. Also ist C = {m
i
1
m
i
2
m
i
p
| 1 i
1
< i
2
< < i
p
n} eine Basis
von
_
p
M. Insbesondere ist dann rg
_ _
p
M
_
=
_
n
p
_
fr p n und
_
p
M = 0
fr p > n, weil in jedem p-Vektor a
1
a
2
a
p
der n Basisvektoren von B
mindestens zwei gleiche Elemente a
i
auftreten.
10.4.9 Folgerung. Sei V ein n-dimensionaler Vektorraum ber dem kommutativen
Krper F und sei p eine natrliche Zahl. Dann ist
dim
F
p
V =
_
0 wenn p > n,
_
n
p
_
wenn p n.
Beweis: Folgt sofort aus Satz 10.4.8.
10.4.10 Folgerung. Sei V ein Vektorraum ber dem Krper F mit dim
F
V = n.
Dann sind die n Vektoren v
1
, v
2
, . . . , v
n
V genau dann linear abhngig, wenn
v
1
v
2
v
n
= 0 ist.
Beweis: Sind die nVektoren v
1
, v
2
, . . . , v
n
linear abhngig ber F, dann kann nach
Umnumerierung angenommen werden, da v
1
=
n
i=2
v
i
f
i
fr geeignete f
i
F
ist. Nach Hilfssatz 10.4.2 folgt
v
1
(v
2
v
3
v
n
) =
n
i=2
[v
i
(v
2
v
3
v
n
)]f
i
= 0.
Die umgekehrte Richtung folgt unmittelbar aus Folgerung 10.4.9.
298 10 Multilineare Algebra
10.5 Determinante eines Endomorphismus
Sei M ein endlich erzeugter, freier R-Modul ber dem kommutativen Ring R mit
Einselement. Mit Hilfe von Satz 10.4.8 ist es nun einfach, jedem Endomorphismus
End
R
(M) ein eindeutig bestimmtes Element det() R zuzuordnen, das die
Determinante von genannt wird. Alle Ergebnisse des Kapitels 5ber Determinanten
von Endomorphismen eines Vektorraums V ber einem Krper F ergeben sich als
Spezialflle der hier entwickelten Theorie.
10.5.1 Satz. Sei p 2 und M ein R-Modul ber dem kommutativen Ring R. Dann
existiert zu jedem Endomorphismus End
R
(M) genau ein Endomorphismus
_
p
End
R
_ _
p
M
_
mit der Eigenschaft, da
_
_
(m
1
m
2
m
p
) = (m
1
) (m
2
) (m
p
)
fr alle m
i
M, 1 i p gilt.
Beweis: Sei End
R
(M) fest gewhlt. Die Abbildung : M
p
_
p
M, die
gegeben ist durch
(m
1
, m
2
, . . . , m
p
) = (m
1
) (m
2
) (m
p
),
ist p-fach linear und alternierend. Also existiert nach Satz 10.4.5 genau ein
Hom
R
_ _
p
M,
_
p
M
_
derart, da
(m
1
m
2
m
p
) = (m
1
, m
2
, . . . , m
p
) = (m
1
) (m
2
) (m
p
)
fr alle m
1
, m
2
, . . . , m
p
M gilt. Die Behauptung folgt dann mit
_
p
=
End
R
_ _
p
M
_
.
10.5.2 Denition. Sei p 1 eine natrliche Zahl und ein Endomorphismus des
R-Moduls M. Der nach Satz 10.5.1 durch eindeutig bestimmte Endomorphismus
_
p
der p-ten ueren Potenz
_
p
M von M heit die p-te uere Potenz des
Endomorphismus .
10.5.3 Satz. Sei M ein freier R-Modul mit rg(M) = n > 0. Dann gibt es zu jedem
End
R
(M) genau ein r
R mit
_
_
(m
1
m
n
) = (m
1
m
n
) r
fr alle m
1
m
n
n
M.
10.5 Determinante eines Endomorphismus 299
Beweis: Sei {b
1
, . . . , b
n
} eine Basis vonM. Dannist b
1
b
n
nachSatz 10.4.8eine
Basis des freien R-Moduls
_
n
M. Daher existiert zu jedem m
1
m
n
_
n
M
genau ein r R mit
m
1
m
n
= (b
1
b
n
)r.
Da
_
n
End
R
_ _
n
M
_
nach Satz 10.5.1 gilt, ist
_
_
(b
1
b
n
) = (b
1
b
n
)r
fr genau ein r
R.
Hieraus folgt fr beliebige m
1
, . . . , m
n
M
_
_
(m
1
m
n
) =
_
_
[(b
1
b
n
)r]
=
_
_
_
(b
1
b
n
)
_
r = (b
1
b
n
)r
r
= [(b
1
b
n
)r] r
= (m
1
m
n
)r
.
10.5.4 Denition. Sei M ein freier R-Modul mit rg(M) = n > 0. Die Determinante
des Endomorphismus von M ist das nach Satz 10.5.3 durch eindeutig bestimmte
Ringelement r
.
Bezeichnung: det() = r
.
10.5.5 Bemerkung. Sei M ein freier R-Modul mit rg(M) = n > 0. Dann ist
_
n
id
die Identitt auf
_
n
M, und det(id) = 1.
10.5.6 Satz. Sei M ein freier R-Modul mit rg(M) = n > 0. Seien , End
R
(M)
Endomorphismen von M. Dann gelten
(a) det() = det() det().
(b) Ist invertierbar, so ist det(
1
) = (det())
1
R.
Beweis: (a) Seien
_
n
,
_
n
und
_
n
() die n-ten ueren Potenzen von ,
und (). Sei {m
i
M | 1 i n} eine Basis des freien R-Moduls M. Nach
Denition 10.5.4 ist dann
n
()(m
1
m
2
m
n
) = (m
1
m
2
m
n
) det().
300 10 Multilineare Algebra
Wegen End
R
(M) folgt aus Denition 10.5.2, da
n
()(m
1
m
2
m
n
) = (m
1
) (m
2
) (m
n
)
=
_
_
((m
1
) (m
2
) (m
n
))
=
_
_
_
(m
1
m
2
m
n
)
_
det()
= [(m
1
) (m
2
) (m
n
)] det()
= (m
1
m
2
m
n
) det() det().
Nach Satz 10.4.8 ist m
1
m
2
m
n
eine Basis des freien R-Moduls
_
n
M.
Also ist det() = det() det().
(b) Ist invertierbar, so ist
1
= id. Nach Bemerkung 10.5.5 und (a) folgt
1 = det(id) = det(
1
) = det() det(
1
).
10.5.7 Satz. Sei M ein freier R-Modul mit Basis B = {m
i
| 1 i n}. Der
Endomorphismus End
R
(M) habe bezglich B die Matrix A
(B, B) = (a
ij
).
Dann hat die Determinante
det =
S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
.
Beweis: Nach Denition 10.5.2 und den Hilfsstzen 10.4.2 und 10.4.3 gelten die
folgenden Gleichungen:
_
_
(m
1
m
n
) = m
1
m
n
=
_
n
i=1
m
i
a
i1
_
_
n
i=1
m
i
a
i2
_
_
n
i=1
m
i
a
in
_
=
n
j
1
=1
n
j
2
=2
n
j
n
=n
m
j
1
m
j
2
m
j
n
(a
j
1
,1
a
j
2
,2
. . . a
j
n
,n
),
wobei (j
1
, j
2
, . . . , j
n
) alle Permutationender Menge {1, 2, . . . , n} durchluft. Wegen
Hilfssatz 10.4.3 gilt daher, da
_
_
(m
1
m
n
) = (m
1
m
n
)
_
S
n
(sign )a
(1),1
a
(2),2
. . . a
(n),n
_
10.6 Aufgaben 301
ist. Da m
1
m
2
m
n
eine Basis des freien R-Moduls
_
n
M ist, folgt aus
Denition 10.5.4, da
det =
S
n
(sign )a
(1),1
a
(2),2
. . . a
(n),n
.
Mit durchluft auch
1
alle Elemente der symmetrischen Gruppe, woraus
det =
S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
folgt.
10.5.8 Denition. Sei A = (a
ij
) eine n n-Matrix mit Koefzienten a
ij
aus dem
kommutativen Ring R. Dann ist die Determinante det(A) von A das eindeutig be-
stimmte Ringelement
det(A) =
S
n
(sign )a
1,(1)
a
2,(2)
. . . a
n,(n)
.
10.5.9 Bemerkung. Wegen Satz 10.5.7 ist die Denition 5.3.4 der Determinante ei-
ner nn-Matrix mit Koefzienten a
ij
aus einemKrper F ein Spezialfall von 10.5.8.
10.6 Aufgaben
10.1 Sei F ein kommutativer Krper und (M
F
N, t ) das Tensorprodukt der F-Vektorrume
M und N. Seien U M und V N F-Unterrume. Zeigen Sie:
(a) U N
= t (U N) = u n | u U, n N M N.
(b) M/U N/V
= (M
R
N)/[t (U N) +t (M V)].
10.2 Der Krper Qder rationalen Zahlen sei als Z-Modul aufgefat. Zeigen Sie:
_
2
Q = 0.
10.3 Seien A, A
) = (A A
) (B B
).
(b) Sind jeweils A, A
und B, B
hnlich.
(c) Ist c F ein Eigenwert von Aund d F ein Eigenwert von B, so ist cd ein Eigenwert
von AB.
10.4 Sei Aeine n n-Matrix und B eine mm-Matrix. Zeigen Sie:
(a) tr(AB) = tr(A) tr(B).
302 10 Multilineare Algebra
(b) det(AB) = det(A)
m
det(B)
n
.
10.5 Seien M und N zwei endlich-dimensionale F-Vektorrume. Zeigen Sie, da durch
( n) = n(m) fr alle m M, n N und M
F
N Hom
F
(M, N) beschrieben ist.
10.6 Es sei W ein Unterraum des F-Vektorraums V. Die p-Vektoren x
1
x
p
, bei
denen mindestens einer der Vektoren x
1
, . . . , x
p
in W liegt, spannen dann einen Unterraum
W
p
von
_
p
V auf. Zeigen Sie, da
_
p
(V/W)
=
_ _
p
V
_
/W
p
.
10.7 Es gelte Z = V Y. Beweisen Sie die Isomorphie
_
p
Z
=
p
q=0
__ _
q
V
_
_ _
pq
Y
__
.
10.8 Es sei V der dreidimensionale arithmetische Vektorraum ber F = Z/2Z. Bestim-
men Sie alle zweifach alternierenden Abbildungen von V in F, eine Basis des Vektorraums
Alt
F
(2, V, F), sowie seine Dimension.
10.9 Sei R ein kommutativer Ring mit Einselement und A = (a
ij
) eine n n-Matrix mit
Koefzienten a
ij
R. Zeigen Sie, da A genau dann invertierbar ist, wenn det(A) eine
Einheit in R ist.
10.10 Sei {u
1
, u
2
, . . . , u
m
} eine Basis des Unterraums U des Vektorraums V ber dem
beliebigen Krper F. Zeigen Sie:
U = {v V | v u
1
u
2
u
m
= 0}.
11 Moduln ber Hauptidealringen
So wie sich bekanntlich im Ring Z der ganzen Zahlen jede ganze Zahl z eindeu-
tig in ein Produkt von Primzahlpotenzen p
n
i
i
zerlegen lt, hat auch jedes Polynom
f (X) aus dem Polynomring F[X] eine eindeutige Primfaktorzerlegung in Poten-
zen q
i
(X)
n
i
von irreduziblen Polynomen q
i
(X). Im ersten Abschnitt werden diese
gemeinsamen arithmetischen Eigenschaften von Z und F[X] im Rahmen der eukli-
dischen Ringe hergeleitet. Es wird gezeigt, da jeder euklidische Ring R ein Haupt-
idealring ist. Fr allgemeine Hauptidealringe R wird die Existenz und Eindeutigkeit
der Faktorzerlegung eines Elementes a R, das von Null verschieden und keine
Einheit ist, in Primfaktoren nachgewiesen.
In Abschnitt 2 wird gezeigt, da jeder endlich erzeugte R-Modul M ber einem
Hauptidealring R eine direkte Summe seines Torsionsuntermoduls T (M) und eines
freien Untermoduls U ist.
Mit den arithmetischen Ergebnissen des Abschnitts 1 wird im dritten und vierten
Abschnitt die Struktur des Torsionsmoduls T (M) beschrieben. Insbesondere wird
gezeigt, da T (M) die direkte Summe seiner Primrkomponenten T (M)
p
ist. Jede
Komponente T (M)
p
ist eine eindeutig bestimmte direkte Summe von zyklischen
Moduln. Ihre Ordnungen heien Elementarteiler. Sie bestimmen den R-Modul T (M)
bis auf Isomorphie eindeutig. Aus diesem Struktursatz endlich erzeugter Moduln M
ber einem Hauptidealring ergibt sich der Basissatz fr endlich erzeugte abelsche
Gruppen als Spezialfall.
Im fnften Abschnitt wird als weitere Folgerung des Struktursatzes der Ele-
mentarteilersatz fr m n-Matrizen A = (a
ij
) mit Koefzienten a
ij
aus einem
Hauptidealring R bewiesen. Dabei werden die Beziehungen zwischen den Ele-
mentarteilerbegriffen der Modultheorie und der Matrizentheorie aufgezeigt. Danach
wird der Smith-Algorithmus fr die Berechnung der Elementarteiler einer m n-
Matrix Aber einemHauptidealring Rdargestellt. Schlielich wird gezeigt, da man
den Rang und die Elementarteiler eines endlich erzeugten R-Moduls M mittels des
Smith-Algorithmus aus der Relationenmatrix R einer freien Auflsung von M be-
rechnen kann. Fr euklidische Ringe R ergibt sich, da man die Elementarteiler von
A bzw. R sogar durch endlich viele elementare Spalten- und Zeilenumformungen
erhlt.
Alle in diesem Kapitel betrachteten Ringe R sind kommutativ und haben ein
Einselement.
304 11 Moduln ber Hauptidealringen
11.1 Eindeutige Faktorzerlegung in Hauptidealringen
In diesem Abschnitt wird die Arithmetik der nullteilerfreien, kommutativen Haupt-
idealringe R entwickelt. Insbesondere wird gezeigt, da jedes Element r = 0 von
R, das keine Einheit ist, sich eindeutig in Potenzen von Primelementen faktorisie-
ren lt. Im Spezialfall R = F[X] des Polynomrings in der Unbestimmten X ber
dem Krper F lt sich mittels des ebenfalls dargestellten euklidischen Algorith-
mus der grte gemeinsame Teiler von zwei gegebenen Elementen r, s R effektiv
berechnen.
11.1.1 Denition. Der Ring R heit nullteilerfrei, wenn ab = 0 stets a = 0 oder
b = 0 impliziert.
11.1.2 Bemerkung. In nullteilerfreien Ringen R gilt die Krzungsregel: ac = bc
mit c = 0 impliziert a = b. Dies folgt aus der Gleichung (a b)c = ac bc = 0.
11.1.3 Beispiele.
(a) Jeder Krper F ist nullteilerfrei.
(b) Der Polynomring R = F[X] ist nullteilerfrei.
(c) R =
_
a
b
Q | a, b Z, b wird nicht von 2 geteilt
_
ist ein nullteilerfreier
Ring.
So wie der Ring Z der ganzen Zahlen ein Unterring im Krper Q der ratio-
nalen Zahlen ist, so kann auch jeder nullteilerfreie kommutative Ring R in seinen
Quotientenkrper Q(R) eingebettet werden, wie nun gezeigt wird.
11.1.4 Satz. Sei R ein nullteilerfreier kommutativer Ring. Auf der Menge Maller
Paare (a, b) R R mit b = 0 sei die Relation deniert durch: (a, b)
(a
, b
= a
, b
) M | (a
, b
) (a, b)}
der Paare (a, b) Mbilden bezglich der
Addition
a
b
+
c
d
=
ad +bc
bd
und
Multiplikation
a
b
c
d
=
ac
bd
fr alle
a
b
,
c
d
Q einen kommutativen Krper.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen 305
(c) Durch die Einbettung r
r
1
Q fr alle r R wird R ein Unterring von Q
mit demselben Einselement 1 =
1
1
.
(d) Q ist ein R-Modul bezglich der Verknpfung
a
b
r =
ar
b
fr alle
a
b
Q und r R.
Der Krper Q = Q(R) heit der Quotientenkrper von R.
Beweis: (a) Trivialerweise ist reexiv und symmetrisch. Da R nullteilerfrei ist,
folgt aus ab
= a
b und a
= a
, da a(b
) = a
(bb
) = a
(b
b) und so auch
ab
= a
und
c
d
=
c
folgt
a
+
c
=
a
+b
=
ad+bc
bd
=
a
b
+
c
d
, weil (a
+ b
)bd = a
bdd
+ c
dbb
= ab
dd
+
cd
bb
= (ad +bc)b
.
Ebenso zeigt man die Wohldeniertheit der Multiplikation. Da R kommutativ
und assoziativ bezglich +und ist, folgt dies auch fr Q aus den Rechenregeln fr
die Addition und Multiplikation in Q. Ebenso gelten die Distributivgesetze. In Q ist
1 =
1
1
= {(a, a) | a R, a = 0} das Einselement, 0 =
0
1
= {(0, b) | b R, b =
0} das Nullelement und beide sind verschieden. Weiter hat jedes
a
b
= 0 aus Q das
Inverse
b
a
. Also ist Q ein Krper.
Die Behauptungen (c) und (d) sind nun einfach zu verizieren.
11.1.5 Denition. Ein Ring R heit euklidischer Ring, wenn er nullteilerfrei ist und
eine Norm : R \ {0} N besitzt, die folgende Bedingungen erfllt:
(a) Aus a = 0, b = 0 folgt (a b) (a).
(b) Zu je zwei Elementen a, b R mit b = 0 gibt es Elemente q, r R mit
a = b q +r und (r) < (b) oder r = 0 (Division mit Rest).
11.1.6 Beispiele.
(a) Z ist ein euklidischer Ring, wenn man die Norm durch (n) = |n| deniert.
(b) Der Polynomring F[X] ber einem Krper F wird durch die Normdenition
(f ) = Grad f zu einem euklidischen Ring.
(c) Die Division mit Rest kann im Polynomring F[X] nach dem bekannten Divi-
sionsschema erfolgen, das am Beispiel der Polynome
f (X) = 4X
3
+8X
2
+X 2, g(X) = 2X
2
+X +2
aus Q[X] erlutert sei. Man erhlt
306 11 Moduln ber Hauptidealringen
4X
3
+8X
2
+ X 2 = (2X
2
+X +2)(2X +3),
4X
3
+2X
2
+4X
6X
2
3X 2
6X
2
+3X +6
6X 8
also f = q g + r mit q(X) = 2X + 3 und r(X) = 6X 8, wobei auch
(r) = 1 < 2 = (g) erfllt ist.
11.1.7 Bemerkung. Die Ungleichung (b) fr die Normen wird beweistechnisch hu-
g folgendermaen ausgenutzt: Da die Normwerte (a) nicht-negative ganze Zahlen
sind, mu eine echt abnehmende Folge von Normwerten nach endlich vielen Glie-
dern abbrechen.
11.1.8 Denition. Der kommutative Ring R heit Hauptidealring (HIR), wenn er
nullteilerfrei ist und wenn jedes Ideal Y von R ein Hauptideal ist.
11.1.9 Satz. Jeder euklidische Ring R ist ein Hauptidealring.
Beweis: Sei Y = 0 ein Ideal von R. Sei : R N die Normfunktion des euklidi-
schen Ringes R. Die Menge M = {(y) | y Y, y = 0} von natrlichen Zahlen
besitzt ein kleinstes Element (y
0
). Nach Denition 11.1.5 (b) existieren zu jedem
y Y Elemente q, r R mit y = y
0
q + r derart, da (r) < (y
0
) oder r = 0
ist. Nun ist r = y y
0
q Y, weil Y ein Ideal von R ist. Da (y
0
) ein minimales
Element von Mist, folgt r = 0. Also ist y = y
0
q, woraus Y = y
0
R folgt.
11.1.10 Folgerung. (a) Der Ring Z der ganzen Zahlen ist ein Hauptidealring.
(b) Fr jeden Krper F ist der Polynomring R = F[X] ein Hauptidealring.
Beweis: Nach Bemerkung 11.1.6 sind Z und R = F[X] euklidische Ringe. Also
sind sie beide Hauptidealringe nach Satz 11.1.9.
11.1.11 Beispiel. R = Z[X] ist kein Hauptidealring, weil z. B. das Ideal Y =
2R + XR nicht von einem Element erzeugt wird. Denn wre Y = pR fr ein
Polynom p = p(X) = p
0
+p
1
X + +p
n
X
n
mit p
i
Z, 1 i n, dann wre
auch 2 Y von der Form 2 = p(X) r(X) fr ein r(X) R. Da 2 den Grad 0 in der
Unbestimmten X hat, folgt p = p
0
= 2. Wegen X Y wre dann aber X = 2g(X)
fr ein g(X) R. Widerspruch!
11.1.12 Denition. Zwei Elemente p, q Rheien assoziiert, wenn es eine Einheit
u R mit p = qu gibt.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen 307
11.1.13 Denition. Ein Element t R teilt das Element a R, wenn a = t r fr
ein r R gilt.
Bezeichnung: t |
| a.
11.1.14 Denition. Ein Element c R heit ein grter gemeinsamer Teiler (ggT)
von a, b R, wenn die beiden folgenden Bedingungen gelten:
(a) c |
| a und c |
| b.
(b) Fr jedes t R folgt aus t |
| a und t |
| b auch t |
| c.
Bezeichnung: ggT(a, b).
11.1.15 Denition. Ein Element v R heit ein kleinstes gemeinsames Vielfaches
(kgV) von a, b R, wenn die beiden folgenden Bedingungen gelten:
(a) a |
| v und b |
| v.
(b) Fr jedes y R folgt aus a |
| y und b |
| y auch v |
| y.
Bezeichnung: kgV(a, b).
11.1.16 Bemerkung. Ist u eine Einheit von R, so teilen u und u
1
jedes Element
von R. Zwei Elemente a, b Rsind daher genau dann assoziiert, wenn sie sich wech-
selseitig teilen. Zwei grte gemeinsame Teiler von a und b mssen sich gegenseitig
teilen, sind also assoziiert; und umgekehrt ist jedes zu einem grten gemeinsamen
Teiler assozierte Element ebenfalls ein grter gemeinsamer Teiler. Dieser ist also
durch a, b bis auf Assoziiertheit eindeutig bestimmt. Man spricht daher in diesem
Sinne von dem grten gemeinsamen Teiler. Entsprechendes gilt fr das kleinste
gemeinsame Vielfache.
Zwei Elemente a, b R heien teilerfremd, wenn ggT (a, b) = 1 ist.
11.1.17 Satz. Sei R ein Hauptidealring und seien a, b R. Dann gelten:
(a) c R ist ein ggT von a und b genau dann, wenn cR = aR +bR.
(b) v R ist ein kgV von a und b genau dann, wenn vR = aR bR.
Beweis: (a) Aus c cR = aR+bR folgt c|
| a und c|
| b. Ist t ein gemeinsamer Teiler
von a und b, so ist a = t a
1
t R und b = t b
1
t R. Hieraus folgt
cR = aR +bR t R +t R = t R.
Also ist c = t r fr ein r R.
Ist umgekehrt c = ggT(a, b), so ist aR cRund bR cR. Also gilt aR+bR
cR. Da R ein Hauptidealring ist, existiert ein d R mit dR = aR + bR. Es folgt
d |
| a und d |
| b. Deshalb gilt d |
| c, woraus cR dR und somit cR = aR +bR folgt.
308 11 Moduln ber Hauptidealringen
(b) Ist vR = aR bR, so ist v = au = br fr geeignete u, r R. Also ist
v ein Vielfaches von a und b. Ist w ein weiteres Vielfaches von a und b, so gilt
w = ax = by fr Elemente x, y R. Also ist w aR bR = vR. Daher ist
w = vz. Deshalb ist v ein kleinstes gemeinsames Vielfaches von a und b. Aus
v = kgV(a, b) folgt vR aR und vR bR. Da R ein Hauptidealring ist, ist
aR bR = dR fr ein d R. Also ist d ein Vielfaches von a und b, also auch von
v. Hieraus folgt
vR aR bR = dR vR, d. h. vR = aR bR.
11.1.18 Denition. Ein von Null verschiedenes Element p des nullteilerfreien Rin-
ges R heit Primelement oder prim, wenn es keine Einheit ist und wenn fr alle a,
b R aus p |
| ab stets p |
| a oder p |
| b folgt.
11.1.19 Denition. Ein von Null verschiedenes Element p R heit unzerlegbar,
wenn p keine Einheit in R ist und aus p = xy stets folgt, da entweder x oder y
eine Einheit ist.
11.1.20 Denition. Im Polynomring R = F[X] ber dem Krper F wird ein un-
zerlegbares Polynom p = p(X) ein irreduzibles Polynom genannt.
Ist F = R der Krper der reellen Zahlen, so ist z. B. p(X) = X
2
+ 1 ein
irreduzibles Polynom in R[X].
11.1.21 Hilfssatz. Sei R ein Hauptidealring. Dann gelten:
(a) Das Ideal Y = 0 von R ist maximal genau dann, wenn Y = mR fr ein
unzerlegbares Element m von R gilt.
(b) Die Hauptideale mR und m
1
R sind genau dann gleich, wenn ihre Erzeuger
m und m
1
assoziiert sind.
(c) Assoziierte unzerlegbare Elemente erzeugen dasselbe maximale Ideal.
Beweis: (a) Sei Y = mR = 0 ein maximales Ideal des Hauptidealringes R. An-
genommen, es gelte m = uv fr zwei Nichteinheiten u, v R. Insbesondere ist
Y = mR uR R. Da u keine Einheit ist, ist uR = R, weil sonst 1 = uz
fr ein z R wre. Da Y ein maximales Ideal von R ist, folgt Y = uR. Also ist
u uR = mR, d. h. u = mq fr ein q R. Hieraus folgt
u = mq = uvq und so u(1 vq) = 0.
Da R nullteilerfrei ist, gilt vq = 1, d. h. v ist eine Einheit in R. Aus diesem Wider-
spruch folgt, da m unzerlegbar ist.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen 309
Sei umgekehrt Y = mR fr ein unzerlegbares m R. Da m keine Einheit ist,
gilt Y = R. Wre Y kein maximales Ideal von R, dann gbe es ein Ideal M = R von
R mit Y < M. Da R Hauptidealring ist, gilt M = t R fr eine Nichteinheit t R.
Wegen m Y = mR t R folgt m = t w fr ein w R. Da m unzerlegbar und t
keine Einheit in R ist, mu w eine Einheit in R sein. Also gilt wz = 1 fr ein z R.
Hieraus ergibt sich t = t 1 = t wz = mz mR = Y, und so M = t R Y, woraus
Y = M im Widerspruch zu Y < M folgt. Also ist Y ein maximales Ideal von R.
(b) mR = m
1
R ist quivalent dazu, da sich m und m
1
gegenseitig teilen, d. h.
assoziiert sind.
(c) Folgt unmittelbar aus (a) und (b).
11.1.22 Satz. Sei R ein Hauptidealring. Dann ist das Element p = 0 von R genau
dann unzerlegbar, wenn es ein Primelement von R ist.
Beweis: Sei p = 0 ein unzerlegbares Element derart, da p |
| ab fr zwei Elemente
a, b R gilt. Dann ist ab pR. Nach Hilfssatz 11.1.21 ist Y = pR ein maximales
Ideal von R. Daher ist F = R/Y nach Satz 9.1.8 ein Krper. Wegen [a] [b] = [0]
F folgt [a] = [0] oder [b] = [0]. Also ist a Y = pR oder b Y = pR, d. h. p |
| a
oder p |
| b.
Sei umgekehrt p = 0 ein Primelement derart, da p = xy fr zwei Elemente x,
y R gilt. Man erhlt p |
| x oder p |
| y. Im ersten Fall gilt x = pr fr ein r R.
Hieraus folgt
p = xy = p(ry) und so p(1 ry) = 0.
Da R nullteilerfrei ist, ist 1 = ry. Deshalb ist y eine Einheit in R. Ebenso folgt im
zweiten Fall, da x eine Einheit in R ist. Daher ist p ein unzerlegbares Element im
Sinne der Denition 11.1.19.
Der letzte Teil dieses Beweises zeigt, da Primelemente schon in beliebigen
nullteilerfreien Ringen unzerlegbar sind. In Hauptidealringen bevorzugen wir das
Wort Primelement.
11.1.23 Beispiele.
(a) Jede Primzahl p Zist Primelement imHauptidealring Z. In Zsind 1 und 1
die einzigen Einheiten. Fr jede Zahl n Z sind genau n und n assoziiert.
(b) Ein Polynomf (X) C[X] ist nach dem Hauptsatz der Algebra (1.4.4) genau
dann ein Primelement, wenn f (X) = X c fr eine komplexe Zahl c C
gilt.
(c) Die Konstanten f = 0 aus dem Krper F sind die Einheiten im Polynomring
R = F[X]. Zwei Primelemente p(X), q(X) R = F[X] sind genau dann
assoziiert, wenn p(X) = f q(X) fr ein f = 0 aus F gilt.
310 11 Moduln ber Hauptidealringen
(d) Fr jede Primzahl p des Ringes Z der ganzen Zahlen ist der Restklassenring
Z/pZein endlicher Krper mit |p| Elementen. Dies folgt aus Hilfssatz 11.1.21
und Satz 9.1.8(b).
11.1.24 Denition. Ein nullteilerfreier kommutativer Ring R heit Ring mit eindeu-
tiger Faktorzerlegung (ZPE-Ring), wenn die beiden folgenden Bedingungen erfllt
sind:
(a) Jedes Element r R, das weder 0 noch eine Einheit ist, ist ein Produkt
von endlich vielen, nicht notwendig verschiedenen Primelementen p
i
, i =
1, 2, . . . , n, d. h.
r = p
1
p
2
. . . p
n
.
(b) Sind r = p
1
p
2
. . . p
n
= q
1
q
2
. . . q
m
zwei Zerlegungen des Elementes
r R in Primfaktoren p
i
bzw. q
j
, so gilt:
(i) n = m, und
(ii) es gibt eine Permutation der Ziffern {1, 2, . . . , n} derart, da p
i
asso-
ziiert ist zu q
(i)
.
11.1.25 Hilfssatz. Mit den Bezeichnungen von Denition 11.1.24 gilt: Die Bedin-
gung (b) ist eine Folge von (a).
Beweis: Angenommen, die Nichteinheit 0 = r R htte zwei Zerlegungen
r = p
1
p
2
. . . p
n
= q
1
q
2
. . . q
m
in Primfaktoren p
i
bzw. q
j
von R, wobei n m angenommen wird. Dann ist r kein
Primelement, weil sonst r = p
1
zu q
1
nach Hilfssatz 11.1.21 assoziiert wre.
Die Bedingung (b) von Denition 11.1.24 sei fr alle Primfaktorzerlegungen mit
n 1 Primelementen p
i
bewiesen. Da p
1
ein Primelement ist, folgt p
1
|
| q
j
fr ein
j {1, 2, . . . m}. Also existiert ein r
j
R mit q
j
= p
1
r
j
. Daher ist r
j
eine Einheit
nach Satz 11.1.22. Nach Umnumerierung kann angenommen werden, da j = 1
und
p
1
(p
2
p
3
. . . p
n
) = r = q
1
q
2
. . . q
m
= p
1
(r
1
q
2
q
3
. . . q
m
).
Da R nullteilerfrei ist, folgt
(r
1
1
p
2
)p
3
. . . p
n
= q
2
q
3
. . . q
m
durch Krzen. Das Produkt auf der linken Seite hat n 1 Primfaktoren. Also folgt
nach Induktionsannahme, da n = m, und da p
i
zu q
(i)
assoziiert ist, wobei
eine Permutation der Ziffern {1, 2, . . . , n} ist.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen 311
11.1.26 Hilfssatz. Sei R ein Hauptidealring. Dann ist jede echt aufsteigende Kette
Y
1
< Y
2
< < Y
k
< Y
k+1
< von Idealen Y
i
von R endlich.
Beweis: Wenn die Behauptung des Hilfssatzes falsch wre, dann gbe es eine ab-
zhlbar unendliche, echt aufsteigende Kette
Y
1
< Y
2
< Y
3
< < Y
k
< Y
k+1
< ()
von Idealen Y
k
, k = 1, 2, . . . , von R. Sei Y =
k=1
Y
k
. Dann ist Y ein Ideal von R:
Aus y
1
, y
2
Y folgt y
1
Y
i
und y
2
Y
j
fr geeignete Indizes i, j. Da Y
i
und Y
j
zur Kette () gehren, kann Y
i
< Y
j
angenommen werden. Also sind y
1
, y
2
Y
j
.
Da Y
j
ein Ideal von R ist, ist y
1
+y
2
Y
j
Y. Ebenso zeigt man, da yr Y fr
alle y Y und r R gilt. Daher gibt es ein y Y mit Y = yR; denn R ist ein
Hauptidealring. Wegen Y =
k=1
Y
k
gibt es eine kleinste natrliche Zahl k 1 mit
y Y
k
. Dann ist Y = yR Y
k
< Y
k+1
Y. Aus diesem Widerspruch folgt die
Gltigkeit der Behauptung.
11.1.27 Satz. Jeder Hauptidealring R ist ein ZPE-Ring.
Beweis: Wegen Hilfssatz 11.1.25 ist nur die Bedingung (a) der Denition 11.1.24
nachzuweisen. Angenommen, die Nichteinheit 0 = r R liee sich nicht in ein
Produkt p
1
p
2
. . . p
n
von endlich vielen Primelementen p
i
aus R zerlegen. Dann ist
r kein Primelement. Nach Satz 11.1.22 ist r nicht unzerlegbar, d. h. r = r
0
= r
1
s
1
,
wobei weder r
1
noch s
1
Einheiten in R sind; auerdem kann angenommen werden,
da r
1
kein Produkt von Primelementen ist. Nach Hilfssatz 11.1.21(b) folgt rR =
r
0
R < r
1
R, weil s
1
keine Einheit ist. Wendet man nun dieses Argument auf r
1
an,
so erhlt man schlielich eine unendlich echt aufsteigende Kette r
0
R < r
1
R <
r
2
R < . Dies widerspricht Hilfssatz 11.1.26.
Der grte gemeinsame Teiler und das kleinste gemeinsame Vielfache existie-
ren allgemeiner auch in ZPE-Ringen und knnen in bekannter Weise mittels Prim-
faktorzerlegung bestimmt werden. Speziell in euklidischen Ringen gibt es fr ihre
Berechnung einen Algorithmus.
11.1.28 Satz (Euklidischer Algorithmus). Sei R ein euklidischer Ring mit Norm .
Dann berechnet man den grten gemeinsamen Teiler von zwei Elementen a
0
und
a
1
aus R durch folgende Kette von Divisionen mit Rest:
a
0
= q
1
a
1
+a
2
mit (a
2
) < (a
1
),
a
1
= q
2
a
2
+a
3
mit (a
3
) < (a
2
),
.
.
.
a
n2
= q
n1
a
n1
+a
n
mit (a
n
) < (a
n1
),
a
n1
= q
n
a
n
.
Dann ist a
n
= ggT(a
0
, a
1
). Weiter ist kgV(a
0
, a
1
) =
a
0
a
1
a
n
.
312 11 Moduln ber Hauptidealringen
Beweis: Nach Bemerkung 11.1.7 mu in dieser Kette nach endlich vielen Schritten
der Rest Null auftreten. Aus der letzten Gleichung folgt a
n
|
| a
n1
, aus der vorletzten
a
n
|
|a
n2
. So fortfahrend ergibt sich schlielich aus der zweiten Gleichung a
n
|
|a
1
und
aus der ersten a
n
|
| a
0
. Daher ist a
n
gemeinsamer Teiler von a
0
und a
1
. Gilt umgekehrt
d |
| a
0
und d |
| a
1
, so folgt aus der ersten Gleichung d |
| a
2
und nach Durchlaufung
der Kette schlielich d |
| a
n
. Daher ist a
n
auch grter gemeinsamer Teiler, und
kgV(a
0
, a
1
) = (a
0
a
1
)(a
n
)
1
.
11.2 Torsionsmodul eines endlich erzeugten Moduls
In diesem Abschnitt ist R stets ein nullteilerfreier kommutativer Ring. Es wird ge-
zeigt, da die Menge T (M) der Torsionselemente eines R-Moduls M einen Unter-
modul T (M) bilden. Er heit Torsionsuntermodul von M und spielt in der Modul-
theorie eine wichtige Rolle. Ist R ein Hauptidealring und M ein endlich erzeugter
R-Modul, dann besagt das Hauptergebnis dieses Abschnitts, da M eine direkte Zer-
legung M = T (M) U in den Torsionsuntermodul T (M) von M und einen freien
R-Untermodul U besitzt.
11.2.1 Denition. Sei M ein R-Modul ber demnullteilerfreien kommutativen Ring
R. Ein Element m M heit ein Torsionselement, wenn mr = 0 fr ein r = 0 aus
R gilt. M heit torsionsfrei, wenn 0 das einzige Torsionselement von M ist.
11.2.2 Hilfssatz. Sei Rein nullteilerfreier kommutativer Ring. Dann gelten fr jeden
R-Modul M die folgenden Aussagen:
(a) Die Gesamtheit T (M) der Torsionselemente von M ist ein Untermodul von
M.
(b) M/T (M) ist torsionsfrei.
Beweis: (a) Sind m
1
, m
2
T (M), dann existieren 0 = r
i
R mit m
i
r
i
= 0
fr i = 1, 2. Da R nullteilerfrei ist, gilt c = r
1
r
2
= 0. Nun ist (m
1
+ m
2
)c =
(m
1
r
1
)r
2
+ (m
2
r
2
)r
1
= 0 + 0 = 0. Ebenso folgt m
1
(r
1
r) = (mr
1
)r = 0 fr alle
r R. Also ist T (M) ein Untermodul von M.
(b) Sei [m] = m+T (M) ein Torsionselement von M/T (M). Dann existiert ein
0 = r R mit [m] r = 0. Nach Hilfssatz 9.2.14 ist dann mr T (M). Also gibt
es ein 0 = s R mit (mr)s = 0. Da R nullteilerfrei ist, gilt rs = 0. Deshalb ist
m T (M) und [m] = 0.
11.2.3 Denition. Sei M ein R-Modul. Der nach Hilfssatz 11.2.2 eindeutig be-
stimmte Untermodul T (M) aller Torsionselemente von M heit der Torsionsunter-
modul von M.
11.2 Torsionsmodul eines endlich erzeugten Moduls 313
M heit Torsionsmodul, wenn M = T (M) gilt.
11.2.4 Hilfssatz. Sei R ein nullteilerfreier Ring. Dann gelten:
(a) Epimorphe Bilder von Torsionsmoduln sind Torsionsmoduln.
(b) Summen von Torsionsmoduln sind Torsionsmoduln.
Beweis: (a) Sei ein R-Modulepimorphismus vom Torsionsmodul M auf N. Ist
mr = 0 fr m M und 0 = r R, so ist (m) r = (mr) = 0. Also ist
N = (M) Torsionsmodul.
(b) Zeigt man analog wie die Aussage (a) von Hilfssatz 11.2.2, weil in einer
Summe jedes Element eine Darstellung als Summe von endlich vielen Summanden
hat, die in diesem Fall alle Torsionselemente sind.
Fr endlich erzeugte torsionsfreie R-Moduln M ber einem Hauptidealring R
wird nun der Basissatz bewiesen, der dem fr endlich-dimensionale Vektorrume
entspricht.
11.2.5 Hilfssatz. Sei M ein endlich erzeugter R-Modul ber dem Hauptidealring
R mit einem Erzeugendensystem S, das aus k Elementen besteht. Dann wird jeder
Untermodul U von M von hchstens k Elementen erzeugt.
Beweis: Durch vollstndige Induktion nach k. Ist k = 1, so ist M = mR. Die
Abbildung : r mr, r R, ist ein R-Modulepimorphismus von R auf M = mR
mit Ker() = {s R | ms = 0}. Sei U ein Untermodul von M. Nach Satz 9.2.12
ist Y = {t R | (t ) = mt U} ein R-Untermodul von R mit (Y) = U und
Ker() Y. Da jeder Untermodul des Hauptidealrings R ein Hauptideal ist, gilt
Y = yR fr ein y Y. Hieraus folgt, U = (Y) = (y)R. Also wird auch U von
einem Element erzeugt.
Unter der Voraussetzung, da die Behauptung des Hilfssatzes fr k = n 1 gilt,
wird sie nun fr k = n bewiesen.
Sei M = m
1
R + + m
n
R von den n Elementen m
i
M erzeugt. Ist D =
Um
n
R, dann ist D nach demFall k = 1 ein zyklischer R-Modul, d. h. D = dR fr
ein d D. Nun ist U/D
= (U+m
n
R)/m
n
R = V nach demzweiten Isomorphiesatz
9.2.17. Sicherlich ist V = (U + m
n
R)/m
n
R ein R-Untermodul des Faktormoduls
M = M/m
n
R, der von den n 1 Elementen [m
i
] = m
i
+ m
n
R
M, i =
1, . . . , n1, erzeugt wird. Also wird auch V nach Induktionsannahme von hchstens
n1 Elementen erzeugt. Seien [v
i
] = u
i
+m
n
R V mit u
i
U, i = 1, . . . , s und
s n 1 Erzeuger des R-Moduls V. Dann wird U nach Hilfssatz 9.4.5 (b) von den
Elementen u
1
, . . . , u
s
und d erzeugt.
314 11 Moduln ber Hauptidealringen
11.2.6 Denition. Ist M ein endlich erzeugter R-Modul, dann ist ein endliches Er-
zeugendensystem S ein Erzeugendensystem von kleinster Elementzahl, wenn jedes
andere Erzeugendensystem T von M mindestens soviele Elemente enthlt wie S.
Da die Menge der natrlichen Zahlen wohlgeordnet ist, besitzt jeder endlich
erzeugte R-Modul M ein Erzeugendensystem von kleinster Elementzahl.
11.2.7 Satz. Jeder endlicherzeugte, torsionsfreie R-Modul M ber demHauptideal-
ring R ist frei. Insbesondere ist jedes endliche Erzeugendensystem S = {m
i
M |
1 i k} von kleinster Elementzahl eine Basis von M.
Beweis: Nach Denition 9.4.3 gengt es, die zweite Behauptung zu beweisen. Sei
S = {m
i
M | 1 i k} ein Erzeugendensystem von kleinster Elementzahl k
von M.
Ist k = 1, so ist M = m
1
R. Da M torsionsfrei ist, ist S = {m
1
} eine Basis von
M. Es wird nun angenommen, da die Behauptung fr k 1 gilt.
Sei Q der nach Satz 11.1.4 existierende Quotientenkrper von R. Da M ein
torsionsfreier R-Modul ist, ist die Abbildung : M M
R
Q, die durch (m) =
m1 fr alle m M deniert ist, ein R-Modulmonomorphismus. Daher ist S
=
{(m
i
) = m
i
1 | 1 i k} ein Erzeugendensystemdes Q-Vektorraums M
R
Q;
denn M
R
Q =
k
i=1
(m
i
)Q, weil M =
k
i=1
m
i
R.
Wre S linear abhngig ber R, dann wre
m
1
r
1
+m
2
r
2
+ +m
k
r
k
= 0 fr geeignete r
i
R,
die nicht alle gleich Null sind. Hieraus folgt
(m
1
)r
1
+(m
2
)r
2
+ +(m
k
)r
k
= 0.
Daher enthlt das ErzeugendensystemS
= {(m
i
) | 1 i k} von M
R
Qnach
Satz 2.2.7 eine echte Teilmenge B, die eine Basis des Q-Vektorraums M
R
Q ist.
Nach Umnumerierung kann angenommen werden, da
B = {(m
j
) | 1 j s} und s < k.
Insbesondere hat jedes (m
i
), 1 i k, eine eindeutige Darstellung
(m
i
) =
s
j=1
(m
j
)q
ij
mit geeigneten q
ij
Q.
Nach Satz 11.1.4 ist q
ij
=
a
ij
b
ij
mit a
ij
R und 0 = b
ij
R. Sei 0 = d R ein
nach Satz 11.1.17 (b) existierender Hauptnenner der q
ij
. Dann ist r
ij
= dq
ij
R
fr alle 1 i k und 1 j s. Weiter gilt, da
(m
i
) =
s
j=1
(m
j
)q
ij
=
s
j=1
[(m
j
)d
1
]r
ij
fr alle 1 i k.
11.3 Primrzerlegung 315
Also ist (M) =
k
i=1
(m
i
)R
s
j=1
[(m
j
)d
1
]R = U.
Da der R-Untermodul U von M
R
Q eine Basis
B
= {(m
j
)d
1
| 1 j s}
von s Elementen besitzt, wird nach Hilfssatz 11.2.5 auch der R-Untermodul
(M) von U von hchstens s Elementen erzeugt. Sicherlich ist ein R-
Modulisomorphismus von M auf (M). Also wird auch der R-Modul M von s < k
Elementen erzeugt. Dann ist aber S kein Erzeugendensystem von kleinster Elem-
entzahl k von M. Dieser Widerspruch beendet den Beweis.
Nach all diesen Vorbereitungen ist es nun einfach, den Hauptsatz dieses Ab-
schnitts zu beweisen.
11.2.8 Satz. Ist M ein endlich erzeugter R-Modul ber dem Hauptidealring R, so
gilt
M = T (M) U,
wobei der Untermodul U von M ein endlich erzeugter, freier R-Modul ist. Je zwei
Basen von U haben gleich viele Elemente.
Beweis: Nach Hilfssatz 11.2.2 ist M/T (M) ein endlich erzeugter, torsionsfreier R-
Modul. Wegen Satz 11.2.7 ist M/T (M) ein freier R-Modul. Nach Satz 9.4.8 gibt es
daher einen R-Untermodul U von M mit M = U + T (M), U T (M) = 0, und
U
= M/T (M). Daher ist U ein freier R-Modul. Nach Satz 9.4.6 sind je zwei Basen
B und B
von U gleichmchtig.
11.2.9 Denition. Sei M ein endlich erzeugter R-Modul ber dem Hauptidealring
R. Der Rang rg(M) von M ist die nach Satz 11.2.8 eindeutig bestimmte Anzahl
der Elemente einer Basis des freien R-Moduls
M = M/T (M), wobei T (M) der
Torsionsmodul von M ist.
11.3 Primrzerlegung
Die Struktur der endlich erzeugten Moduln ber einem Hauptidealring R ist voll-
stndig durch Satz 11.2.8 bestimmt, wenn die Struktur der endlich erzeugten Torsi-
onsmoduln bekannt ist. Deshalb werden in diesemAbschnitt die Torsionsmoduln in
ihre p-Komponenten zerlegt. Hierzu wird folgende Denition eingefhrt.
11.3.1 Denition. Sei p ein Element des Hauptidealrings R. Die p-Komponente M
p
des R-Moduls M ist
M
p
= {m M | mp
k
= 0 fr eine natrliche Zahl k = k(m)}.
316 11 Moduln ber Hauptidealringen
Ist p ein Primelement, so heit M
p
die Primrkomponente zum Primelement p von
R, oder auch die p-Primrkomponente.
11.3.2 Hilfssatz. Sind p und q zwei teilerfremde, von Null verschiedene Elemente
des Hauptidealrings R, so gilt fr jeden R-Modul M stets:
M
p
M
q
= 0.
Beweis: Da die Elemente p und q teilerfremd sind, ist ggT (p
u
, q
v
) = 1 fr alle
natrlichen Zahlen u und v. Ist m M
p
M
q
, dann ist mp
u
= 0 = mq
v
mit
natrlichen Zahlen u, v. Nach Satz 11.1.17 existieren Elemente a, b R derart, da
1 = p
u
a +q
v
b. Also ist m = m 1 = mp
u
a +mq
v
b = 0 +0 = 0.
11.3.3 Denition. Sei M ein R-Modul ber dem Ringe R. Dann heit
Ann(M) = {r R | mr = 0 fr alle m M}
der Annullator des Moduls M.
Ist m ein Element des R-Moduls M, so heit Ann(m) = {r R | mr = 0} der
Annullator von m.
11.3.4 Hilfssatz. Sei M ein R-Modul ber dem Ring R. Dann gelten:
(a) Der Annullator Ann(M) von M ist ein Ideal des Ringes R.
(b) Der Annullator Ann(m) eines Elementes m M ist ein Ideal von R.
(c) Ist M =
k
i=1
m
i
R ein endlich erzeugter R-Modul, so ist
Ann(M) =
k
_
i=1
Ann(m
i
).
Beweis: (a) Seien r
1
, r
2
Ann(M) und r R. Dann gelten fr alle m M die
Gleichungen
m(r
1
r
2
) = mr
1
mr
2
= 0 0 = 0, (1)
m(r
1
r) = (mr
1
)r = 0 r = 0. (2)
(b) wird analog gezeigt.
(c) Sicherlich ist Ann(M) Ann(m
i
) fr i = 1, 2, . . . , k. Sei umgekehrt r
_
k
i=1
Ann(m
i
) und m M. Dann existieren Elemente r
i
R mit m =
k
i=1
m
i
r
i
,
weil die Elemente m
1
, m
2
, . . . , m
k
den R-Modul M erzeugen. Hieraus folgt nun
mr =
_
k
i=1
m
i
r
i
_
r = (m
1
r)r
1
+(m
2
r)r
2
+ +(m
k
r)r
k
= 0.
Daher ist r Ann(M).
11.3 Primrzerlegung 317
11.3.5 Satz. Sei R ein Hauptidealring und M ein endlich erzeugter Torsionsmodul
ber R. Dann gelten folgende Aussagen:
(a) Der Annullator des R-Moduls M ist ein von Null verschiedenes Hauptideal
Ann(M) = rR von R. Das Element r ist durch M bis auf Assoziiertheit
eindeutig bestimmt.
(b) Ist r = p
k
1
1
. . . p
k
t
t
eine Faktorzerlegung von r R in Potenzen paarweise
nicht assoziierter Primelemente, so gilt
M = M
p
1
M
p
2
M
p
t
.
Die Zerlegung von M in seine Primrkomponenten M
p
i
ist eindeutig.
Beweis: (a) Sei S = {m
i
| 1 i n} ein Erzeugendensystem von kleinster
Elementzahl von M. Da M ein Torsionsmodul ist, existiert zu jedemm
i
ein r
i
= 0 in
R derart, da m
i
r
i
= 0. Also sind dieAnnullatoren Ann(m
i
) = 0 fr i = 1, 2, . . . , n.
Nach Hilfssatz 11.3.4 ist der Annullator von M das Ideal
Ann(M) =
n
_
i=1
Ann(m
i
).
Da R ein Hauptidealring ist, existieren nach Hilfssatz 11.1.21 bis auf Assoziiertheit
eindeutig bestimmte Elemente s
i
Rderart, da Ann(m
i
) = s
i
R. Nach Satz 11.1.17
ist
Ann(M) =
n
_
i=1
Ann(m
i
) =
n
_
i=1
(s
i
R) = rR,
wobei r = 0 ein kleinstes gemeinsames Vielfache der Elemente s
i
ist. Daher ist r
durch M bis auf Multiplikation mit Einheiten aus R durch M eindeutig bestimmt.
(b) Nach Satz 11.1.27 hat r die eindeutige Primfaktorzerlegung r =
t
i=1
p
k
i
i
,
wobei die Primelemente p
i
und p
j
paarweise nicht assoziiert sind, wenn t 2. Ist
t = 1, so gilt (b) nach (a). Die Behauptung (b) sei fr alle r mit t 1 verschiedenen
Primteilern p
i
bewiesen. Sei p = p
k
1
1
und q = q
k
2
2
p
k
3
3
. . . p
k
t
t
. Die Elemente p, q
R sind teilerfremd. Nach Hilfssatz 11.3.2 sind M
p
und M
q
zwei R-Untermoduln
von M mit M
p
M
q
= 0. Fr jedes m M ist mr = (mp)q = (mq)p = 0 nach
(a). Also ist mp M
q
und (mq) M
p
. Wegen ggT (p, q) = 1 existieren nach
Satz 11.1.17 Elemente a, b R mit 1 = pa +qb. Also ist
m = m1 = (mp)a +(mq)b M
q
+M
p
.
Daher ist M = M
p
M
q
, wobei M
p
= M
p
1
und nach Induktionsannahme M
q
=
t
i=2
M
p
i
ist. Also gilt (b).
318 11 Moduln ber Hauptidealringen
Die p
i
-Primrkomponenten M
p
i
sind durch die eindeutige Faktorzerlegung
r =
t
i=1
p
k
i
i
von r eindeutig bestimmte Teilmengen von M, und zwar gilt
M
p
i
= {m M | mp
k
i
i
= 0} fr i = 1, . . . , t . Also ist die direkte Zerlegung
M =
t
i=1
M
p
i
eindeutig.
11.3.6 Denition. Sei R ein Hauptidealring und M ein endlich erzeugter Torsions-
modul ber R. Das nach Satz 11.3.5 durch Ann(M) = rR bis auf Assoziiertheit
eindeutig bestimmte Element r heit die Ordnung von M.
Bezeichnung: o(M) = r.
11.3.7 Denition. Die Ordnung r eines Elementes 0 = m M ist ein Erzeuger des
Hauptideals Ann(m) = {q R | mq = 0 in M} = rR.
Bezeichnung: o(m) = r.
Nach Hilfssatz 11.1.21 ist r bis auf assoziierte Elemente durch m eindeutig
bestimmt.
11.3.8 Folgerung. (a) Ist M ein endlich erzeugter Torsionsmodul ber dem
Hauptidealring R, dann sind die Primrkomponenten M
p
i
von M eindeutig
durch die Ordnung r = o(M) R bestimmt.
(b) Ist r = p
k
1
1
p
k
2
2
. . . p
k
t
t
eine Primfaktorzerlegung der Ordnung r = o(M) von
M in Potenzen paarweise nicht assoziierter Primelemente p
i
von R, so hat
die p
i
-Primrkomponente M
p
i
von M fr jedes i = 1, 2, . . . , t die Ordnung
o(M
p
i
) = p
k
i
i
.
Beweis: (a) folgt unmittelbar aus Denition 11.3.6 und den Stzen 11.3.5
und 11.1.27.
(b) folgt unmittelbar aus Denition 11.3.1, Hilfssatz 11.3.4 (c) und Satz 11.3.5.
11.4 Struktursatz fr endlich erzeugte Moduln
In diesemAbschnitt wird der Beweis des Struktursatzes fr endlich erzeugte Moduln
M ber Hauptidealringen beendet, indem gezeigt wird, da jede Primrkomponente
M
p
von M eine bis auf Isomorphie eindeutig bestimmte direkte Summe von zykli-
schen Moduln ist.
11.4.1 Denition. Sei p ein Primelement des Hauptidealringes R. Ein R-Modul M
heit p-Modul, wenn M = M
p
ist.
11.4.2 Hilfssatz. Sei p ein Primelement des Hauptidealringes R. Sei M ein endlich
erzeugter p-Modul der Ordnung o(M) = p
e
. Dann gibt es ein 0 = m M der
Ordnung o(m) = p
e
und einen R-Untermodul U von M derart, da gilt:
11.4 Struktursatz fr endlich erzeugte Moduln 319
(a) M = mR U und mR
= R/p
e
R.
(b) U wird von weniger Elementen als M erzeugt.
Beweis: (a) Sei S = {m
i
M | 1 i n} ein Erzeugendensystem von kleinster
Elementzahl n von M. Wegen o(M) = p
e
gilt o(m
i
) p
e
fr i = 1, 2, . . . , n.
Da jedes m M die Darstellung m =
n
i=1
m
i
r
i
fr geeignete r
i
R hat, mu
mindestens ein m
i
die Ordnung o(m
i
) = p
e
haben. Nach Umnumerierung kann
i = 1 gewhlt werden. Im folgenden ist m = m
1
dieses Element.
Nach demLemma 1.1.9 von Zorn gibt es unter den R-Untermoduln S von M mit
mR S = 0 einen maximalen, der mit U bezeichnet sei. Wre M
= mR U ein
echter Untermodul von M, dann gbe es ein z M mit z M
. Wegen zp
e
= 0 M
, aber zp
k
/ M
. Sei y = zp
k
. Dann
ist y M, y / M
und yp M
. Deshalb ist
yp = mr
1
+s fr ein r
1
R und s U.
Wegen p
e
= o(M) folgt nun 0 = (yp)p
e1
= (mr
1
)p
e1
+ sp
e1
und so
(mr
1
)p
e1
= sp
e1
mR U = 0. Also ist r
1
p
e1
Ann(m) = p
e
R, woraus
r
1
= r
1
p fr ein r
1
R folgt.
Sei v = y mr
1
. Dann ist
vp = (y mr
1
)p = yp mr
1
p = mr
1
+s mr
1
= s. ()
Wegen y M
ist v = y mr
1
M
.
Wre p kein Teiler von c, dann wre 1 = ca + pb fr geeignete a, b R. Hieraus
folgt
v = v 1 = (vc)a +(vp)b = (vc)a +sb M
+U = M
im Widerspruch zu v M
R mit c = c
p. Wegen ()
und () ergibt sich daher:
0 = mt = vc +s
1
= (vp)c
+s
1
= sc
+s
1
U mR = 0.
Aus diesem Widerspruch folgt, da M = mR U.
Der Epimorphismus r mr von R auf mR hat den Kern Ann(m) = p
e
R. Nach
dem ersten Isomorphiesatz 9.2.16 folgt mR
= R/p
e
R.
(b) Da m = m
1
zum Erzeugendensystem von kleinster Elementzahl S gehrt,
wird M/mR von den n1 Restklassen [u
i
] = m
i
+mR, 2 i n erzeugt. Wegen
U
= M/mR hat U daher ein kleineres Erzeugendensystem als M.
320 11 Moduln ber Hauptidealringen
11.4.3 Satz. Sei M ein endlich erzeugter p-Modul ber einem Hauptidealring R.
Dann gelten:
(a) M ist eine direkte Summe M = M
1
M
2
M
k
von endlich vielen,
zyklischen p-Moduln M
i
.
(b) Jeder der zyklischen Moduln M
i
ist isomorph zu R/(p
e
i
)R, wobei die natrli-
che Zahl e
i
> 0 eindeutig durch die Ordnung o(M
i
) von M
i
und damit durch
M bestimmt ist.
Beweis: (a) Durch vollstndige Induktion nach der Anzahl k eines Erzeugenden-
systems S = {m
i
| 1 i k} von M von kleinster Elementzahl. Ist k = 1,
so ist (a) trivial. Sei also k > 1. Dann gibt es nach Hilfssatz 11.4.2 ein Element
0 = m M mit o(m) = p
e
1
und einen Untermodul U von M mit M = mR U
und mR
= R/p
e
1
R. Weiter wird U nach (b) von Hilfssatz 11.4.2 von k 1 Ele-
menten erzeugt. Sei p
e
2
= o(U) = o(M/mR). Da U ein Untermodul von M
ist, gilt e
1
e
2
. Die Aussagen (a) und (b) folgen nun alle durch vollstndige In-
duktion. Die Exponenten e
i
sind durch M eindeutig bestimmt, weil p
e
1
= o(M),
p
e
2
= o(U) = o(M/mR) und damit auch die Exponenten p
e
i
mit 2 i k durch
vollstndige Induktion eindeutig durch M bestimmt sind.
11.4.4 Denition. Wenn man die direkten Summanden M
i
des p-Moduls M =
k
i=1
M
i
so ordnet, da
e
1
e
2
e
k
> 0
gilt, dann sind diese Exponenten e
i
durch M eindeutig bestimmt und heien die
Elementarteilerexponenten des p-Moduls.
11.4.5 Satz. Sei p ein Primelement des Hauptidealringes R. Sei M ein endlich
erzeugter p-Modul. Dann gelten:
(a) F = R/pR ist ein Krper.
(b) M(p) = {m M | mp = 0} ist ein endlich-dimensionaler F-Vektorraum mit
dim
F
M(p) = k, wobei k die Anzahl der Elemente eines Erzeugendensystems
S kleinster Elementzahl von M ist.
Beweis: (a) F = R/pR ist ein Krper nach Satz 9.1.8, weil Y = pR nach
Satz 11.1.22 und Hilfssatz 11.1.21 ein maximales Ideal von R ist.
(b) Sei o(M) = p
e
. Sicherlich ist M(p) ein R-Untermodul von M. Wegen
mp = 0 fr alle m M(p) wird M(p) ein F-Vektorraum vermge der Operation
m[r] = m r fr alle [r] = r +pR F.
11.4 Struktursatz fr endlich erzeugte Moduln 321
Diese Multiplikation von F auf M ist wohldeniert, weil aus [r] = [r
] F = R/Y
stets r r
Y = pR und so 0 = m(r r
) = mr mr
, d. h. mr = mr
, folgt.
Ist M ein zyklischer R-Modul, so ist M
= R/p
e
R und M(p)
= p
e1
R/p
e
R
=
R/pR = R/Y = F. Also ist dim
F
M(p) = 1.
M besitze nun ein Erzeugendensystem S von kleinster Elementzahl k. Wegen
o(M) = p
e
hat M nach Hilfssatz 11.4.2 ein Element m mit o(m) = p
e
und einen
R-Untermodul U derart, da M = mR U, mR = R/p
e
R und U
= M/mR von
k 1 Elementen erzeugt wird. Sicherlich ist
M(p) = (mR)(p) U(p).
Nach Induktion ist dann
dim
F
M(p) = dim
F
(mR)(p) +dim
F
U(p) = 1 +(k 1) = k.
11.4.6 Satz. Zwei p-Moduln M und N sind genau dann isomorph, wenn sie diesel-
ben Elementarteilerexponenten e
1
e
2
e
k
> 0 haben.
Beweis: Besitzen die p-Moduln M und N dieselben Elementarteilerexponenten,
dann folgt aus Satz 11.4.3, da
M
=
k
i=1
R/p
e
i
R
= N.
Seien umgekehrt die beiden p-Moduln M und N isomorph. Dann ist F = R/pR
ein Krper, und die F-Vektorrume M(p) und N(p) sind isomorph. Nach Hilfs-
satz 11.4.5 folgt dim
F
M(p) = k = dim
F
N(p), wobei k die Anzahl der Elementar-
teiler von M und somit auch von N ist. Wegen M
= N ist o(M) = p
e
= o(N).
Also stimmen die ersten Elementarteilerexponenten von M und N berein. Nach
Hilfssatz 11.4.2 gibt es daher Elemente m M und n N mit o(m) = p
e
= o(n)
und R-Untermoduln U von M und V von N derart, da
M = mR U und N = nR V, wobei mR
= R/p
e
R
= nR.
Wegen M
= N und M/mR
= N/nR folgt U
= V. Da U und V nach Hilfs-
satz 11.4.2 von k1 Elementen erzeugt werden knnen, folgt jetzt nach vollstndiger
Induktion, da U und V dieselben Elementarteilerexponenten haben.
Fat man nun die Stze 11.2.8, 11.3.5, 11.4.3 und 11.4.6 zusammen, dann erhlt
man den Struktursatz fr endlich erzeugte Moduln ber Hauptidealringen.
11.4.7 Satz. Sei M ein endlich erzeugter R-Modul vom Range rg(M) = m ber
dem Hauptidealring R. Dann gelten folgende Aussagen:
322 11 Moduln ber Hauptidealringen
(a) M = T (M) U, wobei T (M) der Torsionsmodul von M und U ein freier
R-Untermodul von M mit U
= R
m
ist.
(b) Ist r = p
k
1
1
p
k
2
2
. . . p
k
t
t
eine Primfaktorzerlegung der Ordnung o(T (M)) des
Torsionsmoduls mit paarweise nicht assoziierten Primelementen p
i
R, dann
besitzt der Torsionsmodul eine direkte Zerlegung
T (M) =
t
i=1
T (M)
p
i
in seine p
i
-Primrkomponenten T (M)
p
i
mit Ordnung o(T (M)
p
i
) = p
k
i
i
.
(c) Jede p
i
-Primrkomponente ist eine direkte Summe T (M)
p
i
=
r
i
j
i
=1
M
ij
i
von endlich vielen zyklischen Untermoduln M
ij
i
= R/p
e
ij
i
i
R, wobei die Ele-
mentarteilerexponenten e
ij
i
zum Primelement p
i
so geordnet werden knnen,
da k
i
= e
i1
e
i2
e
ir
j
> 0 gilt.
(d) Der R-Modul M ist bis auf R-Modulisomorphie eindeutig durch seine folgen-
den Invarianten bestimmt: rg(M) = m, o(T (M)) = r = p
k
1
1
p
k
2
2
. . . p
k
t
t
und
alle Elementarteilerexponenten e
ij
i
, 1 j
i
r
i
, eines jeden Primteilers p
i
von r, 1 i t .
11.4.8 Bemerkung. Da jedes Hauptideal Y = 0 des Ringes Z der ganzen Zahlen
nach dem Beweis von Satz 11.1.9 von der kleinsten positiven Zahl y Y erzeugt
wird, ist y eine der beiden Ordnungen der zyklischen Gruppe Z/yZ im Sinne der
Denition 11.3.6, denn +y und y sind die einzigen zu y assoziierten ganzen Zahlen.
Da y dieAnzahl der Elemente der zyklischenGruppe Z/yZist, ist y auchdie Ordnung
|Z/yZ| der zyklischen Gruppe Z/yZ im Sinne der Denition 1.3.1.
11.4.9 Folgerung (Basissatz fr abelsche Gruppen). Sei A eine endlich erzeugte
abelsche Gruppe vom Range rg(A) = m. Sei o((T (A)) =
t
i=1
p
k
i
i
die Faktor-
zerlegung der Ordnung o(T (A)) = r Z
k
i
der Torsionsgruppe T (A) von A in
Primzahlpotenzen p
k
i
i
verschiedener positiver Primzahlen p
i
, 1 i t . Bei festem
Index i seien die Elementarteilerexponenten e
ij
von A zur Primzahl p
i
so geordnet,
da k
i
= e
i1
e
i2
e
ir
i
> 0. Dann gelten die folgenden Aussagen:
(a) A = T (A) P, wobei P eine freie abelsche Untergruppe von A mit P
= Z
m
ist.
(b) Die Torsionsgruppe T (A) ist eine direkte Summe von endlich vielen zyklischen
Gruppen Z
ij
von p
i
-Potenzordnung |Z
ij
| = p
e
ij
i
, 1 j r
i
.
(c) T (A) ist endlich und hat |T (A)| =
t
i=1
p
h
i
i
Elemente, wobei h
i
=
r
i
j=1
e
ij
fr i = 1, 2, . . . , t ist.
11.4 Struktursatz fr endlich erzeugte Moduln 323
Insbesondere ist jede endlich erzeugte abelsche Gruppe A isomorph zu einer
direkten Summe von endlich vielen zyklischen Gruppen.
Zwei endlich erzeugte abelsche Gruppen A und B sind genau dann isomorph,
wenn gleichzeitig die folgenden drei Bedingungen gelten:
(i) A und B haben den gleichen Rang, d. h. rg(A) = rg(B).
(ii) Die Torsionsuntergruppen von A und B haben dieselbe Anzahl |T (A)| =
|T (B)| von Elementen.
(iii) Fr jeden Primteiler p
i
von |T (A)| haben T (A) und T (B) dieselben Ele-
mentarteilerexponenten e
ij
, 1, j r
i
.
Beweis: Folgt sofort aus Satz 11.4.7, weil Z ein Hauptidealring ist.
Nach dem Basissatz fr endlich erzeugte abelsche Gruppen ist die Struktur
einer endlichen abelschen Gruppe A durch ihre Ordnung |A| =
t
i=1
p
h
i
i
und
die Elementarteilerexponenten e
ij
zu den paarweise verschiedenen Primzahlen p
i
,
1 i t , bekannt. Insbesondere gengt es fr jede Primzahl p, die paarweise nicht
isomorphen abelschen Gruppen Avon p-Potenzordnung |A| = p
k
zu klassizieren.
Hierzu wird noch der folgende Begriff bentigt.
11.4.10 Denition. Sei k > 0 eine positive ganze Zahl. Eine Partition von k ist eine
monoton nicht steigende Folge
k
1
k
2
k
r
> 0
von positiven ganzen Zahlen k
i
mit Summe
r
i=1
k
i
= k.
11.4.11 Folgerung. Sei p eine Primzahl und A eine endliche abelsche Gruppe der
Ordnung |A| = p
k
. Dann gibt es genau eine Partition k
1
k
2
k
r
von k
derart, da
A
=
r
i=1
Z/p
k
i
Z.
Beweis: Seien e = e
1
e
2
e
r
die nach dem Basissatz 11.4.9 eindeutig be-
stimmten Elementarteilerexponenten der p-Gruppe A. Dann ist A
r
i=1
Z/p
e
i
Z.
Hieraus folgt p
k
= |A| =
r
i=1
p
e
i
= p
e
1
++e
r
. Also ist k = e
1
+ + e
r
, und
e
1
e
2
e
r
> 0 ist die gesuchte Partition von k. Sie ist nach Satz 11.4.6
durch die Gruppe A eindeutig bestimmt.
324 11 Moduln ber Hauptidealringen
11.5 Elementarteiler von Matrizen
In diesemAbschnitt werden einige weitere Anwendungen des Struktursatzes 11.4.7
fr endlich erzeugte Moduln M ber einem Hauptidealring R gegeben. Hierzu zhlt
der Elementarteilersatz fr mn-Matrizen A = (a
ij
) mit Koefzienten a
ij
aus R.
11.5.1 Hilfssatz. Sei R ein Hauptidealring und M =
t
i=1
m
i
R eine direkte
Summe von endlich vielen zyklischen Torsionsmoduln m
i
R
= R/ Ann(m
i
), wo-
bei Ann(m
i
) = a
i
R fr i = 1, 2, . . . , t gelte. Dann ist M genau dann ein zyklischer
Torsionsmodul, wenn die Ordnungen a
i
der Erzeuger m
i
paarweise teilerfremd sind.
Beweis: Vollstndige Induktion nach t . Fr t = 1 ist nichts zu beweisen. Sind a
1
und
a
2
teilerfremd, so ist R = a
1
R +a
2
R und a
1
a
2
R = a
1
R a
2
R nach Satz 11.1.17.
Hieraus folgt:
R/a
1
a
2
R = (a
1
R +a
2
R)/a
1
a
2
R = (a
1
R +a
2
R)/(a
1
R a
2
R)
= a
1
R/(a
1
R a
2
R) a
2
R/(a
1
R a
2
R)
= a
1
R/a
1
a
2
R a
2
R/a
1
a
2
R.
Da R nullteilerfrei ist, gelten die R-Modulisomorphismen a
1
R/a
1
a
2
R
= R/a
2
R
und a
2
R/a
1
a
2
R
= R/a
1
R. Also gilt:
R/a
1
a
2
R
= R/a
2
R R/a
1
R. ()
Sind nun a
1
, a
2
, . . . , a
n
paarweise teilerfremd, dann sind auch b
1
= a
1
und b
2
=
t
i=2
a
i
teilerfremd. Wegen () ist daher R/a
1
a
2
. . . a
t
R
= R/b
1
R R/b
2
R
=
R/a
1
R R/b
2
R. Nach Induktionsannahme ist R/b
2
R
=
t
i=2
R/a
i
R, woraus
R/a
1
a
2
. . . a
t
R
=
t
i=1
R/a
i
R
=
t
i=1
m
i
R folgt.
Es gengt, die Umkehrung fr die direkte Summe von zwei zyklischen R-Moduln
zu beweisen. Seien A = R/aR und B = R/bR zwei zyklische R-Moduln, wobei
a = da
1
= 0 und b = db
1
= 0 fr eine von Null verschiedene Nichteinheit d von
R ist. Wegen aR dR und bR dR gilt nach dem dritten Isomorphiesatz 9.2.18
R/dR
= (R/aR)/(dR/aR)
= (R/bR)/(dR/bR).
Wre nun M = A B
= R/cR ein zyklischer R-Modul, dann wre auch sein
epimorphes Bild
M = R/dR R/dR
= (R/aR)/(dR/aR) (R/bR)/(dR/bR)
ein zyklischer R-Modul. Sei nun p ein Primteiler der Ordnung des zyklischen R-
Moduls
M und F = R/pR der Restklassenkrper von R nach demmaximalen Ideal
pR. Dann gelten nach Satz 11.4.5 fr die p-Primrkomponente die Gleichungen
M
p
= (R/dR)
p
(R/dR)
p
,
1 = dim
F
M
p
(p) = 2 dim
F
(R/dR)
p
(p) = 2.
11.5 Elementarteiler von Matrizen 325
Dieser Widerspruch beendet den Beweis.
11.5.2 Satz. Sei M ein endlich erzeugter Torsionsmodul ber dem Hauptidealring
R. Sei r = p
k
1
1
p
k
2
2
. . . p
k
t
t
eine Primfaktorzerlegung der Ordnung o(M) = r von M
in Potenzen paarweise nicht assoziierter Primelemente p
i
R. Seien k
i
= e
i1
e
i2
e
ir
i
> 0 die Elementarteilerexponenten von M zum Primelement p
i
.
Weiter seien die Primelemente p
i
so indiziert, da r
1
r
2
r
t
gelte. Dann
bilden die s = r
t
Ringelemente
a
j
=
t
i=1
p
e
ij
i
mit 1 j r
t
und e
ij
= 0 fr j > r
i
bis auf Assoziiertheit die einzige Folge a
1
, a
2
, . . . , a
s
von Nichteinheiten a
j
= 0 in
R derart, da die beiden folgenden Aussagen gelten:
(a) M
=
s
j=1
R/a
j
R.
(b) a
j+1
teilt a
j
fr j = 1, 2, . . . , s 1.
Die s Ringelemente a
1
, a
2
, . . . , a
s
heienElementarteiler des Torsionsmoduls M.
Beweis: Die s Elemente a
j
=
t
i=1
p
e
ij
i
sind von Null verschiedene Nichteinheiten
in R, fr die a
j+1
|
| a
j
fr alle j = 1, 2, . . . , s 1 gilt. Nach Konstruktion sind p
e
ij
i
und p
e
kj
k
fr i = k nicht assoziiert und teilerfremd. Wegen Hilfssatz 11.5.1 folgt
daher, da
R/a
j
R
=
t
i=1
R/p
e
ij
i
R.
Nach Satz 11.4.3 ist somit
M
=
t
i=1
_
r
i
j
i
=1
R/p
e
ij
i
i
R
_
=
s
j=1
R/a
j
R.
Also gelten die Behauptungen (a) und (b).
Die Eindeutigkeitsaussage wird durch vollstndige Induktion nach s bewiesen.
Sei b
1
, b
2
, . . . , b
v
eine weitere Folge von Nichteinheiten aus R derart, da b
k+1
|
| b
k
fr k = 1, 2, . . . , v 1 und M
=
v
k=1
R/b
k
R gilt. Dann sind a
1
und b
1
je-
weils eine Ordnung von M, d. h. a
1
R = Ann(M) = b
1
R. Also ist b
1
zu a
1
nach
Hilfssatz 11.1.21 assoziiert und R/a
1
R = R/b
1
R. Nach dem dritten Isomorphie-
satz 9.2.18 folgt
v
k=2
R/b
k
R
=
_
v
k=1
R/b
k
R
_
/(R/b
1
R)
=
_
s
j=1
R/a
j
R
_
/(R/a
1
R)
=
s
j=2
R/a
j
R.
326 11 Moduln ber Hauptidealringen
Da isomorphe R-Moduln assoziierte Ordnungen haben, folgt a
2
R = b
2
R, und es
gilt v 1 = s 1 nach Induktionsannahme. Also ist v = s, und b
j
ist zu a
j
fr
j = 1, 2, . . . , s assoziiert.
11.5.3 Satz. Sei M ein endlich erzeugter, freier R-Modul vom Range n ber dem
Hauptidealring R. Dann gibt es fr jeden Untermodul U = 0 von M mit rg(U) = r
eine Basis B = {q
i
M | 1 i n} von M und bis auf Assoziiertheit eindeutig
bestimmte Nichteinheiten a
j
= 0, 0 j s r, in R derart, da folgende
Aussagen gelten:
(a) U =
s
j=1
(q
j
a
j
)R
r
j=s+1
q
j
R.
(b) a
j+1
teilt a
j
fr j = 1, 2, . . . , s 1.
(c) Fr den Torsionsuntermodul von M/U gilt T (M/U)
s
j=1
R/a
j
R.
Beweis: Sei B = {m
i
M | 1 i n} eine fest gewhlte Basis des freien R-
Moduls M. Sei B
= {
i
Hom
R
(M, R) |
i
(m
j
) =
ij
R} die duale Basis von
B in Hom
R
(M, R). Dann hat jedes Hom
R
(M, R) die eindeutige Darstellung
=
n
i=1
i
s
i
mit s
i
R.
Da U ein R-Untermodul von M ist, ist (U) fr jedes Hom
R
(M, R) ein
Ideal des Ringes R. Nach Hilfssatz 11.1.26 und dem Lemma 1.1.9 von Zorn existiert
dann ein Hom
R
(M, R) derart, da (U) = aR maximal ist unter den Idealen
(U). Also existiert ein o = u U mit (u) = a. Weiter gibt es eindeutig bestimmte
Elemente r
i
R, die nicht alle gleich Null sind, derart, da
u = m
1
r
1
+m
2
r
2
+ +m
n
r
n
.
Sei =
n
i=1
i
s
i
mit s
i
R die eindeutige Darstellung von bezglich der
dualen Basis B
. Dann gilt
a = (u) =
n
i=1
i
_
n
j=1
m
j
r
j
_
s
i
=
n
i=1
r
i
s
i
n
i=1
r
i
R = I,
weil
i
(u) = r
i
Rfr i = 1, 2, . . . , n. Da Rein Hauptidealring ist, ist
n
i=1
r
i
R =
bR fr ein b I.
Sei b =
n
i=1
r
i
t
i
mit geeigneten t
i
R. Dann ist
=
n
i=1
i
t
i
Hom
R
(M, R), und es gilt
(u) =
n
i=1
i
_
n
j=1
m
j
r
j
_
t
i
=
n
i=1
r
i
t
i
= b.
Hieraus folgt wegen a I = bR, da
(U) = aR bR =
(u)R =
(uR)
(U).
11.5 Elementarteiler von Matrizen 327
Also gilt (U) = aR = bR =
i=1
m
i
v
i
M
und
a = (u) = (qa) = (q) a R.
Also ist (q) = 1, weil R nullteilerfrei ist.
Daher ist qR Ker() = 0. Fr jedes x M ist x q(x) Ker(), weil
(x) R und so
(x q(x)) = (x) [q(x)] = (x) (q)(x) = 0.
Also ist M = qR Ker().
Da M ein freier R-Modul ist, ist auch M
1
= Ker() nach Satz 11.2.7 ein freier
R-Modul. Sei U
1
= U Ker(). Dann ist
U = (qa)R U
1
und M = qR M
1
. ()
Insbesondere ist rg(U
1
) = rg(U) 1 nach Denition 11.2.9 und Satz 9.4.6.
Ist rg(U) = r = 1 so folgt U = (qa)R und M = qR M
1
. Falls a eine
Einheit in R ist, ist U = qR, d. h. s = 0, und es gibt keine Nichteinheiten a
j
= 0.
Insbesondere ist T (M/U) = 0. Ist a keine Einheit in R, so ist a = a
1
, U = (qa
1
)R
und M = qR M
1
, d. h. s = 1, und T (M/U)
= R/a
1
R.
Es wird nun angenommen, da die Behauptung fr r 1 bewiesen ist. Sei weiter
a keine Einheit in R. Wegen rg(U
1
) = r 1 und U
1
M
1
folgt dann nach Induk-
tionsannahme, da M
1
eine Basis B
1
= {q
i
M | 2 i n} besitzt, zu der es bis
auf Assoziiertheit eindeutig bestimmte Nichteinheiten a
j
= 0, 0 j s r in R
gibt derart, da gilt:
(a) U
1
=
s
j=2
(q
j
a
j
)R
r
j=s+1
q
j
R,
(b) a
j+1
teilt a
j
fr j = 2, 3, . . . , s 1,
(c) T (M
1
/U
1
)
s
j=2
R/a
j
R.
Nach () gilt U = (qa)R U
1
. Hieraus folgt aR = (U) (U
1
) = a
2
R. Da a
keine Einheit ist, ist a
2
ein Teiler von a = a
1
, und
U =
s
j=1
(q
j
a
j
)R
r
j=s+1
q
j
R,
328 11 Moduln ber Hauptidealringen
T (M/U)
=
s
j=1
R/a
j
R.
Also gelten alle Behauptungen in diesem Fall. Ist a eine Einheit, so gilt nach Induk-
tionsannahme, da
U
1
=
s
j=1
(q
j
a
j
)R
r1
j=s+1
q
j
R.
Setze q
r
= q. Dann folgt aus (), da
U = U
1
qR =
s
j=1
(q
j
a
j
)R
r
j=s+1
q
j
R.
i=1
f
i
a
ij
fr j = 1, 2, . . . , n.
Wegen rg(A) = r ist U = (M) ein Untermodul vom Range r im freien R-Modul
N = R
m
. Daher gibt es nach Satz 11.5.3 eine Basis B
= {q
i
| 1 i m} von N
und s r (bis auf Assoziiertheit) eindeutig bestimmte Nichteinheiten a
i
R, fr
die a
i+1
|
| a
i
fr i = 1, 2, . . . , s 1 gilt derart, da {q
1
a
1
, . . . , q
s
a
s
, q
s+1
, . . . , q
r
}
eine Basis von U ist. Sei a
i
= 1 fr s + 1 i r. Durch die Umnumerierung
q
i
= q
ri
fr 1 i r und q
i
= q
i
fr r +1 i m der Elemente q
i
der Basis
B
= {q
i
| 1 i m} von N, erhlt man eine Basis B
= {q
h
| 1 h m} von
N = R
m
derart, da die folgenden Bedingungen gelten:
a
h
|
| a
h+1
fr h = 1, 2, . . . , r 1 ()
und
U =
r
h=1
(q
h
a
h
)R. ()
Sei Q die m m-Matrix des Basiswechsels B B
h
a
h
fr 1 h r gilt. Nach den Stzen 11.2.7, 11.2.8
und Hilfssatz 11.2.5 hat Ker() eine Basis {p
h
| r + 1 h n} derart, da A
=
{p
j
| 1 j n} eine Basis des freien R-Moduls M ist. Sei P die n n-Matrix des
Basiswechsels A A
(A, B)P =
Q
1
AP = A
(A
, B
) = D = diag(a
1
, a
2
, . . . , a
r
, 0, 0, . . . , 0) ist.
11.5.8 Bemerkung. In der Literatur werden die in Denition 11.5.6 eingefhrten
_
0 falls a eine Einheit ist,
1 falls a ein Primelement,
k
i=1
e
i
falls a =
k
i=1
p
e
i
i
eine Primfaktorzerlegung,
von a ist, wobei die Primelemente p
i
paarweise nicht assoziiert sind.
11.5.11 Algorithmus. Sei A = (a
ij
) eine m n-Matrix mit rg(A) = r und mit
Koefzienten a
ij
aus dem Hauptidealring R. Seien z
1
, z
2
, . . . , z
m
die Zeilen und
s
1
, s
2
, . . . , s
n
die Spalten von A. Durch folgenden Algorithmus werden zwei inver-
tierbare mm- bzw. n n-Matrizen Q und P konstruiert derart, da
QAP = diag(a
1
, a
2
, . . . , a
r
, 0, 0, . . . , 0)
in Diagonalform aber noch nicht notwendig die Smith-Normalform ist.
Wenn A die Nullmatrix ist, bricht der Algorithmus ab. Sonst wendet man die
folgenden Schritte an.
1. Schritt: Sei a
ij
= 0 ein Koefzient von Amit minimaler Lnge l(a
ij
). Durch
Vertauschung der 1. und der i-ten Zeile von Aund anschlieender Vertauschung der
1. und j-ten Spalte erhlt man eine Matrix A
= (a
ij
), bei der a
11
= a
ij
ist. Nach
Bemerkung 9.5.3 und Satz 4.1.13 gehren zu diesen elementaren Umformungen
invertierbare mm- bzw. n n-Elementarmatrizen Q
1,i
und P
1,j
derart, da
A
= Q
1,i
AP
1,j
.
11.5 Elementarteiler von Matrizen 331
Nach Durchfhrung des 1. Schrittes kann also bei den weiteren Schritten angenom-
men werden, da die Koefzienten der Matrix A = (a
ij
) die Lngenbedingungen
l(a
11
) l(a
ij
) fr 1 i m und 1 j n erfllen.
2. Schritt: Ist a
11
kein Teiler von einem a
1k
= 0 mit k {2, 3, . . . , n}, dann ist
a
11
keine Einheit und l(a
11
) > 0. Durch Vertauschen der k-ten und der 2-ten Spalte
von A erhlt man die Matrix A
= (a
ij
), bei der a
11
kein Teiler von a
12
ist. Nach
Bemerkung 9.5.3 und Satz 4.1.13 existiert eine invertierbare nn-Elementarmatrix
P
2,k
derart, da A
= AP
2,k
. Sei d = ggT(a
11
, a
12
). Dann ist l(d) < l(a
11
). Nach
Hilfssatz 11.5.9 existieren Elemente u, v, s, t R derart, da
T
2
=
_
_
_
_
_
_
u s
v t
E
n2
_
_
_
_
_
_
eine invertierbare n n-Matrix ist mit
AP
2,k
T
2
=
_
_
_
_
_
d 0 a
13
a
1n
a
21
.
.
. B
2
a
m
_
_
_
_
_
.
Nach hchstens n2 weiteren Multiplikationen mit solchen invertierbaren Matrizen
P
j,k
j
T
j
geht Aber in eine Matrix der Form
A
_
n
j=2
P
j,k
j
T
j
_
=
_
_
_
_
_
b
11
0 0
b
21
.
.
. B
n
b
m1
_
_
_
_
_
= B = (b
ij
).
Ist nun b
11
kein Teiler von einem der Koefzienten b
k1
fr ein k {2, 3, . . . , m} in
der ersten Spalte von A, dann ist b
11
keine Einheit und l(b
11
) > 0. DurchVertauschen
der k-ten und der 2-ten Zeile geht B ber in eine Matrix B
= (b
ij
), bei der b
11
kein
Teiler von b
12
ist. Nach Bemerkung 9.5.3 und Satz 4.1.13 existiert eine invertierbare
mm-ElementarmatrixQ
2,k
derart, daB
= Q
2,k
B. NachHilfssatz 11.5.9existiert
dann wiederum eine invertierbare mm-Matrix
V
2
=
_
_
_
_
_
_
u v
s t
E
m2
_
_
_
_
_
_
332 11 Moduln ber Hauptidealringen
mit
V
2
Q
2,k
A =
_
_
_
_
_
_
_
b b
12
b
13
b
1n
0
b
31
.
.
. C
2
b
m1
_
_
_
_
_
_
_
,
wobei b = ggT(b
11
, b
21
) eine Lnge l(b) < l(b
11
) hat. Obwohl nun b
1j
wieder un-
gleich Null sein kann, endet dieses Verfahren nach endlich vielen weiteren Schritten
mit einer Matrix A
= (a
ij
) derart, da a
11
|
| a
1j
fr 2 j n und a
11
|
| a
i1
fr
2 i m gilt, weil bei jeder Anwendung von Schritt 2 die Lnge von l(a
11
) echt
abnimmt.
Indem man all die auftretenden Permutationsmatrizen P
j,k
j
bzw. Q
i,k
i
und die
invertierbaren Matrizen der Typen T
j
bzw. V
i
in der oben angegebenen Reihenfolge
von rechts bzw. links multipliziert, erhlt man eine invertierbare m m-Matrix X
bzw. eine invertierbare n n-Matrix Y derart, da XAY = A
gilt.
3. Schritt: Ist r
i
=
a
i1
a
11
R fr i = 2, . . . , m und t
j
=
a
1j
a
11
R fr j =
2, . . . , n, dann ersetzt man zunchst z
i
durch z
i
z
1
r
i
fr i = 2, 3, . . . , m. Nach
Bemerkung 9.5.3 und Satz 4.1.13 gehrt zu jeder dieser m1 Zeilenumformungen
eine invertierbare mm-Elementarmatrix Z
1,i,r
i
derart, da
_
m
i=2
Z
1,i,r
i
_
A = A
ist
s
1
= (a
11
, 0, . . . , 0) R
m
.
Weiter haben Aund A
j
durch s
j
s
1
t
j
fr j = 2, 3, . . . , n.
Sei A
= ZAS
_
_
_
_
a
11
A
1
_
_
_
_
,
wobei
Z =
m
i=2
Z
1,i,r
i
und S =
z
j=2
S
1,j,t
j
.
11.5 Elementarteiler von Matrizen 333
4. Schritt: Ist A
1
die Nullmatrix, so endet der Algorithmus. Andernfalls wen-
det man die Schritte 1 bis 3 auf die Matrix A
1
an und fahre danach entsprechend
fort. Hierdurch erhlt man schlielich eine invertierbare (m1) (m1)-Matrix
Q
1
und eine invertierbare (n 1) (n 1)-Matrix P
1
derart, da Q
1
A
1
P
1
=
diag(d
2
, d
3
, . . . , d
r
, 0, . . . , 0) in Diagonalform ist. Dann sind
Q
=
_
_
_
_
1
Q
1
_
_
_
_
und P
=
_
_
_
_
1
P
1
_
_
_
_
invertierbare mm bzw. n n-Matrizen derart, da die mn-Matrix
Q
= diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0) = D
eine Diagonalform von Aist.
Indem man die bei allen Schritten entstandenen m m-Transformationsmatri-
zen der zugehrigen Zeilenumformungen von A miteinander multipliziert, erhlt
man die invertierbare mm-Transformationsmatrix Q. Ebenso erhlt man die den
Spaltenumformungen entsprechende invertierbare n n-Transformationsmatrix P
und
QAP = D.
11.5.12 Bemerkung. Bei der praktischen Durchfhrung von Algorithmus 11.5.11
kann man folgendes Rechenschema anwenden: In die Mitte wird die mn-Matrix A
geschrieben, links von ihr die Einheitsmatrix E
m
und rechts von ihr E
n
. Sind Links-
multiplikationen mit invertierbaren mm-Matrizen des Typs V von Schritt 2 erfor-
derlich, so werden diese Matrizen V an der entsprechenden Stelle in der ersten Spalte
eingetragen. Ihre Produkte mit den beiden Vorgngern in den Spalten von E
m
und A
werden dann in der 2. bis 3. Spalte aufgeschrieben. Sonst werden die elementaren
Zeilenumformungen der Schritte 1 und 3 zugleich auf die Matrizen in den Spalten
von E
m
und Aangewendet.
Ebenso verfhrt man mit den Matrizen A und E
n
bei Spaltenumformungen
bzw. Rechtsmultiplikationen mit nn-Matrizen des Typs T von Schritt 2, die in die
5. Spalte geschrieben werden.
Am Ende des Algorithmus steht dann die Diagonalmatrix D in der Mitte, und
die Transformationsmatrizen Q und P links bzw. rechts daneben.
11.5.13 Beispiel. Dieses Schema wird nun an einem Beispiel erlutert. Dabei tre-
ten Rechtsmultiplikationen mit Matrizen des Typs T nicht auf. Freie Matrix-Pltze
bedeuten, da an der betreffenden Matrix keine nderungen vorgenommen werden.
334 11 Moduln ber Hauptidealringen
Typ V E
4
A E
5
1 0 0 0 2 2 6 4 0 1 0 0 0 0
0 1 0 0 6 4 16 10 14 0 1 0 0 0
0 0 1 0 4 3 11 7 1 0 0 1 0 0
0 0 0 1 8 5 21 13 4 0 0 0 1 0
0 0 0 0 1
0 0 1 0 4 3 11 7 1
0 1 0 0 6 4 16 10 14
1 0 0 0 2 2 6 4 0
0 0 0 1 8 5 21 13 4
1 3 11 7 4 0 0 0 0 1
14 4 16 10 6 0 1 0 0 0
0 2 6 4 2 0 0 1 0 0
4 5 21 13 8 0 0 0 1 0
1 0 0 0 0
0 0 1 0 1 3 11 7 4
0 1 14 0 0 46 170 108 62
1 0 0 0 0 2 6 4 2
0 0 4 1 0 17 65 41 24
1 0 0 0 0 0 0 0 0 1
0 46 170 108 62 0 1 0 0 0
0 2 6 4 2 0 0 1 0 0
0 17 65 41 24 0 0 0 1 0
1 3 11 7 4
0 0 1 0 1 0 0 0 0
1 0 0 0 0 2 6 4 2
0 1 14 0 0 46 170 108 62
0 0 4 1 0 17 65 41 24
0 0 1 0 1 0 0 0 0
1 0 0 0 0 2 6 4 2
0 0 4 1 0 17 65 41 24
0 1 14 0 0 46 170 108 62
1 0 0 0 0 0 1 0 1 0 0 0 0
0 8 1 0 8 0 4 1 0 1 17 9 8
0 17 2 0 17 0 8 2 0 0 28 14 14
0 0 0 1 0 1 14 0 0 46 170 108 62
0 0 1 0 1 0 0 0 0
8 0 4 1 0 1 17 9 8
17 0 8 2 0 0 28 14 14
368 1 170 46 0 0 612 306 306
1 0 0 0 0 0 0 0 0 1
0 1 0 0 0 0 1 17 9 8
0 0 28 14 14 0 0 1 0 0
0 0 612 306 306 0 0 0 1 0
1 3 40 20 20
1 0 0 0 0 0 0 0 0 1
0 1 0 0 0 0 1 9 17 8
0 0 14 28 14 0 0 0 1 0
0 0 306 612 306 0 0 1 0 0
1 3 20 40 20
11.5 Elementarteiler von Matrizen 335
V E
4
A E
5
1 0 0 0 0 0 0 0 0 1
0 1 0 0 0 0 1 9 1 1
0 0 14 0 0 0 0 0 1 0
0 0 306 0 0 0 0 1 2 1
1 3 20 0 0
1 0 0 0 0 0 1 0 1 0 0 0 0
0 1 0 0 8 0 4 1 0 1 0 0 0
0 0 22 1 6 1 6 2 0 0 2 0 0
0 0 153 7 25 7 34 16 0 0 0 0 0
Q D P
Die Diagonalmatrix D = diag(1, 1, 2, 0) ist schon die Smith-Normalform von A.
11.5.14 Hilfssatz. Seien a, b von Null verschiedene Elemente des Hauptidealrings
R. Sei d = ggT(a, b) und k = kgV(a, b). Dann existieren Elemente u, v, r, s R
derart, da die folgenden Aussagen gelten:
(a) d = au +bv.
(b) a = dr, b = ds und k = drs.
(c) Fr die 2 2-Matrizen
A =
_
u v
s r
_
und B =
_
1 vs
1 ur
_
gilt det A = 1 = det B.
(d) A
_
a 0
0 b
_
B =
_
d 0
0 k
_
.
Beweis: Die Existenz der Elemente u, v, r, s R, fr die (a) und (b) gelten, ergibt
sich unmittelbar aus Satz 11.1.17.
(c) det A = ur + vs = 1, weil d = au + bv = d(ur + vs). Ebenso folgt
det B = ur +vs = 1.
(d)
_
u v
s r
__
a 0
0 b
__
1 vs
1 ur
_
=
_
au vb
as rb
__
1 vs
1 ur
_
=
_
au +vb auvs +vbur
as +rb avs
2
+br
2
u
_
=
_
d 0
0 k
_
,
weil d = au + bv, as = br = drs, auvs = druvs = bruv und avs
2
+ br
2
u =
drvs
2
+dsr
2
u = drs(vs +ur) = drs = k.
336 11 Moduln ber Hauptidealringen
11.5.15 Algorithmus. Sei A = diag(a
1
, a
2
, . . . , a
r
, 0, . . . , 0) eine m n-Matrix
in Diagonalform mit Koefzienten aus dem Hauptidealring R.
Ist A in Smith-Normalform, dann bricht der Algorithmus ab. Andernfalls wer-
den durch endlich viele Anwendungen der folgenden Schritte zwei invertierbare
m m- bzw. n n-Matrizen Q und P konstruiert derart, da QAP = D =
diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0) in Smith-Normalform ist.
1. Schritt: Sei a
k
das erste Diagonalelement von A = diag(a
1
, a
2
, . . . ,
a
r
, 0, . . . , 0) derart, da l(a
k
) = min{l(a
i
) | 1 i r}. Durch Vertauschung
der 1. und der k-ten Spalte und anschlieender Vertauschung der 1. und der k-ten
Zeile erhlt man eine Matrix A
= diag(a
k
, a
2
, . . . , a
1
, a
k+1
, . . . , a
r
, 0, . . . , 0) in
Diagonalform, bei der das erste Diagonalelement a
k
von minimaler Lnge l(a
k
) ist.
Nach Bemerkung 9.5.3 und Satz 4.1.13 gehren zu diesen elementaren Umformun-
gen invertierbare mm- bzw. n n-Elementarmatrizen Q
1,k
und P
1,k
derart, da
Q
1,k
AP
1,k
= A
.
2. Schritt: Sei A = diag(a
1
, a
2
, . . . , a
r
, 0, . . . , 0) in Diagonalform und a
1
von
minimaler Lnge. Gibt es ein Diagonalelement a
j
von A, das von a
1
nicht geteilt
wird, dann ist l(a
1
) > 0, und a
1
ist keine Einheit in R. Weiter sei j minimal gewhlt.
Durch Vertauschen der 2. und der j-ten Spalte und anschlieender Vertauschung der
2. und der j-ten Zeile geht A in eine Matrix A
= diag(a
1
, a
2
, . . . , a
r
, 0, . . . , 0)
in Diagonalform ber, bei der a
1
kein Teiler von a
2
ist. Nach Bemerkung 9.5.3
und Satz 4.1.13 gehren zu diesen elementaren Umformungen invertierbare mm-
bzw. n n-Elementarmatrizen Q
1,j
und P
1,j
derart, da
Q
1,j
AP
1,j
= A
.
Nach Hilfssatz 11.5.14 existieren dann Elemente u, v, r, s R derart da
R =
_
_
_
_
_
_
u v
s r
E
m2
_
_
_
_
_
_
eine invertierbare mm Matrix und
S =
_
_
_
_
_
_
1 vs
1 ur
E
n2
_
_
_
_
_
_
eine invertierbare n n Matrix
ist mit RAS = diag(d, w, a
3
, a
4
, . . . , a
r
, 0, . . . , 0), wobei d = ggT(a
1
, a
2
) und
w = kgV(a
1
, a
2
). Wegen d |
| a
1
gilt nun d |
| a
i
fr 3 i j und d |
| a
2
.
3. Schritt: Man wendet den 2. Schritt solange auf A = diag(a
1
, a
2
, . . . ,
a
r
, 0, . . . , 0) an, bis a
1
|
| a
j
fr j = 1, 2, . . . , r gilt. Ist diese Matrix in Smith-
Normalform, dann endet der Algorithmus. Sonst ist die entstandene Matrix A
von
11.5 Elementarteiler von Matrizen 337
der Form
A
=
_
_
_
_
d
1
A
1
_
_
_
_
,
wobei A
1
= diag(a
2
, . . . , a
r
, 0, . . . , 0) nicht in Smith-Normalform ist. Nach In-
duktion existieren invertierbare (m1) (m1)- bzw. (n1) (n1)-Matrizen
Q
1
und P
1
mit QA
1
P
1
= diag(d
2
, . . . , d
r
, 0, . . . , 0). Wegen d
1
|
| a
i
fr 2 i r
ist d
1
|
| d
i
fr 2 i r. Sei
Q
=
_
_
_
_
1
Q
1
_
_
_
_
und P
=
_
_
_
_
1
P
1
_
_
_
_
.
Dann erhlt man Q und P als geeignete Produkte der in den vorigen Schritten
berechneten Transformationsmatrizen mit Q
bzw. P
. Es folgt
QAP = diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0)
die (bis auf Einheiten eindeutig bestimmte) Smith-Normalform von A.
11.5.16 Denition. Die Hintereinanderausfhrung der Algorithmen 11.5.11 und
11.5.15 ist ein Algorithmus mit dem man eine m n-Matrix A = (a
ij
) in ihre
Smith-Normalform QAP = D = diag(d
1
, d
2
, . . . , d
r
, 0, 0, . . . , 0) berfhrt. Er
heit Smith-Algorithmus.
11.5.17 Beispiel. Mit Hilfe desAlgorithmus 11.5.15 soll nun die Smith-Normalform
D der 3 3-Matrix
A = diag(X +1, X 1, (X 1)
2
) = diag(a
1
, a
2
, a
3
)
mit Koefzienten aus dem Polynomring R = Q[X] bestimmt werden.
1. Schritt: a
1
= X +1 hat minimale Lnge l(a
1
) = 1.
2. Schritt: ggT(a
1
, a
2
) = 1, also 1 = a
1
1
2
+a
2
_
1
2
_
=
1
2
(X +1)
1
2
(X 1).
Nach Hilfssatz 11.5.14 haben daher die Transformationsmatrizen R und S des
2. Schrittes von Algorithmus 11.5.15 die Form:
R =
_
_
1
2
1
2
0
X +1 X +1 0
0 0 1
_
_
, S =
_
_
1
1
2
(X 1) 0
1
1
2
(X +1) 0
0 0 1
_
_
.
338 11 Moduln ber Hauptidealringen
Hieraus folgt durch Matrizenmultiplikation, da
RAS = diag(1, X
2
1, (X 1)
2
=
_
_
_
_
1
B
_
_
_
_
Anwendung des Algorithmus 11.5.15 auf B = diag(X
2
1), (X 1)
2
):
1. Schritt: l(b
1
) = l(X
2
1) = 2 = l(b
2
).
2. Schritt: ggT(b
1
, b
2
) = X 1 = (X
2
1)
1
2
(X 1)
2 1
2
.
Nach Hilfssatz 11.5.14 haben daher die Transformationsmatrizen R
1
und S
1
des
2. Schrittes von Algorithmus 11.5.15 die Form
R
1
=
_
1
2
1
2
X +1 X +1
_
, S
1
=
_
1
1
2
(X 1)
1
1
2
(X +1)
_
.
Hieraus folgt:
R
1
BS
1
=
_
X 1 0
0 (X 1)
2
(X +1)
_
.
Nach dem 3. Schritt des Algorithmus 11.5.15 hat Adaher die Smith-Normalform
D = diag(1, X 1, (X 1)
2
(X +1)).
Die zugehrigen Transformationsmatrizen Q und P sind gegeben durch:
Q =
_
_
_
_
1
R
1
_
_
_
_
R =
_
_
1 0 0
0
1
2
1
2
0 X +1 X +1
_
_
_
_
1
2
1
2
0
X +1 X +1 0
0 0 1
_
_
,
P = S
_
_
_
_
1
S
1
_
_
_
_
=
_
_
1
1
2
(X 1) 0
1
1
2
(X +1) 0
0 0 1
_
_
_
_
1 0 0
0 1
1
2
(X 1)
0 1
1
2
(X +1)
_
_
.
Also gilt:
P =
_
_
_
1
1
2
(X 1)
1
4
(X 1)
2
1
1
2
(X +1)
1
4
(X
2
1)
0 1
1
2
(X +1)
_
_
_
und
Q =
_
_
1
2
1
2
0
1
2
(X 1)
1
2
(X +1)
1
2
(X 1)
2
(X
2
1) X +1
_
_
.
11.5 Elementarteiler von Matrizen 339
11.5.18 Satz. Sei A = (a
ij
) eine m n-Matrix mit Koefzienten aus dem Haupt-
idealring R mit rg A = r. Dann gilt:
(a) Durch Anwendung des Algorithmus 11.5.11 erhlt man eine invertierbare
n n-Matrix Q
1
und eine invertierbare n n-Matrix P
1
derart, da
Q
1
AP
1
= diag(a
1
, a
2
, . . . , a
r
, 0, . . . , 0)
in Diagonalform ist.
(b) Durch anschlieende Anwendung des Algorithmus 11.5.15 erhlt man eine
invertierbare mm-Matrix Q
2
und eine invertierbare nn-Matrix P
2
derart,
da
QAP = diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0)
in Smith-Normalform ist, wobei Q = Q
2
Q
1
und P = P
1
P
2
.
(c) Sind d
1
, d
2
, . . . , d
rs
Einheiten in R, dann sind die s Nichteinheiten d
j
mit
rs+1 j r die Elementarteiler des Torsionsmoduls T (R
n
/Z) vonR
n
/Z,
wobei Z der von den Zeilen z
1
, z
2
, . . . , z
m
von A erzeugte Untermodul des
freien R-Moduls R
n
ist, d. h.
R
n
/Z
= R
mr
j=rs+1
R/d
j
R.
Insbesondere sind die Diagonalelemente d
1
, d
2
, . . . , d
r
durch Abis auf Asso-
ziiertheit eindeutig bestimmt; sie sind die Elementarteiler von A.
Beweis: Die Aussagen (a) und (b) ergeben sich unmittelbar aus den Algorithmen
11.5.11 und 11.5.15.
(c) folgt sofort aus Satz 11.5.7 und seinem Beweis.
Fr euklidische Ringe ergibt sich beim Smith-Algorithmus die Besonderheit,
da jeweils der zweite Schritt der Algorithmen 11.5.11 und 11.5.15 allein durch
elementare Umformungen durchgefhrt werden kann, wie nun gezeigt wird.
11.5.19 Satz. Sei R ein euklidischer Ring mit der Norm . Dann gelten:
(a) Jede invertierbare n n-Matrix A = (a
ij
) mit Koefzienten a
ij
aus R ist ein
Produkt von elementaren Matrizen.
(b) Fr jede m n-Matrix B mit Koefzienten aus R und rg(B) = r kn-
nen die Smith-Normalform D = diag(d
1
, d
2
, . . . , d
r
, 0, . . . , 0) = QBP
und die Transformationsmatrizen P und Q mittels der Algorithmen 11.5.11
und 11.5.15 durch endlich viele elementare Zeilen- und Spaltenumformungen
der Matrix B berechnet werden.
340 11 Moduln ber Hauptidealringen
Beweis: Der Beweis von (a) erfolgt durch vollstndige Induktion nach n. Fr n = 1
ist die invertierbare Matrix A = (a
11
) eine elementare Matrix des Typs ZM
i;a
von
Bemerkung 9.5.3. Angenommen, die Behauptung (a) ist fr invertierbare (n 1)
(n 1)-Matrizen bewiesen. Durch Zeilen- und Spaltenvertauschungen geht A in
eine invertierbare n n-Matrix A
= (a
ij
) = KAL ber derart, da
(a
11
) < (a
i1
) fr 2 i n ()
und
(a
11
) < (a
1j
) fr 2 j n ()
gilt, wobei K und L Produkte von elementaren Matrizen sind. Weiter kann nun
nach Bemerkung 11.1.7 vorausgesetzt werden, da die Behauptung (a) fr alle in-
vertierbaren nn-Matrizen A
= (a
ij
) schon bewiesen ist, fr die (a
11
) < (a
11
)
gilt.
Angenommen, a
11
ist kein Teiler von a
i1
. Dann existieren nach demeuklidischen
Algorithmus 11.1.28 Elemente 0 = s
i
, q
i
R derart, da
a
i1
= a
11
q
i
+s
i
mit (s
i
) < (a
11
).
Indem man die i-te Zeile z
i
von Adurch z
i
z
1
q
i
ersetzt, und anschlieend in der
neu entstandenen Matrix die i-te Zeile mit der ersten Zeile vertauscht, erhlt man eine
Matrix A
= K
= (a
ij
) mit a
11
= s
i
. Dabei ist K
11
) = (s
i
) < (a
11
).
Nach Induktionsvoraussetzung ist daher A
= K
)
1
A
L
1
ein Produkt von elementaren
Matrizen ist.
Also kann angenommen werden, da a
11
|
| a
i1
fr i = 2, . . . , n gilt. Der Algorith-
mus 11.5.11 wird nun mit der Modikation angewendet, da man die Lnge l(a
ij
)
eines Koefzienten a
ij
von A durch die Norm (a
ij
) ersetzt. Nach dem 3. Schritt
des Algorithmus 11.5.11 existiert dann ein Produkt H von elementaren Matrizen
derart, da
HA =
_
_
_
_
_
a
11
a
12
a
1n
0
.
.
. A
1
0
_
_
_
_
_
mit einer Einheit a
11
R ist.
Anschlieend wendet man dieses Verfahren mit den entsprechenden Spaltenum-
formungen anstelle der Zeilenumformungen auf die erste Zeile von HA an. Dann
11.5 Elementarteiler von Matrizen 341
erhlt man eine invertierbare Matrix J, die ebenfalls ein Produkt von elementaren
Matrizen ist derart, da
HAJ =
_
_
_
_
_
a
11
0 0
0
.
.
. A
2
0
_
_
_
_
_
gilt. Dabei sind a
11
R und A
2
GL(n 1, R) invertierbar. Sicherlich ist U =
_
a
11
E
n1
_
eine elementare und V =
_
1
A
2
_
eine invertierbare Matrix
mit HAJ = UV. Daher folgt die Behauptung (a) durch vollstndige Induktion.
(b) Nach dem Smith-Algorithmus 11.5.16 gibt es zwei invertierbare m m-
bzw. n n-Matrizen Q und P mit
QBP = diag(a
1
, . . . , a
r
, 0, . . . , 0) = D.
Wegen (a) sind sowohl Qals auch P Produkte von elementaren mm- bzw. n n-
Matrizen. Nach Bemerkung 9.5.3 und Satz 4.1.13 erhlt man daher D durch endlich
viele Zeilen- und Spaltenumformungen von A.
11.5.20 Bemerkung. Die Behauptung von Satz 11.5.19 gilt nicht fr beliebige
Hauptidealringe. In [4], p. 23 hat P. M. Cohn ein Beispiel fr eine invertierbare
2 2-Matrix A = (a
ij
) mit Koefzienten a
ij
aus dem Ring R der ganzen Zahlen
des algebraischen Zahlkrpers Q
n
i=1
f
i
R mit Basis A = {f
i
P | 1 i n} und einen Epimor-
phismus : P M, der durch (f
i
) = m
i
fr i = 1, 2, . . . , n deniert ist. Sei
U = Ker() = {f P | (f ) = 0}. Nach Hilfssatz 11.2.5 hat der Untermodul U
von P ein Erzeugendensystem B = {u
j
U | 1 j r} mit r n Elementen.
Jedes u
j
hat die eindeutige Darstellung
u
j
=
n
i=1
f
i
r
ij
, 1 j r, fr geeignete r
ij
R.
342 11 Moduln ber Hauptidealringen
Die r n-Matrix R = (r
ij
) heit die Relationen-Matrix des endlich erzeugten
R-Moduls M bezglich der Basis A des R-Moduls P der freien Auflsung
0 U P
M 0
von M. Die r Gleichungen
n
i=1
m
i
r
ij
= 0, 1 j r
heien die Relationen vom M bezglich des Erzeugendensystems {m
1
, . . . , m
n
}.
11.5.22 Bemerkung. Die r Elementarteiler a
j
, 1 j r, des R-Moduls M knnen
nach Satz 11.5.18 mittels der Algorithmen 11.5.11 und 11.5.15 durch endlich viele
Umformungen der Relationen-Matrix Rdes R-Moduls M bezglich der Basis B =
{u
j
U | 1 j r} des Kerns U = Ker() des Epimorphismus : P M
berechnet werden.
11.5.23 Folgerung. Sei A eine endlich erzeugte abelsche Gruppe mit einer freien
Auflsung
0 U P A 0, ()
wobei P ein freier Z-Modul mit rg(P) = n ist. Sei R = (r
ij
), 1 i, j n, die
Relationen-Matrix von A bezglich einer Basis von P.
Dann gelten:
(a) A ist genau dann endlich, wenn fr den freien Untermodul U ebenfalls
rg(U) = n gilt.
(b) Ist die Gruppe A endlich, so hat sie die Ordnung
|A| = | det(R)|.
Beweis: (a) folgt unmittelbar aus Satz 11.5.18 und Satz 11.4.3, weil jede abelsche
Gruppe ein Z-Modul ist.
(b) Da Z ein euklidischer Ring ist, existieren nach Satz 11.5.19 zwei Elemen-
tarmatrizen P und Q derart, da
QRP = diag(d
1
, d
2
, . . . , d
n
) = D
die Smith-Normalformder Relationen-Matrix Rist, und die beiden Matrizen P und
QProdukte von ganzzahligen Permutationsmatrizen oder Elementarmatrizen T mit
det(T ) = 1 sind. Insbesondere gilt
det(Q), det(P) {1, 1}.
11.5 Elementarteiler von Matrizen 343
Nach Satz 11.5.18 und Denition 11.5.21 ist
A
= P/U
=
n
i=1
Z/d
i
Z.
Daher gilt
|A| =
n
i=1
d
i
= | det(D)| = | det(QRP)| = | det(R)|
nach Satz 10.5.6.
11.5.24 Beispiel. Es soll nun die Struktur der endlich erzeugten abelschen Gruppe
A mit der Relationen-Matrix
R =
_
_
_
_
2 2 6 4 0
6 4 16 10 14
4 3 11 7 1
8 5 21 13 4
_
_
_
_
bestimmt werden. Die Smith-NormalformDdieser Matrix wurde in Beispiel 11.5.13
bestimmt. Danach gilt:
D = diag(1, 1, 2, 0).
Zur Relationen-Matrix R gehrt nach Denition 11.5.21 eine freie Auflsung
0 U Z
5
A 0
von A mit einem freien Z-Untermodul U vom Rang 3. Nach Satz 11.5.18 gilt daher
A
= Z
5
/U
= Z
2
Z/2Z.
Mittels der Smith-Normalform erhlt man die folgende Faktorisierung des cha-
rakteristischen Polynoms.
11.5.25 Folgerung. Sei A = (a
ij
) eine n n-Matrix mit Koefzienten aus dem
Krper F. Dann ist das charakteristische Polynomchar Pol
A
(X) von Adas Produkt
der normierten Elementarteiler positiven Grades der Matrix (E
n
X A).
Beweis: Die Koefzienten der Matrix L = (E
n
X A) gehren zum eukli-
dischen Ring R = F[X]. Nach Satz 11.5.18 existieren invertierbare Matrizen
Q, P GL(n, R) derart, da
QLP = diag(d
1
, d
2
, . . . , d
n
)
344 11 Moduln ber Hauptidealringen
in Smith-Normalform ist. Da nur die Konstanten Einheiten in R = F[X] sind, gilt
det(Q), det(P) F. Das Produkt der Elementarteiler d
i
ist bis auf einen konstanten
Faktor f F gleich dem Produkt der s n normierten Elementarteiler d
j
positiven
Grades. Hieraus folgt
det(Q) det(L) det(P) = f
s
j=1
d
j
und so char Pol
A
(X) =
s
j=1
d
j
,
weil det(L) = char Pol
A
(X) ein normiertes Polynom und R ein ZPE-Ring ist.
11.6 Aufgaben
11.1 Zeigen Sie: Die Teilmenge
Z[i] = {c = a +bi C | a, b Z}
des Krpers C der komplexen Zahlen bildet bezglich dessen Addition + und Multiplikation
einen nullteilerfreien kommutativen Ring mit Eins. Z[i] ist bezglich der Norm (a +bi) =
a
2
+ b
2
fr alle c = a + bi Z[i] ein euklidischer Ring im Sinne der Denition 10.1.3.
Dieser Ring Z[i] heit der Ring der ganzen Gauschen Zahlen .
11.2 Bestimmen Sie die Einheiten im Ring R = Z[i] der ganzen Gauschen Zahlen von
Aufgabe 11.1.
11.3 Berechnen Sie mit Hilfe des euklidischen Algorithmus den grten gemeinsamen
Teiler der folgenden Paare von Polynomen f
1
(X), f
2
(X) Q[X] sowie eine Darstellung
ggT(f
1
(X), f
2
(X)) = p
1
(X)f
1
(X) +p
2
(X)f
2
(X) mit p
i
(X) Q[X].
(a) f
1
(X) = X
15
+X
12
+X
10
+X
9
+X
6
+X
5
+X
4
+X
2
+1,
f
2
(X) = X
12
+X
9
+X
7
+X
6
+X
5
+X
3
+X
2
+X +1.
(b) f
1
(X) = X
11
+ 3X
10
+ 6X
9
+ 11X
8
+ 18X
7
+ 28X
6
+ 39X
5
+ 53X
4
+ 48X
3
+41X
2
+30X +17,
f
2
(X) = X
9
+X
8
+2X
7
+4X
6
+5X
5
+9X
4
+9X
3
+15X
2
4X +17.
11.4 (a) Sei f (X) = a
n
X
n
+ a
n1
X
n1
+ + a
1
X + a
0
Z[X] und p/q Q ein
(gekrzter) Bruch, d. h. p, q sind teilerfremde ganze Zahlen. Zeigen Sie: Aus f (p/q) = 0
folgt q |
| a
n
und p |
| a
0
.
(b) Zeigen Sie: 4X
3
+3X
2
+2X +1 ist irreduzibel in Q[X].
11.5 Zeigen Sie, da das charakteristische Polynom der Matrix
C =
_
_
_
_
_
_
_
_
_
_
0 0 f
0
1 0 f
1
0 1
.
.
.
f
2
.
.
.
.
.
.
.
.
.
1 0 f
n2
0 0 1 f
n1
_
_
_
_
_
_
_
_
_
_
11.6 Aufgaben 345
gleich dem Polynom f
0
+f
1
X + +f
n1
X
n1
+X
n
ist.
11.6 Sei R := Z/2Z, f (X) = X
3
+X+1 R[X]. Zeigen Sie: K = R[X]/(R[X] f (X))
ist ein Krper mit endlich vielen Elementen. Bestimmen Sie die Anzahl der Elemente in K.
11.7 (a) Man gebe eine notwendige und hinreichende Bedingung dafr an, da fr die natr-
lichen Zahlen m 2 und n 2 die beiden Z-Moduln Z/mZZ/nZ und Z/mnZ isomorph
sind.
(b) Zeigen Sie die quivalenz folgender Aussagen fr 2 n, m N:
(i) m+Z ist Einheit in Z/nZ;
(ii) m+Z ist kein Nullteiler in Z/nZ;
(iii) ggT(n, m) = 1.
11.8 Berechnen Sie das charakteristische Polynom, die rationalen Eigenwerte und die zuge-
hrigen Eigenvektoren ber dem Krper Q der rationalen Zahlen von der Matrix
A =
_
_
_
_
5 4 1 1
1 0 0 1
1 2 0 1
1 2 1 1
_
_
_
_
.
11.9 Im freien Z-Modul P = aZbZcZdZ sei der Untermodul U von den Elementen
w = a +3b +2c +8d,
x = 3b +2c +8d,
y = 5a +b 4c +8d,
z = 7a +4b 2c +16d
erzeugt. Bestimmen Sie die Elementarteiler der abelschen Gruppe A = P/U.
11.10 Zeigen Sie, da der Quotientenkrper Q des nullteilerfreien Ringes R kein endlich
erzeugter R-Modul ist, wenn R kein Krper ist.
11.11 Berechnen Sie zu der Matrix
A =
_
_
X
2
+2 X
2
X
2
+1
3X
3
X
3
+X +1 3X
3
X
2X
2
+1 X
2
2X
2
_
_
mit Elementen aus Q[X] die Elementarteiler und die zugehrige Transformationsmatrizen.
11.12 Bestimmen Sie alle abelschen Gruppen G der Ordnung |G| = 2401, die genau 48
Elemente g der Ordnung 7 haben.
11.13 Bestimmen Sie den grten gemeinsamen Teiler und das kleinste gemeinsame Viel-
fache der Polynome p(X) = X
3
+ X
2
+ X 3 und q(X) = X
4
X
3
+ 3X
2
X + 4 in
F[X] in jedem der Flle F = Q, Z/3Z, und Z/11Z.
12 Normalformen einer Matrix
In Kapitel 6 wurde die spezielle Frage untersucht, welche quadratischen Matrizen
zu Diagonalmatrizen hnlich sind. Mit Hilfe des im vorigen Kapitel bewiesenen
Struktursatzes 11.4.7 fr endlich erzeugte Moduln ber Hauptidealringen ist es nun
mglich, die hnlichkeitsklassen aller n n-Matrizen ber einem kommutativen
Krper F zu klassizieren. Hierzu wird gezeigt, da zwei n n-Matrizen Aund B
genau dann hnlich sind, wenn sie dieselbe rationale Form besitzen. Aus ihr ergibt
sich fr algebraisch abgeschlossene Krper F auch die Jordansche Normalform
einer n n-Matrix, die schon in Kapitel 6 behandelt worden war. Auerdem folgt
der Satz von Cayley-Hamilton, der besagt, da jede n n-Matrix ANullstelle ihres
charakteristischen Polynoms char Pol
A
(X) ist.
Umden Struktursatz fr endlich erzeugte Moduln ber Hauptidealringen anwen-
den zu knnen, wird im ersten Abschnitt fr jeden Endomorphismus End
F
(V)
des n-dimensionalenVektorraums V ber demKrper F eine R-Linksmodulstruktur
auf V erklrt, wobei R = F[X] der Polynomring in einer Unbestimmten X ber F
ist. Wegen der endlichen Dimension von V ist V ein Torsionsmodul. Die Ordnung
o(V) dieses Torsionsmoduls V ist das Minimalpolynom m(X) von .
Im ersten Abschnitt werden auch die Beziehungen zwischen den Matrizendar-
stellungen von bezglich geeigneter Basen von V und der Zerlegung von V in
zyklische R-Linksuntermoduln analysiert. Hiermit ist es dann einfach, im zweiten
Abschnitt die rationale kanonische Form einer nn-Matrix A = (a
ij
) mit Koefzi-
enten a
ij
aus einemKrper F aus demStruktursatz fr endlich erzeugte Moduln ber
Hauptidealringen abzuleiten. Hieraus ergibt sich der Satz von Cayley-Hamilton.
Im letzten Abschnitt werden die Berechnungsverfahren fr die Normalformen
einer n n-Matrix beschrieben und anhand von Beispielen erlutert.
12.1 Vektorrume als Moduln ber einem Polynomring
In diesemAbschnitt ist F stets ein kommutativer Krper, V ein n-dimensionaler F-
Vektorraum und R = F[X] der Ring aller Polynome ber F in der Unbestimmten
X. Nach Folgerung 11.1.10 ist R ein Hauptidealring.
12.1.1 Denition. Fr jeden Endomorphismus End
F
(V) ist V ein endlich er-
zeugter R-Linksmodul vermge der folgenden Multiplikation: Fr alle v V und
12.1 Vektorrume als Moduln ber einem Polynomring 347
alle r = f (X) = f
0
+f
1
X + +f
k
X
k
R = F[X] sei
r v = f () v = f
0
v +f
1
(v) + +f
k
k
(v) V.
In diesem Kapitel wird V stets als R-Linksmodul bezglich eines fest gewhlten
Endomorphismus von V mit der in Denition 12.1.1 angegebenen Modulstruktur
betrachtet. Man beachte, da diese R-Modulstruktur von V vom Endomorphismus
End
F
(V) abhngt.
12.1.2 Bemerkungen.
(a) Wegen dim
F
V = n und F R wird V als R-Linksmodul von n Elementen
erzeugt.
(b) Ist B = {v
1
, v
2
, . . . , v
n
} eine Basis des Vektorraums V und A = (a
ij
) =
A
i=1
v
i
a
ij
fr 1 j n
gilt. Also sind die Zeilenvektoren von char
A
(X) die Relationen des R-Links-
moduls V.
12.1.3 Hilfssatz. V ist ein endlich erzeugter R-Torsionsmodul.
Beweis: Fr jedes o = v V ist Ann(v) = {r R | rv = o} ein Ideal in
R = F[X] derart, da Rv
= R/Ann(v). Da R = F[X] ein unendlich-dimensionaler
F-Vektorraum ist und Rv als Unterraum von V endlich-dimensional ist, folgt
Ann(v) = 0. Also ist V ein R-Torsionsmodul.
12.1.4 Denition. Das normierte Polynom m(X) R = F[X] heit Minimalpo-
lynom des Endomorphismus 0 = End
F
(V) von V, wenn m(X) ein Polynom
kleinsten Grades mit m() = 0 ist.
Analog erklrt man das Minimalpolynom einer n n-Matrix A = (a
ij
) mit
Koefzienten a
ij
aus dem Krper F.
12.1.5 Satz. Das Minimalpolynom m(X) R = F[X] des Endomorphismus
End
F
(V) ist durch eindeutig bestimmt. Es ist die normierte Ordnung o(V)
des Torsionsmoduls V ber dem Hauptidealring R.
Beweis: Sei k der Grad eines Polynoms m(X) = g
0
+g
1
X+ +g
k1
X
k1
+X
k
kleinsten Grades mit m() = 0. Nach Hilfssatz 12.1.3 ist der endlich erzeugte
348 12 Normalformen einer Matrix
R-Linksmodul V ein Torsionsmodul. Gem Denition 11.3.6 ist seine Ordnung
r(X) = o(V) ein Erzeuger des Hauptideals
Ann(V) = {q R | q v = o fr alle v V}.
Da assoziierte Elemente im Hauptidealring R = F[X] sich nur um konstante Fakto-
ren 0 = f F unterscheiden, kann r(X) als normiertes Polynom gewhlt werden.
Sei
o(V) = r(X) = r
0
+r
1
X + +r
t 1
X
t 1
+X
t
mit r
i
F.
Dann gilt fr alle v V, da
o = r(X) v = r
0
v +r
1
(v) + +r
t 1
t 1
(v) +
t
(v) = r() v.
Also ist r() = 0 in End
F
(V). Daher ist t k.
Das Polynomr(X) ist als Erzeuger des Hauptideals Ann(V) einAnnullator mini-
malen Grades, d. h. es gilt auch t k. Daher ist t = k und die normierten Polynome
r(X) und m(X) stimmen berein.
12.1.6 Satz. Sei End
F
(V) und V der R-Linksmodul bezglich der Wirkung von
auf V. Der Unterraum U des n-dimensionalen F-Vektorraums V ist genau dann
-invariant, wenn U ein R-Untermodul des R-Moduls V ist.
Beweis: Sei r(X) = r
0
+r
1
X + +r
k
X
k
R = F[X] und U ein -invarianter
Unterraum des F-Vektorraums V. Sei u U. Wegen Denition 3.7.1 ist
i
(u) U
fr i = 1, 2, . . . , k. Nach Denition 12.1.1 gilt dann
r(X)u = r
0
u +r
1
(u) +r
2
2
(u) + +r
k
k
(u) U.
Also ist U ein R-Untermodul von V.
Ist umgekehrt U ein R-Untermodul von V, dann ist (u) = Xu U fr alle
u U. Also ist U ein -invarianter Unterraum von V.
12.1.7 Denition. Der Endomorphismus End
F
(V) von V heit zyklisch, wenn
ein 0 = v V existiert, derart, da {v, v,
2
v, . . . ,
n1
v} eine Basis von V ist.
12.1.8 Denition. Ist f (X) = f
0
+ f
1
X + + f
n1
X
n1
+ X
n
ein normiertes
Polynom aus R = F[X], so heit die n n-Matrix
C(f (X)) =
_
_
_
_
_
_
_
_
_
_
_
_
0 0 0 0 0 f
0
1 0 0 0 0 f
1
0 1 0 0 0 f
2
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 f
n2
0 0 0 0 1 f
n1
_
_
_
_
_
_
_
_
_
_
_
_
12.1 Vektorrume als Moduln ber einem Polynomring 349
die Begleitmatrix von f (X).
12.1.9 Hilfssatz. Es sei ein zyklischer Endomorphismus des Vektorraums V mit
Basis B = {v, v, . . .
n1
v} und Minimalpolynom m(X) F[X]. Dann gelten:
(a) m(X) hat den Grad n.
(b) A
n
v =
n
i=1
(
i1
v)g
i1
mit g
i1
F. ()
Also ist (
n
g
n1
n1
g
1
g
0
)v = g() v = 0 fr g(X) = X
n
g
n1
X
n1
g
1
X g
0
F[X]. Da B eine Basis von V ist, folgt, da g(X)
das Minimalpolynom von ist. Also ist g(X) = m(X), weil g(X) normiert ist.
Setze f
i
= g
i
fr i = 0, 1, . . . , n 1, dann folgt aus Behauptung () nach
Denition 3.3.1.
12.1.10 Folgerung. Sei ein Endomorphismus des n-dimensionalen F-Vektor-
raums V und R = F[X]. V ist genau dann ein zyklischer R-Linksmodul bezglich
, wenn ein zyklischer Endomorphismus von V ist. Insbesondere besitzt V dann
eine Basis B derart, da die Matrix A
(B, B) =
_
_
_
_
_
_
_
R
1
0 0
0 R
2
.
.
.
.
.
.
0
0 0 R
k
_
_
_
_
_
_
_
,
wobei jede Matrix R
i
von der Form
R
i
=
_
_
_
_
_
_
_
_
C (q
i
(X)
e
i1
) 0 0
0 C (q
i
(X)
e
i2
)
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 C
_
q
i
(X)
e
ir
i
_
_
_
_
_
_
_
_
_
ist, e
i
= e
i1
e
i2
e
ir
i
> 0 fr i = 1, 2, . . . , k gilt und die Zahlen e
ij
i
fr
1 j
i
r
i
die Elementarteiler der q
i
(X)-Primrkomponente des Torsionsmoduls
V mit Ordnung o(V) = m(X) in R sind. Insbesondere ist V
q
i
(X)
= {v V | q
i
(X)
e
i
v = o} fr i = 1, 2, . . . , k.
Beweis: Nach Denition 12.1.1 und Hilfssatz 12.1.3 ist der n-dimensionale
F-Vektorraum ein Torsionsmodul ber dem Hauptidealring R = F[X]. Wegen
Satz 12.1.5 ist das Minimalpolynom m(X) von die Ordnung o(V) des endlich
erzeugten R-Linksmoduls V. Da R ein Hauptidealring ist, lt sich m(X) nach
Satz 11.1.27 eindeutig in Primelemente q
i
(X) R faktorisieren, d. h.
m(X) = q
1
(X)
e
1
q
2
(X)
e
2
q
k
(X)
e
k
,
12.2 Rationale kanonische Form 351
wobei die irreduziblen Polynome q
i
(X) F[X] normiert und paarweise verschieden
sind. Sei V
i
= V
q
i
(X)
die q
i
(X)-Primrkomponente des Torsionsmoduls V. Nach
Satz 11.3.5 und Folgerung 11.3.8 ist dann
V = V
1
V
2
V
k
und V
i
= {v V | q
i
(X)
e
i
v = 0} fr i = 1, 2, . . . , k.
Wegen Satz 12.1.6 ist jeder dieser direkten Summanden V
i
von V ein -invarianter
Unterraum. Sei
i
=
|V
i
die Einschrnkung von auf den Unterraum V
i
fr i =
1, 2, . . . , k. Nach Satz 3.7.3 gibt es dann in den Unterrumen V
i
Basen B
i
derart,
da B =
k
i=1
B
i
eine Basis von V ist. Sei R
i
= A
i
(B
i
, B
i
) fr i = 1, 2, . . . , k.
Dann hat bezglich B die diagonale Blockmatrix
A
(B, B) =
_
_
_
_
_
_
_
_
R
1
0 0
0 R
2
.
.
.
.
.
.
.
.
.
.
.
.
R
k1
0
0 0 R
k
_
_
_
_
_
_
_
_
.
Nach Satz 11.4.3 ist jede Primrkomponente V
i
von V eine direkte Summe
V
i
= M
i1
M
i2
M
ir
i
von zyklischen R-Linksmoduln M
ij
i
mit Ordnungen o(M
ij
i
) = q
i
(X)
e
ij
i
fr
1 j
i
r
i
, wobei die Indizes j
i
so geordnet werden knnen, da fr die Ele-
mentarteilerexponenten e
ij
i
von V
i
zum irreduziblen Polynom q
i
(X) gilt:
e
i
= e
i1
e
i2
e
ir
i
> 0.
Nach Satz 12.1.6 ist jeder direkte Summand M
ij
i
von V
i
ein -invarianter Unterraum.
Sei
ij
i
=
|M
ij
i
die Einschrnkung von auf den direkten Summanden M
ij
i
von V
i
. Dann ist die Ordnung o(M
ij
i
) = q
i
(X)
e
ij
i
von M
ij
i
nach Satz 12.1.5 das
Minimalpolynom des Endomorphismus
ij
i
von M
ij
i
. Da M
ij
i
ein zyklischer R-
Linksmodul ist, besitzt der Unterraum M
ij
i
von V
i
nach Folgerung 12.1.10 eine
Basis B
ij
i
derart, da die Matrix A
ij
i
(B
ij
i
, B
ij
i
) der Einschrnkung
ij
i
von auf
M
ij
i
die Begleitmatrix C(q
i
(X)
e
ij
i
) des Minimalpolynoms q
i
(X)
e
ij
i
von
ij
i
ist.
Nach Satz 3.7.3 ist B
i
=
r
i
j
i
=1
B
ij
i
, und
i
=
|V
i
hat bezglich B
i
die diagonale
Blockmatrix
R
i
= A
i
(B
i
, B
i
) =
_
_
_
_
_
_
C(q
i
(X)
e
i1
) 0 0
0 C(q
i
(X)
e
i2
)
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 C(q
i
(X)
e
ir
i
)
_
_
_
_
_
_
.
Hiermit ist Satz 12.2.1 bewiesen.
352 12 Normalformen einer Matrix
12.2.2 Folgerung. Zwei nn-Matrizen A = (a
ij
) und B = (b
ij
) mit Koefzienten
a
ij
, b
ij
aus dem Krper F sind genau dann hnlich, wenn sie dieselbe rationale
kanonische Form R haben. Insbesondere haben zwei hnliche Matrizen dasselbe
Minimalpolynom.
Beweis: Besitzen A und B dieselbe rationale kanonische Form R, dann existieren
nach Satz 12.2.1 und Satz 3.3.9 invertierbare n n-Matrizen P
1
und P
2
derart, da
R = P
1
1
AP
1
= P
1
2
BP
2
.
Also ist (P
2
P
1
1
)A(P
1
P
1
1
) = (P
2
P
1
1
)A(P
2
P
1
1
)
1
= B. Daher sind A und
B hnlich.
Umgekehrt sei A = P
1
BP fr eine invertierbare n n-Matrix P. Dann
beschreiben A und B nach Bemerkung 3.5.5 denselben Endomorphismus von
V = F
n
. Deshalb haben A und B dieselbe rationale kanonische Normalform R
nach Satz 12.2.1.
12.2.3 Hilfssatz. Sei ein zyklischer Endomorphismus des n-dimensionalenVektor-
raums V ber dem Krper F. Dann ist sein Minimalpolynom m(X) = f
0
+f
1
X +
f
2
X
2
+ + f
n1
X
n1
+ X
n
F[X] gleich dem charakteristischen Polynom
char Pol
(X).
Beweis: Da ein zyklischer Endomorphismus nach Hilfssatz 12.1.9 das Minimalpo-
lynom m(X) als einzigen Elementarteiler hat, gilt charPol
(X) genau dann, wenn q(X) ein Teiler von m(X) ist.
Beweis: Nach Satz 12.2.4 gilt char Pol
(X) =
k
i=1
r
i
j=1
q
i
(X)
e
ij
i
, wobei
m(X) = q
1
(X)
e
1
q
2
(X)
e
2
q
k
(X)
e
k
die Primfaktorzerlegung des Minimalpoly-
noms m(X) von in normierte irreduzible Polynome q
i
(X) mit q
i
(X) = q
j
(X)
fr i = j ist, und die e
ij
die Elementarteilerexponenten zum Polynom q
i
(X) sind.
Wegen e
i1
= e
i
ist daher
char Pol
(X) = m(X)
k
k=1
_
r
i
j
i
=2
q
i
(X)
e
ij
i
_
.
12.3 Berechnungsverfahren fr die Normalformen 353
Also ist das Minimalpolynomm(X) von einTeiler des charakteristischen Polynoms
char Pol
r
i=1
e
i
und jedes
Jordankstchen L
i
hat (e
i
1) Einsen in der unteren Nebendiagonalen.
12.3 Berechnungsverfahren fr die Normalformen
In diesem Abschnitt wird zunchst die Berechnung der Smith-Normalform der
charakteristischen Matrix einer n-reihigen quadratischen Matrix A mit Elementen
aus einem kommutativen Krper F auf den Fall von (n 1)-reihigen Matrizen
reduziert. Hierdurch ergibt sich ein efzienter Algorithmus zur Berechnung der ra-
tionalen kanonischen Normalform R und der zugehrigen Transformationsmatrix
Q mit R = Q
1
AQ. Sofern die Voraussetzungen von Satz 6.3.11 an A im Krper
F erfllt sind, erhlt man daraus dann sehr einfach auch die Jordan-Normalform J
von A.
354 12 Normalformen einer Matrix
12.3.1 Hilfssatz. Sei F ein kommutativer Krper und X eine Unbestimmte. Sei
A =
_
_
_
_
_
_
_
_
_
p
1
a
12
a
13
a
14
a
1n
p
2
a
22
X a
23
a
24
a
2n
p
3
a
32
a
33
X a
34
a
3n
p
4
a
42
a
43
a
44
X a
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
p
n
a
n2
a
n3
a
n4
a
nn
X
_
_
_
_
_
_
_
_
_
eine n n-Matrix mit Koefzienten a
ij
F fr 1 i n und 2 j n,
p
i
= p
i
(X) F[X] fr 1 i n, wobei p
1
(X) = (1)
t
X
t
+ +p
1,1
X +p
1,0
und Grad p
k
(X) < t fr 2 k n gilt.
Sei a
12
= 0. Dann gibt es zwei unimodulare Matrizen Q und P derart, da
QAP =
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 q
2
b
23
b
24
b
2n
0 q
3
b
33
X b
34
b
3n
0 q
4
b
43
b
44
X b
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 q
n
b
n3
b
n4
b
nn
X
_
_
_
_
_
_
_
_
_
,
wobei
b
ij
= a
ij
a
1
12
a
1j
a
i2
fr 3 i, j n,
b
2j
= a
2j
a
1
12
a
1j
a
22
+
_
n
i=3
a
1
12
a
1i
b
ij
_
fr 3 j n,
q
i
= a
12
p
i
+a
i2
p
1
fr 3 i n,
q
2
= a
12
p
2
+(a
22
X)p
1
+
n
i=3
a
1
12
a
1i
q
i
.
Insbesondere gilt q
2
= q
2
(X) = (1)
t +1
X
t +1
+ + q
2,1
X + q
2,0
und
Grad q
i
(X) t < t +1 fr alle 3 i n.
Beweis: Die unimodularen Matrizen P und Q sind die Produktmatrizen
P =
_
_
_
_
_
_
_
_
_
_
0 a
12
0 0 0
1
a
12
p
1
0 0 0
0 0 1 0 0
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 a
13
a
14
a
1n
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_
_
_
_
_
_
_
_
_
,
12.3 Berechnungsverfahren fr die Normalformen 355
Q =
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1
a
13
a
12
a
14
a
12
a
1n
a
12
0 0 1 0 0
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
a
22
X
a
12
1 0 0 0
a
32
a
12
0 1 0 0
a
42
a
12
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n2
a
12
0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
.
i=1
Grad[a
i
(X)] = t +n 1.
Diese Behauptung ist fr n = 1 trivial. Es wird nun angenommen, da sie fr
alle (n 1) (n 1)-Matrizen gilt.
(1) Falls a
1j
= 0 fr alle j {2, 3, . . . , n} und a
i1
= 0 fr alle i {2, 3, . . . , n},
dann ist
A =
_
_
_
_
_
p
1
0 0
0
.
.
. A
0
_
_
_
_
_
,
356 12 Normalformen einer Matrix
wobei A
und
P
, so da Q
P = diag(a
2
(X), . . . , a
n
(X)) fr geeignete a
i
(X) F[X] mit
n
i=2
Grad[a
i
(X)] = n 1. Dann sind
Q =
_
_
_
_
_
1 0 0
0
.
.
. Q
0
_
_
_
_
_
und P =
_
_
_
_
_
1 0 0
0
.
.
. P
0
_
_
_
_
_
unimodulare n n-Matrizen derart, da
QAP = diag(a
1
(X) = p
1
(X), a
2
(X), . . . , a
n
(X)).
(2) Falls nicht alle a
1j
mit 2 j n gleich Null sind, dann kann man nach
Permutation der Spalten und Zeilen von Aannehmen, da a
12
= 0 ist. Sei
q
21
=
a
22
X
a
12
n
k=3
a
1k
a
k2
(a
12
)
2
.
Dann sind nach Hilfssatz 12.3.1
Q
1
=
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
q
21
1
a
13
a
12
a
14
a
12
a
1n
a
12
a
32
a
12
0 1 0 0
a
42
a
12
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n2
a
12
0 0 0 1
_
_
_
_
_
_
_
_
_
_
und
P
1
=
_
_
_
_
_
_
_
_
_
0 a
12
0 0 0
1
a
12
p
1
(X)
a
13
a
12
a
14
a
12
a
1n
a
12
0 0 1 0 0
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_
_
_
_
_
_
_
_
_
unimodulare Matrizen, so da
B = Q
1
AP
1
=
_
_
_
_
_
_
_
_
1 0 0 0 0
0 q
2
b
23
b
24
b
2n
0 q
3
b
33
X b
34
b
3n
0 q
4
b
43
b
44
X b
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 q
n
b
n3
b
n4
b
nn
X
_
_
_
_
_
_
_
_
,
12.3 Berechnungsverfahren fr die Normalformen 357
wobei q
2
= q
2
(X) ein normiertes Polynom vom Grad t + 1, Grad[q
i
(X)] t fr
3 i n, und alle b
ij
F.
(3) a) Sei s = max{Grad[q
i
(X)] | 3 i n}. Dann hat jedes Polynom
q
i
(X) = a
is
X
s
+ a
i,s1
X
s1
+ + a
i,0
F[X] hchstens den Grad s t fr
i = 3, . . . , n. Also ist a
is
= 0, falls Grad[q
i
(X)] < s. Die Matrix
U
1
=
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 a
3s
X
s1
1 0 0
0 a
4s
X
s1
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
ns
X
s1
0 0 1
_
_
_
_
_
_
_
_
ist eine unipotente n n-Matrix, und
BU
1
=
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 q
2
b
23
b
24
b
2n
0 q
(1)
3
b
33
X b
34
b
3n
0 q
(1)
4
b
32
b
44
X b
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 q
(1)
n
b
n2
b
n3
b
nn
X
_
_
_
_
_
_
_
_
_
,
wobei jedes Polynom
q
(1)
i
(X) = q
i
(X) +(b
ii
X)a
is
X
s1
+
n
k=3
k=i
b
ik
a
ks
X
s1
= (b
ii
a
is
+a
i,s1
)X
s1
+
s2
k=0
a
ik
X
k
+
n
k=3
k=i
b
ik
a
ks
X
s1
mit Index 3 i n den Grad
Grad[q
(1)
i
(X)] max {Grad[q
i
(X)] 1 | 2 i n} s 1
hat.
b) Falls Grad[q
(1)
i
(X)] = 0 fr ein q
(1)
i
(X) von B U
1
ist, dann ist Schritt
a) nochmals anzuwenden. Daher gibt es hchstens t unipotente Matrizen U
i
mit
Produkt U = U
1
U
2
U
t
, so da
BU =
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 q
2
e
23
e
24
e
2n
0 e
32
e
33
X e
34
e
3n
0 e
42
e
43
e
44
X e
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 e
n2
e
n3
e
n4
e
nn
X
_
_
_
_
_
_
_
_
_
,
358 12 Normalformen einer Matrix
wobei alle e
ij
F.
c) Nach Induktionsvoraussetzung existieren fr die (n 1) (n 1)-Matrix
A
=
_
_
_
_
_
_
_
q
2
e
23
e
24
e
2n
e
32
e
33
X e
34
e
3n
e
42
e
43
e
44
X e
4n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
e
n2
e
n3
e
n4
e
nn
X
_
_
_
_
_
_
_
,
zwei unimodulare (n 1) (n 1)-Matrizen Q
2
und P
2
und n 1 Polynome
a
2
(X), a
3
(X), . . . , a
n
(X), fr die
n
k=2
Grad[a
k
(X)] = n +t 1
gilt, so da
Q
2
A
P
2
= diag(a
2
(X), a
3
(X), . . . , a
n
(X))
eine Diagonalform von A
2
0
_
_
_
_
_
und P
2
=
_
_
_
_
_
1 0 0
0
.
.
. P
2
0
_
_
_
_
_
zwei unimodulare n n-Matrizen, so da
(Q
2
Q
1
)A(U
1
U
2
U
t
)(P
1
P
2
) = diag(a
1
(X) = 1, a
2
(X), . . . , a
n
(X))
eine Diagonalform der n n-Matrix Amit
n
i=1
Grad[a
i
(X)] = t +n 1 ist.
(4) Falls alle a
1j
= 0 fr 2 j n, sind die Schritte (2) und (3) auf die
Transponierte A
T
von A anzuwenden. Da A und A
T
quivalente Diagonalformen
haben, ist die Behauptung allgemein gltig.
12.3.4 Folgerung. Ist das Minimalpolynom m(X) der n n-Matrix M = (m
ij
)
mit Koefzienten im Krper F die Potenz eines irreduziblen Polynoms p(X) R =
F[X], dann existieren nach Algorithmus 12.3.3 zwei unimodulare n n-Matrizen
P und Q derart, da
QCP = diag(p(X)
e
1
, p(X)
e
2
, . . . , p(X)
e
r
, 1, . . . , 1)
mit e
1
e
2
e
r
> 0 die Smith-Normalform der charakteristischen Matrix C
von Mist.
12.3 Berechnungsverfahren fr die Normalformen 359
Beweis: Da Permutationsmatrizen unimodular sind, existieren nach Algorith-
mus 12.3.3 zwei unimodulare n n-Matrizen P und Q derart, da
QCP = diag (a
1
(X), a
2
(X), . . . , a
n
(X))
eine Diagonalmatrix ist mit Grad[a
i
(X)] Grad[a
i+1
(X)] fr 1 i n, und
Grad[a
i
(X)] = 0 genau dann, wenn i {1, 2, . . . , r}. Nach Voraussetzung ist dann
r
i=1
a
i
(X) = p(X)
k
mit k Grad[p(X)] = n
das charakteristische Polynom von M. Da p(X) irreduzibel ist, ist a
i
(X) = p(X)
e
i
,
und e
1
e
2
e
r
> 0 nach Umnumerierung.
12.3.5 Bemerkung. Ist die Zerlegung des Minimalpolynoms
m(X) =
s
i=1
p
i
(X)
k
i
einer n n-Matrix M = (m
ij
), m
ij
F, in irreduzible Faktoren p
i
(X) bekannt,
dann ist die Voraussetzung von Folgerung 12.3.4 einfach zu erfllen, indem man den
n-dimensionalen Vektorraum V = F
n
in seine Primrkomponenten
V
i
= {w F
n
|
_
p
i
(M)
k
i
_
w = o F
n
}
direkt zerlegt. Zunchst berechnet man fr jedes i 1, 2, . . . , s eine Basis B
i
des
M-invarianten Unterraums V
i
. Da V =
s
i=1
V
i
nach Satz 12.2.1 ist, erhlt man eine
neue Basis B
s
i=1
B
i
von V. Sei S die Matrix des Basiswechsels B B
, wobei
B = {e
1
, e
2
, . . . , e
n
} die kanonische Basis von V ist. Dann ist M
= S
1
MS eine
Blockdiagonalmatrix, wobei der i-te BlockM
i
auf V
i
wirkt unddas Minimalpolynom
p
i
(X)
k
i
hat. Daher erfllt jedes M
i
die Voraussetzung von Folgerung 12.3.4. Damit
erhlt man dann alle Elementarteilerexponenten e
ij
von M zu jedem irreduziblen
Polynom p
i
(X).
12.3.6 Bemerkung. Imallgemeinen ist die Berechnung der Elementarteiler der cha-
rakteristischen Matrix C = M XE einer n n-Matrix M = (m
ij
) mit Koefzi-
enten in einem kommutativen Krper F in zwei Schritte aufgeteilt. Mittels Algorith-
mus 12.3.3, erhlt man zwei unimodulare Matrizen P und Q, so da QCP = B =
diag (b
1
(X), b
2
(X), . . . , b
n
(X)) eine Diagonalmatrix mit
n
i=1
Grad[b
i
(X)] = n
ist. Dann wird die Smith-Normalform von B mit Hilfe des Algorithmus 11.5.15 fr
Diagonalmatrizen berechnet.
360 12 Normalformen einer Matrix
12.3.7 Berechnungsverfahren fr die rationale kanonische Normalform und
die zugehrige Transformationsmatrix. Sei V = F
n
der n-dimensionale, arith-
metischeVektorraumber demKrper F. Sei B = {f
1
, f
2
, . . . , f
n
} die kanonische
Basis von V. Sei R = F[X] der Polynomring in der Unbestimmten X ber F.
Sei A = (a
ij
) eine n n-Matrix, a
ij
F, mit charakteristischer Matrix
C = char
A
(X). Sei der zu Agehrige Endomorphismus von V.
Es wird vorausgesetzt, da man das Minimalpolynom m(X) von A schon ein-
deutig in Potenzen von irreduziblen Polynomen zerlegt hat.
Dann lassen sich nach den Ergebnissen der Kapitel 11 und 12 die folgenden
Schritte durchfhren.
(a) Man berechne mittels der Algorithmen 12.3.3 und 11.5.15 die Smith-
Normalform
D = diag(d
1
(X), d
2
(X), . . . , d
n
(X))
von C, wobei die n Polynome d
i
(X) die Elementarteiler von C sind.
(b) Wegen d
i
(X)|d
i+1
(X) fr i = 1, 2, . . . , n 1 ist m(X) = d
n
(X) das Mini-
malpolynom von A. Sei
m(X) =
t
k=1
[q
k
(X)]
e
k
eine eindeutige Zerlegung von m(X) in Potenzen irreduzibler Polynome
q
k
(X) R, die paarweise nicht assoziiert sind. Sei
V
k
= {v V | [q
k
(A)]
e
k
v = o}
die q
k
(X)-Primrkomponente von V. Sei B
k
eine Basis von V
k
. Dann ist
B
=
B
k
eine Basis von V. Sei S die Matrix des Basiswechsels B B
.
Dann ist
S
1
AS =
_
_
_
_
_
_
R
1
0 0
0 R
2
.
.
.
.
.
.
.
.
.
0
0 0 R
t
_
_
_
_
_
_
,
wobei R
k
die Matrix der Einschrnkung des zu A gehrigen Endomorphis-
mus von V auf den -invarianten Unterraum V
k
bzgl. der Basis B
k
ist.
Insbesondere ist m
k
(X) = [q
k
(X)]
e
k
R das Minimalpolynom von R
k
fr
k = 1, 2, . . . , t .
(c) Sei F
k
= R/q
k
(X)R der Restklassenkrper von R bezglich des maximalen
Ideals q
k
(X)R von R fr k = 1, 2, . . . , t . Dann ist
V
k
= V
k
/q
k
(R
k
)V
k
ein
F
k
-Linksvektorraum fr k = 1, 2, . . . , t .
12.3 Berechnungsverfahren fr die Normalformen 361
Sei
B
k
={ w
k1
, . . . , w
kr
k
} eine F
k
-Basis von
V
k
, wobei w
kh
=w
kh
+q
k
(R
k
)V
k
fr ein fest gewhltes w
kh
V
k
fr 1 h r
k
. Dann ist V
k
=
r
k
h=1
Rw
kh
eine direkte Zerlegung von V
k
in zyklische R-Moduln Rw
kh
. Fr jedes h sei
(R
k
)
e
kh
die kleinste Potenz von R
k
mit (R
k
)
e
kh
w
kh
= o. Nach Umnumerie-
rung der w
kh
erhlt man, da e
kh
e
k,h+1
fr h = 1, 2, . . . , r
k
1 gilt. Dann
sind die r
k
Polynome d
kh
(X) = q
k
(X)
e
kh
die Elementarteiler von
|V
k
.
Sei g
kh
der Grad des Elementarteilers d
kh
(X) fr 1 h r
k
, 1 k t .
Dann ist
B
kh
= {A
g
w
kh
Rw
kh
|0 g g
kh
1}
eine Basis des -invarianten Unterraums Rw
kh
von V
k
, bezglich der die
Einschrnkung
kh
von auf Rw
kh
die Begleitmatrix C(d
kh
(X)) von d
kh
(X)
als Matrix hat.
(d) Sei B
k
=
r
k
h=1
B
kh
. Dann ist B
k
eine Basis von V
k
, bezglich derer die
Einschrnkung
k
von auf V
k
die Matrix
A
k
(B
k
, B
k
) =
_
_
_
_
_
_
C(d
k1
(X)) 0 0
0 C(d
k2
(X))
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 C(d
kr
k
(X))
_
_
_
_
_
_
hat. Diese Matrix ist die rationale kanonische Normalform von R
k
.
(e) Sei B
=
t
k=1
B
k
. Dann ist B
. Dann ist
T
1
AT =
_
_
_
_
_
_
A
1
(B
1
, B
1
) 0 0
0 A
2
(B
2
, B
2
)
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 A
t
(B
t
, B
t
)
_
_
_
_
_
_
die rationale kanonische Form von A.
12.3.8 Berechnungsverfahren fr die Jordansche Normalform. Sei F ein Zer-
fllungskrper der (n n)-Matrix A = (a
ij
) mit Koefzienten a
ij
F. Nach Satz
6.3.11 existiert dann die Jordansche Normalform J von A. Nach Berechnung der
rationalen kanonischen Form Rvon Amit dem Berechnungsverfahren 12.3.7 kann
angenommen werden, da A eine Begleitmatrix zum Minimalpolynom m(X) von
A ist. Dann hat V = F
n
eine zyklische Basis B = {v, v, . . . ,
n1
v} fr einen
Vektor 0 = v V, wobei der zu A gehrige Endomorphismus von V ist. Da F
Zerfllungskrper von A ist, ist m(X) = (X c)
n
nach Satz 12.2.5, wobei c ein
362 12 Normalformen einer Matrix
Eigenwert von ist. Weiter ist (Xc)
n
der einzige Elementarteiler von . Daher ist
B
= {v, ( c)v, . . . , ( c)
n1
v} ebenfalls eine Basis von V. Nach dem Beweis
von Satz 6.3.11 ist die (n n)-Matrix
A
(B
, B
) =
_
_
_
_
_
_
_
c
1 c
1 c
.
.
.
.
.
.
1 c
_
_
_
_
_
_
_
die Jordansche Normalform der Matrix A.
12.3.9 Beispiel. Sei V = Q
5
der fnfdimensionale Vektorraum ber dem Krper
Q der rationalen Zahlen. Gesucht ist das charakteristische Polynom, das Minimal-
polynom, die Elementarteiler, die rationale kanonische Normalform, die Jordansche
Normalform (falls sie existiert) und die zugehrigen Transformationsmatrizen fr
die Matrix
A =
_
_
_
_
_
_
3 1 4 3 1
1 1 1 1 0
1 0 2 0 0
4 1 4 5 1
2 0 2 2 1
_
_
_
_
_
_
.
Lsung: Mittels der Schritte (2), (3), und (4) desAlgorithmus 12.3.3 werden zunchst
die Elementarteiler der charakteristischen Matrix C = AXE berechnet.
In der folgenden Rechnung wird die Ausgangsmatrix C und alle aus ihr bei den
jeweiligen Schritten (2) bis (4) des Algorithmus 12.3.3 hervorgehenden Matrizen fett
gedruckt, whrend die jeweiligen Transformationsmatrizen der Formen P, Q und
Uin Normaldruck gesetzt sind.
Schritt (2) fr 5 5-Matrix:
_
_
_
_
_
(3 +X) 1 4 3 1
1 1 X 1 1 0
1 0 2 X 0 0
4 1 4 5 X 1
2 0 2 2 1 X
_
_
_
_
_
_
_
_
_
_
0 1 0 0 0
1 (3 +X) 4 3 1
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
4 X 1 4 3 1
0 0 1 0 0
1 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
(X 1) X
2
+2X 2 4X +3 3X 2 (1 X)
0 1 2 X 0 0
1 1 X 0 2 X 0
0 2 2 2 1 X
_
_
_
_
_
_
12.3 Berechnungsverfahren fr die Normalformen 363
Schritt (3) fr 5 5-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 X
2
X +3 3 2 0
0 1 2 X 0 0
0 1 X 0 2 X 0
0 2 2 2 1 X
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 1 0 1 0
0 0 0 0 1
_
_
_
_
_
Schritt (2) fr 4 4-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 X
2
X +1 3 2 0
0 1 2 X 0 0
0 1 0 2 X 0
0 0 2 2 1 X
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 0 3 0 0
0
1
3
X
2
X +1
2
3
0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0
1
3
(2 X) 1
2
3
0
0 0 0 1 0
0
2
3
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0
1
3
(X 2) (1 X)
3
2
2
3
(2 X) 0
0 0 3 2 X 0
0
2
3
2(X
2
X +1)
2
3
1 X
_
_
_
_
_
_
Schritt (3) fr 3 3-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 (X 1)
3
0 0
0 0 3 2 X 0
0 0 2(X
2
X +1)
2
3
1 X
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 2X 0 1
_
_
_
_
_
Schritt (4) fr 3 3-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 0
1
3
0
0 0 3 (1 X)
3
0
0 0 0
2
3
1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 (1 X)
3
0 0
0 0 3 2 X 0
0 0 2
2
3
1 X
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1
1
3
(2 X) 0
0 0 0 (1 X)
3
(2 X) 0
0 0 0
2
3
(1 X) 1 X
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1
1
3
(2 X) 0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
Schritt (3) fr 2 2-Matrix:
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 (1 X)
3
(X 2) 0
0 0 0
2
3
(1 X) 1 X
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0
2
3
1
_
_
_
_
_
_
364 12 Normalformen einer Matrix
Also hat die charakteristische Matrix char
A
(X) von Adie Smith-Normalform
diag(1, 1, 1, X 1, (X 1)
3
(X 2)).
Daher sind m(X) = (X 1)
3
(X 2) das Minimalpolynom und charPol
A
(X) =
(X 1)
4
(X 2) das charakteristische Polynom von A. Nach Satz 6.3.11 existiert
daher die Jordansche Normalform von A.
Da (X 1) und (X 2) teilerfremd sind, hat char
A
(X) die Elementarteiler
(X 1), (X 1)
3
und (X 2).
Nach Verfahren 12.3.7 (b) hat V die Primrkomponenten
V
1
= {v V | (AE
5
)
3
v = 0} und V
2
= {v V | (A2E
5
)v = 0}.
Die Matrix A 2E
5
hat den Rang 4. Daher ist dim
Q
V
2
= 1 nach Satz 3.2.13.
Insbesondere ist der Eigenvektor w
21
= (0, 1, 2, 3, 2) von A zum Eigenwert
c
2
= 2 eine Basis B
2
von V
2
.
Aus Satz 11.3.5 folgt V = V
1
V
2
und so dim
Q
V
1
= 4. Nun ist
(AE
5
)
2
=
_
_
_
_
_
_
1 1 1 1 1
1 0 1 1 0
3 1 3 3 1
3 0 3 3 0
2 0 2 2 0
_
_
_
_
_
_
,
(AE
5
)
3
=
_
_
_
_
_
_
0 0 0 0 0
1 0 1 1 0
2 0 2 2 0
3 0 3 3 0
2 0 2 2 0
_
_
_
_
_
_
.
Also bilden die Vektoren w
11
= (0, 1, 0, 0, 0), (A E
5
)w
11
= (1, 0, 0, 1, 0),
(A E
5
)
2
w
11
= (1, 0, 1, 0, 0) und der Eigenvektor w
12
= (0, 1, 0, 0, 1) von A
zum Eigenwert c
1
= 1 eine Basis B
1
von V
1
derart, da w
1i
(A E
5
)V
1
fr
i = 1, 2 gilt. Daher sind w
11
und w
12
nach 12.3.7 (d) zyklische Vektoren von A,
d. h. V
1
= Rw
11
Rw
12
.
Insbesondere ist B
1
= {w
11
, Aw
11
, A
2
w
11
, w
12
} eine Basis von V
1
und B
=
B
1
B
2
eine Basis von V. Sei B = {f
1
, f
2
, . . . , f
5
} die kanonische Basis und
B
= B
1
B
2
, die nach 12.3.8 existierende Basis von V, die zur Jordanschen
Normalform gehrt. Es sind
T =
_
_
_
_
_
_
0 1 1 0 0
1 1 1 1 1
0 0 1 0 2
0 1 2 0 3
0 0 0 1 2
_
_
_
_
_
_
und Q =
_
_
_
_
_
_
0 1 1 0 0
1 0 0 1 1
0 0 1 0 2
0 1 0 0 3
0 0 0 1 2
_
_
_
_
_
_
12.4 Aufgaben 365
die Matrizen der Basiswechsel B B
bzw. B B
r
j=1
(2r 2j +1)n
j
.
12.6 Sei n 2 und
A =
_
_
_
_
_
_
_
_
a b b b
b a b b
b b a
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
b b a
_
_
_
_
_
_
_
_
eine n n-Matrix ber dem Krper F derart, da nb = 0.
(a) Bestimmen Sie auf mglichst einfache Weise alle Eigenwerte von A und die Dimen-
sionen der zugehrigen Eigenrume.
(b) Begrnden Sie mit Ihren Ergebnissen zu (a), da Aber demKrper F eine Jordansche
Normalform J besitzt.
(c) Berechnen Sie das Minimalpolynom m(X) von A.
(d) Geben Sie die Jordansche Normalform J an.
12.7 Sei n 3 und
A =
_
_
_
_
_
_
_
0 0 0 b
1
0 0 0 b
2
.
.
.
.
.
.
.
.
.
0 0 0 b
n1
a
1
a
2
a
n1
0
_
_
_
_
_
_
_
eine reelle n n-Matrix derart, da nicht alle a
j
und nicht alle b
j
gleich Null sind.
Sei c =
n1
j=1
a
j
b
j
. Zeigen Sie:
(a) Ist c = 0, soist 0der einzige Eigenwert vonA, undAhat Minimalpolynomm(X) = X
3
und Jordansche Normalform
J =
_
J
1
J
2
_
, wobei J
1
=
_
_
0
1 0
0 1 0
_
_
und J
2
die (n 3) (n 3)-Nullmatrix ist.
(b) Ist c = 0, so sind alle Eigenwerte von A reell. Sie sind
c,
c, d
2
=
c
und d
i
= 0 fr 3 i n.
A Hinweise zur Benutzung von
Computeralgebrasystemen
An den mathematischen Instituten der deutschen Hochschulen sind die Computeral-
gebrasysteme Maple und Mathematica weit verbreitet. Die in ihnen enthaltenen
Algorithmen aus dem Gebiet der Linearen Algebra sind in den Handbchern [3]
und [32] ausfhrlich beschrieben. Eine noch eingehendere Beschreibung ber die
Anwendungsmglichkeiten von Maple im bungsbetrieb einer Anfngervorlesung
1
3
2
3
1
3
0
1
3
0 0 1
1
3
2
3
1
3
0 0
1
3
0 0
1
3
1
3
1
3
1
3
2
3
1
0
2
3
2
3
0
1
3
0 0 0
2
3
2 0
1
3
1
3
1
3
0
1
3
0 0 1
2
3
2
3
1
3
0 0
1
3
1 0
1
3
1
3
2
3
2
3
2
3
0
1 0 1 0 1 0 0 0 0 3 1
0 0 1 0 0 0 1 1 1 1 0
0 1 0 0 0 0 0 0 2 2 0
0 0 0 0 0 1 0 0 1 1 0
0 0 0 0 0 0 0 1 0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
mit q
1
aq = j.
B Lsungen der Aufgaben
B.1 Lsungen zu Kapitel 1
B.1.1 Die Behauptung ist fr n = 1 trivial. Die Menge der k-elementigen Teilmengen von
{1, 2, . . . , n, n +1} zerfllt in 2 Klassen. Zur ersten gehren die k-elementigen Teilmengen,
die n+1 enthalten; zur zweiten gehren die k-elementigen Teilmengen, die n+1 nicht enthal-
ten. Nach Induktionsvoraussetzung haben diese beide Klassen
_
n
k1
_
bzw.
_
n
k
_
Teilmengen.
Insgesamt gibt es
_
n
k1
_
+
_
n
k
_
=
n!
(k1)!(nk+1)!
+
n!
k!(nk)!
=
n![k+nk+1]
k!(nk+1)!
=
_
n+1
k
_
k-elementige Teilmengen.
B.1.2 Die Behauptung ist fr n = 1 trivial. Der Induktionsschlu ergibt sich aus der Glei-
chung
n+1
k=1
k =
n
k=1
k +(n +1) =
1
2
n(n +1) +(n +1) =
1
2
(n +1)(n +2).
B.1.3 Die Behauptung ist fr n = 1 trivial. Der Induktionsschlu ergibt sich aus der
Gleichung:
n+1
k=1
k
2
=
n
k=1
k
2
+ (n + 1)
2
=
1
6
n(n + 1)(2n + 1) + (n +1)
2
=
1
6
(n +1)
_
2n
2
+n +6n +6
_
=
1
6
(n +1)(n +2)(2n +3).
B.1.4 (a) x = 1, y = 1, z = 1.
(b) Keine Lsung.
(c) x = 1, y = z, z beliebig.
B.1.5 Nach Subtraktion der ersten Gleichung von der zweiten gilt 2y +2z = d. Indem man
nun das Zweifache der dritten Gleichung hiervon abzieht, erhlt man 0 = d 2. Falls d = 2,
ist dies ein Widerspruch!
B.1.6 Imersten Fall liegt wegen 1(1+1) = 12 = 2 und (11)(11) = 11 =
3
2
kein Vektorraum vor. Im zweiten Fall handelt es sich um einen reellen Vektorraum.
B.1.7 Die Multiplikationstafel der Gruppe G ist:
1 1 i i
1 1 1 i i
1 1 1 i i
i i i 1 1
i i i 1 1
B.2 Lsungen zu Kapitel 2 373
B.1.8 Seien a, b und c, d zwei Paare reeller Zahlen mit a = 0 und c = 0. Dann ist
f
a,b
f
c,d
(x) = a(cx +d) +b
= acx +(ad +b) fr alle x R.
Da ac = 0, ist f
a,b
f
c,d
= f
ac,ad+b
G, und f
1,0
ist das Einselement in G. Weiter ist
(f
a,b
)
1
= f
a
1
,ba
1 G. Also ist G eine Gruppe.
B.1.9 R ist ein Ring, weil das Produkt zweier ungerader Zahlen wieder ungerade ist, woraus
folgt:
a
b
c
d
,
a
b
+
c
d
=
ad+bc
bc
R fr alle
a
b
,
c
d
R. Das Element 2 R hat kein Inverses
in R, da
1
2
R.
B.2 Lsungen zu Kapitel 2
B.2.1 Gilt vx +wy = (0, 0) fr x, y F mit (x, y) = (0, 0), so ist ax +cy = 0 = bx +dy.
Hieraus folgt (ad bc)x = 0 = (ad bc)y. Wegen (x, y) = (0, 0) ist ad bc = 0. Sei
umgekehrt ad bc = 0. Falls d = b = 0, so sind v und w linear abhngig. Ist d = 0, dann
ist vd wb = (ad bc, bd db) = (ad bc, 0) = (0, 0). Daher sind v, w linear abhngig.
B.2.2 (a) Angenommen, es gilt (u+vw2)a+(uvw)b+(u+w)c = 0 fr a, b, c Q.
Dann ist u(a + b + c) + v(a b) + w(2a b + c) = 0. Da u, v, w linear unabhngig
sind, gelten die Gleichungen: a + b + c = 0, a b = 0 und 2a + b c = 0, woraus
(a, b, c) = (0, 0, 0) folgt.
(b) (u +v w3) (u +v3 w) +(v +w)2 = 0.
B.2.3 v = 3e
1
+2e
2
+4e
3
ist eine gesuchte Linearkombination.
B.2.4 Aus u =
m
i=1
v
i
f
i
und v
i
=
n
j=1
w
j
g
ij
fr f
i
, g
ij
F folgt
u =
m
i=1
_
n
j=1
w
j
g
ij
_
f
i
=
n
j=1
w
j
_
m
i=1
g
ij
f
i
_
.
B.2.5 (a) S ist linear abhngig. S hat als Basis {(1, 1, 1, 1), (0, 2, 3, 0)}.
(b) {(1, 1, 1, 1), (0, 2, 3, 0), (1, 0, 0, 0), (0, 1, 0, 0)} ist eine Basis von V.
B.2.6 Wegen p(0) = p(1) = 0 und q(0) = q(1) = 0 ist (p + q)(0) = 0 und (pa)(0) =
(pa)(1) = 0 fr alle a F. Also ist W ein Unterraum. Eine Basis von W ist gegeben durch
{X
2
X, X
3
X
2
, . . . , X
n
X
n1
}. Um diese zu einer Basis von F
n
[X] zu erweitern, kann
man z. B. die Polynome 1 und X hinzufgen.
B.2.7 Eine Basis ist {(1, 2, 2, 2, 1), (0, 0, 1, 1, 1)}.
374 B Lsungen der Aufgaben
B.2.8 (a) Sei G
i
(X) :=
n
j=1
j=i
Xa
j
a
i
a
j
. Dann ist G
i
(X) ein Polynom vom Grad n 1.
Auerdem gilt G
i
(a
k
) = 0 falls i = k und G
i
(a
i
) = 1. Damit gilt p(a
i
) =
n
j=1
p(a
j
)
G
j
(a
i
) fr jedes Polynomp(X) vom Grad n1. Setzt man g(X) :=
n
j=1
p(a
j
) G
j
(X),
so ist p(X) = g(X) fr X = a
1
, . . . , a
n
. Die Koefzienten eines Polynoms g(x) vom Grad
n1sinddurchseineAuswertungenannStellen(x
i
, g(x
i
)) eindeutigbestimmt. Damit folgt
p(X) = g(X) =
n
j=0
p(a
j
) G
j
(X). Insbesondere erzeugen die G
i
(X) den Vektorraum
F
n1
[X]. Da dim(F
n1
[X]) = n, ist {G
1
(X), . . . , G
n
(X)} eine Basis von F
n1
[X]. Daher
hat jedes p(X) die in (b) angegebene eindeutige Darstellung.
(c) Die n 1 Polynome H
i
(X) = (Xa)
i
und H
o
(X) = 1 sind wegen Grad H
i
(X) = i
fr 0 i n 1 linear unabhngig. Daher bilden sie eine Basis von F
n1
[X].
(d) Wegen (c) hat jedes p(X) F
n1
[X] die Darstellung p(X) =
n1
i=0
p
i
H
i
(X) mit
eindeutig bestimmten p
i
F. Setzt man X = a, so folgt p
o
= p(a). Die k-fache Ableitung
p
(k)
(X) von p(X) ist p
(k)
(X) =
n1
i=k
i(i 1) (i k +1)p
i
(X a)
ik
. Hieraus folgt
p
(k)
(a) = p
k
k! fr k = 1, 2, . . . , n 1. Daher gilt (d).
B.2.9 Die Annahme, da f (x)a + g(x)b + h(x)c = 0 fr geeignete a, b, c R und alle
x Rgilt, fhrt durch Auswertung an drei geeigneten Stellen x in jeder der drei Teilaufgaben
auf ein homogenes Gleichungssystem, das nur die Lsung (a, b, c) = (0, 0, 0) hat. Bei (a)
whle man die Stellen x = 0 und
2
; bei (b) die Stellen x = 0, 1 und 2; bei (c) die Stellen
x = 0,
2
und .
B.2.10 (a) Fr r = 2 gilt nach dem Dimensionssatz 2.2.16 wegen U
1
U
2
= 0, da
dimU
1
+dimU
2
= dim(U
1
U
2
) ist. Wegen U
r
_
r1
i=1
U
i
_
= 0 folgt dim
_
r
i=1
U
i
_
=
dim
_
r1
i=1
U
i
U
r
_
= dim
_
r1
i=1
U
i
_
+dimU
r
=
r
i=1
dimU
i
. Hieraus ergibt sich der
Induktionsschlu.
(b) Nach Voraussetzung ist dimU
i
1 fr i = 1, 2, . . . , r. Also folgt nach (a) und
Folgerung 2.2.14, da r
r
i=1
dimV
i
=
r
i=1
dim
_
r
i=1
U
i
_
dimV = n; denn
r
i=1
U
i
ist nach Satz 2.3.3 ein Unterraum von V.
B.3 Lsungen zu Kapitel 3
B.3.1 Ist a = (a
1
, . . . , a
n
) mit a b = 0 fr alle b F
n
, so gilt insbesondere a e
i
= a
i
= 0
fr i = 1, . . . , n, also a = o. Umgekehrt ist nach Denition des Skalarproduktes klar, da
o b = 0 fr alle b F
n
gilt.
B.3.2 (a) 20 = 2
4
+2
2
. Also bentigt man die 5 Produkte A
2
, A
4
= (A
2
)
2
, A
8
= (A
4
)
2
,
A
16
= (A
8
)
2
und A
20
= A
16
A
4
. Es folgt A
20
=
_
1 40
0 1
_
.
(b) Man beweist A
n
=
_
1 2n
0 1
_
durch vollstndige Induktion nach n. Ist n = 1, so ist
A
n
= A und die Behauptung ist trivialerweise erfllt. Wegen A
n+1
= A
n
A folgt der
Induktionsbeweis aus der Induktionsvoraussetzung A
n
=
_
1 2n
0 1
_
durch einfaches Ausmulti-
plizieren.
B.3 Lsungen zu Kapitel 3 375
B.3.3 (a) (ABABA)
2
= ABABABABAABAAB+ABAABA = ABAB
ABABAABAB +ABABA = 0.
(b) Sei A =
_
0 0
1 0
_
und B =
_
0 0
0 1
_
. Dann ist AB = 0 und BA = A = 0.
B.3.4 Da A und B zwei 3 5-Matrizen vom Rang 2 sind, ist dimKer A = dimKer B =
5 2 = 3 nach Satz 3.2.13. Nach dem Dimensionssatz folgt: 5 dimKer A+dimKer B
dim(Ker A Ker B) = 6 dim(Ker A Ker B). Also ist Ker A Ker B = {o}.
B.3.5 (a) und (b) folgen unmittelbar aus Denition 3.1.3.
(c) Seien c
jj
=
n
i=1
a
ji
b
ij
und d
ii
=
n
j=1
b
ij
a
ji
. Dann folgt aus Denition 3.1.17,
da
tr(AB) =
n
j=1
c
jj
=
n
j=1
n
i=1
a
ji
b
ij
=
n
i=1
n
j=1
b
ij
a
ji
=
n
i=1
d
ii
= tr(BA).
(d) Fr a =
1
n
tr(A) gilt die Behauptung wegen (a) und (b).
B.3.6 (a) A und B sind Basen, weil die jeweiligen homogenen Gleichungssysteme nur die
triviale Lsung besitzen.
(b)
1
3
_
_
1 5 10
1 2 5
0 0 1
_
_
.
(c) A
(A, A) =
_
_
11 20 70
8 17 25
0 0 6
_
_
1
3
, A
(B, B) =
_
_
3 0 0
0 1 0
0 0 2
_
_
.
B.3.7 Auf V wird durch p(X) X p
ij
), B
m
= (b
ij
) und B
1
B
m
= (d
ij
). Dann ist
d
ij
=
n
k=1
b
ik
b
kj
=
n1
i=01
i,i+1
i+1,j
=
_
1 j = i +m+1,
0 sonst.
Wendet man die Behauptung auf A = B
1
an, dann ist
A
i
= B
i
1
= B
i
=
_
0 i = n,
= 0 i < n.
Also ist n der Nilpotenzindex von A.
(c) Sei 1 k n. Wir betrachten die n n-Matrix
C :=
_
A
k
0
0 0
_
,
wobei A
k
= (a
ij
) die obere k k-Dreiecksmatrix mit a
i,i+1
= 1 und a
ij
= 0 fr j = i +1.
Wegen (b) hat A
k
den Nilpotenzindex k. Daher ist
C
k1
=
_
A
k1
k
0
0 0
_
= 0 und
C
k
=
_
A
k
k
0
0 0
_
= 0,
d. h. C Mat
n
(F) hat Nilpotenzindex k.
B.3 Lsungen zu Kapitel 3 377
B.3.11 (a) Nach Voraussetzung existieren natrliche Zahlen n, m mit A
n
= B
m
= 0. Sei
k = max(n, m). Da Aund B kommutieren, gilt nach dem Binomischen Lehrsatz:
(A+B)
2k
=
2k
i=0
_
2k
i
_
A
2ki
B
i
.
Fr alle 0 i 2k ist entweder 2k i k oder i > k. Also ist entweder A
2ki
= 0 oder
B
i
= 0 fr alle i, woraus (A+B)
2k
= 0 folgt.
(b) A =
_
0 1
0 0
_
und B =
_
0 0
1 0
_
sind nilpotent, aber A + B =
_
0
1
1
0
_
hat das Quadrat
_
1
0
0
1
_
und ist somit nicht nilpotent.
(c) Angenommen, a
0
= 0, also B = Aa
1
+ +A
m
a
m
. Nach (b) ist B nilpotent und
daher nicht invertierbar. Widerspruch!
Sei nun a
0
= 0. Um die Inverse von B zu konstruieren, betrachtet man die Matrix
C =
m
i=0
A
i
b
i
mit b
i
F, wobei die Koefzienten b
i
so zu whlen sind, da E
n
= BC =
2m
k=0
A
k
_
i+j=k
a
i
b
j
_
gilt. Man konstruiert die b
i
induktiv: Fr i = 0 sei b
0
= a
1
0
.
Fr i 1 seien b
0
, . . . , b
i1
bereits deniert. Dann sei a
0
b
i
+ a
1
b
i1
+ + a
i
b
0
= 0.
Da nach Voraussetzung a
0
= 0, lt sich diese Gleichung eindeutig nach b
i
ausen, womit
das gewnschte b
i
gefunden ist. Auf diese Weise erhlt man b
0
, . . . , b
m
mit der Eigenschaft
i+j=k
a
i
b
j
= 0 fr alle k = 1, . . . , m. Fr die dazugehrige Matrix C gilt BC = E
n
.
Daher ist B invertierbar.
B.3.12 (a) Sei f (X) = a
n
X
n
+ +a
0
. Dann ist X
n
f
_
1
X
_
= X
n
_
a
n
1
X
n
+ +a
1
1
X
+a
0
_
.
Also
d
dX
_
X
n
f
_
1
X
__
= a
n1
+ +n a
0
X
n1
F
n
[X].
(b) (f (X) +g(X)) =
d
dX
_
X
n
_
f
_
1
X
_
+g
_
1
X
___
=
d
dX
_
X
n
f
_
1
X
__
+
d
dX
_
X
n
g
_
1
X
__
=
(f (X)) +(g(X)). Sei k F. Dann ist (k f (X)) =
d
dX
_
X
n
k f
_
1
X
__
= k
d
dX
_
X
n
f
_
1
X
__
= k (f (X)).
A
(A, A) = (a
ij
) mit a
ij
= (n i)
n, i+j+1
fr i, j {0, 1, . . . , n}, wobei
ij
das
Kronecker-Symbol ist.
B.3.13 Es gilt rg = 2. Eine Basis von Ker ist z. B. {(2, 1, 1, 0), (3, 2, 0, 1)}. Die
Koordinaten von v
1
, v
2
, v
3
lauten (11, 22, 20), (16, 36, 36), (6, 52, 80). Es gilt
dimU = 3 und dim(U) = 2.
B.3.14 Sei {v
1
, . . . , v
k
} eine Basis von U. Diese ergnzen wir zu einer Basis {v
1
, . . . , v
n
}
von F
n
. Fr einen beliebigen Vektor v =
n
i=1
v
i
b
i
von F
n
denieren wir
U
(v) =
n
i=k+1
v
i
b
i
(Im Fall n = k heit das einfach
U
(v) = o). Man zeigt leicht, da
U
eine
lineare Abbildung von F
n
nach F
n
ist. Weiterhin ist klar, da Ker(
U
) = U. Sei nun A die
Matrix A
U
(B, B) bezglich der Basis B = {v
1
, . . . , v
n
}. Dann gilt A x = o genau dann,
wenn x Ker(
U
) = U.
B.3.15 Es gelte : V W, : V W. Man erhlt ( + )V V + V und
daher rg( +) = dim(( +)V) dim(V +V) dim(V) +dim(V) = m+n.
Weiter kann m n angenommen werden. Nach dem bisher Bewiesenen ergibt sich m =
378 B Lsungen der Aufgaben
rg = rg(( + ) ) rg( + ) + rg() = rg( + ) + n, und hieraus folgt
|mn| = mn rg( +).
B.3.16 Wenn es zu GL(V) ein x V gibt, fr das x und y = x linear unabhngig
sind, existiert ein GL(V) mit x = x und y = x +y. Es gilt dann = . Wenn
also zum Zentrum gehrt, mu x = xc
x
fr alle x V mit einem c
x
F gelten. Fr
linear unabhngige Vektoren x, y folgt (x + y)c
y
= ()y = ()y = xc
x
+ yc
y
, also
c
x
= c
y
. Hieraus ergibt sich = id
V
c, wobei id
V
die Identitt auf V ist. Umgekehrt gehren
alle Automorphismen id
V
c zum Zentrum. Die zu id
V
c gehrige n n-Matrix ist E
n
c.
B.3.17 (a) Da {1} eine Basis des Skalarenkrpers ist, beweist man die lineare Unabhngigkeit
von = {
, soknnte a
= 0 nur fr hchstens
endlich viele Indizes gelten. Daher ist keine Basis von V
.
(c) Fr einen Vektor x = x
1
a
1
+ + x
r
a
r
aus V gilt (x)
x = x
.
Aus (x)
= 0 fr alle folgt daher x = o und weiter (x) = 0. Es gibt aber wegen (b)
mindestens ein
mit
() = 0.
B.3.18 Nach Denition 2.3.16 gilt V = U C. Daher ist C
= Hom(C, K)
= U
, weil
U
aus denjenigen V
2
(w) = g
1
rg
1
(w) = g
1
(v). Hieraus folgt [
2
g
1
](v) = 0
fr alle v V, d. h.
2
= f fr f = g
1
F.
B.4 Lsungen zu Kapitel 4
B.4.1 rg(A) = 3.
B.4.2 Der Zeilenrang von AB ist 2.
B.4.3 Die Vektoren a
1
= (1, 3, 5, 4), a
2
= (0, 0, 1, 1), a
3
= (0, 0, 0, 1) bilden eine
Basis von U, die Vektoren b
1
= (1, 0, 2, 2), b
2
= (0, 3, 3, 5), b
3
= (0, 0, 1, 2) eine
Basis vonV. Zusammenmit (0, 3, 3, 2) bildena
1
, a
2
, a
3
eine Basis vonU+V. Schlielich
besteht eine Basis von U V aus (1, 3, 5, 7) und b
3
.
B.4 Lsungen zu Kapitel 4 379
B.4.4
T (A) =
_
_
_
_
_
_
1 3 4 0 2
0 1 1 1 4
0 0 4 5 18
0 0 0 3 2
0 0 0 0 0
_
_
_
_
_
_
, T =
_
_
_
_
_
_
_
1 0 0 0
35
3
0 1 0 0
1
3
0 0 1 0
11
3
0 0 0 1
2
3
0 0 0 0 0
_
_
_
_
_
_
_
.
B.4.5
L =
_
_
_
_
_
_
_
_
2 +4i
1 2i
0
0
4 7i
_
_
_
_
_
_
+
_
_
_
_
_
_
2
1
1
0
0
_
_
_
_
_
_
f
1
+
_
_
_
_
_
_
1
1
0
1
0
_
_
_
_
_
_
f
2
f
1
, f
2
C
_
_
.
B.4.6
L =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
2
0
3
4
0
5
0
6
7
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
1
1
0
0
0
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
f
1
+
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
2
0
2
2
1
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
f
2
+
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
0
0
3
3
0
0
1
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
f
3
f
1
, f
2
, f
3
Q
_
_
.
B.4.7 (a) Nach Folgerung 3.4.8 gilt stets rg(A) = rg(A
T
). Wegen Satz 3.4.9 ist die n n-
Matrix Agenau dann invertierbar, wenn rg(A) = n. Also gilt die Behauptung.
(b) Sei E die n n-Einsmatrix und A invertierbar. Dann ist E = A
1
A = A A
1
.
Aus Satz 3.1.28 folgt E = E
T
= (A
1
A)
T
= (A A
1
)
T
= A
T
(A
1
)
T
= (A
1
)
T
A
T
.
Daher ist (A
T
)
1
= (A
1
)
T
nach Denition 3.1.29.
B.4.8 Nach Aufgabe 4.7 ist (A
T
)
1
= (A
1
)
T
. Das Berechnungsverfahren 4.2.11 ergibt
A
1
=
_
_
_
_
_
_
_
_
0
1
4
1/8 3 3 0
0
1
2
1
4
6 6 0
1
3
1
4
5
24
5 5 0
0 0 0 3 1 1
0 0 0 6 1 2
0 0 0 1 1 0
_
_
_
_
_
_
_
_
.
B.4.9 Sei A = (a
ij
) = 0 aus J. Dann ist mindestens ein a
ij
= 0. Diese Indizes i, j seien
fest gewhlt. Fr alle 1 u,v n sei E
uv
= (e
uv
) mit e
uv
= 1 fr u = v und e
uv
= 0 fr
u = v. Nach (c) ist E
1i
AE
j1
= E
11
a
ij
J. Wegen 0 = a
1
ij
F folgt wiederum aus (c),
380 B Lsungen der Aufgaben
da E
11
= (E
11
a
ij
)a
1
ij
J. Daher ist E
uu
= E
u1
E
11
E
1u
J fr u = 1, 2, . . . , n. Wegen
(b) ist deshalb E
n
= E
11
+E
22
+ +E
nn
J.
B.4.10 Ahat den Rang n. Beweis durch vollstndige Induktion. Ist n = 1, so ist die Summe
n
j=1
j=i
|a
ij
| = 0, da die Indexmenge leer ist. Also |a
11
| > 0 und rg(A) = 1.
Induktionsschlu: n n+1. Wegen
n
j=1
j=1
|a
1j
| < |a
11
| ist a
11
= 0. Durch Subtraktion
geeigneter Vielfacher der ersten Spalte von der j-ten Spalte, j = 2, . . . , n + 1, erhlt man
eine Matrix A
= (a
ij
) mit a
1j
= 0 fr j = 2, . . . , n + 1. Sei nun A
= (a
ij
) die Matrix
die aus A
ij
= a
i+1,j+1
a
1,j+1
a
11
a
i+1,1
. Also
n
j=1
j=i
|a
ij
| =
n
j=1
j=i+1
|a
i+1,j+1
a
1,j+1
a
11
a
i+1,1
|
n+1
j=2
j=i+1
(|a
i+1,j
| +|
a
1j
a
11
a
i+1,1
|)
=
n+1
j=2
j=i+1
|a
i+1,j
| +
n+1
j=1
|
a
1j
a
11
a
i+1,1
| |
a
1,i+1
a
11
a
i+1,1
|
<
n+1
j=2
j=i+1
|a
i+1,j
| +|a
i+1,1
| |
a
1,i+1
a
11
a
i+1,1
|
< |a
i+1,i+1
| |
a
1,i+1
a
11
a
i+1,1
|
|a
i+1,i+1
a
1,i+1
a
11
a
i+1,1
| = |a
ii
|.
Die n n-Matrix A
j>1
(c
j
c
1
) det
_
_
_
_
_
1 1
c
2
c
n
.
.
.
.
.
.
c
n2
2
c
n2
r
_
_
_
_
_
.
Die Behauptung ergibt sich durch vollstndige Induktion.
B.5 Lsungen zu Kapitel 5 381
B.5.3 det A = (1)
n1
(n 1)!, det B = (1)
(n1)n
2
.
B.5.4 (a) Sei B =
_
E
r
P
1
Q
0 E
nr
_
. Dann ist AB =
_
P 0
0 SRP
1
Q
_
= C. Nach Satz 5.4.12
ist det B = 1. Also ist E
n
die Treppennormalform von B. Wegen Satz 4.1.13 existie-
ren k < Elementarmatrizen U
i
, die zu Spaltenumformungen von B gehren, mit
BU
k
U
k1
. . . U
2
U
1
= E
n
. Also ist B = U
1
1
U
2
2
. . . U
1
k
und C = AB =
AU
1
1
U
1
2
. . . U
1
k
, d. h. C geht aus Adurch Spaltenoperationen hervor.
(b) Nach dem Produktsatz fr Determinanten gilt det(AB) = (det A) (det B) = det A.
Wegen (a) und Satz 5.4.12 ist daher det A = det C = (det P) det(S RP
1
Q).
B.5.5 (a) Ist det A = 0, so ist rg P < 2n, und alle Behauptungen gelten fr diesen Fall.
Sei det A = 0. Durch Zeilenaddition geht die Matrix P in die Matrix P
=
_
0
A
B
0
_
ber. Da keine Zeilenvertauschungen vorgenommen werden, gilt det P = det P
. Fr
i = 1, 2, . . . , n vertausche man nun die i-te mit der (n + i)-ten Zeile und erhlt die Ma-
trix P
=
_
A
0
0
B
_
. Fr ihre Determinante gilt det P
= (1)
n
det P
=
(1)
n
det P
= (1)
n
det(A) det(B) = (1)
n
(1)
n
(det A)(det B) = (det A)(det B)
ist.
(b) folgt durch Addition von (AE
n
, AB) zu (A, 0). Das sind Zeilenoperationen ohne
Zeilenvertauschungen.
(c) Wegen (b), Satz 5.4.1 (c) und Satz 5.4.12 ist det P = det
_
E
n
0
B
AB
_
= det E
n
det(AB) = det(AB). Nach (a) gilt det P = (det A)(det B). Hieraus folgt der Produktsatz.
B.5.6 (1, 2, 3, 1).
B.5.7 Die Matrix Asei n-reihig, und die Matrix A
1
sei k-reihig. Durch k(n k) Zeilenver-
tauschungen geht die Matrix A ber in A
=
_
A
2
0
B
A
1
_
. Nach Satz 5.4.12 und Satz 5.4.1 (b)
folgt det A = (1)
k(nk)
(det A
1
)(det A
2
).
B.5.8
A
1
=
1
det
(adj A) =
1
1
_
_
4 2 1
3 1 0
5 2 1
_
_
.
B.5.9 Die Voraussetzung ist gleichwertig mit AA
T
= E
n
und daher mit A
1
= A
T
. Ist
D = det A, so folgt D
1
= D, also D = 1. Fr den Matrizenkoefzienten a
k,i
von A
1
gilt a
k,i
= D(adj a
i,k
) wegen Satz 5.5.2 und D
1
= D. Andererseits folgt aus A
1
= A
T
auch a
k,i
= a
i,k
. Es ergibt sich: a
i,k
= det A(adj a
i,k
).
B.5.10 Multiplikation der i-ten Zeile mit a und Addition zur j-ten Zeile fhrt E
n
+aC
i,j
(i = j) in die Einheitsmatrix ber. Daher folgt Behauptung (a). Wegen (E
n
+aC
i,j
)
1
= E
n
aC
i,j
enthlt M mit jeder Matrix auch deren Inverse. Links- bzw. rechtsseitige Multiplikation
382 B Lsungen der Aufgaben
einer Matrix A mit Matrizen aus M bewirkt elementare Zeilen- bzw. Spaltenumformungen.
Man zeigt, da man durch solche Umformungen in A rechts unten eine Eins, sonst aber in
der letzten Zeile und Spalte lauter Nullen erzeugen kann. Durch Induktion folgt, da Adurch
Multiplikation mit Matrizen aus M in die Einheitsmatrix berfhrt werden kann.
B.6 Lsungen zu Kapitel 6
B.6.1 (a)
_
_
1
2
1
2
1 1 1
_
_
mit =
1
2
+i
3
2
.
(b) char Pol
B
(X) = (1 X)
3
hat 1 als einzige Nullstelle. Der Eigenwert 1 von B hat also
Vielfachheit c
1
= 3. BE
3
hat aber Rang2. Daher ist Bnicht diagonalisierbar nachSatz 6.2.6.
B.6.2 char Pol(X) = X
5
15X
4
25X
3
+ 375X
2
+ 125X 1875 = (X 15)(X
4
25X
2
+125). Die Eigenwerte sind x
1
= 15.
x
2,3
=
_
25
2
+5
5, x
4,5
=
_
25
2
5
5.
B.6.3 (a) AB = BAfolgt durch Nachrechnen.
(c) A und B haben die gemeinsamen Eigenvektoren v
1
= (3, 2, 4), v
2
= (1, 1, 2)
und v
3
= (1, 1, 1) zu den Eigenwerten a
1
= 1, a
2
= 1 und a
3
= 2 bzw. b
1
= 1,
b
2
= 1 und b
3
= 3.
(b) Wegen (c) sind Aund B nach Satz 6.2.6 diagonalisierbar.
(d) folgt unmittelbar aus (c).
B.6.4 char Pol
A
(X) = X
5
5X
4
+6X
3
+2X
2
4X. Eigenwerte x
1
= 0, x
2
= 1, x
3
= 2,
x
4,5
= 1
3.
B.6.5
_
_
2 1 0
0 0 1
1 2 1
_
_
_
_
3 2 1
2 6 2
0 0 2
_
_
1
5
_
_
2 1 1
1 2 2
0 5 0
_
_
=
_
_
2 0 0
0 2 0
0 0 7
_
_
.
B.6.6 Es gelte rg(AEc) = n r. Zu dem Eigenwert c gibt es dann r linear unabhngige
Eigenvektoren, die zu einer Basis des Raumes ergnzt werden knnen. Der dem Endomor-
phismus hinsichtlich dieser Basis entsprechenden, zu Ahnlichen Matrix entnimmt man, da
das charakteristische Polynom die Form f (t ) = (c t )
r
g(t ) besitzen mu. Es folgt r k,
also rg(AEc) = n r n k.
B.6.7 Es entspreche A der Endomorphismus . Genau dann ist A singulr, wenn es ein
x = o mit x = o = x0 gibt, wenn also 0 Eigenwert ist.
B.6 Lsungen zu Kapitel 6 383
B.6.8 (a) Nach Satz 3.5.7 haben hnliche Matrizen dieselbe Spur. Da C algebraisch abge-
schlossen ist, existiert nach Satz 6.3.11 eine Basis B von V derart, da A
(B, B) = (b
ij
)
eine untere Dreiecksmatrix ist. Also sind b
ii
= c
i
, i = 1, 2, . . . , n, die n Eigenwerte von .
Also ist trA
k
(B, B) = tr
k
=
n
i=1
c
k
i
fr alle k = 1, 2, . . . Behauptung (b) folgt aus der
Zerlegung det(Et
r
r
) = det(Et ) det(
r1
+ +Et
r1
). Die Matrix A =
_
1
0
0
1
_
hat 1 als einfachen, A
2
= E hat 1 als zweifachen Eigenwert.
B.6.9 Sei charPol
A
(X) = X
3
+q
2
X
2
+q
1
X +q
0
. Nach Satz 6.1.10 ist q
2
= a
1
. Seien
c
1
, c
2
, c
3
die 3 Eigenwerte von A. Dann ist char Pol
A
(X) =
3
j=1
(Xc
j
) nach Satz 6.1.12.
Also ist q
1
= c
1
c
2
+c
1
c
3
+c
2
c
3
und q
0
= c
1
c
2
c
3
. Nach Aufgabe 6.8(a) ist a
i
=
3
j=1
c
i
j
fr i = 1, 2, 3. Hieraus folgt q
1
=
1
2
(a
2
1
a
2
) und q
0
=
1
6
(a
3
1
+2a
3
3a
2
a
1
).
B.6.10 char Pol
A
(X) = (X 1)(X +1)(X +2).
P
1
AP = diag(1, 1, 2) mit P =
_
_
2 2 1
3 1 0
1 1 1
_
_
.
A
1000
= P diag(1, 1, 2
1000
)P
1
=
1
3
_
_
4 2
1000
2 +2
1001
4 2
1002
0 3 0
1 +2
1000
2 2
1001
1 +2
1002
_
_
.
B.6.11 Sei U ein Eigenraum von Azum Eigenwert f und u U. Dann gilt
ABu = BAu = Bf u = (Bu)f, ()
also Bu U.
Sei U
1
U
2
U
n
eine Zerlegung von F
n
in eindimensionale Eigenrume von
A. Solch eine Zerlegung existiert nach Satz 6.2.6. Nach () ist nun Bv
i
U
i
= v
i
F fr
i = 1, . . . , n. Also ist v
i
U
i
ein Eigenvektor von B. Daher ist {v
1
, . . . , v
n
} eine Basis von
V, die aus gemeinsamen Eigenvektoren von Aund B besteht.
B.6.12 Wegen
char Pol
A
(X) = (X 1)
2
X +2 +2
4, 5 X 4
_
_
_
_
_
1
0
0
0
_
_
_
_
, (E A)
_
_
_
_
1
0
0
0
_
_
_
_
=
_
_
_
_
0
0
8
12
_
_
_
_
,
_
_
_
_
6
8
0
0
_
_
_
_
,
_
_
_
_
3
0
8
0
_
_
_
_
_
_
,
weil die letzten drei Vektoren von B eine Basis von Ker(E A) sind. Die Jordansche Nor-
malform von Aist nach Satz 6.3.11 die Matrix
A
(B, B) =
_
_
_
_
1 0 0 0
1 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
= Q
1
AQ,
wobei die Spaltenvektoren der Transformationsmatrix Q gerade die Vektoren von B in der
angegebenen Reihenfolge sind.
B.6.13 Mit dem Satz 5.4.9 berechnet man das charakteristische Polynom von A:
char Pol
A
(X) = (X+2)
2
(X1i)
2
(X1+i)
2
. Der verallgemeinerte Eigenraum zum
Eigenwert f
1
= 2 ist V
1
= Ker(A+ 2E
6
)
2
. V
1
hat die Basis v
1
= (0, 0, 0, 0, 1, 0), v
2
=
(0, 0, 0, 0, 2, 4) = (A+2E
6
)v
1
. Der verallgemeinerte EigenraumzumEigenwert f
2
= 1+i
ist V
2
= Ker(A(1+i)E
6
)
2
. V
2
hat die Basis v
3
= (i, 1, 0, 1,
1
25
(8i 19),
1
25
(2311i))
und v
4
= [A(1 +i)E
6
]v
3
= (0, 1, i, 0, 0, 0), wie sich durch Lsung des homogenen Glei-
chungssystems mit Koefzientenmatrix
(A(1 i)E
6
)
2
=
_
_
_
_
_
_
_
_
2 0 0 2i 0 0
2 2i 2 2i 2i 0 0
2i 2i 2 2 +2i 0 0
2i 0 0 2 0 0
2 0 0 4 +4i 4 +2i 6 2i
2 0 0 2 4i 24 +8i 20 +10i
_
_
_
_
_
_
_
_
ergibt.
Da 1 i die konjugiert komplexe Zahl von 1 + i ist, folgt, da der verallgemeinerte
EigenraumV
3
= Ker(A(1i)E
6
)
2
die Basis v
5
= (i, 1, 0, 1,
1
25
(19+8i),
1
25
(23+11i))
und v
6
= [A(1 i)E
6
]v
5
= (0, 1, i, 0, 0, 0) hat.
Nach Verfahren 6.3.13 hat Adie Jordanform J und Transformationsmatrix Q, wobei
J =
_
_
_
_
_
_
_
2 0 0 0 0 0
1 2 0 0 0 0
0 0 1 +i 0 0 0
0 0 1 1 +i 0 0
0 0 0 0 1 i 0
0 0 0 0 1 1 i
_
_
_
_
_
_
_
, Q =
_
_
_
_
_
_
_
0 0 i 0 i 0
0 0 1 1 1 1
0 0 0 i 0 i
0 0 1 0 1 0
1 2 a 0 a 0
0 4 b 0
b 0
_
_
_
_
_
_
_
mit a =
1
25
(19 8i) und b =
1
25
(23 11i) ist.
B.6 Lsungen zu Kapitel 6 385
B.6.14 Ist B = P
1
AP eine Dreiecksmatrix, dann sind die Diagonalelemente b
ii
von
B = (b
ij
) nach Satz 6.1.9 und Satz 6.1.12 gerade die Eigenwerte von A. Wegen Satz 5.4.5
hat char Pol
A
(X) dann die behauptete Faktorisierung. Insbesondere folgt (b) aus (a). Sei
umgekehrt char Pol
A
(X) =
k
r=1
(X f
r
)
c
r
mit f
i
= f
j
fr i = j und f
r
F fr
1 r k. Dann ist A nach Satz 6.3.11 zu seiner Jordanschen Normalform J hnlich. Da J
eine Dreiecksmtrix ist, gilt die Behauptung (a).
B.6.15 Das charakteristische Polynom der Koefzientenmatrix von () x
= Ax hat die
Faktorisierung char Pol
A
(X) = X
3
7X
2
+ 16X 12 = (X 2)
2
(X 3). Der verall-
gemeinerte Eigenraum Ker[(A 2E
2
)] zum Eigenwert f
1
= 2 hat die Basis B = {a =
(0, 0, 1), (A 2E)a = (1, 1, 1)}. Weiter ist b = (2, 1, 1) eine Basis des Eigenraums
Ker(A3E) von A. Also ist die Transformationsmatrix
P =
_
_
0 1 2
0 1 1
1 1 1
_
_
, P
1
=
_
_
0 1 1
1 2 0
1 1 0
_
_
und J =
_
_
2
1 2
3
_
_
die Jordansche Normalform von A.
Nach Hilfssatz 6.4.3 ist b = P
1
x(0) = P
1
(2, 1, 4)
T
= (5, 0, 1) der Anfangsvektor
des Systems () y
= Ax zumAnfangsvektor x(0).
B.6.19 Nach Satz 6.3.10 gengt es die Partitionen von n = 5 zu bestimmen. Sie sind:
z
1
= 5, z
2
= 4 +1, z
3
= 3 +2, z
4
= 3 +1 +1, z
5
= 2 +2 +1, z
6
= 2 +1 +1 +1 und
z
7
= 1 +1 +1 +1 +1. Sei J
i
die Jordansche Normalform von z
i
fr i = 1, 2, . . . , 6. Dann
ist J
7
eine Diagonalmatrix mit einzigem Eigenwert c, und J
1
ist ein einziges Jordankstchen
mit Eigenwert c und 4 Einsen in der unteren Nebendiagonalen. J
2
hat 2 Jordankstchen, von
denen eines eine 4 4 Matrix ist mit 3 Einsen in der unteren Nebendiagonalen.
J
3
=
_
_
_
_
_
_
c
1 c
1 c
c
1 c
_
_
_
_
_
_
, J
4
=
_
_
_
_
_
_
c
1 c
1 c
c
c
_
_
_
_
_
_
,
388 B Lsungen der Aufgaben
J
5
=
_
_
_
_
_
_
c
1 c
c
1 c
c
_
_
_
_
_
_
, J
6
=
_
_
_
_
_
_
c
1 c
c
c
c
_
_
_
_
_
_
.
B.7 Lsungen zu Kapitel 7
B.7.1 Es sind genau alle Werte a
1
a
2
= c mit |c| < 2 mglich: Man setze x = a
1
c+a
2
4;
aus x x > 0 folgt dann |c| < 2. Gilt umgekehrt |c| < 2, so wird durch x y = 4x
1
y
1
+
cx
1
y
2
+ cx
2
y
1
+ x
2
y
2
(x = a
1
x
1
+ a
2
x
2
, y = a
1
y
1
+ a
2
y
2
) ein skalares Produkt mit
a
1
a
2
= c deniert; es gilt dann nmlich x x = (cx
1
+x
2
)( c x
1
+ x
2
) +(4 c c)x
1
x
1
> 0
fr x = o.
B.7.2 (a) Es folgt zunchst
1
(x +y, x +y) =
2
(x +y, x +y) fr beliebige Vektoren x, y.
Nach Ausrechnung dieser Ausdrcke ergibt sich Re(
1
(x, y)) = Re(
2
(x, y)) und (x durch
xi ersetzt) Im(
1
(x, y)) = Im(
2
(x, y)). Damit folgt
1
=
2
. In (b) mu (y, x) = (x, y)
ausgenutzt werden. Gilt
1
(x, x) =
2
(x, x)c (c > 0) fr alle x, so erhlt man mit Hilfe
von (a) als notwendige und hinreichende Bedingung, da ac +b eine positive reelle Zahl sein
mu, wobei a und b selbst noch komplexe Zahlen sein knnen. Gilt
1
(x, x) =
2
(x, x)c,
1
(y, y) =
2
(y, y)c
und c = c
1
2
(|x
1
y +x
2
|
2
+|x
1
y x
2
|
2
) +|x
2
|
2
+
1
2
(|x
2
+y +x
1
|
2
+|x
2
+y x
1
|
2
) |x
1
|
2
1
2
(|x
2
y +x
1
|
2
+|x
2
y x
1
|
2
) +|x
1
|
2
=
|x
1
+x
2
y|
2
|x
1
+x
2
y|
2
= 4(x
1
+x
2
) y, weil
1
2
|x
2
x
1
+y|
2
=
1
2
|x
1
x
2
y|
2
und
1
2
|x
1
x
2
+y|
2
=
1
2
|x
2
x
1
y|
2
.
B.7 Lsungen zu Kapitel 7 389
B.7.4 Die Stammfunktionen der als Skalarprodukt im folgenden auftauchenden Integrale
ndet man mit partieller Integration. Dann gilt fr alle n N:
_
1
2
,
1
2
_
=
1
1
2
dt = 1,
_
1
2
, cos(nt )
_
=
1
2
sin(nt ) dt =
1
2
_
1
n
cos(nt )
_
= 0,
(cos(nt ), sin(nt )) =
1
cos(nt ) sin(nt ) dt =
1
_
1
2n
sin(nt )
2
_
= 0,
(cos(nt ), cos(nt )) =
1
cos
2
(nt ) dt =
1
_
1
2n
sin(nt ) cos(nt ) +
1
2
t
_
= 1,
(sin(nt ), sin(nt )) =
1
sin
2
(nt ) dt =
1
1
2n
sin(nt ) cos(nt ) +
1
2
t
_
= 1.
B.7.5 b
1
= (2i, 1, 1, i)
1
7
7, b
2
= (0, i, 0, 1)
1
2
2 ist Orthonormalbasis in U
.
B.7.6 Sei A = (a
ij
)
1i,jn
die Matrix von bezglich einer Orthonormalbasis. Dann gilt
n
j=1
a
2
ij
= 1. Also |a
ij
| 1. Fr die Spur gilt dann
| tr | = | tr A| =
j=1
a
jj
j=1
|a
jj
| n.
Offensichtlich tritt die Gleichheit nur ein bei a
jj
= 1 oder a
jj
= 1 fr 1 j n, wenn
also = id oder = id gilt.
B.7.7 (a) Mit a
s,t
= v
s
e
t
und b
i,s
= v v
s
gilt b
i,s
=
k
t =1
a
i,t
a
s,t
. Fr A = (a
s,t
),
B = (b
i,s
) folgt hieraus B = AA
T
, also det B = (det A)
2
. (b) folgt aus (a), weil B nicht
von der Wahl der Orthonormalbasis abhngt.
B.7.8 Das Volumen des Parallelotops hat den Wert 6.
B.7.9 Folgt aus ((
)x, y) = (
Et ) = det(
AE t )
T
= det(
AE t ) = det(AE t ) besitzen die
charakteristischen Polynome zueinander konjugiert-komplexe Koefzienten.
B.7.11 Es sei x
= x x
gilt dann
x
(V)
, also x
. Auerdem (V)
= Ker
= Ker , also x
Ker .
Umgekehrt mu wegen (V)
die orthogonale
Projektion von x in V sein (Eindeutigkeit der Darstellung). Aus (
2
)x = o folgt x
Ker V = (V)
V = o, also Ker(
2
) Ker . Es gilt aber auch Ker Ker(
2
).
Aus Ker(
2
) = Ker folgt nun rg(
2
) = rg .
390 B Lsungen der Aufgaben
B.7.12 Da selbstadjungiert und unitr ist, gilt =
=
1
nach Satz 7.5.8. Also ist
2
= id. Umgekehrt folgt aus
2
= id, da =
1
=
gilt.
B.7.13 Aus a = ac (a = o) folgt
2
a = (a)c = ac
2
; d. h. a ist auch Eigenvektor von
2
zumEigenwert c
2
. Umgekehrt gelte
2
a = ac (a = o), und e
1
, . . . , e
n
sei eine aus Eigenvek-
toren von bestehende Basis des Vektorraumes mit den zugehrigen Eigenwerten c
1
, . . . , c
n
.
Es kann a = e
1
a
1
+ + e
k
a
k
mit k n und a
1
= 0, . . . , a
k
= 0 angenommen werden.
Dann folgt (e
1
a
1
+ +e
k
a
k
)c =
2
a = e
1
c
2
1
a
1
+ +e
k
c
2
k
a
k
und durch Koefzienten-
vergleich c = c
2
1
= = c
2
k
. Wegen der vorausgesetzten Positivitt der Eigenwerte ergibt
sich weiter c
1
= = c
k
= +
c.
B.7.14 Fr jedes {1, 1} ist die Transformationsmatrix P gegeben durch:
P =
_
_
_
_
_
_
_
_
_
_
1
3
0 0
1
6
0
1
2
0 0
3
0 0 0
2
3
0
1
2
1
2
0 0
1
3
0 0
1
6
_
_
_
_
_
_
_
_
_
_
.
B.7.15 (a) Man erhlt das Ergebnis durch Anwendung des Laplaceschen Entwicklungssat-
zes.
(b) P =
_
_
_
_
_
_
_
1
2
1
2
1
2
1
2
0
1
2
1
2
0 0
1
2
2
1
2
1
2
0 0
1
2
1
2
1
2
1
2
1
2
0
0 0
1
2
2
1
2
2 0
_
_
_
_
_
_
_
.
B.7.16 (a) Wegen A = A
= (
A)
T
gilt a
ii
= a
ii
fr i = 1, 2, . . . , n.
(b) Nach Aufgabe 7.10 besitzen die charakteristischen Polynome von A und A
zu-
einander konjugiert-komplexe Koefzienten. Wegen A = A
n
j=1
|x
j
|
2
n
j=1
c
j
|x
j
|
2
= v v c
1
n
j=1
|x
j
|
2
= c
1
. Wegen c
n
= v
n
v
n
,
c
1
= v
1
v
1
und |v
1
| = 1 = |v
n
| folgt hieraus die Behauptung.
B.7.18 Nach Hilfssatz 7.4.3 existiert der adjungierte Endomorphismus
von . Sei
1
=
1
2
( +
) und
2
=
1
2
(
). Dann ist
1
selbstadjungiert und
2
anti-selbstadjungiert.
Weiter gilt =
1
+
2
.
B.8 Lsungen zu Kapitel 8 391
Ist =
1
+
2
eine weitere Darstellung mit
i
End(V),
1
=
1
und
2
=
2
, dann
ist
1
+(
2
)
=
1
2
. Daher ist
1
=
1
2
( +
) =
1
und
2
=
1
2
(
) =
2
.
B.7.19 (a) Sei V = R
n
und B die kanonische Basis von V. Nach Folgerung 3.6.6 existiert ein
Gruppenisomorphismus : GL(n, R) Aut(V) = GL(V), der jeder invertierbaren n n-
Matrix A einen Automorphismus (A) = Aut(V) so zuordnet, da A = A
(B, B)
gilt. Wegen Satz 7.6.3 hat die eindeutige Darstellung = , wobei ein orthogonaler
und ein selbstadjungierter Automorphismus von V ist derart, da alle Eigenwerte von
positive reelle Zahlen sind. Nach Satz 7.5.9 ist O =
1
() eine orthogonale Matrix.
Wegen Satz 7.5.9 und Bemerkung 6.1.3 ist S =
1
() = A
6 5
6 5
6
4
66 10
6 2
6+12
2
6+12 5
624
_
_
und S =
1
5
_
_
4
6+1 0 2
62
0 5
6 0
2
62 0
6+4
_
_
.
B.8 Lsungen zu Kapitel 8
B.8.1 V
U
wird erzeugt von den Vektoren
q
0
q
1
= (0, 2, 11, 6),
q
0
q
2
= (1, 4, 4, 4),
q
0
q
3
= (2, 6, 3, 2). Mit elementaren Umformungen ergibt sich dimV
U
= 2. Also ist
dimU = 2.
Die Koordinaten eines beliebigen Punktes x U haben die Darstellung
(x
1
, x
2
, x
3
, x
4
) = (3, 4, 1, 6) +(0, 2, 11, 6)u +(1, 4, 4, 4)v
fr geeignete u, v R. Einsetzen in die Hyperebenengleichung von H ergibt die Gleichung
3 +3u +4v = 0.
Setze v = 3t fr t R beliebig. Dann ist u = 1 4t . Also besteht UH aus allen Punkten
x mit Koordinaten (x
1
, x
2
, x
3
, x
4
) = (3, 6, 12, 12) + (3, 4, 32, 12)t , t R. Deshalb ist
U H eine Gerade.
B.8.2 Die zu gehrende 2 2-Matrix A mu die Vektoren
p
1
p
2
= (1, 3) und
p
1
p
3
=
(0, 3) auf
p
1
p
2
= (6, 11) bzw.
p
1
p
3
= (3, 15) abbilden. Dies fhrt auf ein lineares
Gleichungssystem fr die Koefzienten von A. Man erhlt
(x) =
_
3 1
4 5
__
x
1
x
2
_
_
3
5
_
mit x = (x
1
, x
2
).
392 B Lsungen der Aufgaben
B.8.3 Durch den Ansatz G : y = (2, 1, 1) + (a, b, c) s ist p G gesichert. G H ist
gleichwertig mit 2a b + 5c = 0, woraus b = 2a + 5c folgt. G G
.
B.8.5 (a) Wenn G existiert, liegt diese Gerade wegen p G und G G
2
= jedenfalls in
der von p und G
2
erzeugten Ebene H = p G
2
. Wegen der Voraussetzung kann G
3
nicht
in H enthalten sein. Daher gilt entweder G
3
H und G
3
H = , oder G
3
hat mit H genau
einen Schnittpunkt g. Im ersten Fall existiert Gnicht, und p ist somit ein Ausnahmepunkt. Im
zweiten Fall mu G = p g gelten. Wenn G G
2
ist (G = G
2
wegen p G), hat man es
wieder mit einemAusnahmepunkt zu tun. Sonst aber folgt auch G G
2
= . G erfllt dann
also die Forderungen und ist eindeutig bestimmt.
(b) Die vonp = (1, 0, 0) und G
2
erzeugte Ebene wird durch die Gleichungx
1
+x
2
= 1 be-
schrieben. Ihr Schnittpunkt mit G
3
ist g =
_
1
2
,
1
2
,
1
2
_
. G = pg schneidet G
2
in (0, 1, 1).
Eine Parameterdarstellung von Gist g = (1, 0, 0)+
_
1
2
,
1
2
,
1
2
_
t . Ausnahmepunkte auf G
1
sind (1, 0, 0) und (0, 0, 0).
B.8.6 Durch Rechnung zeigt man AA
T
= E
3
und det(A) = 1. Die Drehachse wird vom
Vektor (1, 1, 0) erzeugt. Der Betrag des Drehwinkels ist
6
. Die Eulerschen Winkel sind
1
=
4
,
2
=
6
und
3
=
4
.
B.8.7 (a) Nach der Denition ist
x y = e
1
(x
2
y
3
x
3
y
2
) e
2
(x
1
y
3
x
3
y
1
) +e
3
(x
1
y
2
x
2
y
1
). ()
Daher ist x y = 0 gleichwertig damit, da die aus den Koordinaten von x und y gebildete
2 3-Matrix den Rang 1 hat.
(b) Berechnung von (x y) z mit Hilfe von () ergibt die Entwicklung der Determinante
aus (b) nach der dritten Zeile. Da diese Determinante bei zyklischer Vertauschung der Zeilen
nicht gendert wird, gelten die Gleichungen in (b).
(c) Setzt man z = x oder x = y, so sind in der Determinante zwei Zeilen gleich. Es folgt
(x y) x = (x y) y = 0.
Man zeigt |x y|
2
= |x|
2
|y|
2
(x y)
2
durch Nachrechnen, woraus die zweite
Behauptung von (c) wegen sin
2
(x, y) = 1 cos
2
(x, y) folgt.
B.8.8 Die Bijektion von G lasse das Teilverhltnis fest. Die Gerade G ist durch 2 Punkte
x = y eindeutig bestimmt. Wegen x, y Gexistiert ein Skalar a F mit
xy =
xy a.
B.8 Lsungen zu Kapitel 8 393
Fr ein beliebiges z G gilt
xz =
xy c nach Denition 8.1.24 wobei c = TV(x, y, z) ist.
Nach Voraussetzung gilt dann
xz =
xy c =
xy ac = (
xyc)a =
3
0
1
2
3
0
1
2
2
0
1
2
1
2
0
1
2
0
1
2
0
1
2
0
_
_
_
_
_
_
_
_
_
_
0 0 2 0
0 5 0 1
2 0 0 0
0 1 0 5
_
_
_
_
_
_
_
_
_
_
0 0
1
2
1
2
1
2
3
1
2
2
0 0
0 0
1
2
1
2
1
2
3
1
2
2
0 0
_
_
_
_
_
_
ist die 4 4-Diagonalmatrix diag(1, 1, 1, 1). Die Quadrik ist eine Ovalche.
B.8.12 Die Quadrik Q hat die Koefzientenmatrix
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
,
die Transformationsmatrix
P =
1
6
_
_
3 1
2
3 1
2 0 2
_
_
,
und es gilt
P
1
AP = diag(3, 0, 0) = D.
Setze z = (z
1
, z
2
, z
3
) = xP und c = bP = (2, 2, 2)P. Dann ist c = (2
3, 0, 0). Es
folgt
3z
2
1
+2
3z
1
3 = 0. ()
394 B Lsungen der Aufgaben
Nach Krzen und quadratischer Ergnzung ergibt sich die Gleichung
_
z
1
+
1
3
_
2
=
4
3
. ()
Setze y
1
=
1
2
_
z
1
+
1
3
_
. Dann lautet die Normalgleichung: 3y
2
1
= 4. Die Quadrik ist also
nach Folgerung 8.7.12 ein Paar paralleler Ebenen.
B.8.13 Die Quadrik Q mit Bestimmungsgleichung x
T
Ax +bx 1 = 0, wobei
A =
_
_
1 0.5 0.5
0.5 5 0.5
0.5 0.5 0
_
_
, b = (0, 4, 0) und x = (x
1
, x
2
, x
3
),
hat charPol
A
(X) = X
3
+4X
2
5.75X 0.75.
Ihre Diagonalmatrix ist angenhert ():
D = P
T
A P
_
_
1.219474925 3.452153702 10
10
9.603429163 10
14
3.452153285 10
10
5.098855947 4.051292635 10
11
9.601347495 10
14
4.051274073 10
11
0.1206189785
_
_
.
Transformationsmatrix
P =
_
_
0.9307140549 0.08987161446 0.3545341182
0.04564905578 0.9903046637 0.1311977007
0.3628877399 0.1059233963 0.9257930235
_
_
,
b P = (0.1825962231, 3.961218655, 0.5247908028).
Nach quadratischer Ergnzung von
Q(y
1
, y
2
, y
3
) = 1.219474925y
2
1
5.098855947y
2
2
0.1206189785y
2
3
+0.1825962231y
1
3.961218655y
2
0.5247908028y
3
1,
ergibt sich die angenherte Normalgleichung: z
2
1
z
2
2
z
2
3
+0.3333333332 = 0. Daher ist
Q ein einschaliges Hyperboloid.
B.8.14 Die Gleichung von Q lautet in Matrizenform
x
T
_
_
3 1 0
1 3 0
0 0 6
_
_
x 2(1, 2, 1) x = c. ()
B.9 Lsungen zu Kapitel 9 395
Die Eigenwerte der symmetrischen Matrix A sind 2, 4 und 6. Die orthogonale Matrix
normierter Eigenvektoren ist
P =
_
_
_
1
2
1
2
0
1
2
1
2
0
0 0 1
_
_
_.
Mit x = Px
2
,
1
2
, 1
_
geht die Gleichung () ber in 2x
1
2
+4x
2
2
6x
3
2
2
x
2
x
2
2x
3
= c. Durch quadratische Ergnzung ergibt sich 2
_
x
3
2
2
_
2
+
4
_
x
2
1
4
2
_
2
6
_
x
3
+
1
6
_
2
= c +
9
4
+
1
8
1
6
= c +
53
24
= 2c
. Mit x
1
= x
1
3
2
2
,
x
2
= x
2
1
4
2
, x
3
= x
3
+
1
6
erhlt man nach Division durch 2, da x
1
2
+ 2x
2
2
3x
3
2
= c
die Normalgleichung einer zu Q kongruenten Quadrik ist. Diese geht durch die
afne Koordinatentransformation y
1
= x
1
, y
2
=
2x
2
, y
3
=
3x
3
schlielich in die
Normalgleichung y
2
1
+y
2
2
y
2
3
= c
ber. Daher
ist Q nach Folgerung 8.7.12 im Fall c
= 0 ein
Kegel und im Fall c
= (0, 0, 0), x
=
_
3
2
2
,
1
4
2
,
1
6
_
und schlielich x =
_
5
8
,
7
8
,
1
6
_
als Spitze des Kegels Q.
Im Fall c = 6, also c
=
197
48
> 0, ist Q ein einschaliges Hyperboloid. Der Punkt q
mit
dem Koordinatenvektor q
mssen
also zwei in Q enthaltene Geraden gehen. Schrittweise Koordinatentransformationen fhren
auf y
=
_
7
2
2
,
1
4
,
5
6
3
_
und weiter die kartesische Transformation y
1
=
14
3
22
y
1
+
1
3
11
y
2
, y
2
=
1
3
11
y
1
14
3
22
y
2
, y
3
= y
3
schlielich auf y
=
_
3
4
11, 0,
5
6
3
_
. Mit
diesen Werten ergibt die Bemerkung 8.7.15 als Geradengleichungen y
1
=
3
4
11 t
5
6
3,
y
2
=
_
197
48
t , y
3
=
5
6
3 t
3
4
:
x
1
= 1
t
6
11
_
65
3
6
8
_
197
24
_
, x
2
= 1
t
6
11
_
75
3
6
6
_
197
24
_
,
x
3
= 1 t
33
4
.
B.9 Lsungen zu Kapitel 9
B.9.1 Ist S(X a) +Sf (X) = S, dann ist 1 = (X a)h
1
(X) +f (X)h
2
(X) fr geeignete
h
i
(X) S = R[X], i = 1, 2. Daher ist 1 = f (a)h
2
(a) R. Sei umgekehrt f (a) eine Einheit
in R. Dann ist f (a) auch eine Einheit in S, d. h. S = f (a)S. Sei f (X) = a
n
X
n
+a
n
X
n1
+
396 B Lsungen der Aufgaben
+a
1
X+a
0
. Dann ist f (X)f (a) = a
n
(X
n
a
n
)+a
n1
(X
n1
a
n1
)+ +a
1
(X
a) = (Xa)g(X) fr ein g(X) S. Hieraus folgt: S = f (a)S = [f (X)(Xa)g(X)]S
f (X)S +(X a)S S, d. h. S = f (X)S +(X a)S.
B.9.2 (U+V)/V = 2Z/6Z
= Z/3Z
(T ) | T S
} folgt y = u
1
+ +u
n
mit u
i
T
i
und T
i
S
fr
i = 1, . . . , n. Man erhlt y T
1
+ +T
n
und damit y
_
{T | T S
}
_
.
(c) Aus y
_
{T | T S
}
_
folgt y = v
1
+ + v
n
mit v
i
T
i
und T
i
S
.
Gilt nun T
1
, . . . , T
n
Im, so folgt weiter v
i
= u
i
, also u
i
(T
i
) fr i = 1, . . . , n.
Man erhlt y u
1
u
n
= u
1
Ker und folglich y = (u
1
+ u
1
) + u
2
+ + u
n
,
wobei auch u
1
+u
(T
1
) gilt, also y
(T ) | T S
}.
(d) Aus y
_ _
{U | U S}
_
folgt y U fr alle U S, also y
_
{U | U S}.
(e) x
_ _
{T | T S
}
_
ist gleichwertig mit x T fr jedes T S
, also weiter
mit x
(T ) fr alle T S
(T ) | T S
}.
(f) Aus y
_
{U | U S} folgt y = a
U
mit a
U
U fr alle U S. Bei fester Wahl
von U
, so
werden mit Z = x durch x = x und x = x
; d. h. ist injektiv.
(b) Ist surjektiv und gilt = , so gibt es zu y W ein x V mit x = y, woraus
y = y fr alle y W, also = folgt. Umgekehrt erflle die Bedingung aus (b); jedoch
sei nicht surjektiv. Dann gibt es ein y W mit y V und R-lineare Abbildungen ,
: W W mit y = y und y
= y
fr y
V. Es folgt = , also = im
Widerspruch zu y = y.
(c) ist trivial.
B.9.6 Man kann jedes M =
_
a b
c d
_
GL(2, R) in GL(n, R) mit n 2 einbetten, indemman
auf der Hauptdiagonalen n2 Einsen an die Matrix Manfgt und alle anderen Koefzienten
Null setzt. Die Matrizen A =
_
1 0
1 1
_
und B =
_
1 1
0 1
_
Mat
2
(R) sind ber jedem Ring R
invertierbar; denn A
1
=
_
1 0
1 1
_
und B
1
=
_
1 1
0 1
_
. Wegen AB =
_
1 1
1 2
_
=
_
2 1
1 1
_
=
BAfolgt, da GL(n, R) fr alle n 2 und alle kommutativen Ringe R nicht kommutativ ist.
B.10 Lsungen zu Kapitel 10 397
B.9.7 (a) Aus y
folgt y =
1
x
1
+ +
r
x
r
= (
1
x
1
+ +
r
x
r
)
(M
, so folgt =
1
x
1
+ +
r
x
r
,
also y =
1
x
1
+ +
r
x
. Man erhlt (M
) =
ist =
gleichwertig mit
() =
) fr alle A.
Wegen
ist daher y = y
gleichwertig mit
y =
fr alle A, woraus
die zweite Behauptung folgt.
B.9.8 (a) Es ist y Ker gleichwertig mit
y =
| A}.
(b) Aus Ker
folgt =
1
x
1
+ +
r
x
r
mit x
Ker
, also
() =
1
x
1
+ +
r
x
r
= 0 und daher Ker . Gilt M
1
= M
2
= W = R
1
und
sind
1
,
2
die Identitt von R
1
, so gilt Ker
1
= Ker
2
= 0. Fr die durch
1
und
2
nach
Satz 9.6.8 bestimmte Abbildung : R
1
R
1
R
1
ist jedoch Ker = 0, weil Ker z. B.
das Element (1, 1) enthlt.
B.9.9 Fr ein beliebiges Element z
gilt (
)z
= 0 und daher (
)z
=
(
)z
= 0, also (
)z
eine Abbildung der verlangten Art deniert. Wegen der Injektivitt von ist genau dann
injektiv, wenn
) Ker .
B.9.10 Es gilt X = Im + U und Im U = 0 mit einem Unterraum U von X. Da
Surjektionauf Im ist, gibt es wegenSatz 9.3.4eine F-lineareAbbildung
1
: Im X
, die
die linke Hlfte des Diagramms kommutativ ergnzt. Wegen Ker = Im ist die Restriktion
von auf U injektiv. Nach Aufgabe 9.7.10 existiert daher eine F-lineare Abbildung
2
:
U X
= Hom(V
, F)
Hom(V
, F) =
.
B.10 Lsungen zu Kapitel 10
B.10.1 (a) Nach Satz 2.3.18 besitzen die Unterrume U und V von M bzw. N Komplemente
K und L, d. h. M = U K und N = V L. Daher gelten: U N
= t (U N) = u n |
u U, n N M N und M V
= t (M V) = mv | m M, v V M N.
(b) Sei S := t (U N) +t (MV) MN. Dann ist S nach Satz 2.1.13 ein Unterraum
von M N. Nach Satz 10.1.13 gilt auerdem:
M N = (U K) (V L)
= U V U L K V K L,
U N
= U V U L und M V
= U V K V.
Daher hat der Unterraum S
= U N + M V ein Komplement T in M N, das zu
K L isomorph ist. Nach Satz 9.2.17 (2. Isomorphisatz) folgt: M/U
= K, N/V
= L und
M N/S
= K L. Daher gilt: M/U N/V
= K L
= M N/S.
398 B Lsungen der Aufgaben
B.10.2 Fr jedes Paar q
1
, q
2
Q existiert ein Hauptnenner 0 = c und Elemente a
i
Z mit
q
i
= a
i
c
1
. Daher ist q
1
q
2
= a
1
c
1
a
2
c
1
= (c
1
c
1
)a
1
a
2
= 0, woraus QQ = 0
folgt.
B.10.3 (a) folgt unmittelbar aus Satz 10.2.4 und Denition 10.2.2.
(b) Sind C und D invertierbare Matrizen passender Grsse mit A
= C
1
AC und B
=
D
1
BD, dann ist C D nach (a) eine invertierbare Matrix mit
[C D]
1
(A B)[C D] = (C
1
AC) (D
1
BD) = A
.
(c) Sei v ein Eigenvektor von A zum Eigenwert c und w ein Eigenvektor von B zum
Eigenwert d. Dann gilt (AB)(v w) = Av Bw = vc wd = (v w)cd. Hieraus folgt
die Behauptung.
B.10.4 (a) Man betrachtet die Koefzienten c
ii
der Hauptdiagonale der Matrix C := AB.
Gem Denition 10.2.2 gilt fr 1 i m gerade c
ii
= a
11
b
ii
. Fr m+1 i 2m gilt
c
ii
= a
22
b
im,im
. Also ergibt sich t r(AB) =
n
i=1
_
m
j=1
(a
ii
b
jj
)
_
=
n
i=1
(a
ii
m
j=1
b
jj
) =
n
i=1
a
ii
m
j=1
b
jj
= tr(A) tr(B).
(b) wird fr Endomorphismen End
R
(M), End
R
(N) bewiesen, wobei M =
R
s
, N = R
t
. Nun ist ( 1)(1 ) = .
_ _
s+t
( 1)
_
[m
1
m
s
n
1
n
t
] =
_ _
s+t
_
[m
s
m
s
][n
1
n
t
] =
_
t
_ _
s
_
[m
1
m
s
][n
1
n
t
] = (m
1
m
s
)[det()]
t
n
1
n
t
= [m
1
m
s
n
1
n
t
][det()]
t
.
Also ist det( 1) = [det()]
t
und analog det(1 ) = [det()]
s
. Nach dem Produktsatz
folgt det( ) = [det()]
t
[det()]
s
.
B.10.5 ( b) = 0 genau dann, wenn fr alle m M und b N gilt: 0 = ( b)(m) =
b(m). Also ist b = 0 oder (m) = 0 fr alle m M, also = 0. In beiden Fllen folgt
Ker = 0. Nach den Stzen 3.6.4 und Folgerung 10.1.16 gilt dim
F
Hom
F
(M, N) = mn =
dim
F
(M
F
N). Daher ist ein Isomorphismus.
B.10.6 Es seien : V V/W und
:
_
p
V
_ _
p
V
_
/W
p
die natrlichen Abbildun-
gen. Dann ist
p
:
_
p
V
_
p
(V/W) eine lineare Abbildung mit W
p
Kern(
p
), die
nach Hilfssatz 9.2.14 und Satz 9.2.18 eine lineare Abbildung :
_ _
p
V
_
/W
p
_
p
(V/W)
induziert. Wie im Beweis von Satz 10.1.6 zeigt man, da fr x
1
, . . . , x
p
V/W die Klasse
( x
1
x
p
) von der Reprsentantenwahl unabhngig ist. Die durch ( x
1
, . . . , x
p
) =
( x
1
x
p
) denierte p-fach alternierende Abbildung bestimmt nach Satz 10.4.5 eine
lineare Abbildung
:
_
p
(V/W)
_ _
p
V
_
/W
p
. Es ist
und
die Identitt, also
ein Isomorphismus.
B.10.7 Da V und Y endlich erzeugte freie R-Moduln sind, ist auch Z ein endlich erzeugter
freier R-Modul. Durch
q
(x
1
x
q
, y
q+1
y
p
) = x
1
x
q
y
q1
y
p
wird nach Satz 10.4.8 eine bilineare Abbildung
q
:
_ _
q
V,
_
pq
Y
_
_
p
Z deniert.
Nach Satz 10.1.6 bestimmt sie eine lineare Abbildung
q
: (
_
q
V)
_ _
pq
Y
_
_
p
Z,
die nach Satz 10.4.8 sogar injektiv ist. Die Abbildungen
q
bestimmen weiter nach Satz 9.6.8
eine lineare Abbildung :
p
q=0
__ _
q
V
_
_ _
pq
Y
__
_
p
Z, die ebenfalls injektiv
B.11 Lsungen zu Kapitel 11 399
ist. Man zeigt mit Satz 10.4.8, da sich jeder Vektor aus
_
p
Z als R-Linearkombination von
Vektoren der Form x
1
x
q
y
q+1
y
p
darstellen lt, und folgert, da auch
surjektiv und somit ein Isomorphismus ist.
B.10.8 Es sei {a
1
, a
2
, a
3
} eine Basis von V, und fr 1 i k 3 sei
i,k
die durch
i,k
(a
, a
) =
i,k
(a
, a
) =
i,
k,
(1 3) eindeutig bestimmte Biline-
arform. Nach Folgerung 10.4.9 gilt dimAlt
F
(2, V, F) =
_
3
2
_
= 3, es ist {
1,2
,
1,3
,
2,3
}
eine Basis von Alt
F
(2, V, F), und Alt
F
(2, V, F) besteht aus genau 8 Abbildungen.
B.10.9 Wenn A invertierbar ist, dann gilt AA
1
= E
n
. Nach dem Produktsatz folgt
det Adet A
1
= 1. Also ist det Aeine Einheit in R.
Wenn det A eine Einheit von R ist, gilt auch (det A)
1
R. Die inverse Matrix A
1
lt sich daher nach Satz 5.5.2 jetzt auch im Fall eines Ringes berechnen.
B.10.10 Da {u
1
, u
2
, . . . , u
m
} eine Basis des Unterraums U ist, gilt fr ein beliebiges v V
sogar v U genaudann, wenn{v, u
1
, u
2
, . . . , u
m
} linear abhngigist. Dies ist nachFolgerung
10.4.10 quivalent zu U = {v V}|v
1
u
1
u
2
u
m
= 0}.
B.11 Lsungen zu Kapitel 11
B.11.1 Da Z[i] C, ist Z[i] ein nullteilerfreier kommutativer Ring mit 1. Fr alle x = a+bi,
y = c +di = 0, x, y Z[i] gilt:
x
y
=
a +bi
c +di
=
(a +bi)(c di)
c
2
+d
2
=
ac +bd
c
2
+d
2
+
bc ad
c
2
+d
2
i.
Es existieren f, g Zund k, l Rmit |k|, |l|
1
2
so, da
ac+bd
c
2
+d
2
= f +k und
bcad
c
2
+d
2
= g+l.
Setze u = f +gi Z[i], r = y (k +li) C. Es folgt
x
y
= f +gi +k +li und somit x = y (f +gi) +y(k +li) = yu +r.
Also ist r = x y u Z[i]. Ferner gilt:
(r) = (y)(k
2
+l
2
) (y)
_
1
4
+
1
4
_
< (y),
und (x) 1 fr alle 0 = x Z[i]. Aus der Denition von folgt durch Nachrechnen, da
(xy) = (x)(y) (y) fr alle x = 0, y Z[i] gilt. Nach Denition 9.1.3 ist daher Z[i]
ein euklidischer Ring.
B.11.2 Sei die inAufgabe 11.1 denierte Normdes euklidischen Ringes Z[i]. Das Element
x = a + bi ist eine Einheit in Z[i], wenn ein y = c + di mit 1 = xy existiert. Dann ist
1 = (1) = (x)(y) = (a
2
+ b
2
)(c
2
+ d
2
) = a
2
c
2
+ a
2
d
2
+ b
2
c
2
+ b
2
d
2
. In dieser
Summe von vier Quadraten ganzer Zahlen ist genau ein Summand ungleich Null und somit
gleich 1. Wegen adi = 1 und bci = 1 gilt entweder a, c {1, 1} oder b, d {1, 1}. Also
ist U = {1, 1, i, i} die Menge der Einheiten von Z[i].
400 B Lsungen der Aufgaben
B.11.3 (a) ggT(f
1
, f
2
) = X
5
+X
2
+1.
(b) ggT(f
1
, f
2
) = X
7
+2X
6
+3X
5
+5X
4
+7X
3
+11X
2
+13X +17.
B.11.4 (a) Ist der gekrzte Bruch
p
q
Q in Q eine Nullstelle von f (X) = a
n
X
n
+
a
n1
X
n1
+ +a
1
X+a
0
aus Z[X], so ist f (X) =
_
X
p
q
_
(h
0
+h
1
X+ +h
n1
X
n1
)
fr geeignete h
i
Q. Also ist a
0
=
p
q
h
0
und a
n1
=
p
q
h
n1
=
p
q
a
n
, woraus wegen
ggT (p, q) = 1 folgt, da p | a
n
.
(b) Angenommen, der gekrzte Bruch
p
q
Q erfllt f
_
p
q
_
= 0. Wegen (a) ist dann
p
q
_
1
4
,
1
2
, 1, 1
1
2
,
1
4
_
=: M. Aber f (
p
q
) = 0 fr alle
p
q
M, ein Widerspruch.
B.11.5 Die Behauptung wird mit vollstndiger Induktion von n 1 auf n bewiesen. Fr
n = 2 ist char Pol
C
(X) = det
_
X
1
f
0
(X+f
1
)
_
= X(X +f
1
) +f
0
= m(X).
Nach dem Entwicklungssatz 5.4.9 von Laplace folgt durch Entwicklung nach der ersten
Spalte, da
char Pol
C
(X) = X det
_
_
_
_
_
_
_
_
_
X f
1
1 X f
2
1 X f
3
.
.
.
.
.
.
.
.
.
1 X f
n2
1 X +f
n1
_
_
_
_
_
_
_
_
_
+det
_
_
_
_
_
_
_
_
_
0 0 f
0
1 X f
2
1 X f
3
.
.
.
.
.
.
.
.
.
1 X f
n2
1 X +f
n1
_
_
_
_
_
_
_
_
_
= X(f
1
+f
2
X + +f
n1
X
n2
+X
n1
) +(1)
n
f
0
(1)
n2
= f
0
+f
1
X +f
2
X
2
+ +f
n1
X
n1
+X
n
.
B.11.6 Wegen Grad f (X) = 3 ist K = R[X]/f (X)R[X] ein 3-dimensionaler R-
Vektorraum. Also hat K genau |F|
3
= 2
3
= 8 Elemente. Sei x = [X] die Restklasse
von X in K. Dann sind die sieben Potenzen x, x
2
, x
3
= x +1, x
4
= x
2
+x, x
5
= x
2
+x +1,
x
6
= x
2
+1 und x
7
= 1 die smtlichen von Null verschiedenen Elemente von K. Also ist K
ein endlicher Krper mit acht Elementen.
B.11.7 (a) Nach Satz 11.1.17 ist ggT (m, n) = 1 quivalent zu Z = mZ + nZ. Wegen des
zweiten Isomorphiesatzes ist diese Gleichung zu Z/mZ Z/uZ
= Z/mnZ quivalent. Die
gesuchte Bedingung ist (m, n) = 1.
(b) ggT (m, n) = 1 impliziert nach Satz 11.1.17, da R = mZ + nZ. Also ist [m] =
m + nZ Z/nZ eine Einheit in Z/nZ. Ist [m] eine Einheit in Z/nZ, dann ist [m] kein
B.11 Lsungen zu Kapitel 11 401
Nullteiler. Gilt diese Bedingung (ii), aber ggT (m, n) = 1, dann gibt es eine Primzahl p
mit m = pm
1
und n = pn
1
fr geeignete m
1
, n
1
Z. Hieraus folgt der Widerspruch:
[m][n
1
] = [pm
1
n
1
] = [nm
1
] = 0 Z/nZ, aber [m] = 0 und [n
1
] = 0.
B.11.8 char Pol
A
(X) = X
4
6X
3
+ 8X
2
2X + 4. Der einzige rationale Eigenwert ist
x
1
= 2. Eigenvektor zu x
1
ist (1, 1, 0, 1). Der Faktor X
3
4X
2
2 von char Pol
A
(X)
besitzt keine rationale Nullstelle. Wre
m
n
eine rationale Nullstelle mit m Z, n N, und
m, n teilerfremd, dann wre
m
2
n
2
_
m4n
n
_
= 2. Somit ist m durch n teilbar. Also ist n = 1.
Fr m gerade ist m
2
(m 4) durch 8 teilbar und somit von 2 verschieden. Ist m ungerade,
so auch m
2
(m4), aber dieses Produkt ist 2. Widerspruch!
B.11.9 Die Smith-Normalform der Relationenmatrix
R =
_
_
_
_
1 0 5 7
3 3 1 4
2 2 4 2
8 8 8 16
_
_
_
_
ist
_
_
_
_
1 0 0 0
0 1 0 0
0 0 2 0
0 0 0 0
_
_
_
_
.
Die Elimination der ersten Zeile und Spalte von R mit Hilfe des Schritts 3 des Algorithmus
11.5.11 ergibt die Matrix
_
_
_
_
1 0 0 0
0 3 16 25
0 2 6 12
0 8 48 72
_
_
_
_
, die in
_
_
_
_
1 0 0 0
0 1 0 0
0 0 14 14
0 0 32 32
_
_
_
_
mit Hilfe der Schritte 2 und 3 des Algorithmus 11.5.11 bergeht. Hieraus ergibt sich die
Smith-Normalform. Somit ist A isomorph zu Z Z/2Z.
B.11.10 Da R kein Krper ist, gilt R = Q. Wre Q ein endlich erzeugter R-Modul, dann
gbe es endlich viele q
i
=
a
i
b
i
Q, a
i
, b
i
R, b
i
= 0 fr 1 i n, mit Q =
n
i=1
q
i
R.
Sei b =
n
i=1
b
i
. Dann ist b = 0 und bq
i
= r
i
R fr 1 i n. Da Q ein Krper ist, folgt
Q = bQ =
n
i=1
(bq
i
)R) =
n
i=1
r
i
R = R, was R = Q widerspricht.
B.11.11
_
2 0 1
2X
3
1 X
3
2
3
X
2
1
3
0
1
3
X
3
+
2
3
_
A
_
_
1 X
2
X
4
X
3
2
3
0 1 X
2
+X
0 X
2
X
4
+X
3
+1
_
_
=
_
_
3 0 0
0 X+1 0
0 0
1
3
(X
2
1)
_
_
.
B.11.12 Das neutrale Element der additiv geschriebenen, abelschen Gruppe G sei 0. Wegen
|G| = 2401 = 7
4
ist Gein p-Torsionsmodul ber dem Hauptidealring Z fr das Primelement
p = 7. Nach Satz 11.4.2 ist die Anzahl k der Elementarteiler e
1
e
2
e
k
> 0 von G
gleich der Dimension des F-Vektorraums
M(7) = {g G | g7 = 0} ber dem Krper F = Z/7Z.
402 B Lsungen der Aufgaben
Also ist |M(7)| = 7
k
. Alle Elemente g = 0 von G mit Ordnung o(g) = 7 liegen in M(7).
Nach Voraussetzung ist |M(7)| |{0}| = 48 = 7
k
1. Hieraus folgt k = 2.
Nun sind 3 > 1 > 0 und 2 2 > 0 die einzigen Partitionen von 4 mit 2 Teilen e
1
e
2
.
Also ist G nach Satz 9.4.3 entweder isomorph zu Z/7
3
Z Z/7Z oder Z/7
2
Z Z/7
2
Z.
B.11.13 Es gilt kgV(p(X), q(X)) = p(X)q(X)/ ggT(p(X), q(X)), und zwar ber jedem
Krper F. Also gengt es mit Satz 11.1.28 den grten gemeinsamen Teiler zu berechnen.
Im Fall F = Q ist ggT(p(X), q(X)) = 1.
Im Fall F = Z/3Z ist ggT(p(X), q(X)) = (X
2
+X +1) = (X 1)
2
.
Im Fall F = Z/11Z ist ggT(p(X), q(X)) = X 2, weil X 2 zu 7X 3 assoziiert ist.
B.12 Lsungen zu Kapitel 12
B.12.1 Sei m(X) = a
0
+ a
1
X + + a
r1
X
r1
+ X
r
das Minimalpolynom von A.
Da A invertierbar ist, ist a
0
= 0. Sei E
n
die n n-Einsmatrix und f
i1
= a
1
0
a
i
fr
1 i r 1 = s und f
s
= m
1
0
. Dann ist A
1
= f (A) mit f (X) =
s
i=0
f
i
X
i
, weil
E
n
= A(f
0
E
n
+f
1
A+ +f
s
A
s
) ist.
B.12.2 Die Smith-Normalform der charakteristischen Matrix C von Aist nach Algorithmus
12.3.3 diag(1, 1, 1, x
4
4x
3
+14x
2
20x +25). Also hat Adie rationale kanonische Form
Q
1
AQ = R =
_
_
_
_
0 0 0 25
1 0 0 20
0 1 0 14
0 0 1 4
_
_
_
_
, mit Q =
_
_
_
_
1 0 9 12
0 3 2 23
0 2 12 2
0 1 2 5
_
_
_
_
.
B.12.3 Mittels Algorithmus 12.3.3 werden die Elementarteiler und die Transformations-
matrizen P und Q der charakteristischen Matrix C = A XE
n
nach folgendem Schema
berechnet
E
4
C E
4
1 0 0 0 1 X 0 8 12 1 0 0 0
0 1 0 0 0 1 X 6 9 0 1 0 0
0 0 1 0 0 0 2 X
9
2
0 0 1 0
0 0 0 1 0 0 2 4 X 0 0 0 1
1 0 0 0 1 X 8 0 12 1 0 0 0
0 0 1 0 0 2 X 0
9
2
0 0 1 0
0 1 0 0 0 6 1 X 9 0 1 0 0
0 0 0 1 0 2 0 4 X 0 0 0 1
1 0 0 0 0 8 0 0
1
8
(X +2) X
2
+X 2 0
3
2
(1 X) 0 0 1 0
3
4
6(1 X) 1 X 0
1
8
1 X 0
3
2
1
4
2(1 X) 0 1 X 0 0 0 1
B.12 Lsungen zu Kapitel 12 403
1 0 0 0 1 0 0 0
1
8
(X 1) 0 1
3
2
0 (X 1)
2
0 0
3
4
1 0 0 0 6(1 X) 1 X 0
1
4
0 0 1 0 2(1 X) 0 1 X
1 0 0 0 0 8 0 0
0 (X 1)
2
0 0 0 6 1 0
0 0 X 1 0
1
8
4 X 0
3
2
0 0 0 X 1 0 2 0 1
1 0 0 0 1 0 0 0 0 0 0 8
1
4
0 0 1 0 X 1 0 0 0 0 1 6
3
4
1 0 0 0 0 X 1 0
1
8
3
2
0 4 X
1
8
(X 1) 0 1
3
2
0 0 0 (X 1)
2
0 1 0 2
Q QCP P
B.12.4 Sei Rdie rationale kanonische Formvon A. Dann existiert ein P mit R = P
1
AP.
Dann ist R
T
= (P
1
AP)
T
= P
T
A
T
P
1
T
. Nach Satz 12.2.1 gengt es, die Behauptung
fr die Begleitmatrix der Form R = C(m(X)) eines Minimalpolynoms m(X) zu beweisen.
Da R und R
T
dasselbe charakteristische Polynom und somit nach Hilfssatz 12.2.3 dasselbe
Minimalpolynom haben, sind die F[X]-Modulstrukturen von V bzgl. R und R
T
isomorph.
Also sind R und R
T
nach Folgerung 12.2.2 hnlich.
B.12.5 (a) ist trivial.
(b) Nach 12.1.1 deniert die Matrix Aauf V = F
n
eine F[X]-Modulstruktur. Sei
F
n
= V := F[X]v
1
F[X]v
2
F[X]v
r
die direkte Zerlegung von V in zyklische F[X]-Moduln, wobei fr Erzeuger v
i
V
Ann(v
i
) = (d
i
) und d
1
|
| d
2
|
| . . . |
| d
r
gilt.
Jedes Element aus dem Zentralisator E ist in seiner Wirkung auf F
n
mit A vertauschbar,
demnach auch mit allen Operatorenf (A), f F[X]. Die Linksmultiplikation von Elementen
aus E auf Vektoren in F
n
liefert somit F[X]-Modulendomorphismen. Also sind E und S :=
Hom
F[X]
(V, V) isomorphe Ringe und F-Vektorrume, d. h. dim
F
E = dim
F
S.
Fr jedes s S gilt: s(v
i
) =
r
j=1
s
ij
v
j
mit s
ij
F[X]. Es gilt d
i
s(v
i
) = s(d
i
v
i
) =
0 =
r
j=1
s
ij
d
j
v
j
und daher
() s
ij
d
i
0 mod d
j
, fr alle i, j = 1, . . . , r.
Sei umgekehrt eine Matrix (s
ij
) Mat(r, F[X]) gegeben, so da die Relationen () erfllt
sind. Durch die Zuordnung
()
r
i=1
f
i
v
i
r
i,j=1
f
i
s
ij
v
j
, f
i
F[X]
404 B Lsungen der Aufgaben
ist ein Element aus S deniert. Hierfr ist nur die Wohldeniertheit der Vorschrift () zu zei-
gen. Sind
r
i=1
f
i
v
i
und
r
i=1
h
i
v
i
zwei Darstellungen von v V mit f
i
, h
i
F[X],
so gilt f
i
h
i
mod d
i
, und daher (f
i
h
i
)s
ij
0 mod d
j
fr alle i, j. Es folgt
r
i,j=1
f
i
s
ij
v
j
=
r
i,j=1
h
i
s
ij
v
j
.
Ist j i, so gilt stets s
ij
d
i
0 mod d
j
, da d
j
|d
i
. Ist j > i, so ist () quivalent zu
s
ij
= b
ij
d
j
/d
i
mit b
ij
F[X].
Ersetzt man (s
ij
) durch (s
ij
) mit s
ij
s
ij
mod d
j
im Fall j i und s
ij
= b
ij
d
j
/d
i
mit b
ij
b
ij
mod d
i
im Fall j > i, so beschreiben beide Matrizen das gleiche Element in
S. Die Zuordnung s (s
ij
) mit Grad(s
ij
) < Grad(d
j
) fr j i und s
ij
= b
ij
d
j
/d
i
mit
Grad(b
ij
) < Grad(d
i
) ist bijektiv.
Die Menge der so denierten Matrizen bildet einen F-Vektorraum
S und die angegebene
Bijektion einen F-Vektorraumisomorphismus zwischen S und
S. Die Teilmenge
S
ij
:= {s
S | s
k
= 0 fr alle (k, ) = (i, j)}
ist ein F-Unterraum der Dimension n
j
fr j i und n
i
fr j > i.
Nun folgt die Formel in (b) leicht durch Aufsummieren dieser Dimensionen.
B.12.6 (a) Sei f = a b. Dann ist E
n
f Adie n n-Matrix, deren n Zeilenvektoren z
i
=
(b, b, . . . , b) F
n
fr i = 1, 2, . . . , nsind. Also hat der EigenraumKer(E
n
f A) von Azum
Eigenwert f die Dimension n 1. Nach Satz 11.4.5 und dem Berechnungsverfahren 6.3.13
fr die Jordansche Normalform J von A besitzt A genau n 1 Elementarteilerexponenten
e
1
e
2
e
n1
> 0 zum Eigenwert f .
Da alle e
i
1 sind, und das charakteristische Polynom charPol
A
(X) von A nach
Satz 6.1.10 den Grad n hat, folgt aus Satz 12.2.4, da entweder e
1
= 2 und alle e
i
= 1
fr 2 i n 1 oder ein zweiter Eigenwert g = f mit der Vielfachheit 1 in F exi-
stiert und alle e
i
= 1 fr 1 i n 1 sind. hnliche Matrizen haben nach Satz 3.5.7
die gleiche Spur. Daher folgt im ersten Fall, da na = tr(A) = nf = n(a b) ist,
was nb = 0 widerspricht. Also hat A einen von f verschiedenen Eigenwert g, fr den
na = tr(A) = (n 1)f + g = (n 1)(a b) + g gilt. Daher ist g = a + (n 1)b.
Wegen e
i
= 1 fr alle i = 1, 2, . . . , n 1 ist dim
F
Ker(E
n
f A) = n 1. Daher ist
dim
F
Ker(E
n
g A) = n (n 1) = 1.
(b) Da f, g F sind, hat Aeine Jordansche Normalform nach Satz 6.3.11.
(c) Da e
1
= 1undg nur dieVielfachheit 1imcharPol
A
(X) hat, ist m(X) = (Xf )(Xg)
nach Satz 6.3.11 das Minimalpolynom von A.
(d) Wegen (c) ist Anach Folgerung 6.3.12 diagonalisierbar, d. h. die Jordansche Normal-
form J ist eine Diagonalmatrix (d
ii
) mit d
ii
= f fr i = 1, 2, . . . , n 1 und d
nn
= g.
B.12.7 Durch Zeilenumformung von Afolgt wegen der Voraussetzung an die Koefzienten
a
j
und b
j
, da rg(A) = rg(E
n
0 A) = 2 ist. Also hat der Eigenraum Ker(E
n
0 A) die
Dimension n2. Nach Satz 11.4.5 und dem Berechnungsverfahren 6.3.13 fr die Jordansche
Normalform J besitzt Agenau n 2 Elementarteilerexponenten e
1
e
2
e
n2
> 0
B.12 Lsungen zu Kapitel 12 405
zum Eigenwert 0. Wegen
A
2
=
_
_
_
_
_
_
_
b
1
a
1
b
1
a
2
b
1
a
n1
0
b
2
a
1
b
2
a
2
b
2
a
n1
0
.
.
.
.
.
.
b
n1
a
1
b
n1
a
2
b
n1
a
n1
0
0 0 0 c
_
_
_
_
_
_
_
ist A
2
= 0 und c =
n1
j=1
a
j
b
j
. Es folgt A
3
= 0 genau dann, wenn c = 0 ist.
(a) Ist c = 0, dann ist e
1
= 3. Nach Satz 6.1.10 hat das charakteristische Polynom
charPol
A
(X) den Grad n. Wegen e
i
1 fr i = 2, . . . , n 2 folgt daher aus Satz 12.2.4,
da n
n2
i=1
e
i
= 3 +
n2
i=2
e
i
3 + (n 3) 1 = n ist. Hieraus folgt e
i
= 1 fr
i = 2, . . . , n 2. Also ist 0 der einzige Eigenwert von A. Daher existiert die Jordansche
Normalform J nach Satz 6.3.11. Wegen A
3
= 0 = A
2
hat Adas Minimalpolynom m(X) =
X
3
. Weiter hat die Jordansche Normalform J = (j
ik
) die Koefzienten j
21
= 1 = j
23
und
j
ik
= 0 fr (i, k) = (2, 1) und (i, k) = (2, 3).
(b) Ist c = 0, dann ist X
n2
ein Teiler von charPol
A
(X) nach Satz 12.2.4. Wegen
Grad(charPol
A
(X)) = n gibt es zwei von Null verschiedene Eigenwerte f
1
, f
2
von A. Sie
sind beide reell, weil 0 = t r(A) = f
1
+f
2
und 2c = 2
_
n1
j=1
a
j
b
j
_
= t rA
2
= f
2
1
+f
2
2
=
2f
2
1
> 0 nach den Stzen 6.1.9, 6.1.10 und 6.3.11 gilt. Also ist f
1
=
c und f
2
=
c R
und Abesitzt eine Jordansche Normalform ber R.
Das Minimalpolynom ist in diesem Falle
m(X) = X(X
c)(X +
c) = X(X
2
c).
Wegen c = 0 ist J nach 6.3.12 eine Diagonalmatrix mit n 2 Nullen und
c und
c auf
der Diagonalen.
Literatur
[1] N. Bourbaki, Algbre, Ch. I III. Herman, Paris 1998.
[2] E. Brieskorn, Lineare Algebra und Analytische Geometrie I, II. Vieweg, Wies-
baden 1983/1985.
[3] B. W. Char, K. O. Geddes, G. H. Gonnet, M. B. Monagan, S. M. Watt, Maple,
Reference Manual. 5th edition. Watcom Publications Ltd., Waterloo, Canada
1988.
[4] P. M. Cohn, On the structure of the GL
2
of a ring. Publications Mathmatiques,
Institut des Hautes Etudes Scientiques 30 (1966), 365 413.
[5] G. Eisenreich, Lineare Algebra und analytische Geometrie. 3. Au., Akademie-
Verlag, Berlin 1991.
[6] G. Fischer, Lineare Algebra. 12. Au., Vieweg, Wiesbaden 2000.
[7] S. H. Friedberg, A. J. Insel, L. E. Spence, Lineare Algebra. 3. Au., Prentice-
Hall 1996.
[8] W. H. Greub, Linear Algebra. 4. Au., Springer-Verlag, Heidelberg 1975.
[9] W. H. Greub, Multilinear Algebra. 2. Au., Springer-Verlag, Heidelberg 1978.
[10] K. W. Gruenberg, A. J. Weir, Linear Geometry. Springer-Verlag, Heidelberg
1977.
[11] P. Halmos, Finite-dimensional vector spaces. 5th printing, Undergraduate Texts
in Mathematics, Springer-Verlag, Heidelberg 1993.
[12] B. Hartley, T. O. Hawkes, Rings, Modules and Linear Algebra. Chapman &
Hall, London, Reprint 1991.
[13] I. N. Herstein, D. J. Winter, Matrix Theory and Linear Algebra. Macmillan,
NewYork 1988.
[14] A. S. Householder, The Theory of Matrices in Numerical Analysis. Dover, New
York 1975.
[15] B. Huppert, Angewandte Lineare Algebra. W. de Gruyter, Berlin 1990.
408 Literatur
[16] E. Johnson, Linear Algebra with Maple V. Smbolic Computation Series,
Brooks/Cole Publ. Co, Pacic Grove, Kalifornien 1993.
[17] W. Klingenberg, Lineare Algebra und Geometrie. 3. Au., Springer-Verlag,
Heidelberg 1992.
[18] M. Koecher, Lineare Algebra und analytische Geometrie. Springer-Verlag, Hei-
delberg 1997.
[19] E. Lamprecht, Einfhrung in die Algebra. 2. Au., UTB739, Birkhuser, Basel
1991.
[20] E. Lamprecht, Lineare Algebra 1 (2. Au.), 2. UTB 1021, 1224, Birkhuser,
Basel 1992.
[21] S. Lipschutz, M. Lipson, Lineare Algebra. 3. Au., Schaums Outline Series,
McGraw-Hill, NewYork 2000.
[22] F. Lorenz, Lineare Algebra I, II. B.I. Wissenschaftsverlag, Mannheim 1992.
[23] H. Lneburg, Vorlesungen ber Lineare Algebra. B.I. Wissenschaftsverlag,
Mannheim 1993.
[24] L. E. Manseld, Linear Algebra with Geometric Applications. Marcel Dekker,
NewYork 1976.
[25] K. Nomizu, Fundamentals of Linear Algebra. 2. Au., Chelsea Publishing
Company 1979.
[26] A. Ostrowski, Vorlesungen ber Differential- und Integralrechnung II. 2. Au.,
Birkhuser-Verlag, Basel 1967.
[27] G. Pickert, Analytische Geometrie Eine Einfhrung in Geometrie und Lineare
Algebra. Akademische Verlagsgesellschaft, Leipzig 1976.
[28] G. Scheja, U. Storch, Lehrbuch der Algebra (unter Einschlu der linearen
Algebra). Teil 1 bis 3., 2. Au., Teubner, Stuttgart 1994.
[29] G. Schmeier, H. Schirmeier, Praktische Mathematik. W. de Gruyter, Berlin,
NewYork 1976.
[30] H. R. Schwarz, H. Rutishauser, E. Stiefel, Numerik symmetrischer Matrizen.
Teubner, Stuttgart 1972.
[31] U. Stammbach, Lineare Algebra. 4. Au., Teubner Studienskripten, Stuttgart
1994.
[32] S. Wolfram, Mathematica, a system for doing mathematics by computer.
Addison-Wesley, Redwood City, USA, deutsche Fassung (2. Au.) 1996; eng-
lische Fassung (2. Au.) 1993.
Index
Abbildung, 4
adjungierte, 169
afne, 200
alternierende, 293
anti-selbstadjungierte, 169
bilineare, 279
identische, 5
injektive, 5
inverse, 5
lineare, 53
n-fach lineare, 279
n-lineare, 102
orthogonale, 178
projektive, 222
R-lineare, 251
selbstadjungierte, 169
surjektive, 5
unitre, 178
abelsch, 8
abhngig, 28, 38, 257, 260
absolutes Glied, 20
Abstand, 200
additive Gruppe, 9
adjungierte Abbildung, 169
adjungierte Matrix, 170
Adjunkte, 114, 117
hnlich, 206
hnliche Matrizen, 69
hnlichkeit, 205
hnlichkeitsfaktor, 205
quivalent
bzgl. Ideal, 245
bzgl. Untermodul, 251
projektiv, 227
quivalente Matrizen, 68, 264
quivalenzklasse, 7
quivalenzrelation, 6
uere Potenz, 298
eines R-Moduls, 292
ueres Produkt, 292
afn-quivalent, 232
afne Abbildung, 200
afne Gruppe, 203
afne Projektivitt, 225
afne Quadrik, 232
afner Raum, 194
afner Unterraum, 195
afnes Koordinatensystem, 198
Afnitt, 203
Algorithmen-Konvention, 86
Algorithmus
von Gau, 86
von Gau-Jordan, 89
alternierende Abbildung, 293
alternierende Gruppe, 102
alternierende Linearform, 103
Anfangsbedingung, 145
Anfangspunkt, 198
Anfangsvektor, 145
Annullator, 316
anti-selbstadjungiert, 169
arithmetischer Vektorraum, 19
assoziativ, 8, 12, 17, 49
assoziiert, 306
aufgespannter Unterraum, 196
ausgeartete Quadrik, 228
Austauschsatz, 33
Automorphismengruppe, 71
Automorphismus, 71
410 Index
Basis, 29, 38, 258, 260
duale, 74
geordnete, 34
kanonische, 29
orientierte, 210
Basissatz fr abelsche Gruppen, 322
Basiswechsel, 62, 264
Begleitmatrix, 349
Betrag einer komplexen Zahl, 14
Betrag eines Vektors, 159
Bijektion, 5
Bild, 4, 55, 251
bilineare Abbildung, 279
Bilinearform, 103
Blockmatrix, 116
Cayley-Hamilton, 352
charakteristisches Polynom, 123
Cramersche Regel, 118
Darstellung, triviale, 27
Denitionsbereich, 4
Descartes, Zeichenregel, 189
Determinante, 106, 109, 299, 301
Vandermondesche, 119
Diagonale, 6
Diagonalform, 328
diagonalisierbar, 129
Diagonalmatrix, 129, 328
Diagramm, kommutatives, 255
Differenz, 13
Differenzmenge, 3
Differenzvektor, 18
Dimension, 31, 195, 215
Dimensionssatz, 33, 197
direkte Summe, 37, 250
externe, 266
direktes Produkt, 266
Distributivitt, 12, 17
Division mit Rest, 305
Doppelebene, 228
Doppelgerade, 228
Doppelpunkt, 228
Doppelverhltnis, 221
Drehachse, -ebene, 211
Drehung, 207
Drehwinkel, orientierter, 211
Dreiecksmatrix, 81
Dreiecksungleichung, 159
duale Basis, 74
dualer Vektorraum, 73
Durchschnitt, 2
Ebene, 196, 215
Ebenenpaar, 231
Eigenraum, 122
eigentlich orthogonal, 207
eigentlicher Punkt, 217
Eigenvektor, 121
Eigenwert, 121
eindeutige Darstellung, 37
Einheit, 247
Einheitsmatrix, 45
Einheitspunkt, 198, 219
Einheitsvektor, 28
Einschrnkung, 75
Einselement, 1113
Element, 1
elementare Umformung, 82
Elementarmatrix, 82
Elementarteiler, 136, 325, 328
Elementarteiler des nilpotenten
Endomorphismus, 136
Elementarteiler des Torsionsmoduls, 325
Elementarteilerexponent, 320
Elementarteilersatz, 328
Elimination, 95
Ellipse, 237
Ellipsoid, 238
endlich erzeugt, 28, 257
endlich-dimensional, 31
Endomorphismenring, 71
Endomorphismus, 53, 71, 106
anti-selbstadjungierter, 169
diagonalisierbarer, 129
nilpotenter, 78, 135, 136
normaler, 172
selbstadjungierter, 169
zyklischer, 348
entgegengesetzt orientiert, 210
Entwicklungssatz von Laplace, 114
Index 411
Epimorphismus, 53, 251, 253
erweiterte Matrix, 91
Erzeugendensystem, 28, 260, 314
Erzeuger, 245
Erzeugnis, 26
erzeugter Unterraum, 26, 196
euklidisch-afner Raum, 200
Euklidischer Algorithmus, 311
euklidischer Ring, 305
euklidischer Vektorraum, 154
Eulersche Winkel, 214
exakte Folge, 256
Exponent des Eigenwerts, 134
externe direkte Summe, 266
Faktormodul, 253
Faktorraum, 255
Faserprodukt, 273
Fasersumme, 275
fast alle, 36
fast berall, 260
Fitting, 133
Fixpunkt, 204
Folge, exakte, 256
Fortsetzung, Skalarprodukt, 158
freier Modul, 260
Frobenius-Ungleichung, 78
Funktionenraum, 19, 24
ganze Zahlen, 2
Gau-Algorithmus, 86
Gau-Jordan-Algorithmus, 89
Gausche ganze Zahlen, 344
generelle lineare Gruppe, 52, 71, 263
geordnete Basis, 34
Gerade, 196, 215
gerade Permutation, 101
Geradenpaar, 231, 237
gleich orientiert, 210
Gleichungssystem
homogenes, 21
inhomogenes, 21
lineares, 20, 21
Grad, 14
Gram-Schmidtsches
Orthonormalisierungsverfahren, 164
grter gemeinsamer Teiler, 307
Grundpunkt, 219
Gruppe, 8
abelsche, 8
additive, 9
afne, 203
alternierende, 102
generelle lineare, 52, 71
multiplikative, 9
orthogonale, 182
symmetrische, 10, 99
unitre, 182
Gruppenmultiplikation, 9
Gruppenverknpfung, 9
Hamilton, 352
harmonisch trennen, 222
Hauptachsentheorem, 183
Hauptideal, 245
Hauptidealring, 306
Hauptsatz der Algebra, 15
Hermitesche Form, 155
Hermitesche Matrix, 182
homogene Koordinaten, 219
homogenes lineares Gleichungssystem, 21
homogenes System von linearen
Differentialgleichungen erster
Ordnung mit konstanten
Koefzienten, 144
Hyperbel, 237
Hyperboloid, 238, 240
Hyperebene, 196, 215
uneigentliche, 217
zugeh. afner Raum, 217
Ideal, 245, 247
maximales, 246
identische Abbildung, 5
Identitt, 5
imaginre Einheit, 13
Imaginrteil, 13
Induktion, 3
inhomogenes lineares Gleichungssystem,
21
Injektion, 5
412 Index
natrliche, 74, 266
injektiv, 5
invariante Faktoren, 329
invarianter Unterraum, 75
inverse Abbildung, 5
inverse Matrix, 51, 263
inverses Element, 11
invertierbare Matrix, 51, 263
irreduzibel, 308
isomorph, 53, 72
Isomorphiestze, 253
Isomorphismus, 53, 251
Jordan, 89
Jordankstchen, 140
Jordansche Normalform, 139, 361
kanonische Basis, 29
kanonischer Epimorphismus, 253
kartesische Potenz, 6
Kartesische Zeichenregel, 189
Kartesisches Koordinatensystem, 200
kartesisches Produkt, 6
Kegel, 231, 237
Kern, 55, 251
Kette, 4
kleinstes gemeinsames Vielfaches, 307
Koefzient, 14, 20
Koefzientenmatrix, 144
afne Quadrik, 232
projektive Quadrik, 226
Krper, 12
kollinear, 199
kommutativ, 8, 12, 13
kommutatives Diagramm, 255
Komplement, 40
orthogonales, 74, 167
Komplementierungssatz, 41
komplexe Erweiterung, 157
komplexe Fortsetzung, 158
komplexe Zahlen, 2, 13
Komponente, 315
kongruent, 187, 206
Kongruenz, 204
Kongruenzstze, 206
konjugiert komplexe Matrix, 170
konjugierte komplexe Zahl, 13
Koordinaten, 34, 198
homogene, 219
Koordinatensystem
afnes, 198
kartesisches, 200
projektives, 219
Koordinatenvektor, 34, 198
homogener, 219
Kosinus, 161, 200
Kosinussatz, 161
Kronecker-Produkt, 288
Kronecker-Symbol, 162
Krzungsregel, 304
kurze exakte Folge, 256
Lnge eines Elements, 330
Lnge eines Vektors, 159
Laplace, Entwicklungssatz, 114
leere Menge, 1
Lemma von Zorn, 4
lineare Abbildung, 53
n-fache, 279
lineare Differentialgleichung, 145
lineare Differentialgleichungssysteme, 144
lineare Operation, 18
lineares Gleichungssystem, 20, 21
Linearform, 73
alternierende, 103
n-fache, 103
nicht ausgeartet, 103
Linearkombination, 25, 257
linear (un-)abhngig, 28, 38, 257, 260
linear (un-)abhngige Teilmenge, 257, 260
Linksmodul, 346
Lsungsmenge, 20
Mchtigkeit, 3
Maple, 367
Mathematica, 367
Matrix, 44
adjungierte, 170
hnliche, 69, 121
diagonalisierbare, 129
einer afnen Quadrik, 232
Index 413
einer projektiven Quadrik, 226
erweiterte, 91
Hermitesche, 182
inverse, 51
invertierbare, 51, 263
konjugiert komplexe, 170
orthogonale, 179
quadratische, 44
regulre, 51
schief-Hermitesche, 182
schiefsymmetrische, 182
symmetrische, 51, 182
transponierte, 51
unitre, 179
Matrix einer linearen Abbildung, 60, 264
Matrix eines Basiswechsels, 62, 264
Matrizenhnlichkeit, 69
Matrizenquivalenz, 68, 264
Matrizenprodukt, 48
maximales Ideal, 246
Menge, 1
leere, 1
linear abhngige, 28
Mengensystem, 2
Minimalpolynom, 347
Modul, 18, 248
endlich erzeugter, 257
freier, 258, 260
torsionsfreier, 312
zyklischer, 257
Modulhomomorphismus, 251
Monomorphismus, 53, 251
multiplikative Gruppe, 9
natrliche Injektion, 74, 266
natrliche Projektion, 266
natrliche Zahlen, 1
negativ orientiert, 210
negatives Element, 13
neutrales Element, 8
nicht ausgeartete Linearform, 103
nilpotent, 78, 135
Nilpotenzindex, 78, 135
Norm, 305
normaler Endomorphismus, 172
normierter Vektor, 160
normiertes Polynom, 14
Nullelement, 1113
Nullideal, 245
Nullmatrix, 45
Nullraum, 24
Nullstelle, 125
Nullstellenmenge, 225
nullteilerfrei, 304
Nullvektor, 16, 18
Operation, lineare, 18
Ordnung
einer Gruppe, 9
eines Elements, 318
eines Moduls, 318
orientiert, 210
orientierter Drehwinkel, 211
orthogonal, 161, 167
orthogonale Abbildung, 178
orthogonale Gruppe, 182
orthogonale Matrix, 179
orthogonales Komplement, 74, 167
Orthogonalsystem, 161
Orthonormalbasis, 161
Orthonormalisierung, 164
Orthonormalsystem, 161
Ortsvektor, 16
Ovalche, 231
Parabel, 237
Paraboloid, 238
parallel, 197
Parallelogrammgleichung, 190
Parallelotop, 191
Partition, 323
Permutation, 10, 99
Pivotierung, 88
p-Modul, 318
Polarzerlegung, 189
Polynom, 14
charakteristisches, 123
normiertes, 14
Polynomring, 14, 15
positiv denit, 153, 156
positiv orientiert, 210
414 Index
Potenz
uere, 298
kartesische, 6
Potenzmenge, 4
Primrkomponente, 316
Primelement, 308
Produkt
ueres, 292
direktes, 266
kartesisches, 6
skalares, 46, 153, 156
vektorielles, 242
Produkt von Matrix mit Vektor, 46
Produktabbildung, 5
Produktmatrix, 48
Projektion, natrliche, 266
projektiv quivalent, 227
projektive Dimension, 215
projektive Quadrik, 225
projektiver Raum, 215
projektives Koordinatensystem, 219
Projektivitt, 222
afne, 225
Pullback, 273
Punkt, 194, 215
kollinearer, 199
unabhngiger, 198, 218
(un-)eigentlicher, 217
Pushout, 275
Pythagoras, 161
quadratische Form, 225
quadratische Matrix, 44
Quadrik
afne, 232
ausgeartete, 228
projektiv quivalent, 227
projektive, 225
Quotientenkrper, 305
Rang einer linearen Abbildung, 59
Rang einer Matrix, 66
Rang eines Moduls, 259, 315, 328
rationale kanonische Form, 350, 360
rationale Zahlen, 2
Raum
afner, 194, 217
euklidisch-afner, 200
euklidischer, 154
projektiver, 215
unitr-afner, 200
unitrer, 156
Realteil, 13
reelle Zahlen, 2
reexiv, 6
Regel von Sarrus, 112
regulre Matrix, 51
Relation, 6, 342
Relationen-Matrix, 342
Reprsentant, 7
Restklassenring, 246
Ring, 12
euklidischer, 305
mit eindeutiger Faktorzerlegung, 310
nullteilerfreier, 304
Ringche, 231
Sarrus, Regel von, 112
schief-Hermitesche Matrix, 182
schiefsymmetrische Matrix, 182
Schmidt, E., 164
Schwarzsche Ungleichung, 158
selbstadjungiert, 169
Signum, 101
Skalar, 17
Skalarprodukt, 46, 153, 156
Smith-Algorithmus, 337
Smith-Normalform, 328
Spalte, 44
Spaltenlnge, 44
Spaltenrang, 44, 328
Spaltenraum, 44
Spaltenvektor, X, 44
Spiegelung, 208
Spur, 69
Steinitz, 33
Struktursatz
fr endlich erzeugte Moduln, 321
Struktursatz fr Vektorrume, 40
Summe
direkte, 37, 250
Index 415
externe direkte, 266
von Untermoduln, 250
von Unterrumen, 27, 36, 37
Summenmatrix, 45
Surjektion, 5
surjektiv, 5
Sylvester
Trgheitssatz, 187
symmetrisch, 6, 153
symmetrische Gruppe, 10, 99
symmetrische Matrix, 51, 182
Teiler, 307
grter gemeinsamer, 307
teilerfremd, 307
Teilmenge, 2
Teilverhltnis, 200
Tensorabbildung, 280
Tensorprodukt, 280
Torsionselement, 312
torsionsfrei, 312
Torsionsmodul, 313
Trgheitsindex, 187
Trgheitssatz, 187
transitiv, 6
Translation, 203
Translationsvektor, 203
transponierte Matrix, 51
Transposition, 100
trennen, 221
harmonisch, 222
Treppenform, 80
Treppennormalform, 88
triviale Darstellung, 27
Tupel, 19
Umformung
elementare, 82
Umkehrabbildung, 5
unabhngig, 28, 38, 257, 260
unabhngige Punkte, 198, 218
Unbekannte, 20
uneigentlich orthogonal, 207
uneigentliche Hyperebene, 217
uneigentlicher Punkt, 217
uneigentlicher Teil(Quadrik), 232
unendlich-dimensional, 31
ungerade Permutation, 101
unimodular, 263
unipotent, 355
unitr-afner Raum, 200
unitre Abbildung, 178
unitre Gruppe, 182
unitre Matrix, 179
unitrer Raum, 156
Unterdeterminante, 114
Untergruppe, 11
Untermatrix, 114
Untermodul, 249
Unterraum, 24
afner, 195
aufgespannter, 196
erzeugter, 26
invarianter, 75
projektiver, 215
Unterring, 247
unzerlegbar, 308
Urbild, 5
Vandermondesche Determinante, 119
Vektor, 17
normierter, 160
Vektorprodukt, 242
Vektorraum, 1, 17
arithmetischer, 19
dualer, 73
endlich erzeugter, 28
endlich-dimensionaler, 31
euklidischer, 154
orientierter, 210
unendlich-dimensionaler, 31
unitrer, 156
verallgemeinerter Eigenraum, 134
Verbindungsgerade, 196
Verbindungsraum, 196, 216
Vereinigung, 2
Vielfaches
kleinstes gemeinsames, 307
Vielfachheit, 136
Vielfachheit eines Eigenwerts, 127
vollstndige Induktion, 3
416 Index
Volumen
eines Parallelotops, 191
windschief, 242
Winkel, 161, 200
Eulersche, 214
Zeichenregel von Descartes, 189
Zeile, 44
Zeilenlnge, 44
Zeilenrang, 44, 328
Zeilenraum, 44
Zeilenvektor, 44
Zentrum, 79
Zerfllungskrper, 132
Zerlegung, 7
Zielbereich, 4
Zornsches Lemma, 4
ZPE-Ring, 310
zyklischer Endomorphismus, 348
zyklischer Modul, 257
Zylinder, 238