Beruflich Dokumente
Kultur Dokumente
Lineare
Algebra
Ein Grundkurs mit Aufgabentrainer
6. Auflage
Lineare Algebra
Siegfried Bosch
Lineare Algebra
Ein Grundkurs mit Aufgabentrainer
6. Auflage
Siegfried Bosch
Mathematisches Institut
Westfälische Wilhelms-Universität
Münster, Deutschland
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detail-
lierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2001, 2003, 2006, 2008, 2014, 2021
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem
Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung
unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen
Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und
Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.
1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . 12
1.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4 Vektorräume und lineare Unterräume . . . . . . . . . . 34
1.5 Linear unabhängige Systeme und Basen . . . . . . . . . 42
1.6 Direkte Summen . . . . . . . . . . . . . . . . . . . . . 58
2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . 65
2.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . 73
2.2 Quotientenvektorräume . . . . . . . . . . . . . . . . . . 83
2.3 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . 96
3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.1 Lineare Abbildungen und Matrizen . . . . . . . . . . . 114
3.2 Gauß-Elimination und der Rang einer Matrix . . . . . 125
3.3 Matrizenringe und invertierbare Matrizen . . . . . . . . 138
3.4 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . 147
3.5 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . 151
4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . 167
4.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . 171
4.2 Determinantenfunktionen . . . . . . . . . . . . . . . . . 178
4.3 Determinanten von Matrizen und Endomorphismen . . 183
4.4 Die Cramersche Regel . . . . . . . . . . . . . . . . . . 194
4.5 Äußere Produkte* . . . . . . . . . . . . . . . . . . . . . 198
X Inhalt
5 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
5.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
5.2 Teilbarkeit in Integritätsringen . . . . . . . . . . . . . . 226
5.3 Nullstellen von Polynomen . . . . . . . . . . . . . . . . 238
6 Normalformentheorie . . . . . . . . . . . . . . . . . . . 243
6.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . 247
6.2 Minimalpolynom und charakteristisches Polynom . . . 255
6.3 Der Elementarteilersatz . . . . . . . . . . . . . . . . . . 265
6.4 Endlich erzeugte Moduln über Hauptidealringen . . . . 282
6.5 Allgemeine und Jordansche Normalform für Matrizen . 289
8 Aufgabentrainer . . . . . . . . . . . . . . . . . . . . . . . 367
8.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . 370
8.2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . 391
8.3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 406
8.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . 428
8.5 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . 440
8.6 Normalformentheorie . . . . . . . . . . . . . . . . . . . 449
8.7 Euklidische und unitäre Vektorräume . . . . . . . . . . 466
Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485
Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . 487
y
✻
y1 ❜P = (x1 , y1 )
✲
x1 x
In der Tat, ist P ein Punkt in E, so konstruiere man die Parallele zu y
durch P . Diese schneidet die Achse x in einem Punkt x1 . Entsprechend
schneidet die Parallele zu x durch P die Achse y in einem Punkt y1 ,
so dass man aus P das Koordinatenpaar (x1 , y1 ) erhält. Umgekehrt
lässt sich P aus dem Paar (x1 , y1 ) in einfacher Weise zurückgewin-
nen, und zwar als Schnittpunkt der Parallelen zu y durch x1 und der
Parallelen zu x durch y1 . Genauer stellt man fest, dass die Zuord-
nung P ✲ (x1 , y1 ) eine umkehrbar eindeutige Beziehung zwischen
den Punkten von E und den Paaren reeller Zahlen darstellt und man
deshalb wie behauptet eine Identifizierung
E = R2 = Menge aller Paare reeller Zahlen
vornehmen kann. Natürlich hängt diese Identifizierung von der Wahl
des Nullpunktes 0 sowie der Koordinatenachsen x und y ab. Wir haben
in obiger Abbildung ein rechtwinkliges (kartesisches) Koordinatensys-
tem angedeutet. Im Prinzip brauchen wir jedoch an dieser Stelle noch
nichts über Winkel zu wissen. Es genügt, wenn wir als Koordinaten-
achsen zwei verschiedene Geraden x und y durch den Nullpunkt 0 ver-
wenden, so wie es auch von Descartes vorgeschlagen wurde. Insofern
hat Descartes selbst die nach ihm benannten kartesischen Koordina-
tensysteme noch nicht wirklich genutzt. Im Übrigen werden wir das
Transformationsverhalten der Koordinaten bei Wechsel des Koordina-
tensystems später noch genauer analysieren, und zwar im Rahmen der
Einführung zu Kapitel 2.
Es soll nun auch die Identifizierung der beiden Koordinatenachsen
x und y mit der Menge R der reellen Zahlen noch etwas genauer be-
leuchtet werden. Durch Festlegen des Nullpunktes ist auf x und y je-
weils die Streckungsabbildung mit Zentrum 0 und einer reellen Zahl als
Streckungsfaktor definiert. Wählen wir etwa einen von 0 verschiedenen
Punkt 1x ∈ x aus und bezeichnen mit α · 1x das Bild von 1x unter der
Überblick und Hintergrund 3
α ∈ R, P = (x1 , y1 ) ∈ R2
y
✻
αy1 ❜
α·P
y1 ❜
P
✲
x1 αx1 x
y
✻
αy1 ✲
#«
α · 0P
y1 ✲
#«
0P
✲
x1 αx1 x
y
✻
P1 + P2
y1 +y2 ✥✥❜
✥ ✥✥✥✥ ✑✂
✥ ✑ ✂
P❜✥ 2 ✥✥✥
✥✥✥ ✑ ✂
y2 ✑
✂ ✑ ✂
✂ ✑ ✂
✑
✂ ✑ ✂
✂ ✑ ✂
✑
✂ ✑ ✂
y1 ✂ ✑ ✂
✑ ✥✥ ✥
✥ P1
✂ ✑ ✥✥✥
❜
✂ ✑✑✥✥✥✥✥
✂✥✥✥
✑ ✲
x2 x1 x1 + x2 x
y
✻
y1 +y2
✸ P
✑
✑ ✂✂✍
✑ ✂
✑
✑
# « # « # « ✑ # « ✂✂
0P = 0P1 + 0P2✑✑ 0P2
✂
✑ ✂
✑
✑ ✂
✑
y1 ✑ ✲ ✂P1
✑
✑ # «
✑ 0P1
✑ ✲
x1 x1 + x2 x
Bild zuordnet. Wir wollen von dieser Möglichkeit allerdings keinen Ge-
brauch machen, da eine Trennung der Begriffe für unsere Zwecke keine
Vorteile bringt und die Dinge lediglich komplizieren würde.
Als Nächstes wollen wir besprechen, dass die Addition von Punkten
und Vektoren in R2 bzw. E auf natürliche Weise auch eine Subtraktion
nach sich zieht. Für P0 = (x0 , y0 ) ∈ R2 setzt man
und nennt dies das negative oder inverse Element zu P0 . Dieses ist
in eindeutiger Weise charakterisiert als Element Q ∈ R2 , welches
der Gleichung P0 + Q = 0 genügt. Die Subtraktion zweier Elemen-
te P1 = (x1 , y1 ) und P0 = (x0 , y0 ) in R2 wird dann in naheliegender
Weise auf die Addition zurückgeführt, und zwar durch
Überblick und Hintergrund 7
P1 − P0 := P1 + (−P0 ) = (x1 − x0 , y1 − y0 ).
y✻
y1
✑✑ ✸✂✍ P1
✑ ✂
✑ ✂
P1 − P0 # « ✑
✲ −0P0 ✑ ✂
✂✍ ✑ ✂
✑
✂ ✑ ✂# « # «
✂# « ✑ ✂ 0P1 − 0P0
# « ✑
✂ 0P1 − 0P0 ✑# « ✂
✂ ✑ 0P1 ✂
✑
✂ ✑ ✂
✂ ✑ ✂
✑
y0 ✂ ✑ ✲✂P
✂ ✑
✑ 0
✂ ✑ # «
✂ ✑✑ 0P0
✑
✂ ✲
x0 x1 x
# «
Insbesondere erkennt man, dass die Summe der Vektoren 0P0 und
# « # « # «
0P1 − 0P0 gerade den Vektor 0P1 ergibt, was eine sinnvoll definierte
Addition bzw. Subtraktion natürlich ohnehin leisten sollte. Allgemei-
ner kann man Summen des Typs
#« # « # « # «
0P = 0P0 + α · (0P1 − 0P0 )
y G
✻ ✂
✂
y1
✸✂ P1
✑
✑ ✂✂✍
✑ ✂
✑
✑ ✂
# « ✑ ✂ 0P
# « # «
0P✑1 ✑ 1 − 0P0
✂
✑ ✂
✑
✑ ✂
✑
y0 ✑ ✲ ✂P0
✑ ✂
✑ # «
✂
✑ 0P0
✑ ✂ ✲
✂ x0 x1 x
✂
#« ✂
0P ✲✂
✂P
✂
mit P0 6= P1 und P0′ 6= P1′ gegeben, so sind diese genau dann parallel,
wenn P1 − P0 ein skalares Vielfaches von P1′ − P0′ ist, bzw. umgekehrt,
wenn P1′ − P0′ ein skalares Vielfaches von P1 − P0 ist. Ist Letzteres nicht
der Fall, so besitzen G und G′ genau einen Schnittpunkt, wobei eine
Berechnung dieses Schnittpunktes auf die Lösung eines sogenannten
linearen Gleichungssystems führt, welches aus 2 Gleichungen mit 2
Unbekannten, nämlich den Koordinaten des Schnittpunktes von G und
G′ besteht. Die Lösung von Gleichungssystemen dieses Typs wird uns
in allgemeinerem Rahmen noch ausführlich in Kapitel 3 beschäftigen.
Die vorstehenden Überlegungen lassen sich ohne Probleme auf den
drei-dimensionalen Raum und sein Modell R3 verallgemeinern. Bei-
spielsweise ist für zwei verschiedene Punkte P0 , P1 ∈ R3 wiederum
G = P0 + t · (P1 − P0 ) ; t ∈ R
Überblick und Hintergrund 9
✁ E ✁✁
✁
✁ ✲ P2 ✁
✁ ✁
✲
P1
✁ P0 ✁
✲
✁ ✁
✁ ✁
0
Wenn P1′ kein Vielfaches von P2′ und P2′ kein Vielfaches von P1′ ist,
die Vektoren in 0 angetragen also nicht auf einer Geraden durch 0
liegen, so bezeichnet man P1′ und P2′ als linear unabhängig. In diesem
Falle erkennt man E als Ebene, ansonsten als Gerade oder auch nur
als Punkt. Da die Vektoren P1′ und P2′ hier eine entscheidende Rolle
spielen, sollten wir auch das Gebilde
E ′ = s · P1′ + t · P2′ ; s, t ∈ R
#«
betrachten, welches durch Verschieben von E um den Vektor −0P
entsteht:
✁ E ′ ✁✁
✁
✁ ✲ P2′ ✁
✁ ✁
✲
✁
P1′ 0 ✁
✁ ✁
✁ ✁
Im Rahmen der Vektorräume nennt man E ′ den von P1′ und P2′ auf-
gespannten oder erzeugten linearen Unterraum von R3 . Allgemeiner
10 1. Vektorräume
gegeben sind.
12 1. Vektorräume
∅ = leere Menge,
N = {0, 1, 2, . . .} natürliche Zahlen,
Z = {0, ±1, ±2, . . .} ganze Zahlen,
Q = {p/q ; p, q ∈ Z, q 6= 0} rationale Zahlen,
R = reelle Zahlen.
Es sei angemerkt, dass bei einer Menge, sofern wir sie in aufzählen-
der Weise angeben, etwa X = {x1 , . . . , xn }, die Elemente x1 , . . . , xn
nicht notwendig paarweise verschieden sein müssen. Diese Konvention
gilt auch für unendliche Mengen; man vergleiche hierzu etwa die obige
Beschreibung von Q.
Um Widersprüche zu vermeiden, sind die Mengenaxiome so ausge-
legt, dass die Bildung von Mengen gewissen Restriktionen unterworfen
1.1 Mengen und Abbildungen 13
ist. Beispielsweise darf eine Menge niemals sich selbst als Element ent-
halten, so dass insbesondere die Gesamtheit aller Mengen nicht als
Menge angesehen werden kann, da sie sich selbst als Element enthal-
ten würde. Einen Hinweis auf die hiermit verbundene Problematik lie-
fert das folgende Paradoxon von Russel: Wir nehmen einmal in naiver
Weise an, dass man die Gesamtheit aller Mengen, die sich nicht selbst
enthalten, also
X = {Mengen A mit A 6∈ A},
als Menge betrachten kann. Fragt man sich dann, ob X ∈ X oder
X 6∈ X gilt, so erhält man im Falle X ∈ X nach Definition von X
sofort X 6∈ X und im Falle X 6∈ X entsprechend X ∈ X. Es ergibt
sich also X ∈ X und X 6∈ X zugleich, was keinen Sinn macht.
Wichtig für die Handhabung von Mengen sind die erlaubten Pro-
zesse der Mengenbildung, auf die wir nachfolgend eingehen.
(1) Teilmengen. – Es sei X eine Menge und P (x) eine Aussage,
deren Gültigkeit (wahr oder falsch) man für Elemente x ∈ X testen
kann. Dann nennt man Y = {x ∈ X ; P (x) ist wahr} eine Teilmenge
von X und schreibt Y ⊂ X. Dabei ist auch Y = X zugelassen. Gilt
allerdings Y 6= X, so nennt man Y eine echte Teilmenge von X. Bei-
spielsweise ist R>0 := {x ∈ R ; x > 0} eine (echte) Teilmenge von R.
Für eine gegebene Menge X bilden die Teilmengen von X wiederum
eine Menge, die sogenannte Potenzmenge P(X).
(2) Vereinigung und Durchschnitt. – Es sei X eine Menge und I
eine Indexmenge, d. h. eine Menge, deren Elemente wir als Indizes
verwenden wollen. Ist dann für jedes i ∈ I eine Teilmenge Xi ⊂ X
gegeben, so nennt man
[
Xi := {x ∈ X ; es existiert ein i ∈ I mit x ∈ Xi }
i∈I
T
X1 ∩ . . . ∩ Xn statt i∈I Xi . Die Vereinigung von zwei Teilmengen
X ′ , X ′′ ⊂ X lässt sich insbesondere in der Form
X ′ ∪ X ′′ = {x ∈ X ; x ∈ X ′ oder x ∈ X ′′ }
Familie (xi )i∈∅ , welche durch die leere Indexmenge I = ∅ indiziert ist,
Q als leer bezeichnet. Demgemäß bestehen die kartesischen Produk-
wird
te i∈I Xi und X I im Falle I = ∅ aus genau einem Element, nämlich
der leeren Familie.
Als Nächstes kommen wir auf den Begriff der Abbildung zwischen
Mengen zu sprechen.
Aufgaben
1.2 Gruppen
1
Das neutrale Element e ist, wie wir sogleich sehen werden, durch seine defi-
nierende Eigenschaft eindeutig bestimmt.
18 1. Vektorräume
Abbildungen als Verknüpfung. Man prüft leicht nach, dass diese Grup-
pe nicht kommutativ ist, sofern X mindestens 3 verschiedene Elemente
enthält.
Wie bereits behauptet, ist in einer Gruppe G das neutrale Element
e eindeutig bestimmt. Ist nämlich e′ ∈ G ein weiteres neutrales Ele-
ment, so folgt e = e′ · e = e′ . Auf ähnliche Weise zeigt man, dass das
zu einem Element a ∈ G gehörige inverse Element b ∈ G eindeutig
bestimmt ist. Hat man nämlich ein weiteres inverses Element b′ ∈ G
zu a, so folgt
b = e · b = (b′ · a) · b = b′ · (a · b) = b′ · e = b′ .
Aufgaben
1. Für eine Menge X betrachte man die Menge Bij(X, X) der bijektiven
Selbstabbildungen. Man prüfe nach, dass Bij(X, X) unter der Kompo-
sition von Abbildungen eine Gruppe bildet und zeige, dass diese nicht
kommutativ ist, sofern X mindestens 3 verschiedene Elemente besitzt.
2. Es sei G eine Gruppe und H ⊂ G eine Teilmenge. Man zeige, dass H
genau dann eine Untergruppe von G ist, wenn die Gruppenverknüpfung
von G eine Verknüpfung auf H induziert (d. h. wenn für a, b ∈ H stets
ab ∈ H gilt) und wenn H mit dieser Verknüpfung selbst wieder eine
Gruppe ist.
3. Es sei G eine Gruppe und H ⊂ G eine Teilmenge. Man zeige, dass H
genau dann eine Untergruppe von G ist, wenn gilt:
(i) H 6= ∅
(ii) a, b ∈ H =⇒ ab−1 ∈ H
4. Es sei G eine Gruppe mit Untergruppen H1 , H2 ⊂ G. Man zeige, dass
H1 ∪ H2 genau dann eine Untergruppe von G ist, wenn H1 ⊂ H2 oder
H2 ⊂ H1 gilt. (AT 372)
22 1. Vektorräume
1.3 Körper
Ein Körper ist eine additiv geschriebene abelsche Gruppe, auf der zu-
sätzlich eine Multiplikation mit gewissen Eigenschaften definiert ist,
nach dem Vorbild der rationalen oder der reellen Zahlen. Genauer:
Definition 1. Ein Körper ist eine Menge K mit zwei inneren Ver-
knüpfungen, geschrieben als Addition “+” und Multiplikation “·”, so
dass folgende Bedingungen erfüllt sind :
1.3 Körper 23
Bei den Distributivgesetzen (ix) hätten wir eigentlich auf der rech-
ten Seite die Terme a · b, a · c, b · c jeweils in Klammern setzen müssen.
Man vereinbart jedoch, dass die Multiplikation “·” Vorrang vor der
Addition “+” hat, so dass Klammerungen dann entbehrlich sind. Auch
sei darauf hingewiesen, dass das Multiplikationszeichen “·”, ähnlich wie
im Falle von Gruppen, vielfach nicht ausgeschrieben wird. Die Elemen-
te 0, 1 ∈ K sind eindeutig bestimmt, man nennt 0 das Nullelement und
1 das Einselement von K.
Als Nächstes wollen wir einige simple Rechenregeln für das Rech-
nen in Körpern K behandeln.
(1) 0a = a0 = 0 für a ∈ K, denn es gilt
0 = 0a − 0a = (0 + 0)a − 0a = 0a + 0a − 0a = 0a.
ergeben.
Man kann also in Körpern in etwa so rechnen, wie man dies von
den rationalen oder reellen Zahlen her gewohnt ist. Doch sei schon
an dieser Stelle auf Unterschiede zum Vorbild vertrauter Zahlbereiche
hingewiesen. Für eine natürliche Zahl n ∈ N und ein Element a ∈ K
ist es üblich, die n-fache Summe von a mit sich selbst als n · a zu
bezeichnen, wobei dann insbesondere n · a = 0 für n = 0 oder a = 0
gilt. Weiter setzt man n · a = (−n) · (−a) für negative ganze Zahlen n.
Es folgt jedoch aus n · a = 0 nicht notwendig n = 0 oder a = 0, wie
wir an konkreten Beispielen noch feststellen werden.
Unter Verwendung des Gruppenbegriffs lassen sich Körper in über-
sichtlicher Weise wie folgt charakterisieren:
Beweis. Zunächst ist klar, dass die Bedingungen (i) - (iv) aus Defi-
nition 1 diejenigen einer kommutativen additiven Gruppe sind. Wei-
ter folgt aus obiger Regel (4), dass für einen Körper K die Teilmenge
K ∗ = K − {0} abgeschlossen unter der Multiplikation ist und dass mit
einem Element a ∈ K ∗ wegen a · a−1 = 1 auch dessen inverses a−1 zu
K ∗ gehört. Somit sieht man, dass K ∗ eine abelsche Gruppe bezüglich
der Multiplikation ist, und es implizieren die Bedingungen aus Defini-
tion 1 die Bedingungen von Bemerkung 2.
Seien nun umgekehrt die Bedingungen aus Bemerkung 2 erfüllt.
Um hieraus die Bedingungen von Definition 1 abzuleiten, braucht man
lediglich zu wissen, dass in der Situation von Bemerkung 2 die Bezie-
hung 0a = 0 = a0 für alle a ∈ K gilt. Diese kann man jedoch mit Hilfe
1.3 Körper 25
der Distributivgesetze auf gleiche Weise herleiten, wie wir dies bereits
oben bei den Rechenregeln getan haben.
Ähnlich wie bei Gruppen hat man auch bei Körpern den Begriff
des Unter- oder Teilkörpers.
0 + 0 = 0, 0 + 1 = 1 + 0 = 1, 1 + 1 = 0,
0 · 0 = 0, 0 · 1 = 1 · 0 = 0, 1 · 1 = 1.
Beweis. Wir
√ führen den Beweis
√ indirekt, also durch Widerspruch, und
nehmen 2 ∈ Q an, etwa 2 = p/q mit p, q ∈ Z − {0}. Den Bruch p/q
können wir als gekürzt annehmen. Insbesondere sind dann p und q nicht
beide durch 2 teilbar. Aus der Gleichung p2 /q 2 = 2 ergibt sich p2 = 2q 2
und damit, dass p2 gerade ist. Da das Quadrat einer ungeraden Zahl
stets ungerade ist, muss auch p gerade sein, etwa p = 2p̃ mit einem
Element p̃ ∈ Z. Es folgt 2q 2 = 4p̃2 bzw. q 2 = 2p̃2 und damit wie
soeben, dass 2 ein Teiler von q ist. Damit ist 2 sowohl ein Teiler von
p wie auch√von q. Dies hatten wir jedoch zuvor ausgeschlossen. Die
Annahme 2 ∈ Q führt √ daher zu einem Widerspruch, ist folglich nicht
haltbar, und es gilt 2 6∈ Q.
Als Nächstes wollen wir von dem Körper R der reellen Zahlen aus-
gehen und diesen zum Körper C der komplexen Zahlen erweitern. Man
setze
C := R × R = (a, a′ ) ; a, a′ ∈ R
und definiere Addition bzw. Multiplikation auf C durch
28 1. Vektorräume
(a, a′ ) + (b, b′ ) := (a + b, a′ + b′ ),
(a, a′ ) · (b, b′ ) := (ab − a′ b′ , ab′ + a′ b).
Man prüft leicht nach, dass C mit diesen Verknüpfungen einen Körper
bildet. Dabei ist 0C = (0, 0) das Nullelement sowie −(a, a′ ) = (−a, −a′ )
das inverse Element bezüglich der Addition zu (a, a′ ) ∈ C. Weiter ist
1C = (1, 0) das Einselement von C, und das inverse Element bezüglich
der Multiplikation zu einem Element (a, a′ ) 6= 0C wird gegeben durch
′ −1 a a′
(a, a ) = ,− .
a2 + a′2 a2 + a′2
Exemplarisch wollen wir das Assoziativgesetz der Multiplikation nach-
weisen. Für (a, a′ ), (b, b′ ), (c, c′ ) ∈ C rechnet man
(a, a′ )(b, b′ ) (c, c′ ) = (ab − a′ b′ , ab′ + a′ b)(c, c′ )
= (abc − a′ b′ c − ab′ c′ − a′ bc′ , abc′ − a′ b′ c′ + ab′ c + a′ bc)
sowie
(a, a′ ) (b, b′ )(c, c′ ) = (a, a′ )(bc − b′ c′ , bc′ + b′ c)
= (abc − ab′ c′ − a′ bc′ − a′ b′ c, abc′ + ab′ c + a′ bc − a′ b′ c′ ),
d. h. es gilt
(a, a′ )(b, b′ ) (c, c′ ) = (a, a′ ) (b, b′ )(c, c′ ) .
Man stellt weiter fest, dass die Elemente der Form (a, 0) einen Teil-
körper K ⊂ C bilden. Es gilt nämlich 0C , 1C ∈ K sowie für Elemente
(a, 0), (b, 0) ∈ K
(a, 0) + (b, 0) = (a + b, 0) ∈ K,
(a, 0) · (b, 0) = (a · b, 0) ∈ K,
−(a, 0) = (−a, 0) ∈ K,
(a, 0)−1 = (a−1 , 0) ∈ K, falls a 6= 0.
schreiben. Dabei wird a = Re(z) als Realteil und a′ = Im(z) als Ima-
ginärteil von z bezeichnet. Es gelten die Formeln
(a + a′ i) + (b + b′ i) = (a + b) + (a′ + b′ )i,
(a + a′ i) · (b + b′ i) = (ab − a′ b′ ) + (ab′ + a′ b)i,
−(a + a′ i) = −a − a′ i,
a a′
(a + a′ i)−1 = 2 − i,
a + a′2 a2 + a′2
letztere unter der Voraussetzung a + a′ i 6= 0, also a 6= 0 oder a′ 6= 0.
Als Beispiel für das Rechnen in Körpern wollen wir schließlich noch
die binomische Formel herleiten. Sei also K ein beliebiger Körper. Für
a ∈ K und n ∈ N definiert man üblicherweise an als das n-fache Pro-
dukt von a mit sich selbst. Dabei ist a0 das leere Produkt, also a0 = 1.
Außerdem kann man a−n für a 6= 0 durch (a−1 )n erklären, so dass
dann an für ganzzahlige Exponenten n definiert ist. Für das Rechnen
mit solchen Potenzen gelten die gewöhnlichen Potenzgesetze.
Seien a, b ∈ K, und sei n ∈ N eine natürliche Zahl. Zur Berechnung
von (a+b)n wählen wir zunächst eine kombinatorische Methode. Hierzu
stellen wir uns (a + b)n als n-faches Produkt vor:
(a + b)n = (a + b) · . . . · (a + b)
Die rechte Seite kann man unter sukzessiver Benutzung der Distributiv-
gesetze ausrechnen, indem man aus jeder Klammer einen Summanden
auswählt (also jeweils a oder b), das Produkt über die ausgewählten
Elemente bildet und schließlich alle Produkte dieses Typs zu verschie-
denen Wahlen summiert. Somit folgt
30 1. Vektorräume
n
X
n
(a + b) = α(i)an−i bi ,
i=0
wobei α(i) gleich der Anzahl der Möglichkeiten ist, den Summanden
b genau i-mal aus den n Klammern (a + b) auszuwählen, mit anderen
Worten, gleich der Anzahl der i-elementigen Teilmengen in {1, . . . , n}.
Will man i Elemente in {1, . . . , n} auswählen, so gibt es für das erste
Element n Wahlmöglichkeiten, für das zweite n − 1 und so weiter,
schließlich für das i-te Element noch n− i + 1 Möglichkeiten. Insgesamt
haben wir daher
n(n − 1) . . . (n − i + 1)
Möglichkeiten für diesen Auswahlprozess. Nun ist aber zu berücksich-
tigen, dass eine i-elementige Teilmenge {t1 , . . . , ti } von {1, . . . , n}, die
in einem solchen Prozess konstruiert wird, nicht davon abhängt, in
welcher Reihenfolge die Elemente t1 , . . . , ti ausgewählt werden. Wir
müssen daher die obige Anzahl noch durch die Anzahl der Mög-
lichkeiten dividieren, die Elemente t1 , . . . , ti in ihrer Reihenfolge zu
vertauschen, also durch die Anzahl der bijektiven Selbstabbildungen
π : {1, . . . , i} ✲ {1, . . . , i}. Will man eine solche Abbildung π defi-
nieren, so hat man zur Festsetzung von π(1) zunächst i Möglichkei-
ten, für π(2) noch i − 1 Möglichkeiten usw. Die Anzahl der bijektiven
Selbstabbildungen von {1, . . . , i} ist deshalb i! = 1 · . . . · i, wobei das
Rufzeichen “ ! ” als Fakultät gelesen wird, und es ergibt sich
n(n − 1) . . . (n − i + 1)
α(i) = .
1 · 2 · ... · i
Für diesen Ausdruck verwendet man die Schreibweise ni , gelesen n
über i, also
n n(n − 1) . . . (n − i + 1) n!
= = , 0 ≤ i ≤ n.
i 1 · 2 · ... · i i!(n − i)!
In den Extremfällen i = 0 bzw. i = n erweist sich unsere Konvention
bezüglich leerer Produkte
als sinnvoll, es gilt 0! = 1 sowie n0 = 1 = nn
und insbesondere 00 = 1. Insgesamt folgt die bekannte binomische
Formel n
X n n−i i
n
(a + b) = a b,
i=0
i
1.3 Körper 31
wobei die Koeffizienten ni ∈ N als Binomialkoeffizienten bezeichnet
werden.
Wir wollen noch einen präziseren Beweis für diese Formel geben,
wobei wir die Gelegenheit nutzen, um das Prinzip der vollständigen
Induktion zu erklären. Wenn man zeigen will, dass eine Aussage A(n)
für alle natürlichen Zahlen n ∈ N gültig ist, so genügt es nach diesem
Prinzip, Folgendes zu zeigen:
(1) Es gilt A(0) (Induktionsanfang).
(2) Für beliebiges n ∈ N kann man aus der Gültigkeit der Aussage
A(n) (Induktionsvoraussetzung) auf die Gültigkeit der Aussage A(n+1)
schließen (Induktionsschluss).
Natürlich kann man die vollständige Induktion statt bei n = 0
auch bei einer anderen Zahl n = n0 ∈ N oder sogar bei einer Zahl
n = n0 ∈ Z beginnen. Führt man den Induktionsschluss dann für
ganze Zahlen n ≥ n0 durch, so ergibt sich die Gültigkeit von A(n) für
alle ganzen Zahlen n ≥ n0 . Als Variante dieses Prinzips darf man beim
Induktionsschluss zum Nachweis von A(n+1) zusätzlich benutzen, dass
die Aussage A(m) bereits für alle m mit n0 ≤ m ≤ n gilt, wobei der
Induktionsanfang wiederum bei n = n0 liegen möge. In unserem Fall
soll die Aussage A(n) aus zwei Teilen bestehen und für n ∈ N wie folgt
lauten:
n
∈ N für 0 ≤ i ≤ n,
i
X n
n n n−i i
(a + b) = a b;
i=0
i
n
die Binomialkoeffizienten i
sind dabei wie oben durch
n n(n − 1) . . . (n − i + 1) n!
= =
i 1 · 2 · ... · i i!(n − i)!
n
X
n+1 n n
(a + b) = (a + b) · (a + b) = (a + b) · an−i bi
i=0
i
n
X n
X
n n
= an+1−i bi + an−i bi+1
i=0
i i=0
i
n
X n−1
X
n+1 n n+1−i i n
=a + a b + an−i bi+1 + bn+1
i=1
i i=0
i
Xn
n
n+1 n n+1−i i X n
=a + a b + an+1−i bi + bn+1
i=1
i i=1
i − 1
Xn
n n
= an+1 + + an+1−i bi + bn+1
i=1
i i − 1
Aufgaben
1. Es sei K eine endliche Menge mit zwei Verknüpfungen “+” und “·”,
welche den Bedingungen (i) – (x) von Definition 1 genügen, wobei jedoch
die Bedingung (vii) ersetzt sei durch
(vii′ ) Für a, b ∈ K − {0} gilt ab ∈ K − {0}.
Man zeige, dass K ein Körper ist.
1.3 Körper 33
Die Regeln (1) - (3) beweist man genauso wie die entsprechenden
Regeln für das Rechnen in Körpern. Gleiches gilt für (4), wobei wir
hier die Argumentation noch einmal ausführen wollen. Gilt nämlich
α · a = 0 mit α 6= 0, so ergibt sich
n
X n
X
α· ai = αai
i=1 i=1
X
n n
X
αi · a = αi a
i=1 i=1
n
X n
X Xn
αi ai + βi ai = (αi + βi )ai
i=1 i=1 i=1
α · (α1 , . . . , αn ) = (α · α1 , . . . , α · αn ).
(vi )i∈I + (vi′ )i∈I = (vi + vi′ )i∈I , α · (vi )i∈I = (α · vi )i∈I .
f + g: X ✲ K, x ✲ f (x) + g(x),
0: X ✲ K, x ✲ 0
Im Folgenden sei K stets ein Körper. Wir wollen uns etwas genauer
mit dem Problem der Konstruktion von linearen Unterräumen in einem
K-Vektorraum V beschäftigen.
ein linearer Unterraum von V , und dieser stimmt überein mit dem
linearen Unterraum \
U ⊂ V,
A⊂U
den man gemäß Lemma 4 erhält, wenn man den Durchschnitt über alle
linearen Unterräume U in V bildet, die A enthalten.
Folglich ist hAi der kleinste lineare Unterraum in V , der A enthält,
was bedeutet, dass jeder lineare Unterraum U ⊂ V , der A enthält, auch
bereits hAi enthalten muss. Man nennt hAi den von A in V erzeugten
linearen Unterraum oder auch die lineare Hülle von A in V .
In ähnlicher Weise definiert man für eine Familie A = (ai )i∈I von
Elementen aus V den von A erzeugten linearen Unterraum hAi ⊂ V
durch hAi = hAi mit A = {ai ; i ∈ I}. Aus der Definition in Kombi-
nation mit obigem Satz ergeben sich in direkter Weise die folgenden
elementaren Eigenschaften für erzeugte lineare Unterräume in einem
Vektorraum V :
40 1. Vektorräume
(1) h∅i = 0
(2) A ⊂ hAi für eine Teilmenge A ⊂ V .
(3) hU i = U für einen linearen Unterraum U ⊂ V .
(4) A ⊂ B =⇒ hAi ⊂ hBi und A ⊂ hBi =⇒ hAi ⊂ hBi für
Teilmengen A, B ⊂ V .
Nun zum Beweis von Satz 5. Wir zeigen zunächst, dass hAi ein
linearer Unterraum von V ist.
P0 Es gilt hAi =6 ∅, denn der Nullvektor 0
lässt sich als leere Summe i=1 αi ai schreiben (oder für A 6= ∅ auch
als entsprechende echte Summe mit Koeffizienten αi = 0), gehört also
zu hAi. Seien weiter α ∈ K sowie
r
X s
X
a= αi ai , b= βj bj
i=1 j=1
sowie
r
X s
X r+s
X
a+b= αi ai + βj bj = αi ai ∈ hAi,
i=1 j=1 i=1
P
a ∈ V eine Darstellung a = i∈I αi ai mit Koeffizienten αi ∈ K besitzt,
wobei αi = 0 für fast alle i ∈ I gilt, d. h. für alle i ∈ I, bis auf endlich
viele Ausnahmen. Mit anderen Worten, A ist ein Erzeugendensystem
von V , wenn V = hAi gilt. Weiter nennt man V endlich erzeugt, wenn
V ein endliches Erzeugendensystem a1 , . . . , an besitzt.
Aufgaben
K sei stets ein Körper.
1. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unterraum. Für
welche Elemente a ∈ V ist a + U := {a + u ; u ∈ U } wiederum ein
linearer Unterraum von V ? (AT 380)
2. Es sei V ein K-Vektorraum und A = (Ai )i∈I eine Familie von Teilmen-
gen von V . Die Familie A möge folgende Bedingung erfüllen: Zu je zwei
Indizes i, j ∈ I existiert stets ein Index k ∈ I mit Ai ∪ Aj ⊂ Ak . Man
zeige [ [
Ai = hAi i.
i∈I i∈I
Gilt diese Beziehung auch ohne die Voraussetzung an die Familie A?
42 1. Vektorräume
3. Es sei V ein endlich erzeugter K-Vektorraum. Dann lässt sich jedes belie-
bige Erzeugendensystem von V zu einem endlichen Erzeugendensystem
verkleinern.
4. Es sei K Teilkörper eines Körpers L und V ein L-Vektorraum. Ist
dann x1 , . . . , xn ein Erzeugendensystem von V als L-Vektorraum und
α1 , . . . , αm ein Erzeugendensystem von L, aufgefasst als K-Vektorraum,
so bilden die Produkte αi xj mit i = 1, . . . , m und j = 1, . . . , n ein Er-
zeugendensystem von V als K-Vektorraum.
5. Es seien x, y ∈ R2 Punkte, die nicht gemeinsam auf einer Geraden durch
den Nullpunkt 0 ∈ R2 liegen, d. h. es gelte x 6= 0 6= y sowie αx 6= βy für
alle α, β ∈ R∗ . Man zeige, dass x, y bereits ein Erzeugendensystem von
R2 bilden. Gilt eine entsprechende Aussage auch, wenn man R durch
einen beliebigen Körper K ersetzt? (AT 381)
Q
6. Man betrachte das kartesische Produkt QN = i∈N Q als Q-Vektorraum.
Kann dieser Vektorraum ein abzählbares Erzeugendensystem besitzen,
d. h. ein Erzeugendensystem des Typs (xi )i∈N ?
r
X
αi ei = (α1 , . . . , αn ),
i=1
und es folgt, dass diese Summe genau dann verschwindet, wenn das
Element (α1 , . . . , αn ) verschwindet, d. h. wenn αi = 0 für i = 1, . . . , n
gilt.
Wir haben die lineare Abhängigkeit bzw. Unabhängigkeit in Defi-
nition 1 der Einfachheit halber nur für endliche Systeme von Vektoren
formuliert. Die Begriffe übertragen sich aber in naheliegender Weise
auf beliebige Systeme (ai )i∈I , wenn man vereinbart,
P dass eine Linear-
kombination der ai ein Ausdruck der Form i∈I αi ai mit Koeffizienten
αi ∈ K ist, wobei die αi für fast alle i ∈ I verschwinden, d. h. für alle
i ∈ I bis auf endlich viele Ausnahmen. Eine solche Linearkombination
ist daher in Wahrheit eine endliche Linearkombination, stellt also ein
Element in V dar. Man bezeichnet ein System (ai )i∈I von Vektoren aus
V als linear unabhängig, wenn aus demPVerschwinden einer Linearkom-
bination der ai , also einer Gleichung i∈I αi ai = 0, notwendig αi = 0
für alle i ∈ I folgt. Das System (ai )i∈I ist daher genau dann linear
unabhängig, wenn jedes endliche Teilsystem von (ai )i∈I linear unab-
hängig im Sinne von Definition 1 ist. Entsprechend ist (ai )i∈I genau
dann linear abhängig, wenn es ein endliches Teilsystem gibt, welches
linear abhängig im Sinne von Definition 1 ist.
Beweis. Wir nehmen zunächst Bedingung (i) als gegeben an. Sind dann
n
X n
X
a= αi ai = αi′ ai
i=1 i=1
zwei Darstellungen
Pn von a als Linearkombination der ai , so erhalten
wir mit i=1 (αi − αi′ )ai eine Linearkombination, die den Nullvektor
0 darstellt. Mit (i) folgt αi − αi′ = 0, also αi = αi′ für alle i, d. h. die
Darstellung von a als Linearkombination der ai ist eindeutig.
1.5 Linear unabhängige Systeme und Basen 45
Sind die Bedingungen des Satzes erfüllt, so nennt man das System
der ai eine Basis des linearen Unterraums ha1 , . . . , an i von V . Man
vereinbart nämlich:
Die Frage, ob a1 , . . . , ar linear abhängig sind oder nicht, ist dann äqui-
der Frage, ob es ein nicht-triviales r-Tupel (ξ1 , . . . , ξr ) ∈ K r
valent zuP
gibt mit rj=1 ξj aj = 0, d. h. ob das lineare Gleichungssystem
ξ1 α11 + . . . + ξr α1r = 0
...
ξ1 αn1 + . . . + ξr αnr = 0
eine nicht-triviale Lösung (ξ1 , . . . , ξr ) ∈ K r besitzt. Techniken zur Lö-
sung solcher Gleichungssysteme werden wir im Abschnitt 3.5 kennen-
lernen.
Als Nächstes wollen wir ein technisches Lemma beweisen, welches
insbesondere für die Handhabung und Charakterisierung von Vektor-
raumbasen von großem Nutzen ist.
Beweis. Wir beginnen mit der Implikation von (i) nach (ii). Seien al-
so a1 , . . . , an linear abhängig. Man wähle dann r ∈ {0, . . . , n} ma-
ximal mit der Eigenschaft, dass das System der Vektoren a1 , . . . , ar
1.5 Linear unabhängige Systeme und Basen 47
und somit
denn ha1 , . . . , an i ist der kleinste lineare Unterraum von V , der die
Vektoren a1 , . . . , an enthält. Da die umgekehrte Inklusion trivialerweise
erfüllt ist, ergibt sich Bedingung (iii).
Der Vollständigkeit halber wollen wir hier auch noch darauf hin-
weisen, dass sich die Inklusion (∗)Pleicht durch direktes Nachrechnen
herleiten lässt. Es gelte etwa ap = i6=p αi ai mit KoeffizientenPn αi ∈ K.
Für jedes b ∈ ha1 , . . . , an i mit einer Darstellung b = i=1 βi ai und
Koeffizienten βi ∈ K ergibt sich dann
X X X
b= βi ai + βp αi ai = (βi + βp αi )ai ,
i6=p i6=p i6=p
Beweis. Sei zunächst Bedingung (i) als gegeben angenommen, sei also
a1 , . . . , an eine Basis von V . Für beliebiges a ∈ V gilt dann
V = ha1 , . . . , an i = ha, a1 , . . . , an i,
und man schließt aus der Äquivalenz (i) ⇐⇒ (iii) von Lemma 5, dass
das System a, a1 , . . . , an linear abhängig ist. Also ist a1 , . . . , an ein ma-
ximales linear unabhängiges System in V .
Als Nächstes gehen wir von Bedingung (ii) aus, sei also a1 , . . . , an
ein maximales linear unabhängiges System in V . Ist dann a ∈ V be-
liebig, so ist das System a1 , . . . , an , a linear abhängig, und es existiert
eine nicht-triviale Linearkombination mit Koeffizienten aus K
n
X
αa + αi ai = 0,
i=1
welche die Null darstellt. Aus der linearen Unabhängigkeit der Vekto-
ren a1 , . . . , an ergibt sich mittels Lemma 5 (man vergleiche den Beweis
der Implikation (i) =⇒ (ii) in Lemma 5), dass zumindest der Koeffi-
zient α nicht verschwindet. Folglich lässt sich vorstehende Gleichung
nach a auflösen, und man erhält a ∈ ha1 , . . . , an i, d. h. a1 , . . . , an ist
ein Erzeugendensystem von V . Weiter folgt aus der linearen Unab-
hängigkeit der a1 , . . . , an , indem man die Äquivalenz (i) ⇐⇒ (iii) aus
Lemma 5 benutzt, dass a1 , . . . , an ein minimales Erzeugendensystem
von V ist.
Nehmen wir schließlich a1 , . . . , an wie in Bedingung (iii) als mini-
males Erzeugendensystem an, so zeigt die Äquivalenz (i) ⇐⇒ (iii) aus
Lemma 5, dass a1 , . . . , an dann notwendig ein linear unabhängiges Sys-
tem ist, also eine Basis, da es bereits ein Erzeugendensystem ist.
so dass
gilt. Die Gleichung ist für n = r + m erfüllt, wenn man ι(r + j) = j für
j = 1, . . . , m setzt. Man betrachte nun eine Gleichung vom Typ (∗), für
die n ≥ r minimal gewählt sei. Dann ist a1 , . . . , ar , bι(r+1) , . . . , bι(n) ein
linear unabhängiges Erzeugendensystem und stellt somit eine Basis von
V dar, wie wir sogleich sehen werden. Anderenfalls wäre dieses System
nämlich linear abhängig, und man könnte es aufgrund der Äquivalenz
(i) ⇐⇒ (iii) aus Lemma 5 zu einem echt kleineren Erzeugendensystem
verkürzen. Da die Vektoren a1 , . . . , ar jedoch linear unabhängig sind,
ergibt sich mit Lemma 5, dass man einen der Vektoren bι(r+1) , . . . , bι(n)
fortlassen kann, was aber wegen der Minimalität von n ausgeschlossen
ist. Das Erzeugendensystem a1 , . . . , ar , bι(r+1) , . . . , bι(n) ist daher linear
unabhängig und damit eine Basis.
Wir wollen noch auf einen zweiten Beweis eingehen, der den Vorteil
hat, dass er im Hinblick auf nicht-endliche Basen verallgemeinerungs-
fähig ist. Hierzu betrachten wir Indizes
a1 , . . . , ar , bι(r+1) , . . . , bι(n)
und folglich
Fährt man auf diese Weise fort, so gelangt man nach n Schritten
zu einer Basis bι(1) , . . . , bι(r1 +...+rn ) von V , wobei natürlich die Indi-
zes ι(1), . . . , ι(r1 + . . . + rn ) ∈ {1, . . . , m} paarweise verschieden sind.
Es folgt r1 + . . . + rn ≤ m und wegen ri ≥ 1 insbesondere n ≤ m, wie
behauptet.
Ist nun b1 , . . . , bm bereits eine Basis, so kann man die Rolle der
ai und bj vertauschen und erhält auf diese Weise m ≤ n, also insbe-
sondere m = n. Bildet andererseits b1 , . . . , bm mit m = n ein Erzeu-
gendensystem von V , so kann man dieses System zu einem minimalen
Erzeugendensystem von V verkleinern, also zu einer Basis; vgl. Satz 7.
Da wir aber schon wissen, dass Basen in V aus genau n Elementen
bestehen, folgt, dass b1 , . . . , bm notwendig eine Basis von V ist.
Da endlich erzeugte K-Vektorräume gemäß Satz 6 lediglich endli-
che Basen besitzen, ergibt sich insbesondere, dass je zwei Basen eines
solchen Vektorraums aus gleichviel Elementen bestehen.
Beweis. Sei zunächst Bedingung (i) gegeben. Jede Basis von V bildet
dann ein linear unabhängiges System bestehend ans n Vektoren. Ist
andererseits y1 , . . . , yn+1 ein System von n + 1 Vektoren aus V und
nehmen wir an, dass dieses linear unabhängig ist, so können wir das
System gemäß Satz 8 zu einer Basis von V ergänzen. Man hätte dann
dimK V ≥ n + 1 im Widerspruch zu unserer Voraussetzung. Aus (i)
ergibt sich folglich (ii).
Ist umgekehrt Bedingung (ii) gegeben, so gibt es in V ein maxi-
males linear unabhängiges System bestehend aus n Vektoren. Dieses
bildet eine Basis, und es folgt dimK V = n.
Beweis. Wir gehen aus von Bedingung (i). Sei also dimK V = ∞. Dann
gibt es in V keine endlichen Basen und somit keine endlichen maxi-
malen linear unabhängigen Systeme. Als Konsequenz ist es möglich,
eine Folge von Vektoren a1 , a2 , . . . ∈ V wie in (ii) gewünscht zu kon-
struieren. Weiter folgt aus (ii) unmittelbar Bedingung (iii), da zu jeder
endlichen Teilmenge I ⊂ N ein n ∈ N existiert mit I ⊂ {1, . . . , n}. Die
Implikation (iii) =⇒ (iv) ist trivial, und (iv) =⇒ (i) schließlich ergibt
sich mit Korollar 12.
Beweis. Die erste Behauptung folgt mittels Korollar 12 aus der Tat-
sache, dass ein linear unabhängiges System von Vektoren aus U auch
in V linear unabhängig ist. Die zweite Behauptung gilt, da man in ei-
nem endlich-dimensionalen K-Vektorraum V ein linear unabhängiges
54 1. Vektorräume
schreiben können, ist das System (fx )x∈X in diesem Falle ein Erzeu-
gendensystem und somit eine Basis von V , so dass man dimK V = n
hat, wenn X aus n < ∞ Elementen besteht.
Abschließend soll noch angedeutet werden, wie die Theorie die-
ses Abschnitts aussieht, wenn man sich nicht auf endlich erzeugte
K-Vektorräume beschränkt. Man muss dann auch unendliche Basen
1.5 Linear unabhängige Systeme und Basen 55
x ≤ x für alle x ∈ M
x ≤ y, y ≤ z =⇒ x ≤ z
x ≤ y, y ≤ x =⇒ x = y
Man erhält somit aus dem Zornschen Lemma die Existenz eines ma-
ximalen Elementes in V , d. h. eines maximalen linear unabhängigen
Systems von Vektoren in V und damit einer Basis von V , wobei man
Satz 7 benutze.
Wie wir gesehen haben, lässt sich die Existenz maximaler line-
ar unabhängiger Systeme problemlos mit Hilfe des Zornschen Lemmas
beweisen. Ähnliches kann man für minimale Erzeugendensysteme nicht
behaupten, und dies ist der Grund dafür, dass die im Beweis zu Satz 6
benutzte Idee, Basen durch Minimieren von Erzeugendensystemen zu
konstruieren, im Allgemeinfall nicht zum Ziel führt. Auch der Basis-
ergänzungssatz 8 lässt sich mit Hilfe des Zornschen Lemmas auf den
Fall unendlicher Systeme verallgemeinern, wenn man die im Beweis
zu Satz 8 gegebene Argumentation im Sinne maximaler linear unab-
hängiger Systeme mit dem Zornschen Lemma kombiniert. Man kann
sogar die Aussage von Theorem 9, dass nämlich je zwei Basen (ai )i∈I
und (bj )j∈J eines K-Vektorraums V aus “gleichvielen” Elementen beste-
hen, auf unendlich-dimensionale Vektorräume verallgemeinern. Dabei
ist “gleichviel” in dem Sinne zu präzisieren, dass es eine bijektive Ab-
bildung I ✲ J gibt. Man nennt I und J bzw. die Basen (ai )i∈I und
(bj )j∈J dann auch gleichmächtig 5. Die Mächtigkeitsklasse einer solchen
Basis könnten wir als Dimension von V bezeichnen, jedoch wollen wir
im Sinne von Definition 10 nicht zwischen verschiedenen unendlichen
Dimensionen unterscheiden.
Schließlich sei noch angemerkt, dass man in Korollar 14 (ii) nicht
auf die Bedingung dimK V < ∞ verzichten kann. Um dies einzuse-
hen, betrachte man einen K-Vektorraum V von unendlicher Dimension
und ein abzählbar unendliches linear unabhängiges System (ai )i∈N von
Vektoren in V . Dann ist einerseits (a2·i )i∈N gleichmächtig zu (ai )i∈N ,
5
Dass je zwei Basen eines K-Vektorraums gleichmächtig sind, beweist man wie
in [1], Abschnitt 7.1. Die dortige Argumentation im Sinne von Transzendenzbasen
und algebraischer Unabhängigkeit überträgt sich in direkter Weise auf den Fall von
Vektorraumbasen und linearer Unabhängigkeit.
1.5 Linear unabhängige Systeme und Basen 57
Aufgaben
Pr
Satz 2. Für eine Summe U = i=1 Ui von linearen Unterräumen
U1 , . . . , Ur eines K-Vektorraums V sind folgendeP Aussagen äquivalent:
r
(i) Jedes b ∈ U hat eine Darstellung b = i=1 bi mit eindeutig
bestimmten Vektoren bi ∈ Ui , P i = 1, . . . , r.
r
(ii) Aus einer Gleichung i=1 bi = 0 mit Vektoren bi ∈ Ui folgt
bi = 0 für i = 1, . . . , r. P
(iii) Für p = 1, . . . , r gilt Up ∩ i6=p Ui = 0.
r
M
ha1 , . . . , ar i = Kai , ai 6= 0 für i = 1, . . . , r
i=1
wie gewünscht. Ist mindestens einer der beiden Räume U und U ′ von
unendlicher Dimension, so gilt dies erst recht für V , und die Dimen-
sionsformel ist trivialerweise erfüllt.
U = (U ∩ U ′ ) ⊕ W, U ′ = (U ∩ U ′ ) ⊕ W ′ .
Dann gilt
U + U ′ = (U ∩ U ′ ) + W + W ′ ,
und wir behaupten, dass diese Summe direkt ist. In der Tat, hat man
a + b + b′ = 0 für gewisse Elemente a ∈ U ∩ U ′ , b ∈ W , b′ ∈ W ′ , so
ergibt sich
b = −(a + b′ ) ∈ (U ∩ U ′ ) + W ′ = U ′
und wegen b ∈ W ⊂ U sogar
b ∈ (U ∩ U ′ ) ∩ W = 0,
dim(U + U ′ )
= dim(U ∩ U ′ ) + dim W + dim W ′
= dim(U ∩ U ′ ) + dim W + dim(U ∩ U ′ ) + dim W ′ − dim(U ∩ U ′ )
= dim U + dim U ′ − dim(U ∩ U ′ ).
Aufgaben
1. Man bestimme Komplemente zu folgenden linearen Unterräumen des
R3 bzw. R4 :
(i) U = (1, 2, 3), (−2, 3, 1), (4, 1, 5)
(ii) U = (x1 , x2 , x3 , x4 ) ∈ R4 ; 3x1 − 2x2 + x3 + 2x4 = 0
P
2. Man betrachte eine Zerlegung V = ni=1 Ui eines endlich-dimensionalen
K-Vektorraums V in Untervektorräume Ui ⊂ V und zeige, P dass die
Summe der Ui genau dann direkt ist, wenn dimK V = ni=1 dimK Ui
gilt.
Ln
3. Man betrachte eine direkte Summenzerlegung V = i=1 Ui eines
K-Vektorraums V in lineare Unterräume Ui ⊂ V , sowie für jedes
i = 1, . . . , n eine Familie (xij )j∈Ji von Elementen xij ∈ Ui . Man zei-
ge:
(i) Die Elemente xij , i = 1, . . . , n, j ∈ Ji , bilden genau dann ein Er-
zeugendensystem von V , wenn für jedes i = 1, . . . , n die Elemente
xij , j ∈ Ji , ein Erzeugendensystem von Ui bilden.
(ii) Die Elemente xij , i = 1, . . . , n, j ∈ Ji , sind genau dann linear
unabhängig in V , wenn für jedes i = 1, . . . , n die Elemente xij ,
j ∈ Ji , linear unabhängig in Ui sind.
(iii) Die Elemente xij , i = 1, . . . , n, j ∈ Ji , bilden genau dann eine
Basis von V , wenn für jedes i = 1, . . . , n die Elemente xij , j ∈ Ji ,
eine Basis von Ui bilden.
4. Es seien U1 , U2 , U3 lineare Unterräume eines K-Vektorraums V . Man
zeige (AT 387):
dimK U1 + dimK U2 + dimK U3
= dimK (U1 + U2 + U3 ) + dimK (U1 + U2 ) ∩ U3 + dimK (U1 ∩ U2 )
für alle a, b ∈ V und alle α ∈ K. Lässt sich eine solche bijektive Ab-
bildung f finden, so kann man die Vektorräume V und V ′ als “im
Wesentlichen gleich” ansehen, und man nennt f in diesem Falle einen
Isomorphismus zwischen V und V ′ . Allgemeiner betrachtet man auch
nicht notwendig bijektive Abbildungen f : V ✲ V ′ mit den oben
genannten Verträglichkeitseigenschaften und bezeichnet diese als Ho-
momorphismen oder lineare Abbildungen von V nach V ′ . Die Untersu-
chung von Abbildungen dieses Typs ist das zentrale Thema des vorlie-
genden Kapitels.
Im Rahmen der Einführung zu Kapitel 1 hatten wir erläutert, wie
man R2 , die Menge aller Paare reeller Zahlen, als Modell einer gege-
✲
x1 x
Der Übergang vom ersten zum zweiten Modell wird somit durch
die Abbildung
f = ψ ◦ ϕ−1 : R2 ✲ R2
αy1 ❜ αP
v y1
✲
❜P
✲
αu1 u
αv1
v1 u1
✲
x1 αx1 x
Dabei sei αP ∈ E derjenige Punkt, der aus P durch Streckung mit
Zentrum 0 und Faktor α entsteht. Mittels des Strahlensatzes folgt
dann, dass die Koordinaten von αP bezüglich der Achsen x, y bzw.
u, v ebenfalls durch Streckung mit Faktor α aus den entsprechenden
Koordinaten von P hervorgehen. Dies bedeutet
ϕ(αP ) = (αx1 , αy1 ) = α(x1 , y1 ), ψ(αP ) = (αu1 , αv1 ) = α(u1 , v1 ),
und damit
f α(x1 , y1 ) = ψ ϕ−1 α(x1 , y1 ) = ψ(αP ) = α(u1 , v1 ) = αf (x1 , y1 ) ,
d. h. f ist verträglich mit der skalaren Multiplikation von R2 .
Um auch die Verträglichkeit mit der Addition nachzuweisen, be-
trachten wir zunächst folgende Skizze:
P1 ❜+ P2
✧✧
✧ ❇❇
✧
✧ ❇
✧
✧ ❇
✧ ❇
✧
✧ ❇ ∆
′
✧
v
✲ P2 ✧ ✧
❇❜
✧ ✲
❜
❇ ✧ P1
❇ ✧ u
❇ ✧ u1 + u2
✧ u1
❇ ✧
❇ ✧
✧
❇ ∆✧
✧
❇✧ u2
68 2. Lineare Abbildungen
Der Übersichtlichkeit halber haben wir uns hier auf ein einziges (schief-
winkliges) Koordinatensystem mit den Achsen u und v beschränkt.
Ausgehend von den Punkten P1 , P2 ∈ E sei der Punkt P1 + P2 mit-
tels der üblichen Parallelogrammkonstruktion definiert. Die Dreiecke ∆
und ∆′ , die jeweils die gestrichelten Strecken enthalten, erkennt man
dann als kongruent, und es folgt, dass sich die u-Koordinate von P1 +P2
als Summe der u-Koordinaten von P1 und P2 ergibt. Entsprechendes
gilt für die v-Koordinaten und in gleicher Weise für die Koordinaten
bezüglich anderer Koordinatensysteme.
Gehen wir nun von zwei Punkten (x1 , y1 ), (x2 , y2 ) ∈ R2 aus und
betrachten die zugehörigen Punkte P1 , P2 ∈ E mit ϕ(Pi ) = (xi , yi )
für i = 1, 2, so ergibt sich mit ψ(Pi ) = (ui , vi ) aufgrund vorstehender
Beobachtung
auf E übertragen werden kann. Wir können daher mit gutem Recht
sagen, dass eine punktierte Ebene, also eine Ebene mit einem als Null-
punkt ausgezeichneten Punkt 0, auf natürliche Weise die Struktur ei-
nes R-Vektorraums besitzt und dass dieser Vektorraum im Grunde
genommen nichts anderes als das wohlbekannte Modell R2 ist, ge-
nauer, dass E als R-Vektorraum zu R2 isomorph ist. Entsprechendes
gilt natürlich auch für eine Gerade und R1 als Modell, sowie für den
drei-dimensionalen anschaulichen Raum und R3 als Modell. Es ist all-
gemeiner auch möglich, die Abhängigkeit der Modelle von der Wahl
des Nullpunktes zu vermeiden. Anstelle linearer Abbildungen hat man
dann sogenannte affine Abbildungen zu betrachten, die sich als Kom-
position linearer Abbildungen mit Translationen darstellen.
Beispiele für Isomorphismen f : R2 ✲ R2 gibt es zur Genüge,
etwa die Streckung
f : R2 ✲ R2 , (x1 , y1 ) ✲ (α1 x1 , β1 y1 ),
.......
.......
......
.....
....
.....
....
....
....
....
...
...
...
...
...
...
....... ...
P
.... ..
.... ..
ϑ
...
... ❜
..
✲
...
..
x
oder die Spiegelung an einer Geraden G, die den Nullpunkt 0 ∈ R
enthält:
y
✻
❜ f (P ) G
✻
❜P
✲
x
70 2. Lineare Abbildungen
f : R2 ✲ R, (x1 , y1 ) ✲ x1 ,
dar. Diese Abbildung beschreibt sich in der Tat als (Parallel-) Projek-
tion auf die x-Achse, indem man einen Punkt P ∈ R2 auf den Schnitt-
punkt der x-Achse mit der Parallelen zur y-Achse durch P abbildet:
y
✻
❜P
❜❄ ✲
f (P ) x
Man kann auch parallel zu einer anderen Achse v projizieren, etwa in
der folgenden Weise:
y
✻
v
✲ ❜P
❜✛ ✲
f (P ) x
Im Prinzip erhält man hier keine wesentlich andere lineare Abbildung,
denn diese wird bezüglich der Koordinatenachsen x, v wiederum durch
f : R2 ✲ R, (x1 , v1 ) ✲ x1 ,
Zum Beispiel werden wir sehen, dass die Dimension des Bildes V ′ ei-
ner surjektiven linearen Abbildung f : V ✲ V ′ , man spricht hier
vom Rang von f , höchstens gleich der Dimension von V sein kann. So-
mit ist die Existenz beispielsweise einer surjektiven linearen Abbildung
R2 ✲ R3 ausgeschlossen. Allgemeiner werden Phänomene dieser Art
durch die sogenannte Dimensionsformel für lineare Abbildungen gere-
gelt. Auch wird sich zeigen, dass eine lineare Abbildung f : V ✲ V′
′
bereits eindeutig durch die Bilder f (xi ) ∈ V einer vorgegebenen Basis
(xi )i∈I von V festgelegt ist, ja dass man sogar eine lineare Abbildung
f: V ✲ V ′ eindeutig definieren kann, indem man lediglich die Bilder
f (xi ) in V ′ (in beliebiger Weise) vorgibt. Diese Eigenschaft ist wichtig
für die Beschreibung linearer Abbildungen mittels Matrizen (das sind
rechteckige Koeffizientenschemata mit Einträgen aus dem Grundkör-
per K) und damit für die rechnerische Handhabung linearer Abbildun-
gen. Eine tiefergehende Betrachtung von Matrizen wird allerdings erst
in Kapitel 3 erfolgen.
Ein weiteres Problem, das wir in diesem Kapitel lösen werden, be-
schäftigt sich mit der Konstruktion linearer Abbildungen mit bestimm-
ten vorgegebenen Eigenschaften. Für eine Abbildung f : V ✲ V′
bezeichnet man die Urbilder f −1 (a′ ) ⊂ V zu Elementen a′ ∈ V ′ als
die Fasern von f . Natürlich ist eine Faser f −1 (a′ ) genau dann nicht
leer, wenn a′ zum Bild von f gehört. Die nicht-leeren Fasern von f
werden daher (eventuell in mehrfacher Aufzählung) durch die Men-
gen f −1 (f (a)) beschrieben, wobei a in V variiere. Für eine lineare
Abbildung f : V ✲ V ′ gilt stets f (0) = 0′ , wenn 0 und 0′ die
Nullvektoren in V und V ′ bezeichnen. Insbesondere enthält die Fa-
ser f −1 (0′ ) = f −1 (f (0)) stets den Nullvektor 0 ∈ V . Genauer sieht
man leicht ein, dass f −1 (0′ ) sogar einen linearen Unterraum U ⊂ V
bildet, den sogenannten Kern von f , der mit ker f bezeichnet wird.
Weiter zeigt man
f −1 f (a) = a + U = {a + u ; u ∈ U }
für a ∈ V . Man erhält daher alle nicht-leeren Fasern von f , indem man
den linearen Unterraum U = ker f mit allen Vektoren a ∈ V parallel
verschiebt, wobei man jeden solchen parallel verschobenen Unterraum
A = a + U als einen zu U gehörigen affinen Unterraum von V be-
zeichnet. Im Falle V = R2 und für eine Gerade U ⊂ R2 ergibt sich
beispielsweise folgendes Bild:
72 2. Lineare Abbildungen
y
✻
❜
a
✲
x
U a+U
(a + U ) + (b + U ) := (a + b) + U, α(a + U ) := αa + U
setzen. Dass man auf diese Weise tatsächlich einen Vektorraum erhält,
den sogenannten Quotienten- oder Restklassenvektorraum V /U , bedarf
einiger Verifizierungen, die wir im Einzelnen durchführen werden. Ins-
besondere werden wir sehen, dass dann die kanonische Abbildung
π: V ✲ V /U, a ✲ a + U,
eine lineare Abbildung mit ker π = U ergibt, deren Fasern also gerade
die zu U gehörigen affinen Unterräume von V sind. Die Abbildung π
erfüllt eine wichtige, sogenannte universelle Eigenschaft, die wie folgt
lautet: Ist f : V ✲ V ′ eine lineare Abbildung mit einem Kern, der
U = ker π ⊂ ker f erfüllt, so zerlegt sich f in eine Komposition
π f
f: V ✲ V /U ✲ V′
2.1 Grundbegriffe
lineare Unterräume von V bzw. V ′ . Diese werden als Kern bzw. Bild
von f bezeichnet.
f (a + b) = f (a) + f (b) = 0 + 0 = 0,
f (a − b) = f (a) − f (b) = 0,
n
X
f (a) = αi a′i
i=1
Diese Abbildung
P ist K-linear,
Pwie wir sogleich sehen werden. Sind näm-
lich a = ni=1 αi ai und b = ni=1 βi ai zwei Elemente von V , so gilt
n
X
a+b= (αi + βi )ai .
i=1
f + g: V ✲ V ′, x ✲ f (x) + g(x),
von Aussage (ii) in Satz 7 ist dann präziser so zu formulieren, dass für
eine Basis a1 , . . . , an von V die Zuordnung f ✲ (f (a1 ), . . . , f (an ))
einen Isomorphismus von K-Vektorräumen HomK (V, V ′ ) ∼✲ (V ′ )n
definiert.
Diese Korrespondenz kann man noch konkreter beschreiben, wenn
man neben der Basis a1 , . . . , an von V auch in V ′ eine Basis fixiert. Sei
also b1 , . . . , bm eine Basis von V ′ , wobei wir V ′ als endlich-dimensional
annehmen.PDann besitzt jeder Vektor a′ ∈ V ′ eine eindeutige Darstel-
lung a′ = m i=1 λi bi , ist also durch das Koeffiziententupel (λ1 , . . . , λm )
auf umkehrbar eindeutige Weise bestimmt. Eine lineare Abbildung
f: V ✲ V ′ korrespondiert daher zu n solchen Koeffiziententupeln
(λ1j , . . . , λmj ), j = 1, . . . , n, die wir als Spalten interpretieren und zu
einer Matrix zusammenfügen:
λ11 . . . λ1n
(λij )i=1,...,m = . . . . .
j=1,...,n
λm1 . . . λmn
Man nennt dies die zu der linearen Abbildung f gehörige Matrix, wobei
diese Bezeichnung natürlich relativ zu den in V und V ′ fixierten Basen
zu verstehen ist. Die lineare Abbildung f lässt sich aus der Matrix (λij )
mit Hilfe der Gleichungen
m
X
f (aj ) = λij bi , j = 1, . . . , n.
i=1
bzw. X
n m X
n
X
f αj aj = λij αj bi
j=1 i=1 j=1
rekonstruieren.
Anstelle von dimK (im f ), also für die Dimension des Bildraums
f (V ), schreibt man häufig auch rg f und nennt dies den Rang von f .
Beweis zu Satz 10. Ist einer der Vektorräume ker f oder im f von
unendlicher Dimension, so auch V ; falls dimK (im f ) = ∞, so folgt
dies aus Bemerkung 5. Wir dürfen daher ker f und im f als endlich-
dimensional ansehen. Man wähle dann Vektoren a1 , . . . , am in V , so
dass deren Bilder f (a1 ), . . . , f (am ) eine Basis von im f bilden. Weiter
wähle man eine Basis am+1 , . . . , an von ker f . Es genügt dann nachzu-
weisen, dass a1 , . . . , an eine Basis von V bilden. Hierzu betrachte
Pm man
einen Vektor a ∈ V . Es existiert eine Darstellung f (a) = i=1 αi f (ai )
mit Koeffizienten αi ∈ K, da f (a1 ), . . . , f (am ) den Vektorraum im f
2.1 Grundbegriffe 81
P
erzeugen. Weiter liegt der Vektor a − m i=1 αi ai im Kern von f , und,
da dieser
P von am+1 P,n. . . , an erzeugt wird, gibtPes αm+1 , . . . , αn ∈ K mit
a− m α
i=1 i ia = i=m+1 i iα a , also mit a = n
i=1 αi ai . Dies zeigt, dass
a1 , . . . , an ein Erzeugendensystem von V bilden.
Um zu sehen, dassP a1 , . . . , an auch linear unabhängig sind, betrach-
te man eine Relation ni=1 αi ai = 0 mit Koeffizienten αi ∈ K. Hieraus
ergibt sich
X n X n Xm
0=f αi ai = αi f (ai ) = αi f (ai )
i=1 i=1 i=1
Aufgaben
1. Für einen Körper K und ein n ∈ N betrachte man K n als K-Vektorraum.
Es bezeichne pi : K n ✲ K für i = 1, . . . , n jeweils die Projektion auf
die i-te Komponente. Man zeige:
(i) Die Abbildungen pi sind K-linear.
(ii) Eine Abbildung f : V ✲ K n von einem K-Vektorraum V nach
n
K ist genau dann K-linear, wenn alle Kompositionen pi ◦ f
K-linear sind.
2. Gibt es R-lineare Abbildungen R4 ✲ R3 die die folgenden Vekto-
ren ai ∈ R4 jeweils auf die angegebenen Vektoren bi ∈ R3 abbilden?
(AT 391)
(i) a1 =(1, 1, 0, 0), a2 =(1, 1, 1, 0), a3 =(0, 1, 1, 1), a4 =(0, 0, 1, 1)
b1 =(1, 2, 3), b2 =(2, 3, 1), b3 =(3, 1, 2), b4 =(2, 0, 4)
(ii) a1 =(0, 1, 1, 1), a2 =(1, 0, 1, 1), a3 =(1, 1, 0, 1)
b1 , b2 , b3 wie in (i)
(iii) a1 =(0, 1, 1, 1), a2 =(1, 0, 1, 1), a3 =(1, 1, 0, 1), a4 =(−1, 1, 0, 0)
b1 , b2 , b3 , b4 wie in (i)
(iv) a1 =(0, 1, 1, 1), a2 =(1, 0, 1, 1), a3 =(1, 1, 0, 1), a4 =(0, 2, 0, 1)
b1 , b2 , b3 , b4 wie in (i)
3. Man bestimme alle R-linearen Abbildungen R ✲ R.
√ √
4. Man bestimme alle Körperhomomorphismen f : Q 2 ✲ Q 2 ,
d. h. alle Q-linearen Abbildungen, die zusätzlich f (αβ) = f (α)f (β)
erfüllen.
5. Es sei V ein K-Vektorraum und f : V ✲ V ein Endomorphismus mit
2
f = f . Man zeige V = ker f ⊕ im f . (AT 395)
6. Für lineare Unterräume U, U ′ eines K-Vektorraums V betrachte man
die Abbildung
ϕ: U × U′ ✲ V, (a, b) ✲ a − b.
(i) Man zeige, dass ϕ eine K-lineare Abbildung ist, wenn man U × U ′
mit komponentenweiser Addition und skalarer Multiplikation als
K-Vektorraum auffasst.
2.2 Quotientenvektorräume 83
rg f + rg g ≤ rg(g ◦ f ) + dim V2
2.2 Quotientenvektorräume
(a + U ) + (b + U ) = (a + b) + U.
M ✲ M/∼, a ✲ ⌈⌊a⌉⌋,
a ∼ b :⇐⇒ a − b ∈ U
a − c = (a − b) + (b − c) ∈ U,
also a ∼ c.
Im Übrigen berechnet sich die Äquivalenzklasse ⌈⌊a⌉⌋ eines Vektors
a ∈ V zu
⌈⌊a⌉⌋ = {b ∈ V ; b ∼ a} = {b ∈ V ; b − a ∈ U } = a + U,
Beweis. Aus ⌈⌊a⌉⌋ = ⌈⌊a′ ⌉⌋, ⌈⌊b⌉⌋ = ⌈⌊b′ ⌉⌋ ergibt sich a − a′ , b − b′ ∈ U und
damit (a + b) − (a′ + b′ ) = (a − a′ ) + (b − b′ ) ∈ U , also ⌈⌊a + b⌉⌋ = ⌈⌊a′ + b′ ⌉⌋.
Weiter folgt αa − αa′ = α(a − a′ ) ∈ U , also ⌈⌊αa⌉⌋ = ⌈⌊αa′ ⌉⌋.
88 2. Lineare Abbildungen
π: V ✲ V /U, a ✲ ⌈⌊a⌉⌋,
K-linear und damit ein Epimorphismus ist. Somit können wir formu-
lieren:
V /U × V /U ✲ V /U, (a + U, b + U ) ✲ (a + b) + U,
K × V /U ✲ V /U, (α, a + U ) ✲ αa + U.
2.2 Quotientenvektorräume 89
V
f
✲ V′
❅ ✒
π❅ f
❘
❅
V
kommutiert, d. h. so dass f = f ◦ π gilt. Weiter ist f genau dann in-
jektiv, wenn U = ker f gilt und genau dann surjektiv, wenn f surjektiv
ist.
und daher f (a) = f (π(a)) = f (a). Damit ist f (a) eindeutig durch a
bestimmt.
Zum Nachweis der Existenz einer K-linearen Abbildung f mit den
geforderten Eigenschaften betrachte man einen Vektor a ∈ V sowie
zwei Urbilder a, b ∈ π −1 (a). Es folgt dann
a − b ∈ ker π = U ⊂ ker f
und damit f (a) = f (b). Der Wert f (a) ist also unabhängig von der spe-
ziellen Wahl eines Urbildes a ∈ π −1 (a), und wir können eine Abbildung
f: V ✲ V ′ durch a ✲ f (a) erklären, wobei wir mit a jeweils (ir-
gend)ein π-Urbild zu a meinen. Insbesondere gilt dann f (a) = f (π(a))
für a ∈ V , d. h. die geforderte Beziehung f = f ◦ π ist erfüllt. Schließ-
lich ist f auch K-linear. Zu a, b ∈ V betrachte man nämlich π-Urbilder
a, b ∈ V . Dann ist a + b ein π-Urbild zu a + b sowie αa für α ∈ K ein
π-Urbild zu αa, und es gilt
f (a + b) = f (a + b) = f (a) + f (b) = f (a) + f (b),
f (αa) = f (αa) = αf (a) = αf (a).
Es bleiben noch die zusätzlich behaupteten Eigenschaften von
f nachzuweisen. Sei zunächst f injektiv. Für a ∈ ker f folgt dann
f (π(a)) = f (a) = 0, also π(a) = 0 bzw. a ∈ ker π aufgrund der In-
jektivität von f . Dies bedeutet aber ker f ⊂ ker π = U und, da die
entgegengesetzte Inklusion ohnehin gilt, bereits U = ker f . Ist umge-
kehrt diese Gleichung gegeben, so betrachte man ein Element a ∈ ker f
sowie ein Urbild a ∈ π −1 (a). Man hat dann f (a) = f (π(a)) = f (a) = 0
und damit a ∈ ker f = U . Wegen U = ker π ergibt sich dann aber
a = π(a) = 0, also insgesamt ker f = 0 und damit die Injektivität
von f .
Ist f surjektiv, so ist auch f als Komposition der surjektiven Ab-
bildungen π und f surjektiv. Umgekehrt folgt aus der Surjektivität von
f = f ◦ π, dass auch f surjektiv sein muss.
U = (a′ − a) + U ′ .
Beweis. Der Fall A = ∅ ist trivial, da sich die leere Menge stets als Faser
einer linearen Abbildung f : V ✲ V ′ realisieren lässt. Man betrachte
′
etwa V := V × K als K-Vektorraum mit komponentenweiser Addition
und skalarer Multiplikation. Dann ist
f: V ✲ V ′, v ✲ (v, 0),
eine K-lineare Abbildung mit f −1 (0, 1) = ∅.
Wir dürfen also im Folgenden A 6= ∅ voraussetzen. Sei zunächst
Bedingung (i) gegeben, also A ein affiner Unterraum von V , etwa
A = a + U . Betrachtet man dann den kanonischen Epimorphismus
π: V ✲ V /U , so gilt A = π −1 (π(a)) nach Bemerkung 2, d. h. A ist
Faser einer K-linearen Abbildung und erfüllt damit Bedingung (ii).
Sei nun (ii) gegeben, also A = f −1 (a′ ) mit einem Element a′ ∈ V ′ ,
und seien endlich viele Elemente
P a0 , . . . , ar ∈ A fixiert. Für Koeffizien-
ten α0 , . . . , αr ∈ K mit ri=0 αi = 1 gilt dann
Xr Xr X r
f αi ai = αi f (ai ) = αi · a′ = a′
i=0 i=0 i=0
Pr
und damit i=0 αi ai ∈ f −1 (a′ ) = A. Bedingung (iii) ist also erfüllt.
Sei schließlich (iii) gegeben. Wir wählen dann ein Element a0 ∈ A
aus und behaupten, dass ∆A = {a−a0 ; a ∈ A} ein linearer Unterraum
von V ist. In der Tat, wir haben 0 ∈ ∆A und damit ∆A 6= ∅. Sind
weiter a, b ∈ ∆A, also a = a1 − a0 , b = b1 − a0 mit a1 , b1 ∈ A, so folgt
a1 + (−1)a0 + b1 ∈ A gemäß (iii) und damit
2.2 Quotientenvektorräume 93
a + b = (a1 − a0 + b1 ) − a0 ∈ ∆A.
Für α ∈ K gilt weiter αa1 + (1 − α)a0 ∈ A, ebenfalls unter Benutzung
von (iii), also
αa = αa1 + (1 − α)a0 − a0 ∈ ∆A.
Folglich ist ∆A ein linearer Unterraum in V , und es zeigt sich, dass
A = a0 + ∆A ein affiner Unterraum von V ist.
Wir wollen noch zeigen, wie man affine Unterräume von Vektor-
räumen in konkreter Weise erzeugen kann. Hierzu betrachte man einen
K-Vektorraum V sowie Vektoren a0 , . . . , ar ∈ V , r ≥ 0. Dann existiert
ein kleinster affiner Unterraum A ⊂ V , der diese Vektoren enthält,
nämlich
X r
A = a0 + αi (ai − a0 ) ; α1 , . . . , αr ∈ K .
i=1
Um dies einzusehen, stellen wir zunächst fest, dass A ein affiner Un-
terraum in V ist, der die Vektoren a0 , . . . , ar enthält; der zugehörige
lineare Unterraum U ⊂ V mit A = a0 +U wird von Pden Vektoren ai −a0 ,
r
i = 1, . . . , r, erzeugt.
P Da man eine PSumme a0 + i=1 αi (ai − a0 ) auch
in der Form (1 − ri=1 αi ) · a0 + ri=1 αi ai schreiben kann, erhält man
weiter
Xr r
X
A= αi ai ; α0 , . . . , αr ∈ K mit αi = 1 .
i=0 i=0
Hieraus folgt unter Benutzung von Satz 11 (iii), dass A wie behaup-
tet der kleinste affine Unterraum von V ist, der a0 , . . . , ar enthält.
Beispielsweise kann man die durch zwei verschiedene Punkte a, b ei-
nes K-Vektorraums bestimmte affine Gerade betrachten. In gewohnter
Weise ergibt sich
G = a + α(b − a) ; α ∈ K = αa + βb ; α, β ∈ K mit α + β = 1 .
Aufgaben
1. Man betrachte folgende Mengen M mit der jeweils angegebenen Relation
∼ und entscheide, ob es sich um eine Äquivalenzrelation handelt. Falls
möglich gebe man die Äquivalenzklassen an.
(i) M = R, a ∼ b :⇐⇒ |a| = |b|
94 2. Lineare Abbildungen
a ∼ b :⇐⇒ a − b ∈ A′
ein affiner Unterraum im K n erklärt wird. Ist jeder affine Unterraum des
K n von dieser Bauart? (Hinweis: Man vermeide “unnötiges Rechnen”,
indem man geeignete lineare Abbildungen betrachtet. Man beginne mit
dem Fall m = 1.)
6. Für Vektoren a0 , . . . , ar eines K-Vektorraums V betrachte man den von
den ai erzeugten affinen Unterraum A ⊂ V sowie den von den ai erzeug-
ten linearen Unterraum U ⊂ V . Man zeige A ⊂ U und weiter:
2.2 Quotientenvektorräume 95
(
dimK U falls 0 ∈ A
dimK A =
dimK U − 1 falls 0 ∈
6 A
V ✲ V ′, a ✲ f (a) − x0 ,
K-linear ist. Man zeige: Eine Abbildung f : V ✲ V ′ ist genau dann af-
fin, wenn für jeweils Pendlich viele Vektoren a0 , . . . , ar ∈ V und Elemente
α0 , . . . , αr ∈ K mit ri=0 αi = 1 stets
X
r r
X
f αi ai = αi f (ai )
i=0 i=0
gilt.
8. Erster Isomorphiesatz : Für zwei lineare Unterräume U, U ′ eines K-Vek-
torraums V betrachte man die kanonischen Abbildungen U ⊂ ✲ U + U ′
sowie U + U ′ ✲ (U + U ′ )/U ′ . Man zeige, dass deren Komposition
U ∩ U ′ als Kern besitzt und einen Isomorphismus
U/(U ∩ U ′ ) ∼✲ (U + U ′ )/U ′
(V /U )/(U ′ /U ) ∼✲ V /U ′ .
(π1 , π2 ) : V ✲ V /U1 × V /U2 , x ✲ π1 (x), π2 (x) .
Man zeige:
(i) (π1 , π2 ) ist K-linear, wenn man V /U1 × V /U2 mit komponen-
tenweiser Addition und skalarer Multiplikation als K-Vektorraum
auffasst.
(ii) (π1 , π2 ) ist genau dann injektiv, wenn U1 ∩ U2 = 0 gilt.
(iii) (π1 , π2 ) ist genau dann surjektiv, wenn V = U1 + U2 gilt.
(iv) (π1 , π2 ) ist genau dann bijektiv, wenn V = U1 ⊕ U2 gilt.
11. Man konstruiere ein Beispiel eines K-Vektorraums V mit einem linearen
Unterraum 0 ( U ⊂ V , so dass es einen Isomorphismus V /U ∼✲ V
gibt. Gibt es ein solches Beispiel im Falle dimK V < ∞? (AT 401)
f g h
12. Es seien V1 ✲ V2 ✲ V3 ✲ V4 drei K-lineare Abbildungen zwi-
schen endlich-dimensionalen K-Vektorräumen. Man zeige:
f + g: V ✲ V ′, a ✲ f (a) + g(a),
Kn ✲ K, (α1 , . . . , αn ) ✲ α1 ,
f∗ : V ∗ ✲ U ∗, ϕ ✲ ϕ ◦ f,
Man kann sich die Definition des Bildes f ∗ (ϕ) = ϕ ◦ f anhand des
folgenden kommutativen Diagramms verdeutlichen:
f
U ✲ V
ϕ
f ∗ (ϕ) ✲ ❄
K
Es wird die Linearform ϕ sozusagen unter der Abbildung f ∗ zu einer
Linearform auf U zurückgezogen, indem man mit f komponiert.
98 2. Lineare Abbildungen
f ∗ (ϕ + ψ) = (ϕ + ψ) ◦ f = (ϕ ◦ f ) + (ψ ◦ f ) = f ∗ (ϕ) + f ∗ (ψ),
f ∗ (αϕ) = (αϕ) ◦ f = α(ϕ ◦ f ) = αf ∗ (ϕ)
und damit die K-Linearität von f ∗ . Um die Formel für die Komposition
dualer Abbildungen nachzuweisen, betrachte man für eine Linearform
ϕ ∈ W ∗ das kommutative Diagramm:
f g
U ✲ V ✲ W
g ∗ (ϕ)
ϕ
(g◦f )∗ (ϕ)
✲ ❄
✲ K
Es ergibt sich
(g ◦ f )∗ (ϕ) = ϕ ◦ (g ◦ f ) = (ϕ ◦ g) ◦ f
= g ∗ (ϕ) ◦ f = f ∗ g ∗ (ϕ) = (f ∗ ◦ g ∗ )(ϕ)
Beweis. Wir beginnen mit Aussage (i). Sei also f injektiv. Um zu se-
hen, dass f ∗ surjektiv ist, zeigen wir, dass jede Linearform ψ ∈ V ∗
ein Urbild ϕ ∈ W ∗ besitzt, dass also zu ψ eine Linearform ϕ ∈ W ∗
2.3 Der Dualraum 99
ψ′ ϕ
ψ
❄✛
✛
K
wobei die Linearformen ψ ′ : im f ✲ K und ϕ : W ✲ K noch zu
konstruieren sind, und zwar so, dass das Diagramm kommutiert. Da
f1 ein Isomorphismus ist, können wir ψ ′ = ψ ◦ f1−1 setzen. Dann bleibt
noch das Problem, die Linearform ψ ′ : im f ✲ K zu einer Linearform
ϕ: W ✲ K fortzusetzen.
Um dies zu bewerkstelligen, wählen wir gemäß 1.6/4 ein Komple-
ment W ′ zu im f in W , also einen Untervektorraum W ′ ⊂ W mit
W = (im f ) ⊕ W ′ . Jedes w ∈ W hat dann eine eindeutige Zerle-
gung w = w1 ⊕ w2 mit w1 ∈ im f und w2 ∈ W ′ . Setzt man je-
weils ϕ(w) = ψ ′ (w1 ), so erhält man wie gewünscht eine Linearform
ϕ: W ✲ K, die ψ ′ fortsetzt und damit f ∗ (ϕ) = ψ erfüllt.
Zum Nachweis von (ii) setze man f : V ✲ W als surjektiv voraus.
∗ ∗ ∗
Weiter seien ϕ, ϕ ∈ W mit f (ϕ) = f (ϕ ), also mit ϕ ◦ f = ϕ′ ◦ f .
′ ′
Die Aussage von Satz 3 lässt sich mittels sogenannter exakter Se-
quenzen allgemeiner formulieren. Unter einer Sequenz wollen wir eine
Kette
fn−2
... ✲ Vn−1 fn−1
✲ Vn fn✲ Vn+1 fn+1 ✲ ...
f
0 ✲ V′ ✲ V
genau dann exakt, wenn f injektiv ist; dabei ist 0 der Nullvektorraum
sowie 0 ✲ V ′ (als einzig mögliche K-lineare Abbildung von 0 nach
V ′ ) die Nullabbildung. Entsprechend ist die Sequenz
f
V′ ✲ V ✲ 0
werden auch als kurze exakte Sequenzen bezeichnet. Die Exaktheit ei-
ner solchen Sequenz ist äquivalent zu den folgenden Bedingungen:
(1) f ist injektiv,
(2) im f = ker g,
(3) g ist surjektiv.
Bei einer kurzen exakten Sequenz können wir daher V ′ unter f als
Untervektorraum von V auffassen, und es folgt mit dem Homomorphie-
satz 2.2/9, dass g einen kanonischen Isomorphismus V /V ′ ∼✲ V ′′
induziert. Umgekehrt kann man zu jedem Untervektorraum U ⊂ V in
kanonischer Weise die exakte Sequenz
0 ✲ U ✲ V ✲ V /U ✲ 0
0 ✲ V1 ✲ V1 ⊕ V2 ✲ V2 ✲ 0
Satz 4. Es sei
fn−1 fn
... ✲ Vn−1 ✲ Vn ✲ Vn+1 ✲ ...
eine exakte Sequenz von K-Vektorräumen. Dann ist auch die zugehö-
rige duale Sequenz
fn−1∗ ∗
... ✛ ∗ ✛
Vn−1
f ∗ ✛
Vn∗ ✛ n Vn+1 ...
exakt.
Man beachte, dass sich die Aussage von Satz 5 nicht auf unendlich-
dimensionale K-Vektorräume verallgemeinern lässt. Ist nämlich (ai )i∈I
eine unendliche Basis, so erkläre man wiederum durch ϕi (aj ) = δij ein
System (ϕi )i∈I von Linearformen auf V . Wie im Beweis zu Satz 5 er-
gibt sich, dass dieses linear unabhängig ist und dass der von den ϕi
erzeugte lineare Unterraum von V ∗ gerade aus denjenigen Linearfor-
men ϕ : V ✲ K besteht, für die ϕ(ai ) = 0 für fast alle i ∈ I gilt.
Andererseits kann man aber Linearformen V ✲ K definieren, indem
man die Bilder der Basisvektoren ai beliebig vorgibt. Insbesondere gibt
es Linearformen ϕ ∈ V ∗ mit ϕ(ai ) 6= 0 für unendlich viele Indizes i ∈ I.
Somit kann (ϕi )i∈I im Falle einer unendlichen Indexmenge I kein Er-
zeugendensystem und damit auch keine Basis von V sein.
Als Nächstes wollen wir für lineare Abbildungen f : V ✲ W den
Rang rg f , also die Dimension des Bildes von f , mit dem Rang der
zugehörigen dualen Abbildung f ∗ : W ∗ ✲ V ∗ vergleichen.
Aufgaben
1. Man prüfe, ob die folgenden Linearformen ϕi : R5 ✲ R ein linear
unabhängiges System in (R5 )∗ bilden:
(i) ϕ1 : (α1 , . . . , α5 ) ✲ α1 + α2 + α3 + α4 + α5
ϕ2 : (α1 , . . . , α5 ) ✲ α1 + 2α2 + 3α3 + 4α4 + 5α5
ϕ3 : (α1 , . . . , α5 ) ✲ α1 − α2
2.3 Der Dualraum 105
als Basis von R4 und bestimme die hierzu duale Basis von (R4 )∗ , indem
man deren Elemente als Linearkombinationen der pi angibt. (AT 402)
3. Es seien V, W zwei K-Vektorräume. Man zeige, dass die Abbildung
K-linear ist, was bedeutet, dass für Elemente α ∈ K und K-lineare Ab-
bildungen f, g : V ✲ W stets (f +g)∗ = f ∗ +g ∗ sowie (αf )∗ = α · f ∗
gilt.
4. Man betrachte einen K-Vektorraum V und zu einem Element a ∈ V
das induzierte Element a∗ ∈ V ∗∗ , welches definiert ist durch
a∗ : V ∗ ✲ K, ϕ ✲ ϕ(a).
coker f ∗ ∼✲ (ker f )∗ ,
und zeige
n
X
(−1)i dimK Vi = 0.
i=1
3. Matrizen
y
G′ ❍ ✻
❍❍
❍❍ P2 ✘✘
❍❍
P ′
P ✘✘ ✘✘❜✘
❍❍❜1 ❜1 ✘
❍✘✘✘✘✘
✘❍❍
✘✘✘✘✘ ❍❍
✘
G ✘✘✘ ❍❍ P ′
❍❍❜2
❍❍
❍❍
❍
✲
x
Gegeben seien zwei Geraden G, G′ ⊂ R2 , wobei G durch die (verschie-
denen) Punkte P1 , P2 ∈ R2 festgelegt sei und entsprechend G′ durch
tα11 + t′ α12 = β1
(∗∗)
tα21 + t′ α22 = β2
tα11 + t′ α12 = β1
α α21
21
t′ α22 − α12 = β2 − β1
α11 α11
α21
Nun gilt aber α22 − α
α11 12
6= 0, denn anderenfalls würde sich
α12 α12
α12 = α11 , α22 = α21
α11 α11
ergeben, und P1′ −P2′ wäre linear abhängig von P2 −P1 , was aber unserer
Annahme widerspricht. Somit können wir die zweite Gleichung weiter
äquivalent umformen zu
α21
′
β2 − β
α11 1 α11 β2 − α21 β1
t = α21
= ,
α22 − α α11 α22 − α21 α12
α11 12
Dabei haben wir unter der Annahme von α11 6= 0 die Gleichungen in
äquivalenter Weise umgeformt, so dass t, t′ auch tatsächlich Lösungen
von (∗∗) sind. Es bleibt nun aber noch der Fall α11 = 0 zu betrachten.
In diesem Fall ist allerdings α21 6= 0, und wir können eine entsprechen-
de Rechnung unter dieser Annahme machen. Das Ergebnis für t, t′ lässt
sich formal aus dem vorstehenden ableiten, indem wir in den Vektoren
(α11 , α21 ), (α12 , α22 ), (β1 , β2 ) jeweils die Reihenfolge der Komponenten
vertauschen, was einer Vertauschung der beiden Gleichungen des Sys-
tems (∗∗) entspricht. Da sich aber das vorstehende Ergebnis bei dieser
Vertauschung nicht ändert, wie man leicht feststellt, erhalten wir
β1 α22 − β2 α12 α11 β2 − α21 β1
t= , t′ =
α11 α22 − α21 α12 α11 α22 − α21 α12
als Lösung der Gleichung (∗) bzw. des linearen Gleichungssystems (∗∗)
im Falle nicht-paralleler Geraden G, G′ . Insbesondere besteht G ∩ G′
aus genau einem Schnittpunkt, und dieser berechnet sich zu
β1 α22 − β2 α12 α11 β2 − α21 β1
S = P1 + (P2 − P1 ) = P1′ + (P ′ − P1′ ),
α11 α22 − α21 α12 α11 α22 − α21 α12 2
jeweils als Punkt von G bzw. G′ .
In ähnlicher Weise führt das Problem, den Schnitt zweier Ebenen
im R3 , oder allgemeiner, den Schnitt zweier affiner Unterräume im
K n zu bestimmen, auf ein lineares Gleichungssystem. Im ersten Falle
handelt es sich beispielsweise um ein System von 3 Gleichungen mit
4 Unbekannten, von denen im Allgemeinfall eine frei wählbar ist, so
dass der Schnitt dann als Gerade parametrisiert wird. Im zweiten Fall
hat man ein System von n Gleichungen mit r + s Unbekannten zu
betrachten, wobei r und s die Dimensionen der betrachteten affinen
Unterräume im K n sind.
Aber auch direkte Fragen über Vektoren in Vektorräumen können
auf lineare Gleichungssysteme führen. Über einem Körper K betrachte
man beispielsweise Vektoren ai = (α1i , . . . , αni ) ∈ K n , i = 1, . . . , r, und
teste, ob diese linear abhängig sind. Wir müssen dann also überprüfen,
ob es Elemente t1 , . . . , tr ∈ K gibt, die nicht alle verschwinden, so dass
t1 a1 + . . . + tr ar = 0
gilt, oder, nach Übergang zu den einzelnen Komponenten, ob das li-
neare Gleichungssystem
Überblick und Hintergrund 111
t1 α11 + . . . + tr α1r = 0
t1 α21 + . . . + tr α2r = 0
...
t1 αn1 + . . . + tr αnr = 0
t1 a1 + . . . + tr ar = b,
t1 α11 + . . . + tr α1r = β1
t1 α21 + . . . + tr α2r = β2
...
t1 αn1 + . . . + tr αnr = βn
αn1 . . . αnr
112 3. Matrizen
wobei wir, wie hier geschehen, die Koeffizienten αij in Zukunft immer
links von den Unbekannten tj schreiben werden.
Die Bedeutung von Matrizen als rechteckige Koeffizientenschema-
ta ist nicht auf lineare Gleichungssysteme beschränkt. Matrizen tre-
ten in der Linearen Algebra überall dort auf, wo es darum geht,
Skalare zu katalogisieren, die von zwei Index-Parametern abhängen.
So betrachte man etwa eine lineare Abbildung f : V ✲ W zwi-
schen zwei K-Vektorräumen V, W mit Basen X = (x1 , . . . , xr ) und
Y = (y1 , . . . , yn ). Es ist f dann vollständig charakterisiert durch die
Bilder f (x1 ), . . . , f (xr ) der Basis X. Jedes dieser Bilder f (xj ) wieder-
um ist vollständig durch die Angabe seiner Koordinaten bezüglich Y
charakterisiert, d. h. der Koeffizienten α1j , . . . , αnj ∈ K, die man be-
nötigt, um f (xj ) als Linearkombination der Basis Y darzustellen, etwa
n
X
f (xj ) = αij yi , j = 1, . . . , r.
i=1
Überblick und Hintergrund 113
und man nennt dies die Matrix, die f bezüglich der Basen X von V und
Y von W beschreibt. Die Korrespondenz f ✲ Af,X,Y besitzt sehr gu-
te Eigenschaften, wie wir noch sehen werden. Beispielsweise lässt sich
der Übergang von einem Vektor x ∈ V zu seinem Bild f (x) ∈ W auf
dem Niveau der Koordinaten bezüglich X bzw. Y als Multiplikation
von Af,X,Y mit dem sogenannten Koordinatenspaltenvektor von x be-
züglich X interpretieren. Weiter entspricht die Komposition linearer
Abbildungen bei Verwendung geeigneter Basen dem noch zu definie-
renden Produkt der beschreibenden Matrizen.
Im Spezialfall V = W und f = id stellt die Matrix Aid,X,Y gerade
diejenigen Koeffizienten bereit, die man benötigt, um die Elemente der
Basis X als Linearkombinationen der Basis Y darzustellen. Insbeson-
dere sehen wir, dass der Wechsel zwischen verschiedenen Basen eines
Vektorraums ebenfalls mittels Matrizen beschrieben wird. Ein weiteres
Anwendungsfeld für Matrizen stellen die in Kapitel 7 zu behandelnden
Skalarprodukte dar.
Wir studieren in diesem Kapitel zunächst die Korrespondenz zwi-
schen linearen Abbildungen f und den zugehörigen beschreibenden
Matrizen Af,X,Y genauer. Sodann besprechen wir das Gaußsche Elimi-
nationsverfahren, und zwar zuerst als Verfahren, welches mittels soge-
nannter elementarer Zeilenumformungen den Zeilenrang einer Matrix
bestimmt, d. h. die Dimension des von den Zeilen der Matrix erzeugten
Vektorraums. In analoger Weise lässt sich der Spaltenrang einer Matrix
betrachten. Es ist leicht einzusehen, dass dieser im Falle einer Matrix
Af,X,Y , die zu einer linearen Abbildung f gehört, mit dem Rang von
f , also der Dimension des Bildes von f , übereinstimmt. Dass der Spal-
tenrang einer Matrix stets auch mit deren Zeilenrang übereinstimmt,
ist hingegen ein nicht-triviales Resultat.
Als Nächstes behandeln wir die Invertierbarkeit von (quadrati-
schen) Matrizen. Eine quadratische Matrix A heißt invertierbar, wenn
es eine quadratische Matrix B mit A · B = B · A = E gibt, wobei
114 3. Matrizen
Wir hatten bereits in Abschnitt 2.1 gesehen, dass man mit Hilfe von
Matrizen lineare Abbildungen definieren kann und dass man umge-
kehrt lineare Abbildungen bezüglich gewählter Basen durch Matrizen
beschreiben kann. Dieser Sachverhalt soll in diesem Abschnitt genauer
studiert werden. Wie immer sei K ein Körper.
Dabei heißt i der Zeilenindex von A; dieser ist bei den Schreibweisen
λA = (λαij )i,j .
wobei Eij genau am Schnittpunkt der i-ten Zeile mit der j-ten Spalte
eine 1 stehen hat und ansonsten aus lauter Nullen besteht. Beispiels-
weise gilt für eine Matrix (αij )i,j ∈ K m×n
1
Zur Vermeidung von Sonderfällen im Zusammenhang mit linearen Abbildun-
gen ist es praktisch, leere Matrizen nicht von den Betrachtungen auszuschließen.
Wir werden insbesondere für m = 0 leere Matrizen unterschiedlicher Spaltenan-
zahlen n betrachten, sowie im Falle n = 0 leere Matrizen unterschiedlicher Zeilen-
anzahlen m.
116 3. Matrizen
X
A= αij Eij .
i=1,...,m
j=1,...,n
κY : W ✲ K m, a ✲ aY ,
Beweis. Man prüft sofort nach, dass κY linear ist und die Basis Y von
W auf die kanonische Basis von K m abbildet. Somit ist κY notwendi-
gerweise ein Isomorphismus.
. . . . . . .
0 0 0 ... 1
(f + g)(a) = f (a) + g(a) und das skalare Vielfache von f mit einem
Element α ∈ K durch (αf )(a) = αf (a), jeweils für a ∈ V .
sowie
A(αf ),X,Y = (αf )(x1 )Y , . . . , (αf )(xn )Y
= α f (x1 ) , . . . , α f (xn )
Y Y
= α f (x1 ) Y , . . . , α f (xn ) Y
= α f (x1 )Y , . . . , f (xn )Y
= α · Af,X,Y ,
Als Nächstes wollen wir das Produkt von Matrizen definieren und
zeigen, dass dieses der Komposition linearer Abbildungen entspricht.
Für natürliche Zahlen m, n, p ∈ N kann man Matrizen A ∈ K m×n
mit Matrizen B ∈ K n×p multiplizieren und erhält dabei Matrizen aus
K m×p , und zwar ist für
A = (αij )i=1,...,m ∈ K m×n , B = (βjk )j=1,...,n ∈ K n×p
j=1,...,n k=1,...,p
Das Produkt kann also nur dann gebildet werden, wenn die Spalten-
anzahl von A gleich der Zeilenanzahl von B ist. Ein einfacher Fall eines
Matrizenprodukts liegt vor, wenn man eine Zeile aus K 1×m mit einer
Spalte aus K m×1 multipliziert:
β1
..
(α1 , . . . , αm ) · . = (α1 β1 + . . . + αm βm )
βm
Es entsteht eine (1 × 1)-Matrix, wobei wir diese unter Fortlassen der
Klammern mit dem entsprechenden Element von K identifizieren wol-
len. So kann man sagen, dass für Matrizen A ∈ K m×n , B ∈ K n×p das
Produkt A · B = (γik )i,k aus allen Produkten von Zeilen von A mit
Spalten von B besteht, und zwar ist das Element γik in der i-ten Zeile
und k-ten Spalte von A · B gerade das Produkt der i-ten Zeile von A
mit der k-ten Spalte von B. Andererseits beachte man, dass das Pro-
dukt einer Spalte aus K m×1 mit einer Zeile aus K 1×n eine Matrix aus
K m×n ergibt:
α1 α1 β1 . . . α1 βn
..
. · (β1 , . . . , βn ) = . ... .
αm αm β1 . . . αm βn
120 3. Matrizen
Beweis. Mit
erhält man
n
! p n
!
X X X
(A · B) · C = αij βjk ·C = αij βjk γkl ,
j=1 i,k k=1 j=1 i,l
p
! p
n X
!
X X
A · (B · C) = A · βjk γkl = αij βjk γkl ,
k=1 j,l j=1 k=1 i,l
f : Kn ✲ K m, x ✲ A · x,
und man sieht unmittelbar, dass f eine K-lineare Abbildung ist. Es ist
A offenbar gerade die im Sinne von Definition 3 zu f gehörige Matrix,
wenn man in K n und K m jeweils die aus den Einheitsvektoren beste-
hende kanonische Basis zugrunde legt. Wir wollen zeigen, dass dieses
Beispiel in gewissem Sinne schon den Allgemeinfall beschreibt:
3.1 Lineare Abbildungen und Matrizen 121
Die Formel aus Satz 7 lässt sich insbesondere auf den Fall V = W
und die identische Abbildung id : V ✲ V anwenden. Sie beschreibt
dann einen Basiswechsel und zeigt, wie sich Koordinatenvektoren be-
züglich der Basis X in solche bezüglich der Basis Y umrechnen lassen:
aY = Aid,X,Y · aX
Um die Aussage von Satz 7 noch etwas genauer zu interpretie-
ren, führen wir die Abbildungen κX : V ✲ K n, a ✲ aX , und
κY : W ✲ K ,b
m ✲ bY , ein, welche einem Vektor jeweils den zuge-
hörigen Koordinatenspaltenvektor zuordnen; κX , κY sind nach Bemer-
kung 2 Isomorphismen von K-Vektorräumen. Weiter betrachten wir
die K-lineare Abbildung f˜: K n ✲ K m, x ✲ Af,X,Y · x. Dann
besagt die Formel in Satz 7 gerade:
sowie
Af,X,Y = (αjk )j=1,...,n , Ag,Y,Z = (βij )i=1,...,m .
k=1,...,p j=1,...,n
Pn
Dann folgt f (xk ) = j=1 αjk yj für k = 1, . . . , p und somit
n
X
g ◦ f (xk ) = αjk g(yj )
j=1
n
X m
X
= αjk βij zi
j=1 i=1
m X
X n
= βij αjk · zi ,
i=1 j=1
also !
n
X
Ag◦f,X,Z = βij αjk = Ag,Y,Z · Af,X,Y ,
j=1 i,k
wie gewünscht.
Wir können den Beweis aber auch anders führen und uns dabei
jegliche Rechnung ersparen. Man hat nämlich nach Korollar 8 ein kom-
mutatives Diagramm
3.1 Lineare Abbildungen und Matrizen 123
f g
U ✲ V ✲ W
≀ κX ≀ κY ≀ κZ
❄ f˜
❄ g̃
❄
Kp ✲ Kn ✲ Km
wobei f˜ durch x ✲ Af,X,Y · x und g̃ durch y ✲ Ag,Y,Z · y erklärt
ist. Mit Bemerkung 6 sieht man dann, dass Ag◦f,X,Z und Ag,Y,Z · Af,X,Y
zwei Matrizen sind, die die K-lineare Abbildung g ◦ f bezüglich der
Basen X und Z beschreiben. Unter Benutzung von Satz 4 ergibt sich
daraus Ag◦f,X,Z = Ag,Y,Z · Af,X,Y .
Wir wollen abschließend noch einige Regeln für das Rechnen mit
Matrizen auflisten, die sich leicht durch direkte Verifikation nachrech-
nen lassen; vgl. auch Bemerkung 6. Sei α ∈ K und seien A, B, C Matri-
zen mit Koeffizienten aus K. Weiter bezeichne 0 eine Nullmatrix und
E eine (quadratische) Einheitsmatrix. Dann gelten die Formeln
A + B = B + A,
A + 0 = A,
EA = A, BE = B,
(αA)B = A(αB) = α(AB),
A(B + C) = AB + AC,
(A + B)C = AC + BC,
(AB)C = A(BC),
wobei wir in den einzelnen Gleichungen verlangen, dass die Zeilen- bzw.
Spaltenanzahlen so gewählt sind, dass die aufgeführten Summen und
Produkte auch gebildet werden können. Mit Matrizen kann man daher,
was die Addition und Multiplikation angeht, (fast) wie gewohnt rech-
nen. Allerdings darf man in einem Produkt A · B die Faktoren nicht
vertauschen, selbst dann nicht, wenn für Matrizen A, B die Produk-
te A · B und B · A beide erklärt sind; man betrachte etwa den Fall
einer Zeile A und einer Spalte B, jeweils mit n Komponenten. Sogar
für quadratische Matrizen, also solche, bei denen die Zeilenzahl mit
der Spaltenzahl übereinstimmt, ist das Produkt A · B im Allgemeinen
verschieden von B · A, wie man an einfachen Beispielen nachprüfen
kann.
124 3. Matrizen
Aufgaben
1. Man berechne die Produkte AB und BA für die Matrizen
1 2 2 0
A= , B= ∈ R2×2 .
3 −1 1 1
und zeige
A B E AE + BF
= ,
C D F CE + DF
wobei man diese Gleichung in naheliegender Weise als Gleichung zwi-
schen Matrizen in K (m1 +m2 )×r auffasse.
3.2 Gauß-Elimination und der Rang einer Matrix 125
f : Kn ✲ K m, x ✲ Ax,
126 3. Matrizen
die durch A definierte lineare Abbildung. Wie wir in Abschnitt 3.1 be-
merkt haben, ist A die zu f gehörige Matrix, wenn man in K n und
K m jeweils die aus den Einheitsvektoren bestehende kanonische Basis
zugrunde legt. In Abschnitt 2.1 hatten wir den Rang einer linearen
Abbildung f als die Dimension des Bildes im f erklärt. In unserer kon-
kreten Situation wird das Bild im f von den Bildern f (e1 ), . . . , f (en )
der kanonischen Basis e1 , . . . , en von K n erzeugt, also von den Spalten-
vektoren der Matrix A. Der Rang von f ist daher gleich der Dimension
des von den Spalten von A in K n erzeugten linearen Unterraums. Man
bezeichnet diese Dimension auch als den Spaltenrang von A. In ähnli-
cher Weise besitzt A einen Zeilenrang.
Diese Umformung von A kann man auch erreichen, indem man A von
links mit der Elementarmatrix E + (α − 1)Eii multipliziert. Letztere
Matrix unterscheidet sich von der Einheitsmatrix E dadurch, dass auf
der Diagonalen an der Stelle (i, i) statt einer 1 der Faktor α steht.
Typ II. Man addiere zu einer Zeile von A, etwa der i-ten, eine
weitere Zeile von A, etwa die j-te, wobei i 6= j gelte, also:
.. ..
ai ai + aj
.. ✲ ..
aj aj
.. ..
Diese Umformung kann man auch erreichen, indem man A von links
mit der Elementarmatrix E + Eij multipliziert.
Typ III. Man addiere zu einer Zeile von A, etwa der i-ten, ein
Vielfaches einer weiteren Zeile von A, etwa der j-ten, wobei i 6= j
gelte, also:
3.2 Gauß-Elimination und der Rang einer Matrix 129
.. ..
ai ai + αaj
.. ✲ ..
aj aj
.. ..
mit α ∈ K. Diese Umformung kann man auch erreichen, indem man
A von links mit der Elementarmatrix E + αEij multipliziert.
Typ IV. Man vertausche zwei Zeilen von A, etwa die i-te und die
j-te, also:
.. ..
ai aj
.. ✲ ..
aj ai
.. ..
Diese Umformung kann man auch erreichen, indem man A von links
mit der Elementarmatrix E −Eii −Ejj +Eij +Eji multipliziert. Letztere
Matrix erhält man aus der Einheitsmatrix, indem man die i-te und j-te
Zeile (oder, alternativ, Spalte) miteinander vertauscht.
Wie man leicht sehen kann, sind die Typen III und IV Kombina-
tionen der Typen I und II.
Satz 3. Es sei A ∈ K m×n eine Matrix und B ∈ K m×n eine weitere, die
mittels elementarer Zeilentransformationen aus A hervorgeht. Dann
erzeugen die Zeilenvektoren von A den gleichen linearen Unterraum
in K n wie die Zeilenvektoren von B. Insbesondere ist der Zeilenrang
einer Matrix invariant unter elementaren Zeilentransformationen.
rgz A = rgz B = r.
hb1 , . . . , br i = hb1 , . . . , bm i ⊂ K n
α1 β1 = 0,
α1 β1,j2 + α2 β2 = 0,
α1 β1,j3 + α2 β2,j3 + α3 β3 = 0,
... ...
α1 β1,jr + α2 β2,jr + α3 β3,jr + ... + αr βr = 0,
Man kann nun dasselbe Verfahren in einem zweiten Schritt auf A(1)
anstelle von A anwenden. Indem man die für A(1) benötigten Transfor-
mationen als Zeilentransformationen der Gesamtmatrix interpretiert
und das Verfahren genügend oft wiederholt, lässt sich in rekursiver
Weise die behauptete Zeilenstufenform realisieren. Erhält man dabei
in einem r-ten Schritt erstmalig A(r) als Null- oder leere Matrix, so ist
die Konstruktion beendet.
Wir wollen ein Beispiel zur Transformation einer Matrix auf Zei-
lenstufenform betrachten:
0 0 2 0 1 1 0 1 1 0 1 1
0 2 4 ✲ 0 2 4 ✲ 0 0 2 ✲ 0 0 2
0 1 1 0 0 2 0 0 2 0 0 0
132 3. Matrizen
Definition 5. Es sei
A = (αij )i=1,...,m ∈ K m×n .
j=1,...,n
Dann heißt
At = (αij )j=1,...,n ∈ K n×m
i=1,...,m
wie behauptet.
Als Nächstes zeigen wir, dass das Transponieren von Matrizen dem
Dualisieren linearer Abbildungen entspricht.
134 3. Matrizen
Af ∗ ,Y ∗ ,X ∗ = (Af,X,Y )t .
Beweis. Es sei
X = (x1 , . . . , xn ), Y = (y1 , . . . , ym ),
X ∗ = (x∗1 , . . . , x∗n ), Y ∗ = (y1∗ , . . . , ym
∗ ),
wobei man also x∗j (xν ) = δjν und yi∗ (yµ ) = δiµ hat. Insbesondere wird
dann für ϕ ∈ V ∗ die eindeutig bestimmte P Darstellung als Linearkom-
bination der Basis X ∗ durch ϕ = nj=1 ϕ(xj )x∗j gegeben. Dies ist eine
Konsequenz von 2.1/7, wie wir bereits im Beweis zu 2.3/5 gesehen hat-
ten. Somit lässt sich die zu f ∗ gehörige Matrix wie folgt beschreiben:
∗ ) ∗ = f ∗ (y ∗ )(x )
Af ∗ ,Y ∗ ,X ∗ = f ∗ (y1∗ )X ∗ , . . . , f ∗ (ym X i j j=1,...,n
i=1,...,m
wie behauptet.
3.2 Gauß-Elimination und der Rang einer Matrix 135
Benutzen wir nun 2.3/7, dass nämlich in der Situation von Satz 9
die Abbildungen f und f ∗ den gleichen Rang besitzen, so ergibt sich
mit den Bemerkungen 2 und 7 die Beziehung
Satz 11. Es sei A = (a1 , . . . , an ) ∈ K m×n eine Matrix mit den Spalten
a1 , . . . , an ∈ K m , welche sich mittels elementarer Zeilenumformungen
auf Zeilenstufenform
136 3. Matrizen
0 . . . 0 β1 . . . ∗ ∗ . . . ∗ ... ∗ ... ∗ ∗ ... ∗
0 . . . 0 0 . . . 0 β2 . . . ∗ ... ∗ ... ∗ ∗ ... ∗
0 ... 0 0 ... 0 0 ... 0 ... ∗ ... ∗ ∗ ... ∗
... ... ... ... ... ...
B=
0 ... 0 0 ... 0 0 ... 0 ... 0 . . . 0 βr . . . ∗
0 ... 0 0 ... 0 0 ... 0 ... 0 ... 0 0 ... 0
... ... ... ... ... ...
0 ... 0 0 ... 0 0 ... 0 ...
0 ... 0 0 ... 0
bringen lässt. Dabei sei für i = 1, . . . , r das Element βi ∈ K ∗ jeweils
in der Spalte mit Index ji positioniert, mit 1 ≤ j1 < . . . < jr ≤ n.
Dann sind die Vektoren aj1 , . . . , ajr linear unabhängig, und es gilt
ha1 , . . . , aj i = haj1 , . . . , aji i, j = 1, . . . , n,
wenn i ≤ r jeweils maximal mit ji ≤ j gewählt ist.
Aufgaben
1. Man bringe die Matrix
1 2 1 2 1 2
2 5 4 5 4 5
A= 1
∈ R4×6
4 6 6 6 6
2 5 6 9 7 11
auf Zeilenstufenform.
3.2 Gauß-Elimination und der Rang einer Matrix 137
jeweils für die Körper K = Q und K = F5 ; dabei ist F5 der Körper mit
5 Elementen aus Abschnitt 1.3, Aufgabe 3. (AT 411)
3. Man prüfe, ob das System der folgenden Vektoren ∈ R5 linear unabhän-
gig ist:
(1, 2, 1, 2), (2, 5, 4, 5), (1, 4, 6, 6), (2, 5, 6, 9), (2, 6, 7, 8), (1, 1, 0, 3)
erzeugt wird. Man berechne dimR U und gebe eine Basis von U an.
5. Es seien in R5 die folgenden linearen Unterräume gegeben:
f1 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (α2 + α3 + α4 + α5 )
f4 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (α1 − α2 + α4 − α5 )
bestimme man dimR ker f und dimR im f . Weiter gebe man eine Basis
von im f an.
9. Es sei F2 der Körper mit 2 Elementen. Im F2 -Vektorraum F22000 sei eine
Familie von Vektoren (vi )i=1,...,2000 definiert durch
0 falls 4 ∤ i,
vi = (1 + δij )j=1,...,2000 falls 4|i, aber 8 ∤ i,
(1 + δi−1,j + δi+1,j )j=1,...,2000 falls 8|i.
Dabei bedeutet 4|i bzw. 4 ∤ i, dass 4 die Zahl i teilt bzw. nicht teilt,
entsprechend für 8|i und 8 ∤ i. Man betrachte den von den vi erzeugten
linearen Unterraum U ⊂ F22000 , bestimme dimF2 U und gebe eine Basis
von U an. (AT 414)
Für n ∈ N ist auf der Menge K n×n aller (n×n)-Matrizen ähnlich wie
bei einem Körper neben der Addition eine Multiplikation gegeben, die
für n ≥ 2 allerdings nicht kommutativ ist. Dabei zeigen Gleichungen
des Typs
1 0 0 0
· = 0,
0 0 1 0
dass es für n ≥ 2 nicht-triviale Nullteiler in K n×n gibt. Eine Matrix
A ∈ K n×n heißt ein Nullteiler, wenn es eine von Null verschiedene
Matrix B ∈ K n×n mit A · B = 0 oder B · A = 0 gibt.
(a · b) · c = a · (b · c).
3.3 Matrizenringe und invertierbare Matrizen 139
a · (b + c) = a · b + a · c, (a + b) · c = a · c + b · c.
Ψ (f + g) = Ψ (f ) + Ψ (g), Ψ (f ◦ g) = Ψ (f ) · Ψ (g)
Beweis. Aufgrund von 3.1/4 ist Ψ eine bijektive Abbildung, die mit
der Addition verträglich ist. Die Verträglichkeit mit der Multiplikation
folgt aus 3.1/9.
Ist a ein Element eines Ringes R mit Eins, so heißt ein Element
b ∈ R invers zu a, wenn a · b = 1 = b · a gilt. Das inverse Element
zu a ∈ R ist, falls es existiert, stets eindeutig bestimmt. Sind nämlich
zwei Elemente b, b′ ∈ R invers zu a, oder genauer, ist b invers zu a und
gilt lediglich a · b′ = 1 (bzw. alternativ b′ · a = 1), so folgt
b = b · 1 = b · (a · b′ ) = (b · a) · b′ = 1 · b′ = b′ ,
bzw.
b = 1 · b = (b′ · a) · b = b′ · (a · b) = b′ · 1 = b′ .
Man schreibt a−1 für das inverse Element zu a und nennt a in diesem
Fall invertierbar oder eine Einheit. In einem Körper ist jedes Element
a 6= 0 eine Einheit. Andererseits gibt es in Matrizenringen K n×n für
n ≥ 2 stets nicht-triviale Nullteiler, und solche Matrizen können keine
Einheiten sein. Ist nämlich A ∈ K n×n eine Einheit und B ∈ K n×n eine
Matrix mit A · B = 0, so folgt notwendig B = A−1 · A · B = 0 mit der
inversen Matrix A−1 zu A.
3.3 Matrizenringe und invertierbare Matrizen 141
Wir wollen den Inhalt des Satzes noch in einem etwas allgemeineren
Rahmen formulieren.
f : Kn ✲ K n, x ✲ A · x.
Bedingung (iv) aus Korollar 7 gibt uns ein nützliches Kriterium für
die Invertierbarkeit einer Matrix A ∈ K n×n , insbesondere deshalb, weil
wir den Rang einer Matrix mittels elementarer Zeilenumformungen in
expliziter Weise bestimmen können; vgl. 3.2/4. So sieht man etwa, dass
für i, j ∈ {1, . . . , n}, i 6= j, und α ∈ K ∗ die Elementarmatrizen
aus K n×n invertierbar sind; dabei sei E wie in Abschnitt 3.2 die Ein-
heitsmatrix in K n×n sowie Eij = (δiµ δjν )µ,ν . Die Elementarmatrizen
gehen nämlich durch elementare Zeilenumformungen aus der Einheits-
matrix E hervor, haben also denselben Rang wie diese, also n; vgl.
3.2/3. Weiter unten werden wir die Inversen zu den aufgeführten Ele-
mentarmatrizen (die sich im Übrigen leicht “erraten” lassen) auch noch
explizit bestimmen.
Wir können die gerade beschriebene Argumentation dazu nutzen,
um das in Abschnitt 3.2 behandelte Gaußsche Eliminationsverfahren
auf die Invertierung von Matrizen auszudehnen. Man gehe etwa aus
von einer Matrix A ∈ K n×n . Dann kann man A gemäß 3.2/4 mit-
tels elementarer Zeilenumformungen auf Zeilenstufenform B bringen.
Nehmen wir nun A als invertierbar an, so gilt rg A = rg B = n ge-
mäß Korollar 7, und es stehen in der Situation von 3.2/4 die Elemente
β1 , . . . , βn gerade auf der Hauptdiagonalen, also:
β1 ∗ ∗ . . . ∗
0 β2 ∗ . . . ∗
B= . . .
. . ∗
0 0 . . . 0 βn
Man kann nun für i = 1, . . . , n jeweils die i-te Zeile mit βi−1 mul-
tiplizieren und dementsprechend annehmen, dass alle βi den Wert 1
haben. Sodann kann man Vielfache der n-ten Zeile von den übrigen
144 3. Matrizen
Zeilen subtrahieren und auf diese Weise erreichen, dass alle Elemen-
te in der n-ten Spalte oberhalb von βn zu Null werden. Entsprechend
kann man die übrigen Spalten behandeln, und es folgt, dass sich A im
Falle der Invertierbarkeit mittels elementarer Zeilenumformungen in
die Einheitsmatrix E überführen lässt. Jede solche Zeilenumformung
lässt sich interpretieren als Multiplikation mit einer Elementarmatrix
von links, wie wir in Abschnitt 3.2 gesehen haben. Wir finden daher
Elementarmatrizen S1 , . . . , Sr ∈ K n×n mit
Sr · . . . · S1 · A = E,
und Multiplikation mit A−1 von rechts ergibt A−1 = Sr · . . . · S1 . Indem
wir
A−1 = Sr · . . . · S1 · E
schreiben, sehen wir Folgendes: Diejenigen elementaren Zeilenumfor-
mungen, die A in die Einheitsmatrix E überführen, führen E selbst in
die Matrix A−1 über!
Das Verfahren zur Invertierung von Matrizen kann man daher wie
folgt beschreiben: Man bringe A mittels einer Folge elementarer Zeilen-
umformungen auf Zeilenstufenform und führe bei jedem Schritt die ent-
sprechende Zeilenumformung auch an der Einheitsmatrix durch. Wenn
man dann an der Zeilenstufenform rg A = n ablesen kann, ist A inver-
tierbar, und man fahre fort, bis man A in die Einheitsmatrix überführt
hat. Die aus der Einheitsmatrix durch die entsprechenden Umformun-
gen gewonnene Matrix ist dann die zu A inverse Matrix A−1 . Beispiels-
weise erkennt man auf diese Weise für α ∈ K, i 6= j:
−1
E + (α − 1)Eii = E + (α−1 − 1)Eii
(E + αEij )−1 = E − αEij
(E − Eii − Ejj + Eij + Eji )−1 = E − Eii − Ejj + Eij + Eji
Dabei ist E ∈ K n×n die Einheitsmatrix und Eij = (δµi δνj )µ,ν .
3.3 Matrizenringe und invertierbare Matrizen 145
Aufgaben
1. Es sei X eine Menge und R ein Ring mit 1. Man zeige, dass die Menge
Abb(X, R) aller Abbildungen X ✲ R unter der gewöhnlichen Addi-
tion bzw. Multiplikation R-wertiger Funktionen einen Ring bildet. Man
beschreibe die Einheitengruppe dieses Ringes.
146 3. Matrizen
5. Falls möglich schreibe man die folgenden Matrizen als Produkt von Ele-
mentarmatrizen:
1 0 0 1 1 1 1 1
1 1 0 3 0 1 1 1
4×4
1 1 1 4 , 0 0 1 1 ∈ R
1 0 1 2 0 0 0 1
mit
A B
rg = m,
C D
3.4 Basiswechsel
aX = Aid,Y,X · aY , aY = Aid,X,Y · aX .
Beweis. Indem man 3.1/9 auf f = idW ◦f ◦ idV anwendet, erhält man
Wir wollen nun noch einige Anwendungen zum Rang einer Matrix
geben.
f : Kn ✲ K m, a ✲ A · a.
rg(S · A · T ) = rg f = rg A
f : Kn ✲ K m, a ✲ A · a,
rgs (S · A · T ) = rgs A
Man benötigt hierfür außer den Resultaten 3.2/7 und 3.2/8 lediglich,
dass mit S ∈ GL(m, K) auch S t invertierbar ist, entsprechend für
T , was aber unmittelbar klar ist. Wählt man nun S und T so, dass
S · A · T die in Satz 8 angegebene einfache Gestalt besitzt, so gilt
natürlich rgs (S · A · T ) = rgz (S · A · T ), und es folgt die gewünschte
Beziehung
Aufgaben
1. Man zeige, dass die folgenden Systeme von Vektoren
X = (1, 1, 1, 2, 0), (1, 0, 2, 1, 0), (1, 1, 1, 2, 1), (1, 1, 2, 1, 0), (0, 1, 1, 2, 0) ,
Y = (1, 2, 3, 4, 4), (1, 1, 2, 3, 4), (1, 3, 4, 6, 7), (2, 3, 5, 6, 8), (0, 0, 1, 1, 1)
Für eine Matrix A = (αij )i,j ∈ K m×n und einen Vektor b = (b1 , . . . , bm )t
aus K m , den wir als Spaltenvektor auffassen wollen, nennt man
α11 x1 + . . . + α1n xn = b1
α21 x1 + . . . + α2n xn = b2
...
αm1 x1 + . . . + αmn xn = bm
152 3. Matrizen
oder, in Matrizenschreibweise,
A·x=b
ein lineares Gleichungssystem mit Koeffizienten αij ∈ K und den “Un-
bekannten” x1 , . . . , xn , bzw. x = (x1 , . . . , xn )t . Genauer versteht man
hierunter das Problem, alle x ∈ K n zu bestimmen, die die Gleichung
A · x = b erfüllen. Im Falle b = 0 heißt das Gleichungssystem homogen,
ansonsten inhomogen. Wir wollen eine spezielle Bezeichnung für den
Raum der Lösungen eines linearen Gleichungssystems einführen.
Wir können sofort eine triviale, aber sehr wichtige Feststellung tref-
fen, die Informationen über die Struktur solcher Lösungsräume liefert:
MA,b = f −1 (b).
Der Lösungsraum des Gleichungssystems ist daher ein affiner Unter-
raum von K n ; vgl. 2.2/11.
Für b = 0 folgt insbesondere MA,0 = ker f . In diesem Falle ist der
Lösungsraum sogar ein linearer Unterraum von K n .
Die Aussage des Lemmas ist von besonderem Nutzen, wenn man
ein konkret gegebenes homogenes lineares Gleichungssystem der Form
A · x = 0 explizit lösen möchte. Man kann nämlich das Gaußsche Eli-
minationsverfahren anwenden und A gemäß 3.2/4 mittels elementarer
Zeilenumformungen auf Zeilenstufenform bringen. Da solche Umfor-
mungen auch als Multiplikation von links mit Elementarmatrizen, also
invertierbaren Matrizen, interpretiert werden können, ändert sich der
Lösungsraum des betrachteten homogenen linearen Gleichungssystems
dabei nicht. Man darf daher ohne Beschränkung der Allgemeinheit an-
nehmen, dass A Zeilenstufenform besitzt. Um unsere Bezeichnungen
übersichtlich zu gestalten, wollen wir von A zu einer weiteren Matrix
A′ in Zeilenstufenform übergehen, bei der die einzelnen Stufen auf der
Hauptdiagonalen liegen, d. h. zu einer Matrix
α11 . . . . . . . . . . . . . . . . . . . . . . α1n
α22 . . . . . . . . . . . . . . . . . α2n
. . .
...
′
A =
0 α . . . α
rr rn
0 ... 0
...
0 ... 0
der Notation von 3.2/4 eines (bzw. keines) der dort positionierten Ele-
mente β1 , . . . , βr ∈ K ∗ enthalten. Um die Lösungen auch in diesem
Falle formelmäßig zu beschreiben, gehen wir von der entsprechenden
speziellen Zeilenstufenform von A aus, die nunmehr die Gestalt
1 j1 j2 ⊳ Spaltenindex ⊲ jr n
0 ... 0 1 ∗ ... ∗ 0 ∗ ... ∗ ... ∗ ... ∗ 0 ∗ ... ∗
0 ... 0 0 0 ... 0 1 ∗ ... ∗ ... ∗ ... ∗ 0 ∗ ... ∗
0 ... 0 0 0 ... 0 0 0 ... 0 ... ∗ ... ∗ 0 ∗ ... ∗
... ... ... ... ... ...
0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 ... 0 1 ∗ ... ∗
0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 ... 0 0 0 ... 0
... ... ... ... ... ...
0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 ... 0 0 0 ... 0
vj ′ = (ξ1j ′ , . . . , ξnj ′ )t , j ′ ∈ J ′,
mit
(
−αij ′ für i′ = ji mit i ∈ {1, . . . , r},
ξ
i′ j ′ = .
δi′ j ′ für i′ ∈ J ′
3.5 Lineare Gleichungssysteme 157
x3 + 2x4 = 0
x1 + 2x2 + x3 + 3x4 = 0
x1 + 2x2 + 2x3 + 5x4 = 0
x1 + 2x2 + x4 = 0,
x3 + 2x4 = 0
K4 ✲ K 2, (a1 , . . . , a4 )t ✲ (a2 , a4 )t ,
x2 = 1, x4 = 0 =⇒ x1 = −2, x3 = 0
x2 = 0, x4 = 1 =⇒ x1 = −1, x3 = −2
158 3. Matrizen
Insbesondere gilt dimK MA,0 = 2, und wir erkennen, wie bereits oben
angegeben,
MA,0 = (−2, 1, 0, 0)t , (−1, 0, −2, 1)t .
Als Nächstes wollen wir den Allgemeinfall behandeln, also inhomo-
gene lineare Gleichungssysteme des Typs A·x = b, wobei der Fall b = 0
nicht explizit ausgeschlossen werden soll. Im Folgenden bezeichnen wir
mit (A, b) ∈ K m×(n+1) diejenige Matrix, die aus A durch Hinzufügen
von b als (n + 1)-ter Spalte entsteht.
n = dimK (ker f ) + rg f,
3.5 Lineare Gleichungssysteme 159
Wir wollen noch etwas genauer auf die Struktur von Lösungsräu-
men inhomogener linearer Gleichungssysteme eingehen. Das nachfol-
gende Resultat zeigt dabei nochmals, dass es sich bei solchen Lösungs-
räumen um affine Unterräume handelt.
f : Kn ✲ K m, x ✲ A · x,
wobei MA,b = f −1 (b) gilt. Für v0 ∈ MA,b folgt dann mit 2.2/2
MA,b = f −1 f (v0 ) = v0 + ker f = v0 + MA,0 ,
wie behauptet.
Wir wollen nun noch zeigen, wie man mit Hilfe des Gaußschen Eli-
minationsverfahrens auch inhomogene lineare Gleichungssysteme lösen
160 3. Matrizen
Beweis. Indem man mit S bzw. S −1 von links multipliziert, sieht man,
dass A · x = b für x ∈ K n äquivalent zu S · A · x = S · b ist.
SA Sb
3.5 Lineare Gleichungssysteme 161
gegeben.
162 3. Matrizen
x1 + 2x2 + x4 = 0
x3 + 2x4 = 1
Aufgaben
gegeben sei. Man bestimme eine Basis von ker f . (AT 426)
6. Man betrachte in R6 die linearen Unterräume
Ein Zurückverfolgen der Rechnung zeigt, dass die Spalten von A unter
der Bedingung α11 6= 0 genau dann linear abhängig sind, wenn der Aus-
druck in (∗) verschwindet. Man kann nun exakt die gleiche Rechnung
durchführen
• für α21 6= 0, wenn man die beiden Zeilen von A vertauscht,
• für α12 6= 0, wenn man die beiden Spalten von A vertauscht,
• für α22 6= 0, wenn man die beiden Spalten und Zeilen von A
vertauscht.
Da bei allen diesen Vertauschungen der Ausdruck in (∗) bis auf das
Vorzeichen unverändert bleibt und da dieser natürlich auch im Falle
A = 0 verschwindet, können wir aus unserer Rechnung ablesen:
Eine (beliebige) Matrix A = (αij ) ∈ K 2×2 hat genau dann maxi-
malen Rang, wenn der Ausdruck det(A) := α11 α22 − α21 α12 , den man
als Determinante von A bezeichnet, nicht verschwindet.
Gegenüber konventionellen Betrachtungen bietet die Determinante
det(A) den ganz wesentlichen Vorteil, dass mit ihrer Hilfe die Maxi-
malität des Rangs von A in direkter Weise von den Koeffizienten αij
der Matrix A abgelesen werden kann, ohne dass Fallunterscheidungen
zu beachten sind. Dieses Phänomen haben wir schon im Rahmen der
Einführung zu Kapitel 3 beobachten können. Dort hatten wir für
α11 α12 2×2 β1
A= ∈K , b= ∈ K 2,
α21 α22 β2
4.1 Permutationen
Wir hatten in Abschnitt 1.2 gesehen, dass für eine Menge X die bijek-
tiven Selbstabbildungen X ✲ X eine Gruppe G bilden, wenn man
die Komposition von Abbildungen als Verknüpfung nimmt. Die iden-
tische Abbildung id ∈ G ist das Einselement, und das inverse Element
zu einem Element f : X ✲ X von G wird gegeben durch die inverse
−1
Abbildung f : X ✲ X.
172 4. Determinanten
Wir wollen hier für eine natürliche Zahl n speziell die Menge
X = {1, . . . , n} betrachten, wobei wir X im Falle n = 0 als die leere
Menge annehmen. Für die zugehörige Gruppe der bijektiven Selbstab-
bildungen von X schreibt man dann Sn und nennt dies die symmetri-
sche Gruppe oder die Permutationsgruppe zum Index n. Die Elemente
von Sn heißen Permutationen der Zahlen 1, . . . , n, da sie sozusagen
diese Elemente in ihrer Reihenfolge vertauschen. Gilt für eine Permu-
tation σ ∈ Sn etwa σ(i) = ai für i = 1, . . . , n, so schreibt man auch
1 ... n
σ= .
a1 . . . an
σ : {1, . . . , n} ✲ {1, . . . , n}
von σ(1) hat man zunächst n Möglichkeiten, denn für σ(1) kann man
jedes Element aus {1, . . . , n} nehmen. Für die Wahl von σ(2) verblei-
ben dann noch n − 1 Möglichkeiten, denn man muss σ(2) ∈ {1, . . . , n}
verschieden von σ(1) wählen, da man eine injektive Abbildung kon-
struieren möchte. Bei der Festlegung von σ(3) hat man noch n − 2
Möglichkeiten und so weiter, bis man schließlich bei der Wahl von σ(n)
lediglich noch eine Möglichkeit hat. Indem man das Produkt
Q über die
einzelnen Anzahlen bildet, erhält man insgesamt n! = ni=1 i als An-
zahl der Möglichkeiten, eine injektive Selbstabbildung von {1, . . . , n}
zu erklären.
Beweis. Wir schließen mit fallender Induktion nach r(π), wobei r(π)
maximal in {0, 1, . . . , n} gewählt sei mit der Eigenschaft π(i) = i für
i = 1, . . . , r(π). Für r(π) = n gilt π = id, und dies ist ein leeres
Produkt von Transpositionen. Gilt andererseits r = r(π) < n, so folgt
notwendig π(r + 1) > r + 1. Setzen wir τ1 = (r + 1, π(r + 1)), so bildet
das Produkt τ1 π die Elemente 1, . . . , r + 1 identisch auf sich selbst ab,
erfüllt also r(τ1 π) > r(π), und ist somit nach Induktionsvoraussetzung
ein Produkt von Transpositionen, etwa τ1 π = τ2 . . . τs . Multiplikation
mit τ1 = τ1−1 von links liefert dann wie gewünscht π = τ1 . . . τs .
eine Permutation π nicht gerade und ungerade zugleich sein kann. Als
Hilfsmittel führen wir das sogenannte Signum von π ein.
und folglich sgn π = ±1. Genauer erhält man sgn π = (−1)s , wobei s
gleich der Anzahl der Faktoren auf der rechten Seite ist, die negativ
sind, also gleich der Anzahl der Fehlstände in der Folge π(1), . . . , π(n).
Für eine Transposition π = (i, j) mit i < j, also
1 ... i − 1 i i + 1 ... j − 1 j j + 1 ... n
π= ,
1 ... i − 1 j i + 1 ... j − 1 i j + 1 ... n
wie behauptet.
176 4. Determinanten
Sn − An = τ An = An τ
4.1 Permutationen 177
Beweis. Es ist nur zeigen, dass sich die ungeraden Permutationen aus
Sn in der Form τ An bzw. An τ beschreiben lassen. Ist τ ungerade, so
sieht man mittels Satz 7, dass τ An und An τ in Sn − An enthalten sind.
Ist umgekehrt π ∈ Sn − An , so sind τ −1 ◦ π und π ◦ τ −1 gerade, woraus
π ∈ τ An bzw. π ∈ An τ folgt.
Aufgaben
und π alle übrigen Elemente von {1, . . . , n} fest lässt. Man bestimme
sgn π für einen r-Zyklus π ∈ Sn . (AT 428)
3. Man zeige, dass jedes Element π ∈ Sn endliche Ordnung besitzt, d. h.
dass es ein r ∈ N − {0} gibt mit π r = 1.
4. Man zeige: Ist N ⊂ Sn ein Normalteiler, der eine Transposition enthält,
so gilt bereits N = Sn . (AT 430)
5. Man bestimme die Anzahl der Elemente der alternierenden Gruppe An .
6. Man zeige für eine Gruppe G und eine Untergruppe N ⊂ G, dass N
bereits dann ein Normalteiler in G ist, wenn gN ⊂ N g für alle g ∈ G
gilt.
7. Für eine Gruppe G bezeichne S(G) die Menge aller bijektiven Abbil-
dungen von G nach G. Man zeige:
(i) S(G) ist eine Gruppe unter der Komposition von Abbildungen.
(ii) Es existiert ein injektiver Gruppenhomomorphismus G ✲ S(G).
178 4. Determinanten
4.2 Determinantenfunktionen
Beweis. Es ist nur die Implikation (i)=⇒ (ii) zu zeigen. Seien al-
so a1 , . . . , an linear abhängig. Dann lässt sich einer dieser Vekto-
4.2 Determinantenfunktionen 179
ren, etwa
Pn a1 , als Linearkombination der restlichen darstellen, also
a1 = i=2 βi ai , und es folgt aus (i) unter Benutzung der Multilineari-
tät von ∆
n
X
∆(a1 , . . . , an ) = βi ∆(ai , a2 , . . . , an ) = 0.
i=2
Bemerkung 3. Es sei ∆ eine Determinantenfunktion auf V . Für
Vektoren a1 , . . . , an ∈ V und Indizes 1 ≤ i < j ≤ n gilt dann:
(i) ∆( . . . ai . . . aj . . . ) = −∆( . . . aj . . . ai . . . ), d. h. ∆ ändert
bei Vertauschung zweier verschiedener Argumente das Vorzeichen.
(ii) ∆(aπ(1) , . . . , aπ(n) ) = sgn π · ∆(a1 , . . . , an ) für π ∈ Sn .
(iii) ∆( . . . ai + αaj . . . aj . . . ) = ∆( . . . ai . . . aj . . . ) für α ∈ K,
d. h. ∆ bleibt invariant, wenn man zum i-ten Argument ein skalares
Vielfaches eines weiteren Arguments addiert.
0= ∆( ... ai + aj . . . ai + aj . . . )
= ∆( ... ai . . . ai + aj . . . ) + ∆( . . . aj . . . ai + aj . . . )
= ∆( ... ai . . . ai . . . ) + ∆( . . . ai . . . aj . . . )
+ ∆( ... aj . . . ai . . . ) + ∆( . . . aj . . . aj . . . )
= ∆( ... ai . . . aj . . . ) + ∆( . . . aj . . . ai . . . )
Lemma 4. Für Matrizen A = (αij )i,j ∈ K n×n definiere man die De-
terminante von A durch
X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n .
π∈Sn
Dann ist det, aufgefasst als Funktion in den n Spalten der Matrix A,
eine Determinantenfunktion auf V = K n , und es gilt det(E) = 1 für
die Einheitsmatrix E ∈ K n×n . Insbesondere ist die Determinanten-
funktion det nicht-trivial.
Beweis. Zunächst ist die Funktion det multilinear in den Spalten der
Matrix A, da ein Produkt c1 · . . . · cn linear in jedem seiner Faktoren ist.
Weiter ist zu zeigen, dass det(A) = 0 gilt, sofern zwei Spalten in A iden-
tisch sind. Seien also a1 , . . . , an die Spalten von A. Gilt dann ai = aj
für zwei Indizes i 6= j, so kann man die Transposition τ = (i, j) ∈ Sn
betrachten. Durchläuft π die geraden Permutationen in Sn , so durch-
läuft π ◦ τ nach 4.1/9 alle ungeraden Permutationen in Sn . Daher folgt
det(a1 , . . . , ai , . . . , aj , . . . , an )
X
= απ(1),1 · . . . · απ(i),i · . . . · απ(j),j · . . . · απ(n),n
π∈An
X
− απ◦τ (1),1 · . . . · απ◦τ (i),i · . . . · απ◦τ (j),j · . . . · απ◦τ (n),n
π∈An
= 0,
denn es gilt
απ◦τ (i),i = απ(j),i = απ(j),j .
απ◦τ (j),j = απ(i),j = απ(i),i ,
Im Übrigen werden wir in 7.2/9 und 7.2/10 sehen, dass der Betrag
der Determinante det(A) geometrisch als das Volumen des von den
Spaltenvektoren von A in K n aufgespannten Parallelotops interpretiert
werden kann.
Als Nächstes wollen wir einsehen, dass das soeben gegebene Bei-
spiel einer Determinantenfunktion auf ganz natürliche Weise entsteht.
∆(a1 , . . . , an )
Xn
= αi1 ,1 . . . αin ,n · ∆(xi1 , . . . , xin )
i1 ,...,in =1
X
= απ(1),1 . . . απ(n),n · ∆(xπ(1) , . . . , xπ(n) )
π∈Sn
X
= sgn π · απ(1),1 . . . απ(n),n · ∆(x1 , . . . , xn )
π∈Sn
Beweis. Es ist nur die Implikation (ii) =⇒ (i) zu begründen, und diese
ergibt sich aus der Formel in Lemma 5.
Aufgaben
1. Es seien V ein n-dimensionaler K-Vektorraum, U ⊂ V ein r-dimensio-
naler linearer Unterraum und xr+1 , . . . , xn ein fest gegebenes System
von Vektoren in V . Für eine Determinantenfunktion ∆ : V n ✲ K
zeige man, dass sich durch
Für eine Matrix A = (αij )i,j ∈ K n×n haben wir in 4.2/4 deren Deter-
minante durch die Formel
X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n
π∈Sn
erklärt. Diese Formel ergibt für n = 0 als Determinante der leeren Ma-
trix den Wert 1. Im Folgenden wollen wir nun allgemeiner die Deter-
minante von Endomorphismen endlich-dimensionaler K-Vektorräume
einführen.
184 4. Determinanten
gilt.
det(f ) = det(Af,X,X )
für jede Matrix Af,X,X , die f bezüglich einer Basis X von V beschreibt.
Insbesondere erhält man det(f ) = 1 im Falle V = 0.
= det(At ).
4.3 Determinanten von Matrizen und Endomorphismen 187
Beweis. Gemäß 3.2/10 dürfen wir den Rang von Matrizen wahlweise
als Spalten- oder Zeilenrang interpretieren. Insbesondere können wir
in A ein linear unabhängiges System von r Spalten auswählen. Durch
Streichen der restlichen Spalten entsteht eine Untermatrix A1 ∈ K m×r
von A mit Rang r. Entsprechend können wir in A1 ein linear unabhän-
giges System von r Zeilen auswählen. Indem wir die restlichen Zeilen
von A1 streichen, entsteht eine quadratische Untermatrix A′ ∈ K r×r
von A1 bzw. A mit Rang r. Diese ist nach 3.3/7 invertierbar und erfüllt
det(A′ ) 6= 0 gemäß Satz 4.
Ist andererseits A′ ∈ K s×s eine quadratische Untermatrix von A
mit einer Spaltenzahl s > r = rg A, so sind die Spalten von A′ notwen-
digerweise linear abhängig, denn jeweils s Spalten von A sind linear
abhängig. Es folgt dann det(A′ ) = 0, ebenfalls mit Satz 4.
Beweis. Nach Satz 4 gilt det(A) = det(At ). Wir können uns daher auf
die Betrachtung elementarer Spaltenumformungen beschränken. Dann
188 4. Determinanten
= det(A11 ) · det(A22 ),
wie behauptet.
190 4. Determinanten
eine Determinantenfunktion in den Zeilen von A22 ist, wenn wir diese
als variabel ansehen und benutzen, dass die Determinante einer Matrix
gleich der Determinante ihrer Transponierten ist. Mit 4.2/5 folgt daher
die Gleichung
Em A12 Em A12
det = det(A22 ) · det .
0 A22 0 En
Da die Matrix
Em A12
0 En
nach Beispiel (1) die Determinante 1 besitzt, folgt wie gewünscht
Die Art der Summanden kann man sich dabei an folgendem Schema
(bezeichnet als Regel von Sarrus) in Erinnerung bringen:
Man hat also zur Berechnung von det(αij )i,j=1,2,3 die Produkte über die
Elemente der 3 von links oben nach rechts unten verlaufenden Diago-
nalen zu addieren und davon die Produkte über die Elemente der 3 von
links unten nach rechts oben verlaufenden Diagonalen zu subtrahieren.
Aufgaben
1. Für A ∈ K n×n mit At = −A und ungeradem n zeige man: Es gilt
det(A) = 0 oder 1 + 1 = 0 in K.
4.3 Determinanten von Matrizen und Endomorphismen 193
Wir wollen zunächst zu einer Matrix A = (αij )i,j ∈ K n×n die soge-
nannte adjungierte Matrix Aad erklären. Hierzu konstruieren wir für
beliebige Indizes i, j ∈ {1, . . . , n} eine (n × n)-Matrix Aij aus A, in-
dem wir alle Elemente αi1 , . . . , αin der i-ten Zeile und alle Elemente
α1j , . . . , αnj der j-ten Spalte von A durch 0 ersetzen, bis auf das Ele-
ment αij im Schnittpunkt von i-ter Zeile und j-ter Spalte, welches wir
zu 1 abändern, also:
α11 . . . α1,j−1 0 α1,j+1 . . . α1n
.. ... .. .. .. ... ..
αi−1,1 . . . αi−1,j−1 0 αi−1,j+1 . . . αi−1,n
Aij = 0 . . . 0 1 0 . . . 0
α . . . α 0 α . . . α
i+1,1 i+1,j−1 i+1,j+1 i+1,n
.. ... .. .. .. ... ..
αn1 . . . αn,j−1 0 αn,j+1 . . . αnn
Weiter werde die Matrix A′ij ∈ K (n−1)×(n−1) durch Streichen der i-ten
Zeile und der j-ten Spalte von Aij erklärt.
det(A11 ) = 1 · det(A′11 ).
Den Allgemeinfall von (i) führt man leicht hierauf zurück, indem man
in Aij die i-te Zeile mit allen vorhergehenden Zeilen sowie die j-te Spal-
te mit allen vorhergehenden Spalten vertauscht. Dies sind insgesamt
4.4 Die Cramersche Regel 195
Definition 2. Für eine Matrix A = (αij )i,j ∈ K n×n und für Indizes
1 ≤ i, j ≤ n bilde man die Matrizen Aij , A′ij wie vorstehend beschrie-
ben. Dann heißt
der Cofaktor von A zum Indexpaar (i, j) oder, in nicht ganz korrekter
Sprechweise, der Cofaktor von A zum Koeffizienten αij . Die Matrix
à = (α̃ij )i,j wird als Matrix der Cofaktoren von A bezeichnet und
Satz 3. Sei A = (αij )i,j ∈ K n×n , und sei E ∈ K n×n die Einheitsma-
trix. Dann gilt
Aad · A = A · Aad = det(A) · E.
In ausführlicher Schreibweise bedeutet diese Identität:
n
X
α̃ji αjk = δik · det(A),
j=1
Xn
αij α̃kj = δik · det(A),
j=1
für 1 ≤ i, k ≤ n.
196 4. Determinanten
Dies sind die sogenannten Formeln zur Entwicklung von det(A) nach
der j-ten Spalte bzw. i-ten Zeile.
4.4 Die Cramersche Regel 197
Beweis. Wir benutzen die Formel A−1 = det(A)−1 · Ãt aus Korol-
lar 5. Dann berechnet sich die i-te Komponente von A−1 · b für
b = (β1 , . . . , βn )t mittels Bemerkung 1 zu
n
X n
X
−1 −1
det(A) · α̃ji βj = det(A) · det(Aji )βj
j=1 j=1
n
X
= det(A)−1 · det(a1 , . . . , ai−1 , βj ej , ai+1 , . . . , an )
j=1
−1
= det(A) · det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ).
Aufgaben
1. Man löse das folgende lineare Gleichungssystem mittels Cramerscher
Regel:
Insbesondere folgt aus (i), dass es im Falle r > dimK V nur triviale
multilineare alternierende Abbildungen V r ✲ W gibt. Wir wollen
V
im Folgenden zu V und r ∈ N einen K-Vektorraum r V konstruieren,
derart dass die alternierenden multilinearen Abbildungen V r ✲W
in einen beliebigen K-Vektorraum
Vr W hinein in bijektiver Weise den
K-linearen Abbildungen V ✲ W entsprechen.
Dass in der Situation des Satzes zwei Paare (D, σ) und (D′ , σ ′ ),
welche die genannte universelle Abbildungseigenschaft besitzen, in ka-
nonischer Weise isomorph sind, kann man leicht einsehen. Es gibt dann
nämlich eine eindeutig bestimmte K-lineare Abbildung ι : D ✲ D′
′
mit σ = ι ◦ σ, sowie eine eindeutig bestimmte K-lineare Abbildung
ι′ : D ′ ✲ D mit σ = ι′ ◦ σ ′ . Also hat man
σ = ι′ ◦ σ ′ = ι′ ◦ ι ◦ σ, σ ′ = ι ◦ σ = ι ◦ ι′ ◦ σ ′ ,
und damit
idD ◦σ = (ι′ ◦ ι) ◦ σ, idD′ ◦σ ′ = (ι ◦ ι′ ) ◦ σ ′ .
200 4. Determinanten
✲
Vr ✲
σ: V r V, (a1 , . . . , ar ) a1 ∧ . . . ∧ ar ,
ev = (δv,v′ )v′ ∈V r , v ∈ V r,
bildet eine Basis von D̂, wobei wir für Tupel v = (a1 , . . . , ar ) ∈ V r
anstelle von ev auch ausführlicher e(a1 ,...,ar ) schreiben werden.
202 4. Determinanten
Man vergleiche hierzu Satz 2.1/7 (ii), den man in einer Version für
nicht notwendig endliche Basen benötigt. Es entsteht somit das folgen-
de kommutative Diagramm, wobei die Existenz der Abbildung ϕ noch
zu begründen ist:
D̂
✒ ❅
ϕ̂ ❅
σ
❘
❅
Vr ✲ D = D̂/R
❅
Φ❅ ϕ
❘ ❄✠
❅
W
Aus der Eigenschaft, dass Φ multilinear und alternierend ist, ergibt
sich sofort, dass ker ϕ̂ alle erzeugenden Elemente von R, also R selbst
enthält. Mittels des Homomorphiesatzes 2.2/8 folgt dann, dass ϕ̂ über
4.5 Äußere Produkte* 203
Beweis. Der Fall r = 0 ist trivial; sei also r > 0. Als alternierende mul-
tilineare Abbildung faktorisiert detX,H : V r ✲ K über eine K-lineare
Abbildung V
dX,H : r V ✲ K,
und es gilt dX,H (xH ′ ) = δH,H ′ für H, H ′ ∈ Zrn , wie man leicht ein-
sieht. Letztere Gleichungen können aber nur dann bestehen, wenn die
Elemente xH , H ∈ Zrn , linear unabhängig sind. Dass weiter V die xH
ein Erzeugendensystem und damit insgesamt eine Basis von r V bil-
den, folgt dann aus (ii), da die Elemente des Typs a1 ∧ . . . ∧ ar ein
Erzeugendensystem bilden. P
Es bleibt also noch Aussage (ii) nachzuweisen. Für aj = ni=1 αij xi ,
j = 1, . . . , r, mit Koeffizienten αij ∈ K kann man wie folgt rechnen:
n
X
a1 ∧ . . . ∧ ar = αi1 ,1 . . . αir ,r · xi1 ∧ . . . ∧ xir
i1 ,...,ir =1
X X
= sgn(π)αhπ(1) ,1 . . . αhπ(r) ,r · xH
H∈Zrn π∈Sr
X
= detX,H (a1 , . . . , ar ) · xH .
H∈Zrn
Der gerade gegebene Beweis zeigt im Übrigen, dass die von den
alternierenden multilinearen Abbildungen : Vr ✲ K indu-
Vr detX,H✲
zierten K-linearen
Vr ∗Abbildungen dX,H : V K eine Basis des
Dualraums
V ( V ) bilden, nämlich gerade die duale Basis zu der Ba-
sis von r V , die von den Elementen xH gebildet wird.
4.5 Äußere Produkte* 205
Wir wollen nun noch zeigen, dass man das Dachprodukt “ ∧ ” als
Produkt in einem geeigneten Ring auffassen kann.
Vr
Familien (λr )r∈N
V mit λ r ∈ V sowie λr = 0 für fast alle r ∈ N be-
steht. Es ist V in natürlicher Weise ein K-Vektorraum, und man
kann
Vr zeigen,
Vs dass die in LemmaV6 betrachteten Abbildungen des Typs
Vr+s
V × VV ✲ V auf V eine MultiplikationVdefinieren, der-
0
art dass V ein Ring wird. Dabei V erkennt man K = V in kanoni-
scher Weise als UnterringVvon V und spricht von einer K-Algebra.
Genauer bezeichnet man V als die äußere Algebra zu V .
Wir wollen hier die Produktbildung aus Lemma 6 lediglich da-
zu benutzen, um den sogenannten allgemeinen Laplaceschen Entwick-
lungssatz für Determinanten herzuleiten. Wir betrachten dazu wieder
einen K-Vektorraum V mit Basis X = (x1 , . . . , xn ) und verwenden
eine Notation wie in Satz 4, insbesondere sei an die alternierenden
multilinearen Abbildungen detX,H : V r ✲ K zu Elementen H ∈ Z n
r
erinnert. Dabei stimmt detX,{1,...,n} mit der in 4.2/8 eingeführten De-
terminantenfunktion detX überein. Weiter sei H † ∈ Zn−r n
für H ∈ Zrn
erklärt als Komplement {1, . . . , n} − H, und man setze ρH = (−1)ν ,
wobei ν die Anzahl aller Paare (h, h† ) ∈ H ×H † mit h > h† bezeichnet.
Beweis. Unter Verwendung von Satz 4 und Lemma 6 kann man wie
folgt rechnen:
detX (a1 , . . . , an ) · x1 ∧ . . . ∧ xn = a1 ∧ . . . ∧ an
= (a1 ∧ . . . ∧ ar ) ∧ (ar+1 ∧ . . . ∧ an )
X X
= detX,H (a1 , . . . , ar ) · xH ∧ detX,H (ar+1 , . . . , an ) · xH
H∈Zrn n
H∈Zn−r
X
= detX,H (a1 , . . . , ar ) · detX,H † (ar+1 , . . . , an ) · xH ∧ xH †
H∈Zrn
X
= ρH · detX,H (a1 , . . . , ar ) · detX,H † (ar+1 , . . . , an ) · x1 ∧ . . . ∧ xn
H∈Zrn
V
Da x1 ∧ . . . ∧ xn eine Basis von n V bildet, insbesondere also von Null
verschieden ist, ergibt sich die gewünschte Beziehung.
208 4. Determinanten
Aufgaben
1. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unterraum. Man
formuliere eine universelle Eigenschaft, die den Quotientenvektorraum
V /U charakterisiert.
2. Es sei V ein K-Vektorraum. Man zeige, Vektoren a1 , . . . , ar ∈ V Vsind
genau dann linear unabhängig, wenn das Element a1 ∧ . . . ∧ ar ∈ r V
nicht trivial ist. (AT 436)
3. Es sei f : V ✲ W eine lineare Abbildung zwischen K-Vektorräumen.
Man zeige für r ∈ N, dass die Abbildung
Vr V Vr
f: rV ✲ W
(∗) τ r + c1 τ r−1 + . . . + cr = 0
(∗∗) tr + c1 tr−1 + . . . + cr
5.1 Ringe
Bereits im Abschnitt 3.3 hatten wir Ringe betrachtet, und zwar zu einer
natürlichen Zahl n ∈ N den Matrizenring K n×n über einem Körper K,
sowie zu einem K-Vektorraum V den Endomorphismenring EndK (V ).
Um bestimmte Eigenschaften von Elementen in K n×n oder EndK (V )
genauer zu beschreiben, ist es zweckmäßig, wie oben angedeutet, so-
genannte Polynomringe zu verwenden. Das Studium dieser Ringe ist
zentrales Thema im vorliegenden Abschnitt. Wir beginnen jedoch mit
der Zusammenstellung einiger Eigenschaften allgemeiner Ringe, wobei
wir uns grundsätzlich auf Ringe mit Eins beschränken. Wenn wir also
im Folgenden von einem Ring sprechen, so ist damit stets ein Ring mit
Eins im Sinne von 3.3/1 gemeint. Mit anderen Worten, wir werden mit
der folgenden Definition eines Ringes arbeiten:
(a · b) · c = a · (b · c) für a, b, c ∈ R.
a · (b + c) = a · b + a · c, (a + b) · c = a · c + b · c.
Es ist klar, dass das Einselement 1 eines Ringes durch seine definie-
rende Eigenschaft eindeutig bestimmt ist. Als naheliegendes Beispiel
eines kommutativen Rings kann man den Ring Z der ganzen Zahlen
betrachten. Im Übrigen ist jeder Körper, also insbesondere Q, R oder
C, ein kommutativer Ring. Wie schon in Abschnitt 3.3 definiert, heißt
ein Element a eines Ringes R eine Einheit, wenn es ein Element b ∈ R
mit ab = ba = 1 gibt. Die Menge R∗ aller Einheiten von R bildet eine
Gruppe bezüglich der Multiplikation. Für 1 6= 0 gilt R∗ ⊂ R − {0},
wobei dies im Allgemeinen eine echte Inklusion ist. Genauer ist die
Gleichung R∗ = R − {0} äquivalent zu der Bedingung, dass R ein Kör-
per ist, zumindest wenn man R als kommutativen Ring voraussetzt. Als
triviales Beispiel eines Rings hat man den sogenannten Nullring 0. Die-
ser besteht nur aus einem Element 0 mit den Verknüpfungen 0 + 0 = 0
und 0 · 0 = 0. Hier ist das Element 0 ein Null- und Einselement zu-
gleich, so dass wir 1 = 0 schreiben können. Der Nullring ist der einzige
Ring, in dem diese Gleichung gilt.
Bei dem Matrizenring K n×n über einem Körper K bzw. dem En-
domorphismenring EndK (V ) eines K-Vektorraums V handelt es sich
für n ≥ 2 bzw. dimK (V ) ≥ 2 um nicht-kommutative Ringe; vgl.
Abschnitt 3.3. Als weiteres Beispiel kann man für einen Ring R des-
sen n-faches kartesisches Produkt Rn als Ring betrachten, indem man
Addition und Multiplikation komponentenweise erklärt:
dass dieser Ring nicht-triviale Nullteiler besitzt. Dabei heißt ein Ele-
ment a eines Rings ein Nullteiler, wenn es ein Element b 6= 0 dieses
Rings mit a · b = 0 oder b · a = 0 gibt. Man nennt einen kommutativen
214 5. Polynome
X i
X
ci := aµ bν = aµ bi−µ
i=µ+ν µ=0
Häufig spricht man einfach von A als R-Algebra, ohne den Homo-
morphismus ϕ : R ✲ A explizit zu erwähnen. Entsprechend schreibt
man r · a anstelle von ϕ(r) · a für Elemente r ∈ R, a ∈ A, wobei der
definierende Homomorphismus R ✲ A dann durch r ✲ r · 1A
gegeben ist. Wenn dieser nicht injektiv ist, so darf man allerdings statt
218 5. Polynome
f ✲ f (t),
Beweis. P
Ist Φ ein R-Algebrahomomorphismus der geforderten Art, so
gilt für i∈N ai T i ∈ R⌈⌊T ⌉⌋
X X X X
i
Φ ai T = Φ(ai T i ) = ai Φ(T )i = ai ti .
i∈N i∈N i∈N i∈N
Man beachte dabei, dass wir die Vertauschbarkeit von t mit den (Bil-
dern der) Koeffizienten bi in A benutzt haben.
bilden, der τ anstelle von T einsetzt. Dabei ist τ i natürlich erklärt als
i-fache Komposition
P τ ◦ . . . ◦ τ von τ mit sich selber, und das Bild eines
Polynoms i∈N ai T ∈ K⌈⌊T ⌉⌋ unter Φτ ergibt sich als Endomorphismus
i
X X
ai τ i : V ✲ V, v ✲ ai τ i (v).
i∈N i∈N
p + q: K ✲ K, t ✲ p(t) + q(t),
p · q: K ✲ K, t ✲ p(t) · q(t).
K ✲ A, α ✲ α · 1A ,
f = (T − α1 ) . . . (T − αq ) ∈ K⌈⌊T ⌉⌋
Wir wollen nun noch Ideale und Unterringe von Ringen einfüh-
ren, Begriffe, die im Zusammenhang mit Ringhomomorphismen von
Bedeutung sind.
ein Ideal ist, wobei ϕ genau dann injektiv ist, wenn ker ϕ mit dem
Nullideal übereinstimmt, d. h. nur aus dem Nullelement besteht. Ist R
5.1 Ringe 223
a ∼ b ⇐⇒ a − b ∈ a
a − c = (a − b) + (b − c) ∈ a,
⌈⌊a⌉⌋ := {b ∈ R ; b ∼ a} = a + a
Dabei ist zu verifizieren, dass die Klasse ⌈⌊a + b⌉⌋ bzw. ⌈⌊a · b⌉⌋ nicht
von der Wahl der Repräsentanten a und b der betrachteten Klassen
⌈⌊a⌉⌋, ⌈⌊b⌉⌋ abhängt. Gelte etwa ⌈⌊a⌉⌋ = ⌈⌊a′ ⌉⌋ und ⌈⌊b⌉⌋ = ⌈⌊b′ ⌉⌋. Dann folgt
a − a′ , b − b′ ∈ a und damit
π: R ✲ R/a, a ✲ ⌈⌊a⌉⌋,
kommutiert. Dabei ist ϕ genau dann injektiv, wenn a = ker ϕ gilt und
genau dann surjektiv, wenn ϕ surjektiv ist.
Aufgaben
R sei stets ein kommutativer Ring.
1. Es sei t ∈ R und Φ : R⌈⌊T ⌉⌋ ✲ R, f ✲ f (t), derjenige Homomor-
phismus, der t anstelle der Variablen T einsetzt. Man zeige (AT 440):
ker Φ = R⌈⌊T ⌉⌋ · (T − t)
(Hinweis: Man reduziere auf den Fall t = 0, indem man den Einset-
zungshomomorphismus R⌈⌊T ⌉⌋ ✲ R⌈⌊T ⌉⌋ betrachtet, der T durch T + t
ersetzt.)
2. Es sei V ein nicht-trivialer Vektorraum über einem Körper K. Zu einem
Endomorphismus ϕ ∈ EndK (V ) betrachte man den Einsetzungshomo-
morphismus Φ : K⌈⌊T ⌉⌋ ✲ EndK (V ), der ϕ anstelle von T einsetzt.
Man bestimme ker Φ in den Fällen ϕ = id und ϕ = 0. (AT 442)
3. Es bezeichne RN die Menge aller Folgen (ai )i∈N von Elementen ai ∈ R.
(i) Man verwende die gleichen Formeln wie im Falle des Polynomrings
einer Variablen über R, um anstelle von R(N) auf RN die Struktur
eines Ringes zu erklären. Dieser Ring wird mit R⌈⌊⌈⌊T ⌋⌉⌋⌉ bezeichnet
und heißt Ring der formalen Potenzreihen einer Variablen P∞ überi
R. Seine Elemente lassen sich als unendliche Reihen i=0 ai T
darstellen.
P
(ii) Es sei q ∈ R⌈⌊⌈⌊T ⌉⌋⌉⌋ · T . Man zeige, dass ∞ n
n=0 q zu einem wohlde-
finierten Element f ∈ R⌈⌊⌈⌊T ⌉⌋⌉⌋ Anlass gibt und dass f · (1 − q) = 1
gilt.
(iii) Man bestimme die Gruppe aller Einheiten in R⌈⌊⌈⌊T ⌉⌋⌋⌉.
4. Es seien a, b ⊂ R Ideale. Man zeige, dass die folgenden Teilmengen von
R wiederum Ideale bilden:
(i) a + b = {a + b ; a ∈ a, b ∈ b}
(ii) a · b = Menge aller endlichen Summen von Produkten a · b mit
a ∈ a und b ∈ b
(iii) a ∩ b
226 5. Polynome
5. Man zeige, dass R genau dann ein Körper ist, wenn R genau zwei ver-
schiedene Ideale besitzt.
6. Für ein Ideal a ⊂ R zeige man, dass die Menge aller Elemente a ∈ R,
zu denen es ein n ∈ N mit an ∈ a gibt, ebenfalls wieder ein Ideal in R
bildet. Dieses wird mit rad a bezeichnet und heißt das Nilradikal von a.
(AT 443)
7. Für eine Familie (ai )i∈I von Elementen in R zeige man:
(i) Es existiert ein kleinstes Ideal a ⊂ R mit ai ∈ a für alle i ∈ I.
P
(ii) Es gilt a = { i∈I ri ai ; ri ∈ R, ri = 0 für fast alle i ∈ I}.
Man nennt a das von den Elementen ai , i ∈ I, in R erzeugte Ideal.
8. (Isomorphiesatz ) Es seien a ⊂ b ⊂ R Ideale. Man zeige:
(R/a)/(b/a) ∼✲ R/b.
an dieses Verfahren, wobei wir davon ausgehen, dass die Division mit
Rest im Ring Z der ganzen Zahlen wohlbekannt ist.
m = grad f ≥ grad g = n,
so sei a (bzw. b) der höchste Koeffizient von f (bzw. g), und man setze
a
q1 := · T m−n , f1 := f − q1 g.
b
Dann gilt
Im Falle grad f1 < grad g erhält man die gewünschte Zerlegung mit
q = q1 und r = f1 . Falls aber grad f1 ≥ grad g gilt, so kann man nach
dem gerade beschriebenen Verfahren fortfahren und eine Zerlegung
f = (q1 + . . . + qk )g + fk
0 = (q − q ′ )g + (r − r′ ) bzw. (q − q ′ )g = r′ − r.
Satz 6. Es sei R ein euklidischer Ring. Dann ist R auch ein Haupt-
idealring.
Es ist also a genau dann ein Teiler von b, wenn b ∈ (a) bzw.
(b) ⊂ (a) gilt. Beispielsweise teilt T + 1 das Polynom T 2 − 1 in K⌈⌊T ⌉⌋,
und man hat a | b sowie b | a, falls a und b assoziiert sind. Genauer kann
man feststellen:
230 5. Polynome
Beweis. Wir zeigen lediglich, dass aus (ii) Bedingung (iii) folgt, alle
anderen Implikationen ergeben sich mittels direkter Verifikation aus
Definition 8. Gelte also (a) = (b). Dann gibt es Elemente c, d ∈ R mit
ac = b und a = bd. Hieraus folgt a = bd = acd, also a · (1 − cd) = 0.
Gilt nun a 6= 0, so folgt cd = 1, da R ein Integritätsring ist, und es sind
c, d Einheiten in R. Folglich sind a und b assoziiert. Gleiches gilt aber
auch im Falle a = 0, denn man hat dann insbesondere b = ac = 0.
Beweis. Wir haben nur noch die Implikation (i) =⇒ (ii) zu zeigen. Sei
also p ∈ R ein irreduzibles Element, und gelte p | ab sowie p ∤ a für zwei
Elemente a, b ∈ R. Um p | b zu zeigen, betrachte man
Ra + Rp := ra + sp ; r, s ∈ R
als Ideal in R, wobei die definierenden Eigenschaften eines Ideals leicht
zu verifizieren sind; vgl. hierzu auch Aufgabe 7 aus Abschnitt 5.1. Auf-
grund unserer Voraussetzung über R ist Ra + Rp ein Hauptideal, etwa
Ra + Rp = Rd. Insbesondere gilt a, p ∈ Rd und folglich d | a, d | p.
Nun ist p aber irreduzibel. Daher folgt aus d | p bzw. einer Gleichung
p = cd, dass c oder d eine Einheit ist. Ist nun c eine Einheit, so können
wir d = c−1 p schreiben, und man erhält p | a aus d | a, im Widerspruch
zu p ∤ a. Somit bleibt nur der Fall übrig, dass d eine Einheit ist, d. h.
es gilt Ra + Rp = R und, nach Multiplikation mit b, die Gleichung
Rab + Rpb = Rb. Es existieren also r, s ∈ R mit rab + spb = b. Wegen
p | ab folgt hieraus wie gewünscht p | b.
a ∈ R − {0} eine Nichteinheit. Wir gehen indirekt vor und nehmen an,
dass sich a nicht als endliches Produkt irreduzibler Elemente schreiben
lässt. Dann ist a reduzibel, und man kann a folglich als Produkt a1 a′1
zweier Nichteinheiten aus R schreiben. Da a keine endliche Faktorisie-
rung in irreduzible Elemente besitzt, gilt dasselbe für mindestens einen
der beiden Faktoren a1 , a′1 , etwa für a1 , und wir können a1 wiederum
als Produkt a2 a′2 zweier Nichteinheiten aus R schreiben. Fährt man
auf diese Weise fort, so erhält man eine Folge von Elementen
a = a0 , a1 , a2 , . . . ∈ R,
so dass ai+1 jeweils ein Teiler von ai , aber nicht assoziiert zu ai ist. Mit
anderen Worten, man erhält eine aufsteigende Folge von Idealen
p1 · . . . · pr = q 1 · . . . · q s
p2 · . . . · pr = ε1 q2 · . . . · qs .
1 = qr+1 · . . . · qs ,
welche zeigt, dass das System der qr+1 , . . . , qs aus Einheiten besteht.
Da alle qi zugleich irreduzibel sind, also keine Einheiten sein können,
ist das System leer, und es gilt folglich r = s.
Man sagt, in einem Integritätsring R gelte der Satz von der eindeu-
tigen Primfaktorzerlegung, oder auch R sei faktoriell, wenn sich jede
Nichteinheit a ∈ R − {0} als Produkt von Primelementen in R schrei-
ben lässt. Gemäß Lemma 14 ist eine solche Faktorisierung von a (im
Wesentlichen) eindeutig. Benutzen wir weiter, dass jedes Primelement
aufgrund von Bemerkung 11 irreduzibel ist, so kann man mit Lemma 14
schließen, dass sich in einem faktoriellen Ring jede von Null verschie-
dene Nichteinheit auf (im Wesentlichen) eindeutige Weise als Produkt
irreduzibler Elemente schreiben lässt. Man kann darüber hinaus zei-
gen, dass umgekehrt die letztere Eigenschaft in einem Integritätsring
dessen Faktorialität impliziert. Wir wollen jedoch auf Beweise nicht
weiter eingehen, sondern nur noch Korollar 13 in neuer Sprechweise
formulieren.
Satz 15. Jeder Hauptidealring ist faktoriell, insbesondere also der Ring
Z der ganzen Zahlen sowie der Polynomring K⌈⌊T ⌉⌋ einer Variablen T
über einem Körper K.
234 5. Polynome
mit einer Einheit ε ∈ R∗ und Exponenten µp (a) ∈ N, die für fast alle
p ∈ P trivial sind. Die Eindeutigkeit der Primfaktorzerlegung besagt
dann, dass ε und die µp (a) jeweils eindeutig durch a bestimmt sind. Im
Übrigen sieht man unmittelbar ein, dass für Elemente a, b ∈ R−{0} die
Teilbarkeitsbedingung a | b genau dann erfüllt ist, wenn µp (a) ≤ µp (b)
für alle p ∈ P gilt.
In Z gibt es nur die Einheiten 1 und −1, und es ist üblich, P als
das System aller positiven Primelemente zu definieren. Im Polynom-
ring K⌈⌊T ⌉⌋ über einem Körper K dagegen besteht die Einheitengruppe
aufgrund von 5.1/2 aus allen nicht-trivialen konstanten Polynomen,
stimmt also mit der Einheitengruppe K ∗ von K überein. Daher gibt
es zu jedem Primpolynom genau ein assoziiertes Primpolynom, wel-
ches normiert ist, d. h. 1 als höchsten Koeffizienten besitzt, und man
definiert P als das System aller normierten Primpolynome.
Wie gewöhnlich lässt sich für zwei von Null verschiedene Elemente
a, b ∈ R mit Primfaktorzerlegung
Y Y
a=ε pµp (a) , b=δ pµp (b)
p∈P p∈P
erklären. Dies ist ein gemeinsamer Teiler d von a und b mit der cha-
rakterisierenden Eigenschaft, dass aus t | a und t | b stets t | d folgt.
5.2 Teilbarkeit in Integritätsringen 235
als Ideal in R, also das gemäß Aufgabe 7 aus Abschnitt 5.1 von a und
b in R erzeugte Ideal.
Beweis. Das Ideal Ra+Rb ⊂ R ist ein Hauptideal, etwa Ra+Rb = Rd′ .
Dann folgt wegen a, b ∈ Rd′ , dass d′ ein gemeinsamer Teiler von a, b
und damit auch von d ist. Andererseits besteht wegen Ra + Rb = Rd′
eine Gleichung des Typs ra + sb = d′ mit gewissen Elementen r, s ∈ R.
Dies zeigt, dass jeder gemeinsame Teiler von a, b auch ein Teiler von d′
ist. Insbesondere gilt also d | d′ . Zusammen mit d′ | d ergibt sich gemäß
Bemerkung 9, dass d und d′ assoziiert sind. Somit gilt Ra + Rb = Rd,
wie behauptet, und man hat eine Gleichung des Typs ra + sb = d.
Letztere besagt, dass jeder gemeinsame Teiler von a, b, multipliziert
mit ggT(r, s), einen Teiler von d ergibt. Dies ist aber nur im Falle
ggT(r, s) = 1 möglich.
236 5. Polynome
ba + rp = 1
mit b, r ∈ R gibt. Letzteres folgt aber aus Satz 16, da a und p offenbar
teilerfremd sind.
Wenn andererseits p kein Primelement ist, so ist p entweder eine
Einheit, oder aber es gibt von Null verschiedene Nichteinheiten a, b ∈ R
mit p ∤ a, p ∤ b, sowie p | ab. Im ersten Fall ist der Restklassenring R/(p)
der Nullring. Im zweiten sind die Restklassen a, b ∈ R/(p) zu a, b von
Null verschieden, erfüllen aber a · b = 0. Es ist also R/(p) in beiden
Fällen kein Integritätsring und damit insbesondere kein Körper.
wie man leicht mit Hilfe des Homomorphiesatzes 5.1/10 zeigen kann.
Weiter kann man zeigen, dass die primen Polynome in R⌈⌊T ⌉⌋ gerade aus
allen Polynomen vom Grad 1 sowie den nullstellenfreien Polynomen
vom Grad 2 gebildet werden; vgl. Aufgabe 3 aus Abschnitt 5.3.
Schließlich wollen wir noch die sogenannte Charakteristik eines
Körpers definieren. Ist K ein Körper, so gibt es einen eindeutig be-
stimmten Ringhomomorphismus ϕ : Z ✲ K. Dieser bildet eine na-
türliche Zahl n ab auf die n-fache Summe n · 1K des Einselementes
1K ∈ K und entsprechend −n auf −(n · 1K ). Der Kern von ϕ ist ein
Ideal in Z, also ein Hauptideal, und wird damit von einem eindeutig
bestimmten Element p ∈ N erzeugt. Es ist p entweder 0 oder ansons-
ten die kleinste positive natürliche Zahl mit p · 1K = 0. Man nennt p
die Charakteristik von K; diese ist entweder 0 oder aber prim, wie man
ähnlich wie im zweiten Teil des Beweises zu Korollar 17 sehen kann.
Aufgaben
1. Man betrachte die folgenden Polynome f, g ∈ R⌈⌊T ⌉⌋ und dividiere jeweils
f mit Rest durch g:
(i) f = T 6 + 3T 4 + T 3 − 2, g = T 2 − 2T + 1,
(ii) f = T n − 1, g = T − 1, mit n ∈ N − {0},
(iii) f = T n + T n−1 + . . . + 1, g = T + 1, mit n ∈ N − {0}.
2. Es seien a, b von Null verschiedene Elemente eines Hauptidealrings R.
Man zeige Ra ∩ Rb = Rv für v = kgV(a, b).
3. Man bestimme alle Unterringe von Q. (AT 444)
4. Es sei R ein Integritätsring und p ∈ R − {0}. Man zeige, dass p genau
dann prim ist, wenn R/(p) ein Integritätsring ist.
5. Man bestimme die Primfaktorzerlegung des Polynoms T 4 − 1 im Poly-
nomring R⌈⌊T ⌉⌋.
6. Man zeige, dass der Polynomring Z⌈⌊T ⌉⌋ kein Hauptidealring ist. (AT 446)
7. Man zeige, dass Z + Zi = {x + yi ∈ C ; x, y ∈ Z} einen Unterring des
Körpers der komplexen Zahlen bildet und ein Hauptidealring ist.
8. Man zeige, dass es in Z unendlich viele paarweise nicht-assoziierte Prim-
elemente gibt. Gleiches gilt für den Polynomring K⌈⌊T ⌉⌋ über einem Kör-
per K.
238 5. Polynome
f = (T − α) · g,
Beweis. Division mit Rest von f durch (T −α) führt zu einer Gleichung
f = (T − α) · g + r
mit r ∈ K. Setzt man hierin α anstelle von T ein, so ergibt sich we-
gen f (α) = 0 unmittelbar r = r(α) = 0 und damit die gewünschte
Gleichung f = (T − α) · g. Die Eindeutigkeit von g folgt aus der Null-
teilerfreiheit von K bzw. K⌈⌊T ⌉⌋ oder aus der Eindeutigkeit der Division
mit Rest; vgl. 5.2/2.
und wir können eine solche Zerlegung finden, für die grad g minimal
ist. Dann ist g aber wie gewünscht ohne Nullstellen in K, da man
ansonsten gemäß Satz 1 von g einen Linearfaktor der Form T − α
abspalten könnte und dies zu einer Zerlegung mit einem echt kleineren
Grad von g führen würde. Man erkennt dann, dass α1 , . . . , αr aufgrund
der Nullteilerfreiheit von K die einzigen Nullstellen von f sind und dass
r ≤ grad f gilt.
240 5. Polynome
T 2 − 2 ∈ Q⌈⌊T ⌉⌋,
T 2 + 1 ∈ R⌈⌊T ⌉⌋,
T 2 + T + 1 ∈ F2 ⌈⌊T ⌉⌋
Aufgaben
P
1. Es sei K ein Körper. Für ein Polynom P f = i∈N ai T i ∈ K⌈⌊T ⌋⌉ definiere
man dessen Ableitung durch f ′ := i>0 iai T i−1 , wobei iai jeweils als
i-fache Summe von ai zu verstehen ist. Man zeige: Ein Element α ∈ K
ist genau dann eine mehrfache Nullstelle (d. h. der Ordnung > 1) von f ,
wenn α Nullstelle von ggT(f, f ′ ) ist.
2. Es sei K ein Körper und A eine K-Algebra. Für zwei Polynome
f, g ∈ K⌈⌊T ⌉⌋ − {0} und h = ggT(f, g) zeige man: Ist a ∈ A eine gemein-
same Nullstelle von f und g, so ist a auch Nullstelle von h. (Hinweis:
Man benutze die in 5.2/16 beschriebene Charakterisierung des größten
gemeinsamen Teilers.)
3. Für eine komplexe Zahl α = u + iv ∈ C mit Realteil u und Imagi-
närteil v sei die zugehörige konjugiert komplexe Zahl definiert durch
α = u − iv. Man zeige, dass ein normiertes Polynom f ∈ R⌈⌊T ⌋⌉ ge-
nau dann prim ist, wenn es von der Form f = T − α mit α ∈ R oder
f = (T − α)(T − α) mit α ∈ C − R ist. (AT 447) (Hinweis: Man be-
trachte die Abbildung C ✲ C, α ✲ α, welche die Eigenschaften
eines R-Algebraisomorphismus besitzt, und setze diese fort zu einem
R⌈⌊T ⌉⌋-Algebraisomorphismus C⌈⌊T ⌉⌋ ✲ C⌈⌊T ⌉⌋.)
6. Normalformentheorie
Dies sind bereits die wichtigsten Fragen, die wir untersuchen wollen.
Zunächst ist die Beantwortung der ersten Frage relativ einfach. Wir
betrachten für λ ∈ K den Endomorphismus f − λ id von V . Sein Kern
gibt genau denjenigen (maximalen) Untervektorraum von V an, auf
dem sich f wie λ id verhält, und dieser Unterraum ist genau dann
nicht-trivial, wenn der Kern von f − λ id nicht-trivial ist, also gemäß
2.1/11 genau dann, wenn f −λ id nicht invertierbar ist, und damit nach
4.3/3 genau dann, wenn det(f −λ id) = 0 gilt. Es ist also die Gleichung
det(f −λ id) = 0 für λ ∈ K zu lösen, und wir werden damit automatisch
dazu veranlasst, das sogenannte charakteristische Polynom χf ∈ K⌈⌊T ⌉⌋
zu f zu betrachten, das entsteht, wenn wir auf det(λ id −f ) die Defini-
betrachten und stellt dabei fest, dass ker ϕ ein Ideal in K⌈⌊T ⌉⌋ ist. Denn
für r s
X X
i
p= ci T ∈ K⌈⌊T ⌉⌋, q= dj T j ∈ ker ϕ
i=0 j=0
Überblick und Hintergrund 245
gilt
X
r+s X r+s X
X
k
ϕ(pq) = ϕ ci dj T = ci dj f k (x)
k=0 i+j=k k=0 i+j=k
X
r X
s X
r
i j i
= ci f dj f (x) = ci f (0) = 0,
i=0 j=0 i=0
p = T r + c1 T r−1 + . . . + cr ∈ ker ϕ
gibt und dass dieses das Ideal erzeugt. Hieraus gewinnt man die Glei-
chung
p(f )(x) = f r (x) + c1 f r−1 (x) + . . . + cr x = 0,
und diese zeigt in induktiver Weise, dass U , der von x erzeugte
f -zyklische Untervektorraum von V , als K-Vektorraum bereits durch
x, f 1 (x), . . . , f r−1 (x) erzeugt wird. Da alle Polynome in ker ϕ sich als
Vielfache von p darstellen, bilden die vorstehenden Vektoren sogar eine
Basis von U . Bezüglich dieser Basis wird f |U dann durch die sogenann-
te Begleitmatrix
0 −c0
1 0 −c1
1 . −c
2
. . ...
. . . . .
. 0 −cn−2
1 −cn−1
Wir kehren nunmehr zur Theorie der Vektorräume über einem Kör-
per K zurück und betrachten zunächst eine K-lineare Abbildung
f: V ✲ W zwischen endlich-dimensionalen K-Vektorräumen V und
W . Ist dann X = (x1 , . . . , xn ) eine Basis von V und Y = (y1 , . . . , ym )
eine Basis von W , so lässt sich f durch eine zugehörige Matrix Af,X,Y
beschreiben; vgl. 3.1/3. Durch geschickte Wahl von X und Y kann man
erreichen, dass Af,X,Y von möglichst einfacher Gestalt ist. So hatten
wir in 3.4/7 gesehen, dass es Basen X ′ von V und Y ′ von W gibt mit
Er 0
Af,X ′ ,Y ′ = ;
0 0
dabei bezeichnet Er ∈ K r×r die Einheitsmatrix und r den Rang von
f . Weiter besteht die Relation
248 6. Normalformentheorie
Wir wollen uns nun mit der Frage beschäftigen, wann eine gegebene
Matrix A ∈ K n×n zu einer Diagonalmatrix ähnlich ist. Dazu führen wir
folgende Sprechweise ein:
führt für einen nicht-trivialen Vektor (α1 , α2 )t ∈ R2 stets auf die Glei-
chung λ2 = −1, die in R nicht lösbar ist. Somit sehen wir, dass A in
R2×2 nicht diagonalisierbar sein kann, da die zugehörige lineare Ab-
bildung R2 ✲ R2 , x ✲ Ax, keinen Eigenwert besitzt. Das Bild
ändert sich jedoch, wenn wir A als Matrix in C2×2 auffassen, denn die
durch A gegebene C-lineare ✲ C2 , x ✲ Ax, wird
1 Abbildung C
2
1
bezüglich der Basis i , −i durch eine Diagonalmatrix beschrieben.
Weiter zeigt das Gleichungssystem
α1 = λα1 , α1 + α2 = λα2 ,
aber auch r
X
λ1 αi ai = 0
i=1
und folglich
r
X
(λi − λ1 )αi ai = 0.
i=2
Nun sind a2 , . . . , ar insgesamt r − 1 Eigenvektoren zu paarweise ver-
schiedenen Eigenwerten und somit nach Induktionsvoraussetzung line-
ar unabhängig. Es ergibt sich daher (λi −P λ1 )αi = 0 und damit αi = 0
für i = 2, . . . , r. Dann zeigt die Gleichung ri=1 αi ai = 0, dass auch der
Term α1 a1 verschwindet und wegen a1 6= 0 sogar der Koeffizient α1 .
Die Vektoren a1 , . . . , ar sind also wie behauptet linear unabhängig.
die Summe ist also direkt. Im Übrigen ist f genau dann diagonalisier-
bar, wenn V = V ′ gilt, wenn also V von den Eigenräumen zu f erzeugt
wird.
wobei Vλ′j jeweils der Eigenraum von f zum Eigenwert λ′j ist. Ein
Vergleich mit der Zerlegung aus Korollar 12 ergibt Uλ′j = Vλ′j für
j = 1, . . . , s und zeigt außerdem, dass es neben λ′1 , . . . , λ′s keine weite-
ren Eigenwerte von A geben kann.
Aufgaben
V sei stets ein Vektorraum endlicher Dimension über einem Körper K.
1. Es seien a, b ∈ V Eigenvektoren eines Endomorphismus f : V ✲ V.
Man untersuche, in welchen Fällen auch a − b ein Eigenvektor von f ist.
2. Es sei λ ∈ K Eigenwert eines Endomorphismus f : V ✲ V . Man zeige,
dass für Polynome q ∈ K⌈⌊T ⌉⌋ jeweils q(λ) Eigenwert von q(f ) ist.
3. Für die Matrix
2 1 0 1
0 2 0 1
A=
0
∈ R4×4
0 2 1
0 0 0 2
berechne man alle Eigenwerte und die zugehörigen Eigenräume. Ist A
diagonalisierbar? (AT 449)
4. Die Matrizen A, B ∈ K n×n seien ähnlich. Man zeige in direkter Weise:
(i) Ein Element λ ∈ K ist genau dann ein Eigenwert von A, wenn es
Eigenwert von B ist.
6.2 Minimalpolynom und charakteristisches Polynom 255
(ii) Für Eigenwerte λ ∈ K von A bzw. B gilt dimK VA,λ = dimK VB,λ ,
wobei VA,λ den Eigenraum zu λ bezüglich der linearen Abbildung
K n ✲ K n , x ✲ Ax bezeichne; entsprechend für VB,λ .
5. Es seien A, B ∈ K n×n ähnlich. Dann sind für Polynome q ∈ K⌈⌊T ⌋⌉ auch
die Matrizen q(A) und q(B) ähnlich.
6. Zwei Endomorphismen f, g : V ✲ V heißen ähnlich, wenn es einen
Automorphismus h : V ✲ V mit g = h−1 ◦ f ◦ h gibt. Man zeige: f
und g sind genau dann ähnlich, wenn für eine gegebene Basis X von V
die beschreibenden Matrizen Af,X,X und Ag,X,X ähnlich sind.
7. Für ein kommutatives Diagramm linearer Abbildungen zwischen K-Vek-
torräumen
f
V ✲ V
h h
❄ g
❄
W ✲ W
zeige man:
(i) Ist h injektiv, so ist jeder Eigenwert von f auch Eigenwert von g.
(ii) Ist h surjektiv, so ist jeder Eigenwert von g auch Eigenwert von f .
Man konstruiere einfache Beispiele, die zeigen, dass in den vorstehenden
Aussagen die Voraussetzungen “injektiv” bzw. “surjektiv” nicht entbehr-
lich sind. (AT 451)
also (−1)n cn = det(A). Weiter besitzt der zweite Term in der Zerlegung
n
Y X n
Y
χA = (T − αii ) + sgn π · (T δπ(i),i − απ(i),i )
i=1 π∈Sn i=1
π6=id
χf = χAf,X,X ∈ K⌈⌊T ⌉⌋
als das charakteristische Polynom von f und
Spur f = Spur Af,X,X
als die Spur von f . Für den trivialen Fall V = 0 gilt χf = 1 und
Spur f = 0.
Es folgt mit 6.1/2 und Satz 4, dass χf und Spur f unabhängig von
der speziellen Wahl der Basis X von V sind. Weiter können wir mit
Satz 1 feststellen:
Satz 7. Ein Element λ ∈ K ist genau dann ein Eigenwert eines En-
domorphismus f : V ✲ V , wenn λ eine Nullstelle des charakteristi-
schen Polynoms χf ist.
Beweis. Sei dimK V = n. Wir beginnen mit der Implikation (i) =⇒ (ii)
und nehmen f als diagonalisierbar an. Dann existiert eine Basis X von
V , bestehend aus Eigenvektoren zu f , also mit
λ1 0
λ2
Af,X,X =
.
..
0 λn
260 6. Normalformentheorie
Q
Insbesondere folgt χf = ni=1 (T − λi ). Indem wir gleiche Faktoren
zu Potenzen
Q zusammenfassen, können wir dieses Produkt in der Form
χf =L ri=1 (T − λi )ni schreiben, wobei dimK (Vλi ) ≥ ni gilt. Wegen
V = ri=1 Vλi , vgl. 6.1/12 und 6.1/13, ergibt sich sodann
r
X r
X
n= dimK (Vλi ) ≥ ni = n
i=1 i=1
Als Beispiel für die Anwendung von Satz 8 wollen wir einen Endo-
morphismus f : V ✲ V betrachten, der bezüglich einer geeigneten
Basis durch eine Dreiecksmatrix der Form
λ ∗
λ
A=
∈ K n×n
..
0 λ
beschrieben wird. Dann gilt χf = χA = (T − λ)n , und λ ist der einzige
Eigenwert zu f bzw. A. Ist nun A keine Diagonalmatrix, so ist λ id −f
nicht die Nullabbildung und folglich der Eigenraum Vλ = ker(λ id −f )
echt in V enthalten. Nach Satz 8 kann f bzw. A in diesem Fall nicht
diagonalisierbar sein. Wir können dies aber auch in direkter Weise
sehen. Wenn A diagonalisierbar ist, so ist A ähnlich zu λE, wobei
E ∈ K n×n die Einheitsmatrix bezeichne. Da aber E und damit auch
λE mit allen Matrizen in K n×n vertauschbar ist, kann λE nur zu sich
selbst ähnlich sein. Somit müsste schon A = λE gelten.
Neben dem charakteristischen Polynom χf zu einem Endomor-
phismus f eines K-Vektorraums V kann man auch noch ein weite-
res Polynom zu f betrachten, nämlich das sogenannte Minimalpoly-
nom. Um dieses zu definieren, betrachten wir den Endomorphismen-
ring EndK (V ) als K-Algebra unter dem Ringhomomorphismus
6.2 Minimalpolynom und charakteristisches Polynom 261
K ✲ EndK (V ), c ✲ c · idV ,
und verwenden folgendes Resultat:
Wir wollen noch zwei einfache Beispiele betrachten. Für die Ein-
heitsmatrix E ∈ K n×n , n > 0, gilt χE = (T − 1)n , pE = T − 1, und
für die Nullmatrix 0 ∈ K n×n hat man χ0 = T n , p0 = T . Insbesondere
sieht man, dass das Minimalpolynom im Allgemeinen nicht mit dem
charakteristischen Polynom übereinstimmt.
264 6. Normalformentheorie
Aufgaben
V sei stets ein Vektorraum endlicher Dimension n über einem Kör-
per K.
1. Man bestimme Eigenwerte und zugehörige Eigenräume der folgenden
Matrix:
2 0 0 0
−2 2 0 2
A= 1
0 2 0
2 −1 0 −1
Ist A diagonalisierbar?
2. Man bestimme das Minimalpolynom pf zu einem Endomorphismus
f: V ✲ V in folgenden Fällen (AT 453):
(i) V =0
(ii) f = id
(iii) f =0
(iv) Es existieren lineare Unterräume V1 , V2 ⊂ V mit V = V1 ⊕ V2 , und
es gilt f (v1 + v2 ) = v1 für vi ∈ Vi , i = 1, 2.
3. Es seien U1 , U2 ⊂ V lineare Unterräume und f : V ✲ V ein En-
domorphismus, der sich zu Endomorphismen fi : Ui ✲ Ui , i = 1, 2,
einschränkt. Man zeige:
(i) Gilt V = U1 + U2 , so folgt pf = kgV(pf1 , pf2 ) für die Minimalpo-
lynome von f, f1 , f2 .
(ii) Die Abbildung f : V ✲ V schränkt sich zu einem Endomorphis-
mus f12 : U1 ∩ U2 ✲ U1 ∩ U2 ein, und es gilt pf12 | ggT(pf1 , pf2 )
für die Minimalpolynome von f12 , f1 , f2 . Gilt im Allgemeinen auch
die Gleichheit pf12 = ggT(pf1 , pf2 )?
4. Es sei K algebraisch abgeschlossen. Man zeige, dass ein Endomorphis-
mus f : V ✲ V genau dann nilpotent ist (d. h. eine Gleichung der
r
Form f = 0 erfüllt), wenn f außer 0 keine weiteren Eigenwerte besitzt.
5. Es sei f : V ✲ V ein Automorphismus. Man zeige, es existiert ein
Polynom q ∈ K⌈⌊T ⌉⌋ mit f −1 = q(f ). (AT 455)
6. Die Folge der Fibonacci-Zahlen c1 , c2 , . . . ∈ N ist rekursiv definiert durch
c1 = c2 = 1 und cn+2 = cn+1 + cn für n ∈ N. Man gebe für cn einen
geschlossenen Ausdruck an, der nur von n abhängt. (Hinweis: Man be-
stimme eine Matrix A ∈ R2×2 mit A · (cn+1 , cn )t = (cn+2 , cn+1 )t für
n ≥ 1 und eine Basiswechselmatrix S ∈ GL(2, R), derart dass S −1 · A · S
Diagonalgestalt besitzt.)
6.3 Der Elementarteilersatz 265
a, b ∈ N =⇒ a + b ∈ N,
α ∈ R, a ∈ N =⇒ α · a ∈ N
Es ist N dann wieder ein R-Modul unter den von M ererbten Verknüp-
fungen. Betrachtet man R als Modul über sich selbst, so stimmen die
Ideale des Rings R mit den Untermoduln von R überein.
Ein Homomorphismus zwischen R-Moduln M und N ist eine Ab-
bildung ϕ : M ✲ N , für die
X X
′
M := Rai := αi ai ; αi ∈ R, αi = 0 für fast alle i ∈ I
i∈I i∈I
P
definiert ist. Gilt M = i∈I Rai , so nennt man (ai )i∈I ein Erzeu-
gendensystem von M . Man bezeichnet M als endlich erzeugt oder (in
missbräuchlicher Sprechweise) als endlich, wenn M ein endliches Erzeu-
gendensystem besitzt. Weiter heißt ein System (ai )i∈I von Elementen
aus M frei (oder linear unabhängig), wenn aus einer Gleichung
X
αi ai = 0
i∈I
0 × . . . × 0 × Ni × 0 × . . . × 0 ⊂ N1 × . . . × Nn
a ∼ b ⇐⇒ a − b ∈ N
0 ( M1 ( M2 ( . . . ( Mℓ = M.
0 ✲ F′ ✲ F ✲ F ′′ ✲ 0.
so ist A = (αij )i,j ∈ Rm×n die Matrix zu f bezüglich der Basen e und
Y . Wir verwenden nun folgendes Hilfsresultat, das wir weiter unten
beweisen werden:
eine Basis von M . Damit haben wir die Existenz der Elementarteiler
α1 , . . . , αs von M ⊂ F auf die Existenzaussage von Lemma 5 zurück-
geführt.
q-fache der 1. Zeile von der i-ten Zeile ab. Als Resultat entsteht an
der Position (i, 1) das Element β. Das Minimum d(A) der Grade von
nichtverschwindenden Koeffizienten von A hat sich daher verringert,
und man starte das Verfahren erneut mit einem weiteren Schritt. In
gleicher Weise können wir die Elemente der 1. Zeile mittels elemen-
tarer Spaltenumformungen abändern. Da d(A) Werte in N annimmt,
also nicht beliebig oft verringert werden kann, ist nach endlich vielen
Schritten jedes Element der 1. Spalte sowie der 1. Zeile ein Vielfaches
von α11 , und wir können durch Addition von Vielfachen der 1. Zeile
zu den restlichen Zeilen der Matrix annehmen, dass αi1 = 0 für i > 1
gilt. Entsprechend können wir mit der 1. Zeile verfahren und auf diese
Weise αi1 = α1j = 0 für i, j > 1 erreichen. Dabei dürfen wir weiter an-
nehmen, dass das Minimum d(A) mit δ(α11 ) übereinstimmt; ansonsten
ist das Verfahren erneut zu beginnen und ein entsprechendes Element
an der Stelle (1, 1) neu zu positionieren. Existieren nun i, j > 1 mit
α11 ∤ αij , so addiere man die j-te Spalte zur ersten, ein Prozess, der α11
unverändert lässt. Wie gerade beschrieben, lassen sich die Elemente
unterhalb α11 erneut trivialisieren, und zwar unter Verringerung des
Grades d(A). Nach endlich vielen Schritten gelangt man so zu einer
Matrix (αij ) mit αi1 = α1j = 0 für i, j > 1 sowie mit der Eigenschaft,
dass α11 jedes andere Element αij mit i, j > 1 teilt. Man behande-
le dann in gleicher Weise die Untermatrix (αij )i,j>1 von A = (αij ),
sofern diese nicht bereits Null ist. Die hierfür benötigten Umformun-
gen lassen die erste Zeile und Spalte von A invariant und erhalten
insbesondere die Bedingung, dass α11 alle restlichen Koeffizienten von
A teilt. Führt man dieses Verfahren in induktiver Weise fort, so ge-
langt man schließlich nach endlich vielen Schritten zu einer Matrix,
auf deren Hauptdiagonalen die gesuchten Elementarteiler mit der be-
haupteten Teilbarkeitseigenschaft stehen und deren sonstige Einträge
alle verschwinden. Damit ist die Existenzaussage von Lemma 5 und
insbesondere auch von Theorem 4 bewiesen, zumindest im Falle eines
euklidischen Rings R.
σ = 0, τ = 1, σ ′ = 1, τ ′ = 0,
sowie die Addition des ε-fachen der j-ten Zeile zur i-ten Zeile mit
σ = 1, τ = ε, σ ′ = 0, τ ′ = 1.
mit dem Ziel, d(A) schrittweise zu verringern, solange bis es einen Ko-
effizienten α von A gibt, der alle übrigen Koeffizienten teilt. Durch Ver-
tauschen von Zeilen und Spalten können wir wiederum d(A) = δ(α11 )
annehmen. Ist nun eines der Elemente der 1. Spalte, etwa αi1 , kein
Vielfaches von α11 , so bilde man den größten gemeinsamen Teiler β
von α11 und αi1 . Für diesen gilt dann notwendig δ(β) < δ(a11 ), und es
erzeugt β gemäß 5.2/16 das Ideal Rα11 + Rαi1 , d. h. es existiert eine
Gleichung des Typs
β = σα11 + τ αi1 ,
wobei σ, τ ∈ R notwendig teilerfremd sind und damit eine Gleichung
des Typs
στ ′ − τ σ ′ = 1
mit gewissen Elementen σ ′ , τ ′ ∈ R erfüllen. Multipliziert man nun A
von links mit E 1i (σ, τ, σ ′ , τ ′ ), so etabliert dieser Prozess in A an der Po-
sition (1, 1) das Element β und verringert somit das Minimum d(A).
Iteriert man das Verfahren wie im Falle euklidischer Ringe, so kann
man schließlich erreichen, dass die Elemente α21 , . . . , αm1 durch α11
teilbar sind bzw., indem man geeignete Vielfache der 1. Zeile von den
restlichen subtrahiert, dass α21 = . . . = αm1 = 0 gilt. In gleicher Weise
kann man mittels entsprechender Spaltenumformungen die Elemente
α12 , . . . , α1n trivialisieren usw. Wir sehen also, dass sich die Matrix A
schrittweise wie im Falle euklidischer Ringe abändern lässt, bis schließ-
lich die gewünschte Gestalt erreicht ist.
mit αi+1 | αi für 1 ≤ i < s sowie βj+1 | βj für 1 ≤ j < t. Falls es einen
Index k ≤ min{s, t} mit αk R 6= βk R gibt, so wähle man k minimal mit
dieser Eigenschaft. Da αi R = βi R für 1 ≤ i < k und da αk+1 , . . . , αs
sämtlich Teiler von αk sind, zerlegt sich αk Q zu
k−1
M
αk Q ≃ αk · (R/αi R)
i=1
k−1
M t
M
≃ αk · (R/αi R) ⊕ αk · (R/βj R).
i=1 j=k
Wir benutzen nun die Lemmata 2 und 3. Wegen ℓR (αk Q) ≤ ℓR (Q) < ∞
ergibt sich durch Vergleich beider Seiten ℓR (αk · (R/βj R)) = 0 für
j = k, . . . , t. Letzteres bedeutet aber insbesondere αk · (R/βk R) = 0
bzw. αk R ⊂ βk R. Entsprechend zeigt man βk R ⊂ αk R und somit
αk R = βk R, im Widerspruch zur Annahme. Es gilt daher αi R = βi R
für alle Indizes i mit 1 ≤ i ≤ min{s, t}. Hat man weiter Lt s ≤ t, so
folgt, wiederum unter Benutzung von Lemma 3, dass j=s+1 R/βj R
278 6. Normalformentheorie
von der Länge 0 ist, also R/βj R für j = s + 1, . . . , t die Länge 0 hat.
Andererseits ist aber βj für j = 1, . . . , t keine Einheit. Daher besitzt
jeder Modul R/βj R gemäß Lemma 2 eine Länge größer als 0, und es
folgt s = t.
von F , so hängt F ′ nur von M und nicht von der speziellen Wahl der
Elemente x1 , . . . , xs ab. Der kanonische Homomorphismus
s
M s
X
F ′ ✲ R/αi R, γi xi ✲ (γ 1 , . . . , γ s ),
i=1 i=1
induziert. Da aber R/pR nach 5.2/17 ein Körper ist, können wir wie-
derum s = s′ schließen. Alternativ kann man an dieser Stelle auch die
Eindeutigkeitsaussage von Lemma 6 ausnutzen.
Aufgaben
Es sei R ein kommutativer Ring mit 1, sofern nichts anderes verlangt
ist.
1. Man bestimme die Elementarteiler der folgenden Matrizen:
2 6 8 4 0 0
3 1 2 , 0 10 0 ∈ Z3×3
9 5 4 0 0 15
N/(N ∩ N ′ ) ∼✲ (N + N ′ )/N ′
induziert.
10. (2. Isomorphiesatz für Moduln) Es sei M ein R-Modul mit Untermoduln
N ⊂ N ′ ⊂ M . Man zeige:
(i) Die kanonische Abbildung N ′ ⊂ ✲ M ✲ M/N besitzt N als
Kern und induziert einen Monomorphismus N ′ /N ⊂ ✲ M/N .
Folglich lässt sich N ′ /N mit seinem Bild in M/N identifizieren
und somit als Untermodul von M/N auffassen.
(ii) Die Projektion M ✲ M/N ′ faktorisiert über M/N , d. h. sie
π✲ f✲
lässt sich als Komposition M M/N M/N ′ schrei-
ben, mit einem Modulhomomorphismus f und der kanonischen
Projektion π.
(iii) f besitzt N ′ /N als Kern und induziert einen Isomorphismus
Wir wollen nun einige Folgerungen zur Struktur endlich erzeugter Mo-
duln über Hauptidealringen aus dem Elementarteilersatz ziehen. Im
nächsten Abschnitt sollen die gewonnenen Struktursätze dann in Er-
gebnisse über Normalformen von Endomorphismen von Vektorräumen
umgesetzt werden. Als Hilfsmittel benötigen wir noch den sogenannten
Chinesischen Restsatz, den wir als Erstes beweisen.
wobei wir, wie zu Beginn von Abschnitt 6.3 erläutert, den i-ten Sum-
manden R/(pni i ) mit dem entsprechenden Untermodul
zu identifizieren haben.
Für einen Modul M über einem Integritätsring R definiert man
den sogenannten Torsionsuntermodul T durch
T = a ∈ M ; es existiert ein α ∈ R − {0} mit αa = 0 .
Man prüft leicht nach, dass T in der Tat ein Untermodul von M ist,
indem man die Nullteilerfreiheit von R benutzt. Es heißt M ein Tor-
sionsmodul, wenn M mit seinem Torsionsuntermodul übereinstimmt.
Der Torsionsuntermodul eines freien Moduls ist stets trivial, freie Mo-
duln sind daher sozusagen als das “Gegenstück” zu den Torsionsmoduln
anzusehen.
Ist M ein Modul über einem Ring R, so bezeichnet man eine exakte
Sequenz von R-linearen Abbildungen
ψ ϕ
Rn ✲ Rm ✲ M ✲ 0
Dabei ist d eindeutig bestimmt; man bezeichnet d als den Rang von
M . Weiter sind die Elemente α1 , . . . , αs eindeutig bestimmt bis auf
Assoziiertheit. Sie stimmen überein mit den Nichteinheiten unter den
Elementarteilern einer jeden endlichen Präsentation von M .
Beweis. Wir gehen von einer endlichen Präsentation von M aus und be-
trachten den zugehörigen Epimorphismus ϕ : Rm ✲ M . Dann folgt
M ≃ R / ker ϕ aufgrund des Homomorphiesatzes. Auf die Situation
m
(γ1 , . . . , γm ) ✲ (γ 1 , . . . , γ m ),
der sich aus dem obigen Isomorphismus und der Projektion auf den
Summanden Rd zusammensetzt. Der Kern dieser Abbildung ist offen-
bar gerade der Torsionsuntermodul T ⊂ M , so dass man aufgrund
des Homomorphiesatzes einen Isomorphismus M/T ∼✲ Rd erhält.
Hieraus folgt die Eindeutigkeit von d mit 6.3/7.
286 6. Normalformentheorie
Mp = {x ∈ M ; pn x = 0 für geeignetes n ∈ N}
Bevor wir zum Beweis kommen, wollen wir diesen Hauptsatz auch
noch speziell für endlich erzeugte Z-Moduln formulieren, als Hauptsatz
über endlich erzeugte abelsche Gruppen.
Aufgaben
Für eine Gruppe G bezeichnet man mit ord G die Anzahl ihrer Elemente
und nennt dies die Ordnung von G.
V ✲ V, x ✲ T · x,
äquivalent:
(i) ϕ ist ein Homomorphismus von K⌈⌊T ⌉⌋-Moduln.
(ii) ϕ ist ein Homomorphismus von K-Vektorräumen, und das Dia-
gramm
f
V ✲ V, v ✲ f (v) = T · v,
ϕ ϕ
❄ ❄
f′
V′ ✲ V ′, v′ ✲ f ′ (v ′ ) = T · v ′ ,
ist kommutativ.
Eine entsprechende Äquivalenz gilt auch für Mono-, Epi- und Iso-
morphismen ϕ : V ✲ V ′ . Insbesondere stimmen in der Situation
eines Isomorphismus ϕ in (i) bzw. (ii) die Minimalpolynome von f
und f ′ überein. Gleiches gilt für die charakteristischen Polynome von
f und f ′ .
Beweis. Die Bedingungen (i) und (ii) sind aufgrund von Bemerkung 2
äquivalent. Wird weiter V gemäß Bedingung (ii) als K⌈⌊T ⌉⌋-Modul von
dem Element u ∈ V erzeugt, so betrachte man die K⌈⌊T ⌉⌋-lineare Ab-
bildung
ϕ : K⌈⌊T ⌉⌋ ✲ V, h ✲ h · u = h(f )(u);
ϕ ist surjektiv. Weiter ist ker ϕ ein K⌈⌊T ⌉⌋-Untermodul von K⌈⌊T ⌉⌋, also
ein Ideal, welches, da K⌈⌊T ⌉⌋ ein Hauptidealring ist, von einem Poly-
nom p ∈ K⌈⌊T ⌉⌋ erzeugt wird. Der Homomorphiesatz für K⌈⌊T ⌉⌋-Moduln
ergibt dann den in (iii) gewünschten Isomorphismus K⌈⌊T ⌉⌋/(p) ≃ V .
Wegen dimK V < ∞ und dimK K⌈⌊T ⌉⌋ = ∞ gilt p 6= 0, und man darf p
als normiertes Polynom annehmen.
Ist andererseits Bedingung (iii) gegeben, so betrachte man die Rest-
klassenabbildung K⌈⌊T ⌉⌋ ✲ K⌈ ⌊T ⌉⌋/(p), h ✲ h. Die Restklasse
1 ∈ K⌈⌊T ⌉⌋/(p) erzeugt dann natürlich K⌈⌊T ⌉⌋/(p) als K⌈⌊T ⌉⌋-Modul, d. h.
es folgt (ii).
Es bleibt noch die zusätzliche Aussage zur Charakterisierung des
Polynoms p zu begründen, wobei wir (i) bzw. (iii) als gegeben an-
nehmen. Sei σ : V ∼✲ K⌈⌊T ⌉⌋/(p) ein Isomorphismus im Sinne von
K⌈⌊T ⌉⌋-Moduln, wie in (iii) gefordert, so dass also mit Bemerkung 3 das
Diagramm
f
V ✲V
σ σ
❄ ❄
f′
K⌈⌊T ⌉⌋/(p) ✲ K⌈⌊T ⌉⌋/(p)
′
kommutativ ist; f bezeichne die Multiplikation mit T auf K⌈⌊T ⌉⌋/(p).
Wir wollen zeigen, dass p das Minimalpolynom von f ′ ist. Gemäß 6.2/9
bzw. 6.2/10 erzeugt das Minimalpolynom von f ′ das Ideal
h ∈ K⌈⌊T ⌉⌋ ; h(f ′ )(g) = 0 für alle g ∈ K⌈⌊T ⌉⌋/(p)
= h ∈ K⌈⌊T ⌉⌋ ; h · g = 0 für alle g ∈ K⌈⌊T ⌉⌋/(p)
= h ∈ K⌈⌊T ⌉⌋ ; h · 1 = 0 = h ∈ K⌈⌊T ⌉⌋ ; h = 0
= (p) ⊂ K⌈⌊T ⌉⌋,
6.5 Allgemeine und Jordansche Normalform für Matrizen 293
wobei für h ∈ K⌈⌊T ⌉⌋ jeweils h die Restklasse in K⌈⌊T ⌉⌋/(p) sei. Also ist p
das Minimalpolynom von f ′ und stimmt somit nach Bemerkung 3 mit
dem Minimalpolynom pf des Endomorphismus f : V ✲ V überein.
Dass p = pf gilt, können wir in etwas ausführlicherer Argumenta-
tion auch auf dem Niveau des Endomorphismus f und des Vektorraums
V einsehen: Es erzeugt pf gemäß 6.2/9 bzw. 6.2/10 dasjenige Ideal in
K⌈⌊T ⌉⌋, welches aus allen Polynomen h mit h(f ) = 0 besteht. Also gilt
(∗) (pf ) = h ∈ K⌈⌊T ⌉⌋ ; h(f )(v) = 0 für alle v ∈ V ,
wobei es genügt, wenn man die Bedingung h(f )(v) = 0 für v aus einem
K-Erzeugendensystem von V testet. Ist daher V als K⌈⌊T ⌉⌋-Modul mo-
nogen, etwa erzeugt von einem Element u ∈ V , so bilden die Elemente
u, f (u), f 2 (u), . . . ein K-Erzeugendensystem von V , und die Beschrei-
bung (∗) ist äquivalent zu
(∗∗) (pf ) = h ∈ K⌈⌊T ⌉⌋ ; h(f ) f n (u) = 0 für alle n ∈ N .
dass aus h(f )(u) = 0 bereits h(f )(f n (u)) = 0 für alle n ∈ N folgt.
Somit erhält man aus (∗∗)
(pf ) = h ∈ K⌈⌊T ⌉⌋ ; h(f )(u) = 0 = h ∈ K⌈⌊T ⌉⌋ ; h · u = 0 = (p)
2
In Polynomringen bezeichnen wir Primelemente auch als Primpolynome.
6.5 Allgemeine und Jordansche Normalform für Matrizen 295
n(i,j)
im Sinne von K⌈⌊T ⌉⌋-Moduln besitzt. Insbesondere ist pi das Mini-
mal - bzw. charakteristische Polynom von f |Vij ; vgl. Satz 4.
In der vorstehenden Zerlegung sind die Primpolynome
Lsi p1 , . . . , pr ,
die Zahlen n(i, j) und die Vektorräume Vi := j=1 Vij für i = 1, . . . , r
eindeutig bestimmt, nicht notwendig jedoch die Unterräume Vij selbst;
es gilt [
Vi = ker pni (f ).
n∈N
n(1,s1 ) n(r,sr )
Weiter ist pf = p1 · . . . · pr das Minimalpolynom von f , und
man hat
dimK Vij = n(i, j) · grad pi ,
insbesondere also
si
r X
X
dimK V = n(i, j) · grad pi .
i=1 j=1
Sprache der K⌈⌊T ⌉⌋-Moduln der Untermodul der pi -Torsion, und der
freie Anteil aus 6.4/3 entfällt, da V ein K⌈⌊T ⌉⌋-Torsionsmodul ist.
n(i,j)
Gemäß Satz 4 ist pi das Minimalpolynom der Einschränkung
von f auf Vij . Dann erkennt man leicht, dass das kleinste gemeinsame
Vielfache aller dieser Polynome, also
n(1,s1 )
p1 · . . . · pn(r,s
r
r)
mi
X
Vi = K · xj , i = 1, . . . , r,
j=mi−1 +1
Lr
f -invariant, und es gilt V = i=1 Vi .
Beweis zu den Lemmata 8 und 9. Aussage (i) in Lemma 8 wie auch die
Aussage von Lemma 9 sind unmittelbar klar aufgrund der in 3.1/3 de-
finierten Korrespondenz zwischen linearen Abbildungen und beschrei-
benden Matrizen. Weiter folgt Aussage (ii) in Lemma 8 aufgrund des
Beispiels (2) am Ende von Abschnitt 4.3. Aussage (iii) schließlich ist
gültig, da einerseits das kleinste gemeinsame Vielfache aller pfi den En-
domorphismus f annulliert, sowie andererseits pf ein Vielfaches eines
jeden pfi sein muss.
welche an den nicht markierten Stellen noch mit Nullen aufzufüllen ist.
Insbesondere gilt A(p) = (−c0 ) für n = 1. Auch den Sonderfall n = 0
wollen wir nicht ausschließen. Es ist A(p) dann die leere Matrix.
298 6. Normalformentheorie
denn für i = 1 ist dies trivial, und unter Benutzung der Induktions-
voraussetzung zum Index i schließt man
(f − λ id)(xi ) = xi+1 , i = 1, . . . , n,
also (
xi+1 6= 0 für i = 0, . . . , n − 1
(f − λ id)i (x1 ) = .
0 für i = n
Der Kern von ϕ enthält daher das Polynom (T − λ)n , nicht aber die
Potenz (T − λ)n−1 . Als Hauptideal wird ker ϕ von einem normier-
ten Polynom q ∈ K⌈⌊T ⌉⌋ erzeugt. Dieses teilt (T − λ)n , nicht aber
(T − λ)n−1 , und stimmt folglich mit (T − λ)n überein. Aufgrund des
Homomorphiesatzes für Moduln induziert ϕ dann einen Isomorphis-
mus K⌈⌊T ⌉⌋/((T − λ)n ) ∼✲ V im Sinne von K⌈⌊T ⌉⌋-Moduln, und
man erkennt V gemäß Satz 4 als f -zyklisch mit Minimalpolynom
pf = (T − λ)n . Schließlich folgt mit Lemma 10, dass A zur Begleit-
matrix des Minimalpolynoms (T − λ)n ähnlich ist. Die Implikation von
(i) nach (ii) ist daher bewiesen.
302 6. Normalformentheorie
eine K-Basis von K⌈⌊T ⌉⌋/(q) bilden. Gemäß Lemma 5 ist bereits be-
kannt, dass dies für die Potenzen T 0 , . . . , T n−1 gilt. Es genügt daher,
wenn wir induktiv
0 i−1
T ,...,T ∈ (T − λ)0 , . . . , (T − λ)i−1 , i = 1, . . . , n,
zeigen. Für i = 1 ist dies trivial, und unter Verwendung der Induk-
tionsvoraussetzung zum Index i − 1 können wir wie folgt schließen:
i i−1 i−1
T = (T − λ) · T + λT
∈ (T − λ)1 , . . . , (T − λ)i + (T − λ)0 , . . . , (T − λ)i−1
= (T − λ)0 , . . . , (T − λ)i
wobei (T − λ)n = 0 gilt. Sie besagen, dass der im Sinne von Bemer-
kung 3 zu f korrespondierende Endomorphismus
r
M
V ≃ K⌈⌊T ⌉⌋/ (T − λi )ni
i=1
Beweis. Wir nehmen zunächst an, dass A trigonalisierbar ist, also ähn-
n×n
lich zu einer Matrix
Qn B = (βij ) ∈ K mit βij = 0 für i < j ist. Dann
gilt χA = χB = i=1 (T −βii ); insbesondere zerfällt χA und damit nach
Korollar 12 auch das Minimalpolynom pA vollständig in Linearfakto-
ren. Ist umgekehrt letztere Bedingung gegeben, so zeigt die Existenz
der Jordanschen Normalform, dass A trigonalisierbar ist.
304 6. Normalformentheorie
Wir wollen als Nächstes ein erstes (recht grobes) praktisches Ver-
fahren zur expliziten Berechnung der Jordanschen Normalform einer
Matrix angeben. Man betrachte also eine Matrix A ∈ K n×n , deren
charakteristisches Polynom vollständig in Linearfaktoren zerfällt, etwa
χA = (T − λ1 )n1 · . . . · (T − λr )nr .
Im Unterschied zu Theorem 15 setzen wir hierbei voraus, dass die Ei-
genwerte λ1 , . . . , λr paarweise verschieden sind. Die Jordansche Nor-
malform J zu A ist dann eine Matrix, auf deren Diagonalen Jordan-
kästchen des Typs J(λ, s) stehen. Für i = 1, . . . , r und j = 1, . . . , ni
bezeichne ki,j diejenige Anzahl, mit der das Jordankästchen J(λi , j) in
J vorkommt. Es gilt
ki,1 + 2ki,2 + . . . + ni ki,ni = ni ,
da die Vielfachheit des Eigenwertes λi als Nullstelle von χA gerade
ni ist, das Element λi also genau ni -mal auf der Diagonalen von J
vorkommt.
Da die Matrizen A und J zueinander ähnlich sind, sind auch die
Matrizen A − λE und J − λE sowie die Potenzen (A − λE)ℓ und
(J −λE)ℓ mit ℓ ∈ N zueinander ähnlich; dabei sei λ ∈ K und E ∈ K n×n
die Einheitsmatrix. Insbesondere folgt dann mit 3.4/6
rg(A − λE)ℓ = rg(J − λE)ℓ für ℓ ∈ N,
und es ist (J −λE)ℓ wiederum eine “Diagonalmatrix”, gebildet aus Käst-
chen, nämlich aus den ℓ-ten Potenzen der Jordankästchen von J − λE.
Nun berechnet sich für ein Jordankästchen des Typs J(λ, m) der Rang
einer ℓ-ten Potenz zu
(
max{0, m − ℓ} für λ = 0
rg J(λ, m)ℓ = .
m für λ 6= 0
Daher bestehen folgende Gleichungen:
rg(A−λi E)ni = rg(J −λi E)ni = n − ni
rg(A−λi E)ni −1 = rg(J −λi E)ni −1 = n − ni + ki,ni
rg(A−λi E)ni −2 = rg(J −λi E)ni −2 = n − ni + 2ki,ni + ki,ni −1
...
1
rg(A−λi E) = rg(J −λi E)1 = n − ni + (ni − 1)ki,ni + . . . + ki,2
6.5 Allgemeine und Jordansche Normalform für Matrizen 305
Ermittelt man also die Ränge der Potenzen von A − λi E, so lassen sich
die Zahlen ki,j , j = ni , ni − 1, . . . , 2, der Reihe nach berechnen. Weiter
gilt aufgrund obiger Gleichung
ki,1 = ni − 2ki,2 − . . . − ni ki,ni ,
womit insgesamt die Jordansche Normalform J von A bestimmt ist.
Als Beispiel wollen wir die Jordansche Normalform der Matrix
1 1 0 1
0 2 0 0
A= −1 1 2 1 ∈ R
4×4
−1 1 0 3
sowie rg(A − 2E)2 = rg(0) = 0 und damit auch rg(A − 2E)s = 0 für
s ≥ 2. Daher bestehen die Gleichungen
0 = rg(A − 2E)4 = n − n1 = 0,
0 = rg(A − 2E)3 = k1,4 ,
0 = rg(A − 2E)2 = 2k1,4 + k1,3 ,
1 = rg(A − 2E)1 = 3k1,4 + 2k1,3 + k1,2 ,
k1,1 = 4 − 2k1,2 = 2.
0 0 1 2
die Jordansche Normalform zu A.
306 6. Normalformentheorie
diejenige K⌈⌊T ⌉⌋-lineare Abbildung, die die kanonische K⌈⌊T ⌉⌋-Basis von
K⌈⌊T ⌉⌋n auf die kanonische K-Basis e1 , . . . , en von K n abbildet; ϕ ist
surjektiv. Weiter sei
die durch die Matrix T E − A ∈ K⌈⌊T ⌉⌋n×n gegebene K⌈⌊T ⌉⌋-lineare Ab-
bildung; E ∈ K n×n sei die Einheitsmatrix. Dann ist die Sequenz
ψ✲ ϕ✲ ✲
K⌈⌊T ⌉⌋n K⌈⌊T ⌉⌋n Kn 0
und damit
und deshalb
n
X
T ν+1 ej ∈ T ν Kei + im ψ, j = 1, . . . , n.
i=1
und damit n
X
n
K⌈⌊T ⌉⌋ = Kei + im ψ.
i=1
die αj als normierte Polynome an. Weiter betrachten wir die Primfak-
n(1,j) n(r,j)
torzerlegungen αj = p1 . . . pr , j = 1, . . . , s, der αj mit paarweise
verschiedenen normierten Primpolynomen p1 , . . . , pr ∈ K⌈⌊T ⌉⌋ und Ex-
ponenten n(i, j) ≥ 0. Dann gilt:
(i) Fasst man V als K⌈⌊T ⌉⌋-Modul unter f auf, so folgt
s
M r M
M s
n(i,j)
V ≃ K⌈⌊T ⌉⌋/αj K⌈⌊T ⌉⌋ ≃ K⌈⌊T ⌉⌋/pi K⌈⌊T ⌉⌋,
j=1 i=1 j=1
Aufgaben
Im Folgenden sei K ein Körper.
1. Es sei A ∈ R7×7 eine Matrix mit charakteristischem Polynom
χA = (T 2 + 1)2 (T − 2)(T 2 − 1) ∈ R⌈⌊T ⌉⌋.
Man untersuche, welche Gestalt die allgemeine Normalform von A haben
kann.
2. Man zeige, dass zwei Matrizen A, B ∈ R3×3 genau dann ähnlich sind,
wenn ihre Minimalpolynome sowie ihre charakteristischen Polynome
übereinstimmen. (AT 463)
3. Für die Matrizen
2 2 0 −3 0 1 1 −2 3 0 1 −2
1 1 0 −1 0 1 0 0 4 1 1 −3
, ∈ R4×4
1 2 −1 −1 , 1 1 0 −2 0 0 −1 0
1 2 0 −2 −1 1 1 −1 4 0 2 −3
310 6. Normalformentheorie
P1 + P2
✟
❜
✟
✟
P2 ❜ ✟
✟
✟
✟
✟
✟
✟
✟
✟
✟ ❜
✟ P1
✟
✟
✟
0 ❜
von möglichst “einfacher” Gestalt war. Mit anderen Worten, wir hatten
mit der Normalformentheorie die Ähnlichkeitsklassen von Matrizen in
K n×n bestimmt, wobei zwei Matrizen A, B ∈ K n×n ähnlich heißen,
wenn es eine invertierbare Matrix S ∈ GL(n, K) mit B = S −1 · A · S
gibt.
Wir wollen ein analoges Problem nun auch im Rahmen euklidi-
scher und unitärer Vektorräume V behandeln. Allerdings müssen wir
hier die Abstandsfunktion auf V mit einbeziehen. Wir werden deshalb
nur solche Basiswechselmatrizen Aid,X ′ ,X zulassen, die längenerhaltend
sind und damit einen Wechsel zwischen Orthonormalbasen X und X ′
definieren. Letzteres ist genau dann der Fall, wie wir sehen werden,
wenn
(Aid,X ′ ,X )−1 = (Aid,X ′ ,X )∗ := (Aid,X ′ ,X )t
gilt, wobei für eine Matrix A = (αij ) ∈ Kn×n die zugehörige komplex
konjugierte Matrix A durch A = (αij ) gegeben ist und At wie üblich
deren transponierte bezeichnet; eine Matrix S = Aid,X ′ ,X mit der vor-
stehenden Eigenschaft wird orthogonal (für K = R) bzw. unitär (für
K = C) genannt. Die mittels solcher Matrizen definierte Relation der
Äquivalenz von Matrizen in Kn×n ist somit viel enger gefasst als die
in Kapitel 6 betrachtete allgemeine Äquivalenz von Matrizen. Es ist
deshalb sinnvoll, sich für das Normalformenproblem auf gewisse Teil-
klassen von Matrizen in Kn×n zu beschränken. Wir werden hier im
Wesentlichen nur symmetrische bzw. hermitesche Matrizen betrach-
ten, d. h. Matrizen A ∈ Kn×n mit A = A∗ ; bezüglich Orthonormalba-
sen stellen diese gerade die sogenannten selbstadjungierten Endomor-
phismen f : V ✲ V dar, die der Relation hf (x), yi = hx, f (y)i für
x, y ∈ V genügen. Dann können wir allerdings die erstaunliche Tat-
sache zeigen, dass eine solche Matrix unter der strengeren Äquivalenz
mittels orthogonaler bzw. unitärer Matrizen stets äquivalent zu einer
reellen Diagonalmatrix ist.
Die bei dem vorstehend beschriebenen Klassifikationsproblem ge-
wonnenen Erkenntnisse lassen sich mit Gewinn auch auf die Klassifi-
kation von symmetrischen Bilinearformen (für K = R) bzw. hermite-
schen Formen (für K = C) auf endlich-dimensionalen K-Vektorräumen
V anwenden, also auf entsprechende Abbildungen Φ : V × V ✲ K.
314 7. Euklidische und unitäre Vektorräume
Denn auch diese werden bezüglich einer Basis X von V durch eine
Matrix AΦ,X beschrieben, welche der Relation AΦ,X = A∗Φ,X genügt.
Allerdings ist das Transformationsverhalten bei Basiswechsel ein an-
deres als bei Endomorphismen, nämlich
AΦ,X ′ = Atid,X ′ ,X · AΦ,X · Aid,X ′ ,X .
Wenn wir uns aber im Rahmen euklidischer bzw. unitärer Vektorräume
bewegen und lediglich orthogonale bzw. unitäre Basiswechselmatrizen
zulassen, so gilt Atid,X ′ ,X = Aid,X ′ ,X −1 , und damit ein analoges Transfor-
mationsverhalten wie bei Endomorphismen von V . Wir können damit
die Klassifikation selbstadjungierter Endomorphismen verwenden und
erhalten für euklidische bzw. unitäre Vektorräume, dass die Klassen
symmetrischer Bilinearformen bzw. hermitescher Formen durch reelle
Diagonalmatrizen repräsentiert werden (Satz über die Hauptachsen-
transformation). Es ist dann relativ leicht einzusehen, dass die ent-
sprechenden Klassen bezüglich allgemeiner Äquivalenz (mittels inver-
tierbarer Matrizen in GL(n, K)) durch Diagonalmatrizen repräsentiert
werden, deren Diagonaleinträge die Werte 1, −1, 0 annehmen können
(Sylvesterscher Trägheitssatz ).
Die Bezeichnung Hauptachsentransformation weist auf einen kon-
kreten geometrischen Sachverhalt hin. Für K = R betrachte man bei-
spielsweise eine quadratische Form auf Rn , etwa
X
q(x) = αij xi xj
i≤j; i,j=1,...,n
e2 ✻
✻
e′2
✲′
...............
.............
.......................
...............
............................
.....
...
..
e1
..
... .
.............
. ..
...
.......... .
...
.
...
..
...... .
..
.
........ ...
...
........ ....
.......
....... ....
..... ....
✲
..
. . ...
..... ...
..... ....
..... .....
..... .....
....
....
...........
......
.....
... .......
e1
.... .......
.......
.
..... .............
.
.
... ........
.. ........
... .........
.........
....
....
...
............
.
... .....
..... .............
.............. ...............
.....................................
7.1 Sesquilinearformen
α = 21 (a + a) = Re(a)
a ∈ R ⇐⇒ Re(a) = a ⇐⇒ Im(a) = 0 ⇐⇒ a = a.
Φ(x, y) = a · x · y
eine Sesquilinearform auf V definiert, und diese ist genau dann nicht
ausgeartet, wenn a 6= 0 gilt.
7.1 Sesquilinearformen 317
Beispielsweise definiert
Φ : Kn × Kn ✲ K, (x, y) ✲ xt · y,
Man erkennt leicht, dass die Form Φ nicht ausgeartet ist, da etwa
Φ(x, x) > 0 für x 6= 0 gilt. Andererseits wird durch die Vorschrift
r
X
t
(x1 , . . . , xn ) , (y1 , . . . , yn ) t ✲ xi · y i ,
i=1
wobei man nur bis zu einer Zahl r < n summiere, eine ausgeartete
Form auf Kn erklärt.
Ist Φ sogar positiv definit, so gilt in dieser Formel genau dann das
Gleichheitszeichen, wenn x und y linear abhängig sind.
Dann folgt
2 2
0 ≤ hx, yi hx, xi − 2 hx, yi hx, xi + hx, xi2 hy, yi
2
= − hx, yi hx, xi + hx, xi2 hy, yi,
2
hx, yi = hx, xi · hy, yi.
wie oben
Ist nun Φ positiv definit, so ergibt sich αx+βy = 0, und man sieht, dass
x, y linear abhängig sind. Für x = 0 ist dies nämlich trivialerweise klar
und für x 6= 0 ebenfalls, da dann der Koeffizient β = hx, xi aufgrund
der positiven Definitheit von Φ nicht verschwindet.
Beweis. Es gilt
|x + y|2 = hx + y, x + yi
= hx, xi + 2Re hx, yi + hy, yi
≤ hx, xi + 2 hx, yi + hy, yi
≤ |x|2 + 2|x||y| + |y|2
2
= |x| + |y|
✟ ... hx, ei · e
✟ ϑ .......
✟ ✲
✟ e
0
Somit entsteht der Vektor hx, ei · e, indem man x senkrecht auf den
durch e gegebenen linearen Unterraum R · e ⊂ Rn projiziert. Allge-
meiner kann man auf diese Weise das Skalarprodukt zweier Vektoren
x, y ∈ Rn −{0} berechnen. Man setze nämlich in der obigen Überlegung
e = |y|−1 · y. Sodann erhält man hx, yi, abgesehen vom Vorzeichen, als
Produkt von |y| mit dem Betrag der senkrechten Projektion von x auf
die Gerade R · y ⊂ Rn . Genauer lässt sich die Projektion von x auf R · y
7.1 Sesquilinearformen 321
mittels der Cosinusfunktion aus der Analysis beschreiben. Ist ϑ der von
x und y eingeschlossene Winkel, so berechnet sich diese Projektion zu
|x|
|y|
· cos(ϑ) · y, und es folgt:
Aufgaben
Falls nicht anders bestimmt, sei V ein endlich-dimensionaler R-Vektor-
raum und Φ : V × V ✲ R eine symmetrische Bilinearform auf V .
V ×V ✲ K, (x, y) ✲ ϕ(x)(y),
7.2 Orthogonalität
X
k
hx − pU (x), ej i = hx, ej i − hx, ei iei , ej
i=1
= hx, ej i − hx, ej ihej , ej i = 0,
k−1
X −1 k−1
X
ek = xk − hxk , ej iej · xk − hxk , ej iej
j=1 j=1
1
Gemäß unserer Konvention schließt det(Ak ) > 0 die Bedingung det(Ak ) ∈ R
mit ein.
7.2 Orthogonalität 325
en = α · xn + y
mit einer Konstanten α > 0 und einem Vektor y ∈ Un−1 . Hieraus ergibt
sich
An−1 ∗
An = ,
0 α
und es folgt det(An ) = α · det(An−1 ) > 0 wegen α > 0, det(An−1 ) > 0.
Zum Beweis der Eindeutigkeitsaussage sei f1 , . . . , fn eine Ortho-
normalbasis von V , die den Eigenschaften (ii) und (iii) genügt. Wie-
derum verwenden wir Induktion nach n, um fi = ei für i = 1, . . . , n zu
zeigen, wobei der Induktionsanfang n = 0 trivial ist. Sei also n > 0.
Nach Induktionsvoraussetzung dürfen wir fi = ei für i = 1, . . . , n − 1
annehmen. Dann existiert eine Gleichung des Typs
fn = α · xn + y
Ln−1
mit einem Skalar α ∈ K und einem Vektor y ∈ Un−1 = i=1 Kxi . Die
′
Basiswechselmatrix Aid,E ′ ,X mit E = (f1 , . . . , fn ) = (e1 , . . . , en−1 , fn )
und X = (x1 , . . . , xn ) hat dann die Gestalt
An−1 ∗
A= ,
0 α
und es folgtLα > 0 wegen det(A) > 0 sowie det(An−1 ) > 0. Indem
n−1
wir Un−1 = i=1 Kei benutzen, lässt sich y als Linearkombination der
e1 , . . . , en−1 schreiben. Folglich gibt es Konstanten β1 , . . . , βn−1 ∈ K
mit
326 7. Euklidische und unitäre Vektorräume
n−1
X
fn = α · xn − βi ei .
i=1
Ist V ein K-Vektorraum mit einer sBF oder HF, so heißen zwei
Teilmengen M, N ⊂ V orthogonal, in Zeichen M ⊥ N , wenn stets
hx, yi = 0 für x ∈ M , y ∈ N gilt. Man schreibt dabei auch x ⊥ y
anstelle von hx, yi = 0, wobei x ⊥ y äquivalent zu y ⊥ x ist. Außerdem
kann man zu einer Teilmenge M ⊂ V den K-Untervektorraum
M ⊥ = x ∈ V ; x ⊥ y für alle y ∈ M
7.2 Orthogonalität 327
Als Anwendung wollen wir noch auf das Volumen eines Parallelo-
tops im Rn eingehen. Für ein linear unabhängiges System von Vektoren
x1 , . . . , xr ∈ Rn bezeichne
r
X
n
P (x1 , . . . , xr ) = x ∈ R ; x = αi xi mit 0 ≤ αi ≤ 1
i=1
Insbesondere folgt
2 2
detM (x1 , . . . , xr ) = det(x1,M , . . . , xr,M ) = G(x1 , . . . , xr )
und weiter
2 2
Vol P (x1 , . . . , xr ) = Vol P (x1 , . . . , xr−1 , x′r )
hx1 , x1 i . . . hx1 , xr−1 i 0
.. ... .. ..
= det
hxr−1 , x1 i . . . hxr−1 , xr−1 i
0
0 ... 0 hx′r , x′r i
hx1 , x1 i . . . hx1 , xr−1 i
= det .. ... .. · |x′r |2
hxr−1 , x1 i . . . hxr−1 , xr−1 i
2
= Vol P (x1 , . . . , xr−1 ) · |x′r |2 .
Aufgaben
1. Man betrachte R3 als euklidischen Vektorraum mit dem kanonischen
Skalarprodukt und wende das nach E. Schmidt benannte Orthonorma-
lisierungsverfahren auf die Basis (1, 1, 0), (1, 0, 1), (0, 1, 1) ∈ R3 an.
2. Für n ∈ N sei R⌈⌊T ⌉⌋n ⊂ R⌈⌊T ⌉⌋ der R-Untervektorraum aller Polynome
vom Grad ≤ n. Man zeige, dass durch
Z 1
hf, gi = f (t)g(t)dt, f, g ∈ R⌈⌊T ⌉⌋n ,
0
ein Skalarprodukt auf R⌈⌊T ⌉⌋n definiert wird. Für n = 2 wende man das
Orthonormalisierungsverfahren von E. Schmidt auf die Basis 1, T, T 2
von R⌈⌊T ⌉⌋2 an. (AT 469)
3. Es sei V ein euklidischer bzw. unitärer K-Vektorraum mit einer Ba-
sis x1 , . . . , xn , aus der man durch Anwenden des Schmidtschen Ortho-
normalisierungsverfahrens die Orthonormalbasis e1 , . . . , en erhalte. Man
zeige für Konstanten ε1 , . . . , εn ∈ K mit |εi | = 1, dass das Orthonor-
malisierungsverfahren die Basis ε1 x1 , . . . , εn xn in die Orthonormalbasis
ε1 e1 , . . . , εn en überführt.
4. Es sei V ein euklidischer bzw. unitärer K-Vektorraum, U ⊂ V ein Un-
tervektorraum und v ∈ V − U . Man zeige (AT 471):
(i) Es existiert genau ein u0 ∈ U mit v − u0 ∈ U ⊥ .
(ii) Für alle u ∈ U mit u 6= u0 gilt |v − u| > |v − u0 |.
5. Es sei V = Rn×n der R-Vektorraum aller reellen (n×n)-Matrizen. Man
zeige:
(i) Durch Φ(A, B) = Spur(A · B) wird auf V eine nicht-ausgeartete
symmetrische Bilinearform erklärt.
(ii) Sei U+ = {U ∈ V ; U t = U } der Untervektorraum aller symmetri-
schen und U− = {U ∈ V ; U t = −U } der Untervektorraum aller
schiefsymmetrischen Matrizen. Es gilt
V = U+ ⊕ U− , U+⊥ = U− , U−⊥ = U+ .
7.3 Sesquilinearformen und Matrizen 331
die adjungierte Matrix zu A. Dabei ist zu beachten, dass hier die Be-
zeichnung “adjungiert” in einem anderen Sinne als in Abschnitt 4.4
gemeint ist. Für das Rechnen mit konjugierten Matrizen gelten folgen-
de Regeln; A, B seien Matrizen, c ∈ K eine Konstante:
A+B =A+B
c·A=c·A
A·B =A·B
A−1 = (A)−1
det(A) = det(A)
Für das Transponieren von Matrizen hatten wir bereits die folgenden
Rechenregeln kennengelernt:
(A + B)t = At + B t
(c · A)t = c · At
(A · B)t = B t · At
(A−1 )t = (At )−1
det(At ) = det(A)
332 7. Euklidische und unitäre Vektorräume
Und zwar ergeben sich die ersten beiden Gleichungen aus 3.2/6, die
dritte, sowie als leichte Folgerung auch die vierte aus 3.2/8, und schließ-
lich die letzte aus 4.3/4. Somit ergeben sich folgende Regeln für das
Rechnen mit adjungierten Matrizen:
(A + B)∗ = A∗ + B ∗
(c · A)∗ = c · A∗
(A · B)∗ = B ∗ · A∗
(A−1 )∗ = (A∗ )−1
det(A∗ ) = det(A)
wie behauptet. Hat man andererseits eine Matrix A = (αij )i,j ∈ Kn×n
mit
7.3 Sesquilinearformen und Matrizen 333
Φ(a, b) = atX · A · bX ,
für a, b ∈ V , so ergibt sich, indem man x1 , . . . , xn für a bzw. b einsetzt,
Φ(xi , xj ) = αij
und damit A = AΦ,X , d. h. die Matrix A = AΦ,X ist durch obige
Beziehung eindeutig bestimmt.
Sei nun Φ ausgeartet, etwa ausgeartet im ersten Argument. Sei also
a ∈ V von Null verschieden mit Φ(a, b) = 0 für alle b ∈ V . Dann gilt
atX · AΦ,X · bX = 0 für alle b ∈ V.
Indem man dies für b = x1 , . . . , xn anwendet, erhält man atX ·AΦ,X = 0.
Die K-lineare Abbildung
Kn ✲ Kn , x ✲ AtΦ,X · x,
hat daher einen nicht-trivialen Kern, und es ergibt sich
det(AΦ,X ) = det(AtΦ,X ) = 0
mit 4.3/4. Umgekehrt folgt mittels 2.1/11 und 4.3/4 aus einer solchen
Gleichung, dass Φ im ersten Argument ausgeartet ist. Der Fall, dass Φ
im zweiten Argument ausgeartet ist, lässt sich entsprechend behandeln.
(i) Φ ist eine sBF bzw. HF, d. h. für a, b ∈ V gilt Φ(a, b) = Φ(b, a).
(ii) AΦ,X = (AΦ,X )∗ .
S t · AΦ,X · S = E
da det(AY,X ) 6= 0.
Beweis. Die Implikation (i)=⇒ (ii) ist Prleicht einzusehen. Man schränke
Φ auf die Untervektorräume Vr = i=1 Kxi ein, r = 1, . . . , n. Korol-
lar 7 zeigt dann det(Ar ) > 0.
Zum Nachweis der Umkehrung nehmen wir an, dass det(Ar ) > 0
für r = 1, . . . , n gilt, und zeigen mit Induktion nach n, dass Φ ein
Skalarprodukt ist. Der Fall n = 1 ist trivial, da dann x1 eine Basis von
V ist und Φ(x1 , x1 ) = det(A1 ) > 0 gilt. Sei also n > 1. Dann ist Φ|Vn−1
positiv definit nach Induktionsvoraussetzung, und es besitzt Vn−1 nach
7.2/5 eine Orthonormalbasis e1 , . . . , en−1 . Weiter ist wie im Beweis zu
7.2/4 leicht zu sehen, dass e1 , . . . , en−1 zusammen mit
n−1
X
x′n = xn − Φ(xn , ei )ei
i=1
gilt. Mit S = AY,X folgt dann AΦ,Y = S t An S aus Satz 5 und damit
2
Φ(x′n , x′n ) = det(AΦ,Y ) = det(S) · det(An ) > 0.
Aufgaben
V sei stets ein K-Vektorraum der Dimension n < ∞.
1. Man zeige, dass die Menge aller Sesquilinearformen V × V ✲ K unter
der Addition und skalaren Multiplikation von K-wertigen Funktionen auf
V × V einen K-Vektorraum und insbesondere auch einen R-Vektorraum
bildet. Man berechne jeweils die Dimension. Welche der folgenden Teil-
mengen bilden lineare Unterräume über R bzw. C? Man berechne gege-
benenfalls die zugehörige Dimension.
(i) Symmetrische Bilinearformen im Falle K = R
(ii) Hermitesche Formen im Falle K = C
(iii) Skalarprodukte
2. Im Falle dimK V ≥ 2 konstruiere man eine nicht-ausgeartete sBF bzw.
HF Φ auf V sowie einen nicht-trivialen linearen Unterraum U ⊂ V , so
dass Φ|U ×U ausgeartet ist.
3. Es sei Φ eine positiv semidefinite sBF bzw. HF auf V . Man zeige, dass
es eine Basis X von V gibt, so dass die zugehörige Matrix AΦ,X ei-
ne Diagonalmatrix mit Diagonaleinträgen 1 oder 0 ist, also etwa mit
AΦ,X = Diag(1, . . . , 1, 0, . . . , 0).
4. Es sei Φ eine sBF bzw. HF auf V und X eine Basis von V . Man zeige,
dass alle Hauptunterdeterminanten von AΦ,X reelle Zahlen ≥ 0 sind,
falls Φ positiv semidefinit ist. Gilt auch die Umkehrung? (AT 472)
5. Für eine Matrix A ∈ Kn×n gilt genau dann A∗ = A−1 , wenn die Spal-
ten (bzw. Zeilen) von A eine Orthonormalbasis in Kn bilden. Eine solche
Matrix wird als orthogonal (für K = R) bzw. unitär (für K = C) be-
zeichnet.
6. Es sei Φ ein Skalarprodukt auf V . Man zeige für jedes weitere Skalar-
produkt Ψ auf V : Es existiert ein Endomorphismus f : V ✲ V mit
Ψ (x, y) = Φ(f (x), f (y)) für alle x, y ∈ V .
338 7. Euklidische und unitäre Vektorräume
K×V ✲ V, (α, v) ✲ α • v := α · v,
sowie für α ∈ K, x ∈ V
ϕ′ : V ′ ✲ V ′, f ✲ f ◦ ϕ.
für ϕ ∈ EndK (V ).
(iii) Es gilt rg ϕ = rg ϕ∗ für ϕ ∈ EndK (V ). Insbesondere ist ϕ genau
dann bijektiv, wenn ϕ∗ bijektiv ist.
und damit (αϕ1 + βϕ2 )∗ = αϕ∗1 + βϕ∗2 gemäß Satz 2. In gleicher Weise
zeigt
id(x), y = hx, yi = x, id(y)
die Gleichung id∗ = id, sowie
(ii) Sei x ∈ V . Da die Form Φ nicht ausgeartet ist, ist die Bedin-
gung x ∈ ker ϕ∗ äquivalent zu hv, ϕ∗ (x)i = 0 für alle v ∈ V , wegen
hv, ϕ∗ (x)i = hϕ(v), xi aber auch zu hϕ(v), xi = 0 für alle v ∈ V und
damit zu x ∈ (im ϕ)⊥ . Weiter hat man dann aufgrund von (i)
benutzt, welche wir in 7.2/8 nur für euklidische bzw. unitäre Vektor-
räume bewiesen hatten.
sowie
x, ϕ∗ ◦ ϕ(y) = x, ϕ ◦ ϕ∗ (y)
für alle x, y ∈ V gilt, sowie aufgrund der Tatsache, dass die Form hx, yi
auf V nicht ausgeartet ist, genau dann, wenn
ϕ∗ ◦ ϕ(y) = ϕ ◦ ϕ∗ (y)
Beweis. Aussage (i) ergibt sich mittels Satz 6 aus der Gleichung
(λ id −ϕ)∗ = λ id −ϕ∗ ,
V = Ke1 ⊕ (Ke1 )⊥ ;
344 7. Euklidische und unitäre Vektorräume
vgl. 7.2/8. Dabei ist (Ke1 )⊥ ein ϕ-invarianter Unterraum von V , denn
für x ∈ (Ke1 )⊥ gilt unter Benutzung von Korollar 7 (ii)
ϕ(x), e = x, ϕ∗ (e ) = hx, λe i = λhx, e i = 0.
1 1 1 1
Aufgaben
V sei stets ein euklidischer bzw. unitärer K-Vektorraum endlicher Di-
mension, ϕ ein Endomorphismus von V und ϕ∗ die zugehörige adjun-
gierte Abbildung.
1. Man zeige Spur(ϕ ◦ ϕ∗ ) ≥ 0, wobei Spur(ϕ ◦ ϕ∗ ) genau für ϕ = 0
verschwindet. (AT 475)
2. Man zeige:
(i) Ist ϕ normal, so gilt im ϕ∗ = im ϕ.
(ii) Ist ψ ein weiterer Endomorphismus von V und sind ϕ, ψ normal,
so ist ϕ ◦ ψ = 0 äquivalent zu ψ ◦ ϕ = 0.
3. Für ϕ = ϕ2 zeige man: Es gilt genau dann ϕ = ϕ∗ , wenn ker ϕ und im ϕ
orthogonal zueinander sind.
4. Für K = C zeige man: ϕ ist genau dann normal, wenn es ein Polynom
p ∈ C⌈⌊T ⌉⌋ mit ϕ∗ = p(ϕ) gibt. (AT 475)
5. Für K = C und ϕ normal zeige man: Sind x, y ∈ V zwei Eigenvektoren
zu verschiedenen Eigenwerten, so gilt x ⊥ y.
7.5 Isometrien, orthogonale und unitäre Matrizen 345
Aus den Eigenschaften (ii) bzw. (iv) und (v) liest man sofort ab:
Beweis zu Satz 1. Wir beginnen mit der Implikation (i) =⇒ (ii). Sei
also (i) gegeben. Dann hat man für x, y ∈ V
Da die Form h·, ·i nicht ausgeartet ist, gilt ϕ∗ ◦ ϕ(y) = y für alle y ∈ V
und damit ϕ∗ ◦ ϕ = idV . Insbesondere ist ϕ injektiv und damit nach
2.1/11 ein Isomorphismus, wobei ϕ∗ = ϕ−1 und damit (ii) folgt.
346 7. Euklidische und unitäre Vektorräume
also
Re α ϕ(eµ ), ϕ(eν ) = 0.
n
X n
X
x= αµ eµ , y= βν eν
µ=1 ν=1
e1 ✲ c · e1 + s · e2 ,
ϕ : R2 ✲ R2 ,
e2 ✲ −s · e1 + c · e2 ,
d. h. ϕ ist eine Isometrie. Wir wollen uns klar machen, dass ϕ eine
Drehung um den Nullpunkt 0 ∈ R2 mit einem gewissen Winkel ϑ ist.
Hierzu ist es am einfachsten, R2 unter dem Isomorphismus
R2 ∼✲ C, (a1 , a2 ) ✲ a1 + ia2 ,
C ✲ C, z ✲ (c + is) · z.
Nun ist c + is wegen c2 + s2 = 1 eine komplexe Zahl vom Betrag 1, also
gelegen auf dem Kreis um 0 mit Radius 1. Aus der Analysis können
wir benutzen, dass die Punkte des Einheitskreises um 0 genau den Po-
tenzen eiϑ mit reellen Parameterwerten ϑ, 0 ≤ ϑ < 2π, entsprechen. Es
gibt also genau ein solches ϑ, das sogenannte Argument der komplexen
Zahl c + is, welches die Gleichung eiϑ = c + is erfüllt:
✻
i ....................................................................................
............
...........
..........
..........
C ≃ R2
........
........
........
.......
.......
......
......
......
....
.....
.....
....
....
....
....
....
....
....
...
....
....
...
iϑ
e = c + is
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
..
s = sin ϑ
..
..
..
..
..
..
..
..
ϑ
...
✲
..
...
...
0 c = cos ϑ 1
Da sich bei der Multiplikation komplexer Zahlen deren Beträge mul-
tiplizieren und die Argumente addieren (modulo 2π) und da eiϑ vom
Betrag 1 ist, erkennt man in der Tat die R-lineare Abbildung C ✲ C,
z ✲ eiϑ z, und somit die obige Abbildung ϕ : R2 ✲ R2 als Dre-
hung um den Winkel ϑ. Die beschreibende Matrix ist aufgrund der
Gleichung eiϑ = cos ϑ + i · sin ϑ von der Form
cos ϑ − sin ϑ
R(ϑ) = ∈ R2×2 , 0 ≤ ϑ ≤ 2π,
sin ϑ cos ϑ
und wird als Drehmatrix zum Winkel ϑ bezeichnet. Umgekehrt ist klar,
dass jede solche Drehmatrix eine Drehung und damit eine Isometrie auf
der reellen Ebene R2 definiert.
Neben den Drehungen gibt es weitere Isometrien von R2 , nämlich
die sogenannten Spiegelungen. Eine R-lineare Abbildung ϕ : R2 ✲ R2
7.5 Isometrien, orthogonale und unitäre Matrizen 349
u1 ✲ u1 , u2 ✲ − u2 ,
beschrieben wird. Satz 6 weiter unten wird uns zeigen, dass Drehungen
und Spiegelungen die einzigen Isometrien von R2 sind. Zunächst aber
wollen wir wieder zur allgemeinen Situation aus Satz 1 zurückkehren
und einige weitere Folgerungen ziehen.
Aϕ,X,X = AY,X .
350 7. Euklidische und unitäre Vektorräume
Nach Satz 1 (iv) bzw. (v) ist Y genau dann eine Orthonormalbasis,
wenn ϕ eine Isometrie ist, und nach Korollar 3 ist dies äquivalent zu
(Aϕ,X,X )∗ = (Aϕ,X,X )−1 , also mit A = AY,X zu A∗ = A−1 .
ati · aj = δij , i, j = 1, . . . , n.
Eine entsprechende Überlegung lässt sich auch für die Zeilen von A
anstellen. Eine Matrix A ∈ Rn×n ist daher genau dann orthogonal,
wenn ihre Spalten (bzw. Zeilen) ein Orthonormalsystem und damit
eine Orthonormalbasis von Rn bilden.
Über dem Körper C verfährt man in ähnlicher Weise. Eine Matrix
A ∈ Cn×n heißt unitär, wenn die C-lineare Abbildung
Cn ✲ Cn , x ✲ Ax,
unitär, also eine Isometrie ist. Dabei betrachte man Cn mittels des ka-
nonischen Skalarprodukts als unitären Vektorraum. Gemäß Korollar 3
ist A ∈ Cn×n genau dann unitär, wenn A∗ = A−1 bzw. A∗ A = E gilt,
und diese Bedingung ist wiederum dazu äquivalent, dass die Spalten
(bzw. Zeilen) von A eine Orthonormalbasis von Cn bilden.
Aus den Korollaren 2 und 3 ergibt sich unmittelbar, dass die or-
thogonalen bzw. unitären Matrizen A ∈ Kn×n eine Untergruppe der
Gruppe GL(n, K) aller invertierbaren Matrizen in Kn×n bilden. Dabei
nennt man
O(n) = A ∈ GL(n, R) ; At = A−1
die orthogonale Gruppe zum Index n, sowie
U(n) = A ∈ GL(n, C) ; A∗ = A−1
7.5 Isometrien, orthogonale und unitäre Matrizen 351
die unitäre Gruppe zum Index n, wobei man O(n) als Untergruppe
von U(n) auffassen kann. Für A ∈ U(n) ist A∗ · A = A−1 · A die
Einheitsmatrix, so dass man für jede orthogonale bzw. unitäre Matrix
| det(A)| = 1 erhält. Insbesondere lässt sich
SO(n) = A ∈ O(n) ; det(A) = 1
das Gleichungssystem
2 2
α11 + α21 = 1,
2 2
α12 + α22 = 1,
α11 α12 + α21 α22 = 0.
sind daher vom Betrag 1. Gleiches gilt für ihr Produkt, und es folgt
352 7. Euklidische und unitäre Vektorräume
(α11 + iα21 ) · (α22 + iα12 ) = (α11 α22 − α21 α12 ) + i(α11 α12 + α21 α22 )
= α11 α22 − α21 α12
= det(A) = ±1 ∈ R.
und damit
α22 = α11 , α12 = −α21 .
Wir benutzen nun aus der Analysis, dass es wegen α11
2 2
+ α21 = 1 genau
einen Winkel ϑ, 0 ≤ ϑ < 2π, mit
also mit
α11 −α21 cos ϑ − sin ϑ
A= = = R(ϑ)
α21 α11 sin ϑ cos ϑ
gibt. Dies bedeutet, dass A eine Drehung um den Nullpunkt mit dem
Winkel ϑ beschreibt.
Das charakteristische Polynom einer Drehung R(ϑ) berechnet sich
zu
χR(ϑ) = T 2 − 2(cos ϑ)T + 1 = (T − eiϑ )(T − e−iϑ ),
hat also nur für sin ϑ = 0, d. h. nur für ϑ ∈ {0, π} reelle Nullstellen.
Somit erhält man:
also
α22 = −α11 , α12 = α21 ,
so dass es auch in diesem Falle genau einen Winkel ϑ, 0 ≤ ϑ < 2π, mit
cos ϑ sin ϑ
A=
sin ϑ − cos ϑ
gibt. Natürlich gehören alle Matrizen A dieses Typs zu O(2). Das cha-
rakteristische Polynom einer solchen Matrix ergibt sich zu χA = T 2 −1,
so dass A die reellen Eigenwerte 1 und −1 besitzt und folglich diago-
nalisierbar ist. Die Gleichung At = A−1 zeigt, dass A einen normalen
Endomorphismus von R2 beschreibt. Gemäß 7.4/8 gibt es dann in R2
eine Orthonormalbasis bestehend aus Eigenvektoren von A, und man
erkennt A als Spiegelung. Somit folgt:
Die Struktur der Gruppen O(2) und SO(2) ist damit vollständig
geklärt. Man sollte noch vermerken (und dies auch mittels elementarer
Rechnung überprüfen), dass SO(2) kommutativ ist, nicht aber O(2).
Wir wollen nun Normalformen für Isometrien allgemeinen Typs
in euklidischen und unitären Vektorräumen herleiten. Mit Satz 1 (ii)
folgt insbesondere, dass jede Isometrie normal ist. Dementsprechend ist
zumindest über dem Körper C der komplexen Zahlen der Spektralsatz
7.4/8 anwendbar.
Beweis. Sei zunächst (i) gegeben, ϕ also eine Isometrie. Dann kann ϕ als
längenerhaltende Abbildung nur Eigenwerte vom Betrag 1 haben. Da C
im Übrigen algebraisch abgeschlossen ist, zerfällt das charakteristische
Polynom χϕ vollständig in Linearfaktoren. Weiter ist ϕ normal. Also
folgt mit 7.4/8 die Existenz einer Orthonormalbasis X von V , die aus
lauter Eigenvektoren von ϕ besteht, d. h. es gilt (ii).
Ist umgekehrt X eine Orthonormalbasis von V , die aus Eigenvek-
toren von ϕ besteht, und sind alle Eigenwerte vom Betrag 1, so wird
X durch ϕ offenbar wiederum in eine Orthonormalbasis überführt. Es
ist ϕ damit eine Isometrie gemäß Satz 1.
wobei wir pc−1 R⌈⌊T ⌉⌋/pc R⌈⌊T ⌉⌋ als R⌈⌊T ⌉⌋-Untermodul von R⌈⌊T ⌉⌋/(pc )
auffassen können. Aufgrund von 6.5/2 (i) enthalten daher U ′ und
insbesondere V einen ϕ-invarianten linearen Unterraum U , der als
R⌈⌊T ⌉⌋-Modul isomorph zu R⌈⌊T ⌉⌋/(p) ist, also nach 6.5/4 bzw. 6.5/7
ϕ-unzerlegbar ist und nach 6.5/5 die Dimension grad p besitzt. Nun
haben aber Primpolynome in R⌈⌊T ⌉⌋ den Grad 1 oder 2, vgl. Aufgabe 3
aus Abschnitt 5.3, so dass wir U ⊂ V als unzerlegbaren ϕ-invarianten
linearen Unterraum der Dimension 1 oder 2 erkennen.
Wir betrachten nun die Zerlegung V = U ⊕ U ⊥ , vgl. 7.2/8,
und zeigen, dass mit U auch das orthogonale Komplement U ⊥ ein
ϕ-invarianter Unterraum von V ist. Hierzu bemerken wir zunächst,
dass ϕ als Isomorphismus eine lineare Abbildung ϕ|U : U ✲ U in-
duziert, die zumindest injektiv, dann aber aufgrund von 2.1/11 sogar
bijektiv ist und damit ϕ−1 (U ) = U erfüllt. Sei nun y ∈ U ⊥ . Für alle
x ∈ U gilt dann
da mit x, wie wir gesehen haben, auch ϕ−1 (x) zu U gehört. Dies be-
deutet aber ϕ(y) ∈ U ⊥ , und wir erkennen auf diese Weise, dass in der
Tat U ⊥ ein ϕ-invarianter Unterraum von V ist.
Man wähle nun in U eine Orthonormalbasis X ′ . Für dimR (U ) = 1
besteht X ′ lediglich aus einem einzigen Vektor, der dann notwendig ein
Eigenvektor von ϕ ist. Der zugehörige Eigenwert ist gemäß Satz 1 (iii)
vom Betrag 1, also gleich 1 oder −1. Für dimR (U ) = 2 besteht X ′
356 7. Euklidische und unitäre Vektorräume
aus 2 Vektoren, und es folgt mit Korollar 3, dass die Matrix Aϕ|U ,X ′ ,X ′
zu O(2) gehört, allerdings nicht diagonalisierbar sein kann, da wir U
als ϕ-unzerlegbar angenommen hatten. Dann gilt aufgrund der obigen
Beschreibung der Matrizen in O(2) notwendig Aϕ|U ,X ′ ,X ′ = R(ϑ) mit
einem Winkel ϑ 6= π, 0 < ϑ < 2π. Indem wir notfalls die Reihenfolge
der Vektoren in X ′ ändern, was einem Ersetzen des Winkels ϑ durch
2π − ϑ entspricht, können wir sogar 0 < ϑ < π annehmen.
Nach Induktionsvoraussetzung gibt es nun in U ⊥ eine Orthonor-
malbasis X ′′ , so dass Aϕ|U ⊥ ,X ′′ ,X ′′ von der in (ii) beschriebenen Gestalt
ist. Man kann dann X ′ und X ′′ zu einer Orthonormalbasis X von V
zusammensetzen, und es folgt nach geeigneter Umnummerierung der
Basisvektoren von X, dass die Matrix Aϕ,X,X die gewünschte Gestalt
hat. Die Implikation (i) =⇒ (ii) ist somit bewiesen. Umgekehrt ist
unmittelbar klar, dass jede Matrix des Typs (ii) orthogonal ist, ϕ in
diesem Falle daher eine Isometrie ist.
Zum Nachweis der Eindeutigkeitsaussage hat man lediglich zu be-
achten, dass sich für eine Isometrie ϕ das charakteristische Polynom
einer beschreibenden Matrix A wie in (ii) zu
m
Y
χϕ = χA = (T − 1)k (T + 1)ℓ (T − eiϑj )(T − e−iϑj )
j=1
Aufgaben
Falls nicht anderweitig bestimmt, sei V stets ein euklidischer bzw. uni-
tärer K-Vektorraum endlicher Dimension.
1. Man zeige: Zu x, y ∈ V gibt es genau dann eine Isometrie ϕ ∈ EndK (V )
mit ϕ(x) = y, wenn |x| = |y| gilt.
2. Man zeige für zwei Drehmatrizen R(ϑ1 ), R(ϑ2 ) ∈ R2×2 mit gegebenen
Winkeln 0 ≤ ϑ1 < ϑ2 < 2π, dass diese genau dann ähnlich sind, wenn
ϑ1 + ϑ2 = 2π gilt. (AT 477)
7.6 Selbstadjungierte Abbildungen 357
zeigt. Entsprechend ist für jede Matrix A ∈ Kn×n das Produkt AA∗
symmetrisch bzw. hermitesch. Trivialerweise ist jeder selbstadjungierte
358 7. Euklidische und unitäre Vektorräume
D = S −1 AS = S ∗ AS = (S)t AS
ϕ : Kn ✲ Kn , x ✲ Ax,
D = S −1 · A · S.
xt · A · x = 25
D = S t AS = S −1 AS
eine reelle Diagonalmatrix ist, wobei auf der Diagonalen von D gerade
die Eigenwerte von A stehen. Da das charakteristische Polynom von A
die Gestalt
χA = (T − 25)(T − 50)
hat, können wir etwa
t −1 25 0
S AS = S AS =
0 50
25y12 + 50y22 = 25
bzw. durch
y12 + 2y22 = 1
beschreibt. Insbesondere sehen wir, dass es sich um eine Ellipse han-
delt. In der Gleichung kommen nunmehr keine gemischten Terme mehr
vor, was bedeutet, dass man C bezüglich seiner “Hauptachsen” be-
schrieben hat.
Um C noch genauer zu charakterisieren, sollte man natürlich die
Hauptachsen von C explizit bestimmen, also die Orthonormalbasis Y
und die zugehörige Transformationsmatrix S = AY,X .2 Dies kann wie
folgt geschehen. Man betrachte
2
Man beachte jedoch, dass die Basis Y nicht im strengen Sinne als eindeutig be-
zeichnet werden kann, denn deren Elemente lassen sich noch bezüglich Reihenfolge
und Vorzeichen abändern. Für eine Kreislinie C besitzt sogar jede Orthonormalba-
sis von R2 die Eigenschaft von Hauptachsen.
7.6 Selbstadjungierte Abbildungen 363
R2 ✲ R2 , x ✲ Ax,
R2 ✲ R2 , x ✲ Sx,
als Drehung R(ϑ) mit einem Winkel ϑ von ungefähr 53◦ zu interpre-
tieren.
Abschließend wollen wir noch einige Folgerungen aus dem Theorem
über die Hauptachsentransformation ziehen.
Beweis. Wir gehen aus von einer Basis X = (x1 , . . . , xn ) von V und be-
trachten die Matrix AΨ,X , sowie die zugehörigen Zahlen k, ℓ, m. Dann
existiert nach Theorem 6 in Verbindung mit 7.3/4 eine orthogona-
le bzw. unitäre Matrix S ∈ GL(n, K), so dass D = S t AS die Ge-
stalt einer reellen Diagonalmatrix besitzt; die Diagonalelemente von D
7.6 Selbstadjungierte Abbildungen 365
da Ψ auf V1+ positiv definit und auf V2− ⊕ V20 negativ semidefinit ist.
Dies bedeutet
k1 + ℓ2 + m2 ≤ dim V
366 7. Euklidische und unitäre Vektorräume
ℓ1 = dim V − ki − mi = ℓ2 , i = 1, 2,
Aufgaben
Falls nicht anderweitig bestimmt, sei V stets ein euklidischer bzw. uni-
tärer K-Vektorraum endlicher Dimension.
1. Es sei ϕ ∈ EndK (V ) selbstadjungiert. Man zeige: ϕ besitzt genau dann
lauter positive reelle Eigenwerte, wenn hϕ(x), xi > 0 für alle x ∈ V −{0}
gilt. (AT 479)
2. Für einen normalen Endomorphismus ϕ ∈ End (V ) zeige man: ϕ ◦ ϕ∗
K
besitzt lauter reelle Eigenwerte ≥ 0.
3. Für A ∈ Rn×n zeige man: A ist genau dann symmetrisch, wenn es eine
Matrix S ∈ Cn×n mit A = S t S gibt. (AT 480)
4. Es sei A ∈ Kn×n symmetrisch bzw. hermitesch. Man zeige, dass A genau
dann eine positiv semidefinite Sesquilinearform auf Kn definiert, wenn
A von der Form S ∗ S mit einer Matrix S ∈ Kn×n ist.
5. Man zeige: Zwei symmetrische bzw. hermitesche Matrizen A, B ∈ Kn×n
sind genau dann ähnlich, wenn es eine orthogonale bzw. unitäre Matrix
S ∈ GL(n, K) mit B = S t AS gibt.
8. Aufgabentrainer
Allgemeines
die einzelnen Schritte, die bei der Bearbeitung einer Aufgabe zu durch-
laufen sind, genauer beschrieben werden.
Start: Zu Beginn sollte man aus dem Aufgabentext die Ausgangs-
situation mit den zur Verfügung stehenden Voraussetzungen herausde-
stillieren. Es ist dabei zweckmäßig, sich die verwendeten Begriffsbildun-
gen nochmals zu vergegenwärtigen, inklusive zugehöriger Eigenschaften
und Resultate, die im Rahmen der dargestellten Theorie abgehandelt
wurden.
Ziel : In einem zweiten Schritt sollte dann das zu beweisende Re-
sultat, sofern erforderlich, klar strukturiert werden. Insbesondere sollte
festgehalten werden, welche Aussagen im Einzelnen zu beweisen sind.
Wie im ersten Schritt ist es auch hier zweckmäßig, sich die verwende-
ten Begriffsbildungen und die zugehörigen Eigenschaften und Resultate
nochmals vor Augen zu führen.
Strategie: Nun beginnt die Planung des eigentlichen Parcours vom
Start bis zum Ziel. Um eine gangbare Route zu finden, kann man zu-
nächst einmal die Startsituation genauer anschauen und überlegen, ob
es äquivalente oder ähnliche Startbedingungen gibt, die in Verbindung
mit der abgehandelten Theorie eher in Richtung Ziel deuten. Auf der
anderen Seite kann man aber auch das Ziel weiter analysieren und
Fragen des folgenden Typs stellen: Gibt es äquivalente Beschreibun-
gen des Ziels? Gibt es offensichtliche Resultate, die aus dem Ziel fol-
gen würden? Mit anderen Worten, gibt es äquivalente Versionen oder
Abschwächungen des Ziels, die möglicherweise einfacher zu erreichen
sind? Oder gibt es einen Reduktionsschritt, der für eine vollständige
Induktion nützlich sein könnte? Kurz gesagt, jede Überlegung ist von
Interesse, die geeignet ist, die “Topographie” zwischen Start und Ziel
genauer zu erkunden. Dabei sollte man insbesondere auch abschätzen,
ob sich das Ziel für einen direkten Beweis eignet oder ob man es besser
indirekt mittels eines Beweises durch Widerspruch ansteuern sollte.
Sehr nützlich ist in der Regel auch, konkrete Beispiele in der Start-
situation zu betrachten, entweder geometrischer Art oder indem man
die Startvoraussetzungen weiter einschränkt. Oftmals kann man hier-
bei wertvolle Hinweise gewinnen, wie sich das Ziel unter erleichterten
Bedingungen erreichen lässt, und daraus eventuell lernen, wie man im
Allgemeinfall verfahren kann. Leider gibt es kein allgemein gültiges
Rezept, welches uns in garantierter Weise vom Start zum Ziel führen
Allgemeines 369
könnte. Zwar kann man das unbekannte Gebiet zwischen den beiden
Punkten aufgrund der beschriebenen Überlegungen meist beträcht-
lich eingrenzen, aber vielfach verbleibt noch ein als unüberwindbar
erscheinendes Hindernis. Dann ist etwas Erfindungsgeist gefragt, um
vielleicht einen versteckt gelegenen Durchbruch zu entdecken. Sobald
man schließlich einen gangbaren Weg zum Ziel sozusagen “gesehen”
hat, kann man zum nächsten Schritt übergehen und versuchen, eine
vollständige mathematisch präzise Lösung zu formulieren.
Lösungsweg: In diesem Schritt sollte der mittels Strategieüberle-
gungen projektierte Weg zum Ziel in präziser mathematischer Form
realisiert werden. Alle Details, die lediglich zum Auffinden des Lösungs-
wegs geführt haben, ansonsten aber für den eigentlichen Lösungsvor-
gang irrelevant sind, entfallen dabei. Auf der anderen Seite sind Ver-
einfachungen, die im Rahmen der Strategiebetrachtungen angenom-
men wurden, bei diesem Schritt nicht mehr zulässig. Hilfreich beim
Abfassen einer geschliffenen mathematischen Lösung ist natürlich ei-
ne gewisse Erfahrung, die man sich aber im Laufe der Zeit aneignen
wird. Diese erstreckt sich insbesondere auf die Wahl einer übersichtli-
chen und zweckmäßigen Notation, wie auch auf eine wohldurchdachte
Folge der Argumente und benutzten Resultate. All dies sollte unter
dem Gesichtspunkt größtmöglicher Übersichtlichkeit und Einfachheit
geschehen.
Sollte man allerdings bei der Realisierung des beabsichtigten Lö-
sungswegs wider Erwarten auf unüberwindbare Schwierigkeiten treffen,
so verbleibt keine andere Alternative als zum vorhergehenden Schritt
zurückzukehren und die Strategiebetrachtungen mit den neu gewonne-
nen Erfahrungen wieder aufzunehmen.
Ergänzungen: Unter diesem Punkt geben wir einige zusätzliche op-
tionale Informationen zu dem jeweiligen Aufgabenproblem, falls dies
von allgemeinem Interesse ist. Insofern gehört dieser Punkt nicht zum
regulären Verfahren, das bei der Lösung einer Übungsaufgabe abgear-
beitet werden sollte.
In den nachfolgenden Abschnitten zeigen wir nun an konkreten
Beispielen, wie sich das gerade beschriebene Verfahren zur Lösung von
Übungsaufgaben in die Praxis umsetzen lässt. Allerdings ist die je-
weilige Vorgehensweise lediglich als exemplarisch anzusehen, denn im
Allgemeinen gibt es zu einem Aufgabenproblem mehrere verschiedene
370 8. Aufgabentrainer
Vektorräume
1.1 Aufgabe 1
Start: Gegeben sind Teilmengen A, B, C einer Menge X.
Ziel : Folgende Identitäten sind zu zeigen:
(i) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(ii) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
(iii) A − (B ∪ C) = (A − B) ∩ (A − C)
(iv) A − (B ∩ C) = (A − B) ∪ (A − C)
Strategie: Wir haben noch keine Resultate zur Verfügung, die das
Zusammenspiel von Vereinigung, Durchschnitt und Differenz von Men-
gen beschreiben. Daher bleibt nichts anderes übrig, als anhand der De-
finition dieser Operatoren jeweils die linke und rechte Seite der Glei-
chungen elementmäßig miteinander zu vergleichen. Um auf Gleichheit
beider Seiten zu schließen, ist es am übersichtlichsten, wenn man zeigt,
dass jedes Element der linken auch in der rechten Seite enthalten ist
und umgekehrt.
Lösungsweg: Wir beginnen mit (i), und zwar mit der Inklusion
“⊂”. Gelte x ∈ A ∩ (B ∪ C). Dann folgt x ∈ A und x ∈ B ∪ C, wobei
Letzteres x ∈ B oder x ∈ C bedeutet. Für x ∈ B folgt x ∈ A ∩ B und
damit x ∈ (A ∩ B) ∪ (A ∩ C). Entsprechend führt x ∈ C ebenfalls zu
x ∈ (A ∩ B) ∪ (A ∩ C).
Zu (i), Inklusion “⊃”. Sei x ∈ (A∩B)∪(A∩C). Dann folgt x ∈ A∩B
oder x ∈ A ∩ C, in jedem Falle aber x ∈ A. Für x ∈ A ∩ B ergibt sich
zusätzlich x ∈ B und damit x ∈ A ∩ (B ∪ C). Entsprechend liefert
x ∈ A ∩ C ebenfalls x ∈ A ∩ (B ∪ C).
Zu (ii), Inklusion “⊂”. Sei x ∈ A ∪ (B ∩ C), also x ∈ A oder
x ∈ B ∩ C. Für x ∈ A folgt x ∈ A ∪ B und x ∈ A ∪ C, also insgesamt
x ∈ (A ∪ B) ∩ (A ∪ C). Andererseits ergibt sich aus x ∈ B ∩ C natürlich
x ∈ B ⊂ (A ∪ B) und x ∈ C ⊂ (A ∪ C), also x ∈ (A ∪ B) ∩ (A ∪ C).
1.1 Aufgabe 5 371
P und Q = P oder Q,
P oder Q = P und Q,
Anzahl der Elemente von X und P(X) in diesem Fall keine surjek-
tive Abbildung f : X ✲ P(X) geben. Das gleiche Argument gilt
für eine endliche Menge X = {x1 , . . . , xn }, bestehend aus n verschie-
denen Elementen. Denn P(X) enthält in diesem Fall die n Elemen-
te {x1 }, . . . , {xn }, aber zusätzlich auch noch weitere Elemente, z. B.
die leere Menge ∅, insgesamt also mindestens n + 1 Elemente. Wie-
derum zeigt ein Abzählargument, dass es keine surjektive Abbildung
f: X ✲ P(X) geben kann.
Die betrachteten Spezialfälle suggerieren, dass man im Allgemein-
fall nicht versuchen sollte, ein Element von P(X) explizit anzuge-
ben, das nicht im Bild von f vorkommt. Stattdessen sollte man in-
direkt vorgehen, also annehmen, dass es eine surjektive Abbildung
f: X ✲ P(X) gibt, und daraus einen Widerspruch ableiten. Genau
so funktionieren letztendlich die gerade betrachteten Beispiele endli-
cher Mengen X. Das Paradoxon von Russel liefert gewisse Anhalts-
punkte, wie man allgemein vorgehen könnte. Und zwar betrachte man
die Teilmenge
U = x ∈ X ; x 6∈ f (x) ⊂ X.
1.3 Aufgabe 2
Start: Es sei K ein Körper, der aus endlich vielen Elementen be-
steht. Für n ∈ N und a ∈ K sei n · a die n-fache Summe von a mit sich
selbst.
Ziel : Es existiert eine natürliche Zahl n > 0 mit n · a = 0K für alle
a ∈ K, wobei 0K ∈ K das Nullelement sei. Ist n minimal mit dieser
Eigenschaft, so ist n eine Primzahl.
Strategie: Zu einem Element a ∈ K betrachten wir alle Vielfachen
n · a ∈ K, n ∈ N. Diese können nicht sämtlich verschieden sein, da N
unendlich viele Elemente enthält, K aber nur endlich viele. Also gibt
es Elemente n′ , n′′ ∈ N, n′ < n′′ , mit n′ · a = n′′ · a. Es folgt
n′ · a = n′′ · a = n′ · a + (n′′ − n′ ) · a
und somit n·a = 0K für n = n′′ −n′ > 0. Es gibt also zu jedem Element
a ∈ K eine natürliche Zahl n > 0 mit n·a = 0K . Im Allgemeinen wird n
von der Wahl von a abhängen, z. B. gilt n·0K = 0K für alle n ∈ N, aber
n · 1K 6= 0K für n = 1 und das Einselement 1K ∈ K. Allerdings können
wir durch Anwenden eines Tricks die natürliche Zahl n unabhängig von
a wählen. Sind z. B. a1 , a2 ∈ K und n1 , n2 ∈ N − {0} mit ni ai = 0K
für i = 1, 2, so folgt
(n1 n2 ) · a1 = n2 · (n1 · a1 ) = n2 · 0K = 0K ,
(n1 n2 ) · a2 = n1 · (n2 · a2 ) = n1 · 0K = 0K .
1.3 Aufgabe 2 375
Auf diese Weise können wir schließlich ein n finden, als Produkt na-
türlicher Zahlen > 0, so dass n · a = 0K für jedes der endlich vielen
Elemente a ∈ K gilt.
Wie man sich leicht vorstellen kann, ist es mittels dieser Methode
allerdings unmöglich einzusehen, dass ein solches n bei minimaler Wahl
eine Primzahl ist. Wir müssen daher überlegen, ob sich das Problem,
eine natürliche Zahl n > 0 mit n · a = 0K für alle a ∈ K zu finden,
nicht auf wenige Elemente, oder besser, auf ein einziges Element a ∈ K
reduzieren lässt. Hierzu bemerken wir, dass aus n · a = 0K automatisch
n · (a · b) = (n · a) · b = 0K für weitere Elemente b ∈ K folgt. Daher
genügt es, natürliche Zahlen n > 0 mit n · 1K = 0K zu betrachten.
Diese Vereinfachung ist der Schlüssel zur Lösung des Problems.
Lösungsweg: Wir haben oben bereits gezeigt, dass es eine natürliche
Zahl n > 0 gibt mit n · 1K = 0K und dass dann n · a = (n · 1K ) · a = 0K
für alle a ∈ K folgt. Nun sei n > 0 minimal mit dieser Eigenschaft
gewählt. Natürlich gilt n > 1. Wenn n keine Primzahl ist, so gibt
es eine Zerlegung n = n1 · n2 mit natürlichen Zahlen n1 , n2 < n als
Faktoren. Es folgt
0K = n · 1K = (n1 · n2 ) · 1K = n1 · (n2 · 1K )
= n1 · 1K · (n2 · 1K ) = (n1 · 1K ) · (n2 · 1K )
und damit n1 · 1K = 0K oder n2 · 1K = 0K , im Widerspruch zur
Minimalität von n. Also muss n eine Primzahl sein.
Ergänzungen: Wir haben einige Rechenregeln wie etwa die Assozia-
tivität für Produkte der Form n · a mit n ∈ N und a ∈ K benutzt, die
eigentlich bewiesen werden müssten. Die folgenden Grundregeln gelten
für m, n ∈ Z, a, b ∈ K:
(m · n) · a = m · (n · a), m · (a · b) = (m · a) · b
(m + n) · a = m · a + n · a, m · (a + b) = m · a + m · b
Beweise hierzu sind mehr oder weniger “offensichtlich”, können im
strengeren Sinne aber auch mittels vollständiger Induktion geführt wer-
den.
Die Thematik dieser Aufgabe wird später noch einmal mittels Me-
thoden der Ringtheorie behandelt werden; siehe die Ausführungen zur
Charakteristik eines Körpers am Schluss von Abschnitt 5.2 und die
dortige Aufgabe 9.
376 8. Aufgabentrainer
1.3 Aufgabe 5
√
Start: Zu betrachten ist der Körper Q 2 , der aus allen reellen
√
√ der Form a + b 2 mit a, b ∈ Q besteht. Gemäß 1.3/4
Zahlen √ wissen
wir 2 6∈ Q. Insbesondere ist Q ein echter Teilkörper von Q 2 .
√ √
Ziel : Zu zeigen ist 3 6∈ Q 2 .
√
Strategie: Da wir den Körper Q 2 inzwischen gut kennen, aber
nur wenig über die nicht darin enthaltenen reellen Zahlen
√ wissen, √
bie-
tet sich ein indirekter Schluss an. Man sollte deshalb 3 ∈ Q 2
annehmen und versuchen, daraus einen Widerspruch abzuleiten.
√ √
Lösungsweg: Wir nehmen 3 ∈ Q 2 an. Dann existieren ratio-
√ √
nale Zahlen a, b ∈ Q mit a + b 2 = 3, und wir erhalten
√ √
(a + b 2)2 = 3 bzw. a2 + 2b2 − 3 = −2ab 2.
√
Für ab
√ 6
= 0 können wir die zweite Gleichung nach 2 auflösen und wür-
den 2 ∈ Q erhalten, was aber nach 1.3/4 ausgeschlossen ist. Folglich
muss ab = 0 gelten, also a = 0 oder b = 0, sowie a2 + 2b2 − 3 = 0.
Für a = 0 ergibt sich 2b2 = 3. Nehmen wir b als gekürzten Bruch pq
mit ganzen Zahlen p, q an, so folgt 2p2 = 3q 2 . Wie im Beweis zu 1.3/4
schließt man, dass 2 sowohl ein Teiler von q wie auch von p ist, der
Bruch pq also nicht gekürzt ist, im Widerspruch zu unserer Annahme.
Es bleibt der Fall b = 0 zu betrachten, der auf die Gleichung a2 = 3
führt. Man nehme wieder a als gekürzten Bruch pq mit ganzen Zahlen
p, q an. Es folgt p2 = 3q 2 , und man schließt wie im Beweis zu 1.3/4, dass
3 sowohl ein Teiler von p wie√ auch √ von q ist, im Widerspruch zu unserer
Annahme. Es führt also 3 ∈ Q 2 stets zu einem Widerspruch, so
√ √
dass 3 kein Element von Q 2 sein kann.
Ergänzungen: Genau genommen verwendet unsere Argumentation
in simpler Form die Teilbarkeitslehre im Ring der ganzen Zahlen Z, die
später noch ausführlich in Abschnitt 5.2 behandelt wird. Wir haben
nämlich benutzt, dass eine Primzahl wie z. B. 2 oder 3 die Eigenschaf-
ten eines Primelements besitzt; vgl. hierzu insbesondere die Erklärung
im Vorfeld zu 5.2/12. Ein Primelement p ∈ Z, siehe 5.2/10, ist dadurch
charakterisiert, dass p genau dann Teiler eines Produktes xy in Z ist,
wenn p Teiler eines der beiden Faktoren x bzw. y ist.
1.3 Aufgabe 11 377
1.3 Aufgabe 11
Start: Für n, k ∈ N, n ≥ 1, ist die Menge
X(n, k) = (a1 , . . . , an ) ∈ Nn ; a1 + . . . + an = k
Aufgrund der mehrfachen Summanden auf der rechten Seite ist dies
jedoch nicht in einfacher Weise zu bewerkstelligen. Wir lernen daraus,
dass wir X(n + 1, k) in möglichst einfacher Weise aufspalten sollten,
etwa in die beiden Teile
378 8. Aufgabentrainer
X ′ = (a1 , . . . , an+1 ) ∈ X(n + 1, k) ; an+1 = 0 ,
X ′′ = (a1 , . . . , an+1 ) ∈ X(n + 1, k) ; an+1 ≥ 1 ,
wobei wir k ≥ 1 annehmen wollen. Dann besitzen X ′ bzw. X ′′ genau
#X(n, k) bzw. #X(n + 1, k − 1) Elemente, denn die Abbildungen
X′ ✲ X(n, k), (a1 , . . . , an+1 ) ✲ (a1 , . . . , an ),
X ′′ ✲ X(n + 1, k − 1), (a1 , . . . , an+1 ) ✲ (a1 , . . . , an+1 − 1),
für n ≥ 1, k ≥ 0 bewiesen.
1.4 Aufgabe 1
Start: U ist ein linearer Unterraum eines K-Vektorraums V , also
gemäß 1.4/2 eine nicht-leere Teilmenge in V , die abgeschlossen unter
Addition und skalarer Multiplikation ist. Insbesondere folgt 0 ∈ U .
Ziel : Wir wollen alle Elemente a ∈ V charakterisieren, so dass mit
U auch a + U = {a + u ; u ∈ U } ein linearer Unterraum von V ist.
Strategie: Wir betrachten als Beispiel den Vektorraum V = R3
über dem Körper K = R, sowie eine Ebene E ⊂ R3 , die den Nullpunkt
0 ∈ R3 enthält. Sodann ist E ein linearer Unterraum im R3 , und man
kann sich a + E für Vektoren a ∈ R3 als die um den Vektor a parallel
verschobene Ebene E vorstellen. Für a ∈ E wird E bijektiv in sich
selbst verschoben, wohingegen für a 6∈ E eine Verschiebung in eine
Richtung stattfindet, die aus E herausführt. Insbesondere ist dann die
Menge a+ E disjunkt zu E, und es kann a+ E kein linearer Unterraum
von R3 mehr sein, da der Nullvektor 0 zu E, aber nicht zu a+E gehört.
Motiviert durch das geometrische Beispiel versuchen wir auch im
Allgemeinfall zu zeigen, dass a + U für a ∈ U mit U übereinstimmt
und für a 6∈ U den Nullvektor 0 ∈ V nicht enthält. Somit ist a + U
genau dann ein linearer Unterraum von V , wenn a ∈ U gilt.
Lösungsweg: Sei zunächst a ∈ U . Da U als linearer Unterraum von
V abgeschlossen unter der Addition ist, ergibt sich a + U ⊂ U . Da U
mit a auch −a enthält, folgt entsprechend (−a)+U ⊂ U , und Addition
von a auf beiden Seiten ergibt U ⊂ a + U . Also gilt a + U = U für
a ∈ U , und a + U ist ein linearer Unterraum von V .
Als Nächstes wollen wir herausfinden, für welche Vektoren a ∈ V
die Menge a + U den Nullvektor enthalten kann. Sei also 0 ∈ a + U .
Dann gibt es einen Vektor b ∈ U mit 0 = a + b, und dies bedeutet
a = −b = (−1) · b ∈ U , da U als linearer Unterraum von V abgeschlos-
sen unter der skalaren Multiplikation ist. Folglich enthält a + U für
a 6∈ U nicht den Nullvektor und kann daher kein linearer Unterraum
von V sein. Insgesamt schließen wir, dass a+U genau dann ein linearer
Unterraum von V ist, wenn a ∈ U gilt.
1.4 Aufgabe 5 381
P
dass die Linearkombination u = ri=1 αi xi ∈ U den Nullvektor Ps dar-
stellt. Entsprechend gilt β1 = . . . = βs = 0, wenn v = j=1 βj yj ∈ U ′
den Nullvektor darstellt. Als einzige Chance, die Gleichungen u = 0
und v = 0 zu realisieren, bietet sich die Nutzung der Voraussetzung
U ∩ U ′ = 0 an.
Lösungsweg: Seien α1 , . . . , αr , β1 , . . . , βs ∈ K mit
r
X s
X
αi x i + βj yj = 0.
i=1 j=1
P
Wie vorgeschlagen,
Ps betrachte man die Vektoren u = ri=1 αi xi ∈ U
′
und v = j=1 βj yj ∈ U . Die Gleichung u + v = 0 ergibt u = −v
bzw. v = −u, und es folgt u, v ∈ U ∩ U ′ = 0, also u = v = 0. Sodann
liefert die lineare Unabhängigkeit der Systeme x1 , . . . , xr und y1 , . . . , ys
die Beziehungen αi = 0 für alle i sowie βj = 0 für alle j, und wir sehen
gemäß 1.5/1, dass das System x1 , . . . , xr , y1 , . . . , ys linear unabhängig
in V ist.
Ergänzungen: Der Beweis würde ohne die Voraussetzung U ∩U ′ = 0
nicht funktionieren. Wenn nämlich in U ∩U ′ ein Vektor u 6= 0 existiert,
so lässt sich dieser als nicht-triviale Linearkombination
Pr sowohl
Ps der xi
wie auch der yj darstellen, etwa u = i=1 αi xi und v = j=1 βj yj ,
und es wäre r s
X X
αi x i + (−βj )yj = 0
i=1 j=1
von Vektoren im Rn Anlass geben, wenn x und y nicht auf einer Ge-
raden durch 0 liegen. Da man aber im R2 eine unendliche Folge ver-
schiedener Geraden angeben kann, sollte es im R2 auch eine unendliche
Folge von Vektoren der gewünschten Art geben. Indem wir R2 als li-
nearen Unterraum von Rn , n ≥ 2, auffassen, lesen wir ab, dass unser
Problem für alle n ≥ 2 lösbar ist, nicht aber für n < 2, wie wir eingangs
gesehen haben.
Lösungsweg: Wir haben bereits begründet, dass es höchstens für
n ≥ 2 eine Folge von Vektoren in Rn gegen kann, derart dass jeweils
zwei Vektoren dieser Folge ein linear unabhängiges System bilden. Um
nun eine solche Folge a1 , a2 , . . . ∈ R2 anzugeben, setzen wir ai = (i, 1)
und behaupten, dass für i 6= j die Vektoren ai , aj linear unabhängig
sind. In der Tat, seien α, β ∈ R mit αai + βaj = 0, also
αi + βj = 0, α + β = 0.
Dann ergibt sich α = −β und damit β · (j − i) = 0. Wegen j − i 6= 0
folgt β = 0 und dann auch α = 0. Die Vektoren ai , aj sind also li-
near unabhängig im R2 . Die gleiche Argumentation lässt sich im Rn
für n ≥ 2 durchführen, indem wir R2 mit dem linearen Unterraum
{(α1 , . . . , αn ) ∈ Rn ; α3 = . . . = αn = 0} ⊂ Rn identifizieren.
Ergänzungen: Dieses Beispiel zeigt sehr schön, dass die lineare Un-
abhängigkeit von gewissen (echten) Teilsystemen eines Systems von
Vektoren im Allgemeinen nichts über die lineare Unabhängigkeit des
Gesamtsystems aussagen kann. Man beachte aber, dass ein System von
Vektoren genau dann linear unabhängig ist, wenn jedes endliche Teil-
system linear unabhängig ist. Diese Charakterisierung hatten wir im
Abschnitt 1.5 für unendliche Systeme von Vektoren eingesehen, sie gilt
aber trivialerweise auch für endliche Systeme.
1.5 Aufgabe 8
Start: Für einen Körper K und n ∈ N ist der K-Vektorraum K n
zu betrachten, sowie eine Teilmenge der Form
n
X
n
U = (α1 , . . . , αn ) ∈ K ; αi γi = 0 ⊂ K n
i=1
Der Vektor (1, −γ2−1 γ1 ) bildet daher eine Basis von U , und wir erhal-
ten dimK U = 1 = dimK K 2 − 1. Aufgrund dieser Vorbetrachtungen
kann man sich folgendes Resultat im Allgemeinfall vorstellen: Es gilt
dimK U = n falls γ1 = . . . = γn = 0 und dimK U = n − 1 sonst.
Lösungsweg: Um zu zeigen, dass U ein linearer Unterraum von K n
ist, verifizieren wir die Bedingungen von 1.4/2. Offenbar gilt 0 ∈ U
und damit U 6= ∅. Seien weiter n ) und b = (β1 , . . . , βn )
Pn a = (α1 , . . . , αP n
Elemente
Pn von U , gelte also α γ
i=1 i i = 0 und i=1 βi γi = 0, so ergibt
sich Pi=1 (αi + βi )γi = 0, also a + b ∈ U . Weiter gilt für α ∈ K
auch ni=1 ααi γi = 0 und damit α · a ∈ U . Folglich ist U als linearer
Unterraum von K n erkannt.
Zur Bestimmung von dimK U bemerken wir zunächst, dass im tri-
vialen Fall γ1 = . . . = γn = 0 der lineare Unterraum U mit K n überein-
stimmt und wir dimK U = dimK K n = n erhalten. Sei nun mindestens
eines der γi nicht 0, etwa γn 6= 0, was insbesondere n ≥ 1 erfordert.
Dann gilt
Xn−1
n −1
U = (α1 , . . . , αn ) ∈ K ; αn = −γn αi γi ,
i=1
und wir sehen, dass für die Elemente (α1 , . . . , αn ) ∈ U die Kompo-
nenten α1 , . . . , αn−1 ∈ K keinerlei Bedingungen unterworfen sind, wo-
hingegen sich αn aus diesen ersten Komponenten in eindeutiger Weise
386 8. Aufgabentrainer
können wir leicht ablesen, dass dimK U = n gilt, falls die γi trivial sind,
sowie dimK U = n − 1, falls mindestens eines der γi von 0 verschieden
ist.
1.6 Aufgabe 4
Start: Gegeben sind lineare Unterräume U1 , U2 , U3 eines K-Vektor-
raums V .
Ziel : Zu beweisen ist die folgende Dimensionsformel:
also insgesamt
1.6 Aufgabe 8
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum V mit
einem linearen Unterraum U ⊂ V . Sei n = dimK V und s = dimK U .
Ziel : Zu überlegen ist, für welche r ∈ N und unter welcher Bedin-
gung an die Dimensionen von UPund V es Komplemente U1 , . . . , Ur
r
zu U in V gibt, deren Summe i=1 Ui direkt ist. Optimal ist eine
Bedingung, die notwendig und hinreichend ist.
Strategie: Für r = 0 ist nichts zu zeigen, da dann keine Kom-
plemente zu U involviert sind und leere Summen immer den Wert 0
haben. Von Interesse sind also nur Anzahlen r > 0. Dabei ist der Fall
r = 1 trivial, aber bereits der Fall r = 2 ist nicht ohne Weiteres zu
überblicken. Wir lernen daraus, dass der Parameter r nicht im Vor-
dergrund stehen sollte, sondern sich den übrigen Parametern n und s
unterordnen sollte.
Zur weiteren Orientierung schauen wir uns ein Beispiel an, näm-
lich V = R3 als R-Vektorraum und als linearen Unterraum die Ebene
U = {(α1 , α2 , α3 ) ∈ R3 ; α3 = 0}. Wegen dimK U = 2 erzeugt jeder
Vektor a = (α1 , α2 , α3 ) ∈ R3 , der nicht in U enthalten ist, also α3 6= 0
erfüllt, ein Komplement zu U in V . Es gibt unendlich viele solcher
Vektoren a, ja sogar unendlich viele Geraden des Typs R · a ⊂ R3 ,
die nicht in U gelegen sind und damit Komplemente zu U definieren.
Sind nun R · ai für i = 1, . . . , r solche Komplemente und ist die Summe
P r
i=1 R · ai direkt, so bilden die Vektoren a1 , . . . , ar ein linear unabhän-
giges System, wobei notwendigerweise r ≤ 3 wegen dimR R3 = 3 folgt.
Andererseits existiert auch tatsächlich ein linear unabhängiges System
von Vektoren a1 , a2 , a3 ∈ R3 , die nicht in U enthalten sind und damit
Komplemente zu U in R3 erzeugen, nämlich die Vektoren
(0, 0, 1), (1, 0, 1), (1, 1, 1).
Die vorstehende Betrachtung führt uns auch im Allgemeinfall auf ei-
ne Bedingung, die jedenfalls notwendig ist: P Wenn es Komplemente
U1 , . . . , Ur zu U in V gibt, deren Summe rk=1 Uk ⊂ V direkt ist, so
gilt mit der Verallgemeinerung von 1.6/4 auf endlich viele Summanden
Xr
dimK Uk ≤ dimK V = n.
k=1
P P P
gilt. Dann folgt si=1 λi xi + tj=1 λ′j aj ∈ U und tj=1 λ′j yj ∈ U ′ . Beide
Elemente müssen verschwinden, da die Summe U + U ′ direkt ist. Es
ergibtP sich λ′1 , . . . , λ′t = 0 und dann aber auch λ1 , . . . , λs = 0, d. h.
U ′′ = tj=1 K · (yj + aj ) ist in der Tat ein weiteres Komplement zu U
in V , und zwar verschieden von U ′ , wenn mindestens einer der Vektoren
a1 , . . . , at nicht trivial ist. Wir wollen testen, ob die Summe U ′ + U ′′
direkt sein kann, also ob die Vektoren y1 , . . . , yt , y1 + a1 , . . . , yt + at ein
linear unabhängiges System bilden. Man betrachte daher Konstanten
λ′1 , . . . , λ′t , λ′′1 , . . . , λ′′t ∈ K, so dass
t
X t
X t
X t
X
λ′j yj + λ′′j (yj + aj ) = λ′′j aj + (λ′j + λ′′j )yj = 0
j=1 j=1 j=1 j=1
P P
gilt. Dann ergibt sich tj=1 λ′′j aj ∈ U und tj=1 (λ′j + λ′′j )yj ∈ U ′ , und
beide Elemente müssen verschwinden, wiederum da die Summe U + U ′
390 8. Aufgabentrainer
direkt ist. Wir können dann λ′j + λ′′j = 0 für alle j schließen, aber
λ′′j = 0 für alle j nur dann, wenn die Vektoren a1 , . . . , at ein linear
unabhängiges System in U bilden. Letzteres ist beispielsweise dann
der Fall, wenn t ≤ s gilt und wir aj = xj für j = 1, . . . , t wählen.
Dies ist die entscheidende Beobachtung, die uns zeigen wird, dass die
Bedingung r · (n − s) ≤ n in der Tat für die Lösung unseres Problems
auch hinreichend ist.
Lösungsweg: Wir wollen also zeigen, dass es genau dann Kom-
plemente U1 , . . . , Ur zu U in V gibt, deren Summe direkt ist, wenn
r(n − s) ≤ n gilt. Die Bedingung ist notwendig, wie wir gesehen haben.
Sind nämlich U1 , . . . , Ur solche Komplemente, so gilt dimK Uk = n − s
für k = 1, . . . , r nach 1.6/4, und es folgt
r
X r
M
r(n − s) = dimK Uk = dimK Uk ≤ dimK V = n
k=1 k=1
mit 1.5/14 und der Verallgemeinerung von 1.6/4 auf endlich viele Sum-
manden.
Sei nun andererseits r ∈ N mit r(n − s) ≤ n. Dann ergibt sich
(r − 1)(n − s) ≤ s bzw. (r − 1)t ≤ s mit t = n − s. Im Übrigen dürfen
wir r ≥ 2 voraussetzen, da die zu beweisende Aussage ansonsten trivial
ist. Wir wählen nun in U ein linear unabhängiges System von (r − 1)t
Vektoren, welches wir in der Form
xjk , j = 1, . . . , t, k = 2, . . . , r,
t
X r X
X t
λj yj + λjk (yj + xjk ) = 0
j=1 k=2 j=1
Lineare Abbildungen
2.1 Aufgabe 2
Start: Zu betrachten sind unter den Punkten (i) – (iv) gewisse
explizit gegebene Vektoren ai ∈ R4 sowie bi ∈ R3 für i = 1, 2, 3, 4 bzw.
i = 1, 2, 3.
Ziel : Gefragt ist nach der Existenz von R-linearen Abbildungen
R4 ✲ R3 , die für alle i jeweils ai auf bi abbilden.
Strategie: Wir haben in 2.1/7 und dem zugehörigen Beweis gelernt,
dass man eine R-lineare Abbildung f : R4 ✲ R3 mittels linearer Aus-
dehnung erklären kann, indem man eine Basis a1 , . . . , a4 von R4 be-
trachtet und deren Bilder b1 , . . . , b4 ∈ R3 beliebig vorgibt. Die resultie-
rende R-lineare Abbildung ist eindeutig durch f (ai ) = bi , i = 1, 2, 3, 4,
392 8. Aufgabentrainer
λ1 · 1 + λ2 · 1 + λ3 · 0 + λ4 · 0 = 0
λ1 · 1 + λ2 · 1 + λ3 · 1 + λ4 · 0 = 0
λ1 · 0 + λ2 · 1 + λ3 · 1 + λ4 · 1 = 0
λ1 · 0 + λ2 · 0 + λ3 · 1 + λ4 · 1 = 0
λ1 = 1, λ2 = −1, λ3 = 0, λ4 = −1
möglich. Einsetzen in obige Gleichungen zeigt, dass dies in der Tat eine
Lösung des Gleichungssystems darstellt. Somit gilt a1 − a2 − a4 = 0,
also a4 = a1 − a2 , und das System der Vektoren a1 , a2 , a3 , a4 ist linear
abhängig.
Wie wir in (ii) gesehen haben, bilden die Vektoren a1 , a2 , a3 ein
linear unabhängiges System, und es existiert eine R-lineare Abbildung
f : R4 ✲ R3 mit f (ai ) = bi für i = 1, 2, 3, wobei die Einschränkung
von f auf den linearen Unterraum ha1 , a2 , a3 i ⊂ V eindeutig bestimmt
ist. Weiter gilt
λ1 · 0 + λ2 · 1 + λ3 · 1 + λ4 · 0 = 0
λ1 · 1 + λ2 · 0 + λ3 · 1 + λ4 · 2 = 0
λ1 · 1 + λ2 · 1 + λ3 · 0 + λ4 · 0 = 0
λ1 · 1 + λ2 · 1 + λ3 · 1 + λ4 · 1 = 0
λ1 = 1, λ2 = −1, λ3 = 1, λ4 = −1
f : K2 ✲ K 2, e1 ✲ 0, e2 ✲ e1 ,
mit 1.6/4 und der Dimensionsformel 2.1/10. Ist daher V von endlicher
Dimension, so können wir mittels 1.5/14 (ii) bereits V = ker f ⊕ im f
ablesen.
Zu überlegen ist also, dass die Summe ker f + im f ⊂ V direkt
ist, bzw. dass ker f ∩ im f = 0 gilt. Dies lässt sich routinemäßig nach-
prüfen. Sei nämlich x ∈ ker f ∩ im f . Dann gilt einerseits f (x) = 0,
und andererseits gibt es einen Vektor x′ ∈ V mit f (x′ ) = x. Es folgt
f 2 (x′ ) = 0 und wegen f 2 = f auch x = f (x′ ) = f 2 (x′ ) = 0, also gilt
ker f ∩ im f = 0.
396 8. Aufgabentrainer
Es folgt
also die gewünschte Abschätzung, die zum Erreichen des Ziels noch zu
beweisen war.
Der beschriebene Weg mutet etwas kompliziert an, und wir fra-
gen uns, ob wir nicht auch mit einer etwas einfacheren Argumentation
ans Ziel gelangen können. Ein wesentlicher Punkt unserer Argumenta-
tion besteht darin, dass wir den linearen Unterraum im f˜ ⊂ V2 durch
ker g ersetzen und somit die Abschätzung dimK (im f˜) ≤ dimK (ker g)
verwenden. Dabei gilt genauer
im f˜ = ker g ∩ f (V1 ),
wie man leicht feststellt. Dies bringt uns auf die Idee, anstelle der
gegebenen Abbildungen f und g die K-linearen Abbildungen
f′ g′
V1 ✲ f (V1 ) ✲ V3
führt in der Tat zu einer einfacheren Lösung, wie wir sogleich sehen
werden.
Lösungsweg: Wir schränken also V2 zu f (V1 ) ein und betrachten die
f′ g′
resultierenden K-linearen Abbildungen V1 ✲ f (V1 ) ✲ V3 . Sodann
liefert die Dimensionsformel 2.1/10 angewandt auf g ′
T
A′ = B∈B B die eindeutig bestimmte kleinste Untergruppe von V ,
die A enthält, mit anderen Worten, die von A erzeugte additive Un-
tergruppe in V . Diese lässt sich auch in der Form
nX
r o
A′ = εi ai ; r ∈ N, εi ∈ {1, −1}, ai ∈ A
i=1
aufgrund von 2.2/7. Wir lesen daraus ab, dass es in diesem Fall kei-
nen Isomorphismus V /U ∼✲ V geben kann, da Isomorphismen die
Dimension von Vektorräumen erhalten.
Wir müssen deshalb auf K-Vektorräume V unendlicher Dimension
zurückgreifen. Im einfachsten Fall besitzt ein solcher Vektorraum eine
abzählbare Basis. Sei also V ein K-Vektorraum mit einer abzählbaren
Basis {xi ; i ∈ N}, beispielsweise der K-Vektorraum
402 8. Aufgabentrainer
V = (αj )j∈N ∈ K N ; αj = 0 für fast alle j ∈ N
mit komponentenweiser Addition und skalarer Multiplikation. Hier bil-
den die Einheitsvektoren xi = (δij )j∈N , i ∈ N, eine Basis.
Gefragt ist eine K-lineare Abbildung f : V /U ✲ V für einen
geeigneten linearen Unterraum U ⊂ V . Mittels des Homomorphie-
satzes 2.2/8 lässt sich f durch eine geeignete K-lineare Abbildung
f: V ✲ V induzieren. Zur Definition einer solchen Abbildung f
wiederum können wir 2.1/7 anwenden, und zwar in der Version für
nicht notwendig endliche Erzeugendensysteme und Basen. Benutzen
wir dann noch, dass es surjektive Abbildungen N ✲ N gibt, die aber
nicht injektiv sind, so haben wir alle Elemente zur Konstruktion eines
Beispiels der gewünschten Art beisammen.
Lösungsweg: Es sei V ein K-Vektorraum mit einer abzählbaren
Basis {xi ; i ∈ N}. Sodann betrachten wir die K-lineare Abbildung
f: V ✲ V , die durch
Weiter ist für n = 4 und K = R die duale Basis in (R4 )∗ zur Basis
x1 = (1, 0, 0, 0), x2 = (1, 1, 0, 0), x3 = (1, 1, 1, 0), x4 = (1, 1, 1, 1)
von R4 zu bestimmen, indem man deren Elemente als Linearkombina-
tionen der pi angibt.
Strategie: Es gilt pi (ej ) = δij für i, j = 1, . . . , n, also bilden die
Linearformen p1 , . . . , pn ∈ (K n )∗ gemäß 2.3/5 die duale Basis zu
e1 , . . . , en ∈ K n . Im Falle n = 4 und K = R ist leicht nachzuprü-
fen, dass die Vektoren x1 , . . . , x4 ∈ R4 ein linear unabhängiges System
und damit eine Basis von R4 bilden. Mit 2.3/5 existiert dann in (R4 )∗
die duale Basis zu x1 , . . . , x4 , die mit ϕ1 , . . . , ϕ4 bezeichnet werde. Da
p1 , . . . , p4 ebenfalls
P4 eine Basis von (R4 )∗ ist, gibt es Konstanten λij ∈ R
mit ϕj = i=1 λij pi für j = 1, . . . , 4. Es sind sodann die Konstanten
λij zu bestimmen, wobei die charakterisierende Eigenschaft der dua-
len Basis, nämlich ϕj (xk ) = δjk , auf Gleichungen führt, mit denen wir
versuchen können, die Konstanten λij zu bestimmen.
Lösungsweg: Wir haben schon begründet, dass p1 , . . . , pn ∈ (Rn )∗
die duale Basis zur kanonischen Basis e1 , . . . , en ∈ Rn bilden, und wei-
ter für n = 4, K = R, dass die Vektoren x1 , . . . , x4 eine Basis von R4
bilden und wir hierzu die duale Basis ϕ1 ,P . . . , ϕ4 ∈ (R4 )∗ betrachten
können. Es gibt nun Darstellungen ϕj = 4i=1 λij pi , j = 1, . . . , 4, de-
ren Koeffizienten λij ∈ R zu bestimmen sind. Die charakterisierende
Eigenschaft ϕP j (xk ) = δjk der dualen Basis aus 2.3/5 liefert dann die
Gleichungen 4i=1 λij pi (xk ) = δjk , j, k = 1, . . . , 4, also geordnet nach
j = 1, . . . , 4 die folgenden Gleichungssysteme:
Überlegungen zur Strategie liefern hier also bereits die Lösung in Kurz-
form.
Lösungsweg: Die Abbildung ιV : V ✲ HomK (K, V ), a ✲⌈ ⌊a⌉⌋,
ist K-linear, da offenbar die Beziehungen ⌈⌊a + b⌉⌋ = ⌈⌊a⌉⌋ + ⌈⌊b⌉⌋ so-
wie ⌈⌊αa⌉⌋ = α⌈⌊a⌉⌋ für a, b ∈ V und α ∈ K gelten. Ebenso ist
κV : HomK (K, V ) ✲ V, σ ✲ σ(1), eine K-lineare Abbildung,
und es gilt κV ◦ ιV = idV sowie ιV ◦ κV = idHomK (K,V ) . Daraus schließt
man, dass ιV und κV zueinander invers und folglich Isomorphismen
sind.
Wir betrachten nun zu einem Element a ∈ V die zugehörige lineare
Abbildung ⌈⌊a⌉⌋ : K ✲ V , sowie die duale Abbildung
Matrizen
3.1 Aufgabe 4
Start: Gegeben ist eine K-lineare Abbildung f : V ✲ W zwi-
schen K-Vektorräumen endlicher Dimension. Sei r = rg f = dimK f (V )
der Rang von f .
Ziel : Es sollen Basen X von V und Y von W konstruiert werden,
so dass die zu f gehörige Matrix Af,X,Y die Gestalt E0r 00 mit der
(r × r)-Einheitsmatrix Er besitzt. Mit anderen Worten, wir müssen
Basen X = (x1 , . . . , xn ) von V und Y = (y1 , . . . , ym ) von W finden, so
dass gilt: (
yj für 1 ≤ j ≤ r,
f (xj ) =
0 für r < j ≤ n.
Insbesondere schließt dies die Abschätzungen r ≤ m und r ≤ n mit
ein.
Strategie: Jede K-lineare Abbildung f : V ✲ W bestimmt ge-
wisse charakteristische lineare Unterräume in V und W , nämlich
ker f ⊂ V und im f ⊂ W . Wenn es Basen X = (x1 , . . . , xn ) von V
und Y = (y1 , . . . , ym ) von W mit den gewünschten Eigenschaften gibt,
so gilt offenbar hy1 , . . . , yr i = hf (x1 ), . . . , f (xr )i = im f , da die Bilder
f (xr+1 ), . . . , f (xn ) verschwinden, also xr+1 , . . . , xn ∈ ker f gilt. Daraus
lesen wir ab, dass y1 , . . . , yr eine Basis von im f bilden. Weiter kön-
nen wir zeigen, dass xr+1 , . . . , xn eine Basis von ker f ⊂ V bilden. Das
System dieser Elemente ist einerseits linear unabhängig, sowie ande-
rerseits
P ein Erzeugendensystem von ker f . Sei nämlich x ∈ ker f und
x = nj=1 αj xj eine Darstellung als Linearkombination der Basis X.
Sodann gilt
X n X r Xr
0 = f (x) = αj f (xj ) = αj f (xj ) = αj yj
j=1 j=1 j=1
P
und damit αj = 0 für j = 1, . . . , r. Daher ergibt sich x = nj=r+1 αj xj ,
und man erkennt xr+1 , . . . , xn als Erzeugendensystem bzw. als Basis
von ker f .
3.1 Aufgabe 4 407
3.1 Aufgabe 7
Start: Zu betrachten ist ein K-Vektorraum V 6= 0 mit einer
K-linearen Abbildung f : V ✲ V , die bezüglich einer Basis X durch
eine explizit gegebene Matrix Af,X,X ∈ K n×n beschrieben werde. Ins-
besondere ist X endlich, P etwa X = (x1 , . . . , xn ). Aus der Matrix Af,X,X
lesen wir f (xj ) = i<j xi für j = 1, . . . , n ab.
Ziel : Es ist dimK (ker f ) zu bestimmen.
Strategie: Grundsätzlich hat man bei einer explizit gegebenen li-
nearen Abbildung f : V ✲ V zwei Möglichkeiten, die Dimension des
Kerns zu bestimmen. Einmal kann man in direkter Weise den Kern
als linearen Unterraum von V bestimmen; im Allgemeinen bedeutet
dies die Lösung eines Systems linearer Gleichungen. Anschließend muss
man dann noch eine Basis des Kerns angeben, um dessen Dimension als
Länge der Basis abzulesen. Andererseits kann man aber auch die Di-
mensionsformel 2.1/10 benutzen. In diesem Fall ist lediglich der Rang
von f , also dimK (im f ) zu berechnen.
In unserem Fall sieht man sofort, dass die Vektoren f (x2 ), . . . , f (xn )
den linearen Unterraum hx1 , . . . , xn−1 i ⊂ V erzeugen und daher gemäß
1.5/9 ein linear unabhängiges System in V bilden. Wegen f (x1 ) = 0
gilt rg f = n − 1 und aufgrund der Dimensionsformel dimK (ker f ) = 1.
Andererseits “sieht” man aber auch in dieser Situation, dass ker f von
x1 erzeugt wird, woraus man ebenfalls dimK (ker f ) = 1 abliest.
Lösungsweg: Das Bild im f wird wegen f (x1 ) = 0 von den Vek-
toren f (xj ) mit j = 2, . . . , n erzeugt. Wir wollen für n ≥ 1 zeigen,
dass im f = hf (x2 ), . . . , f (xn )i = hx1 , . . . , xn−1 i gilt. Natürlich gilt
xn−1 i. Zum Nachweis der umgekehrten
hf (x2 ), . . . , f (xn )i ⊂ hx1 , . . . ,P
Inklusion nutzen wir f (xj ) = i<j xi = f (xj−1 )+xj−1 für j = 2, . . . , n,
also xj−1 = f (xj ) − f (xj−1 ) ∈ hf (x2 ), . . . , f (xn )i, was die gewünschte
3.1 Aufgabe 8 409
f : Km ✲ K m, x ✲ N · x,
2 · 1 = 1 + 1,
3 · 1 = 1 + 1 + 1,
4 · 1 = 1 + 1 + 1 + 1.
Aus 3.2/11 lesen wir ab, dass U ′ , also der von den Spalten von A′
erzeugte lineare Unterraum von R5 , die Dimension 3 hat, ebenso wie
der von den Spalten von (A′ , A) erzeugte lineare Unterraum, der mit
U + U ′ übereinstimmt. Es gilt also dimK U ′ = dimK (U + U ′ ). Indem
wir U ′ ⊂ U + U ′ nutzen, ergibt sich U ′ = U + U ′ mit 1.5/14 (ii) und
damit U ⊂ U ′ .
Es bleibt noch die Dimension von U , also der Rang von A, zu
bestimmen. Hierzu bringen wir die Matrix A auf Zeilenstufenform:
1 2 0 1 2
0
1 2 0
0 3 3 3 0 3 0 1 1
✲ ✲
1 4 2 2 0 2 0 0 0
0 1 1 1 0 1 0 0 0
1 2 0 0 0 0 0 0 0
3.2 Aufgabe 9
Start: Es sei F2 der Körper mit 2 Elementen, also bestehend aus
dem Nullelement 0 und dem Einselement 1, wobei 1 + 1 = 0 gilt. Zu
betrachten ist der F2 -Vektorraum F2000
2 mit einem linearen Unterraum
U ⊂ F2 , der von einer Familie von Vektoren (vi )i=1,...,2000 erzeugt
2000
500
X
(∗∗) αk = 0.
k=1
A = (vij )j,i=1,...,2000 ,
mit j als Zeilen- und i als Spaltenindex. Es macht dann ein wenig
mehr Aufwand, die Elemente vij zeilenweise zu beschreiben, also ge-
ordnet nach dem Zeilenparameter j von A. Sodann lässt sich A aber
problemlos mittels elementarer Zeilenumformungen auf Zeilenstufen-
form transformieren, und man erhält auch hier das gewünschte Resul-
tat, dass nämlich die Vektoren v4·k mit k = 1, . . . , 500 eine Basis von
U bilden.
3.3 Aufgabe 3
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum U mit
einem Endomorphismus f : U ✲ U.
Ziel : Es ist die Äquivalenz folgender Aussagen zu zeigen:
(i) rg f < dimK U
(ii) Es existiert eine K-lineare Abbildung g : U ✲ U , g 6= 0, mit
f ◦ g = 0.
(iii) Es existiert eine K-lineare Abbildung g : U ✲ U , g 6= 0, mit
g ◦ f = 0.
Strategie: Für Endomorphismen f, g : U ✲ U ist f ◦ g = 0 äqui-
valent zu im g ⊂ ker f und, entsprechend, g ◦ f = 0 zu im f ⊂ ker g. Es
geht also bei der Lösung darum, K-lineare Abbildungen g : U ✲U
416 8. Aufgabentrainer
Dabei kann man beobachten, dass sich die Vorschrift für das Multi-
plizieren von (2 × 2)-Matrizen auf die Multiplikation von Kästchen-
matrizen geeigneter Zeilen- und Spaltenanzahlen überträgt, wenn man
das gewöhnliche Produkt der Koeffizienten durch das Matrizenprodukt
ersetzt. Wir bringen nun T ′ mittels elementarer Zeilenumformungen
auf Zeilenstufenform, indem wir geeignete Vielfache der Zeilen von
(Em , A−1 · B) von den Zeilen von (C, D) subtrahieren, und zwar mit
dem Ziel, C durch die Nullmatrix zu ersetzen. Wie oben erklärt, wird
dabei die Matrix D aus Ranggründen ebenfalls in die Nullmatrix über-
führt. Nun entspricht aber eine elementare Zeilenumformung des benö-
tigten Typs, also Addition des α-fachen einer j-ten Zeile, 1 ≤ j ≤ m,
zu einer i-ten Zeile, m + 1 ≤ i ≤ m + r, der Multiplikation mit der
Elementarmatrix
E + αEij von links, also mit einer Matrix des Typs
Em 0
mit geeignetem P ∈ K r×m . Da ein Produkt von Matrizen
P Er
dieses Typs wieder von diesem Typ ist, gibt es eine Matrix P ∈ K r×m ,
so dass gilt:
Em 0 Em A−1 B Em A−1 B Em A−1 B
· = =
P Er C D P + C P A−1 B + D 0 0
3.3 Aufgabe 7 419
✲
D
K s ✲ Kr
mit einem Isomorphismus A. Zu zeigen ist, dass die Abbildungen
Ks ✲ K r , die durch D und C ◦ A−1 ◦ B gegeben werden, über-
einstimmen. Um dies nachzuweisen, identifizieren wir K m+s mit der
direkten Summe K m ⊕ K s und entsprechend
K
m+r
mit K m ⊕ K r .
A B
Sodann betrachten wir die durch T = gegebene lineare Ab-
C D
bildung
3.4 Aufgabe 1
Start: Zu betrachten sind zwei Systeme X und Y bestehend aus
konkret gegebenen Vektoren x1 , . . . , x5 bzw. y1 , . . . , y5 ∈ R5 .
Ziel : Es soll gezeigt werden, dass X und Y Basen von R5 bilden.
Die Basiswechselmatrizen Aid,X,Y und Aid,Y,X sind zu berechnen.
Strategie: Um nachzuweisen, dass X und Y Basen von R5 bilden,
genügt es zu zeigen, dass X und Y linear unabhängig sind. Wir kön-
nen hierfür das Gaußsche Eliminationsverfahren in der Form 3.2/4 oder
3.2/11 verwenden. Dann könnten wir zur Bestimmung der P Basiswech-
5
selmatrizen, etwa für Aid,X,Y , Linearkombinationen xj = i=1 αij yi ,
j = 1, . . . , 5, ansetzen und versuchen, die Koeffizienten αij ∈ R zu
berechnen. Im Prinzip handelt es sich um ein System von 25 linearen
Gleichungen in den 25 Unbekannten αij , das auf den ersten Blick nicht
sehr zugänglich erscheint. Man kann das Gleichungssystem jedoch re-
lativ einfach lösen, wie wir später als Ergänzung noch erklären werden.
Zunächst sollten wir aber versuchen, die behandelte Theorie des
Basiswechsels anzuwenden. Interpretieren wir die xj als Spaltenvekto-
ren, so fällt auf, dass A = (x1 , . . . , x5 ) gerade die Basiswechselmatrix
Aid,X,E ergibt, für die kanonische Basis E von R5 . Entsprechend gilt
B = (y1 , . . . , y5 ) = Aid,Y,E , wenn wir die yi als Spalten einer Matrix B
auffassen. Nun können wir aber den Basiswechsel von X zu Y zusam-
mensetzen aus einem Basiswechsel von X zu E und dann von E zu Y .
Dabei gilt aufgrund von 3.1/9 und 3.4/2:
(1) : 1. Zeile von 2. und 3. Zeile subtrahieren, 2-faches der 1. Zeile von
4. Zeile subtrahieren
(2) : 2. Zeile zu 3. Zeile addieren und von 4. Zeile subtrahieren
1 1 1 1 0 1 1 1 1 0 1 1 1 1 0
A
0 1 0 0 -1
0 1 0 0 -1
0 1 0 0 0
(3) (4) (5)
✲ ✲ ✲
0 0 1 0 0
0 0 1 0 0
0 0 1 0 0
0 0 0 1 2
0 0 0 1 2
0 0 0 1 0
0 0 0 -1 1 0 0 0 0 1 0 0 0 0 1
1 0 0 0 0 1 0 0 0 0 1 0 0 0 0
E5
1 -1 0 0 0 1 -1 0 0 0 0 -1 31 13 0
(3) (4) (5)
✲ ✲ ✲
0 0 0 0 1
0 0 0 0 1 0 0 0 0 1
-2 -2 1 2
1 1 0 0 1 1 0 0 0 1 3 - 3 0
1 1 1 1
-1 -1 0 1 0 -1 0 3 3
0 -1 0 3 3 0
E5
2 - 34 - 23 1 - 13 -1 -1 1 0
1 -1 -1 1 0
1
(6) (7) (8)
✲ 1 1 1 ✲ 1 1 1 ✲ 1 1 1
-1 - 0 -1 - 0 -1 - 0
3 3 3 3 3 3 3 3 3
1 2
0 -1 13 1
0 2
-1 13 1
0 2
-1 13
3 3
3 3
3 3
-1 -1 1 0 0 -1 -1 1 0 0 -1 -1 1 0 0
(6) : 2-faches der 4. Zeile von 1. Zeile subtrahieren, 4. Zeile von 2. Zeile
subtrahieren und zu 3. Zeile addieren
(7) : 3. Zeile von 1. Zeile subtrahieren, zu 2. Zeile addieren
(8) : 2. Zeile von 1. Zeile subtrahieren; insgesamt ist B mittels ele-
mentarer Zeilenumformungen in die Einheitsmatrix E5 überführt und
gleichzeitig E5 in die inverse Matrix B −1
Als Resultat der Rechnungen erhalten wir also:
0 - 23 13 -1 1 0 0 1 -1
1
0 -1 31 13 0 1 -1 -1 1 0
A−1 B −1 1 1 1
=
0
0 0 0 ,
1
=
-1 3
- 3
0 3
0 1 31 - 23 0 0 1 2 1
-1 3
3 3
-1 0 31 13 0 -1 -1 1 0 0
424 8. Aufgabentrainer
Wie bereits erwähnt, schließen wir mit 3.4/8 für eine Matrix
A ∈ K m×n vom Rang r, dass A ∼ Erm×n gilt. Da “ ∼ ” gemäß 3.4/6
den Rang von Matrizen erhält und da rg Erm×n = r gilt, bilden die Ma-
trizen Erm×n für r = 0, . . . , min{m, n} ein Vertretersystem der Äquiva-
lenzklassen bezüglich “ ∼ ” in K m×n . Folglich ist deren Anzahl gleich
1 + min{m, n}, der Anzahl möglicher Matrizen des Typs Erm×n bei
gegebener Zeilenzahl m und Spaltenzahl n.
426 8. Aufgabentrainer
3.5 Aufgabe 5
Start: Zu betrachten ist eine R-lineare Abbildung f : V ✲W
zwischen endlich-dimensionalen R-Vektorräumen, die bezüglich geeig-
neter Basen X von V und Y von W durch eine konkret gegebene
Matrix Af,X,Y ∈ R4×5 beschrieben wird.
Ziel : Es ist eine Basis von ker f zu bestimmen.
Strategie: Um konkrete Rechnungen in V bzw. W anzustellen, müs-
sen wir die Vektoren von V und W als Linearkombinationen der zu be-
trachtenden Basen darstellen. Mit anderen Worten, wir sollten mit den
zugehörigen Koordinatenspaltenvektoren bezüglich X und Y arbeiten.
Dann liegt es nahe, das kommutative Diagramm
f
V ✲ W
(∗) ≀ κX ≀ κY
❄ ❄
f˜
R5 ✲ R4
aus 3.1/8 zu nutzen; dabei sind κX und κY die kanonischen Isomorphis-
men, die einem Vektor aus V bzw. W den zugehörigen Koordinaten-
spaltenvektor in R5 bzw. R4 zuordnen, und es ist f˜ die Multiplikation
mit der Matrix Af,X,Y , also die durch x ✲ Af,X,Y · x definierte Ab-
bildung. Der Kern von f˜ stimmt mit dem Lösungsraum MAf,X,Y ,0 des
homogenen linearen Gleichungssystems Af,X,Y · x = 0 überein, den
man mithilfe des Gaußschen Eliminationsverfahrens bestimmen kann.
Da sich κX zu einem Isomorphismus ker f ∼✲ MAf,X,Y ,0 beschränkt,
lässt sich aus einer Basis von MAf,X,Y ,0 eine Basis von ker f gewinnen.
Lösungsweg: Wir benutzen das obige kommutative Diagramm (∗)
und interpretieren die Isomorphismen κX und κY als Identifizierungen.
Sodann bleibt das homogene lineare Gleichungssystem Af,X,Y ·x = 0 zu
lösen. Wir verwenden dazu das Gaußsche Eliminationsverfahren und
bringen Af,X,Y auf die spezielle in Abschnitt 3.5 beschriebene Zeilen-
stufenform:
1 1 2 4 8 1 1
2 4 8
1 1 2 4 8
1
2 1 2 1 ✲ 1 0
-1 -2 -7 ✲0
1 -1 -2 -7
Af,X,Y =
2
2 2 2 1
0 0
-2 -6 -15
0
0 2 6 15
-2 -6
1 2 2 2 2 0 1 0 0 0 1 0 1
3.5 Aufgabe 7 427
1 1 2 4 8 1 1 2 4 8 1 1 2 0 - 23
0 1 -1 -2 -7 0 1 -1 -2 -7 0 1 -1 0 - 83
✲
✲
✲
0 0 1 0 1 0 0 1 0 1 0 0 1 0 1
13 13
0 0 0 6 13 0 0 0 1 6 0 0 0 1 6
1 1 0 0 - 38 1 0 0 0 -1
0 1 0 0 - 53 0 1 0 0 - 53
✲
✲
0 0 1 0 1 0 0 1 0 1
13 13
0 0 0 1 6 0 0 0 1 6
Gemäß 3.5 bildet daher (1, 35 , −1, − 136
, 1)t ∈ R5 eine Basis des Lösungs-
raums MAf,X,Y ,0 . Entsprechend gibt x1 + 53 x2 − x3 − 13 x + x5 ∈ V für
6 4
X = {x1 , . . . , x5 } Anlass zu einer Basis von ker f .
3.5 Aufgabe 7
Start: Gegeben sind eine Matrix A ∈ K m×n , ein Spaltenvektor
b ∈ K m sowie eine invertierbare Matrix S ∈ GL(n, K).
Ziel : Es ist MA,b = SMAS,b für die Lösungsräume der linearen
Gleichungssysteme Ax = b und ASy = b zu zeigen.
Strategie: Das Ziel ist plausibel. Erfüllt nämlich y ∈ K n die Glei-
chung ASy = b, so können wir diese in der Form (AS)y = b oder
A(Sy) = b interpretieren. Somit erhalten wir y ∈ MAS,b , aber auch
Sy ∈ MA,b .
Lösungsweg: Sei zunächst x ∈ SMAS,b , also x = Sy mit y ∈ MAS,b .
Dann gilt ASy = b und daher x = Sy ∈ MA,b . Umgekehrt, sei x ∈ MA,b ,
also Ax = b. Da S invertierbar ist, gibt es ein y ∈ K n mit x = Sy.
Dann folgt ASy = b, also y ∈ MAS,b und somit x = Sy ∈ SMAS,b .
Insgesamt erhalten wir MA,b = SMAS,b .
3.5 Aufgabe 9
Start: Zu betrachten ist eine K-lineare Abbildung f : V ✲W
zwischen endlich-dimensionalen K-Vektorräumen, sowie die zugehöri-
ge duale Abbildung f ∗ : W ∗ ✲ V ∗ . Dabei ist V ∗ (bzw. W ∗ ) der
Dualraum zu V (bzw. W ), also der K-Vektorraum aller K-linearen
Abbildungen V ✲ K (bzw. W ✲ K), und es ist f ∗ definiert
durch ϕ ✲ ϕ ◦ f . Zusätzlich ist ein Vektor b ∈ W zu betrachten.
Ziel : Zu zeigen ist, dass es genau dann einen Vektor x ∈ V mit
f (x) = b gibt, also dass genau dann b ∈ im f gilt, wenn man ϕ(b) = 0
für alle ϕ ∈ ker f ∗ hat.
428 8. Aufgabentrainer
(
1 für y = b
ϕ(y) =
0 für y ∈ Y, y 6= b
Determinanten
4.1 Aufgabe 2
Start: Gegeben ist ein r-Zyklus in Sn , also eine Permutation π in
Sn , zu der es paarweise verschiedene Elemente a1 , . . . , ar ∈ {1, . . . , n}
gibt, so dass π(ai ) = ai+1 für i = 1, . . . , r − 1 und π(ar ) = a1 sowie
4.1 Aufgabe 2 429
Offenbar ist die Anzahl der Fehlstände in der Folge π(1), . . . , π(n)
genau r − 1, so dass sich sgn π = (−1)r−1 mittels 4.1/6 ergibt. Ist
nun π = (a1 , . . . , ar ) ein beliebiger r-Zyklus in Sn , so sollte eben-
falls sgn π = (−1)r−1 gelten. Schreiben wir nämlich π als Produkt
von Transpositionen, etwa π = τ1 ◦ . . . ◦ τs , so gilt sgn π = (−1)s
nach 4.1/8. Eine solche Produktdarstellung hängt allerdings nicht von
der speziellen Abzählung der n-elementigen Menge {1, . . . , n} ab. In-
dem wir eine Abzählung des Typs {a1 , . . . , ar , ar+1 , . . . , an } mit ge-
eigneten Elementen ar+1 , . . . , an ∈ {1, . . . , n} wählen, dürfen wir wie
oben π = (1, . . . , r) annehmen. Somit ergibt sich sgn π = (−1)r−1 für
beliebige r-Zyklen π ∈ Sn .
Lösungsweg: Das soeben benutzte Argument kann präzisiert wer-
den, indem man die Permutation
1 ... n
σ=
a1 . . . an
4.1 Aufgabe 4
Start: Gegeben ist ein Normalteiler N ⊂ Sn , der eine Transposition
τ enthalte, etwa τ = (i, j).
Ziel : Es ist N = Sn zu zeigen.
Strategie: Ein Normalteiler N ⊂ Sn ist eine Untergruppe mit der
Eigenschaft, dass aus π ∈ N und σ ∈ Sn stets σ −1 ◦ π ◦ σ ∈ N folgt,
bzw. σ ◦ π ◦ σ −1 ∈ N , wenn wir σ −1 durch σ ersetzen. In unserem Falle
wissen wir, dass die Transposition τ = (i, j) zu N gehört. Es folgt daher
σ ◦ (i, j) ◦ σ −1 ∈ N für alle σ ∈ Sn . Nun bildet aber σ ◦ (i, j) ◦ σ −1 das
Element σ(i) offenbar auf σ(j) ab, das Element σ(j) auf σ(i) und lässt
im Übrigen alle weiteren Elemente aus {1, . . . , n} fest. Mit anderen
Worten, es ist σ ◦ (i, j) ◦ σ −1 = (σ(i), σ(j)) eine weitere Transposition,
die zu N gehört. Dies ist, wie wir sehen werden, der Schlüssel zum
Nachweis von N = Sn .
Lösungsweg: Wir haben soeben überlegt, dass neben der Transpo-
sition (i, j) auch alle Transpositionen des Typs (σ(i), σ(j)) für Permu-
tationen σ ∈ Sn zu N gehören. Nun lässt sich aber zu zwei beliebig
vorgegebenen verschiedenen Zahlen i′ , j ′ ∈ {1, . . . , n} stets eine Per-
mutation σ ∈ Sn finden, so dass σ(i) = i′ und σ(j) = j ′ gilt. Daher
ergibt sich (i′ , j ′ ) = (σ(i), σ(j)) ∈ N , und wir sehen, dass N sämtliche
Transpositionen aus Sn enthält. Da jede Permutation π ∈ Sn gemäß
4.1/3 ein Produkt von Transpositionen ist und weiter N die Eigen-
schaften einer Untergruppe besitzt, folgt schließlich π ∈ N und damit
N = Sn .
4.2 Aufgabe 2
Start: Gegeben ist ein K-Vektorraum V der Dimension n mit einer
nicht-trivialen Determinantenfunktion ∆ : V n ✲ K und einem linear
unabhängigen System von Vektoren x1 , . . . , xn−1 ∈ V .
Ziel : Es existiert ein xn ∈ V mit ∆(x1 , . . . , xn ) = 1. Dabei ist
zu zeigen, dass die Restklasse von xn in V /hx1 , . . . , xn−1 i eindeutig
bestimmt ist.
Strategie: Wir begnügen uns zunächst damit, einen Vektor x′n ∈ V
mit ∆(x1 , . . . , xn−1 , x′n ) 6= 0 zu finden. Hierzu reicht es gemäß 4.2/7,
das System x1 , . . . , xn−1 durch einen Vektor x′n zu einem linear un-
abhängigen System und damit zu einer Basis von V zu ergänzen. Es
folgt α := ∆(x1 , . . . , xn−1 , x′n ) 6= 0, und wir erhalten für xn = α−1 x′n
4.3 Aufgabe 3 431
-1 0
0 1 1 1
1 1
-1 0 1 1 (1)
✲ 0
1 1 1
A4 =
-1 -1 0 1 -1
-1 0 1
-1 -1 -1 -1 -1 -1
0 0
-1 -1 1 -1
0 1 1
0 1 0 1 1
(2) 0 1 1 1 (3) 0 1 1 1 0 1 1 1
✲ ✲
=
0
-1 -1 0 0
0 0 1
0
0
A2
-1 -2 -1 -1
0 0 0 0 0 0
Dabei haben wir im Schritt (1) die erste Zeile mit der zweiten ver-
tauscht, im Schritt (2) die erste Zeile von der dritten und vierten sub-
trahiert und schließlich im Schritt (3) die zweite Zeile zur dritten und
vierten addiert. Da sich die Determinante bei Schritt (1) gemäß 4.3/6
um den Faktor −1 ändert, ansonsten aber invariant bleibt, berechnet
sich det(A4 ) nach Beispiel (2) aus Abschnitt 4.3 zu
-1 0
Und zwar subtrahieren wir in An die zweite Zeile von den unteren
n − 2 Zeilen und addieren anschließend die erste Zeile ebenfalls zu den
unteren n − 2 Zeilen. Mit anderen Worten, wir addieren die Differenz
der ersten und zweiten Zeile, nämlich die Zeile (1, 1, 0, . . . , 0, 0) zu den
unteren n − 2 Zeilen. Mittels Beispiel (2) aus Abschnitt 4.3 folgt dann
Da A als Element von Rn×n invertierbar ist, sind die Zeilen (bzw. Spal-
ten) von A gemäß 3.3/7 linear unabhängig über R, dann insbesondere
aber auch linear unabhängig über Q. Fassen wir nun A als Matrix in
Qn×n auf, so ergibt sich wiederum mit 3.3/7, dass A auch in Qn×n
invertierbar ist. Nun sind aber inverse Elemente eindeutig bestimmt.
Folglich stimmen die zu A in Qn×n und Rn×n gebildeten inversen Ma-
trizen überein. Daher besitzt A−1 als inverse Matrix zu A ∈ GL(n, R)
Koeffizienten in Q.
Bei der vorstehenden Methode kommt die Determinante det(A)
nicht ins Spiel. Dies lässt vermuten, dass wir zur Beantwortung der
weitergehenden Frage, wann die inverse Matrix A−1 Koeffizienten in Z
besitzt, auf die Formel aus 4.4/5 und damit auf die Cramersche Regel
zurückgreifen müssen.
Lösungsweg: Die Definition der adjungierten Matrix Aad als trans-
ponierte Matrix der Cofaktoren von A zeigt, dass Aad Koeffizienten in
Z besitzt, da dies auch für A zutrifft. Weiter gilt det(A) ∈ Z aufgrund
der Definition 4.2/4. Wir lesen daher aus der Gleichung
A−1 = det(A)−1 · Aad
in 4.4/5 ab, dass A−1 Koeffizienten in Q hat, ja sogar in Z, wenn det(A)
in Z invertierbar ist, also det(A) = ±1 gilt. Haben umgekehrt A und
A−1 Koeffizienten in Z, so gilt
det(A) ∈ Z, det(A)−1 = det(A−1 ) ∈ Z,
d. h. det(A) ist eine Einheit in Z, und dies bedeutet det(A) = ±1.
4.4 Aufgabe 4 P
Start: Gegeben ist eine Gleichung ni=1 αi ai = b mit Koeffizienten
αi ∈ K und Spaltenvektoren ai , b ∈ K n .
Ziel : Für i = 1, . . . , n ist die Beziehung
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ) = αi · det(a1 , . . . , an )
zu zeigen und daraus die Lösungsformel für lineare Gleichungssysteme
zu folgern, die wir in 4.4/6 mittels der Cramerschen Regel gewonnen
hatten.
Strategie: Es ist b als Linearkombination der a1 , . . . , an dargestellt.
Indem wir diese Linearkombination anstelle von b einsetzen und benut-
zen, dass die Determinante multilinear und alternierend in den Spal-
tenvektoren ist, ergibt sich wie gewünscht
436 8. Aufgabentrainer
mit detX,H (a1 , . . . , ar ) als Determinante der Untermatrix, die man aus
der r-spaltigen Matrix A = (a1,X , . . . , ar,X ) erhält, indem man alle Zei-
len streicht, deren Indizes nicht zu Elementen von H korrespondieren.
Wenn nun a1 , . . . , ar linear unabhängig sind, so gilt rg A = r, und es
gibt eine (r ×r)-Untermatrix von A, deren Rang r ist und deren Deter-
minante folglich nicht verschwindet. Insbesondere ist der entsprechende
Koeffizient detX,H (a1 , . . . , ar ) in der Darstellung (∗) nicht trivial, und
es folgt a1 ∧ . . . ∧ ar 6= 0. Wir können sogar noch etwas effektiver schlie-
ßen, indem wir die Vektoren a1 , . . . , ar zu einer Basis von V ergänzen. V
Dann gehört a1 ∧ . . . ∧ ar zu der in 4.5/4 konstruierten Basis von r V
und ist folglich nicht-trivial. Im Prinzip behält diese Argumentation
auch für beliebige K-Vektorräume V ihre Gültigkeit, obwohl dann das
Resultat 4.5/4 zunächst auf unendlich-dimensionale Vektorräume zu
verallgemeinern ist.
Lösungsweg: Wir wollen hier allerdings etwas direkter vorgehen.
Zunächst argumentieren wir wie oben, dass aus a1 ∧ . . . ∧ ar 6= 0
stets die lineare Unabhängigkeit der a1 , . . . , ar folgt. Sind umgekehrt
a1 , . . . , ar als linear unabhängig vorausgesetzt, so konstruieren wir
zu U = ha1 , . . . , ar i ein direktes Komplement U ′ , etwa indem wir
a1 , . . . , ar zu einer Basis von V ergänzen; dabei ist der Basisergänzungs-
satz 1.5/8 mittels des Zornschen Lemmas 1.5/15 auf den unendlich-
dimensionalen Fall zu adaptieren. Dann betrachten wir die Projektion
π : V = U ⊕ U ′ ✲ U auf den ersten Summanden und wählen gemäß
4.2/8 eine nicht-triviale Determinantenfunktion ∆ : U r ✲ K, wobei
∆(a1 , . . . , ar ) 6= 0 gilt; vgl. 4.2/7. Es ist
Φ: V r ✲ K, (x1 , . . . , xr ) ✲ ∆ π(x1 ), . . . , π(xr )
eine alternierende multilineare Abbildung. Aufgrund der universellen
Eigenschaft des r-fachen äußeren
V Produktes von V faktorisiert Φ über
eine K-lineare Abbildung ϕ : r V ✲ K wie folgt:
r
^
Vr
kan
✲ V
Φ ϕ
✲
K
Dabei gilt ϕ(a1 ∧ . . . ∧ ar ) = Φ(a1 , . . . , ar ) = ∆(a1 , . . . , ar ) 6= 0 und
insbesondere a1 ∧ . . . ∧ ar 6= 0, was zu zeigen war.
438 8. Aufgabentrainer
4.5 Aufgabe 5 V
Start: Es ist das äußere Produkt 2 V eines VektorraumsVV über
einem Körper K der Charakteristik 0 zu betrachten. Für z ∈ 2 V ist
der Rang rg z P erklärt als Minimum über alle r ∈ N, so dass es eine
Zerlegung z = ri=1 xi ∧ yi mit Vektoren xi , yi ∈ V gibt.
Ziel : Es ist zu zeigen, dass die Zahl r = rg z eindeutig durch die
Beziehungen z r 6= 0 und z r+1 = V 0 charakterisiert ist, wobei diese Po-
tenzen in der äußerenP Algebra V V zu bilden sind.
Strategie: Sei z = i=1 xi ∧yi ∈ 2 V mit Vektoren xi , yi ∈ V . Wir
r
wollen zunächst ein Gefühl dafür bekommen, wie sich die Potenzen z s
für s ∈ N verhalten. Und zwar gilt
r
X
s
z = (xi1 ∧ yi1 ) ∧ . . . ∧ (xis ∧ yis ),
i1 ,...,is =1
wobei auf der rechten Seite alle Produkte verschwinden, deren Indizes
i1 , . . . , is ∈ {1, . . . , r} nicht paarweise verschieden sind. Damit folgt
bereits z s = 0 für s > r. Für s = r können höchstens Produkte
(xi1 ∧ yi1 ) ∧ . . . ∧ (xir ∧ yir ) von Null verschieden sein, deren Indi-
zes i1 , . . . , ir eine Permutation von 1, . . . , r bilden. Diese verbleibenden
Produkte lassen sich durch Vertauschen der Faktoren in die natürliche
Reihenfolge (x1 ∧ y1 ) ∧ . . . ∧ (xr ∧ yr ) bringen. Da hierbei eine gerade
Anzahl von Vertauschungen benötigt wird, ändert sich das Vorzeichen
nicht. Berücksichtigt man nun, dass die Permutationsgruppe Sr genau
r! Elemente besitzt, so berechnet sich die Potenz z r zu
z r = r! · (x1 ∧ y1 ) ∧ . . . ∧ (xr ∧ yr ).
(∗) z r+1 = 0,
(∗∗) z r 6= 0 ⇐⇒ x1 , y1 , . . . , xr , yr sind linear unabhängig.
noch ein gravierender Schritt. Und zwar müssen wir im Falle der li-
nearen Abhängigkeit von x1 , y1 , . . . , xr , yr zeigen, dass wir z in eine
(r − 1)-fache Summe von Produkten zerlegen können, dass also dann
rg z < r gilt. Wir versuchen, die zugehörige Rechnung einmal im Spe-
zialfall r = 2 durchzuführen. Seien also x1 , y1 , x2 , y2 linear abhängig,
etwa
y2 = α1 x1 + α2 x2 + β1 y1
mit Konstanten α1 , α2 , β1 ∈ K. Dann folgt
z = x1 ∧ y1 + x2 ∧ y2 = x1 ∧ y1 + x2 ∧ (α1 x1 + α2 x2 + β1 y1 )
= x1 ∧ y1 + x2 ∧ (α1 x1 + β1 y1 ) = (x1 + β1 x2 ) ∧ y1 + α1 x2 ∧ x1
Nun dürfen wir aber im letzten Term α1 x2 ∧x1 den Faktor x1 abändern
zu x1 +β1 x2 , da x2 ∧x2 trivial ist. Aufgrund dieses kleinen Tricks ergibt
sich
z = (x1 + β1 x2 ) ∧ y1 + α1 x2 ∧ x1
= (x1 + β1 x2 ) ∧ y1 + α1 x2 ∧ (x1 + β1 x2 )
= (x1 + β1 x2 ) ∧ (y1 − α1 x2 )
und damit rg z < 2. Eine ähnliche Rechnung lässt sich auch im Allge-
meinfall durchführen, wie wir sogleich sehen werden. P V
Lösungsweg: Wir betrachten ein Element z = ri=1 xi ∧ yi ∈ 2 V
mit Vektoren xi , yi ∈ V und zeigen wie oben, dass die Eigenschaften
(∗) und (∗∗) erfüllt sind. Sodann nehmen wir an, dass die Elemente
x1 , y1 , . . . , xr , yr linear abhängig sind. Folglich gibt es eine Relation
beispielsweise des Typs
r
X r−1
X
yr = αi x i + βi yi
i=1 i=1
r−1
X r−1
X
= (xi + βi xr ) ∧ yi + xr ∧ αi (xi + βi xr )
i=1 i=1
r−1
X
= (xi + βi xr ) ∧ (yi − αi xr )
i=1
Also ergibt sich rg z ≤ r − 1. Aus diesen Fakten können wir nun leicht
die Äquivalenz der Aussagen
(i) rg z = r,
(ii) z r 6= 0, z r+1V
=0
für beliebiges z ∈ 2 V und r ∈ N ablesen. Gelte zunächst (i), also
rg z = r. Es folgt z r+1 = 0 gemäß (∗). Weiter gilt z r 6= 0 sofern wir
wissen, dass die benötigten 2r Vektoren einer minimalen Zerlegung
von z linear unabhängig sind, siehe (∗∗). Diese Vektoren können aber
nicht linear abhängig sein, da ansonsten rg z < r gelten würde, wie wir
gerade gezeigt haben. Also folgt (ii).
Sei nun umgekehrt (ii) gegeben, also z r 6= 0 und z r+1 = 0. Sei
s = rg z. Aus z r 6= 0 ergibt sich dann s = rg z ≥ r mit (∗). Im Falle
s > r gilt z s = 0 wegen z r+1 = 0, und wir lesen aus (∗∗) ab, dass
die benötigten 2s Vektoren einer minimalen Zerlegung von z linear
abhängig sind. Dies würde wiederum, wie wir gezeigt haben, rg z < s
bedeuten, im Widerspruch zu rg z = s. Es verbleibt somit nur der
Fall rg z = r. Damit ist die Implikation von (ii) nach (i) klar, und wir
erhalten insgesamt die gewünschte Äquivalenz zwischen (i) und (ii).
Polynome
5.1 Aufgabe 1
Start: Für einen Ring R und ein Element t ∈ R betrachte man
den R-Algebrahomomorphismus Φ : R⌈⌊T ⌉⌋ P ✲ R, der t anstelle von T
P
einsetzt, also für Koeffizienten ai ∈ R durch i∈N ai T i ✲ i∈N ai t
i
P
mit i∈N ai ti = 0. Für allgemeines t ist diese Menge relativ unüber-
sichtlich, für t = 0 aber einfach zu beschreiben, denn es gilt
nX o
ker Φ0 = ai T i ; a0 = 0 = R⌈⌊T ⌉⌋ · T,
i∈N
R⌈⌊T ⌉⌋ · (T − t) ∼✲ R⌈⌊T ⌉⌋ · T
ein, und es gilt Ψt−1 (R⌈⌊T ⌉⌋ ·T ) = R⌈⌊T ⌉⌋ ·(T −t). Benutzen wir schließlich
die Relation Φt = Φ0 ◦ Ψt , so ergibt sich
ker Φt = Ψt−1 (ker Φ0 ) = Ψt−1 R⌈⌊T ⌉⌋ · T = R⌈⌊T ⌉⌋ · (T − t),
was zu zeigen war.
5.1 Aufgabe 2
Start: Gegeben ist ein K-Vektorraum V 6= 0 mit einem Endo-
morphismus ϕ : V ✲ V , also ϕ ∈ EndK (V ). Man betrachte den
K-Algebrahomomorphismus Φ : K⌈⌊T ⌉⌋ ✲ EndK (V ), der ϕ anstelle
von T einsetzt, wobei wir genauer Φϕ statt Φ schreiben.
Ziel : Es ist ker Φϕ in den Fällen ϕ = id und ϕ =P0 zu bestimmen.
Strategie: Definitionsgemäß gehört ein Polynom i∈NPai T i ∈ K⌈⌊T ⌉⌋
mit Koeffizienten ai ∈ K genau dann zu ker P Φϕ , wenn
i
i∈N ai ϕ = 0
gilt. Für ϕ = 0 ergibt sich daher ker Φ0 = { i∈N ai T ; a0 ϕ = 0}. Nun
i 0
P
Da nun i∈N ai = 0 wegen P f ∈ ker Φid gilt, erhalten wir bi = 0 für
i ≥ grad f . Damit ist g = i∈N bi T in der Tat ein Polynom in K⌈⌊T ⌉⌋
i
mit f = g · (T − 1), und es ergibt sich ker Φid = K⌈⌊T ⌉⌋ · (T − 1), wie
vermutet.
Lösungsweg: Wir betrachten allgemeiner als in der Aufgabenstel-
lung für c ∈ K den Endomorphismus c · id : V ✲ V . Wegen
T − c ∈ ker Φc·id ergibt sich K⌈⌊T ⌉⌋ · (T − c) ⊂ ker Φc·id , und wir be-
haupten, dass diese Inklusion in Wahrheit eine Gleichheit darstellt.
Dazu zerlegen wir K⌈⌊T ⌉⌋ als K-Vektorraum in eine Summe
✲ ✲
1
Z⌈⌊T ⌉⌋ Q, T ,
b
ein Unterring von Q. Dieser enthält den Bruch ab und ist offenbar der
kleinste Unterring von Q mit dieser Eigenschaft, so dass Z⌈⌊ 1b ⌉⌋ ⊂ R
gilt.
Die Ringe der Form Z⌈⌊ 1b ⌉⌋ mit b ∈ Z − {0} haben eine interessan-
te Eigenschaft. Ist d ∈ Z ein Teiler von b, so ist d1 ein ganzzahliges
Vielfaches von 1b , und es gilt Z⌈⌊ d1 ⌉⌋ ⊂ Z⌈⌊ 1b ⌉⌋. Hat man sogar b = dn mit
einem Exponenten n > 0, so kann man andererseits 1b = ( d1 )n ∈ Z⌈⌊ d1 ⌉⌋
schließen und damit Z⌈⌊ d1 ⌉⌋ = Z⌈⌊ 1b ⌉⌋. Wir ziehen hieraus eine einfache
Folgerung. Ist b = pn1 1 . . . pnt t eine Primfaktorzerlegung von b mit Ex-
ponenten ni > 0, so gilt
h1i h 1 i
Z =Z .
b p1 . . . pt
In der Tat, p1 . . . pt | b impliziert die Inklusion “ ⊃ ” und b | (p1 . . . pt )e
für eine geeignete Potenz e die Inklusion “ ⊂ ”. Wir dürfen daher bei
den Ringen der Form Z⌈⌊ 1b ⌉⌋ jeweils annehmen, dass b ein Produkt von
paarweise verschiedenen Primzahlen ist. Zusätzlich wird ein anderes
Phänomen sichtbar. Eine unendliche Folge verschiedener Primzahlen
p1 , p2 , . . . führt zu einer aufsteigenden Kette von Unterringen
h1i h 1 i
Z ⊂Z ⊂ . . . ⊂ Q,
p1 p1 p2
und die Vereinigung aller dieser Ringe ergibt einen Unterring von Q,
der offenbar nicht von der Form Z⌈⌊ 1b ⌉⌋ mit b ∈ Z ist. Wir wollen im
Weiteren zeigen, dass es außer den erwähnten Beispielen keine weiteren
Unterringe von Q gibt.
Lösungsweg: Für eine Menge P ⊂ N von Primzahlen setzen wir
na o
RP = ∈ Q ; a, b ∈ Z, b ist Produkt von Primzahlen p ∈ P .
b
446 8. Aufgabentrainer
Dann ist RP ein Unterring von Q, und wir behaupten, dass RP von RP ′
verschieden ist, wenn die Primzahlmengen P und P ′ verschieden sind.
Um dies zu begründen, betrachten wir eine Primzahl p und einen Bruch
a
b
∈ Q mit a, b ∈ Z. Gibt es dann eine Gleichung p1 = ab , also pa = b,
so folgt p | b und damit 1p 6∈ RP für alle Mengen von Primzahlen P , die
p nicht enthalten. Sind daher P und P ′ verschiedene Primzahlmengen,
so ergibt sich RP 6= RP ′ .
Wir wollen nun noch sehen, dass es außer den Ringen des Typs
RP keine weiteren Unterringe von Q gibt. Sei also R ein Unterring
von Q und sei P die Menge aller Primzahlen p mit p1 ∈ R. Dann gilt
RP ⊂ R, und wir behaupten, dass dies bereits eine Gleichheit ist. Sei
nämlich x ∈ R und x = ab mit a, b ∈ Z eine Darstellung als gekürzter
Bruch. Dann gilt 1b ∈ R, wie wir im Rahmen der Strategieüberlegungen
gesehen haben, und somit p1 ∈ R für alle Primzahlen p, die b teilen.
Insbesondere ergibt sich x = ab ∈ RP , und wir sehen dass R = RP
gilt. Es werden also die Unterringe von Q in bijektiver Weise durch
die Ringe des Typs RP parametrisiert, wobei P ⊂ N alle Teilmengen
durchläuft, die lediglich aus Primzahlen bestehen. Dabei gilt RP = Z
für P = ∅ und RP = Q für P die Menge aller Primzahlen.
Ergänzungen: Man betrachte einen Ring R und ein multiplikatives
System S ⊂ R. Letzteres bedeutet 1 ∈ S sowie dass a, b ∈ S stets
ab ∈ S impliziert. Dann kann man unter gewissen Vorsichtsmaßnahmen
bezüglich Nullteilern den Ring RS aller Brüche as mit a ∈ R und s ∈ S
betrachten; siehe [1], Abschnitt 2.7. Man nennt RS die Lokalisierung
von R nach dem multiplikativen System S. Bei den oben betrachteten
Ringen des Typs RP für Primzahlmengen P ⊂ N handelt es sich jeweils
um die Lokalisierung von Z nach dem von P erzeugten multiplikativen
System S, das aus allen Produkten von Elementen aus P besteht.
5.2 Aufgabe 6
Start: Zu betrachten ist der Polynomring Z⌈⌊T ⌉⌋ in einer Variablen
T über dem Ring Z der ganzen Zahlen.
Ziel : Es ist zu zeigen, dass Z⌈⌊T ⌉⌋ kein Hauptidealring ist.
Strategie: Typische Primelemente in Z sind die Primzahlen sowie
in Polynomringen K⌈⌊T ⌉⌋ über einem Körper K die Variable T . Wir
betrachten nun eine Primzahl p sowie die Variable T ∈ Z⌈⌊T ⌉⌋ und
nehmen an, dass Z⌈⌊T ⌉⌋ ein Hauptidealring ist. Da p und T in Z⌈⌊T ⌉⌋
offenbar teilerfremd sind, gibt es dann gemäß 5.2/16 eine Gleichung
5.3 Aufgabe 3 447
fortzusetzen. Dieser lässt reelle Polynome fest. Sei nun f ein normiertes
reelles Polynom, welches in R⌈⌊T ⌉⌋ irreduzibel ist und somit einen Grad
≥ 1 besitzt. Wir können dann eine Primfaktorzerlegung von f in C⌈⌊T ⌉⌋
betrachten. Da der Körper C algebraisch abgeschlossen ist, zerfällt f
vollständig in lineare Faktoren,
f = (T − α1 ) . . . (T − αn )
mit Nullstellen α1 , . . . , αn ∈ C. Nun gilt aber
(T − α1 ) . . . (T − αn ) = f = τ (f ) = (T − α1 ) . . . (T − αn ),
und die Eindeutigkeit der Primfaktorzerlegung in C⌈⌊T ⌉⌋ besagt, dass
die Menge der komplexen Nullstellen von f invariant ist unter kom-
plexer Konjugation, die Nullstellen also entweder reell sind oder als
Paare komplex konjugierter nicht-reeller Nullstellen auftreten. Daraus
schließt man leicht, wie wir sehen werden, dass f von der behaupteten
Form ist.
Lösungsweg: Wie oben betrachten wir den von der komplexen Kon-
jugation induzierten R⌈⌊T ⌉⌋-Automorphismus τ : C⌈⌊T ⌉⌋ ✲ C⌈⌊T ⌉⌋. Da
eine komplexe Zahl z ∈ C genau dann reell ist, wenn z = z gilt, sehen
wir, dass ein komplexes Polynom f ∈ C⌈⌊T ⌉⌋ genau dann reell ist, wenn
τ (f ) = f gilt. Insbesondere folgt auf diese Weise, dass die Polynome
des Typs (T − α)(T − α) mit α ∈ C reell sind. Weiter können wir
wie oben argumentieren, dass die Polynome T − α für α ∈ R sowie
(T − α)(T − α) für α ∈ C − R irreduzibel in R⌈⌊T ⌉⌋ sind.
Sei nun umgekehrt f ein irreduzibles (und damit nicht-konstantes)
normiertes Polynom in R⌈⌊T ⌉⌋ und sei
f = (T − α1 ) . . . (T − αn )
eine Primfaktorzerlegung in C⌈⌊T ⌉⌋ mit den Nullstellen α1 , . . . , αn ∈ C
von f . Die Gleichung τ (f ) = f zeigt sodann unter Benutzung der
6.1 Aufgabe 3 449
Normalformentheorie
6.1 Aufgabe 3
Start: Zu betrachten ist eine konkret gegebene Matrix A ∈ R4×4 ,
die von oberer Dreiecksgestalt ist.
Ziel : Es sollen alle Eigenwerte von A und die zugehörigen Eigen-
räume berechnet werden. Außerdem ist die Frage gestellt, ob A diago-
nalisierbar ist.
Strategie: Um die Notation einfach zu gestalten, setzen wir V = R4
und betrachten die durch die Matrix A gegebene lineare Abbildung
f: V ✲ V, x ✲ Ax. Ob ein Element λ ∈ R ein Eigenwert von f
bzw. A ist, können wir sodann an dem linearen Unterraum
Vλ = ker(f − λ id) = x ∈ V ; f (x) = λx ⊂ V
ablesen. Und zwar ist λ genau dann ein Eigenwert von f bzw. A, wenn
Vλ 6= 0 gilt; im letzteren Fall ist Vλ der Eigenraum zum Eigenwert λ.
Um schließlich Vλ = ker(f − λ id) 6= 0 zu testen, erinnern wir uns an
die Dimensionsformel
450 8. Aufgabentrainer
aus 2.1/10. Sie zeigt, dass Vλ genau dann nicht-trivial ist, wenn
gilt, wobei E ∈ R4×4 die Einheitsmatrix bezeichne. Damit ist der Lö-
sungsweg für unser Problem vorgezeichnet: Der Rang einer Matrix des
Typs A − λE lässt sich mit Hilfe des Gaußschen Eliminationsverfah-
rens 3.2/4 bestimmen, und dieses Verfahren kann man weiter dazu
nutzen, um den Kern, also alle Vektoren x ∈ V mit Ax = λx, zu be-
stimmen; vgl. Abschnitt 3.5. Die Frage der Diagonalisierbarkeit von A
löst sich dann mittels 6.1/12.
Lösungsweg: Wie wir bereits gesehen haben, ist ein Element λ ∈ R
genau dann ein Eigenwert der Matrix A, wenn
2−λ 1 0 1
0 2−λ 0 1
rg(A − λE) = rg < 4
0 0 2−λ 1
0 0 0 2−λ
gilt. Nun liegt aber A − λE für λ 6= 2 bereits in Zeilenstufenform vor,
und wir können daraus rg(A−λE) = 4 ablesen; vgl. 3.2/4. Andererseits
ergibt sich für λ = 2
0 1 0 1
0 0 0 1
rg(A − 2E) = rg = 2,
0 0 0 1
0 0 0 0
indem wir die zweite Zeile von der dritten subtrahieren und damit eine
Zeilenstufenform vom Rang 2 herstellen. Somit besitzt A als einzigen
Eigenwert λ = 2, und der zugehörige Eigenraum V2 hat gemäß der
Formel 2.1/10 die Dimension
x2 + x4 = 0, x4 = 0,
und man sieht, entweder auf direkte Weise oder mit dem Verfahren
aus 3.5, dass die Vektoren (1, 0, 0, 0)t und (0, 0, 1, 0)t eine Basis des
zugehörigen Lösungsraums und damit des Eigenraums V2 bilden.
6.1 Aufgabe 7
Start: Gegeben ist ein kommutatives Diagramm linearer Abbildun-
gen zwischen K-Vektorräumen
f
V ✲ V
h h
❄ g
❄
W ✲ W ,
wobei V als endlich-dimensional vorausgesetzt ist.
Ziel : Für h injektiv ist zu zeigen, dass jeder Eigenwert von f auch
Eigenwert von g ist. Umgekehrt ist für h surjektiv zu zeigen, dass
jeder Eigenwert von g auch Eigenwert von f ist. Weiter soll anhand
von Beispielen erklärt werden, dass die vorstehenden Voraussetzungen
“injektiv” bzw. “surjektiv” nicht entbehrlich sind.
Strategie: Sei zunächst h injektiv. Ist dann x ∈ V − {0} ein Eigen-
vektor von f zum Eigenwert λ ∈ K, so gilt aufgrund der Kommutati-
vität des Diagramms
g h(x) = h f (x) = h(λx) = λh(x).
h f (x) = g(y) = λy = h(λx),
also f (x) − λx ∈ ker h, ohne dass wir daraus f (x) = λx schließen
können, da h nicht notwendig injektiv ist. Nun ist aber offenbar das
Diagramm
f −λ id
V ✲V
h h
❄ g−λ id
❄
W ✲W
kommutativ, und wir können daraus fλ (ker h) ⊂ ker h schließen, wobei
wir fλ anstelle von f −λ id schreiben. Gibt es nun ein Element a ∈ ker h
mit fλ (x) = fλ (a), beispielsweise wenn die Einschränkung von fλ auf
ker h surjektiv ist, so folgt fλ (x − a) = 0, und x − a ∈ V wäre ein
Eigenvektor von f zum Eigenwert λ; dabei beachte man x − a 6= 0
wegen h(x − a) = h(x) = y 6= 0. Obwohl f |ker h im Allgemeinfall
nicht surjektiv sein wird, werden wir dennoch sehen können, dass ein
Argument dieser Art zum Ziel führt, wenn wir indirekt vorgehen.
Lösungsweg: Wir setzen fλ = f − λ id bzw. gλ = g − λ id für λ ∈ K
und betrachten das kommutative Diagramm
fλ
V ✲ V
h h
❄ gλ
❄
W ✲ W .
Ist dann h injektiv, so können wir h als Inklusionsabbildung interpre-
tieren, so dass ker fλ = V ∩ ker gλ gilt. Wenn nun λ ein Eigenwert zu
f ist, so folgt ker fλ 6= 0 und damit ker gλ 6= 0, und wir erkennen λ als
Eigenwert von g.
Sei schließlich h surjektiv. Wir gehen indirekt vor und nehmen
an, dass λ kein Eigenwert von f ist. Dann ist fλ injektiv und wegen
dimK V < ∞ nach 2.1/11 sogar bijektiv. Weiter gilt fλ (ker h) ⊂ ker h
aufgrund der Kommutativität des obigen Diagramms, und es folgt mit
demselben Dimensionsargument, dass die Einschränkung von fλ auf
ker h bijektiv ist. Insbesondere ergibt sich fλ−1 (ker h) = ker h. Dia-
grammjagd zeigt nun, dass gλ bijektiv ist und folglich λ kein Eigenwert
von g sein kann. Ist also λ Eigenwert von g, so notwendigerweise auch
von f .
6.2 Aufgabe 2 453
fλ′ fλ gλ
❄ ❄ h
❄
0 ✲ ker h ✲ V ✲ W ✲ 0
Das Schlangenlemma liefert dann eine kanonische exakte Sequenz
0 ✲ ker fλ′ ✲ ker fλ ✲ ker gλ
✲ coker f ′ ✲ coker fλ ✲ coker gλ ✲ 0,
λ
6.2 Aufgabe 2
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum V mit
einem Endomorphismus f : V ✲ V . Und zwar sind folgende Fälle
zu betrachten:
454 8. Aufgabentrainer
(i) V = 0
(ii) f = id
(iii) f = 0
(iv) V = V1 ⊕ V2 mit linearen Unterräumen V1 , V2 ⊂ V , wobei
f |V1 = id sowie f |V2 = 0 gilt.
Ziel : Es ist jeweils das Minimalpolynom pf von f zu bestimmen.
Strategie: Ausgangspunkt aller Überlegungen ist die Definition des
Minimalpolynoms pf gemäß 6.2/9 bzw. 6.2/10 als erzeugendes Element
des Kerns des Einsetzungshomomorphismus ϕf : K⌈⌊T ⌉⌋ ✲ EndK (V ),
T ✲ f . Hilfreich kann dabei auch das charakteristische Polynom
χf in Verbindung mit dem Satz von Cayley-Hamilton 6.2/11 sein, in-
dem man benutzt, dass pf ein Teiler von χf ist. Dabei bildet V = 0
einen Sonderfall, denn hier gibt es nur einen einzigen Endomorphis-
mus V ✲ V , den wir als Identität id oder auch als Nullabbildung 0
interpretieren können, wobei also insbesondere id = 0 gilt.
Lösungsweg: Wir betrachten den genannten Einsetzungshomomor-
phismus ϕf : K⌈⌊T ⌉⌋ ✲ EndK (V ), T ✲ f . Im Falle (i), also V = 0,
gilt EndK (V ) = 0 und damit ϕf = 0. Daher ist ker ϕf das Einheits-
ideal, und es folgt pf = 1. Wir wollen diesen Spezialfall im Weiteren
ausschließen und setzen V von nun an als K-Vektorraum einer Dimen-
sion n > 0 voraus.
Dann wird f = id, wie in (ii), bezüglich einer beliebigen Basis von
V durch die Einheitsmatrix E ∈ K n×n beschrieben, und das zugehörige
charakteristische Polynom ist von der Form χf = (T − 1)n . Benutzen
wir weiter, dass pf aufgrund des Satzes von Cayley-Hamilton 6.2/11 ein
Teiler von χf ist und testen (T − 1)0 (f ) = id 6= 0 sowie (T − 1)(f ) = 0,
so ergibt sich pf = T − 1.
Sei nun f = 0 wie in (iii). Man schließt ähnlich wie in (ii) und
erhält χf = T n sowie pf = T .
Im Fall (iv) schließlich dürfen wir V1 6= 0 und V2 6= 0 annehmen,
denn ansonsten befinden wir uns wieder in der Situation von (ii) oder
(iii). Gelte also dimK V1 = n1 und dimK V2 = n2 mit n1 , n2 > 0 und
natürlich n1 + n2 = n. Ein Test ergibt wegen f |V1 = id sowie f |V2 = 0,
dass f von (T − 1) · T annulliert wird, aber von keinem Teiler hiervon.
Deshalb bleibt als einzige Möglichkeit pf = (T − 1) · T .
6.2 Aufgabe 5 455
6.2 Aufgabe 5
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum V mit
einem Endomorphismus f : V ✲ V . Dieser ist als Automorphismus
vorausgesetzt, so dass auch die inverse Abbildung f −1 : V ✲ V als
Automorphismus von V existiert.
Ziel : Es ist zu zeigen, dass man f −1 als Polynom in f schreiben
kann, also dass es ein Polynom q ∈ K⌈⌊T ⌉⌋ gibt mit f −1 = q(f ).
Strategie: Wie wir wissen, gibt es eine Gleichung der Form
f n + c1 f n−1 + . . . + cn f 0 = 0
f −1 = −c−1
n (f
n−1
+ c1 f n−2 + . . . + cn−1 f 0 )
6.3 Aufgabe 3
Start: Es sei R ein Hauptidealring mit Elementen a11 , . . . , a1n ∈ R,
die teilerfremd sind, also ggT(a11 , . . . , a1n ) = 1 erfüllen.
Ziel : Zu konstruieren sind weitere Elemente aij ∈ R für i = 2, . . . , n,
j = 1, . . . , n, so dass die Matrix A = (aij )i,j=1,...,n in Rn×n invertierbar
ist. Von A ist also die erste Zeile durch (a11 , . . . , a1n ) festgelegt, und es
ist zu zeigen, dass man n − 1 weitere Zeilen hinzufügen kann, so dass
man eine in Rn×n invertierbare Matrix erhält.
Strategie: Wir wollen die Teilerfremdheit der Elemente a11 , . . . , a1n
mit der Elementarteilertheorie in Verbindung bringen und betrachten
deshalb die Elementarteiler von A1 = (a11 , . . . , a1n ), aufgefasst als Ma-
trix in R1×n . Das Verfahren für Hauptidealringe aus 6.3/5 zeigt dann,
dass sich A1 mittels Multiplikation mit invertierbaren Matrizen aus
Rn×n von rechts, die wir in konkreter Weise als Spaltentransformatio-
nen interpretiert hatten, in die Gestalt (α, 0, . . . , 0) bringen lässt, mit
einer Konstanten α ∈ R, die den ersten (und einzigen) Elementar-
teiler von A1 darstellt. Es existiert daher eine Gleichung des Typs
A1 · T = (α, 0, . . . , 0) mit einer invertierbaren Matrix T ∈ Rn×n . Dann
folgt A1 = (α, 0, . . . , 0) · T −1 , und wir sehen, dass α ein gemeinsa-
mer Teiler von a11 , . . . , a1n ist, also eine Einheit. Somit können wir A1
mittels geeigneter invertierbarer Spaltentransformationen in den Zei-
lenvektor (1, 0, . . . , 0) ∈ R1×n überführen. Wenn wir diese Zeile nun als
erste Zeile der Einheitsmatrix E ∈ Rn×n auffassen und die zuvor be-
trachteten Spaltentransformationen invertiert auf E anwenden, sollten
wir zu einer Matrix A gelangen, die das Gewünschte leistet.
Lösungsweg: Es sei F = Rn der freie R-Modul aller n-Tupel von
Elementen aus R, die wir wie üblich als Spaltenvektoren interpretieren.
Weiter sei M der von der Spalte (a11 , . . . , a1n )t erzeugte R-Untermodul.
Sodann besagt der Elementarteilersatz 6.3/4 unter Verwendung von
6.3/7, dass es eine Basis X = (x1 , . . . , xn ) von F gibt mit M = R · αx1
für eine geeignete Konstante α ∈ R. Da α alle Elemente a1j teilen
muss und diese aber teilerfremd sind, können wir α = 1 und somit
sogar x1 = (a11 , . . . , a1n )t annehmen. Für die kanonische Basis e von
Rn betrachten wir nun die Basiswechselmatrix Aid,X,e . Diese ist inver-
tierbar und besitzt (a11 , . . . , a1n )t als erste Spalte. Sodann ist Atid,X,e
eine invertierbare Matrix in Rn×n , die wie gewünscht (a11 , . . . , a1n ) als
erste Zeile besitzt.
6.3 Aufgabe 6 457
6.3 Aufgabe 6
Start: Gegeben ist ein endlich erzeugter R-Modul M über einem
kommutativen Ring mit 1, wobei M zudem ein freies Erzeugendensys-
tem besitze.
Ziel : Es ist zu zeigen, dass jedes freie Erzeugendensystem von M
endlich ist und aus gleichvielen Elementen besteht.
Strategie: Zunächst ist anzumerken, dass der Fall M = 0 trivial
ist. Wir dürfen daher M 6= 0 und damit insbesondere auch R 6= 0 an-
nehmen. Ist nun X = (xi )i∈I ein freies Erzeugendensystem und Y ein
endliches Erzeugendensystem von M , so ist jedes Element y ∈ Y eine
Linearkombination von endlich vielen der Erzeugenden xi , und wir se-
hen insgesamt, dass M von einem endlichen Teilsystem von X erzeugt
wird. Da aber X ein freies Erzeugendensystem ist, folgt notwendig,
dass X selbst endlich ist.
Seien nun X = (x1 , . . . , xm ) und Y = (y1 , . . . , yn ) zwei (endliche)
freie Erzeugendensysteme von M . Indem man einem Element z ∈ M
seinen zugehörigen Koordinatenspaltenvektor zX bzw. zY bezüglich der
Basen X bzw. Y von M zuordnet, ergeben sich Isomorphismen von
R-Moduln M ∼✲ Rm sowie M ∼✲ Rn . Insgesamt erhält man
damit einen Isomorphismus von R-Moduln ϕ : Rm ∼✲ Rn , und es
ist zu zeigen, dass ein solcher Isomorphismus nur im Falle m = n
bestehen kann.
Ist etwa R ein Körper, so ergibt sich m = n aufgrund von Di-
mensionstheorie; siehe 2.1/8. Ist R kein Körper, aber immerhin noch
ein Hauptidealring, so konnten wir zum Beweis von 6.3/7 ein Primele-
ment p ∈ R wählen und dann den von ϕ induzierten Isomorphismus
ϕp : (R/pR)m ∼✲ (R/pR)n betrachten. Da R/pR nach 5.2/17 ein
Körper ist, können wir auch hier auf m = n schließen. Dasselbe Argu-
ment funktioniert für allgemeine kommutative Ringe R mit 1, sofern
wir in R ein Ideal m finden können, derart dass der Restklassenring
R/m ein Körper ist.
Eine alternative Schlussweise ist möglich für Integritätsringe R.
Und zwar kann man dann zu R den Körper
na o
Q(R) = ; a, b ∈ R, b 6= 0
b
aller Brüche mit den üblichen Regeln und Konventionen der Bruch-
rechnung betrachten. Wir hatten diese Konstruktion bereits im Ab-
458 8. Aufgabentrainer
schnitt 6.2 für den Polynomring R = K⌈⌊T ⌉⌋ über einem Körper K be-
nutzt. Sodann gewinnt man aus dem Isomorphismus ϕ : Rm ∼✲ Rn
mittels Bruchbildung einen Isomorphismus von Q(R)-Vektorräumen
ϕQ(R) : Q(R)m ∼✲ Q(R)n und kann ebenfalls m = n schließen.
Im Prinzip ist dieses Verfahren auch im Allgemeinfall anwendbar,
wenn man zeigt, dass jeder Ring R 6= 0 ein sogenanntes Primideal
p enthält, welches dadurch charakterisiert ist, dass der Restklassen-
ring R/p ein Integritätsring ist. Dann induziert der Isomorphismus
ϕ : Rm ∼✲ Rn nämlich einen Isomorphismus von (R/p)-Moduln
ϕp : (R/p)m ∼✲ (R/p)n , wobei nun R/p ein Integritätsring ist.
Lösungsweg: Der Fall M = 0 ist trivial, wir setzen daher M 6= 0
und insbesondere R 6= 0 voraus. Es genügt dann, wie bereits erläu-
tert, ein Ideal m ⊂ R zu konstruieren, derart dass R/m ein Körper
ist; ein solches Ideal ist insbesondere ein Primideal und wird auch als
maximales Ideal in R bezeichnet.
Um ein maximales Ideal in einem Ring R 6= 0 zu konstruieren,
betrachten wir die Menge A aller echten Ideale a ( R mit der durch
die Inklusion gegebenen teilweisen Ordnung. Aufgrund des Zornschen
Lemmas 1.5/15 besitzt A ein maximales Element m, so dass also für
jedes Ideal a ⊂ R mit m ⊂ a bereits m = a oder a = R folgt. Wir
behaupten, dass dann der Restklassenring R/m ein Körper ist, und
zeigen hierfür, dass jedes von Null verschiedene Element α ∈ R/m eine
Einheit ist. In der Tat, das Urbild des Hauptideals (α) ⊂ R/m unter der
kanonischen Projektion R ✲ R/m ergibt ein Ideal a ⊂ R mit m ( a,
also mit a = R. Sodann folgt (α) = R/m, und wir sehen, dass α eine
Einheit in R/m ist. Ein maximales Element m ∈ A führt also zu einem
Restklassenring R/m, der ein Körper ist. Allgemeiner kann man für ein
Ideal m ⊂ R leicht zeigen, dass der Restklassenring R/m genau dann
ein Körper ist, wenn m ein maximales Element in A ist; die Bezeichnung
maximales Ideal für Ideale dieses Typs ist daher gerechtfertigt.
Im Rahmen der Strategieüberlegungen haben wir bereits gezeigt,
dass freie Erzeugendensysteme von M endlich sind und dass je zwei
solche Systeme, etwa der Längen m und n zu einem Isomorphismus von
R-Moduln ϕ : Rm ∼✲ Rn führen. Ist dann m ⊂ R ein maximales
Ideal, so induziert ϕ einen Isomorphismus von (R/m)-Vektorräumen
ϕm : (R/m)m ∼✲ (R/m)n , und wir können wie gewünscht m = n
mit Hilfe des Dimensionsarguments 2.1/8 schließen.
6.4 Aufgabe 1 459
6.4 Aufgabe 1
Start: Gegeben ist eine endliche abelsche Gruppe G; die Anzahl
der Elemente von G wird mit ord G bezeichnet, als Ordnung von G.
Ziel : Ist H ⊂ G eine Untergruppe, so ist ord H ein Teiler von ord G.
Andererseits gibt es zu jedem Teiler d von ord G eine Untergruppe
H ⊂ G mit ord H = d.
Strategie: Es liegt nahe, den Struktursatz 6.4/4 zu verwenden. Be-
zeichnet P ⊂ N die Menge der Primzahlen, so besagt dieses Resultat,
dass G eine direkte Summe von Gruppen des Typs Z/pn Z ist, wobei
p ∈ P und n ∈ N variieren. Aus einer solchen Zerlegung lässt sich die
Ordnung von G bestimmen, und zwar als Produkt der Ordnungen der
einzelnen Summanden. Denn sind A, B endliche abelsche Gruppen, so
gilt
wobei pi Gp,n = pi Z/pn Z ≃ Z/pn−i Z und also ord pi Gp,m = pn−i für
i = 0, . . . , n gilt. Damit existiert zu jedem Teiler d von ord Gp,n = pn
eine Untergruppe H ⊂ Gp,n mit ord H = d. Mit 6.4/4 und unter Ver-
wendung von (∗) kann man dann auch für beliebige endliche abelsche
Gruppen G sehen, dass zu jedem Teiler d von ord G eine Untergruppe
H ⊂ G mit ord H = d existiert.
Es bleibt noch zu überlegen, dass für Untergruppen H ⊂ G stets
ord H ein Teiler von ord G ist. Wir wollen einmal den einfachen Fall
G = Z/pn Z für p ∈ P und n ∈ N betrachten. Dann können wir
Z/pn Z als Restklassenring von Z auffassen und die kanonische Pro-
jektion π : Z ✲ Z/pn Z betrachten. Offenbar ist eine Untergruppe
H ⊂ Z/p Z bereits ein Ideal in Z/pn Z und folglich a = π −1 (H) ein
n
Ideal in Z, welches das Ideal ker π = (pn ) enthält. Nun ist Z ein Haupt-
idealring und somit a ein Hauptideal, etwa a = (a). Weiter gilt a | pn
wegen pn ∈ a, etwa a = pi mit 0 ≤ i ≤ n, und wir können daraus
460 8. Aufgabentrainer
Q
Ist nun d ∈ N ein P Teiler von ord G, etwa d = p∈P p , wobei die
rp
6.4 Aufgabe 6
Start: Zu betrachten ist eine endliche Gruppe G, die als multipli-
kative Untergruppe der Einheitengruppe K ∗ eines Körpers K gegeben
ist.
Ziel : Es ist zu zeigen, dass G zyklisch ist, d. h. dass es ein n ∈ Z
mit G ≃ Z/nZ gibt.
Strategie: Wir wählen ein Element g ∈ G und betrachten dessen
Potenzen g 0 , g 1 , g 2 , . . .. Da G endlich ist, können diese Potenzen nicht
alle paarweise verschieden sein. Es gibt daher Exponenten r, s ∈ N, et-
wa r < s mit g r = g s . Für n = s−r folgt daraus g n = 1. Es gibt also zu
jedem Element g ∈ G einen Exponenten n > 0 mit g n = 1. Alternativ
können wir auch den Gruppenhomomorphismus ϕ : Z ✲ G betrach-
ten, der einem Element z ∈ Z die Potenz g z zuordnet. Da G nur endlich
viele Elemente enthält, folgt ker ϕ 6= 0. Nun ist ker ϕ eine Untergruppe
von Z, also ein Z-Untermodul und damit ein Ideal in Z, insbesondere
ein Hauptideal. Es existiert daher ein n > 0 mit ker ϕ = nZ, wobei n
die minimale natürliche Zahl > 0 mit g n = 1 ist. Aufgrund des Homo-
morphiesatzes induziert ϕ eine Injektion ϕ : Z/nZ ⊂ ✲ G, und wir se-
hen, dass das Bild hgi = im ϕ genau aus den n paarweise verschiedenen
Elementen g 0 , g 1 , . . . , g n−1 besteht. Nun ist g wegen g n = 1 Nullstelle
des Polynoms T n − 1 ∈ K⌈⌊T ⌉⌋, aber auch jede Potenz g z mit z ∈ Z
hat diese Eigenschaft. Die n Elemente aus hgi sind daher Nullstellen
von T n − 1. Da aber ein Polynom n-ten Grades höchstens n Nullstellen
in K haben kann, besitzt T n − 1 außer den Elementen von hgi keine
weiteren Nullstellen in K bzw. G. Wir ziehen daraus eine wichtige Fol-
gerung: G enthält eine Untergruppe des Typs Z/nZ, kann aber keine
Untergruppen des Typs Z/nZ ⊕ Z/nZ oder auch Z/nZ ⊕ Z/dZ mit
einem Teiler d > 1 von n enthalten, da alle deren Elemente Nullstellen
des Polynoms T n − 1 wären. Dies hat insbesondere Konsequenzen für
die Zerlegung von G im Rahmen des Struktursatzes 6.4/4.
Lösungsweg: Als endliche Gruppe handelt es sich bei G um eine
Torsionsgruppe. Daher liefert 6.4/2 eine Zerlegung
s
M
G≃ Z/nj Z
j=1
Q
te interpretieren kann, besitzt G genau sj=1 nj Elemente, und jedes
dieser Elemente ist offenbar Nullstelle des Polynoms T n − 1 ∈ K⌈⌊T ⌉⌋,
wobei wir n = ns setzen. Andererseits kann dieses Polynom höchstens
n Nullstellen in K haben, so dass s = 1 folgt und damit G ≃ Z/nZ,
wie gewünscht.
6.5 Aufgabe 2
Start: Gegeben sind zwei Matrizen A, B ∈ R3×3 , zu denen man
jeweils das Minimalpolynom pA bzw. pB sowie das charakteristische
Polynom χA bzw. χB betrachte.
Ziel : Es ist zu zeigen, dass A und B genau dann ähnlich sind, wenn
pA = pB und χA = χB gilt.
Strategie: Es seien zunächst A und B ähnliche Matrizen, wobei wir
etwa B = S −1 · A · S mit einer invertierbaren Matrix S ∈ GL(3, R)
annehmen. Dann folgt pA (B) = S −1 · pA (A) · S = 0 und damit pB | pA .
Entsprechend zeigt man pA | pB und erhält pA = pB . Weiter liest man
χA = χB aus 6.2/4 ab. Diese Überlegungen sind natürlich allgemeiner
für quadratische Matrizen über einem beliebigen Körper K gültig.
Wir nehmen nun pA = pB und χA = χB an, wobei wir zunächst von
Matrizen A, B ∈ K n×n über einem beliebigen Körper K und mit allge-
meiner Zeilen- und Spaltenzahl n ausgehen. Sei pA = pB = pn1 1 · . . . · pnr r
die Primfaktorzerlegung mit paarweise verschiedenen Primpolynomen
p1 , . . . , pr ∈ K⌈⌊T ⌉⌋ und Exponenten ni > 0. Sodann lesen wir aus 6.5/11
ab, dass in der allgemeinen Normalform zu A wie auch in derjenigen
zu B für jedes i = 1, . . . , r die Begleitmatrix zu pni i mindestens einmal
als Diagonalkästchen vorkommen muss. Für n = 3 und K = R ergeben
sich dadurch gewisse Beschränkungen, zumal wenn man benutzt, dass
auch das charakteristische Polynom χA = χB ein Produkt gewisser
Potenzen der Primpolynome p1 , . . . , pr ist. Ziel ist es zu zeigen, dass
die allgemeinen Normalformen zu A und B bis auf die Reihenfolge der
Kästchen übereinstimmen.
Lösungsweg: Wir haben oben bereits nachgeprüft, dass ähnliche
Matrizen das gleiche Minimalpolynom sowie charakteristische Polynom
besitzen. Somit bleibt noch zu zeigen, dass A, B ∈ R3×3 ähnlich sind,
falls pA = pB und χA = χB gilt.
1. Fall: grad pA = 1, etwa pA = T − λ mit einer Nullstelle λ ∈ R.
Dann gilt A = Diag(λ, λ, λ), also besitzt A bereits allgemeine Normal-
form.
464 8. Aufgabentrainer
π π
❄ ❄
f
V /U ✲ V /U
kommutativ ist. Weiter gilt pf (f ) = 0 und damit auch pf (f ) = 0, so
dass pf ein Teiler von pf ist. Dies erledigt die Punkte (i) und (ii).
Um nun (iii) zu behandeln, müssen wir auf die Definition des cha-
rakteristischen Polynoms aus 6.2/2 bzw. 6.2/6 zurückgreifen. Wir neh-
men einmal der Einfachheit halber an, dass es in V einen weiteren
f -invarianten Unterraum U ′ gibt, so dass V in die direkte Summe von
U und U ′ zerfällt, also V = U ⊕ U ′ . Betrachten wir dann Basen von
U und U ′ und setzen diese zu einer Basis von V zusammen, so erhält
man mittels des Beispiels (2) am Ende von Abschnitt 4.3 die Zerlegung
χf = χf |U · χf |U ′ .
Bild von X ′ eine Basis von V /U bildet. Nun ist die Matrix, welche f
bezüglich der Basis X ∪ X ′ von V beschreibt, offenbar von der Form
Af |U ,X,X ∗
Af,X∪X ′ ,X∪X ′ =
,
0 Af ,X ′ ,X ′
und wir können mittels des Beispiels (2) am Ende von Abschnitt 4.3
unter Verwendung geeigneter Einheitsmatrizen E wie folgt rechnen:
T E − Af |U ,X,X ∗
7.1 Aufgabe 3
Start: Gegeben ist ein endlich-dimensionaler R-Vektorraum V mit
einer positiv definiten sBF Φ : V × V ✲ R. Weiter betrachte man zu
Vektoren x, y ∈ V , y 6= 0, die polynomiale Funktion p(t) = |x + ty|2
für t ∈ R.
Ziel : Es sind die Nullstellen von p(t) zu bestimmen. Als Folgerung
ist in der vorliegenden Situation die Schwarzsche Ungleichung 7.1/4
herzuleiten.
Strategie: Es gilt
hx, yi |x|2
t2 + 2t + 2 =0
|y|2 |y|
7.1 Aufgabe 5 467
und es ist
ϕ: V ✲ V ∗, x ✲ Φ(x, ·),
eine K-lineare Abbildung mit Ψ (ϕ) = Φ. Somit ist Ψ surjektiv, ins-
gesamt also ein Isomorphismus von K-Vektorräumen ist. Wir werden
im Weiteren sehen, dass die gerade durchgeführte Konstruktion zum
Nachweis der Surjektivität von Ψ zu einer Vereinfachung der Argumen-
tation genutzt werden kann.
Lösungsweg: Wie oben prüft man nach, dass die zu untersuchen-
de Abbildung Ψ : HomK (V, V ∗ ) ✲ W ein Homomorphismus von
K-Vektorräumen ist, ebenso wie die Abbildung
Ψ′ : W ✲ HomK (V, V ∗ ), Φ ✲ x ✲ Φ(x, ·) ,
7.2 Aufgabe 2 469
Ziel : Es ist zu zeigen, dass Φ ein Skalarprodukt auf R⌈⌊T ⌉⌋n definiert.
Weiter ist aus der Basis 1, T, T 2 von R⌈⌊T ⌉⌋2 mit Hilfe des Schmidtschen
Orthonormalisierungsverfahrens eine Orthonormalbasis von R⌈⌊T ⌉⌋2 zu
konstruieren.
Strategie: Wir müssen hier natürlich auf den Integralbegriff aus
der Analysis zurückgreifen. Und zwar gilt aufgrund des Hauptsatzes
der Differential- und Integralrechnung
Z 1
f (t)dt = F (1) − F (0)
0
7.2 Aufgabe 4
Start: Gegeben sind ein euklidischer bzw. unitärer K-Vektorraum
V , ein Untervektorraum U ⊂ V sowie ein Vektor v ∈ V − U .
Ziel : Es ist zu zeigen, dass es genau einen Vektor u0 ∈ U mit
v − u0 ∈ U ⊥ gibt und dass für alle anderen Vektoren u ∈ U die Ab-
schätzung |v − u| > |v − u0 | gilt.
Strategie: Im Grunde genommen wurde das Problem bereits in
7.2/4 behandelt. Es ist ein Vektor u0 ∈ U anzugeben, so dass v −u0 auf
allen Vektoren aus U senkrecht steht. Letzteres kann man überprüfen,
indem man hv − u0 , xi i = 0 für die Elemente x1 , . . . , xr einer Basis
von U zeigt. Fragen über Orthogonalität oder Beträge lassen sich am
einfachsten unter Zugrundelegen von Orthonormalbasen beantworten.
Es liegt daher nahe, eine Orthonormalbasis e1 , . . . , er von U zu wählen
und diese durch Elemente er+1 , . . . , en zu einer Orthonormalbasis von
V zu ergänzen; vgl. 7.2/6. Es erzeugen dann er+1 , . . . , en das orthogo-
nale Komplement U ⊥ zu U , wie im Beweis zu 7.2/8 gezeigt.
Lösungsweg: Wir wählen eine Orthonormalbasis e1 , . . . , er von U
und ergänzen diese durch Elemente
Pn er+1 , . . . , en zu einer Orthonormal-
basis von V . Gilt
Pr dann v = i=1 αi ei mit Koeffizienten αi ∈ K, so
folgt mit u0 = i=1 αi ei offenbar
n
X
v − u0 = αi ei ∈ U ⊥ .
i=r+1
Pr
Für beliebiges u ∈ U , etwa u = i=1 βi ei mit Koeffizienten βi ∈ K,
gilt dann
r
X n
X n
X
2 2
|v − u| = (αi − βi ) + αi2 ≥ αi2 = |v − u0 |2 ,
i=1 i=r+1 i=r+1
wobei die Gleichheit dazu äquivalent ist, dass die Terme αi − βi für
i = 1, . . . , r verschwinden. Es folgt also wie gewünscht |v −u| > |v −u0 |
für alle u ∈ U mit u 6= u0 .
Ergänzungen: Genau wie beim Orthonormalisierungsverfahren von
E. Schmidt wird der Vektor v−u0 konstruiert, indem man die senkrech-
te Projektion u0 von v auf den linearen Unterraum U von v subtrahiert.
Sodann steht v − u0 senkrecht auf U und besitzt, wie wir gesehen ha-
ben, als Länge den minimalen Abstand zwischen v und U , wenn wir
im Rahmen von Punkträumen argumentieren.
472 8. Aufgabentrainer
7.3 Aufgabe 4
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum V mit
einer Basis X. Weiter sei Φ eine sBF bzw. HF auf V .
Ziel : Für Φ positiv semidefinit soll gezeigt werden, dass alle Haupt-
unterdeterminanten der beschreibenden Matrix AΦ,X reell und ≥ 0
sind. Umgekehrt ist zu überlegen, ob Φ bereits positiv semidefinit ist,
wenn alle Hauptunterdeterminanten von AΦ,X reell und ≥ 0 sind.
Strategie: Wir betrachten als einfaches Beispiel den Vektorraum
V = R2 über dem Körper K = R. Sei Φ eine sBF auf V , etwa beschrie-
ben bezüglich der kanonischen Basis e von V durch die Matrix
α γ
AΦ,e = ∈ R2×2 ,
γ β
7.4 Aufgabe 1
Start: Gegeben sind ein endlich-dimensionaler euklidischer bzw.
unitärer K-Vektorraum V , ein Endomorphismus ϕ : V ✲ V und
∗
dessen adjungierte Abbildung ϕ : V ✲ V.
Ziel : Es ist Spur(ϕ ◦ ϕ ) ≥ 0 zu zeigen und dass Spur(ϕ ◦ ϕ∗ ) = 0
∗
äquivalent ist zu ϕ = 0.
Strategie: Die Spur eines Endomorphismus f : V ✲ V ist ge-
geben durch die Spur einer beschreibenden Matrix Af,X,X zu einer
beliebigen Basis X von V ; vgl. 6.2/6. Weiter ist die Spur einer quadra-
tischen Matrix gemäß 6.2/3 definiert als Summe der Diagonalelemente.
Im vorliegenden Fall empfiehlt es sich, X als Orthonormalbasis von V
zu wählen, denn dann gilt Aϕ∗ ,X,X = (Aϕ,X,X )∗ nach 7.4/4, und es
genügt, die Spur der Produktmatrix Aϕ,X,X · (Aϕ,X,X )∗ auszuwerten.
Lösungsweg: Wir wählen eine Orthonormalbasis X von V und stel-
len ϕ bezüglich X durch eine Matrix dar, etwa Aϕ,X,X = (αij )i,j=1,...,n .
Dann folgt Aϕ∗ ,X,X = (Aϕ,X,X )∗ = (αij )j,i=1,...,n nach 7.4/4, und es gilt
X
n
Aϕ,X,X ·(Aϕ,X,X )∗ = (αij )i,j=1,...,n ·(αij )j,i=1,...,n = αij ·αkj
i,k=1,...,n.
j=1
gilt. Damit ist der Lösungsweg vorgezeichnet. Wir müssen ein Polynom
p ∈ C⌈⌊T ⌉⌋ finden, derart dass p(λi ) = λi für i = 1, . . . , n gilt.
Lösungsweg: Wie bereits erläutert, ist ϕ normal, wenn ein Po-
lynom p ∈ C⌈⌊T ⌉⌋ mit ϕ∗ = p(ϕ) existiert. Umgekehrt, setzen wir
ϕ als normal voraus, so können wir gemäß 7.4/8 eine Orthonormal-
basis X in V wählen, so dass Aϕ,X,X eine Diagonalmatrix ist, etwa
Aϕ,X,X = Diag(λ1 , . . . , λn ). Benutzen wir dann die bijektive Korre-
spondenz zwischen Endomorphismen und beschreibenden Matrizen aus
3.3/2, so reduziert sich das Problem mit 7.4/7 darauf, ein Polynom
p ∈ C⌈⌊T ⌉⌋ zu finden, welches der Beziehung
Diag p(λ1 ), . . . , p(λn ) = p(Aϕ,X,X ) = Aϕ∗ ,X,X = Diag(λ1 , . . . , λn )
genügt. Nun ist es aber leicht möglich, ein Polynom in C⌈⌊T ⌉⌋ anzuge-
ben, das an paarweise verschiedenen Stellen λ1 , . . . , λr ∈ C (dies seien
die λ1 , . . . , λn ohne mehrfache Aufzählung) vorgeschriebene Werte an-
nimmt, in unserem Falle λ1 , . . . , λr . Es ist nämlich
Y
p i = ci · (T − λj ), ci ∈ C,
j=1,...,r
j6=i
7.5 Aufgabe 2
Start: Gegeben sind zwei Drehmatrizen R(ϑ1 ), R(ϑ2 ) ∈ R2×2 mit
Winkeln 0 ≤ ϑ1 < ϑ2 < 2π.
Ziel : Gezeigt werden soll, dass R(ϑ1 ) und R(ϑ2 ) genau dann ähnlich
sind, wenn ϑ1 + ϑ2 = 2π gilt.
Strategie: In der Aussage von Satz 7.5/8 und dem zugehörigen
Beweis sind wesentliche Elemente enthalten, die für die Lösung des
Problems von Nutzen sind.
Lösungsweg: Gelte zunächst ϑ1 + ϑ2 = 2π. Da der Fall ϑ1 = ϑ2 = π
ausgeschlossen ist, können wir etwa ϑ1 < π und somit π < ϑ2 < 2π
annehmen. Indem wir die durch R(ϑ1 ) definierte R-lineare Abbildung
f: R 2 ✲ 2
R, x ✲ R(ϑ1 ) · x = cos ϑ1 − sin ϑ1 · x,
sin ϑ1 cos ϑ1
7.5 Aufgabe 4
Start: Gegeben ist eine orthogonale Matrix A = (αij ) ∈ O(n),
also eine reelle Matrix A ∈ Rn×n mit At = A−1 . Es besitze A untere
Dreiecksgestalt, d. h. es gelte αij = 0 für i < j.
Ziel : Es ist zu zeigen, dass A sogar eine Diagonalmatrix ist. Au-
ßerdem ist gefragt, ob eine entsprechende Aussage auch für unitäre
Matrizen A ∈ U (n) gültig ist.
Strategie: Der Fall n = 1 ist trivial. Für n = 2 haben wir in 7.5/6
alle Matrizen aus O(2) explizit beschrieben. Insbesondere lesen wir
hieraus ab, dass jede untere Dreiecksmatrix in O(2) bereits eine Dia-
gonalmatrix ist. Sei nun A = (αij ) ∈ O(n) für allgemeines n. Dann gilt
At = A−1 , also A · At = E für die Einheitsmatrix E ∈ Rn , und dies
bedeutet:
α
11
0 0 .. 0 α11 α21 .. .. αn1 1 0 .. 0
α21 α22 0 .. 0 0 α22 .. .. αn2 0 1 .. 0
· =
.. .. .. .. .. .. .. .. .. .. .. .. .. ..
αn1 αn2 αn3 .. αnn 0 0 .. 0 αnn 0 0 .. 1
Multiplizieren wir nun der Reihe nach die Zeilen des ersten Faktors mit
den Spalten des zweiten Faktors, so ergeben sich folgende Relationen:
Wir sehen damit, dass A in der Tat eine Diagonalmatrix ist. Eine
entsprechende Rechnung funktioniert auch im Falle unitärer Matrizen
A ∈ U(n). Es ist dann lediglich At durch die adjungierte Matrix A∗ zu
ersetzen.
Lösungsweg: Ein Großteil der oben angedeuteten Rechnungen kann
vermieden werden, wenn man etwas grundsätzlicher vorgeht. Wir be-
trachten daher V = Rn als euklidischen Vektorraum unter dem kanoni-
schen Skalarprodukt, wobei die kanonische Basis e = (e1 , . . . , en ) eine
Orthonormalbasis bildet. Sei nun A ∈ O(n) eine orthogonale Matrix
mit den Spalten a1 , . . . , an ∈ V , also A = (a1 , . . . , an ). Da A · At die
7.6 Aufgabe 1 479
Der Name Algebra geht auf den persischen Mathematiker und Uni-
versalgelehrten al-Chwarizmi (9. Jahrhundert n. Chr.) zurück, der in
seinem Buch über Rechenverfahren durch Ergänzen und Ausgleichen
Regeln für die Manipulation und Lösung von Gleichungen beschrie-
ben hat. In diesem Zusammenhang führte die Bezeichnung al-gabr für
Ergänzen zum Begriff der Algebra. Betrachtet wurden typischerweise
polynomiale Gleichungen, etwa der Form
5x2 + 9x = 3 oder 3x − 9 = 7,
die eine Beziehung zwischen den bekannten Größen, also den Koeffi-
zienten, und den zu bestimmenden unbekannten Größen oder Varia-
blen, hier x, herstellen. Erstaunlich ist, dass al-Chwarizmi so gut wie
keine mathematische Notation für Probleme dieser Art nutzte. Die
zu untersuchenden Gleichungen wurden oftmals in Textform als geo-
metrische Aufgaben gestellt, bei denen Flächen von Quadraten und
Rechtecken, sowie Längen von Seiten eine Rolle spielen.
Der höchste Exponent, mit dem die unbekannte Größe in einer po-
lynomialen Gleichung obigen Typs vorkommt, wird als Grad der Glei-
chung bezeichnet. Quadratische Gleichungen, also Gleichungen vom
Grad 2, konnten bereits von den Babyloniern gelöst werden (ab ca.
Ende des 3. Jahrtausends v. Chr.). Gleichungen höheren Grades hin-
gegen sind viel schwieriger zu handhaben. Lösungsformeln für die Gra-
de 3 und 4 wurden im 16. Jahrhundert von Scipione del Ferro und
Gerolamo Cardano entwickelt. Eine komplette Analyse insbesondere
für Gleichungen vom Grad > 4 erfolgte hingegen erst im 19. Jahrhun-
dert, und zwar im Rahmen der Galois-Theorie, die auf Évariste Galois
zurückgeht; vgl. die historische Einführung in [1].
#«
0P Vektor von 0 nach P 4
x∈X Element einer Menge 12
∅ leere Menge 12
N natürliche Zahlen 12
Z ganze Zahlen 12
Q rationale Zahlen 12
R reelle Zahlen 12
{x1 , . . . , xn } Menge 12
Y ⊂X Teilmenge einer Menge 13
R>0 positive reelle Zahlen 13
P(X) Potenzmenge einer Menge 13
S
X Vereinigung von Mengen 13
Ti∈I i
i∈I Xi Durchschnitt von Mengen 13
X1 ∪ . . . ∪ Xn endliche Vereinigung von Mengen 13
X1 ∩ . . . ∩ Xn endlicher Durchschnitt von Mengen 14
`
i∈I Xi disjunkte Vereinigung von Mengen 14
X1 − X2 Differenz von Mengen 14
Qn
i=1 Xi endliches kartesisches Produkt von Mengen 14
X1 × . . . × Xn endliches kartesisches Produkt von Mengen 14
Xn n-faches kartesisches Produkt einer Menge 14
(x , . . . , xn ) n-Tupel von Elementen 14
Q1
i∈I Xi kartesisches Produkt von Mengen 14
(xi )i∈I Familie von Elementen 14
XI kartesisches Produkt einer Menge 14
f: X ✲ Y Abbildung zwischen Mengen 15
idX identische Abbildung 15
g◦f Komposition von Abbildungen 15
f (M ) Bild einer Menge 15
f −1 (N ) Urbild einer Menge 15
Q
i∈I Vi kartesisches Produkt von Vektorräumen 38
Abb(X, K) Vektorraum von K-wertigen Funktionen 38
T
i∈I Ui Durchschnitt von Untervektorräumen 39
hAi ⊂ V von Vektoren erzeugter Untervektorraum 39
ha1 , . . . , an i ⊂ V von Vektoren erzeugter Untervektorraum 39
hAi ⊂ V von Vektoren erzeugter Untervektorraum 39
ei ∈ K n i-ter Einheitsvektor 41
δij Kronecker-Symbol 41
P n
i=1 αi ai Linearkombination von Vektoren 42
a1 , . . . , an Basis eines Vektorraums 45
dimK V Dimension eines Vektorraums 52
Pr
Ui Summe von Untervektorräumen 58
Li=1r
i=1 Ui direkte Summe von Untervektorräumen 59
U1 + . . . + Ur Summe von Untervektorräumen 59
U1 ⊕ . . . ⊕ Ur direkte Summe von Untervektorräumen 59
f: V ✲ V′ lineare Abbildung zwischen Vektorräumen 74
ker f Kern einer linearen Abbildung 76
im f Bild einer linearen Abbildung 76
HomK (V, V ′ ) Vektorraum linearer Abbildungen 78
f +g Summe linearer Abbildungen 78
α·f skalares Produkt mit einer linearen Abbildung 78
rg f Rang einer linearen Abbildung 80
A=a+U affiner Unterraum 83
f −1 (a′ ) Faser einer linearen Abbildung 84
R⊂M ×M Relation auf einer Menge 85
a∼b Relation, Äquivalenzrelation 85
⌈⌊a⌉⌋ Äquivalenzklasse eines Elementes 85
M/∼ Menge von Äquivalenzklassen 86
M ✲ M/∼ Abbildung auf Menge von Äquivalenzklassen 86
⌈⌊a⌉⌋ = a + U Nebenklasse modulo eines linearen Unterraums 87
V /U Quotientenvektorraum 87
π: V ✲ V /U Epimorphismus auf Quotientenvektorraum 88
V ∗ Dualraum eines Vektorraums 96
f∗ : V ∗ ✲ U∗ duale Abbildung 97
ϕ1 , . . . , ϕn ∈ V ∗ duale Basis 102
V ∗∗ doppelt dualer Vektorraum 103
coker f Cokern einer linearen Abbildung 106
A = (αij )ij Matrix 114
A+B Summe von Matrizen 115
λA skalares Produkt mit einer Matrix 115
490 Symbolverzeichnis
Vr
f äußeres Produkt einer linearen Abbildung 205
V L V
V = r∈N r V äußere Algebra eines Vektorraums 206
R Ring 212
R⌈⌊T ⌉⌋ Polynomring über einem kommutativen Ring 214
grad f Grad eines Polynoms 216
ϕ : R ✲ R′ Ringhomomorphismus 217
R ✲A R-Algebra 217
Φ: A ✲ B Homomorphismus von R-Algebren 218
S⊂R Unterring 222
a⊂R Ideal eines Rings 222
ker ϕ Kern eines Ringhomomorphismus 222
(a) = Ra von einem Element erzeugtes Hauptideal 223
(1) = R Einheitsideal 223
0⊂R Nullideal 223
a+a Nebenklasse modulo eines Ideals 223
R/a Restklassenring modulo eines Ideals 224
R ✲ R/a kanonische Projektion auf Restklassenring 224
δ : R − {0} ✲ N Gradfunktion auf einem euklidischen Ring 228
a|b a teilt b 229
a∤b a teilt nicht b 229
Q
a = ε p∈P pµp (a) Primfaktorzerlegung 234
ggT(a, b) größter gemeinsamer Teiler 234
kgV(a, b) kleinstes gemeinsames Vielfaches 235
λ∈K Eigenwert 250
Vλ Eigenraum zu einem Eigenwert 253
χA charakteristisches Polynom einer Matrix 257
Spur A Spur einer Matrix 257
K(T ) rationaler Funktionenkörper 258
χf charakteristisches Polynom einer Abbildung 259
Spur f Spur einer linearen Abbildung 259
pf Minimalpolynom einer linearen Abbildung 261
pA Minimalpolynom einer Matrix 261
M Modul 265
N ⊂M Untermodul 266
ϕ: M ✲ N Homomorphismus von Moduln 266
P
Rai ⊂ M von Elementen erzeugter Untermodul 267
Pi∈In
Mi ⊂ M Summe von Untermoduln 267
Li=1n
i=1 Mi direkte Summe von Moduln 267
N1 × . . . × Nn kartesisches Produkt von Moduln 267
M/N Restklassenmodul 268
492 Symbolverzeichnis
Willkommen zu den
Springer Alerts
Unser Neuerscheinungs-Service für Sie:
aktuell | kostenlos | passgenau | flexibel
Mit dem Springer Alert-Service informieren wir Sie
individuell und kostenlos über aktuelle Entwicklungen Jetzt
in Ihren Fachgebieten. anmelden!
Abonnieren Sie unseren Service und erhalten Sie per
E-Mail frühzeitig Meldungen zu neuen Zeitschrifteninhalten,
bevorstehenden Buchveröffentlichungen und
speziellen Angeboten.
Sie können Ihr Springer Alerts-Profil individuell an Ihre
Bedürfnisse anpassen. Wählen Sie aus über 500
Fachgebieten Ihre Interessensgebiete aus.
Bleiben Sie informiert mit den Springer Alerts.