Sie sind auf Seite 1von 509

Siegfried Bosch

Lineare
Algebra
Ein Grundkurs mit Aufgabentrainer
6. Auflage
Lineare Algebra
Siegfried Bosch

Lineare Algebra
Ein Grundkurs mit Aufgabentrainer
6. Auflage
Siegfried Bosch
Mathematisches Institut
Westfälische Wilhelms-Universität
Münster, Deutschland

ISBN 978-3-662-62615-3 ISBN 978-3-662-62616-0 (eBook)


https://doi.org/10.1007/978-3-662-62616-0

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detail-
lierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2001, 2003, 2006, 2008, 2014, 2021
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem
Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung
unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen
Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und
Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.

Planung/Lektorat: Annika Denkert


Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil
von Springer Nature.
Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Vorwort

Die Lineare Algebra gehört neben der Differential- und Integralrech-


nung zu den allgemeinen Grundlagen, die in nahezu allen Teilen der
Mathematik eine tragende Rolle spielen. Demgemäß beginnt das Ma-
thematikstudium an Universitäten mit einer soliden Ausbildung in die-
sen beiden Gebieten, meist in zwei getrennten Vorlesungen. Ein zen-
trales Thema der Linearen Algebra ist das Lösen linearer Gleichungen
bzw. von Systemen solcher Gleichungen. Das sind Beziehungen mittels
rationaler Operationen zwischen bekannten Größen, den sogenannten
Koeffizienten, und den unbekannten Größen, die zu bestimmen sind.
Linear bedeutet dabei, dass die unbekannten Größen separiert und
lediglich in erster Potenz vorkommen. Nach der Entdeckung von Koor-
dinaten im anschaulichen Raum durch Descartes konnten lineare Glei-
chungen auch zur Charakterisierung einfacher geometrischer Objek-
te wie Geraden und Ebenen sowie deren Schnitten genutzt werden.
Damit ergab sich insbesondere die Möglichkeit, Methoden der Linea-
ren Algebra im Rahmen geometrischer Problemstellungen einzusetzen.
Heute bildet die Lineare Algebra ein eigenständiges Gebiet innerhalb
der Algebra, dessen Bedeutung weit über die Möglichkeit geometri-
scher Anwendungen hinausreicht. In der Tat, im Laufe der Zeit ha-
ben sich aus den verschiedensten anwendungsorientierten Methoden
gewisse einheitliche Grundmuster herauskristallisiert, die in der ersten
Hälfte des vergangenen Jahrhunderts zum axiomatischen Aufbau ei-
ner Linearen Algebra modernen Stils genutzt wurden. In Verbindung
mit einer adäquaten Sprache führte dies zu einer Verschlankung und
besseren Handhabbarkeit der Theorie, mit der Folge grundlegender
neuer Erkenntnisse und der Eröffnung zusätzlicher Anwendungsfelder,
die vorher nicht denkbar gewesen waren.
VI Vorwort

Der Text des vorliegenden Buches repräsentiert das Pensum ei-


ner zweisemestrigen Einführungsvorlesung in die Lineare Algebra, eine
Vorlesung, die ich mehrfach an der Universität Münster gehalten habe.
Die meisten Studierenden verfügen bereits über gewisse Vorkenntnisse
zur Linearen Algebra, wenn sie sich für ein Mathematikstudium ent-
scheiden, etwa was die Vektorrechnung oder das Lösen linearer Glei-
chungssysteme angeht. Sie sind dagegen aller Erfahrung nach weniger
mit den allgemeinen Begriffsbildungen der Linearen Algebra vertraut,
die diese Theorie so universell einsatzfähig machen. So ist es nicht ver-
wunderlich, dass diese abstrakte Seite der Linearen Algebra für viele
Studierende neue und ungewohnte Schwierigkeiten aufwirft. Ich habe
mich dafür entschieden, diese Schwierigkeiten nicht zu kaschieren, son-
dern ihre Überwindung gezielt in den Vordergrund zu stellen. Deshalb
wird in diesem Text von Anfang an großer Wert auf eine klare und
systematische, aber dennoch behutsame Entwicklung der in der Linea-
ren Algebra üblichen theoretischen Begriffsbildungen gelegt. Ad-hoc-
Lösungen, die bei späteren Überlegungen oder Verallgemeinerungen
revidiert werden müssten, werden nach Möglichkeit vermieden. Erst
wenn die theoretische Seite eines Themenkomplexes geklärt ist, erfolgt
die Behandlung der zugehörigen Rechenverfahren, unter Ausschöpfung
des vollen Leistungsumfangs.
Nun ist allerdings eine Theorie wie die Lineare Algebra, die sich
in beträchtlichem Maße von ihren ursprünglichen geometrischen und
anderweitigen Wurzeln entfernt hat, nur schwerlich zu verdauen, wenn
nicht gleichzeitig erklärt wird, warum man in dieser oder jener Weise
vorgeht, was die zugehörige Strategie ist, oder an welche Hauptanwen-
dungsfälle man denkt. Um auf solche Fragen einzugehen, wird in einer
Vorlesung neben der rein stofflichen Seite in erheblichem Maße auch
das zugehörige motivierende Umfeld erläutert. In Lehrbüchern ist die-
se Komponente oftmals nur in geringem Maße realisiert, da ansonsten
ein permanenter Wechsel zwischen der logisch-stringenten mathemati-
schen Vorgehensweise und mehr oder weniger heuristisch-anschaulichen
Überlegungen erforderlich wäre, was jedoch für die Einheitlichkeit und
Übersichtlichkeit der Darstellung nicht förderlich ist. Im vorliegenden
Text wird nun jedes Kapitel mit einer Einführung unter dem Titel
Überblick und Hintergrund begonnen, mit dem Ziel, das motivierende
Umfeld des jeweiligen Kapitels zu beleuchten. Ausgehend vom momen-
tanen Kenntnisstand innerhalb des Buches werden die zu behandelnden
Vorwort VII

Hauptfragestellungen erklärt, einschließlich des zugehörigen geometri-


schen Hintergrunds (soweit gegeben). Darüber hinaus werden mögliche
Lösungsansätze und Lösungsstrategien diskutiert, wie auch die Art des
letztendlich ausgewählten Zugangs. Es wird empfohlen, diese Einfüh-
rungen während des Studiums eines Kapitels je nach Bedarf mehrfach
zu konsultieren, um größtmöglichen Nutzen aus ihnen zu ziehen.
Im Zentrum des Buches stehen Vektorräume und ihre linearen
Abbildungen, sowie Matrizen. Behandelt werden insbesondere linea-
re Gleichungssysteme und deren Lösung unter Nutzung des Gaußschen
Eliminationsverfahrens, wie auch Determinanten. Weitere Schwerpunk-
te bilden die Eigen- und Normalformentheorie für lineare Selbstabbil-
dungen von Vektorräumen sowie das Studium von Skalarprodukten
im Rahmen euklidischer und unitärer Vektorräume, einschließlich der
Hauptachsentransformation und des Sylvesterschen Trägheitssatzes.
Ein Abschnitt über äußere Produkte (mit einem Stern * gekennzeich-
net), in dem als Anwendung der allgemeine Laplacesche Entwicklungs-
satz für Determinanten hergeleitet wird, ist optional. Als Besonderheit
wurde die Elementarteilertheorie für Moduln über Hauptidealringen
mit aufgenommen, die eine sehr effektive Handhabung und explizite
Bestimmung von Normalformen quadratischer Matrizen gestattet. Mo-
duln, sozusagen Vektorräume über Ringen als Skalarenbereich, werden
allerdings erst zu Beginn von Abschnitt 6.3 eingeführt. Wer sich hier
auf die elementare Seite der Normalformentheorie beschränken möchte,
kann im Anschluss an die Abschnitte 6.1 (Eigenwerte und Eigenvekto-
ren) und 6.2 (Minimalpolynom und charakteristisches Polynom) auch
gleich zu den euklidischen und unitären Vektorräumen in Kapitel 7
übergehen.
Wie üblich enthält auch dieses Buch zu jeder thematischen Ein-
heit eine Auswahl an speziell abgestimmten Übungsaufgaben, deren
Zweck es ist, die Ausführungen in den einzelnen Abschnitten intensi-
ver zu verarbeiten. Darüber hinaus sollen die Aufgaben Gelegenheit
bieten, die dargebotenen theoretischen Überlegungen, Methoden und
Verfahren bei der Lösung spezieller Probleme anzuwenden. Um die ei-
genständige Bearbeitung der Aufgaben effektiver zu gestalten, wird in
einem zusätzlichen Kapitel 8 ein neuartig entwickelter Aufgabentrai-
ner vorgestellt. Hier geht es zunächst um eine allgemeine Diskussion
gewisser Grundsätze und Strategien zum Lösen von Übungsaufgaben.
Sodann werden für jeden Abschnitt die kompletten Lösungen einiger
VIII Vorwort

ausgewählter Probleme mittels Aufgabentrainer exemplarisch erarbei-


tet. Ich hoffe, dass dieses Konzept, das wesentlich über die Präsenta-
tion sogenannter Musterlösungen hinausgeht, weiterhin auf Interesse
stößt und bei der Bearbeitung von Übungsaufgaben Hilfestellung bie-
ten wird! In Verbindung mit den motivierenden Kapiteleinführungen
und mit einer textlichen Darstellung der Lerninhalte, die keinerlei spe-
zielle Vorkenntnisse erfordert, ist das Buch bestens zur Begleitung jeg-
licher Vorlesung über Lineare Algebra geeignet, darüber hinaus aber
auch zum Selbststudium und zur Prüfungsvorbereitung.
Für die vorliegende Neuauflage wurde der Text nochmals einer kri-
tischen Revision unterzogen. Dies gilt insbesondere im Hinblick auf das
gleichzeitig realisierte handlichere Seitenlayout, welches erhöhte An-
forderungen an den Textfluss und die Präsentation der Formeln stellt.
Oberstes Ziel war es dabei, eine bestmögliche Lesbarkeit und Übersicht
zu erreichen, insbesondere bei den mathematischen Formelausdrücken.
Neu hinzugekommen ist im Anhang ein historischer Abschnitt zur Ge-
schichte der Linearen Algebra sowie, hiermit verbunden, ein Literatur-
verzeichnis.
Schließlich bleibt mir noch die angenehme Aufgabe, allen meinen
Studierenden, Lesern, Mitarbeitern und Kollegen nochmals Dank zu
sagen für die vielen Rückmeldungen, die mich seit Erscheinen meiner
Linearen Algebra erreicht haben. Auch in dieser Neuauflage konnten
wiederum einige davon berücksichtigt werden. Nicht zuletzt gebührt
mein Dank dem Springer-Verlag und seinem Team, welches wie immer
für eine mustergültige Ausstattung und Herstellung des Buches gesorgt
hat.

Münster, im Dezember 2020 Siegfried Bosch


Inhalt

1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . 12
1.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4 Vektorräume und lineare Unterräume . . . . . . . . . . 34
1.5 Linear unabhängige Systeme und Basen . . . . . . . . . 42
1.6 Direkte Summen . . . . . . . . . . . . . . . . . . . . . 58

2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . 65
2.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . 73
2.2 Quotientenvektorräume . . . . . . . . . . . . . . . . . . 83
2.3 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . 96

3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.1 Lineare Abbildungen und Matrizen . . . . . . . . . . . 114
3.2 Gauß-Elimination und der Rang einer Matrix . . . . . 125
3.3 Matrizenringe und invertierbare Matrizen . . . . . . . . 138
3.4 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . 147
3.5 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . 151

4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . 167
4.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . 171
4.2 Determinantenfunktionen . . . . . . . . . . . . . . . . . 178
4.3 Determinanten von Matrizen und Endomorphismen . . 183
4.4 Die Cramersche Regel . . . . . . . . . . . . . . . . . . 194
4.5 Äußere Produkte* . . . . . . . . . . . . . . . . . . . . . 198
X Inhalt

5 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
5.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
5.2 Teilbarkeit in Integritätsringen . . . . . . . . . . . . . . 226
5.3 Nullstellen von Polynomen . . . . . . . . . . . . . . . . 238

6 Normalformentheorie . . . . . . . . . . . . . . . . . . . 243
6.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . 247
6.2 Minimalpolynom und charakteristisches Polynom . . . 255
6.3 Der Elementarteilersatz . . . . . . . . . . . . . . . . . . 265
6.4 Endlich erzeugte Moduln über Hauptidealringen . . . . 282
6.5 Allgemeine und Jordansche Normalform für Matrizen . 289

7 Euklidische und unitäre Vektorräume . . . . . . . . . 311


7.1 Sesquilinearformen . . . . . . . . . . . . . . . . . . . . 315
7.2 Orthogonalität . . . . . . . . . . . . . . . . . . . . . . 322
7.3 Sesquilinearformen und Matrizen . . . . . . . . . . . . 331
7.4 Die adjungierte Abbildung . . . . . . . . . . . . . . . . 338
7.5 Isometrien, orthogonale und unitäre Matrizen . . . . . 345
7.6 Selbstadjungierte Abbildungen . . . . . . . . . . . . . . 357

8 Aufgabentrainer . . . . . . . . . . . . . . . . . . . . . . . 367
8.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . 370
8.2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . 391
8.3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 406
8.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . 428
8.5 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . 440
8.6 Normalformentheorie . . . . . . . . . . . . . . . . . . . 449
8.7 Euklidische und unitäre Vektorräume . . . . . . . . . . 466

Anhang: Historische Anmerkungen . . . . . . . . . . . . . 481

Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485

Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . 487

Namen- und Sachverzeichnis . . . . . . . . . . . . . . . . . 493


1. Vektorräume

Überblick und Hintergrund

Das Studium konkreter geometrischer Probleme in der Ebene oder


im drei-dimensionalen Raum hat oftmals zu richtungsweisenden ma-
thematischen Entwicklungen Anlass gegeben. Zur Behandlung solcher
Probleme bieten sich zunächst geometrische Konstruktionsverfahren
an, beispielsweise mittels Zirkel und Lineal. Eine gänzlich andere Stra-
tegie hingegen besteht darin, die geometrische Situation in ein rech-
nerisches Problem umzusetzen, um dann durch “Ausrechnen” zu einer
Lösung zu gelangen. Dies ist das Vorgehen der analytischen Geometrie,
die 1637 von René Descartes [6] mit seiner berühmten Abhandlung “La
Géométrie” begründet wurde. Noch heute benutzen wir verschiedent-
lich die Bezeichnung kartesisch, etwa im Zusammenhang mit Koordi-
natensystemen, die auf Renatus Cartesius, die lateinische Version von
Descartes’ Namen, hinweist. Ein Großteil der rechnerischen Methoden
der analytischen Geometrie wird heute in erweiterter Form unter dem
Begriff der Linearen Algebra zusammengefasst.
Wir wollen im Folgenden etwas näher auf die grundlegenden Ide-
en des Descartes’schen Ansatzes eingehen. Hierzu betrachten wir eine
Ebene E (etwa in dem uns umgebenden drei-dimensionalen Raum),
zeichnen einen Punkt von E als sogenannten Nullpunkt 0 aus und
wählen dann ein Koordinatensystem mit Koordinatenachsen x und y,
die sich im Nullpunkt 0 schneiden. Identifizieren wir die Achsen x und
y jeweils noch mit der Menge R der reellen Zahlen (was wir weiter
unten noch genauer diskutieren werden), so lassen sich die Punkte P
von E als Paare reeller Zahlen interpretieren:

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0_1
2 1. Vektorräume

y

y1 ❜P = (x1 , y1 )


x1 x
In der Tat, ist P ein Punkt in E, so konstruiere man die Parallele zu y
durch P . Diese schneidet die Achse x in einem Punkt x1 . Entsprechend
schneidet die Parallele zu x durch P die Achse y in einem Punkt y1 ,
so dass man aus P das Koordinatenpaar (x1 , y1 ) erhält. Umgekehrt
lässt sich P aus dem Paar (x1 , y1 ) in einfacher Weise zurückgewin-
nen, und zwar als Schnittpunkt der Parallelen zu y durch x1 und der
Parallelen zu x durch y1 . Genauer stellt man fest, dass die Zuord-
nung P ✲ (x1 , y1 ) eine umkehrbar eindeutige Beziehung zwischen
den Punkten von E und den Paaren reeller Zahlen darstellt und man
deshalb wie behauptet eine Identifizierung
E = R2 = Menge aller Paare reeller Zahlen
vornehmen kann. Natürlich hängt diese Identifizierung von der Wahl
des Nullpunktes 0 sowie der Koordinatenachsen x und y ab. Wir haben
in obiger Abbildung ein rechtwinkliges (kartesisches) Koordinatensys-
tem angedeutet. Im Prinzip brauchen wir jedoch an dieser Stelle noch
nichts über Winkel zu wissen. Es genügt, wenn wir als Koordinaten-
achsen zwei verschiedene Geraden x und y durch den Nullpunkt 0 ver-
wenden, so wie es auch von Descartes vorgeschlagen wurde. Insofern
hat Descartes selbst die nach ihm benannten kartesischen Koordina-
tensysteme noch nicht wirklich genutzt. Im Übrigen werden wir das
Transformationsverhalten der Koordinaten bei Wechsel des Koordina-
tensystems später noch genauer analysieren, und zwar im Rahmen der
Einführung zu Kapitel 2.
Es soll nun auch die Identifizierung der beiden Koordinatenachsen
x und y mit der Menge R der reellen Zahlen noch etwas genauer be-
leuchtet werden. Durch Festlegen des Nullpunktes ist auf x und y je-
weils die Streckungsabbildung mit Zentrum 0 und einer reellen Zahl als
Streckungsfaktor definiert. Wählen wir etwa einen von 0 verschiedenen
Punkt 1x ∈ x aus und bezeichnen mit α · 1x das Bild von 1x unter der
Überblick und Hintergrund 3

Streckung mit Faktor α, so besteht x gerade aus allen Punkten α · 1x ,


wobei α die reellen Zahlen durchläuft. Genauer können wir sagen, dass
die Zuordnung α ✲ α · 1x eine umkehrbar eindeutige Beziehung zwi-
schen den reellen Zahlen und den Punkten von x erklärt. Nach Auswahl
je eines von 0 verschiedenen Punktes 1x ∈ x und entsprechend 1y ∈ y
sind daher x und y auf natürliche Weise mit der Menge R der reellen
Zahlen zu identifizieren, wobei die Punkte 0, 1x ∈ x bzw. 0, 1y ∈ y den
reellen Zahlen 0 und 1 entsprechen. Die Möglichkeit der freien Aus-
wahl der Punkte 1x ∈ x und 1y ∈ y wie auch die Verwendung nicht
notwendig rechtwinkliger Koordinatensysteme machen allerdings auf
ein Problem aufmerksam: Der Abstand von Punkten in E wird un-
ter der Identifizierung E = R2 nicht notwendig dem auf R2 üblichen
euklidischen Abstand entsprechen, der für Punkte P1 = (x1 , y1 ) und
P2 = (x2 , y2 ) durch
p
d(P1 , P2 ) = (x1 − x2 )2 + (y1 − y2 )2

gegeben ist. Eine korrekte Charakterisierung von Abständen auf E


ist jedoch mit Hilfe der später noch zu diskutierenden Skalarprodukte
möglich.
In der Mathematik ist man stets darum bemüht, bei der Analy-
se von Phänomenen und Problemen, für die man sich interessiert, zu
gewissen “einfachen Grundstrukturen” zu gelangen, die für das Bild,
das sich dem Betrachter bietet, verantwortlich sind. Solchermaßen als
wichtig erkannte Grundstrukturen untersucht man dann oftmals los-
gelöst von der eigentlichen Problematik, um herauszufinden, welche
Auswirkungen diese haben; man spricht von einem Modell, das man
untersucht. Modelle haben den Vorteil, dass sie in der Regel leichter
zu überschauen sind, aber manchmal auch den Nachteil, dass sie den
eigentlich zu untersuchenden Sachverhalt möglicherweise nur in Teil-
aspekten beschreiben können.
In unserem Falle liefert der Descartes’sche Ansatz die Erkenntnis,
dass Punkte von Geraden, Ebenen oder des drei-dimensionalen Raums
mittels Koordinaten zu beschreiben sind. Hierauf gestützt können wir,
wie wir gesehen haben, die Menge R2 aller Paare reeller Zahlen als
Modell einer Ebene ansehen. Entsprechend bildet die Menge R3 aller
Tripel reeller Zahlen ein Modell des drei-dimensionalen Raums, sowie
natürlich R = R1 ein Modell einer Geraden. Die Untersuchung solcher
4 1. Vektorräume

Modelle führt uns zum zentralen Thema dieses Kapitels, nämlich zu


den Vektorräumen. Vektorräume beinhalten als fundamentale Struk-
tur zwei Rechenoperationen, zum einen die Multiplikation von Skala-
ren (in unserem Falle reellen Zahlen) mit Vektoren, was man sich als
einen Streckungsprozess vorstellen kann, und zum anderen die Addi-
tion von Vektoren. Wir wollen dies mit den zugehörigen geometrischen
Konsequenzen einmal am Beispiel einer Ebene E und ihrem Modell R2
erläutern.
Wir beginnen mit der skalaren Multiplikation. Für

α ∈ R, P = (x1 , y1 ) ∈ R2

bezeichnet man mit

α · P = α · (x1 , y1 ) := (αx1 , αy1 )

das Produkt von α und P , wobei sich in E folgendes Bild ergibt:

y

αy1 ❜
α·P

y1 ❜
P


x1 αx1 x

Die Multiplikation von Punkten P ∈ E mit einem Skalar α ∈ R ist


folglich zu interpretieren als Streckungsabbildung mit Streckungszen-
trum 0 und Streckungsfaktor α. Besonders instruktiv lässt sich dies
beschreiben, wenn man die Punkte P ∈ E als “Vektoren” im Sinne

gerichteter Strecken 0P auffasst. Vektoren sind somit charakterisiert

durch ihre Länge und ihre Richtung (außer für den Nullvektor 00, der

keine bestimmte Richtung besitzt). Der Vektor α · 0P geht dann aus

0P hervor, indem man ihn mit α streckt, d. h. seine Länge mit α (oder,
besser, mit dem Betrag |α|) multipliziert und ansonsten die Richtung
des Vektors beibehält bzw. invertiert, je nachdem ob α ≥ 0 oder α < 0
gilt:
Überblick und Hintergrund 5

y

αy1 ✲

α · 0P
y1 ✲

0P

x1 αx1 x

Als weitere Rechenoperation betrachten wir die Addition von


Punkten in R2 . Für
P1 = (x1 , y1 ), P2 = (x2 , y2 ) ∈ R2
setzt man
P1 + P2 := (x1 + x2 , y1 + y2 ),
was in E mittels folgender Skizze verdeutlicht werden möge:

y

P1 + P2
y1 +y2 ✥✥❜
✥ ✥✥✥✥ ✑✂
✥ ✑ ✂
P❜✥ 2 ✥✥✥
✥✥✥ ✑ ✂
y2 ✑
✂ ✑ ✂
✂ ✑ ✂

✂ ✑ ✂
✂ ✑ ✂

✂ ✑ ✂
y1 ✂ ✑ ✂
✑ ✥✥ ✥
✥ P1
✂ ✑ ✥✥✥

✂ ✑✑✥✥✥✥✥
✂✥✥✥
✑ ✲
x2 x1 x1 + x2 x

Auch die Beschreibung der Addition in E gestaltet sich instruktiver,


wenn man den Vektorstandpunkt im Sinne gerichteter Strecken zu-
grunde legt. Allerdings sollte man dabei zulassen, dass Vektoren als
gerichtete Strecken parallel zu sich selbst verschoben und somit vom
Koordinatenursprung als ihrem natürlichen Fußpunkt gelöst werden
# « # «
können. Die Summe der Vektoren 0P1 und 0P2 ergibt sich dann als

Vektor 0P , wobei P derjenige Endpunkt ist, den man erhält, indem
# «
man beide Vektoren miteinander kombiniert, also den Vektor 0P1 in 0
# « # «
anlegt und den Vektor 0P2 im Endpunkt P1 von 0P1 , etwa wie folgt:
6 1. Vektorräume

y

y1 +y2
✸ P

✑ ✂✂✍
✑ ✂


# « # « # « ✑ # « ✂✂
0P = 0P1 + 0P2✑✑ 0P2

✑ ✂

✑ ✂

y1 ✑ ✲ ✂P1

✑ # «
✑ 0P1
✑ ✲
x1 x1 + x2 x

Dabei zeigt die obige Parallelogrammkonstruktion, dass sich das Er-


# «
gebnis der Addition nicht ändert, wenn man alternativ den Vektor 0P2
# « # «
in 0 anlegt und anschließend den Vektor 0P1 im Endpunkt von 0P2 .
Die Addition von Vektoren hängt daher nicht von der Reihenfolge der
Summanden ab, sie ist kommutativ.
Es mag etwas verwirrend wirken, wenn wir die Elemente des R2
einerseits als Punkte, sowie andererseits auch als (verschiebbare) Vek-
toren im Sinne gerichteter Strecken interpretieren. Im Prinzip könnte
man eine begriffliche Trennung zwischen Punkten und Vektoren vor-
nehmen, indem man den einem Punkt P ∈ R2 zugeordneten Vektor

0P als Translation Q ✲ P + Q interpretiert, d. h. als Abbildung
von R nach R , die einem Element Q ∈ R2 das Element P + Q als
2 2

Bild zuordnet. Wir wollen von dieser Möglichkeit allerdings keinen Ge-
brauch machen, da eine Trennung der Begriffe für unsere Zwecke keine
Vorteile bringt und die Dinge lediglich komplizieren würde.
Als Nächstes wollen wir besprechen, dass die Addition von Punkten
und Vektoren in R2 bzw. E auf natürliche Weise auch eine Subtraktion
nach sich zieht. Für P0 = (x0 , y0 ) ∈ R2 setzt man

−P0 = −(x0 , y0 ) := (−1) · (x0 , y0 ) = (−x0 , −y0 )

und nennt dies das negative oder inverse Element zu P0 . Dieses ist
in eindeutiger Weise charakterisiert als Element Q ∈ R2 , welches
der Gleichung P0 + Q = 0 genügt. Die Subtraktion zweier Elemen-
te P1 = (x1 , y1 ) und P0 = (x0 , y0 ) in R2 wird dann in naheliegender
Weise auf die Addition zurückgeführt, und zwar durch
Überblick und Hintergrund 7

P1 − P0 := P1 + (−P0 ) = (x1 − x0 , y1 − y0 ).

Legen wir wieder den Vektorstandpunkt in E zugrunde, so entsteht also


# « # «
−0P0 aus dem Vektor 0P0 durch Invertieren seiner Richtung, wobei
# « # «
die Länge erhalten bleibt, mit anderen Worten, es gilt −0P0 = P0 0.
# « # «
Infolgedessen ergibt sich die Differenz zweier Vektoren 0P1 und 0P0 ,
# «
indem man den Vektor 0P1 in 0 anlegt und in dessen Endpunkt den
# «
Vektor P0 0, wie folgt:

y✻

y1
✑✑ ✸✂✍ P1
✑ ✂
✑ ✂
P1 − P0 # « ✑
✲ −0P0 ✑ ✂
✂✍ ✑ ✂

✂ ✑ ✂# « # «
✂# « ✑ ✂ 0P1 − 0P0
# « ✑
✂ 0P1 − 0P0 ✑# « ✂
✂ ✑ 0P1 ✂

✂ ✑ ✂
✂ ✑ ✂

y0 ✂ ✑ ✲✂P
✂ ✑
✑ 0
✂ ✑ # «
✂ ✑✑ 0P0

✂ ✲
x0 x1 x

# «
Insbesondere erkennt man, dass die Summe der Vektoren 0P0 und
# « # « # «
0P1 − 0P0 gerade den Vektor 0P1 ergibt, was eine sinnvoll definierte
Addition bzw. Subtraktion natürlich ohnehin leisten sollte. Allgemei-
ner kann man Summen des Typs
#« # « # « # «
0P = 0P0 + α · (0P1 − 0P0 )

mit unterschiedlichen Skalaren α ∈ R bilden. Der Punkt P liegt dann


für P0 6= P1 stets auf der Geraden G, die durch die Punkte P0 und P1
festgelegt ist, und zwar durchläuft P ganz G, wenn α ganz R durch-
läuft:
8 1. Vektorräume

y G
✻ ✂

y1
✸✂ P1

✑ ✂✂✍
✑ ✂

✑ ✂
# « ✑ ✂ 0P
# « # «
0P✑1 ✑ 1 − 0P0

✑ ✂

✑ ✂

y0 ✑ ✲ ✂P0
✑ ✂
✑ # «

✑ 0P0
✑ ✂ ✲
✂ x0 x1 x

#« ✂
0P ✲✂
✂P

Die Gerade in E bzw. R2 , welche die gegebenen Punkte P0 und P1


enthält, wird daher durch die Gleichung

G = P0 + t · (P1 − P0 ) ; t ∈ R

beschrieben. Sind zwei solche Geraden



G = P0 + t · (P1 − P0 ) ; t ∈ R}, G′ = {P0′ + t · (P1′ − P0′ ) ; t ∈ R

mit P0 6= P1 und P0′ 6= P1′ gegeben, so sind diese genau dann parallel,
wenn P1 − P0 ein skalares Vielfaches von P1′ − P0′ ist, bzw. umgekehrt,
wenn P1′ − P0′ ein skalares Vielfaches von P1 − P0 ist. Ist Letzteres nicht
der Fall, so besitzen G und G′ genau einen Schnittpunkt, wobei eine
Berechnung dieses Schnittpunktes auf die Lösung eines sogenannten
linearen Gleichungssystems führt, welches aus 2 Gleichungen mit 2
Unbekannten, nämlich den Koordinaten des Schnittpunktes von G und
G′ besteht. Die Lösung von Gleichungssystemen dieses Typs wird uns
in allgemeinerem Rahmen noch ausführlich in Kapitel 3 beschäftigen.
Die vorstehenden Überlegungen lassen sich ohne Probleme auf den
drei-dimensionalen Raum und sein Modell R3 verallgemeinern. Bei-
spielsweise ist für zwei verschiedene Punkte P0 , P1 ∈ R3 wiederum

G = P0 + t · (P1 − P0 ) ; t ∈ R
Überblick und Hintergrund 9

die durch P0 und P1 bestimmte Gerade im R3 . Entsprechend kann man


für Punkte P0 , P1 , P2 ∈ R3 mit P1′ := P1 − P0 und P2′ := P2 − P0 das
Gebilde 
E = P0 + s · P1′ + t · P2′ ; s, t ∈ R
betrachten:

✁ E ✁✁

✁ ✲ P2 ✁
✁ ✁

P1
✁ P0 ✁


✁ ✁
✁ ✁

0
Wenn P1′ kein Vielfaches von P2′ und P2′ kein Vielfaches von P1′ ist,
die Vektoren in 0 angetragen also nicht auf einer Geraden durch 0
liegen, so bezeichnet man P1′ und P2′ als linear unabhängig. In diesem
Falle erkennt man E als Ebene, ansonsten als Gerade oder auch nur
als Punkt. Da die Vektoren P1′ und P2′ hier eine entscheidende Rolle
spielen, sollten wir auch das Gebilde

E ′ = s · P1′ + t · P2′ ; s, t ∈ R

betrachten, welches durch Verschieben von E um den Vektor −0P
entsteht:

✁ E ′ ✁✁

✁ ✲ P2′ ✁
✁ ✁


P1′ 0 ✁
✁ ✁
✁ ✁

Im Rahmen der Vektorräume nennt man E ′ den von P1′ und P2′ auf-
gespannten oder erzeugten linearen Unterraum von R3 . Allgemeiner
10 1. Vektorräume

kann man im R3 den von beliebig vielen Vektoren Q1 , . . . , Qr erzeug-


ten linearen Unterraum

U = t1 Q1 + . . . + tr Qr ; t1 , . . . , tr ∈ R

betrachten. Für einen Vektor Q ∈ R3 sagt man, dass Q linear von


Q1 , . . . , Qr abhängt, falls Q ∈ U gilt. Folgende Fälle sind möglich: Für
Q1 = . . . = Qr = 0 besteht U nur aus dem Nullpunkt 0. Ist aber
einer der Vektoren Q1 , . . . , Qr von 0 verschieden, etwa Q1 6= 0, so ent-
hält U zumindest die durch Q1 gegebene Gerade G = {tQ1 ; t ∈ R}.
Gehören auch Q2 , . . . , Qr zu G, d. h. sind Q2 , . . . , Qr linear abhän-
gig von Q1 , so stimmt U mit G überein. Ist Letzteres nicht der Fall
und gilt zum Beispiel Q2 6∈ G, so spannen Q1 und Q2 die Ebene
E = {t1 Q1 + t2 Q2 ; t1 , t2 ∈ R} auf, so dass U zumindest diese Ebene
enthält. Im Falle Q3 , . . . , Qr ∈ E, also wenn Q3 , . . . , Qr linear von
Q1 , Q2 abhängen, stimmt U mit E überein. Ansonsten gibt es einen die-
ser Vektoren, etwa Q3 , der nicht zu E gehört. Die Vektoren Q1 , Q2 , Q3
bilden dann sozusagen ein Koordinatensystem im R3 , und man sieht
dass U mit ganz R3 übereinstimmt, dass also alle Vektoren im R3 line-
ar von Q1 , Q2 , Q3 abhängen. Insbesondere ergibt sich, dass ein linearer
Unterraum im R3 entweder aus dem Nullpunkt, aus einer Geraden
durch 0, aus einer Ebene durch 0 oder aus ganz R3 besteht.
Das soeben beschriebene Konzept der linearen Abhängigkeit von
Vektoren ist ein ganz zentraler Punkt, der in diesem Kapitel ausführ-
lich im Rahmen der Vektorräume behandelt werden wird. Dabei nennt
man ein System von Vektoren Q1 , . . . , Qr linear unabhängig, wenn kei-
ner dieser Vektoren von den restlichen linear abhängt. Die oben durch-
geführte Überlegung zeigt beispielsweise, dass linear unabhängige Sys-
teme im R3 aus höchstens 3 Elementen bestehen. Insbesondere werden
uns linear unabhängige Systeme, so wie wir sie im obigen Beispiel für li-
neare Unterräume des R3 konstruiert haben, gestatten, den Begriff des
Koordinatensystems oder der Dimension im Kontext der Vektorräume
zu präzisieren. Als Verallgemeinerung linear unabhängiger Systeme von
Vektoren werden wir schließlich noch sogenannte direkte Summen von
linearen Unterräumen eines Vektorraums studieren.
Wir haben bisher im Hinblick auf Vektorräume lediglich die Mo-
delle Rn mit n = 1, 2, 3 betrachtet, wobei unser geometrisches Vorstel-
lungsvermögen in erheblichem Maße bei unseren Argumentationen mit
Überblick und Hintergrund 11

eingeflossen ist. Bei der Behandlung der Vektorräume in den nachfol-


genden Abschnitten werden wir jedoch grundsätzlicher vorgehen, in-
dem wir eine Reihe von Verallgemeinerungen zulassen und uns bei der
Entwicklung der Theorie lediglich auf gewisse axiomatische Grundla-
gen stützen. Zunächst beschränken wir uns bei dem zugrunde liegenden
Skalarenbereich nicht auf die reellen Zahlen R, sondern lassen beliebige
Körper zu. Körper sind zu sehen als Zahlsysteme mit gewissen Axio-
men für die Addition und Multiplikation, die im Wesentlichen den Re-
geln für das Rechnen mit den reellen Zahlen entsprechen. So kennt man
neben dem Körper R der reellen Zahlen beispielsweise den Körper Q
der rationalen Zahlen wie auch den Körper C der komplexen Zahlen. Es
gibt aber auch Körper, die nur aus endlich vielen Elementen bestehen.
Die Axiome eines Körpers bauen auf denen einer Gruppe auf, denn
ein Körper bildet mit seiner Addition insbesondere auch eine Gruppe.
So werden wir in diesem Kapitel nach gewissen Vorbereitungen über
Mengen zunächst Gruppen studieren, ausgehend von den zugehörigen
Gruppenaxiomen. Wir beschäftigen uns dann weiter mit Körpern und
deren Rechenregeln und gelangen anschließend zu den Vektorräumen.
Vektorräume sind immer in Verbindung mit einem entsprechenden Ska-
larenbereich zu sehen, dem zugehörigen Körper; man spricht von einem
Vektorraum über einem Körper K oder von einem K-Vektorraum. Ein
K-Vektorraum V ist ausgerüstet mit einer Addition und einer skala-
ren Multiplikation, d. h. für a, b ∈ V und α ∈ K sind die Summe
a + b sowie das skalare Produkt α · a als Elemente von V erklärt.
Addition und skalare Multiplikation genügen dabei den sogenannten
Vektorraumaxiomen, welche bezüglich der Addition insbesondere die
Gruppenaxiome enthalten. Prototyp eines K-Vektorraums ist für eine
gegebene natürliche Zahl n die Menge

K n = (a1 , . . . , an ) ; a1 , . . . , an ∈ K

aller n-Tupel mit Komponenten aus K, wobei Addition und skalare


Multiplikation durch

(a1 , . . . , an ) + (b1 , . . . , bn ) := (a1 + b1 , . . . , an + bn ),


α · (a1 , . . . , an ) := (αa1 , . . . , αan )

gegeben sind.
12 1. Vektorräume

Insbesondere wird mit dieser Definition die oben angesprochene


Reihe von Modellen Rn für n = 1, 2, 3 auf beliebige Dimensionen n
verallgemeinert. Dies hat durchaus einen realen Hintergrund, denn um
beispielsweise ein Teilchen im drei-dimensionalen Raum in zeitlicher
Abhängigkeit zu beschreiben, benötigt man neben den 3 räumlichen
Koordinaten noch eine zusätzliche zeitliche Koordinate, so dass man
sich im Grunde genommen im Vektorraum R4 bewegt. In analoger
Weise lassen sich Paare von Punkten im drei-dimensionalen Raum als
Punkte des R6 charakterisieren.

1.1 Mengen und Abbildungen

Normalerweise müsste man hier mit einer streng axiomatischen Be-


gründung der Mengenlehre beginnen. Da dies jedoch einen unverhält-
nismäßig großen Aufwand erfordern würde, wollen wir uns an dieser
Stelle mit einem naiven Standpunkt begnügen und unter einer Menge
lediglich eine Zusammenfassung gewisser Objekte verstehen, der soge-
nannten Elemente dieser Menge. Eine Menge X ist somit in eindeuti-
ger Weise durch ihre Elemente festgelegt, wobei wir x ∈ X schreiben,
wenn x ein Element von X ist, bzw. x 6∈ X, wenn dies nicht der Fall
ist. Insbesondere werden wir folgende Mengen in natürlicher Weise als
gegeben annehmen:

∅ = leere Menge,
N = {0, 1, 2, . . .} natürliche Zahlen,
Z = {0, ±1, ±2, . . .} ganze Zahlen,
Q = {p/q ; p, q ∈ Z, q 6= 0} rationale Zahlen,
R = reelle Zahlen.

Es sei angemerkt, dass bei einer Menge, sofern wir sie in aufzählen-
der Weise angeben, etwa X = {x1 , . . . , xn }, die Elemente x1 , . . . , xn
nicht notwendig paarweise verschieden sein müssen. Diese Konvention
gilt auch für unendliche Mengen; man vergleiche hierzu etwa die obige
Beschreibung von Q.
Um Widersprüche zu vermeiden, sind die Mengenaxiome so ausge-
legt, dass die Bildung von Mengen gewissen Restriktionen unterworfen
1.1 Mengen und Abbildungen 13

ist. Beispielsweise darf eine Menge niemals sich selbst als Element ent-
halten, so dass insbesondere die Gesamtheit aller Mengen nicht als
Menge angesehen werden kann, da sie sich selbst als Element enthal-
ten würde. Einen Hinweis auf die hiermit verbundene Problematik lie-
fert das folgende Paradoxon von Russel: Wir nehmen einmal in naiver
Weise an, dass man die Gesamtheit aller Mengen, die sich nicht selbst
enthalten, also
X = {Mengen A mit A 6∈ A},
als Menge betrachten kann. Fragt man sich dann, ob X ∈ X oder
X 6∈ X gilt, so erhält man im Falle X ∈ X nach Definition von X
sofort X 6∈ X und im Falle X 6∈ X entsprechend X ∈ X. Es ergibt
sich also X ∈ X und X 6∈ X zugleich, was keinen Sinn macht.
Wichtig für die Handhabung von Mengen sind die erlaubten Pro-
zesse der Mengenbildung, auf die wir nachfolgend eingehen.
(1) Teilmengen. – Es sei X eine Menge und P (x) eine Aussage,
deren Gültigkeit (wahr oder falsch) man für Elemente x ∈ X testen
kann. Dann nennt man Y = {x ∈ X ; P (x) ist wahr} eine Teilmenge
von X und schreibt Y ⊂ X. Dabei ist auch Y = X zugelassen. Gilt
allerdings Y 6= X, so nennt man Y eine echte Teilmenge von X. Bei-
spielsweise ist R>0 := {x ∈ R ; x > 0} eine (echte) Teilmenge von R.
Für eine gegebene Menge X bilden die Teilmengen von X wiederum
eine Menge, die sogenannte Potenzmenge P(X).
(2) Vereinigung und Durchschnitt. – Es sei X eine Menge und I
eine Indexmenge, d. h. eine Menge, deren Elemente wir als Indizes
verwenden wollen. Ist dann für jedes i ∈ I eine Teilmenge Xi ⊂ X
gegeben, so nennt man
[
Xi := {x ∈ X ; es existiert ein i ∈ I mit x ∈ Xi }
i∈I

die Vereinigung der Mengen Xi , i ∈ I, sowie


\
Xi := {x ∈ X ; x ∈ Xi für alle i ∈ I}
i∈I

den Durchschnitt dieser Mengen, wobei wir in beiden Fällen wiederum


eine Teilmenge von X erhalten. Im Falle einer endlichenSIndexmenge
I = {1, . . . , n} schreibt man auch X1 ∪ . . . ∪ Xn statt i∈I Xi sowie
14 1. Vektorräume

T
X1 ∩ . . . ∩ Xn statt i∈I Xi . Die Vereinigung von zwei Teilmengen
X ′ , X ′′ ⊂ X lässt sich insbesondere in der Form

X ′ ∪ X ′′ = {x ∈ X ; x ∈ X ′ oder x ∈ X ′′ }

beschreiben, indem man ein mathematisches oder verwendet, das nicht


ausschließend ist, also auch den Fall erlaubt, dass sowohl x ∈ X ′ als
auch x ∈ X ′′ und damit x ∈ X ′ ∩ X ′′ gilt. Weiter werden die Teilmen-
gen X ′ , X ′′ ⊂ X als disjunkt bezeichnet, wenn ihr Durchschnitt leer
ist, also X ′ ∩X ′′ = ∅ gilt. Als Variante zur Vereinigung
` von Mengen Xi ,
i ∈ I, kann man deren disjunkte Vereinigung i∈I Xi bilden. Hierun-
ter versteht man die Gesamtheit aller Elemente, die in irgendeiner der
Mengen Xi enthalten sind, wobei man allerdings für verschiedene In-
dizes i, j ∈ I die Elemente von Xi als verschieden von allen Elementen
aus Xj ansieht.
(3) Differenz von Mengen. – Sind X1 , X2 Teilmengen einer Menge
X, so heißt
X1 − X2 := {x ∈ X1 ; x 6∈ X2 }
die Differenz von X1 und X2 . Auch dies ist wieder eine Teilmenge von
X, sogar von X1 .
(4) Kartesisches Produkt von Mengen. – Es seien X1 , . . . , Xn Men-
gen. Dann heißt
n
Y 
Xi := (x1 , . . . , xn ) ; x1 ∈ X1 , . . . , xn ∈ Xn
i=1

das kartesische Produkt der Mengen X1 , . . . , Xn , wobei man für dieses


Produkt auch die Notation X1 × . . . × Xn verwendet bzw. X n , falls
X1 = . . . = Xn = X gilt. Die Elemente (x1 , . . . , xn ) werden als n-Tupel
mit Komponenten xi ∈ Xi , i = 1, . . . , n, bezeichnet. Es gilt genau
dann (x1 , . . . , xn ) = (x′1 , . . . , x′n ) für zwei n-Tupel, wenn man xi = x′i
für i = 1, . . . , n hat. In ähnlicher
Q Weise lässt sich für eine Indexmenge
I das kartesische Produkt i∈I Xi von gegebenen Mengen Xi , i ∈ I,
bilden. Man schreibt die Elemente eines solchen Produktes als Familien
(xi )i∈I von Elementen xi ∈ Xi und meint damit Tupel, deren Einträge
mittels I indiziert werden. Sind die Q Xi Exemplare ein und derselben
Menge X, so verwendet man statt i∈I Xi auch die Notation X I . Eine
1.1 Mengen und Abbildungen 15

Familie (xi )i∈∅ , welche durch die leere Indexmenge I = ∅ indiziert ist,
Q als leer bezeichnet. Demgemäß bestehen die kartesischen Produk-
wird
te i∈I Xi und X I im Falle I = ∅ aus genau einem Element, nämlich
der leeren Familie.
Als Nächstes kommen wir auf den Begriff der Abbildung zwischen
Mengen zu sprechen.

Definition 1. Eine Abbildung f : X ✲ Y zwischen zwei Mengen


X und Y ist eine Vorschrift, welche jedem x ∈ X ein wohlbestimmtes
Element y ∈ Y zuordnet, das dann mit f (x) bezeichnet wird ; man
schreibt hierbei auch x ✲ f (x). Dabei heißt X der Definitionsbereich
und Y der Bild- oder Wertebereich der Abbildung f .

Zu einer Menge X gibt es stets die sogenannte identische Abbildung


idX : X ✲ X, x ✲ x. Im Übrigen kann man beispielsweise ein
kartesisches Produkt des Typs X I auch als Menge aller Abbildungen
I ✲ X interpretieren.
Im Folgenden sei f : X ✲ Y wieder eine Abbildung zwischen
zwei Mengen. Ist g : Y ✲ Z eine weitere Abbildung, so kann man f
mit g komponieren; man erhält als Resultat die Abbildung

g◦f: X ✲ Z, x ✲ g f (x) .

Für Teilmengen M ⊂ X und N ⊂ Y bezeichnet man



f (M ) := y ∈ Y ; es existiert ein x ∈ M mit y = f (x)

als das Bild von M unter f sowie



f −1 (N ) := x ∈ X ; f (x) ∈ N

als das Urbild von N unter f ; es handelt sich hierbei um Teilmengen


von Y bzw. X. Besteht N aus nur einem einzigen Element y, also
N = {y}, so schreibt man f −1 (y) anstelle von f −1 ({y}). Weiter nennt
man f injektiv, wenn aus x, x′ ∈ X mit f (x) = f (x′ ) stets x = x′ folgt,
und surjektiv, wenn es zu jedem y ∈ Y ein x ∈ X mit f (x) = y gibt.
Schließlich heißt f bijektiv, wenn f injektiv und surjektiv zugleich ist.
Man kann sagen, dass f genau dann injektiv ist, wenn das Urbild
f −1 (y) eines jeden Punktes y ∈ Y entweder leer ist oder aus genau
16 1. Vektorräume

einem Punkt x ∈ X besteht. Weiter ist f genau dann surjektiv, wenn


für jedes y ∈ Y das Urbild f −1 (y) nicht leer ist. Somit ist f genau
dann bijektiv, wenn für jedes Element y ∈ Y das Urbild f −1 (y) aus
genau einem Punkt x besteht. Man kann dann zu f die sogenannte
Umkehrabbildung g : Y ✲ X betrachten. Sie ordnet einem Punkt
y ∈ Y das eindeutig bestimmte Element x ∈ f −1 (y) zu, und es gilt
g ◦ f = idX sowie f ◦ g = idY . Zu einer Abbildung f : X ✲Y
bezeichnet man die Umkehrabbildung, sofern diese existiert, meist mit
f −1 : Y ✲ X.

Aufgaben

1. Es seien A, B, C Teilmengen einer Menge X. Man zeige (AT 370):


(i) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(ii) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
(iii) A − (B ∪ C) = (A − B) ∩ (A − C)
(iv) A − (B ∩ C) = (A − B) ∪ (A − C)
2. Es sei f : X ✲ Y eine Abbildung zwischen Mengen. Man zeige für
Teilmengen M1 , M2 ⊂ X und N1 , N2 ⊂ Y :
(i) f (M1 ∪ M2 ) = f (M1 ) ∪ f (M2 )
(ii) f (M1 ∩ M2 ) ⊂ f (M1 ) ∩ f (M2 )
(iii) f −1 (N1 ∪ N2 ) = f −1 (N1 ) ∪ f −1 (N2 )
(iv) f −1 (N1 ∩ N2 ) = f −1 (N1 ) ∩ f −1 (N2 )
Gilt in (ii) sogar Gleichheit?
f g
3. Es seien X ✲ Y ✲ X Abbildungen von Mengen mit g ◦ f = id.
Man zeige, dass f injektiv und g surjektiv ist.
4. (i) Gibt es eine bijektive Abbildung N ✲ Z?
(ii) Gibt es für n ∈ N eine bijektive Abbildung N ✲ N × {1, . . . , n}?
(iii) Gibt es eine bijektive Abbildung N ✲ N × N?
(iv) Gibt es eine bijektive Abbildung N ✲ Q?

5. Es sei X eine Menge und f : X ✲ P(X) eine Abbildung von X in die


zugehörige Potenzmenge. Man zeige, dass f nicht surjektiv sein kann.
(AT 371)
1.2 Gruppen 17

1.2 Gruppen

Unter einer inneren Verknüpfung auf einer Menge M versteht man


eine Abbildung f : M × M ✲ M . Sie ordnet jedem Paar (a, b) von
Elementen aus M ein Element f (a, b) ∈ M zu. Um den Charakter einer
Verknüpfung auch in der Notation zum Ausdruck kommen zu lassen,
werden wir anstelle von f (a, b) meist a · b schreiben. Bei kommutativen
Verknüpfungen, also solchen, die f (a, b) = f (b, a) für alle a, b ∈ M
erfüllen, verwenden wir auch die additive Schreibweise a + b.

Definition 1. Eine Menge G zusammen mit einer inneren Verknüp-


fung G × G ✲ G, (a, b) ✲ a · b, heißt eine Gruppe, wenn die
folgenden Eigenschaften erfüllt sind :
(i) Die Verknüpfung ist assoziativ, d. h. es gilt (a · b) · c = a · (b · c)
für alle a, b, c ∈ G.
(ii) Es existiert ein neutrales Element e in G, d. h. ein Element
e ∈ G mit e · a = a · e = a für alle a ∈ G.1
(iii) Zu jedem a ∈ G gibt es ein inverses Element, d. h. ein Element
b ∈ G mit a · b = b · a = e. Dabei ist e das in (ii) geforderte neutrale
Element von G.
Die Gruppe heißt kommutativ oder abelsch, falls die Verknüpfung
kommutativ ist, d. h. falls zusätzlich gilt:
(iv) a · b = b · a für alle a, b ∈ G.

In der obigen Situation sagt man gewöhnlich einfach, G sei eine


Gruppe, ohne die Verknüpfung “·” explizit zu erwähnen. Beispiele für
Gruppen sind:
(1) Z mit der Addition “+”
(2) Q mit der Addition “+” und Q∗ := Q − {0} mit der Multipli-
kation “·”
(3) R mit der Addition “+” und R∗ := R − {0} mit der Multipli-
kation “·”
(4) Für eine Menge X ist die Menge Bij(X, X) der bijektiven
Selbstabbildungen X ✲ X eine Gruppe unter der Komposition von

1
Das neutrale Element e ist, wie wir sogleich sehen werden, durch seine defi-
nierende Eigenschaft eindeutig bestimmt.
18 1. Vektorräume

Abbildungen als Verknüpfung. Man prüft leicht nach, dass diese Grup-
pe nicht kommutativ ist, sofern X mindestens 3 verschiedene Elemente
enthält.
Wie bereits behauptet, ist in einer Gruppe G das neutrale Element
e eindeutig bestimmt. Ist nämlich e′ ∈ G ein weiteres neutrales Ele-
ment, so folgt e = e′ · e = e′ . Auf ähnliche Weise zeigt man, dass das
zu einem Element a ∈ G gehörige inverse Element b ∈ G eindeutig
bestimmt ist. Hat man nämlich ein weiteres inverses Element b′ ∈ G
zu a, so folgt

b = e · b = (b′ · a) · b = b′ · (a · b) = b′ · e = b′ .

Die gerade durchgeführten Schlüsse benötigen (neben den Eigenschaf-


ten von e und b) lediglich, dass e′ links-neutral ist, d. h. die Eigen-
schaft e′ · a = a für alle a ∈ G besitzt, sowie dass b′ links-invers zu a
ist, d. h. die Gleichung b′ · a = e erfüllt. Entsprechend kann man für
rechts-neutrale bzw. rechts-inverse Elemente schließen. In einer Grup-
pe stimmt daher jedes links- (bzw. rechts-) neutrale Element mit dem
eindeutigen neutralen Element e ∈ G überein, ist also insbesondere
auch rechts- (bzw. links-) neutral. In ähnlicher Weise sieht man, dass
links-inverse Elemente auch rechts-invers bzw. rechts-inverse Elemente
auch links-invers sind. Wir können sogar noch einen Schritt weiterge-
hen und die definierenden Bedingungen einer Gruppe in diesem Sinne
abschwächen:

Bemerkung 2. Es genügt, in Definition 1 anstelle von (ii) und (iii)


lediglich die Existenz eines Elementes e ∈ G mit folgenden Eigenschaf-
ten zu fordern:
(ii′ ) e ist links-neutral in G, d. h. es gilt e · a = a für alle a ∈ G.
(iii′ ) Zu jedem a ∈ G existiert ein bezüglich e links-inverses Element
in G, d. h. ein Element b ∈ G mit b · a = e.

Beweis. Es sei G eine Menge mit einer multiplikativ geschriebenen


Verknüpfung und einem Element e ∈ G, so dass die Bedingungen (i),
(ii′ ) und (iii′ ) erfüllt sind. Um zu sehen, dass G eine Gruppe ist, haben
wir zu zeigen, dass die Bedingungen (ii) und (iii) von Definition 1
gelten. Wir zeigen zunächst für Elemente a ∈ G, dass jedes Element
b ∈ G, welches links-invers zu a bezüglich e ist, auch rechts-invers zu a
1.2 Gruppen 19

bezüglich e ist. Gelte also b · a = e, und sei c ein links-inverses Element


zu b, so dass also c · b = e gilt. Hieraus folgt
 
a · b = (e · a) · b = (c · b) · a · b = c · (b · a) · b
= (c · e) · b = c · (e · b) = c · b = e,

so dass b rechts-invers zu a bezüglich e ist. Es bleibt noch zu zeigen, dass


das links-neutrale Element e auch rechts-neutral ist. Sei also a ∈ G.
Ist dann b ∈ G links-invers zu a bezüglich e, so ist b, wie wir gesehen
haben, auch rechts-invers zu a bezüglich e, und es folgt
a · e = a · (b · a) = (a · b) · a = e · a = a,

also ist e rechts-neutral. 

Gewöhnlich wird das neutrale Element e einer Gruppe G bei mul-


tiplikativer Schreibweise der Verknüpfung als Einselement bezeichnet,
und man schreibt 1 anstelle von e. Für das inverse Element zu a ∈ G
benutzt man die Schreibweise a−1 . Im Übrigen ist es bei multiplika-
tiv geschriebenen Gruppenverknüpfungen üblich, das Verknüpfungszei-
chen “·” zu unterdrücken, sofern dies nicht zu Verwechslungen führt.
Für endlich viele Elemente a1 , . . . , an ∈ G definiert man das Produkt
dieser Elemente durch
n
Y
ai := a1 · . . . · an .
i=1

Eine spezielle Klammerung ist hierbei aufgrund des Assoziativgesetzes


nicht notwendig; auf einen detaillierten Beweis dieser “offensichtlichen”
Tatsache verzichten wir jedoch an dieser Stelle. Wir werden im Folgen-
den endliche Folgen a1 , . . . , an ∈ G meist für Indizes n ∈ N betrachten,
so dass hier insbesondere auch der Fall n = 0 zugelassen ist. Es han-
delt sich dann um die leere Folge, und man erklärt das zugehörige leere
Produkt durch
Y0
ai := 1.
i=1
Wie schon gesagt verwendet man bei kommutativen Verknüpfun-
gen meist die additive Schreibweise. Das neutrale Element einer kom-
mutativen Gruppe wird dann als Nullelement 0 geschrieben und das
20 1. Vektorräume

Inverse zu einem Element a ∈ G als −a. Statt a + (−a′ ) verwendet


man üblicherweise die Notation a − a′ . Endliche Summen
P von Elemen-
. , n, schreibt man in der Form ni=1 ai , wobei die
ten ai ∈ G, i = 1, . . P
leere Summe durch 0i=1 ai := 0 definiert ist.

Definition 3. Es sei G eine Gruppe. Eine Teilmenge H ⊂ G heißt


Untergruppe von G, wenn gilt:2
(i) a, b ∈ H =⇒ ab ∈ H,
(ii) 1 ∈ H,
(iii) a ∈ H =⇒ a−1 ∈ H.

Ist nun H ⊂ G eine Untergruppe, so beschränkt sich die Gruppen-


verknüpfung G × G ✲ G zu einer Verknüpfung H × H ✲ H, und
H ist mit dieser Verknüpfung selbst wieder eine Gruppe. Umgekehrt,
ist Letzteres der Fall, so kann man leicht zeigen, dass H eine Unter-
gruppe von G ist. Im Übrigen sieht man sofort ein, dass eine nicht-leere
Teilmenge H ⊂ G bereits dann eine Untergruppe von G ist, wenn die
Bedingung a, b ∈ H =⇒ ab−1 ∈ H erfüllt ist. Eine Gruppe G enthält
stets die trivialen Untergruppen {1} und G.
Als Nächstes wollen wir einige elementare Rechenregeln für das
Rechnen in Gruppen behandeln. Für Elemente a, b, c ∈ G gilt:
ab = ac =⇒ b = c
(1) (Kürzungsregeln)
ac = bc =⇒ a = b
(2) (a−1 )−1 = a
(3) (ab)−1 = b−1 a−1
Zum Nachweis von (1) multipliziere man von links mit a−1 bzw. von
rechts mit c−1 . Im Falle (2) schließe man wie folgt. (a−1 )−1 ist, wie wir
gesehen haben, dasjenige eindeutig bestimmte Element in G, welches
(von links oder rechts) mit a−1 multipliziert 1 ergibt. Wegen a−1 a = 1
ergibt sich (a−1 )−1 = a. Entsprechend erhält man (ab)−1 = b−1 a−1 , da
(b−1 a−1 )(ab) = b−1 (a−1 a)b = b−1 b = 1 gilt.
Abschließend wollen wir noch eine spezielle Charakterisierung von
Gruppen geben.
2
Nachfolgend steht =⇒ für die sogenannte Implikation. Für Aussagen A und B
schreibt man A =⇒ B oder B ⇐= A, wenn B aus A folgt. Entsprechend bedeutet
A ⇐⇒ B, dass A und B äquivalent sind.
1.2 Gruppen 21

Satz 4. Eine nicht-leere Menge G bildet zusammen mit einer Ver-


knüpfung (a, b) ✲ a · b genau dann eine Gruppe, wenn gilt:
(i) Die Verknüpfung ist assoziativ.
(ii) Zu a, b ∈ G gibt es stets Elemente x, y ∈ G mit x · a = b und
a · y = b.
Sind diese Bedingungen erfüllt, so sind die Elemente x, y in (ii)
eindeutig durch a, b bestimmt.

Beweis. Ist G eine Gruppe, so multipliziere man die Gleichungen in (ii)


von rechts bzw. links mit a−1 . Es folgt, dass x = ba−1 bzw. y = a−1 b
die eindeutig bestimmten Lösungen sind. Seien nun umgekehrt die Be-
dingungen des Satzes erfüllt, und sei a ∈ G. Dann existiert nach (ii)
ein Element e ∈ G mit ea = a. Zu b ∈ G existiert weiter ein y ∈ G mit
ay = b, und es folgt
eb = eay = ay = b,
also ist e links-neutral. Weiter folgt die Existenz links-inverser Elemen-
te nach (ii). Somit ist G eine Gruppe nach Bemerkung 2. 

Aufgaben
1. Für eine Menge X betrachte man die Menge Bij(X, X) der bijektiven
Selbstabbildungen. Man prüfe nach, dass Bij(X, X) unter der Kompo-
sition von Abbildungen eine Gruppe bildet und zeige, dass diese nicht
kommutativ ist, sofern X mindestens 3 verschiedene Elemente besitzt.
2. Es sei G eine Gruppe und H ⊂ G eine Teilmenge. Man zeige, dass H
genau dann eine Untergruppe von G ist, wenn die Gruppenverknüpfung
von G eine Verknüpfung auf H induziert (d. h. wenn für a, b ∈ H stets
ab ∈ H gilt) und wenn H mit dieser Verknüpfung selbst wieder eine
Gruppe ist.
3. Es sei G eine Gruppe und H ⊂ G eine Teilmenge. Man zeige, dass H
genau dann eine Untergruppe von G ist, wenn gilt:
(i) H 6= ∅
(ii) a, b ∈ H =⇒ ab−1 ∈ H
4. Es sei G eine Gruppe mit Untergruppen H1 , H2 ⊂ G. Man zeige, dass
H1 ∪ H2 genau dann eine Untergruppe von G ist, wenn H1 ⊂ H2 oder
H2 ⊂ H1 gilt. (AT 372)
22 1. Vektorräume

5. Für eine Gruppe G betrachte man die durch g ✲ g −1 gegebene Ab-


bildung i : G ✲ G und zeige:
(i) i ist bijektiv.
(ii) Ist A ⊂ G eine Teilmenge mit i(A) ⊂ A, so gilt bereits i(A) = A;
man nennt A dann symmetrisch.
(iii) Für jede Teilmenge A ⊂ G sind A∪i(A) und A∩i(A) symmetrisch.
6. Es sei G eine Gruppe mit a2 = 1 für alle a ∈ G. Man zeige, dass G
abelsch ist.
Q 2 = 1.
7. Es sei G eine endliche abelsche Gruppe. Dann gilt g∈G g
(AT 373)
8. Für ein n ∈ N − {0} betrachte man die Teilmenge Rn = {0, 1, . . . , n − 1}
von N. Es sei π : Z ✲ Rn die Abbildung, welche einer ganzen Zahl
aus Z jeweils deren nicht-negativen Rest bei Division durch n zuordnet.
Man zeige:
(i) Es existiert eine eindeutig bestimmte Verknüpfung (a, b) ✲ a+b
auf Rn , so dass für x, y ∈ Z stets π(x + y) = π(x) + π(y) gilt.
(ii) Rn ist mit dieser Verknüpfung eine abelsche Gruppe.
9. Es sei G eine Gruppe. Auf der Potenzmenge P(G) betrachte man die
durch
(A, B) ✲ A · B = {a · b ∈ G ; a ∈ A, b ∈ B}
gegebene Verknüpfung. Man zeige, dass diese Verknüpfung assoziativ
ist und ein neutrales Element besitzt. Ist P(G) mit dieser Verknüpfung
sogar eine Gruppe? Falls nein, zu welchen Elementen A ∈ P(G) gibt es
inverse Elemente?

1.3 Körper

Ein Körper ist eine additiv geschriebene abelsche Gruppe, auf der zu-
sätzlich eine Multiplikation mit gewissen Eigenschaften definiert ist,
nach dem Vorbild der rationalen oder der reellen Zahlen. Genauer:

Definition 1. Ein Körper ist eine Menge K mit zwei inneren Ver-
knüpfungen, geschrieben als Addition “+” und Multiplikation “·”, so
dass folgende Bedingungen erfüllt sind :
1.3 Körper 23

(i) (a + b) + c = a + (b + c) für a, b, c ∈ K. (Assoziativgesetz der


Addition)
(ii) Es existiert ein Element 0 in K mit 0 + a = a für alle a ∈ K.
(Neutrales Element der Addition)
(iii) Zu a ∈ K existiert ein Element b ∈ K mit b + a = 0, wobei 0
wie in (ii) gewählt ist. (Inverses Element der Addition)
(iv) a + b = b + a für a, b ∈ K. (Kommutativgesetz der Addition)
(v) (a · b) · c = a · (b · c) für a, b, c ∈ K. (Assoziativgesetz der
Multiplikation)
(vi) Es existiert ein Element 1 ∈ K mit 1 · a = a für alle a ∈ K.
(Neutrales Element der Multiplikation)
(vii) Zu a ∈ K − {0} existiert ein Element b ∈ K mit b · a = 1, wobei
1 wie in (vi) gewählt ist. (Inverses Element der Multiplikation)
(viii) a·b = b·a für a, b ∈ K. (Kommutativgesetz der Multiplikation)
(ix) a · (b + c) = a · b + a · c und (a + b) · c = a · c + b · c für a, b, c ∈ K.
(Distributivgesetze)
(x) 1 6= 0.

Bei den Distributivgesetzen (ix) hätten wir eigentlich auf der rech-
ten Seite die Terme a · b, a · c, b · c jeweils in Klammern setzen müssen.
Man vereinbart jedoch, dass die Multiplikation “·” Vorrang vor der
Addition “+” hat, so dass Klammerungen dann entbehrlich sind. Auch
sei darauf hingewiesen, dass das Multiplikationszeichen “·”, ähnlich wie
im Falle von Gruppen, vielfach nicht ausgeschrieben wird. Die Elemen-
te 0, 1 ∈ K sind eindeutig bestimmt, man nennt 0 das Nullelement und
1 das Einselement von K.
Als Nächstes wollen wir einige simple Rechenregeln für das Rech-
nen in Körpern K behandeln.
(1) 0a = a0 = 0 für a ∈ K, denn es gilt

0 = 0a − 0a = (0 + 0)a − 0a = 0a + 0a − 0a = 0a.

(2) (−1)a = −a für a ∈ K, denn

a + (−1)a = 1a + (−1)a = (1 − 1)a = 0a = 0.

(3) (−a)b = a(−b) = −ab , (−a)(−b) = ab für a, b ∈ K; dies ergibt


sich unter Benutzung von (2).
24 1. Vektorräume

(4) Für a, b ∈ K folgt aus ab = 0 bereits a = 0 oder b = 0. Denn


aus ab = 0 mit a 6= 0 6= b würde sich sonst als Widerspruch

1 = abb−1 a−1 = 0b−1 a−1 = 0

ergeben.
Man kann also in Körpern in etwa so rechnen, wie man dies von
den rationalen oder reellen Zahlen her gewohnt ist. Doch sei schon
an dieser Stelle auf Unterschiede zum Vorbild vertrauter Zahlbereiche
hingewiesen. Für eine natürliche Zahl n ∈ N und ein Element a ∈ K
ist es üblich, die n-fache Summe von a mit sich selbst als n · a zu
bezeichnen, wobei dann insbesondere n · a = 0 für n = 0 oder a = 0
gilt. Weiter setzt man n · a = (−n) · (−a) für negative ganze Zahlen n.
Es folgt jedoch aus n · a = 0 nicht notwendig n = 0 oder a = 0, wie
wir an konkreten Beispielen noch feststellen werden.
Unter Verwendung des Gruppenbegriffs lassen sich Körper in über-
sichtlicher Weise wie folgt charakterisieren:

Bemerkung 2. Die Bedingungen (i) - (x) in Definition 1 sind äqui-


valent zu den folgenden Bedingungen:
(i) K ist eine abelsche Gruppe bezüglich der Addition.
(ii) K ∗ = K − {0} ist eine abelsche Gruppe bezüglich der Multipli-
kation.
(iii) Es gelten die Distributivgesetze (ix) aus Definition 1.

Beweis. Zunächst ist klar, dass die Bedingungen (i) - (iv) aus Defi-
nition 1 diejenigen einer kommutativen additiven Gruppe sind. Wei-
ter folgt aus obiger Regel (4), dass für einen Körper K die Teilmenge
K ∗ = K − {0} abgeschlossen unter der Multiplikation ist und dass mit
einem Element a ∈ K ∗ wegen a · a−1 = 1 auch dessen inverses a−1 zu
K ∗ gehört. Somit sieht man, dass K ∗ eine abelsche Gruppe bezüglich
der Multiplikation ist, und es implizieren die Bedingungen aus Defini-
tion 1 die Bedingungen von Bemerkung 2.
Seien nun umgekehrt die Bedingungen aus Bemerkung 2 erfüllt.
Um hieraus die Bedingungen von Definition 1 abzuleiten, braucht man
lediglich zu wissen, dass in der Situation von Bemerkung 2 die Bezie-
hung 0a = 0 = a0 für alle a ∈ K gilt. Diese kann man jedoch mit Hilfe
1.3 Körper 25

der Distributivgesetze auf gleiche Weise herleiten, wie wir dies bereits
oben bei den Rechenregeln getan haben. 

Ähnlich wie bei Gruppen hat man auch bei Körpern den Begriff
des Unter- oder Teilkörpers.

Definition 3. Es sei K ein Körper. Eine Teilmenge L ⊂ K heißt ein


Teilkörper von K, wenn gilt:
(i) a, b ∈ L =⇒ a + b, a · b ∈ L.
(ii) 0, 1 ∈ L.
(iii) a ∈ L =⇒ −a ∈ L.
(iv) a ∈ L, a 6= 0 =⇒ a−1 ∈ L.

Es ist klar, dass eine Teilmenge L ⊂ K genau dann ein Teilkörper


von K ist, wenn Addition und Multiplikation auf K sich zu Verknüp-
fungen L × L ✲ L einschränken und wenn L unter diesen Verknüp-
fungen selbst ein Körper ist. Bekannte Beispiele für Körper sind die
rationalen Zahlen Q und die reellen Zahlen R, wobei Q ein Teilkörper
von R ist. Ein Körper enthält mindestens 2 verschiedene Elemente,
nämlich das neutrale Element der Addition und das neutrale Element
der Multiplikation, also 0 und 1. Andererseits gibt es aber auch einen
Körper K, der aus genau 2 Elementen besteht. Man betrachte nämlich
die Teilmenge {0, 1} ⊂ Z und setze:

0 + 0 = 0, 0 + 1 = 1 + 0 = 1, 1 + 1 = 0,
0 · 0 = 0, 0 · 1 = 1 · 0 = 0, 1 · 1 = 1.

Eine Verifikation der Körperaxiome zeigt, dass diese Verknüpfungen


auf {0, 1} in der Tat die Struktur eines Körpers definieren; man be-
zeichnet diesen meist mit F2 . Natürlich ist F2 kein Teilkörper von Q
oder R, denn es gilt 2 · 1 = 1 + 1 = 0, wobei 2 als natürliche Zahl, nicht
aber als Element von F2 aufzufassen ist.
Als Nächstes
√ wollen wir den kleinsten Teilkörper von R konstruie-
ren, der 2 enthält, also diejenige positive reelle Zahl, die mit sich
selbst
√ multipliziert 2 ergibt. Dieser Körper wird üblicherweise mit
Q 2 bezeichnet. Zunächst zeigen wir:

Lemma 4. 2 6∈ Q.
26 1. Vektorräume

Beweis. Wir
√ führen den Beweis
√ indirekt, also durch Widerspruch, und
nehmen 2 ∈ Q an, etwa 2 = p/q mit p, q ∈ Z − {0}. Den Bruch p/q
können wir als gekürzt annehmen. Insbesondere sind dann p und q nicht
beide durch 2 teilbar. Aus der Gleichung p2 /q 2 = 2 ergibt sich p2 = 2q 2
und damit, dass p2 gerade ist. Da das Quadrat einer ungeraden Zahl
stets ungerade ist, muss auch p gerade sein, etwa p = 2p̃ mit einem
Element p̃ ∈ Z. Es folgt 2q 2 = 4p̃2 bzw. q 2 = 2p̃2 und damit wie
soeben, dass 2 ein Teiler von q ist. Damit ist 2 sowohl ein Teiler von
p wie auch√von q. Dies hatten wir jedoch zuvor ausgeschlossen. Die
Annahme 2 ∈ Q führt √ daher zu einem Widerspruch, ist folglich nicht
haltbar, und es gilt 2 6∈ Q. 

Als Folgerung erhalten wir:

Lemma 5. Für a, b ∈ Q gilt



a + b 2 6= 0 ⇐⇒ a 6= 0 oder b 6= 0.

Beweis. Die Implikation “=⇒” ist trivial. Um die Umkehrung “⇐=” zu


zeigen, gehen wir wieder
√ indirekt vor und nehmen an, es gäbe Zahlen
a, b ∈ Q mit a + b 2 = 0, wobei a und b nicht beide√ verschwinden
mögen. Dann folgt notwendig a 6= 0 6= b und somit 2 = −ab−1 ∈ Q
im Widerspruch zu Lemma 4. 
√ 
Wir definieren nun Q 2 als Teilmenge von R durch
√   √
Q 2 = a + b 2 ; a, b ∈ Q .
√ 
Satz 6. Q 2 ist ein echter Teilkörper von R, der wiederum Q als
√ 
echten Teilkörper enthält. Es ist Q 2 der kleinste Teilkörper von R,

der 2 enthält.
√ 
Beweis. Zunächst soll gezeigt werden, dass Q 2 ein Teilkörper von R
√ 
ist. Um nachzuweisen, dass Q 2 abgeschlossen ist unter der Addition
√ √ √ 
und Multiplikation, wähle man Elemente a + b 2, a′ + b′ 2 ∈ Q 2
mit a, b, a′ , b′ ∈ Q. Dann folgt
1.3 Körper 27
√  √  √ √ 
a + b 2 + a′ + b′ 2 = (a + a′ ) + (b + b′ ) 2 ∈Q 2 ,
√  √  √ √ 
a + b 2 · a′ + b′ 2 = (aa′ + 2bb′ ) + (ab′ + a′ b) 2 ∈Q 2 ,

d. h. Bedingung (i) aus Definition


√ 3√ ist erfüllt. Dasselbe√ gilt für√Be-

dingung (ii), denn 0 = 0 + 0 2 ∈ Q 2 und 1 = 1 + 0 2 ∈ Q 2 .
√ √ √
Weiter ist mit a + b 2 auch −(a + b 2) √ = (−a)
 + (−b) 2 als inver-
ses Element bezüglich der Addition in Q 2 enthalten, so dass auch
Bedingung (iii) aus Definition 3 erfüllt ist.
Etwas schwieriger
√ istBedingung (iv) aus Definition 3 nachzuwei-

sen. Sei a + b 2 ∈ Q 2 von Null verschieden, also a 6= 0 oder b 6= 0

nach Lemma 5. Dann gilt a − b 2 6= 0, ebenfalls nach Lemma 5, und
wir können schreiben:

1 a−b 2 a b √ √ 
√ = 2 = − 2 ∈ Q 2 .
a+b 2 a − 2b2 a2 − 2b2 a2 − 2b2
√ 
Insgesamt ergibt sich, dass Q 2 ein Teilkörper von R ist, und zwar
√ √ 
ein echter Teilkörper, da beispielsweise 3 nicht zu Q 2 gehört.
Letzteres zeigt man, indem man ähnlich√ argumentiert wie im Beweis
zu Lemma 4. Im Übrigen enthält Q 2 den Körper der rationalen

Zahlen als echten Teilkörper wegen 2√6∈Q.
Es bleibt noch zu zeigen, dass Q 2 der kleinste Teilkörper von

R ist, der 2 enthält. Ist zunächst K ein beliebiger Teilkörper von R,
so enthält K notwendig alle Elemente der Form n · 1 mit n ∈ Z, es
gilt also Z ⊂ K. Dann muss K aber auch alle Brüche der Form p/q
mit p, q ∈ Z, q 6= 0, und damit
√ Q enthalten. Folglich ist Q der kleinste
Teilkörper von R. Gilt nun√ 2 ∈ K, so enthält K notwendig√  auch alle
Ausdrücke der Form a + b 2 mit a, b ∈ Q und damit Q 2 . Also ist
√  √
Q 2 der (eindeutig bestimmte) kleinste Teilkörper von R, der 2
enthält. 

Als Nächstes wollen wir von dem Körper R der reellen Zahlen aus-
gehen und diesen zum Körper C der komplexen Zahlen erweitern. Man
setze

C := R × R = (a, a′ ) ; a, a′ ∈ R
und definiere Addition bzw. Multiplikation auf C durch
28 1. Vektorräume

(a, a′ ) + (b, b′ ) := (a + b, a′ + b′ ),
(a, a′ ) · (b, b′ ) := (ab − a′ b′ , ab′ + a′ b).

Man prüft leicht nach, dass C mit diesen Verknüpfungen einen Körper
bildet. Dabei ist 0C = (0, 0) das Nullelement sowie −(a, a′ ) = (−a, −a′ )
das inverse Element bezüglich der Addition zu (a, a′ ) ∈ C. Weiter ist
1C = (1, 0) das Einselement von C, und das inverse Element bezüglich
der Multiplikation zu einem Element (a, a′ ) 6= 0C wird gegeben durch
 
′ −1 a a′
(a, a ) = ,− .
a2 + a′2 a2 + a′2
Exemplarisch wollen wir das Assoziativgesetz der Multiplikation nach-
weisen. Für (a, a′ ), (b, b′ ), (c, c′ ) ∈ C rechnet man

(a, a′ )(b, b′ ) (c, c′ ) = (ab − a′ b′ , ab′ + a′ b)(c, c′ )
= (abc − a′ b′ c − ab′ c′ − a′ bc′ , abc′ − a′ b′ c′ + ab′ c + a′ bc)

sowie

(a, a′ ) (b, b′ )(c, c′ ) = (a, a′ )(bc − b′ c′ , bc′ + b′ c)
= (abc − ab′ c′ − a′ bc′ − a′ b′ c, abc′ + ab′ c + a′ bc − a′ b′ c′ ),

d. h. es gilt
 
(a, a′ )(b, b′ ) (c, c′ ) = (a, a′ ) (b, b′ )(c, c′ ) .

Man stellt weiter fest, dass die Elemente der Form (a, 0) einen Teil-
körper K ⊂ C bilden. Es gilt nämlich 0C , 1C ∈ K sowie für Elemente
(a, 0), (b, 0) ∈ K

(a, 0) + (b, 0) = (a + b, 0) ∈ K,
(a, 0) · (b, 0) = (a · b, 0) ∈ K,
−(a, 0) = (−a, 0) ∈ K,
(a, 0)−1 = (a−1 , 0) ∈ K, falls a 6= 0.

Man kann nun durch a ✲ (a, 0) eine natürliche Identifikation zwi-


schen den Elementen von R und denen von K erklären. Da diese Iden-
tifikation auch die Körperstrukturen von R bzw. K respektiert, lässt
1.3 Körper 29

sich R sogar als Körper mit dem Teilkörper K ⊂ C identifizieren. So-


mit können wir nun R als Teilkörper von C auffassen und brauchen
nicht mehr zwischen dem Null- bzw. Einselement in R und C zu un-
terscheiden.
Üblicherweise bezeichnet man das Element (0, 1) ∈ C als komplexe
Zahl i; diese besitzt die Eigenschaft i2 = −1, ist also zu interpretieren
als Quadratwurzel aus −1. Komplexe Zahlen z = (a, a′ ) lassen sich
sodann in der Form

z = (a, 0) + (0, a′ ) = (a, 0) + (a′ , 0) · (0, 1) = a + a′ i

schreiben. Dabei wird a = Re(z) als Realteil und a′ = Im(z) als Ima-
ginärteil von z bezeichnet. Es gelten die Formeln

(a + a′ i) + (b + b′ i) = (a + b) + (a′ + b′ )i,
(a + a′ i) · (b + b′ i) = (ab − a′ b′ ) + (ab′ + a′ b)i,
−(a + a′ i) = −a − a′ i,
a a′
(a + a′ i)−1 = 2 − i,
a + a′2 a2 + a′2
letztere unter der Voraussetzung a + a′ i 6= 0, also a 6= 0 oder a′ 6= 0.
Als Beispiel für das Rechnen in Körpern wollen wir schließlich noch
die binomische Formel herleiten. Sei also K ein beliebiger Körper. Für
a ∈ K und n ∈ N definiert man üblicherweise an als das n-fache Pro-
dukt von a mit sich selbst. Dabei ist a0 das leere Produkt, also a0 = 1.
Außerdem kann man a−n für a 6= 0 durch (a−1 )n erklären, so dass
dann an für ganzzahlige Exponenten n definiert ist. Für das Rechnen
mit solchen Potenzen gelten die gewöhnlichen Potenzgesetze.
Seien a, b ∈ K, und sei n ∈ N eine natürliche Zahl. Zur Berechnung
von (a+b)n wählen wir zunächst eine kombinatorische Methode. Hierzu
stellen wir uns (a + b)n als n-faches Produkt vor:

(a + b)n = (a + b) · . . . · (a + b)

Die rechte Seite kann man unter sukzessiver Benutzung der Distributiv-
gesetze ausrechnen, indem man aus jeder Klammer einen Summanden
auswählt (also jeweils a oder b), das Produkt über die ausgewählten
Elemente bildet und schließlich alle Produkte dieses Typs zu verschie-
denen Wahlen summiert. Somit folgt
30 1. Vektorräume

n
X
n
(a + b) = α(i)an−i bi ,
i=0

wobei α(i) gleich der Anzahl der Möglichkeiten ist, den Summanden
b genau i-mal aus den n Klammern (a + b) auszuwählen, mit anderen
Worten, gleich der Anzahl der i-elementigen Teilmengen in {1, . . . , n}.
Will man i Elemente in {1, . . . , n} auswählen, so gibt es für das erste
Element n Wahlmöglichkeiten, für das zweite n − 1 und so weiter,
schließlich für das i-te Element noch n− i + 1 Möglichkeiten. Insgesamt
haben wir daher
n(n − 1) . . . (n − i + 1)
Möglichkeiten für diesen Auswahlprozess. Nun ist aber zu berücksich-
tigen, dass eine i-elementige Teilmenge {t1 , . . . , ti } von {1, . . . , n}, die
in einem solchen Prozess konstruiert wird, nicht davon abhängt, in
welcher Reihenfolge die Elemente t1 , . . . , ti ausgewählt werden. Wir
müssen daher die obige Anzahl noch durch die Anzahl der Mög-
lichkeiten dividieren, die Elemente t1 , . . . , ti in ihrer Reihenfolge zu
vertauschen, also durch die Anzahl der bijektiven Selbstabbildungen
π : {1, . . . , i} ✲ {1, . . . , i}. Will man eine solche Abbildung π defi-
nieren, so hat man zur Festsetzung von π(1) zunächst i Möglichkei-
ten, für π(2) noch i − 1 Möglichkeiten usw. Die Anzahl der bijektiven
Selbstabbildungen von {1, . . . , i} ist deshalb i! = 1 · . . . · i, wobei das
Rufzeichen “ ! ” als Fakultät gelesen wird, und es ergibt sich
n(n − 1) . . . (n − i + 1)
α(i) = .
1 · 2 · ... · i

Für diesen Ausdruck verwendet man die Schreibweise ni , gelesen n
über i, also
 
n n(n − 1) . . . (n − i + 1) n!
= = , 0 ≤ i ≤ n.
i 1 · 2 · ... · i i!(n − i)!
In den Extremfällen i = 0 bzw. i = n erweist sich unsere Konvention
bezüglich leerer Produkte
 als sinnvoll, es gilt 0! = 1 sowie n0 = 1 = nn
und insbesondere 00 = 1. Insgesamt folgt die bekannte binomische
Formel n  
X n n−i i
n
(a + b) = a b,
i=0
i
1.3 Körper 31


wobei die Koeffizienten ni ∈ N als Binomialkoeffizienten bezeichnet
werden.
Wir wollen noch einen präziseren Beweis für diese Formel geben,
wobei wir die Gelegenheit nutzen, um das Prinzip der vollständigen
Induktion zu erklären. Wenn man zeigen will, dass eine Aussage A(n)
für alle natürlichen Zahlen n ∈ N gültig ist, so genügt es nach diesem
Prinzip, Folgendes zu zeigen:
(1) Es gilt A(0) (Induktionsanfang).
(2) Für beliebiges n ∈ N kann man aus der Gültigkeit der Aussage
A(n) (Induktionsvoraussetzung) auf die Gültigkeit der Aussage A(n+1)
schließen (Induktionsschluss).
Natürlich kann man die vollständige Induktion statt bei n = 0
auch bei einer anderen Zahl n = n0 ∈ N oder sogar bei einer Zahl
n = n0 ∈ Z beginnen. Führt man den Induktionsschluss dann für
ganze Zahlen n ≥ n0 durch, so ergibt sich die Gültigkeit von A(n) für
alle ganzen Zahlen n ≥ n0 . Als Variante dieses Prinzips darf man beim
Induktionsschluss zum Nachweis von A(n+1) zusätzlich benutzen, dass
die Aussage A(m) bereits für alle m mit n0 ≤ m ≤ n gilt, wobei der
Induktionsanfang wiederum bei n = n0 liegen möge. In unserem Fall
soll die Aussage A(n) aus zwei Teilen bestehen und für n ∈ N wie folgt
lauten:
 
n
∈ N für 0 ≤ i ≤ n,
i
X n  
n n n−i i
(a + b) = a b;
i=0
i

n

die Binomialkoeffizienten i
sind dabei wie oben durch
 
n n(n − 1) . . . (n − i + 1) n!
= =
i 1 · 2 · ... · i i!(n − i)!

gegeben. Der Induktionsanfang


 bei n = 0 ist leicht
 durchzuführen;
0 0 0 0
denn man hat 0 = 1 ∈ N und (a + b) = 1 = 0 a b , d. h. A(0) ist
0

richtig. Zum Induktionsschluss betrachten wir ein beliebiges n ∈ N und


nehmen an, dass A(n) richtig ist. Dann können wir wie folgt rechnen:
32 1. Vektorräume

n  
X
n+1 n n
(a + b) = (a + b) · (a + b) = (a + b) · an−i bi
i=0
i
n  
X n  
X
n n
= an+1−i bi + an−i bi+1
i=0
i i=0
i
n  
X n−1  
X
n+1 n n+1−i i n
=a + a b + an−i bi+1 + bn+1
i=1
i i=0
i
Xn 
 n  
n+1 n n+1−i i X n
=a + a b + an+1−i bi + bn+1
i=1
i i=1
i − 1
Xn    
n n
= an+1 + + an+1−i bi + bn+1
i=1
i i − 1

Nun hat man aber für 1 ≤ i ≤ n


   
n n n! n!
+ = +
i i−1 i!(n − i)! (i − 1)!(n − i + 1)!
n!(n − i + 1) + n!i n!(n + 1)
= =
i!(n − i + 1)! i!(n − i + 1)!
 
(n + 1)! n+1
= = ,
i!(n + 1 − i)! i
so dass sich wie gewünscht
n+1 
X 
n+1n + 1 n+1−i i
(a + b) = a b
i=0
i
 n 
ergibt. Außerdem folgt aus ni , i−1 ∈ N, dass auch n+1i
eine natürli-
che Zahl ist. Die binomische Formel ist daher per Induktion bewiesen.

Aufgaben
1. Es sei K eine endliche Menge mit zwei Verknüpfungen “+” und “·”,
welche den Bedingungen (i) – (x) von Definition 1 genügen, wobei jedoch
die Bedingung (vii) ersetzt sei durch
(vii′ ) Für a, b ∈ K − {0} gilt ab ∈ K − {0}.
Man zeige, dass K ein Körper ist.
1.3 Körper 33

2. Es sei K ein endlicher Körper. Für Elemente n ∈ N und a ∈ K bezeichne


n · a = a + . . . + a die n-fache Summe von a mit sich selber. Man zeige
(AT 374):
(i) Es existiert ein n ∈ N − {0}, so dass na = 0 für alle a ∈ K gilt.
(ii) Wählt man n wie vorstehend minimal, so ist n eine Primzahl, die
sogenannte Charakteristik von K.
3. Man betrachte für n ∈ N − {0} die Menge Rn aus Abschnitt 1.2, Aufga-
be 8 mit der dort erklärten Addition, welche auf Rn die Struktur einer
additiven abelschen Gruppe definiert. Man zeige:
(i) Auf Rn lässt sich in eindeutiger Weise eine Multiplikation erklä-
ren, so dass alle Bedingungen von Definition 1, mit eventueller
Ausnahme von (vii) erfüllt sind.
(ii) Ist p eine Primzahl, so ist Rp sogar ein Körper; dieser wird auch
mit Fp bezeichnet.
4. Man konstruiere einen Körper mit 4 Elementen.
√ √ 
5. Man weise nach, dass 3 nicht zu Q 2 gehört. (AT 376)
6. Man bestimme den kleinsten Teilkörper von C, welcher die komplexe
Zahl i enthält.
7. Für eine Aussage A(n), die für n ∈ N definiert ist, betrachte man fol-
gende Bedingungen:
(i) A(0) ist wahr.
(ii) Für alle n ∈ N gilt: Ist A(n) wahr, so auch A(n + 1).
(iii) Für alle n ∈ N gilt: Ist A(i) für alle i ∈ N mit i ≤ n wahr, so auch
A(n + 1).
Man zeige mittels eines formalen Schlusses, dass das Induktionsprinzip,
welches die Bedingungen (i) und (ii) umfasst, äquivalent zu demjenigen
ist, das die Bedingungen (i) und (iii) umfasst.
8. Es sei A(m, n) eine Aussage, die für m, n ∈ N erklärt sei. Die folgenden
Aussagen seien wahr:
(i) A(0, 0)
(ii) A(i, j) =⇒ A(i + 1, j) für i, j ∈ N.
(iii) A(i, j) =⇒ A(i, j + 1) für i, j ∈ N.
Man zeige, dass dann A(i, j) für alle i, j ∈ N wahr ist (Prinzip der
Doppelinduktion). Lassen sich die Bedingungen (ii) bzw. (iii) noch ab-
schwächen?
34 1. Vektorräume

9. Für n ∈ N und Elemente q 6= 1 eines Körpers K leite man die Formel


für die geometrische Reihe her:
n
X 1 − q n+1
qi =
1−q
i=0

10. Man beweise für k, n ∈ N mit n ≥ k ≥ 1 :


n−1
X    
i n
=
k−1 k
i=k−1

11. Man zeige, dass die Menge {(a1 , . . . , an ) ∈ Nn ; a1 + . . . + an = k} für


n, k ∈ N, n ≥ 1, genau  
k+n−1
n−1
Elemente besitzt. (AT 377)

1.4 Vektorräume und lineare Unterräume

Wir wollen nun die eingangs angedeutete Vektorrechnung auf eine


axiomatische Grundlage stellen, indem wir Vektorräume über Körpern
betrachten. Vektoren werden wir im Folgenden stets mit lateinischen
Buchstaben a, b, c, . . . bezeichnen, Skalare aus dem zugehörigen Körper
dagegen mit griechischen Buchstaben α, β, γ,. . .

Definition 1. Es sei K ein Körper. Ein K-Vektorraum ist eine Menge


V mit einer inneren Verknüpfung V × V ✲ V , (a, b) ✲ a + b,
genannt Addition, und einer äußeren Verknüpfung K × V ✲ V,
genannt skalare Multiplikation, so dass gilt:
(i) V ist eine abelsche Gruppe bezüglich der Addition “+”.
(ii) (α + β) · a = α · a + β · a, α · (a + b) = α · a + α · b für alle
α, β ∈ K, a, b ∈ V , d. h. Addition und Multiplikation verhalten sich
distributiv.
(iii) (α · β) · a = α · (β · a) für alle α, β ∈ K, a ∈ V , d. h. die skalare
Multiplikation ist assoziativ.
(iv) 1 · a = a für das Einselement 1 ∈ K und alle a ∈ V .
1.4 Vektorräume und lineare Unterräume 35

Elemente eines Vektorraums werden auch als Vektoren bezeichnet.


Wie jede Gruppe enthält ein K-Vektorraum mindestens ein Element,
nämlich den Nullvektor 0 als neutrales Element. Andererseits kann
man eine einelementige Menge V = {0} stets zu einem K-Vektorraum
machen, indem man 0 + 0 = 0 und α · 0 = 0 für α ∈ K definiert.
Man nennt V dann den Nullraum und schreibt in suggestiver Wei-
se V = 0, wobei man streng genommen zwischen 0 als Nullelement
und 0 als Nullraum zu unterscheiden hat. Ist L ein Körper und K ein
Teilkörper, so kann man L stets als K-Vektorraum auffassen. Als Vek-
torraumaddition auf L nehme man die gegebene Körperaddition und
als skalare Multiplikation K × L ✲ L die Einschränkung der Kör-
permultiplikation L × L√ ✲ L. Insbesondere ist C auf diese Weise ein
Vektorraum über Q, Q( 2) oder R. Im Übrigen ist jeder Körper K ein
Vektorraum über sich selbst.
Für das Rechnen mit Vektoren gelten die gewöhnlichen Rechenre-
geln, die wir im Folgenden auflisten. Dabei haben wir an dieser Stelle
der Deutlichkeit halber 0K für das Nullelement von K und 0V für den
Nullvektor in V geschrieben, eine Unterscheidung, die wir im Weiteren
allerdings nicht mehr machen werden.

(1) α · 0V = 0V für alle α ∈ K.

(2) 0K · a = 0V für alle a ∈ V .

(3) (−α) · a = α · (−a) = −(α · a) für alle α ∈ K, a ∈ V .

(4) Aus α · a = 0V für α ∈ K und a ∈ V folgt bereits α = 0K oder


a = 0V .

Die Regeln (1) - (3) beweist man genauso wie die entsprechenden
Regeln für das Rechnen in Körpern. Gleiches gilt für (4), wobei wir
hier die Argumentation noch einmal ausführen wollen. Gilt nämlich
α · a = 0 mit α 6= 0, so ergibt sich

a = (α−1 · α) · a = α−1 · (α · a) = α−1 · 0V = 0V .

Als weitere Regeln führen wir noch die allgemeinen Distributivgesetze


auf; es seien α, αi , βi ∈ K sowie a, ai ∈ V für i = 1, . . . , n.
36 1. Vektorräume

n
X n
X
α· ai = αai
i=1 i=1
X
n  n
X
αi · a = αi a
i=1 i=1
n
X n
X Xn
αi ai + βi ai = (αi + βi )ai
i=1 i=1 i=1

Definition 2. Es sei V ein K-Vektorraum. Eine Teilmenge U ⊂ V


heißt ein K-Untervektorraum oder linearer Unterraum von V , wenn
gilt:
(i) U 6= ∅
(ii) a, b ∈ U =⇒ a + b ∈ U
(iii) α ∈ K, a ∈ U =⇒ αa ∈ U

Für einen Vektor a ∈ V ist


K · a := {αa ; α ∈ K}
stets ein linearer Unterraum von V . In Falle a 6= 0 kann man hier
von einer “Geraden” sprechen, für a = 0 ist K · a der Nullraum. Jeder
Vektorraum enthält folglich den Nullraum und sich selbst als lineare
Unterräume. Fassen wir√ weiter etwa C als Q-Vektorraum auf, so er-
kennt man R und Q 2 als lineare Unterräume. Im Übrigen ist die
Bezeichnung K-Untervektorraum in Definition 2 gerechtfertigt, denn
es gilt:

Bemerkung 3. Eine Teilmenge U eines K-Vektorraums V ist genau


dann ein K-Untervektorraum, wenn U abgeschlossen unter der Addi-
tion und der skalaren Multiplikation mit Elementen aus K ist, und
wenn U mit diesen Verknüpfungen selbst ein K-Vektorraum ist.

Beweis. Die behauptete Äquivalenz ist in einfacher Weise zu verifizie-


ren. Wir wollen hier nur zeigen, dass jeder lineare Unterraum U ⊂ V
die in Bemerkung 3 genannten Bedingungen erfüllt. Sei also U ⊂ V wie
in Definition 2. Zunächst besagen die Bedingungen (ii) und (iii), dass U
abgeschlossen unter der Addition und der skalaren Multiplikation ist.
Weiter übertragen sich allgemeine Eigenschaften der Verknüpfungen
1.4 Vektorräume und lineare Unterräume 37

wie Assoziativität, Kommutativität, Distributivität usw. in direkter


Weise von V auf U . Nach Voraussetzung gilt U 6= ∅. Es enthält U da-
her ein Element a. Dann gehört auch −a = (−1)a zu U und damit der
Nullvektor 0 = a − a. Also ist klar, dass U eine additive Untergruppe
von V und insgesamt mit den von V induzierten Verknüpfungen ein
K-Vektorraum ist. 

Als wichtigstes Beispiel eines Vektorraums über einem Körper K


wollen wir das n-fache kartesische Produkt

K n = (α1 , . . . , αn ) ; αi ∈ K für i = 1, . . . , n

betrachten, wobei n ∈ N sei. Die Addition K n × K n ✲ K n werde


erklärt durch

(α1 , . . . , αn ) + (β1 , . . . , βn ) = (α1 + β1 , . . . , αn + βn ),

sowie die skalare Multiplikation K × K n ✲ K n durch

α · (α1 , . . . , αn ) = (α · α1 , . . . , α · αn ).

Das n-Tupel (0, . . . , 0) ∈ K n definiert den Nullvektor in K n , den wir


üblicherweise wieder mit 0 bezeichnen. Weiter ist (−α1 , . . . , −αn ) für
ein Element (α1 , . . . , αn ) ∈ K n das inverse Element bezüglich der Addi-
tion. Im Falle n = 0 ist K n als einelementige Menge anzusehen, welche
nur aus dem leeren Tupel besteht; K 0 ist somit der Nullraum. Im Üb-
rigen lässt sich K m für m ≤ n in kanonischer3 Weise als linearer Unter-
raum von K n auffassen, indem man die Elemente (α1 , . . . , αm ) ∈ K m
mit denen des Typs (α1 , . . . , αm , 0, . . . , 0) ∈ K n identifiziert.
Anschaulich können wir den Vektorraum K n für K = R und n = 2
als Modell einer Ebene und für n = 3 als Modell des gewöhnlichen
dreidimensionalen Raumes ansehen. Als Untervektorräume der Ebene
R2 gibt es, wie wir noch sehen werden, außer den trivialen linearen
Unterräumen 0 und R2 lediglich die Geraden des Typs Ra zu von Null
verschiedenen Vektoren a ∈ R2 .
3
Die Bezeichnung “kanonisch” werden wir im Folgenden noch häufiger verwen-
den. Wir meinen hiermit eine Möglichkeit, die sich in naheliegender Weise als die
einfachste Lösung anbietet.
38 1. Vektorräume

Die obige Konstruktion des Vektorraums K n lässt sich allgemeiner


für einen K-Vektorraum V anstelle von K durchführen. Man erhält
dann das n-fache kartesische Produkt V n von V als K-Vektorraum mit
komponentenweiser Addition und skalarer Multiplikation. Darüber hin-
aus kann man für eine beliebige Q Familie von K-Vektorräumen (Vi )i∈I
das kartesische Produkt V = i∈I Vi als K-Vektorraum auffassen, wie-
derum mit komponentenweisen Verknüpfungen, indem man also für
α ∈ K und (vi )i∈I , (vi′ )i∈I ∈ V setzt:

(vi )i∈I + (vi′ )i∈I = (vi + vi′ )i∈I , α · (vi )i∈I = (α · vi )i∈I .

Viele interessante Vektorräume sind als Räume von Abbildungen


oder Funktionen zu sehen. Sei etwa K ein Körper und X eine Menge.
Dann bildet die Menge V = Abb(X, K) aller Abbildungen von X nach
K auf natürliche Weise einen K-Vektorraum. Man erkläre nämlich die
Summe zweier Elemente f, g ∈ V als Abbildung

f + g: X ✲ K, x ✲ f (x) + g(x),

sowie das skalare Produkt eines Elementes α ∈ K mit einem Element


f ∈ V durch
αf : X ✲ K, x ✲ αf (x).
Es ist leicht nachzurechnen, dass V mit diesen Verknüpfungen einen
K-Vektorraum bildet, den sogenannten Vektorraum der K-wertigen
Funktionen auf X (der im Übrigen mit dem kartesischen Produkt K X
übereinstimmt, dessen Faktoren K durch die Elemente der Menge X
indiziert werden). Die Nullabbildung

0: X ✲ K, x ✲ 0

ist das Nullelement, und das negative Element zu einem f ∈ V wird


gegeben durch

−f : X ✲ K, x ✲ − f (x) .

Setzt man beispielsweise K = R und X = {α ∈ R ; 0 ≤ α ≤ 1}, so ist


V = Abb(X, R) der R-Vektorraum aller reellwertigen Funktionen auf
dem Einheitsintervall in R. Lineare Unterräume werden gebildet von
den stetigen Funktionen, den differenzierbaren Funktionen bzw. von
den Polynomfunktionen.
1.4 Vektorräume und lineare Unterräume 39

Im Folgenden sei K stets ein Körper. Wir wollen uns etwas genauer
mit dem Problem der Konstruktion von linearen Unterräumen in einem
K-Vektorraum V beschäftigen.

Lemma 4. Es sei V ein K-VektorraumTund (Ui )i∈I eine Familie von


linearen Unterräumen. Dann ist U = i∈I Ui ebenfalls ein linearer
Unterraum von V .

Beweis. Um zu sehen, dass U ein linearer Unterraum von V ist, ve-


rifizieren wir die Bedingungen von Definition 2. Da 0 ∈ Ui für alle i
gilt, folgt auch 0 ∈ U . Seien nun α ∈ K und a, b ∈ U . Dann ergibt
sich a, b ∈ Ui für alle i, also a + b, αa ∈ Ui und somit a + b, αa ∈ U .
Folglich erfüllt U die definierenden Eigenschaften eines linearen Unter-
raums von V . 

Satz und Definition 5. Es sei V ein K-Vektorraum und A ⊂ V eine


Teilmenge. Dann ist
Xr 
hAi := αi ai ; r ∈ N, αi ∈ K, ai ∈ A für i = 1, . . . , r
i=1

ein linearer Unterraum von V , und dieser stimmt überein mit dem
linearen Unterraum \
U ⊂ V,
A⊂U

den man gemäß Lemma 4 erhält, wenn man den Durchschnitt über alle
linearen Unterräume U in V bildet, die A enthalten.
Folglich ist hAi der kleinste lineare Unterraum in V , der A enthält,
was bedeutet, dass jeder lineare Unterraum U ⊂ V , der A enthält, auch
bereits hAi enthalten muss. Man nennt hAi den von A in V erzeugten
linearen Unterraum oder auch die lineare Hülle von A in V .

In ähnlicher Weise definiert man für eine Familie A = (ai )i∈I von
Elementen aus V den von A erzeugten linearen Unterraum hAi ⊂ V
durch hAi = hAi mit A = {ai ; i ∈ I}. Aus der Definition in Kombi-
nation mit obigem Satz ergeben sich in direkter Weise die folgenden
elementaren Eigenschaften für erzeugte lineare Unterräume in einem
Vektorraum V :
40 1. Vektorräume

(1) h∅i = 0
(2) A ⊂ hAi für eine Teilmenge A ⊂ V .
(3) hU i = U für einen linearen Unterraum U ⊂ V .
(4) A ⊂ B =⇒ hAi ⊂ hBi und A ⊂ hBi =⇒ hAi ⊂ hBi für
Teilmengen A, B ⊂ V .
Nun zum Beweis von Satz 5. Wir zeigen zunächst, dass hAi ein
linearer Unterraum von V ist.
P0 Es gilt hAi =6 ∅, denn der Nullvektor 0
lässt sich als leere Summe i=1 αi ai schreiben (oder für A 6= ∅ auch
als entsprechende echte Summe mit Koeffizienten αi = 0), gehört also
zu hAi. Seien weiter α ∈ K sowie
r
X s
X
a= αi ai , b= βj bj
i=1 j=1

Elemente von hAi. Dann folgt


r
X
αa = (ααi )ai ∈ hAi
i=1

sowie
r
X s
X r+s
X
a+b= αi ai + βj bj = αi ai ∈ hAi,
i=1 j=1 i=1

wenn wir αr+j = βj und ar+j = bj für j = 1, . . . , s setzen. Somit ist


hAi ein linearer Unterraum von V .
Ist U ein beliebiger linearer Unterraum von V , der A enthält,
so muss U aufgrund der definierenden Eigenschaften Pr eines linearen
Unterraums auch alle Linearkombinationen i=1 αi ai mit Elementen
a1 , . . . , ar ∈ A und Koeffizienten α1 , . . .T, αr ∈ K enthalten. Somit er-
gibt sich hAi ⊂ U und damit hAi ⊂ A⊂U U . Andererseits schließt
man aus der Gleichung a = 1 · a für a ∈ A natürlich A ⊂ hAi, so dass
auch hAi zu der Menge aller linearen Unterräume T U ⊂ V gehört, die A
enthalten. Insbesondere ergibt sich hAi = A⊂U U , und man erkennt
hAi als kleinsten linearen Unterraum von V , der A enthält. 

Definition 6. Es sei V ein K-Vektorraum. Eine Familie A = (ai )i∈I


von Elementen aus V heißt ein Erzeugendensystem von V , wenn jedes
1.4 Vektorräume und lineare Unterräume 41

P
a ∈ V eine Darstellung a = i∈I αi ai mit Koeffizienten αi ∈ K besitzt,
wobei αi = 0 für fast alle i ∈ I gilt, d. h. für alle i ∈ I, bis auf endlich
viele Ausnahmen. Mit anderen Worten, A ist ein Erzeugendensystem
von V , wenn V = hAi gilt. Weiter nennt man V endlich erzeugt, wenn
V ein endliches Erzeugendensystem a1 , . . . , an besitzt.

Jeder K-Vektorraum V besitzt ein Erzeugendensystem, denn es


gilt beispielsweise hV i = V . Weiter gilt:
V = h1i für V = Q als Q-Vektorraum,
√ √ 
V = 1, 2 für V = Q 2 als Q-Vektorraum,
V = h1, ii für V = C als R-Vektorraum,
V = he1 , . . . , en i für V = K n als K-Vektorraum.
Dabei sei ei ∈ K n für i = 1, . . . , n der i-te Einheitsvektor, also
ei = (0, . . . , 0, 1, 0, . . . , 0),
wobei die 1 genau an der i-ten Stelle steht. Auf präzisere Weise können
wir
ei = (δ1i , . . . , δni )
schreiben unter Verwendung des Kronecker -Symbols
(
1 für h = i
δhi = .
0 sonst

Aufgaben
K sei stets ein Körper.
1. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unterraum. Für
welche Elemente a ∈ V ist a + U := {a + u ; u ∈ U } wiederum ein
linearer Unterraum von V ? (AT 380)
2. Es sei V ein K-Vektorraum und A = (Ai )i∈I eine Familie von Teilmen-
gen von V . Die Familie A möge folgende Bedingung erfüllen: Zu je zwei
Indizes i, j ∈ I existiert stets ein Index k ∈ I mit Ai ∪ Aj ⊂ Ak . Man
zeige [  [
Ai = hAi i.
i∈I i∈I
Gilt diese Beziehung auch ohne die Voraussetzung an die Familie A?
42 1. Vektorräume

3. Es sei V ein endlich erzeugter K-Vektorraum. Dann lässt sich jedes belie-
bige Erzeugendensystem von V zu einem endlichen Erzeugendensystem
verkleinern.
4. Es sei K Teilkörper eines Körpers L und V ein L-Vektorraum. Ist
dann x1 , . . . , xn ein Erzeugendensystem von V als L-Vektorraum und
α1 , . . . , αm ein Erzeugendensystem von L, aufgefasst als K-Vektorraum,
so bilden die Produkte αi xj mit i = 1, . . . , m und j = 1, . . . , n ein Er-
zeugendensystem von V als K-Vektorraum.
5. Es seien x, y ∈ R2 Punkte, die nicht gemeinsam auf einer Geraden durch
den Nullpunkt 0 ∈ R2 liegen, d. h. es gelte x 6= 0 6= y sowie αx 6= βy für
alle α, β ∈ R∗ . Man zeige, dass x, y bereits ein Erzeugendensystem von
R2 bilden. Gilt eine entsprechende Aussage auch, wenn man R durch
einen beliebigen Körper K ersetzt? (AT 381)
Q
6. Man betrachte das kartesische Produkt QN = i∈N Q als Q-Vektorraum.
Kann dieser Vektorraum ein abzählbares Erzeugendensystem besitzen,
d. h. ein Erzeugendensystem des Typs (xi )i∈N ?

1.5 Linear unabhängige Systeme und Basen

Sind a1 , . . . , an Vektoren eines K-Vektorraums V , so sagt man, wie


bereits zu Beginn dieses Kapitels erwähnt, der Vektor an hänge linear
von a1 , . . . , an−1 ab, wenn
Pn−1 für gewisse Koeffizienten α1 , . . . , αn−1 ∈ K
eine Gleichung an = i=1 αi ai besteht, wenn also an ∈ ha1 , . . . , an−1 i
gilt. Man sagt in diesem Falle auch, an lasse sich aus den Vektoren
a1 , . . . , an−1 linear kombinieren oder an sei eine Linearkombination von
a1 , . . . , an−1 . Wenn man für ein System von Vektoren a1 , . . . , an weiß,
dass irgendeiner dieser Vektoren von den übrigen linear abhängt, so
bezeichnet man das System gemeinhin als linear abhängig. (System
ist hier im Sinne von Familie gemeint; das System der a1 , . . . , an wä-
re präziser als Familie (ai )i=1...n zu notieren.) Andererseits heißt das
System der a1 , . . . , an linear unabhängig, wenn keiner dieser Vektoren
von den übrigen linear abhängt. Der Begriff der linearen Abhängigkeit
bzw. Unabhängigkeit von Vektoren ist in der Linearen Algebra von
fundamentaler Wichtigkeit. Für eine formelmäßige Handhabung dieses
Begriffes ist folgende (äquivalente) Definition besonders geeignet, auf
die wir uns im Weiteren stets stützen werden.
1.5 Linear unabhängige Systeme und Basen 43

Definition 1. Ein System von Vektoren a1 , . . . , an eines K-Vektor-


raums
Pn V heißt linear unabhängig, wenn aus einer Gleichung des Typs
i=1 αi ai = 0 mit gegebenen Koeffizienten α1 , . . . , αn ∈ K notwendig
α1 = . . . = αn = 0 folgt, wenn sich also der Nullvektor 0 ∈ V nur
in trivialer Weise als Linearkombination der Vektoren a1 , . . . , an dar-
stellen lässt. Ist diese Bedingung nicht gegeben, so bezeichnet man das
System a1 , . . . , an als linear abhängig.

Ein System von Vektoren a1 , . . . , an ist also genau Pndann linear


abhängig, wenn es Koeffizienten α1 , . . . , αn ∈ K mit i=1 αi ai = 0
gibt, wobei die αi nicht sämtlich verschwinden. Dies ist äquivalent
zu der bereits oben erwähnten Bedingung, dass einer der Vektoren
a
P 1 , . . . , an eine Linearkombination der restlichen ist,P denn die Gleichung
n −1
α
i=1 i i a = 0 ist für α i0 6
= 0 äquivalent zu ai0 = − i6=i0 αi0 αi ai . Bei-
spielsweise bildet der Nullvektor 0 ∈ V ein linear abhängiges System,
aber auch jedes System von Vektoren, in dem einer der Vektoren mehr-
fach vorkommt, ist linear abhängig. Dagegen ist ein System, welches
aus genau einem Vektor a 6= 0 besteht, stets linear unabhängig. Ähn-
lich wie bei der Konvention der leeren Summe betrachtet man Systeme
von Vektoren a1 , . . . , an auch im Falle n = 0 und meint damit dann
das leere System. Auch das leere System erkennt man in naheliegender
Weise als linear unabhängig.
Um die Sprache zu vereinfachen, erwähnt man in der Situation
von Definition 1 meist nur die zu betrachtenden Vektoren a1 , . . . , an ,
ohne besonders darauf hinzuweisen, dass das System dieser Vektoren
gemeint ist. So sagt man etwa in unpräziser Ausdrucksweise, die Vek-
toren a1 , . . . , an seien linear unabhängig, womit man natürlich nicht
meint, dass jeder der Vektoren ai für sich genommen ein linear unab-
hängiges System bildet (was lediglich ai 6= 0 bedeuten würde), sondern
dass das System (ai )i=1...n linear unabhängig ist.

Mit
√  1.3/5 sehen wir beispielsweise, dass die Elemente 1, √ 2 von
Q 2 ein linear unabhängiges System bilden, wenn wir Q 2 als
Q-Vektorraum auffassen. Entsprechendes gilt für die Elemente 1, i
in C als R-Vektorraum. Wichtig ist auch, dass für n ∈ N die Ein-
heitsvektoren e1 , . . . , en ∈ K n , die zum Ende des vorigen Abschnitts
definiert wurden, ein linear unabhängiges System bilden. Denn für
α1 , . . . , αn ∈ K gilt
44 1. Vektorräume

r
X
αi ei = (α1 , . . . , αn ),
i=1

und es folgt, dass diese Summe genau dann verschwindet, wenn das
Element (α1 , . . . , αn ) verschwindet, d. h. wenn αi = 0 für i = 1, . . . , n
gilt.
Wir haben die lineare Abhängigkeit bzw. Unabhängigkeit in Defi-
nition 1 der Einfachheit halber nur für endliche Systeme von Vektoren
formuliert. Die Begriffe übertragen sich aber in naheliegender Weise
auf beliebige Systeme (ai )i∈I , wenn man vereinbart,
P dass eine Linear-
kombination der ai ein Ausdruck der Form i∈I αi ai mit Koeffizienten
αi ∈ K ist, wobei die αi für fast alle i ∈ I verschwinden, d. h. für alle
i ∈ I bis auf endlich viele Ausnahmen. Eine solche Linearkombination
ist daher in Wahrheit eine endliche Linearkombination, stellt also ein
Element in V dar. Man bezeichnet ein System (ai )i∈I von Vektoren aus
V als linear unabhängig, wenn aus demPVerschwinden einer Linearkom-
bination der ai , also einer Gleichung i∈I αi ai = 0, notwendig αi = 0
für alle i ∈ I folgt. Das System (ai )i∈I ist daher genau dann linear
unabhängig, wenn jedes endliche Teilsystem von (ai )i∈I linear unab-
hängig im Sinne von Definition 1 ist. Entsprechend ist (ai )i∈I genau
dann linear abhängig, wenn es ein endliches Teilsystem gibt, welches
linear abhängig im Sinne von Definition 1 ist.

Satz 2. Es seien a1 , . . . , an Vektoren eines K-Vektorraums V . Dann


ist äquivalent:
(i) Die Vektoren a1 , . . . , an sind linear
Pn unabhängig.
(ii) Sei a ∈ ha1 , . . . , an i und sei a = i=1 αi ai eine Darstellung mit
Koeffizienten α1 , . . . , αn ∈ K. Dann sind die Koeffizienten αi eindeutig
durch a bestimmt.

Beweis. Wir nehmen zunächst Bedingung (i) als gegeben an. Sind dann
n
X n
X
a= αi ai = αi′ ai
i=1 i=1

zwei Darstellungen
Pn von a als Linearkombination der ai , so erhalten
wir mit i=1 (αi − αi′ )ai eine Linearkombination, die den Nullvektor
0 darstellt. Mit (i) folgt αi − αi′ = 0, also αi = αi′ für alle i, d. h. die
Darstellung von a als Linearkombination der ai ist eindeutig.
1.5 Linear unabhängige Systeme und Basen 45

Sei nun umgekehrt Bedingung (ii) gegeben. Um die lineare Unab-


hängigkeit des Systems der ai zu zeigen, betrachten wir eine Gleichung
P n
Pni=1 αi ai = 0 mit Koeffizienten α1 , . . . , αn ∈ K. Da trivialerweise
i=1 0 · ai = 0 gilt, ergibt sich αi = 0 für alle i, wenn man (ii) benutzt.


Sind die Bedingungen des Satzes erfüllt, so nennt man das System
der ai eine Basis des linearen Unterraums ha1 , . . . , an i von V . Man
vereinbart nämlich:

Definition 3. Ein System von Vektoren a1 , . . . , an eines K-Vektor-


raums V wird als (endliche) Basis von V bezeichnet, wenn gilt:
(i) Die Vektoren a1 , . . . , an bilden ein Erzeugendensystem von V ;
d. h. man hat V = ha1 , . . . , an i.
(ii) Das System der Vektoren a1 , . . . , an ist linear unabhängig.
Allgemeiner heißt ein (nicht notwendig endliches) System von Vek-
toren eines Vektorraums V eine Basis, wenn es sich um ein Erzeugen-
densystem handelt, welches linear unabhängig ist.

Mit Satz 2 ergibt sich sofort:

Bemerkung 4. Vektoren a1 , . . . , an eines K-Vektorraums V bilden


genau
Pdann eine Basis, wenn gilt: Jedes a ∈ V besitzt eine Darstellung
n
a = i=1 αi ai mit eindeutig bestimmten Koeffizienten α1 , . . . , αn ∈ K.

Fassen wir die bisher betrachteten Beispiele von Erzeugendensys-


temen und linear unabhängigen Systemen zusammen, so ergibt sich:
(1) Das leere System bildet eine Basis des Nullraums über einem
gegebenen Körper K, also des K-Vektorraums V = 0.
√ √ 
(2) Die Elemente 1, 2 bilden eine Basis von Q 2 als Q-Vektor-
raum.
(3) Die Elemente 1, i bilden eine Basis von C als R-Vektorraum.
(4) Für einen Körper K und n ∈ N bilden die Einheitsvektoren
e1 , . . . , en eine Basis des K-Vektorraums K n , die sogenannte kanoni-
sche Basis.
46 1. Vektorräume

Die Kenntnis von Basen in Vektorräumen ist verantwortlich da-


für, dass man etwa Fragen zur linearen Unabhängigkeit von Vektoren
auf das Lösen linearer Gleichungssysteme zurückführen kann. Wir wol-
len dies am Beispiel des K-Vektorraums K n und der Basis e1 , . . . , en
einmal demonstrieren. Gegeben seien Vektoren a1 , . . . , ar ∈ K n , etwa
n
X
aj = (α1j , . . . , αnj ) = αij ei , j = 1, . . . , r.
i=1

Die Frage, ob a1 , . . . , ar linear abhängig sind oder nicht, ist dann äqui-
der Frage, ob es ein nicht-triviales r-Tupel (ξ1 , . . . , ξr ) ∈ K r
valent zuP
gibt mit rj=1 ξj aj = 0, d. h. ob das lineare Gleichungssystem
ξ1 α11 + . . . + ξr α1r = 0
...
ξ1 αn1 + . . . + ξr αnr = 0
eine nicht-triviale Lösung (ξ1 , . . . , ξr ) ∈ K r besitzt. Techniken zur Lö-
sung solcher Gleichungssysteme werden wir im Abschnitt 3.5 kennen-
lernen.
Als Nächstes wollen wir ein technisches Lemma beweisen, welches
insbesondere für die Handhabung und Charakterisierung von Vektor-
raumbasen von großem Nutzen ist.

Lemma 5. Für Vektoren a1 , . . . , an eines K-Vektorraums V ist äqui-


valent:
(i) a1 , . . . , an sind linear abhängig.
(ii) Einer der Vektoren a1 , . . . , an ist eine Linearkombination der
restlichen, d. h. es existiert ein Index p ∈ {1, . . . , n}, so dass der Vektor
ap zu ha1 , . . . , ap−1 , ap+1 , . . . , an i gehört.
(iii) Es existiert ein p ∈ {1, . . . , n} mit
ha1 , . . . , an i = ha1 , . . . , ap−1 , ap+1 , . . . , an i.

Sind die Vektoren a1 , . . . , ar für ein r < n linear unabhängig, so folgen


aus (i) die Bedingungen (ii) und (iii) bereits für ein p ∈ {r + 1, . . . , n}.

Beweis. Wir beginnen mit der Implikation von (i) nach (ii). Seien al-
so a1 , . . . , an linear abhängig. Man wähle dann r ∈ {0, . . . , n} ma-
ximal mit der Eigenschaft, dass das System der Vektoren a1 , . . . , ar
1.5 Linear unabhängige Systeme und Basen 47

linear unabhängig ist; im Falle r = 0 sei hiermit das leere System


gemeint, welches stets linear unabhängig ist. Insbesondere gilt r < n
aufgrund der Voraussetzung in (i), und a1 , .P . . , ar+1 sind linear ab-
r+1
hängig. Es existiert folglich eine Gleichung i=1 αi ai = 0 mit Ko-
effizienten αi ∈ K, die nicht sämtlich verschwinden. Dabei gilt not-
wendigerweise
Pr αr+1 6= 0, denn anderenfalls hätte man die Gleichung
i=1 αi ai = 0, wobei die Koeffizienten nicht sämtlich verschwinden
würden, die a1 , . . . , ar also linear abhängig wären. Die erstere Pr Gleichung
−1
lässt sich daher nach ar+1 auflösen, man erhält ar+1 = − i=1 αr+1 αi ai
und damit ar+1 ∈ ha1 , . . . , ar i, wie in (ii) und der Zusatzaussage be-
hauptet.
Sei nun Bedingung (ii) erfüllt, d. h. es gelte für ein p ∈ {1, . . . , n}
die Beziehung ap ∈ ha1 , . . . , ap−1 , ap+1 , . . . , an i. Man hat dann

a1 , . . . , an ∈ ha1 , . . . , ap−1 , ap+1 , . . . , an i

und somit

(∗) ha1 , . . . , an i ⊂ ha1 , . . . , ap−1 , ap+1 , . . . , an i,

denn ha1 , . . . , an i ist der kleinste lineare Unterraum von V , der die
Vektoren a1 , . . . , an enthält. Da die umgekehrte Inklusion trivialerweise
erfüllt ist, ergibt sich Bedingung (iii).
Der Vollständigkeit halber wollen wir hier auch noch darauf hin-
weisen, dass sich die Inklusion (∗)Pleicht durch direktes Nachrechnen
herleiten lässt. Es gelte etwa ap = i6=p αi ai mit KoeffizientenPn αi ∈ K.
Für jedes b ∈ ha1 , . . . , an i mit einer Darstellung b = i=1 βi ai und
Koeffizienten βi ∈ K ergibt sich dann
X X X
b= βi ai + βp αi ai = (βi + βp αi )ai ,
i6=p i6=p i6=p

also b ∈ ha1 , . . . , ap−1 , ap+1 , . . . , an i, und somit

ha1 , . . . , an i ⊂ ha1 , . . . , ap−1 , ap+1 , . . . , an i.

Sei schließlich Bedingung (iii) gegeben, für ein p ∈ {1, . . . , n} gelte


also
ha1 , . . . , an i = ha1 , . . . , ap−1 , ap+1 , . . . , an i.
48 1. Vektorräume

Dann folgt insbesondere P ap ∈ ha1 , . . . , ap−1 , ap+1 , . . . , an i, und es be-


steht eine Gleichung ap = i6=p αi ai mit P gewissen Koeffizienten αi ∈ K,
die wir auch in der Form (−1)ap + i6=p αi ai = 0 schreiben können.
Somit sind die Vektoren a1 , . . . , an linear abhängig, und es wird klar,
dass die Bedingungen (i), (ii) und (iii) äquivalent sind.
Sind nun die Vektoren a1 , . . . , ar für ein gegebenes r < n linear
unabhängig, a1 , . . . , an aber insgesamt linear abhängig, so gilt, wie wir
gesehen haben, Bedingung (ii) für ein p ∈ {r+1, . . . , n}. Für dieses p ist
dann auch Bedingung (iii) erfüllt, so dass die zusätzliche Behauptung
ebenfalls bewiesen ist. 
Das gerade bewiesene Lemma lässt einige interessante Schlussfol-
gerungen zu.

Satz 6. Jeder endlich erzeugte K-Vektorraum besitzt eine Basis, und


jede solche Basis ist endlich.

Beweis. Es sei a1 , . . . , an ein Erzeugendensystem des betrachteten


K-Vektorraums V , d. h. es gelte V = ha1 , . . . , an i. Indem wir dieses
System verkleinern, können wir a1 , . . . , an als minimales Erzeugenden-
system voraussetzen. Die Äquivalenz der Bedingungen (i) und (iii) in
Lemma 5 zeigt dann, dass die Vektoren a1 , . . . , an linear unabhängig
sind, also eine Basis bilden.
Ist nun (bj )j∈J eine weitere Basis von V , so lässt sich jeder der
Vektoren a1 , . . . , an als Linearkombination von endlich vielen der Vek-
toren bj , j ∈ J, darstellen. Es existiert deshalb eine endliche Teilmenge
J ′ ⊂ J mit
V = ha1 , . . . , an i ⊂ hbj ; j ∈ J ′ i ⊂ V.
Das System (bj )j∈J ′ bildet somit ein Erzeugendensystem von V . Die-
ses ist als Teilsystem von (bj )j∈J sogar linear unabhängig und stellt
deshalb, ebenso wie (bj )j∈J , eine Basis dar. Dann folgt aber notwendig
J = J ′ , und man erkennt J als endlich. 

Satz 7. Es sei V ein K-Vektorraum und a1 , . . . , an ein System von


Vektoren aus V . Dann ist äquivalent:
(i) a1 , . . . , an bilden eine Basis von V .
(ii) a1 , . . . , an ist ein maximales linear unabhängiges System in V .
(iii) a1 , . . . , an ist ein minimales Erzeugendensystem von V .
1.5 Linear unabhängige Systeme und Basen 49

Beweis. Sei zunächst Bedingung (i) als gegeben angenommen, sei also
a1 , . . . , an eine Basis von V . Für beliebiges a ∈ V gilt dann
V = ha1 , . . . , an i = ha, a1 , . . . , an i,
und man schließt aus der Äquivalenz (i) ⇐⇒ (iii) von Lemma 5, dass
das System a, a1 , . . . , an linear abhängig ist. Also ist a1 , . . . , an ein ma-
ximales linear unabhängiges System in V .
Als Nächstes gehen wir von Bedingung (ii) aus, sei also a1 , . . . , an
ein maximales linear unabhängiges System in V . Ist dann a ∈ V be-
liebig, so ist das System a1 , . . . , an , a linear abhängig, und es existiert
eine nicht-triviale Linearkombination mit Koeffizienten aus K
n
X
αa + αi ai = 0,
i=1

welche die Null darstellt. Aus der linearen Unabhängigkeit der Vekto-
ren a1 , . . . , an ergibt sich mittels Lemma 5 (man vergleiche den Beweis
der Implikation (i) =⇒ (ii) in Lemma 5), dass zumindest der Koeffi-
zient α nicht verschwindet. Folglich lässt sich vorstehende Gleichung
nach a auflösen, und man erhält a ∈ ha1 , . . . , an i, d. h. a1 , . . . , an ist
ein Erzeugendensystem von V . Weiter folgt aus der linearen Unab-
hängigkeit der a1 , . . . , an , indem man die Äquivalenz (i) ⇐⇒ (iii) aus
Lemma 5 benutzt, dass a1 , . . . , an ein minimales Erzeugendensystem
von V ist.
Nehmen wir schließlich a1 , . . . , an wie in Bedingung (iii) als mini-
males Erzeugendensystem an, so zeigt die Äquivalenz (i) ⇐⇒ (iii) aus
Lemma 5, dass a1 , . . . , an dann notwendig ein linear unabhängiges Sys-
tem ist, also eine Basis, da es bereits ein Erzeugendensystem ist. 

Satz 8 (Basisergänzungssatz). In einem K-Vektorraum V betrachte


man ein linear unabhängiges System a1 , . . . , ar sowie ein Erzeugenden-
system b1 , . . . , bm . Dann lässt sich das System der ai durch Elemente
des Systems der bj zu einer Basis von V ergänzen, d. h. es existieren
paarweise verschiedene Indizes ι(r + 1), . . . , ι(n) ∈ {1, . . . , m} mit der
Eigenschaft, dass die Vektoren
a1 , . . . , ar , bι(r+1) , . . . , bι(n)
eine Basis von V bilden.
50 1. Vektorräume

Beweis. Für n ≥ r betrachte man paarweise verschiedene Indizes

ι(r + 1), . . . , ι(n) ∈ {1, . . . , m},

so dass

(∗) V = ha1 , . . . , ar , bι(r+1) , . . . , bι(n) i

gilt. Die Gleichung ist für n = r + m erfüllt, wenn man ι(r + j) = j für
j = 1, . . . , m setzt. Man betrachte nun eine Gleichung vom Typ (∗), für
die n ≥ r minimal gewählt sei. Dann ist a1 , . . . , ar , bι(r+1) , . . . , bι(n) ein
linear unabhängiges Erzeugendensystem und stellt somit eine Basis von
V dar, wie wir sogleich sehen werden. Anderenfalls wäre dieses System
nämlich linear abhängig, und man könnte es aufgrund der Äquivalenz
(i) ⇐⇒ (iii) aus Lemma 5 zu einem echt kleineren Erzeugendensystem
verkürzen. Da die Vektoren a1 , . . . , ar jedoch linear unabhängig sind,
ergibt sich mit Lemma 5, dass man einen der Vektoren bι(r+1) , . . . , bι(n)
fortlassen kann, was aber wegen der Minimalität von n ausgeschlossen
ist. Das Erzeugendensystem a1 , . . . , ar , bι(r+1) , . . . , bι(n) ist daher linear
unabhängig und damit eine Basis.
Wir wollen noch auf einen zweiten Beweis eingehen, der den Vorteil
hat, dass er im Hinblick auf nicht-endliche Basen verallgemeinerungs-
fähig ist. Hierzu betrachten wir Indizes

ι(r + 1), . . . , ι(n) ∈ {1, . . . , m},

nunmehr aber mit der Bedingung, dass die Vektoren

a1 , . . . , ar , bι(r+1) , . . . , bι(n)

linear unabhängig sind. Wir dürfen n als maximal gewählt annehmen.


Mit Lemma 5 ergibt sich dann

b1 , . . . , bm ∈ ha1 , . . . , ar , bι(r+1) , . . . , bι(n) i

und folglich

V = hb1 , . . . , bm i ⊂ ha1 , . . . , ar , bι(r+1) , . . . , bι(n) i,

so dass a1 , . . . , ar , bι(r+1) , . . . , bι(n) ein Erzeugendensystem und damit


eine Basis von V bilden. 
1.5 Linear unabhängige Systeme und Basen 51

Theorem 9. In einem K-Vektorraum V mögen gegebene Elemente


a1 , . . . , an eine Basis sowie b1 , . . . , bm ein Erzeugendensystem bilden.
Dann gilt n ≤ m. Weiter ist b1 , . . . , bm genau dann eine Basis, wenn
n = m gilt. Je zwei Basen eines endlich erzeugten K-Vektorraums V
bestehen folglich aus gleichviel Elementen.

Beweis. Aufgrund des Basisergänzungssatzes 8 lässt sich das Sys-


tem a2 , . . . , an durch Elemente des Systems b1 , . . . , bm zu einer Basis
bι(1) , . . . , bι(r1 ) , a2 , . . . , an ergänzen, wobei natürlich r1 ≥ 1 gelten muss;
vgl. Lemma 5. Lässt man bei dieser Basis das Element a2 fort, so kann
man das entstehende System wiederum durch Elemente des Systems
b1 , . . . , bm zu einer Basis von V ergänzen, etwa zu

bι(1) , . . . , bι(r1 ) , bι(r1 +1) , . . . , bι(r1 +r2 ) , a3 , . . . , an .

Fährt man auf diese Weise fort, so gelangt man nach n Schritten
zu einer Basis bι(1) , . . . , bι(r1 +...+rn ) von V , wobei natürlich die Indi-
zes ι(1), . . . , ι(r1 + . . . + rn ) ∈ {1, . . . , m} paarweise verschieden sind.
Es folgt r1 + . . . + rn ≤ m und wegen ri ≥ 1 insbesondere n ≤ m, wie
behauptet.
Ist nun b1 , . . . , bm bereits eine Basis, so kann man die Rolle der
ai und bj vertauschen und erhält auf diese Weise m ≤ n, also insbe-
sondere m = n. Bildet andererseits b1 , . . . , bm mit m = n ein Erzeu-
gendensystem von V , so kann man dieses System zu einem minimalen
Erzeugendensystem von V verkleinern, also zu einer Basis; vgl. Satz 7.
Da wir aber schon wissen, dass Basen in V aus genau n Elementen
bestehen, folgt, dass b1 , . . . , bm notwendig eine Basis von V ist.
Da endlich erzeugte K-Vektorräume gemäß Satz 6 lediglich endli-
che Basen besitzen, ergibt sich insbesondere, dass je zwei Basen eines
solchen Vektorraums aus gleichviel Elementen bestehen. 

Für ein System a1 , . . . , an von Elementen bezeichnet man die na-


türliche Zahl n als die Länge dieses Systems. Gelegentlich werden wir
auch unendlichen Systemen (ai )i∈I , also Systemen mit unendlicher In-
dexmenge I, eine Länge zuordnen, nämlich die Länge ∞. Wir werden
dabei nicht zwischen verschiedenen Graden der Unendlichkeit unter-
scheiden, etwa abzählbar unendlich (z. B. I = N) oder überabzählbar
unendlich (z. B. I = R).
52 1. Vektorräume

Definition 10. Es sei V ein K-Vektorraum. Besitzt dann V eine Basis


endlicher Länge n, so bezeichnet man n als die Dimension von V , in
Zeichen dimK V = n. Gibt es andererseits in V keine Basis endlicher
Länge, also kein endliches maximales linear unabhängiges System, so
sagen wir, die Dimension von V sei unendlich, dimK V = ∞.

Aufgrund von Theorem 9 ist die Dimension eines Vektorraums


wohldefiniert. Der Nullraum V = 0 hat die Dimension 0, jeder K-Vek-
torraum V 6= 0 eine Dimension > 0. Wir wollen noch einige weitere
Eigenschaften der Dimension eines Vektorraums zusammenstellen, die
sich auf einfache Weise aus den bisher gewonnenen Ergebnissen folgern
lassen.

Korollar 11. Es sei V ein K-Vektorraum und n ∈ N. Dann ist äqui-


valent:
(i) dimK V = n.
(ii) Es existiert in V ein linear unabhängiges System von n Vekto-
ren, und jeweils n + 1 Vektoren sind linear abhängig.

Beweis. Sei zunächst Bedingung (i) gegeben. Jede Basis von V bildet
dann ein linear unabhängiges System bestehend ans n Vektoren. Ist
andererseits y1 , . . . , yn+1 ein System von n + 1 Vektoren aus V und
nehmen wir an, dass dieses linear unabhängig ist, so können wir das
System gemäß Satz 8 zu einer Basis von V ergänzen. Man hätte dann
dimK V ≥ n + 1 im Widerspruch zu unserer Voraussetzung. Aus (i)
ergibt sich folglich (ii).
Ist umgekehrt Bedingung (ii) gegeben, so gibt es in V ein maxi-
males linear unabhängiges System bestehend aus n Vektoren. Dieses
bildet eine Basis, und es folgt dimK V = n. 

Korollar 12. Es sei V ein K-Vektorraum und n ∈ N. Dann ist äqui-


valent:
(i) dimK V ≥ n.
(ii) Es existiert in V ein linear unabhängiges System von n Vekto-
ren.
1.5 Linear unabhängige Systeme und Basen 53

Beweis. Bedingung (i) impliziert trivialerweise Bedingung (ii), auch


im Falle unendlicher Dimension, da dann keine endlichen Basen, also
keine endlichen maximalen linear unabhängigen Systeme in V exis-
tieren können. Gehen wir umgekehrt von (ii) aus, so ist nur im Falle
dimK V < ∞ etwas zu zeigen. Jedes linear unabhängige System von
Vektoren a1 , . . . , an ∈ V lässt sich dann gemäß Satz 8 zu einer Basis
von V ergänzen, und es folgt wie gewünscht dimK V ≥ n. 

Korollar 13. Für einen K-Vektorraum V ist äquivalent:


(i) dimK V = ∞.
(ii) Es existiert eine Folge von Vektoren a1 , a2 , . . . ∈ V , so dass für
jedes n ∈ N das System a1 , . . . , an linear unabhängig ist.
(iii) Es existiert eine Folge von Vektoren a1 , a2 , . . . ∈ V , so dass das
System (ai )i∈N linear unabhängig ist.
(iv) Zu jedem n ∈ N gibt es ein linear unabhängiges System, beste-
hend aus n Vektoren von V .

Beweis. Wir gehen aus von Bedingung (i). Sei also dimK V = ∞. Dann
gibt es in V keine endlichen Basen und somit keine endlichen maxi-
malen linear unabhängigen Systeme. Als Konsequenz ist es möglich,
eine Folge von Vektoren a1 , a2 , . . . ∈ V wie in (ii) gewünscht zu kon-
struieren. Weiter folgt aus (ii) unmittelbar Bedingung (iii), da zu jeder
endlichen Teilmenge I ⊂ N ein n ∈ N existiert mit I ⊂ {1, . . . , n}. Die
Implikation (iii) =⇒ (iv) ist trivial, und (iv) =⇒ (i) schließlich ergibt
sich mit Korollar 12. 

Korollar 14. Es sei V ein K-Vektorraum und U ⊂ V ein linearer


Unterraum. Dann gilt:
(i) dimK U ≤ dimK V . Besitzt daher V eine endliche Basis, so
auch U .
(ii) Aus dimK U = dimK V < ∞ folgt bereits U = V .

Beweis. Die erste Behauptung folgt mittels Korollar 12 aus der Tat-
sache, dass ein linear unabhängiges System von Vektoren aus U auch
in V linear unabhängig ist. Die zweite Behauptung gilt, da man in ei-
nem endlich-dimensionalen K-Vektorraum V ein linear unabhängiges
54 1. Vektorräume

System, beispielsweise eine Basis von U , stets zu einer Basis von V


ergänzen kann. 

Wir wollen nun noch einige Beispiele betrachten.


(1) Ist K ein Körper, n ∈ N, so folgt dimK K n = n.
(2) dimR C = 2
√ 
(3) dimQ Q 2 = 2
(4) dimQ R = ∞. Dies zeigt man am einfachsten mit Hilfe eines
Abzählbarkeitsarguments. Jeder endlich-dimensionale Q-Vektorraum
ist, ebenso wie Q, abzählbar, jedoch ist R nicht abzählbar.
(5) Sei K ein Körper, X eine Menge und V = Abb(X, K) der
K-Vektorraum der K-wertigen Funktionen auf X. Besteht X dann aus
n < ∞ Elementen, so gilt dimK V = n, wohingegen man für unendli-
ches X die Gleichung dimK V = ∞ hat. Wir wollen dies im Folgenden
begründen. Für x ∈ X bezeichne fx : X ✲ K diejenige Funktion, die
durch fx (x) = 1 und fx (y) = 0 für y 6= x gegeben ist. Dann ist für je-
weils endlich viele paarweise verschiedene Elemente x1 , . . . , xn ∈ X das
System fx1 , . . . , fxn linear unabhängig in V , denn aus einer Gleichung
P n
i=1 αi fxi = 0 mit Koeffizienten α1 , . . . , αn ∈ K folgt
X
n 
0= αi fxi (xj ) = αj
i=1

für j = 1, . . . , n. Hieraus ergibt sich bereits dimK V = ∞, wenn X


unendlich viele Elemente besitzt. Da wir andererseits für endliches X
jedes f ∈ V in der Form
X
f= f (x)fx
x∈X

schreiben können, ist das System (fx )x∈X in diesem Falle ein Erzeu-
gendensystem und somit eine Basis von V , so dass man dimK V = n
hat, wenn X aus n < ∞ Elementen besteht.
Abschließend soll noch angedeutet werden, wie die Theorie die-
ses Abschnitts aussieht, wenn man sich nicht auf endlich erzeugte
K-Vektorräume beschränkt. Man muss dann auch unendliche Basen
1.5 Linear unabhängige Systeme und Basen 55

zulassen, wie sie in Definition 3 mit eingeschlossen sind. Man prüft


leicht nach, dass die in Satz 2 und Lemma 5 gegebenen Charakteri-
sierungen linearer Abhängigkeit bzw. Unabhängigkeit sinngemäß auch
für beliebige Systeme von Vektoren gelten. Als Folgerung übertragen
sich die Resultate von Bemerkung 4 und Satz 7 auf den Fall nicht
notwendig endlicher Basen.
Etwas problematischer ist der Beweis des Analogons zu Satz 6,
dass nämlich jeder K-Vektorraum V eine Basis oder, in äquivalenter
Sprechweise, ein maximales linear unabhängiges System besitzt. Die
Existenz eines solchen Systems zeigt man am einfachsten mit Hilfe des
sogenannten Zornschen Lemmas, welches dem Gebiet der Mengenlehre
zuzuordnen ist. Das Lemma geht von einer teilweise geordneten Menge
M aus, wobei teilweise geordnet bedeutet, dass zwischen gewissen Ele-
menten von M eine Relation “ ≤ ” besteht, und zwar mit den folgenden
Eigenschaften:

x ≤ x für alle x ∈ M
x ≤ y, y ≤ z =⇒ x ≤ z
x ≤ y, y ≤ x =⇒ x = y

Man nennt eine Teilmenge N ⊂ M streng geordnet, wenn für je zwei


Elemente x, y ∈ N stets x ≤ y oder y ≤ x gilt. Weiter heißt ein
Element z ∈ M eine obere Schranke von N , wenn x ≤ z für alle x ∈ N
gilt. Das Lemma von Zorn lautet nun wie folgt:

Lemma 15 (Zorn). Ist M eine teilweise geordnete Menge und besitzt


jede streng geordnete Teilmenge von M eine obere Schranke in M , so
existiert in M ein maximales Element.4

Dabei heißt ein Element z ∈ M maximal, wenn aus z ≤ x mit


x ∈ M stets x = z folgt. In unserer konkreten Situation definiere man
M als die Menge aller Teilmengen von V , deren Elemente ein linear
unabhängiges System von Vektoren in V bilden. Für zwei solche Men-
gen A, B ⊂ V setze man A ≤ B, falls A ⊂ B gilt. Die Voraussetzungen
des Lemmas von Zorn sind dann für M erfüllt, als obere Schranke einer
4
Man beachte: Die leere Teilmenge in M ist streng geordnet und besitzt daher
aufgrund der Voraussetzung des Lemmas eine obere Schranke in M . Insbesondere
wird auf diese Weise M 6= ∅ gefordert.
56 1. Vektorräume

streng geordneten Teilmenge N ⊂ M dient beispielsweise die Vereini-


gung aller Teilmengen A ∈ N , also
[
A ⊂ V.
A∈N

Man erhält somit aus dem Zornschen Lemma die Existenz eines ma-
ximalen Elementes in V , d. h. eines maximalen linear unabhängigen
Systems von Vektoren in V und damit einer Basis von V , wobei man
Satz 7 benutze.
Wie wir gesehen haben, lässt sich die Existenz maximaler line-
ar unabhängiger Systeme problemlos mit Hilfe des Zornschen Lemmas
beweisen. Ähnliches kann man für minimale Erzeugendensysteme nicht
behaupten, und dies ist der Grund dafür, dass die im Beweis zu Satz 6
benutzte Idee, Basen durch Minimieren von Erzeugendensystemen zu
konstruieren, im Allgemeinfall nicht zum Ziel führt. Auch der Basis-
ergänzungssatz 8 lässt sich mit Hilfe des Zornschen Lemmas auf den
Fall unendlicher Systeme verallgemeinern, wenn man die im Beweis
zu Satz 8 gegebene Argumentation im Sinne maximaler linear unab-
hängiger Systeme mit dem Zornschen Lemma kombiniert. Man kann
sogar die Aussage von Theorem 9, dass nämlich je zwei Basen (ai )i∈I
und (bj )j∈J eines K-Vektorraums V aus “gleichvielen” Elementen beste-
hen, auf unendlich-dimensionale Vektorräume verallgemeinern. Dabei
ist “gleichviel” in dem Sinne zu präzisieren, dass es eine bijektive Ab-
bildung I ✲ J gibt. Man nennt I und J bzw. die Basen (ai )i∈I und
(bj )j∈J dann auch gleichmächtig 5. Die Mächtigkeitsklasse einer solchen
Basis könnten wir als Dimension von V bezeichnen, jedoch wollen wir
im Sinne von Definition 10 nicht zwischen verschiedenen unendlichen
Dimensionen unterscheiden.
Schließlich sei noch angemerkt, dass man in Korollar 14 (ii) nicht
auf die Bedingung dimK V < ∞ verzichten kann. Um dies einzuse-
hen, betrachte man einen K-Vektorraum V von unendlicher Dimension
und ein abzählbar unendliches linear unabhängiges System (ai )i∈N von
Vektoren in V . Dann ist einerseits (a2·i )i∈N gleichmächtig zu (ai )i∈N ,
5
Dass je zwei Basen eines K-Vektorraums gleichmächtig sind, beweist man wie
in [1], Abschnitt 7.1. Die dortige Argumentation im Sinne von Transzendenzbasen
und algebraischer Unabhängigkeit überträgt sich in direkter Weise auf den Fall von
Vektorraumbasen und linearer Unabhängigkeit.
1.5 Linear unabhängige Systeme und Basen 57

andererseits aber ha0 , a2 , a4 , . . .i ein echter linearer Unterraum von


ha0 , a1 , a2 , . . .i.

Aufgaben

1. Man betrachte R3 als R-Vektorraum und überprüfe folgende Systeme


von Vektoren auf lineare Abhängigkeit bzw. lineare Unabhängigkeit:
(i) (1, 0, −1), (1, 2, 1), (0, −3, 2)
(ii) (1, 1, 1), (1, 1, 0), (1, 0, 0)
(iii) (9, 1, 5), (17, 11, 14), (9, 1, 5)
(iv) (1, 2, 3), (4, 5, 6), (6, 9, 12)
(v) (1, 9, 7), (2, 3, 4), (9, 7, 6), (6, 6, 6)
(vi) (1, α, 0), (α, 1, 0), (0, α, 1), wobei α eine reelle Zahl sei.
2. Seien U, U ′ lineare Unterräume eines K-Vektorraums V mit U ∩ U ′ = 0.
Man zeige: Bilden x1 , . . . , xr ∈ U und y1 , . . . , ys ∈ U ′ linear unabhängige
Systeme, so auch die Vektoren x1 , . . . , xr , y1 , . . . , ys in V . (AT 382)
3. Für welche natürlichen Zahlen n ∈ N gibt es in Rn eine unendliche
Folge von Vektoren a1 , a2 , . . . mit der Eigenschaft, dass je zwei Vektoren
dieser Folge linear unabhängig über R sind, also ein linear unabhängiges
System im R-Vektorraum Rn bilden? (AT 383)
4. Man betrachte den R-Vektorraum aller Funktionen ✲ R, die
Pr p : R i
durch polynomiale Ausdrücke der Form p(x) = i=1 αi x mit Koeffi-
zienten αi ∈ R und variablem r ∈ N gegeben sind. Man gebe eine Basis
dieses Vektorraums an. (Hinweis: Man darf benutzen, dass nicht-triviale
reelle Polynome höchstens endlich viele Nullstellen haben.)
5. Es sei x1 , . . . , xn eine Basis eines K-Vektorraums V . Für gegebene
P Ko-
effizienten αij ∈ K, 1 ≤ i < j ≤ n setze man yj = xj + i<j αij xi ,
j = 1, . . . , n, und zeige, dass dann auch y1 , . . . , yn eine Basis von V
bilden.
6. Es sei F ein endlicher Körper mit q Elementen und V ein F-Vektorraum
der Dimension n.
(i) Man bestimme die Anzahl der Elemente von V .
(ii) Man bestimme die Anzahl der Teilmengen in V , deren Elemente
jeweils eine Basis von V bilden.
58 1. Vektorräume

7. Es sei X = X1 ∐ . . . ∐ Xn eine Menge mit einer endlichen Zerle-


gung in nicht-leere paarweise disjunkte Teilmengen. Für einen Körper
K betrachte man den K-Vektorraum V aller K-wertigen Funktionen
X ✲ K, sowie den linearen Unterraum U derjenigen Funktionen, die
auf jedem der Xi konstant sind. Man berechne dimK U .
Welche Dimension erhält man, wenn
S die Xi nicht notwendig paarweise
disjunkt sind und lediglich X = ni=1 Xi gilt?
8. Es sei K ein Körper. Für gegebene Elemente γ1 , . . . , γn ∈ K betrachte
man die Teilmenge
 n
X 
U = (α1 , . . . , αn ) ∈ K n ; αi γi = 0 .
i=1
Man zeige, dass U ein linearer Unterraum von K n ist, und berechne
dimK U . (AT 384)

1.6 Direkte Summen

Zu Vektoren a1 , . . . , ar eines K-Vektorraums V kann man die linearen


Unterräume Kai = hai i, i = 1, . . . , r, betrachten. Bilden die ai ein
Erzeugendensystem
P von V , so lässt sich jedes Element b ∈ V in der
Form b = ri=1 bi schreiben mit Vektoren bi ∈ Kai ; wir werden sagen,
dass V die Summe der linearen Unterräume Kai ist. Bilden a1 , . . . , ar
sogar eine Basis von V , so überlegt man leicht mit 1.5/4, dass in einer
solchen Darstellung die Vektoren bi ∈ Kai eindeutig durch b bestimmt
sind. Wir werden sagen, dass V die direkte Summe der Kai ist. Im
Folgenden sollen Summe und direkte Summe für den Fall beliebiger
linearer Unterräume von V erklärt werden.

Definition 1. Es seien U1 , . . . , Ur lineare Unterräume eines K-Vek-


torraums V . Dann wird die Summe dieser Unterräume erklärt durch
Xr X r 
Ui = bi ; bi ∈ Ui für i = 1, . . . , r .
i=1 i=1
P
Es ist unmittelbar klar, dass ri=1 Ui wieder ein linearer Unter-
raum von V ist, nämlich der von U1 , . . . , Ur erzeugte lineare Unter-
raum hU1 ∪ . . . ∪ Ur i ⊂ V . Insbesondere sieht man, dass die Summe
von linearen Unterräumen in V assoziativ ist.
1.6 Direkte Summen 59

Pr
Satz 2. Für eine Summe U = i=1 Ui von linearen Unterräumen
U1 , . . . , Ur eines K-Vektorraums V sind folgendeP Aussagen äquivalent:
r
(i) Jedes b ∈ U hat eine Darstellung b = i=1 bi mit eindeutig
bestimmten Vektoren bi ∈ Ui , P i = 1, . . . , r.
r
(ii) Aus einer Gleichung i=1 bi = 0 mit Vektoren bi ∈ Ui folgt
bi = 0 für i = 1, . . . , r. P
(iii) Für p = 1, . . . , r gilt Up ∩ i6=p Ui = 0.

Beweis. Bedingung (i) impliziert trivialerweise (ii). Um (iii) aus (ii)


herzuleiten,
P betrachte man einen
P Index p ∈ {1, . . . , r} und einen Vektor
b ∈ UpP∩ i6=p Ui , etwa b = i6=p bi mit Summanden bi ∈ Ui . Dann gilt
−b + i6=pP bi = 0, und es folgt aus (ii) insbesondere b = 0. Somit hat
man Up ∩ i6=p Ui = 0.
Sei nun Bedingung (iii) gegeben, und sei b ∈ V auf zwei Weisen als
Summe von Vektoren bi , b′i ∈ Ui dargestellt, also
r
X r
X
b= bi = b′i .
i=1 i=1
Pr
Dann folgt − b′i ) = 0 und somit
i=1 (bi
X X
bp − b′p = − (bi − b′i ) ∈ Up ∩ Ui = 0, p = 1, . . . , n.
i6=p i6=p

Insbesondere ergibt sich bi = b′i für i = 1, . . . , r, d. h. (i) ist erfüllt. 


P
Definition 3. Es sei U = ri=1 Ui eine Summe von linearen Unter-
räumen U1 , . . . , Ur eines K-Vektorraums
L V . Dann heißt U die direkte
Summe der Ui , in Zeichen U = ri=1 Ui , wenn die äquivalenten Be-
dingungen von Satz 2 erfüllt sind.

SindPr U1 , . . . , Ur lineare Unterräume in V , so wird deren Summe


U = i=1 Ui auch mit U1 + . . . + Ur bezeichnet, und man schreibt
U1 ⊕ . . . ⊕ Ur , falls diese Summe direkt ist. Eine Summe U1 + U2
zweier linearer Unterräume U1 , U2 ⊂ V ist genau dann direkt, wenn
U1 ∩ U2 = 0 gilt. Wie schon angedeutet, ist die Direktheit einer Sum-
me von linearen Unterräumen anzusehen als Verallgemeinerung der
linearen Unabhängigkeit eines Systems von Vektoren. Für Vektoren
a1 , . . . , ar ∈ V ist nämlich
60 1. Vektorräume

r
M
ha1 , . . . , ar i = Kai , ai 6= 0 für i = 1, . . . , r
i=1

äquivalent zur linearen Unabhängigkeit von a1 , . . . , ar .


Eine leichte Variante der gerade definierten direkten Summe stellt
die sogenannte konstruierte direkte Summe dar. Man geht hierbei
von gegebenen K-Vektorräumen V1 , . . . , Vr aus und konstruiert einen
K-Vektorraum V , in dem sich die Vi als lineare Unterräume auffassen
lassen,Lund zwar derart, dass V die direkte Summe der Vi ist, also
r
V = i=1 Vi im Sinne von Definition 3 Q gilt. Dabei wird V als das
kartesische Produkt der Vi definiert, V = ri=1 Vi , und man fasst die-
ses Produkt als K-Vektorraum mit komponentenweiser Addition und
skalarer Multiplikation auf. In V bilden dann die Teilmengen

Vi′ = (v1 , . . . , vr ) ∈ V ; vj = 0 für j 6= i , i = 1, . . . , r,
lineare Unterräume, und man stellt unschwer fest, dass V die direkte
Summe der Vi′ ist. Da die natürliche Abbildung
(
✲ V ′,
v für j = i
ιi : V i i v ✲ (v1 , . . . , vr ) mit vj = ,
0 für j 6= i

für i = 1, . . . , r jeweils bijektiv ist und zudem die Vektorraumstruk-


turen auf Vi und Vi′ respektiert, können wir jeweils Vi mit Vi′ unter ιi
identifizieren und auf diese Weise V als direkte L Summe der linearen
Unterräume V1 , . . . , Vr auffassen, in Zeichen V = ri=1 Vi . Wir nennen
V die konstruierte direkte Summe der Vi . Hierbei ist jedoch ein wenig
Vorsicht geboten. Ist beispielsweise ein K-Vektorraum V die (nicht not-
wendig direkte)P Summe gewisser linearer Unterräume U1 , . . . , Ur ⊂ V ,
r
gilt also
Lr V = i=1 Ui , so kann man zusätzlich die direkte Summe
U = i=1 Ui konstruieren. Mit Hilfe der nachfolgenden Dimensions-
formeln kann man dann dimK U ≥ dimK V zeigen, wobei Gleichheit
nur dann gilt, wenn V bereits die direkte Summe der Ui ist. Im Allge-
meinen wird daher U wesentlich verschieden von V sein.

Satz 4. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unter-


raum. Dann existiert ein linearer Unterraum U ′ ⊂ V mit V = U ⊕ U ′ .
Für jedes solche U ′ gilt
dimK V = dimK U + dimK U ′ .
1.6 Direkte Summen 61

Man nennt U ′ in dieser Situation ein Komplement zu U . Kom-


plemente von linearen Unterräumen sind abgesehen von den trivialen
Fällen U = 0 und U = V nicht eindeutig bestimmt.

Beweis zu Satz 4. Ist V von endlicher Dimension, so wähle man eine


Basis a1 , . . . , ar von U und ergänze diese durch Vektoren ar+1 , . . . , an
gemäß 1.5/8 zu einer Basis von V . Dann gilt
n
M r
M
V = Kai , U= Kai ,
i=1 i=1
Ln
und es ergibt sich V = U ⊕ U ′ mit U ′ = i=r+1 Kai .
Ist V nicht notwendig von endlicher Dimension, so können wir im
Prinzip genauso schließen, indem wir nicht-endliche Basen zulassen
und die Ausführungen am Schluss von Abschnitt 1.5 beachten. Wir
können dann eine Basis (ai )i∈I von U wählen und diese mittels des
Basisergänzungssatzes durch ein System (a′j )j∈J von Vektoren zu einer
Basis von V ergänzen. Es folgt V = U ⊕ U ′ mit U ′ = h(a′j )j∈J i.
Zum Beweis der Dimensionsformel betrachte man ein Komplement
U zu U . Sind U und U ′ von endlicher Dimension, so wähle man eine

Basis b1 , . . . , br von U bzw. br+1 , . . . , bn von U ′ . Dann bilden b1 , . . . , bn


eine Basis von V , und es folgt

dimK V = n = r + (n − r) = dimK U + dimK U ′ ,

wie gewünscht. Ist mindestens einer der beiden Räume U und U ′ von
unendlicher Dimension, so gilt dies erst recht für V , und die Dimen-
sionsformel ist trivialerweise erfüllt. 

Als Anwendung wollen wir noch eine Dimensionsformel für Unter-


vektorräume beweisen.

Satz 5. Es seien U , U ′ lineare Unterräume eines K-Vektorraums V .


Dann gilt

dimK U + dimK U ′ = dimK (U + U ′ ) + dimK (U ∩ U ′ ).

Beweis. Zunächst seien U und U ′ von endlicher Dimension. Dann ist


U + U ′ endlich erzeugt und damit nach 1.5/6 ebenfalls von endlicher
62 1. Vektorräume

Dimension. Man wähle nun gemäß Satz 4 ein Komplement W von


U ∩ U ′ in U , sowie ein Komplement W ′ von U ∩ U ′ in U ′ , also mit

U = (U ∩ U ′ ) ⊕ W, U ′ = (U ∩ U ′ ) ⊕ W ′ .

Dann gilt
U + U ′ = (U ∩ U ′ ) + W + W ′ ,
und wir behaupten, dass diese Summe direkt ist. In der Tat, hat man
a + b + b′ = 0 für gewisse Elemente a ∈ U ∩ U ′ , b ∈ W , b′ ∈ W ′ , so
ergibt sich
b = −(a + b′ ) ∈ (U ∩ U ′ ) + W ′ = U ′
und wegen b ∈ W ⊂ U sogar

b ∈ (U ∩ U ′ ) ∩ W = 0,

da U die direkte Summe der linearen Unterräume U ∩ U ′ und W ist.


Man erhält also b = 0 und auf entsprechende Weise auch b′ = 0.
Damit folgt aber auch a = 0, was bedeutet, dass U + U ′ die direkte
Summe der linearen Unterräume U ∩U ′ , W und W ′ ist. Die behauptete
Dimensionsformel ergibt sich dann mittels Satz 4 aus der Rechnung

dim(U + U ′ )
= dim(U ∩ U ′ ) + dim W + dim W ′
 
= dim(U ∩ U ′ ) + dim W + dim(U ∩ U ′ ) + dim W ′ − dim(U ∩ U ′ )
= dim U + dim U ′ − dim(U ∩ U ′ ).

Abschließend ist noch der Fall zu betrachten, wo (mindestens) einer


der linearen Unterräume U, U ′ nicht von endlicher Dimension ist. Gilt
etwa dimK U = ∞, so folgt hieraus insbesondere dimK (U + U ′ ) = ∞,
und wir haben dimK U +dimK U ′ wie auch dimK (U +U ′ )+dimK (U ∩U ′ )
als ∞ zu interpretieren. Die behauptete Dimensionsformel ist also auch
in diesem Fall gültig. 

Korollar 6. Es seien U , U ′ endlich-dimensionale lineare Unterräume


eines K-Vektorraums V . Dann ist äquivalent:
(i) U + U ′ = U ⊕ U ′ .
(ii) dimK (U + U ′ ) = dimK U + dimK U ′ .
1.6 Direkte Summen 63

Beweis. Aufgrund von Satz 5 ist (ii) äquivalent zu dimK (U ∩ U ′ ) = 0,


also zu U ∩ U ′ = 0 und damit zu Bedingung (i). 

Aufgaben
1. Man bestimme Komplemente zu folgenden linearen Unterräumen des
R3 bzw. R4 :
(i) U = (1, 2, 3), (−2, 3, 1), (4, 1, 5)

(ii) U = (x1 , x2 , x3 , x4 ) ∈ R4 ; 3x1 − 2x2 + x3 + 2x4 = 0
P
2. Man betrachte eine Zerlegung V = ni=1 Ui eines endlich-dimensionalen
K-Vektorraums V in Untervektorräume Ui ⊂ V und zeige, P dass die
Summe der Ui genau dann direkt ist, wenn dimK V = ni=1 dimK Ui
gilt.
Ln
3. Man betrachte eine direkte Summenzerlegung V = i=1 Ui eines
K-Vektorraums V in lineare Unterräume Ui ⊂ V , sowie für jedes
i = 1, . . . , n eine Familie (xij )j∈Ji von Elementen xij ∈ Ui . Man zei-
ge:
(i) Die Elemente xij , i = 1, . . . , n, j ∈ Ji , bilden genau dann ein Er-
zeugendensystem von V , wenn für jedes i = 1, . . . , n die Elemente
xij , j ∈ Ji , ein Erzeugendensystem von Ui bilden.
(ii) Die Elemente xij , i = 1, . . . , n, j ∈ Ji , sind genau dann linear
unabhängig in V , wenn für jedes i = 1, . . . , n die Elemente xij ,
j ∈ Ji , linear unabhängig in Ui sind.
(iii) Die Elemente xij , i = 1, . . . , n, j ∈ Ji , bilden genau dann eine
Basis von V , wenn für jedes i = 1, . . . , n die Elemente xij , j ∈ Ji ,
eine Basis von Ui bilden.
4. Es seien U1 , U2 , U3 lineare Unterräume eines K-Vektorraums V . Man
zeige (AT 387):
dimK U1 + dimK U2 + dimK U3

= dimK (U1 + U2 + U3 ) + dimK (U1 + U2 ) ∩ U3 + dimK (U1 ∩ U2 )

5. Es sei U1 ⊂ U2 ⊂ . . . ⊂ Un eine Folge linearer Unterräume eines


K-Vektorraums V mit dimK V < ∞. Man zeige, dass es jeweils ein
Komplement Ui′ zu Ui gibt, i = 1, . . . , n, mit U1′ ⊃ U2′ ⊃ . . . ⊃ Un′ .
6. Es sei U ein linearer Unterraum eines endlich-dimensionalen K-Vektor-
raums V . Unter welcher Dimensionsbedingung gibt es lineare Unterräu-
me U1 , U2 in V mit U ( Ui ( V , i = 1, 2, und U = U1 ∩ U2 ?
64 1. Vektorräume

7. Es seien U, U ′ zwei lineare Unterräume eines endlich-dimensionalen


K-Vektorraums V . Unter welcher Dimensionsbedingung besitzen U und
U ′ ein gemeinsames Komplement in V ?
8. Es sei U ein linearer Unterraum eines endlich-dimensionalen K-Vektor-
raums V . Unter welcher DimensionsbedingungPkann manL Komplemen-
r r
te U1 , . . . , Ur zu U in V finden, derart dass i=1 Ui = i=1 Ui gilt?
(AT 388)
2. Lineare Abbildungen

Überblick und Hintergrund

In Kapitel 1 haben wir Vektorräume über einem Körper K als Mengen


eingeführt, die mit einer gewissen Struktur ausgestattet sind, nämlich
einer Addition und einer skalaren Multiplikation mit Elementen aus K,
wobei die Gültigkeit gewisser Axiome (Rechenregeln) gefordert wird.
Unberührt blieb dabei zunächst die Frage, wann zwei K-Vektorräume
V und V ′ als “gleich” oder “im Wesentlichen gleich” anzusehen sind.
Es gibt eine natürliche Methode, um dies festzustellen: Man versuche,
die Elemente von V mittels einer bijektiven Abbildung f : V ✲ V′

mit denjenigen von V zu identifizieren, und zwar in der Weise, dass
dabei die Addition und die skalare Multiplikation von V und V ′ in
Übereinstimmung gebracht werden. Für die Abbildung f erfordert dies
die Gleichungen

f (a + b) = f (a) + f (b), f (αa) = αf (a),

für alle a, b ∈ V und alle α ∈ K. Lässt sich eine solche bijektive Ab-
bildung f finden, so kann man die Vektorräume V und V ′ als “im
Wesentlichen gleich” ansehen, und man nennt f in diesem Falle einen
Isomorphismus zwischen V und V ′ . Allgemeiner betrachtet man auch
nicht notwendig bijektive Abbildungen f : V ✲ V ′ mit den oben
genannten Verträglichkeitseigenschaften und bezeichnet diese als Ho-
momorphismen oder lineare Abbildungen von V nach V ′ . Die Untersu-
chung von Abbildungen dieses Typs ist das zentrale Thema des vorlie-
genden Kapitels.
Im Rahmen der Einführung zu Kapitel 1 hatten wir erläutert, wie
man R2 , die Menge aller Paare reeller Zahlen, als Modell einer gege-

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0_2
66 2. Lineare Abbildungen

benen anschaulichen Ebene E auffassen kann, und zwar indem man


in E ein Koordinatensystem auszeichnet. Wir wollen hier noch etwas
genauer untersuchen, in welcher Weise dieses Modell von der Wahl des
Koordinatensystems abhängt, wobei wir R2 unter der komponentenwei-
sen Addition und skalaren Multiplikation als R-Vektorraum auffassen.
Wir wählen also einen Nullpunkt 0 ∈ E und ein Koordinatensystem in
0 mit den Achsen x und y; in den nachfolgenden Skizzen ist dieses Sys-
tem der besseren Übersicht halber als rechtwinkliges Koordinatensys-
tem gezeichnet, was aber keinesfalls erforderlich ist. Indem wir einem
Punkt P ∈ E das Paar (x1 , y1 ) ∈ R2 bestehend aus den Koordinaten
von P bezüglich x und y zuordnen, erhalten wir eine bijektive Abbil-
dung ϕ : E ✲ R2 , welche wir in der Einführung zu Kapitel 1 jeweils
als Identifizierung angesehen hatten. Für ein zweites Koordinatensys-
tem in 0 mit den Koordinatenachsen u und v ergibt sich entsprechend
eine bijektive Abbildung ψ : E ✲ R2 , was mittels folgender Skizze
verdeutlicht werden möge:
y
✻ ϕ
✲ (x1 , y1 )
y1 ❜P ψ
✲ (u1 , v1 )
v


v1 u1 u


x1 x

Der Übergang vom ersten zum zweiten Modell wird somit durch
die Abbildung
f = ψ ◦ ϕ−1 : R2 ✲ R2

beschrieben, und wir wollen plausibel machen, dass es sich hierbei um


einen Isomorphismus von R-Vektorräumen in dem oben beschriebe-
nen Sinne handelt. Zunächst einmal ist die Abbildung f bijektiv, da
ϕ und ψ beide bijektiv sind. Es bleibt also lediglich noch zu zeigen,
dass f mit der Vektorraumstruktur von R2 verträglich ist. Wir be-
trachten daher ein Paar (x1 , y1 ) ∈ R2 , den zugehörigen Punkt P ∈ E
mit ϕ(P ) = (x1 , y1 ), sowie das Paar (u1 , v1 ) := ψ(P ). Folglich besitzt
P die Koordinaten x1 , y1 bezüglich der Achsen x, y und entsprechend
die Koordinaten u1 , v1 bezüglich u, v. Nach Konstruktion gilt dann
Überblick und Hintergrund 67

f (x1 , y1 ) = (u1 , v1 ), und es ergibt sich für Skalare α ∈ R folgendes


Bild:
y

αy1 ❜ αP

v y1

❜P

αu1 u
αv1
v1 u1


x1 αx1 x
Dabei sei αP ∈ E derjenige Punkt, der aus P durch Streckung mit
Zentrum 0 und Faktor α entsteht. Mittels des Strahlensatzes folgt
dann, dass die Koordinaten von αP bezüglich der Achsen x, y bzw.
u, v ebenfalls durch Streckung mit Faktor α aus den entsprechenden
Koordinaten von P hervorgehen. Dies bedeutet
ϕ(αP ) = (αx1 , αy1 ) = α(x1 , y1 ), ψ(αP ) = (αu1 , αv1 ) = α(u1 , v1 ),
und damit
  
f α(x1 , y1 ) = ψ ϕ−1 α(x1 , y1 ) = ψ(αP ) = α(u1 , v1 ) = αf (x1 , y1 ) ,
d. h. f ist verträglich mit der skalaren Multiplikation von R2 .
Um auch die Verträglichkeit mit der Addition nachzuweisen, be-
trachten wir zunächst folgende Skizze:
P1 ❜+ P2
✧✧
✧ ❇❇

✧ ❇

✧ ❇
✧ ❇

✧ ❇ ∆


v
✲ P2 ✧ ✧
❇❜
✧ ✲

❇ ✧ P1
❇ ✧ u
❇ ✧ u1 + u2
✧ u1
❇ ✧
❇ ✧

❇ ∆✧

❇✧ u2
68 2. Lineare Abbildungen

Der Übersichtlichkeit halber haben wir uns hier auf ein einziges (schief-
winkliges) Koordinatensystem mit den Achsen u und v beschränkt.
Ausgehend von den Punkten P1 , P2 ∈ E sei der Punkt P1 + P2 mit-
tels der üblichen Parallelogrammkonstruktion definiert. Die Dreiecke ∆
und ∆′ , die jeweils die gestrichelten Strecken enthalten, erkennt man
dann als kongruent, und es folgt, dass sich die u-Koordinate von P1 +P2
als Summe der u-Koordinaten von P1 und P2 ergibt. Entsprechendes
gilt für die v-Koordinaten und in gleicher Weise für die Koordinaten
bezüglich anderer Koordinatensysteme.
Gehen wir nun von zwei Punkten (x1 , y1 ), (x2 , y2 ) ∈ R2 aus und
betrachten die zugehörigen Punkte P1 , P2 ∈ E mit ϕ(Pi ) = (xi , yi )
für i = 1, 2, so ergibt sich mit ψ(Pi ) = (ui , vi ) aufgrund vorstehender
Beobachtung

ϕ(P1 + P2 ) = (x1 + x2 , y1 + y2 ) = (x1 , y1 ) + (x2 , y2 ),


ψ(P1 + P2 ) = (u1 + u2 , v1 + v2 ) = (u1 , v1 ) + (u2 , v2 ).

Die gewünschte Verträglichkeit von f mit der Addition auf R2 folgt


dann aus der Gleichung
 
f (x1 , y1 ) + (x2 , y2 ) = ψ ϕ−1 (x1 , y1 ) + (x2 , y2 ) = ψ(P1 + P2 )
 
= (u1 , v1 ) + (u2 , v2 ) = f (x1 , y1 ) + f (x2 , y2 ) ,

und man erkennt f : R2 ✲ R2 , wie behauptet, als Isomorphismus


von R-Vektorräumen.
Die vorstehende Überlegung hat eine wichtige Konsequenz. Zeich-
net man in der Ebene E einen Punkt 0 als Nullpunkt aus, so lässt sich
E auf ganz natürliche Weise mit der Struktur eines R-Vektorraums ver-
sehen. Man wähle nämlich ein Koordinatensystem in 0 und fasse die
zugehörige Bijektion ϕ : E ✲ R2 , welche einem Punkt P ∈ E die zu-
gehörigen Koordinaten zuordnet, als Identifizierung auf. Die so von R2
auf E übertragene Vektorraumstruktur ist unabhängig von der Wahl
des Koordinatensystems von E in 0. In der Tat, ist ψ : E ✲ R2
eine Bijektion, die zu einem weiteren Koordinatensystem von E in
0 korrespondiert, so haben wir gerade gezeigt, dass die Komposition
ψ ◦ ϕ−1 : R2 ✲ R2 ein Isomorphismus ist. Dies besagt aber, dass
die mittels ϕ von R2 auf E übertragene Addition und skalare Multi-
plikation jeweils mit derjenigen übereinstimmt, die mittels ψ von R2
Überblick und Hintergrund 69

auf E übertragen werden kann. Wir können daher mit gutem Recht
sagen, dass eine punktierte Ebene, also eine Ebene mit einem als Null-
punkt ausgezeichneten Punkt 0, auf natürliche Weise die Struktur ei-
nes R-Vektorraums besitzt und dass dieser Vektorraum im Grunde
genommen nichts anderes als das wohlbekannte Modell R2 ist, ge-
nauer, dass E als R-Vektorraum zu R2 isomorph ist. Entsprechendes
gilt natürlich auch für eine Gerade und R1 als Modell, sowie für den
drei-dimensionalen anschaulichen Raum und R3 als Modell. Es ist all-
gemeiner auch möglich, die Abhängigkeit der Modelle von der Wahl
des Nullpunktes zu vermeiden. Anstelle linearer Abbildungen hat man
dann sogenannte affine Abbildungen zu betrachten, die sich als Kom-
position linearer Abbildungen mit Translationen darstellen.
Beispiele für Isomorphismen f : R2 ✲ R2 gibt es zur Genüge,
etwa die Streckung

f : R2 ✲ R2 , (x1 , y1 ) ✲ (α1 x1 , β1 y1 ),

mit fest vorgegebenen Konstanten α1 , β1 ∈ R∗ , die Drehung um 0 ∈ R2


mit einem gewissen Winkel ϑ
y

f (P )

.......
.......
......
.....
....
.....
....
....
....
....
...
...
...
...
...
...
....... ...

P
.... ..
.... ..
ϑ
...
... ❜
..


...
..

x
oder die Spiegelung an einer Geraden G, die den Nullpunkt 0 ∈ R
enthält:
y

❜ f (P ) G

❜P

x
70 2. Lineare Abbildungen

Ein einfaches Beispiel einer linearen Abbildung, die nicht bijektiv


und damit kein Isomorphismus ist, stellt die sogenannte Projektion

f : R2 ✲ R, (x1 , y1 ) ✲ x1 ,

dar. Diese Abbildung beschreibt sich in der Tat als (Parallel-) Projek-
tion auf die x-Achse, indem man einen Punkt P ∈ R2 auf den Schnitt-
punkt der x-Achse mit der Parallelen zur y-Achse durch P abbildet:
y

❜P

❜❄ ✲
f (P ) x
Man kann auch parallel zu einer anderen Achse v projizieren, etwa in
der folgenden Weise:
y

v
✲ ❜P

❜✛ ✲
f (P ) x
Im Prinzip erhält man hier keine wesentlich andere lineare Abbildung,
denn diese wird bezüglich der Koordinatenachsen x, v wiederum durch

f : R2 ✲ R, (x1 , v1 ) ✲ x1 ,

beschrieben. Ähnliche Beispiele für Isomorphismen oder, allgemeiner,


lineare Abbildungen, lassen sich auch für höher-dimensionale Vektor-
räume Rn angeben.
Im vorliegenden Kapitel wollen wir zunächst einmal einige all-
gemeine Eigenschaften linearer Abbildungen untersuchen, wobei wir
wiederum Vektorräume über einem beliebigen Körper K betrachten.
Überblick und Hintergrund 71

Zum Beispiel werden wir sehen, dass die Dimension des Bildes V ′ ei-
ner surjektiven linearen Abbildung f : V ✲ V ′ , man spricht hier
vom Rang von f , höchstens gleich der Dimension von V sein kann. So-
mit ist die Existenz beispielsweise einer surjektiven linearen Abbildung
R2 ✲ R3 ausgeschlossen. Allgemeiner werden Phänomene dieser Art
durch die sogenannte Dimensionsformel für lineare Abbildungen gere-
gelt. Auch wird sich zeigen, dass eine lineare Abbildung f : V ✲ V′

bereits eindeutig durch die Bilder f (xi ) ∈ V einer vorgegebenen Basis
(xi )i∈I von V festgelegt ist, ja dass man sogar eine lineare Abbildung
f: V ✲ V ′ eindeutig definieren kann, indem man lediglich die Bilder
f (xi ) in V ′ (in beliebiger Weise) vorgibt. Diese Eigenschaft ist wichtig
für die Beschreibung linearer Abbildungen mittels Matrizen (das sind
rechteckige Koeffizientenschemata mit Einträgen aus dem Grundkör-
per K) und damit für die rechnerische Handhabung linearer Abbildun-
gen. Eine tiefergehende Betrachtung von Matrizen wird allerdings erst
in Kapitel 3 erfolgen.
Ein weiteres Problem, das wir in diesem Kapitel lösen werden, be-
schäftigt sich mit der Konstruktion linearer Abbildungen mit bestimm-
ten vorgegebenen Eigenschaften. Für eine Abbildung f : V ✲ V′
bezeichnet man die Urbilder f −1 (a′ ) ⊂ V zu Elementen a′ ∈ V ′ als
die Fasern von f . Natürlich ist eine Faser f −1 (a′ ) genau dann nicht
leer, wenn a′ zum Bild von f gehört. Die nicht-leeren Fasern von f
werden daher (eventuell in mehrfacher Aufzählung) durch die Men-
gen f −1 (f (a)) beschrieben, wobei a in V variiere. Für eine lineare
Abbildung f : V ✲ V ′ gilt stets f (0) = 0′ , wenn 0 und 0′ die
Nullvektoren in V und V ′ bezeichnen. Insbesondere enthält die Fa-
ser f −1 (0′ ) = f −1 (f (0)) stets den Nullvektor 0 ∈ V . Genauer sieht
man leicht ein, dass f −1 (0′ ) sogar einen linearen Unterraum U ⊂ V
bildet, den sogenannten Kern von f , der mit ker f bezeichnet wird.
Weiter zeigt man

f −1 f (a) = a + U = {a + u ; u ∈ U }
für a ∈ V . Man erhält daher alle nicht-leeren Fasern von f , indem man
den linearen Unterraum U = ker f mit allen Vektoren a ∈ V parallel
verschiebt, wobei man jeden solchen parallel verschobenen Unterraum
A = a + U als einen zu U gehörigen affinen Unterraum von V be-
zeichnet. Im Falle V = R2 und für eine Gerade U ⊂ R2 ergibt sich
beispielsweise folgendes Bild:
72 2. Lineare Abbildungen

y


a


x
U a+U

Umgekehrt werden wir zu einem linearen Unterraum U ⊂ V die Menge


V /U aller zu U gehörigen affinen Unterräume betrachten und diese
auf natürliche Weise zu einem K-Vektorraum machen, indem wir für
a, b ∈ V und α ∈ K

(a + U ) + (b + U ) := (a + b) + U, α(a + U ) := αa + U

setzen. Dass man auf diese Weise tatsächlich einen Vektorraum erhält,
den sogenannten Quotienten- oder Restklassenvektorraum V /U , bedarf
einiger Verifizierungen, die wir im Einzelnen durchführen werden. Ins-
besondere werden wir sehen, dass dann die kanonische Abbildung

π: V ✲ V /U, a ✲ a + U,

eine lineare Abbildung mit ker π = U ergibt, deren Fasern also gerade
die zu U gehörigen affinen Unterräume von V sind. Die Abbildung π
erfüllt eine wichtige, sogenannte universelle Eigenschaft, die wie folgt
lautet: Ist f : V ✲ V ′ eine lineare Abbildung mit einem Kern, der
U = ker π ⊂ ker f erfüllt, so zerlegt sich f in eine Komposition
π f
f: V ✲ V /U ✲ V′

mit einer eindeutig bestimmten linearen Abbildung f : V /U ✲ V ′;


dies ist im Wesentlichen die Aussage des Homomorphiesatzes für linea-
re Abbildungen.
Die Definition eines Vektorraums als Menge mit einer Addition
und skalaren Multiplikation macht keinerlei Vorschriften über die Art
der Elemente dieser Menge. Wir nutzen dies insbesondere bei der De-
finition des Restklassenvektorraums V /U aus, dessen Elemente affine
2.1 Grundbegriffe 73

Unterräume von V und damit Teilmengen von V sind. Ein weiteres


Beispiel eines Vektorraums, der zu einem gegebenen K-Vektorraum V
konstruiert werden kann, ist der Dualraum V ∗ . Seine Elemente sind
lineare Abbildungen, und zwar die linearen Abbildungen V ✲ K.
Zwischen V und V ∗ bestehen enge symmetrische Beziehungen; man
spricht von einer Dualität zwischen V und V ∗ , daher auch der Name
Dualraum. Beispielsweise lässt sich V im Falle endlicher Dimension
selbst wieder als Dualraum von V ∗ interpretieren. Mit dem Dualraum
eines Vektorraums V decken wir in einem gewissen Sinne die linearen
Eigenschaften von V auf einem höheren Niveau auf. Die zu bewei-
senden Ergebnisse werden es uns in gewissen Fällen ermöglichen, an-
sonsten erforderliche konventionelle Rechnungen durch konzeptionelle
Argumente zu ersetzen.

2.1 Grundbegriffe

Zu Vektoren a1 , . . . , an eines K-Vektorraums V kann man stets die


Abbildung
n
X
f: K n ✲ V, (α1 , . . . , αn ) ✲ αi ai ,
i=1

betrachten. Die Einheitsvektoren ei = (δ1i , . . . , δni ) ∈ K n , i = 1, . . . , n,


welche die kanonische Basis von K n bilden, genügen dann den Glei-
chungen f (ei ) = ai , und wir können in äquivalenter Weise sagen, dass
f durch die Vorschrift
X n  X n
f αi ei = αi ai
i=1 i=1

beschrieben wird. Bilden nun die Vektoren a1 , . . . , an sogar eine Basis


von V , so hat
Pn jedes Element a ∈ V eine eindeutig bestimmte Darstel-
lung a = i=1 αi ai mit Koeffizienten αi ∈ K, und man sieht, dass
die Abbildung f in diesem Falle bijektiv ist. Weiter ist f verträglich
mit den Vektorraumstrukturen auf K n und V , denn es gilt offenbar
f (a + b) = f (a) + f (b) für a, b ∈ K n sowie f (αa) = αf (a) für α ∈ K,
a ∈ K n . Folglich können wir V als K-Vektorraum nach Auswahl der
74 2. Lineare Abbildungen

Basis a1 , . . . , an mit K n identifizieren, und zwar unter Verwendung


der Abbildung f . Dies zeigt insbesondere, dass Abbildungen zwischen
Vektorräumen, welche die Vektorraumstrukturen respektieren, von In-
teresse sind.

Definition 1. Eine Abbildung f : V ✲ V ′ zwischen K-Vektorräumen


V, V ′ heißt K-Homomorphismus oder K-lineare Abbildung, falls gilt:
(i) f (a + b) = f (a) + f (b) für a, b ∈ V .
(ii) f (αa) = αf (a) für α ∈ K, a ∈ V .

Die Bedingungen (i) und (ii) lassen sich zusammenfassen, indem


man für α, β ∈ K, a, b ∈ V in äquivalenter Weise fordert:
f (αa + βb) = αf (a) + βf (b)
Als einfache Rechenregeln prüft man leicht nach:
f (0) = 0
f (−a) = −f (a) für a ∈ V

Im Übrigen ist die Komposition linearer Abbildungen wieder linear.


Wir wollen einige einfache Beispiele linearer Abbildungen anschauen.
(1) Die Abbildung C ✲ C, z ✲ z = Re(z) − iIm(z), ist
R-linear, nicht aber C-linear.
(2) Für einen K-Vektorraum V bildet die identische Abbildung
id : V ✲ V, a ✲ a, stets eine K-lineare Abbildung, ebenso die
Nullabbildung 0 : V ✲ 0, welche jedes Element a ∈ V auf 0 abbildet.
Weiter ist für einen linearen Unterraum U ⊂ V die Inklusionsabbildung
U ⊂ ✲ V ein Beispiel einer K-linearen Abbildung.
(3) Es sei K ein Körper. Zu m, n ∈ N betrachte man ein System
 
λ11 . . . λ1n
(λij )i=1,...,m =  . . . . . 
j=1,...,n
λm1 . . . λmn
von Elementen aus K; man spricht von einer Matrix. Dann wird durch
X
n n
X 
K n ✲K ,m
(α1 , . . . , αn ) ✲ λ1j αj , . . . , λmj αj ,
j=1 j=1
2.1 Grundbegriffe 75

eine K-lineare Abbildung gegeben. Wir werden sogar im Weiteren se-


hen, dass jede lineare Abbildung K n ✲ K m von dieser Gestalt ist,
also durch eine Matrix von Elementen aus K beschrieben werden kann.
Allerdings werden wir dann Vektoren in K n bzw. K m in konsequenter
Weise als Spaltenvektoren und nicht mehr wie bisher als Zeilenvektoren
schreiben, da dies besser mit dem dann einzuführenden Matrizenpro-
dukt harmoniert.
Man nennt eine K-lineare Abbildung f : V ✲ V ′ zwischen Vek-
torräumen einen Monomorphismus, falls f injektiv ist, einen Epimor-
phismus, falls f surjektiv ist, und einen Isomorphismus, falls f bijektiv
ist.

Bemerkung 2. Ist f : V ✲ V ′ ein Isomorphismus zwischen K-Vek-


torräumen, so existiert die Umkehrabbildung f −1 : V ′ ✲ V , und diese
ist K-linear, also wiederum ein Isomorphismus.

Beweis. Es ist nur die K-Linearität der Umkehrabbildung f −1 zu zei-


gen. Seien also a′ , b′ ∈ V ′ gegeben. Für a = f −1 (a′ ) und b = f −1 (b′ ) hat
man dann a′ = f (a) und b′ = f (b), sowie a′ + b′ = f (a + b) aufgrund
der Linearität von f . Folglich gilt
f −1 (a′ + b′ ) = a + b = f −1 (a′ ) + f −1 (b′ ).
Für α ∈ K gilt weiter αa′ = f (αa) und daher
f −1 (αa′ ) = αa = αf −1 (a′ ),
d. h. f −1 ist K-linear. 

Isomorphismen schreiben wir häufig in der Form V ∼✲ V ′ . Im


Falle V = V ′ bezeichnet man eine K-lineare Abbildung f : V ✲V
auch als einen Endomorphismus von V , und man versteht unter einem
Automorphismus von V einen bijektiven Endomorphismus.

Bemerkung 3. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwi-


schen Vektorräumen. Dann sind

ker f = f −1 (0) = a ∈ V ; f (a) = 0 und

im f = f (V ) = f (a) ; a ∈ V
76 2. Lineare Abbildungen

lineare Unterräume von V bzw. V ′ . Diese werden als Kern bzw. Bild
von f bezeichnet.

Der Beweis ist einfach zu führen. Für a, b ∈ ker f hat man

f (a + b) = f (a) + f (b) = 0 + 0 = 0,

also a + b ∈ ker f . Weiter gilt f (αa) = αf (a) = α0 = 0 und damit


αa ∈ ker f für α ∈ K und a ∈ ker f . Da ker f 6= ∅ wegen 0 ∈ ker f ,
erkennt man ker f als linearen Unterraum von V .
Ähnlich sieht man, dass im f ein linearer Unterraum von V ′ ist.
Wegen 0 ∈ im f ist jedenfalls im f nicht leer. Seien weiter α ∈ K,
a′ , b′ ∈ im f , etwa a′ = f (a), b′ = f (b) mit a, b ∈ V . Dann folgt
αa′ = f (αa) sowie a′ + b′ = f (a + b), d. h. αa′ , a′ + b′ ∈ im f . Also ist
auch im f ein linearer Unterraum von V ′ . 

Bemerkung 4. Eine K-lineare Abbildung f : V ✲ V ′ zwischen


Vektorräumen ist genau dann injektiv, wenn ker f = 0 gilt.

Beweis. Sei zunächst f injektiv. Dann besteht insbesondere der Kern


ker f = f −1 (0) aus höchstens einem Element, und wegen 0 ∈ f −1 (0)
folgt ker f = 0. Sei nun umgekehrt die Beziehung ker f = 0 gegeben,
und seien a, b ∈ V mit f (a) = f (b). Dann ergibt sich

f (a − b) = f (a) − f (b) = 0,

also a − b ∈ ker f = 0 und damit a = b, d. h. f ist injektiv. 

Wir wollen weiter untersuchen, wie sich Erzeugendensysteme sowie


linear abhängige bzw. unabhängige Systeme unter Anwendung linearer
Abbildungen verhalten.

Bemerkung 5. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwi-


schen Vektorräumen.
(i) Für Teilmengen A ⊂ V gilt f (hAi) = hf (A)i.
(ii) Es seien die Vektoren a1 , . . . , an ∈ V linear abhängig. Dann
sind auch deren Bilder f (a1 ), . . . , f (an ) ∈ V ′ linear abhängig. Die Um-
kehrung hierzu gilt, wenn f injektiv ist.
2.1 Grundbegriffe 77

(iii) Es seien a1 , . . . , an ∈ V Vektoren, deren Bilder f (a1 ), . . . , f (an )


linear unabhängig in V ′ sind. Dann sind a1 , . . . , an linear unabhängig
in V . Die Umkehrung hierzu gilt, wenn f injektiv ist.

Der Beweis kann durch einfache Verifikation der Definitionen ge-


führt werden. Die entsprechenden Rechnungen seien jedoch dem Leser
überlassen. Als Konsequenz von Aussage (iii) vermerken wir noch:

Bemerkung 6. Für eine K-lineare Abbildung f : V ✲ V ′ zwischen


Vektorräumen gilt dimK f (V ) ≤ dimK V .

Eine wichtige Eigenschaft linearer Abbildungen besteht darin, dass


sie bereits durch die Werte, die sie auf einer Basis des Urbildraums
annehmen, festgelegt sind.

Satz 7. Es sei V ein K-Vektorraum mit Erzeugendensystem a1 , . . . , an .


Sind dann a′1 , . . . , a′n beliebige Vektoren eines weiteren K-Vektorraums
V ′ , so gilt:
(i) Es gibt höchstens eine K-lineare Abbildung f : V ✲ V ′ mit
f (ai ) = a′i , i = 1, . . . , n.
(ii) Ist a1 , . . . , an sogar eine Basis von V , so existiert genau eine
K-lineare Abbildung f : V ✲ V ′ mit f (ai ) = a′ für i = 1, . . . , n.
i

Beweis. Wir beginnen mit der Eindeutigkeitsaussage (i). Sei also


f: V ✲ V ′ eine K-lineare Abbildung mit f (ai ) = a′ , i = 1, . . . , n,
i P
und sei a ∈ V . Dann besitzt a eine Darstellung der Form a = ni=1 αi ai
mit Koeffizienten αi ∈ K. Aufgrund der Linearität von f folgt
X
n  n
X
f (a) = f αi ai = αi f (ai ),
i=1 i=1

was bedeutet, dass f (a) durch die Werte f (ai ), i = 1, . . . , n, eindeutig


bestimmt ist.
Bilden nun a1 , . . . , an im Falle (ii) eine Basis P
von V , so sind für
a ∈ V die Koeffizienten αi in der Darstellung a = ni=1 αi ai eindeutig
bestimmt, und man kann eine Abbildung f : V ✲ V ′ erklären, indem
man setzt:
78 2. Lineare Abbildungen

n
X
f (a) = αi a′i
i=1

Diese Abbildung
P ist K-linear,
Pwie wir sogleich sehen werden. Sind näm-
lich a = ni=1 αi ai und b = ni=1 βi ai zwei Elemente von V , so gilt
n
X
a+b= (αi + βi )ai .
i=1

Da dies die (eindeutig bestimmte) Darstellung von a + b als Linear-


kombination von a1 , . . . , an ist, ergibt sich
n
X n
X n
X
f (a + b) = (αi + βi )a′i = αi a′i + βi a′i = f (a) + f (b).
i=1 i=1 i=1

Entsprechend rechnet man für α ∈ K


Xn  X n n
X

f (αa) = f ααi ai = ααi ai = α αi a′i = αf (a),
i=1 i=1 i=1

und man sieht, dass f : V ✲ V ′ wie behauptet K-linear ist. Es


existiert also eine K-lineare Abbildung f : V ✲ V ′ mit f (ai ) = a′ ,
i
und diese ist eindeutig bestimmt, wie wir in (i) gesehen haben. 

Für zwei K-Vektorräume V und V ′ bilden die K-linearen Abbil-


dungen f : V ✲ V ′ einen K-Vektorraum, sozusagen den Vektorraum
aller K-linearen V ′ -wertigen Funktionen auf V ; dieser wird meist mit
HomK (V, V ′ ) bezeichnet, also

HomK (V, V ′ ) = f : V ✲ V ′ ; f K-linear .

Dabei ist für f, g ∈ HomK (V, V ′ ) die Summe f + g durch

f + g: V ✲ V ′, x ✲ f (x) + g(x),

erklärt und entsprechend für α ∈ K das Produkt α · f durch



α·f: V ✲ V ′, x ✲ α · f (x) .

Dass f + g und α · f wiederum K-lineare Abbildungen von V nach V ′


darstellen, ist mit leichter Rechnung nachzuprüfen. Der Sachverhalt
2.1 Grundbegriffe 79

von Aussage (ii) in Satz 7 ist dann präziser so zu formulieren, dass für
eine Basis a1 , . . . , an von V die Zuordnung f ✲ (f (a1 ), . . . , f (an ))
einen Isomorphismus von K-Vektorräumen HomK (V, V ′ ) ∼✲ (V ′ )n
definiert.
Diese Korrespondenz kann man noch konkreter beschreiben, wenn
man neben der Basis a1 , . . . , an von V auch in V ′ eine Basis fixiert. Sei
also b1 , . . . , bm eine Basis von V ′ , wobei wir V ′ als endlich-dimensional
annehmen.PDann besitzt jeder Vektor a′ ∈ V ′ eine eindeutige Darstel-
lung a′ = m i=1 λi bi , ist also durch das Koeffiziententupel (λ1 , . . . , λm )
auf umkehrbar eindeutige Weise bestimmt. Eine lineare Abbildung
f: V ✲ V ′ korrespondiert daher zu n solchen Koeffiziententupeln
(λ1j , . . . , λmj ), j = 1, . . . , n, die wir als Spalten interpretieren und zu
einer Matrix zusammenfügen:
 
λ11 . . . λ1n
(λij )i=1,...,m =  . . . . . 
j=1,...,n
λm1 . . . λmn
Man nennt dies die zu der linearen Abbildung f gehörige Matrix, wobei
diese Bezeichnung natürlich relativ zu den in V und V ′ fixierten Basen
zu verstehen ist. Die lineare Abbildung f lässt sich aus der Matrix (λij )
mit Hilfe der Gleichungen
m
X
f (aj ) = λij bi , j = 1, . . . , n.
i=1

bzw. X
n  m X
n 
X
f αj aj = λij αj bi
j=1 i=1 j=1

rekonstruieren.

Satz 8. Es seien V, V ′ zwei K-Vektorräume.


(i) Falls es einen Isomorphismus f : V ∼✲ V ′ gibt, so stimmen
die Dimensionen von V und V ′ überein, also dimK V = dimK V ′ .
(ii) Umgekehrt existiert im Falle dimK V = dimK V ′ < ∞ stets ein
Isomorphismus f : V ∼✲ V ′ .

Beweis. Ist f : V ∼✲ V ′ ein Isomorphismus, so sieht man mit Be-


merkung 5, dass ein System von Vektoren a1 , . . . , an ∈ V genau dann
80 2. Lineare Abbildungen

linear unabhängig ist, wenn die Bilder f (a1 ), . . . , f (an ) ∈ V ′ linear


unabhängig sind. Dies bedeutet aber dimK V = dimK V ′ .
Gilt umgekehrt dimK V = dimK V ′ = n < ∞, so wähle man zwei
Basen a1 , . . . , an ∈ V und a′1 , . . . , a′n ∈ V ′ . Nach Satz 7 (ii) existiert
dann eine eindeutig bestimmte K-lineare Abbildung f : VP ✲ V ′ mit
f (ai ) = a′i für i = 1, . . . , n. Ist nun
Pn a ∈ ker f , etwa a = ni=1 αi ai mit
Koeffizienten αi ∈ K, so folgt i=1 αi a′i = f (a) = 0 und wegen der
linearen Unabhängigkeit von a′1 , . . . , a′n bereits αi = 0 für alle i, also
a = 0. Damit ist f injektiv. Aber f ist auch Psurjektiv. Denn Elemente
′ ′ ′ n ′
a ∈ V kann man stets in der Form aP= i=1 αi ai mit Koeffizienten
αi ∈ K darstellen, und es gilt dann f ( ni=1 αi ai ) = a′ . 

Korollar 9. Ist V ein K-Vektorraum der Dimension n < ∞, so gibt


es einen Isomorphismus V ∼✲ K n .

Dies bedeutet, dass es bis auf Isomorphie als endlich-dimensionale


K-Vektorräume nur die Vektorräume K n gibt. Wir wollen abschließend
noch die sogenannte Dimensionsformel für K-lineare Abbildungen be-
weisen.

Satz 10. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwischen


Vektorräumen. Dann gilt

dimK V = dimK (ker f ) + dimK (im f ).

Anstelle von dimK (im f ), also für die Dimension des Bildraums
f (V ), schreibt man häufig auch rg f und nennt dies den Rang von f .

Beweis zu Satz 10. Ist einer der Vektorräume ker f oder im f von
unendlicher Dimension, so auch V ; falls dimK (im f ) = ∞, so folgt
dies aus Bemerkung 5. Wir dürfen daher ker f und im f als endlich-
dimensional ansehen. Man wähle dann Vektoren a1 , . . . , am in V , so
dass deren Bilder f (a1 ), . . . , f (am ) eine Basis von im f bilden. Weiter
wähle man eine Basis am+1 , . . . , an von ker f . Es genügt dann nachzu-
weisen, dass a1 , . . . , an eine Basis von V bilden. Hierzu betrachte
Pm man
einen Vektor a ∈ V . Es existiert eine Darstellung f (a) = i=1 αi f (ai )
mit Koeffizienten αi ∈ K, da f (a1 ), . . . , f (am ) den Vektorraum im f
2.1 Grundbegriffe 81

P
erzeugen. Weiter liegt der Vektor a − m i=1 αi ai im Kern von f , und,
da dieser
P von am+1 P,n. . . , an erzeugt wird, gibtPes αm+1 , . . . , αn ∈ K mit
a− m α
i=1 i ia = i=m+1 i iα a , also mit a = n
i=1 αi ai . Dies zeigt, dass
a1 , . . . , an ein Erzeugendensystem von V bilden.
Um zu sehen, dassP a1 , . . . , an auch linear unabhängig sind, betrach-
te man eine Relation ni=1 αi ai = 0 mit Koeffizienten αi ∈ K. Hieraus
ergibt sich
X n  X n Xm
0=f αi ai = αi f (ai ) = αi f (ai )
i=1 i=1 i=1

und damit α1 = .P . . = αm = 0, da f (a1 ), . . . , f (am ) linear unabhängig


sind. Dann folgt ni=m+1 αi ai = 0 und weiter αm+1 = . . . = αn = 0,
da am+1 , . . . , an linear unabhängig sind. Die Koeffizienten α1 , . . . , αn
verschwinden daher sämtlich, und wir sehen, dass a1 , . . . , an linear un-
abhängig sind. 

Korollar 11. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwischen


Vektorräumen mit dimK V = dimK V ′ < ∞. Dann ist äquivalent:
(i) f ist ein Monomorphismus.
(ii) f ist ein Epimorphismus.
(iii) f ist ein Isomorphismus.

Beweis. Sei zunächst Bedingung (i) erfüllt, also f ein Monomorphis-


mus. Dann gilt ker f = 0, und es folgt mittels der Dimensionsformel
dimK V ′ = dimK V = dimK (ker f ) + dimK (im f )
von Satz 10, dass der lineare Unterraum im f ⊂ V ′ dieselbe (endliche)
Dimension wie V ′ besitzt. Mit 1.5/14 (ii) ergibt sich im f = V ′ , d. h.
f ist ein Epimorphismus, und (ii) ist erfüllt.
Sei nun f mit Bedingung (ii) als Epimorphismus vorausgesetzt.
Die Dimensionsformel in Satz 10 ergibt dann wegen im f = V ′ und
dimK V ′ = dimK V notwendig ker f = 0, d. h. f ist injektiv und erfüllt
damit Bedingung (iii). Dass schließlich (iii) die Bedingung (i) impli-
ziert, ist trivial. 

Auch hier sei darauf hingewiesen, dass Korollar 11 ähnlich wie


1.5/14 (ii) nicht auf den Fall unendlich-dimensionaler Vektorräume
82 2. Lineare Abbildungen

zu verallgemeinern ist, da ein unendlich-dimensionaler K-Vektorraum


stets echte lineare Unterräume unendlicher Dimension besitzt.

Aufgaben
1. Für einen Körper K und ein n ∈ N betrachte man K n als K-Vektorraum.
Es bezeichne pi : K n ✲ K für i = 1, . . . , n jeweils die Projektion auf
die i-te Komponente. Man zeige:
(i) Die Abbildungen pi sind K-linear.
(ii) Eine Abbildung f : V ✲ K n von einem K-Vektorraum V nach
n
K ist genau dann K-linear, wenn alle Kompositionen pi ◦ f
K-linear sind.
2. Gibt es R-lineare Abbildungen R4 ✲ R3 die die folgenden Vekto-
ren ai ∈ R4 jeweils auf die angegebenen Vektoren bi ∈ R3 abbilden?
(AT 391)
(i) a1 =(1, 1, 0, 0), a2 =(1, 1, 1, 0), a3 =(0, 1, 1, 1), a4 =(0, 0, 1, 1)
b1 =(1, 2, 3), b2 =(2, 3, 1), b3 =(3, 1, 2), b4 =(2, 0, 4)
(ii) a1 =(0, 1, 1, 1), a2 =(1, 0, 1, 1), a3 =(1, 1, 0, 1)
b1 , b2 , b3 wie in (i)
(iii) a1 =(0, 1, 1, 1), a2 =(1, 0, 1, 1), a3 =(1, 1, 0, 1), a4 =(−1, 1, 0, 0)
b1 , b2 , b3 , b4 wie in (i)
(iv) a1 =(0, 1, 1, 1), a2 =(1, 0, 1, 1), a3 =(1, 1, 0, 1), a4 =(0, 2, 0, 1)
b1 , b2 , b3 , b4 wie in (i)
3. Man bestimme alle R-linearen Abbildungen R ✲ R.
√  √ 
4. Man bestimme alle Körperhomomorphismen f : Q 2 ✲ Q 2 ,
d. h. alle Q-linearen Abbildungen, die zusätzlich f (αβ) = f (α)f (β)
erfüllen.
5. Es sei V ein K-Vektorraum und f : V ✲ V ein Endomorphismus mit
2
f = f . Man zeige V = ker f ⊕ im f . (AT 395)
6. Für lineare Unterräume U, U ′ eines K-Vektorraums V betrachte man
die Abbildung

ϕ: U × U′ ✲ V, (a, b) ✲ a − b.

(i) Man zeige, dass ϕ eine K-lineare Abbildung ist, wenn man U × U ′
mit komponentenweiser Addition und skalarer Multiplikation als
K-Vektorraum auffasst.
2.2 Quotientenvektorräume 83

(ii) Man berechne dimK (U × U ′ ).


(iii) Man wende die Dimensionsformel für lineare Abbildungen auf ϕ an
und folgere die Dimensionsformel für lineare Unterräume von V ,
nämlich

dimK U + dimK U ′ = dimK (U + U ′ ) + dimK (U ∩ U ′ ).

7. Für zwei K-Vektorräume V, V ′ bestimme man dimK HomK (V, V ′ ), also


die Dimension des Vektorraums aller K-linearen Abbildungen von V
nach V ′ .
f g
8. Es seien V1 ✲ V2 ✲ V3 zwei K-lineare Abbildungen zwischen end-
lich-dimensionalen K-Vektorräumen. Man zeige (AT 396):

rg f + rg g ≤ rg(g ◦ f ) + dim V2

2.2 Quotientenvektorräume

Neben den linearen Unterräumen von Vektorräumen V , also den Un-


tervektorräumen im Sinne von 1.4/2, wollen wir in diesem Abschnitt
auch sogenannte affine Unterräume von V betrachten. Diese entste-
hen im Wesentlichen aus den linearen Unterräumen durch Translation
(oder Parallelverschiebung) um Vektoren a ∈ V .

Definition 1. Es sei V ein K-Vektorraum und A ⊂ V eine Teilmenge.


Man bezeichnet A als affinen Unterraum von V , wenn A leer ist, oder
wenn es ein Element a ∈ V und einen linearen Unterraum U ⊂ V gibt
mit
A = a + U := {a + u ; u ∈ U }.

In der Situation der Definition ergibt sich für a 6∈ U insbesondere


0 6∈ a + U , und man sieht, dass A = a + U in diesem Fall kein linearer
Unterraum von V sein kann. Ziel dieses Abschnittes ist es zu zeigen,
dass die Menge aller affinen Unterräume des Typs a + U , a ∈ V , in
naheliegender Weise einen K-Vektorraum bildet. Wir werden diesen
Vektorraum mit V /U (man lese V modulo U ) bezeichnen und zeigen,
dass die Zuordnung a ✲ a + U eine surjektive K-lineare Abbildung
V ✲ V /U definiert, welche U als Kern besitzt.
84 2. Lineare Abbildungen

Um das Problem etwas weiter zu verdeutlichen, wollen wir zu-


nächst einmal die Existenz einer surjektiven K-linearen Abbildung
f: V ✲ V ′ mit ker f = U als gegeben annehmen. Für a′ ∈ V ′
nennt man f −1 (a′ ) die Faser von f über a′ .

Bemerkung 2. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwi-


schen Vektorräumen mit ker f = U . Dann erhält man für a ∈ V als
Faser von f über f (a) gerade den affinen Unterraum a + U , d. h.
f −1 (f (a)) = a + U .

Beweis. Für u ∈ U gilt f (a + u) = f (a) und damit a + U ⊂ f −1 (f (a)).


Umgekehrt folgt aus a′ ∈ f −1 (f (a)) die Beziehung f (a′ ) = f (a) bzw.
f (a′ − a) = 0. Dies impliziert a′ − a ∈ ker f = U bzw. a′ ∈ a + U , was
f −1 (f (a)) ⊂ a+U und folglich die Gleichheit beider Mengen zeigt. 

Wir können also vermerken, dass die Fasern einer surjektiven


K-linearen Abbildung f : V ✲ V ′ mit ker f = U gerade aus
den affinen Unterräumen a + U , a ∈ V , bestehen. Da über jedem
a′ ∈ f (V ) = V ′ genau eine Faser liegt, nämlich f −1 (a′ ), können wir
die Menge der affinen Unterräume des Typs a + U ⊂ V mit V ′ iden-
tifizieren und zu einem K-Vektorraum V /U machen, indem wir die
Vektorraumstruktur von V ′ übernehmen. Man addiert dann zwei Fa-
sern f −1 (f (a)) = a + U , f −1 (f (b)) = b + U , indem man die Faser über
f (a) + f (b) = f (a + b) bildet, also

(a + U ) + (b + U ) = (a + b) + U.

Entsprechend multipliziert man eine Faser f −1 (f (a)) = a+U mit einem


Skalar α ∈ K indem man die Faser über αf (a) = f (αa) bildet, also
α(a+U ) = αa+U . Schließlich ist klar, dass die Abbildung V ✲ V /U ,
a ✲ a + U , ebenso wie f : V ✲ ′
V , eine surjektive K-lineare
Abbildung mit Kern U ist.
Die vorstehende Überlegung zeigt, dass das Problem, die Menge der
affinen Unterräume des Typs a + U ⊂ V zu einem K-Vektorraum zu
machen, eine natürliche Lösung besitzt, wenn man über eine surjektive
lineare Abbildung f : V ✲ V ′ mit ker f = U verfügt. Eine solche
Abbildung kann man sich aber leicht verschaffen. Man wähle nämlich
gemäß 1.6/4 ein Komplement U ′ zu U , also einen linearen Unterraum
2.2 Quotientenvektorräume 85

U ′ ⊂ V mit V = U ⊕ U ′ . Dann lässt sich jedes a ∈ V auf eindeutige


Weise in der Form a = u + u′ mit u ∈ U und u′ ∈ U ′ schreiben. Indem
wir a jeweils den Summanden u′ zuordnen, erhalten wir wie gewünscht
eine surjektive K-lineare Abbildung p : V ✲ U ′ mit Kern U . Man
nennt p die Projektion von U ⊕ U ′ auf den zweiten Summanden.
Wir wollen im Folgenden jedoch den Quotientenvektorraum V /U
auf eine andere Art konstruieren. Die verwendete Methode hat den
Vorteil, dass sie nicht auf speziellen Eigenschaften von Vektorräumen
(Existenz eines Komplements zu einem linearen Unterraum) beruht,
sondern auch noch in anderen Situationen anwendbar ist.

Definition 3. Eine Relation auf einer Menge M besteht aus einer


Teilmenge R ⊂ M × M ; man schreibt a ∼ b für (a, b) ∈ R und
spricht von der Relation “ ∼ ”. Eine Relation “ ∼ ” auf M heißt eine
Äquivalenzrelation, wenn sie folgende Eigenschaften besitzt:
(i) Reflexivität: a ∼ a für alle a ∈ M .
(ii) Symmetrie: a ∼ b =⇒ b ∼ a.
(iii) Transitivität: a ∼ b, b ∼ c =⇒ a ∼ c.

Ist “ ∼ ” eine Äquivalenzrelation auf einer Menge M , so nennt man


zwei Elemente a, b ∈ M äquivalent, wenn für diese die Relation a ∼ b
gilt. Weiter bezeichnet man
⌈⌊a⌉⌋ = {b ∈ M ; b ∼ a}
als die Äquivalenzklasse des Elementes a in M . Um ein einfaches Bei-
spiel zu geben, betrachte man eine K-lineare Abbildung f : V ✲ V′
zwischen Vektorräumen und setze für a, b ∈ V
a ∼ b :⇐⇒ f (a) = f (b).
Es ist dann unmittelbar klar, dass f auf diese Weise eine Äquivalenzre-
lation auf V induziert und dass ⌈⌊a⌉⌋ = f −1 (f (a)) die Äquivalenzklasse
eines Elementes a ∈ V ist.
Im Falle einer Äquivalenzrelation “ ∼ ” auf einer Menge M heißt
jedes Element b einer Äquivalenzklasse ⌈⌊a⌉⌋ ein Repräsentant dieser
Klasse. Aufgrund von Definition 3 (i) ist ein Element a ∈ M stets
Repräsentant der Klasse ⌈⌊a⌉⌋. Äquivalenzklassen sind daher stets nicht-
leer. Wir wollen zeigen, dass zwei Elemente a, b ∈ M genau dann die-
selbe Äquivalenzklasse induzieren, dass also ⌈⌊a⌉⌋ = ⌈⌊b⌉⌋ gilt, wenn a, b
86 2. Lineare Abbildungen

zueinander äquivalent sind oder, alternativ, wenn sie beide zu einem


dritten Element c ∈ M äquivalent sind. Dies impliziert insbesondere,
dass die Äquivalenzrelation auf M eine Unterteilung von M in disjunk-
te Äquivalenzklassen induziert.

Satz 4. Es sei “ ∼ ” eine Äquivalenzrelation auf einer Menge M . Für


Elemente a, b ∈ M ist dann gleichbedeutend :
(i) a ∼ b
(ii) ⌈⌊a⌉⌋ = ⌈⌊b⌉⌋
(iii) ⌈⌊a⌉⌋ ∩ ⌈⌊b⌉⌋ =
6 ∅
Insbesondere ist M die disjunkte Vereinigung der zu “ ∼ ” gehöri-
gen Äquivalenzklassen.

Beweis. Gelte zunächst (i), also a ∼ b. Für c ∈ M mit c ∼ a folgt


aus a ∼ b bereits c ∼ b und somit ⌈⌊a⌉⌋ ⊂ ⌈⌊b⌉⌋. Die umgekehrte Inklu-
sion verifiziert man entsprechend, so dass sich insgesamt die Gleichung
⌈⌊a⌉⌋ = ⌈⌊b⌉⌋ in (ii) ergibt. Da Äquivalenzklassen stets nicht-leer sind, ist
weiter (iii) eine Konsequenz aus (ii). Ist schließlich Bedingung (iii) ge-
geben, so wähle man ein Element c ∈ ⌈⌊a⌉⌋ ∩ ⌈⌊b⌉⌋. Dann gilt c ∼ a, bzw.
a ∼ c aufgrund der Symmetrie, sowie c ∼ b und damit aufgrund der
Transitivität auch a ∼ b , d. h. (i). 

Definiert man nun M/∼ als Menge der Äquivalenzklassen in M , so


kann man die kanonische Abbildung

M ✲ M/∼, a ✲ ⌈⌊a⌉⌋,

betrachten, welche ein Element a ∈ M auf die zugehörige Äquiva-


lenzklasse ⌈⌊a⌉⌋ ⊂ M abbildet. Dabei ist ⌈⌊a⌉⌋ nach Satz 4 die eindeutig
bestimmte Äquivalenzklasse in M , die a enthält. Im Folgenden sollen
nun Äquivalenzrelationen auf Vektorräumen studiert werden.

Bemerkung 5. Es sei V ein K-Vektorraum und U ⊂ V ein linearer


Unterraum. Dann wird durch

a ∼ b :⇐⇒ a − b ∈ U

eine Äquivalenzrelation auf V erklärt, auch als Kongruenz modulo U


bezeichnet. Es gilt ⌈⌊a⌉⌋ = a + U für die Äquivalenzklasse ⌈⌊a⌉⌋ zu einem
2.2 Quotientenvektorräume 87

Element a ∈ V . Zwei Äquivalenzklassen ⌈⌊a⌉⌋ = a + U und ⌈⌊b⌉⌋ = b + U


stimmen genau dann überein, wenn a ∼ b, also a − b ∈ U gilt.

Beweis. Für alle a ∈ V gilt a−a = 0 ∈ U und damit a ∼ a; die Relation


ist also reflexiv. Als Nächstes zeigen wir die Symmetrie. Gelte a ∼ b,
d. h. a − b ∈ U . Dann folgt b − a = −(a − b) ∈ U , was aber b ∼ a
bedeutet. Schließlich überprüfen wir die Transitivität. Gelte a ∼ b und
b ∼ c, also a − b, b − c ∈ U . Dann ergibt sich

a − c = (a − b) + (b − c) ∈ U,

also a ∼ c.
Im Übrigen berechnet sich die Äquivalenzklasse ⌈⌊a⌉⌋ eines Vektors
a ∈ V zu

⌈⌊a⌉⌋ = {b ∈ V ; b ∼ a} = {b ∈ V ; b − a ∈ U } = a + U,

wie behauptet. Schließlich stimmen zwei Äquivalenzklassen ⌈⌊a⌉⌋ und ⌈⌊b⌉⌋


gemäß Bemerkung 5 genau dann überein, wenn a ∼ b, also a − b ∈ U
gilt. 

Für a ∈ V bezeichnet man die Äquivalenzklasse ⌈⌊a⌉⌋ = a+U genau-


er als die Restklasse von a modulo U oder auch als die Nebenklasse von
a bezüglich U . Zur Definition des Quotientenvektorraums V /U haben
wir auf der Menge dieser Restklassen eine Struktur als K-Vektorraum
zu definieren. Um dies zu bewerkstelligen, leiten wir einige Regeln für
das Rechnen mit Restklassen her, wobei wir aus Gründen der Über-
sichtlichkeit Restklassen a + U noch einmal in der Form von Äquiva-
lenzklassen ⌈⌊a⌉⌋ schreiben.

Bemerkung 6. Auf einem K-Vektorraum V betrachte man die zu ei-


nem linearen Unterraum U ⊂ V gehörige Äquivalenzrelation der Kon-
gruenz modulo U . Es gelte ⌈⌊a⌉⌋ = ⌈⌊a′ ⌉⌋ und ⌈⌊b⌉⌋ = ⌈⌊b′ ⌉⌋ für Vektoren
a, a′ , b, b′ ∈ V . Dann folgt ⌊⌈a + b⌉⌋ = ⌈⌊a′ + b′ ⌉⌋ sowie ⌈⌊αa⌉⌋ = ⌈⌊αa′ ⌉⌋ für
α ∈ K.

Beweis. Aus ⌈⌊a⌉⌋ = ⌈⌊a′ ⌉⌋, ⌈⌊b⌉⌋ = ⌈⌊b′ ⌉⌋ ergibt sich a − a′ , b − b′ ∈ U und
damit (a + b) − (a′ + b′ ) = (a − a′ ) + (b − b′ ) ∈ U , also ⌈⌊a + b⌉⌋ = ⌈⌊a′ + b′ ⌉⌋.
Weiter folgt αa − αa′ = α(a − a′ ) ∈ U , also ⌈⌊αa⌉⌋ = ⌈⌊αa′ ⌉⌋. 
88 2. Lineare Abbildungen

Die Bildung der Äquivalenzklassen ⌈⌊a⌉⌋ zu Vektoren a ∈ V ist also


mit der Vektorraumstruktur von V verträglich. Bezeichnen wir mit
V /U die Menge der Äquivalenzklassen ⌈⌊a⌉⌋ = a + U , wobei a in V
variiert, so kann man unter Benutzung von Bemerkung 6 eine Addition

V /U × V /U ✲ V /U, ⌈⌊a⌉⌋, ⌈⌊b⌉⌋ ✲⌈
⌊a + b⌉⌋,

sowie eine skalare Multiplikation



K × V /U ✲ V /U, α, ⌈⌊a⌉⌋ ✲ ⌈⌊αa⌉⌋,

auf V /U definieren, wobei in beiden Fällen nachzuprüfen ist, dass die


Verknüpfung wohldefiniert ist. Genau genommen besagt etwa die Ab-
bildungsvorschrift im Falle der Addition: Man betrachte zwei Äquiva-
lenzklassen A, B ⊂ V , wähle Repräsentanten a ∈ A, b ∈ B, so dass
man A = ⌈⌊a⌉⌋, B = ⌈⌊b⌉⌋ schreiben kann, und bilde dann das Paar (A, B)
auf die Äquivalenzklasse ⌈⌊a + b⌉⌋ ab. Man muss dabei wissen, dass das
Resultat ⌈⌊a + b⌉⌋ nicht von der Wahl der Repräsentanten a ∈ A, b ∈ B
abhängt; Letzteres war aber in Bemerkung 6 gezeigt worden. Entspre-
chend schließt man im Falle der skalaren Multiplikation.
Man prüft nun leicht unter Benutzung der Vektorraumstruktur von
V nach, dass V /U mit den genannten Verknüpfungen ein K-Vektor-
raum ist und dass die kanonische Abbildung

π: V ✲ V /U, a ✲ ⌈⌊a⌉⌋,

K-linear und damit ein Epimorphismus ist. Somit können wir formu-
lieren:

Satz 7. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unter-


raum. Dann ist
V /U = {a + U ; a ∈ V },
also die Menge der Restklassen modulo U , ein K-Vektorraum unter
der Addition

V /U × V /U ✲ V /U, (a + U, b + U ) ✲ (a + b) + U,

sowie der skalaren Multiplikation

K × V /U ✲ V /U, (α, a + U ) ✲ αa + U.
2.2 Quotientenvektorräume 89

Die kanonische Abbildung π : V ✲ V /U ist ein Epimorphismus, des-


sen Fasern gerade die Restklassen modulo U in V sind. Insbesondere
gilt ker π = U und damit

dimK V = dimK U + dimK (V /U )

aufgrund der Dimensionsformel 2.1/10.

Man nennt V /U den Quotienten- oder Restklassenvektorraum von


V modulo U . Die Konstruktion dieses Vektorraums zeigt insbesonde-
re, dass es zu einem linearen Unterraum U ⊂ V stets einen Epimor-
phismus p : V ✲ V ′ mit ker p = U gibt. Umgekehrt hatten wir zu
Beginn gesehen, dass jede solche Abbildung benutzt werden kann, um
die Menge V /U aller Restklassen modulo U in V mit der Struktur ei-
nes K-Vektorraums zu versehen, derart dass man auf natürliche Weise
einen Epimorphismus V ✲ V /U mit Kern U erhält. Wir wollen
diesen Sachverhalt hier weiter präzisieren, indem wir den Homomor-
phiesatz beweisen, welcher die sogenannte universelle Abbildungseigen-
schaft für Quotientenvektorräume beinhaltet.

Satz 8 (Homomorphiesatz). Es sei U ein linearer Unterraum eines


K-Vek tor raums V und π : V ✲ V der kanonische Epimorphismus
auf den Restklassenvektorraum V = V /U oder, allgemeiner, ein Epi-
morphismus mit ker π = U . Dann existiert zu jeder K-linearen Ab-
bildung f : V ✲ V ′ mit U ⊂ ker f genau eine K-lineare Abbildung
f: V ✲ V ′ , so dass das Diagramm

V
f
✲ V′
❅ ✒
π❅ f


V
kommutiert, d. h. so dass f = f ◦ π gilt. Weiter ist f genau dann in-
jektiv, wenn U = ker f gilt und genau dann surjektiv, wenn f surjektiv
ist.

Beweis. Zunächst zeigen wir die Eindeutigkeitsaussage und betrachten


eine K-lineare Abbildung f : V ✲ V ′ mit f = f ◦ π. Ist dann a ∈ V
−1
ein Vektor und a ∈ π (a) ein (beliebiges) Urbild, so folgt π(a) = a
90 2. Lineare Abbildungen

und daher f (a) = f (π(a)) = f (a). Damit ist f (a) eindeutig durch a
bestimmt.
Zum Nachweis der Existenz einer K-linearen Abbildung f mit den
geforderten Eigenschaften betrachte man einen Vektor a ∈ V sowie
zwei Urbilder a, b ∈ π −1 (a). Es folgt dann
a − b ∈ ker π = U ⊂ ker f
und damit f (a) = f (b). Der Wert f (a) ist also unabhängig von der spe-
ziellen Wahl eines Urbildes a ∈ π −1 (a), und wir können eine Abbildung
f: V ✲ V ′ durch a ✲ f (a) erklären, wobei wir mit a jeweils (ir-
gend)ein π-Urbild zu a meinen. Insbesondere gilt dann f (a) = f (π(a))
für a ∈ V , d. h. die geforderte Beziehung f = f ◦ π ist erfüllt. Schließ-
lich ist f auch K-linear. Zu a, b ∈ V betrachte man nämlich π-Urbilder
a, b ∈ V . Dann ist a + b ein π-Urbild zu a + b sowie αa für α ∈ K ein
π-Urbild zu αa, und es gilt
f (a + b) = f (a + b) = f (a) + f (b) = f (a) + f (b),
f (αa) = f (αa) = αf (a) = αf (a).
Es bleiben noch die zusätzlich behaupteten Eigenschaften von
f nachzuweisen. Sei zunächst f injektiv. Für a ∈ ker f folgt dann
f (π(a)) = f (a) = 0, also π(a) = 0 bzw. a ∈ ker π aufgrund der In-
jektivität von f . Dies bedeutet aber ker f ⊂ ker π = U und, da die
entgegengesetzte Inklusion ohnehin gilt, bereits U = ker f . Ist umge-
kehrt diese Gleichung gegeben, so betrachte man ein Element a ∈ ker f
sowie ein Urbild a ∈ π −1 (a). Man hat dann f (a) = f (π(a)) = f (a) = 0
und damit a ∈ ker f = U . Wegen U = ker π ergibt sich dann aber
a = π(a) = 0, also insgesamt ker f = 0 und damit die Injektivität
von f .
Ist f surjektiv, so ist auch f als Komposition der surjektiven Ab-
bildungen π und f surjektiv. Umgekehrt folgt aus der Surjektivität von
f = f ◦ π, dass auch f surjektiv sein muss. 

Wir wollen einen häufig verwendeten Fall des Homomorphiesatzes


gesondert formulieren:

Korollar 9. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwi-


schen Vektorräumen. Dann induziert f einen kanonischen Isomor-
2.2 Quotientenvektorräume 91

phismus V / ker f ∼✲ im f , also einen kanonischen Isomorphismus


V / ker f ∼✲ V ′ , falls f surjektiv ist.

Beweis. Gemäß Satz 8 existiert ein kommutatives Diagramm K-linearer


Abbildungen
V
f
✲ V′
❅ ✒
π❅ f


V / ker f ,
wobei f wegen ker π = ker f injektiv ist. Es definiert also f einen
Isomorphismus von V / ker f auf den linearen Unterraum im f ⊂ V ′ ,
und letzterer stimmt überein mit im f . 

Wir wollen schließlich noch die Ergebnisse dieses Abschnitts zur


Charakterisierung affiner Unterräume von Vektorräumen verwenden.
Dabei wollen wir zunächst bemerken, dass jeder nicht-leere affine Un-
terraum eines K-Vektorraums V in eindeutiger Weise einen zugehöri-
gen linearen Unterraum bestimmt.

Bemerkung 10. Es sei V ein K-Vektorraum und A ⊂ V ein nicht-


leerer affiner Unterraum, d. h. eine Teilmenge der Form a + U mit
einem Vektor a ∈ V und einem linearen Unterraum U ⊂ V . Dann ist
U eindeutig durch A bestimmt.

Beweis. Gilt etwa a + U = A = a′ + U ′ für Elemente a, a′ ∈ V und


lineare Unterräume U, U ′ ⊂ V , so folgt

U = (a′ − a) + U ′ .

Wegen 0 ∈ U bedeutet dies, dass a′ − a ein inverses Element in U ′


besitzt und daher selbst zu U ′ gehört. Dies aber impliziert U = U ′ , wie
behauptet. 

Insbesondere kann man daher nicht-leeren affinen Unterräumen ei-


nes Vektorraums V eine Dimension zuordnen, nämlich die Dimension
des zugehörigen linearen Unterraums von V . Beispielsweise nennt man
einen affinen Unterraum von V der Dimension 1 eine Gerade, der Di-
92 2. Lineare Abbildungen

mension 2 eine Ebene oder der Dimension n − 1 eine Hyperebene, wenn


n = dimK V < ∞.

Satz 11. Es sei V ein K-Vektorraum und A ⊂ V eine Teilmenge.


Dann ist äquivalent:
(i) A ist ein affiner Unterraum von V , d. h. A ist leer, oder es
existieren ein Vektor a ∈ V sowie ein linearer Unterraum U ⊂ V mit
A = a + U.
(ii) Es existiert eine K-lineare Abbildung f : V ✲ V ′ , so dass A
eine Faser von f ist, d. h. es existiert ein a′ ∈ V ′ mit A = f −1 (a′ ).
(iii) Für jeweils endlich viele
Pr Elemente a0 , .P
. . , ar ∈ A sowie Koeffi-
zienten α0 , . . . , αr ∈ K mit i=0 αi = 1 folgt ri=0 αi ai ∈ A.

Beweis. Der Fall A = ∅ ist trivial, da sich die leere Menge stets als Faser
einer linearen Abbildung f : V ✲ V ′ realisieren lässt. Man betrachte

etwa V := V × K als K-Vektorraum mit komponentenweiser Addition
und skalarer Multiplikation. Dann ist
f: V ✲ V ′, v ✲ (v, 0),
eine K-lineare Abbildung mit f −1 (0, 1) = ∅.
Wir dürfen also im Folgenden A 6= ∅ voraussetzen. Sei zunächst
Bedingung (i) gegeben, also A ein affiner Unterraum von V , etwa
A = a + U . Betrachtet man dann den kanonischen Epimorphismus
π: V ✲ V /U , so gilt A = π −1 (π(a)) nach Bemerkung 2, d. h. A ist
Faser einer K-linearen Abbildung und erfüllt damit Bedingung (ii).
Sei nun (ii) gegeben, also A = f −1 (a′ ) mit einem Element a′ ∈ V ′ ,
und seien endlich viele Elemente
P a0 , . . . , ar ∈ A fixiert. Für Koeffizien-
ten α0 , . . . , αr ∈ K mit ri=0 αi = 1 gilt dann
Xr  Xr X r 
f αi ai = αi f (ai ) = αi · a′ = a′
i=0 i=0 i=0
Pr
und damit i=0 αi ai ∈ f −1 (a′ ) = A. Bedingung (iii) ist also erfüllt.
Sei schließlich (iii) gegeben. Wir wählen dann ein Element a0 ∈ A
aus und behaupten, dass ∆A = {a−a0 ; a ∈ A} ein linearer Unterraum
von V ist. In der Tat, wir haben 0 ∈ ∆A und damit ∆A 6= ∅. Sind
weiter a, b ∈ ∆A, also a = a1 − a0 , b = b1 − a0 mit a1 , b1 ∈ A, so folgt
a1 + (−1)a0 + b1 ∈ A gemäß (iii) und damit
2.2 Quotientenvektorräume 93

a + b = (a1 − a0 + b1 ) − a0 ∈ ∆A.
Für α ∈ K gilt weiter αa1 + (1 − α)a0 ∈ A, ebenfalls unter Benutzung
von (iii), also

αa = αa1 + (1 − α)a0 − a0 ∈ ∆A.
Folglich ist ∆A ein linearer Unterraum in V , und es zeigt sich, dass
A = a0 + ∆A ein affiner Unterraum von V ist. 

Wir wollen noch zeigen, wie man affine Unterräume von Vektor-
räumen in konkreter Weise erzeugen kann. Hierzu betrachte man einen
K-Vektorraum V sowie Vektoren a0 , . . . , ar ∈ V , r ≥ 0. Dann existiert
ein kleinster affiner Unterraum A ⊂ V , der diese Vektoren enthält,
nämlich
 X r 
A = a0 + αi (ai − a0 ) ; α1 , . . . , αr ∈ K .
i=1
Um dies einzusehen, stellen wir zunächst fest, dass A ein affiner Un-
terraum in V ist, der die Vektoren a0 , . . . , ar enthält; der zugehörige
lineare Unterraum U ⊂ V mit A = a0 +U wird von Pden Vektoren ai −a0 ,
r
i = 1, . . . , r, erzeugt.
P Da man eine PSumme a0 + i=1 αi (ai − a0 ) auch
in der Form (1 − ri=1 αi ) · a0 + ri=1 αi ai schreiben kann, erhält man
weiter
Xr r
X 
A= αi ai ; α0 , . . . , αr ∈ K mit αi = 1 .
i=0 i=0

Hieraus folgt unter Benutzung von Satz 11 (iii), dass A wie behaup-
tet der kleinste affine Unterraum von V ist, der a0 , . . . , ar enthält.
Beispielsweise kann man die durch zwei verschiedene Punkte a, b ei-
nes K-Vektorraums bestimmte affine Gerade betrachten. In gewohnter
Weise ergibt sich
 
G = a + α(b − a) ; α ∈ K = αa + βb ; α, β ∈ K mit α + β = 1 .

Aufgaben
1. Man betrachte folgende Mengen M mit der jeweils angegebenen Relation
∼ und entscheide, ob es sich um eine Äquivalenzrelation handelt. Falls
möglich gebe man die Äquivalenzklassen an.
(i) M = R, a ∼ b :⇐⇒ |a| = |b|
94 2. Lineare Abbildungen

(ii) M = R, a ∼ b :⇐⇒ |a − b| < 1


(iii) M = Z, a ∼ b :⇐⇒ a − b wird von p geteilt (d. h. es existiert
eine Zerlegung a − b = c · p mit einem c ∈ Z), wobei p eine fest
vorgegebene ganze Zahl ist.
2. Es seien V, V ′ Vektorräume über einem Körper K und A ⊂ V sowie
A′ ⊂ V ′ affine Unterräume. Man zeige:
(i) Für eine lineare Abbildung f : V ✲ V ′ ist f (A) ein affiner Un-
′ −1 ′
terraum von V und f (A ) ein affiner Unterraum von V .
(ii) Für V = V ′ sind A + A′ = {a + a′ ; a ∈ A, a′ ∈ A′ } und A ∩ A′
affine Unterräume von V .
(iii) Es ist A × A′ ein affiner Unterraum von V × V ′ , wobei man V × V ′
mit komponentenweiser Addition und skalarer Multiplikation als
K-Vektorraum auffasse.
3. Seien A, A′ affine Unterräume eines K-Vektorraums V , wobei 1 + 1 6= 0
in K gelte. Man zeige, A ∪ A′ ist genau dann ein affiner Unterraum von
V , wenn A ⊂ A′ oder A′ ⊂ A gilt.
4. Es sei V ein K-Vektorraum und A ⊂ V eine Teilmenge. Man zeige, dass
es eine kleinste Teilmenge A′ ⊂ V mit A ⊂ A′ gibt, so dass die durch

a ∼ b :⇐⇒ a − b ∈ A′

definierte Relation eine Äquivalenzrelation auf V definiert. Man bestim-


me A′ unter der Voraussetzung, dass A abgeschlossen unter der skalaren
Multiplikation ist, dass also aus α ∈ K, a ∈ A stets αa ∈ A folgt.
(AT 398)
5. Für eine Matrix (λij )i=1,...,m mit Koeffizienten aus einem Körper K und
j=1,...,n
für Elemente δ1 , . . . , δm ∈ K zeige man, dass durch
 Xn 
A = (α1 , . . . , αn ) ∈ K n ; λij αj = δi , i = 1, . . . , m
j=1

ein affiner Unterraum im K n erklärt wird. Ist jeder affine Unterraum des
K n von dieser Bauart? (Hinweis: Man vermeide “unnötiges Rechnen”,
indem man geeignete lineare Abbildungen betrachtet. Man beginne mit
dem Fall m = 1.)
6. Für Vektoren a0 , . . . , ar eines K-Vektorraums V betrachte man den von
den ai erzeugten affinen Unterraum A ⊂ V sowie den von den ai erzeug-
ten linearen Unterraum U ⊂ V . Man zeige A ⊂ U und weiter:
2.2 Quotientenvektorräume 95
(
dimK U falls 0 ∈ A
dimK A =
dimK U − 1 falls 0 ∈
6 A

7. Eine Abbildung f : V ✲ V ′ zwischen K-Vektorräumen heiße affin,


wenn es ein Element x0 ∈ V ′ gibt, so dass die Abbildung

V ✲ V ′, a ✲ f (a) − x0 ,

K-linear ist. Man zeige: Eine Abbildung f : V ✲ V ′ ist genau dann af-
fin, wenn für jeweils Pendlich viele Vektoren a0 , . . . , ar ∈ V und Elemente
α0 , . . . , αr ∈ K mit ri=0 αi = 1 stets
X
r  r
X
f αi ai = αi f (ai )
i=0 i=0

gilt.
8. Erster Isomorphiesatz : Für zwei lineare Unterräume U, U ′ eines K-Vek-
torraums V betrachte man die kanonischen Abbildungen U ⊂ ✲ U + U ′
sowie U + U ′ ✲ (U + U ′ )/U ′ . Man zeige, dass deren Komposition
U ∩ U ′ als Kern besitzt und einen Isomorphismus

U/(U ∩ U ′ ) ∼✲ (U + U ′ )/U ′

induziert. (AT 400)


9. Zweiter Isomorphiesatz : Es seien V ein K-Vektorraum und U ⊂ U ′ ⊂ V
lineare Unterräume. Man zeige:
(i) Die kanonische Abbildung U ′ ⊂ ✲ V ✲ V /U besitzt U als Kern
und induziert einen Monomorphismus U ′ /U ⊂ ✲ V /U . Folglich
lässt sich U ′ /U mit seinem Bild in V /U identifizieren und somit
als linearer Unterraum von V /U auffassen.
(ii) Die Projektion V ✲ V /U ′ faktorisiert über V /U , d. h. lässt
π f
sich als Komposition V ✲ V /U ✲ V /U ′ schreiben, mit einer
linearen Abbildung f und der kanonischen Projektion π.
(iii) f besitzt U ′ /U als Kern und induziert einen Isomorphismus

(V /U )/(U ′ /U ) ∼✲ V /U ′ .

10. Für lineare Unterräume U1 , U2 eines K-Vektorraums V betrachte man


die kanonischen Projektionen πi : V ✲ V /Ui , i = 1, 2, sowie die Ab-
bildung
96 2. Lineare Abbildungen


(π1 , π2 ) : V ✲ V /U1 × V /U2 , x ✲ π1 (x), π2 (x) .

Man zeige:
(i) (π1 , π2 ) ist K-linear, wenn man V /U1 × V /U2 mit komponen-
tenweiser Addition und skalarer Multiplikation als K-Vektorraum
auffasst.
(ii) (π1 , π2 ) ist genau dann injektiv, wenn U1 ∩ U2 = 0 gilt.
(iii) (π1 , π2 ) ist genau dann surjektiv, wenn V = U1 + U2 gilt.
(iv) (π1 , π2 ) ist genau dann bijektiv, wenn V = U1 ⊕ U2 gilt.
11. Man konstruiere ein Beispiel eines K-Vektorraums V mit einem linearen
Unterraum 0 ( U ⊂ V , so dass es einen Isomorphismus V /U ∼✲ V
gibt. Gibt es ein solches Beispiel im Falle dimK V < ∞? (AT 401)
f g h
12. Es seien V1 ✲ V2 ✲ V3 ✲ V4 drei K-lineare Abbildungen zwi-
schen endlich-dimensionalen K-Vektorräumen. Man zeige:

rg(g ◦ f ) + rg(h ◦ g) ≤ rg(h ◦ g ◦ f ) + rg g

2.3 Der Dualraum

Für zwei K-lineare Abbildungen f, g : V ✲ V ′ zwischen K-Vektor-


räumen hatten wir in Abschnitt 2.1 deren Summe durch

f + g: V ✲ V ′, a ✲ f (a) + g(a),

und für eine Konstante α ∈ K das Produkt αf durch



αf : V ✲ V ′, a ✲ α f (a) ,

definiert. Man rechnet ohne Schwierigkeiten nach, dass f + g und αf


wieder K-linear sind und dass die K-linearen Abbildungen V ✲ V′
mit diesen Verknüpfungen einen K-Vektorraum bilden; dieser wird mit
HomK (V, V ′ ) bezeichnet. Speziell werden wir in diesem Abschnitt für
V ′ als K-Vektorraum den Körper K selbst betrachten. K-lineare Ab-
bildungen V ✲ K werden auch als Linearformen bezeichnet.

Definition 1. Es sei V ein K-Vektorraum. Dann heißt der K-Vek-


torraum HomK (V, K) aller Linearformen auf V der Dualraum zu V .
Dieser wird mit V ∗ bezeichnet.
2.3 Der Dualraum 97

Beispielsweise ist für n ∈ N − {0} die Abbildung

Kn ✲ K, (α1 , . . . , αn ) ✲ α1 ,

eine Linearform auf K n . Betrachten wir allgemeiner einen K-Vektor-


raum V mit Basis a1 , . . . , an , so können wir aus 2.1/7 ablesen, dass es
zu gegebenen Elementen λ1 , . . . , λn ∈ K stets eine eindeutig bestimmte
Linearform ϕ ∈ V ∗ mit ϕ(ai ) = λi , i = 1, . . . , n, gibt. Die Linearfor-
men auf V korrespondieren folglich in bijektiver Weise zu den n-Tupeln
von Konstanten aus K, wobei diese Zuordnung genauer einen Isomor-
phismus V ∗ ∼✲ K n darstellt. Legen wir etwa im Falle V = K n die
kanonische Basis e1 , . . . , en zugrunde, so werden dementsprechend die
Linearformen auf K n gerade durch die Abbildungen
n
X
K n ✲ K, (α1 , . . . , αn ) ✲ λ i αi ,
i=1

zu n-Tupeln (λ1 , . . . , λn ) ∈ K n gegeben. Insbesondere ist der Dualraum


des Nullraums wieder der Nullraum.

Satz 2. Es sei f : U ✲ V eine K-lineare Abbildung zwischen Vek-


torräumen. Dann ist die Abbildung

f∗ : V ∗ ✲ U ∗, ϕ ✲ ϕ ◦ f,

K-linear ; man nennt f ∗ die duale Abbildung zu f . Ist g : V ✲W


eine weitere K-lineare Abbildung zwischen Vektorräumen, so gilt die
Verträglichkeitsbeziehung (g ◦ f )∗ = f ∗ ◦ g ∗ .

Man kann sich die Definition des Bildes f ∗ (ϕ) = ϕ ◦ f anhand des
folgenden kommutativen Diagramms verdeutlichen:
f
U ✲ V

ϕ
f ∗ (ϕ) ✲ ❄
K
Es wird die Linearform ϕ sozusagen unter der Abbildung f ∗ zu einer
Linearform auf U zurückgezogen, indem man mit f komponiert.
98 2. Lineare Abbildungen

Nun zum Beweis von Satz 2. Für ϕ, ψ ∈ V ∗ sowie für α ∈ K ergibt


sich in naheliegender Weise

f ∗ (ϕ + ψ) = (ϕ + ψ) ◦ f = (ϕ ◦ f ) + (ψ ◦ f ) = f ∗ (ϕ) + f ∗ (ψ),
f ∗ (αϕ) = (αϕ) ◦ f = α(ϕ ◦ f ) = αf ∗ (ϕ)

und damit die K-Linearität von f ∗ . Um die Formel für die Komposition
dualer Abbildungen nachzuweisen, betrachte man für eine Linearform
ϕ ∈ W ∗ das kommutative Diagramm:
f g
U ✲ V ✲ W

g ∗ (ϕ)
ϕ
(g◦f )∗ (ϕ)
✲ ❄
✲ K
Es ergibt sich

(g ◦ f )∗ (ϕ) = ϕ ◦ (g ◦ f ) = (ϕ ◦ g) ◦ f
 
= g ∗ (ϕ) ◦ f = f ∗ g ∗ (ϕ) = (f ∗ ◦ g ∗ )(ϕ)

und damit die gewünschte Relation (g ◦ f )∗ = f ∗ ◦ g ∗ , indem man ϕ


in W ∗ variieren lässt. 

Im Folgenden wollen wir einige Zusammenhänge zwischen linearen


Abbildungen und den zugehörigen dualen Abbildungen untersuchen.
Wir schließen dabei auch den Fall unendlich-dimensionaler Vektorräu-
me mit ein, beschränken uns bei den Beweisen aus technischen Grün-
den aber meist auf den Fall endlich-dimensionaler Vektorräume.

Satz 3. Es sei f : V ✲ W eine K-lineare Abbildung zwischen Vek-


torräumen sowie f : W ∗
∗ ✲ V ∗ die zugehörige duale Abbildung.
(i) Ist f ein Monomorphismus, so ist f ∗ ein Epimorphismus.
(ii) Ist f ein Epimorphismus, so ist f ∗ ein Monomorphismus.

Beweis. Wir beginnen mit Aussage (i). Sei also f injektiv. Um zu se-
hen, dass f ∗ surjektiv ist, zeigen wir, dass jede Linearform ψ ∈ V ∗
ein Urbild ϕ ∈ W ∗ besitzt, dass also zu ψ eine Linearform ϕ ∈ W ∗
2.3 Der Dualraum 99

mit ψ = ϕ ◦ f existiert. Hierzu schreiben wir f als Komposition zwei-


er K-linearer Abbildungen, nämlich der von f induzierten Abbildung
f1 : V ✲ im f , sowie der Inklusionsabbildung f2 : im f ⊂ ✲ W . Da-
bei ist f1 aufgrund der Injektivität von f ein Isomorphismus. Sodann
betrachte man das Diagramm
f1 f2
V ✲ im f ⊂ ✲ W

ψ′ ϕ
ψ

❄✛

K
wobei die Linearformen ψ ′ : im f ✲ K und ϕ : W ✲ K noch zu
konstruieren sind, und zwar so, dass das Diagramm kommutiert. Da
f1 ein Isomorphismus ist, können wir ψ ′ = ψ ◦ f1−1 setzen. Dann bleibt
noch das Problem, die Linearform ψ ′ : im f ✲ K zu einer Linearform
ϕ: W ✲ K fortzusetzen.
Um dies zu bewerkstelligen, wählen wir gemäß 1.6/4 ein Komple-
ment W ′ zu im f in W , also einen Untervektorraum W ′ ⊂ W mit
W = (im f ) ⊕ W ′ . Jedes w ∈ W hat dann eine eindeutige Zerle-
gung w = w1 ⊕ w2 mit w1 ∈ im f und w2 ∈ W ′ . Setzt man je-
weils ϕ(w) = ψ ′ (w1 ), so erhält man wie gewünscht eine Linearform
ϕ: W ✲ K, die ψ ′ fortsetzt und damit f ∗ (ϕ) = ψ erfüllt.
Zum Nachweis von (ii) setze man f : V ✲ W als surjektiv voraus.
∗ ∗ ∗
Weiter seien ϕ, ϕ ∈ W mit f (ϕ) = f (ϕ ), also mit ϕ ◦ f = ϕ′ ◦ f .
′ ′

Ist dann w ∈ W beliebig gewählt und v ∈ V ein Urbild unter f , so gilt


 
ϕ(w) = ϕ f (v) = (ϕ ◦ f )(v) = (ϕ′ ◦ f )(v) = ϕ′ f (v) = ϕ′ (w).

Hieraus folgt ϕ = ϕ′ , wenn man w in W variieren lässt. 

Die Aussage von Satz 3 lässt sich mittels sogenannter exakter Se-
quenzen allgemeiner formulieren. Unter einer Sequenz wollen wir eine
Kette
fn−2
... ✲ Vn−1 fn−1
✲ Vn fn✲ Vn+1 fn+1 ✲ ...

von K-linearen Abbildungen verstehen, wobei der Index n einen end-


lichen oder unendlichen Abschnitt in Z durchlaufe. Man sagt, dass
die Sequenz bei Vn die Eigenschaft eines Komplexes besitzt, wenn
100 2. Lineare Abbildungen

fn ◦ fn−1 = 0 oder, äquivalent hierzu, im fn−1 ⊂ ker fn gilt. Weiter


heißt die Sequenz exakt bei Vn , wenn sogar im fn−1 = ker fn gilt. Er-
füllt die Sequenz die Komplex-Eigenschaft an allen Stellen Vn (natür-
lich außer bei solchen Vn , die die Sequenz möglicherweise terminieren),
so spricht man von einem Komplex. Entsprechend heißt die Sequenz
exakt, wenn sie an allen Stellen exakt ist. Beispielsweise ist für eine
K-lineare Abbildung f : V ′ ✲ V die Sequenz

f
0 ✲ V′ ✲ V

genau dann exakt, wenn f injektiv ist; dabei ist 0 der Nullvektorraum
sowie 0 ✲ V ′ (als einzig mögliche K-lineare Abbildung von 0 nach
V ′ ) die Nullabbildung. Entsprechend ist die Sequenz
f
V′ ✲ V ✲ 0

genau dann exakt, wenn f surjektiv ist; auch hierbei ist V ✲ 0


(zwangsläufig) die Nullabbildung. Exakte Sequenzen des Typs
f g
0 ✲ V′ ✲ V ✲ V ′′ ✲ 0

werden auch als kurze exakte Sequenzen bezeichnet. Die Exaktheit ei-
ner solchen Sequenz ist äquivalent zu den folgenden Bedingungen:
(1) f ist injektiv,
(2) im f = ker g,
(3) g ist surjektiv.
Bei einer kurzen exakten Sequenz können wir daher V ′ unter f als
Untervektorraum von V auffassen, und es folgt mit dem Homomorphie-
satz 2.2/9, dass g einen kanonischen Isomorphismus V /V ′ ∼✲ V ′′
induziert. Umgekehrt kann man zu jedem Untervektorraum U ⊂ V in
kanonischer Weise die exakte Sequenz

0 ✲ U ✲ V ✲ V /U ✲ 0

betrachten. Ein weiteres Beispiel einer kurzen exakten Sequenz wird


für K-Vektorräume V1 und V2 und deren (konstruierte) direkte Summe
V1 ⊕ V2 durch die Abbildungen
2.3 Der Dualraum 101

0 ✲ V1 ✲ V1 ⊕ V2 ✲ V2 ✲ 0

gegeben, wobei V1 ✲ V1 ⊕V2 , v1 ✲ (v1 , 0), die kanonische Inklusion


und V1 ⊕ V2 ✲ V2 , (v1 , v2 ) ✲ v2 , die kanonische Projektion sei.

Satz 4. Es sei
fn−1 fn
... ✲ Vn−1 ✲ Vn ✲ Vn+1 ✲ ...

eine exakte Sequenz von K-Vektorräumen. Dann ist auch die zugehö-
rige duale Sequenz
fn−1∗ ∗
... ✛ ∗ ✛
Vn−1
f ∗ ✛
Vn∗ ✛ n Vn+1 ...

exakt.

Formulieren wir Satz 3 im Sinne exakter Sequenzen um, so sieht


man, dass für eine exakte Sequenz 0 ✲ U ✲ V auch die zugehörige
duale Sequenz V ∗ ✲ U∗ ✲ 0 exakt ist; vgl. Satz 3 (i). Entspre-
chend besagt Satz 3 (ii), dass für eine exakte Sequenz U ✲ V ✲0
die zugehörige duale Sequenz 0 ✲ V ∗ ✲ U ∗ exakt ist. Satz 4 ist
daher eine Verallgemeinerung von Satz 3.

Beweis zu Satz 4. Es genügt zu zeigen, dass für eine exakte Sequenz


f g
U ✲ V ✲ W

die zugehörige duale Sequenz


g∗ f∗
W∗ ✲ V∗ ✲ U∗

exakt ist. Zunächst folgt aus g ◦ f = 0 für beliebiges ϕ ∈ W ∗ die


Beziehung (f ∗ ◦ g ∗ )(ϕ) = ϕ ◦ g ◦ f = 0, d. h. es gilt f ∗ ◦ g ∗ = 0
und damit im g ∗ ⊂ ker f ∗ . Um auch die umgekehrte Inklusion zeigen
zu können, betrachte man ein Element ϕ ∈ ker f ∗ , also eine Linear-
form ϕ : V ✲ K mit ϕ ◦ f = 0. Dann haben wir ϕ(im f ) = 0 und
wegen der Exaktheit von U ✲V ✲ W auch ϕ(ker g) = 0; Letz-
teres bedeutet ker g ⊂ ker ϕ. Um nun ϕ ∈ im g ∗ zu zeigen, haben wir
eine Linearform ψ ∈ W ∗ mit ϕ = ψ ◦ g zu konstruieren. Hierzu zer-
legen wir g : V ✲ W ähnlich wie im Beweis zu Satz 3 in die von g
102 2. Lineare Abbildungen

induzierte surjektive Abbildung g1 : V ✲ im g sowie die Inklusion


g2 : im g ⊂ ✲ W . Aufgrund des Homomorphiesatzes 2.2/8 existiert
dann eine Linearform ϕ′ : im g ✲ K mit ϕ = ϕ′ ◦ g1 . Weiter lässt
sich ϕ′ , wie im Beweis zu Satz 3 gezeigt oder unter Benutzung von
Satz 3 (i), zu einer Linearform ψ : W ✲ K ausdehnen, d. h. mit

ψ ◦ g2 = ϕ . Dann gilt
g ∗ (ψ) = ψ ◦ g = ψ ◦ g ◦ g = ϕ′ ◦ g = ϕ,
2 1 1

also ist ψ ein Urbild zu ϕ unter g ∗ . Hieraus folgt ker f ∗ ⊂ im g ∗ bzw.


ker f ∗ = im g ∗ , so dass sich die Sequenz W ∗ ✲ V∗ ✲ U ∗ als
exakt erweist. 

Als Nächstes wollen wir für endlich-dimensionale K-Vektorräume


und ihre Dualräume Basen zueinander in Beziehung setzen. Insbeson-
dere wollen wir zeigen, dass ein Vektorraum und sein Dualraum diesel-
be Dimension besitzen. Wir erinnern dabei nochmals an das Kronecker-
Symbol δij , welches für Indizes i, j aus einer vorgegebenen Menge er-
klärt ist. Und zwar gilt δij = 1 für i = j und δij = 0 sonst.

Satz 5. Es sei V ein K-Vektorraum mit Basis a1 , . . . , an . Erklärt man


dann Linearformen ϕ1 , . . . , ϕn ∈ V ∗ gemäß 2.1/7 durch ϕi (aj ) = δij ,
so bilden diese eine Basis von V ∗ , und zwar die sogenannte duale Basis
zu a1 , . . . , an .

Beweis. Wir überprüfen zunächst, dass ϕ1 , P


. . . , ϕn linear unabhängig
sind. Hierzu betrachte man eine Gleichung ni=1 αi ϕi = 0 mit Koeffi-
zienten αi ∈ K. Einsetzen von aj liefert
n
X
αj = αi ϕi (aj ) = 0, j = 1, . . . , n,
i=1

d. h. ϕ1 , . . . , ϕn sind linear unabhängig. Ist andererseits ϕ ∈ V ∗ gege-


ben, so gilt
n
X
ϕ(aj ) = ϕ(ai )ϕi (aj ), j = 1, . . . , n,
i=1
Pn
was ϕ = i=1 ϕ(ai )ϕi gemäß 2.1/7 impliziert. ϕ1 , . . . , ϕn erzeugen also
V ∗ und bilden damit sogar eine Basis von V ∗ . 
2.3 Der Dualraum 103

Korollar 6. Es sei V ein endlich-dimensionaler K-Vektorraum. Dann


gilt dimK V = dimK V ∗ . Insbesondere existiert ein Isomorphismus
V ∼✲ V ∗ .

Man beachte, dass sich die Aussage von Satz 5 nicht auf unendlich-
dimensionale K-Vektorräume verallgemeinern lässt. Ist nämlich (ai )i∈I
eine unendliche Basis, so erkläre man wiederum durch ϕi (aj ) = δij ein
System (ϕi )i∈I von Linearformen auf V . Wie im Beweis zu Satz 5 er-
gibt sich, dass dieses linear unabhängig ist und dass der von den ϕi
erzeugte lineare Unterraum von V ∗ gerade aus denjenigen Linearfor-
men ϕ : V ✲ K besteht, für die ϕ(ai ) = 0 für fast alle i ∈ I gilt.
Andererseits kann man aber Linearformen V ✲ K definieren, indem
man die Bilder der Basisvektoren ai beliebig vorgibt. Insbesondere gibt
es Linearformen ϕ ∈ V ∗ mit ϕ(ai ) 6= 0 für unendlich viele Indizes i ∈ I.
Somit kann (ϕi )i∈I im Falle einer unendlichen Indexmenge I kein Er-
zeugendensystem und damit auch keine Basis von V sein.
Als Nächstes wollen wir für lineare Abbildungen f : V ✲ W den
Rang rg f , also die Dimension des Bildes von f , mit dem Rang der
zugehörigen dualen Abbildung f ∗ : W ∗ ✲ V ∗ vergleichen.

Satz 7. Ist f : V ✲ W eine K-lineare Abbildung end lich-di mensio-


naler Vektorräume und f ∗ : W ∗ ✲ V ∗ die zugehörige duale Abbil-
dung, so gilt rg f = rg f ∗ .

Beweis. Wir spalten f : V ✲ W auf in die induzierte surjektive linea-


re Abbildung f1 : V ✲ im f , sowie die Inklusion f2 : im f ⊂ ✲ W .
Nach Satz 2 ist dann f ∗ : W ∗ ✲ V ∗ die Komposition der dualen
Abbildungen f2∗ : W ∗ ✲ (im f )∗ und f1∗ : (im f )∗ ✲ V ∗ . Nun ist
f2∗ surjektiv nach Satz 3 (i) und f1∗ injektiv nach Satz 3 (ii). Es wird
daher (im f )∗ unter f1∗ isomorph auf das Bild im f ∗ abgebildet, und
man erhält mit Korollar 6

rg f = dimK (im f ) = dimK (im f )∗ = dimK (im f ∗ ) = rg f ∗ .

Abschließend wollen wir noch den doppelt dualen Vektorraum


V ∗∗ = (V ∗ )∗ zu einem K-Vektorraum V betrachten. Man hat stets
104 2. Lineare Abbildungen

eine kanonische Abbildung


Φ: V ✲ V ∗∗ , a ✲ a∗ ,
wobei a∗ für a ∈ V gegeben ist durch
a∗ : V ∗ ✲ K, ϕ ✲ ϕ(a).

Satz 8. Ist V ein endlich-dimensionaler K-Vektorraum, so ist die


vorstehend beschriebene Abbildung Φ : V ✲ V ∗∗ ein Isomorphismus
von K-Vektorräumen.

Beweis. Wir zeigen zunächst, dass Φ eine K-lineare Abbildung ist.


Seien a, b ∈ V und α ∈ K. Dann stimmen die Abbildungen
(a + b)∗ : V ∗ ✲ K, ϕ ✲ ϕ(a + b) = ϕ(a) + ϕ(b),
a∗ + b∗ : V ∗ ✲ K, ϕ ✲ ϕ(a) + ϕ(b),
überein, d. h. es gilt Φ(a + b) = Φ(a) + Φ(b). Entsprechend hat man
(αa)∗ : V ∗ ✲ K, ϕ ✲ ϕ(αa) = αϕ(a),
αa∗ : V ∗ ✲ K, ϕ ✲ αϕ(a),
d. h. es folgt Φ(αa) = αΦ(a). Insgesamt ergibt sich die K-Linearität
von Φ.
Bilden nun a1 , . . . , an eine Basis von V und ist ϕ1 , . . . , ϕn die hierzu
duale Basis, so ist a∗1 , . . . , a∗n die duale Basis zu ϕ1 , . . . , ϕn ; denn es gilt
a∗i (ϕj ) = ϕj (ai ) = δij für i, j = 1, . . . , n.
Unter Φ wird also eine Basis von V auf eine Basis des Bildraums V ∗∗
abgebildet. Dies bedeutet dann, dass Φ notwendig ein Isomorphismus
ist. 

Aufgaben
1. Man prüfe, ob die folgenden Linearformen ϕi : R5 ✲ R ein linear
unabhängiges System in (R5 )∗ bilden:
(i) ϕ1 : (α1 , . . . , α5 ) ✲ α1 + α2 + α3 + α4 + α5
ϕ2 : (α1 , . . . , α5 ) ✲ α1 + 2α2 + 3α3 + 4α4 + 5α5
ϕ3 : (α1 , . . . , α5 ) ✲ α1 − α2
2.3 Der Dualraum 105

(ii) ϕ1 : (α1 , . . . , α5 ) ✲ α1 + 7α2 + 7α3 + 7α4 + α5


ϕ2 : (α1 , . . . , α5 ) ✲ α1 + 2α2 + 3α3 + 4α4 + 5α5
ϕ3 : (α1 , . . . , α5 ) ✲ 12α1 + 7α2 + 13α3 + 8α4 + 9α5
ϕ4 : (α1 , . . . , α5 ) ✲ 10α1 − 2α2 + 3α3 − 3α4 + 3α5
2. Für einen Körper K und ein n ∈ N betrachte man K n als K-Vektorraum.
Es sei pi : K n ✲ K, i = 1, . . . , n, jeweils die Projektion auf die i-te
Koordinate. Man zeige, dass p1 , . . . , pn eine Basis des Dualraums (K n )∗
bilden, und zwar die duale Basis zur kanonischen Basis e1 , . . . , en ∈ K n ,
bestehend aus den Einheitsvektoren ei = (δ1i , . . . , δni ).
Im Falle K = R und n = 4 fixiere man

(1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)

als Basis von R4 und bestimme die hierzu duale Basis von (R4 )∗ , indem
man deren Elemente als Linearkombinationen der pi angibt. (AT 402)
3. Es seien V, W zwei K-Vektorräume. Man zeige, dass die Abbildung

HomK (V, W ) ✲ HomK (W ∗ , V ∗ ), f ✲ f ∗,

K-linear ist, was bedeutet, dass für Elemente α ∈ K und K-lineare Ab-
bildungen f, g : V ✲ W stets (f +g)∗ = f ∗ +g ∗ sowie (αf )∗ = α · f ∗
gilt.
4. Man betrachte einen K-Vektorraum V und zu einem Element a ∈ V
das induzierte Element a∗ ∈ V ∗∗ , welches definiert ist durch

a∗ : V ∗ ✲ K, ϕ ✲ ϕ(a).

Man zeige (AT 404):


(i) Die Abbildung ι : V ✲ HomK (K, V ), welche einem Element
a ∈ V die Abbildung α ✲ α · a zuordnet, ist ein Isomorphismus
von K-Vektorräumen.
(ii) Man identifiziere V unter ι mit HomK (K, V ) und entsprechend K
als K-Vektorraum mit seinem Dualraum HomK (K, K). Dann ist
für a ∈ V das Element a∗ ∈ V ∗∗ zu interpretieren als die duale
Abbildung zu a = ι(a).
5. Es sei V ein endlich-dimensionaler K-Vektorraum und V ∗ sein Dual-
raum. Für lineare Unterräume U ⊂ V und U ⊂ V ∗ setze man
1 2

U1⊥ = ϕ ∈ V ∗ ; ϕ(U1 ) = 0 ,

U2⊥ = a ∈ V ; ϕ(a) = 0 für alle ϕ ∈ U2 .
106 2. Lineare Abbildungen

Man zeige für lineare Unterräume U, U ′ ⊂ V bzw. U, U ′ ⊂ V ∗ :


(i) (U + U ′ )⊥ = U ⊥ ∩ U ′⊥
(ii) (U ⊥ )⊥ = U
(iii) (U ∩ U ′ )⊥ = U ⊥ + U ′⊥
(iv) dimK U + dimK U ⊥ = dimK V
6. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwischen K-Vektorräumen
und f ∗ : V ′∗ ✲ V ∗ die zugehörige duale Abbildung. Man konstruiere
auf kanonische Weise einen Isomorphismus

coker f ∗ ∼✲ (ker f )∗ ,

wobei man mit coker f ∗ den Cokern von f ∗ , d. h. den Quotienten


V ∗ / im f ∗ bezeichnet. (AT 405)
f g
7. Es sei 0 ✲ V′ ✲ V ✲ V ′′ ✲ 0 eine kurze exakte Sequenz
von K-Vektorräumen. Man zeige, dass eine solche Sequenz stets spaltet,
d. h. dass es eine K-lineare Abbildung g̃ : V ′′ ✲ V mit g ◦ g̃ = idV ′′
gibt. Die Wahl einer solchen Abbildung g̃ hat folgende Konsequenzen:
(i) g̃ ist injektiv, und es gilt V = ker g ⊕ im g̃ bzw. V = V ′ ⊕ V ′′ , wenn
wir V ′ unter f mit ker g = im f identifizieren und entsprechend
V ′′ unter g̃ mit im g̃.
(ii) Es existiert eindeutig eine K-lineare Abbildung f˜: V ✲ V ′ mit
˜ ˜
f ◦ f = idV ′ und f ◦ g̃ = 0.
f ˜ g̃
(iii) Es ist 0 ✛ V′ ✛ V ✛ V ′′ ✛ 0 eine kurze exakte Sequenz.
8. Man betrachte eine exakte Sequenz von endlich-dimensionalen K-Vek-
torräumen
f1 fn−1
0 ✲ V1 ✲ ... ✲ Vn ✲ 0

und zeige
n
X
(−1)i dimK Vi = 0.
i=1
3. Matrizen

Überblick und Hintergrund

Bisher haben wir uns im Wesentlichen mit der Untersuchung von


grundsätzlichen Eigenschaften bei Vektorräumen und linearen Abbil-
dungen sowie der hiermit verbundenen Konstruktionen beschäftigt.
Wir wollen nun verstärkt auf den rechnerischen Standpunkt eingehen
und in diesem Kapitel zeigen, wie man konkret gegebene Probleme
der Linearen Algebra in effektiver Weise rechnerisch lösen kann. Im
Zentrum stehen hier Matrizen und das sogenannte Gaußsche Elimina-
tionsverfahren, insbesondere in der Version zur Lösung linearer Glei-
chungssysteme.
Als Beispiel gehen wir von der folgenden geometrischen Situation
aus:

y
G′ ❍ ✻
❍❍
❍❍ P2 ✘✘
❍❍
P ′
P ✘✘ ✘✘❜✘
❍❍❜1 ❜1 ✘
❍✘✘✘✘✘
✘❍❍
✘✘✘✘✘ ❍❍

G ✘✘✘ ❍❍ P ′
❍❍❜2
❍❍
❍❍


x
Gegeben seien zwei Geraden G, G′ ⊂ R2 , wobei G durch die (verschie-
denen) Punkte P1 , P2 ∈ R2 festgelegt sei und entsprechend G′ durch

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0_3
108 3. Matrizen

die (verschiedenen) Punkte P1′ , P2′ ∈ R2 . Man untersuche dann in Ab-


hängigkeit von P1 , P2 , P1′ , P2′ , ob G und G′ Schnittpunkte, also gemein-
same Punkte, besitzen und, wenn ja, wie sich diese aus den Punkten
P1 , P2 , P1′ , P2′ berechnen lassen. Wie wir bereits in der Einführung zu
Kapitel 1 gesehen haben, gelten für G und G′ die Parametrisierungen
 
G = P1 + t(P2 − P1 ) ; t ∈ R , G′ = P1′ + t′ (P2′ − P1′ ) ; t′ ∈ R ,

und Schnittpunkte S ∈ G ∩ G′ sind offenbar dadurch charakterisiert,


dass es Parameter t, t′ ∈ R mit

P1 + t(P2 − P1 ) = S = P1′ + t′ (P2′ − P1′ )

gibt. Mit anderen Worten, zur Ermittlung der Schnittpunkte von G


und G′ haben wir alle Paare (t, t′ ) ∈ R2 zu bestimmen, die der Glei-
chung

(∗) t(P2 − P1 ) + t′ (P1′ − P2′ ) = P1′ − P1

genügen, oder, in Komponentenschreibweise mit

P2 − P1 = (α11 , α21 ), P1′ − P2′ = (α12 , α22 ), P1′ − P1 = (β1 , β2 ),

die den Gleichungen

tα11 + t′ α12 = β1
(∗∗)
tα21 + t′ α22 = β2

genügen. Es ist also ein Gleichungssystem bestehend aus 2 Gleichun-


gen mit den beiden Unbekannten t und t′ und den gegebenen Kon-
stanten αij , βi ∈ R zu lösen. Dabei handelt es sich um ein lineares
Gleichungssystem, womit wir meinen, dass die Unbekannten t, t′ sepa-
riert in höchstens erster Potenz auftreten.
Um die Gleichung (∗) zu lösen, nehmen wir zunächst einmal an,
dass die beiden Vektoren P2 − P1 und P1′ − P2′ linear abhängig sind,
was in diesem Fall zur Folge hat, dass jeder der beiden Vektoren ein
skalares Vielfaches des anderen ist; geometrisch bedeutet dies, dass G
und G′ parallel sind. Es ist also P1′ − P2′ ein skalares Vielfaches von
P2 − P1 , etwa P1′ − P2′ = γ(P2 − P1 ), und wir können die Gleichung (∗)
zu
Überblick und Hintergrund 109

P1′ = P1 + (t + γt′ )(P2 − P1 )


umschreiben. Somit ist die Existenz von Lösungen t, t′ äquivalent zu
P1′ ∈ G, was aber dann bereits G = G′ impliziert. Es können daher
lediglich folgende Fälle auftreten, die sich gegenseitig ausschließen:
(1) P2 − P1 und P1′ − P2′ sind linear abhängig, G = G′ .

(2) P2 − P1 und P1′ − P2′ sind linear abhängig, G 6= G′ ; dann gilt


G ∩ G′ = ∅.

(3) P2 − P1 und P1′ − P2′ sind linear unabhängig; dann besitzen G


und G′ genau einen Schnittpunkt (was anschaulich klar ist), den
wir sogleich berechnen wollen.
Wir nehmen nun gemäß (3) an, dass die Vektoren P2 − P1 = (α11 , α21 )
und P1′ − P2′ = (α12 , α22 ) linear unabhängig sind. Insbesondere gilt
P2 −P1 6= 0, und es sei etwa α11 6= 0. Dann können wir das System (∗∗)
in äquivalenter Weise umformen, indem wir das αα11 21
-fache der ersten
Gleichung von der zweiten subtrahieren, so dass wir in der zweiten
Gleichung die Unbekannte t “eliminieren”:

tα11 + t′ α12 = β1
 α  α21
21
t′ α22 − α12 = β2 − β1
α11 α11
α21
Nun gilt aber α22 − α
α11 12
6= 0, denn anderenfalls würde sich
α12 α12
α12 = α11 , α22 = α21
α11 α11
ergeben, und P1′ −P2′ wäre linear abhängig von P2 −P1 , was aber unserer
Annahme widerspricht. Somit können wir die zweite Gleichung weiter
äquivalent umformen zu
α21

β2 − β
α11 1 α11 β2 − α21 β1
t = α21
= ,
α22 − α α11 α22 − α21 α12
α11 12

und wir erhalten aus der ersten Gleichung


1  α11 β2 − α21 β1  β1 α22 − β2 α12
t= β1 − α12 = .
α11 α11 α22 − α21 α12 α11 α22 − α21 α12
110 3. Matrizen

Dabei haben wir unter der Annahme von α11 6= 0 die Gleichungen in
äquivalenter Weise umgeformt, so dass t, t′ auch tatsächlich Lösungen
von (∗∗) sind. Es bleibt nun aber noch der Fall α11 = 0 zu betrachten.
In diesem Fall ist allerdings α21 6= 0, und wir können eine entsprechen-
de Rechnung unter dieser Annahme machen. Das Ergebnis für t, t′ lässt
sich formal aus dem vorstehenden ableiten, indem wir in den Vektoren
(α11 , α21 ), (α12 , α22 ), (β1 , β2 ) jeweils die Reihenfolge der Komponenten
vertauschen, was einer Vertauschung der beiden Gleichungen des Sys-
tems (∗∗) entspricht. Da sich aber das vorstehende Ergebnis bei dieser
Vertauschung nicht ändert, wie man leicht feststellt, erhalten wir
β1 α22 − β2 α12 α11 β2 − α21 β1
t= , t′ =
α11 α22 − α21 α12 α11 α22 − α21 α12
als Lösung der Gleichung (∗) bzw. des linearen Gleichungssystems (∗∗)
im Falle nicht-paralleler Geraden G, G′ . Insbesondere besteht G ∩ G′
aus genau einem Schnittpunkt, und dieser berechnet sich zu
β1 α22 − β2 α12 α11 β2 − α21 β1
S = P1 + (P2 − P1 ) = P1′ + (P ′ − P1′ ),
α11 α22 − α21 α12 α11 α22 − α21 α12 2
jeweils als Punkt von G bzw. G′ .
In ähnlicher Weise führt das Problem, den Schnitt zweier Ebenen
im R3 , oder allgemeiner, den Schnitt zweier affiner Unterräume im
K n zu bestimmen, auf ein lineares Gleichungssystem. Im ersten Falle
handelt es sich beispielsweise um ein System von 3 Gleichungen mit
4 Unbekannten, von denen im Allgemeinfall eine frei wählbar ist, so
dass der Schnitt dann als Gerade parametrisiert wird. Im zweiten Fall
hat man ein System von n Gleichungen mit r + s Unbekannten zu
betrachten, wobei r und s die Dimensionen der betrachteten affinen
Unterräume im K n sind.
Aber auch direkte Fragen über Vektoren in Vektorräumen können
auf lineare Gleichungssysteme führen. Über einem Körper K betrachte
man beispielsweise Vektoren ai = (α1i , . . . , αni ) ∈ K n , i = 1, . . . , r, und
teste, ob diese linear abhängig sind. Wir müssen dann also überprüfen,
ob es Elemente t1 , . . . , tr ∈ K gibt, die nicht alle verschwinden, so dass
t1 a1 + . . . + tr ar = 0
gilt, oder, nach Übergang zu den einzelnen Komponenten, ob das li-
neare Gleichungssystem
Überblick und Hintergrund 111

t1 α11 + . . . + tr α1r = 0
t1 α21 + . . . + tr α2r = 0
...
t1 αn1 + . . . + tr αnr = 0

eine nicht-triviale Lösung t1 , . . . , tr ∈ K besitzt. Alternativ können


wir eine lineare Abbildung f : K r ✲ K n betrachten, welche die ka-
nonische Basis bestehend aus den Einheitsvektoren e1 , . . . , er ∈ K r
auf Vektoren a1 , . . . , ar ∈ K n abbildet, und danach fragen, ob ein ge-
gebener Vektor b = (β1 , . . . , βn ) zum Bild von f gehört, also zu dem
Unterraum, der von den Vektoren ai = f (ei ), i = 1, . . . , r erzeugt wird.
Zu testen ist daher, ob die Gleichung

t1 a1 + . . . + tr ar = b,

bzw. für ai = (α1i , . . . , αni ), i = 1, . . . , r, ob das lineare Gleichungssys-


tem

t1 α11 + . . . + tr α1r = β1
t1 α21 + . . . + tr α2r = β2
...
t1 αn1 + . . . + tr αnr = βn

eine Lösung zulässt.


Die Anordnung der Koeffizienten in obigem Gleichungssystem legt
es nahe, die Vektoren a1 , . . . , an , b nicht mehr als Zeilenvektoren zu
schreiben, sondern als Spaltenvektoren, also
     
α11 α1r β1
 ..   ..   .. 
a1 =  .  , . . . , ar =  .  , b =  .  .
αn1 αnr βn

Im Übrigen werden wir das rechteckige Koeffizientenschema


 
α11 . . . α1r
 α21 . . . α2r 
A = (a1 , . . . , ar ) = 
 . ... . 

αn1 . . . αnr
112 3. Matrizen

betrachten und dies als Koeffizientenmatrix des Gleichungssystems be-


zeichnen. Wir entschließen uns auch, die Unbekannten t1 , . . . , tr zu ei-
nem Spaltenvektor zusammenzufassen, und können dann das obige li-
neare Gleichungssystem, ähnlich wie im Falle einer Gleichung mit einer
Unbekannten, in der übersichtlichen Form
     
α11 . . . α1r t β
 α21 . . . α2r   .1   .1 
  ·  ..  =  .. 
 . ... . 
αn1 . . . αnr tr βn

schreiben, wobei das Produkt der Koeffizientenmatrix mit dem Vektor


der Unbekannten durch
     Pr 
α11 . . . α1r t1 α 1j tj
j=1
 α21 . . . α2r   .  ..
  ·  ..  := 



 . ... .  Pr .
αn1 . . . αnr tr j=1 αnj tj

definiert wird. Nach wie vor lautet das Gleichungssystem dann


r
X
αij tj = βi , i = 1, . . . , n,
j=1

wobei wir, wie hier geschehen, die Koeffizienten αij in Zukunft immer
links von den Unbekannten tj schreiben werden.
Die Bedeutung von Matrizen als rechteckige Koeffizientenschema-
ta ist nicht auf lineare Gleichungssysteme beschränkt. Matrizen tre-
ten in der Linearen Algebra überall dort auf, wo es darum geht,
Skalare zu katalogisieren, die von zwei Index-Parametern abhängen.
So betrachte man etwa eine lineare Abbildung f : V ✲ W zwi-
schen zwei K-Vektorräumen V, W mit Basen X = (x1 , . . . , xr ) und
Y = (y1 , . . . , yn ). Es ist f dann vollständig charakterisiert durch die
Bilder f (x1 ), . . . , f (xr ) der Basis X. Jedes dieser Bilder f (xj ) wieder-
um ist vollständig durch die Angabe seiner Koordinaten bezüglich Y
charakterisiert, d. h. der Koeffizienten α1j , . . . , αnj ∈ K, die man be-
nötigt, um f (xj ) als Linearkombination der Basis Y darzustellen, etwa
n
X
f (xj ) = αij yi , j = 1, . . . , r.
i=1
Überblick und Hintergrund 113

Somit ist f eindeutig charakterisiert durch die Angabe der Matrix


 
α11 . . . α1r
 α21 . . . α2r 
Af,X,Y = 
 .
,
... . 
αn1 . . . αnr

und man nennt dies die Matrix, die f bezüglich der Basen X von V und
Y von W beschreibt. Die Korrespondenz f ✲ Af,X,Y besitzt sehr gu-
te Eigenschaften, wie wir noch sehen werden. Beispielsweise lässt sich
der Übergang von einem Vektor x ∈ V zu seinem Bild f (x) ∈ W auf
dem Niveau der Koordinaten bezüglich X bzw. Y als Multiplikation
von Af,X,Y mit dem sogenannten Koordinatenspaltenvektor von x be-
züglich X interpretieren. Weiter entspricht die Komposition linearer
Abbildungen bei Verwendung geeigneter Basen dem noch zu definie-
renden Produkt der beschreibenden Matrizen.
Im Spezialfall V = W und f = id stellt die Matrix Aid,X,Y gerade
diejenigen Koeffizienten bereit, die man benötigt, um die Elemente der
Basis X als Linearkombinationen der Basis Y darzustellen. Insbeson-
dere sehen wir, dass der Wechsel zwischen verschiedenen Basen eines
Vektorraums ebenfalls mittels Matrizen beschrieben wird. Ein weiteres
Anwendungsfeld für Matrizen stellen die in Kapitel 7 zu behandelnden
Skalarprodukte dar.
Wir studieren in diesem Kapitel zunächst die Korrespondenz zwi-
schen linearen Abbildungen f und den zugehörigen beschreibenden
Matrizen Af,X,Y genauer. Sodann besprechen wir das Gaußsche Elimi-
nationsverfahren, und zwar zuerst als Verfahren, welches mittels soge-
nannter elementarer Zeilenumformungen den Zeilenrang einer Matrix
bestimmt, d. h. die Dimension des von den Zeilen der Matrix erzeugten
Vektorraums. In analoger Weise lässt sich der Spaltenrang einer Matrix
betrachten. Es ist leicht einzusehen, dass dieser im Falle einer Matrix
Af,X,Y , die zu einer linearen Abbildung f gehört, mit dem Rang von
f , also der Dimension des Bildes von f , übereinstimmt. Dass der Spal-
tenrang einer Matrix stets auch mit deren Zeilenrang übereinstimmt,
ist hingegen ein nicht-triviales Resultat.
Als Nächstes behandeln wir die Invertierbarkeit von (quadrati-
schen) Matrizen. Eine quadratische Matrix A heißt invertierbar, wenn
es eine quadratische Matrix B mit A · B = B · A = E gibt, wobei
114 3. Matrizen

E die sogenannte Einheitsmatrix bezeichnet, deren Diagonaleinträge


alle 1 sind und die ansonsten nur aus Nullen besteht. Wir werden ins-
besondere sehen, dass die Eigenschaft einer linearen Abbildung, ein
Isomorphismus zu sein, auf der Seite der Matrizen der Invertierbarkeit
entspricht. Im Übrigen verwenden wir das Gaußsche Eliminationsver-
fahren, um konkret gegebene Matrizen auf Invertierbarkeit zu über-
prüfen und, falls möglich, zu invertieren. Es folgt die Interpretation
invertierbarer Matrizen im Rahmen von Basiswechselmatrizen.
Schließlich kommen wir dann noch ausführlich auf lineare Glei-
chungssysteme zu sprechen. Wir ordnen diese in den Zusammenhang
linearer Abbildungen ein und zeigen insbesondere, wie man die Lösung
konkret gegebener Gleichungssysteme mittels des Gaußschen Elimina-
tionsverfahrens formalisieren kann.

3.1 Lineare Abbildungen und Matrizen

Wir hatten bereits in Abschnitt 2.1 gesehen, dass man mit Hilfe von
Matrizen lineare Abbildungen definieren kann und dass man umge-
kehrt lineare Abbildungen bezüglich gewählter Basen durch Matrizen
beschreiben kann. Dieser Sachverhalt soll in diesem Abschnitt genauer
studiert werden. Wie immer sei K ein Körper.

Definition 1. Es seien m, n ∈ N. Eine (m × n)-Matrix mit Koef-


fizienten aus K ist ein System von Elementen αij ∈ K mit Indizes
(i, j) ∈ {1, . . . , m} × {1, . . . , n}, also
 
α11 . . . α1n
A = (αij )i=1,...,m = . ... . .
j=1,...,n
αm1 . . . αmn

Dabei heißt i der Zeilenindex von A; dieser ist bei den Schreibweisen

A = (αij )i=1,...,m bzw. A = (αij )i,j


j=1,...,n

daran zu erkennen, dass er außerhalb der umschließenden Klammern


an erster Stelle aufgeführt wird. Entsprechend ist j als zweiter Index
3.1 Lineare Abbildungen und Matrizen 115

der Spaltenindex von A. Mithin besteht A aus m Zeilen und n Spalten.


Für m = 0 oder n = 0 ist A eine sogenannte leere Matrix.1

Wir bezeichnen die Menge aller (m×n)-Matrizen mit K m×n . Dabei


lässt sich K m×n unter der Zuordnung
 
α11 . . . α1n
 . ... .  ✲ (α11 , . . . , α1n , α21 , . . . , α2n , . . . , αm1 , . . . , αmn )
αm1 . . . αmn

mit K m·n identifizieren. Insbesondere können wir K m×n , ebenso wie


K m·n , als K-Vektorraum auffassen. Damit ist für Matrizen

A = (αij )i,j , B = (βij )i,j ∈ K m×n

deren Summe gegeben durch

A + B = (αij + βij )i,j ,

sowie das Produkt von A mit einem Skalar λ ∈ K durch

λA = (λαij )i,j .

Das Nullelement 0 ∈ K m×n ist die sogenannte Nullmatrix, deren Koef-


fizienten αij sämtlich verschwinden. Insbesondere ergibt sich als ne-
gatives Element zu einer Matrix A = (αij )i,j ∈ K m×n die Matrix
−A = (−αij )i,j . Die kanonische Basis von K m×n wird gegeben durch
die Matrizen

Eij = (δiµ δjν )µ=1,...,m , i = 1, . . . , m, j = 1, . . . , n,


ν=1,...,n

wobei Eij genau am Schnittpunkt der i-ten Zeile mit der j-ten Spalte
eine 1 stehen hat und ansonsten aus lauter Nullen besteht. Beispiels-
weise gilt für eine Matrix (αij )i,j ∈ K m×n
1
Zur Vermeidung von Sonderfällen im Zusammenhang mit linearen Abbildun-
gen ist es praktisch, leere Matrizen nicht von den Betrachtungen auszuschließen.
Wir werden insbesondere für m = 0 leere Matrizen unterschiedlicher Spaltenan-
zahlen n betrachten, sowie im Falle n = 0 leere Matrizen unterschiedlicher Zeilen-
anzahlen m.
116 3. Matrizen
X
A= αij Eij .
i=1,...,m
j=1,...,n

Im Zusammenhang mit Matrizen ist es üblich, Vektoren a ∈ K m


nicht wie bisher als Zeilenvektoren a = (α1 , . . . , αm ) zu schreiben,
sondern als Spaltenvektoren:
 
α1
 .. 
a= . 
αm

Insbesondere kann man aus n solchen Vektoren a1 , . . . , an ∈ K m ei-


ne Matrix A = (a1 , . . . , an ) ∈ K m×n aufbauen. Ist W ein endlich-
dimensionaler K-Vektorraum mitP Basis Y = (y1 , . . . , ym ), so besitzt
jedes a ∈ W eine Darstellung a = m i=1 αi yi mit eindeutig bestimmten
Koeffizienten αi ∈ K. Wir bezeichnen
 
α1
 .. 
aY =  .  ∈ K m
αm

als den zu a ∈ W gehörigen Koordinatenspaltenvektor bezüglich der


Basis Y von W .

Bemerkung 2. Es seien W ein K-Vektorraum und Y = (y1 , . . . , ym )


eine Basis von W . Dann ist die Abbildung

κY : W ✲ K m, a ✲ aY ,

ein Isomorphismus von K-Vektorräumen.

Beweis. Man prüft sofort nach, dass κY linear ist und die Basis Y von
W auf die kanonische Basis von K m abbildet. Somit ist κY notwendi-
gerweise ein Isomorphismus. 

Unter Verwendung von Koordinatenspaltenvektoren können wir die


bereits in Abschnitt 2.1 angedeutete Zuordnung einer Matrix zu einer
linearen Abbildung in einfacher Weise charakterisieren:
3.1 Lineare Abbildungen und Matrizen 117

Definition 3. Seien V , W zwei K-Vektorräume und X = (x1 , . . . , xn )


sowie Y = (y1 , . . . , ym ) Basen von V bzw. W . Ist dann f : V ✲W
eine K-lineare Abbildung, so heißt

A = Af,X,Y = f (x1 )Y , . . . , f (xn )Y ∈ K m×n

die zu f gehörige Matrix bezüglich der Basen X und Y .

Die zu f gehörige Matrix Af,X,Y besteht also gerade aus den


Koordinatenspaltenvektoren bezüglich Y , die sich aus den Bildern
f (x1 ), . . . , f (xn ) der Basis x1 , . . . , xn von V ergeben. Um Af,X,Y in ex-
pliziter Weise aufzuschreiben, stelle man also die Bilder von x1 , . . . , xn
mit Hilfe der Basis Y dar, etwa
m
X
f (xj ) = αij yi , j = 1, . . . , n,
i=1

und es folgt dann:


 
α11 . . . α1n
Af,X,Y = . ... . 
αm1 . . . αmn

Beispielsweise ist die zur Nullabbildung 0 : V ✲ W gehörige Matrix


m×n
A0,X,Y gerade die Nullmatrix 0 ∈ K . Betrachtet man andererseits
für V = W und X = Y die identische Abbildung id : V ✲ V , so ist
die zugehörige Matrix Aid,X,X die sogenannte (m×m)-Einheitsmatrix :
 
1 0 0 ... 0
0 1 0 . . . 0
 
E := Em := (δij )i,j=1,...,m =  
0 0 1 . . . 0 ∈ K
m×m

. . . . . . .
0 0 0 ... 1

Wir wollen nun die Zuordnung f ✲ Af,X,Y genauer untersu-


chen und erinnern daran, dass die Menge aller K-linearen Abbildun-
gen eines K-Vektorraums V in einen K-Vektorraum W wiederum
einen K-Vektorraum bildet, der mit HomK (V, W ) bezeichnet wird.
Die Summe zweier Elemente f, g ∈ HomK (V, W ) ist definiert durch
118 3. Matrizen

(f + g)(a) = f (a) + g(a) und das skalare Vielfache von f mit einem
Element α ∈ K durch (αf )(a) = αf (a), jeweils für a ∈ V .

Satz 4. Es seien V, W endlich-dimensionale K-Vektorräume mit ge-


gebenen Basen X = (x1 , . . . , xn ) und Y = (y1 , . . . , ym ). Dann ist die
Abbildung

Ψ : HomK (V, W ) ✲ K m×n , f ✲ Af,X,Y ,

ein Isomorphismus von K-Vektorräumen.

Beweis. Wir prüfen zunächst nach, dass Ψ eine K-lineare Abbildung


ist. Dabei verwenden wir den Isomorphismus W ✲ K m, a ✲ aY ,
und benutzen insbesondere, dass diese Abbildung K-linear ist. Für
f, g ∈ HomK (V, W ), α ∈ K gilt

Af +g,X,Y = (f + g)(x1 )Y , . . . , (f + g)(xn )Y
   
= f (x1 ) + g(x1 ) Y , . . . , f (xn ) + g(xn ) Y

= f (x1 )Y + g(x1 )Y , . . . , f (xn )Y + g(xn )Y
 
= f (x1 )Y , . . . , f (xn )Y + g(x1 )Y , . . . , g(xn )Y
= Af,X,Y + Ag,X,Y ,

sowie

A(αf ),X,Y = (αf )(x1 )Y , . . . , (αf )(xn )Y
 
  
= α f (x1 ) , . . . , α f (xn )
Y Y
   
= α f (x1 ) Y , . . . , α f (xn ) Y

= α f (x1 )Y , . . . , f (xn )Y
= α · Af,X,Y ,

also Ψ (f + g) = Ψ (f ) + Ψ (g), Ψ (αf ) = αΨ (f ), d. h. Ψ ist K-linear.


Weiter ist Ψ injektiv aufgrund von 2.1/7 (i) und surjektiv aufgrund
von 2.1/7 (ii). 
3.1 Lineare Abbildungen und Matrizen 119

Korollar 5. Für endlich-dimensionale K-Vektorräume V, W gilt


dimK HomK (V, W ) = dimK V · dimK W.

Als Nächstes wollen wir das Produkt von Matrizen definieren und
zeigen, dass dieses der Komposition linearer Abbildungen entspricht.
Für natürliche Zahlen m, n, p ∈ N kann man Matrizen A ∈ K m×n
mit Matrizen B ∈ K n×p multiplizieren und erhält dabei Matrizen aus
K m×p , und zwar ist für
A = (αij )i=1,...,m ∈ K m×n , B = (βjk )j=1,...,n ∈ K n×p
j=1,...,n k=1,...,p

das Produkt A · B erklärt durch:


n
!
X
A·B = αij · βjk
j=1 i=1,...,m
k=1,...,p

Das Produkt kann also nur dann gebildet werden, wenn die Spalten-
anzahl von A gleich der Zeilenanzahl von B ist. Ein einfacher Fall eines
Matrizenprodukts liegt vor, wenn man eine Zeile aus K 1×m mit einer
Spalte aus K m×1 multipliziert:
 
β1
 .. 
(α1 , . . . , αm ) ·  .  = (α1 β1 + . . . + αm βm )
βm
Es entsteht eine (1 × 1)-Matrix, wobei wir diese unter Fortlassen der
Klammern mit dem entsprechenden Element von K identifizieren wol-
len. So kann man sagen, dass für Matrizen A ∈ K m×n , B ∈ K n×p das
Produkt A · B = (γik )i,k aus allen Produkten von Zeilen von A mit
Spalten von B besteht, und zwar ist das Element γik in der i-ten Zeile
und k-ten Spalte von A · B gerade das Produkt der i-ten Zeile von A
mit der k-ten Spalte von B. Andererseits beachte man, dass das Pro-
dukt einer Spalte aus K m×1 mit einer Zeile aus K 1×n eine Matrix aus
K m×n ergibt:
   
α1 α1 β1 . . . α1 βn
 .. 
 .  · (β1 , . . . , βn ) =  . ... . 
αm αm β1 . . . αm βn
120 3. Matrizen

Bemerkung 6. Das Matrizenprodukt ist assoziativ, d. h. für natürliche


Zahlen m, n, p, q ∈ N und Matrizen A ∈ K m×n , B ∈ K n×p , C ∈ K p×q
gilt stets
(A · B) · C = A · (B · C).

Beweis. Mit

A = (αij )i=1,...,m , B = (βjk )j=1,...,n , C = (γkℓ )k=1,...,p


j=1,...,n k=1,...,p ℓ=1,...,q

erhält man
n
! p n
!
X X X
(A · B) · C = αij βjk ·C = αij βjk γkl ,
j=1 i,k k=1 j=1 i,l

p
! p
n X
!
X X
A · (B · C) = A · βjk γkl = αij βjk γkl ,
k=1 j,l j=1 k=1 i,l

also wie gewünscht (A · B) · C = A · (B · C). 

Wir wollen nun Matrizen im Sinne linearer Abbildungen interpre-


tieren. Zunächst ist festzustellen, dass jede Matrix A = (αij )i,j ∈ K m×n
Anlass zu einer Abbildung

f : Kn ✲ K m, x ✲ A · x,

gibt, wobei wir K n mit K n×1 und K m mit K m×1 identifizieren. In


ausführlicher Schreibweise lautet die Abbildungsvorschrift
   Pn 
ξ1 j=1 α1j ξj
 ..  ✲  .. 
.  . ,
Pn
ξn j=1 αmj ξj

und man sieht unmittelbar, dass f eine K-lineare Abbildung ist. Es ist
A offenbar gerade die im Sinne von Definition 3 zu f gehörige Matrix,
wenn man in K n und K m jeweils die aus den Einheitsvektoren beste-
hende kanonische Basis zugrunde legt. Wir wollen zeigen, dass dieses
Beispiel in gewissem Sinne schon den Allgemeinfall beschreibt:
3.1 Lineare Abbildungen und Matrizen 121

Satz 7. Sei f : V ✲ W eine K-lineare Abbildung zwischen Vektor-


räumen V und W mit Basen X = (x1 , . . . , xn ) und Y = (y1 , . . . , ym ).
Dann gilt für a ∈ V
f (a)Y = Af,X,Y · aX .

Beweis. Hat man Af,X,Y = (αij )i,j und aX = (ξj ), so gilt


m
X
f (xj ) = αij yi , j = 1, . . . , n,
i=1
Pn
sowie a = j=1 ξj xj . Dies ergibt
n
X n
X m
X m X
X n 
f (a) = ξj f (xj ) = ξj αij yi = αij ξj yi ,
j=1 j=1 i=1 i=1 j=1

also wie gewünscht f (a)Y = Af,X,Y · aX . 

Die Formel aus Satz 7 lässt sich insbesondere auf den Fall V = W
und die identische Abbildung id : V ✲ V anwenden. Sie beschreibt
dann einen Basiswechsel und zeigt, wie sich Koordinatenvektoren be-
züglich der Basis X in solche bezüglich der Basis Y umrechnen lassen:
aY = Aid,X,Y · aX
Um die Aussage von Satz 7 noch etwas genauer zu interpretie-
ren, führen wir die Abbildungen κX : V ✲ K n, a ✲ aX , und
κY : W ✲ K ,b
m ✲ bY , ein, welche einem Vektor jeweils den zuge-
hörigen Koordinatenspaltenvektor zuordnen; κX , κY sind nach Bemer-
kung 2 Isomorphismen von K-Vektorräumen. Weiter betrachten wir
die K-lineare Abbildung f˜: K n ✲ K m, x ✲ Af,X,Y · x. Dann
besagt die Formel in Satz 7 gerade:

Korollar 8. In der vorstehenden Situation ist das Diagramm


f
V ✲ W
≀ κX ≀ κY
❄ f˜

Kn ✲ Km
kommutativ.
122 3. Matrizen

Fassen wir daher die Abbildungen κX , κY als Identifizierungen auf,


so geht f in f˜ über und ist nichts anderes als die Multiplikation mit
der Matrix Af,X,Y .
Als Nächstes wollen wir zeigen, dass das Matrizenprodukt als Kom-
position linearer Abbildungen interpretiert werden kann.

Satz 9. Es seien U, V, W endlich-dimensionale K-Vektorräume mit


Basen X, Y, Z. Für lineare Abbildungen f : U ✲ V und g : V ✲W
gilt dann
Ag◦f,X,Z = Ag,Y,Z · Af,X,Y .

Beweis. Auch diese Formel ist leicht nachzurechnen. Gelte

X = (x1 , . . . , xp ), Y = (y1 , . . . , yn ), Z = (z1 , . . . , zm )

sowie
Af,X,Y = (αjk )j=1,...,n , Ag,Y,Z = (βij )i=1,...,m .
k=1,...,p j=1,...,n
Pn
Dann folgt f (xk ) = j=1 αjk yj für k = 1, . . . , p und somit
n
X
g ◦ f (xk ) = αjk g(yj )
j=1
n
X m
X
= αjk βij zi
j=1 i=1
m X
X n 
= βij αjk · zi ,
i=1 j=1

also !
n
X
Ag◦f,X,Z = βij αjk = Ag,Y,Z · Af,X,Y ,
j=1 i,k

wie gewünscht.
Wir können den Beweis aber auch anders führen und uns dabei
jegliche Rechnung ersparen. Man hat nämlich nach Korollar 8 ein kom-
mutatives Diagramm
3.1 Lineare Abbildungen und Matrizen 123

f g
U ✲ V ✲ W
≀ κX ≀ κY ≀ κZ
❄ f˜
❄ g̃

Kp ✲ Kn ✲ Km
wobei f˜ durch x ✲ Af,X,Y · x und g̃ durch y ✲ Ag,Y,Z · y erklärt
ist. Mit Bemerkung 6 sieht man dann, dass Ag◦f,X,Z und Ag,Y,Z · Af,X,Y
zwei Matrizen sind, die die K-lineare Abbildung g ◦ f bezüglich der
Basen X und Z beschreiben. Unter Benutzung von Satz 4 ergibt sich
daraus Ag◦f,X,Z = Ag,Y,Z · Af,X,Y . 

Wir wollen abschließend noch einige Regeln für das Rechnen mit
Matrizen auflisten, die sich leicht durch direkte Verifikation nachrech-
nen lassen; vgl. auch Bemerkung 6. Sei α ∈ K und seien A, B, C Matri-
zen mit Koeffizienten aus K. Weiter bezeichne 0 eine Nullmatrix und
E eine (quadratische) Einheitsmatrix. Dann gelten die Formeln

A + B = B + A,
A + 0 = A,
EA = A, BE = B,
(αA)B = A(αB) = α(AB),
A(B + C) = AB + AC,
(A + B)C = AC + BC,
(AB)C = A(BC),

wobei wir in den einzelnen Gleichungen verlangen, dass die Zeilen- bzw.
Spaltenanzahlen so gewählt sind, dass die aufgeführten Summen und
Produkte auch gebildet werden können. Mit Matrizen kann man daher,
was die Addition und Multiplikation angeht, (fast) wie gewohnt rech-
nen. Allerdings darf man in einem Produkt A · B die Faktoren nicht
vertauschen, selbst dann nicht, wenn für Matrizen A, B die Produk-
te A · B und B · A beide erklärt sind; man betrachte etwa den Fall
einer Zeile A und einer Spalte B, jeweils mit n Komponenten. Sogar
für quadratische Matrizen, also solche, bei denen die Zeilenzahl mit
der Spaltenzahl übereinstimmt, ist das Produkt A · B im Allgemeinen
verschieden von B · A, wie man an einfachen Beispielen nachprüfen
kann.
124 3. Matrizen

Aufgaben
1. Man berechne die Produkte AB und BA für die Matrizen
   
1 2 2 0
A= , B= ∈ R2×2 .
3 −1 1 1

2. Man wähle in den angegebenen K-Vektorräumen V eine kanonische Ba-


sis X und bestimme zu den linearen Abbildungen f : V ✲ V jeweils
die zugehörige Matrix Af,X,X .
(i) V = R2 , K = R, f Drehung um 90◦ im mathematisch positiven
Sinn.
(ii) V = R2 , K = R, f Spiegelung an der Geraden y = x.
√  √
(iii) V = Q 2 , K = Q, f Multiplikation mit α + β 2 für α, β ∈ Q.
3. Es sei K ein Körper. Man zeige, dass die Abbildung
 
✲ 2×2 ✲ 1 x
f: K K , x
0 1

injektiv ist und für x, y ∈ K die Beziehung f (x + y) = f (x) · f (y) erfüllt.


4. Es sei f : V ✲ W eine K-lineare Abbildung zwischen endlich-
dimensionalen K-Vektorräumen mit rg f = r. Man zeige: Es existieren
Basen X von V und Y von W , so dass die zu f gehörige Matrix Af,X,Y
die folgende Gestalt besitzt:
 
Er 0
Af,X,Y =
0 0

Dabei bezeichnet Er die (r×r)-Einheitsmatrix, sowie 0 jeweils geeignete


Nullmatrizen. (AT 406)
5. Für m1 , m2 , n1 , n2 , r ∈ N − {0} betrachte man Matrizen

A ∈ K m1 ×n1 , B ∈ K m1 ×n2 , C ∈ K m2 ×n1 , D ∈ K m2 ×n2 ,


E ∈ K n1 ×r , F ∈ K n2 ×r

und zeige     
A B E AE + BF
= ,
C D F CE + DF
wobei man diese Gleichung in naheliegender Weise als Gleichung zwi-
schen Matrizen in K (m1 +m2 )×r auffasse.
3.2 Gauß-Elimination und der Rang einer Matrix 125

6. Es sei V ein endlich-dimensionaler K-Vektorraum und f : V ✲ V ein


Endomorphismus. Man zeige:
(i) Es existiert genau dann ein nicht-trivialer linearer Unterraum U
in V mit  f (U ) ⊂ U , wenn es in V eine Basis X gibt, so dass
∗ ∗
Af,X,X = gilt.
0 ∗
(ii) Es existieren genau dann nicht-triviale lineare Unterräume U1 , U2
in V mit V = U1 ⊕ U2 und f (Ui ) ⊂ Ui für
 i = 1, 2, wenn es in V
∗ 0
eine Basis X gibt mit Af,X,X = .
0 ∗
Dabei stehen die Symbole 0 für Nullmatrizen geeigneten Typs, weiter ∗
für eine geeignete rechteckige Matrix, sowie ∗ für nicht-leere quadrati-
sche Matrizen, jeweils mit (unspezifizierten) Koeffizienten aus K.
7. Es sei V ein nicht-trivialer K-Vektorraum mit Basis X und f : V ✲ V
ein Endomorphismus, so dass gilt:
 
0 1 1 1 ... 1
0 0 1 1 . . . 1
 
0 0 0 1 . . . 1
Af,X,X = . . . . . . . .

 
0 0 0 0 . . . 1
0 0 0 0 ... 0

Man berechne dimK (ker f ). (AT 408)


8. Für ein m ≥ 1 betrachte man die Einheitsmatrix E ∈ K m×m sowie eine
weitere Matrix N = (αij )i,j=1,...,m ∈ K m×m mit αij = 0 für i ≥ j. Man
zeige (AT 409):
(i) N m = 0.
(ii) Die Matrix B = E + N ist invertierbar, d. h. es existiert eine
Matrix C in K m×m mit BC = CB = E. (Hinweis: Man versuche,
die Formel für die geometrische Reihe anzuwenden.)

3.2 Gauß-Elimination und der Rang einer Matrix

Es sei A = (αij )i,j ∈ K m×n eine (m×n)-Matrix und

f : Kn ✲ K m, x ✲ Ax,
126 3. Matrizen

die durch A definierte lineare Abbildung. Wie wir in Abschnitt 3.1 be-
merkt haben, ist A die zu f gehörige Matrix, wenn man in K n und
K m jeweils die aus den Einheitsvektoren bestehende kanonische Basis
zugrunde legt. In Abschnitt 2.1 hatten wir den Rang einer linearen
Abbildung f als die Dimension des Bildes im f erklärt. In unserer kon-
kreten Situation wird das Bild im f von den Bildern f (e1 ), . . . , f (en )
der kanonischen Basis e1 , . . . , en von K n erzeugt, also von den Spalten-
vektoren der Matrix A. Der Rang von f ist daher gleich der Dimension
des von den Spalten von A in K n erzeugten linearen Unterraums. Man
bezeichnet diese Dimension auch als den Spaltenrang von A. In ähnli-
cher Weise besitzt A einen Zeilenrang.

Definition 1. Es sei A = (αij )i,j ∈ K m×n eine Matrix. Dann nennt


man die Dimension des von den Spalten
   
α11 α1n
 ..   .. 
 . , ...,  . 
αm1 αmn

von A erzeugten Unterraums in K m den Spaltenrang von A; dieser


wird mit rgs A bezeichnet. Entsprechend heißt die Dimension des von
den Zeilen

(α11 , . . . , α1n ), ..., (αm1 , . . . , αmn )

von A erzeugten Unterraums in K n (wobei wir die Elemente von K n


hier als Zeilenvektoren auffassen) der Zeilenrang von A; dieser wird
mit rgz A bezeichnet.

Als wichtiges Resultat werden wir zeigen, dass Spaltenrang und


Zeilenrang einer Matrix stets übereinstimmen. Man schreibt dann ein-
fach rg A anstelle von rgs A oder rgz A und nennt dies den Rang von
A. Zunächst wollen wir jedoch die oben erwähnte Beziehung zwischen
dem Rang einer linearen Abbildung K n ✲ K m und dem Rang der
zugehörigen Matrix auf beliebige lineare Abbildungen ausdehnen.

Bemerkung 2. Es sei f : V ✲ W eine K-lineare Abbildung zwi-


schen endlich-dimensionalen Vektorräumen mit Basen X bzw. Y und
3.2 Gauß-Elimination und der Rang einer Matrix 127

mit beschreibender Matrix Af,X,Y . Dann gilt rg f = rgs Af,X,Y . Ins-


besondere hängt der Spaltenrang der f beschreibenden Matrix Af,X,Y
nicht von der Wahl der Basen X und Y ab.

Beweis. Man betrachte das kommutative Diagramm


f
V ✲ W
≀ κX ≀ κY
❄ f˜

Kn ✲ Km
aus 3.1/8, wobei κX (bzw. κY ) gerade derjenige Isomorphismus ist, der
einem Vektor aus V (bzw. W ) den zugehörigen Koordinatenspalten-
vektor bezüglich X (bzw. Y ) zuordnet. Weiter ist f˜ die Multiplikation
mit Af,X,Y . Es wird dann im f unter κY isomorph auf im f˜ abgebildet,
und es folgt

rg f = dimK (im f ) = dimK (im f˜) = rg f˜,

wobei, wie eingangs festgestellt, rg f˜ gerade der Spaltenrang der Matrix


Af,X,Y ist. 

Wir wollen nun das Gaußsche Eliminationsverfahren besprechen,


welches es erlaubt, den Zeilen- bzw. Spaltenrang von Matrizen mittels
elementarer Rechnung zu bestimmen, und zwar werden wir uns hier
speziell mit der Bestimmung des Zeilenrangs beschäftigen. Zu diesem
Zwecke interpretieren wir die Vektoren in K n als Zeilenvektoren und
bauen dementsprechend Matrizen aus K m×n aus m solcher Zeilenvek-
toren auf. Wir schreiben also Matrizen A ∈ K m×n in der Form
   
a1 α11 . . . α1n
A =  ..  =  .. . . . .. 
am αm1 . . . αmn

mit den Zeilenvektoren ai = (αi1 , . . . , αin ) ∈ K n , i = 1, . . . , m. Auf


solche Matrizen wollen wir sogenannte elementare Zeilenumformungen
anwenden, auch als elementare Zeilentransformationen bezeichnet, die,
wie wir noch sehen werden, den Zeilenrang nicht ändern. Umformun-
gen dieser Art lassen sich alternativ auch durch Multiplikation von
128 3. Matrizen

links mittels geeigneter Elementarmatrizen realisieren. Wir wollen da-


her einige quadratische Matrizen einführen, die wir zur Beschreibung
der Elementarmatrizen benötigen. Für i, j = 1, . . . , m sei Eij ∈ K m×m
diejenige (m × m)-Matrix, die am Schnittpunkt der i-ten Zeile und
j-ten Spalte eine 1 stehen hat und ansonsten aus lauter Nullen be-
steht. Weiter bezeichne E = (δij )i,j ∈ K m×m die Einheitsmatrix,
Pmwobei
δij das Kronecker-Symbol ist. Für diese Matrix gilt also E = i=1 Eii ,
sie besteht auf der Diagonalen aus Einsen und ansonsten aus Nullen.
Die Matrix E heißt Einheitsmatrix, da E · A = A für jede Matrix
A ∈ K m×n und B · E = B für jede Matrix B ∈ K n×m gilt. Folgende
Typen elementarer Zeilenumformungen werden wir verwenden:
Typ I. Man multipliziere eine Zeile von A, etwa die i-te, mit einem
Skalar α ∈ K ∗ , also:
   
.. ..
 ..   .. 
   
ai  ✲ α · ai 
   
 ..   .. 
.. ..

Diese Umformung von A kann man auch erreichen, indem man A von
links mit der Elementarmatrix E + (α − 1)Eii multipliziert. Letztere
Matrix unterscheidet sich von der Einheitsmatrix E dadurch, dass auf
der Diagonalen an der Stelle (i, i) statt einer 1 der Faktor α steht.
Typ II. Man addiere zu einer Zeile von A, etwa der i-ten, eine
weitere Zeile von A, etwa die j-te, wobei i 6= j gelte, also:
   
.. ..
 ai  ai + aj 
   
 ..  ✲  .. 
   
aj   aj 
.. ..

Diese Umformung kann man auch erreichen, indem man A von links
mit der Elementarmatrix E + Eij multipliziert.
Typ III. Man addiere zu einer Zeile von A, etwa der i-ten, ein
Vielfaches einer weiteren Zeile von A, etwa der j-ten, wobei i 6= j
gelte, also:
3.2 Gauß-Elimination und der Rang einer Matrix 129
   
.. ..
 ai  ai + αaj 
   
 ..  ✲  .. 
   
aj   aj 
.. ..
mit α ∈ K. Diese Umformung kann man auch erreichen, indem man
A von links mit der Elementarmatrix E + αEij multipliziert.
Typ IV. Man vertausche zwei Zeilen von A, etwa die i-te und die
j-te, also:    
.. ..
 ai  aj 
   
 ..  ✲  .. 
   
aj   ai 
.. ..
Diese Umformung kann man auch erreichen, indem man A von links
mit der Elementarmatrix E −Eii −Ejj +Eij +Eji multipliziert. Letztere
Matrix erhält man aus der Einheitsmatrix, indem man die i-te und j-te
Zeile (oder, alternativ, Spalte) miteinander vertauscht.
Wie man leicht sehen kann, sind die Typen III und IV Kombina-
tionen der Typen I und II.

Satz 3. Es sei A ∈ K m×n eine Matrix und B ∈ K m×n eine weitere, die
mittels elementarer Zeilentransformationen aus A hervorgeht. Dann
erzeugen die Zeilenvektoren von A den gleichen linearen Unterraum
in K n wie die Zeilenvektoren von B. Insbesondere ist der Zeilenrang
einer Matrix invariant unter elementaren Zeilentransformationen.

Beweis. Es seien a1 , . . . , am Vektoren eines K-Vektorraums V . Wählt


man dann α ∈ K ∗ und i, j ∈ {1, . . . , m}, i 6= j, so gilt offenbar für den
von a1 , . . . , am erzeugten Unterraum

ha1 , . . . , ai , . . . , aj , . . . , am i = ha1 , . . . , αai , . . . , aj , . . . , am i,


ha1 , . . . , ai , . . . , aj , . . . , am i = ha1 , . . . , ai + aj , . . . , aj , . . . , am i,
ha1 , . . . , ai , . . . , aj , . . . , am i = ha1 , . . . , ai + αaj , . . . , aj , . . . , am i,
ha1 , . . . , ai , . . . , aj , . . . , am i = ha1 , . . . , aj , . . . , ai , . . . , am i.
130 3. Matrizen

Indem wir vorstehende Überlegung iterativ auf die Situation V = K n


anwenden, folgt die Behauptung. 

Theorem 4 (Gauß-Elimination). Jede Matrix A ∈ K m×n lässt sich


mittels elementarer Zeilentransformationen auf Zeilenstufenform brin-
gen, d. h. auf die Form
 
0 . . . 0 β1 . . . ∗ ∗ . . . ∗ ... ∗ ... ∗ ∗ ... ∗
0 . . . 0 0 . . . 0 β2 . . . ∗ ... ∗ ... ∗ ∗ ... ∗
 
0 ... 0 0 ... 0 0 ... 0 ... ∗ ... ∗ ∗ ... ∗
 
 ... ... ... ... ... ... 
 
B= 
0 ... 0 0 ... 0 0 ... 0 ... 0 . . . 0 βr . . . ∗ 
 
0 ... 0 0 ... 0 0 ... 0 ... 0 ... 0 0 ... 0
 
 ... ... ... ... ... ... 
0 ... 0 0 ... 0 0 ... 0 ... 0 ... 0 0 ... 0

mit Koeffizienten β1 , . . . , βr ∈ K ∗ an den Positionen (1, j1 ), . . . , (r, jr ),


wobei r ≥ 0 und j1 < . . . < jr gelte. Die ersten r Zeilen von B bilden
dann eine Basis des von den Zeilenvektoren von A in K n erzeugten
linearen Unterraums. Insbesondere gilt

rgz A = rgz B = r.

Beweis. Es seien b1 , . . . , bm die Zeilen der obigen Matrix B. Wir wollen


zunächst zeigen, dass b1 , . . . , br linear unabhängig sind und damit eine
Basis des linearen Unterraums

hb1 , . . . , br i = hb1 , . . . , bm i ⊂ K n

bilden. Wenn wir A mittels elementarer Zeilentransformationen in B


überführen können (was wir weiter unten zeigen werden), so handelt es
sich gemäß Satz 3 bei diesem Unterraum gerade um den von den Zei-
lenvektoren von A erzeugten linearen Unterraum von K n . Insbesondere
ergibt sich rgz AP
= rgz B = r.
Gelte etwa ri=1 αi bi = 0 für gewisse Koeffizienten αi ∈ K. Hat
man dann B = (βij )i,j , also mit βi,ji = βi für i = 1, . . . , r, so erhält
man die Gleichungen
3.2 Gauß-Elimination und der Rang einer Matrix 131

α1 β1 = 0,
α1 β1,j2 + α2 β2 = 0,
α1 β1,j3 + α2 β2,j3 + α3 β3 = 0,
... ...
α1 β1,jr + α2 β2,jr + α3 β3,jr + ... + αr βr = 0,

woraus sich zunächst α1 = 0, dann α2 = 0 usw. bis schließlich αr = 0


ergibt. Es folgt die lineare Unabhängigkeit von b1 , . . . , br .
Es bleibt noch zu zeigen, dass sich jede Matrix A ∈ K m×n , etwa
A = (αij )i,j , auf Zeilenstufenform bringen lässt. Hierzu gehe man wie
folgt vor. Da die Nullmatrix bereits Zeilenstufenform besitzt, darf man
A 6= 0 annehmen. Man wähle einen minimalen Index j = j1 , so dass es
ein i mit αij 6= 0 gibt, vertausche die erste mit der i-ten Zeile und setze
β1 = αi,j1 . Durch m − 1 Umformungen des Typs III, welche die erste
Zeile invariant lassen, kann man dann erreichen, dass alle Elemente in
der j1 -ten Spalte unterhalb β1 zu Null werden. Die resultierende Matrix
hat folgende Gestalt:
 
0 . . . 0 β1 ∗ . . . ∗
 0 ... 0 0 
 
 . ... . . A (1) 
0 ... 0 0

Man kann nun dasselbe Verfahren in einem zweiten Schritt auf A(1)
anstelle von A anwenden. Indem man die für A(1) benötigten Transfor-
mationen als Zeilentransformationen der Gesamtmatrix interpretiert
und das Verfahren genügend oft wiederholt, lässt sich in rekursiver
Weise die behauptete Zeilenstufenform realisieren. Erhält man dabei
in einem r-ten Schritt erstmalig A(r) als Null- oder leere Matrix, so ist
die Konstruktion beendet. 

Wir wollen ein Beispiel zur Transformation einer Matrix auf Zei-
lenstufenform betrachten:
       
0 0 2 0 1 1 0 1 1 0 1 1
0 2 4 ✲ 0 2 4 ✲ 0 0 2 ✲ 0 0 2
0 1 1 0 0 2 0 0 2 0 0 0
132 3. Matrizen

Das Gaußsche Eliminationsverfahren kann man insbesondere ver-


wenden, um die Dimension eines von gewissen gegebenen Vektoren
erzeugten linearen Unterraums U = ha1 , . . . , am i ⊂ K n zu berechnen
bzw. um eine Basis von U anzugeben. In Verbindung mit der Dimen-
sionsformel 1.6/5 ist es dann möglich, die Dimension des Schnittes
U ∩ U ′ zweier linearer Unterräume U, U ′ ⊂ K n zu ermitteln. Weiter
kann man natürlich zu einer linearen Abbildung f : K n ✲ K m eine
Basis des Bildes und damit insbesondere den Rang rg f bestimmen (wo-
bei man Vektoren in K m am besten als Zeilenvektoren interpretiert).
Aus der Dimensionsformel 2.1/10 ergibt sich dann auch die Dimension
des Kerns von f . Dass das Gaußsche Eliminationsverfahren überdies
dazu geeignet ist, eine Basis von ker f anzugeben, werden wir genau-
er noch im Abschnitt 3.5 über lineare Gleichungssysteme sehen. Bei
der Lösung dieser Gleichungssysteme führt das Gaußsche Verfahren zu
einer sukzessiven Reduzierung des Systems der unbekannten Größen,
bis man schließlich ein Restsystem von Größen erhält, deren Werte frei
gewählt werden können. Einige der unbekannten Größen werden also
entfernt (eliminiert), so dass die Bezeichnung Eliminationsverfahren
plausibel wird.
In Analogie zu den elementaren Zeilenumformungen kann man na-
türlich auch elementare Spaltenumformungen bzw. Spaltentransforma-
tionen von Matrizen erklären. Solche Umformungen lassen sich als Mul-
tiplikation von rechts mit geeigneten Elementarmatrizen interpretieren,
und man kann ähnlich wie in Theorem 4 zeigen, dass sich jede Matrix
auf Spaltenstufenform transformieren lässt. Man braucht sich dies aber
nicht in allen Details zu überlegen, denn wir wollen als Nächstes das
Transponieren von Matrizen behandeln. Unter diesem Prozess gehen
elementare Zeilenumformungen über in elementare Spaltenumformun-
gen und umgekehrt. Ähnliches gilt für Matrizen in Zeilenstufenform
bzw. Spaltenstufenform.

Definition 5. Es sei
A = (αij )i=1,...,m ∈ K m×n .
j=1,...,n

Dann heißt
At = (αij )j=1,...,n ∈ K n×m
i=1,...,m

die zu A transponierte Matrix.


3.2 Gauß-Elimination und der Rang einer Matrix 133

Die Zeilen von At werden somit durch j = 1, . . . , n parametrisiert


und die Spalten durch i = 1, . . . , m, wobei At an der Position (j, i),
also dem Schnittpunkt von j-ter Zeile und i-ter Spalte, das Element
αij als Koeffizient besitzt, das sich in A an der Position (i, j) befin-
det. Mit anderen Worten, At geht aus A hervor, indem man Spalten-
und Zeilenindex miteinander vertauscht. Dies entspricht einer Spiege-
lung von A an der Hauptdiagonalen, die durch die Positionen (i, i),
i = 1, . . . , min(m, n), charakterisiert ist. Somit ergeben die Zeilenvek-
toren von A die Spaltenvektoren von At und entsprechend die Spal-
tenvektoren von A die Zeilenvektoren von At . Unmittelbar ersichtlich
ist:

Bemerkung 6. Die Abbildung K m×n ✲ K n×m , A ✲ At , ist ein


Isomorphismus von K-Vektorräumen. Insbesondere gilt
(A + B)t = At + B t , (αA)t = αAt
für A, B ∈ K m×n , α ∈ K.

Bemerkung 7. Für A ∈ K m×n gilt (At )t = A sowie rgz A = rgs At


und rgs A = rgz At .

Bemerkung 8. Es gilt (A · B)t = B t · At für zwei komponierbare


Matrizen A, B.

Wir wollen nur den Beweis zu Bemerkung 8 angeben. Für


A = (αij )i,j ∈ K m×n , B = (βjk )j,k ∈ K n×p
ergibt sich
X  t X 
t
(A · B) = αij βjk = αij βjk
i,k k,i
j j
X 
= βjk αij = B t · At ,
j k,i

wie behauptet. 

Als Nächstes zeigen wir, dass das Transponieren von Matrizen dem
Dualisieren linearer Abbildungen entspricht.
134 3. Matrizen

Satz 9. Es sei f : V ✲ W eine lineare Abbildung zwischen endlich-


dimensionalen K-Vektorräumen mit Basen X von V und Y von W .
Ist dann X ∗ (bzw. Y ∗ ) die duale Basis zu X (bzw. Y ), und bezeichnet
f∗ : W∗ ✲ V ∗ die zu f duale lineare Abbildung, so gilt

Af ∗ ,Y ∗ ,X ∗ = (Af,X,Y )t .

Beweis. Es sei
X = (x1 , . . . , xn ), Y = (y1 , . . . , ym ),
X ∗ = (x∗1 , . . . , x∗n ), Y ∗ = (y1∗ , . . . , ym
∗ ),

wobei man also x∗j (xν ) = δjν und yi∗ (yµ ) = δiµ hat. Insbesondere wird
dann für ϕ ∈ V ∗ die eindeutig bestimmte P Darstellung als Linearkom-
bination der Basis X ∗ durch ϕ = nj=1 ϕ(xj )x∗j gegeben. Dies ist eine
Konsequenz von 2.1/7, wie wir bereits im Beweis zu 2.3/5 gesehen hat-
ten. Somit lässt sich die zu f ∗ gehörige Matrix wie folgt beschreiben:
∗ ) ∗  = f ∗ (y ∗ )(x )
Af ∗ ,Y ∗ ,X ∗ = f ∗ (y1∗ )X ∗ , . . . , f ∗ (ym X i j j=1,...,n
i=1,...,m

Ist nun die Matrix zu f gegeben durch


m
X
Af,X,Y = (αij )i=1,...,m , d. h. durch f (xj ) = αµj yµ ,
j=1,...,n
µ=1

so erhält man für i = 1, . . . , m


n
X n
X
f ∗ (y ∗ ) =
i f ∗ (yi∗ )(xj ) · x∗j = (yi∗ ◦ f )(xj ) · x∗j
j=1 j=1
Xn n
X X
m 

= yi∗ f (xj ) · x∗j = y∗
i αµj yµ · x∗j
j=1 j=1 µ=1
Xn
= αij · x∗j ,
j=1

und dies bedeutet


Af ∗ ,Y ∗ ,X ∗ = (αij )j=1,...,n = (Af,X,Y )t ,
i=1,...,m

wie behauptet. 
3.2 Gauß-Elimination und der Rang einer Matrix 135

Benutzen wir nun 2.3/7, dass nämlich in der Situation von Satz 9
die Abbildungen f und f ∗ den gleichen Rang besitzen, so ergibt sich
mit den Bemerkungen 2 und 7 die Beziehung

rgs Af,X,Y = rg f = rg f ∗ = rgs Af ∗ ,Y ∗ ,X ∗



= rgs (Af,X,Y )t = rgz Af,X,Y ,

d. h. der Spaltenrang von Af,X,Y stimmt mit dem Zeilenrang dieser


Matrix überein. Da man Matrizen aber stets als lineare Abbildungen
realisieren kann, erhält man als Folgerung zu Satz 9:

Korollar 10. Für Matrizen A ∈ K m×n gilt rgs A = rgz A , d. h.


Spalten- und Zeilenrang stimmen überein.

Wie bereits angedeutet, werden wir von nun an rg A anstelle von


rgs A bzw. rgz A schreiben und diese Zahl als den Rang der Matrix
A bezeichnen. Die Übereinstimmung von Spalten- und Zeilenrang bei
Matrizen ist ein nicht-triviales Resultat, das wir hier auf einfache Weise
als Anwendung der Theorie dualer Abbildungen gewonnen haben. Man
kann dieses Resultat aber auch anders herleiten, indem man benutzt,
dass sich der Zeilen- bzw. Spaltenrang einer Matrix A nicht ändert,
wenn man A von links oder rechts mit sogenannten invertierbaren Ma-
trizen multipliziert; vgl. Abschnitt 3.4.
Schließlich wollen wir unter Benutzung von Korollar 10 noch zei-
gen, dass die in Theorem 4 beschriebene Transformation einer Matrix
A auf Zeilenstufenform auch Rückschlüsse auf die Spaltenvektoren die-
ser Matrix zulässt. Letzteres ist insbesondere dann von Vorteil, wenn
man aus einem gegebenen System von Spaltenvektoren ein maximales
linear unabhängiges Teilsystem auswählen möchte. Ein wesentlicher
Punkt bei diesen Überlegungen besteht in der Beobachtung, dass der
Prozess der Transformation einer Matrix A mittels elementarer Zeilen-
umformungen zu einer Matrix B kompatibel ist mit dem Vertauschen
von Spalten in A und entsprechend in B, oder auch mit dem Streichen
von Spalten dieser Matrizen.

Satz 11. Es sei A = (a1 , . . . , an ) ∈ K m×n eine Matrix mit den Spalten
a1 , . . . , an ∈ K m , welche sich mittels elementarer Zeilenumformungen
auf Zeilenstufenform
136 3. Matrizen

 
0 . . . 0 β1 . . . ∗ ∗ . . . ∗ ... ∗ ... ∗ ∗ ... ∗
0 . . . 0 0 . . . 0 β2 . . . ∗ ... ∗ ... ∗ ∗ ... ∗
 
0 ... 0 0 ... 0 0 ... 0 ... ∗ ... ∗ ∗ ... ∗
 
 ... ... ... ... ... ... 
 
B= 
0 ... 0 0 ... 0 0 ... 0 ... 0 . . . 0 βr . . . ∗ 
 
0 ... 0 0 ... 0 0 ... 0 ... 0 ... 0 0 ... 0
 
 ... ... ... ... ... ... 
0 ... 0 0 ... 0 0 ... 0 ...
0 ... 0 0 ... 0
bringen lässt. Dabei sei für i = 1, . . . , r das Element βi ∈ K ∗ jeweils
in der Spalte mit Index ji positioniert, mit 1 ≤ j1 < . . . < jr ≤ n.
Dann sind die Vektoren aj1 , . . . , ajr linear unabhängig, und es gilt
ha1 , . . . , aj i = haj1 , . . . , aji i, j = 1, . . . , n,
wenn i ≤ r jeweils maximal mit ji ≤ j gewählt ist.

Beweis. Verkleinert man die Matrix A zu einer Matrix A′ , indem


man gewisse Spalten mit Indizes j verschieden von j1 , . . . , jr streicht,
oder alle Spalten mit einem Index j ≥ j0 für ein fest gewähltes
j0 ∈ {1, . . . , n}, so erhält man eine zugehörige Zeilenstufenform von
A′ , indem man B durch Streichen der entsprechenden Spalten zu einer
Matrix B ′ verkleinert. Es folgt dann
rgz B ′ = rgz A′ = rgs A′ ,
so dass die Dimension des von den Spalten von A′ erzeugten linea-
ren Unterraums gerade gleich dem Rang von B ′ ist. Insbesondere er-
gibt sich mit diesem Argument die lineare Unabhängigkeit des Systems
aj1 , . . . , ajr ∈ K m und mittels 1.5/14 (ii) auch die behauptete Gleich-
heit linearer Unterräume. 

Aufgaben
1. Man bringe die Matrix
 
1 2 1 2 1 2
2 5 4 5 4 5
A= 1
 ∈ R4×6
4 6 6 6 6
2 5 6 9 7 11
auf Zeilenstufenform.
3.2 Gauß-Elimination und der Rang einer Matrix 137

2. Man berechne den Zeilenrang der Matrix


 
1 1 3 2
A= 1  1 2 3 ∈ K 3×4 ,
1 1 0 0

jeweils für die Körper K = Q und K = F5 ; dabei ist F5 der Körper mit
5 Elementen aus Abschnitt 1.3, Aufgabe 3. (AT 411)
3. Man prüfe, ob das System der folgenden Vektoren ∈ R5 linear unabhän-
gig ist:

(5, 4, 3, 2, 1), (1, 2, 3, 4, 5), (2, 2, 2, 2, 1), (1, 0, 0, 1, 1), (1, 0, 1, 0, 1)

4. Es sei U ⊂ R4 der lineare Unterraum, der von den Vektoren

(1, 2, 1, 2), (2, 5, 4, 5), (1, 4, 6, 6), (2, 5, 6, 9), (2, 6, 7, 8), (1, 1, 0, 3)

erzeugt wird. Man berechne dimR U und gebe eine Basis von U an.
5. Es seien in R5 die folgenden linearen Unterräume gegeben:

U = (1, 0, 1, 0, 1), (2, 3, 4, 1, 2), (0, 3, 2, 1, 0)


U ′ = (1, −1, 1, 0, 2), (1, 3, 3, 1, 1), (1, 2, 3, 1, 2)

Man berechne dimR U und dimR U ′ und zeige U ⊂ U ′ . (AT 412)


6. Man betrachte in R6 die linearen Unterräume

U = (1, 1, 1, 0, 1, 1), (2, 3, 4, 0, 2, 1), (0, 3, 2, 1, 1, 1) ,


U ′ = (2, 6, 6, 2, 2, 1), (0, 9, 4, 3, 0, 1), (1, 2, 3, 1, 2, 1)

und berechne dimR (U ∩ U ′ ).


7. Man betrachte die Linearformen

f1 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (α2 + α3 + α4 + α5 )

f2 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (α1 + 2α2 − α3 − α4 )

f3 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (5α1 + 2α2 − α3 + 2α4 − 2α5 )

f4 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (α1 − α2 + α4 − α5 )

und prüfe, ob diese ein linear unabhängiges System im Dualraum (R5 )∗


definieren.
138 3. Matrizen

8. Die Linearformen f1 , f2 , f3 , f4 seien wie in Aufgabe 7. Für die R-lineare


Abbildung

f : R5 ✲ R4 , x ✲ f1 (x), f2 (x), f3 (x), f4 (x) ,

bestimme man dimR ker f und dimR im f . Weiter gebe man eine Basis
von im f an.
9. Es sei F2 der Körper mit 2 Elementen. Im F2 -Vektorraum F22000 sei eine
Familie von Vektoren (vi )i=1,...,2000 definiert durch


0 falls 4 ∤ i,
vi = (1 + δij )j=1,...,2000 falls 4|i, aber 8 ∤ i,


(1 + δi−1,j + δi+1,j )j=1,...,2000 falls 8|i.

Dabei bedeutet 4|i bzw. 4 ∤ i, dass 4 die Zahl i teilt bzw. nicht teilt,
entsprechend für 8|i und 8 ∤ i. Man betrachte den von den vi erzeugten
linearen Unterraum U ⊂ F22000 , bestimme dimF2 U und gebe eine Basis
von U an. (AT 414)

3.3 Matrizenringe und invertierbare Matrizen

Für n ∈ N ist auf der Menge K n×n aller (n×n)-Matrizen ähnlich wie
bei einem Körper neben der Addition eine Multiplikation gegeben, die
für n ≥ 2 allerdings nicht kommutativ ist. Dabei zeigen Gleichungen
des Typs    
1 0 0 0
· = 0,
0 0 1 0
dass es für n ≥ 2 nicht-triviale Nullteiler in K n×n gibt. Eine Matrix
A ∈ K n×n heißt ein Nullteiler, wenn es eine von Null verschiedene
Matrix B ∈ K n×n mit A · B = 0 oder B · A = 0 gibt.

Definition 1. Eine Menge R mit zwei Verknüpfungen “ + ” (Addition)


und “ · ” (Multiplikation) heißt ein Ring, wenn folgende Bedingungen
erfüllt sind :
(i) R ist eine abelsche Gruppe bezüglich der Addition.
(ii) Die Multiplikation ist assoziativ, d. h. für a, b, c ∈ R gilt

(a · b) · c = a · (b · c).
3.3 Matrizenringe und invertierbare Matrizen 139

(iii) Addition und Multiplikation verhalten sich distributiv, d. h. für


a, b, c ∈ R gilt

a · (b + c) = a · b + a · c, (a + b) · c = a · c + b · c.

Das neutrale Element bezüglich der Addition 0 wird als Nullele-


ment von R bezeichnet. Der Ring R heißt kommutativ, wenn die Mul-
tiplikation kommutativ ist. Weiter nennt man ein Element e ∈ R ein
Einselement, wenn e · a = a = a · e für alle a ∈ R gilt; man schreibt
dann auch 1 anstelle von e.

Natürlich ist ein Einselement eines Ringes, sofern es existiert, ein-


deutig bestimmt. Das einfachste Beispiel eines Ringes ist der Null-
ring 0. Dieser besteht aus einem einzigen Element 0 mit den Verknüp-
fungen 0 + 0 = 0 und 0 · 0 = 0; hier ist also 0 sowohl das Nullelement
wie auch das Einselement. Wir wollen aber noch einige interessantere
Beispiele anführen.
(1) Der Ring Z der ganzen Zahlen ist ein kommutativer Ring mit
Eins unter der gewöhnlichen Addition und Multiplikation.
(2) Jeder Körper, etwa Q, R oder C, ist ein kommutativer Ring
mit Eins.
(3) Es sei V ein K-Vektorraum und R = HomK (V, V ) der K-Vek-
torraum der Endomorphismen von V . Dann ist R ein Ring, der soge-
nannte Endomorphismenring von V , wenn man in R als Addition die
gewöhnliche Addition linearer Abbildungen sowie als Multiplikation
die Komposition linearer Abbildungen betrachtet. Dieser Ring wird
mit EndK (V ) bezeichnet. Er enthält die Nullabbildung 0 : V ✲V
als Nullelement, sowie die identische Abbildung id : V ✲ V als Eins-
element. Man kann sich überlegen, dass EndK (V ) für dimK V ≥ 2 nicht
kommutativ ist.
(4) Für n ∈ N ist der K-Vektorraum K n×n der quadratischen
n-reihigen Matrizen ein Ring unter der in Abschnitt 3.1 eingeführten
Addition und Multiplikation von Matrizen. Es ist K 0×0 der Nullring
und K 1×1 ein Ring, den wir in kanonischer Weise mit dem Körper K
identifizieren können. Weiter ist die Multiplikation in K n×n für n ≥ 2
nicht mehr kommutativ. Die Matrix E = (δij )i,j ∈ K n×n , oftmals auch
mit 1 bezeichnet, ist ein Einselement in K n×n und wird als n-reihige
140 3. Matrizen

Einheitsmatrix bezeichnet. Wie wir bereits zu Beginn gesehen haben,


enthält K n×n für n ≥ 2 nicht-triviale Nullteiler.
Die Beispiele (3) und (4) sind verwandt, wie man mit Hilfe der
Resultate aus Abschnitt 3.1 einsieht. Genauer gilt:

Satz 2. Es sei V ein K-Vektorraum und X = (x1 , . . . , xn ) eine Basis


von V . Dann ist die Abbildung

Ψ : EndK (V ) ✲ K n×n , f ✲ Af,X,X ,

ein Isomorphismus von Ringen, d. h. eine bijektive Abbildung mit

Ψ (f + g) = Ψ (f ) + Ψ (g), Ψ (f ◦ g) = Ψ (f ) · Ψ (g)

für alle Elemente f, g ∈ EndK (V ).

Beweis. Aufgrund von 3.1/4 ist Ψ eine bijektive Abbildung, die mit
der Addition verträglich ist. Die Verträglichkeit mit der Multiplikation
folgt aus 3.1/9. 

Ist a ein Element eines Ringes R mit Eins, so heißt ein Element
b ∈ R invers zu a, wenn a · b = 1 = b · a gilt. Das inverse Element
zu a ∈ R ist, falls es existiert, stets eindeutig bestimmt. Sind nämlich
zwei Elemente b, b′ ∈ R invers zu a, oder genauer, ist b invers zu a und
gilt lediglich a · b′ = 1 (bzw. alternativ b′ · a = 1), so folgt

b = b · 1 = b · (a · b′ ) = (b · a) · b′ = 1 · b′ = b′ ,

bzw.
b = 1 · b = (b′ · a) · b = b′ · (a · b) = b′ · 1 = b′ .
Man schreibt a−1 für das inverse Element zu a und nennt a in diesem
Fall invertierbar oder eine Einheit. In einem Körper ist jedes Element
a 6= 0 eine Einheit. Andererseits gibt es in Matrizenringen K n×n für
n ≥ 2 stets nicht-triviale Nullteiler, und solche Matrizen können keine
Einheiten sein. Ist nämlich A ∈ K n×n eine Einheit und B ∈ K n×n eine
Matrix mit A · B = 0, so folgt notwendig B = A−1 · A · B = 0 mit der
inversen Matrix A−1 zu A.
3.3 Matrizenringe und invertierbare Matrizen 141

Bemerkung 3. In jedem Ring R mit Eins ist die Menge R∗ aller


Einheiten eine Gruppe bezüglich der Multiplikation.

Diese Aussage ergibt sich unmittelbar aus den definierenden Ei-


genschaften eines Ringes bzw. einer Einheit.

Bemerkung 4. Es sei V ein K-Vektorraum und f ∈ EndK (V ). Dann


ist äquivalent:
(i) Es existiert ein Element g ∈ EndK (V ) mit f ◦ g = idV = g ◦ f ,
d. h. f ist eine Einheit in EndK (V ).
(ii) f ist ein Automorphismus von V .

Beweis. Die Beziehung f ◦ g = idV impliziert, dass f surjektiv ist, und


entsprechend g ◦ f = idV , dass f injektiv ist. Aus Bedingung (i) ergibt
sich somit (ii), und umgekehrt folgert man aus (ii) auch (i), wenn man
g als Umkehrabbildung zu f erklärt. 

Die Einheitengruppe des Endomorphismenrings EndK (V ) besteht


also gerade aus allen Automorphismen von V . Wir bezeichnen diese
Gruppe mit AutK (V ) und nennen sie die Automorphismengruppe von
V . Die Einheitengruppe des Matrizenrings K n×n wird mit GL(n, K)
bezeichnet; man spricht hier von der allgemeinen linearen Gruppe (gen-
eral linear group). Die Elemente von GL(n, K) heißen invertierbare
(oder umkehrbare, bzw. reguläre, bzw. nicht-singuläre, bzw. nicht-
ausgeartete) Matrizen.

Satz 5. Es sei V ein K-Vektorraum und X = (x1 , . . . , xn ) eine Basis


von V . Dann beschränkt sich der Isomorphismus
Ψ : EndK (V ) ∼✲ K n×n , f ✲ Af,X,X ,

aus Satz 2 zu einem Isomorphismus


AutK (V ) ∼✲ GL(n, K)
der zugehörigen Einheitengruppen, d. h. zu einer bijektiven Abbildung,
welche die jeweiligen Gruppenstrukturen respektiert.

Beweis. Ψ bildet die identische Abbildung idV ∈ EndK (V ) auf die


Einheitsmatrix E ∈ K n×n ab, also das Einselement von EndK (V ) auf
142 3. Matrizen

das Einselement von K n×n . Hieraus ergibt sich unmittelbar, dass Ψ


Einheiten in Einheiten überführt. Da die Umkehrabbildung Ψ −1 ent-
sprechende Eigenschaften besitzt, folgt die Behauptung. 

Wir wollen den Inhalt des Satzes noch in einem etwas allgemeineren
Rahmen formulieren.

Satz 6. Es sei f : V ✲ W eine K-lineare Abbildung zwischen Vek-


torräumen mit Basen X = (x1 , . . . , xn ) und Y = (y1 , . . . , yn ). Die
beschreibende Matrix A = Af,X,Y ist genau dann invertierbar, wenn f
ein Isomorphismus ist.

Beweis. Man überlegt sich wie im Beweis zu Bemerkung 4, dass f genau


dann bijektiv ist, wenn es eine K-lineare Abbildung g : W ✲ V mit
f ◦ g = idW und g ◦ f = idV gibt. Letzteres ist aber aufgrund von
3.1/4 und 3.1/9 äquivalent zu der Existenz einer Matrix B ∈ K n×n
mit Af,X,Y · B = 1 und B · Af,X,Y = 1. 

Korollar 7. Für eine Matrix A ∈ K n×n ist äquivalent:


(i) A ist invertierbar.
(ii) Es existiert eine Matrix B ∈ K n×n mit B · A = 1.
(iii) Es existiert eine Matrix B ∈ K n×n mit A · B = 1.
(iv) rg A = n.

Beweis. Wir realisieren A als lineare Abbildung, etwa als Abbildung

f : Kn ✲ K n, x ✲ A · x.

Dann ist A die zu f gehörige Matrix bezüglich der kanonischen Basis


auf K n . Indem wir Satz 5 sowie 3.2/2 benutzen, genügt es zu zeigen,
dass die folgenden Bedingungen äquivalent sind:
(i′ ) f ist ein Automorphismus.
(ii′ ) Es existiert eine K-lineare Abbildung g : K n ✲ K n , derart
dass g ◦ f = id gilt.
(iii′ ) Es existiert eine K-lineare Abbildung g : K n ✲ K n , derart
dass f ◦ g = id gilt.
(iv′ ) rg f = n.
3.3 Matrizenringe und invertierbare Matrizen 143

Ist f ein Automorphismus, so folgen natürlich die Bedingungen


(ii ), (iii′ ) und (iv′ ). Umgekehrt, hat man (ii′ ), so ist f injektiv und

nach 2.1/11 ein Automorphismus. Unter den Bedingungen (iii′ ) bzw.


(iv′ ) schließlich ist f surjektiv und damit ebenfalls ein Automorphismus
aufgrund von 2.1/11. 

Bedingung (iv) aus Korollar 7 gibt uns ein nützliches Kriterium für
die Invertierbarkeit einer Matrix A ∈ K n×n , insbesondere deshalb, weil
wir den Rang einer Matrix mittels elementarer Zeilenumformungen in
expliziter Weise bestimmen können; vgl. 3.2/4. So sieht man etwa, dass
für i, j ∈ {1, . . . , n}, i 6= j, und α ∈ K ∗ die Elementarmatrizen

E + (α − 1)Eii , E + αEij , E − Eii − Ejj + Eij + Eji

aus K n×n invertierbar sind; dabei sei E wie in Abschnitt 3.2 die Ein-
heitsmatrix in K n×n sowie Eij = (δiµ δjν )µ,ν . Die Elementarmatrizen
gehen nämlich durch elementare Zeilenumformungen aus der Einheits-
matrix E hervor, haben also denselben Rang wie diese, also n; vgl.
3.2/3. Weiter unten werden wir die Inversen zu den aufgeführten Ele-
mentarmatrizen (die sich im Übrigen leicht “erraten” lassen) auch noch
explizit bestimmen.
Wir können die gerade beschriebene Argumentation dazu nutzen,
um das in Abschnitt 3.2 behandelte Gaußsche Eliminationsverfahren
auf die Invertierung von Matrizen auszudehnen. Man gehe etwa aus
von einer Matrix A ∈ K n×n . Dann kann man A gemäß 3.2/4 mit-
tels elementarer Zeilenumformungen auf Zeilenstufenform B bringen.
Nehmen wir nun A als invertierbar an, so gilt rg A = rg B = n ge-
mäß Korollar 7, und es stehen in der Situation von 3.2/4 die Elemente
β1 , . . . , βn gerade auf der Hauptdiagonalen, also:
 
β1 ∗ ∗ . . . ∗
 0 β2 ∗ . . . ∗ 
 
B= . . .
. . ∗
0 0 . . . 0 βn

Man kann nun für i = 1, . . . , n jeweils die i-te Zeile mit βi−1 mul-
tiplizieren und dementsprechend annehmen, dass alle βi den Wert 1
haben. Sodann kann man Vielfache der n-ten Zeile von den übrigen
144 3. Matrizen

Zeilen subtrahieren und auf diese Weise erreichen, dass alle Elemen-
te in der n-ten Spalte oberhalb von βn zu Null werden. Entsprechend
kann man die übrigen Spalten behandeln, und es folgt, dass sich A im
Falle der Invertierbarkeit mittels elementarer Zeilenumformungen in
die Einheitsmatrix E überführen lässt. Jede solche Zeilenumformung
lässt sich interpretieren als Multiplikation mit einer Elementarmatrix
von links, wie wir in Abschnitt 3.2 gesehen haben. Wir finden daher
Elementarmatrizen S1 , . . . , Sr ∈ K n×n mit
Sr · . . . · S1 · A = E,
und Multiplikation mit A−1 von rechts ergibt A−1 = Sr · . . . · S1 . Indem
wir
A−1 = Sr · . . . · S1 · E
schreiben, sehen wir Folgendes: Diejenigen elementaren Zeilenumfor-
mungen, die A in die Einheitsmatrix E überführen, führen E selbst in
die Matrix A−1 über!
Das Verfahren zur Invertierung von Matrizen kann man daher wie
folgt beschreiben: Man bringe A mittels einer Folge elementarer Zeilen-
umformungen auf Zeilenstufenform und führe bei jedem Schritt die ent-
sprechende Zeilenumformung auch an der Einheitsmatrix durch. Wenn
man dann an der Zeilenstufenform rg A = n ablesen kann, ist A inver-
tierbar, und man fahre fort, bis man A in die Einheitsmatrix überführt
hat. Die aus der Einheitsmatrix durch die entsprechenden Umformun-
gen gewonnene Matrix ist dann die zu A inverse Matrix A−1 . Beispiels-
weise erkennt man auf diese Weise für α ∈ K, i 6= j:
−1
E + (α − 1)Eii = E + (α−1 − 1)Eii
(E + αEij )−1 = E − αEij
(E − Eii − Ejj + Eij + Eji )−1 = E − Eii − Ejj + Eij + Eji

Als Nebenprodukt dieses Verfahrens können wir noch vermerken:

Satz 8. Jede invertierbare Matrix A ∈ GL(n, K) ist ein Produkt von


Elementar matri zen des Typs
E + (α − 1)E , ii α ∈ K ∗ , i = 1, . . . , n,
E + Eij , i 6= j, 1 ≤ i, j ≤ n.

Dabei ist E ∈ K n×n die Einheitsmatrix und Eij = (δµi δνj )µ,ν .
3.3 Matrizenringe und invertierbare Matrizen 145

Beweis. Wir haben gerade gesehen, dass A mittels elementarer Zeilen-


umformungen des Typs I – IV aus Abschnitt 3.2 in die Einheitsmatrix
überführt werden kann und dass A−1 das Produkt der entsprechenden
Elementarmatrizen ist. Nun kann man aber eine elementare Zeilenum-
formung des Typs III, also Addition des α-fachen der j-ten Zeile zur
i-ten Zeile für α ∈ K ∗ und gewisse Indizes i 6= j, auch als eine Folge
von elementaren Zeilenumformungen der Typen I und II interpretieren:
Man multipliziere die j-te Zeile mit α, addiere sie zur i-ten Zeile und
multipliziere die j-te Zeile anschließend wieder mit α−1 . Entsprechend
kann man auch eine elementare Zeilenumformung des Typs IV, also
das Vertauschen von i-ter und j-ter Zeile für gewisse Indizes i 6= j, als
eine Folge von Umformungen der Typen I und II interpretieren: Man
addiere die j-te Zeile zur i-ten Zeile, multipliziere die j-te Zeile mit −1,
addiere die i-te Zeile zur j-ten Zeile und subtrahiere schließlich die j-te
Zeile von der i-ten Zeile. Dabei ist der letzte Schritt eine Umformung
vom Typ III, also zerlegbar in eine Folge von Umformungen der Typen
I und II.
Indem wir vorstehende Überlegung auf A−1 anstelle von A anwen-
den, sehen wir, dass A wie behauptet ein Produkt von Elementarma-
trizen ist, die zu den elementaren Zeilenumformungen der Typen I und
II korrespondieren. 

Möchte man zu einer gegebenen Matrix A ∈ GL(n, K) deren Zer-


legung in Elementarmatrizen konkret bestimmen, so verfährt man am
besten wie folgt: Man überführt A mittels elementarer Zeilenumfor-
mungen in die Einheitsmatrix und erhält auf diese Weise eine Zerlegung
der Form A−1 = Sr · . . . · S1 mit Elementarmatrizen S1 , . . . , Sr . Inver-
senbildung liefert dann A = S1−1 · . . . · Sr−1 , wobei es sich bei den Si−1 ,
wie oben beschrieben, wiederum um Elementarmatrizen handelt. Will
man sich auf die in Satz 8 genannten Elementarmatrizen beschränken,
so sind die Si−1 gegebenenfalls noch weiter zu zerlegen.

Aufgaben
1. Es sei X eine Menge und R ein Ring mit 1. Man zeige, dass die Menge
Abb(X, R) aller Abbildungen X ✲ R unter der gewöhnlichen Addi-
tion bzw. Multiplikation R-wertiger Funktionen einen Ring bildet. Man
beschreibe die Einheitengruppe dieses Ringes.
146 3. Matrizen

2. Man gebe einen K-Vektorraum V mit Nichteinheiten f, g ∈ EndK (V )


an, so dass f ◦ g = idV gilt.
3. Es sei f : U ✲ U ein Endomorphismus eines endlich-dimensionalen
K-Vektorraums. Dann ist äquivalent: (AT 415)
(i) rg f < dimK U .
(ii) f ist ein Links-Nullteiler in EndK (V ), d. h. es existiert ein Endo-
morphismus g ∈ EndK (V ), g 6= 0, mit f ◦ g = 0.
(iii) f ist ein Rechts-Nullteiler in EndK (V ), d. h. es existiert ein Endo-
morphismus g ∈ EndK (V ), g 6= 0, mit g ◦ f = 0.
Insbesondere ist ein Links-Nullteiler in EndK (V ) auch Rechts-Nullteiler
und umgekehrt. Entsprechendes gilt im Matrizenring K n×n .
4. Man überprüfe folgende Matrizen auf Invertierbarkeit und gebe gegebe-
nenfalls die inverse Matrix an:
   
1 2 3 2 4 1 1 1 2 0
1 1 2 2 4  1 0 2 1 0
   
1 3 4 3 7 , 1 1 1 2 1 ∈ R5×5
   
2 3 5 3 8  0 1 2 1 0
0 0 1 0 1 1 1 1 2 0

5. Falls möglich schreibe man die folgenden Matrizen als Produkt von Ele-
mentarmatrizen:
   
1 0 0 1 1 1 1 1
1 1 0 3  0 1 1 1
    4×4
1 1 1 4 , 0 0 1 1 ∈ R
1 0 1 2 0 0 0 1

6. Für A ∈ GL(n, K) zeige man (A−1 )t = (At )−1 .


7. Für m, r, s ∈ N − {0} betrachte man Matrizen

A ∈ K m×m , B ∈ K m×s , C ∈ K r×m , D ∈ K r×s

mit  
A B
rg = m,
C D

wobei A invertierbar sei. Man zeige D = C · A−1 · B. (AT 417)


3.4 Basiswechsel 147

3.4 Basiswechsel

Wir haben gesehen, dass man K-lineare Abbildungen zwischen Vektor-


räumen bei Fixierung von Basen durch Matrizen beschreiben kann. In
diesem Abschnitt soll insbesondere untersucht werden, wie sich die be-
schreibende Matrix ändert, wenn man die zugehörigen Basen wechselt.
Wir beginnen mit einer Charakterisierung von Basen.

Bemerkung 1. Sei V ein K-Vektorraum Pn und X = (x1 , . . . , xn ) eine


Basis von V . Zu n Elementen yj = i=1 αij xi ∈ V , j = 1, . . . , n, mit
Koeffizienten αij ∈ K betrachte man die Matrix A = (αij )i,j ∈ K n×n ,
also die Matrix Af,X,X der durch xj ✲ yj erklärten K-linearen Ab-
bildung f : V ✲ V . Dann ist äquivalent:
(i) Y = (y1 , . . . , yn ) ist eine Basis von V .
(ii) rg A = n.
(iii) A ∈ GL(n, K), d. h. A ist invertierbar.

Beweis. Ist Y eine Basis von V , so ist f ein Isomorphismus, und es


folgt rg A = rg f = dimK V = n mit 3.2/2. Gilt weiter rg A = n, so
hat man A ∈ GL(n, K) nach 3.3/7. Aus letzter Bedingung wiederum
ergibt sich mit 3.3/6, dass f ein Isomorphismus ist, und folglich, dass
Y eine Basis ist. 

Ist Y in der Situation von Bemerkung 1 eine Basis von V , so be-


zeichnen wir A = (αij )i,j als Matrix eines Basiswechsels. Man kann
dann, und dies werden wir zur Präzisierung der Art des Basiswech-
sels stets so handhaben, A auch als Matrix zur identischen Abbil-
dung id : V ✲ V bezüglich der Basen Y und X interpretieren, also
A = Aid,Y,X . Insbesondere ergibt sich aus Bemerkung 1, dass sich bei
fixierter Basis X von V jede Matrix A ∈ GL(n, K) als Basiswechselma-
trix der Form Aid,Y,X mit einer geeigneten Basis Y von V interpretieren
lässt. Aus der Gleichung

Aid,Y,X · Aid,X,Y = Aid,X,X = 1,

vgl. 3.1/9, lesen wir ab:


148 3. Matrizen

Bemerkung 2. Es sei V ein K-Vektorraum mit endlichen Basen X


und Y . Dann ist die Basiswechselmatrix Aid,Y,X invertierbar, und ihr
Inverses wird gegeben durch die Basiswechselmatrix Aid,X,Y .

Weiter folgt aus 3.1/7:

Bemerkung 3. Es sei V ein K-Vektorraum mit endlichen Basen X


und Y . Für a ∈ V bezeichne aX bzw. aY den Koordinatenspaltenvektor
von a bezüglich X bzw. Y . Dann gilt

aX = Aid,Y,X · aY , aY = Aid,X,Y · aX .

Als Nächstes soll untersucht werden, wie sich die beschreibende


Matrix einer linearen Abbildung unter Basiswechsel verhält.

Satz 4. Es sei f : V ✲ W eine K-lineare Abbildung zwischen end-


lich-dimensionalen K-Vektorräumen. Sind dann X, X ′ Basen von V
und Y, Y ′ Basen von W , so gilt

Af,X ′ ,Y ′ = (Aid,Y ′ ,Y )−1 · Af,X,Y · Aid,X ′ ,X .

Beweis. Indem man 3.1/9 auf f = idW ◦f ◦ idV anwendet, erhält man

Af,X ′ ,Y ′ = Aid,Y,Y ′ · Af,X,Y · Aid,X ′ ,X ,

mit Aid,Y,Y ′ = (Aid,Y ′ ,Y )−1 . 

Korollar 5. Es sei f : V ✲ V ein Endomorphismus eines endlich-


dimensionalen K-Vektorraums V mit Basen X, X ′ . Dann gilt

Af,X ′ ,X ′ = (Aid,X ′ ,X )−1 · Af,X,X · Aid,X ′ ,X .

Wir wollen nun noch einige Anwendungen zum Rang einer Matrix
geben.

Satz 6. Für Matrizen S ∈ GL(m, K), A ∈ K m×n und T ∈ GL(n, K)


gilt
rg(S · A · T ) = rg A.
3.4 Basiswechsel 149

Beweis. Zu A betrachte man die lineare Abbildung

f : Kn ✲ K m, a ✲ A · a.

Dann ist A die zu f gehörige Matrix, wenn man in K n und K m jeweils


die kanonische Basis zugrunde legt. Interpretiert man dann S −1 als
Matrix eines Basiswechsels in K m und T als Matrix eines Basiswechsels
in K n , so ergibt sich

rg(S · A · T ) = rg f = rg A

mit 3.2/2 und Satz 4. 

Lemma 7. Es sei f : V ✲ W eine K-lineare Abbildung zwischen


Vektorräumen mit dimK V = n und dimK W = m. Sei r = rg f .
Dann existiert eine Basis X = (x1 , . . . , xn ) von V sowie eine Basis
Y = (y1 , . . . , ym ) von W mit
 
Er 0
Af,X,Y = ,
0 0

wobei Er die (r × r)-Einheitsmatrix ist und 0 jeweils geeignete (mögli-


cherweise auch leere) Bereiche mit Koeffizienteneinträgen 0 bezeichnet.

Beweis. Man wähle eine Basis y1 , . . . , yr von im f und ergänze diese zu


einer Basis Y = (y1 , . . . , ym ) von W . Seien weiter x1 , . . . , xr f -Urbilder
zu y1 , . . . , yr . Diese sind linear unabhängig, vgl. 2.1/5, und lassen sich,
wie im Beweis zu 2.1/10 gezeigt, durch Elemente xr+1 , . . . , xn ∈ ker f
zu einer Basis X von V ergänzen. Sodann gilt
(
yj für j = 1, . . . , r,
f (xj ) =
0 für j = r + 1, . . . , n,

d. h. Af,X,Y ist von der gewünschten Form. 

Satz 8. Es sei A ∈ K m×n mit rg A = r. Dann existieren invertierbare


Matrizen S ∈ GL(m, K) und T ∈ GL(n, K) mit
 
Er 0
S·A·T = ,
0 0
150 3. Matrizen

wobei Er die (r × r)-Einheitsmatrix ist und 0 jeweils geeignete (mögli-


cherweise auch leere) Bereiche mit Koeffizienteneinträgen 0 bezeichnet.

Beweis. Wir betrachten die lineare Abbildung

f : Kn ✲ K m, a ✲ A · a,

deren Matrix bezüglich der kanonischen Basen in K n und K m durch


A gegeben wird. Nach Lemma 7 gibt es dann Basen X von K n und Y
von K m , so dass Af,X,Y von der behaupteten Gestalt ist. Nach Satz 4
gilt Af,X,Y = S · A · T mit Basiswechselmatrizen, also invertierbaren
Matrizen S und T . 

Abschließend wollen wir noch andeuten, wie man die Überlegun-


gen dieses Abschnitts dazu benutzen kann, um zu zeigen, dass bei
einer Matrix stets der Spalten- mit dem Zeilenrang übereinstimmt.
Wir hatten dieses Resultat bereits in 3.2/10 hergeleitet, und zwar un-
ter Verwendung der Theorie dualer Abbildungen. Sei also A ∈ K m×n .
Dann können wir A als Matrix Af,X,Y zu einer K-linearen Abbildung
f: V ✲ W bezüglich einer Basis X von V bzw. Y von W interpre-
tieren, wobei sich der Spaltenrang von A nach 3.2/2 zu rgs A = rg f
berechnet. Invertierbare Matrizen S ∈ GL(m, K), T ∈ GL(n, K) kön-
nen als Basiswechselmatrizen aufgefasst werden, so dass mit Satz 4 die
Gleichung rgs (S · A · T ) = rg f folgt. Sodann ergibt sich

rgs (S · A · T ) = rgs A

für beliebige Matrizen S ∈ GL(m, K), T ∈ GL(n, K). Diese Gleichung


ist aber auch für den Zeilenrang richtig, denn es gilt

rgz (S · A · T ) = rgs (S · A · T )t = rgs (T t · At · S t ) = rgs At = rgz A.

Man benötigt hierfür außer den Resultaten 3.2/7 und 3.2/8 lediglich,
dass mit S ∈ GL(m, K) auch S t invertierbar ist, entsprechend für
T , was aber unmittelbar klar ist. Wählt man nun S und T so, dass
S · A · T die in Satz 8 angegebene einfache Gestalt besitzt, so gilt
natürlich rgs (S · A · T ) = rgz (S · A · T ), und es folgt die gewünschte
Beziehung

rgs A = rgs (S · A · T ) = rgz (S · A · T ) = rgz A.


3.5 Lineare Gleichungssysteme 151

Aufgaben
1. Man zeige, dass die folgenden Systeme von Vektoren

X = (1, 1, 1, 2, 0), (1, 0, 2, 1, 0), (1, 1, 1, 2, 1), (1, 1, 2, 1, 0), (0, 1, 1, 2, 0) ,

Y = (1, 2, 3, 4, 4), (1, 1, 2, 3, 4), (1, 3, 4, 6, 7), (2, 3, 5, 6, 8), (0, 0, 1, 1, 1)

jeweils eine Basis von R5 bilden. Wie lauten die Basiswechselmatrizen


Aid,X,Y und Aid,Y,X ? (AT 420)
2. Es sei V ein K-Vektorraum endlicher Dimension n > 0. Man beschreibe
alle Basiswechselmatrizen A ∈ K n×n , welche eine gegebene Basis X
von V , abgesehen von der Reihenfolge der Basisvektoren, wieder in sich
selbst überführen.
3. Es sei V ein K-Vektorraum endlicher Dimension n > 0. Für gegebene
Matrizen A, B ∈ K n×n beweise man die Äquivalenz folgender Bedin-
gungen:
(i) Es existiert eine Matrix S ∈ GL(n, K) mit B = S −1 AS.
(ii) Es existieren f ∈ EndK (V ) und Basen X, Y von V mit Af,X,X = A
und Af,Y,Y = B.
4. Für Matrizen A, B ∈ K m×n schreibe man A ∼ B, falls es S ∈ GL(m, K)
und T ∈ GL(n, K) gibt mit B = SAT . Man zeige, dass die Relation “ ∼ ”
eine Äquivalenzrelation ist, beschreibe die zugehörigen Äquivalenzklas-
sen und gebe insbesondere deren Anzahl an. (AT 424)
5. Es sei V 6= 0 ein endlich-dimensionaler K-Vektorraum mit den Basen
X, Y und V ∗ sein Dualraum mit den dualen Basen X ∗ , Y ∗ . Man zei-
ge, dass für die Basiswechselmatrizen A = Aid,X,Y und Aid,X ∗ ,Y ∗ die
Relation Aid,X ∗ ,Y ∗ = (A−1 )t gilt.

3.5 Lineare Gleichungssysteme

Für eine Matrix A = (αij )i,j ∈ K m×n und einen Vektor b = (b1 , . . . , bm )t
aus K m , den wir als Spaltenvektor auffassen wollen, nennt man

α11 x1 + . . . + α1n xn = b1
α21 x1 + . . . + α2n xn = b2
...
αm1 x1 + . . . + αmn xn = bm
152 3. Matrizen

oder, in Matrizenschreibweise,
A·x=b
ein lineares Gleichungssystem mit Koeffizienten αij ∈ K und den “Un-
bekannten” x1 , . . . , xn , bzw. x = (x1 , . . . , xn )t . Genauer versteht man
hierunter das Problem, alle x ∈ K n zu bestimmen, die die Gleichung
A · x = b erfüllen. Im Falle b = 0 heißt das Gleichungssystem homogen,
ansonsten inhomogen. Wir wollen eine spezielle Bezeichnung für den
Raum der Lösungen eines linearen Gleichungssystems einführen.

Definition 1. Für eine Matrix A ∈ K m×n und einen Spaltenvektor


b ∈ K m bezeichnen wir die Menge

MA,b = x ∈ K n ; A · x = b
als den Lösungsraum des linearen Gleichungssystems A · x = b.

Wir können sofort eine triviale, aber sehr wichtige Feststellung tref-
fen, die Informationen über die Struktur solcher Lösungsräume liefert:

Bemerkung 2. Zu einem linearen Gleichungssystem A · x = b


mit A ∈ K m×n , b ∈ K m betrachte man die K-lineare Abbildung
f : Kn ✲ K m, a ✲ A · a. Dann gilt

MA,b = f −1 (b).
Der Lösungsraum des Gleichungssystems ist daher ein affiner Unter-
raum von K n ; vgl. 2.2/11.
Für b = 0 folgt insbesondere MA,0 = ker f . In diesem Falle ist der
Lösungsraum sogar ein linearer Unterraum von K n .

Wir wollen zunächst homogene lineare Gleichungssysteme, also li-


neare Gleichungssysteme des Typs A · x = 0 genauer studieren. Der
Lösungsraum MA,0 ist dann ein linearer Unterraum von K n , enthält
stets die triviale Lösung 0 ∈ K n und ist folglich nicht leer.

Satz 3. Für A ∈ K m×n ist der Lösungsraum MA,0 des homogenen


linearen Gleichungssystems A · x = 0 ein linearer Unterraum von K n
mit Dimension dimK (MA,0 ) = n − rg A.
3.5 Lineare Gleichungssysteme 153

Beweis. Die lineare Abbildung f : K n ✲ K m, a ✲ A · a, besitzt


MA,0 als Kern, und die Dimensionsformel 2.1/10 liefert die Relation
n = dimK (ker f ) + rg f , also dimK (MA,0 ) = n − rg A. 

Lemma 4. Für A ∈ K m×n und S ∈ GL(m, K) haben die linearen


Gleichungssysteme A · x = 0 und (S · A) · x = 0 dieselben Lösungen,
d. h. MA,0 = MSA,0 .

Beweis. Gilt x ∈ MA,0 , also A · x = 0, so folgt mittels Multiplikation


mit S von links S · A · x = 0, also x ∈ MSA,0 . Umgekehrt, hat man
x ∈ MSA,0 , also S · A · x = 0, so ergibt sich durch Multiplikation mit
S −1 von links A · x = 0, also x ∈ MA,0 . 

Die Aussage des Lemmas ist von besonderem Nutzen, wenn man
ein konkret gegebenes homogenes lineares Gleichungssystem der Form
A · x = 0 explizit lösen möchte. Man kann nämlich das Gaußsche Eli-
minationsverfahren anwenden und A gemäß 3.2/4 mittels elementarer
Zeilenumformungen auf Zeilenstufenform bringen. Da solche Umfor-
mungen auch als Multiplikation von links mit Elementarmatrizen, also
invertierbaren Matrizen, interpretiert werden können, ändert sich der
Lösungsraum des betrachteten homogenen linearen Gleichungssystems
dabei nicht. Man darf daher ohne Beschränkung der Allgemeinheit an-
nehmen, dass A Zeilenstufenform besitzt. Um unsere Bezeichnungen
übersichtlich zu gestalten, wollen wir von A zu einer weiteren Matrix
A′ in Zeilenstufenform übergehen, bei der die einzelnen Stufen auf der
Hauptdiagonalen liegen, d. h. zu einer Matrix
 
α11 . . . . . . . . . . . . . . . . . . . . . . α1n
 α22 . . . . . . . . . . . . . . . . . α2n 
 
 . . . 
 
 ... 

A =  
0 α . . . α 
 rr rn 
 0 ... 0 
 
 ... 
0 ... 0

mit Koeffizienten α11 , . . . , αrr ∈ K ∗ , r = rg A. Eine solche Zeilen-


stufenform kann man aus einer Zeilenstufenform allgemeinen Typs A
154 3. Matrizen

durch Vertauschen von Spalten, also durch eine gewisse Umnumme-


rierung der Spalten von A herstellen. Bezeichnet man mit x′ das ent-
sprechend umnummerierte Tupel der Unbekannten x = (x1 , . . . , xn ),
so sieht man mittels explizitem Ausschreiben der linearen Gleichungs-
systeme Ax = 0 und A′ x′ = 0, dass beide Systeme äquivalent sind.
Genauer, man erhält die Lösungen von Ax = 0 aus den Lösungen
von A′ x′ = 0, indem man die zuvor durchgeführte Umnummerierung
der Komponenten bei den Lösungen von A′ x′ = 0 wieder rückgängig
macht. Eine ausführliche Analyse dieses Prozesses mittels sogenann-
ter Permutationsmatrizen wird weiter unten in den Aufgaben 7 und 8
durchgeführt.
Wir können somit annehmen, dass unsere Matrix A die oben be-
schriebene Zeilenstufenform A′ besitzt. Durch Ausführen weiterer ele-
mentarer Zeilenumformungen kann man dann αii = 1 für i = 1, . . . , r
erreichen und außerdem, dass alle Elemente in der i-ten Spalte ober-
halb von αii verschwinden. Wir erreichen damit, dass die Matrix A von
der Form  
1 α1,r+1 . . . α1,n
 1 α2,r+1 . . . α2,n 
 
 .. .. .. 
 
 .. .. .. 
 
 1 αr,r+1 . . . αr,n 
 
0 . . . . . . . . . . . . . 0 
 
0 . . . . . . . . . . . . . 0 
 
.. .. 
0 . . . . . . . . . . . . . 0
ist, wobei sich in der linken oberen Ecke die (r × r)-Einheitsmatrix
befindet. Somit ist folgendes Gleichungssystem zu lösen:
n
X
xi + αij xj = 0, i = 1, . . . , r
j=r+1

Dies ist ohne Aufwand möglich, da man die Werte xr+1 , . . . , xn ∈ K


beliebig vorgeben darf und sich die Werte von x1 , . . . , xr hieraus zu
n
X
xi = − αij xj , i = 1, . . . , r,
j=r+1
bestimmen.
3.5 Lineare Gleichungssysteme 155

Die Arbeit beim Lösen des linearen Gleichungssystems A · x = 0


reduziert sich damit auf das Herstellen der oben angegebenen speziel-
len Zeilenstufenform von A. Insbesondere wird deutlich, warum dieses
nach Gauß benannte Verfahren als Eliminationsverfahren bezeichnet
wird. Aus der ersten Gleichung ergibt sich x1 in Abhängigkeit von
xr+1 , . . . , xn , aus der zweiten x2 in Abhängigkeit von xr+1 , . . . , xn usw.
Es werden also nach und nach unbekannte Größen eliminiert, bis man
zu einem Restsystem von Größen gelangt, deren Werte frei wählbar
sind. Dies äußert sich darin, dass die Projektion

Kn ✲ K n−r , (a1 , . . . , an )t ✲ (ar+1 , . . . , an )t ,

einen Isomorphismus MA,0 ∼✲ K n−r induziert. Insbesondere sehen


wir nochmals dimK MA,0 = n − r ein, und es wird klar, dass man durch
Liften einer Basis von K n−r , etwa der kanonischen, eine Basis von MA,0
erhält. In obiger Notation besteht diese dann aus den Vektoren

vj = (−α1j , . . . , −αrj , δr+1j , . . . , δnj )t , j = r + 1, . . . , n.

Das Verfahren zur Bestimmung einer Basis des Lösungsraums MA,0


eines homogenen linearen Gleichungssystems A · x = 0 gestaltet sich
daher wie folgt:
Man transformiere A auf die spezielle oben beschriebene Zeilenstu-
fenform. Für j = r + 1, . . . , n sei vj ∈ K n derjenige Vektor, dessen
Komponenten mit Index i = 1, . . . , r jeweils aus dem Negativen der
entsprechenden Komponenten der j-ten Spalte der Zeilenstufenform
von A bestehen und dessen Komponenten mit Index i = r + 1, . . . , n
gerade diejenigen des (j −r)-ten Einheitsvektors aus K n−r seien. Dann
bilden vr+1 , . . . , vn eine Basis von MA,0 .
Im Prinzip behält diese Regel auch dann ihre Gültigkeit, wenn
wir bei der Herstellung der Zeilenstufenform von A auf Spaltenvertau-
schungen und damit auf ein Umnummerieren der Unbekannten verzich-
ten. Die Rolle der Indizes i = 1, . . . , r (bzw. i = r + 1, . . . , n) wird, was
die Spaltenindizes der Zeilenstufenform von A wie auch die Indizes der
Komponenten der vj angeht, in diesem Falle von denjenigen Spalten-
indizes übernommen, bei denen die Zeilenstufenform “springt” (bzw.
nicht “springt”). Hiermit meinen wir diejenigen Spalten, die im Sinne
156 3. Matrizen

der Notation von 3.2/4 eines (bzw. keines) der dort positionierten Ele-
mente β1 , . . . , βr ∈ K ∗ enthalten. Um die Lösungen auch in diesem
Falle formelmäßig zu beschreiben, gehen wir von der entsprechenden
speziellen Zeilenstufenform von A aus, die nunmehr die Gestalt

1 j1 j2 ⊳ Spaltenindex ⊲ jr n
 
0 ... 0 1 ∗ ... ∗ 0 ∗ ... ∗ ... ∗ ... ∗ 0 ∗ ... ∗
0 ... 0 0 0 ... 0 1 ∗ ... ∗ ... ∗ ... ∗ 0 ∗ ... ∗
 
0 ... 0 0 0 ... 0 0 0 ... 0 ... ∗ ... ∗ 0 ∗ ... ∗
 
 ... ... ... ... ... ... 
 
 
0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 ... 0 1 ∗ ... ∗
 
0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 ... 0 0 0 ... 0
 
 ... ... ... ... ... ... 
0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 ... 0 0 0 ... 0

besitzt. Bezeichnet dann J ′ das Komplement der Menge der Spalten-


indizes in {1, . . . , n}, bei denen die Zeilenstufenform A “springt”, also
J ′ = {1, . . . , n} − {j1 , . . . ., jr }, so ist das lineare Gleichungssystem
X
x ji + αij ′ xj ′ = 0, i = 1, . . . , r,
j ′ ∈J ′

zu lösen. Wiederum kann man die Werte der xj ′ ∈ K für j ′ ∈ J ′ beliebig


vorgeben und die Werte der xji für i = 1, . . . , r daraus berechnen. Die
Projektion

Kn ✲ K n−r , (a1 , . . . , an )t ✲ (aj ′ )tj ′ ∈J ′ ,

liefert daher einen Isomorphismus MA,0 ∼✲ K n−r , und durch Lif-


ten der kanonischen Basis von K n−r erhält man eine Basis von MA,0
bestehend aus den Vektoren

vj ′ = (ξ1j ′ , . . . , ξnj ′ )t , j ′ ∈ J ′,

mit
(
−αij ′ für i′ = ji mit i ∈ {1, . . . , r},
ξ
i′ j ′ = .
δi′ j ′ für i′ ∈ J ′
3.5 Lineare Gleichungssysteme 157

Wir wollen ein Beispiel betrachten. Sei K = R, m = 3, n = 4 und


 
0 0 1 2

A= 1 2 1 3 .
1 2 2 5
Das lineare Gleichungssystem A · x = 0 schreibt sich dann ausführlich
in der Form:

x3 + 2x4 = 0
x1 + 2x2 + x3 + 3x4 = 0
x1 + 2x2 + 2x3 + 5x4 = 0

Bringen wir nun A mittels elementarer Zeilenumformungen auf die


spezielle Zeilenstufenform, also
     
1 2 1 3 1 2 1 3 1 2 0 1
A ✲  0 0 1 2  ✲ 0 0 1 2 ✲  0 0 1 2 ,
1 2 2 5 0 0 1 2 0 0 0 0
so “springt” diese Stufenform genau bei den Spaltenindizes 1 und 3.
Wir lesen daher nach der oben beschriebenen Regel als Basis des Lö-
sungsraums MA,0 ab:

v2 = (−2, 1, 0, 0)t , v4 = (−1, 0, −2, 1)t

Argumentieren wir etwas ausführlicher, so bleibt das lineare Glei-


chungssystem

x1 + 2x2 + x4 = 0,
x3 + 2x4 = 0

zu lösen. Die Projektion

K4 ✲ K 2, (a1 , . . . , a4 )t ✲ (a2 , a4 )t ,

liefert einen Isomorphismus MA,0 ∼✲ K 2 , und wir liften die kanoni-


sche Basis von K 2 zu einer Basis von MA,0 :

x2 = 1, x4 = 0 =⇒ x1 = −2, x3 = 0
x2 = 0, x4 = 1 =⇒ x1 = −1, x3 = −2
158 3. Matrizen

Insbesondere gilt dimK MA,0 = 2, und wir erkennen, wie bereits oben
angegeben,
MA,0 = (−2, 1, 0, 0)t , (−1, 0, −2, 1)t .
Als Nächstes wollen wir den Allgemeinfall behandeln, also inhomo-
gene lineare Gleichungssysteme des Typs A·x = b, wobei der Fall b = 0
nicht explizit ausgeschlossen werden soll. Im Folgenden bezeichnen wir
mit (A, b) ∈ K m×(n+1) diejenige Matrix, die aus A durch Hinzufügen
von b als (n + 1)-ter Spalte entsteht.

Satz 5. Zu A ∈ K m×n und Spaltenvektoren b ∈ K m betrachte man das


lineare Gleichungssystem A · x = b.
(i) A · x = b ist genau dann lösbar (d. h. besitzt mindestens eine
Lösung), wenn rg A = rg(A, b) gilt.
(ii) A · x = b ist genau dann universell lösbar (d. h. besitzt für jedes
b ∈ K m mindestens eine Lösung), wenn rg A = m gilt.
(iii) A · x = b besitzt genau dann für alle b ∈ K m höchstens eine
Lösung, wenn rg A = n gilt.

Beweis. Es sei f : K n ✲ K m, a ✲ A · a, die durch A gegebe-


ne lineare Abbildung. Dann gilt MA,b = f −1 (b) für den Lösungsraum
zu A · x = b; vgl. Bemerkung 2. Somit ist MA,b genau dann nicht
leer, wenn b zum Bild von f gehört. Sind a1 , . . . , an ∈ K m die Spal-
ten von A, so gilt im f = ha1 , . . . , an i, und es ist b ∈ im f äquivalent
zu ha1 , . . . , an i = ha1 , . . . , an , bi. Da aber ha1 , . . . , an i stets ein linea-
rer Unterraum von ha1 , . . . , an , bi ist, kann man mit 1.5/14 (ii) bereits
dann auf die Gleichheit beider Räume schließen, wenn ihre Dimensio-
nen übereinstimmen. Die Dimensionen sind aber gerade die Ränge der
Matrizen A bzw. (A, b). Somit sehen wir, dass MA,b 6= ∅ äquivalent zu
rg A = rg(A, b) ist, wie in (i) behauptet.
Wegen MA,b = f −1 (b) ist A · x = b genau dann universell lösbar,
wenn f surjektiv ist, also im f = K m gilt. Letzteres ist äquivalent zu
rg f = m und somit zu rg A = m, wie in (ii) behauptet.
Die eindeutige Lösbarkeit von A · x = b schließlich, wie in (iii)
betrachtet, ist äquivalent zur Injektivität von f . Indem man die Di-
mensionsformel 2.1/10 für f benutzt, also

n = dimK (ker f ) + rg f,
3.5 Lineare Gleichungssysteme 159

sieht man, dass die Injektivität von f äquivalent zu rg f = n bzw.


rg A = n ist. 

Gilt m = n in der Situation von Satz 5, so ist die universelle


Lösbarkeit in Bedingung (ii) äquivalent zu der höchstens eindeutigen
Lösbarkeit in Bedingung (iii). Mit 3.3/7 folgt daher:

Korollar 6. Für eine Matrix A ∈ K n×n ist äquivalent:


(i) Das lineare Gleichungssystem A·x = b ist universell für b ∈ K n
lösbar.
(ii) Das lineare Gleichungssystem A · x = 0 besitzt nur die triviale
Lösung.
(iii) A ist invertierbar.

Wir wollen noch etwas genauer auf die Struktur von Lösungsräu-
men inhomogener linearer Gleichungssysteme eingehen. Das nachfol-
gende Resultat zeigt dabei nochmals, dass es sich bei solchen Lösungs-
räumen um affine Unterräume handelt.

Satz 7. Für A ∈ K m×n und b ∈ K m habe man eine Lösung v0 ∈ MA,b


des linearen Gleichungssystems A · x = b. Dann gilt MA,b = v0 + MA,0 .
Mit anderen Worten, die Gesamtheit aller Lösungen des inhomogenen
Systems A·x = b erhält man in der Form v0 +v, wobei v0 eine beliebige,
sogenannte partikuläre Lösung dieses Systems ist und v alle Lösungen
des zugehörigen homogenen Systems A · x = 0 durchläuft.

Beweis. Wir betrachten wieder die durch A gegebene lineare Abbildung

f : Kn ✲ K m, x ✲ A · x,

wobei MA,b = f −1 (b) gilt. Für v0 ∈ MA,b folgt dann mit 2.2/2

MA,b = f −1 f (v0 ) = v0 + ker f = v0 + MA,0 ,

wie behauptet. 

Wir wollen nun noch zeigen, wie man mit Hilfe des Gaußschen Eli-
minationsverfahrens auch inhomogene lineare Gleichungssysteme lösen
160 3. Matrizen

kann. Zunächst eine nützliche Beobachtung, die als Verallgemeinerung


von Lemma 4 zu sehen ist:

Lemma 8. Für A ∈ K m×n , b ∈ K m und S ∈ GL(m, K) haben die


linearen Gleichungssysteme A · x = b und (S · A) · x = S · b dieselben
Lösungen, d. h. MA,b = MSA,Sb .

Beweis. Indem man mit S bzw. S −1 von links multipliziert, sieht man,
dass A · x = b für x ∈ K n äquivalent zu S · A · x = S · b ist. 

Man darf also zur Lösung eines linearen Gleichungssystems der


Form A · x = b die Matrix A mittels elementarer Zeilenumformungen
beliebig abändern, wenn man gleichzeitig diese Umformungen auch bei
b, aufgefasst als (m×1)-Matrix, durchführt; solche Umformungen las-
sen sich nämlich als Multiplikation von links mit Elementarmatrizen,
also invertierbaren Matrizen auffassen. Am einfachsten ist es dann, A
und b zu der Matrix (A, b) zusammenzufügen und diese Matrix mittels
elementarer Zeilenumformungen zu verändern. Solche Umformungen
sind kompatibel mit der Beschränkung auf einzelne Spalten. Sie wir-
ken insbesondere separat auf die Matrix A und die Spalte b, d. h. es
gilt S · (A, b) = (SA, Sb) für S ∈ GL(m, K).
Wie im homogenen Fall transformiere man nun (A, b) zunächst auf
Zeilenstufenform. Nach eventueller Umnummerierung der Unbekann-
ten x1 , . . . , xn können wir annehmen, dass die transformierte Matrix
die Gestalt
 
1 α1,r+1 . . . α1,n β1
 1 α2,r+1 . . . α2,n β2 
 
 .. .. .. .. 
 
 .. .. .. .. 
 
 1 αr,r+1 . . . αr,n βr 
 
0 . . . . . . . . . . . . . 0 βr+1 
 
0 . . . . . . . . . . . . . 0 0 
 
.. .. .. 
0 . . . . . . . . . . . . . 0 0

SA Sb
3.5 Lineare Gleichungssysteme 161

besitzt, wobei sich in der linken oberen Ecke die (r×r)-Einheitsmatrix


befindet und S das Produkt der benötigten Elementarmatrizen andeu-
tet. Wie im homogenen Fall folgt r = rg A, und man sieht, dass die
Bedingung rg A = rg(A, b) bzw. rg(SA) = rg(SA, Sb) äquivalent zu
βr+1 = 0 ist. Das System A · x = b ist also genau dann lösbar, wenn in
obiger Zeilenstufenform βr+1 = 0 gilt. Ist Letzteres der Fall, so ergibt
sich n
X
xi + αij xj = βi , i = 1, . . . , r,
j=r+1

als transformiertes Gleichungssystem. Indem man xr+1 , . . . , xn = 0


setzt, gelangt man zu einer partikulären Lösung v0 mit den Kompo-
nenten (
βj für j = 1, . . . , r
ξj = .
0 für j = r + 1, . . . , n

Bestimmt man nun noch, wie bereits vorgeführt, den Lösungsraum


MA,0 des homogenen Systems A·x = 0, so ergibt sich MA,b = v0 + MA,0
gemäß Satz 7. Insgesamt lässt sich feststellen, dass sich die Lösung v0 ,
wie auch eine Basis vr+1 , . . . , vn des Lösungsraums MA,0 in direkter
Weise aus der hergeleiteten speziellen Zeilenstufenform der Ausgangs-
matrix (A, b) ablesen lassen. Ähnlich wie im Falle homogener linearer
Gleichungssysteme gilt dies auch dann, wenn man keine Umnummerie-
rung der Unbekannten zulässt und stattdessen die Indizes i = 1, . . . , r
durch diejenigen Spaltenindizes j1 , . . . , jr ersetzt, bei denen die Zeilen-
stufenform von A “springt”. Es ist dann das Gleichungssystem
X
x ji + αij ′ xj ′ = βi , i = 1, . . . , r,
j ′ ∈J ′

mit J ′ = {1, . . . , n} − {j1 , . . . , jr } zu lösen. Eine partikuläre Lösung


v0 ∈ MA,b wird in diesem Falle durch den Vektor v0 = (ξ1 , . . . , ξn )t ∈ K n
mit den Komponenten
(
βi für j = ji mit i ∈ {1, . . . , r}
ξj =
0 sonst

gegeben.
162 3. Matrizen

Als Beispiel wollen wir für K = R das System A · x = b lösen mit


   
0 0 1 2 1
A = 1 2 1 3 , b = 1 .
1 2 2 5 3

Den Lösungsraum MA,0 des zugehörigen homogenen Systems hatten


wir bereits bestimmt. Wir bringen zunächst die Matrix (A, b) auf spe-
zielle Zeilenstufenform, also
     
1 2 1 3 1 1 2 1 3 1 1 2 0 1 0
(A, b) 7→ 0 0 1 2 1 7→ 0 0 1 2 1 7→  0 0 1 2 1 ,
1 2 2 5 3 0 0 1 2 2 0 0 0 0 1

woraus man rg(A, b) = 3 > 2 = rg A entnimmt. Das System A · x = b


besitzt daher keine Lösung, d. h. es gilt MA,b = ∅.
Alternativ wollen wir das obige Gleichungssystem auch noch für
b = (1, 1, 2)t betrachten. Die Transformation von (A, b) auf spezielle
Zeilenstufenform liefert dann
     
1 2 1 3 1 1 2 1 3 1 1 2 0 1 0
(A, b) 7→ 0 0 1 2 1 7→ 0 0 1 2 1 7→  0 0 1 2 1 .
1 2 2 5 2 0 0 1 2 1 0 0 0 0 0

In diesem Fall gilt rg A = rg(A, b) = 2, und man liest v0 = (0, 0, 1, 0)


als partikuläre Lösung ab.
In ausführlicherer Argumentation ist das System

x1 + 2x2 + x4 = 0
x3 + 2x4 = 1

zu betrachten. Um eine partikuläre Lösung zu berechnen, setzen wir


x2 = x4 = 0 und erhalten x1 = 0, x3 = 1, also (0, 0, 1, 0)t ∈ MA,b .
Da wir bereits gezeigt haben, dass die Vektoren (−2, 1, 0, 0)t und
(−1, 0, −2, 1)t eine Basis von MA,0 bilden, ergibt sich

MA,b = (0, 0, 1, 0)t + (−2, 1, 0, 0)t , (−1, 0, −2, 1)t .


3.5 Lineare Gleichungssysteme 163

Aufgaben

1. Für eine Matrix und Vektoren


     
1 1 1 1 1 1 1
1 0 1 0 1 1  1
A= 2 3 4
 ∈ R4×5 , b=  4
1 ∈ R , b′ =  
 1 ∈ R
4
5 6
0 2 2 4 4 1 −1

bestimme man alle Lösungen


(i) des homogenen linearen Gleichungssystems A · x = 0,
(ii) des inhomogenen linearen Gleichungssystems A · x = b,
(iii) des inhomogenen linearen Gleichungssystems A · x = b′ .
2. Für reelle Matrizen
     
1 1 1 1 1 1 1 1 1 1 1 1
1 2 3  1 2 3 4  1 2 3 4 5 
A=    
1 4 9 , B = 1 4 9 16, C = 1

4 9 16 25 
1 8 27 1 8 27 64 1 8 27 64 125

und Vektoren b ∈ R4 untersuche man die linearen Gleichungssysteme


A · x = b, B · x = b und C · x = b auf universelle bzw. höchstens
eindeutige Lösbarkeit in x ∈ R3 , bzw. x ∈ R4 , bzw. x ∈ R5 . Sind diese
Systeme speziell für b = (1, 0, 0, 0)t lösbar?
3. Man betrachte eine Matrix A ∈ K m×n sowie verschiedene Spaltenvek-
toren b ∈ K m und zeige:
(i) Das lineare Gleichungssystem Ax = b ist genau dann universell
lösbar, wenn es eine Matrix B ∈ K n×m mit A · B = Em gibt.
(ii) Das lineare Gleichungssystem Ax = b ist genau dann höchstens
eindeutig lösbar, wenn es eine Matrix B ∈ K n×m mit B · A = En
gibt.
Dabei seien Em ∈ K m×m und En ∈ K n×n die jeweiligen Einheitsmatri-
zen.
4. Man zeige, dass jeder affine Unterraum in K n Lösungsraum eines geeig-
neten linearen Gleichungssystems mit Koeffizienten aus K ist.
5. Es sei f : V ✲ W eine R-lineare Abbildung, die bezüglich geeigneter
Basen X von V und Y von W durch die Matrix
164 3. Matrizen
 
1 1 2 4 8
1 2 1 2 1
Af,X,Y =
2
 ∈ R4×5
2 2 2 1
1 2 2 2 2

gegeben sei. Man bestimme eine Basis von ker f . (AT 426)
6. Man betrachte in R6 die linearen Unterräume

U = (1, 1, 1, 0, 1, 1), (2, 3, 4, 0, 2, 1), (0, 3, 2, 1, 1, 1) ,


U ′ = (2, 6, 6, 2, 2, 1), (0, 9, 4, 3, 0, 1), (1, 2, 3, 1, 2, 1)

und bestimme U ∩ U ′ durch Angabe einer Basis.


7. Es sei A = (a1 , . . . , an ) ∈ K m×n eine Matrix, wobei a1 , . . . , an ∈ K m die
Spalten von A bezeichnen. Sei b ∈ K m ein weiterer Spaltenvektor und
S ∈ GL(n, K) eine invertierbare Matrix. Man zeige MA,b = SMAS,b für
die Lösungsräume der linearen Gleichungssysteme Ax = b und ASy = b.
(AT 427)
8. Es sei S in der Situation von Aufgabe 7 speziell eine Permutations-
matrix. Dies bedeutet, dass es eine Umnummerierung (Permutation)
(π1 , . . . , πn ) der Indizes (1, . . . , n) gibt, so dass S = (eπ1 , . . . , eπn ) gilt.
Dabei bezeichnen e1 , . . . , en ∈ K n die kanonischen Einheitsspaltenvek-
toren. Man zeige:
(i) AS = (aπ1 , . . . , aπn ).
(ii) S t x = (xπ1 , . . . , xπn )t für Spaltenvektoren x = (x1 , . . . , xn )t ∈ K n .
(iii) S t S = E mit der Einheitsmatrix E = (e1 , . . . , en ), also S −1 = S t .
Man benutze nun die Gleichung MA,b = SMAS,b aus Aufgabe 7, um
erneut einzusehen, dass man zum Lösen des linearen Gleichungssystems
Ax = b die Spalten von A und die Komponenten von x = (x1 , . . . , xn )t
umnummerieren darf (d. h. man ersetze A durch AS und x durch
y = S t x), sofern man dies bei den erhaltenen Lösungen wieder rück-
gängig macht (durch Multiplikation der Lösungen von ASy = b mit
S = (S t )−1 von links).
9. Es sei f : V ✲ W eine K-lineare Abbildung zwischen (endlich-
dimensionalen) K-Vektorräumen und f ∗ : W ∗ ✲ V ∗ die zugehörige
duale Abbildung. Man zeige für b ∈ W , dass die “lineare Gleichung”
f (x) = b genau dann in x ∈ V lösbar ist, wenn ϕ(b) = 0 für alle
ϕ ∈ ker f ∗ gilt. (AT 427)
3.5 Lineare Gleichungssysteme 165

10. Zu einem K-Vektorraum V endlicher Dimension n betrachte man Line-


arformen ϕ1 , . . . , ϕm ∈ V ∗ und zeige:
(i) Es gilt dimK hϕ1 , . . . , ϕm i = rg f , wobei f : V ✲ K m definiert
sei durch x ✲ (ϕ1 (x), . . . , ϕm (x)).
(ii) Das “lineare Gleichungssystem” ϕi (x) = bi , i = 1, . . . , m, hat genau
dann für alle Wahlen von Elementen b1 , . . . , bm ∈ K eine Lösung
x ∈ V , wenn die Linearformen ϕ1 , . . . , ϕm linear unabhängig sind.
11. Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ1 , . . . , ϕm ∈ V ∗
Linearformen und b1 , . . . , bm ∈ K. Man zeige: Das “lineare Gleichungs-
system”
ϕi (x) = bi , i = 1, . . . , m,
ist genau dann in x ∈ V lösbar, wenn folgende
Pm Bedingung erfüllt ist:
Sind
Pm α1 , . . . , αm ∈ K Koeffizienten mit i=1 αi ϕi = 0, so folgt auch
i=1 αi bi = 0.
4. Determinanten

Überblick und Hintergrund

Jeder quadratischen Matrix A mit Koeffizienten aus einem Körper K


kann man mittels einer gewissen Rechenvorschrift eine Invariante zu-
ordnen, die sogenannte Determinante. Diese ist genau dann von Null
verschieden, wenn die Spalten oder, alternativ, die Zeilen von A linear
unabhängig sind, d. h. genau dann, wenn A invertierbar ist.
Um einen Eindruck davon zu bekommen, wie man in mehr oder
weniger zwangsläufiger Weise auf die Bildung der Determinante geführt
wird, betrachten wir eine Matrix
 
α11 α12
A= ∈ K 2×2
α21 α22
und untersuchen, welche Anforderungen die Koeffizienten αij erfüllen
müssen, damit die Spalten von A linear abhängig werden. Im Falle
A = 0 sind die Spalten von A natürlich trivialerweise linear abhängig.
Es sei deshalb A 6= 0, etwa α11 6= 0. Dann ist der erste Spaltenvektor
von A nicht Null, und die beiden Spalten von A sind genau dann linear
abhängig, wenn es ein c ∈ K mit
α12 = cα11 , α22 = cα21
gibt. Hieraus folgt
α12 α12
c= , α22 = α21
α11 α11
und damit die Beziehung
(∗) α11 α22 − α21 α12 = 0.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0_4
168 4. Determinanten

Ein Zurückverfolgen der Rechnung zeigt, dass die Spalten von A unter
der Bedingung α11 6= 0 genau dann linear abhängig sind, wenn der Aus-
druck in (∗) verschwindet. Man kann nun exakt die gleiche Rechnung
durchführen
• für α21 6= 0, wenn man die beiden Zeilen von A vertauscht,
• für α12 6= 0, wenn man die beiden Spalten von A vertauscht,
• für α22 6= 0, wenn man die beiden Spalten und Zeilen von A
vertauscht.
Da bei allen diesen Vertauschungen der Ausdruck in (∗) bis auf das
Vorzeichen unverändert bleibt und da dieser natürlich auch im Falle
A = 0 verschwindet, können wir aus unserer Rechnung ablesen:
Eine (beliebige) Matrix A = (αij ) ∈ K 2×2 hat genau dann maxi-
malen Rang, wenn der Ausdruck det(A) := α11 α22 − α21 α12 , den man
als Determinante von A bezeichnet, nicht verschwindet.
Gegenüber konventionellen Betrachtungen bietet die Determinante
det(A) den ganz wesentlichen Vorteil, dass mit ihrer Hilfe die Maxi-
malität des Rangs von A in direkter Weise von den Koeffizienten αij
der Matrix A abgelesen werden kann, ohne dass Fallunterscheidungen
zu beachten sind. Dieses Phänomen haben wir schon im Rahmen der
Einführung zu Kapitel 3 beobachten können. Dort hatten wir für
   
α11 α12 2×2 β1
A= ∈K , b= ∈ K 2,
α21 α22 β2

wobei A maximalen Rang habe, und einen Vektor von Unbekannten


t = tt12 das Gleichungssystem A · t = b studiert und eine Lösung
erhalten, die sich unter Verwendung der oben definierten Determinante
in der Form
   
β1 α12 α11 β1
det det
β2 α22 α21 β2
t1 =   , t2 =  
α11 α12 α11 α12
det det
α21 α22 α21 α22

schreiben lässt. Auch hier waren bei der Herleitung Fallunterscheidun-


gen notwendig, obwohl sich das Ergebnis am Ende als fallunabhängig
herausstellte. Es handelt sich um den einfachsten Fall der Cramerschen
Regel, die wir in allgemeiner Form in diesem Kapitel beweisen werden.
Überblick und Hintergrund 169

Historisch ist die Einführung von Determinanten in der Tat im


Zusammenhang mit der Lösung linearer Gleichungssysteme zu sehen,
und zwar mit der Entdeckung der nach Cramer benannten Regel. Um
dies etwas genauer zu erläutern, betrachten wir als Beispiel ein System
von 3 linearen Gleichungen mit 3 Unbekannten:

α11 t1 + α12 t2 + α13 t3 = β1


α21 t1 + α22 t2 + α23 t3 = β2
α31 t1 + α32 t2 + α33 t3 = β3

Die Koeffizientenmatrix A = (αij )i,j=1,2,3 habe den Rang 3. Dann


hat die Matrix A′ = (αij )i=1,2,3;j=2,3 noch Rang 2, wobei wir mit-
tels Vertauschung der Reihenfolge der Gleichungen annehmen können,
dass (αij )i=1,2;j=2,3 Rang 2 hat. Wir bemühen uns nun, Koeffizienten
c1 , c2 ∈ K zu finden, derart dass bei Addition des c1 -fachen der ersten
Zeile und des c2 -fachen der zweiten Zeile zur dritten Zeile unseres Glei-
chungssystems die Unbekannten t2 und t3 in der letzten Zeile eliminiert
werden. Dies ist möglich, da nach Annahme die beiden ersten Zeilen
von A′ linear unabhängig sind. Wir müssen hierzu das Gleichungssys-
tem

α12 c1 + α22 c2 = −α32


α13 c1 + α23 c2 = −α33

lösen und erhalten gemäß der Cramerschen Regel für (2×2)-Matrizen


   
−α32 α22 α22 α23
det det
−α33 α23 α32 α33
c1 =   =  ,
α12 α22 α12 α13
det det
α13 α23 α22 α23
   
α12 −α32 α12 α13
det det
α13 −α33 α32 α33
c2 =   =−  ,
α12 α22 α12 α13
det det
α13 α23 α22 α23
 
α12 α13
wobei det nicht verschwindet. Somit ergibt sich als dritte
α22 α23
Gleichung unseres ursprünglichen Systems
170 4. Determinanten

(α11 c1 + α21 c2 + α31 )t1 = β1 c1 + β2 c2 + β3


mit einem Faktor α11 c1 +α21 c2 +α31 , der nicht verschwindet, da sich der
Rang der Koeffizientenmatrix des ursprünglichen Gleichungssystems
nicht geändert hat. Dann aber können wir durch diesen Koeffizienten
dividieren, und es folgt
     
α22 α23 α12 α13 α12 α13
β1 det − β2 det + β3
α32 α33 α32 α33 α22 α23
t1 =      .
α22 α23 α12 α13 α12 α13
α11 det − α21 det + α31
α32 α33 α32 α33 α22 α23
Wir haben diese Formel für t1 unter der Annahme hergeleitet, dass
die beiden ersten Zeilen der Matrix A′ = (αij )i=1,2,3;j=2,3 linear unab-
hängig sind, ein Fall, den wir durch Vertauschen der Reihenfolge der
Gleichungen unseres Systems stets herstellen können. Um zu sehen,
dass die Formel für t1 auch im Allgemeinfall gültig ist, bleibt noch
zu zeigen, dass diese invariant gegenüber solchen Vertauschungen ist.
Dies ist aber leicht nachzuprüfen, wenn man benutzt, dass die Determi-
nante (einer (2×2)-Matrix) invariant unter Transponieren ist und das
Vorzeichen wechselt, wenn man zwei Spalten oder Zeilen der Matrix
vertauscht.
In der Formel für t1 erkennt man, dass Zähler und Nenner nach
dem gleichen Bildungsgesetz aus den Matrizen
   
β1 α12 α13 α11 α12 α13
β2 α22 α23  , α21 α22 α23 
β3 α32 α33 α31 α32 α33
hervorgehen. In Kenntnis der Determinantentheorie würde man sagen,
dass im Zähler und Nenner von t1 jeweils die Determinanten dieser
Matrizen stehen, und zwar in Form ihrer Entwicklung nach der ersten
Spalte. Man kann nun den Ausdruck im Zähler bzw. Nenner von t1 als
Definition der Determinante einer (3×3)-Matrix nehmen, wobei diese
Definition dann Bezug nimmt auf die Kenntnis von Determinanten von
(2×2)-Matrizen.
Das gerade vorgestellte Verfahren funktioniert in induktiver Wei-
se allgemeiner für Systeme von n linearen Gleichungen mit n Unbe-
kannten, sofern die Koeffizientenmatrix maximalen Rang hat. Es er-
gibt sich eine Formel für t1 ähnlich wie oben, wobei im Zähler und
4.1 Permutationen 171

Nenner jeweils eine Summe von Vielfachen von Determinanten von


((n − 1) × (n − 1))-Matrizen steht, in Form der Entwicklung der De-
terminante einer (n×n)-Matrix nach ihrer ersten Spalte. Die gewon-
nenen Ausdrücke kann man zur Definition der Determinante einer
(n × n)-Matrix erheben, wodurch man dann insgesamt eine rekursive
Definition der Determinante einer Matrix erhält.
Man beachte allerdings, dass das obige Verfahren zwar für t1 auf
die Entwicklung der Determinante einer (n×n)-Matrix nach ihrer ers-
ten Spalte führt, für beliebiges tj mit 1 ≤ j ≤ n jedoch auf die Ent-
wicklung nach der j-ten Spalte. Dies sieht man etwa, indem man die
Unbekannten t1 und tj vertauscht. Will man also die Cramersche Re-
gel beweisen und gleichzeitig dabei Determinanten einführen, so hat
man bei jedem Rekursionsschritt auch einige allgemeine Eigenschaf-
ten von Determinanten mitzubeweisen, etwa die Möglichkeit, Deter-
minanten nach beliebigen Spalten (oder Zeilen) zu entwickeln. Wir
werden natürlich nicht in dieser Weise vorgehen. Stattdessen begin-
nen wir mit dem Studium sogenannter Determinantenfunktionen, in
deren Kontext sich automatisch eine allgemeine nicht-rekursive Defi-
nition für Determinanten ergeben wird. Dabei werden einige Fakten
über Permutationen benötigt, die wir zu Beginn des Kapitels zusam-
menstellen. Erst nach Klärung der Definition und der Eigenschaften
von Determinanten beweisen wir schließlich die Cramersche Regel und
im Zusammenhang hiermit auch die Möglichkeit, Determinanten nach
Spalten oder Zeilen zu entwickeln. In einem optionalen Abschnitt geht
es schließlich noch um äußere Produkte, in deren Zusammenhang wir
auch den sogenannten allgemeinen Laplaceschen Entwicklungssatz für
Determinanten herleiten.

4.1 Permutationen

Wir hatten in Abschnitt 1.2 gesehen, dass für eine Menge X die bijek-
tiven Selbstabbildungen X ✲ X eine Gruppe G bilden, wenn man
die Komposition von Abbildungen als Verknüpfung nimmt. Die iden-
tische Abbildung id ∈ G ist das Einselement, und das inverse Element
zu einem Element f : X ✲ X von G wird gegeben durch die inverse
−1
Abbildung f : X ✲ X.
172 4. Determinanten

Wir wollen hier für eine natürliche Zahl n speziell die Menge
X = {1, . . . , n} betrachten, wobei wir X im Falle n = 0 als die leere
Menge annehmen. Für die zugehörige Gruppe der bijektiven Selbstab-
bildungen von X schreibt man dann Sn und nennt dies die symmetri-
sche Gruppe oder die Permutationsgruppe zum Index n. Die Elemente
von Sn heißen Permutationen der Zahlen 1, . . . , n, da sie sozusagen
diese Elemente in ihrer Reihenfolge vertauschen. Gilt für eine Permu-
tation σ ∈ Sn etwa σ(i) = ai für i = 1, . . . , n, so schreibt man auch
 
1 ... n
σ= .
a1 . . . an

Die Permutationsgruppen S0 und S1 enthalten lediglich das Einsele-


ment, welches die identische Abbildung auf X = ∅ bzw. X = {1} re-
präsentiert. Weiter ist S2 eine Gruppe von 2 Elementen und damit
insbesondere abelsch, wohingegen Sn für n ≥ 3 nicht mehr abelsch ist.
Für    
1 2 3 1 2 3
σ= , τ=
1 3 2 2 3 1
gilt beispielsweise
   
1 2 3 1 2 3
σ◦τ = , τ ◦σ = .
3 2 1 2 1 3

Wir wollen die Anzahl der Elemente vonQSn bestimmen. Hierzu


bezeichnen wir für n ∈ N die natürliche Zahl ni=1 i mit n!, wobei das
Rufzeichen “ ! ” als Fakultät gelesen wird. Insbesondere gilt 0! = 1! = 1
sowie 2! = 2.

Bemerkung 1. Es besteht Sn aus genau n! Elementen.

Beweis. Will man eine bijektive Selbstabbildung

σ : {1, . . . , n} ✲ {1, . . . , n}

erklären, so kann man schrittweise vorgehen und zunächst σ(1) festle-


gen, dann σ(2) und so weiter, bis man schließlich σ(n) festlegt. Dabei
genügt es, eine injektive Abbildung zu konstruieren; diese ist wegen der
Endlichkeit der Menge {1, . . . , n} automatisch bijektiv. Für die Wahl
4.1 Permutationen 173

von σ(1) hat man zunächst n Möglichkeiten, denn für σ(1) kann man
jedes Element aus {1, . . . , n} nehmen. Für die Wahl von σ(2) verblei-
ben dann noch n − 1 Möglichkeiten, denn man muss σ(2) ∈ {1, . . . , n}
verschieden von σ(1) wählen, da man eine injektive Abbildung kon-
struieren möchte. Bei der Festlegung von σ(3) hat man noch n − 2
Möglichkeiten und so weiter, bis man schließlich bei der Wahl von σ(n)
lediglich noch eine Möglichkeit hat. Indem man das Produkt
Q über die
einzelnen Anzahlen bildet, erhält man insgesamt n! = ni=1 i als An-
zahl der Möglichkeiten, eine injektive Selbstabbildung von {1, . . . , n}
zu erklären. 

Definition 2. Eine Permutation τ ∈ Sn heißt Transposition, wenn es


zwei verschiedene Zahlen i, j ∈ {1, . . . , n} mit τ (i) = j, τ (j) = i sowie
τ (k) = k für alle restlichen Zahlen k ∈ {1, . . . , n} gibt. Man schreibt
dann auch τ = (i, j).

Die Transposition τ = (i, j) vertauscht also gerade die Zahlen i und


j und lässt ansonsten alle Elemente von {1, . . . , n} fest. Insbesondere
gilt τ 2 = id, d. h. τ ist zu sich selbst invers. Es besteht S2 gerade aus
der identischen Abbildung und der Transposition (1, 2), wohingegen
die Gruppen S0 und S1 keine Transpositionen enthalten.

Satz 3. Jedes π ∈ Sn ist ein Produkt von Transpositionen.

Beweis. Wir schließen mit fallender Induktion nach r(π), wobei r(π)
maximal in {0, 1, . . . , n} gewählt sei mit der Eigenschaft π(i) = i für
i = 1, . . . , r(π). Für r(π) = n gilt π = id, und dies ist ein leeres
Produkt von Transpositionen. Gilt andererseits r = r(π) < n, so folgt
notwendig π(r + 1) > r + 1. Setzen wir τ1 = (r + 1, π(r + 1)), so bildet
das Produkt τ1 π die Elemente 1, . . . , r + 1 identisch auf sich selbst ab,
erfüllt also r(τ1 π) > r(π), und ist somit nach Induktionsvoraussetzung
ein Produkt von Transpositionen, etwa τ1 π = τ2 . . . τs . Multiplikation
mit τ1 = τ1−1 von links liefert dann wie gewünscht π = τ1 . . . τs . 

Man nennt eine Permutation π ∈ Sn gerade oder ungerade, je


nachdem ob sich π als ein Produkt einer geraden oder ungeraden An-
zahl von Transpositionen darstellen lässt. Dabei wollen wir zeigen, dass
174 4. Determinanten

eine Permutation π nicht gerade und ungerade zugleich sein kann. Als
Hilfsmittel führen wir das sogenannte Signum von π ein.

Definition 4. Sei π ∈ Sn . Dann heißt


Y π(j) − π(i)
sgn π =
1≤i<j≤n
j−i

das Signum der Permutation π.

Im Grunde genommen erstreckt sich die Produktbildung bei der


Definition des Signums einer Permutation π ∈ Sn über alle zwei-
elementigen Teilmengen von {1, . . . , n}. Genauer meinen wir hiermit:

Bemerkung 5. Es sei M eine Menge ganzzahliger Indexpaare (i, j)


mit 1 ≤ i, j ≤ n, so dass die Zuordnung (i, j) ✲ {i, j} eine Bijektion
von M auf die Menge der zwei-elementigen Teilmengen von {1, . . . , n}
erklärt. Dann gilt
Y π(j) − π(i)
sgn π =
j−i
(i,j)∈M

Beweis. Zunächst ist {{i, j} ; 1 ≤ i < j ≤ n} eine Beschreibung der


Menge aller zwei-elementigen Teilmengen von {1, . . . , n}. Berücksich-
tigt man dann noch die Gleichung

π(j) − π(i) π(i) − π(j)


=
j−i i−j

so folgt die Behauptung. 

Wir wollen einige Folgerungen aus dieser Bemerkung ziehen.

Satz 6. Sei π ∈ Sn . Dann gilt sgn π = (−1)s , wobei s die Anzahl


aller Fehlstände in der Folge π(1), . . . , π(n) ist, d. h. die Anzahl aller
Paare (π(i), π(j)), 1 ≤ i < j ≤ n, mit π(i) > π(j). Insbesondere folgt
sgn π = ±1. Für eine Transposition π ∈ Sn berechnet sich das Signum
zu sgn π = −1.
4.1 Permutationen 175

Beweis. Jede Permutation π ∈ Sn bildet zwei-elementige Teilmengen


von {1, . . . , n} wieder auf ebensolche Teilmengen ab und induziert auf
diese Weise eine bijektive Selbstabbildung auf der Menge der zwei-
elementigen Teilmengen von {1, . . . , n}. Daher gilt
Y Y 
(j − i) = ± π(j) − π(i)
1≤i<j≤n 1≤i<j≤n

und folglich sgn π = ±1. Genauer erhält man sgn π = (−1)s , wobei s
gleich der Anzahl der Faktoren auf der rechten Seite ist, die negativ
sind, also gleich der Anzahl der Fehlstände in der Folge π(1), . . . , π(n).
Für eine Transposition π = (i, j) mit i < j, also
 
1 ... i − 1 i i + 1 ... j − 1 j j + 1 ... n
π= ,
1 ... i − 1 j i + 1 ... j − 1 i j + 1 ... n

gibt es in der Folge π(1), . . . , π(n) genau j − i Fehlstände der Form


(j, ∗) sowie j − i Fehlstände der Form (∗, i). Da wir dabei (j, i) als
Fehlstand in zweifacher Weise berücksichtigt haben, ergibt sich

sgn π = (−1)2(j−i)−1 = −1,

wie behauptet. 

Satz 7. Die Abbildung sgn : Sn ✲ {1, −1} ist ein Gruppenhomo-


morphismus, d. h. es gilt sgn(σ ◦ τ ) = sgn σ · sgn τ für σ, τ ∈ Sn ; dabei
fasse man {1, −1} als Gruppe bezüglich der Multiplikation auf.

Beweis. Mit Bemerkung 5 können wir wie folgt rechnen:


 
Y σ τ (j) − σ τ (i)
sgn(σ ◦ τ ) =
i<j
j−i
 
Y σ τ (j) − σ τ (i) Y τ (j) − τ (i)
= ·
i<j
τ (j) − τ (i) i<j
j−i
= sgn σ · sgn τ


176 4. Determinanten

Korollar 8. Ist π ∈ Sn darstellbar als ein Produkt von s Transposi-


tionen, so gilt sgn π = (−1)s .

Wir sehen damit, dass eine Permutation π ∈ Sn genau dann ge-


rade, also ein Produkt einer geraden Anzahl von Transpositionen ist,
wenn sgn π = 1 gilt. Entsprechend ist π genau dann ungerade, al-
so ein Produkt einer ungeraden Anzahl von Transpositionen, wenn
sgn π = −1 gilt.
In Satz 7 haben wir von einem Gruppenhomomorphismus gespro-
chen. Allgemein nennt man eine Abbildung f : G ✲ G′ zwischen
zwei Gruppen G und G′ einen Gruppenhomomorphismus, wenn f mit
der Produktbildung in G und G′ verträglich ist, wenn also für g, h ∈ G
stets f (g · h) = f (g) · f (h) folgt. Dann gilt f (1) = 1 für die Einsele-
mente in G und G′ , sowie f (g −1 ) = f (g)−1 für g ∈ G. Man kann sich
leicht überlegen, dass der Kern von f , also ker f = f −1 (1), eine Unter-
gruppe von G ist, sogar ein Normalteiler. Hierunter versteht man eine
Untergruppe N ⊂ G mit g −1 · h · g ∈ N für alle g ∈ G und h ∈ N .
Letzteres ist natürlich nur für nicht-kommutative Gruppen eine echte
Bedingung; in einer kommutativen Gruppe ist jede Untergruppe ein
Normalteiler.
In der Situation von Satz 7 ist also sgn ein Gruppenhomomorphis-
mus von Sn in die multiplikative Gruppe {1, −1}. Der Kern dieses
Homomorphismus besteht aus allen geraden Permutationen aus Sn .
Diese bilden einen Normalteiler und insbesondere eine Untergruppe
An ⊂ Sn . Man nennt An die alternierende Gruppe zum Index n. Zu-
sammenfassend können wir sagen:

Bemerkung 9. Die geraden Permutationen in Sn bilden einen Nor-


malteiler

An = π ∈ Sn ; sgn π = 1 ⊂ Sn .
Weiter besteht

Sn − An = π ∈ Sn ; sgn π = −1

aus allen ungeraden Permutationen in Sn , und es gilt

Sn − An = τ An = An τ
4.1 Permutationen 177

für jede ungerade Permutation τ ∈ Sn . Dabei bezeichnet τ An die Men-


ge aller Produkte τ ◦ π mit π ∈ An , entsprechend für An τ .

Beweis. Es ist nur zeigen, dass sich die ungeraden Permutationen aus
Sn in der Form τ An bzw. An τ beschreiben lassen. Ist τ ungerade, so
sieht man mittels Satz 7, dass τ An und An τ in Sn − An enthalten sind.
Ist umgekehrt π ∈ Sn − An , so sind τ −1 ◦ π und π ◦ τ −1 gerade, woraus
π ∈ τ An bzw. π ∈ An τ folgt. 

Aufgaben

1. Man bestimme das Signum der folgenden Permutationen:


   
1 2 3 4 5 1 2 3 4 5 6 7 8
∈ S5 , ∈ S8
5 4 3 2 1 2 3 1 5 6 8 4 7

2. Eine Permutation π ∈ Sn heißt ein r-Zyklus, wenn es paarweise ver-


schiedene Elemente a1 , . . . , ar ∈ {1, . . . , n} gibt mit

π(ai ) = ai+1 für i = 1, . . . , r − 1,


π(ar ) = a1 ,

und π alle übrigen Elemente von {1, . . . , n} fest lässt. Man bestimme
sgn π für einen r-Zyklus π ∈ Sn . (AT 428)
3. Man zeige, dass jedes Element π ∈ Sn endliche Ordnung besitzt, d. h.
dass es ein r ∈ N − {0} gibt mit π r = 1.
4. Man zeige: Ist N ⊂ Sn ein Normalteiler, der eine Transposition enthält,
so gilt bereits N = Sn . (AT 430)
5. Man bestimme die Anzahl der Elemente der alternierenden Gruppe An .
6. Man zeige für eine Gruppe G und eine Untergruppe N ⊂ G, dass N
bereits dann ein Normalteiler in G ist, wenn gN ⊂ N g für alle g ∈ G
gilt.
7. Für eine Gruppe G bezeichne S(G) die Menge aller bijektiven Abbil-
dungen von G nach G. Man zeige:
(i) S(G) ist eine Gruppe unter der Komposition von Abbildungen.
(ii) Es existiert ein injektiver Gruppenhomomorphismus G ✲ S(G).
178 4. Determinanten

4.2 Determinantenfunktionen

In diesem Abschnitt fixieren wir einen K-Vektorraum V endlicher Di-


mension n und betrachten Abbildungen ∆ : V n ✲ K, sozusagen
K-wertige Funktionen von n Argumenten aus V , wobei V n im Falle
n = 0 nur aus dem leeren Tupel besteht. Eine solche Abbildung heißt
multilinear, wenn sie linear in jedem Argument ist. Dabei nennt man
∆ linear im i-ten Argument, wenn für a1 , . . . , an , a′i ∈ V und α, α′ ∈ K
stets
∆(a1 , . . . , ai−1 , αai + α′ a′i , ai+1 , . . . an )
= α · ∆(a1 , . . . , ai−1 , ai , ai+1 , . . . an )
+ α′ · ∆(a1 , . . . , ai−1 , a′i , ai+1 , . . . an )
gilt. Weiter heißt ∆ alternierend, wenn ∆(a1 , . . . , an ) verschwindet,
sobald zwei der Vektoren a1 , . . . , an übereinstimmen.

Definition 1. Es sei V ein K-Vektorraum endlicher Dimension n.


Eine Determinantenfunktion auf V ist eine alternierende multilineare
Abbildung ∆ : V n ✲ K. Man bezeichnet ∆ als nicht-trivial, wenn ∆
nicht die Nullabbildung ist.

Ähnlich wie K-lineare Abbildungen kann man Determinantenfunk-


tionen addieren oder mit Skalaren aus K multiplizieren, um neue sol-
che Funktionen zu erhalten. Die Determinantenfunktionen auf V bilden
folglich einen K-Vektorraum, und wir werden im Folgenden sehen, dass
dessen Dimension 1 ist, unabhängig von der Dimension von V . Doch
zunächst wollen wir einige elementare Eigenschaften von Determinan-
tenfunktionen angeben.

Bemerkung 2. Zu einem K-Vektorraum V der Dimension n betrachte


man eine multilineare Abbildung ∆ : V n ✲ K. Dann ist äquivalent:
(i) ∆ ist alternierend und damit eine Determinantenfunktion.
(ii) Für jedes linear abhängige System von Vektoren a1 , . . . , an ∈ V
gilt ∆(a1 , . . . , an ) = 0.

Beweis. Es ist nur die Implikation (i)=⇒ (ii) zu zeigen. Seien al-
so a1 , . . . , an linear abhängig. Dann lässt sich einer dieser Vekto-
4.2 Determinantenfunktionen 179

ren, etwa
Pn a1 , als Linearkombination der restlichen darstellen, also
a1 = i=2 βi ai , und es folgt aus (i) unter Benutzung der Multilineari-
tät von ∆
n
X
∆(a1 , . . . , an ) = βi ∆(ai , a2 , . . . , an ) = 0.
i=2

Bemerkung 3. Es sei ∆ eine Determinantenfunktion auf V . Für
Vektoren a1 , . . . , an ∈ V und Indizes 1 ≤ i < j ≤ n gilt dann:
(i) ∆( . . . ai . . . aj . . . ) = −∆( . . . aj . . . ai . . . ), d. h. ∆ ändert
bei Vertauschung zweier verschiedener Argumente das Vorzeichen.
(ii) ∆(aπ(1) , . . . , aπ(n) ) = sgn π · ∆(a1 , . . . , an ) für π ∈ Sn .
(iii) ∆( . . . ai + αaj . . . aj . . . ) = ∆( . . . ai . . . aj . . . ) für α ∈ K,
d. h. ∆ bleibt invariant, wenn man zum i-ten Argument ein skalares
Vielfaches eines weiteren Arguments addiert.

Beweis. Unter Ausnutzung der Eigenschaften einer Determinanten-


funktion können wir wie folgt rechnen:

0= ∆( ... ai + aj . . . ai + aj . . . )
= ∆( ... ai . . . ai + aj . . . ) + ∆( . . . aj . . . ai + aj . . . )
= ∆( ... ai . . . ai . . . ) + ∆( . . . ai . . . aj . . . )
+ ∆( ... aj . . . ai . . . ) + ∆( . . . aj . . . aj . . . )
= ∆( ... ai . . . aj . . . ) + ∆( . . . aj . . . ai . . . )

Dabei mögen die explizit aufgeschriebenen Argumente immer an den


Stellen i und j stehen, wobei an den übrigen Stellen stets a1 , . . . , ai−1
bzw. ai+1 , . . . , aj−1 bzw. aj+1 , . . . , an als Argumente einzusetzen sind.
Aus der Rechnung folgt dann Aussage (i). Weiter ist (ii) eine Folgerung
von (i), da jede Permutation nach 4.1/3 ein Produkt von Transpositio-
nen ist und da man nach 4.1/8 sgn π = (−1)s hat, wenn π ein Produkt
von s Transpositionen ist. Aussage (iii) schließlich ergibt sich aus fol-
gender Rechnung:
∆( . . . ai + αaj . . . aj . . . )
= ∆( . . . ai . . . aj . . . ) + α∆( . . . aj . . . aj . . . )
= ∆( . . . ai . . . aj . . . )

180 4. Determinanten

Eine multilineare Abbildung ∆ : V n ✲ K, die nach unserer Defi-


nition alternierend ist, ist also insbesondere alternierend in dem Sinne,
dass sie das Vorzeichen bei Vertauschung zweier ihrer Argumente än-
dert; daher die Bezeichnung alternierend. Man beachte jedoch, dass die
Umkehrung hierzu nur dann richtig ist, wenn 1 6= −1 in K gilt.
Als Nächstes wollen wir ein nicht-triviales Beispiel einer Determi-
nantenfunktion auf dem Vektorraum V = K n konstruieren.

Lemma 4. Für Matrizen A = (αij )i,j ∈ K n×n definiere man die De-
terminante von A durch
X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n .
π∈Sn

Dann ist det, aufgefasst als Funktion in den n Spalten der Matrix A,
eine Determinantenfunktion auf V = K n , und es gilt det(E) = 1 für
die Einheitsmatrix E ∈ K n×n . Insbesondere ist die Determinanten-
funktion det nicht-trivial.
Beweis. Zunächst ist die Funktion det multilinear in den Spalten der
Matrix A, da ein Produkt c1 · . . . · cn linear in jedem seiner Faktoren ist.
Weiter ist zu zeigen, dass det(A) = 0 gilt, sofern zwei Spalten in A iden-
tisch sind. Seien also a1 , . . . , an die Spalten von A. Gilt dann ai = aj
für zwei Indizes i 6= j, so kann man die Transposition τ = (i, j) ∈ Sn
betrachten. Durchläuft π die geraden Permutationen in Sn , so durch-
läuft π ◦ τ nach 4.1/9 alle ungeraden Permutationen in Sn . Daher folgt

det(a1 , . . . , ai , . . . , aj , . . . , an )
X
= απ(1),1 · . . . · απ(i),i · . . . · απ(j),j · . . . · απ(n),n
π∈An
X
− απ◦τ (1),1 · . . . · απ◦τ (i),i · . . . · απ◦τ (j),j · . . . · απ◦τ (n),n
π∈An

= 0,

denn es gilt
απ◦τ (i),i = απ(j),i = απ(j),j .
απ◦τ (j),j = απ(i),j = απ(i),i ,

sowie απ◦τ (k),k = απ(k),k für k 6= i, j.


4.2 Determinantenfunktionen 181

Schließlich verifiziert man leicht det(E) = 1. In diesem Falle ver-


schwinden nämlich in der definierenden Summe für det(E) alle Terme
bis auf denjenigen zur Identität id ∈ Sn . 

Im Übrigen werden wir in 7.2/9 und 7.2/10 sehen, dass der Betrag
der Determinante det(A) geometrisch als das Volumen des von den
Spaltenvektoren von A in K n aufgespannten Parallelotops interpretiert
werden kann.
Als Nächstes wollen wir einsehen, dass das soeben gegebene Bei-
spiel einer Determinantenfunktion auf ganz natürliche Weise entsteht.

Lemma 5. Man betrachte eine Determinantenfunktion ∆ auf V und


eine Basis X = (x1 , . . . , xn ) von V . Für beliebige Vektoren a1 , . . . , an
aus V gilt dann:

∆(a1 , . . . , an ) = det(a1,X , . . . , an,X ) · ∆(x1 , . . . , xn ).

Dabei bezeichnet aj,X ∈ K n für j = 1, . . . , n den Koordinatenspalten-


vektorPvon aj bezüglich der Basis X, also aj,X = (α1j , . . . , αnj )t , wenn
aj = ni=1 αij xi gilt.

Beweis. Unter Benutzung der Eigenschaften einer Determinantenfunk-


tion ergibt sich:

∆(a1 , . . . , an )
Xn
= αi1 ,1 . . . αin ,n · ∆(xi1 , . . . , xin )
i1 ,...,in =1
X
= απ(1),1 . . . απ(n),n · ∆(xπ(1) , . . . , xπ(n) )
π∈Sn
X
= sgn π · απ(1),1 . . . απ(n),n · ∆(x1 , . . . , xn )
π∈Sn

= det(a1,X , . . . , an,X ) · ∆(x1 , . . . , xn )

Wir können nun in einfacher Weise einige Folgerungen aus den


beiden Lemmata ziehen.
182 4. Determinanten

Satz 6. Es sei X = (x1 , . . . , xn ) eine Basis eines K-Vektorraums V


und weiter ∆ eine Determinantenfunktion auf V . Dann ist äquivalent:
(i) ∆ ist trivial.
(ii) ∆(x1 , . . . , xn ) = 0.

Beweis. Es ist nur die Implikation (ii) =⇒ (i) zu begründen, und diese
ergibt sich aus der Formel in Lemma 5. 

Satz 7. Es sei ∆ eine nicht-triviale Determinantenfunktion auf einem


n-dimensionalen K-Vektorraum V . Für n Vektoren x1 , . . . , xn ∈ V ist
dann äquivalent:
(i) x1 , . . . , xn sind linear abhängig.
(ii) ∆(x1 , . . . , xn ) = 0.

Beweis. Die Implikation (i) =⇒ (ii) ergibt sich aus Bemerkung 2. Um


die umgekehrte Implikation zu zeigen, gehen wir indirekt vor und neh-
men an, dass x1 , . . . , xn linear unabhängig sind, also eine Basis X von
V bilden. Nach Satz 6 ist ∆ dann trivial, im Widerspruch zu unserer
Voraussetzung. 

Satz 8. Es sei V ein K-Vektorraum mit einer Basis X = (x1 , . . . , xn ).


Bezeichnet aX für Vektoren a ∈ V jeweils den Koordinatenspaltenvek-
tor von a zur Basis X, so wird durch

detX (a1 , . . . , an ) = det(a1,X , . . . , an,X )

eine Determinantenfunktion mit detX (x1 , . . . , xn ) = 1 auf V erklärt.


Der K-Vektorraum der Determinantenfunktionen auf V wird von detX
erzeugt und besitzt folglich die Dimension 1.

Beweis. Indem man den Isomorphismus V ∼✲ K n , a ✲ aX ,


verwendet, kann man sehen, dass detX die Eigenschaften einer nicht-
trivialen Determinantenfunktion mit detX (x1 , . . . , xn ) = 1 besitzt, da
det die entsprechenden Eigenschaften hat; vgl. Lemma 4. Im Übrigen
zeigt Lemma 5, dass jede weitere Determinantenfunktion ∆ auf V ein
skalares Vielfaches von detX ist. Der Vektorraum der Determinanten-
funktionen auf V besitzt also die Dimension 1. 
4.3 Determinanten von Matrizen und Endomorphismen 183

Korollar 9. Seien ∆, ∆′ Determinantenfunktionen auf einem K-Vek-


torraum V . Ist dann ∆ nicht-trivial, so existiert ein eindeutig bestimm-
tes Element α ∈ K mit ∆′ = α · ∆.

Aufgaben
1. Es seien V ein n-dimensionaler K-Vektorraum, U ⊂ V ein r-dimensio-
naler linearer Unterraum und xr+1 , . . . , xn ein fest gegebenes System
von Vektoren in V . Für eine Determinantenfunktion ∆ : V n ✲ K
zeige man, dass sich durch

∆U (a1 , . . . , ar ) := ∆(a1 , . . . , ar , xr+1 , . . . , xn )

eine Determinantenfunktion ∆ : U r ✲ K definieren lässt. Wann ist


∆U nicht-trivial?
2. Es sei ∆ : V n ✲ K eine nicht-triviale Determinantenfunktion auf
einem n-dimensionalen K-Vektorraum V und x1 , . . . , xn−1 ein line-
ar unabhängiges System von Vektoren in V . Man zeige: Es existiert
ein xn ∈ V mit ∆(x1 , . . . , xn ) = 1, wobei die Restklasse von xn in
V /hx1 , . . . , xn−1 i eindeutig bestimmt ist. (AT 430)
3. Für einen n-dimensionalen K-Vektorraum V mit einer gegebenen Basis
X = (x1 , . . . , xn ) betrachte man den K-Vektorraum W aller multilinea-
ren Abbildungen V n ✲ K. Man bestimme dimK W und gebe eine
Basis von W an.

4.3 Determinanten von Matrizen und Endomorphis-


men

Für eine Matrix A = (αij )i,j ∈ K n×n haben wir in 4.2/4 deren Deter-
minante durch die Formel
X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n
π∈Sn

erklärt. Diese Formel ergibt für n = 0 als Determinante der leeren Ma-
trix den Wert 1. Im Folgenden wollen wir nun allgemeiner die Deter-
minante von Endomorphismen endlich-dimensionaler K-Vektorräume
einführen.
184 4. Determinanten

Bemerkung 1. Es sei f : V ✲ V ein Endomorphismus eines


K-Vektorraums V endlicher Dimension n. Weiter sei ∆ eine nicht-
triviale Determinantenfunktion auf V ; eine solche existiert stets nach
4.2/8. Dann gilt:
(i) Auf V wird durch

∆f (a1 , . . . , an ) = ∆ f (a1 ), . . . , f (an ) , a1 , . . . , an ∈ V,

eine Determinantenfunktion ∆f definiert.


(ii) Es existiert ein eindeutig bestimmtes Element αf ∈ K mit
∆f = αf · ∆.
(iii) Ist X = (x1 , . . . , xn ) eine Basis von V , so folgt

αf = det f (x1 )X , . . . , f (xn )X = det(Af,X,X ),

wobei f (xi )X der Koordinatenspaltenvektor von f (xi ) bezüglich der Ba-


sis X und Af,X,X die Matrix von f bezüglich der Basis X sei. Insbe-
sondere erkennt man, dass αf unabhängig von der Wahl der Determi-
nantenfunktion ∆ ist.

Beweis. Die Funktion ∆f ist offenbar multilinear, da ∆ diese Eigen-


schaft hat und f linear ist. Sind weiter a1 , . . . , an linear abhängig, so
gilt Gleiches für f (a1 ), . . . , f (an ), und es folgt ∆f (a1 , . . . , an ) = 0. Folg-
lich ist ∆f eine Determinantenfunktion. Nach 4.2/9 gibt es dann eine
eindeutig bestimmte Konstante αf ∈ K mit ∆f = αf ∆. Betrachten
wir schließlich eine Basis X = (x1 , . . . , xn ) von V , so ergibt sich mit
4.2/5

αf · ∆(x1 , . . . , xn ) = ∆f (x1 , . . . , xn ) = ∆ f (x1 ), . . . , f (xn )

= det f (x1 )X , . . . , f (xn )X · ∆(x1 , . . . , xn ),

wobei ∆(x1 , . . . , xn ) 6= 0 wegen 4.2/7 und folglich



αf = det f (x1 )X , . . . , f (xn )X

gilt. 

Definition 2. Es sei f : V ✲ V ein Endomorphismus eines end-


lich-dimensionalen K-Vektorraums V . Dann nennt man det(f ) := αf ,
4.3 Determinanten von Matrizen und Endomorphismen 185

wobei αf wie in Bemerkung 1 bestimmt ist, die Determinante des En-


domorphismus f . Es gilt

det(f ) = det(Af,X,X )

für jede Matrix Af,X,X , die f bezüglich einer Basis X von V beschreibt.
Insbesondere erhält man det(f ) = 1 im Falle V = 0.

Wir wollen zunächst einige grundlegende Eigenschaften von Deter-


minanten herleiten.

Satz 3. Sei V ein K-Vektorraum endlicher Dimension n und EndK (V )


der Endomorphismenring von V . Dann gilt für f, g ∈ EndK (V ) und
α ∈ K:
(i) det(id) = 1 für die Identität id ∈ EndK (V ).
(ii) det(αf ) = αn · det(f ).
(iii) det(f ◦ g) = det(f ) · det(g).
(iv) det(f ) 6= 0 ⇐⇒ f invertierbar.
(v) det(f −1 ) = det(f )−1 , falls f invertierbar ist.
(vi) det(f ∗ ) = det(f ) mit der dualen Abbildung f ∗ : V ∗ ✲ V∗
zu f .

Bevor wir zum Beweis kommen, formulieren wir die entsprechenden


Aussagen auch noch für Determinanten von Matrizen.

Satz 4. Für A, B ∈ K n×n und α ∈ K gilt:


(i) det(E) = 1 für die Einheitsmatrix E ∈ K n×n .
(ii) det(αA) = αn · det(A).
(iii) det(A · B) = det(A) · det(B).
(iv) det(A) 6= 0 ⇐⇒ A invertierbar.
(v) det(A−1 ) = det(A)−1 , falls A invertierbar ist.
(vi) det(At ) = det(A) für die transponierte Matrix At zu A.

Beweis zu den Sätzen 3 und 4. Indem wir zwischen Endomorphis-


men und zugehörigen Matrizen wechseln, vgl. Abschnitt 3.1 sowie
Satz 3.2/9, genügt es, alternativ entweder die Aussagen aus Satz 3
oder Satz 4 zu beweisen. Zudem ist nur der Fall n = dim V > 0 von
Interesse.
186 4. Determinanten

(i) det(E) = 1 haben wir bereits in 4.2/4 gezeigt.


(ii) Man benutze die Multilinearität von Determinantenfunktionen:
Sind a1 , . . . , an die Spalten einer Matrix A ∈ K n×n , so folgt

det(αA) = det(αa1 , . . . , αan ) = αn det(a1 , . . . , an ) = αn det(A).

(iii) Für diese Aussage ist es günstiger, im Sinne von Determinanten


von Endomorphismen zu argumentieren. Man wähle eine nicht-triviale
Determinantenfunktion ∆ auf V sowie eine Basis X = (x1 , . . . , xn ) von
V . Dann gilt

det(f ◦ g) · ∆(x1 , . . . , xn ) = ∆ f ◦ g(x1 ), . . . , f ◦ g(xn )

= det(f ) · ∆ g(x1 ), . . . , g(xn )
= det(f ) · det(g) · ∆(x1 , . . . , xn )

und damit det(f ◦ g) = det(f ) · det(g) wegen ∆(x1 , . . . , xn ) 6= 0.


(iv) Eine Matrix A ∈ K n×n ist genau dann invertierbar, wenn ihr
Rang n ist, vgl. 3.3/7, d. h. genau dann, wenn die Spalten von A linear
unabhängig sind. Damit ergibt sich die Aussage als Konsequenz von
4.2/4 und 4.2/7.
(v) Für A ∈ GL(n, K) gilt nach (i) und (iii)

det(A) · det(A−1 ) = det(A · A−1 ) = det(E) = 1.

(vi) Für A = (αij )i,j ∈ K n×n gilt


X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n
π∈Sn
X
= sgn π · α1,π−1 (1) · . . . · αn,π−1 (n)
π∈Sn
X
= sgn π −1 · α1,π−1 (1) · . . . · αn,π−1 (n)
π∈Sn
X
= sgn π · α1,π(1) · . . . · αn,π(n)
π∈Sn

= det(At ).
4.3 Determinanten von Matrizen und Endomorphismen 187

Korollar 5. Es sei A ∈ K m×n eine Matrix vom Rang r. Dann lässt


sich aus A durch Streichen von Spalten und Zeilen eine quadratische
Untermatrix A′ ∈ K r×r mit det(A′ ) 6= 0 konstruieren, und es ist r
maximal mit dieser Eigenschaft.

Beweis. Gemäß 3.2/10 dürfen wir den Rang von Matrizen wahlweise
als Spalten- oder Zeilenrang interpretieren. Insbesondere können wir
in A ein linear unabhängiges System von r Spalten auswählen. Durch
Streichen der restlichen Spalten entsteht eine Untermatrix A1 ∈ K m×r
von A mit Rang r. Entsprechend können wir in A1 ein linear unabhän-
giges System von r Zeilen auswählen. Indem wir die restlichen Zeilen
von A1 streichen, entsteht eine quadratische Untermatrix A′ ∈ K r×r
von A1 bzw. A mit Rang r. Diese ist nach 3.3/7 invertierbar und erfüllt
det(A′ ) 6= 0 gemäß Satz 4.
Ist andererseits A′ ∈ K s×s eine quadratische Untermatrix von A
mit einer Spaltenzahl s > r = rg A, so sind die Spalten von A′ notwen-
digerweise linear abhängig, denn jeweils s Spalten von A sind linear
abhängig. Es folgt dann det(A′ ) = 0, ebenfalls mit Satz 4. 

Wir gehen schließlich noch auf die Berechnung der Determinanten


spezieller Matrizen A ∈ K n×n ein und untersuchen zunächst, wie sich
die Determinante ändert, wenn man auf A elementare Zeilen- oder
Spaltentransformationen anwendet.

Satz 6. Es seien α ∈ K, A ∈ K n×n , sowie i, j zwei verschiedene


Indizes mit 1 ≤ i, j ≤ n.
(i) det(A) ändert sich nicht, wenn man zu der i-ten Zeile (bzw.
Spalte) von A das α-fache der j-ten Zeile (bzw. Spalte) addiert.
(ii) det(A) ändert das Vorzeichen, wenn man in A die i-te mit der
j-ten Zeile (bzw. Spalte) vertauscht.
(iii) det(A) multipliziert sich mit α, wenn man die i-te Zeile (bzw.
Spalte) von A mit α multipliziert.

Beweis. Nach Satz 4 gilt det(A) = det(At ). Wir können uns daher auf
die Betrachtung elementarer Spaltenumformungen beschränken. Dann
188 4. Determinanten

ergeben sich die behaupteten Aussagen jedoch unmittelbar aus der


Tatsache, dass det(A) eine Determinantenfunktion in den Spalten von
A ist; vgl. 4.2/3 und 4.2/4. 

Der obige Satz bietet eine natürliche Möglichkeit, Determinanten


von Matrizen A ∈ K n×n explizit zu berechnen: Man bestimme zunächst
mittels des Gaußschen Eliminationsverfahrens den Rang r = rg A.
Für r < n folgt dann det(A) = 0 gemäß 4.2/2. Im Falle r = n je-
doch lässt sich A, wie wir in Abschnitt 3.3 gesehen haben, mittels
elementarer Zeilenumformungen in die Einheitsmatrix E überführen,
wobei det(E) = 1 gilt. Benötigt man s solcher Umformungen (wo-
bei man elementare Zeilen- und Spaltenumformungen gemischt ver-
wenden darf), so ändert sich der Wert der Determinante bei jedem
Schritt um einen gewissen Faktor ασ , σ = 1, . . . , s, und es ergibt sich
det(A) = α1−1 . . . αs−1 .
Wir wollen einige Beispiele zur Berechnung spezieller Determinan-
ten geben und dabei auch zeigen, wie das gerade beschriebene Verfah-
ren in konkreten Situationen angewendet werden kann.
(1) Sei A = (αij )i,j ∈ K n×n mit αij = 0 für i > j, also
 
α11 ........ ∗
 0 α22 . . . ∗ 
A=  ..
.
. . . . . . . . .. 
0 . . . . . . . . αnn
Qn
Dann gilt det(A) = i=1 αii . In der Tat, betrachten wir einen Term
der Summe
X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n
π∈Sn

zu einer Permutation π ∈ Sn , so verschwindet dieser aufgrund unserer


Voraussetzung über die αij , sofern es einen Index i ∈ {1, . . . , n} mit
π(i) > i gibt. Da andererseits aber π(i) ≤ i, i = 1, . . . , n, nur für
die identische Permutation gilt, reduziert sich obige Summe auf einen
Term, und zwar auf α11 · . . . · αnn .
Alternativ können wir im Sinne elementarer Zeilenumformungen
argumentieren. Gilt αii = 0 für einen Index i ∈ {1, . . . , n}, so sind die
4.3 Determinanten von Matrizen und Endomorphismen 189

Spalten mit den Indizes 1, . . . , i offenbar linear abhängig, und es gilt


det(A) = 0. Ansonsten multipliziere man für i = 1, . . . , n die i-te Zeile
von A mit αii−1 , wobei sich die Determinante jeweils um den Faktor
αii−1 ändert. Die resultierende Matrix lässt sich dann in die Einheits-
matrix überführen, indem man für i = 2, . . . , n geeignete Vielfache
der i-ten Zeile zu den vorhergehenden Zeilen addiert. Der Wert der
Determinante bleibt dabei unverändert, so dass man wie gewünscht
det(A) = α11 . . . αnn erhält.
(2) Zu Zahlen m, n ∈ N betrachte man Matrizen A11 ∈ K m×m ,
A12 ∈ K m×n , A22 ∈ K n×n sowie die Nullmatrix 0 ∈ K n×m . Für die
zusammengesetzte Matrix
 
A11 A12
A=
0 A22

erhält man det(A) = det(A11 ) · det(A22 ). Um dies nachzuweisen, neh-


men wir A von der Form (αij )i,j=1,...,m+n an. Es gilt dann αij = 0 für
m + 1 ≤ i ≤ m + n, 1 ≤ j ≤ m. In der Summe
X
det(A) = sgn π · απ(1),1 · . . . · απ(m+n),m+n
π∈Sm+n

haben wir daher nur Terme zu solchen Permutationen π ∈ Sn zu


berücksichtigen, welche π(i) ≤ m für i = 1, . . . , m erfüllen. Dann
gilt automatisch m + 1 ≤ π(i) ≤ m + n für i = m + 1, . . . , m + n,
und es “zerfällt” π in Permutationen σ von {1, . . . , m} und τ von
{m + 1, . . . , m + n}, wobei sgn(π) = sgn(σ) · sgn(τ ) gilt. Da auf diese
Weise die zu betrachtenden Permutationen π ∈ Sm+n bijektiv den Paa-
ren (σ, τ ) ∈ Sm × Sn entsprechen, ergibt sich mit A22 = (βij )i,j=1,...,n
X
det(A) = sgn(σ) sgn(τ )ασ(1),1 . . . ασ(m),m · βτ (1),1 . . . βτ (n),n
σ∈Sm ,τ ∈Sn
X X
= sgn(σ)ασ(1),1 . . . ασ(m),m · sgn(τ )βτ (1),1 . . . βτ (n),n
σ∈Sm τ ∈Sn

= det(A11 ) · det(A22 ),

wie behauptet.
190 4. Determinanten

Alternativ kann man dieses Resultat allerdings auch ohne größere


Rechnung erhalten, indem man die Theorie der Determinantenfunktio-
nen verwendet. Seien Em ∈ K m×m und En ∈ K n×n die Einheitsmatri-
zen. Zunächst lesen wir aus 4.2/4 ab, dass
 
A11 A12
det(A) = det
0 A22

insbesondere eine Determinantenfunktion in den Spalten von A11 ist,


wenn wir diese für einen Moment als variabel ansehen. Mit 4.2/5 folgt
daher die Gleichung
   
A11 A12 Em A12
det = det(A11 ) · det .
0 A22 0 A22

Entsprechend können wir schließen, dass


 
Em A12
det
0 A22

eine Determinantenfunktion in den Zeilen von A22 ist, wenn wir diese
als variabel ansehen und benutzen, dass die Determinante einer Matrix
gleich der Determinante ihrer Transponierten ist. Mit 4.2/5 folgt daher
die Gleichung
   
Em A12 Em A12
det = det(A22 ) · det .
0 A22 0 En

Da die Matrix  
Em A12
0 En
nach Beispiel (1) die Determinante 1 besitzt, folgt wie gewünscht

det(A) = det(A11 ) · det(A22 ).

Schließlich wollen wir noch zeigen, wie man mittels elementarer


Umformungen argumentieren kann. Gilt rg A11 < m, so kann A nicht
maximalen Rang besitzen, da dann die ersten m Spalten von A linear
abhängig sind. Entsprechendes gilt für rg A22 < n, da in diesem Fal-
le die letzten n Zeilen von A linear abhängig sind. Insgesamt ergibt
4.3 Determinanten von Matrizen und Endomorphismen 191

sich det(A) = 0 = det(A11 ) · det(A22 ), falls mindestens eine der Matri-


zen A11 und A22 nicht invertierbar ist. Sind jedoch A11 und A22 beide
invertierbar, so wende man auf die ersten m Zeilen von A elementare
Zeilenumformungen an, welche die Untermatrix A11 in die Einheitsma-
trix überführen. Die Determinante von A ändert sich hierbei offenbar
um den Faktor det(A11 )−1 . Entsprechend wende man auf die letzten
n Zeilen von A elementare Zeilenumformungen an, die die Unterma-
trix A22 in die Einheitsmatrix überführen. Dies bewirkt eine Änderung
der Determinante um den Faktor det(A22 )−1 . Die resultierende Matrix
besitzt dann die in Beispiel (1) betrachtete Form, wobei die Diago-
nalelemente alle den Wert 1 haben. Somit ist die Determinante dieser
Matrix 1, und es folgt det(A) = det(A11 ) · det(A22 ).

(3) Ein berühmtes Beispiel einer konkret gegebenen Determinante


ist die sogenannte Vandermondesche Determinante
 
1 1 ... 1
 α1 α2 ... αn 
 2 
V (α1 , α2 , . . . , αn ) = det  α
 1 α 2
2 ... αn2 ,
 · · ... · 
n−1 n−1
α1 α2 ... αnn−1

welche zu Elementen α1 , α2 , . . . , αn ∈ K gebildet wird. Wir wollen


induktiv die Formel
Y
V (α1 , α2 , . . . , αn ) = (αj − αi )
i<j

herleiten. Für n = 1 ist die Behauptung trivial. Für n > 1 subtrahiere


man in obiger Matrix von der n-ten Zeile das α1 -fache der (n − 1)-ten
Zeile usw. bis schließlich von der 2. Zeile das α1 -fache der 1. Zeile.
Dann gilt
 
1 1 ... 1
0 α2 − α1 ... αn − α1 
 
V (α1 , α2 , . . . , αn ) = det 
 0 α 2 (α2 − α1 ) . . . αn (αn − α1 )  ,
.. ... ... ... 
n−2
0 α2 (α2 − α1 ) . . . αnn−2 (αn − α1 )
192 4. Determinanten

und es folgt mit obigem Beispiel (2)


Y 
V (α1 , α2 , . . . , αn ) = (αi − α1 ) V (α2 , . . . , αn ).
i>1

Per Induktion ergibt sich daraus die Behauptung.


Schließlich wollen wir für Matrizen A = (αij )i,j ∈ K n×n , n ≤ 3,
noch deren Determinanten explizit angeben.

n=1: det(A) = α11


n=2: det(A) = α11 α22 − α21 α12
n=3: det(A) = α11 α22 α33 + α21 α32 α13 + α31 α12 α23
− α11 α32 α23 − α31 α22 α13 − α21 α12 α33

Letztere Formel entspricht der Auflistung


(     
1 2 3 1 2 3 1 2 3
S3 = , , ,
1 2 3 2 3 1 3 1 2
     )
1 2 3 1 2 3 1 2 3
, ,
1 3 2 3 2 1 2 1 3

Die Art der Summanden kann man sich dabei an folgendem Schema
(bezeichnet als Regel von Sarrus) in Erinnerung bringen:

α11 α12 α13 α11 α12


α21 α22 α23 α21 α22
α31 α32 α33 α31 α32

Man hat also zur Berechnung von det(αij )i,j=1,2,3 die Produkte über die
Elemente der 3 von links oben nach rechts unten verlaufenden Diago-
nalen zu addieren und davon die Produkte über die Elemente der 3 von
links unten nach rechts oben verlaufenden Diagonalen zu subtrahieren.

Aufgaben
1. Für A ∈ K n×n mit At = −A und ungeradem n zeige man: Es gilt
det(A) = 0 oder 1 + 1 = 0 in K.
4.3 Determinanten von Matrizen und Endomorphismen 193

2. Für Matrizen A ∈ K n×n lasse man folgende Zeilenoperationen zu:


(i) Vertauschen zweier verschiedener Zeilen und gleichzeitiges Multi-
plizieren einer Zeile mit −1.
(ii) Multiplizieren einer Zeile mit einer Konstanten α ∈ K ∗ und gleich-
zeitiges Multiplizieren einer weiteren Zeile mit α−1 .
(iii) Addieren eines Vielfachen einer Zeile zu einer anderen.
Man zeige, dass sich invertierbare Matrizen A ∈ K n×n mittels solcher
Zeilenumformungen in Diagonalmatrizen des Typs
 
1 ... 0 0
.. . . . .. ..
 
0 . . . 1 0
0 ... 0 d
überführen lassen, wobei d = det(A) gilt.
3. Sei A = (αij ) ∈ K n×n mit


 1 für i < j
αij = 0 für i = j


−1 für i > j
und n gerade. Man zeige det(A) = 1. (AT 431)
4. Man berechne die Determinante der Matrix
 
2 1 1 ... 1
1 2 1 . . . 1
 
1 1 2 . . . 1 n×n
 ∈R .
.. .. .. . . . ..
1 1 1 ... 2
5. Es sei V ein n-dimensionaler K-Vektorraum und f : V ✲ V ein En-
domorphismus. Für ein x ∈ V gelte V = hx, f (x), . . . , f n−1 (x)i sowie
f n (x) = αn−1 f n−1 (x) + . . . + α1 f (x) + α0 x
mit Koeffizienten α0 , . . . , αn−1 ∈ K. Man zeige det(f ) = (−1)n+1 α0 .
(AT 433)
6. Es seien α1 , . . . , αn , β1 , . . . , βn ∈ K Konstanten mit αi + βj 6= 0 für alle
i, j. Man zeige (Cauchysche Determinante):
  Q
(α1 + β1 )−1 . . . (α1 + βn )−1 (α − αi )(βj − βi )
det  ... ...  = i<jQ j
(αn + β1 )−1 . . . (αn + βn )−1 i,j (αi + βj )
194 4. Determinanten

4.4 Die Cramersche Regel

Wir wollen zunächst zu einer Matrix A = (αij )i,j ∈ K n×n die soge-
nannte adjungierte Matrix Aad erklären. Hierzu konstruieren wir für
beliebige Indizes i, j ∈ {1, . . . , n} eine (n × n)-Matrix Aij aus A, in-
dem wir alle Elemente αi1 , . . . , αin der i-ten Zeile und alle Elemente
α1j , . . . , αnj der j-ten Spalte von A durch 0 ersetzen, bis auf das Ele-
ment αij im Schnittpunkt von i-ter Zeile und j-ter Spalte, welches wir
zu 1 abändern, also:
 
α11 . . . α1,j−1 0 α1,j+1 . . . α1n
 .. ... .. .. .. ... .. 
 
αi−1,1 . . . αi−1,j−1 0 αi−1,j+1 . . . αi−1,n 
 
Aij =  0 . . . 0 1 0 . . . 0 

α . . . α 0 α . . . α 
 i+1,1 i+1,j−1 i+1,j+1 i+1,n 
 .. ... .. .. .. ... .. 
αn1 . . . αn,j−1 0 αn,j+1 . . . αnn

Weiter werde die Matrix A′ij ∈ K (n−1)×(n−1) durch Streichen der i-ten
Zeile und der j-ten Spalte von Aij erklärt.

Bemerkung 1. Es sei A ∈ K n×n eine Matrix mit den Spalten


a1 , . . . , an ∈ K n . Dann gilt für Indizes 1 ≤ i, j ≤ n:
(i) det(Aij ) = (−1)i+j · det(A′ij ).
(ii) det(Aij ) = det(a1 , . . . , aj−1 , ei , aj+1 , . . . , an ), wobei der Spalten-
vektor ei = (δ1i , . . . , δni )t der i-te Einheitsvektor in K n ist.

Beweis. Für i = j = 1 ist Aij von der Gestalt


 
1 0
A11 = ,
0 A′11

und wir erhalten, wie in Abschnitt 4.3 berechnet,

det(A11 ) = 1 · det(A′11 ).

Den Allgemeinfall von (i) führt man leicht hierauf zurück, indem man
in Aij die i-te Zeile mit allen vorhergehenden Zeilen sowie die j-te Spal-
te mit allen vorhergehenden Spalten vertauscht. Dies sind insgesamt
4.4 Die Cramersche Regel 195

(i − 1) + (j − 1) Vertauschungen, so dass sich die Determinante der


neuen Matrix dabei von det(Aij ) um den Faktor (−1)i+j unterscheidet.
Weiter ergibt sich (ii) aus 4.3/6 (i), da sich die Matrix mit den
Spalten a1 , . . . , aj−1 , ei , aj+1 , . . . , an in die Matrix Aij überführen lässt,
indem man geeignete Vielfache der j-ten Spalte ei von den restlichen
subtrahiert. 

Definition 2. Für eine Matrix A = (αij )i,j ∈ K n×n und für Indizes
1 ≤ i, j ≤ n bilde man die Matrizen Aij , A′ij wie vorstehend beschrie-
ben. Dann heißt

α̃ij = det(Aij ) = (−1)i+j · det(A′ij )

der Cofaktor von A zum Indexpaar (i, j) oder, in nicht ganz korrekter
Sprechweise, der Cofaktor von A zum Koeffizienten αij . Die Matrix
à = (α̃ij )i,j wird als Matrix der Cofaktoren von A bezeichnet und

Aad := Ãt = (α̃ji )i,j

als die zu A adjungierte Matrix (oder die zu A gehörige Komplemen-


tärmatrix).

Als Nächstes wollen wir eine fundamentale Beziehung zwischen ei-


ner Matrix A und ihrer adjungierten Aad beweisen, welche im weiteren
Sinne als sogenannte Cramersche Regel bezeichnet wird.

Satz 3. Sei A = (αij )i,j ∈ K n×n , und sei E ∈ K n×n die Einheitsma-
trix. Dann gilt
Aad · A = A · Aad = det(A) · E.
In ausführlicher Schreibweise bedeutet diese Identität:
n
X
α̃ji αjk = δik · det(A),
j=1
Xn
αij α̃kj = δik · det(A),
j=1

für 1 ≤ i, k ≤ n.
196 4. Determinanten

Beweis. Es seien a1 , . . . , an die n Spalten von A. Dann rechnet man


unter Ausnutzung von Bemerkung 1
n
X n
X
α̃ji αjk = αjk · det(Aji )
j=1 j=1
Xn
= αjk · det(a1 , . . . , ai−1 , ej , ai+1 , . . . , an )
j=1

= det(a1 , . . . , ai−1 , ak , ai+1 , . . . , an )


= δik · det(A),

d. h. es gilt Ãt · A = det(A) · E. Um zu sehen, dass dies auch gleich


A · Ãt ist, benutze man die gerade bewiesene Beziehung für At anstelle
von A, also
ft )t · At = det(At ) · E.
(A
ft = Ãt hat, ergibt sich
Da man offenbar A
à · At = det(A) · E
unter Benutzung von det(At ) = det(A), vgl. 4.3/4. Transponieren lie-
fert dann wie gewünscht
A · Ãt = det(A) · E.

Wir wollen einige Folgerungen aus diesem Satz ziehen. Zunächst
erhält man als Spezialfall der Gleichungen in Satz 3 den nach Laplace
benannten Satz zum Entwickeln einer Determinante nach einer Zeile
oder Spalte.

Korollar 4. Sei A = (αij )i,j ∈ K n×n . Dann gilt:


n
X n
X
det(A) = αij · det(Aij ) = (−1)i+j · αij · det(A′ij ), j = 1, . . . , n,
i=1 i=1
n
X n
X
det(A) = αij · det(Aij ) = (−1)i+j · αij · det(A′ij ), i = 1, . . . , n.
j=1 j=1

Dies sind die sogenannten Formeln zur Entwicklung von det(A) nach
der j-ten Spalte bzw. i-ten Zeile.
4.4 Die Cramersche Regel 197

Für invertierbare Matrizen kann man die Formeln in Satz 3 zur


Berechnung der inversen Matrix benutzen.

Korollar 5. Für A ∈ GL(n, K) gilt A−1 = det(A)−1 · Aad .

Des Weiteren wollen wir noch die Cramersche Regel im engeren


Sinne herleiten, die sich auf die Lösung linearer Gleichungssysteme
bezieht.

Korollar 6. Für eine Matrix A ∈ GL(n, K) und einen Spaltenvektor


b ∈ K n betrachte man das lineare Gleichungssystem A · x = b. Dann ist
x = A−1 · b die eindeutige Lösung dieses Systems. Sind a1 , . . . , an die
Spalten von A, so wird die i-te Komponente von A−1 · b gegeben durch

det(A)−1 · det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ).

Beweis. Wir benutzen die Formel A−1 = det(A)−1 · Ãt aus Korol-
lar 5. Dann berechnet sich die i-te Komponente von A−1 · b für
b = (β1 , . . . , βn )t mittels Bemerkung 1 zu
n
X n
X
−1 −1
det(A) · α̃ji βj = det(A) · det(Aji )βj
j=1 j=1
n
X
= det(A)−1 · det(a1 , . . . , ai−1 , βj ej , ai+1 , . . . , an )
j=1
−1
= det(A) · det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ).

Aufgaben
1. Man löse das folgende lineare Gleichungssystem mittels Cramerscher
Regel:

2x1 + 2x2 + 4x3 = 1


2x1 − 3x2 + 2x3 = 0
5x1 + 4x2 + 3x3 = 1
198 4. Determinanten

2. Es sei A = (αij ) ∈ GL(n, R) eine invertierbare Matrix mit Koeffizienten


αij ∈ Z. Man zeige (AT 434):
(i) A−1 hat Koeffizienten in Q.
(ii) A−1 hat genau dann Koeffizienten in Z, wenn det(A) = ±1 gilt.
3. Man zeige für invertierbare Matrizen A, B ∈ GL(n, K) und α ∈ K:
(i) (αA)ad = αn−1 Aad
(ii) (At )ad = (Aad )t
(iii) (AB)ad = B ad Aad
(iv) det(Aad ) = det(A)n−1
(v) (Aad )ad = det(A)n−2 A
(vi) (Aad )−1 = (A−1 )ad
Bemerkung: Alle vorstehenden Beziehungen, mit Ausnahme der letzten,
bleiben auch für beliebige Matrizen aus K n×n gültig. Um dies aus dem
Fall invertierbarer Matrizen zu folgern, sind allerdings Konstruktionen
erforderlich, die im Moment noch nicht zur Verfügung stehen.
P
4. Es gelte ni=1 αi ai = b für Spaltenvektoren a1 , . . . , an , b ∈ K n und Ko-
effizienten α1 , . . . , αn ∈ K. Man zeige
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ) = αi · det(a1 , . . . , an ), i = 1, . . . , n,
und folgere hieraus die Aussage von Korollar 6. (AT 435)

4.5 Äußere Produkte*

In Abschnitt 4.2 haben wir alternierende Multilinearformen in n Varia-


blen auf einem n-dimensionalen K-Vektorraum V studiert. Wir wollen
nun allgemeiner auf einem beliebigen K-Vektorraum V alternierende
multilineare Abbildungen in einer gewissen Anzahl r von Variablen
mit Werten in einem K-Vektorraum W betrachten. Dabei heißt eine
Abbildung Φ : V r ✲ W, (a1 , . . . , ar ) ✲ Φ(a1 , . . . , ar ), multiline-
ar, wenn Φ linear in jedem Argument ist, sowie alternierend, wenn
Φ(a1 , . . . , ar ) = 0 gilt, sofern zwei der Vektoren a1 , . . . , ar ∈ V über-
einstimmen. Entsprechend wie in 4.2/2 bzw. 4.2/3 zeigt man:

Bemerkung 1. Für K-Vektorräume V, W und r ∈ N betrachte man


eine alternierende multilineare Abbildung Φ : V r ✲ W . Dann gilt für
Vektoren a1 , . . . , ar ∈ V :
4.5 Äußere Produkte* 199

(i) Φ(a1 , . . . , ar ) = 0, sofern a1 , . . . , ar linear abhängig sind.


(ii) Φ(aπ(1) , . . . , aπ(r) ) = sgn π · Φ(a1 , . . . , ar ) für jede Permutation
π ∈ Sr .

Insbesondere folgt aus (i), dass es im Falle r > dimK V nur triviale
multilineare alternierende Abbildungen V r ✲ W gibt. Wir wollen
V
im Folgenden zu V und r ∈ N einen K-Vektorraum r V konstruieren,
derart dass die alternierenden multilinearen Abbildungen V r ✲W
in einen beliebigen K-Vektorraum
Vr W hinein in bijektiver Weise den
K-linearen Abbildungen V ✲ W entsprechen.

Satz 2. Zu einem K-Vektorraum V und einer natürlichen Zahl r ∈ N


gibt es stets einen K-Vektorraum D mit einer multilinearen alternie-
renden Abbildung σ : V r ✲ D, welche folgende universelle Eigen-
schaft besitzt:
Ist Φ : V r ✲ W eine alternierende multilineare Abbildung in
einen K-Vektorraum W , so existiert eindeutig eine K-lineare Abbil-
dung ϕ : D ✲ W mit Φ = ϕ ◦ σ, so dass also das Diagramm
σ
Vr ✲ D

Φ❅ ϕ

❅ ✠
W
kommutiert.
Das Paar (D, σ) ist durch diese Abbildungseigenschaft bis auf ka-
nonische Isomorphie eindeutig bestimmt.

Dass in der Situation des Satzes zwei Paare (D, σ) und (D′ , σ ′ ),
welche die genannte universelle Abbildungseigenschaft besitzen, in ka-
nonischer Weise isomorph sind, kann man leicht einsehen. Es gibt dann
nämlich eine eindeutig bestimmte K-lineare Abbildung ι : D ✲ D′

mit σ = ι ◦ σ, sowie eine eindeutig bestimmte K-lineare Abbildung
ι′ : D ′ ✲ D mit σ = ι′ ◦ σ ′ . Also hat man

σ = ι′ ◦ σ ′ = ι′ ◦ ι ◦ σ, σ ′ = ι ◦ σ = ι ◦ ι′ ◦ σ ′ ,
und damit
idD ◦σ = (ι′ ◦ ι) ◦ σ, idD′ ◦σ ′ = (ι ◦ ι′ ) ◦ σ ′ .
200 4. Determinanten

Deshalb sind idD , ι′ ◦ ι : D ✲ D zwei K-lineare Abbildungen, die


durch Komposition mit σ : V r ✲ D dieselbe alternierende multili-
neare Abbildung V r ✲ D ergeben. Die Eindeutigkeitsaussage in der
Abbildungseigenschaft für (D, σ) ergibt dann ι′ ◦ι = idD . Entsprechend
erhält man ι ◦ ι′ = idD′ , und es folgt, dass ι und ι′ zueinander inver-
se Isomorphismen sind, eben die kanonischen Isomorphismen, deren
Existenz im Satz behauptet wird.
In der Situation von Satz 2, dessen Beweis wir weiter unten fort-
führen werden, nennt man den K-Vektorraum D das r-fache äußere
Produkt oder Vdie r-fache äußere Potenz von V und benutzt hierfür
die Notation r V . Das Bild eines Tupels (a1 , . . . , arV
) ∈ V r unter der
multilinearen alternierenden Abbildung σ : V r ✲ r
V wird mit
a1 ∧ . . . ∧ ar
bezeichnet, wobei man hier auch von dem äußeren oder Dachprodukt
der Elemente a1 , . . . , ar spricht. Diese Produktbildung ist linear und
alternierend in den einzelnen Faktoren, d. h. es gilt für einen festen
Index i ∈ {1, . . . , r} und Elemente α, β ∈ K, a1 , . . . , ar , bi ∈ V
a1 ∧ . . . ∧ (αai + βbi ) ∧ . . . ∧ ar
= α · (a1 ∧ . . . ∧ ai ∧ . . . ∧ ar ) + β · (a1 ∧ . . . ∧ bi ∧ . . . ∧ ar ),
sowie a1 ∧ . . . ∧ ar = 0, falls die Vektoren a1 , . . . , ar nicht paarweise
verschieden sind.Vr Wir können sogar aus der universellen Abbildungsei-
genschaft von V folgende Information ableiten:
V
Bemerkung 3. Der K-Vektorraum r V wird von den Elementen
a1 ∧ . . . ∧ ar mit a1 , . . . , ar ∈ V erzeugt.
V
Beweis. Es sei D′ ⊂ r V der lineare Unterraum, der von allen Elemen-
V
ten des Typs a1 ∧. . .∧ar erzeugt wird. Da das Bild von σ : V r ✲ r V
in D′ liegt, führt jede Zerlegung
V
Φ : V r σ✲ r V
ϕ✲
W
einer multilinearen alternierenden Abbildung Φ : V r ✲ W automa-
tisch zu einer Zerlegung
σ✲ ϕ′✲
Φ: V r D′ W
4.5 Äußere Produkte* 201

mit ϕ′ = ϕ|D′ . Nun ist ϕ′ aufgrund der Gleichung Φ = ϕ′ ◦ σ notwendi-


gerweise eindeutig bestimmt auf dem Bild im σ, also auch auf dem von
im σ erzeugten linearen Unterraum von D′ , d. h. auf D′ selbst. Somit
erfüllt D′ zusammen mit σ die universelle Eigenschaft eines äußeren V
Produkts, und man sieht wie oben, dass die Abbildung D′ ⊂ ✲ r V
ein Isomorphismus ist, als Inklusion also die Identität darstellt. Somit
bilden die Elemente
V des Typs a1 ∧ . . . ∧ ar in der Tat ein Erzeugenden-
system von D′ = r V . 

Wir erleben hier zum ersten


V Mal, dass mathematische Objekte,
nämlich der K-Vektorraum r V und die alternierende multilineare
Abbildung


Vr ✲
σ: V r V, (a1 , . . . , ar ) a1 ∧ . . . ∧ ar ,

nicht in konkreter Weise, sondern nur bis auf kanonische Isomorphie


definiert werden. Natürlich muss noch gezeigt werden, dass Objekte mit
den spezifizierten Eigenschaften auch wirklich existieren. Wir werden
hierfür ein explizites Konstruktionsverfahren verwenden, das jedoch
wegen seiner allgemeinen Natur nur von untergeordnetem Interesse sein
kann. Stattdessen ist die charakterisierende universelle Eigenschaft
V das
entscheidende Hilfsmittel zur Handhabung des Vektorraums r V .
Um nun den Beweis zu Satz 2 abzuschließen, bleibt noch die Exis-
tenz eines K-Vektorraums D zusammen mit einer alternierenden mul-
tilinearen Abbildung σ : V r ✲ D nachzuweisen, welche die behaup-
tete universelle Abbildungseigenschaft besitzt. Hierzu betrachten wir,
motiviert durch die Aussage von Bemerkung 3, den freien von allen
Symbolen v ∈ V r erzeugten K-Vektorraum, nämlich

D̂ = (αv )v∈V r ; αv ∈ K, αv = 0 für fast alle v ,
r
den wir als linearen Unterraum des kartesischen Produkts K V auffas-
sen. Das System der Elemente

ev = (δv,v′ )v′ ∈V r , v ∈ V r,

bildet eine Basis von D̂, wobei wir für Tupel v = (a1 , . . . , ar ) ∈ V r
anstelle von ev auch ausführlicher e(a1 ,...,ar ) schreiben werden.
202 4. Determinanten

Sei R ⊂ D̂ der lineare Unterraum, der von allen Elementen der


Gestalt

e(...,αa+βb,...) − α · e(...,a,...) − β · e(...,b,...) ,


e(...,a,...,a,...)

mit α, β ∈ K, a, b ∈ V erzeugt wird (wobei bei den Elementen ersteren


Typs die Einträge an einer festen Stelle i stehen und die restlichen
Einträge in allen drei Termen jeweils unverändert sind). Man setze
dann D = D̂/R und bezeichne die Restklasse eines Basiselementes
e(a1 ,...,ar ) ∈ D̂ mit a1 ∧ . . . ∧ ar . Dann ist nach Definition von R die
Abbildung

σ: V r ✲ D, (a1 , . . . , ar ) ✲ e(a1 ,...,ar ) ✲ a1 ∧ . . . ∧ ar ,

sozusagen erzwungenermaßen multilinear und alternierend. Um zu er-


kennen, dass σ die behauptete universelle Abbildungseigenschaft be-
sitzt, betrachte man eine beliebige alternierende multilineare Abbil-
dung Φ : V r ✲ W mit Werten in einem K-Vektorraum W . Dann
kann man eine Abbildung ϕ̂ : D̂ ✲ W erklären, indem man die Bil-
der der kanonischen Basis (ev )v∈V r von D̂ vorgibt, und zwar durch

ϕ̂(e(a1 ,...,ar ) ) = Φ(a1 , . . . , ar ), (a1 , . . . , ar ) ∈ V r .

Man vergleiche hierzu Satz 2.1/7 (ii), den man in einer Version für
nicht notwendig endliche Basen benötigt. Es entsteht somit das folgen-
de kommutative Diagramm, wobei die Existenz der Abbildung ϕ noch
zu begründen ist:

✒ ❅
ϕ̂ ❅
σ


Vr ✲ D = D̂/R

Φ❅ ϕ
❘ ❄✠

W
Aus der Eigenschaft, dass Φ multilinear und alternierend ist, ergibt
sich sofort, dass ker ϕ̂ alle erzeugenden Elemente von R, also R selbst
enthält. Mittels des Homomorphiesatzes 2.2/8 folgt dann, dass ϕ̂ über
4.5 Äußere Produkte* 203

den Quotienten D = D̂/R faktorisiert, sich also als Komposition der


Projektion D̂ ✲ D und einer K-linearen Abbildung ϕ : D ✲W
schreiben lässt, wobei ϕ die Gleichung

(∗) ϕ(a1 ∧ . . . ∧ ar ) = Φ(a1 , . . . , ar )

für (a1 , . . . , ar ) ∈ V r erfüllt; dies bedeutet aber Φ = ϕ ◦ σ.


Es bleibt nun noch nachzuweisen, dass ϕ als K-lineare Abbildung
durch die Gleichung Φ = ϕ ◦ σ eindeutig bestimmt ist. Gilt diese Glei-
chung, d. h. gilt (∗) für alle Tupel in V r , so ist ϕ jedenfalls eindeutig
bestimmt auf dem linearen Unterraum von D, der von allen Elementen
des Typs a1 ∧ . . . ∧ ar erzeugt wird; vgl. 2.1/7. Dieser Unterraum ist
aber identisch mit D, da die Elemente e(a1 ,...,ar ) nach unserer Konstruk-
tion eine Basis von D̂ bilden, die Elemente a1 ∧ . . . ∧ ar also immerhin
noch den Quotientenvektorraum D erzeugen. 

Die vorstehende Konstruktion V0 ergibt im Fall r = 0 einen eindimen-


sionalen K-Vektorraum V , der von dem Bild des leeren Tupels aus
0
V erzeugt wird.VEine solche Situation lässt sich natürlich konkretisie-
ren: Man setzt 0 V := K, wobei man vereinbart, dass das Produkt
a1 ∧ . . . ∧ ar für r = 0 leer ist und demgemäß den Wert 1 hat.
Als Nächstes wollen wir überlegen, wie man, ausgehend von ei-
ner
Vr Basis X = (x1 , . . . , xn ) eines K-Vektorraums V eine Basis von
n
V erhalten kann. Hierzu bezeichne Zr für n, r ∈ N die Menge aller
r-elementigen TeilmengenVvon {1, . . . , n}. Weiter werde für Elemente
H ∈ Zrn der Vektor xH ∈ r V durch xH = xh1 ∧ . . . ∧ xhr erklärt, wo-
bei man H = {h1 , . . . , hr }Pmit h1 < . . . < hr schreibe. Für Elemente
a1 , . . . , ar ∈ V , etwa aj = ni=1 αij xi mit Koeffizienten αij ∈ K, setzen
wir dann noch
X
detX,H (a1 , . . . , ar ) = sgn(π) · αhπ(1) ,1 . . . αhπ(r) ,r .
π∈Sr

Es ist also detX,H (a1 , . . . , ar ), abgesehen vielleicht von dem trivialen


Fall r = 0, die Determinante derjenigen (r×r)-Matrix, die man aus der
(n×r)-Matrix (a1,X , . . . , ar,X ) erhält, indem man alle Zeilen mit einem
Index i 6∈ H streicht; dabei ist aj,X jeweils der Koordinatenspaltenvek-
tor von aj bezüglich der Basis X, j = 1, . . . , r. Insbesondere ergibt sich,
dass detX,H : V r ✲ K eine alternierende multilineare Abbildung ist.
204 4. Determinanten

Satz 4. Wie vorstehend beschrieben betrachte man einen K-Vektor-


raumVV mit einer Basis X = (x1 , . . . , xn ), sowie das r-te äußere Pro-
dukt r V . Vr
(i) Die ElementeVr xH , H n∈ Zr , bilden eine Basis von
n
V . Insbe-
sondere gilt dimK ( V ) = (r ).
(ii) Für beliebige Elemente a1 , . . . , ar ∈ V gilt
X
a1 ∧ . . . ∧ ar = detX,H (a1 , . . . , ar )xH .
H∈Zrn

Beweis. Der Fall r = 0 ist trivial; sei also r > 0. Als alternierende mul-
tilineare Abbildung faktorisiert detX,H : V r ✲ K über eine K-lineare
Abbildung V
dX,H : r V ✲ K,

und es gilt dX,H (xH ′ ) = δH,H ′ für H, H ′ ∈ Zrn , wie man leicht ein-
sieht. Letztere Gleichungen können aber nur dann bestehen, wenn die
Elemente xH , H ∈ Zrn , linear unabhängig sind. Dass weiter V die xH
ein Erzeugendensystem und damit insgesamt eine Basis von r V bil-
den, folgt dann aus (ii), da die Elemente des Typs a1 ∧ . . . ∧ ar ein
Erzeugendensystem bilden. P
Es bleibt also noch Aussage (ii) nachzuweisen. Für aj = ni=1 αij xi ,
j = 1, . . . , r, mit Koeffizienten αij ∈ K kann man wie folgt rechnen:
n
X
a1 ∧ . . . ∧ ar = αi1 ,1 . . . αir ,r · xi1 ∧ . . . ∧ xir
i1 ,...,ir =1
X X
= sgn(π)αhπ(1) ,1 . . . αhπ(r) ,r · xH
H∈Zrn π∈Sr
X
= detX,H (a1 , . . . , ar ) · xH .
H∈Zrn

Der gerade gegebene Beweis zeigt im Übrigen, dass die von den
alternierenden multilinearen Abbildungen : Vr ✲ K indu-
Vr detX,H✲
zierten K-linearen
Vr ∗Abbildungen dX,H : V K eine Basis des
Dualraums
V ( V ) bilden, nämlich gerade die duale Basis zu der Ba-
sis von r V , die von den Elementen xH gebildet wird.
4.5 Äußere Produkte* 205

Ist f : V ✲ W eine lineare Abbildung zwischen K-Vektorräu-


men, so gibt es für r ∈ N eine eindeutig bestimmte K-lineare Abbildung
Vr Vr Vr
f : V ✲ W
mit Vr
f (a1 ∧ . . . ∧ ar ) = f (a1 ) ∧ . . . ∧ f (ar ).
V
Da die Elemente des Typs a1 ∧V. . . ∧ ar den Vektorraum r V erzeu-
gen, ist die Eindeutigkeit von r f klar. Zum Nachweis der Existenz
betrachte man im Falle r > 0 die alternierende multilineare Abbildung

Vr
Vr W, (a1 , . . . , ar ) ✲ f (a1 ) ∧ . . . ∧ f (ar ),
V
und nutze aus, dass diese über r V faktorisiert.

Korollar 5. Es sei f : V ✲ V ein Endomorphismus eines K-Vek-


torraums V endlicher Dimension n. Dann ist der zugehörige Endo-
morphismus Vn V Vn
f: nV ✲ V
gerade die Multiplikation mit det(f ) ∈ K.

Beweis. Man wähle eine Basis X = (x1 , . . . , xn ) von V . Dann gilt


V
( n f )(x1 ∧ . . . ∧ xn ) = f (x1 ) ∧ . . . ∧ f (xn ),
sowie nach Satz 4
f (x1 ) ∧ . . . ∧ f (xn ) = det(f (x1 )X , . . . , f (xn )X ) · x1 ∧ . . . ∧ xn .
V
Da x1 ∧ . . . ∧ xn eine Basis von n V bildet, folgt die Behauptung. 

Wir wollen nun noch zeigen, dass man das Dachprodukt “ ∧ ” als
Produkt in einem geeigneten Ring auffassen kann.

Lemma 6. Es sei V ein K-Vektorraum. Zu r, s ∈ N existiert dann


eine K-bilineare Abbildung
V V Vr+s
∧: r V × s V ✲ V,
(a1 ∧ . . . ∧ ar , b1 ∧ . . . ∧ bs ) ✲ a1 ∧ . . . ∧ ar ∧ b1 ∧ . . . ∧ bs ,
welche durch die angegebene Abbildungsvorschrift eindeutig charakteri-
siert ist.
206 4. Determinanten

Beweis. Man betrachte die alternierende multilineare Abbildung


V
Φ : V r+s ✲ r+s V,
(a1 , . . . , ar , b1 , . . . , bs ) ✲ a1 ∧ . . . ∧ ar ∧ b1 ∧ . . . ∧ bs ,

wobei wir r, s > 0 annehmen. Die Fälle r = 0 oder s = 0 sind in ähnli-


cher Weise zu behandeln, unter Verwendung der Konvention, dass leere
Produkte den Wert 1 haben. Für fest gewählte Elemente a1 , . . . , ar ∈ V
ergibt sich eine alternierende multilineare Abbildung

Vr+s
Vs V,
(b1 , . . . , bs ) ✲ a1 ∧ . . . ∧ ar ∧ b1 ∧ . . . ∧ bs ,
V
welche durch s V faktorisiert. Es induziert Φ daher eine Abbildung
V V
Φ′ : V r × s V ✲ r+s V,
 X  X
a1 , . . . , ar , bj1 ∧ . . . ∧ bjs ✲ a1 ∧ . . . ∧ ar ∧ bj1 ∧ . . . ∧ bjs ,
j j
und man sieht, da Dachprodukte der Form a1 ∧ . . . ∧ ar ∧ b1 ∧ . . . ∧ bs
multilinear und alternierend in V den einzelnen Faktoren sind, dass der
Ausdruck Φ (·, b) für festes b ∈ s V multilinear und alternierend auf

V r ist. Folglich induziert Φ′ eine Abbildung


V V Vr+s
Φ′′ : r V × s V ✲ V,
X X  X
ai1 ∧. . .∧air , bj1 ∧. . .∧bjs ✲ ai1 ∧. . .∧air ∧bj1 ∧. . .∧bjs ,
i j ij
′′
Vs
derart,
Vr dass Φ (·, b) für alle b ∈ V eine K-lineare Abbildung auf
V ist. Die Rechenregeln für Dachprodukte zeigen dann, dass Φ′′
sogar, wie gewünscht, K-bilinear ist. Dass Φ′′ durch die angegebene
Abbildungsvorschrift eindeutig charakterisiert ist, folgt daraus, Vdass
die Elemente des Typs a1 ∧ . . . V ∧ ar ein Erzeugendensystem von r V
bilden und Entsprechendes für s V gilt. 

Man kann nun zu einem K-Vektorraum V die (konstruierte) direkte


Summe V L V
V = r∈N r V
aller äußeren Potenzen bilden, womit Q
man V
ähnlich wie in 1.6 denjeni-
gen Teil des kartesischen Produktes r∈N r V meint, der aus allen
4.5 Äußere Produkte* 207

Vr
Familien (λr )r∈N
V mit λ r ∈ V sowie λr = 0 für fast alle r ∈ N be-
steht. Es ist V in natürlicher Weise ein K-Vektorraum, und man
kann
Vr zeigen,
Vs dass die in LemmaV6 betrachteten Abbildungen des Typs
Vr+s
V × VV ✲ V auf V eine MultiplikationVdefinieren, der-
0
art dass V ein Ring wird. Dabei V erkennt man K = V in kanoni-
scher Weise als UnterringVvon V und spricht von einer K-Algebra.
Genauer bezeichnet man V als die äußere Algebra zu V .
Wir wollen hier die Produktbildung aus Lemma 6 lediglich da-
zu benutzen, um den sogenannten allgemeinen Laplaceschen Entwick-
lungssatz für Determinanten herzuleiten. Wir betrachten dazu wieder
einen K-Vektorraum V mit Basis X = (x1 , . . . , xn ) und verwenden
eine Notation wie in Satz 4, insbesondere sei an die alternierenden
multilinearen Abbildungen detX,H : V r ✲ K zu Elementen H ∈ Z n
r
erinnert. Dabei stimmt detX,{1,...,n} mit der in 4.2/8 eingeführten De-
terminantenfunktion detX überein. Weiter sei H † ∈ Zn−r n
für H ∈ Zrn
erklärt als Komplement {1, . . . , n} − H, und man setze ρH = (−1)ν ,
wobei ν die Anzahl aller Paare (h, h† ) ∈ H ×H † mit h > h† bezeichnet.

Satz 7. Sei V ein K-Vektorraum mit Basis X = (x1 , . . . , xn ) und


Vektoren a1 , . . . , an ∈ V . Mit obiger Notation gilt dann für 1 ≤ r < n:
X
detX (a1 , . . . , an ) = ρH · detX,H (a1 , . . . , ar ) · detX,H † (ar+1 , . . . , an )
H∈Zrn

Beweis. Unter Verwendung von Satz 4 und Lemma 6 kann man wie
folgt rechnen:
detX (a1 , . . . , an ) · x1 ∧ . . . ∧ xn = a1 ∧ . . . ∧ an
= (a1 ∧ . . . ∧ ar ) ∧ (ar+1 ∧ . . . ∧ an )
X   X 
= detX,H (a1 , . . . , ar ) · xH ∧ detX,H (ar+1 , . . . , an ) · xH
H∈Zrn n
H∈Zn−r
X
= detX,H (a1 , . . . , ar ) · detX,H † (ar+1 , . . . , an ) · xH ∧ xH †
H∈Zrn
X
= ρH · detX,H (a1 , . . . , ar ) · detX,H † (ar+1 , . . . , an ) · x1 ∧ . . . ∧ xn
H∈Zrn
V
Da x1 ∧ . . . ∧ xn eine Basis von n V bildet, insbesondere also von Null
verschieden ist, ergibt sich die gewünschte Beziehung. 
208 4. Determinanten

Wenden wir Satz 7 auf V = K n und die kanonische Basis an, so


beschreibt die hergeleitete Formel die Entwicklung der Determinante
einer (n×n)-Matrix nach den ersten r Spalten. Durch Spaltenvertau-
schung und Berücksichtigung entsprechender Vorzeichen gewinnt man
einen Entwicklungssatz nach r beliebig vorgegebenen Spalten. Weiter
kann man durch Transponieren hieraus einen Entwicklungssatz nach
vorgegebenen r Zeilen gewinnen.

Aufgaben
1. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unterraum. Man
formuliere eine universelle Eigenschaft, die den Quotientenvektorraum
V /U charakterisiert.
2. Es sei V ein K-Vektorraum. Man zeige, Vektoren a1 , . . . , ar ∈ V Vsind
genau dann linear unabhängig, wenn das Element a1 ∧ . . . ∧ ar ∈ r V
nicht trivial ist. (AT 436)
3. Es sei f : V ✲ W eine lineare Abbildung zwischen K-Vektorräumen.
Man zeige für r ∈ N, dass die Abbildung
Vr V Vr
f: rV ✲ W

injektiv bzw. surjektiv ist, sofern f diese Eigenschaft besitzt.


4. Es sei V ein K-Vektorraum der Dimension n < ∞. Man bestimme
L V 
dim r∈N r V .

5. Es sei K ein Körper der Charakteristik 0, d. h. für n ∈ N verschwin-


det die n-fache Summe n · 1K des Einselementes 1K ∈ K genau dann,
wenn n = 0 gilt. WeiterVbetrachte man einen K-Vektorraum V und
dessen äußeres Produkt 2 V , bestehend aus allen endlichen V2 Summen
über Produkte der Form x ∧ y mit x, y ∈ V . Für z ∈ PV sei rg z
das Minimum aller r ∈ N, so dass es eine Zerlegung z = ri=1 xi ∧ yi
mit xi , yV
i ∈ V gibt; rg z wird als der Rang von z bezeichnet. Man zeige
für z ∈ 2 V und r ∈ N, dass die folgenden Aussagen äquivalent sind
(AT 438):
(i) rg z = r
(ii) zVr =
6 0 und z r+1 = 0, wobei die Potenzen in der äußeren Algebra
V zu V zu bilden sind.
Hinweis: Man darf Aufgabe 2 benutzen.
4.5 Äußere Produkte* 209

6. Symmetrische Produkte: Es sei V ein K-Vektorraum, und r ∈ N.


Eine Abbildung Φ : V r ✲ W in einen K-Vektorraum W heißt
symmetrisch, wenn Φ(aπ(1) , . . . , aπ(r) ) = Φ(a1 , . . . , ar ) für alle r-Tupel
(a1 , . . . , ar ) ∈ V r und alle Permutationen π ∈ Sr gilt. Man zeige: Es
existiert ein K-Vektorraum P mit einer symmetrischen multilinearen
Abbildung σ : V r ✲ P , welche folgende universelle Eigenschaft er-
füllt:
Zu jeder symmetrischen multilinearen Abbildung Φ : V r ✲ W in
einen K-Vektorraum W existiert eindeutig eine K-lineare Abbildung
ϕ: P ✲ W mit der Eigenschaft Φ = ϕ ◦ σ.
Man nennt P die r-te symmetrische Potenz von V .
5. Polynome

Überblick und Hintergrund

Für einen K-Vektorraum V der Dimension n < ∞ bilden die Endo-


morphismen τ : V ✲ V einen Ring EndK (V ), der gemäß 3.3/2 als
K-Vektorraum von der Dimension n2 ist. Betrachtet man daher zu ei-
2
nem Endomorphismus τ von V dessen Potenzen τ n , . . . , τ 0 = id, so
sind diese linear abhängig. Folglich existiert in EndK (V ) eine Gleichung
der Form

(∗) τ r + c1 τ r−1 + . . . + cr = 0

mit Konstanten ci ∈ K und einer natürlichen Zahl r ≤ n2 , wobei man


stets r ≤ n wählen kann, wie genauere Überlegungen später zeigen
werden. Es handelt sich also um eine Gleichung r-ten Grades mit Ko-
effizienten aus K, eine sogenannte algebraische Gleichung von τ über
K. Diese kann genau dann linear gewählt werden (d. h. mit r = 1),
wenn τ ein skalares Vielfaches der Identität ist, so dass im Allgemei-
nen r > 1 gelten wird. Nun ist die Theorie algebraischer Gleichungen
allerdings nicht mehr der Linearen Algebra zuzurechnen, sie gehört
thematisch eher zu dem umfassenderen Bereich der Algebra.
Dennoch sind Gleichungen des Typs (∗) für unsere Zwecke sehr
wichtig, da man aus ihnen wertvolle Informationen zur Struktur des
Endomorphismus τ ablesen kann. All dies werden wir im Kapitel 6 über
die Normalformentheorie von Endomorphismen genauestens erläutern.
Dabei sind jedoch gewisse Grundkenntnisse über solche Gleichungen
und insbesondere über die zugehörigen Polynome

(∗∗) tr + c1 tr−1 + . . . + cr

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0_5
212 5. Polynome

erforderlich, wobei das zu (∗) gehörige Polynom (∗∗) einen Ausdruck


darstellt, in dem man τ durch eine sogenannte Variable t ersetzt hat,
die bei Bedarf unterschiedliche Werte annehmen kann.
Wir werden in diesem Kapitel insbesondere den Ring aller Polyno-
me mit Koeffizienten aus einem gegebenen Körper K betrachten und
zeigen, dass dieser in Bezug auf Teilbarkeitseigenschaften sehr große
Ähnlichkeiten mit dem Ring Z der ganzen Zahlen aufweist. Beispiels-
weise werden wir für Polynomringe den Satz von der eindeutigen Prim-
faktorzerlegung herleiten.

5.1 Ringe

Bereits im Abschnitt 3.3 hatten wir Ringe betrachtet, und zwar zu einer
natürlichen Zahl n ∈ N den Matrizenring K n×n über einem Körper K,
sowie zu einem K-Vektorraum V den Endomorphismenring EndK (V ).
Um bestimmte Eigenschaften von Elementen in K n×n oder EndK (V )
genauer zu beschreiben, ist es zweckmäßig, wie oben angedeutet, so-
genannte Polynomringe zu verwenden. Das Studium dieser Ringe ist
zentrales Thema im vorliegenden Abschnitt. Wir beginnen jedoch mit
der Zusammenstellung einiger Eigenschaften allgemeiner Ringe, wobei
wir uns grundsätzlich auf Ringe mit Eins beschränken. Wenn wir also
im Folgenden von einem Ring sprechen, so ist damit stets ein Ring mit
Eins im Sinne von 3.3/1 gemeint. Mit anderen Worten, wir werden mit
der folgenden Definition eines Ringes arbeiten:

Definition 1. Eine Menge R mit zwei Verknüpfungen “ + ” (Addition)


und “ · ” (Multiplikation) heißt ein Ring, wenn folgende Bedingungen
erfüllt sind :
(i) R ist eine abelsche Gruppe bezüglich der Addition.
(ii) Die Multiplikation ist assoziativ, d. h. es gilt

(a · b) · c = a · (b · c) für a, b, c ∈ R.

(iii) Es existiert ein Einselement in R, also ein Element 1 ∈ R, so


dass 1 · a = a = a · 1 für alle a ∈ R gilt.
(iv) Addition und Multiplikation verhalten sich distributiv, d. h. für
a, b, c ∈ R gilt
5.1 Ringe 213

a · (b + c) = a · b + a · c, (a + b) · c = a · c + b · c.

Der Ring R heißt kommutativ, wenn die Multiplikation kommutativ


ist.

Es ist klar, dass das Einselement 1 eines Ringes durch seine definie-
rende Eigenschaft eindeutig bestimmt ist. Als naheliegendes Beispiel
eines kommutativen Rings kann man den Ring Z der ganzen Zahlen
betrachten. Im Übrigen ist jeder Körper, also insbesondere Q, R oder
C, ein kommutativer Ring. Wie schon in Abschnitt 3.3 definiert, heißt
ein Element a eines Ringes R eine Einheit, wenn es ein Element b ∈ R
mit ab = ba = 1 gibt. Die Menge R∗ aller Einheiten von R bildet eine
Gruppe bezüglich der Multiplikation. Für 1 6= 0 gilt R∗ ⊂ R − {0},
wobei dies im Allgemeinen eine echte Inklusion ist. Genauer ist die
Gleichung R∗ = R − {0} äquivalent zu der Bedingung, dass R ein Kör-
per ist, zumindest wenn man R als kommutativen Ring voraussetzt. Als
triviales Beispiel eines Rings hat man den sogenannten Nullring 0. Die-
ser besteht nur aus einem Element 0 mit den Verknüpfungen 0 + 0 = 0
und 0 · 0 = 0. Hier ist das Element 0 ein Null- und Einselement zu-
gleich, so dass wir 1 = 0 schreiben können. Der Nullring ist der einzige
Ring, in dem diese Gleichung gilt.
Bei dem Matrizenring K n×n über einem Körper K bzw. dem En-
domorphismenring EndK (V ) eines K-Vektorraums V handelt es sich
für n ≥ 2 bzw. dimK (V ) ≥ 2 um nicht-kommutative Ringe; vgl.
Abschnitt 3.3. Als weiteres Beispiel kann man für einen Ring R des-
sen n-faches kartesisches Produkt Rn als Ring betrachten, indem man
Addition und Multiplikation komponentenweise erklärt:

(α1 , . . . , αn ) + (β1 , . . . , βn ) = (α1 + β1 , . . . , αn + βn )


(α1 , . . . , αn ) · (β1 , . . . , βn ) = (α1 · β1 , . . . , αn · βn )

Es ist dann 0 = (0, . . . , 0) das Nullelement und 1 = (1, . . . , 1) das


Einselement. Im Falle R 6= 0 und n ≥ 2 zeigt die Gleichung

(1, 0, . . . , 0) · (0, . . . , 0, 1) = (0, . . . , 0),

dass dieser Ring nicht-triviale Nullteiler besitzt. Dabei heißt ein Ele-
ment a eines Rings ein Nullteiler, wenn es ein Element b 6= 0 dieses
Rings mit a · b = 0 oder b · a = 0 gibt. Man nennt einen kommutativen
214 5. Polynome

Ring R mit 1 6= 0 einen Integritätsring, wenn R keine nicht-trivialen


Nullteiler besitzt, wenn also für a, b ∈ R − {0} stets a · b 6= 0 gilt.
Als wichtiges Beispiel wollen wir nunmehr den Polynomring R⌈⌊T ⌉⌋
über einem kommutativen Ring R in einer Variablen T konstruieren.
Um unsere Intentionen klarzulegen, gehen wir dabei zunächst in nai-
ver Weise vor und P erklären R⌈⌊T ⌉⌋ als Menge aller formal gebildeten
Summen des Typs m i=0 ai T , mit Koeffizienten ai ∈ R und variabler
i

oberer Grenze m ∈ N. Addiert und multipliziert man solche Ausdrücke


“wie gewöhnlich”, so erkennt man R⌈⌊T ⌉⌋ als kommutativen Ring. Dabei
stelle man sich T als eine “variable” bzw. “allgemeine” Größe vor, für
die man nach Bedarf Elemente z. B. aus R einsetzen darf. Wichtig ist,
dass Addition und Multiplikation in R⌈⌊T ⌉⌋ bei einem solchen Erset-
zungsprozess in die entsprechenden Verknüpfungen von R übergehen.
Man rechnet daher mit T in gleicher Weise wie mit einer “konkreten”
Größe, etwa aus R.
Der Polynomring R⌈⌊T ⌉⌋ soll nun aber auch noch auf präzise Weise
konstruiert werden. Wir setzen R⌈⌊T ⌉⌋ = R(N) und verstehen hierunter
die Menge aller Folgen (ai )i∈N von Elementen ai ∈ R, für die ai = 0
für fast alle i ∈ N gilt, also für alle i ∈ N, bis auf endlich viele Ausnah-
men. Addition und Multiplikation solcher Folgen seien erklärt durch
die Formeln

(ai )i∈N + (bi )i∈N := (ai + bi )i∈N ,


(ai )i∈N · (bi )i∈N := (ci )i∈N ,

wobei ci jeweils durch den Ausdruck

X i
X
ci := aµ bν = aµ bi−µ
i=µ+ν µ=0

gegeben sei. Indem man die Ringeigenschaften von R benutzt, kann


man leicht nachrechnen, dass R(N) mit diesen Verknüpfungen einen
kommutativen Ring (mit Eins) bildet. Das Nullelement wird gege-
ben durch die Folge 0 = (0, 0, . . .), das Einselement durch die Folge
1 = (1, 0, 0, . . .).
Wir wollen exemplarisch nur das Assoziativgesetz der Multiplika-
tion nachrechnen. Für (ai )i , (bi )i , (ci )i ∈ R(N) gilt
5.1 Ringe 215
X 

(ai )i · (bi )i · (ci )i = aλ bµ · (ci )i
λ+µ=i i
X X    X 
= aλ bµ · cν = aλ bµ cν ,
κ+ν=i λ+µ=κ i λ+µ+ν=i i

sowie in entsprechender Weise


X 

(ai )i · (bi )i · (ci )i = (ai )i · bµ cν
µ+ν=i i
X  X   X 
= aλ · bµ cν = aλ bµ cν .
λ+κ=i µ+ν=κ i λ+µ+ν=i i

Um schließlich die Elemente


P<∞ von R(N) wie gewohnt als Polynome,
also Ausdrücke der Form i=0 ai T i , zu schreiben, betrachte man das
Element
T = (0, 1, 0, . . .) ∈ R(N) .
Für n ∈ N gilt T n = (δin )i∈N , wobei dies insbesondere für n = 0 auf-
grund unserer Konvention über das leere Produkt richtig ist. Identifi-
zieren wir nun die Elemente a ∈ R mit den entsprechenden Elementen
(a, 0, 0, . . .) ∈ R(N) , so ist diese Identifizierung mit den Verknüpfungen
in R und R(N) verträglich. Wir können also R sozusagen als “Unterring”
von R(N) auffassen. Elemente f = (ai )i∈N ∈ R(N) lassen sich dann als
Polynome in T mit Koeffizienten aus R schreiben, nämlich in der Form
X X X
f = (ai )i∈N = (ai δij )j∈N = ai (δij )j∈N = ai T i ,
i∈N i∈N i∈N
P
wobei die Koeffizienten ai ∈ R in der Darstellung f = i∈N ai T i jeweils
eindeutig bestimmt sind; man nennt ai den Koeffizienten von f zum
Grad i.
Wir werden von nun an für den gerade konstruierten Polynomring
stets die Notation
P R⌈⌊T ⌉⌋ verwenden und dessen Elemente als Polynome
der Form i∈N ai T i mit Koeffizienten ai ∈ R schreiben (wobei anstel-
le von T natürlich auch ein anderer Buchstabe zur Bezeichnung der
Variablen zugelassen ist). Dabei sei immer stillschweigend vorausge-
setzt, dass die Koeffizienten ai für fast alle Indizes i ∈ N verschwinden,
die vorstehende Summe also jeweils als endliche Summe Sinn macht.
216 5. Polynome

Addition und Multiplikation in R⌈⌊T ⌉⌋ beschreiben sich dann durch die


bekannten Formeln
X  X  X
i i
ai T + bi T = (ai + bi )T i ,
i∈N i∈N i∈N
X  X  X X 
i i
ai T · bi T = aµ bν · T i .
i∈N i∈N i∈N µ+ν=i
P
Ist für ein Polynom f = i∈N ai T i ∈ R⌈ P⌊T ⌉⌋ ein n ∈ N bekannt mit
ai = 0 für i > n, so können wir auch f = ni=0 ai T i schreiben. Gilt zu-
dem an 6= 0, so nennt man an den höchsten Koeffizienten von f , und es
wird n als Grad von f bezeichnet, n = grad f . Jedes nicht-triviale Po-
lynom f ∈ R⌈⌊T ⌉⌋ besitzt einen wohlbestimmten Grad. Darüber hinaus
trifft man die Konvention, dem Nullpolynom 0 den Grad −∞ zuzu-
ordnen.

Satz 2. Es sei R ein kommutativer Ring und R⌈⌊T ⌉⌋ der Polynomring


einer Variablen über R. Für f, g ∈ R⌈⌊T ⌉⌋ gilt dann
grad(f + g) ≤ max{grad f, grad g},
grad(f · g) ≤ grad f + grad g.
Ist R ein Integritätsring, so gilt sogar
grad(f · g) = grad f + grad g.

Beweis. Die Behauptung ist problemlos zu verifizieren, falls f oder g


das Nullpolynom ist. Wir dürfen daher f und g als nicht-trivialP
anneh-
men,Palso m = grad f ≥ 0 sowie n = grad g ≥ 0. Sei etwa f = ai T i ,
g = bi T i . Dann folgt ai = 0 für i > m und bi = 0 für i > n und
damit ai + bi = 0 für i > max{m, P n}, also grad(f + g) ≤ max{m, n}.
Auf ähnliche Weise sieht man µ+ν=i aµ bν = 0 für i > m + n, und dies
bedeutet grad(f · g) ≤ m + n. Insbesondere ist
X
am bn = aµ bν
µ+ν=m+n

der Koeffizient in f · g vom Grad m + n und damit der höchste Koeffi-


zient, falls er nicht verschwindet. Ist nun R ein Integritätsring, so gilt
am bn 6= 0 wegen am 6= 0 6= bn , und man erkennt grad(f ·g) = m+n. 
5.1 Ringe 217

Korollar 3. Ist R ein Integritätsring, so auch der Polynomring R⌈⌊T ⌉⌋.

Beweis. Seien f, g ∈ R⌈⌊T ⌋⌉ zwei nicht-triviale Polynome. Dann folgt


grad f ≥ 0, grad g ≥ 0 und somit grad(f · g) = grad f + grad g ≥ 0
unter Benutzung von Satz 2. Dies zeigt f · g 6= 0, d. h. R⌈⌊T ⌉⌋ ist ein
Integritätsring. 

Wir wollen im Weiteren spezielle Werte für die Variable T eines


Polynomrings R⌈⌊T ⌉⌋ einsetzen. Hierzu ist es von Nutzen, neben Homo-
morphismen von Ringen auch sogenannte Algebren und deren Homo-
morphismen zu betrachten.

Definition 4. Eine Abbildung ϕ : R ✲ R′ zwischen Ringen R, R′


heißt ein Homomorphismus, genauer ein Ringhomomorphismus, wenn
gilt:
(i) ϕ(a + b) = ϕ(a) + ϕ(b) für a, b ∈ R.
(ii) ϕ(a · b) = ϕ(a) · ϕ(b) für a, b ∈ R.
(iii) ϕ(1R ) = 1R′ , d. h. ϕ bildet das Einselement 1R ∈ R auf das
Einselement 1R′ ∈ R′ ab.

Wie bei Vektorraumhomomorphismen spricht man von einem Mo-


no-, Epi - bzw. Isomorphismus, wenn ϕ injektiv, surjektiv bzw. bijektiv
ist. Weiter wird ein Homomorphismus ϕ : R ✲ R auch als Endomor-
phismus von R bezeichnet, bzw. als Automorphismus, wenn dieser ein
Isomorphismus ist.

Definition 5. Es sei R ein kommutativer Ring. Eine R-Algebra be-


steht aus einem (nicht notwendig kommutativen) Ring A und einem
Ringhomomorphismus ϕ : R ✲ A, derart dass alle Elemente aus
ϕ(R) mit den Elementen aus A vertauschbar sind, also ϕ(r)a = aϕ(r)
für alle r ∈ R, a ∈ A gilt.

Häufig spricht man einfach von A als R-Algebra, ohne den Homo-
morphismus ϕ : R ✲ A explizit zu erwähnen. Entsprechend schreibt
man r · a anstelle von ϕ(r) · a für Elemente r ∈ R, a ∈ A, wobei der
definierende Homomorphismus R ✲ A dann durch r ✲ r · 1A
gegeben ist. Wenn dieser nicht injektiv ist, so darf man allerdings statt
218 5. Polynome

r · 1A keinesfalls wieder r schreiben, denn es ist dann nicht möglich, die


Elemente r ∈ R mit ihren Bildern r · 1A ∈ A zu identifizieren. Als Bei-
spiel merken wir an, dass R und der Polynomring R⌈⌊T ⌉⌋ auf kanonische
Weise R-Algebren sind, indem man die identische Abbildung R ✲ R
bzw. die Inklusionsabbildung R ⊂ ✲ R⌈⌊T ⌉⌋ betrachtet. Weiter definiert
für einen Vektorraum V über einem Körper K die Abbildung
K ✲ EndK (V ), α ✲ α · idV ,
den Endomorphismenring EndK (V ) als K-Algebra. Entsprechend ist
der Matrizenring K n×n für n ∈ N − {0} unter der Abbildung
K ✲ K n×n , α ✲ α · En ,
eine K-Algebra, wobei En die Einheitsmatrix in K n×n bezeichne.
Ist A eine R-Algebra, so kann man neben der Addition und Mul-
tiplikation des Ringes A auch noch die äußere Multiplikation
R×A ✲ A, (r, a) ✲ r · a,
mit Elementen aus R betrachten. Diese Multiplikation erfüllt Eigen-
schaften, wie sie etwa in 1.4/1 für die skalare Multiplikation eines Vek-
torraums gefordert werden. In der Tat wird A im Falle eines Körpers
K = R unter der äußeren Multiplikation zu einem K-Vektorraum,
wobei wir für EndK (V ) und K n×n jeweils die auch früher schon be-
trachteten K-Vektorraumstrukturen erhalten. Im Übrigen sei darauf
hingewiesen, dass die äußere Multiplikation mit der inneren Multipli-
kation auf A verträglich ist, d. h. es gilt
r · (a · b) = (r · a) · b = a · (r · b) für r ∈ R, a, b ∈ A.
Homomorphismen zwischen R-Algebren werden in natürlicher Wei-
se als Ringhomomorphismen erklärt, die zusätzlich die äußere Multi-
plikation mit R respektieren:

Definition 6. Es seien A, B Algebren über einem kommutativen Ring


R. Ein Homomorphismus von R-Algebren Φ : A ✲ B ist ein Ring-
homomorphismus, so dass Φ(ra) = rΦ(a) für alle r ∈ R, a ∈ A gilt.

Sind R ✲ A und R ✲ B die definierenden Homomorphis-


men der betrachteten R-Algebren, so ist ein Ringhomomorphismus
5.1 Ringe 219

Φ : A ✲ B genau dann ein Homomorphismus von R-Algebren, wenn


das Diagramm
Φ
A ✲ B

■ ✒


R
kommutiert.

Satz 7. Es sei R ein kommutativer Ring, R⌈⌊T ⌉⌋ der Polynomring einer


Variablen über R, sowie A eine beliebige R-Algebra. Zu jedem t ∈ A
gibt es dann einen eindeutig bestimmten R-Algebrahomomorphismus
Φ : R⌈⌊T ⌉⌋ ✲ A mit Φ(T ) = t. Dieser wird beschrieben durch
X X
ai T i ✲ ai ti
i∈N i∈N

oder, in suggestiver Schreibweise, durch

f ✲ f (t),

wobei dann insbesondere

(f + g)(t) = f (t) + g(t), (f · g)(t) = f (t) · g(t)

für f, g ∈ R⌈⌊T ⌉⌋ gilt. Man nennt Φ auch den Einsetzungshomomor-


phismus, der t anstelle von T einsetzt.

Beweis. P
Ist Φ ein R-Algebrahomomorphismus der geforderten Art, so
gilt für i∈N ai T i ∈ R⌈⌊T ⌉⌋
X  X X X
i
Φ ai T = Φ(ai T i ) = ai Φ(T )i = ai ti .
i∈N i∈N i∈N i∈N

Dies zeigt die Eindeutigkeit von Φ. Um auch die Existenz nachzuweisen,


erkläre man Φ durch
X  X
i
Φ ai T = ai ti .
i∈N i∈N
220 5. Polynome

Man sieht dann unmittelbar, dass Φ ein R-Algebrahomomorphismus


ist. Beispielsweise ergibt sich die Verträglichkeit von Φ mit der Multi-
plikation aufgrund folgender Rechnung:
X X  X X   X X 
i i i
Φ ai T · bi T = Φ aµ bν ·T = aµ bν ·ti
i∈N i∈N i∈N µ+ν=i i∈N µ+ν=i
X X X  X 
µ ν i i
= (aµ t )·(bν t ) = ai t · bi t
i∈N µ+ν=i i∈N i∈N
X  X 
=Φ ai T i ·Φ bi T i
i∈N i∈N

Man beachte dabei, dass wir die Vertauschbarkeit von t mit den (Bil-
dern der) Koeffizienten bi in A benutzt haben. 

Betrachten wir beispielsweise zu einem K-Vektorraum V dessen


Endomorphismenring A = EndK (V ) als K-Algebra, so können wir für
jeden Endomorphismus τ : V ✲ V den K-Algebrahomomorphismus
X X
Φτ : K⌈⌊T ⌉⌋ ✲ EndK (V ), ai T i ✲ ai τ i ,
i∈N i∈N

bilden, der τ anstelle von T einsetzt. Dabei ist τ i natürlich erklärt als
i-fache Komposition
P τ ◦ . . . ◦ τ von τ mit sich selber, und das Bild eines
Polynoms i∈N ai T ∈ K⌈⌊T ⌉⌋ unter Φτ ergibt sich als Endomorphismus
i

X X
ai τ i : V ✲ V, v ✲ ai τ i (v).
i∈N i∈N

Wir werden den Homomorphismus Φτ insbesondere zur Definition


des sogenannten Minimalpolynoms von τ verwenden; vgl. 6.2/9 und
6.2/10. Anstelle des Endomorphismenrings eines Vektorraums kann
man natürlich auch den Matrizenring K n×n betrachten. Zu jeder Ma-
trix C ∈ K n×n erhält man dann einen K-Algebrahomomorphismus
X X
ΦC : K⌈⌊T ⌉⌋ ✲ K n×n , ai T i ✲ ai C i ,
i∈N i∈N

der C anstelle von T einsetzt.


5.1 Ringe 221

Wir wollen ein weiteres Beispiel betrachten. Es sei K ein Körper


und Abb(K, K) die Menge aller Abbildungen K ✲ K oder, mit an-
deren Worten, die Menge aller K-wertigen Funktionen auf K. Zu jedem
Polynom f ∈ K⌈⌊T ⌉⌋ lässt sich dann die zugehörige Polynomfunktion
t ✲ f (t) als Element von Abb(K, K) betrachten. Diese ordnet einem
Element t ∈ K den Wert f (t) ∈ K zu, den man erhält, indem man t
anstelle von T in f einsetzt. Auf diese Weise ergibt sich eine Abbildung

Ψ : K⌈⌊T ⌉⌋ ✲ Abb(K, K), f ✲ t ✲ f (t) ,

die wir im Folgenden als Homomorphismus von K-Algebren deuten


wollen. Um A = Abb(K, K) als K-Algebra zu erklären, betrachten wir
die gewöhnliche Addition und Multiplikation K-wertiger Funktionen,
gegeben durch

p + q: K ✲ K, t ✲ p(t) + q(t),
p · q: K ✲ K, t ✲ p(t) · q(t).

Mit diesen Verknüpfungen ist A ein kommutativer Ring, in dem die


Nullfunktion 0 das Nullelement und die Funktion 1A , die identisch 1
ist, das Einselement bilden. Für α ∈ K kann man weiter das α-fache
eines Elementes p ∈ A durch

α · p: K ✲ K, t ✲ α · p(t) ,

erklären. In diesem Sinne ist dann

K ✲ A, α ✲ α · 1A ,

ein Ringhomomorphismus, der A zu einer K-Algebra macht. Mit Satz 7


folgt leicht, dass die Abbildung Ψ , die einem Polynom f ∈ K⌈⌊T ⌉⌋ die
zugehörige Polynomfunktion t ✲ f (t) zuordnet, tatsächlich ein Ho-
momorphismus von K-Algebren ist. Gleiches gilt, wenn man allgemei-
ner anstelle von K einen kommutativen Ring R zugrunde legt. Die
Homomorphie-Eigenschaft für Ψ besagt insbesondere, dass man mit
dem Element T in gleicher Weise rechnet, wie man es mit konkreten
Werten t anstelle von T tun würde. Dies rechtfertigt die Bezeichnung
von T als “Variable”.
Enthält der Körper K unendlich viele Elemente, so ist die Abbil-
dung Ψ injektiv, wie wir später aus 5.3/2 ablesen können. Man könnte
222 5. Polynome

dann Polynome aus K⌈⌊T ⌉⌋ mit ihren zugehörigen Polynomfunktionen


K ✲ K identifizieren. Für einen endlichen Körper K = {α1 , . . . , αq }
jedoch ist beispielsweise

f = (T − α1 ) . . . (T − αq ) ∈ K⌈⌊T ⌉⌋

ein nicht-triviales Polynom, das als Polynomfunktion K ✲ K iden-


tisch verschwindet, so dass also Ψ (f ) = 0 gilt. Die Abbildung Ψ ist
daher im Allgemeinen nicht injektiv, und dies ist einer der Gründe
dafür, dass wir Polynome nicht als konkrete Funktionen, sondern als
formale Ausdrücke unter Zuhilfenahme einer “Variablen” erklärt haben.

Wir wollen nun noch Ideale und Unterringe von Ringen einfüh-
ren, Begriffe, die im Zusammenhang mit Ringhomomorphismen von
Bedeutung sind.

Definition 8. Es sei R ein Ring (mit Eins). Ein Unterring von R


besteht aus einer Teilmenge S ⊂ R, derart dass gilt:
(i) a, b ∈ S =⇒ a − b, a · b ∈ S.
(ii) 1 ∈ S.

S ist dann mit den von R induzierten Verknüpfungen selbst wieder


ein Ring, und die Inklusionsabbildung S ⊂ ✲ R ist ein Ringhomomor-
phismus. Man überlegt sich leicht, dass das Bild ϕ(R) eines Ringho-
momorphismus ϕ : R ✲ R′ stets ein Unterring von R′ ist.

Definition 9. Es sei R ein Ring. Eine Teilmenge a ⊂ R heißt Ideal,


falls gilt:
(i) a ist additive Untergruppe von R, d. h. man hat a 6= ∅, und aus
a, b ∈ a folgt a − b ∈ a.
(ii) Aus a ∈ a, r ∈ R folgt ra, ar ∈ a.

Man rechnet leicht nach, dass für jeden Ringhomomorphismus


ϕ : R ✲ R′ dessen Kern

ker ϕ = a ∈ R ; ϕ(a) = 0

ein Ideal ist, wobei ϕ genau dann injektiv ist, wenn ker ϕ mit dem
Nullideal übereinstimmt, d. h. nur aus dem Nullelement besteht. Ist R
5.1 Ringe 223

ein beliebiger Ring, so kann man zu einem Element a ∈ R, welches mit


allen übrigen Elementen von R vertauschbar ist, das hiervon erzeugte
Hauptideal 
(a) = Ra = ra ; r ∈ R
bilden. Speziell besteht für R = Z das Ideal (2) aus allen geraden
Zahlen, das Ideal (12) aus allen durch 12 teilbaren Zahlen. In jedem
Ring gibt es die sogenannten trivialen Ideale, nämlich das Einheitsideal
(1) = R sowie das Nullideal (0), welches man meist mit 0 bezeichnet.
Ein Körper besitzt außer den trivialen keine weiteren Ideale. Umge-
kehrt kann man zeigen, dass ein kommutativer Ring, der genau zwei
Ideale hat, ein Körper ist.
Ist a ein Ideal eines Ringes R, so kann man ähnlich wie in Ab-
schnitt 2.2 den Quotienten- oder Restklassenring R/a konstruieren.
Da man auf diese Weise interessante Ringe und sogar Körper erhalten
kann, wollen wir die Konstruktion hier kurz besprechen. Man erklärt
eine Relation “ ∼ ” auf R, indem man für a, b ∈ R setzt:

a ∼ b ⇐⇒ a − b ∈ a

Man sieht dann ohne Probleme, dass “ ∼ ” eine Äquivalenzrelation


ist. Für a ∈ R hat man a ∼ a wegen a − a = 0 ∈ a. Die Relation
ist daher reflexiv. Gilt weiter a ∼ b, so folgt a − b ∈ a und damit
auch b − a = −(a − b) ∈ a. Letzteres bedeutet b ∼ a, und es folgt
die Symmetrie von “ ∼ ”. Zum Nachweis der Transitivität schließlich
nehme man a ∼ b und b ∼ c für Elemente a, b, c ∈ R an. Dann gilt
a − b, b − c ∈ a, und man erhält

a − c = (a − b) + (b − c) ∈ a,

d. h. a ∼ c. Es ist “ ∼ ” also eine Äquivalenzrelation, und wir können


zu einem Element a ∈ R die zugehörige Äquivalenzklasse

⌈⌊a⌉⌋ := {b ∈ R ; b ∼ a} = a + a

bilden, wobei a + a als Nebenklasse von a bezüglich a, also als Menge


aller Summen des Typs a + a′ mit a′ ∈ a zu interpretieren ist. Gemäß
2.2/4 sind zwei Äquivalenzklassen ⌈⌊a⌉⌋, ⌈⌊b⌉⌋ entweder disjunkt oder aber
identisch (im Falle a ∼ b). Insbesondere ist R die disjunkte Vereinigung
aller Äquivalenzklassen.
224 5. Polynome

Man bezeichne nun die Menge aller Nebenklassen bezüglich a mit


R/a. Um R/a zu einem Ring zu machen, werden folgende Verknüpfun-
gen erklärt:

⌈⌊a⌉⌋ + ⌈⌊b⌉⌋ = ⌈⌊a + b⌉⌋, ⌈⌊a⌉⌋ · ⌈⌊b⌉⌋ = ⌈⌊a · b⌉⌋

Dabei ist zu verifizieren, dass die Klasse ⌈⌊a + b⌉⌋ bzw. ⌈⌊a · b⌉⌋ nicht
von der Wahl der Repräsentanten a und b der betrachteten Klassen
⌈⌊a⌉⌋, ⌈⌊b⌉⌋ abhängt. Gelte etwa ⌈⌊a⌉⌋ = ⌈⌊a′ ⌉⌋ und ⌈⌊b⌉⌋ = ⌈⌊b′ ⌉⌋. Dann folgt
a − a′ , b − b′ ∈ a und damit

(a + b) − (a′ + b′ ) ∈ a, ab − a′ b′ = a(b − b′ ) + (a − a′ )b′ ∈ a,

also a + b ∼ a′ + b′ und ab ∼ a′ b′ . Addition und Multiplikation in


R/a sind daher wohldefiniert, und man sieht unmittelbar aufgrund der
Ringeigenschaften von R, dass auch R/a ein Ring ist, und zwar derart,
dass die Abbildung

π: R ✲ R/a, a ✲ ⌈⌊a⌉⌋,

ein surjektiver Ringhomomorphismus mit Kern a ist. Man bezeichnet


R/a als Restklassen- oder Quotientenring von R modulo a. Ähnlich
wie in 2.2/8 gilt folgender Homomorphiesatz:

Satz 10. (Homomorphiesatz für Ringe). Es sei ϕ : R ✲ R′ ein Ring-


homomorphismus, a ⊂ R ein Ideal mit a ⊂ ker ϕ und π : R ✲ R/a
die natürliche Projektion. Dann existiert ein eindeutig bestimmter
Ringhomomorphismus ϕ : R/a ✲ R′ , so dass das Diagramm
ϕ
R ✲ R′
❅ ✒
π❅ ϕ


R/a

kommutiert. Dabei ist ϕ genau dann injektiv, wenn a = ker ϕ gilt und
genau dann surjektiv, wenn ϕ surjektiv ist.

Beweis. Da man die Argumentation aus 2.2/8 mutatis mutandis über-


nehmen kann, wollen wir uns hier kurz fassen und nur auf die Definition
5.1 Ringe 225

von ϕ eingehen. Um ϕ(a) für ein Element a ∈ R/a zu erklären, wähle


man ein π-Urbild a ∈ R und setze ϕ(a) = ϕ(a). Dabei ist natürlich
zu verifizieren, dass das Element ϕ(a) unabhängig von der Wahl des
π-Urbildes a zu a ist. Letzteres folgt aus der Bedingung a ⊂ ker ϕ. 

Aufgaben
R sei stets ein kommutativer Ring.
1. Es sei t ∈ R und Φ : R⌈⌊T ⌉⌋ ✲ R, f ✲ f (t), derjenige Homomor-
phismus, der t anstelle der Variablen T einsetzt. Man zeige (AT 440):

ker Φ = R⌈⌊T ⌉⌋ · (T − t)

(Hinweis: Man reduziere auf den Fall t = 0, indem man den Einset-
zungshomomorphismus R⌈⌊T ⌉⌋ ✲ R⌈⌊T ⌉⌋ betrachtet, der T durch T + t
ersetzt.)
2. Es sei V ein nicht-trivialer Vektorraum über einem Körper K. Zu einem
Endomorphismus ϕ ∈ EndK (V ) betrachte man den Einsetzungshomo-
morphismus Φ : K⌈⌊T ⌉⌋ ✲ EndK (V ), der ϕ anstelle von T einsetzt.
Man bestimme ker Φ in den Fällen ϕ = id und ϕ = 0. (AT 442)
3. Es bezeichne RN die Menge aller Folgen (ai )i∈N von Elementen ai ∈ R.
(i) Man verwende die gleichen Formeln wie im Falle des Polynomrings
einer Variablen über R, um anstelle von R(N) auf RN die Struktur
eines Ringes zu erklären. Dieser Ring wird mit R⌈⌊⌈⌊T ⌋⌉⌋⌉ bezeichnet
und heißt Ring der formalen Potenzreihen einer Variablen P∞ überi
R. Seine Elemente lassen sich als unendliche Reihen i=0 ai T
darstellen.
P
(ii) Es sei q ∈ R⌈⌊⌈⌊T ⌉⌋⌉⌋ · T . Man zeige, dass ∞ n
n=0 q zu einem wohlde-
finierten Element f ∈ R⌈⌊⌈⌊T ⌉⌋⌉⌋ Anlass gibt und dass f · (1 − q) = 1
gilt.
(iii) Man bestimme die Gruppe aller Einheiten in R⌈⌊⌈⌊T ⌉⌋⌋⌉.
4. Es seien a, b ⊂ R Ideale. Man zeige, dass die folgenden Teilmengen von
R wiederum Ideale bilden:
(i) a + b = {a + b ; a ∈ a, b ∈ b}
(ii) a · b = Menge aller endlichen Summen von Produkten a · b mit
a ∈ a und b ∈ b
(iii) a ∩ b
226 5. Polynome

5. Man zeige, dass R genau dann ein Körper ist, wenn R genau zwei ver-
schiedene Ideale besitzt.
6. Für ein Ideal a ⊂ R zeige man, dass die Menge aller Elemente a ∈ R,
zu denen es ein n ∈ N mit an ∈ a gibt, ebenfalls wieder ein Ideal in R
bildet. Dieses wird mit rad a bezeichnet und heißt das Nilradikal von a.
(AT 443)
7. Für eine Familie (ai )i∈I von Elementen in R zeige man:
(i) Es existiert ein kleinstes Ideal a ⊂ R mit ai ∈ a für alle i ∈ I.
P
(ii) Es gilt a = { i∈I ri ai ; ri ∈ R, ri = 0 für fast alle i ∈ I}.
Man nennt a das von den Elementen ai , i ∈ I, in R erzeugte Ideal.
8. (Isomorphiesatz ) Es seien a ⊂ b ⊂ R Ideale. Man zeige:

(i) Die kanonische Abbildung b ⊂ ✲ R ✲ R/a besitzt a als Kern


und induziert eine Injektion b/a ⊂ ✲ R/a, wobei man b/a zu-
nächst als Menge der Restklassen b + a mit b ∈ b erkläre. Weiter
lässt sich b/a mit seinem Bild in R/a identifizieren und als Ideal
in R/a auffassen.
(ii) Die Projektion R ✲ R/b faktorisiert über R/a, d. h. lässt sich
π✲ f✲
als Komposition R R/a R/b schreiben, mit einem
Ringhomomorphismus f und der kanonischen Projektion π.
(iii) f besitzt b/a als Kern und induziert einen Isomorphismus

(R/a)/(b/a) ∼✲ R/b.

5.2 Teilbarkeit in Integritätsringen

In diesem Abschnitt seien alle Ringe als Integritätsringe und damit


insbesondere als kommutativ vorausgesetzt. Im Wesentlichen interes-
sieren wir uns für den Polynomring K⌈⌊T ⌉⌋ in einer Variablen T über
einem Körper K, für den wir Teilbarkeits- und Faktorisierungsaussagen
herleiten wollen. Als Ring mit ganz analogen Eigenschaften soll aber
auch der Ring Z der ganzen Zahlen betrachtet werden. Grundlegend
ist in beiden Ringen das Verfahren der Division mit Rest, welches wir
insbesondere benutzen wollen, um den Satz über die eindeutige Prim-
faktorzerlegung in Polynomringen herzuleiten. Zunächst erinnern wir
5.2 Teilbarkeit in Integritätsringen 227

an dieses Verfahren, wobei wir davon ausgehen, dass die Division mit
Rest im Ring Z der ganzen Zahlen wohlbekannt ist.

Satz 1. Zu a, b ∈ Z mit b > 0 existieren eindeutig bestimmte Zahlen


q, r ∈ Z mit
a = qb + r, 0 ≤ r < b.

Satz 2. Zu Polynomen f, g ∈ K⌈⌊T ⌉⌋, g 6= 0, mit Koeffizienten aus


einem Körper K existieren eindeutig bestimmte Polynome q, r ∈ K⌈⌊T ⌉⌋
mit
f = qg + r, grad r < grad g.

Beweis zu Satz 2. Wir beginnen mit der Existenzaussage. Im Falle


grad f < grad g gilt die gewünschte Zerlegung trivialerweise mit q = 0
und r = f . Hat man andererseits

m = grad f ≥ grad g = n,

so sei a (bzw. b) der höchste Koeffizient von f (bzw. g), und man setze
a
q1 := · T m−n , f1 := f − q1 g.
b
Dann gilt

grad(q1 g) = grad q1 + grad g = (m − n) + n = m = grad f

nach 5.1/2, und die höchsten Koeffizienten von q1 g und f stimmen


überein. Insbesondere gibt es ein Polynom f1 ∈ K⌈⌊T ⌉⌋ mit

f = q1 g + f1 , grad f1 < grad f.

Im Falle grad f1 < grad g erhält man die gewünschte Zerlegung mit
q = q1 und r = f1 . Falls aber grad f1 ≥ grad g gilt, so kann man nach
dem gerade beschriebenen Verfahren fortfahren und eine Zerlegung

f1 = q2 g + f2 , grad f2 < grad f1 ,

finden usw. Nach endlich vielen Schritten gelangt man schließlich zu


einer Zerlegung
fk−1 = qk g + fk
228 5. Polynome

mit grad fk < grad g. Dann ist

f = (q1 + . . . + qk )g + fk

die gewünschte Zerlegung von f .


Um nun auch die Eindeutigkeitsaussage herzuleiten, betrachte man
Zerlegungen
f = qg + r = q ′ g + r′
mit grad r, grad r′ < grad g. Sodann hat man

0 = (q − q ′ )g + (r − r′ ) bzw. (q − q ′ )g = r′ − r.

Gilt nun q − q ′ 6= 0, so folgt grad(q − q ′ ) ≥ 0 und damit gemäß 5.1/2



grad (q − q ′ )g = grad(q − q ′ ) + grad g ≥ grad g.

Andererseits hat man aber


grad(r′ − r) ≤ max{grad r′ , grad r} < grad g,
was der vorhergehenden Abschätzung widerspricht. Also folgt q = q ′
und damit r = r′ . 

Ringe, in denen eine Division wie in den Sätzen 1 oder 2 möglich


ist, werden als euklidische Ringe bezeichnet, genauer:

Definition 3. Ein Integritätsring R heißt ein euklidischer Ring, wenn


es eine Abbildung δ : R − {0} ✲ N (eine sogenannte Gradfunktion)
mit folgender Eigenschaft gibt: Zu a, b ∈ R, b 6= 0, existieren jeweils
(nicht notwendig eindeutig bestimmte) Elemente q, r ∈ R mit
a = qb + r,
wobei r = 0 oder δ(r) < δ(b) gilt.

Wir können daher feststellen:

Korollar 4. Der Ring Z der ganzen Zahlen und der Polynomring


K⌈⌊T ⌉⌋ über einem Körper K sind euklidische Ringe. Als Gradfunktion
nehme man im ersten Fall den Absolutbetrag, im zweiten den gewöhn-
lichen Grad von Polynomen.
5.2 Teilbarkeit in Integritätsringen 229

Definition 5. Ein Integritätsring R heißt Hauptidealring, wenn jedes


Ideal a ⊂ R ein Hauptideal ist, also die Gestalt a = (a) mit einem
Element a ∈ R besitzt.

Satz 6. Es sei R ein euklidischer Ring. Dann ist R auch ein Haupt-
idealring.

Beweis. Es sei a ⊂ R ein Ideal. Um zu zeigen, dass a ein Hauptideal


ist, dürfen wir a 6= 0 annehmen, denn anderenfalls gilt a = 0 = (0). Sei
nun a ∈ a − {0} ein Element, für das δ(a) minimal ist, wobei δ eine
Gradfunktion von R bezeichne. Wir behaupten, dass dann a = (a) gilt.
Natürlich gilt (a) ⊂ a. Um auch die umgekehrte Inklusion zu zeigen,
wählen wir ein Element a′ ∈ a. Da R euklidisch unter δ ist, gibt es
Elemente q, r ∈ R mit a′ = qa + r, wobei r entweder verschwindet
oder δ(r) < δ(a) erfüllt. Nun hat man aber r = a′ − qa ∈ a, so dass
aufgrund der Wahl von a notwendig r = 0 und damit a′ = qa ∈ (a)
folgt. Es gilt daher a ⊂ (a), insgesamt also a = (a), und R ist ein
Hauptidealring. 

Korollar 7. Der Ring Z der ganzen Zahlen und der Polynomring


K⌈⌊T ⌉⌋ über einem Körper K sind Hauptidealringe.

Wir wollen als Nächstes den Teilbarkeitsbegriff in Integritätsringen


einführen.

Definition 8. Es seien a, b Elemente eines Integritätsrings R.


(i) Man sagt, a teile b oder a sei ein Teiler von b, in Zeichen a | b,
wenn es ein c ∈ R mit ac = b gibt. Ist a kein Teiler von b, so schreibt
man a ∤ b.
(ii) a und b heißen assoziiert, wenn es eine Einheit e ∈ R∗ mit
ae = b gibt.

Es ist also a genau dann ein Teiler von b, wenn b ∈ (a) bzw.
(b) ⊂ (a) gilt. Beispielsweise teilt T + 1 das Polynom T 2 − 1 in K⌈⌊T ⌉⌋,
und man hat a | b sowie b | a, falls a und b assoziiert sind. Genauer kann
man feststellen:
230 5. Polynome

Bemerkung 9. Für Elemente a, b eines Integritätsrings R ist äquiva-


lent:
(i) a | b und b | a.
(ii) (a) = (b).
(iii) a und b sind assoziiert.

Beweis. Wir zeigen lediglich, dass aus (ii) Bedingung (iii) folgt, alle
anderen Implikationen ergeben sich mittels direkter Verifikation aus
Definition 8. Gelte also (a) = (b). Dann gibt es Elemente c, d ∈ R mit
ac = b und a = bd. Hieraus folgt a = bd = acd, also a · (1 − cd) = 0.
Gilt nun a 6= 0, so folgt cd = 1, da R ein Integritätsring ist, und es sind
c, d Einheiten in R. Folglich sind a und b assoziiert. Gleiches gilt aber
auch im Falle a = 0, denn man hat dann insbesondere b = ac = 0. 

Definition 10. Es sei R ein Integritätsring und p ∈ R ein Element,


welches keine Einheit und von Null verschieden ist.
(i) p heißt irreduzibel, wenn aus einer Faktorisierung p = ab mit
a, b ∈ R stets folgt, dass a oder b eine Einheit in R ist. Anderenfalls
nennt man p reduzibel.
(ii) p heißt Primelement, wenn aus p | ab mit a, b ∈ R stets p | a
oder p | b folgt oder, in äquivalenter Formulierung, wenn aus ab ∈ (p)
stets a ∈ (p) oder b ∈ (p) folgt.

Es ist also p genau dann irreduzibel, wenn aus einer Relation


p ∈ (a) mit a ∈ R entweder (a) = (p) oder (a) = R folgt. Weiter
sieht man mit Induktion, dass ein Primelement p ∈ R genau dann
ein Produkt a1 · . . . · ar von Elementen aus R teilt, wenn es einen der
Faktoren ai teilt.

Bemerkung 11. Es sei R ein Integritätsring. Dann ist jedes Prim-


element von R auch irreduzibel.

Beweis. Sei p ∈ R ein Primelement und seien a, b ∈ R mit p = ab.


Dann teilt p das Produkt ab, und es folgt, dass p einen der beiden
Faktoren teilt, etwa p | a, d. h. es gibt eine Gleichung a = pc mit c ∈ R.
Setzt man dies in die Gleichung p = ab ein, so erhält man p = pcb bzw.
p(1 − cb) = 0. Da R ein Integritätsring und p von Null verschieden ist,
5.2 Teilbarkeit in Integritätsringen 231

folgt hieraus cb = 1, d. h. b ist eine Einheit. Mithin ist p irreduzibel.


Alternativ hätten wir auch die Beziehungen a | p (wegen p = ab) und
p | a verwenden können. Mit Bemerkung 9 folgt hieraus, dass a und p
assoziiert sind. 

Wir werden sogleich zeigen, dass in Hauptidealringen auch die Um-


kehrung von Bemerkung 11 gilt. Insbesondere dürfen wir dann Prim-
zahlen in Z, die ja gemeinhin als irreduzible Elemente definiert werden,
auch als Primelemente bezeichnen.

Satz 12. Es sei R ein Hauptidealring und p ∈ R von 0 verschieden


und keine Einheit. Dann ist äquivalent:
(i) p ist irreduzibel.
(ii) p ist ein Primelement.

Beweis. Wir haben nur noch die Implikation (i) =⇒ (ii) zu zeigen. Sei
also p ∈ R ein irreduzibles Element, und gelte p | ab sowie p ∤ a für zwei
Elemente a, b ∈ R. Um p | b zu zeigen, betrachte man

Ra + Rp := ra + sp ; r, s ∈ R
als Ideal in R, wobei die definierenden Eigenschaften eines Ideals leicht
zu verifizieren sind; vgl. hierzu auch Aufgabe 7 aus Abschnitt 5.1. Auf-
grund unserer Voraussetzung über R ist Ra + Rp ein Hauptideal, etwa
Ra + Rp = Rd. Insbesondere gilt a, p ∈ Rd und folglich d | a, d | p.
Nun ist p aber irreduzibel. Daher folgt aus d | p bzw. einer Gleichung
p = cd, dass c oder d eine Einheit ist. Ist nun c eine Einheit, so können
wir d = c−1 p schreiben, und man erhält p | a aus d | a, im Widerspruch
zu p ∤ a. Somit bleibt nur der Fall übrig, dass d eine Einheit ist, d. h.
es gilt Ra + Rp = R und, nach Multiplikation mit b, die Gleichung
Rab + Rpb = Rb. Es existieren also r, s ∈ R mit rab + spb = b. Wegen
p | ab folgt hieraus wie gewünscht p | b. 

Korollar 13. In einem Hauptidealring R lässt sich jedes Element


a ∈ R −{0}, welches keine Einheit ist, als endliches Produkt von Prim-
elementen schreiben.

Beweis. Da jedes irreduzible Element von R bereits prim ist, genügt


es, eine Faktorisierung in irreduzible Elemente zu konstruieren. Sei also
232 5. Polynome

a ∈ R − {0} eine Nichteinheit. Wir gehen indirekt vor und nehmen an,
dass sich a nicht als endliches Produkt irreduzibler Elemente schreiben
lässt. Dann ist a reduzibel, und man kann a folglich als Produkt a1 a′1
zweier Nichteinheiten aus R schreiben. Da a keine endliche Faktorisie-
rung in irreduzible Elemente besitzt, gilt dasselbe für mindestens einen
der beiden Faktoren a1 , a′1 , etwa für a1 , und wir können a1 wiederum
als Produkt a2 a′2 zweier Nichteinheiten aus R schreiben. Fährt man
auf diese Weise fort, so erhält man eine Folge von Elementen

a = a0 , a1 , a2 , . . . ∈ R,

so dass ai+1 jeweils ein Teiler von ai , aber nicht assoziiert zu ai ist. Mit
anderen Worten, man erhält eine aufsteigende Folge von Idealen

(a) = (a0 ) ( (a1 ) ( (a2 ) ( . . . ,

wobei es sich hier gemäß Bemerkung 9 jeweils um echte Inklusionen


handelt. Man prüft nun leicht nach, dass die Vereinigung einer aufstei-
genden Folge S∞von Idealen wiederum ein Ideal ergibt. Wir können also
durch b = i=0 (ai ) ein Ideal in R definieren, und zwar ein Hauptideal,
da R ein Hauptidealring ist. Folglich existiert ein Element b ∈ b mit
b = (b). Nach Definition von b gibt es dann einen Index i0 ∈ N mit
b ∈ (ai0 ), und es folgt

b = (b) ⊂ (ai0 ) ⊂ (ai ) ⊂ b

für i ≥ i0 , also (ai0 ) = (ai ) für i ≥ i0 , im Widerspruch dazu, dass die


Kette der Ideale (ai ) echt aufsteigend ist. 

Als Nächstes wollen wir zeigen, dass Faktorisierungen in Primele-


mente im Wesentlichen eindeutig sind.

Lemma 14. In einem Integritätsring R habe man die Gleichung

p1 · . . . · pr = q 1 · . . . · q s

für Primelemente p1 , . . . , pr und irreduzible Elemente q1 , . . . , qs in R.


Dann gilt r = s, und nach Umnummerierung der q1 , . . . , qs existieren
Einheiten ε1 , . . . , εr ∈ R∗ mit qi = εi pi für i = 1, . . . , r, d. h. pi ist
jeweils assoziiert zu qi .
5.2 Teilbarkeit in Integritätsringen 233

Beweis. Aus p1 · . . . · pr = q1 · . . . · qs folgt insbesondere p1 | q1 · . . . · qs . Da


p1 ein Primelement ist, gibt es ein i mit p1 | qi , und wir können durch
Umnummerierung der q1 , . . . , qs annehmen, dass i = 1 und somit p1 | q1
gilt. Man hat also eine Gleichung q1 = ε1 p1 , wobei ε1 aufgrund der Irre-
duzibilität von q1 eine Einheit ist. Da wir uns in einem Integritätsring
befinden, ergibt sich hieraus

p2 · . . . · pr = ε1 q2 · . . . · qs .

In gleicher Weise zeigt man nun, dass p2 zu einem der Elemente


q2 , . . . , qs assoziiert ist usw. Man kann also q1 , . . . , qs so umnummerie-
ren, dass pi für i = 1, . . . , r jeweils zu qi assoziiert ist. Insbesondere folgt
r ≤ s. Nach “Auskürzen” aller pi aus der Gleichung p1 ·. . .·pr = q1 ·. . .·qs
verbleibt eine Gleichung des Typs

1 = qr+1 · . . . · qs ,

welche zeigt, dass das System der qr+1 , . . . , qs aus Einheiten besteht.
Da alle qi zugleich irreduzibel sind, also keine Einheiten sein können,
ist das System leer, und es gilt folglich r = s. 

Man sagt, in einem Integritätsring R gelte der Satz von der eindeu-
tigen Primfaktorzerlegung, oder auch R sei faktoriell, wenn sich jede
Nichteinheit a ∈ R − {0} als Produkt von Primelementen in R schrei-
ben lässt. Gemäß Lemma 14 ist eine solche Faktorisierung von a (im
Wesentlichen) eindeutig. Benutzen wir weiter, dass jedes Primelement
aufgrund von Bemerkung 11 irreduzibel ist, so kann man mit Lemma 14
schließen, dass sich in einem faktoriellen Ring jede von Null verschie-
dene Nichteinheit auf (im Wesentlichen) eindeutige Weise als Produkt
irreduzibler Elemente schreiben lässt. Man kann darüber hinaus zei-
gen, dass umgekehrt die letztere Eigenschaft in einem Integritätsring
dessen Faktorialität impliziert. Wir wollen jedoch auf Beweise nicht
weiter eingehen, sondern nur noch Korollar 13 in neuer Sprechweise
formulieren.

Satz 15. Jeder Hauptidealring ist faktoriell, insbesondere also der Ring
Z der ganzen Zahlen sowie der Polynomring K⌈⌊T ⌉⌋ einer Variablen T
über einem Körper K.
234 5. Polynome

Man kann Primfaktorzerlegungen in einem faktoriellen Ring R wei-


ter standardisieren, indem man in jeder Klasse assoziierter Primele-
mente eines auswählt und damit ein Repräsentantensystem P ⊂ R aller
Primelemente betrachtet. Man kann dann annehmen, dass in Primfak-
torzerlegungen, abgesehen von Einheiten, nur die Primelemente p ∈ P
vorkommen, und man kann darüber hinaus gleiche Primfaktoren zu
Potenzen zusammenfassen. Es besitzt dann jedes Element a ∈ R − {0}
eine Primfaktorzerlegung der Form
Y
a=ε pµp (a)
p∈P

mit einer Einheit ε ∈ R∗ und Exponenten µp (a) ∈ N, die für fast alle
p ∈ P trivial sind. Die Eindeutigkeit der Primfaktorzerlegung besagt
dann, dass ε und die µp (a) jeweils eindeutig durch a bestimmt sind. Im
Übrigen sieht man unmittelbar ein, dass für Elemente a, b ∈ R−{0} die
Teilbarkeitsbedingung a | b genau dann erfüllt ist, wenn µp (a) ≤ µp (b)
für alle p ∈ P gilt.
In Z gibt es nur die Einheiten 1 und −1, und es ist üblich, P als
das System aller positiven Primelemente zu definieren. Im Polynom-
ring K⌈⌊T ⌉⌋ über einem Körper K dagegen besteht die Einheitengruppe
aufgrund von 5.1/2 aus allen nicht-trivialen konstanten Polynomen,
stimmt also mit der Einheitengruppe K ∗ von K überein. Daher gibt
es zu jedem Primpolynom genau ein assoziiertes Primpolynom, wel-
ches normiert ist, d. h. 1 als höchsten Koeffizienten besitzt, und man
definiert P als das System aller normierten Primpolynome.
Wie gewöhnlich lässt sich für zwei von Null verschiedene Elemente
a, b ∈ R mit Primfaktorzerlegung
Y Y
a=ε pµp (a) , b=δ pµp (b)
p∈P p∈P

der größte gemeinsame Teiler


Y
ggT(a, b) = pmin (µp (a),µp (b))
p∈P

erklären. Dies ist ein gemeinsamer Teiler d von a und b mit der cha-
rakterisierenden Eigenschaft, dass aus t | a und t | b stets t | d folgt.
5.2 Teilbarkeit in Integritätsringen 235

Entsprechend kann man zu a und b das kleinste gemeinsame Viel-


fache
Y
kgV(a, b) = pmax (µp (a),µp (b))
p∈P

betrachten. Dies ist ein gemeinsames Vielfaches v von a und b, so dass


jedes weitere gemeinsame Vielfache von a und b auch ein Vielfaches von
v ist. Man beachte jedoch, dass die Elemente ggT(a, b) und kgV(a, b)
nur bis auf Einheiten wohldefiniert sind, da sie außer von a und b noch
von der speziellen Wahl von P abhängen.
In Hauptidealringen lässt sich der größte gemeinsame Teiler zweier
Elemente a, b ∈ R idealtheoretisch charakterisieren, was vielfach von
Nutzen ist. Hierzu betrachtet man

Ra + Rb := ra + sb ; r, s ∈ R

als Ideal in R, also das gemäß Aufgabe 7 aus Abschnitt 5.1 von a und
b in R erzeugte Ideal.

Satz 16. Es seien a, b zwei von Null verschiedene Elemente eines


Hauptidealrings R. Für den größten gemeinsamen Teiler d = ggT(a, b)
gilt dann
Ra + Rb = Rd.

Insbesondere gibt es eine Gleichung ra+sb = d mit Elementen r, s ∈ R,


die notwendig teilerfremd sind, d. h. ggT(r, s) = 1 erfüllen.

Beweis. Das Ideal Ra+Rb ⊂ R ist ein Hauptideal, etwa Ra+Rb = Rd′ .
Dann folgt wegen a, b ∈ Rd′ , dass d′ ein gemeinsamer Teiler von a, b
und damit auch von d ist. Andererseits besteht wegen Ra + Rb = Rd′
eine Gleichung des Typs ra + sb = d′ mit gewissen Elementen r, s ∈ R.
Dies zeigt, dass jeder gemeinsame Teiler von a, b auch ein Teiler von d′
ist. Insbesondere gilt also d | d′ . Zusammen mit d′ | d ergibt sich gemäß
Bemerkung 9, dass d und d′ assoziiert sind. Somit gilt Ra + Rb = Rd,
wie behauptet, und man hat eine Gleichung des Typs ra + sb = d.
Letztere besagt, dass jeder gemeinsame Teiler von a, b, multipliziert
mit ggT(r, s), einen Teiler von d ergibt. Dies ist aber nur im Falle
ggT(r, s) = 1 möglich. 
236 5. Polynome

Abschließend wollen wir noch aus Satz 16 eine spezielle Eigenschaft


von Primelementen in Hauptidealringen folgern.

Korollar 17. Es sei R ein Hauptidealring und p ∈ R − {0}. Dann ist


äquivalent:
(i) p ist ein Primelement.
(ii) Der Restklassenring R/(p) ist ein Körper.

Beweis. Sei zunächst p ein Primelement. Insbesondere ist p dann keine


Einheit und somit R/(p) nicht der Nullring. Um einzusehen, dass R/(p)
ein Körper ist, wähle man a ∈ R/(p) − {0}. Es ist zu zeigen, dass es
ein b ∈ R/(p) mit b · a = 1 gibt oder, in äquivalenter Formulierung,
dass es zu a ∈ R − (p) eine Gleichung der Form

ba + rp = 1

mit b, r ∈ R gibt. Letzteres folgt aber aus Satz 16, da a und p offenbar
teilerfremd sind.
Wenn andererseits p kein Primelement ist, so ist p entweder eine
Einheit, oder aber es gibt von Null verschiedene Nichteinheiten a, b ∈ R
mit p ∤ a, p ∤ b, sowie p | ab. Im ersten Fall ist der Restklassenring R/(p)
der Nullring. Im zweiten sind die Restklassen a, b ∈ R/(p) zu a, b von
Null verschieden, erfüllen aber a · b = 0. Es ist also R/(p) in beiden
Fällen kein Integritätsring und damit insbesondere kein Körper. 

Als Anwendung sehen wir, dass für p ∈ Z der Restklassenring


Z/pZ genau dann ein Körper ist, wenn p prim ist. Insbesondere ist
Fp = Z/pZ für eine Primzahl p ∈ N ein Körper mit p Elementen.
Genauso folgt für einen Körper K und Polynome f ∈ K⌈⌊T ⌉⌋, dass
der Restklassenring K⌈⌊T ⌉⌋/(f ) genau dann ein Körper ist, wenn f prim
ist. In R⌈⌊T ⌉⌋ sind beispielsweise die Polynome T − 1 und T 2 + 1 irredu-
zibel und damit auch prim. Man schließt nämlich mit Hilfe der Grad-
formel für Produkte in 5.1/2, dass ein Polynom aus K⌈⌊T ⌉⌋ für einen
Körper K bereits dann irreduzibel ist, wenn es vom Grad 1 ist, oder
aber wenn es vom Grad 2 ist und keine Nullstelle in K besitzt. Im
Übrigen gilt

R⌈⌊T ⌉⌋/(T − 1) ≃ R, R⌈⌊T ⌉⌋/(T 2 + 1) ≃ C,


5.2 Teilbarkeit in Integritätsringen 237

wie man leicht mit Hilfe des Homomorphiesatzes 5.1/10 zeigen kann.
Weiter kann man zeigen, dass die primen Polynome in R⌈⌊T ⌉⌋ gerade aus
allen Polynomen vom Grad 1 sowie den nullstellenfreien Polynomen
vom Grad 2 gebildet werden; vgl. Aufgabe 3 aus Abschnitt 5.3.
Schließlich wollen wir noch die sogenannte Charakteristik eines
Körpers definieren. Ist K ein Körper, so gibt es einen eindeutig be-
stimmten Ringhomomorphismus ϕ : Z ✲ K. Dieser bildet eine na-
türliche Zahl n ab auf die n-fache Summe n · 1K des Einselementes
1K ∈ K und entsprechend −n auf −(n · 1K ). Der Kern von ϕ ist ein
Ideal in Z, also ein Hauptideal, und wird damit von einem eindeutig
bestimmten Element p ∈ N erzeugt. Es ist p entweder 0 oder ansons-
ten die kleinste positive natürliche Zahl mit p · 1K = 0. Man nennt p
die Charakteristik von K; diese ist entweder 0 oder aber prim, wie man
ähnlich wie im zweiten Teil des Beweises zu Korollar 17 sehen kann.

Aufgaben
1. Man betrachte die folgenden Polynome f, g ∈ R⌈⌊T ⌉⌋ und dividiere jeweils
f mit Rest durch g:
(i) f = T 6 + 3T 4 + T 3 − 2, g = T 2 − 2T + 1,
(ii) f = T n − 1, g = T − 1, mit n ∈ N − {0},
(iii) f = T n + T n−1 + . . . + 1, g = T + 1, mit n ∈ N − {0}.
2. Es seien a, b von Null verschiedene Elemente eines Hauptidealrings R.
Man zeige Ra ∩ Rb = Rv für v = kgV(a, b).
3. Man bestimme alle Unterringe von Q. (AT 444)
4. Es sei R ein Integritätsring und p ∈ R − {0}. Man zeige, dass p genau
dann prim ist, wenn R/(p) ein Integritätsring ist.
5. Man bestimme die Primfaktorzerlegung des Polynoms T 4 − 1 im Poly-
nomring R⌈⌊T ⌉⌋.
6. Man zeige, dass der Polynomring Z⌈⌊T ⌉⌋ kein Hauptidealring ist. (AT 446)
7. Man zeige, dass Z + Zi = {x + yi ∈ C ; x, y ∈ Z} einen Unterring des
Körpers der komplexen Zahlen bildet und ein Hauptidealring ist.
8. Man zeige, dass es in Z unendlich viele paarweise nicht-assoziierte Prim-
elemente gibt. Gleiches gilt für den Polynomring K⌈⌊T ⌉⌋ über einem Kör-
per K.
238 5. Polynome

9. Es sei F ein endlicher Körper der Charakteristik p, wobei p den Kern


des kanonischen Ringhomomorphismus Z ✲ F erzeugt. Man zeige:
(i) p ist eine Primzahl.
(ii) Es besteht F aus pr Elementen, wobei r eine geeignete natürliche
Zahl ist.
10. Es sei K ein Körper und A eine K-Algebra mit dimK A < ∞. Für
ein Element a ∈ A zeige man: Es existiert ein eindeutig bestimmtes
normiertes Polynom f ∈ K⌈⌊T ⌉⌋ kleinsten Grades mit f (a) = 0.

5.3 Nullstellen von Polynomen

Es sei K ein Körper (oder allgemeiner ein kommutativer Ring) und


A eine K-Algebra. Ein Element t ∈ A heißt Nullstelle eines Polynoms
f ∈ K⌈⌊T ⌉⌋, wenn f (t) = 0 gilt, d. h. wenn das Bild von f unter dem Ein-
setzungshomomorphismus K⌈⌊T ⌉⌋ ✲ A, der t anstelle der Variablen
T einsetzt (vgl. 5.1/7), trivial ist. Um ein Beispiel zu geben, betrach-
te man den Endomorphismenring A eines K-Vektorraums V ; dieser
wird zu einer K-Algebra unter dem Ringhomomorphismus K ✲ A,
c ✲ c · idV . Für dimK V > 1 ist leicht zu sehen, dass das Polynom
T ∈ K⌈⌊T ⌉⌋ außer dem Nullelement 0 ∈ A noch weitere Nullstellen
2

in A besitzt, sogar unendlich viele, wenn K unendlich viele Elemente


hat. Die Gleichung ϕ2 = 0 für einen Endomorphismus ϕ : V ✲ V ist
nämlich gleichbedeutend mit im ϕ ⊂ ker ϕ.
Wir wollen uns zunächst aber nur für Nullstellen von Polynomen
f ∈ K⌈⌊T ⌉⌋ in K interessieren, wobei wir K als Körper voraussetzen.
Aufgrund der Nullteilerfreiheit von K sind dann stärkere Aussagen
möglich, beispielsweise ist das Nullelement 0 ∈ K die einzige Nullstelle
in K zu T 2 ∈ K⌈⌊T ⌉⌋.

Satz 1. Sei α ∈ K Nullstelle eines Polynoms f ∈ K⌈⌊T ⌉⌋. Dann exis-


tiert ein Polynom g ∈ K⌈⌊T ⌉⌋ mit

f = (T − α) · g,

wobei g durch diese Gleichung eindeutig bestimmt ist.


5.3 Nullstellen von Polynomen 239

Beweis. Division mit Rest von f durch (T −α) führt zu einer Gleichung

f = (T − α) · g + r

mit r ∈ K. Setzt man hierin α anstelle von T ein, so ergibt sich we-
gen f (α) = 0 unmittelbar r = r(α) = 0 und damit die gewünschte
Gleichung f = (T − α) · g. Die Eindeutigkeit von g folgt aus der Null-
teilerfreiheit von K bzw. K⌈⌊T ⌉⌋ oder aus der Eindeutigkeit der Division
mit Rest; vgl. 5.2/2. 

Korollar 2. Sei f ∈ K⌈⌊T ⌉⌋, f 6= 0. Dann besitzt f nur endlich viele


verschiedene Nullstellen α1 , . . . , αr ∈ K, wobei r ≤ grad f gilt. Wei-
ter existieren Exponenten n1 , . . . , nr ∈ N − {0} sowie ein Polynom
g ∈ K⌈⌊T ⌉⌋ ohne Nullstellen in K mit
r
Y
f= (T − αi )ni · g.
i=1

Dabei sind die ni sowie das Polynom g eindeutig durch f bestimmt.

Beweis. Man betrachte Zerlegungen der Form


r
Y
f= (T − αi )ni · g
i=1

mit paarweise verschiedenen Nullstellen α1 , . . . , αr von f (wobei r va-


riieren darf), Exponenten ni ∈ N − {0} und einem Polynom g ∈ K⌈⌊T ⌉⌋.
Dann gilt stets
Xr
grad f = ni + grad g,
i=1

und wir können eine solche Zerlegung finden, für die grad g minimal
ist. Dann ist g aber wie gewünscht ohne Nullstellen in K, da man
ansonsten gemäß Satz 1 von g einen Linearfaktor der Form T − α
abspalten könnte und dies zu einer Zerlegung mit einem echt kleineren
Grad von g führen würde. Man erkennt dann, dass α1 , . . . , αr aufgrund
der Nullteilerfreiheit von K die einzigen Nullstellen von f sind und dass
r ≤ grad f gilt.
240 5. Polynome

Die Faktoren (T − αi ) sind irreduzibel und damit insbesondere


prim. Die Eindeutigkeitsaussage folgt daher leicht aus der Eindeutig-
keit der Primfaktorzerlegung in K⌈⌊T ⌉⌋. Man benutze dabei, dass in der
Primfaktorzerlegung von g lediglich Faktoren vom Grad ≥ 2 vorkom-
men können, da g keine Nullstellen in K besitzt. 

In der vorstehenden Situation nennt man ni die Vielfachheit der


Nullstelle αi . Weiter bezeichnet man einen Körper K als algebraisch
abgeschlossen, wenn jedes nicht-konstante Polynom f ∈ K⌈⌊T ⌉⌋ (min-
destens) eine Nullstelle in K besitzt. In der Zerlegung von Korollar 2
ist g dann konstant. Man kann daher sagen, dass ein Körper K genau
dann algebraisch abgeschlossen ist, wenn sich jedes nicht-konstante Po-
lynom f ∈ K⌈⌊T ⌉⌋ als Produkt von Linearfaktoren, d. h. Polynomen
vom Grad 1 schreiben lässt oder, in äquivalenter Weise, wenn die ir-
reduziblen Polynome in K⌈⌊T ⌉⌋ gerade die Polynome vom Grad 1 sind.
Wir wollen in diesem Zusammenhang den sogenannten Fundamental-
satz der Algebra formulieren.

Theorem 3. Der Körper C der komplexen Zahlen ist algebraisch ab-


geschlossen.

Ein erster Beweis dieses berühmten Resultats wurde von C. F. Gauß


1799 in seiner Doktorarbeit gegeben. Heute ist eine Vielzahl weiterer
Beweise bekannt, die sich alle in mehr oder weniger starker Form auf
Methoden der Analysis stützen; siehe etwa [7], Kap. III, Satz 2.3 und
Satz 3.2 für typische Beweise mit Mitteln der komplexen Funktionen-
theorie. Einen Beweis, der mit einem Minimum an infinitesimalen Ei-
genschaften von R auskommt und ansonsten algebraischer Natur ist,
findet man in [1], Abschnitt 6.3.
Als Beispiel wollen wir hier nur noch anmerken, dass die Polynome

T 2 − 2 ∈ Q⌈⌊T ⌉⌋,
T 2 + 1 ∈ R⌈⌊T ⌉⌋,
T 2 + T + 1 ∈ F2 ⌈⌊T ⌉⌋

keine Nullstellen in den jeweiligen Körpern besitzen. Da es sich um


Polynome vom Grad 2 handelt, folgt hieraus, dass diese irreduzibel
und damit prim sind.
5.3 Nullstellen von Polynomen 241

Aufgaben
P
1. Es sei K ein Körper. Für ein Polynom P f = i∈N ai T i ∈ K⌈⌊T ⌋⌉ definiere
man dessen Ableitung durch f ′ := i>0 iai T i−1 , wobei iai jeweils als
i-fache Summe von ai zu verstehen ist. Man zeige: Ein Element α ∈ K
ist genau dann eine mehrfache Nullstelle (d. h. der Ordnung > 1) von f ,
wenn α Nullstelle von ggT(f, f ′ ) ist.
2. Es sei K ein Körper und A eine K-Algebra. Für zwei Polynome
f, g ∈ K⌈⌊T ⌉⌋ − {0} und h = ggT(f, g) zeige man: Ist a ∈ A eine gemein-
same Nullstelle von f und g, so ist a auch Nullstelle von h. (Hinweis:
Man benutze die in 5.2/16 beschriebene Charakterisierung des größten
gemeinsamen Teilers.)
3. Für eine komplexe Zahl α = u + iv ∈ C mit Realteil u und Imagi-
närteil v sei die zugehörige konjugiert komplexe Zahl definiert durch
α = u − iv. Man zeige, dass ein normiertes Polynom f ∈ R⌈⌊T ⌋⌉ ge-
nau dann prim ist, wenn es von der Form f = T − α mit α ∈ R oder
f = (T − α)(T − α) mit α ∈ C − R ist. (AT 447) (Hinweis: Man be-
trachte die Abbildung C ✲ C, α ✲ α, welche die Eigenschaften
eines R-Algebraisomorphismus besitzt, und setze diese fort zu einem
R⌈⌊T ⌉⌋-Algebraisomorphismus C⌈⌊T ⌉⌋ ✲ C⌈⌊T ⌉⌋.)
6. Normalformentheorie

Überblick und Hintergrund

In diesem Kapitel geht es darum, für endlich-dimensionale K-Vektor-


räume V die Struktur der Endomorphismen von V zu klären. Was aber
hat man unter der Struktur eines Endomorphismus f : V ✲ V zu
verstehen? Man kann beispielsweise die folgenden Fragen stellen:

(1) Gibt es nicht-triviale Untervektorräume U ⊂ V mit f (U ) ⊂ U ,


auf denen die Restriktion f |U von besonders einfacher Gestalt
ist, etwa f |U = λ idU mit einem Skalar λ ∈ K?

(2) Um f auf ganz V zu beschreiben: Kann man VLin eine direkte


Summe nicht-trivialer Untervektorräume V = ri=1 Ui zerlegen
mit f (Ui ) ⊂ Ui , so dass sich f |Ui in standardisierter Form cha-
rakterisieren lässt? Gibt es eine feinste Zerlegung dieses Typs,
und ist diese in irgendeiner Weise eindeutig bestimmt?

Dies sind bereits die wichtigsten Fragen, die wir untersuchen wollen.
Zunächst ist die Beantwortung der ersten Frage relativ einfach. Wir
betrachten für λ ∈ K den Endomorphismus f − λ id von V . Sein Kern
gibt genau denjenigen (maximalen) Untervektorraum von V an, auf
dem sich f wie λ id verhält, und dieser Unterraum ist genau dann
nicht-trivial, wenn der Kern von f − λ id nicht-trivial ist, also gemäß
2.1/11 genau dann, wenn f −λ id nicht invertierbar ist, und damit nach
4.3/3 genau dann, wenn det(f −λ id) = 0 gilt. Es ist also die Gleichung
det(f −λ id) = 0 für λ ∈ K zu lösen, und wir werden damit automatisch
dazu veranlasst, das sogenannte charakteristische Polynom χf ∈ K⌈⌊T ⌉⌋
zu f zu betrachten, das entsteht, wenn wir auf det(λ id −f ) die Defini-

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0_6
244 6. Normalformentheorie

tion der Determinante einer beschreibenden Matrix anwenden, dabei


jedoch anstelle von λ die Variable T vorsehen.
Die Nullstellen von χf in K werden als Eigenwerte zu f bezeichnet.
Für einen solchen Eigenwert λ heißt Vλ = ker(λ id −f ) der zu λ gehöri-
ge Eigenraum, und die Elemente von Vλ −{0} werden als Eigenvektoren
zum Eigenwert λ bezeichnet. Wir werden zeigen, dass Eigenvektoren
zu verschiedenen Eigenwerten stets linear unabhängig sind, und dar-
aus folgern, dass die Summe der Eigenräume zu den verschiedenen
Eigenwerten von f stets direkt ist. Stimmt diese Summe bereits mit
V überein, so ist f diagonalisierbar, womit wir meinen, dass V eine
Basis bestehend aus Eigenvektoren zu f besitzt, und was zur Folge
hat, dass die zugehörige beschreibende Matrix von f eine Diagonal-
matrix ist. Diese Situation ist beispielsweise gegeben, wenn die Anzahl
der verschiedenen Eigenwerte von f gleich der Dimension von V ist.
Wir erhalten damit auch eine erste (partielle) Antwort auf die eingangs
gestellte Frage (2).
Es ist relativ leicht einzusehen, dass eine gegebene lineare Abbil-
dung f : V ✲ V im Allgemeinen nicht diagonalisierbar sein wird.
Beispielsweise ist eine Drehung um 0 im R2 nicht diagonalisierbar, es
sei denn, der Drehwinkel beträgt 0◦ oder 180◦ . So wird man zur Beant-
wortung der Frage (2) noch nach anderen Möglichkeiten suchen müs-
sen, um Untervektorräume U ⊂ V mit f (U ) ⊂ U , d. h. sogenannte
f -invariante Untervektorräume, zu konstruieren. Folgende Beobach-
tung ist hierbei grundlegend: Man betrachte zu einem Vektor x ∈ V
den Untervektorraum U ⊂ V , der von den Elementen x, f (x), f 2 (x), . . .
erzeugt wird, wobei wir x 6= 0 annehmen wollen. Dann ist U ein nicht-
trivialer f -invarianter Untervektorraum in V , offenbar der kleinste, der
x enthält. Wir nennen U den von x erzeugten f -zyklischen Untervek-
torraum von V . Seine Struktur lässt sich leicht beschreiben, wenn man
Ergebnisse aus Kapitel 5 über den Polynomring K⌈⌊T ⌉⌋ verwendet. Man
kann nämlich die K-lineare Abbildung
X X
ϕ : K⌈⌊T ⌉⌋ ✲ U, ci T i ✲ ci f i (x),
i∈N i∈N

betrachten und stellt dabei fest, dass ker ϕ ein Ideal in K⌈⌊T ⌉⌋ ist. Denn
für r s
X X
i
p= ci T ∈ K⌈⌊T ⌉⌋, q= dj T j ∈ ker ϕ
i=0 j=0
Überblick und Hintergrund 245

gilt
X
r+s  X   r+s  X
X 
k
ϕ(pq) = ϕ ci dj T = ci dj f k (x)
k=0 i+j=k k=0 i+j=k
X
r X
s  X
r 
i j i
= ci f dj f (x) = ci f (0) = 0,
i=0 j=0 i=0

d. h. ker ϕ ist insbesondere abgeschlossen unter Multiplikation mit Ele-


menten aus K⌈⌊T ⌉⌋. Wegen x 6= 0 ist ker ϕ ein echtes Ideal in K⌈⌊T ⌉⌋.
Andererseits gilt ker ϕ 6= 0, da K⌈⌊T ⌉⌋ als K-Vektorraum von unendli-
cher, V aber von endlicher Dimension ist. Nun wissen wir aber, dass
K⌈⌊T ⌉⌋ ein Hauptidealring ist, dass es folglich ein eindeutig bestimmtes
normiertes Polynom kleinsten Grades

p = T r + c1 T r−1 + . . . + cr ∈ ker ϕ

gibt und dass dieses das Ideal erzeugt. Hieraus gewinnt man die Glei-
chung
p(f )(x) = f r (x) + c1 f r−1 (x) + . . . + cr x = 0,
und diese zeigt in induktiver Weise, dass U , der von x erzeugte
f -zyklische Untervektorraum von V , als K-Vektorraum bereits durch
x, f 1 (x), . . . , f r−1 (x) erzeugt wird. Da alle Polynome in ker ϕ sich als
Vielfache von p darstellen, bilden die vorstehenden Vektoren sogar eine
Basis von U . Bezüglich dieser Basis wird f |U dann durch die sogenann-
te Begleitmatrix
 
0 −c0
1 0 −c1 
 
 1 . −c 
 2 
 . . ... 
 
 . . . . . 
 
 . 0 −cn−2 
1 −cn−1

des Polynoms p beschrieben. Somit ist U , zusammen mit der Restrik-


tion f |U als Endomorphismus von U , im Wesentlichen durch das Po-
lynom p charakterisiert.
246 6. Normalformentheorie

Um die eingangs gestellte Frage (2) vollständig zu klären, ist noch


zu untersuchen, in wie weit sich V als eine direkte Summe f -zyklischer
Untervektorräume darstellen lässt. Dass eine solche direkte Summen-
zerlegung in der Tat stets möglich ist, und zwar mit sogenannten
f -unzerlegbaren (ebenfalls f -zyklischen) Untervektorräumen, die keine
weitere Zerlegung in eine nicht-triviale direkte Summe f -invarianter
Unterräume mehr zulassen, und mit zugehörigen normierten Polyno-
men aus K⌈⌊T ⌉⌋, die eindeutig durch f bestimmt sind, ist ein tief lie-
gendes Resultat, dessen Beweis einigen Aufwand erfordert. Um die
eigentlichen Gründe für das Zustandekommen dieses Resultats aufzu-
decken, werden wir die sogenannte Elementarteilertheorie behandeln,
und zwar für Moduln über Hauptidealringen. Ein Modul über einem
Ring ist formal genauso definiert wie ein Vektorraum über einem Kör-
per, nur dass man als Skalarenbereich anstelle eines Körpers einen Ring
vorsieht. Dass man beispielsweise einen K-Vektorraum mit einem En-
domorphismus f : V ✲ V als einen Modul über dem Polynomring
K⌈⌊T ⌉⌋ auffassen sollte, wobei man für x ∈ V das Produkt T x durch
f (x) definiert, wird durch die obige Betrachtung f -zyklischer Untervek-
torräume nahegelegt. In diesem Sinne ist der von einem Vektor x ∈ V
erzeugte f -zyklische Untervektorraum U ⊂ V zu sehen als der von x
erzeugte K⌈⌊T ⌉⌋-Untermodul von V .
Obwohl Moduln als “Vektorräume” über Ringen interpretiert wer-
den können, gibt es dennoch gravierende Unterschiede zu Vektorräu-
men über Körpern, die durch das Phänomen der sogenannten Torsion
verursacht sind. Für einen Modul M über einem Ring R gibt es nämlich
im Allgemeinen von Null verschiedene Elemente r ∈ R und m ∈ M mit
rm = 0, wobei dann r natürlich keine Einheit sein kann, da ansonsten
m = r−1 (rm) = 0 folgen würde. Insbesondere kann ein solcher Modul
keine Basis besitzen. Gibt es zu jedem m 6= 0 aus M ein r 6= 0 in R mit
rm = 0, so bezeichnet man M als einen Torsionsmodul. Beispielsweise
ist in der obigen Situation auch V als K⌈⌊T ⌉⌋-Modul ein Torsionsmodul.
Da V von endlicher Dimension ist, existieren nämlich nicht-triviale Po-
lynome p ∈ K⌈⌊T ⌉⌋ mit p · V = 0. Wir werden insbesondere sehen, dass
es wiederum ein eindeutig bestimmtes normiertes Polynom kleinsten
Grades pf ∈ K⌈⌊T ⌉⌋ mit pf · V = 0 gibt. Man nennt pf das Minimal-
polynom zu f , und wir werden mit dem Satz von Cayley-Hamilton
zeigen, dass pf stets ein Teiler des charakteristischen Polynoms χf ist
und damit einen Grad ≤ n besitzt.
6.1 Eigenwerte und Eigenvektoren 247

Die mittels der Elementarteilertheorie gewonnene Zerlegung von


V in f -zyklische bzw. f -invariante Unterräume werden wir schließ-
lich dazu verwenden, um f mittels kanonisch Lr zugeordneter Matrizen
zu beschreiben. Ist beispielsweise V = i=1 Ui eine Zerlegung in
f -zyklische Untervektorräume, wobei das Paar (Ui , f |Ui ) jeweils wie
oben beschrieben durch das normierte Polynom pi ∈ K⌈⌊T ⌉⌋ charakte-
risiert sei (d. h. Ui ≃ K⌈⌊T ⌉⌋/(pi ) im Sinne von V als K⌈⌊T ⌉⌋-Modul),
so kann man für jedes Ui eine K-Basis wählen, derart dass f |Ui be-
züglich dieser Basis durch die Begleitmatrix A(pi ) zu pi dargestellt
wird. Setzt man die einzelnen Basen der Ui zu einer Gesamtbasis von
V zusammen, so ist die zugehörige f beschreibende Matrix von der
Form Diag(A(p1 ), . . . , A(pr )), d. h. eine Art “Diagonalmatrix”, auf de-
ren Diagonalen die Kästchen A(pi ) angeordnet sind. Geht man von
irgendeiner Matrix A ∈ K n×n aus, die f beschreibt, und sind die Po-
lynome pi Primpotenzen, so ist A′ = Diag(A(p1 ), . . . , A(pr )) bereits
die sogenannte allgemeine Normalform von A. Im Übrigen werden wir
auch die Jordansche Normalform von A betrachten (sofern das charak-
teristische Polynom χf in lineare Faktoren zerfällt) und abschließend
zeigen, wie man Normalformen explizit berechnen kann, indem man
die Elementarteiler der Matrix T E − A ∈ K⌈⌊T ⌉⌋n×n bestimmt; dabei
sei E ∈ K n×n die Einheitsmatrix.

6.1 Eigenwerte und Eigenvektoren

Wir kehren nunmehr zur Theorie der Vektorräume über einem Kör-
per K zurück und betrachten zunächst eine K-lineare Abbildung
f: V ✲ W zwischen endlich-dimensionalen K-Vektorräumen V und
W . Ist dann X = (x1 , . . . , xn ) eine Basis von V und Y = (y1 , . . . , ym )
eine Basis von W , so lässt sich f durch eine zugehörige Matrix Af,X,Y
beschreiben; vgl. 3.1/3. Durch geschickte Wahl von X und Y kann man
erreichen, dass Af,X,Y von möglichst einfacher Gestalt ist. So hatten
wir in 3.4/7 gesehen, dass es Basen X ′ von V und Y ′ von W gibt mit
 
Er 0
Af,X ′ ,Y ′ = ;
0 0
dabei bezeichnet Er ∈ K r×r die Einheitsmatrix und r den Rang von
f . Weiter besteht die Relation
248 6. Normalformentheorie

Af,X ′ ,Y ′ = (Aid,Y ′ ,Y )−1 · Af,X,Y · Aid,X ′ ,X


mit den Basiswechselmatrizen Aid,X ′ ,X und Aid,Y ′ ,Y ; vgl. 3.4/4. Unter
Benutzung der bijektiven Korrespondenz zwischen linearen Abbildun-
gen und Matrizen können wir daher auch sagen, dass es zu einer Matrix
A ∈ K m×n vom Rang r stets invertierbare Matrizen S ∈ GL(m, K) und
T ∈ GL(n, K) mit  
−1 Er 0
S ·A·T =
0 0
gibt; vgl. hierzu auch 3.4/8.
Wir wollen im Weiteren ein entsprechendes Problem für Endomor-
phismen f : V ✲ V studieren. Genauer soll durch geeignete Wahl
einer Basis X von V erreicht werden, dass die Matrix Af,X,X von mög-
lichst einfacher Gestalt ist. Übersetzt in die Sprache der Matrizen be-
deutet dies: Ausgehend von einer Matrix A ∈ K n×n ist eine invertier-
bare Matrix S ∈ GL(n, K) gesucht, derart dass die Matrix S −1 · A · S
von möglichst einfacher Gestalt ist, beispielsweise eine Diagonalmatrix
 
λ1 0
 λ2 
 
 .. 
0 λn
mit beliebigen Koeffizienten λ1 , . . . , λn ∈ K. Dabei sei erwähnt, dass
eine solche Diagonalgestalt allerdings nicht in allen Fällen zu erreichen
ist. Um eine bequeme Sprechweise für unser Problem zu haben, sagen
wir:

Definition 1. Zwei Matrizen A, B ∈ K n×n heißen ähnlich, wenn es


eine invertierbare Matrix S ∈ GL(n, K) mit B = S −1 · A · S gibt.

Man sieht unmittelbar, dass die Ähnlichkeit von Matrizen aus


K n×n
eine Äquivalenzrelation darstellt. Somit zerfällt K n×n in disjunk-
te Klassen ähnlicher Matrizen.

Bemerkung 2. Zu einer Matrix A ∈ K n×n betrachte man einen


n-dimensionalen K-Vektorraum V mit einer Basis X und den (ein-
deutig bestimmten) Endomorphismus f : V ✲ V mit Af,X,X = A;
vgl. 3.3/2. Für eine weitere Matrix B ∈ K n×n
ist dann äquivalent:
6.1 Eigenwerte und Eigenvektoren 249

(i) A und B sind ähnlich.


(ii) Es existiert eine Basis X ′ von V mit Af,X ′ ,X ′ = B.

Beweis. Seien zunächst A und B ähnlich, gelte also B = S −1 · A · S mit


S ∈ GL(n, K). Fassen wir dann die Matrix S gemäß 3.4/1 (und den
sich daran anschließenden Erläuterungen) als Basiswechselmatrix auf,
so erhalten wir eine Basis X ′ von V mit S = Aid,X ′ ,X , und es folgt mit
3.4/4
Af,X ′ ,X ′ = (Aid,X ′ ,X )−1 · Af,X,X · Aid,X ′ ,X = S −1 · A · S = B,
d. h. Bedingung (ii) ist erfüllt.
Ist umgekehrt Bedingung (ii) gegeben, so zeigt die Gleichung
Af,X ′ ,X ′ = (Aid,X ′ ,X )−1 · Af,X,X · Aid,X ′ ,X ,
dass A und B ähnlich sind. 

Wir wollen uns nun mit der Frage beschäftigen, wann eine gegebene
Matrix A ∈ K n×n zu einer Diagonalmatrix ähnlich ist. Dazu führen wir
folgende Sprechweise ein:

Definition 3. Eine Matrix A ∈ K n×n heißt diagonalisierbar, wenn sie


zu einer Diagonalmatrix ähnlich ist.
Ein Endomorphismus f : V ✲ V eines endlich-dimensionalen
K-Vektorraums V heißt diagonalisierbar, wenn die beschreibende Ma-
trix Af,X,X für eine Basis X von V und somit, vgl. 3.4/5, für alle
Basen von V diagonalisierbar ist.

Aus Bemerkung 2 kann man ablesen, dass ein Endomorphismus


f: V ✲ V eines endlich-dimensionalen K-Vektorraums V genau
dann diagonalisierbar ist, wenn es eine Basis X = (x1 , . . . , xn ) von V
mit  
λ1 0
 λ2 
Af,X,X = 


..
0 λn
gibt, so dass also f (xi ) = λi xi , i = 1, . . . , n, für gewisse Konstanten
λi ∈ K gilt. Wir werden in diesem Zusammenhang folgende Termino-
logie verwenden:
250 6. Normalformentheorie

Definition 4. Es sei f : V ✲ V ein Endomorphismus eines K-Vek-


torraums V . Eine Konstante λ ∈ K heißt Eigenwert zu f , wenn es
einen Vektor a ∈ V − {0} mit f (a) = λa gibt. Man nennt in diesem
Falle a einen Eigenvektor von f zum Eigenwert λ. Für eine Matrix
A ∈ K n×n seien Eigenwerte und Eigenvektoren erklärt als Eigenwerte
und Eigenvektoren der zugehörigen linearen Abbildung K n ✲ K n,
x ✲ Ax.

Eigenvektoren sind definitionsgemäß immer von 0 verschieden, und


wir können formulieren:

Bemerkung 5. Ein Endomorphismus f : V ✲ V eines endlich-di-


mensionalen K-Vektorraums V ist genau dann diagonalisierbar, wenn
es in V eine Basis bestehend aus Eigenvektoren zu f gibt.

Als Anwendung der Beschreibung linearer Abbildungen mittels


Matrizen, vgl. 3.1/7, ergibt sich:

Bemerkung 6. Es sei f : V ✲ V ein Endomorphismus eines


endlich-dimensionalen K-Vektorraums V mit Basis X. Für λ ∈ K
ist dann äquivalent:
(i) λ ist Eigenwert von f .
(ii) λ ist Eigenwert von Af,X,X .

Beweis. Sei dimK V = n. Wir benutzen das kommutative Diagramm


f
V ✲ V
κX κX
❄ f˜

Kn ✲ Kn
aus 3.1/8. Dabei ist κX derjenige Isomorphismus, der einem Vektor
v ∈ V den zugehörigen Koordinatenspaltenvektor vX ∈ K n zuordnet,
sowie f˜: K n ✲ K n die durch u ✲ Af,X,X · u erklärte Abbildung.
Ist nun a ∈ V ein Eigenvektor zu f mit Eigenwert λ ∈ K, so gilt
insbesondere a 6= 0 und damit auch κX (a) 6= 0. Weiter folgt aufgrund
der Kommutativität des obigen Diagramms
 
f˜ κX (a) = κX f (a) = κX (λa) = λκX (a),
6.1 Eigenwerte und Eigenvektoren 251

d. h. κX (a) ist Eigenvektor zu f˜, ebenfalls zum Eigenwert λ. Ist umge-


kehrt b ∈ K n ein Eigenvektor zu f˜ zum Eigenwert λ, so folgt entspre-
chend, dass κ−1X (b) ∈ V ein Eigenvektor zu f zum Eigenwert λ ist. 

Insbesondere sieht man mit Bemerkung 2 oder auch mittels einfa-


cher direkter Rechnung:

Bemerkung 7. Ähnliche Matrizen besitzen dieselben Eigenwerte.

Als Beispiel zeigen wir, dass die Matrizen


   
0 1 2×2 1 0
A= ∈R , B= ∈ C2×2
−1 0 1 1

nicht diagonalisierbar sind. In der Tat, das Gleichungssystem

α2 = λα1 , −α1 = λα2

führt für einen nicht-trivialen Vektor (α1 , α2 )t ∈ R2 stets auf die Glei-
chung λ2 = −1, die in R nicht lösbar ist. Somit sehen wir, dass A in
R2×2 nicht diagonalisierbar sein kann, da die zugehörige lineare Ab-
bildung R2 ✲ R2 , x ✲ Ax, keinen Eigenwert besitzt. Das Bild
ändert sich jedoch, wenn wir A als Matrix in C2×2 auffassen, denn die
durch A gegebene C-lineare ✲ C2 , x ✲ Ax, wird
 1  Abbildung C
2
1
bezüglich der Basis i , −i durch eine Diagonalmatrix beschrieben.
Weiter zeigt das Gleichungssystem

α1 = λα1 , α1 + α2 = λα2 ,

dass die Matrix B höchstens λ = 1 als Eigenwert besitzt. Wäre B also


diagonalisierbar, so müsste B zur Einheitsmatrix ähnlich sein und dann
schon mit dieser übereinstimmen, da die Einheitsmatrix aus trivialen
Gründen nur zu sich selbst ähnlich ist.

Satz 8. Es sei f : V ✲ V ein Endomorphismus eines endlich-


dimensionalen K-Vektorraums V . Sind a1 , . . . , ar ∈ V Eigenvektoren
zu paarweise verschiedenen Eigenwerten λ1 , . . . , λr , so sind a1 , . . . , ar
linear unabhängig.
252 6. Normalformentheorie

Beweis. Wir schließen mit Induktion nach r, wobei wir r ≥ 1 annehmen


dürfen. Der Fall r = 1 ist klar, denn ein Eigenvektor ist nach Definition
stets von 0 verschieden. Sei also r > 1, und gelte
X r
αi ai = 0
i=1

mit Koeffizienten α1 , . . . , αr ∈ K. Man hat dann


Xr X r X
r 
λi αi ai = αi f (ai ) = f αi ai = f (0) = 0,
i=1 i=1 i=1

aber auch r
X
λ1 αi ai = 0
i=1
und folglich
r
X
(λi − λ1 )αi ai = 0.
i=2
Nun sind a2 , . . . , ar insgesamt r − 1 Eigenvektoren zu paarweise ver-
schiedenen Eigenwerten und somit nach Induktionsvoraussetzung line-
ar unabhängig. Es ergibt sich daher (λi −P λ1 )αi = 0 und damit αi = 0
für i = 2, . . . , r. Dann zeigt die Gleichung ri=1 αi ai = 0, dass auch der
Term α1 a1 verschwindet und wegen a1 6= 0 sogar der Koeffizient α1 .
Die Vektoren a1 , . . . , ar sind also wie behauptet linear unabhängig. 

Korollar 9. Ein Endomorphismus f : V ✲ V eines endlich-dimen-


sionalen K-Vektorraums V hat höchstens n = dimK V verschiedene
Eigenwerte.

Korollar 10. Besitzt ein Endomorphismus f : V ✲ V eines endlich-


dimensionalen K-Vektorraums V genau n = dimK V verschiedene Ei-
genwerte, so ist f diagonalisierbar.

Beweis. Seien λ1 , . . . , λn ∈ K paarweise verschiedene Eigenwerte zu f ,


und seien a1 , . . . , an ∈ V zugehörige Eigenvektoren. Dann sind diese
gemäß Satz 8 linear unabhängig, bilden also wegen n = dimK V eine
Basis X von V . Die zugehörige Matrix Af,X,X ist eine Diagonalmatrix
mit λ1 , . . . , λn als Diagonalelementen. 
6.1 Eigenwerte und Eigenvektoren 253

Wir wollen Satz 8 noch etwas verallgemeinern.

Definition 11. Es sei λ ∈ K Eigenwert eines Vektorraumendomor-


phismus f : V ✲ V . Dann heißt

Vλ := ker(f − λ id) = a ∈ V ; f (a) = λa

der Eigenraum von f zum Eigenwert λ.

Korollar 12. Sei f : V ✲ V ein Endomorphismus eines endlich-


dimensionalen K-Vektorraums V , und seien λ1 , . . . , λr die sämtlichen
P
(paarweise verschiedenen) Eigenwerte von f . Ist dann V ′ = ri=1 Vλi
der von den zugehörigen Eigenräumen erzeugte Untervektorraum von
V , so gilt
Mr
V′ = Vλi ;
i=1

die Summe ist also direkt. Im Übrigen ist f genau dann diagonalisier-
bar, wenn V = V ′ gilt, wenn also V von den Eigenräumen zu f erzeugt
wird.

Beweis. Da Eigenvektoren zu paarweise verschiedenen


Pr Eigenwerten li-
near unabhängig sind, kann eine Summe i=1 vi mit vi ∈ Vλi nur dann
verschwinden, wenn alle vi verschwinden. Dies bedeutet aber, dass V ′
die direkte Summe der Eigenräume Vλi ist. Ist nun f diagonalisierbar,
so besitzt V eine Basis aus Eigenvektoren, und es gilt V = V ′ . Um-
gekehrt, ist V darstellbar als direkte Summe der Eigenräume Vλi , so
wähle man in jedem dieser Eigenräume eine Basis. Das System aller
dieser Elemente bildet dann eine Basis von V , die aus lauter Eigenvek-
toren von f besteht, d. h. f ist diagonalisierbar. 

Korollar 13. Für eine Diagonalmatrix


 
λ1 0
 λ2 
A= 


..
0 λn

sind λ1 , . . . , λn die einzigen Eigenwerte von A.


254 6. Normalformentheorie

Beweis. Wir betrachten die lineare Abbildung f : K n ✲ K n , die


durch x ✲ Ax gegeben ist. Es ist klar, dass es sich bei den λ1 , . . . , λn
um Eigenwerte von A bzw. f handelt. Um Wiederholungen zu ver-
meiden, schreibe man {λ1 , . . . , λn } = {λ′1 , . . . , λ′s }, wobei die Elemen-
te λ′1 , . . . , λ′s paarweise verschieden sind. Die Diagonalgestalt von A
besagt, dass es in K n eine Basis gibt, nämlich die kanonische Basis
e1 , . . . , en , so dass ei jeweils Eigenvektor von f zum Eigenwert λi ist.
Für j = 1, . . . , s sei nun Uλ′j ⊂ V derjenige lineare Unterraum, der
erzeugt wird von allen ei mit Indizes i, für die λi = λ′j gilt. Es besteht
dann die Zerlegung
s
M
V = Uλ′j , Uλ′j ⊂ Vλ′j ,
j=1

wobei Vλ′j jeweils der Eigenraum von f zum Eigenwert λ′j ist. Ein
Vergleich mit der Zerlegung aus Korollar 12 ergibt Uλ′j = Vλ′j für
j = 1, . . . , s und zeigt außerdem, dass es neben λ′1 , . . . , λ′s keine weite-
ren Eigenwerte von A geben kann. 

Aufgaben
V sei stets ein Vektorraum endlicher Dimension über einem Körper K.
1. Es seien a, b ∈ V Eigenvektoren eines Endomorphismus f : V ✲ V.
Man untersuche, in welchen Fällen auch a − b ein Eigenvektor von f ist.
2. Es sei λ ∈ K Eigenwert eines Endomorphismus f : V ✲ V . Man zeige,
dass für Polynome q ∈ K⌈⌊T ⌉⌋ jeweils q(λ) Eigenwert von q(f ) ist.
3. Für die Matrix  
2 1 0 1
0 2 0 1
A=
0
 ∈ R4×4
0 2 1
0 0 0 2
berechne man alle Eigenwerte und die zugehörigen Eigenräume. Ist A
diagonalisierbar? (AT 449)
4. Die Matrizen A, B ∈ K n×n seien ähnlich. Man zeige in direkter Weise:
(i) Ein Element λ ∈ K ist genau dann ein Eigenwert von A, wenn es
Eigenwert von B ist.
6.2 Minimalpolynom und charakteristisches Polynom 255

(ii) Für Eigenwerte λ ∈ K von A bzw. B gilt dimK VA,λ = dimK VB,λ ,
wobei VA,λ den Eigenraum zu λ bezüglich der linearen Abbildung
K n ✲ K n , x ✲ Ax bezeichne; entsprechend für VB,λ .
5. Es seien A, B ∈ K n×n ähnlich. Dann sind für Polynome q ∈ K⌈⌊T ⌋⌉ auch
die Matrizen q(A) und q(B) ähnlich.
6. Zwei Endomorphismen f, g : V ✲ V heißen ähnlich, wenn es einen
Automorphismus h : V ✲ V mit g = h−1 ◦ f ◦ h gibt. Man zeige: f
und g sind genau dann ähnlich, wenn für eine gegebene Basis X von V
die beschreibenden Matrizen Af,X,X und Ag,X,X ähnlich sind.
7. Für ein kommutatives Diagramm linearer Abbildungen zwischen K-Vek-
torräumen
f
V ✲ V

h h
❄ g

W ✲ W
zeige man:
(i) Ist h injektiv, so ist jeder Eigenwert von f auch Eigenwert von g.
(ii) Ist h surjektiv, so ist jeder Eigenwert von g auch Eigenwert von f .
Man konstruiere einfache Beispiele, die zeigen, dass in den vorstehenden
Aussagen die Voraussetzungen “injektiv” bzw. “surjektiv” nicht entbehr-
lich sind. (AT 451)

6.2 Minimalpolynom und charakteristisches Poly-


nom
Wie wir im vorigen Abschnitt gesehen haben, steht das Problem der
Diagonalisierbarkeit von Endomorphismen oder Matrizen in engem Zu-
sammenhang mit dem Problem, die zugehörigen Eigenwerte und Eigen-
vektoren zu bestimmen. Wir beschäftigen uns daher zunächst mit der
Berechnung von Eigenwerten. Generell sei V in diesem Abschnitt ein
K-Vektorraum endlicher Dimension n.

Satz 1. Sei f : V ✲ V ein Endomorphismus. Für λ ∈ K ist dann


äquivalent:
(i) λ ist Eigenwert zu f .
(ii) ker(λ id −f ) 6= 0.
256 6. Normalformentheorie

(iii) λ id −f ist nicht invertierbar.


(iv) det(λ id −f ) = 0.

Beweis. Sei λ ein Eigenwert zu f . Dann existiert ein Eigenvektor zu


λ, d. h. ein Vektor a ∈ V − {0} mit f (a) = λa. Hieraus ergibt sich
a ∈ ker(λ id −f ) und damit insbesondere ker(λ id −f ) 6= 0. Umgekehrt
ist jeder von Null verschiedene Vektor a ∈ ker(λ id −f ) ein Eigenvektor
zum Eigenwert λ. Bedingungen (i) und (ii) sind also äquivalent.
Weiter ergibt sich die Äquivalenz (ii)⇐⇒ (iii) aus 2.1/11 und die
Äquivalenz (iii) ⇐⇒ (iv) aus 4.3/3 (iv). 

Als Beispiel wollen wir alle Eigenwerte der Matrix


 
1 4
A= ∈ R2×2
1 1
bestimmen. Bezeichnet E die Einheitsmatrix in R2×2 , so gilt für λ ∈ R
 
λ − 1 −4
det(λE − A) = det = λ2 − 2λ − 3.
−1 λ − 1
Die Gleichung det(λE − A) = 0 ist daher äquivalent zu λ = 3 oder
λ = −1. Daher sind 3, −1 die Eigenwerte von A, und man sieht mittels
6.1/10, dass A diagonalisierbar ist. Und zwar ist A ähnlich zu der
Matrix  
3 0
∈ R2×2 .
0 −1
Man kann nun leicht die zu den Eigenwerten 3, −1 gehörigen Eigen-
räume bestimmen, indem man die linearen Gleichungssysteme
(3E − A)x = 0 bzw. (−E − A)x = 0
löst.
Wir wollen det(λE − A) für eine Matrix A = (αij )ij ∈ K n×n und
eine Konstante λ ∈ K genauer auswerten; E sei nunmehr die Einheits-
matrix in K n×n . Wie in 4.2/4 definiert, gilt

det(λE − A) = det (λδij − αij )ij
X Yn
= sgn π · (λδπ(i),i − απ(i),i ).
π∈Sn i=1
6.2 Minimalpolynom und charakteristisches Polynom 257

Indem wir in vorstehender Summe die Konstante λ durch eine Varia-


ble T ersetzen, können wir folgende Definition treffen:

Definition 2. Sei A = (αij )ij ∈ K n×n . Dann heißt


X n
Y
χA = sgn π · (T δπ(i),i − απ(i),i ) ∈ K⌈⌊T ⌉⌋
π∈Sn i=1

das charakteristische Polynom von A.


Insbesondere gilt χA (λ) = det(λE − A) für alle λ ∈ K. Die Null-
stellen von χA in K sind daher gerade die Eigenwerte von A.

Satz 3. Das charakteristische Polynom χA ∈ K⌈⌊T ⌉⌋ zu einer Matrix


A ∈ K n×n ist normiert vom Grad n. Es gilt
n
X
χA = cn−i T i , ci ∈ K,
i=0
P
mit c0 = 1, −c1 = Spur A = ni=1 αii und (−1)n cn = det(A), wobei
die Summe der Diagonalelemente αii als Spur von A bezeichnet wird.

Beweis. Als Summe n-facher Produkte linearer Polynome in T ist χA


vom Grad ≤ n, und es gilt

cn = χA (0) = det(−A) = (−1)n det(A),

also (−1)n cn = det(A). Weiter besitzt der zweite Term in der Zerlegung
n
Y X n
Y
χA = (T − αii ) + sgn π · (T δπ(i),i − απ(i),i )
i=1 π∈Sn i=1
π6=id

einen Grad ≤ n − 2, denn es wird nur über Permutationen π 6= id sum-


miert. Für π 6= id gibt es nämlich mindestens zwei verschiedene Indizes
i, j ∈ {1, . . . , n} mit π(i) 6= i, π(j) 6= j, so dass folglich die Ausdrücke
T δπ(i),i , T δπ(j),j für diese Indizes verschwinden. Die Koeffizienten vom
Grad n und n − 1 in χA , also c0 und c1 , stimmen Qn daher überein mit
den Koeffizienten vom PGrad n und n − 1 in i=1 (T − αii ), und es folgt
c0 = 1, sowie c1 = − ni=1 αii , wie behauptet. 
258 6. Normalformentheorie

Man kann das charakteristische Polynom χA ∈ K⌈⌊T ⌉⌋ zu einer Ma-


trix A ∈ K n×n auch durch die Gleichung χA = det(T E − A) erklären,
wobei man dann allerdings die Determinante einer Matrix mit Ein-
trägen aus dem Polynomring K⌈⌊T ⌉⌋ zu bilden hat. Da wir bisher nur
Determinanten von Matrizen mit Koeffizienten aus einem Körper be-
trachtet und auch nur für diese Situation Rechenregeln für Determi-
nanten bewiesen haben, greifen wir zu einem Trick. Ähnlich wie man
den Körper Q der rationalen Zahlen als Körper aller Brüche ganzer
Zahlen bildet, konstruiert man zu K⌈⌊T ⌉⌋ den sogenannten rationalen
Funktionenkörper K(T ) aller Brüche von Polynomen aus K⌈⌊T ⌉⌋. Es ist
dann K⌈⌊T ⌉⌋ ein Unterring des Körpers K(T ), und man kann T E −A als
Matrix in K(T )n×n auffassen. Insbesondere ist det(T E − A) wohldefi-
niert, und man darf zur Berechnung dieser Determinante die bekann-
ten Entwicklungssätze oder andere Rechenregeln für Determinanten
anwenden. Erwähnt sei aber auch, dass sich alternativ die Determi-
nantentheorie über beliebigen kommutativen Ringen entwickeln lässt,
worauf wir hier aber nicht weiter eingehen wollen.

Satz 4. Sind A, B ∈ K n×n ähnlich, so folgt χA = χB .

Beweis. Sei S ∈ GL(n, K) mit B = S −1 AS. Dann gilt aufgrund der


Multiplikativität der Determinante

χB = det(T E − S −1 AS) = det S −1 (T E − A)S
= det(S −1 ) · det(T E − A) · det(S) = det(T E − A)
= χA .

Korollar 5. Ähnliche Matrizen besitzen die gleiche Spur.

Da die charakteristischen Polynome ähnlicher Matrizen überein-


stimmen, kann man unter Benutzung von 6.1/2 auch das charakteris-
tische Polynom eines Endomorphismus f : V ✲ V erklären.

Definition 6. Sei f : V ✲ V ein Endomorphismus eines endlich-


dimensionalen K-Vektorraums V und X eine Basis von V . Dann be-
zeichnet man
6.2 Minimalpolynom und charakteristisches Polynom 259

χf = χAf,X,X ∈ K⌈⌊T ⌉⌋
als das charakteristische Polynom von f und
Spur f = Spur Af,X,X
als die Spur von f . Für den trivialen Fall V = 0 gilt χf = 1 und
Spur f = 0.

Es folgt mit 6.1/2 und Satz 4, dass χf und Spur f unabhängig von
der speziellen Wahl der Basis X von V sind. Weiter können wir mit
Satz 1 feststellen:

Satz 7. Ein Element λ ∈ K ist genau dann ein Eigenwert eines En-
domorphismus f : V ✲ V , wenn λ eine Nullstelle des charakteristi-
schen Polynoms χf ist.

Als Nächstes wollen wir einsehen, dass die Diagonalisierbarkeit ei-


nes Endomorphismus an gewissen Eigenschaften des zugehörigen cha-
rakteristischen Polynoms abzulesen ist.

Satz 8. Für einen Endomorphismus f : V ✲ V ist äquivalent:


(i) f ist diagonalisierbar.
(ii) χf zerfällt vollständig in Linearfaktoren, etwa
r
Y
χf = (T − λi )ni ,
i=1

und für den Eigenraum Vλi zum Eigenwert λi gilt


dim Vλi = ni .

Beweis. Sei dimK V = n. Wir beginnen mit der Implikation (i) =⇒ (ii)
und nehmen f als diagonalisierbar an. Dann existiert eine Basis X von
V , bestehend aus Eigenvektoren zu f , also mit
 
λ1 0
 λ2 
Af,X,X = 

.

..
0 λn
260 6. Normalformentheorie

Q
Insbesondere folgt χf = ni=1 (T − λi ). Indem wir gleiche Faktoren
zu Potenzen
Q zusammenfassen, können wir dieses Produkt in der Form
χf =L ri=1 (T − λi )ni schreiben, wobei dimK (Vλi ) ≥ ni gilt. Wegen
V = ri=1 Vλi , vgl. 6.1/12 und 6.1/13, ergibt sich sodann
r
X r
X
n= dimK (Vλi ) ≥ ni = n
i=1 i=1

und damit dimK (Vλi ) = ni für alle i = 1, . . . , r.


Ist umgekehrt Bedingung (ii) gegeben, so folgt
X r Xr
dimK (Vλi ) = ni = n.
i=1 i=1
Lr
Nach 6.1/12 gilt V ′ = i=1 Vλi für den von den Eigenräumen Vλi
erzeugten Unterraum V ′ ⊂ V , also dimK V ′ = n = dimK V und damit
V ′ = V . Dann ist f aber diagonalisierbar, wiederum nach 6.1/12. 

Als Beispiel für die Anwendung von Satz 8 wollen wir einen Endo-
morphismus f : V ✲ V betrachten, der bezüglich einer geeigneten
Basis durch eine Dreiecksmatrix der Form
 
λ ∗
 λ 
A= 
 ∈ K n×n
.. 
0 λ
beschrieben wird. Dann gilt χf = χA = (T − λ)n , und λ ist der einzige
Eigenwert zu f bzw. A. Ist nun A keine Diagonalmatrix, so ist λ id −f
nicht die Nullabbildung und folglich der Eigenraum Vλ = ker(λ id −f )
echt in V enthalten. Nach Satz 8 kann f bzw. A in diesem Fall nicht
diagonalisierbar sein. Wir können dies aber auch in direkter Weise
sehen. Wenn A diagonalisierbar ist, so ist A ähnlich zu λE, wobei
E ∈ K n×n die Einheitsmatrix bezeichne. Da aber E und damit auch
λE mit allen Matrizen in K n×n vertauschbar ist, kann λE nur zu sich
selbst ähnlich sein. Somit müsste schon A = λE gelten.
Neben dem charakteristischen Polynom χf zu einem Endomor-
phismus f eines K-Vektorraums V kann man auch noch ein weite-
res Polynom zu f betrachten, nämlich das sogenannte Minimalpoly-
nom. Um dieses zu definieren, betrachten wir den Endomorphismen-
ring EndK (V ) als K-Algebra unter dem Ringhomomorphismus
6.2 Minimalpolynom und charakteristisches Polynom 261

K ✲ EndK (V ), c ✲ c · idV ,
und verwenden folgendes Resultat:

Satz 9. Zu einem Endomorphismus f : V ✲ V eines endlich-


dimensionalen K-Vektorraums V betrachte man den K-Al gebrahomo-
mor phismus
ϕf : K⌈⌊T ⌉⌋ ✲ EndK (V ), p ✲ p(f ),
der f anstelle von T einsetzt; vgl. 5.1/7. Dann ist ker ϕf von Null
verschieden, und es existiert ein normiertes Polynom pf ∈ K⌈⌊T ⌉⌋ mit
ker ϕf = (pf ). Es ist pf das eindeutig bestimmte normierte Polynom
kleinsten Grades in K⌈⌊T ⌉⌋, welches f annulliert, also mit der Eigen-
schaft dass pf (f ) = 0 gilt.

Beweis. Indem wir die Ringmultiplikation vergessen, können wir ϕf


auch als Homomorphismus zwischen K-Vektorräumen auffassen. Man
hat dann dimK (K⌈⌊T ⌉⌋) = ∞ sowie gemäß 3.3/2

dimK EndK (V ) = n2 < ∞
für n = dimK (V ). Letzteres hat ker ϕf 6= 0 zur Folge, bzw. dass ϕf
2
nicht injektiv sein kann. Genauer, die Elemente ϕf (T 0 ), . . . , ϕf (T n )
sind aus Dimensionsgründen linear abhängig in EndK (V ), und ker ϕf
enthält daher ein nicht-triviales Polynom vom Grad ≤ n2 . Nun ist
aber ker ϕf ein Ideal in K⌈⌊T ⌉⌋ und K⌈⌊T ⌉⌋ ein Hauptidealring; vgl.
5.2/7. Es existiert daher ein nicht-triviales Polynom pf ∈ K⌈⌊T ⌉⌋ mit
ker ϕf = pf · K⌈⌊T ⌉⌋. Als erzeugendes Element eines Hauptideals in ei-
nem Integritätsring ist pf nach 5.2/9 eindeutig bestimmt bis auf eine
Einheit. Da aber K⌈⌊T ⌉⌋∗ = K ∗ gilt, ist pf eindeutig, wenn wir dieses
Polynom als normiert voraussetzen. Natürlich ist pf dann das normier-
te Polynom kleinsten Grades, welches f annulliert. 

Definition 10. Ist f : V ✲ V ein Endomorphismus, so heißt das


nach Satz 9 eindeutig in K⌈⌊T ⌉⌋ existierende normierte Polynom kleins-
ten Grades, welches f annulliert, das Minimalpolynom von f ; dieses
wird mit pf bezeichnet. Entsprechend ist das Minimalpolynom pA einer
Matrix A ∈ K n×n erklärt als das normierte Polynom kleinsten Grades
in K⌈⌊T ⌉⌋, welches A annulliert.
262 6. Normalformentheorie

Im Beweis zu Satz 9 wurde gezeigt, dass der Kern des Homomor-


phismus ϕf : K⌈⌊T ⌉⌋ ✲ EndK (V ) nicht-triviale Polynome vom Grad
≤ n2 enthält, n = dimK (V ). Als Konsequenz ergibt sich grad pf ≤ n2 .
Diese Abschätzung lässt sich aber noch erheblich verbessern.

Satz 11 (Cayley-Hamilton). Für einen Endomorphismus f : V ✲V


eines K-Vektorraums V endlicher Dimension n ist das Minimalpoly-
nom pf stets ein Teiler des charakteristischen Polynoms χf . Insbeson-
dere gilt χf (f ) = 0 und grad pf ≤ grad χf = n.

Beweis. In der Situation von Satz 9 ist nur χf ∈ ker ϕf = (pf ), d. h.


χf (f ) = 0 zu zeigen. Indem wir dies in ein Matrizenproblem über-
setzen, genügt es χA (A) = 0 für Matrizen A ∈ K n×n zu zeigen. Um
bequem rechnen zu können, betrachten wir wieder den rationalen Funk-
tionenkörper K(T ), dessen Elemente Brüche von Polynomen aus K⌈⌊T ⌉⌋
sind. Sodann können wir den Unterring K⌈⌊T ⌉⌋n×n des Matrizenrings
K(T )n×n betrachten, der aus allen (n×n)-Matrizen mit Einträgen aus
K⌈⌊T ⌉⌋ besteht. Der Homomorphismus K(T ) ✲ K(T )n×n , der ein
Element q ∈ K(T ) auf das q-fache der Einheitsmatrix E ∈ K(T )n×n
abbildet, beschränkt sich zu einem Ringhomomorphismus
K⌈⌊T ⌉⌋ ✲ K⌈⌊T ⌉⌋n×n , f ✲ f · E,
und definiert auf K⌈⌊T ⌉⌋n×n die Struktur einer K⌈⌊T ⌉⌋-Algebra. Indem
wir die Variable T ∈ K⌈⌊T ⌉⌋ mit ihrem Bild T · E ∈ K⌈⌊T ⌉⌋n×n
identifizieren,
P lässt sich jedes Element M ∈ K⌈⌊T ⌉⌋n×n in der Form
M = i∈N Mi T i schreiben, wobei die Koeffizienten Mi ∈ K n×n eindeu-
tig durch M bestimmtP sind und natürlich für fast alle i ∈ N verschwin-
den. Für M = ( i∈N mµνi T )µ,ν=1,...,n mit Koeffizienten mµνi ∈ K
i

setze man nämlich Mi = (mµνi )µ,ν=1,...,n . In dieser Weise können wir


K⌈⌊T ⌉⌋n×n als “Polynomring” K n×n ⌈⌊T ⌉⌋ auffassen, wobei allerdings der
Grundring K n×n für n > 1 nicht kommutativ ist. Man kann aber
den Polynomring R⌈⌊T ⌉⌋ wie im Abschnitt 5.1 auch über einem nicht-
kommutativen Ring R erklären, muss dann aber in Kauf nehmen, dass
Einsetzungsabbildungen des Typs
X X
R⌈⌊T ⌉⌋ ✲ R, ai T i ✲ ai ti ,
für Elemente t ∈ R zwar linear über R sind, aber möglicherweise nicht
mehr multiplikativ, also keine Ringhomomorphismen darstellen.
6.2 Minimalpolynom und charakteristisches Polynom 263

Nach diesen Vorbereitungen betrachte man eine Matrix A ∈ K n×n


mit charakteristischem Polynom χA ∈ K⌈⌊T ⌉⌋. Wir fassen T E − A als
Matrix in K⌈⌊T ⌉⌋n×n ⊂ K(T )n×n auf und bilden deren adjungierte Ma-
trix (T E − A)ad ∈ K(T )n×n ; vgl. 4.4/2. Aufgrund der Cramerschen
Regel 4.4/3 besteht dann die Gleichung
(∗) (T E − A)ad · (T E − A) = det(T E − A) · E = χA (T ) · E.
Dies ist zunächst eine Gleichung in K(T )n×n , sie gilt aber auch in
K⌈⌊T ⌉⌋n×n , da aufgrund der Konstruktion adjungierter Matrizen mit
T E − A auch (T E − A)ad zu K⌈⌊T ⌉⌋n×n gehört. Insbesondere lässt sich
die Gleichung (∗) im “Polynomring” K n×n ⌈⌊T ⌉⌋ lesen, und man kann
versuchen, A anstelle der Variablen T einzusetzen. Dies führt bei dem
Faktor T E − A zum Verschwinden und damit zum Verschwinden des
Produkts auf der linken Seite. Rechts ergibt sich χA (A), was insgesamt
wie gewünscht χA (A) = 0 bedeutet, vorausgesetzt die Ersetzung T = A
respektiert das Produkt auf der linken Seite von (∗). P
Um Letzteres nachzuweisen, schreiben wir (T E−A)ad = i∈N Ai T i
mit Matrizen Ai ∈ K n×n . Dann folgt
X  X
Ai T · (T E − A) = −A0 T 0 A +
i
(Ai T i T E − Ai+1 T i+1 A)
i∈N i∈N
X
= −A0 A + (Ai − Ai+1 A)T i+1 ,
i∈N

wobei die Reihenfolge der Faktoren in den auftretenden Produkten ge-


wahrt wurde, abgesehen von der Vertauschung T i+1 A = AT i+1 beim
Übergang zur letzten Zeile. Dieselbe Rechnung ist gültig für eine Ma-
trix B ∈ K n×n anstelle der Variablen T , sofern A und B vertauschbar
sind. Insbesondere dürfen wir in vorstehender Gleichungskette T durch
B := A ersetzen und erhalten dann wie Pgewünscht χA (A) i+1
= 0, denn
das oben berechnete Polynom −A0 A + i∈N (Ai − Ai+1 A)T stimmt
wegen (∗) überein mit dem Polynom χA (T ) · E. 

Wir wollen noch zwei einfache Beispiele betrachten. Für die Ein-
heitsmatrix E ∈ K n×n , n > 0, gilt χE = (T − 1)n , pE = T − 1, und
für die Nullmatrix 0 ∈ K n×n hat man χ0 = T n , p0 = T . Insbesondere
sieht man, dass das Minimalpolynom im Allgemeinen nicht mit dem
charakteristischen Polynom übereinstimmt.
264 6. Normalformentheorie

Aufgaben
V sei stets ein Vektorraum endlicher Dimension n über einem Kör-
per K.
1. Man bestimme Eigenwerte und zugehörige Eigenräume der folgenden
Matrix:  
2 0 0 0
 −2 2 0 2 
A=  1

0 2 0 
2 −1 0 −1
Ist A diagonalisierbar?
2. Man bestimme das Minimalpolynom pf zu einem Endomorphismus
f: V ✲ V in folgenden Fällen (AT 453):
(i) V =0
(ii) f = id
(iii) f =0
(iv) Es existieren lineare Unterräume V1 , V2 ⊂ V mit V = V1 ⊕ V2 , und
es gilt f (v1 + v2 ) = v1 für vi ∈ Vi , i = 1, 2.
3. Es seien U1 , U2 ⊂ V lineare Unterräume und f : V ✲ V ein En-
domorphismus, der sich zu Endomorphismen fi : Ui ✲ Ui , i = 1, 2,
einschränkt. Man zeige:
(i) Gilt V = U1 + U2 , so folgt pf = kgV(pf1 , pf2 ) für die Minimalpo-
lynome von f, f1 , f2 .
(ii) Die Abbildung f : V ✲ V schränkt sich zu einem Endomorphis-
mus f12 : U1 ∩ U2 ✲ U1 ∩ U2 ein, und es gilt pf12 | ggT(pf1 , pf2 )
für die Minimalpolynome von f12 , f1 , f2 . Gilt im Allgemeinen auch
die Gleichheit pf12 = ggT(pf1 , pf2 )?
4. Es sei K algebraisch abgeschlossen. Man zeige, dass ein Endomorphis-
mus f : V ✲ V genau dann nilpotent ist (d. h. eine Gleichung der
r
Form f = 0 erfüllt), wenn f außer 0 keine weiteren Eigenwerte besitzt.
5. Es sei f : V ✲ V ein Automorphismus. Man zeige, es existiert ein
Polynom q ∈ K⌈⌊T ⌉⌋ mit f −1 = q(f ). (AT 455)
6. Die Folge der Fibonacci-Zahlen c1 , c2 , . . . ∈ N ist rekursiv definiert durch
c1 = c2 = 1 und cn+2 = cn+1 + cn für n ∈ N. Man gebe für cn einen
geschlossenen Ausdruck an, der nur von n abhängt. (Hinweis: Man be-
stimme eine Matrix A ∈ R2×2 mit A · (cn+1 , cn )t = (cn+2 , cn+1 )t für
n ≥ 1 und eine Basiswechselmatrix S ∈ GL(2, R), derart dass S −1 · A · S
Diagonalgestalt besitzt.)
6.3 Der Elementarteilersatz 265

6.3 Der Elementarteilersatz

Es sei V ein Vektorraum über einem Körper K und f : V ✲ V ein


Endomorphismus. Dann setzt sich die auf V definierte skalare Mul-
tiplikation K × V ✲ V , (α, v) ✲ α · v, fort zu einer äußeren
Multiplikation

K⌈⌊T ⌉⌋ × V ✲ V, (p, v) ✲ p · v := p(f )(v).

Dabei ist für p ∈ K⌈⌊T ⌋⌉ wie üblich p(f ) derjenige Ausdruck in


EndK (V ), der aus p entsteht, indem man die Variable T durch f er-
setzt. Weiter ist p(f )(v) das Bild von v unter dem Endomorphismus
p(f ) : V ✲ V . Man prüft leicht nach, dass V als additive abelsche
Gruppe zusammen mit der äußeren Multiplikation K⌈⌊T ⌉⌋ × V ✲V
den in 1.4/1 aufgeführten Vektorraumaxiomen genügt, wenn man ein-
mal davon absieht, dass K⌈⌊T ⌉⌋ nur ein Ring und kein Körper ist; wir
sagen, V sei ein K⌈⌊T ⌉⌋-Modul. (Man beachte: Im Unterschied zu ande-
rem sprachlichen Gebrauch heißt es in der Mathematik “der Modul”
bzw. “die Moduln”, mit Betonung auf der ersten Silbe.)
Will man Normalformen von Endomorphismen f : V ✲ V stu-
dieren, so bedeutet dies, dass man die oben erklärte Struktur von V
als K⌈⌊T ⌉⌋-Modul analysieren muss. Wir wollen daher zunächst ein paar
Grundlagen über Moduln zusammenstellen. Die zugehörigen Ringe sei-
en dabei stets kommutativ mit 1.

Definition 1. Es sei R ein kommutativer Ring mit 1. Ein R-Modul


ist eine Menge M mit einer inneren Verknüpfung M × M ✲ M,
(a, b) ✲ a + b, genannt Addition, und einer äußeren Verknüpfung
R×M ✲ M , (α, a) ✲ α · a, genannt skalare Multiplikation, so
dass gilt:
(i) M ist eine abelsche Gruppe bezüglich der Addition “ + ”.
(ii) (α + β) · a = α · a + β · a und α · (a + b) = α · a + α · b für alle
α, β ∈ R, a, b ∈ M , d. h. Addition und skalare Multiplikation verhalten
sich distributiv.
(iii) (α · β) · a = α · (β · a) für alle α, β ∈ R, a ∈ M , d. h. die skalare
Multiplikation ist assoziativ.
(iv) 1 · a = a für das Einselement 1 ∈ R und alle a ∈ M .
266 6. Normalformentheorie

Wir wollen einige Beispiele betrachten:


(1) Ein Vektorraum über einem Körper K ist ein K-Modul.
(2) Es seien R ein kommutativer Ring mit 1 und a ⊂ R ein Ideal.
Dann induzieren die Addition und Multiplikation von R die Struktur
eines R-Moduls auf a, insbesondere ist R selbst ein R-Modul. Für na-
türliche Zahlen n ∈ N ist das kartesische Produkt Rn in naheliegender
Weise ein R-Modul.
(3) Jede abelsche Gruppe G ist ein Z-Modul; wie gewöhnlich er-
kläre man n · g für n ∈ N und g ∈ G als n-fache Summe von g, sowie
(−n) · g als −(n · g).
(4) Jeder Endomorphismus f : V ✲ V eines K-Vektorraums V
induziert, wie oben erklärt, auf V die Struktur eines K⌈⌊T ⌉⌋-Moduls. Ist
V endlich-dimensional und bezeichnet pf das Minimalpolynom von f ,
so gilt pf · v = 0 für alle v ∈ V . Im Unterschied zu Vektorräumen kann
man daher bei einem R-Modul M aus einer Gleichung α · m = 0 mit
α ∈ R, m ∈ M nicht schließen, dass α oder m verschwinden.
Eine ganze Reihe von Begriffen, die bei Vektorräumen eine Rolle
spielen, haben auch für Moduln ihre Bedeutung. Sei etwa M ein Modul
über einem kommutativen Ring R mit 1. Ein Untermodul von M ist
eine nicht-leere Teilmenge N ⊂ M , so dass gilt:

a, b ∈ N =⇒ a + b ∈ N,
α ∈ R, a ∈ N =⇒ α · a ∈ N

Es ist N dann wieder ein R-Modul unter den von M ererbten Verknüp-
fungen. Betrachtet man R als Modul über sich selbst, so stimmen die
Ideale des Rings R mit den Untermoduln von R überein.
Ein Homomorphismus zwischen R-Moduln M und N ist eine Ab-
bildung ϕ : M ✲ N , für die

ϕ(a + b) = ϕ(a) + ϕ(b), ϕ(α · a) = α · ϕ(a),

für a, b ∈ M , α ∈ R gilt. Man spricht dabei auch von einer R-linearen


Abbildung. Mono-, Epi- bzw. Isomorphismen von R-Moduln sind wie
üblich als injektive, surjektive bzw. bijektive Homomorphismen erklärt.
Zu einem System (ai )i∈I von Elementen aus M kann man den hier-
von erzeugten Untermodul M ′ ⊂ M betrachten, wobei letzterer durch
6.3 Der Elementarteilersatz 267

X X 

M := Rai := αi ai ; αi ∈ R, αi = 0 für fast alle i ∈ I
i∈I i∈I
P
definiert ist. Gilt M = i∈I Rai , so nennt man (ai )i∈I ein Erzeu-
gendensystem von M . Man bezeichnet M als endlich erzeugt oder (in
missbräuchlicher Sprechweise) als endlich, wenn M ein endliches Erzeu-
gendensystem besitzt. Weiter heißt ein System (ai )i∈I von Elementen
aus M frei (oder linear unabhängig), wenn aus einer Gleichung
X
αi ai = 0
i∈I

mit Koeffizienten αi ∈ R, die für fast alle i ∈ I verschwinden, bereits


αi = 0 für alle i folgt. Freie Erzeugendensysteme werden auch als Ba-
sen bezeichnet. Man beachte jedoch, dass Moduln im Unterschied zu
Vektorräumen im Allgemeinen keine Basen besitzen; vgl. Beispiel (4)
oben. Moduln, die eine Basis besitzen, heißen frei, bzw. endlich frei,
wenn sie eine endliche Basis besitzen. Homomorphismen zwischen frei-
en R-Moduln lassen sich wie gewöhnlich bezüglich gewählter Basen
durch Matrizen mit Koeffizienten aus R beschreiben.
Sind M1 , . . . , Mn Untermoduln eines R-Moduls M , so kann man
deren Summe
X n 

M = ai ; ai ∈ Mi , i = 1, . . . , n
i=1

betrachten. Dabei
Pnist M wiederum ein Untermodul von M , und man

schreibt M = i=1 Mi . Weiter
Ln sagt man, M ′
sei die direkte Summe
′ ′
der Mi , in Zeichen M = i=1 PnMi , wenn zusätzlich für jedes a ∈ M
die jeweilige Darstellung a = i=1 ai mit Elementen ai ∈ Mi eindeutig
ist.
Ln Wie im Falle von Vektorräumen lässt sich die direkte Summe
i=1 Ni von R-Moduln N1 , . . . , Nn , die nicht notwendig als Unter-
moduln eines R-Moduls N gegeben sind, auch konstruieren. Man setze
nämlich n
M
Ni = N1 × . . . × Nn
i=1
und betrachte dieses kartesische Produkt wiederum als R-Modul, und
zwar unter der komponentenweisen Addition bzw. skalaren Multiplika-
tion. Es lässt sich dann Ni für i = 1, . . . , n jeweils mit dem Untermodul
268 6. Normalformentheorie

0 × . . . × 0 × Ni × 0 × . . . × 0 ⊂ N1 × . . . × Nn

identifizieren, so dass der Modul N1 × . . . × Nn in der Tat als direkte


Summe der Untermoduln N1 , . . . , Nn aufzufassen ist.
Ist N ein Untermodul eines R-Moduls M , so kann man den Rest-
klassenmodul M/N bilden. Wie im Falle von Vektorräumen gibt N
nämlich Anlass zu einer Äquivalenzrelation auf M :

a ∼ b ⇐⇒ a − b ∈ N

Es besteht M/N aus den zugehörigen Äquivalenzklassen, d. h. aus den


Nebenklassen ⌈⌊a⌉⌋ = a + N zu Elementen a ∈ M . Die R-Modulstruktur
auf M/N wird durch die Formeln

⌈⌊a⌉⌋ + ⌈⌊b⌉⌋ = ⌈⌊a + b⌉⌋, a, b ∈ M,


α · ⌈⌊a⌉⌋ = ⌈⌊α · a⌉⌋, α ∈ R, a ∈ M,

gegeben, wobei natürlich wie üblich die Wohldefiniertheit zu über-


prüfen ist. Die Homomorphiesätze 2.2/8 und 2.2/9 lassen sich ohne
Änderungen übertragen. Insbesondere induziert jeder R-Modulhomo-
morphismus ϕ : M ✲ N einen injektiven R-Modulhomomorphismus
ϕ : M/ ker ϕ ⊂ ✲ N .
Da Moduln im Allgemeinen keine Basen besitzen, lässt sich der Be-
griff der Dimension nicht ohne Weiteres von Vektorräumen auf Moduln
übertragen. Gewisse Aspekte des Dimensionsbegriffes werden durch die
sogenannte Länge eines Moduls abgedeckt. Hierunter versteht man für
einen R-Modul M das Supremum ℓR (M ) aller Längen ℓ von echt auf-
steigenden Ketten von Untermoduln des Typs

0 ( M1 ( M2 ( . . . ( Mℓ = M.

Beispielsweise ist ℓR (M ) = 0 äquivalent zu M = 0. Weiter hat Z als


freier Modul über sich selbst die Länge ∞. Als Hilfsmittel für später
benötigen wir zwei Lemmata.

Lemma 2. Es sei R ein Hauptidealring und a = p1 . . . pr die Primfak-


torzerlegung eines Elementes a 6= 0 in R. Dann besitzt der Restklas-
senmodul R/aR die Länge ℓR (R/aR) = r.
6.3 Der Elementarteilersatz 269

Beweis. Sei π : R ✲ R/aR die kanonische Projektion. Da die Idea-


le a ⊂ R/aR unter der Zuordnung a ✲ π −1 (a) bijektiv denjenigen
Idealen in R entsprechen, die aR enthalten, stimmt die Länge von
R/aR überein mit dem Supremum der Längen ℓ echt aufsteigender
Idealketten des Typs
Ra ( a1 ( a2 ( . . . ( aℓ = R.
Da R ein Hauptidealring ist, wird jedes ai von einem Element ai er-
zeugt. Weiter ist eine echte Inklusion ai−1 ( ai gleichbedeutend damit,
dass ai ein echter Teiler von ai−1 ist. Die Länge von R/aR ist daher
gleich dem Supremum aller ℓ ∈ N, so dass es a1 , . . . , aℓ ∈ R gibt mit der
Eigenschaft, dass ai jeweils ein echter Teiler von ai−1 ist, i = 1, . . . , ℓ;
dabei ist a0 = a zu setzen. Da in R der Satz von der eindeutigen
Primfaktorzerlegung gilt und a0 ein Produkt von r Primfaktoren ist,
berechnet sich dieses Supremum zu r. 

Lemma 3. Ist ein R-Modul M die direkte Summe zweier Untermoduln


M ′ und M ′′ , so gilt ℓR (M ) = ℓR (M ′ ) + ℓR (M ′′ ).

Beweis. Hat man echt aufsteigende Ketten von Untermoduln


0 ( M1′ ( M2′ ( . . . ( Mr′ = M ′ ,
0 ( M1′′ ( M2′′ ( . . . ( Ms′′ = M ′′ ,
so ist
0 ( M1′ ⊕ 0 ( M2′ ⊕ 0 ( . . . ( Mr′ ⊕ 0
( Mr′ ⊕ M1′′ ( Mr′ ⊕ M2′′ ( . . . ( Mr′ ⊕ Ms′′ = M
eine echt aufsteigende Kette der Länge r + s in M . Also gilt
ℓR (M ) ≥ ℓR (M ′ ) + ℓR (M ′′ ).
Zum Nachweis der umgekehrten Abschätzung betrachte man eine echt
aufsteigende Kette von Untermoduln
0 = M0 ( M1 ( M2 ( . . . ( Mℓ = M.
Es sei π ′′ : M ′ ⊕ M ′′ ✲ M ′′ die Projektion auf den zweiten Summan-
den, so dass also ker π ′′ = M ′ gilt. Dann ist für 0 ≤ λ < ℓ, wie wir
270 6. Normalformentheorie

sogleich sehen werden, jeweils Mλ ∩M ′ echt enthalten in Mλ+1 ∩M ′ oder


π ′′ (Mλ ) echt enthalten in π ′′ (Mλ+1 ). Hieraus folgt ℓ ≤ ℓR (M ′ )+ℓR (M ′′ )
und damit insgesamt wie gewünscht ℓR (M ) = ℓR (M ′ ) + ℓR (M ′′ ).
Um das gerade behauptete Inklusionsverhalten zu rechtfertigen,
nehmen wir einmal Mλ ∩M ′ = Mλ+1 ∩M ′ sowie π ′′ (Mλ ) = π ′′ (Mλ+1 ) an
und zeigen, dass dies bereits Mλ = Mλ+1 impliziert, im Widerspruch
zu unserer Voraussetzung. In der Tat, zu a ∈ Mλ+1 gibt es wegen
π ′′ (Mλ ) = π ′′ (Mλ+1 ) ein Element a′ ∈ Mλ mit π(a) = π(a′ ), also mit
a − a′ ∈ ker π = M ′ . Dann gilt sogar a − a′ ∈ Mλ+1 ∩ M ′ = Mλ ∩ M ′
wegen a, a′ ∈ Mλ+1 und damit a = a′ + (a − a′ ) ∈ Mλ . Es folgt
Mλ+1 ⊂ Mλ bzw. Mλ+1 = Mλ , was aber ausgeschlossen war. 

Theorem 4 (Elementarteilersatz). Es sei R ein Hauptidealring und


F ein endlicher freier R-Modul. Weiter sei M ⊂ F ein Untermodul.
Dann existieren Elemente x1 , . . . , xs ∈ F , die Teil einer Basis von F
sind, sowie Koeffizienten α1 , . . . , αs ∈ R − {0}, so dass gilt:
(i) α1 x1 , . . . , αs xs bilden eine Basis von M .
(ii) αi | αi+1 für 1 ≤ i < s.
Dabei sind α1 , . . . , αs bis auf Assoziiertheit (d. h. bis auf Multi-
plikation mit Einheiten) eindeutig durch M bestimmt, unabhängig von
der Wahl von x1 , . . . , xs . Man nennt α1 , . . . , αs die Elementarteiler von
M ⊂ F . Insbesondere ist deren Anzahl s eindeutig bestimmt.

Beweis der Existenzaussage von Theorem 4. Es sei Y = (y1 , . . . , ym )


eine Basis von F . Wir zeigen zunächst per Induktion nach m, dass
der Untermodul M ⊂ F endlich erzeugt ist. Für m = 1 ist dies klar,
denn F ist dann als R-Modul isomorph zu R, und M korrespondiert zu
einem Ideal in R. Letzteres ist endlichPerzeugt, da R ein Hauptidealring
ist. Sei also m > 1. Man setze F ′ = m−1 ′′
i=1 Ryi und F = Rym . Weiter
betrachte man die Projektion π : F ✲ ′′
F , welche yi für i < m auf 0
und ym auf ym abbildet; es gilt dann ker π = F ′ , und man hat (in der
Sprache von Abschnitt 2.3) eine kurze exakte Sequenz

0 ✲ F′ ✲ F ✲ F ′′ ✲ 0.

Nun sind die Untermoduln M ∩ F ′ ⊂ F ′ und π(M ) ⊂ F ′′ nach Induk-


tionsvoraussetzung endlich erzeugt, und man zeigt wie üblich, z. B. wie
im Beweis zu 2.1/10, dass ein Erzeugendensystem von M ∩ F ′ zusam-
6.3 Der Elementarteilersatz 271

men mit der Liftung eines Erzeugendensystems von π(M ) insgesamt


ein Erzeugendensystem von M bildet. M ist also endlich erzeugt.
Wir behalten Y = (y1 , . . . , ym ) als Basis von F bei und wählen
ein endliches Erzeugendensystem z1 , . . . , zn von M . Bezeichnet dann
e = (e1 , . . . , en ) die kanonische Basis des R-Moduls Rn , so kann man
die durch ej ✲ zj erklärte R-lineare Abbildung f : Rn ✲ F be-
trachten, deren Bild M ergibt. Gilt dann
m
X
zj = αij yi , j = 1, . . . , n,
i=1

so ist A = (αij )i,j ∈ Rm×n die Matrix zu f bezüglich der Basen e und
Y . Wir verwenden nun folgendes Hilfsresultat, das wir weiter unten
beweisen werden:

Lemma 5. Es sei R ein Hauptidealring und A = (αij ) ∈ Rm×n eine


Matrix mit Koeffizienten aus R. Dann gibt es invertierbare Matrizen
S ∈ Rm×m und T ∈ Rn×n mit
 
α1 0 0 0 ... 0
 0 α2 0 0 . . . 0
 
 .. 
 
 .. 
 
S·A·T =0 0 α 0 . . . 0 
 s 
 0 0 .. .. 0 0 . . . 0
 
 .. .. .. .. .. 
. . . . .
0 0 .. .. 0 0 . . . 0
und mit Koeffizienten α1 , . . . , αs ∈ R − {0} (wobei 0 ≤ s ≤ min(m, n)
gilt), die für 1 ≤ i < s die Bedingung αi | αi+1 erfüllen. Dabei sind
α1 , . . . , αs bis auf Assoziiertheit eindeutig bestimmt; man nennt sie die
Elementarteiler der Matrix A.

Indem man S und T als Basiswechselmatrizen auffasst, sieht man,


dass die Matrix SAT ebenfalls die Abbildung f beschreibt, allerdings
bezüglich geeigneter anderer Basen e′1 , . . . , e′n von Rn und x1 , . . . , xm
von F . Insbesondere folgt, dass M als Bild von f durch α1 x1 , . . . , αs xs
erzeugt wird. Da das System der x1 , . . . , xm frei ist und wir Koeffizien-
ten aus einem Integritätsring R betrachten, bilden α1 x1 , . . . , αs xs sogar
272 6. Normalformentheorie

eine Basis von M . Damit haben wir die Existenz der Elementarteiler
α1 , . . . , αs von M ⊂ F auf die Existenzaussage von Lemma 5 zurück-
geführt. 

Beweis der Existenzaussage von Lemma 5. Wir nehmen zunächst R


als euklidischen Ring an und zeigen anhand eines konstruktiven Ver-
fahrens unter Verwendung der Division mit Rest, dass sich die Matrix
A = (αij ) durch reversible elementare Zeilen- und Spaltenumformun-
gen, wie in Abschnitt 3.2 eingeführt, in die gewünschte Gestalt bringen
lässt, insbesondere durch Vertauschen von Zeilen (bzw. Spalten) sowie
durch Addieren eines Vielfachen einer Zeile (bzw. Spalte) zu einer wei-
teren Zeile (bzw. Spalte). Wie im Fall einer Matrix mit Koeffizienten
aus einem Körper sind elementare Umformungen dieses Typs als Mul-
tiplikation mit einer invertierbaren Elementarmatrix von links (bzw.
rechts) zu interpretieren. Die benötigten Zeilenumformungen korre-
spondieren daher insgesamt zur Multiplikation mit einer invertierbaren
Matrix S ∈ Rm×m von links, die benötigten Spaltenumformungen ent-
sprechend zur Multiplikation mit einer invertierbaren Matrix T ∈ Rn×n
von rechts. Anschließend verallgemeinern wir das Verfahren, so dass es
in modifizierter Version auch für Hauptidealringe anwendbar ist.
Wir betrachten im Folgenden also zunächst einen euklidischen Ring
R mit Gradabbildung δ : R−{0} ✲ N. Für A = 0 ist nichts zu zeigen,
so dass wir A 6= 0 annehmen dürfen. Es ist unsere Strategie, A mittels
elementarer Umformungen so abzuändern, dass sich das Minimum

d(A) := min δ(α) ; α ist Koeffizient 6= 0 von A

schrittweise verringert. Da δ Werte in N annimmt, muss dieses Ver-


fahren nach endlich vielen Schritten abbrechen. Ist dann α 6= 0 ein
Koeffizient der transformierten Matrix mit minimalem Grad δ(α), so
zeigen wir mittels Division mit Rest, dass α alle anderen Koeffizienten
der Matrix teilt; α ist dann der erste Elementarteiler von A.
Im Einzelnen gehen wir wie folgt vor. Indem wir Zeilen und Spal-
ten in A vertauschen, können wir d(A) = δ(α11 ) annehmen, dass also
δ(α11 ) minimal ist unter allen δ(αij ) mit αij 6= 0. Diese Situation stel-
len wir zu Beginn eines jeden Schrittes her. Ist dann eines der Elemente
der 1. Spalte, etwa αi1 , nicht durch α11 teilbar, so teile man αi1 mit
Rest durch α11 , etwa αi1 = qα11 + β mit δ(β) < δ(α11 ), und ziehe das
6.3 Der Elementarteilersatz 273

q-fache der 1. Zeile von der i-ten Zeile ab. Als Resultat entsteht an
der Position (i, 1) das Element β. Das Minimum d(A) der Grade von
nichtverschwindenden Koeffizienten von A hat sich daher verringert,
und man starte das Verfahren erneut mit einem weiteren Schritt. In
gleicher Weise können wir die Elemente der 1. Zeile mittels elemen-
tarer Spaltenumformungen abändern. Da d(A) Werte in N annimmt,
also nicht beliebig oft verringert werden kann, ist nach endlich vielen
Schritten jedes Element der 1. Spalte sowie der 1. Zeile ein Vielfaches
von α11 , und wir können durch Addition von Vielfachen der 1. Zeile
zu den restlichen Zeilen der Matrix annehmen, dass αi1 = 0 für i > 1
gilt. Entsprechend können wir mit der 1. Zeile verfahren und auf diese
Weise αi1 = α1j = 0 für i, j > 1 erreichen. Dabei dürfen wir weiter an-
nehmen, dass das Minimum d(A) mit δ(α11 ) übereinstimmt; ansonsten
ist das Verfahren erneut zu beginnen und ein entsprechendes Element
an der Stelle (1, 1) neu zu positionieren. Existieren nun i, j > 1 mit
α11 ∤ αij , so addiere man die j-te Spalte zur ersten, ein Prozess, der α11
unverändert lässt. Wie gerade beschrieben, lassen sich die Elemente
unterhalb α11 erneut trivialisieren, und zwar unter Verringerung des
Grades d(A). Nach endlich vielen Schritten gelangt man so zu einer
Matrix (αij ) mit αi1 = α1j = 0 für i, j > 1 sowie mit der Eigenschaft,
dass α11 jedes andere Element αij mit i, j > 1 teilt. Man behande-
le dann in gleicher Weise die Untermatrix (αij )i,j>1 von A = (αij ),
sofern diese nicht bereits Null ist. Die hierfür benötigten Umformun-
gen lassen die erste Zeile und Spalte von A invariant und erhalten
insbesondere die Bedingung, dass α11 alle restlichen Koeffizienten von
A teilt. Führt man dieses Verfahren in induktiver Weise fort, so ge-
langt man schließlich nach endlich vielen Schritten zu einer Matrix,
auf deren Hauptdiagonalen die gesuchten Elementarteiler mit der be-
haupteten Teilbarkeitseigenschaft stehen und deren sonstige Einträge
alle verschwinden. Damit ist die Existenzaussage von Lemma 5 und
insbesondere auch von Theorem 4 bewiesen, zumindest im Falle eines
euklidischen Rings R.

Ist nun R lediglich als Hauptidealring bekannt, so benötigen wir


elementare Matrizenumformungen eines etwas allgemeineren Typs,
die wir zunächst beschreiben wollen. Hierzu betrachten wir Elemen-
te σ, τ, σ ′ , τ ′ ∈ R, welche die Relation στ ′ − τ σ ′ = 1 erfüllen. Dann sind
die Matrizen
274 6. Normalformentheorie
   
σ τ τ ′ −τ
, ∈ R2×2
σ′ τ ′ −σ ′ σ

invers zueinander, insbesondere also invertierbar. Entsprechend sieht


man für στ ′ − τ σ ′ = ±1 und 1 ≤ i < j ≤ m, dass auch die Matrizen
des Typs
 
1
 σ τ 
 
ij ′ ′ 
E (σ, τ, σ , τ ) =  1  ∈ Rm×m

 σ′ τ′ 
1

invertierbar sind. Hierbei stehen die Elemente σ, τ, σ ′ , τ ′ jeweils an den


Positionen (i, i), (i, j), (j, i), (j, j), und mit “1” sind Serien von Ele-
menten 1 auf der Diagonalen angedeutet. Im Übrigen ist die Matrix
E ij (σ, τ, σ ′ , τ ′ ) mit Elementen 0 aufgefüllt, die der Übersichtlichkeit
halber aber nicht ausgedruckt sind. Multipliziert man nun A von links
mit E ij (σ, τ, σ ′ , τ ′ ), so hat dies folgenden Effekt: Als neue i-te Zeile er-
hält man die Summe des σ-fachen der alten i-ten Zeile und des τ -fachen
der alten j-ten Zeile. Entsprechend ist die neue j-te Zeile die Summe
des σ ′ -fachen der alten i-ten Zeile und des τ ′ -fachen der alten j-ten
Zeile. Beispielsweise ergibt sich eine Vertauschung der i-ten und j-ten
Zeile mit den Konstanten

σ = 0, τ = 1, σ ′ = 1, τ ′ = 0,

sowie die Addition des ε-fachen der j-ten Zeile zur i-ten Zeile mit

σ = 1, τ = ε, σ ′ = 0, τ ′ = 1.

Mittels Transponierens sieht man, dass analoge Spaltenumformun-


gen von A durch Multiplikation von rechts mit Matrizen des Typs
E ij (σ, τ, σ ′ , τ ′ ) ∈ Rn×n generiert werden können.
Wir bezeichnen nun für Elemente α ∈ R − {0} mit δ(α) die Anzahl
der Primfaktoren von α; dies ist gemäß Lemma 2 gerade die Länge
des Restklassenrings R/αR. Weiter setzen wir, ähnlich wie im Falle
euklidischer Ringe,

d(A) := min δ(α) ; α ist Koeffizient 6= 0 von A
6.3 Der Elementarteilersatz 275

mit dem Ziel, d(A) schrittweise zu verringern, solange bis es einen Ko-
effizienten α von A gibt, der alle übrigen Koeffizienten teilt. Durch Ver-
tauschen von Zeilen und Spalten können wir wiederum d(A) = δ(α11 )
annehmen. Ist nun eines der Elemente der 1. Spalte, etwa αi1 , kein
Vielfaches von α11 , so bilde man den größten gemeinsamen Teiler β
von α11 und αi1 . Für diesen gilt dann notwendig δ(β) < δ(a11 ), und es
erzeugt β gemäß 5.2/16 das Ideal Rα11 + Rαi1 , d. h. es existiert eine
Gleichung des Typs
β = σα11 + τ αi1 ,
wobei σ, τ ∈ R notwendig teilerfremd sind und damit eine Gleichung
des Typs
στ ′ − τ σ ′ = 1
mit gewissen Elementen σ ′ , τ ′ ∈ R erfüllen. Multipliziert man nun A
von links mit E 1i (σ, τ, σ ′ , τ ′ ), so etabliert dieser Prozess in A an der Po-
sition (1, 1) das Element β und verringert somit das Minimum d(A).
Iteriert man das Verfahren wie im Falle euklidischer Ringe, so kann
man schließlich erreichen, dass die Elemente α21 , . . . , αm1 durch α11
teilbar sind bzw., indem man geeignete Vielfache der 1. Zeile von den
restlichen subtrahiert, dass α21 = . . . = αm1 = 0 gilt. In gleicher Weise
kann man mittels entsprechender Spaltenumformungen die Elemente
α12 , . . . , α1n trivialisieren usw. Wir sehen also, dass sich die Matrix A
schrittweise wie im Falle euklidischer Ringe abändern lässt, bis schließ-
lich die gewünschte Gestalt erreicht ist. 

Wir wollen das für euklidische Ringe beschriebene Verfahren an


einem einfachen Beispiel demonstrieren und betrachten hierzu die Ma-
trix  
6 2 5
A = 32 2 28 ∈ Z3×3 .
30 2 26
Der Bequemlichkeit halber lassen wir zur Bestimmung der Elementar-
teiler von A neben den oben verwendeten elementaren Zeilen- und Spal-
tenumformungen auch noch die Multiplikation einer Zeile bzw. Spalte
mit einer Einheit unseres Ringes R = Z zu. Dies ist erlaubt, denn
auch diese Umformungen lassen sich als Multiplikation von links bzw.
rechts mit invertierbaren Elementarmatrizen interpretieren, und zwar
mit solchen, die aus der Einheitsmatrix hervorgehen, indem man einen
276 6. Normalformentheorie

der Diagonaleinträge 1 durch eine Einheit aus R ersetzt. Wir wollen


uns ansonsten aber an das für euklidische Ringe geschilderte Verfahren
halten, obwohl sich die Bestimmung der Elementarteiler von A durch
eine geschicktere Wahl der elementaren Umformungen noch vereinfa-
chen ließe.
     
6 2 5 2 6 5 2 6 5
(1) (2)
A = 32 2 28 ✲ 2 32 28 ✲ 0 26 23
30 2 26 2 30 26 0 24 21
     
2 0 1 1 0 2 1 0 2
(3)
✲ 0 26 23 (4)✲ 23 26 0 (5)✲ 0 26 −46
0 24 21 21 24 0 0 24 −42
     
1 0 0 1 0 0 1 0 0
(6)
✲ 0 26 46 (7)✲ 0 24 42 (8)✲ 0 24 42
0 24 42 0 26 46 0 2 4
     
1 0 0 1 0 0 1 0 0
(9) (10) (11)
✲ 0 2 4  ✲ 0 2 4  ✲ 0 2 0
0 24 42 0 0 −6 0 0 6

Es ergeben sich also 1, 2, 6 als die Elementarteiler von A, wobei im Ein-


zelnen die folgenden elementaren Umformungen ausgeführt wurden:

(1) Vertauschen von 1. und 2. Spalte


(2) Subtrahieren der 1. von der 2. und der 3. Zeile
(3) Subtrahieren des 3-fachen bzw. 2-fachen der 1. Spalte
von der 2. bzw. 3. Spalte
(4) Vertauschen von 1. und 3. Spalte
(5) Subtrahieren des 23-fachen bzw. 21-fachen der 1. Zeile
von der 2. bzw. 3. Zeile
(6) Subtrahieren des 2-fachen der 1. Spalte von der 3. Spalte,
Multiplikation der 3. Spalte mit −1
(7) Vertauschen von 2. und 3. Zeile
(8) Subtrahieren der 2. Zeile von der 3. Zeile
(9) Vertauschen von 2. und 3. Zeile
(10) Subtrahieren des 12-fachen der 2. Zeile von der 3. Zeile
(11) Subtrahieren des 2-fachen der 2. Spalte von der 3. Spalte,
Multiplikation der 3. Spalte mit −1
6.3 Der Elementarteilersatz 277

Als Nächstes wenden wir uns nun der Eindeutigkeitsaussage in


Lemma 5 bzw. Theorem 4 zu und beginnen mit einem grundlegenden
Lemma, welches auch später noch von Bedeutung sein wird.

Lemma 6. Es sei R ein Hauptidealring und


s
M
Q≃ R/αi R
i=1

ein Isomorphismus von R-Moduln, wobei α1 , . . . L , αs ∈ R − {0} Nicht-


s
einheiten mit αi | αi+1 für 1 ≤ i < s sind und i=1 R/αi R die kon-
struierte direkte Summe der R-Moduln R/αi R bezeichne. Dann sind
α1 , . . . , αs bis auf Assoziiertheit eindeutig durch Q bestimmt.

Beweis. Aus technischen Gründen invertieren wir die Nummerierung


der αi und betrachten zwei Zerlegungen
s
M t
M
Q≃ R/αi R ≃ R/βj R
i=1 j=1

mit αi+1 | αi für 1 ≤ i < s sowie βj+1 | βj für 1 ≤ j < t. Falls es einen
Index k ≤ min{s, t} mit αk R 6= βk R gibt, so wähle man k minimal mit
dieser Eigenschaft. Da αi R = βi R für 1 ≤ i < k und da αk+1 , . . . , αs
sämtlich Teiler von αk sind, zerlegt sich αk Q zu
k−1
M
αk Q ≃ αk · (R/αi R)
i=1
k−1
M t
M
≃ αk · (R/αi R) ⊕ αk · (R/βj R).
i=1 j=k

Wir benutzen nun die Lemmata 2 und 3. Wegen ℓR (αk Q) ≤ ℓR (Q) < ∞
ergibt sich durch Vergleich beider Seiten ℓR (αk · (R/βj R)) = 0 für
j = k, . . . , t. Letzteres bedeutet aber insbesondere αk · (R/βk R) = 0
bzw. αk R ⊂ βk R. Entsprechend zeigt man βk R ⊂ αk R und somit
αk R = βk R, im Widerspruch zur Annahme. Es gilt daher αi R = βi R
für alle Indizes i mit 1 ≤ i ≤ min{s, t}. Hat man weiter Lt s ≤ t, so
folgt, wiederum unter Benutzung von Lemma 3, dass j=s+1 R/βj R
278 6. Normalformentheorie

von der Länge 0 ist, also R/βj R für j = s + 1, . . . , t die Länge 0 hat.
Andererseits ist aber βj für j = 1, . . . , t keine Einheit. Daher besitzt
jeder Modul R/βj R gemäß Lemma 2 eine Länge größer als 0, und es
folgt s = t. 

Beweis der Eindeutigkeitsaussage von Theorem 4 und Lemma 5. Die


Eindeutigkeit in Lemma 5 ist eine Konsequenz der Eindeutigkeitsaus-
sage in Theorem 4. Es genügt daher, die Eindeutigkeit der Elementar-
teiler in Theorem 4 zu zeigen. Seien also x1 , . . . , xs Teil einer Basis
von F , und seien α1 , . . . , αs ∈ R mit αi | αi+1 für 1 ≤ i < s, so dass
α1 x1 , . . . , αs xs eine Basis von M bilden. Betrachtet man dann den Un-
termodul
s
M


F = Rxi = a ∈ F ; es existiert ein α ∈ R − {0} mit αa ∈ M
i=1

von F , so hängt F ′ nur von M und nicht von der speziellen Wahl der
Elemente x1 , . . . , xs ab. Der kanonische Homomorphismus
s
M s
X
F ′ ✲ R/αi R, γi xi ✲ (γ 1 , . . . , γ s ),
i=1 i=1

wobei γ i jeweils die Restklasse von γi in R/Rαi bezeichne, ist dann


surjektiv und besitzt M als Kern, induziert also aufgrund des Homo-
morphiesatzes einen Isomorphismus
s
M

F /M ∼✲ R/αi R.
i=1

Aus der Eindeutigkeitsaussage in Lemma 6 ist dann zu folgern, dass


jedenfalls die Nichteinheiten unter den α1 , . . . , αs bis auf Assoziiertheit
eindeutig durch M bestimmt sind.
Um nun einzusehen, dass auch die Anzahl der Einheiten unter den
α1 , . . . , αs eindeutig durch M bestimmt ist, wollen wir zeigen, dass s als
Anzahl der Elemente einer Basis von M bzw. F ′ eindeutig bestimmt
ist. Da jede Basis z1 , . . . , zs von M Anlass zu einem Isomorphismus
M ∼✲ Rs gibt, genügt es zu zeigen, dass die Existenz eines Isomor-
phismus Rs ∼✲ Rs bereits s = s′ nach sich zieht. Im Falle eines

6.3 Der Elementarteilersatz 279

Körpers R ist dies klar aufgrund der Dimensionstheorie für Vektor-


räume; vgl. z. B. 2.1/8. Ist jedoch R kein Körper, so enthält R − R∗
mindestens ein von Null verschiedenes Element, und dieses lässt sich
gemäß 5.2/13 als Produkt von Primelementen schreiben. Man findet
daher in R mindestens ein Primelement p, und es ist leicht nachzu-
prüfen, dass jeder Isomorphismus von R-Moduln Rs ∼✲ Rs einen

Isomorphismus von R/pR-Moduln

(R/pR)s = Rs /pRs ∼✲ Rs′ /pRs′ = (R/pR)s′

induziert. Da aber R/pR nach 5.2/17 ein Körper ist, können wir wie-
derum s = s′ schließen. Alternativ kann man an dieser Stelle auch die
Eindeutigkeitsaussage von Lemma 6 ausnutzen. 

Korollar 7. Es sei R ein Hauptidealring und F ein endlicher freier


R-Modul. Dann besitzen je zwei Basen von F gleiche Länge.1 Diese
Länge wird auch als der Rang von F bezeichnet.

Beweis. Die Behauptung wurde bereits in obigem Beweis hergeleitet,


um nachzuweisen, dass die Anzahl der Elementarteiler eines Untermo-
duls M ⊂ F eindeutig bestimmt ist. Im Übrigen folgt die Aussage von
Korollar 7 aber auch formal aus der Eindeutigkeitsaussage von Theo-
rem 4, da die Anzahl der Elementarteiler des trivialen Untermoduls
F ⊂ F eindeutig bestimmt ist. 

Für die Berechnung von Elementarteilern in der Situation von


Theorem 4 ist es wichtig zu wissen, dass wir diese als Elementartei-
ler einer Matrix erhalten haben, denn die Elementarteiler einer Matrix
können mit Hilfe des im Beweis zu Lemma 5 gegebenen praktischen
Verfahrens bestimmt werden. Wir wollen die genauen Bedingungen
hier noch einmal gesondert formulieren.

Korollar 8. Es sei R ein Hauptidealring, F ein endlicher freier


R-Modul und M ⊂ F ein Untermodul. Dann ist M endlich erzeugt.
Es sei F ′ ein weiterer endlicher freier R-Modul und f : F ′ ✲ F
eine R-lineare Abbildung, welche eine Basis von F ′ auf ein Erzeugen-
1
Die Aussage gilt allgemeiner für endliche freie Moduln über beliebigen kom-
mutativen Ringen mit 1; vgl. Aufgabe 6.
280 6. Normalformentheorie

densystem von M abbildet, also mit Bild im f = M . Ist dann A eine


Matrix mit Koeffizienten aus R, welche f bezüglich geeigneter Basen
in F und F ′ beschreibt, so stimmen die Elementarteiler von A überein
mit denjenigen von M ⊂ F .

Aufgaben
Es sei R ein kommutativer Ring mit 1, sofern nichts anderes verlangt
ist.
1. Man bestimme die Elementarteiler der folgenden Matrizen:
   
2 6 8 4 0 0
3 1 2 , 0 10 0  ∈ Z3×3
9 5 4 0 0 15

2. Es sei R ein Hauptidealring und A = (αij )i,j ∈ Rm×n eine nicht-triviale


Matrix mit Koeffizienten aus R. Sind dann α1 , . . . , αs die Elementartei-
ler von A, so gilt s > 0 und α1 = ggT(αij ; i = 1, . . . , m, j = 1, . . . , n).
3. Es seien a11 , . . . , a1n teilerfremde Elemente eines Hauptidealrings R,
d. h. es gelte ggT(a11 , . . . , a1n ) = 1. Man zeige, es gibt Elemente aij ∈ R,
i = 2, . . . , n, j = 1, . . . , n, so dass die Matrix (aij )i,j=1,...,n in Rn×n in-
vertierbar ist. (AT 456)
4. Es sei f : M ✲ N ein Homomorphismus endlicher freier Moduln über
einem Hauptidealring R, d. h. M und N mögen jeweils endliche Basen
besitzen. Man verwende die Aussage des Elementarteilersatzes und fol-
gere die Existenz von Basen X von M und Y von N , sowie von Null
verschiedener Elemente α1 , . . . , αs ∈ R mit αi | αi+1 für 1 ≤ i < s, so
dass gilt:  
α1 0 0 0 ... 0
 0 α2 0 0 . . . 0
 
 .. 
 
 .. 
 
Af,X,Y =  0 0 .. .. α 0 . . . 0
 s 
 0 0 .. .. 0 0 . . . 0
 
. .. .. .. .. 
 .. . . . .
0 0 .. .. 0 0 . . . 0
Dabei sind die Elemente α1 , . . . , αs bis auf Assoziiertheit eindeutig be-
stimmt.
6.3 Der Elementarteilersatz 281

5. Man bestimme die Länge von (Z/15Z)4 als Z-Modul.


6. Es sei M ein endlich erzeugter R-Modul, der zudem frei ist. Man zeige
(AT 457):
(i) M besitzt eine endliche Basis.
(ii) Je zwei Basen von M bestehen aus gleichviel Elementen.
7. Für den Elementarteilersatz (Theorem 4) hatten wir einen Untermodul
M eines endlichen freien Moduls F betrachtet. Man zeige, dass die Aus-
sage des Satzes erhalten bleibt, wenn man alternativ F als frei und M
als endlich erzeugt voraussetzt.
8. Es sei V ein Vektorraum über einem Körper K. Zu jedem Endomor-
phismus f : V ✲ V kann man auf V die zugehörige Struktur als
K⌈⌊T ⌉⌋-Modul betrachten, welche charakterisiert ist durch T · v = f (v)
für Elemente v ∈ V . Man zeige, dass man auf diese Weise eine Bijek-
tion zwischen der Menge EndK (V ) und der Menge der K⌈⌊T ⌋⌉-Modul-
Strukturen auf V erhält, die verträglich sind mit der Struktur von V als
K-Vektorraum.
9. (1. Isomorphiesatz für Moduln) Für zwei Untermoduln N, N ′ eines
R-Moduls M betrachte man die Komposition kanonischer Abbildun-
gen N ⊂ ✲ N + N ′ ✲ (N + N ′ )/N ′ und zeige, dass diese N ∩ N ′ als
Kern besitzt und einen Isomorphismus

N/(N ∩ N ′ ) ∼✲ (N + N ′ )/N ′

induziert.
10. (2. Isomorphiesatz für Moduln) Es sei M ein R-Modul mit Untermoduln
N ⊂ N ′ ⊂ M . Man zeige:
(i) Die kanonische Abbildung N ′ ⊂ ✲ M ✲ M/N besitzt N als
Kern und induziert einen Monomorphismus N ′ /N ⊂ ✲ M/N .
Folglich lässt sich N ′ /N mit seinem Bild in M/N identifizieren
und somit als Untermodul von M/N auffassen.
(ii) Die Projektion M ✲ M/N ′ faktorisiert über M/N , d. h. sie
π✲ f✲
lässt sich als Komposition M M/N M/N ′ schrei-
ben, mit einem Modulhomomorphismus f und der kanonischen
Projektion π.
(iii) f besitzt N ′ /N als Kern und induziert einen Isomorphismus

(M/N )/(N ′ /N ) ∼✲ M/N ′ .


282 6. Normalformentheorie

6.4 Endlich erzeugte Moduln über Hauptidealringen

Wir wollen nun einige Folgerungen zur Struktur endlich erzeugter Mo-
duln über Hauptidealringen aus dem Elementarteilersatz ziehen. Im
nächsten Abschnitt sollen die gewonnenen Struktursätze dann in Er-
gebnisse über Normalformen von Endomorphismen von Vektorräumen
umgesetzt werden. Als Hilfsmittel benötigen wir noch den sogenannten
Chinesischen Restsatz, den wir als Erstes beweisen.

Satz 1. Es sei R ein Hauptidealring und


a = εpn1 1 . . . pnr r
eine Primfaktorzerlegung in R mit einer Einheit ε und paarweise nicht-
assoziierten Primelementen pi . Ist dann
πi : R ✲ R/(pni i ), i = 1, . . . , r,
jeweils die kanonische Projektion, so ist der Homomorphismus

ϕ: R ✲ R/(pn1 1 ) × . . . × R/(pnr r ), b ✲ π1 (b), . . . , πr (b) ,
surjektiv und erfüllt ker ϕ = (a), induziert also einen Isomorphismus
R/(a) ∼✲ R/(pn1 ) × . . . × R/(pnr ).
1 r

Dabei ist R/(pn1 1 ) × . . . × R/(pnr r ) als Ring unter komponentenweiser


Addition und Multiplikation zu verstehen.

Beweis. Zunächst zeigen wir, dass ϕ surjektiv ist. Hierzu genügt es


offenbar nachzuprüfen, dass es Elemente e1 , . . . , er ∈ R gibt mit
(
1 für i = j,
πi (ej ) =
0 sonst.
n Q
Da die Elemente pj j und i6=j pni i für fest gewähltes j ∈ {1, . . . , r} tei-
lerfremd sind, ist das von ihnen erzeugte Hauptideal das Einheitsideal.
Folglich existiert für jedes j eine Gleichung des Typs
Y 
n
ej + dj = 1 mit ej ∈ pni i , dj ∈ (pj j ).
i6=j
6.4 Endlich erzeugte Moduln über Hauptidealringen 283

Es gilt dann πi (ej ) = 0 für i 6= j und πj (ej ) = πj (1 − dj ) = 1, wie


gewünscht.
Der Kern von ϕ besteht aus allen Elementen aus R, die durch die
Potenzen pni i , i = 1, . . . , r, teilbar sind, und damit aus den Elementen,
die durch a teilbar sind. Somit ergibt sich ker ϕ = (a), und der be-
hauptete Isomorphismus folgt aus dem Homomorphiesatz 5.1/10. 

In der Situation von Satz 1 lässt sich der Restklassenring R/(a)


auch als R-Modul auffassen. Die Aussage des Chinesischen Restsat-
zes besagt dann, dass R/(a) isomorph zu der konstruierten direkten
Summe der R-Moduln R/(pni i ) ist, also

R/(a) ≃ R/(pn1 1 ) ⊕ . . . ⊕ R/(pnr r ),

wobei wir, wie zu Beginn von Abschnitt 6.3 erläutert, den i-ten Sum-
manden R/(pni i ) mit dem entsprechenden Untermodul

0 × . . . × 0 × R/(pni i ) × 0 × . . . × 0 ⊂ R/(pn1 1 ) × . . . × R/(pnr r )

zu identifizieren haben.
Für einen Modul M über einem Integritätsring R definiert man
den sogenannten Torsionsuntermodul T durch

T = a ∈ M ; es existiert ein α ∈ R − {0} mit αa = 0 .

Man prüft leicht nach, dass T in der Tat ein Untermodul von M ist,
indem man die Nullteilerfreiheit von R benutzt. Es heißt M ein Tor-
sionsmodul, wenn M mit seinem Torsionsuntermodul übereinstimmt.
Der Torsionsuntermodul eines freien Moduls ist stets trivial, freie Mo-
duln sind daher sozusagen als das “Gegenstück” zu den Torsionsmoduln
anzusehen.
Ist M ein Modul über einem Ring R, so bezeichnet man eine exakte
Sequenz von R-linearen Abbildungen
ψ ϕ
Rn ✲ Rm ✲ M ✲ 0

mit geeigneten endlichen freien R-Moduln Rm und Rn auch als eine


endliche Präsentation von M . Genauer gesagt besteht diese aus ei-
nem Epimorphismus ϕ : Rm ✲ M und einer R-linearen Abbildung
284 6. Normalformentheorie

ψ : Rn ✲ Rm mit im ψ = ker ϕ. Eine solche endliche Präsentation


existiert stets, wenn M ein endlich erzeugter Modul über einem Haupt-
idealring R ist. Man wähle nämlich ein endliches Erzeugendensystem
z1 , . . . , zm in M und betrachte die R-lineare Abbildung ϕ : Rm ✲ M ,
welche die kanonische Basis von Rm auf z1 , . . . , zm abbildet. Dann ist
ϕ ein Epimorphismus, und der Untermodul ker ϕ ⊂ Rm ist gemäß
6.3/4 endlich erzeugt. Wir können daher einen weiteren Epimorphis-
mus ψ : Rn ✲ ker ϕ ⊂ Rm und folglich eine endliche Präsentation
von M finden. Ist in dieser Situation A ∈ Rm×n eine Matrix, welche
die R-lineare Abbildung ψ bezüglich geeigneter Basen in Rm und Rn
beschreibt, so bezeichnen wir die Elementarteiler von A auch als die
Elementarteiler der betrachteten endlichen Präsentation von M . Nach
6.3/8 stimmen diese mit den Elementarteilern von ker ϕ ⊂ Rm überein
und hängen daher nicht von der Auswahl der Basen in Rm und Rn ab.
Wir wollen nun aus dem Elementarteilersatz 6.3/4 verschiedene
Versionen des sogenannten Hauptsatzes über endlich erzeugte Moduln
über Hauptidealringen herleiten. Wir beginnen mit einer grundlegen-
den Folgerung aus dem Elementarteilersatz.

Satz 2. Es sei M ein endlich erzeugter Modul über einem Hauptideal-


ring R und T ⊂ M sein Torsionsuntermodul. Dann gibt es einen end-
lichen freien Untermodul F ⊂ M , etwa F ≃ Rd , sowie Nichteinheiten
α1 , . . . , αs ∈ R − {0} mit αj | αj+1 für 1 ≤ j < s und
s
M
M = F ⊕ T, T ≃ R/αj R.
j=1

Dabei ist d eindeutig bestimmt; man bezeichnet d als den Rang von
M . Weiter sind die Elemente α1 , . . . , αs eindeutig bestimmt bis auf
Assoziiertheit. Sie stimmen überein mit den Nichteinheiten unter den
Elementarteilern einer jeden endlichen Präsentation von M .

Beweis. Wir gehen von einer endlichen Präsentation von M aus und be-
trachten den zugehörigen Epimorphismus ϕ : Rm ✲ M . Dann folgt
M ≃ R / ker ϕ aufgrund des Homomorphiesatzes. Auf die Situation
m

ker ϕ ⊂ Rm können wir nun den Elementarteilersatz 6.3/4 anwenden


(wobei wir berücksichtigen, dass jede Basis von Rm gemäß 6.3/7 aus ge-
nau m Elementen besteht). Es existieren daher Elemente x1 , . . . , xm ,
6.4 Endlich erzeugte Moduln über Hauptidealringen 285

die eine Basis von Rm bilden, sowie Elemente α1 , . . . , αs ∈ R − {0},


s ≤ m, mit αj | αj+1 für 1 ≤ j < s, so dass α1 x1 , . . . , αs xs eine Basis
von ker ϕ bilden. Indem wir αs+1 = . . . = αm = 0 setzen, können wir
den Epimorphismus
m
M m
M

ϕ:R = m
Rxj ✲ Rxj /Rαj xj ,
j=1 j=1

(γ1 , . . . , γm ) ✲ (γ 1 , . . . , γ m ),

betrachten, wobei γ j jeweils die Restklasse von γj in Rxj /Rαj xj be-


zeichne. Nach Konstruktion gilt ker ϕ′ = ker ϕ und folglich aufgrund
des Homomorphiesatzes
M m .
m
M ≃ R / ker ϕ = Rxj ker ϕ′
j=1
m
M s
M
m−s
≃ Rxj /Rαj xj ≃ R ⊕ R/αj R,
j=1 j=1

also mit d := m − s eine Zerlegung des behaupteten Typs, wenn wir


Summanden R/αj R = 0, d. h. mit αj ∈L R∗ unterdrücken.
In dieser Zerlegung korrespondiert sj=1 R/αj R zu dem Torsions-
untermodul T ⊂ M und ist daher eindeutig bestimmt. Indem wir tri-
viale Summanden R/αj R ignorieren, bzw. annehmen, dass α1 , . . . , αs
keine Einheiten sind, ergibt sich die Eindeutigkeit der αj mit 6.3/6.
Insbesondere sind die αj unabhängig von der betrachteten Präsenta-
tion von M und bestehen gemäß 6.3/8 aus den Nichteinheiten unter
den Elementarteilern einer solchen Präsentation.
Um zu sehen, dass auch d eindeutig ist, betrachte man den Epi-
morphismus
Ms
M ∼ ✲ d
R ⊕ R/αj R ✲ Rd ,
j=1

der sich aus dem obigen Isomorphismus und der Projektion auf den
Summanden Rd zusammensetzt. Der Kern dieser Abbildung ist offen-
bar gerade der Torsionsuntermodul T ⊂ M , so dass man aufgrund
des Homomorphiesatzes einen Isomorphismus M/T ∼✲ Rd erhält.
Hieraus folgt die Eindeutigkeit von d mit 6.3/7. 
286 6. Normalformentheorie

Speziellere Versionen des Hauptsatzes über endlich erzeugte Mo-


duln über Hauptidealringen lassen sich mittels des Chinesischen Rest-
satzes aus Satz 2 folgern.

Satz 3. Es sei M ein endlich erzeugter Modul über einem Hauptideal-


ring R und T ⊂ M der Torsionsuntermodul. Weiter sei P ⊂ R ein
Vertretersystem der Primelemente von R, und für p ∈ P bezeichne

Mp = {x ∈ M ; pn x = 0 für geeignetes n ∈ N}

den sogenannten Untermodul der p-Torsion in M . Dann gilt


M
T = Mp ,
p∈P

und es gibt einen endlichen freien Untermodul F ⊂ M , etwa F ≃ Rd ,


mit
M = F ⊕ T,
wobei d eindeutig bestimmt ist und Mp für fast alle p ∈ P verschwindet.
Zu jedem p ∈ P gibt es natürliche Zahlen 1 ≤ n(p, 1) ≤ . . . ≤ n(p, sp )
mit M
Mp ≃ R/pn(p,jp ) R,
jp =1...sp

wobei die Zahlen sp und n(p, jp ) durch die Isomorphie


M M
M ≃F ⊕ R/pn(p,jp ) R
p∈P jp =1...sp

eindeutig bestimmt sind und im Übrigen sp = 0 für fast alle p gilt.

Bevor wir zum Beweis kommen, wollen wir diesen Hauptsatz auch
noch speziell für endlich erzeugte Z-Moduln formulieren, als Hauptsatz
über endlich erzeugte abelsche Gruppen.

Korollar 4. Es sei G eine endlich erzeugte abelsche Gruppe, also eine


abelsche Gruppe, die als Z-Modul endlich erzeugt ist. P sei die Menge
der Primzahlen in N. Dann besitzt G eine Zerlegung in eine direkte
Summe von Untergruppen
6.4 Endlich erzeugte Moduln über Hauptidealringen 287
M M
G=F ⊕ Gp,jp ,
p∈P jp =1...sp

wobei F frei ist, etwa F ≃ Zd , und Gp,jp ≃ Z/pn(p,jp ) Z mit Exponenten


1 ≤ n(p, 1) ≤ . . . ≤ n(p, sp ) gilt; in diesem Zusammenhang werden die
Gruppen vom Typ Gp,jp als zyklisch von p-Potenz-Ordnung bezeich-
net. Die Zahlen d, sp , n(p,Ljp ) sind eindeutig durch G bestimmt, ebenso
die Untergruppen Gp = jp =1...sp Gp,jp , wobei sp für fast alle p ∈ P
verschwindet.

Wenn G eine endlich erzeugte Torsionsgruppe ist, also ein über


Z endlich erzeugter Torsionsmodul, so besitzt G keinen freien Anteil
und besteht daher, wie man insbesondere mit Korollar 4 sieht, nur aus
endlich vielen Elementen. Umgekehrt ist jede endliche abelsche Gruppe
natürlich eine endlich erzeugte Torsionsgruppe.
Nun zum Beweis von Satz 3. Wir beginnen mit der Zerlegung
s
M
d
M ≃R ⊕ R/αj R
j=1

aus Satz 2, wobei


Ls insbesondere d eindeutig bestimmt ist. Hierbei kor-
respondiert j=1 R/αj R zu dem Torsionsuntermodul T ⊂ M , sowie
R zu einem freien Modul F ⊂ M , und es gilt M = F ⊕ T .
d

Als Nächstes zerlege man die Elemente αj in Primfaktoren, etwa


n(1,j) n(r,j)
αj = εj p1 . . . pr mit Einheiten εj ∈ R∗ , paarweise verschiedenen
Primelementen p1 , . . . , pr ∈ P , sowie Exponenten n(i, j) ∈ N, die auch
trivial sein dürfen. Dann gilt aufgrund von Satz 1
s M
M r r M
M s
n(i,j) n(i,j)
T ≃ R/pi R ≃ R/pi R.
j=1 i=1 i=1 j=1
L n(i,j)
In dieser Zerlegung korrespondiert sj=1 R/pi R offenbar gerade zu
dem Untermodul Mpi ⊂ M der pi -Torsion und ist deshalb eindeutig be-
stimmt; die Restklasse von pi ist nämlich in jedem Restklassenring der

Form R/pni′ R mit iL 6= i eine Einheit. Somit folgt aus obiger Zerlegung
insbesondere T = p∈P Mp . Da im Übrigen in der Zerlegung
s
M n(i,j)
M pi ≃ R/pi R
j=1
288 6. Normalformentheorie

die Terme zu Exponenten n(i, j) = 0 trivial sind und die restlichen


Terme gemäß 6.3/6 eindeutig bestimmt sind, ergibt sich insgesamt die
Behauptung von Satz 3. 

Aufgaben

Für eine Gruppe G bezeichnet man mit ord G die Anzahl ihrer Elemente
und nennt dies die Ordnung von G.

1. Es sei G eine abelsche Gruppe der Ordnung n < ∞. Man zeige: Zu


jedem Teiler d von n gibt es eine Untergruppe H ⊂ G der Ordnung d.
Andererseits besitzt jede Untergruppe H ⊂ G eine Ordnung, die ein
Teiler von n ist. (AT 459)

2. Zu n ⊂ N gibt es höchstens endlich viele Klassen isomorpher abelscher


Gruppen der Ordnung n. Wie groß ist diese Anzahl für n = 20 bzw.
n = 30?

3. Es seien a1 , . . . , an ∈ N − {0} paarweise teilerfremd und r1 , . . . , rn ∈ N


Zahlen mit 0 ≤ ri < ai für i = 1, . . . , n. Man zeige: Es existiert eine Zahl
a ∈ N, so dass a bei ganzzahliger Division durch ai jeweils den Rest ri
lässt.

4. Es sei M ein endlich erzeugter Modul über einem Hauptidealring R.


Für den Fall, dass M kein Torsionsmodul ist, zeige man: P Es existieren
endlich viele freie Untermoduln F1 , . . . , Fr ⊂ M mit M = ri=1 Fi .

5. Über einem Hauptidealring R betrachte man endliche freie Moduln F


und F ′ mit Untermoduln M ⊂ F und M ′ ⊂ F ′ , so dass die Restklassen-
moduln F/M und F ′ /M ′ jeweils Torsionsmoduln sind. Man zeige: Es
existiert genau dann ein Isomorphismus F/M ∼✲ F ′ /M ′ , wenn die
Nichteinheiten unter den Elementarteilern von M ⊂ F mit denen von
M ′ ⊂ F ′ übereinstimmen.

6. Es sei K ein Körper und G ⊂ K ∗ eine endliche Untergruppe der multi-


plikativen Gruppe der Einheiten von K. Man zeige, dass G zyklisch ist,
d. h. dass es ein n ∈ Z mit G ≃ Z/nZ gibt. (AT 462) (Hinweis: Man
betrachte Nullstellen aus K von Polynomen des Typs T n − 1 ∈ K⌈⌊T ⌋⌉.)
6.5 Allgemeine und Jordansche Normalform für Matrizen 289

6.5 Allgemeine und Jordansche Normalform für Ma-


trizen

Es sei V ein Vektorraum über einem Körper K und f : V ✲ V ein


Endomorphismus. Wie wir in Abschnitt 6.3 gesehen haben, lässt sich
V unter f als Modul über dem Polynomring K⌈⌊T ⌉⌋ auffassen. Hier-
zu erweitert man die Struktur von V als K-Vektorraum, indem man
die äußere Multiplikation mit der Variablen T auf V durch Anwenden
von f erklärt. Umgekehrt kann man aus einem K⌈⌊T ⌉⌋-Modul M einen
K-Vektorraum V mit einem Endomorphismus f : V ✲ V zurückge-
winnen. Man setze V = M und schränke die skalare Multiplikation von
M auf die konstanten Polynome, also auf K, ein. Auf diese Weise ergibt
sich V als K-Vektorraum, und man kann die K-lineare Abbildung

V ✲ V, x ✲ T · x,

als Endomorphismus von V ansehen. Da die beiden Konstruktionen zu-


einander invers sind, erhält man für einen gegebenen K-Vektorraum V
eine Bijektion zwischen den K-linearen Abbildungen V ✲ V und den
K⌈⌊T ⌉⌋-Modulstrukturen auf V , welche die gegebene K-Vektorraum-
struktur von V erweitern.
Betrachten wir nun einen K-Vektorraum V endlicher Dimension
unter einem Endomorphismus f : V ✲ V als K⌈⌊T ⌉⌋-Modul, so exis-
tiert ein eindeutig bestimmtes normiertes Polynom minimalen Gra-
des pf ∈ K⌈⌊T ⌉⌋ mit pf · v = 0 für alle v ∈ V ; man nennt pf
das Minimalpolynom zu f , vgl. 6.2/9. Es ist V dann insbesonde-
re ein K⌈⌊T ⌉⌋-Torsionsmodul, sogar ein endlich erzeugter, da V als
K-Vektorraum endlich erzeugt ist. Wir können daher das Struktur-
resultat 6.4/3 auf V als K⌈⌊T ⌉⌋-Modul anwenden.

Definition 1. Es sei f : V ✲ V ein Endomorphismus eines K-Vek-


torraums V , sowie U ⊂ V ein Untervektorraum.
(i) U heißt f -invariant, wenn f (U ) ⊂ U gilt. Für die von f auf U
induzierte Abbildung verwenden wir die Notation f |U : U ✲ U.
(ii) U heißt f -zyklisch, wenn es einen Vektor u ∈ U gibt, so dass
die Folge u, f (u), f 2 (u), . . . ein Erzeugendensystem von U bildet; ins-
besondere ist U dann auch f -invariant.
290 6. Normalformentheorie

(iii) U heißt f -unzerlegbar, wenn U ein f -invarianter Untervek-


torraum 6= 0 ist, der sich nicht in eine direkte Summe zweier echter
Untervektorräume zerlegen lässt, die ebenfalls f -invariant sind.

Wir wollen die gerade eingeführten Eigenschaften von Unterräu-


men nun auch modultheoretisch interpretieren. Ein Modul M über ei-
nem Ring R wird als monogen bezeichnet, wenn er von einem einzigen
Element erzeugt wird, d. h. wenn ein a ∈ M existiert mit M = Ra.

Bemerkung 2. Es sei f : V ✲ V ein Endomorphismus eines


K-Vektorraums V , wobei man V insbesondere auch als K⌈⌊T ⌉⌋-Modul
bezüglich f betrachte. Für eine Teilmenge U ⊂ V gilt dann:
(i) U ist genau dann ein f -invarianter Untervektorraum von V ,
wenn U ein K⌈⌊T ⌉⌋-Untermodul von V ist.
(ii) U ist genau dann ein f -zyklischer Untervektorraum von V ,
wenn U ein monogener K⌈⌊T ⌉⌋-Untermodul von V ist.
(iii) U ist genau dann ein f -unzerlegbarer Untervektorraum von V ,
wenn U ein K⌈⌊T ⌉⌋-Untermodul 6= 0 von V ist, der sich nicht in eine
direkte Summe zweier echter K⌈⌊T ⌉⌋-Untermoduln zerlegen lässt.

Beweis. Aussage (i) ist unmittelbar klar, denn für Untervektorräume


U ⊂ V bedeutet die Bedingung f (u) ∈ U für u ∈ U gerade T · u ∈ U
und ist daher äquivalent zu q ·u ∈ U für q ∈
PK⌈⌊T ⌉⌋, u i∈ U . In ähnlicher
Weise erhält man Aussage (ii),Pdenn U = i∈N K · f (u) für ein u ∈ U
ist gleichbedeutend mit U = i∈N K · T i · u, also mit U = K⌈⌊T ⌉⌋ · u.
Aussage (iii) schließlich beruht auf der Tatsache, dass für f -invariante
Untervektorräume bzw. K⌈⌊T ⌉⌋-Untermoduln U ′ , U ′′ ⊂ V die Summe
U = U ′ + U ′′ genau dann direkt ist, wenn jedes u ∈ U eine eindeutig
bestimmte Darstellung u = u′ +u′′ mit u′ ∈ U ′ , u′′ ∈ U ′′ besitzt. Ob wir
bei der skalaren Multiplikation Elemente aus K oder K⌈⌊T ⌉⌋ zulassen,
ist dabei ohne Belang. 

Im Weiteren ist es auch wichtig zu wissen, wie man Homomorphis-


men von K⌈⌊T ⌉⌋-Moduln mittels Homomorphismen der unterliegenden
K-Vektorräume interpretieren kann.
6.5 Allgemeine und Jordansche Normalform für Matrizen 291

Bemerkung 3. Es seien V und V ′ zwei K-Vektorräume, welche man


bezüglich gegebener Endomorphismen f : V ✲ V und f ′ : V ′ ✲ V′
als K⌈⌊T ⌉⌋-Moduln betrachte. Für Abbildungen ϕ : V ✲ V ist dann

äquivalent:
(i) ϕ ist ein Homomorphismus von K⌈⌊T ⌉⌋-Moduln.
(ii) ϕ ist ein Homomorphismus von K-Vektorräumen, und das Dia-
gramm
f
V ✲ V, v ✲ f (v) = T · v,

ϕ ϕ
❄ ❄
f′
V′ ✲ V ′, v′ ✲ f ′ (v ′ ) = T · v ′ ,

ist kommutativ.
Eine entsprechende Äquivalenz gilt auch für Mono-, Epi- und Iso-
morphismen ϕ : V ✲ V ′ . Insbesondere stimmen in der Situation
eines Isomorphismus ϕ in (i) bzw. (ii) die Minimalpolynome von f
und f ′ überein. Gleiches gilt für die charakteristischen Polynome von
f und f ′ .

Beweis. Jeder Homomorphismus von K⌈⌊T ⌉⌋-Moduln ϕ : V ✲ V ′ ist


K⌈⌊T ⌉⌋-linear und damit insbesondere K-linear, also ein Homomorphis-
mus von K-Vektorräumen. Zudem bedeutet die Kommutativität des
Diagramms in (ii) gerade die T -Linearität von ϕ, womit wir
ϕ(T · v) = T · ϕ(v) für alle v ∈ V
meinen. Somit ergibt sich (ii) aus (i) und umgekehrt (i) auch aus
(ii), wenn man benutzt, dass aus der T -Linearität die T n -Linearität
von ϕ für alle n ∈ N folgt, und aufgrund der Additivität sogar
die K⌈⌊T ⌉⌋-Linearität von ϕ. Entsprechend schließt man im Falle von
Mono-, Epi- oder Isomorphismen. 

Satz 4. Es sei f : V ✲ V ein Endomorphismus eines K-Vektorraums


V der Dimension r < ∞. Man betrachte V als K⌈⌊T ⌉⌋-Modul bezüg-
lich f . Dann ist äquivalent:
(i) V ist f -zyklisch.
(ii) V ist als K⌈⌊T ⌉⌋-Modul monogen.
(iii) Es gibt ein normiertes Polynom p ∈ K⌈⌊T ⌉⌋, so dass V als
K⌈⌊T ⌉⌋-Modul isomorph zu K⌈⌊T ⌉⌋/(p) ist.
292 6. Normalformentheorie

Sind diese Bedingungen erfüllt, so gilt weiter : Das Polynom p aus


(iii) stimmt mit dem Minimalpolynom pf sowie dem charakteristischen
Polynom χf von f überein; insbesondere gilt grad p = r.

Beweis. Die Bedingungen (i) und (ii) sind aufgrund von Bemerkung 2
äquivalent. Wird weiter V gemäß Bedingung (ii) als K⌈⌊T ⌉⌋-Modul von
dem Element u ∈ V erzeugt, so betrachte man die K⌈⌊T ⌉⌋-lineare Ab-
bildung
ϕ : K⌈⌊T ⌉⌋ ✲ V, h ✲ h · u = h(f )(u);
ϕ ist surjektiv. Weiter ist ker ϕ ein K⌈⌊T ⌉⌋-Untermodul von K⌈⌊T ⌉⌋, also
ein Ideal, welches, da K⌈⌊T ⌉⌋ ein Hauptidealring ist, von einem Poly-
nom p ∈ K⌈⌊T ⌉⌋ erzeugt wird. Der Homomorphiesatz für K⌈⌊T ⌉⌋-Moduln
ergibt dann den in (iii) gewünschten Isomorphismus K⌈⌊T ⌉⌋/(p) ≃ V .
Wegen dimK V < ∞ und dimK K⌈⌊T ⌉⌋ = ∞ gilt p 6= 0, und man darf p
als normiertes Polynom annehmen.
Ist andererseits Bedingung (iii) gegeben, so betrachte man die Rest-
klassenabbildung K⌈⌊T ⌉⌋ ✲ K⌈ ⌊T ⌉⌋/(p), h ✲ h. Die Restklasse
1 ∈ K⌈⌊T ⌉⌋/(p) erzeugt dann natürlich K⌈⌊T ⌉⌋/(p) als K⌈⌊T ⌉⌋-Modul, d. h.
es folgt (ii).
Es bleibt noch die zusätzliche Aussage zur Charakterisierung des
Polynoms p zu begründen, wobei wir (i) bzw. (iii) als gegeben an-
nehmen. Sei σ : V ∼✲ K⌈⌊T ⌉⌋/(p) ein Isomorphismus im Sinne von
K⌈⌊T ⌉⌋-Moduln, wie in (iii) gefordert, so dass also mit Bemerkung 3 das
Diagramm
f
V ✲V

σ σ
❄ ❄
f′
K⌈⌊T ⌉⌋/(p) ✲ K⌈⌊T ⌉⌋/(p)

kommutativ ist; f bezeichne die Multiplikation mit T auf K⌈⌊T ⌉⌋/(p).
Wir wollen zeigen, dass p das Minimalpolynom von f ′ ist. Gemäß 6.2/9
bzw. 6.2/10 erzeugt das Minimalpolynom von f ′ das Ideal

h ∈ K⌈⌊T ⌉⌋ ; h(f ′ )(g) = 0 für alle g ∈ K⌈⌊T ⌉⌋/(p)

= h ∈ K⌈⌊T ⌉⌋ ; h · g = 0 für alle g ∈ K⌈⌊T ⌉⌋/(p)
 
= h ∈ K⌈⌊T ⌉⌋ ; h · 1 = 0 = h ∈ K⌈⌊T ⌉⌋ ; h = 0
= (p) ⊂ K⌈⌊T ⌉⌋,
6.5 Allgemeine und Jordansche Normalform für Matrizen 293

wobei für h ∈ K⌈⌊T ⌉⌋ jeweils h die Restklasse in K⌈⌊T ⌉⌋/(p) sei. Also ist p
das Minimalpolynom von f ′ und stimmt somit nach Bemerkung 3 mit
dem Minimalpolynom pf des Endomorphismus f : V ✲ V überein.
Dass p = pf gilt, können wir in etwas ausführlicherer Argumenta-
tion auch auf dem Niveau des Endomorphismus f und des Vektorraums
V einsehen: Es erzeugt pf gemäß 6.2/9 bzw. 6.2/10 dasjenige Ideal in
K⌈⌊T ⌉⌋, welches aus allen Polynomen h mit h(f ) = 0 besteht. Also gilt

(∗) (pf ) = h ∈ K⌈⌊T ⌉⌋ ; h(f )(v) = 0 für alle v ∈ V ,

wobei es genügt, wenn man die Bedingung h(f )(v) = 0 für v aus einem
K-Erzeugendensystem von V testet. Ist daher V als K⌈⌊T ⌉⌋-Modul mo-
nogen, etwa erzeugt von einem Element u ∈ V , so bilden die Elemente
u, f (u), f 2 (u), . . . ein K-Erzeugendensystem von V , und die Beschrei-
bung (∗) ist äquivalent zu
 
(∗∗) (pf ) = h ∈ K⌈⌊T ⌉⌋ ; h(f ) f n (u) = 0 für alle n ∈ N .

Nun zeigt aber die Rechnung



h(f ) f n (u) = h · f n (u) = h · T n · u = T n · h · u = T n · h(f )(u),

dass aus h(f )(u) = 0 bereits h(f )(f n (u)) = 0 für alle n ∈ N folgt.
Somit erhält man aus (∗∗)
 
(pf ) = h ∈ K⌈⌊T ⌉⌋ ; h(f )(u) = 0 = h ∈ K⌈⌊T ⌉⌋ ; h · u = 0 = (p)

und damit wegen der Normiertheit von pf und p bereits pf = p.


Insbesondere stimmt der Grad von pf aufgrund des nachfolgenden
Lemmas 5 mit der K-Vektorraumdimension von K⌈⌊T ⌉⌋/(p) überein,
also mit der Dimension r von V . Da aber das charakteristische Poly-
nom χf normiert vom Grad dimK V ist und da aufgrund des Satzes
von Cayley-Hamilton pf ein Teiler von χf ist, vgl. 6.2/11, gilt bereits
χf = pf . Die Gleichung χf = p lässt sich allerdings auch durch ex-
plizite Berechnung nachweisen, indem man die Multiplikation mit T
auf K⌈⌊T ⌉⌋/(p) bezüglich der Basis T 0 , . . . , T r−1 durch eine Matrix be-
schreibt und deren charakteristisches Polynom ermittelt. 

Schließlich bleibt noch die K-Vektorraumdimension von Quotien-


ten des Typs K⌈⌊T ⌉⌋/(p) zu berechnen.
294 6. Normalformentheorie

Lemma 5. Es sei p ∈ K⌈⌊T ⌉⌋ ein normiertes Polynom. Dann gilt



dimK K⌈⌊T ⌉⌋/(p) = grad p,
und die Restklassen T 0 , . . . , T s−1 mit s = grad p bilden eine K-Basis
von K⌈⌊T ⌉⌋/(p).

Beweis. Es genügt zu zeigen, dass für s = grad p die Restklassen


T 0 , . . . , T s−1 eine K-Basis von K⌈⌊T ⌉⌋/(p) bilden. Hierzu betrachte man
ein beliebiges Element h ∈ K⌈⌊T ⌉⌋/(p) und wähle ein Urbild h ∈ K⌈⌊T ⌉⌋.
Division mit Rest ergibt dann eine Zerlegung h = qp + P c mit Polyno-
men q, c ∈ K⌈⌊T ⌉⌋, wobei c vom Grad < s ist, etwa c = s−1 i
i=0 ci T mit
Koeffizienten ci ∈ K. Es folgt
s−1
X
h=c= ci T i ,
i=0

d. h. K⌈⌊T ⌉⌋/(p) wird von den Restklassen T 0 , . . . , T s−1 als K-Vektor-


raum erzeugt. Diese Elemente sind aber auchPlinear unabhängig über
K. Hat man nämlich nämlich eine Gleichung s−1 i=0 ci T = 0 mit gewis-
i
P
sen Koeffizienten ci ∈ K, so bedeutet dies s−1 i=0 ci T ∈ (p) und damit
i

ci = 0 für alle i = 0, . . . , s − 1, da alle von Null verschiedenen Elemente


in (p) einen Grad ≥ grad p = s haben. 

Wir wollen nun den Struktursatz 6.4/3 umformulieren zu einem


Struktursatz für K⌈⌊T ⌉⌋-Moduln oder, genauer, für die Situation eines
endlich-dimensionalen K-Vektorraums V mit einem Endomorphismus
f: V ✲ V.

Theorem 6. Es sei V ein endlich-dimensionaler K-Vektorraum mit


einem Endomorphismus f : V ✲ V . Dann existieren paarweise
verschiedene normierte (und damit nicht-assoziierte) Primpolynome 2
p1 , . . . , pr ∈ K⌈⌊T ⌉⌋ sowie natürliche Zahlen 1 ≤ n(i, 1) ≤ . . . ≤ n(i, si )
und f -zyklische K-Untervektorräume Vij ⊂ V für Indizes i = 1, . . . , r,
j = 1, . . . , si , so dass V eine Zerlegung
Mr M si
n(i,j)
V = Vij , Vij ≃ K⌈⌊T ⌉⌋/(pi ),
i=1 j=1

2
In Polynomringen bezeichnen wir Primelemente auch als Primpolynome.
6.5 Allgemeine und Jordansche Normalform für Matrizen 295

n(i,j)
im Sinne von K⌈⌊T ⌉⌋-Moduln besitzt. Insbesondere ist pi das Mini-
mal - bzw. charakteristische Polynom von f |Vij ; vgl. Satz 4.
In der vorstehenden Zerlegung sind die Primpolynome
Lsi p1 , . . . , pr ,
die Zahlen n(i, j) und die Vektorräume Vi := j=1 Vij für i = 1, . . . , r
eindeutig bestimmt, nicht notwendig jedoch die Unterräume Vij selbst;
es gilt [
Vi = ker pni (f ).
n∈N

n(1,s1 ) n(r,sr )
Weiter ist pf = p1 · . . . · pr das Minimalpolynom von f , und
man hat
dimK Vij = n(i, j) · grad pi ,
insbesondere also
si
r X
X
dimK V = n(i, j) · grad pi .
i=1 j=1

Beweis. Die Aussagen zur Existenz und Eindeutigkeit einer Zerlegung


von V in f -zyklische Unterräume Vij der behaupteten LsArt ergeben
sich unmittelbar aus 6.4/3 und Satz 4. Dabei ist Vi = j=1 Vij in der
i

Sprache der K⌈⌊T ⌉⌋-Moduln der Untermodul der pi -Torsion, und der
freie Anteil aus 6.4/3 entfällt, da V ein K⌈⌊T ⌉⌋-Torsionsmodul ist.
n(i,j)
Gemäß Satz 4 ist pi das Minimalpolynom der Einschränkung
von f auf Vij . Dann erkennt man leicht, dass das kleinste gemeinsame
Vielfache aller dieser Polynome, also
n(1,s1 )
p1 · . . . · pn(r,s
r
r)

das Minimalpolynom von f auf V ist. Die Dimensionsformeln schließ-


lich ergeben sich unter Benutzung von 1.6/6 aus Lemma 5. 

Korollar 7. Es sei f : V ✲ V ein Endomorphismus eines endlich-


dimensionalen K-Vektorraums V . Dann ist äquivalent:
(i) V ist f -unzerlegbar.
(ii) V ist f -zyklisch, und pf = χf ist Potenz eines Primpolynoms
in K⌈⌊T ⌉⌋.
Insbesondere kann man folgern: Die f -zyklischen K-Untervektor-
räume Vij ⊂ V aus Theorem 6 sind f -unzerlegbar.
296 6. Normalformentheorie

Beweis. Man zerlege V gemäß Theorem 6 in eine direkte Summe


f -zyklischer Unterräume, deren Minimalpolynom jeweils Potenz eines
Primpolynoms aus K⌈⌊T ⌉⌋ ist. Ist V dann f -unzerlegbar, so kann diese
Zerlegung nur aus einem Summanden bestehen, und es folgt, dass V
f -zyklisch ist.
Ist andererseits V ein f -zyklischer Vektorraum mit einem Mini-
malpolynom pf , welches Potenz eines Primpolynoms in K⌈⌊T ⌉⌋ ist,
so gilt V ≃ K⌈⌊T ⌉⌋/(pf ) im Sinne von K⌈⌊T ⌉⌋-Moduln gemäß Satz 4,
und die Eindeutigkeit der Zerlegung in Theorem 6 zeigt, dass V ein
f -unzerlegbarer Vektorraum ist. 

Schließlich wollen wir das Zerlegungstheorem 6 noch umformulieren


zu einer Aussage über Normalformen von quadratischen Matrizen. Wir
beginnen mit einer trivialen Beobachtung, wobei wir folgende Schreib-
weise benutzen: Für Matrizen P Ai ∈ K ni ×ni , i = 1, . . . , r, bezeichne
Diag(A1 , . . . , Ar ) ∈ K n×n , n = ri=1 ni , die “Diagonalmatrix” mit den
Einträgen A1 , . . . , Ar , also
 
A1 0
 A2 
 
Diag(A1 , . . . , Ar ) = 
 ... 

 ... 
0 Ar

Gilt Ai = (λi ) ∈ K 1×1 für i = 1, . . . , r, so ist Diag(A1 , . . . , Ar ) eine Dia-


gonalmatrix im echten Sinne, und wir schreiben auch Diag(λ1 , . . . , λr )
anstelle von Diag(A1 , . . . , Ar ).

Lemma 8. Es sei f : V ✲ V ein Endomorphismus eines endlich-


L
dimensionalen K-Vektorraums V mit einer Zerlegung V = ri=1 Vi in
f -invariante Unterräume. Es sei Xi jeweils eine Basis von Vi , sowie
X die Basis von V , die sich aus den Basen X1 , . . . , Xr zusammen-
setzt. Mit fi = f |Vi gilt dann für die zu f gehörige Matrix sowie das
charakteristische bzw. Minimalpolynom:
(i) Af,X,X = Diag(Af1 ,X1 ,X1 , . . . , Afr ,Xr ,Xr ).
(ii) χf = χf1 · . . . · χfr .
(iii) pf = kgV(pf1 , . . . , pfr ).
6.5 Allgemeine und Jordansche Normalform für Matrizen 297

Lemma 9. Es sei f : V ✲ V ein Endomorphismus eines K-Vektor-


raums V mit einer Basis X = (x1 , . . . , xn ). Ist dann die Matrix Af,X,X ,
die f bezüglich der Basis X beschreibt, eine Diagonalmatrix Prder Form
Diag(A1 , . . . , Ar ) mit Matrizen Ai ∈ K ni ×ni
, wobei n = i=1 ni gilt,
Pi
so sind für mi = j=1 nj und m0 = 0 die Unterräume

mi
X
Vi = K · xj , i = 1, . . . , r,
j=mi−1 +1

Lr
f -invariant, und es gilt V = i=1 Vi .

Beweis zu den Lemmata 8 und 9. Aussage (i) in Lemma 8 wie auch die
Aussage von Lemma 9 sind unmittelbar klar aufgrund der in 3.1/3 de-
finierten Korrespondenz zwischen linearen Abbildungen und beschrei-
benden Matrizen. Weiter folgt Aussage (ii) in Lemma 8 aufgrund des
Beispiels (2) am Ende von Abschnitt 4.3. Aussage (iii) schließlich ist
gültig, da einerseits das kleinste gemeinsame Vielfache aller pfi den En-
domorphismus f annulliert, sowie andererseits pf ein Vielfaches eines
jeden pfi sein muss. 

Wir wollen nun für einen f -zyklischen K-Vektorraum endlicher


Dimension n den zugehörigen Endomorphismus f : V ✲ V mittels
geeigneter Matrizen beschreiben.
Pn−1Hierzu betrachten wir zu einem nor-
n i
mierten Polynom p = T + i=0 ci T ∈ K⌈⌊T ⌉⌋ vom Grad n die soge-
nannte Begleitmatrix
 
0 −c0
1 0 −c1 
 
 1 . −c 
 2 

A(p) =  . . ...  ∈ K n×n ,

 . . . . . 
 
 . 0 −cn−2 
1 −cn−1

welche an den nicht markierten Stellen noch mit Nullen aufzufüllen ist.
Insbesondere gilt A(p) = (−c0 ) für n = 1. Auch den Sonderfall n = 0
wollen wir nicht ausschließen. Es ist A(p) dann die leere Matrix.
298 6. Normalformentheorie

Lemma 10. Es sei f : V ✲ V ein Endomorphismus eines endlich-


dimensionalen K-Vek tor raums V und p ∈ K⌈⌊T ⌉⌋ ein normiertes Po-
lynom. Dann ist äquivalent:
(i) V ist f -zyklisch mit Minimalpolynom pf = p.
(ii) Es existiert eine Basis X von V , so dass die Matrix Af,X,X die
Begleitmatrix zu p ist.

Beweis. Für V = 0 ist die Aussage trivial, so dass wir V 6= 0 an-


nehmen dürfen. Sei V zunächst f -zyklisch, gelte also V ≃ K⌈⌊T ⌉⌋/(p)
im Sinne von K⌈⌊T ⌉⌋-Moduln, wobei p = pf das Minimalpolynom von
f ist und grad p = dimK (V ) gilt; vgl. Satz 4. Sei n = grad p. Dann
ergeben die Restklassen T 0 , . . . , T n−1 gemäß Lemma 5 eine K-Basis
von K⌈⌊T ⌉⌋/(p), bzw. mit anderen Worten, es existiert ein Element
u ∈ V (nämlich dasjenige Element, welches unter dem Isomorphis-
mus V ≃ K⌈⌊T ⌉⌋/(p) zu der Restklasse 1 ∈ K⌈⌊T ⌉⌋/(p) korrespondiert),
so dass f 0 (u), f 1 (u), . . . , f n−1 (u) eine K-Basis X von V bilden. Für
p = T n + cn−1 T n−1 + . . . + c0 folgt dann
n−1
X
n−1
 n
f f (u) = f (u) = − ci f i (u),
i=0

und man sieht, dass Af,X,X die Begleitmatrix zu p ist.


Sei nun umgekehrt X = (x1 , . . . , xn ) eine Basis von V , so dass
Af,X,X die Begleitmatrix zu einem normierten Polynom p ∈ K⌈⌊T ⌉⌋
ist, das folglich den Grad n besitzt. Setzen wir dann u = x1 , so gilt
xi = f i−1 (u) für i = 1, . . . , n, und es folgt, dass V f -zyklisch ist,
erzeugt von u und seinen Bildern unter f . Weiter liest man aus der
Matrix Af,X,X die Beziehungen p(f )(u) = 0 bzw. p · u = 0 im Sinne
von V als K⌈⌊T ⌉⌋-Modul ab. Da aber V = K⌈⌊T ⌉⌋ · u gilt, ergibt sich
bereits p · V = 0, und es folgt, dass das Minimalpolynom pf ein Teiler
von p ist. Gemäß Satz 4 stimmt pf mit dem charakteristischen Polynom
χf von f überein und hat damit ebenso wie p den Grad n, so dass sich
insgesamt χf = pf = p ergibt. 

Nachdem das Zusammenspiel zwischen f -zyklischen Vektorräumen


und beschreibenden Matrizen des Endomorphismus f mit Lemma 10
geklärt ist, können wir nun aus Theorem 6 die Existenz und Eindeu-
tigkeit der sogenannten allgemeinen Normalform für Matrizen folgern.
6.5 Allgemeine und Jordansche Normalform für Matrizen 299

Theorem 11 (Allgemeine Normalform). Jede Matrix A ∈ K n×n


ist ähnlich zu einer Matrix der Form Diag(A1 , . . . , Ar ) mit quadra-
tischen Matrizen Ai , wobei Ai jeweils die Begleitmatrix zu einer Po-
tenz qi eines normierten Primpolynoms aus K⌈⌊T ⌉⌋ ist. Die Matrizen
A1 , . . . , Ar sind bis auf die Reihenfolge eindeutig durch A bestimmt.
Es gilt pA = kgV(q1 , . . . , qr ) für das Minimalpolynom von A, sowie
χA = q1 · . . . · qr für das charakteristische Polynom von A.

Beweis. Wir wählen einen n-dimensionalen K-Vektorraum V und inter-


pretieren A als Matrix eines geeigneten Endomorphismus f : V ✲ V.
Dann zerfällt V nach Theorem 6 in eine direkte Summe f -zyklischer
Unterräume V1 , . . . , Vr , etwa Vi ≃ K⌈⌊T ⌉⌋/(qi ), wobei qi Potenz eines
normierten Primpolynoms ist. Nach Lemma 8 zeigt dies, dass A zu ei-
ner Diagonalmatrix Diag(A1 , . . . , Ar ) ähnlich ist, wobei Ai jeweils den
Endomorphismus fi = f |Vi bezüglich einer geeigneten Basis von Vi be-
schreibt. Aus Satz 4 ergibt sich, dass qi das Minimalpolynom bzw. das
charakteristische Polynom von fi ist, und aus Lemma 10, dass wir Ai
als Begleitmatrix zu qi annehmen dürfen.
Ist umgekehrt A zu einer Matrix der Form Diag(A1 , . . . , Ar ) ähn-
lich, wobei Ai jeweils die Begleitmatrix zu einer Potenz qi eines nor-
mierten LPrimpolynoms ist, so korrespondiert hierzu eine Zerlegung
r
V ≃ i=1 ⌊
K⌈ T ⌋
⌉ /(q i ); vgl. Lemmata 9 und 10 in Verbindung mit
Satz 4. Die Eindeutigkeitsaussage in Theorem 6 impliziert dann die
Eindeutigkeit der Matrizen A1 , . . . , Ar , die ja durch ihre Minimalpoly-
nome bzw. charakteristischen Polynome eindeutig festgelegt sind.
Die Aussagen über das Minimalpolynom pA sowie das charakteris-
tische Polynom χA wurden bereits in Lemma 8 hergeleitet. 

Als Folgerung können wir nochmals den Satz von Cayley-Hamilton


ablesen, sogar in einer etwas verbesserten Version:

Korollar 12 (Cayley-Hamilton). Es sei f : V ✲ V ein Endomor-


phismus eines K-Vektorraums der Dimension n < ∞ mit Minimalpo-
lynom pf und charakteristischem Polynom χf . Dann ist pf ein Teiler
von χf , und jeder Primfaktor, der in der Primfaktorzerlegung von χf
vorkommt, kommt auch in der Primfaktorzerlegung von pf vor, im All-
gemeinen allerdings mit geringerer Vielfachheit.
300 6. Normalformentheorie

Eine Diagonalmatrix A = Diag(λ1 , . . . , λn ) ∈ K n×n ist bereits von


allgemeiner Normalform, da die Matrix Ai = (λi ) ∈ K 1×1 als Be-
gleitmatrix des Polynoms T − λi ∈ K⌈⌊T ⌉⌋ aufgefasst werden kann. Aus
Theorem 11 ergibt sich daher folgendes Diagonalisierbarkeitskriterium:

Korollar 13. Für einen Endomorphismus f eines endlich-dimensio-


nalen K-Vektorraums (bzw. eine Matrix A ∈ K n×n ) sind die folgenden
Aussagen äquivalent:
(i) f (bzw. A) ist diagonalisierbar.
(ii) Das Minimalpolynom
Q pf (bzw. pA ) zerfällt in ein Produkt li-
nearer Faktoren ri=1 (T − λi ) mit paarweise verschiedenen Nullstellen
λ1 , . . . , λr ∈ K.

Es soll als Nächstes die sogenannte Jordansche Normalform für


Matrizen hergeleitet werden. Diese Normalform kann nur in den Fällen
konstruiert werden, in denen das charakteristische bzw. Minimalpoly-
nom vollständig in lineare Faktoren zerfällt, also beispielsweise dann,
wenn der Körper K algebraisch abgeschlossen ist. Für λ ∈ K bezeich-
nen wir die Matrix
 
λ 0
1 λ 
 
 1 λ 
 
J(λ, n) =  · ·  ∈ K n×n

 · · 
 
 1 λ 
0 1 λ
als Jordankästchen der Länge n zum Eigenwert λ.

Lemma 14. Für A ∈ K n×n und λ ∈ K ist äquivalent:


(i) A ist ähnlich zu J(λ, n).
(ii) A ist ähnlich zur Begleitmatrix A(q), die durch das Polynom
q = (T − λ)n ∈ K⌈⌊T ⌉⌋ gegeben ist.

Beweis. Man interpretiere A als beschreibende Matrix eines Endomor-


phismus f : V ✲ V , wobei V ein n-dimensionaler K-Vektorraum sei.
Ist dann A ähnlich zu J(λ, n), so existiert eine K-Basis x1 , . . . , xn von
V mit
6.5 Allgemeine und Jordansche Normalform für Matrizen 301

(∗) f (xi ) = λxi + xi+1 , i = 1, . . . , n,

wenn wir xn+1 = 0 setzen. Mit Induktion ergibt sich hieraus

x1 , . . . , xi ∈ f 0 (x1 ), . . . , f i−1 (x1 ) , i = 1, . . . , n;

denn für i = 1 ist dies trivial, und unter Benutzung der Induktions-
voraussetzung zum Index i schließt man

xi+1 = f (xi ) − λxi


∈ f 1 (x1 ), . . . , f i (x1 ) + f 0 (x1 ), . . . , f i−1 (x1 )
= f 0 (x1 ), . . . , f i (x1 ) .

Insbesondere gilt daher

V = f 0 (x1 ), . . . , f n−1 (x1 ) ,

d. h. V ist f -zyklisch und wird als K⌈⌊T ⌉⌋-Modul von x1 erzeugt.


Man betrachte nun den surjektiven K⌈⌊T ⌉⌋-Modulhomomorphismus

ϕ : K⌈⌊T ⌉⌋ ✲ V, h ✲ h · x1 = h(f )(x1 ).

Aus (∗) ergibt sich

(f − λ id)(xi ) = xi+1 , i = 1, . . . , n,

also (
xi+1 6= 0 für i = 0, . . . , n − 1
(f − λ id)i (x1 ) = .
0 für i = n
Der Kern von ϕ enthält daher das Polynom (T − λ)n , nicht aber die
Potenz (T − λ)n−1 . Als Hauptideal wird ker ϕ von einem normier-
ten Polynom q ∈ K⌈⌊T ⌉⌋ erzeugt. Dieses teilt (T − λ)n , nicht aber
(T − λ)n−1 , und stimmt folglich mit (T − λ)n überein. Aufgrund des
Homomorphiesatzes für Moduln induziert ϕ dann einen Isomorphis-
mus K⌈⌊T ⌉⌋/((T − λ)n ) ∼✲ V im Sinne von K⌈⌊T ⌉⌋-Moduln, und
man erkennt V gemäß Satz 4 als f -zyklisch mit Minimalpolynom
pf = (T − λ)n . Schließlich folgt mit Lemma 10, dass A zur Begleit-
matrix des Minimalpolynoms (T − λ)n ähnlich ist. Die Implikation von
(i) nach (ii) ist daher bewiesen.
302 6. Normalformentheorie

Zum Nachweis der umgekehrten Implikation sei A nun ähnlich zur


Begleitmatrix des Polynoms q = (T − λ)n ∈ K⌈⌊T ⌉⌋. Dann ist V nach
Lemma 10 ein f -zyklischer Vektorraum mit Minimalpolynom q zu f ,
und es gilt V ≃ K⌈⌊T ⌉⌋/(q) im Sinne von K⌈⌊T ⌉⌋-Moduln. Wir wollen
zeigen, dass die Restklassen

(T − λ)0 , (T − λ)1 , . . . , (T − λ)n−1

eine K-Basis von K⌈⌊T ⌉⌋/(q) bilden. Gemäß Lemma 5 ist bereits be-
kannt, dass dies für die Potenzen T 0 , . . . , T n−1 gilt. Es genügt daher,
wenn wir induktiv
0 i−1
T ,...,T ∈ (T − λ)0 , . . . , (T − λ)i−1 , i = 1, . . . , n,

zeigen. Für i = 1 ist dies trivial, und unter Verwendung der Induk-
tionsvoraussetzung zum Index i − 1 können wir wie folgt schließen:
i i−1 i−1
T = (T − λ) · T + λT
∈ (T − λ)1 , . . . , (T − λ)i + (T − λ)0 , . . . , (T − λ)i−1
= (T − λ)0 , . . . , (T − λ)i

Folglich bilden die Potenzen (T − λ)i−1 für i = 1, . . . , n eine K-Basis


von K⌈⌊T ⌉⌋/(q).
Wir betrachten nun die Gleichungen

T · (T − λ)i−1 = λ · (T − λ)i−1 + (T − λ)i , i = 1, . . . , n,

wobei (T − λ)n = 0 gilt. Sie besagen, dass der im Sinne von Bemer-
kung 3 zu f korrespondierende Endomorphismus

K⌈⌊T ⌉⌋/(q) ✲ K⌈⌊T ⌉⌋/(q), h ✲ T · h,

bezüglich obiger Basis durch das Jordankästchen J(λ, n) beschrieben


wird. Dann gibt es aber auch in V eine Basis, bezüglich der f durch
J(λ, n) beschrieben wird, und die Implikation von (ii) nach (i) ist be-
wiesen. 

Nun lassen sich Existenz und Eindeutigkeit der Jordanschen Nor-


malform leicht aus Theorem 11 folgern.
6.5 Allgemeine und Jordansche Normalform für Matrizen 303

Theorem 15 (Jordansche Normalform). Es sei A ∈ K n×n eine Ma-


trix, deren Minimal - bzw. charakteristisches Polynom vollständig in
Linearfaktoren zerfällt. Dann ist A ähnlich zu einer sogenannten Jor-
danmatrix 
Diag J(λ1 , n1 ), . . . , J(λr , nr ) ,
deren “Einträge” Jordankästchen sind. Die Elemente λi , ni sind, abge-
sehen von der Reihenfolge, eindeutig durch A bestimmt, wobei die λi
(unter eventueller Mehrfachaufzählung) gerade die Eigenwerte von A
durchlaufen. Wählt man einen n-dimensionalen K-Vektorraum V und
realisiert A als Matrix eines Endomorphismus f : V ✲ V , so ist

r
M 
V ≃ K⌈⌊T ⌉⌋/ (T − λi )ni
i=1

gerade die Zerlegung aus 6.4/3 bzw. Theorem 6.

Beweis. Man benutze Lemma 14, um von der allgemeinen Normalform


aus Theorem 11 von A zur Jordanschen Normalform zu gelangen bzw.
umgekehrt von der Jordanschen Normalform zur allgemeinen Normal-
form. 

Wir sagen, eine Matrix A ∈ K n×n sei trigonalisierbar, wenn sie


ähnlich zu einer Matrix der Form B = (βij ) ∈ K n×n ist mit βij = 0
für i < j; man nennt B eine (untere) Dreiecksmatrix. Aus der Existenz
der Jordanschen Normalform kann man insbesondere ein Kriterium für
Trigonalisierbarkeit ableiten.

Korollar 16. Eine Matrix A ∈ K n×n ist genau dann trigonalisierbar,


wenn das Minimal - bzw. charakteristische Polynom von A vollständig
in Linearfaktoren zerfällt.

Beweis. Wir nehmen zunächst an, dass A trigonalisierbar ist, also ähn-
n×n
lich zu einer Matrix
Qn B = (βij ) ∈ K mit βij = 0 für i < j ist. Dann
gilt χA = χB = i=1 (T −βii ); insbesondere zerfällt χA und damit nach
Korollar 12 auch das Minimalpolynom pA vollständig in Linearfakto-
ren. Ist umgekehrt letztere Bedingung gegeben, so zeigt die Existenz
der Jordanschen Normalform, dass A trigonalisierbar ist. 
304 6. Normalformentheorie

Wir wollen als Nächstes ein erstes (recht grobes) praktisches Ver-
fahren zur expliziten Berechnung der Jordanschen Normalform einer
Matrix angeben. Man betrachte also eine Matrix A ∈ K n×n , deren
charakteristisches Polynom vollständig in Linearfaktoren zerfällt, etwa
χA = (T − λ1 )n1 · . . . · (T − λr )nr .
Im Unterschied zu Theorem 15 setzen wir hierbei voraus, dass die Ei-
genwerte λ1 , . . . , λr paarweise verschieden sind. Die Jordansche Nor-
malform J zu A ist dann eine Matrix, auf deren Diagonalen Jordan-
kästchen des Typs J(λ, s) stehen. Für i = 1, . . . , r und j = 1, . . . , ni
bezeichne ki,j diejenige Anzahl, mit der das Jordankästchen J(λi , j) in
J vorkommt. Es gilt
ki,1 + 2ki,2 + . . . + ni ki,ni = ni ,
da die Vielfachheit des Eigenwertes λi als Nullstelle von χA gerade
ni ist, das Element λi also genau ni -mal auf der Diagonalen von J
vorkommt.
Da die Matrizen A und J zueinander ähnlich sind, sind auch die
Matrizen A − λE und J − λE sowie die Potenzen (A − λE)ℓ und
(J −λE)ℓ mit ℓ ∈ N zueinander ähnlich; dabei sei λ ∈ K und E ∈ K n×n
die Einheitsmatrix. Insbesondere folgt dann mit 3.4/6
rg(A − λE)ℓ = rg(J − λE)ℓ für ℓ ∈ N,
und es ist (J −λE)ℓ wiederum eine “Diagonalmatrix”, gebildet aus Käst-
chen, nämlich aus den ℓ-ten Potenzen der Jordankästchen von J − λE.
Nun berechnet sich für ein Jordankästchen des Typs J(λ, m) der Rang
einer ℓ-ten Potenz zu
(
max{0, m − ℓ} für λ = 0
rg J(λ, m)ℓ = .
m für λ 6= 0
Daher bestehen folgende Gleichungen:
rg(A−λi E)ni = rg(J −λi E)ni = n − ni
rg(A−λi E)ni −1 = rg(J −λi E)ni −1 = n − ni + ki,ni
rg(A−λi E)ni −2 = rg(J −λi E)ni −2 = n − ni + 2ki,ni + ki,ni −1
...
1
rg(A−λi E) = rg(J −λi E)1 = n − ni + (ni − 1)ki,ni + . . . + ki,2
6.5 Allgemeine und Jordansche Normalform für Matrizen 305

Ermittelt man also die Ränge der Potenzen von A − λi E, so lassen sich
die Zahlen ki,j , j = ni , ni − 1, . . . , 2, der Reihe nach berechnen. Weiter
gilt aufgrund obiger Gleichung
ki,1 = ni − 2ki,2 − . . . − ni ki,ni ,
womit insgesamt die Jordansche Normalform J von A bestimmt ist.
Als Beispiel wollen wir die Jordansche Normalform der Matrix
 
1 1 0 1
 0 2 0 0
A= −1 1 2 1 ∈ R
 4×4

−1 1 0 3

bestimmen. Es gilt χA = (T − 2)4 , also r = 1 und n1 = 4 in obiger


Notation. Wir haben
 
−1 1 0 1
 0 0 0 0
rg(A − 2E) = rg 
−1 1 0
 = 1,
1
−1 1 0 1

sowie rg(A − 2E)2 = rg(0) = 0 und damit auch rg(A − 2E)s = 0 für
s ≥ 2. Daher bestehen die Gleichungen

0 = rg(A − 2E)4 = n − n1 = 0,
0 = rg(A − 2E)3 = k1,4 ,
0 = rg(A − 2E)2 = 2k1,4 + k1,3 ,
1 = rg(A − 2E)1 = 3k1,4 + 2k1,3 + k1,2 ,

und dies ergibt k1,4 = k1,3 = 0, k1,2 = 1, sowie

k1,1 = 4 − 2k1,2 = 2.

Folglich ist J = Diag(J(2, 1), J(2, 1), J(2, 2)), also


 
2 0 0 0
0 2 0 0
J = 0 0 2 0

0 0 1 2
die Jordansche Normalform zu A.
306 6. Normalformentheorie

Wir behandeln abschließend noch ein weiteres viel effektiveres Ver-


fahren, mit dessen Hilfe man neben der Jordanschen auch die allgemei-
ne Normalform von Matrizen ermitteln kann. Das Vorgehen stellt sich
wie folgt dar: Ausgehend von einer Matrix A ∈ K n×n interpretieren
wir diese als Endomorphismus f des n-dimensionalen K-Vektorraums
V = K n , so dass wir V unter f als K⌈⌊T ⌉⌋-Modul auffassen können. So-
dann konstruieren wir zu A eine kanonische endliche Präsentation von
V als K⌈⌊T ⌉⌋-Modul und bestimmen die zugehörigen Elementarteiler.
Wir gelangen auf diese Weise zu der in 6.4/2 angegebenen Zerlegung
von V in monogene K⌈⌊T ⌋⌉-Untermoduln, aus der sich alle weiteren
Zerlegungen und insbesondere auch die Normalformen von A ergeben.

Lemma 17. Für eine Matrix A ∈ K n×n betrachte man K n als


K⌈⌊T ⌉⌋-Modul unter dem durch x ✲ A·x gegebenen Endomorphismus.
Es sei
n
X
ϕ : K⌈⌊T ⌉⌋ n ✲ n
K , (p1 , . . . , pn ) ✲ pi (A) · ei ,
i=1

diejenige K⌈⌊T ⌉⌋-lineare Abbildung, die die kanonische K⌈⌊T ⌉⌋-Basis von
K⌈⌊T ⌉⌋n auf die kanonische K-Basis e1 , . . . , en von K n abbildet; ϕ ist
surjektiv. Weiter sei

ψ : K⌈⌊T ⌉⌋n ✲ K⌈⌊T ⌉⌋n , P ✲ (T E − A) · P,

die durch die Matrix T E − A ∈ K⌈⌊T ⌉⌋n×n gegebene K⌈⌊T ⌉⌋-lineare Ab-
bildung; E ∈ K n×n sei die Einheitsmatrix. Dann ist die Sequenz
ψ✲ ϕ✲ ✲
K⌈⌊T ⌉⌋n K⌈⌊T ⌉⌋n Kn 0

eine endliche Präsentation von K n als K⌈⌊T ⌉⌋-Modul.

Beweis. Bezeichnet ei in K⌈⌊T ⌉⌋n , wie auch in K n , den i-ten Einheits-


vektor, so gilt für i = 1, . . . , n

ψ(ei ) = (T E − A)ei = T ei − Aei , ϕ(T ei ) = Aei , ϕ(Aei ) = Aei ,

und damit

ϕ ◦ ψ(ei ) = ϕ(T ei − Aei ) = Aei − Aei = 0.


6.5 Allgemeine und Jordansche Normalform für Matrizen 307

Es folgt ϕ◦ψ = 0, also im ψ ⊂ ker ϕ. Aufgrund des Homomorphiesatzes


zerlegt sich ϕ dann in eine Komposition
π✲ ϕ✲
ϕ : K⌈⌊T ⌉⌋n K⌈⌊T ⌉⌋n / im ψ Kn

surjektiver Abbildungen, und wir behaupten, dass ϕ sogar bijektiv ist.


Da K⌈⌊T ⌉⌋n als K-Vektorraum von den Elementen T ν ei mit i = 1, . . . , n
und ν ∈ N erzeugt wird, erzeugen entsprechend die Bilder π(T ν ei )
den Quotienten K⌈⌊T ⌉⌋n / im ψ als K-Vektorraum. Nun gilt aber für alle
ν∈N

T ν+1 ej − T ν Aej = ψ(T ν ej ) ∈ im ψ, j = 1, . . . , n,

und deshalb
n
X
T ν+1 ej ∈ T ν Kei + im ψ, j = 1, . . . , n.
i=1

Per Induktion folgt hieraus für ν ∈ N


n
X
T ν ej ∈ Kei + im ψ, j = 1, . . . , n,
i=1

und damit n
X
n
K⌈⌊T ⌉⌋ = Kei + im ψ.
i=1

Dies bedeutet, dass K⌈⌊T ⌉⌋n / im ψ als K-Vektorraum von n Elementen


erzeugt wird und damit über K eine Dimension ≤ n besitzt. Aufgrund
der Dimensionsformel 2.1/10 ist ϕ dann notwendigerweise injektiv und
damit bijektiv, wie behauptet. Dann gilt aber im ψ = ker π = ker ϕ,
und es folgt, dass die angegebene Sequenz eine endliche Präsentation
von K n als K⌈⌊T ⌉⌋-Modul darstellt. 

Theorem 18. Sei f : V ✲ V ein Endomorphismus eines end lich-


dimensionalen K-Vektorraums V , sei A = Af,X,X ∈ K n×n die Matrix,
welche f bezüglich einer gegebenen Basis X von V beschreibt, und
seien α1 , . . . , αs ∈ K⌈⌊T ⌉⌋ mit αj | αj+1 diejenigen Elementarteiler der
Matrix T E − A ∈ K⌈⌊T ⌉⌋n×n , die nicht invertierbar sind ; wir nehmen
308 6. Normalformentheorie

die αj als normierte Polynome an. Weiter betrachten wir die Primfak-
n(1,j) n(r,j)
torzerlegungen αj = p1 . . . pr , j = 1, . . . , s, der αj mit paarweise
verschiedenen normierten Primpolynomen p1 , . . . , pr ∈ K⌈⌊T ⌉⌋ und Ex-
ponenten n(i, j) ≥ 0. Dann gilt:
(i) Fasst man V als K⌈⌊T ⌉⌋-Modul unter f auf, so folgt
s
M r M
M s
n(i,j)
V ≃ K⌈⌊T ⌉⌋/αj K⌈⌊T ⌉⌋ ≃ K⌈⌊T ⌉⌋/pi K⌈⌊T ⌉⌋,
j=1 i=1 j=1

und die letztere Zerlegung gibt Anlass zu einer Zerlegung von V in


f -zyklische Untervektorräume gemäß Theorem 6.
(ii) Die Kästchen der allgemeinen Normalform von A sind die Be-
n(i,j)
gleitmatrizen zu den Primpotenzen pi mit n(i, j) > 0, i = 1, . . . , r,
j = 1, . . . , s. Falls alle pi linear sind, erhält man hieraus die Jordansche
Normalform mittels Lemma 14.
(iii) Charakteristisches Polynom χf und Minimalpolynom pf von f
berechnen sich zu
χf = α1 . . . αs , p f = αs .

Beweis. Wir können V = K n und f als den durch x ✲ Ax gegebenen


Endomorphismus von V annehmen. Unter Benutzung der in Lemma 17
bereitgestellten endlichen Präsentation von V erhalten wir dann mit
6.4/2 die erste Zerlegung aus (i) und mittels des Chinesischen Restsat-
zes 6.4/1 auch die zweite, wobei der freie Anteil in 6.4/2 entfällt, da
V ein K⌈⌊T ⌉⌋-Torsionsmodul ist. Die restlichen Aussagen ergeben sich
mittels Satz 4 sowie mit den Lemmata 8 und 10, wie im Beweis zu
Theorem 11. 

Als Beispiel betrachten wir nochmals die Matrix


 
1 1 0 1
 0 2 0 0
A= −1
 ∈ R4×4
1 2 1
−1 1 0 3
und bestimmen gemäß Theorem 18 zunächst die Elementarteiler der
Matrix T E − A ∈ R⌈⌊T ⌉⌋4×4 , indem wir das Verfahren aus dem Beweis
zu 6.3/5 anwenden:
6.5 Allgemeine und Jordansche Normalform für Matrizen 309
   
T −1 −1 0 −1 1 −1 0 T −3
 0 T −2 0 0   T −2 0 
  7→  0 0 
 1 −1 T −2 −1   1 −1 T −2 −1 
1 −1 0 T −3 T −1 −1 0 −1
   
1 −1 0 T −3 1 0 0 0
 0 T −2 0 0   0 T −2 0 0 
7→ 
0
 7→ 
 

0 T −2 −(T −2) 0 0 T −2 0 
2
0 T −2 0 −(T −2) 0 0 0 (T −2)2
Damit erhalten wir T −2, T −2, (T −2)2 als die nicht-invertierbaren Ele-
mentarteiler von T E−A und gemäß Theorem 18 dann χA = (T −2)4 als
charakteristisches Polynom, sowie pA = (T − 2)2 als Minimalpolynom
zu A. Da die Elementarteiler bereits Primpotenzen sind, entfällt die
Anwendung des Chinesischen Restsatzes und allgemeine bzw. Jordan-
sche Normalform von A ergeben sich zu
   
2 0 0 0 2 0 0 0
0 2 0 0 0 2 0 0
   
0 0 0 −4 , 0 0 2 0 .
0 0 1 4 0 0 1 2

Aufgaben
Im Folgenden sei K ein Körper.
1. Es sei A ∈ R7×7 eine Matrix mit charakteristischem Polynom
χA = (T 2 + 1)2 (T − 2)(T 2 − 1) ∈ R⌈⌊T ⌉⌋.
Man untersuche, welche Gestalt die allgemeine Normalform von A haben
kann.
2. Man zeige, dass zwei Matrizen A, B ∈ R3×3 genau dann ähnlich sind,
wenn ihre Minimalpolynome sowie ihre charakteristischen Polynome
übereinstimmen. (AT 463)
3. Für die Matrizen
     
2 2 0 −3 0 1 1 −2 3 0 1 −2
1 1 0 −1   0 1 0 0 4 1 1 −3
   ,  ∈ R4×4
1 2 −1 −1 ,  1 1 0 −2 0 0 −1 0
1 2 0 −2 −1 1 1 −1 4 0 2 −3
310 6. Normalformentheorie

berechne man jeweils charakteristisches und Minimalpolynom sowie,


falls existent, die Jordansche Normalform.
4. Es seien A, B ∈ K n×n Matrizen mit den zugehörigen Minimalpolyno-
men pA , pB ∈ K⌈⌊T ⌉⌋ und mit Primfaktorzerlegung pA = pn1 1 . . . pnr r , wo-
bei p1 , . . . , pr ∈ K⌈⌊T ⌉⌋ paarweise verschiedene normierte Primpolynome
seien. Man zeige, dass A und B genau dann ähnlich sind, wenn pA = pB
sowie rg pki i (A) = rg pki i (B) für i = 1, . . . , r und 1 ≤ ki ≤ ni gilt.
5. Man betrachte normierte Primpolynome p1 , . . . , pn ∈ K⌈⌊T ⌋⌉, die paar-
weise verschieden seien, sowie natürliche Zahlen 1 ≤ ri ≤ si für
i = 1, . . . , n. Gibt es einen Endomorphismus f : V ✲ V eines endlich-
dimensionalen K-Vektorraums V mit Minimalpolynom pf = pr11 . . . prnn
und mit charakteristischem Polynom χf = ps11 . . . psnn ?
6. Es sei f ein Endomorphismus eines endlich-dimensionalen K-Vektor-
raums V und U ⊂ V ein f -invarianter Unterraum. Man zeige (AT 464):
(i) f induziert einen Endomorphismus f : V /U ✲ V /U .
(ii) Es gilt pf | pf für die Minimalpolynome von f und f .
(iii) Es gilt χf = χf |U · χf für die charakteristischen Polynome von f ,
von f |U und von f .
7. Es sei V ein endlich-dimensionaler K-Vektorraum mit einem Endomor-
phismus f : V ✲ V . Das Minimalpolynom pf sei Potenz eines Prim-
polynoms p ∈ K⌈⌊T ⌉⌋, etwa pf = pr mit r > 0. Man zeige:
(i) Es existiert ein Vektor u ∈ V mit pr−1 (f )(u) 6= 0.
(ii) Ist u ∈ V wie in (i), und ist U ⊂ V der von u erzeugte f -zyklische
Untervektorraum, so existiert ein f -invarianter Untervektorraum
U ′ ⊂ V mit V = U ⊕ U ′ .
8. Es sei V ein endlich-dimensionaler f -zyklischer K-Vektorraum unter
einem Endomorphismus f : V ✲ V . Man zeige, dass jeder f -invariante
Unterraum U ⊂ V wiederum f -zyklisch ist.
9. Es sei V ein endlich-dimensionaler f -zyklischer K-Vektorraum unter
einem Endomorphismus f : V ✲ V , und es sei u ∈ V ein erzeugendes
Element. Man zeige:
(i) Es gibt auf V eine eindeutig bestimmte Ringstruktur, deren Addi-
tion mit der Vektorraumaddition auf V übereinstimmt und deren
Multiplikation (af i (u)) · (bf j (u)) = abf i+j (u) für a, b ∈ K und
i, j ∈ N erfüllt.
(ii) Unter dieser Ringstruktur ist V genau dann ein Körper, wenn das
Minimalpolynom zu f prim ist.
7. Euklidische und unitäre Vektorräume

Überblick und Hintergrund

Im Rahmen der Einführung zu Kapitel 1 hatten wir überlegt, wie man


den R-Vektorraum R2 als Modell einer anschaulichen Ebene interpre-
tieren kann. Will man in diesem Modell auch Abstände und damit letzt-
endlich Winkel korrekt reflektieren, so muss man das Modell mit einer
Abstandsfunktion ausstatten. Beispielsweise ist im R2 der gewöhnliche
euklidische Abstand für zwei Punkte P1 = (x1 , y1 ), P2 = (x2 , y2 ) durch
p
d(P1 , P2 ) = (x1 − x2 )2 + (y1 − y2 )2
# «
gegeben, bzw. die Länge oder der Betrag des Vektors 0P1 durch
q
# «
|0P1 | := |P1 | := x21 + y12 .

Hieraus gewinnt man mit



hP1 , P2 i := 1
2
|P1 + P2 |2 − |P1 |2 − |P2 |2 = x1 x2 + y1 y2

eine Funktion in zwei Variablen, eine sogenannte symmetrische Biline-


arform, in unserem Falle sogar ein
p Skalarprodukt, wie wir sagen werden,
welches die Bedingung |P1 | = hP1 , P1 i erfüllt. Als Indiz dafür, dass
man mit einem solchen Skalarprodukt auch Winkel charakterisieren
kann, mag folgende Beobachtung dienen: Das Skalarprodukt hP1 , P2 i
verschwindet genau dann, wenn |P1 + P2 |2 = |P1 |2 + |P2 |2 gilt. Für
nicht-triviale Punkte P1 , P2 ist dies aufgrund der Umkehrung des Sat-
# « # «
zes von Pythagoras äquivalent dazu, dass die Vektoren 0P1 und 0P2
aufeinander senkrecht stehen:

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0_7
312 7. Euklidische und unitäre Vektorräume

P1 + P2




P2 ❜ ✟








✟ ❜
✟ P1



0 ❜

Thema des vorliegenden Kapitels ist das Studium von endlich-


dimensionalen R- und C-Vektorräumen V zusammen mit jeweils einer
Abstandsfunktion, die durch ein Skalarprodukt h·, ·i : V × V ✲K
gegeben ist; für K ist dabei der betrachtete Grundkörper R bzw. C
einzusetzen. Wir sprechen von euklidischen bzw. unitären Vektorräu-
men. Wichtigstes n
Pn Beispiel ist der Vektorraum K mit dem Skalarpro-
dukt hx, yi = i=1 xi y i , wobei y i die zu yi konjugiert komplexe Zahl
bezeichne. Jedes Skalarprodukt erfüllt die Schwarzsche Ungleichung
|hx, yi| ≤ |x||y| für x, y ∈ V , wie wir sehen werden, aus der sich insbe-
sondere die Dreiecksungleichung |x + y| ≤ |x| + |y| ergibt.
Als fundamentales Hilfsmittel werden wir das nach E. Schmidt be-
nannte Orthonormalisierungsverfahren behandeln. Es erlaubt, aus ei-
ner beliebigen Basis x1 , . . . , xn eines euklidischen bzw. unitären Vek-
torraums V durch sukzessives Abändern der xi eine sogenannte Or-
thonormalbasis e1 , . . . , en zu konstruieren, die |ei | = 1 für alle i und
hei , ej i = 0 für alle i 6= j erfüllt. Eine solche Orthonormalbasis ist damit
als ein rechtwinkliges Koordinatensystem in V anzusehen. Im Übrigen
lässt sich das Skalarprodukt von V aufgrund seiner Linearitätseigen-
schaften leicht mittels einer Orthonormalbasis von V rekonstruieren,
so dass ein Vektorraum V mit einer Abstandsfunktion in Form eines
Skalarprodukts bereits dann festgelegt ist, wenn man in V eine Ortho-
normalbasis kennt.
In Kapitel 6 haben wir für endlich-dimensionale Vektorräume V
über einem beliebigen Körper K Normalformen von Endomorphismen
f: V ✲ V studiert. Ist f beispielsweise durch eine Matrix Af,X,X
bezüglich einer gewissen Basis X von V gegeben, so ging es darum,
eine Basiswechselmatrix Aid,X ′ ,X zu finden, so dass die Matrix
Überblick und Hintergrund 313

Af,X ′ ,X ′ = (Aid,X ′ ,X )−1 · Af,X,X · Aid,X ′ ,X

von möglichst “einfacher” Gestalt war. Mit anderen Worten, wir hatten
mit der Normalformentheorie die Ähnlichkeitsklassen von Matrizen in
K n×n bestimmt, wobei zwei Matrizen A, B ∈ K n×n ähnlich heißen,
wenn es eine invertierbare Matrix S ∈ GL(n, K) mit B = S −1 · A · S
gibt.
Wir wollen ein analoges Problem nun auch im Rahmen euklidi-
scher und unitärer Vektorräume V behandeln. Allerdings müssen wir
hier die Abstandsfunktion auf V mit einbeziehen. Wir werden deshalb
nur solche Basiswechselmatrizen Aid,X ′ ,X zulassen, die längenerhaltend
sind und damit einen Wechsel zwischen Orthonormalbasen X und X ′
definieren. Letzteres ist genau dann der Fall, wie wir sehen werden,
wenn
(Aid,X ′ ,X )−1 = (Aid,X ′ ,X )∗ := (Aid,X ′ ,X )t

gilt, wobei für eine Matrix A = (αij ) ∈ Kn×n die zugehörige komplex
konjugierte Matrix A durch A = (αij ) gegeben ist und At wie üblich
deren transponierte bezeichnet; eine Matrix S = Aid,X ′ ,X mit der vor-
stehenden Eigenschaft wird orthogonal (für K = R) bzw. unitär (für
K = C) genannt. Die mittels solcher Matrizen definierte Relation der
Äquivalenz von Matrizen in Kn×n ist somit viel enger gefasst als die
in Kapitel 6 betrachtete allgemeine Äquivalenz von Matrizen. Es ist
deshalb sinnvoll, sich für das Normalformenproblem auf gewisse Teil-
klassen von Matrizen in Kn×n zu beschränken. Wir werden hier im
Wesentlichen nur symmetrische bzw. hermitesche Matrizen betrach-
ten, d. h. Matrizen A ∈ Kn×n mit A = A∗ ; bezüglich Orthonormalba-
sen stellen diese gerade die sogenannten selbstadjungierten Endomor-
phismen f : V ✲ V dar, die der Relation hf (x), yi = hx, f (y)i für
x, y ∈ V genügen. Dann können wir allerdings die erstaunliche Tat-
sache zeigen, dass eine solche Matrix unter der strengeren Äquivalenz
mittels orthogonaler bzw. unitärer Matrizen stets äquivalent zu einer
reellen Diagonalmatrix ist.
Die bei dem vorstehend beschriebenen Klassifikationsproblem ge-
wonnenen Erkenntnisse lassen sich mit Gewinn auch auf die Klassifi-
kation von symmetrischen Bilinearformen (für K = R) bzw. hermite-
schen Formen (für K = C) auf endlich-dimensionalen K-Vektorräumen
V anwenden, also auf entsprechende Abbildungen Φ : V × V ✲ K.
314 7. Euklidische und unitäre Vektorräume

Denn auch diese werden bezüglich einer Basis X von V durch eine
Matrix AΦ,X beschrieben, welche der Relation AΦ,X = A∗Φ,X genügt.
Allerdings ist das Transformationsverhalten bei Basiswechsel ein an-
deres als bei Endomorphismen, nämlich
AΦ,X ′ = Atid,X ′ ,X · AΦ,X · Aid,X ′ ,X .
Wenn wir uns aber im Rahmen euklidischer bzw. unitärer Vektorräume
bewegen und lediglich orthogonale bzw. unitäre Basiswechselmatrizen
zulassen, so gilt Atid,X ′ ,X = Aid,X ′ ,X −1 , und damit ein analoges Transfor-
mationsverhalten wie bei Endomorphismen von V . Wir können damit
die Klassifikation selbstadjungierter Endomorphismen verwenden und
erhalten für euklidische bzw. unitäre Vektorräume, dass die Klassen
symmetrischer Bilinearformen bzw. hermitescher Formen durch reelle
Diagonalmatrizen repräsentiert werden (Satz über die Hauptachsen-
transformation). Es ist dann relativ leicht einzusehen, dass die ent-
sprechenden Klassen bezüglich allgemeiner Äquivalenz (mittels inver-
tierbarer Matrizen in GL(n, K)) durch Diagonalmatrizen repräsentiert
werden, deren Diagonaleinträge die Werte 1, −1, 0 annehmen können
(Sylvesterscher Trägheitssatz ).
Die Bezeichnung Hauptachsentransformation weist auf einen kon-
kreten geometrischen Sachverhalt hin. Für K = R betrachte man bei-
spielsweise eine quadratische Form auf Rn , etwa
X
q(x) = αij xi xj
i≤j; i,j=1,...,n

mit gewissen Konstanten αij ∈ R, sowie im Weiteren für eine gegebene


Konstante c ∈ R das durch q(x) = c definierte geometrische Gebilde.
Um dieses genauer zu studieren, kann man q die symmetrische Biline-
arform

h·, ·i : Rn × Rn ✲ R, hx, yi = 21 q(x + y) − q(x) − q(y) ,
zuordnen; für diese gilt q(x) = hx, xi. In dieser Situation besagt der
Satz über die Hauptachsentransformation, dass es ein neues rechtwink-
liges Koordinatensystem e′1 , . . . , e′n in Rn gibt, so dass sich q bezüglich
der neuen Koordinaten in der Form
Xn
′ ′
q (x ) = λi x′2
i
i=1
7.1 Sesquilinearformen 315

mit gewissen λi ∈ R beschreibt. Nehmen wir etwa n = 2 und


λ1 , λ2 , c > 0 an, so wird durch q(x) = c eine Ellipse beschrieben, deren
Achsen zunächst noch nicht mit den Achsen des gegebenen Koordi-
natensystems e1 , e2 übereinstimmen müssen. Die Hauptachsentrans-
formation besagt gerade, dass man durch orthogonalen Basiswechsel
erreichen kann, dass die Achsen des neuen Koordinatensystems e′1 , e′2
mit den Achsen der Ellipse übereinstimmen:

e2 ✻

e′2

✲′
...............
.............
.......................
...............
............................
.....
...
..
e1
..
... .
.............
. ..
...
.......... .
...
.
...
..
...... .
..
.
........ ...
...
........ ....
.......
....... ....
..... ....

..
. . ...
..... ...
..... ....
..... .....
..... .....

....
....
...........
......
.....
... .......
e1
.... .......
.......
.
..... .............
.
.
... ........
.. ........
... .........
.........
....
....
...
............
.
... .....
..... .............
.............. ...............
.....................................

7.1 Sesquilinearformen

Im Folgenden werden wir ausschließlich Vektorräume über den Körpern


R oder C betrachten und meist K anstelle von R oder C schreiben.
Speziell für C wird die komplexe Konjugationsabbildung
C ✲ C, a ✲ a,
von Bedeutung sein, wobei für a = α + iβ mit α, β ∈ R die zugehörige
komplex konjugierte Zahl durch a = α − iβ gegeben ist. Die Konjuga-
tionsabbildung a ✲ a stellt eine sogenannte Involution auf C dar,
d. h. einen Automorphismus σ : C ✲ C mit σ 2 = id, und es gilt
zusätzlich σ|R = id. Für a = α + iβ ∈ C mit α, β ∈ R bezeichnet man
316 7. Euklidische und unitäre Vektorräume

α = 21 (a + a) = Re(a)

als den Realteil von a,


1
β= 2i
(a − a) = Im(a)

als den Imaginärteil von a, sowie


p √
|a| = α2 + β 2 = a · a

als den Absolutbetrag von a. Dabei bestehen die Äquivalenzen

a ∈ R ⇐⇒ Re(a) = a ⇐⇒ Im(a) = 0 ⇐⇒ a = a.

Für spezielle Elemente a ∈ K werden wir im Folgenden auch Bedin-


gungen des Typs a ≥ 0 oder a > 0 betrachten. Hiermit ist gemeint,
dass a reell ist, also a ∈ R ⊂ K erfüllt, und zudem der Bedingung
a ≥ 0 bzw. a > 0 genügt.

Definition 1. Es sei V ein K-Vektorraum. Eine Sesquilinearform auf


V (sesqui = eineinhalbfach) ist eine Abbildung Φ : V × V ✲ K, wel-
che für x, x1 , x2, y, y1 , y2 ∈ V sowie α ∈ K den folgenden Bedingungen
genügt:
(i) Φ(x1 + x2 , y) = Φ(x1 , y) + Φ(x2 , y),
(ii) Φ(αx, y) = αΦ(x, y),
(iii) Φ(x, y1 + y2 ) = Φ(x, y1 ) + Φ(x, y2 ),
(iv) Φ(x, αy) = αΦ(x, y).
Im Falle K = R gilt stets α = α, und man spricht dann auch von
einer Bilinearform Φ. Man bezeichnet Φ als nicht-ausgeartet, wenn gilt:

Φ(x, y) = 0 für alle y ∈ V =⇒ x = 0,


Φ(x, y) = 0 für alle x ∈ V =⇒ y = 0.

Um ein einfaches Beispiel zu erhalten, setze man V = K. Dann


wird für festes a ∈ K durch

Φ(x, y) = a · x · y

eine Sesquilinearform auf V definiert, und diese ist genau dann nicht
ausgeartet, wenn a 6= 0 gilt.
7.1 Sesquilinearformen 317

Definition 2. Eine Sesquilinearform Φ : V × V ✲ K, welche

Φ(x, y) = Φ(y, x) für alle x, y ∈ V

erfüllt, wird im Falle K = R als symmetrische Bilinearform (oder kurz


sBF) und im Falle K = C als hermitesche Form (oder kurz HF) be-
zeichnet. Für solche Formen verwendet man anstelle von Φ(x, y) häufig
auch die Notation hx, yi. Insbesondere gilt dann Φ(x, x) = hx, xi ∈ R
für alle x ∈ V .

Beispielsweise definiert

Φ : Kn × Kn ✲ K, (x, y) ✲ xt · y,

eine sBF bzw. HF, wobei diese Abbildung in ausführlicher Schreibweise


wie folgt gegeben ist:
n
X

t
(x1 , . . . , xn ) , (y1 , . . . , yn ) t ✲ xi · y i
i=1

Man erkennt leicht, dass die Form Φ nicht ausgeartet ist, da etwa
Φ(x, x) > 0 für x 6= 0 gilt. Andererseits wird durch die Vorschrift
r
X

t
(x1 , . . . , xn ) , (y1 , . . . , yn ) t ✲ xi · y i ,
i=1

wobei man nur bis zu einer Zahl r < n summiere, eine ausgeartete
Form auf Kn erklärt.

Definition 3. Eine sBF bzw. HF Φ : V × V ✲ K heißt positiv


semidefinit, falls Φ(x, x) ≥ 0 für alle x ∈ V gilt. Gilt sogar Φ(x, x) > 0
für alle x ∈ V − {0}, so bezeichnet man Φ als positiv definit. Man
spricht dann auch von einem Skalarprodukt auf V und nennt das Paar
(V, Φ) im Falle K = R einen euklidischen Vektorraum, sowie im Falle
K = C einen unitären Vektorraum.

Die oben betrachtete Form Kn × Kn ✲ K, (x, y) ✲ xt · y defi-


niert beispielsweise ein Skalarprodukt auf Kn , und zwar das sogenannte
kanonische Skalarprodukt.
318 7. Euklidische und unitäre Vektorräume

Satz 4 (Schwarzsche Ungleichung). Auf einem K-Vektorraum V be-


trachte man eine positiv semidefinite sBF bzw. HF Φ : V × V ✲ K,
(x, y) ✲ hx, yi. Dann besteht für x, y ∈ V folgende Ungleichung:
2
hx, yi ≤ hx, xi · hy, yi

Ist Φ sogar positiv definit, so gilt in dieser Formel genau dann das
Gleichheitszeichen, wenn x und y linear abhängig sind.

Beweis. Für beliebige Konstanten α, β ∈ K kann man wie folgt rechnen:

0 ≤ hαx + βy, αx + βyi


= ααhx, xi + αβhx, yi + βαhy, xi + ββhy, yi

= ααhx, xi + 2Re αβhx, yi + ββhy, yi

Hat man nun hx, xi = hy, yi = 0, so setze man speziell α = −1 und


β = hx, yi. Es folgt
 2
0 ≤ 2Re αβhx, yi = −2 hx, yi ≤ 0

und damit hx, yi = 0, also insbesondere


2
hx, yi ≤ hx, xi · hy, yi.

Sei nun hx, xi > 0. In diesem Falle setze man

α = −hx, yi, β = hx, xi.

Dann folgt
2 2
0 ≤ hx, yi hx, xi − 2 hx, yi hx, xi + hx, xi2 hy, yi
2
= − hx, yi hx, xi + hx, xi2 hy, yi,

also wie gewünscht


2
hx, yi ≤ hx, xi · hy, yi.

Der Fall hy, yi > 0 lässt sich entsprechend behandeln.


Sind schließlich x, y ∈ V linear abhängig, so ist einer dieser Vekto-
ren ein Vielfaches des anderen, und es ergibt sich ohne Schwierigkeiten
7.1 Sesquilinearformen 319

2
hx, yi = hx, xi · hy, yi.

Ist umgekehrt diese Gleichung gegeben, so erhält man mit

α = −hx, yi, β = hx, xi

wie oben

hαx + βy, αx + βyi


2 2
= hx, yi hx, xi − 2 hx, yi hx, xi + hx, xi2 hy, yi = 0.

Ist nun Φ positiv definit, so ergibt sich αx+βy = 0, und man sieht, dass
x, y linear abhängig sind. Für x = 0 ist dies nämlich trivialerweise klar
und für x 6= 0 ebenfalls, da dann der Koeffizient β = hx, xi aufgrund
der positiven Definitheit von Φ nicht verschwindet. 

Korollar 5. Sei Φ : V × V ✲ K positiv semidefinite sBF bzw. HF.


Es ist Φ genau dann positiv definit, wenn Φ nicht ausgeartet ist.

Ist Φ : V × V ✲ K positiv semidefinite sBF bzw. HF, so gilt


p
hx, xi ≥ 0 für alle x ∈ V , und man bezeichnet mit |x| = hx, xi
die Länge oder den Betrag eines Vektors x ∈ V (bezüglich Φ). Der so
definierte Betrag von Vektoren erfüllt die gewöhnliche Dreiecksunglei-
chung:

Korollar 6. Sei Φ : V × V ✲ K positiv semidefinite sBF bzw. HF.


Dann gilt für x, y ∈ V
|x + y| ≤ |x| + |y|.

Beweis. Es gilt

|x + y|2 = hx + y, x + yi

= hx, xi + 2Re hx, yi + hy, yi
≤ hx, xi + 2 hx, yi + hy, yi
≤ |x|2 + 2|x||y| + |y|2
2
= |x| + |y|

und damit |x + y| ≤ |x| + |y|. 


320 7. Euklidische und unitäre Vektorräume

An weiteren Eigenschaften des Betrages von Vektoren können wir


anführen: Für α ∈ K, x ∈ V gilt |αx| = |α||x|. Ist Φ sogar positiv
definit, so ist |x| = 0 äquivalent zu x = 0. Weiter bezeichnet man
einen Vektor x ∈ V als normiert, falls hx, xi = 1 und damit |x| = 1
x
gilt. Für x ∈ V mit |x| =
6 0 ist beispielsweise |x| normiert.

Abschließend wollen wir noch das kanonische Skalarprodukt auf


dem Rn mittels geometrischer Anschauung interpretieren. Zunächst
stellen wir mithilfe des Satzes von Pythagoras fest, dass der Betrag
eines Vektors x ∈ Rn gerade mit dem üblichen euklidischen Abstand
des Punktes x vom Nullpunkt übereinstimmt. Ist e ∈ Rn ein weiterer
Vektor und gilt |e| = 1, so besteht die Gleichung
2 2 2
x = hx, ei + x − hx, eie ,

wie man leicht nachrechnet. Geometrisch bedeutet dies aufgrund der


Umkehrung des Satzes von Pythagoras, dass das Dreieck mit den Sei-
tenlängen |x|, |hx, ei| und |x − hx, eie| rechtwinklig ist:






✟ x
✻ ✟


x − hx, ei · e ✟






✟ ✲
.✟
✟ ..........
..

✟ ... hx, ei · e
✟ ϑ .......
✟ ✲
✟ e
0

Somit entsteht der Vektor hx, ei · e, indem man x senkrecht auf den
durch e gegebenen linearen Unterraum R · e ⊂ Rn projiziert. Allge-
meiner kann man auf diese Weise das Skalarprodukt zweier Vektoren
x, y ∈ Rn −{0} berechnen. Man setze nämlich in der obigen Überlegung
e = |y|−1 · y. Sodann erhält man hx, yi, abgesehen vom Vorzeichen, als
Produkt von |y| mit dem Betrag der senkrechten Projektion von x auf
die Gerade R · y ⊂ Rn . Genauer lässt sich die Projektion von x auf R · y
7.1 Sesquilinearformen 321

mittels der Cosinusfunktion aus der Analysis beschreiben. Ist ϑ der von
x und y eingeschlossene Winkel, so berechnet sich diese Projektion zu
|x|
|y|
· cos(ϑ) · y, und es folgt:

Satz 7. Für Vektoren x, y ∈ Rn − {0} und das kanonische Skalarpro-


dukt gilt
hx, yi = |x| · |y| · cos ϑ,
wobei ϑ der von x und y eingeschlossene Winkel sei.

Die Möglichkeit, mit x−hx, ei·e aus x einen Vektor zu konstruieren,


der senkrecht auf e steht, ist im Übrigen die zentrale Idee des Ortho-
normalisierungsverfahrens von E. Schmidt, das wir im nachfolgenden
Abschnitt 7.2 behandeln werden.

Aufgaben
Falls nicht anders bestimmt, sei V ein endlich-dimensionaler R-Vektor-
raum und Φ : V × V ✲ R eine symmetrische Bilinearform auf V .

1. Man definiere den Kern von Φ durch



ker Φ = x ∈ V ; Φ(x, y) = 0 für alle y ∈ V

und zeige, dass Φ eine nicht-ausgeartete symmetrische Bilinearform auf


V / ker Φ induziert.
2. Man definiere die zu Φ gehörige quadratische Form q : V ✲ R, indem
man q(x) = Φ(x, x) für x ∈ V setze, und zeige, dass Φ durch q eindeutig
bestimmt ist.
3. Es sei Φ positiv definit. Für x, y ∈ V , y 6= 0, betrachte man die poly-
nomiale Funktion p(t) = |x + ty|2 in t ∈ R. Man bestimme sämtliche
Nullstellen von p(t) und folgere die Schwarzsche Ungleichung in der Ver-
sion von Satz 4 für den Fall K = R. (AT 466)
4. Es sei Φ positiv definit. Für x, y ∈ V − {0} zeige man:
Φ(x,y)
(i) Es gilt −1 ≤ |x|·|y| ≤ 1. Aus der Analysis ergibt sich damit die
Φ(x,y)
Existenz eines Winkels 0 ≤ ϑ ≤ π mit |x|·|y| = cos ϑ.
(ii) Es gilt der Cosinus-Satz:

|x − y|2 = |x|2 + |y|2 − 2|x||y| cos ϑ


322 7. Euklidische und unitäre Vektorräume

5. Es sei V ein Vektorraum über einem Körper K und V ∗ sein Dual-


raum, sowie W der K-Vektorraum aller K-bilinearen Abbildungen
V ×V ✲ K. Man zeige, dass die Abbildung HomK (V, V ∗ ) ✲ W,
welche einem Homomorphismus ϕ : V ✲ V die Abbildung

V ×V ✲ K, (x, y) ✲ ϕ(x)(y),

zuordnet, ein Isomorphismus von K-Vektorräumen ist. (AT 467)

7.2 Orthogonalität

Definition 1. Sei Φ : V × V ✲ K, (x, y) ✲ hx, yi, eine sBF


bzw. HF. Zwei Vektoren x, y ∈ V heißen orthogonal bzw. senkrecht
zueinander, wenn hx, yi = 0 gilt. Ein System M von Vektoren aus V
mit 0 6∈ M heißt Orthogonalsystem, wenn je zwei Vektoren aus M
zueinander orthogonal sind. Gilt zusätzlich hx, xi = 1 für alle x ∈ M ,
so spricht man auch von einem Orthonormalsystem.

Bemerkung 2. Sei Φ : V × V ✲ K ein Skalarprodukt. Ist dann M


ein Orthogonalsystem von Vektoren aus V , so ist M linear unabhängig.

Beweis. Zu einem endlichen Teilsystem Pnx1 , . . . , xn von M betrachte


man Koeffizienten α1 , . . . , αn ∈ K mit i=1 αi xi = 0. Dann ergibt sich
für j = 1, . . . , n
X
n  n
X
0= αi x i , x j = αi hxi , xj i = αj hxj , xj i
i=1 i=1

und damit αj = 0 wegen hxj , xj i > 0. 

Definition 3. Sei Φ : V × V ✲ K ein Skalarprodukt. Ein System M


von Vektoren e1 , . . . , en ∈ V wird als Orthogonalbasis (bzw. Orthonor-
malbasis) von V bezeichnet, wenn M folgende Bedingungen erfüllt:
(i) M ist eine Basis von V .
(ii) M ist ein Orthogonalsystem (bzw. Orthonormalsystem).
7.2 Orthogonalität 323

Das Skalarprodukt von Vektoren, die als Linearkombinationen von


Elementen einer Orthonormalbasis M = (e1 , . . . , en ) dargestellt sind,
lässt sich in einfacher Weise berechnen:
X n n
X  Xn
αi ei , βi ei = αi β j hei , ej i
i=1 i=1 i,j=1
n
X X n
= αi β j δij = αi β i
i,j=1 i=1

Betrachtet man beispielsweise das kanonische Skalarprodukt auf Kn ,


so bildet die kanonische Basis von Kn eine Orthonormalbasis.
Als Nächstes wollen wir das sogenannte Orthonormalisierungsver-
fahren von E. Schmidt besprechen, mit dessen Hilfe man Basen in
euklidischen bzw. unitären Vektorräumen zu Orthonormalbasen abän-
dern kann. Zunächst behandeln wir den Kernschritt dieses Verfahrens,
einen Schritt, den wir für das kanonische Skalarprodukt auf dem Rn
bereits zum Ende von Abschnitt 7.1 geometrisch motiviert hatten.

Lemma 4. Sei Φ : V × V ✲ K ein Skalarprodukt, und sei e1 , . . . , ek


eine Orthonormalbasis eines Untervektorraums U ⊂ V . Dann ist
k
X
pU : V ✲ U, x ✲ hx, ej iej ,
j=1

eine surjektive K-lineare Abbildung, die sogenannte orthogonale Pro-


jektion auf U . Diese beschränkt sich auf U zur identischen Abbildung
und erfüllt im Übrigen die Gleichung hx − pU (x), yi = 0 für alle x ∈ V
und y ∈ U . Durch diese Gleichung ist pU als K-lineare Abbildung
V ✲ U eindeutig bestimmt.

Beweis. Die AbbildungPpU ist K-linear, da die Form hx, yi K-linear in


x ist. Gilt weiter x = ki=1 αi ei ∈ U , so hat man
X
k  X k
hx, ej i = αi ei , ej = αi hei , ej i = αj ,
i=1 i=1

und es folgt insbesondere pU |U = idU . Weiter ergibt sich


324 7. Euklidische und unitäre Vektorräume

X
k 
hx − pU (x), ej i = hx, ej i − hx, ei iei , ej
i=1
= hx, ej i − hx, ej ihej , ej i = 0,

d. h. x − pU (x) ist orthogonal zu e1 , . . . , ek und damit zu U .


Ist qU : V ✲ U irgendeine lineare Abbildung, welche die Bedin-
gung hx − qU (x), yi = 0 für x ∈ V und y ∈ U erfüllt, so hat man
insbesondere hpU (x) − qU (x), yi = 0 für x ∈ V und y ∈ U . Da sich das
Skalarprodukt von V zu einem Skalarprodukt auf U beschränkt, gilt
notwendig pU (x) − qU (x) = 0 für x ∈ V und damit pU = qU . 

Bilden nun Vektoren x1 , . . . , xn eine Basis eines euklidischen bzw.


unitären K-Vektorraums, so kann man zunächst x1 normieren, also den
Vektor e1 = |x1 |−1 · x1 betrachten. Sodann kann man gemäß Lemma 4
die Projektion p1 von V auf den Untervektorraum U1 = Ke1 bilden.
Der Vektor e′2 = x2 − p1 (x2 ) ist dann orthogonal zu e1 , und e1 bildet
zusammen mit |e′2 |−1 · e′2 ein Orthonormalsystem e1 , e2 . Fährt man in
dieser Weise fort, so kann man die Basis x1 , . . . , xn orthonormalisieren,
d. h. insgesamt in eine Orthonormalbasis überführen. Wir wollen dieses
Resultat hier noch genauer formulieren und beweisen.

Satz 5. Sei Φ : V ×V ✲ K ein Skalarprodukt, und sei x1 , . . . , xn eine


Basis von V . Dann gibt es eindeutig bestimmte Vektoren e1 , . . . , en ∈ V ,
so dass gilt:
(i) e1 , . . . , en ist eine Orthonormalbasis von V .
Lk Lk
(ii) i=1 Kei = i=1 Kxi für k = 1, . . . , n.
(iii) Die Basiswechselmatrizen Ak = Aid,Ek ,Xk mit Ek = (e1 , . . . , ek )
und Xk = (x1 , . . . , xk ) erfüllen det(Ak ) > 0 für k = 1, . . . , n.1
Genauer lassen sich die Vektoren ek für k = 1, . . . , n in induktiver
Weise wie folgt konstruieren:

k−1
X −1  k−1
X 
ek = xk − hxk , ej iej · xk − hxk , ej iej
j=1 j=1

1
Gemäß unserer Konvention schließt det(Ak ) > 0 die Bedingung det(Ak ) ∈ R
mit ein.
7.2 Orthogonalität 325

Beweis. Wir zeigen zunächst die Existenzaussage und verwenden dabei


Induktion nach n. Der Induktionsanfang n = 0 ist trivial. Sei deshalb
n > 0, L und sei e1 , . . . , en−1 eine Orthonormalbasis des Unterraums
n−1
Un−1 = i=1 Kxi , welche L die gewünschten Eigenschaften besitzt. Man
n−1
hat dann xn 6∈ Un−1 = i=1 Kei , so dass xn − pn−1 (xn ) von Null
verschieden ist; pn−1 : V ✲ Un−1 sei die Projektion gemäß Lemma 4.
Dann ist 
−1
en = xn − pn−1 (xn ) · xn − pn−1 (xn )
wohldefiniert, und es folgt mit Bemerkung 2 sowie Lemma 4, dass
e1 , . . . , en eine Orthonormalbasis von V bilden. Weiter besteht gemäß
Definition von en eine Gleichung des Typs

en = α · xn + y

mit einer Konstanten α > 0 und einem Vektor y ∈ Un−1 . Hieraus ergibt
sich  
An−1 ∗
An = ,
0 α
und es folgt det(An ) = α · det(An−1 ) > 0 wegen α > 0, det(An−1 ) > 0.
Zum Beweis der Eindeutigkeitsaussage sei f1 , . . . , fn eine Ortho-
normalbasis von V , die den Eigenschaften (ii) und (iii) genügt. Wie-
derum verwenden wir Induktion nach n, um fi = ei für i = 1, . . . , n zu
zeigen, wobei der Induktionsanfang n = 0 trivial ist. Sei also n > 0.
Nach Induktionsvoraussetzung dürfen wir fi = ei für i = 1, . . . , n − 1
annehmen. Dann existiert eine Gleichung des Typs

fn = α · xn + y
Ln−1
mit einem Skalar α ∈ K und einem Vektor y ∈ Un−1 = i=1 Kxi . Die

Basiswechselmatrix Aid,E ′ ,X mit E = (f1 , . . . , fn ) = (e1 , . . . , en−1 , fn )
und X = (x1 , . . . , xn ) hat dann die Gestalt
 
An−1 ∗
A= ,
0 α

und es folgtLα > 0 wegen det(A) > 0 sowie det(An−1 ) > 0. Indem
n−1
wir Un−1 = i=1 Kei benutzen, lässt sich y als Linearkombination der
e1 , . . . , en−1 schreiben. Folglich gibt es Konstanten β1 , . . . , βn−1 ∈ K
mit
326 7. Euklidische und unitäre Vektorräume

 n−1
X 
fn = α · xn − βi ei .
i=1

Für i = 1, . . . , n − 1 gilt dann



0 = hfn , ei i = α · hxn , ei i − βi ,

also βi = hxn , ei i und damit


 n−1
X 
fn = α · xn − hxn , ei iei .
i=1

Aus der Gleichung


n−1
X
1 = |fn | = α · xn − hxn , ei iei
i=1

ergibt sich dann n−1


X −1
α = xn − hxn , ei iei
i=1

und somit fn = en , was zu zeigen war. 

Korollar 6. Jeder endlich-dimensionale euklidische bzw. unitäre Vek-


torraum V besitzt eine Orthonormalbasis. Jede Orthonormalbasis eines
Untervektorraums U ⊂ V lässt sich zu einer Orthonormalbasis von V
ergänzen.

Korollar 7. Es sei V ein endlich-dimensionaler euklidischer bzw. uni-


tärer Vektorraum und V1 ⊂ V2 ⊂ . . . Vr = V eine Kette von K-Unter-
vektorräumen. Sei dimK Vi = ni . Dann existiert eine Orthonormalbasis
e1 , . . . , en von V , so dass e1 , . . . , eni jeweils eine Orthonormalbasis von
Vi ist, i = 1, . . . , r.

Ist V ein K-Vektorraum mit einer sBF oder HF, so heißen zwei
Teilmengen M, N ⊂ V orthogonal, in Zeichen M ⊥ N , wenn stets
hx, yi = 0 für x ∈ M , y ∈ N gilt. Man schreibt dabei auch x ⊥ y
anstelle von hx, yi = 0, wobei x ⊥ y äquivalent zu y ⊥ x ist. Außerdem
kann man zu einer Teilmenge M ⊂ V den K-Untervektorraum

M ⊥ = x ∈ V ; x ⊥ y für alle y ∈ M
7.2 Orthogonalität 327

betrachten. Für einen Untervektorraum W ⊂ V bezeichnet man W ⊥


als das orthogonale Komplement von W in V .

Korollar 8. Sei V ein endlich-dimensionaler euklidischer bzw. unitä-


rer Vektorraum, und sei W ⊂ V ein Untervektorraum. Dann gilt:
(i) V = W ⊕ W ⊥ , insbesondere dimK W ⊥ = dimK V − dimK W .
(ii) (W ⊥ )⊥ = W .

Beweis. Man wähle eine Orthonormalbasis e1 , . . . , er von W , und er-


gänze diese durch Elemente er+1 ,L . . . en zu einer Orthonormalbasis von
n
V ; vgl. Korollar 6. Für W ′ = i=r+1 Kei gilt dann W ⊥ W und
P

n
deshalb W ′ ⊂ W ⊥ . Sei nun x = i=1 αi ei ∈ W ⊥ . Die Gleichungen
hx, ei i = 0 für i = 1, . . . , r zeigen dann αi = 0 für i = 1, . . . , r und
somit x ∈ W ′ . Es gilt also W ⊥ = W ′ und damit V = W ⊕ W ⊥ .
Die gleiche Argumentation, angewandt auf W ⊥ anstelle von W , ergibt
(W ⊥ )⊥ = W . 

Als Anwendung wollen wir noch auf das Volumen eines Parallelo-
tops im Rn eingehen. Für ein linear unabhängiges System von Vektoren
x1 , . . . , xr ∈ Rn bezeichne
 r
X 
n
P (x1 , . . . , xr ) = x ∈ R ; x = αi xi mit 0 ≤ αi ≤ 1
i=1

das von diesen Vektoren aufgespannte r-dimensionale Parallelotop.


Handelt es sich für r = n bei x1 , . . . , xn beispielsweise um die Ein-
heitsvektoren im Rn , so ist P (x1 , . . . , xn ) gerade der n-dimensionale
Einheitswürfel.
Wir fassen, wie üblich, Rn als euklidischen Vektorraum mit dem
kanonischen Skalarprodukt auf. Zu einem r-dimensionalen Parallelo-
top P (x1 , . . . , xr ) betrachte man den von x1 , . . . , xr erzeugten r-dimen-
sionalen Untervektorraum U ⊂ Rn und wähle eine Orthonormalbasis
M = (e1 , . . . , er ) in U . Sodann sei detM diejenige Determinantenfunk-
tion auf U , die auf der Basis M den Wert 1 annimmt; vgl. 4.2/8. In
dieser Situation wird das Volumen des Parallelotops definiert durch

Vol P (x1 , . . . , xr ) = detM (x1 , . . . , xr ) .
Natürlich ist zu zeigen, dass diese Definition unabhängig von der Wahl
der Orthonormalbasis M von U ist. Auch wollen wir plausibel machen,
328 7. Euklidische und unitäre Vektorräume

dass das Volumen mit der anschaulichen Vorstellung des Volumens


eines Körpers im Rn übereinstimmt.

Satz 9. Für Vektoren x1 , . . . , xr ∈ Kn sei die zugehörige Gramsche


Determinante definiert durch
 
hx1 , x1 i . . . hx1 , xr i
G(x1 , . . . , xr ) = det  .. ... ..  ,
hxr , x1 i . . . hxr , xr i
wobei h·, ·i das kanonische Skalarprodukt auf Kn bezeichne. Dann gilt
G(x1 , . . . , xr ) ≥ 0, und es verschwindet G(x1 , . . . , xr ) genau dann,
wenn x1 , . . . , xr linear abhängig sind.
Sind x1 , . . . , xr linear unabhängig und ist M = (e1 , . . . , er ) eine
Orthonormalbasis des von x1 , . . . , xr erzeugten linearen Unterraums
im Kn , so besteht die Beziehung
2
G(x1 , . . . , xr ) = detM (x1 , . . . , xr ) .

Man beachte, dass die Aussage für r = 2 gerade die Schwarzsche


Ungleichung 7.1/4 ergibt, und zwar unabhängig von dem Beweis, der
in 7.1/4 gegeben wurde. Weiter können wir feststellen:

Korollar 10. Das Volumen eines Parallelotops P (x1 , . . . , xr ) ⊂ Rn ist


wohldefiniert, es gilt
 1
Vol P (x1 , . . . , xr ) = G(x1 , . . . , xr ) 2 .

Beweis zu Satz 9. Sind x1 , . . . , xr linear abhängig, so sieht man un-


mittelbar, dass die Spalten bzw. Zeilen in der Matrix der Gramschen
Determinante linear abhängig sind, also G(x1 , . . . , xr ) = 0 gilt. Sei-
en daher x1 , . . . , xr linear unabhängig. Dann erzeugen diese Vektoren
einen r-dimensionalen Untervektorraum U ⊂ Kn , der wiederum mit
einem Skalarprodukt versehen ist, und wir können gemäß Satz 5 eine
Orthonormalbasis M = (e1 , . . . , er ) in U wählen. Bezeichnen wir dann
mit x1,M , . . . , xr,M die Koordinatenspaltenvektoren von x1 , . . . , xr be-
züglich der Basis M , so gilt

(x1,M , . . . , xr,M )t · (x1,M , . . . , xr,M ) = hxi , xj i i,j=1,...,r .
7.2 Orthogonalität 329

Insbesondere folgt
2 2
detM (x1 , . . . , xr ) = det(x1,M , . . . , xr,M ) = G(x1 , . . . , xr )

und damit G(x1 , . . . , xr ) > 0, da x1 , . . . , xr linear unabhängig sind. 

Wir wollen nun noch für ein Parallelotop P (x1 , . . . , xr ) ⊂ Rn plau-


sibel machen, dass das definierte Volumen
 1
Vol P (x1 , . . . , xr ) = detM (x1 , . . . , xr ) = G(x1 , . . . , xr ) 2 ,

mit einer Orthonormalbasis M = (e1 , . . . , er ) des von x1 , . . . , xr er-


zeugten Untervektorraums von Rn , auch in anschaulicher Weise dem
r-dimensionalen Volumen von P (x1 , . . . , xr ) entspricht. Für r = 1 ist
dies unmittelbar klar. Für rP > 1 betrachte man die orthogonale Pro-
jektion pU : Rn ✲ U := r−1 ′
i=1 Rxi . Es ist dann xr = xr − pU (xr )
orthogonal zu U , also zu x1 , . . . , xr−1 . Folglich gilt

Vol P (x1 , . . . , xr ) = detM (x1 , . . . , xr )
= detM (x1 , . . . , xr−1 , x′r )

= Vol P (x1 , . . . , xr−1 , x′r )

und weiter
2 2
Vol P (x1 , . . . , xr ) = Vol P (x1 , . . . , xr−1 , x′r )
 
hx1 , x1 i . . . hx1 , xr−1 i 0
 .. ... .. .. 
= det 
hxr−1 , x1 i . . . hxr−1 , xr−1 i

0 
0 ... 0 hx′r , x′r i
 
hx1 , x1 i . . . hx1 , xr−1 i
= det  .. ... ..  · |x′r |2
hxr−1 , x1 i . . . hxr−1 , xr−1 i
2
= Vol P (x1 , . . . , xr−1 ) · |x′r |2 .

Nun ist |x′r | als senkrechter Abstand von xr zu U zu interpretieren;


vgl. hierzu auch Aufgabe 4 am Schluss dieses Abschnitts. Somit ergibt
sich das Volumen des r-dimensionalen Parallelotops P (x1 , . . . , xr ) als
330 7. Euklidische und unitäre Vektorräume

Produkt aus dem Volumen der (r − 1)-dimensionalen “Grundfläche”


P (x1 , . . . , xr−1 ) mit der “Höhe” von xr über dieser Grundfläche. In in-
duktiver Weise folgt daher, dass das definierte Volumen eines Parallelo-
tops mit dem eines Quaders übereinstimmt, der die gleichen Höhenver-
hältnisse hat, was mit der anschaulichen Vorstellung übereinstimmt.

Aufgaben
1. Man betrachte R3 als euklidischen Vektorraum mit dem kanonischen
Skalarprodukt und wende das nach E. Schmidt benannte Orthonorma-
lisierungsverfahren auf die Basis (1, 1, 0), (1, 0, 1), (0, 1, 1) ∈ R3 an.
2. Für n ∈ N sei R⌈⌊T ⌉⌋n ⊂ R⌈⌊T ⌉⌋ der R-Untervektorraum aller Polynome
vom Grad ≤ n. Man zeige, dass durch
Z 1
hf, gi = f (t)g(t)dt, f, g ∈ R⌈⌊T ⌉⌋n ,
0

ein Skalarprodukt auf R⌈⌊T ⌉⌋n definiert wird. Für n = 2 wende man das
Orthonormalisierungsverfahren von E. Schmidt auf die Basis 1, T, T 2
von R⌈⌊T ⌉⌋2 an. (AT 469)
3. Es sei V ein euklidischer bzw. unitärer K-Vektorraum mit einer Ba-
sis x1 , . . . , xn , aus der man durch Anwenden des Schmidtschen Ortho-
normalisierungsverfahrens die Orthonormalbasis e1 , . . . , en erhalte. Man
zeige für Konstanten ε1 , . . . , εn ∈ K mit |εi | = 1, dass das Orthonor-
malisierungsverfahren die Basis ε1 x1 , . . . , εn xn in die Orthonormalbasis
ε1 e1 , . . . , εn en überführt.
4. Es sei V ein euklidischer bzw. unitärer K-Vektorraum, U ⊂ V ein Un-
tervektorraum und v ∈ V − U . Man zeige (AT 471):
(i) Es existiert genau ein u0 ∈ U mit v − u0 ∈ U ⊥ .
(ii) Für alle u ∈ U mit u 6= u0 gilt |v − u| > |v − u0 |.
5. Es sei V = Rn×n der R-Vektorraum aller reellen (n×n)-Matrizen. Man
zeige:
(i) Durch Φ(A, B) = Spur(A · B) wird auf V eine nicht-ausgeartete
symmetrische Bilinearform erklärt.
(ii) Sei U+ = {U ∈ V ; U t = U } der Untervektorraum aller symmetri-
schen und U− = {U ∈ V ; U t = −U } der Untervektorraum aller
schiefsymmetrischen Matrizen. Es gilt
V = U+ ⊕ U− , U+⊥ = U− , U−⊥ = U+ .
7.3 Sesquilinearformen und Matrizen 331

(iii) Es ist Φ positiv definit auf U+ und negativ definit auf U− , d. h. es


gilt Φ(A, A) > 0 für alle A ∈ V+ − {0} und Φ(A, A) < 0 für alle
A ∈ V− − {0}.

7.3 Sesquilinearformen und Matrizen

Für eine Matrix A = (αij )i=1,...,m ∈ Km×n bezeichnet man mit


j=1,...,n

A = (αij )i=1,...,m ∈ Km×n


j=1,...,n

die konjugierte Matrix, mit


At = (αij )j=1,...,n ∈ Kn×m
i=1,...,m

die transponierte Matrix, sowie mit


A∗ = At = (α ) ij j=1,...,n ∈ Kn×m
i=1,...,m

die adjungierte Matrix zu A. Dabei ist zu beachten, dass hier die Be-
zeichnung “adjungiert” in einem anderen Sinne als in Abschnitt 4.4
gemeint ist. Für das Rechnen mit konjugierten Matrizen gelten folgen-
de Regeln; A, B seien Matrizen, c ∈ K eine Konstante:
A+B =A+B
c·A=c·A
A·B =A·B
A−1 = (A)−1
det(A) = det(A)
Für das Transponieren von Matrizen hatten wir bereits die folgenden
Rechenregeln kennengelernt:
(A + B)t = At + B t
(c · A)t = c · At
(A · B)t = B t · At
(A−1 )t = (At )−1
det(At ) = det(A)
332 7. Euklidische und unitäre Vektorräume

Und zwar ergeben sich die ersten beiden Gleichungen aus 3.2/6, die
dritte, sowie als leichte Folgerung auch die vierte aus 3.2/8, und schließ-
lich die letzte aus 4.3/4. Somit ergeben sich folgende Regeln für das
Rechnen mit adjungierten Matrizen:

(A + B)∗ = A∗ + B ∗
(c · A)∗ = c · A∗
(A · B)∗ = B ∗ · A∗
(A−1 )∗ = (A∗ )−1
det(A∗ ) = det(A)

Wir wollen im Folgenden Sesquilinearformen mit Hilfe von Matrizen


beschreiben.

Definition 1. Sei Φ : V × V ✲ K eine Sesquilinearform auf einem


K-Vektorraum V mit Basis X = (x1 , . . . , xn ). Dann heißt

AΦ,X = Φ(xi , xj ) i,j=1,...,n ∈ Kn×n

die zu Φ gehörige Matrix bezüglich der Basis X.

Satz 2. Sei Φ : V × V ✲ K eine Sesquilinearform auf einem


K-Vektorraum V mit Basis X = (x1 , . . . , xn ). Bezeichnet dann wie
üblich aX den Koordinatenspaltenvektor zu einem Vektor a ∈ V , so
gilt für a, b ∈ V
Φ(a, b) = atX · AΦ,X · bX ,
und die Matrix AΦ,X ∈ Kn×n ist durch diese Beziehung eindeu-
tig charakterisiert. Weiter ist Φ genau dann nicht ausgeartet, wenn
det(AΦ,X ) 6= 0 gilt.
Pn Pn
Beweis. Sei a = i=1 αi x i , b = j=1 βj xj . Dann folgt
n
X
Φ(a, b) = αi · Φ(xi , xj ) · β j = atX · AΦ,X · bX ,
i,j=1

wie behauptet. Hat man andererseits eine Matrix A = (αij )i,j ∈ Kn×n
mit
7.3 Sesquilinearformen und Matrizen 333

Φ(a, b) = atX · A · bX ,
für a, b ∈ V , so ergibt sich, indem man x1 , . . . , xn für a bzw. b einsetzt,
Φ(xi , xj ) = αij
und damit A = AΦ,X , d. h. die Matrix A = AΦ,X ist durch obige
Beziehung eindeutig bestimmt.
Sei nun Φ ausgeartet, etwa ausgeartet im ersten Argument. Sei also
a ∈ V von Null verschieden mit Φ(a, b) = 0 für alle b ∈ V . Dann gilt
atX · AΦ,X · bX = 0 für alle b ∈ V.
Indem man dies für b = x1 , . . . , xn anwendet, erhält man atX ·AΦ,X = 0.
Die K-lineare Abbildung
Kn ✲ Kn , x ✲ AtΦ,X · x,
hat daher einen nicht-trivialen Kern, und es ergibt sich
det(AΦ,X ) = det(AtΦ,X ) = 0
mit 4.3/4. Umgekehrt folgt mittels 2.1/11 und 4.3/4 aus einer solchen
Gleichung, dass Φ im ersten Argument ausgeartet ist. Der Fall, dass Φ
im zweiten Argument ausgeartet ist, lässt sich entsprechend behandeln.


Der vorstehende Beweis zeigt genauer:

Korollar 3. Sei V ein endlich-dimensionaler K-Vektorraum mit Basis


X. Dann definiert die Zuordnung Φ ✲ AΦ,X eine bijektive Abbildung
zwischen der Menge aller Sesquilinearformen Φ : V × V ✲ K und
der Menge aller (n × n)-Matrizen mit Koeffizienten in K. Weiter ist
für eine solche Sesquilinearform Φ äquivalent:
(i) Φ(a, b) = 0 für alle b ∈ V =⇒ a = 0.
(ii) Φ(a, b) = 0 für alle a ∈ V =⇒ b = 0.
(iii) Φ ist nicht-ausgeartet.
(iv) det(AΦ,X ) 6= 0.

Korollar 4. Sei Φ : V × V ✲ K eine Sesquilinearform auf einem


endlich-dimensionalen K-Vektorraum V mit Basis X. Dann ist äqui-
valent:
334 7. Euklidische und unitäre Vektorräume

(i) Φ ist eine sBF bzw. HF, d. h. für a, b ∈ V gilt Φ(a, b) = Φ(b, a).
(ii) AΦ,X = (AΦ,X )∗ .

Beweis. Für a, b ∈ V gilt


t
Φ(b, a) = (btX · AΦ,X · aX ) = bX · AΦ,X · aX
· a )t = at · (A )∗ · b .
t
= (b · A
X Φ,X X X Φ,X X

Nach Satz 2 ist die Gleichung Φ(a, b) = Φ(b, a) für a, b ∈ V daher


äquivalent zu AΦ,X = (AΦ,X )∗ . 

Als Nächstes wollen wir für eine Sesquilinearform Φ : V ×V ✲K


untersuchen, wie sich ein Basiswechsel in V auf die beschreibende Ma-
trix AΦ,X auswirkt. In Abschnitt 3.4 hatten wir Basiswechselmatrizen
der Form Aid,Y,X zu gegebenen Basen Y und X von V betrachtet. Wir
werden im Folgenden anstelle von Aid,Y,X abkürzend AY,X schreiben.

Satz 5. Sei Φ : V ×V ✲ K eine Sesquilinearform auf einem endlich-


dimensionalen K-Vektorraum V mit Basen X und Y . Dann gilt

AΦ,Y = AtY,X · AΦ,X · AY,X .

Beweis. Man hat aX = AY,X · aY für a ∈ V , folglich für a, b ∈ V

Φ(a, b) = atX · AΦ,X · bX


= (AY,X · aY )t · AΦ,X · (AY,X · bY )
= atY · AtY,X · AΦ,X · AY,X · bY

und deshalb AΦ,Y = AtY,X · AΦ,X · AY,X gemäß Satz 2. 

Korollar 6. Sei Φ : V × V ✲ K eine Sesquilinearform auf einem


K-Vektorraum V mit Basis X = (x1 , . . . , xn ). Dann ist äquivalent:
(i) Φ ist ein Skalarprodukt, also eine positiv definite sBF bzw. HF.
(ii) Es existiert eine Matrix S ∈ GL(n, K), so dass gilt:

S t · AΦ,X · S = E

Dabei ist E ∈ Kn×n die Einheitsmatrix.


7.3 Sesquilinearformen und Matrizen 335

Beweis. Sei zunächst Φ ein Skalarprodukt. Dann besitzt V nach 7.2/5


eine Orthonormalbasis Y . Insbesondere gilt AΦ,Y = E, und man erhält
S t · AΦ,X · S = E mit S = AY,X aus Satz 5.
Gilt umgekehrt S t · AΦ,X · S = E für ein S ∈ GL(n, K), so kann
man S als Basiswechselmatrix des Typs AY,X auffassen, so dass also
AΦ,Y = E gilt. Φ ist dann ein Skalarprodukt. 

Das vorstehende Korollar beinhaltet insbesondere die Aussage,


dass die beschreibende Matrix AΦ,X einer positiv definiten sBF bzw.
HF durch Wechsel der Basis X in die Einheitsmatrix überführt werden
kann, nämlich durch Übergang zu einer Orthonormalbasis. Lässt man
die Voraussetzung positiv definit fallen, so kann man AΦ,X immerhin
noch in eine reelle Diagonalmatrix überführen, wie wir in 7.6/6 zeigen
werden.

Korollar 7. Ist Φ : V ×V ✲ K ein Skalarprodukt auf einem endlich-


dimensionalen K-Vektorraum V , so gilt det(AΦ,X ) > 0 für alle Basen
X von V .

Beweis. Es sei X eine Orthonormalbasis von V ; vgl. 7.2/5. Dann gilt


AΦ,X = E. Für eine weitere Basis Y von V erhält man unter Verwen-
dung der Gleichung aus Satz 5

det(AΦ,Y ) = det(AtY,X ) · det(AΦ,X ) · det(AY,X )


2
= det(AY,X ) · det(AY,X ) = det(AY,X ) > 0,

da det(AY,X ) 6= 0. 

Abschließend wollen wir noch ein Determinantenkriterium für die


positive Definitheit einer sBF bzw. HF geben.

Satz 8. Sei Φ : V × V ✲ K eine sBF bzw. HF auf einem K-Vektor-


raum V mit Basis X = (x1 , . . . , xn ). Man betrachte die Matrizen

Ar = Φ(xi , xj ) i,j=1,...,r ∈ Kr×r , r = 1, . . . , n.

Dann ist äquivalent:


(i) Φ ist positiv definit und damit ein Skalarprodukt.
(ii) det(Ar ) > 0 für r = 1, . . . , n.
336 7. Euklidische und unitäre Vektorräume

Beweis. Die Implikation (i)=⇒ (ii) ist Prleicht einzusehen. Man schränke
Φ auf die Untervektorräume Vr = i=1 Kxi ein, r = 1, . . . , n. Korol-
lar 7 zeigt dann det(Ar ) > 0.
Zum Nachweis der Umkehrung nehmen wir an, dass det(Ar ) > 0
für r = 1, . . . , n gilt, und zeigen mit Induktion nach n, dass Φ ein
Skalarprodukt ist. Der Fall n = 1 ist trivial, da dann x1 eine Basis von
V ist und Φ(x1 , x1 ) = det(A1 ) > 0 gilt. Sei also n > 1. Dann ist Φ|Vn−1
positiv definit nach Induktionsvoraussetzung, und es besitzt Vn−1 nach
7.2/5 eine Orthonormalbasis e1 , . . . , en−1 . Weiter ist wie im Beweis zu
7.2/4 leicht zu sehen, dass e1 , . . . , en−1 zusammen mit

n−1
X
x′n = xn − Φ(xn , ei )ei
i=1

eine Orthogonalbasis Y von V bilden, wobei


 
1 0
 .. 
 
AΦ,Y =
 .. 

 1 0 
′ ′
0 0 Φ(xn , xn )

gilt. Mit S = AY,X folgt dann AΦ,Y = S t An S aus Satz 5 und damit

2
Φ(x′n , x′n ) = det(AΦ,Y ) = det(S) · det(An ) > 0.

Setzen wir daher


1
en = p · x′n ,
Φ(x′n , x′n )
so gilt Φ(en , en ) = 1, und es bilden e1 , . . . , en eine Orthonormalbasis
von V . Insbesondere ist Φ positiv definit. 

In der Situation von Satz 8 bezeichnet man die Determinanten


det(Ar ), r = 1, . . . , n, auch als die Hauptunterdeterminanten der Ma-
trix AΦ,X . Durch Kombination von Korollar 4 mit Satz 8 ergibt sich
dann:
7.3 Sesquilinearformen und Matrizen 337

Korollar 9. Für eine Matrix A ∈ Kn×n betrachte man die Sesquiline-


arform
Φ : Kn × Kn ✲ K, (a, b) ✲ at · A · b.
Dann ist äquivalent:
(i) Φ ist ein Skalarprodukt.
(ii) A = A∗ und alle Hauptunterdeterminanten von A sind positiv.

Aufgaben
V sei stets ein K-Vektorraum der Dimension n < ∞.
1. Man zeige, dass die Menge aller Sesquilinearformen V × V ✲ K unter
der Addition und skalaren Multiplikation von K-wertigen Funktionen auf
V × V einen K-Vektorraum und insbesondere auch einen R-Vektorraum
bildet. Man berechne jeweils die Dimension. Welche der folgenden Teil-
mengen bilden lineare Unterräume über R bzw. C? Man berechne gege-
benenfalls die zugehörige Dimension.
(i) Symmetrische Bilinearformen im Falle K = R
(ii) Hermitesche Formen im Falle K = C
(iii) Skalarprodukte
2. Im Falle dimK V ≥ 2 konstruiere man eine nicht-ausgeartete sBF bzw.
HF Φ auf V sowie einen nicht-trivialen linearen Unterraum U ⊂ V , so
dass Φ|U ×U ausgeartet ist.
3. Es sei Φ eine positiv semidefinite sBF bzw. HF auf V . Man zeige, dass
es eine Basis X von V gibt, so dass die zugehörige Matrix AΦ,X ei-
ne Diagonalmatrix mit Diagonaleinträgen 1 oder 0 ist, also etwa mit
AΦ,X = Diag(1, . . . , 1, 0, . . . , 0).
4. Es sei Φ eine sBF bzw. HF auf V und X eine Basis von V . Man zeige,
dass alle Hauptunterdeterminanten von AΦ,X reelle Zahlen ≥ 0 sind,
falls Φ positiv semidefinit ist. Gilt auch die Umkehrung? (AT 472)
5. Für eine Matrix A ∈ Kn×n gilt genau dann A∗ = A−1 , wenn die Spal-
ten (bzw. Zeilen) von A eine Orthonormalbasis in Kn bilden. Eine solche
Matrix wird als orthogonal (für K = R) bzw. unitär (für K = C) be-
zeichnet.
6. Es sei Φ ein Skalarprodukt auf V . Man zeige für jedes weitere Skalar-
produkt Ψ auf V : Es existiert ein Endomorphismus f : V ✲ V mit
Ψ (x, y) = Φ(f (x), f (y)) für alle x, y ∈ V .
338 7. Euklidische und unitäre Vektorräume

7. Für eine Matrix A ∈ Kn×n zeige man: Durch ha, bi = at · A · b wird


genau dann ein Skalarprodukt auf Kn definiert, wenn es eine Matrix
S ∈ GL(n, K) mit A = S t · S gibt. (AT 473)

7.4 Die adjungierte Abbildung

Als Nächstes soll zu einem Endomorphismus ϕ : V ✲ V eines


endlich-dimensionalen euklidischen bzw. unitären Vektorraums V die
sogenannte adjungierte Abbildung ϕ∗ : V ✲ V definiert werden.
Diese Abbildung lässt sich in einem gewissen Sinne als duale Abbildung
zu ϕ interpretieren, weshalb sie meist mit ϕ∗ bezeichnet wird. Aller-
dings werden wir zusätzlich aus Konstruktionsgründen auch die “echte”
duale Abbildung zu ϕ (im Sinne von 2.3/2) benötigen, für die wir im
Folgenden anstelle von ϕ∗ : V ∗ ✲ V ∗ die Notation ϕ′ : V ′ ✲ V′
verwenden werden. Wir beginnen mit einer technischen Vorbetrach-
tung.
Zu einem K-Vektorraum V kann man wie folgt einen K-Vektorraum
V bilden. Man setze V = V als additive abelsche Gruppe, definiere aber
die skalare Multiplikation von V durch

K×V ✲ V, (α, v) ✲ α • v := α · v,

wobei zur Bildung des Produktes α · v die skalare Multiplikation von V


verwendet werden soll. Man prüft leicht nach, dass V auf diese Weise
ein K-Vektorraum ist und dass die K-Endomorphismen von V mit
den K-Endomorphismen von V übereinstimmen. Weiter gilt (V ) = V ,
dimK (V ) = dimK (V ) und natürlich V = V für K = R.

Lemma 1. Es sei Φ : V × V ✲ K eine nicht-ausgeartete Sesquili-


nearform auf einem endlich-dimensionalen K-Vektorraum V . Ist dann
V wie oben definiert und V ′ = HomK (V, K) der Dualraum von V , so
wird durch
τ: V ✲ V ′, x ✲ Φ(·, x),

ein Isomorphismus von K-Vektorräumen erklärt.


7.4 Die adjungierte Abbildung 339

Beweis. Für x, y ∈ V gilt

τ (x + y) = Φ(·, x + y) = Φ(·, x) + Φ(·, y) = τ (x) + τ (y),

sowie für α ∈ K, x ∈ V

τ (α • x) = τ (α · x) = Φ(·, α · x) = α · Φ(·, x) = α · τ (x),

d. h. τ ist K-linear. Weiter ist τ injektiv, da Φ nicht ausgeartet ist, und


es gilt dimK (V ) = dimK (V ) = dimK (V ′ ) gemäß 2.3/6. Dann ist τ aber
aufgrund von 2.1/11 ein Isomorphismus. 

Satz 2. Sei Φ : V × V ✲ K eine nicht-ausgeartete Sesquiline-


arform auf einem endlich-dimensionalen K-Vektorraum V , und sei
ϕ ∈ EndK (V ). Dann existiert eine eindeutig bestimmte Abbildung
ϕ∗ ∈ EndK (V ) mit
 
Φ ϕ(x), y = Φ x, ϕ∗ (y)

für alle x, y ∈ V . Man nennt ϕ∗ den zu ϕ adjungierten Endomorphis-


mus.
Beweis. Wir betrachten den Dualraum V ′ zu V sowie die von ϕ indu-
zierte duale Abbildung

ϕ′ : V ′ ✲ V ′, f ✲ f ◦ ϕ.

Indem wir den Isomorphismus τ : V ∼✲ V ′ aus Lemma 1 benutzen,


können wir durch ϕ∗ := τ −1 ◦ ϕ′ ◦ τ einen K-Endomorphismus ϕ∗ von
V bzw. V definieren, so dass folglich das Diagramm
τ
V ✲ V′
ϕ∗ ϕ′
❄ ❄
τ
V ✲ V′
kommutiert. Somit gilt für y ∈ V
   
Φ ϕ(·), y = τ (y) ◦ ϕ = ϕ′ τ (y) = τ ϕ∗ (y) = Φ ·, ϕ∗ (y) ,

also wie gewünscht  


Φ ϕ(x), y = Φ x, ϕ∗ (y)
340 7. Euklidische und unitäre Vektorräume

für alle x, y ∈ V . Dass ϕ∗ ∈ EndK (V ) durch diese Beziehung eindeutig


bestimmt ist, folgert man leicht aus der Tatsache, dass Φ nicht ausge-
artet ist. 

Korollar 3. Sei Φ : V × V ✲ K eine nicht-ausgeartete sBF bzw. HF


eines endlich-dimensionalen K-Vektorraums V .
(i) Die Abbildung
∗ : End (V ) ✲ EndK (V ), ϕ ✲ ϕ∗ ,
K

ist semilinear, d. h. man hat

(αϕ1 + βϕ2 )∗ = αϕ∗1 + βϕ∗2

für α, β ∈ K, ϕ1 , ϕ2 ∈ EndK (V ). Weiter gilt id∗ = id, sowie ϕ∗∗ = ϕ


für alle ϕ ∈ EndK (V ).
(ii) Es gilt

ker ϕ∗ = (im ϕ)⊥ , ker ϕ = (im ϕ∗ )⊥

für ϕ ∈ EndK (V ).
(iii) Es gilt rg ϕ = rg ϕ∗ für ϕ ∈ EndK (V ). Insbesondere ist ϕ genau
dann bijektiv, wenn ϕ∗ bijektiv ist.

Beweis. (i) Für x, y ∈ V gilt

(αϕ1 + βϕ2 )(x), y = α ϕ1 (x), y + β ϕ2 (x), y


= α x, ϕ∗1 (y) + β x, ϕ∗2 (y)
= x, (αϕ∗ + βϕ∗ )(y)
1 2

und damit (αϕ1 + βϕ2 )∗ = αϕ∗1 + βϕ∗2 gemäß Satz 2. In gleicher Weise
zeigt
id(x), y = hx, yi = x, id(y)
die Gleichung id∗ = id, sowie

ϕ∗ (x), y = y, ϕ∗ (x) = ϕ(y), x = x, ϕ(y)

die Gleichung ϕ∗∗ = ϕ.


7.4 Die adjungierte Abbildung 341

(ii) Sei x ∈ V . Da die Form Φ nicht ausgeartet ist, ist die Bedin-
gung x ∈ ker ϕ∗ äquivalent zu hv, ϕ∗ (x)i = 0 für alle v ∈ V , wegen
hv, ϕ∗ (x)i = hϕ(v), xi aber auch zu hϕ(v), xi = 0 für alle v ∈ V und
damit zu x ∈ (im ϕ)⊥ . Weiter hat man dann aufgrund von (i)

ker ϕ = ker ϕ∗∗ = (im ϕ∗ )⊥ .

(iii) Berücksichtigen wir die Konstruktion von ϕ∗ im Beweis zu


Satz 2, so stimmt der Rang von ϕ∗ mit dem Rang der zu ϕ dua-
len Abbildung überein. Dieser ist jedoch nach 2.3/7 identisch mit dem
Rang von ϕ. Alternativ können wir aber unter Benutzung von (ii) auch
wie folgt rechnen:

rg ϕ = dim V − dim(ker ϕ) = dim V − dim(im ϕ∗ )⊥


= dim V − (dim V − rg ϕ∗ ) = rg ϕ∗

Dabei wurde allerdings für den Unterraum U = im ϕ∗ ⊂ V die Formel

dim U + dim U ⊥ = dim V

benutzt, welche wir in 7.2/8 nur für euklidische bzw. unitäre Vektor-
räume bewiesen hatten. 

Wir wollen nun adjungierte Abbildungen auch mittels Matrizen


beschreiben. Hierzu fixieren wir für den Rest dieses Abschnitts einen
endlich-dimensionalen K-Vektorraum V , der mit einem Skalarprodukt
Φ: V × V ✲ K versehen ist, also einen euklidischen bzw. unitären
Vektorraum V endlicher Dimension.

Bemerkung 4. Es sei X eine Orthonormalbasis von V . Für eine


Abbildung ϕ ∈ EndK (V ) und die zugehörige adjungierte Abbildung ϕ∗
gilt dann
Aϕ∗ ,X,X = (Aϕ,X,X )∗ .

Beweis. Die Matrix AΦ,X , welche Φ bezüglich der Orthonormalbasis


X beschreibt, ist die Einheitsmatrix. Folglich gilt für a, b ∈ V gemäß
3.1/7 und 7.3/2

ϕ(a), b = (Aϕ,X,X · aX )t · AΦ,X · bX = atX · Atϕ,X,X · bX ,


342 7. Euklidische und unitäre Vektorräume

sowie

a, ϕ∗ (b) = atX · AΦ,X · (Aϕ∗ ,X,X · bX ) = atX · Aϕ∗ ,X,X · bX .

Betrachten wir nun hϕ(a), bi = ha, ϕ∗ (b)i als Sesquilinearform in Vek-


toren a, b ∈ V , so ergibt sich Atϕ,X,X = Aϕ∗ ,X,X bzw. Aϕ∗ ,X,X = A∗ϕ,X,X
mittels 7.3/2. 

Definition 5. Eine Abbildung ϕ ∈ EndK (V ) heißt normal, wenn ϕ


mit der zugehörigen adjungierten Abbildung kommutiert, d. h. wenn
ϕ ◦ ϕ∗ = ϕ∗ ◦ ϕ gilt.

Satz 6. ϕ ∈ EndK (V ) ist genau dann normal, wenn

ϕ(x), ϕ(y) = ϕ∗ (x), ϕ∗ (y)

für alle x, y ∈ V gilt.

Beweis. Für x, y ∈ V hat man

ϕ(x), ϕ(y) = x, ϕ∗ ◦ ϕ(y) ,


ϕ∗ (x), ϕ∗ (y) = x, ϕ ◦ ϕ∗ (y) ,

wobei wir ϕ∗∗ = ϕ ausgenutzt haben. Daher gilt

ϕ(x), ϕ(y) = ϕ∗ (x), ϕ∗ (y)

für alle x, y ∈ V genau dann, wenn

x, ϕ∗ ◦ ϕ(y) = x, ϕ ◦ ϕ∗ (y)

für alle x, y ∈ V gilt, sowie aufgrund der Tatsache, dass die Form hx, yi
auf V nicht ausgeartet ist, genau dann, wenn

ϕ∗ ◦ ϕ(y) = ϕ ◦ ϕ∗ (y)

für alle y ∈ V gilt. Letzteres bedeutet aber ϕ∗ ◦ ϕ = ϕ ◦ ϕ∗ . 


7.4 Die adjungierte Abbildung 343

Korollar 7. Sei ϕ ∈ EndK (V ) normal.


(i) Es gilt ker ϕ = ker ϕ∗ .
(ii) Ein Vektor x ∈ V ist genau dann Eigenvektor von ϕ zum Ei-
genwert λ, wenn x Eigenvektor von ϕ∗ zum Eigenwert λ ist.

Beweis. Aussage (i) ergibt sich mittels Satz 6 aus der Gleichung

= ϕ(x), ϕ(x) = ϕ∗ (x), ϕ∗ (x) = ϕ∗ (x) ,


2 2
ϕ(x) x ∈ V.

Weiter gilt für λ ∈ K gemäß Korollar 3

(λ id −ϕ)∗ = λ id −ϕ∗ ,

und man erkennt aufgrund der Normalität von ϕ, dass auch λ id −ϕ


wieder normal ist. Folglich gilt nach (i)

ker(λ id −ϕ) = ker (λ id −ϕ)∗ = ker(λ id −ϕ∗ ),

also Aussage (ii). 

Wir wollen diese Information verwenden, um den sogenannten


Spektralsatz für normale Abbildungen zu beweisen; Spektralsätze geben
Auskunft über Eigenwerte und Eigenvektoren von Homomorphismen
von Vektorräumen.

Satz 8. Es sei ϕ ∈ EndK (V ) ein Endomorphismus, dessen charakte-


ristisches Polynom χϕ ∈ K⌈⌊T ⌉⌋ vollständig in Linearfaktoren zerfällt.
Dann ist äquivalent:
(i) ϕ ist normal.
(ii) Es existieren Eigenvektoren bezüglich ϕ, die eine Orthonormal-
basis von V bilden.

Beweis. Sei zunächst Bedingung (i) gegeben, also ϕ normal. Um (ii)


zu zeigen, verwenden wir Induktion nach n = dimK V , wobei der Fall
n = 0 trivial ist. Sei also n > 0. Da χϕ vollständig in Linearfakto-
ren zerfällt, besitzt ϕ mindestens einen Eigenwert λ und damit auch
einen zugehörigen Eigenvektor e1 . Indem wir e1 normieren, dürfen wir
|e1 | = 1 annehmen. Man betrachte nun die Zerlegung

V = Ke1 ⊕ (Ke1 )⊥ ;
344 7. Euklidische und unitäre Vektorräume

vgl. 7.2/8. Dabei ist (Ke1 )⊥ ein ϕ-invarianter Unterraum von V , denn
für x ∈ (Ke1 )⊥ gilt unter Benutzung von Korollar 7 (ii)
ϕ(x), e = x, ϕ∗ (e ) = hx, λe i = λhx, e i = 0.
1 1 1 1

Die vorstehende Zerlegung ist also eine Zerlegung in ϕ-invariante Un-


terräume von V , wobei (Ke1 )⊥ mit der Einschränkung des Skalarpro-
dukts von V selbst wieder ein euklidischer bzw. unitärer Vektorraum
endlicher Dimension ist. Unter Benutzung von 6.5/8 (ii) können wir
dann auf Ṽ = (Ke1 )⊥ und die Einschränkung ϕ|Ṽ : Ṽ ✲ Ṽ die
Induktionsvoraussetzung anwenden. Es existiert daher eine Orthonor-
malbasis e2 , . . . , en von Ṽ , die aus Eigenvektoren bezüglich ϕ besteht.
Insgesamt sind dann e1 , . . . , en Eigenvektoren zu ϕ, die eine Orthonor-
malbasis von V bilden, d. h. Bedingung (ii) ist erfüllt.
Sei nun Bedingung (ii) gegeben, sei also X eine Orthonormalbasis
von V , die aus Eigenvektoren zu ϕ besteht. Dann ist die Matrix Aϕ,X,X
eine Diagonalmatrix und folglich auch die Matrix Aϕ∗ ,X,X = (Aϕ,X,X )∗ ;
vgl. Bemerkung 4. Da Diagonalmatrizen miteinander kommutieren, gilt
dasselbe für ϕ und ϕ∗ , und wir sehen, dass (i) gilt, ϕ also normal ist.


Aufgaben
V sei stets ein euklidischer bzw. unitärer K-Vektorraum endlicher Di-
mension, ϕ ein Endomorphismus von V und ϕ∗ die zugehörige adjun-
gierte Abbildung.
1. Man zeige Spur(ϕ ◦ ϕ∗ ) ≥ 0, wobei Spur(ϕ ◦ ϕ∗ ) genau für ϕ = 0
verschwindet. (AT 475)
2. Man zeige:
(i) Ist ϕ normal, so gilt im ϕ∗ = im ϕ.
(ii) Ist ψ ein weiterer Endomorphismus von V und sind ϕ, ψ normal,
so ist ϕ ◦ ψ = 0 äquivalent zu ψ ◦ ϕ = 0.
3. Für ϕ = ϕ2 zeige man: Es gilt genau dann ϕ = ϕ∗ , wenn ker ϕ und im ϕ
orthogonal zueinander sind.
4. Für K = C zeige man: ϕ ist genau dann normal, wenn es ein Polynom
p ∈ C⌈⌊T ⌉⌋ mit ϕ∗ = p(ϕ) gibt. (AT 475)
5. Für K = C und ϕ normal zeige man: Sind x, y ∈ V zwei Eigenvektoren
zu verschiedenen Eigenwerten, so gilt x ⊥ y.
7.5 Isometrien, orthogonale und unitäre Matrizen 345

7.5 Isometrien, orthogonale und unitäre Matrizen

Generell sei V in diesem Abschnitt ein endlich-dimensionaler K-Vektor-


raum mit einem Skalarprodukt Φ : V × V ✲ K, also ein euklidischer
bzw. unitärer Vektorraum. Wir wollen im Folgenden Endomorphismen
V ✲ V studieren, die als solche nicht nur mit der Vektorraumstruk-
tur von V verträglich sind, sondern zusätzlich auch das Skalarprodukt
respektieren und damit längenerhaltend bzw., soweit definiert, auch
winkelerhaltend sind. Es handelt sich um die sogenannten Isometrien.

Satz 1. Für ϕ ∈ EndK (V ) ist äquivalent:


(i) Es gilt hϕ(x), ϕ(y)i = hx, yi für alle x, y ∈ V .
(ii) ϕ ist ein Isomorphismus mit ϕ∗ = ϕ−1 .
(iii) Es gilt |ϕ(x)| = |x| für alle x ∈ V .
(iv) Ist X eine Orthonormalbasis von V , so ist deren Bild ϕ(X)
ebenfalls eine Orthonormalbasis von V .
(v) Es existiert eine Orthonormalbasis X von V , so dass ϕ(X)
ebenfalls eine Orthonormalbasis von V ist.
Sind diese Bedingungen erfüllt, so bezeichnet man ϕ als eine Iso-
metrie. Im Falle K = R nennt man ϕ auch eine orthogonale und im
Falle K = C eine unitäre Abbildung.

Aus den Eigenschaften (ii) bzw. (iv) und (v) liest man sofort ab:

Korollar 2. Ist ϕ ∈ EndK (V ) eine Isometrie, so ist ϕ ein Isomor-


phismus, und ϕ−1 ist ebenfalls eine Isometrie. Die Komposition zweier
Isometrien ergibt wiederum eine Isometrie. Insbesondere bilden die Iso-
metrien von V eine Untergruppe der Automorphismengruppe AutK (V ).

Beweis zu Satz 1. Wir beginnen mit der Implikation (i) =⇒ (ii). Sei
also (i) gegeben. Dann hat man für x, y ∈ V

hx, yi = ϕ(x), ϕ(y) = x, ϕ∗ ϕ(y) .

Da die Form h·, ·i nicht ausgeartet ist, gilt ϕ∗ ◦ ϕ(y) = y für alle y ∈ V
und damit ϕ∗ ◦ ϕ = idV . Insbesondere ist ϕ injektiv und damit nach
2.1/11 ein Isomorphismus, wobei ϕ∗ = ϕ−1 und damit (ii) folgt.
346 7. Euklidische und unitäre Vektorräume

Ist andererseits Bedingung (ii) gegeben, ist also ϕ ein Isomorphis-


mus mit ϕ∗ = ϕ−1 , so gilt

ϕ(x), ϕ(x) = x, ϕ∗ ϕ(x) = x, ϕ−1 ϕ(x) = hx, xi

für x ∈ V , also (iii).


Um die Implikation (iii) =⇒ (iv) nachzuweisen, nehmen wir (iii)
als gegeben an und betrachten eine Orthonormalbasis X = (e1 , . . . , en )
von V . Für µ 6= ν und α ∈ K, |α| = 1, gilt dann

2 = |eµ |2 + |α|2 |eν |2 = |eµ + αeν |2


2
= ϕ(eµ ) + αϕ(eν )
 
2 2
= ϕ(eµ ) + 2Re α ϕ(eµ ), ϕ(eν ) + ϕ(eν )
 
= |eµ |2 + 2Re α ϕ(eµ ), ϕ(eν ) + |eν |2
 
= 2 + 2Re α ϕ(eµ ), ϕ(eν ) ,

also  
Re α ϕ(eµ ), ϕ(eν ) = 0.

Setzen wir speziell α = 1, so folgt Re(hϕ(eµ ), ϕ(eν )i) = 0 und damit


hϕ(eµ ), ϕ(eν )i = 0 im Falle K = R. Für K = C kann man aber auch
α = i setzen und erhält dann
   
Im ϕ(eµ ), ϕ(eν ) = Re −i ϕ(eµ ), ϕ(eν ) = 0,

also insgesamt ebenfalls hϕ(eµ ), ϕ(eν )i = 0.


Gemäß Annahme gilt |ϕ(eµ )| = |eµ | für µ = 1, . . . , n, folglich ist
(ϕ(e1 ), . . . , ϕ(en )) ein Orthonormalsystem in V . Da dieses nach 7.2/2
linear unabhängig ist, handelt es sich sogar um eine Orthonormalbasis.
Das Bild einer beliebigen Orthonormalbasis von V unter ϕ ergibt also
wiederum eine Orthonormalbasis.
Da es in V stets eine Orthonormalbasis gibt, vgl. 7.2/5, ist die
Implikation (iv) =⇒ (v) trivial. Es bleibt daher lediglich noch die Im-
plikation (v) =⇒ (i) zu zeigen. Sei also X = (e1 , . . . , en ) eine Ortho-
normalbasis von V , so dass ϕ(X) ebenfalls eine Orthonormalbasis von
V ist. Sind dann
7.5 Isometrien, orthogonale und unitäre Matrizen 347

n
X n
X
x= αµ eµ , y= βν eν
µ=1 ν=1

zwei Vektoren in V , so gilt


n
X
ϕ(x), ϕ(y) = αµ β ν ϕ(eµ ), ϕ(eν )
µ,ν=1
Xn n
X
= αµ β ν δµν = αµ β ν heµ , eν i = hx, yi,
µ,ν=1 µ,ν=1

d. h. Bedingung (i) ist erfüllt. 

Um Beispiele von Isometrien zu geben, fassen wir R2 als euklidi-


schen Vektorraum unter dem kanonischen Skalarprodukt auf. Die kano-
nische Basis e1 , e2 ist dann eine Orthonormalbasis. Man wähle sodann
Konstanten c, s ∈ R mit c2 + s2 = 1 und betrachte die durch

e1 ✲ c · e1 + s · e2 ,
ϕ : R2 ✲ R2 ,
e2 ✲ −s · e1 + c · e2 ,

gegebene R-lineare Abbildung, die bezüglich der kanonischen Basis


durch die Matrix  
c −s
∈ R2×2
s c
beschrieben wird. Für x = αe1 + βe2 ∈ R2 gilt dann
2 2
ϕ(x) = (c · α − s · β) · e1 + (s · α + c · β) · e2
= (c · α − s · β)2 + (s · α + c · β)2
= (c2 + s2 ) · (α2 + β 2 ) = |x|2 ,

d. h. ϕ ist eine Isometrie. Wir wollen uns klar machen, dass ϕ eine
Drehung um den Nullpunkt 0 ∈ R2 mit einem gewissen Winkel ϑ ist.
Hierzu ist es am einfachsten, R2 unter dem Isomorphismus

R2 ∼✲ C, (a1 , a2 ) ✲ a1 + ia2 ,

mit der komplexen Zahlenebene C zu identifizieren. Dann beschreibt


sich die Abbildung ϕ offenbar durch
348 7. Euklidische und unitäre Vektorräume

C ✲ C, z ✲ (c + is) · z.
Nun ist c + is wegen c2 + s2 = 1 eine komplexe Zahl vom Betrag 1, also
gelegen auf dem Kreis um 0 mit Radius 1. Aus der Analysis können
wir benutzen, dass die Punkte des Einheitskreises um 0 genau den Po-
tenzen eiϑ mit reellen Parameterwerten ϑ, 0 ≤ ϑ < 2π, entsprechen. Es
gibt also genau ein solches ϑ, das sogenannte Argument der komplexen
Zahl c + is, welches die Gleichung eiϑ = c + is erfüllt:

i ....................................................................................
............
...........
..........
..........

C ≃ R2
........
........
........
.......
.......
......
......
......
....
.....
.....
....
....
....
....
....
....
....
...
....
....
...

e = c + is
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
..

s = sin ϑ
..
..
..
..
..
..
..
..
ϑ
...


..
...
...

0 c = cos ϑ 1
Da sich bei der Multiplikation komplexer Zahlen deren Beträge mul-
tiplizieren und die Argumente addieren (modulo 2π) und da eiϑ vom
Betrag 1 ist, erkennt man in der Tat die R-lineare Abbildung C ✲ C,
z ✲ eiϑ z, und somit die obige Abbildung ϕ : R2 ✲ R2 als Dre-
hung um den Winkel ϑ. Die beschreibende Matrix ist aufgrund der
Gleichung eiϑ = cos ϑ + i · sin ϑ von der Form
 
cos ϑ − sin ϑ
R(ϑ) = ∈ R2×2 , 0 ≤ ϑ ≤ 2π,
sin ϑ cos ϑ
und wird als Drehmatrix zum Winkel ϑ bezeichnet. Umgekehrt ist klar,
dass jede solche Drehmatrix eine Drehung und damit eine Isometrie auf
der reellen Ebene R2 definiert.
Neben den Drehungen gibt es weitere Isometrien von R2 , nämlich
die sogenannten Spiegelungen. Eine R-lineare Abbildung ϕ : R2 ✲ R2
7.5 Isometrien, orthogonale und unitäre Matrizen 349

heißt eine Spiegelung, wenn eine Orthonormalbasis u1 , u2 von R2 exis-


tiert, so dass ϕ durch

u1 ✲ u1 , u2 ✲ − u2 ,

beschrieben wird. Satz 6 weiter unten wird uns zeigen, dass Drehungen
und Spiegelungen die einzigen Isometrien von R2 sind. Zunächst aber
wollen wir wieder zur allgemeinen Situation aus Satz 1 zurückkehren
und einige weitere Folgerungen ziehen.

Korollar 3. Für ϕ ∈ EndK (V ) ist äquivalent:


(i) ϕ ist eine Isometrie.
(ii) Ist X eine Orthonormalbasis von V , so ist Aϕ,X,X invertierbar,
und es gilt
(Aϕ,X,X )∗ = (Aϕ,X,X )−1 .
(iii) Es existiert eine Orthonormalbasis X von V , so dass Aϕ,X,X
invertierbar ist und
(Aϕ,X,X )∗ = (Aϕ,X,X )−1
gilt.

Beweis. Man benutze 7.4/4 und Satz 1 (ii). 

Schließlich kann man leicht erkennen, dass die Bedingung A∗ = A−1


aus Korollar 3 (ii) bzw. (iii) auch zur Charakterisierung von Basiswech-
selmatrizen verwendet werden kann, die Orthonormalbasen in Ortho-
normalbasen von V überführen.

Satz 4. Es sei X eine Orthonormalbasis, sowie Y eine weitere Basis


von V . Dann ist äquivalent:
(i) Y ist eine Orthonormalbasis von V .
(ii) Für die Basiswechselmatrix A = AY,X gilt A∗ = A−1 .

Beweis. Sei ϕ : V ✲ V die K-lineare Abbildung, die die Basis X auf


die Basis Y abbildet; es gilt

Aϕ,X,X = AY,X .
350 7. Euklidische und unitäre Vektorräume

Nach Satz 1 (iv) bzw. (v) ist Y genau dann eine Orthonormalbasis,
wenn ϕ eine Isometrie ist, und nach Korollar 3 ist dies äquivalent zu
(Aϕ,X,X )∗ = (Aϕ,X,X )−1 , also mit A = AY,X zu A∗ = A−1 . 

Eine Matrix A ∈ Rn×n heißt orthogonal, wenn die R-lineare Abbil-


dung
Rn ✲ Rn , x ✲ Ax,
orthogonal, also eine Isometrie ist. Dabei betrachte man Rn mittels des
kanonischen Skalarprodukts als euklidischen Vektorraum. Nach Korol-
lar 3 ist die Orthogonalität einer Matrix A ∈ Rn×n äquivalent zu der
Bedingung At = A−1 bzw. At A = E, wobei E ∈ Rn×n die Einheits-
matrix sei. Sind a1 , . . . , an ∈ Rn die Spalten von A, so bedeutet diese
Bedingung gerade

ati · aj = δij , i, j = 1, . . . , n.

Eine entsprechende Überlegung lässt sich auch für die Zeilen von A
anstellen. Eine Matrix A ∈ Rn×n ist daher genau dann orthogonal,
wenn ihre Spalten (bzw. Zeilen) ein Orthonormalsystem und damit
eine Orthonormalbasis von Rn bilden.
Über dem Körper C verfährt man in ähnlicher Weise. Eine Matrix
A ∈ Cn×n heißt unitär, wenn die C-lineare Abbildung

Cn ✲ Cn , x ✲ Ax,

unitär, also eine Isometrie ist. Dabei betrachte man Cn mittels des ka-
nonischen Skalarprodukts als unitären Vektorraum. Gemäß Korollar 3
ist A ∈ Cn×n genau dann unitär, wenn A∗ = A−1 bzw. A∗ A = E gilt,
und diese Bedingung ist wiederum dazu äquivalent, dass die Spalten
(bzw. Zeilen) von A eine Orthonormalbasis von Cn bilden.
Aus den Korollaren 2 und 3 ergibt sich unmittelbar, dass die or-
thogonalen bzw. unitären Matrizen A ∈ Kn×n eine Untergruppe der
Gruppe GL(n, K) aller invertierbaren Matrizen in Kn×n bilden. Dabei
nennt man 
O(n) = A ∈ GL(n, R) ; At = A−1
die orthogonale Gruppe zum Index n, sowie

U(n) = A ∈ GL(n, C) ; A∗ = A−1
7.5 Isometrien, orthogonale und unitäre Matrizen 351

die unitäre Gruppe zum Index n, wobei man O(n) als Untergruppe
von U(n) auffassen kann. Für A ∈ U(n) ist A∗ · A = A−1 · A die
Einheitsmatrix, so dass man für jede orthogonale bzw. unitäre Matrix
| det(A)| = 1 erhält. Insbesondere lässt sich

SO(n) = A ∈ O(n) ; det(A) = 1

als Untergruppe der orthogonalen Gruppe betrachten; man nennt diese


Gruppe die spezielle orthogonale Gruppe.
Wir wollen im Falle n = 2 die orthogonale Gruppe O(2) genauer
beschreiben. Bereits oben wurde gezeigt, dass die Drehmatrizen
 
cos ϑ − sin ϑ
R(ϑ) = ∈ R2×2 , 0 ≤ ϑ < 2π,
sin ϑ cos ϑ

zu Isometrien von R2 Anlass geben und folglich zu O(2) gehören, ja


sogar zu der Untergruppe SO(2), da jeweils det(R(ϑ)) = 1 gilt. Wir
wollen zunächst zeigen, dass SO(2) keine weiteren Matrizen enthält.
Hierzu betrachten wir eine Matrix
 
α11 α12
A= ∈ O(2).
α21 α22

Dann ergibt die Relation


   2 2

1 0 t α11 + α21 α11 α12 + α21 α22
=A ·A= 2 2
0 1 α12 α11 + α22 α21 α12 + α22

das Gleichungssystem
2 2
α11 + α21 = 1,
2 2
α12 + α22 = 1,
α11 α12 + α21 α22 = 0.

Die komplexen Zahlen

α11 + iα21 , α22 + iα12

sind daher vom Betrag 1. Gleiches gilt für ihr Produkt, und es folgt
352 7. Euklidische und unitäre Vektorräume

(α11 + iα21 ) · (α22 + iα12 ) = (α11 α22 − α21 α12 ) + i(α11 α12 + α21 α22 )
= α11 α22 − α21 α12
= det(A) = ±1 ∈ R.

Benutzen wir nun die Identität zz = 1 für komplexe Zahlen z vom


Betrag 1, so ergibt sich für det(A) = 1, also im Falle A ∈ SO(2)

α22 + iα12 = α11 + iα21 = α11 − iα21 ,

und damit
α22 = α11 , α12 = −α21 .
Wir benutzen nun aus der Analysis, dass es wegen α11
2 2
+ α21 = 1 genau
einen Winkel ϑ, 0 ≤ ϑ < 2π, mit

α11 + iα21 = cos ϑ + i sin ϑ = eiϑ ,

also mit
   
α11 −α21 cos ϑ − sin ϑ
A= = = R(ϑ)
α21 α11 sin ϑ cos ϑ
gibt. Dies bedeutet, dass A eine Drehung um den Nullpunkt mit dem
Winkel ϑ beschreibt.
Das charakteristische Polynom einer Drehung R(ϑ) berechnet sich
zu
χR(ϑ) = T 2 − 2(cos ϑ)T + 1 = (T − eiϑ )(T − e−iϑ ),
hat also nur für sin ϑ = 0, d. h. nur für ϑ ∈ {0, π} reelle Nullstellen.
Somit erhält man:

Satz 5. Es besteht SO(2) aus allen reellen (2 × 2)-Matrizen, die zu


Drehungen um den Nullpunkt im R2 Anlass geben, also

SO(2) = R(ϑ) ; 0 ≤ ϑ < 2π .

Abgesehen von den trivialen Fällen R(0) = id und R(π) = − id besitzen


die Matrizen R(ϑ) keine reellen Eigenwerte und sind folglich auch nicht
diagonalisierbar.

Für Matrizen A = (αij )i,j=1,2 ∈ O(2) mit det(A) = −1 ergibt die


obige Rechnung in entsprechender Weise die Identitäten
7.5 Isometrien, orthogonale und unitäre Matrizen 353

α22 + iα12 = −(α11 + iα21 ) = −α11 + iα21 ,

also
α22 = −α11 , α12 = α21 ,
so dass es auch in diesem Falle genau einen Winkel ϑ, 0 ≤ ϑ < 2π, mit
 
cos ϑ sin ϑ
A=
sin ϑ − cos ϑ

gibt. Natürlich gehören alle Matrizen A dieses Typs zu O(2). Das cha-
rakteristische Polynom einer solchen Matrix ergibt sich zu χA = T 2 −1,
so dass A die reellen Eigenwerte 1 und −1 besitzt und folglich diago-
nalisierbar ist. Die Gleichung At = A−1 zeigt, dass A einen normalen
Endomorphismus von R2 beschreibt. Gemäß 7.4/8 gibt es dann in R2
eine Orthonormalbasis bestehend aus Eigenvektoren von A, und man
erkennt A als Spiegelung. Somit folgt:

Satz 6. Es besteht O(2) aus allen reellen (2 × 2)-Matrizen, die zu


Drehungen bzw. Spiegelungen im R2 Anlass geben. Genauer gilt
    
cos ϑ − sin ϑ cos ϑ sin ϑ 2×2
O(2) = , ∈ R ; 0 ≤ ϑ < 2π .
sin ϑ cos ϑ sin ϑ − cos ϑ

Die Struktur der Gruppen O(2) und SO(2) ist damit vollständig
geklärt. Man sollte noch vermerken (und dies auch mittels elementarer
Rechnung überprüfen), dass SO(2) kommutativ ist, nicht aber O(2).
Wir wollen nun Normalformen für Isometrien allgemeinen Typs
in euklidischen und unitären Vektorräumen herleiten. Mit Satz 1 (ii)
folgt insbesondere, dass jede Isometrie normal ist. Dementsprechend ist
zumindest über dem Körper C der komplexen Zahlen der Spektralsatz
7.4/8 anwendbar.

Satz 7. Es sei ϕ ∈ EndC (V ) ein Endomorphismus eines unitären


C-Vektorraums V endlicher Dimension. Dann ist äquivalent:
(i) ϕ ist eine Isometrie.
(ii) Es gilt |λ| = 1 für jeden Eigenwert λ von ϕ. Weiter existieren
Eigenvektoren zu ϕ, die eine Orthonormalbasis von V bilden.
354 7. Euklidische und unitäre Vektorräume

Beweis. Sei zunächst (i) gegeben, ϕ also eine Isometrie. Dann kann ϕ als
längenerhaltende Abbildung nur Eigenwerte vom Betrag 1 haben. Da C
im Übrigen algebraisch abgeschlossen ist, zerfällt das charakteristische
Polynom χϕ vollständig in Linearfaktoren. Weiter ist ϕ normal. Also
folgt mit 7.4/8 die Existenz einer Orthonormalbasis X von V , die aus
lauter Eigenvektoren von ϕ besteht, d. h. es gilt (ii).
Ist umgekehrt X eine Orthonormalbasis von V , die aus Eigenvek-
toren von ϕ besteht, und sind alle Eigenwerte vom Betrag 1, so wird
X durch ϕ offenbar wiederum in eine Orthonormalbasis überführt. Es
ist ϕ damit eine Isometrie gemäß Satz 1. 

Insbesondere ist jede Isometrie eines unitären Vektorraums endli-


cher Dimension diagonalisierbar. Auf ein entsprechendes Resultat für
euklidische Vektorräume kann man allerdings nicht hoffen, wie das Bei-
spiel der Drehungen um den Nullpunkt im R2 zeigt. Die Situation ist
hier etwas komplizierter.

Satz 8. Es sei ϕ ∈ EndR (V ) ein Endomorphismus eines euklidischen


R-Vektorraums V endlicher Dimension. Dann ist äquivalent:
(i) ϕ ist eine Isometrie.
(ii) Es existiert eine Orthonormalbasis X von V , so dass ϕ bezüg-
lich X durch eine Matrix des Typs

A = Aϕ,X,X = Diag Ek , −Eℓ , R(ϑ1 ), . . . , R(ϑm )
 
Ek
 −Eℓ 
 R(ϑ ) 
= 
1
..


 .. 
R(ϑm )
beschrieben wird. Dabei ist Ek ∈ Rk×k (bzw. Eℓ ∈ Rℓ×ℓ ) die Ein-
heitsmatrix mit einer gewissen Zeilen- und Spaltenzahl k (bzw. ℓ),
und R(ϑ1 ), . . . , R(ϑm ) ∈ R2×2 sind Drehmatrizen zu gewissen Winkeln
0 < ϑ1 ≤ ϑ2 ≤ . . . ≤ ϑm < π.
Ist ϕ eine Isometrie, so ist die Normalform in (ii) mit den Zahlen
k, ℓ, m und den Winkeln ϑ1 , . . . , ϑm eindeutig durch ϕ bestimmt, und
zwar gilt m
Y
k
χϕ = (T − 1) (T + 1) ℓ
(T − eiϑj )(T − e−iϑj ).
j=1
7.5 Isometrien, orthogonale und unitäre Matrizen 355

Beweis. Sei zunächst ϕ eine Isometrie. Um die in (ii) behauptete


Normalform herzuleiten, verwenden wir Induktion nach der Dimen-
sion n von V . Im Falle n = 0 ist nichts zu zeigen, sei also n > 0.
Wir behaupten, dass V dann einen ϕ-unzerlegbaren linearen Unter-
raum U der Dimension 1 oder 2 enthält. Mit 6.5/6 folgt nämlich,
dass V jedenfalls einen ϕ-invarianten Unterraum U ′ besitzt, der, be-
trachtet als R⌈⌊T ⌉⌋-Modul unter ϕ, isomorph zu einem Quotienten
R⌈⌊T ⌉⌋/(pc ) ist; dabei ist p ∈ R⌈⌊T ⌉⌋ ein Primpolynom und c ≥ 1 ein
gewisser Exponent. Die Multiplikation mit pc−1 definiert nun einen
R⌈⌊T ⌉⌋-Modulisomorphismus R⌈⌊T ⌉⌋ ∼✲ pc−1 R⌈⌊T ⌉⌋ und durch Quoti-
entenbildung einen R⌈⌊T ⌉⌋-Modulisomorphismus

R⌈⌊T ⌉⌋/pR⌈⌊T ⌉⌋ ∼✲ pc−1 R⌈⌊T ⌉⌋/pc R⌈⌊T ⌉⌋,

wobei wir pc−1 R⌈⌊T ⌉⌋/pc R⌈⌊T ⌉⌋ als R⌈⌊T ⌉⌋-Untermodul von R⌈⌊T ⌉⌋/(pc )
auffassen können. Aufgrund von 6.5/2 (i) enthalten daher U ′ und
insbesondere V einen ϕ-invarianten linearen Unterraum U , der als
R⌈⌊T ⌉⌋-Modul isomorph zu R⌈⌊T ⌉⌋/(p) ist, also nach 6.5/4 bzw. 6.5/7
ϕ-unzerlegbar ist und nach 6.5/5 die Dimension grad p besitzt. Nun
haben aber Primpolynome in R⌈⌊T ⌉⌋ den Grad 1 oder 2, vgl. Aufgabe 3
aus Abschnitt 5.3, so dass wir U ⊂ V als unzerlegbaren ϕ-invarianten
linearen Unterraum der Dimension 1 oder 2 erkennen.
Wir betrachten nun die Zerlegung V = U ⊕ U ⊥ , vgl. 7.2/8,
und zeigen, dass mit U auch das orthogonale Komplement U ⊥ ein
ϕ-invarianter Unterraum von V ist. Hierzu bemerken wir zunächst,
dass ϕ als Isomorphismus eine lineare Abbildung ϕ|U : U ✲ U in-
duziert, die zumindest injektiv, dann aber aufgrund von 2.1/11 sogar
bijektiv ist und damit ϕ−1 (U ) = U erfüllt. Sei nun y ∈ U ⊥ . Für alle
x ∈ U gilt dann

x, ϕ(y) = ϕ∗ (x), y = ϕ−1 (x), y = 0,

da mit x, wie wir gesehen haben, auch ϕ−1 (x) zu U gehört. Dies be-
deutet aber ϕ(y) ∈ U ⊥ , und wir erkennen auf diese Weise, dass in der
Tat U ⊥ ein ϕ-invarianter Unterraum von V ist.
Man wähle nun in U eine Orthonormalbasis X ′ . Für dimR (U ) = 1
besteht X ′ lediglich aus einem einzigen Vektor, der dann notwendig ein
Eigenvektor von ϕ ist. Der zugehörige Eigenwert ist gemäß Satz 1 (iii)
vom Betrag 1, also gleich 1 oder −1. Für dimR (U ) = 2 besteht X ′
356 7. Euklidische und unitäre Vektorräume

aus 2 Vektoren, und es folgt mit Korollar 3, dass die Matrix Aϕ|U ,X ′ ,X ′
zu O(2) gehört, allerdings nicht diagonalisierbar sein kann, da wir U
als ϕ-unzerlegbar angenommen hatten. Dann gilt aufgrund der obigen
Beschreibung der Matrizen in O(2) notwendig Aϕ|U ,X ′ ,X ′ = R(ϑ) mit
einem Winkel ϑ 6= π, 0 < ϑ < 2π. Indem wir notfalls die Reihenfolge
der Vektoren in X ′ ändern, was einem Ersetzen des Winkels ϑ durch
2π − ϑ entspricht, können wir sogar 0 < ϑ < π annehmen.
Nach Induktionsvoraussetzung gibt es nun in U ⊥ eine Orthonor-
malbasis X ′′ , so dass Aϕ|U ⊥ ,X ′′ ,X ′′ von der in (ii) beschriebenen Gestalt
ist. Man kann dann X ′ und X ′′ zu einer Orthonormalbasis X von V
zusammensetzen, und es folgt nach geeigneter Umnummerierung der
Basisvektoren von X, dass die Matrix Aϕ,X,X die gewünschte Gestalt
hat. Die Implikation (i) =⇒ (ii) ist somit bewiesen. Umgekehrt ist
unmittelbar klar, dass jede Matrix des Typs (ii) orthogonal ist, ϕ in
diesem Falle daher eine Isometrie ist.
Zum Nachweis der Eindeutigkeitsaussage hat man lediglich zu be-
achten, dass sich für eine Isometrie ϕ das charakteristische Polynom
einer beschreibenden Matrix A wie in (ii) zu
m
Y
χϕ = χA = (T − 1)k (T + 1)ℓ (T − eiϑj )(T − e−iϑj )
j=1

berechnet. Somit bestimmt χϕ zunächst die Zahlen k, ℓ und m in A. Da


bei den Paaren komplex konjugierter Nullstellen eiϑj , e−iϑj der Realteil
cos ϑj jeweils gleich ist, und da dieser eindeutig den Winkel im Bereich
0 < ϑj < π bestimmt, ist insgesamt die Gestalt der Matrix A durch
das Polynom χϕ festgelegt. 

Aufgaben
Falls nicht anderweitig bestimmt, sei V stets ein euklidischer bzw. uni-
tärer K-Vektorraum endlicher Dimension.
1. Man zeige: Zu x, y ∈ V gibt es genau dann eine Isometrie ϕ ∈ EndK (V )
mit ϕ(x) = y, wenn |x| = |y| gilt.
2. Man zeige für zwei Drehmatrizen R(ϑ1 ), R(ϑ2 ) ∈ R2×2 mit gegebenen
Winkeln 0 ≤ ϑ1 < ϑ2 < 2π, dass diese genau dann ähnlich sind, wenn
ϑ1 + ϑ2 = 2π gilt. (AT 477)
7.6 Selbstadjungierte Abbildungen 357

3. Es seien e1 , . . . , en ∈ Rn die kanonischen Einheitsvektoren, aufgefasst


als Spaltenvektoren. Eine Matrix A ∈ Rn×n heißt Permutationsmatrix,
wenn es eine Permutation π ∈ Sn mit A = Eπ := (eπ(1) , . . . , eπ(n) ) gibt.
Man zeige:
(i) Jede Permutationsmatrix ist invertierbar, und die kanonische Ab-
bildung σ : Sn ✲ GL(n, R), π ✲ Eπ , definiert einen injekti-
ven Gruppenhomomorphismus.
(ii) Es gilt Eπ ∈ O(n) für alle π ∈ Sn .
(iii) Es sei A = (αij ) ∈ O(n) eine orthogonale Matrix mit Koeffizienten
αij ≥ 0. Dann ist A bereits eine Permutationsmatrix.
4. Es sei A = (αij ) ∈ O(n) eine orthogonale Matrix in unterer Dreiecks-
gestalt, d. h. es gelte αij = 0 für i < j. Man zeige, dass A sogar eine
Diagonalmatrix ist. Gilt eine entsprechende Aussage auch für Matrizen
A ∈ U(n)? (AT 478)
5. Es seien A, B ∈ Cn×n unitäre Matrizen. Man zeige, dass A und B genau
dann ähnlich sind, wenn sie unitär ähnlich sind, d. h. wenn es eine unitäre
Matrix S ∈ Cn×n mit B = S −1 AS gibt. Gilt die entsprechende Aussage
auch über dem Körper K = R mit “orthogonal” anstelle von “unitär”?

7.6 Selbstadjungierte Abbildungen

Es sei V weiterhin ein endlich-dimensionaler K-Vektorraum mit einem


Skalarprodukt Φ : V × V ✲ K, also ein euklidischer bzw. unitärer
Vektorraum.

Definition 1. Ein Endomorphismus ϕ ∈ EndK (V ) heißt selbstadjun-


giert, wenn ϕ∗ = ϕ gilt.
Eine Matrix A ∈ Kn×n heißt symmetrisch (im Falle K = R) bzw.
hermitesch (im Falle K = C), wenn A∗ = A gilt.

Für einen beliebigen Endomorphismus ϕ : V ✲ V ist die Kom-



position ϕ ◦ ϕ selbstadjungiert, wie die Gleichung

ϕ ◦ ϕ∗ (x), y = ϕ∗ (x), ϕ∗ (y) = x, ϕ ◦ ϕ∗ (y) , x, y ∈ V,

zeigt. Entsprechend ist für jede Matrix A ∈ Kn×n das Produkt AA∗
symmetrisch bzw. hermitesch. Trivialerweise ist jeder selbstadjungierte
358 7. Euklidische und unitäre Vektorräume

Endomorphismus von V insbesondere normal. Im Übrigen ergibt sich


mittels 7.4/4 die folgende Charakterisierung selbstadjungierter Endo-
morphismen:

Bemerkung 2. Es sei X eine Orthonormalbasis von V . Für eine


Abbildung ϕ ∈ EndK (V ) ist dann äquivalent:
(i) ϕ ist selbstadjungiert.
(ii) Es gilt (Aϕ,X,X )∗ = Aϕ,X,X , d. h. Aϕ,X,X ist symmetrisch bzw.
hermitesch.

Aufgrund unserer Untersuchungen normaler Endomorphismen kön-


nen wir nun folgende wichtige Beobachtung machen:

Satz 3. Sei ϕ ∈ EndK (V ) selbstadjungiert. Dann besitzt das charak-


teristische Polynom χϕ reelle Koeffizienten und zerfällt in R⌈⌊T ⌉⌋ voll-
ständig in Linearfaktoren. Insbesondere besitzt ϕ ausschließlich reelle
Eigenwerte.

Beweis. Sei zunächst K = C. Mittels 7.4/7 ergibt sich λ = λ und


damit λ ∈ R für alle Eigenwerte λ von ϕ bzw. alle Nullstellen von χϕ .
Benutzen wir, dass C algebraisch abgeschlossen ist, so sehen wir, dass
χϕ vollständig in Linearfaktoren zerfällt und dass diese alle reell sind.
Insbesondere ist χϕ ein reelles Polynom.
Im Falle K = R wähle man eine Orthonormalbasis X von V und
betrachte die Matrix A = Aϕ,X,X , wobei dann A∗ = At = A gilt; vgl.
7.4/4. Betrachtet man nun Cn mit n = dimR V als unitären Vektor-
raum unter dem kanonischen Skalarprodukt, so definiert A als symme-
trische reelle Matrix insbesondere auch einen selbstadjungierten Endo-
morphismus
Cn ✲ Cn , x ✲ Ax,
und wir können wie oben schließen, dass das zugehörige charakteristi-
sche Polynom, nämlich χA , vollständig in reelle Linearfaktoren zerfällt.
Da aber χA mit χϕ übereinstimmt, sind wir fertig. 

Insbesondere lässt sich im Falle selbstadjungierter Endomorphis-


men der Spektralsatz für normale Endomorphismen 7.4/8 wie folgt
verschärfen:
7.6 Selbstadjungierte Abbildungen 359

Korollar 4. Für einen Endomorphismus ϕ ∈ EndK (V ) ist äquivalent:


(i) ϕ ist selbstadjungiert.
(ii) Alle Eigenwerte von ϕ sind reell, und V besitzt eine Orthonor-
malbasis, die aus lauter Eigenvektoren von ϕ besteht.
(iii) Es gibt in V eine Orthonormalbasis X, so dass Aϕ,X,X eine
reelle Diagonalmatrix ist.

Beweis. Sei zunächst Bedingung (i) gegeben, also ϕ selbstadjungiert.


Dann besitzt das charakteristische Polynom χϕ nach Satz 3 reelle Ko-
effizienten und zerfällt über R vollständig in Linearfaktoren; alle Ei-
genwerte sind daher reell. Da ϕ insbesondere normal ist, existiert nach
7.4/8 eine Orthonormalbasis X von V , bestehend aus Eigenvektoren zu
ϕ, d. h. Bedingung (ii) ist erfüllt. Weiter folgt aus (ii), dass die Matrix
Aϕ,X,X Diagonalgestalt hat, wobei auf der Diagonalen die Eigenwerte
von ϕ stehen. Somit ist Aϕ,X,X eine reelle Diagonalmatrix, wie in (iii)
behauptet.
Gibt es schließlich eine Orthonormalbasis X von V , so dass Aϕ,X,X
eine reelle Diagonalmatrix ist, so gilt
(A
ϕ,X,X )∗ = A ϕ,X,X ,
und es folgt Aϕ∗ ,X,X = Aϕ,X,X bzw. ϕ∗ = ϕ mit 7.4/4. Bedingung (iii)
impliziert daher (i). 

Da man eine Matrix A ∈ Kn×n mit A = A∗ stets als selbstad-


jungierten Endomorphismus von Kn , versehen mit dem kanonischen
Skalarprodukt, interpretieren kann, erhält man als unmittelbare Fol-
gerung:

Korollar 5. Sei A ∈ Kn×n eine Matrix, welche der Bedingung A∗ = A


genügt, also eine symmetrische bzw. hermitesche Matrix. Dann ist A
ähnlich zu einer reellen Diagonalmatrix. Insbesondere gilt χA ∈ R⌈⌊T ⌉⌋,
und dieses Polynom zerfällt in R⌈⌊T ⌉⌋ vollständig in Linearfaktoren.

Im Spezialfall K = R ist also eine symmetrische Matrix A ∈ Rn×n


stets diagonalisierbar und besitzt daher (für n ≥ 1) mindestens einen
(reellen) Eigenwert.
Wir haben in der Situation von Korollar 5 noch nicht erwähnt, dass
die Basiswechselmatrix, welche die Ähnlichkeit zwischen einer symme-
360 7. Euklidische und unitäre Vektorräume

trischen bzw. hermiteschen Matrix A und der zugehörigen reellen Dia-


gonalmatrix vermittelt, nach Konstruktion in Korollar 4 einen Basis-
wechsel zwischen Orthonormalbasen beschreibt und folglich aufgrund
von 7.5/4 orthogonal bzw. unitär ist. Wir wollen dies nun berücksich-
tigen und gelangen auf diese Weise zum sogenannten Satz über die
Hauptachsentransformation, den wir in zwei verschiedenen Versionen
herleiten werden.

Theorem 6 (Hauptachsentransformation). Es sei A ∈ Kn×n eine Ma-


trix mit A∗ = A. Dann existiert eine orthogonale bzw. unitäre Matrix
S ∈ GL(n, K) mit der Eigenschaft, dass

D = S −1 AS = S ∗ AS = (S)t AS

eine reelle Diagonalmatrix ist. Dabei ist mit S auch S ∈ GL(n, K)


orthogonal bzw. unitär, und die Diagonaleinträge von D sind gerade
die Eigenwerte von A.

Die Gleichung D = S −1 AS besagt, dass A als (selbstadjungierte)


lineare Abbildung Kn ✲ Kn mittels des durch S gegebenen Basis-
wechsels auf Diagonalgestalt transformiert werden kann. Entsprechend
bedeutet D = (S)t AS, dass die durch A gegebene sBF bzw. HF mittels
des durch S gegebenen Basiswechsels auf Diagonalgestalt transformiert
werden kann.

Theorem 7. Sei V ein euklidischer bzw. unitärer Vektorraum mit


Skalarprodukt Φ, und sei Ψ : V × V ✲ K eine beliebige sBF bzw. HF
auf V . Dann existiert eine Orthonormalbasis X von V , so dass die
Matrix AΨ,X eine reelle Diagonalmatrix ist.

Beweis zu Theorem 6. Wir fassen Kn zusammen mit dem kanonischen


Skalarprodukt als euklidischen bzw. unitären Vektorraum auf. Dann
ist die lineare Abbildung

ϕ : Kn ✲ Kn , x ✲ Ax,

selbstadjungiert, denn es gilt A∗ = A; vgl. Bemerkung 2. Nach Ko-


rollar 4 existiert daher eine Orthonormalbasis X von Kn , so dass die
7.6 Selbstadjungierte Abbildungen 361

beschreibende Matrix D = Aϕ,X,X eine reelle Diagonalmatrix ist. Ist


nun S = AX,E ∈ GL(n, K) die Matrix des Basiswechsels zwischen X
und der kanonischen Basis E von Kn , so erhalten wir gemäß 3.4/5

D = S −1 · A · S.

Da S einen Basiswechsel zwischen zwei Orthonormalbasen beschreibt,


ist S nach 7.5/4 orthogonal bzw. unitär, und es gilt S ∗ = S −1 . Durch
Konjugieren erhält man S ∗ = (S)−1 , d. h. S ist ebenfalls orthogonal
bzw. unitär. 

Beweis zu Theorem 7. Wir gehen von einer beliebigen Orthonormalba-


sis X von V aus; vgl. 7.2/6. Für die zu Ψ gehörige Matrix gilt dann
AΨ,X = A∗Ψ,X nach 7.3/4, und es existiert, wie wir in Theorem 6 ge-
sehen haben, eine orthogonale bzw. unitäre Matrix S ∈ GL(n, K), so
dass D = S t · AΨ,X · S eine reelle Diagonalmatrix ist. Wir können nun
S als Basiswechselmatrix der Form AY,X mit einer neuen Basis Y von
V auffassen. Nach 7.5/4 ist Y wiederum eine Orthonormalbasis, und
es gilt
AΨ,Y = S t · AΨ,X · S = D,
wobei man 7.3/5 benutze. Y anstelle von X erfüllt also die Behauptung.


Um die geometrische Bedeutung der Hauptachsentransformation


zu erläutern, betrachte man beispielsweise die Kurve C, die in R2 durch
die Gleichung
41x21 − 24x1 x2 + 34x22 = 25
gegeben ist. Mit x = (x1 , x2 )t , sowie
 
41 −12
A=
−12 34

lässt sich C dann auch durch die Gleichung

xt · A · x = 25

beschreiben. Wenden wir nun Theorem 6 an, so existiert eine orthogo-


nale Matrix S ∈ O(2) mit der Eigenschaft, dass
362 7. Euklidische und unitäre Vektorräume

D = S t AS = S −1 AS

eine reelle Diagonalmatrix ist, wobei auf der Diagonalen von D gerade
die Eigenwerte von A stehen. Da das charakteristische Polynom von A
die Gestalt
χA = (T − 25)(T − 50)
hat, können wir etwa
 
t −1 25 0
S AS = S AS =
0 50

annehmen. Ist nun X = E die kanonische Basis von R2 , so lässt


sich S als Basiswechselmatrix der Form AY,X mit einer neuen Basis
Y auffassen, wobei Y gemäß 7.5/4 wiederum eine Orthonormalbasis
ist. Es besteht dann nach 3.4/3 die Beziehung
   
x1 y
=S· 1 .
x2 y2

zwischen Koordinaten x1 , x2 bezüglich X und y1 , y2 bezüglich Y , so


dass sich die Kurve C in den neuen Koordinaten durch die Gleichung

25y12 + 50y22 = 25

bzw. durch
y12 + 2y22 = 1
beschreibt. Insbesondere sehen wir, dass es sich um eine Ellipse han-
delt. In der Gleichung kommen nunmehr keine gemischten Terme mehr
vor, was bedeutet, dass man C bezüglich seiner “Hauptachsen” be-
schrieben hat.
Um C noch genauer zu charakterisieren, sollte man natürlich die
Hauptachsen von C explizit bestimmen, also die Orthonormalbasis Y
und die zugehörige Transformationsmatrix S = AY,X .2 Dies kann wie
folgt geschehen. Man betrachte
2
Man beachte jedoch, dass die Basis Y nicht im strengen Sinne als eindeutig be-
zeichnet werden kann, denn deren Elemente lassen sich noch bezüglich Reihenfolge
und Vorzeichen abändern. Für eine Kreislinie C besitzt sogar jede Orthonormalba-
sis von R2 die Eigenschaft von Hauptachsen.
7.6 Selbstadjungierte Abbildungen 363

R2 ✲ R2 , x ✲ Ax,

als selbstadjungierten Endomorphismus von R2 , versehen mit dem ka-


nonischen Skalarprodukt, und bestimme eine Orthonormalbasis Y von
R2 , die aus Eigenvektoren zu A besteht. Hierzu ermittelt man zunächst
Basen der Eigenräume zu A (durch Lösen der entsprechenden linearen
Gleichungssysteme) und orthonormalisiert die Basen anschließend nach
E. Schmidt. In unserem Fall ist dies sehr simpel. Es sind

(3, 4)t , (−4, 3)t

Eigenvektoren zu den Eigenwerten 25 und 50. Nach Normierung ergibt


sich
1
5
(3, 4)t , 15 (−4, 3)t
als Orthonormalbasis Y von R2 und
 
1 3 −4
S = AY,X = 5 4 3

als zugehörige Transformationsmatrix. Dabei ist die Isometrie

R2 ✲ R2 , x ✲ Sx,

als Drehung R(ϑ) mit einem Winkel ϑ von ungefähr 53◦ zu interpre-
tieren.
Abschließend wollen wir noch einige Folgerungen aus dem Theorem
über die Hauptachsentransformation ziehen.

Korollar 8. Für eine sBF bzw. HF Ψ auf einem endlich-dimensionalen


K-Vektorraum V ist äquivalent:
(i) Ψ ist positiv definit.
(ii) Es existiert eine Basis X von V , so dass die Matrix AΨ,X nur
positive Eigenwerte hat.

Beweis. Ist Ψ positiv definit, so gibt es bezüglich Ψ eine Orthonormal-


basis X von V . Die zugehörige Matrix AΨ,X ist dann die Einheitsma-
trix.
Sei nun umgekehrt X eine Basis von V , so dass die Matrix AΨ,X
nur positive Eigenwerte hat. Es gilt A∗Ψ,X = AΨ,X nach 7.3/4. Aufgrund
364 7. Euklidische und unitäre Vektorräume

von Theorem 6 existiert dann eine Matrix S ∈ GL(n, K) mit S ∗ = S −1 ,


so dass
(S)t · AΨ,X · S = S −1 AΨ,X · S = D
eine reelle Diagonalmatrix ist. Dabei sind die Diagonalelemente von D
gerade die Eigenwerte von AΨ,X und folglich größer als 0. Interpretiert
man nun S als Basiswechselmatrix des Typs AY,X mit einer neuen Basis
Y von V , so gilt AΨ,Y = D, und man erkennt, dass Ψ positiv definit
ist. 

Korollar 9 (Sylvesterscher Trägheitssatz). Sei Ψ eine sBF bzw. HF


auf einem endlich-dimensionalen K-Vektorraum V . Für eine Basis X
von V sei weiter k die Anzahl der positiven, ℓ die Anzahl der negati-
ven, sowie m die Anzahl der Eigenwerte von AΨ,X , die verschwinden,
jeweils gezählt mit Vielfachheiten. Dann gilt k + ℓ + m = dimK V ,
und die Zahlen k, ℓ, m sind eindeutig durch Ψ bestimmt, insbesondere
unabhängig von der Wahl von X.
Es existiert eine Basis X von V , so dass die Matrix AΨ,X die
folgende Diagonalgestalt
 
1 0
 .. 
 
 .. 
 
 1 
 
 −1 
 
 .. 
 
 .. 
 
 −1 
 
 0 
 
 .. 
 
 .. 
0 0
besitzt, wobei auf der Diagonalen k-mal 1, ℓ-mal −1 und m-mal 0 steht.

Beweis. Wir gehen aus von einer Basis X = (x1 , . . . , xn ) von V und be-
trachten die Matrix AΨ,X , sowie die zugehörigen Zahlen k, ℓ, m. Dann
existiert nach Theorem 6 in Verbindung mit 7.3/4 eine orthogona-
le bzw. unitäre Matrix S ∈ GL(n, K), so dass D = S t AS die Ge-
stalt einer reellen Diagonalmatrix besitzt; die Diagonalelemente von D
7.6 Selbstadjungierte Abbildungen 365

sind gerade die Eigenwerte von A. Indem wir S als Basiswechselmatrix


auffassen und X durch die entsprechende neue Basis ersetzen, können
wir Ψ (xi , xj ) = δij αi mit αi ∈ R annehmen, i, j = 1, . . . , n. Weiter kann
man für Ψ (xi , xi ) 6= 0 den Basisvektor xi mit |Ψ (xi , xi )|−1/2 multipli-
zieren und somit αi ∈ {1, −1, 0} annehmen. Nummerieren wir die xi
dann noch in der Weise um, dass


1 für i = 1, . . . , k
αi = −1 für i = k + 1, . . . , k + ℓ


0 für i = k + ℓ + 1, . . . , k + ℓ + m

gilt, so hat die Matrix AΨ,X die behauptete Gestalt.


Es bleibt noch zu zeigen, dass die Zahlen k, ℓ, m unabhängig von
der Wahl der Basis X sind. Seien also Xi , i = 1, 2, zwei Basen von
V , und seien ki , ℓi , mi die zugehörigen Zahlen, wobei wir annehmen
dürfen, wie wir soeben gesehen haben, dass die Matrizen AΨ,Xi reelle
Diagonalmatrizen sind. Sei nun Vi+ ⊂ V der von allen x ∈ Xi mit
Ψ (x, x) > 0 erzeugte Unterraum, Vi− ⊂ V der von allen x ∈ Xi mit
Ψ (x, x) < 0 erzeugte Unterraum, sowie Vi0 ⊂ V der von allen x ∈ Xi
mit Ψ (x, x) = 0 erzeugte Unterraum. Dann gilt für i = 1, 2

V = Vi+ ⊕ Vi− ⊕ Vi0 ,


dim Vi+ = ki , dim Vi− = ℓi , dim Vi0 = mi ,
ki + ℓi + mi = dim V.

Dabei erkennt man

V10 = V20 = {x ∈ V ; Ψ (x, y) = 0 für alle y ∈ V }

als “Entartungsraum” von Ψ , es gilt folglich m1 = m2 . Weiter hat man


offenbar
V1+ ∩ (V2− ⊕ V20 ) = 0,

da Ψ auf V1+ positiv definit und auf V2− ⊕ V20 negativ semidefinit ist.
Dies bedeutet
k1 + ℓ2 + m2 ≤ dim V
366 7. Euklidische und unitäre Vektorräume

und ergibt wegen k2 + ℓ2 + m2 = dim V dann k1 ≤ k2 , sowie aus


Symmetriegründen k1 = k2 . Es folgt

ℓ1 = dim V − ki − mi = ℓ2 , i = 1, 2,

und damit die Behauptung. 

Aufgaben
Falls nicht anderweitig bestimmt, sei V stets ein euklidischer bzw. uni-
tärer K-Vektorraum endlicher Dimension.
1. Es sei ϕ ∈ EndK (V ) selbstadjungiert. Man zeige: ϕ besitzt genau dann
lauter positive reelle Eigenwerte, wenn hϕ(x), xi > 0 für alle x ∈ V −{0}
gilt. (AT 479)
2. Für einen normalen Endomorphismus ϕ ∈ End (V ) zeige man: ϕ ◦ ϕ∗
K
besitzt lauter reelle Eigenwerte ≥ 0.
3. Für A ∈ Rn×n zeige man: A ist genau dann symmetrisch, wenn es eine
Matrix S ∈ Cn×n mit A = S t S gibt. (AT 480)
4. Es sei A ∈ Kn×n symmetrisch bzw. hermitesch. Man zeige, dass A genau
dann eine positiv semidefinite Sesquilinearform auf Kn definiert, wenn
A von der Form S ∗ S mit einer Matrix S ∈ Kn×n ist.
5. Man zeige: Zwei symmetrische bzw. hermitesche Matrizen A, B ∈ Kn×n
sind genau dann ähnlich, wenn es eine orthogonale bzw. unitäre Matrix
S ∈ GL(n, K) mit B = S t AS gibt.
8. Aufgabentrainer

Allgemeines

Die im Buch enthaltenen Übungsaufgaben sollen Gelegenheit bieten,


die dargebotene Theorie im Rahmen praktischer Beispiele anzuwenden
und damit intensiver zu verarbeiten und zu verstehen. Manchmal sind
dabei pure routinemäßige Verifikationen gefragt, manchmal aber auch
Überlegungen mit etwas Erfindungsgabe. Das vorliegende Kapitel soll
hierzu ein gewisses Training vermitteln und insbesondere zeigen, wie
man die Bearbeitung der Aufgaben sinnvoll strukturieren und damit
effektiv gestalten kann.
Zu jedem Themenbereich habe ich einige Aufgaben ausgewählt,
deren Lösungen im weiteren Verlauf ausführlich besprochen werden.
Diese Aufgaben sind mit einem Zusatz der Form (AT xyz) versehen,
was bedeutet, dass die Diskussion der jeweiligen Lösung im Aufgaben-
trainer auf Seite “xyz” zu finden ist. Natürlich sollte die Bearbeitung
einer Aufgabe darauf ausgerichtet sein, am Ende eine möglichst einfa-
che Lösung in geschliffener Form zu liefern. Mindestens ebenso wichtig
sind aber Überlegungen, die zuvor angestellt werden müssen und die
zum Auffinden des eigentlichen Lösungswegs führen. Ich fasse diese
Überlegungen unter dem Stichwort Strategie zusammen. Im Allgemei-
nen sind Strategieüberlegungen in der fertigen Lösung nicht mehr zu
erkennen, sie nehmen aber aufgrund ihrer zentralen Bedeutung in den
nachfolgenden Diskussionen oftmals einen größeren Raum ein als die
eigentliche Lösung selbst. In der Tat sind Strategieüberlegungen uner-
lässlich, wenn man in systematischer Weise eine eigenständige Lösung
erarbeiten möchte, oder auch nur, wenn man eine vorgefertigte Lösung
nachvollziehen bzw. besser verstehen möchte. Im Folgenden sollen nun

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0_8
368 8. Aufgabentrainer

die einzelnen Schritte, die bei der Bearbeitung einer Aufgabe zu durch-
laufen sind, genauer beschrieben werden.
Start: Zu Beginn sollte man aus dem Aufgabentext die Ausgangs-
situation mit den zur Verfügung stehenden Voraussetzungen herausde-
stillieren. Es ist dabei zweckmäßig, sich die verwendeten Begriffsbildun-
gen nochmals zu vergegenwärtigen, inklusive zugehöriger Eigenschaften
und Resultate, die im Rahmen der dargestellten Theorie abgehandelt
wurden.
Ziel : In einem zweiten Schritt sollte dann das zu beweisende Re-
sultat, sofern erforderlich, klar strukturiert werden. Insbesondere sollte
festgehalten werden, welche Aussagen im Einzelnen zu beweisen sind.
Wie im ersten Schritt ist es auch hier zweckmäßig, sich die verwende-
ten Begriffsbildungen und die zugehörigen Eigenschaften und Resultate
nochmals vor Augen zu führen.
Strategie: Nun beginnt die Planung des eigentlichen Parcours vom
Start bis zum Ziel. Um eine gangbare Route zu finden, kann man zu-
nächst einmal die Startsituation genauer anschauen und überlegen, ob
es äquivalente oder ähnliche Startbedingungen gibt, die in Verbindung
mit der abgehandelten Theorie eher in Richtung Ziel deuten. Auf der
anderen Seite kann man aber auch das Ziel weiter analysieren und
Fragen des folgenden Typs stellen: Gibt es äquivalente Beschreibun-
gen des Ziels? Gibt es offensichtliche Resultate, die aus dem Ziel fol-
gen würden? Mit anderen Worten, gibt es äquivalente Versionen oder
Abschwächungen des Ziels, die möglicherweise einfacher zu erreichen
sind? Oder gibt es einen Reduktionsschritt, der für eine vollständige
Induktion nützlich sein könnte? Kurz gesagt, jede Überlegung ist von
Interesse, die geeignet ist, die “Topographie” zwischen Start und Ziel
genauer zu erkunden. Dabei sollte man insbesondere auch abschätzen,
ob sich das Ziel für einen direkten Beweis eignet oder ob man es besser
indirekt mittels eines Beweises durch Widerspruch ansteuern sollte.
Sehr nützlich ist in der Regel auch, konkrete Beispiele in der Start-
situation zu betrachten, entweder geometrischer Art oder indem man
die Startvoraussetzungen weiter einschränkt. Oftmals kann man hier-
bei wertvolle Hinweise gewinnen, wie sich das Ziel unter erleichterten
Bedingungen erreichen lässt, und daraus eventuell lernen, wie man im
Allgemeinfall verfahren kann. Leider gibt es kein allgemein gültiges
Rezept, welches uns in garantierter Weise vom Start zum Ziel führen
Allgemeines 369

könnte. Zwar kann man das unbekannte Gebiet zwischen den beiden
Punkten aufgrund der beschriebenen Überlegungen meist beträcht-
lich eingrenzen, aber vielfach verbleibt noch ein als unüberwindbar
erscheinendes Hindernis. Dann ist etwas Erfindungsgeist gefragt, um
vielleicht einen versteckt gelegenen Durchbruch zu entdecken. Sobald
man schließlich einen gangbaren Weg zum Ziel sozusagen “gesehen”
hat, kann man zum nächsten Schritt übergehen und versuchen, eine
vollständige mathematisch präzise Lösung zu formulieren.
Lösungsweg: In diesem Schritt sollte der mittels Strategieüberle-
gungen projektierte Weg zum Ziel in präziser mathematischer Form
realisiert werden. Alle Details, die lediglich zum Auffinden des Lösungs-
wegs geführt haben, ansonsten aber für den eigentlichen Lösungsvor-
gang irrelevant sind, entfallen dabei. Auf der anderen Seite sind Ver-
einfachungen, die im Rahmen der Strategiebetrachtungen angenom-
men wurden, bei diesem Schritt nicht mehr zulässig. Hilfreich beim
Abfassen einer geschliffenen mathematischen Lösung ist natürlich ei-
ne gewisse Erfahrung, die man sich aber im Laufe der Zeit aneignen
wird. Diese erstreckt sich insbesondere auf die Wahl einer übersichtli-
chen und zweckmäßigen Notation, wie auch auf eine wohldurchdachte
Folge der Argumente und benutzten Resultate. All dies sollte unter
dem Gesichtspunkt größtmöglicher Übersichtlichkeit und Einfachheit
geschehen.
Sollte man allerdings bei der Realisierung des beabsichtigten Lö-
sungswegs wider Erwarten auf unüberwindbare Schwierigkeiten treffen,
so verbleibt keine andere Alternative als zum vorhergehenden Schritt
zurückzukehren und die Strategiebetrachtungen mit den neu gewonne-
nen Erfahrungen wieder aufzunehmen.
Ergänzungen: Unter diesem Punkt geben wir einige zusätzliche op-
tionale Informationen zu dem jeweiligen Aufgabenproblem, falls dies
von allgemeinem Interesse ist. Insofern gehört dieser Punkt nicht zum
regulären Verfahren, das bei der Lösung einer Übungsaufgabe abgear-
beitet werden sollte.
In den nachfolgenden Abschnitten zeigen wir nun an konkreten
Beispielen, wie sich das gerade beschriebene Verfahren zur Lösung von
Übungsaufgaben in die Praxis umsetzen lässt. Allerdings ist die je-
weilige Vorgehensweise lediglich als exemplarisch anzusehen, denn im
Allgemeinen gibt es zu einem Aufgabenproblem mehrere verschiedene
370 8. Aufgabentrainer

sinnvolle und gleichberechtigte Ansätze. In besonderem Maße gilt dies


für die zugehörigen Strategieüberlegungen. Es wird daher keineswegs
der Anspruch erhoben, dass es sich bei der nachfolgenden Diskussion
von Lösungen um obligatorische Verfahrensweisen handelt, die nicht
auch durch anderweitige Überlegungen ersetzt werden könnten.

Vektorräume

1.1 Aufgabe 1
Start: Gegeben sind Teilmengen A, B, C einer Menge X.
Ziel : Folgende Identitäten sind zu zeigen:
(i) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(ii) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
(iii) A − (B ∪ C) = (A − B) ∩ (A − C)
(iv) A − (B ∩ C) = (A − B) ∪ (A − C)
Strategie: Wir haben noch keine Resultate zur Verfügung, die das
Zusammenspiel von Vereinigung, Durchschnitt und Differenz von Men-
gen beschreiben. Daher bleibt nichts anderes übrig, als anhand der De-
finition dieser Operatoren jeweils die linke und rechte Seite der Glei-
chungen elementmäßig miteinander zu vergleichen. Um auf Gleichheit
beider Seiten zu schließen, ist es am übersichtlichsten, wenn man zeigt,
dass jedes Element der linken auch in der rechten Seite enthalten ist
und umgekehrt.
Lösungsweg: Wir beginnen mit (i), und zwar mit der Inklusion
“⊂”. Gelte x ∈ A ∩ (B ∪ C). Dann folgt x ∈ A und x ∈ B ∪ C, wobei
Letzteres x ∈ B oder x ∈ C bedeutet. Für x ∈ B folgt x ∈ A ∩ B und
damit x ∈ (A ∩ B) ∪ (A ∩ C). Entsprechend führt x ∈ C ebenfalls zu
x ∈ (A ∩ B) ∪ (A ∩ C).
Zu (i), Inklusion “⊃”. Sei x ∈ (A∩B)∪(A∩C). Dann folgt x ∈ A∩B
oder x ∈ A ∩ C, in jedem Falle aber x ∈ A. Für x ∈ A ∩ B ergibt sich
zusätzlich x ∈ B und damit x ∈ A ∩ (B ∪ C). Entsprechend liefert
x ∈ A ∩ C ebenfalls x ∈ A ∩ (B ∪ C).
Zu (ii), Inklusion “⊂”. Sei x ∈ A ∪ (B ∩ C), also x ∈ A oder
x ∈ B ∩ C. Für x ∈ A folgt x ∈ A ∪ B und x ∈ A ∪ C, also insgesamt
x ∈ (A ∪ B) ∩ (A ∪ C). Andererseits ergibt sich aus x ∈ B ∩ C natürlich
x ∈ B ⊂ (A ∪ B) und x ∈ C ⊂ (A ∪ C), also x ∈ (A ∪ B) ∩ (A ∪ C).
1.1 Aufgabe 5 371

Zu (ii), Inklusion “⊃”. Sei x ∈ (A ∪ B) ∩ (A ∪ C). Dann folgt


insbesondere x ∈ A ∪ B, und für x ∈ A ergibt sich x ∈ A ∪ (B ∩ C).
Gilt allerdings x 6∈ A, so hat man x ∈ B, sowie entsprechend x ∈ C,
und damit x ∈ B ∩ C ⊂ A ∪ (B ∩ C).
Zu (iii), Inklusion “⊂”. Sei x ∈ A − (B ∪ C). Dann gilt x ∈ A, aber
x 6∈ B∪C, also weder x ∈ B noch x ∈ C. Es folgt x ∈ (A−B)∩(A−C).
Zu (iii), Inklusion “⊃”. Sei x ∈ (A − B) ∩ (A − C). Dann gilt
x ∈ A − B und x ∈ A − C, also jedenfalls x ∈ A und weiter weder
x ∈ B noch x ∈ C. Dies bedeutet aber x ∈ A − (B ∪ C).
Zu (iv), Inklusion “⊂”. Sei x ∈ A − (B ∩ C). Dann gilt x ∈ A aber
x 6∈ B ∩ C, also x 6∈ B oder x 6∈ C. Im ersten Fall folgt x ∈ A − B und
im zweiten x ∈ A − C, in jedem Fall also x ∈ (A − B) ∪ (A − C).
Zu (iv), Inklusion “⊃”. Sei x ∈ (A − B) ∪ (A − C), also x ∈ A − B
oder x ∈ A − C. Dann gilt jedenfalls x ∈ A. Im ersten Fall haben wir
x 6∈ B und damit auch x 6∈ B ∩C. Im zweiten folgt entsprechend x 6∈ C
und damit ebenfalls x 6∈ B ∩ C. Insgesamt ergibt sich x ∈ A − (B ∩ C).
Ergänzungen: Die Gleichungen (iii) und (iv) beinhalten das Negie-
ren von Aussagen, etwa des Typs “x ist Element von Y ”. Wie man
sich leicht überzeugt, geschieht dies für Aussagen P und Q nach dem
Prinzip

P und Q = P oder Q,
P oder Q = P und Q,

wobei der Überstrich für das Negieren der entsprechenden Aussagen


steht.
1.1 Aufgabe 5
Start: X ist eine Menge und P(X) deren Potenzmenge, also die
Menge aller Teilmengen von X. Zu betrachten ist eine nicht weiter
spezifizierte Abbildung f : X ✲ P(X).
Ziel : Es ist zu zeigen, dass f nicht surjektiv sein kann.
Strategie: Da die Abbildung f in keiner Weise konkret gegeben ist,
vermuten wir, dass die zu beweisende Aussage aufgrund eines allge-
meinen Prinzips besteht. Um diesem Prinzip auf die Spur zu kommen,
betrachten wir die Potenzmenge P(X) für einfache Mengen X. Die
leere Menge X = ∅ enthält kein Element, deren Potenzmenge P(X)
aber genau ein Element, nämlich X. Es kann also aus Gründen der
372 8. Aufgabentrainer

Anzahl der Elemente von X und P(X) in diesem Fall keine surjek-
tive Abbildung f : X ✲ P(X) geben. Das gleiche Argument gilt
für eine endliche Menge X = {x1 , . . . , xn }, bestehend aus n verschie-
denen Elementen. Denn P(X) enthält in diesem Fall die n Elemen-
te {x1 }, . . . , {xn }, aber zusätzlich auch noch weitere Elemente, z. B.
die leere Menge ∅, insgesamt also mindestens n + 1 Elemente. Wie-
derum zeigt ein Abzählargument, dass es keine surjektive Abbildung
f: X ✲ P(X) geben kann.
Die betrachteten Spezialfälle suggerieren, dass man im Allgemein-
fall nicht versuchen sollte, ein Element von P(X) explizit anzuge-
ben, das nicht im Bild von f vorkommt. Stattdessen sollte man in-
direkt vorgehen, also annehmen, dass es eine surjektive Abbildung
f: X ✲ P(X) gibt, und daraus einen Widerspruch ableiten. Genau
so funktionieren letztendlich die gerade betrachteten Beispiele endli-
cher Mengen X. Das Paradoxon von Russel liefert gewisse Anhalts-
punkte, wie man allgemein vorgehen könnte. Und zwar betrachte man
die Teilmenge

U = x ∈ X ; x 6∈ f (x) ⊂ X.

Wenn nun f surjektiv ist, so gibt es ein y ∈ X mit U = f (y), und


daraus lässt sich in der Tat ein Widerspruch ableiten, wie wir sehen
werden.
Lösungsweg: Wir nehmen also an, dass f : X ✲ P(X) surjektiv
ist und betrachten die Teilmenge U = {x ∈ X ; x 6∈ f (x)} ⊂ X.
Dann existiert ein Element y ∈ X mit U = f (y). Gilt nun y ∈ U , so
ergibt die Definition von U , dass wir y 6∈ f (y) = U haben müssen, im
Widerspruch zu y ∈ U . Andererseits erhalten wir aus y 6∈ f (y) = U
auch y ∈ U , also ebenfalls einen Widerspruch. Insgesamt führt daher
die Annahme einer surjektiven Abbildung f : X ✲ P(X) zu einem
Widerspruch, und es folgt, dass es eine solche Abbildung nicht geben
kann.
Ergänzungen: Man kann übrigens zeigen, dass für eine endliche
Menge X mit n verschiedenen Elementen deren Potenzmenge P(X)
genau 2n Elemente besitzt.
1.2 Aufgabe 4
Start: G ist eine Gruppe mit zwei Untergruppen H1 , H2 ⊂ G; vgl.
1.2/3 zur Definition einer Untergruppe.
1.2 Aufgabe 7 373

Ziel : Gefragt ist, in welchen Fällen H1 ∪ H2 wieder eine Unter-


gruppe von G ist. Für H1 ⊂ H2 folgt H1 ∪ H2 = H2 und für H2 ⊂ H1
entsprechend H1 ∪ H2 = H1 . Deshalb ist H1 ∪ H2 in diesen Fällen eine
Untergruppe von G. Zu zeigen ist, dass H1 ∪H2 in allen anderen Fällen
keine Untergruppe von G sein kann.
Strategie: Für das Produkt ab zweier Elemente a, b ∈ H1 ∪ H2
gilt natürlich ab ∈ H1 ∪ H2 , sofern a, b gemeinsam in H1 oder in H2
enthalten sind, da dann das Produkt ab wieder zu H1 bzw. H2 ge-
hört. Kritisch wird es aber, wenn man das Produkt zweier Elemente
a, b ∈ H1 ∪ H2 bildet, die nicht gemeinsam zu H1 oder H2 gehören, al-
so etwa a ∈ H1 − H2 und b ∈ H2 − H1 . Dieser Fall ist genauer zu
untersuchen.
Lösungsweg: Wir haben bereits gesehen, dass H1 ∪ H2 aus trivialen
Gründen eine Untergruppe von G ist, wenn H1 ⊂ H2 oder H2 ⊂ H1
gilt. Umgekehrt bleibt zu zeigen, dass eine der Inklusionen H1 ⊂ H2
oder H2 ⊂ H1 zutrifft, sofern H1 ∪ H2 eine Untergruppe von G ist.
Diesen Schritt gehen wir indirekt an, d. h. wir setzen H1 ∪ H2 als Un-
tergruppe von G voraus und nehmen an, dass weder H1 ⊂ H2 noch
H2 ⊂ H1 gilt, mit dem Ziel, einen Widerspruch herzuleiten. Wenn
also H1 6⊂ H2 und gleichzeitig H2 6⊂ H1 gilt, so existieren Elemente
a ∈ H1 − H2 und b ∈ H2 − H1 . Da wir H1 ∪ H2 als Untergruppe von G
angenommen haben, folgt ab ∈ H1 ∪ H2 , etwa ab ∈ H1 . Dann können
wir von links mit a−1 ∈ H1 multiplizieren und erhalten b ∈ H1 , im Wi-
derspruch zur Wahl von b. Gilt aber ab ∈ H2 , so liefert Multiplizieren
mit b−1 ∈ H2 von rechts entsprechend a ∈ H2 , ebenfalls im Wider-
spruch zur Wahl von a. Ist daher H1 ∪ H2 eine Untergruppe von G, so
ist die Annahme H1 6⊂ H2 und gleichzeitig H2 6⊂ H1 nicht haltbar. Es
folgt daher wie gewünscht H1 ⊂ H2 oder H2 ⊂ H1 .
1.2 Aufgabe 7
Start: G ist eine endliche abelsche Gruppe; sei G = {g1 , . . . , gn }
mit n als Anzahl der Elemente von G.
Q
Ziel : Zu zeigen ist ni=1 gi2 = 1.
Strategie: In ausführlicher Schreibweise ist das Produkt g1 g1 . . . gn gn
zu berechnen und zu zeigen, dass es gleich dem Einselement 1 ∈ G ist.
Welche Möglichkeiten gibt es, das Produkt zu vereinfachen, um zu zei-
gen, dass es den Wert 1 annimmt? Zunächst wissen wir, dass das Eins-
element 1 unter den Elementen g1 , . . . , gn vorkommt; sei etwa g1 = 1.
374 8. Aufgabentrainer

Dann ist immer noch g2 g2 . . . gn gn = 1 zu zeigen, was allerdings so gut


wie keine Vereinfachung darstellt. Zur Berechnung des Produkts dür-
fen wir andererseits die Faktoren beliebig arrangieren, da G abelsch
ist. Außerdem erinnern wir uns daran, dass es zu jedem gi ∈ G ein
inverses Element gj = gi−1 in G gibt, wobei dann gi gj = 1 gilt. Wir
können daher innerhalb des Produkts g12 . . . gn2 das Element gi mit gj
kombinieren und dann gi gjQdurch 1 ersetzen. Dies ist der Schlüssel zur
Berechnung des Produkts ni=1 gi2 .
Lösungsweg: Die Abbildung τ : G ✲ G, g ✲ g −1 ist bijektiv ,
denn es gilt τ 2 = id wegen (g −1 )−1 = g für g ∈ G. Da G abelsch ist,
können wir wie folgt rechnen:
Y Y Y Y Y Y Y
g2 = g· τ (g) = g· g −1 = (gg −1 ) = 1=1
g∈G g∈G g∈G g∈G g∈G g∈G g∈G

1.3 Aufgabe 2
Start: Es sei K ein Körper, der aus endlich vielen Elementen be-
steht. Für n ∈ N und a ∈ K sei n · a die n-fache Summe von a mit sich
selbst.
Ziel : Es existiert eine natürliche Zahl n > 0 mit n · a = 0K für alle
a ∈ K, wobei 0K ∈ K das Nullelement sei. Ist n minimal mit dieser
Eigenschaft, so ist n eine Primzahl.
Strategie: Zu einem Element a ∈ K betrachten wir alle Vielfachen
n · a ∈ K, n ∈ N. Diese können nicht sämtlich verschieden sein, da N
unendlich viele Elemente enthält, K aber nur endlich viele. Also gibt
es Elemente n′ , n′′ ∈ N, n′ < n′′ , mit n′ · a = n′′ · a. Es folgt
n′ · a = n′′ · a = n′ · a + (n′′ − n′ ) · a
und somit n·a = 0K für n = n′′ −n′ > 0. Es gibt also zu jedem Element
a ∈ K eine natürliche Zahl n > 0 mit n·a = 0K . Im Allgemeinen wird n
von der Wahl von a abhängen, z. B. gilt n·0K = 0K für alle n ∈ N, aber
n · 1K 6= 0K für n = 1 und das Einselement 1K ∈ K. Allerdings können
wir durch Anwenden eines Tricks die natürliche Zahl n unabhängig von
a wählen. Sind z. B. a1 , a2 ∈ K und n1 , n2 ∈ N − {0} mit ni ai = 0K
für i = 1, 2, so folgt
(n1 n2 ) · a1 = n2 · (n1 · a1 ) = n2 · 0K = 0K ,
(n1 n2 ) · a2 = n1 · (n2 · a2 ) = n1 · 0K = 0K .
1.3 Aufgabe 2 375

Auf diese Weise können wir schließlich ein n finden, als Produkt na-
türlicher Zahlen > 0, so dass n · a = 0K für jedes der endlich vielen
Elemente a ∈ K gilt.
Wie man sich leicht vorstellen kann, ist es mittels dieser Methode
allerdings unmöglich einzusehen, dass ein solches n bei minimaler Wahl
eine Primzahl ist. Wir müssen daher überlegen, ob sich das Problem,
eine natürliche Zahl n > 0 mit n · a = 0K für alle a ∈ K zu finden,
nicht auf wenige Elemente, oder besser, auf ein einziges Element a ∈ K
reduzieren lässt. Hierzu bemerken wir, dass aus n · a = 0K automatisch
n · (a · b) = (n · a) · b = 0K für weitere Elemente b ∈ K folgt. Daher
genügt es, natürliche Zahlen n > 0 mit n · 1K = 0K zu betrachten.
Diese Vereinfachung ist der Schlüssel zur Lösung des Problems.
Lösungsweg: Wir haben oben bereits gezeigt, dass es eine natürliche
Zahl n > 0 gibt mit n · 1K = 0K und dass dann n · a = (n · 1K ) · a = 0K
für alle a ∈ K folgt. Nun sei n > 0 minimal mit dieser Eigenschaft
gewählt. Natürlich gilt n > 1. Wenn n keine Primzahl ist, so gibt
es eine Zerlegung n = n1 · n2 mit natürlichen Zahlen n1 , n2 < n als
Faktoren. Es folgt
0K = n · 1K = (n1 · n2 ) · 1K = n1 · (n2 · 1K )

= n1 · 1K · (n2 · 1K ) = (n1 · 1K ) · (n2 · 1K )
und damit n1 · 1K = 0K oder n2 · 1K = 0K , im Widerspruch zur
Minimalität von n. Also muss n eine Primzahl sein.
Ergänzungen: Wir haben einige Rechenregeln wie etwa die Assozia-
tivität für Produkte der Form n · a mit n ∈ N und a ∈ K benutzt, die
eigentlich bewiesen werden müssten. Die folgenden Grundregeln gelten
für m, n ∈ Z, a, b ∈ K:
(m · n) · a = m · (n · a), m · (a · b) = (m · a) · b
(m + n) · a = m · a + n · a, m · (a + b) = m · a + m · b
Beweise hierzu sind mehr oder weniger “offensichtlich”, können im
strengeren Sinne aber auch mittels vollständiger Induktion geführt wer-
den.
Die Thematik dieser Aufgabe wird später noch einmal mittels Me-
thoden der Ringtheorie behandelt werden; siehe die Ausführungen zur
Charakteristik eines Körpers am Schluss von Abschnitt 5.2 und die
dortige Aufgabe 9.
376 8. Aufgabentrainer

1.3 Aufgabe 5
√ 
Start: Zu betrachten ist der Körper Q 2 , der aus allen reellen

√ der Form a + b 2 mit a, b ∈ Q besteht. Gemäß 1.3/4
Zahlen √ wissen

wir 2 6∈ Q. Insbesondere ist Q ein echter Teilkörper von Q 2 .
√ √ 
Ziel : Zu zeigen ist 3 6∈ Q 2 .
√ 
Strategie: Da wir den Körper Q 2 inzwischen gut kennen, aber
nur wenig über die nicht darin enthaltenen reellen Zahlen
√ wissen, √
bie-
tet sich ein indirekter Schluss an. Man sollte deshalb 3 ∈ Q 2
annehmen und versuchen, daraus einen Widerspruch abzuleiten.
√ √ 
Lösungsweg: Wir nehmen 3 ∈ Q 2 an. Dann existieren ratio-
√ √
nale Zahlen a, b ∈ Q mit a + b 2 = 3, und wir erhalten
√ √
(a + b 2)2 = 3 bzw. a2 + 2b2 − 3 = −2ab 2.

Für ab
√ 6
= 0 können wir die zweite Gleichung nach 2 auflösen und wür-
den 2 ∈ Q erhalten, was aber nach 1.3/4 ausgeschlossen ist. Folglich
muss ab = 0 gelten, also a = 0 oder b = 0, sowie a2 + 2b2 − 3 = 0.
Für a = 0 ergibt sich 2b2 = 3. Nehmen wir b als gekürzten Bruch pq
mit ganzen Zahlen p, q an, so folgt 2p2 = 3q 2 . Wie im Beweis zu 1.3/4
schließt man, dass 2 sowohl ein Teiler von q wie auch von p ist, der
Bruch pq also nicht gekürzt ist, im Widerspruch zu unserer Annahme.
Es bleibt der Fall b = 0 zu betrachten, der auf die Gleichung a2 = 3
führt. Man nehme wieder a als gekürzten Bruch pq mit ganzen Zahlen
p, q an. Es folgt p2 = 3q 2 , und man schließt wie im Beweis zu 1.3/4, dass
3 sowohl ein Teiler von p wie√ auch √ von q ist, im Widerspruch zu unserer
Annahme. Es führt also 3 ∈ Q 2 stets zu einem Widerspruch, so
√ √ 
dass 3 kein Element von Q 2 sein kann.
Ergänzungen: Genau genommen verwendet unsere Argumentation
in simpler Form die Teilbarkeitslehre im Ring der ganzen Zahlen Z, die
später noch ausführlich in Abschnitt 5.2 behandelt wird. Wir haben
nämlich benutzt, dass eine Primzahl wie z. B. 2 oder 3 die Eigenschaf-
ten eines Primelements besitzt; vgl. hierzu insbesondere die Erklärung
im Vorfeld zu 5.2/12. Ein Primelement p ∈ Z, siehe 5.2/10, ist dadurch
charakterisiert, dass p genau dann Teiler eines Produktes xy in Z ist,
wenn p Teiler eines der beiden Faktoren x bzw. y ist.
1.3 Aufgabe 11 377

1.3 Aufgabe 11
Start: Für n, k ∈ N, n ≥ 1, ist die Menge

X(n, k) = (a1 , . . . , an ) ∈ Nn ; a1 + . . . + an = k

zu betrachten; sei #X(n, k) die Anzahl der Elemente.


Ziel : Für n, k ∈ N, n ≥ 1, ist folgende Aussage zu zeigen:
 
k+n−1
A(n, k) : #X(n, k) =
n−1

Strategie: Da wir #X(n, k) nicht in offensichtlicher Weise durch


Abzählen bestimmen können, versuchen wir, die gewünschte Formel
per Induktion zu beweisen. Zunächst gilt offenbar
   
k+1−1 0+n−1
#X(1, k) = 1 = , #X(n, 0) = 1 =
1−1 n−1

für n ≥ 1, k ≥ 0, Beziehungen, die wir für den Induktionsanfang nutzen


können. Weiter
Pn stellen wir für (n+1)-Tupel (a1 , . . . , an+1 ) ∈ X(n+1, k)
fest, dass i=1 ai = k − an+1 und somit (a1 , . . . , an ) ∈ X(n, k − an+1 )
gilt. Da an+1 die Werte 0, . . . , k annehmen kann, ergibt sich durch
entsprechende Zerlegung von X(n + 1, k) die Relation

#X(n + 1, k) = #X(n, k) + #X(n, k − 1) + . . . + #X(n, 0).

Diese Gleichung führt die gewünschte Anzahl der (n + 1)-Tupel in


X(n + 1, k) auf gewisse Anzahlen von n-Tupeln zurück und würde in-
sofern dazu ermutigen, eine Induktion nach n bei variablem k zu ver-
suchen. Für den Induktionsschluss müssten die aufgeführten Anzahlen
jeweils durch die entsprechenden Binomialkoeffizienten ersetzt werden,
und folgende Relation müsste verifiziert werden:
     
k+n k+n−1 0+n−1
= + ... +
n n−1 n−1

Aufgrund der mehrfachen Summanden auf der rechten Seite ist dies
jedoch nicht in einfacher Weise zu bewerkstelligen. Wir lernen daraus,
dass wir X(n + 1, k) in möglichst einfacher Weise aufspalten sollten,
etwa in die beiden Teile
378 8. Aufgabentrainer


X ′ = (a1 , . . . , an+1 ) ∈ X(n + 1, k) ; an+1 = 0 ,

X ′′ = (a1 , . . . , an+1 ) ∈ X(n + 1, k) ; an+1 ≥ 1 ,
wobei wir k ≥ 1 annehmen wollen. Dann besitzen X ′ bzw. X ′′ genau
#X(n, k) bzw. #X(n + 1, k − 1) Elemente, denn die Abbildungen
X′ ✲ X(n, k), (a1 , . . . , an+1 ) ✲ (a1 , . . . , an ),
X ′′ ✲ X(n + 1, k − 1), (a1 , . . . , an+1 ) ✲ (a1 , . . . , an+1 − 1),

sind bijektiv. Folglich besteht die Gleichung


#X(n + 1, k) = #X(n, k) + #X(n + 1, k − 1),
die wir zwar nicht für einen gewöhnlichen Induktionsschluss nach n
oder k verwenden können, aber möglicherweise für eine Doppelinduk-
tion. Stellen wir uns die Paare (n, k) ∈ N2 mit n ≥ 1 und k ≥ 0 als
Gitterpunkte in der reellen Ebene vor, so kennen wir die fraglichen An-
zahlen für alle Punkte der Form (1, k) und (n, 0). Mit der vorstehenden
Formel können wir die Anzahl in einem Punkt (n + 1, k) berechnen,
k ≥ 1, wenn wir diese in den Punkten (n, k) und (n + 1, k − 1) kennen.
Es ist geometrisch plausibel, dass wir durch wiederholte Anwendung ei-
nes solchen Schrittes, ausgehend von den Punkten der Form (1, k) und
(n, 0) als “Induktionsanfang”, letztendlich alle fraglichen Gitterpunkte
erreichen können. Zum Nachweis, dass die Anzahl #X(n, k) durch den
entsprechenden Binomialkoeffizienten gegeben wird, müssen wir dann
noch in der vorstehenden Summenzerlegung die jeweiligen Anzahlen
durch die zugehörigen Binomialkoeffizienten ersetzen und überprüfen,
dass die entstehende Gleichung
     
k+n k+n−1 k+n−1
= +
n n−1 n
für n ≥ 1, k ≥ 1 korrekt ist. Dies ist aber in verkleideter Form gerade
die bekannte Formel für Binomialkoeffizienten
     
n+1 n n
= + ,
i i−1 i
die wir für 1 ≤ i ≤ n bereits im Beweis zur binomischen Formel herge-
leitet hatten. All dies ermutigt uns dazu, die vorstehenden Überlegun-
gen zu einer kompletten Lösung unseres Problems auszubauen.
1.3 Aufgabe 11 379

Lösungsweg: Wir zeigen die Aussage A(n, k) mit doppelter Induk-


tion nach n ≥ 1 und k ≥ 0. Dazu benötigen wir folgende Schritte:
(I): A(n, k) ist richtig für alle Paare (n, k) der Form (1, k) und
(n, 0), was wir oben schon nachgeprüft hatten.
(II): Für n ≥ 1, k ≥ 1 gilt folgende Implikation:
h i
A(n, k) und A(n + 1, k − 1) =⇒ A(n + 1, k)

Zur Begründung dieser Implikation benutzen wir die oben hergeleitete


Gleichung
#X(n + 1, k) = #X(n, k) + #X(n + 1, k − 1).
Mit A(n, k) und A(n + 1, k − 1) sowie der erwähnten Formel für Bino-
mialkoeffizienten ergibt sich
     
k+n−1 k+n−1 k+n
#X(n + 1, k) = + = ,
n−1 n n
also die Aussage A(n + 1, k).
Wir müssen nun noch überlegen, dass die Schritte (I) und (II)
ausreichen, um die Gültigkeit von A(n, k) für alle n ≥ 1 und k ≥ 0 zu
erhalten. Dazu zeigen wir mit Induktion nach n, dass A(n, k) für alle
n ≥ 1 und beliebiges k ≥ 0 gilt. Da wir aus (I) wissen, dass A(1, k)
für alle k ≥ 0 richtig ist, ist der Induktionsanfang n = 1 gesichert.
Sei nun n ≥ 1 beliebig. Wir nehmen an, dass A(n, k) für alle k ≥ 0
gilt und wollen daraus A(n + 1, k) für alle k ≥ 0 herleiten. Um dies
zu erreichen, verwenden wir zwischenzeitlich eine Induktion nach k.
Der Induktionsanfang k = 0 ist klar nach (I). Sei nun k ≥ 1 und
A(n + 1, k − 1) als gültig bekannt. Dann erhalten wir zusammen mit
A(n, k) aus der Implikation (II) die Gültigkeit von A(n + 1, k). Die
Induktion nach k ist damit abgeschlossen, und es folgt A(n + 1, k) für
alle k ≥ 0, was auch die Induktion nach n abschließt. Damit ist A(n, k)
für alle n ≥ 1 und k ≥ 0 bewiesen.
Ergänzungen: Wir hatten eingangs die Summenzerlegung
#X(n + 1, k) = #X(n, k) + #X(n, k − 1) + . . . + #X(n, 0)
betrachtet, diese aber nicht für die Berechnung von #X(n+1, k) nutzen
können. Da wir die einzelnen Anzahlen nun als Binomialkoeffizienten
kennen, ist damit auch die Formel
380 8. Aufgabentrainer
     
k+n k+n−1 0+n−1
= + ... +
n n−1 n−1

für n ≥ 1, k ≥ 0 bewiesen.

1.4 Aufgabe 1
Start: U ist ein linearer Unterraum eines K-Vektorraums V , also
gemäß 1.4/2 eine nicht-leere Teilmenge in V , die abgeschlossen unter
Addition und skalarer Multiplikation ist. Insbesondere folgt 0 ∈ U .
Ziel : Wir wollen alle Elemente a ∈ V charakterisieren, so dass mit
U auch a + U = {a + u ; u ∈ U } ein linearer Unterraum von V ist.
Strategie: Wir betrachten als Beispiel den Vektorraum V = R3
über dem Körper K = R, sowie eine Ebene E ⊂ R3 , die den Nullpunkt
0 ∈ R3 enthält. Sodann ist E ein linearer Unterraum im R3 , und man
kann sich a + E für Vektoren a ∈ R3 als die um den Vektor a parallel
verschobene Ebene E vorstellen. Für a ∈ E wird E bijektiv in sich
selbst verschoben, wohingegen für a 6∈ E eine Verschiebung in eine
Richtung stattfindet, die aus E herausführt. Insbesondere ist dann die
Menge a+ E disjunkt zu E, und es kann a+ E kein linearer Unterraum
von R3 mehr sein, da der Nullvektor 0 zu E, aber nicht zu a+E gehört.
Motiviert durch das geometrische Beispiel versuchen wir auch im
Allgemeinfall zu zeigen, dass a + U für a ∈ U mit U übereinstimmt
und für a 6∈ U den Nullvektor 0 ∈ V nicht enthält. Somit ist a + U
genau dann ein linearer Unterraum von V , wenn a ∈ U gilt.
Lösungsweg: Sei zunächst a ∈ U . Da U als linearer Unterraum von
V abgeschlossen unter der Addition ist, ergibt sich a + U ⊂ U . Da U
mit a auch −a enthält, folgt entsprechend (−a)+U ⊂ U , und Addition
von a auf beiden Seiten ergibt U ⊂ a + U . Also gilt a + U = U für
a ∈ U , und a + U ist ein linearer Unterraum von V .
Als Nächstes wollen wir herausfinden, für welche Vektoren a ∈ V
die Menge a + U den Nullvektor enthalten kann. Sei also 0 ∈ a + U .
Dann gibt es einen Vektor b ∈ U mit 0 = a + b, und dies bedeutet
a = −b = (−1) · b ∈ U , da U als linearer Unterraum von V abgeschlos-
sen unter der skalaren Multiplikation ist. Folglich enthält a + U für
a 6∈ U nicht den Nullvektor und kann daher kein linearer Unterraum
von V sein. Insgesamt schließen wir, dass a+U genau dann ein linearer
Unterraum von V ist, wenn a ∈ U gilt.
1.4 Aufgabe 5 381

Ergänzungen: Man könnte alternativ versuchen, die definierenden


Eigenschaften eines linearen Unterraums, wie in 1.4/2 aufgelistet, für
a+U nachzuweisen, um herauszufinden, für welche a ∈ V dies gelingen
kann. Im Prinzip ist ein solches Vorgehen machbar, führt aber letzt-
endlich auch auf die essentielle Erkenntnis, dass a + U = U für a ∈ U
gilt und 0 6∈ a + U für a 6∈ U .
1.4 Aufgabe 5
Start: Gegeben sind zwei Punkte x, y ∈ R2 − {0}, die nicht gemein-
sam auf einer Geraden durch 0 ∈ R2 liegen; dies bedeutet Rx 6= Ry
und insbesondere αx 6= βy für alle α, β ∈ R∗ .
Ziel : x, y bilden ein Erzeugendensystem von R2 , also R2 = hx, yi,
wobei hx, yi = {αx + βy ; α, β ∈ R} gemäß 1.4/5 gilt. Zu überprüfen
ist zudem, ob eine entsprechende Aussage erreicht werden kann, wenn
R durch einen beliebigen Körper K ersetzt wird.
Strategie: Die geometrische Anschauung macht klar, wie man vor-
gehen sollte. Die Punkte 0, x, y und x + y spannen ein echtes Paral-
lelogramm auf, da sie nicht auf einer Geraden durch 0 liegen. Ist nun
z ∈ R2 nicht trivial, so kann man Parallelen zu den Seiten 0x und
0y durch z konstruieren und deren Schnittpunkte mit den Geraden Ry
und Rx bestimmen. Hierdurch erhält man ein Parallelogramm, das von
den Punkten 0, z sowie einem Punkt αx der Geraden Rx und einem
Punkt βy der Geraden Ry aufgespannt wird. Sodann folgt z = αx+βy,
wie gewünscht.
Im Prinzip lassen sich die benötigten Geraden und deren Schnitt-
punkte formelmäßig beschreiben bzw. berechnen, so dass man auf die-
se Weise die Konstanten α, β ∈ R explizit ausrechnen kann. Die dabei
erforderlichen Fallunterscheidungen, je nach Lage der Punkte x, y, z,
machen diesen Weg jedoch wenig attraktiv. Man sollte sich daher Ge-
danken machen, wie man den Rechenaufwand reduzieren kann.
Lösungsweg: Es gilt R2 = he1 , e2 i, wenn e1 = (1, 0) und e2 = (0, 1)
die Einheitsvektoren in R2 bezeichnen. Können wir dann e1 , e2 ∈ hx, yi
zeigen, so folgt mit den Regeln für erzeugte lineare Unterräume bereits
R2 = he1 , e2 i ⊂ hx, yi ⊂ R2 und damit hx, yi = R2 . Für e1 ∈ hx, yi
genügt es zu zeigen, dass hx, yi einen Vektor des Typs (ε, 0) mit einer re-
ellen Konstanten ε 6= 0 enthält, denn dann folgt e1 = ε−1 (ε, 0) ∈ hx, yi.
Gilt nun x = (x1 , x2 ) und y = (y1 , y2 ), so müssen wir letztend-
lich zum Nachweis von e1 ∈ hx, yi Konstanten α, β ∈ R finden mit
382 8. Aufgabentrainer

αx + βy = (ε, 0) für ein ε ∈ R∗ , also mit

αx1 + βy1 6= 0, αx2 + βy2 = 0.

Natürlich existieren Konstanten α, β ∈ R, nicht beide 0, die die Be-


dingung αx2 + βy2 = 0 erfüllen. Dann folgt notwendig αx1 + βy1 6= 0,
denn ansonsten würde sich αx + βy = 0 bzw. αx = −βy ergeben,
und dies würde der Voraussetzung widersprechen, dass x und y nicht
gemeinsam auf einer Geraden durch 0 liegen dürfen. Somit ergibt sich
e1 ∈ hx, yi. Entsprechend können wir e2 ∈ hx, yi zeigen und dann
hx, yi = R2 schließen.
Ersetzt man schließlich R durch einen beliebigen Körper K, so ent-
fällt der konkrete geometrische Bezug, aber die durchgeführte rechne-
rische Argumentation bleibt ohne Einschränkung gültig, so dass auch
in diesem Falle hx, yi = K 2 gilt.
Ergänzungen: Zur Lösung der Aufgabe ist eine Argumentation mit
den Mitteln des Abschnitts 1.4 gefragt. Andererseits könnte man die
Lösung auch unmittelbar aus der in Abschnitt 1.5 zu behandelnden
Theorie der linearen Unabhängigkeit von Vektoren und der Dimension
von Vektorräumen ableiten. Im Übrigen hilft die Cramersche Regel zur
Lösung linearer Gleichungssysteme in Abschnitt 4.4, siehe insbesondere
4.4/6, wenn man zu gegebenem z ∈ R2 Konstanten α, β ∈ R mit
αx + βy = z bestimmen möchte.
1.5 Aufgabe 2
Start: V sei ein K-Vektorraum mit zwei linearen Unterräumen
U, U ′ ⊂ V , wobei U ∩ U ′ = 0 gelte. Weiter sind linear unabhängige
Systeme x1 , . . . , xr ∈ U und y1 , . . . , ys ∈ U ′ gegeben.
Ziel : Die Vektoren x1 , . . . , xr , y1 , . . . , ys bilden ein linear unabhän-
giges System in V .
Strategie: Wir versuchen, die lineare Unabhängigkeit des Systems
der Vektoren x1 , . . . , xr , y1 , . . . , ys gemäß 1.5/1 nachzuweisen und be-
trachten eine Linearkombination, die den Nullvektor darstellt, also
r
X s
X
αi x i + βj yj = 0
i=1 j=1

mit Koeffizienten αi , βj ∈ K. Aus der linearen Unabhängigkeit der


x1 , . . . , xr können wir α1 = . . . = αr = 0 schließen, sofern wir wissen,
1.5 Aufgabe 3 383

P
dass die Linearkombination u = ri=1 αi xi ∈ U den Nullvektor Ps dar-
stellt. Entsprechend gilt β1 = . . . = βs = 0, wenn v = j=1 βj yj ∈ U ′
den Nullvektor darstellt. Als einzige Chance, die Gleichungen u = 0
und v = 0 zu realisieren, bietet sich die Nutzung der Voraussetzung
U ∩ U ′ = 0 an.
Lösungsweg: Seien α1 , . . . , αr , β1 , . . . , βs ∈ K mit
r
X s
X
αi x i + βj yj = 0.
i=1 j=1
P
Wie vorgeschlagen,
Ps betrachte man die Vektoren u = ri=1 αi xi ∈ U

und v = j=1 βj yj ∈ U . Die Gleichung u + v = 0 ergibt u = −v
bzw. v = −u, und es folgt u, v ∈ U ∩ U ′ = 0, also u = v = 0. Sodann
liefert die lineare Unabhängigkeit der Systeme x1 , . . . , xr und y1 , . . . , ys
die Beziehungen αi = 0 für alle i sowie βj = 0 für alle j, und wir sehen
gemäß 1.5/1, dass das System x1 , . . . , xr , y1 , . . . , ys linear unabhängig
in V ist.
Ergänzungen: Der Beweis würde ohne die Voraussetzung U ∩U ′ = 0
nicht funktionieren. Wenn nämlich in U ∩U ′ ein Vektor u 6= 0 existiert,
so lässt sich dieser als nicht-triviale Linearkombination
Pr sowohl
Ps der xi
wie auch der yj darstellen, etwa u = i=1 αi xi und v = j=1 βj yj ,
und es wäre r s
X X
αi x i + (−βj )yj = 0
i=1 j=1

eine nicht-triviale Linearkombination der 0. Das System der Vektoren


x1 , . . . , xr , y1 , . . . , ys wäre also linear abhängig.
1.5 Aufgabe 3
Start: Zu betrachten ist der R-Vektorraum Rn für variables n ∈ N.
Ziel : Gefragt ist nach Exponenten n ∈ N mit folgender Eigenschaft:
Es existiert eine Folge von Vektoren a1 , a2 , . . . ∈ Rn , so dass je zwei
Vektoren dieser Folge ein linear unabhängiges System bilden.
Strategie: Wir haben gesehen, dass dimR Rn = n gilt. Also kann es
aufgrund von 1.5/12 linear unabhängige Systeme der Länge 2 in Rn
nur für n ≥ 2 geben. Andererseits sind zwei Vektoren eines Vektor-
raums genau dann linear abhängig, wenn einer der beiden ein Viel-
faches des anderen ist. Somit ist es geometrisch plausibel, dass zwei
Punkte x, y ∈ Rn genau dann zu einem linear unabhängigen System
384 8. Aufgabentrainer

von Vektoren im Rn Anlass geben, wenn x und y nicht auf einer Ge-
raden durch 0 liegen. Da man aber im R2 eine unendliche Folge ver-
schiedener Geraden angeben kann, sollte es im R2 auch eine unendliche
Folge von Vektoren der gewünschten Art geben. Indem wir R2 als li-
nearen Unterraum von Rn , n ≥ 2, auffassen, lesen wir ab, dass unser
Problem für alle n ≥ 2 lösbar ist, nicht aber für n < 2, wie wir eingangs
gesehen haben.
Lösungsweg: Wir haben bereits begründet, dass es höchstens für
n ≥ 2 eine Folge von Vektoren in Rn gegen kann, derart dass jeweils
zwei Vektoren dieser Folge ein linear unabhängiges System bilden. Um
nun eine solche Folge a1 , a2 , . . . ∈ R2 anzugeben, setzen wir ai = (i, 1)
und behaupten, dass für i 6= j die Vektoren ai , aj linear unabhängig
sind. In der Tat, seien α, β ∈ R mit αai + βaj = 0, also
αi + βj = 0, α + β = 0.
Dann ergibt sich α = −β und damit β · (j − i) = 0. Wegen j − i 6= 0
folgt β = 0 und dann auch α = 0. Die Vektoren ai , aj sind also li-
near unabhängig im R2 . Die gleiche Argumentation lässt sich im Rn
für n ≥ 2 durchführen, indem wir R2 mit dem linearen Unterraum
{(α1 , . . . , αn ) ∈ Rn ; α3 = . . . = αn = 0} ⊂ Rn identifizieren.
Ergänzungen: Dieses Beispiel zeigt sehr schön, dass die lineare Un-
abhängigkeit von gewissen (echten) Teilsystemen eines Systems von
Vektoren im Allgemeinen nichts über die lineare Unabhängigkeit des
Gesamtsystems aussagen kann. Man beachte aber, dass ein System von
Vektoren genau dann linear unabhängig ist, wenn jedes endliche Teil-
system linear unabhängig ist. Diese Charakterisierung hatten wir im
Abschnitt 1.5 für unendliche Systeme von Vektoren eingesehen, sie gilt
aber trivialerweise auch für endliche Systeme.
1.5 Aufgabe 8
Start: Für einen Körper K und n ∈ N ist der K-Vektorraum K n
zu betrachten, sowie eine Teilmenge der Form
 n
X 
n
U = (α1 , . . . , αn ) ∈ K ; αi γi = 0 ⊂ K n
i=1

für gewisse Konstanten γ1 , . . . , γn ∈ K.


Ziel : U ist ein linearer Unterraum von K n , die zugehörige Dimen-
sion ist zu berechnen.
1.5 Aufgabe 8 385

Strategie: Das Verifizieren der Eigenschaften eines linearen Unter-


raums aus 1.4/2 für U wirft keine Probleme auf. Wir müssen aber über-
legen, wie wir die Dimension von U bestimmen können und beginnen
mit dem Spezialfall n = 0. Hier hat man U = K 0 = 0 und folglich
dimK U = 0. Weiter ist U für n = 1 durch U = {α1 ∈ K 1 ; α1 γ1 = 0}
gegeben. Nun gilt α1 γ1 = 0 genau dann, wenn α1 = 0 oder γ1 = 0 gilt.
Wir haben daher U = K 1 für γ1 = 0 und U = 0 für γ1 6= 0, entspre-
chend also dimK U = dimK K 1 = 1 bzw. dimK U = 0 = dimK K 1 − 1.
Wir sollten auch noch den Spezialfall n = 2 untersuchen, also

U = (α1 , α2 ) ∈ K 2 ; α1 γ1 + α2 γ2 = 0 .
Wiederum fällt für (γ1 , γ2 ) = (0, 0) auf, dass U = K 2 gilt und wir damit
dimK U = dimK K 2 = 2 erhalten. Nehmen wir aber (γ1 , γ2 ) 6= (0, 0)
an, etwa γ2 6= 0, so können wir U auch wie folgt beschreiben:

U = (α1 , α2 ) ∈ K 2 ; α2 = −γ2−1 γ1 · α1 = K · (1, −γ2−1 γ1 )

Der Vektor (1, −γ2−1 γ1 ) bildet daher eine Basis von U , und wir erhal-
ten dimK U = 1 = dimK K 2 − 1. Aufgrund dieser Vorbetrachtungen
kann man sich folgendes Resultat im Allgemeinfall vorstellen: Es gilt
dimK U = n falls γ1 = . . . = γn = 0 und dimK U = n − 1 sonst.
Lösungsweg: Um zu zeigen, dass U ein linearer Unterraum von K n
ist, verifizieren wir die Bedingungen von 1.4/2. Offenbar gilt 0 ∈ U
und damit U 6= ∅. Seien weiter n ) und b = (β1 , . . . , βn )
Pn a = (α1 , . . . , αP n
Elemente
Pn von U , gelte also α γ
i=1 i i = 0 und i=1 βi γi = 0, so ergibt
sich Pi=1 (αi + βi )γi = 0, also a + b ∈ U . Weiter gilt für α ∈ K
auch ni=1 ααi γi = 0 und damit α · a ∈ U . Folglich ist U als linearer
Unterraum von K n erkannt.
Zur Bestimmung von dimK U bemerken wir zunächst, dass im tri-
vialen Fall γ1 = . . . = γn = 0 der lineare Unterraum U mit K n überein-
stimmt und wir dimK U = dimK K n = n erhalten. Sei nun mindestens
eines der γi nicht 0, etwa γn 6= 0, was insbesondere n ≥ 1 erfordert.
Dann gilt
 Xn−1 
n −1
U = (α1 , . . . , αn ) ∈ K ; αn = −γn αi γi ,
i=1
und wir sehen, dass für die Elemente (α1 , . . . , αn ) ∈ U die Kompo-
nenten α1 , . . . , αn−1 ∈ K keinerlei Bedingungen unterworfen sind, wo-
hingegen sich αn aus diesen ersten Komponenten in eindeutiger Weise
386 8. Aufgabentrainer

berechnet. Sind nun e′1 , . . . , e′n−1 ∈ K n−1 die kanonischen Einheitsvek-


toren, so existieren eindeutig bestimmte Vektoren a1 , . . . , an−1 ∈ U ,
deren n − 1 erste Komponenten jeweils mit den Komponenten von
e′1 , . . . , e′n−1 übereinstimmen. Wir behaupten, dass a1 , . . . , an−1 eine
Basis von U ist und dass demgemäß Pn−1 dimK U = n − 1 gilt. In der Tat,
betrachten wir eine Gleichung i=0 λi ai = 0 mit Koeffizienten λi ∈ K,
so erhalten wir daraus Pn−1 durch Fortlassen der Komponenten mit Index
n die Gleichung i=0 λi e′i = 0. Da e′1 , . . . , e′n−1 eine Basis von K n−1
bilden, sind alle λi trivial, und es folgt insbesondere, dass die Vekto-
ren a1 , . . . , an−1 ein linear unabhängiges System bilden. In ähnlicher
Weise können wir zeigen, dass diese Vektoren U erzeugen und somit
eine Basis von U bilden. Hierzu betrachten wir einen beliebigen Vektor
a ∈ U . Durch Streichen der letzten Komponente erhalten wir daraus
einen Vektor a′ ∈ K n−1 P,n−1
und wir können Konstanten λ1P , . . . , λn−1 ∈ K
′ ′ n−1
finden, so dass a = i=1 λi ei gilt. Dann sind a und i=1 λi ai zwei
Vektoren in U , deren n − 1 erste Komponenten übereinstimmen. Da
sich aber die Komponente mit Index n aus denP n − 1 vorhergehenden
n−1
in eindeutiger Weise berechnet, ergibt sich a = i=1 λi ai . Also bilden
a1 , . . . , an−1 ein Erzeugendensystem von U , insgesamt eine Basis, und
wir schließen dimK U = n − 1.
Ergänzungen: Zu γ1 , . . . , γn ∈ K kann man die Abbildung
n
X
f : Kn ✲ K 1, (α1 , . . . , αn ) ✲ αi γi ,
i=1

betrachten. Hierbei handelt es sich um eine lineare Abbildung, siehe


2.1/1, was bedeutet, dass f die Addition und die skalare Multiplikation
respektiert, d. h. es gilt

f (a + b) = f (a) + f (b), f (α · a) = α · f (a)

für alle a, b ∈ K n und α ∈ K. Weiter stimmt U mit f −1 (0) überein, dem


sogenannten Kern von f , der aufgrund der Linearität von f stets ein
linearer Unterraum von K n ist. Auch ist aufgrund der Linearität von f
leicht einzusehen, dass das Bild f (K n ) ein linearer Unterraum von K 1
ist. Für lineare Abbildungen gilt nun die sogenannte Dimensionsformel,
in unserem Falle dimK K n = dimK f −1 (0) + dimK f (K n ), die wir in
2.1/10 allgemein beweisen werden. Da
1.6 Aufgabe 4 387
(
0 für γ1 = . . . = γn = 0,
f (K n ) =
K1 sonst,

können wir leicht ablesen, dass dimK U = n gilt, falls die γi trivial sind,
sowie dimK U = n − 1, falls mindestens eines der γi von 0 verschieden
ist.
1.6 Aufgabe 4
Start: Gegeben sind lineare Unterräume U1 , U2 , U3 eines K-Vektor-
raums V .
Ziel : Zu beweisen ist die folgende Dimensionsformel:

dimK U1 + dimK U2 + dimK U3



= dimK (U1 + U2 + U3 ) + dimK (U1 + U2 ) ∩ U3 + dimK (U1 ∩ U2 )

Strategie: In 1.6/5 wurde die Dimensionsformel

dimK U + dimK U ′ = dimK (U + U ′ ) + dimK (U ∩ U ′ )

für zwei lineare Unterräume U, U ′ ⊂ V bewiesen. Es liegt nahe, diese


Formel anzuwenden auf U = U1 + U2 und U ′ = U3 , zumal in der zu
beweisenden Formel der Term dimK ((U1 + U2 ) ∩ U3 ) auf der rechten
Seite vorkommt.
Lösungsweg: Wir wenden also die Dimensionsformel 1.6/5 auf die
linearen Unterräume U1 + U2 und U3 von V an und erhalten

dimK (U1 +U2 )+dimK U3 = dimK (U1 +U2 +U3 )+dimK (U1 +U2 )∩U3 .

Nochmalige Anwendung der Dimensionsformel auf U1 und U2 ergibt

dimK U1 + dimK U2 = dimK (U1 + U2 ) + dimK (U1 ∩ U2 ),

also insgesamt

dimK U1 + dimK U2 + dimK U3



= dimK (U1 + U2 + U3 ) + dimK (U1 + U2 ) ∩ U3 + dimK (U1 ∩ U2 )

was zu zeigen war.


Ergänzungen: Man kann mit vollständiger Induktion in ähnlicher
Weise auch eine Dimensionsformel für endlich viele lineare Unterräume
U1 , . . . , Un ⊂ V herleiten.
388 8. Aufgabentrainer

1.6 Aufgabe 8
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum V mit
einem linearen Unterraum U ⊂ V . Sei n = dimK V und s = dimK U .
Ziel : Zu überlegen ist, für welche r ∈ N und unter welcher Bedin-
gung an die Dimensionen von UPund V es Komplemente U1 , . . . , Ur
r
zu U in V gibt, deren Summe i=1 Ui direkt ist. Optimal ist eine
Bedingung, die notwendig und hinreichend ist.
Strategie: Für r = 0 ist nichts zu zeigen, da dann keine Kom-
plemente zu U involviert sind und leere Summen immer den Wert 0
haben. Von Interesse sind also nur Anzahlen r > 0. Dabei ist der Fall
r = 1 trivial, aber bereits der Fall r = 2 ist nicht ohne Weiteres zu
überblicken. Wir lernen daraus, dass der Parameter r nicht im Vor-
dergrund stehen sollte, sondern sich den übrigen Parametern n und s
unterordnen sollte.
Zur weiteren Orientierung schauen wir uns ein Beispiel an, näm-
lich V = R3 als R-Vektorraum und als linearen Unterraum die Ebene
U = {(α1 , α2 , α3 ) ∈ R3 ; α3 = 0}. Wegen dimK U = 2 erzeugt jeder
Vektor a = (α1 , α2 , α3 ) ∈ R3 , der nicht in U enthalten ist, also α3 6= 0
erfüllt, ein Komplement zu U in V . Es gibt unendlich viele solcher
Vektoren a, ja sogar unendlich viele Geraden des Typs R · a ⊂ R3 ,
die nicht in U gelegen sind und damit Komplemente zu U definieren.
Sind nun R · ai für i = 1, . . . , r solche Komplemente und ist die Summe
P r
i=1 R · ai direkt, so bilden die Vektoren a1 , . . . , ar ein linear unabhän-
giges System, wobei notwendigerweise r ≤ 3 wegen dimR R3 = 3 folgt.
Andererseits existiert auch tatsächlich ein linear unabhängiges System
von Vektoren a1 , a2 , a3 ∈ R3 , die nicht in U enthalten sind und damit
Komplemente zu U in R3 erzeugen, nämlich die Vektoren
(0, 0, 1), (1, 0, 1), (1, 1, 1).
Die vorstehende Betrachtung führt uns auch im Allgemeinfall auf ei-
ne Bedingung, die jedenfalls notwendig ist: P Wenn es Komplemente
U1 , . . . , Ur zu U in V gibt, deren Summe rk=1 Uk ⊂ V direkt ist, so
gilt mit der Verallgemeinerung von 1.6/4 auf endlich viele Summanden
Xr
dimK Uk ≤ dimK V = n.
k=1

Es folgt dann dimK Uk = dimK V −dimK U = n−s für alle k, wiederum


aufgrund von 1.6/4, ergibt also r·(n−s) ≤ n als notwendige Bedingung.
1.6 Aufgabe 8 389

In unserem obigen Beispiel gilt n = 3 und s = 2. Die Bedingung nimmt


also dann die Form r ≤ 3 an und ist insbesondere auch hinreichend,
wie wir gesehen haben.
Um auch im Allgemeinfall eine hinreichende Bedingung für unser
Problem zu finden, wollen wir überlegen, auf welche Weise verschiede-
ne Komplemente zu U in V konstruiert werden können. Wir wählen
zunächst einmal ein beliebiges Komplement U ′ zu U in V . Wie im Be-
weis zu 1.6/4 kann dieses wie folgt konstruiert werden. Wir wählen eine
Basis x1 , . . . , xs von U und ergänzen diese durch Elemente
Lt y1 , . . . , yt

mit t = n − s zu einer Basis von V . Dann ist U = j=1 Kyi ein
Komplement zu U in V . Wenn wir nun U ′ abändern wollen, so macht
es Sinn, die erzeugenden Elemente yj von U ′ abzuändern, und zwar,
damit wir U ′ garantiert verlassen, durch Elemente aus U . Wir wählen
daher Elemente a1 , . . . , at ∈ U und prüfen nach, ob auch die Vektoren
y1 + a1 , . . . , yt + at ein Komplement zu U erzeugen. Hierzu genügt es
nachzuprüfen, dass diese Elemente zusammen mit x1 , . . . , xs ein linear
unabhängiges System und damit eine Basis von V bilden. Seien also
λ1 , . . . , λs , λ′1 , . . . , λ′t ∈ K, derart dass
s
X t
X X
s t
X  t
X
λi xi + λ′j (yj + aj ) = λi xi + λ′j aj + λ′j yj = 0
i=1 j=1 i=1 j=1 j=1

P P P
gilt. Dann folgt si=1 λi xi + tj=1 λ′j aj ∈ U und tj=1 λ′j yj ∈ U ′ . Beide
Elemente müssen verschwinden, da die Summe U + U ′ direkt ist. Es
ergibtP sich λ′1 , . . . , λ′t = 0 und dann aber auch λ1 , . . . , λs = 0, d. h.
U ′′ = tj=1 K · (yj + aj ) ist in der Tat ein weiteres Komplement zu U
in V , und zwar verschieden von U ′ , wenn mindestens einer der Vektoren
a1 , . . . , at nicht trivial ist. Wir wollen testen, ob die Summe U ′ + U ′′
direkt sein kann, also ob die Vektoren y1 , . . . , yt , y1 + a1 , . . . , yt + at ein
linear unabhängiges System bilden. Man betrachte daher Konstanten
λ′1 , . . . , λ′t , λ′′1 , . . . , λ′′t ∈ K, so dass
t
X t
X t
X t
X
λ′j yj + λ′′j (yj + aj ) = λ′′j aj + (λ′j + λ′′j )yj = 0
j=1 j=1 j=1 j=1

P P
gilt. Dann ergibt sich tj=1 λ′′j aj ∈ U und tj=1 (λ′j + λ′′j )yj ∈ U ′ , und
beide Elemente müssen verschwinden, wiederum da die Summe U + U ′
390 8. Aufgabentrainer

direkt ist. Wir können dann λ′j + λ′′j = 0 für alle j schließen, aber
λ′′j = 0 für alle j nur dann, wenn die Vektoren a1 , . . . , at ein linear
unabhängiges System in U bilden. Letzteres ist beispielsweise dann
der Fall, wenn t ≤ s gilt und wir aj = xj für j = 1, . . . , t wählen.
Dies ist die entscheidende Beobachtung, die uns zeigen wird, dass die
Bedingung r · (n − s) ≤ n in der Tat für die Lösung unseres Problems
auch hinreichend ist.
Lösungsweg: Wir wollen also zeigen, dass es genau dann Kom-
plemente U1 , . . . , Ur zu U in V gibt, deren Summe direkt ist, wenn
r(n − s) ≤ n gilt. Die Bedingung ist notwendig, wie wir gesehen haben.
Sind nämlich U1 , . . . , Ur solche Komplemente, so gilt dimK Uk = n − s
für k = 1, . . . , r nach 1.6/4, und es folgt
r
X r
M
r(n − s) = dimK Uk = dimK Uk ≤ dimK V = n
k=1 k=1

mit 1.5/14 und der Verallgemeinerung von 1.6/4 auf endlich viele Sum-
manden.
Sei nun andererseits r ∈ N mit r(n − s) ≤ n. Dann ergibt sich
(r − 1)(n − s) ≤ s bzw. (r − 1)t ≤ s mit t = n − s. Im Übrigen dürfen
wir r ≥ 2 voraussetzen, da die zu beweisende Aussage ansonsten trivial
ist. Wir wählen nun in U ein linear unabhängiges System von (r − 1)t
Vektoren, welches wir in der Form

xjk , j = 1, . . . , t, k = 2, . . . , r,

annehmen; dies ist möglich wegen (r − 1)t ≤ s = dimK U . Weiter sei


U1 ein beliebiges Komplement zu U in V und y1 , . . . , yt eine Basis von
U1 , wobei wir t = n − s = dimK U1 benutzen. Man setze sodann
t
X
Uk = K · (yj + xjk ) für k = 2, . . . , r.
j=1

Da offenbar yj ∈ U + Uk für alle j = 1, . . . , t und k = 2, . . . , r gilt, folgt


U + Uk = V für alle k, und man erkennt mit 1.6/6, dass die Summe
U +Uk aus Dimensionsgründen direkt ist. Es sind also U2 , . . . , Ur neben
U1 weitere Komplemente zu U in V . Um zu zeigen, dass die Summe
P r
k=1 Uk direkt ist, betrachten wir eine Linearkombination
2.1 Aufgabe 2 391

t
X r X
X t
λj yj + λjk (yj + xjk ) = 0
j=1 k=2 j=1

mit Koeffizienten λj , λjk ∈ K. Diese Gleichung können wir auch in der


Form
X t X r X t  X r Xt 
λj yj + λjk yj + λjk xjk = 0,
j=1 k=2 j=1 k=2 j=1

schreiben, wobei der linke Klammerausdruck zu U1 gehört und der


rechte zu U . Da die Summe V = U + U1 direkt ist, müssen beide Aus-
drücke verschwinden. Aus der linearen Unabhängigkeit der xjk schlie-
ßen wir, dass alle Koeffizienten λjk verschwinden und aus der linearen
Unabhängigkeit der yj , dass auch die Koeffizienten λj verschwinden.
Somit bilden die yj , j = 1, . . . , t, zusammen mit den Vektoren yj + xjk ,
r, ein linear unabhängiges System in V , und es
j = 1, . . . , t, k = 2, . . . ,P
folgt, dass die Summe tk=1 Uk in V direkt ist. Damit ist gezeigt, dass
die Bedingung r(n − s) ≤ n für die Lösung unseres Problems nicht nur
notwendig sondern auch hinreichend ist.
Ergänzungen: Ist x1 , . . . , xs eine Basis von U , so kann man die
Vektoren xjk im obigen Beweis auch noch konkreter wählen, indem
man setzt:
xjk = xj+(k−2)t , j = 1, . . . , t, k = 2, . . . , r

Lineare Abbildungen

2.1 Aufgabe 2
Start: Zu betrachten sind unter den Punkten (i) – (iv) gewisse
explizit gegebene Vektoren ai ∈ R4 sowie bi ∈ R3 für i = 1, 2, 3, 4 bzw.
i = 1, 2, 3.
Ziel : Gefragt ist nach der Existenz von R-linearen Abbildungen
R4 ✲ R3 , die für alle i jeweils ai auf bi abbilden.
Strategie: Wir haben in 2.1/7 und dem zugehörigen Beweis gelernt,
dass man eine R-lineare Abbildung f : R4 ✲ R3 mittels linearer Aus-
dehnung erklären kann, indem man eine Basis a1 , . . . , a4 von R4 be-
trachtet und deren Bilder b1 , . . . , b4 ∈ R3 beliebig vorgibt. Die resultie-
rende R-lineare Abbildung ist eindeutig durch f (ai ) = bi , i = 1, 2, 3, 4,
392 8. Aufgabentrainer

bestimmt. Sind also die Vektoren a1 , . . . , a4 in der Aufgabenstellung


linear unabhängig, so bilden sie eine Basis von R4 , und es gibt stets
eine eindeutig bestimmte R-lineare Abbildung f : R4 ✲ R3 , welche
die ai auf die jeweiligen Vektoren bi ∈ R3 abbildet. Sind nun lediglich
Vektoren a1 , a2 , a3 ∈ R4 gegeben und bilden diese ein linear unabhängi-
ges System, so kann man ähnlich verfahren. Indem man dieses System
mittels 1.5/8 durch einen Vektor a zu einer Basis von R4 ergänzt, kann
man eine R-lineare Abbildung f : R4 ✲ R3 finden, die a1 , a2 , a3 auf
b1 , b2 , b3 abbildet und a auf einen weiteren beliebig gewählten Vektor
b ∈ R3 , z. B. b = 0. Die Abbildung f ist dann natürlich von der
Wahl von b abhängig und somit nicht mehr eindeutig durch die Bilder
b1 , b2 , b3 zu a1 , a2 , a3 bestimmt.
Wie sollte man nun verfahren, wenn die Vektoren a1 , . . . , a4 ∈ R4
ein linear abhängiges System bilden? Man kann dann den von a1 , . . . , a4
erzeugten linearen Unterraum U = ha1 , . . . , a4 i ⊂ R4 betrachten und
das System der ai zu einer Basis von U verkleinern. Bilden etwa
a1 , a2 , a3 eine Basis von U , so gibt es, wie wir gesehen haben, stets
eine R-lineare Abbildung f : R4 ✲ R3 , welche a1 , a2 , a3 auf b1 , b2 , b3
abbildet. Diese ist nach 2.1/7 auf U eindeutig bestimmt. Es ist dann zu
prüfen, indem man a4 als Linearkombination der a1 , a2 , a3 darstellt, ob
auch f (a4 ) = b4 gilt oder nicht. Im ersten Fall existiert eine R-lineare
Abbildung R4 ✲ R3 der gewünschten Art, im zweiten Fall nicht.
Lösungsweg: (i) Wir behaupten, dass das System der Vektoren

a1 = (1, 1, 0, 0), a2 = (1, 1, 1, 0), a3 = (0, 1, 1, 1), a4 = (0, 0, 1, 1)

linear unabhängig ist und folglich eine Basis P


von R4 bildet. Um dies
nachzuprüfen, betrachten wir eine Gleichung 4i=1 λi ai = 0 mit Koef-
fizienten λi ∈ R, bzw. in komponentenweiser Schreibweise das folgende
Gleichungssystem:

λ1 · 1 + λ2 · 1 + λ3 · 0 + λ4 · 0 = 0
λ1 · 1 + λ2 · 1 + λ3 · 1 + λ4 · 0 = 0
λ1 · 0 + λ2 · 1 + λ3 · 1 + λ4 · 1 = 0
λ1 · 0 + λ2 · 0 + λ3 · 1 + λ4 · 1 = 0

Die ersten beiden Gleichungen liefern λ3 = 0, die letzten beiden λ2 = 0.


Dann folgen aber auch λ1 = 0 und λ4 = 0, und wir sehen, dass die
2.1 Aufgabe 2 393

Vektoren a1 , a2 , a3 , a4 ein linear unabhängiges System und folglich eine


Basis in R4 bilden. Somit lesen wir aus 2.1/7 ab, dass eine R-lineare
Abbildung R4 ✲ R3 existiert, welche a1 , a2 , a3 , a4 auf die vorgegebe-
nen Vektoren b1 , b2 , b3 , b4 ∈ R3 abbildet.
(ii) Wir behaupten, dass auch hier das System der Vektoren
a1 = (0, 1, 1, 1), a2 = (1, 0, 1, 1), a3 = (1, 1, 0, 1)
linear unabhängig
P3 ist. Um dies nachzuweisen, betrachten wir wieder
eine Gleichung i=1 λi ai = 0 mit Koeffizienten λi ∈ R, bzw. in kom-
ponentenweiser Schreibweise das folgende Gleichungssystem:
λ1 · 0 + λ2 · 1 + λ3 · 1 = 0
λ1 · 1 + λ2 · 0 + λ3 · 1 = 0
λ1 · 1 + λ2 · 1 + λ3 · 0 = 0
λ1 · 1 + λ2 · 1 + λ3 · 1 = 0
Die erste und vierte Gleichung ergeben λ1 = 0, die zweite und vier-
te λ2 = 0. Dann gilt auch λ3 = 0, und wir sehen, dass a1 , a2 , a3 ein
linear unabhängiges System bilden. Indem wir dieses zu einer Basis
von R4 ergänzen, sehen wir wieder mit 2.1/7, dass es eine R-lineare
Abbildung f : R4 ✲ R3 gibt, die a1 , a2 , a3 auf die vorgegebenen Vek-
toren b1 , b2 , b3 ∈ R3 abbildet. Erneute Anwendung von 2.1/7 ergibt,
dass lediglich die Einschränkung von f auf den linearen Unterraum
ha1 , a2 , a3 i ⊂ V eindeutig bestimmt ist.
(iii) Wir testen wieder, ob das System der Vektoren
a1 = (0, 1, 1, 1), a2 = (1, 0, 1, 1), a3 = (1, 1, 0, 1), a4 = (−1, 1, 0, 0)
P
linear unabhängig ist und setzen eine Gleichung 4i=1 λi ai = 0 mit Ko-
effizienten λi ∈ R an. Zu lösen ist also das folgende Gleichungssystem:
λ1 · 0 + λ2 · 1 + λ3 · 1 − λ4 · 1 = 0
λ1 · 1 + λ2 · 0 + λ3 · 1 + λ4 · 1 = 0
λ1 · 1 + λ2 · 1 + λ3 · 0 + λ4 · 0 = 0
λ1 · 1 + λ2 · 1 + λ3 · 1 + λ4 · 0 = 0
Die erste und vierte Gleichung ergeben λ1 + λ4 = 0, die zweite und
vierte λ2 − λ4 = 0, sowie die dritte und vierte λ3 = 0. Insbesondere
sind aufgrund dieser Beziehungen die Werte
394 8. Aufgabentrainer

λ1 = 1, λ2 = −1, λ3 = 0, λ4 = −1

möglich. Einsetzen in obige Gleichungen zeigt, dass dies in der Tat eine
Lösung des Gleichungssystems darstellt. Somit gilt a1 − a2 − a4 = 0,
also a4 = a1 − a2 , und das System der Vektoren a1 , a2 , a3 , a4 ist linear
abhängig.
Wie wir in (ii) gesehen haben, bilden die Vektoren a1 , a2 , a3 ein
linear unabhängiges System, und es existiert eine R-lineare Abbildung
f : R4 ✲ R3 mit f (ai ) = bi für i = 1, 2, 3, wobei die Einschränkung
von f auf den linearen Unterraum ha1 , a2 , a3 i ⊂ V eindeutig bestimmt
ist. Weiter gilt

f (a4 ) = f (a1 − a2 ) = f (a1 ) − f (a2 ) = b1 − b2 = (−1, −1, 2) 6= b3 .

In diesem Fall gibt es daher keine R-lineare Abbildung f : R4 ✲ R3


mit f (ai ) = bi für i = 1, 2, 3, 4.
(iv) Im Falle der Vektoren

a1 = (0, 1, 1, 1), a2 = (1, 0, 1, 1),


a3 = (1, 1, 0, 1), a4 = (0, 2, 0, 1)
P
betrachten wir wiederum eine Gleichung 4i=1 λi ai = 0 mit Koeffizien-
ten λi ∈ R, die uns auf das folgende Gleichungssystem führt:

λ1 · 0 + λ2 · 1 + λ3 · 1 + λ4 · 0 = 0
λ1 · 1 + λ2 · 0 + λ3 · 1 + λ4 · 2 = 0
λ1 · 1 + λ2 · 1 + λ3 · 0 + λ4 · 0 = 0
λ1 · 1 + λ2 · 1 + λ3 · 1 + λ4 · 1 = 0

Die erste und vierte Gleichung ergeben λ1 + λ4 = 0, die zweite und


die vierte λ2 − λ4 = 0, sowie die dritte und die vierte λ3 + λ4 = 0.
Aufgrund dieser Beziehungen sind die Werte

λ1 = 1, λ2 = −1, λ3 = 1, λ4 = −1

möglich, und Einsetzen in die obigen Gleichungen zeigt, dass dies in


der Tat eine Lösung darstellt. Folglich gilt a4 = a1 − a2 + a3 . Wie in (ii)
sind die Vektoren a1 , a2 , a3 linear unabhängig und wie in (iii) gibt es
eine R-lineare Abbildung f : R4 ✲ R3 mit f (ai ) = bi für i = 1, 2, 3.
Nun gilt
2.1 Aufgabe 5 395

f (a4 ) = f (a1 − a2 + a3 ) = f (a1 ) − f (a2 ) + f (a3 )


= b1 − b2 + b3 = (2, 0, 4) = b4 .

Also ist f : R4 ✲ R3 wie gewünscht eine R-lineare Abbildung mit


f (ai ) = bi für i = 1, 2, 3, 4.
Ergänzungen: Bei den betrachteten Gleichungssystemen zur Be-
stimmung der Koeffizienten λi handelt es sich um sogenannte lineare
Gleichungssysteme. Die Theorie dieser Gleichungssysteme und zugehö-
riger praktischer Lösungsverfahren wird später in 3.5 noch ausführlich
behandelt werden.
2.1 Aufgabe 5
Start: Gegeben ist ein Endomorphismus f : V ✲ V eines K-Vek-
2
torraums V mit der Eigenschaft f = f .
Ziel : Zu zeigen ist V = ker f ⊕ im f , also dass die Summe der
linearen Unterräume ker f + im f ⊂ V direkt ist und V ergibt.
Strategie: Für jeden Endomorphismus f : V ✲ V kann man die
Summe ker f +im f als linearen Unterraum von V bilden. Diese Summe
ist im Allgemeinen nicht direkt, wie etwa der mittels 2.1/7 (ii) definierte
Endomorphismus

f : K2 ✲ K 2, e1 ✲ 0, e2 ✲ e1 ,

mit den Einheitsvektoren e1 , e2 ∈ K 2 zeigt; hier gilt f 2 = 0 6= f sowie


ker f = im f = he1 i. Wir lernen daraus, dass die Bedingung f 2 = f
für die Direktheit der Summe ker f + im f wesentlich sein wird. Im
Übrigen, wenn man diese Summe als direkt erkannt hat, folgt

dimK (ker f ⊕ im f ) = dimK (ker f ) + dimK (im f ) = dimK V

mit 1.6/4 und der Dimensionsformel 2.1/10. Ist daher V von endlicher
Dimension, so können wir mittels 1.5/14 (ii) bereits V = ker f ⊕ im f
ablesen.
Zu überlegen ist also, dass die Summe ker f + im f ⊂ V direkt
ist, bzw. dass ker f ∩ im f = 0 gilt. Dies lässt sich routinemäßig nach-
prüfen. Sei nämlich x ∈ ker f ∩ im f . Dann gilt einerseits f (x) = 0,
und andererseits gibt es einen Vektor x′ ∈ V mit f (x′ ) = x. Es folgt
f 2 (x′ ) = 0 und wegen f 2 = f auch x = f (x′ ) = f 2 (x′ ) = 0, also gilt
ker f ∩ im f = 0.
396 8. Aufgabentrainer

Es bleibt noch V = ker f + im f zu zeigen, ohne dass wir V


als endlich-dimensional annehmen wollen. Hierzu betrachten wir einen
Vektor x ∈ V und versuchen, einen Vektor x′′ ∈ im f zu finden, derart
dass x − x′′ ∈ ker f gilt. Als naheliegende Möglichkeit bietet sich hier
x′′ = f (x) an.
Lösungsweg: Wir haben oben bereits nachgewiesen, dass die Sum-
me ker f + im f ⊂ V direkt ist. Um ker f + im f = V einzusehen,
wählen wir x ∈ V . Dann folgt

f x − f (x) = f (x) − f 2 (x) = f (x) − f (x) = 0,

also x − f (x) ∈ ker f und damit x ∈ ker f + im f , was zu zeigen war.


Ergänzungen: Wie wir gesehen haben, ist die Bedingung f 2 = f
für die Beziehung V = ker f ⊕ im f hinreichend. Sie ist allerdings
nicht notwendig, da es für Vektorräume V 6= 0 stets Automorphis-
men f : V ✲ V mit f 2 6= f gibt. Ist f ein solcher Automorphismus,
so gilt ker f = 0 und im f = V , also trivialerweise V = ker f ⊕ im f .
2.1 Aufgabe 8
f g
Start: Gegeben sind K-lineare Abbildungen V1 ✲ V2 ✲ V3
zwischen endlich-dimensionalen K-Vektorräumen.
Ziel : Zu zeigen ist rg f + rg g ≤ rg(g ◦ f ) + dim V2 , wobei der Rang
einer linearen Abbildung als Dimension des zugehörigen Bildes erklärt
ist.
Strategie: Da in der zu beweisenden Abschätzung die Ränge der
K-linearen Abbildungen f , g sowie g ◦ f vorkommen, versuchen wir die
entsprechenden Versionen der Dimensionsformel 2.1/10 zu verwenden,
nämlich

dimK V1 = dimK (ker f ) + rg f,


dimK V2 = dimK (ker g) + rg g,
dimK V1 = dimK (ker g ◦ f ) + rg(g ◦ f ).

Es folgt

rg f + rg g = dimK V1 + dimK V2 − dimK (ker f ) − dimK (ker g)

und, indem wir auch noch die dritte Formel nutzen,


2.1 Aufgabe 8 397

rg f + rg g = dimK (ker g ◦ f ) + rg(g ◦ f )


+ dimK V2 − dimK (ker f ) − dimK (ker g).

Wir können also unser Ziel erreichen, indem wir

dimK (ker g ◦ f ) ≤ dimK (ker f ) + dimK (ker g)

zeigen. Um eine Idee zu bekommen, wie wir diese Abschätzung erhal-


ten können, verschaffen wir uns Klarheit über die involvierten Vektor-
räume. Es sind ker f und ker(g ◦ f ) lineare Unterräume von V1 mit
ker f ⊂ ker(g ◦ f ) ⊂ V1 , wie man leicht nachprüft. Weiter ist ker g ein
linearer Unterraum von V2 , und zwar gilt f (ker(g ◦ f )) ⊂ ker g ⊂ V2 .
Dies ermutigt uns, die von f induzierte lineare Abbildung

f˜: ker(g ◦ f ) ✲ ker g

zu betrachten, deren Kern mit ker f übereinstimmt, und hierauf die


Dimensionsformel 2.1/10 anzuwenden. Dies liefert in der Tat

dimK (ker g ◦ f ) = dimK (ker f˜) + dimK (im f˜)


≤ dimK (ker f ) + dimK (ker g),

also die gewünschte Abschätzung, die zum Erreichen des Ziels noch zu
beweisen war.
Der beschriebene Weg mutet etwas kompliziert an, und wir fra-
gen uns, ob wir nicht auch mit einer etwas einfacheren Argumentation
ans Ziel gelangen können. Ein wesentlicher Punkt unserer Argumenta-
tion besteht darin, dass wir den linearen Unterraum im f˜ ⊂ V2 durch
ker g ersetzen und somit die Abschätzung dimK (im f˜) ≤ dimK (ker g)
verwenden. Dabei gilt genauer

im f˜ = ker g ∩ f (V1 ),

wie man leicht feststellt. Dies bringt uns auf die Idee, anstelle der
gegebenen Abbildungen f und g die K-linearen Abbildungen
f′ g′
V1 ✲ f (V1 ) ✲ V3

zu verwenden, wobei f ′ und g ′ jeweils aus f und g durch Einschränkung


gewonnen werden, indem man V2 durch f (V1 ) ersetzt. Dieser Ansatz
398 8. Aufgabentrainer

führt in der Tat zu einer einfacheren Lösung, wie wir sogleich sehen
werden.
Lösungsweg: Wir schränken also V2 zu f (V1 ) ein und betrachten die
f′ g′
resultierenden K-linearen Abbildungen V1 ✲ f (V1 ) ✲ V3 . Sodann
liefert die Dimensionsformel 2.1/10 angewandt auf g ′

rg f = dimK f (V1 ) = dimK (ker g ′ ) + dimK (im g ′ )



= dimK ker g ∩ f (V1 ) + rg(g ◦ f )
≤ dimK (ker g) + rg(g ◦ f ).

Benutzen wir dann noch die Gleichung dimK (ker g) = dimK V2 − rg g


gemäß der Dimensionsformel für g, so folgt die gewünschte Abschät-
zung rg f + rg g ≤ rg(g ◦ f ) + dim V2 .
2.2 Aufgabe 4
Start: Gegeben ist ein K-Vektorraum mit einer Teilmenge A ⊂ V .
Ziel : Betrachtet werden sollen Teilmengen B ⊂ V mit A ⊂ B, so
dass die durch x ∼B y :⇐⇒ x − y ∈ B für x, y ∈ V gegebene Relation
“ ∼B ” eine Äquivalenzrelation ist. Sei B die Menge dieser Teilmengen
B ⊂ V . Zu zeigen ist, dass B ein kleinstes Element enthält, bezeichnet
mit A′ , so dass also A′ ⊂ B für jedes weitere B ∈ B gilt. Es ist A′
genauer zu bestimmen für den Fall, dass A′ abgeschlossen unter der
skalaren Multiplikation ist, also wenn für α ∈ K, a ∈ A stets αa ∈ A
gilt.
Strategie: Das Beispiel eines von einer Teilmenge A ⊂ V erzeugten
linearen Unterraums A′ = hAi ⊂ V in 1.4/5 gibt gewisse Anhalts-
punkte, wie man grundsätzlich vorgehen könnte. Eine erste Möglich-
keit besteht darin, A′ als den Durchschnitt über alle Mengen B ∈ B
anzusetzen. Dieses Verfahren funktioniert ohne Probleme, wie wir wei-
ter unten sehen werden. Es liefert jedoch nicht die gewünschte konkrete
Beschreibung der Menge A′ . Deshalb liegt es nahe, sich auch mit Ver-
fahren zu beschäftigen, die A mittels konkreter Konstruktionsschritte
zu der gewünschten Menge A′ vergrößern. Dazu müssen allerdings die
Eigenschaften einer Äquivalenzrelation “ ∼B ” zunächst in entspre-
chende Eigenschaften der zugehörigen Teilmenge B ⊂ V umgesetzt
werden.
Wir betrachten deshalb eine beliebige Teilmenge B ⊂ V sowie die
zugehörige Relation “ ∼B ”. Folgender Zusammenhang liegt nahe:
2.2 Aufgabe 4 399
 
0∈B  
 a ∈ B =⇒ −a ∈ B  ⇐⇒ Die Relation “ ∼ B ”
ist eine Äquivalenzrelation
a, b ∈ B =⇒ a + b ∈ B

In der Tat, die Implikation “ =⇒ ” ist trivial, denn die aufgeführten


Bedingungen für B sorgen der Reihe nach für Reflexivität, Symmetrie
und Transitivität der Relation “ ∼B ”. Um die verbleibende Implikation
“ ⇐= ” einzusehen, nehmen wir an, dass “ ∼B ” eine Äquivalenzrelation
ist. Dann gilt x ∼B x für alle x ∈ V und damit 0 = x − x ∈ B. Für
a ∈ B gilt weiter a − 0 = a ∈ B, also a ∼B 0. Aufgrund der Symmetrie
folgt 0 ∼B a und daher −a = 0 − a ∈ B. Seien nun a, b ∈ B. Dann gilt
a ∼B 0 wegen a − 0 = a ∈ B sowie 0 ∼B (−b) wegen 0 − (−b) = b ∈ B.
Die Transitivität ergibt a ∼B (−b), also a + b = a − (−b) ∈ B, wie
behauptet.
Indem wir bemerken, dass die Bedingungen auf der linken Seite
gemäß 1.2/3 gerade eine Untergruppe der additiven Gruppe von V
charakterisieren, haben wir also eingesehen:
Die Relation “ ∼B ” zu einer Teilmenge B ⊂ V definiert genau
dann eine Äquivalenzrelation auf V , wenn B eine additive Untergruppe
von V ist.
Wir lernen daraus für unser Problem, dass wir von A zur kleinsten
additiven Untergruppe A′ ⊂ V übergehen müssen, die A enthält. Dazu
können wir A′ entweder als Durchschnitt aller additiven Untergruppen
von V definieren, die A als Teilmenge enthalten, oder wir können A′
konkret angeben, ähnlich wie wir in 1.4/5 den von A erzeugten linearen
Unterraum hAi ⊂ V erklärt hatten.
Lösungsweg: Wie zu Beginn erklärt sei B die Menge aller Teilmen-
gen B ⊂ V mit A ⊂ B, derart dass “ ∼B ” eine Äquivalenzrelation
auf V definiert. Offenbar
T gilt V ∈ B, so dass B nicht leer ist. Wir
setzen sodann A = B∈B B und sehen leicht ein, dass A′ ∈ B gilt.

Für Vektoren x, y ∈ V gilt nämlich


T x ∼A′ y genau dann, wenn x ∼B y
für alle B ∈ B gilt, da A = B∈B B. Insbesondere ist klar, dass A′ die

kleinste Obermenge von A ist, so dass “ ∼A′ ” eine Äquivalenzrelation


auf V ergibt.
Wir hatten oben bereits überlegt, dass die Relation “ ∼B ” für
eine Teilmenge B ⊂ V genau dann eine Äquivalenzrelation auf V er-
klärt, wenn B eine additive Untergruppe von V ist. Daher besteht B
aus allen additiven Untergruppen von V , die A enthalten, und es ist
400 8. Aufgabentrainer

T
A′ = B∈B B die eindeutig bestimmte kleinste Untergruppe von V ,
die A enthält, mit anderen Worten, die von A erzeugte additive Un-
tergruppe in V . Diese lässt sich auch in der Form
nX
r o
A′ = εi ai ; r ∈ N, εi ∈ {1, −1}, ai ∈ A
i=1

beschreiben, denn jede additive Untergruppe B ⊂ V mit A ⊂ B ent-


hält notwendig die rechte Seite, und man sieht weiter ohne Probleme
ein, dass wir die rechte Seite gerade so definiert haben, dass sie eine
additive Untergruppe von V ergibt, die A enthält. Gilt nun für α ∈ K
und a ∈ A stets αa ∈ A, so können wir auch
nX
r o
A′ = αi ai ; r ∈ N, αi ∈ K, ai ∈ A
i=1

schreiben, und es folgt A′ = hAi, d. h. A′ ist in diesem Falle gerade der


von A in V erzeugte lineare Unterraum; siehe 1.4/5.
Ergänzungen: Die Verwendung der expliziten Beschreibung erzeug-
ter Gruppen am Schluss unserer Lösung mutet wie ein Umweg an und
kann vermieden werden, indem man ein formaleres Argument benutzt.
Man betrachte nämlich zu einem Skalar α ∈ K die Multiplikation
V ✲ V, x ✲ αx,
auf V . Diese respektiert Inklusionen von Teilmengen und überführt
additive Untergruppen von V in ebensolche. Sei nun A ⊂ V eine Teil-
menge und A′ die von A erzeugte additive Untergruppe von V , also
der Durchschnitt aller additiven Untergruppen in V , die A enthalten.
Dann ist αA′ die von αA erzeugte Untergruppe, und wir erhalten im
Falle αA = A auch αA′ = A′ , denn die von A erzeugte additive Un-
tergruppe von V ist eindeutig bestimmt. Ist daher A abgeschlossen
unter skalarer Multiplikation, so gilt dies auch für A′ , und wir sehen
mit 1.4/2, dass A′ ein linearer Unterraum von V ist. Dann ist A′ auch
der kleinste lineare Unterraum von V , der A enthält, also der von A
erzeugte lineare Unterraum hAi ⊂ V .
2.2 Aufgabe 8
Start: Zu linearen Unterräumen U, U ′ eines K-Vektorraums V soll
die K-lineare Abbildung f : U ⊂ ✲ U +U ′ ✲ (U +U ′ )/U ′ betrachtet
2.2 Aufgabe 11 401

werden, die sich zusammensetzt aus der Inklusion U ⊂ ✲ U + U ′ und


dem kanonischen Epimorphismus U + U ′ ✲ (U + U ′ )/U ′ .
Ziel : Zu zeigen ist ker f = U ∩ U ′ und weiter, dass f einen Isomor-
phismus f : U/(U ∩ U ′ ) ∼✲ (U + U ′ )/U ′ induziert.
Strategie: Zu betrachten ist eine K-lineare Abbildung der Form
f: V ✲ V ′ , wobei V = U und V ′ = (U + U ′ )/U ′ gilt. Gefragt ist
nach einem induzierten Isomorphismus f : V / ker f ∼✲ V ′ , was die
Anwendung des Homomorphiesatzes 2.2/9 nahelegt.
Lösungsweg: Wir wissen, dass U ′ der Kern des kanonischen Epi-
morphismus π : U + U ′ ✲ (U + U ′ )/U ′ ist. Weiter ist f die Ein-
schränkung von π auf U . Damit gilt ker f = U ∩ ker π = U ∩ U ′ .
Gemäß Homomorphiesatz 2.2/8 induziert f dann eine K-lineare Ab-
bildung f : U/U ∩ U ′ ✲ (U + U ′ )/U ′ , und diese ist injektiv wegen
ker f = U ∩ U ′ . Um zu sehen, dass f auch surjektiv und damit ein Iso-
morphismus ist, zeigen wir, dass f surjektiv ist. Sei also y ∈ (U +U ′ )/U ′
eine Restklasse und x + x′ ∈ U + U ′ mit x ∈ U , x′ ∈ U ′ ein Repräsen-
tant zu y, also mit y = (x + x′ ) + U ′ . Dann gilt auch y = x + U ′ und
somit f (x) = y. Also ist f surjektiv und insgesamt f gemäß 2.2/9 ein
Isomorphismus.
2.2 Aufgabe 11
Start: Es ist keine konkrete Startsituation beschrieben.
Ziel : Zu konstruieren ist ein K-Vektorraum V mit einem linearen
Unterraum U 6= 0, so dass es einen Isomorphismus V /U ∼✲ V
gibt. Gefragt ist zudem, ob ein solches Beispiel im Falle dimK V < ∞
existieren kann.
Strategie: Wir sind bemüht, ein möglichst einfaches Beispiel anzu-
geben. Deshalb schauen wir zunächst einmal den Fall dimK V < ∞ an.
Ist U 6= 0 ein linearer Unterraum von V , so gilt dimK U > 0 und daher

dimK (V /U ) = dimK V − dimK U < dimK V

aufgrund von 2.2/7. Wir lesen daraus ab, dass es in diesem Fall kei-
nen Isomorphismus V /U ∼✲ V geben kann, da Isomorphismen die
Dimension von Vektorräumen erhalten.
Wir müssen deshalb auf K-Vektorräume V unendlicher Dimension
zurückgreifen. Im einfachsten Fall besitzt ein solcher Vektorraum eine
abzählbare Basis. Sei also V ein K-Vektorraum mit einer abzählbaren
Basis {xi ; i ∈ N}, beispielsweise der K-Vektorraum
402 8. Aufgabentrainer


V = (αj )j∈N ∈ K N ; αj = 0 für fast alle j ∈ N
mit komponentenweiser Addition und skalarer Multiplikation. Hier bil-
den die Einheitsvektoren xi = (δij )j∈N , i ∈ N, eine Basis.
Gefragt ist eine K-lineare Abbildung f : V /U ✲ V für einen
geeigneten linearen Unterraum U ⊂ V . Mittels des Homomorphie-
satzes 2.2/8 lässt sich f durch eine geeignete K-lineare Abbildung
f: V ✲ V induzieren. Zur Definition einer solchen Abbildung f
wiederum können wir 2.1/7 anwenden, und zwar in der Version für
nicht notwendig endliche Erzeugendensysteme und Basen. Benutzen
wir dann noch, dass es surjektive Abbildungen N ✲ N gibt, die aber
nicht injektiv sind, so haben wir alle Elemente zur Konstruktion eines
Beispiels der gewünschten Art beisammen.
Lösungsweg: Es sei V ein K-Vektorraum mit einer abzählbaren
Basis {xi ; i ∈ N}. Sodann betrachten wir die K-lineare Abbildung
f: V ✲ V , die durch

x0 ✲ 0, xi ✲ xi−1 für i > 0,


und lineare Ausdehnung beschrieben wird, also durch

X ∞
X
αi x i ✲ αi+1 xi ,
i=0 i=0

wobei wir voraussetzen, dass die Koeffizienten αi ∈ K für fast alle


i ∈ N verschwinden. Es ist f offenbar surjektiv mit ker f = K · x0 .
Setzen wir also U = K · x0 , so gilt U 6= 0, und es induziert f auf-
grund des Homomorphiesatzes 2.2/9 wie gewünscht einen Isomorphis-
mus f : V /U ∼✲ V . Dass es einen solchen Isomorphismus im Falle
dimK V < ∞ nicht geben kann, haben wir bereits oben überlegt.
2.3 Aufgabe 2
Start: Zu n ∈ N betrachte man K n als K-Vektorraum mit den
Projektionen
pi : K n ✲ K, (α1 , . . . , αn ) ✲ αi , i = 1, . . . , n,
wobei die pi Linearformen auf K n sind.
Ziel : Es bilden p1 , . . . , pn eine Basis des Dualraums (K n )∗ , und
zwar die duale Basis zur kanonischen Basis von K n , bestehend aus den
Einheitsvektoren ej = (δ1j , . . . , δnj ), j = 1, . . . , n.
2.3 Aufgabe 2 403

Weiter ist für n = 4 und K = R die duale Basis in (R4 )∗ zur Basis
x1 = (1, 0, 0, 0), x2 = (1, 1, 0, 0), x3 = (1, 1, 1, 0), x4 = (1, 1, 1, 1)
von R4 zu bestimmen, indem man deren Elemente als Linearkombina-
tionen der pi angibt.
Strategie: Es gilt pi (ej ) = δij für i, j = 1, . . . , n, also bilden die
Linearformen p1 , . . . , pn ∈ (K n )∗ gemäß 2.3/5 die duale Basis zu
e1 , . . . , en ∈ K n . Im Falle n = 4 und K = R ist leicht nachzuprü-
fen, dass die Vektoren x1 , . . . , x4 ∈ R4 ein linear unabhängiges System
und damit eine Basis von R4 bilden. Mit 2.3/5 existiert dann in (R4 )∗
die duale Basis zu x1 , . . . , x4 , die mit ϕ1 , . . . , ϕ4 bezeichnet werde. Da
p1 , . . . , p4 ebenfalls
P4 eine Basis von (R4 )∗ ist, gibt es Konstanten λij ∈ R
mit ϕj = i=1 λij pi für j = 1, . . . , 4. Es sind sodann die Konstanten
λij zu bestimmen, wobei die charakterisierende Eigenschaft der dua-
len Basis, nämlich ϕj (xk ) = δjk , auf Gleichungen führt, mit denen wir
versuchen können, die Konstanten λij zu bestimmen.
Lösungsweg: Wir haben schon begründet, dass p1 , . . . , pn ∈ (Rn )∗
die duale Basis zur kanonischen Basis e1 , . . . , en ∈ Rn bilden, und wei-
ter für n = 4, K = R, dass die Vektoren x1 , . . . , x4 eine Basis von R4
bilden und wir hierzu die duale Basis ϕ1 ,P . . . , ϕ4 ∈ (R4 )∗ betrachten
können. Es gibt nun Darstellungen ϕj = 4i=1 λij pi , j = 1, . . . , 4, de-
ren Koeffizienten λij ∈ R zu bestimmen sind. Die charakterisierende
Eigenschaft ϕP j (xk ) = δjk der dualen Basis aus 2.3/5 liefert dann die
Gleichungen 4i=1 λij pi (xk ) = δjk , j, k = 1, . . . , 4, also geordnet nach
j = 1, . . . , 4 die folgenden Gleichungssysteme:

λ11 ·1 + λ21 ·0 + λ31 ·0 + λ41 ·0 = 1 λ12 ·1 + λ22 ·0 + λ32 ·0 + λ42 ·0 = 0


λ11 ·1 + λ21 ·1 + λ31 ·0 + λ41 ·0 = 0 λ12 ·1 + λ22 ·1 + λ32 ·0 + λ42 ·0 = 1
λ11 ·1 + λ21 ·1 + λ31 ·1 + λ41 ·0 = 0 λ12 ·1 + λ22 ·1 + λ32 ·1 + λ42 ·0 = 0
λ11 ·1 + λ21 ·1 + λ31 ·1 + λ41 ·1 = 0 λ12 ·1 + λ22 ·1 + λ32 ·1 + λ42 ·1 = 0

λ13 ·1 + λ23 ·0 + λ33 ·0 + λ43 ·0 = 0 λ14 ·1 + λ24 ·0 + λ34 ·0 + λ44 ·0 = 0


λ13 ·1 + λ23 ·1 + λ33 ·0 + λ43 ·0 = 0 λ14 ·1 + λ24 ·1 + λ34 ·0 + λ44 ·0 = 0
λ13 ·1 + λ23 ·1 + λ33 ·1 + λ43 ·0 = 1 λ14 ·1 + λ24 ·1 + λ34 ·1 + λ44 ·0 = 0
λ13 ·1 + λ23 ·1 + λ33 ·1 + λ43 ·1 = 0 λ14 ·1 + λ24 ·1 + λ34 ·1 + λ44 ·1 = 1
Hieraus ergibt sich
404 8. Aufgabentrainer

λ11 = 1, λ12 = 0, λ13 = 0, λ14 =0


λ21 = −1, λ22 = 1, λ23 = 0, λ24 =0
λ31 = 0, λ32 = −1, λ33 = 1, λ34 =0
λ41 = 0, λ42 = 0, λ43 = −1, λ44 =1
und damit
ϕ 1 = p1 − p2 , ϕ 2 = p2 − p3 , ϕ 3 = p3 − p4 , ϕ 4 = p4 .
Dies sind die gewünschten Linearkombinationen von p1 , . . . , p4 , welche
die duale Basis zu x1 , . . . , x4 in (R4 )∗ beschreiben.
2.3 Aufgabe 4
Start: Zu einem Element a eines K-Vektorraums V betrachte man
die lineare Abbildung a∗ : V ∗ ✲ K, die durch ϕ ✲ ϕ(a) gege-
ben ist. Dann ist a eine Linearform auf dem Dualraum V ∗ , also ein

Element des doppelt dualen Raums V ∗∗ . Weiter kann man zu a ∈ V
die Abbildung ⌈⌊a⌉⌋ : K ✲ V, α ✲ αa, betrachten, sozusagen die
“Multiplikation mit a”. Diese ist K-linear, wenn man K als Vektorraum
K 1 , also als Vektorraum über sich selbst auffasst.
Ziel : Man betrachte zu V die Abbildung ιV : V ✲ HomK (K, V ),
a ✲ ⌈⌊a⌉⌋. Zunächst ist zu zeigen, dass diese einen Isomorphis-
mus von K-Vektorräumen darstellt. Sodann wähle man ein Element
a ∈ V und betrachte die zugehörige K-lineare Abbildung ιV (a), also
⌈⌊a⌉⌋ : K ⌊a⌉⌋∗ : V ∗
✲ V , und ihre duale Abbildung ⌈ ✲ K ∗ , wobei

mit K = HomK (K, K) der Dualraum von K als Vektorraum über
sich selbst gemeint ist. Es ist zu zeigen, dass a∗ gerade die duale Ab-
bildung ⌈⌊a⌉⌋∗ zu ⌈⌊a⌉⌋ ist, wenn man K als K-Vektorraum mit seinem
Dualraum HomK (K, K) unter ιK : K ✲ HomK (K, K) identifiziert.
Strategie: Es besitzt K als Vektorraum über sich selbst eine ka-
nonische Basis, bestehend aus dem Einselement 1 ∈ K. Daher ist
⌈⌊a⌉⌋ : K ✲ V im Sinne von 2.1/7 durch die Zuordnung 1 ✲a
eindeutig bestimmt, und es ist klar, dass ιV : V ✲ HomK (K, V )
ein Isomorphismus ist. Weiter wird die zu ⌈⌊a⌉⌋ duale lineare Abbildung
durch
⌈⌊a⌉⌋∗ : V ∗ ✲ Hom (K, K),
K ϕ ✲ ϕ ◦ ⌈⌊a⌉⌋,
beschrieben, wobei ϕ ◦ ⌈⌊a⌉⌋ das Element 1 ∈ K zunächst auf a und
dann auf ϕ(a) abbildet. Also gilt ϕ ◦ ⌈⌊a⌉⌋ = ϕ(a), wenn wir den Iso-
morphismus ιK : K ✲ HomK (K, K) als Identifizierung ansehen. Die
2.3 Aufgabe 6 405

Überlegungen zur Strategie liefern hier also bereits die Lösung in Kurz-
form.
Lösungsweg: Die Abbildung ιV : V ✲ HomK (K, V ), a ✲⌈ ⌊a⌉⌋,
ist K-linear, da offenbar die Beziehungen ⌈⌊a + b⌉⌋ = ⌈⌊a⌉⌋ + ⌈⌊b⌉⌋ so-
wie ⌈⌊αa⌉⌋ = α⌈⌊a⌉⌋ für a, b ∈ V und α ∈ K gelten. Ebenso ist
κV : HomK (K, V ) ✲ V, σ ✲ σ(1), eine K-lineare Abbildung,
und es gilt κV ◦ ιV = idV sowie ιV ◦ κV = idHomK (K,V ) . Daraus schließt
man, dass ιV und κV zueinander invers und folglich Isomorphismen
sind.
Wir betrachten nun zu einem Element a ∈ V die zugehörige lineare
Abbildung ⌈⌊a⌉⌋ : K ✲ V , sowie die duale Abbildung

⌈⌊a⌉⌋∗ : V ∗ ✲ HomK (K, K), ϕ ✲ ϕ ◦ ⌈⌊a⌉⌋.

Dann gilt (ϕ ◦ ⌈⌊a⌉⌋)(1) = ϕ(a) für alle ϕ ∈ V ∗ , und es wird ϕ ◦ ⌈⌊a⌉⌋


unter κK : HomK (K, K) ✲ K, also dem Inversen von ιK , mit ϕ(a)
identifiziert, was zu zeigen war.
2.3 Aufgabe 6
Start: Zu betrachten ist eine K-lineare Abbildung zwischen K-Vek-
torräumen f : V ✲ V ′ , ihre duale Abbildung f ∗ : V ′∗ ✲ V ∗ sowie
der sogenannte Cokern zu f ∗ , nämlich coker f ∗ = V ∗ / im f ∗ .
Ziel : Es ist ein kanonischer Isomorphismus coker f ∗ ∼✲ (ker f )∗
zu konstruieren.
Strategie: Das Ziel verlangt insbesondere, den linearen Unterraum
ker f ⊂ V zu betrachten sowie den zugehörigen Dualraum (ker f )∗ .
Dies führt uns darauf, die kanonische exakte Sequenz
f
(∗) 0 ✲ ker f ✲ V ✲ V′

anzuschauen, wie auch deren duale Sequenz


f∗
(∗∗) V ′∗ ✲ V∗ ✲ (ker f )∗ ✲ 0,

die nach 2.3/4 ebenfalls exakt ist. Um (ker f )∗ zu coker f ∗ in Relation


zu setzen, bietet sich der Homomorphiesatz 2.2/9 an.
Lösungsweg: Wir gehen von der exakten Sequenz (∗) aus und be-
trachten deren duale exakte Sequenz (∗∗). Dann ist V ∗ ✲ (ker f )∗
aufgrund der Exaktheit von (∗∗) eine surjektive K-lineare Abbildung,
406 8. Aufgabentrainer

deren Kern mit im f ∗ übereinstimmt. Der Homomorphiesatz 2.2/9 lie-


fert daher einen Isomorphismus coker f ∗ = V ∗ / im f ∗ ∼✲ (ker f )∗ ,
wie gewünscht.

Matrizen

3.1 Aufgabe 4
Start: Gegeben ist eine K-lineare Abbildung f : V ✲ W zwi-
schen K-Vektorräumen endlicher Dimension. Sei r = rg f = dimK f (V )
der Rang von f .
Ziel : Es sollen Basen X von V und Y von W konstruiert  werden,
so dass die zu f gehörige Matrix Af,X,Y die Gestalt E0r 00 mit der
(r × r)-Einheitsmatrix Er besitzt. Mit anderen Worten, wir müssen
Basen X = (x1 , . . . , xn ) von V und Y = (y1 , . . . , ym ) von W finden, so
dass gilt: (
yj für 1 ≤ j ≤ r,
f (xj ) =
0 für r < j ≤ n.
Insbesondere schließt dies die Abschätzungen r ≤ m und r ≤ n mit
ein.
Strategie: Jede K-lineare Abbildung f : V ✲ W bestimmt ge-
wisse charakteristische lineare Unterräume in V und W , nämlich
ker f ⊂ V und im f ⊂ W . Wenn es Basen X = (x1 , . . . , xn ) von V
und Y = (y1 , . . . , ym ) von W mit den gewünschten Eigenschaften gibt,
so gilt offenbar hy1 , . . . , yr i = hf (x1 ), . . . , f (xr )i = im f , da die Bilder
f (xr+1 ), . . . , f (xn ) verschwinden, also xr+1 , . . . , xn ∈ ker f gilt. Daraus
lesen wir ab, dass y1 , . . . , yr eine Basis von im f bilden. Weiter kön-
nen wir zeigen, dass xr+1 , . . . , xn eine Basis von ker f ⊂ V bilden. Das
System dieser Elemente ist einerseits linear unabhängig, sowie ande-
rerseits
P ein Erzeugendensystem von ker f . Sei nämlich x ∈ ker f und
x = nj=1 αj xj eine Darstellung als Linearkombination der Basis X.
Sodann gilt
X n X r Xr
0 = f (x) = αj f (xj ) = αj f (xj ) = αj yj
j=1 j=1 j=1
P
und damit αj = 0 für j = 1, . . . , r. Daher ergibt sich x = nj=r+1 αj xj ,
und man erkennt xr+1 , . . . , xn als Erzeugendensystem bzw. als Basis
von ker f .
3.1 Aufgabe 4 407

Aus den vorstehenden Überlegungen ist abzulesen, dass eine Basis


X von V zu konstruieren ist, die durch ker f führt, und eine Basis Y von
W , die durch im f führt. Zusätzlich ist zu realisieren, dass alle Elemente
von X, die nicht zu ker f gehören, auf Elemente von Y abgebildet
werden. An allgemeinen Konstruktionsprinzipien aus der Theorie der
Basen, die von Nutzen sein können, stehen insbesondere die Resultate
1.5/6 (Existenz von Basen in endlich erzeugten K-Vektorräumen) und
1.5/8 (Basisergänzungssatz) zur Verfügung. Außerdem schließen wir
mit 1.5/14 (i), dass jeder lineare Unterraum eines endlich erzeugten
K-Vektorraums eine (endliche) Basis besitzt.
Lösungsweg: Wir können ähnlich wie im Beweis zu 2.1/10 vorgehen.
Und zwar wählen wir eine Basis y1 , . . . , yr von im f und ergänzen diese
gemäß 1.5/8 durch Elemente yr+1 , . . . , ym zu einer Basis Y von W . So-
dann wählen wir Urbilder x1 , . . . , xr ∈ V zu den Elementen y1 , . . . , yr .
Sei weiter xr+1 , . . . , xn eine Basis von ker f . Wir behaupten, dass dann
X = (x1 , . . . , xn ) eine Basis von V ist. Zunächst wollen wir überprüfen,
dass X den P Vektorraum P V erzeugt. Zu x ∈ V gibt es α1 , . . . , αr ∈ K
mit f (x) = j=1 αj yj = rj=1 αj f (xP
r
j ), da y1 , . . . , yr ein Erzeugenden-
system von im f bilden. Es folgt x − rj=1 αjP xj ∈ ker f , und Pnes existie-
r
ren Koeffizienten Pnαr+1 , . . . , αn ∈ K mit x − j=1 αj xj = j=r+1 αi xi ,
also mit x = j=1 αj xj . Daher bilden x1 , . . . , xn ein Erzeugenden-
system von V . Dass dieses System auch linear Pn unabhängig ist, lässt
sich ebenfalls leicht nachrechnen. Gilt etwa j=1 αj xj = 0 für gewis-
se
PrKoeffizienten P αj ∈ K, so ergibt Anwenden von f die Gleichung
n
j=1 αj yj = f ( j=1 αj xj ) = 0, undP es folgt, dass die Koeffizienten
α1 , . . . , αr verschwinden. Also gilt nj=r+1 αj xj = 0, und wir können
αr+1 = . . . = αn = 0 schließen, da das System der xr+1 , . . . , xn linear
unabhängig ist.
Insgesamt erkennen wir daher X als Basis von V und stellen fest,
dass die Matrix Af,X,Y von der gewünschten Gestalt ist.
Ergänzungen: Ein weiterer Lösungsweg, der aufgrund unserer Stra-
tegiebetrachtungen vielleicht noch natürlicher erscheint, ist wie folgt:
Man wähle eine Basis X = (x1 , . . . , xn ) von V , die durch ker f führt.
Dabei nummerieren wir die Elemente x1 , . . . , xn so, dass sich die Ele-
mente der Basis von ker f am Schluss befinden, also so dass für einen
gewissen Index s ≥ 0 die Elemente xs+1 , . . . , xn eine Basis von ker f
bilden. Wir setzen sodann yi = f (xi ) für i = 1, . . . , s und behaupten,
408 8. Aufgabentrainer

dass die yi eine Basis von im f bilden. Natürlich erzeugen y1 , . . . , ys


den linearen Unterraum im f ⊂ W , sie bilden aber auch ein line-
ar unabhängiges System, da die durch Einschränken von f erklärte
K-lineare Abbildung hx1 , . . . , xs i ✲ im f zunächst surjektiv, wegen
hx1 , . . . , xs i ∩ ker f = 0 aber auch injektiv und damit ein Isomorphis-
mus von K-Vektorräumen ist. Insbesondere folgt s = rg f . Ergänzen
wir nun y1 , . . . , ys zu einer Basis von V , so besitzt die Matrix Af,X,Y
die gewünschte Gestalt.

3.1 Aufgabe 7
Start: Zu betrachten ist ein K-Vektorraum V 6= 0 mit einer
K-linearen Abbildung f : V ✲ V , die bezüglich einer Basis X durch
eine explizit gegebene Matrix Af,X,X ∈ K n×n beschrieben werde. Ins-
besondere ist X endlich, P etwa X = (x1 , . . . , xn ). Aus der Matrix Af,X,X
lesen wir f (xj ) = i<j xi für j = 1, . . . , n ab.
Ziel : Es ist dimK (ker f ) zu bestimmen.
Strategie: Grundsätzlich hat man bei einer explizit gegebenen li-
nearen Abbildung f : V ✲ V zwei Möglichkeiten, die Dimension des
Kerns zu bestimmen. Einmal kann man in direkter Weise den Kern
als linearen Unterraum von V bestimmen; im Allgemeinen bedeutet
dies die Lösung eines Systems linearer Gleichungen. Anschließend muss
man dann noch eine Basis des Kerns angeben, um dessen Dimension als
Länge der Basis abzulesen. Andererseits kann man aber auch die Di-
mensionsformel 2.1/10 benutzen. In diesem Fall ist lediglich der Rang
von f , also dimK (im f ) zu berechnen.
In unserem Fall sieht man sofort, dass die Vektoren f (x2 ), . . . , f (xn )
den linearen Unterraum hx1 , . . . , xn−1 i ⊂ V erzeugen und daher gemäß
1.5/9 ein linear unabhängiges System in V bilden. Wegen f (x1 ) = 0
gilt rg f = n − 1 und aufgrund der Dimensionsformel dimK (ker f ) = 1.
Andererseits “sieht” man aber auch in dieser Situation, dass ker f von
x1 erzeugt wird, woraus man ebenfalls dimK (ker f ) = 1 abliest.
Lösungsweg: Das Bild im f wird wegen f (x1 ) = 0 von den Vek-
toren f (xj ) mit j = 2, . . . , n erzeugt. Wir wollen für n ≥ 1 zeigen,
dass im f = hf (x2 ), . . . , f (xn )i = hx1 , . . . , xn−1 i gilt. Natürlich gilt
xn−1 i. Zum Nachweis der umgekehrten
hf (x2 ), . . . , f (xn )i ⊂ hx1 , . . . ,P
Inklusion nutzen wir f (xj ) = i<j xi = f (xj−1 )+xj−1 für j = 2, . . . , n,
also xj−1 = f (xj ) − f (xj−1 ) ∈ hf (x2 ), . . . , f (xn )i, was die gewünschte
3.1 Aufgabe 8 409

Gleichheit liefert. Es folgt dann rg f = dimK (im f ) = n − 1, und die


Dimensionsformel 2.1/10 liefert dimK (ker f ) = 1.
Ergänzungen: Auch der Kern von f kann in unserem Falle leicht
bestimmt werden. Zunächst gilt x1 ∈ ker f . Wenn wir dimK (ker f ) = 1
benutzen, ergibt sich bereits ker f = hx1 i. Aber wir können P dies auch
n
ohne Rückgriff auf die Dimensionsformel zeigen. Sei x = i=1 αi xi
ein Element von ker fP , also ein Vektor in V mit f (x) = 0. Wegen
f (x1 ) = 0 folgt dann ni=2 αi f (xi ) = 0 und damit α2 = . . . = αn = 0,
da f (x2 ), . . . , f (xn ) aufgrund von 1.5/9 ein linear unabhängiges System
bilden. Dies ergibt x ∈ hx1 i und daher ker f = hx1 i. Für komplizier-
tere Matrizen Af,X,X wird die explizite Bestimmung von ker f jedoch
wesentlich aufwendiger sein.
3.1 Aufgabe 8
Start: Zu betrachten ist eine Matrix N = (αij )i,j=1,...,m ∈ K m×m ,
m ≥ 1, mit Koeffizienten αij ∈ K, derart dass αij = 0 für i ≥ j
gilt. Es ist N also eine quadratische Matrix, deren Diagonalelemente
αii sämtlich verschwinden, ebenso wie alle Elemente αij unterhalb der
Diagonalen, also mit i > j. Lediglich oberhalb der Diagonalen dürfen
nicht-triviale Elemente αij vorkommen, also für i < j. Sei E ∈ K m×m
die Einheitsmatrix.
Ziel : Zu zeigen ist zunächst N m = 0. In einem weiteren Schritt soll
anhand des Vorbilds der geometrischen Reihe nachgewiesen werden,
dass die Matrix B = E + N invertierbar ist, dass also eine Matrix
C ∈ K m×m existiert mit BC = CB = E.
Strategie: Indem man zunächst das Quadrat N 2 betrachtet, stellt
man fest, dass die erste obere Nebendiagonale trivial wird, d. h. al-
le Elemente von N 2 an den Positionen (i, i + 1), i = 1, . . . , m − 1,
sind Null, wie auch alle Elemente unterhalb dieser Nebendiagonalen.
Weitere Multiplikation mit N zeigt dann, dass in N 3 zusätzlich alle
Elemente der zweiten oberen Nebendiagonalen trivial werden, also an
den Positionen (i, i + 2), i = 1, . . . , m − 2. Es gibt insgesamt m − 1
obere Nebendiagonalen, wobei die letzte nur aus einem Element an der
Position (1, m) besteht. Daher ist zu vermuten, dass in der Tat N m = 0
gilt. Wichtig bei
Pmdiesen Überlegungen ist die triviale Beobachtung, dass
das Produkt i=1 αi βi einer Zeile mit den Elementen α1 , . . . , αm und
einer Spalte mit den Elementen β1 , . . . , βm trivial ist, sobald es einen
Index s gibt mit αi = 0 für i ≤ s und βi = 0 für i > s.
410 8. Aufgabentrainer

Haben wir schließlich N m = 0 eingesehen, so gilt natürlich N µ = 0


für alle Exponenten µ ≥ m.PErsetzt man daher in der Formel für die
geometrische Reihe (1−q)· ∞ µ
µ=0 q = 1 den Parameter q durch N und
das Einselement 1 durch die Einheitsmatrix E, so sind beide Seiten der
Gleichung wohldefiniert, und man kann überprüfen, ob die Gleichheit
erhalten bleibt.
Lösungsweg: Wir betrachten die Matrix N = (αij )i,j=1,...,m mit
αij = 0 für i ≥ j, sowie eine weitere Matrix P = (βjk )j,k=1,...,m ∈ K m×m
mit einem Parameter s ∈ N, so dass βjk = 0 für j ≥ k − s gilt. Pm Sodann
bilden wir das Produkt N · P = (γik )i,k=1,...,m mit γik = j=1 αij βjk
und behaupten, dass γik = 0 gilt für alle i, k mit i ≥ k − s − 1.
Um dies einzusehen, wählen wir i, k ∈ {1, . . . , m} und betrachten
die Elemente αi1 , . . . , αim der i-ten Zeile von N und die Elemente
β1k , . . . , βmk der k-ten Spalte von P . Dabei verschwinden αi1 , . . . , αii
und βmax(1,k−s),k , . . . , βmk aufgrund unserer Annahme
P über N und P .
Dann verschwindet aber auch das Element γik = m j=1 αij βjk der Pro-
duktmatrix N · P , sofern i ≥ k − s − 1 gilt, da dann bei den einzelnen
Summanden immer einer der beiden Faktoren Null ist. Dies bestätigt
unsere Behauptung.
(µ)
Setzen wir nun speziell P = N µ = (βjk )j,k=1,...,m mit einem Expo-
(µ)
nenten µ ≥ 1, so folgt per Induktion βjk = 0 für j ≥ k − µ + 1, also
insbesondere N m = 0. Weiter gilt
m
X m
X m+1
X m
X m
X
µ µ µ µ
(E − N ) · N = N − N = N − N µ = E,
µ=0 µ=0 µ=1 µ=0 µ=1
P
und die gleiche Rechnung lässt sich für das Produkt ( m µ
µ=0 N )·(E−N )
durchführen. Daher ist E − N invertierbar in K m×m , und wir können
in ähnlicher Weise für E + N argumentieren, wenn wir N durch −N
ersetzen.
Ergänzungen: Alternativ lässt sich die Gleichung N m = 0 auch
ohne Rechnung einsehen. Dazu betrachten wir die durch N definierte
lineare Abbildung

f : Km ✲ K m, x ✲ N · x,

sowie die Kette linearer Unterräume 0 = U0 ⊂ U1 ⊂ . . . ⊂ Um = K m


mit Ui = he1 , . . . , ei i; dabei sei e1 , . . . , em die kanonische Basis von
3.2 Aufgabe 2 411

K m . Es ist N = (αij )i,j=1,...,m die beschreibende Matrix zu f bezüglich


dieser Basis, und das Verschwinden der Elemente αij für i ≥ j bedeutet
gerade f (Ui ) ⊂ Ui−1 für i = 1, . . . , m. Man sieht damit leicht per
Induktion, dass f µ (Um ) ⊂ Um−µ für µ = 0, . . . , m gilt, insbesondere
also f m (Um ) = 0 und daher f m = 0.
Schließlich wollen wir auch noch zeigen, dass die K-lineare Abbil-
dung id +f : K m ✲ K m injektiv und damit gemäß 2.1/11 ein Au-
tomorphismus ist. Sei nämlich x ∈ ker(id +f ). Dann gilt f (x) = −x,
und Anwenden von f liefert f 2 (x) = −f (x), also f 2 (x) = x. Mit voll-
ständiger Induktion schließt man f m (x) = (−1)m x und damit x = 0
wegen f m = 0. Folglich ist id +f ein Isomorphismus. Die zugehörige
Umkehrabbildung g : K m ✲ K m ist gemäß 2.1/2 linear und erfüllt
g ◦ (id +f ) = id = (id +f ) ◦ g. Übersetzt in die Welt der Matrizen
bedeutet dies mit 3.1/9, dass (E + N ) invertierbar ist.
3.2 Aufgabe 2
Start: Zu betrachten ist eine konkret gegebene Matrix A ∈ K 3×4
über dem Körper K = Q bzw. K = F5 . Dabei ist F5 der Körper mit
5 Elementen, nämlich bestehend aus dem Nullelement 0, dem Einsele-
ment 1 und den Elementen

2 · 1 = 1 + 1,
3 · 1 = 1 + 1 + 1,
4 · 1 = 1 + 1 + 1 + 1.

Für n = 0, 1, 2, 3, 4 schreiben wir wieder n anstelle von n · 1. Allgemein


gilt dann n·1 = r, wobei r der (nicht-negative) Rest von n bei Division
durch 5 ist.
Ziel : Es ist der Zeilenrang von A zu berechnen, jeweils für K = Q
und K = F5 .
Strategie: Es bietet sich das Gaußsche Eliminationsverfahren aus
3.2/4 an.
Lösungsweg: Wir bringen A auf Zeilenstufenform, zunächst für den
Körper K = Q:
     
1 1 3 2 1 1 3 2 1 1 3 2 
✲ ✲
  
A =1 1 2 3 0 0 -1 1 0 0 -1 1 
 
 
0 0 -3 -2 0 0 0 -(3 + 2)
     
1 1 0 0
412 8. Aufgabentrainer

Für K = Q liest man daraus rg A = 3 ab. Im Falle K = F5 können wir


dieselbe Rechnung durchführen, wobei das Minuszeichen jeweils besagt,
dass das entsprechende negative Element, also das inverse Element
bezüglich der Addition zu betrachten ist. Nun gilt aber 3 + 2 = 0 in
F5 und somit rg A = 2 im Falle K = F5 .
3.2 Aufgabe 5
Start: Zu betrachten sind zwei lineare Unterräume U = ha1 , a2 , a3 i
und U ′ = ha′1 , a′2 , a′3 i von R5 mit konkret gegebenen Vektoren a1 , a2 , a3
bzw. a′1 , a′2 , a′3 .
Ziel : Die Dimensionen dimR U und dimR U ′ sind zu berechnen, und
es ist U ⊂ U ′ zu zeigen.
Strategie: Das Resultat 3.2/11 liefert uns eine Möglichkeit, die Di-
mension von linearen Unterräumen in R5 zu berechnen, wenn jeweils
ein (endliches) Erzeugendensystem bekannt ist. Wir sollten daher die
Vektoren ai und a′i als Spaltenvektoren auffassen und daraus Matrizen
aufbauen, etwa
A = (a1 , a2 , a3 ), A′ = (a′1 , a′2 , a′3 ) ∈ R5×3 .
Mit 3.2/11 lassen sich die Ränge von A und A′ und damit die Dimen-
sionen von U und U ′ berechnen. Zum Nachweis von U ⊂ U ′ sollten
wir überlegen, ob hier auch ein Dimensions- bzw. Rangargument zum
Ziel führen könnte. Beispielsweise können wir mit 1.5/14 (ii) von ei-
ner Inklusion linearer Unterräume auf deren Gleichheit schließen, wenn
die Dimensionen dieser Unterräume übereinstimmen und endlich sind.
Dies bringt uns auf die Idee, dass U ⊂ U ′ äquivalent ist zu U ′ = U + U ′
und damit wegen U ′ ⊂ U +U ′ auch zu dimK U ′ = dimK (U + U ′ ). Letz-
tere Beziehung lässt sich mittels rg(A′ ) = rg(A, A′ ) nachprüfen, wobei
(A, A′ ) die aus den Spalten a1 , a2 , a3 , a′1 , a′2 , a′3 aufgebaute Matrix be-
zeichnet.
Lösungsweg: Wir berechnen zunächst eine Zeilenstufenform der aus
den Spaltenvektoren a′1 , a′2 , a′3 , a1 , a2 , a3 aufgebauten Matrix (A′ , A):
   

1 1 1 1 2 0 
1 1 1 1 2 0
-1 3 2 0 3 3 0 4 3 1 5 3
 
 
✲
   
 1 3 3 1 4 2 0 2 2 0 2 2

 
   
 0 1 1 0 1 1 0 1 1 0 1 1
 
 
   
2 1 2 1 2 0 0 -1 0 -1 -2 0
3.2 Aufgabe 5 413
   

1 1 1 1 2 0 
1 1 1 1 2 0
0 1 1 0 1 1 0 1 1 0 1 1
 
 
✲ ✲
   
0

4 3 1 5 3


0

0 -1 1 1 -1

0 2 2 0 2 2 0 0 0 0 0 0
 
 
   
0 -1 0 -1 -2 0 0 0 1 -1 -1 1
 
1 1
1 1 2 0
10 1 0 1 1



 
00


-1 1 1 -1


00 0 0 0 0


 
0 0 0 0 0 0

Aus 3.2/11 lesen wir ab, dass U ′ , also der von den Spalten von A′
erzeugte lineare Unterraum von R5 , die Dimension 3 hat, ebenso wie
der von den Spalten von (A′ , A) erzeugte lineare Unterraum, der mit
U + U ′ übereinstimmt. Es gilt also dimK U ′ = dimK (U + U ′ ). Indem
wir U ′ ⊂ U + U ′ nutzen, ergibt sich U ′ = U + U ′ mit 1.5/14 (ii) und
damit U ⊂ U ′ .
Es bleibt noch die Dimension von U , also der Rang von A, zu
bestimmen. Hierzu bringen wir die Matrix A auf Zeilenstufenform:
     

1 2 0 1 2 
0 
1 2 0
0 3 3 3 0 3 0 1 1
  
  
✲ ✲
     
1 4 2 2 0 2 0 0 0
  
  
     
0 1 1 1 0 1 0 0 0
  
  
     
1 2 0 0 0 0 0 0 0

Es folgt rg A = 2 und dimK U = 2 mit 3.2/11.


Ergänzungen: Man beachte, dass wir keine Möglichkeit besitzen,
den Rang von A aus einer Zeilenstufenform der Matrix (A′ , A) in direk-
ter Weise abzulesen. Allerdings könnten wir aus den letzten 3 Spalten
der Zeilenstufenform von (A′ , A) eine neue Matrix bilden und diese
dann auf Zeilenstufenform transformieren. Da die resultierende Ma-
trix letztendlich aus A durch elementare Zeilenumformungen gewonnen
wird, stimmt ihr Rang mit der Dimension von U überein. In unserem
Falle ist dieses Verfahren geringfügig einfacher als A separat auf Zei-
lenstufenform zu transformieren.
414 8. Aufgabentrainer

3.2 Aufgabe 9
Start: Es sei F2 der Körper mit 2 Elementen, also bestehend aus
dem Nullelement 0 und dem Einselement 1, wobei 1 + 1 = 0 gilt. Zu
betrachten ist der F2 -Vektorraum F2000
2 mit einem linearen Unterraum
U ⊂ F2 , der von einer Familie von Vektoren (vi )i=1,...,2000 erzeugt
2000

wird. Die Vektoren vi = (vij )j=1,...,2000 sind (unter Ausnutzung von


1 + 1 = 0) wie folgt definiert:


 0 für i ≡ 1, 2, 3, 5, 6, 7(8) und j beliebig

0 für i ≡ 4(8) und j = i
vij =

 0 für i ≡ 0(8) und j ∈ {i − 1, i + 1}


1 sonst
Dabei bedeutet i ≡ r(n) für natürliche Zahlen i ∈ N, n > 0 und
r ∈ {0, . . . , n − 1}, dass i bei Division durch n den Rest r lässt.
Ziel : Man gebe eine Basis von U an und bestimme dimF2 U .
Strategie: Es bietet sich an, die Vektoren vi im Hinblick auf 3.2/11
als Spaltenvektoren einer Matrix A aufzufassen. Wir können dann ver-
suchen, A mittels elementarer Zeilenumformungen auf Zeilenstufen-
form zu bringen, so dass man unter Verwendung von 3.2/11 die Di-
mension wie auch eine Basis von U ablesen kann. Dabei genügt es, nur
Vektoren vi 6= 0 zu betrachten, also zu Indizes i ≡ 0(4). Um das Prinzip
der erforderlichen Umformungen zu verstehen, wähle man einmal einen
überschaubaren Anteil der linken oberen Ecke von A aus und transfor-
miere diesen auf Zeilenstufenform. Dabei gewinnt man den Eindruck,
dass die Vektoren vi mit i ≡ 0(4) ein linear unabhängiges System bil-
den. Man kann daher zunächst versuchen, dies in konventioneller Weise
nachzuprüfen, durch Ansatz einer Linearkombination, welche die Null
darstellt.
Lösungsweg: Wir brauchen nur die Vektoren vi mit einem Index
i ≡ 0(4) zu berücksichtigen, da alle anderen trivial sind. Um zu zeigen,
dass diese Vektoren ein linear unabhängiges System bilden, betrachten
wir eine Gleichung 500
X
(∗) αk v4·k = 0
k=1
mit Koeffizienten αk ∈ F2 . Indem wir vi = (vij )j=1,...,2000 schreiben,
ergibt sich v4·k,1 = 1 für k = 1, . . . , 500. Damit folgt aus (∗) die Glei-
chung
3.3 Aufgabe 3 415

500
X
(∗∗) αk = 0.
k=1

Um zu zeigen, dass die Koeffizienten αk verschwinden, wählen wir einen


Index k0 ∈ {1, . . . , 500} und nehmen k0 zunächst als ungerade an. Für
j0 = 4k0 ergibt sich dann jP 0 ≡ 4(8), und es gilt v4·k,j0 = 0 genau
für k = k0 . Dies bedeutet k6=k0 αk = 0 und zusammen mit (∗∗)
sogar αk0 = 0. Sei andererseits k0 gerade und j0 = 4kP 0 + 1. Es gilt
v4·k,j0 = 0 genau für k = k0 . Entsprechend ergibt sich k6=k0 αk = 0
und zusammen mit (∗∗) auch αk0 = 0 für gerades k0 . Insgesamt folgt
αk = 0 für alle k = 1, . . . , 500. Die Vektoren vi mit i ≡ 0(4) sind daher
linear unabhängig und bilden eine Basis von U . Diese Basis besteht
aus 500 Elementen, so dass dimF2 U = 500 folgt.
Ergänzungen: Zur Lösung des Problems kann man natürlich die
Vektoren vi auch als Spaltenvektoren einer Matrix A auffassen, also

A = (vij )j,i=1,...,2000 ,

mit j als Zeilen- und i als Spaltenindex. Es macht dann ein wenig
mehr Aufwand, die Elemente vij zeilenweise zu beschreiben, also ge-
ordnet nach dem Zeilenparameter j von A. Sodann lässt sich A aber
problemlos mittels elementarer Zeilenumformungen auf Zeilenstufen-
form transformieren, und man erhält auch hier das gewünschte Resul-
tat, dass nämlich die Vektoren v4·k mit k = 1, . . . , 500 eine Basis von
U bilden.
3.3 Aufgabe 3
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum U mit
einem Endomorphismus f : U ✲ U.
Ziel : Es ist die Äquivalenz folgender Aussagen zu zeigen:
(i) rg f < dimK U
(ii) Es existiert eine K-lineare Abbildung g : U ✲ U , g 6= 0, mit
f ◦ g = 0.
(iii) Es existiert eine K-lineare Abbildung g : U ✲ U , g 6= 0, mit
g ◦ f = 0.
Strategie: Für Endomorphismen f, g : U ✲ U ist f ◦ g = 0 äqui-
valent zu im g ⊂ ker f und, entsprechend, g ◦ f = 0 zu im f ⊂ ker g. Es
geht also bei der Lösung darum, K-lineare Abbildungen g : U ✲U
416 8. Aufgabentrainer

mit gewissen Anforderungen an das Bild bzw. den Kern zu konstruie-


ren. Hilfreich ist dabei das Resultat 2.1/7 (ii), das es ermöglicht, eine
lineare Abbildung g : U ✲ U zu erklären, indem man eine Basis von
U auswählt und deren gewünschte Bilder unter g angibt. Zudem haben
wir mit dem Basisergänzungssatz 1.5/8 sowie den Resultaten 1.5/6 und
1.5/14 (i) flexible Instrumente zur Wahl von Basen.
Lösungsweg: Gelte zunächst (i), also rg f < dimK U . Um Aus-
sage (ii) herzuleiten, wähle man eine Basis x1 , . . . , xm von ker f und
ergänze diese durch Vektoren xm+1 , . . . , xn ∈ U zu einer Basis von U .
Mit rg f < dimK U ergibt sich

m = dimK (ker f ) = dimK U − rg f > 0

aufgrund der Dimensionsformel 2.1/10. Sodann betrachten wir die


durch lineare Ausdehnung definierte K-lineare Abbildung
(
✲ U, ✲
xi für i = 1, . . . , m
g: U xi .
0 für i = m + 1, . . . , n

Diese erfüllt f ◦ g = 0 wegen im g ⊂ ker f und ist zudem nicht trivial,


da m > 0 gilt. Es ergibt sich also (ii) aus (i).
Sei nun (ii) gegeben mit einer K-linearen Abbildung g : U ✲ U,
derart dass man g 6= 0 und f ◦ g = 0 hat. Dann gilt 0 6= im g ⊂ ker f
und daher rg f < dimK U aufgrund der Dimensionsformel 2.1/10, also
folgt (i).
Sei schließlich nochmals (i) gegeben. Um daraus (iii) zu folgern,
wählen wir eine Basis x1 , . . . , xm von im f und ergänzen diese durch
Vektoren xm+1 , . . . , xn zu einer Basis von U . Man betrachte sodann die
durch lineare Ausdehnung definierte K-lineare Abbildung
(
✲ U, ✲
0 für i = 1, . . . , m
g: U xi .
xi für i = m + 1, . . . , n

Diese ist nicht-trivial wegen m < n und erfüllt im f ⊂ ker g, also


g ◦ f = 0. Somit ergibt sich (iii) aus (i).
Sei umgekehrt (iii) gegeben, und sei g : U ✲ U eine nicht-triviale
K-lineare Abbildung mit g ◦ f = 0. Dann folgt dimK (ker g) < dimK U
wegen g 6= 0, also mit im f ⊂ ker g auch rg f < dimK U und damit (i).
3.3 Aufgabe 7 417

Ergänzungen: Man kann sich überlegen, dass die Äquivalenz der


Aussagen (ii) und (iii) für Endomorphismen f : U ✲ U eines
K-Vektorraums U von unendlicher Dimension ihre Gültigkeit verliert.
Hat man beispielsweise ker f 6= 0, aber im f = U , so folgt g = 0
für jede K-lineare Abbildung g : U ✲ U mit g ◦ f = 0. Anderer-
seits gibt es aber wegen ker f 6= 0 nicht-triviale K-lineare Abbildungen
g: U ✲ U mit f ◦ g = 0; man verallgemeinere das oben angewandte
Konstruktionsverfahren auf den Fall von Basen beliebiger Länge.
Hat man andererseits ker f = 0 und im f ( U , so ist jede K-lineare
Abbildung g : U ✲ U mit f ◦ g = 0 trivial, obwohl es nicht-triviale
K-lineare Abbildungen g : U ✲ U mit g ◦ f = 0 gibt. Auch hier
verwende man das obige Konstruktionsverfahren, verallgemeinert auf
den Fall von Basen beliebiger Länge.
3.3 Aufgabe 7
Start: Es sind Matrizen A ∈ K m×m , B ∈ K m×s , C ∈ K r×m und
D ∈ K r×s für m, r, s ∈ N − {0} gegeben,
 wobei A invertierbar sei. Die
A B
zusammengesetzte Matrix T = ∈ K (m+r)×(m+s) besitze den
C D
Rang m.
Ziel : Es ist D = C · A−1 · B zu zeigen.
Strategie: Zunächst ist nicht unmittelbar einzusehen, dass D auf-
grund der gestellten Rangbedingungen, also rg A = m = rg T , eindeu-
tig durch A, B und C bestimmt sein soll. Um der Sache auf den Grund
zu gehen, liegt es nahe, die Situation mittels elementarer Zeilenumfor-
mungen zu untersuchen. Es ist A invertierbar, also lässt sich A mittels
elementarer Zeilenumformungen in die Einheitsmatrix Em ∈ K m×m
überführen. Jede dieser Zeilenumformungen entspricht der Multiplika-
tion mit einer entsprechenden Elementarmatrix aus K m×m von links,
wobei das Produkt aller dieser Elementarmatrizen gerade A−1 ergibt.
Nun führen wir alle diese Zeilenumformungen, also Multiplikation mit
A−1 von links, an der Matrix (A, B) aus und erhalten als Zeilenstu-
fenform die Matrix (Em , A−1 · B). Dieselben elementaren Zeilenum-
formungen können wir auch an der Matrix T durchführen, was einer
Multiplikation von links mit einer Matrix entspricht, die sich aus A−1
und der Einheitsmatrix Er ∈ K r×r zusammensetzt:
 −1     
A 0 A B ′ ′ Em A−1 B
· = T mit T =
0 Er C D C D
418 8. Aufgabentrainer

Wir können nun weitere elementare Zeilenumformungen auf T ′ anwen-


den mit dem Ziel, C dabei in die Nullmatrix zu überführen. Dazu gehen
wir standardmäßig vor, indem wir nacheinander für alle 1 ≤ i ≤ r und
1 ≤ j ≤ m den Koeffizienten von C an der Position (i, j) mit der j-ten
Zeile von (Em , A−1 ·B) multiplizieren und dieses Vielfache von der i-ten
Zeile von (C, D) subtrahieren. Sobald anstelle von C die Nullmatrix er-
reicht ist, muss bereits eine Zeilenstufenform von T bzw. T ′ vorliegen,
also D ebenfalls in die Nullmatrix überführt worden sein, da anderen-
falls rg T = rg T ′ > m gelten würde. Wenn wir die einzelnen Schritte
dieser Transformation auf Zeilenstufenform genau verfolgen, sehen wir
(in etwas aufwendiger Weise), dass D hierbei durch D − C · A−1 · B
ersetzt wird, also letztendlich D = C · A−1 · B gilt.
Lösungsweg: Mit der Einheitsmatrix Er ∈ K r×r folgt wie bereits
oben eingesehen:
 −1     
A 0 A B ′ Em A−1 B
· =T =
0 Er C D C D

Dabei kann man beobachten, dass sich die Vorschrift für das Multi-
plizieren von (2 × 2)-Matrizen auf die Multiplikation von Kästchen-
matrizen geeigneter Zeilen- und Spaltenanzahlen überträgt, wenn man
das gewöhnliche Produkt der Koeffizienten durch das Matrizenprodukt
ersetzt. Wir bringen nun T ′ mittels elementarer Zeilenumformungen
auf Zeilenstufenform, indem wir geeignete Vielfache der Zeilen von
(Em , A−1 · B) von den Zeilen von (C, D) subtrahieren, und zwar mit
dem Ziel, C durch die Nullmatrix zu ersetzen. Wie oben erklärt, wird
dabei die Matrix D aus Ranggründen ebenfalls in die Nullmatrix über-
führt. Nun entspricht aber eine elementare Zeilenumformung des benö-
tigten Typs, also Addition des α-fachen einer j-ten Zeile, 1 ≤ j ≤ m,
zu einer i-ten Zeile, m + 1 ≤ i ≤ m + r, der Multiplikation mit der
Elementarmatrix
  E + αEij von links, also mit einer Matrix des Typs
Em 0
mit geeignetem P ∈ K r×m . Da ein Produkt von Matrizen
P Er
dieses Typs wieder von diesem Typ ist, gibt es eine Matrix P ∈ K r×m ,
so dass gilt:
      
Em 0 Em A−1 B Em A−1 B Em A−1 B
· = =
P Er C D P + C P A−1 B + D 0 0
3.3 Aufgabe 7 419

Hieraus liest man P = −C und dann wie gewünscht D = C · A−1 · B


ab.
Ergänzungen: Wir wollen noch eine alternative Lösung anführen,
welche die gegebenen Matrizen als lineare Abbildungen interpretiert
und damit elementare Zeilenumformungen und Rechnungen auf dem
Niveau der Matrizen vermeidet. Die Matrizen A, B, C und D liefern
ein Diagramm K-linearer Abbildungen
A
Km ✲ Km
C B ✲


D
K s ✲ Kr
mit einem Isomorphismus A. Zu zeigen ist, dass die Abbildungen
Ks ✲ K r , die durch D und C ◦ A−1 ◦ B gegeben werden, über-
einstimmen. Um dies nachzuweisen, identifizieren wir K m+s mit der
direkten Summe K m ⊕ K s und entsprechend
 K
m+r
mit K m ⊕ K r .
A B
Sodann betrachten wir die durch T = gegebene lineare Ab-
C D
bildung

T : Km ⊕ Ks ✲ Km ⊕ Kr, x⊕y ✲ (Ax ⊕ Cx) + (By ⊕ Dy).

Sei nun H : K m ⊕ K r ✲ K m die Projektion auf den ersten Summan-


den. Es gilt rg T = m nach Voraussetzung, aber auch rg(H ◦ T ) = m,
da die Komposition
T |K m H
Km ✲ Km ⊕ Kr ✲ Km

mit A übereinstimmt und somit ein Isomorphismus ist. Insbesondere


ist die von H induzierte lineare Abbildung im T ✲ K m ein Isomor-
phismus, da deren Rang m ist.
Wir wählen ein Element y ∈ K s und betrachten hierzu das Element
x = A−1 By ∈ K m . Es wird x unter T auf Ax ⊕ Cx = By ⊕ CA−1 By
abgebildet, sowie y auf By ⊕ Dy. Beide Bilder projizieren sich unter
H auf By ∈ K m . Da nun H einen Isomorphismus im T ∼✲ K m
induziert, erhalten wir Dy = CA−1 By für alle y ∈ K s und damit
D = CA−1 B.
420 8. Aufgabentrainer

3.4 Aufgabe 1
Start: Zu betrachten sind zwei Systeme X und Y bestehend aus
konkret gegebenen Vektoren x1 , . . . , x5 bzw. y1 , . . . , y5 ∈ R5 .
Ziel : Es soll gezeigt werden, dass X und Y Basen von R5 bilden.
Die Basiswechselmatrizen Aid,X,Y und Aid,Y,X sind zu berechnen.
Strategie: Um nachzuweisen, dass X und Y Basen von R5 bilden,
genügt es zu zeigen, dass X und Y linear unabhängig sind. Wir kön-
nen hierfür das Gaußsche Eliminationsverfahren in der Form 3.2/4 oder
3.2/11 verwenden. Dann könnten wir zur Bestimmung der P Basiswech-
5
selmatrizen, etwa für Aid,X,Y , Linearkombinationen xj = i=1 αij yi ,
j = 1, . . . , 5, ansetzen und versuchen, die Koeffizienten αij ∈ R zu
berechnen. Im Prinzip handelt es sich um ein System von 25 linearen
Gleichungen in den 25 Unbekannten αij , das auf den ersten Blick nicht
sehr zugänglich erscheint. Man kann das Gleichungssystem jedoch re-
lativ einfach lösen, wie wir später als Ergänzung noch erklären werden.
Zunächst sollten wir aber versuchen, die behandelte Theorie des
Basiswechsels anzuwenden. Interpretieren wir die xj als Spaltenvekto-
ren, so fällt auf, dass A = (x1 , . . . , x5 ) gerade die Basiswechselmatrix
Aid,X,E ergibt, für die kanonische Basis E von R5 . Entsprechend gilt
B = (y1 , . . . , y5 ) = Aid,Y,E , wenn wir die yi als Spalten einer Matrix B
auffassen. Nun können wir aber den Basiswechsel von X zu Y zusam-
mensetzen aus einem Basiswechsel von X zu E und dann von E zu Y .
Dabei gilt aufgrund von 3.1/9 und 3.4/2:

Aid,X,Y = Aid,E,Y · Aid,X,E = A−1


id,Y,E · Aid,X,E = B
−1
·A
Aid,Y,X = Aid,E,X · Aid,Y,E = A−1
id,X,E · Aid,Y,E = A
−1
·B

Neben der Ausführung des Matrizenprodukts haben wir also lediglich


die Matrizen A und B zu invertieren, was wie im Abschnitt 3.3 be-
schrieben unter Verwendung elementarer Zeilenumformungen gesche-
hen kann.
Lösungsweg: Um zu zeigen, dass die Systeme X und Y Basen von
R5 bilden, genügt es zu zeigen, dass diese Systeme linear unabhängig
sind. Indem wir die gegebenen Vektoren als Spaltenvektoren auffassen
und die Matrizen A = (x1 , . . . , x5 ) sowie B = (y1 , . . . , y5 ) betrachten,
ist dann rg A = 5 = rg B zu zeigen. Wir bestimmen nun für bei-
de Matrizen Zeilenstufenformen. Ergibt sich dabei Rang 5, so können
wir durch weitere elementare Zeilenumformungen die Einheitsmatrix
3.4 Aufgabe 1 421

E5 ∈ R5×5 als Zeilenstufenform erreichen. Gleichzeitig wenden wir die


benötigten Umformungen auch auf E5 an, so dass sich hieraus am Ende
die Inversen A−1 bzw. B −1 ergeben. Wir beginnen mit der Matrix A:
     

1 1 1 1 0 
1 1 1 1 0 
1 1 1 1 0
1

0 1 1 1


 0 -1 0 0 1


 0 -1 0 0 1

(1) (2)
✲ ✲
     
A: 
1

2 1 2 1





0 1 0 1 1





0 0 0 1 2


2


1 2 1 2





0 -1 0 -1 2





0 0 0 -1 1


0 0 1 0 0 0 0 1 0 0 0 0 1 0 0
     
1 0

0 0 0 
1 0 0 0 0 
1 0 0 0 0
01 0 0 0 -1 1 0 0 0 -1 1 0 0 0
  
  
(1) (2)
✲ ✲
     
E5 : 00 1 0 0 -1 0 1 0 0 -2 1 1 0 0
  
  
     
00 0 1 0 -2 0 0 1 0 -1 -1 0 1 0
  
  
     
0 0 0 0 1 0 0 0 0 1 0 0 0 0 1

(1) : 1. Zeile von 2. und 3. Zeile subtrahieren, 2-faches der 1. Zeile von
4. Zeile subtrahieren
(2) : 2. Zeile zu 3. Zeile addieren und von 4. Zeile subtrahieren
     
1 1 1 1 0 1 1 1 1 0 1 1 1 1 0
A   

 0 1 0 0 -1

 0 1 0 0 -1

 0 1 0 0 0

(3)  (4) (5)
✲ ✲ ✲
    


0 0 1 0 0




0 0 1 0 0




0 0 1 0 0





0 0 0 1 2




0 0 0 1 2




0 0 0 1 0


0 0 0 -1 1 0 0 0 0 1 0 0 0 0 1
     
1 0 0 0 0 1 0 0 0 0 1 0 0 0 0
E5 
  
 1 -1 0 0 0  1 -1 0 0 0  0 -1 31 13 0
    
     
(3)  (4)  (5) 
✲ ✲ ✲
  
 0 0 0 0 1
  0 0 0 0 1  0 0 0 0 1 
     
-2 -2 1 2
1 1 0 0 1 1 0 0  0 1 3 - 3 0
     
     
     
1 1 1 1
-1 -1 0 1 0 -1 0 3 3
0 -1 0 3 3 0

(3) : 2. Zeile mit −1 multiplizieren, 5. Zeile mit 3. und 4. Zeile vertau-


schen
(4) : 4. Zeile zu 5. Zeile addieren, 5. Zeile mit 31 multiplizieren; Zeilen-
stufenform von A ist erreicht, es gilt rg A = 5, also ist A invertierbar
(5) : 5. Zeile zu 2. Zeile addieren, 2-faches der 5. Zeile von 4. Zeile
subtrahieren
422 8. Aufgabentrainer
     
1 1 1 0 0 1 1 0 0 0 1 0 0 0 0
A   

 0 1 0 0 0


 0 1 0 0 0


 0 1 0 0 0

(6)  (7) (8)
✲ ✲ ✲
    


0 0 1 0 0





0 0 1 0 0





0 0 1 0 0





0 0 0 1 0





0 0 0 1 0





0 0 0 1 0


0 0 0 0 1 0 0 0 0 1 0 0 0 0 1
-1 - 31 23 -1 - 13 32 -1 0 - 23 13 -1
     
1 0 1 1
E5 
  
 0 -1 31 13 0  0 -1 13 31 0  0 -1 31 13 0
    
     
(6)  (7)  (8) 
✲ ✲ ✲
  
 0 0 0 0 1  0 0 0 0 1
  0 0 0 0 1
     
 0 1 31 - 23 0  0 1 13 - 32 0  0 1 31 - 23 0
     
     
     
-1 0 31 13 0 -1 0 13 31 0 -1 0 31 13 0
(6) : 4. Zeile von 1. Zeile subtrahieren
(7) : 3. Zeile von 1. Zeile subtrahieren
(8) : 2. Zeile von 1. Zeile subtrahieren; insgesamt ist A mittels ele-
mentarer Zeilenumformungen in die Einheitsmatrix E5 überführt und
gleichzeitig E5 in die inverse Matrix A−1
Als Nächstes behandeln wir die Matrix B:
     

1 1 1 2 0 
1 1 1 2 0 
1 1 1 2 0
2

1 3 3 0 0

-1 1 -1 0
 0

-1 1 -1 0

(1)  (2) 
✲ ✲
   
B: 
3

2 4 5 1

0

-1 1 -1 1


0

0 0 0 1


4


3 6 6 1

0


-1 2 -2 1


0


0 1 -1 1


4 4 7 8 1 0 0 3 0 1 0 0 3 0 1
     

1 0 0 0 0 
1 0 0 0 0 
1 0 0 0 0
0 1 0 0 0 -2 1 0 0 0 -2 1 0 0 0
  
  
(1)  (2) 
✲ ✲
   
E5 : 
0 0 1 0 0
 -3 0 1 0 0 -1 -1 1 0 0
     
0 0 0 1 0 -4 0 0 1 0 -2 -1 0 1 0
  
  
     
0 0 0 0 1 -4 0 0 0 1 -4 0 0 0 1
(1) : 2-faches der 1. Zeile von der 2. Zeile subtrahieren, ebenso 3-faches
von der 3. Zeile, 4-faches von der 4. Zeile und 4-faches von der 5. Zeile
(2) : 2. Zeile subtrahieren von der 3. und 4. Zeile
     
1 1 1 2 0 1 1 1 2 0 1 1 1 2 0
B   
0

1 -1 1 0
 0

1 -1 1 0
 0

1 -1 1 0
(3)  (4)  (5) 
✲ ✲ ✲
  
0

0 1 -1 1


0

0 1 -1 1


0

0 1 -1 0

0


0 3 0 1


0


0 0 3 -2


0


0 0 1 0

0 0 0 0 1 0 0 0 0 1 0 0 0 0 1
3.4 Aufgabe 1 423
     
1 0 0 0 0 1 0 0 0 0 1 0 0 0 0
E5   
 2

-1 0 0 0
  2

-1 0 0 0
  2

-1 0 0 0 
(3)  (4)  (5) 
✲ ✲ ✲
  
-2 -1 0 1 0
 -2 -1 0 1 0
 -1 0 -1 1 0 

1 2 1
     
-4 0 0 0 1  2 3 0 -3 1  0 -1
  
3 3 3
  
    
-1 -1 1 0 0 -1 -1 1 0 0 -1 -1 1 0 0

(3) : 2. Zeile mit −1 multiplizieren, 3. Zeile mit 4. und 5. Zeile vertau-


schen
(4) : 3-faches der 3. Zeile von 4. Zeile subtrahieren; Zeilenstufenform
von A ist erreicht, es gilt rg A = 5, also ist A invertierbar
(5) : 5. Zeile von 3. Zeile subtrahieren, 2-faches der 5. Zeile zu 4. Zeile
addieren, 4. Zeile mit 31 multiplizieren
     
1 1 1 0 0 1 1 0 0 0 1 0 0 0 0
B   

 0 1 -1 0 0


 0 1 0 0 0


 0 1 0 0 0

(6)  (7) (8)
✲ ✲ ✲
    


0 0 1 0 0





0 0 1 0 0





0 0 1 0 0





0 0 0 1 0





0 0 0 1 0





0 0 0 1 0


0 0 0 0 1 0 0 0 0 1 0 0 0 0 1
1 - 23 - 43 2 - 23  2 -1 -1 2 -1  1 0 0 1 -1 
     

E5 
  
 2 - 34 - 23 1 - 13  -1 -1 1 0 
 1 -1 -1 1 0 
 1
    
     
(6)  (7) (8)
✲ 1 1 1 ✲ 1 1 1 ✲ 1 1 1
    
-1 - 0 -1 - 0 -1 - 0
 
3 3 3 3 3 3 3 3 3
  
  
1 2
 0 -1 13  1
 0 2
-1 13  1
 0 2
-1 13 
     

 3 3 


 3 3 


 3 3 

-1 -1 1 0 0 -1 -1 1 0 0 -1 -1 1 0 0

(6) : 2-faches der 4. Zeile von 1. Zeile subtrahieren, 4. Zeile von 2. Zeile
subtrahieren und zu 3. Zeile addieren
(7) : 3. Zeile von 1. Zeile subtrahieren, zu 2. Zeile addieren
(8) : 2. Zeile von 1. Zeile subtrahieren; insgesamt ist B mittels ele-
mentarer Zeilenumformungen in die Einheitsmatrix E5 überführt und
gleichzeitig E5 in die inverse Matrix B −1
Als Resultat der Rechnungen erhalten wir also:

0 - 23 13 -1 1 0 0 1 -1 
   

1 
 0 -1 31 13 0  1 -1 -1 1 0 
   
   
A−1 B −1 1 1 1
   
=
 0

0 0 0 ,
1

=


-1 3
- 3
0 3


 0 1 31 - 23 0  0 1 2 1
-1 3 
  





 3 3 

-1 0 31 13 0 -1 -1 1 0 0
424 8. Aufgabentrainer

Wir haben bereits bei den Strategieüberlegungen erläutert, dass die


Matrizen A und B gerade die Basiswechselmatrizen Aid,X,E und Aid,Y,E
für die kanonische Basis E von R5 darstellen und dass sich daraus die
gefragten Basiswechselmatrizen zwischen X und Y wie folgt berechnen
lassen:
1 0 0 1 -1  1
     
1 1 1 0  3 2 2 2 2
Aid,X,Y

 1 -1 -1 1 0  1 0 1 1 1 0 1 -1
  1 0
     

   
−1 1 1 1
- 53 - 32 - 34
     
=B A= 

-1 3 - 3 0 3  · 1
 

2 1 2  =-1
1
 

0

 0 1 2
-1 1  1
- 32 32
 -1 -1
2 1 2 1 2
    


 3 3 3 

  3 

-1 -1 1 0 0 0 0 1 0 0 -1 1 -1 0 0
0 - 23 13 -1 1 0 - 11 - 10 - 20 - 22 - 43 
     
1 1 1 2 3 3 3 3
Aid,Y,X

-1 31 13
  1 2 1 2 2
 0 0
 2 1 3 3 0
  
  
   3 3 3 3 3
−1
     
=A B=  0

0 0 0 1 · 3
 
 
2 4 5 1 =
 
 
 4 4 7 8 1 


1 31 - 23
  1 1 1 2 1
 0 0  4 3 6 6 1  3 - 3 3 3 - 3 
  
  
 
     
-1 0 31 13 0 4 4 7 8 1 4
3
2
3
7
3
5
3
2
3

Ergänzungen: Die Basiswechselmatrix Aid,X,Y


P5 = (αij )i,j=1,...,5 wird
charakterisiert durch die Gleichungen xj = i=1 αij yi , j = 1, . . . , 5.
Interpretieren wir die Vektoren xi und yj als Spaltenvektoren im R5 ,
so schreiben sich diese Relationen in der Form

xj = (y1 , . . . , y5 ) · (α1j , . . . , α5j )t , j = 1, . . . , 5,

bzw. mit den Matrizen A = (x1 , . . . , x5 ) und B = (y1 , . . . , y5 ) in der


Form A = B · Aid,X,Y . Also folgt Aid,X,Y = B −1 · A und entsprechend
Aid,Y,X = A−1 · B, wie eingangs bereits festgestellt.
Um nach erfolgter Rechnung zu überprüfen, ob die inversen Matri-
zen A−1 und B −1 frei von Rechenfehlern ermittelt wurden, sollte man
die Produkte A · A−1 und B · B −1 auswerten und mit der Einheitsma-
trix vergleichen. Ebenso kann man die Relationen B · Aid,X,Y = A und
A · Aid,Y,X = B nutzen, um sicherzugehen, dass die Basiswechselmatri-
zen Aid,X,Y und Aid,Y,X korrekt sind.
3.4 Aufgabe 4
Start: Zu betrachten ist eine Relation “ ∼ ” auf der Menge K m×n
aller (m×n)-Matrizen, und zwar gilt A ∼ B für zwei solche Matrizen,
3.4 Aufgabe 4 425

wenn es invertierbare Matrizen S ∈ GL(m, K) und T ∈ GL(n, K) mit


B = SAT gibt.

Ziel : Man zeige, dass “ ∼ ” die Eigenschaften einer Äquivalenz-


relation besitzt. Die zugehörigen Äquivalenzklassen und insbesondere
deren Anzahl sind zu bestimmen.

Strategie: Sei A ∈ K m×n . In 3.4/8 haben wir die zu A gehörige


K-lineare Abbildung K n ✲ K m, a ✲ A · a, betrachtet und mit-
tels Basiswechsel gezeigt, dass es 
invertierbare
 Matrizen S ∈ GL(m, K)
Er 0
und T ∈ GL(n, K) mit SAT = =: Erm×n gibt. Dabei ist Er
0 0
die (r × r)-Einheitsmatrix, wobei r = rg A gilt. In der Terminologie
der gegebenen Relation “ ∼ ” bedeutet dies A ∼ Erm×n . Wenn wir al-
so zeigen, dass “ ∼ ” eine Äquivalenzrelation ist, so sind die Matrizen
Erm×n , r = 0, . . . , min{m, n}, Vertreter der zugehörigen Äquivalenz-
klassen, und zwar paarweise verschiedener Äquivalenzklassen, da aus
A ∼ B mit 3.4/6 insbesondere rg A = rg B folgt.

Lösungsweg: Wir zeigen zunächst, dass “ ∼ ” eine Äquivalenzrela-


tion ist. Sei A ∈ K m×n . Dann gilt A = SAT mit den Einheitsmatrizen
S ∈ GL(m, K) und T ∈ GL(n, K). Dies bedeutet A ∼ A, und die
Relation ist reflexiv. Seien nun A, B ∈ K m×n . Gilt dann A ∼ B, al-
so B = SAT mit gewissen invertierbaren Matrizen S ∈ GL(m, K)
und T ∈ GL(n, K), so folgt A = S −1 BT −1 mit S −1 ∈ GL(m, K) und
T −1 ∈ GL(n, K), also B ∼ A. Die Relation ist daher auch symme-
trisch. Seien schließlich A, B, C ∈ K m×n mit A ∼ B und B ∼ C. Dann
gibt es invertierbare Matrizen S, S̃ ∈ GL(m, K) und T, T̃ ∈ GL(n, K),
so dass B = SAT und C = S̃B T̃ gilt. Es folgt C = (S̃S)A(T T̃ ) mit
S S̃ ∈ GL(m, K) und T T̃ ∈ GL(n, K), also A ∼ C. Die Relation “ ∼ ”
ist daher auch transitiv und damit eine Äquivalenzrelation.

Wie bereits erwähnt, schließen wir mit 3.4/8 für eine Matrix
A ∈ K m×n vom Rang r, dass A ∼ Erm×n gilt. Da “ ∼ ” gemäß 3.4/6
den Rang von Matrizen erhält und da rg Erm×n = r gilt, bilden die Ma-
trizen Erm×n für r = 0, . . . , min{m, n} ein Vertretersystem der Äquiva-
lenzklassen bezüglich “ ∼ ” in K m×n . Folglich ist deren Anzahl gleich
1 + min{m, n}, der Anzahl möglicher Matrizen des Typs Erm×n bei
gegebener Zeilenzahl m und Spaltenzahl n.
426 8. Aufgabentrainer

3.5 Aufgabe 5
Start: Zu betrachten ist eine R-lineare Abbildung f : V ✲W
zwischen endlich-dimensionalen R-Vektorräumen, die bezüglich geeig-
neter Basen X von V und Y von W durch eine konkret gegebene
Matrix Af,X,Y ∈ R4×5 beschrieben wird.
Ziel : Es ist eine Basis von ker f zu bestimmen.
Strategie: Um konkrete Rechnungen in V bzw. W anzustellen, müs-
sen wir die Vektoren von V und W als Linearkombinationen der zu be-
trachtenden Basen darstellen. Mit anderen Worten, wir sollten mit den
zugehörigen Koordinatenspaltenvektoren bezüglich X und Y arbeiten.
Dann liegt es nahe, das kommutative Diagramm
f
V ✲ W
(∗) ≀ κX ≀ κY
❄ ❄

R5 ✲ R4
aus 3.1/8 zu nutzen; dabei sind κX und κY die kanonischen Isomorphis-
men, die einem Vektor aus V bzw. W den zugehörigen Koordinaten-
spaltenvektor in R5 bzw. R4 zuordnen, und es ist f˜ die Multiplikation
mit der Matrix Af,X,Y , also die durch x ✲ Af,X,Y · x definierte Ab-
bildung. Der Kern von f˜ stimmt mit dem Lösungsraum MAf,X,Y ,0 des
homogenen linearen Gleichungssystems Af,X,Y · x = 0 überein, den
man mithilfe des Gaußschen Eliminationsverfahrens bestimmen kann.
Da sich κX zu einem Isomorphismus ker f ∼✲ MAf,X,Y ,0 beschränkt,
lässt sich aus einer Basis von MAf,X,Y ,0 eine Basis von ker f gewinnen.
Lösungsweg: Wir benutzen das obige kommutative Diagramm (∗)
und interpretieren die Isomorphismen κX und κY als Identifizierungen.
Sodann bleibt das homogene lineare Gleichungssystem Af,X,Y ·x = 0 zu
lösen. Wir verwenden dazu das Gaußsche Eliminationsverfahren und
bringen Af,X,Y auf die spezielle in Abschnitt 3.5 beschriebene Zeilen-
stufenform:
     

1 1 2 4 8 1 1 
2 4 8 
1 1 2 4 8
1

2 1 2 1 ✲ 1 0

-1 -2 -7  ✲0

1 -1 -2 -7
Af,X,Y =
  
    
2

2 2 2 1
 0 0

-2 -6 -15
 0

0 2 6 15

-2 -6
     
1 2 2 2 2 0 1 0 0 0 1 0 1
3.5 Aufgabe 7 427

1 1 2 4 8 1 1 2 4 8 1 1 2 0 - 23
     
     
0 1 -1 -2 -7  0 1 -1 -2 -7  0 1 -1 0 - 83 
     
✲


 ✲


 ✲



0 0 1 0 1 0 0 1 0 1 0 0 1 0 1
  
  
     
13 13
0 0 0 6 13 0 0 0 1 6 0 0 0 1 6
1 1 0 0 - 38 1 0 0 0 -1
   
   
0 1 0 0 - 53  0 1 0 0 - 53 
   
✲


 ✲



0 0 1 0 1 0 0 1 0 1
 
 
   
13 13
0 0 0 1 6 0 0 0 1 6
Gemäß 3.5 bildet daher (1, 35 , −1, − 136
, 1)t ∈ R5 eine Basis des Lösungs-
raums MAf,X,Y ,0 . Entsprechend gibt x1 + 53 x2 − x3 − 13 x + x5 ∈ V für
6 4
X = {x1 , . . . , x5 } Anlass zu einer Basis von ker f .
3.5 Aufgabe 7
Start: Gegeben sind eine Matrix A ∈ K m×n , ein Spaltenvektor
b ∈ K m sowie eine invertierbare Matrix S ∈ GL(n, K).
Ziel : Es ist MA,b = SMAS,b für die Lösungsräume der linearen
Gleichungssysteme Ax = b und ASy = b zu zeigen.
Strategie: Das Ziel ist plausibel. Erfüllt nämlich y ∈ K n die Glei-
chung ASy = b, so können wir diese in der Form (AS)y = b oder
A(Sy) = b interpretieren. Somit erhalten wir y ∈ MAS,b , aber auch
Sy ∈ MA,b .
Lösungsweg: Sei zunächst x ∈ SMAS,b , also x = Sy mit y ∈ MAS,b .
Dann gilt ASy = b und daher x = Sy ∈ MA,b . Umgekehrt, sei x ∈ MA,b ,
also Ax = b. Da S invertierbar ist, gibt es ein y ∈ K n mit x = Sy.
Dann folgt ASy = b, also y ∈ MAS,b und somit x = Sy ∈ SMAS,b .
Insgesamt erhalten wir MA,b = SMAS,b .
3.5 Aufgabe 9
Start: Zu betrachten ist eine K-lineare Abbildung f : V ✲W
zwischen endlich-dimensionalen K-Vektorräumen, sowie die zugehöri-
ge duale Abbildung f ∗ : W ∗ ✲ V ∗ . Dabei ist V ∗ (bzw. W ∗ ) der
Dualraum zu V (bzw. W ), also der K-Vektorraum aller K-linearen
Abbildungen V ✲ K (bzw. W ✲ K), und es ist f ∗ definiert
durch ϕ ✲ ϕ ◦ f . Zusätzlich ist ein Vektor b ∈ W zu betrachten.
Ziel : Zu zeigen ist, dass es genau dann einen Vektor x ∈ V mit
f (x) = b gibt, also dass genau dann b ∈ im f gilt, wenn man ϕ(b) = 0
für alle ϕ ∈ ker f ∗ hat.
428 8. Aufgabentrainer

Strategie: Zunächst wollen wir den Kern der dualen Abbildung f ∗


genauer interpretieren. Die duale Abbildung f ∗ : W ∗ ✲ V ∗ ist defi-
niert durch f ∗ (ϕ) = ϕ ◦ f für ϕ ∈ W ∗ . Daher ist f ∗ (ϕ) = 0 äquivalent
zu ϕ◦f = 0, also zu im f ⊂ ker ϕ. Gilt daher b ∈ im f , so folgt ϕ(b) = 0
für alle ϕ ∈ ker f ∗ . Mit anderen Worten, es gilt
\
(∗) im f ⊂ ker ϕ.
ϕ∈ker f ∗

Um unser Ziel zu erreichen, ist zu zeigen, dass die vorstehende Inklusion


auch in umgekehrter Richtung gilt und damit eine Gleichheit darstellt.
Lösungsweg: Sei zunächst b ∈ im f . Wir haben bereits erläutert,
dass dann ϕ(b) = 0 gilt für alle Linearformen ϕ ∈ W ∗ mit im f ⊂ ker ϕ,
also mit ϕ ◦ f = 0, was äquivalent ist zu ϕ ∈ ker f ∗ .
Sei alternativ b 6∈ im f . Wir wollen zeigen, dass unter dieser Vor-
aussetzung eine Linearform ϕ ∈ ker f ∗ mit ϕ(b) 6= 0 existiert. Und
zwar wählen wir eine Basis von im f und vergrößern diese durch Hin-
zunahme von b zu einem linear unabhängigen System in W ; dies ist
möglich wegen b 6∈ im f , vgl. 1.5/5. Weiter können wir dieses System
mittels 1.5/8 zu einer Basis Y von W ergänzen. Dann lässt sich gemäß
2.1/7 (ii) eine Linearform ϕ : W ✲ K durch

(
1 für y = b
ϕ(y) =
0 für y ∈ Y, y 6= b

und lineare Ausdehnung erklären. Nach Konstruktion gilt ϕ(im f ) = 0,


also ϕ ∈ ker f ∗T, sowie ϕ(b) 6= 0. Gehört daher b ∈ W nicht zu im f , so
auch nicht zu ϕ∈ker f ∗ ker ϕ, und es folgt, dass die obige Inklusion (∗)
eine Gleichheit ist.

Determinanten

4.1 Aufgabe 2
Start: Gegeben ist ein r-Zyklus in Sn , also eine Permutation π in
Sn , zu der es paarweise verschiedene Elemente a1 , . . . , ar ∈ {1, . . . , n}
gibt, so dass π(ai ) = ai+1 für i = 1, . . . , r − 1 und π(ar ) = a1 sowie
4.1 Aufgabe 2 429

π(a) = a für alle übrigen Elemente a ∈ {1, . . . , n} gilt. Wir schreiben


abkürzend π = (a1 , . . . , ar ), wobei notwendigerweise n ≥ r ≥ 1 gilt.
Ziel : Es ist sgn π zu bestimmen.
Strategie: Wir betrachten ein einfaches Beispiel eines r-Zyklus in
Sn , nämlich
 
1 2 ... r − 1 r r + 1 ... n
π = (1, . . . , r) = .
2 3 ... r 1 r + 1 ... n

Offenbar ist die Anzahl der Fehlstände in der Folge π(1), . . . , π(n)
genau r − 1, so dass sich sgn π = (−1)r−1 mittels 4.1/6 ergibt. Ist
nun π = (a1 , . . . , ar ) ein beliebiger r-Zyklus in Sn , so sollte eben-
falls sgn π = (−1)r−1 gelten. Schreiben wir nämlich π als Produkt
von Transpositionen, etwa π = τ1 ◦ . . . ◦ τs , so gilt sgn π = (−1)s
nach 4.1/8. Eine solche Produktdarstellung hängt allerdings nicht von
der speziellen Abzählung der n-elementigen Menge {1, . . . , n} ab. In-
dem wir eine Abzählung des Typs {a1 , . . . , ar , ar+1 , . . . , an } mit ge-
eigneten Elementen ar+1 , . . . , an ∈ {1, . . . , n} wählen, dürfen wir wie
oben π = (1, . . . , r) annehmen. Somit ergibt sich sgn π = (−1)r−1 für
beliebige r-Zyklen π ∈ Sn .
Lösungsweg: Das soeben benutzte Argument kann präzisiert wer-
den, indem man die Permutation
 
1 ... n
σ=
a1 . . . an

verwendet. Und zwar gilt σ −1 ◦ π ◦ σ = (1, . . . , r), wie man leicht


nachprüft, und daher

sgn π = sgn σ −1 · sgn π · sgn σ = sgn(1, . . . , r) = (−1)r−1 .

Ergänzungen: Bei den Strategieüberlegungen hatten wir mit einer


Zerlegung von π als Produkt von Transpositionen argumentiert. Dies
legt die Frage nahe, ob es für r-Zyklen π = (a1 , . . . , ar ) ∈ Sn kano-
nische Zerlegungen in Transpositionen gibt, mit der Folge, dass das
Signum von π mittels 4.1/8 bestimmt werden kann. Dieser Weg ist in
der Tat gangbar, denn es gilt

π = (a1 , . . . , ar ) = (a1 , ar ) ◦ . . . ◦ (a1 , a2 ),

was sgn π = (−1)r−1 ergibt.


430 8. Aufgabentrainer

4.1 Aufgabe 4
Start: Gegeben ist ein Normalteiler N ⊂ Sn , der eine Transposition
τ enthalte, etwa τ = (i, j).
Ziel : Es ist N = Sn zu zeigen.
Strategie: Ein Normalteiler N ⊂ Sn ist eine Untergruppe mit der
Eigenschaft, dass aus π ∈ N und σ ∈ Sn stets σ −1 ◦ π ◦ σ ∈ N folgt,
bzw. σ ◦ π ◦ σ −1 ∈ N , wenn wir σ −1 durch σ ersetzen. In unserem Falle
wissen wir, dass die Transposition τ = (i, j) zu N gehört. Es folgt daher
σ ◦ (i, j) ◦ σ −1 ∈ N für alle σ ∈ Sn . Nun bildet aber σ ◦ (i, j) ◦ σ −1 das
Element σ(i) offenbar auf σ(j) ab, das Element σ(j) auf σ(i) und lässt
im Übrigen alle weiteren Elemente aus {1, . . . , n} fest. Mit anderen
Worten, es ist σ ◦ (i, j) ◦ σ −1 = (σ(i), σ(j)) eine weitere Transposition,
die zu N gehört. Dies ist, wie wir sehen werden, der Schlüssel zum
Nachweis von N = Sn .
Lösungsweg: Wir haben soeben überlegt, dass neben der Transpo-
sition (i, j) auch alle Transpositionen des Typs (σ(i), σ(j)) für Permu-
tationen σ ∈ Sn zu N gehören. Nun lässt sich aber zu zwei beliebig
vorgegebenen verschiedenen Zahlen i′ , j ′ ∈ {1, . . . , n} stets eine Per-
mutation σ ∈ Sn finden, so dass σ(i) = i′ und σ(j) = j ′ gilt. Daher
ergibt sich (i′ , j ′ ) = (σ(i), σ(j)) ∈ N , und wir sehen, dass N sämtliche
Transpositionen aus Sn enthält. Da jede Permutation π ∈ Sn gemäß
4.1/3 ein Produkt von Transpositionen ist und weiter N die Eigen-
schaften einer Untergruppe besitzt, folgt schließlich π ∈ N und damit
N = Sn .

4.2 Aufgabe 2
Start: Gegeben ist ein K-Vektorraum V der Dimension n mit einer
nicht-trivialen Determinantenfunktion ∆ : V n ✲ K und einem linear
unabhängigen System von Vektoren x1 , . . . , xn−1 ∈ V .
Ziel : Es existiert ein xn ∈ V mit ∆(x1 , . . . , xn ) = 1. Dabei ist
zu zeigen, dass die Restklasse von xn in V /hx1 , . . . , xn−1 i eindeutig
bestimmt ist.
Strategie: Wir begnügen uns zunächst damit, einen Vektor x′n ∈ V
mit ∆(x1 , . . . , xn−1 , x′n ) 6= 0 zu finden. Hierzu reicht es gemäß 4.2/7,
das System x1 , . . . , xn−1 durch einen Vektor x′n zu einem linear un-
abhängigen System und damit zu einer Basis von V zu ergänzen. Es
folgt α := ∆(x1 , . . . , xn−1 , x′n ) 6= 0, und wir erhalten für xn = α−1 x′n
4.3 Aufgabe 3 431

wie gewünscht ∆(x1 , . . . , xn ) = 1, indem wir die Multilinearität von ∆


benutzen.
Nach Konstruktion gibt die Restklasse xn von xn Anlass zu einer
Basis von V = V /hx1 , . . . , xn−1 i. Zu einem weiteren Vektor yn ∈ V und
dessen Restklasse y n ∈ V existiert dann eine Konstante αn ∈ K mit
y n = αn xn . Sodann gilt yn − αn xn ∈ hx1 , . . . , xn−1P
i, und es existieren
n−1
Konstanten α1 , . . . , αn−1 ∈ K mit yn − αn xn = i=1 αi xi . Aus der
Rechnung
n
X
∆(x1 , . . . , xn−1 , yn ) = αi · ∆(x1 , . . . , xn−1 , xi )
i=1
= αn · ∆(x1 , . . . , xn ) = αn

ergibt sich sodann y n = xn , falls ∆(x1 , . . . , xn−1 , yn ) = 1 gilt.


Lösungsweg: Aus den Überlegungen zur Strategie können wir be-
reits die komplette Lösung ablesen. Insbesondere haben wir erklärt, wie
man einen Vektor xn ∈ V mit ∆(x1 , . . . , xn ) = 1 finden kann. Die Argu-
mentation zur Eindeutigkeit von xn modulo hx1 , . . . , xn−1 i kann jedoch
noch etwas gestrafft werden. Gilt nämlich ∆(x1 , . . . , xn−1 , yn ) = 1 für
einen weiteren Vektor yn ∈ V , so folgt

∆(x1 , . . . , xn−1 , xn −yn ) = ∆(x1 , . . . , xn−1 , xn )−∆(x1 , . . . , xn−1 , yn ) = 0.

Daher sehen wir mittels 4.2/7, dass die Vektoren x1 , . . . , xn−1 , xn − yn


linear abhängig sind. Da aber x1 , . . . , xn−1 ein linear unabhängiges Sys-
tem bilden, gilt notwendig xn − yn ∈ hx1 , . . . , xn−1 i, siehe 1.5/5, und
die Restklassen von xn und yn in V /hx1 , . . . , xn−1 i stimmen überein.
4.3 Aufgabe 3
Start: Zu betrachten ist eine Matrix A = (αij ) ∈ K n×n mit αij = 1
für i < j sowie αij = 0 für i = j und αij = −1 für i > j; wir schreiben
genauer An anstelle von A. Es ist also An eine quadratische n-reihige
Matrix mit Koeffizienten 1 oberhalb der Diagonalen, −1 unterhalb der
Diagonalen, sowie 0 auf der Diagonalen.
Ziel : Für gerades n ∈ N ist det(An ) = 1 zu zeigen.
Strategie: Da die Matrix An nicht unter die in Abschnitt 4.3 behan-
delten speziellen Beispiele fällt und da auch die definierende Formel in
4.2/4 keine Übersicht bringt, bietet sich zur Berechnung von det(An )
432 8. Aufgabentrainer

die Methode der elementaren Zeilen- bzw. Spaltenumformungen nach


4.3/6 an. Dabei sollte man zunächst einen Induktionsbeweis nach n
versuchen, mit einem Induktionsschluss von n − 2 auf n bzw. von n auf
n + 2, da nur gerade Zeilen- und Spaltenanzahlen zu betrachten sind.
Zudem lässt Aufgabe 1 aus Abschnitt 4.3 vermuten, dass das Verhal-
ten von det(An ) für ungerades n in diesem Zusammenhang nicht von
Nutzen sein wird.
Der Fall n = 0 ist trivial, und für n = 2 erhalten wir
 
0 1
det(A2 ) = det  = −(−1) · 1 = 1.
-1 0

Im Fall n = 4 transformieren wir An standardgemäß mittels elementa-


rer Zeilenumformungen wie folgt:

-1 0
   

0 1 1 1 
1 1
-1 0 1 1 (1)
✲  0
1 1 1
 
A4 =
 
  
-1 -1 0 1 -1
-1 0 1
 
 
-1 -1 -1 -1 -1 -1
   
0 0
-1 -1 1 -1
     

0 1 1 
0 1 0 1 1
(2)  0 1 1 1 (3)  0 1 1 1  0 1 1 1
✲ ✲
  
 =
  
 
 0

-1 -1 0  0

0 0 1
 0

0 
A2 
 
-1 -2 -1 -1
    
0 0 0 0 0 0

Dabei haben wir im Schritt (1) die erste Zeile mit der zweiten ver-
tauscht, im Schritt (2) die erste Zeile von der dritten und vierten sub-
trahiert und schließlich im Schritt (3) die zweite Zeile zur dritten und
vierten addiert. Da sich die Determinante bei Schritt (1) gemäß 4.3/6
um den Faktor −1 ändert, ansonsten aber invariant bleibt, berechnet
sich det(A4 ) nach Beispiel (2) aus Abschnitt 4.3 zu

-1 0
 

det(A4 ) = − det  · det(A2 ) = 1 · 1 = 1.


0 1

Im Prinzip ist eine ähnliche Argumentation auch für allgemeines gera-


des n möglich.
4.3 Aufgabe 5 433

Lösungsweg: Für gerades n ≥ 4 lässt sich An wie folgt mittels


elementarer Zeilenumformungen transformieren:
   
0 1 1 . . . 1 1 0 1 1
. . . 1 1
-1 -1
 

0 1 . . . 1 1 

0 1
. . . 1 1   

-1 -1 0 . . . 1 1

✲

 0 0 0
. . . 1 1

A 2 ∗
An =   =
 
  
 .

 . .. .. .. .. 

 .

 . .. .. .. ..  0 An−2
 . . . . . . . .  . . .
. . . . . 

   
-1 -1 -1 . . . -1 0 0 0 -1 . . . -1 0

Und zwar subtrahieren wir in An die zweite Zeile von den unteren
n − 2 Zeilen und addieren anschließend die erste Zeile ebenfalls zu den
unteren n − 2 Zeilen. Mit anderen Worten, wir addieren die Differenz
der ersten und zweiten Zeile, nämlich die Zeile (1, 1, 0, . . . , 0, 0) zu den
unteren n − 2 Zeilen. Mittels Beispiel (2) aus Abschnitt 4.3 folgt dann

det(An ) = det(A2 ) · det(An−2 ),

so dass wir mit det(A2 ) = 1 induktiv det(An ) = 1 für gerades n schlie-


ßen können.
4.3 Aufgabe 5
Start: Gegeben ist ein n-dimensionaler K-Vektorraum mit einem
Endomorphismus f : V ✲ V und einem Vektor x ∈ V , so dass die
n−1
Vektoren x, f (x), . . . , f (x) ein Erzeugendensystem von V bilden.
Insbesondere lässt sich f n (x) dann als Linearkombination dieses Sys-
tems darstellen,
Pn−1 d.i h. es existieren Koeffizienten α0 , . . . , αn−1 ∈ K mit
f n (x) = i=0 αi f (x).
Ziel : Zu zeigen ist det(f ) = (−1)n+1 α0 .
Strategie: Zur Berechnung der Determinante von f können wir ge-
mäß 4.3/2 die Determinante einer beschreibenden Matrix Af,X,X be-
stimmen, wobei X eine beliebige Basis von V ist. In V kennen wir
jedoch lediglich X = (x, f (x), . . . , f n−1 (x)) als Erzeugendensystem.
Da dieses die Länge n = dimK V besitzt, ist es auch linear unabhängig
und damit eine Basis. Wäre nämlich X linear abhängig, so könnte man
X zu einem minimalen Erzeugendensystem und damit gemäß 1.5/7 zu
einer Basis von V verkleinern. Das würde dann aber dimK V < n nach
sich ziehen, im Widerspruch zu dimK V = n. Somit ist X eine Basis
von V , und es genügt, die Determinante der Matrix
434 8. Aufgabentrainer
 

0 α0 
1 0 α1 


 



1 . α 2



Af,X,X =


. . . . . 





. . ...  




. 0 α n−2



1 αn−1

zu bestimmen. Diese Matrix ist, vereinfacht gesprochen, vom Typ


 
0 α0 
Af,X,X =
En−1 ∗

mit der (n − 1)-reihigen Einheitsmatrix En−1 , und es liegt nahe, die


zugehörige Determinante ähnlich wie in Beispiel (2) aus Abschnitt 4.3
zu berechnen.
Lösungsweg: Wie wir gesehen haben, gilt det(f ) = det(Af,X,X ) mit
der obigen Matrix Af,X,X . Um die Determinante dieser Matrix zu be-
rechnen, verwenden wir elementare Spaltenumformungen. Und zwar
vertauschen wir die n-te Spalte von Af,X,X mit den n − 1 vorhergehen-
den Spalten. Dann ergibt sich
   
0 α0  α 0 
det(f ) = det  = (−1)n−1  0 = (−1)n+1 α0
En−1 ∗ ∗ En−1

gemäß Beispiel (2) aus Abschnitt 4.3.


Ergänzungen: In der Terminologie von 6.5/1 handelt es sich bei
V unter dem Endomorphismus f : V ✲ V um einen sogenannten
f -zyklischen Vektorraum. Solche Vektorräume sind von fundamenta-
ler Bedeutung, wenn man die Struktur von Endomorphismen endlich-
dimensionaler Vektorräume studieren möchte; siehe Abschnitt 6.5.
4.4 Aufgabe 2
Start: Gegeben ist eine invertierbare Matrix A = (αij ) ∈ GL(n, R)
mit Koeffizienten αij ∈ Z.
Ziel : Es ist zu zeigen, dass die inverse Matrix A−1 Koeffizienten in
Q hat. Weiter ist zu beweisen, dass A−1 sogar genau dann Koeffizienten
in Z besitzt, wenn det(A) = ±1 gilt.
Strategie: Wir überlegen zunächst, wie weit die elementare Charak-
terisierung der Invertierbarkeit von Matrizen nach 3.3/7 führen kann.
4.4 Aufgabe 4 435

Da A als Element von Rn×n invertierbar ist, sind die Zeilen (bzw. Spal-
ten) von A gemäß 3.3/7 linear unabhängig über R, dann insbesondere
aber auch linear unabhängig über Q. Fassen wir nun A als Matrix in
Qn×n auf, so ergibt sich wiederum mit 3.3/7, dass A auch in Qn×n
invertierbar ist. Nun sind aber inverse Elemente eindeutig bestimmt.
Folglich stimmen die zu A in Qn×n und Rn×n gebildeten inversen Ma-
trizen überein. Daher besitzt A−1 als inverse Matrix zu A ∈ GL(n, R)
Koeffizienten in Q.
Bei der vorstehenden Methode kommt die Determinante det(A)
nicht ins Spiel. Dies lässt vermuten, dass wir zur Beantwortung der
weitergehenden Frage, wann die inverse Matrix A−1 Koeffizienten in Z
besitzt, auf die Formel aus 4.4/5 und damit auf die Cramersche Regel
zurückgreifen müssen.
Lösungsweg: Die Definition der adjungierten Matrix Aad als trans-
ponierte Matrix der Cofaktoren von A zeigt, dass Aad Koeffizienten in
Z besitzt, da dies auch für A zutrifft. Weiter gilt det(A) ∈ Z aufgrund
der Definition 4.2/4. Wir lesen daher aus der Gleichung
A−1 = det(A)−1 · Aad
in 4.4/5 ab, dass A−1 Koeffizienten in Q hat, ja sogar in Z, wenn det(A)
in Z invertierbar ist, also det(A) = ±1 gilt. Haben umgekehrt A und
A−1 Koeffizienten in Z, so gilt
det(A) ∈ Z, det(A)−1 = det(A−1 ) ∈ Z,
d. h. det(A) ist eine Einheit in Z, und dies bedeutet det(A) = ±1.
4.4 Aufgabe 4 P
Start: Gegeben ist eine Gleichung ni=1 αi ai = b mit Koeffizienten
αi ∈ K und Spaltenvektoren ai , b ∈ K n .
Ziel : Für i = 1, . . . , n ist die Beziehung
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ) = αi · det(a1 , . . . , an )
zu zeigen und daraus die Lösungsformel für lineare Gleichungssysteme
zu folgern, die wir in 4.4/6 mittels der Cramerschen Regel gewonnen
hatten.
Strategie: Es ist b als Linearkombination der a1 , . . . , an dargestellt.
Indem wir diese Linearkombination anstelle von b einsetzen und benut-
zen, dass die Determinante multilinear und alternierend in den Spal-
tenvektoren ist, ergibt sich wie gewünscht
436 8. Aufgabentrainer

det(a1 , . . . , ai−1 , b, ai+1 , . . . , an )


n
X
= αj det(a1 , . . . , ai−1 , aj , ai+1 , . . . , an ) = αi det(a1 , . . . , an ).
j=1

Diese Gleichung ist nun im Rahmen von 4.4/6 zu interpretieren.


Lösungsweg: Die Herleitung der Formel haben wir gerade beschrie-
ben. Sodann betrachten wir zur Matrix A = (a1 , . . . , an ) ∈ K n×n und
zu b ∈ PK n das zugehörige lineare Gleichungssystem Ax = b. Die Glei-
chung ni=1 αi ai = b besagt nichts anderes, als dass der Spaltenvektor
z = (α1 , . . . , αn )t eine Lösung dieses Gleichungssystems ist. Nun ist A
in der Situation von 4.4/6 als invertierbar vorausgesetzt, so dass folg-
lich z = A−1 b eine Lösung des Systems Ax = b darstellt, und zwar die
einzig mögliche. Berücksichtigt man det(A) 6= 0, so ergibt sich die i-te
Komponente αi der Lösung z aufgrund der obigen Formel zu

αi = det(A)−1 · det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ),

in Übereinstimmung mit 4.4/6.


4.5 Aufgabe 2
Start: Zu betrachten ist ein K-Vektorraum V mit Elementen
a1 , . . . , ar ∈ V .
Ziel : Es ist zu zeigen, dass die Vektoren a1 , . . . , ar genau dann
linear unabhängig sind, wenn a1 ∧ . . . ∧ ar 6= 0 gilt.
Strategie: Seien die Vektoren a1 , . . . , ar zunächst als linear abhängig
vorausgesetzt. Dann folgt a1 ∧ . . . ∧ ar = 0 mit 4.5/1, indem wir die
kanonische alternierende multilineare Abbildung
r
^
kan : V r ✲ V, (x1 , . . . , xr ) ✲ x1 ∧ . . . ∧ xr ,

betrachten. Somit bleibt lediglich für ein linear unabhängiges System


a1 , . . . , ar zu
Vrzeigen, dass a1 ∧ . . . ∧ ar 6= 0 gilt.
Um in V rechnen zu können, nehmen wir zunächst V als endlich-
dimensional
Vr mit Basis X an. Dann gibt es gemäß 4.5/4 eine Basis
von V , bestehend aus Elementen xH , wobei H alle r-elementigen
Teilmengen der Basis X durchläuft. Weiter gilt
X
(∗) a1 ∧ . . . ∧ ar = detX,H (a1 , . . . , ar )xH
H
4.5 Aufgabe 2 437

mit detX,H (a1 , . . . , ar ) als Determinante der Untermatrix, die man aus
der r-spaltigen Matrix A = (a1,X , . . . , ar,X ) erhält, indem man alle Zei-
len streicht, deren Indizes nicht zu Elementen von H korrespondieren.
Wenn nun a1 , . . . , ar linear unabhängig sind, so gilt rg A = r, und es
gibt eine (r ×r)-Untermatrix von A, deren Rang r ist und deren Deter-
minante folglich nicht verschwindet. Insbesondere ist der entsprechende
Koeffizient detX,H (a1 , . . . , ar ) in der Darstellung (∗) nicht trivial, und
es folgt a1 ∧ . . . ∧ ar 6= 0. Wir können sogar noch etwas effektiver schlie-
ßen, indem wir die Vektoren a1 , . . . , ar zu einer Basis von V ergänzen. V
Dann gehört a1 ∧ . . . ∧ ar zu der in 4.5/4 konstruierten Basis von r V
und ist folglich nicht-trivial. Im Prinzip behält diese Argumentation
auch für beliebige K-Vektorräume V ihre Gültigkeit, obwohl dann das
Resultat 4.5/4 zunächst auf unendlich-dimensionale Vektorräume zu
verallgemeinern ist.
Lösungsweg: Wir wollen hier allerdings etwas direkter vorgehen.
Zunächst argumentieren wir wie oben, dass aus a1 ∧ . . . ∧ ar 6= 0
stets die lineare Unabhängigkeit der a1 , . . . , ar folgt. Sind umgekehrt
a1 , . . . , ar als linear unabhängig vorausgesetzt, so konstruieren wir
zu U = ha1 , . . . , ar i ein direktes Komplement U ′ , etwa indem wir
a1 , . . . , ar zu einer Basis von V ergänzen; dabei ist der Basisergänzungs-
satz 1.5/8 mittels des Zornschen Lemmas 1.5/15 auf den unendlich-
dimensionalen Fall zu adaptieren. Dann betrachten wir die Projektion
π : V = U ⊕ U ′ ✲ U auf den ersten Summanden und wählen gemäß
4.2/8 eine nicht-triviale Determinantenfunktion ∆ : U r ✲ K, wobei
∆(a1 , . . . , ar ) 6= 0 gilt; vgl. 4.2/7. Es ist

Φ: V r ✲ K, (x1 , . . . , xr ) ✲ ∆ π(x1 ), . . . , π(xr )
eine alternierende multilineare Abbildung. Aufgrund der universellen
Eigenschaft des r-fachen äußeren
V Produktes von V faktorisiert Φ über
eine K-lineare Abbildung ϕ : r V ✲ K wie folgt:
r
^
Vr
kan
✲ V

Φ ϕ

K
Dabei gilt ϕ(a1 ∧ . . . ∧ ar ) = Φ(a1 , . . . , ar ) = ∆(a1 , . . . , ar ) 6= 0 und
insbesondere a1 ∧ . . . ∧ ar 6= 0, was zu zeigen war.
438 8. Aufgabentrainer

4.5 Aufgabe 5 V
Start: Es ist das äußere Produkt 2 V eines VektorraumsVV über
einem Körper K der Charakteristik 0 zu betrachten. Für z ∈ 2 V ist
der Rang rg z P erklärt als Minimum über alle r ∈ N, so dass es eine
Zerlegung z = ri=1 xi ∧ yi mit Vektoren xi , yi ∈ V gibt.
Ziel : Es ist zu zeigen, dass die Zahl r = rg z eindeutig durch die
Beziehungen z r 6= 0 und z r+1 = V 0 charakterisiert ist, wobei diese Po-
tenzen in der äußerenP Algebra V V zu bilden sind.
Strategie: Sei z = i=1 xi ∧yi ∈ 2 V mit Vektoren xi , yi ∈ V . Wir
r

wollen zunächst ein Gefühl dafür bekommen, wie sich die Potenzen z s
für s ∈ N verhalten. Und zwar gilt
r
X
s
z = (xi1 ∧ yi1 ) ∧ . . . ∧ (xis ∧ yis ),
i1 ,...,is =1

wobei auf der rechten Seite alle Produkte verschwinden, deren Indizes
i1 , . . . , is ∈ {1, . . . , r} nicht paarweise verschieden sind. Damit folgt
bereits z s = 0 für s > r. Für s = r können höchstens Produkte
(xi1 ∧ yi1 ) ∧ . . . ∧ (xir ∧ yir ) von Null verschieden sein, deren Indi-
zes i1 , . . . , ir eine Permutation von 1, . . . , r bilden. Diese verbleibenden
Produkte lassen sich durch Vertauschen der Faktoren in die natürliche
Reihenfolge (x1 ∧ y1 ) ∧ . . . ∧ (xr ∧ yr ) bringen. Da hierbei eine gerade
Anzahl von Vertauschungen benötigt wird, ändert sich das Vorzeichen
nicht. Berücksichtigt man nun, dass die Permutationsgruppe Sr genau
r! Elemente besitzt, so berechnet sich die Potenz z r zu

z r = r! · (x1 ∧ y1 ) ∧ . . . ∧ (xr ∧ yr ).

Nun besitzt K die Charakteristik 0. Daher verschwindet z r genau


dann, wenn das Produkt (x1 ∧ y1 ) ∧ . . . ∧ (xr ∧ yr ) verschwindet, al-
so, indem wir Aufgabe 2 aus 4.5 benutzen, genau dann, wenn die
Vektoren , xr , yr linear abhängig sind. Somit haben wir für
Pr x1 , y1 , . . . V
z = i=1 xi ∧ yi ∈ 2 V die folgenden Eigenschaften eingesehen:

(∗) z r+1 = 0,
(∗∗) z r 6= 0 ⇐⇒ x1 , y1 , . . . , xr , yr sind linear unabhängig.

Um nun (∗) und (∗∗) mit der Eigenschaft rg z = r in Verbindung zu


bringen und damit zu einer Lösung der Aufgabe zu gelangen, fehlt
4.5 Aufgabe 5 439

noch ein gravierender Schritt. Und zwar müssen wir im Falle der li-
nearen Abhängigkeit von x1 , y1 , . . . , xr , yr zeigen, dass wir z in eine
(r − 1)-fache Summe von Produkten zerlegen können, dass also dann
rg z < r gilt. Wir versuchen, die zugehörige Rechnung einmal im Spe-
zialfall r = 2 durchzuführen. Seien also x1 , y1 , x2 , y2 linear abhängig,
etwa
y2 = α1 x1 + α2 x2 + β1 y1
mit Konstanten α1 , α2 , β1 ∈ K. Dann folgt
z = x1 ∧ y1 + x2 ∧ y2 = x1 ∧ y1 + x2 ∧ (α1 x1 + α2 x2 + β1 y1 )
= x1 ∧ y1 + x2 ∧ (α1 x1 + β1 y1 ) = (x1 + β1 x2 ) ∧ y1 + α1 x2 ∧ x1
Nun dürfen wir aber im letzten Term α1 x2 ∧x1 den Faktor x1 abändern
zu x1 +β1 x2 , da x2 ∧x2 trivial ist. Aufgrund dieses kleinen Tricks ergibt
sich
z = (x1 + β1 x2 ) ∧ y1 + α1 x2 ∧ x1
= (x1 + β1 x2 ) ∧ y1 + α1 x2 ∧ (x1 + β1 x2 )
= (x1 + β1 x2 ) ∧ (y1 − α1 x2 )
und damit rg z < 2. Eine ähnliche Rechnung lässt sich auch im Allge-
meinfall durchführen, wie wir sogleich sehen werden. P V
Lösungsweg: Wir betrachten ein Element z = ri=1 xi ∧ yi ∈ 2 V
mit Vektoren xi , yi ∈ V und zeigen wie oben, dass die Eigenschaften
(∗) und (∗∗) erfüllt sind. Sodann nehmen wir an, dass die Elemente
x1 , y1 , . . . , xr , yr linear abhängig sind. Folglich gibt es eine Relation
beispielsweise des Typs
r
X r−1
X
yr = αi x i + βi yi
i=1 i=1

mit Koeffizienten αi , βi ∈ K. Wir wollen hieraus rg z < r ableiten und


rechnen wie folgt:
r
X r−1
X r−1
X
z= xi ∧ yi = xi ∧ yi + xr ∧ (αi xi + βi yi )
i=1 i=1 i=1
r−1
X r−1
X
= (xi + βi xr ) ∧ yi + xr ∧ αi x i
i=1 i=1
440 8. Aufgabentrainer

r−1
X r−1
X
= (xi + βi xr ) ∧ yi + xr ∧ αi (xi + βi xr )
i=1 i=1
r−1
X
= (xi + βi xr ) ∧ (yi − αi xr )
i=1

Also ergibt sich rg z ≤ r − 1. Aus diesen Fakten können wir nun leicht
die Äquivalenz der Aussagen
(i) rg z = r,
(ii) z r 6= 0, z r+1V
=0
für beliebiges z ∈ 2 V und r ∈ N ablesen. Gelte zunächst (i), also
rg z = r. Es folgt z r+1 = 0 gemäß (∗). Weiter gilt z r 6= 0 sofern wir
wissen, dass die benötigten 2r Vektoren einer minimalen Zerlegung
von z linear unabhängig sind, siehe (∗∗). Diese Vektoren können aber
nicht linear abhängig sein, da ansonsten rg z < r gelten würde, wie wir
gerade gezeigt haben. Also folgt (ii).
Sei nun umgekehrt (ii) gegeben, also z r 6= 0 und z r+1 = 0. Sei
s = rg z. Aus z r 6= 0 ergibt sich dann s = rg z ≥ r mit (∗). Im Falle
s > r gilt z s = 0 wegen z r+1 = 0, und wir lesen aus (∗∗) ab, dass
die benötigten 2s Vektoren einer minimalen Zerlegung von z linear
abhängig sind. Dies würde wiederum, wie wir gezeigt haben, rg z < s
bedeuten, im Widerspruch zu rg z = s. Es verbleibt somit nur der
Fall rg z = r. Damit ist die Implikation von (ii) nach (i) klar, und wir
erhalten insgesamt die gewünschte Äquivalenz zwischen (i) und (ii).

Polynome

5.1 Aufgabe 1
Start: Für einen Ring R und ein Element t ∈ R betrachte man
den R-Algebrahomomorphismus Φ : R⌈⌊T ⌉⌋ P ✲ R, der t anstelle von T
P
einsetzt, also für Koeffizienten ai ∈ R durch i∈N ai T i ✲ i∈N ai t
i

definiert ist. Wir schreiben genauer Φt anstelle von Φ.


Ziel : Der Kern des Homomorphismus Φt ist zu bestimmen, und
zwar ist ker Φt = R⌈⌊T ⌉⌋ · (T − t) zu zeigen.
Strategie:
P Der Kern von Φt besteht definitionsgemäß aus allen Po-
lynomen i∈N ai T i ∈ R⌈⌊T ⌉⌋, deren Bild unter Φt verschwindet, also
5.1 Aufgabe 1 441

P
mit i∈N ai ti = 0. Für allgemeines t ist diese Menge relativ unüber-
sichtlich, für t = 0 aber einfach zu beschreiben, denn es gilt
nX o
ker Φ0 = ai T i ; a0 = 0 = R⌈⌊T ⌉⌋ · T,
i∈N

wie man sofort einsieht.


In der Aufgabenstellung wird der Hinweis gegeben, den R-Algebra-
homomorphismus Ψt : R⌈⌊T ⌉⌋ ✲ R⌈ ⌊T ⌉⌋ zu betrachten, der T durch
T + t ersetzt. Ersetzen wir anschließend noch T durch 0, so ergibt
dies als Komposition Φ0 ◦ Ψt gerade den Einsetzungshomomorphismus
Φt : R⌈⌊T ⌉⌋ ✲ R, der T durch t ersetzt. Um also den Kern von Φt zu
bestimmen, dürfen wir ker Φ0 = R⌈⌊T ⌉⌋ · T benutzen und müssen dann
zeigen, dass das Ψt -Urbild hierzu gerade R⌈⌊T ⌉⌋ · (T − t) ergibt.
Lösungsweg: Wir zeigen zunächst ker Φ0 = R⌈⌊T ⌉⌋ · T , dass also
ker Φ0 mit dem von T in R⌈⌊T ⌉⌋ erzeugten Hauptideal übereinstimmt.
Gilt f ∈ R⌈⌊T ⌉⌋ · T , etwa f = g · T mit einem Polynom g ∈ R⌈⌊T ⌉⌋, so
folgt
Φ0 (f ) = Φ0 (g · T ) = Φ0 (g) · Φ0 (T ) = 0
und P
damit f ∈ ker Φ0 , denn es gilt Φ0 (T ) = 0. Umgekehrt, hat man
f = i∈N ai T i ∈ ker Φ0 , so ergibt dies a0 = Φ0 (f ) = 0 und damit
X X 
f= ai T i = ai+1 T i · T ∈ R⌈⌊T ⌉⌋ · T,
i>0 i∈N

so dass man wie gewünscht ker Φ0 = R⌈⌊T ⌉⌋ · T schließt.


Als Nächstes stellen wir fest, dass der R-Algebrahomomorphismus

Ψt : R⌈⌊T ⌉⌋ ✲ R⌈⌊T ⌉⌋, T ✲ T + t,

ein Isomorphismus ist. Es ist nämlich Ψ−t ◦ Ψt : R⌈⌊T ⌉⌋ ✲ R⌈⌊T ⌉⌋ als


R-Algebrahomomorphismus, der T durch T ersetzt, die Identität. Glei-
ches gilt für die Komposition Ψt ◦ Ψ−t , so dass wir Ψt als Isomorphismus
erkennen, dessen inverse Abbildung durch den Einsetzungshomomor-
phismus Ψ−t gegeben ist; letzterer ersetzt T durch T − t. Nun bildet
Ψt das Ideal R⌈⌊T ⌉⌋ · (T − t) in das Ideal R⌈⌊T ⌉⌋ · T ab und weiter Ψ−t
dieses Ideal wieder in das Ideal R⌈⌊T ⌉⌋ · (T − t). Folglich schränkt sich
der Isomorphismus Ψt zu einer Bijektion
442 8. Aufgabentrainer

R⌈⌊T ⌉⌋ · (T − t) ∼✲ R⌈⌊T ⌉⌋ · T

ein, und es gilt Ψt−1 (R⌈⌊T ⌉⌋ ·T ) = R⌈⌊T ⌉⌋ ·(T −t). Benutzen wir schließlich
die Relation Φt = Φ0 ◦ Ψt , so ergibt sich

ker Φt = Ψt−1 (ker Φ0 ) = Ψt−1 R⌈⌊T ⌉⌋ · T = R⌈⌊T ⌉⌋ · (T − t),
was zu zeigen war.
5.1 Aufgabe 2
Start: Gegeben ist ein K-Vektorraum V 6= 0 mit einem Endo-
morphismus ϕ : V ✲ V , also ϕ ∈ EndK (V ). Man betrachte den
K-Algebrahomomorphismus Φ : K⌈⌊T ⌉⌋ ✲ EndK (V ), der ϕ anstelle
von T einsetzt, wobei wir genauer Φϕ statt Φ schreiben.
Ziel : Es ist ker Φϕ in den Fällen ϕ = id und ϕ =P0 zu bestimmen.
Strategie: Definitionsgemäß gehört ein Polynom i∈NPai T i ∈ K⌈⌊T ⌉⌋
mit Koeffizienten ai ∈ K genau dann zu ker P Φϕ , wenn
i
i∈N ai ϕ = 0
gilt. Für ϕ = 0 ergibt sich daher ker Φ0 = { i∈N ai T ; a0 ϕ = 0}. Nun
i 0

gilt allerdings ϕ0 = id 6= 0, da V nicht-trivial ist, und daher


nX o
ker Φ0 = ai T i ∈ K⌈⌊T ⌉⌋ ; a0 = 0 = K⌈⌊T ⌉⌋ · T.
i∈N

Wegen id 6= 0 folgt entsprechend


nX X o
ker Φid = ai T i ∈ K⌈⌊T ⌉⌋ ; ai = 0 .
i∈N i∈N

Insbesondere gilt T − 1 ∈ ker Φid und damit K⌈⌊T ⌉⌋ · (T − 1) ⊂ ker Φid .


Es ist zu vermuten, dass letztere Inklusion bereits eine Gleichheit dar-
stellt. Um dies zu bestätigen, versuchen wir, Elemente aus ker Φid als
Vielfache
P von T − 1 zu schreiben. Hierzu betrachten wir ein Polynom
f = i∈N ai T i ∈ ker Φid und setzen eine Gleichung
X  X X
i
bi T · (T − 1) = −b0 + (bi−1 − bi )T i = ai T i
i∈N i>0 i∈N

an. Für die Koeffizienten bi ∈ K ergeben sich folgende Bedingungen:


b0 = −a0
b1 = b0 − a1 = −a0 − a1
b2 = b1 − a2 = −a0 − a1 − a2
...
5.1 Aufgabe 6 443

P
Da nun i∈N ai = 0 wegen P f ∈ ker Φid gilt, erhalten wir bi = 0 für
i ≥ grad f . Damit ist g = i∈N bi T in der Tat ein Polynom in K⌈⌊T ⌉⌋
i

mit f = g · (T − 1), und es ergibt sich ker Φid = K⌈⌊T ⌉⌋ · (T − 1), wie
vermutet.
Lösungsweg: Wir betrachten allgemeiner als in der Aufgabenstel-
lung für c ∈ K den Endomorphismus c · id : V ✲ V . Wegen
T − c ∈ ker Φc·id ergibt sich K⌈⌊T ⌉⌋ · (T − c) ⊂ ker Φc·id , und wir be-
haupten, dass diese Inklusion in Wahrheit eine Gleichheit darstellt.
Dazu zerlegen wir K⌈⌊T ⌉⌋ als K-Vektorraum in eine Summe

(∗) K⌈⌊T ⌉⌋ = K + K⌈⌊T ⌉⌋ · (T − c),

wobei diese Summe sogar direkt ist, da es in K⌈⌊T ⌉⌋ · (T − c) aus Grad-


gründen keine nicht-trivialen konstanten Polynome geben kann. Die
Summenbeziehung an sich schließt man rekursiv aus den Gleichungen

T n = T n−1 · T = T n−1 · (T − c) + cT n−1 , n > 0.

Sei nun f ∈ ker Φc·id , und zwar f = g · (T − c) + a gemäß der Zerlegung


(∗) mit einem Polynom g ∈ K⌈⌊T ⌉⌋ und einer Konstanten a ∈ K. Es
folgt 
a = Φc·id g · (T − c) + a = Φc·id (f ) = 0
und damit f ∈ K⌈⌊T ⌉⌋ · (T − c). Also bestimmt sich ker Φc·id wie be-
hauptet zu K⌈⌊T ⌉⌋ · (T − c). In der Aufgabenstellung war gefragt nach
den Spezialfällen c = 1 und c = 0.
Ergänzungen: Man kann die Aufgabenstellung auch als Spezialfall
von Aufgabe 1 sehen. Wegen V 6= 0 gilt EndK (V ) 6= 0, und der ka-
nonische Ringhomomorphismus K ✲ EndK (V ), der EndK (V ) als
K-Algebra erklärt, ist injektiv. Somit faktorisieren die zu betrachten-
den Einsetzungshomomorphismen Φc·id : K⌈⌊T ⌉⌋ ✲ EndK (V ) über
K ⊂ ✲ EndK (V ), und dies ist für R = K gerade die Situation, die in
Aufgabe 1 betrachtet wurde.
5.1 Aufgabe 6
Start: Gegeben ist ein Ring R mit einem Ideal a ⊂ R. Es bezeichne
rad a die Menge aller Elemente a ∈ R, so dass es ein n ∈ N mit an ∈ a
gibt.
Ziel : Man zeige, dass rad a ein Ideal in R ist.
444 8. Aufgabentrainer

Strategie: Trivialerweise gilt a ⊂ rad a, also insbesondere rad a 6= ∅.


Sei weiter a ∈ rad a, etwa an ∈ a. Für r ∈ R gilt dann
(ra)n = rn · an ∈ a
und folglich ra ∈ rad a. Indem man r = −1 setzt, sieht man daher,
dass mit a auch −a zu rad a gehört.
Es bleibt noch zu zeigen, dass mit a, b ∈ rad a auch a + b ∈ rad a
gilt. Um zu sehen, wie man vorgehen könnte, schauen wir exemplarisch
den Fall a2 , b2 ∈ a an. Und zwar gilt:
(a + b)2 = a2 + 2ab + b2
(a + b)3 = a3 + 3a2 b + 3ab2 + b3
Aus der ersten Gleichung lässt sich wegen des Terms 2ab noch nicht
(a + b)2 ∈ a schließen. Aber sehr wohl liefert die dritte Gleichung
(a + b)3 ∈ a, denn mit a2 und b2 gehören alle Summanden der rechten
Seite zu a. Der Allgemeinfall sollte sich mithilfe der binomischen Formel
ähnlich behandeln lassen.
Lösungsweg: Wir weisen für rad a die Bedingungen von 5.1/9 nach.
Zunächst gilt rad a 6= ∅ wegen 0 ∈ rad a. Weiter seien a, b ∈ rad a, etwa
ar , bs ∈ a. Dann liefert die binomische Formel
n
X
n
(a − b) = (−1)i an−i bi
i=0

offenbar a − b ∈ rad a, sofern für i = 0, . . . , n stets n − i ≥ r oder i ≥ s


und damit an−i ∈ a oder bi ∈ a gilt. Setzen wir nun t = max{r, s} und
wählen n ≥ 2t, so ergibt sich n − i ≥ r für i ≤ t und i ≥ s für i ≥ t,
und es folgt a − b ∈ rad a.
Im Übrigen hatten wir unter den Strategiebetrachtungen bereits
trivialerweise eingesehen, dass aus a ∈ rad a und r ∈ R auch ra ∈ rad a
folgt.
5.2 Aufgabe 3
Start: Zu betrachten ist der Körper Q der rationalen Zahlen.
Ziel : Es sind alle Unterringe von Q zu bestimmen.
Strategie: Jeder Unterring von Q enthält das Einselement 1 und
damit auch sämtliche natürlichen Zahlen, wie auch die negativen Zah-
len hierzu. Mit anderen Worten, jeder Unterring von Q enthält den
Ring der ganzen Zahlen Z. Dies ist der kleinste Unterring von Q.
5.2 Aufgabe 3 445

Sei nun R ⊂ Q ein Unterring, der eine rationale Zahl x ∈ Q − Z


enthält. Wir schreiben x als Bruch x = ab mit ganzen Zahlen a, b ∈ Z,
den wir als gekürzt annehmen. Dann gilt ggT(a, b) = 1, und es gibt
nach 5.2/16 eine Gleichung ra + sb = 1 mit ganzen Zahlen r, s ∈ Z. Es
folgt r ab + s = 1b und damit 1b ∈ R. Nun ist offenbar Z⌈⌊ 1b ⌉⌋, definiert als
Bild des Einsetzungshomomorphismus

✲ ✲
1
Z⌈⌊T ⌉⌋ Q, T ,
b
ein Unterring von Q. Dieser enthält den Bruch ab und ist offenbar der
kleinste Unterring von Q mit dieser Eigenschaft, so dass Z⌈⌊ 1b ⌉⌋ ⊂ R
gilt.
Die Ringe der Form Z⌈⌊ 1b ⌉⌋ mit b ∈ Z − {0} haben eine interessan-
te Eigenschaft. Ist d ∈ Z ein Teiler von b, so ist d1 ein ganzzahliges
Vielfaches von 1b , und es gilt Z⌈⌊ d1 ⌉⌋ ⊂ Z⌈⌊ 1b ⌉⌋. Hat man sogar b = dn mit
einem Exponenten n > 0, so kann man andererseits 1b = ( d1 )n ∈ Z⌈⌊ d1 ⌉⌋
schließen und damit Z⌈⌊ d1 ⌉⌋ = Z⌈⌊ 1b ⌉⌋. Wir ziehen hieraus eine einfache
Folgerung. Ist b = pn1 1 . . . pnt t eine Primfaktorzerlegung von b mit Ex-
ponenten ni > 0, so gilt
h1i h 1 i
Z =Z .
b p1 . . . pt
In der Tat, p1 . . . pt | b impliziert die Inklusion “ ⊃ ” und b | (p1 . . . pt )e
für eine geeignete Potenz e die Inklusion “ ⊂ ”. Wir dürfen daher bei
den Ringen der Form Z⌈⌊ 1b ⌉⌋ jeweils annehmen, dass b ein Produkt von
paarweise verschiedenen Primzahlen ist. Zusätzlich wird ein anderes
Phänomen sichtbar. Eine unendliche Folge verschiedener Primzahlen
p1 , p2 , . . . führt zu einer aufsteigenden Kette von Unterringen
h1i h 1 i
Z ⊂Z ⊂ . . . ⊂ Q,
p1 p1 p2
und die Vereinigung aller dieser Ringe ergibt einen Unterring von Q,
der offenbar nicht von der Form Z⌈⌊ 1b ⌉⌋ mit b ∈ Z ist. Wir wollen im
Weiteren zeigen, dass es außer den erwähnten Beispielen keine weiteren
Unterringe von Q gibt.
Lösungsweg: Für eine Menge P ⊂ N von Primzahlen setzen wir
na o
RP = ∈ Q ; a, b ∈ Z, b ist Produkt von Primzahlen p ∈ P .
b
446 8. Aufgabentrainer

Dann ist RP ein Unterring von Q, und wir behaupten, dass RP von RP ′
verschieden ist, wenn die Primzahlmengen P und P ′ verschieden sind.
Um dies zu begründen, betrachten wir eine Primzahl p und einen Bruch
a
b
∈ Q mit a, b ∈ Z. Gibt es dann eine Gleichung p1 = ab , also pa = b,
so folgt p | b und damit 1p 6∈ RP für alle Mengen von Primzahlen P , die
p nicht enthalten. Sind daher P und P ′ verschiedene Primzahlmengen,
so ergibt sich RP 6= RP ′ .
Wir wollen nun noch sehen, dass es außer den Ringen des Typs
RP keine weiteren Unterringe von Q gibt. Sei also R ein Unterring
von Q und sei P die Menge aller Primzahlen p mit p1 ∈ R. Dann gilt
RP ⊂ R, und wir behaupten, dass dies bereits eine Gleichheit ist. Sei
nämlich x ∈ R und x = ab mit a, b ∈ Z eine Darstellung als gekürzter
Bruch. Dann gilt 1b ∈ R, wie wir im Rahmen der Strategieüberlegungen
gesehen haben, und somit p1 ∈ R für alle Primzahlen p, die b teilen.
Insbesondere ergibt sich x = ab ∈ RP , und wir sehen dass R = RP
gilt. Es werden also die Unterringe von Q in bijektiver Weise durch
die Ringe des Typs RP parametrisiert, wobei P ⊂ N alle Teilmengen
durchläuft, die lediglich aus Primzahlen bestehen. Dabei gilt RP = Z
für P = ∅ und RP = Q für P die Menge aller Primzahlen.
Ergänzungen: Man betrachte einen Ring R und ein multiplikatives
System S ⊂ R. Letzteres bedeutet 1 ∈ S sowie dass a, b ∈ S stets
ab ∈ S impliziert. Dann kann man unter gewissen Vorsichtsmaßnahmen
bezüglich Nullteilern den Ring RS aller Brüche as mit a ∈ R und s ∈ S
betrachten; siehe [1], Abschnitt 2.7. Man nennt RS die Lokalisierung
von R nach dem multiplikativen System S. Bei den oben betrachteten
Ringen des Typs RP für Primzahlmengen P ⊂ N handelt es sich jeweils
um die Lokalisierung von Z nach dem von P erzeugten multiplikativen
System S, das aus allen Produkten von Elementen aus P besteht.
5.2 Aufgabe 6
Start: Zu betrachten ist der Polynomring Z⌈⌊T ⌉⌋ in einer Variablen
T über dem Ring Z der ganzen Zahlen.
Ziel : Es ist zu zeigen, dass Z⌈⌊T ⌉⌋ kein Hauptidealring ist.
Strategie: Typische Primelemente in Z sind die Primzahlen sowie
in Polynomringen K⌈⌊T ⌉⌋ über einem Körper K die Variable T . Wir
betrachten nun eine Primzahl p sowie die Variable T ∈ Z⌈⌊T ⌉⌋ und
nehmen an, dass Z⌈⌊T ⌉⌋ ein Hauptidealring ist. Da p und T in Z⌈⌊T ⌉⌋
offenbar teilerfremd sind, gibt es dann gemäß 5.2/16 eine Gleichung
5.3 Aufgabe 3 447

r · p + s · T = 1 mit Polynomen r, s ∈ Z⌈⌊T ⌉⌋. Da der konstante Term


von s · T verschwindet, müsste für den konstanten Term r0 von r die
Beziehung r0 · p = 1 gelten. Dies ist aber ausgeschlossen, da p ∈ Z
keine Einheit ist. Also kann Z⌈⌊T ⌉⌋ kein Hauptidealring sein.
Lösungsweg: Wir wollen nun noch genauer zeigen, dass das von
einer Primzahl p und der Variablen T in Z⌈⌊T ⌉⌋ erzeugte Ideal
nX o
a = Z⌈⌊T ⌉⌋ · p + Z⌈⌊T ⌉⌋ · T = an T n ; an ∈ Z, p | a0
n∈N
P
kein Hauptideal ist. Wäre nämlich f = n∈N an T n ∈ a ein erzeugendes
Element, so würde wegen p ∈ a aus Gradgründen a0 | p und an = 0
für n > 0 folgen. Da a nicht das Einheitsideal ist, müsste a0 zu p
assoziiert sein. Andererseits gibt es aber in Z⌈⌊T ⌉⌋ keine Gleichung der
Form T = h · p, so dass a kein Hauptideal sein kann.
Ergänzungen: Man kann mit Hilfe des sogenannten Satzes von
Gauß zeigen, dass Z⌈⌊T ⌉⌋ immerhin noch ein faktorieller Ring ist. Dieser
Satz besagt nämlich, dass der Polynomring R⌈⌊T ⌉⌋ über einem faktori-
ellen Ring R wieder faktoriell ist; vgl. [1], 2.7/1.
5.3 Aufgabe 3
Start: Gegeben ist ein normiertes Polynom f ∈ R⌈⌊T ⌉⌋.
Ziel : Es ist zu zeigen, dass f genau dann prim ist, wenn f = T − α
mit α ∈ R oder f = (T − α)(T − α) mit α ∈ C − R gilt. Dabei ist
α für eine komplexe Zahl α ∈ C die zugehörige konjugiert komplexe
Zahl, die für α = u + iv mit u, v ∈ R durch α = u − iv gegeben ist.
Strategie: Da R⌈⌊T ⌉⌋ ein Hauptidealring ist, sehen wir mit 5.2/12,
dass ein Element f ∈ R⌈⌊T ⌋⌉ genau dann prim ist, wenn es irreduzibel
ist. Zunächst sind Polynome des Typs f = T − α mit α ∈ R aus
Gradgründen in R⌈⌊T ⌉⌋ irreduzibel. Für ein Polynom f des zweiten zu
betrachtenden Typs mit α ∈ C ist
f = (T − α)(T − α) = T 2 − (α + α)T + αα ∈ R⌈⌊T ⌉⌋
auf jeden Fall ein reelles Polynom, denn es gilt α + α = 2Re(α) ∈ R
und weiter αα = |α|2 ∈ R. Ist nun α nicht reell, so ist f zusätzlich irre-
duzibel in R⌈⌊T ⌉⌋. Denn anderenfalls müsste f aus Gradgründen bereits
in R⌈⌊T ⌉⌋ in lineare Faktoren zerfallen und hätte folglich reelle Nullstel-
len, was aber nicht mit den komplexen Nullstellen α, α ∈ C − R zu
vereinbaren ist.
448 8. Aufgabentrainer

Wir wollen nun überlegen, dass irreduzible normierte Polynome


f ∈ R⌈⌊T ⌉⌋ von der behaupteten Form sind. In der Aufgabenstellung
wird vorgeschlagen, den R-Automorphismus C ✲ C, z ✲ z, zu
betrachten und diesen zu einem R⌈⌊T ⌉⌋-Automorphismus
X X
τ : C⌈⌊T ⌉⌋ ✲ C⌈⌊T ⌉⌋, an T n ✲ an T n ,
n∈N n∈N

fortzusetzen. Dieser lässt reelle Polynome fest. Sei nun f ein normiertes
reelles Polynom, welches in R⌈⌊T ⌉⌋ irreduzibel ist und somit einen Grad
≥ 1 besitzt. Wir können dann eine Primfaktorzerlegung von f in C⌈⌊T ⌉⌋
betrachten. Da der Körper C algebraisch abgeschlossen ist, zerfällt f
vollständig in lineare Faktoren,
f = (T − α1 ) . . . (T − αn )
mit Nullstellen α1 , . . . , αn ∈ C. Nun gilt aber
(T − α1 ) . . . (T − αn ) = f = τ (f ) = (T − α1 ) . . . (T − αn ),
und die Eindeutigkeit der Primfaktorzerlegung in C⌈⌊T ⌉⌋ besagt, dass
die Menge der komplexen Nullstellen von f invariant ist unter kom-
plexer Konjugation, die Nullstellen also entweder reell sind oder als
Paare komplex konjugierter nicht-reeller Nullstellen auftreten. Daraus
schließt man leicht, wie wir sehen werden, dass f von der behaupteten
Form ist.
Lösungsweg: Wie oben betrachten wir den von der komplexen Kon-
jugation induzierten R⌈⌊T ⌉⌋-Automorphismus τ : C⌈⌊T ⌉⌋ ✲ C⌈⌊T ⌉⌋. Da
eine komplexe Zahl z ∈ C genau dann reell ist, wenn z = z gilt, sehen
wir, dass ein komplexes Polynom f ∈ C⌈⌊T ⌉⌋ genau dann reell ist, wenn
τ (f ) = f gilt. Insbesondere folgt auf diese Weise, dass die Polynome
des Typs (T − α)(T − α) mit α ∈ C reell sind. Weiter können wir
wie oben argumentieren, dass die Polynome T − α für α ∈ R sowie
(T − α)(T − α) für α ∈ C − R irreduzibel in R⌈⌊T ⌉⌋ sind.
Sei nun umgekehrt f ein irreduzibles (und damit nicht-konstantes)
normiertes Polynom in R⌈⌊T ⌉⌋ und sei
f = (T − α1 ) . . . (T − αn )
eine Primfaktorzerlegung in C⌈⌊T ⌉⌋ mit den Nullstellen α1 , . . . , αn ∈ C
von f . Die Gleichung τ (f ) = f zeigt sodann unter Benutzung der
6.1 Aufgabe 3 449

Eindeutigkeit der Primfaktorzerlegung in C⌈⌊T ⌉⌋, siehe 5.2/15, dass die


Faktoren (T − α1 ), . . . , (T − αn ) bis eventuell auf die Reihenfolge mit
den Faktoren (T − α1 ), . . . , (T − αn ) übereinstimmen. Ist nun α1 reell,
so folgt α1 = α1 , und die Faktoren (T − α2 ), . . . , (T − αn ) stimmen mit
den konjugierten Faktoren (T −α2 ), . . . , (T −αn ) überein. Insbesondere
ist g = (T − α2 ) . . . (T − αn ) ein reelles Polynom, so dass in R⌈⌊T ⌉⌋ die
Zerlegung f = (T − α1 ) · g besteht. Da aber f normiert und irreduzibel
in R⌈⌊T ⌉⌋ ist, ergibt sich g = 1 und damit wie gewünscht f = T − α1 .
Ist andererseits α1 nicht reell, gilt also α1 6= α1 , so taucht α1 un-
ter den Nullstellen α2 , . . . , αn auf, etwa α1 = α2 , und die restlichen
Faktoren (T − α3 ), . . . , (T − αn ) stimmen bis auf die Reihenfolge mit
(T − α3 ), . . . , (T − αn ) überein. Entsprechend sind
(T − α1 )(T − α1 ), g = (T − α3 ) . . . (T − αn )
reelle Polynome, welche die Beziehung f = (T −α1 )(T −α1 )·g erfüllen.
Da f als normiert und irreduzibel vorausgesetzt war, ergibt sich g = 1
und damit f = (T − α1 )(T − α1 ).

Normalformentheorie

6.1 Aufgabe 3
Start: Zu betrachten ist eine konkret gegebene Matrix A ∈ R4×4 ,
die von oberer Dreiecksgestalt ist.
Ziel : Es sollen alle Eigenwerte von A und die zugehörigen Eigen-
räume berechnet werden. Außerdem ist die Frage gestellt, ob A diago-
nalisierbar ist.
Strategie: Um die Notation einfach zu gestalten, setzen wir V = R4
und betrachten die durch die Matrix A gegebene lineare Abbildung
f: V ✲ V, x ✲ Ax. Ob ein Element λ ∈ R ein Eigenwert von f
bzw. A ist, können wir sodann an dem linearen Unterraum

Vλ = ker(f − λ id) = x ∈ V ; f (x) = λx ⊂ V
ablesen. Und zwar ist λ genau dann ein Eigenwert von f bzw. A, wenn
Vλ 6= 0 gilt; im letzteren Fall ist Vλ der Eigenraum zum Eigenwert λ.
Um schließlich Vλ = ker(f − λ id) 6= 0 zu testen, erinnern wir uns an
die Dimensionsformel
450 8. Aufgabentrainer

dimR V = dimR ker(f − λ id) + dimR im(f − λ id)

aus 2.1/10. Sie zeigt, dass Vλ genau dann nicht-trivial ist, wenn

rg(A − λE) = rg(f − λ id) = dimR im(f − λ id) < dimR V = 4

gilt, wobei E ∈ R4×4 die Einheitsmatrix bezeichne. Damit ist der Lö-
sungsweg für unser Problem vorgezeichnet: Der Rang einer Matrix des
Typs A − λE lässt sich mit Hilfe des Gaußschen Eliminationsverfah-
rens 3.2/4 bestimmen, und dieses Verfahren kann man weiter dazu
nutzen, um den Kern, also alle Vektoren x ∈ V mit Ax = λx, zu be-
stimmen; vgl. Abschnitt 3.5. Die Frage der Diagonalisierbarkeit von A
löst sich dann mittels 6.1/12.
Lösungsweg: Wie wir bereits gesehen haben, ist ein Element λ ∈ R
genau dann ein Eigenwert der Matrix A, wenn
 

2−λ 1 0 1 

0 2−λ 0 1 
rg(A − λE) = rg   < 4
 



0 0 2−λ 1 


0 0 0 2−λ
gilt. Nun liegt aber A − λE für λ 6= 2 bereits in Zeilenstufenform vor,
und wir können daraus rg(A−λE) = 4 ablesen; vgl. 3.2/4. Andererseits
ergibt sich für λ = 2
 

0 1 0 1
0 0 0 1

rg(A − 2E) = rg   = 2,

0 0 0 1


 
0 0 0 0
indem wir die zweite Zeile von der dritten subtrahieren und damit eine
Zeilenstufenform vom Rang 2 herstellen. Somit besitzt A als einzigen
Eigenwert λ = 2, und der zugehörige Eigenraum V2 hat gemäß der
Formel 2.1/10 die Dimension

dimR V2 = dimR R4 − rg(A − 2 id) = 4 − 2 = 2.

Da V2 der einzige Eigenraum zu A ist und zudem echt in R4 enthalten


ist, sehen wir mit 6.1/12, dass A nicht diagonalisierbar ist.
Es bleibt noch der Eigenraum V2 zu bestimmen. Wie bereits er-
wähnt, erhalten wir die Matrix
6.1 Aufgabe 7 451
 

0 1 0 1
0 0 0 1


 
0 0 0 0


 
0 0 0 0

als Zeilenstufenform zu A − 2E. Damit reduziert sich das homogen


lineare Gleichungssystem (A − 2E) · (x1 , x2 , x3 , x4 )t = 0 zu

x2 + x4 = 0, x4 = 0,

und man sieht, entweder auf direkte Weise oder mit dem Verfahren
aus 3.5, dass die Vektoren (1, 0, 0, 0)t und (0, 0, 1, 0)t eine Basis des
zugehörigen Lösungsraums und damit des Eigenraums V2 bilden.
6.1 Aufgabe 7
Start: Gegeben ist ein kommutatives Diagramm linearer Abbildun-
gen zwischen K-Vektorräumen
f
V ✲ V
h h
❄ g

W ✲ W ,
wobei V als endlich-dimensional vorausgesetzt ist.
Ziel : Für h injektiv ist zu zeigen, dass jeder Eigenwert von f auch
Eigenwert von g ist. Umgekehrt ist für h surjektiv zu zeigen, dass
jeder Eigenwert von g auch Eigenwert von f ist. Weiter soll anhand
von Beispielen erklärt werden, dass die vorstehenden Voraussetzungen
“injektiv” bzw. “surjektiv” nicht entbehrlich sind.
Strategie: Sei zunächst h injektiv. Ist dann x ∈ V − {0} ein Eigen-
vektor von f zum Eigenwert λ ∈ K, so gilt aufgrund der Kommutati-
vität des Diagramms
 
g h(x) = h f (x) = h(λx) = λh(x).

Da h injektiv ist, folgt h(x) 6= 0, und es ist daher h(x) ∈ W ein


Eigenvektor von g zum Eigenwert λ.
Sei nun h surjektiv und y ∈ W − {0} ein Eigenvektor von g zum
Eigenwert λ ∈ K. Wählen wir dann ein h-Urbild x ∈ V zu y, so wissen
wir lediglich
452 8. Aufgabentrainer


h f (x) = g(y) = λy = h(λx),
also f (x) − λx ∈ ker h, ohne dass wir daraus f (x) = λx schließen
können, da h nicht notwendig injektiv ist. Nun ist aber offenbar das
Diagramm
f −λ id
V ✲V

h h
❄ g−λ id

W ✲W
kommutativ, und wir können daraus fλ (ker h) ⊂ ker h schließen, wobei
wir fλ anstelle von f −λ id schreiben. Gibt es nun ein Element a ∈ ker h
mit fλ (x) = fλ (a), beispielsweise wenn die Einschränkung von fλ auf
ker h surjektiv ist, so folgt fλ (x − a) = 0, und x − a ∈ V wäre ein
Eigenvektor von f zum Eigenwert λ; dabei beachte man x − a 6= 0
wegen h(x − a) = h(x) = y 6= 0. Obwohl f |ker h im Allgemeinfall
nicht surjektiv sein wird, werden wir dennoch sehen können, dass ein
Argument dieser Art zum Ziel führt, wenn wir indirekt vorgehen.
Lösungsweg: Wir setzen fλ = f − λ id bzw. gλ = g − λ id für λ ∈ K
und betrachten das kommutative Diagramm

V ✲ V
h h
❄ gλ

W ✲ W .
Ist dann h injektiv, so können wir h als Inklusionsabbildung interpre-
tieren, so dass ker fλ = V ∩ ker gλ gilt. Wenn nun λ ein Eigenwert zu
f ist, so folgt ker fλ 6= 0 und damit ker gλ 6= 0, und wir erkennen λ als
Eigenwert von g.
Sei schließlich h surjektiv. Wir gehen indirekt vor und nehmen
an, dass λ kein Eigenwert von f ist. Dann ist fλ injektiv und wegen
dimK V < ∞ nach 2.1/11 sogar bijektiv. Weiter gilt fλ (ker h) ⊂ ker h
aufgrund der Kommutativität des obigen Diagramms, und es folgt mit
demselben Dimensionsargument, dass die Einschränkung von fλ auf
ker h bijektiv ist. Insbesondere ergibt sich fλ−1 (ker h) = ker h. Dia-
grammjagd zeigt nun, dass gλ bijektiv ist und folglich λ kein Eigenwert
von g sein kann. Ist also λ Eigenwert von g, so notwendigerweise auch
von f .
6.2 Aufgabe 2 453

Um zu sehen, dass die Voraussetzungen “injektiv” bzw. “surjek-


tiv” nicht überflüssig sind, betrachten wir zwei triviale Beispiele. Sei
zunächst V ein nicht-trivialer K-Vektorraum, etwa V = K, und sei
f: V ✲ V die Identität. Weiter setzen wir W = 0 und betrach-
ten die Nullabbildungen h : V ✲ W sowie g : W ✲ W . Dann ist
1 ein Eigenwert von f , aber g besitzt keine Eigenwerte. Andererseits
betrachte man V = 0, die Nullabbildung f : V ✲ V , sowie einen
nicht-trivialen K-Vektorraum W , etwa W = K, und die identische
Abbildung g : W ✲ W . Weiter sei h : V ✲ W die kanonische
Inklusionsabbildung. Dann ist 1 ein Eigenwert von g, aber f besitzt
keinerlei Eigenwerte.
Ergänzungen: Hintergrund ist das sogenannte Schlangenlemma,
dessen Anwendung wir für den Fall der Surjektivität von h erklären
wollen; vgl. [2], 1.5/2. Und zwar betrachtet man für fλ , gλ wie oben
und fλ′ = fλ |ker h das folgende kommutative Diagramm mit exakten
Zeilen: h
0 ✲ ker h ✲V ✲W ✲0

fλ′ fλ gλ
❄ ❄ h

0 ✲ ker h ✲ V ✲ W ✲ 0
Das Schlangenlemma liefert dann eine kanonische exakte Sequenz
0 ✲ ker fλ′ ✲ ker fλ ✲ ker gλ
✲ coker f ′ ✲ coker fλ ✲ coker gλ ✲ 0,
λ

wobei für eine lineare Abbildung von K-Vektorräumen ϕ : U ′ ✲U



deren Cokern durch coker ϕ = U/ϕ(U ) gegeben ist. Hieraus können
wir leicht die Lösung unseres Problems ablesen. Ist fλ′ surjektiv, so
gilt coker fλ′ = 0, und es folgt, dass ker fλ ✲ ker gλ surjektiv ist.
Diese Situation hatten wir hergestellt, indem wir fλ als injektiv und V
als endlich-dimensional angenommen hatten, also vorausgesetzt hat-
ten, dass λ kein Eigenwert von f ist. Aus ker fλ = 0 ergab sich dann
ker gλ = 0. Im Allgemeinfall ist die Abbildung ker fλ ✲ ker gλ genau
dann surjektiv, wenn die Abbildung coker fλ′ ✲ coker fλ injektiv ist.

6.2 Aufgabe 2
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum V mit
einem Endomorphismus f : V ✲ V . Und zwar sind folgende Fälle
zu betrachten:
454 8. Aufgabentrainer

(i) V = 0
(ii) f = id
(iii) f = 0
(iv) V = V1 ⊕ V2 mit linearen Unterräumen V1 , V2 ⊂ V , wobei
f |V1 = id sowie f |V2 = 0 gilt.
Ziel : Es ist jeweils das Minimalpolynom pf von f zu bestimmen.
Strategie: Ausgangspunkt aller Überlegungen ist die Definition des
Minimalpolynoms pf gemäß 6.2/9 bzw. 6.2/10 als erzeugendes Element
des Kerns des Einsetzungshomomorphismus ϕf : K⌈⌊T ⌉⌋ ✲ EndK (V ),
T ✲ f . Hilfreich kann dabei auch das charakteristische Polynom
χf in Verbindung mit dem Satz von Cayley-Hamilton 6.2/11 sein, in-
dem man benutzt, dass pf ein Teiler von χf ist. Dabei bildet V = 0
einen Sonderfall, denn hier gibt es nur einen einzigen Endomorphis-
mus V ✲ V , den wir als Identität id oder auch als Nullabbildung 0
interpretieren können, wobei also insbesondere id = 0 gilt.
Lösungsweg: Wir betrachten den genannten Einsetzungshomomor-
phismus ϕf : K⌈⌊T ⌉⌋ ✲ EndK (V ), T ✲ f . Im Falle (i), also V = 0,
gilt EndK (V ) = 0 und damit ϕf = 0. Daher ist ker ϕf das Einheits-
ideal, und es folgt pf = 1. Wir wollen diesen Spezialfall im Weiteren
ausschließen und setzen V von nun an als K-Vektorraum einer Dimen-
sion n > 0 voraus.
Dann wird f = id, wie in (ii), bezüglich einer beliebigen Basis von
V durch die Einheitsmatrix E ∈ K n×n beschrieben, und das zugehörige
charakteristische Polynom ist von der Form χf = (T − 1)n . Benutzen
wir weiter, dass pf aufgrund des Satzes von Cayley-Hamilton 6.2/11 ein
Teiler von χf ist und testen (T − 1)0 (f ) = id 6= 0 sowie (T − 1)(f ) = 0,
so ergibt sich pf = T − 1.
Sei nun f = 0 wie in (iii). Man schließt ähnlich wie in (ii) und
erhält χf = T n sowie pf = T .
Im Fall (iv) schließlich dürfen wir V1 6= 0 und V2 6= 0 annehmen,
denn ansonsten befinden wir uns wieder in der Situation von (ii) oder
(iii). Gelte also dimK V1 = n1 und dimK V2 = n2 mit n1 , n2 > 0 und
natürlich n1 + n2 = n. Ein Test ergibt wegen f |V1 = id sowie f |V2 = 0,
dass f von (T − 1) · T annulliert wird, aber von keinem Teiler hiervon.
Deshalb bleibt als einzige Möglichkeit pf = (T − 1) · T .
6.2 Aufgabe 5 455

6.2 Aufgabe 5
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum V mit
einem Endomorphismus f : V ✲ V . Dieser ist als Automorphismus
vorausgesetzt, so dass auch die inverse Abbildung f −1 : V ✲ V als
Automorphismus von V existiert.
Ziel : Es ist zu zeigen, dass man f −1 als Polynom in f schreiben
kann, also dass es ein Polynom q ∈ K⌈⌊T ⌉⌋ gibt mit f −1 = q(f ).
Strategie: Wie wir wissen, gibt es eine Gleichung der Form

f n + c1 f n−1 + . . . + cn f 0 = 0

mit Konstanten ci ∈ K. Mittels eines kleinen Tricks erhält man hieraus

f ◦ (f n−1 + c1 f n−2 + . . . + cn−1 f 0 ) = −cn f 0 = −cn id,

und wir können durch Multiplikation von links mit f −1 auf

f −1 = −c−1
n (f
n−1
+ c1 f n−2 + . . . + cn−1 f 0 )

schließen, sofern cn 6= 0 gilt. Nun liegt es nahe, zu vermuten, dass zu-


mindest für das Minimalpolynom pf ∈ K⌈⌊T ⌉⌋ der konstante Term nicht
verschwindet. Um dies zu bestätigen, gehen wir indirekt vor und neh-
men pf = T · p mit einem Polynom p ∈ K⌈⌊T ⌉⌋ an. Da grad p < grad pf
gelten muss, ergibt sich p(f ) 6= 0, und es existiert ein Element x ∈ V
mit y = p(f )(x) 6= 0. Aber f (y) = pf (f )(x) = 0 würde y ∈ ker f
und damit ker f 6= 0 implizieren, was jedoch ausgeschlossen ist, da es
sich bei f um einen Automorphismus handelt. Alternativ können wir
aus der Gleichung pf = T · p mittels des Satzes von Cayley-Hamilton
schließen, dass f einen Eigenvektor zum Eigenwert 0 besitzt, im Wi-
derspruch zur Injektivität von f . Auf jedem Fall ist eine Zerlegung der
Form pf = T · p nicht möglich, und wir sehen, dass der konstante Term
des Minimalpolynoms pf nicht trivial sein kann.
Lösungsweg: Am einfachsten ist es, das charakteristische Polynom
χf zu betrachten. Für dieses gilt χf (f ) = 0 aufgrund des Satzes von
Cayley-Hamilton. Zudem stimmt der konstante Term von χf gemäß
6.2/3 bis auf das Vorzeichen mit det f überein, und es gilt det f 6= 0
gemäß 4.3/4. Der oben vorgeführte Trick kann daher genutzt werden,
um f −1 als Polynom in f mit Koeffizienten aus K zu beschreiben.
456 8. Aufgabentrainer

6.3 Aufgabe 3
Start: Es sei R ein Hauptidealring mit Elementen a11 , . . . , a1n ∈ R,
die teilerfremd sind, also ggT(a11 , . . . , a1n ) = 1 erfüllen.
Ziel : Zu konstruieren sind weitere Elemente aij ∈ R für i = 2, . . . , n,
j = 1, . . . , n, so dass die Matrix A = (aij )i,j=1,...,n in Rn×n invertierbar
ist. Von A ist also die erste Zeile durch (a11 , . . . , a1n ) festgelegt, und es
ist zu zeigen, dass man n − 1 weitere Zeilen hinzufügen kann, so dass
man eine in Rn×n invertierbare Matrix erhält.
Strategie: Wir wollen die Teilerfremdheit der Elemente a11 , . . . , a1n
mit der Elementarteilertheorie in Verbindung bringen und betrachten
deshalb die Elementarteiler von A1 = (a11 , . . . , a1n ), aufgefasst als Ma-
trix in R1×n . Das Verfahren für Hauptidealringe aus 6.3/5 zeigt dann,
dass sich A1 mittels Multiplikation mit invertierbaren Matrizen aus
Rn×n von rechts, die wir in konkreter Weise als Spaltentransformatio-
nen interpretiert hatten, in die Gestalt (α, 0, . . . , 0) bringen lässt, mit
einer Konstanten α ∈ R, die den ersten (und einzigen) Elementar-
teiler von A1 darstellt. Es existiert daher eine Gleichung des Typs
A1 · T = (α, 0, . . . , 0) mit einer invertierbaren Matrix T ∈ Rn×n . Dann
folgt A1 = (α, 0, . . . , 0) · T −1 , und wir sehen, dass α ein gemeinsa-
mer Teiler von a11 , . . . , a1n ist, also eine Einheit. Somit können wir A1
mittels geeigneter invertierbarer Spaltentransformationen in den Zei-
lenvektor (1, 0, . . . , 0) ∈ R1×n überführen. Wenn wir diese Zeile nun als
erste Zeile der Einheitsmatrix E ∈ Rn×n auffassen und die zuvor be-
trachteten Spaltentransformationen invertiert auf E anwenden, sollten
wir zu einer Matrix A gelangen, die das Gewünschte leistet.
Lösungsweg: Es sei F = Rn der freie R-Modul aller n-Tupel von
Elementen aus R, die wir wie üblich als Spaltenvektoren interpretieren.
Weiter sei M der von der Spalte (a11 , . . . , a1n )t erzeugte R-Untermodul.
Sodann besagt der Elementarteilersatz 6.3/4 unter Verwendung von
6.3/7, dass es eine Basis X = (x1 , . . . , xn ) von F gibt mit M = R · αx1
für eine geeignete Konstante α ∈ R. Da α alle Elemente a1j teilen
muss und diese aber teilerfremd sind, können wir α = 1 und somit
sogar x1 = (a11 , . . . , a1n )t annehmen. Für die kanonische Basis e von
Rn betrachten wir nun die Basiswechselmatrix Aid,X,e . Diese ist inver-
tierbar und besitzt (a11 , . . . , a1n )t als erste Spalte. Sodann ist Atid,X,e
eine invertierbare Matrix in Rn×n , die wie gewünscht (a11 , . . . , a1n ) als
erste Zeile besitzt.
6.3 Aufgabe 6 457

6.3 Aufgabe 6
Start: Gegeben ist ein endlich erzeugter R-Modul M über einem
kommutativen Ring mit 1, wobei M zudem ein freies Erzeugendensys-
tem besitze.
Ziel : Es ist zu zeigen, dass jedes freie Erzeugendensystem von M
endlich ist und aus gleichvielen Elementen besteht.
Strategie: Zunächst ist anzumerken, dass der Fall M = 0 trivial
ist. Wir dürfen daher M 6= 0 und damit insbesondere auch R 6= 0 an-
nehmen. Ist nun X = (xi )i∈I ein freies Erzeugendensystem und Y ein
endliches Erzeugendensystem von M , so ist jedes Element y ∈ Y eine
Linearkombination von endlich vielen der Erzeugenden xi , und wir se-
hen insgesamt, dass M von einem endlichen Teilsystem von X erzeugt
wird. Da aber X ein freies Erzeugendensystem ist, folgt notwendig,
dass X selbst endlich ist.
Seien nun X = (x1 , . . . , xm ) und Y = (y1 , . . . , yn ) zwei (endliche)
freie Erzeugendensysteme von M . Indem man einem Element z ∈ M
seinen zugehörigen Koordinatenspaltenvektor zX bzw. zY bezüglich der
Basen X bzw. Y von M zuordnet, ergeben sich Isomorphismen von
R-Moduln M ∼✲ Rm sowie M ∼✲ Rn . Insgesamt erhält man
damit einen Isomorphismus von R-Moduln ϕ : Rm ∼✲ Rn , und es
ist zu zeigen, dass ein solcher Isomorphismus nur im Falle m = n
bestehen kann.
Ist etwa R ein Körper, so ergibt sich m = n aufgrund von Di-
mensionstheorie; siehe 2.1/8. Ist R kein Körper, aber immerhin noch
ein Hauptidealring, so konnten wir zum Beweis von 6.3/7 ein Primele-
ment p ∈ R wählen und dann den von ϕ induzierten Isomorphismus
ϕp : (R/pR)m ∼✲ (R/pR)n betrachten. Da R/pR nach 5.2/17 ein
Körper ist, können wir auch hier auf m = n schließen. Dasselbe Argu-
ment funktioniert für allgemeine kommutative Ringe R mit 1, sofern
wir in R ein Ideal m finden können, derart dass der Restklassenring
R/m ein Körper ist.
Eine alternative Schlussweise ist möglich für Integritätsringe R.
Und zwar kann man dann zu R den Körper
na o
Q(R) = ; a, b ∈ R, b 6= 0
b
aller Brüche mit den üblichen Regeln und Konventionen der Bruch-
rechnung betrachten. Wir hatten diese Konstruktion bereits im Ab-
458 8. Aufgabentrainer

schnitt 6.2 für den Polynomring R = K⌈⌊T ⌉⌋ über einem Körper K be-
nutzt. Sodann gewinnt man aus dem Isomorphismus ϕ : Rm ∼✲ Rn
mittels Bruchbildung einen Isomorphismus von Q(R)-Vektorräumen
ϕQ(R) : Q(R)m ∼✲ Q(R)n und kann ebenfalls m = n schließen.
Im Prinzip ist dieses Verfahren auch im Allgemeinfall anwendbar,
wenn man zeigt, dass jeder Ring R 6= 0 ein sogenanntes Primideal
p enthält, welches dadurch charakterisiert ist, dass der Restklassen-
ring R/p ein Integritätsring ist. Dann induziert der Isomorphismus
ϕ : Rm ∼✲ Rn nämlich einen Isomorphismus von (R/p)-Moduln
ϕp : (R/p)m ∼✲ (R/p)n , wobei nun R/p ein Integritätsring ist.
Lösungsweg: Der Fall M = 0 ist trivial, wir setzen daher M 6= 0
und insbesondere R 6= 0 voraus. Es genügt dann, wie bereits erläu-
tert, ein Ideal m ⊂ R zu konstruieren, derart dass R/m ein Körper
ist; ein solches Ideal ist insbesondere ein Primideal und wird auch als
maximales Ideal in R bezeichnet.
Um ein maximales Ideal in einem Ring R 6= 0 zu konstruieren,
betrachten wir die Menge A aller echten Ideale a ( R mit der durch
die Inklusion gegebenen teilweisen Ordnung. Aufgrund des Zornschen
Lemmas 1.5/15 besitzt A ein maximales Element m, so dass also für
jedes Ideal a ⊂ R mit m ⊂ a bereits m = a oder a = R folgt. Wir
behaupten, dass dann der Restklassenring R/m ein Körper ist, und
zeigen hierfür, dass jedes von Null verschiedene Element α ∈ R/m eine
Einheit ist. In der Tat, das Urbild des Hauptideals (α) ⊂ R/m unter der
kanonischen Projektion R ✲ R/m ergibt ein Ideal a ⊂ R mit m ( a,
also mit a = R. Sodann folgt (α) = R/m, und wir sehen, dass α eine
Einheit in R/m ist. Ein maximales Element m ∈ A führt also zu einem
Restklassenring R/m, der ein Körper ist. Allgemeiner kann man für ein
Ideal m ⊂ R leicht zeigen, dass der Restklassenring R/m genau dann
ein Körper ist, wenn m ein maximales Element in A ist; die Bezeichnung
maximales Ideal für Ideale dieses Typs ist daher gerechtfertigt.
Im Rahmen der Strategieüberlegungen haben wir bereits gezeigt,
dass freie Erzeugendensysteme von M endlich sind und dass je zwei
solche Systeme, etwa der Längen m und n zu einem Isomorphismus von
R-Moduln ϕ : Rm ∼✲ Rn führen. Ist dann m ⊂ R ein maximales
Ideal, so induziert ϕ einen Isomorphismus von (R/m)-Vektorräumen
ϕm : (R/m)m ∼✲ (R/m)n , und wir können wie gewünscht m = n
mit Hilfe des Dimensionsarguments 2.1/8 schließen.
6.4 Aufgabe 1 459

6.4 Aufgabe 1
Start: Gegeben ist eine endliche abelsche Gruppe G; die Anzahl
der Elemente von G wird mit ord G bezeichnet, als Ordnung von G.
Ziel : Ist H ⊂ G eine Untergruppe, so ist ord H ein Teiler von ord G.
Andererseits gibt es zu jedem Teiler d von ord G eine Untergruppe
H ⊂ G mit ord H = d.
Strategie: Es liegt nahe, den Struktursatz 6.4/4 zu verwenden. Be-
zeichnet P ⊂ N die Menge der Primzahlen, so besagt dieses Resultat,
dass G eine direkte Summe von Gruppen des Typs Z/pn Z ist, wobei
p ∈ P und n ∈ N variieren. Aus einer solchen Zerlegung lässt sich die
Ordnung von G bestimmen, und zwar als Produkt der Ordnungen der
einzelnen Summanden. Denn sind A, B endliche abelsche Gruppen, so
gilt

(∗) ord(A ⊕ B) = ord(A) · ord(B),

da wir endliche direkte Summen auch als kartesische Produkte inter-


pretieren können.
Die Gruppe Gp,n = Z/pn Z besitzt die Ordnung pn , wie man leicht
nachprüft. Offenbar enthält Gp,n die Kette der n + 1 Untergruppen

{0} = pn Gp,n ⊂ pn−1 Gp,n ⊂ . . . ⊂ p0 Gp,n = Gp,n ,

wobei pi Gp,n = pi Z/pn Z ≃ Z/pn−i Z und also ord pi Gp,m = pn−i für
i = 0, . . . , n gilt. Damit existiert zu jedem Teiler d von ord Gp,n = pn
eine Untergruppe H ⊂ Gp,n mit ord H = d. Mit 6.4/4 und unter Ver-
wendung von (∗) kann man dann auch für beliebige endliche abelsche
Gruppen G sehen, dass zu jedem Teiler d von ord G eine Untergruppe
H ⊂ G mit ord H = d existiert.
Es bleibt noch zu überlegen, dass für Untergruppen H ⊂ G stets
ord H ein Teiler von ord G ist. Wir wollen einmal den einfachen Fall
G = Z/pn Z für p ∈ P und n ∈ N betrachten. Dann können wir
Z/pn Z als Restklassenring von Z auffassen und die kanonische Pro-
jektion π : Z ✲ Z/pn Z betrachten. Offenbar ist eine Untergruppe
H ⊂ Z/p Z bereits ein Ideal in Z/pn Z und folglich a = π −1 (H) ein
n

Ideal in Z, welches das Ideal ker π = (pn ) enthält. Nun ist Z ein Haupt-
idealring und somit a ein Hauptideal, etwa a = (a). Weiter gilt a | pn
wegen pn ∈ a, etwa a = pi mit 0 ≤ i ≤ n, und wir können daraus
460 8. Aufgabentrainer

H = pi Z/pn Z ≃ Z/pn−i Z schließen. Insbesondere folgt ord H = pn−i ,


und dies ist ein Teiler von ord G = pn .
Ist G eine beliebige endliche abelsche Gruppe, so existiert gemäß
6.4/4 eine direkte Summenzerlegung von G in Untergruppen des Typs
Z/pn Z. Allerdings können wir für eine Untergruppe H ⊂ G im Allge-
meinen nicht erwarten, dass diese Zerlegung sich zu einer entsprechen-
den Zerlegung von H einschränkt. Aber wir können etwas vorsichtiger
vorgehen. Gilt etwa G = A ⊕ B mit endlichen abelschen Gruppen A,
B, so gibt es dazu die kanonische kurze exakte Sequenz
ι τ
0 ✲ A ✲ A⊕B ✲ B ✲ 0,

wobei ι : A ⊂ ✲ A⊕B die Inklusion des ersten Summanden und weiter


τ : A ⊕ B ✲ B die Projektion auf den zweiten Summanden ist. Hat
man dann eine Untergruppe H ⊂ A ⊕ B, so ergibt sich eine kurze
exakte Sequenz

0 ✲ ι−1 (H) ✲ H ✲ τ (H) ✲ 0

von Untergruppen in A, A ⊕ B, bzw. B, aus der man die Relation


ord H = ord(ι−1 (H))·ord(τ (H)) ablesen kann. Wissen wir also bereits,
dass A und B abelsche Gruppen sind, derart dass die Ordnung von
Untergruppen stets die Ordnungen von A bzw. B teilt, so können wir
ord H | (ord A · ord B), also ord H | ord G schließen. Dieses Argument
lässt sich in rekursiver Weise anwenden, und man erhält mittels 6.4/4
schließlich ord H | ord G für beliebige endliche abelsche Gruppen G und
Untergruppen H ⊂ G.
Lösungsweg: Da G eine endliche Gruppe und damit eine Torsions-
gruppe ist, reduziert sich die Zerlegung aus 6.4/4 zu
M M
G= Z/pn(p,jp ) Z
p∈P jp =1...sp

mit Exponenten 1 ≤ n(p, 1) ≤ . . . ≤ n(p, sp ). Da man ord Z/pn Z = pn


für p ∈ P und n ∈ N hat, berechnet sich die Ordnung von G gemäß
der obigen Regel (∗) zu
Y P
ord G = p jp =1...sp n(p,jp ) .
p∈P
6.4 Aufgabe 1 461

Q
Ist nun d ∈ N ein P Teiler von ord G, etwa d = p∈P p , wobei die
rp

Exponenten rp ≤ jp =1...sp n(p, jp ) für p ∈ P erfüllen müssen, so wähle


man natürliche Zahlen r(p, jp ) ≤ n(p, jp ) für p ∈ P und jp = 1 . . . sp mit
P
jp =1...sp r(p, jp ) = rp . Weiter betrachte man jeweils eine Untergruppe
Hp,jp ⊂ Z/pn(p,jp ) Z der Ordnung pr(p,jp ) ; dies ist möglich, wie wir im
Rahmen der Strategieüberlegungen gesehen haben. Sodann ist
M M M M
H= Hp,jp ⊂ Z/pn(p,jp ) Z
p∈P jp =1...sp p∈P jp =1...sp

eine Untergruppe in G der Ordnung d. Es gibt also zu jedem Teiler d


von ord G eine Untergruppe H ⊂ G der Ordnung d.
Sei andererseits eine Untergruppe H ⊂ G gegeben. Um zu sehen,
dass ord H ein Teiler von ord G ist, fassen wir G als Z-Modul auf und
benutzen den Struktursatz 6.4/4. Als endliche
L abelsche Gruppe ist G
ein Z-Torsionsmodul, und es gilt G = p∈P Gp ; dabei ist Gp ⊂ G für
p ∈ P der Untermodul der p-Torsion, also
Gp = {x ∈ G ; pn x = 0 für geeignetes n ∈ N}.
L
Entsprechend gilt H = p∈P Hp , wobei naturgemäß Hp ⊂ Gp für
die Untermoduln
L der p-Torsion gelten muss. Weiter zeigt die Zerle-
gung Gp = jp =1...sp Gp,jp aus 6.4/4 in Verbindung mit der eingangs
erwähnten Regel (∗), dass Gp und entsprechend Hp abelsche Grup-
pen von p-Potenz-Ordnung sind. Dann ist aber offensichtlich, dass aus
Hp ⊂ Gp bereits ord L Hp | ord Gp für p ∈LP folgt. Mit (∗) und den
Zerlegungen G = p∈P Gp sowie H = p∈P Hp ergibt sich daraus
ord H | ord G.
Ergänzungen: Für eine endliche (nicht notwendig abelsche) Gruppe
G und eine Untergruppe H ⊂ G gilt stets ord H | ord G; dies folgt
aus dem sogenannten Satz von Lagrange, siehe [1], 1.2/3. Um diesen
Satz zu beweisen, betrachtet man zu Elementen a ∈ G Teilmengen
der Form aH = {ah ; h ∈ H} ⊂ G, sogenannte Linksnebenklassen zu
H. Man zeigt in einfacher Rechnung, dass je zwei Linksnebenklassen
zu H gleichviele Elemente besitzen und dass solche Klassen disjunkt
sind, sofern sie verschieden sind. Damit ergibt sich die Ordnung von G
als Produkt der Ordnung von H mit der Anzahl der Linksnebenklassen
von H in G; dies ist die Aussage des Satzes von Lagrange. Insbesondere
gilt ord H | ord G.
462 8. Aufgabentrainer

6.4 Aufgabe 6
Start: Zu betrachten ist eine endliche Gruppe G, die als multipli-
kative Untergruppe der Einheitengruppe K ∗ eines Körpers K gegeben
ist.
Ziel : Es ist zu zeigen, dass G zyklisch ist, d. h. dass es ein n ∈ Z
mit G ≃ Z/nZ gibt.
Strategie: Wir wählen ein Element g ∈ G und betrachten dessen
Potenzen g 0 , g 1 , g 2 , . . .. Da G endlich ist, können diese Potenzen nicht
alle paarweise verschieden sein. Es gibt daher Exponenten r, s ∈ N, et-
wa r < s mit g r = g s . Für n = s−r folgt daraus g n = 1. Es gibt also zu
jedem Element g ∈ G einen Exponenten n > 0 mit g n = 1. Alternativ
können wir auch den Gruppenhomomorphismus ϕ : Z ✲ G betrach-
ten, der einem Element z ∈ Z die Potenz g z zuordnet. Da G nur endlich
viele Elemente enthält, folgt ker ϕ 6= 0. Nun ist ker ϕ eine Untergruppe
von Z, also ein Z-Untermodul und damit ein Ideal in Z, insbesondere
ein Hauptideal. Es existiert daher ein n > 0 mit ker ϕ = nZ, wobei n
die minimale natürliche Zahl > 0 mit g n = 1 ist. Aufgrund des Homo-
morphiesatzes induziert ϕ eine Injektion ϕ : Z/nZ ⊂ ✲ G, und wir se-
hen, dass das Bild hgi = im ϕ genau aus den n paarweise verschiedenen
Elementen g 0 , g 1 , . . . , g n−1 besteht. Nun ist g wegen g n = 1 Nullstelle
des Polynoms T n − 1 ∈ K⌈⌊T ⌉⌋, aber auch jede Potenz g z mit z ∈ Z
hat diese Eigenschaft. Die n Elemente aus hgi sind daher Nullstellen
von T n − 1. Da aber ein Polynom n-ten Grades höchstens n Nullstellen
in K haben kann, besitzt T n − 1 außer den Elementen von hgi keine
weiteren Nullstellen in K bzw. G. Wir ziehen daraus eine wichtige Fol-
gerung: G enthält eine Untergruppe des Typs Z/nZ, kann aber keine
Untergruppen des Typs Z/nZ ⊕ Z/nZ oder auch Z/nZ ⊕ Z/dZ mit
einem Teiler d > 1 von n enthalten, da alle deren Elemente Nullstellen
des Polynoms T n − 1 wären. Dies hat insbesondere Konsequenzen für
die Zerlegung von G im Rahmen des Struktursatzes 6.4/4.
Lösungsweg: Als endliche Gruppe handelt es sich bei G um eine
Torsionsgruppe. Daher liefert 6.4/2 eine Zerlegung
s
M
G≃ Z/nj Z
j=1

mit natürlichen Zahlen n1 , . . . , ns > 1, wobei nj | nj+1 für 1 ≤ j < s


gilt. Da man endliche direkte Summen auch als kartesische Produk-
6.5 Aufgabe 2 463

Q
te interpretieren kann, besitzt G genau sj=1 nj Elemente, und jedes
dieser Elemente ist offenbar Nullstelle des Polynoms T n − 1 ∈ K⌈⌊T ⌉⌋,
wobei wir n = ns setzen. Andererseits kann dieses Polynom höchstens
n Nullstellen in K haben, so dass s = 1 folgt und damit G ≃ Z/nZ,
wie gewünscht.
6.5 Aufgabe 2
Start: Gegeben sind zwei Matrizen A, B ∈ R3×3 , zu denen man
jeweils das Minimalpolynom pA bzw. pB sowie das charakteristische
Polynom χA bzw. χB betrachte.
Ziel : Es ist zu zeigen, dass A und B genau dann ähnlich sind, wenn
pA = pB und χA = χB gilt.
Strategie: Es seien zunächst A und B ähnliche Matrizen, wobei wir
etwa B = S −1 · A · S mit einer invertierbaren Matrix S ∈ GL(3, R)
annehmen. Dann folgt pA (B) = S −1 · pA (A) · S = 0 und damit pB | pA .
Entsprechend zeigt man pA | pB und erhält pA = pB . Weiter liest man
χA = χB aus 6.2/4 ab. Diese Überlegungen sind natürlich allgemeiner
für quadratische Matrizen über einem beliebigen Körper K gültig.
Wir nehmen nun pA = pB und χA = χB an, wobei wir zunächst von
Matrizen A, B ∈ K n×n über einem beliebigen Körper K und mit allge-
meiner Zeilen- und Spaltenzahl n ausgehen. Sei pA = pB = pn1 1 · . . . · pnr r
die Primfaktorzerlegung mit paarweise verschiedenen Primpolynomen
p1 , . . . , pr ∈ K⌈⌊T ⌉⌋ und Exponenten ni > 0. Sodann lesen wir aus 6.5/11
ab, dass in der allgemeinen Normalform zu A wie auch in derjenigen
zu B für jedes i = 1, . . . , r die Begleitmatrix zu pni i mindestens einmal
als Diagonalkästchen vorkommen muss. Für n = 3 und K = R ergeben
sich dadurch gewisse Beschränkungen, zumal wenn man benutzt, dass
auch das charakteristische Polynom χA = χB ein Produkt gewisser
Potenzen der Primpolynome p1 , . . . , pr ist. Ziel ist es zu zeigen, dass
die allgemeinen Normalformen zu A und B bis auf die Reihenfolge der
Kästchen übereinstimmen.
Lösungsweg: Wir haben oben bereits nachgeprüft, dass ähnliche
Matrizen das gleiche Minimalpolynom sowie charakteristische Polynom
besitzen. Somit bleibt noch zu zeigen, dass A, B ∈ R3×3 ähnlich sind,
falls pA = pB und χA = χB gilt.
1. Fall: grad pA = 1, etwa pA = T − λ mit einer Nullstelle λ ∈ R.
Dann gilt A = Diag(λ, λ, λ), also besitzt A bereits allgemeine Normal-
form.
464 8. Aufgabentrainer

2. Fall: grad pA = 2. Es folgt, dass pA reduzibel ist. Denn anderen-


falls müsste χA eine Potenz von pA sein, was aber aus Gradgründen
ausgeschlossen ist. Sei also pA = (T − λ1 ) · (T − λ2 ) mit Nullstellen
λ1 , λ2 ∈ R. Für λ1 = λ2 lesen wir aus 6.5/11 ab, dass die allgemeine
Normalform zu A von der Form Diag(λ1 , N ) sein muss, wobei N die
Belgleitmatrix zu (T − λ1 )2 ist. Gilt anderenfalls λ1 6= λ2 und etwa
χA = (T − λ1 )2 · (T − λ2 ), so ist die allgemeine Normalform zu A von
der Gestalt Diag(λ1 , λ1 , λ2 ); vgl. 6.5/11.
3. Fall: grad pA = 3. Wir könnten hier die verschiedenen Fäl-
le der Primfaktorzerlegung von pA durchgehen und dabei insbeson-
dere die Eigenschaften des Grundkörpers R benutzen. Einfacher ist
es jedoch, 6.5/18 (iii) für den durch A definierten Endomorphismus
f : R3 ✲ R3 anzuwenden. Aus Gradgründen gilt pA = χA , und dies
ergibt mit 6.5/18 (i), dass R3 als R⌈⌊T ⌉⌋-Modul unter f isomorph zu
R⌈⌊T ⌉⌋/pA R⌈⌊T ⌉⌋, also f -zyklisch ist. Deshalb existiert nach 6.5/10 eine
Basis X von R3 , so dass die Matrix Af,X,X gerade die Begleitmatrix zu
pA ist.
Wir sehen also, dass A jeweils zu einer Matrix äquivalent ist, deren
Struktur lediglich von pA und χA abhängt. Da dasselbe auch für B
anstelle von A gilt, können wir schließen, dass A und B ähnlich sind.
Ergänzungen: Der gegebene Beweis benötigt keine speziellen Ei-
genschaften von R, sondern ist für jeden Grundkörper K anstelle von
R gültig. Im Übrigen zeigt die Argumentation im Fall 3, dass die Vor-
aussetzung in 6.5/10 (i), dass nämlich V f -zyklisch sei, automatisch
erfüllt ist, sofern grad pf = dimK V gilt.
6.5 Aufgabe 6
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum V
mit einem Endomorphismus f : V ✲ V . Weiter sei U ⊂ V ein
f -invarianter Unterraum.
Ziel : Folgende Aussagen sind zu zeigen:
(i) f induziert einen Endomorphismus f : V /U ✲ V /U .
(ii) Es gilt pf | pf für die Minimalpolynome von f und f .
(iii) Es gilt χf = χf |U · χf für die charakteristischen Polynome von
f , von f |U und von f .
Strategie: Wir betrachten die Komposition
f π
f˜: V ✲ V ✲ V /U
6.5 Aufgabe 6 465

von f mit der kanonischen Projektion π : V ✲ V /U . Da U als f -in-


variant vorausgesetzt ist, gilt U ⊂ ker f˜, und es induziert f˜ aufgrund
des Homomorphiesatzes eine lineare Abbildung f : V /U ✲ V /U , so
dass das Diagramm
f
V ✲V

π π
❄ ❄
f
V /U ✲ V /U
kommutativ ist. Weiter gilt pf (f ) = 0 und damit auch pf (f ) = 0, so
dass pf ein Teiler von pf ist. Dies erledigt die Punkte (i) und (ii).
Um nun (iii) zu behandeln, müssen wir auf die Definition des cha-
rakteristischen Polynoms aus 6.2/2 bzw. 6.2/6 zurückgreifen. Wir neh-
men einmal der Einfachheit halber an, dass es in V einen weiteren
f -invarianten Unterraum U ′ gibt, so dass V in die direkte Summe von
U und U ′ zerfällt, also V = U ⊕ U ′ . Betrachten wir dann Basen von
U und U ′ und setzen diese zu einer Basis von V zusammen, so erhält
man mittels des Beispiels (2) am Ende von Abschnitt 4.3 die Zerlegung

χf = χf |U · χf |U ′ .

Nun ist aber die Einschränkung π|U ′ : U ′ ✲ V /U ein Isomorphismus,


so dass das Diagramm
f |U ′
U′ ✲ U′
π|U ′ π|U ′
❄ ❄
f
V /U ✲ V /U

kommutiert. Es folgt χf = χf |U ′ und damit χf = χf |U · χf , wie ge-


wünscht. Im Allgemeinen wird es jedoch zu U kein f -invariantes Kom-
plement in V geben. Dies bedeutet, dass die Argumentation noch etwas
verfeinert werden muss.
Lösungsweg: Die Aussagen (i) und (ii) sind einfacher Art und wur-
den oben bereits begründet. Zum Nachweis von (iii) wählen wir ein
(nicht notwendig f -invariantes) Komplement U ′ zu U in V . Sei X eine
Basis von U und X ′ eine Basis von U ′ . Dann ist X ∪ X ′ eine Basis
von V , und der Isomorphismus π|U ′ : U ′ ∼✲ V /U zeigt, dass X ′ als
466 8. Aufgabentrainer

Bild von X ′ eine Basis von V /U bildet. Nun ist die Matrix, welche f
bezüglich der Basis X ∪ X ′ von V beschreibt, offenbar von der Form
 
Af |U ,X,X ∗
Af,X∪X ′ ,X∪X ′ =
 
,
 
0 Af ,X ′ ,X ′

und wir können mittels des Beispiels (2) am Ende von Abschnitt 4.3
unter Verwendung geeigneter Einheitsmatrizen E wie folgt rechnen:

T E − Af |U ,X,X ∗
 

det(T E − Af,X∪X ′ ,X∪X ′ ) = det


 
 
 
 
0 T E − Af ,X ′ ,X ′
 

= det(T E − Af |U ,X,X ) · det(T E − Af ,X ′ ,X ′ )

Dies bedeutet aber wie gewünscht χf = χf |U · χf .

Euklidische und unitäre Vektorräume

7.1 Aufgabe 3
Start: Gegeben ist ein endlich-dimensionaler R-Vektorraum V mit
einer positiv definiten sBF Φ : V × V ✲ R. Weiter betrachte man zu
Vektoren x, y ∈ V , y 6= 0, die polynomiale Funktion p(t) = |x + ty|2
für t ∈ R.
Ziel : Es sind die Nullstellen von p(t) zu bestimmen. Als Folgerung
ist in der vorliegenden Situation die Schwarzsche Ungleichung 7.1/4
herzuleiten.
Strategie: Es gilt

p(t) = |x + ty|2 = hx + ty, x + tyi = hx, xi + 2thx, yi + t2 hy, yi

mit hy, yi = |y|2 6= 0, da die Bilinearform positiv definit ist und y 6= 0


gilt. Um die Nullstellen von p(t) zu ermitteln, haben wir folglich die
quadratische Gleichung

hx, yi |x|2
t2 + 2t + 2 =0
|y|2 |y|
7.1 Aufgabe 5 467

zu lösen, wobei sich mittels quadratischer Ergänzung die (komplexen)


Lösungen s
hx, yi hx, yi2 |x|2
t1/2 = − ± − 2
|y|2 |y|4 |y|
ergeben. Andererseits ist die Bilinearform positiv definit. Es verschwin-
det daher p(t) genau dann für ein t ∈ R, wenn x + ty = 0 gilt, also x
linear von y abhängt. Insbesondere kann p(t) höchstens eine einzige re-
elle Nullstelle besitzen. Zur weiteren Analyse des Problems müssen wir
diese Information mit der formelmäßigen Beschreibung der Nullstellen
von p(t) für t ∈ C vergleichen.
Lösungsweg: Wir haben die (komplexen) Nullstellen von p(t) be-
reits oben berechnet. Sind nun x, y linear unabhängig, so gilt x+ty 6= 0
und damit p(t) 6= 0 für alle t ∈ R, da Φ positiv definit ist. Die berech-
neten Nullstellen t1/2 können daher in diesem Falle nicht reell sein, was
2 2
für den Radikand des Wurzelausdrucks hx,yi
|y|4
− |x|
|y|2
bedeutet, dass dieser
< 0 sein muss. Somit ergibt sich

hx, yi2 < |x|2 · |y|2 ,

also die Schwarzsche Ungleichung im Falle, dass x, y linear unabhängig


sind.
Seien nun x, y linear abhängig, also x + ty = 0 für einen Parameter
t ∈ R, wobei wir y 6= 0 benutzen. Es besitzt dann p(t) genau eine reelle
(und damit doppelte) Nullstelle t1/2 , was bedeutet, dass der Radikand
des Wurzelausdrucks verschwindet. Folglich ergibt sich t1/2 = − hx,yi
|y|2
sowie hx, yi2 = |x|2 · |y|2 .
Indem wir nun die Rollen von x und y vertauschen, erhalten wir
insgesamt die Schwarzsche Ungleichung im Falle einer positiv definiten
Bilinearform auf V . Und zwar gilt hx, yi2 ≤ |x|2 · |y|2 für beliebige
Vektoren x, y ∈ V , wobei Gleichheit genau dann gegeben ist, wenn x
und y linear abhängig sind.
7.1 Aufgabe 5
Start: Gegeben ist ein Vektorraum V über einem Körper K. Man
betrachte hierzu den Dualraum V ∗ aller Linearformen V ✲ K sowie
den K-Vektorraum W aller K-bilinearen Abbildungen V × V ✲ K.
Die Vektorraumstruktur von W ist dabei wie üblich erklärt, indem
468 8. Aufgabentrainer

man αΦ für α ∈ K und Φ ∈ W durch (x, y) ✲ α · Φ(x, y) de-


finiert, sowie die Summe Φ + Φ′ zweier Elemente Φ, Φ′ ∈ W durch
(x, y) ✲ Φ(x, y) + Φ′ (x, y).
Ziel : Es ist zu zeigen, dass die Abbildung

Ψ : HomK (V, V ∗ ) ✲ W, ϕ ✲ (x, y) ✲ ϕ(x)(y) ,

ein Isomorphismus von K-Vektorräumen ist.


Strategie: Wir versuchen, die für einen Isomorphismus von Vek-
torräumen geforderten Eigenschaften, also die Linearität, Injektivi-
tät und Surjektivität, herzuleiten. Seien daher zwei Homomorphismen
ϕ, ϕ′ ∈ HomK (V, V ∗ ) gegeben, sowie ein Skalar α ∈ K. Dann gilt
Ψ
 
αϕ ✲ (x, y) ✲ (αϕ)(x)(y) = α · ϕ(x)(y) ,
Ψ
 
ϕ + ϕ′ ✲ (x, y) ✲ (ϕ + ϕ′ )(x)(y) = ϕ(x)(y) + ϕ′ (x)(y) ,

und dies bedeutet Ψ (αϕ) = αΨ (ϕ) sowie Ψ (ϕ + ϕ′ ) = Ψ (ϕ) + Ψ (ϕ′ ).


Es ist also Ψ ein Homomorphismus von K-Vektorräumen. Gelte nun
Ψ (ϕ) = 0, also ϕ(x)(y) = 0 für alle x, y ∈ V . Dann folgt ϕ(x) = 0
in V ∗ für alle x ∈ V und damit ϕ = 0 in HomK (V, V ∗ ). Also ist Ψ
injektiv. Sei schließlich Φ ∈ W , also Φ : V × V ✲ K eine K-bilineare
Abbildung. Dann definiert Φ für jedes x ∈ V eine Linearform

Φ(x, ·) : V ✲ K, y ✲ Φ(x, y),

und es ist
ϕ: V ✲ V ∗, x ✲ Φ(x, ·),
eine K-lineare Abbildung mit Ψ (ϕ) = Φ. Somit ist Ψ surjektiv, ins-
gesamt also ein Isomorphismus von K-Vektorräumen ist. Wir werden
im Weiteren sehen, dass die gerade durchgeführte Konstruktion zum
Nachweis der Surjektivität von Ψ zu einer Vereinfachung der Argumen-
tation genutzt werden kann.
Lösungsweg: Wie oben prüft man nach, dass die zu untersuchen-
de Abbildung Ψ : HomK (V, V ∗ ) ✲ W ein Homomorphismus von
K-Vektorräumen ist, ebenso wie die Abbildung

Ψ′ : W ✲ HomK (V, V ∗ ), Φ ✲ x ✲ Φ(x, ·) ,
7.2 Aufgabe 2 469

wobei Φ(x, ·) : V ✲ K für x ∈ V durch y ✲ Φ(x, y) erklärt ist.


Nun ist aber offenbar Ψ ′ ◦ Ψ die Identität auf HomK (V, V ∗ ) und Ψ ◦ Ψ ′
die Identität auf W . Somit sind Ψ und Ψ ′ zueinander invers, und es
folgt insbesondere, dass Ψ , Ψ ′ Isomorphismen von K-Vektorräumen
sind.
7.2 Aufgabe 2
Start: Für n ∈ N bezeichne R⌈⌊T ⌉⌋n den R-Vektorraum aller Poly-
nome vom Grad ≤ n in R⌈⌊T ⌉⌋. Zu betrachten ist sodann die Abbildung
Z 1
Φ : R⌈⌊T ⌉⌋n × R⌈⌊T ⌉⌋n ✲ R, (f, g) ✲ hf, gi := f (t)g(t)dt.
0

Ziel : Es ist zu zeigen, dass Φ ein Skalarprodukt auf R⌈⌊T ⌉⌋n definiert.
Weiter ist aus der Basis 1, T, T 2 von R⌈⌊T ⌉⌋2 mit Hilfe des Schmidtschen
Orthonormalisierungsverfahrens eine Orthonormalbasis von R⌈⌊T ⌉⌋2 zu
konstruieren.
Strategie: Wir müssen hier natürlich auf den Integralbegriff aus
der Analysis zurückgreifen. Und zwar gilt aufgrund des Hauptsatzes
der Differential- und Integralrechnung
Z 1
f (t)dt = F (1) − F (0)
0

für eine stetige Funktion f : ⌈⌊0, 1⌉⌋ ✲ R und eine Stammfunktion


F zu f , also eine stetige Funktion F : ⌈⌊0, 1⌉⌋ ✲ R, die im offenen
Intervall ⌉⌋0, 1⌈⌊ differenzierbar ist und dort als Ableitung f besitzt. Aus
den Regeln für die Bildung der Ableitung, etwa (F +G)′ = F ′ +G′ bzw.
(αF )′ = αF ′ für Funktionen F, G und eine Konstante α ∈ R ergeben
sich entsprechende Regeln für die Integralbildung, nämlich
Z 1 Z 1 Z 1 Z 1 Z 1

f (t) + g(t) dt = f (t)dt + g(t)dt, αf (t)dt = α f (t)dt.
0 0 0 0 0

In unserem konkreten Fall geht es um polynomiale Funktionen, die


automatisch stetig sind, und bei denen die Existenz von Stammfunk-
tionen kein Problem darstellt. Damit ist der Lösungsweg des Aufgaben-
problems vorgezeichnet. Es geht um routinemäßige Verifikationen und
schließlich um die Durchführung des Orthonormalisierungsverfahrens
nach E. Schmidt.
470 8. Aufgabentrainer

Lösungsweg: Aus den aufgeführten Regeln der Integralbildung


folgt, dass
R 1Φ eine symmetrische R-bilineare Abbildung ist. Weiter gilt
hf, f i = 0 f (t)2 dt > 0, falls f nicht das Nullpolynom ist. Man schließt
dies beispielsweise aus der Tatsache, dass f (t)2 höchstens isolierte Null-
stellen besitzt, ansonsten aber > 0 ist, so dass jede Stammfunktion zu
f (t)2 streng monoton wachsend ist. Insbesondere erkennen wir Φ als
positiv definite sBF und damit als Skalarprodukt.
Um nun die Basis (x1 , x2 , x3 ) = (1, T, T 2 ) von R⌈⌊T ⌉⌋2 in eine Ortho-
normalbasis (e1 , e2 , e3 ) zu überführen, richten wir uns nach dem Ver-
fahren gemäß 7.2/4 bzw. R7.2/5 und beginnen mit dem Vektor x1 = 1.
1
Dieser ist wegen h1, 1i = 0 dt = 1 bereits normiert, so dass wir e1 = 1
setzen. Weiter gilt
Z 1 h i1
hx2 , e1 i = tdt = 12 t2 = 12 ,
0 0
Z 1 h i1
2 2
x2 − 12 e1 = t − 12 dt = 31 t3 − 21 t2 + 14 t = 12 1
,
0 0

und es ergibt sich e2 = 12 · (T − 12 ). Als Nächstes berechnen wir
Z 1 h i1
2
hx3 , e1 i = t dt = 31 t3 = 13 ,
0 0
√ Z 1 h i1
 √
hx3 , e2 i = 12 · t3 − 12 t2 dt = 12 · 14 t4 − 61 t3 = √112
0 0

und subtrahieren von x3 die senkrechte Projektion auf den von e1 , e2


bzw. x1 , x2 aufgespannten linearen Unterraum in R⌈⌊T ⌉⌋2 . Wir erhalten

x′3 = x3 − √112 · e2 − 13 · e1 = T 2 − T − 21 − 13 = T 2 − T + 16 ,

wobei sich das Quadrat des Betrages zu


Z 1 Z 1
′ 2 2

1 2

|x3 | = t − t + 6 dt = t4 − 2t3 + 34 t2 − 13 t + 1
36
dt
0 0
1
= 5
− 21 + 4
9
− 16 + 1
36
= 1
180

berechnet. Somit besteht die gewünschte Orthonormalbasis von R⌈⌊T ⌉⌋2


aus den Polynomen
√  √ 
e1 = 1, e2 = 2 · 3 · T − 21 , e3 = 6 · 5 · T 2 − T + 61 .
7.2 Aufgabe 4 471

7.2 Aufgabe 4
Start: Gegeben sind ein euklidischer bzw. unitärer K-Vektorraum
V , ein Untervektorraum U ⊂ V sowie ein Vektor v ∈ V − U .
Ziel : Es ist zu zeigen, dass es genau einen Vektor u0 ∈ U mit
v − u0 ∈ U ⊥ gibt und dass für alle anderen Vektoren u ∈ U die Ab-
schätzung |v − u| > |v − u0 | gilt.
Strategie: Im Grunde genommen wurde das Problem bereits in
7.2/4 behandelt. Es ist ein Vektor u0 ∈ U anzugeben, so dass v −u0 auf
allen Vektoren aus U senkrecht steht. Letzteres kann man überprüfen,
indem man hv − u0 , xi i = 0 für die Elemente x1 , . . . , xr einer Basis
von U zeigt. Fragen über Orthogonalität oder Beträge lassen sich am
einfachsten unter Zugrundelegen von Orthonormalbasen beantworten.
Es liegt daher nahe, eine Orthonormalbasis e1 , . . . , er von U zu wählen
und diese durch Elemente er+1 , . . . , en zu einer Orthonormalbasis von
V zu ergänzen; vgl. 7.2/6. Es erzeugen dann er+1 , . . . , en das orthogo-
nale Komplement U ⊥ zu U , wie im Beweis zu 7.2/8 gezeigt.
Lösungsweg: Wir wählen eine Orthonormalbasis e1 , . . . , er von U
und ergänzen diese durch Elemente
Pn er+1 , . . . , en zu einer Orthonormal-
basis von V . Gilt
Pr dann v = i=1 αi ei mit Koeffizienten αi ∈ K, so
folgt mit u0 = i=1 αi ei offenbar
n
X
v − u0 = αi ei ∈ U ⊥ .
i=r+1
Pr
Für beliebiges u ∈ U , etwa u = i=1 βi ei mit Koeffizienten βi ∈ K,
gilt dann
r
X n
X n
X
2 2
|v − u| = (αi − βi ) + αi2 ≥ αi2 = |v − u0 |2 ,
i=1 i=r+1 i=r+1

wobei die Gleichheit dazu äquivalent ist, dass die Terme αi − βi für
i = 1, . . . , r verschwinden. Es folgt also wie gewünscht |v −u| > |v −u0 |
für alle u ∈ U mit u 6= u0 .
Ergänzungen: Genau wie beim Orthonormalisierungsverfahren von
E. Schmidt wird der Vektor v−u0 konstruiert, indem man die senkrech-
te Projektion u0 von v auf den linearen Unterraum U von v subtrahiert.
Sodann steht v − u0 senkrecht auf U und besitzt, wie wir gesehen ha-
ben, als Länge den minimalen Abstand zwischen v und U , wenn wir
im Rahmen von Punkträumen argumentieren.
472 8. Aufgabentrainer

7.3 Aufgabe 4
Start: Gegeben ist ein endlich-dimensionaler K-Vektorraum V mit
einer Basis X. Weiter sei Φ eine sBF bzw. HF auf V .
Ziel : Für Φ positiv semidefinit soll gezeigt werden, dass alle Haupt-
unterdeterminanten der beschreibenden Matrix AΦ,X reell und ≥ 0
sind. Umgekehrt ist zu überlegen, ob Φ bereits positiv semidefinit ist,
wenn alle Hauptunterdeterminanten von AΦ,X reell und ≥ 0 sind.
Strategie: Wir betrachten als einfaches Beispiel den Vektorraum
V = R2 über dem Körper K = R. Sei Φ eine sBF auf V , etwa beschrie-
ben bezüglich der kanonischen Basis e von V durch die Matrix
 
α γ
AΦ,e = ∈ R2×2 ,
γ β

wobei wir AΦ,e = (AΦ,e )t berücksichtigt haben. Somit berechnet sich


Φ(a, a) für a = (a1 , a2 )t ∈ V zu

Φ(a, a) = αa21 + 2γa1 a2 + βa22 .

Sei nun Φ positiv semidefinit, gelte also Φ(a, a) ≥ 0 für alle a ∈ V .


Setzen wir etwa a = (1, 0)t , so folgt α ≥ 0, d. h. die erste Haupt-
unterdeterminante von AΦ,e ist ≥ 0. Dann gilt sogar α > 0, denn
anderenfalls würde sich Φ(a, a) für Vektoren des Typs a = (a1 , 1)t zu
Φ(a, a) = 2γa1 + β berechnen, und dies würde für a1 ∈ R nicht aus-
schließlich Werte ≥ 0 annehmen.
Wir haben also α > 0 eingesehen und können in gleicher Weise
β > 0 schließen. Sodann existiert der Vektor a = ( √1α , − √1β )t ∈ V , und
es gilt
γ
Φ(a, a) = 2 − 2 √ ≥ 0,
αβ

woraus sich γ ≤ αβ bzw. γ 2 ≤ αβ und damit αβ − γ 2 ≥ 0 ergibt.
Dies bedeutet aber, dass auch die zweite Hauptunterdeterminante der
Matrix AΦ,e nicht-negativ ist. Damit ist im vorliegenden Spezialfall ge-
zeigt, dass für Φ positiv semidefinit die Hauptunterdeterminanten der
beschreibenden Matrix AΦ,e nicht-negativ sind. Man kann sich jedoch
vorstellen, dass eine entsprechende Argumentation mittels expliziter
Rechnung in höheren Dimensionen nicht mehr durchführbar ist. Hier
ist also noch ein Argument allgemeineren Typs gefragt.
7.3 Aufgabe 7 473

Weiter sehen wir im vorstehenden Beispiel, dass aus Φ positiv


semidefinit insbesondere die Bedingungen α > 0 und β > 0, sowie
αβ − γ 2 ≥ 0 folgen. Andererseits bedeutet die Forderung, dass die
Hauptunterdeterminanten von AΦ,e nicht-negativ sind, lediglich α ≥ 0
sowie αβ − γ 2 ≥ 0. Dies lässt erwarten, dass eine sBF Φ nicht automa-
tisch positiv semidefinit sein wird, wenn die Hauptunterdeterminanten
einer zugehörigen Matrix nicht-negativ sind.
Lösungsweg: Wir schreiben X = (x1 , . . . , xn ) für die zu betrach-
tende Basis von V und setzen Xi = (x1 , . . . , xi ) für i = 1, . . . , n.
Es ist dann Xi jeweils eine Basis des von x1 , . . . , xi erzeugten Un-
tervektorraums Vi ⊂ V . Sei nun Φ positiv semidefinit, und sei Φi
für i = 1, . . . , n die Einschränkung von Φ auf Vi . Es folgt, dass Φi
ebenfalls positiv semidefinit ist. Ist nun Φi sogar positiv definit, so er-
gibt sich det(AΦi ,Xi ) > 0 aus 7.3/8. Andernfalls existiert ein Vektor
x ∈ Vi − {0} mit Φi (x, x) = 0, und Φi ist ausgeartet; siehe 7.1/5. In
diesem Falle gilt det(AΦi ,Xi ) = 0 nach 7.3/2, so dass in beiden Fällen
det(AΦi ,Xi ) ≥ 0 folgt. Da det(AΦi ,Xi ) gerade die i-te Hauptunterdeter-
minante von AΦ,X ist, sehen wir, dass alle Hauptunterdeterminanten
von AΦ,X nicht-negativ sind.
Um schließlich noch die Frage zu beantworten, ob eine sBF Φ auf
V bereits dann positiv semidefinit ist, wenn sämtliche Hauptunter-
determinanten einer beschreibenden Matrix AΦ,X nicht-negativ sind,
betrachten wir den R-Vektorraum V = R2 mit der kanonischen Basis
e sowie die sBF Φ auf V , die durch die Matrix
 
0 0
AΦ,e =
0 −1

gegeben ist. Sämtliche Hauptunterdeterminanten von AΦ,e verschwin-


den, sind also ≥ 0, aber trotzdem gilt für den Vektor a = (0, 1)t ∈ V
die Gleichung Φ(a, a) = −1 < 0, d. h. Φ ist nicht positiv semidefinit.
7.3 Aufgabe 7
Start: Zu einer Matrix A ∈ Kn×n ist die durch ha, bi = at · A · b
erklärte Bilinearform Φ auf Kn zu betrachten.
Ziel : Es ist zu zeigen, dass Φ genau dann ein Skalarprodukt auf Kn
definiert, wenn es eine invertierbare Matrix S ∈ GL(n, K) mit A = S t ·S
gibt.
474 8. Aufgabentrainer

Strategie: Die zu diskutierende Zerlegung A = S t · S, die auch in


der Form A = S t · E · S mit der Einheitsmatrix E ∈ Kn×n geschrieben
werden kann, erinnert an die Formel
AΦ,Y = AtY,X · AΦ,X · AY,X
aus 7.3/5, welche das Verhalten der beschreibenden Matrix AΦ,X zu Φ
bei Übergang von der Basis X zu einer neuen Basis Y von Kn charakte-
risiert. Im Übrigen ist A im vorliegenden Fall gerade die beschreibende
Matrix zu Φ bezüglich der kanonischen Basis e von Kn , also AΦ,e = A.
Auch die Einheitsmatrix E ist in diesem Zusammenhang von Interesse.
Sie kommt genau dann als beschreibende Matrix zu Φ bezüglich einer
geeigneten Basis infrage, wenn es zu Φ eine Orthonormalbasis gibt.
Aufgrund dieser vorbereitenden Überlegungen ist der Lösungsweg nun
mehr oder weniger vorgezeichnet.
Lösungsweg: Wir nehmen zunächst an, dass Φ ein Skalarprodukt
auf Kn definiert. Dann gibt es nach 7.2/5 eine Orthonormalbasis X zu
Φ, und es gilt für die Matrix Ae,X des Wechsels zwischen der kanoni-
schen Basis e von Kn und X die Beziehung
A = AΦ,e = Ate,X · AΦ,X · Ae,X = Ate,X · Ae,X ,
da X eine Orthonormalbasis und folglich AΦ,X die Einheitsmatrix ist.
Also ergibt sich A = S t · S mit S = Ae,X ∈ GL(n, K); vgl. 3.4/2.
Umgekehrt, gilt nun A = S t · S mit einer invertierbaren Matrix
S ∈ GL(n, K), so können wir S als Basiswechselmatrix Ae,Y interpre-
tieren, die den Übergang von der kanonischen Basis e zu einer weiteren
Basis Y von Kn beschreibt, also A = Ate,Y · Ae,Y . Nun gilt mit 3.4/2
AΦ,Y = AtY,e ·AΦ,e ·AY,e = AtY,e ·A·AY,e = (Ae,Y ·AY,e )t ·(Ae,Y · AY,e ) = E,
d. h. Y ist sozusagen eine Orthonormalbasis zu Φ. Hieraus lassen sich
leicht die Eigenschaften eines Skalarprodukts für Φ herleiten.
P Denn
etwa Y = (y1 , . . . , yn ), so folgen für Vektoren a = ni=1 αi yi und
gilt P
b = ni=1 βi yi mit Koeffizienten αi , βi ∈ K die Beziehungen
n
X X
Φ(a, b) = αi β i = αi βi = Φ(b, a),
i=1 i=1,...,n
Xn X n
Φ(a, a) = αi α i = |αi |2 > 0 für a 6= 0.
i=1 i=1
7.4 Aufgabe 1 475

7.4 Aufgabe 1
Start: Gegeben sind ein endlich-dimensionaler euklidischer bzw.
unitärer K-Vektorraum V , ein Endomorphismus ϕ : V ✲ V und

dessen adjungierte Abbildung ϕ : V ✲ V.
Ziel : Es ist Spur(ϕ ◦ ϕ ) ≥ 0 zu zeigen und dass Spur(ϕ ◦ ϕ∗ ) = 0

äquivalent ist zu ϕ = 0.
Strategie: Die Spur eines Endomorphismus f : V ✲ V ist ge-
geben durch die Spur einer beschreibenden Matrix Af,X,X zu einer
beliebigen Basis X von V ; vgl. 6.2/6. Weiter ist die Spur einer quadra-
tischen Matrix gemäß 6.2/3 definiert als Summe der Diagonalelemente.
Im vorliegenden Fall empfiehlt es sich, X als Orthonormalbasis von V
zu wählen, denn dann gilt Aϕ∗ ,X,X = (Aϕ,X,X )∗ nach 7.4/4, und es
genügt, die Spur der Produktmatrix Aϕ,X,X · (Aϕ,X,X )∗ auszuwerten.
Lösungsweg: Wir wählen eine Orthonormalbasis X von V und stel-
len ϕ bezüglich X durch eine Matrix dar, etwa Aϕ,X,X = (αij )i,j=1,...,n .
Dann folgt Aϕ∗ ,X,X = (Aϕ,X,X )∗ = (αij )j,i=1,...,n nach 7.4/4, und es gilt
X
n 
Aϕ,X,X ·(Aϕ,X,X )∗ = (αij )i,j=1,...,n ·(αij )j,i=1,...,n = αij ·αkj
i,k=1,...,n.
j=1

Somit ergibt sich


n X
n n X
n
 X X
Spur Aϕ,X,X · (Aϕ,X,X )∗ = αij · αij = |αij |2 ≥ 0,
i=1 j=1 i=1 j=1

und es ist klar, dass Spur(Aϕ,X,X · (Aϕ,X,X )∗ ) = 0 äquivalent ist zu


αij = 0 für alle i, j, also zu ϕ = 0.
7.4 Aufgabe 4
Start: Zu betrachten ist ein endlich-dimensionaler unitärer C-Vek-
torraum V mit einem Endomorphismus ϕ : V ✲ V und dessen ad-
jungierter Abbildung ϕ∗ : V ✲ V.
Ziel : Man zeige, ϕ ist genau dann normal, wenn es ein Polynom
p ∈ C⌈⌊T ⌉⌋ mit ϕ∗ = p(ϕ) gibt.
Strategie: Wenn es ein Polynom p ∈ C⌈⌊T ⌉⌋ mit ϕ∗ = p(ϕ) gibt, so
gilt trivialerweise
ϕ ◦ ϕ∗ = ϕ ◦ p(ϕ) = p(ϕ) ◦ ϕ = ϕ∗ ◦ ϕ,
d. h. ϕ ist normal. Umgekehrt, sei ϕ nun als normal vorausgesetzt.
Es gibt offenbar keinen allgemeinen Grund, warum die adjungierte
476 8. Aufgabentrainer

Abbildung zu ϕ ein Polynom in ϕ sein sollte. Deswegen müssen wir


die speziell gegebene Situation möglichst gut ausnutzen. Da wir über
dem Körper C arbeiten, zerfällt das charakteristische Polynom χϕ
vollständig in Linearfaktoren. Somit können wir mit 7.4/8 aus der
Normalität von ϕ schließen, dass es in V eine Orthonormalbasis X
gibt, die sämtlich aus Eigenvektoren zu ϕ besteht und damit gemäß
7.4/7 auch aus Eigenvektoren zu ϕ∗ . Genauer, es ist Aϕ,X,X eine Dia-
gonalmatrix, etwa Aϕ,X,X = Diag(λ1 , . . . , λn ), und es folgt mit 7.4/4
Aϕ∗ ,X,X = (Aϕ,X,X )∗ = Diag(λ1 , . . . , λn ). Nun benötigen wir noch die
Beobachtung, dass für Polynome p ∈ C⌈⌊T ⌉⌋ die Beziehung

p(Aϕ,X,X ) = Diag p(λ1 ), . . . , p(λn )

gilt. Damit ist der Lösungsweg vorgezeichnet. Wir müssen ein Polynom
p ∈ C⌈⌊T ⌉⌋ finden, derart dass p(λi ) = λi für i = 1, . . . , n gilt.
Lösungsweg: Wie bereits erläutert, ist ϕ normal, wenn ein Po-
lynom p ∈ C⌈⌊T ⌉⌋ mit ϕ∗ = p(ϕ) existiert. Umgekehrt, setzen wir
ϕ als normal voraus, so können wir gemäß 7.4/8 eine Orthonormal-
basis X in V wählen, so dass Aϕ,X,X eine Diagonalmatrix ist, etwa
Aϕ,X,X = Diag(λ1 , . . . , λn ). Benutzen wir dann die bijektive Korre-
spondenz zwischen Endomorphismen und beschreibenden Matrizen aus
3.3/2, so reduziert sich das Problem mit 7.4/7 darauf, ein Polynom
p ∈ C⌈⌊T ⌉⌋ zu finden, welches der Beziehung

Diag p(λ1 ), . . . , p(λn ) = p(Aϕ,X,X ) = Aϕ∗ ,X,X = Diag(λ1 , . . . , λn )

genügt. Nun ist es aber leicht möglich, ein Polynom in C⌈⌊T ⌉⌋ anzuge-
ben, das an paarweise verschiedenen Stellen λ1 , . . . , λr ∈ C (dies seien
die λ1 , . . . , λn ohne mehrfache Aufzählung) vorgeschriebene Werte an-
nimmt, in unserem Falle λ1 , . . . , λr . Es ist nämlich
Y
p i = ci · (T − λj ), ci ∈ C,
j=1,...,r
j6=i

ein Polynom in C⌈⌊T ⌉⌋, das an allen Stellen λj , j = 1, . . . , r, verschwin-


det, außer möglicherweise an der Stelle λi , wo wir durch geeignete
PrKonstante ci erreichen können, dass pi (λi ) = λi gilt. Dann
Wahl der
ist p = i=1 pi ein Polynom in C⌈⌊T ⌉⌋, das an den Stellen λ1 , . . . , λn die
Werte λ1 , . . . , λn annimmt, und es folgt wie gewünscht ϕ∗ = p(ϕ).
7.5 Aufgabe 2 477

7.5 Aufgabe 2
Start: Gegeben sind zwei Drehmatrizen R(ϑ1 ), R(ϑ2 ) ∈ R2×2 mit
Winkeln 0 ≤ ϑ1 < ϑ2 < 2π.
Ziel : Gezeigt werden soll, dass R(ϑ1 ) und R(ϑ2 ) genau dann ähnlich
sind, wenn ϑ1 + ϑ2 = 2π gilt.
Strategie: In der Aussage von Satz 7.5/8 und dem zugehörigen
Beweis sind wesentliche Elemente enthalten, die für die Lösung des
Problems von Nutzen sind.
Lösungsweg: Gelte zunächst ϑ1 + ϑ2 = 2π. Da der Fall ϑ1 = ϑ2 = π
ausgeschlossen ist, können wir etwa ϑ1 < π und somit π < ϑ2 < 2π
annehmen. Indem wir die durch R(ϑ1 ) definierte R-lineare Abbildung
 

f: R 2 ✲ 2
R, x ✲ R(ϑ1 ) · x = cos ϑ1 − sin ϑ1  · x,
sin ϑ1 cos ϑ1

betrachten, erhalten wir Af,e,e = R(ϑ1 ) als beschreibende Matrix be-


züglich der kanonischen Basis e = (e1 , e2 ) von R2 . Dann gilt für die
Basis e′ = (e2 , e1 ) von R2 offenbar
   
cos ϑ1 sin ϑ1   cos ϑ2 − sin ϑ2 
Af,e′ ,e′ = = = R(ϑ2 ),
− sin ϑ1 cos ϑ1 sin ϑ2 cos ϑ2

wobei wir ϑ2 = 2π − ϑ1 und die Beziehungen cos(−ϑ1 ) = cos ϑ1 sowie


sin(−ϑ1 ) = − sin ϑ1 benutzen. Dies bedeutet aber, dass R(ϑ1 ) und
R(ϑ2 ) ähnlich sind.
Seien nun umgekehrt R(ϑ1 ) und R(ϑ2 ) als ähnlich vorausgesetzt.
Dann stimmen gemäß 6.2/4 die zugehörigen charakteristischen Poly-
nome überein, also

(T − eiϑ1 )(T − e−iϑ1 ) = χR(ϑ1 ) = χR(ϑ2 ) = (T − eiϑ2 )(T − e−iϑ2 ).

Die Eindeutigkeit der Primfaktorzerlegung lässt auf eiϑ1 = e±iϑ2 schlie-


ßen und unter der Einschränkung 0 ≤ ϑ1 < ϑ2 < 2π auf ϑ1 = ϑ2
oder ϑ1 = 2π − ϑ2 . Da aber ϑ1 = ϑ2 ausgeschlossen ist, ergibt sich
ϑ1 + ϑ2 = 2π.
Alternativ können wir auch benutzen, dass ähnliche Matrizen die
gleiche Spur besitzen; vgl. 6.2/5. Dann ergibt sich die Bedingung
cos ϑ1 = cos ϑ2 , aus der sich in ähnlicher Weise ϑ1 + ϑ2 = 2π ablei-
ten lässt.
478 8. Aufgabentrainer

7.5 Aufgabe 4
Start: Gegeben ist eine orthogonale Matrix A = (αij ) ∈ O(n),
also eine reelle Matrix A ∈ Rn×n mit At = A−1 . Es besitze A untere
Dreiecksgestalt, d. h. es gelte αij = 0 für i < j.
Ziel : Es ist zu zeigen, dass A sogar eine Diagonalmatrix ist. Au-
ßerdem ist gefragt, ob eine entsprechende Aussage auch für unitäre
Matrizen A ∈ U (n) gültig ist.
Strategie: Der Fall n = 1 ist trivial. Für n = 2 haben wir in 7.5/6
alle Matrizen aus O(2) explizit beschrieben. Insbesondere lesen wir
hieraus ab, dass jede untere Dreiecksmatrix in O(2) bereits eine Dia-
gonalmatrix ist. Sei nun A = (αij ) ∈ O(n) für allgemeines n. Dann gilt
At = A−1 , also A · At = E für die Einheitsmatrix E ∈ Rn , und dies
bedeutet:
     
α
 11
0 0 .. 0  α11 α21 .. .. αn1  1 0 .. 0
 α21 α22 0 .. 0    0 α22 .. .. αn2  0 1 .. 0
  
·  =
 
 
 .. .. .. .. ..   .. .. .. .. ..  .. .. .. ..
    

     
αn1 αn2 αn3 .. αnn 0 0 .. 0 αnn 0 0 .. 1

Multiplizieren wir nun der Reihe nach die Zeilen des ersten Faktors mit
den Spalten des zweiten Faktors, so ergeben sich folgende Relationen:

|α11 |2 = 1, insbesondere α11 6= 0


α11 · αi1 = 0, also αi1 = 0 für i = 2, . . . , n
|α22 |2 = 1, insbesondere α22 6= 0
α22 · αi2 = 0, also αi2 = 0 für i = 3, . . . , n
usw.

Wir sehen damit, dass A in der Tat eine Diagonalmatrix ist. Eine
entsprechende Rechnung funktioniert auch im Falle unitärer Matrizen
A ∈ U(n). Es ist dann lediglich At durch die adjungierte Matrix A∗ zu
ersetzen.
Lösungsweg: Ein Großteil der oben angedeuteten Rechnungen kann
vermieden werden, wenn man etwas grundsätzlicher vorgeht. Wir be-
trachten daher V = Rn als euklidischen Vektorraum unter dem kanoni-
schen Skalarprodukt, wobei die kanonische Basis e = (e1 , . . . , en ) eine
Orthonormalbasis bildet. Sei nun A ∈ O(n) eine orthogonale Matrix
mit den Spalten a1 , . . . , an ∈ V , also A = (a1 , . . . , an ). Da A · At die
7.6 Aufgabe 1 479

Einheitsmatrix ergibt, erkennen wir (a1 , . . . , an ) ebenfalls als Ortho-


normalbasis von V . Wir nehmen nun an, dass A untere Dreiecksgestalt
besitzt. Dann gilt ai ∈ hei , . . . , en i für i = 1, . . . , n, und wir wollen mit
Induktion nach n zeigen, dass notwendig hai i = hei i für i = 1, . . . , n
folgt.
Zunächst gilt natürlich han i = hen i. Dies erledigt insbesondere den
Induktionsanfang für n = 1. Weiter folgt

a1 , . . . , an−1 ∈ han i⊥ = hen i⊥ = he1 , . . . , en−1 i


und somit

ai ∈ hei , . . . , en i ∩ he1 , . . . , en−1 i = hei , . . . , en−1 i, i = 1, . . . , n − 1.

Nach Induktionsvoraussetzung gilt dann hai i = hei i für i = 1, . . . , n−1,


und wir sehen, dass A = (a1 , . . . , an ) eine Diagonalmatrix ist.
Dieselbe Argumentationsweise funktioniert auch für unitäre Matri-
zen. Man betrachtet dann V = Cn als unitären Vektorraum unter dem
kanonischen Skalarprodukt, mit der kanonischen Basis e = (e1 , . . . , en )
als Orthonormalbasis. Da A · A∗ für A ∈ U(n) die Einheitsmatrix er-
gibt, bilden die Spalten von A eine weitere Orthonormalbasis von V .
Wie im euklidischen Fall sieht man dann, dass A bereits eine Diago-
nalmatrix ist, wenn A untere Dreiecksgestalt besitzt.
7.6 Aufgabe 1
Start: Gegeben ist ein endlich-dimensionaler euklidischer bzw. uni-
tärer K-Vektorraum mit einem selbstadjungierten Endomorphismus
V ✲ V.
Ziel : Man zeige, dass ϕ genau dann lauter positive reelle Eigenwerte
besitzt, wenn hϕ(x), xi > 0 für alle x ∈ V − {0} gilt.
Strategie: Wir suchen nach einer einfachen Möglichkeit, hϕ(x), xi
für x ∈ V zu berechnen. Da ϕ selbstadjungiert ist, bietet sich das
Resultat 7.6/4 an. Es gibt also eine Orthonormalbasis X = (x1 , . . . , xn )
von V , bezüglich der ϕ durch eine reelle Diagonalmatrix P beschrieben
wird, etwa Aϕ,X,X = Diag(λ1 , . . . , λn ). Für x = nj=1 αj xj ∈ V mit
Koeffizienten α1 , . . . , αn ∈ K können wir dann wie folgt rechnen:
DX n n
X E Xn
ϕ(x), x = λ j αj x j , αj x j = λj |αj |2
j=1 j=1 j=1

Aus dieser Beziehung ist die Lösung abzulesen.


480 8. Aufgabentrainer

Lösungsweg: Wir benutzen die vorstehende Gleichung. Wenn ϕ aus-


schließlich positive Eigenwerte
P besitzt, also λj > 0 für j = 1, . . . , n gilt,
so folgt hϕ(x), xi = nj=1 λj |αj |2 > 0, sofern nicht alle Koeffizienten αi
verschwinden, also x 6= 0 gilt. P
Umgekehrt, gelte hϕ(x), xi = nj=1 λj |αj |2 > 0 für alle x 6= 0, also
für Koeffizienten αj , die nicht alle verschwinden. Dann folgt notwendig
λj > 0 für j = 1, . . . , n, alle Eigenwerte von ϕ sind also positiv.
7.6 Aufgabe 3
Start: Gegeben ist eine Matrix A ∈ Rn×n .
Ziel : Es ist zu zeigen, dass A genau dann symmetrisch ist, wenn es
eine komplexe Matrix S ∈ Cn×n mit A = S t · S gibt.
Strategie: Wenn A von der Form S t · S mit einer Matrix S ∈ Cn×n
ist, so folgt At = (S t · S)t = S t · S = A, und A ist symmetrisch.
Umgekehrt, sei A nun als symmetrisch vorausgesetzt. Dann gibt es
aufgrund des Satzes über die Hauptachsentransformation 7.6/6 eine
orthogonale Matrix S ∈ O(n), so dass D = S −1 · A · S eine reelle
Diagonalmatrix ist. Sodann folgt A = S · D · S t wegen S −1 = S t , wobei
wir auch A = S t ·D ·S schreiben können, wenn wir S durch S t ersetzen.
Wenn nun D beispielsweise die Einheitsmatrix ist, hat A mit A = S t ·S
bereits die gewünschte Form. Anderenfalls ziehen wir aus D sozusagen
die Quadratwurzel, was über C möglich ist, und multiplizieren diese in
geeigneter Weise mit S.
Lösungsweg: Die Gleichung At = (S t · S)t = S t · S = A zeigt,
dass A symmetrisch ist, sofern es von der Form A = S t · S mit einer
Matrix S ∈ Cn×n ist. Sei daher A nun als symmetrisch vorausgesetzt.
Aufgrund der Hauptachsentransformation 7.6/6 existiert dann eine or-
thogonale Matrix S ∈ O(n), so dass S t ·A·S eine reelle Diagonalmatrix p
D(λ1 , . . . , λn ) ergibt. Wählen wir dann jeweils eine Quadratwurzel λj
zu λj , was jedenfalls in C möglich ist, so ergibt sich
p p 2
A = S · D(λ1 , . . . , λn ) · S t = S · D λ1 , . . . , λn · S t
 p p  t  p p  
= D λ1 , . . . , λn · S t · D λ1 , . . . , λn · S t

und damit eine Zerlegung der gewünschten Art für A.


Historische Anmerkungen

Der Name Algebra geht auf den persischen Mathematiker und Uni-
versalgelehrten al-Chwarizmi (9. Jahrhundert n. Chr.) zurück, der in
seinem Buch über Rechenverfahren durch Ergänzen und Ausgleichen
Regeln für die Manipulation und Lösung von Gleichungen beschrie-
ben hat. In diesem Zusammenhang führte die Bezeichnung al-gabr für
Ergänzen zum Begriff der Algebra. Betrachtet wurden typischerweise
polynomiale Gleichungen, etwa der Form

5x2 + 9x = 3 oder 3x − 9 = 7,

die eine Beziehung zwischen den bekannten Größen, also den Koeffi-
zienten, und den zu bestimmenden unbekannten Größen oder Varia-
blen, hier x, herstellen. Erstaunlich ist, dass al-Chwarizmi so gut wie
keine mathematische Notation für Probleme dieser Art nutzte. Die
zu untersuchenden Gleichungen wurden oftmals in Textform als geo-
metrische Aufgaben gestellt, bei denen Flächen von Quadraten und
Rechtecken, sowie Längen von Seiten eine Rolle spielen.
Der höchste Exponent, mit dem die unbekannte Größe in einer po-
lynomialen Gleichung obigen Typs vorkommt, wird als Grad der Glei-
chung bezeichnet. Quadratische Gleichungen, also Gleichungen vom
Grad 2, konnten bereits von den Babyloniern gelöst werden (ab ca.
Ende des 3. Jahrtausends v. Chr.). Gleichungen höheren Grades hin-
gegen sind viel schwieriger zu handhaben. Lösungsformeln für die Gra-
de 3 und 4 wurden im 16. Jahrhundert von Scipione del Ferro und
Gerolamo Cardano entwickelt. Eine komplette Analyse insbesondere
für Gleichungen vom Grad > 4 erfolgte hingegen erst im 19. Jahrhun-
dert, und zwar im Rahmen der Galois-Theorie, die auf Évariste Galois
zurückgeht; vgl. die historische Einführung in [1].

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0
482 Historische Anmerkungen

Polynomiale Gleichungen vom Grad 1 werden als linear bezeichnet,


da sie unter Verwendung zweier Variablen zur Parametrisierung von
Geraden bzw. Linien dienen können. Nun stellt eine lineare Gleichung
in einer Variablen keine besondere Herausforderung dar. Aber ganz
anders liegt der Fall bei Systemen linearer Gleichungen in mehreren
Variablen. In der Tat, das Problem der Lösung solcher Gleichungssys-
teme hat bei der Entwicklung der Linearen Algebra eine zentrale Rolle
gespielt.
In vielen mathematischen Disziplinen werden lineare Gleichungs-
systeme als Hilfsmittel benötigt. Besonders naheliegend ist dies in der
Geometrie. Nach der Einführung von Koordinaten durch René Des-
cartes 1637, siehe [6], konnten Geraden und Ebenen mittels linearer
Gleichungen beschrieben werden, wobei sich deren Schnitte in natürli-
cher Weise als Lösungen linearer Gleichungssysteme ergeben. Weitere
Anwendungsfelder für lineare Gleichungen bieten die Zahlentheorie,
die Körper- und insbesondere Galois-Theorie, die Differentialrechnung
sowie lineare Approximation jeglicher Art im Rahmen der Analysis,
aber natürlich auch die Physik, und heute ganz besonders die nu-
merische Mathematik. Ein berühmtes Verfahren zur Lösung linearer
Gleichungssysteme ist das nach Carl Friedrich Gauß benannte Elimi-
nationsverfahren. Gauß nutzte es zu Beginn des 19. Jahrhunderts im
Zusammenhang mit astronomischen Berechnungen, z. B. um die Bahn
des Asteroiden Pallas mittels der Methode der kleinsten Quadrate zu
berechnen. Belegt ist dies mit seiner Arbeit Disquisitio de elementis
ellipticis Palladis [8] aus dem Jahre 1810.
Allerdings hatte der Matrizenbegriff, heute unverzichtbares Instru-
ment zur Handhabung linearer Gleichungssysteme, zu damaliger Zeit
noch keinerlei Gestalt angenommen. Selbst Determinanten, die be-
reits 1693 von Gottfried Wilhelm Leibniz eingeführt wurden, besa-
ßen mehr den Charakter von Invarianten, die linearen Gleichungs-
systemen zugeordnet sind. Die 1750 von Gabriel Cramer gefunde-
ne Determinantenregel zum Lösen linearer Gleichungssysteme wur-
de ebenfalls in diesem Sinne gesehen. Auch die Multiplikativität der
Determinante, die für quadratische Matrizen A, B durch die Glei-
chung det(AB) = det(A) det(B) charakterisiert ist, wurde 1812 von
Augustin-Louis Cauchy unter Vermeidung des Matrizenprodukts for-
muliert, wobei er immerhin einige Jahre später für Matrizen die Be-
zeichnung tableau einführte. Es dauerte allerdings noch bis zum Jahre
Historische Anmerkungen 483

1856, als Arthur Cayley schließlich Matrizenprodukte und inverse Ma-


trizen im heutigen Sinne behandeln konnte. Die Bezeichnung Matrix
geht übrigens auf James Joseph Sylvester 1850 zurück. Lateinischen
Ursprungs, weist der Begriff auf ein Wesen hin, das in seinem Bauch
eine Menge von Objekten ähnlichen Typs beinhaltet. Sylvester kam es
dabei auf die Minoren einer Matrix an, also auf quadratische Unter-
matrizen und deren Determinanten.
Ab etwa Mitte des 19. Jahrhunderts kann man vereinzelt Bestre-
bungen erkennen, mathematische Methoden axiomatisch zu fundieren,
ein Trend, der im 20. Jahrhundert verstärkt weiter verfolgt wurde.
Zwar hatte man Erfahrungen mit der Lösung vielfältigster konkreter
Einzelprobleme gesammelt und dabei alle möglichen Phänomene be-
obachtet, aber es fehlten sozusagen noch geeignete Werkzeuge, um die
dafür verantwortlichen Grundstrukturen sichtbar zu machen und prä-
zise zu beschreiben. Dieser Trend hin zur Axiomatisierung, verbunden
mit einer adäquaten Sprache, hat in vielen Bereichen sowohl zu einer
Vereinheitlichung und Verschlankung der Methoden geführt, wie ande-
rerseits auch zu enormen Fortschritten bei der Erforschung neuer Pro-
blemstellungen. Bei der Linearen Algebra war dies mit der Einführung
von Vektorräumen und deren linearen Abbildungen in besonderem Ma-
ße der Fall. In der Tat, der Trend zur Axiomatisierung hat mit dazu
beigetragen, dass die Lineare Algebra sich zu einem eigenständigen
Teilgebiet innerhalb der Algebra entwickelt hat.
Der Begriff des Vektors wurde von Sir William Rowan Hamilton in
den 1840er Jahren im Zusammenhang mit der Konstruktion des Zahl-
bereichs der Quaternionen verwendet. Ansonsten waren Vektoren bis
zur Mitte des 19. Jahrhunderts lediglich als gerichtete Strecken bekannt
oder allenfalls als Differenzen von Punkten im anschaulichen Raum.
Die Idee, Vektoren als Punkte eines abstrakten Raums zu sehen, eines
Vektorraums, wie wir heute sagen, kann man ansatzweise erstmals in
der Arbeit [9] von Hermann Graßmann aus dem Jahre 1844 erkennen.
Graßmanns Ausführungen waren jedoch teilweise philosophischer Art
und fanden innerhalb der mathematischen Fachgemeinschaft nur we-
nig Beachtung. Sie wurden 1888 von Giuseppe Peano in seinem Buch
[13] wieder aufgegriffen, wo sich bereits die kompletten Axiome eines
Vektorraums finden. Aber auch diese Arbeit stieß auf wenig Interesse,
zumal Peano seinen Ansatz nicht konsequent weiterverfolgte, sondern
Vektoren zusätzlich noch aus anderen Blickwinkeln studierte.
484 Historische Anmerkungen

Zu Beginn des 20. Jahrhunderts wurden Vektorräume verschiedent-


lich neu erfunden. Zu nennen ist hier beispielsweise das 1918 erschiene-
ne Buch [16] von Hermann Weyl über Allgemeine Relativitätstheorie,
welches reelle Vektorräume im Stile von Peano verwendet, allerdings
von endlicher Dimension. Auch ergab sich vom Standpunkt der Ana-
lysis her das Bestreben, Vektorräume mit Topologien zu kombinieren,
was zur Entwicklung topologischer Vektorräume führte, insbesonde-
re von Banach-, Fréchet- und Hilberträumen. Teilweise gefangen in
der Tradition des 19. Jahrhunderts, war man allerdings immer noch
bemüht, die Form der Vektorräume den Problemen anzupassen, die
zu behandeln waren. Dies änderte sich radikal in den 1920er Jahren,
als abstrakte Methoden in größerem Maße an Einfluss gewannen. Als
prominentes Beispiel ist hier das Wirken von Emmy Noether anzufüh-
ren, insbesondere ihre Arbeit [12] über Idealtheorie in Ringbereichen
aus dem Jahre 1921, in der neben Idealen auch Moduln über Ringen
betrachtet werden. Es war das Bestreben von Noether und ihren Mit-
streitern, speziell angepasste algebraische Methoden von den zugehöri-
gen Beispielen zu lösen und in konzeptioneller Weise als eigenständige
Theorie auszuformen. Dies war die Geburtsstunde der Algebra im heu-
tigen Sinne, der Modernen Algebra, wie man damals sagte.
Ein erstes Lehrbuch über Moderne Algebra wurde ab 1930 von
Bartel Leendert van der Waerden in einer Reihe von Auflagen veröf-
fentlicht, siehe [14], [15]. Das Werk fußt teilweise auf Vorlesungen von
Emmy Noether und Emil Artin und enthält insbesondere ein eigenes
Kapitel über Lineare Algebra. Spätere Auflagen erschienen unter dem
Titel Algebra. Einen interessanten Eindruck von Artins Vorlesungen
geben die Notre Dame Mathematical Lectures über Galois-Theorie [3]
aus dem Jahre 1942. Hier entwickelt Artin zunächst die Theorie der
Vektorräume und der linearen Gleichungen, um sie anschließend für
einen alternativen Zugang zur Galois-Theorie von Körpern zu nutzen.
Als Besonderheit ist schließlich der Band [4] von Nicolas Bourbaki an-
zuführen, der in der Reihe Éléments de Mathématique erschien. Nicolas
Bourbaki ist ein Pseudonym für eine Autorengruppe vorwiegend fran-
zösischer Mathematiker in wechselnder Zusammensetzung, die sich mit
den Éléments de Mathématique als Ziel gesetzt hatte, die Grundlagen
der Mathematik in umfassender Weise von den Anfängen an darzustel-
len. Weitere Informationen zur historischen Entwicklung der Linearen
Algebra kann man den Publikationen [10], [11] und [5] entnehmen.
Literatur

1. S. Bosch: Algebra. Springer Deutschland, ab 1992, aktuell 2020


2. S. Bosch: Algebraic Geometry and Commutative Algebra. Universi-
text, Springer London 2013
3. E. Artin: Galois Theory. Notre Dame Mathematical Lecures 2. Uni-
versity of Notre Dame Press, Notre Dame, London 1942, 1944
4. N. Bourbaki: Éléments de Mathématique, Algèbre, Chap. II Algèbre
linéaire. Hermann, CCLS, Masson, Springer, ab 1947
5. N. Bourbaki: Éléments de l’Histoire des Mathématiques. Hermann,
Masson, Springer, ab 1960
6. R. Descartes: La Géométrie. Discours de la méthode plus La Diop-
trique, plus Les Météores. Jan Maire 1637, pp. 296–413
7. W. Fischer, I. Lieb: Einführung in die Komplexe Analysis. Vie-
weg+Teubner, Wiesbaden, ab 1980, aktuell 2010
8. C. F. Gauss: Disquisitio de elementis ellipticis palladis ex oppositioni-
bus annorum 1803, 1804, 1805, 1807, 1808, 1809. Göttingische gelehrte
Anzeigen Band 6 (1/1810), pp. 1969–1973, 1810
9. H. Graßmann: Die lineare Ausdehnungslehre. Leipzig 1844
10. I. Kleiner: A History of Abstract Algebra. Birkhäuser Boston 2007
11. G. H. Moore: An axiomatization of linear algebra: 1875–1950. Hist.
Math. 22 (1995), 262–303
12. E. Noether:Idealtheorie in Ringbereichen. Math.Ann.83(1921), 24–66
13. G. Peano: Calcolo geometrico secondo l’Ausdehnungslehre di H. Grass-
mann, preceduto dalle operazioni della logica deduttiva. Fratelli Bocca
Torino 1888.
14. B. L. van der Waerden: Moderne Algebra. Springer Berlin, ab 1930
(ab 1955 unter dem Titel “Algebra”)
15. B. L. van der Waerden: Algebra II. Springer Berlin, ab 1936
16. H. Weyl: Raum, Zeit, Materie. Vorlesungen über allgemeine Relativi-
tätstheorie. Springer Berlin 1918

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0
Symbolverzeichnis


0P Vektor von 0 nach P 4
x∈X Element einer Menge 12
∅ leere Menge 12
N natürliche Zahlen 12
Z ganze Zahlen 12
Q rationale Zahlen 12
R reelle Zahlen 12
{x1 , . . . , xn } Menge 12
Y ⊂X Teilmenge einer Menge 13
R>0 positive reelle Zahlen 13
P(X) Potenzmenge einer Menge 13
S
X Vereinigung von Mengen 13
Ti∈I i
i∈I Xi Durchschnitt von Mengen 13
X1 ∪ . . . ∪ Xn endliche Vereinigung von Mengen 13
X1 ∩ . . . ∩ Xn endlicher Durchschnitt von Mengen 14
`
i∈I Xi disjunkte Vereinigung von Mengen 14
X1 − X2 Differenz von Mengen 14
Qn
i=1 Xi endliches kartesisches Produkt von Mengen 14
X1 × . . . × Xn endliches kartesisches Produkt von Mengen 14
Xn n-faches kartesisches Produkt einer Menge 14
(x , . . . , xn ) n-Tupel von Elementen 14
Q1
i∈I Xi kartesisches Produkt von Mengen 14
(xi )i∈I Familie von Elementen 14
XI kartesisches Produkt einer Menge 14
f: X ✲ Y Abbildung zwischen Mengen 15
idX identische Abbildung 15
g◦f Komposition von Abbildungen 15
f (M ) Bild einer Menge 15
f −1 (N ) Urbild einer Menge 15

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0
488 Symbolverzeichnis

f −1 (y) Urbild eines Elementes 15


f −1 : Y ✲ X Umkehrabbildung zu einer Abbildung 16
a·b Produkt von Elementen einer Gruppe 17
a+b Summe in einer kommutativen Gruppe 17
G Gruppe 17
e∈G Einselement einer Gruppe 17
Q∗ von 0 verschiedene rationale Zahlen 17
R∗ von 0 verschiedene reelle Zahlen 17
Bij(X, X) Gruppe bijektiver Selbstabbildungen 17
1∈G Einselement einer Gruppe 19
a−1 inverses Element 19
Qn
i=1 ai Produkt von Elementen 19
Q0
i=1 ai leeres Produkt 19
0∈G Nullelement einer kommutativen Gruppe 19
−a inverses Element in einer kommutativen Gruppe 20
Pn
i=1 ai Summe in einer kommutativen Gruppe 20
P0
i=1 ai leere Summe 20
A =⇒ B Implikation von Aussagen 20
A ⇐⇒ B Äquivalenz von Aussagen 20
K Körper 22
0∈K Nullelement eines Körpers 23
1∈K Einselement eines Körpers 23
n·a n-fache Summe eines Elements 24
K∗ multiplikative Gruppe eines Körpers 24
F2 √ Körper mit √ 2 Elementen 25
Q( 2) von Q und 2 erzeugter Körper 25
C komplexe Zahlen 27
i∈C komplexe Zahl mit i2 = −1 29
Re(z) Realteil einer komplexen Zahl 29
Im(z) Imaginärteil einer komplexen Zahl 29
an n-fache Potenz 29
n
i Binomialkoeffizient 30
V Vektorraum 34
0∈V Nullvektor eines Vektorraums 35
V =0 Nullvektorraum 35
U ⊂V Untervektorraum 36
K·a⊂V von a erzeugter Untervektorraum 36
Kn n-faches kartesisches Produkt als K-Vektorraum 37
Vn n-faches kartesisches Produkt eines Vektorraums 38
Symbolverzeichnis 489

Q
i∈I Vi kartesisches Produkt von Vektorräumen 38
Abb(X, K) Vektorraum von K-wertigen Funktionen 38
T
i∈I Ui Durchschnitt von Untervektorräumen 39
hAi ⊂ V von Vektoren erzeugter Untervektorraum 39
ha1 , . . . , an i ⊂ V von Vektoren erzeugter Untervektorraum 39
hAi ⊂ V von Vektoren erzeugter Untervektorraum 39
ei ∈ K n i-ter Einheitsvektor 41
δij Kronecker-Symbol 41
P n
i=1 αi ai Linearkombination von Vektoren 42
a1 , . . . , an Basis eines Vektorraums 45
dimK V Dimension eines Vektorraums 52
Pr
Ui Summe von Untervektorräumen 58
Li=1r
i=1 Ui direkte Summe von Untervektorräumen 59
U1 + . . . + Ur Summe von Untervektorräumen 59
U1 ⊕ . . . ⊕ Ur direkte Summe von Untervektorräumen 59
f: V ✲ V′ lineare Abbildung zwischen Vektorräumen 74
ker f Kern einer linearen Abbildung 76
im f Bild einer linearen Abbildung 76
HomK (V, V ′ ) Vektorraum linearer Abbildungen 78
f +g Summe linearer Abbildungen 78
α·f skalares Produkt mit einer linearen Abbildung 78
rg f Rang einer linearen Abbildung 80
A=a+U affiner Unterraum 83
f −1 (a′ ) Faser einer linearen Abbildung 84
R⊂M ×M Relation auf einer Menge 85
a∼b Relation, Äquivalenzrelation 85
⌈⌊a⌉⌋ Äquivalenzklasse eines Elementes 85
M/∼ Menge von Äquivalenzklassen 86
M ✲ M/∼ Abbildung auf Menge von Äquivalenzklassen 86
⌈⌊a⌉⌋ = a + U Nebenklasse modulo eines linearen Unterraums 87
V /U Quotientenvektorraum 87
π: V ✲ V /U Epimorphismus auf Quotientenvektorraum 88
V ∗ Dualraum eines Vektorraums 96
f∗ : V ∗ ✲ U∗ duale Abbildung 97
ϕ1 , . . . , ϕn ∈ V ∗ duale Basis 102
V ∗∗ doppelt dualer Vektorraum 103
coker f Cokern einer linearen Abbildung 106
A = (αij )ij Matrix 114
A+B Summe von Matrizen 115
λA skalares Produkt mit einer Matrix 115
490 Symbolverzeichnis

0 ∈ K m×n Nullmatrix 115


−A = (−αij )ij negatives Element zu einer Matrix 115
Eij = (δiµ δjν )µν kanonische Basis von Matrizen 115
aY ∈ K m Koordinatenspaltenvektor 116
X = (x1 , . . . , xn ) Basis eines Vektorraums 117
Af,X,Y beschreibende Matrix einer linearen Abbildung 117
E = Em = (δij )ij Einheitsmatrix 117
A·B Produkt von Matrizen 119
rgs A Spaltenrang einer Matrix 126
rgz A Zeilenrang einer Matrix 126
rg A Rang einer Matrix 126
At = (αij )ji transponierte Matrix 132
X ∗, Y ∗ duale Basis eines Dualraums 134
R Ring 138
0∈R Nullelement eines Rings 139
1∈R Einselement eines Rings 139
R=0 Nullring 139
EndK (V ) Endomorphismenring eines Vektorraums 139
K n×n Matrizenring quadratischer Matrizen 139
A−1 inverse Matrix 140
R∗ Einheitengruppe eines Rings 141
AutK (V ) Automorphismengruppe eines Vektorraums 141
GL(n, K) allgemeine lineare Gruppe 141
Aid,Y,X Matrix eines Basiswechsels 147
A·x=b lineares Gleichungssystem 152
MA,b Lösungsraum eines linearen Gleichungssystems 152
Sn
  Permutationsgruppe 172
1 ... n
Permutation 172
a1 . . . an
n! Fakultät einer natürlichen Zahl 172
sgn π Signum einer Permutation 174
An alternierende Gruppe 176
∆: V n ✲ K Determinantenfunktion 178
det(A) Determinante einer Matrix 180
det(f ) Determinante eines Endomorphismus 184
Aad adjungierte Matrix 195
Vr
V r-fache äußere Potenz eines Vektorraums 200
V
Vr ✲ rV kanonische Abbildung in äußere Potenz 200
a1 ∧ . . . ∧ ar äußeres Produkt von Elementen 200
detX,H (a1 , . . . , ar ) Determinante einer Untermatrix 203
Symbolverzeichnis 491

Vr
f äußeres Produkt einer linearen Abbildung 205
V L V
V = r∈N r V äußere Algebra eines Vektorraums 206
R Ring 212
R⌈⌊T ⌉⌋ Polynomring über einem kommutativen Ring 214
grad f Grad eines Polynoms 216
ϕ : R ✲ R′ Ringhomomorphismus 217
R ✲A R-Algebra 217
Φ: A ✲ B Homomorphismus von R-Algebren 218
S⊂R Unterring 222
a⊂R Ideal eines Rings 222
ker ϕ Kern eines Ringhomomorphismus 222
(a) = Ra von einem Element erzeugtes Hauptideal 223
(1) = R Einheitsideal 223
0⊂R Nullideal 223
a+a Nebenklasse modulo eines Ideals 223
R/a Restklassenring modulo eines Ideals 224
R ✲ R/a kanonische Projektion auf Restklassenring 224
δ : R − {0} ✲ N Gradfunktion auf einem euklidischen Ring 228
a|b a teilt b 229
a∤b a teilt nicht b 229
Q
a = ε p∈P pµp (a) Primfaktorzerlegung 234
ggT(a, b) größter gemeinsamer Teiler 234
kgV(a, b) kleinstes gemeinsames Vielfaches 235
λ∈K Eigenwert 250
Vλ Eigenraum zu einem Eigenwert 253
χA charakteristisches Polynom einer Matrix 257
Spur A Spur einer Matrix 257
K(T ) rationaler Funktionenkörper 258
χf charakteristisches Polynom einer Abbildung 259
Spur f Spur einer linearen Abbildung 259
pf Minimalpolynom einer linearen Abbildung 261
pA Minimalpolynom einer Matrix 261
M Modul 265
N ⊂M Untermodul 266
ϕ: M ✲ N Homomorphismus von Moduln 266
P
Rai ⊂ M von Elementen erzeugter Untermodul 267
Pi∈In
Mi ⊂ M Summe von Untermoduln 267
Li=1n
i=1 Mi direkte Summe von Moduln 267
N1 × . . . × Nn kartesisches Produkt von Moduln 267
M/N Restklassenmodul 268
492 Symbolverzeichnis

⌊⌈a⌉⌋ = a + N Nebenklasse modulo eines Untermoduls 268


ℓR (M ) Länge eines Moduls 268
E ij (σ, τ, σ ′ , τ ′ ) verallgemeinerte Elementarmatrix 274
T ⊂M Torsionsuntermodul eines Moduls 283
ψ ϕ
Rn ✲ Rm ✲ M endliche Präsentation eines Moduls 283
Mp ⊂ M Untermodul der p-Torsion 286
f |U Einschränkung einer Abbildung 289
M = Ra monogener Modul 290
Diag(A1 , . . . , Ar ) “Diagonalmatrix” von Matrizen 296
A(p) Begleitmatrix zu einem Polynom 297
# «
|0P1 |, |P1 | Betrag eines Vektors bzw. Punktes 311
K Körper der reellen oder komplexen Zahlen 315
a = α − iβ konjugiert komplexe Zahl 315
Re(a) Realteil einer komplexen Zahl 316
Im(a)p Imaginärteil einer komplexen Zahl 316
|a| = α2 + β 2 Absolutbetrag einer komplexen Zahl 316
Φ: V × V ✲ K Sesquilinearform 316
hx, yi symmetrische Bilinearform, hermitesche Form 317
hx, yi p = xt · y kanonisches Skalarprodukt auf Kn 317
|x| = hx, xi Betrag bzw. Länge eines Vektors 319
e1 , . . . , en ∈ V Orthonormalbasis 322
M ⊥N orthogonale Teilmengen 326
M⊥ orthogonales Komplement 327
P (x1 , . . . , xr )  von Vektoren aufgespanntes Parallelotop 327
Vol P (x1 , . . . , xr ) Volumen eines Parallelotops 327
G(x1 , . . . , xr ) Gramsche Determinante 328
A = (αij )ij konjugierte Matrix 331
At = (αij )ji transponierte Matrix 331
A∗ = At = (αij )ji adjungierte Matrix 331
AΦ,X beschreibende Matrix zu einer Sesquilinearform 332
AY,X Matrix eines Basiswechsels 334
V komplex konjugierter Vektorraum 338
ϕ∗ adjungierter Endomorphismus 339
R(ϑ) Drehmatrix 348
O(n) orthogonale Gruppe 350
U(n) unitäre Gruppe 351
SO(n) spezielle orthogonale Gruppe 351
Namen- und Sachverzeichnis

Abbildung, 15–16 – Urbild, 15


– adjungierte, – Wertebereich, 15
siehe Endomorphismus, Absolutbetrag, 311, 316, 319
adjungierter ähnlich, 248–251
– affine, 69 Algebra, äußere, 207
– alternierende, 178, 198 R-Algebra, 217–222
– bijektive, 15 allgemeine lineare Gruppe, 141,
– Bild, 15 350
– Bildbereich, 15 alternierende Gruppe, 176
– Definitionsbereich, 15 analytische Geometrie, 1
– identische, 15 Äquivalenz, 85
– injektive, 15 – von Aussagen, 20
– Komposition, 15 Äquivalenzklasse, 85–89
– lineare, – Menge von, 86
siehe lineare Abbildung Äquivalenzrelation, 85–89, 223, 268
– multilineare, 178, 198 Argument einer komplexen Zahl,
– normale, 348
siehe Endomorphismus, Assoziativgesetz, 120, 138
normaler Automorphismengruppe, 141, 345
– orthogonale, Automorphismus
siehe Endomorphismus, – eines Rings, 217
orthogonaler – eines Vektorraums, 75
– selbstadjungierte,
siehe Endomorphismus, Basis, 45–46, 48–52, 56, 115, 267
selbstadjungierter – äquivalente Charakterisierung,
– surjektive, 15 48, 147
– unitäre, – duale, 102, 134, 204
siehe Endomorphismus, – eines äußeren Produkts, 204
unitärer – kanonische, 45

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, https://doi.org/10.1007/978-3-662-62616-0
494 Namen- und Sachverzeichnis

Basisergänzungssatz, 49, 56 Diagonalmatrix, 248, 249, 253,


Basiswechsel, 113, 121, 147–150, 296, 360
334, 360, 363, 364 Dimension, 52–54, 71, 119, 152
Begleitmatrix, 245, 297 Dimensionsformel
Betrag, – für lineare Abbildungen, 80, 89
siehe Absolutbetrag – für Untervektorräume, 60, 61
Bild, 76, 340 disjunkt, 14
Bilinearform, 316 Distributivgesetze, 139
– nicht ausgeartete, 319 Division mit Rest, 226–229
– symmetrische, Drehmatrix, 348
siehe symmetrische Drehung, 69, 347, 352, 353
Bilinearform Drehwinkel, 347
Binomialkoeffizient, 31 Dreiecksmatrix, 260, 303
binomische Formel, 29–32 Dreiecksungleichung, 312, 319
Dualraum, 73, 96–104, 338
Cauchysche Determinante, 193 Durchschnitt, 13
Cayley-Hamilton, Satz von, 246,
262, 299
Ebene, 9, 92
Charakteristik, 33, 237
Eigenraum, 244, 253, 259
Chinesischer Restsatz, 282–283
Eigenvektor, 244, 250
Cokern, 106
– einer normalen Abbildung, 343
Cramersche Regel, 168–171,
195–197 Eigenwert, 244, 250–255, 358, 363
– einer normalen Abbildung, 343
Dachprodukt, 200 Einheit, 140, 213
Descartes, R., 1 Einheitengruppe, 141, 213
Determinante, 183–192, 335 Einheitsideal, 223
– Beispiele, 188–192 Einheitsmatrix, 114, 117, 140
– Eigenschaften, 185 Einheitsvektor, 41, 43, 45
– einer Matrix, 167–171, 180, Einselement, 19, 23
194–197 Einsetzungshomomorphismus, 219
– einer Untermatrix, 187 Element
– eines Endomorphismus, 185, 205 – assoziiertes, 229
– Entwicklungssatz, 196, 207 – inverses, 17, 140
– Rechenregeln, 187 – invertierbares, 140
– Regel von Sarrus, 192 – irreduzibles, 230
Determinantenfunktion, 178–184 – maximales, 55
diagonalisierbar, 244, 249, 250, – neutrales, 17
252–254, 256, 259, 260, 300, – primes, 230–235
359, 360 – reduzibles, 230
Namen- und Sachverzeichnis 495

Elementarmatrix, 128–129, 132, Funktionenkörper, 258


143–145, 272
Elementarteiler Gaußsches Eliminationsverfahren,
– einer endlichen Präsentation, 284 107, 113, 127–132, 135–136
– einer Matrix, 271–275, 280 – zur Invertierung von Matrizen,
– eines Untermoduls, 270–280 143–145
Elementarteilersatz, 270 – zur Lösung linearer
Elementarteilertheorie, 246, Gleichungssysteme, 153–162
270–280 – zur Rangbestimmung, 130
Endomorphismenring, 139, 211, Gerade, 7–9, 36, 91, 107, 110
213, 220 Gleichung, algebraische, 211
Endomorphismus Gleichungssystem, lineares,
– adjungierter, 339–344 siehe lineares Gleichungssystem
– diagonalisierbarer, 244, 249, 250, Gradfunktion, 228
252–254, 259, 300, 359 Gramsche Determinante, 328
– eines Rings, 217 Gruppe, 11, 17–21
– eines Vektorraums, 75 – abelsche, 17, 34, 138, 265
– invertierbarer, 141–143 – bijektiver Selbstabbildungen, 17
– normaler, 342–344 – Einselement, 19
– orthogonaler, 345 – endlich erzeugte abelsche, 286
– selbstadjungierter, 313, 357–360 – inverses Element, 18, 19
– Struktur, 243 – kommutative, 17
– unitärer, 345 – neutrales Element, 18
Epimorphismus – Nullelement, 19
– von Moduln, 266 – Ordnung, 288
– von Ringen, 217 – orthogonale, 350
– von Vektorräumen, 75, 81, 98 – spezielle orthogonale, 351
Erzeugendensystem, 40, 267 – unitäre, 351
– freies, 267 – zyklische, 287, 288

Fakultät, 30, 172 Hauptachsentransformation,


Familie, 14 314–315, 360–364
Faser, 71, 84 Hauptideal, 223
Fehlstand, 174 Hauptidealring, 229
Fibonacci-Zahlen, 264 Hauptsatz
Form – für endlich erzeugte abelsche
– hermitesche, Gruppen, 286
siehe hermitesche Form – für endlich erzeugte Moduln
– quadratische, 321 über Hauptidealringen, 284–288
Fundamentalsatz der Algebra, 240 Hauptunterdeterminanten, 336
496 Namen- und Sachverzeichnis

hermitesche Form, 313, 317–321, – von Vektorräumen, 65, 75, 80,


334 81, 116, 118, 133
– positiv definite, 317, 319, 363
– positiv semidefinite, 317 Jordankästchen, 300
HF, Jordanmatrix, 303
siehe hermitesche Form
kanonisch, 37
Homomorphiesatz
Kern, 71, 76, 222, 340
– für Moduln, 268
Koeffizient, 114
– für Ringe, 224
Koeffizientenmatrix, 112
– für Vektorräume, 72, 89, 90
Komplement, 61, 84
Homomorphismus
– orthogonales, 327, 340
– von R-Algebren, 218
Komplementärmatrix, 195
– von Gruppen, 175–176
Komplex, 99, 100
– von Moduln, 266 komplexe Zahlen, 27–29
– von Ringen, 217 Kongruenz, 86
– von Vektorräumen, Konjugationsabbildung, 315
siehe lineare Abbildung Koordinaten, 2
Hülle, lineare, 39 Koordinatenspaltenvektor, 116,
Hyperebene, 92 121, 181, 182, 184
Körper, 11, 22–32, 213, 236
Ideal, 222
– Addition, 22
– erzeugtes, 226, 235
– algebraisch abgeschlossener, 240
Imaginärteil, 29, 316
– Assoziativgesetz, 23
Implikation von Aussagen, 20 – Charakteristik, 33
Induktion, vollständige, 31 – der komplexen Zahlen, 240
Integritätsring, 214, 217 – Distributivgesetze, 23
Involution, 315 – Einselement, 23, 34
Isometrie, 345–350, 353–356 – inverses Element, 23
– Beispiele, 347 – Kommutativgesetz, 23
– Eigenwerte, 353 – komplexe Zahlen, 27–29
Isomorphiesatz – mit 2 Elementen, 25
– für Moduln, 281 – Multiplikation, 22
– für Ringe, 226 – multiplikative Gruppe, 24
– für Vektorräume, 95 – neutrales Element, 23
Isomorphismus – Nullelement, 23
– und Dimension von Kronecker-Symbol, 41
Vektorräumen, 79 Kürzungsregeln, 20
– von Einheitengruppen, 141
– von Moduln, 266 Lagrange, Satz von, 461
– von Ringen, 140, 217 Länge
Namen- und Sachverzeichnis 497

– eines Moduls, 268–270 Linearkombination, 42, 43


– eines Vektors, 319 linear unabhängig, 9, 10, 42–44,
Laplacescher Entwicklungssatz, 167, 251
196 Linksnebenklasse, 461
– allgemeiner, 207
linear abhängig, 10, 42, 43, 182 Matrix, 71, 74, 79, 107, 114ff., 267
– äquivalente Charakterisierung, – adjungierte(1), 194, 195
46 – adjungierte(2), 331
lineare Abbildung, 65, 74–82 – als lineare Abbildung, 120
– Beispiele, 69–70 – Cofaktor, 195
– beschreibende Matrix, 79, 113, – diagonalisierbare, 249, 256, 260,
117, 121, 148, 267, 341 300, 359, 360
– Bild, 76, 340 – eines Basiswechsels, 113, 147
– Dimensionsformel, 71 – hermitesche, 313, 357
– duale, 97–104, 134 – inverse, 140
– Faser, 71 – invertierbare, 113, 125, 141–145,
– injektive, 76 167
– Kern, 71, 76, 340 – konjugierte, 331
– Rang, 71, 80, 103, 126–127, 135, – leere, 115, 183, 297
247, 340 – orthogonale, 313, 337, 350–360
– skalare Multiplikation, 78, 96 – Produkt, 119
– Summe, 78, 96 – Rang, 126–132, 135–136, 148–150
– und Basen, 77 – Rechenregeln, 123
– und Dimension, 77 – skalare Multiplikation, 115
– und Erzeugendensysteme, 76 – Spalte, 115
– und lineare Abhängigkeit, 76 – Spaltenindex, 115
– und lineare Unabhängigkeit, 77 – Spaltenrang, 126, 135, 150
– von Moduln, 266 – Summe, 115
lineares Gleichungssystem, 46, – symmetrische, 313, 357
107–112, 152, 162 – transponierte, 132–135, 331
– Cramersche Regel, 168–171 – trigonalisierbare, 303
– eindeutige Lösbarkeit, 158, 163 – unitäre, 313, 337, 350–360
– homogenes, 152 – Zeile, 115
– inhomogenes, 152 – Zeilenindex, 114
– Koeffizientenmatrix, 112 – Zeilenrang, 126, 135, 150
– Lösbarkeit, 158, 159 Matrizenring, 139, 213, 220
– Lösungsraum, 152 maximales Ideal, 458
– partikuläre Lösung, 159 Menge, 12–16
– universelle Lösbarkeit, 158, 163 – Differenz, 14
Linearform, 96 – disjunkte Vereinigung, 14
498 Namen- und Sachverzeichnis

– Durchschnitt, 13 Nullideal, 223


– gleichmächtige, 56 Nullmatrix, 115
– kartesisches Produkt, 14 Nullraum, 35
– obere Schranke, 55 Nullring, 139, 213
– streng geordnete, 55 Nullstelle, 238–240
– teilweise geordnete, 55 Nullteiler, 138, 146, 213
– Vereinigung, 13 Nullvektor, 35
Minimalpolynom, 220, 246,
oder, mathematisch, 14
260–263, 289, 300
Ordnung, 288
Modell, 3
orthogonal, 322, 326
Modul, 246, 265ff.
Orthogonalbasis, 322
– Addition, 265
Orthogonalsystem, 322
– Assoziativgesetz, 265
Orthonormalbasis, 312, 322, 341,
– Beispiele, 266
345, 349
– direkte Summe, 267
Orthonormalsystem, 322
– Distributivgesetze, 265
– endlicher, 267 Paradoxon von Russel, 13
– endlicher freier, 267 Parallelotop, 327–330
– endlich erzeugter, 267 Permutation, 172–177, 179, 180,
– freier, 267 199
– Länge, 268–270 – gerade, 173
– monogener, 290 – Signum, 174
– Rang, 279, 284 – ungerade, 173
– skalare Multiplikation, 265 Permutationsgruppe, 172
Monomorphismus – Anzahl der Elemente, 172
– von Moduln, 266 Permutationsmatrix, 164, 357
– von Ringen, 217 Polynom, 211, 214–217, 219–222,
– von Vektorräumen, 75, 81, 98 261
– charakteristisches, 243, 257–263
Nebenklasse, 87, 223, 268 – Grad, 216–217
Nilradikal, 226 – höchster Koeffizient, 216
Normalform, 296 – Koeffizient, 215
– allgemeine, 247, 298–299 – normiertes, 234
– Berechnung, 304–309 – Nullstelle, 238–240
– für orthogonale Abbildungen, Polynomring, 212, 214–217,
354 219–222
– für unitäre Abbildungen, 353 Potenz, 29
– Jordansche, 247, 300–305 – äußere, 200–208
Normalteiler, 176 – symmetrische, 209
Nullelement, 19, 23 Potenzmenge, 13
Namen- und Sachverzeichnis 499

Potenzreihen – Einselement, 139


– formale, 225 – euklidischer, 228
Präsentation, endliche – faktorieller, 233
– eines Moduls, 283, 306 – invertierbares Element, 140
– Elementarteiler, 284 – kartesisches Produkt, 213
Primelement, 230–236 – kommutativer, 139
Primfaktorzerlegung, 226, 233–235 – Nullelement, 139
Primideal, 458
Primpolynom, 294 sBF,
Produkt siehe symmetrische
– äußeres, 200–208 Bilinearform
– kartesisches, 14, 38, 213, 267 Schmidtsches
– leeres, 19 Orthonormalisierungsverfahren,
– symmetrisches, 209 312, 321, 323–327
Projektion, 70, 85 Schwarzsche Ungleichung, 312, 318
– orthogonale, 323 senkrecht, 311, 322
– senkrechte, 320 Sequenz, 99
Pythagoras, Satz von, 311, 320 – duale, 101
– exakte, 100
Quotientenring, 223
– kurze exakte, 100
Quotientenvektorraum, 72, 85,
Sesquilinearform, 316–321
87–91
– beschreibende Matrix, 332–337
Rang – nicht ausgeartete, 316, 332
– einer linearen Abbildung, 71, 80, skalare Multiplikation, 34, 78, 96,
103, 126–127, 135, 247, 340 265
– einer Matrix, 126–132, 135–136, Skalarprodukt, 311, 317, 334–337
148–150 – kanonisches, 317
– eines Moduls, 279, 284 Spaltenstufenform, 132
Realteil, 29, 316 Spaltentransformation,
Reflexivität, 85 siehe Spaltenumformungen
Regel von Sarrus, 192 Spaltenumformungen, elementare,
Relation, 85 132, 272
Repräsentant, 85 Spaltenvektor, 111, 116
Restklasse, 87 Spektralsatz
Restklassenmodul, 268 – für normale Abbildungen, 343
Restklassenring, 223 – für selbstadjungierte
Restklassenvektorraum, 72, 87–91 Abbildungen, 358
Ring, 138, 212, 265 Spiegelung, 69, 348, 353
– Einheit, 140, 213 Spur
– Einheitengruppe, 141, 213 – einer linearen Abbildung, 259
500 Namen- und Sachverzeichnis

– einer Matrix, 257, 258 Untermodul, 266


Summe – der p-Torsion, 286
– direkte, 59–63, 267 – direkte Summe, 267
– konstruierte direkte, 60, 267 – Summe, 267
– leere, 20 Unterraum
– von Untermoduln, 267 – affiner, 71, 83–84, 91–93, 110,
– von Untervektorräumen, 58–63 152
Sylvesterscher Trägheitssatz, 314, – kleinster affiner, 93
364 – linearer,
Symmetrie, 85 siehe Untervektorraum
symmetrische Bilinearform, 311, Unterring, 222
313, 317–321, 334 Untervektorraum, 36, 39, 83, 91,
– Kern, 321 152
– positiv definite, 317, 319, 363 – aufgespannter, 9, 39
– positiv semidefinite, 317 – direkte Summe, 59–63
symmetrische Gruppe, 172 – erzeugter, 9, 39
System, 42 – invarianter, 244, 289ff.
– freies, 267 – Komplement, 61
– Länge, 51 – Summe, 58–63
– leeres, 43 – unzerlegbarer, 246, 290ff.
– linear abhängiges, 42 – zyklischer, 244, 289ff.
– linear unabhängiges, 42, 44, 267
– maximales linear unabhängiges, Vandermondesche Determinante,
48, 56 191
– minimales Erzeugendensystem, Variable, 212, 221
48 Vektor, 4, 6
– Addition, 4–6
Teiler, 229
– normierter, 320
– größter gemeinsamer, 234, 235
– skalare Multiplikation, 4–5
Teilkörper, 25–27
– Skalarprodukt, 317
Teilmenge, 13
– Subtraktion, 6–7
Torsion, 246
Vektorraum, 4, 34–41
Torsionsmodul, 246, 283, 289
– Addition, 34
Torsionsuntermodul, 283
– Assoziativgesetz, 34
Transitivität, 85
– Automorphismengruppe, 141
Transposition, 173
n-Tupel, 14 – Basis, 45–46, 48–52, 56, 147
– Beispiele, 37, 38
Umkehrabbildung, 16, 75 – Dimension, 52–54, 71, 119, 152
universelle Eigenschaft, 72, 199 – direkte Summe, 59–63
Untergruppe, 20 – Distributivgesetze, 34
Namen- und Sachverzeichnis 501

– doppelt dualer, 103 – äußere, 34, 265


– dualer, – innere, 17, 22, 34, 138, 265
siehe Dualraum – inverses Element, 17
– endlich erzeugter, 41 – kommutative, 17
– Endomorphismenring, 139 – neutrales Element, 17
– Erzeugendensystem, 40 Vielfaches
– euklidischer, 312, 317 – kleinstes gemeinsames, 235
– kartesisches Produkt, 38 vollständige Induktion, 31
– konstruierte direkte Summe, 60 Volumen, 327–330
– neutrales Element, 35
– nicht endlich erzeugter, 54–56 Winkel, 321, 347
– Nullvektor, 35
– Rechenregeln, 35 Zahl, konjugiert komplexe, 315
– skalare Multiplikation, 34 Zeilenstufenform, 130, 135, 153
– unitärer, 312, 317 Zeilentransformation,
– von linearen Abbildungen, 78, siehe Zeilenumformungen
117 Zeilenumformungen, elementare,
– K-wertiger Funktionen, 38, 54 127–132, 135, 143–145, 272
Vereinigung, 13 Zeilenvektor, 111, 116
Verknüpfung Zornsches Lemma, 55
– assoziative, 17 Zyklus, 177
springer.com

Willkommen zu den
Springer Alerts
Unser Neuerscheinungs-Service für Sie:
aktuell | kostenlos | passgenau | flexibel
Mit dem Springer Alert-Service informieren wir Sie
individuell und kostenlos über aktuelle Entwicklungen Jetzt
in Ihren Fachgebieten. anmelden!
Abonnieren Sie unseren Service und erhalten Sie per
E-Mail frühzeitig Meldungen zu neuen Zeitschrifteninhalten,
bevorstehenden Buchveröffentlichungen und
speziellen Angeboten.
Sie können Ihr Springer Alerts-Profil individuell an Ihre
Bedürfnisse anpassen. Wählen Sie aus über 500
Fachgebieten Ihre Interessensgebiete aus.
Bleiben Sie informiert mit den Springer Alerts.

Mehr Infos unter: springer.com/alert

A82259 | Image: © Molnia / Getty Images / iStock


springer-spektrum.de

Jetzt im Springer-Shop bestellen:


springer.com/978-3-662-61648-2

Das könnte Ihnen auch gefallen