Sie sind auf Seite 1von 233

a

W ESTF ÄLISCHE W ILHELMS -U NIVERSIT ÄT M ÜNSTER


I NSTITUT F ÜR M ATHEMATISCHE L OGIK UND
G RUNDLAGENFORSCHUNG

Lineare Algebra

Vorlesung von

Wolfram Pohlers

Wintersemester 1997/98
Sommersemester 1998

Typeset by Wolfram Pohlers


2
Vorwort

Das vorliegende Skript ist eine Mitschrift der Vorlesung, die ich im Wintersemester
1997/98 und Sommersemester 1998 an der Westfälischen Wilhelms-Universität ge-
halten habe. Ein Teil der Mitschrift – etwa bis Kapitel 4 – beruht auf Aufzeichnun-
gen der von mir vorgetragenen Definitionen und Sätze, die mir Herr stud. math.
P ETER H ORN bereits in geTEXter Form überlassen hat. Allerdings habe ich die-
sen Text so weit verändert und ergänzt, daß alle eventuellen Ungenauigkeiten zu
meinen Lasten gehen. Die Niederschrift des übrigen Textes erfolgte vorlesungsbe-
gleitend.
Mein ganz besonderer Dank gebührt den Studierenden Frau M AIKE WALTHER,
Herrn H ENRIK B UCHHOLZ, Herrn K EVIN B UCHIN und Herrn H ENDRIK K L ÄVER,
die den vorliegenden Text Korrektur gelesen und einen Großteil der Korrekturen
auch eigenhändig eingearbeitet haben.
Ich hoffe, daß dieses Skript sich als hilfreich für die Prüfungsvorbereitungen er-
weisen wird.

Im Januar 1999

Wolfram Pohlers

i
ii
INHALTSVERZEICHNIS

Inhaltsverzeichnis

0 Vorbemerkungen 1
0.1 Etwas Aussagenlogik . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Etwas Quantorenlogik . . . . . . . . . . . . . . . . . . . . . . . 3
0.3 Etwas Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.4 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
0.5 Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
0.6 Natürliche Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1 Vektorräume 19
1.1 Gruppen, Ringe und Körper . . . . . . . . . . . . . . . . . . . . 19
1.2 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Ein kleiner Exkurs ins Unendliche . . . . . . . . . . . . . . . . . 31
1.3 Einige Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.3.1 Der Vektorraum K n . . . . . . . . . . . . . . . . . . . . 38
1.3.2 Der Vektorraum der Abbildungen von einer Menge in einen
Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.3.3 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.3.4 Produkte und Summen von Vektorräumen . . . . . . . . . 42

2 Lineare Abbildungen 45
2.1 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Kanonische Faktorisierung von Homomorphismen . . . . . . . . 47
2.3 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . 53
2.4 Direkte Summen von Unterräumen . . . . . . . . . . . . . . . . . 57
2.5 Der Vektorraum Hom(V; W ) . . . . . . . . . . . . . . . . . . . . 61

3 Matrizen 65
3.1 Basisdarstellung linearer Abbildungen . . . . . . . . . . . . . . . 65
3.2 Der duale Raum und die transponierte Matrix . . . . . . . . . . . 72
3.3 Basistransformationen . . . . . . . . . . . . . . . . . . . . . . . 81

iii
INHALTSVERZEICHNIS

3.4 Der Rang linearer Abbildungen und der Rang einer Matrix . . . . 87
3.5 Elementare Umformungen . . . . . . . . . . . . . . . . . . . . . 88
3.6 Lineare Gleichungssysteme und affine Räume . . . . . . . . . . . 98

4 Determinanten 113
4.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.2 Determinantenfunktionen . . . . . . . . . . . . . . . . . . . . . . 116
4.3 Die Determinante eines Endomorphismus und einer Matrix . . . . 119
4.4 Die inverse Matrix und die Cramersche Regel . . . . . . . . . . . 126

5 Normalformdarstellungen von Endomorphismen 131


5.1 Teilbarkeit in Ringen . . . . . . . . . . . . . . . . . . . . . . . . 131
5.2 Euklidische Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.3 Der Polynomring K [x] . . . . . . . . . . . . . . . . . . . . . . . 138
5.4 Eigenwerte und Eigenvektoren von Endomorphismen . . . . . . . 142
5.5 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.6 Algebren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
5.7 Die Minimalzerlegung eines algebraischen Elements . . . . . . . 153
5.8 Die Algebra der Endomorphismen eines endlich dimensionalen Vek-
torraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

6 Euklidische und unitäre Vektorräume 171


6.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
6.2 Positiv definite Bilinearformen . . . . . . . . . . . . . . . . . . . 177
6.3 Euklidische Vektorräume . . . . . . . . . . . . . . . . . . . . . . 180
6.4 Isometrien euklidischer Räume . . . . . . . . . . . . . . . . . . . 187
6.5 Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . 192
6.6 Unitäre Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . 199
6.7 Komplexifizierung reeller Vektorräume . . . . . . . . . . . . . . 200
6.8 Isometrien unitärer Räume . . . . . . . . . . . . . . . . . . . . . 202
6.9 Normale Endomorphismen . . . . . . . . . . . . . . . . . . . . . 203
6.10 Unitäre und orthogonale Abbildungen . . . . . . . . . . . . . . . 209
6.11 Selbstadjungierte Endomorphismen . . . . . . . . . . . . . . . . 213

iv
0. Vorbemerkungen, Notationen,
Konventionen

0.1 Etwas Aussagenlogik


Beispiele von Aussagen
 Die Sonne scheint.
 Es regnet.
 Ich spanne den Schirm auf.
Eine Aussage besteht also aus einem (oder mehreren) Objekten, die Sonne, Es, ich,
der Schirm und Prädikaten, die auf die Objekte angewendet werden. Die Sonne
scheint; es regnet, ich spanne den Schirm auf.
Mehrere Aussagen lassen sich zu einer neuen Aussage verknüpfen. Z.B.:
 Die Sonne scheint und es ist warm.
 Die Sonne scheint oder es regnet.
 Wenn es regnet, dann spanne ich den Schirm auf.
Durch Negation lassen sich Aussagen in ihr Gegenteil umformen. Dies ist bei
wenn. . . dann Aussagen nicht immer ganz einfach. So erhalten wir beispielswei-
se als Negation der Aussage
 Wenn es regnet, dann spanne ich den Schirm auf
die Aussage
 Es regnet und ich spanne den Schirm nicht auf.
Um den umgangssprachlichen Begriffen wie und, oder, wenn . . . dann und nicht ei-
ne präzise mathematische Bedeutung zu geben, führen wir aussagenlogische Junk-
toren ein. Aussagen sind dadurch gekennzeichnet, daß sie wahr oder falsch sein

1
0. Vorbemerkungen

können. Die Verknüpfung von Aussagen ist also dadurch festgelegt, daß wir ver-
einbaren, welcher Wahrheitswert der verknüpften Aussage in Abhängigkeit der
Wahrheitswerte der zu verknüpfenden Aussagen zukommen soll. Eine n-stellige
aussagenlogische Operation ist also eine Funktion, die n Wahrheitswerten fw; f g
einen Wahrheitswert zuordnet. Wir kommen mit den folgenden 1- und 2–stelligen
aussagenlogischen Operationen aus. (Mit Mitteln der Mathematischen Logik läßt
sich zeigen, daß jede aussagenlogische Operation schon aus den folgenden aufge-
baut werden kann.)

0.1.1 Definition Die aussagenlogischen Operationen (Junktoren)


 und (^)
 oder (_)
 nicht (:)
 wenn-dann ()) und
 genau dann wenn (,)
werden durch die folgenden Wahrheitstafeln definiert:

: ^ w f _ w f ) w f , w f
w f w w f w w w w w f w w f
f w f f f f w f f w w f f w

Dabei sind die Wahrheitstafeln so zu lesen, daß in der Spalte unter dem Junktor
dessen erstes Argument und in der Zeile neben dem Junktor dessen zweites Argu-
ment steht. Der Wahrheitswert der verknüpften Aussage steht dann im Schnittpunkt
von Zeile und Spalte.

Legen wir die Wahrheitstafeln zugrunde, so erhalten wir durch einfaches Nach-
rechnen die folgenden

0.1.2 Rechenregeln für Aussagenlogische Operationen


(i) (A ^ B ) = (B ^ A); (A _ B ) = (B _ A)
(ii) (A ^ B ) ^ C = A ^ (B ^ C )
(iii) (A _ B ) _ C = A _ (B _ C )
(iv) (A ^ B ) _ C = (A _ C ) ^ (B _ C )
(v) (A _ B ) ^ C = (A ^ C ) _ (B ^ C )

2
0.2. Etwas Quantorenlogik

(vi) ::A = A
(vii) :(A ^ B ) = :A _ :B
(viii) :(A _ B ) = :A ^ :B
(xi) (A ) B ) = :A _ B
(x) :(A ) B ) = A ^ :B
(xi) (A ) f ) = :A
(xii) (:A ) f ) = A
(xiii) (A , B ) = (A ) B ) ^ (B ) A)
(xiv) (A ) B ) = (:B ) :A)

0.2 Etwas Quantorenlogik


Neben reinen Aussagen wie “die Sonne scheint” spielen auch quantifizierte Aus-
sagen eine Rolle, wie z.B. “alle Studenten sind fleißig” oder “es gibt Studenten,
die fleißig sind”, die etwas über alle Studenten aussagen oder die Existenz (von
fleißigen Studenten) behaupten. Solche Aussagen nennt man quantifizierte Aussa-
gen. Die Theorie, die solche Aussagen untersucht, ist die Quantorenlogik (oder
Prädikatenlogik, wie sie häufiger genannt wird). Man kommt für die üblichen ma-
thematischen Anwendungen mit den beiden folgenden Quantoren aus.

 8 (für Alle)
 9 (Es gibt)
Als Beispiel wollen wir eine Formel angeben, die die Stetigkeit einer reellen Funk-
tion in einem Punkte x0 ausdrückt.

(8)[ > 0 ) (9Æ)(Æ > 0 ^ (8x)(jx x0j < Æ ) jf (x) f (x0)j < ))]
Oft steht man vor dem Problem, quantifizierte Aussagen negieren zu müssen. Schon
das obige Beispiel der Stetigkeit zeigt, daß dies im allgemeinen nicht einfach ist.
Folgt man der inhaltlichen Bedeutung der Aussage “ Es gilt nicht, daß für alle x
die Aussage F (x) zutrifft”, so kommt man zu dem Schluß, daß es dann zumindest
ein x geben muß, für das F (x) nicht zutrifft. Ebenso wird die Aussage “für alle x
gilt F (x)” falsch, wenn es ein x mit :F (x) gibt. Damit erhält man die folgenden
“Rechenregeln” für die Negation quantifizierter Aussagen (die sich im Rahmen

3
0. Vorbemerkungen

der Mathematischen Logik genauer begründen lassen, ohne daß wir dies hier tun
wollen).
 :(8xF (x)) = 9x:F (x)
 :(9xF (x)) = 8x:F (x)
Wenden wir dies auf das Beispiel der Stetigkeit an, so erhalten wir, daß eine Funk-
tion in einem Punkt x0 nicht stetig ist, wenn gilt:
(9)[ > 0 ^ (8Æ)(Æ > 0 ) (9x)(jx x0 j < Æ ^   jf (x) f (x0)j))]:
Um 8xF (x) zu zeigen, müssen wir nachweisen, daß F (n) für ein beliebiges Ele-
ment n gilt.
Um 9xF (x) zu zeigen, genügt es, ein Objekt mit F (x) zu finden. Man kann
9xF (x) jedoch auch zeigen, indem wir (8x):F (x) annehmen und daraus etwas
Falsches schließen. Damit haben wir
(8x):F (x) ) f
und mit 0.1.2 (xi) folgt :(8x):F (x), was (9x)::F (x) und damit
(9x)F (x)
bedeutet.

0.3 Etwas Mengenlehre


Alle in der Mathematik betrachteten Objekte lassen sich als Mengen auffassen. Da-
bei verstehen wir eine Menge naiv als eine Zusammenfassung von Objekten zu ei-
nem Oberbegriff. Diese Objekte bezeichnen wir dann als die Elemente der Menge,
die durch den Oberbegriff repräsentiert wird. Es mag einem zunächst merkwürdig
vorkommen, daß sich sogar natürliche Zahlen als Mengen darstellen lassen, ob-
wohl wir uns gar nicht so recht vorstellen können, was wohl die Elemente einer
natürlichen Zahl sein sollen. Wir wollen uns daher kurz klarmachen, daß dies
tatsächlich geht. Es sei ; das Symbol für die leere Menge, d.h. die Menge, die
keine weiteren Elemente hat. Dann setzen wir
 0=;
 1 = f;g
 2 = f;; f;gg = f0; 1g
 3 = f0; 1; 2g

4
0.3. Etwas Mengenlehre

 usw. . . .
und erhalten so alle natürlichen Zahlen als Mengen. Es ist ein Ergebnis der Men-
genlehre, daß sich tatsächlich alle in der Mathematik betrachteten Objekte als Men-
gen darstellen lassen. Daher hat sich die Sprache der Mengenlehre als eine in der
Mathematik üblicherweise gebrauchte Sprache eingebürgert. Dies zwingt uns, uns
hier kurz mit einigen Grundbegriffen der Mengenlehre auseinanderzusetzen. Da-
bei wollen wir nicht definieren, was eine Menge ist (das wäre ein viel zu schwieri-
ges Unterfangen, bis heute können wir nicht genau sagen, was eigentlich Mengen
sind). Wir wollen uns daher nur mit den Beziehungen auseinandersetzen, in denen
Mengen untereinander stehen können.
Die wesentlichste Beziehung der Mengenlehre ist
a 2 b;
die ausdrücken soll, daß die Menge a ein Element von b ist. Die Klasse aller Men-
gen (die selbst keine Menge sein kann) bezeichnen wir als das mathematische Uni-
versum U , in dem alle mathematischen Objekte zu finden sind.
Die Notation M 2 U bedeutet daher “M ist eine Menge” und damit ein mathema-
tisch vernünftiges Objekt. Zusammenfassungen von Mengen, von denen wir noch
nicht so genau wissen, ob sie mathematisch vernünftige Objekte, also Mengen,
sind, bezeichnen wir vorsichtshalber zunächst als Klassen. Insbesondere sind alle
Mengen auch Klassen. Obwohl wir Klassen nicht als die eigentlichen Objekte un-
seres Interesses betrachten, wollen wir einige ihrer grundlegenden Eigenschaften
charakterisieren. So wollen wir zwei Klassen M und N als gleich betrachten, wenn
sie die gleiche Extension haben, d.h. die gleichen Elemente besitzen. In Formel-
schreibweise bedeutet dies:
(Extensionalität) M = N :, 8x(x 2 M , x 2 N ).
Beachte, daß alles, was für Klassen definiert wird, auch für Mengen gilt, die ja
selbst alle auch Klassen sind. So sind zwei Mengen gleich, wenn sie als Klassen
gleich sind, d.h. die gleichen Elemente besitzen.
Wir sagen, daß M eine Teilklasse von N oder N eine Oberklasse von M ist, wenn
jedes Element von M auch ein Element von N ist. Wissen wir, daß M und N Men-
gen sind, so sprechen wir auch von Teil– und Obermengen. In Formelschreibweise
M  N :, (8x)(x 2 M ) x 2 N ):
Wir definieren
M ( N :, M  N ^ M 6= N
und nennen M eine echte Teilklasse (Teilmenge) von N .

5
0. Vorbemerkungen

0.3.1 Lemma M =N , M  N ^ N  M:
Beweis: Nach 0.1.2 gilt x 2 M , x 2 N genau dann, wenn (x 2 M ) x 2 N )
^ (x 2 N ) x 2 M ) gilt. Daraus erhalten wir
M = N () (8x)[x 2 M , x 2 N ]
() (8x)[x 2 M ) x 2 N ] ^ (8x)[x 2 N ) x 2 M ]
() M  N ^ N  M:
ut
Um Klassen bilden zu können, müssen wir ihre Objekte beschreiben können. Da-
zu benötigen wir eine Sprache. Wir wollen diese Sprache hier nicht exakt festle-
gen (das wäre für diese Vorlesung übertrieben pingelig), sondern unsere übliche
Umgangssprache, angereichert um die bereits bekannten mathematischen Symbo-
le benutzen. Wir drücken durch die Schreibweise F (a) aus, daß dem Objekt a die
Eigenschaft F (a) (die in unserer Sprache beschrieben ist) zukommt. Haben wir so
eine Eigenschaft, so bilden wir den Ausdruck fx F (x)g und sprechen von der
Klasse der x mit der Eigenschaft F (x). Eine Menge a ist genau dann ein Element
dieser Klasse, wenn es die Eigenschaft F (a) hat. In Formeln ausgedrückt schreiben
wir dies als
a 2 fx F (x)g :, a 2 U ^ F (a):
Insbesondere definieren wir die leere Klasse durch
; := fx :(9y)(y 2 x)g:
Wir wollen nun einige Prinzipien angeben, wie wir Mengen (also Elemente des
Universums U ) bilden können. Wir beginnen mit
(Leere Menge) ; 2 U.
Haben wir bereits eine Menge M , so wollen wir aus dieser die Elemente x 2 M
aussondern können, denen die Eigenschaft F (x) zukommt. Wir fordern daher
(Aussonderungsaxiom) M 2 U ) fx 2 M F (x)g 2 U .
Wir werden es in dieser Vorlesung nie mit echten Klassen zu tun haben, d.h. mit
Klassen, die keine Mengen sind. Da es darüber hinaus oft klar oder unerheblich ist,
aus welcher Menge M ausgesondert wird, schreiben wir einfach salopp fx F (x)g
anstatt fx 2 M F (x)g, falls M festgelegt ist.
Als Beispiel wollen wir endlich viele Objekte a1 ; : : : ; an zu einer Klasse M zu-
sammenfassen. Dies läßt sich beschreiben durch:
M = fx x = a1 _ x = a2 _ : : : _ x = ang
6
0.3. Etwas Mengenlehre

oder kürzer durch


M = fa1 ; : : : ; an g:
Dann gilt
x2M , x 2 U ^ x = ai für ein i mit 1  i  n.
Natürlich wollen wir M wieder als Menge haben, wenn a1 ; : : : ; an Mengen sind.
Das erreichen wir durch die folgende Vereinbarung
(Paarmengenaxiom) a2U ^ b 2 U ) fa; bg 2 U .
Um weitere Mengenbildungen zu beschreiben, führen wir zunächst die folgenden
Operationen auf Klassen ein.

Klassenoperationen

Für zwei Klassen M und N sei:


(Vereinigung zweier Klassen) M [ N := fx x 2 M
_ x 2 Ng
(Durchschnitt zweier Klassen) M \ N := fx x 2 M ^ x 2 N g
(Klassendifferenz) M nN := fx x 2 M ^ x 62 N g
Allgemeiner definieren wir für eine Klasse fM  2 I g – eine solche Klasse nennt
man auch eine Mengenfamilie mit Indexmenge I – die Klassen
[
(Vereinigung) M := fx (9 2 I )[x 2 M ]g
2I
und
\
(Durchschnitt) M := fx (8 2 I )[x 2 M ]g.
2I
Wir fordern nun, daß die Vereinigung über eine Mengenfamilie, deren Indexmenge
eine Menge ist, ebenfalls wieder eine Menge ist. Dies wird formuliert im
[
(Vereinigungsmengenaxiom) I2U ^ (8 2 I )[M 2 U ] ) M 2 U .
2I
Man beachte, daß man jede Menge M als eine Mengenfamilie f[x x 2 M\ g auf-
S T
fassen kann. Daher schreibt man oft kurz M und M anstatt x bzw. x.
x2M x2M
Das Vereinigungsmengenaxiom vereinfacht sich dann zu

7
0. Vorbemerkungen

[
M 2U ) M 2 U:
Eine weiteres Axiom zur Mengenbildung ist das
(Potenzmengenaxiom) M 2U ) Pow(M ) := fx x  Mg 2 U.
Dabei nennt man Pow(M ) die Potenzmenge (powerset) von M . Das sind die we-
sentlichen Mengenbildungsoperationen, mit denen wir in dieser Vorlesung aus-
kommen werden. Zu erwähnen ist noch, daß wir die Existenz einer unendlichen
Menge aus den bisher eingeführten Axiomen nicht folgern können. Daher fordert
man im Unendlichkeitsaxiom die Existenz einer unendlichen Menge. Bezeichnen
N
wir mit die Menge der natürlichen Zahlen, so genügt es zu fordern:
(Unendlichkeitsaxiom) N 2 U.
Wir geben das folgende Lemma ohne weiteren Beweis an. Die Beweise werden
in der Vorlesung über Mengenlehre geführt. Hier können wir die Aussagen des
Lemmas einfach als Grundtatsachen über Mengen voraussetzen.

0.3.2 Lemma Es gelten


(i) M; N 2 U ) M [ N 2 U und M \ N 2 U
T
(ii) M 2 U ^ M 6= ; ) M 2 U
Eine häufige Anfängerunsicherheit resultiert aus der extensionalen Gleichheit von
Mengen. So sollte man beachten, daß
fa; ag = fag (1)
und
fa; bg = fb; ag = fa; b; ag = fa; a; bg = : : : (2)
gilt.

0.4 Relationen
Will man die Reihenfolge der Elemente in einer Menge respektiert wissen, so muß
man geordnetet Paare einführen. In der Sprache der Mengenlehre läßt sich das
geordnete Paar definieren.

0.4.1 Definition Wir definieren


(a; b) := ffag; fa; bgg

8
0.4. Relationen

und nennen (a; b) das geordnete Paar von a und b.

0.4.2 Lemma (a1 ; b1 ) = (a2 ; b2 ) , a1 = a2 ^ b1 = b2 :


Beweis: Wir zeigen zunächst die einfache Richtung “(:” Aus a1 = a2 und b1 =
b2erhalten wir zunächst fa1 g = fa2 g und fa1 ; b1 g = fa2 ; b2 g und damit auch
ffa1 g; fa1 ; b1 gg = ffa2 g; fa2 ; b2 gg.
Die Gegenrichtung “)” ist deutlich aufwendiger zu zeigen. Hier beginnen wir mit
u = ai , u 2 faig
, u 2 fai g ^ u 2 fai ; bi g (i)

für i = 1; 2. Wegen
y 2 (a1 ; b1 ) , y = fa1 g _ y = fa1; b1 g (ii)
folgt aus (i) und (ii)
u = ai , (8y)[y 2 (ai; bi ) ) u 2 y]: (iii)
Aus der Voraussetzung (a1 ; b1 ) = (a2 ; b2 ) erhalten wir aus (iii)
u = a1 , (8y)[y 2 (a1 ; b1 ) ) u 2 y]
, (8y)[y 2 (a2 ; b2 ) ) u 2 y] (iv)
, u = a2 :
Damit folgt a1 = a2 und wir haben (a1 ; b1 ) = (a1 ; b2 ), was
fa1 ; b1g 2 ffa1 g; fa1 ; b2 gg (v)
und
fa1 ; b2g 2 ffa1 g; fa1 ; b1 gg (vi)
nach sich zieht. Nun haben wir zwei Fälle zu unterscheiden:
1. Fall: a1 = b1 . Dann ist nach (vi) fa1 ; b2 g  fa1 ; b1 g = fa1 g und damit b2 =
a1 = b1 .
2.Fall: a1 6= b1 . Dann ist nach (v) fa1 ; b2 g = fa1 ; b1 g und mit Extensionalität
folgt b2 = b1 . ut

0.4.3 Definition Seien M und N Mengen, dann definieren wir


M  N = f(a; b) a 2 M ^ b 2 Ng
und nennen M  N das kartesische Produkt von M und N .
9
0. Vorbemerkungen

Wegen (a; b) 2 Pow(Pow(M [ N )) erhalten wir M  N  Pow(Pow(M [ N )).


Mit Lemma 0.3.2 erhalten wir daher
M 2 U ^ N 2 U ) M  N 2 U: (3)

0.4.4 Definition Eine Menge R  M  N heißt eine Relation zwischen M und


N . Wir sagen, daß m 2 M und n 2 N in Relation R stehen, wenn (m; n) 2 R ist.
Im allgemeinen notieren wir dies in der “Infixnotation”, d.h. wir schreiben m R n
statt (m; n) 2 R. Ist M = N , also R  M  M , so sprechen wir von einer
Relation auf M .

0.4.5 Definition Sei R  M  M eine Relation auf M . Wir nennen R


symmetrisch :, (8x 2 M )(8y 2 M )[x R y ) y R x];
antisymmetrisch :, (8x 2 M )(8y 2 M )[x R y ^ y R x ) y = x];
reflexiv :, (8x 2 M )[x R x];
antireflexiv :, (8x 2 M )[:(x R x)];
transitiv :, (8x 2 M )(8y 2 M )(8z 2 M )[x R y ^ y R z ) x R z ];
linear oder :, (8x 2 M )(8y 2 M )[x R y _ y R x _ x = y]
konnex , (8x 2 M )(8y 2 M )[x =
6 y ) x R y _ y R x].
Die Relation R heißt eine
Halbordnung, wenn R reflexiv, antisymmetrisch und transitiv ist;
strikte Halbordnung, wenn R antireflexiv und transitiv ist;
Ordnung, wenn R eine lineare Halbordnung ist;
strikte Ordnung, wenn R eine lineare strikte Halbordnung ist;
Äquivalenzrelation, wenn R reflexiv, symmetrisch und transitiv ist.

0.4.6 Beispiele Für folgende, von der Schule her bekannten Relationen <, , =
N
auf der Menge der natürlichen Zahlen gilt:
< ist lineare strikte Ordnung,
 ist lineare Ordnung,
= ist Äquivalenzrelation.
Als Beispiel einer vielleicht weniger bekannten Äquivalenzrelation führen wir die
Z
Kongruenzrelation “modulo k ” auf der Menge der ganzen Zahlen wie folgt ein:

10
0.5. Funktionen

ab mod k :, kj(a b);


wobei k j(a b) für die Aussage steht, daß die ganze Zahl k die Differenz a b
teilt. Man rechnet leicht nach, daß dies eine Äquivalenzrelation definiert.

Die Relation n R m :, njm definiert dann eine Halbordnung auf der Menge Z
der ganzen Zahlen.
Ein weiteres Beipiel für eine Halbordnung ist die Teilmengenbeziehung auf der
Potenzmenge Pow(M ) einer Menge M .

0.4.7 Definition Ist R  M  N eine Relation zwischen M und N , so sei R  :=


f(b; a) (a; b) 2 Rg (gesprochen als “R konvers”) eine Relation zwischen N und
M , d.h. R  N  M . Wir nennen R die zu R konverse Relation.
0.4.8 Definition Wir führen die folgenden Bezeichnungen und Redeweisen ein. Es
sei R  M  N eine Relation. Dann definieren wir
dom (R) := fx 2 M (9y 2 N )[(x; y) 2 R]g:
Wir nennen dom (R) den Definitionsbereich, den Vorbereich oder den Domain von
R;
rng (R) := fy 2 N (9x 2 M )[(x; y) 2 R]g:
Wir nennen rng (R) den Nachbereich (englisch range) von R.
feld (R) := dom (R) [ rng (R)
heißt das Feld der Relation R.

0.4.9 Definition Sind R1 M  N und R2  N  L Relationen, so sei


R2 Æ R1 := f(a; b) 2 M  L (9y 2 N )[(a; y) 2 R1 ^ (y; b) 2 R2 ]g:
Wir nennen R2 Æ R1 die Komposition der Relationen R1 und R2 .

0.5 Funktionen
0.5.1 Definition Eine Relation R  Q  Z heißt rechtseindeutig, wenn gilt:
(8x 2 Q)(8y 2 Z )(8z 2 Z )[(x; y) 2 R ^ (x; z ) 2 R ) y = z]:
Eine rechtseindeutige Relation f  Q  Z heißt eine partielle Funktion mit Quelle
Q und Ziel Z .
11
0. Vorbemerkungen

Wir notieren durch f : Q !p Z , daß F eine partielle Funktion mit Quelle Q und
Ziel Z ist.
Ist f : Q !p Z und ist x 2 dom (f ), so gibt es genau ein Element y mit (x; y ) 2 f .
Dieses y bezeichnen wir mit f (x), also (x; f (x)) 2 f . Die Menge dom (f ) heißt
der Definitionsbereich von f . Es ist
dom (f ) = fx 2 Q (9y)[(x; y) 2 f ]g:
Üblicherweise betrachten wir Funktionen f : Q !p Z mit dom (f ) = Q. Solche
Funktionen nennt man auch total und schreibt sie als f : Q ! Z . Anstelle von
totalen Funktionen sprechen wir auch von Abbildungen.
Die Menge Im (f ) := rng (f ) heißt das Bild von der Funktion f . Es gilt
Im (f ) = ff (x) x 2 dom (f )g:
Oft schreibt man Funktionen in der Form
f: Q ! Z
x 7! f (x):
0.5.2 Definition Eine (totale) Funktion f : D ! Z heißt
injektiv :, (8x)(8y)[x; y 2 dom (f ) ^ f (x) = f (y) ) x = y]
surjektiv :, (8y 2 Z )(9x 2 D)[y = f (x)];
bijektiv :, f ist injektiv und surjektiv.
Durch Kontraposition der Definition der Injektivität erhalten wir für f : D !Z
f injektiv , (8x 2 D)(8y 2 D)[x 6= y ) f (x) 6= f (y)]: (4)

Schreibweisen

Für f : D ! Z und M  D sei


f [M ] := ff (x) x 2 M g:
Wir nennen f [M ] das Bild der Menge M unter der Abbildung f . Mit dieser Schreib-
weise ist f : D ! Z surjektiv, wenn f [D ] = Z ist.
Für N  Z sei
f 1 [N ] := fx 2 D f (x) 2 N g:
Die Menge f 1 [N ] heißt die Urbildmenge von N .

12
0.5. Funktionen

0.5.3 Lemma Ist f : M ! N injektiv, so ist f: N !p M eine partielle Funktion


mit dom(f) = Im(f ). Ist f : M ! N bijektiv, so ist f : N ! M eine (totale)
bijektive Funktion, die üblicherweise mit f 1 bezeichnet wird und die zu f inverse
Funktion genannt wird. Diese Bezeichnung ist von der Schreibweise f 1 [M ] wohl
zu unterscheiden.

Beweis: Wir haben für die erste Behauptung zu zeigen, daß f auf Im(f ) definiert
und rechtseindeutig ist. Aus der Injektivität von f folgt sofort die Rechtseindeutig-
keit von f. Zu y 2 Im(f ) gibt es ein x 2 M mit y = f (x). Damit ist (x; y ) 2 f
und somit (y; x) 2 f, d.h. y 2 dom(f). Damit ist Im(f )  dom(f). Ist y 2 = Im(f ),
so folgt (8x 2 M )[:(x; y ) 2 f ] und damit auch (8x 2 M )[:(y; x) 2 f]. Damit
ist aber y 2
= dom(f), und wir haben auch dom(f)  Im(f ) gezeigt. Ist f darüber
hinaus auch noch surjektiv, so ist dom(f) = Im(f ) = N und f somit total. ut
0.5.4 Lemma Sind f : M ! N und g: N !L Funktionen, so ist auch
g Æ f : M ! L eine Funktion.
Beweis: Nach Definition 0.4.9 ist g Æ f  M  L. Nachdem f und g Funktionen
sind, ist f (x) durch x und g (y ) durch y eindeutig bestimmt. Damit ist aber g (f (x))
durch x eindeutig bestimmt und es folgt (g Æ f )(x) = g (f (x)). Somit ist g Æ f
rechtseindeutig und damit eine Funktion. ut

0.5.5 Lemma Ist f : M ! N bijektiv und bezeichne id M = f(x; x)jx 2 M g


(Identität auf M ), so gilt f 1 Æ f = id M und f Æ f 1 = id N .

Beweis: Nach Lemma 0.5.3 und Lemma 0.5.4 sind sowohl f Æ f 1 als auch f 1 Æ f
Funktionen. Für x 2 M erhalten wir (x; f (x)) 2 f und (f (x); x) 2 f 1 . Damit
ist (x; x) 2 f 1 Æ f und damit ist f 1 Æ f = id M . Ganz analog zeigt man f Æ f 1 =
id N . ut
0.5.6 Lemma Ist f : M ! N bijektiv, und ist g : N ! M derart, daß f Æ g =
id N , so ist g = f 1 .

Beweis: Wir haben zu zeigen, daß g (y ) = f 1 (y ) für alle y 2 N gilt. Dies tun wir
indirekt und nehmen dazu
(9y 2 N )[g(y) 6= f 1 (y)] (i)
an. Wegen der Injektivität von f folgt daraus y = f (g(y)) 6= f (f 1(y)) = y, was
absurd ist. ut

13
0. Vorbemerkungen

0.5.7 Lemma Sind f : M ! N und g : N ! L bijektive Funktionen, so ist


auch (g Æ f ) bijektiv, und es gilt (g Æ f ) 1 = f 1 Æ g 1 .
Beweis: Wir zeigen zunächst, daß g Æ f injektiv ist. Seien dazu x; y 2 M mit
x 6= y. Dann folgt wegen der Injektivität von f zunächst f (x) 6= f (y) und wegen
der Injektivität von g dann auch (g Æ f )(y ) = g (f (y )) 6= g (f (x)) = (g Æ f )(x).
Um die Surjektivität von g Æ f zu erhalten, beginnen wir mit einem y 2 L und
finden wegen der Surjektivität von g dazu ein u 2 N mit y = g (u). Wegen der
Surjektivität von f erhalten wir ein x 2 M mit u = f (x). Setzen wir dies zusam-
men, so folgt y = g (f (x)) = (g Æ f )(x), und wir haben ein Urbild von y unter
g Æ f gefunden.
Zum Schluß berechnen wir (f 1 Æ g 1 )(g Æ f )(x) = f 1 (g 1 (g (f (x)))) =
f (f 1(x)) = x und erhalten mit Lemma 0.5.6 (g Æ f ) 1 = f 1 Æ g 1 . ut

0.6 Natürliche Zahlen


Eine wesentliche Rolle in mathematischen Betrachtungen kommt der Menge der N
natürlichen Zahlen zu. Wir wollen daher einige Grundtatsachen über diese Menge
zusammenstellen. Alle hier aufgelisteten Tatsachen lassen sich im Rahmen einer
Mengenlehre mit Unendlichkeitsaxiom folgern. Wir wollen darauf hier aber nicht
näher eingehen, sondern diese Tatsachen als Grundeigenschaften natürlicher Zah-
len ansehen.
Natürliche Zahlen werden über den Prozeß des Zählens eingeführt. Eine Menge zu
zählen, heißt ihre Elemente zu ordnen. Eine Element a kommt vor dem Element
b wenn a vor b gezählt wurde. Umgekehrt können die Elemente einer geordneten
Menge ihrer Ordnung nach gezählt werden. Allerdings eignet sich nicht jede Ord-
nung zum Zählen. So muß, damit wir weiterzählen können, die Ordung gewähr-
leisten, daß jede verbleibende Restmenge von noch nicht gezählten Elementen ein
kleinstes Element besitzt. Mit diesem Element können wir dann weiterzählen. Ord-
nungen mit dieser Eigenschaft heißen Wohlordnungen, die wir im folgenden formal
korrekt einführen wollen.

0.6.1 Definition Eine strikte lineare Ordnung  auf einer Menge M heißt eine
Wohlordnung von M , wenn gilt:
 feld () = M
 (8X )[X  M ^ X 6= ; ) (9x 2 X )(8y 2 M )(y  x ) y 62 X )],
d.h. wenn jede nicht leere Teilmenge des Feldes von  ein bezüglich  kleinstes
Element besitzt.

14
0.6. Natürliche Zahlen

Wir wollen hier die <–Relation auf den natürlichen Zahlen als bekannt vorausset-
zen. Es ist die Ordnung, die sich durch den Zählprozess ergibt. (Im Rahmen einer
Mengenlehre würde sich die Ordnung durch die 2-Beziehung ergeben.) Wir wollen
die folgende Vereinbarung treffen.

0.6.2 Vereinbarung Die Menge der natürlichen Zahlen N := f0; 1; 2; : : :g wird


durch ihre kanonische Ordnung < wohlgeordnet.

0.6.3 Eigenschaften natürlicher Zahlen Ohne weitere Begründung halten wir


die folgenden Eigenschaften natürlicher Zahlen fest:
(N 0) 0 2 N ;
(N 1) n 2 N besitzt einen Nachfolger n + 1
Jedes 2N mit n < n + 1 und
(8k < n + 1)(k  n);
(N 2) Ist n + 1 = m + 1, so ist n = m;
(N 3) n 2 N , so ist n = 0 oder der Nachfolger einer natürlichen Zahl, d.h.
Ist
(8n 2 N )[n = 0 _ (9m 2 N )(n = m + 1)].
(N 4) (8n 2 N )[0 6= n + 1]

0.6.4 Vollständige Induktion Gilt


(8n 2 N )[(8m)(m < n ) F (m)) ) F (n)];
so folgt
(8n 2 N )[F (n)]:
N
Das Prinzip der vollständigen Induktion besagt also, daß wir, um (8n 2 )F (n) zu
zeigen, aus der Induktionsvoraussetzung (8k < n)F (k ) die Induktionsbehauptung
F (n) folgern müssen.
Beweis: Wir zeigen die Behauptung indirekt und nehmen
(9x 2 N )[:F (x)] (i)
an. Dann ist
M := fx 2 N :F (x)g 6= ; (ii)
und hat, da < eine Wohlordnung ist, ein kleinstes Element n0 . Damit gilt aber
(8k < n0 )[k 2= M ], d.h. (8k < n0 )[F (k)]. Nach Voraussetzung folgt daraus aber
F (n0 ) im Widerspruch zu n0 2 M . ut
15
0. Vorbemerkungen

Äquivalent und vielleicht auch vertrauter ist eine Umformulierung der vollständi-
gen Induktion, wie wir sie im folgenden angeben:

0.6.5 Vollständige Induktion Gilt der Induktionsanfang F (k ) und der Indukti-


N
onsschritt (8n 2 )[k  n ^ F (n) ) F (n + 1)], so erhalten wir bereits
N
(8n 2 )[k  n ) F (n)].
N
Beweis: Wir gehen wieder indirekt vor und nehmen (9x 2 )[k  x ^ :F (x)]
an. Dann gibt es wieder ein kleinstes n0 mit k  n0 ^ :F (n0 ). Wegen der Vor-
aussetzung F (k ) ist n0 6= k und damit ist n0 = m + 1 mit k  m < n0 nach ( 3)N
N
und ( 1). Wegen m < n0 haben wir aber F (m) und schließen nach Voraussetzung
daraus auf F (m + 1), d.h. F (n0 ), was absurd ist. ut
Man wird sich als Anfänger Gedanken darüber machen, wo denn in der ersten Fas-
sung (0.6.4) der Induktionsanfang geblieben ist. Sehen Sie genauer hin, so werden
Sie bemerken, daß die Formel (8m)[m < 0 ) F (m)] aus logischen Gründen wahr
wird. Um die Implikation (8m)[m < n ) F (m)] ) F (n) also auch für n = 0
zur Verfügung zu haben, muß man F (0) haben. Dies ist der Induktionsbeginn.

0.6.6 Definition durch Rekursion Sind die Abbildungen g : M ! N und


N
h:  N  M ! N gegeben, so ist die durch die Rekursionsvorschrift
f (k; x) = g(x)
(8n 2 N )[k  n ) f (n + 1; x) = h(n; f (n; x); x)]
(5)

definierte Funktion f : N  M ! N eindeutig bestimmt.


Beweis: Vorbemerkung: Die durch die obige Rekursionsvorschrift definierte Funk-
tion ist wieder eine Menge, d.h. ein mathematisch sinnvolles Objekt. Im Rahmen
einer Mengenlehre läßt sich die Existenz von f auch beweisen. Wir wollen hier auf
einen solchen Beweis verzichten, denn wir “sehen die Funktion” ja als sinnvolles
Objekt. Allerdings werden wir nachweisen, daß es nur eine Funktion geben kann,
die den obigen Rekursionsgleichungen gehorcht.
Sie also f~ eine weitere Funktion, die die Rekursionsgleichungen (5) erfüllt. Wir
zeigen
(8n 2 N )[f~(n; x) = f (n; x)] (i)
durch vollständige Induktion. Für den Induktionsbeginn hat man zunächst
f~(k; x) = f (k; x) (ii)
und für den Induktionsschritt haben wir die Induktionsvoraussetzung
f~(n; x) = f (n; x) (iii)

16
0.6. Natürliche Zahlen

woraus sich, da f~ und f beide die Rekursionsgleichungen (5) erfüllen,


f~(n + 1; x) = h(n; f~(n; x); x) = h(n; f (n; x); x) = f (n + 1; x) (iv)
ergibt. Mit vollständiger Induktion erhalten wir daraus aber (i). ut
Als Beispiel für eine Anwendung der Definition durch Rekursion wollen wir n-
tupel für alle natürlichen Zahlen n definieren.

0.6.7 Definition Wir beginnen die Rekursion bei 1, d.h. wir setzen k := 1 in 0.6.6
und definieren
(a1 ) := a1
und
(a1 ; : : : ; an+1 ) := ((a1 ; : : : ; an ); an+1 );
wobei wir von der in Definition 0.4.1 definierten Funktion ausgehen, die zwei Men-
gen a, b das geordnete Paar (a; b) zuordnet.
0.6.8 Lemma (a1 ; : : : ; an ) = (b1 ; : : : ; bn ) , a1 = b1 ^ : : : ^ an = bn:
Beweis: Wir führen Induktion nach n. Für n = 1 ist die Behauptung klar. Gehen
wir von der Induktionsvoraussetzung
(a1 ; : : : ; an ) = (b1 ; : : : ; bn ) , a1 = b1 ^ : : : ^ an = bn (i)
aus so erhalten wir mit 0.4.2
(a1 ; : : : ; an+1 ) = (b1 ; : : : ; bn+1 ) , ((a1 ; : : : ; an); an+1) = ((b1 ; : : : ; bn); bn+1 )
, (a1; : : : ; an) = (b1 ; : : : ; bn ) ^ an+1 = bn+1
, a1 = b1 ^ : : : ^ an = bn ^ an+1 = bn+1;
wobei wir bei der letzten Äquivalenz die Induktionsvoraussetzung eingesetzt ha-
ben. ut
Als Anwendung der n-tupel wollen wir n-fache kartesische Produkte einführen.

0.6.9 Kartesisches Produkt Sind A1 ; : : : ; An Mengen, so definieren wir


A1  : : :  An := f(a1 ; : : : ; an ) a1 2 A1 ^ : : : ^ an 2 Ang:
Ebenso definieren wir
A1 := A
An+1 := An  A
17
0. Vorbemerkungen

und nennen An das n–fache kartesische Produkt von A. Es ist dann


An := A  : : :  A :
| {z }
n fach

18
1. Vektorräume

1.1 Gruppen, Ringe und Körper


1.1.1 Definition Sei H 6= ; und : H  H ! H eine Abbildung. Wir schreiben
a  b anstatt (a; b) und nennen  eine Verknüpfung auf H .
Das Paar H = (H; ) heißt eine Halbgruppe, wenn die Verknüpfung  die folgende
Identität erfüllt.
(8a 2 H )(8b 2 H )(8c 2 H )[a  (b  c) = (a  b)  c]:
Wir sprechen dann von einer assoziativen Verknüpfung.

1.1.2 Bemerkung Ist H = (H; ) eine Halbgruppe und sind a1 ; : : : ; an 2 H , so


hängt wegen der Assoziativität von  der Wert des Produkts a1    an nicht von der
Beklammerung ab. Wir definieren daher
a1 = a und an+1 = a  an
und erhalten
an+m = an  am und (an )m = anm : (1.1)

1.1.3 Definition Sei H = (H; ) eine Halbgruppe. Ein eL 2 H heißt linksneutral


in H, wenn
(8a 2 H )[eL  a = a]
gilt. Analog heißt eR 2 H rechtsneutral in H, wenn
(8a 2 H )[a  eR = a]
gilt. Wir nennen e 2 H neutral, wenn e sowohl links- als auch rechtsneutral ist.

1.1.4 Satz Eine Halbgruppe besitzt höchstens ein neutrales Element.


Beweis: Sind e1 ; e2 2 H neutral, so folgt sofort e1 = e1  e2 = e2 . ut

19
1. Vektorräume

1.1.5 Definition Sei H = (H; ) eine Halbgruppe und eL 2 H ein linksneutrales


Element in H. Gilt a  b = eL für a; b 2 H , so heißt a ein Linksinverses von
b. Analog heißt a 2 H ein Rechtsinverses für b 2 H , wenn b  a = eR für ein
rechtsneutrales eR 2 H gilt.

1.1.6 Definition Eine Gruppe ist ein Paar G = (G; ) , wobei  eine Verknüpfung
auf G ist, die den folgenden Bedingungen genügt:
(G1) G = (G; ) ist eine Halbgruppe.
(G2) Es gibt ein linksneutrales Element 1L 2 G.
(G3) Zu jedem a 2 G existiert ein Linksinverses bzgl. 1L .
In Formelschreibweise lauten (G2) und (G3)
(91L 2 G)[(8a 2 G)(1L  a = a) ^ (8a 2 G)(9b 2 G)(b  a = 1L )]:

1.1.7 Satz Ist G = (G; ) eine Gruppe mit linksneutralem Element 1L , so gelten:
(i) Jedes linksinverse Element bezüglich 1L ist auch rechtsinvers bzgl. 1L .
(ii) 1L ist das eindeutig bestimmte neutrale Element in G .
(iii) Das linksinverse Element jedes a 2 G ist eindeutig bestimmt.

Beweis: (i) Seien a; b 2 G mit b  a = 1L . Wir wählen c 2 G so, daß c  b = 1L


gilt. Dann ist a  b = 1L  a  b = c  b  a  b = c  1L  b = c  b = 1L .
(ii) Sei a 2 G. Nach (i) gibt es ein b 2 G mit a  b = b  a = 1L . Dann gilt
a  1L = a  (a  b) = (a  b)  a = 1L  a = a. Nach 1.1.4 ist dann 1L eindeutig
bestimmt.
(iii) Sei a 2 G und b  a = a  c = 1L . Dann folgt b = b  1L = b  (a  c) =
(b  a)  c = 1L  c = c: ut
Mit 1G bezeichnen wir das nach 1.1.7 eindeutig bestimmte neutrale Element einer
Gruppe G = (G; ), zu a 2 G sei a 1 das eindeutig bestimmte Inverse. Ist aus
dem Zusammenhang klar, um welche Gruppe es sich handelt, so schreiben wir im
allgemeinen 1 anstatt 1G . Anstelle von a  b schreiben wir in Zukunft oft kurz ab.

1.1.8 Satz Ein Halbgruppe G = (G; ) ist genau dann eine Gruppe, wenn die
Gleichungen a  y = b und y  a = b für alle a; b 2 G eine Lösung in G haben.

Beweis: Ist G eine Gruppe, so ist x := a 1 b eine Lösung von ax = b und y :=


ba 1 eine Lösung von ya = b.
20
1.1. Gruppen, Ringe und Körper

Für die Gegenrichtung gehen wir davon aus, daß G eine Halbgruppe ist und die o.a.
Gleichungen in G lösbar sind. Dann ist G 6= ; und wir wählen daher ein b 2 G
und suchen eine Lösung der Gleichung xb = b. Sei diese e. Zu jedem a 2 G
gibt es dann eine Lösung von by = a, d.h. ein c 2 G mit bc = a. Damit folgt
ea = ebc = bc = a. Also ist e linksneutral. Da wir die Gleichung ya = e für alle
a 2 G lösen können, hat jedes a 2 G bezüglich e ein linksinverses Element. Somit
ist G eine Gruppe. ut
1.1.9 Definition Sei G = (G; ) eine Gruppe und U  G. Wir nennen U eine
Untergruppe von G , wenn (U; ) eine Gruppe ist, d.h. wenn
(8x 2 U )(8y 2 U )[xy 2 U ]
gilt und alle Gruppenaxiome erfüllt sind.

1.1.10 Satz Sei G = (G; ) eine Gruppe. Eine nicht-leere Menge U  G ist genau
dann eine eine Untergruppe von G , wenn (8a 2 U )(8b 2 U )[a  b 1 2 U ] gilt.

Beweis: Ist (U; ) eine Untergruppe und sind a; b 2 U , so ist auch a; b 1 2 U und
damit auch ab 1 2 U . Gelte nun umgekehrt (8a 2 U )(8b 2 U )[ab 1 2 U ]. Dann
folgt insbesondere 1 = aa 1 2 U und für b 2 U damit auch 1  b 1 = b 1 2 U .
Wegen (b 1 )  b 1 = 1 = b  b 1 folgt (b 1 ) = b und für a; b 2 U erhalten
1 1
wir demnach a; b 1 2 U und schließlich a  (b 1 ) = a  b 2 U . Damit ist
1
U abgeschlossen unter der Verknüpfung , enthält das neutrale Element 1 und mit
jedem Element b auch sein inverses. Also ist (U; ) eine Gruppe und somit U eine
Untergruppe von G . ut
1.1.11 Definition Ist G = (G; ) eine Gruppe und gilt
(8a 2 G)(8b 2 G)[a  b = b  a];
so heißt G kommutativ oder abelsch. Oft werden abelsche Gruppen additiv ge-
schrieben, d.h. wir schreiben a + b statt a  b , 0 statt 1 und a statt a 1 . Anstelle
von a + ( b) schreibt man a b.

N
1.1.12 Beispiele (i) Wir sehen leicht, daß die Menge der natürlichen Zahlen
zusammen mit der Addition ein Halbgruppe bilden. Wegen 0 + n = n für alle
N N
n 2 ist ( ; +) eine Halbgruppe mit neutralen Element 0. Jedoch ist ( ; +) N
N N
keine Gruppe, da wir zu einem n 2 kein m 2 mit n + m = 0 finden können.
N
(ii) Wollen wir ( ; +) zu einer Gruppe machen, so müssen wir zu jedem n 2 N
Z N
sein Inverses ( n) hinzunehmen. Dies ergibt die Menge := [ f n n 2 g N
21
1. Vektorräume

der ganzen Zahlen, die mit der Addition eine abelsche Gruppe bildet. Die Moti-
vation zur Einführung ganzer Zahlen liegt natürlich darin, Gleichungen der Form
n + x = m lösen zu können.
Z
(iii) Die Menge der ganzen Zahlen zusammen mit der Multiplikation bildet
wieder eine Halbgruppe mit neutralem Element 1. Diese läßt sich nicht so leicht zu
einer Gruppe machen, da sich für 0 keine inverses Element definieren läßt. Den-
Z
noch läßt sich durch Hinzunahme der Lösungen der Gleichungen a  x = b für
Q
a 6= 0 zu der Menge der rationalen Zahlen erweitern, deren von 0 verschiedenen
Elemente zusammen mit der Multiplikation eine Gruppe bilden.
(iv) Ein Ihnen vielleicht weniger vertrautes Beispiel einer Gruppe erhalten wir,
N
wenn wir Permutationen betrachten. Dazu bezeichne n die n-elementige Men-
ge f1; : : : ; ng, die wir als paradigmatisch für eine beliebige n-elementige Menge
betrachten wollen. Sei nun
Sn := f : N n ! N n bijektivg: (1.2)
Ein  2 Sn heißt eine Permutation der Zahlen 1; : : : ; n. Wir beobachten, daß
(Sn ; Æ) eine Gruppe bildet, wobei Æ wie im Abschnitt 0.5 die Komposition von
Abbildungen bedeutet. Zunächst folgt aus Lemma 0.5.4, daß mit ;  2 Sn auch
 Æ  2 Sn gilt. Aus Lemma 0.5.5 folgt, daß id Sn ein neutrales Element für die
Komposition ist und zu jedem  2 Sn ein inverses Element  1 existiert. Man
nennt Sn die symmetrische Gruppe. Überzeugen Sie sich, daß diese Gruppe nicht
kommutativ ist.

1.1.13 Definition Seien R 6= ;, +: R  R ! R und : R  R ! R Verknüp-


fungen auf R. Das Tripel R = (R; +; ) heißt ein Ring, wenn die folgenden Bedin-
gungen erfüllt sind:
(R1) (R; +) ist eine additive abelsche Gruppe,
(R2) (R; ) ist eine Halbgruppe,
(R3) es gelten die Distributivgesetze
(8a 2 R)(8b 2 R)(8c 2 R)[a  (b + c) = a  b + a  c ^ (a + b)  c = a  c + b  c]
Hat (R; ) ein neutrales Element, so heißt R ein Ring mit 1. Nach Satz 1.1.4 hat ein
Ring höchstens eine 1.
Gilt (8a 2 R)(8b 2 R)[a  b = b  a], so heißt R kommutativ.

1.1.14 Einige Rechenregeln für Ringe


(o) ( a) = a

22
1.1. Gruppen, Ringe und Körper

(i) 0a=a0=0
(ii) ( a)  b = (a  b) = a  ( b)
(iii) ( a)  ( b) = a  b
Beweis: (o) Wegen ( a) + ( a) = 0 und a + ( a) = 0 ist ( a) = a nach
Satz 1.1.7 (iii).
(i) 0  a + b  a = (0 + b)  a = b  a. Also ist 0  a = 0. Analog erhält man
a  0 + a  b = a  (0 + b) = a  b und damit a  0 = 0.
(ii) ab + ( a)b = (a a)b = 0  b = 0. Also ist ab = ( a)b. Analog gilt
a( b) + ab = a(b b) = a  0 = 0 und damit ab = a( b).
(iii) ( a)( b) = (( a)b) = ( ( (ab)) = ab. ut
1.1.15 Definition Sei R = (R; +; ) ein Ring. Ein Element a 2 R heißt linker
Nullteiler in R, wenn a 6= 0 ist und es ein b 2 R gibt mit b 6= 0 und a  b = 0.
Analog heißt a 2 R rechter Nullteiler in R, wenn a 6= 0 ist und es ein b 2 R gibt
mit b 6= 0 und b  a = 0.
Ein Ring ohne Nullteiler heißt nullteilerfrei.
Ein nullteilerfreier Ring mit 1 heißt Integritätsring.

1.1.16 Lemma Ist R nullteilerfrei, so gelten die Kürzungsregeln


b  a = b  c ^ b 6= 0 ) a=c
und
a  b = c  b ^ b 6= 0
) a = c:
Beweis: 6 0 folgt b(a c) = 0. Da b 6= 0 und R keine Null-
Aus ba = bc und b =
teiler hat, muß a c = 0 sein. Damit folgt aber a = c. Die zweite Kürzungsregel
folgt analog. ut
1.1.17 Definition Sei R = (R; +; ) ein Ring. Ist U  R, so heißt (U; +; ) ein
Unterring oder Teilring von R, wenn (U; +; ) ein Ring ist, d.h. wenn gilt
 (U; +) ist eine Untergruppe von (R; +)
und
 (8a; b 2 U )[a  b 2 U ].
Z
1.1.18 Beispiele (i) Die Menge ist mit den Verknüpfungen + und  ein Ring.
Z Z
Der Ring ist nullteilerfrei und besitzt eine 1, damit ist ein Integritätsring.

23
1. Vektorräume

(ii) Eine weiteres Beispiel ist die endliche Menge Z=4  Z := f0; 1; 2; 3g, dessen
Verknüpfungen durch die Verknüpfungstafeln

+ 0 1 2 3
 1 2 3
0 0 1 2 3
1 1 2 3
1 1 2 3 0
2 2 0 2
2 2 3 0 1
3 3 2 1
3 3 0 1 2

gegeben sind. Man rechnet leicht nach, daß es sich mit den angebenen Verknüpfun-
Z Z
gen um einen Ring handelt. Man erhält =4  , indem man in den ganzen Zah-
len “modulo 4” rechnet. Das heißt, man addiert und multipliziert die Elemente in
f0; 1; 2; 3g als ob sie ganze Zahlen wären, teilt dann durch 4 und behält nur den
Rest. Dies ergibt dann immer eine Zahl zwischen 0 und 3.
Z Z
Beachte, daß =4  wegen 2 6= 0 aber 2  2 = 0 Nullteiler besitzt.
Z Z
(iii) Das obige Beispiel läßt sich verallgemeinern zu =k  = f0; 1; : : : ; k 1g
indem man “modulo k ” rechnet, d.h. die Elemente von f0; 1; : : : ; k 1g wie ganze
Zahlen addiert und multipliziert, durch k teilt und nur den Rest behält. Versuchen
Sie einmal, sich davon zu überzeugen, daß dieser Ring genau dann ein Integritäts-
ring wird, wenn k eine Primzahl oder k = 1 ist.

1.1.19 Definition Ein Ring K = (K; +; ) heißt ein (Schief-) Körper, wenn gilt
(K1) K ist ein Ring,
(K2) K  = fk 2 K k 6= 0g bildet zusammen mit  eine Gruppe.

1.1.20 Folgerungen (i) Jeder Körper hat mindestens zwei Elemente.


(ii) Jede Gleichung der Form a + x = b ist in einem Körper eindeutig lösbar.
(iii) Jede Gleichung der Form a  x = b und y  a = b ist für a 6= 0 in einem Körper
eindeutig lösbar.
(iv) Jeder Körper ist ein Integritätsring.

Einen Schiefkörper mit kommutativer multiplikativer Gruppe heißt ein kommutati-


ver Körper. Oft spricht man nur von Körpern und meint damit kommutative Körper
im Gegensatz zu Schiefkörpern.
Im folgenden betrachten wir nur noch Körper, d.h. Schiefkörper mit kommu-
tativer multiplikativer Gruppe.

24
1.2. Vektorräume

1.2 Vektorräume
Sei im Folgenden K stets ein kommutativer Körper. Die Elemente von K bezeich-
nen wir durch kleine griechische Buchstaben , , , . . . .

1.2.1 Definition Eine Menge V heißt Vektorraum über dem Körper K – oder K -
Vektorraum –, wenn gilt:

(V1) Es gibt eine Verknüpfung +: V V ! V so, daß (V; +) eine additive


abelsche Gruppe ist.
(V2) Es gibt eine Abbildung : K  V ! V (skalare Multiplikation) mit fol-
genden Eigenschaften:
(V21) ( + )  a =  a +  a.
(V22)  (a + b) =  a +  b.
(V23)  (  a) = (  )  a.
(V24) 1  a = a.

Die Elemente von V heißen Vektoren. Anstatt  a schreiben wir oft kurz a.

1.2.2 Folgerung Sei V ein K -Vektorraum. Es gilt a = 0V genau dann, wenn a =


0V oder = 0K ist, wobei 0V das neutrale Element (Nullelement) der additiven
abelschen Gruppe (V; +) und 0K das Nullelement des Körpers K bedeuten.

Beweis: Wir zeigen zuerst die Richtung (: Wir erhalten a = ( + 0K )a =


a + 0K a. Damit ist 0K a = 0V : Analog ist a = (a + 0V ) = a + 0V und
somit 0V = 0V .
Zum Beweis der Gegenrichtung ) sei a = 0V für 6= 0. Dann folgt 1  a =
1 a = 1 0V = 0V . Also ist a = 0V nach (V24). ut

1.2.3 Einige Rechenregeln

(i) ( )a = ( a)
(ii) ( a) = ( a)
Ist f : N ! V eine Abbildung, so definieren wir für n  m rekursiv
25
1. Vektorräume

m
X
f (i) := f (m)
i=m
nX
+1 n (1.3)
X
f (i) := ( f (i)) + f (n + 1):
i=m i=m
Dann gelten:
Xn Xn
(iii) ( ai ) = ( ai )
i=m i=m
X n Xn
(iv) ( i )a = ( i a)
i=m i=m
X n X n Xn
(v) ( i ai ) + ( i ai ) = (( i + i )ai ).
i=m i=m i=m
Beweis: (i) a + ( )a = ( )a = 0  a = 0. Damit ist ( a) = ( )a.
(ii) ( a) + a = ( a + a) =  0 = 0. Also ist ( a) = ( a).
(iii) Wir führen Pm Induktion nach n. Den PmInduktionsbeginn liefert n = m. Dann
erhalten wir i=m ai = am = P i=nm ai . FürPden Induktionsschritt ha-
a = n a . Damit erhalten
ben wirP die Induktionsvoraussetzung
Pn i=m Pn i i=m i Pn
wir ni=+1 P a
mn+1 i = ( i=m ia + a n+1 ) = i=m i an+1 = i=m ai +
a +
an+1 = i=m ai :
Analog zeigt man (iv). Pm
(v)
Pm Auch hier führen wir Induktion nach n . Für n =Pmm erhalten wir i=m i ai +
i=m i a i = m a m + m a m
Pn+1 = ( m + m
Pn+1 ) a m = i=
Pmn ( i + i ) a i . Der Induk-
tionsschritt
Pn ergibt sich aus
mni i
i=P a + i=m i i a = i=m i i a + a
n+1 n+1 +
Pin=m i ai + n+1 an+1 = i=m ( i + P i )ai + n+1 an+1 + n+1 an+1 =
i=m ( i + i ) a i + ( n+1 + n+1 ) n +1 = n+1 ( + )a .
i=m i i i ut
1.2.4 Definition Sei V ein K -Vektorraum. Eine Teilmenge U V mit 6
U = ;
heißt ein Teilraum ( oder Untervektorraum) von V , wenn
(U1) (8u 2 U )(8v 2 U )[u + v 2 U ]
(U2) (8 2 K )(8u 2 U )[ u 2 U ]
gilt.

1.2.5 Satz Sei V ein K -Vektorraum. Dann ist U  V; U 6= ; genau dann ein
Teilraum von V , wenn U mit den Operationen +;  von V ein Vektorraum ist.

26
1.2. Vektorräume

Beweis: ): Sei U ein Teilraum von V . Dann ist U 6= ; und für a; b 2 U folgt
( 1)b = b 2 U . Dann ist auch a b 2 U und somit nach Satz 1.1.10 U eine
Untergruppe der abelschen Gruppe. Da mit 2 K und a 2 U auch a 2 U ist,
übertragen sich die übrigen Vektorraum-Axiome von V , wo sie ja nach Vorausset-
zung gelten, auf U .
(: Ist U ein Vektorraum, so ist U 6= ;, da zumindest 0 2 U gelten muß. Darüber
hinaus muß U als Vektorraum gegenüber Addition und skalarer Multiplikation ab-
geschlossen sein. ut
1.2.6 Satz Sei V Tein K -Vektorraum und fUi i 2 I g eine Familie von Teilräumen
von V . Dann ist fUi i 2 I g wieder ein Teilraum von V .
T
Beweis: Sei U := fUi i 2 I g. Da jedes der Ui zumindest die 0 enthalten
muß, folgt 0 2 U . Damit ist U 6= ;. Gilt a; b 2 U und 2 K so erhalten wir
(8i 2 I )[a; b 2 Ui ] und, da alle Ui Teilräume sind, (8i 2 I )[a + b 2 Ui ] sowie
(8i 2 I )[ a 2 Ui ]. Damit ist a + b 2 U als auch a 2 U und U ist ein Teilraum.
ut
1.2.7 Definition Sei V ein K -Vektorraum und M  V . Dann definieren wir
\
hM i := fU  V M  U ^ U ist Teilraum von V g:
Wir nennen hM i das Erzeugnis oder den Span von M oder auch den von M auf-
gespannten Raum. Die Menge M heißt ein Erzeugendensystem für hM i.

Nach Satz 1.2.6 ist hM i ein Teilraum von V . Als Beispiele erhalten wir den Null-
vektorraum, dessen einziger Vektor der Nullvektor ist als
h;i = 0 (Null-Vektorraum)
und für v 2 V
hfvgi = f v 2 K g
den von einem einzigen Vektor v aufgespannten Raum. Anstelle von hfv1 ; : : : ; vn gi
schreiben wir in Zukunft einfach hv1 ; : : : ; vn i. Wir wollen dieses Beispiel im fol-
genden Satz noch vertiefen.

1.2.8 Satz Sei V ein K -Vektorraum und M  V , dann gilt


Xn
N
hM i = f iai n 2 ^ i 2 K ^ ai 2 M g:
i=1

27
1. Vektorräume

P
Man nennt einen Ausdruck der Form ni=1 i ai eine Linearkombination der Vek-
toren a1 ; : : : ; an . Der Span von M ist damit die Menge aller Linearkombinationen
von Vektoren in M.
Beweis: Sei
X n
N
U := f i ai n 2 ^ i 2 K ^ ai 2 M g;
i=1
d.h. U ist die Menge aller Linearkombinationen von Vektoren aus M . Zunächst
ist klar, daß die Summe zweier Linearkombinationen von Vektoren aus M wieder
eine Linearkombinationen von Vektoren aus M ist.P Damit ist U gegenüber der
abgeschlossen. Offensichtlich ist für a = n a 2 U auch a =
Addition
Pn i=0 i i
i=0 ( i ) a i 2 U . Damit ist U ein Teilraum von V . Wegen a = 1  a gilt natürlich
auch a 2 U für alle a 2 M . Damit ist M  U . Um auch die umgekehrte Inklusion
zu erhalten, müssen wir zeigen, daß jeder Teilraum von V , der M umfaßt, auch U
PnSei also M  W und W ein Teilraum von V . Wählen wir a 2 U , so gilt
umfaßt.
a = i=0 P i ai mit i 2 K und ai 2 M . Wegen M  W erhalten wir dann aber
sofort a = ni=0 i ai 2 W , da W als Teilraum gegenüber skalarer Multiplikation
und Addition abgeschlossen ist. ut
1.2.9 Definition Ein K -Vektorraum heißt endlich erzeugt, wenn es eine endliche
Teilmenge M  V mit hM i = V gibt.

1.2.10 Satz Ist V endlich erzeugt und gilt V = hM i für M  V , so gibt es eine
endliche Teilmenge M0  M mit V = hM0 i.
Beweis: Sei V = hv1 ; : : : ; vn i. Dann gibt es zu jedem vi für 1  i  n ein
ni 2 und Vektoren ai1 ; : : : ; aini 2 M mit vi = Pnk=1
N i a . Dann erhalten
ik ik
wir M0 := faik i = 1; : : : ; n; k = 1; : : : ; ni g als eine endliche Teilmenge von
M und für jedes v 2 V folgt nach Satz 1.2.8
Xn Xn X ni
v = i vi = i ik aik 2 hM0 i:
i=1 i=1 k=1
Damit ist V = hM0 i. ut
1.2.11 Definition Sei V ein K -Vektorraum. Eine Teilmenge M  V heißt linear
abhängig genau dann, wenn es eine endliche Teilmenge fa1 ; : : : ; an g  M und
Elemente 1 ; : : : ; n 2 K gibt mit
Xn
( 1 6= 0 _ : : : _ n 6= 0) ^ i ai = 0:
i=1

28
1.2. Vektorräume

Anderenfalls heißt M linear unabhängig. D.h. M ist genau dann linear unabhängig,
wenn für jede endliche Teilmenge fa1 ; : : : ; an g  M und für alle Tupel 1 ; : : : ; n
von Elementen aus K gilt:
X n
i ai = 0 ) 1 = : : : = n = 0:
i=1
Der Begriff der linearen Unabhängigkeit ist der zentrale Begriff der linearen Al-
gebra. Ist nun fv1 ; : : : ; vn g eine endliche Menge linear abhängiger Vektoren eines
Vektorraumes V , so bedeutet das, daß sich 0 aus v1 ; : : : ; vn als nicht triviale Li-
nearkombination darstellen Pnläßt, d.h. daß es 1 ; : : : ; n 2 K gibt, die nicht alle
verschwinden und doch i=1 i vi = 0 gilt. Sind v1 ; : : : ;P vn jedoch linear un-
abhängig, so läßt sich die 0 nur trivial darstellen, d.h. aus ni=1 i vi = 0 folgt
1 = : : : = n = 0.
1.2.12 Bemerkung Ist M V mit 0 2 M , so ist M linear abhängig wegen
X n
a1 ; : : : ; an 2 M ^ a1 = 0 ) iai = 0 für 1 = 1; 2 = : : : n = 0:
i=1

1.2.13 Satz Ist V ein K -Vektorraum und a1 ; : : : ; an 2V mit n > 1, so sind


äquivalent:
(i) a1 ; : : : ; an sind linear abhängig,
(ii) eines der ai ; i 2 f1; : : : ; ng ist eine Linearkombination der übrigen, d.h. der
Vektoren in faj j 2 f1; : : : ; ng ^ i = 6 j g,
(iii) ha1; : : : ; ani wird bereits durch n 1 viele Elemente ai1 ; : : : ; ain 1 erzeugt.
Beweis: (i) ) (ii): Sind a1 ; : : :P ; an linear abhängig, so gibtPes ein j 2 f1; : : : ; ng
und ein j 2 K mit j = 6 0 und ni=1 iai = 0. Also aj = ni=1 j 1( i)ai .
P i6=j P
(ii) ) (iii): Sei aj = ni=1 i ai . Für b 2 ha1 ; : : : ; an i gilt dann b = nk=1 k ak =
Pn Pn i6=j P
k=1 k k j i=1 i i = k=1 ( k + j k )ak 2 ha1 ; : : : ; aj 1 ; aj +1 ; : : : ; an i.
a + a n
k6=j i6=j k6=j
(iii) ) (i): Ohne die Allgemeinheit P einzuschränken, dürfen wir ha1 ; : : : ; an i =
ha2 ; : : : ; an i annehmen. Dann ist a1 = ni=2 iai und damit 1a1 +Pni=2 iai =
0. Da 1 = 6 0 ist, folgt daraus, daß a1; : : : ; an linear abhängig sind. ut
1.2.14 Korollar Jeder endlich erzeugte K -Vektorraum V besitzt ein linear un-
abhängiges Erzeugendensystem.

29
1. Vektorräume

Beweis: Wir führen den Beweis durch Induktion nach n. Sei fa1 ; : : : ; an g Erzeu-
gendensystem von V . Für n = 0 ist V = 0, und wir sind fertig, da die leere Menge
linear unabhängig ist. Ist n = 1, so folgt die Behauptung aus der Tatsache, daß
ein einzelner Vektor v 6= 0 immer linear unabhängig ist. Sei also n > 1. Sind
a1 ; : : : ; an linear unabhängig, so sind wir fertig. Anderenfalls können wir nach
Satz 1.2.13 (iii) einen der Vektoren im Erzeugendensystems weglassen und er-
halten so ha1 ; : : : ; an i = hai1 ; : : : ; ain 1 i. Nach Induktionsvoraussetzung enthält
hai1 ; : : : ; ain 1 i ein linear unabhängiges Erzeugendensystem und wir sind fertig.
ut
1.2.15 Definition Ein linear unabhängiges Erzeugendensystem B für einen K-
Vektorraum V heißt eine Basis von V .

1.2.16 Satz Ist V ein K –Vektorraum und B eine Basis von V; so läßt sich jedes
von 0 verschiedene v 2 V eindeutig (bis auf Umnummerierung) als Linearkombi-
nation von Elementen aus B darstellen.
Beweis: Da B ein Erzeugendensystem von V ist, finden wir zu v 2 V P mit v 6= 0
Vektoren b1 ; : : : ; bn 2 B und Körperelemente 1 ; : : : ; n mit v = n b.
i=1 i i
Um
Pm die Eindeutigkeit der Darstellung zu zeigen, nehmen wir an, daß auch v=
0 0
j =1 i bi mit bi 2 B und i 2 K gelte. Sei nun fc1 ; : : : ; ck g := fb1 ; : : : ; bn g \
fb0 1; : : : ; b0 mg. Nach geeigneter Umnummerierung erhalten wir dann
k
X n
X k
X m
X
v= i ci + i bi und v= i ci + i b0i :
i=1 i=k+1 i=1
i=k+1
Pk Pn P 0
Damit folgt 0 = i=1 ( i i )ci + i=k+1 i bi + m i=k+1 i bi . Da B eine
linear unabhängige Menge ist, folgern wir daraus i = i = 0 für k < i und damit
m = n = k und i = i für 1  i  k. ut
Wir wollen eine Menge B  V von Vektoren maximal linear unabhängig nennen,
wenn B linear unabhängig ist, aber die Menge B [ fv g für jedes v 2 V n B linear
abhängig ist.
Analog nennen wir eine Menge E  V ein minimales Erzeugendensystem, wenn
V = hE i ist, aber hE n fvgi 6= V für jedes v 2 E gilt.
1.2.17 Satz Für einen K –Vektorraum V und B V sind äquivalent:
(i) B ist eine Basis von V .
(ii) B ist eine maximale linear unabhängige Menge.
(iii) B ist ein minimales Erzeugendensystem.

30
1.2. Vektorräume

Pn
Beweis:
Pn (i) ) (ii): Ist v 2 V und v 2
= B , so folgt v = i=1 i ai und damit
i=1 i ai v = 0. Also ist B [ fv g linear abhängig. Damit ist B eine maximal
linear unabhängige Menge.
(ii) ) (iii): Sei B maximal linear unabhängig. Dann gibt es zu v 2 V n B
Körperelemente
Pn ; 1 ; : : : ; n 2 P
K sowie b1 ; : : : ; bn 2 B mit 6= 0 und v +
b = 0 v = n ( 1 )b . Damit ist jedes v 2 V eine
i=1 i i . Damit ist i=1 i i
Linearkombination von Elementen in B und B ist ein Erzeugendensystem. Wäre
B nicht minimal, so fänden wir ein b 2 B so, daß PB n fbg noch immer ein Erzeu-
gensystem wäre. Insbesondere wäre dann b = ni=1 i bi mit bi 2 B n fbg. Das
steht aber im Widerspruch zur linearen Unabhängigkeit von B .
(iii) ) (i): Nehmen wir an, daß B noch keine Basis ist, so muß B linear abhängig
sein. Dann gibt Pes b1 ; : : : ; bn 2 B und 1 ; : : : ; n 2PK , die nicht alle verschwin-
den mit 0 = i=1 i bi . Ist j 6= 0, so folgt bj = ni=1 ( i j 1 )bj und damit
n
i6=j
V = hB nfbj gi. Dies steht aber im Widerspruch zur Minimalität von B als Erzeu-
gendensystem. ut
Unser Ziel wird es nun sein, den folgenden Satz zu beweisen.

1.2.18 Satz Jeder K -Vektorraum V mit V 6= 0 besitzt eine Basis.


Die Schwierigkeit im Beweis dieses Satzes liegt darin, daß es nicht endlich er-
zeugte Vektorräume gibt. Für endlich erzeugte Vektorräume ist Satz 1.2.18 eine
sofortige Folgerung aus Korollar 1.2.14. Man kann ihn im Vereine mit Satz 1.2.10
sogar in der folgenden Art verschärfen.

1.2.19 Satz Jeder endlich erzeugte Vektorraum, der nicht der Nullraum ist, besitzt
eine endliche Basis.
Im Falle von unendlich erzeugten Vektorräumen wird sich der Beweis schwieri-
ger gestalten, da wir etwas mehr über die zugrunde liegende Mengenlehre wissen
müssen. Wem dies für den Anfang zu schwierig erscheint, sollte den folgenden
Abschnitt überschlagen und im Beweis von Satz 1.2.20 den “Limesfall” einfach
auslassen.

Ein kleiner Exkurs ins Unendliche


Wir haben die natürlichen Zahlen als eine durch die kanonische Ordnung wohlgeordnete
Menge eingeführt. Man abstrahiert nun von der zugrunde liegenden Menge und betrachtet
nur den Typus der Ordnung (Mathematisch exakt ist der Ordnungstypus die Äquivalenz-
klasse von Ordnungen, wobei zwei Ordnungen äquivalent heißen, wenn sie sich ordnungs-
treu und bijektiv aufeinander abbilden lassen.). Die Ordnungstypen von Wohlordnungen
bezeichnet man als Ordinalzahlen. Endliche Mengen lassen sich bis auf Äquivalenz nur

31
1. Vektorräume

auf eine Art ordnen. Den Ordnungstypus einer n-elementigen Menge identifiziert man
mit der natürlichen Zahl n. Natürliche Zahlen lassen sich also als endliche Ordinalzahlen
auffassen. Den Ordnungstypus der Ordnung aller natürlichen Zahlen in ihrer kanonischen
Ordnung

; ;:::
0 1
| {z }
!

bezeichnet man als ! . Dies ist der einfachste unendliche Ordnungstypus. Für unendliche
Mengen gilt nun aber nicht mehr, daß sie sich bis auf Äquivalenz nur auf eine Art ordnen
lassen. So erhalten wir eine neue Ordnung, wenn wir m 1 n :, (m 6= 0 ^ n 6=
0 ^ m < n) _ (m 6= 0 ^ n = 0) setzen. Dann haben wir eine Ordnung

; ; : : :; 0;
1 2
| {z }
(1.4)
!

die sich offensichtlich nicht mehr bijektiv ordnungstreu auf eine Menge vom Ordnungs-
typus ! abbilden läßt, da sie ein größtes Element, nämlich 0, besitzt, was bei ! nicht der
Fall ist. Andererseits sind aber der Ordnungstypus von 0; 1; : : : und 1; 2; : : : offensicht-
lich gleich. Damit ist der Ordnungstypus von 1; 2; : : : ; 0 offenbar größer als ! , da er einen
Ordnungstypus ! als ein echtes Anfangsstück enthält. Anschaulich kann man sich das so
vorstellen, daß man eine Menge vom Ordnungstypus ! fertiggezählt hat und dann um eines
weiter zählt. Es handelt sich also um eine Fortsetzung des Zählprozesses in das Unendli-
che. Die in (1.4) gezeigte Ordnung ist offensichtlich wieder eine Wohlordnung. Da sie um
genau ein Element über ! hinauszählt, sagen wir, daß sie den Ordnungstypus ! +1 hat. Wir
können den Prozeß fortsetzen, indem wir eine Wohlordnung 2; 3; : : : ; 0; 1 vom Ordnungs-
typus ! + 2, eine Wohlordnung k; k + 1; : : :; 0; 1; : : : ; k 1 vom Ordnungstypus ! + k ,
| {z }| {z }
! k
eine Wohlordnung 0; 2; : : :; 1; 3 : : : vom Ordnungstypus ! + ! angeben, in der alle geraden
| {z } | {z }
! !
Zahlen vor den ungeraden kommen und so fort.

Was man aus diesen Beispielen lernen sollte ist die Tatsache, daß drei Arten unendlicher
Ordinalzahlen auftreten können:

 Die Ordinalzahl 0 als der Ordnungstypus der leeren Menge, die der natürlichen Zahl
0 entspricht;

 Ordinalzahlen die einen Ordnungstypus repräsentieren, der ein größtes Element be-
sitzt, wie z.B. jede endliche Ordinalzahl, die Ordinalzahlen ! + 1, ! + k , . . . ; diese
Ordinalzahlen heißen Nachfolgerzahlen, da zwischen ihrem Vorgänger, den man als
Ordnungstypus der Ordnung erhält, in der man das größte Element einfach fortläßt,
und der Ordinalzahl selbst keine weiteren Ordinalzahlen liegen.

32
1.2. Vektorräume

 Ordinalzahlen, die einen Ordnungstypus repräsentieren, der kein größtes Element be-
sitzt, wie z.b. ! , ! + ! , etc. Diese Ordinalzahlen nennt man Limeszahlen. Hat man
nämlich eine Limeszahl  und eine Ordinalzahl  kleiner als , d.h. der Ordnungs-
typus  ist äquivalent zu einem echten Anfangsstück einer durch  repräsentierten
Ordnung, so ist der Nachfolger  + 1 von  noch immer äquivalent zu einem echten
Anfangsstück der durch  repräsentierten Ordnung und damit kleiner als .
Die Klasse On der Ordinalzahlen erweist sich selbst als wohlgeordnet. Damit folgt das
Prinzip der Induktion über Ordinalzahlen genauso, wie wir es für natürliche Zahlen gefol-
gert haben. Wir erhalten also in Verallgemeinerung von 0.6.4:

Gilt (8 2 On)[((8 )( <  ) F ( ))) ) F ( )]; so folgt (8 2 On)F ( ): (1.5)

Wollen wir 0.6.5 verallgemeinern, so habe wir die drei Typen von Ordinalzahlen zu beach-
ten.
Gilt der Induktionsanfang F (0);
der Induktionsschritt (8 2 On)[F ( ) ) F ( + 1)]
(1.6)
und der Limesschritt (8 < )F ( ) ) F () für Limeszahlen ;
so folgt (8 2 On)F ( ):
Ebenso lassen sich Funktionen rekursiv über Ordinalzahlen definieren. Wir erhalten die
folgende Verallgemeinerung von 0.6.6

Definition durch transfinite Rekursion Sind die Abbildungen g : M !N und


h: On  N  M ! N gegeben, so ist die durch die Rekursionsvorschrift
f (0; x) = g(x)
(8 2 On)[f ( + 1; x) = h(; f (; x); x)]
S
f (; x) = < f (; x) für Limeszahlen 
definierte Funktion f : On  M ! N eindeutig bestimmt.
S
Natürlich muß hierbei sicher gestellt sein, daß < f (; x) immer wieder ein Element von
N ist. Man kann die Rekursion wie in 0.6.6 statt bei 0 auch bei jeder beliebigen Ordinalzahl
beginnen lassen.
Die Annahme, die wir über unsere Mengenwelt nun machen, ist der

Wohlordnungssatz Jede Menge M 2 U läßt sich wohlordnen.


Der Ordnungstyp der kürzesten Wohlordnung, die sich auf einer Menge M definieren läßt,
heißt die Kardinalzahl der Menge M und wird im allgemeinen mit jM j bezeichnet. Man
kann daher die Forderung des Wohlordnungssatzes auf die Form “Jede Menge besitzt eine
Kardinalzahl” bringen.
Der Wohlordnungssatz mag einem zunächst merkwürdig anmuten. Eine Wohlordnung der
Menge der reellen Zahlen kann man sich beispielsweise kaum vorstellen. Vor dem Hin-
tergrund der übrigen Annahmen über unser Mengenuniversum ist der Wohlordnungssatz
jedoch äquivalent zu einem anderen Prinzip, dem Auswahlaxiom, welches besagt:

33
1. Vektorräume


Auswahlaxiom Zu jeder Indexmenge I und Familie
[ M  2 I von nicht leeren
Mengen M gibt es eine Auswahlfunktion f : I ! M , so daß
2I

(8 2 I )(f () 2 M )

gilt.
Das Auswahlaxiom besagt also, daß sich aus jedem Mitglied einer Familie nicht leerer
Mengen in uniformer Weise ein Element auswählen läßt. Das klingt schon viel plausi-
bler als der Wohlordnungssatz und ist auch ein in der Mathematik allgemein akzeptiertes
Prinzip. Auf der anderen Seite leuchtet es ein, daß sich das Auswahlaxiom aus dem Wohl-
ordnungssatz folgern läßt. Wir ordnen die Vereinigung der Mengen M und wählen dann
aus jedem Familienmitglied das kleinste Element aus. Auf der anderen Seite ist es auch
möglich, mit Hilfe des Auswahlaxioms jede nicht leere Menge M zu zählen. Wir fangen
einfach mit einem beliebigen Element an, zählen und entfernen dies aus M und setzten
diese Prozedur mit Hilfe einer Auswahlfunktion auf der Potenzmenge von M so lange
fort, bis wir zur leeren Menge gelangen.
Algebraikern ist der Begriffsapparat, der mit der Einführung von Ordinalzahlen verbunden
ist, in der Regel viel zu aufwendig. (Obwohl dieses Gebiet für sich gesehen äußerst faszi-
nierend ist. David Hilbert hat die Einführung der transfiniten Zahlen als eine der größten
Leistungen der Mathematik bezeichnet.) Daher machen sie sich oft eine weitere Tatsache,
das Lemma von Zorn, zu Nutze, die ihrerseits zum Auswahlaxiom und damit auch zum
Wohlordnungssatz äquivalent ist. Um das Lemma zu formulieren, erinnern wir uns an den
Begriff der Halbordnung. Das ist eine reflexive, antisymmetrische und transitive Relation,
die nicht unbedingt linear sein muß, d.h. zwei Elemente des Feldes der Relation müssen
nicht unbedingt vergleichbar sein. Haben wir eine Teilmenge K  feld (R) in der je zwei
Elemente vergleichbar sind, d.h. gilt (8x 2 K )(8y 2 K )[x R y _ x = y _ y R x], so
nennen wir K eine Kette in R. Ein Element r 2 feld (R) ist eine obere Schranke für eine
Kette K , wenn (8k 2 K )[k R r] gilt. Wir nennen ein Element m 2 feld (R) maximal,
wenn m R r immer schon m = r nach sich zieht.
Lemma von Zorn Ist R eine Halbordnung, in der jede Kette eine obere Schranke be-
sitzt, so hat R maximale Elemente.
Die Äquivalenz von Zornschen Lemma und Auswahlaxiom plausibel zu machen, ist nicht
ganz so einfach, und deshalb will ich hier auch nicht weiter darauf eingehen. Dies ist die
Angelegenheit einer Vorlesung über Mengenlehre. Wir wollen daher hier unseren Exkurs
ins Unendliche beenden.

1.2.20 Satz Sei V ein K -Vektorraum und A ein Erzeugendensystem für V . Zu


jeder linear unabhängigen Menge B  V gibt es eine Teilmenge C  A mit
B \ C = ; und B [ C ist eine Basis von V .
Beweis: Sei  := jAj. Dann können wir A schreiben als A = fa  < g. (Wer
den Exkurs in das Unendliche nicht mitgemacht hat, soll hier A als endlich an-
nehmen. Dann ist  eine natürliche Zahl und er kann den Limesfall übergehen, da

34
1.2. Vektorräume

unterhalb natürlicher Zahlen keine Limeszahlen liegen. Der Beweis bleibt aber un-
ter der Voraussetzung, daß A ein endliches Erzeugendensystem ist, völlig korrekt.)
Durch Rekursion nach  <  definieren wir uns Mengen M .
M0 := B 
M [ fa g
M+1 := M
falls diese Menge linear unabhängig ist
 sonst
S
M := < M für Limeszahlen 
und setzen
[
M := M :
<
Dann zeigen wir durch Induktion nach  , daß alle Mengen M linear unabhängig
sind. Für M0 = B gilt dies nach Voraussetzung. Für M +1 gilt dies nach Kon-
Phaben wir schließlich a1 ; : : : ; an 2 M für eine Limeszahl  und
struktion, und
nehmen wir ni=1 i ai = 0 an, so gibt es ein  <  mit a1 ; : : : ; an 2 M . Nach
Induktionsvoraussetzung ist aber M linear unabhängig und damit erhalten wir
1 = : : : = n = 0. Wir behaupten
S nun weiter, daß die Menge M maximal linear
unabhängig ist. Da M = < M und alle M linear unabhängig sind, erhalten
wir wie im vorherigen Limesfall, daß auch M linear unabhängig ist. Sei nun v 2 A
und v 2= M . Dann gibt es ein  <  mit v = a . Damit ist a 2= M+1  M . Nach
Konstruktion von M +1 muß daher M [ fa g linear abhängig sein. Dann gibt es
aberPVektoren a1 ; : : : ; an 2 M  M und Körperelemente 1 ; : : : ; n und so,
daß ni=1 i ai + a = 0 ist, aber nicht alle i und gleichzeitig 0 sind. Damit ist
v eine Linearkombination von Elementen in M  M . Für v 2 M \ A gilt dies tri-
vialerweise. Für ein beliebiges v 2 V finden wir, da A ein Erzeugendensystem
Pn ist,
Vektoren a1 ; : : : ; an 2 A und Körperelemente 1 ; : : : ; n mit v = i=1 i ai .
Wir haben aber gerade gesehen, daß jedes der ai 2 A eine Linearkombination von
Elementen in M ist. Dann ist aber auch v eine Linearkombination von Elementen
in M , und M ist auch ein Erzeugendensystem. Damit ist M eine Basis. Setzen
wir C := M n B , so ist C  A, B \ C = ; und M = B [ C , und der Satz ist
bewiesen. ut
Wir wollen, einfach weil man es in der Literatur oft so findet, den Satz noch-
mals mit Hilfe des Lemma von Zorn beweisen. Dazu betrachten wir die Menge
P := fB [ D D  A ^ B [ D ist linear unabhängigg. Diese Menge wird durch
die Mengeninklusion  halbgeordnet. Sei nun fE  2 I g eine Kette S in dieser
S Jedes E hat die Gestalt B [ D und damit hat E := 2I E die
Halbordnung.
Gestalt B [ 2I D . Wie im vorherigen Beweis folgt, daß E als Vereinigung linear
unabhängiger Mengen selbst linear unabhängig ist. Damit hat jede Kette in (P; )

35
1. Vektorräume

eine obere Schranke und besitzt nach dem Lemma von Zorn maximale Elemente.
Sei M ein solches maximales Element. Wegen M 2 P ist dann M linear un-
abhängig. Ist v 2 A, so folgt aus der Maximalität von M , daß M [ fv g = M oder
M [fvg linear abhängig ist. In beiden Fällen läßt sich v als Linearkombination
Pn von
Elementen in M darstellen. Da A ein Erzeugendensystem war, gilt v = i=1 i ai
mit a1 ; : : : ; an 2 A für jedes v 2 V: Da sich jedes ai 2 A als Linearkombination
von Elementen in M darstellen läßt, erhalten wir auch v als Linearkombination
von Elementen aus M . Damit ist M auch ein Erzeugendensystem und somit eine
Basis, und wir setzen wie im vorherigen Beweis C := M n A. ut
Beide Beweise unterscheiden sich nur in der Konstruktion der Menge M . Die sich
daran anschließende Argumentation ist im wesentlichen identisch. Die Konstruk-
tion der Menge M ist im ersten Beweis durchsichtiger (beim Zornschen Lemma
fällt sie vom Himmel), und der Vorteil des ersten Beweises durch transfinite Rekur-
sion liegt auch darin, daß sich der endlich erzeugte Fall einfach durch Weglassen
des Limesfalles ergibt. Der Beweis über das Zornsche Lemma hat seinerseits den
Vorteil, daß er neben dem Zornschen Lemma keinen zusätzlichen Begriffsapparat
benötigt.
Wie bereits gesagt werden in dieser Vorlesung endlich erzeugte Vektorräume die
Hauptrolle spielen. Für diese Vektorräume erhalten wir Satz 1.2.20 ohne den Ex-
kurs ins Unendliche.

1.2.21 Korollar Jeder Vektorraum besitzt eine Basis.

Beweis: Jeder Vektorraum V besitzt ein Erzeugendensystem, z.B. V selbst. Da die


leere Menge linear unabhängig ist, können wir in Satz 1.2.20 B = ; setzen und
erhalten so die Behauptung. ut
1.2.22 Satz Ist V ein K -Vektorraum und sind B1 und B2 Basen von V , so gilt
einer der folgenden Fälle:
(i) V = 0 und B1 = B2 = ;,
(ii) B1 und B2 sind beide unendlich,
(iii) V ist endlich erzeugt und jB1 j = jB2 j.

Beweis: Sei V 6= 0. Ist V nicht endlich erzeugt, so kann V keine endliche Ba-
sis besitzen. Sei daher V endlich erzeugt und B1 = fa1 ; : : : ; an g und B2 =
fb1 ; : : : ; bm g Basen. Dann ist die Menge A1 := fa2 ; : : : ; an g linear unabhängig
und nach Satz 1.2.17 keine Basis. Nach Satz 1.2.20 finden wir eine Menge C1 
B2 mit A1 \ C1 = ; so, daß A1 [ C1 eine Basis ist. Damit ist insbesondere C1 6= ;.
36
1.2. Vektorräume

Nun definieren wir A2 := fa3 ; : : : ; an g [ C1 . Diese Menge ist wieder linear un-
abhängig und kein Erzeugendensystem. Nach Satz 1.2.20 finden wir eine Menge
C2  B2 so, daß A2 \ C2 = ; und A2 [ C2 eine Basis ist. Wir iterieren nun dieses
Verfahren und erhalten nach n–vielen Schritten eine Basis C1 [ : : : [ Cn  B2 ,
so daß alle Ci paarweise verschieden sind. Also ist jB1 j = n  jB2 j. Vertau-
schen wir die Rollen von B1 und B2 , so erhalten wir mit dem gleichen Verfahren
jB2j  jB1 j. ut
Diese Stelle erscheint mir geeignet zu sein, einmal zu präzisieren, wie das obige
Argument “Wir iterieren nun dies Verfahren. . . ” zu verstehen ist. Dahinter steckt
eine Definition durch Rekursion und ein Beweis durch Induktion. Zunächst defi-
Swir durch Rekursion Mengen Ai =Sfai+1 ; : : : ; an g und Ci  B2 derart, daß
nieren
Ai [ j i Cj eine Basis bilden und (Ai [ j<i Cj ) \ Ci = ; gilt. Wir setzen C0 :=
;. Als Induktionvoraussetzung gehen wir davon aus, daß Ai = fai+1 ; : : : ; ang und
Ci definiertSsind und die geforderten Eigenschaften besitzen. Dann ist die Men-
ge AiS+1 [ j i Cj linear unabhängig und, da sie eine echte Teilmenge der Basis
Ai [ j i Cj ist, nach Satz 1.2.17 keine Basis. Da B2 ein Erzeugendensystem
S ist,
gibt es nach Satz 1.2.20 eine S Menge Ci +1  B 2 , so daß ( Ai +1 [ j i Cj ) [ C i +1
eine Basis und (Ai+1 [ j i Cj ) \ Ci+1 = ; ist. Damit sind Ai und Ci für
i = 0; : : : ; n definiert, es ist An = ;, C1 [ : : : [ Cn eine Basis und alle Ci sind
paarweise verschieden.
Wann immer Konstruktionen durch “Iteration” fortgesetzt werden, sind diese ana-
log wie im obigen Beispiel zu präzisieren.

1.2.23 Definition (Dimension eines Vektorraumes) Sei V ein K -Vektorraum.


Wir definieren dessen Dimension durch
8
< 0; falls V = 0 ist;
dimK V := 1;
: jB j;
falls V nicht endlich erzeugt ist;
falls B eine Basis von V ist.
Ist es klar oder unerheblich, um welchen Grundkörper K es sich handelt, so schrei-
ben wir kurz dim V statt dimK V .

1.2.24 Satz Ist V ein K -Vektorraum und sind a1 ; : : : ; an 2 V linear unabhängige


Vektoren, so sind äquivalent:
(i) dim V = n.
(ii) a1 ; : : : ; an ist eine Basis.
Beweis: (i) ) (ii): Ist B eine Basis von V , so gibt es nach Satz 1.2.20 eine Men-
ge C  B , so daß fa1 ; : : : ; an g [ C eine Basis von V und fa1 ; : : : ; an g \ C = ;

37
1. Vektorräume

ist. Nach Satz 1.2.22 müssen dann aber B und fa1 ; : : : ; an g[ C genau n Elemente
besitzen, woraus sich C = ; ergibt, und daher ist fa1 ; : : : ; an g schon eine Basis.
(ii) ) (i): Ist fa1 ; : : : ; an g eine Basis, so ist dim V = jfa1 ; : : : ; an gj = n. ut

1.2.25 Satz Sei V ein endlich erzeugter Vektorraum. Dann gelten folgende Aussa-
gen:
(i) Sind a1 ; : : : ; an 2V linear unabhängig, so ist n  dim V .
(ii) Wird V von b1 ; : : : ; bm 2V erzeugt, so ist dim V  m.
Beweis: (i): Sind a1 ; : : : ; an linear unabhängig, so lassen sie sich nach Satz 1.2.20
zu einer Basis fa1 ; : : : ; an g [ C mit C  V ergänzen. Also ist n  dim V .
(ii): Ist V = hb1 ; : : : ; bm i, so enthält fb1 ; : : : ; bm g nach Satz 1.2.10 ein minima-
les Erzeugendensystem. Also ist dim V  m. ut

1.2.26 Bemerkung Man beachte, daß die Kontraposition der Aussage (i) in Satz
1.2.25 besagt, daß für m > dim V je m viele Vektoren stets linear abhängig sind.

1.2.27 Satz Ist V ein endlich dimensionaler Vektorraum und U ein Teilraum von
V , so gelten:
(i) dim U  dim V .
(ii) dim U = dim V , U =V.
Beweis: (i): Ist B eine Basis von U , so ist B eine in V linear unabhängige Men-
ge. Damit ist dim U = jB j  dim V .
(ii): ): Ist B eine Basis von U , so ist B linear unabhängig in V . Aber B ist auch
maximal linear unabhängig in V , da jede Erweiterung von B mehr als dim U =
dim V viele Elemente enthalten müßte, was nach Bemerkung 1.2.26 unmöglich
ist. Damit ist B eine Basis von V und wir erhalten U = hB i = V .
Die Gegenrichtung ( gilt offensichtlich.

1.3 Einige Beispiele


1.3.1 Der Vektorraum K n
Sei K ein Körper. Wir definieren
K n := f( 1 ; : : : ; n ) i 2 K für i = 1; : : : ; ng (1.7)

38
1.3. Einige Beispiele

und nennen K n die Menge der n-tupel über K . Wir wollen Verknüpfungen auf
dem K n so definieren, daß K n mit diesen Verknüpfungen zu einem Vektorraum
wird. Wir beginnen mit der Addition und setzen
( 1 ; : : : ; n ) + ( 1 ; : : : ; n ) = ( 1 + 1 ; : : : ; n + n ): (1.8)
Man nennt diese Art der Definition, die sich in jeder Komponente des n-tupels auf
Addition im Grundkörper bezieht, auch eine komponentenweise oder punktweise
Definition. Die Addition im K n wird also komponentenweise festgesetzt. Ebenso
definieren wir die skalare Multiplikation punkt- (oder komponenten)weise durch
 ( 1 ; : : : ; n ) := (  1 ; : : : ;  n ): (1.9)
Die Tatsache, daß (K; +) eine Gruppe ist, überträgt sich dank der komponenten-
weise Definition unmittelbar auf (K n ; +). Man rechnet dies leicht nach. Das neu-
trale Element ist das n-tupel, das aus lauter Nullen besteht. Das inverse Element
zu ( 1 ; : : : ; n ) ergibt sich sofort als ( 1 ; : : : ; n ). Die Axiome (V21)–(V24)
rechnet man ebenfalls sofort nach. Damit ist K n ein Vektorraum. Dies ist natürlich
auch für n = 1 richtig. Jeder Körper kann also als Vektorraum über sich selbst
aufgefaßt werden.
R
Setzen wir K = , so erhalten wir die bekannten Vektorräume 1 , die Gera- R
R R
de, 2 , die euklidische Ebene, und 3 , den euklidischen Raum. Diese mag man
sich als anschauliche Beispiele für Vektorräume vor Augen halten. Dabei soll man
sich aber stets bewußt sein, daß diese Vektorräume noch viel zusätzliche Struktur
tragen (z.B. rechtwinkelige Koordinatensysteme), die wir im bisher eingeführten
allgemeinen Fall noch nicht zur Verfügung haben.
Kehren wir daher wieder zum allgemeinen Fall eines beliebigen Körpers K zurück.
Eine nützliche Notationshilfe ist das von Kronecker eingeführte Symbol

falls i = j
Æij := 10 falls i 6= j .
(1.10)

Mit Hilfe dieses Kroneckersymbols definieren wir die Vektoren


eni := (Æi1 ; : : : ; Æin ): (1.11)
Die Komponenten des Vektors eni sind daher alle 0 bis auf die i-te Stelle, an der eine
1 steht. Das Superskript n lassen wir im allgemeinen
Pn weg, da es sich im Regelfall
aus dem Zusammenhang ergibt. Gilt nun i=1 i ei = 0, so erhalten wir i  1 = 0
für i = 1; : : : n. Da jeder Körper nullteilerfrei ist, folgt daraus 1 = : : : = n = 0.
linear unabhängig. Anderenfalls gilt für ( 1 ; : : : ; n ) 2 K n
Damit sind e1 ; : : : ; en P
stets ( 1 ; : : : ; n ) = n e . Damit ist e ; : : : ; e auch ein Erzeugendensy-
i=1 i i 1 n
stem und somit eine Basis. Also haben wir

39
1. Vektorräume

1.3.1 Satz Die Menge K n der n-tupel über einen Körper K bilden mit der kompo-
nentenweisen Addition und skalaren Multiplikation einen Vektorraum der Dimen-
E
sion n. Die Menge n := fen 1 ; : : : ; en n g ist eine Basis des K n . Sie heißt dessen
kanonische Basis.

1.3.2 Der Vektorraum der Abbildungen von einer Menge in einen


Körper
Ein n-tupel ( 1 ; : : : ; n ) 2 K n läßt sich auch als eine Abbildung der Menge
f : f1; : : : ; ng ! K auffassen, die gegeben ist durch f (i) := i . Die nahelie-
gende Verallgemeinerung ist, nun die Menge aller Abbildungen einer Menge X in
einen Körper zu betrachten. Sei also
Abb(X; K ) := K X := ff f : X ! K g: (1.12)
Wir definieren auf Abb(X; K ) eine Addition und skalare Multiplikation durch
(f + g)(x) := f (x) + g(x)
(  f )(x) :=  f (x):
(1.13)

Die Definition (1.13) ist so zu verstehen, daß zwei Abbildungen f und g zu einer
neuen Abbildung f + g verknüpft werden, die wie in (1.13) definiert ist. Da f (x)
und g (x) Elemente von K sind, ist f (x)+ g (x) durch die Addition im Körper wohl-
definiert. Ebenso werden 2 K und f 2 K X die in (1.13) definierte Abbildung
 f zugeordnet. Man rechnet wieder sofort nach, daß (K X ; +) eine additive abel-
sche Gruppe bildet, deren neutrales Element durch die Nullabbildung 0(x) := 0
für alle x 2 X gegeben ist. Das inverse Element einer Abbildung f erhalten wir
als f = 1  f .
Wir erhalten einen Unterraum von K X durch die Festsetzung
Abb[X; K ] := ff 2 K X f (x) = 0 für fast alle x 2 X g: (1.14)
Dabei bedeutet “für fast alle x 2 X ”, daß dies für alle x 2 X bis auf endlich
viele Ausnahmen gilt. Wir wollen uns als erstes davon überzeugen, daß Abb[X; K ]
auch tatsächlich ein Unterraum ist. Sind f und g in Abb[X; K ], so gibt es endliche
Mengen I1 ; I2  X mit (8x 2 I1 )[f (x) 6= 0] und (8x 2 I2 )[g (x) 6= 0]. Dann gilt
aber (f + g )(x) 6= 0 ) x 2 I1 [ I2 , d.h. (f + g )(x) = 0 für fast alle x 2 X , denn
mit I1 und I2 ist auch I1 [ I2 endlich. Ebenso erhalten wir, daß mit f 2 Abb[X; K ]
und 2 K auch f 2 Abb[X; K ] ist.
Ist X bereits eine endliche Menge, so sind Abb(X; K ) und Abb[X; K ] offen-
bar identisch. Ist jX j = n, so ist, wie bereits eingangs erwähnt, Abb(X; K ) =
Abb[X; K ] = K n , denn für X = fx1 ; : : : ; xn g kann f 2 Abb(X; K ) mit dem
n-tupel (f (x1 ); : : : ; f (xn )) 2 K n identifiziert werden.
40
1.3. Einige Beispiele

Bei unendlichem X liegt die Situation jedoch völlig anders. Definieren wir ein
verallgemeinertes Kroneckersymbol durch

falls x = a
Æa (x) := 10
sonst,

P wir, daß die Menge fÆa a 2 X gPin Abb(X; K ) linear unabhängig ist.
so sehen
Aus ni=1 i Æai = 0 erhalten wir nämlich ni=1 i Æai (ai ) = 0 und damit i = 0
für i = 1; : : : ; n. Andererseits ist nicht zu sehen, daß die Funktionen Æa für a 2 X
auch ein Erzeugendensystem bilden. Betrachten wir jedoch den Raum Abb [X; K ],
so ist die Menge fÆa a 2 X g auch ein Erzeugendensystem. Ist nämlich f 2
Abb[X; K ], so finden wir eine endliche Teilmenge fa1 ; : : : ; an g  X , so daß
f (x) = 0 für alle x 2 X n fa1 ; : :P : ; an g gilt. Dann erhalten wir offenbar f (ai ) =
f (ai )  ÆP
ai (ai ) und somit f (x) = i=1 f (ai )Æai (x) für beliebiges x 2 X , d.h. es
n
n
ist f = i=1 f (ai )Æai . Somit erhalten wir

1.3.2 Satz Die Menge der Funktionen fÆa a 2 X g bilden eine Basis des Raumes
Abb[X; K ]. Damit ist dim(Abb[X; K ]) = jX j. Ist X eine endliche Menge mit
jX j = n, so ist Abb(X; K ) = Abb[X; K ] = K n.
1.3.3 Polynome
N
Wählen wir im vorherigen Beispiel als X die Menge der natürlichen Zahlen, so
erhalten wir den Vektorraum der Polynome mit Koeffizienten in K . Wir definieren
K [x] := Abb[N ; K ]: (1.15)
Wie wir im Abschnitt 1.3.2 gesehen haben, ist die Menge der Kroneckersymbole
N
fÆn n 2 g eine Basis des K [x]. Zu jedem von der Nullabbildung verschiedenen
N
f 2 K [x] gibt es dann ein kleinstes n 2 derart, daß f (m) = 0 für alle m > n
gilt. Wir nennen n den Grad von f und notieren ihn mit G(f ). Als Konvention set-
zen wir G(0) := 1, wobei 0 die Nullabbildung ist. Jedes Element f 2 K [x] ist
daher durch das Tupel (f (0); : : : ; f (n)) mit n := G(f ) vollständig charakterisiert.
Damit bietet sich die folgende Schreibweise an. Wir schreiben
f = f (0) + f (1)  x + f (2)  x2 + : : : + f (n)  xn ;
wobei x einfach als ein Symbol – eine Unbestimmte – zu lesen ist. So erklärt sich
auch die Notation K [x]. Diese Schreibweise hat den Vorteil, daß wir unsere übli-
chen Rechenregeln “formal” anwenden können. So ist z.B. für f = f (0) + f (1) 
x + f (2)  x2 + : : : + f (n)  xn und g = g(0)+ g(1)  x + g(2)  x2 + : : : + g(m)  xm
die Summe f + g = (f (0)+ g (0))+(f (1)+ g (1))  x + : : : +(f (k )+ g (k ))  xk mit
k := maxfm; ng und  f = f (0)+ f (1)  x + : : : + f (n)  xn . Die eigentlichen
41
1. Vektorräume

Vorteile dieser Schreibweise ergeben sich dann, wenn man eine Multiplikation auf
K [x] definieren
P und somit K [P x] zu einem Ring machen will. Hier definiert man
für f = m i=1 f ( i ) Æ i und g = n g (i)Æ
i=1 i
m
X +n X
f g = ( (f (i)  g(j )))  Æk
k=1 i+j =k
und sieht sofort, daß man dieses Produkt erhält, wenn man f (0) + f (1)  x + : : : +
f (m)  xm und g(0)+ g(1)  x + : : : + g(n)  xn formal ausmultipliziert und dann nach
Potenzen von x ordnet. Der Polynomring K [x] spielt in der Algebra eine wichtige
Rolle und wird uns auch in dieser Vorlesung noch mehrfach begegnen.

1.3.4 Produkte und Summen von Vektorräumen


Ist fV  2 I g eine Familie von Vektorräumen über einem Grundkörper K , so
definieren wir
Y [
V := ff f : I ! V ^ (8 2 I )[f ( ) 2 V ]g (1.16)
 2I  2I
und
M Y
V := ff f 2 V ^ f ( ) = 0 für fast alle  2 I g: (1.17)
 2I  2I
Q L
Man nennt  2I V das Produkt der Vektorräume V und  2I V das Kopro-
dukt oder die direkte Summe der Vektorräume V . Warum man von einer Summe
spricht, wird uns in Abschnitt 2.4 klarwerden.
Die Addition und skalare Multiplikation in beiden Räumen wird wieder punktwei-
se definiert, d.h. durch

(f + g)( ) := f ( ) + g( )
und

(  f )( ) := f ( ):
Da f ( ) und g ( ) bei im Vektorraum V liegen, ist dies wohldefiniert.
Ist die Indexmenge
Q endlich, z.B. I = fi1 ; : L
: : ; in g, so schreiben wir Vi1    Vin
anstatt i2I Vi und Vi1    Vin anstatt i2I Vi . (Hierbei ist aber zu bemerken,
daß endliche Produkte und endliche Summen sich nicht unterscheiden.)
Spezialfälle erhalten wir, wenn wir I = f1; : : : ; ng und Vi = V für i 2 I wählen.
Dann erhalten wir den Vektorraum V n der n-tupel von Vektoren aus V . Untersu-

42
1.3. Einige Beispiele

Q L
chungen über Basen und Dimension von  2I V und  2I V wollen wir zurück-
stellen, bis uns mehr Hilfsmittel zur Verfügung stehen.

43
1. Vektorräume

44
2. Lineare Abbildungen

2.1 Homomorphismen (am Beispiel von Gruppen)


Wir haben bereits bemerkt, daß Abbildungen zwischen Mengen eine wichtige Rol-
le in mathematischen Untersuchungen spielen. Tragen die Mengen darüber hinaus
noch eine Struktur (handelt es sich also beispielsweise um Gruppen, Ringe, Körper,
Vektorräume, . . . ), so sind die Abbildungen von besonderem Interesse, die diese
Struktur respektieren. Solche Abbildungen nennt man Homomorphismen. Wir wol-
len den Begriff des Homomorphismus und einige seiner wichtigsten Eigenschaften
am Beispiel der Struktur von Gruppen studieren.

2.1.1 Definition Es seien (G; ÆG ) und (H; ÆH ) Gruppen. Eine Funktion


f : G ! H heißt ein Homomorphismus der Gruppen, wenn gilt:
(8a 2 G)(8b 2 G)[f (a ÆG b) = f (a) ÆH f (b)]:
Für einen Homomorphismus definieren wir
Kern f = fa 2 G f (a) = 1H g;
wobei 1H das neutrale Element der Gruppe (H; ÆH ) bedeutet. Wir nennen Kern f
den Kern des Homomorphismus f .

2.1.2 Folgerungen Sei f: G ! H ein Homomorphismus der Gruppen. Dann


gelten:
(i) f (1G ) = 1H .
(ii) f (a 1 ) = (f (a)) 1.

(iii) Kern f ist eine Untergruppe von G.


(iv) Im f ist eine Untergruppe von H .
(v) f ist injektiv , Kern f = f1G g.

45
2. Lineare Abbildungen

Beweis: (i): Es ist f (1G ) = f (1G  1G ) = f (1G )  f (1G ). Damit ist 1H =


f (1G ) 1  f (1G ) = f (1G ) 1  f (1G )  f (1G ) = f (1G ):
(ii): f (a 1 )  f (a) = f (a 1  a) = f (1G ) = 1H . Also ist f (a) 1 = f (a 1 ) .
(iii): Für a; b 2 Kern f gilt f (ab 1 ) = f (a)f (b 1 ) = f (a)f (b) 1 = 1H 
1H 1 = 1H  1H = 1H . Also ist ab 1 2 Kern f , der damit nach Satz 1.1.10 eine
Untergruppe von G ist.
(iv): Sind a; b 2 Im f , so gibt es x; y 2 G mit a = f (x) und b = f (y ). Damit
erhalten wir ab 1 = f (x)f (y ) 1 = f (x)f (y 1 ) = f (xy 1 ). Damit ist xy 1
ein Urbild von ab 1 . Damit ist ab 1 2 Im f , und Im f ist nach Satz 1.1.10 eine
Untergruppe von H .
(v): ): Ist f injektiv und a 2 Kern f , so folgt wegen f (a) = 1H = f (1G )
sofort a = 1G . D.h. Kern f  f1G g, aber f1G g  Kern f folgt aus (iii), denn
jede Untergruppe muß das neutrale Element enthalten.
(: Ist Kern f = f1G g und f (a) = f (b), so erhalten wir 1H = f (a)f (b) 1 =
f (ab 1 ) und damit ab 1 = 1G , woraus sofort a = b durch Multiplikation mit b
von rechts folgt. ut
2.1.3 Lemma Sind f : G1 ! G2 und g : G2 ! G3 Homomorphismen, so ist
auch g Æ f : G1 ! G3 ein Homomorphismus.

Beweis: Es ist (g Æ f )(ab) = g (f (ab)) = g (f (a)f (b)) = g (f (a))g (f (b)) =


(g Æ f )(a)(g Æ f )(b): ut
2.1.4 Lemma Ist f : G ! H ein bijektiver Homomorphismus, so ist
f 1 : H ! G ebenfalls ein bijektiver Homomorphismus.
Beweis: Seien a; b 2 H . Da f surjektiv ist finden wir x; y 2 G mit f (x) = a
und f (y ) = b. Damit folgt f 1 (ab) = f 1 (f (x)f (y )) = f 1 (f (xy )) = xy =
f 1 (a)f 1 (b). ut

Bezeichnungen
 Ein surjektiver Homomorphismus heißt ein Epimorphismus.
 Ein injektiver Homomorphismus heißt ein Monomorphismus.
 Ein bijektiver Homomorphismus heißt ein Isomorphismus.
 Ein Homomorphismus f : G ! G heißt ein Endomorphismus.
 Ein bijektiver Endomorphismus heißt ein Automorphismus.

46
2.2. Kanonische Faktorisierung von Homomorphismen

2.1.5 Definition Zwei Gruppen heißen isomorph, wenn es einen Isomorphismus


zwischen den Gruppen gibt.
Die Isomorphie der Gruppen G und H wird mit G = H notiert.
2.1.6 Lemma Die Isomorphie von Gruppen ist eine Äquivalenzrelation auf der
Menge aller Gruppen.
Beweis: Es gilt G = G vermöge der Identität, die offensichtlich ein Isomorphis-
mus der Gruppen ist. Damit ist die Relation 
= reflexiv. Gilt G  = H vermöge des
Isomorphismus f : G ! H , so ist nach Lemma 2.1.4 f : H ! G ebenfalls
1
ein Isomorphismus der Gruppen, und wir haben H  = G. Damit ist  = als symme-
trisch nachgewiesen. Gilt schließlich G 
= H und H  = L vermöge der Isomorphis-
men f : G ! H und g : H ! L, so ist (g Æ f ): G ! L nach Lemma 2.1.3
ein Homomorphismus der Gruppen und nach Lemma 0.5.7 auch bijektiv. Damit ist
G = L vermöge (g Æ f ), und wir haben 
= auch als transitiv nachgewiesen. ut

2.2 Kanonische Faktorisierung von Homomorphismen und


der Homomorphiesatz
2.2.1 Lemma Ist f : G ! H ein Homomorphismus der Gruppen (G; Æ) und (H; Æ),
so ist die Relation a f
b :, f (a) = f (b) eine Äquivalenzrelation auf G.
Beweis: Wegen f (a) = f (a) ist f reflexiv, wegen f (a) = f (b) ) f (b) =
f (a) symmetrisch und wegen f (a) = f (b) = f (c) ) f (a) = f (c) auch
transitiv. ut
2.2.2 Lemma Die Äquivalenzklassen [a]f := fb 2 G a f bg bilden eine Parti-
tion von G.
Beweis: Wir nennen eineSFamilie fM  2 I g von Teilmengen von G eine Par-
tition von G, wenn G = 2I M gilt und die Vereinigung disjunkt ist, d.h. wenn
(8 2 I )(8 2 IS)[M 6= M ) M \ M = ;] gilt. Wir haben demnach zu zei-
gen, daß G = x2G [x]f ist und aus [aS ]f 6= [b]f schon [a]f \ [b]f = ; folgt. Nach
Definition der Äquivalenzklassen
S ist x2G [x]f  G. IstSumgekehrt a 2 G, so
folgt a 2 [a]f  x2G [x]f . Damit haben wir auch G  x2G [x]f . Nehmen wir
[a]f \ [b]f 6= ; an, so gibt es ein c 2 [a]f \ [b]f , d.h. es gilt f (a) = f (c) = f (b).
Also folgt a f b und damit [a]f = [b]f . Die Kontraposition dieser Aussage ist
aber gerade [a]f 6= [b]f ) [a]f \ [b]f = ;, und wir sind fertig. ut
2.2.3 Lemma Es gilt [a]f = fa  x x 2 Kern f g =: a  Kern f .
47
2. Lineare Abbildungen

Beweis: : Ist b 2 [a]f , so gilt f (b) = f (a). Die Gleichung b = a  x hat in


G eine Lösung und wir erhalten f (b) = f (ax) = f (a)f (x) = f (a). Es folgt
f (x) = 1 und damit x 2 Kern f . Also ist b = ax 2 a  Kern f .
: Ist b 2 a  Kern f , so ist b = ax für ein x 2 Kern f , und es folgt f (b) =
f (ax) = f (a)f (x) = f (a)  1 = f (a). Also gilt b f a und damit b 2 [a]f . u
t

2.2.4 Lemma Die Menge G Kern f := fa  Kern f a 2 Gg wird mit der Ver-
knüpfung (a  Kern f ) Æ (b  Kern f ) := (ab)  Kern f eine Gruppe. Diese Gruppe
heißt die Faktor- oder Quotientengruppe von G modulo dem Kern von f .

Beweis: Zunächst haben wir zu zeigen, daß die im Lemma definierte Verknüpfung
  
tatsächlich eine Abbildung Æ: G Kern f  G Kern f ! G Kern f ist. Man
sagt, daß wir die Wohldefiniertheit der Verknüpfung zeigen müssen. Nachzuprüfen
ist nur die Rechtseindeutigkeit. Seien also a  Kern f = a0  Kern f und b  Kern f =
b0  Kern f . Wir haben ab  Kern f = a0 b0  Kern f nachzuprüfen. Mit Lemma 2.2.3
erhalten wir aber x 2 ab  Kern f , f (x) = f (ab) = f (a)f (b) = f (a0 )f (b0 ) =
f (a0 b0 ) , x 2 a0 b0  Kern f . Damit ist ab  Kern f  a0 b0  Kern f und die
Gegenrichtung erhalten wir aus Symmetriegründen in völlig analoger Weise. Nun
überzeugen wir uns davon, daß (1  Kern f ) Æ (a  Kern f ) = 1a  Kern f =
a  Kern f ist und haben damit ein linksneutrales Element. Wegen (a 1  Kern f ) Æ
(a  Kern f ) = a 1 a  Kern f = 1  Kern f besitzt jedes Element a  Kern f das

Element a 1  Kern f als inverses Element. Damit ist G Kern f eine Gruppe. u t


2.2.5 Lemma Die Abbildung f : G ! G Kern f; die definiert ist durch
f (a) := a  Kern f , ist ein Epimorphismus der Gruppen mit Kern f = Kern f .
Man nennt f den kanonischen Epimorphismus von G auf G Kern f .
Beweis: Wegen f (ab) := ab  Kern f = (a  Kern f ) Æ (b  Kern f ) = f (a)  f (b)

liegt ein Homomorphismus vor. Ist x 2 G Kern f , so gibt es ein a 2 G mit
x = a  Kern f = f (a). Damit ist a ein Urbild von x unter f . Da dies für

beliebige x 2 G Kern f gilt, ist f surjektiv.
Ist a 2 Kern f , so ist f (a) = a  Kern f = 1  Kern f . Also ist a f 1, d.h.
f (a) = f (1) = 1H . Damit ist Kern f  Kern f . Ist umgekehrt a 2 Kern f , so
ist f (a) = f (1) und damit f (a) = a  Kern f = 1  Kern f , d.h. a 2 Kern f .
Somit ist Kern f = Kern f . ut

2.2.6 Lemma Die Abbildung f : G Kern f ! H , die definiert ist durch
f (a  Kern f ) := f (a); ist ein Monomorphismus der Gruppen.

Man nennt f die kanonische Einbettung von G Kern f in H .

48
2.2. Kanonische Faktorisierung von Homomorphismen

Beweis: Zunächst wollen wir betonen, daß die Abbildung f wegen a  Kern f =
a0  Kern f , f (a) = f (a0 ) , f (a  Kern f ) = f (a0  Kern f ) wohldefiniert
(d.h. rechtseindeutig) ist. Aber da wir ja überall Äquivalenzen stehen haben, ist sie
ebenso linkseindeutig, d.h. aus f (x) = f (y ) folgt x = y . Damit ist f injektiv.
Wegen f ((a  Kern f ) Æ (b  Kern f )) = f (ab  Kern f ) = f (ab) = f (a)f (b) =
f (a  Kern f )  f (b  Kern f ) ist f auch ein Homomorphismus der Gruppen. u t
2.2.7 Homomorphiesatz für Gruppen Ist f : G ! H ein Homomorphismus

der Gruppen, so ist G Kern f eine Gruppe, und es gibt einen surjektiven Ho-

momorphismus f : G ! G Kern f und einen injektiven Homomorphismus

f : G Kern f ! H derart, daß das folgende Diagramm kommutiert.

G
f -H
f
f 
?
G=Kern f
D.h. es gilt f = f Æ f :

Insbesondere ist G Kern f 
= f [G] = Im f .
Beweis: Nach den Lemmata 2.2.5 und 2.2.6 erhalten wir sowohl den kanonischen

Epimorphismus f : G ! G Kern f als auch die kanonische Einbettung

f : G Kern f ! H . Für a 2 G erhalten wir (f Æ f )(a) = f (f (a)) =
f (a  Kern f ) = f (a), und wir haben die Kommutativität des Diagramms gezeigt.
Ist x 2 Im f , so ist x = f (a) für ein a 2 G, und es folgt x = f (a) = f (a 

Kern f ). Damit ist der Monomorphismus f : G Kern f ! Im f surjektiv und
folglich ein Isomorphismus. ut
Wir wollen die Situation, die zum Homomorphiesatz geführt hat, nochmals von
einem anderen Standpunkt aus betrachten. Als erstes haben wir eingesehen, daß
Kern f eine Untergruppe der Gruppe G ist. Dann haben wir eine Äquivalenzrela-
tion a f b :, f (a) = f (b) eingeführt. Nun gilt f (a) = f (b) , 1H =
f (b) 1 f (a) = f (b 1 a) , b 1 a 2 Kern f . Die erste Frage, die wir uns
hier stellen können, ist, ob für jede Untergruppe U von G durch die Definition
a  b :, b 1 a 2 U eine Äquivalenzrelation definiert wird. Dies wollen wir im
folgenden Lemma untersuchen.

2.2.8 Lemma Ist U eine Untergruppe einer Gruppe G, so definiert die Relation
ab mod U :, b 1 a 2 U
49
2. Lineare Abbildungen

eine Äquivalenzrelation auf G. Für deren Äquivalenzklassen


[a]U := fb a  b mod Ug
gilt
[a]U = a  U := fa  x x 2 U g:
Man nennt a  U die linke Nebenklasse
S von a bzgl. U . Die Nebenklassen bilden eine
Partition von G, d.h. es gilt G = a2G a  U und a  U \ b  U 6= ; ) a  U = b  U

Beweis: Wegen a 1 a = 1 2 U ist  mod U reflexiv. Aus a  b mod U folgt


b 1 a 2 U und daraus (b 1 a) 1 = a 1 b 2 U , d.h. b  a mod U . Damit ist
 mod U symmetrisch. Die Transitivität erhalten wir wegen a  b mod U ^
b  c mod U ) b 1 a 2 U ^ c 1 b 2 U ) (c 1 b)(b 1 a) = c 1 a 2 U )
a  c mod U .
Ist b 2 [a]U ; so folgt a  b mod U und daher b 1 a 2 U . Damit ist aber b =
a(a 1 b), und es ist a 1 b 2 U . Damit ist b 2 a  U . Ist umgekehrt b 2 a  U , so gibt
es ein u 2 U mit b = au. Dann folgt aber b 1 a = u 1 a 1 a = u 2 U und damit
b  a mod U , d.h. b 2 [a]U . Damit haben wir [a]U = a  U gezeigt. Die Tatsache,
daß die Nebenklassen eine Partition von G bilden, wollen wir etwas allgemeiner
nachweisen. Wir zeigen:
Hilfssatz Ist M eine Menge und  eine Äquivalenzrelation auf M , so bilden die
Äquivalenzklassen [a] := fb 2 M a  bg eine Partition von M .
Es ist klar, daß dann die letzte noch offenen Behauptung des Lemma 2.2.8 dann
aus dem Hilfssatz folgt. ut
Beweis des Hilfssatzes: Wir haben zu zeigen, daß
[
M= [a] (i)
a2M
und
[a] 6= [b]
) [a] \ [b] = ; (ii)
gilt. Wegen [a]  M für alle a 2 M ist die Inklusion  in (i) klar. Umgekehrt
S
gilt aber wegen der Reflexivität von  immer a 2 [a]; womit auch M  a2M [a]
folgt. Damit ist (i) gezeigt. Ist nun [a] \ [b] =
6 ;; so gibt es ein c 2 [a] \ [b], und
damit folgt a  c  b, was wegen der Transitivität von  auch
ab (iii)
nach sich zieht. Wir behaupten nun

50
2.2. Kanonische Faktorisierung von Homomorphismen

ab ) [a] = [b]: (iv)


Aus (iii) und (iv) folgt dann die Behauptung. Um (iv) zu zeigen, nehmen wir
x 2 [a], d.h. a  x an. Dann haben wir a  b ^ a  x; woraus b  a ^ a  x
mit der Symmetrie und daraus b  x mit der Transitivität von  folgt. Also ist
[a]  [b]. Völlig symmetrisch erhalten wir auch [b]  [a], und alles ist gezeigt. u
t
Die Tatsache, daß die Nebenklassen bezüglich einer Untergruppe eine Partition der
Gruppe bilden, gibt die Motivation zur folgenden Definition.

2.2.9 Definition Die Ordnung einer endlichen Gruppe ist die Anzahl ihrer Ele-
mente.
Der Index einer Untergruppe U in einer endlichen Gruppe G ist die Anzahl der
Nebenklassen bezüglich U .
Der Index wird notiert durch [G : U ]. D.h. es gilt
[G : U ] := jfa  U a 2 Ggj:
Betrachten wir die triviale Untergruppe f1g  G, die nur aus dem neutralen
Element besteht, so erhalten wir die Nebenklassen a  f1g := fag. Damit ist
jfa  f1g a 2 Ggj = jGj, und es folgt
[G : 1] = jGj: (2.1)
Allgemein erhalten wir

2.2.10 Satz Ist G eine endliche Gruppe und U eine Untergruppe von G, so ist
[G : 1] = [G : U ]  [U : 1]. D.h. die Ordnung einer Untergruppe ist stets ein Teiler
der Ordnung der Gruppe.

Beweis: Die Abbildung la : U ! a  U mit la (u) := au ist offensichtlich sur-


jektiv und wegen au = bu ) a = auu 1 = buu 1 = b auch injektiv. S Damit
folgt jU j = ja  U j. Nun ist wegen Lemma 2.2.8 [G : 1] = jGj = j a2G a  U j =
[G : U ]ja  U j = [G : U ]jU j = [G : U ][U : 1]. ut
Wir haben nun gesehen, daß jede Untergruppe U einer Gruppe G eine Äquivalenz-
relation  mod U auf G und damit auch eine Partition von G in [G : U ] viele
Nebenklassen erzeugt. Die nächste Frage, die sich daran anschließt, ist, ob sich
auf der Menge der Nebenklassen wieder eine Gruppenstruktur definieren läßt. Ist
U = Kern f für einen Gruppenhomomorphismus f , so wissen wir bereits, daß
dies möglich ist. Entscheidend für die Wohldefiniertheit der damals eingeführten
Verknüpfung auf den Nebenklassen war, daß die durch den Homomorphismus f
induzierte Äquivalenzrelation f mit der Gruppenverknüpfung auf G verträglich

51
2. Lineare Abbildungen

war, d.h. daß aus a f a0 und b f b0 auch ab f a0 b0 folgte. Das ist im allge-
meinen für die durch eine Untergruppe U erzeugte Äquivalenzrelation  mod U
nicht richtig. Um ab  a0 b0 mod U aus a  a0 mod U und b  b0 mod U zu
folgern, müßten wir (a0 b0 ) 1  ab 2 U , d.h. b0 1 a0 1 ab 2 U , aus a0 1 a 2 U und
b0 1 b 2 U folgern. Hinreichend dafür ist es, b0 1 ub 2 U für jedes u 2 U und b,b0
mit b0 1 b 2 U zu haben. Nun gilt (8u 2 U )[b0 1 ub 2 U ] , U  b = b0  U
und wegen b  b0 mod U ist, wie (iv) im Beweis des Hilfsatzes gezeigt hat,
b0 U = bU . Hinreichend für die Verträglichkeit der Äquivalenzrelation  mod U
mit der Gruppenverknüpfung ist daher, daß b  U = U  b für alle b 2 G gilt. Dies
ist der Hintergrund für die folgende Definition.

2.2.11 Definition Eine Untergruppe U einer Gruppe G heißt ein Normalteiler von
G, falls b  U = U  b für alle b 2 G gilt.
Warnung Die Aussage
b  U = fb  x x 2 U g = U  b = fx  b x 2 U g
bedeutet nicht, daß bu = ub für u 2 U gilt, sondern
(8x 2 U )(9v 2 U )[b  x = v  b] und (8y 2 U )(9v 2 U )[y  b = b  v]:
Bemerkung Ist G eine abelsche, d.h. kommutative, Gruppe, so ist jede Untergrup-
pe von G bereits ein Normalteiler.

2.2.12 Satz Ist U ein Normalteiler von G, so ist G=U := fa  U a 2 Gg mit der
Verknüpfung (a  U ) Æ (b  U ) := ab  U eine Gruppe. Man nennt G=U die Faktor-
oder Quotientengruppe von G nach dem Normalteiler U .
Die Abbildung U : G ! G=U , die definiert ist durch U (a) := a  U , ist ein
Epimorphismus der Gruppen mit Kern ( ) = U . Sie heißt der kanonische Epimor-
phismus von G auf G=U . Für endliche Gruppen G gilt jGj = jG=U j  jU j.
Beweis: Wir haben in unseren Vorbetrachtungen bereits festgestellt, daß die Eigen-
schaft, Normalteiler zu sein, hinreicht, um a  a0 mod U ^ b  b0 mod U )
ab  a0 b0 mod U zu erhalten, d.h. aus a  U = a0  U und b  U = b0  U folgt
ab  U = a0 b0  U . Das bedeutet aber, daß die Verknüpfung (a  U ) Æ (b  U )
wohldefiniert ist. Offensichtlich ist U = 1  U ein linksneutrales Element und
a 1  U invers zu a  U . Damit ist G=U mit dieser Verknüpfung eine Gruppe. We-
gen  (ab) = (ab)  U = (a  U ) Æ (b  U ) =  (a) Æ  (b) ist  : G ! G=U ein
Homomorphismus. Zu a  U 2 G=U ist a 2 G ein Urbild unter  . Damit ist 
surjektiv und aus  (a) = 1  U = U folgt a = 1  a 2 U , d.h. Kern   U .
Umgekehrt ist für u 2 U stets  (u) = u  U = U . Damit ist Kern  = U . ut

52
2.3. Lineare Abbildungen

2.2.13 Satz Eine Untergruppe U  G ist genau dann ein Normalteiler, wenn U
der Kern eines Gruppenhomomorphismus ist.
Beweis: Ist U ein Normalteiler, so folgt nach Satz 2.2.12, daß U Kern des ka-
nonischen Epimorphismus ist. Ist f : G ! H ein Homomorphismus, so gilt x 2
a  Kern f genau dann, wenn x = au für ein u 2 Kern f ist. Die Gleichung ya = x
ist in G lösbar und es gilt f (a) = f (x)f (u) = f (x) = f (ya) = f (y )f (a), woraus
f (y) = 1 folgt. Also ist y 2 Kern f und damit x 2 Kern f  a. Damit haben wir
a  Kern f  Kern f  a und völlig analog ergibt sich auch Kern f  a  a  Kern f .
ut
Wir wollen diesen Abschnitt mit der Bemerkung beschließen, daß die hier ge-
machten Untersuchungen keinesfalls auf Gruppen und deren Homomorphismen
beschränkt sind, sondern für beliebige algebraische Strukturen gelten. In dieser
Vorlesung werden wir jedoch vorwiegend Gruppen und Vektorräume betrachten.

2.3 Lineare Abbildungen


2.3.1 Definition Sind V und W K -Vektorräume, so nennen wir eine Abbildung
f : V ! W linear oder einen Vektorraumhomomorphismus, wenn f ein Homo-
morphismus der additiven abelschen Gruppen ist und für alle 2 K und a 2 V
auch f ( a) = f (a) gilt.
Berücksichtigen wir die Tatsache, daß wir nun additiv notierte abelsche Gruppen
vorliegen haben, so erhalten wir die anschließenden Folgerungen in ähnlicher Wei-
se wie die Folgerungen 2.1.2.

2.3.2 Folgerungen Ist f : V ! W linear, so gelten:


(i) f (0V ) = 0W ;
(ii) f ( a) = f (a);
(iii) Kern (f ) = fa 2 V f (a) = 0W g ist ein Unterraum von V ;
(iv) Im (f ) = ff (a) a 2 V g ist ein Unterraum von W;
(v) f ist injektiv , Kern (f ) = f0V g = 0.
Beweis: Die Behauptungen (i), (ii) und (v) folgen nach 2.1.2 sofort aus der Tatsa-
che, daß f ein Homomorphismus der abelschen Gruppen ist. Um (iii) zu zeigen,
beachten wir zuerst, daß nach 2.1.2 Kern f eine Untergruppe der abelschen Gruppe
von V ist. Ist 2 K und a 2 Kern f , so folgt f ( a) = f (a) =  0W = 0W ,
d.h. daß Kern f gegenüber skalarer Multiplikation abgeschlossen ist. Damit ist

53
2. Lineare Abbildungen

Kern f ein Unterraum von V . Ähnlich erhalten wir (iv). Zunächst ist Im f ei-
ne Untergruppe der abelschen Gruppe von W . Für 2 K und b 2 Im f folgt
aber b = f (x) für ein x 2 V , und wir erhalten b = f (x) = f ( x), woraus
b 2 Im f folgt. ut
2.3.3 Lemma Sind f : V ! U , g: U ! W linear, so ist g Æ f : V ! W eben-
falls linear.

Beweis: Nach Lemma 2.1.3 ist g Æ f ein Homomorphismus der Gruppen. Wegen
(g Æ f )( a) = g(f ( a)) = g( f (a)) = g(f (a)) = (g Æ f )(a) ist g Æ f dann
aber auch linear. ut
2.3.4 Lemma Ist f : V ! W linear und bijektiv, so ist f 1: W ! V linear.
Beweis: Nach Lemma 2.1.4 ist f 1 : W ! V ein Homomorphismus der abel-
schen Gruppen. Durch Nachrechnen erhalten wir f 1 ( a) = f 1 ( f (x)) =
f 1 (f ( x)) = x = (f 1 (f (x))) = f 1 (a), wobei x das Urbild von a unter
f war. Damit ist f 1 linear. ut
2.3.5 Lemma Ist f : V ! W linear, so gelten:
(i) V = ha1 ; : : : ; an i ) f [V ] = Im (f ) = hf (a1 ); : : : ; f (an )i;
(ii) a1 ; : : : ; an linear abhängig ) f (a1 ); : : : ; f (an ) linear abhängig;
(iii) f (a1 ); : : : ; f (an ) linear unabhängig ) a1 ; : : : ; an linear unabhängig.
P
Beweis: (i): Ist b 2 f [V ], so gibt es x 2 V mit b = f (x) = f ( ni=1 i ai ) =
P n f (a ), d.h. b 2 hf (a ); : : : ; f (a )i.
i=1 i i 1 n
Die Aussagen (ii) und (iii) sind wechselseitig
Pn Kontrapositionen. EsP genügt daher,
a = 0 0 = f ( n a)=
eine
Pn zu beweisen. Wir zeigen (iii). Aus i=1 i i folgt i=1 i i
i=1 i f (ai ) und wegen der linearen Unabhängigkeit von f (a1 ); : : : ; f (an ) dar-
aus 1 = : : : = n = 0. ut
2.3.6 Satz Ist f : V ! W linear, so ist dim(Im (f ))  dim(V ).
Beweis: Ist fb1 ; : : : ; bn g eine Basis von V , so ist ff (b1 ); : : : ; f (bn )g nach Lem-
ma 2.3.5 (i) ein Erzeugendensystem von Im f . Damit ist dim(Im f )  n =
dim V . ut
2.3.7 Korollar Gilt V 
= W , so ist dim(V ) = dim(W ).
54
2.3. Lineare Abbildungen

Beweis: Ist f : V ! W ein Isomorphismus, so gilt nach Satz 2.3.6 dim V 


dim f [V ] = dim W . Da nach Satz 2.3.4 auch f 1 : W ! V ein Isomorphismus
ist, folgt gleichermaßen dim W  dim V . ut

2.3.8 Lemma Ist f : V ! W linear, so sind äquivalent:


(i) f ist injektiv.
(ii) a1 ; : : : ; an linear unabhängig , f (a1); : : : ; f (an) linear unabhängig.
Beweis: (i) ) (ii): Ist f : V ! W linear, so folgt nach Lemma 2.3.5 (iii) aus
der linearen Unabhängigkeit von f (a1 ); : : : ; f (an ) auch die lineare Pn Unabhängig-
keit von a1 ; : : : ; anP . Sind a1 ; : : : ; an linearPunabhängig und gilt i=1 i f (ai ) = 0,
so erhalten wir fP ( ni=1 i ai ) = 0, d.h. ni=1 i ai 2 Kern f . Ist nun f injektiv,
so folgt daraus ni=1 i ai = 0 und somit 1 = : : : = n = 0. Damit sind
f (a1 ); : : : ; f (an ) linear unabhängig.
(ii) ) (i): Sei fb1 ; : : : ; bmP g eine Basis desPUnterraums Kern f . Für a 2 Kern f
n n
erhalten wir 0 = f (a) = f ( i=1 i bi ) = i=1 i f (bi ), woraus wir 1 = : : : =
n = 0P wegen der linearen Unabhängigkeit von f (b1 ); : : : ; f (bn ) erhalten. Damit
ist a = ni=1 i bi = 0 und somit Kern f = 0. D.h. f ist injektiv. ut

2.3.9 Satz Sind V und W K -Vektorräume mit dim(V ) = dim(W ) < 1 und
f : V ! W eine lineare Abbildung, so sind äquivalent:
(i) f ist injektiv;
(ii) f ist surjektiv;
(iii) f ist bijektiv.
Beweis: Es genügt natürlich (i) , (ii) zu beweisen. Beginnen wir mit (i) ) (ii):
Sei f : V ! W injektiv. Nach Satz 2.3.6 folgt dim(Im f )  dim V und nach
Lemma 2.3.8 dim(Im f )  dim V . Damit ist dim(Im f ) = dim V = dim W . Da
Im f ein Unterraum von W ist, folgt nach Satz 1.2.27 (ii) Im f = W , und f ist
surjektiv.
(ii) ) (i): Ist fa1 ; : : : ; an g eine Basis von V , so ist hf (a1 ); : : : ; f (an )i = Im f =
W , da f surjektiv ist. Damit sind aber f (a1 ); : : : ; f (an ) linear unabhängig. Nach
Lemma 2.3.8 folgt daraus die Injektivität von f . ut

U  V ein Teilraum eines K -Vektorraumes V , so ist die Menge


2.3.10 Satz Ist
V=U := fa + U a 2 V g mit den Verknüpfungen (a + U )+(b + U ) := (a + b)+ U
55
2. Lineare Abbildungen

und  (a + U ) :=  a + U ein Vektorraum. Man nennt V=U den Quotientenraum


von U in V .
Der kanonische Epimorphismus  : V ! V=U , der definiert ist durch  (a) :=
a + U , ist linear mit Kern () = U .
Beweis: Zunächst ist U als Teilraum eine Untergruppe der abelschen Gruppe von
V . Damit ist U ein Normalteiler, und V=U wird nach Satz 2.2.12 mit der oben
definierten Verknüpfung eine Gruppe. Es bleibt also zu zeigen, daß die skalare
Multiplikation wohldefiniert ist und die Axiome in (V2) erfüllt. Wir beginnen mit
der Wohldefiniertheit. Sei dazu a + U = b + U und x 2 (a + U ). Dann gibt es
ein u 2 U mit x = a + u. Wegen a + U = b + U ist a = b + v für ein v 2 U ,
und wir erhalten x = a + u = (b + v ) + u = b + ( v + u) 2 (b + U ), da
v + u 2 U ist. Damit ist (a + U )  (b + U ), und die umgekehrte Inklusion folgt
analog. Die skalare Multiplikation ist also wohldefiniert. Nun ist ( + )(a + U ) =
( + )  a + U = (  a +  a) + U = ( a + U ) + ( a + U ). Damit gilt (V21).
Weiter erhalten wir  ((a + U ) + (b + U )) =  (a + b + U ) = ( (a + b)) + U =
( a + b) + U = ( a + U ) + ( b + U ), womit (V22) erfüllt ist. Nun berechnen
wir ( (a + U )) = ( a + U ) = ( a) + U = ( )a + U = ( )(a + U )
und haben damit (V23) nachgewiesen. Schließlich erhalten wir auch (V24) wegen
1  (a + U ) = (1  a) + U = a + U .
Wir wissen bereits nach Satz 2.2.12, daß  : V ! V=U ein Epimorphismus der
Gruppen mit Kern  = U ist. Wegen  ( a) = ( a) + U = (a + U ) =  (a)
ist  aber auch linear, und alles ist bewiesen. ut
2.3.11 Homomorphiesatz für Vektorräume Sind V , W beides K -Vektorräu-
me und ist f : V ! W eine lineare Abbildung, so gibt es einen Epimorphismus
f und einen Monomorphismus f derart, daß das folgende Diagramm
V
f -W
f
f 
?
V=Kern f
kommutiert, d.h. daß f = f Æ f gilt. Insbesondere ist dann V=Kern f 
= f [V ].
Beweis: Nach dem Homomorphiesatz für Gruppen (Satz 2.2.7) wissen wir bereits,
daß die Aussage des Satzes für die den Vektorräumen zugrunde liegenden Grup-
pen korrekt ist. Es bleibt daher nur zu zeigen, daß die Abbildungen f und f auch
linear sind. Für den kanonischen Epimorphismus haben wir das in Satz 2.3.10 be-
reits eingesehen. Wir müssen uns also nur noch davon überzeugen, daß sich die

56
2.4. Direkte Summen von Unterräumen

kanonische Einbettung f (a + Kern f ) := f (a) linear ist. Dazu berechnen wir


f ( (a + Kern f )) = f ( a + Kern f ) = f ( a) = f (a) = f (a + Kern f ).
Damit ist f linear, und alle Behauptungen folgen aus Satz 2.2.7. ut

2.4 Direkte Summen von Unterräumen


2.4.1 Definition Sei V ein K -Vektorraum und U1 ; : : : ; Un Unterräume von V . Wir
definieren
Xn X n
Ui := f xi xi 2 Ui g
i=1 i=1
Pn
und nennen i=1 Ui die Summe der Unterräume Ui .
Pn
2.4.2 Satz Sind UP
1 ; : : : ; Un Teilräume von V , so ist i=1 Ui wieder ein Teilraum
von V und es gilt ni=1 Ui = hU1 [ : : : [ Un i.
P
Beweis: Es genügt natürlich ni=1 Ui = hU1 [ : : : [ Un i zu zeigen, da hU1 [
[ nUni per definitionem
: : :P Sn ein Teilraum ist.PGilt xi 2 U i für i = 1; : : : ; n, so
n U  hSn U i. Ist umgekehrt
ist S i=1 x i 2 h i=1 U i i . Damit haben wir i=1 i P i=1 i
v 2 h ni=1 Ui i, so gibt es yi 2 Ui und i 2 K mit v = ni=1 i yi , wobei wir ggf.
i = 0 zulassen. Da alle Ui Unterräume P yi auch i yi 2 Ui . Setzen wir
P sind, ist mit
xi := i yi 2 Ui , so erhalten wir v = ni=1 xi 2 ni=1 Ui . ut
Ln
Wir erinnern an die Definition von i=1 Ui in (1.17).

2.4.3 Satz Die Abbildung


M n Xn
: Ui ! Ui
i=1 iP
=1
(x1 ; : : : ; xn ) 7! ni=1 xi
ist ein Epimorphismus der Vektorräume. Wir nennen die Summe der Unterräume
L  ein Isomorphismus ist. Direkte Summen von Unterräumen notieren
direkt, wenn
wir als ni=1 Ui oder U1  : : :  Un .

Beweis: Zunächst ist klar, daß die Abbildung  surjektiv ist. Wir haben daher
nur
Pn die Linearität Pnnachzuprüfen. Es ist ( (a1 ; : : : ; an )) = ( a1 ; : : : ; an ) =
a
i=1 i = (a1 ; : : : ; an )P
i=1 ai = P und ((a1P; : : : ; an )+(b1 ; : : : ; bn )) =
(a1 +b1; : : : ; an +bn) = i=1(ai +bi) = i=1 ai + ni=1 bi = (a1 ; : : : ; an )+
n n
(b1; : : : ; bn). Damit ist  linear. ut

57
2. Lineare Abbildungen

n
M n
X
2.4.4 Satz Seien U1 ; : : : ; Un Teilräume von V . Die Abbildung : Ui ! Ui
i=1 i=1
ist genau dann ein Isomorphismus, wenn gilt:
X n
(8i 2 f1; : : : ; ng)[Ui \ Uj = f0g]:
j =1
j 6=i
Insbesondere gilt U +W =U W , U \ W = f0g =: 0.
Beweis: Wegen seiner Surjektivität ist  genau dann bijektiv, wenn es injektiv ist.
): Dazu gehen wir von Ui \ Pnj=1 Uj =6 f0g für ein i 2 f1; : : : ; ng aus und
P j 6=i
wählen 0 6= xi 2 Ui \ nj=1 Uj = 6 f0g. Dann ist xi = Pnj=1 yi und damit
P j 6=i j 6=i
xi + nj=1( yi ) = 0 und somit ( y1 ; : : : ; yi 1 ; xi ; yi+1 ; : : : ; yn) 2 Kern .
j 6=i
Damit ist  nicht injektiv.
(: Hier gehen wir von Ui \ Pnj=1 Uj = f0g aus und betrachten (x1 ; : : : ; xn ) 2
Pj 6=i
Kern . Dann gilt aber xi = nj=1 xj für i = 1; : : : ; n und damit xi 2 Ui \
Pn j 6=i
j =1 U j = f0 g. Also ist xi = 0 für i = 1; : : : ; n und damit (x1 ; : : : ; xn ) = ~0,
j 6=i
d.h. Kern  = 0 und  ist injektiv. ut
Beachte Gilt V = U1      Un , so hat jedes v 2 V eine Darstellung v =
u1 +    + un . Ist v = u01 +    + u0n eine weitere Darstellung, so folgt wegen
der Injektivität von  schon (c1 ; : : : ; cn ) = (c01 ; : : : ; c0n ), d.h. ci = c0i für i =
1; : : : ; n. Die Darstellung als Summe ist bei direkten Summen von Unterräumen
also eindeutig.

2.4.5 Satz Sei V ein K -Vektorraum und U ein Teilraum von V . Dann gibt es einen
Teilraum W von V mit V = U  W . W heißt das Komplement von U in V .

Beweis: Sei B eine Basis von U . Nach Satz 1.2.20 finden wir eine Menge C  V ,
so daß B \ C = ; und B [ C eine Basis von V ist. Wir definieren W :=
hPC i. Ist v 2PV , so gibt es endliche Mengen I  B und J  C mit v =
b2I b b + c2J c c 2 U + W . Es bleibt als nur noch die Direktheit der Sum-
P Ist u 2 P
me nachzuweisen. U , w 2 W mit u + w = 0, so erhalten wir wieder
0 = u + w = b2I b b + c2J c c mit endlichen Mengen I  B und J  C .
Wegen der linearen Unabhängigkeit der Menge B [ CP folgt daraus b = 0 für
alle b 2 I und c = 0 für alle c 2 J . Also ist u = b2I b b = 0 und w =

58
2.4. Direkte Summen von Unterräumen

P
= 0, d.h. Kern  = f(u; w) 2 U  W u + w = 0g = f(0; 0)g, und
c2J c c
: U  W ! U + W ist injektiv. ut

2.4.6 Satz Ist V ein K -Vektorraum mit dim(V ) = n, so ist V = K n.


Bemerkung Satz 2.4.6 besagt insbesondere, daß K-Vektorräume gleicher (end-
licher) Dimension isomorph sind. Es gilt sogar, daß zwei endlich dimensionale
K-Vektorräume genau dann isomorph sind, wenn sie die gleiche Dimension haben.
Beweis: Wir wollen uns als erstes die Bemerkung klar machen. Sind zwei Vek-
torräume isomorph, so haben sie nach Korollar 2.3.7 gleiche Dimension. Haben
umgekehrt zwei Vektorräume V und W die gleiche endliche Dimension n, so gilt
V = Kn  = W und damit V  = W.
Nun zum Beweis des Satzes. Wir wählen eine BasisPBn := fb1 ; : : : ; bn g und defi-
nieren die Koordinatendarstellung hB (v ) von v = i=1 i bi bezüglich der Basis
B durch
hB : V ! K n
Pn
i=1 i bi 7! ( 1 ; : : : ; n ):
(2.2)

Wir behaupten, daß hB ein Isomorphismus der Vektorräume ist. Da B eine Basis
Pjedes v 2 V nach Satz 1.2.16 eine eindeutige Darstellung in der Form
ist, hat
v = ni=1 i bi . Damit ist hB auf ganz V wohldefiniert. Man rechnet Pn nun leicht
nach, daß hB linear ist. Zu jedem ( 1 ;P : : : ; n ) 2 K ist v := i=1 i bi ein
n
Urbild. Damit ist hB surjektiv. Gilt hB ( ni=1 i bi ) = ( 1 ; : : : ; n ) = 0, so folgt
1 = : : : = n = 0 und damit v = 0. Damit ist Kern hB = f0g und somit hB
auch injektiv. ut

2.4.7 Satz Für endlich dimensionale Vektorräume V und W gilt dim(V  W) =


dim(V ) + dim(W ).
Beweis: Ist dim V = m und dim W = n, so folgt nach Satz 2.4.6 V  = Km

und W = K . Seien B und C Basen von V bzw. W und hB : V ! K m und
n
hC : W ! K n die Koordinatendarstellungen bzgl. B und C . Für ( 1 ; : : : ; m ) 2
K m und ( 1 ; : : : ; n ) 2 K n definieren wir
( 1 ; : : : ; n ) ? ( 1 ; : : : ; m ) := ( 1 ; : : : ; m ; 1 ; : : : ; n ) 2 K m+n :
Die Abbildung
hBC : V  W ! K m+n
(v; w) 7 ! hB (v) ? hC (w)
59
2. Lineare Abbildungen

definiert dann, wie man leicht nachrechnet, einen Isomorphismus der Vektorräume.
Damit ist dim(V  W ) = dim K m+n = m + n = dim V + dim W . ut
2.4.8 Satz Sind Vi für i = 1; : : : ; n endlich dimensionale Vektorräume, so gilt
Yn M n Xn
dim( Vi ) = dim( Vi ) = dim(V ):
i=1 i=1 i=1
Beweis: Der Beweis folgt durch Induktion nach n aus Satz 2.4.7. ut
2.4.9 Satz Sind U; W endlich dimensionale Teilräume eines Vektorraumes V , so
gilt:
U +W =U W , dim(U + W ) = dim(U ) + dim(W ):
Beweis: Die Abbildung : U  W ! U + W ist surjektiv. Nach Korollar 2.3.7
und Satz 2.3.9 ist  genau dann injektiv, wenn dim(U + W ) = dim(U  W ) =
dim U + dim W ist. ut
2.4.10 Satz Sind U und W endlich dimensionale Teilräume eines Vektorraumes
V , so gilt dim(U + W ) = dim(U ) + dim(W ) dim(U \ W ).
Beweis: Da U \ W ein Teilraum von U und W ist, erhalten wir nach Satz 2.4.5
Teilräume U1 und W1 mit U = U1  (U \ W ) und W = W1  (U \ W ). Damit
ist U + W = U1 + W1 + (U \ W ). Für x 2 U1 \ (W1 + (U \ W )) folgt wegen
U1  U schon x 2 U1 \ (U \ W ) und damit x = 0. Aus x 2 W1 \ (U1 +(U \ W ))
und x 2 (U \ W ) \ (U1 + W1 ) folgt in analoger Weise x = 0. Damit ist nach
Satz 2.4.4 U + W = U1  W1  (U \ W ), und wir erhalten dim(U + W ) =
dim U1 + dim W1 + dim(U \ W ) = dim U dim(U \ W ) + dim W dim(U \
W ) + dim(U \ W ) = dim U + dim W dim(U \ W ). ut
2.4.11 Satz Sei V ein Vektorraum. Ist V  V=U .
= U  W , so ist W =
Beweis: Da V = U  W ist, gibt es zu jedem v 2 V eindeutig bestimmte
Vektoren u 2 U und w 2 W mit v = u + w. Wir definieren eine Abbildung
f : V ! W durch f (u + w) := w. Man rechnet mühelos nach, daß dann f eine
lineare Abbildung mit Kern f = U und Im f = W ist. Nach dem Homomorphie-
satz für Vektorräume folgt V=U = V=Kern f 
= Im f = W . ut
2.4.12 Satz Ist f : V ! W eine lineare Abbildung, so gilt dim(V ) =
dim(Kern f ) + dim(Im (f )).
60
2.5. Der Vektorraum Hom(V; W )

Beweis: Da Kern f ein Teilraum von V ist, erhalten wir nach Satz 2.4.5 einen
Teilraum W mit V = Kern f  W . Nach Satz 2.4.11 gilt dann W 
= V=Kern f  =
Im f . Damit folgt dim V = dim Kern f + dim Im f . ut

2.5 Der Vektorraum Hom(V ; W )


2.5.1 Definition Es seien V und W beides K -Vektorräume. Wir definieren
HomK (V; W ) := ff f: V ! W ^ f ist linearg:
Ist es klar oder unerheblich, um welchen Körper K es sich handelt, schreiben wir
Hom(V; W ) statt HomK (V; W ).

2.5.2 Satz Die Menge HomK (V; W ) wird mit den Verknüpfungen
 (f + g)(v) := f (v) + g(v)
und
 (  f )(v) :=  f (v)
zu einem K -Vektorraum.

Beweis: Durch Nachrechnen erhalten wir aus der Definition von f + g und f
f; g 2 Hom(V; W ) ) f + g 2 Hom(V; W ) (i)
und
f 2 Hom(V; W ) ) f 2 Hom(V; W ): (ii)
Wegen (f + (g + h))(v ) = f (v ) + (g + h)(v ) = f (v ) + (g (v ) + h(v )) =
(f (v) + g(v)) + h(v) = ((f + g) + h)(v) erhalten wir
(Hom(V; W ); +) ist Halbgruppe : (iii)
Definieren wir 0: V ! W durch 0(v) := 0W , so ist 0 2 Hom(V; W ), und wir
erhalten:
0 ist ein neutrales Element bezüglich + : (iv)
Ebenso folgt
f := 1  f ist invers zu f: (v)
Wegen (f + g)(v) = f (v) + g(v) = g(v) + f (v) = (g + f )(v) folgt

61
2. Lineare Abbildungen

(Hom(V; W ); +) ist abelsch: (vi)


Schließlich rechnen wir die folgenden Eigenschaften mühelos nach:
(f + g) = f + g und ( + )f = f + f (vii)
( f ) = ( )f (viii)
und
1  f = f: (ix)
Mit (i) – (ix) haben wir Hom(V; W ) als Vektorraum nachgewiesen. ut
2.5.3 Satz Gilt f; f1 ; f2 2 Hom(V; V 0) und g 2 Hom(V 0; W ), so folgt
(i) (g Æ f ) 2 Hom(V; W )
und
(ii) g Æ (f1 + f2 ) = (g Æ f1 ) + (g Æ f2 ).
Beweis: Die Behauptung (i) folgt aus Lemma 2.3.3. Die Behauptung (ii) rechnet
man einfach nach. ut
2.5.4 Satz Der Vektorraum HomK (V; V ) der Endomorphismen ist mit der Kom-
position von Abbildungen ein Ring mit Einselement.
Beweis: Aus Satz 2.5.3 erhalten wir sofort, daß Hom(V; V ) ein Ring ist. Die Iden-
tität auf V ist natürlich linear und liefert das Einselement des Ringes. ut
2.5.5 Definition Man nennt EndK (V ) := HomK (V; V ) den Endomorphismen-
ring von V.

2.5.6 Satz Die Menge GLK (V ) := ff f : V ! V ^ f ist linear und bijektiv g


bildet mit der Komposition eine Gruppe. Sie heißt die allgemeine lineare Gruppe
von V (General Linear Group). In der Regel lassen wir das Subskript K weg und
schreiben kurz GL(V ). Es ist GL(V )  End(V ).
Beweis: Die Identität auf V ist linear und bijektiv. Damit besitzt GL(V ) ein neu-
trales Element. Für f 2 GL(V ) ist nach Lemma 2.3.4 f 1 ebenfalls linear und
bijektiv. Damit hat jedes Element in GL(V ) ein Inverses. ut
2.5.7 Bemerkung EndK (V ) ist ein Ring mit 1, der nicht nullteilerfrei ist.

62
2.5. Der Vektorraum Hom(V; W )

Beweis: Sei V = U  W . Dann sind die Abbildungen fU : V ! V mit fU (u +


w) := u und fW : V ! V mit fW (u + w) := w beide linear und nicht die
Nullabbildung. Es gilt aber (fW ÆfU )(u+w) = fW (u) = 0 für alle v = u+w 2 V .
Damit ist fW Æ fU = 0, d.h., fU und fW sind Nullteiler. ut

63
2. Lineare Abbildungen

64
3. Matrizen

3.1 Basisdarstellung linearer Abbildungen


3.1.1 Beobachtung Es seien V und W endlich dimensionale K -Vektorräume und
B = fb1 ; : : : ; bm g eine Basis für V sowie C = fc1 ; : : : ; cn g eine Basis für W . Ist
f 2 HomK (V; W ) und v 2 V , so gilt
X m
v = ( i bi )
i=1
und somit
m
X m
X
f (v) = f ( ( i bi )) = ( i f (bi )):
i=1 i=1
Damit ist die Abbildung f durch die Werte f (b1 ); : : : ; f (bm ) eindeutig bestimmt.
Umgekehrt definiert jede Abbildung k : B ! C eine lineare Abbildung k durch
die Festsetzung
m
X m
X
k( ( i bi )) := ( i k(bi )) 2 W:
i=1 i=1
Nun ist f (bi ) 2W i = 1; : : : ; m. Da fc1 : : : cn g Basis von W
für ist, gibt es
ij 2 K für j = 1; : : : ; n mit
n
X
f (bi) = ij cj :
j =1
Damit ist f durch die Körperelemente ( ij ) i=1:::m eindeutig bestimmt.
j =1:::n

3.1.2 Definition Eine m  n Matrix über einem Körper K ist ein Schema der Form

65
3. Matrizen

0    1n 1
11
@ ..
.
..
.
.. A
. =: ( ij ) i=1:::m =: ( ij )mn =: ( ij )m;n
j =1:::n
m1    mn
mit ij 2 K . Die Menge der m  n Matrizen über K bezeichnen wir mit K mn ,
d.h. es ist
K (m;n) := K mn := fA A ist eine m  n-Matrix über K g:
Die n-tupel ( i1 ; : : : ; in ) für i = 1; : : : ; m heißen die Zeilen der Matrix, die
Vektoren
0 1
1j
B .. C für j = 1; : : : ; n
@ . A
mj
heißen die Spalten der Matrix. Die Elemente ii für i = 1; : : : ; minfm; ng bilden
die Hauptdiagonale, die Elemente (m k)(k+1) für k = 0; : : : ; minfm; ng 1 die
Nebendiagonale der Matrix.
Bemerkung Die Schreibweise von Matrizen als rechteckige Schemata hat ledig-
lich (sehr gute) pragmatische Gründe. Man kann eine m  n-Matrix
0    1n 1
11
@ ..
.
.. A
.
m1    mn
als ein m-tupel von n-tupeln ( 11 ; : : : ; 1n ); : : : ; ( m1 ; : : : ; mn ) also als Vektor
aus (K n )m auffassen.
Dies ist der Hintergrund des folgenden Satzes.

3.1.3 Satz Mit den Verknüpfungen


 ( ij )m;n + ( ij )m;n := ( ij + ij )m;n
und
  ( ij )m;n := (  ij )m;n
wird der K mn zu einem Vektorraum.

Beweis: Die eben eingeführten Verknüpfungen sind genau die Verknüpfungen des
(K n )m = K nm . Wir wissen aber schon, daß K nm ein Vektorraum ist. Im we-
sentlichen ist die m  n-Matrizen-Schreibweise nur eine bequemere Schreibweise
für den Vektorraum K nm .

66
3.1. Basisdarstellung linearer Abbildungen

Das Nullelement im K mn bezeichnen wir durch


0
0    0. 1
0 := @ ... ..
. .. A
0  0
Das Inverse (bzgl. der Addition) zu ( ij ) ist ( ij ). Wir wollen in Zukunft immer
vom Negativen eines Elementes einer additiven abelschen Gruppe sprechen, wenn
wir das Inverse bezüglich der Addition meinen. Das erspart Verwirrungen, da wir
auf den Matrizen auch eine multiplikative Struktur einführen werden.

3.1.4 Lemma Ist V ein Vektorraum der Dimension n, so wird die Abbildung idV 2
Hom(V; V ) bezüglich jeder Basis B von V durch die Matrix (Æij )n;n dargestellt.
Die Matrix
0 1
1 0  0
B 0 1  0C
(Æij )n;n = B
@ ... .. C
.. A
. .
0 0  1
heißt Einheitsmatrix und wird mit E(n;n) bezeichnet. Oft ist aus dem Zusammen-
hang klar, welches n gemeint ist. Dann schreiben wir kurz E.
Pn
Beweis: Es ist id V (bi ) = bi = j =1 Æij bj . ut

Notationen
Anstatt K m1 schreiben wir Km und nennen Km den Vektorraum der Spaltenvek-
toren über K .
0 1
1
Km := K m1 := f@ .. A
. i 2 K g:
m
Statt K 1n schreiben wir K n und nennen K n den Vektorraum der Zeilenvektoren
über K .
K n := K 1n := f( 1 ; : : : ; n ) i 2 K g:
3.1.5 Satz Seien V und W K -Vektorräume und B = fb1 ; : : : ; bm g sowie C =
fc1 ; : : : ; cng Basen von V bzw. W . Wir definieren eine Abbildung
DB;C : HomK (V; W ) ! K mn
durch

67
3. Matrizen

DB;C (f ) := ( ij )ij=1 ;:::;m


=1;:::;n
falls
n
X
f (bi ) = ij cj
j =1
für alle i = 1; : : : ; m gilt.
Die Matrix DB;C (f ) heißt die Matrixdarstellung von f bezüglich der Basen B und
C . Die Abbildung DB;C ist ein Isomorphismus der Vektorräume.
Beweis: Wir haben bereits in 3.1.1 beobachtet, daß die Matrix DB;C (f ) für al-
le f 2 Hom(V; W ) definiert P ist. Umgekehrt erzeugt jede Matrix A = ( ij )m;n
vermöge kA;B;C (bi ) := nj=1 ij cj eine Abbildung kA;B;C : B ! C , die sich,
wie in 3.1.1 bemerkt, zu einer linearen Abbildung kA;B;C : V ! W fortsetzen
läßt. Dann gilt DB;C (kA;B;C ) = A und ist DB;C eine surjektive Abbildung. Wir
haben ihre Linearität nachzurechnen. Dazu beobachten wir, daß mit DB;C (f ) =
( ij ) und DB;C (g) = ( ij ) gilt
X n X n X n
(f + g)(bi ) = f (bi ) + g(bi ) = ij cj + ij cj = ( ij + ij )cj
j =1 j =1 j =1
undP damit DB;C (fP + g ) = DB;C (f ) + DB;C (g). Analog erhalten wir f (bi ) =
 j =1 ij cj = nj=1 ij cj und damit DB;C ( f ) =  DB;C (f ).
n
Ist DB;C (f ) = 0, so folgt f (bi ) = 0 für i = 1; : : : ; m. Damit ist f die Nullabbil-
dung, d.h. Kern (DB;C ) = f0g, und DB;C ist injektiv. ut
3.1.6 Korollar Sind V und W endlich dimensionale Vektorräume der Dimensio-
nen m und n, so gilt:
Hom(V; W ) = K mn
und
dim(Hom(V; W )) = dim(V )  dim(W ):
3.1.7 Beobachtung Seien V , V 0 und W Vektorräume, f 2 Hom(V; V 0 ),
g 2 Hom(V 0 ; W ), B = fb1 ; : : : ; bm g eine Basis von V , C = fc1 ; : : : ; ck g ei-
ne Basis von V 0 und D = fd1 ; : : : ; dn g eine Basis von W .
Ist DB;C (f ) = ( ij )m;k und DC;D (g ) = ( ij )k;n , so ist
k
X
DB;D (g Æ f ) = ( il lj )i=1;:::;m :
j =1;:::;n
l=1

68
3.1. Basisdarstellung linearer Abbildungen

Die eben gemachte Beobachtung ist die Motivation für die folgende Definition des
Produktes von Matrizen.

3.1.8 Definition (Matrixmultiplikation) Sei A 2 K mk , B 2 K kn mit A =


( ij )i=1;:::;m und B = ( ij ) i=1;:::;k . Wir definieren
j =1;:::;k j =1;:::;n
k
X
A  B := ( il lj )i=1;:::;m :
j =1;:::;n
l=1
und nennen A  B das Produkt der Matrizen A und B.

Aus der Definition der Matrixmultiplikation und Beobachtung 3.1.7 erhalten wir
sofort den folgenden Satz.

3.1.9 Satz Es seien V , V 0 und W K -Vektorräume mit dim(V ) = m, dim(V 0 ) = k


und dim(W ) = n. Sind B , C und D Basen von V , V 0 und W , f 2 Hom(V; V 0 )
und g 2 Hom(V 0 ; W ), so gilt
DB;D (g Æ f ) = DB;C (f )  DC;D (g):
Warnung Das Ergebnis des Satzes 3.1.9 wird oft als unschön empfunden, da
die Abbildung DB;B : Hom(V; V ) ! K nn kein Homomorphismus der Ringe,
sondern ein sogenannter Antihomomorphismus wird. D.h. es gilt DB;B (g Æ f ) =
DB;B (f )  DB;B (g) anstatt DB;B (g Æ f ) = DB;B (g)  DB;B (f ). WillPnman dies ver-
meiden, so muß man DB;C (f ) := ( ij )m;n definieren für f (bi ) = j =1 ji cj und
ij := ji für i = 1; : : : ; n und j = 1; : : : ; m. Die so erhaltene Matrix ist dann
die transponierte (s.u.) der von uns eingeführten Matrix. Wir haben uns hier für
diese etwas einfachere Definition entschlossen und nehmen dafür die Unschönheit
in Kauf. Die meisten Lehrbücher gehen jedoch den anderen Weg. Für die Ent-
wicklung der Theorie ist die Definition der darstellenden Matrix jedoch nicht ent-
scheidend.

Beachte Wenn Sie zwei Matrizen A und B multiplizieren wollen, so muß A 2


K mk und B 2 K kn sein, d.h. die Länge der Zeilen von A muß mit der Länge
der Spalten von B übereinstimmen.
Ein Spezialfall der Matrixmultiplikation ist die Multiplikation eines Zeilenvektors
0 1
1
a := ( 1 ; : : : ; n ) 2 K n = K 1n mit einem Spaltenvektor b := @ ... A 2 Kn =
n
K n1 , die das Körperelement
69
3. Matrizen

n
X
ab= j j
j =1
ergibt. Dem einen oder anderen mag dieses Produkt als “Skalarprodukt” oder “in-
neres Produkt” zweier Vektoren0von 1 der Schule her bekannt sein. Schreiben wir
a1
die Matrizen als Matrix A = @ .. A von Zeilenvektoren ai 2 K k und B =
.
am
(b1 ; : : : ; bn ) als Matrix von Spaltenvektoren bj 2 Kk , so erhalten wir A  B =
(ai bj )m;n . Die Merkregel Zeile mal Spalte ist hier oft sehr nützlich.
Man kann eine Matrix auch in “Kästchen” unterteilen. Schreiben wir beispielswei-
se
   
A= A 1 A2
A3 A4 und B = B3 B4
B1 B2

mit A1 2 K pq , A2 2 K p(n q) , A3 2 K (m p)q , A4 2 K (m p)(n q) , B1 2


K qs, B2 2 K q(k s), B3 2 K (n q)s , B4 2 K (n q)(k s) , so erhalten wir
 
A  B + A 
AB= A B +A B A B +A B ;
1 1 2 B 3 A 1  B2 + A 2  B4
3 1 4 3 3 2 4 4
wie man leicht nachrechnet. Auch hier gilt das Prinzip “Zeile mal Spalte”.

3.1.10 Bemerkung Für Matrizen gelten folgende Rechenregeln:


(i) (  A)  B = A  (  B) =  (A  B) für 2 K , A 2 K mn , B 2 K nk .
(ii) A  (B + C) = A  B + A  C für A 2 K mn , B; C 2 K nk .
(iii) (A + B)  C = A  C + B  C für A, B 2 K mn , C 2 K nk .
(iv) (A  B)  C = A  (B  C) für A 2 K mn , B 2 K nk , C 2 K kl .
Beweis: Nach der Wahl geeigneter Basen erhalten wir A = DB;C (f ) für ein
f 2 Hom(K m ; K k ), B = DC;D (g) für ein g 2 Hom(K k ; K n ). Wegen
(g Æ f )(v) =  g(f (v)) = g( f (v)) = (g Æ f )(v) haben wir
(g Æ f ) = (g Æ f ) und (g Æ f ) = g Æ f: (i)
Damit erhalten wir ( A)B = ( DB;C (f ))  DC;D (g ) = DB;C ( f )  DC;D (g ) =
DB;D (g Æ f ) = DB;D ( (g Æ f )) = DB;D (g Æ f ) =  (DB;C (f )  DC;D (g)) =
(AB) und ( A)B = DB;D (g Æ f ) = DB;D ( g Æ f ) = DB;C (f )DC;D ( g ) =
A( B). Damit ist die Aussage (i) bewiesen.
Sei C = DC;D (h) für ein h 2 Hom(K k ; K n ). Dann ist A(B + C) =
DC;D ((g + h) Æ f ) = DC;D (g Æ f + h Æ f ) = DC;D (g Æ f ) + DC;D (h Æ f ) =
70
3.1. Basisdarstellung linearer Abbildungen

(DB;C (f )  DC;D (g)) + (DB;C (f )  DC;D (h)) = AB + AC: Womit (ii) bewiesen
ist. Die Aussage (iii) zeigt man völlig analog.
Sei nun C = DD;E (h) für ein h 2 Hom(K n ; K p ). Dann folgt (AB)C =
(DB;C (f )DC;D (g))DD;E (h) = DB;D (g Æ f )DD;E (h) = DB;E (h Æ (g Æ f )) =
DB;E ((h Æ g) Æ f )) = DB;C (f )  DC;E (h Æ g ) = A(DC;D (g)  DD;E (h)) =
A(BC). Damit ist dann auch (iv) bewiesen. ut
3.1.11 Satz Die quadratischen Matrizen des K nn bilden mit der Matrixadditi-
on und der Matrixmultiplikation einen Ring mit der Einheitsmatrix als Einsele-
ment. Ist V ein Vektorraum mit dim V = n und B eine Basis von V , so ist
DB;B : End(V ) ! K nn ein Antiisomorphismus der Ringe, d.h. es gilt
DB;B (g Æ f ) = DB;B (f )  DB;B (g).
Beweis: Die Ringaxiome wurden in 3.1.10 nachgerechnet. Da DB;B in Satz 3.1.5
als Vektorraumisomorphimus nachgewiesen wurde, ist diese Abbildung bijektiv.
Daß ein Antihomomorphismus vorliegt, folgt aus Satz 3.1.9. Wir werden im näch-
sten Abschnitt sehen, daß dieser Antiisomorphismus sich mühelos zu einem Iso-
morphismus ergänzen läßt. ut
3.1.12 Bemerkung Ein K -Vektorraum V , auf dem noch zusätzlich eine Ver-
knüpfung : V  V ! V definiert ist, heißt eine Algebra. Der K nn bildet mit
der Matrixmultiplikation die Algebra der quadratischen Matrizen. Ebenso bilden
die Endomorphismen eines Vektorraumes mit der Komposition von Abbildungen
eine Algebra.

3.1.13 Definition Eine Matrix A 2 K nn heißt invertierbar, wenn es eine Matrix
B 2 K nn gibt, mit A  B = E(n;n) .
Die Menge der invertierbaren Matrizen des K nn bezeichnen wir mit GL(n; K ),
d.h.
GL(n; K ) := fA 2 K nn (9B 2 K nn )[A  B = E]g

3.1.14 Satz Die Menge GL(n; K ) bildet mit der Matrixmultiplikation eine Grup-
pe. Sie heißt die allgemeine lineare Gruppe. Für eine Basis B eines K -Vektorraums
der Dimension n gilt GL(n; K ) = fDB;B (f ) f 2 GL(V )g.
Beweis: Ist f 2 GL(V ) und A = DB;B (f ), so gibt es f 1 2 Gl(V ), und
es gilt E(n;n) = DB;B (f Æ f 1 ) = DB;B (f 1 )  DB;B (f ), und wir sehen, daß
DB;B (f ) 2 GL(n; K ) ist. Ist umgekehrt A 2 GL(n; K ), so sind die Abbildungen
kA;B;B und kA 1 ;B;B (vgl. den Beweis des Satzes 3.1.5) in End(V ) und es folgt
DB;B (id V ) = E = A 1  A = DB;B (kA;B;B Æ kA 1 ;B;B ) und damit kA;B;B 2
71
3. Matrizen

GL(V ). Damit ist GL(n; K ) = fDB;B (f ) f 2 GL(V )g und eine Gruppe, da


GL(V ) eine Gruppe und DB;B ein Antiisomorphismus ist. ut
Wir wollen den Abschnitt damit beschließen, eine kanonische Basis des K n
m 
anzugeben. Dazu definieren wir die Matrizen

k;l = (Æik  Æjl )ij=1


Em;n ;:::;m :
=1;:::;n
(3.1)

Das bedeutet, daß Em;nk;l die m  n-Matrix ist, die genau im Schnittpunkt der k -ten
Zeile und l-ten Spalte eine 1 und sonst lauter Nullen stehen hat. Wenn m und n
aus dem Zusammenhang ersichtlich sind, lassen wir die oberen Indizes weg und
schreiben kurz Ek;l .

3.1.15 Satz Die Menge m;n E := fEm;n


k;l k = 1; : : : ; m; l = 1; : : : ; ng ist eine
Basis des K mn .
E
Beweis: Offensichtlich ist m;n genau die kanonische Basis des K mn . ut

3.2 Der duale Raum und die transponierte Matrix


3.2.1 Definition Für A = ( ij )i=1;:::;m 2 K mn sei At := ( ij ) i=1;:::;n 2 K nm
j =1;:::;n j =1;:::;m
mit ij = ji für i = 1; : : : ; n; j = 1; : : : ; m.
At heißt die zu A transponierte Matrix. Sie entsteht durch Spiegelung an der
Hauptdiagonalen.
Um die geometrische Bedeutung der transponierten Matrix genauer zu studieren,
führen wir den Begriff des dualen Raumes ein.

3.2.2 Definition Sei V ein K -Vektorraum. Wir definieren V  := Hom(V; K ).


Man nennt V  den zu V dualen Raum.
In der obigen Definition wird der Körper K als ein eindimensionaler Vektorraum
über sich selbst aufgefaßt. Eine lineare Abbildung von einem Vektorraum V in
dessen Grundkörper bezeichnet man auch als eine Linearform. Der duale Raum
V  ist also die Menge der Linearformen von V in K .
3.2.3 Satz Ist dim(V ) < 1, so ist V = V  .
Beweis: Wegen dim V  = dim Hom(V; K ) = dim V  dim K = dim V folgt dies
aus der Bemerkung zu Satz 2.4.6. ut
Der Isomorphismus, der sich auf Grund von Satz 3.2.3 ergibt, ist allerdings kein
sehr natürlicher. Wir erhalten ihn nach Wahl von Basen B für V und C für V 

72
3.2. Der duale Raum und die transponierte Matrix

als Komposition hC 1 Æ hB , wobei die Basen B und C nichts miteinander zu tun


haben müssen.
Ein Vektorraum und sein dualer Raum sind jedoch viel enger miteinander ver-
knüpft. Das wollen wir im folgenden herausarbeiten.

3.2.4 Satz Ist B = fbi i 2 I g eine Basis von V und setzen wir
Xn X n
b : V
i ! K bi ( j bj ) := j Æij ;
j =1 j =1
so ist die Menge B  := fbi i 2 I g  V  linear unabhängig, und es gilt bi (bj ) =
Æij .
P
Beweis:
Pn Es folgt nach 3.1.1, daß durch die Festsetzung bi ( njP j bj ) :=
j Æ ij eine Linearform mit b (bj ) = Æij definiert wird. Gilt nun =1 n i b =
j =1 P i P P i=1 i
0, so erhalten wir 0 = ( ni=1 i bi )(bk ) = ni=1 i bi (bk ) = ni=1 i Æik = k für
k = 1; : : : ; n. Also ist 1 = : : : = n = 0, und B  ist linear unabhängig. ut
3.2.5 Korollar Ist v 2V 6= 0, so gibt es ein  2 V  mit (v) 6= 0.
und v
P
Beweis: Sei B eine Basis von V und v = ni=1 i bi . DannP 6 0 für minde-
gilt j =
stens ein j 2 f1; : : : ; ng. Damit erhalten wir aber bj (v ) = i=1 i bj (bi ) = j =
 n 6
0. ut
3.2.6 Lemma Ist dim(V ) = dim(W ) = n, f : V ! W eine lineare Abbildung
und gibt es eine Basis B von V , so daß f [B ] eine Basis von W ist, so ist f ein
Isomorphismus.
Beweis: P Die Abbildung f istPsurjektiv, da sich jedes w 2 W als Linearkombinati-
onP w = ni=1 i fP (bi ) = f ( ni=1 i bi ) mit bi 2 B darstellen läßt. Ist 0 = f (v) =
f ( i=1 i bi ) = ni=1 i f (bi ), so folgt wegen der linearenPUnabhängigkeit von
n
f (b1 ); : : : ; f (bn ) schon 1 = : : : = n = 0 und damit v = ni=1 i bi = 0. Damit
ist Kern f = f0g und f ist injektiv. ut
3.2.7 Satz Ist V ein endlich dimensionaler Vektorraum und B = fb1 ; : : : ; bn g eine
Basis von V , so ist B  = fb1 ; : : : ; bn g eine Basis von V  und die Abbildung
: V! V n
n
X X
v = i bi 7 ! i bi =: v
i=1 i=1
ein Isomorphismus der Vektorräume. Man nennt B  die zu B duale Basis.

73
3. Matrizen

Beweis: Wir wissen nach Satz 3.2.4, daß b 1 ; : : : ; b n linear unabhängig sind. Zu

zeigen bleibt daher, daß
Pn sie auch ein Erzeugendensystem bilden. Pn Ist  2 V , so
zeigen wir, daß  = Pi=1 (bi )bi ist. Dies ist aber wegen ( i=1 (bi )bi )(bj ) =
P n (b )b (b ) = n (b )Æ = (b ) für j = 1; : : : ; n sofort klar. Da die
i=1 i i j i=1 i ij j
Abbildung  : V ! V  die Basis B auf die Basis B  abbildet und V und V  die
gleiche Dimension haben, folgt nach Lemma 3.2.6, daß  ein Isomorphismus ist.
ut
Man sollte im vorherigen Beweis beachten, daß er nur für endlich dimensiona-
le Vektorräume funktioniert. Ist V nämlich unendlich dimensional, so wissen wir
zwar, daß für jedes v 2 V eine endliche Teilmenge fb1 ; : : : ; bn P
P g  B mit v =
n b existiert und erhalten für ein  2 V  daraus (v ) = n (b ) =
Pin=1 i P i
n (b )b )(b ), d.h. (v ) = (Pn (b )b )(v ), aber i=1 i i
i=1 i ( j =1 j j i j =1 j j die Menge
fb1 ; : : : ; bng läßt sich nicht uniform angeben, sondern hängt von der Darstellung
von v durch Basisvektoren ab. So ist die Abbildung  für unendlich dimensionale
Vektorräume zwar injektiv, aber im allgemeinen nicht surjektiv.

3.2.8 Satz Ist f 2 Hom(V; W ) und  2 W  , so ist die Abbildung f  : W  ! V  ,


die definiert ist durch f  () :=  Æ f in Hom(W  ; V  ). Wir nennen f  die zu f
duale Abbildung. Sind V und W endlich dimensional und sind B und C Basen von
V und W , so gilt DC ;B (f  ) = DB;C (f )t .
Beweis: Aus der Definition von f  folgt die Kommutativität des folgenden Dia-
gramms.
V
f-W
@ Æf 
f  ()@@
R ?
K

Damit ist f  () 2 Hom(V; K ) = V  . Wegen f  ( 1 + 2 ) = ( 1 + 2 ) Æ f =


(1 Æ f ) + (2 Æ f ) = f  (1 ) + f  (2 ) ist f  linear.
Sind nun V und W endlich dimensional mit Basen P B = (b1 ; : : : ; bm ) und C =
(c1 ; : : : ; cn ) und DB;C (f ) = ( ij ), so folgt f (bi ) = nj=1 ij cj für i = 1; : : : ; m.
Sei DC  ;B  (f  ) = ( ij ). Wir behaupten, daß dann
ij = ji für i = 1; : : : ; n und j = 1; : : : ; m (i)
gilt. Zunächst erhalten wir nämlich
Xm Xm
f  (ci )(bj ) = ( ik bk )(bj ) = ik bk (bj ) = ij (ii)
k=1 k=1

74
3.2. Der duale Raum und die transponierte Matrix

und dann auch


X n X n
f (c )(bj ) = c (f (bj )) = c ( jk ck ) = jk c (ck ) = ji :
i i i i (iii)
k=1 k=1
Aus (ii) und (iii) folgt aber sofort (i). ut
3.2.9 Satz Die Abbildung  : Hom(V; W ) ! Hom(W  ; V  ) mit f 7 ! f  ist
ein Monomorphismus der Vektorräume. Sind V und W endlich dimensional, so ist
 ein Isomorphismus.
Beweis: Sei f 2 Hom(V; W ). Nach Satz 3.2.8 gilt f  : W  ! V  . Um die Li-
nearität nachzuweisen, berechnen wir (vgl. den Beweis von Satz 3.1.10) ( f +
g) () =  Æ ( f + g) = ( Æ f ) + ( Æ g) =  f  () +  g (), woraus
( f + g) = f  + g folgt. Damit ist  linear.
Sei f 2 Kern ( ). Nehmen wir f 6= 0 an, so gibt es ein v 2 V mit f (v ) 6= 0
und nach Korollar 3.2.5 damit ein  2 W  mit 0 6= (f (v )) = ( Æ f )(v ) =
(f  ())(v). Damit ist f  () 6= 0 und folglich auch f  6= 0, was unserer Annahme
f 2 Kern ( ) widerspricht. Damit ist  injektiv.
Ist nun dim V = m < 1 und dim W = n < 1, so gilt dim Hom(V; W ) =
dim V  dim W = dim V   dim W  = dim Hom(W  ; V  ) und nach Satz 2.3.9 ist
dann  bereits ein Isomorphismus. ut
3.2.10 Satz Für f 2 Hom(V; V 0 ), g 2 Hom(V 0 ; W ) ist (g Æ f ) = f  Æ g  . Damit
ist die Abbildung  : End V ! End V  ein Antimonomorphismus der Ringe.
Insbesondere gilt dann (A  B)t = Bt  At für Matrizen A und B. Nach Wahl einer
Basis B für einen Vektorraum V der Dimension n < 1 ist die Abbildung
tÆD nn
B;B : End V ! K
f 7 ! DB;B (f )t
ein Isomorphismus der Algebren.
Beweis: Die erste Behauptung des Satzes entnehmen wir direkt dem folgenden
Diagramm
f 0 g
V
?
!V ?
! W?
(gÆf ) ()? ?
yf  (g ()) yg () y
?

K K K:
Da  nach Satz 3.2.9 injektiv ist, folgt wegen (gf ) = f  g  sofort, daß ein Anti-
monomorphismus der Endomorphismenringe vorliegt. Ist V endlich dimensional,
so ist  ein Antiisomorphismus.

75
3. Matrizen

Ist A = DB;C (f ) und B = DC;D (g ) für f 2 Hom(V; V 0 ), g 2 Hom(V 0 ; W )


und geeigneten Basen B , C und D für V , V 0 und W , so erhalten wir (AB)t =
(DB;C (f )DC;D (g))t = (DB;D (g Æ f ))t = DD ;B ((g Æ f ) ) = DD;B (f  Æ g ) =
DD ;C  (g )  DC ;B (f  ) = DC;D (g)t  DB;C (f )t = Bt  At .
Wir haben das folgende kommutative Diagramm

End(V )
 - End(V  )
Q 
DB ;B ÆQQ
s nn +DB;B
K
Im Zusammenhang mit Satz 3.1.9 haben wir schon bemerkt, daß die Abbildung
DB ;B : End(V  ) ! K nn ein Antihomomorphismus der Ringe ist. Nach Satz
3.1.5 ist sie ein Isomorphismus der Vektorräume. Da auch  ein Isomorphismus
der Vektorräume und ein Antihomomorphismus der Ringe ist und die Komposi-
tion zweier Antihomomorphismen einen Homomorphismus ergibt, erhalten wir
DB ;B Æ als einen Isomorphismus sowohl der Vektorräume als auch der Ringe
und damit als einen Isomorphismus der Algebren. Nun gilt aber DB  ;B  (f  ) =
DB;B (f )t , d.h. t Æ DB;B = DB ;B Æ . ut
Bemerkung Satz 3.2.8 ist der Grund, weswegen man üblicherweise die darstel-
lende Matrix eines Homomorphismus f 2 Hom(V; W ) bezüglich zweier Basen B
und C von V bzw. W als (DB;C (f ))t (in unserer Notation) definiert. Man erhält
die Abbildung f 7 ! darstellende Matrix von f dann direkt als einen Isomorphis-
mus der Algebren.
Sieht man sich Satz 3.2.9 nochmal genauer an, so bemerkt man, daß der Isomor-
phismus zwischen Hom(V; W ) und Hom(W  ; V  ) einfacher anzugeben ist, als
der zwischen V und V  , zu dessen Definition wir eine Basis benötigen. Der Ho-
momorphismus f 7 ! f  ist dagegen unabhängig von der Wahl einer Basis. Man
sagt daher, daß Hom(V; W ) und Hom(W  ; V  ) kanonisch isomorph sind.
Zwischen V und dem dualen Raum V  sind solche kanonische Isomorphismen
nicht bekannt. Anders ist die Situation, wenn wir zum dualen des dualen Raum-
es, d.h. zu V  übergehen. Dort erhalten wir im endlich dimensionalen Fall einen
kanonischen Isomorphismus.

3.2.11 Satz Die Abbildung  : V ! V  , V 3 v 7 ! v  2 V  mit v  () :=


(v) für  2 V  definiert einen kanonischen, d.h. basisunabhängigen, Monomor-
phismus von V in V  . Ist dim(V ) < 1, so ist  ein kanonischer Isomorphismus.
Beweis: Wegen v (  + ) = (  + )(v) = ((v)) + ((v)) = 
v () +  v () ist v 2 Hom(V  ; K ) = V  .
 

76
3.2. Der duale Raum und die transponierte Matrix

Weiter erhalten wir ( v + w) () = ( v + w) =  (v) +  (w) =


 v ()+  w () = (  v +  w )(), d.h. ( v + w) =  v +  w ,
und wir haben die Abbildung  als linear erkannt.
Ist v 2 Kern  , so gilt v  () = (v ) = 0 für alle  2 V  . Für v 6= 0 gibt es
aber nach Korollar 3.2.5 ein  2 V  mit (v ) 6= 0. Damit folgt v = 0 und die
Abbildung  ist injektiv.
Ist V endlich dimensional, so folgt dim V  = dim V  = dim V und nach Satz 2.3.9
ist dann  ein Isomorphismus. ut
Man nennt die Abbildung V 3 v 7! v  2 V  die kanonische Einbettung von V
in V  . Es hat sich als ungemein nützlich erwiesen, die Urbilder und Bilder kano-
nischer Einbettung zu identifizieren, d.h. als gleiche Objekte zu betrachten. Daher
werden wir im folgenden sehr oft einen Vektor v 2 V und die mit ihm kanonisch
assoziierte Abbildung v  : V  ! K als die gleichen Objekte betrachten. Auf
diese Weise läßt sich V als Teilraum von V  auffassen. Ist V endlich dimensional,
so betrachten wir V und V  in der Regel als die gleichen Räume. Die Nützlichkeit
dieser Betrachtungsweise soll im folgenden klarer werden. Eine erste Anwendung
bringt bereits der folgende Satz.

3.2.12 Satz Sind V und W endlich-dimensionale Vektorräume, so gilt f  (v  ) =


(f (v)) für alle f 2 Hom(V; W ). Ist B eine Basis von V und C eine Basis von
W , so folgt DB;C (f ) = DB ;C  (f  ).
Beweis: Für beliebiges  2 W  erhalten wir f  (v )() = v (f  ()) =
(f ())(v) = (f (v)) = f (v) (), d.h. f  (v ) = f (v) . P

Ist DB;C (f ) = ( ij ), so erhalten wir f  (b
P
 n 
i ) = f (bi ) = ( j =1 ij cj ) =
n c und damit D (f ) = D   (f  ): ut
j =1 ij j B;C B ;C
Bemerkung Wir wollen einmal studieren, wie die Aussage des Satzes 3.2.12 mit
der Identifikation von v und v  aussieht. Die Aussage f  (v  ) = f (v ) wird
dann zu
(8v 2 V )[f  (v) = f (v)]; d.h. f  = f: (3.2)
Es folgt aus (3.2), daß die Abbildung  , zweimal angewandt, die Identität ergibt.
Solche Abbildungen nennt man involutorisch. Da B  = fb b 2 B g = B und
C  = C folgt auch DB;C (f  ) = DB;C (f ), was im Einklang zur Identifikation
f  = f steht.
Identifizieren wir für endlich dimensionale Vektorräume V und V  , so sind auch
die Räume End(V ) und End(V  ) ihrer Endomorphismen gleich und die Abbil-
dung  : End(V ) ! End(V  ) ist somit ein involutorischer Antiautomorphismus
der Ringe.

77
3. Matrizen

In Satz 3.2.7 haben wir einen basisabhängigen Isomorphismus von V auf V  de-
finiert. Um zu studieren, ob auch dieser Isomorphismus unter der Identifikation
V  = V involutorisch wird, studieren wir zunächst dessen Wirkung auf die Ele-
mente der Basis B = (b1 ; : : : ; bn ). Wir erhalten
(bi  ) = b
i ; (3.3)
denn es gilt b   
i (bj ) = bj (bi ) = Æij , d.h. bi erfüllt die Definitionsgleichung
  
(bi ) (bj ) = Æij . Aus (3.3) folgt jedoch sofort
n
X n
X n
X
(v ) = (( i bi ) ) = i (bi  ) = i bi = v: (3.4)
i=1 i=1 i=1
Es folgt sofort aus der Definition des Transponierens von Matrizen, daß die Trans-
position eine involutorische Operation auf Matrizen ist (zweimal spiegeln an der
Hauptdiagonalen). Mit Hilfe von (3.3) erhalten wir diese Tatsache auf anderem We-
ge. Für A = DB;C (f ) gilt nämlich ((A)t )t = ((DB;C (f ))t )t = (DC  ;B  (f  ))t =
DB ;C  (f  ) = DB;C (f ) = A.
3.2.13 Definition Zwei Vektoren v 2 V und w 2 V  heißen orthogonal oder
senkrecht, wenn w(v ) = 0 ist. Geschrieben wird dies als w ? v .
Für U  V definieren wir U ? := fw 2 V  (8u 2 U )[w ? u]g. Wir nennen U ?
das orthogonale Komplement von U .

Aus Definition 3.2.13 folgt


U  V ) U ?  V  ^ U ??  V   V;
wobei wir in der letzten Inklusion wieder von der Identifikation v = v  Gebrauch
gemacht haben.
Man sollte beachten, daß die Relation des “senkrecht Stehens” bislang nicht sym-
metrisch definiert ist. Für w 2 V  und v 2 V ist bislang nur w ? v aber nicht
v ? w definiert, d.h. ? V   V . Betrachten wir aber wieder die Identifikation
v = v , so können wir v ? w als v ? w, d.h. durch v (w) = 0 definiert
betrachten. Dann gilt v ? w , w ? v . Wir haben nun zu untersuchen, wie
sich die orthogonalen Komplemente bezüglich dieser unterschiedlichen Definition
verhalten. Dazu führen wir für W  V  die folgende Notation ein
?W := fv 2 V (8w 2 W )[w ? v]g; (3.5)
d.h. ? W ist das orthogonale Komplement bezüglich der eben in Erwägung gezo-
genen Relation ? V  V  .

78
3.2. Der duale Raum und die transponierte Matrix

3.2.14 Lemma Für W  V  ist ?W  W ?. Ist dim(V ) < 1, so ist ?W =


W ?.
Beweis: Aus v 2 ?W folgt w ? v, d.h. w(v) = 0 für alle w 2 W . Wegen 0 =
w(v) = v (w) folgt dann sofort v 2 W ?, wobei wir die Identifikation v = v

benutzt haben. Ist V endlich dimensional, so ist  surjektiv, und jedes Element
von W ? hat die Gestalt v  für ein v 2 V . Damit folgt 0 = v  (w) = w(v ) für
alle w 2 W und damit auch v = v  2 ? W . ut
3.2.15 Lemma Für U V ist U ? ein Teilraum von V  . Es gilt U  U ??.
Beweis: Für v; w 2 U ? gilt v(u) = w(u) = 0 für alle v 2 U . Damit folgt
( v + w)(u) = v(u) + w(u) = 0 für alle u 2 U . Also ist U ? ein Teilraum
von V  .
Für u 2 U gilt u (v ) = v (u) = 0 für alle v 2 U ? . Damit folgt u = u 2 U ??
und wir haben U  U ??. ut
3.2.16 Satz Für f 2 Hom(V; W ) gelten
(i) Kern f =? (Im f )
und
(ii) Kern f  = (Im f )?.
Beweis: Wir erhalten (i) wegen
v 2 Kern f , f (v ) = 0
, (8w 2 W )[w (f (v)) = 0]
, (8w 2 W )[(f  (w ))(v) = 0]
, (8w 2 W )[f  (w ) ? v]
, (8u 2 Im f  )[u ? v]
, v 2? Im (f  ):
Ähnlich erhalten wir (ii) wegen
v 2 Kern f  , f  (v) = 0
, vÆf =0
, (8x 2 V )[v(f (x)) = 0]
, (8x 2 V )[v ? f (x)]
, (8u 2 Im f )[v ? u]
, v 2 Im f ?:

79
3. Matrizen

dim(V ) < 1 und U


3.2.17 Satz Ist ein Teilraum von V, so gilt dim(V ) =
dim(U ) + dim(U ?) und U ?? = U .
Beweis: Ist U ein Teilraum von V , so erhalten wir ein Komplement W mit V =
U  W und wählen eine Basis B1 [ B2 mit B1 := (b1 ; : : : ; bm ) und B2 :=
(bm+1 ; : : : ; bn ), so daß B1 eine Basis von U und B2 eine Basis von W ist. Schon
im Beweis von Satz 2.4.11 haben wir gesehen, daß die Abbildung u + w 7 ! w
linear ist. Dann ist aber auch die Abbildung
f: V ! V 
u + v 7 ! v
als Komposition linearer Abbildungen linear mit Kern f = U . Nach Satz 2.4.12
gilt damit
dim V = dim U + dim(Im f ): (i)
P P
Ist nun u 2 U und w 2 Im f , so ist u = m  n 
i=1 i bi und w = i=m+1 i bi .
 
Wegen bi (bj ) = Æij folgt dann w (u) = 0 und damit
Im f  U ? : (ii)
P Pn
Ist v  2 U ? , so finden wir u = m i=1 i bi 2 U und w = i=m+1 i bi 2 W , so
daß v  = u +w ist.
P Wegen v  (bj ) = 0 für j = 1; : : : ; m folgt 0= (u + w )(bj ) =
m b (b ) + Pn 
i=1 i i j i=m+1 i bi (bj ) = j für j = 1; : : : m. Damit ist u = 0 und
 
somit v = w 2 Im f , und wir erhalten
U ?  Im f: (iii)
Aus (i),(ii) und (iii) folgt dann
dim V = dim U + dim U ?: (iv)
Wegen
dim V = dim U + dim U ? (v)
und
dim V  = dim U ? + dim U ?? (vi)
erhalten wir
dim U ?? = dim V dim U ? = dim U: (vii)
Nach Lemma 3.2.15 haben wir U  U ??. Dann ist U bereits ein Teilraum von
U ??, und zusammen mit (vii) folgt nach Satz 1.2.27 U = U ??. ut

80
3.3. Basistransformationen

3.3 Basistransformationen
3.3.1 Definition Sei A 2 K mn . Die Matrix A kann in zweifacher Weise als eine
Abbildung aufgefaßt werden
A: K m ! K n
x 7 ! xA
Ab : Kn ! Km
x 7 ! A  x:
Wir erinnern an die in Satz 1.3.1 eingeführte kanonische Basis des Vektorraums
K n. In (1.11) definierten wir
eni = (Æi1 ; : : : ; Æin ):
Damit ist eni das n-tupel, das aus lauter Nullen besteht bis auf die Komponente i,
an der eine 1 steht. Die kanonische Basis des K n notierten wir als
E n = (en1 ; : : : ; enn ):
Dual dazu definieren wir
E n = (en1 t; : : : ; ennt ) =: E n t (3.6)
als die kanonische Basis des Kn . Damit ist die kanonische Basis des K n gegeben
als die folgende Menge von Zeilenvektoren
E n = f(1; 0; : : : ; 0); (0; 1; : : : ; 0); : : : ; (0; : : : ; 0; 1)g
und die des Kn als die folgende Menge von Spaltenvektoren
80 1 0 1 0 1 0 19
>
> 1 0 0 0 >
<B 0 C B 1 C B .. C B .. C> =
E n = >B@ ... CA ; B@ ... CA ; : : : ; B@ 1. CA ; B@ 0. CA> :
>
: >
;
0 0 0 1
Wenn aus dem Zusammenhang klar ist, zu welchem Raum die kanonischen Basis-
vektoren gehören, lassen wir den oberen Index weg.

3.3.2 Lemma Für die darstellenden Matrizen der Abbildungen A b gilt


und A
DEm ;En (A) = A und DEn ;Em (Ab ) = At .
Beweis: Sei A = ( ij )m;n . Dann folgt A(eni ) = eni
P n en , und damit folgt D m n (A) = A.
 A = ( i1; : : : ; in ) =
j =1 ij j E ;E

81
3. Matrizen

Sei DE n ;E m (A b (eti ) = Pm
b ) = ( ij )n;m , d.h. A j =1 ij ej . Wegen A(ei ) = A  ei =
t b t t
0 1
1i
@ ... A = Pm t
j =1 ji ej erhalten wir nach Satz 1.2.16 ij = ji für i = 1; : : : ; n
mi
und j = 1; : : : ; m. ut
3.3.3 Beobachtung Für x 2 Kn = K n1 ist x: K n ! K und damit x 2
Hom(K n ; K ) = (K n ) , und für x 2 K n = K 1n ist bx 2 Hom(Kn ; K ) = Kn  .
Identifizieren wir x mit der Abbildung x, so sehen wir, daß der Kn der zu K n duale
Raum ist. Umgekehrt erhalten wir K n als den dualen Raum von Kn , wenn wir x
und bx identifizieren. Damit sind die Räume K n und Kn paarweise zueinander dual.
E
Um die zu n duale Basis zu finden, berechnen wir eti (ej ) = ej  eti = Æij . Damit
E E
ist n die zu n duale Basis. Ebenso erhalten wir wegen ebi (etj ) = ei  etj = Æij ,
E E
daß n die zu n duale Basis ist.
E E
Den nach Satz 3.2.7 durch die dualen Basen n und n erzeugten Isomorphismus
 zwischen den dualen Räumen erhalten wir für x 2 K n als x = Pn i ei  =
Pn i=1
 Pn t  Pn
i=1 i ei = x und für x 2 Kn als x = i=1 i ei = i=1 i ei = x .
t t tt t
Damit sehen wir, daß der Übergang zum transponierten Vektor ein Dualisierungs-
prozeß ist. Das entspricht der in Satz 3.2.8 festgestellten Tatsache, daß die duale
Abbildung durch die transponierte Matrix dargestellt wird.

3.3.4 Beobachtung Ist A 2 K mn , so ist A: K m ! K n . Für die duale Abbil-


 
dung A : Kn ! Km gilt dann DE n ;E m (A ) = (DE m ;E n (A))t = At = DE n ;E m (A b)
 b ist die zu A duale Abbildung. Ebenso
b , d.h. A
nach Satz 3.2.8. Damit ist A = A
b  b
erhalten wir DE m ;E n (A ) = (DE n ;E m (A))t = (At )t = A = DE m ;E n (A) und da-
b  = A. Die Abbildungen A und A
mit A b sind also wechselseitig dual.
Darüber hinaus beobachten wir, daß die folgenden Diagramme kommutativ sind:

A Ab
Km
?
! K?n Kn ! Km
? ?
t?
y t?
y t?
y t?
y
Km ! Kn Kn ! Km
Act At

Die Identifikation x = x für x 2 Kn und x = bx für x 2 K n läßt sich noch weiter


begründen. Ist x 2 Kn , so folgt x (b
y) = by(x) = y  x = x(y), d.h. x = x. Für
y 2 K m erhalten wir analog y (x) = x(y) = y  x = by(x) und damit y = by. Die
Identifikationen x = x, bx = x und y = y sind also die gleichen.

82
3.3. Basistransformationen

3.3.5 Definition Sei V ein K -Vektorraum mit dim(V ) = n und B = (b1 ; : : : ; bn )


eine Basis von V . Wir definieren (vgl.(2.2))
Xn
hB : V ! K n i bi 7 ! ( 1 ; : : : ; n )
i=1
und
0 1
n
X 1
h^ B : V ! Kn i bi 7 !@ .. A
.
i=1 n
und nennen die Abbildungen hB und h ^ B die Koordinatendarstellungen bezüglich
^ B (v) nennen wir die Koordinatenvektoren
der Basis B . Die Vektoren hB (v ) und h
^ B (v)t und h^ B (v) =
von v bezüglich der Basis B . Offensichtlich gilt hB (v ) = h
hB (v)t .
Die Koordinatendarstellungen von Vektoren entsprechen der Basisdarstellungen
von Abbildungen. Wie beide zusammenhängen, klärt der folgende Satz und dessen
Folgerung.
^ B sind bijektiv, und das folgen-
3.3.6 Satz Die Koordinatendarstellungen hB und h
de Diagramm kommutiert:

;B (f  )
DC \
Km
x
! Kxn
^hB ?
?
?
h^ C ?
f
V ! W
?
? ?
?
hB y hC y
D (f )
Km B;C
! Kn
Pn
Beweis: Gilt hB (v ) = 0 für v = i=1 i bi , so folgt 1 = : : : = n = 0 und da-
mit v = 0. Damit ist hB injektiv und wegen dim V = dim K n damit auch bijektiv.
Die analoge Aussage ergibt sich auch für h ^ B . Zum Nachweis der Kommutativität
des Diagrammes beginnen wir mit dem unteren Rechteck. Seien B = P(mb1 ; : : : ; bm )
und C = (c1 ; : : : ; cn ) Basen von V bzw. W . Für v 2 V mit v = i=1 i bi und
DB;C (f ) = ( ij ) erhalten wir
P P P
hC (f (v)) = hC ( m i =1 i f (bi )) = hC ( m i =1 i ( nj=1 ij cj ))
P P Pm Pm
= hC ( nj=1 ( m i=1 i ij )cj ) = ( i=1 i i1 ; : : : ; i=1 i in )
= ( 1 ; : : : ; n )  ( ij ) = hB (v)  DB;C (f ) = DB;C (f )(hB (v)):
83
3. Matrizen

Für das obere Rechteck erhalten wir DC ;B (f  ) = (DB;C (f ))t = ( ij )ji=1
=1;:::;n
;:::;m
mit ij = ji für i = 1; : : : ; n und j = 1; : : : ; m. Also folgt
0X m 1 0X m 1
B i i1 C B i 1i C 0 1
B i=1 C B i=1 C 1
B C B C
^hC (f (v)) = B .. C=B .. C = ( ij ) @ ... A = DC\ ^ B (v));
 ;B  (f  )(h
B . C B . C
BX m C BX m C m
@ A @ A
i in i ni
i=1 i=1
d.h.
h^ C Æ f = DC\
 ;B  (f  ) Æ h
^B :
ut
3.3.7 Folgerung Ist f : V ! W linear und A die Basisdarstellung von f be-
züglich zweier Basen B und C von V bzw. W , so gilt hC Æ f = A Æ hB , d.h.
hC (f (v)) = hB (v)  A und h^ C Æ f = Ab t Æ h^ B , d.h. h^ C (f (v)) = At  h^ B (v).
Der Beweis der Folgerung ergibt sich sofort aus Satz 3.3.6 und der Definition der
\
Abbildungen DB;C (f ) und DC  ;B  (f  ).

3.3.8 Lemma Sind V und W endlich dimensionale K -Vektorräume, B und C Ba-


sen von V bzw. W und gilt hC Æ f = A Æ hB (bzw. h
^C Æ f = A b t Æ h^ B ), so ist
A = DB;C (f ).
Beweis: Nach Satz 3.3.6 und Voraussetzung gilt hC Æ f = A Æ hB = DB;C (f ) Æ
hB . Wegen der Bijektivität von hB folgt daraus A = DB;C (f ) und damit nach
Lemma 3.3.2 A = DB;C (f ). Analog zeigt man dann die zweite Behauptung. u t
3.3.9 Definition Sei V ein K -Vektorraum mit dim(V ) = n < 1 P, nseien B =
fb1 ; : : : ; bng und C = fc1 ; : : : ; cng Basen von V . Dann gilt bi = j=1 ij  cj .
Wir definieren TB;C := ( ij ) i=1;:::;n und nennen TB;C die Transformationsmatrix
j =1;:::;n
oder Übergangsmatrix von B nach C .

Beachte Nach der Definition von TB;C haben wir TB;C = DB;C (id V ).
3.3.10 Satz Es gelten
(i) hC = TB;C Æ hB
und

84
3.3. Basistransformationen

(ii) h^ C = T[
t Æh
B;C
^B .
Pn
Beweis:
Pn Pn (i): Sei TB;C = (
Pn Pnij ), und v = i=1 i bi . Dann folgt v =
i j =1 ij cj = j =1 ( i=1 i ij )cj . Damit ist hC (v ) =
Pi=1 Pn
0 Pi nin ) = hB1(v)  TB;C = (TB;C Æ hB )(v).
n
( i=1 i i1 ; : : : ; i=1
i=1 i i1
^
(ii): Es ist hC (v ) = @
B ..
. A B;C B
[
C = Tt  h^ (v) = (Tt Æ h^ )(v).
B;C B ut
Pn
i=1 i in

3.3.11 Korollar TB;C 2 GL(n; K ).


Beweis: Die Abbildungen hB und hC sind beide bijektiv. Nach Satz 3.3.10 gilt
dann TB;C = hC Æ hB 1 . Nach Lemma 0.5.7 ist dann TB;C bijektiv . Da TB;C
deren darstellende Matrix bezüglich der kanonischen Basis des K n ist, folgt nach
Satz 3.1.14 TB;C 2 GL(n; K ). ut

3.3.12 Bemerkung Ist dim(V ) = n, A = ( ij )i=1;:::;n 2 GL(n; K ) und C =


j =1
P;:::;n
(c1 ; : : : ; cn ) eine Basis
von V , so definiert bi := n c eine Basis B =
j =1 ij j
(b1 ; : : : ; bn ) mit TB;C = A.

Beweis: Es genügt zu zeigen, daß die Vektoren (b1 ; : : : ; bn ) linear unabhängig


sind. Zunächst haben wir

A 2 GL(n; K ) ^ x  A = 0 ) x = 0; (i)
Pn
es ist 0 = (xAP
denn P )A 1 = Px(AA 1 ) = x. Sei
P nun P i=1 i bi = 0. Dann folgt
0P= n b = n ( n c) = n ( n )c . Damit folgt
n i =1 i i i=1 i j =1 ij j j =1 i=1 i ij j
i=1 i ij = 0 für j = 1; : : : ; n, d.h. ( 1 ; : : : ; n )  A = 0. Mit (i) erhalten wir
damit ( 1 ; : : : ; n ) = 0, d.h. 1 = : : : = n = 0, und fb1 ; : : : ; bn g ist linear
unabhängig. ut

3.3.13 Satz (Transformationssatz) Es seien V und W endlich-dimensionale K -


Vektorräume, B und B 0 Basen von V sowie C und C 0 Basen von W und f 2
Hom(V; W ). Dann kommutiert das folgende Diagramm

85
3. Matrizen

Km
DB;C (f ) - Kn
kQQ 3hC T
hB Q f -W
TB;B0 V C;C 0
hB0  QQQshC0 ?
?m + - Kn
K
DB0 ;C 0 (f )
D.h. es gilt
1
DB0 ;C 0 (f ) = hC 0 Æ f Æ hB10 = TC;C 0 Æ DB;C (f ) Æ TB;B0
und damit auch
1 D
DB0 ;C 0 (f ) = TB;B 0 B;C (f )  TC;C 0 = TB 0 ;B  DB;C (f )  TC;C 0 :
Beweis: Die Kommutativität der beiden inneren Trapeze haben wir bereits in Satz 3.3.6
gezeigt. Um auch die Kommutativität des äußeren Rechtecks zu zeigen, haben wir
die folgenden Gleichungen zur Verfügung
hC Æ f = DB;C (f ) Æ hB (i)
hC 0 = TC;C 0 Æ hC (ii)
und
hB0 = TB;B0 Æ hB : (iii)
Damit erhalten wir
hC 0 Æ f = TC;C 0 Æ hC Æ f
= TC;C 0 Æ DB;C (f ) Æ hB
= TC;C 0 Æ DB;C (f ) Æ TB;B0 1 Æ hB0
(iv)

1 D
= TB;B 0 B;C (f )  TC;C 0 Æ hB 0 ;
wobei wir uns noch davon zu überzeugen haben, daß
1
A =A 1 (v)
gilt. Aus der dritten Zeile von (iv) folgt die Kommutativität des äußeren Rechtecks
des Diagramms. Aus der letzten Zeile von (iv) folgt DB 0 ;C 0 (f ) =
1 D
TB;B B;C (f )  TC;C 0 und daher DB 0 ;C 0 (f ) = TB;B 0  DB;C (f )  TC;C 0 . Der
1
0
guten Form halber wollen wir auch (v) nachrechnen. Es ist A 1 (A(x)) = (x  A) 
A 1 = x  (AA 1 ) = x  E = x. Damit ist A 1 Æ A = id und folglich A 1 = A 1 .
ut
86
3.4. Der Rang linearer Abbildungen und der Rang einer Matrix

3.4 Der Rang linearer Abbildungen und der Rang einer


Matrix
3.4.1 Definition Sei f 2 Hom(V; W ). Dann definieren wir Rang (f ) := dim(Im (f )):
Für A 2 K mn sei Rang (A) := Rang (A). Wir nennen Rang (f ) den Rang der
linearen Abbildung f und Rang (A) den Rang der Matrix A.

3.4.2 Satz Sei f 2 Hom(V; W ) mit dim V; dim W < 1. Dann gilt Rang (f ) =
Rang (f  ). Insbesondere ist dann Rang (A) = Rang (At ).

Beweis: Für f 2 Hom(V; W ) haben wir nach Satz 2.4.12 und Satz 3.2.16
dim V = dim(Kern f ) + dim(Im f )
= dim(Im f ?) + dim(Im f )
(i)

und nach Satz 3.2.17 auch


dim V = dim(Im f  ) + dim(Im f  ?): (ii)
Aus (i) und (ii) folgt dann
Rang f = dim(Im f ) = dim(Im f ) = Rang f  : (iii)
Für A 2 K mn und x 2 K n folgt
At (x) = xAt = (Axt )t = Ab (xt )t : (iv)
Aus (iv) folgt also, daß das Diagramm
At
Kn
?
! Kxm
? ?
yt ?t (3.7)
Ab
Kn ! Km
b = Rang
kommutiert. Damit folgt Rang (At ) = Rang (At ) = Rang A A = Rang A,
b
denn A und A sind nach Satz 3.3.4 dual. ut

3.4.3 Satz Ist A = DB;C (f ) bezüglich zweier beliebiger Basen B und C des K m
bzw. K n , so gilt Rang (A) = Rang (f ).

Beweis: Nach Satz 3.3.13 gilt

hEn Æ f Æ hE m 1 = TC;En Æ DB;C (f ) Æ TB;1Em : (i)

87
3. Matrizen

Nun ist hE n = id K n und hE m = id K m , und damit kommutiert das folgende


Diagramm
f
Km ! Kn
x x
TB;Em ?
? ?
?TC;En
A
Km ! K n:
Da die Abbildungen TB;E m und TC;E n beide bijektiv sind, folgt Im f
= Im A und
damit auch Rang f = Rang A. ut
3.4.4 Korollar Ist A 2 K mn und sind B 2 GL(m; K ) und C 2 GL(n; K ), so
gilt Rang (A) = Rang (B  A  C).
Beweis: Nach Bemerkung 3.3.12 können wir B und C als Transformationsma-
trizen auffassen. Damit stellen A und B  A  C die gleiche Abbildung bezüglich
verschiedener Basen dar. Die Behauptung folgt daher aus Satz 3.4.3. ut
3.4.5 Satz Sei f 2 Hom(V; W ). Die Abbildung f ist genau dann injektiv, wenn
Rang (f ) = dim(V ) ist.
Beweis: Wegen dim V = dim(Kern f ) + dim(Im f ) ist Kern f genau dann der
Nullraum, wenn dim V = dim(Im f ) = Rang f ist. ut
3.4.6 Korollar Eine Matrix A 2 K nn ist genau dann invertierbar, wenn Rang (A) =
n ist.
Beweis: Nach Satz 3.1.14 ist A 2 GL(n; K ) genau dann, wenn A bijektiv ist.
Nach Satz 2.3.9 ist aber die Abbildung A genau dann bijektiv, wenn sie injektiv
ist. Nach Satz 3.4.5 ist dies genau dann der Fall, wenn Rang A = dim K n = n
ist. ut

3.5 Elementare Umformungen


3.5.1 Normalformensatz Sei f 2 Hom(V; W ) mit dim(V ) = m < 1 und
dim(W ) = n < 1. Dann gibt es Basen B von V und C von W , so daß
 r;r 
DB;C (f ) = E 0 mit r = Rang (f )
0 0
ist.

88
3.5. Elementare Umformungen

Beweis: Nach Satz 2.4.5 erhalten wir einen Unterraum U von V , so daß V =
Kern f  U ist. Wegen dim U = dim V dim(Kern f ) = dim(Im f ) = r
erhalten wir eine Basis (b1 ; : : : ; br ; br+1 ; : : : ; bn ) von V , so daß (b1 ; : : : ; br ) eine
Basis von U und (br+1 ; : : : ; bn ) eine Basis von Kern f ist. Wir behaupten, daß
dann (f (b1 ); : : : ; f (br )) eine Basis von Im f ist. Dazu genügt esPzu zeigen, daß
dieP Menge ff (b1 ); : : : ; f (Pbr )g linear unabhängig ist. Sei also 0 = P ri=1 i f (bi ) =
f ( i=1 i bi ). Dann ist ri=1 i bi 2 Kern f \ U und daher ri=1 i bi = 0.
r
Wegen der linearen Unabhängigkeit von fb1 ; : : : ; br g folgt daher 1 = : : : = r =
0. Damit ist(f (b1 ); : : : ; f (br )) eine Basis von Im f , die wir zu einer Basis C =
(c1 ; : : : ; cn ) von W ergänzen. D.h. wir haben ci = f (bi ) für i = 1; : : : ; r. Damit
erhalten wir für DB;C (f ) = ( ij )
X n 
f (bi) = ij cj = 0ci für i = 1; : : : ; r
für i = r + 1; : : : ; n,
j =1

= 0Æij
für i = 1; : : : ; r
woraus ij folgt. Damit hat DB;C (f ) die behaup-
für i = r + 1; : : : ; n
tete Gestalt. ut
3.5.2 Definition Die elementaren Basistransformationen sind:
(I) Addieren eines Basisvektors zu einem anderen,
(II) Multiplikation eines Basisvektors mit 2 K , 6= 0.

3.5.3 Lemma Gehen C und D aus einer Basis B durch eine elementare Basis-
transformation des Typs (I) bzw. (II) hervor, so sind C und D wieder Basen, und es
gelten für k; l 2 f1; : : : ; ng
TI := TB;C = En;n En;n k;l
und

TII := TB;D = En;n + ( 1 1)En;n


k;k :
Beweis: Seien B = (b1 ; : : : ; bn ), C = (c1 ; : : : ; cn ) und D = (d1 ; : : : ; dn ) mit
 
für i 6= k i 6= k
ci = b + b für i = k und di = b i  b für
b i
k l k für i = k ,
wobei k 6= l ist. Um einzusehen, daß C und D wieder Basen sind, genügt es,
die
Pnlineare Unabhängigkeit
Pn von fc1 ; : : : ; cP
n g und fd1 ; : : : ; dn g zu zeigen. Ist 0 =
c = b + ( b + b ) = n b +( + )b , so folgt = 0
i=1 i i i=1 i i k k l i=1 i i l k l i
6 k
i= 6 l
i=

89
3. Matrizen

für i 2 f1; : : : ; ng n flgPund ( l + k P


) = 0. Wegen k = 0 impliziert das letztere
auch l = 0. Ist 0 = i=1 i di = ni=1 i bi +  k bk , so folgt i = 0 für
n
i6=k
i 2 f1; : : : ; ng n fkg und  k = 0. Da 6= 0 und jeder Körper nullteilerfrei ist,
erhalten wir auch k = 0. Damit sind C und D Basen.
Um die Transformationsmatrix TB;C zu erhalten, berechnen wir
X n X n X n
bi = ij cj = ij bj + ik (bk + bl ) = ij bj + ( il + ik )bl :
j =1 j =1 j =1
j 6=k j 6=l
Daraus folgt zunächst ij = Æij für i 2 f1; : : : ; ngnfk g und j 2 f1; : : : ; ngnflg.
Wegen bl = cl ist ll = 1, und für i 6= k; l ist il = 0. Wegen bk = kk bk +( kl +
kk )bl folgt kk = 1 und kl = kk = 1. Für j 6= l, j 6= k ist schließlich
kj = 0. Damit ist TI = TB;C = ( ij ) = En;n En;n k;l .
Um TB;D zu berechnen, setzen wir
X n X n
bi = ij dj = ij bj + ik bk :
j =1 j =1
j 6=k
Daraus folgt ij = Æij für i 6= k oder j 6= k . Wegen bk = kk bk ist kk = 1 .
k;k + Ek;k = E +( 1)Ek;k . u
Damit ist TII = TB;D = ( ij ) = En;n En;n 1 n;n n;n 1 n;n t

3.5.4 Bemerkung Es folgt aus Korollar 3.3.11, daß die Matrizen En;n En;n k;l
und En;n +( 1 1)En;n
k;k beide umkehrbar sind, und man rechnet sofort nach, daß für
n;n 1 n;n n;n 1
deren Inversen (En;n Ek;l ) = En;n + Ek;l und (En;n + ( 1 1)Ek;k ) =
En;n + ( 1)En;nk;k gilt.
Die Matrizen der Gestalt E + Ek;l und der Gestalt E + ( 1)  Ek;k nennen wir
Elementarmatrizen.

Um die Wirkung der Multiplikation von Elementarmatrizen zu studieren, stellen


wir einige Rechnungen an.
0a 1
1
3.5.5 Lemma Schreiben wir die Matrix A = ( ij )i=1;:::;m in der Form A = @ .. A
.
j =1;:::;n
am
mit ai = ( i1 ; : : : ; in ), so gilt em
i  A = a i .
0 1
1i
Dual erhalten wir für A = (b1 ; : : : ; bn ) mit bi = @ .. A auch A  (eni )t = bi .
.
mi
90
3.5. Elementare Umformungen

m
X m
X
i A
Beweis: Es ist em =( Ænj jn) = ( i1 ; : : : ; in ) = ai . Der
Æij j 1 ; : : : ;
j =1 j =1
Beweis der dualen Behauptung ergibt sich durch Transposition. Es ist A  (eni )t =
(eni  At )t = (ai )tt = ai .
0
a1 1
0a 1 B ... C
1 B C
B C
3.5.6 Lemma Schreiben wir A = @ .. A, so folgt (E + Ek;l )  A = B ak + al C
.
B . C
am @ .. A
0 am
a1 1
B ... C
B C
und (E + ( 1)Ek;k )  A = B
B  a C.
C
B . kC
@ .. A
am
Für A = (b1 ; : : : ; bn ) gilt dual A  (E + Ek;l ) = (b1 ; : : : ; bk + bl ; : : : ; bn ) und
A  (E + ( 1)Ek;k ) = (b1 ; : : : ;  bk ; : : : ; bn ).
Beweis: Schreiben wir E + Ek;l als Matrix von Zeilenvektoren, so erhalten wir E +
0 1 0 1 0
e1 e1  A a1 1
B ... C B .. C B ... C
B C B . C B C
B ek + el C und damit (E + Ek;l )  A = B (ek + el )  A C
C B
Ek;l = B C=B B ak + al CC.
B . C B C B . C
@ .. A @ ..
. A @ .
. A
em 0 1 em0 A 1 am
e1  A a1
B ... C B ... C
B C
C B
C
Analog folgt (E + ( 1)Ek;k )  A = B B C
B ek  A C = B ak C. ut
B . C B . C
@ .. A @ .. A
em  A am

3.5.7 Definition Die elementaren Zeilen- und Spaltenumformungen einer m 


n–Matrix sind:
(Z I ) Addition einer Zeile zu einer anderen (d.h. die Multiplikation mit der Ele-
mentarmatrix (E + Ek;l ) von links.)
(S I ) Addition einer Spalte zu einer anderen (d.h. die Multiplikation mit der Ele-
mentarmatrix (E + El;k ) von rechts.)

91
3. Matrizen

(Z II ) Multiplikation einer Zeile mit 2 K , 6= 0 (d.h. die Multiplikation mit


(E + ( 1)  Ek;k ) von links.)
(S II ) Multiplikation einer Spalte mit 2 K , 6= 0 (d.h. die Multiplikation mit
(E + ( 1)  Ek;k ) von rechts.)
Durch sukzessives Ausführen elementarer Zeilen- bzw. Spaltenumformungen er-
halten wir Umformungen der folgenden Typen:
(Z III ) Addition des Vielfachen einer Zeile zu einer anderen.
(S III ) Addition des Vielfachen einer Spalte zu einer anderen.
(Z IV ) Vertauschen zweier Zeilen.
0.1 0 . 1 0 .. 1 0 . 1
.. .. . .
B B C B . C
BaC C ZI B
B a C C Z III B a (a + b) C B .b C
C B
B .. C ! B .. C ! B C ZI
C !
B C
C=B
B .. C
B.C B . C ..
B C B C B .
@bA @a + bA B C Ba + bC
.. ..
@ a+b A @ A
.. ..
. . . .
0 ..
1 0 .. 1 0.1
. . ..
B C B
B
B b C
C B bC
C BbC
B C
B .. C=B
B .. C
. C
Z II B .. C
!B C:
B
Ba + b
. C
C B C B.C
@ bA @ a A @aA
.. .. ..
. . .
(S IV ) Vertauschen zweier Spalten.
(Z V ) Addition einer Linearkombination von r (1  r < n) Zeilen zu einer ande-
ren.
0 .. 1
0 . 1 0 . 1 .
.. .. B a C
Ba C B a C B
B 1 1 C
B 1C B 1 1C C
B .. C B .. C B .
. C
B C B C B . C
B . C Z II Z II B . C Z III Z III B B r a r
C
C:
B a
B rC
C !    ! B
B r rC a C !    ! B
B .
. C
C
B .. C
B . C B .. C B r
. C
B . C B X
B C
@bA
B
@ b A
C B i ai + b C C
B C
.. .. @ i=1 A
. . ..
.
(S V ) Addition einer Linearkombination von r (1  r < n) Spalten zu einer
anderen.

92
3.5. Elementare Umformungen

Beachte Elementare Zeilenumformungen entsprechen der Multiplikation mit ei-


nem Produkt von Elementarmatrizen von links, elementare Spaltenumformungen
der Multiplikation mit einem Produkt von Elementarmatrizen von rechts. Aus Z III
bzw. S III folgt, daß auch die zu einer Elementarmatrix inverse Matrix ein Produkt
von Elementarmatrizen ist.

3.5.8 Satz Ist f 2 Hom(V; W ) und B 0 eine Basis von V , die aus B durch ele-
mentare Basistransformationen entsteht, so entsteht DB 0 ;C (f ) aus DB;C (f ) durch
elementare Zeilenumformungen.
Dual entsteht DB;C 0 (f ) aus DB;C (f ) durch elementare Spaltenumformungen, wenn
C 0 aus einer Basis C von W durch elementare Basistransformationen hervorgeht.
Beweis: Nach Satz 3.3.13 ist DB 0 ;C (f ) = TB;B 1 D
0 B;C (f ). Die Inversen der
Transformationsmatrizen elementarer Basistransformationen sind aber genau die
Elementarmatrizen, und Multiplikation mit Produkten von Elementarmatrizen von
links entspricht elementaren Zeilenumformungen. Analog ist DB;C 0 (f ) = DB;C (f )
TC;C 0 , und TC;C 0 ist als Inverses einer Elementarmatrix ein Produkt von Element-
armatrizen. Multiplikation mit Produkten von Elementarmatrizen von rechts ent-
spricht aber elementaren Spaltenumformungen. ut
3.5.9 Satz Ist r = Rang (A), so ist r die maximale Anzahl linear unabhängiger
Zeilenvektoren – der Zeilenrang – von A. Ebenso ist r die maximale Anzahl linear
unabhängiger Spaltenvektoren – der Spaltenrang – von A.
0a 1
1
P
A @ ist A( 1 ; : : : ; n ) = ( 1 ; : : : ; n )  A = mi=1 i ai .
.. A
Beweis: Für = .
am
Damit ist Im A = ha1 ; : : : ; am i. Wegen dim(Im A) = Rang A = r sind da-
her höchstens r Zeilenvektoren linear unabhängig. Nach Satz 3.4.2 ist aber auch
Rang At = r , und die zweite Behauptung folgt durch Übergang zur transponierten
Matrix. ut
3.5.10 Bemerkung Aus Satz 3.5.9 folgt, daß eine Matrix genausoviele linear un-
abhängige Zeilen- wie Spaltenvektoren enthält. Der Zeilenrang einer Matrix ist
also stets gleich ihrem Spaltenrang.

3.5.11 Lemma Ist A 2 K mn mit Rang (A) = r , dann gibt es Produkte V und W
 Elementarmatrizen derart, daß A  W = (B; 0) mit B 2 K mr und V  A =
von 
C mit C 2 K rn.
0
93
3. Matrizen

Beweis: Die elementaren Spaltenumformungen entsprechen genau der Multiplika-


tion mit einem Produkt von Elementarmatrizen von rechts. Durch elementare Spal-
tenumformungen vom Typ S IV bringen wir A in die Form (a1 ; : : : ; ar ; ar+1 ; : : : ; an ),
wobei a1 ; : : : ; ar linear unabhängig sind und jedes ai für i 2 fr + 1; : : : ; ng eine
Linearkombination von a1 ; : : : ; ar ist. Dann bringen wir mit elementaren Spalte-
numformungen vom Typ S V die ar+1 ; : : : ; an zum Verschwinden. Durch Übergang
zur transponierten Matrix folgt aus der ersten Behauptung auch sofort die zweite.
ut
A 2 K mn mit Rang (A) = r gibt es Produkte W
r;r 0 
3.5.12 Satz Zu jeder Matrix
und V von Elementarmatrizen, so daß V  A  W =
E
0 0 ist.
Beweis: Mit Lemma 3.5.11 können wir A durch
 elementare Spalten- und Zeile-
numformungen auf die Gestalt C :=
B 0 mit B 2 K rr und Rang B = r
0 0
bringen. Sei C = ( ij )m;n . Dann sind nicht alle 1j = 0. Durch Vertauschen von
Spalten (S IV ) erreichen wir 111 6= 0 und durch S II 2 = 1. Durch Zeilenumfor-
11
3
mungen Z III erhalten wir i1 = 0 für i = 2; : : : ; m. Durch Spaltenumformungen
S III erhalten wir 14j = 0 für j = 2; : : : ; n. Damit haben wir A durch elementare
0 1
1 0 0
Zeilen- und Spaltenumformungen auf die Gestalt C2 = 0 B1 0 A gebracht,
@
0 0 0
wobei B1 2 K (r 1)  ( r 1) mit Rang (B1 ) = r 1 ist. Nun wenden wir das gleiche
Verfahren auf B1 an und erhalten durch Iteration die gewünschte Gestalt. ut
Eine Anwendung von Satz 3.5.12 ist die explizite Berechnung von Basen des Kernes
und des Bildes einer Abbildung f 2 Hom(K m ; K n ). Wir berechnen zunächst A :=
DEm ;En (f ). Ist Rang A = r und (br+1; : : : ; bm) eine Basis des Kernes, so daß B =
(b1 ; : : : ; br ; br +1 ; : : : ; bm ) eine Basis des K m und C = (f (b1 ); : : : ; f (br ); cr +1 ; : : : ; cn )
eine Basis des K n ist, so ist nach dem Normalformensatz  (Satz 3.5.1) (f (b1 ); : : : ; f (br ))
eine Basis des Bildes, und es gilt DB;C (f ) =
Er;r 0
. Nach Satz 3.5.12 gibt es um-
0 0
 
V und W, so daß E0 00 = V  A  W ist. Nun gilt aber nach
r;r
kehrbare Matrizen
Satz 3.3.13 auch DB;C (f ) = TB;Em  DEm ;En (f )  TEn ;C . (Hierbei haben wir benutzt, daß
0a 1
1
TB;Em = TEm1 ;B ist.) Also können wir TB;Em = V setzen. Kennen wir V = @ ... A
Pm am
mit ai = ( i1 ; : : : ; im ), so ist bi = j =1 ij emj = ai . Damit sind ar +1 ; : : : ; am eine
Basis des Kernes und (f (a1 ); : : : ; f (ar )) = (A(a1 ); : : : ; A(ar )) = (a1 A; : : : ; ar A) eine
Basis des Bildes. Es geht also nur darum, V zu berechnen. Wegen V = V  E erhalten wir

94
3.5. Elementare Umformungen

V aber dadurch, daß wir die gleichen Zeilenumformungen auf die Einheitsmatrix Em;m
anwenden, die wir anzuwenden haben, um A auf Normalform zu transformieren. Diese
Transformation liefert uns gleichzeitig den Rang von A, so daß wir alle wesentlichen Da-
ten dann von V ablesen können.
In der eben skizzierten Anwendung waren nur die Zeilenumformungen von Inter-
esse. Wir werden sehen, daß dies auch in anderen Situationen der Fall ist. Daher
wollen wir uns Zeilentransformationen genauer ansehen.

3.5.13 Definition Eine Matrix A ist in Zeilenstufenform, wenn sie die Gestalt
0
0    0 1j1                                    1
B 0                 0 2j2                         C
B C
B C
B .. C
. 
..
B ..
. . C
B C
B 0  0 r 1jr 1             C
A=B
B
C
C
B
B 0  0 rjr    C C
B C
B
B 0  0 C
@ .
.. . C
.. A
0  0
hat, wobei die eingerahmten Elemente iji in der Stufenlinie 1j1 ; : : : ; rjr un-
gleich 0, die Elemente unterhalb der Stufenlinie 0 und die übrigen Elemente belie-
big sind. Die Elemente in den Kästchen heißen Pivots oder Angelpunkte der Matrix
in Zeilenstufenform.

Beachte Da bei der Matrix A in Zeilenstufenform die ersten r Zeilen linear un-
abhängig sind, hat A den Zeilenrang r und damit gilt Rang A = r .

3.5.14 Satz Zu jeder Matrix A 2 K mn gibt es ein Produkt V von Elementarma-
trizen, so daß V  A in Zeilenstufenform ist.

Beweis: Die Zeilenstufenform wird durch das Gaußsche Eliminationsverfahren


gefunden, das wie folgt abläuft:

Erster Schritt: Man bestimme j1 als den Index der ersten Spalte von A, die
nicht nur aus Nullen besteht. Mit Z IV bringt man ein von 0 verschiedenes Element
dieser Spalte in die erste Zeile. Dieses ist schon 1j1 .
Zweiter Schritt: Durch m 1 Umformungen vom Typ Z III macht man die Ele-
mente unterhalb von 1j1 zu 0.

95
3. Matrizen

Iteration: Jetzt haben wir eine Matrix der Gestalt


 
0    0 1j1   
0         0 A0
und wenden den ersten und zweiten Schritt auf die unten rechts stehende Rest-
matrix A0 2 K (m 1)(n j1 ) an. Alles, was außerhalb von A0 steht, bleibt dabei
unverändert. Dies wiederholen wir so lange, bis die verbleibende Restmatrix A0
die Nullmatrix ist.
Da wir im Gaußschen Eliminationsverfahren nur Zeilenumformungen vornehmen,
erhalten wir die Zeilenstufenform als V  A, wobei V ein Produkt von Elementar-
matrizen ist. ut
Zur Erläuterung des Gaußschen Eliminationsverfahren wollen wir ein Beispiel
rechnen.
Ausgangsmatrix
0 1
0 0 0 2 1
B0 1 2 1 0 C
A=B
@0 1 2 1 1A
C
0 0 0 1 2
Erster Schritt: Nach Z IV : Z1 $ Z2
0 1
0 1 2 1 0
B0 0 0 2 1C
B C
@0 1 2 1 1A
0 0 0 1 2
Zweiter Schritt: Nach Z III : Z3 + Z1
0 1
0 1 2 1 0
B0 0 0 2 1C
B C
@0 0 0 2 1A
0 0 0 1 2
Erster Schritt’: Nach Z IV : Z4 $ Z2
0 1
0 1 2 1 0
B0 0 0 1 2 C
B C
@0 0 0 2 1A
0 0 0 2 1

96
3.5. Elementare Umformungen

Zweiter Schritt’: Nach Z III : Z3 2Z2 und Z4 2Z2


0 1
0 1 2 1 0
B
B0 0 0 1 2 CC
@0 0 0 0 5A
0 0 0 0 5
und Z4 Z3
0 1
0 1 2 1 0
B0 0 0 1 2 C
B C
@0 0 0 0 5A
0 0 0 0 0

Also ist r = 3, j1 = 2, j2 = 4, j3 = 5 und Rang (A) = 3.

3.5.15 Korollar Jede Matrix A 2 GL(n; K ) ist Produkt von Elementarmatrizen.

Beweis: Ist A 2 GL(n; K ), so ist nach Korollar 3.4.6 Rang A = n. Nach Satz 3.5.12
gibt es Produkte V und W von Elementarmatrizen, so daß V  A  W = En;n ist.
Damit ist A = V 1  W 1 . Wie wir nach Definition 3.5.7 bemerkt haben, ist aber
V 1  W 1 wieder ein Produkt von Elementarmatrizen. ut

3.5.16 Korollar Ist A 2 GL(n; K ), so kann A bereits allein durch elementare


Zeilen- oder Spaltenumformungen in die Einheitsmatrix überführt werden.
Q
Beweis:
Qn Sei A = ni=1 Vi mit Elementarmatrizen
Qn QnVi. Dann gilt E = A 1  A =
( i=1 Vi )  A. Nun ist aber ( i=1 Vi ) = i=1 Vn i+1 wieder ein Produkt
1 1 1
von Elementarmatrizen. Die Multiplikation mit Produkten von Elementarmatrizen
von links entspricht aber elementaren Zeilenumformungen. Die zweite Behauptung
folgt durch Übergang zur transponierten Matrix. ut

3.5.17 Satz Sei A 2 GL(n; K ). Man erhält A 1 , indem man dieselben Zeilen-
und Spaltenumformungen, die A in E überführen, an E vornimmt.
Qn
Beweis: Nach Korollar
Q 3.5.16 gibt es Elementarmatrizen Vi mit E = i=1 Vi  A.
Dann ist A 1 = ni=1 Vi  E. ut

97
3. Matrizen

3.6 Lineare Gleichungssysteme und affine Räume


3.6.1 Definition Sei K ein Körper. Ein System von m Gleichungen
11 x1 +    + 1nxn = 1
.. .. ..
. . . (3.8)
m1 x1 +  + mn xn = m
mit ij 2 K und i 2 K heißt ein lineares Gleichungssystem mit n Unbekannten
x1 ; : : : ; xn . 0x 1 0 1
1 1
Setzen wir A = ( ij )i=1;:::;m , x = @ und b =
.. A @ .. A
. . , so läßt sich (3.8)
j =1;:::;n
xn m
schreiben als
A  x = b: (3.9)
Wir untersuchen die folgenden Fragen:
(A) Unter welchen Bedingungen ist (3.9) lösbar, d.h. wann gibt es ein x 2 Kn
mit A  x = b?
(B) Unter welchen Bedingungen ist (3.9) eindeutig lösbar, d.h. wann gibt es
genau ein x 2 Kn mit A  x = b?
(C) Unter welchen Bedingungen an A ist (3.9) universell lösbar, d.h. lösbar für
jedes b 2 Km ?
(D) Wie lassen sich die Lösungen von (3.9) beschreiben?
b (x) = b als Abbildung auf, so hilft uns die bislang
Fassen wir (3.9) in der Form A
entwickelte Theorie linearer Abbildungen bei der Beantwortung dieser Fragestel-
lungen.

3.6.2 Beobachtung Sei A 2 K mn , b 2 Km . Das Gleichungssystem A  x = b


ist genau dann lösbar, wenn b 2 Im (A
b ) ist. Damit ist A  x = b universell lösbar,
b
wenn Im (A) = Km ist, d.h. wenn Rang (A) = m ist.
Diese Beobachtung läßt sich in zwei Sätze fassen.

3.6.3 Satz Das Gleichungssystem A  x = b für A 2 K mn und b 2 Km ist genau


dann universell lösbar, wenn m = Rang (A)  n ist.
Beweis: Wie wir bereits beobachtet haben, ist das Gleichungssystem genau dann
b : Kn ! Km ist m = dim(Im A) 
universell lösbar, wenn Rang A = m ist. Da A
n. ut
98
3.6. Lineare Gleichungssysteme und affine Räume

3.6.4 Satz Das Gleichungssystem A  x = b für A 2 K mn und b 2 Km ist genau


dann lösbar, wenn Rang (A) = Rang (A; b) ist, wobei (A; b) 2 K m(n+1) durch
Hinzufügen der Spalte b aus A entsteht. Man nennt (A; b) die geränderte Matrix
des Gleichungssystems.
Beweis: Wie wir bereits beobachtet haben, ist das Gleichungssystem genau dann
lösbar, wenn b 2 Im (A b ) = ha1 ; : : : ; an i.
b ) ist. Für A = (a1 ; : : : ; an ) ist aber Im (A
Nun ist b 2 ha1 ; : : : ; an i genau dann, wenn dimha1 ; : : : ; an ; bi = dimha1 ; : : : ; an i
ist. Wegen Rang (A; b) = dimha1 ; : : : ; an ; bi folgt daraus die Behauptung. ut
3.6.5 Satz Das Gleichungssystem A  x = b für A 2 K mn , und b 2 Km ist genau
dann eindeutig lösbar, wenn n = Rang (A) = Rang (A; b) ist.
Beweis: ): Ist Rang A < Rang (A; b), so ist das Gleichungssystem nach Satz
3.6.4 nicht lösbar. Ist n > Rang A = Rang (A; b), so ist dim(Kern A b) = n
Rang A 6= 0. Nach Satz 3.6.4 gibt es ein x 2 Kn mit A  x = b. Da dim(Kern A b ) 6=
0 ist, gibt es ein y 2 Kern A b mit y 6= 0. Dann folgt x 6= x + y und A  (x + y) =
A  x + A  y = b + 0 = b. Das Gleichungssystem hat daher mindestens zwei
Lösungen.
(: Ist Rang A = Rang (A; b), so ist das Gleichungssystem nach Satz 3.6.4
lösbar. Aus dim(Kern A b ) = n Rang A = 0 erhalten wir Kern A b = 0. Da-
b
mit ist A injektiv, und b besitzt genau ein Urbild. ut
3.6.6 Satz Das Gleichungssystem A  x = b für A 2 K mn , b 2 Km ist genau
dann eindeutig und universell lösbar, wenn Rang (A) = m = n (und damit A 2
GL(n; K )) ist. Die Lösung ist dann durch x = A 1  b gegeben.
Beweis: Das Gleichungssystem A  x = b ist genau dann universell und eindeutig
b bijektiv ist. Nach Satz 3.1.14 ist dies genau dann der Fall, wenn
lösbar, wenn A
A invertierbar ist. Nach Korollar 3.4.6 ist dies äquivalent dazu, daß Rang At =
t
Rang A = n ist. Durch Multiplikation des Gleichungssystems A  x = b mit A 1
von links erhalten wir die Lösung x = A 1  b. ut
Damit haben wir die Fragen (A)–(C) beantwortet und wollen nun die Struktur der
Lösungsmenge studieren.

3.6.7 Satz Ist A 2 K mn , b 2 Km und x 2 A


b 1 (b), so erhalten wir die Lösungs-
b
menge durch A (b) = x + Kern (A).
1 b
Beweis: Sei x 2 A b 1 (b).
: Wir haben bereits im Beweis zu Satz 3.6.5 gesehen, daß dann für y 2 Kern (Ab )
b A
auch x + y eine Lösung des Gleichungssystems ist. Also gilt x + Kern A b 1 (b).

99
3. Matrizen

: Für die umgekehrte Inklusion nehmen wir y 2 Ab 1 (b) an. Dann gilt Ab (y
x) = Ab (y) Ab (x) = b b = 0 und damit y x 2 Kern Ab . Damit ist y =
x + (y x) 2 x + Kern Ab . ut

Affine Räume und lineare Mannigfaltigkeiten


Um die Lösungsmengen linearer Gleichungssysteme genauer studieren zu können,
führen wir affine Räume und lineare Mannigfaltigkeiten ein.

3.6.8 Definition Sei M 6= ;, V ein K -Vektorraum und : M  M ! V eine


!
Surjektion. Anstelle von (P; Q) schreiben wir P Q aus Gründen, die gleich näher
erläutert werden sollen.
Das Tripel (M; ; V ) heißt ein affiner Raum, wenn die folgenden Axiome erfüllt
sind
(A1) (8P 2 M )(8a 2 V )(9Q 2 M )[a = P!
Q],
(A2) (8P; Q; R 2 M )[P! ! = P!R],
Q + QR
(A3) (8P; Q 2 M )[P!
Q=0 ) P = Q].
!
Wir nennen M die Menge der Punkte des affinen Raumes, (P; Q) =: P Q 2 V ist
die Strecke, die P und Q verbindet. Man nennt V den Differenzenraum des affinen
Raumes A = (M; ; V ).

In einem affinen Raum gelten weiterhin


(A4) P!
P = 0,
! = P!
denn es es ist nach (A2) P P P + P!
P , woraus P!
P = 0 folgt.
(A5) P!
Q = P!
R ) Q = R,
! ! ! ! !
denn es gilt nach (A2) P Q + QR = P R = P Q, woraus QR = 0 und daraus nach
(A3) Q = R folgt.
Es folgt aus (A1) und (A5), daß es zu P 2 M und a 2 V einen eindeutig bestimm-
! !
ten Punkt Q 2 M gibt mit P Q = a. Wir schreiben Q =: P + a, d.h. P; P + a = a.
Man sagt: “Q entsteht durch Abtragen des Vektors a vom Punkte P aus.”
(A6) (P + a) + b = P + (a + b),
denn setzen wir R:= (P + a) + b, so erhalten wir P!
R = P P +!a + P + aR
!=
!
a + b = P P + (a + b), d.h. R = P + (a + b).
(A7) P! ! , P!R = QS
Q = RS !,
100
3.6. Lineare Gleichungssysteme und affine Räume

denn nach (A2) kommutiert das folgende Diagramm:

P!
Q
P !Q
? ?
! ? ?!
P Ry yQS
!
R RS! S
3.6.9 Satz Ist V ein K -Vektorraum, U ein Teilraum von V und v 2 V , so ist
das Tripel (v + U; ; U ) mit (v + u1 ; v + u2 ) := u2 u1 ein affiner Raum mit
Differenzenraum U.
Beweis: Für u 2 U ist v; v +! u = (v; v + u) = u 0 = u. Damit ist  surjektiv.
(A1) Aus P = v + u1 2 v + U und a 2 U folgt v + u1 ; v + u1 +!
Wir prüfen nun die einzelnen Axiome nach.
a = u1 + a
u1 = a. D.h. wir können Q = v + (u1 + a) 2 v + U setzen.
! !
(A2) Sei P = v + u1 , Q = v + u2 und R = v + u3 . Dann ist P Q + QR =
v + u1 ; v + !
u2 +v + u2 ; v + !
u3 = u2 u1 +u3 u2 = u3 u1 = v + u1 ; v + u!3 =
!
P R.
(A3) Aus v + u1 ; v + u !2 = 0 erhalten wir u2 u1 = 0, woraus u1 = u2 und
damit auch v + u1 = v + u2 folgt. ut
Es folgt aus Satz 3.6.9, daß sich jeder Vektorraum V als affiner Raum (V; ; V )
mit (u; v ) := v u auffassen läßt. Der Begriff des affinen Raumes ist also der
R
allgemeinere. In Abbildung 3.1 haben wir den 2 als affinen Raum dargestellt.
Wir wollen nun zeigen, daß sich jeder affine Raum A bis auf Isomorphie als ein
“um einen Vektor v parallel verschobener” Vektorraum A  = (v + U; ; U ) darstel-
len läßt. Dazu müssen wir den Begriff der Isomorphie auf affine Räume ausweiten.
Seien dazu A = (M; ; U ) und A0 = (M 0 ; 0 ; U ) zwei affine Räume mit gleichem
Differenzenraum U . Eine Bijektion f : M ! M 0 heißt ein Isomorphismus der
affinen Räume, wenn gilt:
(8P; Q 2 M )[(P; Q) = 0 (f (P ); f (Q))]; d.h.
(8P; Q 2 M )[P!
!
Q = f (P )f (Q)]:
(3.10)

Bemerkung Eine Bijektion f : M ! M 0 ist genau dann ein Isomorphismus der


affinen Räume (M; ; U ) und (M 0 ; 0 ; U ), wenn
(8P 2 M )(8a 2 U )[f (P + a) = f (P ) + a] (3.11)
gilt.
Beweis: ): Sei P 2 M und a 2 U . Dann gilt für Q := P + a bereits a =
P!
!
Q = f (P )f (Q). Also ist f (P ) + a = f (Q) = f (P + a).
101
3. Matrizen

v,u

0 x
X

R
Abbildung 3.1: Der 2 als affiner Raum. Die Punkte des Raumes sind die Vektoren
R
f(x; y) x; y 2 g, die wir hier als Endpunkte der “Zeiger” dargestellt haben. Die
Strecken sind die Verbindungen dieser Endpunkte.

(: P; Q 2 M und a := P! Q. Dann ist Q = P + a und damit f (Q) =


f (P + a) = f (P ) + a. Damit folgt P!
Seien
!
Q = a = f (P )f (Q). ut

3.6.10 Lemma Ist ein Isomorphismus der affinen Räume A = (M; ; U ) und
f
A0 = (M 0 ; 0 ; U ) und ist S 2 M , so ist f durch das Bild f (S ) von S bereits
eindeutig bestimmt. Umgekehrt definiert für S 2 M und S 0 2 M 0 die Abbildung
f : M ! M 0 , P 7 ! S 0 + SP ! einen Isomorphismus der affinen Räume.
Beweis: Sei f : M ! M 0 ein Isomorphismus der affinen Räume. Zu P 2 M
finden wir ein a 2 U mit P = S + a, und es folgt f (P ) = f (S )+ a = f (S )+ SP .
!
Ist g : M ! M 0 ein weiterer Isomorphismus mit f (S ) = g (S ), so folgt g (P ) =
g(S ) + SP ! = f (S ) + SP ! = f (P ). Damit ist f = g.
Seien nun S 2 M und S 0 2 M 0 gegeben. Wir definieren f (P ) := S 0 + SP . Ist
!
!
P 0 2 M 0 , so sei a := S 0 P 0 . Nach (A1) finden wir ein P 2 M mit SP ! = a, und es
ist f (P ) = S 0 + a = P 0 . Damit ist f surjektiv. Gilt f (P ) = f (Q) für P; Q 2 M , so
! ! ! ! ! !
ist S 0 + SP = f (P ) = f (Q) = S 0 + SQ. Es folgt SP = S 0 f (P ) = S 0 f (Q) = SQ
und daraus nach (A5) P = Q. Also ist f auch injektiv. Schließlich folgt mit a :=
P!Q f (P + a) = f (Q) = S 0 + SQ ! = S 0 + SP ! + P! Q = f (P ) + P! Q = f (P ) + a.
Damit ist f ein Isomorphismus. ut

102
3.6. Lineare Gleichungssysteme und affine Räume

= (U; !; U )
3.6.11 Satz Ist A ein affiner Raum mit Differenzenraum U , so ist A 
! = u v. Insbesondere sind affine Räume mit gleichem Differenzenraum
mit vu
isomorph.
Beweis: Sei A = (M; ; U ). Wähle S 2 M . Dann ist nach Lemma 3.6.10 die
Abbildung f : M ! U mit f (P ) := SP! ein Isomorphismus. ut
3.6.12 Definition Sei V ein K -Vektorraum und M  V , M 6= ;. Wir nennen M
eine lineare Mannigfaltigkeit in V , wenn gilt
Xm Xm
(8u1 ; : : : ; um 2 M )(8 1 ; : : : ; m 2 K )[ i = 1 ) i ui 2 M ]:
i=1 i=1
Zu einer linearen Mannigfaltigkeit M definieren wir den Differenzenraum
M := fu v u; v 2 M g:
3.6.13 Lemma Ist M eine lineare Mannigfaltigkeit in V , so ist 6 ;, M =
M =
v + M für jedes v 2 M und M ein Teilraum von V .
Beweis: Da M 6= ; ist 0 2 M und damit auch M 6= ;. Sei v 2 M . Dann
läßt sich jedes u 2 M darstellen als u = v + (u v ) 2 v + M . Ist umgekehrt
x 2 v + M , so gibt es u; w 2 M mit x = v + (u w). Da 1 + 1 1 = 1 folgt
daraus x 2 M . Es bleibt zu zeigen, daß M ein Teilraum von V ist. Ist a 2 M
und 2 K , so finden wir u; w 2 M mit a = (u w) = u w + w w =
u + (1 )w w 2 M , denn wegen + 1 = 1 ist u (1 )w 2 M .
Damit haben wir gezeigt, daß M unter skalarer Multiplikation abgeschlossen ist.
Etwas schwieriger gestaltet sich der Nachweis der Abgeschlossenheit gegenüber
der Addition. Hier müssen wir uns den Grundkörper genauer ansehen. Unter der
Charakteristik eines Körpers K versteht man die Anzahl der 1en, die man benötigt
um 0 darzustellen, d.h.

CharK := min fn 2 N 1  n = 0g falls es so ein n 2 N gibt
0 sonst,
wobei 1  n als Abkürzung |1 + :{z
: : + 1} steht. Ohne daß wir hier näher darauf einge-
n fach
hen wollen, sei ohne Beweis bemerkt, daß die Charakteristik eines Körpers immer
Q
eine Primzahl oder 0 ist. (So ist z.B. Char( ) = 0). Alles, was wir hier benötigen,
ist die Tatsache, daß ein Körper einer Charakteristik 6= 2 mehr als zwei Elemente
besitzt. Das folgt daraus, daß ein Körper immer mindestens zwei Elemente besit-
zen muß, 0 und 1, die neutralen Elemente der additiven und der multiplikativen
Gruppe. Wären dies die einzigen, so müßte 1 bezüglich der Addition zu sich selbst

103
3. Matrizen

invers sein, d.h. es müßte 1 + 1 = 0 gelten, was im Widerspruch zu CharK 6= 2


stünde.
Wir nehmen nun an, daß der Grundkörper des Vektorraumes eine Charakteristik
6= 2 besitzt. Wir wählen nun ein 2 K , das von 0 und 1 verschieden ist, und
erhalten für a; b 2 M sowohl a 2 M als auch (1 ) b 2 M . Wegen
1 1
M = v + M erhalten wir v + 1 a 2 M und v + (1 ) 1 b 2 M . Damit folgt
v + a + b = (v + 1 a) + (1 )[v + (1 ) 1 b] 2 M und somit a + b 2 M .
Ist CharK = 2, so ist 1 + 1 = 0 und wegen 1 + 1 + 1 = 1 folgt aus v + a 2 M und
v + b 2 M auch 1(v +0)+1(v + a)+1(v + b) = (1+1)v + v + a + b = v + a + b 2 M
und damit wieder a + b 2 M . ut
3.6.14 Satz Die linearen Mannigfaltigkeiten von V sind genau die affinen Räume
der Gestalt M = v + U , wobei v 2 V und U ein Unterraum von V ist.
Beweis: Wir haben in Lemma 3.6.13 gesehen, daß sich jede lineare Mannigfaltig-
keit M auf V in der Form M = v + M darstellen läßt, wobei v 2 M  V
und M ein linearer Teilraum von V ist. Nach Satz 3.6.9 ist (M; ; M ) mit
(u; v) = v u ein affiner Raum.
Ist umgekehrt M = v + U für ein v 2 V und einen Teilraum P U  V und sind
w1 ; : : : ; wn 2 U , so erhalten wir für 1 ; : : : ; n 2 K mit ni=1 i = 1
X n Xn X n Xn
i (v + wi ) = ( i )v + i wi = v + i wi 2 v + U = M:
i=1 i=1 i=1 i=1
Damit ist M eine lineare Mannigfaltigkeit. ut
Ein Beispiel
Als Beispiele für lineare Mannigfaltigkeiten wollen wir Geraden einführen. Wir
definieren
Definition Sei V ein Vektorraum und u; v 2 V , so heißt die Menge Guv :=
fv + (u v) 2 K g die Gerade durch u und v.
Zuerst wollen wir uns davon überzeugen, daß Guv eine lineare Mannigfaltigkeit
ist. Sind a1 ; : : : ; an 2 Gu;vP
, so hat jedes ai die Gestalt ai = v + i (u v).
; : : : ; 2 K n = 1, so folgt Pn a = Pn v +
P 1
Sind n mit i=1 i Pi=1 i i i=1 i
( ni=1 i i )(u v) = v + (u v) 2 Gu;v mit = ni=1 i i .
Andererseits können wir einsehen, daß eine lineare Mannigfaltigkeit M mit zwei
Punkten u; v auch immer die Gerade Gu;v durch diese Punkte enthält. Sind nämlich
u; v 2 M und ist x 2 Gu;v , so folgt x = v + (u v) = v + u v 2 M , da
1 + = 1.
104
3.6. Lineare Gleichungssysteme und affine Räume

u-v

G u,v
u

0 x
X

R
Abbildung 3.2: Eine Gerade im 2 . Ein Vergleich mit Abbildung 3.1 zeigt, daß der
R2 als affiner Raum aufgefaßt alle Geraden enthält.

Die Sätze 3.6.7 und 3.6.14 liefern uns nun den Zusammenhang zwischen linea-
ren Gleichungssystemen und linearen Mannigfaltigkeiten. Fassen wir beide zusam-
men, so erhalten wir den folgenden Satz.

3.6.15 Satz Ist A 2 K mn und b 2 Km , so ist die Lösungsmenge des Gleichungs-
systems A  x = b eine lineare Mannigfaltigkeit im Kn der Gestalt a + Kern (A
b ),
wobei a eine partikuläre Lösung ist, d.h. es gilt A  a = b.

3.6.16 Bemerkung Wir wollen diesen Abschnitt mit einigen Bemerkungen zum
praktischen Lösen linearer Gleichungssysteme abschließen. Dabei werden wir uns
jedoch auf grundsätzliche Verfahren beschränken. Wirklich effiziente Verfahren,
die auch mit großen Gleichungssystemen zu Rande kommen, werden Sie in der
numerischen Mathematik kennenlernen.
Nach Satz 3.6.7 hat jede Lösung der Gleichung A  x = b, so sie existiert, die Ge-
stalt a + u mit A  a = b, d.h. a ist partikuläre Lösung und u 2 Kern (A b ). Um
ein u 2 Kern (A b ) zu erhalten, müssen wir das Gleichungssystem Ab (x) = 0, d.h.
A  x = 0 lösen. Das Gleichungssystem A  x = 0 wird als das zum Gleichungssy-
stem A  x = b gehörende homogene Gleichungssystem bezeichnet. Das homogene

105
3. Matrizen

Gleichungssystem hat also die Form:

11 x1 + 12 x2 +    + 1n xn = 0
.. .. .. ..
. . . .
m1 x1 + m2 x2 +  + mn xn = 0
b : Kn ! Km und damit n = dim Kn = Rang A
Nun ist A b + dim(Kern A b ). Also
ist dim(Kern A b ) = n r. Um eine Basis von Kern A b zu erhalten, müssen wir
daher n r linear unabhängige Vektoren finden, die das homogene Gleichungs-
system lösen. Haben wir so eine Basis (b1 ; : : : ; bn r ) gefunden, erhalten wir die
allgemeine Lösung in der Form
nXr
a+ i bi ; (3.12)
i=1
wobei i alle Körperelemente durchlaufen und a eine partikuläre Lösung ist.
Um einen Algorithmus zur Lösung von Gleichungssystemen zu erhalten, erinnern
wir uns an die Elementaroperationen. Nach Satz 3.5.14 gibt es ein Produkt V von
Elementarmatrizen, so daß V  A Zeilenstufenform hat. Das Gleichungssystem lau-
tet dann
V  A  x = V  b; (3.13)
woraus folgt, daß jede Lösung des Gleichungssystems (3.13) auch eine Lösung
des ursprünglichen Gleichungssystems ist. In der Matrix A0 := V  A, die sich laut
Satz 3.5.14 aus A durch das Gaußsche Eliminationsverfahren ergibt, sind die Zeilen
a0r+1 ; : : : ; a0m alle 0. Daher müssen die Komponenten r0 +1 ; : : : ; m0 des Vektors
b0 := V  b alle verschwinden. Den Vektor b0 erhält man am besten, indem man das
Gaußsche Eliminationsverfahren auf die geränderte Matrix (A; b) anwendet. Der
Vektor in der n + 1-ten Spalte ist dann b0 . Das Gleichungssystem A0  x = b0 hat
nun die folgende Gestalt
xi1 + 01(i1 +1) xi1 +1 +              + 01nxn = 10
xi2 + 02i2 +1 xi2 +1 +      + 02nxn = 20
.. .. .. : (3.14)
. . .
xir + 0r(ir +1) xir +1 +    + 0
rn xn = r0
Wir wählen für die Komponenten xj mit j 2 = fi1 ; : : : ; ir g beliebige Elemente
j 2 K und setzen diese in die letzte Zeile von (3.14) ein und lösen diese nach
xir auf. Dies liefert einen Wert ir , und wir setzen die gewählten Werte j und ir
in die vorletzte Zeile von (3.14) ein und bekommen so einen Wert ir 1 für xir 1 .
Dieses Verfahren setzen wir fort und erhalten nach r -vielen Schritten einen Vektor

106
3.6. Lineare Gleichungssysteme und affine Räume

(1 ; : : : ; n ), der eine


partikuläre Lösung des Gleichungssystems (3.14) und da-
mit auch des ursprünglichen Gleichungssystems ist. Eine Lösung des homogenen
Gleichungssystems
xi1 + 01(i1 +1) xi1 +1 +              + 01n xn = 0
xi2 + 02i2 +1 xi2 +1 +      + 02n xn = 0
.. .. .. (3.15)
. . .
xir + 0r(ir +1) xir +1 +    + = 0 0rn xn
erhalten wir durch das gleiche Verfahren. Da wir n r viele Komponenten des
Lösungsvektors frei wählen können, erreichen wir, beispielsweise indem wir die
kanonischen Basisvektoren des Kn r auswählen, daß wir n r linear unabhängi-
ge Lösungen erhalten und können damit die allgemeine Lösung des Gleichungssy-
stems darstellen. Zur weiteren Erläuterung des Verfahrens wollen wir ein einfaches
Beispiel rechnen.
Wir betrachten das Gleichungssystem
x1 + x2 + x3 x4 x5 = 2
x1 + 3x2 + x3 x4 + x5 = 0 (3.16)
2x1 + 6x2 + x3 2x4 x5 = 3:
Die geränderte Matrix lautet dann
0 1
1 1 1 1 1 2
@ 1 3 1 1 1 0A; (3.17)
2 6 1 2 1 3
die sich zunächst auf
0 1
1 1 1 1 1 2
@0 4 2 2 0 2A (3.18)
0 4 1 0 1 1
und dann auf die Form
0 1
1 1 1 1 1 2
@0 4 2 2 0 2A (3.19)
0 0 3 2 1 3
bringen läßt. Dies ist bereits die Zeilenstufenform. Die geränderte Matrix sowie die
Koeffizientenmatrix haben den Rang 3. Damit ist das Gleichungssystem lösbar.
Lösen wir die unterste Zeile nach x3 auf, so erhalten wir
3x3 = 3 + 2x4 + x5 : (3.20)
Nun wählen wir x4 = x5 = 1 und erhalten aus (3.20) x3 = 2. Damit ergibt sich
107
3. Matrizen

aus der mittleren Zeile von (3.19)

2 = 4x2 + 2x3 2x4 = 4x2 + 2


und damit x2 = 0. Schließlich erhalten wir aus der ersten Zeile von (3.19)
2 = x1 + x2 + x3 x4
x5 = x1 + 0 + 2 1 1 = x1 :
0 1
2
B0C
B C
Damit haben wir eine partikuläre Lösung x = B C
B 2 C.
@1A
1
Um die allgemeine Lösung zu erhalten, lösen wir das homogene Gleichungssystem
0 1 0 1
1 1 1 1 1 0
@0 4 2 2 0 A x= 0 A
@ (3.21)
0 0 3 2 1 0:
Wir beginnen wieder mit der letzten Zeile von (3.21) und haben

3x3 + 2x4 + x5 = 0 (3.22)

zu lösen. Wir setzen x5 = 0 und x4 = 3 und erhalten daraus x3 = 2. Aus der


mittleren Zeile von (3.21) folgt

4x2 + 2x3 2x4 = 0; d.h. (3.23)

4x2 + 4 6 = 0:
Damit ist x2 = 1 . Aus der ersten Zeile von (3.21) erhalten wir
2
x1 + x2 + x3 x4 x5 = 0; d.h. (3.24)
1
x1 + + 2 3 = 0;
2
011
2
B 1C
B 2C
woraus sich x1 = 2 ergibt. Damit haben wir einen Lösungsvektor y = B
1 C
B 2 C.
@3A
0
b) = n
Nun ist dim(Kern A r=5 3 = 2, und wir haben eine weitere linear
unabhängige Lösung von (3.21) zu finden. Dazu setzen wir in (3.22) x4 = 0 und
x5 = 3. Dann ergibt sich x3 = 1. Setzen wir dies in (3.23) ein, so erhalten wir x2 =
1 . Dies in (3.24) eingesetzt ergibt x = 5 . Damit erhalten wir einen weiteren
2 1 2

108
3.6. Lineare Gleichungssysteme und affine Räume

0 5 1
2
B 1C
B 2C
Lösungsvektor z = B
B 1 C
C, der offensichtlich von y linear unabhängig ist. Damit
@ 0 A
3
ergibt sich die Lösungsmenge des Gleichungssystems (3.16)

Ab 1 (b) = f(2; 0; 2; 1; 1)t + ( 52 ; 12 ; 1; 0; 3)t + ( 12 ; 21 ; 2; 3; 0)t ; 2 R g:

Ist die Koeffizientenmatrix A des Gleichungssystems A  x = b invertierbar, so läßt


sich nach Korollar 3.5.16 A schon durch Zeilenumformungen allein in die Einheits-
matrix überführen. Die Zeilenstufenform von A ist also bereits die Einheitsmatrix.
Die Umformung der geränderten Matrix liefert also eine Matrix der Form

0 1
1 0        0 10
B0 1 
B 0 20 C
C
B .. .. .. C
B. ..
. C (3.25)
B . . C
@ 0        1 0 n0 1 A
0        0 1 n0 :

Wir können nun den eindeutig bestimmten Lösungsvektor x = ( 10 ; : : : ; n0 )t direkt


aus (3.25) ablesen.

Läßt es sich im allgemeinen Falle einer Matrix A 2 K mn erreichen, daß die
Umformung der geränderten Matrix eine Matrix der Gestalt

0 1 0         0 0    01;n 10 1
1;r+1
0 0 20 C
B 0. 1        0. 2;r. +1    2.;n
B
C
B .. C
B. . . .
. .
. .
. C
B 0 0 0 C
0 0 B
(A ; b ) := B 0         1 0 r 1;r+1    r 1;n r 1CC
0 0 r0 C
(3.26)
B 0         0 1 r;r+1    r;n
B
C
B 0.                                      
B 0 C
@ .. .. C
. A
0 0

ergibt, so können wir sofort die allgemeine Lösung aus (3.26) ablesen. Setzen wir
nämlich

109
3. Matrizen

0 0 1
1;r+k
B .. C
B . C
B 0 C
B r;r+k C
B
B 0 C C
B . C
B .. C
kk := B C 2 Kn mit der 1 in der r + k -ten Zeile,
B C
B 0 C
B
B 1 C C
B C
B 0 C
B .. C
@ . A
0
0
1;r+k + 1;r+k 1
B .. C
B . C
B C
B
so folgt A0  kk = B r;r+k + r;r+k C = 0, d.h. die Vektoren k1 ; : : : ; kn r
B C
0 C
B C
@ ..
. A
0
b auf. Wir sehen aber auch, daß a = ( 0 1 ; : : : ; 0 r ; 0; : : : ; 0)t 2 Kn
spannen Kern A
eine partikuläre Lösung ist. Bezeichnen wir nämlich das Produkt von Elementar-
matrizen, das den Zeilenumformungen entspricht, die A auf die Gestalt A0 gebracht
haben, mit V, so folgt V  A  a = A0  a = b0 = V  b und damit A  a = b. Damit
nXr
erhalten wir die Lösungsmenge als fa + k kk k 2 g. R
i=1
Leider läßt sich im allgemeinen Fall die Form in (3.26) nicht durch Zeilenumfor-
mungen allein erreichen. Was sich aber erreichen läßt, ist eine Transformation der
Form V  A  W, die die Gestalt in (3.26) bewirkt. Dabei folgt aus Satz 3.5.14,
daß das Produkt von Elementarmatrizen W nur Spaltenvertauschungen bewirken
muß. Durch Spaltenvertauschungen der Zeilenstufenmatrix können wir nämlich er-
reichen, daß alle Pivots in der Hauptdiagonalen stehen. Aus dieser Form erreichen
wir aber die Gestalt in (3.26) durch Zeilenumformungen allein. Das Gleichungssy-
stem A  x = b wird damit umgeformt zu

V  A  W  W 1  x = V  b: (3.27)

Die Lösungen des Gleichungssystems

VAWy=Vb (3.28)

lassen sich wie eben beschrieben aus der Matrix V  A  W ablesen. Dann gilt aber
y = W 1  x und damit x = W  y. D.h. die Spaltenvertauschungen in A werden
110
3.6. Lineare Gleichungssysteme und affine Räume

zu Zeilenvertauschungen in y und Zeilenvertauschungen in y bedeuten nur Um-


benennung der Unbekannten. Wir erhalten also die Lösungen x, wenn wir in den
abgelesenen Lösungen y die Komponenten entsprechend den in A vorgenomme-
nen Spaltenvertauschungen vertauschen. Auch dies wollen wir an einem Beispiel
klarmachen.
Sei
0 1 0 1
1 2 3 4 6
B0 1 2 2C B3C
B C B C
A=B
B2 1 0 1CC und b = B
B2C:
C
@3 2 1 3A @5A
4 3 2 1 4
Wir wollen das Gleichungssystem A  x = b lösen. Die geränderte Matrix ist dann
0 1
1 2 3 4 6
B0 1 2 2 3C
B C
A=B B 2 1 0 1 2 C:
C
@3 2 1 3 5A
4 3 2 1 4
Durch Gaußelimination erhalten wir die Zeilenstufenform
0 1
1 2 3 4 6
B 3C
B0 1 2 2 C
B0 1C
B 0 0 1 C:
@0 0 0 0 0A
0 0 0 0 0
Wir vertauschen nun die 3te und die 4te Spalte und erhalten
0 1
1 2 4 3 6
B0 1 2 2 3C
B C
B0 1C
B 0 1 0 C:
@0 0 0 0 0A
0 0 0 0 0
Durch Zeilenumformungen erreichen wir die Diagonalgestalt
0 1
1 0 0 1 0
B0 1 0 2 1C
B C
B0 1C
B 0 1 0 C:
@0 0 0 0 0A
0 0 0 0 0
Wir lesen nun die Lösungsmenge aus dieser Matrix ab, wobei wir beachten, daß

111
3. Matrizen

wir die 3te und 4te Komponente der Lösungsvektoren vertauschen müssen, da wir
ja die 3te und 4te Spalte zum Erreichen der Diagonalgestalt vertauschen mußten.
Damit erhalten wir die Lösungsmenge als
f(0; 1; 0; 1) + (1; 2; 1; 0)  2 R g = f(; 1 2; ; 1)  2 R g:

112
4. Determinanten

4.1 Permutationen
N N N
4.1.1 Definition Sei n := f1; : : : ; ng. Eine Bijektion  : n ! n heißt ei-
ne Permutation der Zahlen 1; : : : ; n. Die Hintereinanderausführung von Permuta-
tionen bezeichnen wir als Produkt der Permutationen. Wir notieren dies auch als
Produkt    . Wir definieren
Sn := f : N n ! N n ist bijektivg:
4.1.2 Lemma Die Menge Sn bildet mit der Komposition von Abbildungen eine
Gruppe. Man nennt sie die symmetrische Gruppe.

Zum Beweis vergleiche man die Beispiele in 1.1.12.

4.1.3 Definition Ein Element  2 Sn heißt eine Transposition, wenn  zwei Zah-
N
len vertauscht und die übrigen unverändert läßt, d.h. wenn es i; j 2 n gibt mit
N
i 6= j und für alle k 2 n gilt
(i für k = j
 (k) = j für k = i
k sonst.
Es ist aus der Definition sofort klar, daß    = id , d.h.  1 =  ist. Insbesondere
ist das Inverse einer Transposition wieder eine Transposition.

4.1.4 Satz Jede Permutation  2 Sn (n  2) läßt sich als ein Produkt endlich
vieler Transpositionen darstellen.

Beweis: Wir wollen vorausschicken, daß nach Definition 4.1.3 die Identität nicht
als Transposition betrachtet wird. Für  2 Sn definieren wir

k := min fj 2 N n (j ) 6= j g falls dies existiert
n sonst.

113
4. Determinanten

Ql
Wir zeigen nun durch Induktion nach n k , daß es ein Produkt i=1 i von
Transpositionen gibt, mit
l
Y
i   =