Sie sind auf Seite 1von 94

Lineare Algebra I

Prof. Dr. Alexander Schmidt


WS 2011/2012
von Yichuan Shen
19. Juli 2012
Inhaltsverzeichnis
Inhaltsverzeichnis 1
0 Einf uhrung 3
1 Gruppen, Ringe, Korper 11
1.1 Menge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Vektorraume 29
2.1 Denitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Operationen auf Vektorraumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4 Basen und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Der Rangsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3 Matrizen und lineare Gleichungssysteme 45
3.1 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Range von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4 Lineare Gleichungssysteme 53
4.1 Gau-Elimination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3 Explizite Losung linearer Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . 57
5 Determinanten und Eigenwerte 59
5.1 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.3 Eigenschaften der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.4 Leibniz-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.5 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.6 Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.7 Zerlegung in Eigenraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.8 Trigonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6 Bilinearformen 79
6.1 Bilinearform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.2 Quadratische Raume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.3 Euklidische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.4 Gram-Schmidt-Orthonormalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.5 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.6 Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
1
2 INHALTSVERZEICHNIS
6.7 Volumenform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Index 91
Kapitel 0
Einf

uhrung
Lineare Algebra ist die Lehre von den Vektorraumen und Lineare Abbildungen.
Zahlen
N = 1, 2, 3, . . .
N
0
= 0, 1, 2, . . .
=
p
q
[ p Z, q N,
p
q
ist gek urzter Bruch
in N, N
0
, Z, kann man addieren und multiplizieren
in Z, kann man subtrahieren
in kann man dividieren (auer durch 0)
Die Erfordernisse der Analysis f uhren zur Erweiterung von zu den reellen Zahlen 1.
Veranschaulichung reelle Zahl = Punkt auf der Zahlengeraden.
Nach Festlegung eines Koordinatenkreuzes ( = 0-Punkt und zwei zueinander senkrechten

Einheits-
vektoren) konnen wir jeden Punkt in der Ebene als Paar reeller Zahlen schreiben.
Entsprechend Punkte des Raumes = Tripel reeller Zahlen
Allgemeiner n N : Ein n-Tupel (x
1
, . . . , x
n
) reeller Zahlen heit Punkt oder Vektor des n-
dimensionale Raumes. x
1
, . . . , x
n
nennt man die Komponenten des Vektors (x
1
, . . . , x
n
). Die Gesamt-
heit dieser n-Tupel wird mit 1
n
bezeichnet.
Was kann man mit Vektoren tun?
I. Vektoraddition (x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+y
1
, . . . , x
n
+y
n
)
II. Skalare Multiplikation 1, x = (x
1
, . . . , x
n
) 1
n
x = (x
1
, . . . , x
n
)
III. Skalarprodukt x = (x
1
, . . . , x
n
), y = (y
1
, . . . , y
n
) Dann heit x, y = x
1
y
1
+ . . . + x
n
y
n
1 das
(Standard) Skalarprodukt von x und y.
Bemerkung All dies kann man auch mit anstelle von 1 machen.
Besonderheit n = 3
IV. Vektorprodukt (Kreuzprodukt) x = (x
1
, x
2
, x
3
) 1
3
, y = (y
1
, y
2
, y
3
) 1
3
x y = (x
2
y
3
x
3
y
2
, x
3
y
1
x
1
y
3
, x
1
y
2
x
2
y
1
) 1
3
3
4 KAPITEL 0. EINF

UHRUNG
Elementare Eigenschaften Sei 0
1
n = (0, . . . , 0) 1
n
. Dann gilt:
V1. (x +y) +z = x + (y +z), x, y, z 1
n
(Assoziativitat)
V2. 0
1
n +x = x, x 1
n
(neutrales Element)
V3. x +y = y +x, x, y 1
n
(Kommutativitat)
V4. ( x) = ( ) x, , 1, x 1
n
(Vertraglichkeit der Multiplikationen)
V5. ( +) x = x +x, , 1, x 1
n
(erstes Distributivitatsgesetz)
V6. (x +y) = x +y, 1, x, y 1
n
(zweites Distributivgesetz)
V7. 0x = 0
1
n, x 1
n
(Wirkung der 0 1)
V8. 1x = x, x 1
n
(Wirkung der 1 1)
Alle diese Eigenschaften folgen komponentenweise aus den bekannten Rechenregeln f ur 1.
Konventionen
Punkt- geht vor Strichrechnungen.
Das Zeichen + wird sowohl f ur die Addition reeller Zahlen, als auch f ur die Addition von Vektoren
benutzt.
Das Zeichen wird sowohl f ur die Multiplikation in 1, als auch f ur die Skalarmultiplikation
verwendet. Man lasst den Punkt oft weg.
(V1) und (V4) erlauben es, Ausdr ucke wie x +y +z oder x ohne Klammern zu schreiben.
Oft bezeichnet man 0
1
n 1
n
einfach nur mit 0.
Geometrische Veranschaulichung
x +y = Komposition von Vektoren
x = Streckung um den Faktor
Eigenschaften des Skalarprodukts
F ur x, y, z 1, 1 gilt:
S1. x +y, z = x, z +y, z (Distributivitat)
S2. x, y = x, y (Homogenitat)
S3. x, y = y, x (Symmetrie)
S4. x, x > 0, wenn x ,= 0
1
n
S1. bis S3. sind oensichtlich. S4. folgt daraus, dass Quadrate nicht negativ sind und aus
x
2
1
+. . . +x
2
n
= 0 x
1
= . . . = x
n
= 0
Denition 0.1 (Norm von x) x 1
n
: |x| :=
_
x, x
|x| = Abstand von x zum Ursprung 0.
Bemerkung Es gilt: |x| = [[ |x|
5
Denition 0.2 (Standardabstand im 1
n
) x, y 1
n
: d(x, y) := |x y|
Denition 0.3 (Orthogonalitat) x, y 1
n
: x und y orthogonal (x y) x, y = 0
Satz des Pythagoras Sind x und y orthogonal, so gilt:
|x +y|
2
= |x|
2
+|y|
2
Beweis
|x +y|
2
= x +y, x +y
= x, x + 2x, y +y, y
= x, x +y, y
= |x|
2
+|y|
2

Satz uber die Orthogonalprojektion Sei x 1


n
, x ,= 0. Dann gibt es zu jedem y 1
n
ein
eindeutig bestimmtes z 1
n
und eine eindeutig bestimmte reelle Zahl c 1, so dass
i. x z
ii. y = cx +z
Beweis
I. Eindeutigkeit: Falls solche z 1
n
, c 1 existieren, so gilt:
y, x = cx +z, x
= cx, x +z, x
= c|x|
2
+ 0
Wegen |x| , = 0 folgt c =
y,x)
|x|
2
. Weiter gilt y = cx+z, also z = y cx und so ist auch z eindeutig
bestimmt.
II. Existenz: Eine einfache Rechnung zeigt, dass die oben angegebenen c und z die gew unschten
Eigenschaften haben:
ii. cx +z = cx + (y cx) = y
i. z, x = y cx, x = y, x cx, x = y, x
y,x)
|x|
2
x, x = y, x y, x = 0

Schwarzsche Ungleichung F ur x, y 1
n
gilt:
[x, y[ |x| |y|
6 KAPITEL 0. EINF

UHRUNG
Beweis F ur x = 0 sind beide Seiten 0. Sei x ,= 0 und c 1, z 1
n
wie eben, d.h. y = z+cx, z, x =
0. Dann gilt:
|y|
2
= y, y = z +cx, z +cx
= c
2
|x|
2
+|z|
2
c
2
|x|
2
=
_
y, x
|x|
2
_
2
|x|
2
=
x, y
2
|x|
2
Ziehen der Quadratwurzel liefert das Gew unschte.

Dreiecksungleichung
x, y 1
n
: |x +y| |x| +|y|
Beweis
|x +y|
2
= x +y, x +y = |x|
2
+ 2x, y +|y|
2
|x|
2
+ 2|x||y| +|y|
2
= (|x| +|y|)
2

Bemerkung Der Name kommt daher, dass f ur x, y, z 1


n
folgt:
d(x, z) = |x z| = |(x y) + (y z)|
|x y| +|y z|
= d(x, y) +d(y, z)
Was ist der Winkel zwischen Vektoren?
Beobachtung F ur x, y 1
n
beide ungleich 0 gilt nach Schwarz:
x, y
|x||y|
1
Auerdem gilt:

x, y
|x||y|
=
x, y
|x|| y|
1
Daher gilt:
1
x, y
|x||y|
1
Der Kosinus deniert eine eineindeutige Funktion cos : [0, ] [1, 1] Daher ist die Umkehrfunktion
cos
1
: [1, 1] [0, ] wohldeniert.
Denition 0.4 (Winkel zwischen Vektoren) Seien x, y 1
n
von 0 verschieden.
(x, y) := cos
1
_
x, y
|x||y|
_
7
Eigenschaften
(x, y) = (y, x)
(x, x) = 0
aus x y folgt (x, y) =

2
(= 90

)
Kosinussatz F ur x, y 1
n
0 gilt:
|x y|
2
= |x|
2
+|y|
2
2|x||y| cos((x, y))
Beweis
|x y|
2
= x y, x y = |x|
2
+|y|
2
2x, y
= |x|
2
+|y|
2
2|x||y|
x, y
|x||y|
= |x|
2
+|y|
2
2|x||y| cos((x, y))
Das Vektorprodukt (n = 3)
Erinnerung x, y 1
3
: x y = (x
2
y
3
x
3
y
2
, x
3
y
1
x
1
y
3
, x
1
y
2
x
2
y
1
)
Eigenschaften
1. (x +y) z = x z +y z (Addivtivitat im ersten Argument)
2. (x) y = (x y) (Homogenitat im ersten Argument)
3. x y = y x (Antisymmetrie)
Auerdem folgt:
1. x (y +z) = x y +x z
2. x (y) = (x y)
Weiter:
4. x y x, x y y
5. x x = 0
6. Grassmann-Identitat: (x y) z = x, zy y, zx = z (y x)
7. Jacobi-Identitat: (x y) z + (y z) x + (z x) y = 0
8. x y, z = y z, x = z x, y
9. |x y|
2
= |x|
2
|y|
2
sin
2
((x, y)), falls x, y 1
3
0
8 KAPITEL 0. EINF

UHRUNG
Beweis 1. bis 5. rechnet man einfach durch.
6. Wir zeigen die Grassmann-Identitat nur in der ersten Komponente; die Rechnung f ur die zweite
und dritte Komponente sind analog.
((x y) z)
1
= (x y)
2
z
3
(x y)
3
z
2
= (x
3
y
1
x
1
y
3
)z
3
(x
1
y
2
x
2
y
1
)z
2
= (x
3
z
3
+x
2
z
2
)y
1
(y
2
z
2
+y
3
z
3
)x
1
= (x
1
z
1
+x
2
z
2
+x
3
z
3
)y
1
(y
1
z
1
+y
2
z
2
+y
3
z
3
)x
1
= x, zy
1
y, zx
1
7. Die Jacobi-Identitat folgt aus 6. wegen
(x y) z + (y z) x + (z x) y
= x, zy y, zx +y, xz z, xy +z, yx x, yz
= 0
8. Der folgende Ausdruck bleibt gleich bei Permutation von x, y, z.
x y, z = x
2
y
3
z
1
x
3
y
2
z
1
+x
3
y
1
z
2
x
1
y
3
z
2
+x
1
y
2
z
3
x
2
y
1
z
3
9.
|x y|
2
= x y, x y
= y (x y), x (aus 8.)
= (x y) y, x (aus 3.)
= y, yx x, yy, x (aus 6.)
= |x|
2
|y|
2
x, y
2
= |x|
2
|y|
2
_
1
_
x, y
|x||y|
_
2
_
= |x|
2
|y|
2
(1 cos
2
(x, y))
= |x|
2
|y|
2
sin
2
(x, y)

(9) |x y|
2
= |x|
2
|y|
2
sin
2
(x, y) x, y 1
3
0
Geometrische Deutung |x y| = Volumen des von x und y aufgespannten Parallelogramms.
Bezeichnung vol(x, y) = |x y|
Nach (4) steht x y senkrecht auf der Flache des Parallelogramms geometrische Beschreibung des
Kreuzprodukts bis auf das Vorzeichen.
Drei Vektoren x, y, z 1
3
spannen ein Parallelotop (Spat) auf. Volumen vol(x, y, z) = vol(x, y) h
wobei h die Hohe ist. Schreiben wir z = c (x y) +w mit x y, w = 0 (Orthogonalprojektion), so
gilt:
h = |c(x y)| = [c[ |x y| =
[z, x y[
|x y|
2
|x y| =
[z, x y[
|x y|
vol(x, y, z) = vol(x, y)
[z,xy)[
|xy|
= [x y, z[
9
Denition 0.5 Das Spatprodukt (Determinante) dreier Vektoren x, y, z 1
3
ist die reelle Zahl
x y, z (Volumen mit Vorzeichen)
Bemerkung Das Kreuzprodukt im 1
3
ist ein Beispiel f ur eine Operation, die weder kommutativ
noch assoziativ ist.
Beispiel
(1, 0, 0) (0, 1, 0) = (0, 0, 1)
(0, 1, 0) (1, 0, 0) = (0, 0, 1)
((1, 0, 0) (1, 0, 0)) (0, 1, 0) = (0, 0, 0) (0, 1, 0) = (0, 0, 0)
(1, 0, 0) ((1, 0, 0) (0, 1, 0)) = (1, 0, 0) (0, 0, 1) = (0, 1, 0)
Kapitel 1
Gruppen, Ringe, K

orper
1.1 Menge
Denition 1.1 (Cantorsche Mengendenition) Eine Menge ist eine Zusammenfassung bestimmter,
wohlunterschiedener Objekte unserer Anschauung oder unseres Denkens zu einem Ganzen.
Bemerkung Es gibt einen strikten axiomatischen Zugang zur Mengenlehre.
Schreibweisen f ur Mengen
M = a, b, c, . . . z.B. 1, 2, 3 = 1, 3, 2 = 3, 2, 1, 1
a M : a ist Element von M
a , M : a ist nicht Element von M
Andere Schreibweise: M = A [ B ist die Menge aller Objekte der Form A, die der Bedingung B
gen ugen, z.B.
M = x [ x 1, x < 5 oder k urzer: M = x 1 [ x < 5
Denition 1.2 Die leere Menge ist die Menge, die kein Element enthalt.
Denition 1.3 Eine Menge N heit Teilmenge der Menge M (N M), wenn M alle Elemente aus
N enthalt.
Beispiel
1, 2 N
die leere Menge ist Teilmenge jeder Menge
Bemerkung Anstelle von N M wird auch oft N M geschrieben, oder auch N M. Diese
drei Symbole sind gleichwertig. Die Schreibweisen N _ M oder N _ M oder N _ M bedeuten N ist
Teilmenge von M, aber nicht gleich M.
Denition 1.4 Die Menge aller Teilmengen einer Menge M heit Potenzmenge von M (T(M)).
Beispiel
M = 0, 1 T(M) = , 0, 1, M
Ist M eine endliche Menge mit n Elementen, so ist T(M) eine endliche Menge mit 2
n
Elementen.
11
12 KAPITEL 1. GRUPPEN, RINGE, K

ORPER
Endlich viele (nicht notwendig endliche) Mengen werden ublicherweise durch Indizes durchnumme-
riert. M
1
, . . . , M
n
. Unendlich viele Mengen werden typischerweise in der Form (M
i
)
iI
durchnumme-
riert, wobei I eine Menge ist, die man ihrer Rolle wegen auch Indexmenge nennt. Man sagt, (M
i
)
iI
sei eine durch I indizierte Familie von Mengen.
Denition 1.5 Seien K, L Teilmengen einer Menge M und (M
i
)
iI
eine Familie von Teilmengen
von M. Dann bildet man die folgenden Mengen:
(i)
_
iI
M
i
= m M [ es gibt ein i I mit m M
i

(ii)

iI
M
i
= m M [ m M
i
f ur alle i I
(iii) (Komplement, auch K L)
K L = m K [ m , L
Beispiel M = N
1, 2, 3 3, 4, 5 = 1, 2
1, 2 1, 2, 3 =
Denition 1.6 Sei (M
i
)
iI
eine Familie von Teilmengen einer Menge M. Man sagt, M ist die
disjunkte Vereinigung der M
i
und schreibt:
M =

_
iI
M
i
oder auch
_
iI
M
i
, wenn
M =

iI
M
i
und M
i
M
j
= f ur i ,= j gilt.
Denition 1.7 (Produktmenge, kartesisches Produkt) Es seien M
1
, . . . M
n
Mengen. Die Produktmen-
ge M
1
. . . M
n
besteht aus n-Tupel (m
1
, . . . , m
n
) mit m
1
M
1
, . . . , m
n
M
n
.
Beispiel
1 1 = 1
2
1 =
Bemerkung Denition 1.7 dehnt sich in nat urlicher Weise auf eine Familie (M
i
)
iI
aus. Schreib-
weise:

iI
M
i
Denition 1.8 Eine Relation R auf einer Menge M ist eine Teilmenge R M M. Sprechweise:
x, y M gehen die Relation R ein, wenn (x, y) R. Schreibweise: x
R
y.
1.1. MENGE 13
Beispiel
1. M = 1, R = (x, y) 1
2
[ x < y
2. M = Z, R = (m, n) Z
2
[ mn ist gerade
3. M = die Menge aller Sch uler einer Schule, R = (x, y) MM [ x und y gehen in die gleiche Klasse
Denition 1.9 Sei M eine Menge und R eine Relation auf M. R heit

Aquivalenzrelation, wenn die
folgenden Bedingungen erf ullt sind:
(

A1) Reexivitat: x
R
x f ur alle x M
(

A2) Symmetrie: x
R
y y
R
x
(

A3) Transitivitat: (x
R
y y
R
z) x
R
z
Beispiel
die Relation in Beispiel 1. ist nicht reexiv, nicht symmetrisch, aber transitiv
die Relation in Beispiel 2. und 3. sind

Aquivalenzrelationen
Bemerkung Auf jeder Menge existiert die (nutzlose)

Aquivalenzrelation = d.h.
R = (x, y) M M [ x = y
Denition 1.10 Sei M eine nichtleere Menge und R eine

Aquivalenzrelation auf M. eine nichtleere
Teilmenge A M heit

Aquivalenzklasse, wenn:
(i) a, b A = a
R
b
(ii) (a A a
R
b) = b A
Lemma 1.11 Ist R eine

Aquivalenzrelation auf der Menge M, so gehort jedes x M zu genau
einer

Aquivalenzklasse. Insbesondere gilt f ur zwei

Aquivalenzklassen A, A
t
, dass entweder A = A
t
oder
A A
t
= .
Beweis
1. Zu zeigen: Es gibt eine

Aquivalenzklasse, die x enthalt.
A := a M [ x
R
a
Wegen x
R
x (

A1) gilt x A, insbesondere gilt A ,= . Es verbleibt Bedingung (i), (ii) aus


Denition 1.10 zu verizieren.
(i) Seien a, b A. Dann gilt x
R
a, x
R
b. Aus (

A2) folgt a
R
x und (

A3) liefert a
R
b.
(ii) Sei a A und a
R
b. Zu zeigen: b A. Nach Denition gilt:
x
R
a, a
R
b = x
R
b = b A
2. Zu zeigen: (x A x A
t
) = A = A
t
Wir zeigen A A
t
. Der Nachweis von A
t
A ist dann aus Symmetriegr unden derselbe. Sei nun
a A. Dann gilt wegen x A a
R
x. Wegen x A
t
folgt a A
t
. Also a A
t
.

14 KAPITEL 1. GRUPPEN, RINGE, K

ORPER
Bemerkung M zerfallt also in die disjunkte Vereinigung der

Aquivalenzklasse bez uglich R.
Denition 1.12 Die Menge der

Aquivalenzklassen einer Menge M bez uglich einer

Aquivalenzrelation
R wird mit M/
R
bezeichnet.
Beispiel
in Beispiel 2 nach Denition 1.8 gibt es zwei

Aquivalenzklassen:
A
gerade
= . . . , 4, 2, 0, 2, 4, . . .
A
ungerade
= . . . , 3, 1, 1, 3, . . .
in Beispiel 3 nach Denition 1.8 ist die Menge der

Aquivalenzklassen die Menge der Schulklassen
der Schule.
Beispiel
Wir betrachten eine

Aquivalenzrelation auf N N
(m, n) (m
t
, n
t
) m+n
t
= m
t
+n
Dann gilt: Z = N N/

(Identiziere die

Aquivalenzklasse des Paares (m, n) mit der ganzen Zahl mn)
Sei n N. Wir betrachten die Relation auf Z
a b n [ (a b)
Dies ist eine

Aquivalenzrelation, denn
(

A1) a a = 0, n [ 0, also a a
(

A2) a b = n [ (a b) = n [ (b a) = b a
(

A3) (a b b c) = n [ (a b) und n [ (b c) = n [ (a b +b c) = (a c) = a c
Es gibt genau n verschiedene

Aquivalenzklassen, die 0, 1, . . . , n 1 bezeichnet werden. Die Menge
der

Aquivalenzklassen heit die Menge der Restklassen modulo n (Bezeichnung: Z/
nZ
). Man
schreibt a b mod n, wenn a und b in der gleichen

Aquivalenzklasse liegen.
Denition 1.13 Eine Abbildung f : M N einer Menge M in eine Menge N ist eine Vorschrift,
die jedem Element m M genau ein Element f(m) N zuordnet.
Beispiel
q : Z Z, x x
2
Ist M N eine Teilmenge, so gibt es die kanonische Inklusionsabbildung
i : M N, m( M) m( N)
Ist M = N, so ist dies die sogenannte Identitatsabbildung id : M M, m m
Denition 1.14 Zwei Abbildungen f, g : M N heien gleich, wenn f(m) = g(m) m M.
Beispiel f, g : 1 1, f(x) = x
2
+ 2x + 1, g(x) = (x + 1)
2
sind gleich.
1.1. MENGE 15
Denition 1.15 Sei f : M N eine Mengenabbildung.
(i) f ur n N heit die Teilmenge f
1
(n) := m M [ f(m) = n M die Urbildmenge von n.
Die Menge der n N mit f
1
(n) ,= heit Bild von f. Bezeichnung: f(M) oder Bild(f) oder
im(f).
(ii) f heit injektiv, wenn gilt:
m ,= m
t
= f(m) ,= f(m
t
)

Aquivalent: f ur jedes n N enthalt f


1
(n) hochstens ein Element.
(iii) f heit surjektiv, wenn zu jedem n N ein m M mit f(m) = n existiert.

Aquivalent: f
1
(n) ,= f ur alle n N
(iv) f heit bijektiv, falls es surjektiv und injektiv ist.

Aquivalent: f
1
(n) enthalt f ur alle n N genau ein Element.
Ist f : M N bijektiv, so deniert man die Umkehrabbildung
f
1
: N M
durch die Regel f
1
(n) = Das Element von f
1
(n). Diese Bezeichnungsdoppelung bringt in der Praxis
typischerweise keine Probleme.
Bemerkung Sei f : M N eine Mengenabbildung. Die Eigenschaften injektiv, surjektiv und
bijektiv signalisiert man durch Modikation des Pfeils:
f : M N (injektiv)
f : M N (surjektiv)
f : M N (bijektiv)
Denition 1.16 Sei M eine Menge und R eine

Aquivalenzrelation auf M. Dann ist die kanonische
Projektion p : M M/
R
deniert durch:
m M geht auf die eindeutig bestimmte

Aquivalenzklasse A M/
R
mit m A
Bemerkung Es gilt p
1
(A) = A. Da

Aquivalenzklasse per Denition nichtleer sind, ist die kanoni-
sche Projektion eine surjektive Mengenabbildung.
Denition 1.17. Sei M eine endliche Menge. Die Anzahl der Elemente von M bezeichnet man mit
#M oder auch mit card(M).
Beispiel. # = 0, #2, 7, 9 = 3
Lemma 1.18. Sei f : M N eine Abbildung endlicher Mengen. dann gilt:
(i) Ist f injektiv, so gilt: #M #N
(ii) Ist f surjektiv, so gilt: #M #N
(iii) Ist f bijektiv, so gilt: #M = #N
Lemma 1.19. Sei f : M M eine Selbstabbildung einer endlichen Menge M. Dann sind aquivalent:
(i) f ist injektiv
(ii) f ist surjektiv
(iii) f ist bijektiv
16 KAPITEL 1. GRUPPEN, RINGE, K

ORPER
Beweis.
(i) = (iii): Sei f injektiv. Dann gilt f ur jedes m M : #f
1
(m) 1. Nun zerfallt M in die
disjunkte Vereinigung der Urbildmenge.
M =

_
mM
f
1
(m)
Daher gilt:
#M =

mM
#f
1
(m)

mM
1 = #M
Daher gilt in der Mitte Gleichheit.
m M : #f
1
(m) = 1, d.h. f ist bijektiv
(ii) = (iii): analog, hier haben wir #f
1
(m) 1, m M
(iii) = (i) und (iii) = (ii) sind trivial.

Bemerkung. Die Gesamtheit aller Abbildungen einer Menge M in eine Menge N ist wieder eine
Menge und wird mit Abb(M, N) bezeichnet.
Denition 1.20. Seien M, N, K Mengen und f : M N, g : N K Abbildungen. Die Abbildung
g f : M K, m g(f(m))
heit die Komposition von f und g. Die Komposition kann man als Mengenabbildung auassen:
:
_
Abb(M, N) Abb(N, K) Abb(M, K)
(f, g) g f
Abb(M, N) wird auch mit N
M
bezeichnet.
Lemma 1.21. Seien I, M Mengen und sei (M
i
)
iI
die Familie von (immer gleichen) Mengen M
i
=
M, indiziert durch I. Dann existiert eine nat urliche Bijektion
: M
I

iI
M
i
Beweis. Die rechte Seite ist die Menge aller Tupel (m
i
)
iI
, m
i
M
i
= M. Die linke Seite ist
denitionsgema die Menge der Abbildungen f : I M. Eine solche Abbildung ist dadurch gegeben,
dass man jedem Element i I ein m
i
= f(i) M zuordnet. Wir denieren durch
f M
I
(f(i))
iI

iI
M
i
Da die Abbildung f durch ihre Werte f(i) M, i I gegeben ist, ist injektiv. Ist umgekehrt
(m
i
)
iI

iI
M
i
gegeben, so ist die Abbildung f : I M, i m
i
M ein Urbild unter . Daher
ist auch surjektiv.

1.2 Gruppen
Denition 1.22. Eine (binare) Verkn upfung auf einer Menge M ist eine Abbildung
: M M M, (m, n) m n
1.2. GRUPPEN 17
Denition 1.23. Eine Gruppe (G, , e) ist eine Menge G mit einer Verkn upfung und einem aus-
gezeichneten Element e G, so dass
(G1) g, h, k G : g (h k) = (g h) k (Assoziativitat)
(G2) g G : e g = g (Existenz eines linksneutralen Elements)
(G3) g G, h G : h g = e (Existenz eines Linksinversen)
Eine Gruppe G heit kommutativ oder abelsch, wenn zusatzlich gilt:
(G4) g, h G : g h = h g
Beispiel.
1. (Z, +, 0), (, +, 0), (1, +, 0), (C, +, 0) sind abelsche Gruppen.
2. ( 0, , 1), (1
>0
, , 1) sind abelsche Gruppen.
3. (Z/
nZ
, +, 0) ist eine abelsche Gruppe.
Wie ist die Summe von Restklassen deniert?
Vorschrift: Seien A, B Z/
nZ
(i) Wahle Vertreter a, b Z von A, B, d.h. a A, b B
(ii) Bilde a +b im Z
(iii) A+B := a +b, d.h. die Restklasse zu der a +b gehort
Damit diese Denition widerspruchsfrei ist (sprich: + ist wohldeniert), muss man nachweisen,
dass das Ergebnis nicht von der Auswahl von a, b in Schritt (i) abhangt.
4. Die symmetrische Gruppe (S
n
, , id
1,2,...,n
). Sei n N.
S
n
:= die Menge aller bijektiven Abb. : 1, 2, . . . , n 1, 2, . . . , n (sog. Permutationen)
Wir schreiben Permutation in der Form:
=
_
1 2 . . . n
(1) (2) . . . (n)
_
Umgekehrt deniert ein solches Diagramm eine Permutation. Wie viele davon gibt es?
n Moglichkeiten f ur die 1
n 1 Moglichkeiten f ur die 2

.
.
.
1 Moglichkeit f ur n
Daher gilt #S
n
= n(n 1) 1 = n! (Fakultat)
Wir verizieren (G1)-(G3):
(G1) g (h k) = (g h) k
(G2) id g = g
(G3) Ist g eine Permutation und h die inverse Abbildung g
1
, so gilt h g = g
1
g = id
F ur n 3 ist die Gruppe S
n
nicht kommutativ:
_
1 2 3 4 . . .
2 1 3 4 . . .
_

_
1 2 3 4 . . .
1 3 2 4 . . .
_
=
_
1 2 3 4 . . .
2 3 1 4 . . .
_
,=
_
1 2 3 4 . . .
3 1 2 4 . . .
_
=
_
1 2 3 4 . . .
1 3 2 4 . . .
_

_
1 2 3 4 . . .
2 1 3 4 . . .
_
18 KAPITEL 1. GRUPPEN, RINGE, K

ORPER
Satz 1.24. Sei (G, , e) eine Gruppe. Dann gilt f ur alle g, h, k G:
1. g h = g k = h = k (Linksk urzung)
2. g h = k h = g = k (Rechtsk urzung)
3. g e = e g = g (das linksneutrale Element ist auch rechtsneutral)
4. g h = g h g = g f ur ein g G = h = e
5. g G, eindeutig bestimmtes g
1
G : g
1
g = e = g g
1
6. h g = e g h = e = h = g
1
7. Es gilt (g
1
)
1
= g
Beweis.
(1) Sei g h = g k. Nach (G3): s G : s g = e. Daher gilt:
s (g h) = (s g) h = e h = h
s (g k) = (s g) k = e k = k
_
h = k
(3) e g = g gilt nach (G2). Nach (G3): h G : h g = e. Daher:
h (g e) = (h g) e = e e = e = h g
Nach (1) folgt g e = g
(5) Existenz: Sei h G mit h g = e. (G3) Dann gilt:
h (g h) = (h g) h = e h = h = h e
Nach (1) folgt: g h = e, d.h. h ist auch rechtsinvers.
(2) Sei g k = h k. Sei s G nach (5), so dass k s = e. Dann gilt:
(g k) s = g (k s) = g e = g
(h k) s = h (k s) = h e = h
_
g = h
(4)
g h = g = g e = h = e
analog: h g = g = e g = h = e
(5) Eindeutigkeit: Seien h, h
t
G mit h g = e = h
t
g. Mit (2) folgt h = h
t
= g
1
ist eindeutig
in G.
Sei h G mit g h = e. Wegen g g
1
= e folgt mit (1), dass h = g
1
. Somit folgt (6).
(7) aus g g
1
folgt g = (g
1
)
1
.

Bemerkung. Sind g, g
t
G, so gilt (g g
t
)
1
= (g
t
)
1
g
1
Begr undung. ((g
t
)
1
g
1
) (g g
t
) = (g
t
)
1
e g
t
= (g
t
)
1
g
t
= e
1.3. RINGE 19
1.3 Ringe
Denition 1.25. Ein Ring R = (R, +, , 0
R
) ist eine Menge R mit zwei Verkn upfungen +, : RR
R und einem ausgezeichneten Element 0
R
R, so dass
(R1) (R, +, 0
R
) ist eine abelsche Gruppe
(R2) a, b, c R : a (b c) = (a b) c
(R3) a, b, c R : a(b +c) = ab +ac, (a +b)c = ac +bc
Ein Ring mit 1 (unitarer Ring) ist ein Tupel R = (R, +, , 0
R
, 1
R
), so dass (R, +, , 0
R
) ein Ring ist
und
(R4) a R : 1
R
a = a = a 1
R
Ein Ring heit kommutativ, wenn die Multiplikation kommutativ ist, also wenn
(R5) a, b R : a b = b a
Beweis. Das inverse Element von a R bezeichnet man mit a. Ein Inverses bez uglich Multiplika-
tion existiert im Allgemeinen nicht.
Beispiel.
(1) (Z, +, , 0, 1) ist ein kommutativer Ring mit 1
(2) , 1, C analog
(3) Z/
nZ
ist ein kommutativer Ring mit 1. Multiplikationsvorschrift f ur A, B:
(i) Wahle Reprasentanten a A, b B
(ii) Bilde a b in Z
(iii) A B := a b (Klasse von a b)
(4) Die Menge der geraden ganzen Zahlen ist ein kommutativer Ring ohne 1.
Lemma 1.26. In einem Ring R = (R, +, , 0
R
) gelten die folgenden Aussagen
(i) a R : 0
R
a = 0
R
= a 0
R
(ii) a, b R : a(b) = ab = (a)b
Ring unitar =
(iii) b R : (b) = (1
R
)b
Beweis.
(i) 0
R
+ 0
R
a = (0
R
+ 0
R
) a = 0
R
a + 0
R
a
Nach K urzen folgt 0
R
= 0
R
a
Analog: 0
R
= a0
R
(ii) 0
R
= a 0
R
= a (b + (b)) = ab +a(b) = a(b) = ab
Die andere Aussage beweist man analog. Ist R unitar, so setzt man in (ii) a = 1
R
und erhalt
(iii).

20 KAPITEL 1. GRUPPEN, RINGE, K

ORPER
Beispiel. R = 0 mit den einzig moglichen Verkn upfung heit der Nullring. Der Nullring ist ein
kommutativer Ring mit 1. (Es gilt 0
R
= 0 = 1
R
) Dies ist der einzige Ring mit 1, in dem 0
R
= 1
R
gilt.
Grund: Gilt 0
R
= 1
R
, so gilt r R : r = 1
R
r = 0
R
r = 0
R
, d.h. #R = 1
Lemma 1.27. Es sei R = (R, +, , 0
R
, 1
R
) ein Ring mit 1 und R

R die Menge aller Elemente in


R, die sowohl ein Links- als auch ein Rechtsinverses bez uglich Multiplikation haben, d.h.
R

= r R [ s, t R : sr = 1
R
= rt
Dann ist (R

, , 1
R
) eine Gruppe. Man nennt R

die Einheitengruppe von R.


Beweis. Multiplikation f uhrt nicht aus R

heraus:
Seien also r, r
t
R

und s, s
t
, t, t
t
R mit sr = 1 = rt, s
t
r
t
= 1 = r
t
t
t
. Dann gilt:
(s
t
s)(rr
t
) = s
t
(sr)r
t
= s
t
r
t
= 1
(rr
t
)(t
t
t) = r(r
t
t
t
)t = rt = 1
Daher gilt rr
t
R

. Wir weisen jetzt die Gruppenaxiome nach.


(G1) folgt aus (G2)
(G2) 1
R
ist ein neutrales Element und 1
R
R

(G3) Bleibt zu zeigen:


r R

, r
t
R

: rr
t
= 1
Nach Denition s R : sr = 1 und wir m ussen zeigen, dass s R

. s hat oensichtlich eine


Rechtsinverse, aber r ist auch linksinvers zu s:
Wahle t R : rt = 1 Dann gilt: s = s(rt) = (sr)t = t
= rs = rt = 1
Bemerkung.
(1) Im Beweis haben wir gesehen, dass f ur r R

das Links- und Rechtsinversen ubereinstimmen.


Dies folgt auch aus 1.24
(2) Angenommen 0
R
R

. dann r R : 0
R
r = 1
R
und es folgt 0
R
= 0
R
r = 1
R
, d.h. R ist der
Nullring.
1.4 Korper
Denition 1.28. Ein Korper ist ein kommutativer Ring mit 1 K = (K, +, , 0
K
, 1
K
), in dem gilt:
K

= K 0
In Worten: K ist nicht der Nullring (sonst ware 0
K
K

) und jedes von 0


K
verschiedene Element
besitzt ein Inverses bez uglich Multiplikation.
Beispiel.
(1) , 1, C sind Korper
(2) Z ist kein Korper (Z

= 1)
Lemma 1.29. In einem Korper K gilt a b = 0
K
= (a = 0
K
b = 0
K
)
1.4. K

ORPER 21
Beweis. Sei a ,= 0
K
. Dann a
1
K : a
1
a = 1
K
. Es folgt b = 1
K
b = a
1
a b = a
1
0
K
= 0
K

Lemma 1.30. Ist p eine Primzahl, so ist Z/


pZ
ein Korper.
Beweis. Z/
pZ
ist kommutativer Ring mit 1. Zu zeigen: Jede von 0 verschiedene Restklasse hat ein
Inverses bez uglich Multiplikation. Mit anderen Worten: F ur A Z/
pZ
, A ,= 0 ist die 1 im Bild der
Multiplikationsabbildung
A : Z/
pZ
Z/
pZ
, B A B
Wir zeigen sogar, dass diese Abbildung surjektiv ist. Nach 1.19 gen ugt zu zeigen, dass die Abbildung
injektiv ist.
Angenommen, es gabe B, C Z/
pZ
mit A B = A C. Zu zeigen: B = C. Seien a, b, c Z Vertreter
von A, B, C. Wegen A ,= 0 gilt p [ a. Wegen AB = AC gilt ab ac mod p = p [ a(b c). Weil
p Primzahl ist und p [ a folgt p [ (b c), also b c mod p, also B = C. Also ist die Abbildung
A : Z/
pZ
Z/
pZ
injektiv, also surjektiv, also liegt 1 im Bild.

Bemerkung. Ist n N keine Primzahl, so ist Z/


nZ
kein Korper.
Beweis. F ur n = 1 ist Z/
nZ
der Nullring. Sei nun n > 1 keine Primzahl. Dann gilt
a, b N, 1 < a, b < n : ab = n
F ur die Restklassen bedeutet dies a ,=

0,

b ,=

0, aber a

b = ab = n =

0. Nach 1.29 ist Z/
nZ
kein Korper.

Wie man am Beispiel von Z/


nZ
sieht, kann es in einem Korper passieren, dass
1
K
+. . . + 1
K
. .
p mal
= 0
K
gilt.
Denition 1.31. Sei K ein Korper. Die kleinste nat urliche Zahl n mit
1
K
+. . . + 1
K
. .
n mal
= 0
K
heit die Charakteristik von K. Notation: char(K). Gibt es eine solche Zahl nicht, so setzt man
char(K) = 0
Bemerkung.
1. char(K) = 0 oder char(K) 2 (wegen 0
K
,= 1
K
))
2. , 1, C haben die Charakteristik 0
3. Z/
pZ
hat die Charakteristik p
Satz 1.32. char(K) ist entweder = 0 oder eine Primzahl
22 KAPITEL 1. GRUPPEN, RINGE, K

ORPER
Beweis. Sei char(K) ,= 0, also n = char(K) 2. Ware n keine Primzahl, so gabe es a, b N, 1 <
a, b < n mit ab = n
(1
K
+. . . + 1
K
)
. .
a mal
(1
K
+. . . + 1
K
)
. .
b mal
= 1
K
+. . . + 1
K
. .
n mal
= 0
K
Nach 1.29 ist 1
K
+. . . + 1
K
. .
a mal
oder 1
K
+. . . + 1
K
. .
b mal
gleich 0
K
. , wegen Minimalitat von n.

1.5 Homomorphismen
Homomorphismen = strukturerhaltende Abbildung
Denition 1.33. Seien (G,
G
, e
G
) und (H,
H
, e
H
) Gruppen. Eine Abbildung f : G H heit
Gruppenhomomorphismus, wenn f ur alle g, g
t
G gilt:
f(g
G
g
t
) = f(g)
H
f(g
t
)
Sind (R, +
R
,
R
, 0
R
) und (S, +
S
,
S
, 0
S
) Ringe, so heit eine Abbildung f : R S Ringhomomorphis-
mus, wenn f ur alle a, b R gilt:
f(a +
R
b) = f(a) +
S
f(b)
f(a
R
b) = f(a)
S
f(b)
Ein Ringhomomorphismus f : R S von Ringen mit 1 (R, +
R
,
R
, 0
R
, 1
R
) und (S, +
S
,
S
, 0
S
, 1
S
) heit
unitar, wenn zusatzlich gilt:
f(1
R
) = 1
S
Eine Abbildung zwischen Korper heit Korperhomomorphismus, wenn sie ien unitarer Ringhomomor-
phismus ist.
Denition 1.34. Ein Gruppen(Ring-, Korper-)homomorphismus heit injektiv (auch Monomorphis-
mus) bzw. surjektiv (auch Epimorphismus), wenn er als Mengenabbildung injektiv bzw. surjektiv ist.
Er heit Gruppen(Ring-, Korper-)isomorphismus, wenn er bijektiv, also injektiv und surjektiv ist.
Bemerkung. Die inverse Abbildung f
1
zu einem Gruppen(Ring-, Korper-)isomorphismus ist wie-
der ein Gruppen(Ring-, Korper-)isomorphismus. Zwei Gruppen (Ringe, Korper) heien isomorph,
wenn es einen Isomorphismus zwischen ihnen gibt.
Lemma 1.35. Sei f : (G,
G
, e
G
) (H,
H
, e
H
) ein Gruppenhomomorphismus. Dann gilt:
(i) f(e
G
) = e
H
(ii) g G : f(g
1
) = f(g)
1
Beweis.
(i) Es gilt e
G

G
e
G
= e
G
, also f(e
G
)
H
f(e
G
) = f(e
G
)
H
e
H
= f(e
G
) = e
H
(ii) e
H
= f(e
G
) = f(g
G
g
1
) = f(g)
H
f(g
1
) = f(g
1
) = f(g)
1

1.5. HOMOMORPHISMEN 23
Beispiel.
Ist (G,
G
, e
G
) eine Gruppe, so ist die Identitat id : G G ein Gruppenisomorphismus
Sind (G,
G
, e
G
) und (H,
H
, e
H
) Gruppen gegeben, so ist der triviale Homomorphismus
f : G H, f(g) = e
H
g G
ein Gruppenhomomorphismus. Er ist genau dann injektiv, wenn G = e
G
gilt und genau dann
surjektiv, wenn H = e
H

Sei n N. Die kanonische Projektion Z Z/


nZ
ist ein surjektiver, unitarer Ringhomomorphis-
mus
Die kanonische Inklusion 1 C sind Korperhomomorphismen
Die Exponentialabbildung (1, +, 0) (1
>0
, , 1), t e
t
ist ein Gruppenisomorphismus
Sei n N. Die Abbildung
S
n
S
n+1
,
_
1 . . . n
(1) . . . (n)
_

_
1 . . . n n + 1
(1) . . . (n) n + 1
_
ist ein injektiver Gruppenhomomorphismus
Denition 1.36. Eine Teilmenge H einer Gruppe G = (G,
G
, e
G
) heit Untergruppe, wenn sie mit
der von G ererbten Struktur eine Gruppe ist, d.h. wenn
(i) e
G
H
(ii) h, h
t
H : h
G
h
t
H
(iii) h H : h
1
H
Lemma 1.37. Sei H eine Untergruppe von G. Dann ist die Relation
g
H
g
t
: g
1
g
t
H
eine

Aquivalenzrelation auf G.
Beweis.
Reexivitat: g
H
g, weil g
1
g = e H
Symmetrie: g
H
g
t
= g
1
g
t
H = g
t1
g = (g
1
g
t
)
1
H = g
t

H
g
Transitivitat: g
H
g
t
, g
t

H
g
tt
= g
1
g
tt
= (g
1
g
t
) (g
t1
g
tt
) H = g
H
g
tt
Bemerkung. Die

Aquivalenzklasse eines Elements g G besteht aus allen g
t
G der Form g h
mit h H. Bezeichnung: gH. Die Menge aller

Aquivalenzklassen wird mit G/
H
bezeichnet. (die
Linksnebenklassen zu H)
Denition 1.38. Sei f : G H ein Gruppenhomomorphismus. Der Kern von f ist die Teilmenge
ker(f) = g G [ f(g) = e
H

24 KAPITEL 1. GRUPPEN, RINGE, K

ORPER
Lemma 1.39. Sei f : G H ein Gruppenhomomorphismus. Dann gilt:
(i) ker(f) ist eine Untergruppe von G
(ii) im(f) ist eine Untergruppe von H
(iii) f ist injektiv ker(f) = e
G

(iv) f ist surjektiv im(f) = H


Beweis.
(i) f(e
G
) = e
H
= e
G
ker(f)
g, g
t
ker(f) = f(g g
t
) = f(g) f(g
t
) = e
H
= g g
t
ker(f)
Aus 1.35(ii) folgt f ur g ker(f), dass f(g
1
) = f(g)
1
= e
1
H
= e
H
(ii) f(e
G
) = e
H
= e
H
im(f)
Seien h, h
t
im(f) und g, g
t
G mit f(g) = h und f(g
t
) = h
t
. Dann gilt
f(g g
t
) = f(g) f(g
t
) = h h
t
, also h h
t
im(f)
Ist h f(g) im(f), so h
1
= f(g)
1
= f(g
1
) im(f).
(iii) =: Sei f injektiv. F ur g ker(f) gilt f(e
G
) = e
H
= f(g), also g = e
G
, d.h. ker(f) = e
G

=: Sei nun ker(f) = e


G
und g, g
t
G mit f(g) = f(g
t
). Dann gilt f(g g
t1
) =
f(g) f(g
t
)
1
= e
H
, also g g
t1
ker(f) = e
G
. Es folgt g = g
t
, d.h. f ist injektiv.
(iv) trivial
Bemerkung. Jeder Gruppenhomomorphismus f : G H induziert einen surjektiven Gruppenho-
momorphismus F : G im(f) durch F(g) := f(g) im(f).
Notation. Von jetzt an lassen wir das -Zeichen weg und schreiben gh f ur g h.
Lemma 1.40. Sei G eine abelsche Gruppe und H G eine Untergruppe.
(i) die Menge der Linksnebenklassen zu H wird durch die Verkn upfung
(gH)(g
t
H) = (gg
t
)H
zu einer abelschen Gruppe.
(ii) Die kanonische Projektion p : G G/
H
ist ein surjektiver Gruppenhomomorphismus und
ker(p) = H. Bemerkung: G/
H
heit die Faktorgruppe von G nach H.
Bemerkung.
(i) Die Wohldeniertheit der Verkn upfung, d.h. zu zeigen: Gilt g
1
H = g
2
H und g
t
1
H = g
t
2
H, so
folgt (g
1
g
t
1
)H = (g
2
g
t
2
)H.
Wir wissen g
1
1
g
2
H, (g
t
1
)
1
g
t
2
H. Also:
(g
1
g
t
1
)
1
(g
2
g
t
2
) = (g
t1
1
g
1
1
)(g
2
g
t
2
)
= (g
t1
1
g
t
2
)
. .
H
(g
1
1
g
2
)
. .
H
H
Die G ultigkeit der Gruppenaxiome wird von G ererbt, z.B. gilt e
G/H
= e
G
H
1.5. HOMOMORPHISMEN 25
(ii) Kanonische Projektionen sind stets surjektiv. Dass p ein Homomorphismus ist, folgt aus der
Denition. Schlielich gilt:
ker(p) = g G [ p(g) = e
G/H

= g G [ g
H
e
G

= g G [ e
1
g
g H
= g G [ g H = H

Bemerkung. Ist G nicht kommutativ, so ist die Verkn upfung auf G/


H
nur unter bestimmten Be-
dingungen wohldeniert.
Denition 1.41. Sei R = (R, +
R
,
R
, 0
R
) ein Ring und S R eine Teilmenge. S heit Unterring
oder Teilring, wenn S mit den von R ererbten Struktur ein Ring ist.
0
R
S und (S, +
R
, 0
R
) ist eine Untergruppe von (R, +
R
, 0
R
)
(d.h. mit s
1
, s
2
S gilt s
1
+s
2
S und mit s S liegt s S)
mit s
1
, s
2
S gilt s
1
s
2
S
Ist R unitar, so heit S unitarer Unterring von R, wenn S unitar ist und es gilt 1
S
= 1
R
.
Beispiel.
Z ist ein unitarer Unterring in
2Z = a Z [ 2[a ist ein (nicht unitarer) Unterring in Z
1 1 mit komponentenweiser Addition und Multiplikation ist ein unitarer Ring
1 0 1 1 ist ein Unterring, ist unitar, aber kein unitarer Unterring, weil 1
11
= (1, 1),
aber 1
10
= (1, 0)
Denition 1.42. Ein Unterkorper eines Korpers ist ein unitarer Teilring, der selbst Korper ist.
Beispiel. ist Unterkorper von 1, 1 ist Unterkorper von C.
Lemma 1.43. Ist f : (R, +
R
,
R
, 0
R
) (S, +
S
,
S
, 0
S
) ein Ringhomomorphismus, so gilt:
f(0
R
) = 0
S
f(a) = f(a) a R
Beweis. Der Ringhomomorphismus f induziert einen Homomorphismus der unterliegenden Gruppe
f : (R, +
R
, 0
R
) (S, +
S
, 0
S
)
Alles folgt aus 1.35.
Bemerkung.
ker(f) = r R [ f(r) = 0
S
ist ein Unterring in R, der im Allgemeinen nicht unitar ist, auch
wenn R unitar ist.
im(f) ist ein Unterring von S. Sind R und S unitar und f ein unitarer Ringhomomorphismus,
so ist im(f) ein unitarer Teilring.
26 KAPITEL 1. GRUPPEN, RINGE, K

ORPER
Lemma 1.44. Sei f : (R, +
R
,
R
, 0
R
, 1
R
) (S, +
S
,
S
, 0
S
, 1
S
) ein unitarer Ringhomomorphismus.
Dann gilt f(R

) S

und die induzierte Abbildung (R

,
R
, 1
R
) (S

,
S
, 1
S
) ein Gruppenhomo-
morphismus.
Beweis. Sei r R

und s R sein Inverses. Dann gilt:


f(s)f(r) = f(sr) = f(1
R
) = 1
S
f(r)f(s) = f(rs) = f(1
R
) = 1
S
Also gilt f(r) S

. f ist unitarer Ringhomomorphismus = f : R

ist ein Gruppenhomo-


morphismus.
Satz 1.45. Seien K = (K, +
K
,
K
, 0
K
, 1
K
) und L = (L, +
L
,
L
, 0
L
, 1
L
) und f : K L ein Korper-
homomorphismus. Dann gilt:
(i) f ist injektiv
(ii) char(K) = char(L)
(iii) im(f) ist ein Teilkorper von L
Beweis.
(i) Nach 1.39. gen ugt zu zeigen: ker(f) = 0
K

Sei a ker(f), a ,= 0
K
. Dann existiert ein a
1
K und es gilt
1
L
= f(1
K
) = f(aa
1
) = f(a)f(a
1
) = 0
L
f(a
1
) = 0
L

Dieser Widerspruch zeigt, dass ein solches a nicht existiert, also gilt ker(f) = 0
K

(ii) Aus (i) folgt:


1
K
+. . . + 1
K
. .
n mal
= 0
K
f(1
K
) +. . . +f(1
K
) = f(0
K
)
1
L
+. . . + 1
L
. .
n mal
= 0
L
Aus der Denition folgt char(K) = char(L).
(iii) im(f) L ist unitarer Teilring. Zu zeigen: F ur y im(f), y ,= 0 gilt y
1
im(f).
Sei nun y = f(x). Wegen y ,= 0 gilt auch x ,= 0. Daher folgt x K

, y = f(x) f(K

) L

Bemerkung. Die induzierte Abbildung F : K f(K), x f(x), ist ein Korperisomorphismus und
man identiziert K mit f(K). Sprechweise: Der Korper K ist uber die Abbildung f in L eingebettet.
Im Allgemeinen kann es mehrere Einbettungen von K nach L geben. Sind f : G
1
G
2
und
g : G
2
G
3
Gruppenhomomorphismen, so ist die Verkn upfung g f : G
1
G
3
auch ein Gruppenho-
momorphismus. Gleiches gilt f ur Ring- und Korperhomomorphismen.
Spezialfall: G
1
= G
2
= G
3
Denition 1.46. Sei G eine Gruppe. Ein Gruppenhomomorphismus f : G G heit Gruppenendo-
morphismus. Ist f bijektiv, so heit f Gruppenautomorphismus. Analoge Sprechweise f ur Ringe und
Korper.
1.5. HOMOMORPHISMEN 27
Bezeichnung.
End(G), End(R), End(K)
Aut(G), Aut(R), Aut(K)
Lemma 1.47. Sei G eine Gruppe (R ein Ring, K ein Korper). Dann ist Aut(G) (Aut(R), Aut(K))
mit der Verkn upfung.
Aut(G) Aut(G) Aut(G)
(f, g) f g
(analog f ur Aut(R), Aut(K)) eine Gruppe.
Beweis. Wohldeniertheit: Mit f und g ist auch g f bijektiv.
Assoziativitat: h (g f) = (h g) f
neutrales Element: id
G
Inverses: Mit f ist auch f
1
ein Gruppenautomorphismus und f f
1
= id
G

Bemerkung. Ist R = (R, +
R
,
R
, 0
R
) ein Ring, so muss man zwischen den Gruppen Aut(R, +
R
,
R
, 0
R
)
(Ringautomorphismus) und Aut(R, +
R
, 0
R
) (Gruppenautomorphismus) unterscheiden. Die erstere ist
eine Untergruppe der zweiten.
Kapitel 2
Vektorr

aume
2.1 Denitionen
Sei R ein unitarer Ring.
Denition 2.1. Ein (unitarer, Links-)Modul uber R ist eine abelsche Gruppe (M, +
M
, 0
M
) mit einer
Operation R M M, (a, m) a m, so dass a, b, c R, v, w M :
(M1) a (b v) = (a b) v
(M2) (a +b) v = av +bv
(M3) a (v +w) = av +aw
(M4) 1
R
v = v
Denition 2.2. Ein Modul uber einen Korper K heit K-Vektorraum.
Beispiel.
(1) 0 mit der oensichtlichen (und einzig moglichen) Operation ist ein K-Vektorraum.
(2) (K, +
K
, 0
K
) mit der Operation K K K, (a, b) ab ist ein K-Vektorraum.
(3) K
n
= K . . . K
. .
n mal
wird zum K-Vektorraum durch
(v
1
, . . . , v
n
) + (w
1
, . . . , w
n
) = (v
1
+w
1
, . . . , v
n
+w
n
)
a(v
1
, . . . , v
n
) = (av
1
, . . . , av
n
)
(4) C ist ein 1-Vektorraum. Allgemeiner: Ist L ein Korper und K L ein Teilkorper, so ist L ein
K-Vektorraum.
(5) Die Menge (
n
(1, 1) der n-mal stetig dierenzierbaren Funktion von 1 nach 1 (0 n )
ist ein 1-Vektorraum durch
Addition: (f
1
+f
2
)(x) = f
1
(x) +f
2
(x)
Skalarmultiplikation: (af)(x) = af(x)
Von jetzt an sei K ein xierter Korper, den wir manchmal von der Notation ausschliee.
29
30 KAPITEL 2. VEKTORR

AUME
Lemma 2.3. Sei V ein K-Vektorraum. Dann gilt f ur alle v V, a K:
(i) 0
K
v = 0
V
(ii) 1
K
v = v
(iii) a 0
V
= 0
V
Beweis.
(i) 0
V
+ 0
K
v = 0
K
v = (0
K
+ 0
K
)v = 0
K
v + 0
K
v = 0
V
= 0
K
v
(ii) 0
V
= 0
K
v = (1
K
+ (1
K
))v = v + (1
K
)v = v = (1
K
)v
(iii) a 0
V
= a(0
V
+ 0
V
) = a0
V
+a0
V
= 0
V
= a 0
V

Denition 2.4. Seien V, W K-Vektorraume. Ein Gruppenhomomorphismus f : V W heit


(K-)lineare Abbildung oder K-Vektorraumhomomorphismus, wenn gilt:
x V : f(ax) = af(x)
Eine lineare Abbildung heit Vektorraummonomorphismus, Vektorraumepimorphismus bzw. Vektor-
raumisomorphismus, wenn sie injektiv, surjektiv bzw. bijektiv ist.
Die Menge der linearen Abbildungen von V nach W wird mit Hom
K
(V, W) bezeichnet. Weitere
Notationen:
End
K
(V ) = Hom
K
(V, V )
GL(V ) = Aut
K
(V ) = End
K
(V ) [ ist Isomorphismus
Beispiel.
(1) K
n
K
1
= K, (a
1
, . . . , a
n
) a
1
(2) 1
n
1, x x, y f ur ein fest gewahltes y 1
n
(3) K
n
K
2n
, (a
1
, . . . , a
n
) (a
1
, . . . , a
n
, a
1
, . . . , a
n
)
(4) (
0
(1, 1) 1, f
_
1
0
f(x)dx
(5) n 1 : (
n
(1, 1) (
n1
(1, 1), f f
t
=
df
dx
(Ableitung)
Denition 2.5. Eine Teilmenge V eines K-Vektorraums W heit Untervektorraum, wenn sie mit
den von W ererbten Struktur ein K-Vektorraum ist, d.h.
(i) V ist Untergruppe von W
(ii) a K : v V = a v V
Beispiel. V = (x, y, z) 1
3
[ x +y +z = 0 ist ein Untervektorraum der 1
3
.
Lemma 2.6. Sei f : V W eine K-lineare Abbildung
(i) ker(f) V ist ein Untervektorraum
(ii) im(f) W ist ein Untervektorraum
2.2. OPERATIONEN AUF VEKTORR

AUMEN 31
Beweis. ker(f) und im(f) sind Untergruppen nach 1.39.
(i) F ur v ker(f) gilt:
f(av) = af(v) = a 0
W
= 0
Also liegt a K : av ker(f)
(ii) F ur w = f(v) im(f) gilt:
aw = af(v) = f(av) im(f)
2.2 Operationen auf Vektorraumen
(1) Seien U, V K-Vektorraume und M eine Menge.
Abb(M, V ) wird zum K-Vektorraum durch
(f
1
+f
2
)(m) = f
1
(m) +f
2
(m)
(af)(m) = af(m)
neutrales Element: m M : e(m) = 0
V
(

Nullabbildung)
Bezeichnung: 0 Abb(M, V )
Hom
K
(U, V ) Abb(U, V ) ist ein Untervektorraum, weil
f
1
, f
2
lineare Abbildungen = f
1
+f
2
lineare Abbildung
a K, f lineare Abbildung = af lineare Abbildung
Spezialfall: V = K.
U

:= Hom
K
(U, K)
heit der Dualraum von U. Seine Elemente heien Linearformen auf U.
Ist f : U V eine lineare Abbildung, so ist die duale Abbildung
f

: V

, f
linear. Die Abbildung
: Hom
K
(U, V ) Hom
K
(V

, U

), f f

ist linear. Wir haben eine nat urliche lineare Abbildung


1
U (U

, u (f f(u))
die Auswertungsabbildung.
das kartesische Produkt U V wird durch
(u
1
, v
1
) + (u
2
, v
2
) = (u
1
+u
2
, v
1
+v
2
)
a(u, v) = (au, av)
zum K-Vektorraum. Alternative Bezeichnung: U V (die direkte Summe)
(2) Seien U
1
, U
2
V Untervektorraume
U
1
U
2
ist Untervektorraum
U
1
+U
2
:= u
1
+u
2
[ u
1
U
1
, u
2
U
2
ist Untervektorraum
1
Prof. A. Schmidt: Wir wollen nun den Wahnsinn auf die Spitze treiben...
32 KAPITEL 2. VEKTORR

AUME
Lemma 2.7. Die nat urliche Abbildung
: U
1
U
2
U
1
+U
2
, (u
1
, u
2
) u
1
+u
2
ist surjektiv und linear. Gilt U
1
U
2
= 0, so ist ein Isomorphismus.
Beweis.
ist linear: Seien u
1
, v
1
U
1
, u
2
, v
2
U
2
und a K
((u
1
, u
2
) + (v
1
, v
2
)) = (u
1
+v
1
, u
2
+v
2
)
= u
1
+v
1
+u
2
+v
2
= (u
1
+u
2
) + (v
1
+v
2
)
= (u
1
, u
2
) +(v
1
, v
2
)
(a(u
1
, u
2
)) = (au
1
, au
2
)
= au
1
+au
2
= a(u
1
+u
2
)
= a(u
1
, u
2
)
Die Surjektivitat von folgt aus der Denition von U
1
+U
2
Sei U
1
U
2
= 0 und (u
1
, u
2
) ker(). Dann gilt
u
1
+u
2
= 0 = u
1
= u
2
Folglich u
1
U
2
, u
2
U
1
, also u
1
, u
2
U
1
U
2
= 0. Daher gilt ker() = 0 und die
Injektivitat von folgt aus 1.39 (iii).

(3) Sei U V ein Untervektorraum. Die Faktorgruppe V/


U
der Restklassen (= Nebenklassen) v+U
von V modulo U wird ein K-Vektorraum durch a(v +U) = av +U.
Unabhangigkeit von der Auswahl:
Ist v
1
+ U = v
2
+ U, also v
1
v
2
U. Folglich av
1
av
2
= a(v
1
v
2
) U und daher
av
1
+U = av
2
+U.
V/
U
heit Faktorvektorraum. Die kanonische Projektion p : V V/
U
ist linear.
Satz 2.8. (Universelle Eigenschaft des Faktorraums) Sei U V ein Untervektorraum und p : V
V/
U
die kanonische Projektion. Zu jeder linearen Abbildung f : V W mit U ker(f) gibt es eine
eindeutig bestimmte lineare Abbildung

f : V/
U
W mit f =

f p
Beweis.
Existenz: Deniere

f(v +U) = f(v)
Wohldeniertheit: Gilt v
1
+U = v
2
+U, so gilt v
1
v
2
U ker(f).
Daher: f(v
1
) = f(v
2
) +f(v
1
v
2
) = f(v
2
) + 0
Eindeutigkeit: Seien

f
1
und

f
2
zwei solche Abbildungen und v + U V/
U
beliebig. Zu zeigen:

f
1
(v +U) =

f
2
(v +U). Wegen
f(v) =

f
1
(p(v)) =

f
1
(v +U)
und f(v) =

f
2
(p(v)) =

f
2
(v +U)
gilt

f
1
(v +U) =

f
2
(v +U).

2.2. OPERATIONEN AUF VEKTORR

AUMEN 33
Korollar 2.9. Seien U V Vektorraume und W ein weiterer Vektorraum. Dann gibt es einen
nat urlichen Isomorphismus von Vektorraum:
F : Hom
K
(V, W) [ U ker() Hom
K
(V/
U
, W)
Beweis. Die Abbildung F ist durch die Universaleigenschaft des Faktorraums 2.8 gegeben, d.h.
F() =: ist die eindeutig bestimmte Abbildung mit (v + U) = (v) W. Dass F linear ist, folgt
direkt aus der Denition. Um zu zeigen, dass F Isomorphismus ist, gen ugt es, eine Umkehrabbildung
anzugeben.
Sei p : V V/
U
die kanonische Projektion und f ur : V/
U
W setze G() := p. Dann gilt
U ker(G()) und (F G)() = und (G F)() = , .

Korollar 2.10. Es gibt einen nat urlichen Isomorphismus


(W/
im(f)
)

= ker(f

: W

)
Beweis. (W/
im(f)
)

= Hom
K
(W/
im(f)
, K) und
ker(f

) = : W K [ f

() = 0
= : W K [ f = 0
= : W K [ im(f) ker()
Die Aussage folgt aus 2.9. (mit U = im(f) und W = K).

Satz 2.11. (Homomorphiesatz f ur lineare Abbildungen) Seien V, W Vektorraume und f : V W ei-


ne lineare Abbildung. Dann gibt es einen nat urlichen Vektorraumisomorphismus F : V/
ker(f)
im(f)
mit der Eigenschaft f = i F p. Hierbei bezeichnet p : V V/
ker(f)
die kanonische Projektion und
i : im(f) W die Inklusion.
V
p
V/
ker(f)

F
im(f)
i
W

Beweis. Nach 2.8 erhalten wir eine lineare Abbildung



f : V/
ker(f)
W mit

f(v + ker(f)) = f(v),
d.h. f =

f p.


f ist injektiv, weil

f(v+ker(f)) = 0 = f(v) = 0 = v ker(f) = v+ker(f) = 0+ker(f).
das Bild von

f ist gleich im(f). (klar)
Daher konnen wir

f in der Form

f = i F und F : V/
ker(f)
im(f). i und

f sind injektiv, also auch
F. Nach Konstruktion ist F surjektiv. Daher ist F ein Isomorphismus und es gilt f =

f p = i F p.

(4) (unendliche Familien) Seien (U


i
)
iI
Untervektorraume in U. Das kartesische Produkt

iI
U
i
wird analog zum Produkt zweier Vektorraume durch komponentenweise Addition und Skalar-
multiplikation zu einem Vektorraum.
Notation: Ist I eine Indexmenge und sind (a
i
)
iI
Objekte, die durch I indiziert sind, so sagt
man, dass eine Eigenschaft

f ur fast alle i Ierf ullt ist, wenn es eine endliche Teilmenge J I


gibt, so dass a
i
die Eigenschaft f ur alle i I J hat.
34 KAPITEL 2. VEKTORR

AUME
Beispiel.

iI
U
i
:=
_
(u
i
)
iI

iI
U
i
[ u
i
= 0 f ur fast alle i I
_
heit die direkte Summe der Vektorraume U
i
und ist ein Untervektorraum im Produkt. Ist I selbst
eine endliche Menge, so gilt:

iI
U
i
=

iI
U
i
Ist die Indexmenge I endlich, nimmt man sich typischerweise eine bijektive Abbildung I = 1, . . . , n
und schreibt

iI
U
i
=
n

i=1
U
i
und analog f ur alle anderen Operationen.
Konvention. F ur Unterraume in V :

i
U
i
:= 0,

i
:= V
Sei nun (U
i
)
iI
eine Familie von Untervektorraume eines Vektorraums V . Dann haben wir die Unter-
vektorraume

iI
U
i
= u U [ u U
i
i I

iI
U
i
=
_

iI
u
i
[ u
i
U
i
i I, u
i
= 0 f ur fast alle i I
_
Wegen der Bedingung u
i
= 0 f ur fast alle i I ist die scheinbar unendliche Summe

iI
U
i
nur eine
endliche Summe, und darum uberhaupt deniert.
Lemma 2.12. (End
K
(V ), +, , 0, id
V
) ist ein unitarer Ring. Die Abbildung
K End
K
(V ), a a id
V
ist ein unitarer Ringhomomorphismus. Durch die Operation
End
K
(V ) V V
(f, v) f(v)
wird V zu einem (unitaren, links) End
K
(V )-Modul.
Beweis. Wir verizieren die Ringaxiome f ur (End
K
(V ), +, , 0, id
V
). Zunachst ist assoziativ. Wei-
ter gilt g (f
1
+f
2
) = g f
1
+g f
2
wegen
(g (f
1
+f
2
))(v) = g((f
1
+f
2
)(v))
= g(f
1
(v) +f
2
(v))
= g(f
1
(v)) +g(f
2
(v))
= (g f
1
)(v) + (g f
2
)(v)
= (g f
1
+g f
2
)(v)
Analog (g
1
+g
2
) f = g
1
f +g
2
f. Also ist End
K
(V ) ein Ring, in dem id
V
oenbar ein 1-Element
ist. Dass die Abbildung K End
K
(V ), a a id
V
, ein Ringhomomorphismus ist, liest man leicht an
den Denitionen ab. Die gegebene Operation macht V zu einem End
K
(V )-Modul, weil:
(M1) g (f v) = g(f(v)) = (g f)(v) = (g f) v
2.3. BASEN 35
(M2) (f +g) v = (f +g)(v) = f(v) +g(v) = f v +g v
(M3) f (v +w) = f(v +w) = f(v) +f(w) = f v +f w
(M4) 1
End
K
(V )
v = id
V
(v) = v

2.3 Basen
Sprechweise. (m
i
)
iI
ist ein System von Elementen in M.
Denition 2.13. Ein System von Skalaren (
i
)
iI
K
I
heit endlich, wenn
i
= 0 f ur fast alle i
gilt. Die Menge aller endlichen Systeme von Skalaren wird mit K
(I)
bezeichnet.
Bemerkung. Sei V ein K-Vektorraum, (v
i
)
iI
ein System von Vektoren in V und (
i
)
iI
K
(I)
ein
endliches System von Skalaren. Dann gilt
i
v
i
= 0 f ur fast alle i, so dass man der Summe

iI

i
v
i
einen Sinn geben kann.
Denition 2.14. Sei V ein K-Vektorraum, I eine Indexmenge und v = (v
i
)
iI
ein System von
Vektoren in V . Der Untervektorraum
Lin((v
i
)
iI
) :=
_

iI

i
v
i
[ (
i
)
iI
K
(I)
_
heit die lineare H ulle des Systems (v
i
)
iI
. Jeder Vektor v Lin((v
i
)
iI
) heit Linearkombination der
v
i
. Man nennt Lin((v
i
)
iI
) auch den von den Vektoren (v
i
)
iI
aufgespannten Untervektorraum.
Bemerkung. Setzt man U
i
= Kv
i
:= v
i
[ K, so gilt:
Lin((v
i
)
iI
) =

iI
U
i
Denition 2.15. Sei (v
i
)
iI
ein System von Vektoren eines Vektorraums V .
(i) (v
i
)
iI
heit Erzeugendensystem von V , wenn Lin((v
i
)
iI
) = V gilt.
(ii) (v
i
)
iI
heit linear unabhangig, wenn f ur jedes endliche System von Skalaren (
i
)
iI
K
(I)
die
folgende Implikation gilt:

iI

i
v
i
= 0 = i I :
i
= 0
(iii) (v
i
)
iI
heit Basis von V , wenn es zu jedem Vektor v V ein eindeutig bestimmtes endliches
System von Skalaren (
i
)
iI
K
(I)
mit v =

iI

i
v
i
gibt.
Lemma 2.16. Ein System von Vektoren (v
i
)
iI
ist genau dann eine Basis von V , wenn es ein
Erzeugendensystem und linear unabhangig ist.
36 KAPITEL 2. VEKTORR

AUME
Beweis. Sei (v
i
)
iI
eine Basis. Da jeder Vektor als Linearkombination der v
i
darstellbar ist, gilt
Lin((v
i
)
iI
) = V , d.h. (v
i
)
iI
ist ein Erzeugendensystem. Ist nun (
i
)
iI
K
(I)
ein endliches System
von Skalaren mit

iI

i
v
i
= 0, so gilt wegen

iI
0 v
i
= 0 und der Eindeutigkeit der Darstellung:
i I :
i
= 0
Sei nun (v
i
)
iI
ein Erzeugendensystem. Dann ist jeder Vektor Linearkombination der (v
i
)
iI
. Zu
zeigen: Ist das System (v
i
)
iI
linear unabhangig, so ist die Darstellung jedes Vektors v V als
Linearkombination der v
i
eindeutig. Seien nun (
i
), (
i
) K
(I)
endliche Familien und

iI

i
v
I
=
v =

iI

i
v
i
. Dann ist die Familie (
i

i
)
iI
auch endlich und es gilt

iI
(
i

i
)v
i
= 0 =

i

i
= 0 i I. Hieraus folgt
i
=
i
i I.

Beispiel. Im K
n
bilden die Vektoren
e
1
= (1, 0, . . . , 0)
e
2
= (0, 1, 0, . . . , 0)
.
.
.
e
n
= (0, . . . , 1)
eine Basis. Diese heit die kanonische Basis des K
n
. Der Vektor e
i
, i 1, . . . , n heit der i-te
Einheitsvektor.
Lemma 2.17. Der K-Vektorraum V habe die endliche Basis (v
1
, . . . , v
n
). Dann ist die Abbildung
: K
n
V, (
1
, . . . ,
n
)
n

i=1

i
v
i
ein Vektorraumisomorphismus.
Beweis. Zunachst ist linear.
v
1
, . . . , v
n
linear unabhangig = ker() = 0 = ist injektiv
v
1
, . . . , v
n
sind Erzeugendensystem = ist surjektiv

Bemerkungen.
Im Moment wissen wir noch nicht, ob f ur n ,= m eventuell ein Isomorphismus K
n
= K
m
existieren konnte.
Aus unseren Konventionen folgt, dass der triviale K-Vektorraum 0 die leere Basis hat.
Jeder Vektorraum V hat ein Erzeugendensystem, z.B. das, welches aus allen Vektoren besteht
(wahle I = V und id : V V ).
Ist V ,= 0 und 0 ,= v V , so ist das 1-elementige System (v
1
), v
1
= v, linear unabhangig
(
1
v
1
= 0
1
,= 0 = 0 =
1
1

1
v
1
= v
1
).
Denition 2.18. Ein Vektorraum V heit endlich erzeugt, wenn es ein endliches Erzeugendensystem
(v
1
, . . . , v
n
) von V gibt.
Beispiel. K
n
ist endlich erzeugt.
2.3. BASEN 37
Denition 2.19. Ein Erzeugendensystem (v
i
)
iI
eines Vektorraums V heit minimal , wenn f ur jede
echte Teilmenge J _ I das System (v
i
)
iJ
kein Erzeugendensystem ist.
Beispiel. Das Erzeugendensystem (e
1
, . . . , e
n
) des K
n
ist minimal. Lasst man den i-ten Einheits-
vektor weg, so kann man nur noch Elemente (
1
, . . . ,
n
) K
n
mit
i
= 0 als Linearkombination
erhalten. Wegen 1 ,= 0 in K fehlt also z.B. der Vektor (0, . . . , 1, . . . , 0) (die 1 steht an i-ter Stelle).
Satz 2.20. Ein Erzeugendensystem ist genau dann minimal, wenn es eine Basis ist.
Beweis. Sei (v
i
)
iI
eine Basis und J _ I eine echte Teilmenge. Wahle ein i
0
I J. Trivialerweise
gilt v
i
0
= 1v
i
0
. Wegen der Eindeutigkeit der Darstellung, lasst sich also v
i
0
nicht als Linearkombination
der v
j
mit j J schreiben und deshalb ist (v
i
)
iJ
kein Erzeugendensystem. Folglich ist (v
i
)
iI
ein
minimales Erzeugendensystem.
Sei nun (v
i
)
iI
V
I
ein minimales Erzeugendensystem. Nach 2.17 m ussen wir zeigen, dass (v
i
)
iI
linear unabhangig ist. Angenommen es gabe ein von 0 verschiedenes endliches System (
i
) K
(I)
mit

iI

i
v
i
= 0. Sei i
0
I mit
i
0
,= 0. Dann gilt:

i
0
v
i
0
=

iI\i
0

i
v
i
= v
i
0
=

iI\i
0

i
0
v
i
Behauptung: (v
i
)
iI\i
0

ist auch ein Erzeugendensystem


Sei v V . Dann existiert eine endliche Familie (
i
)
iI
K
(I)
mit v =

iI

i
v
i
. Nun gilt:
v =
i
0
v
i
0
+

iI\i
0

i
v
i
=

iI\i
0

i
0

i
a
i
0
+
i
_
v
i
Dies zeigt die Behauptung und wir erhalten einen Widerspruch zur Minimalitat des Systems (v
i
)
iI
.

Vorbemerkung. Seien I, J Mengen. Dann kann man die disjunkte Vereinigung I



J bilden. Die
Elemente von I

J sind die Elemente von I und die Elemente von J. Sind I und J Teilmengen einer
gemeinsamen Obermenge M, so gibt es eine nat urliche Surjektion,
I

J I J
die genau dann bijektiv ist, wenn I J = . Sind nun (v
i
)
iI
, (w
j
)
jJ
zwei Systeme von Vektoren
eines Vektorraums V , so bezeichnet man das System
(u
k
)
kI

J
=
_
v
k
, k I
w
k
, k J
die Vereinigung der Systeme (v
i
)
iI
und (w
j
)
jJ
.
Denition 2.21. Ein linear unabhangiges System (v
i
)
iI
V
I
heit maximal , wenn f ur jedes v V
das System (v
i
)
iI


mit v
i
= v
i
f ur i I und v

= v nicht linear unabhangig ist.


Satz 2.22. Ein linear unabhangiges System ist genau dann eine Basis, wenn es maximal ist.
38 KAPITEL 2. VEKTORR

AUME
Beweis. Sei (v
i
)
iI
eine Basis und v V beliebig. Dann existiert (
i
)
iI
K
(I)
mit v =

iI

i
v
i
.
Also

iI

i
v
i
+ (1)v = 0, weshalb die Vereinigung von (v
i
)
iI
mit dem 1-elementigen System (v)
nicht linear unabhangig ist.
Sei (v
i
)
iI
linear unabhangig und maximal. Nach 2.17. gen ugt es zu zeigen, dass (v
i
)
iI
ein
Erzeugendensystem ist. Angenommen (v
i
)
iI
sei kein Erzeugendensystem. Dann existiert ein v
V Lin((v
i
)
iI
). Behauptung: Das System (v
i
)
iI


mit v
i
= v
i
f ur i I und v

= v ist linear
unabhangig. Sei (
i
)
iI


eine endliche Familie mit

iI

i
v
i
= 0. Dann gilt:

v =

iI

i
v
i
Da (v
i
)
iI
linear unabhangig ist, gilt

,= 0. Teilen durch

zeigt v Lin((v
i
)
iI
) . Dies
zeigt die Behauptung. Wegen der Maximalitat von (v
i
)
iI
erhalten wir einen Widerspruch, also
V = Lin((v
i
)
iI
).
Satz 2.23. (Basiserganzungssatz) Sei (v
i
)
iI
ein Erzeugendensystem des Vektorraums V und I
t
I
eine Teilmenge, so dass das System (v
i
)
iI
linear unabhangig ist. Dann gibt es eine Teilmenge J I
mit I
t
J, so dass (v
i
)
iJ
eine Basis ist.
Insbesondere besitzt jeder Vektorraum eine Basis und jeder endlich erzeugte Vektorraum besitzt
eine endliche Basis.
Beweis.

Insbesondere: Sei (v
i
)
iI
ein Erzeugendensystem von V und setze I
t
= . So erhalt man
J I mit (v
i
)
iJ
Basis. War I endlich, so ist dies auch J.
Strategie: Vergroere I
t
, bis I
t
maximal und linear unabhangig, also eine Basis, ist. Der Einfach-
heit halber nehmen wir an, dass I endlich ist.
2
Sei nun (v
1
, . . . , v
n
), n 0 ein linear unabhangiges
System und (w
1
, . . . , w
m
) ein System, so dass V durch (v
1
, . . . , v
n
, w
1
. . . , w
m
) erzeugt wird. Wir zei-
gen: Es gibt eine Zahl s, 0 s m und Indizes 1 j(1) < j(2) < . . . < j(s) m, so dass
(v
1
, . . . , v
n
, w
j(1)
, . . . , w
j(s)
) eine Basis ist. Wir starten mit (v
1
, . . . , v
n
):
nehme w
1
zum System dazu. Wenn es dadurch linear abhangig wird, entferne w
1
wieder.
nehme w
2
hinzu. Wenn es dadurch linear abhangig wird, entferne es wieder.
.
.
.
nehme w
m
hinzu . . .
Wir erhalten ein System (w
j(1)
, . . . , w
j(s)
) mit den folgenden Eigenschaften:
(v
1
, . . . , v
n
, w
j(1)
, . . . , w
j(s)
) ist linear unabhangig
wenn man ein weiteres w
j
dazunimmt, wird das System linear abhangig.
Nach Umnummerierung von (w
1
, . . . , w
m
), sei dieses System (v
1
, . . . , v
1
, w
1
, . . . , w
s
).
Behauptung: Dieses linear unabhangiges System ist Erzeugendensystem, also eine Basis. Sei
s < i m. Nach Konstruktion ist das System (v
1
, . . . , v
n
, w
1
, . . . , w
s
, w
i
) linear abhangig.
=
1
, . . . ,
n
,
1
, . . . ,
s
,
i
K mit
1
v
1
+. . . +
n
v
n
+
1
w
1
+. . . +
s
w
s
+
i
w
i
= 0
wobei nicht alle Koezienten gleich 0 sind. Ware
i
= 0, so auch alle anderen
i
,
j
, wegen der linearen
Unabhangigkeit von (v
1
, . . . , v
n
, w
1
, . . . , w
s
). Daher gilt
i
,= 0 und
w
i
=
1
i
(
1
v
1
+. . . +
n
v
n
+
1
w
1
+. . . +
s
w
s
)
Ein beliebiges Element v V kann nach Voraussetzung als Linearkombination von
(v
1
, . . . , v
n
, w
1
, . . . , w
m
) geschrieben werden. Nach Substitution der w
i
, i > s also auch als Linearkom-
bination von (v
1
, . . . , v
n
, w
1
, . . . , w
s
).
2
Beweis im allgemeinen Fall, siehe z.B. Greub - Lineare Algebra, oder Brieskorn - Lineare Algebra und Analytische
Geometrie
2.3. BASEN 39
Bemerkung. 2.23 + 2.17: Jeder endlich erzeugte Vektorraum ist isomorph zu K
n
f ur ein n N
0
.
Ist n eindeutig bestimmt?
Satz 2.24. Sei (v
1
, . . . , v
n
) linear unabhangig und (w
1
, . . . , w
m
) eine Basis von V . Dann gilt n m.
Beweis. In linear unabhangigen Systemen kommt kein Vektor doppelt vor, also gilt:
#v
1
, . . . , v
n
= n
#w
1
, . . . , w
m
= m
Sei k = #(v
1
, . . . , v
n
w
1
, . . . , w
m
). Dann gilt 0 k n. Beweis per Induktion:
IA: k = 0 = v
1
, . . . , v
n
w
1
, . . . , w
m

IS: Die Aussage sei f ur beliebige System (v
1
, . . . , v
n
), (w
1
, . . . , w
m
) mit den obigen Eigenschaften
und #(v
1
, . . . , v
n
w
1
, . . . , w
m
) < k bewiesen. Seien nun (v
1
, . . . , v
n
), (w
1
, . . . , w
m
) solche
Systeme mit #(v
1
, . . . , v
n
w
1
, . . . , w
m
) = k. Nach Umnummerierung konnen wir annehmen:
v
1
, . . . , v
k
w
1
, . . . , w
m
=
v
k+1
, . . . , v
n
w
1
, . . . , w
m

Wir betrachten nun das linear unabhangige System (v


1
, . . . , v
k1
, v
k+1
, . . . , v
n
). Nach 2.23 gibt es
(w
j(1)
, . . . , w
j(s)
), so dass (v
1
, . . . , v
k1
, v
k+1
, . . . , v
n
, w
j(1)
, . . . , w
j(s)
) eine Basis ist. Wegen v
k
,
Lin(v
1
, . . . , v
k1
, v
k+1
, . . . , v
n
) folgt s 1.
Induktionsvoraussetzung angewendet auf (v
1
, . . . , v
k1
, v
k+1
, . . . , v
n
, w
j(1)
, . . . , w
j(s)
) und
(w
1
, . . . , w
m
) liefert n 1 +s m und wegen s 1 folgt n m.
Korollar 2.25. Sei V ein Vektorraum, der eine Basis aus n Vektoren hat. Dann gilt:
(i) mehr als n Vektoren sind stets linear abhangig
(ii) jede Basis besteht aus genau n Vektoren
(iii) jedes Erzeugendensystem besteht aus mindestens n Vektoren
Beweis.
(i) folgt aus 2.24
(ii) Ist (v
1
, . . . , v
n
) eine Basis und (w
1
, . . . , w
m
) eine weitere Basis, so zeigt 2.24: n m und m n
(iii) Ware (w
1
, . . . , w
m
), m < n ein Erzeugendensystem, so gabe es nach 2.23 eine Basis aus weniger
als n Vektoren, was (ii) widerspricht.
Denition 2.26. Ist V ein endlich erzeugter Vektorraum, so nennt man die Kardinalitat einer (jeder)
Basis die Dimension von V .
Bezeichnung. dim
K
V oder einfach dimV . Ist V nicht endlich erzeugt, so setzt man dimV = .
Beispiel.
V = 0 dimV = 0
dimK
n
= n, insbesondere gilt K
n
= K
m
n = m, da isomorphe Vektorraume die gleiche
Dimension haben.
dim(
0
(1, 1) =
Begr undung: Sei n N beliebig und seien a
0
, . . . , a
n
K nicht alle 0. Dann ist a
0
+a
1
x+. . .+a
n
x
n
nicht das Nullpolynom, hat also nur endlich viele Nullstellen und ist insbesondere nicht dass
Nullpolynom. Das bedeutet, dass die n + 1 Funktionen 1, x, x
2
, . . . , x
n
linear unabhangig sind.
Daher gilt dim
1
(
0
(1, 1) > n, n N = Aussage.
40 KAPITEL 2. VEKTORR

AUME
Satz 2.27. Sei V ein endlich erzeugter Vektorraum und W V ein Untervektorraum, so ist W
endlich erzeugt und dimW dimV . Die Gleichheit ist aquivalent zu W = V .
Beweis. Sei n = dimV . Wir erhalten eine endliche Basis von W wie folgt:
1. W = 0 fertig
2. W ,= 0. Wahle w
1
W0. (w
1
) Basis = fertig. Ansonsten ist (w
1
) kein maximales linear
unabhangiges System und wir nden w
2
W mit (w
1
, w
2
) linear unabhangig. (w
1
, w
2
) Basis
= fertig. Ansonsten suche w
3
usw.
Dieser Prozess bricht ab, weil mehr als n Vektoren in V , also auch in W stets linear abhangig sind.
Wir erhalten eine Basis (w
1
, . . . , w
m
) von W mit m n. Im Fall m = n ist (w
1
, . . . , w
m
) ein maximal
linear unabhangiges System von Vektoren in V , also W = Lin(w
1
, . . . , w
n
) = V .
Bemerkung. Von jetzt an benutzen wir das Wort endlich dimensionierter Vektorraum anstelle von
endlich erzeugter Vektorraum.
Lemma 2.28. Sei f : V W eine lineare Abbildung zwischen endlich dimensionierten Vek-
torraumen. Dann gilt:
(i) ist f injektiv und (v
1
, . . . , v
n
) linear unabhangig in V , so ist (f(v
1
), . . . , f(v
n
)) linear unabhangig
in W. Insbesondere gilt dimV dimW und Gleichheit gilt genau dann, wenn f ein Isomorphis-
mus ist.
(ii) ist f surjektiv und (v
1
, . . . , v
n
) ein Erzeugendensystem von V , so ist (f(v
1
), . . . , f(v
n
)) ein Erzeu-
gendensystem von W. Insbesondere gilt dimV dimW und Gleichheit gilt genau dann, wenn
f ein Isomorphismus ist.
Beweis.
(i) Sei (v
1
, . . . , v
n
) linear unabhangig in V . Dann gilt:
n

i=1

i
f(v
i
) = 0 = f
_
n

i=1

i
v
i
_
= 0 =
n

i=1

i
v
i
= 0 =
i
= 0, i 1, . . . , n
Also ist (f(v
1
), . . . , f(v
n
)) linear unabhangig. Ist nun (v
1
, . . . , v
n
) eine Basis von V , so folgt aus
der linearen Unabhangigkeit von (f(v
1
), . . . , f(v
n
)) : dimV = n dimW.
Da f injektiv ist, induziert f einen Isomorphismus F : V im(f), v f(v) W und aus
dimV = dimim(f) folgt:
f Isomorphismus im(f) = W dimim(f) = dimW dimV = dimW
(ii) Sei f surjektiv und (v
1
, . . . , v
n
) ein Erzeugendensystem von V . Sei w = f(v) W beliebig. Dann
existieren
1
, . . . ,
n
K mit v =

n
i=1

i
v
i
. Es folgt:
w = f(v) =
n

i=1

i
f(v
i
) = (f(v
1
), . . . , f(v
n
)) ist Erzeugendensystem von W
Wahlen wir nun eine Basis (v
1
, . . . , v
dimV
), so ist (f(v
1
), . . . , f(v
dimV
)) ein Erzeugendensystem
von W, also dimV dimW.
Ist f Isomorphismus, so gilt dimV = dimW. Umgekehrt gelte nun dimV = dimW =: n Sei
(w
1
, . . . , w
n
) eine Basis von W und w
i
= f(v
i
), i 1, . . . , n. Dann ist (v
1
, . . . , v
n
) linear
2.3. BASEN 41
unabhangig. (Grund:

i
v
i
= 0 =

i
f(v
i
) = 0 = i :
i
= 0) und wegen n = dimV
maximal linear unabhangig, also eine Basis von V . Ist nun

i
v
i
ker(f), so folgt
n

i=1

i
w
i
= 0 = i :
i
= 0 = ker(f) = 0
f ist Isomorphismus.
Korollar 2.29. Sei V ein endlich dimensionierter Vektorraum und f : V V ein Endomorphismus.
Dann sind aquivalent:
(i) f ist injektiv
(ii) f ist surjektiv
(iii) f ist Isomorphismus
Beweis. Ist f injektiv, so ist f Isomorphismus nach 2.28(i). Ist f surjektiv, so ist f Isomorphismus
nach 2.28(ii). Die anderen Implikationen sind trivial.
Lemma 2.30. Sind U, V Vektorraume, so gilt:
dimU V = dimU + dimV
Bemerkung. Per Konvention gilt +n = , n + = , + = .
Beweis. Gilt dimU = oder dimV = , so gilt nach 2.27 dimU V = . Sind n = dimU
und m = dimV endlich, (u
1
, . . . , u
n
) eine Basis von U und (v
1
, . . . , v
m
) eine Basis von V , so ist
((u
1
, 0), . . . , (u
n
, 0), (0, v
1
), . . . , (0, v
m
)) eine Basis von U V .
Denition 2.31. Sei V ein Vektorraum und U V ein Untervektorraum. Ein Untervektorraum
U
t
V heit Komplement zu U, wenn U U
t
= 0 und U +U
t
= V .
Bemerkung. Ist U
t
ein Komplement zu U, so ist U ein Komplement zu U
t
.
Satz 2.32. Sei V ein Vektorraum und U V ein Untervektorraum. Dann existiert ein Komplement
zu U.
Beweis. Sei (u
i
)
iI
eine Basis von U. Wir erganzen diese zu einer Basis (u
i
)
i

J
von V . Setze
U
t
= Lin((u
i
)
iJ
). Dann gilt:
U U
t
= 0, U +U
t
= V

Lemma 2.33. Sei V ein Vektorraum, U V ein Untervektorraum und U


t
V ein Komplement zu
U. Dann ist die nat urliche Abbildung
U U
t
V, (u, u
t
) u +u
t
ein Isomorphismus. Insbesondere gilt: dimV = dimU + dimU
t
.
Beweis. Der Isomorphismus folgt aus 2.7, die Dimensionsformel aus 2.30.
42 KAPITEL 2. VEKTORR

AUME
Satz 2.34. (Dimension des Faktorraums) Sei V ein endlich dimensionierter Vektorraum und U V
ein Untervektorraum. Dann ist V/
U
endlich dimensioniert und es gilt:
dimV/
U
= dimV dimU
Beweis. Sei U
t
ein Komplement zu U. Wir betrachten die Komposition
: U
t

i
V
p
V/
U
Behauptung: ist Isomorphismus.
ker() = ker(p) U
t
= U U
t
= 0
= f ist injektiv. Sei nun v + U V/
U
beliebig. Wegen U + U
t
= V existiert u U, u
t
U
t
mit
u +u
t
= v, also u
t
+U = v +U. Somit ist u
t
ein Urbild von v +U unter .
Satz 2.35. (Dimensionsformel f ur lineare Abbildungen) Ist f : V W eine lineare Abbildung
zwischen endlich dimensionierten Vektorraumen, so gilt:
dimV = dimker(f) + dimim(f)
Beweis. Nach 2.11. gilt V/
ker(f)

= im(f). Die Aussage folgt aus 2.34.
Satz 2.36. Seien U
1
, U
2
Untervektorraume des endlich dimensionierten Vektorraums V . Dann gilt:
dimU
1
+ dimU
2
= dim(U
1
U
2
) + dim(U
1
+U
2
)
Beweis. Wir betrachten wie im Beweis von 2.7. die surjektive lineare Abbildung
: U
1
U
2
U
1
+U
2
, (u
1
, u
2
) u
1
+u
2
Behauptung: Die Abbildung i : U
1
U
2
ker(), u (u
1
, u) ist ein Isomorphismus. Injektivitat:
klar. Sei (u
1
, u
2
) ker(). Dann gilt u
1
= u
2
, also u
1
, u
2
U
1
U
2
. Setze u = u
1
. Dann gilt
i(u) = (u
1
, u
2
). Also ist surjektiv. Nach 2.35. gilt nun:
dim(U
1
U
2
) = dim(U
1
U
2
) + dim(U
1
+U
2
)
Nach 2.30 gilt dimU
1
U
2
= dimU
1
+ dimU
2
.
2.4 Basen und lineare Abbildungen
Sei f : V W eine lineare Abbildung und (v
i
)
iI
eine Basis von V . Wir erhalten das System (f(v
i
))
iI
von Vektoren in W.
Satz 2.37. Zu jedem System (w
i
)
iI
von Vektoren in W, existiert eine eindeutig bestimmte lineare
Abbildung f : V W mit w
i
= f(v
i
) i.
Beweis. Jedes v V hat eine eindeutig bestimmte endliche Darstellung v =

i
v
i
,
i
= 0 f ur
fast alle i. Wegen der Eindeutigkeit der Darstellung ist die Abbildung f : V W, f(v) =

i
w
i
wohldeniert, linear und hat die gew unschte Eigenschaft.
Sind nun f
1
, f
2
lineare Abbildungen und i : f
1
(v
i
) = w
i
= f
2
(v
i
), so gilt f ur v =

i
v
i
:
f
1
(v) =

i
f
i
(v
i
) =

i
w
i
=

i
f
2
(v
i
) = f
2
(v)
also f
1
= f
2
.
2.5. DER RANGSATZ 43
Korollar 2.38. F ur jeden Vektorraum V ist die kanonische Auswertungsabbildung : V (V

injektiv.
Beweis. Erinnerung: (u) (V

ist gegeben durch f V

f(u) K.
Zu zeigen: ker() = 0, also aus f V

: f(u) = 0 folgt u = 0.
Sei u ,= 0. Nach 2.23 existiert eine Basis (u
i
)
iI
von V , die u enthalt, d.h. u
i
0
= u f ur ein i
0
I.
Wir denieren eine Linearform f : V K durch f(u
i
0
) = 1 und f(u
i
) = 0 f ur i ,= i
0
. Dann gilt
f(u) = f(u
i
0
) ,= 0.
Satz 2.39. Ist V endlich dimensional, so gilt dimV = dimV

.
Beweis. Sei (v
1
, . . . , v
n
) eine Basis von V . Seien v

1
, . . . , v

n
V

deniert durch v

i
(v
j
) =
ij
mit

ij
=
_
1 i = j
0 i ,= j
(Kronecker-Symbol)
Behauptung: (v

1
, . . . , v

n
) ist eine Basis von V

. Sei
1
v

1
+. . . +
n
v

n
der 0-Homomorphismus V K.
Es gilt:

1
=
1
+ 0 +. . . + 0
=
1
v

1
(v
1
) +
2
v

2
(v
1
) +. . . +
n
v

n
(v
1
)
= (
1
v

1
+. . . +
n
v

n
)(v
1
)
= 0
Analog f ur a
2
, . . . , v
n
. = (v

1
, . . . , v

n
) ist linear unabhangig. Sei f : V K beliebig und sei

i
= f(v
i
). Dann gilt:
f =
1
v

1
+. . . +
n
v

n
weil beide Seiten Linearformen auf V sind, die die gleichen Bilder auf den Basisvektoren (v
1
, . . . , v
n
)
haben.
Denition 2.40. Die eben denierte Basis (v

1
, . . . , v

n
) von V

heit die zu (v
1
, . . . , v
n
) duale Basis.
Korollar 2.41. Ist V endlich dimensional, so ist die kanonische Auswertungsabbildung : V
(V

ein Isomorphismus.
Beweis. 2.38 = injektiv. 2.39: dimV = dimV

= dim(V

. 2.28 (i) = Isomorphismus.


Bemerkung. F ur unendlich dimensionierte Vektorraume ist 2.41 falsch.
2.5 Der Rangsatz
Denition 2.42. Sei V, W endlich dimensioniert und f : V W linear. Der Rang von f ist deniert
durch
Rg(f) = dimim(f)
Bemerkung.
f = 0 = Rg(f) = 0
f surjektiv Rg(f) = dimW
Im Allgemeinen gilt: 0 Rg(f) min(dimV, dimW)
44 KAPITEL 2. VEKTORR

AUME
Satz 2.43. (Rangsatz) Rg(f) = Rg(f

)
Beweis.
Rg(f

) = dimim(f

)
= dimW

dimker(f

)
= dimW

dim(W/
im(f)
)

= dimW dimW/
im(f)
= dimW dimW + dimim(f)
= Rg(f)

Kapitel 3
Matrizen und lineare
Gleichungssysteme
Im ganzen Kapitel gilt: K ist xierter Korper. Jeder endlich dimensionierter K-Vektorraum V ist
unkanonisch isomorph zu K
n
, n = dimV . Der Isomorphismus hangt von der Auswahl einer Basis von
V ab. (2.17)
3.1 Matrizen
Denition 3.1 Eine mn-Matrix mit Eintragen in K ist ein Schema
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_
mit a
ij
K f ur 1 i m, 1 j n
Die Menge der mn-Matrizen uber K wird mit M
m,n
(K) bezeichnet.
Denition 3.2. M
m,n
(K) wird zum K-Vektorraum:
(a
ij
) + (b
ij
) = (a
ij
+b
ij
)
(a
ij
) = (a
ij
), K

Ublicherweise identiziert man K


n
mit M
n,1
(K) durch
(a
1
, . . . , a
n
)
_
_
_
a
1
.
.
.
a
n
_
_
_
(Spaltenvektor)
Denition 3.3. Sind A = (a
ij
)
1im, 1jn
M
m,n
(K) und B = (b
ij
)
1in, 1jk
M
n,k
(K), so
heit die Matrix C = (c
ij
)
1im, 1jk
M
m,k
(K) mit
c
ij
=
n

s=1
a
is
b
sj
das Produkt der Matrizen A und B.
Schreibweise: C = A B
45
46 KAPITEL 3. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
Beispiel.
_
1 1
0 1
__
2
3
_
=
_
5
3
_
,
_
1 2
_
_
5
5
_
=
_
15
_
Warnung: Im Allgemeinen ist B A nicht deniert und selbst wenn m = n = k ist, gilt im Allgemeinen
A B ,= B A.
Identiziere wie oben K
n
mit M
n,1
(K), so deniert Multiplikation mit einer festen Matrix A
M
m,n
(K) eine Abbildung
F
m,n
(A) : K
n
K
m
Wir erhalten eine Zuordnung A F
m,n
(A), die jeder m n-Matrix eine Abbildung K
n
K
m
zuordnet.
Satz 3.4. Die eben denierte Zuordnung deniert einen Vektorraum-Isomorphismus
F
m,n
: M
m,n
(K) Hom
K
(K
n
, K
m
)
F ur A M
m,n
(K) und B M
n,k
(K) gilt:
F
m,k
(A B) = F
m,n
(A) F
n,k
(B) Hom
K
(K
k
, K
m
)
Beweis.
1. F
m,n
(A) ist linear. (Rechnen)
2. F
m,k
: M
m,n
(K) Hom
K
(K
n
, K
m
) ist linear. (Rechnen)
3. Beobachtung: F ur 1 i n gilt:
F
m,n
(A)(e
i
) = A
_
_
_
_
_
_
_
_
0
.
.
.
1
.
.
.
0
_
_
_
_
_
_
_
_
=
_
_
_
a
1i
.
.
.
a
mi
_
_
_
= i-te Spalte von A
Nun ist (e
1
, . . . , e
n
) eine Basis von K
n
und nach 2.37 ist eine lineare Abbildung : K
n
K
m
eindeutig durch das System ((e
1
), . . . , (e
n
)) im K
m
gegeben und umgekehrt. Daher ist F
m,n
ein
Isomorphismus.
Formel f ur die Multiplikation: Es gen ugt zu zeigen, dass f ur i 1, . . . , k : F
m,k
(A B)(e
i
) =
F
m,n
(A)(F
n,k
(B)(e
i
)).
Linke Seite: F
m,k
(A B)(e
i
) = i-te Spalte von A B
=
_
_
_
a
11
b
1i
+a
12
b
2i
+. . . +a
1n
b
ni
.
.
.
a
n1
b
1i
+a
n2
b
2i
+. . . +a
mn
b
ni
_
_
_
Rechte Seite: = A (i-te Spalte von B), also dasselbe.
Korollar 3.5. Das Matrixprodukt ist assoziativ. F ur m = n = k erhalten wir einen Isomorphismus
unitarer Ringe.
F
n,n
: M
n,n
(K) End
K
(K
n
)
Denition 3.6. Die Matrix E
n
= (
ij
)
i=1,...,n, j=1,...,n
(also 1en auf der Diagonale und sonst Nullen)
heit die Einheitsmatrix vom Rang n.
3.1. MATRIZEN 47
Bemerkung.
F
n,n
(E
n
) = id
K
n
eine n n-Matrix A heit invertierbar, wenn eine n n-Matrix B mit B A = E
n
existiert. A
ist genau dann invertierbar, wenn F
n,n
(A) ein Isomorphismus ist.
die Menge der invertierbaren nn-Matrix wird mit GL
n
(K) bezeichnet und bildet eine Gruppe
unter Matrixmultiplikation, die durch F
n,n
auf GL(K
n
) = Aut
K
(K
n
) abgebildet wird.
Nach 1.24 hat jede invertierbare Matrix auch ein Rechtsinverses, welches mit dem Linksinversen
ubereinstimmt.
Wir bezeichnen den zu F
m,n
inversen Isomorphismus mit
M
m,n
: Hom
K
(K
n
, K
m
) M
m,n
(K)
F ur eine lineare Abbildung f : K
n
K
m
heit M
m,n
(f) M
m,n
(K) die Darstellungsmatrix.
Denition. Wir nennen ein Diagramm von Vektorraumen und lineare Abbildungen kommutativ,
wenn jede Verbindung zwischen zwei Vektorraume im Diagramm diesselbe Abbildung reprasentiert.
Beispiel.
U
h

f
//
V
g

W
ist kommutativ, falls h = g f
U
f
//
h

V
g

//
S
ist kommutativ, falls g f = h
Seien V, W endlich dimensionierte Vektorraume, n = dimV, m = dimW und v = (v
1
, . . . , v
n
), w =
(w
1
, . . . , w
m
) Basen von V und W. Nach 2.17 erhalten wir Isomorphismen:

v
: K
n
V, (
1
, . . . ,
n
)

i
v
i

w
: K
m
W, (
1
, . . . ,
m
)

j
w
j
F ur A M
m,n
(K) erhalten wir das kommutative Diagramm
K
n
F
m,n
(A)
//

K
m

w
F
m,n
(A)
1
v
//
W
Korollar 3.7. Wir erhalten ein Isomorphismus von Vektorraumen
F
v
w
: M
m,n
(K) Hom
K
(V, W), A
w
F
m,n
(A)
1
v
Den inversen Isomorphismus bezeichnen wir mit M
v
w
: Hom
K
(V, W) M
m,n
(K). M
v
w
heit die, die
lineare Abbildung f bez uglich der Basen v und w darstellende Matrix. Alternative Bezeichnungen:
Darstellungsmatrix, Koordinatenmatrix.
48 KAPITEL 3. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
Aus den Denitionen folgt f ur eine lineare Abbildung f : V W das folgende kommutative
Diagramm:
K
n

F
m,n
(M
v
w
(f))
//
K
m

V
f
//
W
()
Seien nun v
t
= (v
t
1
, . . . , v
t
n
) und w
t
= (w
t
1
, . . . , w
t
m
) weitere Basen von V und W.
Denition 3.8. Sind v und v
t
zwei Basen desselben Vektorraums V , so heit die Matrix
T = M
v
v

(id
V
)
die Transformationsmatrix von v
t
nach v.
Lemma 3.9. T ist invertierbar. T
1
ist die Transformationsmatrix von v nach v
t
.
Beweis. Das Diagramm
K
n

F
n,n
(M
v
v

(id
V
))
//
K
n

F
n,n
(M
v

v
(id
V
))
//
K
n

V
id
V
//
V
id
V
//
V
setzt sich aus zwei kommutativen Diagrammen zusammen und ist daher auch kommutativ. Daher gilt:
id
V
id
V

v
=
v
F
n,n
(M
v

v
(id
V
)) F
n,n
(M
v
v

(id
V
))
Anwenden von
1
v
liefert:
id
K
n = F
n,n
(M
v

v
(id
V
)) F
n,n
(M
v
v

(id
V
))
Wegen id
K
n = F
n,n
(E
n
) und weil F
n,n
nach 3.5 ein Isomorphismus ist, folgt:
E
n
= M
v

v
(id
V
) M
v
v

(id
V
)

Lemma 3.10. Ist M


v
w
(f) = (a
ij
) M
m,n
(K), so gilt f ur j = 1, . . . , n :
f(v
j
) = a
1j
w
1
+. . . +a
mj
w
m
Beweis. In der j-ten Spalte von M
v
w
(f) = (a
ij
) steht das Bild des j-ten Basisvektors, also:
F
m,n
(M
v
w
(f))(e
j
) K
m
Nun gilt
v
(e
j
) = v
j
und die Kommutativitat von () zeigt:
f(v
j
) =
w
(F
m,n
(M
v
w
(f))(e
j
))
=
w
_
_
_
_
_
_
a
1j
.
.
.
a
mj
_
_
_
_
_
_
= a
1j
w
1
+. . . +a
mj
w
m

3.2. R

ANGE VON MATRIZEN 49


Lemma 3.11. Seien U, V, W endlich dimensionierte Vektorraume und u = (u
1
, . . . , u
n
), v = (v
1
, . . . , v
m
),
w = (w
1
, . . . , w
k
) Basen von U, V und W. Desweiteren seien f : U V, g : V W lineare Abbildun-
gen. Dann gilt:
M
v
w
(g) M
u
v
(f) = M
u
w
(g f)
Beweis. Sei M
u
w
(g f) = (c
ij
). Dann gilt g(f(u
j
)) = c
1j
w
1
+. . . +c
kj
w
k
. Setzt man M
u
v
(f) = (b
ij
)
und M
v
w
(g) = (a
ij
), so gilt:
f(u
j
) = b
1j
v
1
+. . . +b
mj
v
m
und g(v
i
) = a
1i
w
1
+. . . +a
ki
w
k
Zusammen ergibt sich:
g(f(u
j
)) = g(b
1j
v
1
+. . . +b
mj
v
m
)
= b
1j
g(v
1
) +. . . +b
mj
g(v
m
)
= b
1j
a
11
w
1
+. . . +b
1j
a
k1
w
k
+b
2j
a
12
w
1
+. . .
Koezientenvergleich von g(f(u
j
)) bei w
i
f ur i = 1, . . . , k, j = 1, . . . , n:
c
ij
= a
i1
b
1j
+a
i2
b
2j
+. . . +a
im
b
mj

Satz 3.12. (Basiswechselsatz) Seien V, W endlich dimensionierte Vektorraume und f : V W eine


lineare Abbildung. Seien v = (v
1
, . . . , v
n
) und v
t
= (v
t
1
, . . . , v
t
n
) zwei Basen von V und T
1
M
n,n
(K)
die Transformationsmatrix. Seien w = (w
1
, . . . , w
m
) und w
t
= (w
t
1
, . . . , w
t
m
) zwei Basen von W und T
2
die Transformationsmatrix davon. Dann gilt:
M
v

(f) = T
2
M
v
w
(f) T
1
1
Beweis. Wende 3.11 auf die Abbildung
V
id
V
//
V
f
//
W
id
W
//
W
und die Basen v
t
, v, w, w
t
an und erhalten unter Beachtung von T
1
1
= M
v

v
(id
V
) (siehe 3.9)
T
2
M
v
w
(f) T
1
1
= M
w
w

(id
W
) M
v
w
(f) M
v

v
(id
V
) = M
v
w

(f) M
v

v
(id
V
) = M
v

(f)

3.2 Range von Matrizen


Denition 3.13. Sei A M
m,n
(K). Der Zeilen- bzw. Spaltenrang von A ist die Dimension des durch
die Zeilen bzw. Spalten von A im K
n
bzw. K
m
aufgespannten Untervektorraum.
Bezeichnung: ZRg(A), SRg(A).
n Vektoren im K
m
spannen einen Vektorraum der Dimension hochstens minn, m auf, also
0 ZRg(A), SRg(A) minn, m
Satz 3.14. ZRg(A) = SRg(A)
Lemma 3.15.
(i) SRg(A) = Rg(F
m,n
(A))
(ii) Seien V, W endlich dimensionierte Vektorraume, n = dimV, m = dimW und v, w Basen. Sei
f : V W linear. Dann gilt:
Rg(f) = SRg(M
v
w
(f))
50 KAPITEL 3. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
Beweis.
(i) Die Spalten von A sind Bilder der Basisvektoren e
1
, . . . , e
n
unter F
m,n
(A). Diese Bilder spannen
im(F
m,n
(A)) auf. Dies zeigt (i).
(ii) Aus dem kommutativen Diagramm
K
n
F
m,n
(M
v
w
(f))
//

K
m

V
f
//
W
sieht man, dass die Einschrankung von
w
auf den Untervektorraum im(F
m,n
(M
v
w
(f)) einen
Isomorphismus im(F
m,n
(M
v
w
(f))) im(f) induziert. Insbesondere gilt:
Rg(f) = Rg(F
m,n
(M
v
w
(f))) =
(i)
SRg(M
v
w
(f))

Denition 3.16. Zu A = (a
ij
) M
m,n
(K) deniert man die transponierte Matrix
A
t
= (a
ji
) M
n,m
(K)
Bemerkung. Notation oft
t
A. Oenbar gilt
ZRg(A) = SRg(A
t
)
F ur A M
m,n
(K), B M
n,k
(K) gilt:
(A B)
t
= B
t
A
t
M
k,m
(K)
Erinnerung.
V, v = (v
1
, . . . , v
n
)
V

= Hom
K
(V, K), v

= (v

1
, . . . , v

n
), v

i
(v
j
) =
ij
f : V W induziert f

: W

, f
F ur V
f
//
W
g
//
U gilt (g f)

= f

Lemma 3.17. Seien V, W endlich dimensionierte Vektorraume mit Basen v, w und f : V W


linear. Dann gilt:
M
w

v
(f

) = M
v
w
(f)
t
M
n,m
(K)
Beweis. Sei M
v
w
(f) = (a
ij
) M
m,n
(K), d.h. f ur i = 1, . . . , n gilt f(v
i
) = a
1i
w
1
+ . . . + a
mi
w
m
.
Die Spalten der Matrix auf der linken Seite sind die Koezienten (in (v

1
, . . . , v

n
)) der Bilder der
Basisvektoren w

1
, . . . , w

m
unter f

. Um Gleichheit zu zeigen ist also f ur jedes 1 j m zu zeigen,


dass f

(w

j
) = a
j1
v

1
+. . . +a
jn
v

n
. Beide Seiten sind Linearformen auf V , d.h. Elemente in V

. Daher
gen ugt es zu zeigen, dass f ur alle 1 i n gilt:
f

(w

j
)(v
i
) = (a
j1
v

1
+. . . +a
jn
v

n
)(v
i
) = a
ji
Nun ist f

(w

j
) die Komposition V
f
//
W
w

j
//
K
= f

(w

j
)(v
i
) = w

j
(f(v
i
)) = w

j
(a
1i
w
1
+. . . +a
mi
w
m
) = a
ji

3.2. R

ANGE VON MATRIZEN 51


Beweis von 3.14. Wir betrachten die Abbildung f = F
m,n
(A) : K
n
K
m
. Nach 3.17 wird
f

: (K
m
)

(K
n
)

bez uglich der zu den kanonischen Basen dualen Basen (e

1
, . . . , e

m
) von (K
m
)

und (e

1
, . . . , e

n
) von (K
n
)

durch die Matrix A


t
dargestellt. Nach 2.43 und 3.15 gilt daher:
SRg(A) = Rg(f) = Rg(f

) = SRg(A
t
) = ZRg(A)

Bemerkung. Von jetzt an schreiben Rg(A) f ur ZRg(A) bzw. SRg(A).


Korollar 3.18. F ur A M
n,n
(K) sind aquivalent:
(i) A ist invertierbar, d.h. A GL
n
(K)
(ii) die Zeilen von A bilden eine Basis von K
n
(iii) die Spalten von A bilden eine Basis von K
n
(iv) Rg(A) = n
Beweis. (ii) (iii) (iv) folgt aus dem Rangsatz. Schlielich gilt: A invertierbar
F
n,n
(A) bijektiv
(2.29)
F
n,n
(A) surjektiv Rg(A) = n
Korollar 3.19. Seien A M
m,n
(K), T GL
n
(K), S GL
m
(K), so gilt:
Rg(A) = Rg(S A T)
Beweis. Sei f = F
m,n
(A) : K
n
K
m
. Sei w
1
, . . . , w
m
die durch die Spalten von T gegebene
Basis des K
m
und v
1
, . . . , v
n
die durch die Spalten von T gegebene Basis des K
n
. Dann ist S die
Transformationsmatrix von (e
1
, . . . , e
m
) zu (w
1
, . . . , w
m
) im K
m
und T
1
die Transformationsmatrix
von (e
1
, . . . , e
n
) nach (v
1
, . . . , v
n
) im K
n
. Nach 3.12 gilt M
v
w
(f) = SA(T
1
)
1
= SAT und daher nach
3.15:
Rg(A) = Rg(f) = Rg(SAT)

Korollar 3.20. Seien A M


m,n
(K), r = Rg(A). Dann gibt es eine invertierbare r r-Untermatrix
von A, d.h. Indizes 1 i
1
< . . . < i
r
n, 1 j
1
< . . . < j
r
n, so dass die Matrix

A =
(a
ij
)
ii
1
,...,i
r
, jj
1
,...,j
r

invertierbar ist. Umgekehrt folgt aus der Existenz einer invertierbaren s s-


Untermatrix
1
, dass s r.
Beweis. Wahle r Zeilen aus, dass diese einen r-dimensionalen Untervektorraum im K
n
aufspannen.
Streiche die anderen Zeilen. Die erhaltene Matrix hat Rang r. Dann wahle r linear unabhangige
Spalten aus und wir erhalten eine r r-Matrix vom Rang r. Umgekehrt: Ist A
t
eine invertierbar s s-
Untermatrix von A, so sind die Spalten von A
t
linear unabhangig, also auch s-vielen Spalten von A,
die A
t
treen = s r
1
nat urlich von A... Von welcher Matrix denn sonst?
52 KAPITEL 3. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
Satz 3.21. Sei f : V W linear, n = dimV, m = dimW, r = Rg(f). Dann existieren Basen v, w
von V und W, so dass
M
v
w
=
_
_
_
_
_
_
_
_
_
_
_
_
r
..
1
.
.
.
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
M
m,n
(K)
Beweis. Sei U V ein Komplement zu ker(f). Wahle eine Basis (v
1
, . . . , v
n
) von V , so dass
Lin(v
1
, . . . , v
r
) = U, Lin(v
r+1
, . . . , v
n
) = ker(f). (Es gilt r = dimf(V ) = dimV dimker(f), also
dimker(f) = n r) Die eingeschrankte Abbildung f[
U
: U W ist injektiv wegen U ker(f) = 0.
Setze w
i
= f(v
i
) f ur i = 1, . . . , r und wahle w
r+1
, . . . , w
m
, so dass w
1
, . . . , w
m
eine Basis von W ist.

Korollar 3.22. Sei A M


m,n
(K) und r = Rg(A). Dann existieren S = GL
m
(K), T GL
n
(K) mit
S A T =
_
_
_
_
_
_
_
_
_
_
_
_
r
..
1
.
.
.
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
Beweis. Wende 3.21 auf F
m,n
(A) : K
n
K
m
und den Basiswechselsatz 3.12 an.
Kapitel 4
Lineare Gleichungssysteme
4.1 Gau-Elimination
Aufgabe. v
1
, . . . , v
m
K
n
seien gegeben. Berechne eine Basis von Lin(v
1
, . . . , v
m
).
Denition 4.1. Zwei m-Tupel (v
1
, . . . , v
m
), (w
1
, . . . , w
m
) von Vektoren imK
n
heien linear aquivalent,
wenn Lin(v
1
, . . . , v
m
) = Lin(w
1
, . . . , w
m
). Man setzt Rg(v
1
, . . . , v
m
) = dimLin(v
1
, . . . , v
m
). Die folgen-
den Operationen heien Zeilenumformungen (Tupel linear aquivalenter Tupel)
(i) Multiplikation von v
i
mit ,= 0 f ur ein i
(ii) Ersetze v
i
durch v
i
+v
j
, j ,= i, K
(iii) Vertauschen der v
i
(iv) Streichen von v
i
, wenn v
i
= 0
Bemerkung. Schreibt man v
1
, . . . , v
m
in der Form
v
1
= (a
11
, . . . , a
1n
)
.
.
.
v
m
= (a
m1
, . . . , a
mn
)
So bewirken die Operationen (i) - (iii) auf der Matrix A = (a
ij
) das folgende:
(i) Multiplikation von links mit der mm-Matrix E
i
(), die gegeben ist durch
E
i
()
k,l
:=
_
_
_
0, k ,= l
1, k = l ,= i
, k = l = i
_
_
_
_
1
.
.
.

.
.
.
1
_
_
_
_
(ii) Multiplikation von links mit der mm-Matrix E
ij
(), die gegeben ist durch
E
ij
()
k,l
=
_
_
_
1, k = l
, k = i l = j
0, sonst
_
_
_
1
.
.
.

.
.
.
1
_
_
_
(iii) Multiplikation von links mit P
ij
, die gegeben ist durch
(P
ij
)
k,l
=
_
_
_
1, (k, l) = (i, j) (k, l) = (j, i)
1, i ,= k = l ,= j
0, sonst
53
54 KAPITEL 4. LINEARE GLEICHUNGSSYSTEME
Denition 4.2. Eine mm-Matrix A hat Zeilenstufenform, wenn es Zahlen 0 r m, 1 j
1
<
. . . < j
r
n gibt, so dass
(1) a
ij
= 0 falls i > r (i r j < j
i
)
(2) a
ij
i
= 1 f ur 1 i < r
A hat strenge Zeilenstufenform, wenn zusatzlich gilt:
(3) a
ij
k
= 0 f ur alle 1 k r, k ,= i
Satz 4.3. (Gau-Elimination) Durch Zeilenumformungen (i) - (iii) kann man jede mn-Matrix in
strenge Zeilenstufenform bringen.
Beweis. Die j-te Spalte sei die erste, die nicht nur aus Nullen besteht. Setze j = j
1
.
(1) Heraufbringen: Ein Zeilentausch (iii) bring a
1j
,= 0
(2) Normieren: Anwendung von (i) bewirkt a
1j
= 1
(3) Ausraumen: Durch Ersetzen von v
i
durch v
i
a
ij
v
1
erhalt die Matrix bis zur j-ten Spalte die
gew unschte Form.
Nun betrachte die Matrix ohne die erste Zeile und wahle j = j
2
. Mache Schritte (1) - (3) und beachte,
dass sich in Schritt 3 der wesentliche Teil der urspr unglichen ersten Zeile nicht andert, usw...
Satz 4.4. Der von den Vektoren v
1
, . . . , v
m
im K
n
erzeugte Untervektorraum ist durch die strenge
Stufe eindeutig bestimmt und umgekehrt. D.h. gilt Lin(v
1
, . . . , v
n
) = Lin(w
1
, . . . , w
k
), so unterscheiden
sich die strengen Zeilenstufenformen nur um 0-Zeilen unterhalb der Stufe.
Beweis. Sei U = Lin(v
1
, . . . , v
m
) und r = dimU. Dann ist U = Lin(v
t
1
, . . . , v
t
r
), wobei v
t
1
, . . . , v
t
r
die
ersten r Zeilen der assoziierten Matrix in Zeilenstufenform sind.
Seien (v
1
, . . . , v
m
) und (w
1
, . . . , w
k
) mit Lin(v
1
, . . . , v
n
) = Lin(w
1
, . . . , w
k
) und A M
m,n
(K), B
M
k,n
(K) die assoziierten Matrizen in strengen Zeilenstufenform. Wegen Rg(A) = dimU = Rg(B)
sind bei A und B die i-ten Zeilen f ur i > r = dimU alle 0. Betrachten wir f ur 1 j r die
Projektion p
j
: K
n
K
j
, (a
1
, . . . , a
n
) (a
1
, . . . , a
j
), so sind die Stufen bei A wie B gerade die j mit
dimp
j
(U) > dimp
j1
(U). Also haben die Stufen A und B die gleiche geometrische Form.
Seien nun a
1
= (a
11
, . . . , a
1n
), . . . , a
r
= (a
r1
, . . . , a
rn
) und b
1
= (b
11
, . . . , b
1n
), . . . , b
r
= (b
r1
, . . . , b
rn
)
die ersten r Zeilen von A bzw. B. Dann sind (a
1
, . . . , a
r
), (b
1
, . . . , b
r
) beides Basen von U. Schreiben
wir nun a
j
=

r
i=1

ij
b
i
, so ist
ij
= a
jj
i
(weil die j
i
-te Spalte von B genau eine 1 bei (i, j
i
) hat) Da
A strenge Zeilenstufenform hat, also a
jj
i
=
_
0, i ,= j
1, i = j
, folgt
ij
= 0 f ur i ,= j und
ij
= 1 f ur i = j
und damit a
j
= b
j
f ur j = 1, . . . , r.
Notationsvereinfachung. Wir identizieren A = M
m,n
(K) direkt mit der assoziierten linearen
Abbildung K
n
K
m
und umgekehrt.
Berechnen der inversen Matrix. Ist A GL
n
(K), d.h. A M
m,n
(K) invertierbar, so ist die
strenge Zeilenstufenform die Einheitsmatrix E
n
. Methode zur Berechnung von A
1
: F uhre die gleichen
Operationen, die A auf strenge Zeilenstufenform (also auf E
n
) bringen, auch auf E
n
an. Das Ergebnis
ist A
1
.
Begr undung: Jede der Operationen (i) - (iii) entspricht der Linksmultiplikation mit einer Matrix.
Ist M das (von rechts nach links gebildete) Produkt der Matrizen, so gilt:
M A = E
n
= M = A
1
4.1. GAUSS-ELIMINATION 55
Beispiel. Sei char(K) ,= 2.
_
_
2 0 1
1 1 2
0 1 1

1 0 0
0 1 0
0 0 1
_
_
. . .
1

_
_
1 0 0
0 1 0
0 0 1

1 1 1
1 2 3
1 2 2
_
_
=
_
_
2 0 1
1 1 2
0 1 1
_
_

_
_
1 1 1
1 2 3
1 2 2
_
_
= E
3
Das gilt auch in char(K) = 2.
Beispiel. Sei char(K) ,= 2.
_
_
1 1 1
2 0 0
3 1 1

1 0 0
0 1 0
0 0 1
_
_
. . .
_
_
1 0 0
0 1 1
0 0 0

0
1
2
0
0
1
2
0
1 1 0
_
_
Der Prozess bricht ab. Die gegebene Matrix ist nicht invertierbar, da Rg(M) = 2 < 3 ist. Wenn
char(K) = 2:
M =
_
_
1 1 1
2 0 0
3 1 1
_
_
=
_
_
1 1 1
0 0 0
1 1 1
_
_
= Rg(M) = 1 < 3
Berechnen der dualen Basis. Elemente des Dualraums (K
n
)

sind Linearformen auf K


n
. Die
kanonische Basis des (K
n
)

ist durch die zur kanonischen Basis (e


1
, . . . , e
n
) des K
n
duale Basis
(e

1
, . . . , e

n
) gegeben. Wie vorher schreiben wir Elemente des K
n
als Spaltenvektoren (d.h. n 1-
Matrix). Jeder Zeilenvektor (d.h. 1n-Matrix) (a
1
, . . . , a
n
) deniert mit Hilfe der Matrixmultiplikation
M
1,n
(K) M
n,1
(K) M
1,1
(K) = K durch
_
_
_
x
1
.
.
.
x
n
_
_
_

_
a
1
a
n
_

_
_
_
x
1
.
.
.
x
n
_
_
_
= a
1
x
1
+. . . +a
n
x
n
K
ein Element in (K
n
)

. Es gilt:
(1, 0, . . . , 0) = e

1
, . . . , (0, . . . , 0, 1) = e

n
Daher lasst sich die Linearform = a
1
e

1
+. . . +a
n
e

n
durch den Zeilenvektoren (a
1
, . . . , a
n
) darstellen,
mit anderen Worten konnen wir den Vektorraum (K
n
)

mit dem Vektorraum der Zeilen der Lange n


identizieren. Sei nun (v
1
, . . . , v
n
) eine Basis des K
n
und (v

1
, . . . , v

n
) die duale Basis des (K
n
)

. Die
Zeilenvektorform der dualen Basis berechnet man wie folgt:
bilde die Matrix A, deren i-te Spalte gleich v
i
ist
die i-te Zeile von A
1
ist v

i
Begr undung: v

i
ist durch v

i
(v
j
) =
ij
charakterisiert, d.h. f ur den als Zeile geschriebenen Vektor v

i
gilt v

i
v
j
=
ij
. Bildet man die Matrix B mit den v

i
als Zeilen, so gilt B A = E
n
, also B = A
1
.
1
Ihr wisst schon... Zeilenumformungen und so...
56 KAPITEL 4. LINEARE GLEICHUNGSSYSTEME
Basiserganzung. Seien (v
1
, . . . , v
k
) linear unabhangige Vektoren von K
n
und (w
1
, . . . , w
m
) ein Er-
zeugendensystem. Wir suchen Indizes 1 j(1) < . . . < j(s) n, s = nk, so dass (v
1
, . . . , v
k
, w
j(1)
, . . . , w
j(s)
)
eine Basis von K
n
ist.
Bilde A mit Zeilen v
1
, . . . , v
k
, w
1
, . . . , w
m
.
Bringe A auf strenge Zeilenstufenform.
Hierbei musste evtl. mehrere Male Schritt (i) (Zeilentausch) durchgef uhrt werden. Wir nehmen hier
stets zum Tauschen die Zeile, die moglichst weit oben steht. Dann gilt: Unter den ersten n Zeilen sind
s = n k St uck die urspr unglichen zu einem Zeilenvektor w
j(i)
, i = 1, . . . , s gehorten. Dies liefert die
gesuchten j(i).
Lineares Komplement. Gegeben ist U = Lin(v
1
, . . . , v
m
) K
n
. Gesucht ist U
t
K
n
mit UU
t
=
0 und U +U
t
= K
n
, sowie eine Basis von U
t
. Methode:
Forme die Matrix mit Zeilen v
1
, . . . , v
m
in strenge Zeilenstufenform um
Die von 0 verschiedene Zeilen sind eine Basis von U
Die Vektoren e
j
, wobei j kein Stufenindex ist, sind Basis eines Untervektorraums U
t
mit UU
t
=
0 und U +U
t
= K
n
.
4.2 Lineare Gleichungssysteme
Denition. Ein lineares Gleichungssystem ist ein System von Gleichungen
a
11
x
1
+. . . +a
1n
x
n
= b
1
.
.
.
a
m1
x
1
+. . . +a
mn
x
n
= b
m
mit a
ij
, b
k
K. Das System heit homogen, wenn alle b
i
= 0, ansonsten inhomogen. Wir schreiben
das lineare Gleichungssystem in der Form
A x = b mit A = (a
ij
), x = (x
1
, . . . , x
n
)
t
, b = (b
1
, . . . , b
m
)
t
Ist es inhomogen, so nennt man das System mit den gleichen (a
ij
) und alle b
i
= 0 das zugehorige
homogene System.
Satz 4.5. Die Menge der Losungen x K
n
des homogenen Systems Ax = 0 ist ein Untervektorraum
des K
n
der Dimension n Rg(A).
Beweis. Die Losungsmenge ist ker(A). Die Aussage uber die Dimension folgt aus 2.35 sowie aus
Rg(A) = dimim(A).
Korollar 4.6. Die folgenden Aussagen sind aquivalent:
(i) Rg(A) = n
(ii) A ist invertierbar
(iii) Ax = 0 hat genau die triviale Losung (0, . . . , 0) K
n
Denition 4.7. Eine Teilmenge eines Vektorraums V heit aner Teilraum, wenn es v V und
einen Untervektorraum U V gibt, so dass A = v +U = v +U [ u U.
4.3. EXPLIZITE L

OSUNG LINEARER GLEICHUNGSSYSTEME 57


Bemerkung. Mit anderen Worten: Ein aner Teilraum ist ein Element in V/
U
, wobei U V ein
Untervektorraum ist.
Lemma 4.8. Ist A V ein aner Teilraum, so existiert genau ein Untervektorraum U V mit
A = v +U f ur ein v V .
Beweis. Ein solcher Untervektorraum existiert nach Denition. Sei nun A = v
0
+ U
0
= v
1
+ U
1
.
Dann gilt:
U
0
= a a
t
[ a, a
t
A = U
1

Denition 4.9. Ist A V ein aner Teilraum, so setzt man dimA := dimU, wobei U der nach 4.8
eindeutig bestimmter Untervektorraum U V mit A = v +U ist.
Satz 4.10. F ur das System Ax = b gibt es genau 2 Moglichkeiten.
(i) b , im(A) und die Losungsmenge ist leer
(ii) b im(A). Dann ist die Losungsmenge L ein aner Teilraum des K
n
der Dimension nRg(A).
Ist v
0
L eine Losung von Ax = b, so gilt = v
0
+U, wobei U die Losungsmenge des zugehorigen
homogenen Systems Ax = 0 ist.
Beweis. Nach Denition gilt b , im(A) L = . Ist b im(A), so gibt es eine Losung v
0
K
n
mit Av
0
= b. F ur u U gilt A(v
0
+u) = Av
0
+Au = b + 0 = b, also v
0
+U L.
Umgekehrt sei v L, d.h. Av = b. Dann gilt f ur u := vv
0
: Au = A(vv
0
) = AvAv
0
= bb = 0,
also u U und v = v
0
+u = L = v
0
+U.
Schlielich gilt dimL = dimU = n Rg(A).
Korollar 4.11. Das inhomogene System Ax = b hat genau dann eine Losung, wenn Rg(A) =
Rg(A[b) gilt. (A[b) ist die m(n +1)-Matrix, die durch Anf ugen von b als (n +1)-te Spalte entsteht.
Beweis. Rg(A) = Rg(A[b) b Lin(Spalten von A) b im(A)
4.3 Explizite Losung linearer Gleichungssysteme
Betrachte Ax = 0. Zeilenumformungen (i) - (iii) andern nicht den Losungsraum ker(A). (z.B. weil
diese Umformungen der Multiplikation von Links mit invertierbaren Matrizen entsprechen) Methode:
1. Bringe A auf strenge Zeilenstufenform
2. Sei nun S die strenge Zeilenstufenform von A.
S =
_
_
_
_
_
_
0 . . . 0 1
..
. . . . . .
j
1
1
..
. . . . . .
j
2
. . .
..
.
.
.
j
r
_
_
_
_
_
_
Die von j
1
, . . . , j
r
verschiedene Indizes in 1, . . . , n seien k
1
< . . . < k
nr
, d.h. 1, . . . , n =
j
1
, . . . , j
r
, k
1
, . . . , k
nr
. Dann gilt
Sx = 0
_
_
_
x
j
1
.
.
.
x
j
r
_
_
_
= B
_
_
_
x
k
1
.
.
.
x
k
nr
_
_
_
58 KAPITEL 4. LINEARE GLEICHUNGSSYSTEME
wobei B aus den ersten r Zeilen von S entsteht, indem man die Spalten zum Index j
i
, i = 1, . . . , r
weglasst. (also B M
r,nr
(K))
Folglich kann man x
k
1
, . . . , x
k
nr
frei wahlen und x
j
1
, . . . , x
j
r
ergeben sich eindeutig. Setzt man nun
den i-ten Standardbasisvektor im K
nr
ein, erhalt man links die i-te Spalte von B und einen i-ten
Basisvektor (x
1
, . . . , x
n
) des Losungsraums durch:
(x
k
1
, . . . , x
k
nr
) = e
i
, (x
j
1
, . . . , x
j
r
) = i-te Spalte von B
Nun betrachten wir das inhomogene System Ax = b. Die Zeilenumformungen (i) - (iii) auf der
Matrix (A[b) andern die Losungsmenge nicht. Wir kommen auf (S[s) in strenger Zeilenstufenform. Sei
r = Rg(A) = Rg(S). Wegen Rg(A[b) = Rg(S[s) ist die Existenz von Losungen nach 4.11 aquivalent zu
s
r+1
= . . . = s
n
= 0. Ist dies erf ullt, setze x
j
= 0 f ur j , j
1
, . . . , j
r
und (x
j
1
, . . . , x
j
r
) = (s
1
, . . . , s
r
)
um eine spezielle Losung zu erhalten. Alle anderen Losungen erhalt man durch Addition von Losungen
des zugehorigen homogenen Systems.
Kapitel 5
Determinanten und Eigenwerte
5.1 Polynome
Denition 5.1. Ein Polynom mit Koezienten in einem Korper K ist ein Ausdruck f = f(x) =
a
0
+ a
1
x + . . . + a
n
x
n
, a
j
K. Das Zeichen x heit Unbestimmte oder Variable des Polynoms. Die
Menge der Polynome mit Koezienten in K wird mit K[x] bezeichnet.
Bemerkung.
(1) Ein Polynom ist ein formaler Ausdruck, d.h. nichts weiter als die Familie seiner Koezienten
a
0
, a
1
, . . . , a
n
, d.h. eine Abbildung:
f : N
0
K, f(i) = 0 f ur fast alle i
(2) Jedes Polynom f(x) = a
0
+ . . . + a
n
x
n
K[x] induziert eine Abbildung K K, f() =
a
0
+a
1
+. . . +a
n

n
. Im Allgemeinen ist f durch diese Abbildung nicht eindeutig bestimmt, z.B.
induzieren die Polynome x, x
2
Z/
2Z
[x] die gleichen Abbildungen, namlich die Identitat.
(3) K[x] wird zum kommutativen, unitaren Ring: F ur f =

iN
0
a
i
x
i
, g =

iN
0
b
i
x
i
denieren wir:
f +g =

iN
0
(a
i
+b
i
)x
i
, f g =

sN
0
_
s

i=0
a
i
b
si
_
x
s
(4) Wir haben eine nat urliche Inklusion K K[x], die K das konstante Polynom (d.h.
a
0
= , i 1 : a
i
= 0) zuordnet.
Denition 5.2. Ist f = a
0
+ . . . + a
n
x
n
und a
n
,= 0, so heit n der Grad von f. Notation: deg(f).
a
n
heit Leitkoezient. Notation: a
n
= e(f). Gilt a
n
= 1, so nennt man f normiert. Konvention:
deg(0) = , e(0) = 0
Lemma 5.3.
(i) deg(f g) = deg(f) + deg(g)
(ii) deg(f +g) maxdeg(f), deg(g) und wenn deg(f) ,= deg(g), so gilt Gleichheit.
(iii) e(f g) = e(f) e(g)
Beweis. folgt direkt aus den Denitionen, wobei man verwendet, dass K nullteilerfrei ist, d.h. es
gilt ab = 0 = a = 0 b = 0.
Korollar 5.4. Der Ring K[x] ist nullteilerfrei, d.h. aus f g = 0 folgt f = 0 g = 0.
59
60 KAPITEL 5. DETERMINANTEN UND EIGENWERTE
Beweis. Dies folgt aus e(f g) = e(f) e(g) und der Nullteilerfreiheit von K.
Satz 5.5. (Division mit Rest) Seien f, g K[x], g ,= 0. Dann existieren eindeutig bestimmte Poly-
nome q, r K[x] mit f = q g + r, deg(r) < deg(g). Das Polynom r heit Rest der Division von f
durch g.
Beweis.
Existenz: Per Induktion nach deg(f). Ist deg(f) < deg(g), setze q = 0, f = r. Sonst sei f =
ax
n+k
+ niedere Potenzen und g = bx
n
+ niedere Potenzen, n, k 0, a, b ,= 0. Dann gilt:
deg
_
f
a
b
x
k
g
_
< deg(f)
Nach Induktionsannahme gibt es q
1
, r
1
mit f
a
b
x
k
g = q
1
g +r
1
, deg(r
1
) < deg(g). Wir erhalten
die Darstellung
f =
_
q
1
+
a
b
x
k
_
g +r
1
Eindeutigkeit: Sei f = q
1
g +r
1
= q
2
g +r
2
. Dann gilt (q
1
q
2
)g = r
2
r
1
. Wegen deg(r
2
r
1
) <
deg(g) folgt q
1
q
2
= 0, also auch r
2
r
1
.
Denition 5.6. Ein K heit Nullstelle oder Wurzel von f K[x], wenn f() = 0.
Korollar 5.7. Ist K eine Wurzel von f K[x], so existiert g K[x] mit f = g (x ).
Beweis. Ist f = 0, setze g = 0. Falls f ,= 0, so sei f = g (x ) +r mit deg(r) < deg(x ) = 1,
also deg(r) 0, also ist r konstant. Einsetzen von bringt:
0 = f() = g() ( ) +r(), also r = 0

Korollar 5.8. Ein Polynom f ,= 0 vom Grad n hat hochstens n Wurzeln in K.


Beweis. Sei f(x) = 0, f = g (x ), deg(g) = n 1. Ist nun ,= eine weitere Wurzel, so gilt
0 = f() = g()( ) = g() = 0. Vollstandige Induktion nach Grad zeigt das Gew unschte.
Euklidischer Algorithmus. Seien f
1
, f
2
K[x] 0. Der euklidische Algorithmus ist die Folge
von Divisonen mit Rest:
f
1
= q
1
f
2
+f
3
, deg f
3
< deg f
2
f
2
= q
2
f
3
+f
4
, deg f
4
< deg f
3
.
.
.
f
n1
= q
n1
f
n
+ 0 weil die Grade abnehmen
Denition 5.9. f teilt g (Notation: f [ g), wenn g = f h f ur ein h K[x].
Satz 5.10. Seien f
1
, f
2
K[x] 0 und d = f
n
wie im euklidischen Algorithmus. Dann gilt:
(i) d [ f
1
, d [ f
2
(ii) Aus g [ f
1
und g [ f
2
folgt g [ d
(iii) Es gibt p, q K[x] mit pf
1
+qf
2
= d
5.1. POLYNOME 61
Beweis.
(i) d [ f
n
= d [ f
n1
, f
n2
= q
n2
f
n1
+f
n
= d [ f
n2
, d [ f
2
, d [ f
1
(ii) g [ f
1
, g [ f
2
= g [ f
3
= . . . = g [ f
n
= d
(iii) Abwarts sieht man, dass jedes f
k
eine Darstellung der Form f
k
= p
k
f
1
+q
k
f
2
hat.
Denition 5.11. d K[x] mit (i) und (ii) aus 5.10 heit groter gemeinsamer Teiler von f und g.
Satz 5.12. Sind f
1
, g
1
K[x] 0, so existiert ein groter gemeinsamer Teiler. Dieser ist bis auf
einen konstanten Faktor ungleich 0 eindeutig bestimmt.
Beweis. Existenz folgt aus 5.10. Sind d
1
, d
2
beide ggT, so gilt d
1
[ d
2
, d
2
[ d
1
, also deg(d
1
)
deg(d
2
) deg(d
1
) = deg(d
1
) = deg(d
2
) und aus d
1
[ d
2
folgt d
2
= d
1
mit K 0.
Bemerkung. Unter allen ggTs existiert genau ein normiertes Polynom. Dieses nennt man den ggT.
Notation: ggT(f
1
, f
2
).
Korollar 5.13. Haben f, g K[x] 0 nur konstante gemeinsame Teiler, so existieren Polynome
p, q mit pf +qg = 1.
Beweis. ggT(f, g) = 1
Denition 5.14. f K[x], deg f 1 heit irreduzibel , wenn gilt:
f = g h = g konstant oder h konstant.
Ansonsten heit f reduzibel .
Beispiel.
Jedes Polynom ax +b, a ,= 0 ist irreduzibel
x
2
+ 2x + 1 = (x + 1)
2
ist reduzibel
x
2
+ 1 ist irreduzibel in [x], 1[x], aber reduzibel in C[x]
Lemma 5.15. f irreduzibel, f [ gh = f [ g f [ h
Beweis. Sei f irreduzibel, also sind a, af, a K 0 die einzigen Teiler von f. Gilt nun f [ g, so
folgt ggT(f, g) = 1. Daher existieren p, q K[x] mit pf + qg = 1 = pfh + qgh = h = f [ h, da
f [ gh.
Satz 5.16. Jedes f K[x] 0 besitzt eine, bis auf die Reihenfolge der Faktoren, eindeutige
Primfaktorzerlegung f = ap
1
p
k
mit a = e(f), e(p
i
) = 1, i = 1, . . . , k mit irreduziblen, normierten
Faktoren p
i
.
62 KAPITEL 5. DETERMINANTEN UND EIGENWERTE
Beweis.
Existenz: Per Induktion nach deg(f). Ist f irreduzibel, so gilt
f = e(f) (e(f)
1
f) und e(f)
1
f ist irreduzibel und normiert.
Sei f reduzibel, deg(f) = n, f = gh mit deg(g), deg(h) < n, so liefert die Induktionsvorausset-
zung f ur g, h eine Darstellung f ur f.
Eindeutigkeit: a = e(f) ist eindeutig. Angenommen es gilt p
1
p
k
= q
1
q
l
mit irreduziblen,
normierten Polynomen p
1
, . . . , p
k
, q
1
, . . . , q
l
. Aus 5.15 folgt p
k
[ q
i
f ur ein 1 i l. Da q
i
irreduzibel ist, folgt p
k
= q
i
. Nach Umnummerierung sei i = l = p
k
(p
1
p
k1
q
1
q
l1
) =
0. Nach 5.4 gilt
p
1
p
k1
= q
1
q
l1
usw...
5.2 Determinanten
Denition 5.17. Sei V ein K-Vektorraum. Eine Multilinearform (n-Form) ist eine Abbildung :
V
n
K, die in jeder Variablen (d.h. bei Festhalten der n 1 anderen) linear ist.
heit alternierend, wenn (v
1
, . . . , v
n
) = 0 f ur jedes n-Tupel (v
1
, . . . , v
n
) mit v
i
= v
j
f ur irgend-
welche i ,= j gilt. Alternierende n-Formen bilden in nat urlicher Weise einen K-Vektorraum, der mit
Alt
n
(V ) bezeichnet wird. Spezialfall n = 1: Alt
1
(V ) = V

.
Bemerkung. Alt
n
(V ): (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
)
Beweis.
0 = (v
1
, . . . , v
i
+v
j
, . . . , v
i
+v
j
, . . . , v
n
)
= (v
1
, . . . , v
i
, . . . , v
i
, . . . , v
n
) +(v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
)
+(v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) +(v
1
, . . . , v
j
, . . . , v
j
, . . . , v
n
)
= (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) +(v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
)

Satz 5.18. Eine alternierende n-Form ist


(i) homogen, d.h. K :
(v
1
, . . . , v
i
, . . . , v
n
) = (v
1
, . . . , v
n
) v
1
, . . . , v
n
V, i = 1, . . . , n
(ii) scherungsinvariant, d.h. K :
(v
1
, . . . , v
j
+v
i
, . . . , v
n
) = (v
1
, . . . , v
n
) v
1
, . . . , v
n
V, i, j 1, . . . , n, i ,= j
Beweis.
(i) folgt aus Multilinearitat.
(ii) (v
1
, . . . , v
j
+v
i
, . . . , v
n
) = (v
1
, . . . , v
n
)+(v
1
, . . . , v
i
, . . . , v
n
) und (v
1
, . . . , v
i
, . . . , v
i
, . . . , v
n
) =
(v
1
, . . . , v
i
, . . . , v
i
, . . . , v
n
) = 0
Lemma 5.19. Ist : V
n
K eine homogene und scherungsinvariante n-Form und ist (v
1
, . . . , v
n
)
linear abhangig, so gilt (v
1
, . . . , v
n
) = 0.
5.2. DETERMINANTEN 63
Beweis. Sei z.B. v
1
=
2
v
2
+. . . +
n
v
n
= (v
1
, . . . , v
n
) = (v
1

2
v
2
. . .
n
v
n
, v
2
, . . . , v
n
) =
(0, v
2
, . . . , v
n
) = 0 (0, v
2
, . . . , v
n
) = 0
Satz 5.20. Sei dim
K
V = n. Dann ist jede homogene und scherungsinvariante Abbildung V
n
K
eine alternierende n-Form.
Beweis. Sei : V
n
K homogen und scherungsinvariant. Dann gilt: (v
1
, . . . , v
n
) = 0 falls
(v
1
, . . . , v
n
) linear abhangig. Zu zeigen: ist n-Form. Wegen Homogenitat gen ugt es zu zeigen:
(v
1
, . . . , v
i
+v
t
i
, . . . , v
n
) = (v
1
, . . . , v
i
, . . . , v
n
) +(v
1
, . . . , v
t
i
, . . . , v
n
)
Ist (v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
) linear abhangig = beide Seiten gleich 0.
Sonst erganze zu Basis (v
1
, . . . , v
i1
, w, v
i+1
, . . . , v
n
). Dann ist
v
i
= a +w, v
t
i
= a
t
+
t
w
mit ,
t
K und a, a
t
Lin(v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
). Es gilt wegen Scherungsinvarianz:
(v
1
, . . . , v
i
, . . . , v
n
) = (v
1
, . . . , w, . . . , v
n
)
= (v
1
, . . . , w, . . . , v
n
)
(v
1
, . . . , v
t
i
, . . . , v
n
) = (v
1
, . . . ,
t
w, . . . , v
n
)
=
t
(v
1
, . . . , w, . . . , v
n
)
Analog: (v
1
, . . . , v
i
+v
t
i
, . . . , v
n
) = ( +
t
)(v
1
, . . . , w, . . . , v
n
)
Bemerkung. Scherungsinvarianz und Homogenitat sind geometrische Forderungen an ein

Volu-
men.
Denition. Eine alternierende n-Form : V
n
K, ,= 0 auf einen n-dimensionalen K-Vektorraum
heit Volumenform.
Satz 5.21. Sei n = dimV und (v
1
, . . . , v
n
) eine Basis. Dann ist die lineare Abbildung
Alt
n
(V ) K, (v
1
, . . . , v
n
)
ein K-Vektorraumisomorphismus. Insbesondere gibt es zu jedem K genau eine alternierende
n-Form auf V mit (v
1
, . . . , v
n
) = und es gilt dimAlt
n
(V ) = 1.
Beweis. Dies folgt mit dem Isomorphismus K
n
V, (
1
, . . . ,
n
)

i
v
i
aus dem nachsten Satz.
Satz 5.22. Es existiert genau eine alternierende n-Form auf dem K
n
det : (K
n
)
n
K
mit det(e
1
, . . . , e
n
) = 1. Sie heit Determinante.
Beweis. Wir fassen Vektoren v
1
, . . . , v
n
des K
n
als Zeilen einer Matrix auf. Damit sind Existenz
und Eindeutigkeit einer Funktion det : M
n,n
(K) K zu zeigen mit
(i) det ist multilinear in den Zeilen
(ii) Sind zwei Zeilen gleich, so gilt det(A) = 0
(iii) det(E
n
) = 1
64 KAPITEL 5. DETERMINANTEN UND EIGENWERTE
Nach 5.18 und 5.20 sind (i) und (ii) zusammen aquivalent zu:
(i) det bleibt scherungsinvariant unter der Zeilenumformung v
i
v
i
+v
j
, i ,= j
(ii) Bei der Zeilenumformung v
i
v
i
multipliziert sich det mit
Existenz: F ur n = 1 setze det((a)) = a. Sei n 2 mit det : M
n1,n1
(K) K bereits
konstruiert. Sei A M
n,n
(K). F ur 1 i, j n sei A
ij
M
n1,n1
(K) die Matrix, die durch
Streichen der i-ten Zeile und j-ten Spalte aus A entsteht. Sei nun j, 1 j n beliebig, aber
fest gewahlt. Wir denieren det : M
n,n
(K) K induktiv durch

Entwicklung nach der j-ten


Spalte:
det(A) :=
n

i=1
(1)
i+j
a
ij
det(A
ij
)
Zu zeigen: Die so denierte Funktion erf ullt Eigenschaften (i) - (iii). Es gilt:
det(E
n
) =
n

i=1
(1)
i+j

ij
det((E
n
)
ij
) =
jj
det(E
n1
) = 1
(i) folgt direkt aus der Denition. Bleibt nur (ii) zu zeigen. Sei v
s
= v
k
f ur s ,= k. Da det das
Vorzeichen wechselt, wenn man zwei Zeilen vertauscht, erhalten wir:
det(A
sj
) = (1)
s+k
det(A
kj
)
woraus wegen a
sj
= a
kj
folgt 0 = (1)
s+j
a
sj
det(A
sj
) + (1)
k+j
a
kj
det(A
kj
). F ur i ,= s, i ,= k
hat A
ij
zwei gleiche Zeilen, d.h. det(A
ij
) = 0 f ur i , s, k. Zusammen:
det(A) =
n

i=1
(1)
i+j
a
ij
det(A
ij
) = (1)
s+j
a
sj
det(A
sj
) + (1)
k+j
a
kj
det(A
kj
) = 0
Eindeutigkeit: Ist (v
1
, . . . , v
n
) linear abhangig, so gilt det(v
1
, . . . , v
n
) = 0. Ansonsten kann man
die Matrix mit den Zeilen v
1
, . . . , v
n
durch Zeilenumformungen vom Typ (i) und (ii) auf E
n
transformieren. Wegen (iii) gilt det(E
n
) = 1 und r uckwarts ist auch det(v
1
, . . . , v
n
) eindeutig
bestimmt.
Notation. Man schreibt die Determinante auch in der Form:
det(A) =: [A[ =:

a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn

In kleinen Dimensionen gilt:


n = 1 : det(a) = a
n = 2 :

a b
c d

= ad cb
n = 3 :

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
11
a
32
a
23
a
21
a
12
a
33
a
31
a
22
a
13
5.3 Eigenschaften der Determinante
Satz 5.23. Eine Funktion : M
n,n
(K) K, die (in den Zeilen) homogen und scherungsinvariant
ist, ist von der Form = c det f ur ein c K.
5.3. EIGENSCHAFTEN DER DETERMINANTE 65
Beweis. Nach 5.20 ist eine alternierende n-Form. Nach 5.21 gilt dimAlt
n
(K
n
) = 1 und 0 ,= det
Alt
n
(K
n
). Setze E := E
n
. Es gilt : M
n,n
K ist
homogen (E
j
() A) = (A)
scherungsinvariant (E
ij
() A) = (A)
Korollar 5.24. det(E
j
()) = , det(E
ij
()) = 1
Beweis.
det(E
j
()) = det(E
j
() E) = det(E) =
det(E
ij
()) = det(E
ij
() E) = det(E) = 1
Satz 5.25. det(AB) = det(A) det(B)
Beweis. F ur ein festes B betrachten wir : M
n,n
(K) K, A [AB[. Es gilt:
(E
j
()A) = [E
j
()AB[ = [AB[ = (A) = ist homogen
(E
ij
()A) = [E
ij
()AB[ = [AB[ = (A) = ist scherungsinvariant
Nach 5.23 gilt (A) = c[A[ f ur alle A und festes c K. Setzt man A = E, erhalt man c = [B[.
Satz 5.26. [A[ = [A
t
[
Beweis. Betrachte : M
n,n
(K) K, A det(A
t
). Dann gilt:
(E
j
()A) = [(E
j
()A)
t
[ = [A
t
E
j
()
t
[ = [A
t
E
j
()[ = [A
t
[ = (A)
(E
ij
()A) = [(E
ij
()A)
t
[ = [A
t
E
ij
()
t
[ = [A
t
E
ji
()[ = [A
t
[ = (A)
= ist eine alternierende n-Form. (E) = [E
t
[ = [E[ = 1, also ist = det.
Korollar 5.27. (Entwicklung nach der i-ten Zeile)
[A[ =
n

j=1
(1)
i+j
a
ij
[A
ij
[
Beweis. Man entwickle [A
t
[ nach der i-ten Spalte und verwende 5.26.
Denition 5.28. Die Matrix

A = ( a
ij
) mit a
ij
:= (1)
i+j
[A
ji
[ heit die Adjunkte zu A.
Beispiel. A = (
3 5
1 3
) =

A =
_
3 5
1 3
_
. Es gilt:

A A = (
4 0
0 4
) =
_
[A[ 0
0 [A[
_
= A

A
Satz 5.29. (Erste Cramersche Regel)

AA = A

A = [A[ E
Beweis. Sei (B)
ij
der Koezient der Matrix B M
n,n
(K) an der Stelle (i, j). Es gilt:
(A

A)
ii
=
n

j=1
a
ij
a
ji
=
n

j=1
a
ij
(1)
i+j
[A
ij
[ = [A[
F ur i ,= j ist (A

A)
ij
=

n
k=1
(1)
j+k
a
ik
[A
jk
[. Rechts steht die Entwicklung nach der j-ten Zeile, die
man erhalt, wenn man in A die j-te durch die i-te Zeile ersetzt, d.h. 0. Der Beweis von

AA = [A[E
geht analog mit Spaltenentwicklung.
66 KAPITEL 5. DETERMINANTEN UND EIGENWERTE
Korollar 5.30. A M
n,n
(K) invertierbar [A[ , = 0
Beweis.
A invertierbar = 1 = [E[ = [A A
1
[ = [A[ [A
1
[ = [A[ , = 0
Ist [A[ , = 0 = [A[
1


A A = E = A invertierbar
Korollar 5.31. det induziert einen surjektiven Gruppenhomomorphismus
det : GL
n
(K) K

Beweis. A GL
n
(K) = det(A) K

nach 5.30. Die Homomorphismuseigenschaft folgt aus


5.25. Surjektivitat folgt aus [E
j
()[ = .
Denition 5.32. Die Gruppe
SL
n
(K) = ker(det : GL
n
(K) K

)
heit die Spezielle Lineare Gruppe.
Satz 5.33. Es sei R K ein unitarer Unterring und A eine n n-Matrix mit Koezienten in R.
Es sei A GL
n
(K). Die Matrix A
1
hat genau dann Koezienten in R, wenn [A[ R

.
Beweis. Entwicklung nach Spalten zeigt induktiv, dass [A[ R. Hat A
1
Koezienten in R, so gilt
[A
1
[[A[ = 1 = [A[ R

. Die Koezienten von



A sind Wechselsummen von Determinanten von
Untermatrizen und daher in R. Gilt [A[ R

, so hat auch A
1
= [A[
1


A Koezienten in R.
Korollar 5.34. Sei A eine n n-Matrix mit Koezienten in Z. Es existiert genau dann A
1
mit
Koezienten in Z, wenn [A[ = 1.
Beweis. Es gilt Z

= 1.
Satz 5.35. (Zweite Cramersche Regel) Das lineare Gleichungssystem Ax = b, A GL
n
(K), b K
n
hat die Losung x = [A[
1


A b. F ur die i-te Komponente x
i
von x gilt:
x
i
= [A[
1

j
(1)
i+j
[A
ji
[ b
j
=
[(A, i, b)[
[A[
Hier ist (A, i, b) die Matrix, die aus A entsteht, wenn man die i-te Spalte durch b ersetzt.
Beweis. A
1
= [A[
1

A
Praktische Regeln f ur die Determinante.
B M
n,n
(K), k N

E
k
0
A B

= [B[
(Entwicklung nach der ersten Zeile und Induktion nach k)
Analog f ur A M
s,s
(K) :

A 0
B E
k

= [A[ =

E
k
B
0 A

0 A
E B

= (1)
s
[A[ =

B A
E 0

5.4. LEIBNIZ-FORMEL 67
Sind A und C quadratisch:

A 0
B C

A 0
B E

E 0
0 C

= [A[[C[
Durch Transposition:

A B
0 C

= [A[[C[
Induktiv erhalt man

1
0 0

2
0
.
.
.
.
.
.
.
.
.
.
.
.

n

=
1

n
=

1

0
2

.
.
.
.
.
.
.
.
.
.
.
.
0 0
n

Denition 5.36. Die Elemente der Gruppe


GL
+
n
(1) := A GL
n
(1) [ [A[ > 0
heien orientierungserhaltend.
Lemma 5.37. Sei V ein n-dimensionierter 1-Vektorraum und B die Menge der Basen von V . Die
Relation v w M
v
w
(id
V
) GL
+
n
(1) ist eine

Aquivalenzrelation auf B. Es existieren genau zwei

Aquivalenzklassen.
Beweis. Da sich Transformationsmatrizen (und damit auch deren Determinanten) multiplizieren,
ist eine

Aquivalenzrelation. Sei nun v eine xierte Basis. Dann gilt:
w ~ v w
t
~ v = w w
t
Also gibt es hochstens zwei

Aquivalenzklassen. Da det surjektiv ist, kommen negative Determinanten
vor, also gilt GL
+
n
(1) _ GL
n
(1) und daher existieren genau zwei Klassen.
Denition 5.38. Die Auswahl einer

Aquivalenzklasse bez uglich heit Orientierung des n-dimen-
sionierten 1-Vektorraums V . Jedes Element dieser

Aquivalenzklasse heit dann orientierte Basis.
Bemerkung. Der 1
n
wird durch die

Aquivalenzklasse der Standardbasis (e
1
, . . . , e
n
) orientiert.
(kanonische Orientierung des 1
n
)
Eine Basis (v
1
, . . . , v
n
) des 1
n
ist somit genau dann orientiert, wenn det(v
1
, . . . , v
n
) > 0.
Beispiel. Sei (x, y) linear unabhangig in 1
3
. Dann ist z := x y ,= 0 und es gilt:
det(x, y, z) = x y, z
= z, z
= [z[
2
> 0
Also ist (x, y, x y) eine orientierte Basis des 1
3
.
5.4 Leibniz-Formel
Denition 5.39. Ein S
n
heit Transposition, wenn es zwei Zahlen vertauscht und alle anderen
festhalt. Schreibweise: = (ij) vertauscht i und j (i ,= j) und halt alle andere fest.
68 KAPITEL 5. DETERMINANTEN UND EIGENWERTE
Lemma 5.40. Die Transpositionen erzeugen S
n
, d.h. jedes Element in S
n
kann (auf nicht notwendig
eindeutige Weise) als Produkt von Transpositionen geschrieben werden.
Beweis.
n = 1: die Aussage ist formal
n = 2: die Aussage ist trivial
Sei n > 2. Induktion uber n: Betrachte
S
n1
S
n
,
_
1 . . . n 1 n
(1) . . . (n 1) n
_
Sei nun S
n
beliebig. Gilt (n) = n, so ist S
n1
, also ist Produkt von Transpositionen.
Ist (n) = m, 1 m n 1, so ist (mn) S
n1
, also ein Produkt von Transpositionen. Es gilt
(mn) = t
1
t
r
, also = (mn)t
1
t
r
.
Lemma 5.41. Die Abbildung
sgn : S
n
1,

1i<jn
i j
(i) (j)
ist ein Gruppenhomomorphismus.
Beweis. Im Zahler und Nenner vom Produkt kommen bis auf Reihenfolge und Vorzeichen die glei-
chen Faktoren vor, also sgn() 1. F ur , S
n
und 1 i < j n, (i) > (j) gilt
(i) (j)
(i) (j)
=
(j) (i)
(j) (i)
Also gilt

1i<jn
(i) (j)
(i) (j)
=

1i<jn
i j
(i) (j)
= sgn() =

i j
(i) (j)
=

(i) (j)
(i) (j)

i j
(i) (j)
=

i j
(i) (j)

i j
(i) (j)
= sgn() sgn()

Denition 5.42. Die Zahl sgn() 1 heit das Vorzeichen oder Signum der Permutation .
Lemma 5.43. F ur t = (ij) S
n
gilt sgn(t) = 1.
5.4. LEIBNIZ-FORMEL 69
Beweis. Sei t = (ij) S
n
, o.B.d.A i < j. Bestimme Vorzeichen von

t()t()
f ur 1 < n:
, i, j = = +
= i < j = (j i) mal
= i < j < = +
< i < j = = +
i < < j = = (j i 1) mal
i < j = < = +
< = i < j = +
Es folgt sgn(t) = (1)
2j2i1
= 1.
Satz 5.44. Ist = t
1
t
r
eine Darstellung von als Produkt von Transpositionen, so gilt sgn() =
(1)
r
. Insbesondere ist r mod 2 unabhangig von der Wahl der Darstellung.
Beweis. sgn() = sgn(t
1
) sgn(t
r
) = (1)
r

Schiebespiel.
_

_
1 2 3 4
5 6 7 8
9 10 11 12
13 14 15
_

_
?
//
_

_
2 1 3 4
5 6 7 8
9 10 11 12
13 14 15
_

_
Antwort ist nein. Begr undung: Wir bezeichnen das leere Feld mit 16. Jeder Zustand des Spiels ent-
spricht einem Element aus S
16
. Jeder einzelne Zug entspricht einer Transposition. Das Schema
_

_
+ +
+ +
+ +
+ +
_

_
zeigt, dass ein Zustand mit Loch unten rechts nur nach einer geraden Anzahl von Z ugen erreicht
wird, d.h. sgn() = +1. Wegen sgn(
_
1 2
_
) = 1 kann dieser Zustand nicht erreicht werden.
Denition 5.45. Die Untergruppe A
n
:= S
n
[ sgn() = +1 heit die alternierende Gruppe
( uber n Elemente).
Bemerkung. A
n
= ker(sgn : S
n
1) und f ur n 2 ist sgn surjektiv = n 2 :
#A
n
=
1
2
#S
n
=
n!
2
Nun sei K ein Korper. Wir betrachten die Abbildung
: S
n
GL
n
(K), ()(e
i
) = e
(i)
Es gilt also
()
_
_
_
x
1
.
.
.
x
n
_
_
_
=
_
_
_
x

1
(1)
.
.
.
x

1
(n)
_
_
_
Seien , S
n
und x K
n
. Setzt man y = ()(x), so gilt y
i
= x

1
(i)
, i = 1, . . . , n und somit
(() ())(x)
i
= (()(y))
i
= y

1
(i)
= x

1
(i)
= x
()
1
(i)
= ()(x)
i
Dies zeigt () () = (). Daher ist ein (injektiver) Gruppenhomomorphismus.
70 KAPITEL 5. DETERMINANTEN UND EIGENWERTE
Denition 5.46. Matrizen der Form (), S
n
heien Permutationsmatrizen. Ist t = (ij), so
gilt (t) = P
ij
(d.h. die Matrix, die aus E
n
durch Vertauschen der i-ten und j-ten Zeile entsteht) und
daher det((t)) = det P
ij
= 1
K
.
Korollar 5.47. Ist S
n
Produkt von r Transpositionen, so gilt
det(()) = (1
K
)
r
= sgn()
Hier fassen wir sgn() 1 als Element von K auf.
Satz 5.48. (Leibniz-Formel) F ur A = (a
ij
) M
n,n
(K) gilt:
[A[ =

S
n
sgn() a
1(1)
a
n(n)
Beweis. Es gilt:
[A[ = det
_
_

j
a
1j
e
j
, . . . ,

j
a
nj
e
j
_
_
Durch multilineares Ausrechnen erhalt man
[A[ =

J=(j
1
,...,j
n
)
a
1j
1
a
nj
n
det(e
j
1
, . . . , e
j
n
)
Ist =
_
1 ... n
j
1
... j
n
_
keine Permutation, so ist det(e
j
1
, . . . , e
j
n
) = 0 (ein Vektor kommt doppelt vor). Ist
dagegen eine Permutation, so gilt det(e
j
1
, . . . , e
j
n
) = sgn() nach 5.47.
Korollar 5.49. F ur K = 1 ist det : 1
n
2
= M
n,n
(1) 1 beliebig oft stetig dierenzierbar.
Ist R ein kommutativer unitarer Ring, der Teilring eines Korpers K ist, so kann man det von einer
quadratischen Matrix mit Eintragen in R denieren, indem man die Eintrage als Elemente von K
auassen. Wegen der Leibniz-Formel ist det wieder in R und von Auswahl von K unabhangig.
Beispiel. R = K[t], K Korper. Wir betrachten die

Aquivalenzrelation auf K[t] (K[t] 0) durch
(f
1
, g
1
) (f
2
, g
2
) f
1
g
2
= f
2
g
1
Die

Aquivalenzrelation des Paares (f, g), g ,= 0 wird mit
f
g
bezeichnet. Die

Aquivalenzklassen heien
rationale Funktionen. Rechnen funktioniert wie mit gewohnlichen Br uchen:
f
1
g
1

f
2
g
2
=
f
1
f
2
g
1
g
2
,
f
1
g
1
+
f
2
g
2
=
f
1
g
2
+f
2
g
1
g
1
g
2
Die Menge der rationalen Funktionen wird mit K(t) bezeichnet. K(t) ist ein kommutativer Ring mit
Nullelement
0
1
und Einselement
1
1
. Es gilt
f
g
,=
0
1
f ,= 0. Daher hat
f
g
das Inverse
g
f
, weshalb
K(t) ein Korper ist. Die Zuordnung K[t] K(t), f
f
1
ist ein injektiver Ringhomomorphismus.
Denition 5.50. Sei R ein kommutativer unitarer Ring und A M
n,n
(R), so deniert man det(A)
R uber die Leibniz-Formel. Man kann dann zeigen:
(1) det kann uber Zeilen- oder Spaltenentwicklung berechnet werden
(2) det(AB) = det(BA), A

A =

A A = det(A) E
(3) A ist invertierbar det(A) R

. Dann gilt
A
1
= det(A)
1

A
(4) Ist f : R S ein Ringhomomorphismus, so gilt f ur f(A) M
n,n
(S) :
det(f(A)) = f(det(A))
5.5. DAS CHARAKTERISTISCHE POLYNOM 71
5.5 Das charakteristische Polynom
Sei A M
n,n
(K).
Denition 5.51. Die Spur von A = (a
ij
) ist deniert durch sp(A) =

n
i=1
a
ii
.
Lemma 5.52. sp(AB) = sp(BA)
Beweis. Es gilt:
(AB)
ii
=
n

j=1
a
ij
b
ji
, (BA)
ii
=
n

i=1
b
ji
a
ij
= sp(AB) =

i,j
a
ij
b
ji
= sp(BA)
Korollar 5.53. F ur T GL
n
(K) gilt det(TAT
1
) = det(A) und sp(TAT
1
) = sp(A).
Beweis.
det(TAT
1
) = det(T
1
TA) = det(A)
sp(TAT
1
) = sp(T
1
TA) = sp(A)
Denition 5.54. Sei A M
n,n
(K). Das Polynom
A
(t) = det(t E A) K[t] heit das charakte-
ristische Polynom der Matrix A.
Lemma 5.55.
A
ist normiert vom Grad n.

A
(t) = t
n
+c
n1
t
n1
+. . . +c
0
und es gilt c
0
=
A
(0) = (1)
n
[A[ und c
n1
= sp(A).
Beweis. Die Leibniz-Formel zeigt, dass
A
die folgende Form besitzt:

A
(t) = (t a
11
) (t a
nn
) + (Polynom vom Grad n 2)
Daher ist
A
normiert vom Grad n und c
n1
= a
11
a
22
. . . a
nn
. Schlielich gilt:
c
0
=
A
(0) = [0 E A[ = [ A[ = (1)
n
[A[

Lemma 5.56. Ist T GL


n
(K), so gilt
TAT
1 =
A
.
Beweis.

TAT
1 = [tE TAT
1
[ = [T(tE A)T
1
[ = [T[[tE A[[T
1
[ = [tE A[ =
A
72 KAPITEL 5. DETERMINANTEN UND EIGENWERTE
Rechenregeln. Unsere Regeln zur Determinantenberechnung wenden sich nun hier an und wir er-
halten:
A =
_
_
_
_
_
_

1

0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

0 0
n
_
_
_
_
_
_
= tE A =
_
_
_
_
_
_
t
1

0 t
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

0 0 t
n
_
_
_
_
_
_
=
A
(t) = (t
1
)(t
2
) (t
n
)
A =
_
B
0 C
_
oder
_
B 0
C
_
=
A
(t) =
B
(t)
C
(t)
Sei nun f = c
0
+c
1
t +. . . +c
r
t
r
K[t] ein Polynom. Wir konnen A M
m,m
(K) in f einsetzen durch
die Regel
f(A) = c
0
E +c
1
A+c
2
A
2
. . . +c
r
A
r
M
m,m
(K)
Bemerkung. Man sieht leicht f ur f, g K[t] und A M
m,m
(K), dass
f(A)g(A) = (f g)(A) = (g f)(A) = g(A)f(A)
d.h. die Matrizen f(A) und g(A) kommutieren.
Satz 5.57. (Satz von Cayley-Hamilton)

A
(A) = 0
wobei 0 die Nullmatrix (und kein Skalar) bezeichnet.
Beweis. Sei D die Adjunkte zu tE A, also
D(tE A) = det(tE A) E =
A
(t)E ()
In der Denition der Adjunkte treten Determinanten von (n 1) (n 1)-Untermatrizen auf, also
sind die Eintrage von D Polynomen vom Grad n 1:
D =
n1

i=0
D
i
t
i
, D
i
M
n,n
(K)
Desweiteren sei
A
(t) =

n
i=0
a
i
t
i
, a
i
K. Ein Koezientenvergleich in () liefert
D
i1
D
i
A = a
i
E
wobei wir D
01
= 0 und D
n
= 0 erganzen. Es folgt:

A
(A) =
n

i=0
a
i
A
i
=
n

i=0
(D
i1
D
i
A)A
i
= D
0
A+D
0
AD
1
A
2
+D
1
A
2
+. . . +D
n1
A
n
D
n
A
n+1
= 0

5.6. ENDOMORPHISMEN 73
5.6 Endomorphismen
Sei f : V W eine lineare Abbildung. Wir haben in 3.21 gezeigt, dass sich f bei Wahl geeigneter
Basen (v
1
, . . . , v
n
), (w
1
, . . . , w
m
) von V und W durch die Matrix
_
_
_
_
_
_
_
_
_
_
_
_
_
Rg(f)
..
1
.
.
.
1
0
0
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
darstellen lasst. Sei nun V ein n-dimensionaler Vektorraum und : V V End(V ) ein Endomor-
phismus. Sei A die Darstellungsmatrix von bez uglich der Basis (v
1
, . . . , v
n
). Bez uglich einer anderen
Basis (v
t
1
, . . . , v
t
n
) wird durch die Matrix TAT
1
dargestellt, wobei T GL
n
(K) die Transformati-
onsmatrix ist. Nach 5.56 hangt das charakteristische Polynom nicht von der Wahl der Basis ab und
wir erhalten, dass die nachfolgenden Objekte wohldeniert sind.
Denition 5.58.

(t) :=
A
(t), sp() := sp(A), det() := det(A)
wobei A die Darstellungsmatrix von bez uglich irgendeiner Basis ist.
Denition 5.59. Sei End(V ). Ein K heit Eigenwert von , wenn es einen Vektor v V
gibt mit v ,= 0 und (v) = v. Ist ein Eigenwert von , so heit der Unterraum
V

:= ker( id )
der Eigenraum zu und seine Elemente ,= 0, d.h. v ,= 0 mit (v) = v heien Eigenvektoren zum
Eigenwert .
Bemerkung. Ideal ware es, wenn man V in die direkte Summe von Eigenraumen zerlegen konnte.
Dann hatte bez uglich einer Basis von V Diagonalgestalt. Leider geht das nicht immer.
Beispiel. =
_
0 1
1 0
_
GL
2
(1) entspricht der Drehung um

2
in der Ebene und hat keine Eigen-
werte.
Satz 5.60. Die Eigenwerte von sind genau die Nullstellen von

(t).
Beweis. Es sei bez uglich irgendeiner Basis durch die Matrix A dargestellt. Es gilt:
ist Eigenwert von
v ,= 0 : (v) = v
v ,= 0 : (id
V
)(v) = 0
ker(id
V
) ,= 0
det(E A) = 0

A
() = 0
74 KAPITEL 5. DETERMINANTEN UND EIGENWERTE
Bemerkung. Damit sehen wir auch algebraisch, dass A =
_
0 1
1 0
_
keine Eigenwerte hat, da
A
(t) =
t
2
+1 keine reellen Nullstellen hat. Aber i sind komplexe Nullstellen, d.h. als komplexe Matrix besitzt
A zwei Eigenwerte.
Sei nun f = c
0
+ c
1
t + . . . + c
r
t
r
K[t], V ein n-dimensionaler Vektorraum und End(V ). Da
End(V ) ein unitarer Ring mit K als Unterring ist, kann man Endomorphismen in f einsetzen und
erhalt wieder ein Endomorphismus:
f() = c
0
id
V
+c
1
+c
2
( ) +. . . +c
r
( . . .
. .
r mal
)
Bemerkung. Man sieht leicht f ur f, g K[t] und End(V ), dass
f()g() = (f g)() = (g f)() = g()f()
d.h. die Endomorphismen f() und g() kommutieren.
Satz 5.61. (Cayley-Hamilton f ur Endomorphismen)

() = 0 f ur End
K
(V ).
Beweis. Sei bez uglich einer Basis durch die Matrix A dargestellt. Dann wird f ur f K[t] f()
durch f(A) dargestellt. Insbesondere wird

() durch
A
(A) = 0 dargestellt.
5.7 Zerlegung in Eigenraume
Sei V ein n-dimensionaler K-Vektorraum und End
K
(V ).
Denition 5.62. Man sagt, eine Matrix A = (a
ij
) habe Diagonalgestalt, falls a
ij
= 0 wenn i ,= j.
Der Endomorphismus von V heit diagonalisierbar, falls es eine Basis (v
1
, . . . , v
n
) von V gibt,
bez uglich der die Darstellungsmatrix von Diagonalgestalt hat. Schreibweise:
A = diag(a
11
, . . . , a
nn
)
Lemma 5.63. Der Endomorphismus ist genau dann diagonalisierbar, wenn es eine Basis (v
1
, . . . , v
n
)
von V bestehend aus Eigenvektoren zu gibt.
Beweis. Es ist diag(
1
, . . . ,
n
) genau dann Darstellungsmatrix von bez uglich einer Basis (v
1
, . . . , v
n
),
wenn (v
i
) =
i
v
i
gilt.
Bemerkung. Ist diagonalisierbar, also die Darstellungsmatrix von bez uglich (v
1
, . . . , v
n
) von
Diagonalgestalt diag(
1
, . . .
n
), so gilt

(t) = [diag(t
1
, . . . , t
n
)[ =
n

i=1
(t
i
)
d.h.

(t) zerfallt in Linearfaktoren.


Satz 5.64. Es seien
1
, . . . ,
m
paarweise verschiedene Eigenwerte von und v
1
, . . . , v
m
Eigenvek-
toren zu
1
, . . . ,
m
. Dann ist das System (v
1
, . . . , v
m
) linear unabhangig.
5.8. TRIGONALISIERBARKEIT 75
Beweis. Nach Voraussetzung gilt: (
i
id
V
)(v
j
) = (
j

i
)v
j
. Setzt man f ur i = 1, . . . , m

i
= (
1
id
V
) (
2
id
V
) (
i1
id
V
) (
i+1
id
V
) (
m
id
V
)
so folgt:

i
(v
j
) = v
j

k,=i
(
j

k
) =
_
0, i ,= j
c v
j
, i = j
f ur ein c ,= 0 K
Gilt nun
1
v
1
+. . . +
m
v
m
= 0 f ur
1
, . . . ,
m
K, so gilt durch Anwenden von
i
:

i
c v
i
= 0 =
i
= 0
(v
1
, . . . , v
m
) ist also linear unabhangig.
Satz 5.65. Sei V ein n-dimensionaler Vektorraum und End
K
(V ). Zerfallt das charakteristische
Polynom von in paarweise verschiedene Linearfaktoren, d.h.

(t) = (t
1
) (t
n
) mit
i
,=
j
f ur i ,= j, dann gibt es eine Basis von V aus Eigenvektoren von . Insbesondere wird bez uglich
dieser Basis durch eine Diagonalmatrix dargestellt.
Beweis. In diesem Fall sind
1
, . . . ,
n
paarweise verschiedene Eigenwerte von . Sind v
1
, . . . , v
n
assoziierte Eigenvektoren, so ist nach 5.64 (v
1
, . . . , v
n
) ein linear unabhangiges System und wegen
n = dimV eine Basis.
Beispiel. Betrachte den Endomorphismus des 1
2
, der bez uglich der kanonischen Basis durch
A =
_
1 2
1 4
_
dargestellt wird. Es gilt:

(t) =

t 1 2
1 t 4

= t
2
5t + 6 = (t 2)(t 3)
Suche nun die assoziierten Eigenvektoren. Betrachte dazu die folgenden homogenen linearen Glei-
chungssysteme:
(2E A)x = 0
=
_
1 2
1 2
__
x
1
x
2
_
= 0
Nichttriviale Losung:
_
2
1
_
ist Eigenvektor zum Eigenwert = 2.
(3E A)x = 0
=
_
2 2
1 1
__
x
1
x
2
_
= 0
Nichttriviale Losung:
_
1
1
_
ist Eigenvektor zum Eigenwert = 3. Also hat bez uglich der Basis
((2, 1)
t
, (1, 1)
t
) die Darstellungsmatrix diag(2, 3).
5.8 Trigonalisierbarkeit
Denition 5.66. Sei V ein n-dimensionaler K-Vektorraum und End
K
(V ). Dann heit tri-
gonalisierbar, wenn es eine Basis von V gibt, bez uglich derer durch eine obere Dreiecksmatrix
dargestellt wird, d.h. eine Matrix der Form
_
_
_

.
.
.
.
.
.
.
.
.
0
_
_
_
76 KAPITEL 5. DETERMINANTEN UND EIGENWERTE
Satz 5.67. ist genau dann trigonalisierbar, wenn

(t) vollstandig in Linearfaktoren zerfallt.


Beweis. Ist bez uglich einer Basis durch
A :=
_
_
_

1

.
.
.
.
.
.
.
.
.
0
n
_
_
_
gegeben, so gilt:

(t) = det(tE A) = (t
1
) (t
n
)
Die andere Richtung beweisen wir per Induktion nach n. Der Fall n = 1 ist trivial. Sei

(t) =
(t
1
) (t
n
) und sei v
1
ein Eigenvektor zum Eigenwert
1
. Erganze v
1
zu einer Basis (v
1
, . . . , v
n
)
von V . Bez uglich dieser Basis hat die Gestalt
A =
_

1

0 A
t
_
mit einer (n 1) (n 1)-Matrix A
t
. Sei V
t
= Lin(v
2
, . . . , v
n
). Dann gilt V = Kv
1
V
t
. Auerdem

A
(t) = (t
1
)
A
. Wegen der Eindeutigkeit der Primpolynomzerlegung gilt:

A
(t) = (t
2
) (t
n
)
Sei
t
der Endomorphismus auf V
t
, der durch A
t
bez uglich (v
1
, . . . , v
n
) dargestellt wird. Nach In-
duktionsvoraussetzung gibt es eine Basis (v
t
2
, . . . , v
t
n
) von V
t
bez uglich derer
t
durch eine obere
Dreiecksmatrix B
t
dargestellt wird. Dann wird bez uglich der Basis (v
1
, v
t
2
, . . . , v
t
n
) durch folgende
Matrix dargestellt:
_

1

0 B
t
_
Dies ist eine obere Dreiecksmatrix, also ist trigonalisierbar.
Korollar 5.68.

Uber K = C sind alle Endomorphismen trigonalisierbar.
Beweis. Hauptsatz der Algebra:

Uber C zerfallt jedes Polynom in Linearfaktoren.
Denition 5.69. Sei nun K wieder allgemein und Eigenwert von End
K
(V ).
(i) Die algebraische Vielfachheit
alg
() ist die Vielfachheit von als Nullstelle von

(t), d.h. die


Potenz von (t ) in der Primfaktorzerlegung von

(t).
(ii) Die geometrische Vielfachheit
geo
() ist gleich dimV

.
Satz 5.70. Es gilt 1
geo
()
alg
().
Beweis. Sei r =
geo
() und v
1
, . . . , v
r
eine Basis von V

. Erganze zu Basis (v
1
, . . . , v
r
, v
r+1
, . . . , v
n
),
so wird durch eine Matrix der Form
A =
_
E
r

0 A
t
_
dargestellt. Also gilt

(t) = (t )
r

A
(t). Dies impliziert
alg
() r.
Satz 5.71. F ur einen Endomorphismus auf dem n-dimensionalen Vektorraum V gilt:
diagonalisierbar

Eigenwert

geo
() = n
trigonalisierbar

Eigenwert

alg
() = n
5.8. TRIGONALISIERBARKEIT 77
Beweis. Es seien
1
, . . . ,
r
die verschiedenen Eigenwerte von . Gilt

r
i=1

alg
(
i
) = n = deg(

),
so folgt:

(t) = (t
1
)

alg
(
1
)
(t
r
)

alg
(
r
)
Nach 5.67 ist trigonalisierbar. Ist umgekehrt trigonalisierbar, so zerfallt nach 5.67

in Linear-
faktoren und es folgt

alg
() = n.
Ist diagonalisierbar, so zerfallt V in die direkte Summe der Eigenraume und es gilt
n = dimV =

Eigenwert
dimV

Eigenwert

geo
()
Gelte umgekehrt diese Formel. Betrachte den nat urlichen Homomorphismus
:
r

i=1
V

i
V, (v
1
, . . . , v
r
)

v
i
Wir zeigen, dass ein Isomorphismus ist. Nach Voraussetzung gen ugt es zu zeigen, dass injektiv ist.
Dies folgt aus 5.64.
Kapitel 6
Bilinearformen
Wir betrachten 2-Formen auf V , also : V V K, d.h. ist jedem Argument linear.
6.1 Bilinearform
Denition 6.1. Sei V ein endlich dimensionierter Vektorraum mit Basis (v
1
, . . . , v
n
) und : V V
K eine Bilinearform. Die Matrix G = (g
ij
) = ((v
i
, v
j
)) heit die Fundamentalmatrix von bzgl. dieser
Basis. Da bilinear ist, gilt f ur Vektoren v =

a
i
v
i
, w =

b
i
v
i
:
(v, w) =
_

a
i
v
i
,

b
i
v
i
_
=
_
a
1
a
n
_
G
_
_
_
b
1
.
.
.
b
n
_
_
_
= a
t
G b K
weshalb durch Geindeutig bestimmt ist. Umgekehrt deniert jedes G M
n,n
(K) mit Hilfe der oberen
Formel eine Bilinearform : V V K mit Fundamentalmatrix G. Die Menge aller Bilinearformen
wird zum Vektorraum Bil(V ) durch
(
1
+
2
)(v, w) =
1
(v, w) +
2
(v, w)
Sind G
1
, G
2
die Fundamentalmatrizen zu
1
,
2
, so ist G
1
+G
2
die Fundamentalmatrix zu
1
+
2
.
Lemma 6.2. Sei V ein n-dimensionaler Vektorraum und (v
1
, . . . , v
n
) eine Basis. Dann gibt es einen
Isomorphismus von Vektorraumen

v
1
,...,v
n
: Bil(V ) M
n,n
(K), G
Lemma 6.3. Ist S = M
w
v
(id
V
), so gilt
w
() = S
t

v
() S.
Beweis. Sei (w
1
, . . . , w
n
) eine weitere Basis und S = M
w
1
,...,w
n
v
1
,...,v
n
(id
V
) die Transformationsmatrix.
Dann ist die Fundamentalmatrix von bez uglich (w
1
, . . . , w
n
) gegeben durch
G
t
= (g
t
ij
) = ((w
i
, w
j
))
=
_

_
n

k=1
s
ki
v
k
,
n

l=1
s
lj
v
l
__
ij
=
_
n

k=1
n

l=1
s
ki
g
kl
s
lj
_
ij
= S
t
G S
79
80 KAPITEL 6. BILINEARFORMEN
Bemerkung. Bei Basiswechsel G S
t
GS gilt det(S
t
GS) = det(S)
2
det(G), d.h. die Determinante
der Fundamentalmatrix ist nicht basisunabhangig.
Sei : V V K eine Bilinearform. Die assoziierte Abbildung
: V V

, (v)(w) := (v, w)
ist linear. Umgekehrt deniert jede lineare Abbildung : V V

eine Bilinearform durch (v, w) :=


(v)(w).
Denition 6.4. heit nicht ausgeartet, wenn : V V

ein Isomorphismus ist. Wegen dimV =


dimV

ist genau dann ein Isomorphismus, wenn es injektiv ist. Also ist genau dann nicht ausge-
artet, wenn die folgende Implikation gilt:
w V : (v, w) = 0 = v = 0
Lemma 6.5. Sei (v
1
, . . . , v
n
) eine Basis und G =
v
1
,...,v
n
() M
n,n
(K) die Fundamentalmatrix
von bez uglich (v
1
, . . . , v
n
). Dann sind aquivalent:
(i) ist nicht ausgeartet
(ii) G ist invertierbar
Beweis. Sei v

= (v

1
, . . . , v

n
) die zu v = (v
1
, . . . , v
n
) duale Basis von V

. Behauptung:
(v
i
) = (v
i
, v
1
)v

1
+. . . +(v
i
, v
n
)v

n
Grund: Per Denition gilt (v
i
)(v
j
) = (v
i
, v
j
) und es gilt:
((v
i
, v
1
)v

1
+. . . +(v
i
, v
n
)v

n
)(v
j
) = (v
i
, v
j
)
Also stimmen beide Linearformen auf einer Basis uberein und sind also gleich. Daraus folgt M
v
v
() =
((v
j
, v
i
))
ij
= G
t
. Es gilt also folgende Aussage:
ist nicht ausgeartet ist Isomorphismus G
t
ist invertierbar G ist invertierbar

Korollar 6.6. Ist nicht ausgeartet, so gilt v V : (v, w) = 0 = w = 0.


Beweis. Sei G die Fundamentalmatrix von bez uglich (v
1
, . . . , v
n
). Wir betrachten die Bilinearform

t
: V V K,
t
(v, w) := (w, v). Dann hat
t
die Fundamentalmatrix G
t
. Nach Voraussetzung ist
nicht ausgeartet, daher ist G invertierbar, also auch G
t
, d.h.
t
ist nicht ausgeartet. Es gilt folgende
Aussage:
v V : (v, w) = 0 = v V :
t
(w, v) = 0 = w = 0

Denition 6.7.
heit symmetrisch : v
1
, v
2
V : (v
1
, v
2
) = (v
2
, v
1
)
heit antisymmetrisch : v
1
, v
2
V : (v
1
, v
2
) = (v
2
, v
1
)
6.2. QUADRATISCHE R

AUME 81
Bemerkung. Nach 5.17 gilt: ist alternierend = ist antisymmetrisch. Im Fall char(K) ,= 2
gilt auch die Umkehrung, wegen
(v, v) = (v, v) = 2(v, v) = 0 = (v, v) = 0
Im Fall char(K) = 2 gilt 1
K
= 1
K
; also sind Symmetrie und Antisymmetrie aquivalent. Die Form
: K
3
K
3
K, (x, y) = x
t
y = x
1
y
1
+x
2
y
2
+x
3
y
3
ist im Fall char(K) = 2 antisymmetrisch, aber nicht alternierend.
Lemma 6.8. Sei : V V K eine Bilinearform und (v
1
, . . . , v
n
) eine Basis. Sei G =
v
1
,...,v
n
()
die Fundamentalmatrix, so gilt:
(i) ist symmetrisch G ist eine symmetrische Matrix (d.h. G
t
= G)
(ii) ist antisymmetrisch G ist eine antisymmetrische Matrix (d.h. G
t
= G)
6.2 Quadratische Raume
Sei char(K) ,= 2.
Denition 6.9. Ein n-dimensionaler K-Vektorraum V zusammen mit einer symmetrischen Biline-
arform heit quadratischer Raum der Dimension n uber K. Eine Basis (v
1
, . . . , v
n
) von V heit
Orthogonalbasis, wenn (v
i
, v
j
) = 0 f ur i ,= j gilt.
Bemerkung
1. (v
1
, . . . , v
n
) ist eine Orthogonalbasis, wenn die Fundamentalmatrix G = ((v
i
, v
j
)) eine Diago-
nalmatrix ist.
2. Der K urze halber schreiben wir von jetzt an auch (v, w) = v, w.
Theorem 6.10. Sei (V, ) ein quadratischer Raum. Dann gibt es eine Orthogonalbasis.
Beweis. Per Induktion uber n = dimV . Der Fall n = 1 ist trivial. Sei n 2. Gilt v, v = 0 f ur alle
v V , so gilt:
0 = v +w, v +w = 2v, w
und wegen char(K) ,= 2 ist identisch 0. In diesem Fall ist jede Basis orthogonal. Ansonsten existiert
ein v
1
V mit v
1
, v
1
= a
1
,= 0. Sei
H := w V [ v
1
, w = 0 = ker((v
1
) : V K) = dimH n, n 1 (Dimensionsformel)
Wegen v
1
, H gilt dimH = n 1 und V

= Kv
1
H. Nun ist (H, [
HH
) ein quadratischer Raum
der Dimension n 1. Nach Induktionsvoraussetzung existiert eine Orthogonalbasis (v
2
, . . . , v
n
) von
H. Dann ist (v
1
, . . . , v
n
) eine Orthogonalbasis von V wegen v
i
, v
j
= 0 f ur i ,= j.
Korollar 6.11. Sei A M
n,n
(K) symmetrisch. Dann existiert ein S GL
n
(K), so dass S
t
AS
Diagonalform hat.
Beweis. Bez uglich der Standardbasis von K
n
deniert A eine symmetrische Bilinearform. Bez uglich
einer Orthogonalbasis des K
n
hat diese Diagonalform. Der Basiswechsel von der Standardbasis zur
Orthogonalbasis uberf uhrt A in S
t
AS f ur ein S GL
n
(K) und S
t
AS hat Diagonalform.
82 KAPITEL 6. BILINEARFORMEN
Denition 6.12. Es seien (H
1
,
1
), (H
2
,
2
) quadratische Raume. Ein Homomorphismus quadrati-
scher Raume f : (H
1
,
1
) (H
2
,
2
) ist ein Vektorraumhomomorphismus f : H
1
H
2
, so dass
v, w H
1
:
2
(f(v), f(w)) =
1
(v, w)
Denition 6.13. Sind (V
1
,
1
), (V
2
,
2
) quadratische Raume, so heit (V, ) mit V = V
1
V
2
und
((v
1
, v
2
), (w
1
, w
2
)) :=
1
(v
1
, w
1
) +
2
(v
2
, w
2
)
die orthogonale direkte Summe von (V
1
,
1
) und (V
2
,
2
). Bezeichnung: (V, ) = (V
1
,
1
)

(V
2
,
2
)
oder einfach V = V
1

V
2
.
Denition/Lemma 6.14. Seien U
1
, U
2
Untervektorraume des quadratischen Raums (V, ). Dann
ist der induzierte Homomorphismus
f : (U
1
,
[U
1
)

(U
2
,
[U
2
) (V, ), f(u
1
, u
2
) = u
1
+u
2
genau dann ein Homomorphismus quadratischer Raume, wenn u
1
U
1
, u
2
U
2
: (u
1
, u
2
) = 0. Ist
dies der Fall und ist f uberdies ein Isomorphismus ( U
1
U
2
= 0 und U
1
+ U
2
= V , siehe
2.7), so sagt man, V sei die orthogonale direkte Summe seiner Untervektorraume U
1
, U
2
und schreibt
V = U
1

U
2
.
Beweis. Sei h die Bilinearform auf (U
1
,
[U
1
)

(U
2
,
[U
2
). F ur u
1
, u
t
1
U
1
, u
2
, u
t
2
U
2
gilt
h((u
1
, u
2
), (u
t
1
, u
t
2
)) = (u
1
, u
t
1
) +(u
2
, u
t
2
)
Es ist f genau dann ein Homomorphismus quadratischer Raume, wenn f ur beliebige u
1
, u
t
1
U
1
, u
2
, u
t
2

U
2
gilt:
h((u
1
, u
2
), (u
t
1
, u
t
2
)) = (f(u
1
, u
2
), f(u
t
1
, u
t
2
)) = (u
1
+u
2
, u
t
1
+u
t
2
)
= (u
1
, u
t
1
) +(u
2
, u
t
2
) = (u
1
, u
t
1
) +(u
1
, u
t
2
) +(u
2
, u
t
1
) +(u
2
, u
t
2
)
= 0 = (u
1
, u
t
2
) +(u
2
, u
t
1
)
Dies ist aquivalent zu u
1
U
1
, u
2
U
2
: (u
1
, u
2
) = 0.
Satz 6.15. Sei (V, ) ein quadratischer Raum uber C. Dann existiert eine Orthogonalbasis (v
1
, . . . , v
n
)
von V , so dass
i
:= (v
i
, v
i
) 0, 1. Die Zahlen
r
0
= #i [
i
= 0, r = #i [
i
= 1
sind unabhangig von Wahl der Orthogonalbasis.
Beweis. Sei ( v
1
, . . . , v
n
) eine Orthogonalbasis. Setze
v
i
:=
_
v
i
, falls

i
= ( v
i
, v
i
) = 0
1

i
v
i
, falls

i
,= 0
Dann ist (v
1
, . . . , v
n
) eine Orthogonalbasis. mit
i
= v
i
, v
i
0, 1. F ur die Fundamentalmatrix
G = diag(
1
, . . . ,
n
) gilt nun r = Rg(G), r
0
= n r. Bez uglich einer anderen Orthogonalbasis hat
die Fundamentalmatrix T
t
GT f ur ein T GL
n
(C) und es gilt Rg(T
t
GT) = Rg(G). Daher sind r
0
, r
unabhangig von der Auswahl der Orthogonalbasis.
Korollar 6.16. Sei G eine symmetrische, komplexe n n-Matrix. Dann existiert ein T GL
n
(C)
mit T
t
GT =
_
E
r
0
0 0
_
. Die Zahl r = Rg(G) ist unabhangig von der Wahl von T.
6.3. EUKLIDISCHE VEKTORR

AUME 83
Satz 6.17. Sei (V, ) ein quadratischer Raum uber 1. Dann existiert eine Orthogonalbasis (v
1
, . . . , v
n
),
so dass
i
:= (v
i
, v
i
) 0, 1. Die Zahlen
r
0
= #i [
i
= 0, r
+
= #i [
i
= 1, r

= #i [
i
= 1
sind unabhangig von der Wahl der Basis.
Beweis. Sei ( v
1
, . . . , v
n
) eine Orthogonalbasis. Setze
v
i
=
_
v
i
, falls

i
:= ( v
i
, v
i
) = 0
1

i
[
v
i
, falls

i
,= 0
Wir erhalten die gew unschte Orthogonalbasis mit Fundamentalmatrix A = diag(
1
, . . . ,
n
) und
i

0, 1. Wie im Komplexen erhalten wir, dass r
+
+r

= Rg(A) und r
0
= nRg(A) unabhangig von
der Wahl der Orthogonalbasis sind. Daher gen ugt es zu zeigen, dass r
+
unabhangig von der Wahl ist.
Sei V
+
der Untervektorraum in V , erzeugt von den v
i
mit
i
= +1. Analog V

, V
0
. Dann gilt
V = V
+
V

V
0
. Setze
a := maxdimW [ W V, w W : w, w > 0
Zunachst hat V
+
diese Eigenschaft, also a r
+
. Ware a > r
+
, so existiert ein W V wie oben und
dimW > r
1
. Es folgt dimW +dimV

+dimV
0
> n. Die Dimensionsformel liefert W(V

V
0
) ,= 0.
Somit existiert ein w W, w ,= 0 mit w, w > 0 und w, w 0 . So ist a = r
+
, also ist r
+
unabhangig von Wahl der Orthogonalbasis.
Korollar 6.18. (Sylvestersches Tragheitssatz) Sei G M
n,n
(1) symmetrisch. Dann existiert ein
T GL
n
(1), so dass
T
t
GT =
_
_
E
r
+
E
r

0
r
0
_
_
r
+
, r

, r
0
sind unabhangig von der Wahl von T.
6.3 Euklidische Vektorraume
Denition 6.19. Eine symmetrische Bilinearform : V V 1 auf einem endlich dimensionierten
1-Vektorraum V heit positiv-denit (bzw. positivsemidenit), wenn (v, v) > 0 (bzw. (v, v) 0)
f ur alle v V 0 gilt. Analog deniert man negativ-(semi)denit.
Beispiel. 1
n
mit Standardskalarprodukt x, y = x
t
y =

x
i
y
i
ist positiv-denit.
Denition 6.20.
Ein euklidischer Raum ist ein endlich dimensionierter 1-Vektorraum mit einer positiv-deniten,
symmetrischen Bilinearform.
F ur ein v V nennt man |v| =
_
v, v die Norm von v.
Zwei euklidische Vektorraume V, W heien isometrisch, wenn es einen Vektorraumisomorphismus
: V W gibt mit v
1
, v
2
V : (v
1
), (v
2
)
W
= v
1
, v
2

V
.
Eine Basis (e
1
, . . . , e
n
) eines euklidischen Vektorraums heit Orthonormalbasis, wenn e
i
, e
j
=

ij
.
Theorem 6.21. Jeder euklidischer Vektorraum besitzt eine Orthonormalbasis.
84 KAPITEL 6. BILINEARFORMEN
Beweis. Sei (v
1
, . . . , v
n
) eine Orthogonalbasis und G die Fundamentalmatrix von bez uglich
(v
1
, . . . , v
n
). Auf der Diagonale stehen Werte v
i
, v
i
> 0. Setze e
i
=
1

v
i
,v
i
)
v
i
.
Korollar 6.22. Eine positiv-denite, symmetrische Bilinearform ist nicht ausgeartet. Es existiert
eine Basis, bez uglich derer sie durch die Einheitsmatrix dargestellt wird.
Korollar 6.23. Ein euklidischer Vektorraum (V, ) mit dim
1
V = n ist immer isometrisch zum 1
n
mit dem Standardskalarprodukt.
Beweis. Sei (v
1
, . . . , v
n
) eine Orthonormalbasis von V . Dann ist : (1
n
, ,
Std
) (V, ), e
i
v
i
eine Isometrie.
Korollar 6.24. Sei (V, ) ein euklidischer Vektorraum. Dann gelten folgende Aussagen:
(i) Dreiecksungleichung: |x +y| |x| +|y|
(ii) Schwarzsche Ungleichung: [x, y[ |x||y|
Beweis. (i) und (ii) gilt in 1
n
.
Korollar 6.25. (Satz des Pythagoras) Sind x und y orthogonal, d.h. x, y = 0, so gilt:
|x +y|
2
= |x|
2
+|y|
2
Denition 6.26. Sei V ein euklidischer Vektorraum und U V ein Untervektorraum. Dann heit
U

:= v V [ u U : v, w = 0 das orthogonale Komplement zu U.


Satz 6.27. V = U

U

Beweis. Ist u U U

, so gilt u, u = 0, also u = 0 = U U

= 0. Zu zeigen: U +U

= V .
Sei (u
1
, . . . , u
m
) eine Orthonormalbasis von U. F ur v V sei v
t
= v

m
i=1
v
i
, u
i
u
i
. Dann gilt
v
t
, u
i
= v, u
i
v, u
i
= 0 f ur i = 1, . . . , m, also v
t
U

. Daher gilt V = U U

. Schlielich gilt
u, v = 0 f ur alle u U, v U

, weshalb die Summe orthogonal ist. (6.14)


Denition 6.28. Die Projektion V

//
U

U

p
1
//
U heit die Orthogonalprojektion von V
auf U.
6.4 Gram-Schmidt-Orthonormalisierung
Explizites Verfahren zur Bestimmung einer Orthonormalbasis. Sei (V, ) ein euklidischer
Raum, (v
1
, . . . , v
n
) eine Basis von V . Wir verandern die Basis in n Schritten zu einer Orthonormalbasis.
1. Setze
w
1
=
v
1
|v
1
|
2. Sei k 2 und eine Orthonormalbasis (w
1
, . . . , w
k1
) von Lin(v
1
, . . . , v
k1
) bereits konstruiert.
Dann setze:
w
t
k
= v
k

k1

i=1
(v
k
, w
i
)w
i
6.4. GRAM-SCHMIDT-ORTHONORMALISIERUNG 85
F ur i = 1, . . . , k 1 gilt:
(w
t
k
, w
i
) =
_
_
v
k

k1

j=1
(v
k
, w
j
)w
j
, w
i
_
_
= (v
k
, w
i
) (v
k
, w
i
)(w
i
, w
i
)
= 0
Auerdem v
k
, Lin(v
1
, . . . , v
k1
) = Lin(w
1
, . . . , w
k1
)
= w
t
k
, Lin(w
1
, . . . , w
k1
)
= (w
1
, . . . , w
k1
w
t
k
) ist Orthogonalbasis von Lin(v
1
, . . . , v
k
)
Schlielich setze w
k
=
w

k
|w

k
|
. Dann ist (w
1
, . . . , w
k
) eine Orthonormalbasis von Lin(v
1
, . . . , v
k
).
Bemerkung. Im k-ten Schritt der Gram-Schmidt-Orthonormalisierung entsteht w
k
als Linearkom-
bination von v
1
, . . . , v
k
. Die Transformationsmatrix ist also eine obere Dreiecksmatrix.
Denition 6.29. Eine symmetrische, reelle Matrix G heit positiv-denit (Bezeichnung: G > 0),
wenn die zugehorige Bilinearform (x, y) x
t
Gy positiv-denit ist.
Satz 6.30. F ur eine symmetrische, reelle Matrix G sind aquivalent:
(i) G ist positiv-denit
(ii) Es existiert eine invertierbare obere Dreiecksmatrix T mit G = T
t
T
(iii) Es existiert eine invertierbare Matrix T mit G = T
t
T
Beweis.
(i) = (ii): Betrachte (1
n
, ) mit (x, y) = x
t
Gy. Ist T die Transformationsmatrix von der
Standardbasis des 1
n
zu einer Orthonormalbasis bez uglich , so gilt:
(T
1
)
t
GT
1
= E, also T
t
T = G
Konstruieren wir die Orthonormalbasis mit Gram-Schmidt, so ist T eine invertierbare obere
Dreiecksmatrix.
(ii) = (iii): trivial.
(iii) = (i): Sei G = T
t
T. Dann gilt f ur x 1
n
0:
(x, x) = x
t
Gx = x
t
T
t
Tx = Tx, Tx
Std
> 0
Also ist G positiv-denit.
Denition 6.31. Es sei A (a
ij
)
i=1,...,n, j=1,...,n
eine n n-Matrix. F ur k = 1, . . . , n sei A
k
die
k k-Matrix A
k
= (a
ij
)
i=1,...,k, j=1,...,k
. det(A
k
) heit der k-te Hauptminor von A.
Satz 6.32. (Hauptminorkriterium) G ist genau dann positiv-denit, wenn die k-ten Hauptminoren
f ur alle k = 1, . . . , n samtlich groer 0 sind.
86 KAPITEL 6. BILINEARFORMEN
Beweis. Sei G > 0 = G = T
t
T f ur ein T GL
n
(1).
= det(G) = det(T
t
) det(T) = det(T)
2
> 0
Die Einschrankung von auf 1
k
= Lin(e
1
, . . . , e
k
) wird durch G
t
dargestellt, also G
k
> 0 und daher
det(G
k
) > 0 f ur k = 1, . . . , n.
Sei umgekehrt k 1, . . . , n : G
k
> 0. Wir machen Gram-Schmidt-Orthonormalisierung ohne zu
wissen, dass die Bilinearform (x, y) = x
t
Gy positiv-denit ist. Lauft das Verfahren durch, erhalten wir
eine Orthonormalbasis und G ist positiv-denit. Wir starten mit der kanonischen Basis (e
1
, . . . , e
n
).
Hinreichend f ur das Durchlaufen: F ur jedes k gilt f ur den Vektor
w
t
k
= e
k

k1

i=1
(e
k
, w
i
)w
i
dass (w
t
k
, w
t
k
) > 0. Das sieht man so:
[1
k wird bez uglich der Basis (e
1
, . . . , e
k
) durch G
k
dargestellt.
Es ist (w
1
, . . . , w
k1
, w
t
k
) eine Orthogonalbasis von (1
k
,
[1
k). Die Fundamentalmatrix hat die Form
A = diag(1, . . . , 1, (w
t
k
, w
t
k
)), hat also die Determinante (w
t
k
, w
t
k
). Andererseits gilt A = T
t
G
k
T f ur
ein T GL
n
(1), also (w
t
k
, w
t
k
) = det(A) = det(T)
2
det(G
k
) > 0.
Wie ndet man zu G > 0 ein T mit G = T
t
T?

Aquivalent: Finde eine Orthonormalbasis des 1
n
bez uglich der Bilinearform (x, y) = x
t
Gy. (Gram-Schmidt an Matrizen)
1. Setze
a =
1

g
11
und D
1
= diag(a, 1, . . . , 1). Bilde D
1
GD
1
.
2. Bilde
S
1
=
_
_
_
_
_
_
_
1 a
2
a
3
a
n
1 0
1
.
.
.
0 1
_
_
_
_
_
_
_
so dass S
t
1
D
1
GD
1
S
1
die Blockform
_
1 0
0 B
_
bekommt. Ist D
1
GD
1
= (c
ij
), setze a
i
= c
1i
= c
i1
und gehe dann mit B weiter. Dann gilt T
1
= D
1
S
1
D
2
S
2
D
n
S
n
und die Spalten von T
sind eine Orthonormalbasis. Am besten berechnet man T = S
1
n
D
1
n
S
1
1
D
1
1
, weil man die
Inversen der D
i
s und S
i
s einfacher sieht. Es ist
diag(a
1
, . . . , a
n
)
1
= diag(a
1
1
, . . . , a
1
n
) und
_
_
_
_
_
1 a
2
a
n
1
.
.
.
1
_
_
_
_
_
1
=
_
_
_
_
_
1 a
2
a
n
1
.
.
.
1
_
_
_
_
_
6.5 Orthogonale Matrizen
Koordinatenwechsel von einer Orthonormalbasis zu anderen.
Denition 6.33. A M
n,n
(1) heit orthogonal , wenn A
t
A = E.
Lemma 6.34.
(i) orthogonale Matrizen sind invertierbar und A
1
= A
t
(ii) A orthogonal = [A[ = 1
(iii) A orthogonal = AA
t
= E
6.6. HAUPTACHSENTRANSFORMATION 87
Beweis. trivial.
Satz 6.35. A ist genau dann orthogonal, wenn die assoziierte lineare Abbildung
A : (1
n
, ,
Std
) (1
n
, ,
Std
)
eine Isometrie ist.
Beweis. Sei x, y 1
n
. Es gilt Ax, Ay = x
t
A
t
Ay, also ist A genau dann eine Isometrie, wenn die
durch A
t
A gegebene Bilinearform das Standardskalarprodukt ist, also wenn A
t
A = E.
Denition 6.36. (Orthogonale Gruppe vom Rang n) Die Menge der orthogonalen n n-Matrizen
wird mit O(n) bezeichnet. Gruppeneigenschaften:
E O(n)
A, B O(n) = (AB)
t
(AB) = B
t
A
t
AB = E
A O(n) = A
t
A = E = AA
t
= E = A
1
= A
t
O(n)
O(n) GL
n
(1) ist Untergruppe.
Denition 6.37. SO(n) = ker(det : O(n) 1) heit Spezielle Orthogonale Gruppe.
Bemerkung. F ur A O(n) gilt A SO(n) A erhalt die Orientierung des 1
n
.
Korollar 6.38. Orthogonale Matrizen induzieren abstands- und winkeltreue Abbildungen 1
n
1
n
.
Beweis. Aus 6.35 zusammen mit der Denition des Winkels wie in Kapitel 0, d.h.
(x, y) = cos
1
(x, y|x|
1
|y|
1
) [0, ]
Satz 6.39. Sei : 1
n
1
n
eine (nicht notwendig lineare) Abbildung. Ist abstandstreu (d.h.
x, y : |(x) (y)| = |x y|), so existieren A O(n), b 1
n
mit (x) = Ax +b f ur alle x 1
n
.
Beweis. . . .
1
6.6 Hauptachsentransformation
Sei (V, ) ein euklidischer Vektorraum, f End(V ).
Denition/Lemma 6.40. Es existiert genau ein f

End(V ) mit v, w V : (v, f(w)) =


(f

(v), w). Sie heit Adjungierte zu f. f heit selbstadjungiert, wenn f = f

. Wird f bez uglich einer


Orthonormalbasis (v
1
, . . . , v
n
) durch die Matrix G dargestellt, so wird f

bez uglich dieser Basis durch


G
t
dargestellt. f ist selbstadjungiert G ist symmetrisch.
1
Prof. Schmidt:

Den Beweis muss ich hier leider weglassen -

Ooooh... - Alle Studenten sind enttauscht.


88 KAPITEL 6. BILINEARFORMEN
Beweis.
Existenz: Sei (v
1
, . . . , v
n
) eine Orthonormalbasis und G die Darstellungsmatrix von f. Sei f

der
durch G
t
dargestellte Endomorphismus. Dann gilt f ur v =
1
v
1
+. . .+
n
v
n
, w =
1
v
1
+. . .+
n
v
n
:
(v, f(w)) = (
1
, . . . ,
n
)G
_
_
_

1
.
.
.

n
_
_
_
= (
1
, . . . ,
n
)G
t
_
_
_

1
.
.
.

n
_
_
_
= (w, f

(v)) = (f

(v), w)
Eindeutigkeit: Sind g
1
, g
2
End(V ) mit der Eigenschaft wie oben f ur f

formuliert, so gilt:
(g
1
(v) g
2
(v), g
1
(v) g
2
(v)) = (g
1
(v), g
1
(v) g
2
(v)) (g
2
(v), g
1
(v) g
2
(v))
= (v, f(g
1
(v) g
2
(v))) (v, f(g
1
(v) g
2
(v)))
= 0
also v : g
1
(v) = g
2
(v).
Lemma 6.41. Sei (V, ) ein euklidischer Vektorraum und f End(V ) selbstadjungiert. Dann ist
die Form

t
: V V 1,
t
(x, y) = (f(x), y)
eine symmetrische Bilinearform. Umgekehrt entsteht jede symmetrische Bilinearform
t
: V V 1
in der oben beschriebenen Weise aus einem selbst adjungierten Endomorphismus f : V V . Bez uglich
einer (jeder) Orthonormalbasis von V ist die Darstellungsmatrix von f gleich der Fundamentalmatrix
von
t
.
Beweis. f ist selbstadjungiert =
t
(x, y) = (f(x), y) = (x, f(y)) = (f(y), x) =
t
(y, x)
Sei umgekehrt eine symmetrische Bilinearform
t
: V V 1 gegeben. Dann ist f ur ein festes
x V

x
: y
t
(x, y)
ein Element von V

. Sei : V V

der zu assoziierte Isomorphismus, also (x)(y) = (x, y). Dann


existiert ein eindeutig bestimmter f(x) V mit (f(x)) =
x
, d.h. x V :
t
(x, y) = (f(x), y).
Wir erhalten die Abbildung f : V V mit x, y V :
t
(x, y) = (f(x), y).
Linearitat: Es gilt y V :
(f(ax
1
+bx
2
) af(x
1
) bf(x
2
))(y) = (f(ax
1
+bx
2
) af(x
1
) bf(x
2
), y)
= (f(ax
1
+bx
2
), y) a(f(x
1
), y) b(f(x
2
), y)
=
t
(ax
1
+bx
2
, y) a
t
(x
1
, y) b
t
(x
2
, y)
= 0
Da ein Isomorphismus ist, folgt die Behauptung.
Selbstadjunktion:
x, y V : (f(x), y) =
t
(x, y) =
t
(y, x) = (f(y), x) = (x, f(y))
Ist G die Darstellungsmatrix von f bez uglich einer Orthonormalbasis (f ur ) (v
1
, . . . , v
n
), so gilt f ur
w =
1
v
1
+. . . +
n
v
n
, w
t
=
t
1
v
1
+. . . +
t
n
v
n
:

t
(w, w
t
) = (f(w), w
t
) = (
1
, . . . ,
n
)G
t
_
_
_

t
1
.
.
.

t
n
_
_
_
= G
t
ist die Fundamentalmatrix von
t
. Schlielich gilt G = G
t
, da f selbstadjungiert ist.
6.6. HAUPTACHSENTRANSFORMATION 89
Theorem 6.42. (Spektralsatz f ur selbstadjungierte Operatoren) Sei (V, ) ein euklidischer Vektor-
raum und f End(V ) selbstadjungiert. Dann existiert eine Orthonormalbasis von V aus Eigenvekto-
ren von f.
Lemma 6.43. f ist selbstadjungiert
f
zerfallt uber 1 in Linearfaktoren.
Beweis. Sei o.B.d.A. V = 1
n
und = ,
Std
. Dann wird f : 1
n
1
n
durch eine symmetrische
Matrix A M
n,n
(1) gegeben. Betrachte die durch A gegebene C-lineare Abbildung A : C
n
C
n
, z
Az. Diese hat das gleiche charakteristische Polynom
A
.

Uber C zerfallt
A
in Linearfaktoren.

A
(t) = (t
1
) (t
n
),
i
C
Sei eines der
i
. Zu zeigen: 1. F ur ein z C
n
0 gilt:
z
t
z =
n

i=1
z
i
z
i
=
n

i=1
[z
i
[
2
ist reell und echt positiv
Ist nun z C
n
0 ein Eigenvektor von , so gilt:
z
t
z = (z)
t
z = (Az)
t
z = z
t
A
t
z = z
t
Az
= z
t
Az = z
t
(Az) = z
t
(z) = z
t
z
Da z
t
z ,= 0 folgt = , also 1.
Lemma 6.44. Sei f selbstadjungiert und U V ein Untervektorraum mit f(U) U. Dann gilt
f(U

) U

.
Beweis. Sei v U

. Dann gilt u U : u, f(v) = f(u), v = 0, also f(v) U

.
Beweis zu 6.42. Per Induktion nach n = dimV . F ur n = 1 trivial. Sei n = dimV 2 und
die Aussage f ur alle kleineren n bewiesen. Sei 1 ein Eigenwert von f (6.43) und v
1
,= 0 ein
Eigenvektor, also f(v
1
) = v
1
. Ersetzt man v
1
durch
v
1
|v
1
|
, bekommt man |v
1
| = 1. Sei U = 1v
1
.
Dann gilt f(U) U und f(U

) U

(6.44). Nun gilt V = U



U

und dimU

= n 1. Ist
(v
2
, . . . , v
n
) eine Orthonormalbasis von U

aus Eigenvektoren f ur f
[U
, so ist (v
1
, . . . , v
n
) die gesuchte
Orthonormalbasis.
Korollar 6.45. Sei (V, ) ein euklidischer Vektorraum und
t
: V V 1 eine symmetrische
Bilinearform, dann existiert eine Orthonormalbasis f ur , die Orthogonalbasis f ur
t
ist.
Beweis. Sei f : V V der nach 6.41 eindeutig bestimmter, selbstadjungierter Endomorphismus mit

t
(x, y) = (f(x), y). Sei (v
1
, . . . , v
n
) eine Orthonormalbasis aus Eigenvektoren von f. Gilt f(v
i
) = v
i
,
so folgt:

t
(v
i
, v
j
) = (f(v
i
), v
j
) = (
i
v
i
, v
j
) =
i
(v
i
, v
j
) =
i

ij

Satz 6.46. (Hauptachsentransformation) Ist G eine symmetrische, reelle n n-Matrix, so existiert


ein T SO(n), so dass TGT
1
eine Diagonalmatrix ist.
Beweis. Betrachte (1
n
, ,
Std
). G deniert einen selbstadjungierten Endomorphismus f : 1
n
1
n
.
Ist (v
1
, . . . , v
n
) eine Orthogonalbasis des 1
n
aus Eigenvektoren von f wie in 6.42 und T die Transfor-
mationsmatrix von (e
1
, . . . , e
n
) nach (v
1
, . . . , v
n
), so gilt T O(n). Ersetzt man ggf. v
1
durch v
1
, gilt
sogar T SO(n). Bez uglich (v
1
, . . . , v
n
) hat f Diagonalgestalt, d.h. TGT
1
ist Diagonalmatrix.
90 KAPITEL 6. BILINEARFORMEN
Korollar 6.47. (Simultane Diagonalisierung) Seien P, G M
n,n
(1) symmetrisch und P positiv-
denit. Dann existiert ein T GL
n
(1), so dass T
t
PT = E und T
t
GT eine Diagonalmatrix ist.
Beweis. G deniert eine symmetrische Bilinearform auf dem euklidischen Vektorraum (1
n
, (x, y) =
x
t
Py). Korollar 6.45 liefert das Gew unschte.
6.7 Volumenform
Sei (V, ) ein euklidischer Vektorraum.
Satz 6.48. Sei (V, ) ein orientierter euklidischer Vektorraum und (v
1
, . . . , v
n
) eine orientierte Or-
thonormalbasis von V . Dann existiert genau eine Volumenform auf V mit (v
1
, . . . , v
n
) = 1. Ist
(w
1
, . . . , w
n
) eine beliebige Basis von V und G = ((w
i
, w
j
)) die Fundamentalmatrix, so gilt:
g := det(G) 0 (w
1
, . . . , w
n
) =
_

g, wenn (w
1
, . . . , w
n
) orientiert ist

g, wenn (w
1
, . . . , w
n
) nicht orientiert ist
Bemerkung. g heit Gramsche Determinante.
Beweis. Wegen dim
1
Alt
n
(V ) = 1, kann es hochstens nur eine solche Form geben. Sei : (1
n
, ,
Std
)
(V, ) die Isometrie die durch (e
i
) = v
i
gegeben ist.
Existenz von : Setze (w
1
, . . . , w
n
) = det(
1
(w
1
), . . . ,
1
(w
n
)). Dann gilt (v
1
, . . . , v
n
) =
det(E) = 1. F ur eine beliebige Basis (w
1
, . . . , w
n
) von V sei B die Matrix mit Spalten
1
(w
1
), . . . ,
1
(w
n
).
F ur die Fundamentalmatrix bez uglich (w
1
, . . . , w
n
) gilt:
G
ij
= (w
i
, w
j
) =
1
(w
i
),
1
(w
j
) =
1
(w
i
)
t

1
(w
j
) = (B
t
B)
ij
Also gilt G = B
t
B, also g = det(G) = det(B)
2
> 0. Auerdem gilt
(w
1
, . . . , w
n
) = det(B) det(B) =
_
> 0, wenn (w
1
, . . . , w
n
) orientiert ist
< 0, wenn (w
1
, . . . , w
n
) nicht orientiert ist
2

2
LA1 Stats: 15 Wochen, 29 Dateien, 94 Seiten, 209 denierte Begrie, 3428 Zeilen L
A
T
E
XQuellcode
Index

Aquivalenzklasse, 13
Abbildung, 14
abelsch, siehe kommutativ
Abstand, 5
Adjungierte, 87
Adjunkte, 65
aner Teilraum, 56
algebraische Vielfachheit, 76
alternierend, 62
alternierende Gruppe, 69
antisymmetrisch, 80, 81
ausgeartet, 80
Auswertungsabbildung, 31
Automorphismus, 26
Basis, 35
Basiserganzung, 38, 56
Basiswechselsatz, 49
bijektiv, 15
Bild, 15
Cayley-Hamilton, 72, 74
Charakteristik, 21
charakteristisches Polynom, 71
Darstellungsmatrix, 47
Determinante, 9, 63, 66, 70
Diagonalgestalt, 74
Diagonalisierbarkeit, 74
Dimension, 39
direkte Summe, 31
disjunkte Vereinigung, 12
Dreiecksungleichung, 6, 84
Dualraum, 31
duale Abbildung, 31
duale Basis, 43, 55
Durchschnitt, 12
Eigenraum, 73
Eigenvektor, 73
Eigenwert, 73
Einheitengruppe, 20
endlich erzeugt, 36
endliches System, 35
Endomorphismus, 26
Epimorphismus, 22, 30
Erzeugendensystem, 35
Euklidischer Algorithmus, 60
euklidischer Raum, 83
Faktorgruppe, 24
Faktorraum, siehe Faktorvektorraum
Faktorvektorraum, 32
Fundamentalmatrix, 79
Gau-Elimination, 54
geometrische Vielfachheit, 76
groter gemeinsamer Teiler, 61
Grad, 59
Gram-Schmidt-Orthonormalisierung, 84
Gramsche Determinante, 90
Grassmann-Identitat, 7
Gruppe, 17
Untergruppe, 23
Hauptachsentransformation, 89
Hauptminor, 85
Hauptminorkriterium, 85
Homogenitat, 56, 62
Homomorphiesatz f ur lineare Abbildungen, 33
Homomorphismus, 22, 30, 82
Indexmenge, 12
injektiv, 15
Inverse
inverse Matrix, 54
irreduzibel, 61
Isometrie, 83
Isomorphismus, 22, 30
Jacobi-Identitat, 7
Korper, 20
Unterkorper, 25
kanonische Projektion, 15
kartesisches Produkt, 12
Kern, 23
kommutativ, 17, 19
kommutatives Diagramm, 47
Komplement, 12, 41, 56, 84
91
92 INDEX
Komposition, 16
Koordinatenmatrix, siehe Darstellungsmatrix
Kosinussatz, 7
Kreuzprodukt, 3
Kronecker-Symbol, 43
Leibniz-Formel, 70
Leitkoezient, 59
linear unabhangiges System, 35
lineare

Aquivalenz, 53
lineare H ulle, 35
lineares Gleichungssystem, 56
Linearform, 31
Linearkombination, 35
Matrix, 45
Matrixprodukt, 45
maximales System, 37
Menge, 11
leere Menge, 11
Teilmenge, 11
minimales System, 37
Modul, 29
Monomorphismus, 22, 30
Multilinearform, 62
negativ-denit, 83
negativsemidenit, 83
Norm, 4, 83
normiert, 59
Nullring, 20
Nullstelle, 60
Orientierung, 67
kanonische Orientierung, 67
orientierte Basis, 67
orientierungserhaltend, 67
Orthogonalbasis, 81
orthogonale direkte Summe, 82
Orthogonale Gruppe, 87
orthogonales Komplement, 84
Orthogonalitat, 5
orthogonale Matrix, 86
Orthogonalprojektion, 5, 84
Orthonormalbasis, 83
Permutationsmatrix, 70
Polynom, 59
positiv-denit, 83, 85
positivsemidenit, 83
Potenzmenge, 11
Produktmenge, siehe kartesisches Produkt
quadratischer Raum, 81
Rang, 43, 49
Rangsatz, 44
rationale Funktion, 70
reduzibel, 61
Relation, 12

Aquivalenzrelation, 13
Restklasse, 14
Ring, 19
Unterring, 25
Satz des Pythagoras, 5, 84
Scherungsinvarianz, 62
Schwarzsche Ungleichung, 5, 84
selbstadjungiert, 87
Signum, 68
Simultane Diagonalisierung, 90
skalare Multiplikation, 3
Skalarprodukt, 3
Spaltenrang, siehe Rang
Spatprodukt, 9
Spektralsatz, 89
Spezielle Lineare Gruppe, 66
Spezielle Orthogonale Gruppe, 87
Spur, 71
strenge Zeilenstufenform, siehe Zeilenstufenform
surjektiv, 15
Sylverstersches Tragheitssatz, 83
symmetrisch, 80, 81
symmetrische Gruppe, 17
Teilbarkeit, 60
Transformationsmatrix, 48
transponierte Matrix, 50
Transposition, 67
Trigonalisierbarkeit, 75
Umkehrabbildung, 15
Unbestimmte, siehe Variable
unendliche Familie, 33
unitar, 19, 22
Urbildmenge, 15
Variable, 59
Vektoraddition, 3
Vektorprodukt, siehe Kreuzprodukt
Vektorraum, 29
Untervektorraum, 30
Vereinigung, 12, 37
Verkn upfung, 16
Volumenform, 63
Winkel, 6
Wurzel, siehe Nullstelle
Zeilenrang, siehe Rang
Zeilenstufenform, 54
Zeilenumformungen, 53