Sie sind auf Seite 1von 127

Vorlesungsmitschrift

Lineare Algebra I+II


Prof. Franke

Wintersemester 1995/1996
Sommersemester 1996
Inhaltsverzeichnis
1 Naive Mengenlehre 1
1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Vektorraume u ber einem Korper 6
2.1 Gruppen und Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Unterobjekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Erzeugendensysteme, lineare Unabhangigkeit und Basen . . . . . . . . . . . . . . 13
2.5 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3 Matrizen 26
3.1 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Das Eliminationsverfahren von Gau . . . . . . . . . . . . . . . . . . . . . . . . . 33
4 Determinanten und multilineare Algebra 39
4.1 Einige Fakten uber Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Charakteristik eines Korpers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3 Schiefsymmetrische n-Linearformen . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.4 Der Determinantenbegri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.5 Determinanten von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.6 Orientierungen von reellen Vektorraumen . . . . . . . . . . . . . . . . . . . . . . 58
4.7 Symmetrische n-Linearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 Quadratische, hermitesche und symplektische Formen 62
5.1 Quadratische und symmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . 62
5.2 Nicht ausgeartete Bilinearformen. Der Rang. . . . . . . . . . . . . . . . . . . . . 66
5.3 Klassi kation der quadratischen Formen . . . . . . . . . . . . . . . . . . . . . . . 68
5.4 Quadratische Formen auf reellen Vektorraumen . . . . . . . . . . . . . . . . . . . 70
5.5 Die Gramsche Determinante, die Gruppen O( ) und SO( ) . . . . . . . . . . . . 73
5.6 Euklidische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.6.1 Das Vektorprodukt auf einem dreidimensionalen orientierten Euklidischen
Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.7 Hermitesche Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.8 Symplektische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6 Eigenwerttheorie 91
6.1 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines end-
lichdimensionalen Hilbertraums . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines Eu-
klidischen Vektorraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.4 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7 Ane Raume und Faktorraume 118
7.1 Ane Raume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
7.2 Der Faktorraum V=W nach einem Unterraum . . . . . . . . . . . . . . . . . . . . 121
8 Tensorprodukte 123

I
1 Naive Mengenlehre
1.1 Mengen
Eine Menge M ist eine Zusammenfassung von Objekten (die Elemente von M) unseres Denkens
zu einem neuen Objekt. Beispiel: M = f0; 5; 163g, N = f130; 0g, L = f3; 10; f4; 5gg. Man kann
auch eine Serie von Elementen weglassen und durch drei Punkte andeuten, wenn das Gesetz der
Serie klar ist.
Beispiel: IN = f0; 1; 2; 3; :: :g die Menge der naturlichen Zahlen
Z = f0; 1; 1; 2; 2; 3; :: :g die Menge der ganzen Zahlen
M = f0; 1; 2; : : :; 1000g
Wenn P eine in der mathematischen Sprache ausdruckbare Eigenschaft ist, so kann man (mei-
stens) die Menge aller Objekte x bilden, die diese Eigenschaft haben. Beispiel: M = fx j x hat
die Eigenschaft P g. Ein Objekt x gehort genau dann zu dieser Menge, wenn es die Eigenschaft
P hat.
Wenn x ein Element der Menge M ist, so schreiben wir x 2 M. Wir sagen auch: x gehort
zu M. Andernfalls schreiben wir x 62 M. Beispiel: M = fx j x ist eine gerade naturliche
Zahlg = f0; 2; 4; : : :g x 2 M genau dann wenn x eine gerade naturliche Zahl ist. N = fx j x ist
eine Primzahlg = f2; 3; 5; 7; 9; : ::g R = fx j x ist eine Menge und x 62 xg. Wenn R existieren
wurde, gabe es einen logischen Widerspruch. Fur alle x gilt: x 2 R genau dann, wenn x 62 x.
Setze x = R, R 2 R genau dann, wenn R 62 R (Russelsche Antinomie).
Die leere Menge ; = fg. Fur alle x gilt: x 62 ;. Generell gilt fur zwei Mengen M und N: M = N
genau dann, wenn fur alle x die Eigenschaften x 2 M und x 2 N aquivalent sind.
De nition 1:
1. Eine Menge N ist genau dann Teilmenge einer Menge M, wenn fur alle x 2 N gilt:
x 2 M. Wenn das der Fall ist, so schreiben wir N  M oder M  N und nennen M
auch Obermenge von N.
2. N ist eine echte Teilmenge von M, wenn N  M und N 6= M gilt. Wenn dies der
Fall ist, so schreiben wir N  M oder M  N. Es mu also N  M gelten, und es
gibt ein x 2 M fur das gilt x 62 N.

Fakt 1:
1. Fur alle Mengen M gilt: ;  M,M  M
2. Fur keine Menge M gilt: M  M
3. Aus A  B und B  C folgt A  C.
4. Unter der Voraussetzung von (3) gilt auch: Aus A  B und B  C folgt A  C. Aus
A  B und B  C folgt A  C.
5. Aus M  N und N  M folgt M = N.
Beweis:
3. Sei A  B und B  C, aus x 2 A folgt x 2 B, daraus folgt x 2 C. Also gilt A  C.

1
4. Fall 1: Sei A  B und B  C. Dann gibt es ein x 2 B mit x 62 A. Es gilt wegen B  C
auch x 2 C. Also ist A 6= C. Wegen A  C gilt A  C.
Fall 2: Sei A  B und B  C. Dann gibt es ein x 2 C und x 62 B. Wegen A  B folgt
x 62 A. Also ist A 6= C und wegen A  C gilt A  C.
5. Aus den Voraussetzungen ergeben sich folgende Implikationen: Aus x 2 M folgt x 2 N
und aus x 2 N folgt x 2 M. Also ist x 2 M zu x 2 N aquivalent. Folglich enthalten M
und N dieselben Elemente, und es gilt: M = N. 2
De nition 2: Seien M,N Mengen.
1. Der Durchschnitt M \ N von M und N ist die Menge
M \ N = fx j x 2 M ^ x 2 N g
2. Die Vereinigung M [ N von M und N ist die Menge
M [ N = fx j x 2 M _ x 2 N g
3. Die Di erenz M n N (auch M N) von M und N ist die Menge
M n N = fx j x 2 M ^ x 62 N g

Fakt 2:
1. M \ N  M  M [ N
M \N N  M [N
2. M \ N = N \ M; M [ N = N [ M
(L \ M) \ N = L \ (M \ N); (L [ M) [ N = L [ (M [ N) Aber es gilt im Allgemeinen:
M n N 6= N n M.
3. (M n N)  M
4. (M [ N) \ L = (M \ L) [ (N \ L)
(M \ N) [ L = (M [ L) \ (N [ L)
5. (M n N) \ L = (M \ L) n N = (M \ L) n (N \ L)
6. (M n A) [ (M n B) = M n (A \ B)
(M n A) \ (M n B) = M n (A [ B)
7. (M n N) \ N = ;
8. Es gilt, da M n N = ; genau dann, wenn M  N.
9. Es gilt, da M [ N = ; genau dann, wenn M = ; ^ N = ;.
Beweis:
4. ")": Sei x 2 (M [ N) \ L. Dann ist x 2 L und x 2 M [ N. Dann lassen sich die Falle
x 2 L ^ x 2 M und x 2 L ^ x 2 N unterscheiden. Es folgt x 2 L \ M bzw. x 2 L \ N. Also
gilt in beiden Fallen x 2 (M \ L) [ (N \ L). Ferner gilt (M [ N) \ L  (M \ L) [ (N \ L).
"(": Sei x 2 (M \ L) [ (N \ L). Es lassen sich die Falle x 2 M ^ x 2 L und x 2 N ^ x 2 L
unterscheiden. In beiden Fallen gilt x 2 M [ N ^ x 2 L, damit folgt x 2 (M [ N) \ L. Ferner
gilt (M \ L) [ (N \ L)  (M [ N) \ L. Nach Fakt 1 folgt (M [ N) \ L = (M \ L) [ (N \ L).
2

2
De nition 3: Zwei Mengen M und N sind disjunkt, falls M \ N = ;. Es existiert kein
gemeinsames Element.

De nition 4: Ein geordnetes Paar (a; b) ist die geordnete Aufzahlung der beiden Ob-
jekte a und b. Das Mengenprodukt M  N ist als
M  N = f(m; n) j m 2 M; n 2 N g
de niert.
Beispiel: Sei IR die Menge aller reeller Zahlen, IR  IR = f(a; b) j a; b 2 IRg. Die geordneten
Paare (a; b) mit a; b 2 IR lassen sich mit Punkten in der Ebene identi zieren. Also kann IR  IR
mit der Menge der Punkte der euklidischen Ebene identi ziert werden. Wenn I = [0; 1] = ft 2
IR j 0  t  1g  IR, dann ist I  I ein Quadrat.
Fakt 3:
1. Es gilt meistens, da M  N = 6 N  M.
2. Es gilt (a; b) = (c; d) genau dann, wenn a = c und b = d.
3. Aus M~  M und N~  N folgt M~  N~  M  N
4. Es gilt
(A \ B)  C = (A  C) \ (B  C)
(A [ B)  C = (A  C) [ (B  C)
(A n B)  C = (A  C) n (B  C)
5. M  ; = ;
Beweis der ersten Gleichung von (4): Sei x 2 (A \ B)  C und x = ( ; ) mit 2 A \ B und
2 C. Daraus folgt x 2 (A  C) \ (B  C). 2
De nition 5: Ein n-Tupel ist eine geordnete Aufzahlung (x1; : : :; xn). Sei
X1  : : :  Xn = f(x1; : : :; xn) j xi 2 Xi fur 1  i  ng:
Fur eine Menge X sei X n = X  : : :  X (n Faktoren).
Bemerkung: Fur n = 1 wollen wir (x) mit x identi zieren, also X 1 = X. 2-Tupel sind Paare,
3-Tupel sind Tripel.
1.2 Abbildungen
De nition 1: Eine Abbildung f von einer Menge M in eine Menge N ist eine Zuordnung,
welche jedem Element m 2 M ein Element n 2 N zuordnet. Schreibweise: f : M ! N;
M f! N, wenn f eine Abbildung von M nach N ist. Sei N M die Menge aller Abbildungen
von M nach N.
Beispiel:
3
1. Sei X eine Menge, durch IdX (x) = x fur x 2 X ist eine Abbildung X Id!X X de niert, die
identische Abbildung.
2. Seien X; Y Mengen und y0 2 Y . Durch f(x) = y0 fur alle x 2 X ist eine Abbildung
f : X ! Y de niert. Eine solche Abbildung nennt man konstant.
3. Abbildungen von IR in IR (oder allgemeiner Abbildungen von IRn in IR) nennt man auch
Funktionen. Beispiel: f(x) = x2 ; f(x) = 2x; f(x) = 1+xx2 etc. Ein anderes Beispiel ist die
Funktion
 
f(x) = 10 xx 2irrational
Q  IR oder f(x) = sin x x rational :
ex x irrational
Ein Beispiel fur eine Funktion in zwei Variablen ist die Addition:
+ : IR2 ! IR
(x; y) 7! x + y
4. Seien M und N Mengen, durch
pr1 : M  N ! M
pr1 (m; n) := pr1 ((m; n)) 7! m m 2 M; n 2 N
sind Abbildungen von M  N nach M bzw. N de niert, die Projektion auf den ersten bzw.
zweiten Faktor. Fur M = N = IR wird ein Punkt in der Ebene durch pr1 bzw. pr2 auf
seine x bzw. y-Koordinate abgebildet.
5. Sei M eine Menge, dann enthalt M ; stets genau ein Element, die leere Abbildung. Dagegen
ist fur M 6= ; die Menge ;M leer. Fur M = ; besteht ;; aus genau einem Element, namlich
Id; .
6. Seien A; B endliche Mengen mit a; b Elementen. Dann enthalt die Produktmenge A  B
genau a  b Elemente, und die Menge aller Abbildungen B A enthalt ba Elemente.
7. Fur N~  N gilt: N~ M  N M . Wenn M~  M, f : M ! N, so ist f jM~ : M~ ! N durch
f jM~ (m) = f(m) fur m 2 M~ de niert, die Einschrankung von f auf M. ~
De nition 2: Sei f : M ! N. Fur Untermengen X  M und Y  N sei
f(X) := ff(x) j x 2 X g  N
das Bild von X unter f und
f 1 (Y ) := fm 2 M j f(m) 2 Y g
nennt man das Urbild oder inverse Bild von Y bezuglich f.
Fakt 1: Mit den Bezeichnungen und unter den Voraussetzungen von De nition 2 gilt: f 1 (N) =
M; f(;) = ;; f 1 (;) = ; ; f(X)  Y , X  f 1 (Y ); X  f 1 (f(X)), f(f 1 (Y ))  Y .Im
Allgemeinen gilt nicht: f(M) = N. 2
Beispiel: Seinen A; B Mengen und X  A. Dann gilt pr1 (X) = X  B, wobei pr1 : A  B ! A
1
die Projektion auf den ersten Faktor ist.

4
De nition 3: Eine Abbildung M f! N ist
1. injektiv, wenn fur jedes n 2 N f 1 (fng) hochstens ein Element enthalt.
2. surjektiv, wenn fur jedes n 2 N f 1 (fng) mindestens ein Element enthalt.
3. bijektiv, wenn f sowohl injektiv als auch surjektiv ist.

De nition 4: Seien A f! B ! g
C Abbildungen. Die Hintereinanderausfuhrung
g  f : A ! C ist durch (g  f)(a) := g(f(a)) de niert. Eine Abbildung B g! A ist ein
Linksinverses zu f, wenn g  f = IdA , ein Rechtsinverses zu f, wenn f  g = IdB . Ein
Inverses zu f ist eine Abbildung g : B ! A, welche sowohl linksinvers als auch rechtsinvers
zu f ist.
Lemma: Sei f : A ! B eine Abbildung.
1. f ist genau dann bijektiv, wenn es ein Inverses zu f gibt. In diesem Fall ist die zu f inverse
Abbildung eindeutig bestimmt, sie wird mit f 1 bezeichnet.
2. Sei A 6= ;. Dann ist f genau dann injektiv, wenn ein Linksinverses zu f existiert.
3. f ist genau dann surjektiv, wenn ein Rechtsinverses zu f existiert.
Das Auswahlaxiom: Seien M und N Mengen. Sei 2M die Menge aller Untermengen von
M. Sei G : N ! 2M eine Abbildung, so da G(n) 6= ; fur alle n 2 N gilt. Dann gibt es eine
Funktion g : N ! M mit g(n) 2 G(n) fur alle n 2 N.
A quivalente Formulierung: Sei M =
6 ;. Dann gibt es eine Abbildung a : 2M n f;g ! M mit
der Eigenschaft: a(X) 2 X fur X  M, X = 6 ;.
Beweis des Lemmas:
1. Sei f bijektiv. Fur n 2 B sei f 1 (n) das einzige Element von f 1 (fng). Man pruft leicht,
da f 1 zu f invers ist und auch das einzige Inverse zu f ist.
Sei g Inverses zu f. Dann gilt g(n) 2 f 1 (fng). Umgekehrt folgt aus m 2 f 1 (fng)
m = g(f(m)) = g(n). Also gilt f 1 (fng) = fg(n)g, und die Bijektivitat von f ist gezeigt.
2. Sei g linksinvers zu f. Aus n 2 f 1 (fmg) folgt n = g(f(n)) (g ist linksinvers). Also gilt:
f 1 (fmg)  fg(m)g, damit ist f injektiv. Sei A 6= ;, a0 2 A. Wenn f injektiv ist, so ist
durch  einzige Element von f 1(fbg), falls f 1(fbg) 6= ;
g(b) = adas; falls f 1 (fbg) = ;
0
ein Linksinverses zu f de niert.
3. ")": Sei g ein Rechtsinverses zu f. Fur alle b 2 B gilt: b = f(g(b)) mit g(b) 2 f 1 (fbg),
also f 1 (fng) 6= ;. Also ist f surjektiv.
"(": Sei f : A ! B surjektiv. Sei G : B ! 2A gegeben durch durch G(b) = f 1 (fbg).
Wegen der Surjektivitat von f gilt: G(b) 6= ; fur alle b 2 B. Nach dem Auswahlaxiom gibt
es eine Abbildung g : B ! A mit g(b) 2 G(b) fur alle b 2 B. Also ist f(g(b)) = b. Damit
ist g ein Rechtsinverses zu f. 2

5
Bemerkung: Es gilt fur f : M ! N, X  M, Y  N:
1. Bild von X: f(X) = ff(m) j m 2 X g  N;
2. Urbild von Y : f 1 (Y ) = fm 2 M j f(m) 2 Y g  M;
3. Wenn f bijektiv ist, bezeichnet man f 1 auch als das Inverse zu f. In diesem Fall stimmen
das Urbild von Y unter f und das Bild von Y unter f 1 uberein:
f 1 (Y ) := fm 2 M j f(m) 2 Y g = ff 1 (n) j n 2 Y g =: f 1 (Y ):
Insbesondere gilt fur Y = fng: f 1 (fng) = ff 1 (n)g.
Beispiel: Sei 1  k  m, dann gibt es folgende Bijektion:
(M1  M2  : : :  Mk )  (Mk+1  : : :  Mm ) ! M1  : : :  Mm
((m1 ; : : :; mk ); (mk+1 ; : : :; mm )) 7! (m1 ; : : :; mm ) mit mi 2 Mi ; 1  i  m
Die inverse Abbildung dazu ist gegeben durch:
(m1 ; : : :; mm ) 7! ((m1 ; : : :; mk ); (mk+1; : : :; mm ))
Insbesondere gibt es Bijektionen

A  (B  C) !
~ A  B  C ~ (A  B)  C;
1 
auerdem gilt A  (B  C) !
~ (A  B)  C. Bis auf Bijektion ist  auch kommutativ:
AB
AB ! ~ B A
AB ((a; b)) = (b; a)
AB ist normalerweise nicht die Identitat, selbst wenn A = B.

2 Vektorraume uber einem Korper


2.1 Gruppen und Korper
De nition 1: Eine Gruppe ist ein Paar (G; ), wobei G eine Menge und  : G  G ! G eine
Abbildung mit (g; h) 7! (k  h) ist, wobei die folgenden Bedingungen erfullt sein mussen:
1. Assoziativgesetz: Fur a; b; c 2 G gilt: a  (b  c) = (a  b)  c;
2. Neutrales Element: Es gibt ein Element e 2 G (die Rechtseinheit, das rechtsneu-
trale Element, Einselement) von G mit der Eigenschaft: a  e = a fur alle a 2 G;
3. Inverses Element: Fur alle a 2 G gibt es ein b 2 G (das rechtsinverse Element) mit
a  b = e.

Beispiele:
1. Sei IR = IR f0g und sei  die ubliche Multiplikation reeller Zahlen. Dann ist (IR ; ) eine
Gruppe, ebenso (Q ; ).

6
2. Sei X eine Menge und sei S(X) die Menge aller bijektiven Abbildungen von X auf sich
selbst. Sei  gegeben durch die Hintereinanderausfuhrung (f  g)(x) = f(g(x)). Dann ist
(S(X); ) eine Gruppe.
Assoziativitat: ((f  g)  h)(x) = (f  g)  (h(x)) = f(g(h(x))) = f((g  h)(x)) = (f  (g  h))(x).
Neutrales Element ist e = Id X und ein inverses Element zu f ist durch f 1 gegeben.
3. Die Gruppe (S(f1; : : :; ng); ) wird auch Sn genannt, ihre Elemente sind die Permutatio-
nen der Zahlen 1 : : :n. Die Gruppen Sn nennt man deshalb auch Permutationsgruppen.
Satz 1: Sei G eine Gruppe mit dem rechtsneutralen Element e.
1. Ist b ein Rechtsinverses von a, so gilt auch b  a = e, also ist b auch Linksinverses.
2. e ist auch linksneutrales Element: e  a = e fur alle a 2 G.
3. Ein Inverses fur a 2 G ist eindeutig bestimmt. Wir bezeichnen es mit a 1 .
4. Seien a; f 2 G mit a  f = a. Dann folgt f = e, selbiges folgt auch aus f  a = a.
5. Fur x; y 2 G ist die Gleichung xz = y eindeutig nach z au osbar , namlich z = x 1 y,
ebenso ist z  x = y eindeutig nach z au osbar, namlich z = y  x 1.

Beweis:
1. Es gilt bab = be = b, also ist ba = bae = babc = bec = bc = e mit c = b 1.
2. Sei b ein Rechtsinverses zu a. Wegen (1) ist b auch linksinvers zu a. Es folgt: ea = aba =
ae = a.
3. Sei a 2 G und seinen b; ~b invers zu a. Es folgt: ~b = e~b = ba~b = be = b.
4. Sei af = a. Es folgt: f = ef = a 1 af = a 1a = e. Den anderen Teil zeigt man analog:
f = fe = faa 1 = aa 1 = e.
5. Zunachst wird der erste Teil bewiesen: Aus z = x 1 y folgt xz = xx 1y = ey = y. Damit ist
x 1 y eine Losung der betrachteten Gleichung. Aus xz = y folgt z = ez = x 1xz = x 1y.
Also ist x 1 y die einzige Losung der Gleichung. Der zweite Teil kann analog bewiesen
werden. 2
Bemerkung: Fur a 2 G und n 2 Z sei
8 aa:::a n > 0
>
< | {z }
n
a = 1n Faktoren n = 0
>
: (an) 1 n<0
Es gelten die Regeln (an)m = anm und anam = an+m fur n; m 2 Z. Der Beweis ist einfach, zum
Beispiel fur n > 0; m > 0 gilt
 : : :  a}) = |a  a {z: : :  a} = an+m :
anam = (a|  a {z: : :  a})(a|  a {z
n Faktoren m Faktoren n+m Faktoren
Fur viele Gruppen gilt nicht (ab)m = am bm , denn Kommutativitat kann nicht vorausgesetzt
werden.

7
De nition: Eine Gruppe (G; ) ist kommutativ oder abelsch, falls fur alle a; b 2 G gilt:
a  b = b  a.
Beispiele:
1. (Q ; ) und (IR ; ) sind kommutativ.
2. Wenn M wenigstens drei Elemente enthalt, so ist S(M) nicht kommutativ.
3. Die Gruppen der Bewegungen in der euklidischen Ebene bzw. im euklidischen Raum sind
nicht kommutativ.
Fur abelsche Gruppen gilt die Rechenregel an bn = (ab)n .
Bemerkung: Eine additiv geschriebene Gruppe ist im Allgemeinen kommutativ und wir de -
nieren: 8 a+ a+:::+ a n > 0
>
< | {z }
a  n = > 0n Summanden n = 0
: ( a)  ( n) n < 0
Es gilt dann n(mx) = (nm)x, nx + mx = (n + m)x, n(x + y) = nx + ny (G ist abelsch).
Beispiel: (Z; +), (IR; +), (Q; +) sind abelsche Gruppen.
De nition: Ein Korper ist ein Tripel (K; +; ) bestehend aus einer Menge K und zwei
Abbildungen
+ :K K ! K :KK ! K ;
(x; y) 7! x + y und (x; y) 7! x  y
so da die folgenden Axiome gelten:
1. (K; +) ist eine abelsche Gruppe mit dem neutralen Element 0, K  := K f0g.
2. (K  ; ) ist eine abelsche Gruppe mit dem neutralen Element 1.
3. Es gilt das Distributivgesetz: a  (b + c) = a  b + a  c.

Beispiele:
1. (IR; +; ) und (Q; +; ) sind Korper.
2. (Z; +; ) ist kein Korper (es gibt keine multiplikativ Inversen).
Fakt 1: Sei (K; +; ) ein Korper. Dann gilt:
1. 0 6= 1.
2. Fur alle x 2 K gilt 0  x = 0.
3. Fur alle x 2 K gilt 1  x = x.
Beweis:
1. Wegen 1 2 K f0g gilt 1 6= 0.
Nebenbemerkung: Wenn (G; ) eine Gruppe ist, dann folgt G 6= ;, da die Gruppenaxiome
die Existenz des neutralen Elements fordern.

8
2. Es gilt 0  x+0  x = (0+0)  x = 0  x = 0  x+0. Aus der Eindeutigkeit folgt die Behauptung.
3. (K  ; ) ist eine Gruppe mit neutralem Element 1.
2
Beispiel: Sei IF2 = f0; 1g mit folgenden Operationen:
+ 0 1  0 1
0 0 1 0 0 0
1 1 0 1 0 1
Diese Operationen entsprechen der logischen XOR bzw. AND-Operation, (IF2 ; XOR; AND) ist
ein Korper.
De nition 4: Sei n > 0 eine naturliche Zahl. Eine Restklasse modulo n ist eine Menge
M  Z mit folgenden Eigenschaften:
1. Aus a; b 2 M folgt n j a b (n teilt a b).
2. Aus a 2 M; b 2 Z und n j a b folgt, da auch b 2 M.
3. M = 6 ;
Die Elemente von M nennen wir auch die Vertreter der Restklasse.
Restklassen werden addiert und multipliziert, indem man ihre Vertreter addiert bzw. multipliziert
und die Restklasse bildet, die das Resultat enthalt; M + N = fa + b j a 2 M; b 2 N g, MN =
fab + kn j a 2 M; b 2 N; k 2 Zg.
Satz 2:
1. Jede ganze Zahl x ist in genau einer Restklasse modulo n enthalten, namlich in fx +
kn j k 2 Zg.
2. Es gibt genau n Restklassen modulo n.
3. Die oben beschriebenen Mengen M + N und MN sind Restklassen modulo n , falls
M und N Restklassen modulo n sind.
4. Sei Z=nZ (Z nach nZ) die Menge aller Restklassen modulo n. Dann ist (Z=nZ; +) eine
abelsche Gruppe.
5. Sei n eine Primzahl, dann ist (Z=nZ; +; ) ein Korper.

Beweis:
1. Sei M = fx + kn j k 2 Zg. M ist eine Restklasse. M 6= ;, denn x = x + 0n 2 M. Sei
a = x + kn und b 2 Z und n j a b. Sei  = an b 2 Z. Dann folgt b = a (a b) =
x + kn n = x + (k )  n 2 M. Ferner gilt: n j ((x + kn) (x + ln)) = (k l)n.
Sei N eine andere Restklasse, die x enthalt. Weil N De nition 4.2 erfullt, gilt auch x+kn 2
N fur alle k 2 Z, also ist M  N. Sei y 2 N. Weil N De nition 4.1 erfullt, gilt n j x y,
also auch y = x + kn mit k 2 Z, also ist N  M, damit gilt N = M.

9
2. Wir behaupten, da jede Restklasse M genau einen Vertreter x mit 0  x  n enthalt.
Wenn diese Behauptung gezeigt ist, gibt es eine Bijektion:
Restklasse modulo n ! fx 2 Z j 0  x  ng
M 7! das einzige x 2 M mit 0  x  n
(Es gibt genau n Restklassen , es gibt genau n Elemente)
Beweis der Behauptung: Existenz: Da M 6= ; gibt es ein a 2 M. Dividiere na mit Rest x
fur a = kn + x fur 0  x  n. Es folgt x 2 M. Also leistet x das Gewunschte.
Eindeutigkeit: Aus 0  x; y  n und x 6= y folgt 0 <j x y j< n, also teilt n nicht x y.
Also konnen x und y nicht zur selben Restklasse gehoren.
3. Sei x 2 M, y 2 N, dann ist
M + N = fa + b j a 2 M; b 2 N g a = x + kn; b = y + ln
= fx + y + (k + l)n j k; l 2 Zg
= fx + y + mn j m 2 Zg m := k + l
MN = fab + kn j a 2 M; b 2 Nk 2 Zg a = x + n; b = y + n
= fxy + (k + y + x + n)n j ; ; k; 2 Zg
= fxy + ln j l 2 Zg m := k + y + x + n
Mit Satz 2.1 folgt die Behauptung.
4. Kommutativitat ist o ensichtlich. Assoziativitat: Sei x 2 M, y 2 N, z 2 O. Dann ist
x + y 2 M + N und y + z 2 N + O, also folgt x + (y + z) 2 M + (N + O) und (x + y) + z 2
(M + N) + O, aus (3) folgt M + (N + O) = (M + N) + O. Neutrales Element ist die
Restklasse, welche die Zahl 0 enthalt. Das inverse Element zu M ist f m j m 2 M g.
5. Die Kommutativitat und Assoziativitat der Multiplikation zeigt man wie bei (4) des Bewei-
ses, ebenso das Distributivgesetz. Das neutrale Element der Multiplikation von Restklassen
modulo n ist die Restklasse von 1 = f1+kn j k 2 Zg. Sei M ein von 0 verschiedenes Element
von Z=nZ und sei n eine Primzahl. Wir mochten ein inverses Element zu M konstruieren.
Wir zeigen zunachst, da die Abbildung
Z=nZ ! Z=nZ
N 7! MN
injektiv ist. Seien MN=M N, ~ x 2 M; y 2 N und y~ 2 N.~ Dann gilt: MN = fxy+kn j k 2 Zg
~ ~
und M N = fx~y + kn j k 2 Zg. Aus MN = M N folgt daher, da n j x(y y~). Weil n eine
Primzahl ist, gilt n =j x, also n j (y y~), was zu zeigen war.
Lemma: Sei X eine endliche Menge, und sei f : X ! X eine injektive Abbildung. Dann
ist f surjektiv, folglich auch bijektiv. 2
Es folgt die Surjektivitat der Abbildung
Z=nZ ! Z=nZ
N 7 ! MN
Insbesondere gibt es ein N 2 Z=nZ mit NM = f1 + kn j k 2 Zg. N ist also das Inverse zu
M.
Fur eine Primzahl n ist Z=nZ = Fn ein Korper mit n Elementen. 2

10
De nition 5: Sei C die Menge aller geordneten Paare (a; b) mit a; b 2 IR versehen mit den
Operationen der Addition und der Multiplikation:
(a; b) + (c; d) = (a + c; b + d)
(a; b)  (c; d) = (ac bd; ad + bc)
Das Paar (a; b) bezeichnen wir in diesem Zusammenhang als a + ib. Die Elemente von
C nennt man komplexe Zahlen. Jede reelle Zahl t kann mit der komplexen Zahl t + i0
identi ziert werden, man betrachtet daher die reellen Zahlen als Teilmenge der komplexen
Zahlen. Ferner gilt: i = (0; 1) ) i2 = 1.
Nachweis der Korperaxiome: Kommutativitat und Assoziativitat von + und  rechnet man
leicht nach, ebenso folgt die Distributivitat. Das Nullelement fur + ist die reelle Zahl 0, d.h.
(0,0). Das Einselement fur  ist die reelle Zahl 1, d.h. (1; 0). Das inverse Element zu a + ib ist
a ib 2
a2 +b2 .

2.2 Vektorraume
De nition: Sei K ein Korper. Eine Menge (V; +; ) (oft auch einfach V ) mit der Addition
+ und der skalaren Multiplikation  heit ein Vektorraum uber K, wenn folgende Axiome
erfullt sind:
1. (V; +) ist eine abelsche Gruppe
2. Fur alle v 2 V , k; l 2 K gilt: k  (l  v) = (kl)  v
3. Fur alle v; w 2 V , k; l 2 K gilt:
(a) k  (v + w) = k  v + k  w
(b) (k + l)  v = k  v + l  v
4. Das multiplikativ Neutrale 1K von K operiert trivial, d.h. fur alle v 2 V gilt 1K  v = v

Bemerkung: Das additiv Neutrale 0K des Korpers operiert als 0K  v = 0V , denn 0K  v =


(k k)  v =k  v k  v = 0V .
Beispiel:
1. Der Vektorraum K n aller n Tupel (x1; x2; : : :; xn) mit x1 ; x2; : : :; xn 2 K wird mit fol-
gender Addition und skalarer Multiplikation de niert:
(a) (x1; : : :; xn) + (y1 ; : : :; yn ) = (x1 + y1 ; : : :; xn + yn ) fur alle x1; : : :xn; y1 : : :; yn 2 K;
(b) k(x1; : : :; xn) = (kx1; : : :; kxn) fur alle k; x1; : : :; xn 2 K.
2. Sei X eine Menge und K X die Menge der Abbildungen von X nach K zusammen mit der
Addition bzw. skalaren Multiplikation
+ : KX  KX ! KX und  : K  KX ! KX :
(f; g) 7! f(x) + g(x) (k; g) 7 ! k  g(x)
Dann ist (K X ; +; ) ein K-Vektorraum.
3. V = f0g, der Nullvektorraum.

11
4. Seien V; W zwei Vektorraume uber einem Korper K, dann ist die Summe
V  W := f(u; w) j v 2 V; w 2 W g
wieder ein Vektorraum mit der Addition (v; w)+(~v ; w) ~ v; v~ 2 V , w; w~ 2 W
~ = (v+~v ; w+ w),
und der skalaren Multiplikation k(v; w) = (kv; kw), k 2 K, v 2 V; w 2 W .
2.3 Unterobjekte
De nition: Eine Teilmenge H einer Gruppe (G; ) heit Untergruppe von G, wenn fur
alle g; h 2 H auch g  h 1 2 H gilt.
Bemerkung: Das neutrale Element eG von G liegt in H und ist auch dort das neutrale Element,
H ist auch eine Gruppe mit der eingeschrankten Operation von G.
Fur h 2 H ist h  h 1 = eG das neutrale Element, also eG 2 H. Die Gruppenaxiome folgen aus
der Einschrankung der Rechenregeln fur G.
Beispiel: Die symmetrische Gruppe Sn 1 zu n 1 Elementen ist eine Untergruppe der symme-
trischen Gruppe Sn zu n Elementen, betrachte dazu nur jene Permutationen von n Elementen,
die das letzte Element an seinem Platz lassen.
De nition: Sei K ein Korper und L  K eine Teilmenge von K. L heit Unterkorper
von K, wenn
1. L mit der eingeschrankten Addition eine Untergruppe von (K; +) und
2. L f0g mit der eingeschrankten Multiplikation eine Untergruppe von (K f0g; ) ist.
Das heit, fur alle h; l 2 L gilt k l 2 L und fur alle k; l 2 L, l 6= 0 gilt k  l 1 2 L.
Beispiel: Ist L Unterkorper von K, so ist K ein Vektorraum uber L.
Beweis:
1. (K; +) ist eine kommutative Gruppe.
2. Fur alle l1 ; l2 2 L, k 2 K gilt l1 (l2 k) = (l1 l2 )k nach dem Assoziativgesetz in K.
3. Fur alle l 2 L, k1; k2 2 K gilt l(k1 + k2 ) = lk1 + lk2 und fur alle l1 ; l2 2 L, k 2 K gilt
(l1 + l2 )k = l1 k + l2 k (Distributivgesetz in K).
4. Fur alle k 2 K gilt 1L k = 1K k = k. 2
Allgemeiner ist jeder Vektorraum V uber K ein Vektorraum uber L.
Beweis: Axiome fur K eingeschrankt auf L, zum Beispiel Axiom 2: fur alle l1; l2 2 L, v 2 V gilt
l1 (l2 v) = (l1 l2 )v, weil l1 ; l2 2 K und die Regel uber K gilt. Axiom 4: fur alle v 2 V gilt 1L v = v,
weil 1L = 1K . 2
De nition: Eine Teilmenge U eines Vektorraumes (V; +; ) uber einem Korper K heit
Untervektorraum, falls fur alle k 2 K; v; w 2 U auch v + w 2 U und kv 2 U.
Bemerkung: U ist mit der eingeschrankten Addition von V eine Untergruppe von (V; +), denn
fur v; w 2 U ist v w = v + ( 1K )w 2 U.

12
Bemerkung: Wenn U ein Untervektorraum von V ist und u1 ; : : :; un 2 U, k1; : : :; kn 2 K,
n 2 IN f0g, dann ist
Xn
kiui = k1 u1 + : : : + knun 2 U:
i=1
Beweis durch vollstandige Induktion:
P +1nk=u2:=folgt
Pn ausk uder+De nition eines Untervektorraumes,
gilt die Behauptung fur n, so gilt ni=1 i i i=1 i i k n+1 u n+1 2 U. 2
De nition: Seien U1; U2 ; : : :; Un Untervektorraume von V , dann ist die Summe der Un-
tervektorraume Ui zu schreiben als:
X
n (X
n )
Ui = U1 + U2 + : : : + Un := kiui j ki 2 K; ui 2 Ui :
i=1 i=1
Pn U ist wieder ein Vektorraum.
i=1 i

Lemma: Seien U1 ; U2; : : :; Un Untervektorraume von V , dann sind folgende Aussagen aquivalent:
P P
1. Fur alle u 2 ni=1 Ui ist die Darstellung w = ni=1 vi , vi 2 Ui , eindeutig.
P
2. Fur alle 1  i  n gilt: Ui \ nj=1 Uj = f0g
j 6=i
Beweis:
X
n X
n
(1) gilt nicht , 9 ; =
6 I  f1; : : :; ng : 8 i 2 I 9 vi ; v~i 2 Ui : vi 6= v~i ; vi = v~i
i=1 i=1
X
, 8 i 2 I : v^i = vi v~i 2 Ui f0g : v^j = 0
j 2I
X X X
, 9i 2 I : v^j = v^i 2 Ui \ Uj  Ui \ Uj
j 2I fig j 2I fig j =1
j 6=i
, (2) gilt nicht
2
De nition: Falls (1) und (2) gelten, heit die Summe der Ui direkte Summe der
Untervektorraume Ui , geschrieben: Lni=1 Ui :

2.4 Erzeugendensysteme, lineare Unabhangigkeit und Basen


Sei V ein Vektorraum uber einen Korper K.
De nition: Der von einer Teilmenge S  V erzeugte Unterraum von V ist
X
n
L(S) := f kivi j n 2 IN; ki 2 K; vi 2 S g:
i=1
S heit Erzeugendensytem, falls L(S) = V ; anders ausgedruckt: S erzeugt V . L(;) :=
f0g.

13
Bemerkung: Sei S  V , WS := f samtliche Unterraume U von V j S  U g. Dann gilt
L(S) = TU 2WS U, d.h. L(S) ist der kleinste Unterraum, der S enthalt.
Beweis:PEinerseits gilt L(S)  TU 2WS U, weil L(S) 2TWS . Andererseits gilt fur alle ki 2 K,
vi 2 S: ni=1 kivi 2 U fur alle U 2 WS , also ist L(S)  U 2WS U. 2
Bemerkungen:
P
1. Falls T  S, dann gilt L(T)  L(S), da fur alle ki 2 K; vi 2 T gilt: ni=1 ki vi 2 L(S).
T T
2. L(L(S)) = L(S), denn L(S) = WS U = WS U = L(L(S)).
S U L(S )U
P P
3. Fur beliebige Teilmengen T; S  U gilt: L(T [ S) =f ni=1 kivi + mj=1 k~j v~j j ki; k~i 2
K; vi 2 S; v~j 2 T g =L(T) + L(S).
De nition: v 2 V heit linear abhangig von S  V , falls v 2 L(S); v 2 V heit linear
unabhangig von S, wenn v nicht linear abhangig von S ist. S heit linear unabhangig,
wenn alle v 2 S von von S fvg linear unabhangig sind. S heit Basis, wenn S ein linear
unabhangiges Erzeugendensystem ist.
Beispiel: fvg fur v 2 V ist linear unabhangig genau dann, wenn v 6= 0.
Lemma 1: Die folgenden Aussagen fur eine Teilmenge S  V sind aquivalent:
1. S ist linear unabhangig;
P
2. fur alle vi 2 S; vi 6= vj fur i 6= j, ki 2 K folgt aus ni=1 ki vi = 0, da k1 = : : : = kn = 0
(wichtiges Kriterium!);
P
3. Fur jedes w 2 L(S) ist die Darstellung w = ni=1 kivi ; n 2 IN, ki 2 KP , vi 2 S, vi 6= vj fur
i 6= j in folgendem Sinne bis auf Vertauschung eindeutig: sei w = mi=1 k~i v~i eine weitere
derartige Darstellung, dann ist m = n und es gibt eine Permutation  von f1; : : :; ng mit
k~(i) = ki ; v~(i) = vi , 1  i  n
Pn
Beweis: (2) gilt nicht , 9 vPi 2n S; ki 2 K  , 1  i  n : i=1 kivi = 0 , 9 vi 2 S; ki 2 K  ,
i=1 kji vi , 9 vi 2 S; ki 2 K  , 1  i  n, j : vj 2 L(S fvj g) ,
1  i  n, j : kj 6= 0, vj = k
i6=j
(1) gilt nicht. P P
(3) gilt nicht , 9 ki ; ~ki 2 K  , vi; v~i 2 S : 0 = ni=1 ki vi mi=1 k~iv~i , 9 i : kivi 6= k~j v~j , 1  j  m
, 9 v~i 2 K  , v~i 2 S : Pmax(
i=1
m;n) k~ v~ = 0 , (2) gilt nicht.
i i 2
Fakt 2: Eine Untermenge
P S  V ist genau dann eine Basis, wenn sich jedes Element w 2 V
als Summe w = ni=1 kivi mit ki 2 K, vi 2 S schreiben lat, und diese Darstellung bis auf
Vertauschung der Indizes eindeutig ist.
Beweis: S ist Erzeugendensystem ) 9 ki 2 K; vi 2 S : w =LPni=1 kivi . S ist linear unabhangig
, Diese Darstellung ist eindeutig nach Lemma 1, d.h. V = vi2S L(fvig) = Lvi2S kivi . 2
Beispiel: Sei n 2 IN; v 2 K n. Fur 1  i  n sei ei := (0; : : :; 0; 1; 0; : ::; 0) 2 K n der Vektor, des-
sen Eintrage uberall null sind, auer an der i-ten Stelle, wo sich der Eintrag 1 be ndet. Dann ist
die Menge fei j 1  i  ng eine Basis von K n, die P kanonische Basis oder auch Standardbasis.
Beweis: S = fei j 1  i  ng erzeugt K n, weil ni=1Pkni ei = (k1; : : :; kn) fur alle k1; : : :; kn 2
K. S ist linear unabhangig, weil L(S fei g) = f j =1 kj ej j kj 2 kg =f(k1 ; : : :; ki 1; 0;
j 6=i
ki+1; : : :; kn) j kj 2 K g, also ei 62 L(S fei g). 2

14
Beispiel 1: ; ist eine Basis von f0g. L(M) = fPni=1 i xi j i 2 K; xi 2 M g, M  V , L(;) = f0g,
also folgt die Behauptung. Fur jeden Vektorraum V ist ;  V linear unabhangig.
Fakt 3: Sei fx1; : : :; xng eine BasisPdes Vektorraums V . Dann kann jedes Element x 2 V auf
genau eine Weise in der Form x = ni=1 i xi mit i 2 K dargestellt werden.
Das ist o ensichtlich aus Lemma 1 und Fakt 2. 2
Lemma 2: Sei V ein Vektorraum und S  V eine endliche Untermenge von V , welche V erzeugt.
Dann gibt es eine Untermenge B  S, welche eine Basis von V ist.
Beweis: Sei M die Menge aller Untermengen von S, welche V erzeugen. M ist eine nichtleere
Menge, denn S 2 M. Die Elemente dieser Menge sind endliche Mengen. Also gibt es ein Element
B 2 M mit der kleinstmoglichen Anzahl an Elementen, d.h. fur alle T 2 M gilt jT j  jB j
(jM j :=Anzahl der Elemente von M). Wir behaupten, da B linear unabhangig und daher eine
Basis von V ist. Wenn B nicht linear unabhangig ware, so gabe es ein b 2 B mit b 2 L(B fbg).
Sei B 0 = B fbg, wir behaupten, da B 0 2 M. Tatsachlich gilt
L(B 0 ) = L(L(B 0 )) = L(L(B 0 ) [ fbg)  L(B 0 [ fbg) = L(B) = V:
Also L(B 0 ) = V , damit B 0 2 M im Widerspruch zur De nition von B, denn jB 0 j < jB j. 2
Bemerkung: Wir hatten auch eine linear unabhangige Untermenge von S mit der grotmogli-
chen Anzahl an Elementen betrachten konnen.
Bemerkung: Mit Hilfe des Auswahlaxioms kann der Beweis von Lemma 2 auch fur unendliches
S gefuhrt werden. Insbesondere hat jeder Vektorraum eine Basis.
Lemma 3: Sei M  V linear unabhangig, sei x 62 L(M). Dann ist auch N := M [ fxg linear
unabhangig.
Beweis: Andernfalls gabe es ein y 2 N mit y 2 L(N fyg) = L((M [ fxg) fyg) und damit
x1; : : :; xn 2 M fyg und #; 1; : : :; n 2 K mit y = #x + 1 x1 + : : : + n xn. Aus # = 0 wurde
y 2 L(M fyg) folgern, was nicht sein soll (M linear unabhangig). Also # 6= 0 und es folgt
x = #1 (y 1 x1 : : : n xn ) 2 L(M), was auch nicht sein soll. 2
Folgerung: Jeder Vektorraum, der eine endliche Erzeugendenmenge besitzt, besitzt auch eine
endliche Basis.
De nition 3: Einen Vektorraum nennt man genau dann endlichdimensional, wenn er
eine endliche Basis hat.

Satz 1: (Austauschsatz von Steinitz) Sei V ein Vektorraum uber einem Korper K, T eine
endliche Untermenge von V , welche V erzeugt, und S  V eine linear unabhangige Menge.
Dann gilt:
1. jS j  jT j
2. S kann durch jT j jS j Elemente von T zu einer Erzeugendenmenge fur V erganzt
werden.

Beweis: Durch vollstandige Induktion nach jS j. Fur jS j = 0, also S = ;, sind beide Behauptun-
gen trivial. Seien beide Behauptungen wahr fur Mengen mit jS j 1 Elementen. Sei b 2 S und
sei S~ = S fbg. Sei l = jT j jS~j, es gilt l  0 und es gibt t1 ; : : :; tl 2 T, so da S~ [ ft1; : : :; tl g
V erzeugt. Insbesondere gilt b 2 L(S~ [ ft1; : : :; tl g), also gibt es ein s 2 L(S)
~ und 1; : : :; l 2 K

15
P
mit b = s + li=1 i ti . Fur l = 0 wurde dies b = s 2 L(S) ~ bedeuten, im Widerspruch zur
linearen Unabhangigkeit von S. Also gilt l  1 und (1) ist fur S bewiesen. Aus demselben Grund
gibt es ein i mit i 6= 0, ohne Beschrankung der Allgemeinheit i = 1. Dann Pl wird V durch
S [ ft2 ; : : :; tl g = R erzeugt, woraus (2) folgt, denn es gilt t1 = 11 (b s i=2 i i 2 L(R),
 t )
~
also S [ ft1; : : :; tl g  L(R), also L(R) = V nach den wohlbekannten Eigenschaften von L. 2
Folgerung 2: Zwei Basen eines endlichdimensionalen Vektorraumes haben dieselbe Anzahl von
Elementen (was die Endlichkeit einschliet).
De nition 5: Die Anzahl der Elemente einer Basis eines endlichdimensionalen Vektorrau-
mes V ist die Dimension von V , und wir schreiben dim V .
Beweis von Folgerung 2: Seien B; B0 endliche Basen. Wende Satz 1 an mit:
S = B; T = B 0 ) jB j  jB 0j
S = B 0 ; T = B ) jB 0 j  j B j
Daraus folgt jB j = jB 0 j. Angenommen, es gabe eine unendliche Basis B von V . Sei T eine endliche
Basis von V , sei S  B eine Untermenge mit jT j + 1 Elementen. Dann ist S linear unabhangig,
Widerspruch zu Satz 1. 2
Folgerung 3: Sei V ein endlichdimensionaler K-Vektorraum, S  V eine linear unabhangige
Menge und T  V eine Erzeugendenmenge. Dann gilt:
1. jS j  dimV
2. S ist genau dann eine Basis, wenn jS j = dimV .
3. jT j  dimV
4. T ist genau dann eine Basis, wenn die Gleichheit bei (3) eintritt.
5. Jede linear unabhangige Untermenge von V kann zu einer Basis erganzt werden.
Beweis: Sei B eine Basis von V . Zu:
1. Wende Steinitz (1) auf S und B an: jS j  jB j = dimV .
2. Sei jS j = dim V = jB j. Wende Steinitz (2) an. S kann durch jB j jS j = 0 Elemente von B
zu einer Erzeugendenmenge erganzt werden, also ist S selbst eine Erzeugendenmenge.
3. Wende Steinitz (1) auf B und T an: dimV = jB j  jT j.
4. Nach Lemma 2 gibt es ein M  T welches eine Basis von V ist. Wenn M  T ware, so
ware dimV = jM j < jT j. Das ist ein Widerspruch zur Voraussetzung. Also gilt: T = M
und T selbst ist eine Basis von V .
5. Sei S  V linear unabhangig. Wende Steinitz (2) auf S und B an: S kann durch jB j jS j
Elemente von B zu einer Erzeugendenmenge S 0 erganzt werden. Es gilt: jS 0 j  jS j + jB j
jS j = dim V . Aus (3) folgt: jS 0 j = dimV . Aus (4) folgt, da S 0 eine Basis von V ist.
Eine andere Moglichkeit des Beweises von (5) ist es, mit Hilfe von Lemma 3 zu S solange
Elemente hinzuzufugen, bis man eine linear unabhangige Erzeugendenmenge erhalt. 2

16
Fakt 4: Sei W  V ein Unterraum eines endlichdimensionalen Vektorraumes. Dann ist auch
W endlichdimensional, und es gilt: dimW  dimV . Dabei gilt die Gleichheit genau dann, wenn
W = V gilt.
Beweis: Wir nehmen zunachst an, da W endlichdimensional ist. Sei d = dimW und sei B =
fw1; : : :; wd g eine Basis von W . Dann ist B linear unabhangige Teilmenge von W, also auch von
V . Aus Folgerung 3.1 folgt dimW  d  dimV . Wenn die Gleichheit eintreten sollte, so folgt
aus 3.2), da B eine Basis von V ist, also V = W .
Beweis der Endlichdimensionalitat von W: Jede linear unabhangige Menge S  W ist auch
in V linear unabhangig, also gilt jS j  dimV (3.1). Unter Anwendung von Fakt 5 folgt die
Behauptung. 2
Fakt 5: Sei W ein K-Vektorraum und d 2 IN, so da jS j  d fur jede linear unabhangige
Untermenge S  V gilt. Dann ist dieser Vektorraum endlichdimensional (d ist obere Schranke).
Beweis: Sei S eine linear unabhangige Untermenge von W mit der grotmoglichen Anzahl an
Elementen. Dann ist S auch eine Erzeugendenmenge, denn andernfalls gabe es ein v 2 W L(S)
und nach Lemma 3 ware S [ fvg linear unabhangig, im Widerspruch zu Auswahl von S. 2
Satz 2: Seien U und V endlichdimensionale Unterraume eines Vektorraumes X. Dann ist
auch U + V endlichdimensional, und es gilt:
dim(U + V ) + dim(U \ V ) = dimU + dim V:

Beweis: Sei a = dim(U \ V ), b = dimU dim(U \ V ), c = dimV dim(U \ V ). Sei B =


fw1; : : :; wa g eine Basis von U \ V . Nach Folgerung 3.5 kann diese Basis von U \ V zu einer
Basis fw1; : : :; wa ; u1; : : :; ubg von U und zu einer Basis fw1; : : :; wa ; v1; : : :; vcg von V erganzt
werden.
Behauptung: Die Menge fu1; : : :; ub; v1; : : :; vc; w1; : : :; wag ist eine Basis von U + V .
Beweis von L(B) = U + V : Sei x 2 U + V . Dann kann x in derPForm x = uP + v mit v 2 V
und u 2 U dargestellt werden. Wir k
o nnen u und v als u = a kw + b lu, v =
Pa k0 w + Pc m v mit k ; k0; l ; m 2 K darstellen. Also gilt i=1 i i j=1 j j
i=1 i i l=1 l l i i i i
X
a X
b X
c
u+v = (ki + ki0 )wi + lj uj + ml vl 2 L(B):
i=1 j =1 l=1
Also erzeugt B U + V , damit ist U + V endlichdimensional.
Beweis der linearen Unabhangigkeit von B: Ware B nicht linear unabhangig, so gabe es 1; : : :; a,
1 ; : : :; b , 1 ; : : :; c 2 K, die nicht alle verschwinden, mit
X
a X
b X
c
iwi + j uj + l vl = 0;
i=1 j =1 l=1
P P
also ai=1 i wi + bj=1 j uj =
P c v . Die linke Seite gehort zu U, die rechte zu V , also
l=1 l l
gehoren P beide Seiten zu
P U \ V . Die rechte Seite kann alsPLinearkombination
P P der P
wi geschrieben
werden: cl=1 l vl = ai=1 i wi ( 2 K) = ai=1 0wi + cl=1 l vl = ai=1 i wi + ci=1 0vk . Weil
fw1; : : :; wa ; vP
P 1; : : :; vcg eine Basis von V ist, folgt nach Fakt 3: 1 = : : : = c = 0. Wir erhalten
a w + b u = 0. Weil fw ; : : :; w ; u ; : : :; u g eine Basis von U ist, folgt nach Fakt
i=1 i i j =1 j j 1 a 1 b
3 i = i = 0. Das ist aber ein Widerspruch zur Annahme, da B linear abhangig ist. Folglich
ist B unabhangig, und es gilt:

17
1. dim(U + V ) = jB j = a + b + c
2. dimU = a + b; dim V = a + c; dim(U \ V ) = a
3. dim(U \ V ) + dim(U + V ) = 2a + b + c = dimU + dimV 2
2.5 Lineare Abbildungen
De nition 1: Seien G und H multiplikativ geschriebene Gruppen. Ein Gruppenhomo-
morphismus ist eine Abbildung ' : G ! H mit der Eigenschaft '(g1  g2) = '(g1)  '(g2)
fur g1 ; g2 2 G. Sei Hom (G; H) die Menge aller Homomorphismen von G nach H.
Fakt 1:
1. Sei ' 2 Hom(G; H). Dann gilt: '(1) = 1. Fur g 2 G gilt: '(g 1 ) = '(g) 1
2. Sei H abelsch und sei ', 2 Hom(G; H). Sei '  durch ('  )(g) = '(g) (g) de niert.
Dann gilt auch '  2 Hom(G; H), und Hom (G; H) wird mit dieser Verknupfung eine
abelsche Gruppe.
Beweis:
1. Sei f = '(1) 2 H, dann gilt f  f = '(1)  '(1) = '(1  1) = '(1) = f. Aus den grundlegenden
Eigenschaften von Gruppen folgt f = 1.
2. '; sind Gruppenhomomorphismen: Fur g; h 2 G gilt
('  )(gh) = '(gh) (gh) = '(g)  '(h) (g) (h) = '(g) (g)'(h) (h)
= ('  )(g)('  )(h):
Gruppenaxiome fur Hom(G; H): Seien ; ; 2 Hom(G; H). Fur g 2 G gilt
((  )  )(g) = (  )(g) (g) = (g) (g) (g) = (g)(  )(g) = (  (  ))(g):
Es sei e(g) = 1 fur alle e 2 G, denn 'e = e' = '. Sei ' 2 Hom(G; H) und (g) =
'(g) 1 . Mit Hilfe der Kommutativitat von H pruft man leicht 2 Hom (G; H), ist
invers zu '. Kommutativitat pruft man wie die Assoziativitat. Damit sind alle geforderten
Eigenschaften nachgewiesen. 2
Bemerkung:
1. Die identische Abbildung Id G ist fur jede Gruppe G ein Homomorphismus von G nach G.
2. Seien G; H Gruppen, dann ist durch e(g) = 1 2 H fur alle g 2 G ein Homomorphismus
von G nach H de niert.
3. Seien G !l H ! m I Gruppenhomomorphismen, dann ist auch m  l ein Gruppenhomomor-
phismus: (m  l)(gh) = m(l(gh)) = m(l(g)l(h)) = m(l(g))m(l(h)) = (m  l)(g)(m  l)(h).
4. Wenn H additiv geschrieben ist, wird auch Hom (G; H) additiv geschrieben.

18
De nition 2: Seien (K; +; ) und (L; +; ) Korper. Eine Abbildung f : K ! L ist ein
Korperhomomorphismus genau dann, wenn folgende Eigenschaften erfullt sind:
1. f ist ein Gruppenhomomorphismus von (K; +) und (L; +);
2. f(K  )  L und f : (K  ; ) ! (L ; ) ist ein Gruppenhomomorphismus.

Bemerkung: Ist f ein Korperhomomorphismus, so gilt f(xy) = f(x)f(y) fur alle x; y 2 K,


denn es gibt nur die zwei Moglichkeiten
1. x; y 2 K  : wende die Tatsache an, da f : (K  ; ) ! (L ; ) ein Gruppenhomomorphismus
ist.
2. x = 0 oder y = 0: Sei x = 0, dann ist f(x) = 0 und f(xy) = f(x)  f(y) = 0  f(y) = 0 =
f(0  y) = f(xy).
Die Hintereinanderschaltung von Korperhomomorphismen ist wieder ein Korperhomomorphis-
mus.
Beispiel: Die identische Abbildung ist ein Korperhomomorphismus von K nach K. Sei f : Q !
IR durch f(x) = x fur x 2 IR de niert. Dann ist f ein Korperhomomorphismus, ebenso j : IR ! C
mit j(x) = x + i0 fur alle x 2 IR.
De nition 3: Seien X; Y Vektorraume uber einem Korper K. Eine K -lineare Abbil-
dung (oder ein K -Vektorraumhomomorphismus) ist eine Abbildung f : X ! Y mit
folgenden Eigenschaften:
1. f : (X; +) ! (Y; +) ist ein Gruppenhomomorphismus.
2. Sei  2 K, x 2 X, dann gilt f(x) = f(x).
Die Menge der K-linearen Abbildungen von X nach Y bezeichnen wir mit L(X; Y ).
In den folgenden Betrachtungen ist der Grundkorper K meist vorgegeben, und wir sprechen von
linearen Abbildungen statt K-linearen Abbildungen.
Bemerkung: C ist sowohl IR-, als auch C-Vektorraum. Die Abbildung f : C ! C mit f(z) = z
ist IR-linear, aber nicht C-linear.
Fakt 2:
1. Sei f linear, dann gilt
X
n ! X
n
f ki x i = kif(xi ); ki 2 K; xi 2 X; 1  i  n;
i=1 i=1
2. Die identische Abbildung ist linear;
3. Die Hintereinanderausfuhrung zweier linearer Abbildungen ist linear;
4. Die Einschrankung eine linearen Abbildung auf einen Untervektorraum ist linear.
Beweis:

19
1. Induktion nach n:
X
1 X
1
n=1: f( ki xi) = f(k1 x1) = k1f(x1 ) = k1f(x1 )
i=1 i=1
nX+1 X
n X
n
n!n+1: f( kixi ) = f( ki xi + kn+1xn+1 ) = f( ki x i ) +
i=1 i=1 i=1
Xn nX+1
f(kn+1 xn+1) = ki f(xi ) + kn+1 f(xn+1 ) = kif(xi ):
i=1 i=1
2. ist trivial.
f
3. Seien X ! Y !g Z linear, dann gilt fur x1 ; x2 2 X; k 2 K:
(g  f)(x1 + y1 ) = g(f(x1 + x2 )) = g(f(x1 ) + f(x2 )) = g(f(x1 )) + g(f(x2 ))
= (g  f)(x1 ) + (gf)(x2 );
(g  f)(kx1 ) = g(f(kx1 )) = g(kf(x1 )) = kg(f(x1 )) = k(g  f)(x1 ):
4. ist trivial. 2
Fakt 3: Wenn f; g : X ! Y lineare Abbildungen sind, so sind auch die durch
1. (f + g)(x) = f(x) + g(x), x 2 X; k 2 K,
2. (kf)(x) = kf(x)
de nierten Abbildung f + g und kf linear. Auf diese Weise wird L(X; Y ) zu einem K-Vektor-
raum.
Beweis: Die Gultigkeit der Behauptung von De nition 3.1 folgt aus Fakt 1.2. Wegen
(f + g)(x) = f(x) + g(x) = f(x) + g(x) = (f + g)(x)
ist auch De nition 3.2 erfullt.
Wegen
(kf)(x + y) = kf(x + y) = k(f(x) + f(y)) = kf(x) + kf(y) = (kf)(x) + (kf)(y)
ist De nition 3.1 erfullt, wegen
(kf)(x) = kf(x) = k(f(x)) = (k)f(x) = (k)f(x) = (kf(x)) = (kf)(x)
auch De nition 3.2. Der Nachweis der Vektorraumaxiome fur L(X; Y ) ist klar. 2
De nition 4: Sei X ein Vektorraum uber K. Wir de nieren den Raum der linearen
Funktionale auf X durch X  = L(X; K). Man nennt X  auch den Dualraum von X.
Fakt 4: Sei f : X ! Y linear, und seien U  X und V  Y Unterraume. Dann ist f 1 (V ) ein
Unterraum von X und f(U) ist ein Unterraum von Y .
Beweis: Seien y1; y2 2 f(U) und  2 K. Dann gibt es xi 2 U mit f(xi ) = yi fur i 2 f1; 2g. Es
folgt y1 = f(x1 ) = f(x1 ) 2 f(U) und y1 +y2 = f(x1 )+f(x2 ) = f(x1 +x2) 2 f(U), weiterhin
0 = f(0) 2 f(U), also f(U) 6= ;.
Seien x1; x2 2 f 1 (V ), dann gilt f(x1 + x2 ) = f(x1 ) + f(x2 ) 2 V , also x1 + x2 2 f 1 (V ),
f(x) = f(x) 2 V , also x 2 f 1 (V ), naturlich gilt auch 0 2 f 1 (V ). 2

20
De nition 5: Der Kern einer linearen Abbildung f : X ! Y ist durch ker(f) =
f 1 (f0g) = fx 2 X j f(x) = 0g de niert. Das Bild von F ist durch Bild (f) = f(X)
de niert. Man schreibt auch oft Im(f) statt Bild (f).
Sei ' : G ! H ein Gruppenhomomorphismus. Wir de nieren Bild (') = f(G) und den
Kern von ' als das Urbild des neutralen Elementes von H (also 0 bzw. 1). Es handelt sich
dabei um Untergruppen.
Bemerkung: f ist surjektiv , Bild (f) = Y ; f(f0g) = f0g.
Fakt 5: f ist genau dann injektiv, wenn ker(f) = f0g.
Beweis: f injektiv ) jf 1 (f0g)j  1. Wegen 0 2 f 1 (f0g) folgt f 1 (f0g) = f0g. Sei ker(f) =
f0g. Dann folgt aus x1; x2 2 X und f(x1 ) = f(x2 ), da auch f(x1 x2) = 0, also x1 x2 2 ker(f),
damit x1 x2 = 0, folglich x1 = x2, was die Injektivitat von f zeigt. 2
Bemerkung: Ein Gruppenhomomorphismus ist genau dann injektiv, wenn sein Kern aus dem
neutralen Element besteht.
Satz 1: Sei f : X ! Y eine lineare Abbildung, und sei X endlichdimensional. Dann ist
Bild (f) endlichdimensional und dim(Bild(f)) = dimX dim(ker(f)). Insbesondere ist f
genau dann injektiv, wenn dim(Bild (f)) = dim(X) gilt.
Beweis: Sei fx1; : : :; xdg eine Basis fur ker(f) und fx1; : : :xd ; xd+1; : : :; xng eine Basis von X
(d = dim(ker(f)); n = dimX).
Behauptung: ff(xd+1 ); : : :; f(xn )g hat n d Elemente und ist eine Basis von Bild (f). Aus der
Behauptung folgt: dim(Bild(f)) = n d = dimX dim(ker(f)) und der Rest ist trivial.
Beweis der Behauptung: Angenommen,
P f(xi ) = f(xj ) fur d + 1  i < j  P n. Dann gilt:
xi xj 2 ker(f), xi = xj + dk=1 k xk mit geeigneten xk 2 K. Dann ist xi xj = dk=1 k xk im
Widerspruch zur linearen Unabhangigkeit von fx1 ; : : :; xng. L(ff(xd+1P); ::; f(xn)g) = Bild (f):
Sei y 2 Bild (f), also y = f(x) mit x 2 X. Dann kann x als x = nk=1 k xk mit xk 2 K
dargestellt werden. Es folgt
X
n X
n X
n
f(x) = f( k xk ) = k f(xk ) = k f(xk ) 2 L(ff(xd+1 ); : : :; f(xn )g):
k=1 k=1 k=d+1
P P
Lineare Unabhangigkeit: Angenommen nk=d+1 k f(xk ) = 0. Dann folgt nk=d+1Pnk xk 2 ker(f).
Weil die fx1; : : :; xdg eine Basis von ker(f) bilden, gibt es 1 ; : : :; d 2 K mit k=d+1 k xk =
Pd  x . Es folgt Pn  x = 0, also folgt  = : : : =  = 0 wegen der linearen
k=1 k k k=1 k k 1 n
Unabhangigkeit der xn, also gilt auch d+1 = : : : = n = 0, und die lineare Unabhangigkeit von
ff(xd+1 ); : : :; f(xn )g ist bewiesen. 2

21
De nition 6:
 Ein Monomorphismus ist ein Homomorphismus von Gruppen bzw. von K-
Vektorraumen, welcher injektiv ist.
 Ein Epimorphismus ist ein Homomorphismus von Gruppen, Korpern bzw. K-
Vektorraumen, welcher surjektiv ist.
 Ein Isomorphismus von Gruppen bzw. Korpern bzw. K-Vektorraumen ist ein bi-
jektiver Homomorphismus.
 Ein Endomorphismus einer Gruppe, eines Korpers bzw. eines K-Vektorraumes X
ist ein Homomorphismus, welcher X nach sich selbst abbildet.
 Ein Automorphismus ist ein Endomorphismus welcher zugleich ein Isomorphismus
ist.
 Zwei Vektorraume, Gruppen oder Korper sind isomorph, wenn zwischen ihnen ein
Isomorphismus existiert. Zwei endlichdimensionale K-Vektorraume sind genau dann
isomorph, wenn ihre Dimensionen ubereinstimmen.

Bemerkung: Wenn f ein Isomorphismus ist, dann ist die inverse Abbildung ebenfalls ein Ho-
momorphismus und damit ein Isomorphismus.
Folgerung 1: (aus Satz 1) Sei f ein Endomorphismus eines endlichdimensionalen Vektorraumes
X. Dann sind folgende Aussagen aquivalent:
1. f ist ein Monomorphismus.
2. f ist ein Epimorphismus.
3. f ist ein Automorphismus.
Beweis: (3),(1) ^ (2): Ist gerade die De nition des Begri s Automorphismus. (1) ) (2): Aus
ker(f) = f0g folgt dim(Bild (f)) = dimX. Aus Fakt 4 in 2.3 folgt Bild (f) = X und f ist ein
Epimorphismus. (2) ) (1): Dies folgt aus Satz 1. 2
Warnung: Fur Epimorphismen von unendlichdimensionalen Vektorraumen gilt dieser Sachver-
halt nicht.
Fakt 6: Eine lineare Abbildung zwischen endlichdimensionalen Vektorraumen f : X ! Y ist
genau dann ein Isomorphismus, wenn folgende Bedingungen erfullt sind:
1. dimX = dimY
2. f ist ein Monomorphismus oder ein Epimorphismus.
Beweis: Wie bei Folgerung 1.
Fakt 7: Zwei endlichdimensionale Vektorraume uber K sind genau dann isomorph, wenn sie
dieselbe Dimension haben. Mit anderen Worten: fur jede naturliche Zahl n gibt es bis auf Iso-
morphie genau einen K-Vektorraum der Dimension n.
Beweis: Seien V und W endlichdimensionale K-Vektorraume. Aus Satz 1 folgt dim(W ) =
dim(Bild(')) = dimV dim(ker(')) = dimV .
Sei weiterhin B eine geordnete Basis von V , B = (b1 ; : : :; bn); bi 2 V . Dann ist durch iB : K n !

22
P
V , iB (1 ; : : :; n) = 1
k=1 k bk , ein Isomorphismus von Vektorraumen de niert. V ' K
dim V =
K dim W ' W, also V ' W nach dem nachfolgenden Fakt. 2
Bemerkung: Ein Isomorphismus ' : V ! W uberfuhrt eine Basis B von V in die Basis '(B)
von W.
Fakt: Wenn zwei Vektorraume beide zu einem dritten Vektorraum isomorph sind, so sind sie
auch untereinander isomorph. 2
Satz 2:
1. Seien X und Y endlichdimensionale K-Vektorraume mit geordneten Basen
(x1 ; : : :; xm ) und (y1 ; : : :; yn), m = dim(X), n = dim(Y ). Sei Aij : X ! Y de -
niert durch
Xm
Aij ( k xk ) = i yj ; 1  i  m; 1  j  n:
k=1
Dann sind die Aij lineare Abbildungen und bilden eine Basis von L(X; Y ). Es folgt
dim(L(X; Y )) = dim(X)  dim(Y )
2. Fur Y = KPund eine Basis (x1 ; : : :; xm) von X bilden die linearen Funktionale i 2
X  mit i ( mk=1 k xk ) = i eine Basis von X  , die zu (x1 ; : : :; xm) duale Basis.
Insbesondere folgt: dimX  = dimX.

Beweis: (2) ist o enbar ein Spezialfall von (1), es genugt also, (1) P zu beweisen. P
Linearitat der Aij : Dies ist leicht zu beweisen, denn es gilt fur x = mk=1 k xk , x~ = mk=1 ~k xk
X
m
Aij (x + x~) = Aij ( ( + ~)xk ) = (i + ~ i )yi = Aij (x) + Aij (~x):
k=1
Den anderen Teil der Linearitatsbedingung
P Ppruft man analog.
Lineare Unabhangigkeit der Aij : Sei mi=1 nj=1 ij Aij = 0 mit ij 2 K. Dann gilt fur 1  k 
m:
Xm Xn X
n
0=( ij Aij )(xk ) = kj yj :
i=1 j =1 j =1
Daraus und aus der linearen Unabhangigkeit der yj folgt ij = 0 fur 1  j  m. Also sind die
Aij linear unabhangig.
Die Aij Perzeugen L(X; Y ): Sei f 2 L(X; Y ). Fur 1  i  n gibt es ij 2 K, 1  j  n, mit
f(xi ) = nj=1 ij yj . Es folgt
X
m n X
X m n X
X m X
m
f( k xk ) = kj k yj = akj Akj ( i xi );
k=1 j =1 k=1 j =1 k=1 i=1
P P
also f = ni=1 mk=1 kj Akj . 2
Insbesondere X ' X  und X  ' X  , also X ' X  . Ein Isomorphismus X ' X  lat sich auf
kanonische Weise beschreiben:
Folgerung 2: Fur jeden K-Vektorraum X sei die K-lineare Abbildung iX : X ! X  durch
iX (x)(l) = l(x) mit x 2 X, l 2 X  de niert. Fur endlichdimensionale Vektorraume X ist iX ein
Isomorphismus. Dieser Isomorphismus bildet die Basis von X auf die duale Basis ihrer dualen
Basis ab.

23
Beweis: Fur alle x 2 X ist iX (x) ein lineares Funktional auf X  : iX : X ! X  ist K-linear. Sei
n = dim(X), (x1 ; : : :; xn) eine Basis von X, (1; : : :; n ) die dazu duale Basis von X  , (~x1 ; : : :; x~n)
die dazu duale Basis von X  . Die dualen Basen sind durch

i (xj ) = ij = 10 falls i=j
falls i 6= j und x~i(j ) = ij
gegeben. Es gilt dann iX (xk )(l ) = kl = x~k (l ) fur alle l, also iX (xk ) = x~k . Damit ist die letzte
Behauptung gezeigt. Daraus folgt auch, da iX ein Isomorphismus ist, denn es gilt folgender
Fakt: Sei f : X ! Y eine lineare Abbildung und (b1 ; : : :; bn) eine geordnete Basis von X. Wenn
(f(b1 ); : : :; f(bn )) eine geordnete Basis von Y ist, so ist f ein Isomorphismus. 2
Folgerung 3: Sei U  X ein Unterraum eines endlichdimensionalen Vektorraumes X. Wenn
Y endlichdimensional ist, so auch die lineare Abbildung L(X; Y ) ! L(U; Y ), f 7! f jU surjektiv.
Mit anderen Worten, zu jeder linearen Abbildung g : U ! Y gibt es eine lineare Abbildung
G : X ! Y , welche g fortsetzt, d.h. GjU = g.
Beweis: Sei a = dimU, b = dimX  dimU, (x1 ; : : :; xa ) eine Basis von U, (x1; : : :; xb) eine Ba-
sis von X, P c = dimY , (y1 ; : : :; yc) eine Basis von Y . Fur 1  i  a, 1  j  c sei Aij 2 L(U; Y )
durchPAij ( ak=1 k xk ) = i yj de niert. Fur 1  i  b, 1  j  c sei A~ij 2 L(X; Y ) durch
A~ij ( bk=1 k xk ) = i yj de niert. Es folgt A~ij jU = Aij fur 1  i  a, 1  j  c. Da die Aij
L(U; Y ) erzeugen, folgt nach Satz 2 die Behauptung.
f 
Fakt 8: Fur eine lineare Abbildung X !f Y sei die duale Abbildung Y  ! X durch
(f  (l))(x)) = l(f(x)) mit x 2 X, l 2 Y  de niert, d.h. f  (l) = l  f. Dann ist f  eine li-
neare Abbildung und es gilt f  iX = iY f, wobei iX und iY in Folgerung 2 de niert sind. Unter
Ausnutzung von Folgerung 2, um fur endlichdimensionale X; Y X  mit X und Y  mit Y zu
identi zieren, geht f  in f uber.
Beweis: Sei l 2 Y  und x 2 X. Es gilt
(f  (iX (x)))(l) = (iX (x))(f  (l)) = f  (l)(x) = l(f(x)) = iY (f(x))(l):
Weil das fur alle l gilt, folgt f  (iX (x)) = iY (f(x)). 2
De nition 7: Sei X ein endlichdimensionaler Vektorraum. Fur U  X und V  X  seien
U ? = fl 2 X  j 8 x 2 U : l(x) = 0g
V ? = fx 2 X j 8 l 2 V : l(x) = 0g
die orthogonalen Komplemente von U und V . Dies sind Unterraume U ?  X  und
V ?  X, selbst dann, wenn U und V nur Untermengen sind.
Bemerkung: Sei V  X  und
A = fx 2 X j 8 l 2 V : l(x) = 0g = V ?  X
B = f 2 X  j 8 l 2 V : (l) = 0g = V ?  X  :
Dann ist iX : X ! X  eine Abbildung, welche A isomorph auf B abbildet:
8 l 2 V : x 2 A , l(x) = 0
, (iX (x))(l) = 0 , iX (x) 2 B:
Fakt 9: Sei U  X ein Unterraum. Dann gilt:
24
1. dim(U ? ) = dim(X) dim(U);
2. U ?? = U.
Beweis: Zum Beweis der ersten Aussage sei (x1 ; : : :; xd) eine geordnete Basis von U und sei
(x1; : : :; xn), n = dim X  d = dim U, eine Basis von X. Sei (1 ; : : :; n) die dazu duale Basis
von X  . Behauptung: (d+1 ; : : :; n) ist eine Basis von U ? .
 Fur d + 1  i  n und U 3 x = Pdk=1 k xk mit k 2 K, folgt:
X
d X
d
i (x) = k i (xk ) = k ik = 0
k=1 k=1
Also d+1 ; : : :; n 2 U ? . Weil diese Elemente Teil einer Basis von X  sind, sind sie linear
unabhangig.
 Sei ' 2 U ? . Fur d + 1  k  n sei k = '(xk ). Dann gilt fur ' = Pnk=d+1 k k =! '~ 2
L(fd+1 ; : : :; ng), denn es gilt:
{ fur 1  l  d: '(xl ) = 0 wegen ' 2 U ? und xl 2 U, weiterhin '~(xl ) = 0, also
'(xl ) = '(x
~ l ).
{ fur d + 1  l  n: '(xl ) = l = Pnk=d+1 k kl = Pnk=d+1 kk (xl ) = '(x~ l ).
Weil dies fur alle Elemente der Basis (x1; : : :; xn) gilt, folgt ' = '~ und U ? = L(fd+1 ; : : :; ng).
Also ist die Behauptung gezeigt. Es folgt dimU ? = n d = dimX dimU.
Es gilt U  U ?? , denn fur u 2 U und  2 V ? gilt (u) = 0 nach der De nition von U ?, also
gilt u 2 U ?? . Aber
dimU ?? = dim X  dimU ?
= dim X  (dimX dimU) = dimU;
also U ?? = U. 2
Satz 3: Sei X !f Y ein lineare Abbildung zwischen endlichdimensionalen Vektorraumen.
Dann gilt:
1. Bild (f) = ker(f  )? ;
2. Bild (f  ) = ker(f)? .

Beweis:
1. Sei y 2 Bild (f). Dann gibt es x 2 X mit y = f(x). Sei  2 ker(f  ). Dann gilt: (y) =
(f(x)) = (f  ())(x) = 0, also y 2 ker(f  )? . Sei umgekehrt y 62 Bild (f). Sei V = Bild (f)+
k  y  Y , k 2 K. Durch '(v) =  fur v = u + y, u 2 Bild (f),  2 K (Diese Darstellung
ist wegen y 62 Bild (f) eindeutig.) ist ein Funktional ' 2 V  de niert. Nach Folgerung 3
gibt es ein Funktional  2 Y  mit  jV = '. Dann gilt (y) y= 2V '(y) = '(0 + 1  y) = 1. Es
gilt  2 ker(f  ), denn fur alle x 2 X gilt
(f  ())(x) = (f(x)) f (x=)2V '(f(x)) = '(f(x) + 0  y) = 0:
Also  2 ker(f  ) und (y) 6= 0. Also y 62 ker(f  )? .

25
2. Die zweite Gleichung folgt durch Anwendung der ersten Gleichung auf f  und durch An-
wendung von Fakt 8:
Bild (f  ) = ker(f  )? = ker(f)? : 2
Folgerung 4: In der Situation von Satz 3 gilt:
dim(Bild(f)) = dim(Bild (f  )):
Beweis:
dim(Bild(f)) Satz
= 3 dim(ker(f  )? ) Fakt
= 8 dim(Y ) dim(ker(f  )
Satz=2.2 dim(Y  ) dim(ker(f  )) Satz
= 1 dim(Bild(f  ))
2
De nition 8: Sei X !f Y eine lineare Abbildung zwischen endlichdimensionalen Vek-
torraumen. Die Dimension des Bildes von f nennt man auch den Rang von f, Rang (f)
oder rank (f).

3 Matrizen
3.1 Matrizenrechnung
Sei K ein Korper.
De nition 1:
 Eine m  n-Matrix A ist ein rechteckiges Schema mit m Zeilen, n Spalten und
Eintragen aus K:
0 a11 a12    a1n
1
B a21 a22    a2n CC
A=B
B@ .. .. .. CA oder A = (aij )mi=1 nj=1 :
. . .
am1 am2    amn
 Mat (m; n; K) ist die Menge aller m  n-Matrizen von Elementen aus K.
 Mat (m; n; K) erhalt die Struktur eines K-Vektorraumes wie folgt:
{ (aij )mi=1 nj=1 = (aij )mi=1 nj=1 ;
{ (aij )mi=1nj=1 + (~aij )mi=1 nj=1 = (aij + a~ij )mi=1nj=1
 Die aij nennt man Matrixkoezienten.
 Fur 1  i  m ist (aij )nj=1 2 K n der i-te Zeilenvektor der Matrix und fur 1  j  n
ist (aij )mi=1 2 K m der j -te Spaltenvektor.

26
Beispiel:
2 0 5  3 1 3 
A = 3 1 7 ; B = 0 8 7 ; A; B 2 Mat(2; 3; IR )
2A =
 4 0 10 
2 5 1 8 
3
3 2 14
1 3 3
3 ; A + B = 3 9 14
2
A hat zwei Zeilenvektoren, namlich (2 0 5) und ( 32 1 7) und drei Spaltenvektoren 23 ; 0; 5.
2 1 7
De nition 2: Sei A 2 Mat(m; n; K). Der Operator der Multiplikation mit A A ist
eine lineare Abbildung
A : K n ! KPmn
A  (xi )ni=1 = ( j =1 aij xj )mi=1
mit A = (aij )mi=1 nj=1 , aij 2 K, xi 2 K.
Fakt 1: Die Abbildung
Mat(m; n; K) ! L(K n ; K m )
A 7! A
ist ein Isomorphismus von K-Vektorraumen.
Beweis: Fur 1  i  m und 1  j  n sei A(ij) die Matrix (a(klij) )m;n
k;l=1 , wobei
0 0  0  0
1
 1 falls i = k und j = l BB ... . . . ..
..
..
CC
a(klij ) = 0 sonst ; d.h. Ai;j = B
B 0    1 0 
CC i-te Zeile
BB . . . .. CC j-te Spalte :
@ .. .. . .. A
0  0  0
O enbar bilden die A(ij ) eine Basis von Mat(m; n; K), denn jede m  n-Matrix A = (aij )mi=1 nj=1
kann als
Xm Xn
A= aij A(i;j ) ()
i=1 j =1
dargestellt werden, und umgekehrt ist diese Darstellung eindeutig, weil aus () folgt, da die aij
mit den Matrixkoezienten von A ubereinstimmen. Also bilden die m  n Matrizen A(ij ) , 1  i 
m, 1  j  n, eine Basis von Mat (m; n; K) und dim(Mat (m; n; K)) = m  n = dim(L(K n ; K m )).
Daher genugt es, die Injektivitat der betrachteten Abbildung zu zeigen. Aus A = 0 folgt bei
Anwendung auf den Vektor ej = (ij )ni=1 2 K n 0 = A  ej = (aij )mi=1 (=j-te Spalte von A). Also
gilt a1j = : : : = amj = 0. Weil dies fur alle j mit 1  j  n gilt, folgt A = 0, die betrachtete
Abbildung ist also injektiv und damit auch bijektiv. 2
Fakt 2: Sie A 2 Mat (m; n; K) und sei ej 2 K n, 1  j  n, wie beim Beweis von Fakt
1 de niert. Wir haben gesehen, da A  ej der j-te Spaltenvektor von A ist. Der von diesen
Vektoren erzeugte Unterraum von K m (das Bild von A) ist der Spaltenraum von A. (Analog
dazu ist der Zeilenraum Unterraum von K n .) Daher stimmt das Bild von A mit der linearen Hulle
der Spaltenvektoren von A uberein. Die Dimension dieses Unterraumes von K m nennen wir den
Spaltenrang von A, sie stimmt mit der maximalen Anzahl linear unabhangiger Spaltenvektoren
uberein. 2

27
De nition 3: Sei A 2 Mat (m; n; K) und B 2 Mat (n; o; K), A = (aij )mi=1nj=1 , B =
(bjk )nj=1 ok=1. Das Produkt A  B ist durch die Matrix
0n 1m
X
A  B := @ aij bjk A o 2 Mat (m; o; K)
k=1
j =1 i=1
de niert.
Bemerkung 1: Wenn man in De nition 2 den Vektor x als n  1- Matrix au at, so umfat
De nition 3 De nition 2:
0 a    a 1 0 x 1 0 Pn a1j xj 1
B@ 11.. . . . 1..n CA  B@ ..1 CA = B@ j=1.. CA :
. . . .
Pn a x
am1    amn xm j =1 mj j
Beispiel 1: Sei
1 2 3 01 2 31
Mat (2; 3; Q) 3 A = 4 5 6 Mat (3; 3;Q) 3 B = @ 4 0 0 A
0 5 0
01 2 31
@4 0 0A
" Schema von Falk \  1 2 3  0 5 0
9 17 3
4 5 6 24 38 12
 9 17 3 
AB = 24 38 12 ;
B  A ist nicht de niert.
Fakt 3: Die Matrizenmultiplikation entspricht der Hintereinanderausfuhrung linearer Opera-
toren, d.h. fur A 2 Mat(m; n; K), B 2 Mat (n; o; K), x 2 K o , so gilt A  (B  x) = (A  B)  x,
denn
0n 1m 0 n o 1m
X X X
A  (B  x) = @ aij (Bx)j A = @ aij bjk xk A
j =1 j =1 k=1
0o 0n 1 1m
i=1 i=1
X X
= @ @ aij bjk A xk A = (AB)  x
k=1 j =1 i=1
Weil die Hintereinanderausfuhrung von Abbildungen assoziativ ist, ist es auch die Matrixmul-
tiplikation: aus A 2 Mat (m; n; K), B 2 Mat (n; o; K), C 2 Mat (o; p; K) folgt A  (B  C) =
(A  B)  C 2 Mat (m; p; K). Es gelten fur die Matrizenmultiplikation auch die beiden Distribu-
tivgesetze
~ = AB + AB
(A + A)B ~
A  (B + B)~ = AB + AB~

28
und
( A)( B) = ( )(AB); ; 2 K:
Dagegen gilt das Kommutativgesetz fur Matrizen nicht, selbst wenn beide Seiten wohlde niert
und vom gleichen Typ sein sollten:
0 0 0 1 0 0 0 1 0 0 0 1
0 1  0 0 = 0 0 aber 0 0  0 1 = 0 0 :

De nition 4: Sei n = dim(V ), m = dim(W), B = (b1; : : :; bn) eine geordnete Basis von
f
V , B~ = (~b1 ; : : :; ~bm ) eine geordnete Basis von W. Sei V ! W eine lineare Abbildung, und
sei (aij )mi=1 nj=1, aij 2 K durch
X
m
f(bj ) = aij b~i
i=1
de niert. Die Matrix (aij )mi=1 nj=1 = Mat B;B~ (f) 2 Mat (m; n; K) nennen wir die Ma-
~
trixdarstellung von f bezuglich B und B.
Beispiel 2: Mat (e1;:::;en )(e1 ;:::;em ) (A) = A fur A 2 Mat (m; n; K). Die Matrixdarstellung von
A : K n ! K m bezuglich der Standardbasen ist A. (Auf diese Weise erhalt man eine inverse
Abbildung zu dem in Fakt 1 betrachteten Isomorphismus.)
Fakt 4:
P
1. Fur eine geordnete Basis B = (b1 ; : : :; bn) von V sei iB (x1 ; : : :; xn) = ni=1 xi bi de niert.
In den Bezeichnungen von De nition 4 gilt: fiB = iB~ (MatB;B~ (f)).
K?n A!
?? m
K
iB ?y yiB~
f
V ! W
A = Mat B;B~ (f) kommutiert, d.h. iB~ A = fiB .
2. Die Abbildung
L(V; W ) ! Mat (m; n; K)
f 7! Mat B;B~ (f)
ist ein Vektorraumisomorphismus.
3. Sei U !g V eine lineare Abbildung, B^ = (^b1; : : :; ^bo ) eine Basis von U, dann gilt
Mat B;^ B~ (f  g) = Mat B;B~ (f)  Mat B;B
^ (g):

Beweis:
1. Weil iB und iB~ Isomorphismen sind, ist der Operator der Multiplikation mit Mat B;B~ (f)
durch die Bedingung f(iB (x)) = iB^ (Mat B;B~ (f)  x) bestimmt, namlich
Mat B;B~ (f)  x = iB~1(f(iB (x))):

29
Nach Fakt 1 ist daher auch Mat B;B~ (f) selbst eindeutig durch die Bedingung f(iB (x)) =
iB~ (Mat B;B~ (f)  x) bestimmt. Es verbleibt, diese Gleichung nachzurechnen:
sei Mat B;B~ (f) = (aij )ni=1 mj=1 . Dann gilt:
0m 1 n 0m 1
X X X
f(iB (x1 ; : : :; xm)) = f @ xj bj A = @ aij xj A ~bi
j=1 i=1 j =1

= iB~ Mat B;B~ (f)  x
2. Durch
L(V; W ) !I L((K m ; K n )
I(f) = iB~1  f  iB
ist ein Isomorphismus I von Vektorraumen, denn die Linearitat von I ist leicht nachprufbar,
und eine inverse Abbildung K : L(K m ; K n) ! L(V; W ) ist durch K(g) = iB~  g  iB1 gege-
ben. Nach (1) ist die Abbildung f 7! Mat B;B~ (f) die Verknupfung von I mit dem Inversen
des in Fakt 1 betrachteten Isomorphismus Mat (n; m; K) ! L(K m ; K n). Die Behauptung
folgt, denn die Hintereinanderausfuhrung von Isomorphismen ist ein Isomorphismus.
3. Es gilt fur y 2 K o
(f  g)(iB^ (y)) = f(g(iB^ (y))) = f(iB (Mat B;B ^ (f)  y))
^ (g)  y))
= iB~ (Mat B;B~ (f)  (Mat B;B
= iB~ ((Mat B;B~ (f)  Mat B;B
^ (g))y):
Mit anderen Worten, Mat B;B~ (f)  Mat B;B ^ (g) erfullt die unter (1) angegebene Bedingung
fur die Matrixdarstellung von f  g, die Behauptung folgt nun aus (1). 2

Fakt 5: Sei A 2 Mat (m; m; K). Dann sind folgende Bedingungen aquivalent:
1. Es gibt B 2 Mat (m; m; K) mit
0 1 ::: 0 1
AB = 1m = B
@ ... . . . ... CA = (ij )mi=1mj=1:
0 ::: 1
2. Es gibt C 2 Mat (m; m; K) mit CA = 1m .
3. Die lineare Abbildung K m ! K m , x 7! Ax, ist bijektiv.
0m 1m
X
Beweis: Es gilt 1m x = x fur x 2 K m , denn 1mx = @ ij xj A = (xi)mi=1. Allgemein gilt
j =1 i=1
auch
1m X = X und Y 1m = Y; X 2 Mat (m; k; K); Y 2 Mat (n; m; K):
(3))(1) und (2): Sei x ! f(x) = A  x bijektiv und sei g die inverse Abbildung. Nach Fakt 1
gibt es eine Matrix B mit g(x) = B  x. Dann gilt nach Fakt 3:
(AB)  x = A(B  x) = A(g(x)) = f(g(x)) = x = 1m x:

30
Aus Fakt 1 folgt A  B = 1m . Genauso leitet man B  A = 1m aus der Tatsache her, da g
linksinvers zu f ist.
(1))(3): Sei AB = 1m . Fur alle x 2 K m folgt x = 1m x = (AB)x = A(Bx) 2 Bild (A). Also ist
der Endomorphismus A des endlichdimensionalen Vektorraumes K m ein Epimorphismus und
damit auch ein Isomorphismus und (3) folgt.
(2))(3) Praktisch genauso: aus CA = 1m folgt, da A ein Monomorphismus und damit ein
Isomorphismus ist. 2
De nition 5: Sei K ein Korper.
1. Eine Matrix A 2 Mat (m; m; K) nennen wir invertierbar, falls sie die aquivalenten
Bedingungen von Fakt 5 erfullt.
2. Sei GLm (K)  Mat (m; m; K) die Menge aller invertierbaren m  m-Matrizen, diese
wird, versehen mit dem Matrizenprodukt, eine Gruppe.
3. Sei V ein K-Vektorraum. Aut (V ) sei die Menge der Automorphismen von V , versehen
mit der Hintereinanderausfuhrung von Automorphismen als Gruppenoperation eine
Gruppe.

Bemerkung: Die Gruppenaxiome fur GLm rechnet man leicht nach, das Einselement ist 1m .
Fakt 6: Sei B eine Basis des m-dimensionalen K-Vektorraumes V , dann ist
Aut (V ) ! GLm (K)
f 7! Mat B;B (f)
ein Gruppenhomomorphismus.
Beweis: folgt leicht aus Fakt 4. 2
Bemerkung: Invertierbare m  m-Matrizen konnen auch beim Basiswechsel entstehen. Sei
namlich V m-dimensional und seien B; B~ Basen von V . Aus Fakt 4.3 folgt
Mat B;B~ (Id V )  Mat B;B
~ (Id V ) = Mat B;
~ B~ (Id V Id V )
= Mat B;~ B~ (Id V ) = 1m :
Es folgt Mat B;B~ (Id V ) 2 GLm . Seien U !g V ! f
W lineare Abbildungen, B 0 und B 00 geordnete
Basen von U bzw. W. Aus Fakt 4.3 folgt
Mat B0 ;B~ (g) = Mat B;B~ (Id V )  Mat B0 ;B (g);
~ 00 (g) = Mat B;B00 (f)  Mat B;B
Mat B;B ~ (Id V ):
Fakt 7: Sei A eine m  n-Matrix, B 2 GLm , C 2 GLn. Dann stimmen die Spaltenraume von
A und AB bzw. A und CAB uberein.
Beweis: Es gilt wegen der Bijektivitat von B
Spaltenraum(AB) = Bild (AB) = Bild (AB )
= Bild (A) = Spaltenraum(A):
Weil C  ein Isomorphismus ist, de niert er einen Isomorphismus
Bild (AB) 7!  Bild (C  (AB)) = Bild ((CAB));
wobei Bild (AB) der Spaltenraum von AB und Bild ((CAB)) der von CAB ist. Es folgt
Spaltenrang(CAB) =Spaltenrang(AB) =Spaltenrang(A). 2

31
De nition 6: Die transponierte Matrix einer m  n Matrix A = (aij )mi=1 jn=1 ist die
n  m Matrix AT = (aji )nj =1 mi=1 .
Beispiel:
0 1 2 3 1T 01 4 71
@ 4 5 6 A = @ 2 5 8 A:
7 8 9 3 6 9
Fakt 8: Sei V !f W eine lineare Abbildung endlichdimensionaler Vektorraume, B = (b1 ; : : :; bn)
eine geordnete Basis von V , B~ = (~b1; : : :; ~bm ) eine Basis von W, B  = ( 1 ; : : :; n ) die zu B
duale Basis von V  , B~  = ( ~1 ; : : :; ~m ) die zu B~ duale Basis von W  . Dann gilt
Mat B~ ;B (f  ) = Mat B;B~ (f)T :
Beweis: Sei A = Mat B;B~ (f); a = (aij )ni=1 mj=1 ; AT = B; B = (bij )mi=1 jn=1 ; bij = aji. Es gilt
m X X m XX ~ m n
(f  ( ~j ))( i bi ) = ~j (f( i bi )) = ~j ( ali i bl )
i=1 i=1 i=1 l=1
X
m X
n X
m
= ali i jl = ajii
i=1 l=1 i=1
Xm Xm
= aji i ( k bk )
i=1 k=1

Es folgt:
X
m X m
f  ( ~j ) = aji i = bij i ; also Mat B~ ;B (f  ) = B = AT : 2
i=1 i=1
Folgerung 1: Aus Fakt 2.4.8 ((fg) = g f  ), Fakt 3 und Fakt 8 folgt:
(AB)T = B T  AT :
Dies konnte man leicht direkt nachrechnen!
Folgerung 2: Die transponierte Matrix einer invertierbaren Matrix A ist invertierbar, und
(AT ) 1 = (A 1 )T . Aus Folgerung 1 folgt, da (A 1 )T tatsachlich die inverse Matrix zu AT ist.
De nition: Der Zeilenraum bzw. -rang von A ist der Spaltenraum bzw. -rang von AT .
Bemerkung: Aus Folgerung 1, Folgerung 2 und Fakt 7 folgt, da sich der Zeilenrang einer
Matrix bei Multiplikation mit einer invertierbaren Matrix nicht andert.
Folgerung 3: Der Spalten- und der Zeilenrang einer Matrix A stimmen uberein.
Beweis: Es gibt Vektorraume V und W mit Basen B und B~ und eine lineare Abbildung f :
V ! W mit Mat B;B~ (f) = A. Dann gilt:
f(iB (x)) = iB~ (A  x); x 2 K dim V :

32
Weil iB und iB~ Isomorphismen sind, de niert iB~ einen Isomorphismus des Bildes von A auf das
Bild von f. Also gilt: Spaltenrang(A) = dim(Bild(A)) = dim(Bild (f)). Wenn man denselben
Sachverhalt aus f  und die Basen B~  und B  anwendet, so folgt:
Zeilenrang(A) = Spaltenrang(AT ) = dim(Bild (AT )) = dim(Bild(f  )) = dim(Bild (f))
nach Folgerung 2.5.4, damit folgt die Behauptung. 2
De nition 8: Man nennt den Spaltenrang (=Zeilenrang) einer Matrix A den Rang von
A und schreibt Rang (A) oder rank (A).
Bemerkung 1: Sei V !f W einer lineare Abbildung zwischen endlichdimensionalen Vek-
torraumen, dann gilt:
rang (f) Def=2.4.8 dim(Bild (f)) = rang (Mat B;B~ (f)):
Dies folgt aus dem Beweis von Folgerung 3.
Eine n  n Matrix A ist genau dann invertierbar, wenn ihr Rang gleich n ist. In der Tat gilt:
A invertierbar , A : K n ! K n ist bijektiv
, A : K n ! K n ist surjektiv
, dim(Bild (A)) = n
, rang (A) = n
Bemerkung 2: Die Abbildung
Mat (m; n; K) ! Mat(n; m; K)
A 7 ! AT
ist ein Isomorphismus von Vektorraumen. Es gilt (AT )T = A.
3.2 Das Eliminationsverfahren von Gau
Dieses Verfahren dient der Bestimmung des Ranges einer Matrix, gegebenenfalls der Berechnung
ihrer inversen Matrix oder der Au osung linearer Gleichungssysteme. Sei A = (aij )mi=1 jn=1 und
sei bP=n (bi )mi=1 . Dann ist die Gleichung A  x = b fur x 2 K n aquivalent zu den m Gleichungen in
K: i=1 aij xj = bj fur 1  i  m, d.h.
a11x1 + a12 x2 +    + a1nxn = b1
a21x1 + a22 x2 +    + a2nxn = b2
.. . . .
. + .. + + .. = ..
am1 x1 + am2 x2 +    + amn xn = bm
Die Menge der b 2 K n , fur die diese Gleichungen eine gemeinsame Losung haben, stimmt mit
dem Bild von A (=Spaltenraum von A) uberein.
De nition 1: Eine m  n-Matrix A ist in Zeilenstufenform, falls eine Zahl r  0 und
Zahlen 0 < j1 < j2 < : : : < jr  n existieren, so da folgende Bedingungen erfullt sind:
1. aij = 0 fur i > r;
2. Fur i  r gilt aiji 6= 0 und aij = 0 fur j < ji .

33
Beispiel: Die folgenden Matrizen sind in Zeilenstufenform:
1 2 3

r = 2; j1 = 1; j2 = 3
0 10 20 7
3
1
@0 0 7A r = 2; j1 = 1; j2 = 3
0 10 40 0
7
1
@0 5 8A r = 3; j1 = 1; j2 = 2; j3 = 3
0 0 9
Die folgenden Matrizen sind nicht in Zeilenstufenform:
1 3 01 2 31 0 0 0
@ A
4 6 ; 00 05 16 ; 1 2 3 :
Fakt 1: Wenn A eine Matrix in Zeilenstufenform ist, so sind ihre von 0 verschiedenen Zeilenvek-
toren linear unabhangig. Insbesondere bilden diese Vektoren eine Basis des Zeilenraumes, und
der Zeilenrang ist r, wobei r dieselbe Bedeutung wie in De nition 1 hat.
Beweis:
P Die Zahlen 1  j1 < j2 < : : : < jr  n seien wie in De nition 1 gewahlt. Angenommen,
0 = rk=1 k (aki)ni=1 und nicht alle k 2 K sind 0. Seien 1 = : : : = k0 1 = 0 und k0 6= 0:
Dann ist der jk0 -te Koezient der untersuchten Summe
X
r X
r
k akjk0 = k akjk0 = k0 ak0 jk0 6= 0
k=1 k=k0
im Widerspruch zu unserer Annahme. Die von 0 verschiedenen Zeilenvektoren sind also linear
unabhangig. Sie bilden daher eine Basis des Zeilenraumes, und der Zeilenrang ist r.
Fakt 2: Sei A eine m  n -Matrix in Zeilenstufenform und b = (b1 ; : : :; bm ) 2 K m: Das lineare
Gleichungssystem A  x = b hat genau dann eine Losung x 2 K n , wenn bi = 0 fur i > r
gilt. Sei M = fj1 ; : : :; jr g. Die Variablen xi mit i 62 M nennen wir frei. Wenn eine Losung
des untersuchten Gleichungssystems existiert, so ist diese durch Vorgabe der freien Variablen
eindeutig bestimmt. Die gebundenen Variablen konnen aus den freien wie folgt berechnet werden:
 Pn 
1. xjr = arj1 r  br j =jr +1 a rj xj xj frei.
 n P 
2. Seien xjk+1 ; : : :; xjr bereits bestimmt, dann gilt: xjk = arj1 k  bk j =jk +1 akj xj
xj entweder frei oder gebunden und bereits berechnet:
Insbesondere gilt: wenn eine Losung existiert, so ist die genau dann eindeutig, wenn keine freien
Variablen existieren, d.h. , wenn r = n gilt.
Beispiel: (rationale Koezienten)
07 6 51
@ 0 0 1 A ; m = n = 3; r = 2; jn = 1; j2 = 3:
0 0 0
Sei b = (b1; b2; b3) vorgegeben. Das Gleichungssystem hat dann die Gestalt:
7x1 + 6x2 + 5x3 = b1 7x1 + 6x2 + 5x3 = b1
0x1 + 0x2 + x3 = b2 ) x3 = b2
0x1 + 0x2 + 0x3 = b3 0 = b3

34
Es kann nur losbar sein, wenn b3 = 0. Dann ist genau die Variable x2 frei, und unsere Formeln
lauten:
x3 = b2
x1 = b1 6x72 5x3 = b1 6x72 5b2 :
Auf diese Weise erhalt man in der Tat Losungen des Gleichungssystems (falls b3 = 0).
Beweis von Fakt 2: Die k-te Gleichung des betrachteten Systems lautet:
X
n
akj xj = bk :
j =1
Fur k > r verschwinden alle akj , also mu bk = 0 sein, wenn eine Losung existieren soll. Die
Notwendigkeit unserer Bedingung fur die Losbarkeit ist somit bewiesen.
Wenn sie erfullt ist, dann sind die letzten m r Gleichungen
P (die k-te mit P r < k  m) automatisch
erfullt. Fur 1  k  r ist die k-te Gleichung bk = nj=1 akj xj = nj=jk akj xj (denn akj = 0
fur j < jk ) zu xjk = akj1 k  bk
Pn a x aquivalent, d.h. zu unserer Vorschrift zur
j =jk+1 kj j
Bestimmung der gebundenen Variablen aus der freien. Damit sind sowohl die Hinlanglichkeit als
auch unsere Beschreibung der Losungsmenge veri ziert. Die letzte Behauptung ist klar. 2
Bemerkung 1: Der Spaltenraum von A stimmt mit der Menge aller b, fur die A  x = b losbar
ist, uberein. Nach Fakt 2 ist seine Dimension r. Insbesondere haben wir einen neuen Beweis fur
Zeilenrang = Spaltenrang fur Zeilenstufenmatrizen gefunden.
Fakt 3: Eine m  m-Matrix A in Zeilenstufenform kann genau dann invertiert werden, wenn
r = m gilt. In diesem Fall kann die Bestimmung der inversen Matrix dann durch Au osung von
A  si = ei ; 1  i  n; ej = (ij )mi=1
nach si erfolgen. si ist dann der i-te Spaltenvektor von A.
Beweis: Sei A eine m  m-Matrix und sei si der i-te Spaltenvektor von B, dann bilden die A  si,
1  i  m, die Spaltenvektoren von A  B. Daher ist A  B = 1m aquivalent zu A  si = ei (denn
der i-te Spaltenvektor von 1m ist ei ). Fur i > r wird diese Gleichung nach Fakt 2 unlosbar, also
mu r = m sein, wenn A invertierbar sein soll. In diesem Fall sind die Gleichungen fur die si
nach Fakt 2 eindeutig losbar.
Beispiel: 0 1 0 80 1 1 0 a b c 1 0 1 0 1
40
@ 0 23 46 A = @ d e f A = @ 0 231 1 A
0 0 2 g h i 0 0 12
1 + 80g = 1 g = 0 (3.Gl)
23d 46g = 0 =) d = 0 (2.Gl)
2e = 0 a = 1 (1.Gl)
b + 80h = 0 h = 0 (3.Gl)
23e 46h = 1 =) e = 231 (2.Gl)
2h = 0 b = 0 (1.Gl)
c + 80i = 0 i = 1 (3.Gl)
2
23f 46i = 0 =) f = 1 (2.Gl)
2i = 1 c = 40 (1.Gl)

35
De nition 2: Eine elementare Zeilentransformation einer Matrix A bzw. des Glei-
chungssystems Ax = b ist eine der folgenden Transformationen:
1. Vertauschung zweier Zeilen in A bzw. in Ax = b.
2. Addition des Vielfachen einer Zeile zu einer anderen Zeile.

Fakt 4: Eine elementare Zeilentransformation ist die linke Multiplikation von A oder Ax = b
mit einer der invertierbaren Matrizen
Zeilenvertauschung:
01 0 ::: 0 0 1
BB 0 . . . 0
CC
BB 1
CC
BB CC
BB 0 1 CC 81
B. 1 : : : 0 > k = l 6= i; j
Tij = B BB .. .. . . . .. .. C = (t(i;j ))mk;l=1 mit t(i;j ) = < 1
C
C k = i; l = j
. . . C kl kl >
BB 0 ::: 1 CC : 10 k = j; l = i
sonst
BB 1 0 CC
BB 1 CC
B@ ... 0 C A
0
0 0 ::: 0 1
Addition des -fachen der i-ten Zeile auf die j-te,  2 K, i 6= j:
0 1 ::: ::: 0 1
BB ... . . . .. C
. C
BB 1 ::: 
CC 8 1 k=l
BB .. . . . .. C
C <
(i;j ) ())m mit e(i;j ) () =  k = i; l = j
Eij () = B BB . . C =
CC kl(e k;l=1 kl : 0 sonst
BB . 0 ::: 1 C
@ .. . . . ... C A
0 ::: ::: 1
 steht in der i-ten Zeile, j-ten Spalte. Weiterhin gilt
Tij2 = 1m und Eij ()  Eij ( ) = 1m :
Insbesondere andert eine solche Umformung weder die Losungsmenge eines linearen Gleichungs-
systems noch den Zeilenrang bzw. Spaltenrang oder den Zeilenraum.
Beweis: Es ist leicht zu sehen, da das Ersetzen von A (bzw. von Ax = b) durch Tij A oder
Eij ()A (bzw. durch (Tij A)x = Tij b oder (Eij ()A)x = Eij ()b) in der Tat das behauptete
bewirkt.
Die Behauptung uber das Inverse von Tij und Eij () sind ebenfalls leicht nachzurechnen.
Sei B invertierbar mit inverser Matrix B 1 . Aus Ax = b folgt (BA)x = B(Ax) = Bb und aus
(BA)x = Bb folgt Ax = 1m Ax = (B 1 B)Ax = B 1 ((BA)x) = B 1 (Bb) = b Damit andert sich
die Losungsmenge nicht.
Die Behauptung uber den Zeilenraum und den Zeilenrang folgt aus Fakt 3.1.7 und Folgerung
3.1.1, ebenso die Behauptung uber den Spaltenrang. 2

36
De nition 3: Eine m  m-Matrix A = (aij )mi=1nj=1 ist in k-Zeilenstufenform, 0  k  m,
falls Zahlen 0 < j1 < j2 < : : : < jk  m existieren, so da folgende Bedingungen erfullt
sind:
1. Fur 1  i  k gilt aiji 6= 0 und aij = 0 fur j < ji .
2. Fur k < i  m und 1  j  jk gilt aij = 0.

Beispiel 3: 00 1 2 3 01
01 2 3 1
@ 0 8 9 A und BB@ 00 00 87 91 00 CCA
0 7 10 0 0 0 0 0
sind in 1-Zeilenstufenform (j1 = 1 bzw. j1 = 2). Jede Matrix liegt in 0-Zeilenstufenform vor.
Eine Matrix A ist in m-Zeilenstufenform genau dann, wenn A ist in Zeilenstufenform und r = m
(r gema De nition 1).
A ist in Zeilenstufenform vom Rang r genau dann, wenn A in r-Zeilenstufenform ist und fur
r < k  m die k-te Zeile verschwindet.
Wir mochten nun den Eliminationsalgorithmus von Gau beschreiben. Generell besteht ein Al-
gorithmus aus einer Folge von Anweisungen, durch die bestimmten Variablen bestimmte Werte
(in unserem Fall naturliche Zahlen oder Elemente von K) zugeordnet werden. Wir schreiben
x Ausdruck;
falls der Variablen x der Wert von Ausdruck zugeordnet wird, z.B. ordnet x y=3 x ein Drittel
der Variablen y zu.
U berfuhrung einer Matrix A 2 Mat (m; n; K) oder des Gleichungssystemes Ax = b
oder von Ax( ) = b( ), 1   r in Zeilenstufenform:
1. k 1.
2. An dieser Stelle liegt die Matrix A in (k 1)-Zeilenstufenform vor. Wenn aij = 0 fur
k  i  m und 1  i  m gilt, so liegt die Matrix sogar in vollstandiger Zeilenstufenform
mit r = k 1 vor und das Verfahren bricht ab.
Andernfalls sei jk = minfj j 9 i : k  i  m; aij 6= 0g. Da die Matrix bereits in (k 1)-
Zeilenstufenform vorliegt, gilt jk > jk 1 (= 0 fur k = 1). Sei l (eine naturliche Zahl, so
da k  l  m gilt und aljk 6= 0). aljk ist das k-te Pivotelement.
3. Indem wir die l-te mit der k-ten Zeile vertauschen (sowohl in A als auch, falls gegeben in
b bzw. b( )), konnen wir erreichen, da akjk = k-tes Pivotelement 6= 0.
4. Hier ist akjk 6= 0. Setze p akj1k . Fur alle i mit k < i  m fuhre man folgende elementare
Zeilenumformung durch: Multiplikation der k-ten Zeile mit p  aijk und Addition des
Ergebnisses zu der i-ten Zeile. Genauer gesagt:
(a) Setze q paijk .
(b) Fur jk  j  n setze aij aij qakj .
5. A ist nun in k-Zeilenstufenform. Wenn k = m gilt, sind wir fertig. Andernfalls setzen wir
k k + 1 und gehen zu Schritt 2 zuruck.

37
Beispiel 4: 0 1 1 2 1 011
@ 30 30 63 A x = @ 1 A
14 16 37 1
(1) k 1
(2) l 1; jk 1 Das Pivotelement ist a11 = 1
(3) bewirkt
0 1 1 weiter1 nichts,
0 denn 1k = l.
2 1
(4) @ 0 0 3 A x = @ 29 A (5) k 2, zuruck zu 2
0 2 6 13
(2) j2 2; l 3
(3) Vertausche die 2. und 3. Zeile.
01 1 21 0 1 1
@ 0 2 3 A x = @ 13 A
0 0 3 29
(4) In diesem Fall mu nur noch die dritte Zeile durch Subtrahieren des 0-fachen der 2. Zeile
korrigiert werden, was uber ussig ist. Die Matrix ist in Zeilenstufenform und der Algorithmus
bricht ab.
Bemerkung:
 Da fur Zeilenstufenmatrizen Zeilen- und Stufenrang ubereinstimmen und elementare Zei-
lentransformationen beide Range nicht andern, haben wir auch einen neuen Beweis dafur
gefunden, da Zeilenrang = Stufenrang.
 Bestimmung des Ranges einer Matrix:
U berfuhren in Zeilenstufenform mittels elementarer Zeilentransformationen. Ablesen des
Ranges der dabei erhaltenen Zeilenstufenmatrix.
 Au osung linearer Gleichungssysteme:
U berfuhrung in Zeilenstufenform, Anwendung des in Fakt 2 beschriebenen Verfahrens auf
das umgeformte System.
 Bestimmung der inversen Matrix:
Durch Au osung von Asi = ei . Die si bilden (falls sie existieren) die Spalten der inversen
Matrix A 1. Andernfalls ist die m  m-Matrix A nicht invertierbar (vgl. Fakt 3).
 Bestimmung einer Basis des Zeilenstufenraumes:
U berfuhrung der Matrix durch elementare Zeilentransformationen in Zeilenstufenform. Die
von 0 verschiedenen Zeilenvektoren des Ergebnisses bilden eine Basis des Zeilenraumes
(Fakt 4 und Fakt 1).
 Bestimmung einer Basis des Spaltenraumes:
Bestimme eine Basis des Zeilenraumes der transponierten Matrix.
Fakt 5: Die U berfuhrung
3
einer m  m Matrix in Zeilenstufenform nach dem beschriebenen
m
Algorithmus kostet 3 + O(m2 ) Multiplikationen und Subtraktionen. 2
De nition: Seien f; g : IN ! IR Funktionen. Man sagt, da f die Wachstumsordnung
O(g(n)) hat, falls eine Konstante c > 0 und ein n0 2 IN existieren mit
jf(n)j  c  g(n) fur alle n  n0 :

38
Bemerkung 3: In der Praxis kommt es beim Umgang mit reellen Matrizen sehr auf die geschick-
te Wahl der Pivotelemente an. (vgl. Press, Flannery, Teukolsky, Vetterling: Numerical
Recipes | erhaltlich fur C, Fortran, Pascal).

4 Determinanten und multilineare Algebra


4.1 Einige Fakten uber Permutationen
Wir erinnern daran, da Sn die Gruppe der bijektiven Abbildungen von f1; : : :; ng auf sich
selbst ist. Solche Abbildungen nennt man auch Permutationen. Man schreibt eine Permutation
 2 Sn oft als die zweizeilige Matrix:
 1 2  n 
(1) (2)    (n) :
1 2 3
Zum Beispiel ist 3 1 2 die Permutation mit (1) = 3; (2) = 1; (3) = 2.
De nition 1: Fur zwei verschiedene Elemente i; j 2 f1; : : :; ng sei (i; j) die Permutation,
welche i und j vertauscht und alle anderen Zahlen auf sich selbst abbildet.
8 x x 2 f1; : : :; ng fi; jg
<
(i; j)(x) = : j x=j :
i x=i
Man nennt (i; j) die Transposition von i und j.
Fakt 1:
1. Jedes Element von Sn kann als Produkt von hochstens n 1 Transpositionen dargestellt
werden.
2. jSn j = n! = n  (n 1)  : : :  2  1.
Beweis: Fur n = 1 sind beide Behauptungen klar. Fur n > 1 betrachten wir Sn 1 als die
Untergruppe
n[1
f 2 Sn j (n) = ng  Sn ; Sn = Sn 1[_ (j; n)Sn 1: ()
j =1
Aus () folgen beide Behauptungen durch Induktion nach n. () impliziert
nX1 nX1
jSnj = jSn 1j + j(j; n)Sn 1j = jSn 1j + jSn 1 j = n  jSn 1j;
j =1 j =1
was (2) beweist. Um (1) durch Induktion nach n zu zeigen, sei  2 Sn . Wenn sogar  2 Sn 1
gilt, so ist  nach Induktionsannahme ein Produkt von weniger als n 2 Transpositionen, an-
dernfalls ist  nach () von der Form (j; n) mit 1  j  n und  2 Sn 1 . Dann ist  nach
Induktionsvoraussetzung Produkt von weniger als n 2 Transpositionen und  ist ein Produkt
von weniger als n 1 Transpositionen.
Es verbleibt der Beweis von (). Die rechte Seite von () ist sicher eine disjunkte Vereinigung,
denn aus  2 Sn 1 folgt (n) = n und aus  2 (j; n)Sn 1 folgt (n) = j 6= n. Sei  2 Sn und

39
j = (n). Falls j = n gilt, ist  2 Sn 1 . Andernfalls gilt (j; n) 2 Sn 1 . Nun betrachten wir
(j; n)2 = Id . Es gilt
 = Id   = (j; n)((j; n)) 2 (j; n)Sn 1
Damit ist () bewiesen. 2
Bemerkung: Es gilt (j; n)2 = Id und (j; n) = (n; j).
De nition: Fur  2 Sn sei
F = f(x; y) j x < y und (x) > (y)g
die Menge aller Fehlstande von , l() = jF j die Lange von  und sign () = ( 1)l()
das Signum von . Man nennt  gerade oder ungerade, je nachdem, ob sign () = 1
oder sign () = 1 gilt.
Bemerkung:
1.  = Id genau dann, wenn l() = 0.
2. Es gilt
F(i;j ) = f(i; j)g[f
_ (i; k) j i < k < j g[f
_ (k; j) j i < k < j g
fur i < j. Die Vereinigung ist disjunkt, es folgt
l((i; j)) = 2(j i) 1 und sign ((i; j)) = 1:
Satz 1: Fur ;  2 Sn gilt: sign () = sign ()sign (), d.h. sign ist ein Gruppenhomorphis-
mus von Sn nach der multiplikativen Gruppe f1g.
Beweis: Fur 1  i < j  n ist (i; j) genau dann ein Fehlstand von , wenn eine der beiden
folgenden Aussagen gilt:
1. (i; j) ist kein Fehlstand von , und ((i); (j)) ist ein Fehlstand von .
2. (i; j) ist ein Fehlstand von , und ((j); (i)) ist kein Fehlstand von .
Diese Moglichkeiten schlieen sich aus. Sei
N = f(i; j) j (i; j) 62 F ^ ((i); (j)) 2 F ) _ ((i; j) 2 F ^ ((j); (i)) 2 F )g:
Es gilt jN j = jF j = l(). Also haben wir erhalten
F = (F N) [ (N F ):
Dann folgt die Behautung aus folgendem
Lemma: Seine X und Y endliche Mengen, dann ist j(X Y ) [ (Y X)j jX j jY j gerade.
Es gilt
jF j jN j jFj = jF j jF j jFj = l() l() l()
ist gerade. Man erhalt
sign () = sign ()sign ()  ( 1)l() l() l() = sign ()sign (): 2

40
Beweis des Lemmas: Die Vereinigung (X Y ) [ (Y X) ist eine disjunkte Vereinigung, also
j(X Y ) [ (Y X)j = jX Y j + jY X j:
Es gilt jX Y j = jX j jX \ Y j, denn X = (X Y )[_ (X \ Y ). Ebenso gilt jY X j = jY j jX \ Y j.
Es folgt:
j(X Y ) [ (Y X)j = (jX j jX \ Y j) + (jY j jX \ Y j)
und damit:
j(X Y ) [ (Y X)j jX j jY j = 2jX \ Y j: 2
Folgerung 1: Wenn eine Permutation  als Produkt von Transpositionen dargestellt ist, dann
ist die Anzahl der Faktoren in dieser Darstellung genau dann gerade, wenn  gerade ist.
Beweis: Sei  = 1  : : :  k mit Transpositionen i , 1  i  k, dann gilt sign (i ) = 1, also ist
sign() = sign (1 )  : : :  sign (k ) = ( 1)k . Also ist k genau dann gerade, wenn sign () = 1. 2
Satz 2: Sei  2 Sn und 1  x < n und (x + 1) < (x). Dann gilt
l(  (x; x + 1)) = l() 1:

Beweis: Seien
A = fy j y < x ^ (y) > (x)g
B = fy j y < x ^ (y) > (x + 1)g
C = fy j y > x + 1 ^ (y) < (x)g
D = fy j y > x + 1 ^ (y) < (x + 1)g
E = f(i; j) 2 F j i 62 fx; x + 1g ^ j 2= fx; x + 1gg
Dann gilt
F = E
|{z} B  fx + 1g} [ |fxg  C [ {z
[ |A  fxg [ {z fx + 1g  D} [ |f(x; x{z+ 1)g}
i;j 62M :=fx;x+1g i=2M ^j 2M i2M;j 2=M i;j 2M
Zwischenuberlegungen: Sei 1  i < j  n.
1. Sei f(i; j)g \ f(x; x + 1)g = ;. Dann lat (x; x + 1) i und j fest, also gilt (i; j) 2 F(x;x+1).
2. Fur i 2= f(x; x + 1)g; j 2 f(x; x + 1)g gilt
(a) j = x: dann (  (x; x + 1))(x) = (x + 1). Also (i; x) 2 F(x;x+1) , i 2 B.
(b) j = x + 1: dann (i; x + 1) 2 F(x;x+1) , i 2 A.
3. Fur i 2 f(x; x + 1)g; j 2= f(x; x + 1)g gilt
(a) i = x: dann (x; j) 2 F(x;x+1) , j 2 D.
(b) i = x + 1: dann (x + 1; j) 2 F(x;x+1) , j 2 C.
4. Sei f(i; j)g = f(x; x + 1)g. Dann: (i; j) = (x; x + 1) 62 F(x;x+1) .

41
Damit folgt:
E [ |B  fxg [ {z
F(x;x+1) = |{z} A  fx + 1g} [ |fxg  D [ {z
fx + 1g  C}
1: 2: 3:
und
l() = jE j + jAj + jB j + jC j + jDj + 1 = 1 + jE j + jB j + jAj + jDj + jC j
= 1 + l(  (x; x + 1))
2
Bemerkung: Wenn (x) < (x + 1), so gilt l(  (x; x + 1)) = l() + 1. Dies zeigt man genauso
wie Satz 2 oder leitet es aus Satz 2 her (U bungsaufgabe).
Folgerung 2: Jede Permutation  kann als Produkt von l() Transpositionen der Form (x; x+1)
geschrieben werden.
Beweis durch Induktion nach l(): Sei l() = 0. Dann ist  = Id zu zeigen. Wegen l() = 0
folgt (a) < (b) fur 1  a < b  n. Dann gilt (k) = k fur 1  k  n: ware (1) 6= 1, so wurde
(1) > 1 folgen, also (a)  (1) > 1 fur ein 1  a  n, also 1 2= Bild () im Widerspruch zur
Bijektion von . Sei nun (1) = 1; : : :; (k 1) = k 1. Aus (k) 6= k wurde (k) > k und damit
(a)  (k) > k fur ein k  a  n folgen, also k 2= Bild () Widerspruch. Also gilt (k) = k.
Die Behauptung sei fur Permutationen  mit l() < l() bewiesen, und es gelte l() > 0. Dann
gibt es ein x mit 1  x < n und (x + 1) < (x). (Andernfalls wurde leicht F = ; folgen). Sei
 =   (x; x + 1). Nach Satz 2 gilt l() = l() 1, und  ist nach Induktionsvoraussetzung ein
Produkt von l() 1 Transpositionen benachbarter Zahlen. Es folgt, da
 = Id = (x; x + 1)  (x; x + 1) = (x; x + 1)
ein Produkt von l() Transpositionen benachbarter Zahlen ist. 2
4.2 Charakteristik eines Korpers
Sei K ein Korper.
De nition 1: Fur ganze Zahlen n sei nK 2 K folgendermaen de niert:
0K = 0 (Nullelement der additiven Gruppe)
1K = 1 (Einselement der multiplikativen Gruppe)
(n + 1)K = nK + 1 fur n  0.
nK = ( n)K fur n < 0.

Bemerkung: nk = n  1K (Produkt der ganzen Zahl n mit dem Element 1 der additiven Gruppe)
nK = |1 + :{z: : + 1} 2 K, fur n > 0:
n Summanden
Lemma 1:
1. (n + m)K = nK + mK
2. (n  m)K = nK  mK

42
Beweis:
1. (wurde bereits fur beliebige additiv geschriebene Gruppen formuliert und begrundet, wir
wollen aber noch einen ordentlichen Induktionsbeweis anfuhren!)
Fall 1: n  0, m  0
Beweis durch Induktion nach m: Fur m = 0 ist die Behauptung klar:
(n + 0)K = nK = nK + 0 = nk + 0k
Induktionsschlu von m auf m + 1:
(n + (m + 1))K = (n + m)K + 1 De nition 1
= nK + mK + 1 Induktionsvoraussetzung
= nK + (m + 1)K De nition 1
Fall 2: n  0; m < 0:
(i) n  0; m < 0; n + m  0: Es gilt nK = ((n + m) + ( m))K = (n + m)K + ( m)K
nach Fall 1. Aus De nition 1 folgt daher
nK + mK = nK ( m)K = (n + m)K :
(ii) n  0; m < 0; n + m < 0: Dann gilt ( m) = ( (n + m)) + n, also ( m)K = ( (n +
m))K + nK nach Fall 1 und damit (n + m)K = ( (n + m))K = (( m)K nK ) =
nK ( m)K = nK + mK nach De nition 1.
Fall 3: n < 0; m > 0: Wie Fall 2, denn die Aussage ist in n und m symmetrisch.
Fall 4: n < 0; m < 0:
(n + m)K = (( n m)K ) De nition 1
= (( n)K + ( m)K ) Fall 1
= ( n)K ( m)K
= nK + mK De nition 1
2. Fall 1: m  0; n beliebig: Vollstandige Induktion nach m.
 Fur m = 0 gilt (n  0)K = 0K = 0 = nK  0 = nK mK
 Schlu von m auf m + 1:
nK (m + 1)K Def.1
= nK (mK + 1)
= nK  mK + nK
IV
= (n  m)K + nK
(1)
= (n  m + n)K
= (n  (m + 1))K

Fall 2: m < 0,n beliebig: Es gilt (mn)K + ( mn)K = 0K = 0 nach (1), also (mn)K =
= nK ( ( m)K ) = nK ( m)K Fall
( mn)K . nK  mK Def.1 = 1 ( nm)K = (nm)K : 2
Lemma 2: Fur einen Korper K gibt es zwei Moglichkeiten
43
1. nK 6= 0 fur alle n 2 Z f0g;
2. andernfalls gibt es eine Primzahl p, so da nK = 0 genau dann gilt, wenn p n teilt.
De nition 2: Fur ganze Zahlen n sei nK 2 K. In der Situation von Lemma 2 sagen wir,
da
1. K Charakteristik 0 hat;
2. K Charakteristik p hat.

Beweis von Lemma 2: Angenommen, Fall (1) tri t nicht zu. Dann gibt es n 2 Z f0g mit
nK = 0. Dann gilt auch ( n)K = 0, also konnen wir n > 0 voraussetzen. Sei p die kleinste
positive ganze Zahl mit pK = 0.
Behauptung:
1. p ist Primzahl;
2. nK = 0 genau dann, wenn p j n.
Aus (1) und (2) folgt, da Fall (2) von Lemma 2 eintritt.
zu 1. Wenn p keine Primzahl ist, so gibt es a; b 2 Z, a > 1; b > 1; p = a  b. Wegen a < p und
b < p gilt aK 6= 0 und bK 6= 0 nach der Auswahl von p. Weil K f0g multiplikativ abgeschlossen
ist, folgt 0 6= aK  bK = (a  b)K = pK im Widerspruch zur Auswahl von p.
zu 2. Sei n 2 Z. Dividiere n mit Rest durch p: n = a  p + r, a; r 2 Z, 0  r < p. Nach Lemma 1
gilt
nK = aK pK + rK = rK :
Weil p die kleinste positive ganze Zahl mit pK = 0 ist, verschwindet dieses Korperelement genau
dann, wenn r = 0 gilt, d.h., wenn n durch p teilbar ist. 2
Beispiel: char (Q) = char (IR) = char (C) = 0. char (IFp ) = p, denn
pK = |1K + :{z: : + 1K}
p Summanden
= |1 + pZ + :{z: : + 1 + pZ}
p Summanden
= p+pZ
= pZ
= 0K :
Bemerkung: Wenn K ein Korper und p eine Primzahl mit pK = 0 ist, so hat K die Charakte-
ristik p, denn p ist die einzige Primzahl, welche p teilt.
Die Bezeichnungsweise nK wird normalerweise nicht verwendet.
De nition 3: Sei char (K) = p, x 2 K, und r = nz 2 Q, wobei z und n teilerfremd sind
und n nicht durch p teilbar ist (Fur p = 0 bedeutet dies nur n 6= 0). De niere
r  x = zKn  x :
K

Bemerkung: In Zukunft schreiben wir n  1 statt nK .


44
Bemerkung: Fur die Multiplikation von Korperelementen mit rationalen Zahlen gelten folgende
Rechenregeln: sei x; y 2 Q, wobei die Nenner von x und y nicht durch char (K) teilbar sind. Dann
gilt fur k; l 2 K:
x(yk) = (xy)k
x(kl) = (xk)l
(x + y)k = xk + yk
x(k + l) = xk + xl

Der Beweis ist einfach.


4.3 Schiefsymmetrische n-Linearformen
Sei K ein Korper.
De nition 1: Seien V1; : : :; Vn und W K-Vektorraume, eine Abbildung
f : V1  : : :  Vn ! W
ist n-linear (bilinear fur n = 2; trilinear fur n = 3), falls fur alle i mit 1  i  n und alle
x1 ; : : :; xi 1; xi+1; : : :; xn; xk 2 Vk die Abbildung
Vi ! W : Vi 3 x 7! f(x1 ; : : :; xi 1; x; xi+1; : : :; xn)
eine lineare Abbildung ist. Sei L(V1 ; : : :; Vn; W ) die Menge aller n-linearen Abbildungen
von V1 ; : : :; Vn nach W, versehen mit der folgenden Struktur eines K-Vektorraumes:
(f + g)(x1 ; : : :; xn) = f(x1 ; : : :; xn) + g(x1 ; : : :; xn)
(f)(x1 ; : : :; xn) =   f(x1 ; : : :; xn)

fur f; g 2 L(V1 ; : : :; Vn; W) und  2 K. Die Elemente von L( V;


| :{z: :; V} ; K) nennt man auch
n Stuck
n-Linearformen auf V .
Fakt 1: Fur eine n-lineare Abbildung gelten folgende Gesetze ( 2 K, xix~i 2 Vi):

f(x1 ; : : :; xi 1; xi + x~i; xi+1; : : :; xn) = f(x1 ; : : :; xi 1; xi; xi+1; : : :; xn)
+f(x1 ; : : :; xi 1; x~i; xi+1; : : :; xn);
 f(x1 ; : : :; xi 1; xi; xi+1; : : :; xn) = f(x1 ; : : :; xn).
Es gilt auch
f(1 x1; : : :; nxn) = 1 2  : : :  n f(x1 ; : : :; xn):
Insbesondere gilt f(x1 ; : : :; xn) = 0, wenn eines der xi verschwindet. 2
Beispiel 1:

45
 Fur alle n ist die Abbildung
K  K  :::K ! K
(x1 ; : : :; xn) 7! x1  : : :  xn
eine n-Linearform auf K.
 linear entspricht 1-linear.
 Sei f 2 L(V1 ; : : :; Vn; W) und sei  2 Sn , dann ist die folgende Abbildung g ein Element
von L(V(1) ; : : :; V(n) ; W);
g(y1 ; : : :; yn) = f(y 1 (1) ; : : :; y 1 (n) ):

Zum Beispiel fur f 2 L(V1 ; V2; W) ist g mit g(y1 ; y2) = f(y2 ; y1) ein Element von L(V2 ; V1 ; W ).
 Fur jeden Vektorraum V ist die Abbildung
f :KV ! V
(; v) 7! v
bilinear.
 Sei f eine k-Linearform und g eine l-Linearform auf V , dann ist durch
V  V  :::V ! K
(v1 ; : : :; vk+l ) 7! f(v1 ; : : :; vk )  g(vk+j ; : : :; vk+1)
eine k + l-Linearform de niert.
 Wenn f 2 L(V1 ; : : :; Vn ; W) und g 2 L(W; W), ~ so ist g  f 2 L(V1 ; : : :; Vn ; W):
~
 Wenn f 2 L(V1 ; : : :; Vn ; W) und hi 2 L(V~i ; Vi ), so ist
f(h1  : : :  hn ) : V~1  : : :  V~n ! W
(~v1 ; : : :; v~n) 7! f(h1 (v1 ); : : :; hn(vn ))
n-linear.
 Sei f 2 L(V1 ; : : :; Vn; W) und sei fur 1  i  n hi 2 L(Ui;1 ; : : :; Ui;mi ; Vi ), dann ist die
Abbildung
f(h1  : : :  hn) : L(U1;1  : : :  U1;m1  : : :  Un;1  : : :  Un;mn ) ! W
Uij 7! f(h1 (u1;1; : : :; u1;m1 ); : : :; hn(un;1; : : :; u1;mn ))
m1 + : : : + mn -linear. Zum Beispiel ist fur die Bilinearform f auf V und eine bilineare
Abbildung g : V  V ! V die Abbildung h : V  V  V ! K, h(v1 ; v2; v3) = f(v1 ; g(v2; v3))
eine Trilinearform auf V .
 Sei f : V1  : : :  Vn ! W (n 1)-linear und sei vn 2 Vn . Dann ist
V1  : : :  Vn 1 ! W
(v1 ; : : :; vn 1) 7! f(v1 ; : : :; vn 1; vn) n-linear

46
Lemma 1: Fur einen Vektorraum V und eine n-lineare Abbildung l : V  : : :  V ! W sei
G = f 2 Sn j 8 x1; : : :; xn 2 V : l(x(1) ; : : :; x(n)) = sign()  l(x1; : : :; xn)g
Dann ist G eine Untergruppe von Sn . Deshalb sind folgende Aussagen uber l aquivalent:
1. G = Sn : l multipliziert sich bei Vertauschung seiner Argumente mit dem Vorzeichen der
Permutation.
2. G enthalt alle Transpositionen: l multipliziert sich mit 1 bei Vertauschung zweier Argu-
mente.
3. G enthalt (i; i + 1) fur 1  i < n: l multipliziert sich mit 1 bei Vertauschung zweier
benachbarter Argumente
Beweis: G ist eine Untergruppe:
 Id 2 G, denn sign (Id ) = 1.
 ;  2 G )    2 G : Sei yi = x(i) . Dann gilt x(i) = y(i) . Also
f(x()(1) ; : : :; x()(n) ) = f(y(1) ; : : :; y(n) )
2G
= sign ()f(y1 ; : : :; yn)
= sign ()f(x(1) ; : : :; x(n))
=2G sign ()  sign ()f(x1 ; : : :; xn)
Satz=4.1.1 sign ()f(x ; : : :; x )
1 n
Also  2 G.
  2 G )  1 2 G: Fur x1; : : :; xn 2 V sei yi = x 1 (i). Dann gilt:
f(x1 ; : : :; xn) = f(y(1) ; : : :; y(n) )
2G sign ()f(y ; : : :; y )
=
1 n
= sign ()f(x 1 (1) ; : : :; x 1 (n))
) f(x 1 (1) ; : : :; x 1 (n)) = sign ( 1 )f(x1 ; : : :; xn):
Also  1 2 G, damit ist G eine Untergruppe.
(1))(2))(3) ist klar. Angenommen (3) gilt. Dann (i; i + 1) 2 G fur 1  i < n. Nach Folgerung
4.1.2 ist aber jedes Element  von Sn Produkt solcher Transpositionen, also  2 G, damit gilt
(1). 2
Bemerkung: Wenn K ein Korper der Charakteristik 2 ist, so gilt 1 = 1 in K. In solchen
Korpern durfen wir aus x = x noch nicht x = 0 folgern, denn x = x gilt fur alle x aus einem
K-Vektorraum. Sei char (K) 6= 2, V ein K-Vektorraum, x 2 V und x = x. Dann gilt nach 4.2:
x = 21  2x = 12 (x + ( x)) = 21  0 = 0 ) x = 0
Lemma 2: Sei f wie l in Lemma 1. Dann sind folgende Aussagen aquivalent:
1. f(x1 ; : : :; xn) = 0, falls ein i mit 1  i < n und xi+1 = xi existiert;

47
2. f(x1 ; : : :; xn) = 0, falls i; j mit 1  i < j < n und xi = xj existieren.
Wenn das der Fall ist, so gilt G = Sn in Lemma 1. Wenn char (K) 6= 2 gilt, so sind (1) und (2)
zu G = Sn , d.h. zu jedem der Punkte (1),(2),(3) in Lemma 1 aquivalent.
Beweis:
 (2))(1) ist klar.
 (1)) G = Sn : Wir werden (3) aus Lemma 1 beweisen: sei n = 2. Aus (1) folgt:
0 = f(x1 + x2; x1 + x2) f(x1 ; x1) f(x2 ; x2)
= f(x1 ; x1 + x2) + f(x2 ; x1 + x2) f(x1 ; x1) f(x2 ; x2)
= f(x1 ; x1) + f(x1 ; x2) + f(x2 ; x1) + f(x2 ; x2) f(x1 ; x1) f(x2 ; x2)
= f(x1 ; x2) + f(x2 ; x1)
Also f(x1 ; x2) = f(x2 ; x1).
Sei n > 2, 1  i < n und x1; : : :; xn 2 V . Wir haben
f(x1 ; : : :; xn) = f(x1 ; : : :; xi 1; xi+1; xi; xi+2; : : :; xn)
zu zeigen. Sei g(x; y) = f(x1 ; : : :; xi 1; x; y; xi+2; : : :; xn). Dann ist g bilinear und erfullt
(1), also g(xi ; xi+1) = g(xi+1 ; xi) nach dem bewiesenen Fall n = 2, also erfullt f (3) aus
Lemma 1.
 (1))(2): Wir wissen G = Sn . Sei 1  i < j  n und sei xi = xj . Sei  2 Sn wie folgt
de niert: 8 k 1 k i_j < k  1
<
(k) = : j k = i+1
k 1 i+1< k j
Sei yi = x(i). Dann gilt yi = yi+1 , also gilt
f(x1 ; : : :; xn) G==Sn sign ()f(y1 ; : : :; yn ) (1)
= 0:
 G = Sn und char (K) 6= 2 )(1): Es gilt wegen G = Sn
a := f(x1 ; : : :; xn) = f(x1 ; : : :; xi 1; xi+1; xi; xi+2; : : :; xn):
Falls xi = xi+1 sein sollte, so gilt
a = f(x1 ; : : :; xi 1; xi+1; xi; xi+2; : : :; xn)
= f(x1 ; : : :; xi 1; xi; xi+1; xi+2; : : :; xn) = a

Also a = a. Wegen char (K) 6= 2 folgt daraus a = 0. 2


De nition 2: Eine n-lineare Abbildung f : V  : : :  V ! W, die die aquivalenten Bedin-
gungen aus Lemma 2 erfullt, nennt man schiefsymmetrisch oder antisymmetrisch.
Fakt 2:
1. Wenn l schiefsymmetrisch ist, so andert es seinen Wert nicht, wenn man ein Vielfaches
eines Argumentes zu einem anderen Argument hinzuaddiert.

48
2. Wenn die x1; : : :; xn linear abhangig sein sollten, so gilt f(x1 ; : : :; xn) = 0).
Beweis:
1.
f(x1 ; : : :; xi + xj ; xi+1; : : :; xn) = f(x1 ; : : :; xn) + f (x
| 1; : : :; xi 1; x{zj ; xi+1; : : :; xn})
=0; da j doppelt
= f(x1 ; : : :; xn)
P
2. Wegen G = Sn konnen wir o.B.d.A. annehmen, da xn = in=11 i xi. Also gilt:
nX1
f(x1 ; : : :; xn) = f(x1 ; : : :; xn 1; i xi )
i=1
nX1
= i f (x
| 1; : : :;{zxn 1; xi}) = 0:
i=1 xi doppelt

De nition 3: Sei l eine schiefsymmetrische n-Linearform auf V und sei a : V 0 ! V linear.


Sei a l die durch
(a l)(v10 ; : : :; vn0 ) = l(a(v10 ); : : :; a(vn0 ))
de nierte schiefsymmetrische n-Linearform auf V 0.
Fakt 3: Fur V !b V 0 !a V gilt
(ab) l = b a l und id  l = l:
Wenn a ein Isomorphismus ist, so ist a ein Isomorphismus zwischen den Raumen der n-Formen
auf V und V 0, und (a ) 1 = (a 1 ) . 2
4.4 Der Determinantenbegri
Sei K ein Korper, V ein n-dimensionaler K-Vektorraum, und sei B = (b1; : : :; bn) eine geordnete
Basis von V .
Lemma 1: Sei d eine schiefsymmetrische n-Linearform auf V . Wenn d(b1; : : :; bn) = 0, so gilt
d = 0. Zum Beweis benotigen wir
Fakt 1: Seien V; W Vektorraume, V !f W eine n-lineare Abbildung, und sei vi;j 2 V fur
1  i  n und 1  j  m, m 2 IN. Dann gilt
X
m X
m X
f( vi;j ; : : :; vn;j ) = f(v1;(1) ; : : :; vn;(n));
j =1 j =1  2L
wobei L die Menge aller Abbildungen von f1; : : :; ng nach f1; : : :; mg ist.
Beweis durch vollstandige Induktion nach n. Fur n = 1 folgt die Behauptung aus der Ver-
tauschbarkeit von Summen und linearen Abbildungen. Sei n > 1, und sei die Behauptung fur

49
(n 1)-lineare Abbildungen bewiesen. Dann gilt:
X
m X
m m X
X n X
m
f( v1;j ; : : :; vn;i) = f( v1;j ; : : :; vn 1;j ; vn;i)
j =1 i=1 i=1 j =1 j =1
Xm X
= f(v1; (1) ; : : :; vn 1; (n 1); vn;j )
j =1 2L0
Xm X
= f(v1;(1) ; : : :; vn 1;(n 1); vn;(n)):
j =1 2L
Dabei ist L0 = f1; : : :; mgf1;:::;n 1g. Durch L ! L0 f1; : : :; mg,  7! ( ; i) mit = jf1;:::;n 1g
und i = (n) ist eine Bijektion de niert, daher die Gleichheit der beiden letzten Zeilen. 2
P
Beweis von Lemma 1: Sei vi = nj=1 ij bj . Aus Fakt 1 folgt
X
d(v1 ; : : :; vn) = 1;(1)  : : :  n;(n)  d(b(1); : : :; b(n));
 2L
wobei L die Menge aller Abbildungen von f1; : : :; ng nach f1; : : :; ng ist. Wenn  2 L nicht
bijektiv ist, so gibt es 1  i < j  n mit (i) = (j), also taucht in d(b(1); : : :; b(n)) wenigstens
ein Argument doppelt auf, und d(b(1); : : :; b(n)) = 0. Es folgt
X
d(v1; : : :; vn) = 1;(1)  : : :  n;(n)  d(b(1); : : :; b(n))
2Sn
X
= 1;(1)  : : :  n;(n)  sign ()d(b1; : : :; bn);
2Sn
nach den Resultaten aus 4.3. 2
Folgerung 1: Fur einen n-dimensionalen Vektorraum V sei D(V ) der Raum aller schief-
symmetrischen n-Linearformen auf V . Dann ist D(V ) hochstens eindimensional. Wenn also
d 2 D(V ) f0g ist, so ist jedes d~ 2 D(V ) zu d proportional.
Beweis: In der Tat, fur d 2 D(V ) f0g und d~ 2 D(V ) sei d0 = d~ dd~((bb11;:::;b n)
;:::;bn )  d. Dann gilt
d0(b1; : : :; bn) = 0, also d0 = 0, also ist d~ zu d proportional. Wir wollen zeigen, da die Dimension
von D(V ) auch genau eins ist. Sei dB durch
X
dB (v1 ; : : :; vn) = sign()1;(1)  : : :  n;(n) (1)
2Sn
P
fur vi = nj=1 ij bj de niert. Dann ist dB eine n-Linearform. Angenommen, vi = vi+1 . Sei M
die Menge aller  2 Sn mit (i) < (i + 1). Dann kann jedes Element von Sn als oder als
(i; i + 1) geschrieben werden, wobei 2 M ist. Also kann (1) zu
X
dB (v1; : : :; vn) = sign ( ) 1; (1)  : : :  i; (i)  i+1; (i+1)  : : :  n; (n)
2M | {z }
Beitrag von zu (1)
1; (1)  : : :  i; (i+1)  : : :  i+1; (i)  : : :  n; (n) ) = 0
| {z }
Beitrag von (i; i + 1) zu (1)
umgeschrieben werden, denn i; (i) = i+1; (i) und i+1; (i+1) = i; (i+1) , also
i; (i) i+1; (i+1) = i; (i+1) i+1; (i) :

50
Damit dB 2 D(V ).
Behauptung: dB (b1; : : :; bn) = 1. Es folgt dB 2 D(V ) f0g und D(V ) 6= f0g. In der Tat, fur
vi = bi gilt ij = ij und (1) ergibt
X
dB (b1; : : :; bn) = sign ()  i;(1)  : : :  i;(n) = 1;
2Sn | {z }
=0 fur 6=Id
denn fur  6= Id gibt es j mit (j) 6= j, 1  j  n. 2

Theorem 1:
1. D(V ) ist eindimensional
2. Fur jeden Endomorphismus f von V gibt es genau ein det(f) 2 K mit f  (d) =
det(f)  d fur alle d 2 D(V ).

Beweis: (1) wurde soeben bewiesen. (2) folgt aus dem folgenden einfachen
Fakt: Sei g ein Endomorphismus eines eindimensionalen Vektorraumes D. Dann gibt es genau
ein y 2 K mit g(d) = yd fur alle d 2 D. 2
Folgerung 2:
1. det(fg) = det(f)  det(g) fur f; g 2 End(V ).
2. det(f) = n det(f), n = dim(V ).
3. det(0) = 0; det(IdV ) = 1.
4. Sei a : V ! W ein Isomorphismus und f 2 End(V ), dann gilt det(afa 1 ) = det(f):
Beweis:
1. Fur d 2 D(V ) gilt:
(fg) d Fakt=4.3.3 g (f  (d)) = det(g)f  (d) = det(g) det(f)d:
Also det(fg) = det(f) det(g) nach der Eindeutigkeitsaussage in Theorem 1.
2. Zusammen mit dem nachsten Punkt.
3. Es genugt nach (1), det(Id V ) = n zu zeigen.
(((IdV ) d)(v1 ; : : :; vn ) Def=4.3.3 d(((IdV )(v1 ); : : :; ((IdV )(vn ))
= d(v1 ; : : :; vn)
= n d(v1 ; : : :; vn):

Damit sind (2) und (3) gezeigt.

51
4. Sei d 2 D(W): Es gilt
(afa 1 ) (d) = (a 1 ) (f  a (d))
= (a 1 ) (det(f)a (d)))
= det(f)((a ) 1 )a (d))
= det(f)d;
wobei wir Fakt 4.3.3 verwendet haben. 2
Satz 1: Sei d 2 D(V ) f0g. Dann sind n Vektoren v1; : : :; vn 2 V genau dann linear
abhangig, wenn d(v1 ; : : :; vn) = 0 gilt.
Beweis: Wenn die vi linear unabhangig sind, so ist C = (v1 ; : : :; vn) eine geordnete Basis von
V . Wegen Lemma 1 ( angewendet auf C statt B) wurde aus d(v1 ; : : :; vn) = 0 d = 0 folgen, was
nicht sein sollte. Wenn die vi linear abhangig sind, so folgt d(v1 ; : : :; vn) = 0 aus Fakt 4.3.2.
Folgerung 3: (Aus Theorem 1 und Satz 1)
1. Sei d 2 D(V ) f0g, dann gilt
det(f) = d(f(b1 ); : : :; f(bn ))
d(b1; : : :; bn) :
2. Insbesondere: det(f) = dB (f(b1 ); : : :; f(bn )).
3. f 2 End (V ) ist genau dann ein Automorphismus, wenn det(f) 6= 0 gilt. In diesem Fall gilt
det(f 1 ) = det(f) 1 .
Beweis:
1. d(f(b1 ); : : :; f(bn )) = (f  d)(b1; : : :; bn) = det(f)d(b1 ; : : :; bn):
2. Wende (1) auf dB an und beachte dB (b1; : : :; bn) = 1:
3. f ist Automorphismus , f(b1 ); : : :; f(bn ) linear unabhangig , dB (f(b1 ); : : :; f(bn)) 6= 0.
Die Gleichheit det(f 1 ) = det(f) 1 folgt aus Folgerung 2. 2
4.5 Determinanten von Matrizen
De nition 1: Sei A = (aij )ni;j=1 2 Mat (n; n; K) und sei A : K n ! K n der in 3.1 de nierte
Operator. Wir setzen det(A) = det(A) und schreiben auch
a a    a
11 12 1n 0 a  a 1
.
a21 a22    . := det B 11.. . . 1..n C :
.
.. . . . ... @ . . . A
. an1    ann
an1       ann

Folgerung 1: Fur A; B 2 Mat (n; n; K) gilt:


1. det(AB) = det(A)  det(B);
2. det(A) = n det(A);

52
3. det(0) = 0;
4. det(1n ) = 1.
Auerdem ist A invertierbar genau dann, wenn det(A) 6= 0. In diesem Fall gilt, da det(A 1 ) =
det(A) 1
Beweis: Die Behauptungen folgen aus Folgerung 4.4.2 und 4.4.3 und den in 3.1. erklarten
Zusammenhangen zwischen Matrizen und linearen Abbildungen. 2
Satz 1: (Leibnizsche Determinantenformel)
X
det((aij )ni;j =1 ) = sign()  a1;(1)  a2;(2)  : : :  an;(n)
2Sn
X
= sign ()  a(1);1  a(2);2  : : :  a(n);n
2Sn

Beweis: Sei ei = (ij )nj=1. Damit folgt mit Folgerung 4.4.3 und A  ej = Pni=1 aij ej
det(A) = d(e1;:::;en ) (Ae1 ; : : :; Aen)
X
n X
n !
= d(e1;:::;en ) ai1 ei ; : : :;ainei
i=1 i=1
X
= sign()  a(1);1  a(2);2  : : :  a(n);n
2Sn
mit Gleichung 4.4.1. Wenn wir  =  1 einsetzen, so gilt sign () = sign (), und der letzte
Ausdruck wird zu
X
sign ()  a 1 (1);1  a 1 (2);2  : : :  a 1 (n);n
2Sn
X
= sign ()  a1;(1)  a2;(2)  : : :  an;(n)
2Sn
2
Folgerung 2: det(AT ) = det(A)
Beweis: Sei A = (aij )ni;j=1 und AT = (aTij ). Es gilt aTij = aji.
X
det(AT ) = sign()  aT1;(1)  aT2;(2)  : : :  aTn;(n)
2Sn
X
= sign()  a(1);1  a(2);2  : : :  a(n);n
 2 Sn
= det(A)
2
Beispiel: Fur n = 2 gilt S2 = fId ; (1; 2)g, wobei sign (Id ) = 1 und sign ((1; 2)) = 1. Die rechte
Seite der Leibnizschen Determinantenformel wird zu
 
a| 11{za22} |a12{za21} oder det ac db = ac db = ad bc:
=Id =(1;2)

53
Fur n = 3 gilt die Regel von Sarrus: Schreibe die beiden ersten Spalten hinter die Matrix.
Bilde die Summe der drei Diagonalen von links oben nach rechts unten und subtrahiere von
dieser die Summe der drei Diagonalen von links unten nach rechts oben.
0a a12 a13 a11 a12
1
11
BB & &
% &
% % CC
BB a21 a22 a23 a21 a22 CCA
@ % %
& %
& &
a31 a32 a33 a31 a32
det(A) = a12a22a33 + a12a23a31 + a13a21 a32 a31 a22a13 a32 a13a11 a33a21a12:
Fur allgemeines n hat die Leibnizformel n! Summanden, jeder Summand hat n Faktoren, man
braucht also n!(n 1) Multiplikationen. Fur groe n wird die Formel daher schnell unpraktikabel.
De nition 2: Mat z (v1 ; : : :; vm) ist die Matrix mit den Zeilenvektoren vi:
0 v11    v1n
1
Mat z ((v11; : : :; v1n); : : :; (vm1 ; : : :; vmn )) = B
@ .. . . . ..
. .
CA :
vm1    vmn
Fur w1; : : :; wn 2 K m sei Mat s (w1; : : :; wn) die Matrix mit den Spaltenvektoren wi :
Mat s (w1 ; : : :; wn) = Mat z (w1; : : :; wn)T :

Satz 2: det(Mat s(v1 ; : : :; vn)) = det(Mat z (v1; : : :; vn)) ist eine schiefsymmetrische n-
Linearform in den Argumenten vi 2 K n .
Beweis: Es gilt nach Folgerung 4.4.3:
det(Mat s(v1 ; : : :; vn)) = d(e1;:::;en ) (Mat s(v1 ; : : :; vn)  e1 ; : : :; Mat s(v1 ; : : :; vn)  en )
= d(e1;:::;en ) (v1 ; : : :; vn )
denn Mat s (v1 ; : : :; vn )ei = vi . Wegen Folgerung 2 und Mat z (v1 ; : : :; vn) = Mat s (v1; : : :; vn)T
berechnet dieser Ausdruck auch die Determinante von Mat z (v1 ; : : :; vn). Weil d(e1;:::;en ) eine
schiefsymmetrische n-Linearform ist, folgt die Behauptung. 2
Folgerung 3: Die Determinate einer Matrix
1. andert sich nicht, wenn man ein Vielfaches einer Zeile zu einer anderen Zeile addiert.
2. multipliziert sich mit , wenn man eine Zeile mit  multipliziert.
3. multipliziert sich mit 1, wenn man zwei Zeilen vertauscht.
Analoges gilt fur die entsprechenden Spaltenumformungen. 2

54
De nition 3:
1. Fur ein n-Tupel x = (x1; : : :; xn) und 1  k  n sei
Min k (x1; : : :; xk ) = (x ; : : :; x^k ; : : :; xn)
8 1(x
< 2; : : :; xn) k=1
:= : (x1 ; : : :; xk 1; xk+1; : : :; xn) 1 < k < n
(x1 ; : : :; xn 1) k=n
das durch Streichen des k-ten Elements entstehende (n 1)-Tupel.
2. Fur eine m  n-Matrix A = Mat z (a1; : : :; am ) und 1  i  m, 1  j  n, sei
Min ij (A) = Mat z (Min j (a1 ); : : :; Mind
j (ai ); : : :; Min j (am ))
die durch Streichen der i-ten Zeile und der j-ten Spalte entstehende Matrix.
O enbar sind die Abbildungen Min i : K n ! K n 1 und Min ij : Mat (m; n; K) ! Mat (n
1; m 1; K) linear.

Satz 3: (Laplace) Fur jede n  n-Matrix A = (aij )ni;j=1 und 1  k  n gelten die Entwick-
lungen nach der k-ten Zeile
X
n
det(A) = ( 1)k+i aki  det(Min ki(A)) (1)
i=1
und die Entwicklung nach der k-ten Spalte
X
n
det(A) = ( 1)k+i aik  det(Min ik (A)): (2)
i=1

Beispiel:
3 2 1
1 1 2 = 3  1 2 2  1 2 + 1 1 = 1 2 = 1
1 1 3 1 3 1 3 1 1 1 3
Beweis von Satz 3: Die Entwicklung nach einer Spalte bekommt man durch Anwendung der
Zeilenentwicklung auf die transponierte Matrix (Folgerung 2). Es genugt also, (1) zu beweisen.
Wir xieren dazu k und bezeichnen die rechte Seite von (1) mit RS(A). Fur x = (x1; : : :; xn) 2
K n sei (K n ) 3 li (x) = xi.
1. Wir behaupten, da
RS(Mat s (v1 ; : : :; vn)) ()
eine n-Linearform in v1 ; : : :; vn 2 K ist. In der Tat, fur 1  i  n ist die i-te Summe in
n
(1) fur A = Mat s (v1 ; : : :; vn) durch
RSi (v1 ; : : :; vn) = ( 1)k+i lk (vi )  det(Mat s (Min k (v1 ); : : :; Mind
k (vi ); : : :; Min k (vn ))

55
gegeben. Dann ist RSi eine n-Linearform in v1; : : :; vn, denn det(Mat s(x1 ; : : :; x^k; : : :;
xn )) ist (n 1)-linear und Min k ist linear, also ist det(Mat s(Min k (v1 ); : : :; Mind k (vi );
: : :; Min k (vn )) eine (n 1)-Linearform auf K n , und die Abbildungen K  K ! K,
(x; y) 7! xy sind bilinear. NachPBeispiel 4.3.1 ist daher RSi (v1 ; : : :; vn) n-linear, und
daher ist RS(Mat s (v1 ; : : :; vn)) = ni=1 RSi(v1 ; : : :; vn) n-linear.
2. () ist eine schiefsymmetrische n-Linearform auf K n : Das ist aquivalent dazu, da RS(A)
verschwindet, wenn in A zwei benachbarte Spalten ubereinstimmen, etwa die l-te und die
(l + 1)-te fur 1  l < n (Lemma 4.3.2). Dann stimmen fur i 62 fl; l + 1g auch in Min ki(A)
zwei Spalten uberein, namlich die l-te und die (l + 1)-te fur i > l + 1 und die l-te und die
(l 1)-te fur i < l. Daher gilt 8 i 6= fl; l + 1g : det(Min ki(A)) = 0 und wir erhalten
RS(A) = ( 1)k+l (akl det(Min kl (A)) ak;l+1 det(Min k;l+1 (A))): (y)
Aus unseren Vorraussetzungen an A folgt aber akl = ak;l+1 und Min kl (A) =
Min k;l+1 (A), also verschwindet (y) und die Behauptung aus Schritt 2 ist bewiesen.
3. Aus Schritt 2 und Theorem 4.4.1 folgt die Existenz eines c 2 K mit
RS(A) = c  det(A) fur alle n  n-MatrizenA:
Wir haben noch c = 1 zu zeigen. Dazu genugt es, RS(1n ) = 1 zu zeigen. Da 1n = (ij )ni;j =1
gilt, ergibt sich
X
n
RS(1n) = ( 1)k+i ki det(Min ki(1n))
i=1
= ( 1)k+k k;k det(Min k;k(1n ))
= 1  1 det(1n 1) = 1
2
Fakt 1: Sei A = (aij )ni;j=1 eine obere Dreiecksmatrix, d.h. aij = 0 fur alle j < i. Dann ist det(A)
das Produkt der Diagonalelemente, det(A) = a11  : : :  ann.
Beweis: Entwicklung nach der ersten Spalte ergibt
a a : : : a a : : :
011 a12 022 a23
22 33
0 0 . . . = a11  0 0 . . . =    = a11  : : :  ann: 2
.. ...
... ...
.
Bemerkung: Insbesondere kann die Determinante einer Zeilenstufenmatrix (vgl. Abschnitt 3.2)
nach dieser Vorschrift berechnet werden. Von den in 3.2 benutzten Zeilenumformungen andert die
Addition des Vielfachen einer Zeile zu einer anderen die Determinante nicht (Folgerung 3), und
die Vertauschung zweier Zeilen andert nur das Vorzeichen. Daher erhalt man folgende Vorschrift
zur Berechnung von det A:
1. Bringe A durch Anwendung des in 3.2 beschriebenen Eliminationsverfahrens in Zeilenstu-
fenform. Sei A~ das Ergebnis, und sei l die Anzahl der Zeilenvertauschungen, die dabei
benotigt wurden.

56
2. Es gilt dann mit A~ = (~aij )ni;j =1
~ = ( 1)l  a~11  : : :  ~ann:
det(A) = ( 1)l det(A)
Dieser Algorithmus kostet n33 + O(n2) Multiplikationen. (Zum Vergleich die Kosten fur die An-
wendung der Leibniz-Formel: (n 1)  n!).
Vom rechnerischen Standpunkt aus betrachtet ist die Berechnung einer Determinante durch wie-
derholte Anwendung des Entwicklungssatzes nur eine klugere Organisation der Berechnung der
Produkte, die in der Leibniz-Formel auftauchen.
Satz 4: (Vandermondsche Determinante) Fur 1 ; : : :; n 2 K gilt
1 :::

1
 ::: n
12 ::: 2n = Y (j i ):
.1 .. 1i<j n
.. .
1n 1 : : : nn 1

Beweis: Sei zi = (i1 1; : : :; in 1) fur 1  i  n und A = Mat z (z1; : : :; zn). Sei z~1 = z1 und
z~i = zi 1 zi 1 fur 1 < i  n. Sei A~ = Mat z (~z1 ; : : :; z~n ). Zu zeigen: det(A) = det(A).
~
Entwicklung von A~ nach der ersten Spalte ergibt
~ = (2 1)  : : :  (n 1 )
det(A)
(Siehe auch U bungsaufgaben). 2
Beispiel:
5 4 3 2 1
1 1
1 1 1
1 1
1
1
2
1
3
1
4
= (5 4)  1 2 3 4
1 1 4 9 16
1 49 16
1 1 8 27 64
1 827 64
= 1  (4 3)(4 2)(4 1)(3 2)(3 1)(2 1)
= 12
De nition 4: Die Adjunkte Adj(A) einer n  n-Matrix A ist die Matrix Adj (A) =
(adj ij (A))ni;j =1 mit
adj ij (A) = ( 1)i+j  det(Min ji(A)):

Satz 5: (Cramersche Regel von 1750) Fur alle n  n-Matrizen A gilt:


A  Adj (A) = Adj (A)  A = det(A)  1n:
Insbesondere:
A 1 = Adj (A)
det(A) falls det(A) 6= 0:

57
Beispiel: Fur n = 2 gilt:
a b1 1
 d b
c d = ad bc c a
Beweis von Satz 5: Wir zeigen A  Adj (A) = ( i;j )ni;j=1 = (ij det A)ni;j=1 mit
X
n
ij = aik  adj kj (A) ()
k=1
mit A = (aij )ni;j =1 . Dazu xieren wir i und j. Sei B die Matrix, die aus A durch Ersetzen der
j-ten durch die i-te Zeile entsteht. Fur i 6= j stimmen die i-te und die j-te Zeile von B uberein,
also det(B) = 0. Es folgt in beiden Fallen:
det(B) = det(A)  ij : (y)
Sei B = (bkl )nk;l=1 . Dann gilt bjk = aik und Min jk (B) = Min jk(A) fur 1  k  n. Entwicklung
von det(B) nach der j-ten Zeile gibt also:
ij  det(A) (=y) det(B)
Satz X
n
=3 ( 1)j +k  bjk det(Min jk (B))
k=1
X
n
= aik  ( 1)j +k  det(Min jk (A))
k=1
X
n
= aik  adj kj (A) (=) ij
k=1
Also A  Adj(A) = det(A)  1n. Die Gleichung Adj (A)  A = det(A)  1n zeigt man entweder analog
durch Anwendung derselben Betrachtungen auf Spalten statt Zeilen, oder durch Anwendung von
AT Adj (AT ) = det(AT )1n, denn Adj (A)T = Adj(AT ) und det(A) = det(AT ). Die Formel fur
A 1 folgt unmittelbar. 2
Bemerkung: Sei A 2 Mat (m; m; K). Sei 1  k  min(m; n). Ein k  k-Minor von A ist eine
k  k-Matrix B, die aus A durch Streichung von (m k) Zeilen und (n k) Spalten entsteht. Sei
 fk j 9 k  k-Minor B von A mit det(B) 6= 0g fur A 6= 0
r = max0 sonst :
Dann stimmt r mit dem Rang von A uberein.
4.6 Orientierungen von reellen Vektorraumen
De nition 1: Sei X eine Menge. Eine Relation auf X ist eine Untermenge R  X  X.
Wir sagen, da x 2 X in der Relation R zu y 2 X steht, und schreiben xRy, falls (x; y) 2 R.
R ist
1. re exiv, falls aus x 2 X xRx folgt.
2. symmetrisch, falls aus x; y 2 X und xRy auch yRx folgt.
3. transitiv, falls aus x; y; z 2 X und xRy und yRz auch xRz folgt.
 quivalenzrelation, falls R re exiv, transitiv und symmetrisch ist.
R ist eine A

58

Fakt: Sei  A quivalenzrelation auf X. Eine Aquivalenzklasse bezuglich  ist eine nichtleere
Untermenge Y von X mit folgenden Eigenschaften:
1. Aus x; y 2 Y folgt x  y.
2. Aus y 2 Y und x 2 X und x  y folgt x 2 Y .

Sei X=  die Menge aller Aquivalenzklassen bezuglich . Dann ist X disjunkte Vereinigung aller
Aquivalenzklassen: [
X= Y: ()
Y 2X=
Beweis: Disjunktheit: Seien Y und Y~ zwei A quivalenzklassen bezuglich . Angenommen, Y \
Y~ =
6 ; , etwa y 2 Y \ Y~ . Fur x 2 X gilt dann
x 2 Y , x  y , x 2 Y~ ;
also Y = Y~ und die Vereinigung () ist disjunkt.
Sei weiterhin x 2 X, Y = fy 2 X jx  yg. Dann ist Y A quivalenzklasse:
 Sei y; z 2 Y . Dann gilt x  y und x  z nach De nition von Y , also y  x (Symmetrie),
also auch y  z (Transitivitat).
 Sei y 2 Y und y  z. Dann gilt x  y (De nition von Y ), also auch x  z (Transitivitat),
damit z 2 Y .
Wegen x 2 Y (Re exivitat) gilt Y = 6 ;, also Y 2 X= . Also x 2 Y  SZ 2X= Z. 2
Beispiel: Sei X 2 Z. Fur eine naturliche Zahl N betrachten wir die Relation x  y genau
dann, wenn x  ymod N, d.h., falls N j x y. Man pruft leicht nach, da es sich um eine
A quivalenzrelation handelt. Die A quivalenzklassen sind die Restklassen modulo N, sie bilden
die Menge Z=NZ. Wenn N = P eine Primzahl ist, ist Z=pZ = IFp .
De nition 2: Sei V ein n-dimensionsionaler reeller Vektorraum. Eine Halbachse in V ist
eine A quivalenzklasse bezuglich der folgenden A quivalenzrelation  auf V f0g:
x  y :, 9 t 2 IR : t > 0 ^ x = t  y

Fakt:
1.  ist in der Tat eine A quivalenzrelation.
2. Gilt n = 1, so hat die Menge (V f0g)=  genau zwei Elemente. Fur v 2 V f0g sind
dies die beiden A quivalenzklassen
A = fvj 2 IR;  > 0g und
B = fvj 2 IR;  < 0g:
Beweis:
1.  Re exivitat: x = 1  x, also x  x:
 Symmetrie: Aus x  y folgt x = ty mit t > 0, also y = t 1 x mit t 1 > 0, also y  x.
 Transitivitat: Aus x  y und y  z folgt x = ty und y = sz mit s; t > 0, also x = (st)z
mit st > 0, also x  z.

59
2. 
 A ist Aquivalenzklasse: O enbar A = fyjy  vg Nach dem Beweis des letzten Faktes
ist A A quivalenzklasse.
 B ist Aquivalenzklasse:
 O enbar B = fyjy  vg Nach dem Beweis des letzten Faktes
ist B A quivalenzklasse.

 A und B sind die einzigen Aquivalenzklassen: Aus x 2 V folgt wegen dim(V ) = 1 die
Existenz eines t 2 IR mit x = t  v: Fur x =
6 0 folgt t =6 0, also t > 0 (x 2 A) oder
t < 0 (x 2 B). Also : V f0g = A [ B. Nach dem letzten Fakt folgt, da A und B
die einzigen A quivalenzklassen sind. 2
De nition 3: Sei V ein n-dimensionaler reeller Vektorraum. Eine Orientierung von V ist
eine Halbachse des eindimensionalen Vektorraumes D(V ). Sei
2 D(V ) eine Orientierung
von V und sei B = (b1 ; : : :; bn) eine Basis von V . Dann hat die reelle Zahl d(b1; : : :; bn) fur
alle d 2
dasselbe Vorzeichen. Wir sagen, da B positiv orientiert bezuglich
ist, falls
d(b1 ; : : :; bn) > 0 fur alle d 2
ist. Andernfalls sagen wir, da B negativ orientiert ist.
Bemerkung: Nach Satz 4.4.1 gilt: d(b1; : : :; bn) 6= 0 fur alle d 2 D(V ) n f0g und alle Basen
B = (b1 ; : : :; bn).
Beispiel: Sei dim(V ) = 1. Dann gilt D(V ) = V  . Es gibt dann eine Bijektion
Halbachsen in D(V ) = V  ! Halbachsen in V
(= Orientierung von V )

! fv 2 V n f0g j v ist positiv orientiert bzgl

d.h.l(v) > 0 fur alle l 2


g
Beispiel: Sei V = IR2 . Dann gibt es genau eine Orientierung von V , so da ((1; 0); (0; 1))
positiv orientiert ist. Eine Basis ((a; b); (c; d)) von V ist dann genau dann positiv orientiert, falls

b2 6
- B = (b1 ; b2) = ((1; 0); (0; 1)) +
b1
~b1
-
~b2
? B~ = (~b1 ; ~b2) = ((1; 0); (0; 1))

^b1 6
- B^ = (^b1 ; ^b2) = ((0; 1); (1; 0))
ad bc > 0 ist. ^b2
n
Beispiel: IR wird ublicherweise so de niert, da die Standardbasis e1; : : :; en positiv orientiert
ist, wobei ei = ()nj=1 . Bei der ublicherweise verwendeten Auswahl der Basis des IR3 in der
analytischen Geometrie des Raumes :
 x-Achse: In der Zeichenebene (d.h. Tischebene) von links nach rechts.
 y-Achse: In der Zeichenebene nach vorne weg vom Betrachter
 z-Achse: Senkrecht zur Zeichenebene nach oben

60
ist also (Einheitsvektor in x; y; z-Richtung) positiv orientiert. Es gilt daher die rechte-Hand-
Regel. Das Dreibein (d.h. Tripel von Vektoren) (Daumen, Zeige nger, Mittel nger) ist fur die
rechte Hand positiv orientiert, fur die linke Hand negativ. Entsprechend nennt man ein positiv
orientiertes Dreibein rechtshandig, ein negativ orientiertes linkshandig.
Bemerkung: Wenn B = (b1; : : :; bn) eine Basis des orientierten Vektorraumes V ist, so hat fur
1  i  n und 2 IR n f0g die Basis (b1 ; : : :; bi 1; bi ; bi+1; : : :; bn) dieselbe Orientierung wie B
, falls > 0 ist , und die zu B entgegengesezte Orientierung , falls < 0.
Wenn  2 Sn ist, so hat die Basis (b(1) ; : : :; b(n)) fur sign() = 1 dieselbe Orientierug wie B ,
fur sign() = 1 die entgegengesetzte.
4.7 Symmetrische n-Linearformen
Sei K ein beliebiger Korper.
Lemma 1: (vgl. Lemma 4.3.1) Sei f : V  : : :  V ! W eine n-lineare Abbildung. Sei G = f 2
Sn j f(x1 ; : : :; xn) = f(x(1) ; : : :; x(n)) fur alle (x1 ; : : :; xn) 2 V ng. Dann ist G eine Untergruppe
von Sn . Die folgenden Aussagen sind aquivalent :
1. G = Sn , d.h. f andert seinen Funktionswert bei einer beliebigen Permutation der Argu-
mente nicht.
2. G enthalt alle Transpositionen (i; j) fur 1  i < j  n , d.h., f andert den Funktionswert
bei Vertauschung zweier Argumente nicht.
3. G enthalt alle Transpositionen (i; i + 1) fur 1  i < n, d.h. f andert seinen Wert beim
Vertauschen benachbarter Argumente nicht.
Beweis: Wie bei Lemma 4.3.1, nur einfacher. 2
De nition 1: Eine n-lineare Abbildung, welche diese aquivalenten Bedingungen erfullt,
nennt man symmetrisch. Fur W = K spricht man von einer symmetrischen n-
Linearform. In Korpern der Charakteristik 2 sind alle schiefsymmetrischen n-linearen
Abbildungen symmetrisch, denn fur char (K) = 2 gilt 1 = +1 in K.
Beispiel:
1.
: Kn  Kn ! K
X
n
((x1; : : :; xn); (y1 ; : : :; yn )) 7! x i yi
i=1
ist eine symmetrische n-Linearform auf K n.
2.
: K  ::: K ! K
(x1; : : :; xn) 7! x1  : : :  xn
ist eine symmetrische Bilinearform auf K.

61
3.
 : (K n )m ! K
((x(1) (m) (m) n m (j )
1 ; : : :; xn ); : : :; (x1 ; : : :; xn )) 7! i=1 j =1 xi
(1)
ist eine symmetrische m-Linearform auf K n .

5 Quadratische, hermitesche und symplektische Formen


Sei K ein Korper mit von 2 verschiedener Charakteristik.
5.1 Quadratische und symmetrische Bilinearformen
De nition 1: Eine quadratische Form auf einem K-Vektorraum ist eine Abbildung
q : V ! K mit den folgenden Eigenschaften:
1. q(v) = 2  q(v),  2 K, v 2 V ;
2. Die Abbildung
:V V ! K
(x; y) 7! q(x + y) 2q(x) q(y)
ist bilinear (und daher eine symmetrische Bilinearform).

Beispiel 1:
1. Sei
q : Kn ! K
(x1; : : :; xn) 7! x21 + : : : + x2n:
Dann gilt
(x; y) = 21 (q(x + y) q(x) q(y))
X n
= 21 ((xi + yi )2 x2i yi2 )
i=1
X
n
= xi yi :
i=1
O ensichtlich ist bilinear, Eigenschaft (1) ist klar. Fur K = IR kann q(v) als das Quadrat
der Lange von v aufgefat werden (Satz des Pythagoras).
6
6  v = y  e2 + x  e1 = (x;
ye2 p y) p
Lange von v = jvj = x2 + y2 = q(v).
e2 6
- --
e1 xe1

62
2. Sei m : IR4 ! IR, m(x0 ; x1; x2; x3) = x21 + x22 + x23 x20 die Minkowskische Form. Dann
ist (x; y) = 12 (m(x + y) m(x) m(y)) = x1y1 + x2y2 + x3y3 x0y0 das Minkowskische
Skalarprodukt. Vektoren v 2 IR4 nennt man in der Speziellen Relativitatstheorie
 raumartig, wenn m(v) > 0;
 zeitartig, wenn m(v) < 0;
 lichtartig, wenn m(v) = 0; v 6= 0.
3. Sei V ein K-Vektorraum, l 2 V  , q(x) = l(x)2 und
2 2 2
(x; y) = l(x + y) 2l(x) l(y)
2 2 2 2
= l(x) + 2l(x)l(y) + 2l(y) l(x) l(y)
= l(x)  l(y):
ist bilinear, und es gilt:
q(x) = l(x)2 = 2 l(x)2 = 2 q(x):
De nition: O enbar bilden die symmetrischen Bilinearformen einen Untervektorraum des
K-Vektorraumes L(V; V ; K) aller Bilinearformen auf V (vgl. 4.3). Der Vektorraum aller
quadratischen Formen auf V wird wie folgt de niert:
(q + q~)(x) = q(x) + q~(x) (q)(x) = q(x);
wobei q; q~ quadratische Formen auf V , x 2 V ,  2 K sind.

Satz 1: Seien x; y 2 V , q eine quadratische Form und eine symmetrische Bilinearform. Die
Abbildungen
f;g
fQuadratische Formen auf V g ! fsymmetrische Bilinearformeng
(f(q))(x; y) = q(x + y) 2q(x) q(y) (d.h. f(q) = aus Def.1)
(g( ))(x) = (x; x)
sind zueinander inverse Isomorphismen von Vektorraumen.
Beweis:
 f(q) ist nach De nition 1 eine Bilinearform.
 f ist o ensichtlich eine lineare Abbildung.
 q = g( ) ist eine quadratische Form, denn
q(x) = (x; x) = 2 (x; x) = 2 q(x):

63
Sei ~(x; y) = q(x+y) q2(x) q(y) . Dann gilt ():
~ y)
(x; = 1 ( (x + y; x + y) (x; x) (y; y))
2
bilinear 1
= 2 ( (x; x) + (x; y) + (y; y) (x; x) (y; y))
= 1 ( (x; y) + (y; x))
2
Symmetrie
= (x; y)
~ Es folgt, da q = g( ) eine quadratische Form ist.
Weil bilinear ist, ist es auch .
 g ist o ensichtlich linear.
 f g = Id folgt aus (), denn in Bezeichnungsweisen von () gilt f(g( )) = ~ nach De nition
von f und g.
 g  f = Id : Sei q quadratische Form, = f(q), q~ = g( ). Dann gilt
q~ = (x; x) = q(x + x) 2q(x) q(x)
= 2q(x)
2 = q(x);
also (~q) = q: 2
Fakt 1: Fur quadratische Formen q gilt die Parallelogrammidentitat:
q(x + y) + q(x y) = 2  (q(x) + q(y)):
Beweis: Sei = f(q). Dann gilt
q(x + y) + q(x y) = (x + y; x + y) + (x y; x y)
= (x; x) + 2 (x; y) + (y; y) + (x; x) 2 (x; y) + (y; y)
= 2(q(x) + q(y))
2
De nition 2:
1. Sei eine symmetrische Bilinearform auf V und B = (b1; : : :; bn) eine Basis von V .
Wir de nieren die Matrixdarstellung von bezuglich B als
Mat B ( ) = ( (bi ; bj ))ni;j =1 :
2. Eine nn-Matrix ist symmetrisch,falls AT = A, d.h. fur A = (aij )ni;j =1 gilt aij = aji
fur alle 1  i; j  n.

Beispiel:
P
1. Die symmetrische Bilinearform ((x1 ; : : :; xn); (y1 ; : : :; yn)) = ni=1 xi yi hat bezuglich der
Standardbasis B = (ei )ni=1 , ei = (ij )nj=1 , die Matrixdarstellung
X
n
Mat B ( ) = ( (ei ; ej ))ni;j =1 = ik jk = ij ;
k=1

64
also Mat B ( ) = 1n .
2. Die Minkowskische Form aus Beispiel 1.2 hat bezuglich der Standardbasis die Matrixdar-
stellung 0 1 0 0 01
Mat B () = B
B 0 1 0 0 CC :
@ 0 0 1 0A
0 0 0 1
3. Die symmetrische Bilinearform ((x0 ; x1); (y0; y1 )) = (x0 + x1 )(y0 + y1 ) hat bezuglich der
Standardbasis die Matrixdarstellung
 
Mat B ( ) = 11 11 :

Fakt 2: Sei B = (b1; : : :; bn) eine Basis von V , dann ist die Abbildung
8 Symmetrische 9 8 Symmetrische n  n- 9
< = < =
Mat B : : Bilinearformen ; ! : Matrizen mit ;
auf V Koezienten aus K
ein Isomorphismus von K-Vektorraumen.
Beweis: Wir geben eine inverse Abbildung g zu Mat B an. Zur Erinnerung:
0x 1
1 Xn
iB : K ! V; @ . C
n B .
. A 7! xibi
xn i=1

(Elemente von K n als n  1-Matrizen) ist ein Isomorphismus.


Fur x; y 2 V und A 2 Mat (n; n; K) ist
(g(A))(x; y) = (iB1 (x))T  A  (iB1 (y))
eine 1  1-Matrix, also ein Element von K. O enbar ist g(A) eine Bilinearform auf V (Linearitat
von iB und Distributivitat des Matrizenproduktes). Wenn AT = A gilt, so gilt
(g(A))(x; y) = ((g(A))(x; y))T = (iB1 (y))T  AT  ((iB1 (x))T )T
= (iB1 (y))T  A  ((iB1 )(x)) = g(A)(y; x):
Man pruft leicht nach, da die auf diese Weise de nierte Abbildung g zu Mat B invers ist. 2
Folgerung: Sei eine symmetrische Bilinearform auf K n und B = Mat B ( ), wobei B =
(e1 ; : : :; en ) die Standardbasis ist. Dann gilt fur x; y 2 K n
(x; y) = xT  B  y;
wobei x; y 2 K n als n  1-Matrizen und 1  1-Matrizen als Elemente von K betrachtet werden.
2
Fakt 3: Sei V ein K-Vektorraum, B = (b1; : : :; bn) eine Basis von V , B = (b1 ; : : :; bn) die
dazu duale Basis des dualen Vektorraumes V  . Sei  : V ! V  durch ( (x))(y) = (x; y) fur
x; y 2 V de niert. Dann gilt
Mat B ( ) = Mat B;B ( ):

65
Beweis: Die De nition der Matrixdarstellung (in 3.1) von f : V ! V~ bzgl. B = (b1 ; : : :; bn) und
B~ = (~b1 ; : : :; ~bn) lautet
X
n
Mat B;B~ = (aij )ni;j =1 mit f(bj ) = aij ~bi :
i=1
Wende dies auf V~ = V  und A = (aij )ni;j =1 = Mat B;B ( ) an:
X
n
 (bj ) = aij bi : ()
i=1
Gema der De nition der dualen Basis
X
n
bi (bk ) = ki (allgemein: bi ( k bk ) = i ) (y)
k=1
folgt dann
X
n X
n
akj = ik aij (=y) bi (bk )  aij
i=1
Xn !i=1
)
= aij bi (bk )(=( (bj ))(bk )
i=1
Def. von 
= (bj ; bk):
Aus De nition 2 folgt nun, da Mat B;B ( ) = Mat B ( ). 2
De nition 3: Sei f : W ! V linear, eine symmetrische Bilinearform und q eine quadrati-
sche Form auf V . Wir de nieren fur x; y 2 W
(f  ( ))(x; y) = (f(x); f(y)) und (f  (q))(x) = q(f(x)):
f  ( ) ist eine symmetrische Bilinearform und f  (q) eine quadratische Form auf W .
Fakt 4: In den Bezeichnungen der De nition sei B~ eine Basis von W und B eine Basis von V
. Dann gilt
Mat B~ (f  ( )) = Mat B;B
~ (f)T  Mat B ( )  Mat B;B
~ (f):

Beweis: O enbar f  ( ) = f  f. Wende Fakt 3.1.4. und Fakt 3.1.3. an. 2

Bemerkung: Fur f = Id n gilt f ( ) = , also macht Fakt 4 in diesem Fall eine Aussage uber

die Anderung von MatB ( ) bei A nderung der Basis.
5.2 Nicht ausgeartete Bilinearformen. Der Rang.
Wir behalten die Voraussetzung char(K) 6= 2 bei.
De nition 1: Sei eine symmetrische Bilinearform auf V . Der Nullraum von ist als
N( ) = fx 2 V j 8 y 2 V : (x; y) = 0g
de niert. Sei V endlichdimensional. Dann nennt man nicht ausgeartet, falls N( ) = f0g
gilt. Der Rang von ist als Rang ( ) = dim(V ) dim(N( )) de niert.

66
Fakt 1: O enbar gilt N( ) = ker( ) (vgl. De nition 2.4.5). Also sind fur endlichdimensionale
Vektorraume V aquivalent:
1. ist nicht ausgeartet;
2.  ist Monomorphismus;
3.  ist ein Isomorphismus.
2
Fakt 2: Eine symmetrische Bilinearform hat denselben Rang wie ihre Matrixdarstellung.
Beweis: Nach Satz 2.4.1 und Fakt 3.1.2. gilt
Rang ( ) Def.1;=Fakt 1 dim(V ) dim(ker( ))
Satz=4.1 dim(Bild( ))
Fakt=3.1.2 Rang (Mat  ( ))
B;B
= Rang (Mat B ( )):
2
Beispiel:
P
1. Sei auf IRn gegeben durch (x; y) = ni=1 xi yi . Dann ist nicht ausgeartet, denn N( ) =
f0g, weil (x; x) > 0 fur x 6= 0.
2. Sei auf K n wie in (1) gegeben. Dann hat bezuglich der Standardbasis die Matrixdar-
stellung Mat B ( ) = 1n, also ist Rang ( ) = n.
3. Sei  auf IR4 das Minkowskische Skalarprodukt. Dann ist die Matrixdarstellung von 
bezuglich der Standardbasis invertierbar, also ist  nicht ausgeartet.
4. Sei l 2 V  , (x; y) = l(x)  l(y). Dann gilt N( ) = ker(l). Wenn dim(V )  2 ist, gilt
ker(l) 6= f0g, also ist in diesem Fall ausgeartet.
Fakt 3: Sei V endlichdimensional und W  V ein Vektorraum mit W  N( ) = V . Dann ist
die Einschrankung von auf W nicht ausgeartet.
Beweis: U bungsaufgabe.
De nition 2: Zwei symmmetrische Bilinearformen (V; ) und (V~ ; ~) sind isomorph, falls
ein Isomorphismus f : V ! V~ mit f  ( ~) = existiert. O enbar ist die Isomorphie eine
A quivalenzrelation auf der Klasse aller symmetrischen Bilinearformen. Die A quivalenzklassen
nennt man Isomorphieklassen.
Fakt 4:
1. O enbar ist der Rang eine Isomorphieinvariante, d.h., zwei isomorphe symmetrische Bili-
nearformen haben denselben Rang.
2. Zwei symmetrische Bilinearformen ; ~ auf endlichdimensionalen Vektorraumen V; V~ sind
genau dann isomorph, wenn zwei Basen B und B~ mit Mat B ( ) = Mat B~ ( ~) existieren.
Beweis: Der erste Fakt folgt leicht aus dem zweiten. Sei Mat B ( ) = Mat B~ ( ) ~ und seien B =
(b1; : : :; bn) und B = (b1; : : :; bn), dann existiert ein Isomorphismus ' : V ! V~ mit '(bi ) = ~bi .
~ ~ ~
Es gilt ' ( ) ~ = :
Sei umgekehrt ' : V ! V~ ein Isomorphismus mit ' ( ~) = und sei B = (b1; : : :; bn) eine Basis
von V . Dann ist B~ = ('(b1 ); : : :; '(bn)) eine Basis von V~ und Mat B ( ) = Mat B~ ( ~). 2

67
5.3 Klassi kation der quadratischen Formen
Sei char (K) 6= 2. Alle Vektorraume werden als endlichdimensional vorausgesetzt.
Lemma 1: Sei V ein Vektorraum und sei eine symmetrische Bilinearform auf V . Wenn 6= 0
gilt, so gibt es ein x 2 V mit (x; x) 6= 0.
Beweis: Angenommen (x; x) = 0 fur alle x 2 V , aber es gabe x; y 2 V mit (x; y) 6= 0. Dann
gilt 0 = (x + y; x + y) = (x; x) + 2 (x; y) + (y; y) = 2 (x; y) 6= 0. Widerspruch. 2
Bemerkung 1: Der Beweis hatte auch durch Satz 5.1.1 gefuhrt werden konnen. Der angegeben
Beweis ist konstruktiv, d.h. er gestattet die praktische Berechnunng eines Vektors v 2 V mit
(v; v) 6= 0.
Bemerkung 2: In einem Korper mit Charakteristik 2 ist das Lemma falsch, denn dann ist jede
schiefsymmetrische Bilinearform symmetrisch.
De nition 1: Eine Basis B = (b1; : : :; bn) von V nennt man eine Orthogonalbasis bezuglich
, falls (bi ; bj ) = 0 fur i 6= j gilt.

Satz 1: Sei eine symmetrische Bilinearform auf V . Dann hat V eine Orthogonalbasis
bezuglich .
Beweis: durch Induktion nach dim(V ). Fur dim(V ) = 0 ist die leere Menge eine Orthogonal-
basis. Sei die Behauptung fur Vektorraume kleinerer Dimension als V bewiesen. Wenn = 0
gilt, so ist jede Basis eine Orthogonalbasis. Sei also 6= 0. Nach Lemma 1 gibt es v 2 V mit
(v; v) 6= 0, Sei W = v? = fw 2 V j (v; w) = 0g. O enbar ist W ein Untervektorraum von V .
Dann gilt v 62 W nach Vorraussetzung und W  Kv = V , denn fur x 2 V gilt
x = (x; v)  v + (x (x; v)  v):
| (v;{zv)} | (v; {z v) }
2K v 2W
Nach Induktionvoraussetzung gibt es eine Orthogonalbasis (b1 ; : : :; bn) von W bezuglich jW .
Dann ist (v; b2; : : :; bn) eine Orthogonalbasis von V . 2
Bemerkung 3: Weil der Beweis von Lemma 1 konstruktiv war, ist es auch der Beweis des
Satzes.
De nition 2: K ist quadratisch abgeschlossen, falls fur jedes x 2 K eine Quadratwurzel
(d.h, ein 2 K mit 2 = x) existiert.
Bemerkung 4: Sei K ein Korper, char(K) 6= 2: Dann existieren zu jedem x 2 K f0g entweder
keine oder zwei Quadratwurzeln.
Sei dazu x = y2 . Dann ist auch y eine Quadratwurzel aus x, diese ist wegen y 6= 0 von y
verschieden. Die beiden Quadratwurzeln y und y sind sie einzigen Quadratwurzeln aus x, denn
t2 x = t2 y2 = (t y)(t + y):
Beispiel 1: C ist quadratisch abgeschlossen, denn wenn z = a + ib eine komplexe Zahl ist, so
ist sp sp
(a2 + b2) + a + sign(b) a2 + b2 a  i
2 2
p
eine Quadratwurzel aus z. Dabei ist t die nichtnegative Quadratwurzel aus der reellen Zahl
t  0.

68
Theorem 2:
1. Sei eine symmetrische Bilinearform auf einem endlichdimensionalen Vektorraum uber
einem quadratisch abgeschlossenem Korper K, char (K) 6= 2. Dann existiert eine Basis
B = (b1; : : :; bn) von V , so da
 fur 1  i  r
(bi ; bj ) = ij
0 sonst,
wobei r der Rang von ist.
~ auf endlichdimensionalen K-
2. Die symmetrischen Bilinearformen (V; ) und (V~ ; )
Vektorraumen V und V~ sind (unter denselben Voraussetztungen an K wie im ersten
~
Punkt) genau dann isomorph, wenn dim(V ) = dim(V~ ) und Rang ( ) = Rang ( ).

Bemerkung: Wir haben also in diesem Falle eine vollstandige Klassi kation der symmetrischen
Bilinearformen auf endlichdimensionalen Vektorraumen bekommen: bis auf Isomorphie ist (V; )
eindeutig durch n = dim(V ) und r = Rang ( ) charakterisiert, wobei alle (n; r) 2 IN2 mit r  n
angenommen werden.
Beweis von Theorem 2: Sei B~ = (~b1 ; : : :; ~bn) eine Orthogonalbasis von V bezuglich (B~ existiert
nach Satz 1). Durch Umordnen von ~ konnen wir erreichen, da eine Zahl r mit 0  r  n
existiert, so da si = (b~i ; b~i) fur 1  i  r von 0 verschieden ist und fur r < i  n verschwindet.
Dann stimmt r mit dem Rang von uberein (das folgt aus Fakt 5.2.2).
Sei qi eine Quadratwurzel aus si , dann hat die Basis B = (b1 ; : : :; bn),
( ~bi
bi = q fur 1  i  r
~bii fur r < i  n
die im ersten Punkt des Theorems beschriebene Gestalt. Der zweite Punkt folgt aus dem ersten
Punkt und aus Fakt 5.2.4. 2
Bemerkung 5: Auch dieser Beweis ist konstruktiv.
De nition 3: Eine Orthonormalbasis von V bezuglich ist eine Basis B = (b1; : : :; bn)
von V mit Mat B ( ) = 1n, d.h. (bi ; bj ) = ij .
Bemerkung 6: Weil der Rang von 1n n ist, konnen Orthonormalbasen nur bezuglich nicht-
ausgearteter symmetrischer Bilinearformen existieren. Umgekehrt garantiert das Theorem die
Existenz von Orthonormalbasen fur nichtausgeartete symmetrische Bilinearformen auf endlich-
dimensionalen Vektorraumen uber quadratisch abgeschlossenen Korpern mit von 2 verschiedener
Charakteristik.

69
5.4 Quadratische Formen auf reellen Vektorraumen
Theorem 3 (Tragheitssatz von Sylvester): Sei eine symmetrische Bilinearform uber einem
IR-Vektorraum V der endlichen Dimension n. Dann existieren a; b 2 IN mit a+b  n und eine
Orthogonalbasis B = (b1 ; : : :; bn) von V , so da
8 1 fur 1  i  a
<
(bi ; bi) = : 1 fur a < i  a + b
0 fur i > a + b
gilt. Die Zahlen a und b sind dabei eindeutig durch die Isomorphieklasse von (V; ) bestimmt,
umgekehrt bestimmen sie diese Isomorphieklasse gemeinsam mit n = dim(V ) eindeutig. Es
gilt a + b = Rang ( ).
Beweis: Wir fuhren zunachst den Beweis der Existenz einer Basis B mit der beschriebenen
Eigenschaft. Sei B~ = (~b1 ; : : :; ~bn) eine Orthogonalbasis von V , und sei B^ = (^b1 ; : : :; ^bn) mit
8 p ~bi
>
< (~~bi;~bi) falls (~bi ; ~bi) > 0
^bi = p bi falls (~bi ; ~bi) < 0
>
: ~b(i~bi;~bi) falls (~bi ; ~bi) = 0
Dann ist B^ eine Orthogonalbasis mit (^bi ; ^bi) 2 f 1; 0; 1g, also kann aus B^ durch Umordnen der
Basisvektoren eine Basis B erhalten werden, die die im Theorem beschriebene Form hat. Da a,
b und n die Isomorphieklasse eindeutig bestimmen, folgt aus Fakt 5.2.4. Aus Fakt 5.2.2 folgt die
letzte Behauptung des Theorems. Zum Beweis der Eindeutigkeit von a und b benotigen wir
De nition 1:
 ist positiv de nit, falls (v; v) > 0 fur v 2 V f0g;
 ist positiv semide nit, falls (v; v)  0 fur alle v 2 V ;
 ist negativ de nit (bzw. negativ semide nit), falls positiv de nit (bzw.
semide nit) ist.

Beispiel 1: O enbar ist das Euklidische Skalarprodukt auf IRn positiv de nit. Daher ist positiv
de nit, wenn eine Orthonormalbasis B von V bezuglich existieren sollte. Wenn eine Basis B
mit Mat B ( ) = 1n existieren sollte, so ist negativ de nit.
Lemma 1: Sei eine symmetrische Bilinearform auf einem endlichdimensionalen IR-Vektorraum
V und seien X+ und X Unterraume von V , so da die Einschrankung von auf X+ positiv
und auf X negativ de nit ist. Dann gilt
dim(X+ ) + dim(X )  Rang ( ):
Beweis: Es gilt X+ \ X = f0g, denn aus x 2 (X+ \ X ) f0g wurden nach unseren Vorraus-
setzungen aus jX die widerspruchlichen Ungleichungen (x; x) > 0 (wegen x 2 X+ f0g)
und (x; x) < 0 (wegen x 2 X f0g) folgen. Sei X = X+  X , dann gilt dim(X) =
dim(X+ ) + dim(X ). jX ist nicht ausgeartet, denn sei x = x+ + x 2 X f0g, mit x 2 X .
Fur x+ 6= 0 sei y = x+ 2 X, fur x+ = 0 (und damit x 6= 0) sei y = x . In beiden
Fallen gilt (x; y) 6= 0, also ist jX nicht ausgeartet. Insbesondere folgt X \ N( ) = f0g,

70
also dim(V )  dim(X) + dim(N( )) = dim(X+ ) + dim(X ) + dim(N( )). 2
Beweis von Theorem 3, Eindeutigkeit von a und b: O enbar genugt es zu zeigen, da a und
b durch (V; ) selbst eindeutig bestimmt sind. Sei B~ eine andere Orthogonalbasis mit B~ =
(~b1; : : :; ~bn), 8 1 fur 1  i  a~
<
(b~i ; b~i) = : 0 fur i > a~ + ~b
1 fur a~ < i  ~a + ~b:
Sei X+ die lineare Hulle von C+ = (b1; : : :; ba ) und X die lineare Hulle von C = (~ba~+1 ; : : :; ~ba~+~b )
Dann ist C+ eine Orthogonalbasis von X+ , und Mat C ( jX ) = 1~b . Aus Beispiel 1 folgt
a + b = Rang ( )  dim(X+ ) + dim(X ) = a + ~b
Also b  ~b. Indem wir die Rollen von B und B~ vertauschen, erhalten wir auch b  ~b, also b = ~b.
Weiterhin gilt
a = Rang ( ) b = Rang ( ) ~b = a~;
denn Rang ( ) = a + b = a~ + ~b . Also sind a und b eindeutig bestimmt. 2
Fakt: ist genau dann positiv bzw. negativ de nit, falls a = dim(V ) bzw. b = dim(V ) in
Theorem 3 gilt. ist genau dann positiv bzw. negativ semide nit, falls b = 0 bzw. a = 0 in
Theorem 3 gilt. Insbesondere hat V genau dann eine Orthonormalbasis bezuglich , wenn
positiv de nit ist. 2
De nition 2: In der Situation von Theorem 3 nennt man sign ( ) = a b die Signatur von
.
Bemerkung 1: Die Isomorphieklasse (V; ) ist dann eindeutig bestimmt durch dim(V ), rang ( )
und sign( ).
Beispiel 2:n n ((x1 ; : : :; xn); (y1 ; : : :; yn)) = Pni=1 xiyi . n ist das Euklidische Skalarprodukt
auf dem IR . n ist positiv de nit, eine Orthonormalbasis des IRn ist durch die Standardbasis
(b1; : : :; bn) gegeben, bi = (ij )nj=1 ; a = n, b = 0, sign ( n ) = n. Sei n = a + b,
X
a X
n
a;b ((xi )ni=1 ; (yi )ni=1 ) = xi yi xiyi :
i=1 i=a+1
Bezuglich der Standardbasis (e1 ; : : :; en) hat a;b die in Theorem 3 beschriebene Gestalt. a;b
ist nicht ausgeartet, sign( a;b ) = a b. Insbesondere ist 3;1 das Minkovskische Skalarprodukt
auf dem IR4 , es gilt sign ( 3;1 ) = 2.
Bemerkung 2: Der Beweis der Existenzaussage in Theorem 3 ist konstruktiv. Insbesondere
ergibt sich daraus ein praktisches Verfahren zur Bestimmung von a; b; sign( ) und zum Test auf
positive De nitheit.
De nition 3: Ein bezuglich positiv de niter Unterraum W  V ist maximal positiv
de nit, falls fur jedes U  V mit W  U die Einschrankung von auf U nicht positiv de nit
ist. Analog de niert man maximale negativ de nite Unterraume.
Fakt 1:
1. Jeder positiv bzw. negativ de nite Unterraum W von V ist in einem maximal positiv bzw.
negativ de niten Unterraum enthalten.

71
2. Alle maximalen positiv bzw. negativ de niten Unterraume haben die Dimension a bzw. b
(aus Theorem 3).
3. Sei V+  V ein maximal positiv de niter Unterraum und V ein maximal negativ de niter
Unterraum. Dann gilt V = V+  V  N( ).
Beweis:
1. Durch absteigende Induktion nach dim(W). Die Behauptung ist klar fur dim(W ) = dim(V ).
Sei die Behauptung fur alle de niten Unterraume groerer Dimension als W bewiesen. Falls
W selbst nicht maximal ist, so gibt es einen Unterraum U  W, so da U ebenfalls positiv
bzw. negativ de nit ist. Dann ist U nach der Induktionsvoraussetzung in einem maximalen
positiv bzw. negativ de niten Unterraum enthalten.
2. Sei W maximal positiv de nit. Sei a~ = dim(W) und sei v1; : : :; va~ eine Orthonormalbasis
von W bezuglich . Aus dem Beweis von Satz 5.3.1 folgt, da man (v1 ; : : :; va~) zu einer
Orthogonalbasis (v1 ; : : :; va~ ; va0~+1 ; : : :; vn0 ) erganzen kann. Sei (vi0 ; vi0 ) = 0 genau dann,
wenn i > rang ( ). Wir konnen auch voraussetzen, da (vi ; vi ) > 0 fur 1  i  a0 und
(vi ; vi) < 0 fur a0 < i  a0 + b0. Dann a0  ~a. Wenn a0 > ~a ware, so ware W + IRva0~+1 ein
positiv de niter
p Unterraum von V , im Widerspruch zur Eigenschaft von W . Also a0 = a~.
Sei vi = vi = j (vi0 ; vi0 )j fur i  rang ( ), vi = vi0 fur i > rang ( ). Dann
8 1 1i=ja
<
(vi ; vj ) = : 1 a0 < i = j  rang ( )
0 sonst.
Wegen der Eindeutigkeit aus Theorem 3 folgt a0 = a, also a~ = a.
3.  V+ \ V = f0g ist klar.
 (V+  V ) \ N( ) = f0g folgt aus dem Beweis von Lemma 1.
 V+  V  N( ) = V :
dim(V+  V  N( )) = dim(V+ ) + dim(V ) + dim(N( ))
= a + b + dim(N( )) = rang ( ) + dim(N( ))
= dim(V ):
2
Fakt 2: Sei eine nicht ausgeartete symmetrische Bilinearform auf einem endlichdimensionalen
reellen Vektorraum V , sei B = (b1 ; : : :; bn) eine Basis von V und habe b dieselbe Bedeutung wie
in unserer Formulierung von Theorem 3. Dann gilt:
( 1)b det(Mat B ( )) > 0:
Bemerkung: Mat B ( ) = Mat B;B ( ); nicht ausgeartet ,  Isomorphismus ,
det(Mat B ( )) 6= 0. Sei C = (c1 ; : : :; cn) eine andere Basis von V , dann gilt nach Fakt 5.4.1
Mat B ( ) = Mat B;C (Id)T  Mat C ( )  Mat B;C (Id): ()
Beweis von Fakt 2: Sei C eine Basis von V mit
8 1 i=ja
<
(Mat C ( ))ij = : 1 a < i = j  a + b
0 sonst

72
(vgl. Theorem 3). Nach () gilt dann
( 1)b det(Mat B ( )) = ( 1)b det(Mat B;C (Id)T ) det(Mat C ( )) det(Mat B;C (Id))
= ( 1)b det(Mat B;C (Id))( 1)b det(Mat B;C (Id))
= det(Mat B;C (Id))2 > 0
2
Satz 1: Sei B = (b1 ; : : :; bn) eine Basis des reellen Vektorraumes V , sei Vk = L(fb1; : : :; bk g),
und sei Bk die Basis (b1; : : :; bk ) von Vk . Sei eine symmetrische Bilinearform auf V . Dann
ist genau dann positiv de nit, wenn fur 1  k  n
det(Mat Bk ( jVk Vk )) > 0:

Bemerkung: Eine symmetrische Matrix A mit reellen Eintragen ist positiv de nit, falls die
durch A de nierte symmetrische Bilinearform A (x; y) = xT  A  y positiv de nit ist. Nach Satz
1 ist dies genau dann der Fall, wenn in
0 a a a : : : 1 v1 = f(x1; 0; : : :)g
BB a1121 a2212 a1323 : : : CC v2 = f(x1; x2; 0; : : :)g
B@ a31 a32 a33 : : : CA v3 = f(x1; x2; x3; 0; : : :)g
.. .. .. . . .
. . .
die Determinanten der eingerahmten Matrizen positiv sind. Praktischen Wert hat dieses Krite-
rium nur fur kleine n, etwa fur n = 2.
Beweis von Satz 1, Notwendigkeit: Sei positiv de nit. O enbar ist die Einschrankung jVkVk
ebenfalls positiv de nit (und daher nicht ausgeartet),also det(Mat Bk ( jVk Vk )) > 0.
Hinlanglichkeit, Induktion nach n: Die Behauptung ist klar fur n = 1. Sei die Behauptung fur
alle Vektorraume kleinerer Dimension als n bewiesen. Wenn die Bedingung des Kriteriums
erfullt, so tut dies auch jVn 1 , also ist jVn 1 nach der Induktionsannahme positiv de nit. Al-
so ist entweder Vn 1 oder Vn ein maximaler positiv de niter Unterraum. Im letzten Fall ist
positiv de nit, im ersten Fall ergibt Fakt 1 a = dimVn 1 = n 1 und daher b = 1, und Fakt 2
wurde det(Mat B ( )) < 0 ergeben. 2
a c
Beispiel: c b ist positiv de nit , a > 0 und ab c2 > 0.
Bemerkung: Die Einschrankung einer nichtausgearteten inde niten Form auf einen Unterraum
kann ausgeartet sein.
5.5 Die Gramsche Determinante, die Gruppen O( ) und SO( )
Sei V ein Vektorraum der endlichen Dimension n uber einem Korper K, char (K) 6= 2. Sei
D(V ) der Raum der schiefsymmetrischen n-Linearformen auf V . Wir wissen aus Kapitel 4, da
dim(D(V )) = 1 gilt. Sei d 2 D(V ) f0g. Dann kann jedes e 2 D(V ) als e = d geschrieben
werden, wobei  2 K eindeutig bestimmt ist.

73
Satz 1: In der soeben beschriebenen Situation sei eine symmetrische Bilinearform auf V .
Dann gibt es eine eindeutig bestimmte Konstante c ;d 2 K, so da fur v1 ; : : :; vn ; w1; : : :; wn 2
V die Gramsche Determinante
det( (vi ; wj ))ni;j =1 = c ;d d(v1 ; : : :; vn )d(w1; : : :; wn) ()
gegeben ist. Es gilt c ;d = n  2 c ;d . Es gilt c ;d = 0 genau dann, wenn ausgeartet ist.
Beweis: Sei G(v1; : : :; vn; w1; : : :; wn) die linke Seite von (). Aus den Eigenschaften der Determi-
nante von Matrizen folgt, da G eine 2n-Linearform auf V ist, die schiefsymmetrisch in v1 ; : : :; vn
und in w1; : : :; wn ist. Fur feste v1 ; : : :; vn ist also w1; : : :; wn ! G(v1 ; : : :; vn; w1; : : :; wn) eine
schiefsymmetrische Linearform auf V , also gibt es ein eindeutig bestimmtes c(v1 ; : : :; vn) 2 K
mit:
G(v1; : : :; vn; w1; : : :; wn) = c(v1 ; : : :; vn)d(w1; : : :; wn):
Es gibt eine Basis (b1; : : :; bn) von V mit d(b1; : : :; bn) = 1, dann gilt
c(v1 ; : : :; vn) = G(v1 ; : : :; vn; b1; : : :; bn):
Also ist c(v1 ; : : :; vn) ebenfalls ein Element von D(V ) und es gibt c ;d 2 K mit c(v1 ; : : :; vn) =
c ;d d(v1 ; : : :; vn), und c ;d = G(b1; : : :; bn; b1; : : :; bn) eindeutig bestimmt. Die zweite Behauptung
ist trivial. Die letzte Aussage folgt aus G(b1; : : :; bn; b1; : : :; bn) =
Fakt 5.1.3
det(Mat B ( )) = det(Mat B;B ( )) und Fakt 5.2.1. 2
Bemerkung: () gilt auch fur nichtsymmetrische Bilinearformen.
Fakt 1: Fur m > n und v1 ; : : :; vm; w1; : : :; wm 2 V gilt det(( (vi ; wj))mi;j=1 ) = 0.
Der Beweis ist U bungsaufgabe. 2
Beispiel 1: Fur das Euklidische Skalarprodukt nn und fur dn(v1 ; : : :; vn) =
det(Mat Z (v1 ; : : :; vn)) = det(Mat S (v1 ; : : :; vn)), dn 2 D(IR ), gilt c n ;dn = 1. Die Identitat ()
folgt in diesem Fall aus der Multiplikativitat der Determinante und aus
Mat Z (v1 ; : : :; vn)Mat S (w1 ; : : :; wn) = ( n (vi ; wj ))ni;j =1.
Wir setzen von nun an als nicht ausgeartet voraus.
De nition 1: O( ) ist die Menge aller Automorphismen u von V mit der Eigenschaft
8 v; w 2 V : (u(v); u(w)) = (v; w);
d.h. u = , versehen mit der Hintereinanderausfuhrung von Automorphismen als Gruppen-
operation. O( ) ist die orthogonale Gruppe von .
Fakt 2: Fur alle u 2 O( ) gilt j det(u)j = 1.
Beweis: Sei G die linke Seite von () wie beim Beweis von Satz 1. Es gilt
c ;d det(u)2 d(v1; : : :; vn)d(w1; : : :; wn) =
c ;d d(u(v1 ); : : :; u(vn))d(u(w1); : : :; u(wn)) =
G(u(v1); : : :; u(vn); u(w1); : : :; u(wn)) =
det( (u(vi ); u(wj ))ni;j =1 ) =
G(v1 ; : : :; vn; w1; : : :; wn) =
c ;d d(v1; : : :; vn)d(w1; : : :; wn)
Weil c ;d 6= 0 ( nicht ausgeartet), folgt daraus det(u)2 = 1, also j det(u)j = 1. 2

74
De nition 2:
SO( ) = fu 2 O( ) j det(u) = 1g = ker(O det
! f1; 1g)  O( ):
SO( ) ist eine Untergruppe von O( ). Erinnere an
X
a X
a+b
a;b ((xi )ai=1
+b ; (y )a+b ) =
i i=1 xi yi x i yi
i=1 j =a+1
auf IRa+b und n = n;0 .
De nition 3:
O(n) = O( n ); SO(n) = SO( n ); O(a; b) = O( a;b ); SO(a; b) = SO( a;b ):

Beispiel 2: (Wir identi zieren hier 2  2-Matrizen mit Endomorphismen des IR2).
 cos ' sin ' 
 Sei u(') = sin ' cos ' . Es gilt fu(') j ' 2 IRg = SO(2), denn u(') uberfuhrt die
Orthonormalbasis ((1; 0); (0; 1)) in die Orthonormalbasis ((cos '; sin ');
(sin '; cos ')). Es gilt det(u(')) = 1, also u(') 2 SO(2). Alle Elemente von SO(2) konnen
als u(') dargestellt werden. Dabei gilt u(') = u('0) genau dann, wenn ' '0 = 2Z. Es
gilt u(')u( ) = u(' + ). u(') ist eine Drehung um '.
 cosh t sinh t 
 Sei l(t) = sinh t cosh t . Dann gilt l(t) 2 SO(1; 1). Jedes Element von SO(1; 1) kann
in dieser Form auf eindeutige Weise dargestellt werden und l(s)l(t) = l(s + t). Die O(a; 1)
spielen die Rolle der Lorenzgruppen fur die spezielle Relativitatstheorie mit a raumlichen
Dimensionen, xa+1 spielt dann die Rolle der Zeitkoordinate.
Fakt 3: Sei q(x) = (x; x) die zu gehorende quadratische Form (vgl. Satz 5.5.1). Dann gilt
u 2 O( ) genau dann, wenn q(u(x)) = u(x) fur alle x 2 V .
Beweis: Beachte (x; y) = 21 ( (x + y; x + y) (x; x) (y; y))... 2
5.6 Euklidische Vektorraume
In diesem Abschnitt ist K = IR.
De nition 1: Ein Euklidischer Vektorraum ist ein Paar (V; h; i), wobei V ein reeller
Vektorraum und h; i : V  V p ! IR, (v; w) ! hv; wi eine positiv de nite, symmetrische
Bilinearform ist. Dann sei kvk = hv; vi.
p
Beispiel: V = IRn, hx; yi = n(x; y). k(xi)ni=1k = Pni=1 x2i ist nach Pythagoras die Lange der
Strecke von 0 nach (x1 ; : : :; xn). Man kann also kvk als die Lange von v deuten. Dann sollte die
Dreiecksungleichung ku + vk  kuk + kvk gelten.

75
Satz 1: (Cauchy-Schwarz). Sei h; i positiv de nit und v beliebig (auch unendlichdimensio-
nal). Dann gelten die Cauchy-Schwarzsche Ungleichung
jhx; yij  kxkkyk
und die Dreiecksungleichung
kx + yk  kxk + kyk:
Beweis: Sei kxk = kyk = 1. Dann gilt
0  hx y; x yi = hx; xi + hy; yi 2hx; yi = 2 2hx; yi: ()
Es gilt also hx; yi  1 und auch hx; yi  1, also hx; yi  1. Also gilt jhx; yij  1, falls
kxk = kyk = 1. Seien nun x und y beliebig. Wenn einer dieser Vektoren verschwindet, ist die
Cauchy-Schwarzsche Ungleichung trivial. Andernfalls gilt k kxxk k = 1, k kyyk k = 1, also
 x y 
;
kxk kyk  1;
also jhx; yij  kxkkyk.
Beweis der Dreiecksungleichung:
kx + yk2 = kxk2 + kyk2 + 2hx; yi  kxk2 + kyk2 + 2kxkkyk = (kxk + kyk)2 : ()
Bemerkung 1:
 In () tritt Gleichheit nur fur x = y ein. Deswegen tritt in der Cauchy-Schwarzschen
Ungleichung genau dann Gleichheit ein, wenn dim(L(x; y))  1. Ebenso wird die Dreiecks-
ungleichung streng, sofern nicht x oder y verschwindet, oder ein positives  2 IR existiert
mit x = y.
p p
 kxk = hx; xi = 2 hx; yi = jjkxk.
 Aus der Dreiecksungleichung folgt, da (V; d) mit d(x; y) = kx yk ein metrischer Raum
ist: d(x; z) = kx z k = k(x y) + (y z)k  kx yk + ky z k = d(x; y) + d(y; z). V ist
ein reeller Hilbertraum, falls dieser metrische Raum vollstandig ist. Dies ist immer der
Fall fur dim(V ) < 1.
De nition 2: Sei V wie in Satz 1 de niert. Dann nennen wir zwei Vektoren x; y 2 V
orthogonal, falls hx; yi = 0; dann schreiben wir x ? y.
Bemerkung 2: (Pythagoras) x ? y , kx + yk2 = kxk2 + kyk2 , kx yk2 = kxk2 + kyk2 .
De nition 3: Sei V wie in Satz 1 de niert. Dann sei fur x; y 2 V f0g w(x; y) der durch die
Eigenschaften 0  w(x; y)   und hx; yi = kxkkyk cos(w(x; y)) eindeutig bestimmte Winkel
(Er existiert nach der Cauchy-Schwarzschen Ungleichung).
Bemerkung 3: kx yk2 = kxk2 + kyk2 2hx; yi = kxk2 + kyk2 2kxkkyk cos(w(x; y)) ist der
Cosinussatz der ebenen Trigonometrie.
Bemerkung 4: (Gram-Schmidtsches Orthogonalisierungsverfahren): Sei B = (b1 ; : : :; bn) eine

76
Basis des euklidischen Vektorraumes V . Dann erhalten wir durch folgende induktive Vorschrift
eine Orthonormalbasis (v1 ; : : :; vn):
v1 = kbb1 k
1
Pk 1
vk = bk Pki=11hbk ; viivi ;
kbk i=1 hbk ; viivi k
falls v1; : : :; vk 1 schon P berechnet sind. Man pruft induktiv, da L(v1; : : :; vk 1) =
L(b1; : : :; bk 1). Also bk 6= P k 1hb ; v iv . Damit ist v wohlde niert. O enbar kv k = 1. Fur
j < k gilt hvk ; vj i = chbk
i=11 k i i
k hb ; v iv ; v i = chb ; v
k
i c
Pk 1hb ; v ihv ; v i = 0,k wobei wir
i=1 k i i j k j i=1 k i i j
im Sinne eines Induktionsbeweises schon vorausgesetzt haben, da die (v1 ; : : :; vk 1) orthogonal
sind, d.h. hvi ; vj i = ij fur 1  i; j  k 1.
Fakt 1: Sei V ein beliebiger reeller Vektorraum und h; i positiv de nit. Sei (e1 ; : : :; en) bezuglich
h; i orthonormal.
1. Fur x 2 V gilt die Parsevalsche Ungleichung
X
n
hx; eii2  kxk2:
i=1
2. Die Gleichheit gilt in dieser Ungleichung genau dann, wenn x = ni=1 hx; eiiei . Dies ist
P
genau dann fur alle x 2 V der Fall, wenn (e1 ; : : :; en ) eine Basis von V ist.
3. Sei (e1 ; : : :; en) eine Orthonormalbasis, dann gilt
X
n
hx; yi = hx; eiihy; ei i
i=1
fur x; y 2 V .

Beweis: Sei x~ = x Pni=1 hx; eiiei . Dann gilt


X
n
hx~; ej i = hx; ej i hx; eiihei ; ej i = 0;
i=1
P
also auch hx~; ni=1 hx; eiiei i = 0. Nach Pythagoras gilt
X
n X
n
kxk2 = kx~k2 + k hx; ei iei k2 = kx~k2 + hx; ei i2 ;
i=1 i=1
also kx2k
Pn hx; e i2 = kx~k2. Daraus folgen (1) und der erste Teil von (2). Wenn x~ = 0 ist
i=1 i
fur alle x 2 V , so erzeugen die b1; : : :; bn V und P
sind eine Basis. Wenn (e1 ; : : :; en ) eine Basis ist,
so folgt aus der Orthogonalitat der e , da x = n e , = hx; e i und x~ = 0 gilt.
i i=1 i i i i
Weiterhin gilt
X
n X
n X
n X
n
hx; yi = h hx; eiiei ; hy; ej iej i = hx; ei ihy; ej ihei ; ej i = hx; ei ihy; ei i:
i=1 j =1 i;j =1 i=1
2

77
Satz 2: Sei (V; h; i) ein Euklidischer Vektorraum. Sei l ein lineares Funktional auf V . Dann
gibt es genau ein r(l) 2 V mit der Eigenschaft
8 v 2 V : l(v) = hv; r(l)i:
Durch r : V  ! V ist ein Isomorphismus de niert.
Beweis: Erinnere an 5.1 und 5.2. Fur eine beliebige symmetrische Bilinearform auf V war
 : V ! V  durch ( (x))(y) = (x; y) fur alle x; y 2 V de niert. Es gilt N( ) = ker( ), wegen
dim(V  ) = dim(V ) ist also  genau dann ein Isomorphismus, wenn nicht ausgeartet ist. Sei
(x; y) = hx; yi. Dann ist nicht ausgeartet, also ist  ein Isomorphismus. Sei r =  1 : V  ! V
der zu  inverse Isomorphismus. Dann leistet r das Gewunschte:
l(x) =  (r(l))(x) = (r(l); x) = hr(l); xi: 2
De nition 4: Fur einen Unterraum X  V sei
X ? = fy 2 V j 8 x 2 X : hx; yi = 0g
das orthogonale Komplement zu X.
Bemerkung: Wenn man den Isomorphismus r : V  ! V aus Satz 2 benutzt, um V  mit V zu
identi zieren, so geht diese De nition in die in Abschnitt 2 gegebene De nition uber.
Satz 3: Fur jeden Unterraum X eines Euklidischen Vektorraumes V gilt
X  X ? = V:

Beweis: Sei (b1; : : :; bd) eine Orthonormalbasis von X. Fur v 2 V sei pX (v) = Pdi=1hv; biibi 2 X.
Man pruft leicht hpX (v); bi i = hv; bi i fur 1  i  d, also hpX (v); xi = hv; xi fur alle x 2 X, also
v pX (v) 2 X ? . Also X + X ? = V . Aus v 2 X \ X ? folgt nach De nition 4 hv; vi = 0 und
damit v = 0, also ist die Summe X + X ? eine direkte Summe. 2
De nition 5: Sei X ein Unterraum eines Euklidischen Vektorraumes V . Die durch pX (v) 2 X
und v pX (v) 2 X ? (nach Satz 3) eindeutig de nierte Abbildung pX : V ! V nennt man
den Orthogonalprojektor auf X.
Bemerkung: Es gilt p2X = pX , denn pX (x) = x fur x 2 X.
Bemerkung 5: Satz 2 und Satz 3 gelten fur reelle Hilbertraume ahnlich, allerdings ist es not-
wendig, das lineare Funktional aus Satz 2 als stetig vorauszusetzen (Riesscher Satz) und in Satz
3 zu fordern, da X abgeschlossen ist.

78
De nition 6: Sei n = dimV . d 2 D(V ) nennt man normiert, wenn die folgenden aquiva-
lenten Bedingungen erfullt sind:
1. jd(b1; : : :; bn)j = 1 fur eine geeignete Orthonormalbasis b1 ; : : :; bn von V .
2. jd(b1; : : :; bn)j = 1 fur jede Orthonormalbasis b1; : : :; bn von V .
3. Es gilt ch;i;d = 1 in der Formel fur die Gramsche Determinante, d.h.
hv ; w i
: : : hv1; wni
1 . 1 ... .. = d(v1 ; : : :; vn)d(w1; : : :; wn):
.. .
hvn; w1i : : : hvn; wni

Bemerkung: (3))(2))(1) ist klar, (1))(3) folgt aus dem Satz uber die Gramsche Determi-
nante.
Fakt 2: Mit d ist auch d normiert. Es gibt genau zwei normierte Elemente von D(V ) und zwar
in jeder Halbachse von D(V ) genau eines.
Beweis: Sei d 6= 0 beliebig. Dann gilt c = ch;i;d > 0, denn fur vi = bi und v1 ; : : :; vn orthonor-
mal ist die Gramsche Determinante G(v1; : : :; vn; w1; : : :; wn) = 1. Dann ist d=pc normiert. Sei
d normiert und  2 IR. O enbar ist d genau dann normiert, wenn 2 = 1, woraus die restlichen
Aussagen folgen. 2
Lemma 1: Sei V~  V ein Unterraum der Kodimension eins (d.h. dim(V ) dim(V~ ) = 1 =
dim V~ ? ). Sei h 2 V~ ? und khk = 1. Sei d 2 D(V ) normiert. Dann gilt
1.
~ 1; : : :; xn 1) = d(h; x1; : : :; xn 1); x1; : : :; xn 1 2 V~
d(x
de niert ein normiertes Element von D(V~ ).
2. Fur v1 2 V und v2 ; : : :; vn 2 V~ gilt
d(v1; : : :; vn) = hv1 ; hid~(v2 ; : : :; vn ):
Beweis: Die erste Behauptung folgt sofort aus De nition 6, denn wenn b1; : : :; bn 1 eine Ortho-
normalbasis fur V~ ist, so ist (h; b1; : : :; bn 1) eine Orthonormalbasis fur V .
Sei v10 = v1 hv1 ; hih. Dann gilt v10 2 (IRh)? = V~ , denn aus Satz 3 folgt leicht X ?? = X fur
alle Unterraume X  V . Also ist (v10 ; v2; : : :; vn) linear abhangig, denn alle diese n Vektoren
gehoren zu dem (n 1)-dimensionalen Unterraum V~ . Daraus folgt d(v10 ; v2; : : :; vn) = 0 wegen
der Schiefsymmetrie von d. Also folgt
d(v1; : : :; vn) = d(v10 + hv1 ; hih; v2; : : :; vn) = d(v10 ; v2; : : :; vn) + hv1 ; hid(h; v2; : : :; vn)
~ 2; : : :; vn):
= hv1 ; hid(v
2
Folgerung 1: Sei
Xn
S(v1 ; : : :; vn) = f i vi j 0    1g
i=1
das von den vi erzeugte Parallelspat. Moge das n-dimensionale Volumen von Parallelspaten im
n-dimensionalen Euklidischen Raum folgende Eigenschaften haben:

79
1. Das Volumen des 1-Spates ist die Norm des erzeugenden Vektors.
2. Das Volumen eines n-Spates S(v1 ; : : :; vn) ist gleich dem Produkt aus dem (n 1)-dimensionalen
Volumens eines Seitenspates (etwa S(v2 ; : : :; vn)) und der Hohe auf dieses Seitenspat.
Dann gilt
Volumen(S(v1 ; : : :; vn)) = jd(v1 ; : : :; vn)j; d 2 D(V ) normiert :
Beispiele: Flache von
IR2  S((x1 ; x2); (y1 ; y2 )) = xy 1 xy 2 :
1 2
Volumen von
x x x
1 2 3
IR3  S((x1 ; x2; x3); (y1; y2 ; y3); (z1 ; z2; z3 )) = y1 y2 y3 ;
z1 z2 z3
denn auf dem IRn ist dn (x1; : : :; xn) = det(Mat z (x1; : : :; xn)) bezuglich n normiert, denn
dn(e1 ; : : :; en) = 1 fur die Standardbasis.
Beweis von Folgerung 1 durch Induktion nach n beginnend mit n = 1. Betrachte die (n 1)-
dimensionale Seite S(v2 ; : : :; vn) von S(v1 ; : : :; vn). Sei V~ der von den v2 ; : : :; vn erzeugte Un-
terraum. Wenn dim(V~ ) < n 1, so sind v2; : : :; vn linear abhangig, es folgt durch die Induk-
tionsannahme, da das Volumen(S(v2; : : :; vn)) = 0, also auch Volumen(S(v1; : : :; vn)) = 0 =
d(v1; : : :; vn). Sei also dim(V~ ) = n 1 und seien h und d~ wie in Lemma 1. Dann ist hv1 ; hi
die Hohe von S(v1 ; : : :; vn) bezuglich der Seite S(v2 ; : : :; vn ), also gilt Volumen(S(v1; : : :; vn )) =
jhv1; hijVolumen(S(v2; : : :; vn)) = jhv2 ; hijjd~(v2 ; : : :; vn )j = jd(v1; : : :; vn )j. 2
5.6.1 Das Vektorprodukt auf einem dreidimensionalen orientierten Euklidischen
Raum
Sei (V; h; i) ein dreidimensionaler Euklidischer Raum und sei d 2 D(V ) normiert.
De nition 7: Fur x; y 2 V sei x  y 2 V der durch
8 z 2 V : hx  y; z i = d(x; y; z) ()
eindeutig de nierte Vektor.
Bemerkung: Die Eindeutigkeit und Existenz von x  y folgt durch Anwendung von Satz 2 auf
das Funktional z 7! d(x; y; z).
De nition 8: Eine Liealgebra ist ein Paar (V; C), wobei C : V  V ! V schiefsymmetrisch
und bilinear ist, so da die Jacobi-Identitat gilt:
C(a; C(b; c)) + C(c; C(a; b)) + C(b; C(c; a)) = 0:

Bemerkung: Meistens schreibt man C als Kommutator C(x; y) = [x; y]. Fur einen Vektorraum
W ist V = L(W; W ) versehen mit [x; y] = x  y y  x eine Liealgebra. Sei V eine Liealgebra
und sei Lx (y) der Kommutator von x mit y fur x; y 2 V . Dann ist die Jacobi-Identitat zu
Lx Ly Ly Lx = L[x;y] aquivalent.
Fakt 3:

80
1.  ist bilinear und schiefsymmetrisch.
2. Sei u 2 O(V; h; i). Dann gilt u(x  y) = det(u)(u(x)  u(y)).
3. x  y ist zu x und y orthogonal.
4. x  y = 0 genau dann, wenn x und y linear abhangig sind.
5.
Sei (e1 ; e2 ; e3) eine positiv orientierte Orthonormalbasis, dann gilt
e e2 e3

1
x  y = hx; e1i hx; e2i hx; e3i
hy; e1i hy; e2i hy; e3i
(zu berechnen nach der Leibnizschen Formel).
Beweis: (1), (2), (3) folgen leicht aus (), z.B. (2):
hz; det(u)u(x)  u(y)i (=) det(u)d(u(x); u(y); z) = det(u)d(u(x); u(y); u(u 1(z)))
= det(u)2 d(x; y; u 1(z)) (=) hx  y; u 1 (z)i
= hu(x  y); z i:
Da das fur alle z gilt, folgt (2).
Fur (3) bemerkt man hx  y; xi (=) d(x; y; x) = 0.
Wenn x und y linear abhangig sind, so gilt hx  y; z i = d(x; y; z) = 0 fur alle z wegen der
Schiefsymmetrie von d. Also x  y = 0. Wenn x und y linear unabhangig sind, so ist (x; y; z) eine
Basis von V und es gilt 0 6= d(x; y; z) = hx  y; z i, also x  y 6= 0, was (4) beweist. Weiterhin gilt
fur alle c 2 V
* e1 e2

e3 +
hc; e i hc; e i hc; e i
hx; e1i hx; e2i hx; e3i ; c = hx; e11i hx; e22i hx; e33i Gram
= d(e1; e2 ; e3)d(c; x; y)
hy; e1i hy; e2 i hy; e3 i hy; e1i hy; e2i hy; e3i
= d(x; y; c);
denn die Permutation von d(c; x; y) ist gerade und d(e1 ; e2 ; e3) = 1, also wird () erfullt. 2
Beispiel: Im IR gilt fur das Standardskalarprodukt und die Standardorientierung
3
e e e
1 2 3
x  y = x1 x2 x3 = (x2 y3 x3 y2 ; x3y1 x1y3 ; x1y2 y2 x1)
y1 y2 y3
mit x = (xi)3i=1 , y = (yi )3i=1 und der Standardbasis (ei )3i=1 .

Satz 4: (H. Gramann) Es gelten die Formeln


1.
hx  y; a  bi = hha;b; xxii hha;b; yyii ; (y)
2.
a  (b  c) = ha; cib ha; bic: (z)

81
Beweis: Die zweite Formel folgt aus der ersten, denn
ha  (b  c); z i (=) d(a; b  c; z) = d(z;
a; b  c) = hz  a; b  ci

= hha;

z; bi hz; ci = hz; ha; cib ha; bici:
bi ha; ci
Damit ist (z) bewiesen. Es verbleibt der Beweis von (y). Dazu benotigen wir folgendes
Lemma 2: Sei (e1; e2; e3) eine Orthonormalbasis von V , und sei c; d; g; h 2 V . Dann gilt
X
3 hg; ci hg; e i hg; ci hg; di
hei ; di hh; ci hh; eii i = hh; ci hh; di ;
i=1
denn die linke Seite ist
X
3 X
3
hg; cihh; ei ihei ; di hh; cihg; ei ihei ; di = hg; cihh; di hh; cihd; gi;
i=1 i=1
womit Lemma 2 bewiesen ist. 2
Wir konnen nun die linke Seite von (y) berechnen, sei dazu (e1 ; e2 ; e3) eine Orthonormalbasis:
X
3 X
3
hx  y; a  bi = hx  y; ei iha  b; eii = d(x; y; ei)d(a; b; ei)
i=1
3 ha; xi ha; yi ha; eii
i=1
Gram X hb; xi hb; yi hb; eii Au osung nach der letzten Zeile
=
i=1 hei ; xi hei ; yi hei ; ei i
X3  ha; yi ha; e i ha; xi ha; e i ha; xi ha; yi 
= hei ; xi hb; yi hb; eii hei ; yi hb; xi hb; eiii + hb; xi hb; yi
i
i=1ha; yi ha; xi ha; xi ha; yi ha; xi ha; yi ha; xi ha; yi
Lemma 2
= hb; yi hb; xi hb; xi hb; yi + 3 hb; xi hb; yi = hb; xi hb; yi :
2
Folgerung 2: Das Vektorprodukt x  y erfullt folgende Eigenschaften, die es eindeutig charak-
terisieren:
1. x  y ist zu den beiden Argumenten orthogonal.
2. Fur seine Lange gilt kx  yk = kxkkyk sin(w(x; y)).
3. Das Dreibein (x; y; x  y) ist rechtshandig, d.h. d(x; y; x  y)  0.
Beweis: Da diese Bedingungen das Vektorprodukt eindeutig bestimmen, ist klar.
1. Fakt 3.3
2. folgt aus (y), angewendet mit b = y und a = x:
hx; xi hx; yi
kx  yk = hx  y; x  yi = hx; yi hy; yi = kxk2kyk2 hx; yi2
2

Def.
= 3 kxk2kyk2 (cos(w(x; y))kxkkyk)2 = sin2 (w(x; y))kxk2kyk2 ;
damit folgt die Behauptung.

82
3. folgt leicht aus (), denn d(x; y; x  y) = hx  y; x  yi  0. 2
Folgerung 3: Das Vektorprodukt erfullt die Jacobi-Identitat
a  (b  c) + c  (a  b) + b  (c  a) = 0:
Es ist nicht assoziativ, bilinear und schiefsymmetrisch und daher eine Lie-Algebra.
Beweis: Wende (z) an:
a  (b  c) + c  (a  b) + b  (c  a) =
bha; ci cha; bi + ahb; ci bha; ci + cha; bi ahb; ci = 0
5.7 Hermitesche Formen
In diesem Abschnitt arbeiten wir uber den komplexen Zahlen. Erinnere an x + iy = x iy und
an z  z 0 = z  z 0, z + z 0 = z + z 0, zz = jz j2 = x2 + y2 > 0 fur z = x + iy. Sei fur x; y; z 2 C
: C  C ! C; (x; y) = xy:
Dann gilt (z; z) = zz = jz j2. ist nicht bilinear, sondern linear im ersten Argument ( (x +
y; z) = (x; y)+ (y; z)) und antilinear im zweiten Argument ( (x; y+z) = (x; y)+ (x; z)).
Statt der ublichen Symmetrie des Skalarprodukts gilt (x; y) = (y; x).
De nition 1: Sei V ein komplexer Vektorraum. Eine hermitesche Form auf V ist eine
Abbildung  : V  V ! C mit folgenden Eigenschaften:
1. (x + ~x; y) = (x; y) + (~x; y), x; x~; y 2 V ,  2 C;
2. (x; y) = (y; x)

Bemerkung: Dann gilt


(x; y + ~y ) = (y + ~y ; x) = (y; x) + (~y ; x) = (y; x) + (~y ; x)
= (x; y) + (x; y~):
Also ist  antilinear im zweiten Argument.
Die Theorie der hermiteschen Formen auf komplexen Vektorraumen verlauft analog zur Theorie
der symmetrischen Bilinearformen auf reellen Vektorraumen.
De nition 2: Sei B = (b1 ; : : :; bn) eine Basis von V (also V endlichdimensional). Wir
de nieren
Mat B () = ((bi ; bj ))ni;j =1 :

Fakt 1: Fur eine komplexe n  n-Matrix A = (hij )ni;j=1 sei A durch A = AT = (aji)ni;j=1
(koezientenweise konjugiert) de niert. A ist die adjungierte Matrix zu A, es gilt (A+B) =
A + B  , (AB) = B  A , (A) = A fur  2 C. Aus der Leibnizschen Determinantenformel
folgt leicht det(A) = det(A), also folgt det A = det A.
Die Menge der hermiteschen Formen auf V bildet mit den ublichen Regeln fur Addition und
Multiplikation einen reellen Vektorraum: ( + ~)(x; y) = (x; y) + ~(x; y), (t)(x; y) = t(x; y),

83
t 2 IR. Ebenso bildet die Menge der selbstadjungierten Matrizen fA 2 Mat (n; n; C) j A = A g
einen reellen Vektorraum. Man pruft leicht nach, da fur jede Basis B von V die Abbildung
fhermitesche Formen auf V g ! fselbstadjungierte n  n-Matrizeng
 7! Mat B ()
ein Isomorphismus von reellen Vektorraumen ist.
Sei f : V 0 ! V eine lineare Abbildung zwischen komplexen Vektorraumen. Sei (f  )(x; y) =
(f(x); f(y)), dies ist eine hermitesche Form auf V 0 (wobei  eine hermitesche Form auf V ist).
Sei B 0 eine Basis von V 0 . Man pruft leicht nach:
Mat B0 (f  ) = Mat B0 ;B (f) Mat B ()Mat B0 ;B (f): 2
Bemerkung: Wenn  eine hermitesche Form ist, so gilt (x; x) = (x; x), also ist (x; x) reell.

Theorem 4: (Analogon des Sylvesterschen Tragheitssatzes) Sei  eine Hermitesche Form


auf einem endlichdimensionalen komplexen Vektorraum V . Dann gibt es eine Basis B =
(b1 ; : : :; bn) von V mit der Eigenschaft, da a; b existieren mit
8 1 1i=ja
<
(bi ; bj ) = : 1 a < i = j  a + b
0 sonst.

Beweis: Ziemlich analog zum Beweis des Sylvesterschen Tragheitssatzes. Die Eindeutigkeit von
a und b kann man durch Anwendung von Theorem 3 auf den reellen Vektorraum V , die reelle
symmetrische Bilinearform Re () und die reelle Basis (b1; ib1 ; : : :; bn; ibn) beweisen.
Bemerkung: In der Situation des Theorems nennen wir  nichtentartet, falls die folgenden
aquivalenten Bedingungen erfullt sind:
1. a + b = n;
2. N() = fx 2 V j 8 y 2 V : (x; y) = 0g = f0g.
Sei  nicht entartet. Sei d 2 D(V ). Dann gibt es eine reelle Konstante c;d mit
(v ; w )
: : : (v1 ; wn)
1. 1 ... .. = c;dd(v1; : : :; vn)d(w1; : : :; wn):
.. .
(vn; w1) : : : (vn ; wn)
Es gilt c;d > 0, falls b gerade und c;d < 0 falls b ungerade (c;d = 0 falls  entartet sein sollte).
Die unitare Gruppe U() ist als die Gruppe aller Automorphismen u von V mit
(u(x); u(y)) = (x; y) fur alle x; y 2 V de niert. Es gilt det(u)det(u) = 1, also j det(u)j = 1. Die
Gruppe SU() ist als SU() = fu 2 U() j det(u) = 1g de niert.
De nition 3: Die hermitesche Form  auf V ist positiv de nit, falls (x; x) > 0 fur alle
x 2 V f0g gilt.p In diesem Fall schreiben wir  auch als Skalarprodukt (x; y) = hx; yi und
setzen kxk = hx; xi. Wenn V endlichdimensional sein sollte, so nennen wir (V; h; i) einen
endlichdimensionalen Hilbertraum.
Bemerkung 3: Weil  hermitesch ist, ist (x; x) reell, also ist die Bedingung (x; x) > 0
84
sinnvoll.
Beispiel 1: Das Standardskalarprodukt auf C n ist durch hx; yi = Pn xi yi , x = (xi )n ,
P P
y = (yi )ni=1 , de niert. Es gilt hx; xi = ni=1 xi xi = ni=1 jxij2.
i=1 i=1
Sei C der Raum der 2-periodischen stetigen Funktionen f : IR ! C. Durch
Z 2
hf; gi = 21 f(t)g(t) dt
0
wird eine positiv de nite hermitesche Form auf C de niert. Es gilt
s Z 2
1
kf k = 2 jf(t)j2 dt:
0
Sei l2 die Menge aller Folgen (zi )1
i 2 1C und P1
=0 mit zi P i=1 jz j < 1. Dann ist l2 ein komplexer
2
1 1
Vektorraum und durch h(xi )i=0 ; (yi )i=0 i = i=0 xiyi ist eine positiv de nite hermitesche Form
de niert.
Wir konstruieren analog zur Theorie der Euklidischen Vektorraume die Theorie der positiv de-
niten Hermiteschen Formen.
Satz 1: (Cauchy-Schwarz) Sei h; i eine positiv de nite Hermitesche Form auf einem
komplexen Vektorraum V . Dann gelten
1.
jhv; wij  kvkkwk;
Gleichheit gilt genau dann, wenn v und w linear abhangig sind.
2.
kv + wk  kvk + kwk (Dreiecksungleichung),
Gleichheit gilt genau dann, wenn v = 0 oder wenn eine reelle Zahl   0 mit w = v
existiert.
Beweis:
1. Wie durfen v 6= 0 und w 6= 0 voraussetzen, sonst ist die Ungleichung trivial. Indem wir v
durch v=kvk und w durch w=kwk ersetzen, konnen wir kvk = kwk = 1 annehmen. Falls
hv; wi =6 0, sei z = hv; wi=jhv; wij. Sei w~ = zw, dann gilt kwk = kw~k und
hv; w~i = hv; zwi = z hv; wi = hv;jhwv;ihwv;ijwi = jhv; wij:
Indem wir also w durch w~ ersetzen, durfen wir annehmen, da hv; wi reell und  0 ist.
Dann gilt ():
0  hv w; v wi = hv; vi + hw; wi hv; wi hw; vi
= 1 + 1 hv; wi hv; wi
= 2 2jhv; wij
Also jhv; wij  1 fur kvk = kwk = 1 und die erste Behauptung in (1) folgt. O enbar
kann Gleichheit in () nur fur v = w eintreten. Daher kann Gleichheit in der Cauchy-
Schwarzschen Ungleichung nur dann eintreten, wenn v und w linear abhangig sind.

85
2. Betrachte V als reellen Vektorraum mit der positiv de niten symmetrischen Bilinearform
(x; y) = Re hx; yi. Wende die Dreiecksungleichung aus 5.6 an. 2
Bemerkung 4: Sei d(x; y) = kx yk. Dann ist (V; d) ein metrischer Raum. (V; h; i) nennt
man einen Hilbertraum, falls dieser metrische Raum vollstandig ist. Es gilt kvk = jjkvk fur
 2 C. Insbesondere andert die Multiplikation mit einer komplexen Zahl vom Betrag 1 die Norm
nicht.
Beispiel: Aus der Cauchy-Schwarzschen Ungleichung, angewendet auf Cn und C aus Beispiel 1,
folgt
X v
u v
uX
n u X
xiyi  t jxij2u
n n
t jyij2
i=1 (xi )ni=1 ; (yi )ni=1 2 Cn
Z 2 sZi=12 i=1
sZ 2
f(x)g(x) dx  jf(x)j2 dx jg(x)j2 dx:
0 0 0
Aus der Dreiecksungleichung fur Cn folgt
v
u v
u v
uX
u X
t jxi + yij2  t jxij2u
n u X n n
t jyij2
i=1 i=1 i=1
P 1 P 1
Also folgt i=1 jxi + yi j2 < 1, falls i=1 jxij2 < 1 und 1
P jy j2 < 1. Damit ist l aus
i=1 i 2
Beispiel 1 tatsachlich ein Vektorraum. Aus der Cauchy-Schwarzschen Ungleichung fur Cn folgt
v
u v
u v
u v
u
Xn u
t Xn u
t Xn u
t X1 uX 1
jxiyi j  jxij 2 jyij 
2 jxij t jyij2:
2
i=1 i=1 i=1 i=1 i=1
Also konvergiert
P 1 x y absolut, daher ist das Skalarprodukt auf l wohlde niert. Die Cauchy-
i=1 i i 2
Schwarzsche Ungleichung fur l2 besagt
X vuX
v
uX
xiyi  t jxij2u
1 u 1 1
t jyij2:
i=1 i=1 i=1
l2 ist ein Hilbertraum. Der Raum C ist kein Hilbertraum. Man kann ihn zu einem Raum mebarer
Funktionen vervollstandigen.
De nition 4: In der Situation von Satz 1 nennen wir ein n-Tupel (v1; : : :; vn) von Vektoren
aus V orthonormal, falls hvi ; vj i = ij .
Fakt 2: Dann gilt v
X n u uX n
ivi = t jij2;
i=1 i=1
Pn Pn P n P P
denn h i=1 i vi ; i=1 i vi i = i;j =1 i j hvi ; vj i = ni;j =1 i j ij = ni=1 jij2.
2
Bemerkung 5: Das Gram-Schmidtsche Orthonormalisierungsverfahren. Sei (w1; : : :; wn) eine
Basis von V . De niere (v1 ; : : :; vn) induktiv wie folgt:
v1 = kww1k ;
1
Pk 1hw ; v iv
vk = wk Pki=11hwk; viivik ;
kwk i=1 k i i

86
falls v1 ; : : :; vk 1 schon berechnet worden sind. Der Beweis erfolgt ahnlich wie im reellen Fall.
Fakt 3:
1. In der Situation von Satz 1 sei (v1 ; : : :; vn) 2 V n orthonormal. Fur x 2 V gilt die Parse-
valsche Ungleichung
X
n
jhx; viij  kxk2:
i=1
P
2. Gleichheit tritt genau dann ein, wenn x = ni=1 hx; viivi . Dies ist genau dann der Fall,
wenn x in der linearen Hulle der vi liegt.
3. Wenn (v1 ; : : :; vn) sogar eine Orthonormalbasis von V ist, so gilt
X
n
hx; yi = hx; viihvi ; yi:
i=1
Beweis: Wie im reellen Fall berechnet man
X 2 * +
x n hx; viivi = x
X
n
hx; viivi ; x
X
n
hx; vi ivi
i=1 i=1 i=1
X n 2 * X n + *X n +
2
= kxk + hx; viivi x; hx; viivi hx; viivi ; x
i=1 i=1 i=1
Fakt X n Xn Xn
= 2 kxk2 + jhx; viij2 hx; vi ihx; vii hx; viihvi ; xi
i=1 i=1 i=1
Xn
= kxk2 jhx; viij2 :
i=1
Damit sind der erste Punkt undPdie erste Halfte des zweiten Punktes bewiesen. Moge x zur linea-
n  v . Es folgt: hx; v i = hPn  v ; v i = Pn  hv ; v i =
ren Hu lle der v geh
o ren, x =
Pn   = i , was den zweiteni=1Punkt i i i j =1 j j i j =1 j j i
j =1 j ji i beweist. Der dritte Punkt ist genauso einfach. 2
Beispiel 2: Z 2
1
hf; gi = 2 f(t)g(t) dt fn (t) = eint; n 2 Z
0
ist ein orthonormales System. f = 1
P hf; f if . Auf die analytischen Einzelheiten soll hier
n= 1 n n
nicht eingegangen werden.
Satz 2: Sei V ein endlichdimensionaler Hilbertraum. Dann kann jedes lineare Funktional l
auf V auf eindeutige Weise in der Form l(x) = hx; yl i dargestellt werden.
Beweis: SeiP(e1; : : :; en) eine Orthonormalbasis. Dann gilt l(x) = (Pni=1 hx; ei il(ei )) = hx; yli,
wobei yl = ni=1 l(ei )ei . Der Beweis der Eindeutigkeit ist einfach. 2
De nition 5: Sei V ein komplexer Vektorraum mit einer positiv de niten Hermiteschen
Form h; i. Fur x 2 V sei
X ? = fy 2 V j 8 x 2 X : hx; yi = 0g:

87
De nition 6: Ein Orthogonalprojektor  von V auf einen Untervektorraum X ist eine
lineare Abbildung  : V ! X mit der Eigenschaft v (v) 2 X ? fur alle v 2 V .
Bemerkung: Fur x 2 X \ X ? gilt hx; xi = 0, also X \ X ? = f0g. Sei  ein Orthogonalprojektor
auf X. Fur x 2 X gilt dann x (x) 2 X \ X ? = f0g, also (x) = x fur x 2 X. Also 2 = 
und  ist tatsachlich ein Projektor auf X.
Satz 3: Sei V ein endlichdimensionaler Hilbertraum und X  V ein Untervektorraum. Dann
gilt V = X  X ? . Es existiert ein eindeutig bestimmter Orthogonalprojektor  von V auf X.
Beweis: Die Direktheit der Summe X L X ? folgt aus der obigen Bemerkung. Um V = X +
X ? zu zeigen, genugt es, die Existenz eines Orthogonalprojektors
P auf X zu zeigen. Sei dazu
(e1 ; : : :; ek ) eine Orthonormalbasis von X. SetzeP(v) = ki=1 hv; ei iei 2 X. Dann gilt h(v); ej i =
hv; ej i fur j  k. Also gilt fur alle y 2 X, y = kj=1 j ej , j 2 C
X
k
hv (v); yi = j (hv; ej i h(v); ej i) = 0:
j =1
 ist also tatsachlich ein Orthogonalprojektor. Eindeutigkeit des Orthogonalprojektors: Sei ~
ein weiterer Orthogonalprojektor auf X. Fur x 2 X gilt ~ (x) = x = (x). Fur y 2 X ? gilt
k~(y)k2 = h~ (y); ~ (y)i = h~ (y); ~ (y) yi = 0, denn ~ (y) 2 X und y ~ (y) 2 X ? . Also
~ (y) = 0 = (y). Weil X  X ? = V folgt ~ = . 2
Bemerkung: Diese Satze gelten in ahnlicher Weise fur beliebige Hilbertraume. In Satz 2 mu
man die Stetigkeit des linearen Funktionales l voraussetzen, Satz 3 gilt fur abgeschlossene Un-
terraume X.
5.8 Symplektische Vektorraume
Sei K ein beliebiger Korper, auch char K = 2. Sei V ein endlichdimensionaler K-Vektorraum.
De nition 1: Eine schiefsymmetrische Bilinearform s auf V ist nichtentartet, falls zu
jedem x 2 V f0g ein y 2 V mit s(x; y) 6= 0 existiert.

De nition 2:
1. Sei B = (b1; : : :; bn) eine Basis von V . Dann sei Mat B (s) = (s(bi ; bj ))ni;j =1.
2. Sei s : V ! V  die durch (s (x))(y) = s(x; y), x 2 V und y 2 V de nierte lineare
Abbildung.
Fakt 1: Durch Mat B wird ein Isomorphismus des Vektorraumes aller schiefsymmetrischen Bili-
nearformen auf V auf den Raum aller Matrizen A 2 Mat (n; n; K) mit A = AT (d.h. aij = aji
fur A = (aij )ni;j =1 und aii = 0 fur 1  i  n) de niert.
Bemerkung: Fur char K =6 2 folgt aus A = AT aii = aii und 2aii = 0, also aii = 0.
Beweis von Fakt 1: Man pruft leicht nach, da Mat B (s) die behaupteten Eigenschaften hat.
Sei umgekehrt A = AT und aii = 0, A = (aij )ni;j =1 . Sei sA die durch
X
n X
n X
n
sA ( i bi ; j bj ) = i j aij
i=1 j =1 i;j =1

88
eindeutig de nierte Bilinearform auf V . Dann gilt
X
n X
n X
n X X
n X
sA ( i bi ; j bj ) = aij i j = aij i j + aii 2i + aij i j = 0:
i=1 j =1 i;j =1 1i<j n |i=1 {z } 1j<in
=0
| P {z }
= 1j<in aji j i
Man pruft leicht nach, da A 7! sA zu Mat B invers ist. 2
Fakt 2: Es gilt Mat B;B (s) = Mat B (s).
Beweis: Sei Mat B (s) = (aij )ni;j=1 und (b1 ; : : :; bn) eine Basis von V und (b1 ; : : :; bn) die dazu
duale Basis. Dann gilt
X
n X
n X
n X
n X
n X
n X
n
s(bj )( i bi) = s(bj ; i bi ) = ajii = ajibi ( k bk ) = ( aji bi )( k bk ):
i=1 i=1 i=1 i=1 k=1 i=1 k=1
P
Also s (bj ) = ni=1 ajibi und die Behauptung folgt. 2
Fakt 3: s ist nicht ausgeartet , s ist ein Isomorphismus , det(Mat B (s)) 6= 0.
Beweis: Wie in 5.2.
Fakt 4: Sei f : V~ ! V eine lineare Abbildung, und sei f  (s) die durch (f  (s))(x; y) =
s(f(x); f(y)) de nierte schiefsymmetrische Bilinearform auf V~ und sei B~ eine Basis von V~ . Dann
gilt
Mat B~ (f  (s)) = Mat B;B
~ (f)T Mat B (s)Mat B;B
~ (f):
Beweis: Wie der Beweis von Fakt 5.1.4.
De nition 3: Ein symplektischer K-Vektorraum ist ein Paar (V; s), wobei V ein endlichdi-
mensionaler K-Vektorraum und s eine nichtausgeartete schiefsymmetrische Bilinearform auf
V ist.
Theorem 5: Sei (V; s) ein symplektischer Vektorraum uber einem beliebigen Korper K. Dann
gibt es eine Darboux-Basis von V , d.h. eine Basis (v1; : : :; vn; w1; : : :; wn) mit s(vi ; vj ) =
s(wi ; wj ) = 0 fur alle 1  i; j  n und s(vi ; wj ) = ij . Insbesondere ist dimV gerade.
Bemerkung: Dann gilt s(wi; vj ) = s(vj ; wi) = ij . Die Matrixdarstellung von s hat die Form
 0 11 
n
11n 0
Beweis von Theorem 5 durch Induktion nach der Dimension von V beginnend mit dem trivialen
Fall V = f0g. Sei die Behauptung fur Vektorraume kleinerer Dimensionen bewiesen. Sei v1 2
V f0g. Nach der Voraussetzung existiert ein w1 2 V mit s(v1 ; w1) = 1. Sei V~ = fx 2 V j
s(x; v1) = s(x; w1) = 0g. Dann gilt
1. V = Kv1  Kw1  V~ ;
2. sjV~ V~ ist nicht ausgeartet.
Dann hat nach Induktionsvoraussetzung V~ eine Darboux-Basis (v2 ; : : :; vn; w2; : : :; wm ) und
(v1; : : :; vn; w1; : : :; wn) ist eine Darboux-Basis fur V . Beweis von (1): Sei x 2 V und sei y =
x s(v1 ; x)w1 + s(w1 ; x)v1. Dann gilt
s(v1 ; y) = s(v1 ; x) s(v1 ; x) |s(v1{z; w1)} +s(w1 ; x) s(v
| 1{z; v1}) = 0
=1 =0

89
und
s(w1 ; y) = s(w1 ; x) s(v1 ; x) s(w
| 1{z; w1)} +s(w1; x) s(w
| {z1; v1)} = 0:
=0 = s(v1;w1 )= 1
Also gilt y 2 V~ und daher x = y + s(v1 ; x)w1 s(w1 ; x)v1 2 V~ + Kv1 + Kw1 . Es verbleibt, die
Direktheit der Summe zu zeigen. Angenommen, v1 + w1 2 V~ . Dann gilt 0 = s(v1 ; v1 + w1 ) =
und 0 = s(w1 ; v1 + w1 ) = . Also = = 0. Daher ist die Summe Kv1 +Kw1 + V~ direkt.
Beweis von (2): Sei z 2 V~ f0g. Nach Voraussetzung gibt es ein x 2 V mit s(x; z) 6= 0. Nach
Behauptung 1 kann man x als x = v1 + w1 + y mit ; 2 K und y 2 V~ darstellen. Dann gilt
| {z1; z)} |s(w{z1; z)} = s(x; z) 6= 0:
s(y; z) = s(x; z) s(v
=0 =0
Weil y 2 V~ beweist dies, da sjV~ V~ nicht ausgeartet ist. 2
De nition 4: Fur einen symplektischen Vektorraum (V; s) de nieren wir die symplektische
Gruppe Sp(V; s) als
Sp(V; s) = ff 2 L(V; V ) j s(f(x); f(y)) = s(x; y)g:

Fakt 5: Elemente der symplektischen Gruppe haben die Determinante 1.


Beweis: Man zeigt:
s(v ; w ) : : : s(v1 ; w2n)

1. 1 ... .. = cs;dd(v1; : : :; v2n)d(w1; : : :; w2n); 2n = dim V; d 2 D(V );
.. .
s(v2n; w1) : : : s(v2n; w2n)
ebenso wie die Formel fur die Gramsche Determinante. Daraus folgt schon det(f)2 = 1 fur f 2
Sp(V; s), also det(f) 2 f1g. Fur char (K) = 2 ist dies schon der ganze Beweis. Fur char (K) 6= 2
brauchen wir ein scharferes Argument. Beweisskizze: Sei M die Menge aller Zerlegungen von
f1; : : :; 2ng in n zweielementige Teilmengen. Sei z0 2 M die Zerlegung f1; : : :; 2ng in f1; n+1g[
f2; n + 2g [ : : : [ fn; 2ng. Fur z : f1; : : :; 2ng = x1 [ : : : [ xn und  2 S2n sei (z) die Zerlegung
f1; : : :; 2ng = (x1 ) [ : : :[ (xn). Diese Regel de niert eine Wirkung von S2n auf der Menge M,
d.h., ()(z) = ((z)), Id(z) = z, also einen Gruppenhomomorphismus S2n ! S(M). Man kann
leicht zeigen, da die Wirkung von S2n auf M transitiv ist, d.h. fur x; y 2 M existiert  2 S2n
mit x = y. Sei " = ("1 ; : : :; "n) 2 (Z=2Z)n und sei p" 2 S2n die durch p" (i) = i; p" (n+i) = n+i
falls "i = 0 und p" (i) = n+i; p" (n+i) = i, falls "i = 1 fur 1  i  n de nierte Permutation. Fur
 2 Sn sei q 2 S2n die durch q (i) = (i), q (n+i) = n+(i), 1  i  n de nierte Permutation.
(q permutiert die untere und die obere Schicht entsprechend . p" vertauscht die untere und
die obere Schicht an den Stellen i, fur die "i = 1 gilt.) Es gilt p"(z0 ) = z0 , q (z0 ) = zo . Sei Hn
die Menge aller  2 S2n , fur die  2 Sn und " 2 (Z=2Z)n mit  = p" q existieren. Man kann
nun zeigen, da Hn eine Untergruppe in S2n ist und da Hn = f 2 S2n j z0 = z0g. Es gilt
sign(p" q ) = ( 1)jfijei =1;1ingj. Fur  2 S2n sei
Y
n
d (x1 ; : : :; x2n) = sign () s(x(k) ; x(n+k)); x1; : : :; x2n 2 V: (y)
k=1
Man pruft leicht
dp" q (x1 ; : : :; xn) = d (x1 ; : : :; x2n); ()

90
denn q vertauscht nur Faktoren in (y) und p" andert nur die Reihenfolge der Argumente in
Faktoren von (y), mithin d = d fur  2 Hn. Weiterhin gilt
d (x1; : : :; x2n) = sign()d (x(1) ; : : :; x(2n)): (z)
Fur z 2 M wahle  2 S2n mit z0 = z. Setze dz (x1; : : :; x2n) = d (x1; : : :; x2n). Wenn ~ 2 S2n
mit ~ z0 = z, so gilt fur  =  1 ~ gilt z0 = z0 , also  2 Hn, also d~ = d (=) d . Aus (z) folgt
dz (x(1) ; : : :; x(2n)) = d(z) (x1 ; : : :; xn)sign ():
O enbar sind alle dz 2n-Linearformen auf V . Sei
X
d= dz :
z 2M
Aus (z) folgt leicht d(x1; : : :; x2n) = sign ()d(x(1) ; : : :; x(2n)) fur  2 S2n. Weil char (K) 6= 2
gilt, folgt daraus d 2 D(V ) (auch fur char (K) = 2 gilt d 2 D(V ) aus anderen Grunden). Sei
(v1; : : :; vn; w1; : : :; wn) wie in Theorem 5. Dann gilt

dz (v1 ; : : :; vn; w1; : : :; wn) = 10 zsonst = z0 :

Also d(v1; : : :; vn; w1; : : :; wn) = 1, damit d 6= 0. Aber aus der De nition von d folgt d(f(x1 ); : : :; f(x2n)) =
d(x1; : : :; x2n), denn dasselbe gilt fur die dt, falls f 2 Sp(V; s). Also det(f) = 1. 2
Bemerkung: In der Hamiltonschen Mechanik betrachtet man
V = f( |q1; :{z : :; pn} )g
: :; qn} ; p| 1; :{z
Ortskoordinaten Impulskoordinaten
mit
X
n
s((q1 ; : : :; qn; p1; : : :; pn); (~q1; : : :; q~n; p~1; : : :; p~n)) = (qi p~i q~i pi):
i=1
Dann sind die Elemente der symplektischen Gruppe gerade die linearen kanonischen Transfor-
mationen. Aus Fakt 5 folgt, da solche Transformationen das Phasenvolumen erhalten.

6 Eigenwerttheorie
Sei K ein beliebiger Korper, V ein K-Vektorraum, A ein Endomorphismus von V .
De nition 1:
1. Das Spektrum von A ist die Menge aller  2 K, fur die A IdV : V ! V kein
Automorphismus von V (d.h. nicht bijektiv) ist.
2. Fur  2 K sei
V (A) = fv 2 V j Av = vg:
Wir nennen V (A) den zu  gehorigen Eigenraum von A.
3. Wir nennen  2 K einen Eigenwert von A, falls der Eigenraum V (A) 6= f0g. In diesem
Fall nennen wir die von 0 verschiedenen Elemente von V (A) die Eigenvektoren zum
Eigenwert .
4. Ein Unterraum W  V ist A-invariant, falls A(W)  W .

91
Fakt 1: Eigenwerte gehoren zum Spektrum.
Beweis: Es gilt: V (A) = ker(A Id ). Also gilt:  ist Eigenwert , ker(A Id) 6= f0g ,
A IdV ist nicht injektiv ) A IdV ist nicht bijektiv ,  liegt im Spektrum von A. 2
Fakt 2: Sei V endlichdimensional. Dann sind folgende Aussagen aquivalent:
1.  ist ein Eigenwert von A.
2.  gehort zum Spektrum von A.
3. det(A Id) = 0.
Beweis: (1) ) (2) ist Fakt 1. (2) ) (1) folgt wegen der Endlichdimensionalitat von V aus
der Tatsache, da ein Endomorphismus eines endlichdimensionalen Vektorraumes genau dann
bijektiv ist, wenn er injektiv ist. (2) , (3) folgt aus der Determinantentheorie. 2
Bemerkung: Die Menge aller Eigenwerte nennt man auch das Eigenwertspektrum.
Beispiele:
1. Sei A : K n ! K n der Operator der Multiplikation mit der Matrix
0  ::: 0 1
B@ ..1 . . . .. CA
. .
0 : : : n
Dann ist A Id der Operator der Multiplikation mit der Matrix
0   ::: 0 1
B@ 1 .. . . . .. CA ;
. .
0 : : : n 
deren Determinante (1 )  : : :  (n ) ist. Daher ist  genau dann ein Eigenwert
von A, wenn  = i , 1  i  n, ist. In diesem Fall ist der Eigenraum (K n ) (A) =
f(xi )ni=1 2 K n j xi = 0 falls i 6= g. Seine Dimension ist gleich der Anzahl der Indizes
i, 1  i  n, fur die i =  gilt. Man kann das Problem der Bestimmung der Eigenwerte
und Eigenvektoren von A auch au assen als das Problem der Aundung einer Basis B
von V , fur die die Matrixdarstellung von A bezuglich B eine Diagonalmatrix ist (was
nicht immer gelingt). O enbar ist Mat B;B (A) genau dann eine Diagonalmatrix, falls B
aus Eigenvektoren besteht.
2. Als unendlichdimensionales Beispiel betrachten wir C([0; 1]) = fstetige Funktionen f :
[0; 1] ! Cg, (Af)(t) = tf(t). Dann gilt: Af = f , fur alle t 2 [0; 1] gilt (t )f(t) = 0 ,
fur alle t 2 [0; 1] fg gilt f(t) = 0 Stetigkeit
, f = 0. Also hat A keine Eigenwerte. Andererseits
pruft man leicht, da das Spektrum von A mit [0; 1] ubereinstimmt: eine Funktion g mit
g() 6= 0 kann nicht zum Bild von A Id gehoren, aber fur  62 [0; 1] ist f 7! g(t) = tf (t)
ein Inverses zu A Id.
Fakt 3: Fur jedes  2 K ist V (A) A-invariant.
Beweis: Aus x 2 V(A) folgt Ax = x 2 V (A). 2

92
6.1 Eigenwerttheorie fur normale und selbstadjungierte Endomorphis-
men eines endlichdimensionalen Hilbertraums
Sei H ein endlichdimensionaler Hilbertraum, und A ein Endomorphismus von H. Fur alle y 2 H
ist die Abbildung H 3 x 7! hAx; yi ein lineares Funktional auf H. Nach Satz 5.7.2 gibt es also
einen Vektor A y 2 H mit der Eigenschaft hAx; yi = hx; Ayi fur alle x 2 H. A y ist durch diese
Eigenschaft eindeutig bestimmt, und die Abbildung y 7! A y ist linear.
De nition 1: Wir nennen A den zu A adjungierten Endomorphismus. Wir nennen A
selbstadjungiert, falls A = A ist. Wir nennen A normal, falls A und A kommutieren,
d.h., falls AA = A A gilt.
Fakt 1: Es gelten folgende Regeln:
1. (A + B) = A + B  ;
2. (B) = B  fur  2 C;
3. (AB) = B  A ;
4. A = A.
Beweis: (1) und (2) sind einfach, z.B. hBx; yi = hBx; yi = hx; B  yi = hx; B  yi fur al-
le x; y 2 H, also (B) = B  . Weiterhin gilt h(AB)(x); yi = hA(B(x)); yi = hBx; A yi =
hx; B A yi fur alle x; y 2 H, also folgt (3). (4) wird weiter unten bewiesen. 2
Folgerungen:
1. Die selbstadjungierten Operatoren bilden einen reellen Unterraum im Raum aller Endo-
morphismen von H. Die normalen Endomorphismen bilden keinen Unterraum im Raum
aller Endomorphismen von H, aber die Multiplikation eines normalen Endomorphismus
mit einer komplexen Zahl ist normal.
2. Wenn A und B selbstadjungiert sind, so gilt (AB) = B  A = BA, also ist AB genau
dann selbstadjungiert, wenn A und B kommutieren, d.h. wenn AB = BA gilt. Die Summe
zweier kommutierender normaler Endomorphismen ist normal.
3. Es gilt: (A A) = A A = A A, denn fur alle A gilt A = A: hA x; yi = hy; A xi =
hAy; xi = hx; Ayi. Also ist A A selbstadjungiert, ebenso sind es AA , A+A und i(A A ).
Fakt 2: Sei B eine Orthonormalbasis von H. Dann gilt:
Mat B;B (A ) = Mat B;B (A) :
Insbesondere ist A genau dann selbstadjungiert bzw. normal, wenn es Mat B;B (A) ist.
Bemerkung: In Fakt 5.7.1 hatten wir A = AT de niert, wobei (aij )ni;j=1 = (aij )ni;j=1 . Fur
A = (aij )ni;j =1 gilt A = (aji )ni;j =1. Also ist A genau dann selbstadjungiert, falls aij = aji fur
alle i; j gilt, was fur i = j impliziert, da aij reell ist.
Beweis: Einfaches Nachrechnen... 2
Fakt 3: Sei A selbstadjungiert. Dann sind alle Eigenwerte von A reell, und die Eigenraume zu
verschiedenen Eigenwerten sind zueinander orthogonal.
Beweis: Sei  2 C ein Eigenwert. Dann gibt es ein x 2 H f0g mit Ax = x. Wir konnen
kxk = 1 annehmen, sonst x 7! x=kxk. Dann gilt:  = hx; xi = hAx; xi = hx; Axi = hx; xi =
hx; xi = . Also ist  reell. Seien  6= # reell, x 2 H (A), y 2 H#(A). Dann gilt hx; yi =

93
hAx; yi = hx; Ayi = hx; #yi = #hx; yi, da  6= # folgt hx; yi = 0. 2
Es liegt daher nahe, zu versuchen, eine Orthonormalbasis von H zu konstruieren, die aus Eigen-
vektoren von A besteht. Wenn jedes selbstadjungierte A Eigenwerte hat, kann man das wie folgt
tun: sei  ein Eigenwert, sei (b1 ; : : :; bk) eine Orthonormalbasis des entsprechenden Eigenraumes
H(A) und sei H 0 das orthogonale Komplement dieses Eigenraumes. Man zeigt dann leicht, da
AjH 0 ein selbstadjungierter Endomorphismus von H 0 ist, und die Induktionsannahme impliziert
die Existenz einer Orthonormalbasis (bk+1; : : :; bn) von H 0 , die aus Eigenvektoren besteht. Dann
leistet (b1 ; : : :; bn) das Gewunschte.
Motivation fur die nachfolgende Konstruktion von Eigenwerten: Angenommen, es existiert ei-
ne Orthonormalbasis (bP 1 ; : : :; bn) von H, so da
P (bi) Eigenvektor zum Eigenwert  ist, wobei
1  : : :  n . Fur x = ni=1 xibi mit kxk2 = ni=1 jxi j2 = 1 gilt
X
n X
n X
n X
n X
n
hAx; xi = h i xibi ; xj bj i = i jxij2 = 1 jx i j2 (1 i )jxij2  1 ;
i=1 j =1 i=1 i=1 i=1
und die Schranke 1 wird tatsachlich angenommen, namlich von allen x, fur die xi = 0 fur alle
i mit i < 1 gilt. Solche Vektoren sind Eigenvektoren zu 1 . Es liegt also nahe, zu zeigen, da
maxfhAx; xi j kxk = 1g ein Eigenwert ist (naturlich ohne die Existenz einer Orthonormalbasis
aus Eigenvektoren vorauszusetzen).
Lemma 1: Ein Endomorphismus eines endlichdimensionalen Hilbertraumes H ist genau dann
selbstadjungiert, wenn fur alle x 2 H hAx; xi reell ist.
Beweis: Sei A selbstadjungiert. Dann gilt hAx; xi = hx; Axi = hx; Axi = hAx; xi. Also ist
hAx; xi reell. Die (etwas schwierigere) Ruckrichtung ist U bungsaufgabe.
Da die Funktion hAx; xi auf der kompakten Menge fx 2 H j kxk = 1g stetig ist und reelle Werte
annimmt, existiert das Maximum auf dieser Menge.
Satz 1: Sei A selbstadjungiert, und seien
+ = maxfhAx; xi j x 2 H ^ kxk = 1g und  = minfhAx; xi j x 2 H ^ kxk = 1g:
Dann sind + und  Eigenwerte, und jedes x mit kxk = 1, an dem diese Extrema angenom-
men werden, ist ein Eigenvektor.
Beweis: Es genugt, die Aussage uber + zu beweisen, die Aussage uber  zeigt man genauso.
Sei  = + . Wir wissen, da es Vektoren x 2 K mit kxk = 1 und hAx; xi =  gibt. Es
genugt, zu zeigen, da jedes x mit dieser Eigenschaft ein Eigenvektor zu  ist. Wenn x ein
Eigenvektor ist, so ist  der dazugehorige Eigenwert. Angenommen, x ware kein Eigenvektor.
Sei H 0 das orthogonale Komplement von Cx in H und sei y0 die orthogonale Projektion von Ax
auf H 0. Dann gilt Ax y0 2 Cx, weil x kein Eigenvektor ist, gilt also y0 6= 0. Es gilt hAx; y0 i =
hy0 ; y0 i > 0. Indem wir y = y0 =ky0 k setzen, erhalten wir ein zux+tyx orthogonales normiertes y,
so da hAx; yi reell und von Null verschieden ist. Sei x(t) = p1+t2 . Dann gilt kx(t)k = 1 fur
alle t 2 IR. Also nimmt die Funktion f(t) = hAx(t); x(t)i an der Stelle t = 0 ihr globales
Maximum  an, insbesondere ist t = 0 auch ein lokales Maximum fur diese Funktion. Es gilt
f(t) = 1+1t2 (hAx; xi + t2 hAy; yi + thAx; yi + thx; Ayi), also ist f in Abhangigkeit von t stetig
di erenzierbar. Die Ableitung an der Stelle 0 ist gerade f 0 (0) = hAx; yi + hx; Ayi = 2hAx; yi =
6 0.
Also hat f an der Stelle t = 0 kein lokales Extremum. Also kann f(0) nicht das Maximum aller
f(t) sein. Widerspruch. 2
Bemerkungen:

94
1. Wir haben damit gezeigt, da jeder selbstadjungierte Endomorphismus eines von 0 ver-
schiedenen Hilbertraumes H einen Eigenwert hat (falls H 6= f0g).
2. O enbar gilt hAx; xi =  , falls x ein normierter Eigenvektor zu dem Eigenwert  ist.
Lemma 2: Sei A selbstadjungiert. Dann ist das orthogonale Komplement A eines A-invarianten
Unterraumes A-invariant.
Beweis: Sei X  H A-invariant. Es gilt X ? = fy 2 H j 8 x 2 X : hy; xi = 0g. Sei nun y 2 X ? .
Dann gilt fur alle x 2 X
hAy; xi = hy; Axi = 0;
denn Ax 2 X. Also ist Ay 2 X .? 2
Theorem 1: Fur jeden selbstadjungierten Endomorphismus A eines endlichdimensionalen
Hilbertraumes H gilt die orthogonale direkte Summenzerlegung in die Eigenraume von A
M
A= H(A):
2IR

Beweis: Induktion nach dim(H) beginnend mit dem trivialen Fall dim(H) = 0. Sei die Behaup-
tung fur Hilbertraume kleinerer Dimension als H bewiesen. Sei H 6= f0g. Laut Bemerkung 1 folgt
aus Satz 1, da A einen Eigenwert  hat. Sei H 0 = H+ (A)? . Nach Fakt 6.3 aus der Einleitung
ist H(A) A-invariant, also ist es nach Lemma 2 auch H 0. Also ist AjH 0 ein selbstadjungierter
Endomorphismus von H 0 , auf den die Induktionsannahme angewendet werden kann. Es gilt:
 f0g fur  = +
H0 (AjH 0 ) = H(A) \ H 0 = H (A) fur  6= + .
Die Induktionsannahme zeigt also
M
H0 = H(A):
2IR;6=+
Nach Satz 5.7.3 gilt
M M
H = H+ (A)  H+ (A)? = H+ (A)  H 0 = H+ (A)  H(A) = H (A):
2IR;=
6 + 2IR
2
Bemerkung: Insbesondere hat H eine Orthonormalbasis, welche aus Eigenvektoren zu A be-
steht (Wahle eine Orthonormalbasis
P fur jedes H (A)).
Es gilt dim(H) = 2IR dim(H (A)). Man kann dim(H(A)) als die Vielfachheit des Eigen-
wertes  betrachten. Wir haben dann bewiesen, da es, gezahlt nach Vielfachheit, genau dim(H)
Eigenwerte gibt.
Folgerung 1: Sei  eine Hermitesche Form auf H. Dann gibt es eine Orthonormalbasis von
H, in der die Matrixdarstellung von  eine Diagonalmatrix ist (Hauptachsenbasis, Hauptachsen-
transformation).
Beweis: Nach Satz 5.7.2 gibt es fur alle y 2 H genau ein Ay 2 H mit hx; Ayi = (x; y). Weil 
eine Hermitesche Form ist, ist A linear und selbstadjungiert. Wende die Bemerkung nach Theo-
rem 1 auf A an. 2

95
Verallgemeinerung: Sei V ein beliebiger endlichdimensionaler Vektorraum uber einem belie-
bigen Korper K und seien A1 ; : : :; An Endomorphismen von V . Gibt es eine Basis B von V ,
deren Elemente fur alle Ai Eigenvektoren sind, d.h. fur die Mat B (Ai ) eine Diagonalmatrix ist.
Weil die Multiplikation von Diagonalmatrizen kommutativ ist, impliziert die Existenz einer sol-
chen Basis Mat B (Ai Aj ) = Mat B (Ai )Mat B (Aj ) = Mat B (Aj )Mat B (Ai ) = Mat B (Aj Ai ), also
AiAj = Aj Ai. Mit anderen Worten, Ai und Aj kommutieren, die A1 ; : : :; An kommutieren also
paarweise. Wenn die Ai selbstadjungierte Endomorphismen eines endlichdimensionalen Hilber-
traumes sind, ist diese Bedingung auch hinreichend.
De nition 2: Seien A1; : : :; An paarweise kommutierende Endomorphismen eines beliebigen
Vektorraumes V . Dann sei
\n
V1 ;:::;n (A1 ; : : :; An) = Vi (Ai ) = fv 2 V j Ai (v) = i v; 1  i  ng 1 ; : : :; n 2 K
i=1
der gemeinsame Eigenraum von (A1 ; : : :; An) zu (1 ; : : :; n ).
Bemerkung: V1 ;:::;n (A1 ; : : :; An) kann man auch fur nicht paarweise kommutierende Ai in
dieser Form de nieren (allerdings wenig sinnvoll).
Lemma 3: Wenn B mit A1; : : :; An kommutiert, so ist V1;:::;n (A1 ; : : :; An) B-invariant.
Beweis: Sei v 2 Vi (Ai ). Dann gilt Ai Bv = BAi v = B(i v) = i Bv, also Bv 2 Vi (Ai).
Also ist Vi (Ai ) B-invariant. T Der Durchschnitt B-invarianter Unterraume ist B-invariant, also2
ist V1 ;:::;n (Ai ; : : :; An) = ni=1 Vi (Ai ) B-invariant.
Die De nition und das Lemma beziehen sich auf beliebige Vektorraume uber beliebigen Korpern.
Sei nun H ein endlichdimensionaler Hilbertraum, K = C.
Theorem 2: Seien A1 ; : : :; An paarweise kommutierende selbstadjungierte Endomorphismen
von H. Dann gilt die orthogonale direkte Summenzerlegung
M
H= H1;:::;n (A1; : : :; An):
(1 ;:::;n)2IRn

Beweis durch Induktion nach n. Der Fall n = 1 ist gerade Theorem 1. Sei die Aussage fur n 1
Operatoren bewiesen. Dann gilt
M
H= H1;:::;n 1 (A1 ; : : :; An 1):
(1 ;:::;n 1 )2IRn 1
Nach Lemma 3 ist H 0 = H1;:::;n 1 (A1 ; : : :; An 1) An -invariant. Die Einschrankung von An auf
den An -invarianten Unterraum H 0 ist ein selbstadjungierter Endomorphismus von H 0 , Theorem
1 ergibt folglich
M 0 M M
H0 = H(An jH 0 ) = (H 0 \ H (An )) = (H1 ;:::;n 1 (A1; : : :; An 1) \ H(An ))
2IR 2IR 2IR
M
= H1;:::;n 1 ; (A1 ; : : :; An):
2IR
Also
M
H = H1 ;:::;n 1 (A1 ; : : :; An 1)
(1;:::;n 1 )2IRn 1

96
M M M
= ( H1;:::;n (A1 ; : : :; An)) = H1 ;:::;n (A1 ; : : :; An):
(1;:::;n 1 )2IRn 1 n 2IR (1 ;:::;n )2IRn
2
Folgerung 2: Sie A ein normaler Endomorphismus von H. Dann gilt die orthogonale direkte
Summenzerlegung M
H = H(A):
2C
Beweis: A ist genau dann normal, wenn A und A miteinander kommutieren. Zum Beweis
benotigen wir
Fakt: Wenn A und B kommutieren, so kommutieren auch A+ B und A+B  fur ; ; ;  2
K = C. 2
Fur einen normalen Operator A kommutieren also die beiden selbstadjungierten Endomorphis-
men von H A1 = 12 (A + A ) und A2 = 21i (A A ). Nach Theorem 2 gilt
M
H= H1;2 (A1 ; A2): ()
(1 ;2)2IR2
Behauptung: H1;2 (A1 ; A2) = H1+i2 (A). Wenn diese Behauptung bewiesen ist, so ergibt ()
M
H= H(A):
=1 +i2 2C
Beweis der Behauptung: Sei v 2 H1 ;2 (A1 ; A2). Dann gilt
   
Av = A +2 A v + i A 2iA v = 1 v + i2 v = (1 + i2 )v:
Damit H1 ;2 (A1 ; A2)  H1+i2 (A). Wir mussen zeigen, da Gleichheit eintritt. Sei H 0 =
H1+i2 (A). Weil A1 und A2 mit A kommutieren, ist H 0 invariant unter A1 und A2 (Lemma 3),
also M
H0 = H ; (A1jH 0 ; A2jH 0 ):
; 2IR2
Aber fur ( ; ) 6= (1 ; 2) gilt
0 (A1 jH 0 ; A2 jH 0 ) = H 0 \ H ; (A1 ; A2)  H 0 \ H +i (A) = H +i (A) \ H +i (A) = f0g;
H ; 1 2

denn es gilt folgender


Fakt: Wenn A ein beliebiger Endomorphismus eines beliebigen K-Vektorraumes V ist, so gilt
fur  6= # V (A) \ V# (A) = f0g.
In der Tat, wenn x zu dem Durchschnitt gehort, so gilt x = Ax = #x, also ( )x = 0, also
x = 0. 2
Damit ist Folgerung 2 bewiesen. 2Wir wollen Folgerung 2 auf unitare Endomorphismen von H
anwenden. U ist unitar genau dann, wenn hUx; Uyi = hx; yi fur alle x; y 2 H gilt.
Fakt 4: Fur einen Endomorphismus U eines endlichdimensionalen Hilbertraumes H sind folgende
Aussagen aquivalent:
1. U ist unitar;

97
2. kUxk = kxk fur alle x 2 H;
3. U  U = Id;
4. UU  = Id.
Insbesondere ist jeder unitare Endomorphismus normal.
Beweis: (1) ) (2) ist klar. (2) ) (1): Sei kUxk = kxk fur alle x 2 H. Dann gilt
2Re hx; yi = kx + yk2 kxk2 kyk2 = kUx + Uyk2 kUxk2 kUyk2 = 2Re hUx; Uyi:
Es folgt
hx; yi = Re hx; yi + iRe hx; iyi = Re hUx; Uyi + iRe hUx; iUyi = hUx; Uyi:
(1) , (3):
(1) , 8 x; y 2 H : hx; yi = hUx; Uyi , 8 x; y 2 H : hx; yi = hx; U Uyi
, 8 y 2 H : U  Uy = y , (3):
(3) , (4): Weil H endlichdimensional ist, ist U  genau dann ein Rechtsinverses zu U, wenn es
ein Linksinverses zu U ist.
Warnung: Fur unendlichdimensionale Hilbertraume sind (3) und (4) nicht aquivalent. Man ver-
langt dann von unitaren Operatoren explizit, da sie invertierbar sind.
Wegen der A quivalenz von (1), (3) und (4) ist jeder unitare Endomorphismus normal. 2
Wir konnen also Folgerung 2 auf den unitaren Endomorphismus U anwenden. Sei H(U) 6= f0g,
v 2 H(U) f0g. Dann gilt kvk = kUvk = kvk = jjkvk, also jj = 1. Wir erhalten
Folgerung 3: Fur unitares U gilt die direkte orthogonale Summenzerlegung
M
H= H(U): 2
2C;jj=1
Folgerung 4: Seien A1 ; : : :; An paarweise kommutierende normale Endomorphismen von H.
Dann gilt die orthogonale direkte Summenzerlegung
M
H= H1;:::;n (A1; : : :; An):
(1 ;:::;n)2Cn
Wenn dabei Ai unitar ist, so verschwinden die Summanden zu (1 ; : : :; n ) mit jij =
6 1.
Beweis: Dies folgt aus Lemma 3 und Folgerung 2 in derselben Weise wie Theorem 2 aus Theorem
1 und Lemma 3 folgt.
Fakt 5: Sei p ein Endomorphismus eines endlichdimensionalen Hilbertraumes H. Dann ist p
genau dann ein Orthogonalprojektor auf einem Unterraum von H, wenn p2 = p und p = p gilt,
d.h., wenn p ein selbstadjungiertes Idempotent ist.
Beweis: Sei p der Orthogonalprojektor auf den Unterraum X  H. Es gilt H = X  X ?. Fur
a; b 2 X, a~; ~b 2 X ? gilt
?
hp(a + a~); b + ~bi p(~a=)=0 ha; b + ~bi ~b2=X ha; bi = ha + a~; p(b + ~b)i
und
p2(a + a~) = p(p(a + a~)) = p(a) = a:

98
Weil alle x; y 2 H als x = a + a~ und y = b + ~b mit a; b 2 X und a~; ~b 2 X ? dargestellt werden
konnen, zeigt dies, da p = p und p2 = p gelten.
Sei umgekehrt p2 = p und p = p . Sei X = Bild(p) und Y = ker(p). Dann X ? = Y , denn
y 2 X ? , 8 x 2 X : hy; xi = 0 , 8 z 2 H : hy; p(z)i = 0 , 8 z 2 H : hp(y); z i = 0 , p(y) = 0.
Es gilt also H = X +Y = X +X ? . Sei x 2 X, dann gilt x = p(z) fur ein z 2 H. Also gilt p(x) =
p(p(z)) = p(z) = x. Fur y 2 X ? = Y = ker(p) gilt p(y) = 0. Also ist p Orthogonalprojektor auf
X. 2
Bemerkung 2:
1. Sei V ein endlichdimensionaler IR- oder C-Vektorraum und sei A 2 End(V ). Wir betrachten
die V -wertige Di erentialgleichung
dv = Av; v : IR ! V: ()
dt
Angenommen, V hat eine Basis (e1 ; : : :; en), die aus Eigenvektoren
P fur A besteht, Aei =
i ei . Dann ist die allgemeine Losung von () durch v(t) = ni=1 Ciei t ei gegeben, wobei
C1 ; : : :; Cn frei zu wahlen sind.
2. Eigentlich wird die Spektraltheorie erst im unendlichdimensionalen Fall richtig interes-
sant...
6.2 Eigenwerttheorie fur normale und selbstadjungierte Endomorphis-
men eines Euklidischen Vektorraumes
Sei V ein Euklidischer Vektorraum, K = IR, h; i das Skalarprodukt auf V .
De nition 1: Fur einen Endomorphismus A : V ! V sei A der durch die Gleichung
hAx; yi = hx; A yi eindeutig bestimmte Endomorphismus von V . A ist selbstadjungiert,
falls A = A gilt. A ist normal, wenn AA = A A gilt, d.h., falls A und A kommutieren.
Fakt 1: p ist genau dann Orthogonalprojektor auf einem Unterraum U  V , wenn p = p und
p2 = p gilt.
Beweis: Analog zu Fakt 6.1.5.
Fakt 2: (A + B) = A + B , (A) = A , (AB) = BA , A = A.
Beweis: Analog zu Fakt 6.1.1.
Folgerung: Die selbstadjungierten Endomorphismen von V bilden also einen Unterraum im
Raum aller Endomorphismen von V . Das Produkt zweier selbstadjungierter Endomorphismen
ist genau dann selbstadjungiert, wenn die beiden Faktoren kommutieren. Fur jeden Endomor-
phismus A sind A + A , AA und A A selbstadjungiert.
Beweis: Analog zum Beweis derselben Folgerungen im vorherigen Kapitel.
Fakt 3: Sei B eine Orthonormalbasis von V . Dann gilt Mat B (A ) = Mat B (A)T , insbesondere
ist A genau dann selbstadjungiert, wenn Mat B (A) symmetrisch entlang der Hauptdiagonale ist.
Beweis: Analog zum Beweis im vorherigen Kapitel.
Sei von nun an A selbstadjungiert.
Fakt 4: Dann sind die Eigenraume von A zu verschiedenen Eigenwerten zueinander orthogonal.
Beweis: Wie Fakt 6.1.3: Sei x 2 V (A) = fx 2 V j Ax = xg und y 2 V# (A) fur  6= #, dann
hx; yi = hx; yi = hAx; yi = hx; Ayi = hx; #yi = #hx; yi. Also ( #)hx; yi = 0, also hx; yi = 0.

99
2
Wir mochten zeigen, da eine Orthonormalbasis von V existiert, die aus Eigenvektoren von A
besteht. Wir gehen wie im komplexen Fall vor.
Satz 1: Sei S = fx 2 V j kxk = 1g. Die Funktion x 7! hAx; xi ist auf der kompakten Menge
S stetig und nimmt daher auf S ein Maximum und ein Minimum an. Diese Extremwerte sind
Eigenwerte von A, die Argumente, an denen sie angenommen werden, sind Eigenvektoren von
A.
Beweis: Wie Satz 6.1.1.
Bemerkung 1: O enbar sind auch alle normierten Eigenvektoren von A zu den Eigenwerten
+ = maxfhAx; xi j x 2 V ^ kxk = 1g,  = minfhAx; xi j x 2 V ^ kxk = 1g Extrema der in
Satz 1 betrachteten Funktion.
Lemma 1: Sei A selbstadjungiert. Dann ist das orthogonale Komplement eines A-invarianten
Unterraumes A-invariant.
Beweis: Wie Lemma 6.1.2.
Theorem 3: Sei A ein selbstadjungierter Endomorphismus eines Euklidischen Vektorraumes
V . Dann gilt die orthogonale Summenzerlegung
M
V= V (A):
2IR
Insbesondere hat V eine Orthonormalbasis, die aus Eigenvektoren von A besteht.
Beweis: Wie Theorem 1 im letzten Kapitel.
Folgerung 1: (Hauptachsentransformation fur symmetrische Bilinearformen) Sei eine symme-
trische Bilinearform auf einem Euklidischen Vektorraum V . Dann hat V eine Orthonormalbasis
B, so da Mat B ( ) eine Diagonalmatrix ist.
Beweis: Es gibt einen selbstadjungierten Endomorphismus A von V mit (x; y) = hAx; yi, das
folgt aus Satz 5.6.2. Anwendung von Theorem 3 auf A ergibt den Beweis. 2
Bemerkung: Sei (x; y) eine symmetrische Bilinearform auf IR2, die in der Standardbasis Dia-
gonalgestalt hat. Dann ((x1 ; x2); (y1 ; y2)) = ax1y1 + bx2y2 . Wir nehmen weiterhin an, da
positiv de nit ist, also a; b > 0, und a < b. Dann ist E = fx 2 IR2 j (x; x) = 1g eine Ellipse mit
der x-Achse als Hauptachse und der y-Achse als Nebenachse. Fur positiv de nites auf V ist
fx 2 V j (x; x) = 1g ein Ellipsoid, eine Basis mit der in Folgerung 1 beschriebenen Eigenschaft
liefert die Haupt- und Nebenachsen fur dieses Ellipsoid. Falls dim(V ) = 2 und nicht ausgeartet,
aber inde nit ist, so ist fx 2 V j (x; x) = 1g eine Hyperbel.
Theorem 4: Seien A1 ; : : :; An paarweise kommutierende selbstadjungierte Endomorphismen
eines Euklidischen Vektorraumes V . Dann gilt die orthogonale Summenzerlegung
M
V= V1 ;:::;n (A1 ; : : :; An):
(1 ;:::;n )2IRn
Insbesondere hat V eine Orthonormalbasis, in der alle Ai Diagonalgestalt haben.
Beweis: Dies leitet man mit Hilfe von Lemma 6.2.1 aus Theorem 3 in derselben Weise her, wie
Theorem 2 aus Theorem 1.

100
De nition 2: Sei A ein normaler Endomorphismus von V . Fur r > 0 und 0 < ' <  setzen
wir
Vr;' (A) = fx 2 V j AA x = r2x ^ (A + A )x = 2r cos '  xg:

Theorem 5: Sei A ein normaler Endomorphismus eines Euklidischen Vektorraumes V .


1. Es gilt die orthogonale direkte Summenzerlegung
M M
V= V (A)  Vr;' (A):
2IR r>0;0<'<

2. Fur r > 0 und 0 < ' <  hat Vr;' (A) eine Orthonormalbasis B = (e1 ; : : :; ek ; f1; : : :; fk )
mit Aei = r cos 'ei + r sin 'fi , Afi = r cos 'fi r sin 'ei fur 1  i  k. Mit anderen
Worten,  
Mat B (AjVr;' ) = rr cos '11k r sin '11k :
sin '11 r cos '11
k k
Insbesondere ist die Dimension von Vr;' (A) gerade.
Beweis: Beim Beweis von Folgerung 6.1.2 hatten wir Theorem 2 auf 12 (A + A ) und 21i (A
A ) angewendet. Eine analoge Anwendung von Theorem 4 ist hier nicht moglich, denn der
zweite dieser Ausdrucke macht keinen Sinn mehr. Statt dessen wenden wir Theorem 4 auf die
kommutierenden selbstadjungierten Endomorphismen A + A und AA an. Wir erhalten
M
V= Vr;s (AA ; A + A ) (orthogonal) : ()
(r;s)2IR2
Lemma 2:
1. Wenn Vpt;s(AA ; A + A ) 6= f0g gilt, so gilt 0  ( s2 )2  t. Mit anderen Worten, t  0 und
jsj  2 t.
2. V( 2s )2 ;s(AA ; A + A ) = V 2s (A).
p p
3. Sei jsj < 2 t, also s = 2 t cos ' fur ein eindeutig bestimmtes 0 < ' < . Dann gilt
Vt;s (AA ; A + A ) = Vpt;' (A).
O enbar beweist das Lemma den ersten Punkt des Theorems, denn es identi ziert () mit der
zu beweisenden Orthogonalzerlegung.
Beweis von Lemma 2: Wir benutzen eine Halfte von
Lemma 3: Ein Endomorphismus eines Euklidischen Vektorraumes V ist genau dann normal,
wenn fur alle x 2 V gilt kAxk = kA xk.
Bemerkung: Dies gilt auch fur endlichdimensionale Hilbertr
p aume. p p
Beweis von Lemma 3: Sei A normal. Dann ist kAxk = hAx; Axi = hAAx; xi = hA x; A xi =
kAxk. Die andere Richtung ist U bungsaufgabe. 2
 
Beweis von Lemma 2: Zu (1): Sei x 2 Vt;s(AA ; A + A ) f0g. Wir setzen o.B.d.A. kxk = 1
voraus. Espgilt: kA xk2 = hA x; Axi = hx; AA xi = hx; txi = thx; xi = t. Also gilt t  0 und
kApxk = t. Nach Lemma 3 gilt kAxk = kA xk. Es gilt jsj = k(A + A )xk  kAxk + kA xk =
2 t. Damit ist (1) bewiesen. Gleichheit tritt in der letzten Zeile nur dann ein, wenn Gleichheit in
der Dreiecksungleichung eintritt, also wenn einer der Vektoren Ax und A x ein nicht negatives

101
Vielfaches des anderen ist. Wegen kAxk = kA xk ist das der Fall genau dann, wenn Ax = A x.
Dann gilt 2Ax = (A + A )x = sx, und x 2 V 2s (A), womit "" in (2) bewiesen ist. (3) lauft auf
eine einfache Anwendung von De nition 2 hinaus: Vr;' (A) = fx 2 V j AA x = r2 x; (A +A )x =
2r cos 'xg = Vr2 ;2r cos ' (AA ; A + A ). "" von (2): Es gilt nach (1), (3) und ()
M M
V= V( 2s )2 ;s(AA ; A + A )  Vr;' (A):
s2IR r>0
0<'<
Weil A und A kommutieren, ist diese Zerlegung A-invariant. Daraus folgt fur  2 IR leicht:
M M
V (A) = V (A) \ V( 2s )2 ;s(AA ; A + A )  V (A) \ Vr;' (A)
s2IR | {z } r>0
V s2 (A) 0<'<
| {z }
6=f0g nur fur s=2
M
= V2 ;2(AA ; A + A )  V (A) \{zVr;' (A)}
r>0 |
0<'< =f0g
= V2 ;2(AA ; A + A )
Es verbleibt der Beweis der versprochenen Behauptung V (A) \ Vr;' (A) = 0 fur 0 < ' < 
und r > 0. Andernfalls sei x ein von 0 verschiedener Vektor dieses Durchschnitts,
phAx; phAwobei wir
kpxk = 1 voraussetzen
p d
u rfen. Dann gilt j  j = kxk = kAx k = Ax i = Ax; x i =
hAA x; xi = r2hx; xi = r. Also jj = r. Es gilt  = hAx; xi = hx; Axi = hA x; xi. Also
gilt 2 = h(A + A )x; xi = 2r cos '. Dies kann fur 0 < ' <  und r = jj = 6 0 nicht der Fall
sein. Dieser Widerspruch beweist die versprochene Behauptung V (A) \ Vr;' (A) = f0g und der
Beweis von (2) ist vollstandig. 2
Beweis von Theorem 5.2: Der Beweis erfolgt durch eine Kette von Lemmata.
Lemma 4: Fur einen Endomorphismus U eines Euklidischen Vektorraumes V sind folgende
Aussagen aquivalent:
1. U ist orthogonal;
2. kUxk = kxk fur alle x 2 V ;
3. UU  = IdV ;
4. U  U = IdV .
Insbesondere sind alle U 2 O(V; h; i) normal.
Beweis: wie Fakt 6.1.4.
Lemma 5: Sei V ein Euklidischer Vektorraum mit dimV 6= 0 und A ein normaler Endomor-
phismus von V , so da V = Vr;' (A) fur ein r > 0 und 0 < ' <  gilt.
1. Dann ist jedes Element von v in einem zweidimensionalen A-invarianten Unterraum ent-
halten.
2. U = A=r 2 O(V ). Insbesondere gilt hAx; Ayi = 0 falls hx; yi = 0.
3. Das orthogonale Komplement eines A-invarianten Unterraumes ist A-invariant.
4. V hat eine orthogonale Zerlegung in zweidimensionale A-invariante Unterraume.

102
Beweis:
1. Es gilt A2 = A(A + A ) AA = 2r cos 'A r2IdV . Also ist fur alle x 2 V der Un-
terraum L(fx; Axg) A-invariant. Fur x 6= 0 ist dieser Unterraum zweidimensional, denn
wenn er eindimensional ware, ware x ein Eigenvektor von A, im Widerspruch zu der schon
bewiesenen Summenzerlegung aus Theorem 5.
2. Es gilt kAxk2 = hAx; Axi = hx; A Axi = r2 hx; xi, also kAxk = rkxk, also kUxk = kxk.
Nach Lemma 4 ist U orthogonal.
3. Sei W  V A-invariant, dann ist W auch U-invariant, also ist U jW ein orthogonaler
Automorphismus von W. Sei x 2 W ? , y 2 W, dann gibt es ein y~ 2 W mit y = U y~, und
hUx; yi = hUx; U y~i = hx; y~i = 0. Also ist W ? U-invariant und damit auch A-invariant.
4. Beweis durch Induktion nach dim(V ), beginnend mit dem trivialen Fall dim(V ) = 0. Sei die
Behauptung fur Vektorraume kleinerer Dimension als V bewiesen. Sei x 2 V f0g, W  V
ein zweidimensionaler A-invarianter Unterraum mit x 2 W (vgl. (1)). Dann gilt V =
W  W ? . Nach (3) ist W ? A-invariant und man sieht leicht W ? = Wr;' ? (AjW ? ). Nach der
Induktionsvoraussetzung ist W ? die orthogonale direkte Summe von zweidimensionalen
A-invarianten Unterraumen. 2
Lemma 6: Unter den Voraussetzungen von Lemma 5 sei zusatzlich V zweidimensional. Wenn
B eine Orthonormalbasis von V ist, so gilt
   
Mat B (A) = rr cos ' r sin ' oder Mat (A) = r cos ' r sin ' :
sin ' r cos ' B r sin ' r cos '
Dabei kann B stets so gewahlt werden, da der erste  adieser Falle eintritt.
Beweis: Sei B = (e1; e2) und sei Mat B (A) = c db . Dann Ae1 = ae1 + ce2 . Es gilt
hAe1 ; e1i = he1 ; A e1 i = hA e1 ; e1 i, also a = hAe1 ; e1i = h 21 (A + A )e1 ; e1 i = hr cos ' e1 ; e1i =
r cos '. Ebenso zeigt man d = r cos '. Es gilt r2 = kAe1k2 = a2 + c2 = r2 cos2 ' + c2, also
c = r sin '. Ebenso zeigt man b = r sin '. Wenn b = c ware, so ware Mat B (A) symmetrisch,
also ware A selbstadjungiert. Aber A kann in V keine Eigenvektoren haben. Also c = d. Damit
tritt einer der beiden behaupteten Falle ein. Falls der zweite Fall eintreten sollte, so vertauschen
wir e1 und e2 und erhalten auf diese Weise eine Orthonormalbasis von V , auf die der erste Fall
zutri t. 2
Beweis vonLTheorem 5, (2): Nach Lemma 5 zerfallt Vr;'(A) in eine orthogonale direkte Summe
Vr;' (A) = ki=1 Wi zweidimensionaler A-invarianter Unterraume.  r cosNach Lemma 6hat Wi eine
Orthonormalbasis (ei ; fi ), in der AjWi die Matrixdarstellung r sin '' rrcos sin ' hat. Dann
'
hat die Orthonormalbasis (e1 ; : : :; ek ; f1; : : :; fk ) von Vr;' die geforderte Eigenschaft. 2
Bemerkung: Auf (Vr;' (A))C ist die Komplexi zierung der Einschrankung von A ein normaler
Endomorphismus mit den Eigenwerten rei' .
Folgerung 2: Sei V ein Euklidischer Vektorraum, U ein orthogonaler Endomorphismus von V .
1. Es gilt M
V = V1 (U)  V 1 (U)  V1;'(U):
0<'<

103
2. V1;' (U) hat eine Basis B = (e1 ; : : :; ek ; f1 ; : : :; fk ) mit
 cos '11 sin '11 
Mat B (U jV1;' ) = sin '11kk cos '11kk :

3. V 1 (U) hat gerade Dimension, falls U 2 SO(V; h; i) (d.h., det(U) = 1). Falls det(U) = 1,
hat V 1 (U) ungerade Dimension.
4. Wenn die Dimension von V ungerade ist, hat U einen Eigenwert. Falls zusatzlich det(U) = 1
gilt, so ist 1 ein Eigenwert.
Beweis:
1. Es gilt UU  = IdV , also gilt Vr;' (U) = f0g fur r 6= 1. Wegen kUxk = kxk, sind 1 die
einzigen Eigenwerte von U. Die Behauptung folgt nun aus Theorem 5.
2. folgt ebenfalls aus Theorem 5.
3. Fakt: Sei A ein Endomorphismus eines endlichdimensionalen Vektorraumes X, und sei
X = Y  Z eine direkte Zerlegung von X in A-invariante Unterraume. Dann gilt det(A) =
det(AjY ) det(AjZ ), d.h.
A 0
0 B = det(A) det(B); A 2 Mat (k; k; K); B 2 Mat (l; l; K):
Der Beweis erfolgt durch Induktion nach k, Au osung nach der ersten Zeile. Es folgt
Y
det(U) = det(U jV1(U ) ) det(U jV 1 (U )) det(U jV1;'(U ) )
| {z }
0<'<
=1, falls V1;' (U )=f0g
V U Y cos ' sin ' dim(V1;'(U ))=2
= 1( 1)dim( 1 ( ))
sin ' cos ' = ( 1)dim(V 1 (U ))
0<'<

4. folgt, weil V1;' (V ) fur 0 < ' <  gerade Dimension hat. Wenn zusatzlich det(U) = 1 gilt,
so hat auch V 1 (U) gerade Dimension (nach (3)), also ist dim(V1 (U)) ungerade und daher
ungleich Null. 2
Folgerung 3: Jedes Element von SO(2) fId g hat bezuglich der Standardbasis des IR2 die
Matrixdarstellung  r cos ' r sin ' 
r sin ' r cos '
mit 0 < ' < 2 und ' eindeutig bestimmt.
Beweis: folgt aus Lemma 6.
Folgerung 4: Sei V ein dreidimensionaler Euklidischer Vektorraum und sei
U 2 SO(V; h; i) fIdV g. Dann gibt es ein eindeutig bestimmtes ' mit 0 < ' < , den Dreh-
winkel von U, so da V = V1 (U)  V1;' (U).
Beweis: folgt aus Folgerung 2.

104
6.3 Das charakteristische Polynom
Sei K ein Korper.
De nition 1: Ein Polynom mit Koezienten aus K ist eine Folge p = (pk)1k=0, so da pi 2 K
und ein i0 mit pi = 0 fur i > i0 existiert. Wir schreiben
X
i0
p(T ) = pk T k :
k=0
Sei K[T ] die Menge aller Polynome mit Koezienten aus K. Diese Menge bildet einen K-
Vektorraum mit den Operationen
(pi )1 1 1
i=0 + (qi )i=0 = (pi + qi)i=0 ;
(pi )1 1
i=0 = (pi )i=0 :
Das konstante Polynom  ist durch die Folge (; 0; : : :) de niert. Die Multiplikation Pm p zweier
Polynome (pk )1 k=0 und (q ) 1
k k=0 ist durch die Folge (v )1
k k=0 gegeben, wobei vm = k=0 k qm k .
Fur x 2PK und p = (p )1
k k=0 2 K[T] sei der Funktionswert von p an der Stelle x durch
p(x) = 1 k=0 kp x k de niert (diese Summe ist tats
a chlich endlich). x ist eine Nullstelle , falls
p(x) = 0 gilt. Der Grad eines von Null verschiedenen Polynoms p ist das grote i mit pi 6= 0.
Der Grad des Nullpolynoms sei 1. Wir bezeichnen den Grad von p mit deg p.
Bemerkung 1: Wenn K endlich ist, gibt es von Null verschiedene Polynome p 2 K[T ] mit
p(x) = 0 fur alle x 2 K. Deshalb konnten wir Polynome nicht einfach als Funktionen P von K
nach K de nieren. Zum Beispiel gilt x + x = 0 fur alle x 2 IF2. In p(T) = k=0 pk T k mu
2 deg p
man T als eine Variable au assen, in die man auch Elemente von Erweiterungskorpern von K
einsetzen kann.
Fakt 1: Seien P; Q 2 K[T ]. Dann gilt fur x 2 K
1. (PQ)(x) = P(x)Q(x), (P + Q)(x) = P(x) + Q(x);
2. deg(PQ) = deg P +deg Q ,deg(P +Q)  maxfdeg P; deg Qg ( 1 + 1 = 1; 1 +c =
1 8c 2 IN). Falls deg Q < deg P, so gilt insbesondere deg(P + Q) = deg P.
Beweis: Sei PQ = R = (rk )1k=0. Dann gilt
X
1 X
1Xk
R(x) = rk xk = p i qk i xk
k=0 i=0
k=0
X
1 X
1 ! 0X
1
1
= pi qj xi+j = pixi @ qj xj A = P(x)Q(x)
i;j =0 i=0 j =0
Die zweite Formel ist noch einfacher.
Die dritte Formel ist o enbar richtig, falls P oder Q verschwindet, denn dann sind beide Seiten
1. Sei P 6= 0 und Q 6= 0, a = deg P, b = deg Q. Sei R = PQ = (rk )1 k=0 . Dann gilt
X
a+b
ra+b = pi qa+b i:
i=0

105
Fur i > a verschwindet in piqa+b i der erste Faktor, fur i < a gilt a+b i > b und es verschwindet
der zweite Faktor. Also bleibt in der letzten Summe nur ein Summand ubrig. va+b = pa qb 6= 0.
Fur k > a + b gilt
Xk
rk = pi qk i;
i=0
und in pi qk i verschwindet fur i > a der erste Faktor, fur i  a der zweite Faktor, es gilt namlich
k i > a+b i  b. Also gilt ra+b 6= 0 und ri = 0 fur i > a+b, also deg R = a+b = deg P +deg Q.
Sei S = P + Q = (sk )1 k=0. Fur k > maxfdeg P; deg Qg gilt sk = pk + qk = 0. Also deg S 
maxfdeg P; deg Qg. Falls deg Q < deg P gilt sdeg p = pdeg p + qdeg p = pdeg p 6= 0, also deg S =
deg P. 2
Bemerkung:
1. Insbesondere folgt aus P 6= 0 und Q 6= 0 deg(PQ) = deg P + deg Q  0, also PQ 6= 0.
2. P ist genau dann ein konstantes Polynom, wenn deg P = 0 oder deg P = 1.
3. Sei K ein endlicher Korper, seien x1 ; : : :; xq die Q
Elemente
Q
von K und sei P(T) = qk=1(T
q
xk ). Dann gilt deg P = q, P 6= 0, aber P(x) = k=1 (x xk ) = 0 fur x 2 K.
4. Polynomaddition und Polynommultiplikation sind kommutativ und assoziativ. Es gilt auch
das Distributivgesetz P(Q+R) = PQ+PR. Fur das konstante Polynom 1 gilt 1P = P, fur
das konstante Polynom 0 gilt P + 0 = P und 0P = 0. (K[T ]; +) ist eine abelsche Gruppe.
Man sagt dazu, (K[T ]; +; ) ein kommutativer Ring mit Einselement ist (ebenso wie
(Z; +; )).
Satz 1: (Division mit Rest) Sei P; Q 2 K[T] und Q 6= 0. Dann kann P mit Rest durch Q
geteilt werden; P = XQ + R mit X 2 K[T], R 2 K[T] und deg R < deg Q. Dabei sind X und
R durch diese Eigenschaften eindeutig bestimmt.
Beweis: Existenz der Division mit Rest, Induktion nach deg P. Fur deg P < deg Q ist P =
0Q + P eine Division mit Rest. Sei die Existenz der Division mit Rest durch Q fur Polynome
kleineren Grades als P bewiesen. Sei weiterhin deg P  deg Q. Sei
~ = P(T) pdeg P T deg P deg Q Q(T):
P(T) qdeg Q
Der Grad des Subtrahenden ist gleich deg P, sein fuhrender Koezient ist
pdeg P q
qdegQ deg Q = pdeg P :
Also gilt p~deg P = 0. Also deg P~ < deg P. Nach Induktionsvoraussetzung kann P~ als P~ = XQ+R
~
dargestellt werden mit deg R < deg Q. Dann gilt aber P = XQ + R mit
~ + pdeg P T deg P deg Q :
X(T ) = X(T) qdeg Q
Damit ist die Existenz der Division mit Rest bewiesen.
Beweis der Eindeutigkeit: Angenommen, XQ+R = P = XQ+ ~ R~ mit deg R < deg Q und deg R~ <
deg Q. Falls X = X~ folgt sofort R = R, ~ denn (K[T ]; +) ist eine abelsche Gruppe. Wenn X 6= X,
~
so ware in Q(X X) ~ = R~ R nach Fakt 1 der Grad der linken Seite deg Q+deg(X X) ~  deg Q,
der Grad der rechten Seite dagegen < deg Q. Widerspruch. 2

106
Bemerkung: Der fuhrende Koezient eines von 0 verschiedenen Polynoms P = (pk )1k=0 ist
pdeg P . Bei der Multiplikation multiplizieren sich die fuhrenden Koezienten. Der Grad einer
Summe zweier Polynome gleichen Grades ist genau dann kleiner als der Grad der Summanden,
wenn die Summe der fuhrenden Koezienten Null ergibt.
Fakt 2: Jedes Polynom P 6= 0 kann auf eindeutige Weise als
Yk
P(T) = (T xi)vi Q(T)
i=1
dargestellt werden, wobei Q 2 K[T] mit Q(x) 6= 0 fur alle x 2 K und x1; : : :; xk paarweise
verschieden sind; k; vi 2 IN eindeutig bestimmt. Man nennt die vi die Vielfachheit der Nullstelle
xi.
Beweis: Existenz durch Induktion nach deg P. Fur deg P = 0 sei k = 0 und Q = P. Sei die
Behauptung fur Polynome kleineren Grades bewiesen. Wenn P keine Nullstelle hat, sei k = 0
und Q = P. Wenn x eine Nullstelle von P ist, dann dividieren wir P mit Rest durch (T x):
P(T) = (T x)P(T ~ ) + R. Wegen deg R < deg(T x) = 1 ist R konstant. Wegen P(x) =
~
(x x)P(x)+R(x) = R(x) gilt R = 0. Also P(T) = (T x)P(x). ~ = Q~ki=1(T xi )v~i Q(T)
~ Sei P(T)
eine Zerlegung der beschriebenen Art fur P. ~ Sie existiert nach der Induktionsvoraussetzung, denn
deg P = deg(T x) + deg P = 1 + deg P. Falls kein i mit 1  i  k~ und x = xi existiert, dann
~ ~
sei k = k~ + 1, xi = x~i, vi = v~i fur 1  i  k~ und xk = x, vk = 1. Falls x = xi fur ein i,
1iQ k~, gilt, sei k = k~, xj = x~j und vj = v~j fur i 6= j und vi = v~i + 1. In beiden Fallen gilt
P(T) = ki=1 (T xi)vi Q(T ). Damit ist der Beweis der Existenz abgeschlossen.
Beweis der Eindeutigkeit der Zerlegung: Angenommen, x ist eine Nullstelle von P. Dann mu
einer der Faktoren Q(x) oder (x xi)vi , 1  i  k, verschwinden. Weil Q keine Nullstelle
hat, mu x 2 fx1; : : :; xkg sein. Auf der anderen Seite sind alle xi Nullstellen von P. Also ist
fx1; : : :; xk g = fx 2 K j P(x) = 0g durch P eindeutig Q bestimmt. Eine andere Zerlegung der
k
beschriebenen Art fur P hat also die Form P(T) = i=1 (T xi)v~i Q(T ~ ). Angenommen, es gabe
ein i mit 1  i  k und v~i 6= vi . Wir konnen o.B.d.A. i = 1 und v~1 < v1 annehmen. Dann gilt
"Yk Yk #
~
0 = P(T) P(T ) = (T x1)v~1 (T ~
xi)v~i Q(T) (T x1)v1 v~1 (T xi)vi Q(T) :
i=2 i=2
Aber K[T ] ist nullteilerfrei, d.h., das Produkt zweier von 0 verschiedener Polynome ist von 0
verschieden. Wegen (T x1 )v~1 6= 0 mu in der letzten Gleichung der Faktor in eckigen Klammern
verschwinden:
Yk ~ = (T x1)v1 v~1 Y(T xi)vi Q(t):
k
(T xi )v~i Q(T)
i=2 i=2
Dies ist nicht moglich, denn x1 ist eine
Q Nullstelle der rechten~Seite, nicht aber der linken. Also
vi = v~i fur 1  i  k. Dann gilt 0 = ki=1 (T xi)vi (Q(T) Q(T ~
)), also Q = Q. 2
Folgerung 1: Ein PolynomQ P 6= 0 n-ten Grades hat hochstens n verschiedene Nullstellen.
k
Beweis: Sei P(T ) = i=1 (T xi)vi Q(T ) wie in Fakt 2, dann
X
k X
k
deg P = deg(T xi )vi + deg Q = vi + deg Q  k = Anzahl Nullstellen von P in K:
i=1 i=1
2
Bemerkung: Die Zahl k aus Fakt 2 ist die Anzahl der verschiedenen Nullstellen von P in K.
107
vi nennt man dabei die Vielfachheit der Nullstelle xi.
Folgerung 2: Wenn K unendlich viele Elemente hat, ist ein Polynom P 2 K[T ] durch die Funk-
tion K ! K, x 7! P(x), eindeutig bestimmt. Insbesondere ist dies fur Korper mit char(K) = 0
der Fall.
Beweis: Folgt aus Folgerung 1. 2
Bemerkung: Folgerung 1 hatte auch mit der Formel fur die Vandermondsche Determinante
bewiesen werden konnen.
De nition 2: Ein Korper K ist algebraisch abgeschlossen, wenn jedes nichtkonstante
Polynom eine Nullstelle in K hat.
Fakt 3: Dann zerfallt jedes Polynom P 6= 0 in Linearfaktoren, d.h. die Zerlegung aus Fakt 2
nimmt die Form
YL
P(T ) = q (T xi)vi
i=1
an. Faktoren (T xi ) nennt man Linearfaktoren.
Beweis: Nach De nition 2 mu das Polynom Q aus Fakt 2 konstant sein. 2
Bemerkung: Ein endlicher Korper ist niemals algebraisch abgeschlossen.
Beweis: Sei K = fx1; : : :; xng, dann hat das Polynom P(T ) = 1 + Qni=1(T xi) keine Nullstelle
in K. 2
Fakt 4: IR ist nicht algebraisch abgeschlossen. Jedes Polynom ungeraden Grades hat eine Null-
stelle.
Beweis: x2 + 1 = 0 hat keine reelle Losung. Sei deg P ungerade und der fuhrende Koezi-
ent 1. Dann limT !1 P(T) = 1 und limT ! 1 P(T) = 1, da P stetig ist, hat P nach dem
Zwischenwertsatz eine Nullstelle. 2
Theorem 6: (C.F. Gau, Fundamentalsatz der Algebra) C ist algebraisch abgeschlossen.
Bemerkung 2: Eigentlich betrachtet man Theorem 6 als einen Satz der Analysis. Der erste
weitgehend algebraische Beweis wurde von E. Artin und Schreier angegeben (1922).
Lemma 1: Fur jedes n 2 IN kann man aus jeder komplexen Zahl z eine n-te Wurzel ziehen.
Beweis: Sei z = rei' = r cos ' + ir sin ', r  0, 0  ' < 2. Dann ist
nprei 'n = npr cos ' + inpr sin '
n n
eine n-te Wurzel aus z. 2
Bemerkung: Beim Beweis von Theorem 6 konnen wir uns auf Polynome mit fuhrendem Koef-
zienten 1 beschranken. Sei also
nX1
P(T) = T n + pk T k : ()
k=0
Lemma 2: Sei x0 ein lokales Minimum der Funktion z 7! jP(z)j, C ! IR. Dann ist x0 eine
Nullstelle von P.
Beweis: Angenommen, p = P(x0) 6= 0. Sei P(T ) = p + (T x0)k Q(T), mit Q(x0) = q 6= 0 (vgl.

108
Satz 1, Fakt 2), k > 0. Sei z eine k-te Wurzel aus qp . Fur r > 0 gilt
jP(x0 + rz)j = jp + (rz)k Q(x0 + rz)j = jp pq rk (q + |a0rz + : : {z
: + ak (rz)k})j
O(r)
= jp prk + O(rk+1)j  jpj(1 rk ) + crk+1
fur eine Konstante c. Wenn also 0 < r < min(1; pc ) ist, so gilt jP(x0 +rz)j < jP(x0)j. Widerspruch
zu unserer Annahme p = P(x0) 6= 0. 2
Lemma 3: Die (stetige) Funktion f(z) = jP(z)j nimmt auf C ein Minimum an.
Beweis: Sei n der Grad des Polynoms (vgl. ()). Sei R = maxfjpij j 0  i < ng. Fur jxj > S =
max(1; jp0j + nR), x 2 C, gilt
nX1 jxj1
f(x) = jP(x)j  jxjn j pixi j  jxjn nRjxjn 1 = jxjn 1(jxj nR) > p0 = jP(0)j = f(0):
i=0
Nach Satzen aus der Analysis nimmt die stetige Funktion f(z) auf der kompakten Menge fz j
jz j  S g ein Minimum an. Nach der vorhergehenden U berlegung ist dieses Minimum auch ein
Minimum von f auf ganz C. 2
Theorem 6 folgt nun aus Lemma 2 und Lemma 3. 2
Bemerkung 3: Aus Grunden der Einfachheit nehmen wir an, da K unendlich viele Elemente
hat. Dann ist P 2 K[T] eindeutig durch die Funktion K ! K, x 7! P(x), de niert.
Satz 2:
1. Sei V ein endlichdimensionaler K-Vektorraum und A ein Endomorphismus von V . Dann
gibt es genau ein Polynom PA 2 K[T ] mit det(IdV A) = P() fur alle  2 K.
deg PA = dimV .
2. Sei A 2 Mat(n; n; K). Dann existiert genau ein Polynom PA 2 K[T] mit det(11n A) =
PA(). Es gilt deg PA = n.

Beweis: Die Eindeutigkeit von PA folgt in beiden Fallen aus Folgerung 2. Es genugt, (2) zu
beweisen (PA = PMatB (A) ). Sei also A = (aij )ni;j =1. Nach der Leibnizschen Determinantenformel
gilt
X Y
n
det(11n A) = det(ij aij )ni;j =1 = sign() (i;(i) ai;(i) )
2Sn i=1
X
= PA; ();
 2 Sn
wobei PA; 2 K[T] durch
Y
n
PA; (T) = sign() (Ti;(i) ai;(i) )
i=1
Y Y
= sign() ( ai;(i) ) (T aii );
1in 1in
(i)6=i (i)=i

109
P
de niert ist. Also det(11n A) = PA (), wobei PA = 2Sn PA; . Es verbleibt die Bestimmung
des Grades von PA .
n  = Id
deg(PA; ) (=) jfi j 1  i  n ^ (i) = igj =  n 2  6= Id ; ()
denn jede Permutation von f1; : : :; ng, die n 1 dieser Zahlen festlat, lat wegen ihrer Bijekti-
vitat auch die verbleibende Zahl fest. Aus () und Fakt 1 folgt deg(PA ) = n, denn
X
PA = PA;Id + PA; : 2
| {z }  6
= Id
deg=n | {z }
deg<n nach Fakt 1
Bemerkung: Die De nition von PA; und damit auch die De nition von PA funktioniert auch
fur endliche Korper K. In der Situation von Satz 2, (1) setzt man dann PA = PMatB (A) und hat
dann noch die Unabhangigkeit dieses Polynomes von B zu zeigen.
De nition 3: PA nennt man das charakteristische Polynom von A.
Bemerkung: Es gibt auch die Konvention P~A () = det(A Id) fur das charakteristische
Polynom.
De nition 4: Die Spur tr(A) von A 2 Mat (n; n; K) ist die Summe ihrer Diagonalelemente.
Die Spur eines Endomorphismus eines endlichdimensionalen Vektorraumes ist die Spur seiner
Matrixdarstellung bezuglich einer beliebigen Basis.
Fakt 6: Seien A; B 2 Mat (n; n; K). Es gilt:
1. tr(AB) = tr(BA)
2. tr(A + B) = tr(A) + tr(B)
3. Der zweithochste Koezient des charakteristischen Polynoms von A ist tr(A).
Insbesondere ist die Spur eines Endomorphismus von V unabhangig von der Wahl der Basis von
V.
Beweis:
1. Sei A = (aij )ni;j =1, B = (bijP
)ni;j =1, AB = (cij )P
n , BA = (dij )n . Die Formel des
i;j =1 i;j =1
Matrixproduktes liefert cik = j =1 aij bjk, dik = nj=1 bij ajk , also
n

X
n X
n X
n X
n X
n X
n
tr(AB) = cii = aij bji = bjiaij = djj = tr(BA):
i=1 i=1 j =1 j =1 i=1 j =1

2. ist klar. Allgemeiner: tr : Mat(n; n; K) ! K ist ein lineares Funktional.


P
3. Erinnere an den Beweis von Satz 2: det(Id A) = PA() = 2Sn PA; ().
Y Y
PA; () = sign() ( ai;(i) ) ( aii );
1in 1in
(i)6=i (i)=i

110
deg(PA; )  n 2, falls  6= Id. deg(PA;Id) = n. Also stimmt der zweithochste Koezient
von PA mit dem zweithochsten Koezienten von PA;Id uberein.
Y X Y
PA;Id () = ( aii ) = ( 1)n jS j aii jS j
1in S f1;:::;ng i62S
X
n
= n + aii n 1 + Terme vom Grad  n 2
i=1
= n tr(A)n 1 + Terme vom Grad  n 2:
Sei nun A ein Endomorphismus von V . Wir mochten zeigen, da tr(Mat B;B (A)) von der Auswahl
dieser Basis unabhangig ist. Sei B~ eine andere Basis von V . Dann gilt
Mat B;~ B~ (A) = Mat B;B~ (Id)Mat B;B~ (A)
= Mat B;B~ (Id)Mat B;B (A)Mat B;B~ (Id) = MMat B;B M 1

tr(Mat B;~ B~ (A)) = tr(MMat B;B M 1) (1)


= tr(M 1MMat B;B (A)) = tr(Mat B;B (A)). 2
Bemerkung:
1. (1)-(3) von Fakt 6 konnen nun auch auf Endomorphismen von endlichdimensionalen Vek-
torraumen angewendet werden.
2. (3) macht nach dem, was wir uber das charakteristische Polynom bewiesen haben, nur uber
unendlichen Korpern Sinn (obwohl es allgemein gilt). Alle anderen Teile von Fakt 6 haben
wir uber beliebigen Korpern bewiesen.
Fakt 7: Sei dim(V ) = n, sei A ein Endomorphismus von V .
1. Das charakteristische Polynom von A hat die Form
PA () = n tr(A)n 1 + : : : + ( 1)n det(A):
2.  ist Eigenwert von A genau dann, wenn  Nullstelle des charakteristischen Polynoms PA
ist.
3. Wenn K algebraisch abgeschlossen ist (z.B. C), dann hat A einen Eigenwert.
Beweis: ist klar.
De nition 5: Sei V ein Vektorraum.
1. Ein Projektor ist ein Endomorphismus p von V mit p2 = p.
2. Eine Involution ist ein Endomorphismus i von V mit i2 = id .
3. Sei X  V ein Unterraum. Ein Komplementarraum zu X ist ein Unterraum Y  V
mit V = X  Y .
Beispiel: Wenn V ein Euklidischer Vektorraum oder ein Euklidischer Hilbertraum ist, so ist X ?
ein Komplementarraum zu X, und der Orthogonalprojektor ist ein Projektor.
Bemerkung 5: Sei p ein Projektor. Dann ist Y = ker(p) ein Komplementarraum zu X =
Bild (p). Wenn umgekehrt X  V und ein Komplementarraum Y zu X vorgegeben sind, dann

111
existiert genau ein Projektor p mit ker(p) = Y und Bild (p) = X.
Beweis: Sei p vorgegeben. Aus v 2 ker(p) \ Bild (p), etwa v = p(w), folgt
0 = p(v) = p(p(w)) = p2(w) = p(w) = v:
Also ker(p) \ Bild (p) = f0g. Wenn v 2 V vorgegeben ist, so gilt:
|{z}) + |(v {zp(V ))} :
v = p(V
2Bild(p) 2ker(p)
Also V = ker(p)  Bild (p). Wenn umgekehrt V = X  Y gilt, so sei p : V ! V durch p(v) = x
de niert, wobei v = x + y, x 2 X, y 2 Y die eindeutige Zerlegung von V in der direkten Summe
X  Y ist. Dann ist p2 = p, ker(p) = Y , Bild (p) = X. 2
Bemerkung 6: Sei char (K) 6= 2.
1. Durch
Involution auf V Projektion in V
i ! p = 12 (id V + i)
i = 2p id V p
sind zwei zueinander inverse Bijektionen de niert.
2. Wenn i eine Involution auf V ist, so gilt V = V1 (i)  V 1 (i).
Beweis: ist klar.
Bemerkung 7: Insbesondere nehmen Projektoren und, falls char (K) 6= 2, auch Involutionen
eines endlichdimensionalen Vektorraumes in einer geeigneten Basis stets Diagonalgestalt an. Die
Spur eines Projektors p ist dim(Bild(p)), das charakteristische Polynom von p ist Pp (T ) =
(T 1)dim(Bild(p)) T dim(ker(p)) . Wenn i eine Involution und char (K) 6= 2 ist, so gilt Pi (T) =
(T 1)dim(V1 (i)) (T + 1)dim(V 1 (i)) .
 1 : : : 0 0 : : : 0 9
. . =
.. . . ... ... . . . ...
0 : : :  1 0 : : : 0 ; dim(Bild (p))dim(Bild(p)) dim(ker(p))
det(Id p) = 0 : : : 0  : : : 0 9 = = ( 1)  :
. .
.. . . ... ... . . . ... ; dim(ker(p))
0 ::: 0 0 ::: 
6.4 Die Jordansche Normalform
De nition 1: Ein Endomorphismus N von V ist nilpotent, falls ein k 2 IN mit N k = 0
existiert. Ein Endomorphismus U von V ist unipotent, falls U id V nilpotent ist.
Bemerkung: Fur einen Korper K mit char (K) = 0 ist fur ein unipotentes U nicht gesichert,
da ein k > 0 existiert mit U k = id .
Fakt 1: Das Spektrum eines nilpotenten Endomorpismus besteht nur aus 0.
Beweis, falls dim(V ) < 1. Wir zeigen, da fur  6= 0 V(N) = f0g. In der Tat aus  6= 0 und
v 2 V (N) f0g wurde N k v = k v 6= 0 fur alle k folgen. 2

112
Bemerkung 1: In Korpern mit Charakteristik 0 gilt die Neumannsche Reihe:
X
1
(id N) 1 =  k 1N k :
k=0
Beispiel: 00 1
1 ::: 0
B .. ... ... .. CC
N =B
B@ . . CA 2 Mat(k; k)
0 ::: 0 1
0 ::: 0 0
6 0, denn
erfullt N k = 0, aber N k 1 =
0 0 ::: 0 1 :::
0 1
BB ... : : : ... ... ..
....
CC
Ni = BB@ .. .
CC
. : : : .. ::: 0 1 A
| 0 {z: : : }0 ::: 0 0
i

Satz 1: Sei N ein nilpotenter Endomorphismus


P eines endlichdimensionalen Vektorraumes V .
Dann gibt es p1  p2  : : :  pL  1 mit Li=1 pi = dim(V ) und eine Basis (eij )1iL;1j pi
mit e falls j < pi
Neij = i;j +1
0 falls j = pi :
Dabei sind L und p1 ; : : :; pL eindeutig bestimmt.
Bemerkung: 0 0 ::: ::: 0 ::: 0 ::: ::: 0 1
BB . .
1 . . . . . . .. : : : .. . . . . . . .. C
. C
BB .. . . . . . . .. . . C
C
BB . . : : : .. . . . . . . .. CC
BB0 ::: 1 0 ::: 0 ::: ::: 0 C
N =B BB .. .. .. .. . . . .. .. .. .. C C
. . . . . . . . C C
BB
0 ::: ::: 0 ::: 0 ::: ::: 0 C C
BB.. . . . . . . .. . C
BB. . : : : 1 . . . . . . .. C C
@.. . . . . . . .. .. . . . . . . .. C
. . ::: . . A
0 ::: ::: 0 ::: 0 ::: 1 0
Beweis von Satz 1 durch Induktion nach dim(V ), beginnend mit dim(V ) = 0. Sei die Existenz
fur Vektorraume kleinerer Dimension als V bewiesen. Sei p1 das kleinste p mit N p = 0. Sei
e1;1 2 V mit N pi 1(e1;1 ) 6= 0. Fur 1  j  p1 sei e1P ;j = N j 1e1;1. Behauptung: Die e1;j ,
1  j  p1 , sind linear unabhangig. Angenommen, v = pj =1 1  e = 0 mit  2 K, die nicht
j 1;j j
alle verschwinden. Sei k die kleinste Zahl mit k 6= 0. Dann gilt
X
p1
N p1 k v = k N p1 k e1;k + j N p1 k e1;j
j =k+1

113
X
p1
= k N p1 k N k 1e1;1 + j N p1 k j 1
| N{z e1;1}
j =k+1
=N p1 +j k 1 e1;1 =0 ,denn p1 +j k 1p1
= k e1;p1 6= 0;
im Widerspruch zu unserer Annahme, da v = 0 ist. Also ist die lineare Unabhangigkeit der e1;j
bewiesen.
Die e1;j bilden also eine Basis eines Teilraumes X von V . Wir werden einen komplementaren
N-invarianten
P 1  e +Unterraum
Pr # fY) zu= X nden. Sei (e1;1 ; : : :; e1;p1 ; f1; : : :; fr ) eine Basis von V . Durch
l( pj =1 j 1;j k=1 k k p1 ist ein Funktional l 2 V  mit l(e1;j ) = p1 ;j de niert. Fur
x 2 V sei
Xp1
q(x) = l(N p1 j (x))e1;j :
j =1
Dann ist q ein Projektor auf X, denn Bild (q)  X und
X
p1
q(e1;k ) = l( N p1 {zj (e1;k })
| )e1;j = e1;k :
j =1 0 j<k
=
e1;p1 +k j j  k
Weiterhin ist q mit N vertauschbar:
X
p1
p j N p1 =0 Xp1
q(Nx) = l(N 1 +1 x)e1;j = l(N p1 +1 j x)N(e1;j 1)
j =1 j =2
0 p1 1 1 0 p1 1
X X
= N @ l(N p1 ~j x)e1;~j A = N @ l(N p1 ~j x)e1;~j A
~j =1 ~j=1
denn Ne1;p1 = 0. Also qN = Nq, und Y = ker(q) ist ein N-invarianter komplementarer Un-
terraum zu L;pi
 eX. Nachj <derp Induktionsannahme gibt es eine Basis (ei;j )i=2;j=1 von Y , so da
Nei;j = 0i;j +1 j = pi . Dann ist (ei;j )L;p i=1;j =1 eine Basis von X mit der geforderten Ei-
i
i
genschaft.
Beweis der Eindeutigkeit: Sei (~ei;j )iL~=1
;p~1 eine andere Basis von V mit der beschriebenen Eigen-
;j =1
schaft. Wir konnen L~  L voraussetzen. Angenommen, L~ < L und fur 1  i  L~ gilt pi = p~i .
Dann gilt
X
L~ X
L~ X
L
dim(V ) = p~i = pi < pi = dim(V ):
i=1 i=1 i=1
Widerspruch. Angenommen, es gabe ein i mit 1  i  L~ und pi 6= p~i und pj = p~j fur 1  j  i.
Falls p~i < pi gilt, fuhrt folgende Betrachtung zum Widerspruch: Eine Basis des Bildes von N K
ist gegeben durch fei;j j 1  i  L ^ K + 1  j  pig. Also
X
L
dim(Bild(N K )) = max(pi K; 0);
i=1
denn ei;j = N K ei;j K fur j > K oder N K ei;j = ei;j +K oder 0. Ebenso
X L~
dim(Bild(N K )) = max(0; p~i K):
j =1

114
Fur p~i < pi gilt einmal
X
L~
dim(Bild (N p~i )) = max(0; p~k p~i )
k=1
p~k p~i fur ki X
i 1
= (~pk p~i )
k=1
XL
= max(pk p~i ; 0) = dim(Bild(N p~i ))
k=1
Widerspruch. Da die Annahme L~  L bei diesem Argument nicht benutzt wurde, sondern nur die
Annahme 1  min(L; L~ ), kann die Annahme pi < p~i ebenso (durch Betrachtung von Bild (N pi ))
zum Widerspruch gefuhrt werden. 2
De nition 2:
V~(A) = fv 2 V j 9 k : (A id)k v = 0g
ist der verallgemeinerte Eigenraum oder Hauptraum zum Eigenwert .
Bemerkung: V~(A) ist A-invariant, dim(V~(A)) < 1 (insbesondere ist AjV~(A) id nilpotent,
falls dim(V ) < 1).
Beweis: Aus (A id )k v =: (A )k v = 0 folgt (A )k Av = A(A )k v = 0, also ist V~(A)
A-invariant. Falls dim(V~(A)) =: D < 1, sei e1 ; : : :; eD eine Basis dieses Unterraumes. Fur
1  i  D gibt es ki mit (A )ki ei = 0. Dann ist (AV~ (A) )k = 0 mit k = max(k1; : : :; kD ).
Theorem 7: Sei A ein beliebiger Endomorphismus eines endlichdimensionalen Vektorraumes
V uber einem algebraisch abgeschlossenen Korper K.
1. Es gilt die direkte Summenzerlegung:
M
V= V~(A); (1)
2 K
die in Wahrheit endlich ist.
2. V~(A) hat eine Basis (e;i;j )Li=1
 ;P;i mit
;j =1
 e falls j = P;i
Ae;i;j = ;i;j
e;i;j + e;i;j +1 falls j < P;i :
L und P;i sind dabei eindeutig bestimmt.
Q
3. PA(T ) = 2K (T )dim(V~ (A)) .

Beweis: Da uns die Existenz von Eigenwerten (fur von f0g verschiedene V ) garantiert ist
(K ist algebraisch abgeschlossen), besteht das Problem bei (1) darin, zu V~(A) einen Kom-
plementarraum zu nden. (2) folgt aus Satz 1, (3) ist einfach.
Lemma 1: Sei dim(V ) < 1, K, A beliebig. Dann gilt die direkte Summenzerlegung
\
1
V = V~(A)  Bild (A )k :
k=0

115
Beweis: Wie wir schon bemerkt haben, gibt es ein k0 mit (A )k0 jV~ (A) = 0. Dann gilt
ker(A )k = V~(A) ()
fur k  k0. Die absteigende Folge naturlicher Zahlen
dim(Bild (A ))  : : :  dim(Bild(A )i )  dim(Bild (A )i+1  : : :
stabilisiert sich (die Anzahl der echten Ungleichheiten ist  dim(V )). Also gibt es ein k1 mit
Bild (A )k = Bild (A )k1 (y)
fur k  k1. x 2 Bild (A )k ( 9 z : x = (A )k z ( 9 y : x = (A )k+1y ( x 2
Bild (A )k+1 . Sei i = max(k0; k1). Dann gilt ( ) Bild (A )i \ ker(A )i = f0g und
( ) V = Bild (A )i + ker(A )i . Wegen () und (y) genugt es, das zu zeigen. Zu ( ):
Sei x 2 ker(A )i \ Bild (A )i . Also gibt es ein y 2 V mit x = (A )i y und es gilt
(A )2i y = 0. Wegen () folgt y 2 ker(A )i und x = 0. Zu ( ): Sei x 2 V vorgegeben. Wegen
(y) gilt (A )i x 2 Bild (A )i = Bild (A )2i . Also gibt es y 2 V mit (A )i x = (A )2i y.
Dann gilt
x = (A i i ()
| {z) y} + |(x (A{z ) y)} :
2Bild(A )i 2ker(A )i
2
Beweis von Theorem 7 durch Induktion nach dim(V ). Fur dim(V ) = 0 ist die Behauptung
klar. Sei dim(V ) > 0 und die Aussage (1) fur Raume kleinerer Dimension als V bewiesen. Weil
K algebraisch abgeschlossen ist, ist die Existenz eines Eigenwertes # 2 K von A garantiert.
Dann f0g = 6 V# (A)  V#~(A). Sei W = Tk0 Bild ((A #)k ). Nach Lemma 1 ist W ein A-
invarianter (leicht zu zeigen) Komplement
L arraum zu V#~(A). Also dim(W) < dim(V ). Nach
Induktionsvoraussetzung gilt W = 2K W~(AjW ). Behauptung: ( ) W#~(AjW ) = f0g und ( ):
Fur  6= # gilt W~(AjW ) = V~(A). Dann
M M M
V = V#~(A)  W = V#~(A)  W~(AjW ) = V#~(A)  V~(A) = V~(A):
2K 2K f#g 2K
Daraus folgt (1). Zu ( ): W#~(A)  W \ V#~(A) = f0g. Zu ( ): O enbar gilt W~(A)  V~(A).
Fur  6= # ist nun AjV~ (A) # = (AjV~ (A) ) ( #) invertierbar (AjV~ (A)  ist nilpotent,
also Spektrum = 0.), also V~(A) = (A #)k V~(A)  Bild (A #)k fur alle k, also V~(A)  W
fur  6= #, und V~(A)  W~(A) = W \ V~(A).
(2) folgt durch Anwendung von Satz 1 auf den nilpotenten Endomorphismus (AjV~ (A) id).
Sei weiterhin 0 0 ::: 01
B 1 . . . . . . ... CC
J;k = BB@ .. . . . . CA 2 Mat (k; k; K):
. . . 0
0 ::: 1 
Seien 1 ; : : :; N die Eigenwerte von A, Lk = Lk ;pk;i = pk ;i. Sei (e;i;j ) eine Basis wie in (2) des
Theoremes und sei (f1 ; : : :; fM ) die Basis (e1 ;1;1; e;1;2; : : :; e1 ;1;p1;1 ; e1 ;2;1; : : :; e1 ;2;p1;2 ; : : :; e1;L1 ;1 ; : : :; eN ;L
Dann gilt
Mat B (A) = Diag(Jk ;pk;i )N;L k=1;i=1;
k

det(#id A) = det(#11M Mat B (A)) = det(Diag(#11pk;i Jkpk;i ))N;L k=1;i=1 . Die letzte Matrix ist
k
aber eine untere Dreiecksmatrix, ihre Determinante ist das Produkt ihrer Diagonalelemente: Die

116
Diagonaleintrage dieser Matrix sind # k von der Vielfachheit pk;1 +: : :+pk;Lk = dim(V~k (A)).
Damit folgt die Behauptung. 2
Folgerung 1: Unter den Voraussetzungen von Theorem 7 ist A genau dann diagonalisierbar,
falls fur alle  2 K V (A) und V~(A) ubereinstimmen. Dies ist genau dann der Fall, wenn fur al-
le Eigenwerte  dim(V (A)) mit der Vielfachheit der Nullstelle des charakteristischen Polynoms
ubereinstimmt, denn sie ist gleich dim(V~(A)).
Beweis: P Die letzte AussageV ist= L wegen V (A)  V~(A) klar. Sei A diagonalisierbar. Dann
V = 2K V(A). Wegen L ~ ~
2K V (A) kann dies nur fur V (A) = V (A) gelten. Sei
V(A) = V~(A). Dann V = 2K V (A), und V hat eine Basis aus Eigenvektoren. 2
Bemerkung 2: Theorem 7 und Folgerung 1 gelten auch fur nicht algebraisch abgeschlossene
Korper, wenn PA (T ) uber K in Linearfaktoren zerfallt.
Bemerkung 3: Eine andere Formulierung fur den Satz uber die Jordansche Normalform ist:
Jeder Endomorphismus eines endlichdimensionalen Vektorraumes V uber einem algebraisch ab-
geschlossenen Korper K kann auf eindeutige Weise als A = D + N geschrieben werden, wobei
D diagonalisierbar und N nilpotent ist und N und D kommutieren.
Beweis: Existenz der Zerlegung: Sei D durch Dx = x fur x 2 V~(A) und N durch A D
de niert. Eindeutigkeit: U bungsaufgabe. Zeige V (D) = V~(D) =! V~(A).
Bemerkung 4: Wenn N ein nilpotenter Endomorphismus von V ist, so gilt N dim(V ) = 0.
Beweis: folgt aus Satz 1.
Bemerkung 5: N ist nilpotent genau dann, wenn PA (T) = T dim(V ) . Fur dim(V ) = 2 ist dies
genau dann der Fall, wenn tr(N) = det(N) = 0 gilt.
Beweis: folgt aus Theorem 7.
Bemerkung 6: Wenn PA (T ) dim(V ) verschiedene Nullstellen hat, so ist A diagonalisierbar.
Beweis: Es gilt dim(V~(A)) =Vielfachheit der Nullstelle  = 1, falls  ein Eigenwert ist, denn
PA(T) kann keine mehrfache Nullstelle haben. Weil fur einen Eigenwert  V (A) 6= f0g gilt, folgt
V(A) = V~(A). Mit Anwendung von Bemerkung 2 folgt die Behauptung. 2

Theorem 8 (Cayley-Hamilton): Jeder Endomorphismus A eines endlichdimensionalen


Vektorraumes uber einem beliebigen Korper erfullt seine eigene charakteristische Gleichung
XV
dim
PA(A) := pA;k Ak = 0;
k=0
wobei PA(T) = dim
P V k
k=0 pA;k T .
Beweis: (Nur fur K algebraisch abgeschlossen.) Es genugt nach Theorem 7.1, PA (A)jV~(A) = 0
zu zeigen fur jeden Eigenwert . Es gilt PA (T) = (T )dim(V~ (A)) Q(T) nach Theorem 7.3. Der
Endomorphismus N = AjV~ (A) id V~ (A) von V~(A) ist nilpotent. Also
PA(A)jV~ (A) 6:=3:1 (AjV~ (A) )dim(V~ (A)) Q(AjV~ (A) ) = N dim(V~ (A)) Q(AjV~ (A) ) = 0
nach Bemerkung 5. 2

117
7 Ane Raume und Faktorraume
7.1 Ane Raume
De nition 1: Ein aner Raum ist ein Tripel X = (X; TX; ), wobei X eine Menge, die
Menge der Punkte des anen Raumes, TX ein K-Vektorraum, der Translationsvektor-
raum von X und  : X  X ! TX eine Abbildung, die x; y 2 X den Vektor zuordnet, der
von x nach y zeigt, sind. Folgende Bedingungen mussen gelten:
1. (x; y) + (y; z) = (x; z)
2. Fur jedes x 2 X ist die Abbildung X ! TX, y 7! (x; y) bijektiv.

Bemerkung: Wenn (2) fur x gilt, so ist fur alle x0 2 X die Abbildung y 7! (x0 ; y) = (x0 ; x) +
(x; y) bijektiv. Daher reicht es auch, (2) fur nur ein x 2 X zu fordern. Aus (1) folgt (x; x) +
(x; x) = (x; x), also (x; x) = 0. Auerdem (x; y) + (y; x) = (x; x) = 0, also (x; y) =
(y; x).
Bemerkung 1: Fur x 2 X und v 2 TX sei x + v 2 X das durch die Bedingung (x; x + v) = v
eindeutig bestimmte Element. Dann x + 0 = x, denn (x; x) = 0 und (x + v) + w = x + (v + w),
denn (x; (x + v) + w) = (x; x + v) + (x + v; (x + v) + w) = v + w. Fur alle x 2 X ist die
Abbildung V ! X, v 7! x + v bijektiv.
Beispiel 1:
1. Fur jeden Vektorraum V ist
V = (V; V; V ); V (x; y) = y x
ein aner Raum. + in V (Bemerkung 1) ist das + in V .
2. Sei V ein K-Vektorraum, W  V ein Unterraum und a 2 V .
W + a = fw + a j w 2 W g:
Dann ist
(W + a; W; V j(W +a)(W +a) )
ein aner Raum.

118
De nition 2:
1. Ein Morphismus aner Raume von X = (X; TX; X ) nach Y = (Y; TY; Y ) ist ein
Paar (f; g), wobei f : X ! Y eine Abbildung und g : TX ! TY eine lineare Abbildung
ist und gilt
Y (f(x); f(y)) = g(X (x; y)):
2. Ein aner Unterraum von (X; TX; ) ist ein aner Raum (Y; TY; Y Y ), wobei Y  X
eine Teilmenge und TY  TX ein Unterraum ist. Dann de nieren die Einbettungsab-
f
bildungen Y ! X und TY !g TX einen Morphismus aner Raume.
3. Die Verknupfung zweier Morphismen aner Raume
(X; TX; X ) (f;g
!) (Y; TY; Y ) (a;b
!) (Z; TZ; Z )
ist durch das Paar (af; bg) gegeben. Der identische Morphismus X ! Id X ist durch
(id X ; id TX ) gegeben. Ein Isomorphismus aner Raume ist ein Morphismus F : X !
Y , fur den ein F 1 : Y ! X mit FF 1 = id Y und F 1F = id X existiert. Dann ist F 1
eindeutig bestimmt.
Bemerkung:
1. Fur jeden anen Raum X = (X; V; X ) und fur jedes x 2 X ist durch X (f;g !) V (V aus
Beispiel 1), f(y) = (x; y), g = id V , ein Isomorphismus aner Raume gegeben.
2. Eine Kategorie A besteht aus
(a) einer Menge Ob A der Objekte von A (z.B. Menge aller Gruppen, K-Vektorraume,
K-ane Raume);
(b) fur Objekte X; Y 2 Ob A ist eine Menge HomA (X; Y ) der Morphismen in A von X
nach Y de niert (z.B. Gruppenhomomorphismen, K-lineare Abbildungen, Morphis-
men aner Raume von X nach Y );
(c) fur alle X 2 Ob A ist id X 2 HomA (X; Y ) gegeben;
(d) fur X; Y; Z 2 Ob A ist die Verknupfungsabbildung HomA (X; Y )  HomA (Y; Z) !
HomA (X; Z), (f; g) 7! gf gegeben.
g
h B!
Es mussen dann die Regeln id D f = f = fid C und f(gh) = (fg)h fur A ! C !f D
gelten.
Dann haben wir die Kategorien aller Gruppen, K-Vektorraume oder K-anen Raume
kennengelernt.
f
3. In De nition 2.1 ist die lineare Abbildung TX ! TY durch die Abbildung f : X ! Y
eindeutig bestimmt.
Satz 1: Sei V = (V; V; V ) wie in Beispiel 1 de niert. Dann sind alle anen Unterraume von
V von der Form (W + a; W; V j(W +a)(W +a) ), wobei W  V ein Untervektorraum und a 2 V
ist.
Beweis: Nach De nition 2.2 ist ein aner Unterraum von V ein Tripel (X; W; V jX X ), wobei
W  V ein Untervektorraum ist und fur alle a; x 2 X V (a; x) = x a 2 W und fur alle a 2 X

119
die Abbildung X ! W, x 7! x a bijektiv ist. Sei a 2 X. Dann gilt X = W + a. 2
Bemerkung: Eine Untermenge X von V nennt man einen anen Unterraum von V , wenn
ein Untervektorraum W von V existiert, so da (X; W; V jX X ) ein aner Unterraum von V ist.
Wenn dies der Fall ist, so ist W = fx y j x; y 2 X g eindeutig bestimmt.
De nition 3: SeiPX = (X; TX; ) ein P aner Raum. Seien x1; : : :; xn 2 X und seien
1 ; : : :; n 2 K und ni=1 i = 1. Dann sei ni=1 i xi 2 X das durch
X
n X
n
8y 2 X : (y; i xi ) = i (y; xi )
i=1 i=1
eindeutig bestimmte Element.
Bemerkung:
1. Sei y fest. Dann gibt es nach De nition 1 genau einPnp mit (y; p) =Pn ni=1 i (y; xi ).
P
Funr z 2 X gilt dann (z; p)P=n (z; y) + (y; p) = i=1Pni (z; y) + i=1 i (y; xi ) =
P
i=1 i ((z; y) + (y; xi )) = i=1 i (z; xi ). Also gilt fur i=1 i xi = p die Bedingung in
der De nition fur alle Punkte y 2 X.
P
1  j  mi seien i 2 K, #ij 2 K und xij 2 X mit ni=1 i = 1 und
Pumr i1 # i=1.n,Dann
2. F
j =1 ij
X
n X
mi X
n X
mi
i ( #ij xij ) = (i #ij )xij :
i=1 j =1 i=1 j =1
3. Man kann fur x; y 2 X fx + (1 )y j  2 K g  X fur x 6= y als die Gerade durch x und
y au assen.
4. x + (1 )x = x.
Satz 2: Sei char K 6= 2. Eine nichtleere Teilmenge X  V ist genau dann ein aner Unter-
raum eines K-Vektorraumes V , wenn fur alle x; y 2 X und  2 K auch x + (1 y) 2 X
gilt.
Beweis: Die Notwendigkeit dieser Bedingung ist klar. Zum Beweis der Hinlanglichkeit sei a 2 X.
Wir konnen X durch X a ersetzen und erreichen 0 2 X. Dann ist X ein Untervektorraum von
V : fur x 2 X und  2 K gilt x = x + (1 )0 2 X. Fur x; y 2 X gilt x+2 y = 12 x + 21 x 2 X,
also x + y = 2( x+2 y ) 2 X. 2
Bemerkung:
1. P
Der3 Satz gilt P3auch f=ur1 char K = 2, dann mu man die Abgeschlossenheit von X unter
i=1 i x i , i=1 i fordern.
2. Ein analoger Sachverhalt gilt auch fur Untermengen beliebiger aner Raume (die zu einem
anen Raum der Form V aus Beispiel 1.1 isomorph sind).
Bemerkung: Sei K = IR. Dann kann man fx +(1 )y j 0    1g als die Strecke zwischen
x und y au assen.

120
Satz 3: Sei X = (X; TX; ) ein aner Raum und K = IR. Dann sind folgende Forderungen
an eine Untermenge M  X aquivalent:
1. Fur x; y 2 M und 0    1 gilt x + (1 )y 2 M.
P P
2. Fur 1 ; : : :; n 2 IR mit ni=1 i = 1, i  0, und x1 ; : : :; xi 2 M gilt ni=1 i xi 2 M.

Beweis: (2))(1) ist klar. (1))(2) folgt


P mit Induktion nach n: der Fall n = 2 ist klar. Falls
n = 1 folgt 1 = : : : = n 1 = 0 und i xi 2 M. Fur n =
6 1 gilt
X
n nX1 i x ) +  x 2 M
i xi = (1 n )( i n n
i=1 i=1 1 n
nach (1). 2
7.2 Der Faktorraum V=W nach einem Unterraum
De nition 1: Elemente von V=W sind Untermengen von V , die die Form W + a haben,
wobei a 2 V . Die Addition und die Multiplikation sind wie folgt de niert:
 (W + a) + (W + b) = W + (a + b)
 (W + a) = W + a
fur a; b 2 V und  2 K. Man nennt V=W den Faktor- oder Quotientenraum von V nach
W.
Bemerkung: Elemente von V=W sind gerade die anen Unterraume von V mit Translations-
raum W.
Bemerkung 1: V=W ist der Quotient von V nach der A quivalenzrelation a  b , a b 2 W.
Die A quivalenzklassen sind die Untermengen der Form W + a.
Satz 1: Sei p : V ! V=W die durch p(a) = a + W de nierte Abbildung. Auf V=W ist die
in De nition 1 beschriebene Vektorraumstruktur die einzige, fur die p eine lineare Abbildung
ist.
Beweis: O enbar ist p linear. Wegen der Surjektivitat von p ist die Vektorraumstruktur auf V=W
durch die Vektorraumstruktur auf V eindeutig bestimmt, wenn p linear ist: (W +a) +(W +b) =
p(a) + p(b) = p(a + b) = W + (a + b). 2
Theorem 1: (Homomorphiesatz) Seien A; V K-Vektorraume. Sei W ein Untervektorraum
von V . Dann ist
L(V=W; A) ! ff 2 L(V; A) j ker(f)  W g
g 7! gp
eine Bijektion (also ein Isomorphismus von Vektorraumen).
Beweis: Wegen ker(p) = W gilt ker(gp)  ker(p) = W, daher ist die Abbildung (1) wohlde niert.
Wegen der Surjektivitat von p folgt aus gp = 0, da g = 0, also ist die lineare Abbildung injektiv.
Sei f ein Element der rechten Seite. De niere eine lineare Abbildung g : V=W ! A durch
g(W + a) = f(a). Dies ist eine korrekte De nition, denn aus W + a = W + a~ folgt a ~a 2 W

121
und f(a) = f(~a) + f(a a~) = f(~a). Man pruft nun leicht nach, da g linear ist und da gp = f
gilt. Also ist die Abbildung auch surjektiv. 2
Bemerkung: ker(p) = W. Wir bezeichnen p als pV;W , falls weitere Faktorraume auftreten.
Theorem 2: (Isomorphiesatze) Sei X ein Vektorraum, Y; Z  X Unterraume.
1. Wenn Z  Y , so gibt es genau einen Isomorphismus : X=Y ! (X=Z)=(Y=Z) mit
pX=Z;Y=Z pX;Z = pX;Y .
X? pX;Z
! X=Z
??
pX;Y y? ypX=Z;Y=Z

X=Y ! (X=Z)=(Y=Z)

2. Es gibt genau einen Isomorphismus Y=Y \ Z ! Y +Z=Z mit pY;Y \Z = pY +Z;Z i, wobei
i : Y ! Y + Z die Inklusion ist.
Beweis:
1. O enbar gilt Y=Z = fy + Z j y 2 Y g  fx + Z j x 2 X g = X=Z. Also ist Y=Z ein
Unterraum von X=Z. Sei y 2 Y , dann gilt:
| +{zZ)} = 0:
pX=Z;Y=Z (pX;Z (y)) = pX=Z;Y=Z (y
2Y=Z
Nach Theorem 1 gibt es genau eine lineare Abbildung , so da das Quadrat kommu-
tiert. Diese Abbildung ist surjektiv, denn fur a 2 (X=Z)=(Y=Z) gibt es b 2 X=Z mit
pX=Z;Y=Z (b) = a und c 2 X mit pX;Z (c) = b. Dann (pX;Y (c)) = pX=Z;Y=Z (pX;Z (c)) = a.
Sei andererseits a 2 ker( ). Dann gibt es b 2 X mit a = pX;Y (b). Dann
pX=Z;Y=Z (pX;Z (b)) = (pX;Y (b)) = (a) = 0. Also pX;Z (b) 2 ker(pX=Z;Y=Z ) = Y=Z. Also
Z + b  Y , also b 2 Y , also gilt a = pX;Y (b) = 0.
2. Der Beweis verlauft analog zu (1): Fur z 2 Y \ Z gilt pY +Z;Z (i(z)) = pY +Z;Z (z) = 0 wegen
z 2 Z. Nach Theorem 1 gibt es genau eine lineare Abbildung : Y=Y \ Z ! Y + Z=Z
mit pY;Y \Z = pY +Z;Z i. ist surjektiv, denn sei a 2 Y + Z=Z, dann gibt es b 2 Y + Z
mit pY +Z;Z (b) = a, und es gibt y 2 Y , z 2 Z mit b = y + z. Dann a = pY +Z;Z (y + z) =
pY +Z;Z (y) = (pY;Y \Z (y)). Also ist surjektiv. Sei andererseits c 2 ker( ). Dann gibt
es d 2 Y mit pY;Y \Z (b) = c. Dann gilt 0 = (pY;Y \Z (d)) = pY +Z;Z (d). Also d 2 Z, also
d 2 Y \ Z, damit c = 0 und ist injektiv. 2
Satz 2: Sei W  V ein Unterraum und sei X  V ein Komplementarraum zu W . Dann ist
X pV;W
! V=W ein Isomorphismus.
Beweis: Der Kern der Abbildung ist gerade X \ ker(pV;W ) = X \ W = f0g. Also ist die
Abbildung injektiv. Sei a 2 V=W gegeben. Dann gibt es b 2 V mit pV;W (b) = a, und x 2 X,
w 2 W mit b = x + w. Dann a = pV;W (b) = pV;W (x) + pV;W (w) = pV;W (x). Damit ist die
Abbildung auch surjektiv. 2

122
Satz 3: Sei W  V ein Unterraum, dim(V ) < 1. Sei f ein Endomorphismus von V mit
f(W)  W. Dann gibt es genau einen Endomorphismus f^ von V=W mit pV;W f = fp
^ V;W , und
es gilt
det(f) = det(f jW ) det(f)^
^
tr (f) = tr(f jW ) + tr (f)
Pf (T) = Pf jW (T)Pf^

Beweis: Fur w 2 W gilt pV;W (f(w)) = 0. Nach Theorem 1 erhalten wir die Existenz und
Eindeutigkeit von f.^ Sei B 0 = (b1; : : :; bn) eine Basis von W. Erganze zu einer Basis B =
(b1; : : :; bm ) von V . Sei ^bi = pV;W (bi ). Dann ist B^ = (^bn+1 ; : : :; ^bm ) eine Basis des Faktorraumes
nach Satz 2, denn bn+1 ; : : :; bm ist eine Basis des Komplementarraums. Es gilt
 
Mat B (f) = Mat B0(f jW ) MatX (f)
0
:
B^ ^
Die zweite Aussage (uber die Spuren) ist klar. Die Aussage uber die Determinanten folgt aus
folgendem  
Lemma: Fur L; N quadratisch gilt det ML N0 = det(L) det(N).
Die Aussage uber die charakterischen Polynome folgt (fur unendliche Korper) aus der Aussage
uber die Determinanten. 2
Beweis des Lemmas: Induktion nach a, der Groe von L. Falls a = 0 ist die Behauptung klar,
sonst Au osung nach der ersten Zeile und Induktionsvoraussetzung. 2

8 Tensorprodukte
De nition 1: Ein Tensorprodukt zweier K-Vektorraume X; Y ist ein Paar (X
Y;
)
bestehend aus einem K-Vektorraum X
Y und einer bilinearen Abbildung

: X  Y ! X
Y; (x; y) 7! x
y
mit folgender Eigenschaft: wenn Z ein K-Vektorraum und B : X  Y ! Z eine bilineare
Abbildung ist, so gibt es genau eine lineare Abbildung fB : X
Y ! Z, so da B(x; y) =
fB (x
y) fur alle x 2 X; y 2 Y .
Bemerkung 1: Das Tensorprodukt ist eindeutig bis auf eindeutigen Isomorphismus bestimmt,
falls es existiert.
Seien dazu (X
Y;
) und (X
~ Y;
~ ) zwei Tensorprodukte von X und Y . Wenn wir die Bedingung
aus der De nition fur X
Y auf die bilineare Abbildung
~ anwenden, so bekommen wir eine
eindeutige lineare Abbildung f
~ : X
Y ! X
~ Y mit f
~ (x
y) = x
~ y. Dasselbe Argument
mit Vertauschung der Rollen von
und
~ ergibt ein eindeutig bestimmtes f
: X
~ Y ! X
Y
mit f
(x
~ y) = x
y. Dann sind f
und f
~ zueinander inverse Isomorphismen. In der Tat,
g = f
f
~ erfullt g(x
y) = f
(f
~ (x
y)) = f
(x
~ y) = x
y. Dieselbe Eigenschaft hat aber
auch id X
Y . Anwendung der Eindeutigkeitsaussage aus der De nition auf Z = X
Y und
B =
ergibt g = id X
Y . Ebenso zeigt man f
~ f
= id X
~ Y . Also sind f
und f
~ zueinander
inverse Isomorphismen.

123
Theorem 1:
1. X
Y existiert.
2. Wenn (ei )mi=1 und (fj )nj=1 Basen von X und Y sind, so ist (ei
fj )m;n
i;j =1 eine Basis von
X
Y . Insbesondere ist X
Y endlichdimensional, wenn die beiden Faktoren endlich-
dimensional sind, und es gilt dim(X
Y ) = dim(X) dim(Y ).

Beweis: Zu (1): Sei V die Menge aller Abbildungen f : X  Y ! K mit endlichem Trager,
supp(f) = f(x; y) j f(x; y) 6= 0g endlich. Sei (x;y) (x0 ; y0) = 10 (x; y) = (x0 ; y0 ) ,  2 V .
(x; y) 6= (x0 ; y0 ) (x;y)
Wenn Z ein K-Vektorraum und G : X  Y ! Z eine Abbildung ist, so gibt es genau eine lineare
Abbildung 'G : V ! Z mit G(x; y) = 'G ((x;y) ). In der Tat,
X
'G (f) = f(x; y)G(x; y)
(x;y)2X Y
(die Summe ist endlich, denn f hat endlichen Trager) leistet das Gewunschte, und wenn '~G ((x;y) ) =
G(x; y), '~G linear, so gilt
X
'~G (f) = '~G ( f(x; y)(x;y) )
(x;y)2X Y
X X
= f(x; y)'~G ((x;y) ) = f(x; y)G(x; y) = 'G (f):
(x;y)2X Y (x;y)2X Y
Sei W  V der Unterraum, welcher von allen Vektoren, die die Abweichung der Abbildung
X  Y ! V , (x; y) 7! (x;y) von der Bilinearitat messen, erzeugt wird: W wird erzeugt von ():
 (x;y) (x;y)
 (x;y) (x;y)
 (x+x0 ;y) (x;y) (x0 ;y)
 (x;y+y0 ) (x;y) (x;y0 )
Sei X
Y = V=W, und sei p : V ! X
Y die Projektion auf den Faktorraum, und sei
x
y = p((x;y) ). Wegen () ist
bilinar. Sei B : X  Y ! Z bilinear und sei 'B : V ! Z
die soeben beschriebene Abbildung ('B ((x;y) ) = B(x; y)). Weil B bilinear ist, annuliert 'B alle
Vektoren aus (), z.B. 'B ((x;y) (x;y) ) = 'B ((x;y) ) 'B ((x;y) ) = B(x; y) B(x; y) = 0.
Also 'B jW = 0. Nach Theorem 7.1 uber Faktorraume gibt es genau eine lineare Abbildung
fB : X
Y ! Z mit fB p = 'B . Dann fB (x
y) = fB (p((x;y) )) = 'B ((x;y) ) = B(x; y). Wenn
f~B : X
Y ! Z linear ist mit f~B (x
y) = B(x; y), so f~B p((x;y) ) = B(x; y), also ist f~B p = 'B
nach der schon bewiesenen Eindeutigkeit von 'B , also f~B p = 'B = fB p. Wegen der Surjektivitat
von p folgt fB = f~B .
Zu (2): Wir behaupten, da fur beliebige X; Y X
Y durch fx
y j x 2 X; y 2 Y g erzeugt
wird. Fur den in (1) konstruierten Raum ist das klar, und fur beliebige Tensorprodukte von X
und Y folgt dann derselbe Sachverhalt nach Bemerkung 1. Sei W  X
Y die lineare Pm H ulle der
Vektoren
P i j e
f 2 X
Y , 1  i  n, 1  j  n. F
u r x 2 X, y 2 Y , gilt x = i=1 i ei und

y = ni=1 #j fj , also
X
m ! 0Xn
1 m n
XX
x
y = i ei
@ #j fj A = i #j ei
fj 2 W:
i=1 j =1 i=1 j =1

124
Weil die x
y X
Y erzeugen, gilt W = X
Y . Beweis der linearen Unabhangigkeit der
(ei
fj )m;n m m  n n
i;j =1 : Sei (ei )i=1 die zu (ei )i=1 duale Basis von X und (fj )j =1 die zu (fj )j =1 duale
Basis von Y  . Sei Bi;j (x; y) = ei (x)fj (y), x 2 X; y 2 Y . Dann gibt es li;j : X
Y ! K mit
Bi;j (x; y) = li;j (x
y). Dann:
li;j (ek
fl ) = Bi;j (ek ; fl ) = ei (ek )fj (fl ) = ik jl = (i;j );(k;l):
Daraus folgt die lineare Unabhangigkeit. 2
Fakt 1: Es gibt eindeutig bestimmte Isomorphismen mit folgenden Eigenschaften:
1. X
Y ! Y
X, x
y 7! y
x.
2. X
(Y
Z) ! (X
Y )
Z, x
(y
z) 7! (x
y)
z.
3. (X  X 0 )
Y ! (X
Y )  (X 0
Y ), (x; x0)
y 7! (x
y; x0
y).
Fakt 2: Wenn V und W Vektorraume sind, so gibt es genau eine lineare Abbildung
V 
W ! L(V; W ); l
w 7! fl;w : V ! W; fl;w (v) = l(v)(w):
Diese Abbildung ist injektiv, und ihr Bild besteht aus allen f 2 L(V; W) mit dim(Bild (f)) < 1.
Fur dim(B) < 1 ist sie ein Isomorphismus.
Beispiel 1: Fur eine Raum-Zeit mit Tangentialraum
P T an einem Punkt sei (ei )4i=1 eine Basis von
T und (ei ) die dazu duale Basis. fi;j ! i;j =1 fi;j ei
ej 2 T
T , f i;j = fi;j ei
ej (Einsteinsche
4 ; 4
Summenkonvention). f i;j ! f i;j ei
ej 2 T 
T  , Rijkl ! Rijklei
ej
ek
el 2 T 
T
T
T .
Beispiel 2: Sei K  L eine Korpererweiterung, sei V ein K-Vektorraum. Dann ist V
K L ein
L-Vektorraum mit Multiplikation l(V
l0 ) = V
(ll0 ). Wenn (bi )ni=1 eine Basis von V (uber K)
ist, so ist (bi
1)ni=1 eine Basis von V
K L uber L. Fur K = IR, L = C erhalt man (V )C aus
den U bungsaufgaben.

125