Beruflich Dokumente
Kultur Dokumente
Wintersemester 1995/1996
Sommersemester 1996
Inhaltsverzeichnis
1 Naive Mengenlehre 1
1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Vektorraume u ber einem Korper 6
2.1 Gruppen und Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Unterobjekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Erzeugendensysteme, lineare Unabhangigkeit und Basen . . . . . . . . . . . . . . 13
2.5 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3 Matrizen 26
3.1 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Das Eliminationsverfahren von Gau . . . . . . . . . . . . . . . . . . . . . . . . . 33
4 Determinanten und multilineare Algebra 39
4.1 Einige Fakten uber Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Charakteristik eines Korpers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3 Schiefsymmetrische n-Linearformen . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.4 Der Determinantenbegri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.5 Determinanten von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.6 Orientierungen von reellen Vektorraumen . . . . . . . . . . . . . . . . . . . . . . 58
4.7 Symmetrische n-Linearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 Quadratische, hermitesche und symplektische Formen 62
5.1 Quadratische und symmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . 62
5.2 Nicht ausgeartete Bilinearformen. Der Rang. . . . . . . . . . . . . . . . . . . . . 66
5.3 Klassikation der quadratischen Formen . . . . . . . . . . . . . . . . . . . . . . . 68
5.4 Quadratische Formen auf reellen Vektorraumen . . . . . . . . . . . . . . . . . . . 70
5.5 Die Gramsche Determinante, die Gruppen O() und SO() . . . . . . . . . . . . 73
5.6 Euklidische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.6.1 Das Vektorprodukt auf einem dreidimensionalen orientierten Euklidischen
Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.7 Hermitesche Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.8 Symplektische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6 Eigenwerttheorie 91
6.1 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines end-
lichdimensionalen Hilbertraums . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines Eu-
klidischen Vektorraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.4 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7 Ane Raume und Faktorraume 118
7.1 Ane Raume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
7.2 Der Faktorraum V=W nach einem Unterraum . . . . . . . . . . . . . . . . . . . . 121
8 Tensorprodukte 123
I
1 Naive Mengenlehre
1.1 Mengen
Eine Menge M ist eine Zusammenfassung von Objekten (die Elemente von M) unseres Denkens
zu einem neuen Objekt. Beispiel: M = f0; 5; 163g, N = f130; 0g, L = f3; 10; f4; 5gg. Man kann
auch eine Serie von Elementen weglassen und durch drei Punkte andeuten, wenn das Gesetz der
Serie klar ist.
Beispiel: IN = f0; 1; 2; 3; :: :g die Menge der naturlichen Zahlen
Z = f0; 1; 1; 2; 2; 3; :: :g die Menge der ganzen Zahlen
M = f0; 1; 2; : : :; 1000g
Wenn P eine in der mathematischen Sprache ausdruckbare Eigenschaft ist, so kann man (mei-
stens) die Menge aller Objekte x bilden, die diese Eigenschaft haben. Beispiel: M = fx j x hat
die Eigenschaft P g. Ein Objekt x gehort genau dann zu dieser Menge, wenn es die Eigenschaft
P hat.
Wenn x ein Element der Menge M ist, so schreiben wir x 2 M. Wir sagen auch: x gehort
zu M. Andernfalls schreiben wir x 62 M. Beispiel: M = fx j x ist eine gerade naturliche
Zahlg = f0; 2; 4; : : :g x 2 M genau dann wenn x eine gerade naturliche Zahl ist. N = fx j x ist
eine Primzahlg = f2; 3; 5; 7; 9; : ::g R = fx j x ist eine Menge und x 62 xg. Wenn R existieren
wurde, gabe es einen logischen Widerspruch. Fur alle x gilt: x 2 R genau dann, wenn x 62 x.
Setze x = R, R 2 R genau dann, wenn R 62 R (Russelsche Antinomie).
Die leere Menge ; = fg. Fur alle x gilt: x 62 ;. Generell gilt fur zwei Mengen M und N: M = N
genau dann, wenn fur alle x die Eigenschaften x 2 M und x 2 N aquivalent sind.
Denition 1:
1. Eine Menge N ist genau dann Teilmenge einer Menge M, wenn fur alle x 2 N gilt:
x 2 M. Wenn das der Fall ist, so schreiben wir N M oder M N und nennen M
auch Obermenge von N.
2. N ist eine echte Teilmenge von M, wenn N M und N 6= M gilt. Wenn dies der
Fall ist, so schreiben wir N M oder M N. Es mu also N M gelten, und es
gibt ein x 2 M fur das gilt x 62 N.
Fakt 1:
1. Fur alle Mengen M gilt: ; M,M M
2. Fur keine Menge M gilt: M M
3. Aus A B und B C folgt A C.
4. Unter der Voraussetzung von (3) gilt auch: Aus A B und B C folgt A C. Aus
A B und B C folgt A C.
5. Aus M N und N M folgt M = N.
Beweis:
3. Sei A B und B C, aus x 2 A folgt x 2 B, daraus folgt x 2 C. Also gilt A C.
1
4. Fall 1: Sei A B und B C. Dann gibt es ein x 2 B mit x 62 A. Es gilt wegen B C
auch x 2 C. Also ist A 6= C. Wegen A C gilt A C.
Fall 2: Sei A B und B C. Dann gibt es ein x 2 C und x 62 B. Wegen A B folgt
x 62 A. Also ist A 6= C und wegen A C gilt A C.
5. Aus den Voraussetzungen ergeben sich folgende Implikationen: Aus x 2 M folgt x 2 N
und aus x 2 N folgt x 2 M. Also ist x 2 M zu x 2 N aquivalent. Folglich enthalten M
und N dieselben Elemente, und es gilt: M = N. 2
Denition 2: Seien M,N Mengen.
1. Der Durchschnitt M \ N von M und N ist die Menge
M \ N = fx j x 2 M ^ x 2 N g
2. Die Vereinigung M [ N von M und N ist die Menge
M [ N = fx j x 2 M _ x 2 N g
3. Die Dierenz M n N (auch M N) von M und N ist die Menge
M n N = fx j x 2 M ^ x 62 N g
Fakt 2:
1. M \ N M M [ N
M \N N M [N
2. M \ N = N \ M; M [ N = N [ M
(L \ M) \ N = L \ (M \ N); (L [ M) [ N = L [ (M [ N) Aber es gilt im Allgemeinen:
M n N 6= N n M.
3. (M n N) M
4. (M [ N) \ L = (M \ L) [ (N \ L)
(M \ N) [ L = (M [ L) \ (N [ L)
5. (M n N) \ L = (M \ L) n N = (M \ L) n (N \ L)
6. (M n A) [ (M n B) = M n (A \ B)
(M n A) \ (M n B) = M n (A [ B)
7. (M n N) \ N = ;
8. Es gilt, da M n N = ; genau dann, wenn M N.
9. Es gilt, da M [ N = ; genau dann, wenn M = ; ^ N = ;.
Beweis:
4. ")": Sei x 2 (M [ N) \ L. Dann ist x 2 L und x 2 M [ N. Dann lassen sich die Falle
x 2 L ^ x 2 M und x 2 L ^ x 2 N unterscheiden. Es folgt x 2 L \ M bzw. x 2 L \ N. Also
gilt in beiden Fallen x 2 (M \ L) [ (N \ L). Ferner gilt (M [ N) \ L (M \ L) [ (N \ L).
"(": Sei x 2 (M \ L) [ (N \ L). Es lassen sich die Falle x 2 M ^ x 2 L und x 2 N ^ x 2 L
unterscheiden. In beiden Fallen gilt x 2 M [ N ^ x 2 L, damit folgt x 2 (M [ N) \ L. Ferner
gilt (M \ L) [ (N \ L) (M [ N) \ L. Nach Fakt 1 folgt (M [ N) \ L = (M \ L) [ (N \ L).
2
2
Denition 3: Zwei Mengen M und N sind disjunkt, falls M \ N = ;. Es existiert kein
gemeinsames Element.
Denition 4: Ein geordnetes Paar (a; b) ist die geordnete Aufzahlung der beiden Ob-
jekte a und b. Das Mengenprodukt M N ist als
M N = f(m; n) j m 2 M; n 2 N g
deniert.
Beispiel: Sei IR die Menge aller reeller Zahlen, IR IR = f(a; b) j a; b 2 IRg. Die geordneten
Paare (a; b) mit a; b 2 IR lassen sich mit Punkten in der Ebene identizieren. Also kann IR IR
mit der Menge der Punkte der euklidischen Ebene identiziert werden. Wenn I = [0; 1] = ft 2
IR j 0 t 1g IR, dann ist I I ein Quadrat.
Fakt 3:
1. Es gilt meistens, da M N = 6 N M.
2. Es gilt (a; b) = (c; d) genau dann, wenn a = c und b = d.
3. Aus M~ M und N~ N folgt M~ N~ M N
4. Es gilt
(A \ B) C = (A C) \ (B C)
(A [ B) C = (A C) [ (B C)
(A n B) C = (A C) n (B C)
5. M ; = ;
Beweis der ersten Gleichung von (4): Sei x 2 (A \ B) C und x = (; ) mit 2 A \ B und
2 C. Daraus folgt x 2 (A C) \ (B C). 2
Denition 5: Ein n-Tupel ist eine geordnete Aufzahlung (x1; : : :; xn). Sei
X1 : : : Xn = f(x1; : : :; xn) j xi 2 Xi fur 1 i ng:
Fur eine Menge X sei X n = X : : : X (n Faktoren).
Bemerkung: Fur n = 1 wollen wir (x) mit x identizieren, also X 1 = X. 2-Tupel sind Paare,
3-Tupel sind Tripel.
1.2 Abbildungen
Denition 1: Eine Abbildung f von einer Menge M in eine Menge N ist eine Zuordnung,
welche jedem Element m 2 M ein Element n 2 N zuordnet. Schreibweise: f : M ! N;
M f! N, wenn f eine Abbildung von M nach N ist. Sei N M die Menge aller Abbildungen
von M nach N.
Beispiel:
3
1. Sei X eine Menge, durch IdX (x) = x fur x 2 X ist eine Abbildung X Id!X X deniert, die
identische Abbildung.
2. Seien X; Y Mengen und y0 2 Y . Durch f(x) = y0 fur alle x 2 X ist eine Abbildung
f : X ! Y deniert. Eine solche Abbildung nennt man konstant.
3. Abbildungen von IR in IR (oder allgemeiner Abbildungen von IRn in IR) nennt man auch
Funktionen. Beispiel: f(x) = x2 ; f(x) = 2x; f(x) = 1+xx2 etc. Ein anderes Beispiel ist die
Funktion
f(x) = 10 xx 2irrational
Q IR oder f(x) = sin x x rational :
ex x irrational
Ein Beispiel fur eine Funktion in zwei Variablen ist die Addition:
+ : IR2 ! IR
(x; y) 7! x + y
4. Seien M und N Mengen, durch
pr1 : M N ! M
pr1 (m; n) := pr1 ((m; n)) 7! m m 2 M; n 2 N
sind Abbildungen von M N nach M bzw. N deniert, die Projektion auf den ersten bzw.
zweiten Faktor. Fur M = N = IR wird ein Punkt in der Ebene durch pr1 bzw. pr2 auf
seine x bzw. y-Koordinate abgebildet.
5. Sei M eine Menge, dann enthalt M ; stets genau ein Element, die leere Abbildung. Dagegen
ist fur M 6= ; die Menge ;M leer. Fur M = ; besteht ;; aus genau einem Element, namlich
Id; .
6. Seien A; B endliche Mengen mit a; b Elementen. Dann enthalt die Produktmenge A B
genau a b Elemente, und die Menge aller Abbildungen B A enthalt ba Elemente.
7. Fur N~ N gilt: N~ M N M . Wenn M~ M, f : M ! N, so ist f jM~ : M~ ! N durch
f jM~ (m) = f(m) fur m 2 M~ deniert, die Einschrankung von f auf M. ~
Denition 2: Sei f : M ! N. Fur Untermengen X M und Y N sei
f(X) := ff(x) j x 2 X g N
das Bild von X unter f und
f 1 (Y ) := fm 2 M j f(m) 2 Y g
nennt man das Urbild oder inverse Bild von Y bezuglich f.
Fakt 1: Mit den Bezeichnungen und unter den Voraussetzungen von Denition 2 gilt: f 1 (N) =
M; f(;) = ;; f 1 (;) = ; ; f(X) Y , X f 1 (Y ); X f 1 (f(X)), f(f 1 (Y )) Y .Im
Allgemeinen gilt nicht: f(M) = N. 2
Beispiel: Seinen A; B Mengen und X A. Dann gilt pr1 (X) = X B, wobei pr1 : A B ! A
1
die Projektion auf den ersten Faktor ist.
4
Denition 3: Eine Abbildung M f! N ist
1. injektiv, wenn fur jedes n 2 N f 1 (fng) hochstens ein Element enthalt.
2. surjektiv, wenn fur jedes n 2 N f 1 (fng) mindestens ein Element enthalt.
3. bijektiv, wenn f sowohl injektiv als auch surjektiv ist.
Denition 4: Seien A f! B ! g
C Abbildungen. Die Hintereinanderausfuhrung
g f : A ! C ist durch (g f)(a) := g(f(a)) deniert. Eine Abbildung B g! A ist ein
Linksinverses zu f, wenn g f = IdA , ein Rechtsinverses zu f, wenn f g = IdB . Ein
Inverses zu f ist eine Abbildung g : B ! A, welche sowohl linksinvers als auch rechtsinvers
zu f ist.
Lemma: Sei f : A ! B eine Abbildung.
1. f ist genau dann bijektiv, wenn es ein Inverses zu f gibt. In diesem Fall ist die zu f inverse
Abbildung eindeutig bestimmt, sie wird mit f 1 bezeichnet.
2. Sei A 6= ;. Dann ist f genau dann injektiv, wenn ein Linksinverses zu f existiert.
3. f ist genau dann surjektiv, wenn ein Rechtsinverses zu f existiert.
Das Auswahlaxiom: Seien M und N Mengen. Sei 2M die Menge aller Untermengen von
M. Sei G : N ! 2M eine Abbildung, so da G(n) 6= ; fur alle n 2 N gilt. Dann gibt es eine
Funktion g : N ! M mit g(n) 2 G(n) fur alle n 2 N.
A quivalente Formulierung: Sei M =
6 ;. Dann gibt es eine Abbildung a : 2M n f;g ! M mit
der Eigenschaft: a(X) 2 X fur X M, X = 6 ;.
Beweis des Lemmas:
1. Sei f bijektiv. Fur n 2 B sei f 1 (n) das einzige Element von f 1 (fng). Man pruft leicht,
da f 1 zu f invers ist und auch das einzige Inverse zu f ist.
Sei g Inverses zu f. Dann gilt g(n) 2 f 1 (fng). Umgekehrt folgt aus m 2 f 1 (fng)
m = g(f(m)) = g(n). Also gilt f 1 (fng) = fg(n)g, und die Bijektivitat von f ist gezeigt.
2. Sei g linksinvers zu f. Aus n 2 f 1 (fmg) folgt n = g(f(n)) (g ist linksinvers). Also gilt:
f 1 (fmg) fg(m)g, damit ist f injektiv. Sei A 6= ;, a0 2 A. Wenn f injektiv ist, so ist
durch einzige Element von f 1(fbg), falls f 1(fbg) 6= ;
g(b) = adas; falls f 1 (fbg) = ;
0
ein Linksinverses zu f deniert.
3. ")": Sei g ein Rechtsinverses zu f. Fur alle b 2 B gilt: b = f(g(b)) mit g(b) 2 f 1 (fbg),
also f 1 (fng) 6= ;. Also ist f surjektiv.
"(": Sei f : A ! B surjektiv. Sei G : B ! 2A gegeben durch durch G(b) = f 1 (fbg).
Wegen der Surjektivitat von f gilt: G(b) 6= ; fur alle b 2 B. Nach dem Auswahlaxiom gibt
es eine Abbildung g : B ! A mit g(b) 2 G(b) fur alle b 2 B. Also ist f(g(b)) = b. Damit
ist g ein Rechtsinverses zu f. 2
5
Bemerkung: Es gilt fur f : M ! N, X M, Y N:
1. Bild von X: f(X) = ff(m) j m 2 X g N;
2. Urbild von Y : f 1 (Y ) = fm 2 M j f(m) 2 Y g M;
3. Wenn f bijektiv ist, bezeichnet man f 1 auch als das Inverse zu f. In diesem Fall stimmen
das Urbild von Y unter f und das Bild von Y unter f 1 uberein:
f 1 (Y ) := fm 2 M j f(m) 2 Y g = ff 1 (n) j n 2 Y g =: f 1 (Y ):
Insbesondere gilt fur Y = fng: f 1 (fng) = ff 1 (n)g.
Beispiel: Sei 1 k m, dann gibt es folgende Bijektion:
(M1 M2 : : : Mk ) (Mk+1 : : : Mm ) ! M1 : : : Mm
((m1 ; : : :; mk ); (mk+1 ; : : :; mm )) 7! (m1 ; : : :; mm ) mit mi 2 Mi ; 1 i m
Die inverse Abbildung dazu ist gegeben durch:
(m1 ; : : :; mm ) 7! ((m1 ; : : :; mk ); (mk+1; : : :; mm ))
Insbesondere gibt es Bijektionen
A (B C) !
~ A B C ~ (A B) C;
1
auerdem gilt A (B C) !
~ (A B) C. Bis auf Bijektion ist auch kommutativ:
AB
AB ! ~ B A
AB ((a; b)) = (b; a)
AB ist normalerweise nicht die Identitat, selbst wenn A = B.
Beispiele:
1. Sei IR = IR f0g und sei die ubliche Multiplikation reeller Zahlen. Dann ist (IR ; ) eine
Gruppe, ebenso (Q ; ).
6
2. Sei X eine Menge und sei S(X) die Menge aller bijektiven Abbildungen von X auf sich
selbst. Sei gegeben durch die Hintereinanderausfuhrung (f g)(x) = f(g(x)). Dann ist
(S(X); ) eine Gruppe.
Assoziativitat: ((f g) h)(x) = (f g) (h(x)) = f(g(h(x))) = f((g h)(x)) = (f (g h))(x).
Neutrales Element ist e = Id X und ein inverses Element zu f ist durch f 1 gegeben.
3. Die Gruppe (S(f1; : : :; ng); ) wird auch Sn genannt, ihre Elemente sind die Permutatio-
nen der Zahlen 1 : : :n. Die Gruppen Sn nennt man deshalb auch Permutationsgruppen.
Satz 1: Sei G eine Gruppe mit dem rechtsneutralen Element e.
1. Ist b ein Rechtsinverses von a, so gilt auch b a = e, also ist b auch Linksinverses.
2. e ist auch linksneutrales Element: e a = e fur alle a 2 G.
3. Ein Inverses fur a 2 G ist eindeutig bestimmt. Wir bezeichnen es mit a 1 .
4. Seien a; f 2 G mit a f = a. Dann folgt f = e, selbiges folgt auch aus f a = a.
5. Fur x; y 2 G ist die Gleichung xz = y eindeutig nach z au
osbar , namlich z = x 1 y,
ebenso ist z x = y eindeutig nach z au
osbar, namlich z = y x 1.
Beweis:
1. Es gilt bab = be = b, also ist ba = bae = babc = bec = bc = e mit c = b 1.
2. Sei b ein Rechtsinverses zu a. Wegen (1) ist b auch linksinvers zu a. Es folgt: ea = aba =
ae = a.
3. Sei a 2 G und seinen b; ~b invers zu a. Es folgt: ~b = e~b = ba~b = be = b.
4. Sei af = a. Es folgt: f = ef = a 1 af = a 1a = e. Den anderen Teil zeigt man analog:
f = fe = faa 1 = aa 1 = e.
5. Zunachst wird der erste Teil bewiesen: Aus z = x 1 y folgt xz = xx 1y = ey = y. Damit ist
x 1 y eine Losung der betrachteten Gleichung. Aus xz = y folgt z = ez = x 1xz = x 1y.
Also ist x 1 y die einzige Losung der Gleichung. Der zweite Teil kann analog bewiesen
werden. 2
Bemerkung: Fur a 2 G und n 2 Z sei
8 aa:::a n > 0
>
< | {z }
n
a = 1n Faktoren n = 0
>
: (an) 1 n<0
Es gelten die Regeln (an)m = anm und anam = an+m fur n; m 2 Z. Der Beweis ist einfach, zum
Beispiel fur n > 0; m > 0 gilt
: : : a}) = |a a {z: : : a} = an+m :
anam = (a| a {z: : : a})(a| a {z
n Faktoren m Faktoren n+m Faktoren
Fur viele Gruppen gilt nicht (ab)m = am bm , denn Kommutativitat kann nicht vorausgesetzt
werden.
7
Denition: Eine Gruppe (G; ) ist kommutativ oder abelsch, falls fur alle a; b 2 G gilt:
a b = b a.
Beispiele:
1. (Q ; ) und (IR ; ) sind kommutativ.
2. Wenn M wenigstens drei Elemente enthalt, so ist S(M) nicht kommutativ.
3. Die Gruppen der Bewegungen in der euklidischen Ebene bzw. im euklidischen Raum sind
nicht kommutativ.
Fur abelsche Gruppen gilt die Rechenregel an bn = (ab)n .
Bemerkung: Eine additiv geschriebene Gruppe ist im Allgemeinen kommutativ und wir de-
nieren: 8 a+ a+:::+ a n > 0
>
< | {z }
a n = > 0n Summanden n = 0
: ( a) ( n) n < 0
Es gilt dann n(mx) = (nm)x, nx + mx = (n + m)x, n(x + y) = nx + ny (G ist abelsch).
Beispiel: (Z; +), (IR; +), (Q; +) sind abelsche Gruppen.
Denition: Ein Korper ist ein Tripel (K; +; ) bestehend aus einer Menge K und zwei
Abbildungen
+ :K K ! K :KK ! K ;
(x; y) 7! x + y und (x; y) 7! x y
so da die folgenden Axiome gelten:
1. (K; +) ist eine abelsche Gruppe mit dem neutralen Element 0, K := K f0g.
2. (K ; ) ist eine abelsche Gruppe mit dem neutralen Element 1.
3. Es gilt das Distributivgesetz: a (b + c) = a b + a c.
Beispiele:
1. (IR; +; ) und (Q; +; ) sind Korper.
2. (Z; +; ) ist kein Korper (es gibt keine multiplikativ Inversen).
Fakt 1: Sei (K; +; ) ein Korper. Dann gilt:
1. 0 6= 1.
2. Fur alle x 2 K gilt 0 x = 0.
3. Fur alle x 2 K gilt 1 x = x.
Beweis:
1. Wegen 1 2 K f0g gilt 1 6= 0.
Nebenbemerkung: Wenn (G; ) eine Gruppe ist, dann folgt G 6= ;, da die Gruppenaxiome
die Existenz des neutralen Elements fordern.
8
2. Es gilt 0 x+0 x = (0+0) x = 0 x = 0 x+0. Aus der Eindeutigkeit folgt die Behauptung.
3. (K ; ) ist eine Gruppe mit neutralem Element 1.
2
Beispiel: Sei IF2 = f0; 1g mit folgenden Operationen:
+ 0 1 0 1
0 0 1 0 0 0
1 1 0 1 0 1
Diese Operationen entsprechen der logischen XOR bzw. AND-Operation, (IF2 ; XOR; AND) ist
ein Korper.
Denition 4: Sei n > 0 eine naturliche Zahl. Eine Restklasse modulo n ist eine Menge
M Z mit folgenden Eigenschaften:
1. Aus a; b 2 M folgt n j a b (n teilt a b).
2. Aus a 2 M; b 2 Z und n j a b folgt, da auch b 2 M.
3. M = 6 ;
Die Elemente von M nennen wir auch die Vertreter der Restklasse.
Restklassen werden addiert und multipliziert, indem man ihre Vertreter addiert bzw. multipliziert
und die Restklasse bildet, die das Resultat enthalt; M + N = fa + b j a 2 M; b 2 N g, MN =
fab + kn j a 2 M; b 2 N; k 2 Zg.
Satz 2:
1. Jede ganze Zahl x ist in genau einer Restklasse modulo n enthalten, namlich in fx +
kn j k 2 Zg.
2. Es gibt genau n Restklassen modulo n.
3. Die oben beschriebenen Mengen M + N und MN sind Restklassen modulo n , falls
M und N Restklassen modulo n sind.
4. Sei Z=nZ (Z nach nZ) die Menge aller Restklassen modulo n. Dann ist (Z=nZ; +) eine
abelsche Gruppe.
5. Sei n eine Primzahl, dann ist (Z=nZ; +; ) ein Korper.
Beweis:
1. Sei M = fx + kn j k 2 Zg. M ist eine Restklasse. M 6= ;, denn x = x + 0n 2 M. Sei
a = x + kn und b 2 Z und n j a b. Sei = an b 2 Z. Dann folgt b = a (a b) =
x + kn n = x + (k ) n 2 M. Ferner gilt: n j ((x + kn) (x + ln)) = (k l)n.
Sei N eine andere Restklasse, die x enthalt. Weil N Denition 4.2 erfullt, gilt auch x+kn 2
N fur alle k 2 Z, also ist M N. Sei y 2 N. Weil N Denition 4.1 erfullt, gilt n j x y,
also auch y = x + kn mit k 2 Z, also ist N M, damit gilt N = M.
9
2. Wir behaupten, da jede Restklasse M genau einen Vertreter x mit 0 x n enthalt.
Wenn diese Behauptung gezeigt ist, gibt es eine Bijektion:
Restklasse modulo n ! fx 2 Z j 0 x ng
M 7! das einzige x 2 M mit 0 x n
(Es gibt genau n Restklassen , es gibt genau n Elemente)
Beweis der Behauptung: Existenz: Da M 6= ; gibt es ein a 2 M. Dividiere na mit Rest x
fur a = kn + x fur 0 x n. Es folgt x 2 M. Also leistet x das Gewunschte.
Eindeutigkeit: Aus 0 x; y n und x 6= y folgt 0 <j x y j< n, also teilt n nicht x y.
Also konnen x und y nicht zur selben Restklasse gehoren.
3. Sei x 2 M, y 2 N, dann ist
M + N = fa + b j a 2 M; b 2 N g a = x + kn; b = y + ln
= fx + y + (k + l)n j k; l 2 Zg
= fx + y + mn j m 2 Zg m := k + l
MN = fab + kn j a 2 M; b 2 Nk 2 Zg a = x + n; b = y + n
= fxy + (k + y + x + n)n j ; ; k; 2 Zg
= fxy + ln j l 2 Zg m := k + y + x + n
Mit Satz 2.1 folgt die Behauptung.
4. Kommutativitat ist oensichtlich. Assoziativitat: Sei x 2 M, y 2 N, z 2 O. Dann ist
x + y 2 M + N und y + z 2 N + O, also folgt x + (y + z) 2 M + (N + O) und (x + y) + z 2
(M + N) + O, aus (3) folgt M + (N + O) = (M + N) + O. Neutrales Element ist die
Restklasse, welche die Zahl 0 enthalt. Das inverse Element zu M ist f m j m 2 M g.
5. Die Kommutativitat und Assoziativitat der Multiplikation zeigt man wie bei (4) des Bewei-
ses, ebenso das Distributivgesetz. Das neutrale Element der Multiplikation von Restklassen
modulo n ist die Restklasse von 1 = f1+kn j k 2 Zg. Sei M ein von 0 verschiedenes Element
von Z=nZ und sei n eine Primzahl. Wir mochten ein inverses Element zu M konstruieren.
Wir zeigen zunachst, da die Abbildung
Z=nZ ! Z=nZ
N 7! MN
injektiv ist. Seien MN=M N, ~ x 2 M; y 2 N und y~ 2 N.~ Dann gilt: MN = fxy+kn j k 2 Zg
~ ~
und M N = fx~y + kn j k 2 Zg. Aus MN = M N folgt daher, da n j x(y y~). Weil n eine
Primzahl ist, gilt n =j x, also n j (y y~), was zu zeigen war.
Lemma: Sei X eine endliche Menge, und sei f : X ! X eine injektive Abbildung. Dann
ist f surjektiv, folglich auch bijektiv. 2
Es folgt die Surjektivitat der Abbildung
Z=nZ ! Z=nZ
N 7 ! MN
Insbesondere gibt es ein N 2 Z=nZ mit NM = f1 + kn j k 2 Zg. N ist also das Inverse zu
M.
Fur eine Primzahl n ist Z=nZ = Fn ein Korper mit n Elementen. 2
10
Denition 5: Sei C die Menge aller geordneten Paare (a; b) mit a; b 2 IR versehen mit den
Operationen der Addition und der Multiplikation:
(a; b) + (c; d) = (a + c; b + d)
(a; b) (c; d) = (ac bd; ad + bc)
Das Paar (a; b) bezeichnen wir in diesem Zusammenhang als a + ib. Die Elemente von
C nennt man komplexe Zahlen. Jede reelle Zahl t kann mit der komplexen Zahl t + i0
identiziert werden, man betrachtet daher die reellen Zahlen als Teilmenge der komplexen
Zahlen. Ferner gilt: i = (0; 1) ) i2 = 1.
Nachweis der Korperaxiome: Kommutativitat und Assoziativitat von + und rechnet man
leicht nach, ebenso folgt die Distributivitat. Das Nullelement fur + ist die reelle Zahl 0, d.h.
(0,0). Das Einselement fur ist die reelle Zahl 1, d.h. (1; 0). Das inverse Element zu a + ib ist
a ib 2
a2 +b2 .
2.2 Vektorraume
Denition: Sei K ein Korper. Eine Menge (V; +; ) (oft auch einfach V ) mit der Addition
+ und der skalaren Multiplikation heit ein Vektorraum uber K, wenn folgende Axiome
erfullt sind:
1. (V; +) ist eine abelsche Gruppe
2. Fur alle v 2 V , k; l 2 K gilt: k (l v) = (kl) v
3. Fur alle v; w 2 V , k; l 2 K gilt:
(a) k (v + w) = k v + k w
(b) (k + l) v = k v + l v
4. Das multiplikativ Neutrale 1K von K operiert trivial, d.h. fur alle v 2 V gilt 1K v = v
11
4. Seien V; W zwei Vektorraume uber einem Korper K, dann ist die Summe
V W := f(u; w) j v 2 V; w 2 W g
wieder ein Vektorraum mit der Addition (v; w)+(~v ; w) ~ v; v~ 2 V , w; w~ 2 W
~ = (v+~v ; w+ w),
und der skalaren Multiplikation k(v; w) = (kv; kw), k 2 K, v 2 V; w 2 W .
2.3 Unterobjekte
Denition: Eine Teilmenge H einer Gruppe (G; ) heit Untergruppe von G, wenn fur
alle g; h 2 H auch g h 1 2 H gilt.
Bemerkung: Das neutrale Element eG von G liegt in H und ist auch dort das neutrale Element,
H ist auch eine Gruppe mit der eingeschrankten Operation von G.
Fur h 2 H ist h h 1 = eG das neutrale Element, also eG 2 H. Die Gruppenaxiome folgen aus
der Einschrankung der Rechenregeln fur G.
Beispiel: Die symmetrische Gruppe Sn 1 zu n 1 Elementen ist eine Untergruppe der symme-
trischen Gruppe Sn zu n Elementen, betrachte dazu nur jene Permutationen von n Elementen,
die das letzte Element an seinem Platz lassen.
Denition: Sei K ein Korper und L K eine Teilmenge von K. L heit Unterkorper
von K, wenn
1. L mit der eingeschrankten Addition eine Untergruppe von (K; +) und
2. L f0g mit der eingeschrankten Multiplikation eine Untergruppe von (K f0g; ) ist.
Das heit, fur alle h; l 2 L gilt k l 2 L und fur alle k; l 2 L, l 6= 0 gilt k l 1 2 L.
Beispiel: Ist L Unterkorper von K, so ist K ein Vektorraum uber L.
Beweis:
1. (K; +) ist eine kommutative Gruppe.
2. Fur alle l1 ; l2 2 L, k 2 K gilt l1 (l2 k) = (l1 l2 )k nach dem Assoziativgesetz in K.
3. Fur alle l 2 L, k1; k2 2 K gilt l(k1 + k2 ) = lk1 + lk2 und fur alle l1 ; l2 2 L, k 2 K gilt
(l1 + l2 )k = l1 k + l2 k (Distributivgesetz in K).
4. Fur alle k 2 K gilt 1L k = 1K k = k. 2
Allgemeiner ist jeder Vektorraum V uber K ein Vektorraum uber L.
Beweis: Axiome fur K eingeschrankt auf L, zum Beispiel Axiom 2: fur alle l1; l2 2 L, v 2 V gilt
l1 (l2 v) = (l1 l2 )v, weil l1 ; l2 2 K und die Regel uber K gilt. Axiom 4: fur alle v 2 V gilt 1L v = v,
weil 1L = 1K . 2
Denition: Eine Teilmenge U eines Vektorraumes (V; +; ) uber einem Korper K heit
Untervektorraum, falls fur alle k 2 K; v; w 2 U auch v + w 2 U und kv 2 U.
Bemerkung: U ist mit der eingeschrankten Addition von V eine Untergruppe von (V; +), denn
fur v; w 2 U ist v w = v + ( 1K )w 2 U.
12
Bemerkung: Wenn U ein Untervektorraum von V ist und u1 ; : : :; un 2 U, k1; : : :; kn 2 K,
n 2 IN f0g, dann ist
Xn
kiui = k1 u1 + : : : + knun 2 U:
i=1
Beweis durch vollstandige Induktion:
P +1nk=u2:=folgt
Pn ausk uder+Denition eines Untervektorraumes,
gilt die Behauptung fur n, so gilt ni=1 i i i=1 i i k n+1 u n+1 2 U. 2
Denition: Seien U1; U2 ; : : :; Un Untervektorraume von V , dann ist die Summe der Un-
tervektorraume Ui zu schreiben als:
X
n (X
n )
Ui = U1 + U2 + : : : + Un := kiui j ki 2 K; ui 2 Ui :
i=1 i=1
Pn U ist wieder ein Vektorraum.
i=1 i
Lemma: Seien U1 ; U2; : : :; Un Untervektorraume von V , dann sind folgende Aussagen aquivalent:
P P
1. Fur alle u 2 ni=1 Ui ist die Darstellung w = ni=1 vi , vi 2 Ui , eindeutig.
P
2. Fur alle 1 i n gilt: Ui \ nj=1 Uj = f0g
j 6=i
Beweis:
X
n X
n
(1) gilt nicht , 9 ; =
6 I f1; : : :; ng : 8 i 2 I 9 vi ; v~i 2 Ui : vi 6= v~i ; vi = v~i
i=1 i=1
X
, 8 i 2 I : v^i = vi v~i 2 Ui f0g : v^j = 0
j 2I
X X X
, 9i 2 I : v^j = v^i 2 Ui \ Uj Ui \ Uj
j 2I fig j 2I fig j =1
j 6=i
, (2) gilt nicht
2
Denition: Falls (1) und (2) gelten, heit die Summe der Ui direkte Summe der
Untervektorraume Ui , geschrieben: Lni=1 Ui :
13
Bemerkung: Sei S V , WS := f samtliche Unterraume U von V j S U g. Dann gilt
L(S) = TU 2WS U, d.h. L(S) ist der kleinste Unterraum, der S enthalt.
Beweis:PEinerseits gilt L(S) TU 2WS U, weil L(S) 2TWS . Andererseits gilt fur alle ki 2 K,
vi 2 S: ni=1 kivi 2 U fur alle U 2 WS , also ist L(S) U 2WS U. 2
Bemerkungen:
P
1. Falls T S, dann gilt L(T) L(S), da fur alle ki 2 K; vi 2 T gilt: ni=1 ki vi 2 L(S).
T T
2. L(L(S)) = L(S), denn L(S) = WS U = WS U = L(L(S)).
S U L(S )U
P P
3. Fur beliebige Teilmengen T; S U gilt: L(T [ S) =f ni=1 kivi + mj=1 k~j v~j j ki; k~i 2
K; vi 2 S; v~j 2 T g =L(T) + L(S).
Denition: v 2 V heit linear abhangig von S V , falls v 2 L(S); v 2 V heit linear
unabhangig von S, wenn v nicht linear abhangig von S ist. S heit linear unabhangig,
wenn alle v 2 S von von S fvg linear unabhangig sind. S heit Basis, wenn S ein linear
unabhangiges Erzeugendensystem ist.
Beispiel: fvg fur v 2 V ist linear unabhangig genau dann, wenn v 6= 0.
Lemma 1: Die folgenden Aussagen fur eine Teilmenge S V sind aquivalent:
1. S ist linear unabhangig;
P
2. fur alle vi 2 S; vi 6= vj fur i 6= j, ki 2 K folgt aus ni=1 ki vi = 0, da k1 = : : : = kn = 0
(wichtiges Kriterium!);
P
3. Fur jedes w 2 L(S) ist die Darstellung w = ni=1 kivi ; n 2 IN, ki 2 KP , vi 2 S, vi 6= vj fur
i 6= j in folgendem Sinne bis auf Vertauschung eindeutig: sei w = mi=1 k~i v~i eine weitere
derartige Darstellung, dann ist m = n und es gibt eine Permutation von f1; : : :; ng mit
k~(i) = ki ; v~(i) = vi , 1 i n
Pn
Beweis: (2) gilt nicht , 9 vPi 2n S; ki 2 K , 1 i n : i=1 kivi = 0 , 9 vi 2 S; ki 2 K ,
i=1 kji vi , 9 vi 2 S; ki 2 K , 1 i n, j : vj 2 L(S fvj g) ,
1 i n, j : kj 6= 0, vj = k
i6=j
(1) gilt nicht. P P
(3) gilt nicht , 9 ki ; ~ki 2 K , vi; v~i 2 S : 0 = ni=1 ki vi mi=1 k~iv~i , 9 i : kivi 6= k~j v~j , 1 j m
, 9 v~i 2 K , v~i 2 S : Pmax(
i=1
m;n) k~ v~ = 0 , (2) gilt nicht.
i i 2
Fakt 2: Eine Untermenge
P S V ist genau dann eine Basis, wenn sich jedes Element w 2 V
als Summe w = ni=1 kivi mit ki 2 K, vi 2 S schreiben lat, und diese Darstellung bis auf
Vertauschung der Indizes eindeutig ist.
Beweis: S ist Erzeugendensystem ) 9 ki 2 K; vi 2 S : w =LPni=1 kivi . S ist linear unabhangig
, Diese Darstellung ist eindeutig nach Lemma 1, d.h. V = vi2S L(fvig) = Lvi2S kivi . 2
Beispiel: Sei n 2 IN; v 2 K n. Fur 1 i n sei ei := (0; : : :; 0; 1; 0; : ::; 0) 2 K n der Vektor, des-
sen Eintrage uberall null sind, auer an der i-ten Stelle, wo sich der Eintrag 1 bendet. Dann ist
die Menge fei j 1 i ng eine Basis von K n, die P kanonische Basis oder auch Standardbasis.
Beweis: S = fei j 1 i ng erzeugt K n, weil ni=1Pkni ei = (k1; : : :; kn) fur alle k1; : : :; kn 2
K. S ist linear unabhangig, weil L(S fei g) = f j =1 kj ej j kj 2 kg =f(k1 ; : : :; ki 1; 0;
j 6=i
ki+1; : : :; kn) j kj 2 K g, also ei 62 L(S fei g). 2
14
Beispiel 1: ; ist eine Basis von f0g. L(M) = fPni=1 i xi j i 2 K; xi 2 M g, M V , L(;) = f0g,
also folgt die Behauptung. Fur jeden Vektorraum V ist ; V linear unabhangig.
Fakt 3: Sei fx1; : : :; xng eine BasisPdes Vektorraums V . Dann kann jedes Element x 2 V auf
genau eine Weise in der Form x = ni=1 i xi mit i 2 K dargestellt werden.
Das ist oensichtlich aus Lemma 1 und Fakt 2. 2
Lemma 2: Sei V ein Vektorraum und S V eine endliche Untermenge von V , welche V erzeugt.
Dann gibt es eine Untermenge B S, welche eine Basis von V ist.
Beweis: Sei M die Menge aller Untermengen von S, welche V erzeugen. M ist eine nichtleere
Menge, denn S 2 M. Die Elemente dieser Menge sind endliche Mengen. Also gibt es ein Element
B 2 M mit der kleinstmoglichen Anzahl an Elementen, d.h. fur alle T 2 M gilt jT j jB j
(jM j :=Anzahl der Elemente von M). Wir behaupten, da B linear unabhangig und daher eine
Basis von V ist. Wenn B nicht linear unabhangig ware, so gabe es ein b 2 B mit b 2 L(B fbg).
Sei B 0 = B fbg, wir behaupten, da B 0 2 M. Tatsachlich gilt
L(B 0 ) = L(L(B 0 )) = L(L(B 0 ) [ fbg) L(B 0 [ fbg) = L(B) = V:
Also L(B 0 ) = V , damit B 0 2 M im Widerspruch zur Denition von B, denn jB 0 j < jB j. 2
Bemerkung: Wir hatten auch eine linear unabhangige Untermenge von S mit der grotmogli-
chen Anzahl an Elementen betrachten konnen.
Bemerkung: Mit Hilfe des Auswahlaxioms kann der Beweis von Lemma 2 auch fur unendliches
S gefuhrt werden. Insbesondere hat jeder Vektorraum eine Basis.
Lemma 3: Sei M V linear unabhangig, sei x 62 L(M). Dann ist auch N := M [ fxg linear
unabhangig.
Beweis: Andernfalls gabe es ein y 2 N mit y 2 L(N fyg) = L((M [ fxg) fyg) und damit
x1; : : :; xn 2 M fyg und #; 1; : : :; n 2 K mit y = #x + 1 x1 + : : : + n xn. Aus # = 0 wurde
y 2 L(M fyg) folgern, was nicht sein soll (M linear unabhangig). Also # 6= 0 und es folgt
x = #1 (y 1 x1 : : : n xn ) 2 L(M), was auch nicht sein soll. 2
Folgerung: Jeder Vektorraum, der eine endliche Erzeugendenmenge besitzt, besitzt auch eine
endliche Basis.
Denition 3: Einen Vektorraum nennt man genau dann endlichdimensional, wenn er
eine endliche Basis hat.
Satz 1: (Austauschsatz von Steinitz) Sei V ein Vektorraum uber einem Korper K, T eine
endliche Untermenge von V , welche V erzeugt, und S V eine linear unabhangige Menge.
Dann gilt:
1. jS j jT j
2. S kann durch jT j jS j Elemente von T zu einer Erzeugendenmenge fur V erganzt
werden.
Beweis: Durch vollstandige Induktion nach jS j. Fur jS j = 0, also S = ;, sind beide Behauptun-
gen trivial. Seien beide Behauptungen wahr fur Mengen mit jS j 1 Elementen. Sei b 2 S und
sei S~ = S fbg. Sei l = jT j jS~j, es gilt l 0 und es gibt t1 ; : : :; tl 2 T, so da S~ [ ft1; : : :; tl g
V erzeugt. Insbesondere gilt b 2 L(S~ [ ft1; : : :; tl g), also gibt es ein s 2 L(S)
~ und 1; : : :; l 2 K
15
P
mit b = s + li=1 i ti . Fur l = 0 wurde dies b = s 2 L(S) ~ bedeuten, im Widerspruch zur
linearen Unabhangigkeit von S. Also gilt l 1 und (1) ist fur S bewiesen. Aus demselben Grund
gibt es ein i mit i 6= 0, ohne Beschrankung der Allgemeinheit i = 1. Dann Pl wird V durch
S [ ft2 ; : : :; tl g = R erzeugt, woraus (2) folgt, denn es gilt t1 = 11 (b s i=2 i i 2 L(R),
t )
~
also S [ ft1; : : :; tl g L(R), also L(R) = V nach den wohlbekannten Eigenschaften von L. 2
Folgerung 2: Zwei Basen eines endlichdimensionalen Vektorraumes haben dieselbe Anzahl von
Elementen (was die Endlichkeit einschliet).
Denition 5: Die Anzahl der Elemente einer Basis eines endlichdimensionalen Vektorrau-
mes V ist die Dimension von V , und wir schreiben dim V .
Beweis von Folgerung 2: Seien B; B0 endliche Basen. Wende Satz 1 an mit:
S = B; T = B 0 ) jB j jB 0j
S = B 0 ; T = B ) jB 0 j j B j
Daraus folgt jB j = jB 0 j. Angenommen, es gabe eine unendliche Basis B von V . Sei T eine endliche
Basis von V , sei S B eine Untermenge mit jT j + 1 Elementen. Dann ist S linear unabhangig,
Widerspruch zu Satz 1. 2
Folgerung 3: Sei V ein endlichdimensionaler K-Vektorraum, S V eine linear unabhangige
Menge und T V eine Erzeugendenmenge. Dann gilt:
1. jS j dimV
2. S ist genau dann eine Basis, wenn jS j = dimV .
3. jT j dimV
4. T ist genau dann eine Basis, wenn die Gleichheit bei (3) eintritt.
5. Jede linear unabhangige Untermenge von V kann zu einer Basis erganzt werden.
Beweis: Sei B eine Basis von V . Zu:
1. Wende Steinitz (1) auf S und B an: jS j jB j = dimV .
2. Sei jS j = dim V = jB j. Wende Steinitz (2) an. S kann durch jB j jS j = 0 Elemente von B
zu einer Erzeugendenmenge erganzt werden, also ist S selbst eine Erzeugendenmenge.
3. Wende Steinitz (1) auf B und T an: dimV = jB j jT j.
4. Nach Lemma 2 gibt es ein M T welches eine Basis von V ist. Wenn M T ware, so
ware dimV = jM j < jT j. Das ist ein Widerspruch zur Voraussetzung. Also gilt: T = M
und T selbst ist eine Basis von V .
5. Sei S V linear unabhangig. Wende Steinitz (2) auf S und B an: S kann durch jB j jS j
Elemente von B zu einer Erzeugendenmenge S 0 erganzt werden. Es gilt: jS 0 j jS j + jB j
jS j = dim V . Aus (3) folgt: jS 0 j = dimV . Aus (4) folgt, da S 0 eine Basis von V ist.
Eine andere Moglichkeit des Beweises von (5) ist es, mit Hilfe von Lemma 3 zu S solange
Elemente hinzuzufugen, bis man eine linear unabhangige Erzeugendenmenge erhalt. 2
16
Fakt 4: Sei W V ein Unterraum eines endlichdimensionalen Vektorraumes. Dann ist auch
W endlichdimensional, und es gilt: dimW dimV . Dabei gilt die Gleichheit genau dann, wenn
W = V gilt.
Beweis: Wir nehmen zunachst an, da W endlichdimensional ist. Sei d = dimW und sei B =
fw1; : : :; wd g eine Basis von W . Dann ist B linear unabhangige Teilmenge von W, also auch von
V . Aus Folgerung 3.1 folgt dimW d dimV . Wenn die Gleichheit eintreten sollte, so folgt
aus 3.2), da B eine Basis von V ist, also V = W .
Beweis der Endlichdimensionalitat von W: Jede linear unabhangige Menge S W ist auch
in V linear unabhangig, also gilt jS j dimV (3.1). Unter Anwendung von Fakt 5 folgt die
Behauptung. 2
Fakt 5: Sei W ein K-Vektorraum und d 2 IN, so da jS j d fur jede linear unabhangige
Untermenge S V gilt. Dann ist dieser Vektorraum endlichdimensional (d ist obere Schranke).
Beweis: Sei S eine linear unabhangige Untermenge von W mit der grotmoglichen Anzahl an
Elementen. Dann ist S auch eine Erzeugendenmenge, denn andernfalls gabe es ein v 2 W L(S)
und nach Lemma 3 ware S [ fvg linear unabhangig, im Widerspruch zu Auswahl von S. 2
Satz 2: Seien U und V endlichdimensionale Unterraume eines Vektorraumes X. Dann ist
auch U + V endlichdimensional, und es gilt:
dim(U + V ) + dim(U \ V ) = dimU + dim V:
17
1. dim(U + V ) = jB j = a + b + c
2. dimU = a + b; dim V = a + c; dim(U \ V ) = a
3. dim(U \ V ) + dim(U + V ) = 2a + b + c = dimU + dimV 2
2.5 Lineare Abbildungen
Denition 1: Seien G und H multiplikativ geschriebene Gruppen. Ein Gruppenhomo-
morphismus ist eine Abbildung ' : G ! H mit der Eigenschaft '(g1 g2) = '(g1) '(g2)
fur g1 ; g2 2 G. Sei Hom (G; H) die Menge aller Homomorphismen von G nach H.
Fakt 1:
1. Sei ' 2 Hom(G; H). Dann gilt: '(1) = 1. Fur g 2 G gilt: '(g 1 ) = '(g) 1
2. Sei H abelsch und sei ', 2 Hom(G; H). Sei ' durch (' )(g) = '(g) (g) deniert.
Dann gilt auch ' 2 Hom(G; H), und Hom (G; H) wird mit dieser Verknupfung eine
abelsche Gruppe.
Beweis:
1. Sei f = '(1) 2 H, dann gilt f f = '(1) '(1) = '(1 1) = '(1) = f. Aus den grundlegenden
Eigenschaften von Gruppen folgt f = 1.
2. '; sind Gruppenhomomorphismen: Fur g; h 2 G gilt
(' )(gh) = '(gh) (gh) = '(g) '(h) (g) (h) = '(g) (g)'(h) (h)
= (' )(g)(' )(h):
Gruppenaxiome fur Hom(G; H): Seien ; ;
2 Hom(G; H). Fur g 2 G gilt
(( )
)(g) = ( )(g)
(g) = (g)(g)
(g) = (g)(
)(g) = ( (
))(g):
Es sei e(g) = 1 fur alle e 2 G, denn 'e = e' = '. Sei ' 2 Hom(G; H) und (g) =
'(g) 1 . Mit Hilfe der Kommutativitat von H pruft man leicht 2 Hom (G; H), ist
invers zu '. Kommutativitat pruft man wie die Assoziativitat. Damit sind alle geforderten
Eigenschaften nachgewiesen. 2
Bemerkung:
1. Die identische Abbildung Id G ist fur jede Gruppe G ein Homomorphismus von G nach G.
2. Seien G; H Gruppen, dann ist durch e(g) = 1 2 H fur alle g 2 G ein Homomorphismus
von G nach H deniert.
3. Seien G !l H ! m I Gruppenhomomorphismen, dann ist auch m l ein Gruppenhomomor-
phismus: (m l)(gh) = m(l(gh)) = m(l(g)l(h)) = m(l(g))m(l(h)) = (m l)(g)(m l)(h).
4. Wenn H additiv geschrieben ist, wird auch Hom (G; H) additiv geschrieben.
18
Denition 2: Seien (K; +; ) und (L; +; ) Korper. Eine Abbildung f : K ! L ist ein
Korperhomomorphismus genau dann, wenn folgende Eigenschaften erfullt sind:
1. f ist ein Gruppenhomomorphismus von (K; +) und (L; +);
2. f(K ) L und f : (K ; ) ! (L ; ) ist ein Gruppenhomomorphismus.
19
1. Induktion nach n:
X
1 X
1
n=1: f( ki xi) = f(k1 x1) = k1f(x1 ) = k1f(x1 )
i=1 i=1
nX+1 X
n X
n
n!n+1: f( kixi ) = f( ki xi + kn+1xn+1 ) = f( ki x i ) +
i=1 i=1 i=1
Xn nX+1
f(kn+1 xn+1) = ki f(xi ) + kn+1 f(xn+1 ) = kif(xi ):
i=1 i=1
2. ist trivial.
f
3. Seien X ! Y !g Z linear, dann gilt fur x1 ; x2 2 X; k 2 K:
(g f)(x1 + y1 ) = g(f(x1 + x2 )) = g(f(x1 ) + f(x2 )) = g(f(x1 )) + g(f(x2 ))
= (g f)(x1 ) + (gf)(x2 );
(g f)(kx1 ) = g(f(kx1 )) = g(kf(x1 )) = kg(f(x1 )) = k(g f)(x1 ):
4. ist trivial. 2
Fakt 3: Wenn f; g : X ! Y lineare Abbildungen sind, so sind auch die durch
1. (f + g)(x) = f(x) + g(x), x 2 X; k 2 K,
2. (kf)(x) = kf(x)
denierten Abbildung f + g und kf linear. Auf diese Weise wird L(X; Y ) zu einem K-Vektor-
raum.
Beweis: Die Gultigkeit der Behauptung von Denition 3.1 folgt aus Fakt 1.2. Wegen
(f + g)(x) = f(x) + g(x) = f(x) + g(x) = (f + g)(x)
ist auch Denition 3.2 erfullt.
Wegen
(kf)(x + y) = kf(x + y) = k(f(x) + f(y)) = kf(x) + kf(y) = (kf)(x) + (kf)(y)
ist Denition 3.1 erfullt, wegen
(kf)(x) = kf(x) = k(f(x)) = (k)f(x) = (k)f(x) = (kf(x)) = (kf)(x)
auch Denition 3.2. Der Nachweis der Vektorraumaxiome fur L(X; Y ) ist klar. 2
Denition 4: Sei X ein Vektorraum uber K. Wir denieren den Raum der linearen
Funktionale auf X durch X = L(X; K). Man nennt X auch den Dualraum von X.
Fakt 4: Sei f : X ! Y linear, und seien U X und V Y Unterraume. Dann ist f 1 (V ) ein
Unterraum von X und f(U) ist ein Unterraum von Y .
Beweis: Seien y1; y2 2 f(U) und 2 K. Dann gibt es xi 2 U mit f(xi ) = yi fur i 2 f1; 2g. Es
folgt y1 = f(x1 ) = f(x1 ) 2 f(U) und y1 +y2 = f(x1 )+f(x2 ) = f(x1 +x2) 2 f(U), weiterhin
0 = f(0) 2 f(U), also f(U) 6= ;.
Seien x1; x2 2 f 1 (V ), dann gilt f(x1 + x2 ) = f(x1 ) + f(x2 ) 2 V , also x1 + x2 2 f 1 (V ),
f(x) = f(x) 2 V , also x 2 f 1 (V ), naturlich gilt auch 0 2 f 1 (V ). 2
20
Denition 5: Der Kern einer linearen Abbildung f : X ! Y ist durch ker(f) =
f 1 (f0g) = fx 2 X j f(x) = 0g deniert. Das Bild von F ist durch Bild (f) = f(X)
deniert. Man schreibt auch oft Im(f) statt Bild (f).
Sei ' : G ! H ein Gruppenhomomorphismus. Wir denieren Bild (') = f(G) und den
Kern von ' als das Urbild des neutralen Elementes von H (also 0 bzw. 1). Es handelt sich
dabei um Untergruppen.
Bemerkung: f ist surjektiv , Bild (f) = Y ; f(f0g) = f0g.
Fakt 5: f ist genau dann injektiv, wenn ker(f) = f0g.
Beweis: f injektiv ) jf 1 (f0g)j 1. Wegen 0 2 f 1 (f0g) folgt f 1 (f0g) = f0g. Sei ker(f) =
f0g. Dann folgt aus x1; x2 2 X und f(x1 ) = f(x2 ), da auch f(x1 x2) = 0, also x1 x2 2 ker(f),
damit x1 x2 = 0, folglich x1 = x2, was die Injektivitat von f zeigt. 2
Bemerkung: Ein Gruppenhomomorphismus ist genau dann injektiv, wenn sein Kern aus dem
neutralen Element besteht.
Satz 1: Sei f : X ! Y eine lineare Abbildung, und sei X endlichdimensional. Dann ist
Bild (f) endlichdimensional und dim(Bild(f)) = dimX dim(ker(f)). Insbesondere ist f
genau dann injektiv, wenn dim(Bild (f)) = dim(X) gilt.
Beweis: Sei fx1; : : :; xdg eine Basis fur ker(f) und fx1; : : :xd ; xd+1; : : :; xng eine Basis von X
(d = dim(ker(f)); n = dimX).
Behauptung: ff(xd+1 ); : : :; f(xn )g hat n d Elemente und ist eine Basis von Bild (f). Aus der
Behauptung folgt: dim(Bild(f)) = n d = dimX dim(ker(f)) und der Rest ist trivial.
Beweis der Behauptung: Angenommen,
P f(xi ) = f(xj ) fur d + 1 i < j P n. Dann gilt:
xi xj 2 ker(f), xi = xj + dk=1 k xk mit geeigneten xk 2 K. Dann ist xi xj = dk=1 k xk im
Widerspruch zur linearen Unabhangigkeit von fx1 ; : : :; xng. L(ff(xd+1P); ::; f(xn)g) = Bild (f):
Sei y 2 Bild (f), also y = f(x) mit x 2 X. Dann kann x als x = nk=1 k xk mit xk 2 K
dargestellt werden. Es folgt
X
n X
n X
n
f(x) = f( k xk ) = k f(xk ) = k f(xk ) 2 L(ff(xd+1 ); : : :; f(xn )g):
k=1 k=1 k=d+1
P P
Lineare Unabhangigkeit: Angenommen nk=d+1 k f(xk ) = 0. Dann folgt nk=d+1Pnk xk 2 ker(f).
Weil die fx1; : : :; xdg eine Basis von ker(f) bilden, gibt es 1 ; : : :; d 2 K mit k=d+1 k xk =
Pd x . Es folgt Pn x = 0, also folgt = : : : = = 0 wegen der linearen
k=1 k k k=1 k k 1 n
Unabhangigkeit der xn, also gilt auch d+1 = : : : = n = 0, und die lineare Unabhangigkeit von
ff(xd+1 ); : : :; f(xn )g ist bewiesen. 2
21
Denition 6:
Ein Monomorphismus ist ein Homomorphismus von Gruppen bzw. von K-
Vektorraumen, welcher injektiv ist.
Ein Epimorphismus ist ein Homomorphismus von Gruppen, Korpern bzw. K-
Vektorraumen, welcher surjektiv ist.
Ein Isomorphismus von Gruppen bzw. Korpern bzw. K-Vektorraumen ist ein bi-
jektiver Homomorphismus.
Ein Endomorphismus einer Gruppe, eines Korpers bzw. eines K-Vektorraumes X
ist ein Homomorphismus, welcher X nach sich selbst abbildet.
Ein Automorphismus ist ein Endomorphismus welcher zugleich ein Isomorphismus
ist.
Zwei Vektorraume, Gruppen oder Korper sind isomorph, wenn zwischen ihnen ein
Isomorphismus existiert. Zwei endlichdimensionale K-Vektorraume sind genau dann
isomorph, wenn ihre Dimensionen ubereinstimmen.
Bemerkung: Wenn f ein Isomorphismus ist, dann ist die inverse Abbildung ebenfalls ein Ho-
momorphismus und damit ein Isomorphismus.
Folgerung 1: (aus Satz 1) Sei f ein Endomorphismus eines endlichdimensionalen Vektorraumes
X. Dann sind folgende Aussagen aquivalent:
1. f ist ein Monomorphismus.
2. f ist ein Epimorphismus.
3. f ist ein Automorphismus.
Beweis: (3),(1) ^ (2): Ist gerade die Denition des Begris Automorphismus. (1) ) (2): Aus
ker(f) = f0g folgt dim(Bild (f)) = dimX. Aus Fakt 4 in 2.3 folgt Bild (f) = X und f ist ein
Epimorphismus. (2) ) (1): Dies folgt aus Satz 1. 2
Warnung: Fur Epimorphismen von unendlichdimensionalen Vektorraumen gilt dieser Sachver-
halt nicht.
Fakt 6: Eine lineare Abbildung zwischen endlichdimensionalen Vektorraumen f : X ! Y ist
genau dann ein Isomorphismus, wenn folgende Bedingungen erfullt sind:
1. dimX = dimY
2. f ist ein Monomorphismus oder ein Epimorphismus.
Beweis: Wie bei Folgerung 1.
Fakt 7: Zwei endlichdimensionale Vektorraume uber K sind genau dann isomorph, wenn sie
dieselbe Dimension haben. Mit anderen Worten: fur jede naturliche Zahl n gibt es bis auf Iso-
morphie genau einen K-Vektorraum der Dimension n.
Beweis: Seien V und W endlichdimensionale K-Vektorraume. Aus Satz 1 folgt dim(W ) =
dim(Bild(')) = dimV dim(ker(')) = dimV .
Sei weiterhin B eine geordnete Basis von V , B = (b1 ; : : :; bn); bi 2 V . Dann ist durch iB : K n !
22
P
V , iB (1 ; : : :; n) = 1
k=1 k bk , ein Isomorphismus von Vektorraumen deniert. V ' K
dim V =
K dim W ' W, also V ' W nach dem nachfolgenden Fakt. 2
Bemerkung: Ein Isomorphismus ' : V ! W uberfuhrt eine Basis B von V in die Basis '(B)
von W.
Fakt: Wenn zwei Vektorraume beide zu einem dritten Vektorraum isomorph sind, so sind sie
auch untereinander isomorph. 2
Satz 2:
1. Seien X und Y endlichdimensionale K-Vektorraume mit geordneten Basen
(x1 ; : : :; xm ) und (y1 ; : : :; yn), m = dim(X), n = dim(Y ). Sei Aij : X ! Y de-
niert durch
Xm
Aij ( k xk ) = i yj ; 1 i m; 1 j n:
k=1
Dann sind die Aij lineare Abbildungen und bilden eine Basis von L(X; Y ). Es folgt
dim(L(X; Y )) = dim(X) dim(Y )
2. Fur Y = KPund eine Basis (x1 ; : : :; xm) von X bilden die linearen Funktionale i 2
X mit i ( mk=1 k xk ) = i eine Basis von X , die zu (x1 ; : : :; xm) duale Basis.
Insbesondere folgt: dimX = dimX.
Beweis: (2) ist oenbar ein Spezialfall von (1), es genugt also, (1) P zu beweisen. P
Linearitat der Aij : Dies ist leicht zu beweisen, denn es gilt fur x = mk=1 k xk , x~ = mk=1 ~k xk
X
m
Aij (x + x~) = Aij ( ( + ~)xk ) = (i + ~ i )yi = Aij (x) + Aij (~x):
k=1
Den anderen Teil der Linearitatsbedingung
P Ppruft man analog.
Lineare Unabhangigkeit der Aij : Sei mi=1 nj=1 ij Aij = 0 mit ij 2 K. Dann gilt fur 1 k
m:
Xm Xn X
n
0=( ij Aij )(xk ) = kj yj :
i=1 j =1 j =1
Daraus und aus der linearen Unabhangigkeit der yj folgt ij = 0 fur 1 j m. Also sind die
Aij linear unabhangig.
Die Aij Perzeugen L(X; Y ): Sei f 2 L(X; Y ). Fur 1 i n gibt es ij 2 K, 1 j n, mit
f(xi ) = nj=1 ij yj . Es folgt
X
m n X
X m n X
X m X
m
f( k xk ) = kj k yj = akj Akj ( i xi );
k=1 j =1 k=1 j =1 k=1 i=1
P P
also f = ni=1 mk=1 kj Akj . 2
Insbesondere X ' X und X ' X , also X ' X . Ein Isomorphismus X ' X lat sich auf
kanonische Weise beschreiben:
Folgerung 2: Fur jeden K-Vektorraum X sei die K-lineare Abbildung iX : X ! X durch
iX (x)(l) = l(x) mit x 2 X, l 2 X deniert. Fur endlichdimensionale Vektorraume X ist iX ein
Isomorphismus. Dieser Isomorphismus bildet die Basis von X auf die duale Basis ihrer dualen
Basis ab.
23
Beweis: Fur alle x 2 X ist iX (x) ein lineares Funktional auf X : iX : X ! X ist K-linear. Sei
n = dim(X), (x1 ; : : :; xn) eine Basis von X, (1; : : :; n ) die dazu duale Basis von X , (~x1 ; : : :; x~n)
die dazu duale Basis von X . Die dualen Basen sind durch
i (xj ) = ij = 10 falls i=j
falls i 6= j und x~i(j ) = ij
gegeben. Es gilt dann iX (xk )(l ) = kl = x~k (l ) fur alle l, also iX (xk ) = x~k . Damit ist die letzte
Behauptung gezeigt. Daraus folgt auch, da iX ein Isomorphismus ist, denn es gilt folgender
Fakt: Sei f : X ! Y eine lineare Abbildung und (b1 ; : : :; bn) eine geordnete Basis von X. Wenn
(f(b1 ); : : :; f(bn )) eine geordnete Basis von Y ist, so ist f ein Isomorphismus. 2
Folgerung 3: Sei U X ein Unterraum eines endlichdimensionalen Vektorraumes X. Wenn
Y endlichdimensional ist, so auch die lineare Abbildung L(X; Y ) ! L(U; Y ), f 7! f jU surjektiv.
Mit anderen Worten, zu jeder linearen Abbildung g : U ! Y gibt es eine lineare Abbildung
G : X ! Y , welche g fortsetzt, d.h. GjU = g.
Beweis: Sei a = dimU, b = dimX dimU, (x1 ; : : :; xa ) eine Basis von U, (x1; : : :; xb) eine Ba-
sis von X, P c = dimY , (y1 ; : : :; yc) eine Basis von Y . Fur 1 i a, 1 j c sei Aij 2 L(U; Y )
durchPAij ( ak=1 k xk ) = i yj deniert. Fur 1 i b, 1 j c sei A~ij 2 L(X; Y ) durch
A~ij ( bk=1 k xk ) = i yj deniert. Es folgt A~ij jU = Aij fur 1 i a, 1 j c. Da die Aij
L(U; Y ) erzeugen, folgt nach Satz 2 die Behauptung.
f
Fakt 8: Fur eine lineare Abbildung X !f Y sei die duale Abbildung Y ! X durch
(f (l))(x)) = l(f(x)) mit x 2 X, l 2 Y deniert, d.h. f (l) = l f. Dann ist f eine li-
neare Abbildung und es gilt f iX = iY f, wobei iX und iY in Folgerung 2 deniert sind. Unter
Ausnutzung von Folgerung 2, um fur endlichdimensionale X; Y X mit X und Y mit Y zu
identizieren, geht f in f uber.
Beweis: Sei l 2 Y und x 2 X. Es gilt
(f (iX (x)))(l) = (iX (x))(f (l)) = f (l)(x) = l(f(x)) = iY (f(x))(l):
Weil das fur alle l gilt, folgt f (iX (x)) = iY (f(x)). 2
Denition 7: Sei X ein endlichdimensionaler Vektorraum. Fur U X und V X seien
U ? = fl 2 X j 8 x 2 U : l(x) = 0g
V ? = fx 2 X j 8 l 2 V : l(x) = 0g
die orthogonalen Komplemente von U und V . Dies sind Unterraume U ? X und
V ? X, selbst dann, wenn U und V nur Untermengen sind.
Bemerkung: Sei V X und
A = fx 2 X j 8 l 2 V : l(x) = 0g = V ? X
B = f 2 X j 8 l 2 V : (l) = 0g = V ? X :
Dann ist iX : X ! X eine Abbildung, welche A isomorph auf B abbildet:
8 l 2 V : x 2 A , l(x) = 0
, (iX (x))(l) = 0 , iX (x) 2 B:
Fakt 9: Sei U X ein Unterraum. Dann gilt:
24
1. dim(U ? ) = dim(X) dim(U);
2. U ?? = U.
Beweis: Zum Beweis der ersten Aussage sei (x1 ; : : :; xd) eine geordnete Basis von U und sei
(x1; : : :; xn), n = dim X d = dim U, eine Basis von X. Sei (1 ; : : :; n) die dazu duale Basis
von X . Behauptung: (d+1 ; : : :; n) ist eine Basis von U ? .
Fur d + 1 i n und U 3 x = Pdk=1 k xk mit k 2 K, folgt:
X
d X
d
i (x) = k i (xk ) = k ik = 0
k=1 k=1
Also d+1 ; : : :; n 2 U ? . Weil diese Elemente Teil einer Basis von X sind, sind sie linear
unabhangig.
Sei ' 2 U ? . Fur d + 1 k n sei k = '(xk ). Dann gilt fur ' = Pnk=d+1 k k =! '~ 2
L(fd+1 ; : : :; ng), denn es gilt:
{ fur 1 l d: '(xl ) = 0 wegen ' 2 U ? und xl 2 U, weiterhin '~(xl ) = 0, also
'(xl ) = '(x
~ l ).
{ fur d + 1 l n: '(xl ) = l = Pnk=d+1 k kl = Pnk=d+1 kk (xl ) = '(x~ l ).
Weil dies fur alle Elemente der Basis (x1; : : :; xn) gilt, folgt ' = '~ und U ? = L(fd+1 ; : : :; ng).
Also ist die Behauptung gezeigt. Es folgt dimU ? = n d = dimX dimU.
Es gilt U U ?? , denn fur u 2 U und 2 V ? gilt (u) = 0 nach der Denition von U ?, also
gilt u 2 U ?? . Aber
dimU ?? = dim X dimU ?
= dim X (dimX dimU) = dimU;
also U ?? = U. 2
Satz 3: Sei X !f Y ein lineare Abbildung zwischen endlichdimensionalen Vektorraumen.
Dann gilt:
1. Bild (f) = ker(f )? ;
2. Bild (f ) = ker(f)? .
Beweis:
1. Sei y 2 Bild (f). Dann gibt es x 2 X mit y = f(x). Sei 2 ker(f ). Dann gilt: (y) =
(f(x)) = (f ())(x) = 0, also y 2 ker(f )? . Sei umgekehrt y 62 Bild (f). Sei V = Bild (f)+
k y Y , k 2 K. Durch '(v) = fur v = u + y, u 2 Bild (f), 2 K (Diese Darstellung
ist wegen y 62 Bild (f) eindeutig.) ist ein Funktional ' 2 V deniert. Nach Folgerung 3
gibt es ein Funktional 2 Y mit jV = '. Dann gilt (y) y= 2V '(y) = '(0 + 1 y) = 1. Es
gilt 2 ker(f ), denn fur alle x 2 X gilt
(f ())(x) = (f(x)) f (x=)2V '(f(x)) = '(f(x) + 0 y) = 0:
Also 2 ker(f ) und (y) 6= 0. Also y 62 ker(f )? .
25
2. Die zweite Gleichung folgt durch Anwendung der ersten Gleichung auf f und durch An-
wendung von Fakt 8:
Bild (f ) = ker(f )? = ker(f)? : 2
Folgerung 4: In der Situation von Satz 3 gilt:
dim(Bild(f)) = dim(Bild (f )):
Beweis:
dim(Bild(f)) Satz
= 3 dim(ker(f )? ) Fakt
= 8 dim(Y ) dim(ker(f )
Satz=2.2 dim(Y ) dim(ker(f )) Satz
= 1 dim(Bild(f ))
2
Denition 8: Sei X !f Y eine lineare Abbildung zwischen endlichdimensionalen Vek-
torraumen. Die Dimension des Bildes von f nennt man auch den Rang von f, Rang (f)
oder rank (f).
3 Matrizen
3.1 Matrizenrechnung
Sei K ein Korper.
Denition 1:
Eine m n-Matrix A ist ein rechteckiges Schema mit m Zeilen, n Spalten und
Eintragen aus K:
0 a11 a12 a1n
1
B a21 a22 a2n CC
A=B
B@ .. .. .. CA oder A = (aij )mi=1 nj=1 :
. . .
am1 am2 amn
Mat (m; n; K) ist die Menge aller m n-Matrizen von Elementen aus K.
Mat (m; n; K) erhalt die Struktur eines K-Vektorraumes wie folgt:
{ (aij )mi=1 nj=1 = (aij )mi=1 nj=1 ;
{ (aij )mi=1nj=1 + (~aij )mi=1 nj=1 = (aij + a~ij )mi=1nj=1
Die aij nennt man Matrixkoezienten.
Fur 1 i m ist (aij )nj=1 2 K n der i-te Zeilenvektor der Matrix und fur 1 j n
ist (aij )mi=1 2 K m der j -te Spaltenvektor.
26
Beispiel:
2 0 5 3 1 3
A = 3 1 7 ; B = 0 8 7 ; A; B 2 Mat(2; 3; IR )
2A =
4 0 10
2 5 1 8
3
3 2 14
1 3 3
3 ; A + B = 3 9 14
2
A hat zwei Zeilenvektoren, namlich (2 0 5) und ( 32 1 7) und drei Spaltenvektoren 23 ; 0; 5.
2 1 7
Denition 2: Sei A 2 Mat(m; n; K). Der Operator der Multiplikation mit A A ist
eine lineare Abbildung
A : K n ! KPmn
A (xi )ni=1 = ( j =1 aij xj )mi=1
mit A = (aij )mi=1 nj=1 , aij 2 K, xi 2 K.
Fakt 1: Die Abbildung
Mat(m; n; K) ! L(K n ; K m )
A 7! A
ist ein Isomorphismus von K-Vektorraumen.
Beweis: Fur 1 i m und 1 j n sei A(ij) die Matrix (a(klij) )m;n
k;l=1 , wobei
0 0 0 0
1
1 falls i = k und j = l BB ... . . . ..
..
..
CC
a(klij ) = 0 sonst ; d.h. Ai;j = B
B 0 1 0
CC i-te Zeile
BB . . . .. CC j-te Spalte :
@ .. .. . .. A
0 0 0
Oenbar bilden die A(ij ) eine Basis von Mat(m; n; K), denn jede m n-Matrix A = (aij )mi=1 nj=1
kann als
Xm Xn
A= aij A(i;j ) ()
i=1 j =1
dargestellt werden, und umgekehrt ist diese Darstellung eindeutig, weil aus () folgt, da die aij
mit den Matrixkoezienten von A ubereinstimmen. Also bilden die m n Matrizen A(ij ) , 1 i
m, 1 j n, eine Basis von Mat (m; n; K) und dim(Mat (m; n; K)) = m n = dim(L(K n ; K m )).
Daher genugt es, die Injektivitat der betrachteten Abbildung zu zeigen. Aus A = 0 folgt bei
Anwendung auf den Vektor ej = (ij )ni=1 2 K n 0 = A ej = (aij )mi=1 (=j-te Spalte von A). Also
gilt a1j = : : : = amj = 0. Weil dies fur alle j mit 1 j n gilt, folgt A = 0, die betrachtete
Abbildung ist also injektiv und damit auch bijektiv. 2
Fakt 2: Sie A 2 Mat (m; n; K) und sei ej 2 K n, 1 j n, wie beim Beweis von Fakt
1 deniert. Wir haben gesehen, da A ej der j-te Spaltenvektor von A ist. Der von diesen
Vektoren erzeugte Unterraum von K m (das Bild von A) ist der Spaltenraum von A. (Analog
dazu ist der Zeilenraum Unterraum von K n .) Daher stimmt das Bild von A mit der linearen Hulle
der Spaltenvektoren von A uberein. Die Dimension dieses Unterraumes von K m nennen wir den
Spaltenrang von A, sie stimmt mit der maximalen Anzahl linear unabhangiger Spaltenvektoren
uberein. 2
27
Denition 3: Sei A 2 Mat (m; n; K) und B 2 Mat (n; o; K), A = (aij )mi=1nj=1 , B =
(bjk )nj=1 ok=1. Das Produkt A B ist durch die Matrix
0n 1m
X
A B := @ aij bjk A o 2 Mat (m; o; K)
k=1
j =1 i=1
deniert.
Bemerkung 1: Wenn man in Denition 2 den Vektor x als n 1- Matrix auat, so umfat
Denition 3 Denition 2:
0 a a 1 0 x 1 0 Pn a1j xj 1
B@ 11.. . . . 1..n CA B@ ..1 CA = B@ j=1.. CA :
. . . .
Pn a x
am1 amn xm j =1 mj j
Beispiel 1: Sei
1 2 3 01 2 31
Mat (2; 3; Q) 3 A = 4 5 6 Mat (3; 3;Q) 3 B = @ 4 0 0 A
0 5 0
01 2 31
@4 0 0A
" Schema von Falk \ 1 2 3 0 5 0
9 17 3
4 5 6 24 38 12
9 17 3
AB = 24 38 12 ;
B A ist nicht deniert.
Fakt 3: Die Matrizenmultiplikation entspricht der Hintereinanderausfuhrung linearer Opera-
toren, d.h. fur A 2 Mat(m; n; K), B 2 Mat (n; o; K), x 2 K o , so gilt A (B x) = (A B) x,
denn
0n 1m 0 n o 1m
X X X
A (B x) = @ aij (Bx)j A = @ aij bjk xk A
j =1 j =1 k=1
0o 0n 1 1m
i=1 i=1
X X
= @ @ aij bjk A xk A = (AB) x
k=1 j =1 i=1
Weil die Hintereinanderausfuhrung von Abbildungen assoziativ ist, ist es auch die Matrixmul-
tiplikation: aus A 2 Mat (m; n; K), B 2 Mat (n; o; K), C 2 Mat (o; p; K) folgt A (B C) =
(A B) C 2 Mat (m; p; K). Es gelten fur die Matrizenmultiplikation auch die beiden Distribu-
tivgesetze
~ = AB + AB
(A + A)B ~
A (B + B)~ = AB + AB~
28
und
(A)(B) = ()(AB); ; 2 K:
Dagegen gilt das Kommutativgesetz fur Matrizen nicht, selbst wenn beide Seiten wohldeniert
und vom gleichen Typ sein sollten:
0 0 0 1 0 0 0 1 0 0 0 1
0 1 0 0 = 0 0 aber 0 0 0 1 = 0 0 :
Denition 4: Sei n = dim(V ), m = dim(W), B = (b1; : : :; bn) eine geordnete Basis von
f
V , B~ = (~b1 ; : : :; ~bm ) eine geordnete Basis von W. Sei V ! W eine lineare Abbildung, und
sei (aij )mi=1 nj=1, aij 2 K durch
X
m
f(bj ) = aij b~i
i=1
deniert. Die Matrix (aij )mi=1 nj=1 = Mat B;B~ (f) 2 Mat (m; n; K) nennen wir die Ma-
~
trixdarstellung von f bezuglich B und B.
Beispiel 2: Mat (e1;:::;en )(e1 ;:::;em ) (A) = A fur A 2 Mat (m; n; K). Die Matrixdarstellung von
A : K n ! K m bezuglich der Standardbasen ist A. (Auf diese Weise erhalt man eine inverse
Abbildung zu dem in Fakt 1 betrachteten Isomorphismus.)
Fakt 4:
P
1. Fur eine geordnete Basis B = (b1 ; : : :; bn) von V sei iB (x1 ; : : :; xn) = ni=1 xi bi deniert.
In den Bezeichnungen von Denition 4 gilt: fiB = iB~ (MatB;B~ (f)).
K?n A!
?? m
K
iB ?y yiB~
f
V ! W
A = Mat B;B~ (f) kommutiert, d.h. iB~ A = fiB .
2. Die Abbildung
L(V; W ) ! Mat (m; n; K)
f 7! Mat B;B~ (f)
ist ein Vektorraumisomorphismus.
3. Sei U !g V eine lineare Abbildung, B^ = (^b1; : : :; ^bo ) eine Basis von U, dann gilt
Mat B;^ B~ (f g) = Mat B;B~ (f) Mat B;B
^ (g):
Beweis:
1. Weil iB und iB~ Isomorphismen sind, ist der Operator der Multiplikation mit Mat B;B~ (f)
durch die Bedingung f(iB (x)) = iB^ (Mat B;B~ (f) x) bestimmt, namlich
Mat B;B~ (f) x = iB~1(f(iB (x))):
29
Nach Fakt 1 ist daher auch Mat B;B~ (f) selbst eindeutig durch die Bedingung f(iB (x)) =
iB~ (Mat B;B~ (f) x) bestimmt. Es verbleibt, diese Gleichung nachzurechnen:
sei Mat B;B~ (f) = (aij )ni=1 mj=1 . Dann gilt:
0m 1 n 0m 1
X X X
f(iB (x1 ; : : :; xm)) = f @ xj bj A = @ aij xj A ~bi
j=1 i=1 j =1
= iB~ Mat B;B~ (f) x
2. Durch
L(V; W ) !I L((K m ; K n )
I(f) = iB~1 f iB
ist ein Isomorphismus I von Vektorraumen, denn die Linearitat von I ist leicht nachprufbar,
und eine inverse Abbildung K : L(K m ; K n) ! L(V; W ) ist durch K(g) = iB~ g iB1 gege-
ben. Nach (1) ist die Abbildung f 7! Mat B;B~ (f) die Verknupfung von I mit dem Inversen
des in Fakt 1 betrachteten Isomorphismus Mat (n; m; K) ! L(K m ; K n). Die Behauptung
folgt, denn die Hintereinanderausfuhrung von Isomorphismen ist ein Isomorphismus.
3. Es gilt fur y 2 K o
(f g)(iB^ (y)) = f(g(iB^ (y))) = f(iB (Mat B;B ^ (f) y))
^ (g) y))
= iB~ (Mat B;B~ (f) (Mat B;B
= iB~ ((Mat B;B~ (f) Mat B;B
^ (g))y):
Mit anderen Worten, Mat B;B~ (f) Mat B;B ^ (g) erfullt die unter (1) angegebene Bedingung
fur die Matrixdarstellung von f g, die Behauptung folgt nun aus (1). 2
Fakt 5: Sei A 2 Mat (m; m; K). Dann sind folgende Bedingungen aquivalent:
1. Es gibt B 2 Mat (m; m; K) mit
0 1 ::: 0 1
AB = 1m = B
@ ... . . . ... CA = (ij )mi=1mj=1:
0 ::: 1
2. Es gibt C 2 Mat (m; m; K) mit CA = 1m .
3. Die lineare Abbildung K m ! K m , x 7! Ax, ist bijektiv.
0m 1m
X
Beweis: Es gilt 1m x = x fur x 2 K m , denn 1mx = @ ij xj A = (xi)mi=1. Allgemein gilt
j =1 i=1
auch
1m X = X und Y 1m = Y; X 2 Mat (m; k; K); Y 2 Mat (n; m; K):
(3))(1) und (2): Sei x ! f(x) = A x bijektiv und sei g die inverse Abbildung. Nach Fakt 1
gibt es eine Matrix B mit g(x) = B x. Dann gilt nach Fakt 3:
(AB) x = A(B x) = A(g(x)) = f(g(x)) = x = 1m x:
30
Aus Fakt 1 folgt A B = 1m . Genauso leitet man B A = 1m aus der Tatsache her, da g
linksinvers zu f ist.
(1))(3): Sei AB = 1m . Fur alle x 2 K m folgt x = 1m x = (AB)x = A(Bx) 2 Bild (A). Also ist
der Endomorphismus A des endlichdimensionalen Vektorraumes K m ein Epimorphismus und
damit auch ein Isomorphismus und (3) folgt.
(2))(3) Praktisch genauso: aus CA = 1m folgt, da A ein Monomorphismus und damit ein
Isomorphismus ist. 2
Denition 5: Sei K ein Korper.
1. Eine Matrix A 2 Mat (m; m; K) nennen wir invertierbar, falls sie die aquivalenten
Bedingungen von Fakt 5 erfullt.
2. Sei GLm (K) Mat (m; m; K) die Menge aller invertierbaren m m-Matrizen, diese
wird, versehen mit dem Matrizenprodukt, eine Gruppe.
3. Sei V ein K-Vektorraum. Aut (V ) sei die Menge der Automorphismen von V , versehen
mit der Hintereinanderausfuhrung von Automorphismen als Gruppenoperation eine
Gruppe.
Bemerkung: Die Gruppenaxiome fur GLm rechnet man leicht nach, das Einselement ist 1m .
Fakt 6: Sei B eine Basis des m-dimensionalen K-Vektorraumes V , dann ist
Aut (V ) ! GLm (K)
f 7! Mat B;B (f)
ein Gruppenhomomorphismus.
Beweis: folgt leicht aus Fakt 4. 2
Bemerkung: Invertierbare m m-Matrizen konnen auch beim Basiswechsel entstehen. Sei
namlich V m-dimensional und seien B; B~ Basen von V . Aus Fakt 4.3 folgt
Mat B;B~ (Id V ) Mat B;B
~ (Id V ) = Mat B;
~ B~ (Id V Id V )
= Mat B;~ B~ (Id V ) = 1m :
Es folgt Mat B;B~ (Id V ) 2 GLm . Seien U !g V ! f
W lineare Abbildungen, B 0 und B 00 geordnete
Basen von U bzw. W. Aus Fakt 4.3 folgt
Mat B0 ;B~ (g) = Mat B;B~ (Id V ) Mat B0 ;B (g);
~ 00 (g) = Mat B;B00 (f) Mat B;B
Mat B;B ~ (Id V ):
Fakt 7: Sei A eine m n-Matrix, B 2 GLm , C 2 GLn. Dann stimmen die Spaltenraume von
A und AB bzw. A und CAB uberein.
Beweis: Es gilt wegen der Bijektivitat von B
Spaltenraum(AB) = Bild (AB) = Bild (AB )
= Bild (A) = Spaltenraum(A):
Weil C ein Isomorphismus ist, deniert er einen Isomorphismus
Bild (AB) 7! Bild (C (AB)) = Bild ((CAB));
wobei Bild (AB) der Spaltenraum von AB und Bild ((CAB)) der von CAB ist. Es folgt
Spaltenrang(CAB) =Spaltenrang(AB) =Spaltenrang(A). 2
31
Denition 6: Die transponierte Matrix einer m n Matrix A = (aij )mi=1 jn=1 ist die
n m Matrix AT = (aji )nj =1 mi=1 .
Beispiel:
0 1 2 3 1T 01 4 71
@ 4 5 6 A = @ 2 5 8 A:
7 8 9 3 6 9
Fakt 8: Sei V !f W eine lineare Abbildung endlichdimensionaler Vektorraume, B = (b1 ; : : :; bn)
eine geordnete Basis von V , B~ = (~b1; : : :; ~bm ) eine Basis von W, B = (1 ; : : :; n ) die zu B
duale Basis von V , B~ = (~1 ; : : :; ~m ) die zu B~ duale Basis von W . Dann gilt
Mat B~ ;B (f ) = Mat B;B~ (f)T :
Beweis: Sei A = Mat B;B~ (f); a = (aij )ni=1 mj=1 ; AT = B; B = (bij )mi=1 jn=1 ; bij = aji. Es gilt
m X X m XX ~ m n
(f (~j ))( i bi ) = ~j (f( i bi )) = ~j ( ali i bl )
i=1 i=1 i=1 l=1
X
m X
n X
m
= ali i jl = ajii
i=1 l=1 i=1
Xm Xm
= ajii ( k bk )
i=1 k=1
Es folgt:
X
m X m
f (~j ) = ajii = bij i ; also Mat B~ ;B (f ) = B = AT : 2
i=1 i=1
Folgerung 1: Aus Fakt 2.4.8 ((fg) = g f ), Fakt 3 und Fakt 8 folgt:
(AB)T = B T AT :
Dies konnte man leicht direkt nachrechnen!
Folgerung 2: Die transponierte Matrix einer invertierbaren Matrix A ist invertierbar, und
(AT ) 1 = (A 1 )T . Aus Folgerung 1 folgt, da (A 1 )T tatsachlich die inverse Matrix zu AT ist.
Denition: Der Zeilenraum bzw. -rang von A ist der Spaltenraum bzw. -rang von AT .
Bemerkung: Aus Folgerung 1, Folgerung 2 und Fakt 7 folgt, da sich der Zeilenrang einer
Matrix bei Multiplikation mit einer invertierbaren Matrix nicht andert.
Folgerung 3: Der Spalten- und der Zeilenrang einer Matrix A stimmen uberein.
Beweis: Es gibt Vektorraume V und W mit Basen B und B~ und eine lineare Abbildung f :
V ! W mit Mat B;B~ (f) = A. Dann gilt:
f(iB (x)) = iB~ (A x); x 2 K dim V :
32
Weil iB und iB~ Isomorphismen sind, deniert iB~ einen Isomorphismus des Bildes von A auf das
Bild von f. Also gilt: Spaltenrang(A) = dim(Bild(A)) = dim(Bild (f)). Wenn man denselben
Sachverhalt aus f und die Basen B~ und B anwendet, so folgt:
Zeilenrang(A) = Spaltenrang(AT ) = dim(Bild (AT )) = dim(Bild(f )) = dim(Bild (f))
nach Folgerung 2.5.4, damit folgt die Behauptung. 2
Denition 8: Man nennt den Spaltenrang (=Zeilenrang) einer Matrix A den Rang von
A und schreibt Rang (A) oder rank (A).
Bemerkung 1: Sei V !f W einer lineare Abbildung zwischen endlichdimensionalen Vek-
torraumen, dann gilt:
rang (f) Def=2.4.8 dim(Bild (f)) = rang (Mat B;B~ (f)):
Dies folgt aus dem Beweis von Folgerung 3.
Eine n n Matrix A ist genau dann invertierbar, wenn ihr Rang gleich n ist. In der Tat gilt:
A invertierbar , A : K n ! K n ist bijektiv
, A : K n ! K n ist surjektiv
, dim(Bild (A)) = n
, rang (A) = n
Bemerkung 2: Die Abbildung
Mat (m; n; K) ! Mat(n; m; K)
A 7 ! AT
ist ein Isomorphismus von Vektorraumen. Es gilt (AT )T = A.
3.2 Das Eliminationsverfahren von Gau
Dieses Verfahren dient der Bestimmung des Ranges einer Matrix, gegebenenfalls der Berechnung
ihrer inversen Matrix oder der Au
osung linearer Gleichungssysteme. Sei A = (aij )mi=1 jn=1 und
sei bP=n (bi )mi=1 . Dann ist die Gleichung A x = b fur x 2 K n aquivalent zu den m Gleichungen in
K: i=1 aij xj = bj fur 1 i m, d.h.
a11x1 + a12 x2 + + a1nxn = b1
a21x1 + a22 x2 + + a2nxn = b2
.. . . .
. + .. + + .. = ..
am1 x1 + am2 x2 + + amn xn = bm
Die Menge der b 2 K n , fur die diese Gleichungen eine gemeinsame Losung haben, stimmt mit
dem Bild von A (=Spaltenraum von A) uberein.
Denition 1: Eine m n-Matrix A ist in Zeilenstufenform, falls eine Zahl r 0 und
Zahlen 0 < j1 < j2 < : : : < jr n existieren, so da folgende Bedingungen erfullt sind:
1. aij = 0 fur i > r;
2. Fur i r gilt aiji 6= 0 und aij = 0 fur j < ji .
33
Beispiel: Die folgenden Matrizen sind in Zeilenstufenform:
1 2 3
r = 2; j1 = 1; j2 = 3
0 10 20 7
3
1
@0 0 7A r = 2; j1 = 1; j2 = 3
0 10 40 0
7
1
@0 5 8A r = 3; j1 = 1; j2 = 2; j3 = 3
0 0 9
Die folgenden Matrizen sind nicht in Zeilenstufenform:
1 3 01 2 31 0 0 0
@ A
4 6 ; 00 05 16 ; 1 2 3 :
Fakt 1: Wenn A eine Matrix in Zeilenstufenform ist, so sind ihre von 0 verschiedenen Zeilenvek-
toren linear unabhangig. Insbesondere bilden diese Vektoren eine Basis des Zeilenraumes, und
der Zeilenrang ist r, wobei r dieselbe Bedeutung wie in Denition 1 hat.
Beweis:
P Die Zahlen 1 j1 < j2 < : : : < jr n seien wie in Denition 1 gewahlt. Angenommen,
0 = rk=1 k (aki)ni=1 und nicht alle k 2 K sind 0. Seien 1 = : : : = k0 1 = 0 und k0 6= 0:
Dann ist der jk0 -te Koezient der untersuchten Summe
X
r X
r
k akjk0 = k akjk0 = k0 ak0 jk0 6= 0
k=1 k=k0
im Widerspruch zu unserer Annahme. Die von 0 verschiedenen Zeilenvektoren sind also linear
unabhangig. Sie bilden daher eine Basis des Zeilenraumes, und der Zeilenrang ist r.
Fakt 2: Sei A eine m n -Matrix in Zeilenstufenform und b = (b1 ; : : :; bm ) 2 K m: Das lineare
Gleichungssystem A x = b hat genau dann eine Losung x 2 K n , wenn bi = 0 fur i > r
gilt. Sei M = fj1 ; : : :; jr g. Die Variablen xi mit i 62 M nennen wir frei. Wenn eine Losung
des untersuchten Gleichungssystems existiert, so ist diese durch Vorgabe der freien Variablen
eindeutig bestimmt. Die gebundenen Variablen konnen aus den freien wie folgt berechnet werden:
Pn
1. xjr = arj1 r br j =jr +1 a rj xj xj frei.
n P
2. Seien xjk+1 ; : : :; xjr bereits bestimmt, dann gilt: xjk = arj1 k bk j =jk +1 akj xj
xj entweder frei oder gebunden und bereits berechnet:
Insbesondere gilt: wenn eine Losung existiert, so ist die genau dann eindeutig, wenn keine freien
Variablen existieren, d.h. , wenn r = n gilt.
Beispiel: (rationale Koezienten)
07 6 51
@ 0 0 1 A ; m = n = 3; r = 2; jn = 1; j2 = 3:
0 0 0
Sei b = (b1; b2; b3) vorgegeben. Das Gleichungssystem hat dann die Gestalt:
7x1 + 6x2 + 5x3 = b1 7x1 + 6x2 + 5x3 = b1
0x1 + 0x2 + x3 = b2 ) x3 = b2
0x1 + 0x2 + 0x3 = b3 0 = b3
34
Es kann nur losbar sein, wenn b3 = 0. Dann ist genau die Variable x2 frei, und unsere Formeln
lauten:
x3 = b2
x1 = b1 6x72 5x3 = b1 6x72 5b2 :
Auf diese Weise erhalt man in der Tat Losungen des Gleichungssystems (falls b3 = 0).
Beweis von Fakt 2: Die k-te Gleichung des betrachteten Systems lautet:
X
n
akj xj = bk :
j =1
Fur k > r verschwinden alle akj , also mu bk = 0 sein, wenn eine Losung existieren soll. Die
Notwendigkeit unserer Bedingung fur die Losbarkeit ist somit bewiesen.
Wenn sie erfullt ist, dann sind die letzten m r Gleichungen
P (die k-te mit P r < k m) automatisch
erfullt. Fur 1 k r ist die k-te Gleichung bk = nj=1 akj xj = nj=jk akj xj (denn akj = 0
fur j < jk ) zu xjk = akj1 k bk
Pn a x aquivalent, d.h. zu unserer Vorschrift zur
j =jk+1 kj j
Bestimmung der gebundenen Variablen aus der freien. Damit sind sowohl die Hinlanglichkeit als
auch unsere Beschreibung der Losungsmenge veriziert. Die letzte Behauptung ist klar. 2
Bemerkung 1: Der Spaltenraum von A stimmt mit der Menge aller b, fur die A x = b losbar
ist, uberein. Nach Fakt 2 ist seine Dimension r. Insbesondere haben wir einen neuen Beweis fur
Zeilenrang = Spaltenrang fur Zeilenstufenmatrizen gefunden.
Fakt 3: Eine m m-Matrix A in Zeilenstufenform kann genau dann invertiert werden, wenn
r = m gilt. In diesem Fall kann die Bestimmung der inversen Matrix dann durch Au
osung von
A si = ei ; 1 i n; ej = (ij )mi=1
nach si erfolgen. si ist dann der i-te Spaltenvektor von A.
Beweis: Sei A eine m m-Matrix und sei si der i-te Spaltenvektor von B, dann bilden die A si,
1 i m, die Spaltenvektoren von A B. Daher ist A B = 1m aquivalent zu A si = ei (denn
der i-te Spaltenvektor von 1m ist ei ). Fur i > r wird diese Gleichung nach Fakt 2 unlosbar, also
mu r = m sein, wenn A invertierbar sein soll. In diesem Fall sind die Gleichungen fur die si
nach Fakt 2 eindeutig losbar.
Beispiel: 0 1 0 80 1 1 0 a b c 1 0 1 0 1
40
@ 0 23 46 A = @ d e f A = @ 0 231 1 A
0 0 2 g h i 0 0 12
1 + 80g = 1 g = 0 (3.Gl)
23d 46g = 0 =) d = 0 (2.Gl)
2e = 0 a = 1 (1.Gl)
b + 80h = 0 h = 0 (3.Gl)
23e 46h = 1 =) e = 231 (2.Gl)
2h = 0 b = 0 (1.Gl)
c + 80i = 0 i = 1 (3.Gl)
2
23f 46i = 0 =) f = 1 (2.Gl)
2i = 1 c = 40 (1.Gl)
35
Denition 2: Eine elementare Zeilentransformation einer Matrix A bzw. des Glei-
chungssystems Ax = b ist eine der folgenden Transformationen:
1. Vertauschung zweier Zeilen in A bzw. in Ax = b.
2. Addition des Vielfachen einer Zeile zu einer anderen Zeile.
Fakt 4: Eine elementare Zeilentransformation ist die linke Multiplikation von A oder Ax = b
mit einer der invertierbaren Matrizen
Zeilenvertauschung:
01 0 ::: 0 0 1
BB 0 . . . 0
CC
BB 1
CC
BB CC
BB 0 1 CC 81
B. 1 : : : 0 > k = l 6= i; j
Tij = B BB .. .. . . . .. .. C = (t(i;j ))mk;l=1 mit t(i;j ) = < 1
C
C k = i; l = j
. . . C kl kl >
BB 0 ::: 1 CC : 10 k = j; l = i
sonst
BB 1 0 CC
BB 1 CC
B@ ... 0 C A
0
0 0 ::: 0 1
Addition des -fachen der i-ten Zeile auf die j-te, 2 K, i 6= j:
0 1 ::: ::: 0 1
BB ... . . . .. C
. C
BB 1 :::
CC 8 1 k=l
BB .. . . . .. C
C <
(i;j ) ())m mit e(i;j ) () = k = i; l = j
Eij () = B BB . . C =
CC kl(e k;l=1 kl : 0 sonst
BB . 0 ::: 1 C
@ .. . . . ... C A
0 ::: ::: 1
steht in der i-ten Zeile, j-ten Spalte. Weiterhin gilt
Tij2 = 1m und Eij () Eij ( ) = 1m :
Insbesondere andert eine solche Umformung weder die Losungsmenge eines linearen Gleichungs-
systems noch den Zeilenrang bzw. Spaltenrang oder den Zeilenraum.
Beweis: Es ist leicht zu sehen, da das Ersetzen von A (bzw. von Ax = b) durch Tij A oder
Eij ()A (bzw. durch (Tij A)x = Tij b oder (Eij ()A)x = Eij ()b) in der Tat das behauptete
bewirkt.
Die Behauptung uber das Inverse von Tij und Eij () sind ebenfalls leicht nachzurechnen.
Sei B invertierbar mit inverser Matrix B 1 . Aus Ax = b folgt (BA)x = B(Ax) = Bb und aus
(BA)x = Bb folgt Ax = 1m Ax = (B 1 B)Ax = B 1 ((BA)x) = B 1 (Bb) = b Damit andert sich
die Losungsmenge nicht.
Die Behauptung uber den Zeilenraum und den Zeilenrang folgt aus Fakt 3.1.7 und Folgerung
3.1.1, ebenso die Behauptung uber den Spaltenrang. 2
36
Denition 3: Eine m m-Matrix A = (aij )mi=1nj=1 ist in k-Zeilenstufenform, 0 k m,
falls Zahlen 0 < j1 < j2 < : : : < jk m existieren, so da folgende Bedingungen erfullt
sind:
1. Fur 1 i k gilt aiji 6= 0 und aij = 0 fur j < ji .
2. Fur k < i m und 1 j jk gilt aij = 0.
Beispiel 3: 00 1 2 3 01
01 2 3 1
@ 0 8 9 A und BB@ 00 00 87 91 00 CCA
0 7 10 0 0 0 0 0
sind in 1-Zeilenstufenform (j1 = 1 bzw. j1 = 2). Jede Matrix liegt in 0-Zeilenstufenform vor.
Eine Matrix A ist in m-Zeilenstufenform genau dann, wenn A ist in Zeilenstufenform und r = m
(r gema Denition 1).
A ist in Zeilenstufenform vom Rang r genau dann, wenn A in r-Zeilenstufenform ist und fur
r < k m die k-te Zeile verschwindet.
Wir mochten nun den Eliminationsalgorithmus von Gau beschreiben. Generell besteht ein Al-
gorithmus aus einer Folge von Anweisungen, durch die bestimmten Variablen bestimmte Werte
(in unserem Fall naturliche Zahlen oder Elemente von K) zugeordnet werden. Wir schreiben
x Ausdruck;
falls der Variablen x der Wert von Ausdruck zugeordnet wird, z.B. ordnet x y=3 x ein Drittel
der Variablen y zu.
U berfuhrung einer Matrix A 2 Mat (m; n; K) oder des Gleichungssystemes Ax = b
oder von Ax() = b(), 1 r in Zeilenstufenform:
1. k 1.
2. An dieser Stelle liegt die Matrix A in (k 1)-Zeilenstufenform vor. Wenn aij = 0 fur
k i m und 1 i m gilt, so liegt die Matrix sogar in vollstandiger Zeilenstufenform
mit r = k 1 vor und das Verfahren bricht ab.
Andernfalls sei jk = minfj j 9 i : k i m; aij 6= 0g. Da die Matrix bereits in (k 1)-
Zeilenstufenform vorliegt, gilt jk > jk 1 (= 0 fur k = 1). Sei l (eine naturliche Zahl, so
da k l m gilt und aljk 6= 0). aljk ist das k-te Pivotelement.
3. Indem wir die l-te mit der k-ten Zeile vertauschen (sowohl in A als auch, falls gegeben in
b bzw. b()), konnen wir erreichen, da akjk = k-tes Pivotelement 6= 0.
4. Hier ist akjk 6= 0. Setze p akj1k . Fur alle i mit k < i m fuhre man folgende elementare
Zeilenumformung durch: Multiplikation der k-ten Zeile mit p aijk und Addition des
Ergebnisses zu der i-ten Zeile. Genauer gesagt:
(a) Setze q paijk .
(b) Fur jk j n setze aij aij qakj .
5. A ist nun in k-Zeilenstufenform. Wenn k = m gilt, sind wir fertig. Andernfalls setzen wir
k k + 1 und gehen zu Schritt 2 zuruck.
37
Beispiel 4: 0 1 1 2 1 011
@ 30 30 63 A x = @ 1 A
14 16 37 1
(1) k 1
(2) l 1; jk 1 Das Pivotelement ist a11 = 1
(3) bewirkt
0 1 1 weiter1 nichts,
0 denn 1k = l.
2 1
(4) @ 0 0 3 A x = @ 29 A (5) k 2, zuruck zu 2
0 2 6 13
(2) j2 2; l 3
(3) Vertausche die 2. und 3. Zeile.
01 1 21 0 1 1
@ 0 2 3 A x = @ 13 A
0 0 3 29
(4) In diesem Fall mu nur noch die dritte Zeile durch Subtrahieren des 0-fachen der 2. Zeile
korrigiert werden, was uber
ussig ist. Die Matrix ist in Zeilenstufenform und der Algorithmus
bricht ab.
Bemerkung:
Da fur Zeilenstufenmatrizen Zeilen- und Stufenrang ubereinstimmen und elementare Zei-
lentransformationen beide Range nicht andern, haben wir auch einen neuen Beweis dafur
gefunden, da Zeilenrang = Stufenrang.
Bestimmung des Ranges einer Matrix:
U berfuhren in Zeilenstufenform mittels elementarer Zeilentransformationen. Ablesen des
Ranges der dabei erhaltenen Zeilenstufenmatrix.
Au
osung linearer Gleichungssysteme:
U berfuhrung in Zeilenstufenform, Anwendung des in Fakt 2 beschriebenen Verfahrens auf
das umgeformte System.
Bestimmung der inversen Matrix:
Durch Au
osung von Asi = ei . Die si bilden (falls sie existieren) die Spalten der inversen
Matrix A 1. Andernfalls ist die m m-Matrix A nicht invertierbar (vgl. Fakt 3).
Bestimmung einer Basis des Zeilenstufenraumes:
U berfuhrung der Matrix durch elementare Zeilentransformationen in Zeilenstufenform. Die
von 0 verschiedenen Zeilenvektoren des Ergebnisses bilden eine Basis des Zeilenraumes
(Fakt 4 und Fakt 1).
Bestimmung einer Basis des Spaltenraumes:
Bestimme eine Basis des Zeilenraumes der transponierten Matrix.
Fakt 5: Die U berfuhrung
3
einer m m Matrix in Zeilenstufenform nach dem beschriebenen
m
Algorithmus kostet 3 + O(m2 ) Multiplikationen und Subtraktionen. 2
Denition: Seien f; g : IN ! IR Funktionen. Man sagt, da f die Wachstumsordnung
O(g(n)) hat, falls eine Konstante c > 0 und ein n0 2 IN existieren mit
jf(n)j c g(n) fur alle n n0 :
38
Bemerkung 3: In der Praxis kommt es beim Umgang mit reellen Matrizen sehr auf die geschick-
te Wahl der Pivotelemente an. (vgl. Press, Flannery, Teukolsky, Vetterling: Numerical
Recipes | erhaltlich fur C, Fortran, Pascal).
39
j = (n). Falls j = n gilt, ist 2 Sn 1 . Andernfalls gilt (j; n) 2 Sn 1 . Nun betrachten wir
(j; n)2 = Id . Es gilt
= Id = (j; n)((j; n)) 2 (j; n)Sn 1
Damit ist () bewiesen. 2
Bemerkung: Es gilt (j; n)2 = Id und (j; n) = (n; j).
Denition: Fur 2 Sn sei
F = f(x; y) j x < y und (x) > (y)g
die Menge aller Fehlstande von , l() = jF j die Lange von und sign () = ( 1)l()
das Signum von . Man nennt gerade oder ungerade, je nachdem, ob sign () = 1
oder sign () = 1 gilt.
Bemerkung:
1. = Id genau dann, wenn l() = 0.
2. Es gilt
F(i;j ) = f(i; j)g[f
_ (i; k) j i < k < j g[f
_ (k; j) j i < k < j g
fur i < j. Die Vereinigung ist disjunkt, es folgt
l((i; j)) = 2(j i) 1 und sign ((i; j)) = 1:
Satz 1: Fur ; 2 Sn gilt: sign () = sign ()sign (), d.h. sign ist ein Gruppenhomorphis-
mus von Sn nach der multiplikativen Gruppe f1g.
Beweis: Fur 1 i < j n ist (i; j) genau dann ein Fehlstand von , wenn eine der beiden
folgenden Aussagen gilt:
1. (i; j) ist kein Fehlstand von , und ((i); (j)) ist ein Fehlstand von .
2. (i; j) ist ein Fehlstand von , und ((j); (i)) ist kein Fehlstand von .
Diese Moglichkeiten schlieen sich aus. Sei
N = f(i; j) j (i; j) 62 F ^ ((i); (j)) 2 F ) _ ((i; j) 2 F ^ ((j); (i)) 2 F )g:
Es gilt jN j = jF j = l(). Also haben wir erhalten
F = (F N) [ (N F ):
Dann folgt die Behautung aus folgendem
Lemma: Seine X und Y endliche Mengen, dann ist j(X Y ) [ (Y X)j jX j jY j gerade.
Es gilt
jF j jN j jFj = jF j jF j jFj = l() l() l()
ist gerade. Man erhalt
sign () = sign ()sign () ( 1)l() l() l() = sign ()sign (): 2
40
Beweis des Lemmas: Die Vereinigung (X Y ) [ (Y X) ist eine disjunkte Vereinigung, also
j(X Y ) [ (Y X)j = jX Y j + jY X j:
Es gilt jX Y j = jX j jX \ Y j, denn X = (X Y )[_ (X \ Y ). Ebenso gilt jY X j = jY j jX \ Y j.
Es folgt:
j(X Y ) [ (Y X)j = (jX j jX \ Y j) + (jY j jX \ Y j)
und damit:
j(X Y ) [ (Y X)j jX j jY j = 2jX \ Y j: 2
Folgerung 1: Wenn eine Permutation als Produkt von Transpositionen dargestellt ist, dann
ist die Anzahl der Faktoren in dieser Darstellung genau dann gerade, wenn gerade ist.
Beweis: Sei = 1 : : : k mit Transpositionen i , 1 i k, dann gilt sign (i ) = 1, also ist
sign() = sign (1 ) : : : sign (k ) = ( 1)k . Also ist k genau dann gerade, wenn sign () = 1. 2
Satz 2: Sei 2 Sn und 1 x < n und (x + 1) < (x). Dann gilt
l( (x; x + 1)) = l() 1:
Beweis: Seien
A = fy j y < x ^ (y) > (x)g
B = fy j y < x ^ (y) > (x + 1)g
C = fy j y > x + 1 ^ (y) < (x)g
D = fy j y > x + 1 ^ (y) < (x + 1)g
E = f(i; j) 2 F j i 62 fx; x + 1g ^ j 2= fx; x + 1gg
Dann gilt
F = E
|{z} B fx + 1g} [ |fxg C [ {z
[ |A fxg [ {z fx + 1g D} [ |f(x; x{z+ 1)g}
i;j 62M :=fx;x+1g i=2M ^j 2M i2M;j 2=M i;j 2M
Zwischenuberlegungen: Sei 1 i < j n.
1. Sei f(i; j)g \ f(x; x + 1)g = ;. Dann lat (x; x + 1) i und j fest, also gilt (i; j) 2 F(x;x+1).
2. Fur i 2= f(x; x + 1)g; j 2 f(x; x + 1)g gilt
(a) j = x: dann ( (x; x + 1))(x) = (x + 1). Also (i; x) 2 F(x;x+1) , i 2 B.
(b) j = x + 1: dann (i; x + 1) 2 F(x;x+1) , i 2 A.
3. Fur i 2 f(x; x + 1)g; j 2= f(x; x + 1)g gilt
(a) i = x: dann (x; j) 2 F(x;x+1) , j 2 D.
(b) i = x + 1: dann (x + 1; j) 2 F(x;x+1) , j 2 C.
4. Sei f(i; j)g = f(x; x + 1)g. Dann: (i; j) = (x; x + 1) 62 F(x;x+1) .
41
Damit folgt:
E [ |B fxg [ {z
F(x;x+1) = |{z} A fx + 1g} [ |fxg D [ {z
fx + 1g C}
1: 2: 3:
und
l() = jE j + jAj + jB j + jC j + jDj + 1 = 1 + jE j + jB j + jAj + jDj + jC j
= 1 + l( (x; x + 1))
2
Bemerkung: Wenn (x) < (x + 1), so gilt l( (x; x + 1)) = l() + 1. Dies zeigt man genauso
wie Satz 2 oder leitet es aus Satz 2 her (U bungsaufgabe).
Folgerung 2: Jede Permutation kann als Produkt von l() Transpositionen der Form (x; x+1)
geschrieben werden.
Beweis durch Induktion nach l(): Sei l() = 0. Dann ist = Id zu zeigen. Wegen l() = 0
folgt (a) < (b) fur 1 a < b n. Dann gilt (k) = k fur 1 k n: ware (1) 6= 1, so wurde
(1) > 1 folgen, also (a) (1) > 1 fur ein 1 a n, also 1 2= Bild () im Widerspruch zur
Bijektion von . Sei nun (1) = 1; : : :; (k 1) = k 1. Aus (k) 6= k wurde (k) > k und damit
(a) (k) > k fur ein k a n folgen, also k 2= Bild () Widerspruch. Also gilt (k) = k.
Die Behauptung sei fur Permutationen mit l() < l() bewiesen, und es gelte l() > 0. Dann
gibt es ein x mit 1 x < n und (x + 1) < (x). (Andernfalls wurde leicht F = ; folgen). Sei
= (x; x + 1). Nach Satz 2 gilt l() = l() 1, und ist nach Induktionsvoraussetzung ein
Produkt von l() 1 Transpositionen benachbarter Zahlen. Es folgt, da
= Id = (x; x + 1) (x; x + 1) = (x; x + 1)
ein Produkt von l() Transpositionen benachbarter Zahlen ist. 2
4.2 Charakteristik eines Korpers
Sei K ein Korper.
Denition 1: Fur ganze Zahlen n sei nK 2 K folgendermaen deniert:
0K = 0 (Nullelement der additiven Gruppe)
1K = 1 (Einselement der multiplikativen Gruppe)
(n + 1)K = nK + 1 fur n 0.
nK = ( n)K fur n < 0.
Bemerkung: nk = n 1K (Produkt der ganzen Zahl n mit dem Element 1 der additiven Gruppe)
nK = |1 + :{z: : + 1} 2 K, fur n > 0:
n Summanden
Lemma 1:
1. (n + m)K = nK + mK
2. (n m)K = nK mK
42
Beweis:
1. (wurde bereits fur beliebige additiv geschriebene Gruppen formuliert und begrundet, wir
wollen aber noch einen ordentlichen Induktionsbeweis anfuhren!)
Fall 1: n 0, m 0
Beweis durch Induktion nach m: Fur m = 0 ist die Behauptung klar:
(n + 0)K = nK = nK + 0 = nk + 0k
Induktionsschlu von m auf m + 1:
(n + (m + 1))K = (n + m)K + 1 Denition 1
= nK + mK + 1 Induktionsvoraussetzung
= nK + (m + 1)K Denition 1
Fall 2: n 0; m < 0:
(i) n 0; m < 0; n + m 0: Es gilt nK = ((n + m) + ( m))K = (n + m)K + ( m)K
nach Fall 1. Aus Denition 1 folgt daher
nK + mK = nK ( m)K = (n + m)K :
(ii) n 0; m < 0; n + m < 0: Dann gilt ( m) = ( (n + m)) + n, also ( m)K = ( (n +
m))K + nK nach Fall 1 und damit (n + m)K = ( (n + m))K = (( m)K nK ) =
nK ( m)K = nK + mK nach Denition 1.
Fall 3: n < 0; m > 0: Wie Fall 2, denn die Aussage ist in n und m symmetrisch.
Fall 4: n < 0; m < 0:
(n + m)K = (( n m)K ) Denition 1
= (( n)K + ( m)K ) Fall 1
= ( n)K ( m)K
= nK + mK Denition 1
2. Fall 1: m 0; n beliebig: Vollstandige Induktion nach m.
Fur m = 0 gilt (n 0)K = 0K = 0 = nK 0 = nK mK
Schlu von m auf m + 1:
nK (m + 1)K Def.1
= nK (mK + 1)
= nK mK + nK
IV
= (n m)K + nK
(1)
= (n m + n)K
= (n (m + 1))K
Fall 2: m < 0,n beliebig: Es gilt (mn)K + ( mn)K = 0K = 0 nach (1), also (mn)K =
= nK ( ( m)K ) = nK ( m)K Fall
( mn)K . nK mK Def.1 = 1 ( nm)K = (nm)K : 2
Lemma 2: Fur einen Korper K gibt es zwei Moglichkeiten
43
1. nK 6= 0 fur alle n 2 Z f0g;
2. andernfalls gibt es eine Primzahl p, so da nK = 0 genau dann gilt, wenn p n teilt.
Denition 2: Fur ganze Zahlen n sei nK 2 K. In der Situation von Lemma 2 sagen wir,
da
1. K Charakteristik 0 hat;
2. K Charakteristik p hat.
Beweis von Lemma 2: Angenommen, Fall (1) trit nicht zu. Dann gibt es n 2 Z f0g mit
nK = 0. Dann gilt auch ( n)K = 0, also konnen wir n > 0 voraussetzen. Sei p die kleinste
positive ganze Zahl mit pK = 0.
Behauptung:
1. p ist Primzahl;
2. nK = 0 genau dann, wenn p j n.
Aus (1) und (2) folgt, da Fall (2) von Lemma 2 eintritt.
zu 1. Wenn p keine Primzahl ist, so gibt es a; b 2 Z, a > 1; b > 1; p = a b. Wegen a < p und
b < p gilt aK 6= 0 und bK 6= 0 nach der Auswahl von p. Weil K f0g multiplikativ abgeschlossen
ist, folgt 0 6= aK bK = (a b)K = pK im Widerspruch zur Auswahl von p.
zu 2. Sei n 2 Z. Dividiere n mit Rest durch p: n = a p + r, a; r 2 Z, 0 r < p. Nach Lemma 1
gilt
nK = aK pK + rK = rK :
Weil p die kleinste positive ganze Zahl mit pK = 0 ist, verschwindet dieses Korperelement genau
dann, wenn r = 0 gilt, d.h., wenn n durch p teilbar ist. 2
Beispiel: char (Q) = char (IR) = char (C) = 0. char (IFp ) = p, denn
pK = |1K + :{z: : + 1K}
p Summanden
= |1 + pZ + :{z: : + 1 + pZ}
p Summanden
= p+pZ
= pZ
= 0K :
Bemerkung: Wenn K ein Korper und p eine Primzahl mit pK = 0 ist, so hat K die Charakte-
ristik p, denn p ist die einzige Primzahl, welche p teilt.
Die Bezeichnungsweise nK wird normalerweise nicht verwendet.
Denition 3: Sei char (K) = p, x 2 K, und r = nz 2 Q, wobei z und n teilerfremd sind
und n nicht durch p teilbar ist (Fur p = 0 bedeutet dies nur n 6= 0). Deniere
r x = zKn x :
K
45
Fur alle n ist die Abbildung
K K :::K ! K
(x1 ; : : :; xn) 7! x1 : : : xn
eine n-Linearform auf K.
linear entspricht 1-linear.
Sei f 2 L(V1 ; : : :; Vn; W) und sei 2 Sn , dann ist die folgende Abbildung g ein Element
von L(V(1) ; : : :; V(n) ; W);
g(y1 ; : : :; yn) = f(y 1 (1) ; : : :; y 1 (n) ):
Zum Beispiel fur f 2 L(V1 ; V2; W) ist g mit g(y1 ; y2) = f(y2 ; y1) ein Element von L(V2 ; V1 ; W ).
Fur jeden Vektorraum V ist die Abbildung
f :KV ! V
(; v) 7! v
bilinear.
Sei f eine k-Linearform und g eine l-Linearform auf V , dann ist durch
V V :::V ! K
(v1 ; : : :; vk+l ) 7! f(v1 ; : : :; vk ) g(vk+j ; : : :; vk+1)
eine k + l-Linearform deniert.
Wenn f 2 L(V1 ; : : :; Vn ; W) und g 2 L(W; W), ~ so ist g f 2 L(V1 ; : : :; Vn ; W):
~
Wenn f 2 L(V1 ; : : :; Vn ; W) und hi 2 L(V~i ; Vi ), so ist
f(h1 : : : hn ) : V~1 : : : V~n ! W
(~v1 ; : : :; v~n) 7! f(h1 (v1 ); : : :; hn(vn ))
n-linear.
Sei f 2 L(V1 ; : : :; Vn; W) und sei fur 1 i n hi 2 L(Ui;1 ; : : :; Ui;mi ; Vi ), dann ist die
Abbildung
f(h1 : : : hn) : L(U1;1 : : : U1;m1 : : : Un;1 : : : Un;mn ) ! W
Uij 7! f(h1 (u1;1; : : :; u1;m1 ); : : :; hn(un;1; : : :; u1;mn ))
m1 + : : : + mn -linear. Zum Beispiel ist fur die Bilinearform f auf V und eine bilineare
Abbildung g : V V ! V die Abbildung h : V V V ! K, h(v1 ; v2; v3) = f(v1 ; g(v2; v3))
eine Trilinearform auf V .
Sei f : V1 : : : Vn ! W (n 1)-linear und sei vn 2 Vn . Dann ist
V1 : : : Vn 1 ! W
(v1 ; : : :; vn 1) 7! f(v1 ; : : :; vn 1; vn) n-linear
46
Lemma 1: Fur einen Vektorraum V und eine n-lineare Abbildung l : V : : : V ! W sei
G = f 2 Sn j 8 x1; : : :; xn 2 V : l(x(1) ; : : :; x(n)) = sign() l(x1; : : :; xn)g
Dann ist G eine Untergruppe von Sn . Deshalb sind folgende Aussagen uber l aquivalent:
1. G = Sn : l multipliziert sich bei Vertauschung seiner Argumente mit dem Vorzeichen der
Permutation.
2. G enthalt alle Transpositionen: l multipliziert sich mit 1 bei Vertauschung zweier Argu-
mente.
3. G enthalt (i; i + 1) fur 1 i < n: l multipliziert sich mit 1 bei Vertauschung zweier
benachbarter Argumente
Beweis: G ist eine Untergruppe:
Id 2 G, denn sign (Id ) = 1.
; 2 G ) 2 G : Sei yi = x(i) . Dann gilt x(i) = y(i) . Also
f(x()(1) ; : : :; x()(n) ) = f(y(1) ; : : :; y(n) )
2G
= sign ()f(y1 ; : : :; yn)
= sign ()f(x(1) ; : : :; x(n))
=2G sign () sign ()f(x1 ; : : :; xn)
Satz=4.1.1 sign ()f(x ; : : :; x )
1 n
Also 2 G.
2 G ) 1 2 G: Fur x1; : : :; xn 2 V sei yi = x 1 (i). Dann gilt:
f(x1 ; : : :; xn) = f(y(1) ; : : :; y(n) )
2G sign ()f(y ; : : :; y )
=
1 n
= sign ()f(x 1 (1) ; : : :; x 1 (n))
) f(x 1 (1) ; : : :; x 1 (n)) = sign ( 1 )f(x1 ; : : :; xn):
Also 1 2 G, damit ist G eine Untergruppe.
(1))(2))(3) ist klar. Angenommen (3) gilt. Dann (i; i + 1) 2 G fur 1 i < n. Nach Folgerung
4.1.2 ist aber jedes Element von Sn Produkt solcher Transpositionen, also 2 G, damit gilt
(1). 2
Bemerkung: Wenn K ein Korper der Charakteristik 2 ist, so gilt 1 = 1 in K. In solchen
Korpern durfen wir aus x = x noch nicht x = 0 folgern, denn x = x gilt fur alle x aus einem
K-Vektorraum. Sei char (K) 6= 2, V ein K-Vektorraum, x 2 V und x = x. Dann gilt nach 4.2:
x = 21 2x = 12 (x + ( x)) = 21 0 = 0 ) x = 0
Lemma 2: Sei f wie l in Lemma 1. Dann sind folgende Aussagen aquivalent:
1. f(x1 ; : : :; xn) = 0, falls ein i mit 1 i < n und xi+1 = xi existiert;
47
2. f(x1 ; : : :; xn) = 0, falls i; j mit 1 i < j < n und xi = xj existieren.
Wenn das der Fall ist, so gilt G = Sn in Lemma 1. Wenn char (K) 6= 2 gilt, so sind (1) und (2)
zu G = Sn , d.h. zu jedem der Punkte (1),(2),(3) in Lemma 1 aquivalent.
Beweis:
(2))(1) ist klar.
(1)) G = Sn : Wir werden (3) aus Lemma 1 beweisen: sei n = 2. Aus (1) folgt:
0 = f(x1 + x2; x1 + x2) f(x1 ; x1) f(x2 ; x2)
= f(x1 ; x1 + x2) + f(x2 ; x1 + x2) f(x1 ; x1) f(x2 ; x2)
= f(x1 ; x1) + f(x1 ; x2) + f(x2 ; x1) + f(x2 ; x2) f(x1 ; x1) f(x2 ; x2)
= f(x1 ; x2) + f(x2 ; x1)
Also f(x1 ; x2) = f(x2 ; x1).
Sei n > 2, 1 i < n und x1; : : :; xn 2 V . Wir haben
f(x1 ; : : :; xn) = f(x1 ; : : :; xi 1; xi+1; xi; xi+2; : : :; xn)
zu zeigen. Sei g(x; y) = f(x1 ; : : :; xi 1; x; y; xi+2; : : :; xn). Dann ist g bilinear und erfullt
(1), also g(xi ; xi+1) = g(xi+1 ; xi) nach dem bewiesenen Fall n = 2, also erfullt f (3) aus
Lemma 1.
(1))(2): Wir wissen G = Sn . Sei 1 i < j n und sei xi = xj . Sei 2 Sn wie folgt
deniert: 8 k 1 k i_j < k 1
<
(k) = : j k = i+1
k 1 i+1< k j
Sei yi = x(i). Dann gilt yi = yi+1 , also gilt
f(x1 ; : : :; xn) G==Sn sign ()f(y1 ; : : :; yn ) (1)
= 0:
G = Sn und char (K) 6= 2 )(1): Es gilt wegen G = Sn
a := f(x1 ; : : :; xn) = f(x1 ; : : :; xi 1; xi+1; xi; xi+2; : : :; xn):
Falls xi = xi+1 sein sollte, so gilt
a = f(x1 ; : : :; xi 1; xi+1; xi; xi+2; : : :; xn)
= f(x1 ; : : :; xi 1; xi; xi+1; xi+2; : : :; xn) = a
48
2. Wenn die x1; : : :; xn linear abhangig sein sollten, so gilt f(x1 ; : : :; xn) = 0).
Beweis:
1.
f(x1 ; : : :; xi + xj ; xi+1; : : :; xn) = f(x1 ; : : :; xn) + f (x
| 1; : : :; xi 1; x{zj ; xi+1; : : :; xn})
=0; da j doppelt
= f(x1 ; : : :; xn)
P
2. Wegen G = Sn konnen wir o.B.d.A. annehmen, da xn = in=11 i xi. Also gilt:
nX1
f(x1 ; : : :; xn) = f(x1 ; : : :; xn 1; i xi )
i=1
nX1
= i f (x
| 1; : : :;{zxn 1; xi}) = 0:
i=1 xi doppelt
49
(n 1)-lineare Abbildungen bewiesen. Dann gilt:
X
m X
m m X
X n X
m
f( v1;j ; : : :; vn;i) = f( v1;j ; : : :; vn 1;j ; vn;i)
j =1 i=1 i=1 j =1 j =1
Xm X
= f(v1; (1) ; : : :; vn 1; (n 1); vn;j )
j =1 2L0
Xm X
= f(v1;(1) ; : : :; vn 1;(n 1); vn;(n)):
j =1 2L
Dabei ist L0 = f1; : : :; mgf1;:::;n 1g. Durch L ! L0 f1; : : :; mg, 7! ( ; i) mit = jf1;:::;n 1g
und i = (n) ist eine Bijektion deniert, daher die Gleichheit der beiden letzten Zeilen. 2
P
Beweis von Lemma 1: Sei vi = nj=1 ij bj . Aus Fakt 1 folgt
X
d(v1 ; : : :; vn) = 1;(1) : : : n;(n) d(b(1); : : :; b(n));
2L
wobei L die Menge aller Abbildungen von f1; : : :; ng nach f1; : : :; ng ist. Wenn 2 L nicht
bijektiv ist, so gibt es 1 i < j n mit (i) = (j), also taucht in d(b(1); : : :; b(n)) wenigstens
ein Argument doppelt auf, und d(b(1); : : :; b(n)) = 0. Es folgt
X
d(v1; : : :; vn) = 1;(1) : : : n;(n) d(b(1); : : :; b(n))
2Sn
X
= 1;(1) : : : n;(n) sign ()d(b1; : : :; bn);
2Sn
nach den Resultaten aus 4.3. 2
Folgerung 1: Fur einen n-dimensionalen Vektorraum V sei D(V ) der Raum aller schief-
symmetrischen n-Linearformen auf V . Dann ist D(V ) hochstens eindimensional. Wenn also
d 2 D(V ) f0g ist, so ist jedes d~ 2 D(V ) zu d proportional.
Beweis: In der Tat, fur d 2 D(V ) f0g und d~ 2 D(V ) sei d0 = d~ dd~((bb11;:::;b n)
;:::;bn ) d. Dann gilt
d0(b1; : : :; bn) = 0, also d0 = 0, also ist d~ zu d proportional. Wir wollen zeigen, da die Dimension
von D(V ) auch genau eins ist. Sei dB durch
X
dB (v1 ; : : :; vn) = sign()1;(1) : : : n;(n) (1)
2Sn
P
fur vi = nj=1 ij bj deniert. Dann ist dB eine n-Linearform. Angenommen, vi = vi+1 . Sei M
die Menge aller 2 Sn mit (i) < (i + 1). Dann kann jedes Element von Sn als oder als
(i; i + 1) geschrieben werden, wobei 2 M ist. Also kann (1) zu
X
dB (v1; : : :; vn) = sign ( ) 1; (1) : : : i; (i) i+1; (i+1) : : : n; (n)
2M | {z }
Beitrag von zu (1)
1; (1) : : : i; (i+1) : : : i+1; (i) : : : n; (n) ) = 0
| {z }
Beitrag von (i; i + 1) zu (1)
umgeschrieben werden, denn i; (i) = i+1; (i) und i+1; (i+1) = i; (i+1) , also
i; (i) i+1; (i+1) = i; (i+1) i+1; (i) :
50
Damit dB 2 D(V ).
Behauptung: dB (b1; : : :; bn) = 1. Es folgt dB 2 D(V ) f0g und D(V ) 6= f0g. In der Tat, fur
vi = bi gilt ij = ij und (1) ergibt
X
dB (b1; : : :; bn) = sign () i;(1) : : : i;(n) = 1;
2Sn | {z }
=0 fur 6=Id
denn fur 6= Id gibt es j mit (j) 6= j, 1 j n. 2
Theorem 1:
1. D(V ) ist eindimensional
2. Fur jeden Endomorphismus f von V gibt es genau ein det(f) 2 K mit f (d) =
det(f) d fur alle d 2 D(V ).
Beweis: (1) wurde soeben bewiesen. (2) folgt aus dem folgenden einfachen
Fakt: Sei g ein Endomorphismus eines eindimensionalen Vektorraumes D. Dann gibt es genau
ein y 2 K mit g(d) = yd fur alle d 2 D. 2
Folgerung 2:
1. det(fg) = det(f) det(g) fur f; g 2 End(V ).
2. det(f) = n det(f), n = dim(V ).
3. det(0) = 0; det(IdV ) = 1.
4. Sei a : V ! W ein Isomorphismus und f 2 End(V ), dann gilt det(afa 1 ) = det(f):
Beweis:
1. Fur d 2 D(V ) gilt:
(fg) d Fakt=4.3.3 g (f (d)) = det(g)f (d) = det(g) det(f)d:
Also det(fg) = det(f) det(g) nach der Eindeutigkeitsaussage in Theorem 1.
2. Zusammen mit dem nachsten Punkt.
3. Es genugt nach (1), det(Id V ) = n zu zeigen.
(((IdV ) d)(v1 ; : : :; vn ) Def=4.3.3 d(((IdV )(v1 ); : : :; ((IdV )(vn ))
= d(v1 ; : : :; vn)
= n d(v1 ; : : :; vn):
51
4. Sei d 2 D(W): Es gilt
(afa 1 ) (d) = (a 1 ) (f a (d))
= (a 1 ) (det(f)a (d)))
= det(f)((a ) 1 )a (d))
= det(f)d;
wobei wir Fakt 4.3.3 verwendet haben. 2
Satz 1: Sei d 2 D(V ) f0g. Dann sind n Vektoren v1; : : :; vn 2 V genau dann linear
abhangig, wenn d(v1 ; : : :; vn) = 0 gilt.
Beweis: Wenn die vi linear unabhangig sind, so ist C = (v1 ; : : :; vn) eine geordnete Basis von
V . Wegen Lemma 1 ( angewendet auf C statt B) wurde aus d(v1 ; : : :; vn) = 0 d = 0 folgen, was
nicht sein sollte. Wenn die vi linear abhangig sind, so folgt d(v1 ; : : :; vn) = 0 aus Fakt 4.3.2.
Folgerung 3: (Aus Theorem 1 und Satz 1)
1. Sei d 2 D(V ) f0g, dann gilt
det(f) = d(f(b1 ); : : :; f(bn ))
d(b1; : : :; bn) :
2. Insbesondere: det(f) = dB (f(b1 ); : : :; f(bn )).
3. f 2 End (V ) ist genau dann ein Automorphismus, wenn det(f) 6= 0 gilt. In diesem Fall gilt
det(f 1 ) = det(f) 1 .
Beweis:
1. d(f(b1 ); : : :; f(bn )) = (f d)(b1; : : :; bn) = det(f)d(b1 ; : : :; bn):
2. Wende (1) auf dB an und beachte dB (b1; : : :; bn) = 1:
3. f ist Automorphismus , f(b1 ); : : :; f(bn ) linear unabhangig , dB (f(b1 ); : : :; f(bn)) 6= 0.
Die Gleichheit det(f 1 ) = det(f) 1 folgt aus Folgerung 2. 2
4.5 Determinanten von Matrizen
Denition 1: Sei A = (aij )ni;j=1 2 Mat (n; n; K) und sei A : K n ! K n der in 3.1 denierte
Operator. Wir setzen det(A) = det(A) und schreiben auch
a a a
11 12 1n 0 a a 1
.
a21 a22 . := det B 11.. . . 1..n C :
.
.. . . . ... @ . . . A
. an1 ann
an1 ann
52
3. det(0) = 0;
4. det(1n ) = 1.
Auerdem ist A invertierbar genau dann, wenn det(A) 6= 0. In diesem Fall gilt, da det(A 1 ) =
det(A) 1
Beweis: Die Behauptungen folgen aus Folgerung 4.4.2 und 4.4.3 und den in 3.1. erklarten
Zusammenhangen zwischen Matrizen und linearen Abbildungen. 2
Satz 1: (Leibnizsche Determinantenformel)
X
det((aij )ni;j =1 ) = sign() a1;(1) a2;(2) : : : an;(n)
2Sn
X
= sign () a(1);1 a(2);2 : : : a(n);n
2Sn
Beweis: Sei ei = (ij )nj=1. Damit folgt mit Folgerung 4.4.3 und A ej = Pni=1 aij ej
det(A) = d(e1;:::;en ) (Ae1 ; : : :; Aen)
X
n X
n !
= d(e1;:::;en ) ai1 ei ; : : :;ainei
i=1 i=1
X
= sign() a(1);1 a(2);2 : : : a(n);n
2Sn
mit Gleichung 4.4.1. Wenn wir = 1 einsetzen, so gilt sign () = sign (), und der letzte
Ausdruck wird zu
X
sign () a 1 (1);1 a 1 (2);2 : : : a 1 (n);n
2Sn
X
= sign () a1;(1) a2;(2) : : : an;(n)
2Sn
2
Folgerung 2: det(AT ) = det(A)
Beweis: Sei A = (aij )ni;j=1 und AT = (aTij ). Es gilt aTij = aji.
X
det(AT ) = sign() aT1;(1) aT2;(2) : : : aTn;(n)
2Sn
X
= sign() a(1);1 a(2);2 : : : a(n);n
2 Sn
= det(A)
2
Beispiel: Fur n = 2 gilt S2 = fId ; (1; 2)g, wobei sign (Id ) = 1 und sign ((1; 2)) = 1. Die rechte
Seite der Leibnizschen Determinantenformel wird zu
a| 11{za22} |a12{za21} oder det ac db = ac db = ad bc:
=Id =(1;2)
53
Fur n = 3 gilt die Regel von Sarrus: Schreibe die beiden ersten Spalten hinter die Matrix.
Bilde die Summe der drei Diagonalen von links oben nach rechts unten und subtrahiere von
dieser die Summe der drei Diagonalen von links unten nach rechts oben.
0a a12 a13 a11 a12
1
11
BB & &
% &
% % CC
BB a21 a22 a23 a21 a22 CCA
@ % %
& %
& &
a31 a32 a33 a31 a32
det(A) = a12a22a33 + a12a23a31 + a13a21 a32 a31 a22a13 a32 a13a11 a33a21a12:
Fur allgemeines n hat die Leibnizformel n! Summanden, jeder Summand hat n Faktoren, man
braucht also n!(n 1) Multiplikationen. Fur groe n wird die Formel daher schnell unpraktikabel.
Denition 2: Mat z (v1 ; : : :; vm) ist die Matrix mit den Zeilenvektoren vi:
0 v11 v1n
1
Mat z ((v11; : : :; v1n); : : :; (vm1 ; : : :; vmn )) = B
@ .. . . . ..
. .
CA :
vm1 vmn
Fur w1; : : :; wn 2 K m sei Mat s (w1; : : :; wn) die Matrix mit den Spaltenvektoren wi :
Mat s (w1 ; : : :; wn) = Mat z (w1; : : :; wn)T :
Satz 2: det(Mat s(v1 ; : : :; vn)) = det(Mat z (v1; : : :; vn)) ist eine schiefsymmetrische n-
Linearform in den Argumenten vi 2 K n .
Beweis: Es gilt nach Folgerung 4.4.3:
det(Mat s(v1 ; : : :; vn)) = d(e1;:::;en ) (Mat s(v1 ; : : :; vn) e1 ; : : :; Mat s(v1 ; : : :; vn) en )
= d(e1;:::;en ) (v1 ; : : :; vn )
denn Mat s (v1 ; : : :; vn )ei = vi . Wegen Folgerung 2 und Mat z (v1 ; : : :; vn) = Mat s (v1; : : :; vn)T
berechnet dieser Ausdruck auch die Determinante von Mat z (v1 ; : : :; vn). Weil d(e1;:::;en ) eine
schiefsymmetrische n-Linearform ist, folgt die Behauptung. 2
Folgerung 3: Die Determinate einer Matrix
1. andert sich nicht, wenn man ein Vielfaches einer Zeile zu einer anderen Zeile addiert.
2. multipliziert sich mit , wenn man eine Zeile mit multipliziert.
3. multipliziert sich mit 1, wenn man zwei Zeilen vertauscht.
Analoges gilt fur die entsprechenden Spaltenumformungen. 2
54
Denition 3:
1. Fur ein n-Tupel x = (x1; : : :; xn) und 1 k n sei
Min k (x1; : : :; xk ) = (x ; : : :; x^k ; : : :; xn)
8 1(x
< 2; : : :; xn) k=1
:= : (x1 ; : : :; xk 1; xk+1; : : :; xn) 1 < k < n
(x1 ; : : :; xn 1) k=n
das durch Streichen des k-ten Elements entstehende (n 1)-Tupel.
2. Fur eine m n-Matrix A = Mat z (a1; : : :; am ) und 1 i m, 1 j n, sei
Min ij (A) = Mat z (Min j (a1 ); : : :; Mind
j (ai ); : : :; Min j (am ))
die durch Streichen der i-ten Zeile und der j-ten Spalte entstehende Matrix.
Oenbar sind die Abbildungen Min i : K n ! K n 1 und Min ij : Mat (m; n; K) ! Mat (n
1; m 1; K) linear.
Satz 3: (Laplace) Fur jede n n-Matrix A = (aij )ni;j=1 und 1 k n gelten die Entwick-
lungen nach der k-ten Zeile
X
n
det(A) = ( 1)k+i aki det(Min ki(A)) (1)
i=1
und die Entwicklung nach der k-ten Spalte
X
n
det(A) = ( 1)k+i aik det(Min ik (A)): (2)
i=1
Beispiel:
3 2 1
1 1 2 = 3 1 2 2 1 2 + 1 1 = 1 2 = 1
1 1 3 1 3 1 3 1 1 1 3
Beweis von Satz 3: Die Entwicklung nach einer Spalte bekommt man durch Anwendung der
Zeilenentwicklung auf die transponierte Matrix (Folgerung 2). Es genugt also, (1) zu beweisen.
Wir xieren dazu k und bezeichnen die rechte Seite von (1) mit RS(A). Fur x = (x1; : : :; xn) 2
K n sei (K n ) 3 li (x) = xi.
1. Wir behaupten, da
RS(Mat s (v1 ; : : :; vn)) ()
eine n-Linearform in v1 ; : : :; vn 2 K ist. In der Tat, fur 1 i n ist die i-te Summe in
n
(1) fur A = Mat s (v1 ; : : :; vn) durch
RSi (v1 ; : : :; vn) = ( 1)k+i lk (vi ) det(Mat s (Min k (v1 ); : : :; Mind
k (vi ); : : :; Min k (vn ))
55
gegeben. Dann ist RSi eine n-Linearform in v1; : : :; vn, denn det(Mat s(x1 ; : : :; x^k; : : :;
xn )) ist (n 1)-linear und Min k ist linear, also ist det(Mat s(Min k (v1 ); : : :; Mind k (vi );
: : :; Min k (vn )) eine (n 1)-Linearform auf K n , und die Abbildungen K K ! K,
(x; y) 7! xy sind bilinear. NachPBeispiel 4.3.1 ist daher RSi (v1 ; : : :; vn) n-linear, und
daher ist RS(Mat s (v1 ; : : :; vn)) = ni=1 RSi(v1 ; : : :; vn) n-linear.
2. () ist eine schiefsymmetrische n-Linearform auf K n : Das ist aquivalent dazu, da RS(A)
verschwindet, wenn in A zwei benachbarte Spalten ubereinstimmen, etwa die l-te und die
(l + 1)-te fur 1 l < n (Lemma 4.3.2). Dann stimmen fur i 62 fl; l + 1g auch in Min ki(A)
zwei Spalten uberein, namlich die l-te und die (l + 1)-te fur i > l + 1 und die l-te und die
(l 1)-te fur i < l. Daher gilt 8 i 6= fl; l + 1g : det(Min ki(A)) = 0 und wir erhalten
RS(A) = ( 1)k+l (akl det(Min kl (A)) ak;l+1 det(Min k;l+1 (A))): (y)
Aus unseren Vorraussetzungen an A folgt aber akl = ak;l+1 und Min kl (A) =
Min k;l+1 (A), also verschwindet (y) und die Behauptung aus Schritt 2 ist bewiesen.
3. Aus Schritt 2 und Theorem 4.4.1 folgt die Existenz eines c 2 K mit
RS(A) = c det(A) fur alle n n-MatrizenA:
Wir haben noch c = 1 zu zeigen. Dazu genugt es, RS(1n ) = 1 zu zeigen. Da 1n = (ij )ni;j =1
gilt, ergibt sich
X
n
RS(1n) = ( 1)k+i ki det(Min ki(1n))
i=1
= ( 1)k+k k;k det(Min k;k(1n ))
= 1 1 det(1n 1) = 1
2
Fakt 1: Sei A = (aij )ni;j=1 eine obere Dreiecksmatrix, d.h. aij = 0 fur alle j < i. Dann ist det(A)
das Produkt der Diagonalelemente, det(A) = a11 : : : ann.
Beweis: Entwicklung nach der ersten Spalte ergibt
a a : : : a a : : :
011 a12 022 a23
22 33
0 0 . . . = a11 0 0 . . . = = a11 : : : ann: 2
.. ...
... ...
.
Bemerkung: Insbesondere kann die Determinante einer Zeilenstufenmatrix (vgl. Abschnitt 3.2)
nach dieser Vorschrift berechnet werden. Von den in 3.2 benutzten Zeilenumformungen andert die
Addition des Vielfachen einer Zeile zu einer anderen die Determinante nicht (Folgerung 3), und
die Vertauschung zweier Zeilen andert nur das Vorzeichen. Daher erhalt man folgende Vorschrift
zur Berechnung von det A:
1. Bringe A durch Anwendung des in 3.2 beschriebenen Eliminationsverfahrens in Zeilenstu-
fenform. Sei A~ das Ergebnis, und sei l die Anzahl der Zeilenvertauschungen, die dabei
benotigt wurden.
56
2. Es gilt dann mit A~ = (~aij )ni;j =1
~ = ( 1)l a~11 : : : ~ann:
det(A) = ( 1)l det(A)
Dieser Algorithmus kostet n33 + O(n2) Multiplikationen. (Zum Vergleich die Kosten fur die An-
wendung der Leibniz-Formel: (n 1) n!).
Vom rechnerischen Standpunkt aus betrachtet ist die Berechnung einer Determinante durch wie-
derholte Anwendung des Entwicklungssatzes nur eine klugere Organisation der Berechnung der
Produkte, die in der Leibniz-Formel auftauchen.
Satz 4: (Vandermondsche Determinante) Fur 1 ; : : :; n 2 K gilt
1 :::
1
::: n
12 ::: 2n = Y (j i ):
.1 .. 1i<j n
.. .
1n 1 : : : nn 1
Beweis: Sei zi = (i1 1; : : :; in 1) fur 1 i n und A = Mat z (z1; : : :; zn). Sei z~1 = z1 und
z~i = zi 1 zi 1 fur 1 < i n. Sei A~ = Mat z (~z1 ; : : :; z~n ). Zu zeigen: det(A) = det(A).
~
Entwicklung von A~ nach der ersten Spalte ergibt
~ = (2 1) : : : (n 1 )
det(A)
(Siehe auch U bungsaufgaben). 2
Beispiel:
5 4 3 2 1
1 1
1 1 1
1 1
1
1
2
1
3
1
4
= (5 4) 1 2 3 4
1 1 4 9 16
1 49 16
1 1 8 27 64
1 827 64
= 1 (4 3)(4 2)(4 1)(3 2)(3 1)(2 1)
= 12
Denition 4: Die Adjunkte Adj(A) einer n n-Matrix A ist die Matrix Adj (A) =
(adj ij (A))ni;j =1 mit
adj ij (A) = ( 1)i+j det(Min ji(A)):
57
Beispiel: Fur n = 2 gilt:
a b1 1
d b
c d = ad bc c a
Beweis von Satz 5: Wir zeigen A Adj (A) = (
i;j )ni;j=1 = (ij det A)ni;j=1 mit
X
n
ij = aik adj kj (A) ()
k=1
mit A = (aij )ni;j =1 . Dazu xieren wir i und j. Sei B die Matrix, die aus A durch Ersetzen der
j-ten durch die i-te Zeile entsteht. Fur i 6= j stimmen die i-te und die j-te Zeile von B uberein,
also det(B) = 0. Es folgt in beiden Fallen:
det(B) = det(A) ij : (y)
Sei B = (bkl )nk;l=1 . Dann gilt bjk = aik und Min jk (B) = Min jk(A) fur 1 k n. Entwicklung
von det(B) nach der j-ten Zeile gibt also:
ij det(A) (=y) det(B)
Satz X
n
=3 ( 1)j +k bjk det(Min jk (B))
k=1
X
n
= aik ( 1)j +k det(Min jk (A))
k=1
X
n
= aik adj kj (A) (=)
ij
k=1
Also A Adj(A) = det(A) 1n. Die Gleichung Adj (A) A = det(A) 1n zeigt man entweder analog
durch Anwendung derselben Betrachtungen auf Spalten statt Zeilen, oder durch Anwendung von
AT Adj (AT ) = det(AT )1n, denn Adj (A)T = Adj(AT ) und det(A) = det(AT ). Die Formel fur
A 1 folgt unmittelbar. 2
Bemerkung: Sei A 2 Mat (m; m; K). Sei 1 k min(m; n). Ein k k-Minor von A ist eine
k k-Matrix B, die aus A durch Streichung von (m k) Zeilen und (n k) Spalten entsteht. Sei
fk j 9 k k-Minor B von A mit det(B) 6= 0g fur A 6= 0
r = max0 sonst :
Dann stimmt r mit dem Rang von A uberein.
4.6 Orientierungen von reellen Vektorraumen
Denition 1: Sei X eine Menge. Eine Relation auf X ist eine Untermenge R X X.
Wir sagen, da x 2 X in der Relation R zu y 2 X steht, und schreiben xRy, falls (x; y) 2 R.
R ist
1. re
exiv, falls aus x 2 X xRx folgt.
2. symmetrisch, falls aus x; y 2 X und xRy auch yRx folgt.
3. transitiv, falls aus x; y; z 2 X und xRy und yRz auch xRz folgt.
quivalenzrelation, falls R re
exiv, transitiv und symmetrisch ist.
R ist eine A
58
Fakt: Sei A quivalenzrelation auf X. Eine Aquivalenzklasse bezuglich ist eine nichtleere
Untermenge Y von X mit folgenden Eigenschaften:
1. Aus x; y 2 Y folgt x y.
2. Aus y 2 Y und x 2 X und x y folgt x 2 Y .
Sei X= die Menge aller Aquivalenzklassen bezuglich . Dann ist X disjunkte Vereinigung aller
Aquivalenzklassen: [
X= Y: ()
Y 2X=
Beweis: Disjunktheit: Seien Y und Y~ zwei A quivalenzklassen bezuglich . Angenommen, Y \
Y~ =
6 ; , etwa y 2 Y \ Y~ . Fur x 2 X gilt dann
x 2 Y , x y , x 2 Y~ ;
also Y = Y~ und die Vereinigung () ist disjunkt.
Sei weiterhin x 2 X, Y = fy 2 X jx yg. Dann ist Y A quivalenzklasse:
Sei y; z 2 Y . Dann gilt x y und x z nach Denition von Y , also y x (Symmetrie),
also auch y z (Transitivitat).
Sei y 2 Y und y z. Dann gilt x y (Denition von Y ), also auch x z (Transitivitat),
damit z 2 Y .
Wegen x 2 Y (Re
exivitat) gilt Y = 6 ;, also Y 2 X= . Also x 2 Y SZ 2X= Z. 2
Beispiel: Sei X 2 Z. Fur eine naturliche Zahl N betrachten wir die Relation x y genau
dann, wenn x ymod N, d.h., falls N j x y. Man pruft leicht nach, da es sich um eine
A quivalenzrelation handelt. Die A quivalenzklassen sind die Restklassen modulo N, sie bilden
die Menge Z=NZ. Wenn N = P eine Primzahl ist, ist Z=pZ = IFp .
Denition 2: Sei V ein n-dimensionsionaler reeller Vektorraum. Eine Halbachse in V ist
eine A quivalenzklasse bezuglich der folgenden A quivalenzrelation auf V f0g:
x y :, 9 t 2 IR : t > 0 ^ x = t y
Fakt:
1. ist in der Tat eine A quivalenzrelation.
2. Gilt n = 1, so hat die Menge (V f0g)= genau zwei Elemente. Fur v 2 V f0g sind
dies die beiden A quivalenzklassen
A = fvj 2 IR; > 0g und
B = fvj 2 IR; < 0g:
Beweis:
1. Re
exivitat: x = 1 x, also x x:
Symmetrie: Aus x y folgt x = ty mit t > 0, also y = t 1 x mit t 1 > 0, also y x.
Transitivitat: Aus x y und y z folgt x = ty und y = sz mit s; t > 0, also x = (st)z
mit st > 0, also x z.
59
2.
A ist Aquivalenzklasse: Oenbar A = fyjy vg Nach dem Beweis des letzten Faktes
ist A A quivalenzklasse.
B ist Aquivalenzklasse:
Oenbar B = fyjy vg Nach dem Beweis des letzten Faktes
ist B A quivalenzklasse.
A und B sind die einzigen Aquivalenzklassen: Aus x 2 V folgt wegen dim(V ) = 1 die
Existenz eines t 2 IR mit x = t v: Fur x =
6 0 folgt t =6 0, also t > 0 (x 2 A) oder
t < 0 (x 2 B). Also : V f0g = A [ B. Nach dem letzten Fakt folgt, da A und B
die einzigen A quivalenzklassen sind. 2
Denition 3: Sei V ein n-dimensionaler reeller Vektorraum. Eine Orientierung von V ist
eine Halbachse des eindimensionalen Vektorraumes D(V ). Sei
2 D(V ) eine Orientierung
von V und sei B = (b1 ; : : :; bn) eine Basis von V . Dann hat die reelle Zahl d(b1; : : :; bn) fur
alle d 2
dasselbe Vorzeichen. Wir sagen, da B positiv orientiert bezuglich
ist, falls
d(b1 ; : : :; bn) > 0 fur alle d 2
ist. Andernfalls sagen wir, da B negativ orientiert ist.
Bemerkung: Nach Satz 4.4.1 gilt: d(b1; : : :; bn) 6= 0 fur alle d 2 D(V ) n f0g und alle Basen
B = (b1 ; : : :; bn).
Beispiel: Sei dim(V ) = 1. Dann gilt D(V ) = V . Es gibt dann eine Bijektion
Halbachsen in D(V ) = V ! Halbachsen in V
(= Orientierung von V )
! fv 2 V n f0g j v ist positiv orientiert bzgl
b2 6
- B = (b1 ; b2) = ((1; 0); (0; 1)) +
b1
~b1
-
~b2
? B~ = (~b1 ; ~b2) = ((1; 0); (0; 1))
^b1 6
- B^ = (^b1 ; ^b2) = ((0; 1); (1; 0))
ad bc > 0 ist. ^b2
n
Beispiel: IR wird ublicherweise so deniert, da die Standardbasis e1; : : :; en positiv orientiert
ist, wobei ei = ()nj=1 . Bei der ublicherweise verwendeten Auswahl der Basis des IR3 in der
analytischen Geometrie des Raumes :
x-Achse: In der Zeichenebene (d.h. Tischebene) von links nach rechts.
y-Achse: In der Zeichenebene nach vorne weg vom Betrachter
z-Achse: Senkrecht zur Zeichenebene nach oben
60
ist also (Einheitsvektor in x; y; z-Richtung) positiv orientiert. Es gilt daher die rechte-Hand-
Regel. Das Dreibein (d.h. Tripel von Vektoren) (Daumen, Zeigenger, Mittelnger) ist fur die
rechte Hand positiv orientiert, fur die linke Hand negativ. Entsprechend nennt man ein positiv
orientiertes Dreibein rechtshandig, ein negativ orientiertes linkshandig.
Bemerkung: Wenn B = (b1; : : :; bn) eine Basis des orientierten Vektorraumes V ist, so hat fur
1 i n und
2 IR n f0g die Basis (b1 ; : : :; bi 1;
bi ; bi+1; : : :; bn) dieselbe Orientierung wie B
, falls
> 0 ist , und die zu B entgegengesezte Orientierung , falls
< 0.
Wenn 2 Sn ist, so hat die Basis (b(1) ; : : :; b(n)) fur sign() = 1 dieselbe Orientierug wie B ,
fur sign() = 1 die entgegengesetzte.
4.7 Symmetrische n-Linearformen
Sei K ein beliebiger Korper.
Lemma 1: (vgl. Lemma 4.3.1) Sei f : V : : : V ! W eine n-lineare Abbildung. Sei G = f 2
Sn j f(x1 ; : : :; xn) = f(x(1) ; : : :; x(n)) fur alle (x1 ; : : :; xn) 2 V ng. Dann ist G eine Untergruppe
von Sn . Die folgenden Aussagen sind aquivalent :
1. G = Sn , d.h. f andert seinen Funktionswert bei einer beliebigen Permutation der Argu-
mente nicht.
2. G enthalt alle Transpositionen (i; j) fur 1 i < j n , d.h., f andert den Funktionswert
bei Vertauschung zweier Argumente nicht.
3. G enthalt alle Transpositionen (i; i + 1) fur 1 i < n, d.h. f andert seinen Wert beim
Vertauschen benachbarter Argumente nicht.
Beweis: Wie bei Lemma 4.3.1, nur einfacher. 2
Denition 1: Eine n-lineare Abbildung, welche diese aquivalenten Bedingungen erfullt,
nennt man symmetrisch. Fur W = K spricht man von einer symmetrischen n-
Linearform. In Korpern der Charakteristik 2 sind alle schiefsymmetrischen n-linearen
Abbildungen symmetrisch, denn fur char (K) = 2 gilt 1 = +1 in K.
Beispiel:
1.
: Kn Kn ! K
X
n
((x1; : : :; xn); (y1 ; : : :; yn )) 7! x i yi
i=1
ist eine symmetrische n-Linearform auf K n.
2.
: K ::: K ! K
(x1; : : :; xn) 7! x1 : : : xn
ist eine symmetrische Bilinearform auf K.
61
3.
: (K n )m ! K
((x(1) (m) (m) n m (j )
1 ; : : :; xn ); : : :; (x1 ; : : :; xn )) 7! i=1 j =1 xi
(1)
ist eine symmetrische m-Linearform auf K n .
Beispiel 1:
1. Sei
q : Kn ! K
(x1; : : :; xn) 7! x21 + : : : + x2n:
Dann gilt
(x; y) = 21 (q(x + y) q(x) q(y))
X n
= 21 ((xi + yi )2 x2i yi2 )
i=1
X
n
= xi yi :
i=1
Oensichtlich ist bilinear, Eigenschaft (1) ist klar. Fur K = IR kann q(v) als das Quadrat
der Lange von v aufgefat werden (Satz des Pythagoras).
6
6 v = y e2 + x e1 = (x;
ye2 p y) p
Lange von v = jvj = x2 + y2 = q(v).
e2 6
- --
e1 xe1
62
2. Sei m : IR4 ! IR, m(x0 ; x1; x2; x3) = x21 + x22 + x23 x20 die Minkowskische Form. Dann
ist (x; y) = 12 (m(x + y) m(x) m(y)) = x1y1 + x2y2 + x3y3 x0y0 das Minkowskische
Skalarprodukt. Vektoren v 2 IR4 nennt man in der Speziellen Relativitatstheorie
raumartig, wenn m(v) > 0;
zeitartig, wenn m(v) < 0;
lichtartig, wenn m(v) = 0; v 6= 0.
3. Sei V ein K-Vektorraum, l 2 V , q(x) = l(x)2 und
2 2 2
(x; y) = l(x + y) 2l(x) l(y)
2 2 2 2
= l(x) + 2l(x)l(y) + 2l(y) l(x) l(y)
= l(x) l(y):
ist bilinear, und es gilt:
q(x) = l(x)2 = 2 l(x)2 = 2 q(x):
Denition: Oenbar bilden die symmetrischen Bilinearformen einen Untervektorraum des
K-Vektorraumes L(V; V ; K) aller Bilinearformen auf V (vgl. 4.3). Der Vektorraum aller
quadratischen Formen auf V wird wie folgt deniert:
(q + q~)(x) = q(x) + q~(x) (q)(x) = q(x);
wobei q; q~ quadratische Formen auf V , x 2 V , 2 K sind.
Satz 1: Seien x; y 2 V , q eine quadratische Form und eine symmetrische Bilinearform. Die
Abbildungen
f;g
fQuadratische Formen auf V g ! fsymmetrische Bilinearformeng
(f(q))(x; y) = q(x + y) 2q(x) q(y) (d.h. f(q) = aus Def.1)
(g())(x) = (x; x)
sind zueinander inverse Isomorphismen von Vektorraumen.
Beweis:
f(q) ist nach Denition 1 eine Bilinearform.
f ist oensichtlich eine lineare Abbildung.
q = g() ist eine quadratische Form, denn
q(x) = (x; x) = 2 (x; x) = 2 q(x):
63
Sei ~(x; y) = q(x+y) q2(x) q(y) . Dann gilt ():
~ y)
(x; = 1 ((x + y; x + y) (x; x) (y; y))
2
bilinear 1
= 2 ((x; x) + (x; y) + (y; y) (x; x) (y; y))
= 1 ((x; y) + (y; x))
2
Symmetrie
= (x; y)
~ Es folgt, da q = g() eine quadratische Form ist.
Weil bilinear ist, ist es auch .
g ist oensichtlich linear.
f g = Id folgt aus (), denn in Bezeichnungsweisen von () gilt f(g()) = ~ nach Denition
von f und g.
g f = Id : Sei q quadratische Form, = f(q), q~ = g(). Dann gilt
q~ = (x; x) = q(x + x) 2q(x) q(x)
= 2q(x)
2 = q(x);
also (~q) = q: 2
Fakt 1: Fur quadratische Formen q gilt die Parallelogrammidentitat:
q(x + y) + q(x y) = 2 (q(x) + q(y)):
Beweis: Sei = f(q). Dann gilt
q(x + y) + q(x y) = (x + y; x + y) + (x y; x y)
= (x; x) + 2(x; y) + (y; y) + (x; x) 2(x; y) + (y; y)
= 2(q(x) + q(y))
2
Denition 2:
1. Sei eine symmetrische Bilinearform auf V und B = (b1; : : :; bn) eine Basis von V .
Wir denieren die Matrixdarstellung von bezuglich B als
Mat B () = ((bi ; bj ))ni;j =1 :
2. Eine nn-Matrix ist symmetrisch,falls AT = A, d.h. fur A = (aij )ni;j =1 gilt aij = aji
fur alle 1 i; j n.
Beispiel:
P
1. Die symmetrische Bilinearform ((x1 ; : : :; xn); (y1 ; : : :; yn)) = ni=1 xi yi hat bezuglich der
Standardbasis B = (ei )ni=1 , ei = (ij )nj=1 , die Matrixdarstellung
X
n
Mat B () = ((ei ; ej ))ni;j =1 = ik jk = ij ;
k=1
64
also Mat B () = 1n .
2. Die Minkowskische Form aus Beispiel 1.2 hat bezuglich der Standardbasis die Matrixdar-
stellung 0 1 0 0 01
Mat B () = B
B 0 1 0 0 CC :
@ 0 0 1 0A
0 0 0 1
3. Die symmetrische Bilinearform ((x0 ; x1); (y0; y1 )) = (x0 + x1 )(y0 + y1 ) hat bezuglich der
Standardbasis die Matrixdarstellung
Mat B () = 11 11 :
Fakt 2: Sei B = (b1; : : :; bn) eine Basis von V , dann ist die Abbildung
8 Symmetrische 9 8 Symmetrische n n- 9
< = < =
Mat B : : Bilinearformen ; ! : Matrizen mit ;
auf V Koezienten aus K
ein Isomorphismus von K-Vektorraumen.
Beweis: Wir geben eine inverse Abbildung g zu Mat B an. Zur Erinnerung:
0x 1
1 Xn
iB : K ! V; @ . C
n B .
. A 7! xibi
xn i=1
65
Beweis: Die Denition der Matrixdarstellung (in 3.1) von f : V ! V~ bzgl. B = (b1 ; : : :; bn) und
B~ = (~b1 ; : : :; ~bn) lautet
X
n
Mat B;B~ = (aij )ni;j =1 mit f(bj ) = aij ~bi :
i=1
Wende dies auf V~ = V und A = (aij )ni;j =1 = Mat B;B ( ) an:
X
n
(bj ) = aij bi : ()
i=1
Gema der Denition der dualen Basis
X
n
bi (bk ) = ki (allgemein: bi ( k bk ) = i ) (y)
k=1
folgt dann
X
n X
n
akj = ik aij (=y) bi (bk ) aij
i=1
Xn !i=1
)
= aij bi (bk )(=( (bj ))(bk )
i=1
Def. von
= (bj ; bk):
Aus Denition 2 folgt nun, da Mat B;B ( ) = Mat B (). 2
Denition 3: Sei f : W ! V linear, eine symmetrische Bilinearform und q eine quadrati-
sche Form auf V . Wir denieren fur x; y 2 W
(f ())(x; y) = (f(x); f(y)) und (f (q))(x) = q(f(x)):
f () ist eine symmetrische Bilinearform und f (q) eine quadratische Form auf W .
Fakt 4: In den Bezeichnungen der Denition sei B~ eine Basis von W und B eine Basis von V
. Dann gilt
Mat B~ (f ()) = Mat B;B
~ (f)T Mat B () Mat B;B
~ (f):
Beweis: Oenbar f () = f f. Wende Fakt 3.1.4. und Fakt 3.1.3. an. 2
Bemerkung: Fur f = Id n gilt f () = , also macht Fakt 4 in diesem Fall eine Aussage uber
die Anderung von MatB () bei A nderung der Basis.
5.2 Nicht ausgeartete Bilinearformen. Der Rang.
Wir behalten die Voraussetzung char(K) 6= 2 bei.
Denition 1: Sei eine symmetrische Bilinearform auf V . Der Nullraum von ist als
N() = fx 2 V j 8 y 2 V : (x; y) = 0g
deniert. Sei V endlichdimensional. Dann nennt man nicht ausgeartet, falls N() = f0g
gilt. Der Rang von ist als Rang () = dim(V ) dim(N()) deniert.
66
Fakt 1: Oenbar gilt N() = ker( ) (vgl. Denition 2.4.5). Also sind fur endlichdimensionale
Vektorraume V aquivalent:
1. ist nicht ausgeartet;
2. ist Monomorphismus;
3. ist ein Isomorphismus.
2
Fakt 2: Eine symmetrische Bilinearform hat denselben Rang wie ihre Matrixdarstellung.
Beweis: Nach Satz 2.4.1 und Fakt 3.1.2. gilt
Rang () Def.1;=Fakt 1 dim(V ) dim(ker( ))
Satz=4.1 dim(Bild( ))
Fakt=3.1.2 Rang (Mat ( ))
B;B
= Rang (Mat B ()):
2
Beispiel:
P
1. Sei auf IRn gegeben durch (x; y) = ni=1 xi yi . Dann ist nicht ausgeartet, denn N() =
f0g, weil (x; x) > 0 fur x 6= 0.
2. Sei auf K n wie in (1) gegeben. Dann hat bezuglich der Standardbasis die Matrixdar-
stellung Mat B () = 1n, also ist Rang () = n.
3. Sei auf IR4 das Minkowskische Skalarprodukt. Dann ist die Matrixdarstellung von
bezuglich der Standardbasis invertierbar, also ist nicht ausgeartet.
4. Sei l 2 V , (x; y) = l(x) l(y). Dann gilt N() = ker(l). Wenn dim(V ) 2 ist, gilt
ker(l) 6= f0g, also ist in diesem Fall ausgeartet.
Fakt 3: Sei V endlichdimensional und W V ein Vektorraum mit W N() = V . Dann ist
die Einschrankung von auf W nicht ausgeartet.
Beweis: U bungsaufgabe.
Denition 2: Zwei symmmetrische Bilinearformen (V; ) und (V~ ; ~) sind isomorph, falls
ein Isomorphismus f : V ! V~ mit f (~) = existiert. Oenbar ist die Isomorphie eine
A quivalenzrelation auf der Klasse aller symmetrischen Bilinearformen. Die A quivalenzklassen
nennt man Isomorphieklassen.
Fakt 4:
1. Oenbar ist der Rang eine Isomorphieinvariante, d.h., zwei isomorphe symmetrische Bili-
nearformen haben denselben Rang.
2. Zwei symmetrische Bilinearformen ; ~ auf endlichdimensionalen Vektorraumen V; V~ sind
genau dann isomorph, wenn zwei Basen B und B~ mit Mat B () = Mat B~ (~) existieren.
Beweis: Der erste Fakt folgt leicht aus dem zweiten. Sei Mat B () = Mat B~ () ~ und seien B =
(b1; : : :; bn) und B = (b1; : : :; bn), dann existiert ein Isomorphismus ' : V ! V~ mit '(bi ) = ~bi .
~ ~ ~
Es gilt ' () ~ = :
Sei umgekehrt ' : V ! V~ ein Isomorphismus mit ' (~) = und sei B = (b1; : : :; bn) eine Basis
von V . Dann ist B~ = ('(b1 ); : : :; '(bn)) eine Basis von V~ und Mat B () = Mat B~ (~). 2
67
5.3 Klassikation der quadratischen Formen
Sei char (K) 6= 2. Alle Vektorraume werden als endlichdimensional vorausgesetzt.
Lemma 1: Sei V ein Vektorraum und sei eine symmetrische Bilinearform auf V . Wenn 6= 0
gilt, so gibt es ein x 2 V mit (x; x) 6= 0.
Beweis: Angenommen (x; x) = 0 fur alle x 2 V , aber es gabe x; y 2 V mit (x; y) 6= 0. Dann
gilt 0 = (x + y; x + y) = (x; x) + 2(x; y) + (y; y) = 2(x; y) 6= 0. Widerspruch. 2
Bemerkung 1: Der Beweis hatte auch durch Satz 5.1.1 gefuhrt werden konnen. Der angegeben
Beweis ist konstruktiv, d.h. er gestattet die praktische Berechnunng eines Vektors v 2 V mit
(v; v) 6= 0.
Bemerkung 2: In einem Korper mit Charakteristik 2 ist das Lemma falsch, denn dann ist jede
schiefsymmetrische Bilinearform symmetrisch.
Denition 1: Eine Basis B = (b1; : : :; bn) von V nennt man eine Orthogonalbasis bezuglich
, falls (bi ; bj ) = 0 fur i 6= j gilt.
Satz 1: Sei eine symmetrische Bilinearform auf V . Dann hat V eine Orthogonalbasis
bezuglich .
Beweis: durch Induktion nach dim(V ). Fur dim(V ) = 0 ist die leere Menge eine Orthogonal-
basis. Sei die Behauptung fur Vektorraume kleinerer Dimension als V bewiesen. Wenn = 0
gilt, so ist jede Basis eine Orthogonalbasis. Sei also 6= 0. Nach Lemma 1 gibt es v 2 V mit
(v; v) 6= 0, Sei W = v? = fw 2 V j (v; w) = 0g. Oenbar ist W ein Untervektorraum von V .
Dann gilt v 62 W nach Vorraussetzung und W Kv = V , denn fur x 2 V gilt
x = (x; v) v + (x (x; v) v):
|(v;{zv)} | (v; {z v) }
2K v 2W
Nach Induktionvoraussetzung gibt es eine Orthogonalbasis (b1 ; : : :; bn) von W bezuglich jW .
Dann ist (v; b2; : : :; bn) eine Orthogonalbasis von V . 2
Bemerkung 3: Weil der Beweis von Lemma 1 konstruktiv war, ist es auch der Beweis des
Satzes.
Denition 2: K ist quadratisch abgeschlossen, falls fur jedes x 2 K eine Quadratwurzel
(d.h, ein
2 K mit
2 = x) existiert.
Bemerkung 4: Sei K ein Korper, char(K) 6= 2: Dann existieren zu jedem x 2 K f0g entweder
keine oder zwei Quadratwurzeln.
Sei dazu x = y2 . Dann ist auch y eine Quadratwurzel aus x, diese ist wegen y 6= 0 von y
verschieden. Die beiden Quadratwurzeln y und y sind sie einzigen Quadratwurzeln aus x, denn
t2 x = t2 y2 = (t y)(t + y):
Beispiel 1: C ist quadratisch abgeschlossen, denn wenn z = a + ib eine komplexe Zahl ist, so
ist sp sp
(a2 + b2) + a + sign(b) a2 + b2 a i
2 2
p
eine Quadratwurzel aus z. Dabei ist t die nichtnegative Quadratwurzel aus der reellen Zahl
t 0.
68
Theorem 2:
1. Sei eine symmetrische Bilinearform auf einem endlichdimensionalen Vektorraum uber
einem quadratisch abgeschlossenem Korper K, char (K) 6= 2. Dann existiert eine Basis
B = (b1; : : :; bn) von V , so da
fur 1 i r
(bi ; bj ) = ij
0 sonst,
wobei r der Rang von ist.
~ auf endlichdimensionalen K-
2. Die symmetrischen Bilinearformen (V; ) und (V~ ; )
Vektorraumen V und V~ sind (unter denselben Voraussetztungen an K wie im ersten
~
Punkt) genau dann isomorph, wenn dim(V ) = dim(V~ ) und Rang () = Rang ().
Bemerkung: Wir haben also in diesem Falle eine vollstandige Klassikation der symmetrischen
Bilinearformen auf endlichdimensionalen Vektorraumen bekommen: bis auf Isomorphie ist (V; )
eindeutig durch n = dim(V ) und r = Rang () charakterisiert, wobei alle (n; r) 2 IN2 mit r n
angenommen werden.
Beweis von Theorem 2: Sei B~ = (~b1 ; : : :; ~bn) eine Orthogonalbasis von V bezuglich (B~ existiert
nach Satz 1). Durch Umordnen von ~ konnen wir erreichen, da eine Zahl r mit 0 r n
existiert, so da si = (b~i ; b~i) fur 1 i r von 0 verschieden ist und fur r < i n verschwindet.
Dann stimmt r mit dem Rang von uberein (das folgt aus Fakt 5.2.2).
Sei qi eine Quadratwurzel aus si , dann hat die Basis B = (b1 ; : : :; bn),
( ~bi
bi = q fur 1 i r
~bii fur r < i n
die im ersten Punkt des Theorems beschriebene Gestalt. Der zweite Punkt folgt aus dem ersten
Punkt und aus Fakt 5.2.4. 2
Bemerkung 5: Auch dieser Beweis ist konstruktiv.
Denition 3: Eine Orthonormalbasis von V bezuglich ist eine Basis B = (b1; : : :; bn)
von V mit Mat B () = 1n, d.h. (bi ; bj ) = ij .
Bemerkung 6: Weil der Rang von 1n n ist, konnen Orthonormalbasen nur bezuglich nicht-
ausgearteter symmetrischer Bilinearformen existieren. Umgekehrt garantiert das Theorem die
Existenz von Orthonormalbasen fur nichtausgeartete symmetrische Bilinearformen auf endlich-
dimensionalen Vektorraumen uber quadratisch abgeschlossenen Korpern mit von 2 verschiedener
Charakteristik.
69
5.4 Quadratische Formen auf reellen Vektorraumen
Theorem 3 (Tragheitssatz von Sylvester): Sei eine symmetrische Bilinearform uber einem
IR-Vektorraum V der endlichen Dimension n. Dann existieren a; b 2 IN mit a+b n und eine
Orthogonalbasis B = (b1 ; : : :; bn) von V , so da
8 1 fur 1 i a
<
(bi ; bi) = : 1 fur a < i a + b
0 fur i > a + b
gilt. Die Zahlen a und b sind dabei eindeutig durch die Isomorphieklasse von (V; ) bestimmt,
umgekehrt bestimmen sie diese Isomorphieklasse gemeinsam mit n = dim(V ) eindeutig. Es
gilt a + b = Rang ().
Beweis: Wir fuhren zunachst den Beweis der Existenz einer Basis B mit der beschriebenen
Eigenschaft. Sei B~ = (~b1 ; : : :; ~bn) eine Orthogonalbasis von V , und sei B^ = (^b1 ; : : :; ^bn) mit
8 p ~bi
>
< (~~bi;~bi) falls (~bi ; ~bi) > 0
^bi = p bi falls (~bi ; ~bi) < 0
>
: ~b(i~bi;~bi) falls (~bi ; ~bi) = 0
Dann ist B^ eine Orthogonalbasis mit (^bi ; ^bi) 2 f 1; 0; 1g, also kann aus B^ durch Umordnen der
Basisvektoren eine Basis B erhalten werden, die die im Theorem beschriebene Form hat. Da a,
b und n die Isomorphieklasse eindeutig bestimmen, folgt aus Fakt 5.2.4. Aus Fakt 5.2.2 folgt die
letzte Behauptung des Theorems. Zum Beweis der Eindeutigkeit von a und b benotigen wir
Denition 1:
ist positiv denit, falls (v; v) > 0 fur v 2 V f0g;
ist positiv semidenit, falls (v; v) 0 fur alle v 2 V ;
ist negativ denit (bzw. negativ semidenit), falls positiv denit (bzw.
semidenit) ist.
Beispiel 1: Oenbar ist das Euklidische Skalarprodukt auf IRn positiv denit. Daher ist positiv
denit, wenn eine Orthonormalbasis B von V bezuglich existieren sollte. Wenn eine Basis B
mit Mat B () = 1n existieren sollte, so ist negativ denit.
Lemma 1: Sei eine symmetrische Bilinearform auf einem endlichdimensionalen IR-Vektorraum
V und seien X+ und X Unterraume von V , so da die Einschrankung von auf X+ positiv
und auf X negativ denit ist. Dann gilt
dim(X+ ) + dim(X ) Rang ():
Beweis: Es gilt X+ \ X = f0g, denn aus x 2 (X+ \ X ) f0g wurden nach unseren Vorraus-
setzungen aus jX die widerspruchlichen Ungleichungen (x; x) > 0 (wegen x 2 X+ f0g)
und (x; x) < 0 (wegen x 2 X f0g) folgen. Sei X = X+ X , dann gilt dim(X) =
dim(X+ ) + dim(X ). jX ist nicht ausgeartet, denn sei x = x+ + x 2 X f0g, mit x 2 X .
Fur x+ 6= 0 sei y = x+ 2 X, fur x+ = 0 (und damit x 6= 0) sei y = x . In beiden
Fallen gilt (x; y) 6= 0, also ist jX nicht ausgeartet. Insbesondere folgt X \ N() = f0g,
70
also dim(V ) dim(X) + dim(N()) = dim(X+ ) + dim(X ) + dim(N()). 2
Beweis von Theorem 3, Eindeutigkeit von a und b: Oenbar genugt es zu zeigen, da a und
b durch (V; ) selbst eindeutig bestimmt sind. Sei B~ eine andere Orthogonalbasis mit B~ =
(~b1; : : :; ~bn), 8 1 fur 1 i a~
<
(b~i ; b~i) = : 0 fur i > a~ + ~b
1 fur a~ < i ~a + ~b:
Sei X+ die lineare Hulle von C+ = (b1; : : :; ba ) und X die lineare Hulle von C = (~ba~+1 ; : : :; ~ba~+~b )
Dann ist C+ eine Orthogonalbasis von X+ , und Mat C ( jX ) = 1~b . Aus Beispiel 1 folgt
a + b = Rang () dim(X+ ) + dim(X ) = a + ~b
Also b ~b. Indem wir die Rollen von B und B~ vertauschen, erhalten wir auch b ~b, also b = ~b.
Weiterhin gilt
a = Rang () b = Rang () ~b = a~;
denn Rang () = a + b = a~ + ~b . Also sind a und b eindeutig bestimmt. 2
Fakt: ist genau dann positiv bzw. negativ denit, falls a = dim(V ) bzw. b = dim(V ) in
Theorem 3 gilt. ist genau dann positiv bzw. negativ semidenit, falls b = 0 bzw. a = 0 in
Theorem 3 gilt. Insbesondere hat V genau dann eine Orthonormalbasis bezuglich , wenn
positiv denit ist. 2
Denition 2: In der Situation von Theorem 3 nennt man sign () = a b die Signatur von
.
Bemerkung 1: Die Isomorphieklasse (V; ) ist dann eindeutig bestimmt durch dim(V ), rang ()
und sign().
Beispiel 2:n n ((x1 ; : : :; xn); (y1 ; : : :; yn)) = Pni=1 xiyi . n ist das Euklidische Skalarprodukt
auf dem IR . n ist positiv denit, eine Orthonormalbasis des IRn ist durch die Standardbasis
(b1; : : :; bn) gegeben, bi = (ij )nj=1 ; a = n, b = 0, sign (n ) = n. Sei n = a + b,
X
a X
n
a;b ((xi )ni=1 ; (yi )ni=1 ) = xi yi xiyi :
i=1 i=a+1
Bezuglich der Standardbasis (e1 ; : : :; en) hat a;b die in Theorem 3 beschriebene Gestalt. a;b
ist nicht ausgeartet, sign(a;b ) = a b. Insbesondere ist 3;1 das Minkovskische Skalarprodukt
auf dem IR4 , es gilt sign (3;1 ) = 2.
Bemerkung 2: Der Beweis der Existenzaussage in Theorem 3 ist konstruktiv. Insbesondere
ergibt sich daraus ein praktisches Verfahren zur Bestimmung von a; b; sign() und zum Test auf
positive Denitheit.
Denition 3: Ein bezuglich positiv deniter Unterraum W V ist maximal positiv
denit, falls fur jedes U V mit W U die Einschrankung von auf U nicht positiv denit
ist. Analog deniert man maximale negativ denite Unterraume.
Fakt 1:
1. Jeder positiv bzw. negativ denite Unterraum W von V ist in einem maximal positiv bzw.
negativ deniten Unterraum enthalten.
71
2. Alle maximalen positiv bzw. negativ deniten Unterraume haben die Dimension a bzw. b
(aus Theorem 3).
3. Sei V+ V ein maximal positiv deniter Unterraum und V ein maximal negativ deniter
Unterraum. Dann gilt V = V+ V N().
Beweis:
1. Durch absteigende Induktion nach dim(W). Die Behauptung ist klar fur dim(W ) = dim(V ).
Sei die Behauptung fur alle deniten Unterraume groerer Dimension als W bewiesen. Falls
W selbst nicht maximal ist, so gibt es einen Unterraum U W, so da U ebenfalls positiv
bzw. negativ denit ist. Dann ist U nach der Induktionsvoraussetzung in einem maximalen
positiv bzw. negativ deniten Unterraum enthalten.
2. Sei W maximal positiv denit. Sei a~ = dim(W) und sei v1; : : :; va~ eine Orthonormalbasis
von W bezuglich . Aus dem Beweis von Satz 5.3.1 folgt, da man (v1 ; : : :; va~) zu einer
Orthogonalbasis (v1 ; : : :; va~ ; va0~+1 ; : : :; vn0 ) erganzen kann. Sei (vi0 ; vi0 ) = 0 genau dann,
wenn i > rang (). Wir konnen auch voraussetzen, da (vi ; vi ) > 0 fur 1 i a0 und
(vi ; vi) < 0 fur a0 < i a0 + b0. Dann a0 ~a. Wenn a0 > ~a ware, so ware W + IRva0~+1 ein
positiv deniter
p Unterraum von V , im Widerspruch zur Eigenschaft von W . Also a0 = a~.
Sei vi = vi = j(vi0 ; vi0 )j fur i rang (), vi = vi0 fur i > rang (). Dann
8 1 1i=ja
<
(vi ; vj ) = : 1 a0 < i = j rang ()
0 sonst.
Wegen der Eindeutigkeit aus Theorem 3 folgt a0 = a, also a~ = a.
3. V+ \ V = f0g ist klar.
(V+ V ) \ N() = f0g folgt aus dem Beweis von Lemma 1.
V+ V N() = V :
dim(V+ V N()) = dim(V+ ) + dim(V ) + dim(N())
= a + b + dim(N()) = rang () + dim(N())
= dim(V ):
2
Fakt 2: Sei eine nicht ausgeartete symmetrische Bilinearform auf einem endlichdimensionalen
reellen Vektorraum V , sei B = (b1 ; : : :; bn) eine Basis von V und habe b dieselbe Bedeutung wie
in unserer Formulierung von Theorem 3. Dann gilt:
( 1)b det(Mat B ()) > 0:
Bemerkung: Mat B () = Mat B;B ( ); nicht ausgeartet , Isomorphismus ,
det(Mat B ()) 6= 0. Sei C = (c1 ; : : :; cn) eine andere Basis von V , dann gilt nach Fakt 5.4.1
Mat B () = Mat B;C (Id)T Mat C () Mat B;C (Id): ()
Beweis von Fakt 2: Sei C eine Basis von V mit
8 1 i=ja
<
(Mat C ())ij = : 1 a < i = j a + b
0 sonst
72
(vgl. Theorem 3). Nach () gilt dann
( 1)b det(Mat B ()) = ( 1)b det(Mat B;C (Id)T ) det(Mat C ()) det(Mat B;C (Id))
= ( 1)b det(Mat B;C (Id))( 1)b det(Mat B;C (Id))
= det(Mat B;C (Id))2 > 0
2
Satz 1: Sei B = (b1 ; : : :; bn) eine Basis des reellen Vektorraumes V , sei Vk = L(fb1; : : :; bk g),
und sei Bk die Basis (b1; : : :; bk ) von Vk . Sei eine symmetrische Bilinearform auf V . Dann
ist genau dann positiv denit, wenn fur 1 k n
det(Mat Bk ( jVk Vk )) > 0:
Bemerkung: Eine symmetrische Matrix A mit reellen Eintragen ist positiv denit, falls die
durch A denierte symmetrische Bilinearform A (x; y) = xT A y positiv denit ist. Nach Satz
1 ist dies genau dann der Fall, wenn in
0 a a a : : : 1 v1 = f(x1; 0; : : :)g
BB a1121 a2212 a1323 : : : CC v2 = f(x1; x2; 0; : : :)g
B@ a31 a32 a33 : : : CA v3 = f(x1; x2; x3; 0; : : :)g
.. .. .. . . .
. . .
die Determinanten der eingerahmten Matrizen positiv sind. Praktischen Wert hat dieses Krite-
rium nur fur kleine n, etwa fur n = 2.
Beweis von Satz 1, Notwendigkeit: Sei positiv denit. Oenbar ist die Einschrankung jVkVk
ebenfalls positiv denit (und daher nicht ausgeartet),also det(Mat Bk ( jVk Vk )) > 0.
Hinlanglichkeit, Induktion nach n: Die Behauptung ist klar fur n = 1. Sei die Behauptung fur
alle Vektorraume kleinerer Dimension als n bewiesen. Wenn die Bedingung des Kriteriums
erfullt, so tut dies auch jVn 1 , also ist jVn 1 nach der Induktionsannahme positiv denit. Al-
so ist entweder Vn 1 oder Vn ein maximaler positiv deniter Unterraum. Im letzten Fall ist
positiv denit, im ersten Fall ergibt Fakt 1 a = dimVn 1 = n 1 und daher b = 1, und Fakt 2
wurde det(Mat B ()) < 0 ergeben. 2
a c
Beispiel: c b ist positiv denit , a > 0 und ab c2 > 0.
Bemerkung: Die Einschrankung einer nichtausgearteten indeniten Form auf einen Unterraum
kann ausgeartet sein.
5.5 Die Gramsche Determinante, die Gruppen O( ) und SO( )
Sei V ein Vektorraum der endlichen Dimension n uber einem Korper K, char (K) 6= 2. Sei
D(V ) der Raum der schiefsymmetrischen n-Linearformen auf V . Wir wissen aus Kapitel 4, da
dim(D(V )) = 1 gilt. Sei d 2 D(V ) f0g. Dann kann jedes e 2 D(V ) als e = d geschrieben
werden, wobei 2 K eindeutig bestimmt ist.
73
Satz 1: In der soeben beschriebenen Situation sei eine symmetrische Bilinearform auf V .
Dann gibt es eine eindeutig bestimmte Konstante c;d 2 K, so da fur v1 ; : : :; vn ; w1; : : :; wn 2
V die Gramsche Determinante
det((vi ; wj ))ni;j =1 = c;d d(v1 ; : : :; vn )d(w1; : : :; wn) ()
gegeben ist. Es gilt c;d = n 2 c;d . Es gilt c;d = 0 genau dann, wenn ausgeartet ist.
Beweis: Sei G(v1; : : :; vn; w1; : : :; wn) die linke Seite von (). Aus den Eigenschaften der Determi-
nante von Matrizen folgt, da G eine 2n-Linearform auf V ist, die schiefsymmetrisch in v1 ; : : :; vn
und in w1; : : :; wn ist. Fur feste v1 ; : : :; vn ist also w1; : : :; wn ! G(v1 ; : : :; vn; w1; : : :; wn) eine
schiefsymmetrische Linearform auf V , also gibt es ein eindeutig bestimmtes c(v1 ; : : :; vn) 2 K
mit:
G(v1; : : :; vn; w1; : : :; wn) = c(v1 ; : : :; vn)d(w1; : : :; wn):
Es gibt eine Basis (b1; : : :; bn) von V mit d(b1; : : :; bn) = 1, dann gilt
c(v1 ; : : :; vn) = G(v1 ; : : :; vn; b1; : : :; bn):
Also ist c(v1 ; : : :; vn) ebenfalls ein Element von D(V ) und es gibt c;d 2 K mit c(v1 ; : : :; vn) =
c;d d(v1 ; : : :; vn), und c;d = G(b1; : : :; bn; b1; : : :; bn) eindeutig bestimmt. Die zweite Behauptung
ist trivial. Die letzte Aussage folgt aus G(b1; : : :; bn; b1; : : :; bn) =
Fakt 5.1.3
det(Mat B ()) = det(Mat B;B ( )) und Fakt 5.2.1. 2
Bemerkung: () gilt auch fur nichtsymmetrische Bilinearformen.
Fakt 1: Fur m > n und v1 ; : : :; vm; w1; : : :; wm 2 V gilt det(((vi ; wj))mi;j=1 ) = 0.
Der Beweis ist U bungsaufgabe. 2
Beispiel 1: Fur das Euklidische Skalarprodukt nn und fur dn(v1 ; : : :; vn) =
det(Mat Z (v1 ; : : :; vn)) = det(Mat S (v1 ; : : :; vn)), dn 2 D(IR ), gilt cn ;dn = 1. Die Identitat ()
folgt in diesem Fall aus der Multiplikativitat der Determinante und aus
Mat Z (v1 ; : : :; vn)Mat S (w1 ; : : :; wn) = (n (vi ; wj ))ni;j =1.
Wir setzen von nun an als nicht ausgeartet voraus.
Denition 1: O() ist die Menge aller Automorphismen u von V mit der Eigenschaft
8 v; w 2 V : (u(v); u(w)) = (v; w);
d.h. u = , versehen mit der Hintereinanderausfuhrung von Automorphismen als Gruppen-
operation. O() ist die orthogonale Gruppe von .
Fakt 2: Fur alle u 2 O() gilt j det(u)j = 1.
Beweis: Sei G die linke Seite von () wie beim Beweis von Satz 1. Es gilt
c;d det(u)2 d(v1; : : :; vn)d(w1; : : :; wn) =
c;d d(u(v1 ); : : :; u(vn))d(u(w1); : : :; u(wn)) =
G(u(v1); : : :; u(vn); u(w1); : : :; u(wn)) =
det((u(vi ); u(wj ))ni;j =1 ) =
G(v1 ; : : :; vn; w1; : : :; wn) =
c;d d(v1; : : :; vn)d(w1; : : :; wn)
Weil c;d 6= 0 ( nicht ausgeartet), folgt daraus det(u)2 = 1, also j det(u)j = 1. 2
74
Denition 2:
SO() = fu 2 O() j det(u) = 1g = ker(O det
! f1; 1g) O():
SO() ist eine Untergruppe von O(). Erinnere an
X
a X
a+b
a;b ((xi )ai=1
+b ; (y )a+b ) =
i i=1 xi yi x i yi
i=1 j =a+1
auf IRa+b und n = n;0 .
Denition 3:
O(n) = O(n ); SO(n) = SO(n ); O(a; b) = O(a;b ); SO(a; b) = SO(a;b ):
Beispiel 2: (Wir identizieren hier 2 2-Matrizen mit Endomorphismen des IR2).
cos ' sin '
Sei u(') = sin ' cos ' . Es gilt fu(') j ' 2 IRg = SO(2), denn u(') uberfuhrt die
Orthonormalbasis ((1; 0); (0; 1)) in die Orthonormalbasis ((cos '; sin ');
(sin '; cos ')). Es gilt det(u(')) = 1, also u(') 2 SO(2). Alle Elemente von SO(2) konnen
als u(') dargestellt werden. Dabei gilt u(') = u('0) genau dann, wenn ' '0 = 2Z. Es
gilt u(')u( ) = u(' + ). u(') ist eine Drehung um '.
cosh t sinh t
Sei l(t) = sinh t cosh t . Dann gilt l(t) 2 SO(1; 1). Jedes Element von SO(1; 1) kann
in dieser Form auf eindeutige Weise dargestellt werden und l(s)l(t) = l(s + t). Die O(a; 1)
spielen die Rolle der Lorenzgruppen fur die spezielle Relativitatstheorie mit a raumlichen
Dimensionen, xa+1 spielt dann die Rolle der Zeitkoordinate.
Fakt 3: Sei q(x) = (x; x) die zu gehorende quadratische Form (vgl. Satz 5.5.1). Dann gilt
u 2 O() genau dann, wenn q(u(x)) = u(x) fur alle x 2 V .
Beweis: Beachte (x; y) = 21 ((x + y; x + y) (x; x) (y; y))... 2
5.6 Euklidische Vektorraume
In diesem Abschnitt ist K = IR.
Denition 1: Ein Euklidischer Vektorraum ist ein Paar (V; h; i), wobei V ein reeller
Vektorraum und h; i : V V p ! IR, (v; w) ! hv; wi eine positiv denite, symmetrische
Bilinearform ist. Dann sei kvk = hv; vi.
p
Beispiel: V = IRn, hx; yi = n(x; y). k(xi)ni=1k = Pni=1 x2i ist nach Pythagoras die Lange der
Strecke von 0 nach (x1 ; : : :; xn). Man kann also kvk als die Lange von v deuten. Dann sollte die
Dreiecksungleichung ku + vk kuk + kvk gelten.
75
Satz 1: (Cauchy-Schwarz). Sei h; i positiv denit und v beliebig (auch unendlichdimensio-
nal). Dann gelten die Cauchy-Schwarzsche Ungleichung
jhx; yij kxkkyk
und die Dreiecksungleichung
kx + yk kxk + kyk:
Beweis: Sei kxk = kyk = 1. Dann gilt
0 hx y; x yi = hx; xi + hy; yi 2hx; yi = 2 2hx; yi: ()
Es gilt also hx; yi 1 und auch hx; yi 1, also hx; yi 1. Also gilt jhx; yij 1, falls
kxk = kyk = 1. Seien nun x und y beliebig. Wenn einer dieser Vektoren verschwindet, ist die
Cauchy-Schwarzsche Ungleichung trivial. Andernfalls gilt k kxxk k = 1, k kyyk k = 1, also
x y
;
kxk kyk 1;
also jhx; yij kxkkyk.
Beweis der Dreiecksungleichung:
kx + yk2 = kxk2 + kyk2 + 2hx; yi kxk2 + kyk2 + 2kxkkyk = (kxk + kyk)2 : ()
Bemerkung 1:
In () tritt Gleichheit nur fur x = y ein. Deswegen tritt in der Cauchy-Schwarzschen
Ungleichung genau dann Gleichheit ein, wenn dim(L(x; y)) 1. Ebenso wird die Dreiecks-
ungleichung streng, sofern nicht x oder y verschwindet, oder ein positives 2 IR existiert
mit x = y.
p p
kxk = hx; xi = 2 hx; yi = jjkxk.
Aus der Dreiecksungleichung folgt, da (V; d) mit d(x; y) = kx yk ein metrischer Raum
ist: d(x; z) = kx z k = k(x y) + (y z)k kx yk + ky z k = d(x; y) + d(y; z). V ist
ein reeller Hilbertraum, falls dieser metrische Raum vollstandig ist. Dies ist immer der
Fall fur dim(V ) < 1.
Denition 2: Sei V wie in Satz 1 deniert. Dann nennen wir zwei Vektoren x; y 2 V
orthogonal, falls hx; yi = 0; dann schreiben wir x ? y.
Bemerkung 2: (Pythagoras) x ? y , kx + yk2 = kxk2 + kyk2 , kx yk2 = kxk2 + kyk2 .
Denition 3: Sei V wie in Satz 1 deniert. Dann sei fur x; y 2 V f0g w(x; y) der durch die
Eigenschaften 0 w(x; y) und hx; yi = kxkkyk cos(w(x; y)) eindeutig bestimmte Winkel
(Er existiert nach der Cauchy-Schwarzschen Ungleichung).
Bemerkung 3: kx yk2 = kxk2 + kyk2 2hx; yi = kxk2 + kyk2 2kxkkyk cos(w(x; y)) ist der
Cosinussatz der ebenen Trigonometrie.
Bemerkung 4: (Gram-Schmidtsches Orthogonalisierungsverfahren): Sei B = (b1 ; : : :; bn) eine
76
Basis des euklidischen Vektorraumes V . Dann erhalten wir durch folgende induktive Vorschrift
eine Orthonormalbasis (v1 ; : : :; vn):
v1 = kbb1 k
1
Pk 1
vk = bk Pki=11hbk ; viivi ;
kbk i=1 hbk ; viivi k
falls v1; : : :; vk 1 schon P berechnet sind. Man pruft induktiv, da L(v1; : : :; vk 1) =
L(b1; : : :; bk 1). Also bk 6= P k 1hb ; v iv . Damit ist v wohldeniert. Oenbar kv k = 1. Fur
j < k gilt hvk ; vj i = chbk
i=11 k i i
k hb ; v iv ; v i = chb ; v
k
i c
Pk 1hb ; v ihv ; v i = 0,k wobei wir
i=1 k i i j k j i=1 k i i j
im Sinne eines Induktionsbeweises schon vorausgesetzt haben, da die (v1 ; : : :; vk 1) orthogonal
sind, d.h. hvi ; vj i = ij fur 1 i; j k 1.
Fakt 1: Sei V ein beliebiger reeller Vektorraum und h; i positiv denit. Sei (e1 ; : : :; en) bezuglich
h; i orthonormal.
1. Fur x 2 V gilt die Parsevalsche Ungleichung
X
n
hx; eii2 kxk2:
i=1
2. Die Gleichheit gilt in dieser Ungleichung genau dann, wenn x = ni=1 hx; eiiei . Dies ist
P
genau dann fur alle x 2 V der Fall, wenn (e1 ; : : :; en ) eine Basis von V ist.
3. Sei (e1 ; : : :; en) eine Orthonormalbasis, dann gilt
X
n
hx; yi = hx; eiihy; ei i
i=1
fur x; y 2 V .
77
Satz 2: Sei (V; h; i) ein Euklidischer Vektorraum. Sei l ein lineares Funktional auf V . Dann
gibt es genau ein r(l) 2 V mit der Eigenschaft
8 v 2 V : l(v) = hv; r(l)i:
Durch r : V ! V ist ein Isomorphismus deniert.
Beweis: Erinnere an 5.1 und 5.2. Fur eine beliebige symmetrische Bilinearform auf V war
: V ! V durch ( (x))(y) = (x; y) fur alle x; y 2 V deniert. Es gilt N() = ker( ), wegen
dim(V ) = dim(V ) ist also genau dann ein Isomorphismus, wenn nicht ausgeartet ist. Sei
(x; y) = hx; yi. Dann ist nicht ausgeartet, also ist ein Isomorphismus. Sei r = 1 : V ! V
der zu inverse Isomorphismus. Dann leistet r das Gewunschte:
l(x) = (r(l))(x) = (r(l); x) = hr(l); xi: 2
Denition 4: Fur einen Unterraum X V sei
X ? = fy 2 V j 8 x 2 X : hx; yi = 0g
das orthogonale Komplement zu X.
Bemerkung: Wenn man den Isomorphismus r : V ! V aus Satz 2 benutzt, um V mit V zu
identizieren, so geht diese Denition in die in Abschnitt 2 gegebene Denition uber.
Satz 3: Fur jeden Unterraum X eines Euklidischen Vektorraumes V gilt
X X ? = V:
Beweis: Sei (b1; : : :; bd) eine Orthonormalbasis von X. Fur v 2 V sei pX (v) = Pdi=1hv; biibi 2 X.
Man pruft leicht hpX (v); bi i = hv; bi i fur 1 i d, also hpX (v); xi = hv; xi fur alle x 2 X, also
v pX (v) 2 X ? . Also X + X ? = V . Aus v 2 X \ X ? folgt nach Denition 4 hv; vi = 0 und
damit v = 0, also ist die Summe X + X ? eine direkte Summe. 2
Denition 5: Sei X ein Unterraum eines Euklidischen Vektorraumes V . Die durch pX (v) 2 X
und v pX (v) 2 X ? (nach Satz 3) eindeutig denierte Abbildung pX : V ! V nennt man
den Orthogonalprojektor auf X.
Bemerkung: Es gilt p2X = pX , denn pX (x) = x fur x 2 X.
Bemerkung 5: Satz 2 und Satz 3 gelten fur reelle Hilbertraume ahnlich, allerdings ist es not-
wendig, das lineare Funktional aus Satz 2 als stetig vorauszusetzen (Riesscher Satz) und in Satz
3 zu fordern, da X abgeschlossen ist.
78
Denition 6: Sei n = dimV . d 2 D(V ) nennt man normiert, wenn die folgenden aquiva-
lenten Bedingungen erfullt sind:
1. jd(b1; : : :; bn)j = 1 fur eine geeignete Orthonormalbasis b1 ; : : :; bn von V .
2. jd(b1; : : :; bn)j = 1 fur jede Orthonormalbasis b1; : : :; bn von V .
3. Es gilt ch;i;d = 1 in der Formel fur die Gramsche Determinante, d.h.
hv ; w i
: : : hv1; wni
1 . 1 ... .. = d(v1 ; : : :; vn)d(w1; : : :; wn):
.. .
hvn; w1i : : : hvn; wni
Bemerkung: (3))(2))(1) ist klar, (1))(3) folgt aus dem Satz uber die Gramsche Determi-
nante.
Fakt 2: Mit d ist auch d normiert. Es gibt genau zwei normierte Elemente von D(V ) und zwar
in jeder Halbachse von D(V ) genau eines.
Beweis: Sei d 6= 0 beliebig. Dann gilt c = ch;i;d > 0, denn fur vi = bi und v1 ; : : :; vn orthonor-
mal ist die Gramsche Determinante G(v1; : : :; vn; w1; : : :; wn) = 1. Dann ist d=pc normiert. Sei
d normiert und 2 IR. Oenbar ist d genau dann normiert, wenn 2 = 1, woraus die restlichen
Aussagen folgen. 2
Lemma 1: Sei V~ V ein Unterraum der Kodimension eins (d.h. dim(V ) dim(V~ ) = 1 =
dim V~ ? ). Sei h 2 V~ ? und khk = 1. Sei d 2 D(V ) normiert. Dann gilt
1.
~ 1; : : :; xn 1) = d(h; x1; : : :; xn 1); x1; : : :; xn 1 2 V~
d(x
deniert ein normiertes Element von D(V~ ).
2. Fur v1 2 V und v2 ; : : :; vn 2 V~ gilt
d(v1; : : :; vn) = hv1 ; hid~(v2 ; : : :; vn ):
Beweis: Die erste Behauptung folgt sofort aus Denition 6, denn wenn b1; : : :; bn 1 eine Ortho-
normalbasis fur V~ ist, so ist (h; b1; : : :; bn 1) eine Orthonormalbasis fur V .
Sei v10 = v1 hv1 ; hih. Dann gilt v10 2 (IRh)? = V~ , denn aus Satz 3 folgt leicht X ?? = X fur
alle Unterraume X V . Also ist (v10 ; v2; : : :; vn) linear abhangig, denn alle diese n Vektoren
gehoren zu dem (n 1)-dimensionalen Unterraum V~ . Daraus folgt d(v10 ; v2; : : :; vn) = 0 wegen
der Schiefsymmetrie von d. Also folgt
d(v1; : : :; vn) = d(v10 + hv1 ; hih; v2; : : :; vn) = d(v10 ; v2; : : :; vn) + hv1 ; hid(h; v2; : : :; vn)
~ 2; : : :; vn):
= hv1 ; hid(v
2
Folgerung 1: Sei
Xn
S(v1 ; : : :; vn) = f i vi j 0 1g
i=1
das von den vi erzeugte Parallelspat. Moge das n-dimensionale Volumen von Parallelspaten im
n-dimensionalen Euklidischen Raum folgende Eigenschaften haben:
79
1. Das Volumen des 1-Spates ist die Norm des erzeugenden Vektors.
2. Das Volumen eines n-Spates S(v1 ; : : :; vn) ist gleich dem Produkt aus dem (n 1)-dimensionalen
Volumens eines Seitenspates (etwa S(v2 ; : : :; vn)) und der Hohe auf dieses Seitenspat.
Dann gilt
Volumen(S(v1 ; : : :; vn)) = jd(v1 ; : : :; vn)j; d 2 D(V ) normiert :
Beispiele: Flache von
IR2 S((x1 ; x2); (y1 ; y2 )) = xy 1 xy 2 :
1 2
Volumen von
x x x
1 2 3
IR3 S((x1 ; x2; x3); (y1; y2 ; y3); (z1 ; z2; z3 )) = y1 y2 y3 ;
z1 z2 z3
denn auf dem IRn ist dn (x1; : : :; xn) = det(Mat z (x1; : : :; xn)) bezuglich n normiert, denn
dn(e1 ; : : :; en) = 1 fur die Standardbasis.
Beweis von Folgerung 1 durch Induktion nach n beginnend mit n = 1. Betrachte die (n 1)-
dimensionale Seite S(v2 ; : : :; vn) von S(v1 ; : : :; vn). Sei V~ der von den v2 ; : : :; vn erzeugte Un-
terraum. Wenn dim(V~ ) < n 1, so sind v2; : : :; vn linear abhangig, es folgt durch die Induk-
tionsannahme, da das Volumen(S(v2; : : :; vn)) = 0, also auch Volumen(S(v1; : : :; vn)) = 0 =
d(v1; : : :; vn). Sei also dim(V~ ) = n 1 und seien h und d~ wie in Lemma 1. Dann ist hv1 ; hi
die Hohe von S(v1 ; : : :; vn) bezuglich der Seite S(v2 ; : : :; vn ), also gilt Volumen(S(v1; : : :; vn )) =
jhv1; hijVolumen(S(v2; : : :; vn)) = jhv2 ; hijjd~(v2 ; : : :; vn )j = jd(v1; : : :; vn )j. 2
5.6.1 Das Vektorprodukt auf einem dreidimensionalen orientierten Euklidischen
Raum
Sei (V; h; i) ein dreidimensionaler Euklidischer Raum und sei d 2 D(V ) normiert.
Denition 7: Fur x; y 2 V sei x y 2 V der durch
8 z 2 V : hx y; z i = d(x; y; z) ()
eindeutig denierte Vektor.
Bemerkung: Die Eindeutigkeit und Existenz von x y folgt durch Anwendung von Satz 2 auf
das Funktional z 7! d(x; y; z).
Denition 8: Eine Liealgebra ist ein Paar (V; C), wobei C : V V ! V schiefsymmetrisch
und bilinear ist, so da die Jacobi-Identitat gilt:
C(a; C(b; c)) + C(c; C(a; b)) + C(b; C(c; a)) = 0:
Bemerkung: Meistens schreibt man C als Kommutator C(x; y) = [x; y]. Fur einen Vektorraum
W ist V = L(W; W ) versehen mit [x; y] = x y y x eine Liealgebra. Sei V eine Liealgebra
und sei Lx (y) der Kommutator von x mit y fur x; y 2 V . Dann ist die Jacobi-Identitat zu
Lx Ly Ly Lx = L[x;y] aquivalent.
Fakt 3:
80
1. ist bilinear und schiefsymmetrisch.
2. Sei u 2 O(V; h; i). Dann gilt u(x y) = det(u)(u(x) u(y)).
3. x y ist zu x und y orthogonal.
4. x y = 0 genau dann, wenn x und y linear abhangig sind.
5.
Sei (e1 ; e2 ; e3) eine positiv orientierte Orthonormalbasis, dann gilt
e e2 e3
1
x y = hx; e1i hx; e2i hx; e3i
hy; e1i hy; e2i hy; e3i
(zu berechnen nach der Leibnizschen Formel).
Beweis: (1), (2), (3) folgen leicht aus (), z.B. (2):
hz; det(u)u(x) u(y)i (=) det(u)d(u(x); u(y); z) = det(u)d(u(x); u(y); u(u 1(z)))
= det(u)2 d(x; y; u 1(z)) (=) hx y; u 1 (z)i
= hu(x y); z i:
Da das fur alle z gilt, folgt (2).
Fur (3) bemerkt man hx y; xi (=) d(x; y; x) = 0.
Wenn x und y linear abhangig sind, so gilt hx y; z i = d(x; y; z) = 0 fur alle z wegen der
Schiefsymmetrie von d. Also x y = 0. Wenn x und y linear unabhangig sind, so ist (x; y; z) eine
Basis von V und es gilt 0 6= d(x; y; z) = hx y; z i, also x y 6= 0, was (4) beweist. Weiterhin gilt
fur alle c 2 V
* e1 e2
e3 +
hc; e i hc; e i hc; e i
hx; e1i hx; e2i hx; e3i ; c = hx; e11i hx; e22i hx; e33i Gram
= d(e1; e2 ; e3)d(c; x; y)
hy; e1i hy; e2 i hy; e3 i hy; e1i hy; e2i hy; e3i
= d(x; y; c);
denn die Permutation von d(c; x; y) ist gerade und d(e1 ; e2 ; e3) = 1, also wird () erfullt. 2
Beispiel: Im IR gilt fur das Standardskalarprodukt und die Standardorientierung
3
e e e
1 2 3
x y = x1 x2 x3 = (x2 y3 x3 y2 ; x3y1 x1y3 ; x1y2 y2 x1)
y1 y2 y3
mit x = (xi)3i=1 , y = (yi )3i=1 und der Standardbasis (ei )3i=1 .
81
Beweis: Die zweite Formel folgt aus der ersten, denn
ha (b c); z i (=) d(a; b c; z) = d(z;
a; b c) = hz a; b ci
= hha;
z; bi hz; ci = hz; ha; cib ha; bici:
bi ha; ci
Damit ist (z) bewiesen. Es verbleibt der Beweis von (y). Dazu benotigen wir folgendes
Lemma 2: Sei (e1; e2; e3) eine Orthonormalbasis von V , und sei c; d; g; h 2 V . Dann gilt
X
3 hg; ci hg; e i hg; ci hg; di
hei ; di hh; ci hh; eii i = hh; ci hh; di ;
i=1
denn die linke Seite ist
X
3 X
3
hg; cihh; ei ihei ; di hh; cihg; ei ihei ; di = hg; cihh; di hh; cihd; gi;
i=1 i=1
womit Lemma 2 bewiesen ist. 2
Wir konnen nun die linke Seite von (y) berechnen, sei dazu (e1 ; e2 ; e3) eine Orthonormalbasis:
X
3 X
3
hx y; a bi = hx y; ei iha b; eii = d(x; y; ei)d(a; b; ei)
i=1
3 ha; xi ha; yi ha; eii
i=1
Gram X hb; xi hb; yi hb; eii Au
osung nach der letzten Zeile
=
i=1 hei ; xi hei ; yi hei ; ei i
X3 ha; yi ha; e i ha; xi ha; e i ha; xi ha; yi
= hei ; xi hb; yi hb; eii hei ; yi hb; xi hb; eiii + hb; xi hb; yi
i
i=1ha; yi ha; xi ha; xi ha; yi ha; xi ha; yi ha; xi ha; yi
Lemma 2
= hb; yi hb; xi hb; xi hb; yi + 3 hb; xi hb; yi = hb; xi hb; yi :
2
Folgerung 2: Das Vektorprodukt x y erfullt folgende Eigenschaften, die es eindeutig charak-
terisieren:
1. x y ist zu den beiden Argumenten orthogonal.
2. Fur seine Lange gilt kx yk = kxkkyk sin(w(x; y)).
3. Das Dreibein (x; y; x y) ist rechtshandig, d.h. d(x; y; x y) 0.
Beweis: Da diese Bedingungen das Vektorprodukt eindeutig bestimmen, ist klar.
1. Fakt 3.3
2. folgt aus (y), angewendet mit b = y und a = x:
hx; xi hx; yi
kx yk = hx y; x yi = hx; yi hy; yi = kxk2kyk2 hx; yi2
2
Def.
= 3 kxk2kyk2 (cos(w(x; y))kxkkyk)2 = sin2 (w(x; y))kxk2kyk2 ;
damit folgt die Behauptung.
82
3. folgt leicht aus (), denn d(x; y; x y) = hx y; x yi 0. 2
Folgerung 3: Das Vektorprodukt erfullt die Jacobi-Identitat
a (b c) + c (a b) + b (c a) = 0:
Es ist nicht assoziativ, bilinear und schiefsymmetrisch und daher eine Lie-Algebra.
Beweis: Wende (z) an:
a (b c) + c (a b) + b (c a) =
bha; ci cha; bi + ahb; ci bha; ci + cha; bi ahb; ci = 0
5.7 Hermitesche Formen
In diesem Abschnitt arbeiten wir uber den komplexen Zahlen. Erinnere an x + iy = x iy und
an z z 0 = z z 0, z + z 0 = z + z 0, zz = jz j2 = x2 + y2 > 0 fur z = x + iy. Sei fur x; y; z 2 C
: C C ! C;
(x; y) = xy:
Dann gilt
(z; z) = zz = jz j2.
ist nicht bilinear, sondern linear im ersten Argument (
(x +
y; z) =
(x; y)+
(y; z)) und antilinear im zweiten Argument (
(x; y+z) =
(x; y)+
(x; z)).
Statt der ublichen Symmetrie des Skalarprodukts gilt
(x; y) =
(y; x).
Denition 1: Sei V ein komplexer Vektorraum. Eine hermitesche Form auf V ist eine
Abbildung : V V ! C mit folgenden Eigenschaften:
1. (x + ~x; y) = (x; y) + (~x; y), x; x~; y 2 V , 2 C;
2. (x; y) = (y; x)
Fakt 1: Fur eine komplexe n n-Matrix A = (hij )ni;j=1 sei A durch A = AT = (aji)ni;j=1
(koezientenweise konjugiert) deniert. A ist die adjungierte Matrix zu A, es gilt (A+B) =
A + B , (AB) = B A , (A) = A fur 2 C. Aus der Leibnizschen Determinantenformel
folgt leicht det(A) = det(A), also folgt det A = det A.
Die Menge der hermiteschen Formen auf V bildet mit den ublichen Regeln fur Addition und
Multiplikation einen reellen Vektorraum: ( + ~)(x; y) = (x; y) + ~(x; y), (t)(x; y) = t(x; y),
83
t 2 IR. Ebenso bildet die Menge der selbstadjungierten Matrizen fA 2 Mat (n; n; C) j A = A g
einen reellen Vektorraum. Man pruft leicht nach, da fur jede Basis B von V die Abbildung
fhermitesche Formen auf V g ! fselbstadjungierte n n-Matrizeng
7! Mat B ()
ein Isomorphismus von reellen Vektorraumen ist.
Sei f : V 0 ! V eine lineare Abbildung zwischen komplexen Vektorraumen. Sei (f )(x; y) =
(f(x); f(y)), dies ist eine hermitesche Form auf V 0 (wobei eine hermitesche Form auf V ist).
Sei B 0 eine Basis von V 0 . Man pruft leicht nach:
Mat B0 (f ) = Mat B0 ;B (f) Mat B ()Mat B0 ;B (f): 2
Bemerkung: Wenn eine hermitesche Form ist, so gilt (x; x) = (x; x), also ist (x; x) reell.
Beweis: Ziemlich analog zum Beweis des Sylvesterschen Tragheitssatzes. Die Eindeutigkeit von
a und b kann man durch Anwendung von Theorem 3 auf den reellen Vektorraum V , die reelle
symmetrische Bilinearform Re () und die reelle Basis (b1; ib1 ; : : :; bn; ibn) beweisen.
Bemerkung: In der Situation des Theorems nennen wir nichtentartet, falls die folgenden
aquivalenten Bedingungen erfullt sind:
1. a + b = n;
2. N() = fx 2 V j 8 y 2 V : (x; y) = 0g = f0g.
Sei nicht entartet. Sei d 2 D(V ). Dann gibt es eine reelle Konstante c;d mit
(v ; w )
: : : (v1 ; wn)
1. 1 ... .. = c;dd(v1; : : :; vn)d(w1; : : :; wn):
.. .
(vn; w1) : : : (vn ; wn)
Es gilt c;d > 0, falls b gerade und c;d < 0 falls b ungerade (c;d = 0 falls entartet sein sollte).
Die unitare Gruppe U() ist als die Gruppe aller Automorphismen u von V mit
(u(x); u(y)) = (x; y) fur alle x; y 2 V deniert. Es gilt det(u)det(u) = 1, also j det(u)j = 1. Die
Gruppe SU() ist als SU() = fu 2 U() j det(u) = 1g deniert.
Denition 3: Die hermitesche Form auf V ist positiv denit, falls (x; x) > 0 fur alle
x 2 V f0g gilt.p In diesem Fall schreiben wir auch als Skalarprodukt (x; y) = hx; yi und
setzen kxk = hx; xi. Wenn V endlichdimensional sein sollte, so nennen wir (V; h; i) einen
endlichdimensionalen Hilbertraum.
Bemerkung 3: Weil hermitesch ist, ist (x; x) reell, also ist die Bedingung (x; x) > 0
84
sinnvoll.
Beispiel 1: Das Standardskalarprodukt auf C n ist durch hx; yi = Pn xi yi , x = (xi )n ,
P P
y = (yi )ni=1 , deniert. Es gilt hx; xi = ni=1 xi xi = ni=1 jxij2.
i=1 i=1
Sei C der Raum der 2-periodischen stetigen Funktionen f : IR ! C. Durch
Z 2
hf; gi = 21 f(t)g(t) dt
0
wird eine positiv denite hermitesche Form auf C deniert. Es gilt
s Z 2
1
kf k = 2 jf(t)j2 dt:
0
Sei l2 die Menge aller Folgen (zi )1
i 2 1C und P1
=0 mit zi P i=1 jz j < 1. Dann ist l2 ein komplexer
2
1 1
Vektorraum und durch h(xi )i=0 ; (yi )i=0 i = i=0 xiyi ist eine positiv denite hermitesche Form
deniert.
Wir konstruieren analog zur Theorie der Euklidischen Vektorraume die Theorie der positiv de-
niten Hermiteschen Formen.
Satz 1: (Cauchy-Schwarz) Sei h; i eine positiv denite Hermitesche Form auf einem
komplexen Vektorraum V . Dann gelten
1.
jhv; wij kvkkwk;
Gleichheit gilt genau dann, wenn v und w linear abhangig sind.
2.
kv + wk kvk + kwk (Dreiecksungleichung),
Gleichheit gilt genau dann, wenn v = 0 oder wenn eine reelle Zahl 0 mit w = v
existiert.
Beweis:
1. Wie durfen v 6= 0 und w 6= 0 voraussetzen, sonst ist die Ungleichung trivial. Indem wir v
durch v=kvk und w durch w=kwk ersetzen, konnen wir kvk = kwk = 1 annehmen. Falls
hv; wi =6 0, sei z = hv; wi=jhv; wij. Sei w~ = zw, dann gilt kwk = kw~k und
hv; w~i = hv; zwi = z hv; wi = hv;jhwv;ihwv;ijwi = jhv; wij:
Indem wir also w durch w~ ersetzen, durfen wir annehmen, da hv; wi reell und 0 ist.
Dann gilt ():
0 hv w; v wi = hv; vi + hw; wi hv; wi hw; vi
= 1 + 1 hv; wi hv; wi
= 2 2jhv; wij
Also jhv; wij 1 fur kvk = kwk = 1 und die erste Behauptung in (1) folgt. Oenbar
kann Gleichheit in () nur fur v = w eintreten. Daher kann Gleichheit in der Cauchy-
Schwarzschen Ungleichung nur dann eintreten, wenn v und w linear abhangig sind.
85
2. Betrachte V als reellen Vektorraum mit der positiv deniten symmetrischen Bilinearform
(x; y) = Re hx; yi. Wende die Dreiecksungleichung aus 5.6 an. 2
Bemerkung 4: Sei d(x; y) = kx yk. Dann ist (V; d) ein metrischer Raum. (V; h; i) nennt
man einen Hilbertraum, falls dieser metrische Raum vollstandig ist. Es gilt kvk = jjkvk fur
2 C. Insbesondere andert die Multiplikation mit einer komplexen Zahl vom Betrag 1 die Norm
nicht.
Beispiel: Aus der Cauchy-Schwarzschen Ungleichung, angewendet auf Cn und C aus Beispiel 1,
folgt
X v
u v
uX
n u X
xiyi t jxij2u
n n
t jyij2
i=1 (xi )ni=1 ; (yi )ni=1 2 Cn
Z 2 sZi=12 i=1
sZ 2
f(x)g(x) dx jf(x)j2 dx jg(x)j2 dx:
0 0 0
Aus der Dreiecksungleichung fur Cn folgt
v
u v
u v
uX
u X
t jxi + yij2 t jxij2u
n u X n n
t jyij2
i=1 i=1 i=1
P 1 P 1
Also folgt i=1 jxi + yi j2 < 1, falls i=1 jxij2 < 1 und 1
P jy j2 < 1. Damit ist l aus
i=1 i 2
Beispiel 1 tatsachlich ein Vektorraum. Aus der Cauchy-Schwarzschen Ungleichung fur Cn folgt
v
u v
u v
u v
u
Xn u
t Xn u
t Xn u
t X1 uX 1
jxiyi j jxij 2 jyij
2 jxij t jyij2:
2
i=1 i=1 i=1 i=1 i=1
Also konvergiert
P 1 x y absolut, daher ist das Skalarprodukt auf l wohldeniert. Die Cauchy-
i=1 i i 2
Schwarzsche Ungleichung fur l2 besagt
X vuX
v
uX
xiyi t jxij2u
1 u 1 1
t jyij2:
i=1 i=1 i=1
l2 ist ein Hilbertraum. Der Raum C ist kein Hilbertraum. Man kann ihn zu einem Raum mebarer
Funktionen vervollstandigen.
Denition 4: In der Situation von Satz 1 nennen wir ein n-Tupel (v1; : : :; vn) von Vektoren
aus V orthonormal, falls hvi ; vj i = ij .
Fakt 2: Dann gilt
v
X n
u uX n
ivi
= t jij2;
i=1 i=1
Pn Pn P n P P
denn h i=1 i vi ; i=1 i vi i = i;j =1 i j hvi ; vj i = ni;j =1 i j ij = ni=1 jij2.
2
Bemerkung 5: Das Gram-Schmidtsche Orthonormalisierungsverfahren. Sei (w1; : : :; wn) eine
Basis von V . Deniere (v1 ; : : :; vn) induktiv wie folgt:
v1 = kww1k ;
1
Pk 1hw ; v iv
vk = wk Pki=11hwk; viivik ;
kwk i=1 k i i
86
falls v1 ; : : :; vk 1 schon berechnet worden sind. Der Beweis erfolgt ahnlich wie im reellen Fall.
Fakt 3:
1. In der Situation von Satz 1 sei (v1 ; : : :; vn) 2 V n orthonormal. Fur x 2 V gilt die Parse-
valsche Ungleichung
X
n
jhx; viij kxk2:
i=1
P
2. Gleichheit tritt genau dann ein, wenn x = ni=1 hx; viivi . Dies ist genau dann der Fall,
wenn x in der linearen Hulle der vi liegt.
3. Wenn (v1 ; : : :; vn) sogar eine Orthonormalbasis von V ist, so gilt
X
n
hx; yi = hx; viihvi ; yi:
i=1
Beweis: Wie im reellen Fall berechnet man
X
2 * +
x n hx; viivi
= x
X
n
hx; viivi ; x
X
n
hx; vi ivi
i=1
i=1 i=1
X n
2 * X n + *X n +
2
= kxk +
hx; viivi
x; hx; viivi hx; viivi ; x
i=1 i=1 i=1
Fakt X n Xn Xn
= 2 kxk2 + jhx; viij2 hx; vi ihx; vii hx; viihvi ; xi
i=1 i=1 i=1
Xn
= kxk2 jhx; viij2 :
i=1
Damit sind der erste Punkt undPdie erste Halfte des zweiten Punktes bewiesen. Moge x zur linea-
n v . Es folgt: hx; v i = hPn v ; v i = Pn hv ; v i =
ren Hu lle der v geh
o ren, x =
Pn = i , was den zweiteni=1Punkt i i i j =1 j j i j =1 j j i
j =1 j ji i beweist. Der dritte Punkt ist genauso einfach. 2
Beispiel 2: Z 2
1
hf; gi = 2 f(t)g(t) dt fn (t) = eint; n 2 Z
0
ist ein orthonormales System. f = 1
P hf; f if . Auf die analytischen Einzelheiten soll hier
n= 1 n n
nicht eingegangen werden.
Satz 2: Sei V ein endlichdimensionaler Hilbertraum. Dann kann jedes lineare Funktional l
auf V auf eindeutige Weise in der Form l(x) = hx; yl i dargestellt werden.
Beweis: SeiP(e1; : : :; en) eine Orthonormalbasis. Dann gilt l(x) = (Pni=1 hx; ei il(ei )) = hx; yli,
wobei yl = ni=1 l(ei )ei . Der Beweis der Eindeutigkeit ist einfach. 2
Denition 5: Sei V ein komplexer Vektorraum mit einer positiv deniten Hermiteschen
Form h; i. Fur x 2 V sei
X ? = fy 2 V j 8 x 2 X : hx; yi = 0g:
87
Denition 6: Ein Orthogonalprojektor von V auf einen Untervektorraum X ist eine
lineare Abbildung : V ! X mit der Eigenschaft v (v) 2 X ? fur alle v 2 V .
Bemerkung: Fur x 2 X \ X ? gilt hx; xi = 0, also X \ X ? = f0g. Sei ein Orthogonalprojektor
auf X. Fur x 2 X gilt dann x (x) 2 X \ X ? = f0g, also (x) = x fur x 2 X. Also 2 =
und ist tatsachlich ein Projektor auf X.
Satz 3: Sei V ein endlichdimensionaler Hilbertraum und X V ein Untervektorraum. Dann
gilt V = X X ? . Es existiert ein eindeutig bestimmter Orthogonalprojektor von V auf X.
Beweis: Die Direktheit der Summe X L X ? folgt aus der obigen Bemerkung. Um V = X +
X ? zu zeigen, genugt es, die Existenz eines Orthogonalprojektors
P auf X zu zeigen. Sei dazu
(e1 ; : : :; ek ) eine Orthonormalbasis von X. SetzeP(v) = ki=1 hv; ei iei 2 X. Dann gilt h(v); ej i =
hv; ej i fur j k. Also gilt fur alle y 2 X, y = kj=1 j ej , j 2 C
X
k
hv (v); yi = j (hv; ej i h(v); ej i) = 0:
j =1
ist also tatsachlich ein Orthogonalprojektor. Eindeutigkeit des Orthogonalprojektors: Sei ~
ein weiterer Orthogonalprojektor auf X. Fur x 2 X gilt ~ (x) = x = (x). Fur y 2 X ? gilt
k~(y)k2 = h~ (y); ~ (y)i = h~ (y); ~ (y) yi = 0, denn ~ (y) 2 X und y ~ (y) 2 X ? . Also
~ (y) = 0 = (y). Weil X X ? = V folgt ~ = . 2
Bemerkung: Diese Satze gelten in ahnlicher Weise fur beliebige Hilbertraume. In Satz 2 mu
man die Stetigkeit des linearen Funktionales l voraussetzen, Satz 3 gilt fur abgeschlossene Un-
terraume X.
5.8 Symplektische Vektorraume
Sei K ein beliebiger Korper, auch char K = 2. Sei V ein endlichdimensionaler K-Vektorraum.
Denition 1: Eine schiefsymmetrische Bilinearform s auf V ist nichtentartet, falls zu
jedem x 2 V f0g ein y 2 V mit s(x; y) 6= 0 existiert.
Denition 2:
1. Sei B = (b1; : : :; bn) eine Basis von V . Dann sei Mat B (s) = (s(bi ; bj ))ni;j =1.
2. Sei s : V ! V die durch (s (x))(y) = s(x; y), x 2 V und y 2 V denierte lineare
Abbildung.
Fakt 1: Durch Mat B wird ein Isomorphismus des Vektorraumes aller schiefsymmetrischen Bili-
nearformen auf V auf den Raum aller Matrizen A 2 Mat (n; n; K) mit A = AT (d.h. aij = aji
fur A = (aij )ni;j =1 und aii = 0 fur 1 i n) deniert.
Bemerkung: Fur char K =6 2 folgt aus A = AT aii = aii und 2aii = 0, also aii = 0.
Beweis von Fakt 1: Man pruft leicht nach, da Mat B (s) die behaupteten Eigenschaften hat.
Sei umgekehrt A = AT und aii = 0, A = (aij )ni;j =1 . Sei sA die durch
X
n X
n X
n
sA ( i bi ; j bj ) = i j aij
i=1 j =1 i;j =1
88
eindeutig denierte Bilinearform auf V . Dann gilt
X
n X
n X
n X X
n X
sA ( i bi ; j bj ) = aij i j = aij i j + aii 2i + aij i j = 0:
i=1 j =1 i;j =1 1i<j n |i=1 {z } 1j<in
=0
| P {z }
= 1j<in aji j i
Man pruft leicht nach, da A 7! sA zu Mat B invers ist. 2
Fakt 2: Es gilt Mat B;B (s) = Mat B (s).
Beweis: Sei Mat B (s) = (aij )ni;j=1 und (b1 ; : : :; bn) eine Basis von V und (b1 ; : : :; bn) die dazu
duale Basis. Dann gilt
X
n X
n X
n X
n X
n X
n X
n
s(bj )( i bi) = s(bj ; i bi ) = ajii = ajibi ( k bk ) = ( aji bi )( k bk ):
i=1 i=1 i=1 i=1 k=1 i=1 k=1
P
Also s (bj ) = ni=1 ajibi und die Behauptung folgt. 2
Fakt 3: s ist nicht ausgeartet , s ist ein Isomorphismus , det(Mat B (s)) 6= 0.
Beweis: Wie in 5.2.
Fakt 4: Sei f : V~ ! V eine lineare Abbildung, und sei f (s) die durch (f (s))(x; y) =
s(f(x); f(y)) denierte schiefsymmetrische Bilinearform auf V~ und sei B~ eine Basis von V~ . Dann
gilt
Mat B~ (f (s)) = Mat B;B
~ (f)T Mat B (s)Mat B;B
~ (f):
Beweis: Wie der Beweis von Fakt 5.1.4.
Denition 3: Ein symplektischer K-Vektorraum ist ein Paar (V; s), wobei V ein endlichdi-
mensionaler K-Vektorraum und s eine nichtausgeartete schiefsymmetrische Bilinearform auf
V ist.
Theorem 5: Sei (V; s) ein symplektischer Vektorraum uber einem beliebigen Korper K. Dann
gibt es eine Darboux-Basis von V , d.h. eine Basis (v1; : : :; vn; w1; : : :; wn) mit s(vi ; vj ) =
s(wi ; wj ) = 0 fur alle 1 i; j n und s(vi ; wj ) = ij . Insbesondere ist dimV gerade.
Bemerkung: Dann gilt s(wi; vj ) = s(vj ; wi) = ij . Die Matrixdarstellung von s hat die Form
0 11
n
11n 0
Beweis von Theorem 5 durch Induktion nach der Dimension von V beginnend mit dem trivialen
Fall V = f0g. Sei die Behauptung fur Vektorraume kleinerer Dimensionen bewiesen. Sei v1 2
V f0g. Nach der Voraussetzung existiert ein w1 2 V mit s(v1 ; w1) = 1. Sei V~ = fx 2 V j
s(x; v1) = s(x; w1) = 0g. Dann gilt
1. V = Kv1 Kw1 V~ ;
2. sjV~ V~ ist nicht ausgeartet.
Dann hat nach Induktionsvoraussetzung V~ eine Darboux-Basis (v2 ; : : :; vn; w2; : : :; wm ) und
(v1; : : :; vn; w1; : : :; wn) ist eine Darboux-Basis fur V . Beweis von (1): Sei x 2 V und sei y =
x s(v1 ; x)w1 + s(w1 ; x)v1. Dann gilt
s(v1 ; y) = s(v1 ; x) s(v1 ; x) |s(v1{z; w1)} +s(w1 ; x) s(v
| 1{z; v1}) = 0
=1 =0
89
und
s(w1 ; y) = s(w1 ; x) s(v1 ; x) s(w
| 1{z; w1)} +s(w1; x) s(w
| {z1; v1)} = 0:
=0 = s(v1;w1 )= 1
Also gilt y 2 V~ und daher x = y + s(v1 ; x)w1 s(w1 ; x)v1 2 V~ + Kv1 + Kw1 . Es verbleibt, die
Direktheit der Summe zu zeigen. Angenommen, v1 +w1 2 V~ . Dann gilt 0 = s(v1 ; v1 +w1 ) =
und 0 = s(w1 ; v1 +w1 ) = . Also = = 0. Daher ist die Summe Kv1 +Kw1 + V~ direkt.
Beweis von (2): Sei z 2 V~ f0g. Nach Voraussetzung gibt es ein x 2 V mit s(x; z) 6= 0. Nach
Behauptung 1 kann man x als x = v1 + w1 + y mit ; 2 K und y 2 V~ darstellen. Dann gilt
| {z1; z)} |s(w{z1; z)} = s(x; z) 6= 0:
s(y; z) = s(x; z) s(v
=0 =0
Weil y 2 V~ beweist dies, da sjV~ V~ nicht ausgeartet ist. 2
Denition 4: Fur einen symplektischen Vektorraum (V; s) denieren wir die symplektische
Gruppe Sp(V; s) als
Sp(V; s) = ff 2 L(V; V ) j s(f(x); f(y)) = s(x; y)g:
90
denn q vertauscht nur Faktoren in (y) und p" andert nur die Reihenfolge der Argumente in
Faktoren von (y), mithin d = d fur 2 Hn. Weiterhin gilt
d (x1; : : :; x2n) = sign()d (x(1) ; : : :; x(2n)): (z)
Fur z 2 M wahle 2 S2n mit z0 = z. Setze dz (x1; : : :; x2n) = d (x1; : : :; x2n). Wenn ~ 2 S2n
mit ~ z0 = z, so gilt fur = 1 ~ gilt z0 = z0 , also 2 Hn, also d~ = d (=) d . Aus (z) folgt
dz (x(1) ; : : :; x(2n)) = d(z) (x1 ; : : :; xn)sign ():
Oenbar sind alle dz 2n-Linearformen auf V . Sei
X
d= dz :
z 2M
Aus (z) folgt leicht d(x1; : : :; x2n) = sign ()d(x(1) ; : : :; x(2n)) fur 2 S2n. Weil char (K) 6= 2
gilt, folgt daraus d 2 D(V ) (auch fur char (K) = 2 gilt d 2 D(V ) aus anderen Grunden). Sei
(v1; : : :; vn; w1; : : :; wn) wie in Theorem 5. Dann gilt
dz (v1 ; : : :; vn; w1; : : :; wn) = 10 zsonst = z0 :
Also d(v1; : : :; vn; w1; : : :; wn) = 1, damit d 6= 0. Aber aus der Denition von d folgt d(f(x1 ); : : :; f(x2n)) =
d(x1; : : :; x2n), denn dasselbe gilt fur die dt, falls f 2 Sp(V; s). Also det(f) = 1. 2
Bemerkung: In der Hamiltonschen Mechanik betrachtet man
V = f( |q1; :{z : :; pn} )g
: :; qn} ; p| 1; :{z
Ortskoordinaten Impulskoordinaten
mit
X
n
s((q1 ; : : :; qn; p1; : : :; pn); (~q1; : : :; q~n; p~1; : : :; p~n)) = (qi p~i q~i pi):
i=1
Dann sind die Elemente der symplektischen Gruppe gerade die linearen kanonischen Transfor-
mationen. Aus Fakt 5 folgt, da solche Transformationen das Phasenvolumen erhalten.
6 Eigenwerttheorie
Sei K ein beliebiger Korper, V ein K-Vektorraum, A ein Endomorphismus von V .
Denition 1:
1. Das Spektrum von A ist die Menge aller 2 K, fur die A IdV : V ! V kein
Automorphismus von V (d.h. nicht bijektiv) ist.
2. Fur 2 K sei
V (A) = fv 2 V j Av = vg:
Wir nennen V (A) den zu gehorigen Eigenraum von A.
3. Wir nennen 2 K einen Eigenwert von A, falls der Eigenraum V (A) 6= f0g. In diesem
Fall nennen wir die von 0 verschiedenen Elemente von V (A) die Eigenvektoren zum
Eigenwert .
4. Ein Unterraum W V ist A-invariant, falls A(W) W .
91
Fakt 1: Eigenwerte gehoren zum Spektrum.
Beweis: Es gilt: V (A) = ker(A Id ). Also gilt: ist Eigenwert , ker(A Id) 6= f0g ,
A IdV ist nicht injektiv ) A IdV ist nicht bijektiv , liegt im Spektrum von A. 2
Fakt 2: Sei V endlichdimensional. Dann sind folgende Aussagen aquivalent:
1. ist ein Eigenwert von A.
2. gehort zum Spektrum von A.
3. det(A Id) = 0.
Beweis: (1) ) (2) ist Fakt 1. (2) ) (1) folgt wegen der Endlichdimensionalitat von V aus
der Tatsache, da ein Endomorphismus eines endlichdimensionalen Vektorraumes genau dann
bijektiv ist, wenn er injektiv ist. (2) , (3) folgt aus der Determinantentheorie. 2
Bemerkung: Die Menge aller Eigenwerte nennt man auch das Eigenwertspektrum.
Beispiele:
1. Sei A : K n ! K n der Operator der Multiplikation mit der Matrix
0 ::: 0 1
B@ ..1 . . . .. CA
. .
0 : : : n
Dann ist A Id der Operator der Multiplikation mit der Matrix
0 ::: 0 1
B@ 1 .. . . . .. CA ;
. .
0 : : : n
deren Determinante (1 ) : : : (n ) ist. Daher ist genau dann ein Eigenwert
von A, wenn = i , 1 i n, ist. In diesem Fall ist der Eigenraum (K n ) (A) =
f(xi )ni=1 2 K n j xi = 0 falls i 6= g. Seine Dimension ist gleich der Anzahl der Indizes
i, 1 i n, fur die i = gilt. Man kann das Problem der Bestimmung der Eigenwerte
und Eigenvektoren von A auch auassen als das Problem der Aundung einer Basis B
von V , fur die die Matrixdarstellung von A bezuglich B eine Diagonalmatrix ist (was
nicht immer gelingt). Oenbar ist Mat B;B (A) genau dann eine Diagonalmatrix, falls B
aus Eigenvektoren besteht.
2. Als unendlichdimensionales Beispiel betrachten wir C([0; 1]) = fstetige Funktionen f :
[0; 1] ! Cg, (Af)(t) = tf(t). Dann gilt: Af = f , fur alle t 2 [0; 1] gilt (t )f(t) = 0 ,
fur alle t 2 [0; 1] fg gilt f(t) = 0 Stetigkeit
, f = 0. Also hat A keine Eigenwerte. Andererseits
pruft man leicht, da das Spektrum von A mit [0; 1] ubereinstimmt: eine Funktion g mit
g() 6= 0 kann nicht zum Bild von A Id gehoren, aber fur 62 [0; 1] ist f 7! g(t) = tf (t)
ein Inverses zu A Id.
Fakt 3: Fur jedes 2 K ist V (A) A-invariant.
Beweis: Aus x 2 V(A) folgt Ax = x 2 V (A). 2
92
6.1 Eigenwerttheorie fur normale und selbstadjungierte Endomorphis-
men eines endlichdimensionalen Hilbertraums
Sei H ein endlichdimensionaler Hilbertraum, und A ein Endomorphismus von H. Fur alle y 2 H
ist die Abbildung H 3 x 7! hAx; yi ein lineares Funktional auf H. Nach Satz 5.7.2 gibt es also
einen Vektor A y 2 H mit der Eigenschaft hAx; yi = hx; Ayi fur alle x 2 H. A y ist durch diese
Eigenschaft eindeutig bestimmt, und die Abbildung y 7! A y ist linear.
Denition 1: Wir nennen A den zu A adjungierten Endomorphismus. Wir nennen A
selbstadjungiert, falls A = A ist. Wir nennen A normal, falls A und A kommutieren,
d.h., falls AA = A A gilt.
Fakt 1: Es gelten folgende Regeln:
1. (A + B) = A + B ;
2. (B) = B fur 2 C;
3. (AB) = B A ;
4. A = A.
Beweis: (1) und (2) sind einfach, z.B. hBx; yi = hBx; yi = hx; B yi = hx; B yi fur al-
le x; y 2 H, also (B) = B . Weiterhin gilt h(AB)(x); yi = hA(B(x)); yi = hBx; A yi =
hx; B A yi fur alle x; y 2 H, also folgt (3). (4) wird weiter unten bewiesen. 2
Folgerungen:
1. Die selbstadjungierten Operatoren bilden einen reellen Unterraum im Raum aller Endo-
morphismen von H. Die normalen Endomorphismen bilden keinen Unterraum im Raum
aller Endomorphismen von H, aber die Multiplikation eines normalen Endomorphismus
mit einer komplexen Zahl ist normal.
2. Wenn A und B selbstadjungiert sind, so gilt (AB) = B A = BA, also ist AB genau
dann selbstadjungiert, wenn A und B kommutieren, d.h. wenn AB = BA gilt. Die Summe
zweier kommutierender normaler Endomorphismen ist normal.
3. Es gilt: (A A) = A A = A A, denn fur alle A gilt A = A: hA x; yi = hy; A xi =
hAy; xi = hx; Ayi. Also ist A A selbstadjungiert, ebenso sind es AA , A+A und i(A A ).
Fakt 2: Sei B eine Orthonormalbasis von H. Dann gilt:
Mat B;B (A ) = Mat B;B (A) :
Insbesondere ist A genau dann selbstadjungiert bzw. normal, wenn es Mat B;B (A) ist.
Bemerkung: In Fakt 5.7.1 hatten wir A = AT deniert, wobei (aij )ni;j=1 = (aij )ni;j=1 . Fur
A = (aij )ni;j =1 gilt A = (aji )ni;j =1. Also ist A genau dann selbstadjungiert, falls aij = aji fur
alle i; j gilt, was fur i = j impliziert, da aij reell ist.
Beweis: Einfaches Nachrechnen... 2
Fakt 3: Sei A selbstadjungiert. Dann sind alle Eigenwerte von A reell, und die Eigenraume zu
verschiedenen Eigenwerten sind zueinander orthogonal.
Beweis: Sei 2 C ein Eigenwert. Dann gibt es ein x 2 H f0g mit Ax = x. Wir konnen
kxk = 1 annehmen, sonst x 7! x=kxk. Dann gilt: = hx; xi = hAx; xi = hx; Axi = hx; xi =
hx; xi = . Also ist reell. Seien 6= # reell, x 2 H (A), y 2 H#(A). Dann gilt hx; yi =
93
hAx; yi = hx; Ayi = hx; #yi = #hx; yi, da 6= # folgt hx; yi = 0. 2
Es liegt daher nahe, zu versuchen, eine Orthonormalbasis von H zu konstruieren, die aus Eigen-
vektoren von A besteht. Wenn jedes selbstadjungierte A Eigenwerte hat, kann man das wie folgt
tun: sei ein Eigenwert, sei (b1 ; : : :; bk) eine Orthonormalbasis des entsprechenden Eigenraumes
H(A) und sei H 0 das orthogonale Komplement dieses Eigenraumes. Man zeigt dann leicht, da
AjH 0 ein selbstadjungierter Endomorphismus von H 0 ist, und die Induktionsannahme impliziert
die Existenz einer Orthonormalbasis (bk+1; : : :; bn) von H 0 , die aus Eigenvektoren besteht. Dann
leistet (b1 ; : : :; bn) das Gewunschte.
Motivation fur die nachfolgende Konstruktion von Eigenwerten: Angenommen, es existiert ei-
ne Orthonormalbasis (bP 1 ; : : :; bn) von H, so da
P (bi) Eigenvektor zum Eigenwert ist, wobei
1 : : : n . Fur x = ni=1 xibi mit kxk2 = ni=1 jxi j2 = 1 gilt
X
n X
n X
n X
n X
n
hAx; xi = h i xibi ; xj bj i = i jxij2 = 1 jx i j2 (1 i )jxij2 1 ;
i=1 j =1 i=1 i=1 i=1
und die Schranke 1 wird tatsachlich angenommen, namlich von allen x, fur die xi = 0 fur alle
i mit i < 1 gilt. Solche Vektoren sind Eigenvektoren zu 1 . Es liegt also nahe, zu zeigen, da
maxfhAx; xi j kxk = 1g ein Eigenwert ist (naturlich ohne die Existenz einer Orthonormalbasis
aus Eigenvektoren vorauszusetzen).
Lemma 1: Ein Endomorphismus eines endlichdimensionalen Hilbertraumes H ist genau dann
selbstadjungiert, wenn fur alle x 2 H hAx; xi reell ist.
Beweis: Sei A selbstadjungiert. Dann gilt hAx; xi = hx; Axi = hx; Axi = hAx; xi. Also ist
hAx; xi reell. Die (etwas schwierigere) Ruckrichtung ist U bungsaufgabe.
Da die Funktion hAx; xi auf der kompakten Menge fx 2 H j kxk = 1g stetig ist und reelle Werte
annimmt, existiert das Maximum auf dieser Menge.
Satz 1: Sei A selbstadjungiert, und seien
+ = maxfhAx; xi j x 2 H ^ kxk = 1g und = minfhAx; xi j x 2 H ^ kxk = 1g:
Dann sind + und Eigenwerte, und jedes x mit kxk = 1, an dem diese Extrema angenom-
men werden, ist ein Eigenvektor.
Beweis: Es genugt, die Aussage uber + zu beweisen, die Aussage uber zeigt man genauso.
Sei = + . Wir wissen, da es Vektoren x 2 K mit kxk = 1 und hAx; xi = gibt. Es
genugt, zu zeigen, da jedes x mit dieser Eigenschaft ein Eigenvektor zu ist. Wenn x ein
Eigenvektor ist, so ist der dazugehorige Eigenwert. Angenommen, x ware kein Eigenvektor.
Sei H 0 das orthogonale Komplement von Cx in H und sei y0 die orthogonale Projektion von Ax
auf H 0. Dann gilt Ax y0 2 Cx, weil x kein Eigenvektor ist, gilt also y0 6= 0. Es gilt hAx; y0 i =
hy0 ; y0 i > 0. Indem wir y = y0 =ky0 k setzen, erhalten wir ein zux+tyx orthogonales normiertes y,
so da hAx; yi reell und von Null verschieden ist. Sei x(t) = p1+t2 . Dann gilt kx(t)k = 1 fur
alle t 2 IR. Also nimmt die Funktion f(t) = hAx(t); x(t)i an der Stelle t = 0 ihr globales
Maximum an, insbesondere ist t = 0 auch ein lokales Maximum fur diese Funktion. Es gilt
f(t) = 1+1t2 (hAx; xi + t2 hAy; yi + thAx; yi + thx; Ayi), also ist f in Abhangigkeit von t stetig
dierenzierbar. Die Ableitung an der Stelle 0 ist gerade f 0 (0) = hAx; yi + hx; Ayi = 2hAx; yi =
6 0.
Also hat f an der Stelle t = 0 kein lokales Extremum. Also kann f(0) nicht das Maximum aller
f(t) sein. Widerspruch. 2
Bemerkungen:
94
1. Wir haben damit gezeigt, da jeder selbstadjungierte Endomorphismus eines von 0 ver-
schiedenen Hilbertraumes H einen Eigenwert hat (falls H 6= f0g).
2. Oenbar gilt hAx; xi = , falls x ein normierter Eigenvektor zu dem Eigenwert ist.
Lemma 2: Sei A selbstadjungiert. Dann ist das orthogonale Komplement A eines A-invarianten
Unterraumes A-invariant.
Beweis: Sei X H A-invariant. Es gilt X ? = fy 2 H j 8 x 2 X : hy; xi = 0g. Sei nun y 2 X ? .
Dann gilt fur alle x 2 X
hAy; xi = hy; Axi = 0;
denn Ax 2 X. Also ist Ay 2 X .? 2
Theorem 1: Fur jeden selbstadjungierten Endomorphismus A eines endlichdimensionalen
Hilbertraumes H gilt die orthogonale direkte Summenzerlegung in die Eigenraume von A
M
A= H(A):
2IR
Beweis: Induktion nach dim(H) beginnend mit dem trivialen Fall dim(H) = 0. Sei die Behaup-
tung fur Hilbertraume kleinerer Dimension als H bewiesen. Sei H 6= f0g. Laut Bemerkung 1 folgt
aus Satz 1, da A einen Eigenwert hat. Sei H 0 = H+ (A)? . Nach Fakt 6.3 aus der Einleitung
ist H(A) A-invariant, also ist es nach Lemma 2 auch H 0. Also ist AjH 0 ein selbstadjungierter
Endomorphismus von H 0 , auf den die Induktionsannahme angewendet werden kann. Es gilt:
f0g fur = +
H0 (AjH 0 ) = H(A) \ H 0 = H (A) fur 6= + .
Die Induktionsannahme zeigt also
M
H0 = H(A):
2IR;6=+
Nach Satz 5.7.3 gilt
M M
H = H+ (A) H+ (A)? = H+ (A) H 0 = H+ (A) H(A) = H (A):
2IR;=
6 + 2IR
2
Bemerkung: Insbesondere hat H eine Orthonormalbasis, welche aus Eigenvektoren zu A be-
steht (Wahle eine Orthonormalbasis
P fur jedes H (A)).
Es gilt dim(H) = 2IR dim(H (A)). Man kann dim(H(A)) als die Vielfachheit des Eigen-
wertes betrachten. Wir haben dann bewiesen, da es, gezahlt nach Vielfachheit, genau dim(H)
Eigenwerte gibt.
Folgerung 1: Sei eine Hermitesche Form auf H. Dann gibt es eine Orthonormalbasis von
H, in der die Matrixdarstellung von eine Diagonalmatrix ist (Hauptachsenbasis, Hauptachsen-
transformation).
Beweis: Nach Satz 5.7.2 gibt es fur alle y 2 H genau ein Ay 2 H mit hx; Ayi = (x; y). Weil
eine Hermitesche Form ist, ist A linear und selbstadjungiert. Wende die Bemerkung nach Theo-
rem 1 auf A an. 2
95
Verallgemeinerung: Sei V ein beliebiger endlichdimensionaler Vektorraum uber einem belie-
bigen Korper K und seien A1 ; : : :; An Endomorphismen von V . Gibt es eine Basis B von V ,
deren Elemente fur alle Ai Eigenvektoren sind, d.h. fur die Mat B (Ai ) eine Diagonalmatrix ist.
Weil die Multiplikation von Diagonalmatrizen kommutativ ist, impliziert die Existenz einer sol-
chen Basis Mat B (Ai Aj ) = Mat B (Ai )Mat B (Aj ) = Mat B (Aj )Mat B (Ai ) = Mat B (Aj Ai ), also
AiAj = Aj Ai. Mit anderen Worten, Ai und Aj kommutieren, die A1 ; : : :; An kommutieren also
paarweise. Wenn die Ai selbstadjungierte Endomorphismen eines endlichdimensionalen Hilber-
traumes sind, ist diese Bedingung auch hinreichend.
Denition 2: Seien A1; : : :; An paarweise kommutierende Endomorphismen eines beliebigen
Vektorraumes V . Dann sei
\n
V1 ;:::;n (A1 ; : : :; An) = Vi (Ai ) = fv 2 V j Ai (v) = i v; 1 i ng 1 ; : : :; n 2 K
i=1
der gemeinsame Eigenraum von (A1 ; : : :; An) zu (1 ; : : :; n ).
Bemerkung: V1 ;:::;n (A1 ; : : :; An) kann man auch fur nicht paarweise kommutierende Ai in
dieser Form denieren (allerdings wenig sinnvoll).
Lemma 3: Wenn B mit A1; : : :; An kommutiert, so ist V1;:::;n (A1 ; : : :; An) B-invariant.
Beweis: Sei v 2 Vi (Ai ). Dann gilt Ai Bv = BAi v = B(i v) = i Bv, also Bv 2 Vi (Ai).
Also ist Vi (Ai ) B-invariant. T Der Durchschnitt B-invarianter Unterraume ist B-invariant, also2
ist V1 ;:::;n (Ai ; : : :; An) = ni=1 Vi (Ai ) B-invariant.
Die Denition und das Lemma beziehen sich auf beliebige Vektorraume uber beliebigen Korpern.
Sei nun H ein endlichdimensionaler Hilbertraum, K = C.
Theorem 2: Seien A1 ; : : :; An paarweise kommutierende selbstadjungierte Endomorphismen
von H. Dann gilt die orthogonale direkte Summenzerlegung
M
H= H1;:::;n (A1; : : :; An):
(1 ;:::;n)2IRn
Beweis durch Induktion nach n. Der Fall n = 1 ist gerade Theorem 1. Sei die Aussage fur n 1
Operatoren bewiesen. Dann gilt
M
H= H1;:::;n 1 (A1 ; : : :; An 1):
(1 ;:::;n 1 )2IRn 1
Nach Lemma 3 ist H 0 = H1;:::;n 1 (A1 ; : : :; An 1) An -invariant. Die Einschrankung von An auf
den An -invarianten Unterraum H 0 ist ein selbstadjungierter Endomorphismus von H 0 , Theorem
1 ergibt folglich
M 0 M M
H0 = H(An jH 0 ) = (H 0 \ H (An )) = (H1 ;:::;n 1 (A1; : : :; An 1) \ H(An ))
2IR 2IR 2IR
M
= H1;:::;n 1 ; (A1 ; : : :; An):
2IR
Also
M
H = H1 ;:::;n 1 (A1 ; : : :; An 1)
(1;:::;n 1 )2IRn 1
96
M M M
= ( H1;:::;n (A1 ; : : :; An)) = H1 ;:::;n (A1 ; : : :; An):
(1;:::;n 1 )2IRn 1 n 2IR (1 ;:::;n )2IRn
2
Folgerung 2: Sie A ein normaler Endomorphismus von H. Dann gilt die orthogonale direkte
Summenzerlegung M
H = H(A):
2C
Beweis: A ist genau dann normal, wenn A und A miteinander kommutieren. Zum Beweis
benotigen wir
Fakt: Wenn A und B kommutieren, so kommutieren auch A+B und
A+B fur ; ;
; 2
K = C. 2
Fur einen normalen Operator A kommutieren also die beiden selbstadjungierten Endomorphis-
men von H A1 = 12 (A + A ) und A2 = 21i (A A ). Nach Theorem 2 gilt
M
H= H1;2 (A1 ; A2): ()
(1 ;2)2IR2
Behauptung: H1;2 (A1 ; A2) = H1+i2 (A). Wenn diese Behauptung bewiesen ist, so ergibt ()
M
H= H(A):
=1 +i2 2C
Beweis der Behauptung: Sei v 2 H1 ;2 (A1 ; A2). Dann gilt
Av = A +2 A v + i A 2iA v = 1 v + i2 v = (1 + i2 )v:
Damit H1 ;2 (A1 ; A2) H1+i2 (A). Wir mussen zeigen, da Gleichheit eintritt. Sei H 0 =
H1+i2 (A). Weil A1 und A2 mit A kommutieren, ist H 0 invariant unter A1 und A2 (Lemma 3),
also M
H0 = H; (A1jH 0 ; A2jH 0 ):
;2IR2
Aber fur (; ) 6= (1 ; 2) gilt
0 (A1 jH 0 ; A2 jH 0 ) = H 0 \ H; (A1 ; A2) H 0 \ H+i (A) = H +i (A) \ H+i (A) = f0g;
H; 1 2
97
2. kUxk = kxk fur alle x 2 H;
3. U U = Id;
4. UU = Id.
Insbesondere ist jeder unitare Endomorphismus normal.
Beweis: (1) ) (2) ist klar. (2) ) (1): Sei kUxk = kxk fur alle x 2 H. Dann gilt
2Re hx; yi = kx + yk2 kxk2 kyk2 = kUx + Uyk2 kUxk2 kUyk2 = 2Re hUx; Uyi:
Es folgt
hx; yi = Re hx; yi + iRe hx; iyi = Re hUx; Uyi + iRe hUx; iUyi = hUx; Uyi:
(1) , (3):
(1) , 8 x; y 2 H : hx; yi = hUx; Uyi , 8 x; y 2 H : hx; yi = hx; U Uyi
, 8 y 2 H : U Uy = y , (3):
(3) , (4): Weil H endlichdimensional ist, ist U genau dann ein Rechtsinverses zu U, wenn es
ein Linksinverses zu U ist.
Warnung: Fur unendlichdimensionale Hilbertraume sind (3) und (4) nicht aquivalent. Man ver-
langt dann von unitaren Operatoren explizit, da sie invertierbar sind.
Wegen der A quivalenz von (1), (3) und (4) ist jeder unitare Endomorphismus normal. 2
Wir konnen also Folgerung 2 auf den unitaren Endomorphismus U anwenden. Sei H(U) 6= f0g,
v 2 H(U) f0g. Dann gilt kvk = kUvk = kvk = jjkvk, also jj = 1. Wir erhalten
Folgerung 3: Fur unitares U gilt die direkte orthogonale Summenzerlegung
M
H= H(U): 2
2C;jj=1
Folgerung 4: Seien A1 ; : : :; An paarweise kommutierende normale Endomorphismen von H.
Dann gilt die orthogonale direkte Summenzerlegung
M
H= H1;:::;n (A1; : : :; An):
(1 ;:::;n)2Cn
Wenn dabei Ai unitar ist, so verschwinden die Summanden zu (1 ; : : :; n ) mit jij =
6 1.
Beweis: Dies folgt aus Lemma 3 und Folgerung 2 in derselben Weise wie Theorem 2 aus Theorem
1 und Lemma 3 folgt.
Fakt 5: Sei p ein Endomorphismus eines endlichdimensionalen Hilbertraumes H. Dann ist p
genau dann ein Orthogonalprojektor auf einem Unterraum von H, wenn p2 = p und p = p gilt,
d.h., wenn p ein selbstadjungiertes Idempotent ist.
Beweis: Sei p der Orthogonalprojektor auf den Unterraum X H. Es gilt H = X X ?. Fur
a; b 2 X, a~; ~b 2 X ? gilt
?
hp(a + a~); b + ~bi p(~a=)=0 ha; b + ~bi ~b2=X ha; bi = ha + a~; p(b + ~b)i
und
p2(a + a~) = p(p(a + a~)) = p(a) = a:
98
Weil alle x; y 2 H als x = a + a~ und y = b + ~b mit a; b 2 X und a~; ~b 2 X ? dargestellt werden
konnen, zeigt dies, da p = p und p2 = p gelten.
Sei umgekehrt p2 = p und p = p . Sei X = Bild(p) und Y = ker(p). Dann X ? = Y , denn
y 2 X ? , 8 x 2 X : hy; xi = 0 , 8 z 2 H : hy; p(z)i = 0 , 8 z 2 H : hp(y); z i = 0 , p(y) = 0.
Es gilt also H = X +Y = X +X ? . Sei x 2 X, dann gilt x = p(z) fur ein z 2 H. Also gilt p(x) =
p(p(z)) = p(z) = x. Fur y 2 X ? = Y = ker(p) gilt p(y) = 0. Also ist p Orthogonalprojektor auf
X. 2
Bemerkung 2:
1. Sei V ein endlichdimensionaler IR- oder C-Vektorraum und sei A 2 End(V ). Wir betrachten
die V -wertige Dierentialgleichung
dv = Av; v : IR ! V: ()
dt
Angenommen, V hat eine Basis (e1 ; : : :; en), die aus Eigenvektoren
P fur A besteht, Aei =
i ei . Dann ist die allgemeine Losung von () durch v(t) = ni=1 Ciei t ei gegeben, wobei
C1 ; : : :; Cn frei zu wahlen sind.
2. Eigentlich wird die Spektraltheorie erst im unendlichdimensionalen Fall richtig interes-
sant...
6.2 Eigenwerttheorie fur normale und selbstadjungierte Endomorphis-
men eines Euklidischen Vektorraumes
Sei V ein Euklidischer Vektorraum, K = IR, h; i das Skalarprodukt auf V .
Denition 1: Fur einen Endomorphismus A : V ! V sei A der durch die Gleichung
hAx; yi = hx; A yi eindeutig bestimmte Endomorphismus von V . A ist selbstadjungiert,
falls A = A gilt. A ist normal, wenn AA = A A gilt, d.h., falls A und A kommutieren.
Fakt 1: p ist genau dann Orthogonalprojektor auf einem Unterraum U V , wenn p = p und
p2 = p gilt.
Beweis: Analog zu Fakt 6.1.5.
Fakt 2: (A + B) = A + B , (A) = A , (AB) = BA , A = A.
Beweis: Analog zu Fakt 6.1.1.
Folgerung: Die selbstadjungierten Endomorphismen von V bilden also einen Unterraum im
Raum aller Endomorphismen von V . Das Produkt zweier selbstadjungierter Endomorphismen
ist genau dann selbstadjungiert, wenn die beiden Faktoren kommutieren. Fur jeden Endomor-
phismus A sind A + A , AA und A A selbstadjungiert.
Beweis: Analog zum Beweis derselben Folgerungen im vorherigen Kapitel.
Fakt 3: Sei B eine Orthonormalbasis von V . Dann gilt Mat B (A ) = Mat B (A)T , insbesondere
ist A genau dann selbstadjungiert, wenn Mat B (A) symmetrisch entlang der Hauptdiagonale ist.
Beweis: Analog zum Beweis im vorherigen Kapitel.
Sei von nun an A selbstadjungiert.
Fakt 4: Dann sind die Eigenraume von A zu verschiedenen Eigenwerten zueinander orthogonal.
Beweis: Wie Fakt 6.1.3: Sei x 2 V (A) = fx 2 V j Ax = xg und y 2 V# (A) fur 6= #, dann
hx; yi = hx; yi = hAx; yi = hx; Ayi = hx; #yi = #hx; yi. Also ( #)hx; yi = 0, also hx; yi = 0.
99
2
Wir mochten zeigen, da eine Orthonormalbasis von V existiert, die aus Eigenvektoren von A
besteht. Wir gehen wie im komplexen Fall vor.
Satz 1: Sei S = fx 2 V j kxk = 1g. Die Funktion x 7! hAx; xi ist auf der kompakten Menge
S stetig und nimmt daher auf S ein Maximum und ein Minimum an. Diese Extremwerte sind
Eigenwerte von A, die Argumente, an denen sie angenommen werden, sind Eigenvektoren von
A.
Beweis: Wie Satz 6.1.1.
Bemerkung 1: Oenbar sind auch alle normierten Eigenvektoren von A zu den Eigenwerten
+ = maxfhAx; xi j x 2 V ^ kxk = 1g, = minfhAx; xi j x 2 V ^ kxk = 1g Extrema der in
Satz 1 betrachteten Funktion.
Lemma 1: Sei A selbstadjungiert. Dann ist das orthogonale Komplement eines A-invarianten
Unterraumes A-invariant.
Beweis: Wie Lemma 6.1.2.
Theorem 3: Sei A ein selbstadjungierter Endomorphismus eines Euklidischen Vektorraumes
V . Dann gilt die orthogonale Summenzerlegung
M
V= V (A):
2IR
Insbesondere hat V eine Orthonormalbasis, die aus Eigenvektoren von A besteht.
Beweis: Wie Theorem 1 im letzten Kapitel.
Folgerung 1: (Hauptachsentransformation fur symmetrische Bilinearformen) Sei eine symme-
trische Bilinearform auf einem Euklidischen Vektorraum V . Dann hat V eine Orthonormalbasis
B, so da Mat B () eine Diagonalmatrix ist.
Beweis: Es gibt einen selbstadjungierten Endomorphismus A von V mit (x; y) = hAx; yi, das
folgt aus Satz 5.6.2. Anwendung von Theorem 3 auf A ergibt den Beweis. 2
Bemerkung: Sei (x; y) eine symmetrische Bilinearform auf IR2, die in der Standardbasis Dia-
gonalgestalt hat. Dann ((x1 ; x2); (y1 ; y2)) = ax1y1 + bx2y2 . Wir nehmen weiterhin an, da
positiv denit ist, also a; b > 0, und a < b. Dann ist E = fx 2 IR2 j (x; x) = 1g eine Ellipse mit
der x-Achse als Hauptachse und der y-Achse als Nebenachse. Fur positiv denites auf V ist
fx 2 V j (x; x) = 1g ein Ellipsoid, eine Basis mit der in Folgerung 1 beschriebenen Eigenschaft
liefert die Haupt- und Nebenachsen fur dieses Ellipsoid. Falls dim(V ) = 2 und nicht ausgeartet,
aber indenit ist, so ist fx 2 V j (x; x) = 1g eine Hyperbel.
Theorem 4: Seien A1 ; : : :; An paarweise kommutierende selbstadjungierte Endomorphismen
eines Euklidischen Vektorraumes V . Dann gilt die orthogonale Summenzerlegung
M
V= V1 ;:::;n (A1 ; : : :; An):
(1 ;:::;n )2IRn
Insbesondere hat V eine Orthonormalbasis, in der alle Ai Diagonalgestalt haben.
Beweis: Dies leitet man mit Hilfe von Lemma 6.2.1 aus Theorem 3 in derselben Weise her, wie
Theorem 2 aus Theorem 1.
100
Denition 2: Sei A ein normaler Endomorphismus von V . Fur r > 0 und 0 < ' < setzen
wir
Vr;' (A) = fx 2 V j AA x = r2x ^ (A + A )x = 2r cos ' xg:
2. Fur r > 0 und 0 < ' < hat Vr;' (A) eine Orthonormalbasis B = (e1 ; : : :; ek ; f1; : : :; fk )
mit Aei = r cos 'ei + r sin 'fi , Afi = r cos 'fi r sin 'ei fur 1 i k. Mit anderen
Worten,
Mat B (AjVr;' ) = rr cos '11k r sin '11k :
sin '11 r cos '11
k k
Insbesondere ist die Dimension von Vr;' (A) gerade.
Beweis: Beim Beweis von Folgerung 6.1.2 hatten wir Theorem 2 auf 12 (A + A ) und 21i (A
A ) angewendet. Eine analoge Anwendung von Theorem 4 ist hier nicht moglich, denn der
zweite dieser Ausdrucke macht keinen Sinn mehr. Statt dessen wenden wir Theorem 4 auf die
kommutierenden selbstadjungierten Endomorphismen A + A und AA an. Wir erhalten
M
V= Vr;s (AA ; A + A ) (orthogonal) : ()
(r;s)2IR2
Lemma 2:
1. Wenn Vpt;s(AA ; A + A ) 6= f0g gilt, so gilt 0 ( s2 )2 t. Mit anderen Worten, t 0 und
jsj 2 t.
2. V( 2s )2 ;s(AA ; A + A ) = V 2s (A).
p p
3. Sei jsj < 2 t, also s = 2 t cos ' fur ein eindeutig bestimmtes 0 < ' < . Dann gilt
Vt;s (AA ; A + A ) = Vpt;' (A).
Oenbar beweist das Lemma den ersten Punkt des Theorems, denn es identiziert () mit der
zu beweisenden Orthogonalzerlegung.
Beweis von Lemma 2: Wir benutzen eine Halfte von
Lemma 3: Ein Endomorphismus eines Euklidischen Vektorraumes V ist genau dann normal,
wenn fur alle x 2 V gilt kAxk = kA xk.
Bemerkung: Dies gilt auch fur endlichdimensionale Hilbertr
p aume. p p
Beweis von Lemma 3: Sei A normal. Dann ist kAxk = hAx; Axi = hAAx; xi = hA x; A xi =
kAxk. Die andere Richtung ist U bungsaufgabe. 2
Beweis von Lemma 2: Zu (1): Sei x 2 Vt;s(AA ; A + A ) f0g. Wir setzen o.B.d.A. kxk = 1
voraus. Espgilt: kA xk2 = hA x; Axi = hx; AA xi = hx; txi = thx; xi = t. Also gilt t 0 und
kApxk = t. Nach Lemma 3 gilt kAxk = kA xk. Es gilt jsj = k(A + A )xk kAxk + kA xk =
2 t. Damit ist (1) bewiesen. Gleichheit tritt in der letzten Zeile nur dann ein, wenn Gleichheit in
der Dreiecksungleichung eintritt, also wenn einer der Vektoren Ax und A x ein nicht negatives
101
Vielfaches des anderen ist. Wegen kAxk = kA xk ist das der Fall genau dann, wenn Ax = A x.
Dann gilt 2Ax = (A + A )x = sx, und x 2 V 2s (A), womit "" in (2) bewiesen ist. (3) lauft auf
eine einfache Anwendung von Denition 2 hinaus: Vr;' (A) = fx 2 V j AA x = r2 x; (A +A )x =
2r cos 'xg = Vr2 ;2r cos ' (AA ; A + A ). "" von (2): Es gilt nach (1), (3) und ()
M M
V= V( 2s )2 ;s(AA ; A + A ) Vr;' (A):
s2IR r>0
0<'<
Weil A und A kommutieren, ist diese Zerlegung A-invariant. Daraus folgt fur 2 IR leicht:
M M
V (A) = V (A) \ V( 2s )2 ;s(AA ; A + A ) V (A) \ Vr;' (A)
s2IR | {z } r>0
V s2 (A) 0<'<
| {z }
6=f0g nur fur s=2
M
= V2 ;2(AA ; A + A ) V (A) \{zVr;' (A)}
r>0 |
0<'< =f0g
= V2 ;2(AA ; A + A )
Es verbleibt der Beweis der versprochenen Behauptung V (A) \ Vr;' (A) = 0 fur 0 < ' <
und r > 0. Andernfalls sei x ein von 0 verschiedener Vektor dieses Durchschnitts,
phAx; phAwobei wir
kpxk = 1 voraussetzen
p d
u rfen. Dann gilt j j = kxk = kAx k = Ax i = Ax; x i =
hAA x; xi = r2hx; xi = r. Also jj = r. Es gilt = hAx; xi = hx; Axi = hA x; xi. Also
gilt 2 = h(A + A )x; xi = 2r cos '. Dies kann fur 0 < ' < und r = jj = 6 0 nicht der Fall
sein. Dieser Widerspruch beweist die versprochene Behauptung V (A) \ Vr;' (A) = f0g und der
Beweis von (2) ist vollstandig. 2
Beweis von Theorem 5.2: Der Beweis erfolgt durch eine Kette von Lemmata.
Lemma 4: Fur einen Endomorphismus U eines Euklidischen Vektorraumes V sind folgende
Aussagen aquivalent:
1. U ist orthogonal;
2. kUxk = kxk fur alle x 2 V ;
3. UU = IdV ;
4. U U = IdV .
Insbesondere sind alle U 2 O(V; h; i) normal.
Beweis: wie Fakt 6.1.4.
Lemma 5: Sei V ein Euklidischer Vektorraum mit dimV 6= 0 und A ein normaler Endomor-
phismus von V , so da V = Vr;' (A) fur ein r > 0 und 0 < ' < gilt.
1. Dann ist jedes Element von v in einem zweidimensionalen A-invarianten Unterraum ent-
halten.
2. U = A=r 2 O(V ). Insbesondere gilt hAx; Ayi = 0 falls hx; yi = 0.
3. Das orthogonale Komplement eines A-invarianten Unterraumes ist A-invariant.
4. V hat eine orthogonale Zerlegung in zweidimensionale A-invariante Unterraume.
102
Beweis:
1. Es gilt A2 = A(A + A ) AA = 2r cos 'A r2IdV . Also ist fur alle x 2 V der Un-
terraum L(fx; Axg) A-invariant. Fur x 6= 0 ist dieser Unterraum zweidimensional, denn
wenn er eindimensional ware, ware x ein Eigenvektor von A, im Widerspruch zu der schon
bewiesenen Summenzerlegung aus Theorem 5.
2. Es gilt kAxk2 = hAx; Axi = hx; A Axi = r2 hx; xi, also kAxk = rkxk, also kUxk = kxk.
Nach Lemma 4 ist U orthogonal.
3. Sei W V A-invariant, dann ist W auch U-invariant, also ist U jW ein orthogonaler
Automorphismus von W. Sei x 2 W ? , y 2 W, dann gibt es ein y~ 2 W mit y = U y~, und
hUx; yi = hUx; U y~i = hx; y~i = 0. Also ist W ? U-invariant und damit auch A-invariant.
4. Beweis durch Induktion nach dim(V ), beginnend mit dem trivialen Fall dim(V ) = 0. Sei die
Behauptung fur Vektorraume kleinerer Dimension als V bewiesen. Sei x 2 V f0g, W V
ein zweidimensionaler A-invarianter Unterraum mit x 2 W (vgl. (1)). Dann gilt V =
W W ? . Nach (3) ist W ? A-invariant und man sieht leicht W ? = Wr;' ? (AjW ? ). Nach der
Induktionsvoraussetzung ist W ? die orthogonale direkte Summe von zweidimensionalen
A-invarianten Unterraumen. 2
Lemma 6: Unter den Voraussetzungen von Lemma 5 sei zusatzlich V zweidimensional. Wenn
B eine Orthonormalbasis von V ist, so gilt
Mat B (A) = rr cos ' r sin ' oder Mat (A) = r cos ' r sin ' :
sin ' r cos ' B r sin ' r cos '
Dabei kann B stets so gewahlt werden, da der erste adieser Falle eintritt.
Beweis: Sei B = (e1; e2) und sei Mat B (A) = c db . Dann Ae1 = ae1 + ce2 . Es gilt
hAe1 ; e1i = he1 ; A e1 i = hA e1 ; e1 i, also a = hAe1 ; e1i = h 21 (A + A )e1 ; e1 i = hr cos ' e1 ; e1i =
r cos '. Ebenso zeigt man d = r cos '. Es gilt r2 = kAe1k2 = a2 + c2 = r2 cos2 ' + c2, also
c = r sin '. Ebenso zeigt man b = r sin '. Wenn b = c ware, so ware Mat B (A) symmetrisch,
also ware A selbstadjungiert. Aber A kann in V keine Eigenvektoren haben. Also c = d. Damit
tritt einer der beiden behaupteten Falle ein. Falls der zweite Fall eintreten sollte, so vertauschen
wir e1 und e2 und erhalten auf diese Weise eine Orthonormalbasis von V , auf die der erste Fall
zutrit. 2
Beweis vonLTheorem 5, (2): Nach Lemma 5 zerfallt Vr;'(A) in eine orthogonale direkte Summe
Vr;' (A) = ki=1 Wi zweidimensionaler A-invarianter Unterraume. r cosNach Lemma 6hat Wi eine
Orthonormalbasis (ei ; fi ), in der AjWi die Matrixdarstellung r sin '' rrcos sin ' hat. Dann
'
hat die Orthonormalbasis (e1 ; : : :; ek ; f1; : : :; fk ) von Vr;' die geforderte Eigenschaft. 2
Bemerkung: Auf (Vr;' (A))C ist die Komplexizierung der Einschrankung von A ein normaler
Endomorphismus mit den Eigenwerten rei' .
Folgerung 2: Sei V ein Euklidischer Vektorraum, U ein orthogonaler Endomorphismus von V .
1. Es gilt M
V = V1 (U) V 1 (U) V1;'(U):
0<'<
103
2. V1;' (U) hat eine Basis B = (e1 ; : : :; ek ; f1 ; : : :; fk ) mit
cos '11 sin '11
Mat B (U jV1;' ) = sin '11kk cos '11kk :
3. V 1 (U) hat gerade Dimension, falls U 2 SO(V; h; i) (d.h., det(U) = 1). Falls det(U) = 1,
hat V 1 (U) ungerade Dimension.
4. Wenn die Dimension von V ungerade ist, hat U einen Eigenwert. Falls zusatzlich det(U) = 1
gilt, so ist 1 ein Eigenwert.
Beweis:
1. Es gilt UU = IdV , also gilt Vr;' (U) = f0g fur r 6= 1. Wegen kUxk = kxk, sind 1 die
einzigen Eigenwerte von U. Die Behauptung folgt nun aus Theorem 5.
2. folgt ebenfalls aus Theorem 5.
3. Fakt: Sei A ein Endomorphismus eines endlichdimensionalen Vektorraumes X, und sei
X = Y Z eine direkte Zerlegung von X in A-invariante Unterraume. Dann gilt det(A) =
det(AjY ) det(AjZ ), d.h.
A 0
0 B = det(A) det(B); A 2 Mat (k; k; K); B 2 Mat (l; l; K):
Der Beweis erfolgt durch Induktion nach k, Au
osung nach der ersten Zeile. Es folgt
Y
det(U) = det(U jV1(U ) ) det(U jV 1 (U )) det(U jV1;'(U ) )
| {z }
0<'<
=1, falls V1;' (U )=f0g
V U Y cos ' sin ' dim(V1;'(U ))=2
= 1( 1)dim( 1 ( ))
sin ' cos ' = ( 1)dim(V 1 (U ))
0<'<
4. folgt, weil V1;' (V ) fur 0 < ' < gerade Dimension hat. Wenn zusatzlich det(U) = 1 gilt,
so hat auch V 1 (U) gerade Dimension (nach (3)), also ist dim(V1 (U)) ungerade und daher
ungleich Null. 2
Folgerung 3: Jedes Element von SO(2) fId g hat bezuglich der Standardbasis des IR2 die
Matrixdarstellung r cos ' r sin '
r sin ' r cos '
mit 0 < ' < 2 und ' eindeutig bestimmt.
Beweis: folgt aus Lemma 6.
Folgerung 4: Sei V ein dreidimensionaler Euklidischer Vektorraum und sei
U 2 SO(V; h; i) fIdV g. Dann gibt es ein eindeutig bestimmtes ' mit 0 < ' < , den Dreh-
winkel von U, so da V = V1 (U) V1;' (U).
Beweis: folgt aus Folgerung 2.
104
6.3 Das charakteristische Polynom
Sei K ein Korper.
Denition 1: Ein Polynom mit Koezienten aus K ist eine Folge p = (pk)1k=0, so da pi 2 K
und ein i0 mit pi = 0 fur i > i0 existiert. Wir schreiben
X
i0
p(T ) = pk T k :
k=0
Sei K[T ] die Menge aller Polynome mit Koezienten aus K. Diese Menge bildet einen K-
Vektorraum mit den Operationen
(pi )1 1 1
i=0 + (qi )i=0 = (pi + qi)i=0 ;
(pi )1 1
i=0 = (pi )i=0 :
Das konstante Polynom ist durch die Folge (; 0; : : :) deniert. Die Multiplikation Pm p zweier
Polynome (pk )1 k=0 und (q ) 1
k k=0 ist durch die Folge (v )1
k k=0 gegeben, wobei vm = k=0 k qm k .
Fur x 2PK und p = (p )1
k k=0 2 K[T] sei der Funktionswert von p an der Stelle x durch
p(x) = 1 k=0 kp x k deniert (diese Summe ist tats
a chlich endlich). x ist eine Nullstelle , falls
p(x) = 0 gilt. Der Grad eines von Null verschiedenen Polynoms p ist das grote i mit pi 6= 0.
Der Grad des Nullpolynoms sei 1. Wir bezeichnen den Grad von p mit deg p.
Bemerkung 1: Wenn K endlich ist, gibt es von Null verschiedene Polynome p 2 K[T ] mit
p(x) = 0 fur alle x 2 K. Deshalb konnten wir Polynome nicht einfach als Funktionen P von K
nach K denieren. Zum Beispiel gilt x + x = 0 fur alle x 2 IF2. In p(T) = k=0 pk T k mu
2 deg p
man T als eine Variable auassen, in die man auch Elemente von Erweiterungskorpern von K
einsetzen kann.
Fakt 1: Seien P; Q 2 K[T ]. Dann gilt fur x 2 K
1. (PQ)(x) = P(x)Q(x), (P + Q)(x) = P(x) + Q(x);
2. deg(PQ) = deg P +deg Q ,deg(P +Q) maxfdeg P; deg Qg ( 1 + 1 = 1; 1 +c =
1 8c 2 IN). Falls deg Q < deg P, so gilt insbesondere deg(P + Q) = deg P.
Beweis: Sei PQ = R = (rk )1k=0. Dann gilt
X
1 X
1Xk
R(x) = rk xk = p i qk i xk
k=0 i=0
k=0
X
1 X
1 ! 0X
1
1
= pi qj xi+j = pixi @ qj xj A = P(x)Q(x)
i;j =0 i=0 j =0
Die zweite Formel ist noch einfacher.
Die dritte Formel ist oenbar richtig, falls P oder Q verschwindet, denn dann sind beide Seiten
1. Sei P 6= 0 und Q 6= 0, a = deg P, b = deg Q. Sei R = PQ = (rk )1 k=0 . Dann gilt
X
a+b
ra+b = pi qa+b i:
i=0
105
Fur i > a verschwindet in piqa+b i der erste Faktor, fur i < a gilt a+b i > b und es verschwindet
der zweite Faktor. Also bleibt in der letzten Summe nur ein Summand ubrig. va+b = pa qb 6= 0.
Fur k > a + b gilt
Xk
rk = pi qk i;
i=0
und in pi qk i verschwindet fur i > a der erste Faktor, fur i a der zweite Faktor, es gilt namlich
k i > a+b i b. Also gilt ra+b 6= 0 und ri = 0 fur i > a+b, also deg R = a+b = deg P +deg Q.
Sei S = P + Q = (sk )1 k=0. Fur k > maxfdeg P; deg Qg gilt sk = pk + qk = 0. Also deg S
maxfdeg P; deg Qg. Falls deg Q < deg P gilt sdeg p = pdeg p + qdeg p = pdeg p 6= 0, also deg S =
deg P. 2
Bemerkung:
1. Insbesondere folgt aus P 6= 0 und Q 6= 0 deg(PQ) = deg P + deg Q 0, also PQ 6= 0.
2. P ist genau dann ein konstantes Polynom, wenn deg P = 0 oder deg P = 1.
3. Sei K ein endlicher Korper, seien x1 ; : : :; xq die Q
Elemente
Q
von K und sei P(T) = qk=1(T
q
xk ). Dann gilt deg P = q, P 6= 0, aber P(x) = k=1 (x xk ) = 0 fur x 2 K.
4. Polynomaddition und Polynommultiplikation sind kommutativ und assoziativ. Es gilt auch
das Distributivgesetz P(Q+R) = PQ+PR. Fur das konstante Polynom 1 gilt 1P = P, fur
das konstante Polynom 0 gilt P + 0 = P und 0P = 0. (K[T ]; +) ist eine abelsche Gruppe.
Man sagt dazu, (K[T ]; +; ) ein kommutativer Ring mit Einselement ist (ebenso wie
(Z; +; )).
Satz 1: (Division mit Rest) Sei P; Q 2 K[T] und Q 6= 0. Dann kann P mit Rest durch Q
geteilt werden; P = XQ + R mit X 2 K[T], R 2 K[T] und deg R < deg Q. Dabei sind X und
R durch diese Eigenschaften eindeutig bestimmt.
Beweis: Existenz der Division mit Rest, Induktion nach deg P. Fur deg P < deg Q ist P =
0Q + P eine Division mit Rest. Sei die Existenz der Division mit Rest durch Q fur Polynome
kleineren Grades als P bewiesen. Sei weiterhin deg P deg Q. Sei
~ = P(T) pdeg P T deg P deg Q Q(T):
P(T) qdeg Q
Der Grad des Subtrahenden ist gleich deg P, sein fuhrender Koezient ist
pdeg P q
qdegQ deg Q = pdeg P :
Also gilt p~deg P = 0. Also deg P~ < deg P. Nach Induktionsvoraussetzung kann P~ als P~ = XQ+R
~
dargestellt werden mit deg R < deg Q. Dann gilt aber P = XQ + R mit
~ + pdeg P T deg P deg Q :
X(T ) = X(T) qdeg Q
Damit ist die Existenz der Division mit Rest bewiesen.
Beweis der Eindeutigkeit: Angenommen, XQ+R = P = XQ+ ~ R~ mit deg R < deg Q und deg R~ <
deg Q. Falls X = X~ folgt sofort R = R, ~ denn (K[T ]; +) ist eine abelsche Gruppe. Wenn X 6= X,
~
so ware in Q(X X) ~ = R~ R nach Fakt 1 der Grad der linken Seite deg Q+deg(X X) ~ deg Q,
der Grad der rechten Seite dagegen < deg Q. Widerspruch. 2
106
Bemerkung: Der fuhrende Koezient eines von 0 verschiedenen Polynoms P = (pk )1k=0 ist
pdeg P . Bei der Multiplikation multiplizieren sich die fuhrenden Koezienten. Der Grad einer
Summe zweier Polynome gleichen Grades ist genau dann kleiner als der Grad der Summanden,
wenn die Summe der fuhrenden Koezienten Null ergibt.
Fakt 2: Jedes Polynom P 6= 0 kann auf eindeutige Weise als
Yk
P(T) = (T xi)vi Q(T)
i=1
dargestellt werden, wobei Q 2 K[T] mit Q(x) 6= 0 fur alle x 2 K und x1; : : :; xk paarweise
verschieden sind; k; vi 2 IN eindeutig bestimmt. Man nennt die vi die Vielfachheit der Nullstelle
xi.
Beweis: Existenz durch Induktion nach deg P. Fur deg P = 0 sei k = 0 und Q = P. Sei die
Behauptung fur Polynome kleineren Grades bewiesen. Wenn P keine Nullstelle hat, sei k = 0
und Q = P. Wenn x eine Nullstelle von P ist, dann dividieren wir P mit Rest durch (T x):
P(T) = (T x)P(T ~ ) + R. Wegen deg R < deg(T x) = 1 ist R konstant. Wegen P(x) =
~
(x x)P(x)+R(x) = R(x) gilt R = 0. Also P(T) = (T x)P(x). ~ = Q~ki=1(T xi )v~i Q(T)
~ Sei P(T)
eine Zerlegung der beschriebenen Art fur P. ~ Sie existiert nach der Induktionsvoraussetzung, denn
deg P = deg(T x) + deg P = 1 + deg P. Falls kein i mit 1 i k~ und x = xi existiert, dann
~ ~
sei k = k~ + 1, xi = x~i, vi = v~i fur 1 i k~ und xk = x, vk = 1. Falls x = xi fur ein i,
1iQ k~, gilt, sei k = k~, xj = x~j und vj = v~j fur i 6= j und vi = v~i + 1. In beiden Fallen gilt
P(T) = ki=1 (T xi)vi Q(T ). Damit ist der Beweis der Existenz abgeschlossen.
Beweis der Eindeutigkeit der Zerlegung: Angenommen, x ist eine Nullstelle von P. Dann mu
einer der Faktoren Q(x) oder (x xi)vi , 1 i k, verschwinden. Weil Q keine Nullstelle
hat, mu x 2 fx1; : : :; xkg sein. Auf der anderen Seite sind alle xi Nullstellen von P. Also ist
fx1; : : :; xk g = fx 2 K j P(x) = 0g durch P eindeutig Q bestimmt. Eine andere Zerlegung der
k
beschriebenen Art fur P hat also die Form P(T) = i=1 (T xi)v~i Q(T ~ ). Angenommen, es gabe
ein i mit 1 i k und v~i 6= vi . Wir konnen o.B.d.A. i = 1 und v~1 < v1 annehmen. Dann gilt
"Yk Yk #
~
0 = P(T) P(T ) = (T x1)v~1 (T ~
xi)v~i Q(T) (T x1)v1 v~1 (T xi)vi Q(T) :
i=2 i=2
Aber K[T ] ist nullteilerfrei, d.h., das Produkt zweier von 0 verschiedener Polynome ist von 0
verschieden. Wegen (T x1 )v~1 6= 0 mu in der letzten Gleichung der Faktor in eckigen Klammern
verschwinden:
Yk ~ = (T x1)v1 v~1 Y(T xi)vi Q(t):
k
(T xi )v~i Q(T)
i=2 i=2
Dies ist nicht moglich, denn x1 ist eine
Q Nullstelle der rechten~Seite, nicht aber der linken. Also
vi = v~i fur 1 i k. Dann gilt 0 = ki=1 (T xi)vi (Q(T) Q(T ~
)), also Q = Q. 2
Folgerung 1: Ein PolynomQ P 6= 0 n-ten Grades hat hochstens n verschiedene Nullstellen.
k
Beweis: Sei P(T ) = i=1 (T xi)vi Q(T ) wie in Fakt 2, dann
X
k X
k
deg P = deg(T xi )vi + deg Q = vi + deg Q k = Anzahl Nullstellen von P in K:
i=1 i=1
2
Bemerkung: Die Zahl k aus Fakt 2 ist die Anzahl der verschiedenen Nullstellen von P in K.
107
vi nennt man dabei die Vielfachheit der Nullstelle xi.
Folgerung 2: Wenn K unendlich viele Elemente hat, ist ein Polynom P 2 K[T ] durch die Funk-
tion K ! K, x 7! P(x), eindeutig bestimmt. Insbesondere ist dies fur Korper mit char(K) = 0
der Fall.
Beweis: Folgt aus Folgerung 1. 2
Bemerkung: Folgerung 1 hatte auch mit der Formel fur die Vandermondsche Determinante
bewiesen werden konnen.
Denition 2: Ein Korper K ist algebraisch abgeschlossen, wenn jedes nichtkonstante
Polynom eine Nullstelle in K hat.
Fakt 3: Dann zerfallt jedes Polynom P 6= 0 in Linearfaktoren, d.h. die Zerlegung aus Fakt 2
nimmt die Form
YL
P(T ) = q (T xi)vi
i=1
an. Faktoren (T xi ) nennt man Linearfaktoren.
Beweis: Nach Denition 2 mu das Polynom Q aus Fakt 2 konstant sein. 2
Bemerkung: Ein endlicher Korper ist niemals algebraisch abgeschlossen.
Beweis: Sei K = fx1; : : :; xng, dann hat das Polynom P(T ) = 1 + Qni=1(T xi) keine Nullstelle
in K. 2
Fakt 4: IR ist nicht algebraisch abgeschlossen. Jedes Polynom ungeraden Grades hat eine Null-
stelle.
Beweis: x2 + 1 = 0 hat keine reelle Losung. Sei deg P ungerade und der fuhrende Koezi-
ent 1. Dann limT !1 P(T) = 1 und limT ! 1 P(T) = 1, da P stetig ist, hat P nach dem
Zwischenwertsatz eine Nullstelle. 2
Theorem 6: (C.F. Gau, Fundamentalsatz der Algebra) C ist algebraisch abgeschlossen.
Bemerkung 2: Eigentlich betrachtet man Theorem 6 als einen Satz der Analysis. Der erste
weitgehend algebraische Beweis wurde von E. Artin und Schreier angegeben (1922).
Lemma 1: Fur jedes n 2 IN kann man aus jeder komplexen Zahl z eine n-te Wurzel ziehen.
Beweis: Sei z = rei' = r cos ' + ir sin ', r 0, 0 ' < 2. Dann ist
nprei 'n = npr cos ' + inpr sin '
n n
eine n-te Wurzel aus z. 2
Bemerkung: Beim Beweis von Theorem 6 konnen wir uns auf Polynome mit fuhrendem Koef-
zienten 1 beschranken. Sei also
nX1
P(T) = T n + pk T k : ()
k=0
Lemma 2: Sei x0 ein lokales Minimum der Funktion z 7! jP(z)j, C ! IR. Dann ist x0 eine
Nullstelle von P.
Beweis: Angenommen, p = P(x0) 6= 0. Sei P(T ) = p + (T x0)k Q(T), mit Q(x0) = q 6= 0 (vgl.
108
Satz 1, Fakt 2), k > 0. Sei z eine k-te Wurzel aus qp . Fur r > 0 gilt
jP(x0 + rz)j = jp + (rz)k Q(x0 + rz)j = jp pq rk (q + |a0rz + : : {z
: + ak (rz)k})j
O(r)
= jp prk + O(rk+1)j jpj(1 rk ) + crk+1
fur eine Konstante c. Wenn also 0 < r < min(1; pc ) ist, so gilt jP(x0 +rz)j < jP(x0)j. Widerspruch
zu unserer Annahme p = P(x0) 6= 0. 2
Lemma 3: Die (stetige) Funktion f(z) = jP(z)j nimmt auf C ein Minimum an.
Beweis: Sei n der Grad des Polynoms (vgl. ()). Sei R = maxfjpij j 0 i < ng. Fur jxj > S =
max(1; jp0j + nR), x 2 C, gilt
nX1 jxj1
f(x) = jP(x)j jxjn j pixi j jxjn nRjxjn 1 = jxjn 1(jxj nR) > p0 = jP(0)j = f(0):
i=0
Nach Satzen aus der Analysis nimmt die stetige Funktion f(z) auf der kompakten Menge fz j
jz j S g ein Minimum an. Nach der vorhergehenden U berlegung ist dieses Minimum auch ein
Minimum von f auf ganz C. 2
Theorem 6 folgt nun aus Lemma 2 und Lemma 3. 2
Bemerkung 3: Aus Grunden der Einfachheit nehmen wir an, da K unendlich viele Elemente
hat. Dann ist P 2 K[T] eindeutig durch die Funktion K ! K, x 7! P(x), deniert.
Satz 2:
1. Sei V ein endlichdimensionaler K-Vektorraum und A ein Endomorphismus von V . Dann
gibt es genau ein Polynom PA 2 K[T ] mit det(IdV A) = P() fur alle 2 K.
deg PA = dimV .
2. Sei A 2 Mat(n; n; K). Dann existiert genau ein Polynom PA 2 K[T] mit det(11n A) =
PA(). Es gilt deg PA = n.
Beweis: Die Eindeutigkeit von PA folgt in beiden Fallen aus Folgerung 2. Es genugt, (2) zu
beweisen (PA = PMatB (A) ). Sei also A = (aij )ni;j =1. Nach der Leibnizschen Determinantenformel
gilt
X Y
n
det(11n A) = det(ij aij )ni;j =1 = sign() (i;(i) ai;(i) )
2Sn i=1
X
= PA; ();
2 Sn
wobei PA; 2 K[T] durch
Y
n
PA; (T) = sign() (Ti;(i) ai;(i) )
i=1
Y Y
= sign() ( ai;(i) ) (T aii );
1in 1in
(i)6=i (i)=i
109
P
deniert ist. Also det(11n A) = PA (), wobei PA = 2Sn PA; . Es verbleibt die Bestimmung
des Grades von PA .
n = Id
deg(PA; ) (=) jfi j 1 i n ^ (i) = igj = n 2 6= Id ; ()
denn jede Permutation von f1; : : :; ng, die n 1 dieser Zahlen festlat, lat wegen ihrer Bijekti-
vitat auch die verbleibende Zahl fest. Aus () und Fakt 1 folgt deg(PA ) = n, denn
X
PA = PA;Id + PA; : 2
| {z } 6
= Id
deg=n | {z }
deg<n nach Fakt 1
Bemerkung: Die Denition von PA; und damit auch die Denition von PA funktioniert auch
fur endliche Korper K. In der Situation von Satz 2, (1) setzt man dann PA = PMatB (A) und hat
dann noch die Unabhangigkeit dieses Polynomes von B zu zeigen.
Denition 3: PA nennt man das charakteristische Polynom von A.
Bemerkung: Es gibt auch die Konvention P~A () = det(A Id) fur das charakteristische
Polynom.
Denition 4: Die Spur tr(A) von A 2 Mat (n; n; K) ist die Summe ihrer Diagonalelemente.
Die Spur eines Endomorphismus eines endlichdimensionalen Vektorraumes ist die Spur seiner
Matrixdarstellung bezuglich einer beliebigen Basis.
Fakt 6: Seien A; B 2 Mat (n; n; K). Es gilt:
1. tr(AB) = tr(BA)
2. tr(A + B) = tr(A) + tr(B)
3. Der zweithochste Koezient des charakteristischen Polynoms von A ist tr(A).
Insbesondere ist die Spur eines Endomorphismus von V unabhangig von der Wahl der Basis von
V.
Beweis:
1. Sei A = (aij )ni;j =1, B = (bijP
)ni;j =1, AB = (cij )P
n , BA = (dij )n . Die Formel des
i;j =1 i;j =1
Matrixproduktes liefert cik = j =1 aij bjk, dik = nj=1 bij ajk , also
n
X
n X
n X
n X
n X
n X
n
tr(AB) = cii = aij bji = bjiaij = djj = tr(BA):
i=1 i=1 j =1 j =1 i=1 j =1
110
deg(PA; ) n 2, falls 6= Id. deg(PA;Id) = n. Also stimmt der zweithochste Koezient
von PA mit dem zweithochsten Koezienten von PA;Id uberein.
Y X Y
PA;Id () = ( aii ) = ( 1)n jS j aii jS j
1in S f1;:::;ng i62S
X
n
= n + aii n 1 + Terme vom Grad n 2
i=1
= n tr(A)n 1 + Terme vom Grad n 2:
Sei nun A ein Endomorphismus von V . Wir mochten zeigen, da tr(Mat B;B (A)) von der Auswahl
dieser Basis unabhangig ist. Sei B~ eine andere Basis von V . Dann gilt
Mat B;~ B~ (A) = Mat B;B~ (Id)Mat B;B~ (A)
= Mat B;B~ (Id)Mat B;B (A)Mat B;B~ (Id) = MMat B;B M 1
111
existiert genau ein Projektor p mit ker(p) = Y und Bild (p) = X.
Beweis: Sei p vorgegeben. Aus v 2 ker(p) \ Bild (p), etwa v = p(w), folgt
0 = p(v) = p(p(w)) = p2(w) = p(w) = v:
Also ker(p) \ Bild (p) = f0g. Wenn v 2 V vorgegeben ist, so gilt:
|{z}) + |(v {zp(V ))} :
v = p(V
2Bild(p) 2ker(p)
Also V = ker(p) Bild (p). Wenn umgekehrt V = X Y gilt, so sei p : V ! V durch p(v) = x
deniert, wobei v = x + y, x 2 X, y 2 Y die eindeutige Zerlegung von V in der direkten Summe
X Y ist. Dann ist p2 = p, ker(p) = Y , Bild (p) = X. 2
Bemerkung 6: Sei char (K) 6= 2.
1. Durch
Involution auf V Projektion in V
i ! p = 12 (id V + i)
i = 2p id V p
sind zwei zueinander inverse Bijektionen deniert.
2. Wenn i eine Involution auf V ist, so gilt V = V1 (i) V 1 (i).
Beweis: ist klar.
Bemerkung 7: Insbesondere nehmen Projektoren und, falls char (K) 6= 2, auch Involutionen
eines endlichdimensionalen Vektorraumes in einer geeigneten Basis stets Diagonalgestalt an. Die
Spur eines Projektors p ist dim(Bild(p)), das charakteristische Polynom von p ist Pp (T ) =
(T 1)dim(Bild(p)) T dim(ker(p)) . Wenn i eine Involution und char (K) 6= 2 ist, so gilt Pi (T) =
(T 1)dim(V1 (i)) (T + 1)dim(V 1 (i)) .
1 : : : 0 0 : : : 0 9
. . =
.. . . ... ... . . . ...
0 : : : 1 0 : : : 0 ; dim(Bild (p))dim(Bild(p)) dim(ker(p))
det(Id p) = 0 : : : 0 : : : 0 9 = = ( 1) :
. .
.. . . ... ... . . . ... ; dim(ker(p))
0 ::: 0 0 :::
6.4 Die Jordansche Normalform
Denition 1: Ein Endomorphismus N von V ist nilpotent, falls ein k 2 IN mit N k = 0
existiert. Ein Endomorphismus U von V ist unipotent, falls U id V nilpotent ist.
Bemerkung: Fur einen Korper K mit char (K) = 0 ist fur ein unipotentes U nicht gesichert,
da ein k > 0 existiert mit U k = id .
Fakt 1: Das Spektrum eines nilpotenten Endomorpismus besteht nur aus 0.
Beweis, falls dim(V ) < 1. Wir zeigen, da fur 6= 0 V(N) = f0g. In der Tat aus 6= 0 und
v 2 V (N) f0g wurde N k v = k v 6= 0 fur alle k folgen. 2
112
Bemerkung 1: In Korpern mit Charakteristik 0 gilt die Neumannsche Reihe:
X
1
(id N) 1 = k 1N k :
k=0
Beispiel: 00 1
1 ::: 0
B .. ... ... .. CC
N =B
B@ . . CA 2 Mat(k; k)
0 ::: 0 1
0 ::: 0 0
6 0, denn
erfullt N k = 0, aber N k 1 =
0 0 ::: 0 1 :::
0 1
BB ... : : : ... ... ..
....
CC
Ni = BB@ .. .
CC
. : : : .. ::: 0 1 A
| 0 {z: : : }0 ::: 0 0
i
113
X
p1
= k N p1 k N k 1e1;1 + j N p1 k j 1
| N{z e1;1}
j =k+1
=N p1 +j k 1 e1;1 =0 ,denn p1 +j k 1p1
= k e1;p1 6= 0;
im Widerspruch zu unserer Annahme, da v = 0 ist. Also ist die lineare Unabhangigkeit der e1;j
bewiesen.
Die e1;j bilden also eine Basis eines Teilraumes X von V . Wir werden einen komplementaren
N-invarianten
P 1 e +Unterraum
Pr # fY) zu= X nden. Sei (e1;1 ; : : :; e1;p1 ; f1; : : :; fr ) eine Basis von V . Durch
l( pj =1 j 1;j k=1 k k p1 ist ein Funktional l 2 V mit l(e1;j ) = p1 ;j deniert. Fur
x 2 V sei
Xp1
q(x) = l(N p1 j (x))e1;j :
j =1
Dann ist q ein Projektor auf X, denn Bild (q) X und
X
p1
q(e1;k ) = l( N p1 {zj (e1;k })
| )e1;j = e1;k :
j =1 0 j<k
=
e1;p1 +k j j k
Weiterhin ist q mit N vertauschbar:
X
p1
p j N p1 =0 Xp1
q(Nx) = l(N 1 +1 x)e1;j = l(N p1 +1 j x)N(e1;j 1)
j =1 j =2
0 p1 1 1 0 p1 1
X X
= N @ l(N p1 ~j x)e1;~j A = N @ l(N p1 ~j x)e1;~j A
~j =1 ~j=1
denn Ne1;p1 = 0. Also qN = Nq, und Y = ker(q) ist ein N-invarianter komplementarer Un-
terraum zu L;pi
eX. Nachj <derp Induktionsannahme gibt es eine Basis (ei;j )i=2;j=1 von Y , so da
Nei;j = 0i;j +1 j = pi . Dann ist (ei;j )L;p i=1;j =1 eine Basis von X mit der geforderten Ei-
i
i
genschaft.
Beweis der Eindeutigkeit: Sei (~ei;j )iL~=1
;p~1 eine andere Basis von V mit der beschriebenen Eigen-
;j =1
schaft. Wir konnen L~ L voraussetzen. Angenommen, L~ < L und fur 1 i L~ gilt pi = p~i .
Dann gilt
X
L~ X
L~ X
L
dim(V ) = p~i = pi < pi = dim(V ):
i=1 i=1 i=1
Widerspruch. Angenommen, es gabe ein i mit 1 i L~ und pi 6= p~i und pj = p~j fur 1 j i.
Falls p~i < pi gilt, fuhrt folgende Betrachtung zum Widerspruch: Eine Basis des Bildes von N K
ist gegeben durch fei;j j 1 i L ^ K + 1 j pig. Also
X
L
dim(Bild(N K )) = max(pi K; 0);
i=1
denn ei;j = N K ei;j K fur j > K oder N K ei;j = ei;j +K oder 0. Ebenso
X L~
dim(Bild(N K )) = max(0; p~i K):
j =1
114
Fur p~i < pi gilt einmal
X
L~
dim(Bild (N p~i )) = max(0; p~k p~i )
k=1
p~k p~i fur ki X
i 1
= (~pk p~i )
k=1
XL
= max(pk p~i ; 0) = dim(Bild(N p~i ))
k=1
Widerspruch. Da die Annahme L~ L bei diesem Argument nicht benutzt wurde, sondern nur die
Annahme 1 min(L; L~ ), kann die Annahme pi < p~i ebenso (durch Betrachtung von Bild (N pi ))
zum Widerspruch gefuhrt werden. 2
Denition 2:
V~(A) = fv 2 V j 9 k : (A id)k v = 0g
ist der verallgemeinerte Eigenraum oder Hauptraum zum Eigenwert .
Bemerkung: V~(A) ist A-invariant, dim(V~(A)) < 1 (insbesondere ist AjV~(A) id nilpotent,
falls dim(V ) < 1).
Beweis: Aus (A id )k v =: (A )k v = 0 folgt (A )k Av = A(A )k v = 0, also ist V~(A)
A-invariant. Falls dim(V~(A)) =: D < 1, sei e1 ; : : :; eD eine Basis dieses Unterraumes. Fur
1 i D gibt es ki mit (A )ki ei = 0. Dann ist (AV~ (A) )k = 0 mit k = max(k1; : : :; kD ).
Theorem 7: Sei A ein beliebiger Endomorphismus eines endlichdimensionalen Vektorraumes
V uber einem algebraisch abgeschlossenen Korper K.
1. Es gilt die direkte Summenzerlegung:
M
V= V~(A); (1)
2 K
die in Wahrheit endlich ist.
2. V~(A) hat eine Basis (e;i;j )Li=1
;P;i mit
;j =1
e falls j = P;i
Ae;i;j = ;i;j
e;i;j + e;i;j +1 falls j < P;i :
L und P;i sind dabei eindeutig bestimmt.
Q
3. PA(T ) = 2K (T )dim(V~ (A)) .
Beweis: Da uns die Existenz von Eigenwerten (fur von f0g verschiedene V ) garantiert ist
(K ist algebraisch abgeschlossen), besteht das Problem bei (1) darin, zu V~(A) einen Kom-
plementarraum zu nden. (2) folgt aus Satz 1, (3) ist einfach.
Lemma 1: Sei dim(V ) < 1, K, A beliebig. Dann gilt die direkte Summenzerlegung
\
1
V = V~(A) Bild (A )k :
k=0
115
Beweis: Wie wir schon bemerkt haben, gibt es ein k0 mit (A )k0 jV~ (A) = 0. Dann gilt
ker(A )k = V~(A) ()
fur k k0. Die absteigende Folge naturlicher Zahlen
dim(Bild (A )) : : : dim(Bild(A )i ) dim(Bild (A )i+1 : : :
stabilisiert sich (die Anzahl der echten Ungleichheiten ist dim(V )). Also gibt es ein k1 mit
Bild (A )k = Bild (A )k1 (y)
fur k k1. x 2 Bild (A )k ( 9 z : x = (A )k z ( 9 y : x = (A )k+1y ( x 2
Bild (A )k+1 . Sei i = max(k0; k1). Dann gilt () Bild (A )i \ ker(A )i = f0g und
() V = Bild (A )i + ker(A )i . Wegen () und (y) genugt es, das zu zeigen. Zu ():
Sei x 2 ker(A )i \ Bild (A )i . Also gibt es ein y 2 V mit x = (A )i y und es gilt
(A )2i y = 0. Wegen () folgt y 2 ker(A )i und x = 0. Zu (): Sei x 2 V vorgegeben. Wegen
(y) gilt (A )i x 2 Bild (A )i = Bild (A )2i . Also gibt es y 2 V mit (A )i x = (A )2i y.
Dann gilt
x = (A i i ()
| {z) y} + |(x (A{z ) y)} :
2Bild(A )i 2ker(A )i
2
Beweis von Theorem 7 durch Induktion nach dim(V ). Fur dim(V ) = 0 ist die Behauptung
klar. Sei dim(V ) > 0 und die Aussage (1) fur Raume kleinerer Dimension als V bewiesen. Weil
K algebraisch abgeschlossen ist, ist die Existenz eines Eigenwertes # 2 K von A garantiert.
Dann f0g = 6 V# (A) V#~(A). Sei W = Tk0 Bild ((A #)k ). Nach Lemma 1 ist W ein A-
invarianter (leicht zu zeigen) Komplement
L arraum zu V#~(A). Also dim(W) < dim(V ). Nach
Induktionsvoraussetzung gilt W = 2K W~(AjW ). Behauptung: () W#~(AjW ) = f0g und ():
Fur 6= # gilt W~(AjW ) = V~(A). Dann
M M M
V = V#~(A) W = V#~(A) W~(AjW ) = V#~(A) V~(A) = V~(A):
2K 2K f#g 2K
Daraus folgt (1). Zu (): W#~(A) W \ V#~(A) = f0g. Zu (): Oenbar gilt W~(A) V~(A).
Fur 6= # ist nun AjV~ (A) # = (AjV~ (A) ) ( #) invertierbar (AjV~ (A) ist nilpotent,
also Spektrum = 0.), also V~(A) = (A #)k V~(A) Bild (A #)k fur alle k, also V~(A) W
fur 6= #, und V~(A) W~(A) = W \ V~(A).
(2) folgt durch Anwendung von Satz 1 auf den nilpotenten Endomorphismus (AjV~ (A) id).
Sei weiterhin 0 0 ::: 01
B 1 . . . . . . ... CC
J;k = BB@ .. . . . . CA 2 Mat (k; k; K):
. . . 0
0 ::: 1
Seien 1 ; : : :; N die Eigenwerte von A, Lk = Lk ;pk;i = pk ;i. Sei (e;i;j ) eine Basis wie in (2) des
Theoremes und sei (f1 ; : : :; fM ) die Basis (e1 ;1;1; e;1;2; : : :; e1 ;1;p1;1 ; e1 ;2;1; : : :; e1 ;2;p1;2 ; : : :; e1;L1 ;1 ; : : :; eN ;L
Dann gilt
Mat B (A) = Diag(Jk ;pk;i )N;L k=1;i=1;
k
det(#id A) = det(#11M Mat B (A)) = det(Diag(#11pk;i Jkpk;i ))N;L k=1;i=1 . Die letzte Matrix ist
k
aber eine untere Dreiecksmatrix, ihre Determinante ist das Produkt ihrer Diagonalelemente: Die
116
Diagonaleintrage dieser Matrix sind # k von der Vielfachheit pk;1 +: : :+pk;Lk = dim(V~k (A)).
Damit folgt die Behauptung. 2
Folgerung 1: Unter den Voraussetzungen von Theorem 7 ist A genau dann diagonalisierbar,
falls fur alle 2 K V (A) und V~(A) ubereinstimmen. Dies ist genau dann der Fall, wenn fur al-
le Eigenwerte dim(V (A)) mit der Vielfachheit der Nullstelle des charakteristischen Polynoms
ubereinstimmt, denn sie ist gleich dim(V~(A)).
Beweis: P Die letzte AussageV ist= L wegen V (A) V~(A) klar. Sei A diagonalisierbar. Dann
V = 2K V(A). Wegen L ~ ~
2K V (A) kann dies nur fur V (A) = V (A) gelten. Sei
V(A) = V~(A). Dann V = 2K V (A), und V hat eine Basis aus Eigenvektoren. 2
Bemerkung 2: Theorem 7 und Folgerung 1 gelten auch fur nicht algebraisch abgeschlossene
Korper, wenn PA (T ) uber K in Linearfaktoren zerfallt.
Bemerkung 3: Eine andere Formulierung fur den Satz uber die Jordansche Normalform ist:
Jeder Endomorphismus eines endlichdimensionalen Vektorraumes V uber einem algebraisch ab-
geschlossenen Korper K kann auf eindeutige Weise als A = D + N geschrieben werden, wobei
D diagonalisierbar und N nilpotent ist und N und D kommutieren.
Beweis: Existenz der Zerlegung: Sei D durch Dx = x fur x 2 V~(A) und N durch A D
deniert. Eindeutigkeit: U bungsaufgabe. Zeige V (D) = V~(D) =! V~(A).
Bemerkung 4: Wenn N ein nilpotenter Endomorphismus von V ist, so gilt N dim(V ) = 0.
Beweis: folgt aus Satz 1.
Bemerkung 5: N ist nilpotent genau dann, wenn PA (T) = T dim(V ) . Fur dim(V ) = 2 ist dies
genau dann der Fall, wenn tr(N) = det(N) = 0 gilt.
Beweis: folgt aus Theorem 7.
Bemerkung 6: Wenn PA (T ) dim(V ) verschiedene Nullstellen hat, so ist A diagonalisierbar.
Beweis: Es gilt dim(V~(A)) =Vielfachheit der Nullstelle = 1, falls ein Eigenwert ist, denn
PA(T) kann keine mehrfache Nullstelle haben. Weil fur einen Eigenwert V (A) 6= f0g gilt, folgt
V(A) = V~(A). Mit Anwendung von Bemerkung 2 folgt die Behauptung. 2
117
7 Ane Raume und Faktorraume
7.1 Ane Raume
Denition 1: Ein aner Raum ist ein Tripel X = (X; TX; ), wobei X eine Menge, die
Menge der Punkte des anen Raumes, TX ein K-Vektorraum, der Translationsvektor-
raum von X und : X X ! TX eine Abbildung, die x; y 2 X den Vektor zuordnet, der
von x nach y zeigt, sind. Folgende Bedingungen mussen gelten:
1. (x; y) + (y; z) = (x; z)
2. Fur jedes x 2 X ist die Abbildung X ! TX, y 7! (x; y) bijektiv.
Bemerkung: Wenn (2) fur x gilt, so ist fur alle x0 2 X die Abbildung y 7! (x0 ; y) = (x0 ; x) +
(x; y) bijektiv. Daher reicht es auch, (2) fur nur ein x 2 X zu fordern. Aus (1) folgt (x; x) +
(x; x) = (x; x), also (x; x) = 0. Auerdem (x; y) + (y; x) = (x; x) = 0, also (x; y) =
(y; x).
Bemerkung 1: Fur x 2 X und v 2 TX sei x + v 2 X das durch die Bedingung (x; x + v) = v
eindeutig bestimmte Element. Dann x + 0 = x, denn (x; x) = 0 und (x + v) + w = x + (v + w),
denn (x; (x + v) + w) = (x; x + v) + (x + v; (x + v) + w) = v + w. Fur alle x 2 X ist die
Abbildung V ! X, v 7! x + v bijektiv.
Beispiel 1:
1. Fur jeden Vektorraum V ist
V = (V; V; V ); V (x; y) = y x
ein aner Raum. + in V (Bemerkung 1) ist das + in V .
2. Sei V ein K-Vektorraum, W V ein Unterraum und a 2 V .
W + a = fw + a j w 2 W g:
Dann ist
(W + a; W; V j(W +a)(W +a) )
ein aner Raum.
118
Denition 2:
1. Ein Morphismus aner Raume von X = (X; TX; X ) nach Y = (Y; TY; Y ) ist ein
Paar (f; g), wobei f : X ! Y eine Abbildung und g : TX ! TY eine lineare Abbildung
ist und gilt
Y (f(x); f(y)) = g(X (x; y)):
2. Ein aner Unterraum von (X; TX; ) ist ein aner Raum (Y; TY; Y Y ), wobei Y X
eine Teilmenge und TY TX ein Unterraum ist. Dann denieren die Einbettungsab-
f
bildungen Y ! X und TY !g TX einen Morphismus aner Raume.
3. Die Verknupfung zweier Morphismen aner Raume
(X; TX; X ) (f;g
!) (Y; TY; Y ) (a;b
!) (Z; TZ; Z )
ist durch das Paar (af; bg) gegeben. Der identische Morphismus X ! Id X ist durch
(id X ; id TX ) gegeben. Ein Isomorphismus aner Raume ist ein Morphismus F : X !
Y , fur den ein F 1 : Y ! X mit FF 1 = id Y und F 1F = id X existiert. Dann ist F 1
eindeutig bestimmt.
Bemerkung:
1. Fur jeden anen Raum X = (X; V; X ) und fur jedes x 2 X ist durch X (f;g !) V (V aus
Beispiel 1), f(y) = (x; y), g = id V , ein Isomorphismus aner Raume gegeben.
2. Eine Kategorie A besteht aus
(a) einer Menge Ob A der Objekte von A (z.B. Menge aller Gruppen, K-Vektorraume,
K-ane Raume);
(b) fur Objekte X; Y 2 Ob A ist eine Menge HomA (X; Y ) der Morphismen in A von X
nach Y deniert (z.B. Gruppenhomomorphismen, K-lineare Abbildungen, Morphis-
men aner Raume von X nach Y );
(c) fur alle X 2 Ob A ist id X 2 HomA (X; Y ) gegeben;
(d) fur X; Y; Z 2 Ob A ist die Verknupfungsabbildung HomA (X; Y ) HomA (Y; Z) !
HomA (X; Z), (f; g) 7! gf gegeben.
g
h B!
Es mussen dann die Regeln id D f = f = fid C und f(gh) = (fg)h fur A ! C !f D
gelten.
Dann haben wir die Kategorien aller Gruppen, K-Vektorraume oder K-anen Raume
kennengelernt.
f
3. In Denition 2.1 ist die lineare Abbildung TX ! TY durch die Abbildung f : X ! Y
eindeutig bestimmt.
Satz 1: Sei V = (V; V; V ) wie in Beispiel 1 deniert. Dann sind alle anen Unterraume von
V von der Form (W + a; W; V j(W +a)(W +a) ), wobei W V ein Untervektorraum und a 2 V
ist.
Beweis: Nach Denition 2.2 ist ein aner Unterraum von V ein Tripel (X; W; V jX X ), wobei
W V ein Untervektorraum ist und fur alle a; x 2 X V (a; x) = x a 2 W und fur alle a 2 X
119
die Abbildung X ! W, x 7! x a bijektiv ist. Sei a 2 X. Dann gilt X = W + a. 2
Bemerkung: Eine Untermenge X von V nennt man einen anen Unterraum von V , wenn
ein Untervektorraum W von V existiert, so da (X; W; V jX X ) ein aner Unterraum von V ist.
Wenn dies der Fall ist, so ist W = fx y j x; y 2 X g eindeutig bestimmt.
Denition 3: SeiPX = (X; TX; ) ein P aner Raum. Seien x1; : : :; xn 2 X und seien
1 ; : : :; n 2 K und ni=1 i = 1. Dann sei ni=1 i xi 2 X das durch
X
n X
n
8y 2 X : (y; i xi ) = i (y; xi )
i=1 i=1
eindeutig bestimmte Element.
Bemerkung:
1. Sei y fest. Dann gibt es nach Denition 1 genau einPnp mit (y; p) =Pn ni=1 i (y; xi ).
P
Funr z 2 X gilt dann (z; p)P=n (z; y) + (y; p) = i=1Pni (z; y) + i=1 i (y; xi ) =
P
i=1 i ((z; y) + (y; xi )) = i=1 i (z; xi ). Also gilt fur i=1 i xi = p die Bedingung in
der Denition fur alle Punkte y 2 X.
P
1 j mi seien i 2 K, #ij 2 K und xij 2 X mit ni=1 i = 1 und
Pumr i1 # i=1.n,Dann
2. F
j =1 ij
X
n X
mi X
n X
mi
i ( #ij xij ) = (i #ij )xij :
i=1 j =1 i=1 j =1
3. Man kann fur x; y 2 X fx + (1 )y j 2 K g X fur x 6= y als die Gerade durch x und
y auassen.
4. x + (1 )x = x.
Satz 2: Sei char K 6= 2. Eine nichtleere Teilmenge X V ist genau dann ein aner Unter-
raum eines K-Vektorraumes V , wenn fur alle x; y 2 X und 2 K auch x + (1 y) 2 X
gilt.
Beweis: Die Notwendigkeit dieser Bedingung ist klar. Zum Beweis der Hinlanglichkeit sei a 2 X.
Wir konnen X durch X a ersetzen und erreichen 0 2 X. Dann ist X ein Untervektorraum von
V : fur x 2 X und 2 K gilt x = x + (1 )0 2 X. Fur x; y 2 X gilt x+2 y = 12 x + 21 x 2 X,
also x + y = 2( x+2 y ) 2 X. 2
Bemerkung:
1. P
Der3 Satz gilt P3auch f=ur1 char K = 2, dann mu man die Abgeschlossenheit von X unter
i=1 i x i , i=1 i fordern.
2. Ein analoger Sachverhalt gilt auch fur Untermengen beliebiger aner Raume (die zu einem
anen Raum der Form V aus Beispiel 1.1 isomorph sind).
Bemerkung: Sei K = IR. Dann kann man fx +(1 )y j 0 1g als die Strecke zwischen
x und y auassen.
120
Satz 3: Sei X = (X; TX; ) ein aner Raum und K = IR. Dann sind folgende Forderungen
an eine Untermenge M X aquivalent:
1. Fur x; y 2 M und 0 1 gilt x + (1 )y 2 M.
P P
2. Fur 1 ; : : :; n 2 IR mit ni=1 i = 1, i 0, und x1 ; : : :; xi 2 M gilt ni=1 i xi 2 M.
121
und f(a) = f(~a) + f(a a~) = f(~a). Man pruft nun leicht nach, da g linear ist und da gp = f
gilt. Also ist die Abbildung auch surjektiv. 2
Bemerkung: ker(p) = W. Wir bezeichnen p als pV;W , falls weitere Faktorraume auftreten.
Theorem 2: (Isomorphiesatze) Sei X ein Vektorraum, Y; Z X Unterraume.
1. Wenn Z Y , so gibt es genau einen Isomorphismus : X=Y ! (X=Z)=(Y=Z) mit
pX=Z;Y=Z pX;Z = pX;Y .
X? pX;Z
! X=Z
??
pX;Y y? ypX=Z;Y=Z
X=Y ! (X=Z)=(Y=Z)
2. Es gibt genau einen Isomorphismus Y=Y \ Z ! Y +Z=Z mit pY;Y \Z = pY +Z;Z i, wobei
i : Y ! Y + Z die Inklusion ist.
Beweis:
1. Oenbar gilt Y=Z = fy + Z j y 2 Y g fx + Z j x 2 X g = X=Z. Also ist Y=Z ein
Unterraum von X=Z. Sei y 2 Y , dann gilt:
| +{zZ)} = 0:
pX=Z;Y=Z (pX;Z (y)) = pX=Z;Y=Z (y
2Y=Z
Nach Theorem 1 gibt es genau eine lineare Abbildung , so da das Quadrat kommu-
tiert. Diese Abbildung ist surjektiv, denn fur a 2 (X=Z)=(Y=Z) gibt es b 2 X=Z mit
pX=Z;Y=Z (b) = a und c 2 X mit pX;Z (c) = b. Dann (pX;Y (c)) = pX=Z;Y=Z (pX;Z (c)) = a.
Sei andererseits a 2 ker(). Dann gibt es b 2 X mit a = pX;Y (b). Dann
pX=Z;Y=Z (pX;Z (b)) = (pX;Y (b)) = (a) = 0. Also pX;Z (b) 2 ker(pX=Z;Y=Z ) = Y=Z. Also
Z + b Y , also b 2 Y , also gilt a = pX;Y (b) = 0.
2. Der Beweis verlauft analog zu (1): Fur z 2 Y \ Z gilt pY +Z;Z (i(z)) = pY +Z;Z (z) = 0 wegen
z 2 Z. Nach Theorem 1 gibt es genau eine lineare Abbildung : Y=Y \ Z ! Y + Z=Z
mit pY;Y \Z = pY +Z;Z i. ist surjektiv, denn sei a 2 Y + Z=Z, dann gibt es b 2 Y + Z
mit pY +Z;Z (b) = a, und es gibt y 2 Y , z 2 Z mit b = y + z. Dann a = pY +Z;Z (y + z) =
pY +Z;Z (y) = (pY;Y \Z (y)). Also ist surjektiv. Sei andererseits c 2 ker(). Dann gibt
es d 2 Y mit pY;Y \Z (b) = c. Dann gilt 0 = (pY;Y \Z (d)) = pY +Z;Z (d). Also d 2 Z, also
d 2 Y \ Z, damit c = 0 und ist injektiv. 2
Satz 2: Sei W V ein Unterraum und sei X V ein Komplementarraum zu W . Dann ist
X pV;W
! V=W ein Isomorphismus.
Beweis: Der Kern der Abbildung ist gerade X \ ker(pV;W ) = X \ W = f0g. Also ist die
Abbildung injektiv. Sei a 2 V=W gegeben. Dann gibt es b 2 V mit pV;W (b) = a, und x 2 X,
w 2 W mit b = x + w. Dann a = pV;W (b) = pV;W (x) + pV;W (w) = pV;W (x). Damit ist die
Abbildung auch surjektiv. 2
122
Satz 3: Sei W V ein Unterraum, dim(V ) < 1. Sei f ein Endomorphismus von V mit
f(W) W. Dann gibt es genau einen Endomorphismus f^ von V=W mit pV;W f = fp
^ V;W , und
es gilt
det(f) = det(f jW ) det(f)^
^
tr (f) = tr(f jW ) + tr (f)
Pf (T) = Pf jW (T)Pf^
Beweis: Fur w 2 W gilt pV;W (f(w)) = 0. Nach Theorem 1 erhalten wir die Existenz und
Eindeutigkeit von f.^ Sei B 0 = (b1; : : :; bn) eine Basis von W. Erganze zu einer Basis B =
(b1; : : :; bm ) von V . Sei ^bi = pV;W (bi ). Dann ist B^ = (^bn+1 ; : : :; ^bm ) eine Basis des Faktorraumes
nach Satz 2, denn bn+1 ; : : :; bm ist eine Basis des Komplementarraums. Es gilt
Mat B (f) = Mat B0(f jW ) MatX (f)
0
:
B^ ^
Die zweite Aussage (uber die Spuren) ist klar. Die Aussage uber die Determinanten folgt aus
folgendem
Lemma: Fur L; N quadratisch gilt det ML N0 = det(L) det(N).
Die Aussage uber die charakterischen Polynome folgt (fur unendliche Korper) aus der Aussage
uber die Determinanten. 2
Beweis des Lemmas: Induktion nach a, der Groe von L. Falls a = 0 ist die Behauptung klar,
sonst Au
osung nach der ersten Zeile und Induktionsvoraussetzung. 2
8 Tensorprodukte
Denition 1: Ein Tensorprodukt zweier K-Vektorraume X; Y ist ein Paar (X
Y;
)
bestehend aus einem K-Vektorraum X
Y und einer bilinearen Abbildung
: X Y ! X
Y; (x; y) 7! x
y
mit folgender Eigenschaft: wenn Z ein K-Vektorraum und B : X Y ! Z eine bilineare
Abbildung ist, so gibt es genau eine lineare Abbildung fB : X
Y ! Z, so da B(x; y) =
fB (x
y) fur alle x 2 X; y 2 Y .
Bemerkung 1: Das Tensorprodukt ist eindeutig bis auf eindeutigen Isomorphismus bestimmt,
falls es existiert.
Seien dazu (X
Y;
) und (X
~ Y;
~ ) zwei Tensorprodukte von X und Y . Wenn wir die Bedingung
aus der Denition fur X
Y auf die bilineare Abbildung
~ anwenden, so bekommen wir eine
eindeutige lineare Abbildung f
~ : X
Y ! X
~ Y mit f
~ (x
y) = x
~ y. Dasselbe Argument
mit Vertauschung der Rollen von
und
~ ergibt ein eindeutig bestimmtes f
: X
~ Y ! X
Y
mit f
(x
~ y) = x
y. Dann sind f
und f
~ zueinander inverse Isomorphismen. In der Tat,
g = f
f
~ erfullt g(x
y) = f
(f
~ (x
y)) = f
(x
~ y) = x
y. Dieselbe Eigenschaft hat aber
auch id X
Y . Anwendung der Eindeutigkeitsaussage aus der Denition auf Z = X
Y und
B =
ergibt g = id X
Y . Ebenso zeigt man f
~ f
= id X
~ Y . Also sind f
und f
~ zueinander
inverse Isomorphismen.
123
Theorem 1:
1. X
Y existiert.
2. Wenn (ei )mi=1 und (fj )nj=1 Basen von X und Y sind, so ist (ei
fj )m;n
i;j =1 eine Basis von
X
Y . Insbesondere ist X
Y endlichdimensional, wenn die beiden Faktoren endlich-
dimensional sind, und es gilt dim(X
Y ) = dim(X) dim(Y ).
Beweis: Zu (1): Sei V die Menge aller Abbildungen f : X Y ! K mit endlichem Trager,
supp(f) = f(x; y) j f(x; y) 6= 0g endlich. Sei (x;y) (x0 ; y0) = 10 (x; y) = (x0 ; y0 ) , 2 V .
(x; y) 6= (x0 ; y0 ) (x;y)
Wenn Z ein K-Vektorraum und G : X Y ! Z eine Abbildung ist, so gibt es genau eine lineare
Abbildung 'G : V ! Z mit G(x; y) = 'G ((x;y) ). In der Tat,
X
'G (f) = f(x; y)G(x; y)
(x;y)2X Y
(die Summe ist endlich, denn f hat endlichen Trager) leistet das Gewunschte, und wenn '~G ((x;y) ) =
G(x; y), '~G linear, so gilt
X
'~G (f) = '~G ( f(x; y)(x;y) )
(x;y)2X Y
X X
= f(x; y)'~G ((x;y) ) = f(x; y)G(x; y) = 'G (f):
(x;y)2X Y (x;y)2X Y
Sei W V der Unterraum, welcher von allen Vektoren, die die Abweichung der Abbildung
X Y ! V , (x; y) 7! (x;y) von der Bilinearitat messen, erzeugt wird: W wird erzeugt von ():
(x;y) (x;y)
(x;y) (x;y)
(x+x0 ;y) (x;y) (x0 ;y)
(x;y+y0 ) (x;y) (x;y0 )
Sei X
Y = V=W, und sei p : V ! X
Y die Projektion auf den Faktorraum, und sei
x
y = p((x;y) ). Wegen () ist
bilinar. Sei B : X Y ! Z bilinear und sei 'B : V ! Z
die soeben beschriebene Abbildung ('B ((x;y) ) = B(x; y)). Weil B bilinear ist, annuliert 'B alle
Vektoren aus (), z.B. 'B ((x;y) (x;y) ) = 'B ((x;y) ) 'B ((x;y) ) = B(x; y) B(x; y) = 0.
Also 'B jW = 0. Nach Theorem 7.1 uber Faktorraume gibt es genau eine lineare Abbildung
fB : X
Y ! Z mit fB p = 'B . Dann fB (x
y) = fB (p((x;y) )) = 'B ((x;y) ) = B(x; y). Wenn
f~B : X
Y ! Z linear ist mit f~B (x
y) = B(x; y), so f~B p((x;y) ) = B(x; y), also ist f~B p = 'B
nach der schon bewiesenen Eindeutigkeit von 'B , also f~B p = 'B = fB p. Wegen der Surjektivitat
von p folgt fB = f~B .
Zu (2): Wir behaupten, da fur beliebige X; Y X
Y durch fx
y j x 2 X; y 2 Y g erzeugt
wird. Fur den in (1) konstruierten Raum ist das klar, und fur beliebige Tensorprodukte von X
und Y folgt dann derselbe Sachverhalt nach Bemerkung 1. Sei W X
Y die lineare Pm H ulle der
Vektoren
P i j e
f 2 X
Y , 1 i n, 1 j n. F
u r x 2 X, y 2 Y , gilt x = i=1 i ei und
y = ni=1 #j fj , also
X
m ! 0Xn
1 m n
XX
x
y = i ei
@ #j fj A = i #j ei
fj 2 W:
i=1 j =1 i=1 j =1
124
Weil die x
y X
Y erzeugen, gilt W = X
Y . Beweis der linearen Unabhangigkeit der
(ei
fj )m;n m m n n
i;j =1 : Sei (ei )i=1 die zu (ei )i=1 duale Basis von X und (fj )j =1 die zu (fj )j =1 duale
Basis von Y . Sei Bi;j (x; y) = ei (x)fj (y), x 2 X; y 2 Y . Dann gibt es li;j : X
Y ! K mit
Bi;j (x; y) = li;j (x
y). Dann:
li;j (ek
fl ) = Bi;j (ek ; fl ) = ei (ek )fj (fl ) = ik jl = (i;j );(k;l):
Daraus folgt die lineare Unabhangigkeit. 2
Fakt 1: Es gibt eindeutig bestimmte Isomorphismen mit folgenden Eigenschaften:
1. X
Y ! Y
X, x
y 7! y
x.
2. X
(Y
Z) ! (X
Y )
Z, x
(y
z) 7! (x
y)
z.
3. (X X 0 )
Y ! (X
Y ) (X 0
Y ), (x; x0)
y 7! (x
y; x0
y).
Fakt 2: Wenn V und W Vektorraume sind, so gibt es genau eine lineare Abbildung
V
W ! L(V; W ); l
w 7! fl;w : V ! W; fl;w (v) = l(v)(w):
Diese Abbildung ist injektiv, und ihr Bild besteht aus allen f 2 L(V; W) mit dim(Bild (f)) < 1.
Fur dim(B) < 1 ist sie ein Isomorphismus.
Beispiel 1: Fur eine Raum-Zeit mit Tangentialraum
P T an einem Punkt sei (ei )4i=1 eine Basis von
T und (ei ) die dazu duale Basis. fi;j ! i;j =1 fi;j ei
ej 2 T
T , f i;j = fi;j ei
ej (Einsteinsche
4 ; 4
Summenkonvention). f i;j ! f i;j ei
ej 2 T
T , Rijkl ! Rijklei
ej
ek
el 2 T
T
T
T .
Beispiel 2: Sei K L eine Korpererweiterung, sei V ein K-Vektorraum. Dann ist V
K L ein
L-Vektorraum mit Multiplikation l(V
l0 ) = V
(ll0 ). Wenn (bi )ni=1 eine Basis von V (uber K)
ist, so ist (bi
1)ni=1 eine Basis von V
K L uber L. Fur K = IR, L = C erhalt man (V )C aus
den U bungsaufgaben.
125