Lineare Algebra I+II

Prof. Franke

Vorlesungsmitschrift

Wintersemester 1995/1996 Sommersemester 1996

Inhaltsverzeichnis
1 Naive Mengenlehre
2.1 2.2 2.3 2.4 2.5 1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gruppen und Korper . . . . . . . . . . . . . . . . . . . . Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . Unterobjekte . . . . . . . . . . . . . . . . . . . . . . . . Erzeugendensysteme, lineare Unabhangigkeit und Basen Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

1 3

2 Vektorraume uber einem Korper

6 11 12 13 18

6

3 Matrizen
4.1 4.2 4.3 4.4 4.5 4.6 4.7

3.1 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2 Das Eliminationsverfahren von Gau . . . . . . . . . . . . . . . . . . . . . . . . . 33 Einige Fakten uber Permutationen . . . . Charakteristik eines Korpers . . . . . . . Schiefsymmetrische n-Linearformen . . . . Der Determinantenbegri . . . . . . . . . Determinanten von Matrizen . . . . . . . Orientierungen von reellen Vektorraumen Symmetrische n-Linearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

4 Determinanten und multilineare Algebra

39

39 42 45 49 52 58 61 62 66 68 70 73 75 80 83 88

5 Quadratische, hermitesche und symplektische Formen
5.1 5.2 5.3 5.4 5.5 5.6

Quadratische und symmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . Nicht ausgeartete Bilinearformen. Der Rang. . . . . . . . . . . . . . . . . . . . . Klassi kation der quadratischen Formen . . . . . . . . . . . . . . . . . . . . . . . Quadratische Formen auf reellen Vektorraumen . . . . . . . . . . . . . . . . . . . Die Gramsche Determinante, die Gruppen O( ) und SO( ) . . . . . . . . . . . . Euklidische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6.1 Das Vektorprodukt auf einem dreidimensionalen orientierten Euklidischen Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7 Hermitesche Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8 Symplektische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

62

6 Eigenwerttheorie

6.1 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines endlichdimensionalen Hilbertraums . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines Euklidischen Vektorraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

91
93 99 105 112

7 A ne Raume und Faktorraume 8 Tensorprodukte

7.1 A ne Raume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 7.2 Der Faktorraum V=W nach einem Unterraum . . . . . . . . . . . . . . . . . . . . 121

118

123
I

Eine Menge M ist eine Zusammenfassung von Objekten (die Elemente von M) unseres Denkens zu einem neuen Objekt. Beispiel: M = f0; 5; 163g, N = f130; 0g, L = f3; 10; f4; 5gg. Man kann auch eine Serie von Elementen weglassen und durch drei Punkte andeuten, wenn das Gesetz der Serie klar ist. Beispiel: IN = f0; 1; 2; 3; :: :g die Menge der naturlichen Zahlen Z = f0; 1; 1; 2; 2; 3; :: :g die Menge der ganzen Zahlen M = f0; 1; 2; : : :; 1000g Wenn P eine in der mathematischen Sprache ausdruckbare Eigenschaft ist, so kann man (meistens) die Menge aller Objekte x bilden, die diese Eigenschaft haben. Beispiel: M = fx j x hat die Eigenschaft P g. Ein Objekt x gehort genau dann zu dieser Menge, wenn es die Eigenschaft P hat. Wenn x ein Element der Menge M ist, so schreiben wir x 2 M. Wir sagen auch: x gehort zu M. Andernfalls schreiben wir x 62 M. Beispiel: M = fx j x ist eine gerade naturliche Zahlg = f0; 2; 4; : : :g x 2 M genau dann wenn x eine gerade naturliche Zahl ist. N = fx j x ist eine Primzahlg = f2; 3; 5; 7; 9; : ::g R = fx j x ist eine Menge und x 62 xg. Wenn R existieren wurde, gabe es einen logischen Widerspruch. Fur alle x gilt: x 2 R genau dann, wenn x 62 x. Setze x = R, R 2 R genau dann, wenn R 62 R (Russelsche Antinomie). Die leere Menge ; = fg. Fur alle x gilt: x 62 ;. Generell gilt fur zwei Mengen M und N: M = N genau dann, wenn fur alle x die Eigenschaften x 2 M und x 2 N aquivalent sind.

1.1 Mengen

1 Naive Mengenlehre

De nition 1:

1. Eine Menge N ist genau dann Teilmenge einer Menge M, wenn fur alle x 2 N gilt: x 2 M. Wenn das der Fall ist, so schreiben wir N M oder M N und nennen M auch Obermenge von N. 2. N ist eine echte Teilmenge von M, wenn N M und N 6= M gilt. Wenn dies der Fall ist, so schreiben wir N M oder M N. Es mu also N M gelten, und es gibt ein x 2 M fur das gilt x 62 N.

Fakt 1:
1. 2. 3. 4.

Beweis:

Fur alle Mengen M gilt: ; M,M M Fur keine Menge M gilt: M M Aus A B und B C folgt A C. Unter der Voraussetzung von (3) gilt auch: Aus A A B und B C folgt A C. 5. Aus M N und N M folgt M = N.

B und B

C folgt A

C. Aus

3. Sei A B und B C, aus x 2 A folgt x 2 B, daraus folgt x 2 C. Also gilt A C. 1

Ferner gilt (M N) \ L (M \ L) (N \ L). Dann lassen sich die Falle x 2 L ^ x 2 M und x 2 L ^ x 2 N unterscheiden. x 2 L \ N. Es gilt. Ferner gilt (M \ L) (N \ L) (M N) \ L. (M n A) (M n B) = M n (A \ B) (M n A) \ (M n B) = M n (A B) 7. damit folgt x 2 (M N) \ L. "(": Sei x 2 (M \ L) (N \ L).N Mengen. da M n N = . Es folgt x 2 L \ M bzw. Fall 2: Sei A B und B C. Also ist A 6= C. 2 De nition 2: Seien M. Dann ist x 2 L und x 2 M N. Dann gibt es ein x 2 B mit x 62 A. Wegen A B folgt x 62 A. (M n N) M 4. 3. da M N = . ^ N = . (L M) N = L (M N) Aber es gilt im Allgemeinen: M n N 6= N n M. Nach Fakt 1 folgt (M N) \ L = (M \ L) (N \ L). Folglich enthalten M und N dieselben Elemente. Dann gibt es ein x 2 C und x 62 B. Also gilt in beiden Fallen x 2 (M \ L) (N \ L). . und es gilt: M = N. Also ist x 2 M zu x 2 N aquivalent. Wegen A C gilt A C. (M N) \ L = (M \ L) (N \ L) (M \ N) L = (M L) \ (N L) 5. (M n N) \ L = (M \ L) n N = (M \ L) n (N \ L) 6. M \ N = N \ M. 2 2 1. Aus den Voraussetzungen ergeben sich folgende Implikationen: Aus x 2 M folgt x 2 N und aus x 2 N folgt x 2 M. 9. genau dann. Es gilt. Fall 1: Sei A B und B C. M N = N M (L \ M) \ N = L \ (M \ N). 1. (M n N) \ N = . 5. Es lassen sich die Falle x 2 M ^ x 2 L und x 2 N ^ x 2 L unterscheiden. Die Di erenz M n N (auch M N) von M und N ist die Menge M n N = fx j x 2 M ^ x 62 N g Fakt 2: Beweis: 4.. In beiden Fallen gilt x 2 M N ^ x 2 L. 8. wenn M N. M \ N M M N M \N N M N 2. wenn M = . genau dann.4. Es gilt wegen B C auch x 2 C. ")": Sei x 2 (M N) \ L. Die Vereinigung M N von M und N ist die Menge M N = fx j x 2 M _ x 2 N g 3. Also ist A 6= C und wegen A C gilt A C. Der Durchschnitt M \ N von M und N ist die Menge M \ N = fx j x 2 M ^ x 2 N g 2.

: : :. 1.De nition 3: Zwei Mengen M und N sind disjunkt. Daraus folgt x 2 (A C) \ (B C). 2 De nition 5: Ein n-Tupel ist eine geordnete Aufzahlung (x1. dann ist I I ein Quadrat. Das Mengenprodukt M N ist als M N = f(m. b) mit a. 6 2. welche jedem Element m 2 M ein Element n 2 N zuordnet. also X 1 = X. Fakt 3: 1. : : :. b) ist die geordnete Aufzahlung der beiden Objekte a und b. M . xn). IR IR = f(a. b) j a. 2-Tupel sind Paare. = . Bemerkung: Fur n = 1 wollen wir (x) mit x identi zieren. wenn a = c und b = d. b 2 IRg. wenn f eine Abbildung von M nach N ist. Beispiel: Sei IR die Menge aller reeller Zahlen. xn) j xi 2 Xi fur 1 i ng: Fur eine Menge X sei X n = X : : : X (n Faktoren). Es gilt (A \ B) C = (A C) \ (B C) (A B) C = (A C) (B C) (A n B) C = (A C) n (B C) 5. ) mit 2 A \ B und 2 C. 3 Beispiel: . n) j m 2 M. 3-Tupel sind Tripel. Schreibweise: f : M ! N. falls M \ N = . da M N = N M.. 1] = ft 2 IR j 0 t 1g IR. ~ ~ ~ ~ 3. Die geordneten Paare (a. Beweis der ersten Gleichung von (4): Sei x 2 (A \ B) C und x = ( . Also kann IR IR mit der Menge der Punkte der euklidischen Ebene identi ziert werden. n 2 N g de niert. Es gilt meistens. Sei N M die Menge aller Abbildungen ! von M nach N. b 2 IR lassen sich mit Punkten in der Ebene identi zieren. Es existiert kein gemeinsames Element.2 Abbildungen De nition 1: Eine Abbildung f von einer Menge M in eine Menge N ist eine Zuordnung. b) = (c. Aus M M und N N folgt M N M N 4. De nition 4: Ein geordnetes Paar (a. d) genau dann. Es gilt (a. M f N. Sei X1 : : : Xn = f(x1. Wenn I = 0.

Fakt 1: Mit den Bezeichnungen und unter den Voraussetzungen von De nition 2 gilt: f 1 (N) = M. . Fur M = N = IR wird ein Punkt in der Ebene durch pr1 bzw. B endliche Mengen mit a. 5. . Sei M eine Menge. 3. B Mengen und X A. f(x) = 2x. Fur Untermengen X M und Y N sei f(X) := ff(x) j x 2 X g N das Bild von X unter f und f 1 (Y ) := fm 2 M j f(m) 2 Y g nennt man das Urbild oder inverse Bild von Y bezuglich f.. die leere Abbildung. 2. Beispiel: f(x) = x2 . pr2 auf seine x bzw. die identische Abbildung. n) := pr1 ((m. dann enthalt M . durch IdX (x) = x fur x 2 X ist eine Abbildung X Id! X de niert. 4 . f(X) Y . die Projektion auf den ersten bzw. n 2 N sind Abbildungen von M N nach M bzw. X f 1 (Y ). Dann enthalt die Produktmenge A B genau a b Elemente. besteht . Eine solche Abbildung nennt man konstant. n)) 7! m m 2 M. die Menge . wobei pr : A B ! A Beispiel: Seinen A. Dagegen ist fur M 6= . namlich Id. durch pr1 : M N ! M pr1 (m. f jM (m) = f(m) fur m 2 M ~ De nition 2: Sei f : M ! N.X 1. X f 1 (f(X)).M leer. Durch f(x) = y0 fur alle x 2 X ist eine Abbildung f : X ! Y de niert. die Einschrankung von f auf M. y) 7! x + y 4. und die Menge aller Abbildungen B A enthalt ba Elemente. Fur M = . ~ ~ ~ 7. f : M ! N. Wenn M M. y-Koordinate abgebildet.. b Elementen. Y Mengen und y0 2 Y . N de niert. Seien M und N Mengen. stets genau ein Element. Abbildungen von IR in IR (oder allgemeiner Abbildungen von IRn in IR) nennt man auch Funktionen. zweiten Faktor. f(.) = . Fur N N gilt: N M N M . Seien X. Seien A. 2 1(X) = X B. 6. Ein anderes Beispiel ist die Funktion 0 x f(x) = 1 x 2 Q IR oder f(x) = sin x x rational : irrational ex x irrational Ein Beispiel fur eine Funktion in zwei Variablen ist die Addition: + : IR2 ! IR (x. aus genau einem Element. f 1 (. Sei X eine Menge.Im Allgemeinen gilt nicht: f(M) = N. f(x) = 1+xx2 etc. Dann gilt pr1 1 die Projektion auf den ersten Faktor ist.) = . so ist f jM : M ! N durch ~ ~ ~ ~ de niert. f(f 1 (Y )) Y .

Dann gilt g(n) 2 f 1 (fng). Sei f bijektiv. Fur n 2 B sei f 1 (n) das einzige Element von f 1 (fng). Aquivalente Formulierung: Sei M = . In diesem Fall ist die zu f inverse Abbildung eindeutig bestimmt... ")": Sei g ein Rechtsinverses zu f. Eine Abbildung B g A ist ein ! Linksinverses zu f. so ist durch 1 1 das einzige Element g(b) = a . wenn ein Linksinverses zu f existiert. Aus n 2 f 1 (fmg) folgt n = g(f(n)) (g ist linksinvers).De nition 3: Eine Abbildung M f N ist ! 1. 1. Also ist f surjektiv. Sei G : N ! 2M eine Abbildung. wenn fur jedes n 2 N f 1 (fng) hochstens ein Element enthalt. sie wird mit f 1 bezeichnet. Also gilt: f 1 (fmg) fg(m)g. Das Auswahlaxiom: Seien M und N Mengen. wenn ein Rechtsinverses zu f existiert. Wenn f injektiv ist.g ! M mit 6 der Eigenschaft: a(X) 2 X fur X M. so da G(n) 6= . fur alle n 2 N gilt. ein Rechtsinverses zu f. bijektiv. also f 1 (fng) 6= . wenn f sowohl injektiv als auch surjektiv ist. da f 1 zu f invers ist und auch das einzige Inverse zu f ist. Also ist f(g(b)) = b. Sei A 6= . 0 ein Linksinverses zu f de niert. falls f (fbg) 6= . Dann gibt es eine Funktion g : N ! M mit g(n) 2 G(n) fur alle n 2 N. Lemma: Sei f : A ! B eine Abbildung. "(": Sei f : A ! B surjektiv. wenn fur jedes n 2 N f 1 (fng) mindestens ein Element enthalt.. wenn es ein Inverses zu f gibt.. X = . 2 5 . Dann ist f genau dann injektiv. Umgekehrt folgt aus m 2 f 1 (fng) m = g(f(m)) = g(n). f ist genau dann bijektiv. damit ist f injektiv. Dann gibt es eine Abbildung a : 2M n f. . Die Hintereinanderausfuhrung ! g f : A ! C ist durch (g f)(a) := g(f(a)) de niert. wenn f g = IdB . Sei G : B ! 2A gegeben durch durch G(b) = f 1 (fbg). Fur alle b 2 B gilt: b = f(g(b)) mit g(b) 2 f 1 (fbg). Sei A 6= . Sei 2M die Menge aller Untermengen von M. Man pruft leicht. und die Bijektivitat von f ist gezeigt. 2. welche sowohl linksinvers als auch rechtsinvers zu f ist. 2. 3.. g De nition 4: Seien A f B ! C Abbildungen. 3. 3. Nach dem Auswahlaxiom gibt es eine Abbildung g : B ! A mit g(b) 2 G(b) fur alle b 2 B. 6 Beweis des Lemmas: 1. 2. surjektiv. f ist genau dann surjektiv. Sei g linksinvers zu f. fur alle b 2 B. a0 2 A. Ein Inverses zu f ist eine Abbildung g : B ! A. falls f 1 (fbg) = von f (fbg). injektiv. Damit ist g ein Rechtsinverses zu f. wenn g f = IdA . Wegen der Surjektivitat von f gilt: G(b) 6= . Sei g Inverses zu f. Also gilt f 1 (fng) = fg(n)g.

bezeichnet man f 1 auch als das Inverse zu f. : : :. mm ) mit mi 2 Mi . dann gibt es folgende Bijektion: (M1 M2 : : : Mk ) (Mk+1 : : : Mm ) ! M1 : : : Mm ((m1 . Inverses Element: Fur alle a 2 G gibt es ein b 2 G (das rechtsinverse Element) mit a b = e. das rechtsneutrale Element. Bild von X: f(X) = ff(m) j m 2 X g N. Beispiele: 1. Dann ist (IR . h) 7! (k h) ist. 2. Assoziativgesetz: Fur a. Einselement) von G mit der Eigenschaft: a e = a fur alle a 2 G. Y N: 1. 3. b)) = (b. Sei IR = IR f0g und sei die ubliche Multiplikation reeller Zahlen. c 2 G gilt: a (b c) = (a b) c. ebenso (Q . Urbild von Y : f 1 (Y ) = fm 2 M j f(m) 2 Y g M. ) eine Gruppe. ). Wenn f bijektiv ist. wobei G eine Menge und : G G ! G eine Abbildung mit (g.Bemerkung: Es gilt fur f : M ! N. mm )) Insbesondere gibt es Bijektionen A (B C) ! A B C ~ (A B) C. Bis auf Bijektion ist ~ ~ A B ! B A AB ((a. (mk+1 . : : :. mk ). wobei die folgenden Bedingungen erfullt sein mussen: 1. 2. mm )) 7! (m1 . Neutrales Element: Es gibt ein Element e 2 G (die Rechtseinheit. 3. In diesem Fall stimmen das Urbild von Y unter f und das Bild von Y unter f 1 uberein: f 1 (Y ) := fm 2 M j f(m) 2 Y g = ff 1 (n) j n 2 Y g =: f 1 (Y ): Insbesondere gilt fur Y = fng: f 1 (fng) = ff 1 (n)g. 6 . X M.1 Gruppen und Korper De nition 1: Eine Gruppe ist ein Paar (G. a) AB ist normalerweise nicht die Identitat. Beispiel: Sei 1 k m. ~ au erdem gilt A (B C) ! (A B) C. : : :. : : :. b. ). : : :. AB 1 auch kommutativ: 2 Vektorraume uber einem Korper 2. mm ) 7! ((m1 . selbst wenn A = B. 1 i m Die inverse Abbildung dazu ist gegeben durch: (m1 . : : :. mk ). (mk+1.

Sei X eine Menge und sei S(X) die Menge aller bijektiven Abbildungen von X auf sich selbst. ~ invers zu a. Es folgt: f = ef = a 1 af = a 1a = e. m > 0 gilt anam = (a a {z: : a)(a a {z: : a) = | a {z: : a = an+m : | : } | : } a : } Fur viele Gruppen gilt werden. ) wird auch Sn genannt. Assoziativitat: ((f g) h)(x) = (f g) (h(x)) = f(g(h(x))) = f((g h)(x)) = (f (g h))(x). Damit ist x 1 y eine Losung der betrachteten Gleichung. Den anderen Teil zeigt man analog: f = fe = faa 1 = aa 1 = e. 4. namlich z = y x 1. denn n+m Faktoren Kommutativitat kann nicht vorausgesetzt 7 . Der Beweis ist einfach. ebenso ist z x = y eindeutig nach z au osbar. 3. n Faktoren m Faktoren nicht (ab)m = am bm . Sei af = a. : : :. Ist b ein Rechtsinverses von a. selbiges folgt auch aus f a = a. 5. 2. y 2 G ist die Gleichung x z = y eindeutig nach z au osbar . namlich z = x 1 y. Dann folgt f = e. Satz 1: Sei G eine Gruppe mit dem rechtsneutralen Element e. ihre Elemente sind die Permutationen der Zahlen 1 : : :n. 3. 5. Die Gruppen Sn nennt man deshalb auch Permutationsgruppen. Sei gegeben durch die Hintereinanderausfuhrung (f g)(x) = f(g(x)). Es gilt bab = be = b. b b b b 4. Fur x. Wir bezeichnen es mit a 1 .2. m 2 Z. also ist b auch Linksinverses. Dann ist (S(X). Der zweite Teil kann analog bewiesen werden. e ist auch linksneutrales Element: e a = e fur alle a 2 G. ) eine Gruppe. Aus xz = y folgt z = ez = x 1xz = x 1y. Also ist x 1 y die einzige Losung der Gleichung. 3. Sei a 2 G und seinen b. also ist ba = bae = babc = bec = bc = e mit c = b 1. Seien a. so gilt auch b a = e. Beweis: 1. zum Beispiel fur n > 0. Wegen (1) ist b auch linksinvers zu a. Es folgt: ea = aba = ae = a. Neutrales Element ist e = Id X und ein inverses Element zu f ist durch f 1 gegeben. 2 Bemerkung: Fur a 2 G und n 2 Z sei 8 a a ::: a n > 0 > | {z } < n Faktoren n= a n=0 > (an) 1 :1 n<0 Es gelten die Regeln (an)m = anm und anam = an+m fur n. 2. Sei b ein Rechtsinverses zu a. Ein Inverses fur a 2 G ist eindeutig bestimmt. f 2 G mit a f = a. Die Gruppe (S(f1. 1. Es folgt: ~ = e~ = ba~ = be = b. Zunachst wird der erste Teil bewiesen: Aus z = x 1 y folgt xz = xx 1y = ey = y. ng).

(Q. De nition: Eine Gruppe (G. y) 7! x + y und (x. ) sind Korper. 0 6= 1. 3. Wegen 1 2 K f0g gilt 1 6= 0. Dann gilt: 1. +). +. n(x + y) = nx + ny (G ist abelsch). falls fur alle a. ) eine Gruppe ist. im euklidischen Raum sind nicht kommutativ. +. Beispiele: 1. 2. ) und (Q. dann folgt G 6= . Fur abelsche Gruppen gilt die Rechenregel an bn = (ab)n . 2. 3. Es gilt das Distributivgesetz: a (b + c) = a b + a c. ) bestehend aus einer Menge K und zwei Abbildungen +:K K ! K :K K ! K . Bemerkung: Eine additiv geschriebene Gruppe ist im Allgemeinen kommutativ und wir de nieren: 8 a+ a+:::+ a n > 0 > | {z } < a n = > 0n Summanden n = 0 : ( a) ( n) n < 0 Es gilt dann n(mx) = (nm)x. +). y) 7! x y so da die folgenden Axiome gelten: 1. K := K f0g. +. ) ist kein Korper (es gibt keine multiplikativ Inversen). (IR. so ist S(M) nicht kommutativ. De nition: Ein Korper ist ein Tripel (K. (Q . ) und (IR . (K . +) ist eine abelsche Gruppe mit dem neutralen Element 0. Nebenbemerkung: Wenn (G. +. +) sind abelsche Gruppen. Wenn M wenigstens drei Elemente enthalt. Fur alle x 2 K gilt 0 x = 0. (K. ) ist eine abelsche Gruppe mit dem neutralen Element 1. 2. +. nx + mx = (n + m)x. Beispiel: (Z. 8 Beweis: . (Z. ) sind kommutativ. (x. 2. Die Gruppen der Bewegungen in der euklidischen Ebene bzw. (IR.. 3. 1. Fakt 1: Sei (K. ) ist kommutativ oder abelsch. Fur alle x 2 K gilt 1 x = x. b 2 G gilt: Beispiele: 1. da die Gruppenaxiome die Existenz des neutralen Elements fordern.a b = b a. ) ein Korper.

M 6= . AND-Operation. Restklassen werden addiert und multipliziert. Sei = an b 2 Z. Dann folgt b = a (a b) = x + kn n = x + (k ) n 2 M. ) ist eine Gruppe mit neutralem Element 1. 9 . Sei a = x + kn und b 2 Z und n j a b. 5. MN = fab + kn j a 2 M. Sei M = fx + kn j k 2 Zg. k 2 Zg. also ist N M. multipliziert und die Restklasse bildet. Die oben beschriebenen Mengen M + N und MN sind Restklassen modulo n . M + N = fa + b j a 2 M. gilt n j x y. b 2 M folgt n j a b (n teilt a b). Dann ist (Z=nZ. Aus a 2 M. M 6= . gilt auch x+kn 2 N fur alle k 2 Z. b 2 N g. Weil N De nition 4. also ist M N. Ferner gilt: n j ((x + kn) (x + ln)) = (k l)n. M ist eine Restklasse.1 erfullt. 2 Beispiel: Sei IF2 = f0. +. da auch b 2 M. Satz 2: 1. b 2 Z und n j a b folgt. b 2 N. Aus der Eindeutigkeit folgt die Behauptung. falls M und N Restklassen modulo n sind. Beweis: 1.2 erfullt. Die Elemente von M nennen wir auch die Vertreter der Restklasse. denn x = x + 0n 2 M. Weil N De nition 4. Es gibt genau n Restklassen modulo n.2. AND) ist ein Korper. De nition 4: Sei n > 0 eine naturliche Zahl. Sei Z=nZ (Z nach nZ) die Menge aller Restklassen modulo n. (IF2 . 4. die das Resultat enthalt. 3. XOR. 2. 2. Sei N eine andere Restklasse. dann ist (Z=nZ. indem man ihre Vertreter addiert bzw. (K . Aus a. die x enthalt. namlich in fx + kn j k 2 Zg. Jede ganze Zahl x ist in genau einer Restklasse modulo n enthalten. ) ein Korper. 3. Sei y 2 N. 3. Eine Restklasse modulo n ist eine Menge M Z mit folgenden Eigenschaften: 1.. Sei n eine Primzahl. 1g mit folgenden Operationen: 0 1 + 0 1 0 0 1 0 0 0 1 1 0 1 0 1 Diese Operationen entsprechen der logischen XOR bzw. Es gilt 0 x+0 x = (0+0) x = 0 x = 0 x+0. +) eine abelsche Gruppe. also auch y = x + kn mit k 2 Z. damit gilt N = M.

also teilt n nicht x y. gibt es ein a 2 M. b = y + ln = fx + y + (k + l)n j k. da die Abbildung Z=nZ ! Z=nZ N 7! MN ~ injektiv ist. . und sei f : X ! X eine injektive Abbildung. Dann gilt: MN = fxy+kn j k 2 Zg ~ ~ ~ = fx~ + kn j k 2 Zg. Das neutrale Element der Multiplikation von Restklassen modulo n ist die Restklasse von 1 = f1+kn j k 2 Zg. z 2 O. y n und x 6= y folgt 0 <j x y j< n. j ~ Lemma: Sei X eine endliche Menge. 3. da jede Restklasse M genau einen Vertreter x mit 0 x n enthalt. k. gibt es eine Bijektion: Restklasse modulo n ! fx 2 Z j 0 x ng M 7! das einzige x 2 M mit 0 x n (Es gibt genau n Restklassen . Fur eine Primzahl n ist Z=nZ = Fn ein Korper mit n Elementen. Kommutativitat ist o ensichtlich. ebenso das Distributivgesetz. also n j (y y ). Wir mochten ein inverses Element zu M konstruieren. Also leistet x das Gewunschte. b 2 N g a = x + kn. Es folgt x 2 M. welche die Zahl 0 enthalt. Aus MN = M N folgt daher. N ist also das Inverse zu M. Neutrales Element ist die Restklasse. Assoziativitat: Sei x 2 M. Sei x 2 M. x 2 M.1 folgt die Behauptung. Dann ist f surjektiv. 2 10 . Weil n eine ~ und M N y ~ Primzahl ist. Eindeutigkeit: Aus 0 x. Wenn diese Behauptung gezeigt ist. aus (3) folgt M + (N + O) = (M + N) + O. Die Kommutativitat und Assoziativitat der Multiplikation zeigt man wie bei (4) des Beweises. gilt n = x. folglich auch bijektiv. y 2 N. dann ist M + N = fa + b j a 2 M. Dividiere n mit Rest x fur a = kn + x fur 0 x n.2. da n j x(y y ). y 2 N. y 2 N und y 2 N. 2 Es folgt die Surjektivitat der Abbildung Z=nZ ! Z=nZ N 7 ! MN Insbesondere gibt es ein N 2 Z=nZ mit NM = f1 + kn j k 2 Zg. Wir behaupten. Sei M ein von 0 verschiedenes Element von Z=nZ und sei n eine Primzahl. 5. Dann ist x + y 2 M + N und y + z 2 N + O. also folgt x + (y + z) 2 M + (N + O) und (x + y) + z 2 (M + N) + O. Seien MN=M N. 2 Zg = fxy + ln j l 2 Zg m := k + y + x + n Mit Satz 2. Also konnen x und y nicht zur selben Restklasse gehoren. Wir zeigen zunachst. b = y + n = fxy + (k + y + x + n)n j . Das inverse Element zu M ist f m j m 2 M g. es gibt genau n Elemente) a Beweis der Behauptung: Existenz: Da M 6= . 4. was zu zeigen war. l 2 Zg = fx + y + mn j m 2 Zg m := k + l MN = fab + kn j a 2 M. b 2 Nk 2 Zg a = x + n.

) ein K-Vektorraum. : : :xn. : : :. 0). yn 2 K.0).h. denn 0K v = (k k) v =k v k v = 0V . : : :. yn ) = (x1 + y1 . Nachweis der Korperaxiome: Kommutativitat und Assoziativitat von + und rechnet man leicht nach. d. man betrachtet daher die reellen Zahlen als Teilmenge der komplexen Zahlen. b) bezeichnen wir in diesem Zusammenhang als a + ib. xn) mit x1 . k. l 2 K gilt: k (l v) = (kl) v 3. kxn) fur alle k. Jede reelle Zahl t kann mit der komplexen Zahl t + i0 identi ziert werden. b) + (c. : : :. fur alle v 2 V gilt 1K v = v Beispiel: Bemerkung: Das additiv Neutrale 0K des Korpers operiert als 0K v = 0V . y1 : : :. (V. k. ebenso folgt die Distributivitat. xn 2 K. Die Elemente von C nennt man komplexe Zahlen. 3. b + d) (a. 1) ) i2 = 1. : : :. der Nullvektorraum. b) (c.2 Vektorraume De nition: Sei K ein Korper. x2. g) 7 ! k g(x) : (f. skalaren Multiplikation + : KX KX ! KX KX ! KX und : K (k. Das inverse Element zu a + ib ist a ib 2 a2 +b2 . +. Sei X eine Menge und K X die Menge der Abbildungen von X nach K zusammen mit der Addition bzw. xn) = (kx1. d) = (ac bd. d) = (a + c. b 2 IR versehen mit den Operationen der Addition und der Multiplikation: (a. +. Das multiplikativ Neutrale 1K von K operiert trivial. Eine Menge (V. g) 7! f(x) + g(x) Dann ist (K X .h.h. w 2 V . 2. Das Nullelement fur + ist die reelle Zahl 0. d. (0. 1. : : :. ) (oft auch einfach V ) mit der Addition + und der skalaren Multiplikation hei t ein Vektorraum uber K. +) ist eine abelsche Gruppe 2. : : :. Das Einselement fur ist die reelle Zahl 1. Fur alle v 2 V . (1. : : :. Der Vektorraum K n aller n Tupel (x1. xn 2 K wird mit folgender Addition und skalarer Multiplikation de niert: (a) (x1. x1. Ferner gilt: i = (0. ad + bc) Das Paar (a. l 2 K gilt: (a) k (v + w) = k v + k w (b) (k + l) v = k v + l v 4. (b) k(x1. d. 2. V = f0g. xn + yn ) fur alle x1. xn) + (y1 .De nition 5: Sei C die Menge aller geordneten Paare (a. wenn folgende Axiome erfullt sind: 1. Fur alle v. b) mit a. x2. : : :. 11 .

betrachte dazu nur jene Permutationen von n Elementen. ) ist. k 2 K. Seien V. Das hei t. w 2 W v ~ v ~ ~ ~ und der skalaren Multiplikation k(v. l2 2 L. dann ist die Summe V W := f(u. also eG 2 H. fur alle h. w)+(~. Bemerkung: Das neutrale Element eG von G liegt in H und ist auch dort das neutrale Element. Beispiel: Die symmetrische Gruppe Sn 1 zu n 1 Elementen ist eine Untergruppe der symmetrischen Gruppe Sn zu n Elementen. Fur alle k 2 K gilt 1L k = 1K k = k. Beweis: Axiome fur K eingeschrankt auf L. 2. Bemerkung: U ist mit der eingeschrankten Addition von V eine Untergruppe von (V. w 2 U auch v + w 2 U und kv 2 U. L hei t Unterkorper von K. so ist K ein Vektorraum uber L. w 2 W . 2 De nition: Eine Teilmenge U eines Vektorraumes (V. weil l1 . k 2 K gilt (l1 + l2 )k = l1 k + l2 k (Distributivgesetz in K). ) uber einem Korper K hei t Untervektorraum. k2 2 K gilt l(k1 + k2 ) = lk1 + lk2 und fur alle l1 . 4. l2 2 K und die Regel uber K gilt. (K. Die Gruppenaxiome folgen aus der Einschrankung der Rechenregeln fur G. weil 1L = 1K . v. L mit der eingeschrankten Addition eine Untergruppe von (K. kw). l 2 L gilt k l 2 L und fur alle k. wenn fur alle g. w) = (kv. v 2 V. Fur alle l1 . k 2 K gilt l1 (l2 k) = (l1 l2 )k nach dem Assoziativgesetz in K. h 2 H auch g h 1 2 H gilt. l2 2 L. +) und 2. Fur h 2 H ist h h 1 = eG das neutrale Element. die das letzte Element an seinem Platz lassen. +) ist eine kommutative Gruppe. denn fur v. wenn 1. Beispiel: Ist L Unterkorper von K. Fur alle l 2 L. 12 . 2. w 2 U ist v w = v + ( 1K )w 2 U. w) j v 2 V. W zwei Vektorraume uber einem Korper K. zum Beispiel Axiom 2: fur alle l1. w 2 W g wieder ein Vektorraum mit der Addition (v. 3. falls fur alle k 2 K. De nition: Sei K ein Korper und L K eine Teilmenge von K. +. l2 2 L.4.3 Unterobjekte De nition: Eine Teilmenge H einer Gruppe (G. 2 Allgemeiner ist jeder Vektorraum V uber K ein Vektorraum uber L. v 2 V . Axiom 4: fur alle v 2 V gilt 1L v = v. v 2 V gilt l1 (l2 v) = (l1 l2 )v. l 2 L. Beweis: 1. ) hei t Untergruppe von G. l 6= 0 gilt k l 1 2 L. w) = (v+~. H ist auch eine Gruppe mit der eingeschrankten Operation von G. w. v. k1. +). L f0g mit der eingeschrankten Multiplikation eine Untergruppe von (K f0g. w+ w).

vi 2 Ui . hei t die Summe der Ui direkte Summe der Untervektorraume Ui . i=1 i Lemma: Seien U1 . n X i=1 kivi j n 2 IN. P n P gilt die Behauptung fur n. = I f1. dann ist die Summe der Untervektorraume Ui zu schreiben als: n X i=1 i=1 Ui = U1 + U2 + : : : + Un := (X n i=1 kiui j ki 2 K. : : :. dann sind folgende Aussagen aquivalent: P P 1. i Pn U = f0g i 2. lineare Unabhangigkeit und Basen L(S) := f f0g. ng : 8 i 2 I 9 vi .Bemerkung: Wenn U ein Untervektorraum von V ist und u1 .) := 13 . k1. dann ist n X kiui = k1 u1 + : : : + knun 2 U: Beweis durch vollstandige Induktion:+1 = 2: folgt aus der De nition eines Untervektorraumes. De nition: Der von einer Teilmenge S V erzeugte Unterraum von V ist 2. U2 . : : :. 9i 2 I : X j 2I vi = n X i=1 vi ~ X j 2I fig vj = vi 2 Ui \ ^ ^ X vj = 0 ^ Uj Ui \ X j =1 j 6=i j 2I fig Uj . un 2 U. eindeutig. U2. Fur alle u 2 n=1 Ui ist die Darstellung w = n=1 vi . anders ausgedruckt: S erzeugt V . 9 . Un Untervektorraume von V . so gilt n=1 ki ui = n=1 kiui + kn+1un+1 2 U. kn 2 K. Fur alle 1 i n gilt: Ui \ j =1 j Beweis: j 6=i (1) gilt nicht . : : :. : : :. ki 2 K. geschrieben: Ln=1 Ui : i 2 Sei V ein Vektorraum uber einen Korper K. ui 2 Ui : ) Pn U ist wieder ein Vektorraum. vi 2 Ui : vi 6= vi . 8 i 2 I : vi = vi vi 2 Ui f0g : ^ ~ . (2) gilt nicht De nition: Falls (1) und (2) gelten. vi 2 S g: S hei t Erzeugendensytem.4 Erzeugendensysteme. 2 i i De nition: Seien U1. : : :. Un Untervektorraume von V . L(. falls L(S) = V . 6 ~ ~ n X i=1 . n 2 IN f0g.

wenn v 6= 0. wenn v nicht linear abhangig von S ist. 0. fur alle vi 2 S. ki 2 K folgt aus n=1 ki vi = 0.n) k v~ = 0 . v (i) = vi . vi 2 S. Fur jedes w 2 L(S) ist die Darstellung w = n=1 kivi . vi 2 S. ~i 2 K . P 2. 0) 2 K n der Vektor. vi 2 S : 0 = n=1 ki vi m kivi . V = vi2S L(fvig) = Lvi2S kivi . j : vj 2 L(S fvj g) . d. ng mit ~ k (i) = ki . vi 6= vj fur i 6= j. weil i=1 ki ei = (k1. 0. : : :. n 2 IN. 2 14 Beweis: (2) gilt nicht . i T W U = T W U = L(L(S)). vj 2 T g =L(T) + L(S). ~ De nition: v 2 V hei t linear abhangig von S V . L(S) ist der kleinste Unterraum. au er an der i-ten Stelle. kn) j kj 2 K g. S U L(S ) U Beispiel: fvg fur v 2 V ist linear unabhangig genau dann. j j 6=i ki+1. . ki 2 K . wenn S ein linear unabhangiges Erzeugendensystem ist. 9 vi 2 K . wo sich der Eintrag 1 be ndet. vi 2 S : w =L n=1 kivi . 9 vi 2 S. dessen Eintrage uberall null sind. 2 Beispiel: Sei n 2 IN. Falls T S. dann gilt L(T) L(S). i=1 ~i i ~ ~ . da k1 = : : : = kn = 0 i (wichtiges Kriterium!). wenn sich jedes Element w 2 V P als Summe w = n=1 kivi mit ki 2 K. 0. Bemerkungen: P 1. ki 1. ki 2 K . 2. ki 2 i j =1 K. 1 i n : Pn=1 kivi = 0 . v 2 K n.Bemerkung: Sei S V . : : :. Dann gilt L(S) = TU 2WS U. vi 2 S : i=1 2 Fakt 2: Eine Untermenge S V ist genau dann eine Basis. : : :. weil L(S) 2TWS . d. P P ~~ ~~ (3) gilt nicht . 9 i : kivi 6= kj vj . i n i i 1 i n. : ::. kn) fur alle k1. dann ist m = n und es gibt eine Permutation von f1. Diese Darstellung ist eindeutig nach Lemma 1. ki 2 K . v 2 V hei t linear unabhangig von S. 1. die Pn kanonische Basis oder auch Standardbasis.h. da fur alle ki 2 K. Beweis: S = fei j 1 i ng erzeugt K n. : : :. S ist linear unabhangig. 1 i n ~ i6=j (1) gilt nicht. S ist linear unabhangig. Fur beliebige Teilmengen T. Fur 1 i n sei ei := (0. vi 6= vj fur i P ~~ i 6= j in folgendem Sinne bis auf Vertauschung eindeutig: sei w = m ki vi eine weitere i=1 derartige Darstellung. der S enthalt. 9 vP2 S. denn L(S) = S S P P ~~ ~ 3. 1 j m k ~ i Pmax(m. j : kj = 0. Lemma 1: Die folgenden Aussagen fur eine Teilmenge S V sind aquivalent: 1. Dann ist die Menge fei j 1 i ng eine Basis von K n. P 3. wenn alle v 2 S von von S fvg linear unabhangig sind.h. weil L(S fei g) = f n=1 kj ej j kj 2 kg =f(k1 .kki 2 K . (2) gilt nicht. vi. L(L(S)) = L(S). falls v 2 L(S). Beweis: Einerseits gilt L(S) TU 2WS U. also ei 62 L(S fei g). : : :. kn 2 P K. Andererseits gilt fur alle ki 2 K. vj = 6 i=1 kj vi . S hei t linear unabhangig. WS := f samtliche Unterraume U von V j S U g. : : :. vi 2 T gilt: n=1 ki vi 2 L(S). und diese Darstellung bis auf i Vertauschung der Indizes eindeutig ist. P vi 2 S: n=1 kivi 2 U fur alle U 2 WS . 9 ki . S hei t Basis. vi 2 S schreiben la t. S U gilt: L(T S) =f n=1 kivi + m kj vj j ki. P Beweis: S ist Erzeugendensystem ) 9 ki 2 K. 1 i n. S ist linear unabhangig i . 9 vi 2 S. also ist L(S) 2 i U 2WS U.

: : :. Insbesondere hat jeder Vektorraum eine Basis. Fakt 3: Sei fx1. denn S 2 M. sind beide Behauptungen trivial. was auch nicht sein soll.) = f0g. tl g). L(. 2 Lemma 2: Sei V ein Vektorraum und S V eine endliche Untermenge von V . : : :. damit B 0 2 M im Widerspruch zur De nition von B. V linear unabhangig. : : :. : : :. Die Elemente dieser Menge sind endliche Mengen. Dann kann jedes Element x 2 V auf P genau eine Weise in der Form x = n=1 i xi mit i 2 K dargestellt werden. Lemma 3: Sei M V linear unabhangig. fur alle T 2 M gilt jT j jB j (jM j :=Anzahl der Elemente von M). i Das ist o ensichtlich aus Lemma 1 und Fakt 2. Dann gibt es eine Untermenge B S. ist eine Basis von f0g. Beweis: Sei M die Menge aller Untermengen von S. Dann gilt: 1. n 2 K mit y = #x + 1 x1 + : : : + n xn. Fur jeden Vektorraum V ist . 1. Sei b 2 S und ~ ~ ~ sei S = S fbg. Beweis: Andernfalls gabe es ein y 2 N mit y 2 L(N fyg) = L((M fxg) fyg) und damit x1. welche eine Basis von V ist. : : :. Beweis: Durch vollstandige Induktion nach jS j. es gilt l 0 und es gibt t1 . xi 2 M g. sei x 62 L(M). Insbesondere gilt b 2 L(S 15 . und S V eine linear unabhangige Menge. 2 Bemerkung: Wir hatten auch eine linear unabhangige Untermenge von S mit der gro tmoglichen Anzahl an Elementen betrachten konnen. also S = . Sei l = jT j jS j. i also folgt die Behauptung. was nicht sein soll (M linear unabhangig).h. Wenn B nicht linear unabhangig ware. Tatsachlich gilt L(B 0 ) = L(L(B 0 )) = L(L(B 0 ) fbg) L(B 0 fbg) = L(B) = V: Also L(B 0 ) = V . wir behaupten. Bemerkung: Mit Hilfe des Auswahlaxioms kann der Beweis von Lemma 2 auch fur unendliches S gefuhrt werden. welche V erzeugt. so gabe es ein b 2 B mit b 2 L(B fbg). xng eine Basis des Vektorraums V . Dann ist auch N := M fxg linear unabhangig. M V .. Also gibt es ein Element B 2 M mit der kleinstmoglichen Anzahl an Elementen. denn jB 0 j < jB j. tl g ~ ft1. jS j jT j 2. da B linear unabhangig und daher eine Basis von V ist. Sei B 0 = B fbg. 2 Folgerung: Jeder Vektorraum. Also # 6= 0 und es folgt 1 x = # (y 1 x1 : : : n xn ) 2 L(M). tl 2 T.Beispiel 1: . : : :. T eine endliche Untermenge von V . Fur jS j = 0. De nition 3: Einen Vektorraum nennt man genau dann endlichdimensional. Seien beide Behauptungen wahr fur Mengen mit jS j 1 Elementen. da B 0 2 M. also gibt es ein s 2 L(S) und 1. xn 2 M fyg und #. d. S kann durch jT j jS j Elemente von T zu einer Erzeugendenmenge fur V erganzt werden. wenn er eine endliche Basis hat. Aus # = 0 wurde y 2 L(M fyg) folgern. M ist eine nichtleere Menge. : : :. Satz 1: (Austauschsatz von Steinitz) Sei V ein Vektorraum uber einem Korper K. so da S ft1. der eine endliche Erzeugendenmenge besitzt. l 2 K ~ V erzeugt. besitzt auch eine endliche Basis. welche V erzeugt. Wir behaupten. welche V erzeugen. L(M) = fPn=1 i xi j i 2 K.

bis man eine linear unabhangige Erzeugendenmenge erhalt. Angenommen. jS j dimV 2. Beweis von Folgerung 2: Seien B. 2 16 . Wende Steinitz (1) auf B und T an: dimV = jB j jT j. Wende Steinitz (2) an. da S 0 eine Basis von V ist. Wende Steinitz (2) auf S und B an: S kann durch jB j jS j Elemente von B zu einer Erzeugendenmenge S 0 erganzt werden. T ist genau dann eine Basis. Nach Lemma 2 gibt es ein M T welches eine Basis von V ist. 2. : : :. im Widerspruch zur linearen Unabhangigkeit von S. S V eine linear unabhangige Menge und T V eine Erzeugendenmenge. Dann gilt: 1. Wende Steinitz (1) auf S und B an: jS j jB j = dimV . woraus (2) folgt. Sei jS j = dim V = jB j. 2 Folgerung 3: Sei V ein endlichdimensionaler K-Vektorraum. 3. Wende Satz 1 an mit: S = B. es gabe eine unendliche Basis B von V . 5. 3. T = B 0 ) jB j jB 0j S = B 0 . S ft2 . Sei S V linear unabhangig. B0 endliche Basen. S kann durch jB j jS j = 0 Elemente von B zu einer Erzeugendenmenge erganzt werden. und wir schreiben dim V . also ist S selbst eine Erzeugendenmenge. mit Hilfe von Lemma 3 zu S solange Elemente hinzuzufugen. jT j dimV 4. 4. Dann ist S linear unabhangig. : : :. tl g L(R). Es gilt: jS 0 j jS j + jB j jS j = dim V . Wenn M T ware. also L(R) = V nach den wohlbekannten Eigenschaften von L.P ~ mit b = s + li=1 i ti . ohne Beschrankung der Allgemeinheit i = 1. denn es gilt t1 = 11 (b s i=2 i i ~ also S ft1. wenn jS j = dimV . tl g = R erzeugt. Also gilt: T = M und T selbst ist eine Basis von V . T = B ) jB 0 j j B j Daraus folgt jB j = jB 0 j. S ist genau dann eine Basis. Zu: 1. Sei T eine endliche Basis von V . Aus demselben Grund gibt es ein i mit i 6= 0. Das ist ein Widerspruch zur Voraussetzung. sei S B eine Untermenge mit jT j + 1 Elementen. Widerspruch zu Satz 1. Beweis: Sei B eine Basis von V . Also gilt l 1 und (1) ist fur S bewiesen. Fur l = 0 wurde dies b = s 2 L(S) bedeuten. Dann wird V durch Pl t ) 2 L(R). De nition 5: Die Anzahl der Elemente einer Basis eines endlichdimensionalen Vektorraumes V ist die Dimension von V . Jede linear unabhangige Untermenge von V kann zu einer Basis erganzt werden. 5. 2 Folgerung 2: Zwei Basen eines endlichdimensionalen Vektorraumes haben dieselbe Anzahl von Elementen (was die Endlichkeit einschlie t). Eine andere Moglichkeit des Beweises von (5) ist es. Aus (3) folgt: jS 0 j = dimV . so ware dimV = jM j < jT j. wenn die Gleichheit bei (3) eintritt. Aus (4) folgt.

V: : ist. wenn W = V gilt. Dann ist dieser Vektorraum endlichdimensional (d ist obere Schranke). b = dimU dim(U \ V ). : : :. da W endlichdimensional ist. c 2 K. vcu eine Basis von . Wenn die Gleichheit eintreten sollte. wd g eine Basis von W . Weil fw1 :. wag ist eine Basis von U + V . 2 Satz 2: Seien U und V endlichdimensionale Unterraume eines Vektorraumes X. wa. Nach Folgerung 3. Wir erhalten folgt nach Fakt j j = 0. und es gilt: dimW dimV . : : :. a. : : :. : : :. Beweis: Wir nehmen zunachst an. 1. also auch von V . vcg von V erganzt (ki + ki0 )wi + b X j =1 lj uj + c X l=1 ml vl 2 L(B): Also erzeugt B U + V . : : :. v1. Folglich ist B unabhangig. wa . Dann ist auch U + V endlichdimensional. mit a X i=1 iwi + b X j =1 j uj + c X l=1 l vl = 0.w a+vPb: : :. : : :.1 folgt dimW d dimV . 0. folgt. die nicht alle verschwinden. : : :. wa g eine Basis von U \ V . da B linear abhangig ist. also j i gehoren Pc Seiten PaU \ V . Sei d = dimW und sei B = fw1. nachuFakt 3: Basis :von=U cist.V ein Unterraum eines endlichdimensionalen Vektorraumes. Beweis der linearen Unabhangigkeit von B: Ware B nicht linear unabhangig. Wir konnen u und v als u = a=1 ki wi + b=1 lj uj . denn andernfalls gabe es ein v 2 W L(S) und nach Lemma 3 ware S fvg linear unabhangig. 1 . k0. w1. v1.2). : : :. l . Dabei gilt die Gleichheit genau dann. Sei B = fw1. ub. Also gilt i i i i i i=1 i i l=1 l l u+v = a X i=1 Beweis: Sei a = dim(U \ V ). c = dimV dim(U \ V ). : : :. : : :. Dann ist S auch eine Erzeugendenmenge. wa . Beweis von L(B) = U + V : Sei x 2 U + V . so gabe es 1. Behauptung: Die Menge fu1. b . c also a=1 i wi + b=1 j uj = l=1 l vl .1). : : :. Dann ist B linear unabhangige Teilmenge von W. Unter Anwendung von Fakt 5 folgt die Behauptung. also gilt jS j dimV (3. und es gilt: dim(U + V ) + dim(U \ V ) = dimU + dim V: Fakt 4: Sei W werden. 2 Fakt 5: Sei W ein K-Vektorraum und d 2 IN. v = j Pa k0 w + c m v mit k . Die rechte Pa kann als Linearkombination der Pic geschrieben beide zu Seite w P P werden: l=1 l vl = i=1 i wi ( 2 K) = i=1 0wi + c=1 l vl = a=1 i wi + i=1 0vk . Die linke Seite gehort zu U. vc. g = 1 = :: Pa1.5 kann diese Basis von U \ V zu einer Basis fw1. Beweis der Endlichdimensionalitat von W: Jede linear unabhangige Menge S W ist auch in V linear unabhangig. Das ist aber ein Widerspruch zur Annahme. Dann kann x in derP x = uP v mit v 2 V Form + und u 2 U P dargestellt werden. Aus Folgerung 3. also V = W . ubg von U und zu einer Basis fw1. im Widerspruch zu Auswahl von S. : : :. m 2 K darstellen. 1 . die rechte zu V . bg eine i i j =1 i=1 3 i = i = 0. und es gilt: P P P 17 . u1. da B eine Basis von V ist. u1 : : :. so folgt aus 3. Dann ist auch W endlichdimensional. so da jS j d fur jede linear unabhangige Untermenge S V gilt. : : :. damit ist U + V endlichdimensional. Beweis: Sei S eine linear unabhangige Untermenge von W mit der gro tmoglichen Anzahl an Elementen. Weil l i fw w .

H) die Menge aller Homomorphismen von G nach H. Sei ' durch (' )(g) = '(g) (g) de niert. 1. Sei ' 2 Hom(G. h 2 G gilt (' )(gh) = '(gh) (gh) = '(g) '(h) (g) (h) = '(g) (g)'(h) (h) = (' )(g)(' )(h): Gruppenaxiome fur Hom(G.5 Lineare Abbildungen De nition 1: Seien G und H multiplikativ geschriebene Gruppen. 2 Hom(G. dim(U \ V ) = a 3. H): Seien . H). Fur g 2 G gilt: '(g 1 ) = '(g) 1 2. Damit sind alle geforderten Eigenschaften nachgewiesen. dimU = a + b. dann ist auch m l ein Gruppenhomomorphismus: (m l)(gh) = m(l(gh)) = m(l(g)l(h)) = m(l(g))m(l(h)) = (m l)(g)(m l)(h). 4. dim(U + V ) = jB j = a + b + c 2. H Gruppen. Seien G. 2. Dann gilt: '(1) = 1. Fur g 2 G gilt (( ) )(g) = ( )(g) (g) = (g) (g) (g) = (g)( )(g) = ( ( ))(g): Es sei e(g) = 1 fur alle e 2 G. Die identische Abbildung Id G ist fur jede Gruppe G ein Homomorphismus von G nach G. H) wird mit dieser Verknupfung eine abelsche Gruppe. Aus den grundlegenden Eigenschaften von Gruppen folgt f = 1. sind Gruppenhomomorphismen: Fur g. 2 Hom(G. Kommutativitat pruft man wie die Assoziativitat. Sei f = '(1) 2 H. Mit Hilfe der Kommutativitat von H pruft man leicht 2 Hom (G. Sei ' 2 Hom(G. Fakt 1: Beweis: 1. Ein Gruppenhomomorphismus ist eine Abbildung ' : G ! H mit der Eigenschaft '(g1 g2) = '(g1) '(g2) fur g1 . Wenn H additiv geschrieben ist.1. 2. dim V = a + c. 18 . denn 'e = e' = '. und Hom (G. H) und (g) = '(g) 1 . g2 2 G. H). l m 3. Dann gilt auch ' 2 Hom(G. H) additiv geschrieben. Sei H abelsch und sei '. dim(U \ V ) + dim(U + V ) = 2a + b + c = dimU + dimV 2 2. 2 Bemerkung: 1. H). dann gilt f f = '(1) '(1) = '(1 1) = '(1) = f. Sei Hom (G. dann ist durch e(g) = 1 2 H fur alle g 2 G ein Homomorphismus von G nach H de niert. '. Seien G ! H ! I Gruppenhomomorphismen. wird auch Hom (G. H). H). ist invers zu '. .

Die Menge der K-linearen Abbildungen von X nach Y bezeichnen wir mit L(X. In den folgenden Betrachtungen ist der Grundkorper K meist vorgegeben. Bemerkung: Ist f ein Korperhomomorphismus. +). ) ein Gruppenhomomorphismus ist. dann ist f(x) = 0 und f(xy) = f(x) f(y) = 0 f(y) = 0 = f(0 y) = f(xy). x. Sei f linear. Die Hintereinanderausfuhrung zweier linearer Abbildungen ist linear. x = 0 oder y = 0: Sei x = 0. dann gilt f( x) = f(x). Eine K -lineare Abbildung (oder ein K -Vektorraumhomomorphismus) ist eine Abbildung f : X ! Y mit folgenden Eigenschaften: 1. 2. ki 2 K. Die Einschrankung eine linearen Abbildung auf einen Untervektorraum ist linear. ebenso j : IR ! C mit j(x) = x + i0 fur alle x 2 IR. denn es gibt nur die zwei Moglichkeiten 1. xi 2 X. Bemerkung: C ist sowohl IR-. Beispiel: Die identische Abbildung ist ein Korperhomomorphismus von K nach K. Sei 2 K. 3. wenn folgende Eigenschaften erfullt sind: 1. Fakt 2: 1. Eine Abbildung f : K ! L ist ein Korperhomomorphismus genau dann. +) und (L. De nition 3: Seien X. y 2 K : wende die Tatsache an. 4. +) ist ein Gruppenhomomorphismus. ) ! (L . Sei f : Q ! IR durch f(x) = x fur x 2 IR de niert. ) und (L. 2. da f : (K . Y ). Die Hintereinanderschaltung von Korperhomomorphismen ist wieder ein Korperhomomorphismus. ) ist ein Gruppenhomomorphismus. Beweis: 2. aber nicht C-linear. +. +. und wir sprechen von linearen Abbildungen statt K-linearen Abbildungen. Y Vektorraume uber einem Korper K. +) ! (Y. f : (X. 1 i n. Die Abbildung f : C ! C mit f(z) = z ist IR-linear. als auch C-Vektorraum. ) ! (L .De nition 2: Seien (K. f(K ) L und f : (K . f ist ein Gruppenhomomorphismus von (K. x 2 X. 2. y 2 K. Die identische Abbildung ist linear. so gilt f(xy) = f(x)f(y) fur alle x. dann gilt f n X i=1 ki x i = ! X n i=1 kif(xi ). Dann ist f ein Korperhomomorphismus. ) Korper. 19 .

(kf)(x) = kf(x) de nierten Abbildung f + g und kf linear. Wegen (f + g)( x) = f( x) + g( x) = f(x) + g(x) = (f + g)(x) ist auch De nition 3.2 erfullt. Y ) ist klar. 2 De nition 4: Sei X ein Vektorraum uber K. y2 2 f(U) und 2 K. 2g. 2 20 Fakt 4: Sei f : X ! Y linear.1 folgt aus Fakt 1. Seien x1. also x 2 f 1 (V ). ist trivial. Wir de nieren den Raum der linearen Funktionale auf X durch X = L(X. Der Nachweis der Vektorraumaxiome fur L(X. naturlich gilt auch 0 2 f 1 (V ). 2 Fakt 3: Wenn f. ist trivial. f g 3. weiterhin 0 = f(0) 2 f(U). Unterraum von X und f(U) ist ein Unterraum von Y . k 2 K: (g f)(x1 + y1 ) = g(f(x1 + x2 )) = g(f(x1 ) + f(x2 )) = g(f(x1 )) + g(f(x2 )) = (g f)(x1 ) + (gf)(x2 ). x 2 X. und seien U X und V Y Unterraume. Man nennt X auch den Dualraum von X. Es folgt y1 = f(x1 ) = f( x1 ) 2 f(U) und y1 +y2 = f(x1 )+f(x2 ) = f(x1 +x2) 2 f(U). g : X ! Y lineare Abbildungen sind. Dann ist f 1 (V ) ein . dann gilt f(x1 + x2 ) = f(x1 ) + f(x2 ) 2 V . Y ) zu einem K-Vektorraum. Dann gibt es xi 2 U mit f(xi ) = yi fur i 2 f1. K).2.2. Beweis: Die Gultigkeit der Behauptung von De nition 3. x2 2 f 1 (V ). (g f)(kx1 ) = g(f(kx1 )) = g(kf(x1 )) = kg(f(x1 )) = k(g f)(x1 ): 4. so sind auch die durch 1. Wegen (kf)(x + y) = kf(x + y) = k(f(x) + f(y)) = kf(x) + kf(y) = (kf)(x) + (kf)(y) ist De nition 3.1. also x1 + x2 2 f 1 (V ). x2 2 X.1 erfullt. k 2 K. Seien X ! Y ! Z linear. dann gilt fur x1 . 2. f( x) = f(x) 2 V . wegen (kf)( x) = kf( x) = k( f(x)) = (k )f(x) = ( k)f(x) = (kf(x)) = (kf)(x) auch De nition 3. (f + g)(x) = f(x) + g(x).. Induktion nach n: n=1: n!n+1: f( f( 1 X i=1 n+1 X i=1 ki xi) = f(k1 x1) = k1f(x1 ) = kixi ) = f( n X i=1 n X 1 X i=1 k1f(x1 ) n X f(kn+1 xn+1) = ki x i ) + i=1 n+1 X ki f(xi ) + kn+1 f(xn+1 ) = kif(xi ): i=1 i=1 ki xi + kn+1xn+1 ) = f( 2. Auf diese Weise wird L(X. Beweis: Seien y1. also f(U) 6= .

f(xn )g ist bewiesen. Insbesondere ist f genau dann injektiv. was die Injektivitat von f zeigt. De nition 5: Der Kern einer linearen Abbildung f : X ! Y ist durch ker(f) = f 1 (f0g) = fx 2 X j f(x) = 0g de niert. Fakt 5: f ist genau dann injektiv. P xi xj 2 ker(f). Es folgt Pn x = 0. : : :. L(ff(xd+1 ). x2 2 X und f(x1 ) = f(x2 ). 2 P k=d+1 k f(xk ) 2 L(ff(xd+1 ). f(f0g) = f0g. Beweis der Behauptung: Angenommen. : : :. : : :. Sei ' : G ! H ein Gruppenhomomorphismus. Es handelt sich dabei um Untergruppen. : : :. f(xn )g): P 21 . k k Pk Weil die fx1. : : :. wenn ker(f) = f0g. und die lineare Unabhangigkeit von ff(xd+1 ). xi = xj + d =1 k xk mit geeigneten xk 2 K. d 2 K mit k=d+1 k xk = Pd x . Dann kann x als x = k=1 k xk mit xk 2 K dargestellt werden. Wir de nieren Bild (') = f(G) und den Bemerkung: f ist surjektiv . Satz 1: Sei f : X ! Y eine lineare Abbildung. xd+1. Sei ker(f) = f0g. 1). Bild (f) = Y . Dann ist Bild (f) endlichdimensional und dim(Bild(f)) = dimX dim(ker(f)). wenn dim(Bild (f)) = dim(X) gilt. f(xi ) = f(xj ) fur d + 1 i < j P Dann gilt: n. 2 damit x1 x2 = 0. xdg eine Basis fur ker(f) und fx1. f(xn )g hat n d Elemente und ist eine Basis von Bild (f). xdg eine Basis von ker(f) bilden.n::. also gilt auch d+1 = : : : = n = 0. : : :xd . Dann folgt n=d+1 n xk 2 ker(f). f(xn)g) = Bild (f): P Sei y 2 Bild (f). Beweis: Sei fx1. xng eine Basis von X (d = dim(ker(f)). Bemerkung: Ein Gruppenhomomorphismus ist genau dann injektiv. Das Bild von F ist durch Bild (f) = f(X) de niert. Aus der Behauptung folgt: dim(Bild(f)) = n d = dimX dim(ker(f)) und der Rest ist trivial.Kern von ' als das Urbild des neutralen Elementes von H (also 0 bzw. : : :. Es folgt f(x) = f( n X k=1 k xk ) = n X k=1 k f(xk ) = n X Lineare Unabhangigkeit: Angenommen n=d+1 k f(xk ) = 0. also y = f(x) mit x 2 X. : : :. also folgt = : : : = = 0 wegen der linearen 1 n k=1 k k k=1 k k Unabhangigkeit der xn. folglich x1 = x2. und sei X endlichdimensional. xng. gibt es 1 . Beweis: f injektiv ) jf 1 (f0g)j 1. Wegen 0 2 f 1 (f0g) folgt f 1 (f0g) = f0g. Dann folgt aus x1. wenn sein Kern aus dem neutralen Element besteht. Behauptung: ff(xd+1 ). n = dimX). : : :. Dann ist xi xj = d =1 k xk im k k Widerspruch zur linearen Unabhangigkeit von fx1 . da auch f(x1 x2) = 0. Man schreibt auch oft Im(f) statt Bild (f). also x1 x2 2 ker(f).

Fakt 6: Eine lineare Abbildung zwischen endlichdimensionalen Vektorraumen f : X ! Y ist genau dann ein Isomorphismus. 2. f ist ein Automorphismus. Mit anderen Worten: fur jede naturliche Zahl n gibt es bis auf Isomorphie genau einen K-Vektorraum der Dimension n. Aus Satz 1 folgt dim(W ) = dim(Bild(')) = dimV dim(ker(')) = dimV . welcher surjektiv ist. f ist ein Monomorphismus oder ein Epimorphismus. Korpern bzw. KVektorraumen. bi 2 V . Korpern bzw. bn).De nition 6: Ein Monomorphismus ist ein Homomorphismus von Gruppen bzw. (2) ) (1): Dies folgt aus Satz 1. 3. f ist ein Epimorphismus. Ein Isomorphismus von Gruppen bzw.3 folgt Bild (f) = X und f ist ein Epimorphismus. dimX = dimY 2. Aus Fakt 4 in 2.(1) ^ (2): Ist gerade die De nition des Begri s Automorphismus. Ein Endomorphismus einer Gruppe. eines Korpers bzw. Beweis: (3). 2 Bemerkung: Wenn f ein Isomorphismus ist. Folgerung 1: (aus Satz 1) Sei f ein Endomorphismus eines endlichdimensionalen Vektorraumes X. dann ist die inverse Abbildung ebenfalls ein Ho- . Zwei endlichdimensionale K-Vektorraume sind genau dann isomorph. wenn sie dieselbe Dimension haben. eines K-Vektorraumes X ist ein Homomorphismus. welcher injektiv ist. : : :. Ein Automorphismus ist ein Endomorphismus welcher zugleich ein Isomorphismus ist. wenn zwischen ihnen ein Isomorphismus existiert. f ist ein Monomorphismus. Ein Epimorphismus ist ein Homomorphismus von Gruppen. wenn folgende Bedingungen erfullt sind: 1. von K- Vektorraumen. Beweis: Seien V und W endlichdimensionale K-Vektorraume. Zwei Vektorraume. Gruppen oder Korper sind isomorph. K-Vektorraumen ist ein bijektiver Homomorphismus. momorphismus und damit ein Isomorphismus. Fakt 7: Zwei endlichdimensionale Vektorraume uber K sind genau dann isomorph. (1) ) (2): Aus ker(f) = f0g folgt dim(Bild (f)) = dimX. wenn ihre Dimensionen ubereinstimmen. welcher X nach sich selbst abbildet. Dann ist durch iB : K n ! 22 Warnung: Fur Epimorphismen von unendlichdimensionalen Vektorraumen gilt dieser Sachverhalt nicht. Sei weiterhin B eine geordnete Basis von V . Beweis: Wie bei Folgerung 1. B = (b1 . Dann sind folgende Aussagen aquivalent: 1.

so sind sie auch untereinander isomorph. also V ' W nach dem nachfolgenden Fakt. 1 j n. Dieser Isomorphismus bildet die Basis von X auf die duale Basis ihrer dualen Basis ab. Insbesondere folgt: dimX = dimX. 2 P Satz 2: 1. ein Isomorphismus von Vektorraumen de niert. m = dim(X). es genugt also. Es folgt dim(L(X. Y ): Sei f 2 L(X. x = m=1 ~k xk ~ k k Aij (x + x) = Aij ( ~ m X k=1 ( + ~)xk ) = ( i + ~ i )yi = Aij (x) + Aij (~): x Den anderen Teil der LinearitatsbedingungPn man analog. P pruft Lineare Unabhangigkeit der Aij : Sei m j =1 ij Aij = 0 mit ij 2 K. Fur Y = KPm eine Basis (x1 . 2 i k Insbesondere X ' X und X ' X . : : :. xm) von X bilden die linearen Funktionale i 2 und X mit i ( k=1 k xk ) = i eine Basis von X . Fur 1 i n gibt es ij 2 K. n = dim(Y ). : : :. n) = 1 k bk . xm) duale Basis. denn es gilt fur x = m=1 k xk . Es folgt f( m X i=1 j =1 j =1 also f = n=1 m=1 kj Akj . k=1 Beweis: (2) ist o enbar ein Spezialfall von (1). also X ' X . Sei Aij : X ! Y de niert durch m X Aij ( k xk ) = i yj . iB ( 1 . 23 P P k=1 k xk ) = n m XX j =1 k=1 kj k yj = n m XX j =1 k=1 akj Akj ( m X i=1 i xi ). Seien X und Y endlichdimensionale K-Vektorraume mit geordneten Basen (x1 . P zu Linearitat der Aij : Dies ist leicht zu beweisen. : : :. : : :. V ' K dim V = k=1 K dim W ' W. die zu (x1 . 1 j n: Dann sind die Aij lineare Abbildungen und bilden eine Basis von L(X. . Y ).V . Ein Isomorphismus X ' X la t sich auf kanonische Weise beschreiben: Folgerung 2: Fur jeden K-Vektorraum X sei die K-lineare Abbildung iX : X ! X durch iX (x)(l) = l(x) mit x 2 X. xm ) und (y1 . Also sind die Aij linear unabhangig. l 2 X de niert. : : :. Fakt: Wenn zwei Vektorraume beide zu einem dritten Vektorraum isomorph sind. 2 Bemerkung: Ein Isomorphismus ' : V ! W uberfuhrt eine Basis B von V in die Basis '(B) von W. mit f(xi ) = j =1 ij yj . Y ). Die Aij Pn erzeugen L(X. Y )) = dim(X) dim(Y ) 2. (1) P beweisen. Dann gilt fur 1 k i=1 m: m X n n X X 0=( Aij )(xk ) = kj yj : ij Daraus und aus der linearen Unabhangigkeit der yj folgt ij = 0 fur 1 j m. 1 i m. Fur endlichdimensionale Vektorraume X ist iX ein Isomorphismus. yn).

2 Folgerung 3: Sei U X ein Unterraum eines endlichdimensionalen Vektorraumes X. f (l) = l f. wenn U und V nur Untermengen sind. l 2 Y de niert. folgt f (iX (x)) = iY (f(x)). Dies sind Unterraume U ? V ? X. um fur endlichdimensionale X. Y ) c ~ durch Aij ( a=1 k xk ) = i yj de niert. Daraus folgt auch. xb) eine Basis von X.h. yc) eine Basis von Y . P= dimY . : : :. welche A isomorph auf B abbildet: 8 l 2 V : x 2 A . Y ). xa ) eine Basis von U. Da die Aij ~ A k L(U. also iX (xk ) = xk . (iX (x))(l) = 0 . Wenn Y endlichdimensional ist. Damit ist die letzte ~ ~ Behauptung gezeigt. ( 1. Mit anderen Worten. Unter Ausnutzung von Folgerung 2. xn) eine Basis von X. : : :. : : :. (x1 . Es folgt Aij jU = Aij fur 1 i a. da iX ein Isomorphismus ist. Beweis: Sei a = dimU. f f Fakt 8: Fur eine lineare Abbildung X ! Y sei die duale Abbildung Y ! X durch (f (l))(x)) = l(f(x)) mit x 2 X. d. iX (x) 2 B: Fakt 9: Sei U X ein Unterraum. geht f in f uber. denn es gilt folgender Fakt: Sei f : X ! Y eine lineare Abbildung und (b1 . so ist f ein Isomorphismus. GjU = g. X und Bemerkung: Sei V X und A = fx 2 X j 8 l 2 V : l(x) = 0g = V ? X B = f 2 X j 8 l 2 V : (l) = 0g = V ? X : Dann ist iX : X ! X eine Abbildung. zu jeder linearen Abbildung g : U ! Y gibt es eine lineare Abbildung G : X ! Y . Es gilt (f (iX (x)))(l) = (iX (x))(f (l)) = f (l)(x) = l(f(x)) = iY (f(x))(l): Weil das fur alle l gilt. selbst dann. Fur U X und V X seien U ? = fl 2 X j 8 x 2 U : l(x) = 0g V ? = fx 2 X j 8 l 2 V : l(x) = 0g Beweis: Fur alle x 2 X ist iX (x) ein lineares Funktional auf X : iX : X ! X ist K-linear. d. : : :. 1 j c. welche g fortsetzt. 1 j c sei Aij 2 L(U. bn) eine geordnete Basis von X. Y ) durch k ~ij (Pb =1 k xk ) = i yj de niert. (~1 . : : :. Dann ist f eine lineare Abbildung und es gilt f iX = iY f. Dann gilt: 24 . Die dualen Basen sind durch 1 falls i = j ~ i (xj ) = ij = 0 falls i 6= j und xi( j ) = ij gegeben. Y ) erzeugen. Beweis: Sei l 2 Y und x 2 X. (y1 . Fur 1 i b. Fur 1 i a. so auch die lineare Abbildung L(X. folgt nach Satz 2 die Behauptung. : : :. f 7! f jU surjektiv. Sei die orthogonalen Komplemente von U und V . xn) x ~ die dazu duale Basis von X . (x1. wobei iX und iY in Folgerung 2 de niert sind. : : :.n = dim(X). 1 j c sei Aij 2 L(X.h. l(x) = 0 . Wenn (f(b1 ). b = dimX dimU. (x1 . Y ) ! L(U. 2 De nition 7: Sei X ein endlichdimensionaler Vektorraum. Es gilt dann iX (xk )( l ) = kl = xk ( l ) fur alle l. : : :. f(bn )) eine geordnete Basis von Y ist. n ) die dazu duale Basis von X . Y X mit X und Y mit Y zu identi zieren.

~ k k Weil dies fur alle Elemente der Basis (x1. weiterhin '(xl ) = 0. denn fur alle x 2 X gilt ) (f ( ))(x) = (f(x)) f (x=2V '(f(x)) = '(f(x) + 0 y) = 0: Also 2 ker(f ) und (y) 6= 0.1. Dann gilt fur ' = n=d+1 k k = ' 2 k L(f d+1 . n) die dazu duale Basis von X . Behauptung: ( d+1 . ng). 2 K (Diese Darstellung ist wegen y 62 Bild (f) eindeutig. n) ist eine Basis von U ? . : : :. Aber dimU ?? = dim X dimU ? = dim X (dimX dimU) = dimU. n = dim X d = dim U. folgt ' = ' und U ? = L(f d+1 . xn) gilt. Dann gibt es x 2 X mit y = f(x). ~ { fur d + 1 l n: '(xl ) = l = Pn=d+1 k kl = Pn=d+1 k k (xl ) = '(xl ). sind sie linear unabhangig. 2 P f Satz 3: Sei X ! Y ein lineare Abbildung zwischen endlichdimensionalen Vektorraumen. Es gilt 2 ker(f ). ng). 25 . ! ~ Sei ' 2 U ? . Fur d + 1 k n sei k = '(xk ). also ~ '(xl ) = '(xl ). k 2 K. : : :. Also y 62 ker(f )? . n 2 U ? . : : :. : : :. also y 2 ker(f )? . Beweis: 1. U ?? = U. Sei umgekehrt y 62 Bild (f). Bild (f) = ker(f )? . Nach Folgerung 3 2 gibt es ein Funktional 2 Y mit jV = '. also U ?? = U. eine Basis von X. Sei y 2 Bild (f). Dann gilt (y) y=V '(y) = '(0 + 1 y) = 1. folgt: k i (x) = d X k=1 k i (xk ) = d X k=1 k ik = 0 Also d+1 . dim(U ? ) = dim(X) dim(U). u 2 Bild (f). Beweis: Zum Beweis der ersten Aussage sei (x1 . also gilt u 2 U ?? . Es folgt dimU ? = n d = dimX dimU. denn fur u 2 U und 2 V ? gilt (u) = 0 nach der De nition von U ?. 2. Sei V = Bild (f)+ k y Y . xd) eine geordnete Basis von U und sei (x1.) ist ein Funktional ' 2 V de niert. xn). P Fur d + 1 i n und U 3 x = d =1 k xk mit k 2 K. 2. denn es gilt: { fur 1 l d: '(xl ) = 0 wegen ' 2 U ? und xl 2 U. Sei ( 1 . Bild (f ) = ker(f)? . : : :. : : :. ~ Also ist die Behauptung gezeigt. : : :. Sei 2 ker(f ). Durch '(v) = fur v = u + y. Dann gilt: (y) = (f(x)) = (f ( ))(x) = 0. Es gilt U U ?? . Dann gilt: 1. : : :. Weil diese Elemente Teil einer Basis von X sind.

K) erhalt die Struktur eines K-Vektorraumes wie folgt: { (aij )m n=1 = ( aij )m n=1 . Die Dimension des Bildes von f nennt man auch den Rang von f. i=1 j i=1 j m n + (~ij )m n = (aij + aij )m n { (aij )i=1j=1 a i=1 j=1 ~ i=1 j =1 Die aij nennt man Matrixkoe zienten... Mat (m.2 dim(Y ) dim(ker(f )) Satz 1 dim(Bild(f )) = = f De nition 8: Sei X ! Y eine lineare Abbildung zwischen endlichdimensionalen Vektorraumen.2. C i=1 j @ . Rang (f) 2 oder rank (f). n.1 Matrizenrechnung De nition 1: Eine m n-Matrix A ist ein rechteckiges Schema mit m Zeilen. . n.. K) ist die Menge aller m n-Matrizen von Elementen aus K. 3. A am1 am2 amn Mat (m. 3 Matrizen Sei K ein Korper.. C oder A = (aij )m n=1: . n Spalten und Eintragen aus K: 0a a 1 a1n 11 12 B a21 a22 a2n C A = B . Die zweite Gleichung folgt durch Anwendung der ersten Gleichung auf f und durch Anwendung von Fakt 8: Bild (f ) = ker(f )? = ker(f)? : 2 Folgerung 4: In der Situation von Satz 3 gilt: dim(Bild(f)) = dim(Bild (f )): Beweis: dim(Bild(f)) Satz 3 dim(ker(f )? ) Fakt 8 dim(Y ) dim(ker(f ) = = Satz 2. Fur 1 i m ist (aij )n=1 2 K n der i-te Zeilenvektor der Matrix und fur 1 j n j ist (aij )m 2 K m der j -te Spaltenvektor. B . i=1 26 .

. B0 1 falls a(ij ) = 0 sonsti = k und j = l . Also bilden die m n Matrizen A(ij ) . 0 1 .Beispiel: A = 2 3A = 2 0 5 . aij 2 K. . K) und sei ej 2 K n. n.h. n. da A ej der j-te Spaltenvektor von A ist. B . . da die aij mit den Matrixkoe zienten von A ubereinstimmen. . K). B 2 Mat(2.j = B 1 kl B.. wie beim Beweis von Fakt 1 de niert. Daher genugt es. d. 0 . (Analog dazu ist der Zeilenraum Unterraum von K n . wobei k.l=1 00 0 B . . weil aus ( ) folgt. eine Basis von Mat (m. K) und dim(Mat (m. die Injektivitat der betrachteten Abbildung zu zeigen. K). Der von diesen Vektoren erzeugte Unterraum von K m (das Bild von A) ist der Spaltenraum von A. De nition 2: Sei A 2 Mat(m. n. . 3. 2 Fakt 2: Sie A 2 Mat (m. Wir haben gesehen. n. K) ! L(K n . 1 j n. 0 0 0 . xi 2 K. . 1 j n. Der Operator der Multiplikation mit A A ist eine lineare Abbildung A : K n ! K mn P A (xi )n=1 = ( j =1 aij xj )m i=1 i m n . ... n... . Ai. und umgekehrt ist diese Darstellung eindeutig.n . B = 3 1 3 .) Daher stimmt das Bild von A mit der linearen Hulle der Spaltenvektoren von A uberein. mit A = (aij )i=1 j =1 Fakt 1: Die Abbildung Mat(m. 5 7 . Also i i=1 gilt a1j = : : : = amj = 0. K)) = m n = dim(L(K n . folgt A = 0. n. @. B. ij Beweis: Fur 1 i m und 1 j n sei A(ij) die Matrix (a(kl ) )m. A + B = 3 9 14 3 3 2 2 3 2 A hat zwei Zeilenvektoren. sie stimmt mit der maximalen Anzahl linear unabhangiger Spaltenvektoren uberein. K m ) A 7! A ist ein Isomorphismus von K-Vektorraumen. .. 0 1 C C C C C C A i-te Zeile j-te Spalte : O enbar bilden die A(ij ) eine Basis von Mat(m. Weil dies fur alle j mit 1 j n gilt. A. . IR ) 3 0 8 7 2 1 7 4 0 10 5 1 8 3 3 1 2 14 . Aus A = 0 folgt bei Anwendung auf den Vektor ej = ( ij )n=1 2 K n 0 = A ej = (aij )m (=j-te Spalte von A). denn jede m n-Matrix A = (aij )m n=1 i=1 j kann als m X n X aij A(i. K m )).j ) () A= dargestellt werden. namlich (2 0 5) und ( 3 1 7) und drei Spaltenvektoren 2 . 1 i m. die betrachtete Abbildung ist also injektiv und damit auch bijektiv. 2 27 i=1 j =1 . Die Dimension dieses Unterraumes von K m nennen wir den Spaltenrang von A.

. K). so gilt A (B x) = (A B) x. C: @ . B = i=1 j (bjk )n=1 o =1. ist es auch die Matrixmultiplikation: aus A 2 Mat (m.De nition 3: Sei A 2 Mat (m. 3. K) und B 2 Mat (n. K). C 2 Mat (o. K).. Q) 3 A = 1 2 3 Mat (3. Fakt 3: Die Matrizenmultiplikation entspricht der Hintereinanderausfuhrung linearer Operatoren. K) folgt A (B C) = (A B) C 2 Mat (m. Beispiel 1: Sei Bemerkung 1: Wenn man in De nition 2 den Vektor x als n 1.Q) 3 B = @ 4 0 0 A 4 5 6 0 5 0 01 2 31 @4 0 0A 1 2 3 4 5 6 A B= 0 5 0 9 17 3 24 38 12 9 17 3 24 38 12 . A = (aij )m n=1 . o. n. B 2 Mat (n.. p. fur A 2 Mat(m. . B A ist nicht de niert. B 2 Mat (n. so umfa t De nition 3 De nition 2: 0a 1 0 x 1 0 Pn a1j xj 1 a1n 11 B . C B .Matrix au a t. o. o. x 2 K o . . p. d. n.1 C = B j=1. K). denn 0n 1m 0 n o 1 X X X Am A (B x) = @ aij (Bx)j A = @ aij bjk xk j =1 i=1 1 j =1 k=1 i=1 0o 0n 1 m X @X = @ aij bjk A xk A = (AB) x k=1 j =1 i=1 Weil die Hintereinanderausfuhrung von Abbildungen assoziativ ist. Es gelten fur die Matrizenmultiplikation auch die beiden Distributivgesetze ~ ~ (A + A)B = AB + AB ~ ~ A (B + B) = AB + AB 28 . K). am1 amn xm j =1 amj xj " Schema von Falk \ 01 2 31 Mat (2. K) k=1 de niert.. A @ .. .h. K). n. 3. o. Das Produkt A B ist durch die Matrix j k 1m 0n X A B := @ aij bjk A j =1 i=1 o 2 Mat (m. A @ Pn . A .

K) f 7! Mat B. Sei U ! V eine lineare Abbildung. : : :.B (f) ~ m X ~ aij bi ~ trixdarstellung von f bezuglich B und B.( A)( B) = ( )(AB). und b sei (aij )m n=1. Sei V ! W eine lineare Abbildung.:::. 2 K: Dagegen gilt das Kommutativgesetz fur Matrizen nicht. m = dim(W). i In den Bezeichnungen von De nition 4 gilt: fiB = iB (MatB. B = (^1. bn) eine geordnete Basis von f ~ b V . namlich ^ ~ Mat B. Die Matrixdarstellung von A : K n ! K m bezuglich der Standardbasen ist A. (Auf diese Weise erhalt man eine inverse Abbildung zu dem in Fakt 1 betrachteten Isomorphismus.B (f) kommutiert. 2 Mat (m. K) nennen wir die Ma- Beispiel 2: Mat (e1. ^o ) eine Basis von U. Die Matrix (aij )m n=1 i=1 j = i=1 Mat B. W ) ! Mat (m. n. iB A = fiB . n. B = (b1.h. dann gilt b Mat B. xn) = n=1 xi bi de niert. : : :. K).B (f g) = Mat B.en )(e1 . : : :. ist der Operator der Multiplikation mit Mat B. g ^ b 3. : : :. selbst wenn beide Seiten wohlde niert und vom gleichen Typ sein sollten: 0 0 0 1 = 0 0 aber 0 1 0 0 = 0 1 : 0 1 0 0 0 0 0 0 0 1 0 0 und De nition 4: Sei n = dim(V ).:::. bn) von V sei iB (x1 .) Fakt 4: P 1. .B (f) x = iB1(f(iB (x))): ~ ~ 29 . aij 2 K durch i=1 j f(bj ) = de niert. ~ ~ n K? ? iB y V A ! Km ? ?iB y~ f ! W A = Mat B. Fur eine geordnete Basis B = (b1 .B (f) ).B (f) ~ ist ein Vektorraumisomorphismus. : : :. ~m ) eine geordnete Basis von W.B (f) Mat B. Weil iB und iB Isomorphismen sind.B (f) x) bestimmt. d.B (g): ^ ~ ^ ~ Beweis: 1. Die Abbildung L(V. B = (~1 . n. ~ ~ 2.em ) (A ) = A fur A 2 Mat (m.B (f) ~ ~ durch die Bedingung f(iB (x)) = iB (Mat B.

Die Behauptung folgt.B (f) = (aij )n=1 m .B (f) Mat B. denn die Linearitat von I ist leicht nachprufbar. 3. Dann sind folgende Bedingungen aquivalent: 1. Es gibt C 2 Mat (m. 2 2. . K) ! L(K m . k. . Nach (1) ist die Abbildung f 7! Mat B.B (f) x ~ ~ I L(V. denn die Hintereinanderausfuhrung von Isomorphismen ist ein Isomorphismus.B (g) y)) ~ ~ ^ = iB ((Mat B.B (f) Mat B. : : :. Dann gilt nach Fakt 3: (AB) x = A(B x) = A(g(x)) = f(g(x)) = x = 1m x: 30 . m.. Es gilt fur y 2 K o (f g)(iB (y)) = f(g(iB (y))) = f(iB (Mat B..B (f) y)) ^ ^ ^ = iB (Mat B. 3.B (g) erfullt die unter (1) angegebene Bedingung ~ ^ fur die Matrixdarstellung von f g. W ) ist durch K(g) = iB g iB1 gege~ ben. W ) ! L((K m . denn 1mx = @ ij xj i=1 auch j =1 i=1 2. K). ist bijektiv. die Behauptung folgt nun aus (1). Es gibt B 2 Mat (m. K) mit 0 1 ::: 0 1 AB = 1m = B .B (f) die Verknupfung von I mit dem Inversen ~ des in Fakt 1 betrachteten Isomorphismus Mat (n. Mat B. Die lineare Abbildung K m ! K m . K n). K): (3))(1) und (2): Sei x ! f(x) = A x bijektiv und sei g die inverse Abbildung. m. x 7! Ax. .B (g))y): ~ ~ ^ Mit anderen Worten. Y 2 Mat (n. K). Allgemein gilt Beweis: Es gilt 1m x = x fur x 2 K m .. Dann gilt: ~ i j =1 0m 1 n 0m 1 X A X @X A ~ f(iB (x1 . 1m X = X und Y 1m = Y. m. m. X 2 Mat (m. C = ( ij )m m : @ A i=1 j =1 0 ::: 1 1 0m X Am = (xi )m . xm)) = f @ xj bj = aij xj bi j =1 i=1 j =1 = iB Mat B. K n) ! L(V. K) mit CA = 1m . m.Nach Fakt 1 ist daher auch Mat B.. K n ) I(f) = iB1 f iB ~ ist ein Isomorphismus I von Vektorraumen.B (f) x) bestimmt. und eine inverse Abbildung K : L(K m . Nach Fakt 1 gibt es eine Matrix B mit g(x) = B x. Es verbleibt. Durch Fakt 5: Sei A 2 Mat (m.B (f) selbst eindeutig durch die Bedingung f(iB (x)) = ~ iB (Mat B. .B (f) (Mat B. diese Gleichung nachzurechnen: ~ ~ sei Mat B.

2 De nition 5: Sei K ein Korper. Sei V ein K-Vektorraum. diese wird. versehen mit der Hintereinanderausfuhrung von Automorphismen als Gruppenoperation eine Gruppe.B (g). (2))(3) Praktisch genauso: aus CA = 1m folgt.B (Id V ) = 1m : ~ ~ 31 .3 folgt Mat B. Beweis: Es gilt wegen der Bijektivitat von B Spaltenraum(AB) = Bild (AB) = Bild (AB ) = Bild (A ) = Spaltenraum(A): Weil C ein Isomorphismus ist. 2 ein Gruppenhomomorphismus. ~ ~ Mat B. da g linksinvers zu f ist. falls sie die aquivalenten Bedingungen von Fakt 5 erfullt. Sei GLm (K) Mat (m.B (Id V ) = Mat B. W. da A ein Monomorphismus und damit ein Isomorphismus ist. (1))(3): Sei AB = 1m . Aus Fakt 4. 2 Bemerkung: Invertierbare m m-Matrizen konnen auch beim Basiswechsel entstehen. Eine Matrix A 2 Mat (m.B00 (f) Mat B. eine Gruppe. Fur alle x 2 K m folgt x = 1m x = (AB)x = A(Bx) 2 Bild (A ). Seien U ! V ! W lineare Abbildungen. Aus Fakt 4.B00 (g) = Mat B. C 2 GLn.B (g) = Mat B.B (Id V ) 2 GLm . Es folgt Spaltenrang(CAB) =Spaltenrang(AB) =Spaltenrang(A).B (f) g f Es folgt Mat B. Also ist der Endomorphismus A des endlichdimensionalen Vektorraumes K m ein Epimorphismus und damit auch ein Isomorphismus und (3) folgt. B 2 GLm . Sei ~ namlich V m-dimensional und seien B.Aus Fakt 1 folgt A B = 1m . 3.B (Id V ) Mat B0 . das Einselement ist 1m . wobei Bild (AB) der Spaltenraum von AB und Bild ((CAB) ) der von CAB ist. Bemerkung: Die Gruppenaxiome fur GLm rechnet man leicht nach. 2. m. B 0 und B 00 geordnete ~ Basen von U bzw. versehen mit dem Matrizenprodukt. Beweis: folgt leicht aus Fakt 4.B (Id V Id V ) ~ ~ ~ ~ = Mat B. K) nennen wir invertierbar.B (Id V ): ~ ~ Fakt 7: Sei A eine m n-Matrix. Aut (V ) sei die Menge der Automorphismen von V . dann ist Aut (V ) ! GLm (K) f 7! Mat B. Dann stimmen die Spaltenraume von A und AB bzw.B (Id V ) Mat B. Fakt 6: Sei B eine Basis des m-dimensionalen K-Vektorraumes V . K) die Menge aller invertierbaren m m-Matrizen.3 folgt Mat B0 . Genauso leitet man B A = 1m aus der Tatsache her. 1. A und CAB uberein. de niert er einen Isomorphismus Bild (AB) 7! Bild (C (AB) ) = Bild ((CAB) ). B Basen von V . m.

~ Beweis: Es gibt Vektorraume V und W mit Basen B und B und eine lineare Abbildung f : V ! W mit Mat B. B = ( ~1 . j i=1 De nition 6: Die transponierte Matrix einer m n Matrix A = (aij )m jn=1 ist die i=1 Beispiel: 0 1 2 3 1T 01 4 71 @ 4 5 6 A = @ 2 5 8 A: 7 8 9 3 6 9 f Fakt 8: Sei V ! W eine lineare Abbildung endlichdimensionaler Vektorraume. Bemerkung: Aus Folgerung 1. Fakt 3 und Fakt 8 folgt: (AB)T = B T AT : Dies konnte man leicht direkt nachrechnen! Folgerung 2: Die transponierte Matrix einer invertierbaren Matrix A ist invertierbar. -rang von AT . Folgerung 2 und Fakt 7 folgt.8 ((fg) = g f ).und der Zeilenrang einer Matrix A stimmen uberein.B (f)T : ~ ~ Beweis: Sei A = Mat B. -rang von A ist der Spaltenraum bzw. ~m ) die zu B duale Basis von W .B (f). n ) die zu B b ~ ~ duale Basis von V .B (f ) = Mat B.B (f) = A. ~m ) eine Basis von W.4. also Mat B . Dann gilt: ~ f(iB (x)) = iB (A x). AT = B. : : :. B = (b1 . da (A 1 )T tatsachlich die inverse Matrix zu AT ist. x 2 K dim V : ~ 32 .B (f ) = B = AT : ~ i=1 i=1 2 Folgerung 1: Aus Fakt 2. B = ( 1 . a = (aij )n=1 m=1 . Folgerung 3: Der Spalten. Es gilt ~ i j i=1 XX ~ X X ali i bl ) (f ( ~j ))( i bi )) = ~j ( i bi ) = ~j (f( m m m n i=1 = = Es folgt: m m m n XX i=1 ali i jl = aji i i=1 l=1 i=1 m m X X aji i ( k bk ) i=1 k=1 m X i=1 l=1 X X f ( ~j ) = aji i = bij i . bij = aji. da sich der Zeilenrang einer Matrix bei Multiplikation mit einer invertierbaren Matrix nicht andert. Aus Folgerung 1 folgt. : : :.n m Matrix AT = (aji )n=1 m . : : :. B = (bij )m jn=1 . : : :. De nition: Der Zeilenraum bzw. bn) ~ b eine geordnete Basis von V . B = (~1. Dann gilt Mat B . und (AT ) 1 = (A 1 )T .

In der Tat gilt: A invertierbar .8 rang (f) Def= dim(Bild (f)) = rang (Mat B. stimmt mit dem Bild von A (=Spaltenraum von A) uberein. K) ! Mat(n. falls eine Zahl r 0 und Zahlen 0 < j1 < j2 < : : : < jr n existieren. 2 De nition 8: Man nennt den Spaltenrang (=Zeilenrang) einer Matrix A den Rang von A und schreibt Rang (A) oder rank (A). wenn ihr Rang gleich n ist. Dieses Verfahren dient der Bestimmung des Ranges einer Matrix.5. 2. Wenn man denselben ~ Sachverhalt aus f und die Basen B und B anwendet. = . Eine n n Matrix A ist genau dann invertierbar. de niert iB einen Isomorphismus des Bildes von A auf das ~ ~ Bild von f. Es gilt (AT )T = A. so folgt: Zeilenrang(A) = Spaltenrang(AT ) = dim(Bild (AT )) = dim(Bild(f )) = dim(Bild (f)) nach Folgerung 2. .. . gegebenenfalls der Berechnung ihrer inversen Matrix oder der Au osung linearer Gleichungssysteme. n. m..4. A : K n ! K n ist bijektiv . K) A 7 ! AT ist ein Isomorphismus von Vektorraumen. .B (f)): ~ Dies folgt aus dem Beweis von Folgerung 3. + . am1 x1 + am2 x2 + + amn xn = bm Die Menge der b 2 K n . Dann ist die Gleichung A x = b fur x 2 K n aquivalent zu den m Gleichungen in Pn a i=1 = b fur 1 i m.Weil iB und iB Isomorphismen sind.h.2 Das Eliminationsverfahren von Gau .. Sei A = (aij )m jn und i=1 =1 sei b = (bi )m . K: i=1 ij xj j a11x1 + a12 x2 + + a1nxn = b1 a21x1 + a22 x2 + + a2nxn = b2 . 33 3. De nition 1: Eine m n-Matrix A ist in Zeilenstufenform. torraumen. dim(Bild (A )) = n . A : K n ! K n ist surjektiv . . dann gilt: f Bemerkung 1: Sei V ! W einer lineare Abbildung zwischen endlichdimensionalen Vek- 2. damit folgt die Behauptung. Fur i r gilt aiji 6= 0 und aij = 0 fur j < ji . so da folgende Bedingungen erfullt sind: 1. d. + + . fur die diese Gleichungen eine gemeinsame Losung haben. aij = 0 fur i > r.. rang (A) = n Bemerkung 2: Die Abbildung Mat (m. Also gilt: Spaltenrang(A) = dim(Bild(A )) = dim(Bild (f)).4.

j3 = 3 0 0 9 Die folgenden Matrizen sind nicht in Zeilenstufenform: 0 1 1 3 . . und der Zeilenrang ist r. m = n = 3. Fakt 2: Sei A eine m n -Matrix in Zeilenstufenform und b = (b1 . so ist diese durch Vorgabe der freien Variablen eindeutig bestimmt. so sind ihre von 0 verschiedenen Zeilenvek- 1 2 3 r = 2. j =jr +1 rj j n 1 2. Wenn eine Losung des untersuchten Gleichungssystems existiert.toren linear unabhangig. Sei M = fj1 . Seien xjk+1 . j2 = 3 0 0 7 01 2 31 @0 0 7A r = 2. j2 = 3: 0 0 0 Sei b = (b1. Die von 0 verschiedenen Zeilenvektoren sind also linear unabhangig. j1 = 1. Die Variablen xi mit i 62 M nennen wir frei. b2. wenn keine freien Variablen existieren. : : :. Sie bilden daher eine Basis des Zeilenraumes. Beispiel: (rationale Koe zienten) 07 6 51 @ 0 0 1 A . xjr bereits bestimmt. r = 2. j2 = 3 0 0 0 01 4 71 @0 5 8A r = 3. xjr = arjr br xj frei. : : :. j2 = 2. dann gilt: xjk = arjk bk j =jk +1 akj xj xj entweder frei oder gebunden und bereits berechnet: Insbesondere gilt: wenn eine Losung existiert. wenn r = n gilt. b3) vorgegeben. @ 1 2 3 A. jr g. so ist die genau dann eindeutig. Seien 1 = : : : = k0 1 = 0 und k0 6= 0: i k Dann ist der jk0 -te Koe zient der untersuchten Summe r X Fakt 1: Wenn A eine Matrix in Zeilenstufenform ist. d. bm ) 2 K m: Das lineare Gleichungssystem A x = b hat genau dann eine Losung x 2 K n . und der Zeilenrang ist r. j1 = 1. wobei r dieselbe Bedeutung wie in De nition 1 hat.h. jn = 1. Insbesondere bilden diese Vektoren eine Basis des Zeilenraumes. Angenommen. Beweis: Die Zahlen 1 j1 < j2 < : : : < jr n seien wie in De nition 1 gewahlt. P 0 = r =1 k (aki)n=1 und nicht alle k 2 K sind 0. j1 = 1. wenn bi = 0 fur i > r gilt. 0 0 0 : 0 0 1 4 6 1 2 3 0 5 6 Beispiel: Die folgenden Matrizen sind in Zeilenstufenform: im Widerspruch zu unserer Annahme. Das Gleichungssystem hat dann die Gestalt: 7x1 + 6x2 + 5x3 = b1 7x1 + 6x2 + 5x3 = b1 0x1 + 0x2 + x3 = b2 ) x3 = b2 0x1 + 0x2 + 0x3 = b3 0 = b3 k=1 k akjk0 = r X k=k0 k akjk0 = k0 ak0 jk0 6= 0 P 34 . : : :. Die gebundenen Variablen konnen aus den freien wie folgt berechnet werden: Pn a x 1 1.

Beweis: Sei A eine m m-Matrix und sei si der i-te Spaltenvektor von B. wenn A invertierbar sein soll.Gl) 1 2 .Gl) 1 (2. Fakt 3: Eine m m-Matrix A in Zeilenstufenform kann genau dann invertiert werden. dann bilden die A si. Damit sind sowohl die Hinlanglichkeit als auch unsere Beschreibung der Losungsmenge veri ziert.Gl) (1.Gl) i = f = c = (3. si ist dann der i-te Spaltenvektor von A. Wenn sie erfullt ist. Dann ist genau die Variable x2 frei. Die letzte Behauptung ist klar. also mu r = m sein. In diesem Fall kann die Bestimmung der inversen Matrix dann durch Au osung von A si = ei . 2 Bemerkung 1: Der Spaltenraum von A stimmt mit der Menge aller b.h. 1 i m. uberein. also mu bk = 0 sein. In diesem Fall sind die Gleichungen fur die si nach Fakt 2 eindeutig losbar. d.Gl) 40 1 1 A h = 0 (3. 1 i n. zu unserer Vorschrift zur 1 fur j < jk ) zu xjk = akjk bk j =jk+1 kj j Bestimmung der gebundenen Variablen aus der freien. Daher ist A B = 1m aquivalent zu A si = ei (denn der i-te Spaltenvektor von 1m ist ei ). dann sind die letzten m r Gleichungen (die k-te mit r < k m) automatisch P P erfullt. Fur i > r wird diese Gleichung nach Fakt 2 unlosbar. ej = ( ij )m i=1 nach si erfolgen.Gl) 40 (1. Beweis von Fakt 2: Die k-te Gleichung des betrachteten Systems lautet: n X j =1 akj xj = bk : Fur k > r verschwinden alle akj . Die Notwendigkeit unserer Bedingung fur die Losbarkeit ist somit bewiesen.Es kann nur losbar sein.Gl) b = 0 (1. Fur 1 k r ist die k-te Gleichung bk = n=1 akj xj = n=jk akj xj (denn akj = 0 j j Pn a x aquivalent. Beispiel: 0 1 0 80 1 1 0 a b c 1 0 1 0 1 @ 0 23 46 A = @ d e f A = @ 0 23 0 0 2 g h i 0 1 + 80g = 1 g = 0 23d 46g = 0 =) d = 0 2e = 0 a = 1 b + 80h = 0 23e 46h = 1 2h = 0 c + 80i = 0 23f 46i = 0 2i = 1 =) =) 35 0 1 2 (3. wenn r = m gilt.Gl) 1 e = 23 (2. Insbesondere haben wir einen neuen Beweis fur Zeilenrang = Spaltenrang fur Zeilenstufenmatrizen gefunden.Gl) (2. Nach Fakt 2 ist seine Dimension r. wenn b3 = 0. fur die A x = b losbar ist. wenn eine Losung existieren soll. und unsere Formeln lauten: x3 = b2 x1 = b1 6x72 5x3 = b1 6x2 5b2 : 7 Auf diese Weise erhalt man in der Tat Losungen des Gleichungssystems (falls b3 = 0). die Spaltenvektoren von A B.

l=1 mit e(kl )( ) = < 1 k = i. 2 36 B B B @0 1 C C C C C C 81 C > C C (i.. C ... l = j i.. j k = i. .. Aus Ax = b folgt (BA)x = B(Ax) = Bb und aus (BA)x = Bb folgt Ax = 1m Ax = (B 1 B)Ax = B 1 ((BA)x) = B 1 (Bb) = b Damit andert sich die Losungsmenge nicht. Addition des Vielfachen einer Zeile zu einer anderen Zeile. von Ax = b) durch Tij A oder Eij ( )A (bzw.. . . .l=1 mit t(kl ) = < 1 i. . 0 C A 0 0 0 k = l 6= i. ..De nition 2: Eine elementare Zeilentransformation einer Matrix A bzw. A 0 ::: ::: 1 steht in der i-ten Zeile.. . . . . C B . l = j k = j.1. . .7 und Folgerung 3.. durch (Tij A)x = Tij b oder (Eij ( )A)x = Eij ( )b) in der Tat das behauptete bewirkt. C @. .1. Die Behauptung uber das Inverse von Tij und Eij ( ) sind ebenfalls leicht nachzurechnen.1.. Eij ( ) = B C .j . j-ten Spalte.. i 6= j: 0 1 ::: ::: 0 1 B . . in Ax = b. . C B. des Gleichungssystems Ax = b ist eine der folgenden Transformationen: 1. Spaltenrang oder den Zeilenraum.. Sei B invertierbar mit inverser Matrix B 1 . B B 0 ::: 1 B B 1 0 B 0 0 ::: 0 1 Addition des -fachen der i-ten Zeile auf die j-te. B . . Vertauschung zweier Zeilen in A bzw..j) m B C = (ekl ( ))k...j) m C = (tkl )k. . C >1 :0 C C C C C 1 C . Die Behauptung uber den Zeilenraum und den Zeilenrang folgt aus Fakt 3. Fakt 4: Eine elementare Zeilentransformation ist die linke Multiplikation von A oder Ax = b mit einer der invertierbaren Matrizen Zeilenvertauschung: 01 0 ::: B 0 . B B B 1 B B 0 1 B B 1 ::: 0 B .j . ebenso die Behauptung uber den Spaltenrang.. C B C 8 k=l B C 1 ::: B C (i. Beweis: Es ist leicht zu sehen. Weiterhin gilt 2 Tij = 1m und Eij ( ) Eij ( ) = 1m : Insbesondere andert eine solche Umformung weder die Losungsmenge eines linearen Gleichungssystems noch den Zeilenrang bzw. da das Ersetzen von A (bzw. B C : 0 sonst B C 0 ::: 1 B. . 2. 2 K. Tij = B . l = i sonst .

Sei l (eine naturliche Zahl. Fur 1 i k gilt aiji 6= 0 und aij = 0 fur j < ji . Generell besteht ein Algorithmus aus einer Folge von Anweisungen. Da die Matrix bereits in (k 1)Zeilenstufenform vorliegt. Genauer gesagt: (a) Setze q paijk . Fur k < i m und 1 j jk gilt aij = 0. j1 = 2). Wir schreiben x Ausdruck. so da folgende Bedingungen erfullt sind: 1. wenn A in r-Zeilenstufenform ist und fur r < k m die k-te Zeile verschwindet. A ist nun in k-Zeilenstufenform. An dieser Stelle liegt die Matrix A in (k 1)-Zeilenstufenform vor. i=1j falls Zahlen 0 < j1 < j2 < : : : < jk m existieren. Fur alle i mit k < i m fuhre man folgende elementare Zeilenumformung durch: Multiplikation der k-ten Zeile mit p aijk und Addition des Ergebnisses zu der i-ten Zeile. gilt jk > jk 1 (= 0 fur k = 1). sind wir fertig. 37 . Indem wir die l-te mit der k-ten Zeile vertauschen (sowohl in A als auch. so da k l m gilt und aljk 6= 0). n. 00 1 2 3 01 01 2 3 1 B0 0 7 1 0C @ 0 8 9 A und B 0 0 8 9 0 C A @ 0 7 10 falls der Variablen x der Wert von Ausdruck zugeordnet wird. Uberfuhrung einer Matrix A 2 Mat (m. 2. z. k 1. 2. Beispiel 3: 0 0 0 0 0 sind in 1-Zeilenstufenform (j1 = 1 bzw. ordnet x y=3 x ein Drittel der Variablen y zu. so liegt die Matrix sogar in vollstandiger Zeilenstufenform mit r = k 1 vor und das Verfahren bricht ab. Wenn aij = 0 fur k i m und 1 i m gilt. (b) Fur jk j n setze aij aij qakj . falls gegeben in b bzw. aij 6= 0g. 3. Setze p akj1k . da akjk = k-tes Pivotelement 6= 0. konnen wir erreichen. Wir mochten nun den Eliminationsalgorithmus von Gau beschreiben. Andernfalls sei jk = minfj j 9 i : k i m. Eine Matrix A ist in m-Zeilenstufenform genau dann. 5. aljk ist das k-te Pivotelement. Jede Matrix liegt in 0-Zeilenstufenform vor. wenn A ist in Zeilenstufenform und r = m (r gema De nition 1). 4. K) oder des Gleichungssystemes Ax = b oder von Ax( ) = b( ). Andernfalls setzen wir k k + 1 und gehen zu Schritt 2 zuruck. A ist in Zeilenstufenform vom Rang r genau dann. b( )).B. Wenn k = m gilt. 0 k m.De nition 3: Eine m m-Matrix A = (aij )m n=1 ist in k-Zeilenstufenform. 1 r in Zeilenstufenform: 1. Hier ist akjk 6= 0. durch die bestimmten Variablen bestimmte Werte (in unserem Fall naturliche Zahlen oder Elemente von K) zugeordnet werden.

Fakt 5: Die Uberfuhrung einer m m Matrix in Zeilenstufenform nach dem beschriebenen 2 Algorithmus kostet m3 + O(m2 ) Multiplikationen und Subtraktionen. jk 1 Das Pivotelement ist a11 = 1 (3) bewirkt weiter nichts. und 3. Bestimme eine Basis des Zeilenraumes der transponierten Matrix. falls eine Konstante c > 0 und ein n0 2 IN existieren mit Bestimmung einer Basis des Spaltenraumes: Bestimmung einer Basis des Zeilenstufenraumes: Bestimmung der inversen Matrix: jf(n)j c g(n) fur alle n n0 : 38 . Bemerkung: Da fur Zeilenstufenmatrizen Zeilen. 01 1 21 0 1 k (4) @ 0 0 3 A x = @ 29 A (5) k 2. Ablesen des Ranges der dabei erhaltenen Zeilenstufenmatrix.und Stufenrang ubereinstimmen und elementare Zeilentransformationen beide Range nicht andern. 01 1 21 0 1 1 @ 0 2 3 A x = @ 13 A 0 0 3 29 (4) In diesem Fall mu nur noch die dritte Zeile durch Subtrahieren des 0-fachen der 2.Beispiel 4: 0 1 1 2 1 011 @ 30 30 63 A x = @ 1 A 14 16 37 1 (1) k 1 (2) l 1. Uberfuhrung in Zeilenstufenform. was uber ussig ist. denn 1 = l. Zeile. Die von 0 verschiedenen Zeilenvektoren des Ergebnisses bilden eine Basis des Zeilenraumes (Fakt 4 und Fakt 1). Andernfalls ist die m m-Matrix A nicht invertierbar (vgl. 3 De nition: Seien f. l 3 (3) Vertausche die 2. haben wir auch einen neuen Beweis dafur gefunden. Uberfuhrung der Matrix durch elementare Zeilentransformationen in Zeilenstufenform. Durch Au osung von Asi = ei . Die si bilden (falls sie existieren) die Spalten der inversen Matrix A 1. zuruck zu 2 0 2 6 13 (2) j2 2. Fakt 3). da Zeilenrang = Stufenrang. Zeile korrigiert werden. Die Matrix ist in Zeilenstufenform und der Algorithmus bricht ab. da f die Wachstumsordnung O(g(n)) hat. g : IN ! IR Funktionen. Man sagt. Anwendung des in Fakt 2 beschriebenen Verfahrens auf das umgeformte System. Bestimmung des Ranges einer Matrix: Au osung linearer Gleichungssysteme: Uberfuhren in Zeilenstufenform mittels elementarer Zeilentransformationen.

j) die Transposition von i und j. Solche Abbildungen nennt man auch Permutationen. Flannery. : : :. jg < x=j : (i. 8 x x 2 f1. Jedes Element von Sn kann als Produkt von hochstens n 1 Transpositionen dargestellt werden. n)Sn 1 folgt (n) = j 6= n. j) die Permutation. Man schreibt eine Permutation 2 Sn oft als die zweizeilige Matrix: 1 2 n (1) (2) (n) : Zum Beispiel ist 1 2 3 die Permutation mit (1) = 3. Fur n > 1 betrachten wir Sn 1 als die Untergruppe n 1 () f 2 Sn j (n) = ng Sn . Beweis: Fur n = 1 sind beide Behauptungen klar. Dann ist nach Induktionsvoraussetzung Produkt von weniger als n 2 Transpositionen und ist ein Produkt von weniger als n 1 Transpositionen.Bemerkung 3: In der Praxis kommt es beim Umgang mit reellen Matrizen sehr auf die geschickRecipes | erhaltlich fur C. 2. n)Sn 1j = jSn 1j + jSn 1 j = n jSn 1j. denn aus 2 Sn 1 folgt (n) = n und aus 2 (j. da Sn die Gruppe der bijektiven Abbildungen von f1.1 Einige Fakten uber Permutationen Wir erinnern daran. 3 1 2 De nition 1: Fur zwei verschiedene Elemente i. ng fi. welche i und j vertauscht und alle anderen Zahlen auf sich selbst abbildet. : : :. sei 2 Sn . Sei 2 Sn und 39 . j 2 f1. andernfalls ist nach ( ) von der Form (j. Press. Teukolsky. Pascal). ng auf sich selbst ist. n)Sn 1: Aus ( ) folgen beide Behauptungen durch Induktion nach n. (3) = 2. te Wahl der Pivotelemente an. (vgl. j)(x) = : j i x=i Man nennt (i. Um (1) durch Induktion nach n zu zeigen. Wenn sogar 2 Sn 1 gilt. Es verbleibt der Beweis von ( ). n) mit 1 j n und 2 Sn 1 . Fakt 1: 1. so ist nach Induktionsannahme ein Produkt von weniger als n 2 Transpositionen. Vetterling: Numerical 4 Determinanten und multilineare Algebra 4. Fortran. ng sei (i. ( ) impliziert j =1 n 1 X j =1 n 1 X j =1 jSnj = jSn 1j + j(j. : : :. was (2) beweist. jSn j = n! = n (n 1) : : : 2 1. (2) = 1. Die rechte Seite von ( ) ist sicher eine disjunkte Vereinigung. Sn = Sn 1 _ (j.

Diese Moglichkeiten schlie en sich aus. j) genau dann ein Fehlstand von . j)g _ f(i. j) 62 F ^ ( (i). 2. Die Vereinigung ist disjunkt. Also haben wir erhalten F = (F N) (N F ): Dann folgt die Behautung aus folgendem Lemma: Seine X und Y endliche Mengen. 2 Sn gilt: sign ( ) = sign ( )sign ( ). Es gilt jF j jN j jF j = jF j jF j jF j = l( ) l( ) l( ) ist gerade. Bemerkung: 1. und ( (j). j) ist ein Fehlstand von . k) j i < k < j g _ f(k. n)2 = Id und (j. (i. j) ist kein Fehlstand von . j) 2 F ^ ( (j). (j)) 2 F ) _ ((i. ist 2 Sn 1 . De nition: Fur 2 Sn sei F = f(x. es folgt l((i.h. j) j (i. ob sign ( ) = 1 oder sign ( ) = 1 gilt. Sei N = f(i. dann ist j(X Y ) (Y X)j jX j jY j gerade. Andernfalls gilt (j. je nachdem. Man nennt gerade oder ungerade. n)2 = Id . j)) = 1: Satz 1: Fur . d. n) = (n. Falls j = n gilt. n)((j. n) 2 Sn 1 . Man erhalt sign ( ) = sign ( )sign ( ) ( 1)l( 40 ) l( ) l( ) = sign ( )sign ( ): 2 . 2. Es gilt = Id = (j. j) j i < k < j g fur i < j. Es gilt F(i. j). wenn l( ) = 0. y) j x < y und (x) > (y)g 2 die Menge aller Fehlstande von . Nun betrachten wir (j. l( ) = jF j die Lange von und sign ( ) = ( 1)l( ) das Signum von . = Id genau dann.j ) = f(i. (i)) ist kein Fehlstand von . (i. (j)) ist ein Fehlstand von . wenn eine der beiden folgenden Aussagen gilt: 1. sign ist ein Gruppenhomorphismus von Sn nach der multiplikativen Gruppe f 1g. n)Sn 1 Damit ist ( ) bewiesen. Beweis: Fur 1 i < j n ist (i.j = (n). (i)) 2 F )g: Es gilt jN j = jF j = l( ). n) ) 2 (j. Bemerkung: Es gilt (j. j)) = 2(j i) 1 und sign ((i. und ( (i).

wenn gerade ist.x+1g j(X Y ) (Y X)j jX j jY j = 2jX \ Y j: Beweis: Seien = = = = = fy j y < x ^ (y) > (x)g fy j y < x ^ (y) > (x + 1)g fy j y > x + 1 ^ (y) < (x)g fy j y > x + 1 ^ (y) < (x + 1)g f(i. j 2 D.x+1).x+1) .j 62M :=fx. dann gilt sign ( i ) = 1. Es folgt: j(X Y ) (Y X)j = (jX j jX \ Y j) + (jY j jX \ Y j) und damit: 2 Folgerung 1: Wenn eine Permutation als Produkt von Transpositionen dargestellt ist. Fur i 2 f(x. Sei f(i. x + 1) i und j fest. also j(X Y ) (Y X)j = jX Y j + jY X j: Es gilt jX Y j = jX j jX \ Y j. dann ist die Anzahl der Faktoren in dieser Darstellung genau dann gerade.x+1) . j) 2 F j i 62 fx. x) 2 F (x. Also ist k genau dann gerade. (b) j = x + 1: dann (i.j 2M = i. i 2 B. x + 1)g = . x + 1) 62 F (x. Beweis: Sei = 1 : : : k mit Transpositionen i . Ebenso gilt jY X j = jY j jX \ Y j.x+1) . x + 1) 2 F (x. x + 1g ^ j 2 fx. x + 1)g. Dann: (i. denn X = (X Y ) _ (X \ Y ). x + 1)g i=M ^j 2M 2 i2M. also ist sign( ) = sign ( 1 ) : : : sign ( k ) = ( 1)k . x + 1)g gilt = (a) j = x: dann ( (x. x + 1))(x) = (x + 1). 41 . 2. 2 Satz 2: Sei 2 Sn und 1 x < n und (x + 1) < (x). 1 i k. j) 2 F (x. j 2 f(x. i 2 A.. Dann gilt l( (x.x+1) . 1. x + 1)g. j) 2 F (x. Sei f(i. j 2 C. Fur i 2 f(x. x + 1)g gilt = (a) i = x: dann (x. (b) i = x + 1: dann (x + 1. Dann la t (x. j 2 f(x.Beweis des Lemmas: Die Vereinigung (X Y ) (Y X) ist eine disjunkte Vereinigung. j) = (x. x + 1gg = f A B } f } f {z } | fxg {z fx + 1g |xg C {zx + 1g D |(x. x + 1)g. 4.j 2M E |{z} Zwischenuberlegungen: Sei 1 i < j n. 3. j) 2 F (x. j)g \ f(x. also gilt (i. x + 1)) = l( ) 1: A B C D E Dann gilt F = i. wenn sign ( ) = 1.x+1) . Also (i. j)g = f(x.

Bemerkung: nk = n 1K (Produkt der ganzen Zahl n mit dem Element 1 der additiven Gruppe) nK = | + :{z: + 1 2 K. da = Id = (x. x + 1)) = l( ) + 1. fur n > 0: 1 : } Lemma 1: n Summanden 1. und ist nach Induktionsvoraussetzung ein Produkt von l( ) 1 Transpositionen benachbarter Zahlen.Damit folgt: F (x. Sei nun (1) = 1. x + 1) (x. Dann gilt (k) = k fur 1 k n: ware (1) 6= 1. Wegen l( ) = 0 folgt (a) < (b) fur 1 a < b n. x + 1) = (x. Nach Satz 2 gilt l( ) = l( ) 1.x+1) = |{z} | fxg {z fx + 1g | xg D {zx + 1g C E B A f } f } 1: 2: 3: und l( ) = jE j + jAj + jB j + jC j + jDj + 1 = 1 + jE j + jB j + jAj + jDj + jC j = 1 + l( (x. Also gilt (k) = k. Sei = (x. Es folgt. Aus (k) 6= k wurde (k) > k und damit (a) (k) > k fur ein k a n folgen. = ( n)K fur n < 0. (k 1) = k 1. = Die Behauptung sei fur Permutationen mit l( ) < l( ) bewiesen. x + 1) ein Produkt von l( ) Transpositionen benachbarter Zahlen ist. Folgerung 2: Jede Permutation kann als Produkt von l( ) Transpositionen der Form (x.2 Charakteristik eines Korpers Sei K ein Korper. so gilt l( (x. x + 1)) 2 Bemerkung: Wenn (x) < (x + 1). x+1) geschrieben werden. : : :. also k 2 Bild ( ) Widerspruch. also (a) (1) > 1 fur ein 1 a n. Dann gibt es ein x mit 1 x < n und (x + 1) < (x). 2 4. also 1 2 Bild ( ) im Widerspruch zur = Bijektion von . Beweis durch Induktion nach l( ): Sei l( ) = 0. (n m)K = nK mK 42 . (Andernfalls wurde leicht F = . so wurde (1) > 1 folgen. x + 1). folgen). und es gelte l( ) > 0. Dies zeigt man genauso wie Satz 2 oder leitet es aus Satz 2 her (Ubungsaufgabe). (n + m)K = nK + mK 2. Dann ist = Id zu zeigen. De nition 1: Fur ganze Zahlen n sei nK 2 K folgenderma en de niert: 0K 1K (n + 1)K nK = 0 (Nullelement der additiven Gruppe) = 1 (Einselement der multiplikativen Gruppe) = nK + 1 fur n 0.

Fall 4: n < 0. n + m 0: Es gilt nK = ((n + m) + ( m))K = (n + m)K + ( m)K nach Fall 1.n beliebig: Es gilt (mn)K + ( mn)K = 0K = 0 nach (1). n beliebig: Vollstandige Induktion nach m. denn die Aussage ist in n und m symmetrisch. m < 0. m < 0: (n + m)K = (( n m)K ) De nition 1 = (( n)K + ( m)K ) Fall 1 = ( n)K ( m)K = nK + mK De nition 1 2.1 nK ( ( m)K ) = nK ( m)K Fall 1 ( nm)K = (nm)K : Lemma 2: Fur einen Korper K gibt es zwei Moglichkeiten 43 . Fur m = 0 gilt (n 0)K = 0K = 0 = nK 0 = nK mK Schlu von m auf m + 1: = nK (m + 1)K Def. m 0 Beweis durch Induktion nach m: Fur m = 0 ist die Behauptung klar: (n + 0)K = nK = nK + 0 = nk + 0k Induktionsschlu von m auf m + 1: (n + (m + 1))K = (n + m)K + 1 De nition 1 = nK + mK + 1 Induktionsvoraussetzung = nK + (m + 1)K De nition 1 Fall 2: n 0. also (mn)K = = 2 = ( mn)K .1 nK (mK + 1) = nK mK + nK IV (n m) + n = K K (1) = (n m + n)K = (n (m + 1))K Fall 2: m < 0. Aus De nition 1 folgt daher nK + mK = nK ( m)K = (n + m)K : (ii) n 0.Beweis: 1. nK mK Def. also ( m)K = ( (n + m))K + nK nach Fall 1 und damit (n + m)K = ( (n + m))K = (( m)K nK ) = nK ( m)K = nK + mK nach De nition 1. Fall 1: m 0. m < 0. m > 0: Wie Fall 2. Fall 3: n < 0. (wurde bereits fur beliebige additiv geschriebene Gruppen formuliert und begrundet. m < 0: (i) n 0. wir wollen aber noch einen ordentlichen Induktionsbeweis anfuhren!) Fall 1: n 0. n + m < 0: Dann gilt ( m) = ( (n + m)) + n.

Weil K f0g multiplikativ abgeschlossen ist. 0 r < p. wenn n durch p teilbar ist. 2. nK 6= 0 fur alle n 2 Z f0g. verschwindet dieses Korperelement genau dann. so hat K die Charakteristik p. so da nK = 0 genau dann gilt. b > 1. r 2 Z. 44 . 2. Wegen a < p und b < p gilt aK 6= 0 und bK 6= 0 nach der Auswahl von p. a. Dann gibt es n 2 Z f0g mit nK = 0. Sei p die kleinste positive ganze Zahl mit pK = 0. wobei z und n teilerfremd sind und n nicht durch p teilbar ist (Fur p = 0 bedeutet dies nur n 6= 0). wenn r = 0 gilt. x 2 K. De niere r x = zK x : nK p Summanden p Summanden Bemerkung: In Zukunft schreiben wir n 1 statt nK . Dividiere n mit Rest durch p: n = a p + r. 2 Beispiel: char (Q) = char (IR) = char (C) = 0. denn pK = | K + :{z: + 1K} 1 : = | + pZ + :{z: + 1 + pZ 1 : } = p+p Z = p Z = 0K : Bemerkung: Wenn K ein Korper und p eine Primzahl mit pK = 0 ist. Aus (1) und (2) folgt. nK = 0 genau dann. K Charakteristik 0 hat.. char (IFp ) = p. denn p ist die einzige Primzahl. Nach Lemma 1 gilt nK = aK pK + rK = rK : Weil p die kleinste positive ganze Zahl mit pK = 0 ist. z De nition 3: Sei char (K) = p. p ist Primzahl. und r = n 2 Q. da 1. Wenn p keine Primzahl ist. so gibt es a. a > 1. wenn p j n. 2. welche p teilt.h. andernfalls gibt es eine Primzahl p. Sei n 2 Z. wenn p n teilt. also konnen wir n > 0 voraussetzen. Behauptung: 1. Dann gilt auch ( n)K = 0. zu 1. folgt 0 6= aK bK = (a b)K = pK im Widerspruch zur Auswahl von p. In der Situation von Lemma 2 sagen wir. zu 2. K Charakteristik p hat.1. Fall (1) tri t nicht zu. Die Bezeichnungsweise nK wird normalerweise nicht verwendet. Beweis von Lemma 2: Angenommen. d. da Fall (2) von Lemma 2 eintritt. b 2 Z. De nition 2: Fur ganze Zahlen n sei nK 2 K. p = a b.

Die Elemente von L( V. nxn) = 1 2 : : : n f(x1 . l 2 K: x(yk) x(kl) (x + y)k x(k + l) Der Beweis ist einfach. xn): Insbesondere gilt f(x1 . xn. xi 1. x. xi+1. : : :. : : :. xi+1. Vn nach W. xn) = f(x1 . xn). : : :. xn) = f(x1 . xn) = f(x1 . : : :. : : :. : : :. xn) + g(x1 . xi. xi+1. xi 1. K) nennt man auch | : :. Dann gilt fur k. wenn eines der xi verschwindet. ~ f(x1 . xn). : : :. y 2 Q. : : :. xi+1. xn) = 0. xi 1. = = = = (xy)k (xk)l xk + yk xk + xl 4. eine Abbildung f : V1 : : : Vn ! W ist n-linear (bilinear fur n = 2. xi. xi 1. : : :.3 Schiefsymmetrische n-Linearformen Sei K ein Korper. Beispiel 1: 2 45 . : : :. : : :. : : :.Bemerkung: Fur die Multiplikation von Korperelementen mit rationalen Zahlen gelten folgende Rechenregeln: sei x. Vn. W ) die Menge aller n-linearen Abbildungen von V1 . : : :. xi. W) und 2 K. xn) ( f)(x1 . Es gilt auch f( 1 x1. xn) eine lineare Abbildung ist. g 2 L(V1 . Fakt 1: Fur eine n-lineare Abbildung gelten folgende Gesetze ( 2 K. versehen mit der folgenden Struktur eines K-Vektorraumes: fur f. Vn. xi 1. xi 1. xk 2 Vk die Abbildung Vi ! W : Vi 3 x 7! f(x1 . :{z V} . : : :. : : :. xi+1. De nition 1: Seien V1. Sei L(V1 . : : :. : : :. : : :. : : :. : : :. : : :. falls fur alle i mit 1 i n und alle x1 . n Stuck n-Linearformen auf V . xn) ~ +f(x1 . xn) = f(x1 . wobei die Nenner von x und y nicht durch char (K) teilbar sind. trilinear fur n = 3). : : :. Vn und W K-Vektorraume. xi + xi. xi+1. xixi 2 Vi): ~ f(x1 . : : :. xn) (f + g)(x1 . : : :. : : :.

dann ist die f(h1 : : : hn) : L(U1. hn(un. v3)) eine Trilinearform auf V . Sei f 2 L(V1 . W) und sei 2 Sn . u1.m1 ). : : :. V2. : : :. Vn . : : :. W) ist g mit g(y1 . Sei f 2 L(V1 . vk ) g(vk+j . : : :. : : :.1 . dann ist die folgende Abbildung g ein Element von L(V (1) .Fur alle n ist die Abbildung K K ::: K ! K (x1 . Sei f : V1 : : : Vn ! W (n 1)-linear und sei vn 2 Vn . vn 1.1. : : :. ~ ~ Wenn f 2 L(V1 . Vi ). Vn. Vn. xn) 7! x1 : : : xn eine n-Linearform auf K. : : :. vn 1) 7! f(v1 . W ). g(v2. yn) = f(y 1 (1) . Zum Beispiel ist fur die Bilinearform f auf V und eine bilineare Abbildung g : V V ! V die Abbildung h : V V V ! K. : : :. : : :. : : :. y1) ein Element von L(V2 . : : :. V1 . h(v1 . vk+l ) 7! f(v1 . : : :. vn) 7! f(h1 (v1 ). Ui.1 : : : Un.m1 : : : Un.mn ) ! W Uij 7! f(h1 (u1.1 : : : U1. vn) n-linear 46 . W) und g 2 L(W. : : :. : : :. u1. : : :. W): ~ Wenn f 2 L(V1 . g(y1 . y2) = f(y2 . so ist g f 2 L(V1 . Vi ). W) und hi 2 L(Vi . W) und sei fur 1 Abbildung i n hi 2 L(Ui. : : :. v2. Dann ist V1 : : : Vn 1 ! W (v1 .mi . Fur jeden Vektorraum V ist die Abbildung f :K V ! V ( . : : :. hn(vn )) v ~ n-linear. Sei f eine k-Linearform und g eine l-Linearform auf V . W). dann ist durch V V ::: V ! K (v1 . : : :. Vn . v) 7! v bilinear. vk+1) eine k + l-Linearform de niert.1. Vn . v3) = f(v1 . linear entspricht 1-linear. y 1 (n) ): Zum Beispiel fur f 2 L(V1 . so ist ~ f(h1 : : : hn ) : V1 : : : V~n ! W (~1 . : : :. V (n) . : : :. W).mn )) m1 + : : : + mn -linear.

: : :. : : :. also 2 G. : : :. : : :. : : :. : : :. xn) = 2 =G = f(x 1 (1) . damit ist G eine Untergruppe. x 2 V und x = x. Deshalb sind folgende Aussagen uber l aquivalent: 1. : : :. i + 1) fur 1 i < n: l multipliziert sich mit 1 bei Vertauschung zweier benachbarter Argumente Beweis: G ist eine Untergruppe: Id 2 G. : : :. : : :. 3. : : :. : : :. Also 2 G. falls ein i mit 1 i < n und xi+1 = xi existiert.1. denn sign (Id ) = 1. Nach Folgerung 4. : : :. x 1 (n)) = Dann gilt: ) Also 1 2 G. V ein K-Vektorraum. G = Sn : l multipliziert sich bei Vertauschung seiner Argumente mit dem Vorzeichen der Permutation. Angenommen (3) gilt. : : :. Also f(x( )(1) . xn) 1 (i). 47 . f(y (1) . x( )(n) ) = 2 =G = 2 =G Satz= 4. xn 2 V : l(x (1) . Dann gilt nach 4. yn) sign ( )f(x 1 (1) . In solchen Korpern durfen wir aus x = x noch nicht x = 0 folgern. xn) = 0. Sei char (K) 6= 2. x (n)) sign ( ) sign ( )f(x1 . : : :. Dann sind folgende Aussagen aquivalent: 1. (1))(2))(3) ist klar. so gilt 1 = 1 in K. 2. 2 G ) 1 2 G: Fur x1. 2G) 2 G : Sei yi = x (i) . . G enthalt (i. denn x = x gilt fur alle x aus einem K-Vektorraum. : : :. x sign ( 1 )f(x1 . i + 1) 2 G fur 1 i < n. Dann gilt x (i) = y (i) .1. Dann (i.1 f(y (1) .2: 1 1 x = 2 2x = 1 (x + ( x)) = 2 0 = 0 ) x = 0 2 Lemma 2: Sei f wie l in Lemma 1. xn): 1 (n)) 2 Bemerkung: Wenn K ein Korper der Charakteristik 2 ist. xn 2 V sei yi = x f(x1 . damit gilt (1). : : :. xn) sign ( )f(x1 . : : :. xn)g Dann ist G eine Untergruppe von Sn . x (n)) = sign( ) l(x1.2 ist aber jedes Element von Sn Produkt solcher Transpositionen. y (n) ) sign ( )f(y1 .Lemma 1: Fur einen Vektorraum V und eine n-lineare Abbildung l : V : : : V ! W sei G = f 2 Sn j 8 x1. f(x1 . yn) sign ( )f(x (1) . y (n) ) sign ( )f(y1 . G enthalt alle Transpositionen: l multipliziert sich mit 1 bei Vertauschung zweier Argumente.

(1))(2): Wir wissen G = Sn . y) = f(x1 .(3) in Lemma 1 aquivalent. xi 1. : : :. x1) + f(x2 . Wegen char (K) 6= 2 folgt daraus a = 0. x1). also gilt = = f(x1 . Dann gilt yi = yi+1 . Sei g(x. xi.2. zu jedem der Punkte (1). : : :. xi+1. xi+2. xi) nach dem bewiesenen Fall n = 2. xi+2. xn): Falls xi = xi+1 sein sollte. x2) = f(x1 . Aus (1) folgt: 0 = f(x1 + x2. x2) f(x1 . xn) = a Also a = a.(2). xn). : : :. so sind (1) und (2) zu G = Sn . f(x1 . Beweis: (2))(1) ist klar. : : :. xi+2. xn 2 V . xi 1. nennt man schiefsymmetrisch oder antisymmetrisch. d. xi. : : :. Wenn char (K) 6= 2 gilt. : : :. xn) = f(x1 . : : :. y. die die aquivalenten Bedingungen aus Lemma 2 erfullt. xi. xn) = 0. 48 . xi 1. (1)) G = Sn : Wir werden (3) aus Lemma 1 beweisen: sei n = 2. so andert es seinen Wert nicht. x. x1) f(x2 . xi+1. xi+1. Sei 2 Sn wie folgt de niert: 8 k 1 k i_j < k 1 < k = i+1 (k) = : j k 1 i+1< k j Sei yi = x (i). x1 + x2) + f(x2 . 2 De nition 2: Eine n-lineare Abbildung f : V : : : V ! W. wenn man ein Vielfaches eines Argumentes zu einem anderen Argument hinzuaddiert. xi 1. x2) + f(x2 . x1) + f(x1 . j mit 1 i < j < n und xi = xj existieren. Dann ist g bilinear und erfullt (1). xi. also g(xi . xi+1) = g(xi+1 . Sei n > 2. : : :. x2) = f(x2 . x1 + x2) f(x1 . xi+2. x2) + f(x2 . xn) G=Sn sign ( )f(y1 . xi+1. x2) = f(x1 .h. x1 + x2) f(x1 . yn ) (1) 0: G = Sn und char (K) 6= 2 )(1): Es gilt wegen G = Sn a := f(x1 . also erfullt f (3) aus Lemma 1. Wenn l schiefsymmetrisch ist. : : :. : : :. : : :. xi 1. : : :. : : :. Sei 1 i < j n und sei xi = xj . Wenn das der Fall ist. x1) Also f(x1 . x1) f(x2 . so gilt G = Sn in Lemma 1. xn) zu zeigen. Wir haben f(x1 . xi+2. falls i. x1) f(x2 . xn) = f(x1 . : : :. x2) = f(x1 . : : :. xn) = f(x1 . : : :. 1 i < n und x1. Fakt 2: 1. so gilt a = f(x1 .

2. m X j =1 vn. : : :. : : :. : : :. vn) = l(a(v1 ). (n)). xi} = 0: | xi doppelt De nition 3: Sei l eine schiefsymmetrische n-Linearform auf V und sei a : V 0 ! V linear. xn) = 0). bn) eine geordnete Basis von V . : : :.4 Der Determinantenbegri vi. : : :. und sei vi. Sei a l die durch 0 0 0 0 (a l)(v1 . vn. : : :. Wenn d(b1. b a Fakt 3: Fur V ! V 0 ! V gilt (ab) l = b a l und id l = l: Wenn a ein Isomorphismus ist. xi+1.j 2 V fur 1 i n und 1 j m. : : :. ng nach f1. wobei L die Menge aller Abbildungen von f1. xn) + f (x1 . xn) = f(x1 . und sei die Behauptung fur 49 .j .d. : : :. xj . annehmen. : : :. xi + xj . und (a ) 1 = (a 1 ) . : : :.A. : : :. so gilt d = 0. Also gilt: f(x1 . : : :. Beweis durch vollstandige Induktion nach n. xn) =0. da j doppelt x ) i f (x1 . : : :. 2 Sei K ein Korper. V ! W eine n-lineare Abbildung.{zn 1. : : :. Lemma 1: Sei d eine schiefsymmetrische n-Linearform auf V . : : :. xn) = f(x1 . xn linear abhangig sein sollten. (1) . Wenn die x1. Fur n = 1 folgt die Behauptung aus der Vertauschbarkeit von Summen und linearen Abbildungen. : : :. so ist a ein Isomorphismus zwischen den Raumen der n-Formen auf V und V 0. f(x1 . und sei B = (b1. Wegen G = Sn konnen wir o. : : :.Beweis: 1. Sei n > 1. Zum Beweis benotigen wir f Fakt 1: Seien V. V ein n-dimensionaler K-Vektorraum.j ) = X 2L f(v1. W Vektorraume. so gilt f(x1 .B. = n 1 X i=1 n 1 X i=1 i xi ) = f(x1 . xn 1. mg ist. xn} ) {z | P 2. m 2 IN. : : :. bn) = 0. da xn = in=11 i xi. xi 1. a(vn)) de nierte schiefsymmetrische n-Linearform auf V 0. Dann gilt f( m X j =1 4. : : :. xi+1.

3. (i) = i+1. also ist d zu d proportional. (i+1) = i. Wir wollen zeigen.:::.j . : : :. : : :. vn) = sign( ) 1. i + 1) geschrieben werden. (i) i+1. ng ist.bn )) d. b (n)) nach den Resultaten aus 4. Also kann (1) zu X dB (v1. : : :. Dann gilt: f( m X j =1 v1. (i+1) = i. mgf1. Dann kann jedes Element von Sn als oder als (i.bn Beweis: In der Tat. b (n)) wenigstens ein Argument doppelt auf. (i) : : : n. (n) ) = 0 {z } | 1. (i+1) . : : :. (n) (1) die Menge aller 2 Sn mit (i) < (i + 1). (n) sign ( )d(b1.:::. : : :. m X j =1 vn 1. Dabei ist L0 = f1. i) mit = jf1. vn 1. ng nach f1. also d0 = 0. (1) 1. : : :. : : :. (1) : : : n. : : :. vn 1. wobei 2 M ist.:::. : : :. Durch L ! L0 f1. : : :. bn). X X 2Sn 1. und d(b (1). : : :. Sei M j | {z } 2Sn umgeschrieben werden. ~ ~ d b . mg. 2 Folgerung 1: Fur einen n-dimensionalen Vektorraum V sei D(V ) der Raum aller schiefsymmetrischen n-Linearformen auf V . (i) i+1. (1) . vn. P fur vi = n=1 ij bj de niert. 2 Pn b . (n) d(b (1). vi = vi+1 . : : :. Angenommen. : : :. bn) = 0. : : :. so ist jedes d 2 D(V ) zu d proportional. denn i. m X i=1 vn. (i+1) : : : n. Aus Fakt 1 folgt Beweis von Lemma 1: Sei vi = j=1 ij j d(v1 .:::. also i. vn) = X wobei L die Menge aller Abbildungen von f1. (1) : : : n. Es folgt d(v1. (i+1) i+1. Wenn also ~ d 2 D(V ) f0g ist. so gibt es 1 i < j n mit (i) = (j). b (n)). (n) 2M Beitrag von zu (1) : : : i. : : :. : : :.n 1g. (1) : : : n. b (n)) = 0. vn. daher die Gleichheit der beiden letzten Zeilen.(n 1)-lineare Abbildungen bewiesen. (i) und i+1. Sei dB durch X dB (v1 . (1) Beitrag von (i. Dann gilt ~ d0(b1. (i+1) : : : i+1.i) f(v1. : : :. Wenn 2 L nicht bijektiv ist. vn. 7! ( .j .j ) (1) .i) = = = n m X X i=1 j =1 m XX j =1 2L0 m XX j =1 2L f( v1. da die Dimension von D(V ) auch genau eins ist. : : :. fur d 2 D(V ) f0g und d 2 D(V ) sei d0 = d d~((b11. vn) = sign ( ) 1.n 1g und i = (n) ist eine Bijektion de niert. (n 1). (i) : 50 . vn) = = 2L 1. Dann ist D(V ) hochstens eindimensional. Dann ist dB eine n-Linearform. also taucht in d(b (1). (n) d(b (1). (1) : : : i.j . (n 1). (n)): f(v1. i + 1) zu (1) 2Sn : : : n.

3 g (f (d)) = det(g)f (d) = det(g) det(f)d: Also det(fg) = det(f) det(g) nach der Eindeutigkeitsaussage in Theorem 1. Zusammen mit dem nachsten Punkt.3. vn ) Def= V 1 V n = d( v1 . Beweis: (1) wurde soeben bewiesen. : : :. 4. : : :. Fur jeden Endomorphismus f von V gibt es genau ein det(f) 2 K mit f (d) = det(f) d fur alle d 2 D(V ). | (1) : : : i. D(V ) ist eindimensional 2. (n) = 1. : : :. dann gilt det(afa 1 ) = det(f): 1. 2 Theorem 1: 1. : : :. ( (Id )(v )) (( (IdV ) d)(v1 . 2. bn) = X 2Sn sign ( ) i. Es folgt dB 2 D(V ) f0g und D(V ) 6= f0g. g 2 End(V ).3. det( f) = n det(f). 51 . vn) n d(v1 . 4. det(0) = 0. fur vi = bi gilt ij = ij und (1) ergibt dB (b1.Damit dB 2 D(V ). In der Tat. 3. Fur d 2 D(V ) gilt: (fg) d Fakt=4. : : :. det( Id V ) = n zu zeigen. det(fg) = det(f) det(g) fur f. 2. det(IdV ) = 1. 1 j n. bn) = 1. n = dim(V ). Dann gibt es genau ein y 2 K mit g(d) = yd fur alle d 2 D. vn): = Beweis: Damit sind (2) und (3) gezeigt. Behauptung: dB (b1. 2 Folgerung 2: 1. {z } =0 fur 6=Id denn fur 6= Id gibt es j mit (j) 6= j. 3.3 d(( (Id )(v ). (2) folgt aus dem folgenden einfachen Fakt: Sei g ein Endomorphismus eines eindimensionalen Vektorraumes D. : : :. Es genugt nach (1). Sei a : V ! W ein Isomorphismus und f 2 End(V ).

. : : :. 2 Satz 1: Sei d 2 D(V ) f0g. . B 2 Mat (n.4. : : :.3. d(f(b1 ). dB (f(b1 ). .3.. so folgt d(v1 . det( A) = n det(A). vn) eine geordnete Basis von V . : : :. : : :.j Operator. wenn det(f) 6= 0 gilt. Wenn die vi linear abhangig sind. : : :. Folgerung 3: (Aus Theorem 1 und Satz 1) 1. Sei d 2 D(V ) f0g. . Beweis: Wenn die vi linear unabhangig sind. n 2. : : :. f(bn)) 6= 0. := det B . . bn): 2. f(bn ) linear unabhangig . f(b1 ). n. .. vn 2 V genau dann linear abhangig. . Die Gleichheit det(f 1 ) = det(f) 1 folgt aus Folgerung 2. . wenn d(v1 . dann gilt :.. 3. det(AB) = det(A) det(B). .. 2. Wegen Lemma 1 ( angewendet auf C statt B) wurde aus d(v1 . . . In diesem Fall gilt det(f 1 ) = det(f) 1 . :: :: :. K) und sei A : K n ! K n der in 3. @ .5 Determinanten von Matrizen De nition 1: Sei A = (aij )n =1 2 Mat (n.3 verwendet haben. f(b det(f) = d(f(b1 ). was nicht sein sollte. vn) = 0 gilt. f(bn )).. K) gilt: 1. bn) = det(f)d(b1 . f 2 End (V ) ist genau dann ein Automorphismus. 2 Beweis: 4.1 de nierte i.. Sei d 2 D(W): Es gilt (afa 1 ) (d) = (a 1 ) (f a (d)) = (a 1 ) (det(f)a (d))) = det(f)((a ) 1 )a (d)) = det(f)d. f ist Automorphismus . an1 ann an1 ann 1 C: A Folgerung 1: Fur A. : : :.2. so ist C = (v1 . : : :. 52 . Wende (1) auf dB an und beachte dB (b1. vn) = 0 d = 0 folgen. : : :. Dann sind n Vektoren v1. bn) = 1: 3. Wir setzen det(A) = det(A ) und schreiben auch a11 a12 a1n 0a a1n . b ) n )) : d(b1. n. Insbesondere: det(f) = dB (f(b1 ). vn) = 0 aus Fakt 4. f(bn )) = (f d)(b1. wobei wir Fakt 4. : : :. 11 a21 a22 . 1. : : :. : : :.

In diesem Fall gilt.3 und den in 3. : : : a (n). : : :. (1) a2. 2 Satz 1: (Leibnizsche Determinantenformel) det((aij )n =1 ) = i.1 (2). 2 a (2) : : : aT (n) n. so gilt sign ( ) = sign ( ).1 X = X 2Sn sign ( ) a sign ( ) a1.n (1).1 a 1 i=1 (2). a 1 (2). 2)g.4.2 und 4.4.3 und A ej = Pn=1 aij ej j i det(A) = d(e1. Au erdem ist A invertierbar genau dann.3.2 = det(A) 2 Beispiel: Fur n = 2 gilt S2 = fId . 4.j = X X 2Sn sign( ) a1. Es gilt aT = aji.2 ainei ! : : : a (n). det(0) = 0. (2) : : : an.n Beweis: Sei ei = ( ij )n=1. wenn det(A) 6= 0. Die rechte Seite der Leibnizschen Determinantenformel wird zu a b a b a {z } a {z } | 11a22 | 12a21 oder det c d = c d = ad bc: =(1.1. da det(A 1 ) = det(A) 1 Beweis: Die Behauptungen folgen aus Folgerung 4.2 ::: a 1 (n). 2)) = 1. 1 sign( ) a (1) aT.2) =Id 53 .4. erklarten Zusammenhangen zwischen Matrizen und linearen Abbildungen. wobei sign (Id ) = 1 und sign ((1. det(1n ) = 1.1.j ij ij det(AT ) = det(A) det(AT ) = = 2 X 2S Xn 2 Sn sign( ) aT.:::. : : :. Aen) = d(e1.n einsetzen. (n) Folgerung 2: Beweis: Sei A = (aij )n =1 und AT = (aT ). Damit folgt mit Folgerung 4. Wenn wir Ausdruck wird zu n X i=1 X = ai1 ei . (2) : : : an. n X 2Sn sign( ) a (1). (1. i.n 2Sn (1) a2.1 a (2).4.2 : : : a (n). und der letzte 1 (1).en ) (Ae1 .:::. (n) 2Sn sign ( ) a (1).en ) = mit Gleichung 4.

wn 2 K m sei Mat s (w1. wenn man eine Zeile mit multipliziert. Analoges gilt fur die entsprechenden Spaltenumformungen. vn) e1 . wenn man zwei Zeilen vertauscht. wn)T : Satz 2: det(Mat s(v1 . .. 0a 1 a12 a13 a11 a12 11 B % % Ba & a & a & a % a C C B 21 22 23 21 22 C B C @ A % % & % & & a31 a32 a33 a31 a32 det(A) = a12a22a33 + a12a23a31 + a13a21 a32 a31 a22a13 a32 a13a11 a33a21a12: Fur allgemeines n hat die Leibnizformel n! Summanden. vm) ist die Matrix mit den Zeilenvektoren vi: 0 Mat z ((v11. wn) die Matrix mit den Spaltenvektoren wi : Mat s (w1 . : : :. : : :. multipliziert sich mit . 2 54 . : : :. : : :. vn)T berechnet dieser Ausdruck auch die Determinante von Mat z (v1 . .en ) eine schiefsymmetrische n-Linearform ist. vn )ei = vi . De nition 2: Mat z (v1 . : : :. vn)) = d(e1. : : :. Beweis: Es gilt nach Folgerung 4.en ) (v1 . : : :. . Bilde die Summe der drei Diagonalen von links oben nach rechts unten und subtrahiere von dieser die Summe der drei Diagonalen von links unten nach rechts oben. folgt die Behauptung. : : :. v1n). : : :. : : :.en ) (Mat s(v1 . wenn man ein Vielfaches einer Zeile zu einer anderen Zeile addiert. 2 Folgerung 3: Die Determinate einer Matrix 1. : : :. multipliziert sich mit 1.4. : : :. . : : :. : : :. 2. : : :. 3. vn) = Mat s (v1. : : :. wn) = Mat z (w1. vn ) denn Mat s (v1 . man braucht also n! (n 1) Multiplikationen. Wegen Folgerung 2 und Mat z (v1 . . vn) en ) = d(e1. vn)) = det(Mat z (v1. jeder Summand hat n Faktoren.3: det(Mat s(v1 ..:::. Fur gro e n wird die Formel daher schnell unpraktikabel. vmn )) = B @ v11 v1n .:::.Fur n = 3 gilt die Regel von Sarrus: Schreibe die beiden ersten Spalten hinter die Matrix. (vm1 . vn)) ist eine schiefsymmetrische nLinearform in den Argumenten vi 2 K n . Mat s(v1 . vn). vm1 vmn 1 C: A Fur w1.:::. : : :. : : :. andert sich nicht. . Weil d(e1. : : :.

: : :. m 1. Min j (ai ). vn)) () n ist. Fur ein n-Tupel x = (x1. : : :. fur 1 i n ist die i-te Summe in eine n-Linearform in v1 . : : :. : : :. : : :. xn 1) k=n das durch Streichen des k-ten Elements entstehende (n 1)-Tupel. O enbar sind die Abbildungen Min i : K n ! K n 1 und Min ij : Mat (m. K) ! Mat (n 1. : :^:. sei d Min ij (A) = Mat z (Min j (a1 ). Wir xieren dazu k und bezeichnen die rechte Seite von (1) mit RS(A). : : :. Fur eine m n-Matrix A = Mat z (a1. : : :. : : :. : : :. Min k (vi ). da RS(Mat s (v1 . x ) k=1 < 2 n := : (x1 . xn) 2 K n sei (K n ) 3 li (x) = xi. (1) zu beweisen. Fur x = (x1. Wir behaupten. xn) und 1 k n sei Min k (x1. : : :. 2. n. am ) und 1 i m. Min j (am )) die durch Streichen der i-ten Zeile und der j-ten Spalte entstehende Matrix. Min k (vn )) 55 . 1. : : :.j lungen nach der k-ten Zeile det(A) = n X i=1 n X i=1 ( 1)k+i aki det(Min ki(A)) (1) und die Entwicklung nach der k-ten Spalte det(A) = ( 1)k+i aik det(Min ik (A)): (2) Beispiel: 3 2 1 1 1 2 =3 1 2 2 1 2 + 1 1 = 1 2 =1 1 3 1 3 1 1 1 3 1 1 3 Beweis von Satz 3: Die Entwicklung nach einer Spalte bekommt man durch Anwendung der Zeilenentwicklung auf die transponierte Matrix (Folgerung 2).De nition 3: 1. xk . 1 j n. Satz 3: (Laplace) Fur jede n n-Matrix A = (aij )n =1 und 1 k n gelten die Entwicki. : : :. : : :. : : :. : : :. xk+1. vn 2 K (1) fur A = Mat s (v1 . xn) 8 (x . : : :. xk ) = (x1. vn) durch d RSi (v1 . xk 1. xn) 1 < k < n (x1 . Es genugt also. vn) = ( 1)k+i lk (vi ) det(Mat s (Min k (v1 ). : : :. K) linear. In der Tat.

. vn. vn)) = i=1 RSi(v1 . 2. also ist det(Mat s(Min k (v1 ).2). Bemerkung: Insbesondere kann die Determinante einer Zeilenstufenmatrix (vgl.k(1n )) = 1 1 det(1n 1) = 1 2 Fakt 1: Sei A = (aij )n =1 eine obere Dreiecksmatrix. = = a11 : : : ann: 2 0 0 . aij = 0 fur alle j < i. NachPn Beispiel 4. : : :. 3. .2) nach dieser Vorschrift berechnet werden. ergibt sich RS(1n) = n X i=1 ( 1)k+i ki det(Min ki(1n)) = ( 1)k+k k. ^ d xn )) ist (n 1)-linear und Min k ist linear.l+1 und Min kl (A) = Min k. d. Dann stimmen fur i 62 fl.. : : :. ( ) ist eine schiefsymmetrische n-Linearform auf K n : Das ist aquivalent dazu. xk. .1 ist daher RSi (v1 .l+1 (A))): (y) Aus unseren Vorraussetzungen an A folgt aber akl = ak.. Da 1n = ( ij )n =1 i. : : :. : : :. det(A) = a11 : : : ann. vn) n-linear. und daher ist RS(Mat s (v1 . : : :.. vn) n-linear. l + 1g auch in Min ki(A) zwei Spalten uberein. wenn in A zwei benachbarte Spalten ubereinstimmen. n .4. Von den in 3. Daher gilt 8 i 6= fl. Dann ist det(A) i.2 benutzten Zeilenumformungen andert die Addition des Vielfachen einer Zeile zu einer anderen die Determinante nicht (Folgerung 3). : : :. da RS(A) verschwindet. . Abschnitt 3. etwa die l-te und die (l + 1)-te fur 1 l < n (Lemma 4. Min k (vi ).. . Aus Schritt 2 und Theorem 4. Daher erhalt man folgende Vorschrift zur Berechnung von det A: 1. .3. und die Vertauschung zweier Zeilen andert nur das Vorzeichen.3.l+1 (A).h. Beweis: Entwicklung nach der ersten Spalte ergibt a11 a12 : : : a22 a23 : : : 0 a22 0 a33 .l+1 det(Min k. : : :. . Dann ist RSi eine n-Linearform in v1. l + 1g : det(Min ki(A)) = 0 und wir erhalten RS(A) = ( 1)k+l (akl det(Min kl (A)) ak. also verschwindet (y) und die Behauptung aus Schritt 2 ist bewiesen. namlich die l-te und die (l + 1)-te fur i > l + 1 und die l-te und die (l 1)-te fur i < l. : : :. die dabei benotigt wurden. und sei l die Anzahl der Zeilenvertauschungen.. RS(1n ) = 1 zu zeigen. Bringe A durch Anwendung des in 3..1 folgt die Existenz eines c 2 K mit RS(A) = c det(A) fur alle n n-MatrizenA: Wir haben noch c = 1 zu zeigen.gegeben.k det(Min k. Min k (vn )) eine (n 1)-Linearform auf K (x.j das Produkt der Diagonalelemente. y) 7! xy sind bilinear.2 beschriebenen Eliminationsverfahrens in Zeilenstu~ fenform. = a11 0 0 . Dazu genugt es. Sei A das Ergebnis.j gilt. denn det(Mat s(x1 . . und die Abbildungen K K ! K. 56 . .

. n 2 K gilt 1 . zn ). Es gilt dann mit A = (~ij )n =1 ~ det(A) = ( 1)l det(A) = ( 1)l a11 : : : ~nn: ~ a Dieser Algorithmus kostet n33 + O(n2) Multiplikationen. zn). i 1) n 1 Beispiel: 2 1 = (5 4) 1 1 1 = 1 (4 3)(4 = 12 1 1 2 3 4 9 8 27 2)(4 1 4 16 64 1)(3 2)(3 1)(2 1) 5 1 1 1 1 4 1 1 1 1 3 1 2 4 8 2 1 3 9 27 1 1 4 16 64 De nition 4: Die Adjunkte Adj(A) einer n n-Matrix A ist die Matrix Adj (A) = (adj ij (A))n =1 mit i. 1 2 1 ::: ::: ::: ::: 1 .j adj ij (A) = ( 1)i+j det(Min ji(A)): Satz 5: (Cramersche Regel von 1750) Fur alle n n-Matrizen A gilt: A Adj (A) = Adj (A) A = det(A) 1n: Insbesondere: A 1 = Adj (A) falls det(A) 6= 0: det(A) 57 . : : :. die in der Leibniz-Formel auftauchen... : : :. Beweis: Sei zi = ( i 1. . Sei A = Mat z (~1 . (Zum Vergleich die Kosten fur die Anwendung der Leibniz-Formel: (n 1) n!).j 2.~ a i. Zu zeigen: det(A) = det(A). Sei z1 = z1 und ~ ~ ~ zi = zi 1 zi 1 fur 1 < i n. : : :. Vom rechnerischen Standpunkt aus betrachtet ist die Berechnung einer Determinante durch wiederholte Anwendung des Entwicklungssatzes nur eine klugere Organisation der Berechnung der Produkte. Satz 4: (Vandermondsche Determinante) Fur 1 . ~ z ~ ~ nach der ersten Spalte ergibt Entwicklung von A ~ det(A) = ( 2 1) : : : ( n 1 ) (Siehe auch Ubungsaufgaben). n 2 n = Y n 1 1 n 1 n 1 i<j n ( j i ): fur 1 i n und A = Mat z (z1 . : : :.

Wir sagen. m. R ist eine Aquivalenzrelation. y) 2 R.Beispiel: Fur n = 2 gilt: d b a b 1= 1 c a c d ad bc Beweis von Satz 5: Wir zeigen A Adj (A) = ( i.j i. Dann gilt bjk = aik und Min jk (B) = Min jk(A) fur 1 k n.j )n =1 = ( ij det A)n =1 mit i. 2 Bemerkung: Sei A 2 Mat (m. z 2 X und xRy und yRz auch xRz folgt. 3. Sei 1 k min(m. falls aus x.l von det(B) nach der j-ten Zeile gibt also: (y) = det(B) ij det(A) Satz 3 = n X n X n X k=1 k=1 aik adj kj (A) () ( 1)j +k bjk det(Min jk (B)) aik ( 1)j +k det(Min jk (A)) aik adj kj (A) (=) ij = = k=1 k=1 Also A Adj(A) = det(A) 1n. R ist 1. falls aus x. Dazu xieren wir i und j. transitiv. und schreiben xRy. y 2 X und xRy auch yRx folgt. 2. n).j j-ten durch die i-te Zeile entsteht. denn Adj (A)T = Adj(AT ) und det(A) = det(AT ). Sei r = maxfk j 9 k k-Minor B von A mit det(B) 6= 0g fur A 6= 0 : 0 sonst Dann stimmt r mit dem Rang von A uberein.6 Orientierungen von reellen Vektorraumen De nition 1: Sei X eine Menge. transitiv und symmetrisch ist. falls (x. oder durch Anwendung von AT Adj (AT ) = det(AT )1n. K). Entwicklung k. Fur i 6= j stimmen die i-te und die j-te Zeile von B uberein. 4. symmetrisch. die aus A durch Streichung von (m k) Zeilen und (n k) Spalten entsteht. re exiv. Die Formel fur A 1 folgt unmittelbar.j ij = n X mit A = (aij )n =1 . Eine Relation auf X ist eine Untermenge R X X. die aus A durch Ersetzen der i. Es folgt in beiden Fallen: det(B) = det(A) ij : (y) Sei B = (bkl )n =1 . Ein k k-Minor von A ist eine k k-Matrix B. y. also det(B) = 0. falls R re exiv. da x 2 X in der Relation R zu y 2 X steht. 58 . Die Gleichung Adj (A) A = det(A) 1n zeigt man entweder analog durch Anwendung derselben Betrachtungen auf Spalten statt Zeilen. Sei B die Matrix. falls aus x 2 X xRx folgt.

Sei y 2 Y und y z. 2. also y x (Symmetrie). Fur v 2 V dies die beiden Aquivalenzklassen A = f vj 2 IR. d. De nition 2: Sei V ein n-dimensionsionaler reeller Vektorraum. Aus y 2 Y und x 2 X und x y folgt x 2 Y . also x x: Symmetrie: Aus x y folgt x = ty mit t > 0. Die Aquivalenzklassen sind die Restklassen modulo N. Man pruft leicht nach. also Y 2 X= . Fur eine naturliche Zahl N betrachten wir die Relation x y genau dann. y 2 Y folgt x y. Y 2X= ~ also Y = Y und die Vereinigung ( ) ist disjunkt. Beispiel: Sei X 2 Z.x y . 59 . Y \ ~ = .. sie bilden die Menge Z=NZ. Wenn N = P eine Primzahl ist. > 0g und B = f vj 2 IR. Gilt n = 1. Y = fy 2 X jx yg. Dann ist X disjunkte Vereinigung aller Aquivalenzklassen: X= Y: () ~ Beweis: Disjunktheit: Seien Y und Y zwei Aquivalenzklassen bezuglich . Eine Halbachse in V ist eine Aquivalenzklasse bezuglich der folgenden Aquivalenzrelation auf V f0g: x y :. Transitivitat: Aus x y und y z folgt x = ty und y = sz mit s. Dann ist Y Aquivalenzklasse: Sei y. ist in der Tat eine Aquivalenzrelation.x2Y. Sei X= die Menge aller Aquivalenzklassen bezuglich . < 0g: 1. Eine Aquivalenzklasse bezuglich ist eine nichtleere Untermenge Y von X mit folgenden Eigenschaften: 1. Aus x. damit z 2 Y . f0g sind Beweis: Re exivitat: x = 1 x. falls N j x y. Dann gilt x y und x z nach De nition von Y .Fakt: Sei Aquivalenzrelation auf X.. wenn x ymod N. also y = t 1 x mit t 1 > 0. 2. ist Z=pZ = IFp . S Wegen x 2 Y (Re exivitat) gilt Y 6= . so hat die Menge (V f0g)= genau zwei Elemente. Sei weiterhin x 2 X. t > 0. also x = (st)z mit st > 0. Angenommen. Dann gilt x y (De nition von Y ). etwa y 2 Y \ Y .h. Also x 2 Y 2 Z 2X= Z. 9 t 2 IR : t > 0 ^ x = t y Fakt: 1. also auch x z (Transitivitat). z 2 Y . also x z. da es sich um eine Aquivalenzrelation handelt. Fur x 2 X gilt dann ~ Y6 ~ x2Y . also y x. also auch y z (Transitivitat). .

0). 0). (0.1 gilt: d(b1. : : :. 1)) ^ b b B = (^1 . Dann hat die reelle Zahl d(b1.h. da B positiv orientiert bezuglich ist. da A und B die einzigen Aquivalenzklassen sind. Eine Basis ((a. y-Achse: In der Zeichenebene nach vorne weg vom Betrachter z-Achse: Senkrecht zur Zeichenebene nach oben 60 . d)) von V ist dann genau dann positiv orientiert. A ist Aquivalenzklasse: O enbar A = fyjy B ist Aquivalenzklasse: O enbar B = fyjy ist B Aquivalenzklasse. Beispiel: Sei dim(V ) = 1. Dann gibt es genau eine Orientierung von V . Andernfalls sagen wir. Bei der ublicherweise verwendeten Auswahl der Basis des IR3 in der j analytischen Geometrie des Raumes : x-Achse: In der Zeichenebene (d.h. ist A Aquivalenzklasse. da die Standardbasis e . bn) > 0 fur alle d 2 ist. falls d(b1 . A und B sind die einzigen Aquivalenzklassen: Aus x 2 V folgt wegen dim(V ) = 1 die Bemerkung: Nach Satz 4. vg Nach dem Beweis des letzten Faktes vg Nach dem Beweis des letzten Faktes Existenz eines t 2 IR mit x = t v: Fur x 6= 0 folgt t 6= 0. 1)) positiv orientiert ist. : : :.4. : : :. : : :. (0. : : :. b2) = ((1. Es gibt dann eine Bijektion Halbachsen in D(V ) = V ! Halbachsen in V (= Orientierung von V ) ! fv 2 V n f0g j v ist positiv orientiert bzgl d. (c. also t > 0 (x 2 A) oder t < 0 (x 2 B). Nach dem letzten Fakt folgt. 1). bn) fur alle d 2 dasselbe Vorzeichen. Sei 2 D(V ) eine Orientierung von V und sei B = (b1 . Dann gilt D(V ) = V . (0. b). da B negativ orientiert ist. e positiv orientiert Beispiel: IR 1 n ist.2. ^2) = ((0. Tischebene) von links nach rechts. wobei ei = ( )n=1 . Eine Orientierung von V ist eine Halbachse des eindimensionalen Vektorraumes D(V ). Also : V f0g = A B. Wir sagen. : : :. ~2) = ((1. bn) 6= 0 fur alle d 2 D(V ) n f0g und alle Basen B = (b1 . bn) eine Basis von V . so da ((1. 0). b n wird ublicherweise so de niert. 2 De nition 3: Sei V ein n-dimensionaler reeller Vektorraum. 1)) + ~ b b B = (~1 .l(v) > 0 fur alle l 2 g Beispiel: Sei V = IR2 . 0)) ^2 ad bc > 0 ist. (1. bn). falls b2 6 ? ^1 6 b ~2 b b1 ~1 b - B = (b1 .

: : :. so hat die Basis (b (1) .h. G = Sn .1) Sei f : V : : : V ! W eine n-lineare Abbildung. Dann ist G eine Untergruppe von Sn . xn) 7! x1 : : : xn ist eine symmetrische Bilinearform auf K. Fur W = K spricht man von einer symmetrischen nLinearform. d. G enthalt alle Transpositionen (i. nur einfacher. i + 1) fur 1 i < n. xn) 2 V ng. bn) eine Basis des orientierten Vektorraumes V ist. fur sign( ) = 1 die entgegengesetzte. d. x (n)) fur alle (x1 . yn )) 7! ist eine symmetrische n-Linearform auf K n. : : :. : K ::: K ! K (x1. xn) = f(x (1) . b (n)) fur sign( ) = 1 dieselbe Orientierug wie B . Tripel von Vektoren) (Daumen. denn fur char (K) = 2 gilt 1 = +1 in K. : Kn Kn ! K ((x1.1. Entsprechend nennt man ein positiv orientiertes Dreibein rechtshandig. nennt man symmetrisch. Sei G = f 2 Sn j f(x1 .3. : : :. : : :. : : :. : : :. Lemma 1: (vgl. In Korpern der Charakteristik 2 sind alle schiefsymmetrischen n-linearen Abbildungen symmetrisch. n X i=1 Beispiel: x i yi 61 . : : :.h. 2 De nition 1: Eine n-lineare Abbildung. Die folgenden Aussagen sind aquivalent : 1. : : :. Beweis: Wie bei Lemma 4. welche diese aquivalenten Bedingungen erfullt. bi . 1. xn).h. 2. Es gilt daher die rechte-HandRegel. G enthalt alle Transpositionen (i. f andert seinen Funktionswert bei einer beliebigen Permutation der Argumente nicht. f andert den Funktionswert bei Vertauschung zweier Argumente nicht.h. ein negativ orientiertes linkshandig. 3. f andert seinen Wert beim Vertauschen benachbarter Argumente nicht. 2.7 Symmetrische n-Linearformen Sei K ein beliebiger Korper. falls > 0 ist . : : :. bi+1. Mittel nger) ist fur die rechte Hand positiv orientiert. fur die linke Hand negativ. und die zu B entgegengesezte Orientierung . d.. falls < 0. Lemma 4. so hat fur 1 i n und 2 IR n f0g die Basis (b1 . Bemerkung: Wenn B = (b1. Zeige nger. 4. z-Richtung) positiv orientiert. bi 1. bn) dieselbe Orientierung wie B . (y1 . : : :.3.ist also (Einheitsvektor in x. j) fur 1 i < j n . Wenn 2 Sn ist. Das Dreibein (d. y.

3.

: (K n )m ! K ( ( ((x(1) ; : : :; x(1)); : : :; (x1m) ; : : :; xnm))) 7! n=1 m xi(j ) n i j =1 1 n. ist eine symmetrische m-Linearform auf K

5 Quadratische, hermitesche und symplektische Formen
Sei K ein Korper mit von 2 verschiedener Charakteristik.

5.1 Quadratische und symmetrische Bilinearformen

De nition 1: Eine quadratische Form auf einem K-Vektorraum ist eine Abbildung q : V ! K mit den folgenden Eigenschaften: 1. q( v) = 2 q(v), 2 K, v 2 V ;
2. Die Abbildung :V V ! K (x; y) 7! q(x + y) 2q(x) q(y) ist bilinear (und daher eine symmetrische Bilinearform).

Beispiel 1:
1. Sei q : Kn ! K (x1; : : :; xn) 7! x2 + : : : + x2 : 1 n 1 (x; y) = 2 (q(x + y) q(x) q(y)) n 1X = 2 ((xi + yi )2 x2 yi2 ) i =
n X i=1 i=1

Dann gilt

xi yi :

O ensichtlich ist bilinear, Eigenschaft (1) ist klar. Fur K = IR kann q(v) als das Quadrat der Lange von v aufgefa t werden (Satz des Pythagoras). ye2 e2

6 6 6

v = y e2 + x e1 = (x; y) p p Lange von v = jvj = x2 + y2 = q(v). e1

-

xe1

-62

2. Sei m : IR4 ! IR, m(x0 ; x1; x2; x3) = x2 + x2 + x2 x2 die Minkowskische Form. Dann 1 2 3 0 ist (x; y) = 1 (m(x + y) m(x) m(y)) = x1y1 + x2y2 + x3y3 x0y0 das Minkowskische 2 Skalarprodukt. Vektoren v 2 IR4 nennt man in der Speziellen Relativitatstheorie raumartig, wenn m(v) > 0; zeitartig, wenn m(v) < 0; lichtartig, wenn m(v) = 0; v 6= 0. 3. Sei V ein K-Vektorraum, l 2 V , q(x) = l(x)2 und 2 l(x)2 l(y)2 (x; y) = l(x + y) 2 2 l(y)2 l(x)2 l(y)2 = l(x) + 2l(x)l(y) + 2 = l(x) l(y): ist bilinear, und es gilt: q( x) = l( x)2 = 2 l(x)2 = 2 q(x):

De nition: O enbar bilden die symmetrischen Bilinearformen einen Untervektorraum des
(q + q)(x) = q(x) + q(x) ~ ~ ( q)(x) = q(x);

K-Vektorraumes L(V; V ; K) aller Bilinearformen auf V (vgl. 4.3). Der Vektorraum aller quadratischen Formen auf V wird wie folgt de niert: wobei q; q quadratische Formen auf V , x 2 V , 2 K sind. ~

Satz 1: Seien x; y 2 V , q eine quadratische Form und eine symmetrische Bilinearform. Die
Abbildungen q(x) q(y) (f(q))(x; y) = q(x + y) 2 (g( ))(x) = (x; x)

fQuadratische Formen auf V g

f;g

! fsymmetrische Bilinearformeng
(d.h. f(q) = aus Def.1)

Beweis:

sind zueinander inverse Isomorphismen von Vektorraumen. f(q) ist nach De nition 1 eine Bilinearform. f ist o ensichtlich eine lineare Abbildung. q = g( ) ist eine quadratische Form, denn q( x) = ( x; x) =
2

(x; x) = 2 q(x):

63

also (~) = q: q Fakt 1: Fur quadratische Formen q gilt die Parallelogrammidentitat: q(x + y) + q(x y) = 2 (q(x) + q(y)): Beweis: Sei = f(q). Dann gilt q(x + y) + q(x y) = (x + y; x + y) + (x y; x y) = (x; x) + 2 (x; y) + (y; y) + (x; x) 2 (x; y) + (y; y) = 2(q(x) + q(y))

= (x; y) Weil bilinear ist, ist es auch ~. Es folgt, da q = g( ) eine quadratische Form ist. g ist o ensichtlich linear. f g = Id folgt aus ( ), denn in Bezeichnungsweisen von ( ) gilt f(g( )) = ~ nach De nition von f und g. g f = Id : Sei q quadratische Form, = f(q), q = g( ). Dann gilt ~ q = (x; x) = q(x + x) 2q(x) q(x) ~ = 2q(x) = q(x); 2

Sei ~(x; y) = q(x+y) q(x) q(y) . Dann gilt ( ): 2 1 ( (x + y; x + y) (x; x) (y; y)) ~(x; y) = 2 bilinear 1 ( (x; x) + (x; y) + (y; y) = (x; x) 2 1 ( (x; y) + (y; x)) = 2
Symmetrie

(y; y))

2

De nition 2:
Mat B ( ) = ( (bi ; bj ))n =1 : i;j 2. Eine n n-Matrix ist symmetrisch,falls AT = A, d.h. fur A = (aij )n =1 gilt aij = aji i;j fur alle 1 i; j n.

2

1. Sei eine symmetrische Bilinearform auf V und B = (b1; : : :; bn) eine Basis von V . Wir de nieren die Matrixdarstellung von bezuglich B als

Beispiel:

P 1. Die symmetrische Bilinearform ((x1 ; : : :; xn); (y1 ; : : :; yn)) = n=1 xi yi hat bezuglich der i Standardbasis B = (ei )n=1 , ei = ( ij )n=1 , die Matrixdarstellung i j
Mat B ( ) = ( (ei ; ej ))n =1 = i;j 64
n X k=1 ik jk = ij ;

y1 )) = (x0 + x1 )(y0 + y1 ) hat bezuglich der Standardbasis die Matrixdarstellung Mat B ( ) = 1 1 : 1 1 Fakt 2: Sei B = (b1. O enbar ist g(A) eine Bilinearform auf V (Linearitat von iB und Distributivitat des Matrizenproduktes). Zur Erinnerung: 0x 1 1 n n ! V. bn) eine Basis von V . wobei x. Die Minkowskische Form aus Beispiel 1. dann ist die Abbildung 8 Symmetrische n n.2 hat bezuglich der Standardbasis die Matrixdarstellung 0 1 0 0 01 B C Mat B ( ) = B 0 1 0 0 C : @ 0 0 1 0A 0 0 0 1 3. Wenn AT = A gilt. da die auf diese Weise de nierte Abbildung g zu Mat B invers ist. Beweis: Wir geben eine inverse Abbildung g zu Mat B an. : : :. B = (b1. wobei B = (e1 . y) fur x.B ( ): 65 . en ) die Standardbasis ist. A iB : K @ i=1 xn (Elemente von K n als n 1-Matrizen) ist ein Isomorphismus. Dann gilt Mat B ( ) = Mat B. y) = (iB1 (x))T A (iB1 (y)) eine 1 1-Matrix. n. 2. : : :. B . K) ist (g(A))(x. Dann gilt fur x. C 7! X xibi . y 2 V de niert. 2 Folgerung: Sei eine symmetrische Bilinearform auf K n und B = Mat B ( ). Die symmetrische Bilinearform ((x0 . y) = xT B y. Fur x. 2 Fakt 3: Sei V ein K-Vektorraum. x): Man pruft leicht nach. Sei : V ! V durch ( (x))(y) = (x. B = (b1 . y))T = (iB1 (y))T AT ((iB1 (x))T )T = (iB1 (y))T A ((iB1 )(x)) = g(A)(y. bn) die dazu duale Basis des dualen Vektorraumes V . y 2 K n als n 1-Matrizen und 1 1-Matrizen als Elemente von K betrachtet werden. y) = ((g(A))(x. : : :. : : :. (y0. so gilt (g(A))(x. y 2 V und A 2 Mat (n. also ein Element von K. Mat B : : Bilinearformen . bn) eine Basis von V . x1). ! : Koe zienten aus K auf V ein Isomorphismus von K-Vektorraumen. y 2 K n (x..9 8 Symmetrische 9 = = < < Matrizen mit .also Mat B ( ) = 1n .

B = (b1 . da Mat B. bn) und ~ b B = (~1 . N( ) = fx 2 V j 8 y 2 V : (x. falls N( ) = f0g gilt.3. Der Nullraum von ist als de niert.1) von f : V ! V bzgl. : : :.4.2 Nicht ausgeartete Bilinearformen. y 2 W (f ( ))(x. Dann gilt Mat B (f ( )) = Mat B.B = (aij )n =1 mit f(bj ) = ~ i. von aij bi : n X k=1 k bk ) = i ) () (y) bi (bk ) = ki (allgemein: bi ( n X n (y) X bi (bk ) aij ik aij = i=1 i=1 n X ! () aij bi (bk ) =( (bj ))(bk ) i=1 = (bj . Sei V endlichdimensional. : : :. eine symmetrische Bilinearform und q eine quadratische Form auf V . also macht Fakt 4 in diesem Fall eine Aussage uber die Anderung von MatB ( ) bei Anderung der Basis. 5. De nition 1: Sei eine symmetrische Bilinearform auf V . De nition 3: Sei f : W ! V linear. und Fakt 3.1. y) = 0g Wir behalten die Voraussetzung char(K) 6= 2 bei. Der Rang. ~ Fakt 4: In den Bezeichnungen der De nition sei B eine Basis von W und B eine Basis von V . ~n) lautet b Mat B.B ( ) = Mat B ( ).B (f): ~ ~ ~ Beweis: O enbar f ( ) = f f.~ Beweis: Die De nition der Matrixdarstellung (in 3.B (f)T Mat B ( ) Mat B.B ( ) an: i. Wende Fakt 3. 2 Bemerkung: Fur f = Id n gilt f ( ) = .j (bj ) = Gema der De nition der dualen Basis folgt dann akj = = Def. Der Rang von ist als Rang ( ) = dim(V ) dim(N( )) de niert. Dann nennt man nicht ausgeartet. 66 .1. an.j n X i=1 n X ~ aij bi : i=1 ~ Wende dies auf V = V und A = (aij )n =1 = Mat B. Wir de nieren fur x. y) = (f(x). f(y)) und (f (q))(x) = q(f(x)): f ( ) ist eine symmetrische Bilinearform und f (q) eine quadratische Form auf W . bk): 2 Aus De nition 2 folgt nun.

: : :. Sei l 2 V .. Sei Mat B ( ) = Mat B ( ~) und seien B = ~ ~ b ~ (b1. ~ 2. Beweis: Nach Satz 2. : : :. Sei auf K n wie in (1) gegeben. weil (x. b b ~) = : Es gilt ' ( ~ Sei umgekehrt ' : V ! V ein Isomorphismus mit ' ( ~) = und sei B = (b1. y) = l(x) l(y). ist nicht ausgeartet. ) und (V . Dann ist B 2 ~ 67 . 4. ist ein Isomorphismus. Sei auf IR4 das Minkowskische Skalarprodukt. dann existiert ein Isomorphismus ' : V ! V mit '(bi ) = ~i . Zwei symmetrische Bilinearformen . (x. d.B ( )) = Rang (Mat B ( )): 2 Beispiel: 1. x) > 0 fur x 6= 0. y) = n=1 xi yi . V sind ~ genau dann isomorph.4. bn) eine Basis ~ = ('(b1 ). : : :. ~ Beweis: Der erste Fakt folgt leicht aus dem zweiten. P Fakt 4: 1. Dann ist nicht ausgeartet. 2. ist Monomorphismus. gilt Fakt Rang ( ) Def. Dann ist die Einschrankung von auf W nicht ausgeartet. 2.h.Fakt 1: O enbar gilt N( ) = ker( ) (vgl. : : :. O enbar ist die Isomorphie eine ein Isomorphismus f : V ! V Aquivalenzrelation auf der Klasse aller symmetrischen Bilinearformen.5). falls ~ mit f ( ~) = existiert.2. 2 Fakt 2: Eine symmetrische Bilinearform hat denselben Rang wie ihre Matrixdarstellung.4.1 = dim(Bild( )) Fakt 3. zwei isomorphe symmetrische Bilinearformen haben denselben Rang. also ist in diesem Fall ausgeartet. Wenn dim(V ) 2 ist. Sei auf IRn gegeben durch (x.1.1 und Fakt 3. '(bn)) eine Basis von V und Mat B ( ) = Mat B ( ~). ~) sind isomorph. Dann hat bezuglich der Standardbasis die Matrixdarstellung Mat B ( ) = 1n. bn) und B = (~1. 3. Die Aquivalenzklassen nennt man Isomorphieklassen.1.= 1 dim(V ) dim(ker( )) Satz 4. Fakt 3: Sei V endlichdimensional und W V ein Vektorraum mit W N( ) = V . gilt ker(l) 6= f0g. O enbar ist der Rang eine Isomorphieinvariante. Also sind fur endlichdimensionale Vektorraume V aquivalent: 1. Dann gilt N( ) = ker(l). De nition 2. ~ von V . ~ De nition 2: Zwei symmmetrische Bilinearformen (V. also ist Rang ( ) = n. denn N( ) = i f0g. also ist nicht ausgeartet. 3. ~n).1. wenn zwei Basen B und B mit Mat B ( ) = Mat B ( ~) existieren. Beweis: Ubungsaufgabe.2 Rang (Mat = B. Dann ist die Matrixdarstellung von bezuglich der Standardbasis invertierbar. ~ auf endlichdimensionalen Vektorraumen V.

bn) von W bezuglich jW .1. Dann ist auch y eine Quadratwurzel aus x. y) 6= 0. x) = 0 fur alle x 2 V . denn dann ist jede schiefsymmetrische Bilinearform symmetrisch. Die beiden Quadratwurzeln y und y sind sie einzigen Quadratwurzeln aus x. v) 6= 0. : : :. char(K) 6= 2: Dann existieren zu jedem x 2 K f0g entweder keine oder zwei Quadratwurzeln. Dann gilt 0 = (x + y. Bemerkung 4: Sei K ein Korper.1 gefuhrt werden konnen. Sei also 6= 0. v) v + (x (x.h.Sei char (K) 6= 2. : : :. Beweis: Angenommen (x. Dann gilt v 62 W nach Vorraussetzung und W Kv = V . 68 2K v 2W 5. so gibt es ein x 2 V mit (x. 2 Bemerkung 1: Der Beweis hatte auch durch Satz 5. x) 6= 0. Bemerkung 2: In einem Korper mit Charakteristik 2 ist das Lemma falsch. Nach Lemma 1 gibt es v 2 V mit (v. 2 Bemerkung 3: Weil der Beweis von Lemma 1 konstruktiv war. bn) eine Orthogonalbasis von V . d. Wenn = 0 gilt. v) v): | (v. De nition 1: Eine Basis B = (b1. aber es gabe x. Dabei ist t 0. bn) von V nennt man eine Orthogonalbasis bezuglich . bezuglich . denn t2 x = t2 y2 = (t y)(t + y): Beispiel 1: C ist quadratisch abgeschlossen. x + y) = (x.3 Klassi kation der quadratischen Formen Satz 1: Sei eine symmetrische Bilinearform auf V . Wenn 6= 0 gilt. } {z {z Nach Induktionvoraussetzung gibt es eine Orthogonalbasis (b1 . Sei W = v? = fw 2 V j (v. y) + (y. Dann hat V eine Orthogonalbasis . ein 2 K mit 2 = x) existiert. y) = 2 (x. Alle Vektorraume werden als endlichdimensional vorausgesetzt. falls fur jedes x 2 K eine Quadratwurzel (d. Beweis: durch Induktion nach dim(V ). O enbar ist W ein Untervektorraum von V . Fur dim(V ) = 0 ist die leere Menge eine Orthogonalbasis. denn fur x 2 V gilt v) v) x = (x. falls (bi . y) 6= 0. Widerspruch. so ist sp sp (a2 + b2) + a + sign(b) a2 + b2 a i 2 2 pt die nichtnegative Quadratwurzel aus der reellen Zahl eine Quadratwurzel aus z. Lemma 1: Sei V ein Vektorraum und sei eine symmetrische Bilinearform auf V . De nition 2: K ist quadratisch abgeschlossen. diese ist wegen y 6= 0 von y verschieden. x) + 2 (x.h. y 2 V mit (x. v) 6= 0. : : :. bj ) = 0 fur i 6= j gilt. Sei die Behauptung fur Vektorraume kleinerer Dimension als V bewiesen. denn wenn z = a + ib eine komplexe Zahl ist. ist es auch der Beweis des Satzes. Sei dazu x = y2 . b2. } | (v. er gestattet die praktische Berechnunng eines Vektors v 2 V mit (v. Dann ist (v. Der angegeben Beweis ist konstruktiv. so ist jede Basis eine Orthogonalbasis. w) = 0g.

De nition 3: Eine Orthonormalbasis von V bezuglich ist eine Basis B = (b1. bi = ( ~i b q ~ii b fur 1 i r fur r < i n die im ersten Punkt des Theorems beschriebene Gestalt.2. (bi . r) 2 IN2 mit r n angenommen werden. dann hat die Basis B = (b1 . da eine Zahl r mit 0 r n nach Satz 1). Umgekehrt garantiert das Theorem die Existenz von Orthonormalbasen fur nichtausgeartete symmetrische Bilinearformen auf endlichdimensionalen Vektorraumen uber quadratisch abgeschlossenen Korpern mit von 2 verschiedener Charakteristik. Durch Umordnen von ~ ~ existiert. Die symmetrischen Bilinearformen (V. so da (bi . Sei qi eine Quadratwurzel aus si . Bemerkung 6: Weil der Rang von 1n n ist. bn) von V mit Mat B ( ) = 1n. bn). ) und (V . : : :.Theorem 2: 1.2).2. ~n) eine Orthogonalbasis von V bezuglich (B existiert b ~ konnen wir erreichen. : : :. : : :. bj ) = 0 ij fur 1 i r sonst. bn) von V . bi) fur 1 i r von 0 verschieden ist und fur r < i n verschwindet.4. Der zweite Punkt folgt aus dem ersten Punkt und aus Fakt 5. Sei eine symmetrische Bilinearform auf einem endlichdimensionalen Vektorraum uber einem quadratisch abgeschlossenem Korper K. wobei r der Rang von ist. ~ b ~ Beweis von Theorem 2: Sei B = (~1 . Bemerkung: Wir haben also in diesem Falle eine vollstandige Klassi kation der symmetrischen Bilinearformen auf endlichdimensionalen Vektorraumen bekommen: bis auf Isomorphie ist (V. wenn dim(V ) = dim(V ) und Rang ( ) = Rang ( ~). ~ 2. 2 Bemerkung 5: Auch dieser Beweis ist konstruktiv. bj ) = ij .h. Dann stimmt r mit dem Rang von uberein (das folgt aus Fakt 5. wobei alle (n. konnen Orthonormalbasen nur bezuglich nichtausgearteter symmetrischer Bilinearformen existieren. 69 . d. so da si = (bi . ) eindeutig durch n = dim(V ) und r = Rang ( ) charakterisiert. ~) auf endlichdimensionalen K~ Vektorraumen V und V sind (unter denselben Voraussetztungen an K wie im ersten ~ Punkt) genau dann isomorph. : : :. Dann existiert eine Basis B = (b1. char (K) 6= 2.

folgt aus Fakt 5. fur x+ = 0 (und damit x 6= 0) sei y = x .~i) falls (~i . 0. Dann gilt dim(X+ ) + dim(X ) Rang ( ): Beispiel 1: O enbar ist das Euklidische Skalarprodukt auf IRn positiv de nit. Es gilt a + b = Rang ( ). also ist jX nicht ausgeartet. ist negativ de nit (bzw. Zum Beweis der Eindeutigkeit von a und b benotigen wir De nition 1: ist positiv de nit. Sei B = (~1 . v) > 0 fur v 2 V f0g. bi) = : 1 fur a < i a + b 0 fur i > a + b gilt. Da a. die die im Theorem beschriebene Form hat. umgekehrt bestimmen sie diese Isomorphieklasse gemeinsam mit n = dim(V ) eindeutig. Sei X = X+ X . Insbesondere folgt X \ N( ) = f0g. ^n) mit b b 8 p ~i > (b~i. Aus Fakt 5. jX ist nicht ausgeartet. dann gilt dim(X) = dim(X+ ) + dim(X ).~i) falls (~i .5. In beiden Fallen gilt (x. Wenn eine Basis B mit Mat B ( ) = 1n existieren sollte. ~i) = 0 b b b ^ ^ Dann ist B eine Orthogonalbasis mit (^i . v) 0 fur alle v 2 V . falls semide nit) ist. wenn eine Orthonormalbasis B von V bezuglich existieren sollte.4. mit x 2 X . Dann existieren a. : : :. Daher ist positiv de nit. x) > 0 (wegen x 2 X+ f0g) und (x. Lemma 1: Sei eine symmetrische Bilinearform auf einem endlichdimensionalen IR-Vektorraum Beweis: Es gilt X+ \ X = f0g. 70 . ist positiv semide nit. negativ semide nit). : : :. ^i) 2 f 1. : : :. ~i) < 0 b b b b : ~(i~i. Fur x+ 6= 0 sei y = x+ 2 X.4 Quadratische Formen auf reellen Vektorraumen Orthogonalbasis B = (b1 . 1g. ~i) > 0 b b < bb ^i = p ~i b b > falls (~i . so da Theorem 3 (Tragheitssatz von Sylvester): Sei eine symmetrische Bilinearform uber einem IR-Vektorraum V der endlichen Dimension n. b 2 IN mit a+b n und eine 8 1 fur 1 i a < (bi .2. positiv de nit (bzw. V und seien X+ und X Unterraume von V . denn aus x 2 (X+ \ X ) f0g wurden nach unseren Vorraussetzungen aus jX die widerspruchlichen Ungleichungen (x. also kann aus B durch Umordnen der b b Basisvektoren eine Basis B erhalten werden. denn sei x = x+ + x 2 X f0g. b und n die Isomorphieklasse eindeutig bestimmen. und sei B = (^1 . Die Zahlen a und b sind dabei eindeutig durch die Isomorphieklasse von (V. falls (v. bn) von V . so da die Einschrankung von auf X+ positiv und auf X negativ de nit ist. Beweis: Wir fuhren zunachst den Beweis der Existenz einer Basis B mit der beschriebenen ~ b ^ b Eigenschaft. so ist negativ de nit. falls (v. y) 6= 0. x) < 0 (wegen x 2 X f0g) folgen. ) bestimmt. ~n) eine Orthogonalbasis von V .2.2 folgt die letzte Behauptung des Theorems.

: : :. falls a = dim(V ) bzw. xn). da a und ~ ~ b durch (V. a = n. j a X xi yi a. b. : : :. bn) gegeben. bi) = : 0 fur i > a + ~ 1 fur a < i ~ + ~: ~ a b Sei X+ die lineare Hulle von C+ = (b1.b ((xi )n=1 . : : :. ba ) und X die lineare Hulle von C = (~a+1 .b ist nicht ausgeartet. Insbesondere hat V genau dann eine Orthonormalbasis bezuglich . es gilt sign ( 3. negativ semide nit. wenn positiv de nit ist. denn Rang ( ) = a + b = a + b ~ 2 Fakt: ist genau dann positiv bzw. eine Orthonormalbasis des IRn ist durch die Standardbasis (b1. (yi )n=1 ) = i i i=1 n X i=a+1 xiyi : Bezuglich der Standardbasis (e1 . ~a+~ ) b~ b~ b Dann ist C+ eine Orthogonalbasis von X+ . ) ist dann eindeutig bestimmt durch dim(V ). ) selbst eindeutig bestimmt sind. b ~ ~ . falls b = 0 bzw. sign ( n ) = n. Also sind a und b eindeutig bestimmt. falls fur jedes U V mit W U die Einschrankung von auf U nicht positiv de nit ist.b die in Theorem 3 beschriebene Gestalt. und Mat C ( jX ) = 1~. Insbesondere ergibt sich daraus ein praktisches Verfahren zur Bestimmung von a. Beispiel 2: n ((x1 . sign( a. Indem wir die Rollen von B und B vertauschen. bi = ( ij )n=1 . ist genau dann positiv bzw. b b b Weiterhin gilt a = Rang ( ) b = Rang ( ) ~ = a. negativ de nit.1 das Minkovskische Skalarprodukt auf dem IR4 . (b b 8 1 fur 1 i a ~ < ~ ~ ~ b (bi . yn)) = Pn=1 xiyi . n ist das Euklidische Skalarprodukt i auf dem IRn.1 ) = 2. 2 De nition 2: In der Situation von Theorem 3 nennt man sign ( ) = a b die Signatur von . Bemerkung 2: Der Beweis der Existenzaussage in Theorem 3 ist konstruktiv. : : :. 71 . Eindeutigkeit von a und b: O enbar genugt es zu zeigen. a = 0 in Theorem 3 gilt. en) hat a. erhalten wir auch b ~. : : :. (y1 . a. 2 Beweis von Theorem 3. Sei n = a + b. b = 0. Aus Beispiel 1 folgt b a + b = Rang ( ) dim(X+ ) + dim(X ) = a + ~ b ~ Also b ~. b = dim(V ) in Theorem 3 gilt. : : :. negativ de nite Unterraum W von V ist in einem maximal positiv bzw. also b = ~. negativ de niten Unterraum enthalten. Bemerkung 1: Die Isomorphieklasse (V. De nition 3: Ein bezuglich positiv de niter Unterraum W V ist maximal positiv de nit. sign( ) und zum Test auf positive De nitheit. rang ( ) und sign( ). : : :. Sei B eine andere Orthogonalbasis mit B = ~1. Jeder positiv bzw. Insbesondere ist 3. n ist positiv de nit.b ) = a b. Analog de niert man maximale negativ de nite Unterraume. ~n). Fakt 1: 1.also dim(V ) dim(X) + dim(N( )) = dim(X+ ) + dim(X ) + dim(N( )).

3. 1. so gibt es einen Unterraum U W. Die Behauptung ist klar fur dim(W ) = dim(V ). vi ) > 0 fur 1 i a0 und 0~ (vi . da (vi . 2. cn) eine andere Basis von V . ~ 3. Sei die Behauptung fur alle de niten Unterraume gro erer Dimension als W bewiesen.Beweis: 2. Alle maximalen positiv bzw. nicht ausgeartet . vi) < 0 fur a0 < i a0 + b0. va) zu einer ~ 0 Orthogonalbasis (v1 . Sei V+ V ein maximal positiv de niter Unterraum und V ein maximal negativ de niter Unterraum. Durch absteigende Induktion nach dim(W). bn) eine Basis von V und habe b dieselbe Bedeutung wie in unserer Formulierung von Theorem 3. da man (v1 . Sei (vi0 . : : :. va eine Orthonormalbasis ~ ~ von W bezuglich . negativ de nit ist. negativ de niten Unterraum enthalten.1 folgt. Wir konnen auch voraussetzen. Wegen der Eindeutigkeit aus Theorem 3 folgt a0 = a. so da U ebenfalls positiv bzw.1 Mat B ( ) = Mat B. sei B = (b1 . det(Mat B ( )) 6= 0. Dann gilt V = V+ V N( ). Falls W selbst nicht maximal ist. vi0 )j fur i rang ( ). Dann gilt: ( 1)b det(Mat B ( )) > 0: Isomorphismus .4. : : :. Also a0 = a. dann gilt nach Fakt 5. vi = vi0 fur i > rang ( ). Sei C = (c1 . negativ de niten Unterraume haben die Dimension a bzw. va+1 .C (Id): () Beweis von Fakt 2: Sei C eine Basis von V mit 8 1 i=j a < (Mat C ( ))ij = : 1 a < i = j a + b 0 sonst 72 .3. also a = a. so ware W + IRva+1 ein a a positiv de niter Unterraum von V . Bemerkung: Mat B ( ) = Mat B. : : :. V+ \ V = f0g ist klar. ~ p Sei vi = vi = j (vi0 . : : :. Dann ist U nach der Induktionsvoraussetzung in einem maximalen positiv bzw. va . Sei a = dim(W) und sei v1. V+ V N( ) = V : dim(V+ V N( )) = dim(V+ ) + dim(V ) + dim(N( )) = a + b + dim(N( )) = rang ( ) + dim(N( )) = dim(V ): 2 Fakt 2: Sei eine nicht ausgeartete symmetrische Bilinearform auf einem endlichdimensionalen reellen Vektorraum V . b (aus Theorem 3). : : :. vn) erganzen kann. ~ 0 ~ wenn i > rang ( ). Dann 8 1 1 i=j a < (vi . im Widerspruch zur Eigenschaft von W . Wenn a0 > ~ ware. vj ) = : 1 a0 < i = j rang ( ) 0 sonst. Aus dem Beweis von Satz 5.C (Id)T Mat C ( ) Mat B. Dann a0 ~. Sei W maximal positiv de nit. (V+ V ) \ N( ) = f0g folgt aus dem Beweis von Lemma 1. : : :. vi0 ) = 0 genau dann.B ( ).

. 0. C A . die Determinanten der eingerahmten Matrizen positiv sind. und sei Bk die Basis (b1. O enbar ist die Einschrankung jVk Vk ebenfalls positiv de nit (und daher nicht ausgeartet). : : :.C (Id)) = ( 1)b det(Mat B. . die Gruppen O( ) und SO( ) 73 . so tut dies auch jVn 1 . im ersten Fall ergibt Fakt 1 a = dimVn 1 = n 1 und daher b = 1. falls die durch A de nierte symmetrische Bilinearform A (x. . Im letzten Fall ist positiv de nit. Nach Satz 1 ist dies genau dann der Fall.C (Id)) = det(Mat B. Notwendigkeit: Sei positiv de nit.C (Id))2 > 0 2 Satz 1: Sei B = (b1 . Wenn die Bedingung des Kriteriums erfullt. c Bemerkung: Die Einschrankung einer nichtausgearteten inde niten Form auf einen Unterraum kann ausgeartet sein. 0. Sei V ein Vektorraum der endlichen Dimension n uber einem Korper K. Beweis von Satz 1. Sei eine symmetrische Bilinearform auf V . Praktischen Wert hat dieses Kriterium nur fur kleine n. x2. Induktion nach n: Die Behauptung ist klar fur n = 1.(vgl. y) = xT A y positiv de nit ist. wobei 2 K eindeutig bestimmt ist. 2 c Beispiel: a b ist positiv de nit . Also ist entweder Vn 1 oder Vn ein maximaler positiv de niter Unterraum.C (Id)T ) det(Mat C ( )) det(Mat B. Dann ist genau dann positiv de nit. . Sei die Behauptung fur alle Vektorraume kleinerer Dimension als n bewiesen. Sei d 2 D(V ) f0g.C (Id))( 1)b det(Mat B. char (K) 6= 2. : : :. x2. Hinlanglichkeit. . etwa fur n = 2..also det(Mat Bk ( jVk Vk )) > 0. also ist jVn 1 nach der Induktionsannahme positiv de nit. x3. bk g). . Wir wissen aus Kapitel 4. : : :)g B 31 32 33 @ . Dann kann jedes e 2 D(V ) als e = d geschrieben werden. .5 Die Gramsche Determinante. Sei D(V ) der Raum der schiefsymmetrischen n-Linearformen auf V . Theorem 3). Nach ( ) gilt dann ( 1)b det(Mat B ( )) = ( 1)b det(Mat B. sei Vk = L(fb1. 5. . : : :)g B a21 a a23 : : : C v3 = f(x1. : : :)g 12 B a11 a22 a13 : : : C v2 = f(x1. 0. bn) eine Basis des reellen Vektorraumes V . a > 0 und ab c2 > 0.. bk ) von Vk . und Fakt 2 wurde det(Mat B ( )) < 0 ergeben. wenn in 0 a a a : : : 1 v1 = f(x1. da dim(D(V )) = 1 gilt. : : :. wenn fur 1 k n det(Mat Bk ( jVk Vk )) > 0: Bemerkung: Eine symmetrische Matrix A mit reellen Eintragen ist positiv de nit.

O( ) ist die orthogonale Gruppe von . die schiefsymmetrisch in v1 . 74 2 . : : :. wn) die linke Seite von ( ). Dann gibt es eine eindeutig bestimmte Konstante c . : : :.d . : : :. d = n 2 c . wn 2 V die Gramsche Determinante det( (vi .j Wir setzen von nun an als nicht ausgeartet voraus. wj ))n =1 = c .1. : : :.d = 0 genau dann. u(w1). u(w)) = (v. und c . bn) von V mit d(b1. gilt c n .d 2 K. vn. vn und in w1. : : :. Fakt 2: Fur alle u 2 O( ) gilt j det(u)j = 1. wn ! G(v1 .d d(u(v1 ). : : :. u(wj ))n =1 ) = i. bn. vn)d(w1. : : :. d. Die zweite Behauptung ist trivial. also j det(u)j = 1. : : :. : : :. vn) = c . vn) = G(v1 . : : :. wj))m =1 ) = 0. : : :. : : :. Aus den Eigenschaften der Determinante von Matrizen folgt.j G(v1 . vn) 2 K mit: G(v1. : : :. vm.d d(v1 .3 2 det(Mat B ( )) = det(Mat B.d 6= 0 ( nicht ausgeartet). w1. : : :. : : :.h. wn) = ( n (vi . wj ))n =1. u(vn))d(u(w1).j Der Beweis ist Ubungsaufgabe.d d(v1 . wn): Es gibt eine Basis (b1. : : :.d d(v1. : : :. vn)) = det(Mat S (v1 . folgt daraus det(u)2 = 1. Es gilt c . : : :. : : :. : : :. w1. : : :. : : :. so da fur v1 . Es gilt c . : : :. b1. : : :. vn . : : :. : : :. wn) = c . w1. De nition 1: O( ) ist die Menge aller Automorphismen u von V mit der Eigenschaft 8 v. i. : : :.2. : : :. also gibt es ein eindeutig bestimmtes c(v1 . : : :. : : :. b1. : : :. : : :. wn) = c . bn) = 1. u = . 2 Beispiel 1: Fur das Euklidische Skalarprodukt nn und fur dn(v1 . vn ist also w1.dn = 1. Beweis: Sei G(v1. vn. bn) eindeutig bestimmt. Fur feste v1 . w 2 V : (u(v). vn) = det(Mat Z (v1 . w1. : : :. Fakt 1: Fur m > n und v1 .d det(u)2 d(v1. : : :.d = G(b1. vn. w1. : : :. da G eine 2n-Linearform auf V ist. : : :. w). Die Identitat ( ) folgt in diesem Fall aus der Multiplikativitat der Determinante und aus Mat Z (v1 . u(wn)) = G(u(v1).1. : : :. vn). i. Bemerkung: ( ) gilt auch fur nichtsymmetrische Bilinearformen. vn.B ( )) und Fakt 5. : : :. : : :. vn )d(w1. vn) ebenfalls ein Element von D(V ) und es gibt c . vn)d(w1. : : :. Es gilt c . vn)Mat S (w1 . vn)). : : :. vn. : : :. w1. wenn ausgeartet ist. u(vn). wn) eine schiefsymmetrische Linearform auf V . vn)d(w1. : : :. versehen mit der Hintereinanderausfuhrung von Automorphismen als Gruppenoperation. u(wn)) = det( (u(vi ). bn.Satz 1: In der soeben beschriebenen Situation sei eine symmetrische Bilinearform auf V . dn 2 D(IR ). wn ist. : : :. wn) () i. wn) Weil c . bn): Also ist c(v1 . dann gilt c(v1 .d 2 K mit c(v1 . : : :. wn) = c(v1 . b1. wm 2 V gilt det(( (vi . : : :.j gegeben ist. Die letzte Aussage folgt aus G(b1. Beweis: Sei G die linke Seite von ( ) wie beim Beweis von Satz 1. bn) = Fakt 5.

De nition 2:

SO( ) = fu 2 O( ) j det(u) = 1g = ker(O det f1; 1g) O( ): !
a X +b +b xi yi a;b ((xi )a=1 ; (yi )a=1 ) = i i i=1 a+b X j =a+1

SO( ) ist eine Untergruppe von O( ). Erinnere an x i yi

auf IRa+b und n = n;0 .

De nition 3:

O(n) = O( n ); SO(n) = SO( n ); O(a; b) = O( a;b ); SO(a; b) = SO( a;b ):

Beispiel 2: (Wir identi zieren hier 2 2-Matrizen mit Endomorphismen des IR2).
sin Sei u(') = cos '' cos ' . Es gilt fu(') j ' 2 IRg = SO(2), denn u(') uberfuhrt die sin ' Orthonormalbasis ((1; 0); (0; 1)) in die Orthonormalbasis ((cos '; sin '); (sin '; cos ')). Es gilt det(u(')) = 1, also u(') 2 SO(2). Alle Elemente von SO(2) konnen als u(') dargestellt werden. Dabei gilt u(') = u('0) genau dann, wenn ' '0 = 2 Z. Es gilt u(')u( ) = u(' + ). u(') ist eine Drehung um '. t sinh Sei l(t) = cosh t cosh t . Dann gilt l(t) 2 SO(1; 1). Jedes Element von SO(1; 1) kann sinh t in dieser Form auf eindeutige Weise dargestellt werden und l(s)l(t) = l(s + t). Die O(a; 1) spielen die Rolle der Lorenzgruppen fur die spezielle Relativitatstheorie mit a raumlichen Dimensionen, xa+1 spielt dann die Rolle der Zeitkoordinate. Fakt 3: Sei q(x) = (x; x) die zu gehorende quadratische Form (vgl. Satz 5.5.1). Dann gilt u 2 O( ) genau dann, wenn q(u(x)) = u(x) fur alle x 2 V . 1 2 Beweis: Beachte (x; y) = 2 ( (x + y; x + y) (x; x) (y; y))...

5.6 Euklidische Vektorraume

Beispiel: V = IRn, hx; yi = n(x; y). k(xi)n=1k = Pn=1 x2 ist nach Pythagoras die Lange der i i i Strecke von 0 nach (x1 ; : : :; xn). Man kann also kvk als die Lange von v deuten. Dann sollte die Dreiecksungleichung ku + vk kuk + kvk gelten.

In diesem Abschnitt ist K = IR. De nition 1: Ein Euklidischer Vektorraum ist ein Paar (V; h ; i), wobei V ein reeller Vektorraum und h ; i : V V p IR, (v; w) ! hv; wi eine positiv de nite, symmetrische ! Bilinearform ist. Dann sei kvk = hv; vi.

p

75

Satz 1: (Cauchy-Schwarz). Sei h ; i positiv de nit und v beliebig (auch unendlichdimensional). Dann gelten die Cauchy-Schwarzsche Ungleichung
jhx; yij kxkkyk
und die Dreiecksungleichung

kx + yk kxk + kyk:

Beweis: Sei kxk = kyk = 1. Dann gilt 0 hx y; x yi = hx; xi + hy; yi 2hx; yi = 2 2hx; yi: () Es gilt also hx; yi 1 und auch hx; yi 1, also hx; yi 1. Also gilt jhx; yij 1, falls kxk = kyk = 1. Seien nun x und y beliebig. Wenn einer dieser Vektoren verschwindet, ist die Cauchy-Schwarzsche Ungleichung trivial. Andernfalls gilt k kxk k = 1, k kyk k = 1, also x y
kxk ; kyk
also jhx; yij kxkkyk. Beweis der Dreiecksungleichung: x y 1;

kx + yk2 = kxk2 + kyk2 + 2hx; yi kxk2 + kyk2 + 2kxkkyk = (kxk + kyk)2 : Bemerkung 1:

( )

In ( ) tritt Gleichheit nur fur x = y ein. Deswegen tritt in der Cauchy-Schwarzschen Ungleichung genau dann Gleichheit ein, wenn dim(L(x; y)) 1. Ebenso wird die Dreiecksungleichung streng, sofern nicht x oder y verschwindet, oder ein positives 2 IR existiert mit x = y. p p k xk = h x; xi = 2 hx; yi = j jkxk. Aus der Dreiecksungleichung folgt, da (V; d) mit d(x; y) = kx yk ein metrischer Raum ist: d(x; z) = kx z k = k(x y) + (y z)k kx yk + ky z k = d(x; y) + d(y; z). V ist ein reeller Hilbertraum, falls dieser metrische Raum vollstandig ist. Dies ist immer der Fall fur dim(V ) < 1.

De nition 2: Sei V wie in Satz 1 de niert. Dann nennen wir zwei Vektoren x; y 2 V orthogonal, falls hx; yi = 0; dann schreiben wir x ? y. Bemerkung 2: (Pythagoras) x ? y , kx + yk2 = kxk2 + kyk2 , kx yk2 = kxk2 + kyk2 . De nition 3: Sei V wie in Satz 1 de niert. Dann sei fur x; y 2 V f0g w(x; y) der durch die Eigenschaften 0 w(x; y) und hx; yi = kxkkyk cos(w(x; y)) eindeutig bestimmte Winkel
(Er existiert nach der Cauchy-Schwarzschen Ungleichung).

Bemerkung 3: kx yk2 = kxk2 + kyk2 2hx; yi = kxk2 + kyk2 2kxkkyk cos(w(x; y)) ist der

Cosinussatz der ebenen Trigonometrie. Bemerkung 4: (Gram-Schmidtsches Orthogonalisierungsverfahren): Sei B = (b1 ; : : :; bn) eine 76

Basis des euklidischen Vektorraumes V . Dann erhalten wir durch folgende induktive Vorschrift eine Orthonormalbasis (v1 ; : : :; vn): v1 = kb1 k b1 Pk 1 i vk = bk Pk=11hbk ; viivi ; kbk i=1 hbk ; viivi k falls v1; : : :; vk 1 schon P berechnet sind. Man pruft induktiv, da L(v1; : : :; vk 1) = L(b1; : : :; bk 1). Also bk 6= P k=11hbk ; viivi . Damit ist vk wohlde niert. O enbar kvk k = 1. Fur i k 1hb ; v iv ; v i = chb ; v i c Pk 1hb ; v ihv ; v i = 0, wobei wir j < k gilt hvk ; vj i = chbk k j i=1 k i i j i=1 k i i j im Sinne eines Induktionsbeweises schon vorausgesetzt haben, da die (v1 ; : : :; vk 1) orthogonal sind, d.h. hvi ; vj i = ij fur 1 i; j k 1. Fakt 1: Sei V ein beliebiger reeller Vektorraum und h ; i positiv de nit. Sei (e1 ; : : :; en) bezuglich h ; i orthonormal. 1. Fur x 2 V gilt die Parsevalsche Ungleichung
n X i=1

hx; eii2 kxk2:

2. Die Gleichheit gilt in dieser Ungleichung genau dann, wenn x = n=1 hx; eiiei . Dies ist i genau dann fur alle x 2 V der Fall, wenn (e1 ; : : :; en ) eine Basis von V ist. 3. Sei (e1 ; : : :; en) eine Orthonormalbasis, dann gilt

P

hx; yi =
fur x; y 2 V .

n X i=1

hx; eiihy; ei i

Beweis: Sei x = x Pn=1 hx; eiiei . Dann gilt ~ i
hx; ej i = hx; ej i ~ kxk2 = kxk2 + k ~
i n X i=1

n X i=1

hx; eiihei ; ej i = 0;
n X i=1

P also auch hx; n=1 hx; eiiei i = 0. Nach Pythagoras gilt ~ i
hx; ei iei k2 = kxk2 + ~
i=1 i i i

hx; ei i2 ;
i

Pn hx; e i2 = kxk2. Daraus folgen (1) und der erste Teil von (2). Wenn x = 0 ist ~ ~ also kx2k i i=1 fur alle x 2 V , so erzeugen die b1; : : :; bn V und Pn eine Basis. Wenn (e1 ; : : :; en ) eine Basis ist, sind so folgt aus der Orthogonalitat der e , da x = e , = hx; e i und x = 0 gilt. ~
Weiterhin gilt

hx; yi = h hx; eiiei ;
i=1

n X

n X j =1

hy; ej iej i =

n X

i;j =1

hx; ei ihy; ej ihei ; ej i =

n X i=1

hx; ei ihy; ei i:
2

77

Es gilt N( ) = ker( ). vi = 0 und damit v = 0. wenn nicht ausgeartet ist. x) = hr(l). bi i fur 1 i d. also hpX (v). da X abgeschlossen ist. bd) eine Orthonormalbasis von X.1 und 5. Dann leistet r das Gewunschte: l(x) = (r(l))(x) = (r(l). Bemerkung: Es gilt p2 = pX . wegen dim(V ) = dim(V ) ist also genau dann ein Isomorphismus. xi: 2 De nition 4: Fur einen Unterraum X V sei X ? = fy 2 V j 8 x 2 X : hx. Sei l ein lineares Funktional auf V . i Man pruft leicht hpX (v). biibi 2 X. denn pX (x) = x fur x 2 X.2. Aus v 2 X \ X ? folgt nach De nition 4 hv. so geht diese De nition in die in Abschnitt 2 gegebene De nition uber. Beweis: Erinnere an 5. r(l)i: Durch r : V ! V ist ein Isomorphismus de niert.Satz 2: Sei (V. Dann gibt es genau ein r(l) 2 V mit der Eigenschaft 8 v 2 V : l(v) = hv. das lineare Funktional aus Satz 2 als stetig vorauszusetzen (Riesscher Satz) und in Satz 3 zu fordern. 78 . Sei (x. : : :. xi fur alle x 2 X. allerdings ist es notwendig. y 2 V de niert. Fur v 2 V sei pX (v) = Pd=1hv. i) ein Euklidischer Vektorraum. h . bi i = hv. Also X + X ? = V . Satz 3: Fur jeden Unterraum X eines Euklidischen Vektorraumes V gilt X X ? = V: Beweis: Sei (b1. y) fur alle x. Sei r = 1 : V ! V der zu inverse Isomorphismus. also ist ein Isomorphismus. xi = hv. um V mit V zu identi zieren. yi = 0g das orthogonale Komplement zu X. Fur eine beliebige symmetrische Bilinearform auf V war : V ! V durch ( (x))(y) = (x. also v pX (v) 2 X ? . yi. X Bemerkung 5: Satz 2 und Satz 3 gelten fur reelle Hilbertraume ahnlich. 2 De nition 5: Sei X ein Unterraum eines Euklidischen Vektorraumes V . Dann ist nicht ausgeartet. Bemerkung: Wenn man den Isomorphismus r : V ! V aus Satz 2 benutzt. also ist die Summe X + X ? eine direkte Summe. y) = hx. Die durch pX (v) 2 X und v pX (v) 2 X ? (nach Satz 3) eindeutig de nierte Abbildung pX : V ! V nennt man den Orthogonalprojektor auf X.

hid(v2. Beweis: Sei d 6= 0 beliebig. hvn . : : :. vn) = d(v1 + hv1 . Fur v1 2 V und v2 . hih. : : :. jd(b1. vn orthonormal ist die Gramsche Determinante G(v1. denn alle diese n Vektoren alle Unterraume X V . d 2 D(V ) nennt man normiert. : : :. 0 = v1 hv1 .. bn)j = 1 fur eine geeignete Orthonormalbasis b1 . : : :. vn)d(w1. i. Moge das n-dimensionale Volumen von Parallelspaten im n-dimensionalen Euklidischen Raum folgende Eigenschaften haben: 79 i=1 . hv1 . wni Bemerkung: (3))(2))(1) ist klar. : : :. denn aus Satz 3 folgt leicht X ?? = X fur 0 ~ Sei v1 0 . . Daraus folgt d(v1 . : : :. : : :. Dann gilt c = ch . : : :. x1. Es gilt ch . : : :. : : :. : : :. wn) = 1. i.. xn 1 2 V ~ de niert ein normiertes Element von D(V ). vn) = 0 wegen der Schiefsymmetrie von d. vn 2 V gilt ~ d(v1. : : :. woraus die restlichen Aussagen folgen. : : :. : : :. vn) linear abhangig. . ~ 2. Also ist (v1 0 ~ gehoren zu dem (n 1)-dimensionalen Unterraum V . bn von V .d = 1 in der Formel fur die Gramsche Determinante. vn ): Beweis: Die erste Behauptung folgt sofort aus De nition 6. : : :. v2. b1. : : :. v2. v2. : : :. bn von V . Sei h 2 V ? und khk = 1. Dann gilt 1. 3. bn)j = 1 fur jede Orthonormalbasis b1. xn 1). : : :. Sei d normiert und 2 IR. Also folgt 0 0 d(v1. : : :.h. hih. Dann ist d=pc normiert. bn 1 eine Ortho~ normalbasis fur V ist. v2. 2 ~ ~ Lemma 1: Sei V V ein Unterraum der Kodimension eins (d. hid(h. . Es gibt genau zwei normierte Elemente von D(V ) und zwar in jeder Halbachse von D(V ) genau eines. d. wn): . 2. w1. : : :. so ist (h.. bn 1) eine Orthonormalbasis fur V . wenn die folgenden aquivalenten Bedingungen erfullt sind: 1. v2. : : :. : : :. wenn 2 = 1. w1i : : : hv1. . x1. wni nante. jd(b1. vn): 2 Folgerung 1: Sei n X 1g S(v1 . hid(v2 .. O enbar ist d genau dann normiert. vn) + hv1 . Dann gilt v1 2 (IRh)? = V . vn. Sei d 2 D(V ) normiert. denn wenn b1. dim(V ) dim(V ) = 1 = ~ ~ dim V ? ).h. : : :. : : :. vn) ~ = hv1 . vn) = d(v1. w1i : : : hvn. vn) = hv1 . ~ ~ d(x1. : : :. = d(v1 . vn) = f i vi j 0 das von den vi erzeugte Parallelspat. denn fur vi = bi und v1 .d > 0. (1))(3) folgt aus dem Satz uber die Gramsche Determi- Fakt 2: Mit d ist auch d normiert.De nition 6: Sei n = dimV . xn 1) = d(h.

: : :. y. x3). Wenn dim(V tionsannahme. : : :. z2.1. a)) = 0: Lx Ly Ly Lx = L x. Dann ist hv1 . y 2 V sei x y 2 V der durch 8 z 2 V : hx y. c)) + C(c. : : :. : : :. (y1. (y1 . vn linear abhangig. z3 )) = y1 y2 y3 . Bemerkung: Die Eindeutigkeit und Existenz von x y folgt durch Anwendung von Satz 2 auf das Funktional z 7! d(x. hijjd(v2 . Das Volumen eines n-Spates S(v1 . b)) + C(b. 2 5. denn dn(e1 . xn) = det(Mat z (x1. : : :. y] = x y y x eine Liealgebra. (z1 . vn)) = 0. xn)) bezuglich n normiert. hij Volumen(S(v2. De nition 7: Fur x. z). Sei V eine Liealgebra und sei Lx (y) der Kommutator von x mit y fur x. d 2 D(V ) normiert : Beispiele: Flache von IR2 S((x1 . hi die Hohe von S(v1 . : : :. y2 )) = x1 x2 : y y Volumen von 1 2 x1 x2 x3 IR3 S((x1 . vn)) und der Hohe auf dieses Seitenspat. : : :. y2 . vn )j = jd(v1. so da die Jacobi-Identitat gilt: C(a. Das Volumen des 1-Spates ist die Norm des erzeugenden Vektors. h . vn)j. Beweis von Folgerung 1 durch Induktion nach n beginnend mit n = 1. vn). vn)) = jd(v1 . so sind v2. : : :. : : :.1 Das Vektorprodukt auf einem dreidimensionalen orientierten Euklidischen Raum Sei (V. vn)) = jhv2 . en) = 1 fur die Standardbasis.6. Betrachte die (n 1)~ dimensionale Seite S(v2 . De nition 8: Eine Liealgebra ist ein Paar (V. i) ein dreidimensionaler Euklidischer Raum und sei d 2 D(V ) normiert. W ) versehen mit x. y3). C). : : :. vn erzeugte Un~ ) < n 1. Bemerkung: Meistens schreibt man C als Kommutator C(x. y) = x. vn). y. wobei C : V V ! V schiefsymmetrisch und bilinear ist.y] aquivalent. x2). : : :. z1 z2 z3 denn auf dem IRn ist dn (x1. also auch Volumen(S(v1. C(a. : : :. z i = d(x. C(c. : : :. : : :. vn) von S(v1 . C(b. Dann gilt Volumen(S(v1 . : : :. Sei also dim(V ) = n 1 und seien h und d wie in Lemma 1. vn)) = 0 = ~ ~ d(v1. Sei V der von den v2 . : : :. Fur einen Vektorraum W ist V = L(W. also gilt Volumen(S(v1. vn ). Dann ist die Jacobi-Identitat zu Fakt 3: 80 . : : :. es folgt durch die Indukterraum. y]. vn )j. : : :. vn) bezuglich der Seite S(v2 . vn) ist gleich dem Produkt aus dem (n 1)-dimensionalen Volumens eines Seitenspates (etwa S(v2 . z) () eindeutig de nierte Vektor. : : :. y 2 V . : : :. da das Volumen(S(v2. x2. vn )) = ~ jhv1. 2.

e2 . e3 i = d(x. bic: 81 (y) (z) . e3 i (zu berechnen nach der Leibnizschen Formel). e2 . u(y). e1 i hy. z) = 0 fur alle z wegen der Schiefsymmetrie von d. y. 2. also x y 6= 0. z. x. c). so ist (x. h . yi . e3) = 1. e3) eine positiv orientierte Orthonormalbasis. x y = 0 genau dann. u 1 (z)i = hu(x y). e2 . z i = d(x. Gra 1. y. Fur (3) bemerkt man hx y. u 1(z)) (=) hx y. e2i hc. z i. Weiterhin gilt fur alle c 2 V * e1 + e2 e3 hc. Sei u 2 O(V. x. denn die Permutation von d(c. x3y1 x1y3 . 2. e1i hx. also wird ( ) erfullt. z i: Da das fur alle z gilt. Dann gilt u(x y) = det(u)(u(x) u(y)). y. Beweis: (1). a (b c) = ha. 4. 3. 5. z) eine Basis von V und es gilt 0 6= d(x. y = (yi )3=1 und der Standardbasis (ei )3=1 . Wenn x und y linear unabhangig sind. e1 i hc. det(u)u(x) u(y)i (=) det(u)d(u(x). u(y). y. e2i hx. y. xi (=) d(x. (2). c = hx. 2 3 gilt fur das Standardskalarprodukt und die Standardorientierung Beispiel: Im IR e1 e2 e3 x y = x1 x2 x3 = (x2 y3 x3 y2 . e1 i hy. (2): 1. e3i hy. y) = hy. e3i hx. wenn x und y linear abhangig sind.B. x1y2 y2 x1) y1 y2 y3 mit x = (xi)3=1 . mann) Es gelten die Formeln xi yi hx y. y. dann gilt e1 e2 e3 x y = hx. z) = hx y. so gilt hx y. e2 i hy. a bi = hha. e1i hx. e3 i . (3) folgen leicht aus ( ). hz. i i i Satz 4: (H. was (4) beweist. e2 i hy. e3i Gram d(e1. hb. e1i hx. x y ist zu x und y orthogonal. cib ha. e2i hx. b. z) = det(u)d(u(x). folgt (2). i). e2i hx. u(u 1(z))) = det(u)2 d(x. Sei (e1 . y) ist gerade und d(e1 . Wenn x und y linear abhangig sind. e2 i hy. e3 i hy. e3)d(c. Also x y = 0.ist bilinear und schiefsymmetrisch. x) = 0. e1 i hy. xi ha.

Beweis: Da diese Bedingungen das Vektorprodukt eindeutig bestimmen. xi hb. xi ha. y. xi ha. y hy. Fur seine Lange gilt kx yk = kxkkyk sin(w(x. xi ha. Es verbleibt der Beweis von (y). und sei c. z) = d(z. yi hei . sei dazu (e1 . bici: bi ci hg. y)). yi hb. yi = kxk2kyk2 hx. b. yi ha. ci ei ci di i=1 3 X denn die linke Seite ist 3 X womit Lemma 2 bewiesen ist. ci = hz. xi hx. b c. eii i=1 hx y. ei i ha. denn ha (b c). xi ha. hg. xi hb. ei ihei . e2 . xi hb. yi + 3 ha. ei i + ha. eii hei . hg. d. Das Dreibein (x. eii = 3 X i=1 d(x. a. eii ha. hei . e2. eiii = hh. di . d(x. xi ha. z i (=) d(a. ei ihei . 3 kxk2kyk2 (cos(w(x. Dann gilt 3 X Beweis: Die zweite Formel folgt aus der ersten. hz. yi2 hx. Fakt 3. i=1 ha. x y ist zu den beiden Argumenten orthogonal. = ha. y. hx y. yi . 3. bi ha. di i=1 hh. xi hb. yi hb. y))kxkkyk)2 = sin2 (w(x. yi hb. di hh. yi hb. 1. = damit folgt die Behauptung. x yi = hx. di hh. xi hb. ei iha b. ei) = Lemma 2 i=1 3 X = 2 Folgerung 2: Das Vektorprodukt x y erfullt folgende Eigenschaften. ei)d(a. gi. di = hg. xi ha. Def. ist klar. yi ha. eii Au osung nach der letzten Zeile hei . x y) ist rechtshandig. hg. cib ha. cihh. e3) eine Orthonormalbasis von V . yi yi hei . b c) = hz a.Damit ist (z) bewiesen. xi ha. xi hb. h 2 V . a bi = Gram 3 X = 3 X ha. yi hb. xi hb. cihh. y))kxk2kyk2 . angewendet mit b = y und a = x: i yi kx yk2 = hx y. cihd. d. yi hb. b ci hz. Dazu benotigen wir folgendes Lemma 2: Sei (e1. 82 hb. ha. xi hb. ei i hb. x y) 0. folgt aus (y). xi hei . e3) eine Orthonormalbasis: i=1 hg. g.h. ci hh. yi = ha. yi : hb. y. yi ha. cihg.3 2. die es eindeutig charakterisieren: 1. 2. 2 Wir konnen nun die linke Seite von (y) berechnen. ci hh.

x) + (~.j Fakt 1: Fur eine komplexe n n-Matrix A = (hij )n =1 sei A durch A = AT = (aji)n =1 i. x) = (y. y). Erinnere an x + iy = x iy und an z z 0 = z z 0.3. y ): Also ist antilinear im zweiten Argument. z) = zz = jz j2. ( A) = A fur 2 C. x) + (~. y) = (x. bi + ahb. x. y)+ (y. zz = jz j2 = x2 + y2 > 0 fur z = x + iy. x) = (y. y. es gilt (A+B) = A + B . 83 . z) = (x. ci bha. x. y) = t (x. Die Theorie der hermiteschen Formen auf komplexen Vektorraumen verlauft analog zur Theorie der symmetrischen Bilinearformen auf reellen Vektorraumen. Wir de nieren Mat B ( ) = ( (bi . A ist die adjungierte Matrix zu A. x) 5. y) = (y. (AB) = B A . y) = xy: Dann gilt (z. x yi 0. y) + ~(x. z + z 0 = z + z 0. (x. x). Folgerung 3: Das Vektorprodukt erfullt die Jacobi-Identitat a (b c) + c (a b) + b (c a) = 0: Es ist nicht assoziativ. Eine hermitesche Form auf V ist eine Abbildung : V V ! C mit folgenden Eigenschaften: 1. ci = 0 2 In diesem Abschnitt arbeiten wir uber den komplexen Zahlen. y). Statt der ublichen Symmetrie des Skalarprodukts gilt (x. 2 C. y+ z) = (x.7 Hermitesche Formen Bemerkung: Dann gilt (x. folgt leicht aus ( ). (t )(x. bn) eine Basis von V (also V endlichdimensional). y. Beweis: Wende (z) an: a (b c) + c (a b) + b (c a) = bha. x) ~ y y ~ (x. De nition 2: Sei B = (b1 . ~ x ~ 2. denn d(x. z 2 C : C C ! C.j i. y)+ (x. bi ahb. bilinear und schiefsymmetrisch und daher eine Lie-Algebra. y 2 V . also folgt det A = det A. x y) = hx y.j (koe zientenweise konjugiert) de niert. y). sondern linear im ersten Argument ( (x + y. z)). ci + cha. y) + (~. (x + x. Sei fur x. ci cha. Aus der Leibnizschen Determinantenformel folgt leicht det(A) = det(A). y) = (y. De nition 1: Sei V ein komplexer Vektorraum. : : :. bj ))n =1 : i. y) = (x. ist nicht bilinear. Die Menge der hermiteschen Formen auf V bildet mit den ublichen Regeln fur Addition und Multiplikation einen reellen Vektorraum: ( + ~)(x. y + y ) = ~ = (y + y . y) + (x. (x. z)) und antilinear im zweiten Argument ( (x.

Sei f : V 0 ! V eine lineare Abbildung zwischen komplexen Vektorraumen.d < 0 falls b ungerade (c .d > 0. vn )d(w1. . bn. b existieren mit 8 1 1 i=j a < (bi . h . In diesem Fall schreiben wir auch als Skalarprodukt (x. Die Gruppe SU( ) ist als SU( ) = fu 2 U( ) j det(u) = 1g de niert. xi. ibn) beweisen.t 2 IR. x) reell. so nennen wir (V. y) = hx. : : :. n. Die unitare Gruppe U( ) ist als die Gruppe aller Automorphismen u von V mit (u(x). falls (x. also j det(u)j = 1. also ist die Bedingung (x. also ist (x. N( ) = fx 2 V j 8 y 2 V : (x. Theorem 4: (Analogon des Sylvesterschen Tragheitssatzes) Sei eine Hermitesche Form auf einem endlichdimensionalen komplexen Vektorraum V . Man pruft leicht nach. De nition 3: Die hermitesche Form auf V ist positiv de nit.. falls die folgenden aquivalenten Bedingungen erfullt sind: 1. wn) Beweis: Ziemlich analog zum Beweis des Sylvesterschen Tragheitssatzes. wn) . 2. Man pruft leicht nach: 2 Mat B0 (f ) = Mat B0 . y) = 0g = f0g. Sei d 2 D(V ).. die reelle symmetrische Bilinearform Re ( ) und die reelle Basis (b1. i) einen endlichdimensionalen Hilbertraum. da fur jede Basis B von V die Abbildung fhermitesche Formen auf V g ! fselbstadjungierte n n-Matrizeng 7! Mat B ( ) ein Isomorphismus von reellen Vektorraumen ist. a + b = n.. : : :.d mit (v1 . Es gilt det(u)det(u) = 1. x) reell.B (f): Bemerkung: Wenn eine hermitesche Form ist. yi und p setzen kxk = hx. Sei B 0 eine Basis von V 0 . y) fur alle x. w1) : : : . x) > 0 fur alle x 2 V f0g gilt. (vn . (vn . u(y)) = (x. ist (x. w1) : : : (v1 . : : :. bn) von V mit der Eigenschaft. Wenn V endlichdimensional sein sollte. falls b gerade und c . bj ) = : 1 a < i = j a + b 0 sonst. Dann gibt es eine reelle Konstante c . Die Eindeutigkeit von Es gilt c . x). wn): . : : :. x) = (x. Bemerkung 3: Weil hermitesch ist. C) j A = A g einen reellen Vektorraum.d d(v1 . x) > 0 84 . Sei nicht entartet. dies ist eine hermitesche Form auf V 0 (wobei eine hermitesche Form auf V ist). a und b kann man durch Anwendung von Theorem 3 auf den reellen Vektorraum V . so gilt (x. y) = (f(x).. . ib1 . da a. Ebenso bildet die Menge der selbstadjungierten Matrizen fA 2 Mat (n.d = 0 falls entartet sein sollte). y 2 V de niert. Bemerkung: In der Situation des Theorems nennen wir nichtentartet. Sei (f )(x. = c . f(y)).B (f) Mat B ( )Mat B0 . Dann gibt es eine Basis B = (b1 .

wi hv. wij: ~ v. da hv. sonst ist die Ungleichung trivial. O enbar kann Gleichheit in ( ) nur fur v = w eintreten. wi = hv. Wie durfen v 6= 0 und w 6= 0 voraussetzen. vi = 1 + 1 hv. wenn v und w linear abhangig sind. Daher kann Gleichheit in der CauchySchwarzschen Ungleichung nur dann eintreten. sei z = hv. xi = n=1 xi xi = i=1 jxij2. Dann ist l2 ein komplexer 2C i=01 i=1 Vektorraum und durch h(xi )1 .Beispiel 1: Das Standardskalarprodukt auf Cn istndurch hx. kv + wk kvk + kwk (Dreiecksungleichung). Indem wir v durch v=kvk und w durch w=kwk ersetzen. x = (xi )n=1 . i i Sei C der Raum der 2 -periodischen stetigen Funktionen f : IR ! C. vi + hw. zwi = z hv. gi = 21 sinnvoll. . wij Also jhv. Gleichheit gilt genau dann. dann gilt kwk = kwk und 6 ~ ~ v. Sei w = zw. wi = hv. wi hv. v wi = hv. Indem wir also w durch w ersetzen. durfen wir annehmen.jhwihwijwi = jhv. Wir konstruieren analog zur Theorie der Euklidischen Vektorraume die Theorie der positiv deniten Hermiteschen Formen. 2. wi hw. yi = Pn=1 xi yi. konnen wir kvk = kwk = 1 annehmen. wij kvkkwk. Es gilt hx. jhv. wij 1 fur kvk = kwk = 1 und die erste Behauptung in (1) folgt. i eine positiv de nite Hermitesche Form auf einem komplexen Vektorraum V . wi reell und ~ Dann gilt ( ): 0 hv w. Falls hv. wi = 0. (yi )i=0 i = i=0 xiyi ist eine positiv de nite hermitesche Form i=0 s Z2 1 Beweis: 1. wij. wi=jhv. Z2 0 f(t)g(t) dt wird eine positiv de nite hermitesche Form auf C de niert. wenn v = 0 oder wenn eine reelle Zahl 0 mit w = v existiert. kf k = 2 jf(t)j2 dt: 0 P Sei l2 die Menge aller Folgen (zi )1 mit zi P1 und 1 jz j2 < 1. wi = 2 2jhv. de niert. hv. 85 0 ist. Gleichheit gilt genau dann. Dann gelten 1. Durch hf. i i P P y = (yi )n=1 . Satz 1: (Cauchy-Schwarz) Sei h . wenn v und w linear abhangig sind. Es gilt de niert.

h . Betrachte V als reellen Vektorraum mit der positiv de niten symmetrischen Bilinearform (x. Fakt 2: Dann gilt v n X i=1 2 = n=1 j ij2. vn) von Vektoren aus V orthonormal. Aus der Cauchy-Schwarzschen Ungleichung fur Cn folgt vn vn v1 v1 u X uX u u n X u u t jxij2t jyij2 uX jxij2uX jyij2: t t jxiyi j i=1 i=1 i=1 i=1 i=1 P1 x y absolut. De niere (v1 . y) = kx yk. vj i = i. P vk = wk kwk 1 Pk 1hw .6 an. : : :. daher ist das Skalarprodukt auf l wohlde niert. y) = Re hx. Damit ist l aus Also folgt i=1 i i 2 i=1 i i=1 i Beispiel 1 tatsachlich ein Vektorraum.2. Die CauchyAlso konvergiert Schwarzsche Ungleichung fur l2 besagt 1 X i=1 i=1 i i Aus der Dreiecksungleichung fur Cn folgt 0 jg(x)j2 dx: xi yi v1 v1 uX uX u t jxij2u jyij2: t i=1 i=1 2 l2 ist ein Hilbertraum. : : :. Man kann ihn zu einem Raum me barer Funktionen vervollstandigen. Sei (w1. i Bemerkung 5: Das Gram-Schmidtsche Orthonormalisierungsverfahren. (V. d) ein metrischer Raum. n P vi= n i vi = t uX un i=1 Pn j i j2 . falls hvi . falls P1 jx j2 < 1 und P1 jy j2 < 1. De nition 4: In der Situation von Satz 1 nennen wir ein n-Tupel (v1. (yi )n=1 2 Cn i i jf(x)j2 dx vn vn vn uX u u u t jxi + yij2 uX jxij2uX jyij2 t t i=1 i=1 i=1 P1 jx + y j2 < 1. vn) induktiv wie folgt: w v1 = kw1k . falls dieser metrische Raum vollstandig ist. Insbesondere andert die Multiplikation mit einer komplexen Zahl vom Betrag 1 die Norm nicht. angewendet auf Cn und C aus Beispiel 1. i) nennt man einen Hilbertraum. : : :. Der Raum C ist kein Hilbertraum.j =1 i j hvi . yi. i=1 k i i 86 .j =1 i j ij P denn h n P v. Wende die Dreiecksungleichung aus 5. v iv i Pk=11hwk. i=1 i i i=1 i i i. viivik . wn) eine Basis von V . Dann ist (V. Beispiel: Aus der Cauchy-Schwarzschen Ungleichung. vj i = ij . Es gilt k vk = j jkvk fur 2 C. 2 Bemerkung 4: Sei d(x. folgt n X i=1 xi y i Z2 0 f(x)g(x) dx vn vn u X uX u jx j2 u jy j2 t i t i i i=1 sZ 2 sZ=1 2 0 (xi )n=1 .

2 i De nition 5: Sei V ein komplexer Vektorraum mit einer positiv de niten Hermiteschen Form h . yli. n 2 Z hf. xi = Beispiel 2: Damit sind der erste Punkt und die erste Halfte des zweiten Punktes bewiesen. Fur x 2 V gilt die Parsevalsche Ungleichung n X i=1 jhx. i. 1 Z 2 f(t)g(t) dt f (t) = eint. gi = 2 n 0 P1 hf. x hx. i P wobei yl = n=1 l(ei )ei . x = n=1 i vi . Der dritte Punkt ist genauso einfach. vii hx. Der Beweis erfolgt ahnlich wie im reellen Fall. viihvi . viij kxk2: 2. : : :. viij2 jhx. Dies ist genau dann der Fall. viivi hx. Auf die analytischen Einzelheiten soll hier ist ein orthonormales System. viivi . vi ihx. 1. vii = i j j Pn 2 j =1 j ji = i . yi = n X i=1 hx. Gleichheit tritt genau dann ein. ei il(ei )) = hx. viivi . Dann gilt l(x) = (Pn=1 hx. Fur x 2 V sei X ? = fy 2 V j 8 x 2 X : hx. yl i dargestellt werden. viivi . Wenn (v1 . en) eine Orthonormalbasis. vi ivi + + *X n n X i=1 i=1 i=1 n X i=1 n X i=1 hx. : : :. yi = 0g: 87 . i=1 hx. i wenn x in der linearen Hulle der vi liegt. x + jhx. viij2 : n X i=1 hx. viivi kxk2 + kxk2 + kxk2 n X i=1 * X n x. : : :. vn) sogar eine Orthonormalbasis von V ist. f = n= 1 n n nicht eingegangen werden. 3. vk 1 schon berechnet worden sind. Beweis: Sei (e1. viivi 2 = = Fakt 2 = * x n X i=1 hx. yi: n X 2 Beweis: Wie im reellen Fall berechnet man x n X i=1 hx. In der Situation von Satz 1 sei (v1 .Fakt 3: falls v1 . vn) 2 V n orthonormal. vi i = n=1 j hvj . was den zweiten Punkt beweist. P x zur lineaMoge P P ren Hulle der vi gehoren. : : :. wenn x = n=1 hx. f if . vii = h n=1 j vj . Satz 2: Sei V ein endlichdimensionaler Hilbertraum. Es folgt: hx. Dann kann jedes lineare Funktional l auf V auf eindeutige Weise in der Form l(x) = hx. Der Beweis der Eindeutigkeit ist einfach. viihvi . so gilt P hx.

Dann gilt V = X X ? . y) 6= 0 existiert. also (x) = x fur x 2 X. ~ (y)i = h ~ (y). yi = k X j =1 j (hv. die Existenz eines Orthogonalprojektors auf X zu zeigen. also aii = 0. ej i) = 0: ist also tatsachlich ein Orthogonalprojektor. bn) eine Basis von V . Setze (v) = k=1 hv. Bemerkung: Fur x 2 X \ X ? gilt hx. ek ) eine Orthonormalbasis von X. K) mit A = AT (d.8 Symplektische Vektorraume De nition 2: 1. Dann sei Mat B (s) = (s(bi . y = Pk=1 j ej . Sei s : V ! V die durch ( s (x))(y) = s(x. Beweis von Fakt 1: Man pruft leicht nach. In Satz 2 mu man die Stetigkeit des linearen Funktionales l voraussetzen. Weil X X ? = V folgt ~ = . also X \ X ? = f0g. Also 2 = Beweis: Die Direktheit der Summe X L X ? folgt aus der obigen Bemerkung. Es existiert ein eindeutig bestimmter Orthogonalprojektor von V auf X. Satz 3 gilt fur abgeschlossene Unterraume X. Fur x 2 X gilt dann x (x) 2 X \ X ? = f0g. bj ))n =1. Sei K ein beliebiger Korper.j =1 i j aij Fakt 1: Durch Mat B wird ein Isomorphismus des Vektorraumes aller schiefsymmetrischen Bilinearformen auf V auf den Raum aller Matrizen A 2 Mat (n. da Mat B (s) die behaupteten Eigenschaften hat. falls zu jedem x 2 V f0g ein y 2 V mit s(x. : : :. ej i fur j k. fur A = (aij )n =1 und aii = 0 fur 1 i n) de niert. ~ (y) yi = 0. j 2 C j hv (v). : : :.De nition 6: Ein Orthogonalprojektor von V auf einen Untervektorraum X ist eine lineare Abbildung : V ! X mit der Eigenschaft v (v) 2 X ? fur alle v 2 V . Sei sA die durch i. Also ~ (y) = 0 = (y). De nition 1: Eine schiefsymmetrische Bilinearform s auf V ist nichtentartet. Sei B = (b1. ei iei 2 X. n. n X j =1 j bj ) = n X i. ej i und ist tatsachlich ein Projektor auf X. 5. Sei dazu P (e1 . x 2 V und y 2 V de nierte lineare Abbildung. denn ~ (y) 2 X und y ~ (y) 2 X ? . xi = 0. Satz 3: Sei V ein endlichdimensionaler Hilbertraum und X V ein Untervektorraum. y). Um V = X + X ? zu zeigen. h (v).j sA ( n X i=1 i bi . Sei ein Orthogonalprojektor auf X. auch char K = 2. i. i.j Bemerkung: Fur char K 6= 2 folgt aus A = AT aii = aii und 2aii = 0. Fur y 2 X ? gilt k ~(y)k2 = h ~ (y). genugt es. Sei umgekehrt A = AT und aii = 0. 2 Bemerkung: Diese Satze gelten in ahnlicher Weise fur beliebige Hilbertraume.h. aij = aji 88 . Eindeutigkeit des Orthogonalprojektors: Sei ~ ein weiterer Orthogonalprojektor auf X. ej i = i hv.j 2. Dann gilt h (v). A = (aij )n =1 . Sei V ein endlichdimensionaler K-Vektorraum. Fur x 2 X gilt ~ (x) = x = (x). Also gilt fur alle y 2 X.

wn) ist eine Darboux-Basis fur V . bn) eine Basis von V und (b1 .B (f): ~ ~ ~ Beweis: Wie der Beweis von Fakt 5. 2. Dann gilt s(v1 . w1. w1. x) s(v1 .j duale Basis. Dann gibt es eine Darboux-Basis von V . Insbesondere ist dimV gerade. y) = ~ ~ ~ s(f(x). det(Mat B (s)) 6= 0. Dann gilt ~ 1. : : :.B ( s) = Mat B (s).4. wj ) = 0 fur alle 1 i.B (f)T Mat B (s)Mat B.eindeutig de nierte Bilinearform auf V . v1) = s(x. 2 Fakt 2: Es gilt Mat B. vj ) = 89 . Bemerkung: Dann gilt s(wi. x) | 1{zw1) +s(w1 . Sei v1 2 ~ V f0g. vn.j =1 aij i j = X 1 i<j n aij i j + n X i |=1 {z =0 aii 2 + i X 1 j<i n = } | P {z aij i j = 0: Man pruft leicht nach. w2. ~ ~ ~ Dann hat nach Induktionsvoraussetzung V eine Darboux-Basis (v2 . y) = s(v1 . } | {z ) =1 =0 P i bi) = s(bj . da A 7! sA zu Mat B invers ist. v1 } = 0 s(v . d. wm ) und (v1. : : :. : : :. Beweis von (1): Sei x 2 V und sei y = x s(v1 . Nach der Voraussetzung existiert ein w1 2 V mit s(v1 . 2 i Fakt 3: s ist nicht ausgeartet . s). x)w1 + s(w1 . f(y)) de nierte schiefsymmetrische Bilinearform auf V und sei B eine Basis von V . s ist ein Isomorphismus . : : :. : : :. sjV V ist nicht ausgeartet. Sei die Behauptung fur Vektorraume kleinerer Dimensionen bewiesen.h. : : :. vj ) = s(vj . wj ) = ij . wn) mit s(vi . Dann gilt sA ( n X i=1 i bi . De nition 3: Ein symplektischer K-Vektorraum ist ein Paar (V.2. bn) die dazu i. s(wi . V = Kv1 Kw1 V . Dann gilt s(bj )( n X i=1 1 j<i n aji j i } Also s (bj ) = n=1 ajibi und die Behauptung folgt. n X i=1 i bi ) = n X i=1 aji i = n X i=1 ajibi ( n X k=1 k bk ) = ( n X i=1 aji bi )( n X k=1 k bk ): Theorem 5: Sei (V. w1) = 1. s) ein symplektischer Vektorraum uber einem beliebigen Korper K. : : :. j n und s(vi . vn. : : :. Die Matrixdarstellung von s hat die Form 0 1n 1 1n 0 1 Beweis von Theorem 5 durch Induktion nach der Dimension von V beginnend mit dem trivialen Fall V = f0g. x)v1. wobei V ein endlichdimensionaler K-Vektorraum und s eine nichtausgeartete schiefsymmetrische Bilinearform auf V ist. w1) = 0g. eine Basis (v1.1. Sei V = fx 2 V j s(x. wi) = ij . n X j =1 j bj ) = n X i. Beweis: Sei Mat B (s) = (aij )n =1 und (b1 . Beweis: Wie in 5. x) s(v1. vn. Dann gilt Mat B (f (s)) = Mat B. und sei f (s) die durch (f (s))(x. ~ Fakt 4: Sei f : V ! V eine lineare Abbildung.

Sei " = ("1 . da die Wirkung von S2n auf M transitiv ist. q (n+i) = n+ (i). z) | 1 } =0 s(w1 } | {z. y) = s(w1 . s) als Sp(V. s) de nieren wir die symplektische Gruppe Sp(V. Fur char (K) 6= 2 brauchen wir ein scharferes Argument. Nach ~ Behauptung 1 kann man x als x = v1 + w1 + y mit . Id(z) = z. 2ng. p" (n+i) = n+i falls "i = 0 und p" (i) = n+i. 90 . q (z0 ) = zo . d. v1 + w1 2 V . V ) j s(f(x). f(y)) = s(x.. y)g: Fakt 5: Elemente der symplektischen Gruppe haben die Determinante 1. w1) : : : s(v2n. = cs. Es verbleibt. : : :. .) Es gilt p"(z0 ) = z0 . xn) = d (x1 . p" vertauscht die untere und die obere Schicht an den Stellen i. v1 + w1 ) = ~ und 0 = s(w1 . : : :. : : :. x2n 2 V: (y) () d p" q (x1 . Nach Voraussetzung gibt es ein x 2 V mit s(x. z) 6= 0: =0 ~ Weil y 2 V beweist dies. Dann gilt 0 = s(v1 . Diese Regel de niert eine Wirkung von S2n auf der Menge M. v2n)d(w1. Fur char (K) = 2 ist dies schon der ganze Beweis. n + 2g : : : fn.1 i ngj.. Daraus folgt schon det(f)2 = 1 fur f 2 Sp(V. w2n) ebenso wie die Formel fur die Gramsche Determinante. also einen Gruppenhomomorphismus S2n ! S(M). : : :. Also = = 0. ( )(z) = ( (z)). d. z) 6= 0. 2ng in n zweielementige Teilmengen. x)v1 2 V + Kv1 + Kw1 . w2n) . Man kann leicht zeigen. s(v2n . : : :. : : :.. 2 ~ ~ De nition 4: Fur einen symplektischen Vektorraum (V. da Hn eine Untergruppe in S2n ist und da Hn = f 2 S2n j z0 = z0g. z) = s(x. . ~ Beweis von (2): Sei z 2 V f0g. Angenommen. Daher ist die Summe Kv1 +Kw1 + V direkt. (q permutiert die untere und die obere Schicht entsprechend . d 2 D(V ). die ~ Direktheit der Summe zu zeigen.d d(v1. falls "i = 1 fur 1 i n de nierte Permutation.w1 )= 1 ~ ~ Also gilt y 2 V und daher x = y + s(v1 . z) = s(x. Sei z0 2 M die Zerlegung f1.h. x1. 1 i n de nierte Permutation. fur die "i = 1 gilt. w2n). da sjV V nicht ausgeartet ist. Sei Hn die Menge aller 2 S2n . "n) 2 (Z=2Z)n und sei p" 2 S2n die durch p" (i) = i.und s(w1 . z) s(v{z.. : : :. : : :. Es gilt sign(p" q ) = ( 1)jfijei =1. s). 2ng in f1. y 2 M existiert 2 S2n mit x = y. p" (n+i) = i. 2 K und y 2 V darstellen. : : :. s) = ff 2 L(V. n+1g f2. w1) +s(w1 . Fur 2 S2n sei d (x1 . w1) : : : s(v1 . Beweis: Man zeigt: s(v1 .. : : :. : : :. 2ng = x1 : : : xn und 2 S2n sei (z) die Zerlegung f1. Fur 2 Sn sei q 2 S2n die durch q (i) = (i). . x) s(w{z v1) = 0: | {z } | 1. . x2n). fur x. also det(f) 2 f 1g. fur die 2 Sn und " 2 (Z=2Z)n mit = p" q existieren. Man kann nun zeigen. x2n) = sign ( ) Man pruft leicht n Y k=1 s(x (k) . } =0 = s(v1. x) s(w1. Dann gilt s(y.h. v1 + w1 ) = . Beweisskizze: Sei M die Menge aller Zerlegungen von f1. x (n+k)). Fur z : f1. x) s(v1 . 2ng = (x1 ) : : : (xn). 2n = dim V. x)w1 s(w1 .

: : :. : : :. vn. : : :. falls A(W) W .h. Fur 2 K sei V (A) = fv 2 V j Av = vg: Wir nennen V (A) den zu gehorigen Eigenraum von A. 2 Bemerkung: In der Hamiltonschen Mechanik betrachtet man V = f( |1.denn q vertauscht nur Faktoren in (y) und p" andert nur die Reihenfolge der Argumente in Faktoren von (y). Aus Fakt 5 folgt. Weil char (K) 6= 2 gilt. In diesem Fall nennen wir die von 0 verschiedenen Elemente von V (A) die Eigenvektoren zum Eigenwert . V ein K-Vektorraum. xn)sign ( ): O enbar sind alle dz 2n-Linearformen auf V . : : :. Dann gilt dz (v1 . : : :. : : :. 2. 3. (~1. A ein Endomorphismus von V . w1. Ein Unterraum W V ist A-invariant. Wenn ~ 2 S2n mit ~ z0 = z. fur die A IdV : V ! V kein Automorphismus von V (d. : : :. Sei X d= dz : Aus (z) folgt leicht d(x1. x2n) = sign( )d (x (1) . : : :. wn) = 1. nicht bijektiv) ist. :{z:. x2n) = d (x1. Das Spektrum von A ist die Menge aller 2 K. Wir nennen 2 K einen Eigenwert von A. p1. : : :. : : :. qn . : : :. :{z:. De nition 1: 1. x (2n)) = d (z) (x1 . wn) = 1 z = z0 : 0 sonst Also d(v1. Also det(f) = 1. denn dasselbe gilt fur die dt. x (2n)) fur 2 S2n. mithin d = d fur 2 Hn. : : :. 91 . : : :. vn. f(x2n)) = d(x1. also 2 Hn. p1. pn). falls der Eigenraum V (A) 6= f0g. s). pn )g q : } | : } mit Ortskoordinaten Impulskoordinaten z 2M s((q1 . Aber aus der De nition von d folgt d(f(x1 ). : : :. 6 Eigenwerttheorie Sei K ein beliebiger Korper. x2n). w1. damit d 6= 0. x2n) = sign ( )d(x (1) . : : :. : : :. also d ~ = d (=) d . Setze dz (x1. falls f 2 Sp(V. x (2n)): (z) Fur z 2 M wahle 2 S2n mit z0 = z. qn. : : :. qn. : : :. so gilt fur = 1 ~ gilt z0 = z0 . x2n). folgt daraus d 2 D(V ) (auch fur char (K) = 2 gilt d 2 D(V ) aus anderen Grunden). pn)) = q ~ ~ ~ n X i=1 (qi pi qi pi): ~ ~ Dann sind die Elemente der symplektischen Gruppe gerade die linearen kanonischen Transformationen. vn. Weiterhin gilt d (x1. Sei (v1. : : :. 4. da solche Transformationen das Phasenvolumen erhalten. w1. Aus (z) folgt dz (x (1) . : : :. wn) wie in Theorem 5. p1.

1] gilt (t )f(t) = 0 . 1 i n. Daher ist genau dann ein Eigenwert von A. wenn er injektiv ist. 2. . In diesem Fall ist der Eigenraum (K n ) (A) = f(xi )n=1 2 K n j xi = 0 falls i 6= g. ist ein Eigenwert von A.. (Af)(t) = tf(t). C . (3) folgt aus der Determinantentheorie. fur die i = gilt. Also gilt: ist Eigenwert . da ein Endomorphismus eines endlichdimensionalen Vektorraumes genau dann bijektiv ist. 1 i n. 1] ! Cg. wenn = i . Also hat A keine Eigenwerte. Beweis: (1) ) (2) ist Fakt 1. 2 92 . Beweis: Aus x 2 V (A) folgt Ax = x 2 V (A). Beweis: Es gilt: V (A) = ker(A Id ). aber fur 62 0. A IdV ist nicht injektiv ) A IdV ist nicht bijektiv . 1] ubereinstimmt: eine Funktion g mit f g( ) 6= 0 kann nicht zum Bild von A Id gehoren. Seine Dimension ist gleich der Anzahl der Indizes i i. fur die die Matrixdarstellung von A bezuglich B eine Diagonalmatrix ist (was nicht immer gelingt). det(A Id) = 0. . 2. 2 Fakt 2: Sei V endlichdimensional. ker(A Id) 6= f0g . liegt im Spektrum von A. 1] f g gilt f(t) = 0 Stetigkeit f = 0. . . Fakt 3: Fur jedes 2 K ist V (A) A-invariant. C @ . . fur alle t 2 0. Andererseits .B (A) genau dann eine Diagonalmatrix. ist. . . falls B aus Eigenvektoren besteht. . (2) ) (1) folgt wegen der Endlichdimensionalitat von V aus der Tatsache. Als unendlichdimensionales Beispiel betrachten wir C( 0. 1. Man kann das Problem der Bestimmung der Eigenwerte und Eigenvektoren von A auch au assen als das Problem der Au ndung einer Basis B von V . da das Spektrum von A mit 0...1 . fur alle t 2 0. 1] ist f 7! g(t) = t (t) ein Inverses zu A Id. A 0 ::: n Dann ist A Id der Operator der Multiplikation mit der Matrix 1 0 ::: 0 1 B . gehort zum Spektrum von A.Fakt 1: Eigenwerte gehoren zum Spektrum. A 0 ::: n Beispiele: deren Determinante ( 1 ) : : : ( n ) ist. O enbar ist Mat B. pruft man leicht.. @ . 2 Bemerkung: Die Menge aller Eigenwerte nennt man auch das Eigenwertspektrum. 3. Dann gilt: Af = f . Dann sind folgende Aussagen aquivalent: 1. 1]) = fstetige Funktionen f : 0. Sei A : K n ! K n der Operator der Multiplikation mit der Matrix 0 ::: 0 1 B . . (2) .

A y ist durch diese Eigenschaft eindeutig bestimmt. Dann gilt hx. denn fur alle A gilt A = A: hA x. Wenn A und B selbstadjungiert sind.B. y 2 H. Es gilt: (A A) = A A = A A. aber die Multiplikation eines normalen Endomorphismus mit einer komplexen Zahl ist normal. sonst x 7! x=kxk.Sei H ein endlichdimensionaler Hilbertraum. j gilt. 2 Fakt 3: Sei A selbstadjungiert. B yi = hx. ebenso sind es AA . Wir nennen A normal. xi = hx. Seien 6= # reell. y 2 H#(A). 4. Dann gilt: Mat B. da aij reell ist.. B yi fur alle x. Weiterhin gilt h(AB)(x). Dann sind alle Eigenwerte von A reell. xi = . 2. Fakt 1: Es gelten folgende Regeln: 1. yi = hy.1 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines endlichdimensionalen Hilbertraums Folgerungen: 1. Beweis: Sei 2 C ein Eigenwert. x 2 H (A).7. yi = hBx. yi = hBx.j alle i. wobei (aij )n =1 = (aij )n =1 . normal. also ist AB genau dann selbstadjungiert. Fakt 2: Sei B eine Orthonormalbasis von H. A xi = hAy. Axi = hx.B (A) ist. y 2 H. Also ist reell. A+A und i(A A ). A = A. Wir nennen A selbstadjungiert. yi = hA(B(x)). xi = hx. Fur i. Beweis: (1) und (2) sind einfach.. h Bx. yi ein lineares Funktional auf H. d. yi = hx. Die Summe zweier kommutierender normaler Endomorphismen ist normal. (AB) = B A . so gilt (AB) = B A = BA. Dann gilt: = h x. xi = hx. yi = 93 . Fur alle y 2 H ist die Abbildung H 3 x 7! hAx.j A = (aij )n =1 gilt A = (aji )n =1. De nition 1: Wir nennen A den zu A adjungierten Endomorphismus. also folgt (3). xi = hAx. wenn AB = BA gilt.j i.. Also ist A A selbstadjungiert. z.B (A ) = Mat B. wenn A und B kommutieren. falls aij = aji fur i. Also ist A genau dann selbstadjungiert.h. und die Abbildung y 7! A y ist linear.2 gibt es also einen Vektor A y 2 H mit der Eigenschaft hAx. 2 6.j i.h. (A + B) = A + B . Ayi. d. und die Eigenraume zu verschiedenen Eigenwerten sind zueinander orthogonal. Dann gibt es ein x 2 H f0g mit Ax = x. A yi = hx. 3. 3. ( B) = B fur 2 C. Die normalen Endomorphismen bilden keinen Unterraum im Raum aller Endomorphismen von H. Nach Satz 5. Beweis: Einfaches Nachrechnen.7. 2. falls A und A kommutieren. B A yi fur alle x. wenn es Mat B. Bemerkung: In Fakt 5. yi = hx. und A ein Endomorphismus von H. A yi fur alle x 2 H.B (A) : Insbesondere ist A genau dann selbstadjungiert bzw. falls AA = A A gilt. was fur i = j impliziert. also ( B) = B . (4) wird weiter unten bewiesen. Die selbstadjungierten Operatoren bilden einen reellen Unterraum im Raum aller Endomorphismen von H. Wir konnen kxk = 1 annehmen. falls A = A ist.1 hatten wir A = AT de niert.

zu zeigen. die Aussage uber zeigt man genauso. xi reell. Also ist hAx. Sei H 0 das orthogonale Komplement von Cx in H und sei y0 die orthogonale Projektion von Ax auf H 0. sei (b1 . x(t)i an der Stelle t = 0 ihr globales Maximum an. Da die Funktion hAx. yi. 6 Also hat f an der Stelle t = 0 kein lokales Extremum. Es gilt 1 f(t) = 1+t2 (hAx. Axi = hAx. Fur x = i=1 xibi mit kxk2 = i=1 jxi j2 = 1 gilt hAx. die aus Eigenvektoren besteht. da es Vektoren x 2 K mit kxk = 1 und hAx. es existiert eine Orthonormalbasis (bP:n: :. : : :. Dann leistet (b1 . wenn fur alle x 2 H hAx. Wir wissen. und die Schranke 1 wird tatsachlich angenommen. Also kann f(0) nicht das Maximum aller f(t) sein. xi = gibt. erhalten wir ein zu+ty orthogonales normiertes y. Dann gilt hAx. und die Induktionsannahme impliziert die Existenz einer Orthonormalbasis (bk+1. n X j =1 xj bj i = n X i=1 i jxij2 = 1 n X i=1 jx i j2 n X i=1 ( 1 i )jxij2 1. Sei = + . Dann gilt Ax y0 2 Cx. da 6= # folgt hx. A xi = hx. kann man das wie folgt tun: sei ein Eigenwert. Die (etwas schwierigere) Ruckrichtung ist Ubungsaufgabe. yi = hx. 2 Bemerkungen: 94 . xi j x 2 H ^ kxk = 1g: Dann sind + und Eigenwerte. gilt also y0 6= 0. Angenommen. Sei x(t) = p1+t2 . bn) von H 0 . xi auf der kompakten Menge fx 2 H j kxk = 1g stetig ist und reelle Werte annimmt. xi reell ist. da maxfhAx. Lemma 1: Ein Endomorphismus eines endlichdimensionalen Hilbertraumes H ist genau dann selbstadjungiert. Beweis: Sei A selbstadjungiert. Die Ableitung an der Stelle 0 ist gerade f 0 (0) = hAx. Solche Vektoren sind Eigenvektoren zu 1 . Satz 1: Sei A selbstadjungiert. Indem wir y = y0 =ky0 k setzen. ist ein Eigenvektor. yi + thx.hAx. xi j x 2 H ^ kxk = 1g und = minfhAx. und jedes x mit kxk = 1. wobei 1. Es genugt. existiert das Maximum auf dieser Menge. zu versuchen. #yi = #hx. yi = 0. so ist der dazugehorige Eigenwert. Man zeigt dann leicht. bk) eine Orthonormalbasis des entsprechenden Eigenraumes H (A) und sei H 0 das orthogonale Komplement dieses Eigenraumes. xi j kxk = 1g ein Eigenwert ist (naturlich ohne die Existenz einer Orthonormalbasis aus Eigenvektoren vorauszusetzen). Beweis: Es genugt. P 1 ::: n . Wenn x ein Eigenvektor ist. Motivation fur die nachfolgende Konstruktion von Eigenwerten: Angenommen. y0 i = hy0 . fur die xi = 0 fur alle i mit i < 1 gilt. weil x kein Eigenvektor ist. Dann gilt kx(t)k = 1 fur alle t 2 IR. 2 Es liegt daher nahe. insbesondere ist t = 0 auch ein lokales Maximum fur diese Funktion. an dem diese Extrema angenommen werden. und seien + = maxfhAx. bn) von H. Also nimmt die Funktion f(t) = hAx(t). die aus Eigenvektoren von A besteht. Ayi). y0 i > 0. namlich von allen x. xi = hx. yi + hx. yi = 0. : : :. xi. da jedes x mit dieser Eigenschaft ein Eigenvektor zu ist. Es gilt hAx. Es liegt also nahe. da AjH 0 ein selbstadjungierter Endomorphismus von H 0 ist. yi + thAx. eine Orthonormalbasis von H zu konstruieren. xi + t2 hAy. die Aussage uber + zu beweisen. yi reell und von Null verschieden ist. so da n (bi ) Eigenvektor zum Eigenwert ist. also ist f in Abhangigkeit von t stetig di erenzierbar. x x so da hAx. x ware kein Eigenvektor. Ayi = hx. Wenn jedes selbstadjungierte A Eigenwerte hat. Ayi = 2hAx. Widerspruch. xi = h n X i=1 i xibi . zu zeigen. : : :. bn) das Gewunschte.

2 gibt es fur alle y 2 H genau ein Ay 2 H mit hx. Weil eine Hermitesche Form ist. Dann gibt es eine Orthonormalbasis von H. Sei die Behauptung fur Hilbertraume kleinerer Dimension als H bewiesen. also ist es nach Lemma 2 auch H 0. y). xi = hy. Lemma 2: Sei A selbstadjungiert. Sei H 0 = H + (A)? . Wir haben damit gezeigt. Beweis: Nach Satz 5. O enbar gilt hAx. da A einen Eigenwert hat. Sei nun y 2 X ? . Dann gilt fur alle x 2 X hAy. Also ist AjH 0 ein selbstadjungierter Endomorphismus von H 0 . Es gilt: f0 H 0 (AjH 0 ) = H (A) \ H 0 = H g(A) fur = + . fur 6= + Die Induktionsannahme zeigt also H0 = Nach Satz 5. Also ist Ay 2 X 2 Theorem 1: Fur jeden selbstadjungierten Endomorphismus A eines endlichdimensionalen Hilbertraumes H gilt die orthogonale direkte Summenzerlegung in die Eigenraume von A A= M 2IR H (A): Beweis: Induktion nach dim(H) beginnend mit dem trivialen Fall dim(H) = 0. 2.7. falls x ein normierter Eigenvektor zu dem Eigenwert ist.3 gilt H = H + (A) H + (A)? = H + (A) H 0 = H + (A) M 2IR. welche aus Eigenvektoren zu A besteht (Wahle eine Orthonormalbasis fur jedes H (A)). 2 95 . xi = 0g. Axi = 0. Folgerung 1: Sei eine Hermitesche Form auf H. Wir haben dann bewiesen. auf den die Induktionsannahme angewendet werden kann. xi = . in der die Matrixdarstellung von eine Diagonalmatrix ist (Hauptachsenbasis. Ayi = (x. da es. Dann ist das orthogonale Komplement A eines A-invarianten Unterraumes A-invariant. denn Ax 2 X. Man kann dim(H (A)) als die Vielfachheit des Eigenwertes betrachten. Nach Fakt 6. Beweis: Sei X H A-invariant. 6= + H (A): M 2IR.7. da jeder selbstadjungierte Endomorphismus eines von 0 verschiedenen Hilbertraumes H einen Eigenwert hat (falls H 6= f0g). Es gilt X ? = fy 2 H j 8 x 2 X : hy. ist A linear und selbstadjungiert. ?. gezahlt nach Vielfachheit. Hauptachsentransformation). Sei H 6= f0g. Wende die Bemerkung nach Theorem 1 auf A an.1. = 6 + H (A) = M 2IR H (A): 2 Bemerkung: Insbesondere hat H eine Orthonormalbasis.3 aus der Einleitung ist H (A) A-invariant. genau dim(H) Eigenwerte gibt. P Es gilt dim(H) = 2IR dim(H (A)). Laut Bemerkung 1 folgt aus Satz 1.

Lemma 3: Wenn B mit A1. n (A1 .:::. n 1 )2I n 1 R n 1 (A1 . d. Also ist V i (Ai ) B-invariant.:::. so ist V 1. (A1 . Bemerkung: V 1 . n (A1 .:::. An kommutieren also paarweise. Wenn die Ai selbstadjungierte Endomorphismen eines endlichdimensionalen Hilbertraumes sind. n 2 K der gemeinsame Eigenraum von (A1 . also T ist V 1 . : : :. 2 Die De nition und das Lemma beziehen sich auf beliebige Vektorraume uber beliebigen Korpern. Theorem 2: Seien A1 .:::. Der Fall n = 1 ist gerade Theorem 1. De nition 2: Seien A1. : : :. Gibt es eine Basis B von V . : : :. : : :. An) kann man auch fur nicht paarweise kommutierende Ai in dieser Form de nieren (allerdings wenig sinnvoll).:::. Theorem 1 ergibt folglich M 0 M M H0 = H (An jH 0 ) = (H 0 \ H (An )) = (H 1 . : : :.h. An 1): H= Nach Lemma 3 ist H 0 = H 1. also Bv 2 V i (Ai). Dann gilt M H 1. An) zu ( 1 .:::. An 1) 96 . n 1. fur die Mat B (Ai ) eine Diagonalmatrix ist. n (Ai . Sei die Aussage fur n 1 Operatoren bewiesen. An paarweise kommutierende selbstadjungierte Endomorphismen von H. Ai und Aj kommutieren. : : :. An) = n \ i=1 V i (Ai ) = fv 2 V j Ai (v) = i v.:::. n 1 (A1. : : :. 1 i ng 1 . : : :.:::.:::. An paarweise kommutierende Endomorphismen eines beliebigen Vektorraumes V .:::. n 1 (A1 . An 1) An -invariant. : : :. Dann gilt Ai Bv = BAi v = B( i v) = i Bv.:::. : : :. deren Elemente fur alle Ai Eigenvektoren sind. ist diese Bedingung auch hinreichend. Dann sei V 1 . : : :.:::. An): Beweis durch Induktion nach n. K = C. An Endomorphismen von V . : : :. Die Einschrankung von An auf den An -invarianten Unterraum H 0 ist ein selbstadjungierter Endomorphismus von H 0 . An) B-invariant. n 1 )2I n 1 R H 1. also AiAj = Aj Ai. die A1 . : : :. An kommutiert. impliziert die Existenz einer solchen Basis Mat B (Ai Aj ) = Mat B (Ai )Mat B (Aj ) = Mat B (Aj )Mat B (Ai ) = Mat B (Aj Ai ). Weil die Multiplikation von Diagonalmatrizen kommutativ ist. : : :. : : :. : : :. n (A1. 2IR 2IR M ( 1.nDer Durchschnitt B-invarianter Unterraume ist B-invariant.Verallgemeinerung: Sei V ein beliebiger endlichdimensionaler Vektorraum uber einem beliebigen Korper K und seien A1 . Dann gilt die orthogonale direkte Summenzerlegung H= M ( 1 .:::. Mit anderen Worten. Beweis: Sei v 2 V i (Ai ). : : :. : : :. An): H 1 . n (A1 . Sei nun H ein endlichdimensionaler Hilbertraum. An 1) \ H (An )) = Also H = 2IR M 2IR ( 1 . n ). n 1 (A1 . An) = i=1 V i (Ai ) B-invariant. n)2I n R H 1.

Nach Theorem 2 gilt 2 H= Behauptung: H 1. Wir mussen zeigen. n (A1 . (A1jH 0 . Zum Beweis 2C M ( 1 .:::. Dann gilt die orthogonale direkte Summenzerlegung M H = H (A): benotigen wir Fakt: Wenn A und B kommutieren. n )2I n R H 1 . 2)2I 2 R H 1. In der Tat. A2 jH 0 ) = H 0 \ H . A2jH 0 ): Aber fur ( . n (A1 . A2) = H R ( 1. An)) = M ( 1 . wenn hUx. Dann gilt Av = A + A v + i A 2iA v = 1 v + i 2 v = ( 1 + i 2 )v: 2 Damit H 1 . ist H 0 invariant unter A1 und A2 (Lemma 3). so kommutieren auch A+ B und A+ B fur . also M H0 = H . wenn A und A miteinander kommutieren. : : :. 2 (A1 . U ist unitar genau dann. . A2). A2): () 1+i 2 (A). denn es gilt folgender Fakt: Wenn A ein beliebiger Endomorphismus eines beliebigen K-Vektorraumes V ist. wenn x zu dem Durchschnitt gehort.:::. Fakt 4: Fur einen Endomorphismus U eines endlichdimensionalen Hilbertraumes H sind folgende Aussagen aquivalent: 1. (A1 jH 0 . . so gilt x = Ax = #x. A2) H 0 \ H +i (A) = H 1+i 2 (A) \ H +i (A) = f0g. 2I 2 R H 0 . 2 Fur einen normalen Operator A kommutieren also die beiden selbstadjungierten Endomorphis1 men von H A1 = 1 (A + A ) und A2 = 2i (A A ). ) 6= ( 1 . 2 (A1 . 2Wir wollen Folgerung 2 auf unitare Endomorphismen von H anwenden. : : :. 2) gilt . A2) H 1+i 2 (A). 2 (A1 . yi fur alle x.:::. so ergibt ( ) H= M = 1 +i 2 2C H (A): Beweis der Behauptung: Sei v 2 H 1 . An): Beweis: A ist genau dann normal. (A1 . U ist unitar. 2 K = C.:::. da Gleichheit eintritt. Sei H 0 = H 1+i 2 (A). 2 Damit ist Folgerung 2 bewiesen. so gilt fur 6= # V (A) \ V# (A) = f0g. also ( )x = 0. Uyi = hx. 97 . Weil A1 und A2 mit A kommutieren. y 2 H gilt.= M 2 Folgerung 2: Sie A ein normaler Endomorphismus von H. n 1 )2I n 1 n 2I R ( M H 1. Wenn diese Behauptung bewiesen ist. also x = 0. 2 (A1 .

n ) mit j ij = 1.h. yi = hx. 4.. Sei H (U) 6= f0g. An): Wenn dabei Ai unitar ist. 2 Wegen der Aquivalenz von (1). 6 Beweis: Dies folgt aus Lemma 3 und Folgerung 2 in derselben Weise wie Theorem 2 aus Theorem 1 und Lemma 3 folgt.:::. Man verlangt dann von unitaren Operatoren explizit. yi = hUx. y 2 H : hx. : : :. also j j = 1. Beweis: Sei p der Orthogonalprojektor auf den Unterraum X H. bi = ha + a. Dann ist p genau dann ein Orthogonalprojektor auf einem Unterraum von H. Fakt 5: Sei p ein Endomorphismus eines endlichdimensionalen Hilbertraumes H. wenn p2 = p und p = p gilt. wenn es ein Linksinverses zu U ist. Wir konnen also Folgerung 2 auf den unitaren Endomorphismus U anwenden. 3. b + ~i ~2= ha. yi + iRe hx. (3) und (4) ist jeder unitare Endomorphismus normal. 8 y 2 H : U Uy = y . : : :. 8 x. Wir erhalten Folgerung 3: Fur unitares U gilt die direkte orthogonale Summenzerlegung H= M 2C.j j=1 H (U): 2 Folgerung 4: Seien A1 . kUxk = kxk fur alle x 2 H. wenn p ein selbstadjungiertes Idempotent ist. Fur a. Uyi + iRe hUx. yi = kx + yk2 kxk2 kyk2 = kUx + Uyk2 kUxk2 kUyk2 = 2Re hUx. Insbesondere ist jeder unitare Endomorphismus normal. Uyi: (1) . yi = Re hx. da sie invertierbar sind. Uyi: Es folgt hx. d. a. (3): (1) . p(b + ~)i ~ b a)=0 b bX ~ b und p2(a + a) = p(p(a + a)) = p(a) = a: ~ ~ 98 ? . iyi = Re hUx. n)2Cn H 1. Dann gilt kvk = kUvk = k vk = j jkvk. U U = Id. Dann gilt 2Re hx. so verschwinden die Summanden zu ( 1 . : : :. n (A1. v 2 H (U) f0g. Uyi . y 2 H : hx. Es gilt H = X X ?.:::. b + ~i p(~= ha. (4): Weil H endlichdimensional ist.2. Warnung: Fur unendlichdimensionale Hilbertraume sind (3) und (4) nicht aquivalent. An paarweise kommutierende normale Endomorphismen von H. Dann gilt die orthogonale direkte Summenzerlegung H= M ( 1 . U Uyi . b 2 X. Beweis: (1) ) (2) ist klar. 8 x. ist U genau dann ein Rechtsinverses zu U. UU = Id. ~ 2 X ? gilt ~b hp(a + a). (2) ) (1): Sei kUxk = kxk fur alle x 2 H. iUyi = hUx. (3): (3) .

5. Cn frei zu wahlen sind. dann hx. also hx. b 2 X und a. Fur jeden Endomorphismus A sind A + A . 8 x 2 X : hy. yi = hx. A ist selbstadjungiert. insbesondere ist A genau dann selbstadjungiert. wenn die beiden Faktoren kommutieren. : : :. p(z)i = 0 . die aus Eigenvektoren fur A besteht. 6. Dann ist die allgemeine Losung von ( ) durch v(t) = i=1 Cie i t ei gegeben. 8 z 2 H : hy.1. yi. ( A) = A . Also ( #)hx. Dann X ? = Y . yi = h x. 2. AA und A A selbstadjungiert.1. yi = hx. Fakt 2: (A + B) = A + B .h. Eigentlich wird die Spektraltheorie erst im unendlichdimensionalen Fall richtig interessant. wenn Mat B (A) symmetrisch entlang der Hauptdiagonale ist. Beweis: Analog zum Beweis derselben Folgerungen im vorherigen Kapitel. (AB) = B A .. A = A. falls A = A gilt. A ist normal. Aei = Pn i ei . : : :. Fakt 1: p ist genau dann Orthogonalprojektor auf einem Unterraum U V . De nition 1: Fur einen Endomorphismus A : V ! V sei A der durch die Gleichung hAx. 99 . Wir betrachten die V -wertige Di erentialgleichung dv = Av. Sei umgekehrt p2 = p und p = p . y 2 H als x = a + a und y = b + ~ mit a. A yi eindeutig bestimmte Endomorphismus von V .3: Sei x 2 V (A) = fx 2 V j Ax = xg und y 2 V# (A) fur 6= #. 8 z 2 H : hp(y). Fur y 2 X ? = Y = ker(p) gilt p(y) = 0. yi = 0. Sei X = Bild(p) und Y = ker(p). ~ 2 X ? dargestellt werden ~ b ~b konnen.oder C-Vektorraum und sei A 2 End(V ).. K = IR. Ayi = hx. Dann gilt Mat B (A ) = Mat B (A)T . xi = 0 . d. z i = 0 . Beweis: Wie Fakt 6. Beweis: Analog zu Fakt 6. Beweis: Analog zum Beweis im vorherigen Kapitel. yi = 0. falls A und A kommutieren. i das Skalarprodukt auf V . Sei V ein endlichdimensionaler IR. #yi = #hx.Weil alle x. p(y) = 0. Es gilt also H = X +Y = X +X ? . v : IR ! V: () dt Angenommen. Fakt 4: Dann sind die Eigenraume von A zu verschiedenen Eigenwerten zueinander orthogonal. 2 Bemerkung 2: 1. Fakt 3: Sei B eine Orthonormalbasis von V . yi = hAx. h . Folgerung: Die selbstadjungierten Endomorphismen von V bilden also einen Unterraum im Raum aller Endomorphismen von V . dann gilt x = p(z) fur ein z 2 H. Das Produkt zweier selbstadjungierter Endomorphismen ist genau dann selbstadjungiert. zeigt dies. wobei C1 .2 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines Euklidischen Vektorraumes Sei V ein Euklidischer Vektorraum..1. Also ist p Orthogonalprojektor auf X. Beweis: Analog zu Fakt 6. Sei von nun an A selbstadjungiert. Also gilt p(x) = p(p(z)) = p(z) = x. denn y 2 X ? . Sei x 2 X.1. en). wenn AA = A A gilt. V hat eine Basis (e1 . wenn p = p und p2 = p gilt. da p = p und p2 = p gelten.

2 Wir mochten zeigen, da eine Orthonormalbasis von V existiert, die aus Eigenvektoren von A besteht. Wir gehen wie im komplexen Fall vor. Satz 1: Sei S = fx 2 V j kxk = 1g. Die Funktion x 7! hAx; xi ist auf der kompakten Menge S stetig und nimmt daher auf S ein Maximum und ein Minimum an. Diese Extremwerte sind Eigenwerte von A, die Argumente, an denen sie angenommen werden, sind Eigenvektoren von A. Beweis: Wie Satz 6.1.1. Bemerkung 1: O enbar sind auch alle normierten Eigenvektoren von A zu den Eigenwerten = minfhAx; xi j x 2 V ^ kxk = 1g Extrema der in + = maxfhAx; xi j x 2 V ^ kxk = 1g, Satz 1 betrachteten Funktion. Lemma 1: Sei A selbstadjungiert. Dann ist das orthogonale Komplement eines A-invarianten Unterraumes A-invariant. Beweis: Wie Lemma 6.1.2. Theorem 3: Sei A ein selbstadjungierter Endomorphismus eines Euklidischen Vektorraumes V . Dann gilt die orthogonale Summenzerlegung
V=

M

2IR

V (A):

Insbesondere hat V eine Orthonormalbasis, die aus Eigenvektoren von A besteht. Beweis: Wie Theorem 1 im letzten Kapitel. Folgerung 1: (Hauptachsentransformation fur symmetrische Bilinearformen) Sei eine symmetrische Bilinearform auf einem Euklidischen Vektorraum V . Dann hat V eine Orthonormalbasis B, so da Mat B ( ) eine Diagonalmatrix ist. Beweis: Es gibt einen selbstadjungierten Endomorphismus A von V mit (x; y) = hAx; yi, das folgt aus Satz 5.6.2. Anwendung von Theorem 3 auf A ergibt den Beweis. 2 Bemerkung: Sei (x; y) eine symmetrische Bilinearform auf IR2, die in der Standardbasis Diagonalgestalt hat. Dann ((x1 ; x2); (y1 ; y2)) = ax1y1 + bx2y2 . Wir nehmen weiterhin an, da positiv de nit ist, also a; b > 0, und a < b. Dann ist E = fx 2 IR2 j (x; x) = 1g eine Ellipse mit der x-Achse als Hauptachse und der y-Achse als Nebenachse. Fur positiv de nites auf V ist fx 2 V j (x; x) = 1g ein Ellipsoid, eine Basis mit der in Folgerung 1 beschriebenen Eigenschaft liefert die Haupt- und Nebenachsen fur dieses Ellipsoid. Falls dim(V ) = 2 und nicht ausgeartet, aber inde nit ist, so ist fx 2 V j (x; x) = 1g eine Hyperbel. Theorem 4: Seien A1 ; : : :; An paarweise kommutierende selbstadjungierte Endomorphismen eines Euklidischen Vektorraumes V . Dann gilt die orthogonale Summenzerlegung V=

M

( 1 ;:::; n )2I n R

V 1 ;:::; n (A1 ; : : :; An):

Insbesondere hat V eine Orthonormalbasis, in der alle Ai Diagonalgestalt haben. Beweis: Dies leitet man mit Hilfe von Lemma 6.2.1 aus Theorem 3 in derselben Weise her, wie Theorem 2 aus Theorem 1.

100

wir

De nition 2: Sei A ein normaler Endomorphismus von V . Fur r > 0 und 0 < ' < setzen Vr;' (A) = fx 2 V j AA x = r2x ^ (A + A )x = 2r cos ' xg: Theorem 5: Sei A ein normaler Endomorphismus eines Euklidischen Vektorraumes V .
1. Es gilt die orthogonale direkte Summenzerlegung V=

M

2IR

V (A)

M

r>0;0<'<

Vr;' (A):

2. Fur r > 0 und 0 < ' < hat Vr;' (A) eine Orthonormalbasis B = (e1 ; : : :; ek ; f1; : : :; fk ) mit Aei = r cos 'ei + r sin 'fi , Afi = r cos 'fi r sin 'ei fur 1 i k. Mit anderen Worten, '1 sin '1 Mat B (AjVr;' ) = r cos '11k rrcos '11k : r sin 1 1
k k

Insbesondere ist die Dimension von Vr;' (A) gerade. A ) angewendet. Eine analoge Anwendung von Theorem 4 ist hier nicht moglich, denn der zweite dieser Ausdrucke macht keinen Sinn mehr. Statt dessen wenden wir Theorem 4 auf die kommutierenden selbstadjungierten Endomorphismen A + A und AA an. Wir erhalten V=

Beweis: Beim Beweis von Folgerung 6.1.2 hatten wir Theorem 2 auf 1 (A + A ) und 21i (A 2

M

(r;s)2I 2 R

Vr;s (AA ; A + A )

(orthogonal) :

()

Lemma 2:

3. Sei jsj < 2 t, also s = 2 t cos ' fur ein eindeutig bestimmtes 0 < ' < . Dann gilt Vt;s (AA ; A + A ) = Vpt;' (A). O enbar beweist das Lemma den ersten Punkt des Theorems, denn es identi ziert ( ) mit der zu beweisenden Orthogonalzerlegung. Beweis von Lemma 2: Wir benutzen eine Halfte von Lemma 3: Ein Endomorphismus eines Euklidischen Vektorraumes V ist genau dann normal, wenn fur alle x 2 V gilt kAxk = kA xk. Bemerkung: Dies gilt auch fur endlichdimensionale Hilbertraume. p p p Beweis von Lemma 3: Sei A normal. Dann ist kAxk = hAx; Axi = hA Ax; xi = hA x; A xi = kA xk. Die andere Richtung ist Ubungsaufgabe. 2 Beweis von Lemma 2: Zu (1): Sei x 2 Vt;s(AA ; A + A ) f0g. Wir setzen o.B.d.A. kxk = 1 voraus. Es gilt: kA xk2 = hA x; A xi = hx; AA xi = hx; txi = thx; xi = t. Also gilt t 0 und p kA xk = t. Nach Lemma 3 gilt kAxk = kA xk. Es gilt jsj = k(A + A )xk kAxk + kA xk = p 2 t. Damit ist (1) bewiesen. Gleichheit tritt in der letzten Zeile nur dann ein, wenn Gleichheit in der Dreiecksungleichung eintritt, also wenn einer der Vektoren Ax und A x ein nicht negatives 101

1. Wenn Vt;s(AA ; A + A ) 6= f0g gilt, so gilt 0 ( s )2 t. Mit anderen Worten, t 0 und 2 p jsj 2 t. s s 2. V( 2 )2 ;s(AA ; A + A ) = V 2 (A).

p

p

Vielfaches des anderen ist. Wegen kAxk = kA xk ist das der Fall genau dann, wenn Ax = A x. s Dann gilt 2Ax = (A + A )x = sx, und x 2 V 2 (A), womit " " in (2) bewiesen ist. (3) lauft auf eine einfache Anwendung von De nition 2 hinaus: Vr;' (A) = fx 2 V j AA x = r2 x; (A +A )x = 2r cos 'xg = Vr2 ;2r cos ' (AA ; A + A ). " " von (2): Es gilt nach (1), (3) und ( ) V=

M

s2I R

s V( 2 )2 ;s(AA ; A + A )

M
r>0

Vr;' (A):

0<'<

Weil A und A kommutieren, ist diese Zerlegung A-invariant. Daraus folgt fur 2 IR leicht: V (A) =

M

s2I R

s V (A) \ V( 2 )2 ;s(AA ; A + A )

fur s=2 M V = V 2 ;2 (AA ; A + A ) | (A) \ Vr;' (A) {z } = V 2 ;2 (AA ; A + A ) Es verbleibt der Beweis der versprochenen Behauptung V (A) \ Vr;' (A) = 0 fur 0 < ' < und r > 0. Andernfalls sei x ein von 0 verschiedener Vektor dieses Durchschnitts, wobei wir p p kx = phkAA 1x;voraussetzen durfen. Dann jgilt= r.= k gilt = =Axk = i =hAx; A xi= hAAx;Ax;. xi = pr2hx; xi = r. Also j j j Es xk k hAx; x hx; Axi = h xi Also xi = gilt 2 = h(A + A )x; xi = 2r cos '. Dies kann fur 0 < ' < und r = j j = 0 nicht der Fall 6 sein. Dieser Widerspruch beweist die versprochene Behauptung V (A) \ Vr;' (A) = f0g und der 2 Beweis von (2) ist vollstandig. Beweis von Theorem 5.2: Der Beweis erfolgt durch eine Kette von Lemmata. Lemma 4: Fur einen Endomorphismus U eines Euklidischen Vektorraumes V sind folgende Aussagen aquivalent: 1. U ist orthogonal; 2. kUxk = kxk fur alle x 2 V ; 3. UU = IdV ; 4. U U = IdV . Insbesondere sind alle U 2 O(V; h ; i) normal. Beweis: wie Fakt 6.1.4. Lemma 5: Sei V ein Euklidischer Vektorraum mit dimV 6= 0 und A ein normaler Endomorphismus von V , so da V = Vr;' (A) fur ein r > 0 und 0 < ' < gilt. 1. Dann ist jedes Element von v in einem zweidimensionalen A-invarianten Unterraum enthalten. 2. U = A=r 2 O(V ). Insbesondere gilt hAx; Ayi = 0 falls hx; yi = 0. 3. Das orthogonale Komplement eines A-invarianten Unterraumes ist A-invariant. 4. V hat eine orthogonale Zerlegung in zweidimensionale A-invariante Unterraume. 102
0<'<
r>0

|

|

6=f0g nur

{z

V s (A) 2

{z

} }

M
r>0

V (A) \ Vr;' (A)

0<'<

=f0g

xi. U yi = hx. Dann r sin hat die Orthonormalbasis (e1 . Sei die Behauptung fur Vektorraume kleinerer Dimension als V bewiesen. Nach der Induktionsvoraussetzung ist W ? die orthogonale direkte Summe von zweidimensionalen A-invarianten Unterraumen. also r cos '. ware x ein Eigenvektor von A. Es gilt A2 = A(A + A ) AA = 2r cos 'A r2IdV . U ein orthogonaler Endomorphismus von V .' (A))C ist die Komplexi zierung der Einschrankung von A ein normaler Endomorphismus mit den Eigenwerten re i' . e1i = h 2 (A + A )e1 . A e1 i = hA e1 . : : :. Dann Ae1 = ae1 + ce2 . Axi = hx. Dann gilt V = ? W W ? . im Widerspruch zu der schon bewiesenen Summenzerlegung aus Theorem 5. Aber A kann in V keine Eigenvektoren haben. b Beweis: Sei B = (e1. also a = hAe1 . also ist U jW ein orthogonaler Automorphismus von W. Nach Lemma 4 ist U orthogonal. denn wenn er eindimensional ware. in der AjWi die Matrixdarstellung r cos ' rrcos ' hat. f1. Es gilt kAxk2 = hAx. also ware A selbstadjungiert. e1 i = hr cos ' e1 . (2): Nach Lemma 5 zerfallt Vr. fk ) von Vr. ek .1. e1i = he1 . Falls der zweite Fall eintreten sollte. und ~ ~ hUx. yi = 0. 2 Beweis von Theorem 5. e1i = 2 = kAe1k2 = a2 + c2 = r2 cos2 ' + c2. so ware Mat B (A) symmetrisch.' (A) = k=1 Wi zweidimensionaler A-invarianter Unterraume. Damit tritt einer der beiden behaupteten Falle ein. Beweis durch Induktion nach dim(V ). Sei W V A-invariant. dann gibt es ein y 2 W mit y = U y . e2) und sei Mat B (A) = a d . Nach Lemma 6 hat Wi eine i ' sin ' Orthonormalbasis (ei . Es gilt c 1 hAe1 . Sei x 2 W ? . Es gilt M V1. Also ist fur alle x 2 V der Unterraum L(fx. 1. 3. Also c = d.'(A) in eine orthogonale direkte Summe L Vr. Wenn b = c ware. Nach (3) ist W ? A-invariant und man sieht leicht W ? = Wr. Ebenso zeigt man d = r cos '. Es gilt r c = r sin '. Also ist W ? U-invariant und damit auch A-invariant. Fur x 6= 0 ist dieser Unterraum zweidimensional. so vertauschen wir e1 und e2 und erhalten auf diese Weise eine Orthonormalbasis von V . ~ ~ 4. fi ).'(U): V = V1 (U) V 1 (U) 0<'< Beweis: 103 . 2 Bemerkung: Auf (Vr. also kUxk = kxk. yi = hUx. y 2 W. (1)).' (AjW ? ). da der erste dieser Falle eintritt. auf die der erste Fall zutri t. 2. so gilt ' sin ' r sin Mat B (A) = r cos ' rrcos ' oder Mat B (A) = rrcos ' r cos ' : r sin sin ' ' Dabei kann B stets so gewahlt werden. A Axi = r2 hx. 2 Lemma 6: Unter den Voraussetzungen von Lemma 5 sei zusatzlich V zweidimensional. W V ein zweidimensionaler A-invarianter Unterraum mit x 2 W (vgl.' die geforderte Eigenschaft. Sei x 2 V f0g. Axg) A-invariant. Folgerung 2: Sei V ein Euklidischer Vektorraum. Ebenso zeigt man b = r sin '. : : :. also kAxk = rkxk. dann ist W auch U-invariant. Wenn B eine Orthonormalbasis von V ist. beginnend mit dem trivialen Fall dim(V ) = 0. e1 i.

Beweis: folgt aus Lemma 6.'(U ) ) | {z } =1. den Drehwinkel von U.h. 3. so da V = V1 (U) V1. ek . k. A 0 = det(A) det(B).2. Wegen kUxk = kxk. Au osung nach der ersten Zeile.h. h . 2. hat U einen Eigenwert. Die Behauptung folgt nun aus Theorem 5.' (U )=f0g cos ' sin ' dim(V1. V 1 (U) hat gerade Dimension. 4. f1 . i) fIdV g. l. Fakt: Sei A ein Endomorphismus eines endlichdimensionalen Vektorraumes X. Es folgt det(U) = det(U jV1(U ) ) det(U jV 1 (U )) = 1( 1)dim(V 1 (U )) det(U jV1.' ) = cos '11k cos '1 1k sin 1 1k : Beweis: 3. 2 Folgerung 3: Jedes Element von SO(2) fId g hat bezuglich der Standardbasis des IR2 die Matrixdarstellung r cos ' r sin ' r sin ' r cos ' mit 0 < ' < 2 und ' eindeutig bestimmt. fk ) mit '1 k sin '1 Mat B (U jV1. so ist 1 ein Eigenwert. hat V 1 (U) ungerade Dimension. : : :.' (V ) fur 0 < ' < gerade Dimension hat. A 2 Mat (k. 1. also ist dim(V1 (U)) ungerade und daher ungleich Null. h . V1. Beweis: folgt aus Folgerung 2. Wenn die Dimension von V ungerade ist. B 2 Mat (l. folgt ebenfalls aus Theorem 5. Falls zusatzlich det(U) = 1 gilt. folgt. K). und sei X = Y Z eine direkte Zerlegung von X in A-invariante Unterraume. det(U) = 1). Wenn zusatzlich det(U) = 1 gilt. Dann gilt det(A) = det(AjY ) det(AjZ ). Falls det(U) = 1. Es gilt UU = IdV . d. sind 1 die einzigen Eigenwerte von U.' (U) hat eine Basis B = (e1 . K): 0 B Der Beweis erfolgt durch Induktion nach k.. : : :. also gilt Vr. so hat auch V 1 (U) gerade Dimension (nach (3)). 104 . falls U 2 SO(V. Dann gibt es ein eindeutig bestimmtes ' mit 0 < ' < . Folgerung 4: Sei V ein dreidimensionaler Euklidischer Vektorraum und sei U 2 SO(V.'(U ))=2 = ( 1)dim(V 1 (U )) sin ' cos ' 0<'< Y Y 0<'< 4.' (U) = f0g fur r 6= 1. i) (d. weil V1.' (U). falls V1.

Diese Menge bildet einen KVektorraum mit den Operationen (pi )1 + (qi )1 = (pi + qi)1 . Der Grad eines von Null verschiedenen Polynoms p ist das gro te i mit pi 6= 0. i=0 i=0 i=0 (pi )1 = ( pi )1 : i=0 i=0 Das konstante Polynom ist durch die Folge ( . Q 2 K T ]. falls p(x) = k=0 k (diese p(x) = 0 gilt. De nition 1: Ein Polynom mit Koe zienten aus K ist eine Folge p = (pk)1 . Fakt 1: Seien P. 0. Der Grad des Nullpolynoms sei 1. (P + Q)(x) = P(x) + Q(x). Beweis: Sei PQ = R = (rk )1 . so da pi 2 K k=0 und ein i0 mit pi = 0 fur i > i0 existiert. so gilt insbesondere deg(P + Q) = deg P. deg(PQ) = deg P +deg Q .Sei K ein Korper. k=0 k=0 k=0 k Fur x 2 K und p = (pk )1 2 K T] sei der Funktionswert von p an der Stelle x durch k P1 p xk de niert=0 Summe ist tatsachlich endlich). Dann gilt fur x 2 K 1. in die man auch Elemente von Erweiterungskorpern von K einsetzen kann. In p(T) = deg p pk T k mu k=0 man T als eine Variable au assen. 1 +c = 1 8c 2 IN).j =0 pi qj xi+j = 1 X i=0 ! 0X 1 1 pixi @ qj xj A = P(x)Q(x) j =0 Die zweite Formel ist noch einfacher. Wir bezeichnen den Grad von p mit deg p. falls P oder Q verschwindet. Die dritte Formel ist o enbar richtig. x ist eine Nullstelle. Deshalb konnten wir Polynome nicht einfach als Funktionen von K P nach K de nieren. a = deg P. Wir schreiben p(T ) = i0 X k=0 6. wobei vm = m=0 pk qm k . Bemerkung 1: Wenn K endlich ist.deg(P +Q) maxfdeg P. (PQ)(x) = P(x)Q(x). Falls deg Q < deg P. Dann gilt k=0 R(x) = = 1 X k=0 rk xk = 1 k XX 1 X k=0 i=0 p i qk i xk i. Sei P 6= 0 und Q 6= 0.3 Das charakteristische Polynom pk T k : Sei K T ] die Menge aller Polynome mit Koe zienten aus K. deg Qg ( 1 + 1 = 1. 2. Zum Beispiel gilt x2 + x = 0 fur alle x 2 IF2. Sei R = PQ = (rk )1 . : : :) de niert. denn dann sind beide Seiten 1. Die Multiplikation zweier P Polynome (pk )1 und (qk )1 ist durch die Folge (vk )1 gegeben. b = deg Q. gibt es von Null verschiedene Polynome p 2 K T ] mit p(x) = 0 fur alle x 2 K. Dann gilt k=0 ra+b = a+b X i=0 pi qa+b i: 105 .

Sei K ein endlicher Korper. ~ ~ ~ Beweis der Eindeutigkeit: Angenommen. Dann gilt deg P = q. P 6= 0. fur i < a gilt a+b i > b und es verschwindet der zweite Faktor. va+b = pa qb 6= 0. Induktion nach deg P. Fur das konstante Polynom 1 gilt 1P = P. wenn deg P = 0 oder deg P = 1. Also deg S k=0 maxfdeg P. R durch diese Eigenschaften eindeutig bestimmt. P ist genau dann ein konstantes Polynom. Wenn X 6= X. es gilt namlich k i > a+b i b. seien x1 . +. also deg S = deg P. und in pi qk i verschwindet fur i > a der erste Faktor. : : :. Also deg P < deg P. 4. sein fuhrender Koe zient ist pdeg P q qdegQ deg Q = pdeg P : ~ ~ ~ ~ Also gilt pdeg P = 0. Q 3. Dann gilt aber P = XQ + R mit ~ X(T ) = X(T) + pdeg P T deg P deg Q : qdeg Q Damit ist die Existenz der Division mit Rest bewiesen. Sei S = P + Q = (sk )1 . deg Qg. Also gilt ra+b 6= 0 und ri = 0 fur i > a+b. Also bleibt in der letzten Summe nur ein Summand ubrig. Sei weiterhin deg P deg Q. aber P(x) = k=1 (x xk ) = 0 fur x 2 K. +. Fur k > maxfdeg P. Falls deg Q < deg P gilt sdeg p = pdeg p + qdeg p = pdeg p 6= 0. Es gilt auch das Distributivgesetz P(Q+R) = PQ+PR. Falls X = X folgt sofort R = R. also PQ 6= 0. Man sagt dazu. +) ist eine abelsche Gruppe. P = XQ + R mit X 2 K T]. (K T ]. 2 i=0 Bemerkung: 1. Beweis: Existenz der Division mit Rest. der Grad der rechten Seite dagegen < deg Q. Sei ~ P(T) = P(T) pdeg P T deg P deg Q Q(T): qdeg Q Der Grad des Subtrahenden ist gleich deg P. Q 2 K T] und Q 6= 0. R 2 K T] und deg R < deg Q. deg Qg gilt sk = pk + qk = 0. Nach Induktionsvoraussetzung kann P als P = XQ+R ~ dargestellt werden mit deg R < deg Q. (K T ]. 2. fur i a der zweite Faktor. Insbesondere folgt aus P 6= 0 und Q 6= 0 deg(PQ) = deg P + deg Q 0. +) ist eine abelsche Gruppe. fur das konstante Polynom 0 gilt P + 0 = P und 0P = 0. xq die Qq Elemente von K und sei P(T) = q =1(T k xk ). )). Sei die Existenz der Division mit Rest durch Q fur Polynome kleineren Grades als P bewiesen. also deg R = a+b = deg P +deg Q. ) ein kommutativer Ring mit Einselement ist (ebenso wie (Z. Fur k > a + b gilt k X rk = pi qk i. Widerspruch. XQ+R = P = XQ+ R mit deg R < deg Q und deg R < ~ ~ ~ deg Q. 2 106 Satz 1: (Division mit Rest) Sei P. Fur deg P < deg Q ist P = 0Q + P eine Division mit Rest. Dann kann P mit Rest durch Q geteilt werden. ~ ~ ~ so ware in Q(X X) = R R nach Fakt 1 der Grad der linken Seite deg Q+deg(X X) deg Q.Fur i > a verschwindet in piqa+b i der erste Faktor. denn (K T ]. Polynomaddition und Polynommultiplikation sind kommutativ und assoziativ. Dabei sind X und .

Sei die Behauptung fur Polynome kleineren Grades bewiesen. Wenn P keine Nullstelle hat. wenn die Summe der fuhrenden Koe zienten Null ergibt. Bei der Multiplikation multiplizieren sich die fuhrenden Koe zienten. Dann gilt 0 = k=1 (T xi)vi (Q(T) Q(T )). xj = xj und vj = vj fur i 6= j und vi = vi + 1. Falls x = xi fur ein i. Wir konnen o. Wenn x eine Nullstelle von P ist.Bemerkung: Der fuhrende Koe zient eines von 0 verschiedenen Polynoms P = (pk )1 ist k=0 pdeg P .h. xi = xi. Beweis: Existenz durch Induktion nach deg P. denn x1 ist eine Nullstelle der rechten Seite. Beweis: Sei P(T ) = Qk=1 (T xi)vi Q(T ) wie in Fakt 2. : : :. Falls kein i mit 1 i k und x = xi existiert. Angenommen. xk g = fx 2 K j P(x) = 0g durch P eindeutig bestimmt. d. Also ist fx1. : : :. k. Also P(T) = (T x)P(x). x ist eine Nullstelle von P. Wegen deg R < deg(T x) = 1 ist R konstant. es gabe i ~ ein i mit 1 i k und vi 6= vi . Dann gilt ~ ~ ~ 0 = P(T) P(T ) = (T x1)v1 i=1 (T xi)vi Q(T) "Y k Aber K T ] ist nullteilerfrei. Wegen P(x) = Qk ~ ~ ~ ~ (x x)P(x)+R(x) = R(x) gilt R = 0. Weil Q keine Nullstelle hat. ~ i Folgerung 1: Ein Polynom P 6= 0 n-ten Grades hat hochstens n verschiedene Nullstellen. Auf der anderen Seite sind alle xi Nullstellen von P. sei k = k. denn eine Zerlegung der beschriebenen Art fur P. Fakt 2: Jedes Polynom P 6= 0 kann auf eindeutige Weise als P(T) = k Y dargestellt werden. Der Grad einer Summe zweier Polynome gleichen Grades ist genau dann kleiner als der Grad der Summanden. vi = vi fur 1 i k und xk = x. ~ ~ ~ deg P = deg(T x) + deg P = 1 + deg P. ~ ~ ~ P(T) = k=1 (T xi)vi Q(T ). vk = 1. Man nennt die vi die Vielfachheit der Nullstelle xi. verschwinden.d. nicht aber der linken. 1 i k. xk paarweise verschieden sind. sei k = 0 und Q = P. In beiden Fallen gilt k. Fur deg P = 0 sei k = 0 und Q = P. : : :. wobei Q 2 K T] mit Q(x) 6= 0 fur alle x 2 K und x1. vi 2 IN eindeutig bestimmt. dann ~ + 1. Damit ist der Beweis der Existenz abgeschlossen. Also Q ~ ~ 2 vi = vi fur 1 i k. dann i deg P = k X i=1 i=2 i=2 i=2 (T ~ ~ xi)vi Q(T) (T k ~ Y x1)v1 v1 (T i=2 xi)vi Q(T) # : deg(T xi )vi + deg Q = k X i=1 vi + deg Q k = Anzahl Nullstellen von P in K: 2 Bemerkung: Die Zahl k aus Fakt 2 ist die Anzahl der verschiedenen Nullstellen von P in K. also Q = Q. Wegen (T x1 )v1 6= 0 mu in der letzten Gleichung der Faktor in eckigen Klammern verschwinden: k k Y ~ Y ~ ~ (T xi )vi Q(T) = (T x1)v1 v1 (T xi)vi Q(t): Dies ist nicht moglich. xkg sein. Eine andere Zerlegung der Q ~ ~ beschriebenen Art fur P hat also die Form P(T) = k=1 (T xi)vi Q(T ). ~ sei k = k ~ ~ ~ ~ 1 i Q gilt.A. 107 . i = 1 und v1 < v1 annehmen. das Produkt zweier von 0 verschiedener Polynome ist von 0 ~ verschieden. mu x 2 fx1. dann dividieren wir P mit Rest durch (T x): ~ P(T) = (T x)P(T ) + R.B. Dann mu einer der Faktoren Q(x) oder (x xi)vi . Sei P(T) = ~=1(T xi )vi Q(T) i ~ Sie existiert nach der Induktionsvoraussetzung. i Beweis der Eindeutigkeit der Zerlegung: Angenommen..

vi nennt man dabei die Vielfachheit der Nullstelle xi. Sei deg P ungerade und der fuhrende Koe zient 1. Beweis: Angenommen. Insbesondere ist dies fur Korper mit char(K) = 0 der Fall. 108 . Dann limT !1 P(T) = 1 und limT ! 1 P(T) = 1.h.F. : : :. De nition 2: Ein Korper K ist algebraisch abgeschlossen. C ! IR. ist ein Polynom P 2 K T ] durch die Funktion K ! K. Artin und Schreier angegeben (1922). mit Q(x0) = q 6= 0 (vgl. dann hat das Polynom P(T ) = 1 + Qn=1(T xi) keine Nullstelle i in K. hat P nach dem Zwischenwertsatz eine Nullstelle. d. 2 Bemerkung: Beim Beweis von Theorem 6 konnen wir uns auf Polynome mit fuhrendem Koefzienten 1 beschranken. Faktoren (T xi ) nennt man Linearfaktoren. Folgerung 2: Wenn K unendlich viele Elemente hat. Sei also P(T) = T n + n 1 X k=0 i=1 pk T k : () Lemma 2: Sei x0 ein lokales Minimum der Funktion z 7! jP(z)j. 0 ' < 2 . wenn jedes nichtkonstante Polynom eine Nullstelle in K hat. die Zerlegung aus Fakt 2 nimmt die Form L Y P(T ) = q (T xi)vi an. Beweis: Sei K = fx1. 2 Fakt 4: IR ist nicht algebraisch abgeschlossen. Jedes Polynom ungeraden Grades hat eine Nullstelle. Beweis: Nach De nition 2 mu das Polynom Q aus Fakt 2 konstant sein. eindeutig bestimmt. r 0. Sei P(T ) = p + (T x0)k Q(T). Fundamentalsatz der Algebra) C ist algebraisch abgeschlossen. Bemerkung 2: Eigentlich betrachtet man Theorem 6 als einen Satz der Analysis. p = P(x0) 6= 0. Lemma 1: Fur jedes n 2 IN kann man aus jeder komplexen Zahl z eine n-te Wurzel ziehen. x 7! P(x). 2 Bemerkung: Folgerung 1 hatte auch mit der Formel fur die Vandermondsche Determinante bewiesen werden konnen. Gau . Beweis: Sei z = rei' = r cos ' + ir sin '. Beweis: x2 + 1 = 0 hat keine reelle Losung. Dann ist x0 eine Nullstelle von P. da P stetig ist. Beweis: Folgt aus Folgerung 1. xng. Dann ist p n p p n rei ' = n r cos ' + in r sin ' n n eine n-te Wurzel aus z. Der erste weitgehend algebraische Beweis wurde von E. 2 Theorem 6: (C. 2 Bemerkung: Ein endlicher Korper ist niemals algebraisch abgeschlossen. Fakt 3: Dann zerfallt jedes Polynom P 6= 0 in Linearfaktoren.

Fakt 2). K). gilt f(x) = jP(x)j jxjn j n 1 X i=0 pixi j jxj 1 jxjn nRjxjn 1 = jxjn 1(jxj nR) > p0 = jP(0)j = f(0): Minimum von f auf ganz C.j gilt det( 1 n A) = det( ij aij )n =1 = 1 i. deg PA = dimV . x 7! P(x). Beweis: Die Eindeutigkeit von PA folgt in beiden Fallen aus Folgerung 2. (T) = sign( ) = sign( ) X X 2 Sn PA. Sei V ein endlichdimensionaler K-Vektorraum und A ein Endomorphismus von V . 2 Bemerkung 3: Aus Grunden der Einfachheit nehmen wir an.p Satz 1. (i) ai. Sei also A = (aij )n =1. Sei R = maxfjpij j 0 i < ng. Dann ist P 2 K T] eindeutig durch die Funktion K ! K. (2) zu beweisen (PA = PMatB (A) ).j = wobei PA. k > 0. jp0j + nR). (i) ) Y 1 i n (i)6=i 1 i n (T aii ). (i)=i 109 . da K unendlich viele Elemente hat. Fur r > 0 gilt a :+ jP(x0 + rz)j = jp + (rz)k Q(x0 + rz)j = jp p rk (q + | 0rz + : : {z ak (rz)k})j q = jp prk + O(rk+1)j jpj(1 rk ) + crk+1 O(r) fur eine Konstante c. (i) ) ( ai. x 2 C. Wenn also 0 < r < min(1. Nach der Leibnizschen Determinantenformel i. (i) ) i=1 Y (T i. Es gilt deg PA = n. n. 2. p ) ist. Es genugt. Sei A 2 Mat(n. ( ). Sei z eine k-te Wurzel aus q . ( )). Beweis: Sei n der Grad des Polynoms (vgl. Dann existiert genau ein Polynom PA 2 K T] mit det( 1 n A) = 1 PA( ). Dann gibt es genau ein Polynom PA 2 K T ] mit det( IdV A) = P( ) fur alle 2 K. (i) ai. Nach Satzen aus der Analysis nimmt die stetige Funktion f(z) auf der kompakten Menge fz j jz j S g ein Minimum an. Fur jxj > S = max(1. so gilt jP(x0 +rz)j < jP(x0)j. 2 K T] durch PA. de niert. 2 Lemma 3: Die (stetige) Funktion f(z) = jP(z)j nimmt auf C ein Minimum an. Widerspruch c zu unserer Annahme p = P(x0) 6= 0. Nach der vorhergehenden Uberlegung ist dieses Minimum auch ein Satz 2: 1. 2 Theorem 6 folgt nun aus Lemma 2 und Lemma 3. n Y 2Sn sign( ) n Y i=1 ( i.

De nition 4: Die Spur tr(A) von A 2 Mat (n. ( ). n. Der zweithochste Koe zient des charakteristischen Polynoms von A ist tr(A). Es gilt: 1. ng. 6= Id () denn jede Permutation von f1.j n b a . Aus ( ) und Fakt 1 folgt deg(PA ) = n. Fakt 6: Seien A. Die Spur eines Endomorphismus eines endlichdimensionalen Vektorraumes ist die Spur seiner Matrixdarstellung bezuglich einer beliebigen Basis.j Matrixproduktes liefert cik = j =1 ij jk ik j =1 ij jk tr(AB) = n X i=1 cii = n n XX i=1 j =1 aij bji = n n XX j =1 i=1 bjiaij = n X j =1 djj = tr(BA): 2. ( ) = sign( ) Y 1 i n ( ai. die n 1 dieser Zahlen festla t. : 6=Id deg=n | {z } deg<n nach Fakt 1 | {z } X 2 fur endliche Korper K.Id + PA. (i) ) Y (i)6=i 1 i n ( aii ). n.j i. BA = (dij )n =1. P 3.de niert ist. Allgemeiner: tr : Mat(n. Erinnere an den Beweis von Satz 2: det( Id A) = PA( ) = 2Sn PA. PA. : : :. tr(AB) = tr(BA) 2. De nition 3: PA nennt man das charakteristische Polynom von A. ~ Bemerkung: Es gibt auch die Konvention PA ( ) = det(A Id) fur das charakteristische Polynom. n. In der Situation von Satz 2. AB = (cij )P=1. also i. Es verbleibt die Bestimmung deg(PA. P 2Sn PA. Sei A = (aij )n =1. ) (=) jfi j 1 i n ^ (i) = igj = n n 2 = Id . denn PA = PA. la t wegen ihrer Bijektivitat auch die verbleibende Zahl fest. B 2 Mat (n. K). Also det( 1 n A) = PA ( ). (1) setzt man dann PA = PMatB (A) und hat dann noch die Unabhangigkeit dieses Polynomes von B zu zeigen. Insbesondere ist die Spur eines Endomorphismus von V unabhangig von der Wahl der Basis von V. tr(A + B) = tr(A) + tr(B) 3. Bemerkung: Die De nition von PA.j n a b . und damit auch die De nition von PA funktioniert auch Beweis: n 1. K) ist die Summe ihrer Diagonalelemente. (i)=i 110 . wobei PA = 1 des Grades von PA . d = i. . K) ! K ist ein lineares Funktional. ist klar. Die Formel des )n i. B = (bijP =1.

B (A) = Mat B. Bemerkung 5: Sei p ein Projektor. ein Komplementarraum zu X.B (Id)Mat B. da tr(Mat B. Wenn K algebraisch abgeschlossen ist (z. so ist X ? . PA.B (A)) = tr(Mat B. Fakt 7: Sei dim(V ) = n.B. Das charakteristische Polynom von A hat die Form PA ( ) = n tr(A) n 1 + : : : + ( 1)n det(A): 2. sei A ein Endomorphismus von V . und der Orthogonalprojektor ist ein Projektor. Wir mochten zeigen. Eine Involution ist ein Endomorphismus i von V mit i2 = id . nur uber unendlichen Korpern Sinn (obwohl es allgemein gilt).ng Y ( 1)n jS j aii jS j i62S aii n 1 + Terme vom Grad n 2 tr(A) n 1 + Terme vom Grad n 2: Sei nun A ein Endomorphismus von V . 2. Ein Projektor ist ein Endomorphismus p von V mit p2 = p.B M 1 ~ ~ tr(Mat B. = ~ ~ Bemerkung: 2 1. 1.B (Id) = MMat B. Alle anderen Teile von Fakt 6 haben wir uber beliebigen Korpern bewiesen.B (A) ~ ~ ~ ~ = Mat B. dann hat A einen Eigenwert. ) n 2. (1)-(3) von Fakt 6 konnen nun auch auf Endomorphismen von endlichdimensionalen Vektorraumen angewendet werden. 1. Dann ist Y = ker(p) ein Komplementarraum zu X = Bild (p). Sei B eine andere Basis von V .B M 1) (1) tr(M 1MMat B. wenn Nullstelle des charakteristischen Polynoms PA ist. dann 111 Beispiel: Wenn V ein Euklidischer Vektorraum oder ein Euklidischer Hilbertraum ist.Id ( ) = = = Y 1 i n ( i=1 aii ) = X n+ n n X S f1. Dann gilt Mat B. Sei X V ein Unterraum. 2.Id uberein. De nition 5: Sei V ein Vektorraum.B (Id)Mat B.B (A)) von der Auswahl ~ dieser Basis unabhangig ist. Also stimmt der zweithochste Koe zient von PA mit dem zweithochsten Koe zienten von PA.B (A)Mat B. 3.deg(PA.B (A)) = tr(MMat B. deg(PA. C).Id) = n. was wir uber das charakteristische Polynom bewiesen haben. ist Eigenwert von A genau dann.:::.B (A)). Wenn umgekehrt X V und ein Komplementarraum Y zu X vorgegeben sind. falls 6= Id. 3. Ein Komplementarraum zu X ist ein Unterraum Y V mit V = X Y . Beweis: ist klar. (3) macht nach dem.

falls dim(V ) < 1. In der Tat aus 6= 0 und v 2 V (N) f0g wurde N k v = k v 6= 0 fur alle k folgen.4 Die Jordansche Normalform da ein k > 0 existiert mit U k = id . = dim(Bild (p)) . . falls ein k 2 IN mit N k = 0 existiert. 0 ::: 1 0 : : : 0 . = ( 1)dim(Bild(p)) dim(ker(p)) : 9 det( Id p) = 0 : : : 0 ::: 0 = . so gilt V = V1 (i) V 1 (i). Dann ist p2 = p. . so gilt Pi (T) = (T 1)dim(V1 (i)) (T + 1)dim(V 1 (i)) . dim(ker(p)) . .existiert genau ein Projektor p mit ker(p) = Y und Bild (p) = X. . so sei p : V ! V durch p(v) = x de niert. Durch Involution auf V Projektion in V i ! p = 1 (id V + i) 2 i = 2p id V p sind zwei zueinander inverse Bijektionen de niert. Bild (p) = X. . so gilt: v = p(V ) + | {z )) : |{z} (v p(V } 2Bild(p) 2ker(p) Also V = ker(p) Bild (p). . .. Bemerkung: Fur einen Korper K mit char (K) = 0 ist fur ein unipotentes U nicht gesichert. Wenn v 2 V vorgegeben ist.. . . ker(p) = Y . y 2 Y die eindeutige Zerlegung von V in der direkten Summe X Y ist. Ein Endomorphismus U von V ist unipotent. 2. Wenn umgekehrt V = X Y gilt. Bemerkung 7: Insbesondere nehmen Projektoren und. . . .. Wenn i eine Involution auf V ist.. . . . .. Beweis: ist klar. Fakt 1: Das Spektrum eines nilpotenten Endomorpismus besteht nur aus 0.. 1. das charakteristische Polynom von p ist Pp (T ) = (T 1)dim(Bild(p)) T dim(ker(p)) . etwa v = p(w). Beweis. 1 ::: 0 0 ::: 0 9 . folgt 0 = p(v) = p(p(w)) = p2(w) = p(w) = v: Also ker(p) \ Bild (p) = f0g. . auch Involutionen eines endlichdimensionalen Vektorraumes in einer geeigneten Basis stets Diagonalgestalt an. da fur 6= 0 V (N) = f0g. 0 ::: 0 0 ::: 6. . . Wenn i eine Involution und char (K) 6= 2 ist. Aus v 2 ker(p) \ Bild (p). Beweis: Sei p vorgegeben. .. x 2 X. . falls char (K) 6= 2.. 2 Bemerkung 6: Sei char (K) 6= 2. falls U id V nilpotent ist. . . . . wobei v = x + y. . Die Spur eines Projektors p ist dim(Bild(p)). 2 112 De nition 1: Ein Endomorphismus N von V ist nilpotent. Wir zeigen.

. 0 ::: ::: 0 ::: 0 ::: 1 0 Beweis von Satz 1 durch Induktion nach dim(V )... Sei k die kleinste Zahl mit k 6= 0.. . ... .. Sei die Existenz fur Vektorraume kleinerer Dimension als V bewiesen. . . ... sind linear unabhangig. . . 1 . PL Dabei sind L und p1 ..1 2 V mit N pi 1(e1. @ . . : | 0 {z: : }0 i 1 C C C C A Satz 1: Sei N ein nilpotenter Endomorphismus eines endlichdimensionalen Vektorraumes V . . C . C ... B. . . . P1 1 j p1 .. C C 0 ::: ::: 0 ::: 0 ::: ::: 0 C C . Behauptung: Die e1. . . . k) C A 1 ...k + p1 X j =k+1 j N p1 k e1. . . .j = N j 1e1. ::: ::: ::: . . .Bemerkung 1: In Korpern mit Charakteristik 0 gilt die Neumannsche Reihe: ( id N) 1 = 1 X Beispiel: k=0 k 1N k : 00 B. C 0 ::: 1 0 ::: 0 ::: ::: 0 C C . . Sei e1. . Sei p1 das kleinste p mit N p = 0. C . . . . .. .j Bemerkung: 0 B B B B B B B B N =B B B B B B B B B @ 113 .. . . .. : : : . . . . denn 1 .... .. A . v = p=1 j e1. . C . 0 . beginnend mit dim(V ) = 0.... . 0 1 0 0 0 0 ::: 0 B .1 j pi mit e falls j < pi Neij = 0i.j . . . B N i = B . . ::: 0 ::: ::: . . aber N k 1 6= 0. .j = 0 mit j 2 K.. Fur 1 j p1 sei e1. . . C . .. .1 ) 6= 0. 0 0 0 . . Dann gibt es p1 p2 : : : pL 1 mit i=1 pi = dim(V ) und eine Basis (eij )1 i L. . : : : . C . . .. . . .j +1 falls j = p : i 0 ::: ::: 0 ::: 0 ::: ::: 0 1 .. . ::: . .. . . C . . . Angenommen. N = B .. C . .1. . : : : 1 . ... . . . . C . . . . 1 0 1 C C 2 Mat(k. .. .. Dann gilt N p1 k v = k N p1 k e1.. . B @0 erfullt N k = 0. : : :. die nicht j alle verschwinden.. .. . . . .. : : : . C . pL eindeutig bestimmt. : : : . .

j + r =1 #k fk ) = p1 ist ein Funktional l 2 V mit l(e1.j +K oder 0.j =1 j = pi genschaft.pi. Die e1.denn p1 +j k 1 p1 N p1 k N j 1e1. denn Bild (q) X und q(e1.j 1) l(N j =1 0 p1 1 1 j=2 0 p1 1 X p1 ~ A @ X p1 ~ A N @ l(N j x)e1. Ebenso ~ L X ~ dim(Bild(N K )) = max(0.1 =0 .1 .p1 +k j j k N ) | {z(e1. : : :.k } p1 j )e1.j j 1 i L ^ K + 1 j pig. da v = 0 ist. e1. Angenommen.p1 = 0.~ = N l(N j x)e1.j =1 von Y .j bewiesen.k : denn Ne1.j N p==0 X l(N p1 +1 j x)N(e1. pi K): j =1 114 dim(Bild(N K )) = L X i=1 pi = ~ ~ L X i=1 pi < L X i=1 pi = dim(V ): . Also ist die lineare Unabhangigkeit der e1. und Y = ker(q) ist ein N-invarianter komplementarer Unterraum zu X. Also max(pi K. ~ Beweis der Eindeutigkeit: Sei (~i.j = e1. Angenommen. Durch P1 P l( p=1 j e1.j ) = p1 . Nach der Induktionsannahme gibt es eine Basis (ei. ~ ~ Falls pi < pi gilt. Wir werden einen komplementaren N-invarianten Unterraum Y zu X nden.~ j j ~=1 ~=1 j j ~ Widerspruch.j i=1. fr ) eine Basis von V .p1 6= 0.j bilden also eine Basis eines Teilraumes X von V . im Widerspruch zu unserer Annahme. Dann ist (e )L.j de niert.j )iL=11.k ) = p1 X j =1 j =1 =N p1 +j k 1 e1.j = 0 i.j = N K ei. 0).p1 .j K fur j > K oder N K ei.p ~ ~ ~ schaft.1 | {z } l( = Weiterhin ist q mit N vertauschbar: q(Nx) = = p1 X 0 j<k e1. L < L und fur 1 i L gilt pi = pi .j = ei.j +1 j < pi .1 + p1 X j =k+1 j = k e1.j )L. so da i=2 ei.pi eine Basis von X mit der geforderten EiNei. Fur j k x 2 V sei p1 X q(x) = l(N p1 j (x))e1. f1. Sei (e1. es gabe ein i mit 1 i L und pi 6= pi und pj = pj fur 1 j i. Also qN = Nq. Wir konnen L L voraussetzen. fuhrt folgende Betrachtung zum Widerspruch: Eine Basis des Bildes von N K ~ ist gegeben durch fei.= k N p1 k N k 1e1. : : :. i=1 denn ei.j : Dann ist q ein Projektor auf X.j =1 eine andere Basis von V mit der beschriebenen Eigene ~ . ~ Dann gilt dim(V ) = ~ L X p1 1 p1 +1 j x)e1.

(1) Q 2K (T )dim(V ~ (A)) . Bemerkung: V ~(A) ist A-invariant. kann die Annahme pi < pi ebenso (durch Betrachtung von Bild (N pi )) Annahme 1 min(L.j +1 falls j < P .i.i.j + e . pk pi ) ~ ~ = k=1 L X k=1 (~k pi ) p ~ ~ max(pk pi . 2 V ~(A) = fv 2 V j 9 k : (A id)k v = 0g ist der verallgemeinerte Eigenraum oder Hauptraum zum Eigenwert .i 2.i : L und P . A beliebig. PA(T ) = De nition 2: M 2K V ~(A). (3) ist einfach. sondern nur die ~ ). kD ).i.j falls j = P . Fur 1 i D gibt es ki mit (A )ki ei = 0. dim(V ~(A)) < 1 (insbesondere ist AjV ~(A) id nilpotent. sei e1 .Fur pi < pi gilt einmal ~ ~ dim(Bild (N pi )) = pk pi fur k i ~ ~ ~ L X = k=1 i 1 X max(0. (2) folgt aus Satz 1. .j )L=1. : : :.P . 1. Theorem 7: Sei A ein beliebiger Endomorphismus eines endlichdimensionalen Vektorraumes V uber einem algebraisch abgeschlossenen Korper K. Dann ist (AV ~ (A) )k = 0 mit k = max(k1.j = 3. : : :. Lemma 1: Sei dim(V ) < 1.j =1 mit i e . Da die Annahme L L bei diesem Argument nicht benutzt wurde. eD eine Basis dieses Unterraumes. zu V ~(A) einen Komplementarraum zu nden. also ist V ~(A) A-invariant. Falls dim(V ~(A)) =: D < 1. V ~(A) hat eine Basis (e . L ~ zum Widerspruch gefuhrt werden.i sind dabei eindeutig bestimmt. Dann gilt die direkte Summenzerlegung V = V ~(A) 1 \ k=0 Beweis: Da uns die Existenz von Eigenwerten (fur von f0g verschiedene V ) garantiert ist Bild (A )k : 115 . (K ist algebraisch abgeschlossen). Beweis: Aus (A id )k v =: (A )k v = 0 folgt (A )k Av = A(A )k v = 0.i. falls dim(V ) < 1). 0) = dim(Bild(N pi )) ~ ~ Widerspruch. besteht das Problem bei (1) darin. K. Ae .i. Es gilt die direkte Summenzerlegung: V= die in Wahrheit endlich ist.i e .

ihre Determinante ist das Produkt ihrer Diagonalelemente: Die 116 . also V ~(A) = (A #)k V ~(A) Bild (A #)k fur alle k. Sei (e . Nach L W ~(Aj )..L1 . Also gibt es ein k1 mit (y) Bild (A )k = Bild (A )k1 fur k k1. Also dim(W) < dim(V ).Lk =1. . e 1 . .1.i aber eine untere Dreiecksmatrix. K): B .k = B 1 . also V ~(A) W fur 6= #.L Dann gilt Mat B (A) = Diag(J k .i det(#id A) = det(#1 M Mat B (A)) = det(Diag(#1 pk. T ~ Dann f0g = V# (A) V# (A).i.1.i. C J .pk. Sei W = k 0 Bild ((A #)k ). Dann ~ V = V#~(A) W = V# (A) 2 M 2K ~ W ~(AjW ) = V# (A) M 2K f#g V ~(A) = M 2K V ~(A): ~ ~ Daraus folgt (1). Nach Lemma 1 ist W ein A6 ~ invarianter (leicht zu zeigen) Komplementarraum zu V# (A). Also gibt es ein y 2 V mit x = (A )i y und es gilt (A )2i y = 0.p1. Zu ( ): O enbar gilt W ~(A) V ~(A). . Also gibt es y 2 V mit (A )i x = (A )2i y.i J kpk.2 . e N . das zu zeigen. . Sei i = max(k0. e .j ) eine Basis wie in (2) des Theoremes und sei (f1 . Wegen ( ) und (y) genugt es. Zu ( ): Sei x 2 V vorgegeben. x 2 Bild (A )k ( 9 z : x = (A )k z ( 9 y : x = (A )k+1y ( x 2 Bild (A )k+1 . Wegen (y) gilt (A )i x 2 Bild (A )i = Bild (A )2i . Weil K algebraisch abgeschlossen ist. k=1. Behauptung: ( ) W ~(Aj ) = f0g und ( ): Induktionsvoraussetzung gilt W = 2K W # W Fur 6= # gilt W ~(AjW ) = V ~(A).2.2.i = p k . Dann gilt x = (A {z )i y + | (A )i y) : () | } (x {z } 2Bild(A )i 2ker(A )i Beweis von Theorem 7 durch Induktion nach dim(V ). und V ~(A) W ~(A) = W \ V ~(A). fM ) die Basis (e 1 . also Spektrum = 0.1 . : : :. : : :.1. Fur 6= # ist nun AjV ~ (A) # = (AjV ~ (A) ) ( #) invertierbar (AjV ~ (A) ist nilpotent. : : :. Dann gilt ( ) Bild (A )i \ ker(A )i = f0g und ( ) V = Bild (A )i + ker(A )i . . k1). : : :.i )N.. gibt es ein k0 mit (A )k0 jV ~ (A) = 0. : : :. .2. Sei weiterhin 0 0 ::: 01 B .p1. . Die absteigende Folge naturlicher Zahlen dim(Bild (A )) : : : dim(Bild(A )i ) dim(Bild (A )i+1 : : : stabilisiert sich (die Anzahl der echten Ungleichheiten ist dim(V )). k. Die letzte Matrix ist 1 1 k=1. . e 1 .pk.Beweis: Wie wir schon bemerkt haben. N die Eigenwerte von A. Sei dim(V ) > 0 und die Aussage (1) fur Raume kleinerer Dimension als V bewiesen. . . e 1. Zu ( ): W# (A) W \ V# (A) = f0g. Lk = L k . . Fur dim(V ) = 0 ist die Behauptung klar. Zu ( ): Sei x 2 ker(A )i \ Bild (A )i .1 . e 1 . Dann gilt ker(A )k = V ~(A) () fur k k0.1.). ist die Existenz eines Eigenwertes # 2 K von A garantiert. .Lk =1 . 0C 0 ::: 1 Seien 1 . (2) folgt durch Anwendung von Satz 1 auf den nilpotenten Endomorphismus (AjV ~ (A) id). Wegen ( ) folgt y 2 ker(A )i und x = 0.1. A @ .i ))N. : : :. C 2 Mat (k.

Bemerkung 3: Eine andere Formulierung fur den Satz uber die Jordansche Normalform ist: Jeder Endomorphismus eines endlichdimensionalen Vektorraumes V uber einem algebraisch abgeschlossenen Korper K kann auf eindeutige Weise als A = D + N geschrieben werden. 2 Folgerung 1: Unter den Voraussetzungen von Theorem 7 ist A genau dann diagonalisierbar. Zeige V (D) = V ~(D) = V ~(A). denn PA(T) kann keine mehrfache Nullstelle haben. wobei D diagonalisierbar und N nilpotent ist und N und D kommutieren. so gilt N dim(V ) = 0. Also 3 PA(A)jV ~ (A) 6:=:1 (AjV ~ (A) P k=0 pA.) Es genugt nach Theorem 7.Diagonaleintrage dieser Matrix sind # k von der Vielfachheit pk. wenn PA (T) = T dim(V ) . Beweis: Die letzte Aussage ist L V (A) V ~(A) klar. falls ein Eigenwert ist. und V hat eine Basis aus Eigenvektoren.3. Es gilt PA (T) = (T )dim(V ~ (A)) Q(T) nach Theorem 7. Mit Anwendung von Bemerkung 2 folgt die Behauptung. 2 117 . PA (A)jV ~(A) = 0 zu zeigen fur jeden Eigenwert . falls fur alle 2 K V (A) und V ~(A) ubereinstimmen. Dann V = 2K V (A). Weil fur einen Eigenwert V (A) 6= f0g gilt. Damit folgt die Behauptung. Der Endomorphismus N = AjV ~ (A) id V ~ (A) von V ~(A) ist nilpotent. Sei A diagonalisierbar. k=0 Beweis: (Nur fur K algebraisch abgeschlossen. Theorem 8 (Cayley-Hamilton): Jeder Endomorphismus A eines endlichdimensionalen Vektorraumes uber einem beliebigen Korper erfullt seine eigene charakteristische Gleichung PA(A) := dim V X wobei PA(T) = dim V pA.k Ak = 0.Lk = dim(V ~k (A)). Eindeutigkeit: Ubungsaufgabe. 2 Bemerkung 2: Theorem 7 und Folgerung 1 gelten auch fur nicht algebraisch abgeschlossene Korper. wenn tr(N) = det(N) = 0 gilt. denn sie ist gleich dim(V ~(A)). folgt 2 V (A) = V ~(A). Bemerkung 6: Wenn PA (T ) dim(V ) verschiedene Nullstellen hat.1 +: : :+pk. Bemerkung 4: Wenn N ein nilpotenter Endomorphismus von V ist. so ist A diagonalisierbar. Fur dim(V ) = 2 ist dies genau dann der Fall. Wegen L = 2K V ~(A) kann dies nur fur V (A) = V ~(A) gelten. Dies ist genau dann der Fall. Beweis: folgt aus Theorem 7. )dim(V ~ (A)) Q(AjV ~ (A) ) = N dim(V ~ (A)) Q(AjV ~ (A) ) = 0 nach Bemerkung 5. wenn fur alle Eigenwerte dim(V (A)) mit der Vielfachheit der Nullstelle des charakteristischen Polynoms ubereinstimmt.1. wenn PA (T ) uber K in Linearfaktoren zerfallt. Beweis: folgt aus Satz 1.k T k . Sei V V (A) = V ~(A). Beweis: Existenz der Zerlegung: Sei D durch Dx = x fur x 2 V ~(A) und N durch A D ! de niert. Dann wegen P V = 2K V (A). Beweis: Es gilt dim(V ~(A)) =Vielfachheit der Nullstelle = 1. Bemerkung 5: N ist nilpotent genau dann.

sind. x) + Beispiel 1: 1. x) = 0. denn (x. y) bijektiv. V j(W +a) (W +a) ) 118 . (x + v) + w) = v + w. x) + (x. 2. der von x nach y zeigt. x) = 0 und (x + v) + w = x + (v + w). W. (2) fur nur ein x 2 X zu fordern. y) + (y. y) = (y. V (x. Fur jedes x 2 X ist die Abbildung X ! TX. Dann x + 0 = x. Bemerkung: Wenn (2) fur x gilt. die Menge der Punkte des a nen Raumes. so ist fur alle x0 2 X die Abbildung y 7! (x0 . y) = y x ein a ner Raum. W + a = fw + a j w 2 W g: Dann ist ein a ner Raum. x + v) + (x + v. V ). Sei V ein K-Vektorraum. z) = (x. W V ein Unterraum und a 2 V . x). x) = 0. x) = (x. z) 2. (x.7 A ne Raume und Faktorraume 7. V. (x. Folgende Bedingungen mussen gelten: 1. TX. Fur alle x 2 X ist die Abbildung V ! X. denn (x. Bemerkung 1: Fur x 2 X und v 2 TX sei x + v 2 X das durch die Bedingung (x. x + v) = v eindeutig bestimmte Element.1 A ne Raume De nition 1: Ein a ner Raum ist ein Tripel X = (X. Aus (1) folgt (x. + in V (Bemerkung 1) ist das + in V . y) = (x0 . (x + v) + w) = (x. wobei X eine Menge. ). also (x. Daher reicht es auch. y) + (y. Fur jeden Vektorraum V ist V = (V. x). die x. (W + a. der Translationsvektorraum von X und : X X ! TX eine Abbildung. y 2 X den Vektor zuordnet. also (x. y) bijektiv. y 7! (x. TX ein K-Vektorraum. x) = (x. Au erdem (x. v 7! x + v bijektiv.

De nition 2: 1. g) 7! gf gegeben. Gruppenhomomorphismen. In De nition 2. ) ist ein a ner Raum (Y. y). X ) und fur jedes x 2 X ist durch X (f. wobei Y X eine Teilmenge und TY TX ein Unterraum ist. TY. (f. (d) fur X.g) (Y. Eine Kategorie A besteht aus (a) einer Menge Ob A der Objekte von A (z. 3. bg) gegeben. id TX ) gegeben. V. K-lineare Abbildungen. Satz 1: Sei V = (V. K-Vektorraume. W. f 3.2 ist ein a ner Unterraum von V ein Tripel (X. Y Y ). Ein Morphismus a ner Raume von X = (X. Z) ! HomA (X. TZ. K-Vektorraume oder K-a nen Raume kennengelernt. fur den ein F 1 : Y ! X mit FF 1 = id Y und F 1F = id X existiert. x) = x a 2 W und fur alle a 2 X 119 ist.g) V (V aus ! Beispiel 1).1 ist die lineare Abbildung TX ! TY durch die Abbildung f : X ! Y eindeutig bestimmt. K-a ne Raume). X ) nach Y = (Y. 2. V jX X ). TX. Die Verknupfung zweier Morphismen a ner Raume (X. Z ) ! ! Id ist durch das Paar (af. (b) fur Objekte X. V. wobei V ein Untervektorraum ist und fur alle a. Dann ist F 1 eindeutig bestimmt. g = id V . Z). Fur jeden a nen Raum X = (X. TX. Morphismen a ner Raume von X nach Y ). wobei f : X ! Y eine Abbildung und g : TX ! TY eine lineare Abbildung ist und gilt Y (f(x). x 2 X V (a. f(y) = (x. g f h Es mussen dann die Regeln id D f = f = fid C und f(gh) = (fg)h fur A ! B ! C ! D gelten. Dann de nieren die Einbettungsabf g bildungen Y ! X und TY ! TX einen Morphismus a ner Raume. TY. X ) (f. Dann haben wir die Kategorien aller Gruppen. Y. Menge aller Gruppen. Y ) ist ein Paar (f.B. . Dann sind alle a nen Unterraume von V von der Form (W + a. y)): 2. V j(W +a) (W +a) ). TY. ein Isomorphismus a ner Raume gegeben. (c) fur alle X 2 Ob A ist id X 2 HomA (X. Der identische Morphismus X ! X ist durch (id X . Z 2 Ob A ist die Verknupfungsabbildung HomA (X. f(y)) = g( X (x. Ein a ner Unterraum von (X. W. Y ) (a. V ) wie in Beispiel 1 de niert.B. Y ) HomA (Y. g). wobei W V ein Untervektorraum und a 2 V W Beweis: Nach De nition 2. Y 2 Ob A ist eine Menge HomA (X. Y ) der Morphismen in A von X nach Y de niert (z. Ein Isomorphismus a ner Raume ist ein Morphismus F : X ! Y . Bemerkung: 1.b) (Z. Y ) gegeben. TX.

y) + (y. P i Pp Fur z 2 X gilt dann (z. y 2 X f x + (1 )y j 2 K g X fur x 6= y als die Gerade durch x und y au assen. : : :. wenn ein Untervektorraum W von V existiert. De nition 3: SeiPn = (X. Wir konnen X durch X a ersetzen und erreichen 0 2 X. Bemerkung: Sei K = IR. p) = n n=1 i (y. wenn fur alle x. Dann gibt es nach De nition 1 genau ein n mit (y.1 isomorph sind). y 2 X gilt x+y = 1 x + 2 x 2 X. Zum Beweis der Hinlanglichkeit sei a 2 X. Dann ist X ein Untervektorraum von 1 V : fur x 2 X und 2 K gilt x = x + (1 )0 2 X. Dann sei i=1 i xi 2 X das durch 8y 2 X : eindeutig bestimmte Element. 2 Bemerkung: Eine Untermenge X von V nennt man einen a nen Unterraum von V . P 2. xn 2 X und seien X a 1 . P3 Satz gilt 3auch fur char K = 2. Sei a 2 X. 4. xi ). Ein analoger Sachverhalt gilt auch fur Untermengen beliebiger a ner Raume (die zu einem a nen Raum der Form V aus Beispiel 1. #ij 2 K und xij 2 X mit n=1 i = 1 und i Pmi # = 1. 2 2 x+y ) 2 X. x ). Wenn dies der Fall ist. Dann kann man f x +(1 )y j 0 1g als die Strecke zwischen x und y au assen. TX. Fur 1 i n. n 2 K und i=1 i = 1. V jX X ) ein a ner Unterraum von V ist. Seien x1. p) = (z. ) ein Pnner Raum. so ist W = fx y j x. Beweis: Die Notwendigkeit dieser Bedingung ist klar. i=1 i = 1 fordern. 2 also x + y = 2( 2 Bemerkung: 1. dann mu man die Abgeschlossenheit von X unter Der P i=1 i xi. 2. Also gilt fur P x = p die Bedingung in i i i=1 i i=1 i i=1 i i der De nition fur alle Punkte y 2 X.die Abbildung X ! W. xi ) = Pn ( (z. 1 j mi seien i 2 K. Dann j =1 ij mi n X X i=1 i( j =1 P #ij xij ) = n mi XX i=1 j =1 ( i #ij )xij : 3. W. y 2 X und 2 K auch x + (1 y) 2 X gilt. Sei y fest. y 2 X g eindeutig bestimmt. x 7! x a bijektiv ist. n X i=1 i xi ) = n X i=1 i (y. p) = i=1 ni (z. Satz 2: Sei char K 6= 2. : : :. y) + (y. xi ) Bemerkung: 1. Eine nichtleere Teilmenge X V ist genau dann ein a ner Unterraum eines K-Vektorraumes V . x + (1 )x = x. Dann gilt X = W + a. Fur x. so da (X. x )) = Pn (z. Man kann fur x. y) + i=1 i (y. (y. 120 .

) ein a ner Raum und K = IR. fur die p eine lineare Abbildung ist. a b 2 W. Dies ist eine korrekte De nition. Fur = 1 gilt n = 1 folgt 1 = : : : = n 1 = 0 und i i n6 n X i=1 i xi = (1 n )( n 1 X i=1 1 i n xi ) + n xn 2 M nach (1). V K-Vektorraume. Sei W ein Untervektorraum von V . De niere eine lineare Abbildung g : V=W ! A durch g(W + a) = f(a). Fur 1 . Wegen der Surjektivitat von p ist die Vektorraumstruktur auf V=W durch die Vektorraumstruktur auf V eindeutig bestimmt. Beweis: O enbar ist p linear. Fur x. A) ! ff 2 L(V. x 2 M gilt Pn x 2 M. Bemerkung 1: V=W ist der Quotient von V nach der Aquivalenzrelation a b . Satz 1: Sei p : V ! V=W die durch p(a) = a + W de nierte Abbildung. wenn p linear ist: (W +a) +(W +b) = p(a) + p(b) = p(a + b) = W + (a + b). Wegen der Surjektivitat von p folgt aus gp = 0. also ist die lineare Abbildung injektiv. Beweis: Wegen ker(p) = W gilt ker(gp) ker(p) = W. TX.oder Quotientenraum von V nach W. daher ist die Abbildung (1) wohlde niert. : : :. b 2 V und 2 K. Bemerkung: Elemente von V=W sind gerade die a nen Unterraume von V mit Translationsraum W. Falls P x 2 M. 2 Theorem 1: (Homomorphiesatz) Seien A. 2 7. Die Aquivalenzklassen sind die Untermengen der Form W + a. 0. und x . y 2 M und 0 1 gilt x + (1 )y 2 M.2 Der Faktorraum V=W nach einem Unterraum De nition 1: Elemente von V=W sind Untermengen von V . die die Form W + a haben. Auf V=W ist die in De nition 1 beschriebene Vektorraumstruktur die einzige. A) j ker(f) W g g 7! gp eine Bijektion (also ein Isomorphismus von Vektorraumen).Satz 3: Sei X = (X. Die Addition und die Multiplikation sind wie folgt de niert: (W + a) + (W + b) = W + (a + b) (W + a) = W + a fur a. denn aus W + a = W + a folgt a ~ 2 W ~ a 121 . Pn = 1. (1))(2) folgt mit Induktion nach n: der Fall n = 2 ist klar. Dann ist L(V=W. wobei a 2 V . 2. Dann sind folgende Forderungen an eine Untermenge M X aquivalent: 1. n 2 IR mit i=1 i i 1 i i=1 i i Beweis: (2))(1) ist klar. Man nennt V=W den Faktor. : : :. Sei f ein Element der rechten Seite. da g = 0.

W (b) = pV.Z X=Z ? ! ? ?pX=Z. Der Beweis verlauft analog zu (1): Fur z 2 Y \ Z gilt pY +Z.Z = pX. Wir bezeichnen p als pV.Y=Z ) = Y=Z.Z (b)) = (pX. Also ist surjektiv.Y=Z (pX. Dann ist X pV. Es gibt genau einen Isomorphismus Y=Y \ Z ! Y +Z=Z mit pY. Dann pX=Z.W V=W ein Isomorphismus.Y=Z pX. also d 2 Y \ Z. und es gibt y 2 Y . 1. 2 Bemerkung: ker(p) = W. w 2 W mit b = x + w. Sei a 2 V=W gegeben. Theorem 2: (Isomorphiesatze) Sei X ein Vektorraum. Damit ist die Abbildung auch surjektiv.Z (d).Z (c) = b.Z (z) = 0 wegen z 2 Z. Dann gibt es b 2 X mit a = pX. O enbar gilt Y=Z = fy + Z j y 2 Y g fx + Z j x 2 X g = X=Z. Also pX.Z (c)) = a. Also Z + b Y .Y (b)) = (a) = 0.Y \Z = pY +Z.Y (b). 2 Satz 2: Sei W V ein Unterraum und sei X V ein Komplementarraum zu W . also b 2 Y . wobei i : Y ! Y + Z die Inklusion ist.Y \Z (d)) = pY +Z. und x 2 X.Y ? y y X=Y ! (X=Z)=(Y=Z) 2.Z (y + z) = pY +Z. Y. Wenn Z Y .Y=Z (y + Z) = 0: | {z } 2Y=Z Nach Theorem 1 gibt es genau eine lineare Abbildung . Also ist Y=Z ein Unterraum von X=Z. X pX. so da das Quadrat kommutiert.Y \Z (b) = c. Sei y 2 Y . Dann a = pV. dann gilt: pX=Z. Diese Abbildung ist surjektiv.Z (b) 2 ker(pX=Z.Y (c)) = pX=Z.W (x) + pV. Dann gibt es b 2 V mit pV.Z (y)) = pX=Z. also gilt a = pX.Y=Z (pX. ! Beweis: Der Kern der Abbildung ist gerade X \ ker(pV. dann gibt es b 2 Y + Z mit pY +Z. 2. z 2 Z mit b = y + z.Z i. ist surjektiv.Y=Z (pX.W (x). Z X Unterraume. Man pruft nun leicht nach. Dann gilt 0 = (pY. Also d 2 Z. Also ist die Abbildung auch surjektiv.Y (b) = 0. Sei andererseits c 2 ker( ).W . 2 122 .Y . denn fur a 2 (X=Z)=(Y=Z) gibt es b 2 X=Z mit pX=Z.W ) = X \ W = f0g.Z (i(z)) = pY +Z. so gibt es genau einen Isomorphismus : X=Y ! (X=Z)=(Y=Z) mit pX=Z.Y=Z pX. damit c = 0 und ist injektiv.Z (b) = a.Z i.und f(a) = f(~) + f(a a) = f(~). Beweis: 1.Y \Z = pY +Z. Dann (pX. Dann a = pY +Z. Dann gibt es d 2 Y mit pY.W (w) = pV.Y \Z (y)). da g linear ist und da gp = f a ~ a gilt. falls weitere Faktorraume auftreten.W (b) = a. Also ist die Abbildung injektiv.Y=Z (b) = a und c 2 X mit pX. denn sei a 2 Y + Z=Z. Sei andererseits a 2 ker( ). Nach Theorem 1 gibt es genau eine lineare Abbildung : Y=Y \ Z ! Y + Z=Z mit pY.Z (y) = (pY.

Dann sind f und f ~ zueinander inverse Isomorphismen. ^m ) eine Basis des Faktorraumes b b nach Satz 2. y) = fB (x y) fur alle x 2 X. Wenn wir die Bedingung aus der De nition fur X Y auf die bilineare Abbildung ~ anwenden. und es gilt ^ det(f) = det(f jW ) det(f) ^ tr (f) = tr(f jW ) + tr (f) Pf (T) = Pf jW (T)Pf^ Beweis: Fur w 2 W gilt pV. Also sind f und f ~ zueinander inverse Isomorphismen. falls es existiert. : : :.W (f(w)) = 0. bm ) von V . so da B(x. ~ ) zwei Tensorprodukte von X und Y . sonst Au osung nach der ersten Zeile und Induktionsvoraussetzung. ) und (X ~ Y. Sei B 0 = (b1. Ebenso zeigt man f ~ f = id X ~ Y .W f = fpV. Dann ist B = (^n+1 . 123 . y) 7! x y mit folgender Eigenschaft: wenn Z ein K-Vektorraum und B : X Y ! Z eine bilineare Abbildung ist. Sei f ein Endomorphismus von V mit ^ f(W) W. Seien dazu (X Y. so bekommen wir eine eindeutige lineare Abbildung f ~ : X Y ! X ~ Y mit f ~ (x y) = x ~ y. Dasselbe Argument mit Vertauschung der Rollen von und ~ ergibt ein eindeutig bestimmtes f : X ~ Y ! X Y mit f (x ~ y) = x y. Anwendung der Eindeutigkeitsaussage aus der De nition auf Z = X Y und B = ergibt g = id X Y . Die Aussage uber die Determinanten folgt aus folgendem L 0 Lemma: Fur L. 2 8 Tensorprodukte De nition 1: Ein Tensorprodukt zweier K-Vektorraume X. der Gro e von L. In der Tat. : : :. N quadratisch gilt det M N = det(L) det(N). bm ist eine Basis des Komplementarraums. ) bestehend aus einem K-Vektorraum X Y und einer bilinearen Abbildung : X Y ! X Y. Nach Theorem 1 erhalten wir die Existenz und ^ Eindeutigkeit von f. y 2 Y .W (bi ). : : :. 2 Beweis des Lemmas: Induktion nach a. Es gilt 0 Mat B (f) = Mat B0(f jW ) MatX (f) : ^ B ^ Die zweite Aussage (uber die Spuren) ist klar. Y ist ein Paar (X Y. dim(V ) < 1. denn bn+1 .W . g = f f ~ erfullt g(x y) = f (f ~ (x y)) = f (x ~ y) = x y. Dann gibt es genau einen Endomorphismus f^ von V=W mit pV. Bemerkung 1: Das Tensorprodukt ist eindeutig bis auf eindeutigen Isomorphismus bestimmt. Erganze zu einer Basis B = ^ b (b1. so gibt es genau eine lineare Abbildung fB : X Y ! Z. Dieselbe Eigenschaft hat aber auch id X Y . Die Aussage uber die charakterischen Polynome folgt (fur unendliche Korper) aus der Aussage uber die Determinanten.Satz 3: Sei W V ein Unterraum. : : :. (x. Sei ^i = pV. Falls a = 0 ist die Behauptung klar. bn) eine Basis von W.

y)G(x. y) = (x0 . und wenn 'G ( (x. Wegen der Surjektivitat von p folgt fB = f~B . Wenn (ei )m und (fj )n=1 Basen von X und Y sind.y) von der Bilinearitat messen. y). (x. y) (x+x0 . y0) = 1 (x.y0 ) (x. y)'G ( (x. Dann fB (x y) = fB (p( (x. Sei B : X Y ! Z bilinear und sei 'B : V ! Z die soeben beschriebene Abbildung ('B ( (x.y) (x. da fur beliebige X.y) ) = B(x. y0 ) . Beweis: Zu (1): Sei V die Menge aller Abbildungen f : X Y ! K mit endlichem Trager. 'B ( ( x.y) 2 V .1 uber Faktorraume gibt es genau eine lineare Abbildung fB : X Y ! Z mit fB p = 'B . gilt x = m i ei und i=1 Pn # f . Zu (2): Wir behaupten.y) ) = (x. 1 i n. Y X Y durch fx y j x 2 X. wenn die beiden Faktoren endlichdimensional sind. y) 6= (x y ) Wenn Z ein K-Vektorraum und G : X Y ! Z eine Abbildung ist. X Y existiert.y X )2X (x.y) (x.n eine Basis von i=1 j i. Sei W X Y die lineare Hulle der P Vektoren ei fj 2 X Y . und fur beliebige Tensorprodukte von X und Y folgt dann derselbe Sachverhalt nach Bemerkung 1.y)2X Y (x. In der Tat. Wenn ~ fB : X Y ! Z linear ist mit f~B (x y) = B(x.y) ) 'B ( (x. y) 7! (x. Nach Theorem 7.y) (x.B.y)2X Y f(x. z. y) 6= 0g endlich. y 2 Y . Insbesondere ist X Y endlichdimensional. 'G (f) = X ~ (die Summe ist endlich. Also 'B jW = 0.y+y0 ) (x.y) ) = B(x.y) ). 0 (x.y) (x.j =1 X Y . so gibt es genau eine lineare Abbildung 'G : V ! Z mit G(x. welcher von allen Vektoren. y).y) (x. 1 j n.y) ) = G(x. y) B(x. denn f hat endlichen Trager) leistet das Gewunschte. y) = 'G (f): Sei X Y = V=W. die die Abweichung der Abbildung X Y ! V . Fur x 2 X. also f~B p = 'B = fB p. y) j f(x. und sei p : V ! X Y die Projektion auf den Faktorraum. so gilt ~ X 'G (f) = 'G ( ~ ~ f(x. also ist f~B p = 'B nach der schon bewiesenen Eindeutigkeit von 'B . y). y)). 0 0 supp(f) = f(x.y) )) = 'B ( (x. 2. so f~B p( (x. Wegen ( ) ist bilinar. (x. 'G linear. y) f(x.y) ) = B( x. so ist (ei fj )m. y). y)G(x. annuliert 'B alle Vektoren aus ( ).y) ). y) = 'G ( (x. und es gilt dim(X Y ) = dim(X) dim(Y ).y) ) = ~ Y X Sei W V der Unterraum. also y = i=1 j j x y= m X i=1 ! 0X 1 X X m n n @ #j fj A = i #j ei fj 2 W: i ei j =1 i=1 j =1 124 .Theorem 1: 1. Weil B bilinear ist. y) (x. Fur den in (1) konstruierten Raum ist das klar.y) ) = B(x. y) = 0. Sei (x.y) (x.y) (x.y) (x0 ..y)2X Y f(x. y 2 Y g erzeugt wird.y) (x0 .y) ) = 'B ( ( x. und sei x y = p( (x. erzeugt wird: W wird erzeugt von ( ): ( x.

j (x y).4=1 fi. y 2 Y . x 2 X. W ). (x. Sei Bi.j (ek fl ) = Bi. fl. Fur K = IR. x y 7! y x. f i. x0) y 7! (x y. 2. Dann ist V K L ein L-Vektorraum mit Multiplikation l(V l0 ) = V (ll0 ).n : Sei (ei )m die zu (ei )m duale Basis von X und (fj )n=1 die zu (fj )n=1 duale i=1 i=1 j j i.j ei ej 2 T T . Fakt 1: Es gibt eindeutig bestimmte Isomorphismen mit folgenden Eigenschaften: 1.j (x. L = C erhalt man (V )C aus i den Ubungsaufgaben. X Y ! Y X. l w 7! fl. y) = li. W) mit dim(Bild (f)) < 1.j ei ej 2 T T .(k. (X X 0 ) Y ! (X Y ) (X 0 Y ).j Summenkonvention). Beweis der linearen Unabhangigkeit der (ei fj )m. Dann: li. Wenn (bi )n=1 eine Basis von V (uber K) i ist. 125 .j ).j : X Y ! K mit Bi.j =1 Basis von Y . Fakt 2: Wenn V und W Vektorraume sind. gilt W = X Y .j ei ej (Einsteinsche i. fl ) = ei (ek )fj (fl ) = ik jl = (i. so ist (bi 1)n=1 eine Basis von V K L uber L. y) = ei (x)fj (y).j (x. Beispiel 1: Fur eine Raum-Zeit mit Tangentialraum T an einem Punkt sei (ei )4=1 eine Basis von i P T und (ei ) die dazu duale Basis. Dann gibt es li. fi. x0 y).l): Daraus folgt die lineare Unabhangigkeit. Fur dim(B) < 1 ist sie ein Isomorphismus. und ihr Bild besteht aus allen f 2 L(V. f i.j ! 4. X (Y Z) ! (X Y ) Z.Weil die x y X Y erzeugen. Rijkl ! Rijklei ej ek el 2 T T T T . so gibt es genau eine lineare Abbildung V W ! L(V. sei V ein K-Vektorraum. 3.j = fi.w (v) = l(v)(w): 2 Diese Abbildung ist injektiv.j ! f i. Beispiel 2: Sei K L eine Korpererweiterung. x (y z) 7! (x y) z.w : V ! W.j (ek .

Sign up to vote on this title
UsefulNot useful